cost 125 ms
张量值的 function 生成此错误:“false_fn”必须是可调用的 - The function for tensor value generates this Error: 'false_fn' must be callable

我正在创建一个 function,它采用张量值并通过应用以下公式返回结果,有 3 个条件,所以我使用 @tf.functions。 该代码生成以下错误: “false_fn”必须是可调用的。 我做了很多转换,int 到 float 和 float 到 int 但不知道是什么问题。 ...

Python 神经网络。 ValueError:具有多个元素的数组的真值不明确。 使用 a.any() 或 a.all() - Python Neural Networks. ValueError: The truth value of an array with more than one element is ambiguous. Use a.any() or a.all()

我正在尝试将 ReLU 激活 function 层添加到我的 neural.network。 但是,当我尝试以下代码时,出现此错误: 我尝试使用: 我对 neural.networks 很陌生。 谢谢 ...

在 inplace 参数为 True 时将函数 relu 分配给变量 - Assigning functional relu to a variable while inplace parameter is True

如果我想在对 x 进行卷积之后进行 ReLU 操作,并且在我的代码中我会这样做: 这段代码是否错误,因为我在inplace为True时将 relu 分配给 x 变量? IE。 这是否意味着 ReLU 函数运行了两次并且为了正常工作我应该将inplace设置为False或不分配给 x? 谢谢 ...

当我尝试加载使用 PReLU 作为激活 function 的训练有素的 model 时出现“ValueError:未知激活 function:PReLU”? - Getting "ValueError: Unknown activation function: PReLU" when I try to load a trained model that employes PReLU as the activation function?

由于标题是自我描述的,因此当我尝试加载训练有素的 CNN model 时,我收到了ValueError: Unknown activation function: PReLU错误,它使用PReLU作为卷积层和密集层的激活 function。 这个model怎么用? 有解决方法吗? ps 我正在使 ...

ReLU 不一致/随机行为 - ReLU inconsistency/randomized behaviour

我写了一个简单的 nn(它应该添加两个数字)并且我尝试了不同的激活函数,这是我的代码 这是主要的 我有两个问题:- 当使用Learning_rate = 0.1的ReLU以外的激活时,它需要超过100,000个时期才能使一些错误接近零但仍然没有达到0但它是一致的并且错误总是在下降,所以 ...

LeakyReLU 层如何在不设置单元数的情况下工作? - How LeakyReLU layer works without setting the number of units?

在构建 Sequential model 时,我注意到添加relu层和LeakyReLU层之间存在差异。 为什么我们不能添加激活层=“ LeakyReLU ”? (LeakyReLU 不是 keras 可以使用的字符串) 添加relu层时,我们设置了单元数(在我的示例中为 1024) 为什么我们 ...

更改 keras RELU 激活 function 的阈值 - Change the threshold value of the keras RELU activation function

我正在尝试在构建我的神经网络时更改激活 function Relu的阈值。 因此,初始代码是下面写的,其中 relu 阈值的默认值为 0。 但是,Keras 提供了相同的 function 实现,可以参考这里并添加屏幕截图。 因此,我将代码更改为以下代码以传递自定义 function 仅得到以下错 ...

多层的多重激活函数(神经网络) - Multiple Activation Functions for multiple Layers (Neural Networks)

我的神经网络有一个二元分类问题。 我已经在我的隐藏层中使用 ReLU 激活 function 和 output 层中的 sigmoid function 得到了很好的结果。 现在我正在努力获得更好的结果。 我使用 ReLU 激活 function 添加了第二个隐藏层,结果变得更好。 我尝试对第二个 ...

由于“未知的激活函数:LeakyReLU”而无法加载模型 - Unable to load_model due to 'unknown activation_function: LeakyReLU'

我已经构建、安装并保存了以下 model: 我正在使用 load_model function 进行评估,到目前为止我还没有遇到任何问题,但我现在收到以下错误: 我应该对架构进行任何语法更改,还是这里有更深层次的问题? 任何建议将不胜感激,因为我已经尝试设置一些自定义对象,如下所述: https:/ ...

关于用 PyTorch 编程 cnn 的问题 - Questions about programming a cnn with PyTorch

我对 cnn 编程很陌生,所以我有点迷茫。 我正在尝试执行这部分代码,他们要求我实现一个完全连接的网络来对数字进行分类。 它应该包含 1 个具有 20 个单元的隐藏层。 我应该在隐藏层上使用 ReLU 激活 function。 点是要填充的部分,我想到了这一行: 但我不知道它是否正确。 有人可以帮我 ...

如果我们主要使用 LSTMs 而不是 RNNs 来解决梯度消失问题,为什么我们不能只使用带有 RNNs 的 ReLUs/leaky ReLUs 呢? - If we primarily use LSTMs over RNNs to solve the vanishing gradient problem, why can't we just use ReLUs/leaky ReLUs with RNNs instead?

我们都知道,当我们使用带有 sigmoid 的深度神经网络时会出现梯度消失问题,如果我们使用 relu,它可以解决这个问题,但它会产生死神经元问题,然后它会通过leaky relu 来解决。 如果 RNN 中存在梯度消失问题,为什么我们会转向 LSTM。 为什么我们不能只使用 relu 来解决它。 ...

神经网络类型错误:+= 不支持的操作数类型:“密集”和“str” - Neural Network TypeError: unsupported operand type(s) for +=: 'Dense' and 'str'

我正在尝试使用神经网络来预测房屋的价格。 这是数据集顶部的样子: 我正在使用 ReLU 激活函数。 当我尝试在我的测试数据上评估我的模型时,我得到了这个TypeError: unsupported operand type(s) for +=: 'Dense' and 'str' 。 我查看了 ...


 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM