我正在创建一个 function,它采用张量值并通过应用以下公式返回结果,有 3 个条件,所以我使用 @tf.functions。 该代码生成以下错误: “false_fn”必须是可调用的。 我做了很多转换,int 到 float 和 float 到 int 但不知道是什么问题。 ...
我正在创建一个 function,它采用张量值并通过应用以下公式返回结果,有 3 个条件,所以我使用 @tf.functions。 该代码生成以下错误: “false_fn”必须是可调用的。 我做了很多转换,int 到 float 和 float 到 int 但不知道是什么问题。 ...
我正在尝试将 ReLU 激活 function 层添加到我的 neural.network。 但是,当我尝试以下代码时,出现此错误: 我尝试使用: 我对 neural.networks 很陌生。 谢谢 ...
如果我想在对 x 进行卷积之后进行 ReLU 操作,并且在我的代码中我会这样做: 这段代码是否错误,因为我在inplace为True时将 relu 分配给 x 变量? IE。 这是否意味着 ReLU 函数运行了两次并且为了正常工作我应该将inplace设置为False或不分配给 x? 谢谢 ...
我正在构建一个强化学习 model。 我正在尝试使用 tensorflow 在我的 2D Conv model 中使用 PRelu。 这是演员 Model 的代码。 代码: 我在 LeakyRelu 上工作得很好,但是当我使用 Prelu 时,我会抛出与尺寸相关的错误。 我不明白错误: 现在给任何 ...
我在 google colab 工作,所以我假设它的当前版本为 pytorch。我试过这个: 并得到: 我在这里做错了什么? ...
我想知道 ReL function 是线性的还是恒等的 function。 如果 function 是线性的(即 y=kx+d),则 function 可以“改变”很多。 另一方面,如果 function 是一个身份 function(意思是 y=x),那么 output 不会改变——至少对于正输 ...
我这样声明 ReLU function: 并且发生了 ValueError 并且其回溯消息是 ValueError:具有多个元素的数组的真值不明确。 使用 a.any() 或 a.all() 但是,如果我用 numpy 更改 ReLU function,它可以工作: 为什么这个函数( relu(x ...
relu 作为激活函数或层之间有什么区别吗? 例如 或者 ...
由于标题是自我描述的,因此当我尝试加载训练有素的 CNN model 时,我收到了ValueError: Unknown activation function: PReLU错误,它使用PReLU作为卷积层和密集层的激活 function。 这个model怎么用? 有解决方法吗? ps 我正在使 ...
我写了一个简单的 nn(它应该添加两个数字)并且我尝试了不同的激活函数,这是我的代码 这是主要的 我有两个问题:- 当使用Learning_rate = 0.1的ReLU以外的激活时,它需要超过100,000个时期才能使一些错误接近零但仍然没有达到0但它是一致的并且错误总是在下降,所以 ...
如果我用 sigmoid function 尝试这个,它工作正常,但是当 ReLU 激活 function 被实现时,程序不会学习任何东西。 NN 由 3 个输入、隐藏、output 层和 sigmoid 激活函数组成,用于 output function。 手工计算似乎很好,但找不到缺陷。 ...
在构建 Sequential model 时,我注意到添加relu层和LeakyReLU层之间存在差异。 为什么我们不能添加激活层=“ LeakyReLU ”? (LeakyReLU 不是 keras 可以使用的字符串) 添加relu层时,我们设置了单元数(在我的示例中为 1024) 为什么我们 ...
我正在尝试在构建我的神经网络时更改激活 function Relu的阈值。 因此,初始代码是下面写的,其中 relu 阈值的默认值为 0。 但是,Keras 提供了相同的 function 实现,可以参考这里并添加屏幕截图。 因此,我将代码更改为以下代码以传递自定义 function 仅得到以下错 ...
我的神经网络有一个二元分类问题。 我已经在我的隐藏层中使用 ReLU 激活 function 和 output 层中的 sigmoid function 得到了很好的结果。 现在我正在努力获得更好的结果。 我使用 ReLU 激活 function 添加了第二个隐藏层,结果变得更好。 我尝试对第二个 ...
我已经构建、安装并保存了以下 model: 我正在使用 load_model function 进行评估,到目前为止我还没有遇到任何问题,但我现在收到以下错误: 我应该对架构进行任何语法更改,还是这里有更深层次的问题? 任何建议将不胜感激,因为我已经尝试设置一些自定义对象,如下所述: https:/ ...
我已经搜索了文档,但找不到答案。 SPACY 是否使用 ReLu、Softmax 或两者作为激活 function? 谢谢 ...
我对 cnn 编程很陌生,所以我有点迷茫。 我正在尝试执行这部分代码,他们要求我实现一个完全连接的网络来对数字进行分类。 它应该包含 1 个具有 20 个单元的隐藏层。 我应该在隐藏层上使用 ReLU 激活 function。 点是要填充的部分,我想到了这一行: 但我不知道它是否正确。 有人可以帮我 ...
我们都知道,当我们使用带有 sigmoid 的深度神经网络时会出现梯度消失问题,如果我们使用 relu,它可以解决这个问题,但它会产生死神经元问题,然后它会通过leaky relu 来解决。 如果 RNN 中存在梯度消失问题,为什么我们会转向 LSTM。 为什么我们不能只使用 relu 来解决它。 ...
你知道为什么 this.network 不想学习吗? 这个想法是它在较早的层中使用 ReLU 作为激活 function,在最后一层中使用 sigmoid 作为激活 function。 当我只使用 sigmoid 时,.network 学得很好。 为了验证 .network,我使用了 MNIST。 ...
我正在尝试使用神经网络来预测房屋的价格。 这是数据集顶部的样子: 我正在使用 ReLU 激活函数。 当我尝试在我的测试数据上评估我的模型时,我得到了这个TypeError: unsupported operand type(s) for +=: 'Dense' and 'str' 。 我查看了 ...