cost 268 ms
sklearn:将属性 out_activation_ 的值设置为“logistic” - sklearn: Set the valute to the attribute out_activation_ to 'logistic'

我需要在 sklearn 的 MLPRegressor 中设置属性 activation_out = 'logistic'。 假定此属性可以采用相关激活函数的名称('relu'、'logistic'、'tanh' 等)。 问题是我找不到您可以控制此属性并将其设置为首选功能的方式。 拜托,如果有人以 ...

在PyTorch nn.Linear function中输入和output相同的目的是什么? - What is the purpose of having the same input and output in PyTorch nn.Linear function?

我认为这是一个理解问题,但我将不胜感激任何帮助。 我正在尝试学习如何使用 PyTorch 进行自动编码。 在nn.Linear function中,指定了两个参数, nn.Linear(input_size, hidden_size) 当将张量重塑为其最小有意义的表示时,就像在自动编码中所做的那样 ...

张量值的 function 生成此错误:“false_fn”必须是可调用的 - The function for tensor value generates this Error: 'false_fn' must be callable

我正在创建一个 function,它采用张量值并通过应用以下公式返回结果,有 3 个条件,所以我使用 @tf.functions。 该代码生成以下错误: “false_fn”必须是可调用的。 我做了很多转换,int 到 float 和 float 到 int 但不知道是什么问题。 ...

为什么 ReLU function 在 CNN 的每一层之后? - Why ReLU function after every layer in CNN?

我正在介绍 Duke 提供的 Coursera 上的 ML,如果您对 ML 感兴趣,我推荐它。 本课程的讲师解释说“我们通常在神经网络的层之间包含非线性。这样做有很多原因。首先,如果它们之间没有任何非线性,连续的线性变换(完全连接的层)会折叠成一个单一的线性变换,这意味着 model 并不比单层更 ...

DequantizeAndLinearBackward 的 Output 0 是一个视图,正在就地修改。 此视图是在自定义 Function 和自动网格中创建的 - Output 0 of DequantizeAndLinearBackward is a view and is being modified inplace. This view was created inside a custom Function and the autogrid

我正在尝试微调 GPT J,但出现此错误。 我认为它与激活 function 有关并且它就位但我不知道如何对其进行编码以修复它。 是激活里面的参数function需要禁用吗? 如果有,是哪一个? 提前谢谢你的帮助! ...

自定义激活 function 在 Tensorflow 与可训练参数 - Custom activation function in Tensorflow with trainable params

我正在尝试在 tensorflow 中实现自定义版本的PElu激活 function。 这种激活的习惯是平滑 relu 的膝盖。 我从这篇论文中得到了方程。 这是代码: 我使用 Data Science SE 的这篇文章中的示例实现了这段代码。 错误: 我不明白这个错误。 我应该如何使用可训练参数a ...

如何在 PyTorch 中返回一个自定义激活 function 的可训练参数? - How to return of one trainable parameters of custom activation function in PyTorch?

下面提供了 Custom_activation_function 的伪代码: 在上面的两段代码中,Custom_activation_function 是一个自定义激活 function 的 class,多个线性层和激活函数在一个顺序的 Z20F35E630DAF44DBFA4C3F68F5399 ...

ValueError:调用层“p_re_lu_1”时遇到异常(类型 PReLU) - ValueError: Exception encountered when calling layer "p_re_lu_1" (type PReLU)

在遍历一系列神经元和激活函数时,我一直面临以下错误。 该错误仅在 Prelu 的情况下出现,并且没有其他激活函数会产生相同的影响。 我无法推断出这种现象背后的任何逻辑推理,也无法在在线论坛上找到任何相关问题。 如果我仅使用 Prelu 作为激活 function 的选择来编写此算法,并且不遍历激活 ...

自定义激活函数依赖于 Keras 中的其他输出节点 - Custom activation function dependant on other output nodes in Keras

我想使用长短期记忆 (LSTM) 网络预测多维数组,同时对感兴趣的表面的形状施加限制。 我想通过将输出的某些元素(表面区域)设置为与其他元素(简单缩放条件)的函数关系来实现这一点。 是否可以在 Keras 中为输出设置此类自定义激活函数,其参数是其他输出节点? 如果没有,是否有任何其他接口允许这 ...

基于输入的不同激活函数 - Different activation function based on input

我正在尝试构建一个 Keras 神经网络,其中输出层的激活函数(有条件地)取决于输入。 激活函数相当复杂,因此作为一个更简单的示例,请考虑以下内容: 该网络由一个输入层(即x1 , x2 )、一个带有输出y的隐藏层和一个输出层组成。 上面的激活对应于输出层的激活。 我将如何实现这样的事情? 感 ...

激活层学习什么? - What activation layers learn?

我试图弄清楚每个激活层之后的 CNN 架构。 因此,我编写了一个代码来可视化我模型中的一些激活层。 我使用 LeakyReLU 作为我的激活层。 这是Conv2d + BatchNorm后的LeakyRelu图 从图中可以看出,有相当紫色的边框,没有任何显示。 所以我的问题是它是什么意思。 我的模型 ...

说不是所有的激活 function 通过激活或停用 ANN 中的神经元来工作是否正确? - Is it correct to say that not all activation function work by activating or deactivating neurons in a ANN?

我理解,从计算的角度来看,即使激活 function 的 output 为零,它仍会将零从神经元输出到下一层,因此术语激活和停用神经元是松散描述架构和在模拟我们自己的大脑结构的人工神经网络 (ANN) 中的过程。 但是,我是从语言的角度来问这个的。 换句话说,由于有很多不同的激活函数,有些通过输出 ...


 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM