cost 283 ms
Adam optimezer 是否在每一层更新权重? - Is Adam optimezer updating weight in every layer?

我是神经网络的新手,所以我对 ADAM optimezer 有点困惑。 例如,我将 MLP 与这样的架构一起使用: 我之前用过SDG,所以想问一下用adam的优化改变权重和SDG更新每一层的权重是一样的吗? 在上面的示例中,这是否意味着从输出到隐藏层 2 将有 2 个权重变化,从隐藏层 2 到隐 ...

我们如何获得 Adam [Tensorflow] 的有效学习率? - How do we have access to the effective learning rate of Adam [Tensorflow]?

这个问题是从 Cross Validated 迁移而来的,因为它可以在 Stack Overflow 上回答。 6 小时前迁移。 我对亚当的有效学习率很感兴趣。 我们知道,Adam 大致由初始/恒定学习率除以过去损失梯度的总和形成(详见此处)。 问题的关键在于它具有自适应贡献,它作用于恒定的初始 ...

Adam Optimizer 不更新值 - Adam Optimizer not Updating Values

我正在尝试使用 Adam 优化器来获取神经网络之外的某些值。 我的技术不起作用,所以我创建了一个简单的例子来看看它是否有效: 我的直觉是 b 应该尽可能接近 a 以减少损失。 但是我看到 b 的任何值都没有变化,并且 loss 保持完全相同。 我在这里缺少什么? 谢谢。 ...

使用 Netscape 库执行 LDAP 搜索操作并在提供范围时获得最多 10000 个有限结果 (0-*) - Using Netscape library for performing LDAP search operation and getting limited result upto 10000 when range is provided (0-*)

我正在使用 Netscape 库在 microsoft ADS/ADAM Ldap 服务器上执行搜索操作以下是我正在使用的代码段: API 仅返回 10000 条“成员”多值属性记录。 服务器上的 MaxValRange 值设置为 50000。 有什么方法可以在一次搜索中获得超过 10K 的记录 ...

为什么即使损失正在改善,我的学习率也会降低? - Why does my learning rate decrease, even when loss is improving?

我正在 Google Colab TPU 上训练我的 Keras model,如下所示 - 在训练期间,我的学习率降低了 0.5 倍,即使损失随着学习率的当前值而改善。 正如您在下面的片段中看到的,学习率从 0.0020 下降到 0.0010 到 0.0005。 谢谢你的期待:) 请建议我哪里出错 ...

Adam 优化器真的是 RMSprop 加动量吗? 如果是,为什么它没有动量参数? - Is Adam optimizer really RMSprop plus momentum? If yes, why it doesn't have a momentum parameter?

这是 tensorflow 优化器的 链接。 你可以看到,RMSprop 将动量作为参数,而 Adam 没有这样做。 所以我很困惑。 Adam 优化伪装成具有动量的 RMSprop 优化,如下所示: 亚当 = RMSprop + 动量但是为什么 RMSprop 确实有动量参数而 Adam 没有呢 ...

模型收敛太快了 5 个纪元? - 5 epoch too soon for a model to converge?

我正在尝试构建一个 CNN 模型,我有大约 44,000 张图像,6 类,图像大小为 99X99。 首先,我使用 SGD 优化器尝试了 ResNet10,我将其设置为 30 个 epochs,学习率为 0.001,收到的最佳模型是 22 个 epoch,但最后 2 个类的准确性不是那么好,然后尝试了 ...

无法使用 GradientTape 重现 model.fit - can't reproduce model.fit with GradientTape

我一直在尝试调查原因(例如通过在训练期间检查权重、梯度和激活)为什么具有 0.001 学习率的 SGD 在训练中起作用,而 Adam 却没有这样做。 (请参阅我之前的帖子 [这里]( 为什么我的损失(二元交叉熵)收敛于 ~0.6?(任务:自然语言推理) “为什么我的损失(二元交叉熵)收敛于~0.6 ...

在 Keras 中使用 Adam 优化器恢复训练 - Resume training with Adam optimizer in Keras

我的问题很简单,但我在网上找不到明确的答案(到目前为止)。 在定义的训练周期数之后,我使用以下方法保存了使用 adam 优化器训练的 keras 模型的权重: 当我关闭 jupyter 后恢复训练时,我可以简单地使用: 继续训练。 由于 Adam 依赖于 epoch 数(例如在学习率衰减 ...


 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM