繁体   English   中英

递归神经网络(RNN)-忘记层和TensorFlow

[英]Recurrent Neural Network (RNN) - Forget Layer, and TensorFlow

我是RNN的新手,我想弄清楚LSTM单元的细节,它们与TensorFlow有关: Colah GitHub 在此处输入图片说明 与TensorFlow相比,GitHub网站的示例是否使用相同的LSTM单元? 我在TensorFlow网站上获得的唯一信息是基本LSTM单元使用以下架构: 如果是相同的架构,那么我可以手工计算LSTM单元的编号并查看其是否匹配。

同样,当我们在tensorflow中设置基本LSTM单元时,它会根据以下参数接受num_unitsTensorFlow文档

tf.nn.rnn_cell.GRUCell.__init__(num_units, input_size=None, activation=tanh)

这是隐藏状态(h_t))和单元格状态(C_t)的数量吗?

根据GitHub网站,没有提及单元状态和隐藏状态的数量。 我假设他们必须是相同的数字?

实现看起来与GRUCell文档相同,并且指向同一篇论文(特别是针对gated的论文),并带有Colah文章中给出的链接 参数num_units是对应于output_size属性定义的像元数(假设是隐藏层)。

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM