簡體   English   中英

遞歸神經網絡(RNN)-忘記層和TensorFlow

[英]Recurrent Neural Network (RNN) - Forget Layer, and TensorFlow

我是RNN的新手,我想弄清楚LSTM單元的細節,它們與TensorFlow有關: Colah GitHub 在此處輸入圖片說明 與TensorFlow相比,GitHub網站的示例是否使用相同的LSTM單元? 我在TensorFlow網站上獲得的唯一信息是基本LSTM單元使用以下架構: 如果是相同的架構,那么我可以手工計算LSTM單元的編號並查看其是否匹配。

同樣,當我們在tensorflow中設置基本LSTM單元時,它會根據以下參數接受num_unitsTensorFlow文檔

tf.nn.rnn_cell.GRUCell.__init__(num_units, input_size=None, activation=tanh)

這是隱藏狀態(h_t))和單元格狀態(C_t)的數量嗎?

根據GitHub網站,沒有提及單元狀態和隱藏狀態的數量。 我假設他們必須是相同的數字?

實現看起來與GRUCell文檔相同,並且指向同一篇論文(特別是針對gated的論文),並帶有Colah文章中給出的鏈接 參數num_units是對應於output_size屬性定義的像元數(假設是隱藏層)。

暫無
暫無

聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.

 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM