[英]Recurrent Neural Network (RNN) - Forget Layer, and TensorFlow
我是RNN的新手,我想弄清楚LSTM單元的細節,它們與TensorFlow有關: Colah GitHub 與TensorFlow相比,GitHub網站的示例是否使用相同的LSTM單元? 我在TensorFlow網站上獲得的唯一信息是基本LSTM單元使用以下架構: 紙如果是相同的架構,那么我可以手工計算LSTM單元的編號並查看其是否匹配。
同樣,當我們在tensorflow中設置基本LSTM單元時,它會根據以下參數接受num_units
: TensorFlow文檔
tf.nn.rnn_cell.GRUCell.__init__(num_units, input_size=None, activation=tanh)
這是隱藏狀態(h_t))和單元格狀態(C_t)的數量嗎?
根據GitHub網站,沒有提及單元狀態和隱藏狀態的數量。 我假設他們必須是相同的數字?
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.