![](/img/trans.png)
[英]Using output cell and hidden states of one LSTM cell as input states for another
通常,在討論堆疊 LSTM(具有獨立權重)時,單元格和隱藏狀態對於每個單獨的單元格都是唯一的,並且不在它們之間共享。 每個 LSTM 單元以其自己的一組狀態獨立運行。 是否有任何理由使用一個 LSTM 單元的 output 單元 state 和隱藏的 state 作為輸入單元 state 和另一個 ...
[英]Using output cell and hidden states of one LSTM cell as input states for another
通常,在討論堆疊 LSTM(具有獨立權重)時,單元格和隱藏狀態對於每個單獨的單元格都是唯一的,並且不在它們之間共享。 每個 LSTM 單元以其自己的一組狀態獨立運行。 是否有任何理由使用一個 LSTM 單元的 output 單元 state 和隱藏的 state 作為輸入單元 state 和另一個 ...
[英]ValueError in model.fit in lstm
我正在嘗試將 lstm model 與我讀取為 csv 文件的數據相匹配。 (320,6) 是 x_train 的形狀,model 給出為 這個 model.fit() 顯示值錯誤 ...
[英]Irrelevant results of seq-to-seq LSTM
我正在嘗試根據輸入數字預測整數序列。 輸入由 10 個整數的值組成: array([[2021001001], [2021001002],..., ,[2021335249]],dtype=int64) output如下,一個包含7個整數的數組。 array([[23, 26, 17, ... ...
[英]Does an LSTM model use trend in features?
LSTM 是否考慮了特征的趨勢? 還是它只看到先前輸出的趨勢(Y 預測)? 為了說明,假設我們在特征 A 上有一個趨勢。在我們的問題中,我們知道在現實世界中,Y 趨向於隨着 A 的增加而減小(成反比)。 但是,Y 與 A 的實際值無關。 例如,如果 A 從 10 增加到 20,Y 減少 1。如 ...
[英]Stateful RNN (LSTM) in keras
想象以下數據: 和 標簽以下列方式表示輸入: 我正在嘗試使用 keras 制作模型,以便在進行分類時,模型會記住它對前一階段的分類,並使其具有因果關系,因為下一個預測直接依賴於前一個,有點相似到 HMM 等其他方法。 所以是這樣的: Y2 = f( [x2,x3] , y1) 我已 ...
[英]Keras stateful LSTM error: Specified a list with shape [4,1] from a tensor with shape [32,1]
使用此代碼,我在嘗試使用 X_test 運行預測時遇到錯誤。 錯誤發生在擬合之后,而y_pred = model.predict(X_test)被執行。 錯誤: 在我看來,錯誤可能與所選的批量大小有關。 在我的研究中,我讀到樣本數量必須被有狀態 LSTM 的批量大小整除。 於是我求了X_train和 ...
[英]Tensorflow feeding initial state into RNN or LSTM
我想將一些變量作為初始 state 輸入 RNN 或 LSTM 層,並將另一個變量作為輸入輸入神經網絡。 My Xtrain (20000,6) 是一個時序電子電路瞬態分析輸入陣列,它有 20k 個樣本和六個變量,Vin,Vc1,Vc2,Vc3,il1,il2。 Vin用於輸入,我想輸入的五個 ...
[英]InvalidArgumentError when making a stateful LSTM
我正在研究一個有狀態的 LSTM 來預測股票價格。 這些是我輸入數據的形狀:(更新) 這是我的模型初始化: 但是當我適應這個時,我得到了錯誤: 據我所知,我已經正確定義了 batch_input_shape 並且沒有看到我做錯了什么。 編輯: 有人建議我嘗試讓我的樣本量除以我的批量 ...
[英]feature extraction for time series data
我有一個依賴於 k 的時間序列數據,我想提取數據的特征以找到輸入和輸出之間的關系。 對於模型的某些參數,輸出僅移動到 y 軸,就像我添加的圖一樣。 我想使用一個功能來捕獲這些參數。 你能幫我提取這樣一個 model 的特征嗎? 任何來源或示例將不勝感激 ...
[英]Question on the number of samples in LSTM
ts_x.shape is (228,12,1) ts_y.shape is (228,1,1) 正如我們在這里看到的,我現在有 228 個樣本,但是當我運行它時: ValueError: In a stateful network, you should only pass inputs wi ...
[英]Use Adam optimizer for LSTM network vs LBGFS
我已經修改了關於 LSTM 的pytorch 教程(正弦波預測:給定 [0:N] 正弦值 -> [N:2N] 值)以使用 Adam 優化器而不是 LBFGS 優化器。 但是,model 訓練不好,無法正確預測正弦波。 由於在大多數情況下我們使用 Adam 優化器進行 RNN 訓練,我想知道如 ...
[英]Can I split my long sequences into 3 smaller ones and use a stateful LSTM for 3 samples?
我正在做一個時間序列序列分類問題。 我有 80 個時間序列,全長 1002。每個序列對應於 4 個類別中的 1 個(銅、鎘、鉛、汞)。 我想使用 Keras LSTM 到 model 這個。 這些模型需要以[batches, timesteps, features]的形式提供數據。 由於每個 se ...
[英]Let me understand the model
我正在處理在 R 中使用 LSTM 預測電力 output 的問題。 我在 這里找到了一個非常適合我的數據的代碼。 但問題是我不明白是什么意思單位輸入形狀 layer_dropout layer_dropout 失利亞當下面是我提到我的問題列表的代碼。 ...
[英]How can I get a stateful LSTM to reset its states between epochs during a Keras Tuner search?
我正在嘗試使用 Keras Tuner 調整有狀態 LSTM。 我的代碼工作正常,它能夠訓練模型,但我仍然不知道如何讓 model 重置時期之間的狀態。 通常我會在一個循環中一次訓練 1 個 epoch 並在 epoch 之間手動 reset_states。 但是,我認為 Keras 調諧器甚至不 ...
[英]How to set up inputs for Keras stateful LSTM layer?
我在 Keras 中設置 stateful=True LSTM 層的輸入時遇到問題。 這是我到目前為止所擁有的: 這似乎運行一個訓練集,然后在做測試集時失敗; 我假設是因為我沒有正確設置樣品/批號。 我只是使用隨機數來嘗試讓有狀態的 LSTM 層工作,然后我將用我的實際數據替換它,其中包含從.wa ...
[英]Save memory in call method of custom layer in keras
我試圖將狀態保存在“內存層”中,以獲取LSTM層的最后N個步驟的激活。 問題是從call()方法中,我無法為圖層分配值。 執行預測: 我收到此錯誤: 我該如何解決? ...
[英]TensorFlow different input and output shapes for stateful LSTM model
我想創建一個“順序”model(您可能已經猜到的時間序列 model),它需要20天的特征大小為2的過去數據,並預測未來1天的特征大小為2 . 我發現您需要為有狀態 LSTM model 指定批量大小,因此如果我指定批量大小為32 ,則 model 的最終 output 形狀為(32, 2) ,我 ...
[英]nn.ModuleList not allowing to pass hidden and cell value
我有一個帶有 LSTM 的 class,然后是 nn.ModuleList,我在其中定義了另外兩個 LSTM 層,但是前向 function for 循環失敗並出現錯誤“forward() takes 1 positional argument but 3 were given”。 分享了下面的代碼 ...
[英]how to load a (multivariate) timeseries into a neural network /LSTM
如何加載時間序列,例如: 進入神經網絡(LSTM)。 到目前為止,我已經看到了這個矩陣轉置的方法( https://github.com/curiousily/Getting-Things-Done-with-Pytorch/blob/master/06.time-series-anomaly ...
[英]For LSTM variables I get error "tensorflow:Gradients do not exist for variables"
嗨,我有一個雙向 LSTM 層: 如您所見,我只是從 LSTM(而不是單元狀態)中使用隱藏的 state 這就是原因嗎,我是否收到以下警告: 警告:tensorflow:(后向層)的變量不存在梯度: lstm_cell_2/內核:0', lstm_cell_2/recurrent_kernel ...