cost 157 ms
使用一個 LSTM 單元的 output 個單元和隱藏狀態作為另一個單元的輸入狀態

[英]Using output cell and hidden states of one LSTM cell as input states for another

通常,在討論堆疊 LSTM(具有獨立權重)時,單元格和隱藏狀態對於每個單獨的單元格都是唯一的,並且不在它們之間共享。 每個 LSTM 單元以其自己的一組狀態獨立運行。 是否有任何理由使用一個 LSTM 單元的 output 單元 state 和隱藏的 state 作為輸入單元 state 和另一個 ...

seq-to-seq LSTM 的不相關結果

[英]Irrelevant results of seq-to-seq LSTM

我正在嘗試根據輸入數字預測整數序列。 輸入由 10 個整數的值組成: array([[2021001001], [2021001002],..., ,[2021335249]],dtype=int64) output如下,一個包含7個整數的數組。 array([[23, 26, 17, ... ...

LSTM 模型是否使用特征趨勢?

[英]Does an LSTM model use trend in features?

LSTM 是否考慮了特征的趨勢? 還是它只看到先前輸出的趨勢(Y 預測)? 為了說明,假設我們在特征 A 上有一個趨勢。在我們的問題中,我們知道在現實世界中,Y 趨向於隨着 A 的增加而減小(成反比)。 但是,Y 與 A 的實際值無關。 例如,如果 A 從 10 增加到 20,Y 減少 1。如 ...

keras 中的有狀態 RNN (LSTM)

[英]Stateful RNN (LSTM) in keras

想象以下數據: 和 標簽以下列方式表示輸入: 我正在嘗試使用 keras 制作模型,以便在進行分類時,模型會記住它對前一階段的分類,並使其具有因果關系,因為下一個預測直接依賴於前一個,有點相似到 HMM 等其他方法。 所以是這樣的: Y2 = f( [x2,x3] , y1) 我已 ...

Keras 有狀態 LSTM 錯誤:從形狀為 [32,1] 的張量指定形狀為 [4,1] 的列表

[英]Keras stateful LSTM error: Specified a list with shape [4,1] from a tensor with shape [32,1]

使用此代碼,我在嘗試使用 X_test 運行預測時遇到錯誤。 錯誤發生在擬合之后,而y_pred = model.predict(X_test)被執行。 錯誤: 在我看來,錯誤可能與所選的批量大小有關。 在我的研究中,我讀到樣本數量必須被有狀態 LSTM 的批量大小整除。 於是我求了X_train和 ...

Tensorflow 將初始 state 饋送到 RNN 或 LSTM

[英]Tensorflow feeding initial state into RNN or LSTM

我想將一些變量作為初始 state 輸入 RNN 或 LSTM 層,並將另一個變量作為輸入輸入神經網絡。 My Xtrain (20000,6) 是一個時序電子電路瞬態分析輸入陣列,它有 20k 個樣本和六個變量,Vin,Vc1,Vc2,Vc3,il1,il2。 Vin用於輸入,我想輸入的五個 ...

制作有狀態 LSTM 時出現 InvalidArgumentError

[英]InvalidArgumentError when making a stateful LSTM

我正在研究一個有狀態的 LSTM 來預測股票價格。 這些是我輸入數據的形狀:(更新) 這是我的模型初始化: 但是當我適應這個時,我得到了錯誤: 據我所知,我已經正確定義了 batch_input_shape 並且沒有看到我做錯了什么。 編輯: 有人建議我嘗試讓我的樣本量除以我的批量 ...

時間序列數據的特征提取

[英]feature extraction for time series data

我有一個依賴於 k 的時間序列數據,我想提取數據的特征以找到輸入和輸出之間的關系。 對於模型的某些參數,輸出僅移動到 y 軸,就像我添加的圖一樣。 我想使用一個功能來捕獲這些參數。 你能幫我提取這樣一個 model 的特征嗎? 任何來源或示例將不勝感激 ...

關於LSTM中樣本數量的問題

[英]Question on the number of samples in LSTM

ts_x.shape is (228,12,1) ts_y.shape is (228,1,1) 正如我們在這里看到的,我現在有 228 個樣本,但是當我運行它時: ValueError: In a stateful network, you should only pass inputs wi ...

將 Adam 優化器用於 LSTM 網絡與 LBGFS

[英]Use Adam optimizer for LSTM network vs LBGFS

我已經修改了關於 LSTM 的pytorch 教程(正弦波預測:給定 [0:N] 正弦值 -> [N:2N] 值)以使用 Adam 優化器而不是 LBFGS 優化器。 但是,model 訓練不好,無法正確預測正弦波。 由於在大多數情況下我們使用 Adam 優化器進行 RNN 訓練,我想知道如 ...

我可以將我的長序列分成 3 個較小的序列並使用有狀態 LSTM 處理 3 個樣本嗎?

[英]Can I split my long sequences into 3 smaller ones and use a stateful LSTM for 3 samples?

我正在做一個時間序列序列分類問題。 我有 80 個時間序列,全長 1002。每個序列對應於 4 個類別中的 1 個(銅、鎘、鉛、汞)。 我想使用 Keras LSTM 到 model 這個。 這些模型需要以[batches, timesteps, features]的形式提供數據。 由於每個 se ...

讓我了解model

[英]Let me understand the model

我正在處理在 R 中使用 LSTM 預測電力 output 的問題。 我在 這里找到了一個非常適合我的數據的代碼。 但問題是我不明白是什么意思單位輸入形狀 layer_dropout layer_dropout 失利亞當下面是我提到我的問題列表的代碼。 ...

在 Keras Tuner 搜索期間,如何獲得有狀態 LSTM 來重置其狀態?

[英]How can I get a stateful LSTM to reset its states between epochs during a Keras Tuner search?

我正在嘗試使用 Keras Tuner 調整有狀態 LSTM。 我的代碼工作正常,它能夠訓練模型,但我仍然不知道如何讓 model 重置時期之間的狀態。 通常我會在一個循環中一次訓練 1 個 epoch 並在 epoch 之間手動 reset_states。 但是,我認為 Keras 調諧器甚至不 ...

如何為 Keras 有狀態 LSTM 層設置輸入?

[英]How to set up inputs for Keras stateful LSTM layer?

我在 Keras 中設置 stateful=True LSTM 層的輸入時遇到問題。 這是我到目前為止所擁有的: 這似乎運行一個訓練集,然后在做測試集時失敗; 我假設是因為我沒有正確設置樣品/批號。 我只是使用隨機數來嘗試讓有狀態的 LSTM 層工作,然后我將用我的實際數據替換它,其中包含從.wa ...

TensorFlow 不同的輸入和 output 狀態 LSTM 的形狀 model

[英]TensorFlow different input and output shapes for stateful LSTM model

我想創建一個“順序”model(您可能已經猜到的時間序列 model),它需要20天的特征大小為2的過去數據,並預測未來1天的特征大小為2 . 我發現您需要為有狀態 LSTM model 指定批量大小,因此如果我指定批量大小為32 ,則 model 的最終 output 形狀為(32, 2) ,我 ...

nn.ModuleList 不允許傳遞隱藏值和單元格值

[英]nn.ModuleList not allowing to pass hidden and cell value

我有一個帶有 LSTM 的 class,然后是 nn.ModuleList,我在其中定義了另外兩個 LSTM 層,但是前向 function for 循環失敗並出現錯誤“forward() takes 1 positional argument but 3 were given”。 分享了下面的代碼 ...

對於 LSTM 變量,我收到錯誤“tensorflow:變量不存在梯度”

[英]For LSTM variables I get error "tensorflow:Gradients do not exist for variables"

嗨,我有一個雙向 LSTM 層: 如您所見,我只是從 LSTM(而不是單元狀態)中使用隱藏的 state 這就是原因嗎,我是否收到以下警告: 警告:tensorflow:(后向層)的變量不存在梯度: lstm_cell_2/內核:0', lstm_cell_2/recurrent_kernel ...


 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM