cost 445 ms
在 PyTorch 中輸入和 output 形狀到 GRU 層

[英]Input and output shape to GRU layer in PyTorch

我對 GRU 層的輸入形狀感到困惑。 我有一批 128 張圖像,我從每張圖像中提取了 9 個特征。 所以現在我的形狀是(1,128,9) 。 這是 GRU 層 問題 1: input_size=128是否正確定義? 這是轉發代碼 function 問題2:前向function中的代碼是否正確定義? ...

如何使用嵌入層添加不相關的訓練數據?

[英]how to add unrelated training data with an embedding layer?

我是 RNN 的初學者,想構建一個模型門控循環單元 GRU,用於預測用戶在名為 google 商品商店的電子商務網站上的行為,該網站銷售谷歌品牌商品。 我們有 5 種不同的操作: 添加到購物車 快速瀏覽點擊 產品點擊 從購物車中刪除 現場點擊 我的 data_y 目標看起來像這樣, ...

Seq2seq 使用 LSTM 訓練,但沒有使用 GRU:沒有足夠的值來解包(預期 3,得到 2)

[英]Seq2seq trains with LSTM, but not with GRU: not enough values to unpack (expected 3, got 2)

我正在嘗試運行 seq2seq 模型,當我使用 LSTM 作為編碼器/解碼器時它工作正常,但是當我用 GRU 替換 LSTM 時它返回錯誤: 我以為GRU和LSTM很像(雖然我對它們了解不多),不知道為什么會突然出現這個錯誤? 這是完整的代碼: ...

對於 GRU,mat1 和 mat2 形狀不能相乘

[英]mat1 and mat2 shapes cannot be multiplied for GRU

我正在創建一個 GRU 來為項目進行一些分類,我對 Pytorch 和實現 GRU 還比較陌生。 我知道類似的問題已經得到解答,但我似乎無法為自己的問題提供相同的解決方案。 我知道我的 fc arrays 的形狀/順序存在問題,但在嘗試更改后我再也看不到樹木的樹木了。 如果有人能指出我正確的方向,我 ...

構建用於股票預測的快速 GRU model

[英]Building a quick GRU model for stock prediction

我是 RNN 的初學者,想構建一個正在運行的RNNs門控循環單元GRU用於股票預測。 我有一個 numpy 數組用於具有這種形狀的訓練數據: 我的train_y.shape是 (1122,) 並表示具有1和0的二進制變量。 1是買入0是賣出。 考慮到這一點,我開始嘗試我的GRU model: 顯 ...

用於分類的 GRU 中不匹配的暗淡

[英]Mismatching dims in GRU for classification

我正在嘗試完成一項任務並編寫簡單的 RNN。 這是課程: 現在我不使用 LSTM 或嘗試做雙向 RNN,我只希望簡單的 GRU 訓練沒有錯誤。 這是訓練函數: 還有一些變量: 但我收到此錯誤: ValueError: 目標尺寸 (torch.Size([64])) 必須與輸入尺寸 ...

具有 2x2 輸入的雙向 GRU

[英]Bidirectional GRU with 2x2 inputs

我正在構建一個網絡,將字符串拆分為單詞,將單詞拆分為字符,嵌入每個字符,然后通過將字符聚合為單詞並將單詞聚合為字符串來計算該字符串的向量表示。 使用雙向 gru 層進行聚合並注意。 為了測試這個東西,假設我對這個字符串中的 5 個單詞和 5 個字符感興趣。 在這種情況下,我的轉換是: 接下來我有 ...

GRU 層中的計算是如何進行的

[英]How does calculation in a GRU layer take place

所以我想確切地了解一個 GRU 單元的輸出和隱藏 state 是如何計算的。 我從這里獲得了預訓練的 model 並且 GRU 層被定義為nn.GRU(96, 96, bias=True) 。 我查看了PyTorch 文檔並將權重和偏差的尺寸確認為: weight_ih_l0 : (288, 96 ...

多層 RNN 的隱藏層的輸入是什么

[英]What is the input to the hidden layers of a multilayer RNN

這個問題很清楚。 只有一個部分我還不知道答案……在本文的圖 1 中,深層的輸入是相同的輸入(即 x[t])還是上一層的 output? 一個非常簡單的表達問題的方法是在論文的圖 1 中,紅線是越過每一層,還是上一層的 output。 我認為在時間 t 所有層的輸入是 x[t] 因為如果它是前一層的 ...

Tensorflow - 機器翻譯解碼器

[英]Tensorflow - Decoder for Machine Translation

我正在閱讀Tensorflow 關於使用注意力機制的神經機器翻譯的教程。 它具有以下解碼器代碼: 我在這里不明白的是,解碼器的 GRU 單元沒有通過使用編碼器的最后一個隱藏的 state 初始化它來連接到編碼器。 據我了解,編碼器和解碼器之間存在聯系,只有當解碼器使用“思想向量”或編碼器的最后一個隱 ...

AttributeError: 'tuple' object 沒有屬性 'size'

[英]AttributeError: 'tuple' object has no attribute 'size'

更新:回顧這個問題后,大部分代碼都是不必要的。 總之,一個 Pytorch RNN 的隱藏層需要是一個火炬張量。 當我發布問題時,隱藏層是一個元組。 下面是我的數據加載器。 我不知道出了什么問題。 當我嘗試開始訓練 model 時,我收到錯誤消息: ...

RNN - RuntimeError:輸入必須有 3 個維度,得到 2

[英]RNN - RuntimeError: input must have 3 dimensions, got 2

我收到以下錯誤: RuntimeError:輸入必須有 3 個維度,得到 2 我有一個單一的特征列,我試圖將它輸入到 GRU 神經網絡中。 下面是我的數據加載器和神經網絡。 當我檢索一批數據時,我還包括了我的數據加載器的 output。 我究竟做錯了什么??? 當我傳入數據時,會生成以下批次…… ...

運行 GRU 模型時出現問題; 缺少 forward() 的參數

[英]Problem running GRU model; missing argument for forward()

我正在研究一個 GRU,當我嘗試進行預測時,我收到一個錯誤,表明我需要為 forward() 定義 h。 在谷歌搜索和搜索堆棧溢出數小時后,我嘗試了幾件事情並且失去了耐心。 這是課程: 然后這是我加載模型並嘗試進行預測的地方。 這兩個都在同一個腳本中。 沒有對 Gmodel 的任何其他參數 ...

尋找與 Pytorch GRU 功能等效的 TensorFlow

[英]Finding TensorFlow equivalent of Pytorch GRU feature

我對如何在 TensorFlow 中重建以下 Pytorch 代碼感到困惑。 它同時使用輸入大小x和隱藏大小h來創建 GRU 層 本能地,我首先嘗試了以下方法: 但是,我意識到它並沒有真正考慮h或隱藏大小。 在這種情況下我該怎么辦? ...

在pytorch中重置神經網絡的參數

[英]Reset parameters of a neural network in pytorch

我有一個具有以下結構的神經網絡: 我需要通過重置神經網絡的參數將模型恢復到未學習狀態。 我可以使用以下方法對nn.Linear層執行此操作: 但是,要重置nn.GRU層的權重,我找不到任何此類片段。 我的問題是如何重置nn.GRU層? 任何其他重置網絡的方式也可以。 任何幫助表示贊賞。 ...

輸入和隱藏張量不在同一個設備上,在 cuda:0 找到輸入張量,在 cpu 找到隱藏張量

[英]Input and hidden tensors are not at the same device, found input tensor at cuda:0 and hidden tensor at cpu

這是我的 lstm 網絡代碼,我將其實例化並傳遞給 Cuda 設備,但仍然收到隱藏和輸入不在同一設備中的錯誤 我想建立的連接圖片,請指導我實現它單擊此處查看錯誤按摩的圖像 ...

槽填充意圖檢測接頭 model

[英]slot-filling intent-detection joint model

大家好,我為聊天機器人開發了兩個 RNN 模型。假設用戶說:“告訴我明天巴黎的天氣如何”。 第一個 model 將能夠識別用戶的意圖 WEATHER_INFO,而第二個將能夠從 LOC:Paris 和 DATE:tomorrow 等短語中提取有意義的信息當然還有許多其他意圖類別,例如 MUSIC_ ...

如何在 pytorch 中獲得雙向 2 層 GRU 的最終隱藏 state

[英]How to get final hidden state of bidirectional 2-layers GRU in pytorch

我正在努力理解如何獲取隱藏層並將它們連接起來。 我以下面的代碼為例: 行hidden = torch.cat((hidden[-2,:,:], hidden[-1,:,:]), dim = 1)我沒明白。 據我了解,我這樣做是行不通的。 有人可以解釋一下。 我瀏覽了 PyTorch 文檔但沒有得到 ...

Keras - 具有循環丟失的 GRU 層 - 損失:'nan',准確度:0

[英]Keras - GRU layer with recurrent dropout - loss: 'nan', accuracy: 0

問題描述 我正在閱讀 François Chollet 的“Python 深度學習”(出版商網頁,github上的筆記本)。 復制第 6 章中的示例我遇到了(我相信)具有循環丟失的 GRU 層的問題。 我第一次觀察到這些錯誤的代碼很長,所以我決定堅持最簡單的問題,它可以復制錯誤:將 IMDB 評論 ...


 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM