cost 110 ms
Pytorch - nn.CrossEntropyLoss

[英]Pytorch - nn.CrossEntropyLoss

我想申請 nn.CrossEntropyLoss 在這種情況下, 我能解決這個問題嗎? 但如果批量大小為 2 output.shape 是 2,30,7 和 label.shape 是 2, 30 如何應用loss = criterion(outputs, targets) ...

我如何將樣本傳遞給損失 function?

[英]How do I pass a sample to a loss function?

我有一個 keras model,其中每個樣本由 3 個標量和 2 個矩陣組成。 其中一個矩陣是掩碼。 我需要看起來像 (Y_hat * mask - Y)^2 的均方損失 function,其中乘法是逐點的。 每個樣本都有自己的掩碼。 我如何讓這個面具對損失 function 可用? ...

為什么A2C中的損失是nan?

[英]Why is the loss nan in A2C?

賞金明天到期。 此問題的答案有資格獲得+50聲望賞金。 I_Al-thamary想提請更多人注意這個問題。 我正在實施A2C model,其中 actor 損失正在變為nan ,而 model 沒有學習。 state 空間為5 ,動作空間為51 。 有時,state 值在幾步后變得相同,有時變 ...

LSTM:在for循環中計算MSELoss在向后傳遞時返回NAN

[英]LSTM: calculating MSELoss in for loop returns NAN when backward pass

我是 LSTM 的新手,遇到了問題。 我正在嘗試以 4 個時間步長使用 7 個特征來預測變量。我正在使用 PyTorch。 數據從我的初始數據框 (traindf),我通過以下方式為每個特征和目標 (Y) 創建了張量: 我將所有特征張量連接成一個 X_train 和一個 X_test。 所有張量都 ...

如何在 GPfLOW 2 中使用自定義損失 function?

[英]How to use a custom loss function in GPfLOW 2?

我是 GPflow 的新手,我想弄清楚如何編寫自定義損失 function 來優化 model。為了我的目的,我需要通過不同的數據處理來操縱 GP 的預測 output,因此,它是 output經過這些處理后,我想根據 GP model 進行優化。 為此,我想使用均方根誤差作為損失 functio ...

RaggedTensor 變成 Tensor in loss function

[英]RaggedTensor becomes Tensor in loss function

我有一個序列到序列 model,我試圖在其中預測轉換后的 output 序列。 為此,我需要計算參差不齊的張量中元素之間的 MSE:def cpu_bce(y_value, y_pred): with tf.device('/CPU:0'): y_v = y_value.t ...

為什么 multiple input nn loss 卡住了

[英]Why is multiple input nn loss is stuck

我需要創建這樣的結構:結構我的嘗試: 我還對虛擬數據進行了測試: 它工作正常,但如果嘗試適合我的真實火車數據: 幾個時期后,我的損失陷入困境: 在這種情況下它也總是預測 0 ...

為什么 Word2Vec model 的損失值在幾個 epoch 后變為零?

[英]Why does the loss value of a Word2Vec model become zero after a few epochs?

我正在使用 gensim 來訓練一個 Word2Vec model ,其中 'text8' 作為語料庫。 但是我只是發現損失在幾個epoch后變成了0,我不知道該怎么辦。 你能幫我找出問題所在嗎? 代碼我的代碼的隱藏部分是:callbacks=[Callback()] 結果如下: vector_ ...

有沒有辦法從 Flux.train 打印損失?

[英]Is there a way to print loss from Flux.train?

我正在嘗試在 Flux 的幫助下在 Julia 中訓練 UNet。 損失在哪里 和 train_data_loader 是 我不明白如何將 Flux.train 的損失從打印損失中剔除(那是驗證損失嗎?)。 Evalcb 也會觸發計算損失的調用,所以沒有什么不同。 我要跳過額外的計算。 所以我所 ...

更大的batch size會導致更大的損失

[英]Larger batch size cause larger loss

我正在嘗試使用 pytorch 解決回歸問題。 我有一個預先訓練的 model 開始。 當我調整超參數時,我發現我的批量大小和訓練/驗證損失有一個奇怪的相關性。 具體來說: 我想知道這是否正常,或者我的代碼有問題。 優化器:SGD,學習率為 1e-3 損耗 function: 火車循環: 測試循環: ...

在 tradingview pine-script 策略中,我設置了止盈和止損,但它不能正常工作

[英]In the tradingview pine-script strategy, I set a takeprofit and stoploss but it doesn't work properly

我不是程序員,最近我正在學習 pine 腳本,所以我希望有所幫助。 為了清楚地描述我的問題,讓我們以“雙 EMA 策略”為例進行討論。 代碼如下: 上面的代碼工作正常,沒有錯誤,只是一個建議。 問題1:由於它建議使用“if”而不是“when”,所以我將“when”替換為“if”,如下所示: 但它有錯 ...

使用 HTTP 在 ThingsBoard 中丟失變量

[英]Loss of variables in ThingsBoard using HTTP

我正在研究使用 HTTP 協議將不同變量發送到同一設備所需的時間。 我進行的第一個測試是向設備發送單個變量超過 50 次,但是,當在 ThingsBoard 中分析結果並驗證變量發送了 50 次時,我意識到 ThingsBoard 平台沒有收到 50貨物和最后 7 件丟失。 通過進行不同的測試來研究 ...

為什么 IEEE754 中的浮點數不准確?

[英]Why Are Floating Point Numbers Inaccurate in IEEE754?

眾所周知,C中的數據類型float符合IEEE754。 並且 float 有 24 位有效二進制數字。 因此,如果超過 24 位,就會出現精度損失。 這樣,在不損失精度的情況下,最多可以浮點表示多少個十進制數字? 那最大的十進制數是多少? ...

損失是 NaN,數據變化很小

[英]Loss is NaN with small changes in Data

在我的 PyTorch 項目中,我稍微編輯了我的數據,現在我得到了 nan for loss.item() 。 使用舊數據,它仍在計算大量損失。 新數據 舊數據 有人能告訴我為什么會這樣嗎? ...

多標簽時間序列的 CrossEntropyLoss

[英]CrossEntropyLoss for multi-label time series

我對如何為我的時間序列模型應用交叉熵損失感到困惑,其中輸出的形狀為[batch_size, classes, time_steps]和目標形狀為[batch_size, time_steps, classes] 。 我試圖讓模型在每個時間步確定 16 個類的置信度。 通過使用以下方法,我得到了很大的 ...

如何在松樹策略腳本中的每個擺動低點/高點下編寫動態止損單?

[英]How to code dynamic stop loss orders under each swing low/high in a pine strategy script?

我正在嘗試編寫一個帶有止損單的策略,該止損單會自動放置在每個擺動低點或高點下方,因為我相信帶有百分比或刻度的靜態止損單更有可能在市場上失敗。 在網上搜索了很長時間后,我找不到任何適用於動態止損的腳本,但大多數腳本都適用於固定止損訂單。 然后,我遇到了 ta.lowest(low,14) / ...

為什么我的驗證損失小於訓練損失?

[英]Why my validation loss is smaller than the training loss?

在訓練深度卷積自動編碼器時,我一直得到比驗證損失更高的訓練損失。 請注意,在我的訓練數據生成器中,我正在使用 Keras zoom_range 進行數據擴充。 如果我提高 [0.8-4]、[0.8,6] 等縮放范圍,訓練和驗證損失之間的差距會不斷增加。 是因為訓練損失是根據增強數據計算的嗎? 假設更 ...


 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM