cost 198 ms
我想在訓練期間調用一些層(但不是推理)——梯度似乎沒有流過這些層

[英]I want to call some layers during training (but not inference) - the gradients don't seem to flow through these layers

我正在使用帶有 ray.tune() 的自定義 PPO model,我想添加一些依賴於 batch['obs']、batch['done']、batch['action'] 和 batch 的自我監督學習['next_obs'] 我在我的 model 中定義了一些僅在訓練期間調用的層。 我已經定義了 ...

Pytorch:數據加載器如何從數據集中獲取批次?

[英]Pytorch: How exactly dataloader get a batch from dataset?

我正在嘗試使用 pytorch 來實現自我監督的對比學習。 有一個我無法理解的現象。 這是我從原始數據中獲取兩個增強視圖的轉換代碼: 正如ContrastiveTransformations的定義,我的數據集中的數據類型是一個包含兩個張量[x_1, x_2]的列表。 據我了解,來自數據加載器的批 ...

強化學習中的下游任務

[英]Downstream Task In Reinforcement Learning

我已經閱讀了一些關於基於自我監督的強化學習的段落,它使代理能夠在沒有人工監督的情況下進行學習,以及未標記數據集訓練的有效策略。 但我多次找到“下游任務”。 現在,強化學習中的“下游任務”是什么意思? ...

如何使用 K 均值聚類來可視化 CNN 模型的學習特征?

[英]How to use K means clustering to visualise learnt features of a CNN model?

最近我正在閱讀論文:“對比損失的有趣特性”( https://arxiv.org/abs/2011.02803 )。 在論文(第 3.2 節)中,作者試圖確定 SimCLR 框架在多大程度上允許 ResNet50 模型學習具有層次屬性的優質/通用特征。 為了實現這一點,他們在 ResNet50 模型 ...

SimCLR 不學習表示

[英]SimCLR does not learn representations

因此,我正在嘗試在包含字母表的前 5 個字母的數據集上使用自定義輕量級 ConvNet 主干訓練 SimCLR 網絡(已嘗試使用 ResNet),其中隨機選擇兩個字母並將其放置在圖像中的隨機位置。 我不確定在這種情況下使用什么增強,所以我只使用圖像翻譯來提供增強樣本之間的某種程度的差異。 這聽起來 ...

GradientTape 在嘗試計算梯度時返回一個空對象

[英]GradientTape returns an empty object when trying to compute the gradients

我想實現 Gatys 論文中討論的方法一種藝術風格的神經算法。 該方法需要一個自定義的損失函數,雖然我沒有在 TensorFlow 的文檔中搜索它,但我還是想自己實現它。 問題在於 GradientTape 不計算損失函數的梯度。 GradientTape 似乎不監視需要監視的變量。 我只是無法安 ...


 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM