![](/img/trans.png)
[英]Can autograd in pytorch handle a repeated use of a layer within the same module?
[英]Can autograd handle repeated use of the same layer in the same depth of the computation graph?
我有一個工作如下的網絡:輸入分成兩半; 前半部分通過一些卷積層l1
,然后后半部分通過相同的層l1
(在計算輸入的前半部分的輸出之后),然后將兩個輸出表示連接並通過附加層l2
一次。 現在我的問題(類似於Can autograd in pytorch 處理在同一模塊中重復使用層?但與另一個問題中的設置不完全相同,同一層在計算圖的不同深度中被重用,而在這里,同一層在同一深度內使用兩次)是:autograd 是否正確處理此問題? 即l1
的反向傳播誤差是相對於它的兩個前向傳遞計算的,並且權重是同時適應這兩個?
Autograd 不在乎你“使用”了多少次。 這不是它的工作方式。 它只是在依賴關系的幕后構建一個圖,使用兩次只會生成一個不是線的圖,但不會影響其執行。
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.