![](/img/trans.png)
[英]Dropout behavior in Keras with rate=1 (dropping all input units) not as expected
[英]Dropout Layer with zero dropping rate
我無法理解 PyTorch 中丟失層的某個方面。
如Pytorch 文檔中所述,該方法的簽名是torch.nn.Dropout(p=0.5, inplace=False)
其中p
是輟學率。
選擇p=0
時,這一層做了什么? 它會以任何方式改變其輸入嗎?
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.