簡體   English   中英

零丟包率的丟包層

[英]Dropout Layer with zero dropping rate

我無法理解 PyTorch 中丟失層的某個方面。

Pytorch 文檔中所述,該方法的簽名是torch.nn.Dropout(p=0.5, inplace=False)其中p是輟學率。

選擇p=0時,這一層做了什么? 它會以任何方式改變其輸入嗎?

p=0Dropout等價於恆等運算。

事實上,這是在eval模式下設置的 Dropout 模塊的確切行為:

在評估期間,模塊僅計算一個標識 function。

暫無
暫無

聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.

 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM