簡體   English   中英

mxnet:具有共享掩碼的多個輟學層

[英]mxnet: multiple dropout layers with shared mask

我想重現一個遞歸神經網絡,其中每個時間層后面都有一個輟學層,這些輟學層共享其掩碼。 除其他外, 在遞歸神經網絡中理論上的輟學應用中描述了這種結構。

據我所了解的代碼,在MXNet中實現的循環網絡模型在時間層之間沒有應用任何退出層。 dropout的功能,諸如參數lstmřAPIPython的API )實際上定義在輸入降。 因此,我需要從頭開始重新實現這些功能。

但是,Dropout層似乎沒有采用將mask定義為參數的變量。

是否可以在計算圖的不同位置創建多個輟學層,但共享其掩碼?

根據此處的討論,不可能指定掩碼,並且使用隨機種子不會影響dropout的隨機數生成器。

暫無
暫無

聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.

 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM