[英]mxnet: multiple dropout layers with shared mask
我想重現一個遞歸神經網絡,其中每個時間層后面都有一個輟學層,這些輟學層共享其掩碼。 除其他外, 在遞歸神經網絡中 , 理論上的輟學應用中描述了這種結構。
據我所了解的代碼,在MXNet中實現的循環網絡模型在時間層之間沒有應用任何退出層。 該dropout
的功能,諸如參數lstm
( řAPI , Python的API )實際上定義在輸入降。 因此,我需要從頭開始重新實現這些功能。
但是,Dropout層似乎沒有采用將mask定義為參數的變量。
是否可以在計算圖的不同位置創建多個輟學層,但共享其掩碼?
根據此處的討論,不可能指定掩碼,並且使用隨機種子不會影響dropout的隨機數生成器。
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.