簡體   English   中英

任何keras層中的dropout層和dropout參數有什么區別

[英]What is the difference between dropout layer and dropout parameter in any keras layer

是什么之間的區別Dropout層和dropoutrecurrent_droput在keras參數? 它們都用於相同的目的嗎?

例子:

model.add(Dropout(0.2))  # layer
model.add(LSTM(100, dropout=0.2, recurrent_dropout=0.2))  # parameters

是的,它們具有相同的功能,在該層的線性變換(權重相乘和偏置相加)之前使用 dropout 作為參數。 Dropout 作為層也可以在激活層之前使用。

recurrent_dropout 也有相同的功能但方向不同(通常 dropouts 在輸入和輸出之間,它在時間戳之間)

暫無
暫無

聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.

 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM