[英]What is the difference between dropout layer and dropout parameter in any keras layer
是什么之間的區別Dropout
層和dropout
和recurrent_droput
在keras參數? 它們都用於相同的目的嗎?
例子:
model.add(Dropout(0.2)) # layer
model.add(LSTM(100, dropout=0.2, recurrent_dropout=0.2)) # parameters
是的,它們具有相同的功能,在該層的線性變換(權重相乘和偏置相加)之前使用 dropout 作為參數。 Dropout 作為層也可以在激活層之前使用。
recurrent_dropout 也有相同的功能但方向不同(通常 dropouts 在輸入和輸出之間,它在時間戳之間)
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.