[英]Using Sigmoid instead of Tanh activation function fails - Neural Networks
看起來您使用的模型不會訓練偏見。 tanh
和sigmoid
之間的唯一區別是縮放和偏移。 學習新的縮放比例將通過權重完成,但是您還需要學習補償新的偏移量,這也應該通過學習偏差來完成。
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.