[英]How to prevent Weights & Biases from saving unnecessary parameters
[英]Backpropagation - how neuron-error influences the net parameters (weights, biases)
當我試圖獲得深度學習流程時,我無法找到一個細節 -> 當我在每個神經元上(在反向傳播流程中)遇到錯誤時,接下來我應該如何處理所有錯誤。 模型的校准是關於調整權重和偏差。 但是我得到的每門課程都沒有說明計算誤差如何影響權重。 另一個問題是 - 如果我對每個訓練示例執行反向傳播......同樣,每個神經元錯誤如何影響我的網絡的整個權重(這對於所有訓練示例都是通用的)。
我會很感激你的幫助
當我試圖獲得深度學習流程時,我無法找到一個細節 -> 當我在每個神經元上(在反向傳播流程中)遇到錯誤時,接下來我應該如何處理所有錯誤。
這並不完全正確,您的輸出有一個損失函數,通常將其與某個標簽進行比較。 這方面的一個例子是經典的 MSE。
你有你的誤差函數,你基本上是根據輸出誤差調整不同神經元的權重。 如果你取誤差函數的導數/梯度並分解成鏈式法則,你可以看到如何調整每個神經元。 查看此鏈接以獲取詳細說明 - https://brilliant.org/wiki/backpropagation/ 。
另一個問題是 - 如果我對每個訓練 > 示例執行反向傳播......再次,每個神經元錯誤如何影響我的網絡的整個權重 >(這對於所有訓練示例都是通用的)。
通常每批示例執行反向傳播。 我建議閱讀隨機梯度下降以了解為什么調整批次的神經元權重對整個訓練集仍然有效。
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.