[英]How to achieve removing/pruning the near-zero parameters in neural network?
我需要去除神經網絡的接近零的權重,使參數的分布遠離零點。 去除近零權重和權重縮放后的權重分布
我從這篇論文中遇到了問題: https://ieeexplore.ieee.org/document/7544366
我想知道如何在我的 PyTorch/TensorFlow 程序中實現這一點,例如使用自定義激活層? 或者定義一個損失 function 來懲罰接近零的權重?
如果你能提供任何幫助,謝謝。
您正在尋找 L1 正則化, 請閱讀文檔。
import tensorflow as tf
tf.keras.layers.Dense(units=128,
kernel_regularizer=tf.keras.regularizers.L1(.1))
較小的系數將變為零。
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.