[英]How to correctly train with tf.keras.layers.BatchNormalization: Is there still a tf.GraphKeys.UPDATE_OPS dependency?
[英]How to use the tf.keras.layers.BatchNormalization() in custom training loop?
過了一會兒,我又回到了 tensorflow,看起來情況已經完全改變了。
但是,以前我曾經在訓練循環中使用tf.contrib....batch_normalization
和以下內容:
update_ops = tf.get_collection(tf.GraphKeys.UPDATE_OPS)
with tf.control_dependencies(update_ops):
train_op = optimizer.minimize(cnn.loss, global_step=global_step)
但似乎contrib
無處可尋,並且tf.keras.layers.BatchNormalization
的工作方式不同。 另外,我在他們的文檔中找不到任何培訓說明。
因此,感謝任何幫助信息。
我開始使用 pyTorch。 它解決了這個問題。
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.