簡體   English   中英

如何在自定義訓練循環中使用 tf.keras.layers.BatchNormalization()?

[英]How to use the tf.keras.layers.BatchNormalization() in custom training loop?

過了一會兒,我又回到了 tensorflow,看起來情況已經完全改變了。

但是,以前我曾經在訓練循環中使用tf.contrib....batch_normalization和以下內容:

update_ops = tf.get_collection(tf.GraphKeys.UPDATE_OPS)
with tf.control_dependencies(update_ops):
    train_op = optimizer.minimize(cnn.loss, global_step=global_step)

但似乎contrib無處可尋,並且tf.keras.layers.BatchNormalization的工作方式不同。 另外,我在他們的文檔中找不到任何培訓說明。

因此,感謝任何幫助信息。

我開始使用 pyTorch。 它解決了這個問題。

暫無
暫無

聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.

 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM