![](/img/trans.png)
[英](MINIST ML training) Why I keep getting high and fluctuating loss? What is wrong with my code?
[英]What is wrong with this code, why the loss in this code is not reducing?
我已經在張量流中實現了VGG-16,VGG-16是相當深的網絡,因此損耗肯定會減少。 但是在我的代碼中,它並沒有減少。 但是當我一次又一次地在同一批次上運行模型時,損失正在減少。 任何想法,為什么會發生這種事情。
VGG-net從這里開始 。
對dog-vs-cat數據集進行了訓練,圖像尺寸為224x224x3。
網絡參數如下:
lr_rate:0.001 batch_size = 16
查找代碼@ GitHubGist
輸出如下:
我假設您正在遵循所鏈接的Simonyan&Zisserman論文中的體系結構變體E-然后發現您的代碼存在一些問題:
對所有隱藏層使用activation='relu'
。
最大池化應該在2 x 2的窗口上進行,因此在池化層中使用pool_size=[2, 2]
而不是pool_size=[3, 3]
。
正確地將pool13
與conv13
鏈接起來:
pool13 = tf.layers.max_pooling2d(conv13, [2, 2], 2, name='pool13')
我沒有可供測試的GPU,但是經過足夠的迭代,損耗應該會減少。
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.