[英]Batch_size in tensorflow? Understanding the concept
我的問題很簡單,也很直接。 批量大小在訓練和預測神經網絡時指定了什么。 如何對其進行可視化,以便清楚地了解數據如何饋送到網絡。
假設我有一個自動編碼器
encoder = tflearn.input_data(shape=[None, 41])
encoder = tflearn.fully_connected(encoder, 41,activation='relu')
我正在輸入具有41個功能的csv文件,所以我理解的是它將從csv文件中獲取每個功能,並在批量大小為1時將其提供給第一層的41個神經元。
但是當我將批量大小增加到100時,100個批次的41個特征將如何被饋送到該網絡?
model.fit(test_set, test_labels_set, n_epoch=1, validation_set=(valid_set, valid_labels_set),
run_id="auto_encoder", batch_size=100,show_metric=True, snapshot_epoch=False)
是否會對批次或其中的某些操作進行標准化?
兩種情況下的epoc數量相同
批量大小是您在網絡中提供的樣本數量。 對於輸入編碼器,您可以指定輸入未指定(無)的樣本量,每個樣本包含41個值。
使用None的優點是,您現在可以同時使用100個值的批次進行訓練(這對您的漸變有用),並使用一批只有一個值(一個您想要預測的樣本)進行測試。
如果沒有為每個批次指定標准化,則每個批次沒有標准化;)
希望我解釋得很好! 如果您有更多問題,請隨時問他們!
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.