簡體   English   中英

張量流中的Batch_size? 理解這個概念

[英]Batch_size in tensorflow? Understanding the concept

我的問題很簡單,也很直接。 批量大小在訓練和預測神經網絡時指定了什么。 如何對其進行可視化,以便清楚地了解數據如何饋送到網絡。

假設我有一個自動編碼器

encoder = tflearn.input_data(shape=[None, 41])
encoder = tflearn.fully_connected(encoder, 41,activation='relu')

我正在輸入具有41個功能的csv文件,所以我理解的是它將從csv文件中獲取每個功能,並在批量大小為1時將其提供給第一層的41個神經元。

但是當我將批量大小增加到100時,100個批次的41個特征將如何被饋送到該網絡?

model.fit(test_set, test_labels_set, n_epoch=1, validation_set=(valid_set, valid_labels_set),
          run_id="auto_encoder", batch_size=100,show_metric=True, snapshot_epoch=False)

是否會對批次或其中的某些操作進行標准化?

兩種情況下的epoc數量相同

批量大小是您在網絡中提供的樣本數量。 對於輸入編碼器,您可以指定輸入未指定(無)的樣本量,每個樣本包含41個值。

使用None的優點是,您現在可以同時使用100個值的批次進行訓練(這對您的漸變有用),並使用一批只有一個值(一個您想要預測的樣本)進行測試。

如果沒有為每個批次指定標准化,則每個批次沒有標准化;)

希望我解釋得很好! 如果您有更多問題,請隨時問他們!

暫無
暫無

聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.

 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM