簡體   English   中英

批量大小如何影響折疊中拆分的數據數量?

[英]How does batch size affects number of data splitted in folds?

正在研究音頻分類問題。 我正在使用包含8732音頻的urbansound8k數據集。
我知道 kfold 將數據同樣分成 k 組。 每組將用於測試,rest 將用於訓練。

所以如果 k=4,每組將包含2,183個數據。 然而,這個結果與我自己的結果相去甚遠

batch_size = 1
num_folds =4
no_epochs = 10

kfold = KFold(n_splits=num_folds, shuffle=False)

for train, test in kfold.split(features, labels):

  
  model = Sequential()
  model.add(Dense(1000, activation='relu'))
  model.add(Dense(no_classes, activation='softmax'))
  



  model.compile(loss=loss_function,
                 optimizer=opt,
                 metrics=['accuracy'])

  history = model.fit(features[train], labels[train],
              batch_size=batch_size,
              epochs=no_epochs,
              verbose=verbosity,
              validation_split=validation_split,shuffle=False)


此代碼在 k=4 時具有以下結果:
- 使用批量大小 = 1 時每折5239
- 每折疊1048個,批量大小 = 5
- 每折524個,批量大小 = 10

我不明白這兩個參數之間的關系是什么:批量大小和折疊中的數據數量。

如果需要,我准備分享我的整個代碼。

好吧,如果您對這種關系感興趣,它們是,忽略 integer 舍入,成反比,即

batch_size * number_of_data_in_fold = some_constant

暫無
暫無

聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.

 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM