[英]How does batch size affects number of data splitted in folds?
正在研究音頻分類問題。 我正在使用包含8732音頻的urbansound8k數據集。
我知道 kfold 將數據同樣分成 k 組。 每組將用於測試,rest 將用於訓練。
所以如果 k=4,每組將包含2,183個數據。 然而,這個結果與我自己的結果相去甚遠
batch_size = 1
num_folds =4
no_epochs = 10
kfold = KFold(n_splits=num_folds, shuffle=False)
for train, test in kfold.split(features, labels):
model = Sequential()
model.add(Dense(1000, activation='relu'))
model.add(Dense(no_classes, activation='softmax'))
model.compile(loss=loss_function,
optimizer=opt,
metrics=['accuracy'])
history = model.fit(features[train], labels[train],
batch_size=batch_size,
epochs=no_epochs,
verbose=verbosity,
validation_split=validation_split,shuffle=False)
此代碼在 k=4 時具有以下結果:
- 使用批量大小 = 1 時每折5239
- 每折疊1048個,批量大小 = 5
- 每折524個,批量大小 = 10
我不明白這兩個參數之間的關系是什么:批量大小和折疊中的數據數量。
如果需要,我准備分享我的整個代碼。
好吧,如果您對這種關系感興趣,它們是,忽略 integer 舍入,成反比,即
batch_size * number_of_data_in_fold = some_constant
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.