[英]SimpleTransformers model not training on whole data (As shown in brackets under epochs bar)?
簡而言之:不,它是在所有數據上進行訓練。
首先讓我們看看一些參數:
num_of_train_epochs: 4
:您的設置,這意味着整個數據集將被訓練 4 次。 這就是為什么您在 output 中有 4 個柱。
train_batch_size: 8
:這是默認設置,意味着對於權重的每次更新,您在訓練數據中使用 8 條記錄(總共 1751 條記錄)
所以這意味着,每個時期總共有 1751/8 = 218.875 個批次,也就是您在 output 中看到的 219/219。
你在底部看到的 876 只是意味着它總共經歷了 219(每個時期的批次)* 4(時期的數量)= 876 批次/更新。
證明這一點的一種方法是將num_of_train_epochs
更改為 1。您應該看到 219 而不是 876。
batch 和 epoch的定義:
批量大小是在更新 model 之前處理的樣本數。
epochs 的數量是完整通過訓練數據集的次數。
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.