[英]Confusion regarding batch size while using DataLoader in pytorch
我是 pytorch 的新手。 我正在训练 ANN 对 MNIST 数据集进行分类。
train_loader = DataLoader(train_data,batch_size=200,shuffle=True)
我很困惑。 该数据集包含 60,000 张图像,我将批量大小设置为 6000,我的 model 有 30 个 epoch。 每个 epoch 会只看到 6000 张图像,还是每个 epoch 会看到 10 批 6000 张图像?
对数据集迭代器的每次调用都将返回一批大小为batch_size
的图像。 因此,您将有 10 个批次,直到用完所有60000
张图像。
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.