繁体   English   中英

使用前馈神经网络进行超参数调整和过拟合 - Mini-Batch Epoch 和交叉验证

[英]Hyper-parameter tuning and Over-fitting with Feed-Forward Neural Network - Mini-Batch Epoch and Cross Validation

我正在考虑为使用PyTorch实现的前馈神经网络 (FNN) 实现超参数调整方法。 我最初的 FNN 模型名为net ,已使用具有 epochs 的小批量学习方法实现:

#Parameters
batch_size = 50 #larger batch size leads to over fitting
num_epochs = 1000 
learning_rate = 0.01 #was .01-AKA step size - The amount that the weights are updated during training
batch_no = len(x_train) // batch_size 

criterion = nn.CrossEntropyLoss()  #performance of a classification model whose output is a probability value between 0 and 1
optimizer = torch.optim.Adam(net.parameters(), lr=learning_rate)

for epoch in range(num_epochs):
    if epoch % 20 == 0:
        print('Epoch {}'.format(epoch+1))
    x_train, y_train = shuffle(x_train, y_train)
    # Mini batch learning - mini batch since batch size < n(batch gradient descent), but > 1 (stochastic gradient descent)
    for i in range(batch_no):
        start = i * batch_size
        end = start + batch_size
        x_var = Variable(torch.FloatTensor(x_train[start:end]))
        y_var = Variable(torch.LongTensor(y_train[start:end]))
        # Forward + Backward + Optimize
        optimizer.zero_grad()
        ypred_var = net(x_var)
        loss =criterion(ypred_var, y_var)
        loss.backward()
        optimizer.step()

我最后在一个单独的测试集上测试我的模型。

我遇到了一种使用随机搜索来调整超参数以及实现 K 折交叉验证 ( RandomizedSearchCV ) 的方法。

我的问题是双重的(没有双关语!)首先是理论上的:k 折验证是必要的还是可以为小批量前馈神经网络增加任何好处? 据我所知,小批量方法应该做大致相同的工作,停止过度拟合。

我也在这里找到了一个很好的答案但我不确定这是否专门解决了小批量方法。

其次,如果不需要k-fold, PyTorch是否有另一个超参数调整功能来避免手动创建一个?

  • 当数据集非常小时,k 折交叉验证通常很有用。 因此,如果您在像 CIFAR10(很大,60000 张图像)这样的数据集上进行训练,那么您不需要 k 折交叉验证。
  • k 折交叉验证的想法是查看模型性能(泛化)如何随着不同的数据子集用于训练和测试而变化。 当您的数据非常少时,这变得很重要。 但是,对于大型数据集,测试数据集上的度量结果足以测试模型的泛化性。
  • 因此,是否需要 k 折交叉验证取决于数据集的大小。 这与您使用的型号无关。
  • 如果你看一下深度学习这本书的这一章(这是在这个链接中第一次引用的):

小批量可以提供正则化效果(Wilson 和 Martinez,2003),这可能是由于它们添加到学习过程中的噪音。 泛化误差通常最适合批量大小为 1 的情况。使用如此小的批量大小进行训练可能需要很小的学习率来保持稳定性,因为梯度估计的差异很大。 由于需要执行更多步骤,因此总运行时间可能非常高,这既是因为学习率降低,又是因为需要更多步骤来观察整个训练集。

  • 所以,是的,小批量训练在一定程度上会产生正则化效果(减少过拟合)。
  • 没有内置的超参数调整(至少在撰写此答案时),但许多开发人员为此目的开发了工具(例如)。 您可以通过搜索找到更多此类工具。 这个问题的答案列出了很多这样的工具。

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM