[英]training time and overfitting with gamma and C in libsvm
我现在使用libsvm与高斯内核一起支持向量机分类器。 在其网站上 ,它提供了一个python脚本grid.py来选择最佳的C和gamma。
我只是想知道伽玛和C的训练时间和过度拟合/拟合不足会如何变化?
是否正确:
假设C从0变为+无穷大,则训练后的模型将从欠拟合变为过拟合,并且训练时间增加了吗?
假设伽马从几乎0变为+无限大,训练后的模型将从不完全拟合变为过度拟合,并且训练时间增加了?
在grid.py中,默认的搜索顺序是C从小到大,但Gamma从大到小。 是为了从小型培训到大型培训时间,还是从拟合不足到过度拟合的训练模型? 这样我们也许可以节省选择C和gamma值的时间?
谢谢并恭祝安康!
我没有一个确定的答案,这是一个好问题,因为我自己想知道。 但是针对这个问题:
这样我们也许可以节省选择C和gamma值的时间?
...我发现,使用libsvm,对于C和gamma来说,肯定存在高度依赖于问题的“正确”值。 因此,无论搜索伽玛的顺序如何,都必须测试许多伽玛候选值。 最终,我不知道此耗时的快捷方式(取决于您的问题),但需要进行参数搜索。
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.