[英]How to reduce the number of features in text classification?
我正在做方言文本分类,并且我在朴素的贝叶斯上使用了countVectorizer。 功能的数量太多,我收集了4万种方言的2万条推文。 每个方言都有5000条推文。 并且功能总数为43K。 我当时在想,也许这就是为什么我会过拟合。 因为当我对新数据进行测试时,准确性下降了很多。 那么,如何确定功能数量以避免数据过度拟合?
例如,您可以将参数max_features设置为5000,这可能有助于过度拟合。 您还可以修改max_df (例如将其设置为0.95)
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.