繁体   English   中英

如何在斯坦福大学分类器中使用朴素贝叶斯分类器,SVM和最大熵

[英]How Can I use Naive Bayes Classifier, SVM, and Maximum Entrophy in stanford classifier

目前,我正在使用朴素贝叶斯算法,SVM和最大熵对引文句子进行分类,目前我的数据是110个非引文句子和10个引文句子。 我正在使用代码从斯坦福分类器示例中进行分类,结果很好。 但是分类器是拟牛顿。 如何使用朴素贝叶斯分类器,支持向量机和最大熵? 我已经尝试编辑prop文件并添加“ useNB = true”,但事实证明所有数据都是非引文句子类。 我已经在http://nlp.stanford.edu/nlp/javadoc/javanlp/edu/stanford/nlp/classify/ColumnDataClassifier.html上阅读了Javadoc,但我不知道将Navid Bayes算法的setClass放在哪里

默认情况下,分类器将运行最大熵(即逻辑回归)分类器-以编程方式运行LinearClassifier.java QNMinimizer是斯坦福大学L-BFGS最小化器的实现,用于优化最大目标。 我相信标志useNB=true对于切换到朴素贝叶斯是正确的。 对于运行SVM:理论上,CoreNLP具有SVMLight的包装器,但是此时您也可以直接运行SVMLight。

首先,您的训练数据是否不平衡? 在平衡的训练条件下,将所有句子放到一个班上会很奇怪。

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM