繁体   English   中英

错误:无法找到或加载主类edu.stanford.nlp.ie.crf.CRFClassifier

[英]Error: Could not find or load main class edu.stanford.nlp.ie.crf.CRFClassifier

我试图使用StanfordSegmenter来分割一段中文,但遇到了上述问题。 我首先从http://nlp.stanford.edu/software/segmenter.shtml下载了Stanford Word Segmenter版本3.5.2

然后我写了一个python:

import os
os.environ['JAVAHOME'] = "C:/Program Files/Java/jdk1.8.0_102/bin/java.exe"
from nltk.tokenize.stanford_segmenter import StanfordSegmenter
segmenter = StanfordSegmenter(path_to_jar = "./stanford-segmenter-2015-12-09/stanford-segmenter-3.6.0.jar", 
                          path_to_slf4j = "./stanford-segmenter-2015-12-09/slf4j-api.jar",
                          path_to_sihan_corpora_dict = "./stanford-segmenter-2015-12-09/data",
                          path_to_model = "./stanford-segmenter-2015-12-09/data/pku.gz", 
                          path_to_dict = "./stanford-segmenter-2015-12-09/data/dict-chris6.ser.gz")
sentence = u"这是斯坦福中文分词器测试"
segmenter.segment(sentence)

但是我收到以下错误:

Error: Could not find or load main class edu.stanford.nlp.ie.crf.CRFClassifier

我在哪里犯错? 谢谢。

我认为有一些实现错误。 我也有类似的问题。 要解决此错误,请尝试执行此操作

segmenter._stanford_jar = “./斯坦福-分段-2015年12月9日/斯坦福-分段-3.6.0.jar”

如果这不起作用尝试在segmenter._stanford_jar上提供segementer jar文件的完整路径

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM