繁体   English   中英

spaCy:找不到 model '它'

[英]spaCy: Can't find model 'it'

你能告诉我我在下面的代码中缺少什么吗? 我正在尝试使用一些定义的函数(在帖子的底部),这些函数可以帮助我删除停用词、形成二元组并进行一些词形还原。 语言是意大利语。 我正在使用空间来这样做。

!python -m spacy download it_core_news_sm

import spacy
nlp = spacy.load("it_core_news_sm")

data_words_nostops = remove_stopwords(tok_text_list)

# Form Bigrams
data_words_bigrams = make_bigrams(data_words_nostops)

nlp = spacy.load('it', disable=['parser', 'ner'])

# Do lemmatization keeping only noun, adj, vb, adv
data_lemmatized = lemmatization(data_words_bigrams, allowed_postags=['NOUN', 'ADJ', 'VERB', 'ADV'])

print(data_lemmatized[:1])

在哪里

tok_text_list= [['papa',
  ',',
  "l'aspirante",
  'pilota',
  'anni',
  'morto',
  'fiume',
  'tevere',
  'seguito',
  "all'incidente",
  "l'aereo",
  '.',
  'spiaggia',
  'campo',
  'mare',
  'é',
  'vietata',
  'disabili',
  '.'], [...]]

我得到的错误是:

OSError                                   Traceback (most recent call last)
<ipython-input-216-775b3f412d6f> in <module>

---> 14 nlp = spacy.load('it', disable=['parser', 'ner'])
     15 
     16 # Do lemmatization keeping only noun, adj, vb, adv

    OSError: [E050] Can't find model 'it'. It doesn't seem to be a shortcut link, a Python package or a valid path to a data directory.

也许我忘记在代码中包含某些内容或下载其他文件。 我还尝试按照此处的建议重新运行所有内容: Loading the spacy German language model into a jupyter notebook 我正在使用木星笔记本。

谢谢

!python -m spacy download it

也许也只安装意大利语?

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM