繁体   English   中英

用德语标记单词

[英]Tokenizing words in German

我正在尝试确定德语句子中的主题。 对于英语,我曾经这样做:

import spacy
nlp = spacy.load('en')
sent = "I shot an elephant"
doc=nlp(sent)

sub_toks = [tok for tok in doc if (tok.dep_ == "nsubj") ]

print(sub_toks) 

但它不适用于nlp = spacy.load('de_core_news_sm')并使用德语句子。 它返回一个空列表。

我试着看 这里,即使他们有词性而不是主题,object 等。但它也返回空列表。 这在德语中甚至可能吗?

试试这个片段:

模块 spacy 中的句子为您提供德语句子的示例

import spacy
from spacy.lang.de.examples import sentences 

nlp = spacy.load("de_core_news_sm")
doc = nlp(sentences[0])
print(doc.text)
for token in doc:
    print(token.text, token.pos_, token.dep_)

https://spacy.io/models/de

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM