[英]Topic modelling- Calculate the coherence score of an sklearn LDA model?
[英]What does the score indicate in topic modelling
我按照本教程https://www.datacamp.com/community/tutorials/discovering-hidden-topics-python将 gimsm 用于 LSA
在运行它以获取文本列表后,我得到了以下 output
[(1, '-0.708*"London" + 0.296*"like" + 0.294*"go" + 0.287*"dislike" + 0.268*"great" + 0.200*"romantic" + 0.174*"stress" + 0.099*"lovely" + 0.082*"good" + -0.075*"Tower" + 0.072*"see" + 0.063*"nice" + 0.061*"amazing" + -0.053*"Palace" + 0.053*"walk" + -0.050*"Eye" + 0.046*"eat" + -0.042*"Bridge" + 0.041*"Garden" + 0.040*"Covent" + -0.040*"old" + -0.039*"visit" + 0.039*"really" + 0.035*"spend" + 0.034*"watch" + 0.034*"get" + -0.032*"Buckingham" + 0.032*"Weather" + -0.032*"Museum" + -0.032*"Westminster"')]
-0.708 伦敦表示什么?
这些是对你的主题最有贡献的词,无论是积极的还是消极的。 您的主题的特征之一似乎是,它与伦敦没有任何关系。 您可以看到其他“与伦敦相关的”词也对您的主题产生负面影响:威斯敏斯特、塔和眼睛对该主题也有负面影响。
因此,根据您的 model 的说法,如果文本缺少 London 一词,那么该文本很可能与该主题有关。
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.