[英]How to get cosine similarity of word embedding from BERT model
我对如何从 BERT model 获得不同句子中词嵌入的相似性很感兴趣(实际上,这意味着词在不同场景中具有不同的含义)。
例如:
sent1 = 'I like living in New York.'
sent2 = 'New York is a prosperous city.'
我想从 send1 和 sent2 中获取 cos(New York, New York) 的值,即使短语“New York”相同,但它出现在不同的句子中。 我从https://discuss.huggingface.co/t/generate-raw-word-embeddings-using-transformer-models-like-bert-for-downstream-process/2958/2得到了一些直觉
但是我仍然不知道我需要提取哪个层的嵌入以及如何计算上述示例的 cos 相似度。
在此先感谢您的任何建议!
好的,让我们这样做。
首先你需要了解 BERT 有 13 层。 第一层基本上只是 BERT 在初始训练期间通过的嵌入层。 您可以使用它,但可能不想使用它,因为它本质上是 static 嵌入,而您正在使用动态嵌入。 为简单起见,我将只使用 BERT 的最后一个隐藏层。
在这里,您使用了两个词:“New”和“York”。 您可以在预处理期间将其视为一个,并将其组合成“New-York”或其他如果您真的想要的东西。 在这种情况下,我将把它视为两个单独的词,并对 BERT 产生的嵌入进行平均。
这可以用几个步骤来描述:
一、需要导入的东西: from transformers import AutoTokenizer, AutoModel
现在我们可以创建我们的标记器和我们的 model:
tokenizer = AutoTokenizer.from_pretrained('bert-base-cased')
model =
编辑:太快按回车。 添加示例
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.