cost 342 ms
Got an Input to reshape is a tensor with 3368 values, but the requested shape has 2048 error while fine-tuning Roberta - Got an Input to reshape is a tensor with 3368 values, but the requested shape has 2048 error while fine-tuning Roberta

我有一个 csv 文件,它有两个输入列和一个 class 带有多个标签,这意味着我正在尝试使用微调的 RoBERTa model 进行多类分类。 这是我的 csv 文件( df )的结构: 我按照这个HuggingFace教程,看到他们使用DatasetDict所以我将我的 csv 文件转换为Da ...

AllenNLP 偏向 BERT 吗? - Is AllenNLP biased towards BERT?

在我所在大学的研究小组中,我们一直在为葡萄牙语预训练 RoBERTa model 以及同样基于 RoBERTa 的特定领域的预训练。 我们一直在使用huggingface 的 transformers 库进行一系列基准测试,RoBERTa 模型在几乎所有数据集和任务上的表现都优于现有的葡萄牙语 B ...

罗伯塔无法在句子对分类中学习和预测正类 - Roberta is not able to learn and predict positive class in sentence pair classification

我正在使用 Roberta 训练一个句子对二元分类模型,但该模型无法学习正类(标签为 1 的类)。 我的数据集不平衡,因此: 训练数据 - 0 --- 140623 1 --- 5537 验证数据 - 0 --- 35156 1 --- 1384 训练在验证数据上产生 0 个真阳性和 0 个 ...

NER 分类 Deberta Tokenizer 错误:您需要实例化 DebertaTokenizerFast - NER Classification Deberta Tokenizer error : You need to instantiate DebertaTokenizerFast

我正在尝试使用 Deberta 执行 NER 分类任务,但我遇到了 Tokenizer 错误。 这是我的代码(我的输入句子必须用“,:”逐字分割:): 我有这个结果: 然后我继续,但我有这个错误: 而且我认为原因是我需要以下格式的令牌结果(这是不可能的,因为我的句子被“,”分割: 所以我尝试了这两 ...

尝试使用 huggingface 预训练的 Tokenizer (roberta-base) 时出现错误消息 - Error message when trying to use huggingface pretrained Tokenizer (roberta-base)

我对此很陌生,所以我可能完全遗漏了一些东西,但这是我的问题:我正在尝试创建一个使用 Huggingface 的预训练标记器模型的标记器 class。 然后我想在更大的变压器 model 中使用这个 class 来标记我的输入数据。 这是 class 代码 class 罗伯塔(MyTokenizer) ...

如何从 RoBERTa 获得每个单词(令牌)的单个嵌入向量? - How do you get single embedding vector for each word (token) from RoBERTa?

您可能知道, RoBERTa (BERT, etc.)有自己的分词器,有时您会得到给定单词的片段作为令牌,例如嵌入 » 嵌入、#dings 由于我正在处理的任务的性质,我需要每个单词的单一表示。 我如何得到它? 清除: 句子:“嵌入很好”-> 给出了 3 个单词标记 output: [emb ...

PyTorch:“TypeError:在 DataLoader 工作进程 0 中捕获 TypeError。” - PyTorch: “TypeError: Caught TypeError in DataLoader worker process 0.”

我正在尝试实施 RoBERTa model 进行情绪分析。 首先,我声明了 GPReviewDataset 以创建 PyTorch 数据集。 接下来,我实现create_data_loader来创建几个数据加载器。 这是一个帮手 function 来做的: 但是,当我运行此代码时,它会停止并给出以 ...


 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM