繁体   English   中英

什么时候任务被认为是少样本学习?

[英]When is a task considered few-shot learning?

在阅读小样本学习时,我似乎永远找不到确切的定义。 当解释这个概念时,通常会说一些类似“使用少量数据样本”的内容。

是否有小样本学习的精确定义,或者何时将任务视为小样本学习? 当使用术语“N-way-K-shot 学习”时,N 和 K 的取值是否有任何界限?

小样本学习背后的想法是仅使用少量标记样本来训练分类器。 更准确地说,给定 N 个类别和 k 个样本,目标是使用每个 class 的样本,其中 m << k 来训练分类器。 当可用标记样本的数量有限时,小样本学习是一种流行的选择。

然而,在实现小样本学习时,一种流行的方法是使用对比学习对现有的 model 进行微调,以了解属于相同 class 的样本之间的相似性。

SetFit 是一个小样本学习框架,它使用对比学习来微调用于文本分类的句子转换器。 我建议您阅读 SetFit 的论文(在 Axriv 上可用;此处: https://arxiv.org/abs/2209.11055 )。 我相信它具有您回答问题所需的技术细节。 此外,SetFit 的实现可在 GitHub(此处: https://github.com/huggingface/setfit )上获得。

我希望它有所帮助。

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM