繁体   English   中英

如何将视觉注意力图输入网络?

How can I feed in a visual attention map to a network?

提示:本站收集StackOverFlow近2千万问答,支持中英文搜索,鼠标放在语句上弹窗显示对应的参考中文或英文, 本站还提供   中文繁体   英文版本   中英对照 版本,有任何建议请联系yoyou2525@163.com。

我有一种方法可以显示大致集中在给定图像上的位置,也就是说,它不是定位标签或分段标签,而是一个热图,它显示了我在图像中寻找的位置。 我只希望提高分类的准确性,因为我没有其他标签来源。 我不想根据地图和网络中的输入对图像进行预处理和裁剪,但是我想在关注地图显示的区域之前给出更高的优先级。 我遇到了很多有关自我指导注意力,软注意力学习或使用早期激活作为注意力图的论文,但是我找不到更多有关如何实现如上所述的简单方法的详细信息。

问题暂未有回复.您可以查看右边的相关问题.
1 构建注意力网络

给定以下数据: 我想构建一个Attention神经网络,该神经网络将整体处理每个提供者数据,然后预测其标签。 请注意,数据为每个提供者仅提供一个标签 。 我已经阅读了这篇文章,描述了Attention的好处,并希望使用Keras来实现它。 很想听听您对网络体系结构的想法 ...

3 没有隐藏状态的注意力网络?

我想知道编码器的隐藏状态对注意力网络有多大用处。 当我查看注意力模型的结构时,我发现模型通常如下所示: x:输入。 h:编码器的隐藏状态,它前馈到下一个编码器的隐藏状态。 s:解码器的隐藏状态,它具有所有编码器隐藏状态的加权和作为输入,并前馈到下一个解码器的隐藏状态。 y: ...

4 将CNN与注意力网络相结合

这是我的注意力层 我正在尝试将CNN与注意力网络结合起来进行文本分类。 以下是我在keras中的代码:- 当我使用代码中的输入和预测初始化模型时,出现错误消息图形断开连接错误。 在研究中,我发现当输入和输出之间没有连接时会发生此错误。 但是,我无法弄清楚模型的输入。 谁能 ...

5 自注意力对输入大小敏感吗?

我有一个分层模型,其中使用 self attention(来自 Transformer)对句子中的每个单词进行编码,然后是另一个 self attention 块,将每个句子表示(由前一个块输出)编码为最终表示。 每个训练示例包含 20 个句子。 但是,我注意到当我在较小的句子集上进行测试时(比如 ...

8 如何将注意力集中在控制上

* ASP.NET VB.NET 2010 * ** * 嗨,KIndly帮我这个,我有一个Hyperlink列表。 如果我按下单选按钮,我希望我的光标专注于我的一个超链接 我试图使用这个,但没有运气Dim sScript As String =“document.getEleme ...

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2022 STACKOOM.COM