繁体   English   中英

高维空间的近似最近邻 (A1NN)

[英]approximate nearest neighbor (A1NN) for high dimension spaces

我读了这个关于寻找 3 维点的最近邻居的问题。 八叉树是这种情况的解决方案。

kd-Tree是小空间(一般小于 50 维)的解决方案。

对于更高维度(数百维和数百万点的向量),LSH 是解决 AKNN(近似 K-NN)问题的流行解决方案,如本问题所述

然而,LSH 在 K-NN 解决方案中很受欢迎,其中 K>>1。 例如,LSH 已成功用于基于内容的图像检索 (CBIR) 应用程序,其中每张图像都通过数百个维度的向量表示,数据集是数百万(或数十亿)张图像。 在这种情况下,K 是与查询图像最相似的前 K 个图像的数量。

但是如果我们只对高维空间中最近似的相似邻居(即 A1-NN)感兴趣呢? LSH仍然是赢家,还是已经提出了临时解决方案?

您可以查看http://papers.nips.cc/paper/2666-an-investigation-of-practical-approximate-nearest-neighbor-algorithms.pdfhttp://research.microsoft.com/en-us/嗯/人/ jingdw/pubs%5CTPAMI-TPTree.pdf 两者都有显示 LSH 的性能与基于树的方法的性能的图表,这些方法也只产生近似答案,对于不同的 k 值,包括 k=1。 微软的论文声称“在 [34] 中已经表明,随机 KD 树的性能可以比 LSH 算法高出大约一个数量级”。 另一篇论文的表 2 P 7 似乎显示了 LSH 上的加速,这对于不同的 k 值是相当一致的。

请注意,这不是 LSH 与 kd-trees。 这是 LSH 与各种巧妙调整的近似搜索树结构的对比,其中您通常只搜索树中最有希望的部分,而不是树中可能包含最近点的所有部分,然后搜索许多不同的树为了获得良好的概率来弥补这一点,调整各种参数以获得最快的性能。

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM