我看到了一个关于反向投影4个2D点以导出3D空间中矩形角的问题。 我有一个相同问题的更一般的版本:
给定焦距(可以解决以产生弧秒/像素)或固有相机矩阵(3x2矩阵,该矩阵定义所使用的针孔相机模型的属性-它与焦距直接相关),计算得出的相机射线通过每个像素。
我想拍摄一系列帧,从每个帧中获取候选光线,并使用某种迭代求解方法从每个帧中获取相机姿势(当然,要有足够大的样本)...全部其中实际上只是广义Hough算法的大规模并行实现...首先是让候选射线出现问题...
我看到了一个关于反向投影4个2D点以导出3D空间中矩形角的问题。 我有一个相同问题的更一般的版本:
给定焦距(可以解决以产生弧秒/像素)或固有相机矩阵(3x2矩阵,该矩阵定义所使用的针孔相机模型的属性-它与焦距直接相关),计算得出的相机射线通过每个像素。
我想拍摄一系列帧,从每个帧中获取候选光线,并使用某种迭代求解方法从每个帧中获取相机姿势(当然,要有足够大的样本)...全部其中实际上只是广义Hough算法的大规模并行实现...首先是让候选射线出现问题...
我的一个朋友从一所大学找到了PhotoSynth中用于摄像机匹配的源代码。 如果我是你,我会在Google周围寻找它。
这是一个很好的建议……我一定会研究一下(光合成技术使我对这个主题不再产生兴趣-但是我已经为robochamps进行了几个月的研究)-但这是一个稀疏的实现,它看起来“很不错”。特征(在同一图像的其他视图中应易于识别的图像中的点),尽管我当然计划根据匹配的特征有多好对每个匹配进行评分,但我希望全密度算法能够得出每个像素...还是我应该说体素大声笑?
经过一番摸索之后,难道不是外部矩阵可以告诉您相机实际在3空间中的位置吗?
我曾在一家做过很多事情的公司工作,但我始终使用算法专家编写的工具。 :)