[英]Mapping 3d vertex to pixel using pyreder/pyglet/openGL
我正在使用图像实现 3d 点估计的新算法,现在我正在尝试在 3d 虚拟模型上对其进行测试,然后再转向真实对象。
算法输入是最后一次转换为视口大小之前的像素,因此要在渲染图像上测试算法,我需要知道形状中像素的反向转换([0,witdh],[0,height])。
我正在使用 pyrender 库中的透视投影来渲染 3d 网格的 2d 图像,据我所知,该库使用 OpenGL 方法进行渲染。
示例:我有一个尺寸=(3,1,5),中心=(0,0,0)的盒子网格,并且我有投影和视图矩阵
View Matrix= [[ 0.96592583, -0.0669873 , 0.25 , 3. ],
[ 0. , 0.96592583, 0.25881905, 4. ],
[-0.25881905, -0.25 , 0.9330127 , 10. ],
[ 0. , 0. , 0. , 1. ]]
Projection Matrix= [[ 2.4142135, 0. , 0. , 0. ],
[ 0. , 2.41421356, 0. , 0. ],
[ 0. , 0. , -1.0010005 , -0.10005003],
[ 0. , 0. , -1. , 0. ]]
这是我对 map 3d 点/顶点到像素的计算:
def map_to_pixel(point3d,w,h,projection,view):
p=projection@view@point3d # openGL perspective projection
p=p/p[3] # divide by the w element
p[0]=w/2*p[0]+w/2 # transformation from [-1,1] -> [0,width]
p[1]=h/2*p[1]+h/2 # transformation from [-1,1] -> [0,height]
return p
当 viewport_sizes=(width,height)=(512,512)
结果= [150.86775635, 4.28475523, 1.00894365, 1. ]
= (151,4)
当 pyrender 对该顶点的实际结果是像素时 ~ (90,342)
如果有人知道 pyrender/OpenGL 幕后的实际过程,或者知道如何正确地 map 像素,那将非常有帮助。
顺便说一句:我知道当库使用左上映射时,我的 function 使用左下映射,但它仍然给出了意外的 output。
我弄清楚了计算是如何进行的,我不知道为什么,但是库 pyrender(使用 OpenGL 方法)使用我设置为输入的视图矩阵的逆矩阵。
设置像素的确切 function 是:
from numpy.linalg import inv
def map_to_pixel(point3d,w,h,projection,view):
p=projection@inv(view)@point3d.T
p=p/p[3]
p[0]=(w/2*p[0]+w/2) #tranformation from [-1,1] ->[0,width]
p[1]=h-(h/2*p[1]+h/2) #tranformation from [-1,1] ->[0,height] (top-left image)
return p
我已经在这个 function 上测试了渲染图像,并且所有顶点都已完美映射到像素中。
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.