[英]OpenGL Scale Single Pixel Line
我想制作一个内部尺寸为320x240的游戏,但以该数字的整数倍(640x480、960,720等)渲染到屏幕上。 我打算使用复古的2D像素图形。
我通过设置glOrtho()的内部分辨率实现了这一点:
glOrtho(0, 320, 240, 0, 0, 1);
然后将输出分辨率放大3倍,如下所示:
glViewport(0,0,960,720);
window = SDL_CreateWindow("Title", SDL_WINDOWPOS_CENTERED, SDL_WINDOWPOS_CENTERED, 960, 720, SDL_WINDOW_OPENGL);
我这样画矩形:
glBegin(GL_LINE_LOOP);
glVertex2f(rect_x, rect_y);
glVertex2f(rect_x + rect_w, rect_y);
glVertex2f(rect_x + dst_w, dst_y + dst_h);
glVertex2f(rect_x, rect_y + rect_h);
glEnd();
它可以在320x240(不缩放)下完美运行:
当我放大到960x720时,像素渲染一切正常! 但是,似乎GL_Line_Loop不是在320x240画布上绘制并按比例放大,而是在最终的960x720画布上绘制。 结果是在3px的世界中有1px的线:(
如何在320x240 glOrtho画布而不是960x720输出画布上绘制线条?
没有“ 320x240 glOrtho画布”。 只有窗口的实际分辨率:960x720。
您要做的只是放大渲染图元的坐标。 因此,您的代码说要渲染从(20,20)到(40,40)的线。 OpenGL(最终)在每个维度上将这些坐标按3比例缩放:(60、60)和(120x120)。
但这仅涉及终点 。 中间发生的情况仍然基于您以窗口的实际分辨率进行渲染的事实。
即使您使用glLineWidth
来更改线条的宽度,也只能固定线条的宽度。 线的栅格化基于您要渲染的实际分辨率并不能解决这一事实。 因此,对角线将不会具有您可能想要的像素化外观。
正确执行此操作的唯一方法是正确执行此操作。 渲染为实际的320x240图像,然后将其绘制为窗口的实际分辨率。
您必须创建该大小的纹理,然后将其附加到framebuffer对象 。 绑定要渲染的FBO并将其渲染(视口设置为图像的大小)。 然后取消绑定FBO,并将该纹理绘制到窗口(视口设置为窗口的分辨率)。
正如我在评论中提到的那样, 英特尔OpenGL驱动程序在直接渲染到纹理方面存在问题,我不知道有任何可行的解决方法。 在这种情况下,解决此问题的唯一方法是使用glReadPixels
将屏幕内容复制到CPU内存,然后将其作为纹理复制回GPU 。 粗糙的则比直接渲染到纹理要慢得多。 所以这里是交易:
设置低分辨率视图
不要更改glViewport
值的窗口分辨率。 然后以较低的分辨率(仅一小部分屏幕空间)渲染场景
将渲染的屏幕复制到纹理中
渲染纹理
不要忘记使用GL_NEAREST
过滤器。 最重要的是,仅在此之后才交换缓冲区! 否则你会忽悠。
这里是C ++源代码:
void gl_draw()
{
// render resolution and multiplier
const int xs=320,ys=200,m=2;
// [low res render pass]
glViewport(0,0,xs,ys);
glClearColor(0.0,0.0,0.0,1.0);
glClear(GL_COLOR_BUFFER_BIT);
glMatrixMode(GL_PROJECTION);
glLoadIdentity();
glMatrixMode(GL_MODELVIEW);
glLoadIdentity();
glDisable(GL_DEPTH_TEST);
glDisable(GL_TEXTURE_2D);
// 50 random lines
RandSeed=0x12345678;
glColor3f(1.0,1.0,1.0);
glBegin(GL_LINES);
for (int i=0;i<100;i++)
glVertex2f(2.0*Random()-1.0,2.0*Random()-1.0);
glEnd();
// [multiply resiolution render pass]
static bool _init=true;
GLuint txrid=0; // texture id
BYTE map[xs*ys*3]; // RGB
// init texture
if (_init) // you should also delte the texture on exit of app ...
{
// create texture
_init=false;
glGenTextures(1,&txrid);
glEnable(GL_TEXTURE_2D);
glBindTexture(GL_TEXTURE_2D,txrid);
glPixelStorei(GL_UNPACK_ALIGNMENT, 4);
glTexParameteri(GL_TEXTURE_2D, GL_TEXTURE_WRAP_S,GL_CLAMP_TO_EDGE);
glTexParameteri(GL_TEXTURE_2D, GL_TEXTURE_WRAP_T,GL_CLAMP_TO_EDGE);
glTexParameteri(GL_TEXTURE_2D, GL_TEXTURE_MAG_FILTER,GL_NEAREST); // must be nearest !!!
glTexParameteri(GL_TEXTURE_2D, GL_TEXTURE_MIN_FILTER,GL_NEAREST);
glTexEnvf(GL_TEXTURE_ENV, GL_TEXTURE_ENV_MODE,GL_COPY);
glDisable(GL_TEXTURE_2D);
}
// copy low res screen to CPU memory
glReadPixels(0,0,xs,ys,GL_RGB,GL_UNSIGNED_BYTE,map);
// and then to GPU texture
glEnable(GL_TEXTURE_2D);
glBindTexture(GL_TEXTURE_2D,txrid);
glTexImage2D(GL_TEXTURE_2D, 0, GL_RGB, xs, ys, 0, GL_RGB, GL_UNSIGNED_BYTE, map);
// set multiplied resolution view
glViewport(0,0,m*xs,m*ys);
glClear(GL_COLOR_BUFFER_BIT);
// render low res screen as texture
glBegin(GL_QUADS);
glTexCoord2f(0.0,0.0); glVertex2f(-1.0,-1.0);
glTexCoord2f(0.0,1.0); glVertex2f(-1.0,+1.0);
glTexCoord2f(1.0,1.0); glVertex2f(+1.0,+1.0);
glTexCoord2f(1.0,0.0); glVertex2f(+1.0,-1.0);
glEnd();
glDisable(GL_TEXTURE_2D);
glFlush();
SwapBuffers(hdc); // swap buffers only here !!!
}
并预览:
我在我可以使用的某些Intel HD图形(上帝知道哪个版本)上对此进行了测试,并且可以正常工作(而标准的渲染纹理方法则没有)。
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.