Android OpenGLES学习之实现弹幕渲染
27 Feb 2016
代码实现已经开源,猛戳这里。
1 弹幕的原理
这里我们的重点是使用OpenGLES实现渲染,而不是弹幕的逻辑优化,所以,只需要用到最简单的弹幕实现逻辑即可。
想一想各大网站上的弹幕效果,在视频之上弹幕文字从右到左出现,然后滚动,一直到左边屏幕之外然后消失。新手首先想到的可能会是把一个个的TextView设置一个从左往右的动画来实现,虽然效果是有的,但是想想就会知道,成千上万个弹幕飘过,那得多少个动画?要多少个TextView?性能会是一个大问题,再说,实现逻辑上也会有一定的问题。
学习过Android的View绘制原理,我们就能想到另外一个思路来实现。
在屏幕上放一张“画布”,然后把一个个的弹幕画在上面,起始位置是右边屏幕之外,随着时间的变化,时间差乘以弹幕的速度,即可得出弹幕移动的距离。
画布的实现就是一个View,当然也可以用SurfaceView或者TextureView来实现。我们首先把弹幕绘制在bitmap里面,然后只需要实现一个DanmakuView即可,它继承于View,然后我们把弹幕都绘制在这个View上面;我们知道View有一个方法:
protected void onDraw(Canvas canvas);
拿到canvas就可以把bitmap绘制在上面了。我们可以开一个线程每帧都刷新一遍这个view就实现了弹幕。另外一点我们要清楚的是,android的坐标系是从左上角开始,这样我们计算移动距离就不会出错了。其他弹幕的逻辑就不详细说了。
2 OpenGLES的原理
从这篇blog里我们理解了OpenGLES的机制原理,并且通过一个绘制三角形的例子学习了如果在android平台上调用OpenGLES的API进行绘制渲染。简而言之,就是把顶点的坐标和颜色传递给渲染管线,并且我们可以在管线的顶点着色器和片元着色器编写代码进行对图像的处理,最终输出在屏幕上。
这里继续学习更多需要用到的知识:
2.1 纹理
之前提到纹理就是物体的表面,形象上面是可以这样理解,更具体一点可以理解就是一个贴图,例如,我要渲染一张图片,那么就先要把这张图片映射到纹理之上,然后OpenGLES就可以把这张问题渲染出来了。本质上,可以看出来,纹理就是一块显存,相当于bitmap就是一块内存,但是还是有很大的区别的。毕竟现在是初学,暂时这么肤浅的理解。
生成纹理代码:
学习过c,unix,我们很容易理解什么是文件描述符,也清楚为什么是一个整型表示的;同理,在OpenGLES这里,基本上所有的“引用”都是用整型ID来表示的,直接理解为java的引用即可。拿到纹理id就相当于拿到了纹理,注意到的是,它不会像bitmap那样需要指定大小。而其实如果生成大量的纹理也是会出现oom的!
2.2 坐标系
2.2.1 android系统原生的坐标系
这我们都知道,android屏幕是二维的,左上角是原点(0,0),然后往下是y轴递增,往右是x轴递增,范围就是屏幕的像素,例如一个1080p的手机屏幕,横屏的时候,右上角的坐标是(1920, 0),左下角的坐标是(0, 1080),右下角的坐标是(1920, 1080)。不用画图了,想象一下就知道了。
2.2.2 纹理坐标
纹理坐标对于android原生的坐标系做了归一化处理,学过数学的都知道,小学就知道什么是“单位一”了,大学过了也该知道归一化。对于一张bitmap,假设大小是360x480,那么它的坐标如下:
那么做了归一化处理以后,实际上,坐标系就是0-1的正方形了,坐标系如下:
为什么要归一化处理,呃,方便显卡计算!至于两个坐标之间的转换更不用说了!
2.2.3 顶点坐标系
从bitmap的坐标归一化到纹理坐标还是比较好理解的,但是从屏幕坐标归一化到顶点坐标就变化很大了。这时候屏幕的中点是原点,取值范围不是0-1了,而是-1到1,如下图所示:
这就是我们中学的时候学习的坐标系,不过范围不同而已;另外,这里我去掉了z轴,因为目前我只讨论二维,使z=0便罢。需要注意的是,当我们把屏幕坐标归一化为顶点坐标的计算的时候,结果要放大两倍,因为不再是一个单位了,而是两个单位!
2.3 矩阵变换
很容易想到,如果要让物体移动,例如平移,就直接修改x坐标即可。除了平移,还有旋转,缩放。这些的变换都是可以通过矩阵乘法实现的,也就是矩阵乘以向量。线性代数的最基本知识了,没学高数怪你咯!每个顶点坐标都是一个四维向量(x, y, z, 1);所以矩阵也是一个四维矩阵,我们要对顶点进行变换,实际上就是对矩阵进行操作,最后把矩阵传递到顶点着色器,然后相乘就得到了最终的坐标了。那现在就知道顶点着色器里面的变换矩阵是干嘛用的了。例如下面对x,y,z分别进行平移v1, v2, v3的距离:
2.4 摄像机和投影
虽然我们这里主要学习用OpenGL实现二维的弹幕,但是摄像机和投影的知识还是由必要学习的,不然下面的代码就不能理解了。
2.4.1 摄像机
既然是3D场景,那必然需要摄像机,这就更日常生活一致的,摄像机和观察目标之间存在近大远小的效果,想象一下自己拿着手机在拍摄周围环境的视频,手机就是我们的摄像机,在OpenGL渲染的3D世界里面,我们的窗口就是一个摄像机,移动窗口就能观察到不同的景物了。窗口最大值就是手机的屏幕范围大小了,然而,我们是可以设置观察窗口的大小的,通常在onSurfaceChanged
方法的时候调用下面方法来设置
GLES20.glViewport(0, 0, width, height);
再想想我们怎么定位摄像机的?我们学习物理的时候知道相对运动这个概念,我们坐在车上观察窗外的景色,以外面的景物为参考系,则我们的车是动的;若以我们的车位参考系,则外面的景物是往后运动的。再想想极品飞车游戏,实际上我们开的赛车一直都是不动的,就在屏幕中央,我们操作改变方向移动的只是外面的赛道,或者说整个游戏世界。
因此,如果我们要定位摄像机,实际上摄像机是固定的位置的,只需要通过矩阵变换来修改外面的世界的物体即可,于是,我们修改矩阵,再传递到顶点着色器相乘。
那么定位摄像机需要哪些参数呢?一个是观察的方向,另外一个是up方向,即两个向量即可。如下图所示:
那么代码上这样来修改矩阵:
Matrix.setLookAtM(mCameraMatrix, 0, cx, cy, cz, tx, ty, tz, upx, upy, upz);
第一个参数是矩阵,第二个参数是填充矩阵起始的偏移量,cx, cy, cz是摄像机的位置坐标,tx, ty, tz是target目标坐标,upx, upy, upz是up的方向分量;通过这些参数就可以确定上面说的两个方向向量了。
2.4.2 正交投影
虽然3D世界是立体的,但是现实我们的手机屏幕依然是2D的,只有产生了近大远小模糊等等效果才会有立体的效果。所以场景物体还是要投影到屏幕上的,正交投影就是平行投影,不会产生立体效果的,正交是什么意思,高中物理就知道这个词儿了。
同理,依旧是修改矩阵即可达到目的,代码如下:
Matrix.orthoM(mProjectMatrix, 0, left, right, bottom, top, near, far);
第一个参数是矩阵,第二个参数是填充矩阵起始的偏移量。
想象一下你站在一个长方体走廊的入口前,你就是摄像机,长方体走廊就是视景体,实际上就是正交投影可以观察到的物体,长方体以外的物体都会被裁剪掉。于是视景体就有六个平面了,left, right, bottom, top, near, far;不管距离多远的物体,投影到摄像机都是大小不变的;要达到正交投影的效果,底层原理我们看不到代码,所以不清楚什么的算法计算实现的,但是,只要我们按照上面的原理,设置好视景体的六个平面位置和摄像机位置就可以了。实际上,视点/摄像机,是不动的,形象的说就是,你站在不动,实际上是移动走廊来确定走廊的位置。你面前是2.2.3的顶点坐标系。
于是,上面的参数,left和right分别是左右平面的x坐标,bottom和top分别是上下平面的y坐标,而near和far不是近平面和远平面的z坐标,而是距离!通过这六个参数就能确定走廊在你面前的位置了。
通常我们代码这样设置:
Matrix.orthoM(mProjectMatrix, 0, -1, 1, -1, 1, 0, 1);
2.4.3 透视投影
理解了正交投影,就容易理解透视投影了,正交投影的视景体是一个长方体,而透视投影的视景体是一个锥台形体,也就是近平面比远平面要小;我们还是不知道底层怎么通过矩阵变换达到近大远小的效果,但是我们依然是确定这六个平面的位置即可。
代码如下:
Matrix.orthoM(mProjectMatrix, 0, left, right, bottom, top, near, far);
3 弹幕的实现
到这里基本上所需要的理论都具备了,应该能想到实现的思路了:
把弹幕bitmap映射到纹理Texture,然后计算各种坐标,变换矩阵,最后把纹理交给管线去渲染。随着时间的变化,弹幕的x轴是不断变化的,也就是我们不断计算变换矩阵即可。
3.1 编写着色器
顶点着色器接收顶点的初始位置坐标,纹理坐标,变换矩阵;用变换矩阵计算顶点的偏移后坐标;把纹理坐标直接传递给片元着色器,代码如下:
实际上片元着色器接收到的是光栅化插值以后的纹理坐标,然后我们根据这个坐标去纹理那里采样颜色即可。代码如下:
着色器代码放在assets,在demo那已经讲过了加载的流程,这里不再重复了。
3.2 编写DanmakuView类和渲染器ZGDanmakuRenderer
继承于GLSurfaceView,关于这点不再详述,要注意的是setEGLContextClientVersion()
方法必须首先执行,不然会出错的。另外,什么是EGL,是介于诸如OpenGL或OpenVG的Khronos渲染API与底层本地平台窗口系统的接口,被用于处理图形管理、表面/缓冲捆绑、渲染同步及支援使用其他Khronos API进行的高效、加速、混合模式2D和3D渲染。好吧,这也不是一两句能解释清楚的!反正它就是android的一个框架层,负责加载OpenGLES函数库和本地实现。
渲染器ZGDanmakuRenderer代码如下,它其实就是渲染的回调罢了,懂surfaceview就好理解了。
可以看到的是,每帧渲染时都会清屏,然后计算弹幕的新位置,再次绘制。
3.3 实现ZGDanmaku类
主要的逻辑都是在这个类里面的,现在拆分每一部分进行解释。
3.3.1 初始化顶点坐标与纹理坐标
从2.2中我们已经了解了OpenGLES的坐标系,又由3.1知道我们需要归一化计算弹幕的顶点坐标和纹理坐标,从纹理坐标来采样纹理的颜色,对于纹理坐标,我设置的是全部,即完整的绘制纹理;代码如下:
扩展:纹理是0-1的坐标系,可以理解到这点,假如我们给的纹理坐标不是4个点,而是一个三角形,那么我们最终绘制的是裁剪过后的三角形。
对于顶点坐标,效果是如何的,看下图就可以明白了:
关于三角形绘制,在学习渲染管线的时候解释过图元和绘制方式,我们这里采用三角形的绘制方式,GLES20.GL_TRIANGLE_STRIP
,因此一个弹幕是一个矩形,一个矩形由两个三角形组成,即两个图元,如下图所示:
最后,因为传递数据给OpenGL的是Buffer类型,所有都要装配到ByteBuffer里面去。
3.3.2 初始化着色器和纹理
把3.1的着色器代码装载,创建程序ID,然后获取属性索引:
由2.1获取得到纹理ID以后,然后把bitmap映射到纹理:
关于纹理的采样方式,有多钟不同算法的,效率和效果各不相同,这里不解释。
3.3.3 绘制
最后是计算矩阵,把各种数据传递下去管线,调用接口进行绘制,代码如下:
3.4 应用与总结
把ZGDanmakuView放到布局里面,发送弹幕的时候首先把文字绘制到bitmap里面去,然后创建一个ZGDanmaku类,最后传给Renderer去渲染绘制。
用GLSurfaceView实现,设置Renderer,初始化读取着色器代码,坐标数据,把弹幕映射到纹理,然后每帧回调中计算变换矩阵,最后把这些数据传递给管线去渲染绘制。
4 其他
关于片元着色器的使用,我还有一个应用,Android OpenGLES学习之实现红蓝3D播放器。