TextureView+SurfaceTexture+OpenGL ES来播放视频(三

2024-05-04 04:08

本文主要是介绍TextureView+SurfaceTexture+OpenGL ES来播放视频(三,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

https://www.jianshu.com/p/291ff6ddc164

 

TextureView+SurfaceTexture+OpenGL ES来播放视频(三)

96

子雷

2015.09.16 00:26* 字数 1847 阅读 71157评论 23喜欢 78赞赏 1

做好的Demo截图

 

opengl-video

前言

讲了这么多,可能有人要问了,播放视频用个android封装的VideoView或者用MediaPlayer+SurfaceView来进行播放视频不就得了吗,干嘛还要整这么麻烦。OK,为了回答这个问题,我们先看看OpenGL ES干什么的,它是OpenGL三维图形API的子集,图形硬件的一种软件接口,针对手机、PDA和游戏主机等嵌入式设备而设计。我想如果是做游戏类开发的肯定对一些图形库不会陌生,其实很多游戏引擎内部都是封装的像OpenGL,DirectX 3D之类的图形库,然后开发者就可以通过这些图形库,来开发很多好玩的东西,如游戏,动画等等,那么我现在用Opengl es来绘制视频是不是也可以定制很多有意思的东西,比如开发一个左右分屏视频播放器,然后在虚拟现实(VR)头盔上来观看2d的视频,如果用opengl去绘制,那简直分分中搞定,因为这里,每一帧的视频在opengl 看来只是一张纹理贴图而已,那么我想把这个贴图贴在哪里就贴在哪里。总之,用opengl可以开发出很多有意思的二维,三维的图形应用出来。

正文

说了这么多,咱们开始吧,

/**** 在这个类里面对视频纹理进行绘制工作,继承了 {@link TextureSurfaceRenderer},* 并实现了{@link SurfaceTexture.OnFrameAvailableListener}*/
public class VideoTextureSurfaceRenderer extends TextureSurfaceRenderer implementsSurfaceTexture.OnFrameAvailableListener
{public static final String TAG = VideoTextureSurfaceRenderer.class.getSimpleName();/**绘制的区域尺寸*/private static float squareSize = 1.0f;private static float squareCoords[] = {-squareSize,  squareSize, 0.0f,   // top left-squareSize, -squareSize, 0.0f,   // bottom leftsquareSize, -squareSize, 0.0f,    // bottom rightsquareSize,  squareSize, 0.0f     // top right};/**绘制次序*/private static short drawOrder[] = {0, 1, 2, 0, 2, 3};/*** 用来缓存纹理坐标,因为纹理都是要在后台被绘制好,然* 后不断的替换最前面显示的纹理图像*/private FloatBuffer textureBuffer;/**纹理坐标*/private float textureCoords[] = {0.0f, 1.0f, 0.0f, 1.0f,0.0f, 0.0f, 0.0f, 1.0f,1.0f, 0.0f, 0.0f, 1.0f,1.0f, 1.0f, 0.0f, 1.0f};/**生成的真实纹理数组*/private int[] textures = new int[1];/**着色器脚本程序的handle(句柄)*/private int shaderProgram;/**squareCoords的的顶点缓存*/private FloatBuffer vertexBuffer;/**绘制次序的缓存*/private ShortBuffer drawOrderBuffer;/**矩阵来变换纹理坐标,(具体含义下面再解释)*/private float[] videoTextureTransform;/**当前的视频帧是否可以得到*/private boolean frameAvailable = false;private Context context;private SurfaceTexture videoTexture;    // 从视频流捕获帧作为Opengl ES 的Texture/*** @param texture 从TextureView获取到的SurfaceTexture,目的是为了配置EGL 的native window*/public VideoTextureSurfaceRenderer(Context context, SurfaceTexture texture, int width, int height){super(texture, width, height);  //先调用父类去做EGL初始化工作this.context = context;videoTextureTransform = new float[16];      }// 代码略
}

对上面的代码再稍稍解释一下吧,在绘制之前,我们首先选定一块区域来让图像就在这块区域来绘制,则有如下定义:

private static float squareSize = 1.0f;private static float squareCoords[] = {-squareSize,  squareSize, 0.0f,   // top left-squareSize, -squareSize, 0.0f,   // bottom leftsquareSize, -squareSize, 0.0f,    // bottom rightsquareSize,  squareSize, 0.0f     // top right};

上幅图来解释解释:

square


squareSize=1.0时,square的面积就是整个手机屏幕,若squareSize=0.5f则每个边长都为屏幕的一半。数组的坐标顺序为:左上->左下->右下->右上。

 

然后接着定义一个纹理坐标数组:

 private float textureCoords[] = {0.0f, 1.0f, 0.0f, 1.0f,  //左上0.0f, 0.0f, 0.0f, 1.0f,  //左下1.0f, 0.0f, 0.0f, 1.0f,  //右下1.0f, 1.0f, 0.0f, 1.0f   //右上};

接着上图:

 

texCoord

 

如上图,这就是2D OpenGL ES纹理坐标,它由四个列向量(s, t, 0, 1)组成,其中s, t ∈[0, 1]。
不知道大家有没有发现,绘制区域(quareCoords[])的顶点数组坐标顺序跟纹理数组坐标的顺序都是从 左上方开始->到右上方结束,为什么要这样做呢? 其实目的就是为了统一方向,因为我们知道手机屏幕的坐标是左上角为原点(0.0, 0.0),所以为了以后不必要的转换工作,最好将绘制的顺序的都统一起来。

然后则看看纹理的绘制次序drawOrder[] = {0,1,2, 0, 2, 3} ; 这又是个什么次序呢? 好,再来个图看看

drawOrder


其实,opengl es 在绘制一个多边形时,都是用一个基本的图元即三角形拼凑出来的,比如一个矩形它可以用(0->1->2)和(0->2->3)的次序,通过两个三角形给拼凑出来的,当然也可是其它的组合比如(1,3,2)(1,3,0)等等,总之得用两个三角形拼凑成一个矩形,不过建议还是都按找同一钟次序,比如都是按照顺时针或都按照逆时针来拼凑。

 

OK,接下来再贴出省略的代码:

    /*** 重写父类方法,初始化组件*/@Overrideprotected void initGLComponents(){setupVertexBuffer();setupTexture();loadShaders();}
/***
* 设置顶点缓存
*/private void setupVertexBuffer(){/** Draw Order buffer*/ByteBuffer orderByteBuffer = ByteBuffer.allocateDirect(drawOrder. length * 2); orderByteBuffer.order(ByteOrder.nativeOrder());  //Modifies this buffer's byte orderdrawOrderBuffer = orderByteBuffer.asShortBuffer();  //创建此缓冲区的视图,作为一个short缓冲区.drawOrderBuffer.put(drawOrder);drawOrderBuffer.position(0); //下一个要被读或写的元素的索引,从0 开始// Initialize the texture holderByteBuffer bb = ByteBuffer.allocateDirect(squareCoords.length * 4);bb.order(ByteOrder.nativeOrder());vertexBuffer = bb.asFloatBuffer();vertexBuffer.put(squareCoords);vertexBuffer.position(0);}

ByteBuffer.allocateDirect(drawOrder. length * 2)表示的是直接从系统中分配大小为 (drawOrder. length * 2)的内存,2 代表一个short型占两个字节,(int占4个字节)。

/**接着初始化纹理*/
private void setupTexture(){ByteBuffer texturebb = ByteBuffer.allocateDirect(textureCoords.length * 4);texturebb.order(ByteOrder.nativeOrder());textureBuffer = texturebb.asFloatBuffer();textureBuffer.put(textureCoords);textureBuffer.position(0);// 启用纹理GLES20.glActiveTexture(GLES20.GL_TEXTURE0);//1表示只需要一个纹理索引GLES20.glGenTextures(1, textures, 0);         GLES20.glBindTexture(GLES11Ext.GL_TEXTURE_EXTERNAL_OES, textures[0]);videoTexture = new SurfaceTexture(textures[0]);videoTexture.setOnFrameAvailableListener(this);}

关于glBindTexure(int target, int texture) 中的参数target,表示指定这是一张什么类型的纹理,在此是GLES11Ext.GL_BLEND_EQUATION_RGB_OES,也可以是常用的2D纹理如GLES20.GL_TEXTURE_2D等;第二个参数texture,在程序第一次使用这个参数时,这个函数会创建一个新的对象,并把这个对象分配给它,之后这个texture就成了一个活动的纹理对象。如果texture=0 则OpenGL就停止使用纹理对象,并返回到初始的默认纹理。

/**加载顶点与片段着色器*/private void loadShaders(){final String vertexShader = RawResourceReader.readTextFileFromRawResource(context, R.raw.vetext_sharder);final String fragmentShader = RawResourceReader.readTextFileFromRawResource(context, R.raw.fragment_sharder);final int vertexShaderHandle = ShaderHelper.compileShader(GLES20.GL_VERTEX_SHADER, vertexShader);final int fragmentShaderHandle = ShaderHelper.compileShader(GLES20.GL_FRAGMENT_SHADER, fragmentShader);shaderProgram = ShaderHelper.createAndLinkProgram(vertexShaderHandle, fragmentShaderHandle,new String[]{"texture","vPosition","vTexCoordinate","textureTransform"});}

关于可编程着色器在计算机图形领域本身就是个很大的主题,已超出了本文的范围。那么就稍稍解释下,OpenGL着色语言(OpenGL shading Language),它是一种编程语言,用于创建可编程的着色器。在opengl es 2.0以前使用的是一种“固定功能管线“,而2.0以后就是使用的着这钟可“编程的管线“,这种管线又分为顶点处理管线与片段处理管线(涉及到OpenGL的渲染管线的一些机制,大家自行的查吧)。
我现在就说说这个GLSL着色器是怎么使用的吧:有关使用GLSL创建着色器流程如下图(参照OpenGL 编程指南):

 

shaderCreate

 

大家可以参照这幅图来看看程序中shader的使用。
在本项目的res目录下新建一个raw文件夹,然后分别创建vertext_shader.glsl和fragment_sharder.glsl文件,代码如下:
vertext_sharder:

attribute vec4 vPosition;    //顶点着色器输入变量由attribute来声明
attribute vec4 vTexCoordinate;
//uniform表示一个变量的值由应用程序在着色器执行之前指定,
//并且在图元处理过程中不会发生任何变化。mat4表示一个4x4矩阵
uniform mat4 textureTransform; 
varying vec2 v_TexCoordinate;   //片段着色器输入变量用arying来声明void main () {v_TexCoordinate = (textureTransform * vTexCoordinate).xy;gl_Position = vPosition;
}

fragment_shader

/**使用GL_OES_EGL_image_external扩展处理,来增强GLSL*/
#extension GL_OES_EGL_image_external : require
precision mediump float;
uniform samplerExternalOES texture; //定义扩展的的纹理取样器amplerExternalOES
varying vec2 v_TexCoordinate;void main () {vec4 color = texture2D(texture, v_TexCoordinate);gl_FragColor = color;
}

着色器语言非常的类似C语言,也是从main函数开始执行的。其中的很多语法,变量等等,还是大家自行的查查,这不是几句能说明白的。着色器的创建及编译过程的代码都在项目里的一个util包下的三个工具类,RawRourceReader,ShaderHelper,TextureHelper类中,我就不再贴出来了,有兴趣大家可以fork或clone下来看看。

ok,终于初始化完了,太不容易了,冏。
好吧,绘制工作开始跑起来。

   @Overrideprotected boolean draw(){synchronized (this){if (frameAvailable){videoTexture .updateTexImage();videoTexture .getTransformMatrix(videoTextureTransform);frameAvailable = false;}else{return false;}}GLES20.glClearColor(0.0f, 0.0f, 0.0f, 0.0f);GLES20.glClear(GLES20.GL_COLOR_BUFFER_BIT);GLES20.glViewport(0, 0, width, height);this.drawTexture();return true;}

当视频的帧可得到时,调用videoTexture .updateTexImage()方法,这个方法的官网解释如下:
<font color=#008000 >Update the texture image to the most recent frame from the image stream. This may only be called while the OpenGL ES context that owns the texture is current on the calling thread. It will implicitly bind its texture to the GL_TEXTURE_EXTERNAL_OES texture target.</font>
大意是,从的图像流中更新纹理图像到最近的帧中。这个函数仅仅当拥有这个纹理的Opengl ES上下文当前正处在绘制线程时被调用。它将隐式的绑定到这个扩展的GL_TEXTURE_EXTERNAL_OES 目标纹理(为什么上面的片段着色代码中要扩展这个OES,可能就是应为这个吧)。
videoTexture .getTransformMatrix(videoTextureTransform)这又是什么意思呢?当对纹理用amplerExternalOES采样器采样时,应该首先使用getTransformMatrix(float[])查询得到的矩阵来变换纹理坐标,每次调用updateTexImage()的时候,可能会导致变换矩阵发生变化,因此在纹理图像更新时需要重新查询,该矩阵将传统的2D OpenGL ES纹理坐标列向量(s,t,0,1),其中s,t∈[0,1],变换为纹理中对应的采样位置。该变换补偿了图像流中任何可能导致与传统OpenGL ES纹理有差异的属性。例如,从图像的左下角开始采样,可以通过使用查询得到的矩阵来变换列向量(0,0,0,1),而从右上角采样可以通过变换(1,1,0,1)来得到。

关于 GLES20.glViewport(int x, int y, int width, int height) ,也是个比较重要的函数,这个函数大家网上查查。
ok,接下来到了真正的绘制纹理的时候了。代码如下:

 private void drawTexture() {// Draw textureGLES20.glUseProgram(shaderProgram); //绘制时使用着色程序int textureParamHandle = GLES20.glGetUniformLocation(shaderProgram, "texture"); //返回一个于着色器程序中变量名为"texture"相关联的索引int textureCoordinateHandle = GLES20.glGetAttribLocation(shaderProgram, "vTexCoordinate");int positionHandle = GLES20.glGetAttribLocation(shaderProgram, "vPosition");int textureTransformHandle = GLES20.glGetUniformLocation(shaderProgram, "textureTransform");//在用VertexAttribArray前必须先激活它    GLES20.glEnableVertexAttribArray(positionHandle);//指定positionHandle的数据值可以在什么地方访问。 vertexBuffer在内部(NDK)是个指针,指向数组的第一组值的内存GLES20.glVertexAttribPointer(positionHandle, 3, GLES20.GL_FLOAT, false, 0, vertexBuffer);               GLES20.glBindTexture(GLES20.GL_TEXTURE0, textures[0]);GLES20.glActiveTexture(GLES20.GL_TEXTURE0);//指定一个当前的textureParamHandle对象为一个全局的uniform 变量GLES20.glUniform1i(textureParamHandle, 0);GLES20.glEnableVertexAttribArray(textureCoordinateHandle);GLES20.glVertexAttribPointer(textureCoordinateHandle, 4, GLES20.GL_FLOAT, false, 0, textureBuffer);GLES20.glUniformMatrix4fv(textureTransformHandle, 1, false, videoTextureTransform, 0);//GLES20.GL_TRIANGLES(以无数小三角行的模式)去绘制出这个纹理图像GLES20.glDrawElements(GLES20.GL_TRIANGLES, drawOrder.length, GLES20.GL_UNSIGNED_SHORT, drawOrderBuffer);GLES20.glDisableVertexAttribArray(positionHandle);GLES20.glDisableVertexAttribArray(textureCoordinateHandle);}

好了所有代码就分析到这里了,前两篇链接TextureView+SurfaceTexture+OpenGL ES来播放视频(一) , TextureView+SurfaceTexture+OpenGL ES来播放视频(二) , 项目地址在here

注: 当然了,其实也没必要配置EGL环境这么麻烦,android的GLSurfaceView就已经在底层就配置好了EGL环境,且自带绘制线程

 

这篇关于TextureView+SurfaceTexture+OpenGL ES来播放视频(三的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/958310

相关文章

用js控制视频播放进度基本示例代码

《用js控制视频播放进度基本示例代码》写前端的时候,很多的时候是需要支持要网页视频播放的功能,下面这篇文章主要给大家介绍了关于用js控制视频播放进度的相关资料,文中通过代码介绍的非常详细,需要的朋友可... 目录前言html部分:JavaScript部分:注意:总结前言在javascript中控制视频播放

Python基于wxPython和FFmpeg开发一个视频标签工具

《Python基于wxPython和FFmpeg开发一个视频标签工具》在当今数字媒体时代,视频内容的管理和标记变得越来越重要,无论是研究人员需要对实验视频进行时间点标记,还是个人用户希望对家庭视频进行... 目录引言1. 应用概述2. 技术栈分析2.1 核心库和模块2.2 wxpython作为GUI选择的优

Python+PyQt5实现多屏幕协同播放功能

《Python+PyQt5实现多屏幕协同播放功能》在现代会议展示、数字广告、展览展示等场景中,多屏幕协同播放已成为刚需,下面我们就来看看如何利用Python和PyQt5开发一套功能强大的跨屏播控系统吧... 目录一、项目概述:突破传统播放限制二、核心技术解析2.1 多屏管理机制2.2 播放引擎设计2.3 专

使用Python实现文本转语音(TTS)并播放音频

《使用Python实现文本转语音(TTS)并播放音频》在开发涉及语音交互或需要语音提示的应用时,文本转语音(TTS)技术是一个非常实用的工具,下面我们来看看如何使用gTTS和playsound库将文本... 目录什么是 gTTS 和 playsound安装依赖库实现步骤 1. 导入库2. 定义文本和语言 3

SpringBoot整合easy-es的详细过程

《SpringBoot整合easy-es的详细过程》本文介绍了EasyES,一个基于Elasticsearch的ORM框架,旨在简化开发流程并提高效率,EasyES支持SpringBoot框架,并提供... 目录一、easy-es简介二、实现基于Spring Boot框架的应用程序代码1.添加相关依赖2.添

Java如何获取视频文件的视频时长

《Java如何获取视频文件的视频时长》文章介绍了如何使用Java获取视频文件的视频时长,包括导入maven依赖和代码案例,同时,也讨论了在运行过程中遇到的SLF4J加载问题,并给出了解决方案... 目录Java获取视频文件的视频时长1、导入maven依赖2、代码案例3、SLF4J: Failed to lo

Python实现多路视频多窗口播放功能

《Python实现多路视频多窗口播放功能》这篇文章主要为大家详细介绍了Python实现多路视频多窗口播放功能的相关知识,文中的示例代码讲解详细,有需要的小伙伴可以跟随小编一起学习一下... 目录一、python实现多路视频播放功能二、代码实现三、打包代码实现总结一、python实现多路视频播放功能服务端开

Python实现视频转换为音频的方法详解

《Python实现视频转换为音频的方法详解》这篇文章主要为大家详细Python如何将视频转换为音频并将音频文件保存到特定文件夹下,文中的示例代码讲解详细,感兴趣的小伙伴可以跟随小编一起学习一下... 目录1. python需求的任务2. Python代码的实现3. 代码修改的位置4. 运行结果5. 注意事项

Python视频处理库VidGear使用小结

《Python视频处理库VidGear使用小结》VidGear是一个高性能的Python视频处理库,本文主要介绍了Python视频处理库VidGear使用小结,文中通过示例代码介绍的非常详细,对大家的... 目录一、VidGear的安装二、VidGear的主要功能三、VidGear的使用示例四、VidGea

流媒体平台/视频监控/安防视频汇聚EasyCVR播放暂停后视频画面黑屏是什么原因?

视频智能分析/视频监控/安防监控综合管理系统EasyCVR视频汇聚融合平台,是TSINGSEE青犀视频垂直深耕音视频流媒体技术、AI智能技术领域的杰出成果。该平台以其强大的视频处理、汇聚与融合能力,在构建全栈视频监控系统中展现出了独特的优势。视频监控管理系统EasyCVR平台内置了强大的视频解码、转码、压缩等技术,能够处理多种视频流格式,并以多种格式(RTMP、RTSP、HTTP-FLV、WebS