Android音视频【七】H265硬编解码视频通话

2024-03-10 19:48

本文主要是介绍Android音视频【七】H265硬编解码视频通话,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

人间观察
我该如何去表达呢

前面介绍了H265的一些知识,本篇实现利用camera采集进行H265硬编码,利用WebSocket来传输H265裸流,接收到H265的码流后进行H265解码渲染到surfaceview上,从而实现简易的视频通话。

主要有:摄像头如何处理,如何拿到摄像头的yuv数据,yuv数据怎么处理,实现Android H265硬编码和硬解码,vps,sps,pps怎么处理以及如何在网络上传输。

1 .这里用哪种协议不是本文的重点,本文采用java封装好websocket协议的组件,在真实项目中音视频通话可能不用websocket协议,更多的可能是webrtc。

2.没有涉及到音频的编解码和发送传输,音频会后续出系列介绍

3.本篇也是用kotlin来实现,为什么用kotlin?因为工作中没有用到,我想自己练习下。。。

效果图

在这里插入图片描述

实现方案

在这里插入图片描述

Camera的YUV数据采集

简单说下camera,本篇拿camera摄像头来进行数据的采集,当然你也可以用camera2来实现,camera2是提供了更丰富的API(但是我想说真难用,拍个照,获取原始yuv数据写几百行代码),然后Google在jetpack中提供了camerax,camerax的api还是比较简单的。各种camera 花两天研究下就会了,现学现用都没啥,我们主要是介绍编解码和yuv数据的处理,这些基本都是不变的,不像上层camera的api一样。

在camera中主要就是打开camera设置预览画面大小和回调的数据格式(默认是NV21格式的yuv数据,NV21格式的数据基本上所有的摄像头都支持,所以Android默认采用这个)。设置预览回调的数据大小,一般为了方便处理设置的就是一帧yuv数据的大小,也就是y+u+v的数据大小=width * height + width * height的1/4 +width * height的1/4=width * height * 3 / 2。

局部代码如下:

    fun startPreview() {// 临时用后置摄像头,重点是编解码和数据的传输camera = Camera.open(Camera.CameraInfo.CAMERA_FACING_BACK)val parameters: Camera.Parameters = camera.parameters// 摄像头默认NV21Log.e(TAG, "previewFormat:" + parameters.previewFormat)setPreviewSize(parameters)camera.setParameters(parameters)camera.setPreviewDisplay(holder)// 由于硬件安装是横着的,如果是后置摄像头&&正常竖屏的情况下需要旋转90度// 只是预览旋转了,数据没有旋转camera.setDisplayOrientation(90)// 让摄像头回调一帧的数据大小buffer = ByteArray(width * height * 3 / 2)// onPreviewFrame回调的数据大小就是buffer.lengthcamera.addCallbackBuffer(buffer)camera.setPreviewCallbackWithBuffer(this)camera.startPreview()}

摄像头的预览旋转问题,如果是后置摄像头&&正常竖屏拿着,这时候你会发现预览出来的画面是横着的,所以需要旋转90度。当然前后摄像头和人为的旋转手机本身也需要做对应的旋转才行。

开启预览和设置yuv数据回调后,就会在onPreviewFrame回调中回调出来。

 override fun onPreviewFrame(data: ByteArray?, camera: Camera?) {// 摄像头的原始数据yuvcamera!!.addCallbackBuffer(data)
}

YUV数据处理

关于YUV的数据的知识可以参考前一篇。

1.因为摄像头出来的是NV21的数据,H265编码器需要的是NV12,所以需要转换下,也就是Y不变UV交换一下。

    fun nv21toNv12(nv21: ByteArray): ByteArray {val size = nv21.sizeval nv12 = ByteArray(size)val y_len = size * 2 / 3// YSystem.arraycopy(nv21, 0, nv12, 0, y_len)var i = y_len// nv12和nv21是奇偶交替while (i < size - 1) {nv12[i] = nv21[i + 1]nv12[i + 1] = nv21[i]i += 2}return nv12}

2.上文提到了camera摄像头的预览需要旋转,只是预览画面进行旋转了,yuv的数据并没有旋转,所以yuv数据也需要旋转。

    fun dataTo90(data: ByteArray, output: ByteArray, width: Int, height: Int) {val y_len = width * height// uv数据高为y数据高的一半val uvHeight = height shr 1 // kotlin 的shr 1 就是右移1位 height >> 1var k = 0for (j in 0 until width) {for (i in height - 1 downTo 0) {output[k++] = data[width * i + j]}}// uvvar j = 0while (j < width) {for (i in uvHeight - 1 downTo 0) {output[k++] = data[y_len + width * i + j]output[k++] = data[y_len + width * i + j + 1]}j += 2}}

H265硬编码

这个和H264的使用方法一样,唯一的区别就是创建MediaCodec的时候指定是H265编码器。即MediaFormat.MIMETYPE_VIDEO_HEVC(它的值是video/hevc

// H265编码器 video/hevc
mediaCodec = MediaCodec.createEncoderByType(MediaFormat.MIMETYPE_VIDEO_HEVC)

具体的编码流程和H264的一样,没啥区别,这里就不多介绍了,可以参考前前面文章H264的编解码的介绍。Android音视频【四】H264硬编码

唯一要特别注意的是指定编码器的参数的时候,视频的宽和高的时候需要对调。因为后置摄像头旋转了90度,yuv数据也旋转了90度,也就是宽和高对调了。

WebSocket通信

WebSocket依赖添加如下

implementation "org.java-websocket:Java-WebSocket:1.4.0"

使用方法很简单,就是API的使用,内部实现感兴趣的可以研究下。

  • WebSocketServer端
// 创建WebSocketServerprivate val webSocketServer: WebSocketServer = object :WebSocketServer(InetSocketAddress(PORT)) {// ...省略其它代码// 接收数据override fun onMessage(conn: WebSocket, message: ByteBuffer) {super.onMessage(conn, message)if (h265ReceiveListener != null) {val buf = ByteArray(message.remaining())message[buf]Log.d(TAG, "onMessage:" + buf.size)h265ReceiveListener?.onReceive(buf)}}
}// 发送数据override fun sendData(bytes: ByteArray?) {if (webSocket?.isOpen == true) {webSocket?.send(bytes)}}// 建立连接override fun start() {webSocketServer.start()}
  • WebSocketClient端
    private inner class MyWebSocketClient(serverUri: URI) : WebSocketClient(serverUri) {// 接收数据override fun onMessage(bytes: ByteBuffer) {if (h265ReceiveListener != null) {val buf = ByteArray(bytes.remaining())bytes.get(buf)Log.i(TAG, "onMessage:" + buf.size)h265ReceiveListener?.onReceive(buf)}}}

发送数据和建立连接

// 发送数据override fun sendData(bytes: ByteArray?) {if (myWebSocketClient?.isOpen == true) {myWebSocketClient?.send(bytes)}}// 建立连接 private const val URL = "ws://172.24.92.58:$PORT"override fun start() {try {val url = URI(URL)myWebSocketClient = MyWebSocketClient(url)myWebSocketClient?.connect()} catch (e: Exception) {e.printStackTrace()}}    

这里就不多介绍了,都是API的使用,很简单。

private const val URL = “ws://172.24.92.58:$PORT” 是另一台手机的ip地址 ,如果跑demo的话,自己改一下哦

H265硬解码

这个和H264的使用方法一样,这里就不多介绍了,可以参考前前面文章H264的编解码的介绍。唯一的区别就是创建MediaCodec的时候指定是H265解码器。

  // H265解码器mediaCodec = MediaCodec.createDecoderByType(MediaFormat.MIMETYPE_VIDEO_HEVC)

怎么渲染到surface呢,在创建完解码器后进行配置阶段指定即可。

// 渲染到surface上
mediaCodec?.configure(mediaFormat, surface, null, 0)
mediaCodec?.start()

然后在解码完数据的时候,指定是否将h265解码后的数据渲染到configure配置阶段的surface上,true渲染,falsse不渲染。

// true渲染到surface上mediaCodec!!.releaseOutputBuffer(outputBufferIndex, true)

VPS,SPS,PPS网络传输

Android中的硬编码器MediaCodec首帧编码出来的是SPS,PPS等数据,在H265数据流中多了 VPS。随后编码出来的是I帧,P帧,B帧后续也不会回调出来VPS,SPS,PPS等数据了。我们想一个问题就是:在网络传输怎么处理VPS,SPS,PPS呢?,其实不止这个例子,所有的网络发送H264/H265数据的时候都需要处理这个问题。

VPS(视频参数集),SPS(序列参数集),PPS(图像参数集)

  1. VPS 、SPS、PPS 包含了在解码端(播放端)所用需要的profile,level,图像的宽和高。
  2. 发送端(直播端/主播)已经直播一小时了,有的用户播放端(用户端)才进入直播间,如果后续没有了VPS 、SPS、PPS那么解码怎么解码怎么渲染呢?对吧。

所以处理方法就是:缓存VPS,SPS,PPS的数据,然后在发送每个关键帧(I帧)前先发送VPS、SPS、PPS的数据即可。这样后续进来的用户等下一个关键帧(I帧)就会立刻看到画面了。

关键代码如下:

    private fun dealFrame(byteBuffer: ByteBuffer) {// H265的nalu的分割符的下一个字节的类型var offset = 4if (byteBuffer[2].toInt() == 0x1) {offset = 3}// VPS,SPS,PPS...  H265的nalu头是2个字节,中间的6位bit是nalu类型// 0x7E的二进制的后8位是 0111  1110// java版本// int naluType = (byteBuffer.get(offset) & 0x7E) >> 1;val naluType = byteBuffer[offset].and(0x7E).toInt().shr(1)// 保存下VPS,SPS,PPS的数据if (NAL_VPS == naluType) {vps_sps_pps_buf = ByteArray(info.size)byteBuffer.get(vps_sps_pps_buf!!)} else if (NAL_I == naluType) {// 因为是网络传输,所以在每个i帧之前先发送VPS,SPS,PPSval bytes = ByteArray(info.size)byteBuffer.get(bytes)val newBuf = ByteArray(info.size + vps_sps_pps_buf!!.size)System.arraycopy(vps_sps_pps_buf!!, 0, newBuf, 0, vps_sps_pps_buf!!.size)System.arraycopy(bytes, 0, newBuf, vps_sps_pps_buf!!.size, bytes.size)// 发送h265DecodeListener?.onDecode(bytes)} else {// 其它bp帧数据val bytes = ByteArray(info.size)byteBuffer.get(bytes)// 发送h265DecodeListener?.onDecode(bytes)}}

源码


https://github.com/ta893115871/H265WithCameraWebSocket

这篇关于Android音视频【七】H265硬编解码视频通话的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/795332

相关文章

Eclipse+ADT与Android Studio开发的区别

下文的EA指Eclipse+ADT,AS就是指Android Studio。 就编写界面布局来说AS可以边开发边预览(所见即所得,以及多个屏幕预览),这个优势比较大。AS运行时占的内存比EA的要小。AS创建项目时要创建gradle项目框架,so,创建项目时AS比较慢。android studio基于gradle构建项目,你无法同时集中管理和维护多个项目的源码,而eclipse ADT可以同时打开

android 免费短信验证功能

没有太复杂的使用的话,功能实现比较简单粗暴。 在www.mob.com网站中可以申请使用免费短信验证功能。 步骤: 1.注册登录。 2.选择“短信验证码SDK” 3.下载对应的sdk包,我这是选studio的。 4.从头像那进入后台并创建短信验证应用,获取到key跟secret 5.根据技术文档操作(initSDK方法写在setContentView上面) 6.关键:在有用到的Mo

android一键分享功能部分实现

为什么叫做部分实现呢,其实是我只实现一部分的分享。如新浪微博,那还有没去实现的是微信分享。还有一部分奇怪的问题:我QQ分享跟QQ空间的分享功能,我都没配置key那些都是原本集成就有的key也可以实现分享,谁清楚的麻烦详解下。 实现分享功能我们可以去www.mob.com这个网站集成。免费的,而且还有短信验证功能。等这分享研究完后就研究下短信验证功能。 开始实现步骤(新浪分享,以下是本人自己实现

Android我的二维码扫描功能发展史(完整)

最近在研究下二维码扫描功能,跟据从网上查阅的资料到自己勉强已实现扫描功能来一一介绍我的二维码扫描功能实现的发展历程: 首页通过网络搜索发现做android二维码扫描功能看去都是基于google的ZXing项目开发。 2、搜索怎么使用ZXing实现自己的二维码扫描:从网上下载ZXing-2.2.zip以及core-2.2-source.jar文件,分别解压两个文件。然后把.jar解压出来的整个c

android 带与不带logo的二维码生成

该代码基于ZXing项目,这个网上能下载得到。 定义的控件以及属性: public static final int SCAN_CODE = 1;private ImageView iv;private EditText et;private Button qr_btn,add_logo;private Bitmap logo,bitmap,bmp; //logo图标private st

Android多线程下载见解

通过for循环开启N个线程,这是多线程,但每次循环都new一个线程肯定很耗内存的。那可以改用线程池来。 就以我个人对多线程下载的理解是开启一个线程后: 1.通过HttpUrlConnection对象获取要下载文件的总长度 2.通过RandomAccessFile流对象在本地创建一个跟远程文件长度一样大小的空文件。 3.通过文件总长度/线程个数=得到每个线程大概要下载的量(线程块大小)。

时间服务器中,适用于国内的 NTP 服务器地址,可用于时间同步或 Android 加速 GPS 定位

NTP 是什么?   NTP 是网络时间协议(Network Time Protocol),它用来同步网络设备【如计算机、手机】的时间的协议。 NTP 实现什么目的?   目的很简单,就是为了提供准确时间。因为我们的手表、设备等,经常会时间跑着跑着就有误差,或快或慢的少几秒,时间长了甚至误差过分钟。 NTP 服务器列表 最常见、熟知的就是 www.pool.ntp.org/zo

高仿精仿愤怒的小鸟android版游戏源码

这是一款很完美的高仿精仿愤怒的小鸟android版游戏源码,大家可以研究一下吧、 为了报复偷走鸟蛋的肥猪们,鸟儿以自己的身体为武器,仿佛炮弹一样去攻击肥猪们的堡垒。游戏是十分卡通的2D画面,看着愤怒的红色小鸟,奋不顾身的往绿色的肥猪的堡垒砸去,那种奇妙的感觉还真是令人感到很欢乐。而游戏的配乐同样充满了欢乐的感觉,轻松的节奏,欢快的风格。 源码下载

百度OCR识别结构结构化处理视频

https://edu.csdn.net/course/detail/10506

Android SurfaceFlinger——图形内存分配器(十一)

前面的文章中的图层合成器(HWC),这里我们接着看一下 SurfaceFlinger 中的另一个重要服务——图形内存分配器。 一、简介         android.hardware.graphics.allocator@2.0 是 Android 系统中硬件抽象层(HAL)的一个组件,专门用于图形内存的分配和管理。它是 SurfaceFlinger 在处理图形数据时所依赖的