本文主要是介绍FFplay源码分析-video_thread,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
《FFmpeg原理》的社群来了,想加入社群的朋友请购买 VIP 版,VIP 版有更高级的内容与答疑服务。
本系列 以 ffmpeg4.2 源码为准,下载地址:链接:百度网盘 提取码:g3k8
FFplay 源码分析系列以一条简单的命令开始,ffplay -i a.mp4
。a.mp4下载链接:百度网盘,提取码:nl0s 。
上一篇文章已经讲解完了 audio_thread() 音频解码线程的逻辑,这篇文章主要讲解 video_thread(),视频解码线程的内部逻辑。
知识点:
- audio_thread 音频解码线程获取 frame 用的是 decoder_decode_frame() 函数。而 video_thread 视频解码线程获取 frame 用的是 get_video_frame() ,get_video_frame() 是对 decoder_decode_frame() 的一个封装。这样做是因为视频向音频同步的时候,需要丢帧,只能在get_video_frame()里面丢帧,而音频向视频同步的时候,是不能丢帧,只能拉长或缩短音频播放时间,具体后续再讲。
- configure_video_filtes() 函数本文不会仔细讲解,因为 命令行没有使用 -vf,暂时只需要知道 AVFrame 会经过 in_video_filter,然后从 out_video_filter 出来就行,因为是空的 filter_graph,所以AVFrame是没变化的。
还有一个比较重要的知识点需要提及一下,请看以下代码。
ffplay.c 2186行
ret = av_buffersrc_add_frame(filt_in, frame);
...省略代码...
while (ret >= 0) {is->frame_last_returned_time = av_gettime_relative() / 1000000.0;...省略代码...ret = av_buffersink_get_frame_flags(filt_out, frame, 0);//is->frame_last_filter_delay = av_gettime_relative() / 1000000.0 - is->frame_last_returned_time;...省略代码...
}
is->frame_last_returned_time 是为了计算frame经过filter转换花了多少时间,为什么要计算这个值,是因为音视频同步的时候需要考虑 经过 filter 转换的时间,从队列里面拿到视频Frame,并不是立马就给SDL播放的。如果命令行指定了 -vf,中间会有一个filter转换的时间差。
ffplay 插入FrameQueue队列的函数有两个。
- frame_queue_peek_writable() ,从队列数组选出一个 可以写的struct Frame。
- frame_queue_push(),偏移 写索引 windex,增加size。
可以看到,队列是由两个函数来完成的,第一个函数frame_queue_peek_writable() 只是取了Frame,并没有偏移写索引,偏移是由frame_queue_push()完成。
还有一个注意的点是,video_thread() 插入Frame队列,用的是 queue_picture(),对 frame_queue_peek_writable 跟 frame_queue_push 做了一层封装。
而 audio_thread() 插入Frame队列 是直接调上面两个函数实现的。
ffplay 源码分析,video_thread() 解码线程分析完毕。
©版权所属:弦外之音。
由于笔者的水平有限, 加之编写的同时还要参与开发工作,文中难免会出现一些错误或者不准确的地方,恳请读者批评指正。
这篇关于FFplay源码分析-video_thread的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!