10.基于FFMPEG+SDL2播放video---音视频同步(参考音频时钟)

2024-05-27 09:38

本文主要是介绍10.基于FFMPEG+SDL2播放video---音视频同步(参考音频时钟),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

继续FFMPEG学习之路。。。

参考资料:

  1. An ffmpeg and SDL Tutorial

文章目录

  • 1 综述
  • 2 音视频同步
  • 3 DTS 和 PTS
  • 4 音频时钟
  • 5 视频PTS
  • 6 同步
  • 7 不足
  • 8 工程

1 综述

前面在写了使用FFMPEG+SDL2播放音频,视频的demo,接下来则需要将音频视频合入同时进行播放,在简单的将两份代码合入之后,调试了一番,发现音频视频可以正常播放,但是并没有同步,两者之间的独立的两个部分,这样就会导致画面和人的口型对不上,看着很不舒服,这时候就需要音视频同步了。

所谓的音视频同步,顾名思义就是要音频的播放速度跟上视频的播放速度,或者说视频的播放速度跟上音频的播放速度,这样就会使当前的画面和播放的声音一致。

2 音视频同步

我们知道,视频有帧率的概念,表示一秒显示的帧数,例如25FPS表示一秒显示25帧图像;音频有采样率的概念,表示每秒播放的样本的个数,例如一段音频音频参数为:48khz 32bit, 则每秒播放的音频字节数为 48000*(32/8)= 192000 。因此如果我们保持每秒视频播放25帧,音频播放192000字节数据,这样即便音频和视频播放是独立的,理论上也应该可以达到同步的目的。理想是美好的,但是随着时间的逐渐增大,误差就会逐渐增大,慢慢就会出现音视频不会同步的现象。

那么如何才能做到音视频同步呐?既然音频和视频都有与时间相关的一些概念,那么能否有一个独立的时间参数,音频和视频都参考这个独立的时间参数,播放快了就减慢播放,播放慢了就加快播放,这样音视频就可以参考这个时间参数实现同步播放。

独立的时间参数可以有一下三个选择:
参考音频时钟:即以音频的播放速度为准,将视频同步到音频上,视频播放快了就减慢播放速度,视频播放慢了就加快播放速度。
参考视频时钟:即以视频的播放速度为准,将音频同步到视频上。
参考外部时钟:即设置一个外部的独立时钟,将音频和视频同步到此时钟上。

本文中的同步是参考音频时钟的。

3 DTS 和 PTS

要实现上面讲的参考音频时钟,那么使用每秒播放25帧的这个参数就不容易实现了,因此我们需要视频中更精确的时间量来和音频时钟同步。在视频中,有DTS和PTS的概念,DTS(Decoding Time Stamp)解码时间戳,用于告诉解码器解码的顺序;PTS(Presentation Time Stamp)显示时间戳,用于表示解码后的数据显示顺序。

关于DTS和PTS,网上有很多详细的资料,这里不再描述,我们只需要知道我们可以使用PTS和音频时钟进行参考,从而判断下一帧的时间,从而实现音视频同步。

4 音频时钟

首先,我们先了解音频时钟相关的。
既然以音频时钟为准,那么我们就需要实时的更新音频时钟,方便视频可以获取到最新的时钟,因此在audio_decode_frame函数中,每取出一个packet,就要更新audio clock,如下:

		/* if update, update the audio clock w/pts */if(pkt->pts != AV_NOPTS_VALUE) {/* 获取真正的时间 */pState->audioClock = av_q2d(pState->pAudioStream->time_base)*pkt->pts;//printf("pts is %f, av is %f, clock is %f\n", pkt->pts, av_q2d(pState->pAudioStream->time_base),//	pState->audioClock );}

根据前面的文章,我们知道可能一个音频packet里面包含多帧音频数据,因此在此函数中,每解码一帧的数据,就要更新audio clock,如下:

			/* Keep audio_clock up-to-date */pts = pState->audioClock;*pts_ptr = pts;n = 2 * pState->pAudioStream->codec->channels;pState->audioClock += (double)data_size /(double)(n * pState->pAudioStream->codec->sample_rate);

其中,data_size为当前帧的大小, n * pState->pAudioStream->codec->sample_rate 为每秒播放的音频数据量, (double)data_size /
(double)(n * pState->pAudioStream->codec->sample_rate);
则是当前解码的音频帧需要播放的时间,单位s.

注意:关于上面pts, dts, av_q2d相关知识,可以参考:https://blog.csdn.net/bixinwei22/article/details/78770090
这篇博文已经介绍的很详细。

当视频需要参考时钟的时候,却不能直接返回audio clock,因为上面介绍了当前的audio clock为当前音频帧播放完时候的时钟,但是如果当前缓冲区里面还有音频数据,就需要减去这些音频数据占据的时间,才是当前音频的clock,如下:

double getAudioClock(VideoState *pState) 
{double pts;int hwBufSize = 0;        //当前剩余的要播放的数据int bytesPerSec = 0;int n = 0;pts = pState->audioClock; /* maintained in the audio thread */hwBufSize = pState->audioBufSize - pState->audioBufIndex;n = pState->pAudioStream->codec->channels * 2;if(pState->pAudioStream) {bytesPerSec = pState->pAudioStream->codec->sample_rate * n;}if(bytesPerSec) {pts -= (double)hwBufSize / bytesPerSec;}return pts;
}

其中pts -= (double)hwBufSize / bytesPerSec; 即为减去缓冲区里面剩余音频数据要播放需要的时间。

5 视频PTS

根据博文:https://blog.csdn.net/bixinwei22/article/details/78770090 里面介绍,当我们获取到视频帧的PTS后,就可以得到其显示时间(单位s),如下:
time(second) = st->duration * av_q2d(st->time_base)

在我们的解码线程中,在将解码后的数据放入到PacketQueue队列前,需要获取其显示时间,如下:

		/* get PTS */if (packet->dts != AV_NOPTS_VALUE){pts = av_frame_get_best_effort_timestamp(pFrame);}else{pts = 0;}pts *= av_q2d(pState->pVideoStream->time_base);if(got_picture){pts = synchronizeVideo(pState, pFrame, pts);if ((queuePicture(pState, pFrame, pts)) < 0)break;}

上面的流程为,获取视频PTS—>获取显示时间—>矫正时间—>放入队列

上面的矫正时间,是有可能调用av_frame_get_best_effort_timestamp时候没有获取到正确的PTS,那么就需要在synchronizeVideo中进行矫正。

6 同步

现在我们已经获取到每帧视频的显示时间,并且能够实时的同步音频时钟,接下来就是视频显示的该如何参考音频时钟?

我们的videoRefreshTimer函数的作用是刷新定时器并将视频显示到屏幕上,因此我们的同步工作就在这个函数里面进行。

所谓的同步其实是根据时间戳和音频时钟来计算下一帧视频显示的时间,设置定时器,从而通过快了变慢下一帧播放,慢了加快下一帧播放来实现同步。

大致思路为:
① 用当前PTS减去上一帧的PTS,获取一个值delay
② 将当前要显示的视频的pts减去当前音频的时钟,获取一个值diff
③ 将delay 和diff进行比较,如果diff小于0,说明当前要显示的视频播放的慢了,下一帧需要提前播放了;如果diff大于delay,说明当前要显示的视频播放的快了,下一帧需要慢点播放

代码如下:

			delay = pVideoPic->pts - pState->frameLastPTS;if ((delay <= 0) || (delay >= 1.0)){/* if incorrect delay, use previous one */delay = pState->frameLastDelay;}pState->frameLastDelay = delay;pState->frameLastPTS = pVideoPic->pts;/* update delay to sync to audio */refClock = getAudioClock(pState);diff = pVideoPic->pts - refClock;/* Skip or repeat the frame. Take delay into accountFFPlay still doesn't "know if this is the best guess." */syncThreshold = (delay > AV_SYNC_THRESHOLD) ? delay : AV_SYNC_THRESHOLD;if(fabs(diff) < AV_NOSYNC_THRESHOLD) {if(diff <= -syncThreshold)       //视频显示的慢了,下一帧快一点{delay = 0;} else if(diff >= syncThreshold)   //视频显示的快了,下一帧慢一点{delay = 2 * delay;}}pState->frameTimer += delay;/* computer the REAL delay */actualDelay = pState->frameTimer - (av_gettime() / 1000000.0);if (actualDelay <= 0.01){actualDelay = 0.01;}schduleRefresh(pState, (int)(actualDelay * 1000 + 0.5));

其中,frameTimer 为视频播放到现在的延迟时间总和,这个值减去当前的时间即为下一帧的播放时间;AV_NOSYNC_THRESHOLD为0.01,这个是参考ffplay里面来做的,保证值不能小于0.01,并且设置最小的刷新值为0.01.

如上,便是音视频同步的整个过程了。

7 不足

在代码中只是实现了基本的功能,在一些细节方面没有优化:
①去初始化功能没有做好
②代码在一个cpp文件中,太冗杂,可以按照其功能进行拆分
③没有添加必要的打印信息
④代码编解码细节方面还可以优化

接下来,则需要对这些方面进行修改。

8 工程

最后放上完整的工程,在vs2010上测试ok.
基于FFMPEG_SDL2_音视频播放_参考音频时钟

这篇关于10.基于FFMPEG+SDL2播放video---音视频同步(参考音频时钟)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1007112

相关文章

用js控制视频播放进度基本示例代码

《用js控制视频播放进度基本示例代码》写前端的时候,很多的时候是需要支持要网页视频播放的功能,下面这篇文章主要给大家介绍了关于用js控制视频播放进度的相关资料,文中通过代码介绍的非常详细,需要的朋友可... 目录前言html部分:JavaScript部分:注意:总结前言在javascript中控制视频播放

Python基于wxPython和FFmpeg开发一个视频标签工具

《Python基于wxPython和FFmpeg开发一个视频标签工具》在当今数字媒体时代,视频内容的管理和标记变得越来越重要,无论是研究人员需要对实验视频进行时间点标记,还是个人用户希望对家庭视频进行... 目录引言1. 应用概述2. 技术栈分析2.1 核心库和模块2.2 wxpython作为GUI选择的优

Python+PyQt5实现多屏幕协同播放功能

《Python+PyQt5实现多屏幕协同播放功能》在现代会议展示、数字广告、展览展示等场景中,多屏幕协同播放已成为刚需,下面我们就来看看如何利用Python和PyQt5开发一套功能强大的跨屏播控系统吧... 目录一、项目概述:突破传统播放限制二、核心技术解析2.1 多屏管理机制2.2 播放引擎设计2.3 专

Python 中的异步与同步深度解析(实践记录)

《Python中的异步与同步深度解析(实践记录)》在Python编程世界里,异步和同步的概念是理解程序执行流程和性能优化的关键,这篇文章将带你深入了解它们的差异,以及阻塞和非阻塞的特性,同时通过实际... 目录python中的异步与同步:深度解析与实践异步与同步的定义异步同步阻塞与非阻塞的概念阻塞非阻塞同步

使用Python实现文本转语音(TTS)并播放音频

《使用Python实现文本转语音(TTS)并播放音频》在开发涉及语音交互或需要语音提示的应用时,文本转语音(TTS)技术是一个非常实用的工具,下面我们来看看如何使用gTTS和playsound库将文本... 目录什么是 gTTS 和 playsound安装依赖库实现步骤 1. 导入库2. 定义文本和语言 3

详解如何使用Python提取视频文件中的音频

《详解如何使用Python提取视频文件中的音频》在多媒体处理中,有时我们需要从视频文件中提取音频,本文为大家整理了几种使用Python编程语言提取视频文件中的音频的方法,大家可以根据需要进行选择... 目录引言代码部分方法扩展引言在多媒体处理中,有时我们需要从视频文件中提取音频,以便进一步处理或分析。本文

Linux搭建Mysql主从同步的教程

《Linux搭建Mysql主从同步的教程》:本文主要介绍Linux搭建Mysql主从同步的教程,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录linux搭建mysql主从同步1.启动mysql服务2.修改Mysql主库配置文件/etc/my.cnf3.重启主库my

基于Canvas的Html5多时区动态时钟实战代码

《基于Canvas的Html5多时区动态时钟实战代码》:本文主要介绍了如何使用Canvas在HTML5上实现一个多时区动态时钟的web展示,通过Canvas的API,可以绘制出6个不同城市的时钟,并且这些时钟可以动态转动,每个时钟上都会标注出对应的24小时制时间,详细内容请阅读本文,希望能对你有所帮助...

Java中将异步调用转为同步的五种实现方法

《Java中将异步调用转为同步的五种实现方法》本文介绍了将异步调用转为同步阻塞模式的五种方法:wait/notify、ReentrantLock+Condition、Future、CountDownL... 目录异步与同步的核心区别方法一:使用wait/notify + synchronized代码示例关键

Python实现多路视频多窗口播放功能

《Python实现多路视频多窗口播放功能》这篇文章主要为大家详细介绍了Python实现多路视频多窗口播放功能的相关知识,文中的示例代码讲解详细,有需要的小伙伴可以跟随小编一起学习一下... 目录一、python实现多路视频播放功能二、代码实现三、打包代码实现总结一、python实现多路视频播放功能服务端开