本文主要是介绍LIVE555学习5:testOnDemandRTSPServer例程解析,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
文章目录
- 1 主函数
- 2 ServerMediaSession
- 3 Source 和 Sink
关于testOnDemandRTSPServer例程分析,网上有很多文章,有些写的非常详细,将涉及到的每个函数以及类进行了详细讲解,看了之后很有收获,可是让自己写是如何也写不出来的。只是将自己输入的内容有个输出,防止以后遗忘。。。
1 主函数
主函数如下,只列出了H264,去掉了其他类型:
int main(int argc, char** argv) {// Begin by setting up our usage environment:TaskScheduler* scheduler = BasicTaskScheduler::createNew(); //创建任务调度器env = BasicUsageEnvironment::createNew(*scheduler); //创建交互环境/* 权限控制 */UserAuthenticationDatabase* authDB = NULL;
#ifdef ACCESS_CONTROL// To implement client access control to the RTSP server, do the following:authDB = new UserAuthenticationDatabase;authDB->addUserRecord("username1", "password1"); // replace these with real strings// Repeat the above with each <username>, <password> that you wish to allow// access to the server.
#endif// Create the RTSP server,端口8554RTSPServer* rtspServer = RTSPServer::createNew(*env, 8554, authDB);if (rtspServer == NULL) {*env << "Failed to create RTSP server: " << env->getResultMsg() << "\n";exit(1);}char const* descriptionString= "Session streamed by \"testOnDemandRTSPServer\"";// Set up each of the possible streams that can be served by the// RTSP server. Each such stream is implemented using a// "ServerMediaSession" object, plus one or more// "ServerMediaSubsession" objects for each audio/video substream.// A H.264 video elementary stream:{char const* streamName = "stream0"; //流名字char const* inputFileName = "output.h264"; //文件名// 创建媒体会话,当客户点播流的时候,会输入流的名字即上文的”stream0”,用来告诉RTSP服务器点播的是那个流ServerMediaSession* sms= ServerMediaSession::createNew(*env, streamName, streamName, descriptionString);//添加子会话,当点播此流的时候,会打开inputFileName指定的文件,即打开“output.h264”sms->addSubsession(H264VideoFileServerMediaSubsession::createNew(*env, inputFileName, reuseFirstSource));//为rtspserver添加sessionrtspServer->addServerMediaSession(sms);//打印信息到标准输出announceStream(rtspServer, sms, streamName, inputFileName);}if (rtspServer->setUpTunnelingOverHTTP(80) || rtspServer->setUpTunnelingOverHTTP(8000) || rtspServer->setUpTunnelingOverHTTP(8080)) {*env << "\n(We use port " << rtspServer->httpServerPortNum() << " for optional RTSP-over-HTTP tunneling.)\n";} else {*env << "\n(RTSP-over-HTTP tunneling is not available.)\n";}env->taskScheduler().doEventLoop(); // does not returnreturn 0; // only to prevent compiler warning
}
上面便是主函数的全部内容,在函数起始部分会先创建一个任务调度器用于以后进行任务事件调度用,关于任务调度、计划任务这一部分在前面文章《IVE555学习3:live555MediaServer讲解——Live555从启动到响应Client过程分析》中有过介绍。
然后会创建一个交互环境env,用于输出一些信息。这些其实是创建一个RTSP服务器的标准流程,就不详细介绍了。
随后,会创建一个RTSPServer实例,端口号为8554.随后将其加入计划任务,当监听到Client的请求时候,会调用对应的handler函数进行响应,这一部分在前面文章《IVE555学习3:live555MediaServer讲解——Live555从启动到响应Client过程分析》也有过分析。
2 ServerMediaSession
在创建完RTSPServe实例后,会看到又创建了一个媒体会话ServerMediaSession, 然后将H264VideoFileServerMediaSubsession添加到ServerMediaSession会话中,然后又将ServerMediaSession添加进创建的RTSPServe实例中去。
H264VideoFileServerMediaSubsession通过分析发现是FileServerMediaSubsession的子类,FileServerMediaSubsession又是OnDemandServerMediaSubsession的子类,OnDemandServerMediaSubsession又是ServerMediaSubsession的子类。
关于上面的ServerMediaSession和ServerMediaSubsession我们可以简单理解如下:
一个ServerMediaSession对象对应一个媒体文件,一个媒体文件中可能同时包含音频和视频,对于每个视频或者音频,对应一个ServerMediaSubsession对象,所以一个ServerMediaSession可以有多个ServerMediaSubsession。
关于ServerMediaSession更详细的,可以参考下面的博客:
live555 源码分析:ServerMediaSession
https://www.wolfcstech.com/2017/09/07/live555_src_analysis_servermediasession/
3 Source 和 Sink
在H264VideoFileServerMediaSubsession中,需要提供其父类OnDemandServerMediaSubsession进行I/O操作时候需要的Source和Sink.
实现如下:
FramedSource* H264VideoFileServerMediaSubsession::createNewStreamSource(unsigned /*clientSessionId*/, unsigned& estBitrate) {estBitrate = 500; // kbps, estimate// Create the video source:ByteStreamFileSource* fileSource = ByteStreamFileSource::createNew(envir(), fFileName);if (fileSource == NULL) return NULL;fFileSize = fileSource->fileSize();// Create a framer for the Video Elementary Stream:return H264VideoStreamFramer::createNew(envir(), fileSource);
}
上面的Source和Sink的调用是在RTSP会话中的SETUP中进行调用的。
在SETUP会话中,有调用到subsession->getStreamParameters,这个虚函数在OnDemandServerMediaSubsession类中被实现,在getStreamParameters中,可以看到先后调用了createNewStreamSource和createNewRTPSink来创建,然后将其进行关联。
在上面创建的source中,我们可以看到ByteStreamFileSource这个类是通过void ByteStreamFileSource::doReadFromFile();从本地文件中读取数据。
其实这一部分也是我们需要着重关注的,如果想基于Live555实现直播流,就需要重写Source和Sink这一部分,将视频流的获取改写为实时流。
这篇关于LIVE555学习5:testOnDemandRTSPServer例程解析的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!