WebRTC视频流接收统计报告 在每次视频推流或拉流结束后,WebRTC都会输出本次视频推拉流的统计报告。其中包含了关于评价本次推拉流质量相关的若干参数。本文的主要目的是介绍视频拉流相关的统计指标含义。 关于推流相关的统计指标,另外的文章进行单独描述。 本文源码基于WebRTCM94编写。后续WebRTC版本可能有所变化(如receivestatisticsproxy已被移除,改为receivestatisticsproxy2),细节可能不同,但基本原理应该适用。相关源码videoreceivestatisticsproxy。cccallvideoreceivestream。h统计指标ReceiveStreamLifetimeInSeconds 含义如字面意思。表示从视频拉流对象创建,到结束的总时长,单位是秒。 计算的起始时间是ReceiveStatisticsProxy类构造的时候,在ReceiveStatisticsProxy::UpdateHistograms()中,当前时间减去起始时间,得到耗时。VideoReceiveStream的构造函数,同时构造了ReceiveStatisticsProxy。VideoReceiveStream::Stop()的时候,会调用ReceiveStatisticsProxy::UpdateHistograms()完成各种度量指标计算。 Framesdecoded 顾名思义,表示解码总帧数。对应VideoReceiveStream::Stats的成员变量framesdecoded。视频帧解码通知时序:startumlActorDecoderDecoderVCMDecodedFrameCallback:DecodedVCMDecodedFrameCallbackVideoStreamDecoder:FrameToRenderVideoStreamDecoderReceiveStatisticsProxy:OnDecodedFrameenduml 解码器解码一帧后,会通知到ReceiveStatisticsProxy::OnDecodedFrame()中对解码帧数增加计数。 【更多音视频学习资料,点击下方链接免费领取,先码住不迷路】 音视频开发(资料文档视频教程面试题)(FFmpegWebRTCRTMPRTSPHLSRTP)DroppedFrames。Receiver 当VideoReceiveStream::Stop()执行的时候,会调用RtpVideoStreamReceiver::GetUniqueFramesSeen()获取一个视频帧计数器framecounter,它的值是在RtpVideoStreamReceiver::OnReceivedPayloadData()中根据收包时间戳来增加,具体见源码videortpvideostreamreceiver。cc。framecounter。Add(packettimestamp); 这个视频帧计数器可以理解为从收到的视频帧总数,然后用这个总数减去解码帧数Framesdecoded,就得到了丢掉的总帧数:intnumdroppedframesnumuniqueframesstats。framesdecoded;ReceivedPacketsLostInPercent 顾名思义,丢包率(百分比)。当ReceiveStreamLifetimeInSeconds大于10秒时才可能输出这个数值。这个数值实际的计算位置来自StreamStatisticianImpl::GetFractionLostInPercent()。丢包率的分子和分母不在本文介绍范围内,感兴趣的读者自行阅读源码。DecodedFramesPerSecond 平均解码帧率。以当前时间减去解码第一帧开始时间得到的差值做为分母,解码总帧数做为分子,计算得出的整型数值。RenderFramesPerSecond 平均渲染帧率。数值来自于ReceiveStatisticsProxy的成员变量renderfpstracker,变量类型是rtc::RateTracker。 在ReceiveStatisticsProxy::OnRenderedFrame中会调用AddSamples增加一个采样计数。最后调用RateTracker::ComputeTotalRate返回值并对其四舍五入获得渲染帧率。例如渲染帧数总共是545,总时长是60000毫秒,得到的帧率就是545x1000600009。089帧秒。 代码中对采样计数有最少200个的约束,即少于200帧是不会输出渲染帧率的。 渲染帧通知时序大概如下:startumlActorDecoderDecoderVideoStreamDecoder:FrameToRenderVideoStreamDecoderIncomingVideoStream:OnFramenoteright如果VideoReceiveStream::Config的enableprerenderersmoothing是false,则会直接送给VideoReceiveStreamendnoteIncomingVideoStreamVideoReceiveStream:OnFramenoterightonFrame是实现rtc::VideoSinkInterface的虚函数endnoteVideoReceiveStreamReceiveStatisticsProxy:OnRenderedFrameenduml KeyFramesReceivedInPermille permille是千分率的意思,因此,这个数值是表示接收关键帧的千分率。计算公式在代码中如下:(关键帧总数x1000总帧数2)总帧数(1) 其中总帧数是关键帧和非关键帧的总和。注意计算的结果会被强转成整型。 其实我看到这个公式是有点不太理解的。如果只是计算千分率,为何不直接就使用(关键帧总数总帧数)x1000(2) 就行了?如果按照上面的公式(1)计算,意味着计算出来的结果始终是会比公式(2)要大一些的(约等于0。5)。不知道作者是出于什么考虑。DecodeTimeInMs 平均解码耗时。数值来自于ReceiveStatisticsProxy的成员变量decodetimecounter,变量类型是rtc::SampleCounter(源码:rtcbaseumericssamplecounter。cc)。rtc::SampleCounter的源码可以阅读一下,比较简单,ReceiveStatisticsProxy有很多变量类型都是它。 在ReceiveStatisticsProxy::OnDecodedFrame被调用的时候,会将当前帧的解码耗时decodetimems追加到decodetimecounter中记录下来,并增加一个采样计数。最终计算的平均解码耗时,就是调用rtc::SampleCounter的Avg方法计算得到的,其原理比较简单:全部帧的解码耗时总时长采样计数。与RenderFramesPerSecond一样,对采样计数目前有最小200的要求,即小于200个采样计数不输出此项数据。JitterBufferDelayInMs,TargetDelayInMs,CurrentDelayInMs 这三个数值具有强相关性,因此放到一起描述。它们分别对应ReceiveStatisticsProxy的成员变量jitterbufferdelaycounter,targetdelaycounter和currentdelaycounter,变量类型是rtc::SampleCounter。 在ReceiveStatisticsProxy::OnFrameBufferTimingsUpdated被调用的时候,会传入jitterbufferms,targetdelayms以及currentdelayms,累加到对应的采样计数器变量中。最终用于计算平均值:分子是每次传入的数值总和,分母是次数。 【更多音视频学习资料,点击下方链接免费领取,先码住不迷路】 音视频开发(资料文档视频教程面试题)(FFmpegWebRTCRTMPRTSPHLSRTP) ReceiveStatisticsProxy::OnFrameBufferTimingsUpdated由FrameBuffer调用,源码:modulesvideocodingframebuffer2。cc:startumlActorjitterbufferjitterbufferFrameBuffer:IntersetFrameNextFrameFrameBufferFrameBuffer:StartWaitForNextFrameOnQueueFrameBufferFrameBuffer:GetNextFrameFrameBufferFrameBuffer:UpdateJitterDelayFrameBufferReceiveStatisticsProxy:OnFrameBufferTimingsUpdatedenduml FrameBuffer和JitterBuffer的实现原理不在本文介绍范围之内,感兴趣的读者自行研读源码。EndToEndDelayInMs 端到端平均延时。对应VideoReceiveStream::Stats的成员变量e2edelaycounter。它的类型是rtc::SampleCounter。在ReceiveStatisticsProxy::OnRenderedFrame中会计算单帧的延时,累加到e2edelaycounter。单次的延时数值是当前ntptime(webrtc::Clock::CurrentNtpInMilliseconds())减去webrtc::VideoFrame的ntptimems得到的。EndToEndDelayMaxInMs 端到端最大延时。它是VideoReceiveStream::Stats的成员变量e2edelaycounter记录的所有单帧延时的最大值。InterframeDelayInMs 解码帧间隔平均值。对应VideoReceiveStream::Stats的成员变量interframedelaycounter。它的类型是rtc::SampleCounter。在ReceiveStatisticsProxy::OnDecodedFrame中会计算单帧的解码时间间隔(即ReceiveStatisticsProxy::OnDecodedFrame被调用的两次间隔),累加到interframedelaycounter。InterframeDelayMaxInMs 最大解码帧间隔。它是VideoReceiveStream::Stats的成员变量interframedelaycounter记录的所有单帧解码帧间隔数值的最大者。InterframeDelay95PercentileInMs 这个数值代表:超过95帧间隔数值里的最小值,或者理解为95的帧间隔都小于多少。对应VideoReceiveStream::Stats的成员变量interframedelaypercentiles。它的类型是rtc::HistogramPercentileCounter。这个数值乍一看不太容易理解,这里简单介绍一下。 要理解这个数值,需要先理解rtc::HistogramPercentileCounter。它与rtc::SampleCounter有类似之处,但本质上还是有很多不同。它存在几个关键的成员变量:std::vectorsizethistogramlow;std::mapuint32t,sizethistogramhigh;constuint32tlongtailboundary;sizettotalelements;sizettotalelementslow; 以longtailboundary作为分界点,小于longtailboundary的值,记录到histogramlow,否则记录到histogramhigh。目前就InterframeDelay95PercentileInMs来说,这个分界点是500(kMaxCommonInterframeDelayMs)。histogramlow的每个元素索引序号代表具体的一个帧间隔数值,值表示此帧间隔的次数。分界点是500的话,histogramlow所代表的帧间隔数值范围就是0499。 histogramhigh与histogramlow的作用类似,但它的类型是std::map,key表示帧间隔数值,value表示次数。 InterframeDelay95PercentileInMs调用的是rtc::HistogramPercentileCounter的GetPercentile()方法,传入参数0。95f。它的目的是跳过全部计数totalelements的95减1以后,寻找剩余部分里最小的帧间隔数值。注意这里的95是帧间隔的发生总次数,不是帧间隔数值。 下面举个例子:测试帧间隔数值:{10,20,10,30,10,50,30,70,225,10,110,120,530,145,15,560,127,138,15,200};全部添加到rtc::HistogramPercentileCounter后的排列:histogramlow:〔10〕4〔15〕2〔20〕1〔30〕2〔50〕1〔70〕1〔110〕1〔120〕1〔127〕1〔138〕1〔145〕1〔200〕1〔225〕1longtailboundary:500histogramhigh:530,1560,1按照上面测试序列,(20x0。95)118,跳过18个以后,首个帧间隔是530,所以InterframeDelay95PercentileInMs的结果就是530。表示95的帧间隔都小于530。ReceivedWidthInPixels 拉取的视频流分辨率的平均宽度。由于远程视频流推流分辨率可能产生变化,这里输出的是平均值,而非其中的某一次。它的类型是rtc::SampleCounter。 【更多音视频学习资料,点击下方链接免费领取,先码住不迷路】 音视频开发(资料文档视频教程面试题)(FFmpegWebRTCRTMPRTSPHLSRTP)ReceivedHeightInPixels 拉取的视频流分辨率的平均高度。其他与ReceivedWidthInPixels相同,不再赘述。MediaBitrateReceivedInKbps 平均接收码率。接收的字节数来自VideoReceiveStream::Stats的成员变量totalmediabytes。在ReceiveStatisticsProxy::OnCompleteFrame会对接收字节数进行累加,最后作为计算平均接收码率的分子。 如果你对音视频开发感兴趣,觉得文章对您有帮助,别忘了点赞、收藏哦!或者对本文的一些阐述有自己的看法,有任何问题,欢迎在下方评论区讨论!