FFmpeg 音視訊同步
阿新 • • 發佈:2019-02-03
音視訊播放器的工作的具體流程如下圖所示:
播放器工作流程
簡單的來說包括:解協議,解封裝,對音訊和視訊分別進行解碼,音視訊同步播放這幾個部分,各部分詳細解釋請看後面參考資料。由於我們是分別解碼和播放音訊和視訊的,所以各自播放的節奏需要同步,否則會出現音畫不一致的情況。本文主要介紹一個簡單的音視訊同步的方案。
準備工作
相關知識
- PTS和DTS
音視訊流中的每一幀都有時間相關的資訊,其中PTS是播放時間,DTS是解碼時間。音訊的PTS和DTS是一致的,而某些視訊各種中可能會存在DTS和PTS不一致的幀,我們這裡主要通過PTS來控制播放時間。對解碼後的AVFrame使用av_frame_get_best_effort_timestamp可以獲取PTS。 - time_base
我們注意到PTS是一個整形資料,time_base是PTS的單位,PTS乘以time_base即可得到實際時間。只有AVStream中獲取的time_base才是對的,其他地方獲取的可能會有問題。 - 音視訊同步策略
一般來說有三種方式,音訊同步到視訊,視訊同步到音訊,音視訊同步到外部時間。一般各個引數設定正確音訊就能夠以正常的速度播放,所以把視訊同步到音訊在一般情況下,是一個簡單有效的同步策略。本文主要採取這個方式同步音視訊,來展示相關的基本思路。
同步視訊到音訊
- 獲取解碼的視訊幀時間。
AVFrame vFrame; AVStream vStream; //...解析視訊獲取vStream,解碼視訊幀獲得vFrame...
- 獲取解碼的音訊幀時間。
AVFrame aFrame; AVStream aStream; //...將正在播放的音訊時間點記錄下來作為基準... audioClock = aFrame.pkt_pts * av_q2d(aStream->time_base);
- 音視訊同步邏輯
/* no AV sync correction is done if below the minimum AV sync threshold */