HTTP Live Streaming直播(iOS直播)技術分析與實現
不經意間發現,大半年沒寫部落格了,自覺汗顏。實則2012後半年(2018年注:這是我以前寫的文章,不要奇怪時間了),家中的事一樣接著一樣發生,實在是沒有時間。快過年了,總算忙裡偷閒,把最近的一些技術成果,總結成了文章,與大家分享。
前些日子,也是專案需要,花了一些時間研究了HTTP Live Streaming(HLS)技術,並實現了一個HLS編碼器HLSLiveEncoder,當然,C++寫的。其功能是採集攝像頭與麥克風,實時進行H.264視訊編碼和AAC音訊編碼,並按照HLS的協議規範,生成分段的標準TS檔案以及m3u8索引檔案。通過我的HLSLiveEncoder和第三方Http伺服器(例如:Nginx),成功實現了HTTP Live Streaming
直播,並在iphone上測試通過。我就把這當中的一些收穫寫在這裡。
HLS技術要點分析
HTTP Live Streaming(HLS)是蘋果公司(Apple Inc.)實現的基於HTTP的流媒體傳輸協議,可實現流媒體的直播和點播,主要應用在iOS系統,為iOS裝置(如iPhone、iPad)提供音視訊直播和點播方案。HLS點播,基本上就是常見的分段HTTP點播,不同在於,它的分段非常小。要實現HLS點播,重點在於對媒體檔案分段,目前有不少開源工具可以使用,這裡我就不再討論,只談HLS直播技術。
相對於常見的流媒體直播協議,例如RTMP協議、RTSP協議、MMS協議等,HLS直播最大的不同在於,直播客戶端獲取到的,並不是一個完整的資料流。HLS協議在伺服器端將直播資料流儲存為連續的、很短時長的媒體檔案(MPEG-TS
根據以上的瞭解要實現HTTP Live Streaming直播,需要研究並實現以下技術關鍵點
- 採集視訊源和音訊源的資料
- 對原始資料進行H264編碼和AAC編碼
- 視訊和音訊資料封裝為MPEG-TS包
- HLS分段生成策略及m3u8索引檔案
- HTTP傳輸協議
其中第1點和第2點,我之前的文章中已經提到過了,而最後一點,我們可以藉助現有的HTTP伺服器,所以,實現第3點和第4點是關鍵所在。
程式框架與實現
通過以上分析,實現HLS LiveEncoder直播編碼器,其邏輯和流程基本上很清楚了:分別開啟音訊與視訊編碼執行緒,通過DirectShow(或其他)技術來實現音視訊採集,隨後分別呼叫libx264和libfaac進行視訊和音訊編碼。兩個編碼執行緒實時編碼音視訊資料後,根據自定義的分片策略,儲存在某個MPEG-TS格式分段檔案中,當完成一個分段檔案的儲存後,更新m3u8索引檔案。如下圖所示:
上圖中HLSLiveEncoder當收到視訊和音訊資料後,需要首先判斷,當前分片是否應該結束,並建立新分片,以延續TS分片的不斷生成。需要注意的是,新的分片,應當從關鍵幀開始,防止播放器解碼失敗。核心程式碼如下所示:
TsMuxer的介面也是比較簡單的。
HLS分段生成策略和m3u8
1. 分段策略
- HLS的分段策略,基本上推薦是10秒一個分片,當然,具體時間還要根據分好後的分片的實際時長做標註
- 通常來說,為了快取等方面的原因,在索引檔案中會保留最新的三個分片地址,以類似“滑動視窗”的形式,進行更新。
2. m3u8檔案簡介
m3u8,是HTTP Live Streaming直播的索引檔案。m3u8基本上可以認為就是.m3u格式檔案,區別在於,m3u8檔案使用UTF-8字元編碼。
#EXTM3U m3u檔案頭,必須放在第一行
#EXT-X-MEDIA-SEQUENCE 第一個TS分片的序列號
#EXT-X-TARGETDURATION 每個分片TS的最大的時長
#EXT-X-ALLOW-CACHE 是否允許cache
#EXT-X-ENDLIST m3u8檔案結束符
#EXTINF extra info,分片TS的資訊,如時長,頻寬等
一個簡單的m3u8索引檔案
執行效果
在Nginx工作目錄下啟動HLSLiveEncoder,並用VLC播放器連線播放
通過iPhone播放的效果
合作請聯絡QQ。(轉載請註明作者和出處)