1. 程式人生 > >音視訊技術開發週刊 70期

音視訊技術開發週刊 70期

640?wx_fmt=jpeg

音視訊技術開發週刊』由LiveVideoStack團隊出品,專注在音視訊技術領域,縱覽相關技術領域的乾貨和新聞投稿,每週一期。點選『閱讀原文』,瀏覽第70期內容,祝您閱讀愉快。

架構

UDP成為低延時流媒體關鍵 選SRT還是QUIC?

無論是SRT還是QUIC,UDP都成為實現低延遲視訊流傳輸的必選項。在剛剛結束的俄羅斯世界盃,以及即將到來的重大體育賽事中,SRT與QUIC還將有一番較量。LiveVideoStack對原文進行了摘譯。

英特爾QSV技術在FFmpeg中的實現與使用

本文來自英特爾資深軟體工程師張華在LiveVideoStackCon 2018講師熱身分享,並由LiveVideoStack整理而成。在分享中張華介紹了英特爾GPU硬體架構,並詳細解析了英特爾QSV技術在FFmpeg中的具體實現與使用。

劉文峰:讓科技成就藝術創意

日前,LiveVideoStack採訪了愛奇藝CTO劉文峰,他分享了自己的成長經歷,以及最近閱讀的書籍——《孵化皮克斯:從藝術烏托邦到創意帝國的非凡之旅》,他表示,作為愛奇藝的CTO,要幫助公司將科技創新與藝術創意結合,為使用者提供極致的體驗。

Uber的一鍵式聊天智慧回覆系統

通過機器學習和自然語言理解結束,Uber實現了一套智慧的聊天系統,從而有效的提升司機和乘客之間的溝通效率,減少對司機的打擾。

張霖峰:AV1和VVC的格局將在2023年後明朗

本文是MSU評測解讀的系列文章之一。不過Ucodec CEO張霖峰還講述了Video Codec的機會,VVC與AV1的競爭格局,蘋果公司在Video Codec格局中扮演的重要角色等等。

Safari上使用WebRTC指南

儘管Apple在2017年的WWDC上宣佈加入WebRTC支援,但仍然沒有看到Apple在支援WebRTC上更深入的舉動,尤其是其不只支援VP8更加強了這種擔憂。

CMAF將在2019年得到快速發展

按照JW Player技術高階副總裁John Luther的說法,CMAF將在2019年快速發展,儘管這項技術在國內還不怎麼流行。蘋果、微軟以及Akamai都在支援CMAF。在下週舉行的LiveVideoStackCon 2018上,Akamai 首席架構師William Robert Law將會分享如何通過CMAF提供海量併發的低延遲流媒體服務的。

蘭華峰:商業模式驅動企業參與MSU評測

本文是MSU年度評測解讀的第四篇。LiveVideoStack採訪了Hulu技術總監蘭華峰,由於Hulu內部自成一套Codec評測方法和測試序列,他給出瞭如何正確使用MSU報告的建議。同時他表示,與傳統的Codec服務商不同,今年獲得前四的3家本土服務商,都提供的是視訊雲服務,這也導致他們格外重視MSU的評測結果。

Netflix:通過視覺化和統計學改進使用者QoE

本文來自Netflix的技術部落格,文章介紹瞭如何通過統計學的方法來減少播放緩衝時間或減少位元速率。LiveVideoStack對原文進行了摘譯。

音訊/視訊技術

為 janus-pp-rec 增加視訊旋正功能

Janus Gateway 支援 server 端錄製,儲存的檔案格式是對 RTP 報文的一種自定義封裝格式(MJR),音視訊資料單獨儲存,官方提供了一個 janus-pp-rec 的程式,可以把 MJR 格式的檔案轉換為其他封裝格式的檔案,然後我們可以利用 FFmpeg 把音視訊檔案合併為一個檔案。

定義和測量延遲

想要優化延遲,可Latency到底是多少?延遲始終是媒體內容傳輸的一個重要關注點,人們也在不斷嘗試用新的方法來優化延遲,本文參考AWS的一些新技術,介紹了延遲的定義,以及如何具體測量延遲,給出了延遲的量化概念。

FFmpeg:Android利用Filter進行音訊資料預處理

本文簡單介紹了移動端Android系統下利用FFmpeg的Filter進行音訊資料預處理的方法。按照慣例先上一份原始碼 AndroidFFmpegFilter。

Android音視訊指南-媒體應用架構概述

本節將解釋如何將媒體播放器應用程式分離為媒體控制器(用於UI)和媒體會話(用於實際播放器)。它描述了兩種媒體應用程式架構:一種客戶端/伺服器設計,適用於音訊應用程式,另一種是視訊播放器的單活動設計。它還展示瞭如何使媒體應用程式響應硬體控制並與使用音訊輸出流的其他應用程式合作。

視訊直播技術之iOS端推流

隨著網路基礎建設的發展和資費的下降,在這個內容消費升級的時代,文字、圖片無法滿足人們對視覺的需求,因此視訊直播應運而生。承載了實時性Real-Time和互動性的直播雲服務是直播覆蓋各行各業的新動力。本篇文章將向大家介紹iOS端的推流技術。

編解碼

宋利:許多高手並未參加MSU評測

眾多本土和華人公司積極的參與MSU視訊編碼大賽,上海交通大學教授宋利接受LiveVideoStack採訪時表示,華人在整個編解碼領域有舉足輕重的影響力。但也要看到,許多國外高手並未參與MSU評測,不能盲目樂觀。本文是解讀MSU評測的第二篇。

王豪:HW265到“HW266”

每年的MSU的視訊壓縮評比報告都是多媒體的熱點話題之一,在MSU 2018評比中,華為HW265在多項測試中排名第一。LiveVideoStack採訪了華為媒體技術院視訊編碼團隊負責人王豪,在參賽之前,HW265已經在多領域商用。未來華為將投入到VVC的研發,並看好AV1的下一代AV2。

H264、AAC、RTMP解析

H264碼流檔案分為兩層:(1) VCL(Video Coding Layer)視訊編碼層:負責高效的視訊內容表示,VCL 資料即編碼處理的輸出,它表示被壓縮編碼後的視訊資料序列。(2) NAL(Network Abstraction Layer)網路提取層:負責以網路所要求的恰當的方式對資料進行打包和傳送,是傳輸層,不管是在本地播放還是在網路播放的傳輸,都要通過這一層來傳輸。

AV1編碼持續優化

AV1比HEVC有30%以上的編碼效率提升,但編碼複雜度高的離譜。好在AOM聯盟不斷對AV1進行優化,預計今年內AV1的編碼複雜度將降到VP9的10倍以內。

FFmpeg 是如何實現多型的?

眾所周知,FFmpeg 在解碼的時候,無論輸入檔案是 MP4 檔案還是 FLV 檔案,或者其它檔案格式,都能正確解封裝、解碼,而程式碼不需要針對不同的格式做出任何改變,這是面向物件中很常見的多型特性,但 FFmpeg 是用 C 語言編寫的,那麼它是如何使用 C 語言實現了多型特性的呢?

AI智慧

AI驅動智慧媒體生產

本文總結了發表在IBC2018上的由日本NHK的Hiroyuki Kaneko等撰寫的“AI-DRIVEN SMART PRODUCTION”,介紹了NHK在智慧媒體生產方面取得的成就以及今後的發展方向。

AI如何用於現場直播場景

與許多產業一樣,通過軟體和演算法輔助,電視與視訊製作很可能被人工智慧和機器學習所改造,而當前這些製作任務都是由人來執行。隨著現場直播報道涉及的範圍越來越廣,而相關專業人士的數量稀缺,基於AI的影視製作技術應運而生。

利用人工智慧提升足球直播效果

人工智慧技術代表著未來無限的可能性,已經在很多領域帶來巨大的衝擊。在足球直播這一領域,版權方需要提供更多更優質的內容以應對日益增長的多元化需求,因此急需提高運營效率的新方式。

在對抗中學習網路結構——87頁PPT帶你學習Graph中的GAN

近期,圖卷積研究大神Petar Veličković在蒙特利爾作了一場關於Graph+GAN的報告,詳細講解了圖卷積網路的基本概念以及最前沿的方法 GCN、GAT (Petar的代表作),以及基於圖的生成式方法,如何使用GAN進行基於圖的學習,並強調需要使用強化學習或Gumbel softmax來進行反向傳播,也指出儘管圖的生成式模型效果很好,但未來還需要在這個方面需要更多的研究者一起探索。

自動生成高效DNN,適用於邊緣裝置的生成合成工具FermiNets

來自滑鐵盧大學滑鐵盧 AI 研究所和 DarwinAI 公司的研究者提出一種新思路:生成合成(generative synthesis),利用生成機器來自動生成具備高效網路架構的深度神經網路。

影象

Metal影象處理——顏色查詢表(Color Lookup Table)

一張1024x1024的普通圖片,是由1024 * 1024=1048576個畫素點組成,每個畫素點包括RGBA共32bit,常見的影象處理是對相鄰畫素點顏色、畫素點本身顏色做處理。在對畫素點本身顏色做處理的情況下,需要把某個顏色對映成另外一個顏色......