1. 程式人生 > >android ffmpeg+OpenGL播放yuv+openSL 快放 慢放 視訊播放器

android ffmpeg+OpenGL播放yuv+openSL 快放 慢放 視訊播放器

這裡是完整的音視訊播放器,功能如下(這裡有iOS版的):
這裡寫圖片描述
視訊是通過opengl 播放yuv資料,音訊是opensl播放。
app執行流程如下圖:
這裡寫圖片描述
紅色虛線內的是一個執行緒的執行,總共涉及到四個執行緒。
java層幾乎沒有播放器的內容,ffmpeg,opengl,opensl都是在c++層執行,所以可以原封不動的遷移到其他平臺,如ios,不過c/c++程式碼ios程式設計師看起來不太友好,有ios版的,ios版的有yuv->RGB->image的方法,有ffmpeg解碼播放流程圖,解碼播放流程一目瞭然。
看一下app表現,小米6播放每分鐘100M等級的視訊:
播放每分鐘100M等級的視訊
可以看到cpu使用在10%左右,很省電了有沒有100M每分鐘,一部電影是十幾G的清晰度。
再看常規清晰度720p:
這裡寫圖片描述


cpu消耗只有3%左右,這也就是直播清晰度了,這cpu消耗還能說什麼。
看記憶體優化:
這裡寫圖片描述
整個播放過程native層記憶體佔用都在15M左右波動,Graphics佔用記憶體也沒變化,播放過程中記憶體釋放很到位,沒有記憶體增長。大家可以自行測試。
這裡給大家看下ffmpeg解碼程式碼:
FFmpeg.h

//
// Created by huizai on 2017/11/22.
//

#ifndef FFMPEG_DEMO_FFMPEGDECODER_H
#define FFMPEG_DEMO_FFMPEGDECODER_H
#include "JniDefine.h"
#include "YUV_GL_DATA.h"
extern "C" { //編碼 #include "libavcodec/avcodec.h" //封裝格式處理 #include "libavformat/avformat.h" //畫素處理 #include "libswscale/swscale.h" #include "libswresample/swresample.h" } //定義音訊重取樣後的引數 #define SAMPLE_SIZE 16 #define SAMPLE_RATE 44100 #define CHANNEL 2 typedef struct FFmpeg{ int totleMs; //音訊播放時間
int aFps; //視訊播放時間 int vFps; //視訊流索引 int videoStreamIndex; int audioStreamIndex; int sampleRate; int sampleSize; int channel; //音訊貞資料的長度 int pcmDataLength; AVFormatContext * pFormatCtx; AVCodecContext * pVideoCodecCtx; AVCodecContext * pAudioCodecCtx; AVFrame * pYuv; AVFrame * pPcm; AVCodec * pVideoCodec; //視訊解碼器 AVCodec * pAudioCodec; //音訊解碼器 struct SwsContext * pSwsCtx; SwrContext * pSwrCtx; const char * url; AVPacket pkt; char * audioData; H264YUV_Frame yuvFrame; }Decoder; int OpenAndInitDecoder(Decoder * decoder); int Read(Decoder * decoder); int Decode(Decoder * decoder,AVPacket packet); int YuvToGLData(Decoder *decoder); int ToPcm(Decoder * decoder,AACFrame * frame); void printError(const char* flag,int ret); double r2d(AVRational r); #endif //FFMPEG_DEMO_FFMPEGDECODER_H

FFmpeg.cpp

//
// Created by huizai on 2017/11/22.
//

#include "FFmpeg.h"


int OpenAndInitDecoder(Decoder * decoder){

    //1.註冊所有元件
    av_register_all();
    avformat_network_init();
    //2.開啟輸入視訊檔案
    //封裝格式上下文,統領全域性的結構體,儲存了視訊檔案封裝格式的相關資訊
    decoder->pFormatCtx = avformat_alloc_context();
    int ret = avformat_open_input(&decoder->pFormatCtx, decoder->url, NULL, NULL);
    if (ret != 0) {
        return  ret;
    } else{
        FFLOGI("視訊長度:%d",decoder->pFormatCtx->duration);
    }
    decoder->totleMs = (int)(decoder->pFormatCtx->duration/AV_TIME_BASE)*1000;
    avformat_find_stream_info(decoder->pFormatCtx, NULL);
    //分別找到音訊視訊解碼器並開啟解碼器
    for (int i = 0; i < decoder->pFormatCtx->nb_streams; i++) {
        AVStream *stream = decoder->pFormatCtx->streams[i];
        AVCodec * codec = avcodec_find_decoder(stream->codecpar->codec_id);
        AVCodecContext * codecCtx = avcodec_alloc_context3(codec);
        avcodec_parameters_to_context(codecCtx, stream->codecpar);

        if (codecCtx->codec_type == AVMEDIA_TYPE_VIDEO) {
            printf("video\n");
            decoder->videoStreamIndex = i;
            decoder->pVideoCodec  = codec;
            decoder->pVideoCodecCtx = codecCtx;
            int err = avcodec_open2(decoder->pVideoCodecCtx, decoder->pVideoCodec, NULL);
            if (err != 0) {
                char buf[1024] = {0};
                av_strerror(err, buf, sizeof(buf));
                printf("open videoCodec error:%s", buf);
                return false;
            }
        }
        if (codecCtx->codec_type == AVMEDIA_TYPE_AUDIO) {
            printf("audio\n");
            decoder->audioStreamIndex = i;
            decoder->pAudioCodec  = codec;
            decoder->pAudioCodecCtx = codecCtx;
            int err = avcodec_open2(decoder->pAudioCodecCtx, decoder->pAudioCodec, NULL);
            if (err != 0) {
                char buf[1024] = {0};
                av_strerror(err, buf, sizeof(buf));
                printf("open audionCodec error:%s", buf);
                return false;
            }
            if (codecCtx->sample_rate != SAMPLE_RATE) {
                decoder->sampleRate = codecCtx->sample_rate;
            }
        }
    }
    decoder ->pYuv = av_frame_alloc();
    decoder ->pPcm = av_frame_alloc();
    decoder ->channel = CHANNEL;
    decoder ->sampleSize = SAMPLE_SIZE;
    decoder ->sampleRate = decoder->pAudioCodecCtx->sample_rate;
   // printf("open acodec success! sampleRate:%d  channel:%d  sampleSize:%d fmt:%d\n",
         //  decoder->sampleRate,decoder->channel,decoder->sampleSize,decoder->pAudioCodecCtx->sample_fmt);
    FFLOGI("open acodec success! sampleRate:%d  channel:%d  fmt:%d\n",
           decoder->pAudioCodecCtx->sample_rate,decoder->pAudioCodecCtx->channels,decoder->pAudioCodecCtx->sample_fmt);
    return  ret;
}
int  Read(Decoder * decoder){

    //這裡先不加執行緒鎖,在啟動多執行緒的地方統一加鎖
    // AVPacket * pkt = malloc(sizeof(AVPacket));
    if (!decoder->pFormatCtx) {
        return -1;
    }
    int err = av_read_frame(decoder->pFormatCtx,&decoder->pkt);
    if (err != 0) {
        printError("av_read_pkt_error:",err);
        if (err == -541478725){
            //讀取檔案結束
            return -9;
        }
        return  -2;
    }
    return  0;
}
int Decode(Decoder* decoder,AVPacket packet){
    if (!decoder->pFormatCtx) {
        return -1;
    }
    //分配AVFream 空間
    if (decoder->pYuv == NULL) {
        decoder->pYuv = av_frame_alloc();
    }
    if (decoder->pPcm == NULL) {
        decoder->pPcm = av_frame_alloc();
    }
    AVCodecContext * pCodecCtx;
    AVFrame * tempFrame;
    if (packet.stream_index == decoder->videoStreamIndex) {
        pCodecCtx = decoder->pVideoCodecCtx;
        tempFrame = decoder->pYuv;
    }else if (packet.stream_index == decoder->audioStreamIndex){
        pCodecCtx = decoder->pAudioCodecCtx;
        tempFrame = decoder->pPcm;
    }else{
        return -1;
    }
    if (!pCodecCtx) {
        return -1;
    }
    int re = avcodec_send_packet(pCodecCtx,&packet);
    if (re != 0) {
        char errorBuf[1024] = {0};
        av_make_error_string(errorBuf,1024,re);
        FFLOGE("send pkt error:%s",errorBuf);
        return -1;
    }
    re = avcodec_receive_frame(pCodecCtx, tempFrame);
    if (re != 0) {
        char errorBuf[1024] = {0};
        av_make_error_string(errorBuf,1024,re);
        FFLOGE("receive av_data error:%s",errorBuf);
        return -1;
    }
    if (packet.stream_index == decoder->videoStreamIndex) {
        decoder->vFps = (int)((packet.pts * r2d(decoder->pFormatCtx->streams[decoder->videoStreamIndex]->time_base))*1000);
    }else if (packet.stream_index == decoder->audioStreamIndex){
        decoder->aFps = (int)((packet.pts * r2d(decoder->pFormatCtx->streams[decoder->audioStreamIndex]->time_base))*1000);
    }
    FFLOGI("[D]");
    return 0;
}
int Min(int a,int b){
    return a>b?b:a;
}
void copyDecodedFrame(unsigned char *src, unsigned char *dist,int linesize, int width, int height)
{
    width = Min(linesize, width);
    if (sizeof(dist) == 0) {
        return;
    }
    for (int i = 0; i < height; ++i) {
        memcpy(dist, src, width);
        dist += width;
        src += linesize;
    }
}

int   YuvToGLData(Decoder *decoder){
    if (!decoder->pFormatCtx || !decoder->pYuv ||decoder-> pYuv->linesize[0] <= 0) {
        return -1;
    }
    //把資料重新封裝成opengl需要的格式
    unsigned int lumaLength= (unsigned int)(decoder->pYuv->height)*(Min(decoder->pYuv->linesize[0], decoder->pYuv->width));
    unsigned int chromBLength=(unsigned int)((decoder->pYuv->height)/2)*(Min(decoder->pYuv->linesize[1], (decoder->pYuv->width)/2));
    unsigned int chromRLength=(unsigned int)((decoder->pYuv->height)/2)*(Min(decoder->pYuv->linesize[2], (decoder->pYuv->width)/2));

    decoder->yuvFrame.luma.dataBuffer = (unsigned char*)malloc(lumaLength);
    decoder->yuvFrame.chromaB.dataBuffer = (unsigned char*)malloc(chromBLength);
    decoder->yuvFrame.chromaR.dataBuffer = (unsigned char*)malloc(chromRLength);

    decoder->yuvFrame.width=(unsigned int)decoder->pYuv->width;
    decoder->yuvFrame.height=(unsigned int)decoder->pYuv->height;

    if (decoder->pYuv->height <= 0) {
        free(decoder->yuvFrame.luma.dataBuffer);
        free(decoder->yuvFrame.chromaB.dataBuffer);
        free(decoder->yuvFrame.chromaR.dataBuffer);
        return -1;
    }

    copyDecodedFrame(decoder->pYuv->data[0],decoder->yuvFrame.luma.dataBuffer,decoder->pYuv->linesize[0],
                     decoder->pYuv->width,decoder->pYuv->height);
    copyDecodedFrame(decoder->pYuv->data[1], decoder->yuvFrame.chromaB.dataBuffer,decoder->pYuv->linesize[1],
                     decoder->pYuv->width / 2,decoder->pYuv->height / 2);
    copyDecodedFrame(decoder->pYuv->data[2], decoder->yuvFrame.chromaR.dataBuffer,decoder->pYuv->linesize[2],
                     decoder->pYuv->width / 2,decoder->pYuv->height / 2);
    return 0;
}
int ToPcm(Decoder * decoder,AACFrame * frame){
    if (!decoder->pFormatCtx || !decoder->pPcm) {
        return -1;
    }
   // printf("sample_rate:%d,channels:%d,sample_fmt:%d,channel_layout:%llu,nb_samples:%d\n",pAudioCodecCtx->sample_rate,pAudioCodecCtx->channels,pAudioCodecCtx->sample_fmt,pAudioCodecCtx->channel_layout,pPcm->nb_samples);
    //音訊重取樣
    if (decoder->pSwrCtx == NULL) {
        decoder->pSwrCtx = swr_alloc();
        swr_alloc_set_opts(decoder->pSwrCtx,
                           AV_CH_LAYOUT_STEREO,//2聲道立體聲
                           AV_SAMPLE_FMT_S16,  //取樣大小 16位
                           decoder->sampleRate,
                           decoder->pAudioCodecCtx->channel_layout,
                           decoder->pAudioCodecCtx->sample_fmt,// 樣本型別
                           decoder->pAudioCodecCtx->sample_rate,
                           0, 0);
        int ret = swr_init(decoder->pSwrCtx);
        char errorBuf[1024] = {0};
        av_make_error_string(errorBuf,1024,ret);
        FFLOGE("swr_init error:%s",errorBuf);
    }
    uint8_t * tempData[1];
    tempData[0] = (uint8_t*)frame->dataBuffer;
    int len = swr_convert(decoder->pSwrCtx, tempData, 10000, (const uint8_t**)decoder->pPcm->data,decoder->pPcm->nb_samples);
    if (len < 0) {
        char errbuf[1024] = {0};
        FFLOGE("swr_convert error:%d",len);
        return 0;
    }
    int outSize = av_samples_get_buffer_size(NULL,
                                             CHANNEL,
                                             len,
                                             AV_SAMPLE_FMT_S16,0);
    frame->length = (unsigned int)outSize;
    FFLOGI("nb_smples:%d,des_smples:%d,outSize:%d",decoder->pPcm->nb_samples,len,outSize);
    return 0;
}

void printError(const char * flag,int ret){
    char errorbuf[1024] = {0};
    av_make_error_string(errorbuf, 1024, ret);
    FFLOGE("%s,ret:%d,%s", flag, ret, errorbuf);
}
double r2d(AVRational r){
    return r.num == 0 || r.den == 0 ? 0.:(double)r.num/(double)r.den;

可以跟iOS版的對比一下,根本沒區別,都是一樣的,要不怎麼說跨平臺技術呢。程式碼說明可以去看ios版的有簡單說明。也可以下載原始碼debug進行了解。

說明一點,想要做優化的,就是我這裡執行緒鎖加的很粗糙,這樣會造成不同執行緒對資源的等待,會有點點不流暢,應該精細到每一句就好了,自己去調吧。

相關推薦

android ffmpeg+OpenGL播放yuv+openSL 視訊播放

這裡是完整的音視訊播放器,功能如下(這裡有iOS版的): 視訊是通過opengl 播放yuv資料,音訊是opensl播放。 app執行流程如下圖: 紅色虛線內的是一個執行緒的執行,總共涉及到四個執行緒。 java層幾乎沒有播放器的內容,ffmpe

android ffmpeg+OpenGL播放yuv+openSL 視訊播放

這裡是完整的音視訊播放器,功能如下(這裡有iOS版的): 視訊是通過opengl 播放yuv資料,音訊是opensl播放。 app執行流程如下圖: 紅色虛線內的是一個執行緒的執行,總共涉及到四個執行緒。 java層幾乎沒有播放器的內容,ffmpeg,opengl,opensl都

Android開發實戰使用(VR技術實現360°全景視訊播放功能)

一.在build.gradle中引入谷歌VR的SDK依賴 compile 'com.google.vr:sdk-videowidget:1.10.0' 二.注意支援的最小SDK minSdkVersion 19 targetSdkVersi

FFmpeg+OpenGL ES+OpenSL ES打造Android視訊播放-楊萬里-專題視訊課程

FFmpeg+OpenGL ES+OpenSL ES打造Android視訊播放器—651人已學習 課程介紹        使用C++語言,用FFmpeg、OpenGL ES、OpenSL ES和MediaCodec打造Android視訊播放器。授課計劃 視訊錄播形式,講解課程

android ffmpeg+opensl 音訊解碼播放、暫停、進度seek、時間、上/下一首

類似文章太多,但是大多程式碼都有記憶體溢位的問題,而且都缺少c層呼叫java層的例子,實際上有了參考博文後,還是有很多坑需要自己填。不過,看了很多博主和帖子後還是能夠解決一些問題,但是有些問題,根本找不到,所以我把音訊解碼播放還有控制部分做了比較詳細的例子。

基於FFmpegOpenGL視訊播放 【C++】

環境: GLFW版本為 2.7.9 GLM版本為 0.9.4.6(需自己編譯生成 dll 和 lib) OpenGL 3.+ 以下程式碼僅僅通過ffmpeg解碼視訊(沒有處理音訊流),然後通過OpenGL進行顯示(或通過Shader對視訊幀進行處理)

基於NDK、C++、FFmpegandroid視訊播放開發實戰-夏曹俊-專題視訊課程

基於NDK、C++、FFmpeg的android視訊播放器開發實戰—1796人已學習 課程介紹         課程包含了對流媒體(拉流)的播放,演示了播放rtmp的香港衛視,支援rtsp攝像頭和h

android平臺下基於ffmpeg和ANativeWindow實現簡單的視訊播放

音視訊實踐學習 android全平臺編譯ffmpeg以及x264與fdk-aac實踐 ubuntu下使用nginx和nginx-rtmp-module配置直播推流伺服器 android全平臺編譯ffmpeg合併為單個庫實踐 android-studio使用c

Android FFmpeg系列——4 子執行緒播放視訊

利用工作閒餘時間,終於實現在子執行緒播放音視訊! 上一接學習了在 C 使用多執行緒,接著就是利用 C 多執行緒同時播放音視訊(暫時還不同步)。 不多說,直接上碼。 程式碼 // C 層播放器結構體 typedef struct _Player { //

Android 實時錄音和回,邊錄音邊播放 (KTV迴音效果)

// 錄音執行緒 class recordSound implements Runnable { @Override public void run() { Log.d(TAG, "

Android------視訊播放(包含全屏播放退,進,騰訊新聞的列表播放等)

前段時間做了一個新聞APP,涉及到了列表視訊播放,和騰訊新聞APP差不多,總結了一下程式碼,寫了一個Demo來分享給大家。用了  TabLayout+RecylerView+自定義視訊控制元件  完成的 列表中支援全屏播放來看看效果圖:  列表類程式碼:public clas

Android視訊播放框架——封裝FFMPEG的Vitamio

FFMPEG是開源免費的音視訊編解碼器,但由於是基於C++的,JAVA是無法操作的 提供了一個基於JAVA的開源是視訊的開源框架 Vitamio 特點: 封裝了FFMPEG的視訊播放框架對外提供的

FFmpeg總結(十二)用ffmpeg與nginx實現直播多路流並發播放

xxx 開源 conf ref itl rect arc med rtm 圖:撒哈拉沙漠 下載 nginx 和 nginx-rtmp源碼: http://nginx.org/download/nginx-1.5.10.tar.gz https://github.com/a

關於Unity中UGUI圖片Image實現仿視頻播放窗口的四角縮功能

重置 assert clas () strong unity 操作 寬度 腳本 應用方法:將下面腳本掛載在需要實現四角縮放功能的UI圖片上即可. 自定義拖拽精度(與邊界距離多少內觸發)m_validityWidth. 1 /********************

android全平臺編譯ffmpeg視訊解碼實踐

目錄 配置環境 新建decode工程 配置環境 作業系統: ubuntu 16.05 注意: ffmpeg庫的編譯使用的是android-ndk-r10e版本,使用高版本編譯會報錯 而android-studio工程中配合cmake使用的版本則是a

Android 仿抖音仿美拍視訊播放列表

首先實現方式是 1.RecyclerView                       2.ViewPager 我這裡實現的方式是用的RecyclerView,歡迎大家共同探討

QtPlayer——基於FFmpeg的Qt音視訊播放

QtPlayer——基於FFmpeg的Qt音視訊播放器 本文主要講解一個基於Qt GUI的,使用FFmpeg音視訊庫解碼的音視訊播放器,同時也是記錄一點學習心得,本人也是多媒體初學者,也歡迎大家交流,程式執行圖如下: QtPlayer基於FFmpeg的Q

android,Exoplayer實現視訊播放

bundle配置: implementation 'com.google.android.exoplayer:exoplayer-core:2.8.1'implementation 'com.google.android.exoplayer:exoplayer-dash:2.8.1'implementati

android視訊播放框架Vitamio

分享一下我老師大神的人工智慧教程!零基礎,通俗易懂!http://blog.csdn.net/jiangjunshow 也歡迎大家轉載本篇文章。分享知識,造福人民,實現我們中華民族偉大復興!        

Android ffmpeg編譯

首先,被這部分煩的不行的可以去github裡clone一些別人的成品輕鬆拿到適合Android的編譯結果     說下自己的環境     win10 x64     VMware® Workst