iOS 音視訊合成
阿新 • • 發佈:2019-01-31
前言
因為最近做專案有遇到音視訊合成的需求,但是網上的教程某些地方總是寫的很模糊,所以自己調研完成之後決定寫一篇部落格分享出來,供大家一起學習進步
音視訊主要是利用AVFoundation框架下的AVMutableComposition來合成音視訊.
在AVMutableComposition中傳入兩個資料流,一個是音訊一個是視訊,之後呼叫合成方法就可以了
上程式碼
storyBoard中拖入一個button,一個imageView
這裡寫圖片描述
為了效果好可以將IamgeView的背景色調為黑色
然後在ViewController中新增以下程式碼
#import "ViewController.h"
#import <AVFoundation/AVFoundation.h>
#import "MBProgressHUD+MJ.h"
@interface ViewController ()
/** 用於播放 */
@property (weak, nonatomic) IBOutlet UIImageView *imageView;
@end
@implementation ViewController
- (void)viewDidLoad {
[super viewDidLoad];
}
- (IBAction)mergeAction:(UIButton *)sender {
[self merge];
}
// 混合音樂
- (void)merge{
// mbp提示框
[MBProgressHUD showMessage:@"正在處理中"];
// 路徑
NSString *documents = [NSHomeDirectory() stringByAppendingPathComponent:@"Documents"];
// 聲音來源
NSURL *audioInputUrl = [NSURL fileURLWithPath:[[NSBundle mainBundle] pathForResource:@"五環之歌" ofType:@"mp3" ]];
// 視訊來源
NSURL *videoInputUrl = [NSURL fileURLWithPath:[[NSBundle mainBundle] pathForResource:@"myPlayer" ofType:@"mp4"]];
// 最終合成輸出路徑
NSString *outPutFilePath = [documents stringByAppendingPathComponent:@"merge.mp4"];
// 新增合成路徑
NSURL *outputFileUrl = [NSURL fileURLWithPath:outPutFilePath];
// 時間起點
CMTime nextClistartTime = kCMTimeZero;
// 建立可變的音視訊組合
AVMutableComposition *comosition = [AVMutableComposition composition];
// 視訊採集
AVURLAsset *videoAsset = [[AVURLAsset alloc] initWithURL:videoInputUrl options:nil];
// 視訊時間範圍
CMTimeRange videoTimeRange = CMTimeRangeMake(kCMTimeZero, videoAsset.duration);
// 視訊通道 列舉 kCMPersistentTrackID_Invalid = 0
AVMutableCompositionTrack *videoTrack = [comosition addMutableTrackWithMediaType:AVMediaTypeVideo preferredTrackID:kCMPersistentTrackID_Invalid];
// 視訊採集通道
AVAssetTrack *videoAssetTrack = [[videoAsset tracksWithMediaType:AVMediaTypeVideo] firstObject];
// 把採集軌道資料加入到可變軌道之中
[videoTrack insertTimeRange:videoTimeRange ofTrack:videoAssetTrack atTime:nextClistartTime error:nil];
// 聲音採集
AVURLAsset *audioAsset = [[AVURLAsset alloc] initWithURL:audioInputUrl options:nil];
// 因為視訊短這裡就直接用視訊長度了,如果自動化需要自己寫判斷
CMTimeRange audioTimeRange = videoTimeRange;
// 音訊通道
AVMutableCompositionTrack *audioTrack = [comosition addMutableTrackWithMediaType:AVMediaTypeAudio preferredTrackID:kCMPersistentTrackID_Invalid];
// 音訊採集通道
AVAssetTrack *audioAssetTrack = [[audioAsset tracksWithMediaType:AVMediaTypeAudio] firstObject];
// 加入合成軌道之中
[audioTrack insertTimeRange:audioTimeRange ofTrack:audioAssetTrack atTime:nextClistartTime error:nil];
// 建立一個輸出
AVAssetExportSession *assetExport = [[AVAssetExportSession alloc] initWithAsset:comosition presetName:AVAssetExportPresetMediumQuality];
// 輸出型別
assetExport.outputFileType = AVFileTypeQuickTimeMovie;
// 輸出地址
assetExport.outputURL = outputFileUrl;
// 優化
assetExport.shouldOptimizeForNetworkUse = YES;
// 合成完畢
[assetExport exportAsynchronouslyWithCompletionHandler:^{
// 回到主執行緒
dispatch_async(dispatch_get_main_queue(), ^{
// 呼叫播放方法
[self playWithUrl:outputFileUrl];
});
}];
}
/** 播放方法 */
- (void)playWithUrl:(NSURL *)url{
// 傳入地址
AVPlayerItem *playerItem = [AVPlayerItem playerItemWithURL:url];
// 播放器
AVPlayer *player = [AVPlayer playerWithPlayerItem:playerItem];
// 播放器layer
AVPlayerLayer *playerLayer = [AVPlayerLayer playerLayerWithPlayer:player];
playerLayer.frame = self.imageView.frame;
// 視訊填充模式
playerLayer.videoGravity = AVLayerVideoGravityResizeAspect;
// 新增到imageview的layer上
[self.imageView.layer addSublayer:playerLayer];
// 隱藏提示框 開始播放
[MBProgressHUD hideHUD];
[MBProgressHUD showSuccess:@"合成完成"];
// 播放
[player play];
}
MBP是一個第三方提示類,如果不關心這個功能可以刪除這三行程式碼和標頭檔案
// mbp提示框
[MBProgressHUD showMessage:@"正在處理中"];
// 隱藏提示框 開始播放
[MBProgressHUD hideHUD];
[MBProgressHUD showSuccess:@"合成完成"];
效果圖
因為是gif..請自己yy出Uber視訊配上五環之歌(我感覺還挺配的)
這裡寫圖片描述