iOS與Android的音訊互通
2015-06-08
音訊的基本知識
聲音是波的一種,頻率和振幅是描述波的重要屬性,頻率的大小與我們通常所說的音高對應,而振幅影響聲音的大小。頻率的單位是赫茲,赫茲是電、磁、聲波和機械振動週期迴圈時頻率的單位,即每秒的週期次數(週期/秒)。對於聲音,人類的聽覺範圍為20Hz~20000Hz,低於這個範圍叫做次聲波,高於這個範圍的叫做超聲波。
數碼錄音最關鍵一步就是要把模擬訊號轉換為數碼訊號,就電腦而言是把模擬聲音訊號錄製成為音訊檔案。
描述音訊檔案主要有兩個指標,一個是取樣頻率,或稱取樣率、採率,另一個是取樣精度也就是位元率。
取樣,指把時間域或空間域的連續量轉化成離散量的過程。每秒鐘的取樣樣本數叫做取樣頻率。取樣頻率越高,數字化後聲波就越接近於原來的波形,即聲音的保真度越高,但量化後聲音資訊量的儲存量也越大,而人的耳朵已經很難分辨。根據取樣定理,只有當取樣頻率高於聲音訊號最高頻率的兩倍時,才能把離散模擬訊號表示的聲音訊號唯一地還原成原來的聲音。我們最常用的取樣頻率是44.1kHz,它的意思是每秒取樣44100次。
位元率是指每秒傳送的位元(bit)數,單位為 bps(Bit Per Second)。位元率越高,傳送資料速度越快。聲音中的位元率是指將模擬聲音訊號轉換成數字聲音訊號後,單位時間內的二進位制資料量。位元率其實就是表示振幅,位元率越大,能夠表示聲音的響度越清晰。
iOS音訊的基礎
接著我們要整體瞭解下iOS為我們提供處理音訊的基礎技術,核心音訊(Core Audio)。
Core Audio 是IOS和 MAC 的關於數字音訊處理的基礎,它提供應用程式用來處理音訊的一組軟體框架,所有關於IOS音訊開發的介面都是由Core Audio來提供或者經過它提供的介面來進行封裝的,按照官方的說法是集播放,音訊處理錄製為一體的專業技術,通過它我們的程式可以同時錄製,播放一個或者多個音訊流,自動適應耳機,藍芽耳機等硬體,響應各種電話中斷,靜音,震動等,甚至提供3D效果的音樂播放。
Core Audio有5個框架:1.Core Audio.framework,2.AudioToolbox.framework,3.AudioUnit.framework ,4.AVFoundation.framework,5.OpenAL.framework。
Core Audio.framework並不提供服務,僅提供其他框架可以使用的標頭檔案和資料型別。這其中AVFoundation 框架 (AVFoundation.framework)提供一組播放、記錄和管理聲音和視訊內容的Objective-C類,因此下面我就簡單介紹一下他就可以了。
AVFoundation的錄音和播放
音訊的錄製與播放主要和三個類有關AVAudioSession,AVAudioRecorder,AVAudioPlayer。
AVAudioSession
AVAudioSession類由AVFoundation框架引入,每個iOS應用都有一個音訊會話,這個會話可以被AVAudioSession類的sharedInstance類方法訪問,如下:
AVAudioSession *audioSession = [AVAudioSession sharedInstance];
在獲得一個AVAudioSession類的例項後,你就能通過呼叫音訊會話物件的setCategory:error:例項方法,來從IOS應用可用的不同類別中作出選擇。
AVAudioRecorder
在使用AVAudioRecorder進行音訊錄製的時候,需要設定一些引數,下面就是引數的說明,並且寫下了音訊錄製的程式碼:
//音訊開始錄製
- (void)startRecordWithFilePath:(NSString *)path{
[[AVAudioSession sharedInstance] setCategory: AVAudioSessionCategoryPlayAndRecord error:nil];
[[AVAudioSession sharedInstance] setActive:YES error:nil];
/**
*
AVFormatIDKey 音樂格式,這裡採用PCM格式
AVSampleRateKey 取樣率
AVNumberOfChannelsKey 音樂通道數
AVLinearPCMBitDepthKey,取樣位數 預設 16
AVLinearPCMIsFloatKey,取樣訊號是整數還是浮點數
AVLinearPCMIsBigEndianKey,大端還是小端 是記憶體的組織方式
AVEncoderAudioQualityKey,音訊編碼質量
*/
NSDictionary *recordSetting = @{
AVFormatIDKey : @(kAudioFormatLinearPCM),
AVSampleRateKey : @(8000.f),
AVNumberOfChannelsKey : @(1),
AVLinearPCMBitDepthKey : @(16),
AVLinearPCMIsNonInterleaved : @NO,
AVLinearPCMIsFloatKey : @NO,
AVLinearPCMIsBigEndianKey : @NO
};
//初始化錄音
self.recorder = [[AVAudioRecorder alloc]initWithURL:[NSURL URLWithString:path]
settings:recordSetting
error:nil];
_recorder.delegate = self;
_recorder.meteringEnabled = YES;
[_recorder prepareToRecord];
[_recorder record];
}
//音訊停止錄製
- (void)stopRecord
{
[self.recorder stop];
self.recorder = nil;
}
AVAudioPlayer
AVAudioPlayer類是音訊播放的類,一個AVAudioPlayer只能播放一個音訊,如果你想混音你可以建立多個AVAudioPlayer例項,每個相當於混音板上的一個軌道,下面就是音訊播放的方法。
//音訊開始播放
- (void)startPlayAudioFile:(NSString *)fileName{
//初始化播放器
player = [[AVAudioPlayer alloc]init];
player = [player initWithContentsOfURL:[NSURL URLWithString:fileName] error:nil];
self.player.delegate = self;
[player play];
}
//音訊停止播放
- (void)stopPlay{
if (self.player) {
[self.player stop];
self.player.delegate = nil;
self.player = nil;
}
}
轉碼
上面我們用iOS錄製了一個音訊檔案,並且錄製成了wav格式,然而現在的情況確實安卓不支援wav格式,並且蘋果的格式安卓全不支援,看好是全不,不是全部,反過來安卓的格式,蘋果基本也不支援。
這裡可以讓伺服器去轉碼,不過伺服器的壓力會增加,這裡我們可以讓客戶端進行轉碼。amr格式的音訊檔案是安卓系統中預設的錄音檔案,也算是安卓支援的很方便的音訊檔案,這裡就把iOS錄製的wav檔案轉成amr,我們採用的是libopencore框架。 關於libopencore,Jeans有對它進行了一個比較好的Demo,大家可以參考他的Demo,iOS音訊格式AMR和WAV互轉(支援64位)。
在他的AmrWavConverter程式碼Demo裡面有掩飾這兩個轉碼工作。
//轉換amr到wav
+ (int)ConvertAmrToWav:(NSString *)aAmrPath wavSavePath:(NSString *)aSavePath{
if (! DecodeAMRFileToWAVEFile([aAmrPath cStringUsingEncoding:NSASCIIStringEncoding], [aSavePath cStringUsingEncoding:NSASCIIStringEncoding]))
return 0;
return 1;
}
//轉換wav到amr
+ (int)ConvertWavToAmr:(NSString *)aWavPath amrSavePath:(NSString *)aSavePath{
if (! EncodeWAVEFileToAMRFile([aWavPath cStringUsingEncoding:NSASCIIStringEncoding], [aSavePath cStringUsingEncoding:NSASCIIStringEncoding], 1, 16))
return 0;
return 1;
}