百度語音API的Python語音識別實踐
阿新 • • 發佈:2019-02-05
百度語音對上傳的語音要求目前必須是單聲道,16K取樣率,取樣深度可以是16位或者8位的PCM編碼。其他編碼輸出的語音識別不出來。
語音的處理技巧:
錄製為MP3的語音(通常取樣率為44100),要分兩步才能正確處理。第一步:使用諸如GoldWave的軟體,先儲存為16K取樣率的MP3;第二步,開啟16K取樣率的MP3,另存為Wav格式,引數選擇PCM,單聲道即可。
另外,也可以使用ffmpeg將MP3處理為PCM。後文的程式即採用這種方法。
由於PCM編碼的語音沒有壓縮,檔案體積與語音長度成正比。百度語音平臺對語音的長度的限制未知。檔案太大,網速不好的時候,容易出現”連線錯誤“的提示。因此,對時間較長的語音,應該將語音分割成多個序列,在分別進行識別。(目前按照等長分割)
以下程式碼,使用前,需要在baidu 開發者上申請相關的API ID, API Key, Secret Key,並以申請的引數代入到檔案中。
# 引入Speech SDK from aip import AipSpeech import subprocess import datetime import sys import os import time from pydub import AudioSegment import math # 定義常量 #APP_ID = '你的 App ID' APP_ID = '937****' #API_KEY = '你的 API Key' API_KEY = 'mOV9QaabNnkur0Aba15T****' #SECRET_KEY = '你的 Secret Key' SECRET_KEY = '097111374ad26d4ba00937c5e332****' # 初始化AipSpeech物件 aipSpeech = AipSpeech(APP_ID, API_KEY, SECRET_KEY) # 檔案處理 def get_wave_filename(fileFullName): # MP3檔案轉換成wav檔案 # 判斷檔案字尾,是mp3的,直接處理為16k取樣率的wav檔案; # 是wav的,判斷檔案的取樣率,不是8k或者16k的,直接處理為16k的取樣率的wav檔案 # 其他情況,就直接返回AudioSegment直接處理 fileSufix = fileFullName[fileFullName.rfind('.')+1:] print(fileSufix) filePath = fileFullName[:fileFullName.find(os.sep)+1] print(filePath) if fileSufix.lower() == "mp3": wavFile = "wav_%s.wav" %datetime.datetime.now().strftime('%Y%m%d%H%M%S') wavFile = filePath + wavFile cmdLine = "ffmpeg -i \"%s\" -ar 16000 " %fileFullName cmdLine = cmdLine + "\"%s\"" %wavFile print(cmdLine) ret = subprocess.run(cmdLine) print("ret code:%i" %ret.returncode) return wavFile #if ret.returncode == 1: # return wavFile #else: # return None else: return fileFullName #檔案分片 try: script, fileFullName = sys.argv except: print("引數 檔名 未指定!") exit() if not os.path.isfile(fileFullName): print("引數 %s 不是一個檔名" %fileFullName) exit() if not os.path.exists(fileFullName): print("引數 %s 指定的檔案不存在" %fileFullName) exit() filePath = fileFullName[:fileFullName.find(os.sep)+1] # 檔案處理為Wav,取樣率16k的檔案,返回檔名 wavFile = get_wave_filename(fileFullName) print(wavFile) record = AudioSegment.from_wav(wavFile) if wavFile != fileFullName: time.sleep(1) os.remove(wavFile) recLen = record.duration_seconds interval = 120 * 1000 maxLoop = math.ceil(recLen*1000/float(interval)) for n in range(0,math.ceil(recLen*1000/float(interval))): recSeg = record[n * interval : (n + 1)*interval] #print("Segment:%i,startat:%i,length:%i" %n,n*interval/1000,recSeg.duration_seconds) print(datetime.datetime.now().strftime('%Y-%m-%d %H:%M:%S') + " >> Segment:" + str(n) +"/" + str(maxLoop)) segFile = filePath + "seg%s.wav" %("0"*7 + str(n))[-6:] # 把分段的語音資訊儲存為臨時檔案 file_handle = recSeg.export(segFile,format="wav",codec = "libvorbis") file_handle.close() # 讀取分段的臨時檔案為位元組 file_handle = open(segFile, 'rb') file_content = file_handle.read() file_handle.close() # 刪除臨時檔案 os.remove(segFile) # 用百度API處理該語音 result=aipSpeech.asr(file_content, 'pcm', 16000, {'lan': 'zh'}) if result['err_no'] == 0: print(datetime.datetime.now().strftime('%Y-%m-%d %H:%M:%S') + " >> " + result['result'][0]) else: print(datetime.datetime.now().strftime('%Y-%m-%d %H:%M:%S') + " >> " + "err_no:" + str(result['err_no']))