來源:AI科技大本營
公眾號ID:rgznai100
【導讀】亞馬遜的 Alexa 的巨大成功已經證明:在不遠的將來,實現一定程度上的語音支援將成為日常科技的基本要求。整合了語音識別的 Python 程式提供了其他技術無法比擬的互動性和可訪問性。最重要的是,在 Python 程式中實現語音識別非常簡單。閱讀本指南,你就將會瞭解。你將學到:
•語音識別的工作原理;
•PyPI 支援哪些軟體包;
•如何安裝和使用 SpeechRecognition 軟體包——一個功能全面且易於使用的 Python 語音識別庫。
▌語言識別工作原理概述
語音識別源於 20 世紀 50 年代早期在貝爾實驗室所做的研究。早期語音識別系統僅能識別單個講話者以及只有約十幾個單詞的詞彙量。現代語音識別系統已經取得了很大進步,可以識別多個講話者,並且擁有識別多種語言的龐大詞彙表。
語音識別的首要部分當然是語音。透過麥克風,語音便從物理聲音被轉換為電訊號,然後透過模數轉換器轉換為資料。一旦被數字化,就可適用若干種模型,將音訊轉錄為文字。
大多數現代語音識別系統都依賴於隱馬爾可夫模型(HMM)。其工作原理為:語音訊號在非常短的時間尺度上(比如 10 毫秒)可被近似為靜止過程,即一個其統計特性不隨時間變化的過程。
許多現代語音識別系統會在 HMM 識別之前使用神經網路,透過特徵變換和降維的技術來簡化語音訊號。也可以使用語音活動檢測器(VAD)將音訊訊號減少到可能僅包含語音的部分。
幸運的是,對於 Python 使用者而言,一些語音識別服務可透過 API 線上使用,且其中大部分也提供了 Python SDK。
▌選擇 Python 語音識別包
PyPI中有一些現成的語音識別軟體包。其中包括:
•apiai
•google-cloud-speech
•pocketsphinx
•SpeechRcognition
•watson-developer-cloud
•wit
一些軟體包(如 wit 和 apiai )提供了一些超出基本語音識別的內建功能,如識別講話者意圖的自然語言處理功能。其他軟體包,如谷歌雲語音,則專註於語音向文字的轉換。
其中,SpeechRecognition 就因便於使用脫穎而出。
識別語音需要輸入音訊,而在 SpeechRecognition 中檢索音訊輸入是非常簡單的,它無需構建訪問麥克風和從頭開始處理音訊檔案的指令碼,只需幾分鐘即可自動完成檢索並執行。
SpeechRecognition 庫可滿足幾種主流語音 API ,因此靈活性極高。其中 Google Web Speech API 支援硬編碼到 SpeechRecognition 庫中的預設 API 金鑰,無需註冊就可使用。SpeechRecognition 以其靈活性和易用性成為編寫 Python 程式的最佳選擇。
▌安裝 SpeechRecognation
SpeechRecognition 相容 Python2.6 , 2.7 和 3.3+,但若在 Python 2 中使用還需要一些額外的安裝步驟。本教程中所有開發版本預設 Python 3.3+。
讀者可使用 pip 命令從終端安裝 SpeechRecognition:
$ pip install SpeechRecognition
安裝完成後請開啟直譯器視窗並輸入以下內容來驗證安裝:
>>> import speech_recognition as sr
>>> sr.__version__
'3.8.1'
註:不要關閉此會話,在後幾個步驟中你將要使用它。
若處理現有的音訊檔案,只需直接呼叫 SpeechRecognition ,註意具體的用例的一些依賴關係。同時註意,安裝 PyAudio 包來獲取麥克風輸入。
▌識別器類
SpeechRecognition 的核心就是識別器類。
Recognizer API 主要目是識別語音,每個 API 都有多種設定和功能來識別音訊源的語音,分別是:
-
: Microsoft Bing Speech
-
: Google Web Speech API
-
: Google Cloud Speech – requires installation of the google-cloud-speech package
-
: Houndify by SoundHound
-
: IBM Speech to Text
-
: CMU Sphinx – requires installing PocketSphinx
-
: Wit.ai
以上七個中只有 recognition_sphinx()可與CMU Sphinx 引擎離線工作, 其他六個都需要連線網際網路。
SpeechRecognition 附帶 Google Web Speech API 的預設 API 金鑰,可直接使用它。其他六個 API 都需要使用 API 金鑰或使用者名稱/密碼組合進行身份驗證,因此本文使用了 Web Speech API。
現在開始著手實踐,在直譯器會話中呼叫 recognise_google()函式。
>>> r.recognize_google()
螢幕會出現:
Traceback (most recent call last):
File "" , line 1, in <module>
TypeError: recognize_google() missing 1 required positional argument: 'audio_data'
相信你已經猜到了結果,怎麼可能從空檔案中識別出資料呢?
這 7 個 識別器類都需要輸入 引數,且每種識別器的 都必須是 SpeechRecognition 的 AudioData 類的實體。
AudioData 實體的建立有兩種路徑:音訊檔案或由麥克風錄製的音訊,先從比較容易上手的音訊檔案開始。
▌音訊檔案的使用
首先需要下載音訊檔案(https://github.com/realpython/python-speech-recognition/tree/master/audio_files),儲存到 Python 直譯器會話所在的目錄中。
AudioFile 類可以透過音訊檔案的路徑進行初始化,並提供用於讀取和處理檔案內容的背景關係管理器介面。
支援檔案型別
SpeechRecognition 目前支援的檔案型別有:
-
WAV: 必須是 PCM/LPCM 格式
-
AIFF
-
AIFF-C
-
FLAC: 必須是初始 FLAC 格式;OGG-FLAC 格式不可用
若是使用 Linux 系統下的 x-86 ,macOS 或者是 Windows 系統,需要支援 FLAC檔案。若在其它系統下執行,需要安裝 FLAC 編碼器並確保可以訪問 flac 命令。
使用 record() 從檔案中獲取資料
在直譯器會話框鍵入以下命令來處理 “harvard.wav” 檔案的內容:
>>> harvard = sr.AudioFile('harvard.wav')
>>> with harvard as source:
... audio = r.record(source)
...
透過背景關係管理器開啟檔案並讀取檔案內容,並將資料儲存在 AudioFile 實體中,然後透過 record()將整個檔案中的資料記錄到 AudioData 實體中,可透過檢查音訊型別來確認:
>>> type(audio)
<class 'speech_recognition.AudioData'>
現在可以呼叫 來嘗試識別音訊中的語音。
>>> r.recognize_google(audio)
'the stale smell of old beer lingers it takes heat
to bring out the odor a cold dip restores health and
zest a salt pickle taste fine with ham tacos al
Pastore are my favorite a zestful food is the hot
cross bun'
以上就完成了第一個音訊檔案的錄製。
利用偏移量和持續時間獲取音訊片段
若只想捕捉檔案中部分演講內容該怎麼辦? 命令中有一個 duration 關鍵字引數,可使得該命令在指定的秒數後停止記錄。
例如,以下內容僅獲取檔案前四秒內的語音:
>>> with harvard as source:
... audio = r.record(source, duration=4)
...
>>> r.recognize_google(audio)
'the stale smell of old beer lingers'
在 塊中呼叫 命令時,檔案流會向前移動。這意味著若先錄製四秒鐘,再錄製四秒鐘,則第一個四秒後將傳回第二個四秒鐘的音訊。
>>> with harvard as source:
... audio1 = r.record(source, duration=4)
... audio2 = r.record(source, duration=4)
...
>>> r.recognize_google(audio1)
'the stale smell of old beer lingers'
>>> r.recognize_google(audio2)
'it takes heat to bring out the odor a cold dip'
除了指定記錄持續時間之外,還可以使用 offset 引數為 record() 命令指定起點,其值表示在開始記錄的時間。如:僅獲取檔案中的第二個短語,可設定 4 秒的偏移量並記錄 3 秒的持續時間。
>>> with harvard as source:
... audio = r.record(source, offset=4, duration=3)
...
>>> recognizer.recognize_google(audio)
'it takes heat to bring out the odor'
在事先知道檔案中語音結構的情況下, 和 關鍵字引數對於分割音訊檔案非常有用。但使用不準確會導致轉錄不佳。
>>> with harvard as source:
... audio = r.record(source, offset=4.7, duration=2.8)
...
>>> recognizer.recognize_google(audio)
'Mesquite to bring out the odor Aiko'
本程式從第 4.7 秒開始記錄,從而使得片語 “it takes heat to bring out the odor” ,中的 “it t” 沒有被記錄下來,此時 API 只得到 “akes heat” 這個輸入,而與之匹配的是 “Mesquite” 這個結果。
同樣的,在獲取錄音結尾片語 “a cold dip restores health and zest” 時 API 僅僅捕獲了 “a co” ,從而被錯誤匹配為 “Aiko” 。
噪音也是影響翻譯準確度的一大元兇。上面的例子中由於音訊檔案乾凈從而執行良好,但在現實中,除非事先對音訊檔案進行處理,否則不可能得到無噪聲音訊。
噪聲對語音識別的影響
噪聲在現實世界中確實存在,所有錄音都有一定程度的噪聲,而未經處理的噪音可能會破壞語音識別應用程式的準確性。
要瞭解噪聲如何影響語音識別,請下載 “jackhammer.wav” (https://github.com/realpython/python-speech-recognition/tree/master/audio_files)檔案,並確保將其儲存到直譯器會話的工作目錄中。檔案中短語 “the stale smell of old beer lingers” 在是很大鑽牆聲的背景音中被念出來。
嘗試轉錄此檔案時會發生什麼?
>>> jackhammer = sr.AudioFile('jackhammer.wav')
>>> with jackhammer as source:
... audio = r.record(source)
...
>>> r.recognize_google(audio)
'the snail smell of old gear vendors'
那麼該如何處理這個問題呢?可以嘗試呼叫 Recognizer 類的 命令。
>>> with jackhammer as source:
... r.adjust_for_ambient_noise(source)
... audio = r.record(source)
...
>>> r.recognize_google(audio)
'still smell of old beer vendors'
這樣就與準確結果接近多了,但精確度依然存在問題,而且片語開頭的 “the” 被丟失了,這是什麼原因呢?
因為使用 命令時,預設將檔案流的第一秒識別為音訊的噪聲級別,因此在使用 獲取資料前,檔案的第一秒已經被消耗了。
可使用 關鍵字引數來調整 命令的時間分析範圍,該引數單位為秒,預設為 1,現將此值降低到 0.5。
>>> with jackhammer as source:
... r.adjust_for_ambient_noise(source, duration=0.5)
... audio = r.record(source)
...
>>> r.recognize_google(audio)
'the snail smell like old Beer Mongers'
現在我們就得到了這句話的 “the”,但現在出現了一些新的問題——有時因為訊號太吵,無法消除噪音的影響。
若經常遇到這些問題,則需要對音訊進行一些預處理。可以透過音訊編輯軟體,或將濾鏡應用於檔案的 Python 包(例如SciPy)中來進行該預處理。處理嘈雜的檔案時,可以透過檢視實際的 API 響應來提高準確性。大多數 API 傳回一個包含多個可能轉錄的 JSON 字串,但若不強制要求給出完整響應時, 方法始終僅傳回最可能的轉錄字元。
透過把 中 引數改成 來給出完整響應。
>>> r.recognize_google(audio, show_all=True)
{'alternative': [
{'transcript': 'the snail smell like old Beer Mongers'},
{'transcript': 'the still smell of old beer vendors'},
{'transcript': 'the snail smell like old beer vendors'},
{'transcript': 'the stale smell of old beer vendors'},
{'transcript': 'the snail smell like old beermongers'},
{'transcript': 'destihl smell of old beer vendors'},
{'transcript': 'the still smell like old beer vendors'},
{'transcript': 'bastille smell of old beer vendors'},
{'transcript': 'the still smell like old beermongers'},
{'transcript': 'the still smell of old beer venders'},
{'transcript': 'the still smelling old beer vendors'},
{'transcript': 'musty smell of old beer vendors'},
{'transcript': 'the still smell of old beer vendor'}
], 'final': True}
可以看到, 傳回了一個關鍵字為 ‘alternative’ 的串列,指的是所有可能的響應串列。此響應串列結構會因 API 而異且主要用於對結果進行除錯。
▌麥克風的使用
若要使用 SpeechRecognizer 訪問麥克風則必須安裝 PyAudio 軟體包,請關閉當前的直譯器視窗,進行以下操作:
安裝 PyAudio
安裝 PyAudio 的過程會因作業系統而異。
Debian Linux
如果使用的是基於 Debian的Linux(如 Ubuntu ),則可使用 apt 安裝 :
$ sudo apt-get install python-pyaudio python3-pyaudio
安裝完成後可能仍需要啟用 ,尤其是在虛擬情況下執行。
macOS
macOS 使用者則首先需要使用 Homebrew 來安裝 PortAudio,然後呼叫 命令來安裝 PyAudio。
$ brew install portaudio
$ pip install pyaudio
Windows
Windows 使用者可直接呼叫 來安裝 PyAudio。
$ pip install pyaudio
安裝測試
安裝了 PyAudio 後可從控制檯進行安裝測試。
$ python -m speech_recognition
請確保預設麥克風開啟並取消靜音,若安裝正常則應該看到如下所示的內容:
A moment of silence, please...
Set minimum energy threshold to 600.4452854381937
Say something!
請對著麥克風講話並觀察 SpeechRecognition 如何轉錄你的講話。
Microphone 類
請開啟另一個直譯器會話,並建立識一個別器類的例子。
>>> import speech_recognition as sr
>>> r = sr.Recognizer()
此時將使用預設系統麥克風,而不是使用音訊檔案作為訊號源。讀者可透過建立一個 類的實體來訪問它。
>>> mic = sr.Microphone()
若系統沒有預設麥克風(如在 RaspberryPi 上)或想要使用非預設麥克風,則需要透過提供裝置索引來指定要使用的麥克風。讀者可透過呼叫 類的 函式來獲取麥克風名稱串列。
>>> sr.Microphone.list_microphone_names()
['HDA Intel PCH: ALC272 Analog (hw:0,0)',
'HDA Intel PCH: HDMI 0 (hw:0,3)',
'sysdefault',
'front',
'surround40',
'surround51',
'surround71',
'hdmi',
'pulse',
'dmix',
'default']
註意:你的輸出可能與上例不同。
傳回串列中麥克風裝置名稱的索引。在上面的輸出中,如果要使用名為 “front” 的麥克風,該麥克風在串列中索引為 3,則可以建立如下所示的麥克風實體:
>>> # This is just an example; do not run
>>> mic = sr.Microphone(device_index=3)
但大多數情況下需要使用系統預設麥克風。
使用 listen()獲取麥克風輸入資料
準備好麥克風實體後,讀者可以捕獲一些輸入。
就像 類一樣, 是一個背景關係管理器。可以使用 with 塊中 的 方法捕獲麥克風的輸入。該方法將音訊源作為第一個引數,並自動記錄來自源的輸入,直到檢測到靜音時自動停止。
>>> with mic as source:
... audio = r.listen(source)
...
執行 with 塊後請嘗試在麥克風中說出 “hello” 。請等待直譯器再次顯示提示,一旦出現 “>>>” 提示傳回就可以識別語音。
>>> r.recognize_google(audio)
'hello'
如果沒有提示再次傳回,可能是因為麥克風收到太多的環境噪音,請使用 Ctrl + C 中斷這個過程,從而讓直譯器再次顯示提示。
要處理環境噪聲,可呼叫 Recognizer 類的 函式,其操作與處理噪音音訊檔案時一樣。由於麥克風輸入聲音的可預測性不如音訊檔案,因此任何時間聽麥克風輸入時都可以使用此過程進行處理。
>>> with mic as source:
... r.adjust_for_ambient_noise(source)
... audio = r.listen(source)
...
執行上面的程式碼後稍等片刻,嘗試在麥克風中說 “hello” 。同樣,必須等待直譯器提示傳回後再嘗試識別語音。
請記住, 預設分析音訊源中1秒鐘長的音訊。若讀者認為此時間太長,可用duration引數來調整。
SpeechRecognition 資料建議 duration 引數不少於0.5秒。某些情況下,你可能會發現,持續時間超過預設的一秒會產生更好的結果。您所需要的最小值取決於麥克風所處的周圍環境,不過,這些資訊在開發過程中通常是未知的。根據我的經驗,一秒鐘的預設持續時間對於大多數應用程式已經足夠。
處理難以識別的語音
嘗試將前面的程式碼示例輸入到直譯器中,併在麥克風中輸入一些無法理解的噪音。你應該得到這樣的結果:
Traceback (most recent call last):
File "" , line 1, in <module>
File "/home/david/real_python/speech_recognition_primer/venv/lib/python3.5/site-packages/speech_recognition/__init__.py", line 858, in recognize_google
if not isinstance(actual_result, dict) or len(actual_result.get("alternative", [])) == 0: raise UnknownValueError()
speech_recognition.UnknownValueError
無法被 API 匹配成文字的音訊會引發 異常,因此要頻繁使用 和 塊來解決此類問題。API 會盡全力去把任何聲音轉成文字,如短咕嚕聲可能會被識別為 “How”,咳嗽聲、鼓掌聲以及舌頭咔噠聲都可能會被轉成文字從而引起異常。
結語:
本教程中,我們一直在識別英語語音,英語是 SpeechRecognition 軟體包中每個 方法的預設語言。但是,識別其他語音也是絕對有可能且很容易完成的。要識別不同語言的語音,請將 r 方法的語言關鍵字引數設定為與所需語言對應的字串。
作者:David Amos
原文連結:https://realpython.com/python-speech-recognition/
《Python人工智慧和全棧開發》2018年07月23日即將在北京開課,120天衝擊Python年薪30萬,改變速約~~~~
*宣告:推送內容及圖片來源於網路,部分內容會有所改動,版權歸原作者所有,如來源資訊有誤或侵犯權益,請聯絡我們刪除或授權事宜。
– END –
更多Python好文請點選【閱讀原文】哦
↓↓↓