Siri 、Alexa 等虛擬助手的出現,讓自動語音識別系統得到了更廣泛的運用與發(fā)展。自動語音識別(ASR)是一種將口語轉換為文本的過程。該技術正在不斷應用于即時通訊應用程序、搜索引擎、車載系統和家庭自動化中。盡管所有這些系統都依賴于略有不同的技術流程,但這些所有系統的第一步都是相同的:捕獲語音數據并將其轉換為機器可讀的文本。
但 ASR 系統如何工作?它如何學會辨別語音?ASR 系統:它們如何運作?因此,從基礎層面來看,我們知道自動語音識別看起來如下:音頻數據輸入,文本數據輸出。但是,從輸入到輸出,音頻數據需要變成機器可讀的數據。這意味著數據通過聲學模型和語言模型進行發(fā)送。這兩個過程是這樣的:聲學模型確定了語言中音頻信號和語音單位之間的關系,而語言模型將聲音與單詞及單詞序列進行匹配。
這兩個模型允許 ASR 系統對音頻輸入進行概率檢查,以預測其中的單詞和句子。然后,系統會選出具有最高置信度等級的預測。**有時語言模型可以優(yōu)先考慮某些因其他因素而被認為更有可能的預測。因此,如果通過 ASR 系統運行短語,它將執(zhí)行以下操作:進行聲音輸入:“嘿 Siri,現在幾點了?”通過聲學模型運行語音數據,將其分解為語音部分。通過語言模型運行該數據。輸出文本數據:“嘿 Siri,現在幾點了?”
在這里,值得一提的是,如果自動語音識別系統是語音用戶界面的一部分,則 ASR 模型將不是唯一在運行的機器學習模型。許多自動語音識別系統都與自然語言處理 (NLP) 和文本語音轉換 (TTS) 系統配合使用,以執(zhí)行其給定的角色。也就是說,深入研究語音用戶界面本身就是個完整的話題。要了解更多信息,請查看此文章。
那么,現在知道了 ASR 系統如何運作,但需要構建什么?關鍵是數據。建立 ASR 系統:數據的重要性,優(yōu)秀的 ASR 系統應該具有靈活性。它需要識別各種各樣的音頻輸入(語音樣本),并根據該數據做出準確的文本輸出,以便做出相應的反應。為實現這一點,ASR 系統需要的數據是標記的語音樣本和轉錄形式。比這要復雜一些(例如,數據標記過程非常重要且經常被忽略),但為了讓大家明白,在此將其簡化。
ASR 系統需要大量的音頻數據。為什么?因為語言很復雜。對同一件事有很多種講述方式,句子的意思會隨著單詞的位置和重點而改變。還考慮到世界上有很多不同的語言,在這些語言中,發(fā)音和單詞選擇可能會因地理位置和口音等因素而不同。
哦,別忘了語言也因年齡和性別而有所不同!考慮到這一點,為 ASR系統提供的語音樣本越多,它在識別和分類新語音輸入方面越好。從各種各樣的聲音和環(huán)境中獲取的樣本越多,系統越能在這些環(huán)境中識別聲音。通過專門的微調和維護,自動語音識別系統將在使用過程中得到改進。
因此,從最基本的角度來看,數據越多越好。的確,目前進行的研究和優(yōu)化較小數據集相關,但目前大多數模型仍需要大量數據才能發(fā)揮良好的性能。幸運的是,得益于數據集存儲庫和專用的數據收集服務,音頻數據的收集變得越發(fā)簡單。這反過來又增加了技術發(fā)展的速度,那么,接下來簡單了解一下,未來自動語音識別能在哪些方面大展身手。
ASR 技術已融身于社會。虛擬助手、車載系統和家庭自動化都讓日常生活更加便利,應用范圍也可能擴大。隨著越來越多的人接納這些服務,技術將進一步發(fā)展。