1952年,貝爾實驗室(Bell Labs)制造一臺6英尺高自動數(shù)字識別機(jī)“Audrey”,它可以識別數(shù)字0~9的發(fā)音,且準(zhǔn)確度高達(dá)90%以上。并且它對熟人的精準(zhǔn)度高,而對陌生人則偏低。
1956年,普林斯頓大學(xué)RCA實驗室開發(fā)了單音節(jié)詞識別系統(tǒng),能夠識別特定人的十個單音節(jié)詞中所包含的不同音節(jié)。
1959年,MIT的林肯實驗室開發(fā)了針對十個元音的非特定人語音識別系統(tǒng)。
二十世紀(jì)六十年代初,東京無線電實驗室、京都大學(xué)和NEC實驗室在語音識別領(lǐng)域取得了開拓性的進(jìn)展,各自先后制作了能夠進(jìn)行語音識別的專用硬件。
1964年的世界博覽會上,IBM向世人展示了數(shù)字語音識別的“shoe box recognizer”。
二十世紀(jì)七十年代,語音識別的研究取得了突破性的進(jìn)展,研究重心仍然是孤立詞語語音識別。
1971年,美國國防部研究所(Darpa)贊助了五年期限的語音理解研究項目,希望將識別的單詞量提升到1000以上。參與該項目的公司和學(xué)術(shù)機(jī)構(gòu)包括IBM、卡內(nèi)基梅隆大學(xué)(CMU)、斯坦福研究院。就這樣,Harpy在CMU誕生了。不像之前的識別器,Harpy可以識別整句話。
二十世紀(jì)八十年代,NEC提出了二階動態(tài)規(guī)劃算法,Bell實驗室提出了分層構(gòu)造算法,以及幀同步分層構(gòu)造算法等。同時,連接詞和大詞匯量連續(xù)語音的識別得到了較大發(fā)展,統(tǒng)計模型逐步取代模板匹配的方法,隱馬爾科夫模型(HMM)成為語音識別系統(tǒng)的基礎(chǔ)模型。
八十年代中期,IBM創(chuàng)造了一個語音控制的打字機(jī)—Tangora,能夠處理大約20000單詞。IBM的研究就是基于隱形馬爾科夫鏈模型(hidden Markov model),在信號處理技術(shù)中加入統(tǒng)計信息。這種方法使得在給定音素情況下,很有可能預(yù)測下一個因素。
1984年,IBM發(fā)布的語音識別系統(tǒng)在5000個詞匯量級上達(dá)到了95%的識別率。
1985年AT&T貝爾實驗室建造了第一個智能麥克風(fēng)系統(tǒng),用來研究大室內(nèi)空間的聲源位置追蹤問題。
1987年開始,國家開始執(zhí)行963計劃后,國家863智能計算機(jī)主題專家組為語音識別研究立項,每兩年一次。
1987年12月,李開復(fù)開發(fā)出世界上第一個“非特定人連續(xù)語音識別系統(tǒng)”。
1988年,卡耐基梅隆大學(xué)結(jié)合矢量量化技術(shù)(VQ),用VQ/HMM方法開發(fā)了世界上第一個非特定人大詞匯量連續(xù)語音識別系統(tǒng)SPHINX,能夠識別包括997個詞匯的4200個連續(xù)語句。
同年,清華大學(xué)和中科院聲學(xué)所在大詞庫漢語聽寫機(jī)的研制上取得了突破性進(jìn)展。
1990年,聲龍發(fā)布了第一款消費(fèi)級語音識別產(chǎn)品Dragon Dictate,價格高達(dá)9000美元。
1992年,IBM引入了它的第一個聽寫系統(tǒng),稱為“IBM Speech Server Series (ISSS)”。
1992年研發(fā)的Sphinx-II在同年美國國防部先進(jìn)技術(shù)研究計劃署(DARPA)資助的語音基準(zhǔn)評測中獲得了最高的識別準(zhǔn)確度,這主要得益于其在高斯混合和馬爾可夫狀態(tài)層次上用栓連參數(shù)平衡了可訓(xùn)練性和高效性。
1995年,Windows 95上首次搭載微軟SAPI,它使應(yīng)用程序開發(fā)者能夠在Windows上創(chuàng)建語音程序。
1995年,AT&T研究院的 Dave Ladd, Chris Ramming, Ken Rehor 以及 Curt Tuckey 在頭腦風(fēng)暴關(guān)于互聯(lián)網(wǎng)會如何改變電話應(yīng)用的時候,產(chǎn)生了一些新的想法:為什么不設(shè)計這樣一個系統(tǒng)來運(yùn)行一種可以解析某種語音標(biāo)記語言的語音瀏覽器,用來把互聯(lián)網(wǎng)的內(nèi)容和服務(wù)提供到千家萬戶的電話上。于是,AT&T就開始“電話網(wǎng)絡(luò)項目”(Phone Web Project)。之后,Chris繼續(xù)留在AT&T,Ken去了朗訊,Dave和Curt去了摩托羅拉。(1999年初的時候,他們分別在各自的公司邁出了語音標(biāo)記語言規(guī)范實質(zhì)性的第一步。因為他們的密友關(guān)系,這幾家公司合作成立了一個VoiceXML論壇組織,IBM也作為一個創(chuàng)始公司加入了進(jìn)來。)
1997年IBM ViaVoice首個語音聽寫產(chǎn)品問世,你只要對著話筒喊出要輸入的字符,它就會自動判斷并且?guī)湍爿斎胛淖?。次年又開發(fā)出可以識別上海話、廣東話和四川話等地方口音的語音識別系統(tǒng)ViaVoice’ 98。
1998年,微軟在北京成立亞洲研究院,將漢語語音識別納入重點(diǎn)研究方向之一。
2001年,比爾蓋茨在美國消費(fèi)電子展上展示了一臺代號為MiPad的原型機(jī)。Mipad展現(xiàn)了語音多模態(tài)移動設(shè)備的愿景。
2002年,中科院自動化所及其所屬模式科技公司推出了“天語”中文語音系列產(chǎn)品——Pattek ASR,結(jié)束了該領(lǐng)域一直被國外公司壟斷的局面。
2002年,美國國防部先進(jìn)技術(shù)研究計劃署(DARPA)首先啟動了EARS項目和TIDES 項目; 由于EARS項目過于敏感,EARS和TIDES兩個項目合并為“全球自主語言開發(fā)”(Global Autonomous Language Exploitation,GALE)。GALE目標(biāo)是應(yīng)用計算機(jī)軟件技術(shù)對海量規(guī)模的多語言語音和文本進(jìn)行獲取、轉(zhuǎn)化、分析和翻譯。
2006年,辛頓(Hinton)提出深度置信網(wǎng)絡(luò)(DBN),促使了深度神經(jīng)網(wǎng)絡(luò)(Deep Neural Network,DNN)研究的復(fù)蘇,掀起了深度學(xué)習(xí)的熱潮。
2009年,辛頓以及他的學(xué)生默罕默德(D. Mohamed)將深度神經(jīng)網(wǎng)絡(luò)應(yīng)用于語音的聲學(xué)建模,在小詞匯量連續(xù)語音識別數(shù)據(jù)庫TIMIT上獲得成功。
2009年微軟Win7集成語音功能。
2010年Google Vioce Action支持語音操作與搜索。
2011年初,微軟的DNN模型在語音搜索任務(wù)上獲得成功。
同年科大訊飛將DNN 首次成功應(yīng)用到中文語音識別領(lǐng)域,并通過語音云平臺提供給廣大開發(fā)者使用。
2011年10月,蘋果iPhone 4S發(fā)布,個人手機(jī)助理Siri誕生,人機(jī)交互翻開新篇章。
2012年,科大訊飛在語音合成領(lǐng)域首創(chuàng)RBM技術(shù)。
2012年,谷歌的智能語音助手Google Now 的形式出現(xiàn)在眾人面前,用在安卓 4.1 和 Nexus 手機(jī)上。
2013年,Google發(fā)布Google Glass,蘋果也加大了對iWatch的研發(fā)投入,穿戴式語音交互設(shè)備成為新熱點(diǎn)。
同年,科大訊飛在語種識別領(lǐng)域首創(chuàng)BN-ivec技術(shù)。
2014 年,思必馳推出首個可實時轉(zhuǎn)錄的語音輸入板。
2014年11月,亞馬遜智能音箱Echo發(fā)布。
2015 年,思必馳推出首個可智能打斷糾正的語音技術(shù)。
2016年,Google Assistant伴隨Google Home 正式亮相,搶奪亞馬遜智能音箱市場。(亞馬遜Echo在2016年的智能音箱市場占有率達(dá)到了巔峰的88%)
同年,科大訊飛上線DFCNN(深度全序列卷積神經(jīng)網(wǎng)絡(luò),Deep Fully Convolutional Neural Network)語音識別系統(tǒng)。
同年11月,科大訊飛、搜狗、百度先后召開發(fā)布會,對外公布語音識別準(zhǔn)確率均達(dá)到“97%”。
2017年3月,IBM結(jié)合了 LSTM 模型和帶有 3 個強(qiáng)聲學(xué)模型的 WaveNet 語言模型。“集中擴(kuò)展深度學(xué)習(xí)應(yīng)用技術(shù)終于取得了 5.5% 詞錯率的突破”。相對應(yīng)的是去年5月的6.9%。
2017年8月,微軟發(fā)布新的里程碑,通過改進(jìn)微軟語音識別系統(tǒng)中基于神經(jīng)網(wǎng)絡(luò)的聽覺和語言模型,在去年基礎(chǔ)上降低了大約12%的出錯率,詞錯率為5.1%,聲稱超過專業(yè)速記員。相對應(yīng)的是去年10月的5.9%,聲稱超過人類。
2017年12月,谷歌發(fā)布全新端到端語音識別系統(tǒng)(State-of-the-art Speech Recognition With Sequence-to-Sequence Models),詞錯率降低至5.6%。相對于強(qiáng)大的傳統(tǒng)系統(tǒng)有 16% 的性能提升。
市場分析公司Canalys在2018年1月分布一份報告,其預(yù)測2018年將是普及智能音箱的“決定性一年”,相比全年出貨量剛過3000萬臺的2017年,2018年智能音箱全球出貨量預(yù)計將達(dá)到5630萬臺。
中投顧問發(fā)布的《2018-2022年中國智能語音行業(yè)深度調(diào)研及投資前景預(yù)測報告》顯示我國智能語音市場整體處于啟動期,智能車載,智能家居,智能可穿戴等垂直領(lǐng)域處于爆發(fā)前夜。
文章引用
?。?] 李曉雪. 基于麥克風(fēng)陣列的語音增強(qiáng)與識別研究[D]. 浙江大學(xué), 2010.
?。?] 倪崇嘉, 劉文舉, 徐波. 漢語大詞匯量連續(xù)語音識別系統(tǒng)研究進(jìn)展[J]. 中文信息學(xué)報, 2009, 23(1):112-123.
?。?] 高朝煌. 非特定人漢語連續(xù)數(shù)字語音識別系統(tǒng)的研究與實現(xiàn)[D]. 西安電子科技大學(xué), 2011.
?。?] 《2017年的語音識別,路只走了一半》
[5] 《2018-2022年國內(nèi)外智能語音發(fā)展的分析》
?。?] 《四十年的難題與榮耀—從歷史視角看語音識別發(fā)展》
?。?] 《幾個常見的語音交互平臺的簡介和比較》
?。?] 《VoiceXML簡介》
?。?] 《思必馳官方介紹資料》