《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > 嵌入式技術(shù) > 業(yè)界動態(tài) > 基于多帶CHMM和神經(jīng)網(wǎng)絡(luò)融合的語音識別

基于多帶CHMM和神經(jīng)網(wǎng)絡(luò)融合的語音識別

《電子技術(shù)應(yīng)用》2007年第2期
2008-01-09
作者:姜 波,黃 煒

摘 要: 根據(jù)人類的聽覺感知機理,提出了一種改進的基于多子帶連續(xù)隱馬爾科夫模型和BP神經(jīng)網(wǎng)絡(luò)融合" title="網(wǎng)絡(luò)融合">網(wǎng)絡(luò)融合的識別算法。
關(guān)鍵詞: 語音識別" title="語音識別">語音識別? 多子帶連續(xù)隱馬爾科夫模型? BP神經(jīng)網(wǎng)絡(luò)

?

??? 連續(xù)隱馬爾可夫模型CHMM(Continuous Hidden Markov Models)是語音識別中的主要技術(shù)之一。CHMM的優(yōu)點是對動態(tài)時間序列有極強的建模能力,是一種基于時序累積概率的動態(tài)信息處理方法。在訓練中,一個CHMM的參數(shù)由同類模式的訓練樣本集得到,每一類模式對應(yīng)一個CHMM。CHMM的缺點是由于僅考慮了特征的類內(nèi)變化,而忽略了類間重疊性;僅用到各個模型中的累積概率最大" title="最大">最大的狀態(tài),而忽略了各個模式間的相似特征,因而影響了CHMM識別語音的性能。
??? 人工神經(jīng)網(wǎng)絡(luò)ANN(Artificial Neural Network)是基于模仿人腦神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)和功能而建立的一種信息處理系統(tǒng),具有高度的非線性處理能力,能夠進行復雜的邏輯操作和分類識別。雖然ANN有很強的分類決策能力和對不確定信息的描述能力,但它對時間序列的處理能力尚不盡人意。
??? 將CHMM的動態(tài)建模能力和ANN的模式分類能力有機地結(jié)合起來是語音識別的一個研究熱點。由于在最大似然估計中,CHMM基于嚴格的公式推導,很難進行修改,而ANN作為估計器其性能要比傳統(tǒng)的統(tǒng)計識別系統(tǒng)" title="識別系統(tǒng)">識別系統(tǒng)強,不僅可通過訓練用來產(chǎn)生后驗概率,而且可根據(jù)需要進行合理的改善。因此,研究人員將ANN和CHMM結(jié)合,構(gòu)成了多種性能較好的CHMM/ANN混合模型[1]
??? 不同語音在訓練好的各CHMM 下的概率分布有不同的規(guī)律,不同的語音不同人發(fā)音和同一人發(fā)音有一定的相似性。如選擇合適的CHMM輸出作為ANN的輸入矢量對ANN進行訓練,利用ANN的非線性分類能力,能提高語音識別率。在大多數(shù)語音識別系統(tǒng)中,短時語音特征參數(shù)的提取是在語音的全頻帶" title="全頻帶">全頻帶進行的。然而,對人類的聽覺感知機理的研究表明,人類的聽覺解碼首先是從相互獨立的子頻帶中提取信息,然后再對不同子帶的信息進行綜合判決的。此外,對于訓練與測試時的信道失配,由于各個信道的頻率響應(yīng)不一致,所以在不同子頻帶也表現(xiàn)出差異[2]。本文提出了一種改進的基于多帶CHMM和ANN的語音識別算法,有效地提高了識別率。
1 基于多帶CHMM和神經(jīng)網(wǎng)絡(luò)融合的語音識別
1.1 多帶識別子系統(tǒng)的理論依據(jù)
??? 由于背景噪聲和信道畸變的干擾,語音信號通常并不是純凈的,不僅記錄了語音的特征,還反映了訓練環(huán)境的特征,并且這些特征被記錄到模型中。而在語音識別系統(tǒng)的測試中,其測試語音與訓練環(huán)境通常是在不同環(huán)境下采集的,由此語音信息是不同的。這時模型和測試數(shù)據(jù)之間的匹配就會受到干擾,稱為失配。失配問題的解決決定了語音識別系統(tǒng)的應(yīng)用效果[3]。
??? 針對失配的問題,利用倒譜均值規(guī)整(CMN)[4]、人耳的聽覺感知機理的相對譜(RASTA)參數(shù)[5]、并行模型組合(PMC)等方法,都有一定的效果,其中CMN因原理簡單和易于實現(xiàn)而被廣泛應(yīng)用。但是,以上方法的效果都不理想。
??? 通常,語音特征參數(shù)的提取都是利用語音的全頻帶進行的。然而,如上所述,根據(jù)聽覺感知機理,子頻帶的研究和使用也有重要的意義,同時還有以下工程理由來考慮某種形式的子帶策略[6]。
??? (1)噪聲可能僅僅破壞某一部分的頻率。如果采用幾個獨立的子帶,其他未受影響的子帶就保持了純凈的音頻信號,可以做出可靠的訓練和識別。
??? (2)某些子帶可能擁有相比其他子帶更良好的性能,比如語音信號就主要集中在低頻段。
??? (3)子帶之間相互獨立,分別進行訓練,系統(tǒng)處理更加健壯,更加靈活。
??? (4)不同的訓練和識別策略可以應(yīng)用于不同的子帶。
??? 此外,語音能量也是一個很重要的參數(shù),可以用來作為語音識別的一個特征[7]。因此改進的算法是將多個子帶以及全頻帶特征和幀平均能量作為ANN的輸入,利用ANN對各子帶CHMM系統(tǒng)以及幀平均能量的信息進行融合判決,以提高語音識別系統(tǒng)在信道失配和噪聲失配時的識別性能。
1.2 多帶CHMM/BP神經(jīng)網(wǎng)絡(luò)識別系統(tǒng)
??? 多帶CHMM/BP神經(jīng)網(wǎng)絡(luò)識別系統(tǒng)如圖1所示,系統(tǒng)由CHMM識別子系統(tǒng)和BP神經(jīng)網(wǎng)絡(luò)(BPNN)識別子系統(tǒng)構(gòu)成。將CHMM和BPNN結(jié)合起來,利用CHMM組成的多子帶系統(tǒng)輸出矢量在矢量空間上用BPNN進行非線性映射,并從中提取新的識別信息,再利用BP神經(jīng)網(wǎng)絡(luò)的非線性映射能力,對輸入矢量的分量加以提取,利用模式間的相關(guān)性對模式進行分類。由于利用了兩種識別模式的綜合信息和能力,多帶CHMM/BPNN識別系統(tǒng)能有效地提高系統(tǒng)對噪聲的魯棒性。

?

?


??? 如圖1所示,在語音頻率范圍內(nèi)劃分若干個子頻帶,在每個子頻帶內(nèi)分別提取特征參數(shù)并建立CHMM子系統(tǒng),與幀平均能量一起作為BPNN的輸入,進行融合判決。由于全頻帶能反映各種頻率信息之間的關(guān)聯(lián)性,因此圖1還有一個全頻帶的子系統(tǒng)。幀平均能量為語音數(shù)據(jù)能量的幀平均值。
2 實驗結(jié)果和分析
2.1 系統(tǒng)的訓練過程
??? 系統(tǒng)的訓練分為CHMM和BPNN的訓練。語音數(shù)據(jù)采樣頻率為8kHz,提取其MFCC特征,即12階的MFCC參數(shù)和1階差分參數(shù)。在CHMM的訓練中,每個數(shù)據(jù)逐一進行訓練。由于3個或4個子帶的識別效果優(yōu)于其他子帶劃分方法[3]、[6],因此,系統(tǒng)分別劃分為3個和4個子帶進行實驗比較, 3個子帶劃分為100~1 100Hz、1 000~2 200Hz、2 000~4 000Hz,4個子帶劃分為100~1 000Hz、800~2 000Hz、 1 400~2 600Hz、2 000~4 000Hz。每個數(shù)據(jù)訓練時分別產(chǎn)生不同的子帶和全帶的CHMM模型,模型之間互相獨立。即每個頻帶的數(shù)據(jù)在CHMM訓練是由同一個頻帶的不同樣本訓練的,當需要學習新的樣本時,只需對相應(yīng)的CHMM模型進行修正即可,而無須改變其他的CHMM模型。
??? 而BP神經(jīng)網(wǎng)絡(luò)的訓練采用的是多語音模式訓練,這是由于網(wǎng)絡(luò)的引入目的是對于不同的輸入特征進行模式分類的。因為不同的模式類,其CHMM模型是不同的,但是對于BP神經(jīng)網(wǎng)絡(luò)則是公用的。這種訓練方式保證了不同模式樣本之間的相關(guān)性和干擾性,利用模式間的這些信息對于BP網(wǎng)絡(luò)進行訓練,可有效地增強整個系統(tǒng)的模式分類能力,提高系統(tǒng)在各種條件下的魯棒性。
多帶CHMM/BP神經(jīng)網(wǎng)絡(luò)識別系統(tǒng)的訓練過程如下:
??? (1)運用CHMM訓練算法建立和訓練每個CHMM模型。在3個子帶實驗中,共4個模型,分別對應(yīng)3個子帶和1個全帶;在4個子帶實驗中,共5個模型,分別對應(yīng)4個子帶和1個全帶。
??? (2)輸入訓練語音xi(i為語音在字庫的序號),用CHMM對語音數(shù)據(jù)進行時序處理,通過Viterbi算法得到相對應(yīng)的各CHMM模型的參數(shù)。把每個模型中的最大輸出概率的狀態(tài)序號取出來并同輸入語音的幀平均能量組成輸入矢量Vi,Vi=[qi1,qi2,…,qi,Ei],其中qi1,qi2,…,qi分別代表語音xi子帶和一個全帶的最大輸出概率的狀態(tài)序號,Ei代表語音xi的幀平均能量。
??? (3)對輸入矢量進行歸一化后作為BP神經(jīng)網(wǎng)絡(luò)的輸入矢量,輸出矢量為輸入語音數(shù)據(jù)的對應(yīng)矩陣R,R=[r1,r2,…,ri,…,r10],其中只有元素ri=1(i為語音在字庫中的序號),而其他均為0。
??? (4)運用BP神經(jīng)網(wǎng)絡(luò)的學習算法對網(wǎng)絡(luò)進行訓練,直到BP神經(jīng)網(wǎng)絡(luò)的收斂精度達到要求為止。
2.2 系統(tǒng)的識別過程
??? 先讓待識別語音數(shù)據(jù)經(jīng)過不同的CHMM子系統(tǒng)和幀平均能量計算模塊,然后把每個CHMM模型中最大輸出概率的狀態(tài)序號取出來并同輸入語音的幀平均能量保存在輸入矢量V中,最后使用BP神經(jīng)網(wǎng)絡(luò)對輸入矢量進行非線性映射,得到識別結(jié)果。具體做法類似訓練過程。
2.3 實驗過程
??? 以采樣頻率為8kHz,16位數(shù)據(jù),幀長32ms(對應(yīng)256點),幀移10ms(對應(yīng)86點),識別對象為漢語的十個數(shù)字(0~9),發(fā)音者共20人,每人每個詞采樣三遍,其中10個人每人抽取一組語音作為訓練數(shù)據(jù),其余的作為識別數(shù)據(jù)。另外使用了與訓練環(huán)境不同情況下采集的12組語音作為帶噪語音。
??? CHMM模型中的狀態(tài)數(shù)和混合度,BP神經(jīng)網(wǎng)絡(luò)的節(jié)點數(shù)對系統(tǒng)性能均有影響。通過實驗,狀態(tài)數(shù)為4和混合度為3時,對于單字識別效果很好,但提高狀態(tài)數(shù)和混合度時,不會有明顯的性能提升反而增加了運算量。而BP網(wǎng)絡(luò)的層數(shù)通常在實際運用中決定,對于本次實驗中,三層網(wǎng)絡(luò)(輸入層為5個節(jié)點,中間層為20個節(jié)點,輸出層為10個節(jié)點)可以達到很好的識別效果。
為測試CHMM/BPNN混合模型的實驗?zāi)芰Γ謩e對純凈語音和帶噪語音進行了實驗,3個子帶的實驗結(jié)果如表1所示,4個子帶的實驗結(jié)果如表2所示。本系統(tǒng)實現(xiàn)的三子帶模型和四子帶模型(CHMM/BPNN+Ei)同傳統(tǒng)的CHMM模型(CHMM)以及不加入幀平均能量Ei的CHMM/BPNN模型(CHMM/BPNN)進行了比較,得到的實驗結(jié)果如表3所示。

?


??? 從表1、表2、表3可以看出:
??? (1)4個子帶的識別效果不如3個子帶好。這是因為使用較多的子帶時,由于子帶劃分太細,每一個子帶攜帶的信息量太少,導致子帶的識別率下降,從而使融合的識別效果受到影響。
??? (2)語音信號的主要特征集中在低頻段,尤其是1000Hz以下,子帶1的識別率在幾個子帶中最高,子帶頻率段越高,識別能力越低,可分別從3個子帶和4個子帶的子帶1看出。
??? (3)傳統(tǒng)的CHMM模型對于非特定人、關(guān)鍵詞的純凈語音識別能力比較高,但在信噪比逐漸降低的時候,識別率明顯下降。
??? (4)CHMM/BPNN模型在純凈語音環(huán)境下,識別率不如CHMM模型,但是在噪聲背景下,其識別率由于子帶的影響也低于CHMM模型。不過實驗中也發(fā)現(xiàn),當噪聲或者失配比較低情況下,融合模型識別率可能低于CHMM模型。
??? (5)CHMM/BPNN+Ei模型優(yōu)缺點:在純凈語音環(huán)境下識別能力低于CHMM模型,但是優(yōu)于CHMM/BPNN模型;對噪聲的適應(yīng)能力更強,在噪聲環(huán)境下,識別率高于CHMM模型和CHMM/BPNN模型。因此總的來說本文提出的系統(tǒng)的性能還是很好的。
??? (6)沒有能量時,由于子帶影響和神經(jīng)網(wǎng)絡(luò)的訓練方式不同,會造成神經(jīng)網(wǎng)絡(luò)的識別率不如CHMM的情況。
????利用隱馬爾科夫模型優(yōu)異的動態(tài)時間序列建模能力及神經(jīng)網(wǎng)絡(luò)的模式分類能力,構(gòu)造了混合語音識別模型,同時引入了多子帶系統(tǒng),降低了系統(tǒng)的失配效應(yīng)和提高了語音識別的正確率。實驗表明,這種方法是有效的。
參考文獻
[1] ?YNOGUTI C A, MORAIS E da S. Violaro F. A comparison between HMM and hybrid ANN-HMM based?systems for continuous speech Recognition. Telecommunications Symposium,1998,(1):135-140.
[2]?BOURLARD H, DUPONT S. Subband-based speech?recognition.IEEE International Conference on Acoustics,Speech, and Signal Processing. 1997,(2):1251-1254.
[3] ?姚志強,戴蓓倩,李輝.基于多帶HMM和神經(jīng)網(wǎng)絡(luò)融合的語音識別方法的信道魯棒性.計算機工程與應(yīng)用,2004,(1):71-73.
[4]?ROSENBERG A, LEE C H, SOONG F. Cepstral channel normalization technique for HMM-based speaker?verification. Proceedings of the International Conference?on Spoken Language Processing, 1994.
[5] ?HERMANSKY H, MORGAN N. RASTA processing of?speech. IEEE Transactions on Speech and Audio Processing, 1994,2(4):578-589.
[6]?BOURLARD H, DUPONT S. A new ASR approach?based on independent processing and recombination of?partial frequency bands. Proceedings of the international?conference on Spoken Language Processing,1996,(1):
?426-429.
[7]?黃湘松,趙春暉,陳立偉.基于CDHMM/SOFMNN噪聲背景下的語音識別方法.應(yīng)用科技,2005,32(9):4-6.?

本站內(nèi)容除特別聲明的原創(chuàng)文章之外,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,并不代表本網(wǎng)站贊同其觀點。轉(zhuǎn)載的所有的文章、圖片、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無法一一聯(lián)系確認版權(quán)者。如涉及作品內(nèi)容、版權(quán)和其它問題,請及時通過電子郵件或電話通知我們,以便迅速采取適當措施,避免給雙方造成不必要的經(jīng)濟損失。聯(lián)系電話:010-82306118;郵箱:aet@chinaaet.com。