《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > 嵌入式技術(shù) > 設(shè)計應(yīng)用 > 基于指紋和聲紋的身份認(rèn)證技術(shù)研究
基于指紋和聲紋的身份認(rèn)證技術(shù)研究
2016年微型機(jī)與應(yīng)用第08期
王婧,彭亞雄,賀松,陳余
(貴州大學(xué) 大數(shù)據(jù)與信息工程學(xué)院,貴州 貴陽 550025)
摘要: 基于生物特征識別的身份認(rèn)證技術(shù)已經(jīng)應(yīng)用于多個領(lǐng)域,然而單一的生物特征有各自的優(yōu)缺點(diǎn),為了提高身份認(rèn)證的安全性和魯棒性,對多生物特征進(jìn)行融合便成為了身份認(rèn)證技術(shù)新的研究方向。將指紋識別和聲紋識別通過加權(quán)融合的方法在匹配層進(jìn)行融合,實(shí)驗(yàn)結(jié)果表明,融合系統(tǒng)的等錯誤率(EER)比指紋識別和聲紋識別提高了0.3%~0.4%,證明了融合系統(tǒng)識別率有所提高。
Abstract:
Key words :

  王婧,彭亞雄,賀松,陳余

 ?。ㄙF州大學(xué) 大數(shù)據(jù)與信息工程學(xué)院,貴州 貴陽 550025)

      摘要:基于生物特征識別的身份認(rèn)證技術(shù)已經(jīng)應(yīng)用于多個領(lǐng)域,然而單一的生物特征有各自的優(yōu)缺點(diǎn),為了提高身份認(rèn)證的安全性和魯棒性,對多生物特征進(jìn)行融合便成為了身份認(rèn)證技術(shù)新的研究方向。將指紋識別聲紋識別通過加權(quán)融合的方法在匹配層進(jìn)行融合,實(shí)驗(yàn)結(jié)果表明,融合系統(tǒng)的等錯誤率(EER)比指紋識別和聲紋識別提高了0.3%~0.4%,證明了融合系統(tǒng)識別率有所提高。

  關(guān)鍵詞:指紋識別;聲紋識別;融合;生物特征

0引言

  在當(dāng)今這個信息發(fā)展的時代,身份認(rèn)證技術(shù)是保障信息安全的重要技術(shù)之一。由于人體的生物特征有指紋、聲紋等,因此屬于身體特征的識別方式有:指紋識別[1]、手指靜脈識別[1]、人臉識別[2]、聲紋識別[3-4]等。之所以生物特征被廣泛地應(yīng)用于身份認(rèn)證,是因?yàn)檫@種認(rèn)證方式具有穩(wěn)定性、無須記憶等優(yōu)點(diǎn)。

  雖然生物特征識別技術(shù)有著眾多的優(yōu)點(diǎn),但是它在現(xiàn)實(shí)中的應(yīng)用并沒有想象中那么廣泛,而造成這種情況的原因有很多,如:利用指紋套復(fù)制指紋、說話人聲音的變化都會影響聲紋識別的效果。因此,將多種生物特征相結(jié)合既可以很好地彌補(bǔ)單一生物特征自身所帶來的缺陷,又可以提高身份認(rèn)證的識別率。

  本文研究說話人識別與指紋識別的融合方式,采用自適應(yīng)加權(quán)融合方法,在分別對說話人識別與指紋識別進(jìn)行研究之后,對自適應(yīng)加權(quán)融合系統(tǒng)的識別率進(jìn)行研究,經(jīng)過實(shí)驗(yàn)結(jié)果的比較,證明融合的識別效果要比單一生物特征的識別率好。

1基于指紋識別的身份認(rèn)證

  1.1指紋圖像建模

  使用指紋[5]來進(jìn)行身份認(rèn)證,建模時,系統(tǒng)對指紋圖片進(jìn)行特征提取,所提取的特征點(diǎn)為端點(diǎn)和分叉點(diǎn),并生成模板,而在特征提取前需要對圖片進(jìn)行預(yù)處理,通過確定的中心點(diǎn)的位置來確定分叉點(diǎn),最后得到的指紋特征用特征位置和方向來表示。指紋圖像所提取的特征點(diǎn)如圖1所示?!?/p>

001.jpg

  1.2指紋識別

  在識別階段,所用的匹配方法是基于特征點(diǎn)模式,利用指紋圖像的細(xì)節(jié)點(diǎn)坐標(biāo)模型來做細(xì)節(jié)匹配,該方法是利用端點(diǎn)和分叉點(diǎn)來進(jìn)行指紋識別,它是利用幾何關(guān)系來判定模板圖像與測試圖像的兩組特征點(diǎn)位置特性的相似度,并且采用打分的方式輸出匹配的結(jié)果。具體的匹配方法可參閱參考文獻(xiàn)[1]。

  1.3實(shí)驗(yàn)

  在進(jìn)行指紋識別的研究時,本次實(shí)驗(yàn)所用的數(shù)據(jù)是51個人的指紋數(shù)據(jù),每個人有不同的8張指紋圖片,為了實(shí)驗(yàn)方便,在實(shí)驗(yàn)的過程中均采用每個人的第一張圖片作為模板,剩余的7張圖片作為測試圖片,所得指紋識別系統(tǒng)的EER為0.367 8%。

2基于聲紋識別的身份認(rèn)證

  2.1聲紋識別系統(tǒng)

  聲紋識別又稱為說話人識別,其識別過程與指紋識別類似,首先需要對說話人語音進(jìn)行提取特征建模,然后再對測試語音提取特征并與模板進(jìn)行匹配,得到相應(yīng)的匹配結(jié)果。在本文中,聲紋識別所使用的模型為高斯混合模型通用背景模型(GMMUBM)[67]。所提取的特征是39維的MFCC(Mel頻率倒譜系數(shù))特征,其中包含13維的MFCC特征,并對每個特征向量進(jìn)行一階、二階的動態(tài)差分。

  2.2實(shí)驗(yàn)

  聲紋識別實(shí)驗(yàn)所使用的數(shù)據(jù)庫是清華大學(xué)語音和語言技術(shù)中心所錄制的數(shù)據(jù)庫,為了便于融合,所取人數(shù)與指紋實(shí)驗(yàn)人數(shù)相同,同為51人。與指紋識別不同的是,聲紋的訓(xùn)練語音為12條8位的數(shù)字串,且這12條語音合為一條語音來訓(xùn)練模型,訓(xùn)練語音為7條8位的數(shù)字串,所得聲紋識別系統(tǒng)的EER為0.476 7%。

3自適應(yīng)加權(quán)融合系統(tǒng)

  3.1融合框架

  本文中所稱的融合即數(shù)據(jù)融合,對應(yīng)于數(shù)據(jù)的抽象層次,可將數(shù)據(jù)融合分為4個層次:數(shù)據(jù)級融合、特征級融合、匹配級融合和決策級融合,在本文中將會在匹配級采用自適應(yīng)加權(quán)的融合算法。

  3.2加權(quán)融合算法

  匹配級融合有很多算法,但是較為簡單的方法是對子模塊的匹配值進(jìn)行加權(quán)融合。而對于融合子模塊匹配值的常用方法有兩種:加法融合和乘法融合。其中乘法融合不常用,這是因?yàn)楫?dāng)其中一個子模塊本身匹配值極大或者極小時,融合的最終結(jié)果都會受到該子模塊的影響。而對于加法融合,各個子模塊的匹配分?jǐn)?shù)之間沒有十分緊密的聯(lián)系,因此,即使某一個子模塊的匹配分?jǐn)?shù)出錯,也不會對整個融合的結(jié)果有太大的影響。

  3.3歸一化處理

  由于每一個子模塊的模型不同,因此所得的匹配分?jǐn)?shù)的形式也會有所不同,例如后驗(yàn)概率、距離度量等。本文中的指紋識別匹配分?jǐn)?shù)是利用幾何關(guān)系來判定模板圖像與測試圖像的兩組特征點(diǎn)位置特性的相似度,而聲紋識別的匹配分?jǐn)?shù)是求特征矢量序列X由說話人s產(chǎn)生的后驗(yàn)概率。顯然這兩種匹配值不可以直接用來當(dāng)作融合系統(tǒng)的輸入匹配值,在融合之前,需要對兩種匹配值進(jìn)行歸一化處理。

  常用的數(shù)據(jù)歸一化方法有MinMax方法、MediaMAD方法、ZScore方法等,對于眾多的方法,本文采用MinMax方法進(jìn)行數(shù)值歸一化處理。最大最小值歸一化方法是:將所需處理的數(shù)值全都轉(zhuǎn)化到[0,1]的區(qū)間。假設(shè)有N個匹配距離值{dn}n=1,2,…,N,計算公式為:

  d′n=dn-dmindmax-dmin,d∈[0,1](1)

  其中,dmax和dmin分別是{dn}n=1,2,…,N的最大值和最小值。

  3.4融合算法和權(quán)重的分配

  假設(shè)聲紋識別子系統(tǒng)和指紋識別子系統(tǒng)均有M個歸一化后的匹配值,分別記為:指紋子系統(tǒng){s(Ofinger|λi)}i=1,2,…,M和聲紋子系統(tǒng){s(Ospeaker|λi)}i=1,2,…,M ,根據(jù)加權(quán)的加法融合方法,融合后的匹配計算公式為:

  s(OfingerOspeaker|λi)=αs(Ospeaker|λi)+βs(Ofinger|λi),

  i=1,2,…,M(2)

  其中,α+β=1;s(OfingerOspeaker|λi)表示在輸入聲紋識別子系統(tǒng)和指紋識別子系統(tǒng)的歸一化匹配值后的聯(lián)合匹配分?jǐn)?shù),與單一子系統(tǒng)的匹配分?jǐn)?shù)相同,分?jǐn)?shù)值越高,表明測試體與模板越匹配,反之,則不匹配。

  為了得到一個穩(wěn)定且可靠的融合系統(tǒng),將指紋識別數(shù)據(jù)庫和聲紋識別數(shù)據(jù)庫的人數(shù)分為3組,分別為A組、B組、C組,將采取3組測試。第一組測試,取A組的數(shù)據(jù)來確定權(quán)值,融合權(quán)重的α值將從0取到1,其中以0.05的步長逐漸遞增,如此可得到21組融合后的數(shù)值,從這21組的數(shù)值中可找出EER最小的一組權(quán)值作為融合系統(tǒng)最優(yōu)的權(quán)重,并用這組權(quán)重值對B組和C組的數(shù)據(jù)進(jìn)行加權(quán)融合,得到EER1。依照相同的方法進(jìn)行其余兩組測試,且分別用B組、C組的數(shù)據(jù)確定權(quán)值,并得到相應(yīng)的EER2和EER3。比較3個EER值的大小,得到最小的EER值,而該值所對應(yīng)的權(quán)值即為整個融合系統(tǒng)最優(yōu)的權(quán)重,也是最終所采用的權(quán)重。

4實(shí)驗(yàn)

  4.1數(shù)據(jù)庫

  加權(quán)融合所使用的數(shù)據(jù)庫就是之前指紋識別與聲紋識別所使用的數(shù)據(jù)庫,兩方各51人,每個人都有8條數(shù)據(jù),且取第一條數(shù)據(jù)來訓(xùn)練模型,得到訓(xùn)練集;剩下的7條數(shù)據(jù)做測試,得到測試集。

  4.2實(shí)驗(yàn)結(jié)果及分析

002.jpg

  根據(jù)第3節(jié)所提到的方法得到的最優(yōu)權(quán)重,使用該權(quán)重對數(shù)據(jù)進(jìn)行融合,對于系統(tǒng)的性能,將會以EER的值來體現(xiàn),具體的實(shí)驗(yàn)結(jié)果如圖2所示。從圖2可以很明顯地看出,當(dāng)α的值從0到1以0.05的步長逐漸增長時,EER的值呈U形曲線變化;當(dāng)α的值為0.55時,EER的值達(dá)到最小,其值為0.013 11。換言之,此時的融合系統(tǒng)達(dá)到最好的狀態(tài),其識別率和穩(wěn)定性優(yōu)于取其他權(quán)重的時刻。較單一的指紋識別或是聲紋識別,加權(quán)融合的EER有了很大的提高,說明采用加權(quán)融合的方法將聲紋識別和指紋識別相結(jié)合是有利于系統(tǒng)性能的。

5結(jié)論

  無論是基于哪種生物特征識別的身份認(rèn)證技術(shù),它們都有各自的優(yōu)勢和劣勢,為了更好地提高身份認(rèn)證的安全性和識別率,可以從多個層次考慮多個生物特征識別的融合。本文在匹配層采用加權(quán)融合的算法對聲紋識別和指紋識別進(jìn)行融合,實(shí)驗(yàn)結(jié)果也證明了融合效果要好于單一的生物特征識別,同時也證明了融合的可行性。在今后的研究中,可以從其他層次對兩種識別進(jìn)行融合,以求得到更好的融合系統(tǒng)。

參考文獻(xiàn)

 ?。?] 李雪峰.基于指紋與手指靜脈的雙模態(tài)識別算法研究[D].哈爾濱:哈爾濱工程大學(xué),2010.

 ?。?] 陳倩.多生物特征融合身份識別研究[D].杭州:浙江大學(xué) 2007.

  [3] 熊振宇.大規(guī)模、開集、文本無關(guān)說話人辨認(rèn)研究[D].北京:清華大學(xué),2005.

 ?。?] 陶佰睿,郭琴,李春輝,等.聲紋認(rèn)證前端音頻預(yù)處理SOPC設(shè)計[J].電子技術(shù)應(yīng)用,2014,40(9):2426.

 ?。?] 曾杰,吳曉紅,吳小強(qiáng),等.基于QT/E和指紋識別模塊的巖屑圖像采集系統(tǒng)的設(shè)計[J].微型機(jī)與應(yīng)用,2014,33(24):3841.

 ?。?] KENNY P. Bayesian speaker verification with heavy tailed priors[C]. Speaker and Language Recognition Workshop (IEEE Odyssey), 2010.

  [7] GHARAMANI Z, HINTON G E. The EM algorithm for mixtures of factor analyzers[R]. Technical Report CRGTR961, Department of Computer Science, University of Toronto, 1996.5.


此內(nèi)容為AET網(wǎng)站原創(chuàng),未經(jīng)授權(quán)禁止轉(zhuǎn)載。