《電子技術(shù)應(yīng)用》
您所在的位置:首頁(yè) > 嵌入式技術(shù) > 設(shè)計(jì)應(yīng)用 > 基于深度學(xué)習(xí)的人臉活體檢測(cè)算法
基于深度學(xué)習(xí)的人臉活體檢測(cè)算法
2019年電子技術(shù)應(yīng)用第8期
黃海新,張 東
沈陽(yáng)理工大學(xué) 自動(dòng)化與電器工程學(xué)院,遼寧 沈陽(yáng)110159
摘要: 身份認(rèn)證技術(shù)有了很大的發(fā)展,隨之不斷出現(xiàn)的是各種偽造合法用戶信息的欺詐手段。針對(duì)這一問(wèn)題,提出一種基于深度學(xué)習(xí)人臉活體檢測(cè)算法,分析了真實(shí)人臉和欺詐人臉之間的區(qū)別,將真實(shí)人臉和照片進(jìn)行數(shù)據(jù)去中心化、zca白化去噪聲、隨機(jī)旋轉(zhuǎn)等處理;同時(shí),利用卷積神經(jīng)網(wǎng)絡(luò)對(duì)照片的面部特征進(jìn)行提取,提取出來(lái)的特征送入神經(jīng)網(wǎng)絡(luò)訓(xùn)練、分類(lèi)。算法在公開(kāi)的數(shù)據(jù)庫(kù)NUAA上進(jìn)行了驗(yàn)證,實(shí)驗(yàn)結(jié)果表明該方法降低了計(jì)算的復(fù)雜度,提高了識(shí)別準(zhǔn)確率。
中圖分類(lèi)號(hào): TP183
文獻(xiàn)標(biāo)識(shí)碼: A
DOI:10.16157/j.issn.0258-7998.190041
中文引用格式: 黃海新,張東. 基于深度學(xué)習(xí)的人臉活體檢測(cè)算法[J].電子技術(shù)應(yīng)用,2019,45(8):44-47.
英文引用格式: Huang Haixin,Zhang Dong. Face liveness detection algorithm based on deep learning[J]. Application of Electronic Technique,2019,45(8):44-47.
Face liveness detection algorithm based on deep learning
Huang Haixin,Zhang Dong
School of Automation and Electrical Engineering,Shenyang Ligong University,Shenyang 110159,China
Abstract: Identity authentication technology has developed greatly, and there have been various fraudulent means of forging legitimate user information. Aiming at this problem, this paper proposes a deep learning face detection algorithm to analyze the difference between real face and fraud face, decentralize the real face and photo, zca whiten to noise, random rotation and other processing. At the same time, using the convolutional neural network to extract the facial features of the photos, the extracted features are sent to the neural network for training and classification. And the algorithm is verified on the public database NUAA. The experimental results show that the party reduces the calculation complexity and increases the recognition accuracy.
Key words : liveness detection;identity authentication;deep learning;face

0 引言

    隨著時(shí)間的推移,生物特征識(shí)別技術(shù)在不斷地發(fā)展,并且已經(jīng)廣泛使用到諸如指紋識(shí)別和虹膜識(shí)別的身份認(rèn)證技術(shù)等領(lǐng)域。其中,人的面部都有很大的差異,具有不容易丟失、不容易竊取、對(duì)用戶友好等廣泛優(yōu)點(diǎn),容易被大眾所接受。人臉識(shí)別技術(shù)應(yīng)用較廣泛,很好地幫助了人們的生活和工作,如:案件偵破、上班打卡。但是人臉識(shí)別系統(tǒng)仍然容易受到攻擊,由于社交媒體的普及,面部圖像和視頻很容易獲得[1],例如演示攻擊可以記錄一個(gè)人的面部信息,在屏幕上重放,甚至通過(guò)3D人臉[2]或者VR[3]偽造來(lái)記錄人的面部信息,這帶來(lái)了極具挑戰(zhàn)性的安全問(wèn)題。身份信息真實(shí)性的驗(yàn)證十分重要,因此活體檢測(cè)技術(shù)也是研究的重中之重?;铙w檢測(cè)是一種防止欺騙手段欺騙攝像頭的技術(shù),是捕獲人的特征信息來(lái)判斷信息的來(lái)源是不是來(lái)自真實(shí)活體上。隨著生物識(shí)別技術(shù)不斷的發(fā)展,在工作和生活中活體檢測(cè)被重視程度也逐漸增加,這一領(lǐng)域的研究成果也取得了很大的進(jìn)步,更多的研究人員致力于活體檢測(cè)。

    現(xiàn)實(shí)的生活場(chǎng)景中,身份信息欺詐方式主要有3種:

    (1)人臉照片:在生活中獲取一個(gè)人的圖片是很便捷的,在微信和微博等社交媒體便可獲得。欺騙的手段就是利用照片以模仿成人臉部的3D效果。

    (2)人臉視頻:面部視頻能充分地模仿人臉,是最具欺詐性的,因?yàn)楦咔鍞z像頭拍攝的視頻會(huì)清晰完整記錄人臉的面部信息,最重要的是視頻將包含面部動(dòng)作、面部表情和眨眼等功能,能很好地模仿真實(shí)人臉。

    (3)面部三維模型欺騙:通過(guò)對(duì)人臉的三維建模,可以模仿人臉的運(yùn)動(dòng)特征,頭部的基本運(yùn)動(dòng)、講話、眨眼睛等動(dòng)作都可以很好地模仿出來(lái)。因此,人臉照片和人臉視頻是主要的欺騙手段。

    國(guó)內(nèi)外研究成果有很多,國(guó)內(nèi)外學(xué)者也慢慢注意到活體檢測(cè)這一領(lǐng)域,在這個(gè)領(lǐng)域的研究也是投入了大量的精力,國(guó)內(nèi)和國(guó)際期刊和國(guó)際會(huì)議上涉及的生物識(shí)別論文數(shù)量也在增加,并且提出了許多算法。如今,區(qū)分活體人臉檢測(cè)的方法有:

    (1)基于面部運(yùn)動(dòng)信息:對(duì)于靜態(tài)人臉圖片,人臉的面部照片是二維結(jié)構(gòu),真實(shí)人臉的面部是三維結(jié)構(gòu),本質(zhì)上有著很大的區(qū)別,運(yùn)動(dòng)信息也是有著天差地別。CHOUDHARY T[4]等人根據(jù)人臉的運(yùn)動(dòng)信息區(qū)別做了活體檢測(cè)實(shí)驗(yàn),首先,檢測(cè)面部器官(眼睛、鼻子、嘴等)作為檢測(cè)的特征點(diǎn),然后,基于運(yùn)動(dòng)的面部估算出這些特征點(diǎn)的三維坐標(biāo),真實(shí)人臉的結(jié)構(gòu)是3D結(jié)構(gòu),欺騙人臉是2D結(jié)構(gòu)。

    (2)基于紋理信息分析:研究人員根據(jù)真實(shí)人臉的虛擬成像形成了虛假人臉這一線索,對(duì)區(qū)分照片的紋理性差異這一方向展開(kāi)了研究。TAN T[5]區(qū)分活體人臉和虛假人臉的方法是基于傅里葉頻譜。ANJOS A[6]、MAATTA J[7]等人對(duì)LBP對(duì)面部特征提取的有效性進(jìn)行了分析;MAATTA J通過(guò)應(yīng)用LBP提取和使用SVM進(jìn)行分類(lèi)訓(xùn)練來(lái)提取面部特征。2012年MAATTA J等人提出了改進(jìn)算法,將LBP、Gabor wavelet和HOG 3種特征進(jìn)行融合。這3種方式需要計(jì)算空間較大,提取特征較多,增加了計(jì)算難度。

    (3)基于多模態(tài)特征分析:通過(guò)人臉照片實(shí)現(xiàn)活體檢測(cè),欺騙手段種類(lèi)較多且復(fù)雜,具有很大威脅性,隱患較大,如果結(jié)合多模態(tài)特征,如:眼睛、鼻子、耳朵、語(yǔ)音、指紋或虹膜等,活體檢測(cè)的準(zhǔn)確率也會(huì)隨之增加。PAN G[8]等人結(jié)合人的面部動(dòng)作眨眼和現(xiàn)實(shí)場(chǎng)景線索進(jìn)行判別。為增加人臉活體判別的準(zhǔn)確率,各種方法層出不窮,研究人員提出將虹膜和人臉相結(jié)合、人臉結(jié)合語(yǔ)音等多種結(jié)合方式的檢測(cè)方法,雖然這種方法可以提高識(shí)別精度,但對(duì)設(shè)備要求較高,成本較高。

    本文提出的基于深度學(xué)習(xí)的活體檢測(cè)方法對(duì)活體人臉照片進(jìn)行預(yù)處理,人臉照片的特征提取應(yīng)用的是卷積神經(jīng)網(wǎng)絡(luò),并且將這些特征進(jìn)行訓(xùn)練,然后經(jīng)過(guò)Sofmax分類(lèi)器進(jìn)行真假判別,并在公開(kāi)的數(shù)據(jù)集上進(jìn)行驗(yàn)證。該方法無(wú)需用戶的主動(dòng)配合,訓(xùn)練過(guò)程簡(jiǎn)單,驗(yàn)證準(zhǔn)確率高,降低了算法的難度。

1 基于深度學(xué)習(xí)的活體檢測(cè)方案

    對(duì)于真實(shí)人臉和人臉成像,肉眼很難分辨出來(lái),如圖1所示。事實(shí)上活體人臉是一個(gè)很復(fù)雜的三維結(jié)構(gòu),每個(gè)角度的面部光的反射都是不同的,因此會(huì)產(chǎn)生不同的反射和陰影;真實(shí)的人臉是三維結(jié)構(gòu),照片人臉是平面結(jié)構(gòu),因此面部特征有明顯的不同;因?yàn)槊總€(gè)像素點(diǎn)會(huì)有不同,經(jīng)過(guò)卷積神經(jīng)網(wǎng)絡(luò)提取的特征會(huì)有很大的差異性,這一差異可以用來(lái)判別是真實(shí)人臉還是照片人臉。因此本文提出基于深度學(xué)習(xí)的活體檢測(cè)方法來(lái)解決人臉活體照片判別這一問(wèn)題。

rgzn3-t1.gif

    首先,對(duì)數(shù)據(jù)集進(jìn)行分類(lèi)。一種是真實(shí)的人臉,另一種是照片人臉。在Keras深度學(xué)習(xí)框架之下,使用Tensor-Flow作為后端,采用Python語(yǔ)言編程對(duì)真實(shí)人臉和照片人臉這兩類(lèi)圖片進(jìn)行切割,切割成RGB格式的圖片,大小為64×64,并將數(shù)據(jù)集劃分為驗(yàn)證集、訓(xùn)練集、測(cè)試集?;谏疃葘W(xué)習(xí)的人臉活體檢測(cè)算法流程圖如圖2所示。

rgzn3-t2.gif

    將訓(xùn)練集樣本進(jìn)行預(yù)處理,將訓(xùn)練集圖片進(jìn)行隨機(jī)的水平旋轉(zhuǎn),調(diào)整圖片水平旋轉(zhuǎn)的偏移幅度,使圖片的數(shù)目和種類(lèi)增多,達(dá)到對(duì)數(shù)據(jù)增強(qiáng)的效果,能更好地提取人臉圖片的特征。

2 CNN卷積神經(jīng)網(wǎng)絡(luò)

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,CNN)屬于前饋網(wǎng)絡(luò),能從二維結(jié)構(gòu)的圖片中提取面部特征,反向傳播算法用于優(yōu)化網(wǎng)絡(luò)結(jié)構(gòu)并解決網(wǎng)絡(luò)中的未知參數(shù)。卷積神經(jīng)網(wǎng)絡(luò)的基本結(jié)構(gòu)包括輸入層(Inputlayer)、卷積層(Convolytional layer)、最大池化層(Pooling layer)以及全連接層(Dense layer)。CNN通常應(yīng)用到圖像處理,本文所用的卷積神經(jīng)網(wǎng)絡(luò)模型如圖3所示。該模型由4個(gè)卷積層、2個(gè)抽樣層(池化層)、1個(gè)全連接層組成。

rgzn3-t3.gif

2.1 卷積層

    卷積層是進(jìn)行平滑卷積,由一個(gè)可調(diào)參數(shù)的卷積核和上一層的卷積之后得到的特征圖進(jìn)行平滑計(jì)算,加上偏置項(xiàng)得到一個(gè)輸出,然后用激活函數(shù)進(jìn)行激活得到最終的卷積輸出結(jié)果,對(duì)整張圖片的卷積計(jì)算輸出新的特征圖[9],如式(1)~式(2)所示:

rgzn3-gs1-2.gif

2.2 抽樣層

    將圖像送入卷積神經(jīng)網(wǎng)絡(luò)之后,神經(jīng)網(wǎng)絡(luò)會(huì)將照片的特征進(jìn)行提取,這些特征是具有很多信息的,由神經(jīng)網(wǎng)絡(luò)提取的特征用于分類(lèi)。提取的特征可以用分類(lèi)器訓(xùn)練,但通常產(chǎn)生大量的計(jì)算。因此,在卷積之后,最大合并方法用于降維操作。這些特征區(qū)域被劃分為n×n個(gè)小塊,并且這些小區(qū)域的最大值被用作卷積特征,并且這些特征在維數(shù)減少操作之后更容易分類(lèi)。輸出函數(shù)和最大值法、均值法如式(3)~式(5)所示:

rgzn3-gs3-5.gif

2.3 全連接層

    全連接層:使用Softmax完全連接,獲得的激活函數(shù)值是由卷積神經(jīng)網(wǎng)絡(luò)提取的圖像特征。應(yīng)用較多的分類(lèi)方法如式(6)所示:

rgzn3-gs6.gif

3 實(shí)驗(yàn)結(jié)果

    對(duì)本文中的算法進(jìn)行測(cè)試,應(yīng)用的是南京大學(xué)公開(kāi)的數(shù)據(jù)集NUAA[10],該公開(kāi)的數(shù)據(jù)集在人臉活體檢測(cè)領(lǐng)域應(yīng)用較廣,測(cè)試文本中的算法對(duì)于真實(shí)面部和虛假面部之間的區(qū)分是有效的。數(shù)據(jù)庫(kù)中有正反兩種圖片實(shí)例,正例是由高清攝像頭采集的15個(gè)人真人人臉圖像,反例是對(duì)這15個(gè)人的照片在攝像頭前進(jìn)行拍攝的。反例樣本由兩種方式拍攝:一種是使用傳統(tǒng)方法將它們印刷在相紙上,其普通尺寸分別為6.8 cm×10.2 cm(小)和8.9 cm×12.7 cm(較大);另一種使用普通的彩色HP打印機(jī)在70 g A4紙上打印每張照片。數(shù)據(jù)集中的所有照片經(jīng)過(guò)人眼定位處理,使得圖片的大小一樣。15人正例樣本為5 708張照片,反例樣本為6 906張照片。正反樣例共計(jì)12 614張照片。從12 614張照片中隨機(jī)選取6 000張照片作為訓(xùn)練集,使用3 000張照片作為測(cè)試集,并使用3 000張照片作為驗(yàn)證集。訓(xùn)練集、測(cè)試集、驗(yàn)證集的圖片都是隨機(jī)選取的,里面包含正例和反例,這樣訓(xùn)練起來(lái)樣本特征具有多樣性,對(duì)特征的提取更有利,并且能夠提高識(shí)別的準(zhǔn)確率。將訓(xùn)練集和測(cè)試集進(jìn)行數(shù)據(jù)分配,如表1所示。

rgzn3-b1.gif

    對(duì)于算法的有效性測(cè)試,本文將結(jié)果和傳統(tǒng)的算法LBP和GLCM應(yīng)用SVM進(jìn)行分類(lèi)的算法進(jìn)行比較,另外還與GLCM加上小波分析的改進(jìn)算法進(jìn)行比較,如表2所示。表中TP是真實(shí)人臉檢測(cè)的準(zhǔn)確率,TN代表虛假人臉檢測(cè)正確率。

rgzn3-b2.gif

    根據(jù)表2模型預(yù)測(cè)結(jié)果可知,CNN模型在NUAA數(shù)據(jù)集上對(duì)真實(shí)人臉的識(shí)別準(zhǔn)確率達(dá)到了98.90%,識(shí)別率最高。GLCM準(zhǔn)確率相比基于LBP特征由93.87%上升到94.27%,GLCM及小波特征準(zhǔn)確率相比GLCM由94.27%上升到96.97%。CNN準(zhǔn)確率相比GLCM及小波特征由96.97%上升到98.90%。

    結(jié)合圖4和圖5可知,基于CNN模型在NUAA數(shù)據(jù)集上可以準(zhǔn)確識(shí)別出真實(shí)人臉和假冒人臉。由圖4模型損失可知,訓(xùn)練損失下降,測(cè)試損失下降,證明訓(xùn)練過(guò)程沒(méi)有過(guò)擬合。根據(jù)圖5所示,模型的訓(xùn)練準(zhǔn)確率和測(cè)試準(zhǔn)確率都很高,這表明本文的算法在NUAA數(shù)據(jù)集上有很好的識(shí)別率和穩(wěn)定性。

rgzn3-t4.gif

rgzn3-t5.gif

4 結(jié)論

    本文結(jié)合深度學(xué)習(xí)對(duì)活體人臉的識(shí)別提出基于深度學(xué)習(xí)的人臉活體檢測(cè)方法,該方法很好地提取人臉特征,提高了識(shí)別的準(zhǔn)確性。在實(shí)際應(yīng)用中考慮到有更多的干擾因素,例如:拍攝光照、面部表情、相機(jī)像素等,這將是后續(xù)研究的重點(diǎn)。

參考文獻(xiàn)

[1] MARCEL S,NIXON M S,LI S Z.Handbook of biometric anti-spoofing[M].Springer,2014.

[2] MANJANI I,TARIYAL S,VATSA M,et al.Detecting silicone mask-based presentation attack via deep dictionary learning[J].IEEE Transactions on Information Forensics and Security,2017,12(7):1713-1723.

[3] XU Y,PRICE T,F(xiàn)RAHM M.Virtual U:defeating face live-ness detection by building virtual models from your public photos[C].Usenix Security Symposium,2016:497-512.

[4] CHOUDHURY T,CLARKSON B,JEBARA T,et al.Multimodal person recognition using unconstrained audio and video[C].AVBPA 99,Washington DC,1999:176-181.

[5] LI J,WANG Y,TAN T,et al.Live face detection based on the analysis of Fourier spectra[C].Biometric Technology for Human Identification.International Society for Optics and Photonics,2004.

[6] CHINGOVSKA I,ANJOS A,MARCEL S.On the effectiveness of local binary patterns in face anti-spoofing[C].Biometrics Special Interest Group,2012.

[7] MAATTA J,HADID A,PIETIKAINEN M.Face spoofing detection from single images using micro-texture analysis[C].International Joint Conference on Biometrics.IEEE,2011.

[8] PAN G,SUN L,WU Z,et al.Eyeblink-based anti-spoofing in face recognition from a generic webcamera[C].IEEE 11th International Conference on Computer Vision(ICCV),2007:1-7.

[9] 黃睿,陸許明,鄔依林.基于TensorFlow深度學(xué)習(xí)手寫(xiě)體數(shù)字識(shí)別及應(yīng)用[J].電子技術(shù)應(yīng)用,2018,44(10):6-10.

[10] TAN X,LI Y,LIU J,et al.Face liveness detection from a single image with sparse low rank bilinear discriminative model[C].European Conference on Computer Vision.Springer,Berlin,Heidelberg,2010.



作者信息:

黃海新,張  東

(沈陽(yáng)理工大學(xué) 自動(dòng)化與電器工程學(xué)院,遼寧 沈陽(yáng)110159)

此內(nèi)容為AET網(wǎng)站原創(chuàng),未經(jīng)授權(quán)禁止轉(zhuǎn)載。