摘 要: 在分析Gabor小波的基礎(chǔ)上,提出了一種變采樣率Gabor小波的方法,與傳統(tǒng)的Gabor小波相比,其識別效果得到大幅提高。該方法采用Curvelet、Log-Gabor小波和Contourlet三種方法結(jié)合主分量分析應(yīng)用于人臉識別。對比實驗結(jié)果表明,針對表情變化,Curvelet變換不僅識別性能最佳、速度也最快;而針對光照變化,Contourlet綜合性能最好,對光照變化具有較強的魯棒性。綜合而言,使用Contourlet變換對圖像進行特征提取效果非常好,它能很好地表達人臉的主要信息,是對人臉圖像的一種稀疏的、有效的表達。
關(guān)鍵詞: 多尺度幾何分析;Curvelet變換;Gabor小波;Log-Gabor小波;Contourlet變換;主分量分析
人臉圖像易受到光照、表情、姿態(tài)以及背景等條件的影響,而且其本身也是一個復(fù)雜的特征空間,若直接使用原始的人臉圖像進行識別,所取得的識別效果將受到限制。現(xiàn)在的一種常用做法是,對原始的人臉圖像作某種變換,使得人臉圖像從一個特征空間變換到另一個特征空間,以獲得更好的識別效果。雖然小波變換因其具有強大的時頻局域化性能而應(yīng)用于人臉識別研究領(lǐng)域,但由于人臉圖像更多的是面部輪廓和五官的曲線信息,而小波變換只能反映“點”的奇異性,難以表達圖像邊緣的方向特性,不能充分利用數(shù)據(jù)本身特有的幾何特征,因此并不是最優(yōu)的或者說“最稀疏”的函數(shù)表示方法。為了克服小波變換的不足,人們提出了基于小波變換技術(shù)基礎(chǔ)上的系列變換,如Curvelet、Ridgelet、Contourlet等,統(tǒng)稱為多尺度幾何分析方法。多尺度幾何分析發(fā)展的目的和動力正是要致力于發(fā)展一種新的高維函數(shù)的最優(yōu)表示方法。本文所采用的Curvelet、Gabor小波、Log-Gabor小波和Contourlet變換,由于考慮了尺度、方向、角度等信息,而使得其在表達圖像中的曲線時優(yōu)于小波變換。事實上,在近二十年的人臉識別研究中,針對小波方法已有大量研究,重點圍繞在小波基的選取、與子空間的結(jié)合以及在光照、姿態(tài)、表情影響下小波頻帶的選擇等問題,此類工作已由戴道清給出了完整的綜述[1-2]。但對于基于Gabor小波[3]、Log-Gabor小波[4]以及多尺度幾何分析工具(如Curvelet[5-8]、Contourlet[9-10]等)方法的人臉識別尚未有全面的比較和研究。本文以此為出發(fā)點,對這幾種多尺度分析工具在人臉識別中的應(yīng)用進行了比較研究。
式中,ω0為濾波器的中心頻率,β為濾波器帶寬。為了保證濾波器的形狀恒定,對于不同的中心頻率ω0,β/ω0必須保持不變。例如,當β/ω0為0.74時,大致相當子濾波器為1倍頻的帶寬;為0.55時,相當于2倍頻;為0.41時,相當于3倍頻。
3 Curvelet小波
傳統(tǒng)的小波變換只能反映“過”邊緣特性,而且小波的變換核是各向同性的,無法更精確地表達圖像邊緣的方向特性。因此,Donoho等人提出了曲波(Curvelet)變換。Curvelet變換直接以邊緣為基本表示元素,具有很強的方向性,非常有利于圖像邊緣的高效表示,它是一種多分辨、帶通、具有方向性的函數(shù)分析方法,符合生理學(xué)研究指出的“最優(yōu)”圖像表示方法應(yīng)該具有的三種特征。
Curvelet變換是改進型的分塊方法,即首先對圖像進行子帶分解,然后將不同尺度的子帶圖像分成大小不同的子塊,分別對每個子塊進行脊波變換(脊波變換是曲波變換的核心)。Curvelet變換的一個最核心的關(guān)系是Curvelet基的支撐區(qū)間有:widthα~length2。稱這個關(guān)系為各向異性尺度關(guān)系,這一關(guān)系表明Curvelet是一種具有方向性的基原子。2005年CANDES E J和DONOHO D L等人提出了兩種基于第二代Curvelet變換理論的快速離散實現(xiàn)方法[11],本文采用的是其中的一種USFFT算法。
4 Contourlet變換
Contourlet變換是在繼承小波變換多尺度分析思想基礎(chǔ)上,引入多方向性并由DO M N[12]和Martin Vellerli提出,是一種具有多分辨、局部、多方向的圖像表示方法,一種“真正”的圖像二維表示方法。變換的最終結(jié)果是使用類似于輪廓(Contour Segment)的基結(jié)構(gòu)來逼近原圖像,這也是Contourlet名字的由來。其基函數(shù)支撐區(qū)間的長度比隨尺度變換而變換,表現(xiàn)為“長方形”,已達到用最少的系數(shù)來逼近奇異曲線,能以接近最優(yōu)的方式描繪圖像邊緣。基的“長方形”實際上是“方向”性的一種體現(xiàn),也稱這種基具有“各項異性”。
Contourlet變換分解過程是將多尺度分解和方向分解分開進行,如圖1所示。在實現(xiàn)上采用了塔形方向性濾波器組(PDFB),PDFB具有雙疊代濾波器結(jié)構(gòu),將不同尺度的圖像分解成方向子帶。首先由LP(Laplacian Pyramid)變換對圖像進行多尺度分解以“捕獲”點奇異,分解得到一個近似信號(低頻子帶)和細節(jié)信號(高頻子帶),接著將細節(jié)圖像進一步送入方向濾波器組DFB (Directional Filter Bank),將分布在同方向上的奇異點合成為一個系數(shù),得到各方向子帶信號,近似信號如此重復(fù)上一級操作,從而實現(xiàn)對圖像多尺度多方向分解。
5 人臉庫
本文應(yīng)用Yale和CAS-PEAL人臉庫。Yale人臉庫為眾多研究者所熟知,多次應(yīng)用在人臉識別研究中,本文重點介紹如圖2所示的CAS-PEAL人臉數(shù)據(jù)庫。
該數(shù)據(jù)庫由中國科學(xué)院計算技術(shù)研究所-銀晨科技面像識別聯(lián)合實驗室負責建立,收集并整理了1 040位志愿者的99 450幅頭肩部圖像,圖像尺寸均為360×480。所有圖像在專門的采集環(huán)境下采集,涵蓋了姿態(tài)(Pose)、表情(Expression)、飾物(Accessory)和光照 (Lighting)四種主要變化(簡稱PEAL),部分人臉圖像具有背景、距離和時間跨度的變化。圖2(a)為部分Expression子庫圖像,環(huán)境光照模式下,要求志愿者做出笑、皺眉、驚訝、閉眼、張嘴五種表情,這五種都是造成面部特征變化比較大的表情,有利于研究識別算法對表情變化的魯棒性。圖2(b)為部分Lighting子庫圖像,采集光照子庫圖片時,環(huán)境光源關(guān)閉,每次打開一個方向光源進行圖片采集,9個攝像頭都同時工作,每人采集9幅不同角度的面部圖像。
6 實驗結(jié)果及分析
實驗過程:本實驗先選取標準人臉庫中的圖像并讀入,接著使用各種多尺度變換得到人臉圖像的系數(shù)。為了進一步降低維數(shù),本文結(jié)合主分量分析PCA(Principal Component Analysis)進行特征提取,得到更有意義的特征,然后使用最近鄰分類器進行匹配識別,最終得出識別率。
6.1 實驗一
采用各種方法結(jié)合PCA在Yale人臉庫上進行實驗。考慮到算法泛化能力(也稱推廣能力)的問題,嚴格地講,訓(xùn)練集合中的圖像與測試集合的圖像物應(yīng)該是不能有重疊的,因此選取Yale人臉庫上每人的6幅圖像作為樣本集,5幅作為測試集,順序循環(huán),共11組。實驗結(jié)果如表1所示。
在實驗中,將本文提出的變采樣率Gabor小波與Gabor恒采樣率進行了對比。首先,對用Gabor小波分解獲得的不同尺度特征后的數(shù)據(jù),采取變采樣率抽取其有用特征。實驗發(fā)現(xiàn),采用變采樣率比用恒采樣率取得更高的識別率,但其高識別率是以識別速度為代價的。在Yale人臉庫中,采用Gabor恒采樣率方法時,樣本集和庫內(nèi)測試集中,第4號和第7號對數(shù)據(jù)影響較明顯,分析Yale人臉數(shù)據(jù)庫后發(fā)現(xiàn),第4號和第7號人臉半邊臉有陰影,在進行特征提取后發(fā)現(xiàn)是因數(shù)據(jù)相差較明顯造成的。其次,采用Log-gabor、Curvelet、Contourlet方法依然結(jié)合PCA在Yale人臉庫上進行實驗,在實驗中,觀察到數(shù)據(jù)變換不明顯,說明這些方法對陰影圖像有較好的處理,且這三種方法中,Contourlet變換的識別效果最好。
6.2 實驗二
采用各種方法結(jié)合PCA在CAS-PEAL人臉庫上進行實驗。在Expression子庫中隨機選取60人(男女各一半),每人5幅,共300幅圖像,選取每個人的3幅圖像作為樣本集,2幅作為測試集。在Lighting子庫中隨機選取50人(男女各25人),每人9幅,共450幅圖像,選取每個人的5幅圖像作為樣本集,4幅作為測試集。其實驗結(jié)果分別如表2、表3所示。
在對CAS-PEAL人臉庫表情變化較大的Expression子庫實驗中,發(fā)現(xiàn)利用Log-gabor、Contourlet、Curvelet方法結(jié)合PCA對人臉圖像的識別率最高都達到了98.333 3%,其中Curvelet表現(xiàn)較為突出。在對光照變化較大的Lighting子庫中,由于光照差別大導(dǎo)致面部圖像的曲線發(fā)生了較大變化,從表3可以看出,采用Gabor小波恒采樣率方法時識別率明顯偏低,說明本方法對于光照變化比較敏感,而Contourlet變換的識別率最高(最高達到了100%),最低識別率也達到了95%,說明該方法對光照有較好的處理。Log-gabor和Gabor wavelet變采樣率也表現(xiàn)出了較好的特性,說明這幾種方法對光照的魯棒性都比較好。
而不論在光照變化較大的Lighting子庫還是在表情變化較大的Expression子庫中,采用Gabor變采樣率依然比用恒采樣率取得更高的識別率。
實驗表明:(1)在算法運行速度方向,Curvelet變換最快,Gabor恒變換、Contourlet其次,而Gabor變采樣率最慢。綜上可知,在表情條件影響下,Curvelet變換表現(xiàn)最為突出,這一點不只表現(xiàn)在識別率上,也體現(xiàn)在識別速度上;而在光照條件影響下,Contourlet綜合性能最好,它對光照變化具有較強的魯棒性;(2)從比較實驗的整體方面,使用Contourlet變換對圖像進行特征提取效果非常好,能很好地表達人臉的主要信息,是對人臉圖像的一種稀疏、有效的表達。然而,基于小波的人臉識別算法還有很多有待改進的地方,如具體的方向性特征系數(shù)選擇對識別率的影響以及結(jié)合更有效的降維方法來進一步提高識別率和運算速度等方面還有待改進。
參考文獻
[1] Dai Daoqing, YUEN P C. Wavelet based discrim inant analysis for face recognition[J]. Applied Mathematics and Computation, 2006, 175(1):307-318.
[2] Dai Daoqing, Yan Hong. Face recognition[M]. Vienna,Austria: INTech Education and Publishing, 2007.
[3] 趙英男,孟凡斌,金忠.Gabor核函數(shù)窗的設(shè)置研究[J].計算機科學(xué),2009.36(1):111-113.
[4] FISCHER S. Self-invertible 2D Log-Gabor wavelets[J]. International Journal of Computer Vision, 2007, 75(2): 231-246.
[5] CANDES E J, DONOHO D L. New tight frames of Curvelets and optimal representations of objects with c2 Singularities. http://www.acm.caltech.edu/~emmanuel/papers/CurveE, 2002.
[6] CANDES E J, DONOHO D L. Curvelets-a surprisingly effecfive non-adaptive representation for objects with edges[M]. In: Curves and Surfaces Nashville, TN:Vanderbilt Unit. Press, 2000:105-120.
[7] Zhang Jiulong, Zhang Zhiyu, Huang Wei, et al. Face recognition based on curvefaces[C]. Natural Computation, HAIKOU, 2007.
[8] 張九龍,張志禹,屈小娥,等.基于曲波與主分量分析的人臉識別[J].計算機應(yīng)用,2008,28(5):1255-1257.
[9] 夏思宇,李久賢,袁曉輝,等.一種基于Contourlet變換的人臉識別方法[J].信號處理,2008,24(4):631-634.
[10] 林立宇.Contourlet變換影像處理應(yīng)用[M].北京:科學(xué)出版社,2008.
[11] CANDES E J, DEMANE T L, DONOHO D L. Fast discrete Curvelet transform[R]. Applied and Computational Mathermatics. California Institute of Technology, 2005:1-43.
[12] DO M N, VETTERLI M. Contourlet-A directional multieolution image representation[C]. Prospect. of IEEE International Conference on Image Processing. Rochester, NY 2002:357-360.