《電子技術應用》
您所在的位置:首頁 > 其他 > 業(yè)界動態(tài) > 一種復雜背景下的快速人臉檢測算法

一種復雜背景下的快速人臉檢測算法

2008-03-13
作者:王金庭1,王 虹1,楊 敏2

  摘 要: 提出了一個由粗到細的多階段人臉" title="人臉">人臉檢測算法,介紹了檢測工作的三個部分:膚色區(qū)域分割預處理、應用人臉基本特征檢測和定位的人臉細檢、平均臉模板匹配的人臉驗證。實驗證明該算法能有效檢測出復雜環(huán)境中的人臉。該算法對于人臉的平移、縮放、適度旋轉都能很好地適應。
  關鍵詞: 人臉檢測" title="人臉檢測">人臉檢測 彩色空間? 膚色模型" title="膚色模型">膚色模型? 圖像分割? 模板匹配

?

  人臉檢測是指在輸入圖像中確定人臉(如果存在)的位置、大小等信息。
  在人臉檢測定位方面,以前已經(jīng)有人提出了一些解決方案。但在定位方法的簡便性、算法的穩(wěn)定性、定位結果的準確性以及適用條件等方面依然存在局限。例如參考文獻[1]提出的人臉檢測算法,雖然可以在復雜背景下實現(xiàn)人臉檢測,但其只能檢測單人臉,而且人臉的姿態(tài)又不能任意。又如參考文獻[2]提出的復雜背景下的人臉檢測與定位算法,雖可以檢測背景復雜、姿態(tài)各異的多人臉,但對所檢人臉尺寸、比例及灰度都有一定要求,而且限制了所能檢測的人臉的種類。
  筆者在人臉檢測定位方面做了一些有意義的探索和研究。筆者認為,對于復雜背景中的人臉檢測,應針對背景采用分階段的檢測定位算法,即先減小背景的復雜度,在簡單背景中檢測定位人臉,然后進一步由粗到細地檢測定位人臉。這種檢測定位算法的整個檢測定位過程分三個階段進行:①預處理:膚色區(qū)域分割;②粗檢:膚色區(qū)域的篩選;③細檢:候選人臉的特征檢測和定位。
1 預處理——膚色區(qū)域分割
  已有研究[3-4]表明,人的皮膚顏色具有以下兩個重要的特征:(1)人的皮膚顏色分布在顏色空間中很小的一個范圍內(nèi);(2)人的皮膚顏色的不同主要是由顏色的強度引起。即膚色具有聚類" title="聚類">聚類性,膚色的這種聚類性可以用來從背景中分割出人臉。
  通過對不同顏色空間的分析發(fā)現(xiàn),YCbCr空間具有將色度與亮度分離的特點,在YCrCb色彩空間中膚色的聚類特性比較好,受亮度變化的影響較小,而且是兩維獨立分布,能較好地限制膚色分布區(qū)域[5],并且受人種的影響不大。因此本研究選擇YCrCb色彩空間模式進行膚色區(qū)域分割。
1.1 膚色模型的建立
  膚色模型是根據(jù)大量樣本的統(tǒng)計數(shù)據(jù)建立的。針對不同膚色的人:亞洲人、高加索人和非洲人,本文選擇在一般室內(nèi)外照明背景下的人臉圖片,以便所建立的膚色模型具有一般性。建立膚色模型的步驟如下:
  (1)手工剪裁出大量膚色區(qū)域。在本文中首先手工裁減了1000個各色人種的膚色區(qū)域,分別選自不同的性別、不同的身體區(qū)域(包括臉部、手臂、四肢和軀干部分)。
  (2)將皮膚區(qū)域中每個像素點的R、G、B轉換成Y,Cb、Cr表示,得到每個像素點的色度值(Cb,Cr)。轉換公式如下:
  
  (3)對剪裁出的膚色區(qū)域圖像使用低通濾波器減小樣本的噪聲,這個低通濾波器的脈沖響應如下:
  
  (4)統(tǒng)計色度為(Cb,Cr)的像素點數(shù),得到色度分布圖,如圖1所示。


  從色度分布圖可以看到膚色聚類在色度空間中的一個很小的范圍內(nèi)。
  (5)歸一化色度分布圖,膚色分布可以用高斯模型N(m,C)表示。其中,m是均值,C是協(xié)方差陣,可表示如下:
    m=E{x}, x=(Cr?? Cb)T
    C=E{(x-m)(x-m)T}
1.2 膚色區(qū)域的提取
  通過前面所建立的膚色高斯分布,可以得到某幅彩色圖像" title="彩色圖像">彩色圖像中任意一個像素點屬于皮膚的概率。對于某像素點s,從R、G、B空間轉換到Y、Cb、Cr彩色空間,可以得到色度值(Cr,Cb),則這個像素的膚色概率密度(即膚色似然度)可以通過下面的式子計算得到:
  

  計算被檢測的彩色圖像各像素點的膚色似然度,并得到整幅圖像的最大膚色似然度。每一點像素的膚色似然度除以最大膚色似然度所得到的值,作為該像素點的灰度值(表征這個像素點屬于皮膚的概率),從而得到膚色似然圖像,如圖2所示。


  隨著閾值的下降,直覺上將會導致分割區(qū)域的增加。然而試驗結果表明,當閾值處于某一范圍中時,隨著閾值的降低分割區(qū)域并不會明顯增加(這是因為這個階段的膚色像素已經(jīng)被完全檢測出來,而非膚色像素還沒有被認為是膚色像素)。如果閾值繼續(xù)降低到某一個特定值后,隨著非膚色區(qū)域被錯認為是膚色區(qū)域,則會出現(xiàn)分割區(qū)域面積大幅度增加的情形。故最優(yōu)閾值應該是在隨著閾值增長而類膚色區(qū)域面積增長最小的范圍之內(nèi)。本文中采用的方法是,讓閾值從0.65開始減少,每次減少0.1,直到0.15為止,并找出膚色分割區(qū)域面積增加最小的一段,從而得到優(yōu)化后的閾值。其試驗結果如圖3所示。


2 粗檢——膚色區(qū)域的篩選
2.1 膚色區(qū)域的提取
  通過形態(tài)學處理不但可以過濾由于噪音或者其他原因引起的一些較小的不可能為人臉的類膚色區(qū)域,減少候選區(qū)域和提高檢測速度,而且可以填補膚色區(qū)域內(nèi)的較小空洞,防止這些空洞被誤認為是人臉器官所造成的,為后續(xù)檢測區(qū)域內(nèi)(歐拉數(shù)判斷是否為候選區(qū)域)降低了誤判的可能性。
  在本文中,考慮到干擾造成的小的虛假膚色區(qū)域,使用5×5的結構元素進行開運算消除較小物體(假設人臉區(qū)域應該有足夠大),減小后面分割區(qū)域編碼的工作量;同時,考慮到一部分分割區(qū)域內(nèi)部有較小的空洞存在,使用3×3的結構元素對其進行閉運算,消除分割區(qū)域中的較小的空洞,以利于后面計算歐拉數(shù)時可以減少干擾,其效果如圖4所示。


2.2 人臉幾何特征分析
  (1)有效面積。在目標圖像中,存在著一些由某些原因引起的噪聲,這些噪聲的區(qū)域面積不大,因此可用面積參數(shù)先過濾掉這些噪聲。
  Ai>A
  式中,Ai代表第i個目標區(qū)的面積;A(=10)為一事先確定的面積閾值。符合上式的區(qū)域可進一步進行檢測,否則被認為是噪聲濾除掉。
  (2)圓度。人臉在不同的視角中,都有類似橢圓的性質(zhì)。在人臉區(qū)域的檢測中,區(qū)域的圓度可以作為一項基于形狀檢測的參數(shù):
  
  式中,Ai為第i個區(qū)域的面積;Pi為第i個區(qū)域的周長,Ci為第i個目標區(qū)的圓度;C(=0.05)是預定的圓度閾值。符合此式的區(qū)域才能成為下一步的候選區(qū)域。
  (3)長寬比例。人臉區(qū)域的長寬比應該符合一個約束范圍,在目標二值圖像中利用該約束范圍可快速排除那些太過狹長或橫軸長度明顯超標的區(qū)域。區(qū)域的長寬比例同樣是一項基于形狀檢測的參數(shù):
  Ri=Hi/Wi?????? Ri∈RR
  式中,Hi是第i個區(qū)域的高度,Wi為第i個區(qū)域的寬度,Ri等于該區(qū)域的長寬比例;RR(=[0.8 2.2])為設定的人臉區(qū)域長寬比例約束范圍。不符合該式的區(qū)域被認為是非人臉區(qū)域舍棄掉。
  (4)歐拉數(shù)。歐拉數(shù)可以表示一個封閉區(qū)間中的空洞數(shù)量的情況,其定義如下:
  E=C-H
  式中,E為連通區(qū)域的歐拉數(shù);C為連通區(qū)域的數(shù)目,這里應為1;H為連通區(qū)域內(nèi)部的空洞數(shù)。在正常情況下,人臉圖像中一定包括眼睛、眉毛等非膚色區(qū)域,所以真正的人臉區(qū)域須包括一個或多個小孔。故若歐拉數(shù)大于0,則該連通區(qū)域不會是人臉待選區(qū)域。但是如果歐拉數(shù)太小,也不應該是人臉,人臉中由于嘴、眼等區(qū)域形成的空洞數(shù)不會太多,在本文中,如果計算出來的歐拉數(shù)小于-10,也不認為其是人臉待選區(qū)域。
  (5)質(zhì)心。對于一塊人臉圖像區(qū)域,應該是或基本上是一個凸多邊形,也就是說其質(zhì)心應該在多邊形區(qū)域內(nèi),質(zhì)心計算公式如下:
  

  式中,A為該區(qū)域的像素數(shù)量;i和j分別是水平和垂直坐標;B是區(qū)域經(jīng)過計算得到的相似矩陣;B[i,j]=1表示該點為膚色區(qū)域。
  在實驗中發(fā)現(xiàn),只需使用以上兩種計算進行篩選就能夠過濾掉大部分的非人臉區(qū)域。
3 細檢——候選人臉的特征檢測和定位
  在粗檢檢測結果的基礎上,利用平均臉模板匹配的方法對候選隊列中的圖像進行是否是人臉的檢測[6-7]。
  本文中所用的模板是對多個人臉樣本取平均構造出來的。具體構造過程如下:
  (1)在選取的樣本圖像中用矩形框手工裁剪出人臉的區(qū)域作為人臉樣本,裁剪出100幅圖像,組成一組樣本圖像集。并將所選人臉樣本轉換成灰度圖像,將其尺度標準化到80×80[8]。
  (2)將所選人臉樣本進行灰度分布標準化。
  (3)將所有樣本取灰度平均得到平均人臉圖像,并對平均人臉圖像進行灰度分布標準化,得到初步的人臉模板。如圖5所示。


  根據(jù)待選人臉區(qū)域的高度h、寬度w和傾斜角θ對原始人臉模板圖像T(x,y)拉伸高寬比t(t=h/w)、旋轉θ變換為T′(x′,y′):
  
  然后使用新的人臉模板對待選人臉圖像窗口進行匹配。算法使用以下系數(shù)作為匹配準則。假設人臉模板的灰度矩陣為T[M][N],灰度均值與方差分別為μT和σT,待選人臉圖像區(qū)域的灰度矩陣為S[M][N],灰度均值與方差分別為μR和σR,則它們之間的相關系數(shù)r(T,S)為:
  

  使用人臉模板進行匹配時,若相關系數(shù)r(T,R)超過門限值t(t=0.6),則認為通過了平均臉匹配篩選,被認為是人臉。
  將檢測到的人臉窗口存放在一個備選人臉列表中,在輸入的原彩色圖像上根據(jù)備選人臉列表中記錄的每個人臉框的位置和大小將其框出,結果如圖6所示。


  本算法改變了傳統(tǒng)的模板匹配方法中逐點匹配的方式,通過對分割后的膚色區(qū)域的統(tǒng)計分析,進一步減小搜索區(qū)域,大大加快了檢測速度。具有計算量小、速度快、易于實現(xiàn)實時處理、不受臉部表情變化的影響、抗噪聲能力強、魯棒性好等優(yōu)點。
參考文獻
[1] YUILLE A,HALLINAN P,COHEN D.Feature extraction from faces using deformable templates[J].International Jour-nal of computer vision,1992,8(2):99-111.
[2] TURK M,PENTLAND A.Eigenface for recognition[J].J Cog Neurosci,1991,23(3):71-86.
[3] YANG J,WAIBEL A.Shin-color modeling and adaptation[C].Proceedings of ACCV′98,1998:687-694.
[4] PGRAF H,COSATTO E,GIBBON D et al.Multimodel sys-tem for the location heads and faces.proceedings of the Second IEEE International Conference on Automatic Face and Gesture Recognition,1996:88-93
[5] GONG Y,SAKAUCHI M.Detection of regions matching specifiedchromatic features[J].Computer Vision and Image Understanding,1995,61(2):263-269.
[6] MOGHADDAM B,PENTLAND A.Probabilistic visual learn-ing for object representation.IEEE Transactions on Pattern Analysis and Machine Intelligence,1997,19(7):696-710.
[7] MOGHADDAM B,PENTLAND A.Beyond linear eigenspaces Bayesian matching for face recognition.WECHSLER H,PHILLIPS,P J,Bruce V,et al.Face Recognition from Theory to Applications.New York:Springer-Verlag,1997,230-243.

本站內(nèi)容除特別聲明的原創(chuàng)文章之外,轉載內(nèi)容只為傳遞更多信息,并不代表本網(wǎng)站贊同其觀點。轉載的所有的文章、圖片、音/視頻文件等資料的版權歸版權所有權人所有。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無法一一聯(lián)系確認版權者。如涉及作品內(nèi)容、版權和其它問題,請及時通過電子郵件或電話通知我們,以便迅速采取適當措施,避免給雙方造成不必要的經(jīng)濟損失。聯(lián)系電話:010-82306118;郵箱:aet@chinaaet.com。