《電子技術應用》
您所在的位置:首頁 > 嵌入式技術 > 設計應用 > 一種基于改進的LEA頭部姿態(tài)估計方法
一種基于改進的LEA頭部姿態(tài)估計方法
來源:微型機與應用2011年第11期
李維清,陳鍛生
(華僑大學 計算機科學與技術學院,福建 廈門 361021)
摘要: 局部嵌入分析(LEA)是圖嵌入化的局部線性嵌入(LLE)方法。在頭姿態(tài)估計問題上,選擇局部鄰域時只考慮屬于同一類的姿態(tài),但失去了相鄰姿態(tài)的幾何拓撲信息。為此,提出一種改進的鄰域選擇方法,充分利用先驗姿態(tài)信息,使降維后的流形更加平滑,同類姿態(tài)互相靠近,不同類姿態(tài)之間的距離隨著姿態(tài)差值變大而增大,且能夠使訓練及測試樣本的低維流形更加靠近,降低了估計誤差。在Facepix人臉數據庫上的實驗證明了該方法的有效性。
Abstract:
Key words :

摘  要: 局部嵌入分析(LEA)是圖嵌入化的局部線性嵌入(LLE)方法。在頭姿態(tài)估計問題上,選擇局部鄰域時只考慮屬于同一類的姿態(tài),但失去了相鄰姿態(tài)的幾何拓撲信息。為此,提出一種改進的鄰域選擇方法,充分利用先驗姿態(tài)信息,使降維后的流形更加平滑,同類姿態(tài)互相靠近,不同類姿態(tài)之間的距離隨著姿態(tài)差值變大而增大,且能夠使訓練及測試樣本的低維流形更加靠近,降低了估計誤差。在Facepix人臉數據庫上的實驗證明了該方法的有效性。
關鍵詞: 頭部姿態(tài)估計;流形學習;圖嵌入;局部嵌入分析;局部線性嵌入

 頭部姿態(tài)估計是計算機視覺和圖像模式識別領域中的一個重要研究課題,近年來受到了越來越多的關注[1]。在人臉識別中,如果得到的人臉圖像是非正面的,識別的效果會大大降低,而如果預先估計人臉姿態(tài)后選擇合適的視角模型進行識別,將會提高非正面人臉的識別率[2]。由于通過人臉的姿態(tài)可以得知人注視的方向,所以姿態(tài)估計在理解人的注意力等方面有很高的研究價值。
 對于頭部姿態(tài)估計問題,現(xiàn)有的方法大致可分為基于表觀的方法和基于模型的方法兩大類[3]。基于表現(xiàn)的方法是通過對含有各種姿態(tài)的人臉圖像進行學習,建立一個能夠估計姿態(tài)的分類器。這種方法對圖像的分辨率要求不高,并且不需要或者需要較少的面部特征點,能夠估計角度較大范圍的姿態(tài)?;谀P偷姆椒ㄊ抢媚撤N幾何模型來表示人臉的結構和形狀,并通過提取某些特征,在模型和圖像之間建立起對應關系。這種方法嚴重地依賴于特征點的定位結果,當圖像旋轉較大角度時,部分面部特征將丟失,無法進行估計,所以估計的姿態(tài)范圍較小。
1 基于流形學習的頭部姿態(tài)估計
 基于流形學習的頭部姿態(tài)估計屬于表觀類方法,它的基本思想是考慮每個高維頭姿態(tài)圖像都處于一個有姿態(tài)變化的連續(xù)流形中。目前已經吸引了一些學者對它進行研究,例如HU N等人[4]提出了通過對特定人的姿態(tài)流形的學習,在假定姿態(tài)流形不變的情況下,利用預測網絡來估計其他人的圖像的姿態(tài)的方法;FU Y[5]等使用了圖嵌入GE(Graph Embedding)[6]結合流形學習算法進行人臉的姿態(tài)估計研究。
 流形學習LLE[7](Locall Linear Embedding)算法是通過建立局部鄰域權重圖將數據由高維降至低維,但其鄰域均采集自同一流形,對于姿態(tài)估計,這將導致姿態(tài)估計與人有關。FU Y[5]等人提出了一種改進的LLE即LEA(Locall Embed Analysis):利用數據集的已知類別信息選擇局部鄰域時,只考慮屬于同一類(即同一姿態(tài))的數據點,并結合圖嵌入理論,使改進后的LLE近似線性。這樣對于姿態(tài)估計將大大提高姿態(tài)估計的身份無關性。但這又帶來一個新的問題:屬于同一類的數據集映射到低維空間中后,退化成為一點,失去了幾何拓撲信息,并且所有鄰域均為同類樣本(即不同人的相同姿態(tài)),這使得降維后的流形失去了其相鄰姿態(tài)間的平滑性。
 本文對FU Y等人提出的LEA方法做了進一步的改進:由于鄰域的選擇是流形學習算法至關重要的第一步,關系到鄰域樣本權值的計算及最后的降維結果。因此,本文在構造鄰域時通過改進鄰域距離表示方法,更好地選擇鄰域,使樣本的鄰域更好地重構樣本本身,以解決LEA降維后的流形不能很好地保持高維時所具有的幾何拓撲結構的不足,并使訓練流形和測試流形更加靠近,減少姿態(tài)估計誤差。

 





 對于頭部姿態(tài)估計問題,本文提出算法的流程為:
 (1)訓練姿態(tài)流形
?、俨眉魣D片,使圖片僅包含頭部姿態(tài)部分,并對圖片預處理、歸一化,使所有圖片有相同大小。
?、谔崛√卣髯鳛橛柧毺卣?也可以不提取,直接用圖片像素作為特征),并將特征用一個列向量來表示。
 ③根據式(6)計算樣本點之間的距離,求出鄰域矩陣,接著求解式(3),計算權值矩陣,然后求解式(5)計算投影矩陣P。
?、軕肶=PTX,計算低維映射Y。
 (2)測試樣本姿態(tài)估計
?、偻柧毑襟E①,對測試圖片進行裁剪、預處理、歸一化等操作。
 ②應用投影矩陣P計算出測試樣本的低維表示。
?、蹜肒NN分類器估計測試樣本姿態(tài)。
5 實驗
5.1 人臉庫

 為了驗證算法的有效性,本文在FacePix人臉姿態(tài)數據庫上進行了實驗。FacePix人臉庫是2005年由CUbiC(the Center for Cognitive Ubiquitous Computing)、Arizona State University提供,該人臉庫包含了不同姿態(tài)、不同光照的人臉,本文只介紹不同姿態(tài)的圖片:具體為30人,每人181張不同姿態(tài)的人臉圖像,姿態(tài)范圍為水平方向上從-90°~90°(負的表示向左旋轉),間隔為1°,共計5 430張分辨率為128×128的彩色人臉圖像。本文將圖片裁剪為32×32(人臉庫中的第16、21、27三人由于圖像采集不好,未被納入實驗中)大小的圖片。人臉庫樣例及低維可視化流形如圖1所示。

5.2 實驗結果及分析
 (1)低維可視化效果
圖1(a)是FacePix人臉庫經裁剪后的部分樣例圖,按照每行為同一人,每列為同一姿態(tài)排列,姿態(tài)從左到右分別為-90°、-60°、-30°、0°、30°、60°、90°;圖1(b)是FacePix人臉庫中第一個人的181張姿態(tài)圖像經本文改進的LEA算法降維后的三維嵌入流形,嵌入流形的圖片姿態(tài)按照-90°、-60°、-30°、0°、30°、60°、90°排列,鄰域K=80,特征為裁剪并處理后的灰度圖。由圖1(b)可以看出,不同姿態(tài)處在低維不同位置,且按照姿態(tài)順序呈流形分布。
 (2)頭部姿態(tài)實驗
 訓練及測試樣本三維流形如圖2所示,圖2實驗選取的特征均為裁剪并處理后的灰度圖。圖2(a)為LEA算法的低維嵌入圖,鄰域k=8,圖中顏色較深的線為人臉庫中前9個人的流形,為訓練流形;顏色較淺的線為中間9個人應用訓練出的投影矩陣P投影后的結果,為測試流形。圖2(b)為本文改進后的算法的嵌入圖,鄰域k=13,圖中不同顏色的含義同圖2(a)。通過圖中效果比對可以看出,改進后的算法更能使測試樣本和訓練樣本的相同姿態(tài)靠近,利于分類誤差的降低。

 對LEA算法和改進后的算法做相同條件下的對比試驗。分別選取FacePix人臉庫中前9人、前12人、前15人、前18人做訓練樣本,對應的后18人、后15人、后12人、后9人做測試樣本,每人181張圖片。由于改進后的算法仍是基于LLE算法的,所以鄰域、嵌入維數以及參與訓練的圖片數對實驗效果均有一定影響。實驗中的特征均為裁剪并處理后的灰度圖。表1為實驗的姿態(tài)估計平均誤差表。
圖3中實驗為:低維維度m=14,訓練樣本為9個人1 629張圖片,測試樣本為18個人3 258張圖片,LEA算法鄰域取k=8,改進算法鄰域取k=10。圖中實線為LEA算法姿態(tài)估計誤差,其平均誤差為3.44°;虛線為改進算法姿態(tài)估計誤差,其平均誤差為2.99°(如表1所示)。

 從表1及圖3可以看出,改進后的算法與原來的算法相比,其誤差降低不少。主要原因:如圖2所示,由于LEA算法的鄰域取自同姿態(tài)樣本,其缺點是降維后同類樣本重合在一起,理論上是類間距離越小越好。但是由于人的差異性,同樣的姿態(tài)不同的人會有差距,所以導致訓練出的流形與測試樣本的流形有很大差距。改進算法由于適當擴大鄰域,既包括同類樣本又包括姿態(tài)相近的樣本,這樣訓練流形與測試流形的差距就會縮小。
 本文提出了一種對局部嵌入分析(LEA)算法改進的頭部姿態(tài)估計方法(即一種新的鄰域選擇方法),在鄰域選擇時充分利用先驗姿態(tài)信息,使降維后流形更加符合高維時的姿態(tài)間的幾何關系,降低姿態(tài)估計誤差。由實驗可知,本文對LEA算法改進的有效性。然而由于流形學習算法的實驗結果與參數(如鄰域k、降維維度m等)有很大有關,并且數據庫由于圖像裁剪不同,實驗效果也不盡相同,因此算法還有待進一步的研究與探討。
參考文獻
[1] CHUTORIAN E M, TRIVEDI M M.  Head pose estimation in computer vision: a survey[J].  IEEE  transactions  on   Pattern Analysis and Machine Intelligence, 2009,31(4):607-626.
[2] LI S Z, FU Q D. Kernal machine based learning for multi-view face detection and pose estimation[C]. Proceedings of 8th IEEE International Conference on Computer Vision. Vancouver, Canada: 2001.
[3] 馬丙鵬. 基于表觀的人臉姿態(tài)估計問題研究[M].北京:中國科學院,2009.
[4] HU N, HUANG W, RANGANATH S. Head pose estimation by non-linear embedding and mapping[C]. Proceeding. IEEE International Conference on Image Processing. 2005.
[5] FU Y, HUANG T S. Graph embedded analysis for head pose estimation[C]. Proceeding. IEEE International Conference on Automatic Face and Gesture Recognition. 2006.
[6] YAN S, XU D, ZHANG B, et al. Graph embedding: a general framework for dimensionality reduction[C]. IEEE Computer Society Conference on Computer Vision and Pattern Recognition. 2005.
[7] ROWEIS S,SAUL L. Nonlinear dimensionality reduction by locally linear embedding [J]. Science, 2000,290:2323-2326.
 

此內容為AET網站原創(chuàng),未經授權禁止轉載。