《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > 其他 > 業(yè)界動態(tài) > 基于踝關(guān)節(jié)軌跡的身份識別算法

基于踝關(guān)節(jié)軌跡的身份識別算法

2008-05-28
作者:耿 磊1,2,吳曉娟1,張

  摘 要: 步態(tài)識別相對于其他的生物特征" title="生物特征">生物特征具有諸多優(yōu)點。本文通過跟蹤腳踝得到其運動軌跡,計算出步態(tài)特征的相關(guān)信息,并以此為基礎(chǔ),進行了動態(tài)參數(shù)的識別算法研究。在中科院的NLPR數(shù)據(jù)庫上進行了大量的仿真實驗。
  關(guān)鍵詞: 生物特征識別 步態(tài)識別 背景減除 速度距 路徑距


  生物特征的識別是一個傳統(tǒng)的模式識別問題,它利用人的生理或行為特征進行身份識別" title="身份識別">身份識別,包括臉像、指紋、虹膜等第一代生物特征的識別技術(shù)。隨著安全敏感場合(如銀行、機場等)對智能監(jiān)控系統(tǒng)的需求,非接觸式遠距離的身份識別技術(shù)近來倍受關(guān)注。步態(tài)識別[1]是生物特征識別技術(shù)的一個新興子領(lǐng)域。所謂步態(tài),傳統(tǒng)上是指人行走的方式。步態(tài)的更一般定義則把人行走運動的動力學(xué)特征也包括了進去。相應(yīng)的步態(tài)識別就是在不考慮衣服、視角、環(huán)境等情況下,根據(jù)人們走路的方式及動力學(xué)特征進行身份識別。步態(tài)以其良好的非侵犯性特點,必將在動態(tài)視覺監(jiān)控系統(tǒng)中得到廣泛的應(yīng)用。
  近年來,在步態(tài)識別領(lǐng)域已有很多嘗試性工作。采用關(guān)節(jié)點軌跡和角度識別的嘗試取得了令人鼓舞的成果。其中,Taylor[2]等人使用人身體的運動規(guī)律性和一些約束來識別人行走和非行走狀態(tài);Chew Yean等[3]用兩個鏈接鐘擺建立腿部的運動模型,從鐘擺傾斜角度的曲線中提取某些頻率分量作為步態(tài)特征進行識別。Aaron[4]采用感應(yīng)標(biāo)簽的辦法獲取身體關(guān)節(jié)的運動軌跡來達到識別目的。
  基于步態(tài)的身份識別很大程度上依賴于人體形狀隨著時間的變化過程。故可將步態(tài)序列看作由一組靜態(tài)姿勢所組成的模式,然后在識別過程中引入這些觀察姿勢隨時間變化的信息。針對過去提取關(guān)節(jié)點采取感應(yīng)標(biāo)簽等具有很高計算代價的方法,本文提出了采用細化的辦法提取腳踝點并采用軌跡特征來識別的算法:首先根據(jù)背景減除的方法進行運動區(qū)域分割,在經(jīng)過背景提取以及差分" title="差分">差分二值化" title="二值化">二值化后,可以把運動區(qū)域提取出來;然后通過跟蹤腳踝提取出其運動軌跡,并從運動軌跡中獲取表示步態(tài)的特征。訓(xùn)練過程中使用簡單的方法提取出速度場和路徑場;針對行走過程中兩腳重合時跟蹤不到腳踝的情況,采用插值算法估計腳踝的位置;在識別過程中將序列的軌跡參數(shù)作為步態(tài)特征進行分類。
1 特征提取
1.1 運動區(qū)域分割

  (1)背景提取。采用背景減除的方法進行運動區(qū)域分割,首先必須從圖像序列中恢復(fù)背景圖像,考慮到視頻處理的實時性,本文使用一種復(fù)雜度較低的方法提取背景。令{Ik,k=1,2,3,…,N}代表一個包含N幀圖像的視頻,則背景圖像B可用下面迭代的方法獲得:
  B=αIk+βB(k=2,3,4,…,N)
  其中,參數(shù)α+β=1,初始化時B=I1。
  (2)差分及二值化。為把前景從背景中分割開來,使用下述函數(shù)來間接執(zhí)行差分操作[3]
  
  其中0≤f(a,b)〈1,0≤a(x,y),b(x,y)≤255,a(x,y)與b(x,y)分別是當(dāng)前圖像和背景圖像在像素(x,y)處的亮度值。對于每幅圖像I(x,y),通過二值化提取函數(shù)來獲取當(dāng)前圖像中的變化像素。
1.2 運動目標(biāo)檢測
  二值化后提取的運動區(qū)域可能會出現(xiàn)空洞和噪聲點,用圖像形態(tài)學(xué)的方法可以去除它們的影響。然后,通過執(zhí)行單連通分量分析就可以得到單連通的運動目標(biāo)。由于邊界對本文中采用細化算法來尋找腳踝的方法比較敏感,所以采取邊界平滑的算法進一步調(diào)整前景區(qū)。在經(jīng)過背景提取以及差分二值化后,就可以把運動區(qū)域提取出來。步態(tài)檢測中對運動目標(biāo)提取與檢測的示例如圖1所示,圖中分別是背景、行人和提取出來的行人區(qū)域。


1.3 腳踝提取
  針對腳踝處于彎曲部位的特征,采用細化算法,找到細化之后的曲線交叉點即近似等于腳踝的位置。為了降低細化算法的復(fù)雜度,先找到腳的大體位置,步驟如下:
  (1)求重心
  
  其中,(Xc,Yc)是重心的坐標(biāo),Nt是前景區(qū)像素總數(shù),(xi,yi)是前景區(qū)像素點。
  (2)減小搜索區(qū)的范圍
  只保留要跟蹤的腳踝所在的一側(cè)和重心以下位置。
  (3)細化
  對圖像序列用生態(tài)學(xué)方法進一步平滑邊界,填充空洞、去除噪聲并細化圖像。
  (4)搜索腳踝點
  搜索細化后曲線上出現(xiàn)的交叉點可近似得到腳踝的坐標(biāo)p(x,y)。
  在經(jīng)過以上四個步驟之后,就可以得到腳踝的位置坐標(biāo)。圖2是腳踝跟蹤示意圖,從左向右依次為:(a)腳的大概位置;(b)細化后的骨架;(c)跟蹤到的腳踝點。該方法對鞋子的影響具有魯棒性,原因是鞋子對腳踝彎曲部位的影響不大。


1.4 腳踝軌跡的形成
  提取序列一個周期中的每一幅圖像腳踝的位置坐標(biāo)Pi(x,y)。為了便于軌跡的描述和特征向量的提取,本文采用以下方法。令:
  
  N是某個序列的幀數(shù),P(i)x是序列中第i幅圖像的x坐標(biāo)(注:坐標(biāo)系選取圖像的左上角為原點,x軸向下,y軸向右)。
  
  D(i)x是序列中第i幅圖像的x坐標(biāo)相對于均值的偏移。這樣就得到了腳踝點運動的幅度。為了消除圖像尺度、信號長度對訓(xùn)練和識別過程的影響,本文使用L-泛數(shù)方法對D(i)x和P(i)y進行幅度上的歸一化。
  
  其中, 是取絕對值??紤]到軌跡的特征,進一步從步態(tài)周期中確定適合所有個體的軌跡起始點和結(jié)束點。分別從上述曲線的起始點和終止點搜索x方向變化幅度最大的第一點。
  
  dsx是曲線上升最快的第一點的x坐標(biāo),dex是曲線反向上升最快的第一點,N是一個步態(tài)周期序列的樣本個數(shù)。這樣就得到了歸一化后一個周期的兩個向量:
  
1.5 步態(tài)特征的表示
  確定行人內(nèi)在運動的一個重要線索是人體部分的運動。人的腳踝軌跡體現(xiàn)了個體的差異,它可以用速度場和路徑距離表示。

  其中,M=dex-dsx+1。路徑的距離可以用于度量路徑的一致性。這樣就得到了作為識別的兩個度量Sm和L。它們從時空方面反映腳踝的運動軌跡,則C=[Sm,L]可作為最終的步態(tài)特征。
2 識別
2.1 相似性度量

  由于步態(tài)是時空運動,故期望使用時空相關(guān)來更好地捕捉它的空間結(jié)構(gòu)特性及時間平移特性。對于任意兩個步態(tài)序列要確定其周期,并從步態(tài)序列中提取出完整的步態(tài)周期,就需要找到每個人的視頻序列中高寬比最大兩幀圖像作為大致周期。在該大致周期中選擇腳踝上升幅度最大的第一點作為周期起始點,并從該周期的反方向選擇上升幅度最大的第一點作為周期的終止點,這兩個點之間作為精確周期。腳踝點在兩腳重疊時不能從圖像上直接得到,可以用插值的辦法取得近似的腳踝點。
2.2 分類器
  可采用非參數(shù)的方法設(shè)計分類器" title="分類器">分類器。最近鄰規(guī)則(NN)分類器就是一種比較容易實現(xiàn)的分類器,但不是最有效的,因而只用它來測試步態(tài)特征的可分性。NN分類器使用歐氏距離作為相似性測度。其歐氏距離的定義為:
  d2=||Smc-Sme||2+||Lc-Le||2
  其中,Smc和Lc是測試樣本,Sme和Le是數(shù)據(jù)庫中的參考訓(xùn)練樣本。
3 實驗
3.1 識別性能
  本文采用中科院自動化所提供的NLPR數(shù)據(jù)庫。它包含20個人,每人3個視角(側(cè)面視角0°,傾斜視角45°,正面視角90°),每視角4個序列,共240個步態(tài)序列。本實驗選取這20個人,并使用側(cè)面視角。在該數(shù)據(jù)庫上已作了大量的計算機仿真,全面測試了算法的識別性能和校驗性能,獲得了大量的仿真數(shù)據(jù)。通過使用留一校驗(Leave-one-out Cross Validation)的方法,得出了0°視角下k=2、5、10、20算法的正確分類率CCR(Correct Classification Rate)如表1所示。


3.2 校驗性能
  借用了臉部識別算法中用到的一種分類性能度量ROS(Rank Order Statistic)來評估算法的性能,該方法在FERET[7]評估協(xié)議中首先被提到。使用最近鄰分類器時算法的累積匹配分值圖如圖3所示。
  本文同時使用留一規(guī)則估計了算法的錯誤接受率FAR(False Acceptance Rate)和錯誤拒絕率FRR(False Reject Rate)。圖4給出了算法在使用最近鄰分類器NN的情況下的ROC(Receiver Operating Characteris)曲線。
  錯誤接受是指將冒充者識別為真正的生物特征擁有者;錯誤拒絕是指生物特征擁有者被拒絕。對于理想的算法來說,這兩個錯誤率均為0。但實際中,這兩個指標(biāo)是相關(guān)的,當(dāng)錯誤拒絕率較低時,錯誤接受率會較高;反之亦然。因此往往需要在兩個錯誤率之間折衷選取。用ROC曲線能夠很好地反映兩個錯誤率之間的關(guān)系,如圖4所示。曲線上的點表示在某個給定的閾值下得到的錯誤拒絕率和錯誤接受率。從圖中可以看到側(cè)面0°視角的等錯誤率EER(Equal Error Rate)為17%。

?


3.3 結(jié)果分析
  從圖3、4可以看出,使用速度距和路徑距的識別辦法可以有效避免某一幀丟失或是某一幀腳踝提取不好對識別結(jié)果的影響。但是基于NN分類器的等錯誤率EER為17%不是很理想。其中速度場的范數(shù)會累加誤差,一定程度上加大了總的時空匹配誤差。而軌跡距離卻可以克服部分軌跡點上的波動,從而取得好的識別效果。
3.4 算法比較
  中科院自動化所提供的NLPR數(shù)據(jù)庫是步態(tài)數(shù)據(jù)庫中比較大的一個。所以本文算法使用該數(shù)據(jù)庫作測試,與文獻[5]中步態(tài)識別算法是有可比性的。兩種算法在使用NN分類器的識別性能均較好。比較結(jié)果如表2所示。


  相比而言,本算法在0°視角下的正確分類率CCR比文獻[5]中算法的略高。就校驗性能來講,本文在0°視角下等錯誤率EER比文獻[5]中算法的要低一些。但是文獻[5]中對SOTON數(shù)據(jù)庫(7人,每人4個序列)識別率要比本文效果好。此外,本文提出的算法與以往方法相比,特征選擇更簡單,更易于理解和實現(xiàn),避免了使用光流、圖像自相關(guān)等復(fù)雜的處理方法,大大減小了計算復(fù)雜度,提高了識別的速度。
  本文提出了一種簡單有效的步態(tài)識別算法,并作了大量的性能測試和評估工作,獲得了令人滿意的算法性能。未來的工作將會集中在復(fù)雜背景、遮擋、陰影下的腳踝跟蹤以及其他關(guān)節(jié)軌跡提取等。同時3D人體建模、多攝像機跟蹤關(guān)節(jié)軌跡都將是未來的研究方向。
參考文獻
1 Nixon M,Carter J,Cunado D et al.Automatic gait recognition. In:Proceedings of BIOMETRICS personal identification in networked society,1999:231~249
2 James W,Stephanie D,Taylor R.Analysis and recognition of walking movements.In:International conference on pattern recognition,Quebec City,Canada,2002:315~318
3 Yam C Y,Nixon M S,Carter J N.Gait recognition by walk-ing and running:A model-based approach.In:the 5th Asian conference on computer vision,Melbourne,Australia,2002:23~25
4 Rawesak T,Aaron B.Gait recognition from time-normalized joint-angle trajectories in the walking plane.In:Proceedings of the 2001 IEEE Computer Society Conference,2001;2(12): 726~731
5 王 亮,胡衛(wèi)明,譚鐵牛.基于步態(tài)的身份識別.計算機學(xué)報,2003;26(3):353~360
6 Shutler J,Nixon M,Harris C.Statistical gait recognition via temporal moments.In:Proceedings of IEEE southwest sympo-sium on image analysis and interpretation,Austin,Texas,2000:291~295
7 Phillips J,Moon H,Rizvi S et al.The FERET evaluation methodology for face recognition algorithms.IEEE Transactions on Pattern Analysis and Machine Intelligence,2000;22(10):1090~1104

本站內(nèi)容除特別聲明的原創(chuàng)文章之外,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,并不代表本網(wǎng)站贊同其觀點。轉(zhuǎn)載的所有的文章、圖片、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無法一一聯(lián)系確認版權(quán)者。如涉及作品內(nèi)容、版權(quán)和其它問題,請及時通過電子郵件或電話通知我們,以便迅速采取適當(dāng)措施,避免給雙方造成不必要的經(jīng)濟損失。聯(lián)系電話:010-82306118;郵箱:aet@chinaaet.com。