吳世東
?。ㄖ袊茖W技術(shù)大學 自動化系,安徽 合肥 230027)
摘要:針對運動目標跟蹤過程中出現(xiàn)的遮擋問題,提出了基于目標先驗信息的視覺顯著性遮擋目標跟蹤算法。在粒子濾波框架下,利用目標先驗信息生成視覺顯著圖,并根據(jù)粒子區(qū)域顏色特征與目標顏色特征模板之間的相似度來判斷遮擋情況。當遮擋發(fā)生時,提高特征融合公式中顯著性特征的融合權(quán)重,從而充分利用目標未被遮擋部分信息來完成跟蹤。實驗結(jié)果表明,利用目標先驗信息的目標跟蹤算法能顯著提升跟蹤遮擋目標的魯棒性。
關鍵詞:目標跟蹤;先驗信息;粒子濾波;顯著性特征
0引言
目標跟蹤是計算機視覺領域的重要組成部分,其相關研究成果在三維重構(gòu)、人臉識別和視頻監(jiān)控等諸多方面均有廣泛的應用[12]。在目標跟蹤過程中,面臨著復雜環(huán)境和目標自身因素的干擾,其中目標局部或全局遮擋對跟蹤魯棒性造成了極大的挑戰(zhàn)。粒子濾波算法[34]是基于貝葉斯濾波和蒙特卡羅模擬的跟蹤算法,在目標跟蹤中應用非常廣泛。
參考文獻[56]根據(jù)跟蹤過程中不同的遮擋情況,提出了遮擋類型的判別方法,通過設定閾值的方式來對遮檔情況進行判斷,在不同的情況下使用不同的跟蹤算法,提高了解決遮擋問題的能力。
ADAM A等人[7]在2005年CVPR上提出一種基于目標分塊的遮擋目標跟蹤算法。該算法將目標區(qū)域分成許多矩形小塊,以此來構(gòu)造目標特征模板,然后根據(jù)目標平滑運動的假設,在目標可能出現(xiàn)的區(qū)域檢測目標,匹配度最高的像素點位置作為跟蹤結(jié)果。該算法雖然在一定程度上解決了遮擋問題,但是當目標在跟蹤過程中遮擋程度較大時,跟蹤精度不高。
趙宇宙等人[8]模擬人類視覺中的關注機制,將視覺顯著性應用到目標跟蹤算法中。該方法利用相關對比算法提取目標區(qū)域中與背景差異較大的小塊,用于建立目標模板,然后利用每個小塊與目標整體之間的空間映射關系來定位出目標。該算法由于利用了目標局部有效信息,在一定程度上抑制了遮擋對跟蹤魯棒性的影響。
1粒子濾波算法簡介
蒙特卡羅模擬和貝葉斯濾波是粒子濾波算法的兩個核心組成部分。其大致思想是根據(jù)對系統(tǒng)狀態(tài)的觀測結(jié)果Zt={z0,z1,…zt}來推測出系統(tǒng)的后驗概率分布函數(shù)p(xt|z1:t)。根據(jù)蒙特卡羅方法,用有限樣本點的求和運算來代替積分運算,從而得到目標狀態(tài)xt。
根據(jù)貝葉斯濾波原理,濾波過程分為狀態(tài)預測和狀態(tài)更新兩個方面。其中,預測是指在不知道目標狀態(tài)的情況下,用上一時刻的跟蹤結(jié)果來推測出當前時刻目標的大致位置;更新是指用當前時刻的觀測結(jié)果Zt來對預測結(jié)果進行修正,得到系統(tǒng)后驗概率分布函數(shù)p(xt|z1:t)。
為方便計算,用帶權(quán)重的粒子集{xi0:t,wit}N1來近似表示系統(tǒng)概率分布,其中前者為粒子狀態(tài),后者為粒子權(quán)重。為了方便計算,根據(jù)蒙特卡羅方法,可以用有限樣本點的加權(quán)求和來表示目標狀態(tài),其公式為:
式中,xt即為最終跟蹤結(jié)果。
2顯著性檢測算法
2.1算法計算過程
近年來,視覺顯著性[9]獲得了廣泛關注,出現(xiàn)了很多視覺顯著性檢測算法[1012]。視覺顯著性機制就是模擬人類視覺特性,從海量的視覺信息當中篩選出有用的信息,提高圖像處理效率。
選取顏色特征來表征目標,為了提高顏色特征對于目標與背景的區(qū)分能力,對目標區(qū)域的特征提取是在HSV顏色空間中完成的。
根據(jù)目標運動平滑假設,利用二階自回歸模型預測出目標大致位置:
xt=2xt-1-xt-2(2)
其中,記xt=[x,y,s]表示目標中心位置坐標和尺度信息。提取出目標區(qū)域H通道顏色直方圖,記為Ht={h1,h2,…,hCmax},其中Cmax為H通道bin個數(shù)。
將包含目標先驗信息的目標區(qū)域顏色直方圖Ht在整個圖片中反向投影,得到視覺顯著圖SAL,該過程用公式表示為:
SAL(m,n)=255·hμ,ifc(m,n)∈μ(3)
2.2算法實驗結(jié)果
圖1為用本文基于目標先驗信息的視覺顯著性檢測算法得到的檢測結(jié)果。
圖2目標跟蹤流程圖從圖1可以看出,在跟蹤過程當中,目標發(fā)生了嚴重的自遮擋現(xiàn)象,但這不影響目標區(qū)域在顯著圖中的顯著度,從而為跟蹤魯棒性打下了基礎。
3目標跟蹤算法
3.1特征提取
根據(jù)上節(jié)所述,用上節(jié)所述方法對序列圖片進行顯著性檢測,得到顯著圖SAL。定義視覺顯著性特征觀測概率為:
p(yst|xit)=1st∑(m,n)∈sitSAL(m,n)(4)
其中,sit為第i個粒子所在的區(qū)域范圍,st為歸一化參數(shù)。
顏色特征的提取是在更接近人類視覺特性的HSV顏色空間中完成的,假設顏色特征觀測概率為ρ(Hit,Hct)=∑Γμ=1qμpμi,其中,Hit、Hct分別為粒子區(qū)間和顏色特征模板直方圖,顏色特征觀測概率實為它們之間的相似度計算結(jié)果。
3.2遮擋判斷和特征融合機制
對N個粒子的顏色特征觀測概率進行排序,選取觀測概率值較大的前一半個粒子作為衡量模板形變大小的參數(shù),可令ζ=2N∑N/2i=1p(yct|xit)作為遮擋判斷參數(shù)。這樣目標是否發(fā)生遮擋用式(5)進行判斷:
其中,為1則表示發(fā)生遮擋,為0則未遮擋。
用顏色特征和視覺顯著性特征進行融合跟蹤,特征融合方法采用常用的加性機制,定義融合之后的特征觀測概率如下:
參數(shù)γ根據(jù)是否發(fā)生遮擋來給出不同取值,其與遮擋參數(shù)之間的關系如下:
當未發(fā)生遮擋時,顏色特征在融合特征中起主要作用,當發(fā)生遮擋時,由于目標被遮擋區(qū)域信息丟失,顏色特征可靠性降低,此時主要利用視覺顯著性特征來完成跟蹤。
3.3目標跟蹤算法
目標跟蹤整體流程如圖2所示。
具體算法流程如下:
?。?)目標初始化;
?。?)狀態(tài)預測和顯著性檢測:
?。╝)利用式(2)進行目標和粒子狀態(tài)預測;
?。╞)利用本文方法對原始圖像進行顯著性檢測,得到顯著圖SAL;
?。?)特征融合和粒子權(quán)重計算:
(a)利用式(5)計算出目標狀態(tài)判斷參數(shù)Qt,并判斷是否發(fā)生遮擋;
?。╞)利用公式(6)進行特征融合,得到融合后觀測概率;
?。╟)粒子權(quán)重計算公式為:
(4)是最后一幀,否則返回步驟(2)。
4實驗結(jié)果與分析
圖4各跟蹤算法中心位置誤差曲線為驗證本文算法的跟蹤魯棒性,選取了3個具有針對性的視頻序列進行測試,重點考察了目標自遮擋和被靜止障礙物遮擋下的跟蹤結(jié)果,以及分析在跟蹤過程中視覺顯著性特征所起的作用,并將其與一些經(jīng)典算法進行了對比實驗,如PF[3]、FT[7]。
實驗結(jié)果如圖3所示,各個序列的ground truth由視頻的提供者給出。
實驗1針對被靜止障礙物遮擋的目標進行跟蹤,從圖中可以看出,本文跟蹤算法取得了最好的跟蹤結(jié)果。其中,F(xiàn)T算法采用固定分塊的跟蹤方法對目標模板精度要求太高,其跟蹤誤差會隨著時間的推移被逐漸放大;采用單一顏色特征進行跟蹤的PF算法雖然能應對一定程度的遮擋,但是當遮擋程度過大時,將會發(fā)生跟蹤漂移現(xiàn)象;本文采用的基于目標先驗信息的視覺顯著性跟蹤算法取得了不錯的跟蹤精度,這是因為本文算法能夠在遮擋發(fā)生時,利用顯著性檢測算法檢測出目標未被遮擋部分區(qū)域,然后讓魯棒性更強的顯著性特征再完成跟蹤。
實驗2和實驗3針對發(fā)生自遮擋的目標進行跟蹤,本文算法依然表現(xiàn)良好。從圖3可以直觀看出,當目標發(fā)生自遮擋時,目標的表觀顏色發(fā)生了劇烈的變化,這導致采用單一顏色特征進行跟蹤的FT算法和PF算法無法適應,最終影響了它們的跟蹤精度。本文算法在目標發(fā)生自遮擋的過程中,由于顯著性檢測過程融入了目標先驗信息,從而實現(xiàn)了魯棒跟蹤。
圖4為各跟蹤算法中心位置誤差曲線圖。從圖4可以看出,本文算法取得了較好的跟蹤效果,跟蹤誤差一直穩(wěn)定在一個較小的范圍里面,這主要得益于以下兩點:一是本文提出顯著性檢測算法在跟蹤過程中融入了目標先驗信息,從而使得目標區(qū)域顯著度較高,提高了顯著性特征對目標的表達能力;二是本文采用的遮擋判斷方法和特征融合算法能夠根據(jù)遮擋情況來自適應地選擇跟蹤策略,提升了算法應對遮擋問題的能力。
5結(jié)論
為應對跟蹤過程中的遮擋問題,本文對遮擋類型做了詳細的說明和分析,并在此基礎上構(gòu)建了基于目標先驗信息的視覺顯著性檢測和跟蹤算法。本文跟蹤算法通過視覺顯著性特征可以對該部分信息進行充分利用,從而避免了跟蹤失??;當目標發(fā)生了一定程度的自遮擋時,顯著性特征能夠先于顏色特征做出反應,使得目標區(qū)域在顯著圖中的顯著度依然較高,從而為實現(xiàn)魯棒跟蹤奠定了基礎。
參考文獻
[1] 任加勒, 孟利民. 基于數(shù)字噴泉碼的視頻監(jiān)控系統(tǒng)研究[J]. 微型機與應用, 2015,34(10): 4447.
?。?] 陳嫻, 彭宏, 吳海巍,等.視頻監(jiān)控在高速路作業(yè)調(diào)度系統(tǒng)上的應用[J]. 微型機與應用, 2015, 34(1): 2022.
[3] PEREZ P, HUE C, VERMAAK J, et al. Colorbased probabilistic tracking[C] the 7th European Conference on Computer Vision. Copenhagen: Springer Berlin Heidelberg, 2002: 661675.
?。?] 牛德智,陳長興,班斐,等. 基于變步長重采樣的非高斯非線性目標跟蹤[J].電子技術(shù)應用, 2014, 40(8): 129132.
?。?] SAKARI V, SETHI I K. Feature point correspondence in the presence of occlusion[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 1990, 12(1): 8791.
[6] RANGARAJAN K, SHAH M. Establishing motion correspondence[C] IEEE Conference on Computer Vision and Pattern Recognition, 1991: 103108.
?。?] ADAM A, RIVLIN E, SHIMSHONI I. Robust fragmentsbased tracking using the integral histogram[C]. IEEE Conference on Computer Vision and Pattern Recognition, 2006:798805.
[8] 趙宇宙, 陳宗海, 顯著子區(qū)域在線選擇的目標魯邦跟蹤[J]. 控制與決策, 2014, 29(10): 17881792.
?。?] BORJI A, ITTI L. Stateoftheart in visual attention modeling[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2013, 35(1): 185207.
[10] ITTI L, KOCH C, NIEBUR E. A model of saliencybased visual attention for rapid sceneanalysis[J]. IEEE Transactionson Pattern Analysis and Machine Intelligence, 1998, 20(11): 12541259.
?。?1] Cheng Mingming, Zhang Guoxin, MITRA N J, et al. Global contrast based salient region detection[C] IEEE Conference on Computer Vision and Pattern Recognition, 2011: 409416.
?。?2] 錢生, 林明強, 陳宗海, 等, 基于條件隨機場和圖像分割的顯著性檢測[J]. 自動化學報, 2015, 41(4): 711724.