《電子技術應用》
您所在的位置:首頁 > 顯示光電 > 設計應用 > 基于背景加權的聯(lián)合顏色紋理直方圖跟蹤算法
基于背景加權的聯(lián)合顏色紋理直方圖跟蹤算法
2016年微型機與應用第1期
黃清泉1,陳亮1,龐亮2,張翼鵬3
1.解放軍理工大學 通信工程學院,江蘇 南京 210007; 2.中國人民解放軍91202部隊,遼寧 葫蘆島 125000; 3.南京炮兵學院 作戰(zhàn)實驗中心,江蘇 南京 210007)
摘要: 針對在背景與目標顏色相近以及復雜場景中跟蹤不準確的問題,提出一種改進的背景加權Mean Shift (均值漂移) 跟蹤算法,在目標顏色直方圖中加入紋理特征,并將局部背景信息引入目標特征直方圖中,以排除復雜背景的影響。實驗證明,本文提出的算法在應對復雜背景及遮擋時比經典的Mean Shift算法以及背景加權Mean Shift算法更有效,且擁有不錯的運行效率。
Abstract:
Key words :

  摘要:針對在背景與目標顏色相近以及復雜場景中跟蹤不準確的問題,提出一種改進的背景加權Mean Shift (均值漂移) 跟蹤算法,在目標顏色直方圖中加入紋理特征,并將局部背景信息引入目標特征直方圖中,以排除復雜背景的影響。實驗證明,本文提出的算法在應對復雜背景及遮擋時比經典的Mean Shift算法以及背景加權Mean Shift算法更有效,且擁有不錯的運行效率。

  關鍵詞:Mean Shift;顏色紋理直方圖;背景加權

0引言

  運動目標跟蹤一直是計算機視覺領域的熱點問題, Mean Shift算法以其迭代次數(shù)少、調節(jié)參數(shù)少、實時性好、易于工程實現(xiàn)等優(yōu)點廣泛應用于各實時跟蹤系統(tǒng)[12]。Cheng Y等[3]于1995年首次將Mean Shift(MS)算法[4]運用到模式識別,此后,Mean Shift 被廣泛用于目標跟蹤。但由于Mean Shift算法本身使用單一的顏色直方圖表示目標特征,且使用了摻雜有背景信息的矩形目標模板,當目標處于背景與前景顏色相似的環(huán)境時,極易陷入局部最優(yōu),往往導致跟蹤目標丟失。

  為解決復雜場景中跟蹤精度低的問題,Comaniciu[5]等提出了背景加權顏色直方圖MS算法(BackgroundWeighted Histogram Mean Shift, BWHMS),在直方圖中融入局部背 景信息,以降低背景特征對目標的影響。Ning Jifeng等[6]證明了BWHMS算法沒有真正實現(xiàn)將背景信息引入目標模型中,并未達到實際效果,并在BWHMS算法基礎上提出一種改進的背景加權(Corrected Background-Weighted Histogram, CBWH) MS跟蹤算法,提高了算法在復雜場景的魯棒性。

  紋理信息是受背景顏色以及光照影響較小的特征,在跟蹤時加入紋理信息可以提高跟蹤的穩(wěn)健性。局部二值模式(Local Binary Pattern,LBP) [7]和它的變形[8]局部三值模式(Local Ternary Pattern,LTP),由于描述紋理特征時能力突出,有較高的計算效率,從而被廣泛應用于跟蹤系統(tǒng)[9]。參考文獻[1011]提取目標紋理及顏色直方圖,跟蹤能力有所提升。以上基于顏色紋理的跟蹤算法雖然一定程度上提高了復雜場景的跟蹤效果,但都沒有考慮背景對目標定位的干擾。

  為有效地解決以上問題,本文在CBWHMS算法的基礎上提出了一種聯(lián)合R、G、B顏色和LBP紋理混合特征直方圖描述目標,并使用背景加權的MeanShift算法。實驗顯示,本文改進的方法不僅在背景干擾大時跟蹤精度更高,而且對于復雜場景的魯棒性更強,同時具有較好的計算效率。

1經典Mean Shift算法

  Mean Shift算法是通過人機交互的方式在起始幀通過鼠標劃定一個矩形目標區(qū)域,計算區(qū)域中像素點的各特征值在特征空間中的概率,得到目標模型;在后續(xù)幀中可能出現(xiàn)目標的候選區(qū)域得到目標候選模型;然后引入Bhattacharyya系數(shù)對目標模型和候選目標模型進行相似性度量,通過求Bhattacharyya系數(shù)的最大值得到目標的當前位置,實現(xiàn)對目標的跟蹤。

  11目標模型

  基于加權核函數(shù)的目標模型的概率密度函數(shù)u表示為:

  1.png

  式中,u是直方圖分量u的值; m是分量個數(shù),通常m取32或者16,如果未量化則默認為256;h是核函數(shù)k(x)的窗寬; δ是Kronecker Delta函數(shù);b(xi)是xi處像素對應的直方圖中的顏色索引;常數(shù)C為歸一化系數(shù),由約束條件:∑mu=1u=1,得到:C=1∑ni=1ky0-xih2。

  12候選目標模型

  候選目標模型的概率密度函數(shù)u表示為:

  2.png

  13目標模型和候選模型的相似性度量

  目標模型與候選目標模型兩者間的相似性常用Bhattacharyya系數(shù):(y)=∑mu=1p^u(y)q^u來計算。用泰勒公式展開得到:

  34.jpg

  在當前幀中不同的候選區(qū)域計算得到不同的候選模型,使得Bhattacharyya系數(shù)最小的候選區(qū)域即是本幀中目標的位置。MS算法就是在新的幀中確定一個候選位置,使得Bhattacharyya系數(shù)最大。

2融合背景信息的顏色紋理直方圖均值漂移跟蹤算法

  21LBP紋理特征

  LBP擁有旋轉不變性、灰度不變性,是高效的局部紋理特征描述符,多被應用于特征識別、紋理分類等領域。LBP計算圖像中各像素與其相鄰像素的灰度值并進行比較,比較結果用二進制模式表示以描述紋理,計算公式為:

  5.png

  其中,目標像素的局部區(qū)域用P和R表示,P是鄰域內像素的數(shù)目,R是中心像素與相鄰像素的距離;gp是圓心為像素點(xc,yc)、半徑為R的鄰域內P個像素點的灰度;gc是中心像素點(xc,yc)的灰度。函數(shù)s(x)定義為:

  6.png

  但由式(5)表示的LBP不具有旋轉不變性,并不適合用來對目標姿勢改變下進行特征建模。對于這一缺點,參考文獻[12]給出了一種改進的LBP,定義為:

  LBPriu2P,R=∑P-1p=0s(gp-gc),U(LBPP,R)≤2

  78.png

  22聯(lián)合紋理顏色直方圖

  使用上述改進LBP,對目標的每個像素點進行計算,得到一個LBPriu2P,R,當P=8,R=1時,取值范圍為0~9,計算目標的紋理特征,再結合R,G,B三維的顏色直方圖聯(lián)合定義紋理顏色直方圖。但是通過實驗得知,這樣定義的聯(lián)合紋理顏色直方圖并未明顯地改善在目標與背景相似時的跟蹤效果。為增強視頻圖像中不平坦區(qū)域的特征表示能力,減少來自平坦區(qū)域的干擾,參考文獻[8]只保留9種之中共5種不平坦的均勻模式。此外,為增強對平坦區(qū)域的抗干擾能力,增加一項抗干擾因子r,對灰度值波動的容忍度越大,r的絕對值越大。最終本文定義紋理特征的計算如下:

  9.png

  該紋理特征只計算目標區(qū)域中變化劇烈的像素點,來自平坦區(qū)域的影響被大大削弱,彌補了單一顏色特征直方圖的不足。融合上述LBPriu28,1的特征值和顏色直方圖,定義聯(lián)合紋理顏色直方圖為:

  1011.jpg

  在本文算法中,取維度m=8×8×8×5,最后一維表示LBPriu28,1中5種紋理模式,前三維表示三維顏色通道。

  23基于背景權重的顏色紋理特征概率分布

  由于跟蹤目標通常使用矩形區(qū)域表示,不可避免地包含了一些背景信息,為了減少背景信息的干擾,本文將背景權重引入顏色紋理特征,重新定義目標模型和候選目標模型。

  新的目標模型為:

  ′u=C′vu∑ni=1kx*i2δb(x*i)-u(12)

  新的候選目標模型為:

  1314.jpg

  在第一幀對初始目標初始化,得到其初始位置并計算得到背景的特征模型{u}u=1,…,m(∑mi=1u=1);計算當前幀背景特征{′u}u=1,…,m和{v′u}u=1,…,m;然后,計算{′u}u=1,…,m與上一幀背景模型{u}u=1,…,m之間的相似度Bhattacharyya系數(shù),其表達式為:

  ρ=∑nu=1o^uo^′u(15)

  如果ρ<ε,表明背景變化較大,則更新背景模型:

  {u}u=1,…,m←{′u}u=1,…,m,{vu}u=1,…,m←{v′u}u=1,…,m。同時將{v′u}u=1,…,m代入式(12)計算目標模型。否則,不更新背景模型。

  24顏色紋理直方圖的背景加權MS算法

  改進算法的步驟如下:

  (1)初始化,獲取目標初始位置y0。根據式(10)計算目標模型的  和 背景模型的{u}u=1,…,m;計算 {vu}u=1,…,m并根據式(12)計算′;

  (2)賦值k←0;

  (3)根據式(13)計算當前幀候選目標模型的(y0);

  (4)根據式(14)計算權重ω′i;

  (5)根據式(3)計算新位置y1;

  (6)賦值d←y1-y0,y0←y1,k←k+1;誤差閾值ε1←01,最大迭代次數(shù)為N。如果d<ε1 or k>N,計算當前幀的背景特征{′u}u=1,…,m和{v′u}u=1,…,m;如果ρ<ε2,則更新背景模型:{u}u=1,…,m←{′u}u=1,…,m,{vu}u=1,…,m←{v′u}u=1,…,m,并更新目標模型:{′u}u=1,…,m,跳轉至步驟(2)跟蹤下一幀目標;否則 ,k←k+1 并跳轉至步驟(3)。

  改進后算法流程如圖1所示。

  

001.jpg

3實驗結果

  為驗證本文改進算法的性能,挑選了幾段標準的測試視頻進行測試,并與只基于顏色直方圖的傳統(tǒng)MeanShift跟蹤算法(MS)以及基于背景加權的顏色直方圖跟蹤算法(CBWHMS)對比。在圖2、圖3中由上至下依次為經典MS算法、CBWHMS算法、改進的顏色紋理直方圖的背景加權MS算法的跟蹤結果。

002.jpg

  如圖2所示,選取行人經過電線桿的視頻作為測試視頻,測試改進算法在遮擋情況下的魯棒性。在經過電線桿以后,由于目標被遮擋,MS算法以及CBWH-MS算法難以區(qū)分遮擋環(huán)境中的目標,降低了跟蹤效果。而改進算法能很好地定位到目標,說明改進算法相比于上述兩種算法,在遮擋情況下具有更強的魯棒性。

  如圖3所示,選取快速晃動的玩具貓的視頻作為測試視頻,測試改進算法在復雜背景下的抗干擾性及計算效率。在玩具貓快速運動的過程中,MS算法受到復雜背景的影響,難以從環(huán)境中區(qū)分出目標,跟蹤效果不是很好; CBWHMS算法加入了背景信息,但跟蹤效果次于改進算法,說明融合了紋理特征的改進算法能夠提高在復雜環(huán)境中的跟蹤魯棒性。同時,改進算法能夠對快速運動的目標進行實時跟蹤,具有實時性。

  對三種算法的計算性能進行了比較,結果如表1所示,可以看出,本文算法效率低于經典的MS算法,但與CBWHMS算法的效率相持平,能夠滿足實時性的要求。

003.jpg

4結論

  本文提出了一種顏色紋理混合直方圖的背景加權均值漂移跟蹤算法,融合了傳統(tǒng)的RGB顏色直方圖以及基于LBP表示的紋理特征。為降低背景對跟蹤的影響,部分性地加權背景信息,從而提高背景復雜環(huán)境中的跟蹤效果。相比于只基于顏色直方圖的傳統(tǒng)MeanShift跟蹤算法(MS)以及基于全部背景更新的顏色直方圖跟蹤算法(CBWH-MS),改進算法在背景復雜的場景中具有較好的計算效率,且能夠對目標進行更有效、更準確的跟蹤。

  參考文獻

  [1] 陳東岳,陳宗文.基于特征顯著性的均值漂移魯棒目標跟蹤[J].上海交通大學學報,2013,47(11):1807-1812.

 ?。?] 王宇雄,章毓晉,王曉華.4-D尺度空間中基于Meanshift的目標跟蹤[J].電子與信息學報,2010,32(7):1626-1632.[3] Cheng Yizong. Mean shift mode seeking and clustering [J].IEEE Transactions on Pattern Analysis and Machine Intelligence, 1995, 17(8):790-799.

  [4] FUKUNAGA K,HOSTELLERL D. The estimation of the gradient of a density function with applications in pattern recognition[J]. IEEE Transactions on Information Theory, 1975, 21(1): 32-40.

 ?。?] COMANICIU D,RRAMESH V,Meer P. Realtime tracking of nonrigid objects using mean shift[C].IEEE Conference on Computer Vision and Pattern Recognition,2000: 142-149.

  [6] Ning Jifeng, Zhang Lei, ZHANG D, et al. Robust mean shift tracking with corrected backgroundweighted histogram[J]. IET Computer Vision, 2010, 6(1):62-69.

 ?。?] HEIKKIA M,PIETKAINEN M,SCHMID C.Description of interest regions with local binary patterns[J].Pattern Recognition, 2009, 42(3):425-426.

  [8] TAN X,TRIGGS B.Enhanced local texture feature sets for face recognition under difficult lighting conditons[J]. Image Processing, 2010,19(6):1635-1650.

 ?。?] 張紅穎,胡正.融合局部三值數(shù)量和色度信息的均值漂移跟蹤[J].電子與信息學報,2014, 36(3):624-630.


此內容為AET網站原創(chuàng),未經授權禁止轉載。