文獻(xiàn)標(biāo)識(shí)碼: A
DOI:10.16157/j.issn.0258-7998.190356
中文引用格式: 張?zhí)祜w,龍海燕,丁嬌,等. 基于目標(biāo)多區(qū)域分割的抗干擾跟蹤算法研究[J].電子技術(shù)應(yīng)用,2019,45(10):37-39,44.
英文引用格式: Zhang Tianfei,Long Haiyan,Ding Jiao,et al. Research on anti-jamming tracking algorithm based on multi-region segmentation of target[J]. Application of Electronic Technique,2019,45(10):37-39,44.
0 引言
隨著計(jì)算機(jī)技術(shù)及數(shù)字圖像處理技術(shù)的快速發(fā)展,基于視頻序列的運(yùn)動(dòng)目標(biāo)檢測(cè)與跟蹤是計(jì)算機(jī)視覺的一個(gè)重要的研究方向,目前已被廣泛的應(yīng)用于各個(gè)領(lǐng)域,如智能交通、視頻監(jiān)控、無人機(jī)跟蹤、人機(jī)交互等,實(shí)現(xiàn)了用計(jì)算機(jī)代替人眼對(duì)外界物體的運(yùn)動(dòng)進(jìn)行智能分析,為人們的生活和工作提供了很大的便利[1-2]。近年來各種目標(biāo)檢測(cè)與目標(biāo)跟蹤的技術(shù)已日趨成熟,有基于顏色信息進(jìn)行跟蹤的方法,如Mean Shift算法[3-5]、模糊C均值聚類[6-9];有基于紋理的方法,如核相關(guān)濾波算法(Kernerlized Correlation Filter,KCF)[10-14]、尺度空間判別跟蹤算法(Discriminative Scale Space Tracking,DSST)[15]。目前很多跟蹤方法也將深度學(xué)習(xí)的思路融入其中[16-18],并且取得了長(zhǎng)足的進(jìn)步。
視頻序列中目標(biāo)跟蹤的難點(diǎn)在于目標(biāo)移動(dòng)過程中可能出現(xiàn)被其他物體遮擋、目標(biāo)形狀發(fā)生變化以及目標(biāo)發(fā)生旋轉(zhuǎn)等情況,從而造成跟蹤失敗。本文通過對(duì)目標(biāo)分割成多個(gè)區(qū)域分別跟蹤以及采用多個(gè)區(qū)域的模板分別更新這兩個(gè)策略以期望算法能夠在一定程度上容忍目標(biāo)在移動(dòng)過程中出現(xiàn)的形變和部分遮擋情況。實(shí)驗(yàn)結(jié)果證明所采用的方法達(dá)到了預(yù)期。
接下來,本文將分別介紹算法的模板更新策略以及定位策略。
1 目標(biāo)多區(qū)域分割跟蹤方法
在實(shí)際場(chǎng)景中,經(jīng)常會(huì)遇到目標(biāo)在移動(dòng)過程中由于視角的變化等原因?qū)е履繕?biāo)形態(tài)發(fā)生變化,以及由于目標(biāo)在移動(dòng)過程中被其他物體遮擋等原因?qū)е履繕?biāo)只有部分區(qū)域出現(xiàn)在圖像中,這些都會(huì)導(dǎo)致跟蹤算法性能降低。針對(duì)此種情況,本文提出了一種新的搜索定位方法,即對(duì)目標(biāo)中的多個(gè)區(qū)域進(jìn)行跟蹤,此方法可以在一定程度上解決由于目標(biāo)部分遮擋以及形變等原因造成跟蹤算法性能下降的問題。
1.1 模板選擇策略
目前將目標(biāo)分割為多個(gè)區(qū)域主要有兩種劃分方法,分別是劃分為相互重疊的區(qū)域以及劃分為相互不重疊的區(qū)域。將目標(biāo)劃分為相互不重疊的區(qū)域,可以簡(jiǎn)化計(jì)算;將目標(biāo)劃分為相互重疊的區(qū)域,可以增加目標(biāo)可用區(qū)域,使得選取的目標(biāo)區(qū)域位置更加合理。本文選擇對(duì)目標(biāo)劃分為部分相互重疊的區(qū)域,其中重疊率為50%,如圖1所示,其中,陰影部分為相鄰模塊的重疊區(qū)域。
在得到目標(biāo)的多個(gè)區(qū)域位置后,對(duì)目標(biāo)區(qū)域進(jìn)行篩選。首先利用式(1)計(jì)算目標(biāo)區(qū)域特征,篩選的準(zhǔn)則是特征穩(wěn)定且特征盡可能大的區(qū)域。
其中,fbi表示第i個(gè)區(qū)域的特征值;ω表示區(qū)域距離中心的權(quán)重信息,距離中心越遠(yuǎn)權(quán)重越小,反之越大;fi表示目標(biāo)的紋理特征值(由n個(gè)子特征值組成,第k的子特征值為xk),特征值越大表示是目標(biāo)的可能性就越大,跟蹤過程中此特征就越穩(wěn)定。將式(1)計(jì)算得到的多個(gè)區(qū)域值按fbi特征值由大到小進(jìn)行排序,然后選擇其中3個(gè)區(qū)域作為定位區(qū)域,另外將目標(biāo)中心區(qū)域一同作為定位區(qū)域使用,這樣最終獲得了4個(gè)定位區(qū)域??紤]到所選區(qū)域的多樣性,在進(jìn)行區(qū)域選擇時(shí),盡量不要選擇距離很近的兩個(gè)區(qū)域作為定位區(qū)域。
1.2 搜索定位策略
接下來的問題是如何找到兩個(gè)目標(biāo)的相似性。計(jì)算目標(biāo)相似性本文使用的是相關(guān)濾波的方法,見式(2),值越小表示相似度越高。
算法中為了增加抗干擾性能,使用了多個(gè)區(qū)域?qū)δ繕?biāo)進(jìn)行定位,通過式(3)計(jì)算整個(gè)目標(biāo)區(qū)域的相關(guān)性。
式中,λbi表示第i個(gè)區(qū)域?qū)φ麄€(gè)結(jié)果的重要性,可以用高斯濾波表示。為了使得計(jì)算結(jié)果更加穩(wěn)定且準(zhǔn)確,在確定λbi值時(shí)需要注意:目標(biāo)中心區(qū)域中的λbi所占的比重會(huì)比周圍的區(qū)域大,另外區(qū)域特征值越大,給出的λbi也會(huì)越大。
1.3 模板更新策略
模板是直接影響下一幀搜索結(jié)果的一個(gè)很重要的因素,若模板選擇不合理,將會(huì)導(dǎo)致跟蹤結(jié)果出現(xiàn)偏差,甚至跟蹤到完全錯(cuò)誤的物體上。根據(jù)實(shí)驗(yàn)可知,如果模板每幀都在更新,若出現(xiàn)遮擋等情況時(shí),就會(huì)造成模板被污染,導(dǎo)致跟蹤失敗。本文中,模版更新采用不同的目標(biāo)區(qū)域,其更新的權(quán)重不同,這樣可以使得模板更新相對(duì)精確,從而避免由于遮擋等原因造成誤更新問題。模板更新公式如下:
2 實(shí)驗(yàn)結(jié)果分析
KCF是目前跟蹤算法相對(duì)比較出色的一種相關(guān)濾波算法,采用脊回歸以及循環(huán)卷積等方法取得了較好的跟蹤效果。下述實(shí)驗(yàn)將KCF與本文提出的方法進(jìn)行對(duì)比分析,如圖2所示。
圖2中,虛線框代表KCF跟蹤效果,實(shí)線框代表本文算法,在跟蹤過程未遇到障礙物之前KCF方法與本文算法跟蹤效果類似,都能相對(duì)準(zhǔn)確地跟蹤到目標(biāo);當(dāng)障礙物剛開始遮擋目標(biāo)時(shí),KCF方法也可以跟蹤到目標(biāo),但是偏差會(huì)越來越大,本文方法可以相對(duì)準(zhǔn)確地跟蹤部分遮擋的目標(biāo);當(dāng)目標(biāo)從障礙物的另一個(gè)方向出現(xiàn)時(shí),KCF并沒有及時(shí)地跟蹤到目標(biāo),但是本文方法能夠跟蹤到目標(biāo),這主要得益于本文方法使用的多區(qū)域跟蹤以及多幀更新模板的策略。
由上述實(shí)驗(yàn)結(jié)果可以看出,本文對(duì)于跟蹤目標(biāo)的形變以及遮擋等情況有一定的抗干擾能力。
3 結(jié)論
目標(biāo)跟蹤過程中,本文使用的多區(qū)域目標(biāo)跟蹤策略以及不同權(quán)重的多幀更新模板策略在一定程度上可以減少由于目標(biāo)形變以及障礙物遮擋造成的跟蹤丟失的情況,即具有一定的魯棒性,能夠較好地實(shí)現(xiàn)目標(biāo)的實(shí)時(shí)跟蹤。
參考文獻(xiàn)
[1] 袁寶紅.基于視頻的運(yùn)動(dòng)目標(biāo)檢測(cè)與跟蹤研究[D].合肥:安徽大學(xué),2014.
[2] 祁淑霞.基于形狀上下文和粒子濾波的多目標(biāo)跟蹤[J].電子技術(shù)應(yīng)用,2015,41(1):156-160.
[3] VOJIR T,NOSKOVA J,MATAS J.Robust scale-adaptive mean-shift for tracking[C].SCIA,2013:652-663.
[4] 李紅波,曾德龍,吳渝.基于Mean-Shift和粒子濾波的兩步多目標(biāo)跟蹤方法[J].重慶郵電大學(xué)學(xué)報(bào)(自然科學(xué)版),2010(1):112-117,121.
[5] 周楊,胡桂明,黃東芳.基于邊緣自適應(yīng)的Mean Shift目標(biāo)跟蹤方法[J].電子技術(shù)應(yīng)用,2017(5):138-142.
[6] 王小鵬,張永芳,王偉,等.基于自適應(yīng)濾波的快速?gòu)V義模糊C均值聚類圖像分割[J].模式識(shí)別與人工智能,2018,31(11):1040-1046.
[7] 郝慧娟,許繼勇,劉廣起.基于自適應(yīng)分塊的視頻目標(biāo)跟蹤方法研究[J].計(jì)算機(jī)應(yīng)用研究,2010,27(9):3579-3580,3590.
[8] 許辰銘.視頻圖像中的運(yùn)動(dòng)目標(biāo)檢測(cè)與跟蹤[D].南京:南京郵電大學(xué),2012.
[9] HENRIQUES J F,CASEIRO R,MARTINS P,et al.High-speed tracking with kernelized correlation filters[J].TPAMI,2015,37(3):583-596.
[10] HENRIQUES J F,CASEIRO R,MARTINS P,et al.Exploiting the circulant structure of tracking-by-detection with kernels[C].ECCV,2012.
[11] 劉延飛,何燕輝,張薇,等.基于異常值檢測(cè)的KCF目標(biāo)丟失預(yù)警方法研究[J].計(jì)算機(jī)工程與應(yīng)用,2018,54(22):216-222.
[12] DANELLJAN M,H?魧GER G,KHAN F S,et al.Accurate scale estimation for robust visual tracking[C].Proceedings of the British Machine Vision Conference(BMVC),2014.
[13] DANELLJAN M,H?魧GER G,KHAN F S,et al.Michael felsberg. discriminative scale space tracking[J].TPAMI,2017,39(8):1561-1575.
[14] 馬曉虹,尹向雷.基于相關(guān)濾波器的目標(biāo)跟蹤方法綜述[J].電子技術(shù)應(yīng)用,2018,44(6):3-7,14.
[15] NAM H,HAN B.Learning multi-domain convolutional neural networks for visual tracking[C].CVPR,2016.
[16] BERTINETTO L,VALMADRE J,HENRIQUES J F,et al.Fully-convolutional siamese networks for object tracking[C].ECCV,2016.
[17] HELD D,THRUN S,SAVARESE S.Learning to track at 100 fps with deep regression networks[C].ECCV,2016.
[18] 黃睿,陸許明,鄔依林.基于TensorFlow深度學(xué)習(xí)手寫體數(shù)字識(shí)別及應(yīng)用[J].電子技術(shù)應(yīng)用,2018,44(10):6-10.
作者信息:
張?zhí)祜w,龍海燕,丁 嬌,張 磊
(安徽信息工程學(xué)院,安徽 蕪湖241000)