《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > 嵌入式技術(shù) > 設(shè)計(jì)應(yīng)用 > 基于形狀上下文和粒子濾波的多目標(biāo)跟蹤
基于形狀上下文和粒子濾波的多目標(biāo)跟蹤
2015年電子技術(shù)應(yīng)用第1期
祁淑霞
山東政法學(xué)院 信息學(xué)院,山東 濟(jì)南250014
摘要: 目標(biāo)跟蹤是計(jì)算機(jī)視覺領(lǐng)域里研究的熱點(diǎn)和難點(diǎn)。提出一種基于形狀上下文和粒子濾波的多目標(biāo)跟蹤算法,通過在跟蹤過程中融入目標(biāo)檢測信息來處理目標(biāo)進(jìn)入與離開場景問題和目標(biāo)重疊與分離問題。首先,采用自適應(yīng)增強(qiáng)檢測算法對視頻區(qū)域中的目標(biāo)進(jìn)行檢測;然后,利用形狀上下文特征來建立被跟蹤目標(biāo)的外觀模型;最后,利用粒子濾波方法進(jìn)行粒子的選擇和目標(biāo)的跟蹤。實(shí)驗(yàn)證明,提出的算法能夠有效處理目標(biāo)進(jìn)入與離開場景的問題和目標(biāo)重合與分離的問題,在單一背景和復(fù)雜背景下都能進(jìn)行較為準(zhǔn)確的跟蹤,還能一定程度上處理部分遮擋問題。
中圖分類號(hào): TP391
文獻(xiàn)標(biāo)識(shí)碼: A
文章編號(hào): 0258-7998(2015)01-0156-05
Multiple target tracking using shape context features and particle filter
Qi Shuxia
School of Information,Shandong University of Political Science and Law,Jinan 250014,China
Abstract: Target tracking is still a hot and difficult research topic in computer vision. In this paper, we proposed a novel multiple target tracking method, which is based on shape context features and particle filter. Our method is proposed to deal with problems of the target objects entering(or leaving) the scene and overlap(or separation) by incorporating Adaboost detection. First, we adopt Adaboost detection algorithm for detecting multiple objects. Then, the target appearance model is builded by using the shape context features. Finally, we apply particle filter to choosing target particles and tracking objects in videos. The experiments indicate that the proposed method can effectively deal with the issue of targets entering(or leaving) the scene and targets overlap(or separation), and exactly track the targets which is under both single and complex background. And the proposed method also can handle partial occlusion on some extent.
Key words : multiple-target tracking;target detection;shape context features;particle filter

  

0 引言

  目標(biāo)跟蹤是計(jì)算機(jī)視覺領(lǐng)域的一個(gè)重要研究方向,在智能監(jiān)控、智能交通、視頻檢索和人機(jī)交互等方面具有重要的應(yīng)用價(jià)值。同時(shí),目標(biāo)跟蹤也引起了國內(nèi)外學(xué)者的廣泛關(guān)注和研究,提出了多種目標(biāo)跟蹤算法。但是由于視頻中目標(biāo)的形變、光照變化、遮擋、背景混淆等因素的影響[1-4],創(chuàng)建一個(gè)能夠抵抗外界因素干擾,并且具有魯棒性和高效性的目標(biāo)跟蹤算法,仍然是一項(xiàng)極具挑戰(zhàn)的任務(wù)。

  目標(biāo)外觀模型的建立是目標(biāo)跟蹤算法的一個(gè)重要組成部分,一個(gè)高效的且合適的外觀模型能大大提高目標(biāo)跟蹤算法的性能[5-8]。文獻(xiàn)[3]利用分塊的策略來建立待跟蹤目標(biāo)的外觀模型,用以處理目標(biāo)姿勢的變化和部分遮擋問題。文獻(xiàn)[7]對目標(biāo)進(jìn)行稀疏表示,能夠很好地處理部分遮擋、光照和姿勢的變化。文獻(xiàn)[9]同時(shí)利用目標(biāo)和背景區(qū)域的特征,運(yùn)用多個(gè)弱分類器增強(qiáng)的算法進(jìn)行目標(biāo)的跟蹤。文獻(xiàn)[10]基于圖像顏色特征和粒子濾波算法來進(jìn)行目標(biāo)跟蹤,雖然顏色特征的提取比較容易,但是當(dāng)跟蹤目標(biāo)的顏色和背景顏色非常相近時(shí),就會(huì)導(dǎo)致跟蹤的失敗。文獻(xiàn)[11-12]提出基于壓縮感知理論的跟蹤算法,并且證明,從高維尺度圖片中隨機(jī)提取的低維特征可以有效地保留圖片內(nèi)在的辨別能力,使得目標(biāo)跟蹤過程實(shí)現(xiàn)起來更加方便。文獻(xiàn)[13-16]中基于多實(shí)例學(xué)習(xí)框架提出的跟蹤算法,可以有效地處理目標(biāo)跟蹤中正樣本位置模糊問題。這些跟蹤方法都是針對單目標(biāo)設(shè)計(jì),對于多目標(biāo)跟蹤的研究還相對較少,然而現(xiàn)實(shí)生活中,很多情況下需要同時(shí)跟蹤多個(gè)目標(biāo)。

  通常,在復(fù)雜環(huán)境中的多目標(biāo)跟蹤問題往往充滿了更多不確定性因素[17],例如目標(biāo)的消失與出現(xiàn)、目標(biāo)的重疊與分離。進(jìn)行多目標(biāo)跟蹤,首先自動(dòng)檢測出所感興趣的目標(biāo),然后對這些目標(biāo)進(jìn)行特征表示,建立外觀模型,最后運(yùn)用搜索策略在視頻序列中搜索定位目標(biāo),同時(shí)伴隨目標(biāo)變化不斷更新模型。鑒于在目標(biāo)發(fā)生遮擋或漂移的情況下,局部特征表現(xiàn)出的優(yōu)勢,本文采用形狀上下文特征[18]建立目標(biāo)的外觀模型。由于實(shí)際問題的復(fù)雜性,目標(biāo)跟蹤面臨的多是非線性非高斯問題,粒子濾波算法在解決非線性非高斯問題上具有很大優(yōu)越性,因此被廣泛應(yīng)用于目標(biāo)跟蹤領(lǐng)域[10,19-20]。本文結(jié)合形狀上下文和粒子濾波算法,提出一種基于形狀上下文特征和粒子濾波的多目標(biāo)跟蹤算法。實(shí)驗(yàn)證明本文提出的算法在實(shí)時(shí)性和準(zhǔn)確性方面都有優(yōu)勢。

1 目標(biāo)檢測

  1.1 自適應(yīng)增強(qiáng)檢測算法

  級(jí)聯(lián)的自適應(yīng)增強(qiáng)檢測算法[21]最初用于人臉檢測,效果顯著。其主要思想是,首先對多個(gè)弱分類器根據(jù)其區(qū)分正負(fù)樣本的能力進(jìn)行權(quán)值分配,為分類效果好的弱分類器分配相對大的權(quán)值,反之給予小的權(quán)值;其次把分類效果好的弱分類器組合成強(qiáng)分類器,然后根據(jù)其分類效果重新分配新的權(quán)值,如此循環(huán)直至形成分類效果魯棒的強(qiáng)分類器;最后,用訓(xùn)練好的強(qiáng)分類器對篩選好的haar特征進(jìn)行目標(biāo)的檢測與分類。本文采用自適應(yīng)增強(qiáng)檢測算法,訓(xùn)練一個(gè)級(jí)聯(lián)的分類器進(jìn)行目標(biāo)檢測。在待檢測場景中采集包含目標(biāo)的眾多圖像區(qū)域,歸一化到相同尺寸作為訓(xùn)練正樣本。為了加快正樣本采集的速率,需使用一種簡單高效的策略,即在靠近中心的位置以低強(qiáng)度提取樣本,外圍區(qū)域以高強(qiáng)度提取樣本。需要注意的是,以這種策略產(chǎn)生的樣本數(shù)據(jù)進(jìn)行訓(xùn)練不是最理想的,在邊緣處會(huì)產(chǎn)生一些錯(cuò)分的正樣本。而人工選擇一個(gè)更大的訓(xùn)練集會(huì)訓(xùn)練出更好的增強(qiáng)的分類器,但是在場景混亂或目標(biāo)重疊區(qū)域仍然會(huì)失效。負(fù)樣本則從目標(biāo)周圍不包含目標(biāo)的背景區(qū)域中采集。

002.jpg

  圖1展示了自適應(yīng)增強(qiáng)檢測算法在冰球場數(shù)據(jù)集中的檢測結(jié)果。(a)和(b)為自適應(yīng)增強(qiáng)檢測算法對于冰球運(yùn)動(dòng)員進(jìn)行的精確檢測結(jié)果。不難看出,自適應(yīng)增強(qiáng)檢測算法在冰球場場景中具有很好的檢測效果。其中,對于視頻中的新增目標(biāo)、重疊目標(biāo)和不同大小的目標(biāo),該算法也實(shí)時(shí)地給出了準(zhǔn)確的檢測。

  1.2 引入自適應(yīng)增強(qiáng)檢測算法的目的

  對運(yùn)動(dòng)目標(biāo)進(jìn)行跟蹤,經(jīng)常會(huì)遇到某個(gè)目標(biāo)進(jìn)入或離開場景的情況,一個(gè)好的多目標(biāo)跟蹤算法需要能夠準(zhǔn)確檢測出目標(biāo)何時(shí)離開或進(jìn)入場景,并刪除或添加目標(biāo)跟蹤框。因此本文在跟蹤中引入自適應(yīng)增強(qiáng)檢測算法來解決這個(gè)問題,利用自適應(yīng)增強(qiáng)檢測算法檢測出可能包含目標(biāo)的小區(qū)域,結(jié)合粒子濾波最終確定目標(biāo)位置。實(shí)驗(yàn)證明,加入檢測算法能夠有效避免目標(biāo)偏移,特別是,當(dāng)運(yùn)動(dòng)目標(biāo)進(jìn)入和離開運(yùn)動(dòng)場景時(shí),都可以很好地對目標(biāo)進(jìn)行檢測定位和跟蹤目標(biāo)框的移除,實(shí)現(xiàn)了對運(yùn)動(dòng)目標(biāo)的實(shí)時(shí)跟蹤。

2 基于形狀上下文和粒子濾波的多目標(biāo)跟蹤

  本節(jié)詳細(xì)介紹基于形狀上下文和粒子濾波的多目標(biāo)跟蹤算法。在目標(biāo)跟蹤的過程中,首先提取目標(biāo)區(qū)域的形狀上下文特征作為目標(biāo)模板,然后搜索候選目標(biāo)區(qū)域,比較其形狀上下文特征與目標(biāo)模板的相似性,最相似的候選目標(biāo)區(qū)域即確定為目標(biāo)的當(dāng)前位置。

  2.1 形狀上下文特征提取

  目標(biāo)跟蹤問題可以被看作是目標(biāo)模板與候選目標(biāo)之間的匹配問題。形狀上下文算法在衡量形狀相似性和形狀匹配方面表現(xiàn)出良好的特性,因此本文使用形狀上下文描述符表示目標(biāo)的外觀模型。

  采用邊緣檢測算法檢測出被跟蹤目標(biāo)的輪廓,從中采集n個(gè)特征點(diǎn)來表示目標(biāo)的整個(gè)形狀結(jié)構(gòu),采集的特征點(diǎn)越多,越能展現(xiàn)目標(biāo)的形狀細(xì)節(jié)。這些特征點(diǎn)有些分布在目標(biāo)輪廓上,有些分布在目標(biāo)輪廓內(nèi)部。圖2展示了特征點(diǎn)的采集過程。圖2(a)為視頻中的一幀原始圖像,圖2(b)是對原始圖進(jìn)行邊緣檢測的結(jié)果,圖2(c)中方框里的點(diǎn)為采集的目標(biāo)的特征點(diǎn)。

001.jpg

  對于形狀[18,22]中的任一特征點(diǎn)pi,通過計(jì)算其余特征點(diǎn)在每個(gè)組距的分布,建立其在極坐標(biāo)下的直方圖hi,如圖3所示,hi定義如下:

  hi(k)=#{q≠pi:(q-pi)∈bin(k)}(1)

  第一個(gè)形狀中的特征點(diǎn)pi與第二個(gè)形狀中的特征點(diǎn)qj之間的匹配成本為:

  2.png

  其中,K表示組距的數(shù)目,hi和hj分別表示在pi和qj處的形狀上下文直方圖。

  兩個(gè)形狀匹配的總成本可由最小化這些特征點(diǎn)的匹配成本得到:

  3.png

  該最小化問題可以采用Hungarian方法[23]在O(N3)的時(shí)間內(nèi)解決,但是這對于目標(biāo)跟蹤問題來說時(shí)間消耗太大,因此本文使用的改進(jìn)的形狀上下文特征[24]來減少時(shí)間的開銷。假設(shè)目標(biāo)模板包含s個(gè)形狀上下文直方圖,從候選目標(biāo)中隨機(jī)地選取r個(gè)形狀上下文直方圖,則目標(biāo)模板與候選目標(biāo)的匹配成本轉(zhuǎn)化該s個(gè)目標(biāo)模板形狀上下文直方圖與r個(gè)候選目標(biāo)形狀上下文柱狀圖之間的匹配成本。通常s大約是r的20倍,因此該方法的速度將會(huì)比之前大大提高。

003.jpg

  如圖3所示,(a)是無遮擋的圖像,(b)是有遮擋的圖像,(c)是用來計(jì)算形狀上下文柱狀圖的極坐標(biāo),(d)、(e)和(f)是分別表示矩形、圓形和三角形處的形狀上下文柱狀圖。由圖可以看出,矩形點(diǎn)和圓點(diǎn)所表示形狀上下文柱狀圖非常相似,在原圖像中也是一致對應(yīng)的點(diǎn),這樣形狀上下文特征就可以很好地處理遮擋問題。

  2.2 粒子濾波

  粒子濾波由于其在解決非線性非高斯問題的優(yōu)越性,被廣泛應(yīng)用于目標(biāo)跟蹤中。粒子濾波的思想基于蒙特卡洛方法,采用一組隨機(jī)狀態(tài)粒子來逼近狀態(tài)的后驗(yàn)概率密度函數(shù)。令Xt表示t時(shí)刻的目標(biāo)狀態(tài),Yt表示t時(shí)刻的觀測值,則在貝葉斯框架下,后驗(yàn)概率密度p(Xt|Y1:t)可通過如下遞歸過程來獲得[10]:

  4.png

  其中,Y1:t-1={Y1,Y2,…,Yt-1},p(Yt|Xt)表示觀測模型[25]。

  粒子濾波算法包括預(yù)測和更新兩個(gè)操作階段。預(yù)測階段,由1~(t-1)時(shí)刻的觀測值估計(jì)t時(shí)刻的狀態(tài):

  5.png

  其中,后驗(yàn)概率分布p(Xt|Y1:t)可由被賦予不同重要性權(quán)重XX(~7F48M[)(V3@@QY4~GGO.jpg(i-1,…,n)的n個(gè)粒子CTD~P8D2N73B6}7816T{@9N.png(i=1,…,n)近似估計(jì)得到,并且,這n個(gè)粒子服從重要性分布q(Xt|X1:t-1,Y1:t),其權(quán)重7$YDUKB~(OFB9~AQ[7KR(T4.jpg。

  粒子的權(quán)重通過以下公式進(jìn)行更新:

  6.png

  通常認(rèn)為目標(biāo)狀態(tài)滿足馬爾科夫性,且狀態(tài)轉(zhuǎn)移與觀測值相互獨(dú)立,則重要性分布可簡化為一階馬爾科夫過程q(Xt|X1:t-1,Y1:t)=p(Xt|Xt-1),相應(yīng)地,權(quán)重更新公式變?yōu)?img src="http://files.chinaaet.com/images/2015/08/17/6357542442004400009600399.jpg" title="[~9(H[WB26F_X1}X@BE[JMU.jpg" alt="[~9(H[WB26F_X1}X@BE[JMU.jpg"/>。為避免粒子的退化而根據(jù)權(quán)值的大小對粒子進(jìn)行重采樣。

  本文中使用矩形框來表示目標(biāo)[26],粒子在t時(shí)刻的狀態(tài)被定義為Xt=(xt,yt,st),xt和yt表示矩形框的中心坐標(biāo),st表示矩形框的尺寸。粒子的狀態(tài)轉(zhuǎn)移采用二階自回歸模型:

  7.png

  其中,V表示高斯噪音,分布為V~N(0,N)D$D{6JZ[F_FRH]CT{~NJQ.jpg)。

  2.3 算法的執(zhí)行過程

  算法的具體執(zhí)行過程如下:

  (1)利用自適應(yīng)增強(qiáng)檢測算法對于動(dòng)態(tài)的運(yùn)動(dòng)目標(biāo)進(jìn)行檢測。

  (2)粒子初始化:設(shè)置每個(gè)目標(biāo)的粒子狀態(tài)CTD~P8D2N73B6}7816T{@9N.png和權(quán)重XX(~7F48M[)(V3@@QY4~GGO.jpg

  (3)預(yù)測:根據(jù)狀態(tài)轉(zhuǎn)移公式C@QE~ZE1P@}87EBPEC6)O(7.jpg預(yù)測粒子狀態(tài)。

  (4)提取特征:根據(jù)式(1)提取每個(gè)目標(biāo)的每個(gè)粒子的形狀上下文特征。

  (5)更新:更新粒子權(quán)重)~IBF1AW60QOC{W4`6ZLUIF.png,并對權(quán)值進(jìn)行歸一化F91GPSEX117TFJNB8QQ8N%X.png。依據(jù)最大后驗(yàn)準(zhǔn)則,確定t+1時(shí)刻的目標(biāo)位置。

  (6)粒子重采樣:根據(jù)權(quán)重的大小進(jìn)行粒子的重采樣過程。

  (7)t=t+1,轉(zhuǎn)到步驟(3)。

3 實(shí)驗(yàn)分析

  本文選取了如下兩個(gè)應(yīng)用場景對提出的多目標(biāo)跟蹤算法進(jìn)行實(shí)驗(yàn),一個(gè)是冰球運(yùn)動(dòng)的比賽現(xiàn)場;另一個(gè)是交叉路口的視頻監(jiān)控。

  3.1 冰球運(yùn)動(dòng)場的實(shí)驗(yàn)結(jié)果

004.jpg

  圖4展示了本文提出的算法對于冰球運(yùn)動(dòng)員的比賽場景中的跟蹤效果。從圖中可以看出,該算法對每個(gè)目標(biāo)的檢測跟蹤效果都很好,最重要的是,即使場景中出現(xiàn)的運(yùn)動(dòng)目標(biāo)非常多以及環(huán)境稍微復(fù)雜的情況下,本算法可以成功地適應(yīng)場景中發(fā)生的一些改變,并且可以對此及時(shí)做出調(diào)整和繼續(xù)保持跟蹤??梢娫撍惴▽τ陬愃朴谶\(yùn)動(dòng)員比賽的快速運(yùn)動(dòng)場景中的多目標(biāo)跟蹤具有一定的準(zhǔn)確性和魯棒性。

  圖4(a)顯示一位運(yùn)動(dòng)員將要進(jìn)入拍攝場景,圖4(b)顯示兩幀后該運(yùn)動(dòng)員進(jìn)入場景后的跟蹤結(jié)果。可以看出,當(dāng)新目標(biāo)將要進(jìn)入比賽場景中時(shí),自適應(yīng)增強(qiáng)算法可以在兩幀的時(shí)間內(nèi)快速檢測出該目標(biāo)即將進(jìn)入比賽場景中,在自適應(yīng)增強(qiáng)檢測算法對此做出目標(biāo)檢測后,就可以立即指派粒子對這個(gè)新的運(yùn)動(dòng)員進(jìn)行定位和跟蹤。圖4(c)和4(d)展示了運(yùn)動(dòng)員離開拍攝場景的跟蹤效果??梢钥闯觯?dāng)自適應(yīng)增強(qiáng)算法檢測出該運(yùn)動(dòng)員要離開場景時(shí),算法可以迅速做出相應(yīng)的回應(yīng),放棄對他的檢測和跟蹤。

  3.2 交叉路口的實(shí)驗(yàn)結(jié)果

005.jpg

  圖5展示了本文提出的算法對交叉路口的行人進(jìn)行檢測跟蹤效果,可以看出,無論是在新的行人進(jìn)入,還是兩人的重疊與分離的情形,本文的算法都能進(jìn)行比較準(zhǔn)確的跟蹤。從圖5(a)中可以看出,在行人較多,背景較為復(fù)雜的情況下,該算法依然能夠?qū)⒈O(jiān)控區(qū)域內(nèi)行人全部檢測出來并進(jìn)行跟蹤。圖5(b)中當(dāng)有新的目標(biāo)進(jìn)入時(shí),該算法能準(zhǔn)確檢測出目標(biāo)并進(jìn)行跟蹤。圖5(b)和5(c)中右邊兩個(gè)行人由重疊的到發(fā)生分離的過程,也可以被很好地檢測出來,然后把目標(biāo)框分離成兩個(gè)跟蹤框,并且做出相應(yīng)目標(biāo)的跟蹤。從圖中還可以看出,當(dāng)中間的行人經(jīng)過電線桿遮擋時(shí),對于該行人的跟蹤依然存在且繼續(xù),并沒有發(fā)生目標(biāo)跟丟情況,可見本文的算法也能一定程度處理目標(biāo)遮擋問題。

  從上述實(shí)驗(yàn)可以看出,本文提出的基于形狀上下文和粒子濾波的多目標(biāo)跟蹤算法加入了自適應(yīng)增強(qiáng)的檢測算法對多個(gè)目標(biāo)進(jìn)行檢測跟蹤,具有很好的自適應(yīng)檢測能力和目標(biāo)跟蹤的功能。本文的算法能處理目標(biāo)進(jìn)出場景的情形,對于應(yīng)用場景的適應(yīng)性較強(qiáng),而且能處理遮擋和復(fù)雜背景問題。

4 總結(jié)

  本文提出的基于形狀上下文和粒子濾波的多目標(biāo)跟蹤算法充分利用自適應(yīng)增強(qiáng)檢測算法的優(yōu)勢,結(jié)合形狀上下文特征,融入粒子濾波方法中,能有效處理目標(biāo)進(jìn)入與離開場景的問題和目標(biāo)重合與分離的問題,在單一背景和復(fù)雜背景下都能進(jìn)行較為準(zhǔn)確的跟蹤,還能有效處理部分遮擋問題。下一步研究的重點(diǎn)是在保證實(shí)驗(yàn)效果的同時(shí),進(jìn)一步提高算法的執(zhí)行效率。

參考文獻(xiàn)

  [1] GODEC M,ROTH P M,BISCHOF H.Hough-based trackingof non-rigid objects[J].Computer Vision and Image Under-standing,2013,117(10):1245-1256.

  [2] SONG L,WANG Y.Multiple target counting and tracking using binary proximity sensors: bounds, coloring, and filter[C].Proceedings of the 15th ACM International Symposium on Mobile Ad Hoc Networking and Computing,ACM,2014:397-406.

  [3] ADAM A,RIVLIN E,SHIMSHONI I.Robust fragments-based tracking using the integral histogram[C].Computer Vision and Pattern Recognition,2006 IEEE Computer Soci-ety Conference on.IEEE,2006,1:798-805.

  [4] WU Y,LIM J,YANG M H.Online object tracking:A ben-chmark[C].Computer Vision and Pattern Recognition (CVPR),IEEE Conference on.IEEE,2013:2411-2418.

  [5] ROSS D,LIM J,LIN R S.YANG M H.Incremental learning for robust visual tracking[J].International Journal of Com-

  puter Vision,2008,77(1):125-141.

  [6] GRABNER H,LEISTNER C,BISCHOF H.Semi-supervised on-line boosting for robust tracking[M].Computer Vision-ECCV 2008,Springer Berlin Heidelberg,2008:234-247.

  [7] MEI X,LING H.Robust visual tracking using l1 minimiza-tion[C].Computer Vision,2009 IEEE 12th International

  Conference on,IEEE,2009:1436-1443.

  [8] KALAL Z,MATAS J,MIKOLAJCZYK K.Pn learning:Boot-strapping binary classifiers by structural constraints[C].Computer Vision and Pattern Recognition(CVPR),2010 EEE Conference on,IEEE,2010:49-56.

  [9] AVIDAN S.Ensemble tracking[J].Pattern Analysis and Machine Intelligence,IEEE Transactions on,2007,29(2):261-271.

  [10] PREZ P,HUE C,VERMAAK J,et al.Color-based probabilistic tracking[M].Computer vision-ECCV 2002,Springer Berlin Heidelberg,2002:661-675.

  [11] ACHLIOPTAS D.Database-friendly random projections: Johnson-Lindenstrauss with binary coins[J].Journal of Computer and System Sciences.2003,66(4):671-687.

  [12] CANDES E J,TAO T.Near-optimal signal recovery from mation Theory,IEEE Transactions on,2006,52(12):5406-5425.

  [13] ZHOU Q H,LU H,YANG M H.Online multiple support instance tracking[C].Automatic Face & Gesture Recogni-tion and Workshops(FG 2011),2011 IEEE International Conference on,IEEE,2011:545-552.

  [14] BABENKO B,YANG M H,BELONGIE S.Robust object  tracking with online multiple instance learning[J].Pattern Analysis and Machine Intelligence,IEEE Transactions on,2011,33(8):1619-1632.

  [15] LEISTNER C,SAFFARI A,BISCHOF H.Miforests: multi-ple-instance learning with randomized trees[C].European  Conference on Computer Vision(ECCV).Crete,Greece.2010,1:29-42.

  [16] ZEISL B,LEISTNER C,SAFFARI A,et al.On-line semimultiple-instance boosting[C].Computer Vision and Pattern Recognition(CVPR),2010 IEEE Conference on.IEEE,2010:1879-1879.

  [17] INTILLE S S,DAVIS J W,BOBICK A F.Real-time closed-world tracking[C].Computer Vision and Pattern Recognition,1997.Proceedings,1997 IEEE Computer SoConference on,IEEE,1997:697-703.

  [18] BELONGIE S,MALIK J,PUZICHA J.Shape matching andobject recognition using shape contexts[J].Pattern Analysisand Machine Intelligence,IEEE Transactions on,2002,24(4):509-522.

  [19] ISARD M,BLAKE A.Condensation—conditional density  propagation for visual tracking[J].International Journal of Computer Vision,1998,29(1):5-28.

  [20] RUI Y,CHEN Y.Better proposal distributions:object  tracking using unscented particle filter[C].IEEE Conference on Computer Vision and Pattern Recognition(CVPR).2001,2(2):786-793.

  [21] VIOLA P,JONES M.Rapid object detection using a boostedcascade of simple features[C].IEEE Conference on Com-puter Vision and Pattern Recognition.2001,1(1):511-518.

  [22] GUI Y,SU A,DU J.Point-pattern matching method usingSURF and shape context[J].Optik-International Journal for Light and Electron Optics,2013,124(14):1869-1873.

  [23] PAPADIMITRIOU C H,STEIGLITZ K.Combinatorial opti-mization:algorithms and complexity[M].Courier Dover Publications,1998.

  [24] MORI G,BELONGIE S,MALIK J.Efficient shape match-ing using shape contexts[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2005,27(11):1832-1837.

  [25] MEI X,LING H.Robust visual tracking and vehicle clas-sification via sparse representation[J].Pattern Analysis and Machine Intelligence,IEEE Transactions on,2011,33(11):2259-2272.

  [26] QU M,PANG E,LIU R,et al.Object tacking based on shape context features and particle filter[J].Journal of Information and Computation Science,2012,9(7):1905.


此內(nèi)容為AET網(wǎng)站原創(chuàng),未經(jīng)授權(quán)禁止轉(zhuǎn)載。