《電子技術(shù)應(yīng)用》
您所在的位置:首頁(yè) > 嵌入式技術(shù) > 設(shè)計(jì)應(yīng)用 > 一種基于像素差值特征的車輛檢測(cè)方法
一種基于像素差值特征的車輛檢測(cè)方法
2016年微型機(jī)與應(yīng)用第13期
連捷
(中國(guó)電子科技集團(tuán)公司第三十八研究所,安徽 合肥 230088)
摘要: 為了快速定位監(jiān)控場(chǎng)景中的車輛位置,提出了一種基于像素差值特征的車輛檢測(cè)方法。首先提取圖像的歸一化像素差值特征(NPD),之后使用深度二次樹(DQT)學(xué)習(xí)最優(yōu)的特征子集,最后使用AdaBoost算法篩選最具區(qū)分力的特征構(gòu)建強(qiáng)分類器。以含有正面、側(cè)面及背面三個(gè)角度超過3 500個(gè)樣本為測(cè)試集進(jìn)行了快速車輛檢測(cè)測(cè)試,并與梯度方向直方圖(HOG)和Haar的組合特征進(jìn)行了對(duì)比。對(duì)比實(shí)驗(yàn)表明,基于NPD的車輛檢測(cè)方法最優(yōu),其檢測(cè)率和檢測(cè)時(shí)間分別為85.47%和200 ms。
Abstract:
Key words :

  連捷

  (中國(guó)電子科技集團(tuán)公司第三十八研究所,安徽 合肥 230088)

  摘要:為了快速定位監(jiān)控場(chǎng)景中的車輛位置,提出了一種基于像素差值特征的車輛檢測(cè)方法。首先提取圖像的歸一化像素差值特征(NPD),之后使用深度二次樹(DQT)學(xué)習(xí)最優(yōu)的特征子集,最后使用AdaBoost算法篩選最具區(qū)分力的特征構(gòu)建強(qiáng)分類器。以含有正面、側(cè)面及背面三個(gè)角度超過3 500個(gè)樣本為測(cè)試集進(jìn)行了快速車輛檢測(cè)測(cè)試,并與梯度方向直方圖(HOG)和Haar的組合特征進(jìn)行了對(duì)比。對(duì)比實(shí)驗(yàn)表明,基于NPD的車輛檢測(cè)方法最優(yōu),其檢測(cè)率和檢測(cè)時(shí)間分別為85.47%和200 ms。

  關(guān)鍵詞: 車輛檢測(cè);NPD特征;深度二次樹;級(jí)聯(lián)分類器

0引言

  公共安全中的汽車是一個(gè)關(guān)鍵性元素,如何快速檢測(cè)出車輛,并進(jìn)行后續(xù)分析具有實(shí)際意義?;谝曨l分析的車輛檢測(cè)算法主要包括:幀間差分法、光流法、背景差分[13]等。這些算法要么過于簡(jiǎn)單,檢測(cè)效果不好,要么過于復(fù)雜,計(jì)算量太大,對(duì)于海量視頻分析不太現(xiàn)實(shí)。基于AdaBoost 算法[4]雖然速度快,但是虛警率較高,檢測(cè)效果一般。NEGRI P等人[5]綜合了HOG特征和Haar特征,將兩種特征的融合特征作為AdaBoost訓(xùn)練的輸入,該方法對(duì)單一角度的車輛檢測(cè)結(jié)果較好,但對(duì)多角度的車輛檢測(cè)擴(kuò)展性能不好。本文對(duì)傳統(tǒng)AdaBoost 算法進(jìn)行改進(jìn),結(jié)合歸一化像素差值特征(NPD)和深度二次方樹(DQT)[6],使用多角度車輛樣本來訓(xùn)練AdaBoost,實(shí)驗(yàn)結(jié)果表明本文方法與參考文獻(xiàn)[5]中的檢測(cè)算法相比較,檢測(cè)速度更快,檢測(cè)率更高。

1基于NPD及DQT的車輛檢測(cè)方法

  1.1歸一化像素差值特征空間

  一幅圖像中的兩個(gè)像素的歸一化像素差值(NPD)特征可以定義如下:

  f(x,y)=x-yx+y(1)

  其中,x≥0,y≥0是兩個(gè)像素的灰度值,當(dāng) x=y=0 時(shí),定義f(0,0)為0。

  NPD特征度量?jī)蓚€(gè)像素值的相對(duì)差異性。f(x,y)的符號(hào)表示像素x和y的序數(shù)關(guān)系,幅值表示兩個(gè)像素的相對(duì)差值。NPD對(duì)于灰度值的線性變化具有不變性。

  1.2深度二次樹

  傳統(tǒng)的基于AdaBoost 分類器的車輛檢測(cè)算法是將若干弱分類器通過訓(xùn)練組合成一個(gè)強(qiáng)分類器。這種弱分類器的缺點(diǎn)是解析不同特征空間維數(shù)的相關(guān)性的能力較弱,另外它也忽略了特征中的高階信息。本文提出了一個(gè)更好的弱分類器,使用二次元分割策略和一個(gè)更深的樹形結(jié)構(gòu)。對(duì)于一個(gè)特征x,本文使用如下函數(shù)劃分一個(gè)樹的節(jié)點(diǎn):

  ax2+bx+c<t(2)

  其中,a、b、c是常值,t是劃分閾值,驗(yàn)證其是否位于兩個(gè)學(xué)習(xí)到的閾值之間。式(2)同時(shí)考慮特征x的一階和二階信息,使其可以更好地解析劃分策略。

  1.3車輛檢測(cè)器

  由于 NPD特征含有很多冗余信息,本文使用AdaBoost 算法學(xué)習(xí)最有區(qū)分力的特征,構(gòu)建強(qiáng)分類器[8],并采用Gentle AdaBoost算法[9]來學(xué)習(xí)基于NPD特征的深度二次元樹。

  像參考文獻(xiàn)[7]一樣,一個(gè)級(jí)聯(lián)分類器被進(jìn)一步學(xué)習(xí)用于快速車輛檢測(cè)。這里只學(xué)習(xí)一個(gè)級(jí)聯(lián)分類器來進(jìn)行車輛檢測(cè)。此外還采用了軟級(jí)聯(lián)結(jié)構(gòu)[10]來快速學(xué)習(xí)和排除負(fù)樣本。軟級(jí)聯(lián)看作一個(gè)AdaBoost分類器,每個(gè)弱分類器有一個(gè)終點(diǎn)。每個(gè)迭代過程中,一個(gè)深度二次元樹作為弱分類器被學(xué)習(xí),當(dāng)前AdaBoost分類器的閾值也被學(xué)習(xí)。多個(gè)深度二次元樹被組合成一個(gè)強(qiáng)分類器。

2實(shí)驗(yàn)結(jié)果

  為對(duì)本文提出的算法進(jìn)行測(cè)試,采用了合肥交通局提供的交通監(jiān)控圖像。實(shí)驗(yàn)圖像由10個(gè)相機(jī)在合肥不同的路口進(jìn)行采集,原始圖像大小覆蓋范圍為1 920×1 080~2 448×2 048。圖1顯示了部分車輛圖像。 

001.jpg

  用于訓(xùn)練的樣本是1 499張圖像中的4 957個(gè)車輛,大小歸一化為24×24,負(fù)樣本由不包含車輛圖像的24 840個(gè)樣本組成。最終的檢測(cè)器包含1 226個(gè)深度二次元樹,46 401個(gè)NPD特征。NPD特征的計(jì)算可以通過查表法來加速計(jì)算。

  使用3 568個(gè)車輛圖像對(duì)算法進(jìn)行測(cè)試,正確檢測(cè)的評(píng)價(jià)標(biāo)準(zhǔn)是檢測(cè)出的目標(biāo)框與標(biāo)記的框交并比大于某一閾值,本文將閾值取為0.5。將車輛圖像分為較難、中等和較易3個(gè)數(shù)據(jù)集,對(duì)應(yīng)每個(gè)數(shù)據(jù)集的車輛數(shù)目分別為1 073、960和1 535,每種車輛數(shù)據(jù)集對(duì)應(yīng)的檢測(cè)結(jié)果如表1所示。由圖2的檢測(cè)結(jié)果可以看出,本文提出的方法對(duì)不同尺度、不同角度的車輛魯棒性較好。表1檢測(cè)結(jié)果比較較難/%中等/%較易/%NPD68.5580.0485.47HOG+Haar[5]59.5671.5679.42

  

003.jpg

002.jpg

  另外,為了與之前的方法進(jìn)行對(duì)比,使用NEGRI P[7]提出的HOG和Haar組合特征在相同的訓(xùn)練集上訓(xùn)練AdaBoost分類器,負(fù)樣本從362張不含車輛的圖片隨機(jī)裁切,使用訓(xùn)練好的分類器對(duì)3個(gè)難度不同的測(cè)試集進(jìn)行測(cè)試,結(jié)果如表1所示。實(shí)驗(yàn)結(jié)果表明本文所使用的NPD特征在檢測(cè)性能上超越了HOG和Haar特征,對(duì)于降采樣后平均尺寸為640×480的圖像,檢測(cè)一張圖像NPD約需200 ms,而HOGHaar組合特征約需1 s。

3結(jié)論

  針對(duì)海量視頻中的快速有效車輛檢測(cè)問題,本文提出了一種改進(jìn)的AdaBoost算法,結(jié)合歸一化像素差值特征(NPD)和深度二次方樹(DQT)來提高模型的表示能力,通過各種角度的車輛樣本訓(xùn)練得到改進(jìn)的AdaBoost車輛檢測(cè)器。實(shí)驗(yàn)結(jié)果表明,與傳統(tǒng)AdaBoost算法相比較,本文算法能夠快速有效地檢測(cè)前后面、側(cè)面的車輛,具有一定實(shí)用性。

參考文獻(xiàn)

 ?。?] SEKI M, FUJIWARA H, SUMI K. A robust background subtraction method for changing background[C].Applications of Computer Vision, 2000, Fifth IEEE Workshop on. IEEE, 2000: 207213.

  [2] 李喜來, 李艾華, 白向峰. 智能交通系統(tǒng)運(yùn)動(dòng)車輛的光流法檢測(cè)[J]. 光電技術(shù)應(yīng)用, 2010, 25(2):7578.

  [3] STAUFFER C, GRIMSON W E L. Adaptive background mixture models for realtime tracking[C].Computer Vision and Pattern Recognition, 1999. IEEE Computer Society Conference on. IEEE, 1999, 2:252.

 ?。?] 金立生, 王巖, 劉景華, 等. 基于 Adaboost 算法的日間前方車輛檢測(cè)[J]. 吉林大學(xué)學(xué)報(bào): 工學(xué)版, 2014, 3(6): 16041608.


此內(nèi)容為AET網(wǎng)站原創(chuàng),未經(jīng)授權(quán)禁止轉(zhuǎn)載。