《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > 顯示光電 > 設(shè)計(jì)應(yīng)用 > 基于改進(jìn)的混合高斯模型的運(yùn)動(dòng)目標(biāo)檢測
基于改進(jìn)的混合高斯模型的運(yùn)動(dòng)目標(biāo)檢測
2016年微型機(jī)與應(yīng)用第10期
郭俊,王平
(西華大學(xué) 電氣與電子信息學(xué)院,四川 成都610039)
摘要: 提出了一種改進(jìn)的混合高斯背景模型方法,克服了傳統(tǒng)混合高斯背景建模方法計(jì)算時(shí)間長的缺點(diǎn)。通過對視頻圖像中運(yùn)動(dòng)目標(biāo)區(qū)域進(jìn)行背景建模,減小了每一幀的背景建模區(qū)域,同時(shí)在提取運(yùn)動(dòng)目標(biāo)區(qū)域前先對初提取的前景目標(biāo)進(jìn)行中值濾波,減小運(yùn)動(dòng)目標(biāo)區(qū)域的范圍,進(jìn)一步壓縮了背景建模的時(shí)間。最后通過與時(shí)間平均背景建模和傳統(tǒng)混合高斯背景建模方法進(jìn)行比較,驗(yàn)證了本文算法的高效性。
Abstract:
Key words :

  郭俊,王平

  (西華大學(xué) 電氣與電子信息學(xué)院,四川 成都610039)

      摘要:提出了一種改進(jìn)的混合高斯背景模型方法,克服了傳統(tǒng)混合高斯背景建模方法計(jì)算時(shí)間長的缺點(diǎn)。通過對視頻圖像中運(yùn)動(dòng)目標(biāo)區(qū)域進(jìn)行背景建模,減小了每一幀的背景建模區(qū)域,同時(shí)在提取運(yùn)動(dòng)目標(biāo)區(qū)域前先對初提取的前景目標(biāo)進(jìn)行中值濾波,減小運(yùn)動(dòng)目標(biāo)區(qū)域的范圍,進(jìn)一步壓縮了背景建模的時(shí)間。最后通過與時(shí)間平均背景建模和傳統(tǒng)混合高斯背景建模方法進(jìn)行比較,驗(yàn)證了本文算法的高效性。

  關(guān)鍵詞運(yùn)動(dòng)目標(biāo)檢測;運(yùn)動(dòng)目標(biāo)區(qū)域;背景減除法;混合高斯背景模型

0引言

  視頻圖像運(yùn)動(dòng)目標(biāo)檢測就是將運(yùn)動(dòng)目標(biāo)從視頻序列圖像背景中分離出來,是運(yùn)動(dòng)目標(biāo)識別與跟蹤的基礎(chǔ)[12]。其中圖像序列中有運(yùn)動(dòng)目標(biāo)經(jīng)過的區(qū)域稱為前景,其余部分為背景。高效而準(zhǔn)確地檢測并提取前景目標(biāo)是視頻圖像運(yùn)動(dòng)目標(biāo)分析技術(shù)的核心部分之一,也是計(jì)算機(jī)視覺和圖像理解的熱點(diǎn)和難點(diǎn)之一。

  目前常用的檢測算法有三種:幀差分法[3]、光流法[4]以及背景減除法[5]。幀差分法比較適用于分析簡單場景,并且提取到的目標(biāo)不完整,一般用來進(jìn)行初提取工作;而光流法往往采用迭代法進(jìn)行計(jì)算,且對光照、陰影等比較敏感,使用范圍比較?。欢尘皽p除法操作簡單,建模方式多種多樣,所以使用最為廣泛。背景減除法將新一幀圖像與所建立的背景模型進(jìn)行比較,若相同位置的像素灰度值的差大于提前設(shè)置的閾值,則認(rèn)為這個(gè)像素點(diǎn)來自于前景,否則是背景。而一幅圖片中所有來自前景的坐標(biāo)就構(gòu)成了前景區(qū)域。背景減除法的核心技術(shù)在于背景模型的建立和更新,不同的背景建模方式產(chǎn)生的處理時(shí)間和處理效果各不相同。STAUFFER C等人提出的混合高斯背景建模方法[67]是目前較為成功的方法之一。它的理論依據(jù)在于不同的圖片中相同坐標(biāo)處的像素值必然服從于一個(gè)或者多個(gè)高斯分布,通過對每個(gè)坐標(biāo)處建立幾個(gè)高斯函數(shù),能有效地建立一個(gè)具有很高魯棒性的背景模型。當(dāng)然由此也造成了該方法計(jì)算的復(fù)雜性。

  本文通過減小背景建模區(qū)域來達(dá)到縮短檢測時(shí)間的目的,通過幀差分法對運(yùn)動(dòng)前景區(qū)域進(jìn)行初提取,通過膨脹和腐蝕等形態(tài)學(xué)操作[8]使離散的前景像素點(diǎn)合并為一塊或者幾塊區(qū)域,然后對這些區(qū)域進(jìn)行混合高斯背景建模,能較好地減小算法的計(jì)算量,同時(shí)也能達(dá)到同樣的檢測效果。

1傳統(tǒng)混合高斯背景建模理論

  參考文獻(xiàn)[2]中使用M個(gè)高斯函數(shù)構(gòu)成的混合高斯背景模型來表示一個(gè)坐標(biāo)處像素在時(shí)間域上的概率分布,記t時(shí)刻坐標(biāo)(x,y)處像素灰度值為ft(x,y),則坐標(biāo)(x,y)處像素灰度值為ft(x,y)的概率P(ft)用式(1)表示:

  1.png

  式中M是高斯模型的個(gè)數(shù),ωl為第l個(gè)高斯分布的權(quán)重,ηl(ft,μl,t,σl,t)是第l個(gè)高斯密度函數(shù),用式(2)表示:

  2.png

  式中μl,t是該高斯分布的均值,σl,t是方差。

  判定原則如下:對于待檢測圖片中的ft(x,y),求出能代表其背景分布的M個(gè)高斯函數(shù),將這些函數(shù)按ω/σ值的大小排序,取比值大的前B個(gè)高斯函數(shù)組成該點(diǎn)背景的混合高斯模型,如果ft(x,y)與其該背景模型中的第k(k≤B)個(gè)高斯分布匹配,則認(rèn)為該點(diǎn)是背景,否則為前景。匹配準(zhǔn)則如下:

  3.png

  式中λ來自于經(jīng)驗(yàn)。

  背景更新:新一幀圖像檢測完成后,若ft(x,y)被認(rèn)為來自于前景,也就是說該點(diǎn)對應(yīng)模型的前B個(gè)高斯分布中沒有一個(gè)與之匹配,則用一個(gè)新的高斯分布來替換ω/σ值最小的那個(gè)分布,其均值為ft(x,y),并賦予一個(gè)較大的方差和較小的權(quán)重。

  參數(shù)更新:

  與ft(x,y)匹配的高斯函數(shù)按下式更新:

  46.png

  圖3對視頻ccbr.avi進(jìn)行的算法仿真結(jié)果圖不能與ft(x,y)匹配的高斯函數(shù)按下式更新:

  ω′l(x,y)=(1-α)ωl(x,y)(7)

  然后歸一化權(quán)值。式中α、ρ為學(xué)習(xí)速度,來自于經(jīng)驗(yàn)。

2改進(jìn)的混合高斯背景建模

  需要檢測的視頻里面每一幀圖像只有部分區(qū)域中存在運(yùn)動(dòng)目標(biāo),常用的混合高斯背景模型都是對整幅圖像進(jìn)行背景建模,其中很大一部分是沒有必要的,本文則是提前將視頻圖像中有運(yùn)動(dòng)前景的區(qū)域提取出來并通過膨脹和腐蝕操作確保提取的前景區(qū)域一定包括了運(yùn)動(dòng)前景,然后對運(yùn)動(dòng)前景區(qū)域進(jìn)行混合高斯背景建模,進(jìn)而提取出運(yùn)動(dòng)前景。

  提取運(yùn)動(dòng)前景區(qū)域采用幀差法,其包括兩幀幀差法和三幀幀差法,其中三幀幀差法提取到的只有運(yùn)動(dòng)前景的一部分,比較之下,本文采用兩幀幀差法提取,并通過形態(tài)學(xué)操作,得到運(yùn)動(dòng)前景區(qū)域,通過C4模塊進(jìn)行存儲(chǔ),然后利用混合高斯背景建模模塊,只對提取出的前景區(qū)域進(jìn)行處理,得到運(yùn)動(dòng)前景。改進(jìn)的基于混合高斯背景建模的運(yùn)動(dòng)目標(biāo)檢測的設(shè)計(jì)流程圖如圖1所示。

  

001.jpg

  首先記t時(shí)刻和t+1時(shí)刻輸入的連續(xù)兩幀圖像分別為x和y,灰度化處理分別記為m和n,然后將m和n數(shù)據(jù)類型轉(zhuǎn)化為雙精度型,并存儲(chǔ)到q和w中,記c(i,j)=|q(i,j)-w(i,j)|,根據(jù)c(i,j)與設(shè)置的閾值th比較分析,判斷該像素點(diǎn)是前景還是背景。整幅圖片處理完成后即得到初提取的前景二值圖像C,對圖像C采用3×3中值濾波[6]處理,然后進(jìn)行膨脹和閉運(yùn)算操作,得到初提取的前景區(qū)域C3,并最終將前景區(qū)域信息存儲(chǔ)到文件C4中,即完成了對運(yùn)動(dòng)目標(biāo)區(qū)域的提取操作。然后混合高斯背景建模模塊對原始視頻的C4前景區(qū)域進(jìn)行背景建模,最終完成對前景圖像的準(zhǔn)確提取。

3結(jié)果分析

  本實(shí)驗(yàn)采用MATLAB 2014a進(jìn)行編程,并在Inter 3.4 GHz處理器、4 GB內(nèi)存的PC上進(jìn)行仿真,使用的視頻速率為20幀/s,原始經(jīng)典混合高斯背景建模和改進(jìn)后的混合高斯背景建模所選高斯函數(shù)均為4個(gè),初始標(biāo)準(zhǔn)差為6,前景閾值th=λσk,λ=2.5,學(xué)習(xí)率α=0.01,方差學(xué)習(xí)率ρ=0.03。視頻首先經(jīng)過C4區(qū)域提取模塊,提取出運(yùn)動(dòng)目標(biāo)區(qū)域,然后背景建模模塊通過對C4區(qū)域進(jìn)行前景提取,最后檢測出運(yùn)動(dòng)前景二值圖像[9],并將結(jié)果由四個(gè)輸出視頻(原始視頻、灰度處理視頻、前景區(qū)域視頻和前景二值圖像視頻)顯示出來。本文實(shí)驗(yàn)共采用了三種方法進(jìn)行仿真模擬:時(shí)間平均模型法[1]、混合高斯模型法以及本文所介紹方法,對復(fù)雜背景視頻Traffic.avi和簡單背景視頻ccbr.avi進(jìn)行了處理,圖2和圖3分別是選擇Traffic.avi的第175幀圖像和ccbr.avi的第50幀進(jìn)行算法仿真的結(jié)果從圖中可以看出,本實(shí)驗(yàn)完全能達(dá)到混合高斯模型的效果,而從表1的分析數(shù)據(jù)可以看出,本實(shí)驗(yàn)所用時(shí)間遠(yuǎn)遠(yuǎn)小于傳統(tǒng)的混合高斯背景建模法。 

  從實(shí)驗(yàn)數(shù)據(jù)可以看出,通過對運(yùn)動(dòng)物體運(yùn)動(dòng)區(qū)域的提取來進(jìn)行混合高斯背景建??梢杂行Эs短前景提取時(shí)間,而且越是簡單的背景,節(jié)約的處理時(shí)間越明顯。

  4結(jié)論

  本文為了克服傳統(tǒng)混合高斯模型方法計(jì)算量大的缺點(diǎn),提出了對運(yùn)動(dòng)目標(biāo)所在區(qū)域建立背景模型的方法,通過與時(shí)間平均模型和混合高斯模型進(jìn)行實(shí)驗(yàn)仿真對比,結(jié)果證明了本文所用方法的有效性。

參考文獻(xiàn)

 ?。?] 趙春暉,潘泉,梁彥,等.視頻圖像運(yùn)動(dòng)目標(biāo)分析[M]. 北京:國防工業(yè)出版社, 2011.

  [2] 杜文略,劉建梁,沈三民,等.基于FPGA的運(yùn)動(dòng)目標(biāo)檢測系統(tǒng)設(shè)計(jì)[J].電子技術(shù)應(yīng)用,2014,40(11):3638,42.

 ?。?] LIPON A, FUJIYOSHI H,PATIL R. Moving target classification and tracking from real time video [C].Proceedings of IEEE Workshop Applications of Computer Vision,Los Alamitos,CA,1998:814.

 ?。?] BROX T, BRUHN A, PAPENBERG N, et al. High accuracy optical flow estimation based on a theory for warping[C]. Proceedings of 8th European Conference on Computer Vision, 2004:2536.


此內(nèi)容為AET網(wǎng)站原創(chuàng),未經(jīng)授權(quán)禁止轉(zhuǎn)載。