郭俊,王平
?。ㄎ魅A大學(xué) 電氣與電子信息學(xué)院,四川 成都610039)
摘要:提出了一種改進的混合高斯背景模型方法,克服了傳統(tǒng)混合高斯背景建模方法計算時間長的缺點。通過對視頻圖像中運動目標(biāo)區(qū)域進行背景建模,減小了每一幀的背景建模區(qū)域,同時在提取運動目標(biāo)區(qū)域前先對初提取的前景目標(biāo)進行中值濾波,減小運動目標(biāo)區(qū)域的范圍,進一步壓縮了背景建模的時間。最后通過與時間平均背景建模和傳統(tǒng)混合高斯背景建模方法進行比較,驗證了本文算法的高效性。
關(guān)鍵詞:運動目標(biāo)檢測;運動目標(biāo)區(qū)域;背景減除法;混合高斯背景模型
0引言
視頻圖像運動目標(biāo)檢測就是將運動目標(biāo)從視頻序列圖像背景中分離出來,是運動目標(biāo)識別與跟蹤的基礎(chǔ)[12]。其中圖像序列中有運動目標(biāo)經(jīng)過的區(qū)域稱為前景,其余部分為背景。高效而準確地檢測并提取前景目標(biāo)是視頻圖像運動目標(biāo)分析技術(shù)的核心部分之一,也是計算機視覺和圖像理解的熱點和難點之一。
目前常用的檢測算法有三種:幀差分法[3]、光流法[4]以及背景減除法[5]。幀差分法比較適用于分析簡單場景,并且提取到的目標(biāo)不完整,一般用來進行初提取工作;而光流法往往采用迭代法進行計算,且對光照、陰影等比較敏感,使用范圍比較??;而背景減除法操作簡單,建模方式多種多樣,所以使用最為廣泛。背景減除法將新一幀圖像與所建立的背景模型進行比較,若相同位置的像素灰度值的差大于提前設(shè)置的閾值,則認為這個像素點來自于前景,否則是背景。而一幅圖片中所有來自前景的坐標(biāo)就構(gòu)成了前景區(qū)域。背景減除法的核心技術(shù)在于背景模型的建立和更新,不同的背景建模方式產(chǎn)生的處理時間和處理效果各不相同。STAUFFER C等人提出的混合高斯背景建模方法[67]是目前較為成功的方法之一。它的理論依據(jù)在于不同的圖片中相同坐標(biāo)處的像素值必然服從于一個或者多個高斯分布,通過對每個坐標(biāo)處建立幾個高斯函數(shù),能有效地建立一個具有很高魯棒性的背景模型。當(dāng)然由此也造成了該方法計算的復(fù)雜性。
本文通過減小背景建模區(qū)域來達到縮短檢測時間的目的,通過幀差分法對運動前景區(qū)域進行初提取,通過膨脹和腐蝕等形態(tài)學(xué)操作[8]使離散的前景像素點合并為一塊或者幾塊區(qū)域,然后對這些區(qū)域進行混合高斯背景建模,能較好地減小算法的計算量,同時也能達到同樣的檢測效果。
1傳統(tǒng)混合高斯背景建模理論
參考文獻[2]中使用M個高斯函數(shù)構(gòu)成的混合高斯背景模型來表示一個坐標(biāo)處像素在時間域上的概率分布,記t時刻坐標(biāo)(x,y)處像素灰度值為ft(x,y),則坐標(biāo)(x,y)處像素灰度值為ft(x,y)的概率P(ft)用式(1)表示:
式中M是高斯模型的個數(shù),ωl為第l個高斯分布的權(quán)重,ηl(ft,μl,t,σl,t)是第l個高斯密度函數(shù),用式(2)表示:
式中μl,t是該高斯分布的均值,σl,t是方差。
判定原則如下:對于待檢測圖片中的ft(x,y),求出能代表其背景分布的M個高斯函數(shù),將這些函數(shù)按ω/σ值的大小排序,取比值大的前B個高斯函數(shù)組成該點背景的混合高斯模型,如果ft(x,y)與其該背景模型中的第k(k≤B)個高斯分布匹配,則認為該點是背景,否則為前景。匹配準則如下:
式中λ來自于經(jīng)驗。
背景更新:新一幀圖像檢測完成后,若ft(x,y)被認為來自于前景,也就是說該點對應(yīng)模型的前B個高斯分布中沒有一個與之匹配,則用一個新的高斯分布來替換ω/σ值最小的那個分布,其均值為ft(x,y),并賦予一個較大的方差和較小的權(quán)重。
參數(shù)更新:
與ft(x,y)匹配的高斯函數(shù)按下式更新:
圖3對視頻ccbr.avi進行的算法仿真結(jié)果圖不能與ft(x,y)匹配的高斯函數(shù)按下式更新:
ω′l(x,y)=(1-α)ωl(x,y)(7)
然后歸一化權(quán)值。式中α、ρ為學(xué)習(xí)速度,來自于經(jīng)驗。
2改進的混合高斯背景建模
需要檢測的視頻里面每一幀圖像只有部分區(qū)域中存在運動目標(biāo),常用的混合高斯背景模型都是對整幅圖像進行背景建模,其中很大一部分是沒有必要的,本文則是提前將視頻圖像中有運動前景的區(qū)域提取出來并通過膨脹和腐蝕操作確保提取的前景區(qū)域一定包括了運動前景,然后對運動前景區(qū)域進行混合高斯背景建模,進而提取出運動前景。
提取運動前景區(qū)域采用幀差法,其包括兩幀幀差法和三幀幀差法,其中三幀幀差法提取到的只有運動前景的一部分,比較之下,本文采用兩幀幀差法提取,并通過形態(tài)學(xué)操作,得到運動前景區(qū)域,通過C4模塊進行存儲,然后利用混合高斯背景建模模塊,只對提取出的前景區(qū)域進行處理,得到運動前景。改進的基于混合高斯背景建模的運動目標(biāo)檢測的設(shè)計流程圖如圖1所示。
首先記t時刻和t+1時刻輸入的連續(xù)兩幀圖像分別為x和y,灰度化處理分別記為m和n,然后將m和n數(shù)據(jù)類型轉(zhuǎn)化為雙精度型,并存儲到q和w中,記c(i,j)=|q(i,j)-w(i,j)|,根據(jù)c(i,j)與設(shè)置的閾值th比較分析,判斷該像素點是前景還是背景。整幅圖片處理完成后即得到初提取的前景二值圖像C,對圖像C采用3×3中值濾波[6]處理,然后進行膨脹和閉運算操作,得到初提取的前景區(qū)域C3,并最終將前景區(qū)域信息存儲到文件C4中,即完成了對運動目標(biāo)區(qū)域的提取操作。然后混合高斯背景建模模塊對原始視頻的C4前景區(qū)域進行背景建模,最終完成對前景圖像的準確提取。
3結(jié)果分析
本實驗采用MATLAB 2014a進行編程,并在Inter 3.4 GHz處理器、4 GB內(nèi)存的PC上進行仿真,使用的視頻速率為20幀/s,原始經(jīng)典混合高斯背景建模和改進后的混合高斯背景建模所選高斯函數(shù)均為4個,初始標(biāo)準差為6,前景閾值th=λσk,λ=2.5,學(xué)習(xí)率α=0.01,方差學(xué)習(xí)率ρ=0.03。視頻首先經(jīng)過C4區(qū)域提取模塊,提取出運動目標(biāo)區(qū)域,然后背景建模模塊通過對C4區(qū)域進行前景提取,最后檢測出運動前景二值圖像[9],并將結(jié)果由四個輸出視頻(原始視頻、灰度處理視頻、前景區(qū)域視頻和前景二值圖像視頻)顯示出來。本文實驗共采用了三種方法進行仿真模擬:時間平均模型法[1]、混合高斯模型法以及本文所介紹方法,對復(fù)雜背景視頻Traffic.avi和簡單背景視頻ccbr.avi進行了處理,圖2和圖3分別是選擇Traffic.avi的第175幀圖像和ccbr.avi的第50幀進行算法仿真的結(jié)果從圖中可以看出,本實驗完全能達到混合高斯模型的效果,而從表1的分析數(shù)據(jù)可以看出,本實驗所用時間遠遠小于傳統(tǒng)的混合高斯背景建模法。
從實驗數(shù)據(jù)可以看出,通過對運動物體運動區(qū)域的提取來進行混合高斯背景建模可以有效縮短前景提取時間,而且越是簡單的背景,節(jié)約的處理時間越明顯。
4結(jié)論
本文為了克服傳統(tǒng)混合高斯模型方法計算量大的缺點,提出了對運動目標(biāo)所在區(qū)域建立背景模型的方法,通過與時間平均模型和混合高斯模型進行實驗仿真對比,結(jié)果證明了本文所用方法的有效性。
參考文獻
[1] 趙春暉,潘泉,梁彥,等.視頻圖像運動目標(biāo)分析[M]. 北京:國防工業(yè)出版社, 2011.
?。?] 杜文略,劉建梁,沈三民,等.基于FPGA的運動目標(biāo)檢測系統(tǒng)設(shè)計[J].電子技術(shù)應(yīng)用,2014,40(11):3638,42.
?。?] LIPON A, FUJIYOSHI H,PATIL R. Moving target classification and tracking from real time video [C].Proceedings of IEEE Workshop Applications of Computer Vision,Los Alamitos,CA,1998:814.
?。?] BROX T, BRUHN A, PAPENBERG N, et al. High accuracy optical flow estimation based on a theory for warping[C]. Proceedings of 8th European Conference on Computer Vision, 2004:2536.