摘 要: 傳統(tǒng)混合高斯模型一般為每個像素分配固定的高斯分布個數(shù),從而造成背景形成速度的減慢和系統(tǒng)資源的浪費;同時也存在著高斯模型背景建模中的緩慢或滯留運動物體造成目標誤判現(xiàn)象的問題(即空洞問題)。為此,提出了一種有效的兩階段視頻圖像處理方法。該方法在第一階段根據(jù)像素點的優(yōu)先級大小自動地調(diào)節(jié)高斯分布的數(shù)目,在第二階段首先對像素點進行所屬區(qū)域的劃分,進而對目標區(qū)域和非目標區(qū)域采取不同的更新手段。實驗表明,采用兩階段視頻圖像處理方法明顯地改善了背景建模的速度,有效解決了提取目標出現(xiàn)的空洞問題。
關鍵詞: 背景建模;混合高斯模型;背景更新;目標檢測
在視頻序列中,目標區(qū)域背景的估計和目標的提取是智能監(jiān)控領域的關鍵問題之一,它對于后續(xù)的目標分割、跟蹤和更高層次的理解等處理非常重要。在解決此問題的方案中,背景差分法是近年來常用的方法,并且其在運動目標檢測中也獲得了大量的應用[1-3]。但該方法存在著缺陷,如背景中包含的陰影、運動的物體(如搖擺的樹枝、移動的電梯以及經(jīng)歷各種變化如光照變化)都會給背景差分帶來干擾,所以建立一個好的自適應的背景模型成為一個亟待解決的問題。
目前已經(jīng)提出很多建立自適應背景模型的方法。Richard等[4]人利用單高斯分布進行背景更新,但不能有效地處理室外頻繁變化的場景。Stauffer等[5]人利用混合高斯模型來建立背景模型,在每幀中對各個像素點建立由多個高斯分布組成的背景模型。該方法能魯棒性地克服光照變化、樹枝擺動等造成的影響,但是由于在每幀圖片中要對所有的像素點都建立多個固定的高斯分布,在處理時會消耗大量的系統(tǒng)資源。近年來,Zivkovic等[6]人利用最大似然估計提出了一種高斯模型個數(shù)的選擇方法。該方法由于人為地引入了負的先驗系數(shù),使得在更新過程中高斯模型的權重有可能被不合理地負更新。上述自適應背景模型都存在一些問題,不能很好地解決背景估計和目標檢測的問題。
為解決背景估計和目標檢測問題,本文提出了一種有效的兩階段視頻圖像處理方法。該方法在第一階段根據(jù)該像素點的優(yōu)先級來自動調(diào)整它的高斯個數(shù),從而有效地降低背景提取的速度;在第二階段對目標區(qū)域和非目標區(qū)域采取不同的更新策略,即對目標區(qū)域做緩慢更新、非目標區(qū)域做快速更新,此階段可以有效地解決目標提取不完整的問題。
1 基于混合高斯模型的背景建模
Stauffer等人[7]用由K個高斯分布組成的混合高斯模型表示同一個像素在時間域上的概率分布,即對于圖像中的第n個像素在1~t不同時刻取值分別為{Xn1,…,Xnt},當前幀圖像中的第n個像素值在t時刻的概率分布為:
閾值TB決定了高斯分布在背景選取所占的比例,再取值較小時,背景通常用一個高斯分布表示;取值較大時,背景由多個分布混合表示。
2 兩階段視頻圖像處理方法設計
第一階段,針對傳統(tǒng)的混合高斯模型為每個像素點分配了固定的高斯個數(shù),但這樣會造成系統(tǒng)資源浪費和降低背景建模的速度問題,因此提出了一種動態(tài)調(diào)節(jié)混合高斯分布個數(shù)的方案;第二階段,針對物體運動緩慢或者長時間停留造成目標像素更新到背景中導致目標提取的不完整問題,提出了一種緩慢或滯留目標問題的解決方案。
2.1對第一階段的動態(tài)調(diào)節(jié)混合高斯分布個數(shù)的方案
根據(jù)上述分析,使用如下策略對傳統(tǒng)的混合高斯模型的更新過程加以改進:
(1)初始化:初始化對每個像素只選取一個高斯分布(可以用初始的一幀或多幀圖像的平均值來初始化背景模型)。
3 實驗評估
為驗證本文算法的有效性,根據(jù)上述兩階段視頻圖像處理方法采用VC++6.0編寫程序,在Inter 3.0 GHz處理器、1 GB內(nèi)存的PC機上對多個視頻進行了測試。所處理視頻的分辨率均為320×240。
3.1 動態(tài)調(diào)節(jié)高斯分布個數(shù)方案性能評估
首先設置各個變量,選取最大高斯分布個數(shù)為3,初始權值ωinit為0.05,標準差σinit為20,模型學習率α為0.1,權值更新率β為0.1。改進算法中高斯分布個數(shù)示意圖如圖1所示。
圖1中第一列為視頻某一幀的原始圖像,第二列圖像為這些幀上每個像素的高斯分布個數(shù),黑色、灰色以及白色區(qū)域分別表示該像素由1個、2個、3個高斯模型。由圖可知,對于靜態(tài)背景下的視頻的大多數(shù)區(qū)域場景比較穩(wěn)定,使用一個高斯分布便可滿足要求,而有行人經(jīng)過的地方場景會頻繁變化,需要2~3個高斯模型。同樣當場景狀態(tài)變化較為復雜時,如圖1(a),由于圖中燈光照射陰影的存在和圖1(c)中樹葉的搖擺,也需要較多的高斯分布才能實現(xiàn)背景的建模。此外,由于攝像機抖動的存在,也會造成在紋理豐富區(qū)域像素的高斯分布個數(shù)增加,如圖1(b)中建筑物的邊緣等。
利用傳統(tǒng)的混合高斯模型方法對這三幀圖像的處理時間分別為27.9 ms、28.1 ms、28.6 ms,而使用兩階段視頻圖像處理方法的處理時間分別為19.6 ms、20.3 ms、22.7 ms??梢钥闯觯ㄟ^動態(tài)調(diào)節(jié)混合高斯分布個數(shù)可以顯著提高背景建模的速度,從而有效地節(jié)約了運算資源。此外,隨著背景狀態(tài)變化復雜程度的增加,每個像素的混合高斯模型需要更多的高斯分布,也就需要更多的處理時間,如對圖1(c)的處理時間會相應較長。
3.2 緩慢或滯留目標問題的解決方案性能評估
首先設置各個變量,選取高斯模型的最大高斯分布個數(shù)為4,初始權值ωinit為0.05,標準差σinit為20,模型學習率α為0.1,αF為0.3,αS為0.03,權值更新率β為0.1,背景權值閾值TB為0.7。滯留目標檢測結(jié)果對比示意圖如圖2所示。
圖2中第一列從上到下依次為:當前幀視頻圖像、估計背景和目標二值圖像。由圖2可以看到,短期滯留的目標沒有被更新到背景區(qū)域,提取出比較完整的目標,避免了空洞現(xiàn)象。
本文提出了一種有效的兩階段視頻圖像處理方法,在第一階段,動態(tài)地更新每個像素高斯分布的個數(shù),顯著提高了背景建模的速度;第二階段,在目標區(qū)和非目標區(qū)采用不同的更新策略,有效地解決了滯留目標像素融入背景的問題,同時也減弱了慢速運動物體對背景模型的影響。通過大量的實驗測試證明,即使在光線變化、車輛人流雜亂的場合中,背景生成也是穩(wěn)定的,具有較好的自適應性。
在實驗中發(fā)現(xiàn),與路面顏色相近的人或者車輛可能在背景差分的過程中誤判為背景,因此,如何利用色度之外的信息量建立背景模型,從而更有效地區(qū)分背景和前景,將是今后需要解決的問題。
參考文獻
[1] KAEW T K P P, BOWDER R. An improved adaptive background mixture model for real-time tracking with shadow detection[C]. The 2nd European Workshop on Advanced Video-based Surveillance Systems. Kingston: Kluwer Academic Publishers, 2001: 1-5.
[2] ELGAMMAL A, DURAISWAMI R, DAVIS L. Efficient non parametric adaptive color modeling using fast gauss transform[C]. IEEE Conference on Computer Vision and Patern Recognition, Kauai, Hawaii, December, 2001.
[3] COLLINS R, LIPTON A, KANADE T. A system for video surveillance and monitoring[C]. Proceeding. Am. Nuclear Soc. (ANS) Eighth Int′l Topical Meeting Robotic and Remote Systems, Apr. 1999.
[4] WREN C R, AZARBAYE J A, DARRELL T P. Real-time tracking of the human body[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 1997,19(7):780–785.
[5] STAUFFER C, GRIMSON W E L. Adaptive background mixture models for real-time tracking[C]. Computer Vision and Pattern Recognition. CO, USA: IEEE, 1999: 246-250.
[6] ZIVKOVIC Z, HEIJDEN F V D. Efficient adaptive density estimation per image pixel for the task of background subtraction[J]. Pattern Recognition Letters, 2006, 27(5): 827-832.
[7] STAUFFER C, GRIMSONW E L. Learning patterns of activity using real-time tracking[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2000, 22(8): 747-757.