文獻標(biāo)識碼: A
文章編號: 0258-7998(2015)05-0159-04
0 引言
早期交通視頻的分類方法[1]是使用車輛分割或目標(biāo)跟蹤技術(shù)的方法進行判別分類,但是由于這種方法計算量較為復(fù)雜且對視頻分辨率有較高的要求,所以不適合多目標(biāo)情況下的分類應(yīng)用。Saisan等人提出一種基于動態(tài)紋理模型參數(shù)間距離的識別方法,這種方法不需要提取局部特征,而是將圖像序列看作是一個二階平穩(wěn)隨機過程。基于此,Antoni在文獻[2]中提出了基于動態(tài)紋理模型的交通視頻分類方法,對已知的交通圖像序列進行模型參數(shù)化,根據(jù)模型參數(shù)計算各模型間Martin距離[3]實現(xiàn)對交通視頻的檢索和分類。然而,由于視頻數(shù)據(jù)的動態(tài)短暫性,使得對傳統(tǒng)采樣方法的采樣率的要求隨之變高,且采樣獲得的視頻數(shù)據(jù)量大,不便于儲存。近年來,高速發(fā)展的壓縮技術(shù)很好地解決了這一問題。壓縮感知[4]是美國科研學(xué)者Donoho提出的一種新的采樣方法,即當(dāng)信號為稀疏或可稀疏信號時,能夠通過獲得的隨機采樣少量數(shù)據(jù)實現(xiàn)對原始信號的精確重構(gòu)。該文方法在視頻傳統(tǒng)分類方法的基礎(chǔ)上結(jié)合了壓縮采樣技術(shù),首先,對每幀圖像用統(tǒng)一壓縮測量矩陣進行觀測,利用得到的測量數(shù)據(jù)通過奇異值分解的方法估計出模型的動態(tài)參數(shù);其次,使用一個時變的測量矩陣對每幀圖像進行測量,由于得到測量數(shù)據(jù)之間的不相關(guān)性質(zhì),結(jié)合已估計得到的模型動態(tài)參數(shù),通過求解一個凸優(yōu)化問題估計出系統(tǒng)模型的靜態(tài)參數(shù);最后,通過壓縮測量數(shù)據(jù)直接得到的模型參數(shù)進行模式判別,從而實現(xiàn)低采樣率下的交通視頻分類。
1 動態(tài)紋理模型與距離度量
1.1 線性動態(tài)系統(tǒng)
線性動態(tài)系統(tǒng)(LDS)模型是Soatto等人[5]提出的用來描述動態(tài)紋理變化特征的模型,其主要目的是通過建立一個數(shù)學(xué)模型來描述一個物理系統(tǒng)的動態(tài)特征,圖像序列的動態(tài)紋理模型可定義如下:
1.2 Martin距離
將動態(tài)紋理的模型參數(shù)A、C組成一個新的變量M=(A,C),并生成一個拓展的觀測矩陣,如下所示:
其中θi表示拓展觀測矩陣On(M1)和On(M2)之間的第i個主角。馬氏距離的大小代表了兩個紋理模型之間的相似程度,通過計算馬氏距離能夠?qū)煌ㄒ曨l進行分類,其分類框架如圖1所示。
2 視頻壓縮感知與模型參數(shù)估計
2.1 視頻壓縮感知
其中zt、Φt、yt分別表示t時刻的壓縮測量值、測量矩陣以及原始視頻幀。式(9)是一個凸優(yōu)化規(guī)劃問題,當(dāng)yt為稀疏信號時,使用L1-Minimization算法求其最優(yōu)解就能夠精確恢復(fù)原始視頻幀,即少量的隨機采樣數(shù)據(jù)已經(jīng)包含了原始視頻幀的足夠信息。基于此,本文結(jié)合視頻壓縮感知技術(shù),對交通視頻信號進行壓縮采樣,從少量采樣數(shù)據(jù)中直接估計模型參數(shù),實現(xiàn)交通視頻的分類(2.2節(jié)將作詳細討論),降低了硬件系統(tǒng)編碼端的結(jié)構(gòu)復(fù)雜度。其分類框架如圖2所示。
2.2 模型參數(shù)估計
2.2.1 狀態(tài)轉(zhuǎn)移矩陣的估計
3 實驗結(jié)果與分析
本文從網(wǎng)站[8]下載得到交通視頻樣本數(shù)據(jù)庫,數(shù)據(jù)庫是由西雅圖高速公路上固定相機拍攝的254個視頻數(shù)據(jù)組成,數(shù)據(jù)庫中考慮了多種天氣條件(下雨、晴天、陰天)下的交通視頻數(shù)據(jù),為了更方便有效地進行實驗測試,本文將下載得到視頻數(shù)據(jù)庫中的視頻數(shù)據(jù)進行像素修剪,將每個視頻數(shù)據(jù)體素變?yōu)?4×64×40的灰度數(shù)據(jù)。為了證明本文方法能夠有效估計出交通視頻信號的動態(tài)紋理模型參數(shù),本文選取編號為“cctv052x2004080516x01638”的交通視頻序列作為實驗樣本,通過本文提出的方法對視頻序列進行參數(shù)估計,其中本文方法參數(shù)設(shè)置如下:d=10,comp=5,稀疏基選擇為小波基,其中comp表示壓縮采樣比,仿真得到如圖5的實驗結(jié)果圖,其中圖(a)為原始交通視頻序列,圖(b)為根據(jù)本文方法(CS-DTC)估計得到模型參數(shù)恢復(fù)的交通視頻序列。
通過上面的實驗結(jié)果可知,本方法能有效估計出交通視頻序列的模型參數(shù)A、C。為了更為直觀看出本文方法對交通視頻有較好的分類效果,對通過下載得到的254個視頻樣本進行分類測試,視頻庫已經(jīng)通過人工標(biāo)記,其中包含44個重度(heavy)交通視頻(車流量較大,車流速度緩慢或停止)、45個中度(medium)交通視頻(車流量一般,車流程減速運動)、165個輕度(light)交通視頻樣本(車輛量較少,車流程勻速運動)。本文將75%的數(shù)據(jù)作為實驗的訓(xùn)練樣本,25%的數(shù)據(jù)作為測試視頻樣本,本文方法設(shè)置參數(shù):采樣壓縮比comp分別取2、5、10,繪制多條曲線,并通過本文方法計算得到模型參數(shù),采用馬氏距離為度量對測試樣本進行分類,仿真結(jié)果見圖6,其中橫坐標(biāo)為拓展觀測矩陣On(M)的參數(shù)n, 縱坐標(biāo)表示分類正確率。從圖6中可以看出,當(dāng)壓縮比comp小于5時,本文方法在降低采樣率的同時不會明顯影響交通視頻的識別率,而隨著壓縮比的繼續(xù)增大,由于大幅降低了圖像序列的采樣率數(shù)目,本文方法在識別率上整體低于傳統(tǒng)全采樣方法。
本文通過更改狀態(tài)向量維數(shù)d的大小,比較傳統(tǒng)方法和本文方法對交通視頻數(shù)據(jù)的識別正確率,其中本文方法的參數(shù)設(shè)置為:仿真結(jié)果比較如表1所示。從表1中可以看出,狀態(tài)向量的維數(shù)大小也會影響分類的正確性,狀態(tài)向量維數(shù)過小,其攜帶的信息量也少,會影響分類的正確率;反之狀態(tài)向量維數(shù)過大,在攜帶不必要信息的同時也會增大計算的復(fù)雜度,所以在實際應(yīng)用過程中應(yīng)該合適地選擇狀態(tài)向量維數(shù)d的值,以獲得更好的分類效果。
為了直觀有效地看出本文方法能夠有效降低采樣率,并且不明顯影響分類效果,本文選擇合適的仿真參數(shù):通過調(diào)整不同采樣壓縮比comp下估計出模型參數(shù)分別進行試驗比較,試驗結(jié)果如表2所示。從試驗結(jié)果可以看出,本文方法在較低的采樣率下依然能夠有不錯的分類效果。
4 結(jié)論
該文根據(jù)交通視頻信號的紋理模型特性,在估計模型參數(shù)的過程中引入了壓縮感知技術(shù),通過壓縮采樣得到少量的測量值,由少量的測量值直接估計出紋理模型參數(shù),根據(jù)模型參數(shù)對交通視頻數(shù)據(jù)進行計算分類。實驗結(jié)果表明,相比于傳統(tǒng)方法,本文方法不僅能夠在非常低的采樣率下較為準(zhǔn)確地估計出模型參數(shù),且整個識別過程都不需要對視頻信號進行重構(gòu),為預(yù)報和緩解交通擁堵現(xiàn)象提供了有利的條件,本文方法在視頻紋理識別的其他領(lǐng)域也有著非常廣泛的應(yīng)用前景。
參考文獻
[1] JUNG Y K,LEE K W,HO Y S.Content-based event retrieval using semantic scene interpretation for automated traffic surveillance[J].IEEE Transactions on Intelligent Transportation Systems,2001,2(3):151-163.
[2] CHAN A B,VASCONCELOS N.Classification and retrieval of traffic video using auto-regressive stochastic processes[C].Intelligent Vehicles Symposium.Proceedings.IEEE,2005:771-776.
[3] MARTIN R J.A metric for ARMA processes[J].IEEE Transactions on Signal Processing,2000,48(4):1164-1170.
[4] QAISAR S,BILAL R M,IQBAL W,et al.Compressive sensing:From theory to applications,a survey[J].Communications and Networks,Journal of,2013,15(5):443-456.
[5] SOATTO S,DORETTO G,WU Y N.Dynamic textures[C].Proceedings of IEEE International Conference on Computer Vision.Vancouver,IEEE Press,British Columbia,Canada:2001,2:439-446.
[6] DE COCK K,DE MOOR B L R.Subspace angles between linear stochastic models[C].IEEE Conference on Decision and Control.Sydney,NSW.2000,2:1561-1566.
[7] STANKOVIC V,STANKOVIC L,CHENG S.(2009) Compressive video sampling[C].Proceedings of the 16th IEEE International Conference on Image Processing.IEEE,2009:3001-3004.
[8] VISAL.Highway traffic dataset[DB/OL].http://visal.cs.cityu.edu.hk/downloads.
[9] SANKARANARAYANAN A C,TURAGA P K,CHELLAPPA R,et al.Compressive acquisition of linear dynamical systems[J].SIAM Journal on Imaging Sciences,2013,6(4):2109-2133.