《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > 嵌入式技術(shù) > 設(shè)計應(yīng)用 > 壓縮感知與動態(tài)紋理模型的視頻信號分類
壓縮感知與動態(tài)紋理模型的視頻信號分類
2015年電子技術(shù)應(yīng)用第5期
蔣行國,李志豐,張 龍
桂林電子科技大學(xué) 信息與通信學(xué)院,廣西 桂林541004
摘要: 針對視頻數(shù)據(jù)的動態(tài)紋理特性,提出結(jié)合視頻壓縮感知技術(shù),首先通過壓縮采樣技術(shù)對視頻數(shù)據(jù)進行采樣,得到少量的采樣數(shù)據(jù);然后建立線性動態(tài)系統(tǒng)模型,通過少量的壓縮采樣數(shù)據(jù)直接估計出模型參數(shù);最后通過計算模型間的馬氏距離實現(xiàn)動態(tài)紋理視頻數(shù)據(jù)的分類。實驗結(jié)果表明,提出的壓縮感知參數(shù)估計方法在20%的低采樣率情況下,對交通視頻數(shù)據(jù)的分類正確率達到87%以上。
中圖分類號: TP391.4
文獻標(biāo)識碼: A
文章編號: 0258-7998(2015)05-0159-04
Video signal classification of compressed sensing and dynamic texture model
Jiang Xingguo,Li Zhifeng,Zhang Long
School of Information and Communication,Guilin University of Electronic Technology,Guilin 541004,China
Abstract: Based on the feature of dynamic texture in video data, this paper presents a method, which combine with the technology of video compressive sensing. Firstly,a few video sampling data is gotten using the technology of compressive sampling. Then linear dynamical system is set up and the model parameters from the little sampling data also are estimated. Finally, the martin distance between models is calculated to classify texture video data. Results show that at the sampling rate of 20%,the rate of accuracy about classifying video data is over 87% using the proposed method.
Key words : dynamic texture model;compressed sensing;Martin distance;video signal classification

 

0 引言

    早期交通視頻的分類方法[1]是使用車輛分割或目標(biāo)跟蹤技術(shù)的方法進行判別分類,但是由于這種方法計算量較為復(fù)雜且對視頻分辨率有較高的要求,所以不適合多目標(biāo)情況下的分類應(yīng)用。Saisan等人提出一種基于動態(tài)紋理模型參數(shù)間距離的識別方法,這種方法不需要提取局部特征,而是將圖像序列看作是一個二階平穩(wěn)隨機過程。基于此,Antoni在文獻[2]中提出了基于動態(tài)紋理模型的交通視頻分類方法,對已知的交通圖像序列進行模型參數(shù)化,根據(jù)模型參數(shù)計算各模型間Martin距離[3]實現(xiàn)對交通視頻的檢索和分類。然而,由于視頻數(shù)據(jù)的動態(tài)短暫性,使得對傳統(tǒng)采樣方法的采樣率的要求隨之變高,且采樣獲得的視頻數(shù)據(jù)量大,不便于儲存。近年來,高速發(fā)展的壓縮技術(shù)很好地解決了這一問題。壓縮感知[4]是美國科研學(xué)者Donoho提出的一種新的采樣方法,即當(dāng)信號為稀疏或可稀疏信號時,能夠通過獲得的隨機采樣少量數(shù)據(jù)實現(xiàn)對原始信號的精確重構(gòu)。該文方法在視頻傳統(tǒng)分類方法的基礎(chǔ)上結(jié)合了壓縮采樣技術(shù),首先,對每幀圖像用統(tǒng)一壓縮測量矩陣進行觀測,利用得到的測量數(shù)據(jù)通過奇異值分解的方法估計出模型的動態(tài)參數(shù);其次,使用一個時變的測量矩陣對每幀圖像進行測量,由于得到測量數(shù)據(jù)之間的不相關(guān)性質(zhì),結(jié)合已估計得到的模型動態(tài)參數(shù),通過求解一個凸優(yōu)化問題估計出系統(tǒng)模型的靜態(tài)參數(shù);最后,通過壓縮測量數(shù)據(jù)直接得到的模型參數(shù)進行模式判別,從而實現(xiàn)低采樣率下的交通視頻分類。

1 動態(tài)紋理模型與距離度量

1.1 線性動態(tài)系統(tǒng)

    線性動態(tài)系統(tǒng)(LDS)模型是Soatto等人[5]提出的用來描述動態(tài)紋理變化特征的模型,其主要目的是通過建立一個數(shù)學(xué)模型來描述一個物理系統(tǒng)的動態(tài)特征,圖像序列的動態(tài)紋理模型可定義如下:

    jsj5-gs1-2.gif

jsj5-gs3-6.gif

1.2 Martin距離

    將動態(tài)紋理的模型參數(shù)A、C組成一個新的變量M=(A,C),并生成一個拓展的觀測矩陣,如下所示:

jsj5-gs7-8.gif

其中θi表示拓展觀測矩陣On(M1)和On(M2)之間的第i個主角。馬氏距離的大小代表了兩個紋理模型之間的相似程度,通過計算馬氏距離能夠?qū)煌ㄒ曨l進行分類,其分類框架如圖1所示。

jsj5-t1.gif

2 視頻壓縮感知與模型參數(shù)估計

2.1 視頻壓縮感知

jsj5-gs9.gif

其中zt、Φt、yt分別表示t時刻的壓縮測量值、測量矩陣以及原始視頻幀。式(9)是一個凸優(yōu)化規(guī)劃問題,當(dāng)yt為稀疏信號時,使用L1-Minimization算法求其最優(yōu)解就能夠精確恢復(fù)原始視頻幀,即少量的隨機采樣數(shù)據(jù)已經(jīng)包含了原始視頻幀的足夠信息。基于此,本文結(jié)合視頻壓縮感知技術(shù),對交通視頻信號進行壓縮采樣,從少量采樣數(shù)據(jù)中直接估計模型參數(shù),實現(xiàn)交通視頻的分類(2.2節(jié)將作詳細討論),降低了硬件系統(tǒng)編碼端的結(jié)構(gòu)復(fù)雜度。其分類框架如圖2所示。

jsj5-t2.gif

2.2 模型參數(shù)估計

2.2.1 狀態(tài)轉(zhuǎn)移矩陣的估計

jsj5-gs10-11.gif

jsj5-t3.gifjsj5-t3.gif

jsj5-gs12-13.gif

jsj5-t4.gif

3 實驗結(jié)果與分析

    本文從網(wǎng)站[8]下載得到交通視頻樣本數(shù)據(jù)庫,數(shù)據(jù)庫是由西雅圖高速公路上固定相機拍攝的254個視頻數(shù)據(jù)組成,數(shù)據(jù)庫中考慮了多種天氣條件(下雨、晴天、陰天)下的交通視頻數(shù)據(jù),為了更方便有效地進行實驗測試,本文將下載得到視頻數(shù)據(jù)庫中的視頻數(shù)據(jù)進行像素修剪,將每個視頻數(shù)據(jù)體素變?yōu)?4×64×40的灰度數(shù)據(jù)。為了證明本文方法能夠有效估計出交通視頻信號的動態(tài)紋理模型參數(shù),本文選取編號為“cctv052x2004080516x01638”的交通視頻序列作為實驗樣本,通過本文提出的方法對視頻序列進行參數(shù)估計,其中本文方法參數(shù)設(shè)置如下:jsj5-t5-s1.gifd=10,comp=5,稀疏基選擇為小波基,其中comp表示壓縮采樣比,jsj5-t5-s2.gif仿真得到如圖5的實驗結(jié)果圖,其中圖(a)為原始交通視頻序列,圖(b)為根據(jù)本文方法(CS-DTC)估計得到模型參數(shù)恢復(fù)的交通視頻序列。

jsj5-t5.gif

    通過上面的實驗結(jié)果可知,本方法能有效估計出交通視頻序列的模型參數(shù)A、C。為了更為直觀看出本文方法對交通視頻有較好的分類效果,對通過下載得到的254個視頻樣本進行分類測試,視頻庫已經(jīng)通過人工標(biāo)記,其中包含44個重度(heavy)交通視頻(車流量較大,車流速度緩慢或停止)、45個中度(medium)交通視頻(車流量一般,車流程減速運動)、165個輕度(light)交通視頻樣本(車輛量較少,車流程勻速運動)。本文將75%的數(shù)據(jù)作為實驗的訓(xùn)練樣本,25%的數(shù)據(jù)作為測試視頻樣本,本文方法設(shè)置參數(shù):jsj5-t5-x1.gif采樣壓縮比comp分別取2、5、10,繪制多條曲線,并通過本文方法計算得到模型參數(shù),采用馬氏距離為度量對測試樣本進行分類,仿真結(jié)果見圖6,其中橫坐標(biāo)為拓展觀測矩陣On(M)的參數(shù)n, 縱坐標(biāo)表示分類正確率。從圖6中可以看出,當(dāng)壓縮比comp小于5時,本文方法在降低采樣率的同時不會明顯影響交通視頻的識別率,而隨著壓縮比的繼續(xù)增大,由于大幅降低了圖像序列的采樣率數(shù)目,本文方法在識別率上整體低于傳統(tǒng)全采樣方法。

jsj5-t6.gif

    本文通過更改狀態(tài)向量維數(shù)d的大小,比較傳統(tǒng)方法和本文方法對交通視頻數(shù)據(jù)的識別正確率,其中本文方法的參數(shù)設(shè)置為:jsj5-t6-x1.gif仿真結(jié)果比較如表1所示。從表1中可以看出,狀態(tài)向量的維數(shù)大小也會影響分類的正確性,狀態(tài)向量維數(shù)過小,其攜帶的信息量也少,會影響分類的正確率;反之狀態(tài)向量維數(shù)過大,在攜帶不必要信息的同時也會增大計算的復(fù)雜度,所以在實際應(yīng)用過程中應(yīng)該合適地選擇狀態(tài)向量維數(shù)d的值,以獲得更好的分類效果。

jsj5-b1.gif

    為了直觀有效地看出本文方法能夠有效降低采樣率,并且不明顯影響分類效果,本文選擇合適的仿真參數(shù):jsj5-b1-x1.gif通過調(diào)整不同采樣壓縮比comp下估計出模型參數(shù)分別進行試驗比較,試驗結(jié)果如表2所示。從試驗結(jié)果可以看出,本文方法在較低的采樣率下依然能夠有不錯的分類效果。

jsj5-b2.gif

4 結(jié)論

    該文根據(jù)交通視頻信號的紋理模型特性,在估計模型參數(shù)的過程中引入了壓縮感知技術(shù),通過壓縮采樣得到少量的測量值,由少量的測量值直接估計出紋理模型參數(shù),根據(jù)模型參數(shù)對交通視頻數(shù)據(jù)進行計算分類。實驗結(jié)果表明,相比于傳統(tǒng)方法,本文方法不僅能夠在非常低的采樣率下較為準(zhǔn)確地估計出模型參數(shù),且整個識別過程都不需要對視頻信號進行重構(gòu),為預(yù)報和緩解交通擁堵現(xiàn)象提供了有利的條件,本文方法在視頻紋理識別的其他領(lǐng)域也有著非常廣泛的應(yīng)用前景。

參考文獻

[1] JUNG Y K,LEE K W,HO Y S.Content-based event retrieval using semantic scene interpretation for automated traffic surveillance[J].IEEE Transactions on Intelligent Transportation Systems,2001,2(3):151-163.

[2] CHAN A B,VASCONCELOS N.Classification and retrieval of traffic video using auto-regressive stochastic processes[C].Intelligent Vehicles Symposium.Proceedings.IEEE,2005:771-776.

[3] MARTIN R J.A metric for ARMA processes[J].IEEE Transactions on Signal Processing,2000,48(4):1164-1170.

[4] QAISAR S,BILAL R M,IQBAL W,et al.Compressive sensing:From theory to applications,a survey[J].Communications and Networks,Journal of,2013,15(5):443-456.

[5] SOATTO S,DORETTO G,WU Y N.Dynamic textures[C].Proceedings of IEEE International Conference on Computer Vision.Vancouver,IEEE Press,British Columbia,Canada:2001,2:439-446.

[6] DE COCK K,DE MOOR B L R.Subspace angles between linear stochastic models[C].IEEE Conference on Decision and Control.Sydney,NSW.2000,2:1561-1566.

[7] STANKOVIC V,STANKOVIC L,CHENG S.(2009) Compressive video sampling[C].Proceedings of the 16th IEEE International Conference on Image Processing.IEEE,2009:3001-3004.

[8] VISAL.Highway traffic dataset[DB/OL].http://visal.cs.cityu.edu.hk/downloads.

[9] SANKARANARAYANAN A C,TURAGA P K,CHELLAPPA R,et al.Compressive acquisition of linear dynamical systems[J].SIAM Journal on Imaging Sciences,2013,6(4):2109-2133.

此內(nèi)容為AET網(wǎng)站原創(chuàng),未經(jīng)授權(quán)禁止轉(zhuǎn)載。