《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > 其他 > 業(yè)界動態(tài) > 基于直方圖矢量重心的PCNN圖像目標(biāo)識別新方法

基于直方圖矢量重心的PCNN圖像目標(biāo)識別新方法

2008-04-10
作者:劉 勍 1,馬義德2

  摘 要: 對傳統(tǒng)PCNN模型進(jìn)行簡化與改進(jìn),從適合圖像處理" title="圖像處理">圖像處理的角度提出了賦時矩陣的概念;利用物理學(xué)相關(guān)概念定義了一種新的賦時矩陣圖像直方圖矢量不變特征,并將該特征運(yùn)用在目標(biāo)識別" title="目標(biāo)識別">目標(biāo)識別" title="圖像目標(biāo)識別" title="圖像目標(biāo)識別">圖像目標(biāo)識別">圖像目標(biāo)識別中;通過實(shí)驗(yàn)證明了算法的優(yōu)越性。
  關(guān)鍵詞: 脈沖耦合神經(jīng)網(wǎng)絡(luò)(PCNN) 賦時矩陣 直方圖矢量重心 特征提取" title="特征提取">特征提取 圖像目標(biāo)識別


  在目標(biāo)識別算法中,最為關(guān)鍵的是目標(biāo)特征的提取。一般以提取物理特征為主,而其中尋找圖像在縮放、平移和旋轉(zhuǎn)情況下的不變特征一直是目標(biāo)識別領(lǐng)域的研究方向之一。這些不變特征是良好區(qū)分不同目標(biāo)物體的重要標(biāo)志。迄今為止,圖像識別" title="圖像識別">圖像識別算法己有多種,如不變矩法[1]、相關(guān)法[2]、判別熵最小化法、歸一化轉(zhuǎn)動慣量(NMI)法[3]等。但以上幾種目標(biāo)識別方法較為復(fù)雜,對復(fù)雜圖像識別效果也并不理想,在實(shí)時性要求較高的圖像處理領(lǐng)域具有一定的限制。
  脈沖耦合神經(jīng)網(wǎng)絡(luò)PCNN(Pulse Coupled Neural Networks)是上世紀(jì)90年代形成和發(fā)展的一種新型神經(jīng)網(wǎng)絡(luò)。PCNN有著生物學(xué)的背景,是依據(jù)貓、猴等動物大腦視覺皮層上的同步脈沖發(fā)放現(xiàn)象提出的[4],已被廣泛應(yīng)用于圖像處理領(lǐng)域。在圖像模式分類與識別中,常見的有PCNN與后續(xù)處理模式識別器的結(jié)合[5,6]或與其他方法相結(jié)合[7]的方式;文獻(xiàn)[8]給出了基于PCNN分割二值圖像熵序列的圖像識別方法。本文基于PCNN提出了一種新的圖像特征提取與識別方法,該方法能夠?qū)φ鶊D像的特征提取,且提取的識別參數(shù)少,準(zhǔn)確率高。
1 PCNN模型基本原理
  PCNN也稱為第三代人工神經(jīng)網(wǎng)絡(luò)。PCNN的每個神經(jīng)元一般由三部分組成:接收部分、調(diào)制部分和脈沖產(chǎn)生部分,用離散數(shù)學(xué)方程描述如下[9]:
  
  其中ij下標(biāo)為神經(jīng)元的標(biāo)號,Iij、Fij、Lij、Uij和θij分別為神經(jīng)元的外部刺激(圖像像素構(gòu)成的矩陣中第Nij個像素的灰度值)、反饋輸入、連接輸入、內(nèi)部活動項和動態(tài)閾值,M和W為連接權(quán)矩陣(一般W=M),VF、VL、Vθ分別為幅度常數(shù),αF、αL與αθ分別為時間衰減常數(shù),n為迭代次數(shù),Yij為二值輸出。
  在用PCNN進(jìn)行圖像處理時,將一個二維PCNN網(wǎng)絡(luò)的M×N個神經(jīng)元分別與二維輸入圖像的M×N個像素相對應(yīng)。在第一次迭代時,神經(jīng)元的內(nèi)部活動項就等于外部刺激Iij,若Iij大于閾值,這時神經(jīng)元輸出為1,為自然激活,此時其閾值θij將急劇增大,然后隨時間指數(shù)衰減。在此之后的各次迭代中,被激活的神經(jīng)元通過與之相鄰神經(jīng)元的連接作用激勵鄰接神經(jīng)元,若鄰接神經(jīng)元的內(nèi)部活動項大于閾值則被捕獲激活。顯然,如果鄰接神經(jīng)元與前一次迭代激活的神經(jīng)元所對應(yīng)的像素具有相似強(qiáng)度,則鄰接神經(jīng)元容易被捕獲激活,反之不能被捕獲激活。因此,利用某一神經(jīng)元的自然激活會觸發(fā)其周邊相似神經(jīng)元的集體激活,產(chǎn)生脈動輸出序列Y[n],且它們形成了一個神經(jīng)元集群,從而可實(shí)現(xiàn)相關(guān)特征信息的提取與處理。
2 改進(jìn)型PCNN賦時矩陣圖像識別算法
2.1 改進(jìn)型PCNN模型及其賦時矩陣

  傳統(tǒng)PCNN模型的關(guān)鍵思想是其非線性調(diào)制耦合機(jī)制和閾值指數(shù)衰變機(jī)制,而非線性調(diào)制耦合機(jī)制是核心。傳統(tǒng)PCNN模型中雖然其閾值是指數(shù)衰降的,但又是反復(fù)變化的,即經(jīng)過長時間(或短時間)的衰降之后必然會有一次由于神經(jīng)元激活造成的突然上升,之后又衰降,然后又突然上升……顯然,這種變化規(guī)律不符合人眼對亮度強(qiáng)度響應(yīng)的非線性要求,而且這種閾值機(jī)制使得處理后的大量信息蘊(yùn)含在神經(jīng)元的激活周期(頻率)或者激活相位中,而直接的二值輸出圖像卻并不包含全部的信息。為克服上述缺點(diǎn),本文對閾值函數(shù)做了改進(jìn),即把隨時間反復(fù)衰變的指數(shù)函數(shù)改進(jìn)成為隨時間單調(diào)遞減指數(shù)函數(shù)并對模型進(jìn)行了簡化,其表達(dá)式如下:
  
  其中,Uij[n]、Yij[n]的表達(dá)式與式(3)、式(4)相同。改進(jìn)型PCNN用于圖像處理時,有以下關(guān)鍵概念:(1)神經(jīng)元的外部輸入是與之相關(guān)聯(lián)像素的灰度值,即Fij[n]=Iij;(2)所有神經(jīng)元結(jié)構(gòu)相等且各個神經(jīng)元的參數(shù)一致;(3)每個神經(jīng)元接受與之距離為R以內(nèi)的神經(jīng)元連接輸入,內(nèi)部連接矩陣W是一個3×3的方陣,每個元素的值為中心像素到周圍每個像素的歐幾里德距離的倒數(shù)(R-1);(4)每個像素所對應(yīng)的神經(jīng)元只能被激活一次。
  當(dāng)改進(jìn)型PCNN對圖像進(jìn)行迭代處理時,在此定義一個賦時矩陣T,其大小與外部輸入I、輸出Y相等,并且T中的任一元素與I、Y聯(lián)系的神經(jīng)元一一對應(yīng),在T中存儲與每個神經(jīng)元點(diǎn)火時間相聯(lián)系的時刻信息,即Tij是第(i,j)個神經(jīng)元的點(diǎn)火時間(或次數(shù))。在本文中定義Tij為第(i,j)個神經(jīng)元第一次點(diǎn)火的時間:
  
  賦時矩陣反映了基于圖像空間信息的時間域信息。它忠實(shí)地記錄了與每個神經(jīng)元點(diǎn)火時間相關(guān)的信息,分別有以下幾種情況:(1)如果該神經(jīng)元從未點(diǎn)過火,則在T中對應(yīng)點(diǎn)的值為0;(2)在第n時刻第一次點(diǎn)火,在T中對應(yīng)點(diǎn)的值為n;(3)該神經(jīng)元已點(diǎn)過火,則T中對應(yīng)點(diǎn)的值保持上一次的值不變。其迭代過程一直進(jìn)行到所有神經(jīng)元都點(diǎn)過火,T中的元素值均不為0,最后形成PCNN賦時矩陣T。
2.2 直方圖矢量重心特征
2.2.1 基本概念定義
  二維數(shù)字化灰度圖像f(i,j)的M×N個像素可看作是XOY平面上的M×N個質(zhì)點(diǎn),像素的灰度值f(i,j)就是相應(yīng)質(zhì)點(diǎn)的質(zhì)量。結(jié)合物理學(xué)相關(guān)概念[10],對圖像作如下定義:
  定義1 二維灰度圖像所有的灰度值之和定義為該灰度圖像的質(zhì)量,記為m,則:
  
  對于均勻灰度值的二維圖像,圖像的重心亦即該圖像所占平面圖形的形心。
2.2.2 直方圖矢量重心
  當(dāng)對二維圖像求其直方圖H(g)時,H(g)是對于g的一維函數(shù),其中g(shù)為圖像的灰度,其值介于0~L(最大灰度值)。則H(g)是一個對于g的L+1維向量,對其利用上述定義,則有如下關(guān)系式:
  
  (5)式中分別定義為直方圖矢量的質(zhì)量和直方圖矢量的重心。
  由于原始圖像的直方圖不含有空間信息,所以不同的圖像有可能具有相同的直方圖。鑒于此,上述直方圖矢量的重心和歸一化直方圖矢量重心質(zhì)量不能反映圖像的特征,不能用于圖像的識別;但當(dāng)對原始圖像進(jìn)行PCNN處理,形成PCNN賦時矩陣,將賦時矩陣作為一幅圖像求其直方圖及上述相關(guān)物理量時,PCNN在迭代過程中利用了調(diào)制耦合機(jī)制,形成賦時矩陣的直方圖矢量既包含像素的灰度信息,又包含像素的空間信息;賦時矩陣直方圖矢量的重心能忠實(shí)地反映圖像特征,其表達(dá)式如下:
  
  在(6)式中n為賦時矩陣T中對應(yīng)神經(jīng)元的激活時刻,S為最大迭代時間,H(n)為T的直方圖,為T直方圖矢量的重心。
3 實(shí)驗(yàn)結(jié)果與分析
  本文利用Matlab6.5語言,選用了100幅不同的256×256灰度人物圖像作為圖像識別模式庫,對圖像分別進(jìn)縮放、旋轉(zhuǎn)及平移等操作,然后按圖1所示過程處理,對圖像進(jìn)行識別。
  為保證PCNN對處理圖像的統(tǒng)一性及該方法的可適用性,對不同圖像的處理要求在同一PCNN模型下進(jìn)行。參數(shù)是β=0.1,VL=0.05,θ0=256,αθ=0.1,Y、L、U及T初值設(shè)為零,內(nèi)部連接矩陣W=M是一個3×3方陣,網(wǎng)絡(luò)中每個神經(jīng)元只與歐氏距離≤R(R=3)的相鄰神經(jīng)元鏈接。


  (1)對256×256 Lena圖像進(jìn)行旋轉(zhuǎn)、縮放及平移處理操作實(shí)驗(yàn)。圖1(a)是Lena原圖,圖1(b)是利用PCNN對Lena圖像處理得到的T矩陣,圖1(c)是T矩陣的直方圖;圖2(a)是Lena圖像縮小為40%時T的直方圖,圖2(b)是對Lena圖像旋轉(zhuǎn)45°時T的直方圖;其相關(guān)實(shí)驗(yàn)數(shù)據(jù)如表1所示。


  (2)對圖像模式庫中部分不同圖像特征提取后,與Lena圖像識別對比。圖3是模式庫中待識別的部分人物圖像,實(shí)驗(yàn)數(shù)據(jù)如表2所示。


  
  通過以上實(shí)驗(yàn)圖表可以看出:(1)由于采用的閾值函數(shù)隨時間單調(diào)遞減,所以通過PCNN迭代形成的T矩陣圖像是原圖像的反白,如圖1(b)所示;(2)當(dāng)待識別目標(biāo)圖像與識別庫中圖像存在一定的比例變化、旋轉(zhuǎn)及平移(見表1)時,采用PCNN直方圖矢量重心特征識別,其識別誤差小,具有良好的幾何畸變(TRS)不變性;(3)若待識別目標(biāo)圖像與識別庫中圖像存在一定的差異,當(dāng)采用本文方法進(jìn)行識別時,雖有一定的識別誤差,但誤差不大。在實(shí)際圖像識別過程中,當(dāng)運(yùn)用本文算法進(jìn)行處理時,可預(yù)先設(shè)定直方圖矢量重心識別誤差判別值(例如本文可設(shè)=1.0%)來對待識別圖像進(jìn)行分類識別。


  PCNN在圖像與信號處理方面具有廣闊的應(yīng)用前景。它的模型是一個極其復(fù)雜的非線性系統(tǒng),其理論研究仍在發(fā)展階段。因此,關(guān)于PCNN模型及其參數(shù)對信息處理的作用與影響等方面的課題目前仍是一個研究熱點(diǎn)。本文在對PCNN模型改進(jìn)的基礎(chǔ)上,利用簡化PCNN模型對輸入原始圖像進(jìn)行處理,形成賦時矩陣,然后利用物理學(xué)重心概念定義了賦時矩陣圖像直方圖矢量不變特征,并將這一特征運(yùn)用在圖像目標(biāo)識別中。實(shí)驗(yàn)結(jié)果表明:PCNN賦時矩陣直方圖矢量重心特征具有良好的抗幾何畸變性提取參數(shù)少,提取方法簡單,易于實(shí)現(xiàn)、識別正確率高。
參考文獻(xiàn)
1 Zhu Y,Silva L C.Using moment invariants and HMM in facial expression recognition[C].In:Proceedings of the 4th IEEE south west symposium on image analysis and interpretation,2000
2 Cheng Y Q,Zhuang Y M,Yang J Y.Optimal discriminated analysis using the rank decomposition[J].Pattern Recognition,1992;25(1):101~111
3 楊小岡,付光遠(yuǎn).基于圖像NMI特征的目標(biāo)識別新方法[J].計算機(jī)工程,2002;28(6):149~151
4 Eckhorn R,Reitboeck H J,Arndtetal M.Feature linking via synchronization among distributed assemblies:simulation of results from cat cortex[J].Neural Computation,1990;2(3):293~307
5 Allen F T,Kinser J M.A neural bridge from syntactic to statistical pattern recongnition[J].Neural Networks,1999;(12):519~526
6 Srinivasan R,Kinser J M.A Foveating-fuzzy scoring target recognition system[J].Pattern Recognition,1998;31(8):1149~1158
7 Lindsey C S,Lindblad T.Unsupervised learning with ART In:CNAPS AIHENP′96,Lausanne,Switzerland,1996
8 馬義德,吳承虎.基于PCNN脈沖耦合神經(jīng)網(wǎng)絡(luò)的有噪圖像特征提取.第十二屆中國神經(jīng)網(wǎng)絡(luò)學(xué)術(shù)會議論文集,北京:人民郵電出版社,2002:661~668
9 Yide M,Rolan D.Image segmentation of embryonic plant cell using pulse-coupled neural networks[J].Chinese Science Bulletin,2002;47(2):167~172
10 東南大學(xué)等7所工科院校.物理學(xué)[M].北京:高等教育出版社,1997

本站內(nèi)容除特別聲明的原創(chuàng)文章之外,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,并不代表本網(wǎng)站贊同其觀點(diǎn)。轉(zhuǎn)載的所有的文章、圖片、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無法一一聯(lián)系確認(rèn)版權(quán)者。如涉及作品內(nèi)容、版權(quán)和其它問題,請及時通過電子郵件或電話通知我們,以便迅速采取適當(dāng)措施,避免給雙方造成不必要的經(jīng)濟(jì)損失。聯(lián)系電話:010-82306118;郵箱:aet@chinaaet.com。