《電子技術應用》
您所在的位置:首頁 > 通信與網(wǎng)絡 > 設計應用 > 基于非參數(shù)化特征提取的神經(jīng)網(wǎng)絡識別
基于非參數(shù)化特征提取的神經(jīng)網(wǎng)絡識別
曾 坤 桑 農(nóng)
摘要: 本文采用非參數(shù)化的特征提取技術提取樣本的特征,再用模塊化的神經(jīng)網(wǎng)絡的方法進行訓練識別,取得了較好的實驗效果。
Abstract:
Key words :

  摘  要: 本文采用非參數(shù)化的特征提取技術提取樣本的特征,再用模塊化的神經(jīng)網(wǎng)絡的方法進行訓練識別,取得了較好的實驗效果。
  關鍵詞: 特征提取  神經(jīng)網(wǎng)絡  目標識別

   傳統(tǒng)的特征提取方法建立在目標分割的基礎上,通過分割獲得目標的形狀信息,并與已知的待識別目標的形狀特征進行比較,實現(xiàn)目標分類。目標的形狀特征通常由一組參數(shù)來描述,如不變矩、Fourier描繪子、各線特征的起點和終點、各點特征(角點、形殊點)的位置等。故傳統(tǒng)的特征提取方法可視作參數(shù)化方法。但由于目標分割問題自身的內(nèi)在復雜性,目前還不存在通用的、理想的目標分割方法。近年來,人們的注意力較多地集中于所謂的無分割(Segmentation Free)目標識別,即利用目標的灰度信息提取某些統(tǒng)計特征(如全局的或局部的灰度均值、灰度標準差等),構成目標的特征,并將其作為神經(jīng)網(wǎng)絡的輸入,對神經(jīng)網(wǎng)絡進行訓練。訓練完成后的神經(jīng)網(wǎng)絡即可用于目標識別,這是一類非參數(shù)化的特征提取技術。具體實現(xiàn)時,可供采用的特征提取方法很多,簡單的如進行方向投影或提取方向邊緣特征等,復雜的如采用各種局部或全局變換等。本文重點研究了一種非參數(shù)化的特征提取方法——感興趣算子圖像特征提取方法。
1  感興趣算子特征提取方法
  感興趣算子(Interest Operator)提取的是圖像在其水平、垂直和二個對角線方向上的灰度方差。圖1為感興趣算子特征提取示意圖。

 


  例如對一幅大小為50×60象素的圖像采用上面的方法進行特征提取,則選取的圖像子塊像素大小為5×5。因此可以將原圖像劃分成無重疊的120個子塊,然后針對每個圖像子塊提取圖像的感興趣特征向量。
2  模塊化的神經(jīng)網(wǎng)絡
  模塊化神經(jīng)網(wǎng)絡由若干獨立訓練的子網(wǎng)絡組成,每一子網(wǎng)絡分別針對訓練樣本集的某一子集進行分類識別,通過組合各子網(wǎng)絡的分類決策確定最終的識別結果。訓練樣本集各子集的劃分采用了數(shù)據(jù)分組技術,即將樣本根據(jù)一定的相似性準則劃分為多組。如此分組后,各網(wǎng)絡僅需解決一個更為簡單的分類問題,因此可提高分類識別概率。
2.1 基于特征分解的模塊化神經(jīng)網(wǎng)絡
  基于特征分解的模塊化神經(jīng)網(wǎng)絡按照某種規(guī)則將圖像特征分成幾個不同的特征組。每個特征組都用一個獨立的神經(jīng)網(wǎng)絡來訓練識別,然后由一個融合網(wǎng)絡將各獨立神經(jīng)網(wǎng)絡的輸出結果綜合得到最后的識別結果。這種算法的優(yōu)點是:通過分組,每個用于識別的神經(jīng)網(wǎng)絡只需要處理某一部分特征而不是全部,從而減少了單個網(wǎng)絡的自由參數(shù),降低了問題的復雜度。
2.2 基于圖像子塊的特征分組神經(jīng)網(wǎng)絡
  基于圖像子塊的特征分組神經(jīng)網(wǎng)絡算法的結構框圖如圖2所示。

  該算法的實現(xiàn)包括以下幾個步驟:
  (1)將原始圖像按照某種規(guī)則分成若干圖像子塊,各個圖像子塊間可以有交叉也可以無交叉。圖3和圖4分別為有交叉和無交叉圖像分塊的示意圖。

  (2)對每一個圖像子塊進行特征提取,得到其相應的圖像特征。本文選用了感興趣算子的特征提取方法。
  (3)對步驟(2)經(jīng)過特征提取所得到的圖像特征向量進行特征選擇,以去除特征向量間的冗余特征和選出具有更強分類識別能力的特征,從而降低特征維數(shù),減小識別算法中神經(jīng)網(wǎng)絡的網(wǎng)絡規(guī)模。
  (4)對每幅子圖分別用一個單獨的BP網(wǎng)絡對其進行訓練或識別。
  (5)將各個獨立BP網(wǎng)絡的輸出結果送到一個融合網(wǎng)絡中進行融合從而得到最終判識結果。
  基于圖像子塊的特征分組神經(jīng)網(wǎng)絡除了可以降低問題的復雜性外,還具有一定的抗局部遮擋能力。由于一些人為的或非人為的因素,目標圖像可能會受到局部遮擋的影響。由于局部遮擋本身的復雜性和其對目標遮擋部位的不可預測性,使得抗遮擋成為一個相對困難的課題?;趫D像子塊的特征分組策略具有一定的抗局部遮擋能力。
  設原圖像在長度和寬度方向分別被等分為X和Y份,于是可以得到X×Y個子塊圖像。若局部遮擋處于第(i,j)個子塊上,則只有該子塊受到影響并導致與它對應的神經(jīng)網(wǎng)絡進行錯誤判識的可能性增大。但是由于其他子塊及對應神經(jīng)網(wǎng)絡的判識并未受到遮擋影響,因此至少可以得到X×Y-1個網(wǎng)絡的正確輸出。經(jīng)過融合網(wǎng)絡,最終可以消除對第(i,j)個子塊圖像的錯誤判識的影響而得到正確的識別結果,達到抗遮擋的效果。當然,實際應用中局部遮擋可能會存在于不止一個子塊圖像中,但只要這些子塊圖像的數(shù)量占總子塊圖像數(shù)的比重相對較小,這種特征分組神經(jīng)網(wǎng)絡識別策略就可以表現(xiàn)出很好的抗局部遮擋性能。
3  實驗結果及其分析
  實驗中訓練樣本取kh-11、kh-12、lacrosses三類衛(wèi)星的三個譜段(CCD:可見光,MIDDLE:中波,LONG:長波)圖像作為試驗用的樣本。
  (1)訓練樣本:取每類不同譜段的圖像001、005、009、L、057共15幅圖像。如果三個譜段的圖像一起訓練,則訓練樣本個數(shù)為15×9=135;如果只有單譜段圖像參加訓練,則訓練樣本個數(shù)為:15×3=45。
  (2)識別樣本:取每類不同譜段的圖像003、007、0011、L、059以及060、061、L、072總共30幅圖像。如果三個譜段的圖像一起識別,則識別樣本個數(shù)為30×9=270;如果只有單譜段圖像參加識別,則識別樣本個數(shù)為30×3=90。
  表1給出了不同分辨率情況下的正確識別率。其中,All組實驗表示對每類三個譜段的衛(wèi)星圖像進行實驗,CCD、MIDDLE和LONG組實驗分別表示對可見光譜段、中波紅外圖像和長波紅外圖像進行實驗。CCD為可見光圖像,MIDDLE為中波圖像,LONG為長波圖像。

 


  研究中還用最小距離分類器對提取的不同目標的參數(shù)化特征進行了實驗,以便觀察其與神經(jīng)網(wǎng)絡方法的性能差異。在實驗中,三類目標的圖片各為3×72=216幅,用奇數(shù)圖作為訓練樣本,對偶數(shù)圖進行識別。表2顯示了在三組不同分辨率下選擇不同特征集得到的識別結果。


  從實驗中可以發(fā)現(xiàn),常規(guī)分類方法性能不穩(wěn)定,而且其識別率與神經(jīng)網(wǎng)絡方法相比要低很多。
參考文獻
1   Choi S M.A segmentation-free recognition of two touching
     numerals using neural network.In:Proceedings of the Fifth
     International Conference on Document Analysis and
     Recognition,1999
2   Ozdil M A,Vural F T Y.Optical character recognition
     without segmentation.In:Proceedings of the Fourth Inter-
     national Conference on Document Analysis and Recogni-
     tion,1997
3   Rocha J,Pavlidis T.Character recognition without segmen-
     tation.IEEE Transactions on,Pattern Analysis and
     Machine Intelligence,1995;17:903
4   Cai C,Shi Z.A modular neural network architecture with
     approximation capability and its applications. The Second
     IEEE International Conference on Cognitive Informatics,
     2003
5   Wang L C,Der S Z,Nasrabadi N M.Automatic target
     recognition using a feature-decomposition and data-
     decomposition modular neural network.IEEE Transactions
     on Image Processing,1998;7:1113
 

此內(nèi)容為AET網(wǎng)站原創(chuàng),未經(jīng)授權禁止轉(zhuǎn)載。