《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > 其他 > 設(shè)計應(yīng)用 > 一種基于SIFT和SUSAN特征的圖像匹配方法
一種基于SIFT和SUSAN特征的圖像匹配方法
來源:微型機與應(yīng)用2011年第12期
吳毅良
(暨南大學(xué) 計算機科學(xué)系, 廣東 廣州 510632)
摘要: 針對SIFT方法在角點檢測上的不足,提出了一種基于SIFT和SUSAN混合特征匹配的自動匹配算法。算法應(yīng)用SIFT 和SUSAN 兩種具有互補特性的局部不變特征,利用SIFT方法檢測空間極值特征點,利用SUSAN方法檢測角點,結(jié)合兩種特征點位置,利用SIFT方法生成匹配特征向量,最后根據(jù)最近鄰特征點距離與次近鄰特征點距離之比確定初始匹配點對,實現(xiàn)圖像的配準(zhǔn)。實驗表明該算法有效,能夠提高圖像的自動匹配準(zhǔn)確性。
Abstract:
Key words :

摘   要: 針對SIFT方法在角點檢測上的不足,提出了一種基于SIFT和SUSAN混合特征匹配的自動匹配算法。算法應(yīng)用SIFT 和SUSAN 兩種具有互補特性的局部不變特征,利用SIFT方法檢測空間極值特征點,利用SUSAN方法檢測角點,結(jié)合兩種特征點位置,利用SIFT方法生成匹配特征向量,最后根據(jù)最近鄰特征點距離與次近鄰特征點距離之比確定初始匹配點對,實現(xiàn)圖像的配準(zhǔn)。實驗表明該算法有效,能夠提高圖像的自動匹配準(zhǔn)確性。
關(guān)鍵詞: 圖像匹配; SIFT特征; SUSAN角點

    圖像匹配是圖像處理的一個基本問題,在計算機視覺、圖像配準(zhǔn)、信息檢索等領(lǐng)域得到了廣泛的應(yīng)用,是很多基于圖像內(nèi)容應(yīng)用的基礎(chǔ)。隨著計算機技術(shù)的發(fā)展和數(shù)字圖像應(yīng)用的日益廣泛,圖像匹配技術(shù)在諸多領(lǐng)域內(nèi)發(fā)揮越來越重要的作用。長期以來, 國內(nèi)外很多學(xué)者都致力于解決圖像匹配的技術(shù)問題。
 簡單來說,圖像匹配就是找出兩幅圖像中相同或相似景物,目前圖像匹配的方法一般分為基于區(qū)域匹配和基于特征匹配兩類。
 近年來,在計算機視覺領(lǐng)域,基于局部不變量描述符的方法在目標(biāo)識別和圖像匹配方面取得了顯著發(fā)展。SIFT特征描述符克服了傳統(tǒng)圖像匹配在圖像尺度、視差變化的局限性。參考文獻[1]對10種最具代表性的特征匹配描述算子進行了實驗和性能比較,結(jié)果表明, SIFT特征描述符在對光照變化、圖像旋轉(zhuǎn)、比例縮放、幾何變形、模糊和圖像壓縮等6種情況下性能最好。
 本文在SIFT方法的基礎(chǔ)上加入SUSAN角點檢測的思想,提出一種新的更加穩(wěn)健的圖像匹配方法。
1 SIFT特征檢測
    2004年, LOWE D提出了一種新的點特征匹配算法——SIFT(Scale Invariant Feature Transform)算法,較好地解決了場景部分遮擋、旋轉(zhuǎn)縮放、視點變化引起的圖像變形等問題,并且有效應(yīng)用于目標(biāo)識別、圖像復(fù)原、圖像拼接等領(lǐng)域。
 SIFT算法首先在尺度空間進行特征點檢測,并確定關(guān)鍵點的位置和所處的尺度,然后使用關(guān)鍵點鄰域梯度的主方向作為該點的方向特征,以實現(xiàn)算子對尺度和方向的無關(guān)性。
1.1 尺度空間理論

 


 尺度空間理論是一種對圖像從多尺度考察圖像特征的理論方法,能夠發(fā)掘出很多從單一尺度無法發(fā)現(xiàn)的圖像特征。
 SIFT方法選用了高斯函數(shù),利用其標(biāo)準(zhǔn)差σ作為尺度參數(shù)與圖像進行卷積運算以產(chǎn)生多尺度的圖像。一幅二維圖像的尺度空間定義為:

1.5 特征描述子
 首先以特征點為中心取8×8的鄰域作為采樣窗口,窗口內(nèi)每個方格代表特征點尺度空間的一個像素,箭頭方向代表該像素的梯度相對于特征點方向的相對方向,箭頭長度代表梯度的模,大圓圈代表加權(quán)的范圍。然后利用直方圖統(tǒng)計的方法,在每 4×4 的小塊上計算 8 個方向的梯度方向直方圖,即可形成 4 個種子點,如圖1所示。
    每個種子點可以產(chǎn)生8個方向信息,共4×8=32個方向信息,按順序就可以組成32維的特征向量。本文采用16×16的采樣窗口,一共產(chǎn)生16個種子點,產(chǎn)生16×8=128維的特征向量,更多的種子點可以增加匹配的穩(wěn)定性。
2 SUSAN角點檢測
 1997年 SMITH S M和 BRADY J M提出了一種最小核值相似區(qū)SUSAN(Smallest Univalue Segment Assimilating Nucleus)算法,它直接對圖像灰度值進行操作,方法簡單,算法效率高,定位準(zhǔn)確,對多個區(qū)域的角點也能精確檢測,對局部噪聲不敏感,抗噪能力強。
2.1 SUSAN方法簡介
 SUSAN方法其實是利用圓形模板遍歷整個圖像,如果模板內(nèi)其他像素值與模板中心像素值相差小于一定閾值,就認為該點與中心點具有近似的灰度值,模板內(nèi)滿足這樣條件的像素組成的區(qū)域稱為核值相似區(qū)USAN(Univalue Segment Assimilating Nucleus)。利用這個區(qū)域可以將像素點的性質(zhì)分成幾類考慮,而屬于直角角點的大概就是具有1/4模板大小的USAN區(qū)的像素點,如圖2所示。

2.2  USAN區(qū)域
    USAN區(qū)域利用中心點與周圍像素的差值和預(yù)先設(shè)定的閾值進行比較得出,其相似比較函數(shù)表示為:        
2.3 角點檢測
 SUSAN方法通過設(shè)定角點閾值,利用角點響應(yīng)函數(shù)判斷角點位置,計算公式如下:
 
其中g(shù)為角點閾值,它影響檢測到的角點形狀,g越小,檢測到的角點越尖銳,一般設(shè)定為1/2模板區(qū)域大小。
 SUSAN角點檢測的最后一個階段,就是尋找初始角點響應(yīng)的局部最大值,在局部范圍內(nèi),如果中心像素的初始響應(yīng)是此區(qū)域內(nèi)的最大值,則判斷其屬于角點。
3 基于SIFT和SUSAN特征檢測
 SIFT方法能夠從尺度空間尋找出具有結(jié)構(gòu)化特性的特征點,但是可能在視覺上沒有特殊意義,而實際圖像中很多具有視覺意義的特征位置,如角點利用SIFT方法檢測會出現(xiàn)位置偏移或者漏檢的情況,如圖3所示。]

    從圖3可以看出,最右角出現(xiàn)漏檢,其他角的特征點均發(fā)生一定程度的位置偏移,這是由于高斯平滑的過程中極值點會隨著像素擴散引起的。但是圖像上的角點往往是進行圖像匹配比較理想的特征,SIFT方法并沒有很好地將角點利用起來,遺漏了某些重要的角點信息。
 本文在SIFT的基礎(chǔ)上引入SUSAN角點檢測就是為了增強其對圖像特性信息的利用率,從而應(yīng)用于圖像匹配上得到更多有意義的正確匹配點,因為SUSAN能夠有效檢測出圖像中的角點,如圖4所示。

    由圖4可以看出,SUSAN方法能夠準(zhǔn)確定位并檢測到4個角點。SUSAN角點檢測的優(yōu)點在于可以簡單快捷地檢測出圖像的明顯形狀特征,但是針對紋理圖像或者低對比度圖像,效果并不明顯。
 通過以上分析, 本文在SIFT方法的基礎(chǔ)上引入SUSAN角點檢測思想,基本能夠?qū)D像中的結(jié)構(gòu)化信息特征和形狀信息的特征檢測出來。算法的流程圖如圖5所示。

4 特征匹配
 已經(jīng)找出圖像上的特征向量,接下來的任務(wù)就是特征匹配,即對特征向量作相似性度量判斷其相似程度。本文采用兩個向量的歐氏距離作為相似性的判斷度量,歐氏距離定義如下:

 取圖像1中的某個關(guān)鍵點,并找出其與圖像2中歐式距離最近的前兩個關(guān)鍵點,在這兩個關(guān)鍵點中,如果最近的距離除以次近的距離小于某個比例閾值,則接受這一對匹配點。如果降低這個比例閾值,匹配點數(shù)目會減少,但更加穩(wěn)定。最后再設(shè)定一個匹配點數(shù)目閾值,如果匹配點數(shù)目大于閾值,就認為兩幅圖像是相似的。
5 實驗結(jié)論
 在Core 2, 2.2 GHz CPU, 2.0 GB RAM的PC機上運行Solaris 10操作系統(tǒng),采用C 語言編程實現(xiàn)了本文提出的算法,通過實驗圖片驗證本文方法的有效性(限于篇幅,下文僅給出一組實驗結(jié)果),并將本文算法與SIFT算法進行了實驗分析和比較。實驗中,最近鄰特征點距離與次近鄰特征點距離之比取0.7。
 圖6利用SIFT方法,左圖和右圖分別生成了356個和369個特征點,最終產(chǎn)生12對匹配對,其中兩個錯誤匹配對;圖7利用SUSAN方法,左圖和右圖分別生成了315個和358個特征點,最終產(chǎn)生25對匹配點,其中兩個錯誤匹配對;圖8結(jié)合兩種方法,左圖和右圖分別生成了671個和727個特征點,最終產(chǎn)生33對匹配對,其中一個錯誤匹配對。

    SUSAN方法在更少的特征點中可以找出更多匹配點對,而且錯誤匹配率沒有增加,由此可見,角點信息在特征匹配上非常有效。本文方法利用兩種特征,得到更多的特征匹配對,并且降低了錯誤匹配率。
參考文獻
[1] M IKOLAJCZYK K, SCHM ID C. A performance evaluation of local descriptors[J]. IEEE Transactions on Pattern  Analysis & Machine Intelligence, 2005,27(10):1615-1630.
[2] BROWN M, LOWE D. Invariant features from interest point groups[C].In Proceedings of the 13th British Machine Vision Conference. Cardiff: [s. n.], 2002:253-262.
[3] LOWE D. Object recognition from local scale-invariant features[C].In Proceedings of the International Conference on Computer. Corfu ,Greece:[s.n.],1999:1150-1157.
[4] SMITH S M, BRADY J M. SUSAN——a new approach to low level image processing[J]. Computer Vision,1997,23(10):45-78.
 

此內(nèi)容為AET網(wǎng)站原創(chuàng),未經(jīng)授權(quán)禁止轉(zhuǎn)載。