摘 要: 對于邊界顯著的圖像,用二值圖像代替灰度圖像進(jìn)行SIFT特征匹配,節(jié)約了運行時間。同時在SIFT算法中用128維的特征描述子進(jìn)行特征描述影響了算法的實時性,用歐氏距離進(jìn)行匹配對算法的準(zhǔn)確性有一定的影響。提出了一種改進(jìn)SIFT算法,用64維的特征描述子以及加權(quán)的歐式距離進(jìn)行匹配。實驗結(jié)果表明,所提出的改進(jìn)方法在提高準(zhǔn)確率的同時還減少了運行時間。
關(guān)鍵詞: SIFT算法;二值圖像;特征描述子;加權(quán)歐式距離
0 引言
圖像匹配是將兩幅或多幅在不同條件下拍攝的圖像進(jìn)行相互匹配。目前它在模板匹配定位[1]、導(dǎo)航、醫(yī)學(xué)影像分析和計算機視覺[2]等多個領(lǐng)域有廣泛的應(yīng)用。
目前圖像匹配的方法主要分為基于灰度的匹配方法[3]和基于特征的匹配方法[4]。前者直接利用圖像灰度進(jìn)行匹配,算法比較簡單,但對噪聲等干擾比較敏感,匹配效率普遍較低。后者對形變、旋轉(zhuǎn)及平移的適應(yīng)性較好。SIFT(Scale Invariant Feature Transform)算法是一種相對穩(wěn)定的局部特征匹配算法[5]。
SIFT算法雖然可以對旋轉(zhuǎn)和平移在圖像匹配過程中的干擾進(jìn)行處理,但它也存在算法效率低、匹配精度差等問題。本文提出了一種對于邊界顯著圖像的改進(jìn)的新方法,利用二值圖像代替灰度圖像,簡化了圖像信息,利用64維特征描述子并且用加權(quán)的歐式距離進(jìn)行匹配。試驗證明該方法不僅提高了算法的精度和準(zhǔn)確率,而且在邊界顯著的圖像的匹配中也有較好的適用性。
1 SIFT算法
SIFT算法主要包括尺度不變空間的特征點檢測、特征點信息描述、特征向量的匹配。
1.1 尺度不變空間的特征點檢測
在對尺度不變空間進(jìn)行特征點檢測時,首先要提取出尺度不變空間的極值點,然后精確定位特征點,最后為每個特征點分配方向。
尺度不變空間的極值點檢測。通過高斯核產(chǎn)生多尺度空間的核[6]。一幅二維圖像I(x,y)與尺度可變高斯函數(shù)G(x,y,)做卷積,可得到該圖像的尺度不變空間L(x,y,)如式(1)所示。
其中,(x,y)表示圖像中像素點的坐標(biāo),*是卷積,σ是尺度空間因子。通過對高斯尺度空間進(jìn)行采樣來建立高斯金字塔;再對相鄰兩層的高斯金字塔相減,生成高斯差分尺度空間(DOG scale-space)金字塔,即:
如果某點比DOG尺度空間中本層的8個點以及上下兩層的18個點都大或者都小,則把該點作為圖像在該尺度下的一個候選特征點,如圖1所示。
在得到候選特征點之后,要檢測每個候選特征點的穩(wěn)定性,把檢測通過的特征點作為SIFT特征點。首先要對特征點中的邊緣響應(yīng)點和對比度較低的點進(jìn)行去除,然后構(gòu)造一個三元二次函數(shù),利用此函數(shù)來更加精確特征點的位置和尺度。
為了使SIFT算法具備旋轉(zhuǎn)不變性,需要為每個特征點分配方向。像素點(x,y)處的梯度值與方向分別為:
其中,L中的尺度是該特征點所在的尺度。
在實際計算中,利用取值在0~360°范圍內(nèi)的梯度直方圖來對特征點的鄰域像素的梯度方向進(jìn)行統(tǒng)計,其中每10°代表著一個方向,共分為36個方向,并把直方圖中的峰值作為該特征點的方向。至此,完成尺度不變空間的特征點檢測,每一個特征點都包含了方向、尺度和位置信息。
1.2 特征點信息描述
為了確保算法具有旋轉(zhuǎn)不變性,要將坐標(biāo)軸旋轉(zhuǎn)到特征點的方向。然后在特征點的周圍取16×16的像素窗口,在4×4的小塊圖像上計算8個方向的梯度方向直方圖,對每個梯度方向的累加值進(jìn)行描繪,構(gòu)成一個種子點。用16個種子點來描述每個特征點,就此形成了128維的SIFT特征描述子。
1.3 特征向量的匹配
SIFT特征向量生成之后,利用歐氏距離,即d(u,v)=進(jìn)行匹配。按一定順序選取主圖像中的所有特征點,然后利用歐式距離計算該特征點與待匹配圖像中所有特征點的距離,提取出最近距離和次近距離,如果最近的距離比次近的距離小于某個設(shè)定的閾值,則認(rèn)為這兩個特征點是匹配點對。
2 本文提出的改進(jìn)算法
2.1 圖像二值化
在原始SIFT算法中,利用原圖像的灰度圖像來構(gòu)造DOG尺度空間。而對于邊界顯著的圖像,它的邊界和輪廓信息比較重要,背景信息相對可以忽略,如果使用灰度圖像來進(jìn)行SIFT特征匹配,會使算法在背景信息上浪費時間。
本文利用二值圖像代替灰度圖像,由于二值圖像的灰度值均為1或0,這對于極值點的選取和特征向量的描述與匹配都有所簡化。
2.2 改進(jìn)后算法的特征描述子
由于SIFT特征向量高達(dá)128維,這為后來的匹配工作帶來了很大的計算量[7],但是多數(shù)降維方法由于沒有考慮到SIFT的特點進(jìn)行降維,從而導(dǎo)致它的匹配效率下降。本文利用的降維方法從SIFT的自身特點出發(fā)進(jìn)行降維,在匹配效率不變的情況下成功地節(jié)約了匹配時間。
如圖2所示,對于一個種子的8個方向的梯度方向直方圖的累加值a0,a1,…,a7,用4個方向b0,b1,b2,b3來表示,如圖3所示。其中
b0=|a0-a4|(6)
b1=|a1-a5|(7)
b2=|a2-a6|(8)
b3=|a3-a7|(9)
這樣描述每個種子的累加值的數(shù)量由8個降到了4個,但是這4個累加值仍然包含了8個累加值中所有的信息,所以即使特征描述子由128維降到64維,也不影響對特征點信息的描述,對匹配效率也不產(chǎn)生影響。在特征匹配時,由于特征向量的維數(shù)減少了一半,因此此方法為計算距離節(jié)約了時間,提高了算法的實時性。
2.3 用加權(quán)的歐式距離進(jìn)行匹配
利用歐氏距離進(jìn)行相似性度量的方法能夠解決匹配的問題,但是不難發(fā)現(xiàn)生成的64維的描述子之間是不等價的,離特征點越近的種子所生成的描述子起的作用越大。因此本文的改進(jìn)方法為用加權(quán)的歐式距離代替歐式距離進(jìn)行圖像匹配,從而提高匹配效率。
加權(quán)的歐式距離,即d(u,v)=,它考慮了不同維之間不同的重要性,本文選擇離特征點較近的4個種子生成的16維的描述子,使它們在匹配時的權(quán)重取較大值,其余的12個種子生成的48維的描述子權(quán)重取較小值。經(jīng)過大量的實驗發(fā)現(xiàn),隨著的逐漸增大,相匹配的特征點的數(shù)量會逐漸減少,同時考慮到匹配的特征點數(shù)量和算法精度的因素,本文認(rèn)為當(dāng)閾值∈[1.01,1.50]時匹配效果較好。
3 實驗與分析
本文設(shè)計了一系列的實驗來檢測本文改進(jìn)算法的性能。為了更好地對實驗結(jié)果進(jìn)行比較,所有實驗都是利用MATLAB7.10編程,運行在配置為Intel(R)core(TM)2 Duo CPU P7350@2.00 GHz、操作系統(tǒng)為Microsoft Windows 7的微機平臺上。選擇邊界顯著的圖像作為匹配對象。為了使本文改進(jìn)算法的性能得到更加全面的體現(xiàn),實驗結(jié)果從特征點個數(shù)、匹配點對、特征點匹配時間、算法運行總時間以及正確匹配率5個方面對改進(jìn)算法與原算法進(jìn)行比較,如圖4、圖5和表1所示,其中改進(jìn)的SIFT算法取=1.15。
通過分析實驗數(shù)據(jù)和匹配結(jié)果可以發(fā)現(xiàn):改進(jìn)的算法由于用二值圖像進(jìn)行匹配,簡化了圖像信息;同時用64維的特征描述子,大大節(jié)約了匹配的時間;用加權(quán)的歐式距離提高了算法的匹配率。由此可見本文的改進(jìn)算法運算速度更快、準(zhǔn)確率更高。
4 結(jié)論
通過對SIFT算法的深入研究,本文就SIFT算法自身的不足進(jìn)行了改進(jìn),利用二值圖像進(jìn)行特征匹配,同時在不影響匹配效率的前提下對SIFT算法成功地進(jìn)行了降維,最后用加權(quán)的歐式距離作為相似性度量進(jìn)行匹配。經(jīng)過大量的實驗不難發(fā)現(xiàn),對于邊界顯著的圖像,本文改進(jìn)的算法在匹配時間和匹配效率上都要優(yōu)于原始的SIFT算法。但本文改進(jìn)算法也有不足之處,匹配的特征點對相對較少,因此對該算法處理的圖像類型有一定的限制,所以如何改進(jìn)此問題是下一步工作的重點。
參考文獻(xiàn)
[1] 吳立德.計算機視覺[M].上海:復(fù)旦大學(xué)出版社,1993.
[2] 吳毅良.一種基于SIFT和SUSAN特征的圖像匹配方法[J].微型機與應(yīng)用,2011,30(12):33-35.
[3] MORTANI M,SATIONH F. Image template matching based on ratio of mean and central pixel in local area[J].Proceedings of the SPIE The International Society for Optical Engineering, 2007,67(94):1-6.
[4] ZITOVA B, FLUSSER J. Image registration methods: a survey[J]. Image and Vision Computing, 2003,21(11):977-100.
[5] DAVID G L. Distinctive image features from scale-invariant keypoints[J]. International Journal of Computer Vision(S0920-5691),2004,60(2):20.
[6] LINDEBERG T. Scale-space theory: a basic tool for analyzing structures at different scales[J]. Journal of Applied Statistics, 1994,21(2):225-270.
[7] Zhu Hongbo, Xu Xuejun, Wang Jing, et al. A rapid automatic image registration method based on improved SIFT[J]. Procedia Environmental Sciences, 2011,11(A):85-91.