文獻(xiàn)標(biāo)識(shí)碼: A
文章編號(hào): 0258-7998(2014)06-0130-03
圖像匹配技術(shù)是機(jī)器視覺(jué)和模式識(shí)別領(lǐng)域的一個(gè)重要分支,其應(yīng)用領(lǐng)域廣泛,如醫(yī)學(xué)、目標(biāo)識(shí)別跟蹤、圖像拼接等。目前,圖像配準(zhǔn)的方法大致分為兩類:基于特征的圖像配準(zhǔn)方法和基于灰度的圖像配準(zhǔn)方法。其中,基于特征的匹配方法由于對(duì)不同特性的圖像特征容易提取,且提取的特征點(diǎn)不易受到光照、旋轉(zhuǎn)變化的影響,具有較強(qiáng)的穩(wěn)定性和魯棒性,因而得到廣泛應(yīng)用。
1999年,LOWE D在總結(jié)現(xiàn)有特征算法的基礎(chǔ)上提出了尺度不變特征變換SIFT(Scale Invariant Feature Transform)算法[1],并于2004年總結(jié)完善[2]。該算法提取的穩(wěn)定特征點(diǎn)對(duì)旋轉(zhuǎn)、亮度變化、尺度變化保持不變性,對(duì)視角變換、仿射變換也有一定程度的穩(wěn)定性,因此在圖像配準(zhǔn)中得到了應(yīng)用,如參考文獻(xiàn)[3-4]將SIFT用于圖像配準(zhǔn)領(lǐng)域,除此以外也衍生了一系列改進(jìn)算法,如利用主成分分析的PCA-SIFT[5]。但是SIFT本身始終存在抗仿射性弱以及計(jì)算效率低的缺點(diǎn)。針對(duì)以上缺點(diǎn),BAY H等人于2008年提出了一種加速的魯棒性特征SURF(Speeded Up Robust Feature)算法,該算法是對(duì)SIFT的一種改進(jìn)方法,其性能在各方面接近或超越了SIFT算法,在保持性能的同時(shí),計(jì)算速度是SIFT的3倍,參考文獻(xiàn)[6]對(duì)此進(jìn)行了比較詳細(xì)的闡述。參考文獻(xiàn)[7]提出了一種基于SURF和CamShift的物體跟蹤方法,利用SURF算法找到跟蹤窗口與初始窗口的色彩相似度,最終實(shí)現(xiàn)對(duì)物體的跟蹤。
盡管上述算法在特征描述和特征匹配方面取得了較好的效果,但是,這些算法并沒(méi)有在仿射變換上得到更好的改進(jìn)。針對(duì)這個(gè)問(wèn)題,Random ferns[8]算法通過(guò)對(duì)以特征點(diǎn)為中心的子塊進(jìn)行仿射變換,利用像素比對(duì)信息構(gòu)造快速分類器,在加快匹配速度的同時(shí)提高了對(duì)視角變化的魯棒性。2009年,Jean-Michel Morel等人提出了ASIFT算法[9],該算法具有完全仿射不變性,能夠解決SIFT和SURF在仿射性方面的缺陷,但ASIFT算法計(jì)算量復(fù)雜,難以在實(shí)時(shí)系統(tǒng)中使用。
本文通過(guò)對(duì)以上算法的深入研究和總結(jié),提出了一種基于仿射變換的SURF描述符。該算法利用透視投影模型來(lái)模擬成像過(guò)程,然后將仿射變換后的圖像利用SURF算法進(jìn)行匹配。通過(guò)3組不同類型圖像的實(shí)驗(yàn)證明,本文算法比SIFT、SURF、MSER(Maximally stable extremal regions)[10] 算法要好。
1 SURF描述符
SURF描述符的建立主要包括特征點(diǎn)檢測(cè)與特征點(diǎn)描述兩個(gè)主要步驟。
1.1 特征點(diǎn)檢測(cè)
假如給定圖像I中的一個(gè)點(diǎn)x(x,y),則在x處,基于尺度空間Hessian矩陣H(x,y)定義為:
在求得Fast-Hessian矩陣行列式的響應(yīng)圖像后,對(duì)空間3×3×3鄰域內(nèi)所有點(diǎn)進(jìn)行非最大值抑制,將最值作為候選的特征點(diǎn),然后采用線性插值法得到特征點(diǎn)的準(zhǔn)確位置。
1.2 SURF特征點(diǎn)描述
為了保證得到的特征矢量具有旋轉(zhuǎn)不變性,需要為每一個(gè)特征點(diǎn)分配一個(gè)主方向。統(tǒng)計(jì)以特征點(diǎn)為中心,以6s(s為特征點(diǎn)尺度)為半徑圓形區(qū)域內(nèi),利用Haar小波濾波器在x,y方向進(jìn)行響應(yīng),并使用σ=2s的高斯加權(quán)函數(shù)對(duì)Haar小波進(jìn)行高斯加權(quán),離特征點(diǎn)越近響應(yīng)貢獻(xiàn)越大。然后,在60°的扇形區(qū)域內(nèi)求出x和y方向上的系數(shù)之和,并構(gòu)建一個(gè)新的向量,接著遍歷整個(gè)圓形區(qū)域,選擇最長(zhǎng)向量方向?yàn)橹鞣较颉?/p>
選定方向后,以特征點(diǎn)為中心,構(gòu)建一個(gè)20σ×20σ的正方形窗,并沿主方向?qū)⒎叫未胺殖?×4個(gè)子塊,計(jì)算每個(gè)子塊的dx、dy,并用高斯函數(shù)進(jìn)行加權(quán),得到每個(gè)子塊的矢量V子塊:
最后再對(duì)特征矢量進(jìn)行歸一化處理。
2 基于仿射變換的SURF描述符
本文為了解決SURF仿射性能上的不足,在其基礎(chǔ)上模擬了經(jīng)度角和緯度角兩個(gè)參數(shù)。
2.1 仿射模擬
攝像機(jī)投影模型可以用描述為:
式中,u0表示平面數(shù)字圖像; T和R表示由相機(jī)引起的平移和旋轉(zhuǎn)變換;A表示仿射投影;G表示高斯視覺(jué)模型;S表示網(wǎng)格采樣。u為最終獲取的平面圖像。
為了簡(jiǎn)化該模型,結(jié)合相機(jī)的運(yùn)動(dòng)方式與仿射變換形式,可以得到如下定理。
定理: 對(duì)于任意的仿射矩陣A可以分解為:
2.2 Affine-SURF描述符
Affine-SURF描述符的建立過(guò)程如下:
(1) 仿射采樣獲取參數(shù)φ和θ
(3) 對(duì)輸出的仿射圖像進(jìn)行特征點(diǎn)檢測(cè)
①首先計(jì)算仿射圖像的積分圖像。積分圖像I在X=(x,y)處的定義為:
②然后利用式(2),獲得Fast-Hessian矩陣行列式,并得到響應(yīng)圖像。
③接著采用最大值抑制搜索技術(shù),在位置和尺度上對(duì)響應(yīng)圖像進(jìn)行特征點(diǎn)搜索。
④對(duì)得到的特征點(diǎn)分配方向。
(4) 構(gòu)造Affine-SURF描述符
通過(guò)計(jì)算圖像的Haar小波響應(yīng),然后統(tǒng)計(jì)∑dx,∑d|x|,∑dy,∑d|y|來(lái)形成特征矢量。
經(jīng)過(guò)以上步驟就得到了具有較強(qiáng)仿射性能的Affine-SURF描述符。
3 基于仿射變換的SURF圖像配準(zhǔn)
得到Affine-SURF描述符后,用其進(jìn)行特征匹配。本文中,首先采用比值提純法進(jìn)行特征點(diǎn)粗匹配,接著采用魯棒性較強(qiáng)、可靠性好的RANSAC算法[11]進(jìn)一步提純,得到最終的匹配對(duì)。
4 實(shí)驗(yàn)與結(jié)果分析
本文在VS2010平臺(tái)上驗(yàn)證該算法的性能。實(shí)驗(yàn)的評(píng)價(jià)指標(biāo)為圖像在不同仿射情況下獲取的正確匹配對(duì)數(shù)目。
第一組實(shí)驗(yàn)主要分析弱視角變化對(duì)算法的影響。以圖1為例,圖像Box由于相機(jī)的視角變化,存在著旋轉(zhuǎn)、弱透視形變等現(xiàn)象,圖1(c)~圖1(f)分別為SIFT、MSER、SURF和Affine-SURF算法的匹配結(jié)果,它們的匹配結(jié)果如表1所示。通過(guò)對(duì)比正確匹配對(duì)的數(shù)目可以看出,Affine-SURF有效地克服了視角變化對(duì)特征提取與描述的影響。
第二組實(shí)驗(yàn)主要用來(lái)評(píng)價(jià)不同算法在尺度變化方面的魯棒性。以圖2為例,圖像Book由于拍攝高度不同,導(dǎo)致出現(xiàn)尺度變化。從圖2(c)~圖2(f)以及表1可以看出,Affine-SURF算法有較好的匹配效果,而且比其他3種算法能夠獲取更多特征點(diǎn)。這說(shuō)明Affine-SURF能夠在尺度變化明顯的情況下獲得更多正確的匹配點(diǎn)。
第三組實(shí)驗(yàn)主要用來(lái)驗(yàn)證算法在仿射形變較大情況下的性能。以圖3為例,圖像People由于旋轉(zhuǎn)、視角變化過(guò)大,導(dǎo)致仿射形變明顯。圖3(c)~圖3(f)分別為SIFT、MSER、SURF和Affine-SURF算法的匹配結(jié)果,結(jié)合表1可以看出,采用本文提出的Affine-SURF算法找到的正確匹配特征點(diǎn)最多,證明了該算法對(duì)大視角變化的仿射圖像匹配魯棒性最好。
SIFT、SURF圖像配準(zhǔn)算法已經(jīng)被驗(yàn)證對(duì)于尺度變化、旋轉(zhuǎn)、亮度變化具有較好的不變性,但是它們不具有很好的仿射性。因此,本文提出一種基于仿射變換的SURF圖像配準(zhǔn)算法。通過(guò)3組不同圖像類型的實(shí)驗(yàn)結(jié)果表明,采用本文算法比SIFT、SURF、MSER算法能夠得到更多的正確匹配點(diǎn),更好地提高算法的仿射魯棒性。
參考文獻(xiàn)
[1] LOWE D. Object recognition from local scale-invariant features[C]. In: Proceedings of the 7th IEEE International Conference on Computer Vision, Corfu,US: IEEE,1999:1150-1157.
[2] LOWE D G. Distinctive image features from scale-invariant keypoints[J]. International Journal of Computer Vision,2004,60(2):91-110.
[3] Zhao Wanglei, NGO C W. Flip-invariant SIFT for copy and object detection[J]. Image Processing, IEEE,2013,22(3):980-991.
[4] 張瑞年.聯(lián)合時(shí)空SIFT特征的同源視頻檢測(cè)[J].電子技術(shù)應(yīng)用,2012,38(3):130-133.
[5] JUAN L,GWUN O. A comparison of SIFT, PCA-SIFT and SURF[J]. International Journal of Image Processing (IJIP),2009,3(4):143-152.
[6] BAY H,ESS A,TUYTELAARS T,et al. Speeded up robust features(SURF)[J].Computer Vision and Image Understand ing(CVIU),2008,110(3):346-359.
[7] 路寧.基于SURF和CamShift的物體跟蹤方法[J].微型機(jī)與應(yīng)用,2012,31(27):40-43.
[8] OZUYSAL M, CALONDER M, LEPETIT V, et al. Fast keypoint recognition using random ferns[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,2010,32(3):448-461.
[9] MOREL J M, YU G S. ASIFT: a new framework for fully affine invariant image comparison[J]. SIAM Journal on Image Sciences,2009,2(2):438-469.
[10] MATAS J, CHUM O, URBAN M, et al. Robust widebaseline stereo from maximally stable extremal regions[J]. Image and Vision Computing,2004,22(10):761-767.
[11] FISCHLER M A,BOLLES R C. Random sample consensus:A paradigm for model fitting with applications to image analysis and automated cartography[J].Communications of the ACM,1981,24(6):381-395.