文獻標(biāo)識碼: A
文章編號: 0258-7998(2014)06-0130-03
圖像匹配技術(shù)是機器視覺和模式識別領(lǐng)域的一個重要分支,其應(yīng)用領(lǐng)域廣泛,如醫(yī)學(xué)、目標(biāo)識別跟蹤、圖像拼接等。目前,圖像配準(zhǔn)的方法大致分為兩類:基于特征的圖像配準(zhǔn)方法和基于灰度的圖像配準(zhǔn)方法。其中,基于特征的匹配方法由于對不同特性的圖像特征容易提取,且提取的特征點不易受到光照、旋轉(zhuǎn)變化的影響,具有較強的穩(wěn)定性和魯棒性,因而得到廣泛應(yīng)用。
1999年,LOWE D在總結(jié)現(xiàn)有特征算法的基礎(chǔ)上提出了尺度不變特征變換SIFT(Scale Invariant Feature Transform)算法[1],并于2004年總結(jié)完善[2]。該算法提取的穩(wěn)定特征點對旋轉(zhuǎn)、亮度變化、尺度變化保持不變性,對視角變換、仿射變換也有一定程度的穩(wěn)定性,因此在圖像配準(zhǔn)中得到了應(yīng)用,如參考文獻[3-4]將SIFT用于圖像配準(zhǔn)領(lǐng)域,除此以外也衍生了一系列改進算法,如利用主成分分析的PCA-SIFT[5]。但是SIFT本身始終存在抗仿射性弱以及計算效率低的缺點。針對以上缺點,BAY H等人于2008年提出了一種加速的魯棒性特征SURF(Speeded Up Robust Feature)算法,該算法是對SIFT的一種改進方法,其性能在各方面接近或超越了SIFT算法,在保持性能的同時,計算速度是SIFT的3倍,參考文獻[6]對此進行了比較詳細的闡述。參考文獻[7]提出了一種基于SURF和CamShift的物體跟蹤方法,利用SURF算法找到跟蹤窗口與初始窗口的色彩相似度,最終實現(xiàn)對物體的跟蹤。
盡管上述算法在特征描述和特征匹配方面取得了較好的效果,但是,這些算法并沒有在仿射變換上得到更好的改進。針對這個問題,Random ferns[8]算法通過對以特征點為中心的子塊進行仿射變換,利用像素比對信息構(gòu)造快速分類器,在加快匹配速度的同時提高了對視角變化的魯棒性。2009年,Jean-Michel Morel等人提出了ASIFT算法[9],該算法具有完全仿射不變性,能夠解決SIFT和SURF在仿射性方面的缺陷,但ASIFT算法計算量復(fù)雜,難以在實時系統(tǒng)中使用。
本文通過對以上算法的深入研究和總結(jié),提出了一種基于仿射變換的SURF描述符。該算法利用透視投影模型來模擬成像過程,然后將仿射變換后的圖像利用SURF算法進行匹配。通過3組不同類型圖像的實驗證明,本文算法比SIFT、SURF、MSER(Maximally stable extremal regions)[10] 算法要好。
1 SURF描述符
SURF描述符的建立主要包括特征點檢測與特征點描述兩個主要步驟。
1.1 特征點檢測
假如給定圖像I中的一個點x(x,y),則在x處,基于尺度空間Hessian矩陣H(x,y)定義為:
在求得Fast-Hessian矩陣行列式的響應(yīng)圖像后,對空間3×3×3鄰域內(nèi)所有點進行非最大值抑制,將最值作為候選的特征點,然后采用線性插值法得到特征點的準(zhǔn)確位置。
1.2 SURF特征點描述
為了保證得到的特征矢量具有旋轉(zhuǎn)不變性,需要為每一個特征點分配一個主方向。統(tǒng)計以特征點為中心,以6s(s為特征點尺度)為半徑圓形區(qū)域內(nèi),利用Haar小波濾波器在x,y方向進行響應(yīng),并使用σ=2s的高斯加權(quán)函數(shù)對Haar小波進行高斯加權(quán),離特征點越近響應(yīng)貢獻越大。然后,在60°的扇形區(qū)域內(nèi)求出x和y方向上的系數(shù)之和,并構(gòu)建一個新的向量,接著遍歷整個圓形區(qū)域,選擇最長向量方向為主方向。
選定方向后,以特征點為中心,構(gòu)建一個20σ×20σ的正方形窗,并沿主方向?qū)⒎叫未胺殖?×4個子塊,計算每個子塊的dx、dy,并用高斯函數(shù)進行加權(quán),得到每個子塊的矢量V子塊:
最后再對特征矢量進行歸一化處理。
2 基于仿射變換的SURF描述符
本文為了解決SURF仿射性能上的不足,在其基礎(chǔ)上模擬了經(jīng)度角和緯度角兩個參數(shù)。
2.1 仿射模擬
攝像機投影模型可以用描述為:
式中,u0表示平面數(shù)字圖像; T和R表示由相機引起的平移和旋轉(zhuǎn)變換;A表示仿射投影;G表示高斯視覺模型;S表示網(wǎng)格采樣。u為最終獲取的平面圖像。
為了簡化該模型,結(jié)合相機的運動方式與仿射變換形式,可以得到如下定理。
定理: 對于任意的仿射矩陣A可以分解為:
2.2 Affine-SURF描述符
Affine-SURF描述符的建立過程如下:
(1) 仿射采樣獲取參數(shù)φ和θ
(3) 對輸出的仿射圖像進行特征點檢測
①首先計算仿射圖像的積分圖像。積分圖像I在X=(x,y)處的定義為:
②然后利用式(2),獲得Fast-Hessian矩陣行列式,并得到響應(yīng)圖像。
③接著采用最大值抑制搜索技術(shù),在位置和尺度上對響應(yīng)圖像進行特征點搜索。
④對得到的特征點分配方向。
(4) 構(gòu)造Affine-SURF描述符
通過計算圖像的Haar小波響應(yīng),然后統(tǒng)計∑dx,∑d|x|,∑dy,∑d|y|來形成特征矢量。
經(jīng)過以上步驟就得到了具有較強仿射性能的Affine-SURF描述符。
3 基于仿射變換的SURF圖像配準(zhǔn)
得到Affine-SURF描述符后,用其進行特征匹配。本文中,首先采用比值提純法進行特征點粗匹配,接著采用魯棒性較強、可靠性好的RANSAC算法[11]進一步提純,得到最終的匹配對。
4 實驗與結(jié)果分析
本文在VS2010平臺上驗證該算法的性能。實驗的評價指標(biāo)為圖像在不同仿射情況下獲取的正確匹配對數(shù)目。
第一組實驗主要分析弱視角變化對算法的影響。以圖1為例,圖像Box由于相機的視角變化,存在著旋轉(zhuǎn)、弱透視形變等現(xiàn)象,圖1(c)~圖1(f)分別為SIFT、MSER、SURF和Affine-SURF算法的匹配結(jié)果,它們的匹配結(jié)果如表1所示。通過對比正確匹配對的數(shù)目可以看出,Affine-SURF有效地克服了視角變化對特征提取與描述的影響。
第二組實驗主要用來評價不同算法在尺度變化方面的魯棒性。以圖2為例,圖像Book由于拍攝高度不同,導(dǎo)致出現(xiàn)尺度變化。從圖2(c)~圖2(f)以及表1可以看出,Affine-SURF算法有較好的匹配效果,而且比其他3種算法能夠獲取更多特征點。這說明Affine-SURF能夠在尺度變化明顯的情況下獲得更多正確的匹配點。
第三組實驗主要用來驗證算法在仿射形變較大情況下的性能。以圖3為例,圖像People由于旋轉(zhuǎn)、視角變化過大,導(dǎo)致仿射形變明顯。圖3(c)~圖3(f)分別為SIFT、MSER、SURF和Affine-SURF算法的匹配結(jié)果,結(jié)合表1可以看出,采用本文提出的Affine-SURF算法找到的正確匹配特征點最多,證明了該算法對大視角變化的仿射圖像匹配魯棒性最好。
SIFT、SURF圖像配準(zhǔn)算法已經(jīng)被驗證對于尺度變化、旋轉(zhuǎn)、亮度變化具有較好的不變性,但是它們不具有很好的仿射性。因此,本文提出一種基于仿射變換的SURF圖像配準(zhǔn)算法。通過3組不同圖像類型的實驗結(jié)果表明,采用本文算法比SIFT、SURF、MSER算法能夠得到更多的正確匹配點,更好地提高算法的仿射魯棒性。
參考文獻
[1] LOWE D. Object recognition from local scale-invariant features[C]. In: Proceedings of the 7th IEEE International Conference on Computer Vision, Corfu,US: IEEE,1999:1150-1157.
[2] LOWE D G. Distinctive image features from scale-invariant keypoints[J]. International Journal of Computer Vision,2004,60(2):91-110.
[3] Zhao Wanglei, NGO C W. Flip-invariant SIFT for copy and object detection[J]. Image Processing, IEEE,2013,22(3):980-991.
[4] 張瑞年.聯(lián)合時空SIFT特征的同源視頻檢測[J].電子技術(shù)應(yīng)用,2012,38(3):130-133.
[5] JUAN L,GWUN O. A comparison of SIFT, PCA-SIFT and SURF[J]. International Journal of Image Processing (IJIP),2009,3(4):143-152.
[6] BAY H,ESS A,TUYTELAARS T,et al. Speeded up robust features(SURF)[J].Computer Vision and Image Understand ing(CVIU),2008,110(3):346-359.
[7] 路寧.基于SURF和CamShift的物體跟蹤方法[J].微型機與應(yīng)用,2012,31(27):40-43.
[8] OZUYSAL M, CALONDER M, LEPETIT V, et al. Fast keypoint recognition using random ferns[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,2010,32(3):448-461.
[9] MOREL J M, YU G S. ASIFT: a new framework for fully affine invariant image comparison[J]. SIAM Journal on Image Sciences,2009,2(2):438-469.
[10] MATAS J, CHUM O, URBAN M, et al. Robust widebaseline stereo from maximally stable extremal regions[J]. Image and Vision Computing,2004,22(10):761-767.
[11] FISCHLER M A,BOLLES R C. Random sample consensus:A paradigm for model fitting with applications to image analysis and automated cartography[J].Communications of the ACM,1981,24(6):381-395.