《電子技術(shù)應(yīng)用》
您所在的位置:首頁(yè) > 嵌入式技術(shù) > 設(shè)計(jì)應(yīng)用 > 一種基于仿射變換的SURF圖像配準(zhǔn)算法
一種基于仿射變換的SURF圖像配準(zhǔn)算法
2014年電子技術(shù)應(yīng)用第6期
劉 欣1,李校林1,2,謝 燦 2,何 鵬1
1. 重慶郵電大學(xué) 通信與信息工程學(xué)院, 重慶400065; 2. 重慶信科設(shè)計(jì)有限公司,重慶400
摘要: 傳統(tǒng)的SURF算法對(duì)仿射變化較大的圖像配準(zhǔn)效果差。為此,提出了一種仿射-加速魯棒性特征(Affine-SURF)的圖像配準(zhǔn)算法,通過增加經(jīng)度角和緯度角不變特征引入仿射形變參數(shù)來模擬圖像在不同角度的變形。實(shí)驗(yàn)結(jié)果表明,與SIFT、SURF、MSER等配準(zhǔn)算法相比,該算法能夠獲得更多特征匹配對(duì),提高了算法對(duì)仿射變化的魯棒性。
中圖分類號(hào): TP391.4
文獻(xiàn)標(biāo)識(shí)碼: A
文章編號(hào): 0258-7998(2014)06-0130-03
Affine-SURF algorithm for image recognition
Liu Xin1, Li Xiaolin1,2, Xie Can2, He Peng1
1.School of Communication and Information Engineering, Chongqing University of Posts and Telecommunications,Chongqing 400065,China;2. Chongqing Information Technology Designing CO., LTD., Chongqing 400065,China
Abstract: Previous SURF algorithm was not ideal for affine image matching, when the viewpoint had been changed with large affine angle. In order to solve the problem, an affine-SURF (Affine-Speeded Up Robust Feature) algorithm for image recognition is proposed. The proposed algorithm increases two invariant feature parameters of longitude and latitude. The method uses affine distortion parameters to simulate to deformation of an image at different angles. Experimental results demonstrate that the proposed method outperforms significantly the SIFT, SURF and MSER, especially when images suffer severe affine distortion.
Key words : SURF; affine; image recognition; affine-SURF

        圖像匹配技術(shù)是機(jī)器視覺和模式識(shí)別領(lǐng)域的一個(gè)重要分支,其應(yīng)用領(lǐng)域廣泛,如醫(yī)學(xué)、目標(biāo)識(shí)別跟蹤、圖像拼接等。目前,圖像配準(zhǔn)的方法大致分為兩類:基于特征的圖像配準(zhǔn)方法和基于灰度的圖像配準(zhǔn)方法。其中,基于特征的匹配方法由于對(duì)不同特性的圖像特征容易提取,且提取的特征點(diǎn)不易受到光照、旋轉(zhuǎn)變化的影響,具有較強(qiáng)的穩(wěn)定性和魯棒性,因而得到廣泛應(yīng)用。

        1999年,LOWE D在總結(jié)現(xiàn)有特征算法的基礎(chǔ)上提出了尺度不變特征變換SIFT(Scale Invariant Feature Transform)算法[1],并于2004年總結(jié)完善[2]。該算法提取的穩(wěn)定特征點(diǎn)對(duì)旋轉(zhuǎn)、亮度變化、尺度變化保持不變性,對(duì)視角變換、仿射變換也有一定程度的穩(wěn)定性,因此在圖像配準(zhǔn)中得到了應(yīng)用,如參考文獻(xiàn)[3-4]將SIFT用于圖像配準(zhǔn)領(lǐng)域,除此以外也衍生了一系列改進(jìn)算法,如利用主成分分析的PCA-SIFT[5]。但是SIFT本身始終存在抗仿射性弱以及計(jì)算效率低的缺點(diǎn)。針對(duì)以上缺點(diǎn),BAY H等人于2008年提出了一種加速的魯棒性特征SURF(Speeded Up Robust Feature)算法,該算法是對(duì)SIFT的一種改進(jìn)方法,其性能在各方面接近或超越了SIFT算法,在保持性能的同時(shí),計(jì)算速度是SIFT的3倍,參考文獻(xiàn)[6]對(duì)此進(jìn)行了比較詳細(xì)的闡述。參考文獻(xiàn)[7]提出了一種基于SURF和CamShift的物體跟蹤方法,利用SURF算法找到跟蹤窗口與初始窗口的色彩相似度,最終實(shí)現(xiàn)對(duì)物體的跟蹤。

        盡管上述算法在特征描述和特征匹配方面取得了較好的效果,但是,這些算法并沒有在仿射變換上得到更好的改進(jìn)。針對(duì)這個(gè)問題,Random ferns[8]算法通過對(duì)以特征點(diǎn)為中心的子塊進(jìn)行仿射變換,利用像素比對(duì)信息構(gòu)造快速分類器,在加快匹配速度的同時(shí)提高了對(duì)視角變化的魯棒性。2009年,Jean-Michel Morel等人提出了ASIFT算法[9],該算法具有完全仿射不變性,能夠解決SIFT和SURF在仿射性方面的缺陷,但ASIFT算法計(jì)算量復(fù)雜,難以在實(shí)時(shí)系統(tǒng)中使用。

        本文通過對(duì)以上算法的深入研究和總結(jié),提出了一種基于仿射變換的SURF描述符。該算法利用透視投影模型來模擬成像過程,然后將仿射變換后的圖像利用SURF算法進(jìn)行匹配。通過3組不同類型圖像的實(shí)驗(yàn)證明,本文算法比SIFT、SURF、MSER(Maximally stable extremal regions)[10] 算法要好。

1 SURF描述符

        SURF描述符的建立主要包括特征點(diǎn)檢測(cè)與特征點(diǎn)描述兩個(gè)主要步驟。

1.1 特征點(diǎn)檢測(cè)

        假如給定圖像I中的一個(gè)點(diǎn)x(x,y),則在x處,基于尺度空間Hessian矩陣H(x,y)定義為:

        在求得Fast-Hessian矩陣行列式的響應(yīng)圖像后,對(duì)空間3×3×3鄰域內(nèi)所有點(diǎn)進(jìn)行非最大值抑制,將最值作為候選的特征點(diǎn),然后采用線性插值法得到特征點(diǎn)的準(zhǔn)確位置。

1.2 SURF特征點(diǎn)描述

        為了保證得到的特征矢量具有旋轉(zhuǎn)不變性,需要為每一個(gè)特征點(diǎn)分配一個(gè)主方向。統(tǒng)計(jì)以特征點(diǎn)為中心,以6s(s為特征點(diǎn)尺度)為半徑圓形區(qū)域內(nèi),利用Haar小波濾波器在x,y方向進(jìn)行響應(yīng),并使用σ=2s的高斯加權(quán)函數(shù)對(duì)Haar小波進(jìn)行高斯加權(quán),離特征點(diǎn)越近響應(yīng)貢獻(xiàn)越大。然后,在60°的扇形區(qū)域內(nèi)求出x和y方向上的系數(shù)之和,并構(gòu)建一個(gè)新的向量,接著遍歷整個(gè)圓形區(qū)域,選擇最長(zhǎng)向量方向?yàn)橹鞣较颉?/p>

        選定方向后,以特征點(diǎn)為中心,構(gòu)建一個(gè)20σ×20σ的正方形窗,并沿主方向?qū)⒎叫未胺殖?×4個(gè)子塊,計(jì)算每個(gè)子塊的dx、dy,并用高斯函數(shù)進(jìn)行加權(quán),得到每個(gè)子塊的矢量V子塊

        

        最后再對(duì)特征矢量進(jìn)行歸一化處理。

2 基于仿射變換的SURF描述符

         本文為了解決SURF仿射性能上的不足,在其基礎(chǔ)上模擬了經(jīng)度角和緯度角兩個(gè)參數(shù)。

2.1 仿射模擬

        攝像機(jī)投影模型可以用描述為:

        

式中,u0表示平面數(shù)字圖像; T和R表示由相機(jī)引起的平移和旋轉(zhuǎn)變換;A表示仿射投影;G表示高斯視覺模型;S表示網(wǎng)格采樣。u為最終獲取的平面圖像。

        為了簡(jiǎn)化該模型,結(jié)合相機(jī)的運(yùn)動(dòng)方式與仿射變換形式,可以得到如下定理。

        定理:  對(duì)于任意的仿射矩陣A可以分解為:

 

 

2.2 Affine-SURF描述符

        Affine-SURF描述符的建立過程如下:

        (1) 仿射采樣獲取參數(shù)φ和θ

        (3) 對(duì)輸出的仿射圖像進(jìn)行特征點(diǎn)檢測(cè)

        ①首先計(jì)算仿射圖像的積分圖像。積分圖像I在X=(x,y)處的定義為:

        

        ②然后利用式(2),獲得Fast-Hessian矩陣行列式,并得到響應(yīng)圖像。

        ③接著采用最大值抑制搜索技術(shù),在位置和尺度上對(duì)響應(yīng)圖像進(jìn)行特征點(diǎn)搜索。

        ④對(duì)得到的特征點(diǎn)分配方向。

        (4) 構(gòu)造Affine-SURF描述符

        通過計(jì)算圖像的Haar小波響應(yīng),然后統(tǒng)計(jì)∑dx,∑d|x|,∑dy,∑d|y|來形成特征矢量。

        經(jīng)過以上步驟就得到了具有較強(qiáng)仿射性能的Affine-SURF描述符。

3 基于仿射變換的SURF圖像配準(zhǔn)

        得到Affine-SURF描述符后,用其進(jìn)行特征匹配。本文中,首先采用比值提純法進(jìn)行特征點(diǎn)粗匹配,接著采用魯棒性較強(qiáng)、可靠性好的RANSAC算法[11]進(jìn)一步提純,得到最終的匹配對(duì)。

4 實(shí)驗(yàn)與結(jié)果分析

        本文在VS2010平臺(tái)上驗(yàn)證該算法的性能。實(shí)驗(yàn)的評(píng)價(jià)指標(biāo)為圖像在不同仿射情況下獲取的正確匹配對(duì)數(shù)目。

        第一組實(shí)驗(yàn)主要分析弱視角變化對(duì)算法的影響。以圖1為例,圖像Box由于相機(jī)的視角變化,存在著旋轉(zhuǎn)、弱透視形變等現(xiàn)象,圖1(c)~圖1(f)分別為SIFT、MSER、SURF和Affine-SURF算法的匹配結(jié)果,它們的匹配結(jié)果如表1所示。通過對(duì)比正確匹配對(duì)的數(shù)目可以看出,Affine-SURF有效地克服了視角變化對(duì)特征提取與描述的影響。

        第二組實(shí)驗(yàn)主要用來評(píng)價(jià)不同算法在尺度變化方面的魯棒性。以圖2為例,圖像Book由于拍攝高度不同,導(dǎo)致出現(xiàn)尺度變化。從圖2(c)~圖2(f)以及表1可以看出,Affine-SURF算法有較好的匹配效果,而且比其他3種算法能夠獲取更多特征點(diǎn)。這說明Affine-SURF能夠在尺度變化明顯的情況下獲得更多正確的匹配點(diǎn)。 

        第三組實(shí)驗(yàn)主要用來驗(yàn)證算法在仿射形變較大情況下的性能。以圖3為例,圖像People由于旋轉(zhuǎn)、視角變化過大,導(dǎo)致仿射形變明顯。圖3(c)~圖3(f)分別為SIFT、MSER、SURF和Affine-SURF算法的匹配結(jié)果,結(jié)合表1可以看出,采用本文提出的Affine-SURF算法找到的正確匹配特征點(diǎn)最多,證明了該算法對(duì)大視角變化的仿射圖像匹配魯棒性最好。

        SIFT、SURF圖像配準(zhǔn)算法已經(jīng)被驗(yàn)證對(duì)于尺度變化、旋轉(zhuǎn)、亮度變化具有較好的不變性,但是它們不具有很好的仿射性。因此,本文提出一種基于仿射變換的SURF圖像配準(zhǔn)算法。通過3組不同圖像類型的實(shí)驗(yàn)結(jié)果表明,采用本文算法比SIFT、SURF、MSER算法能夠得到更多的正確匹配點(diǎn),更好地提高算法的仿射魯棒性。

參考文獻(xiàn)

[1] LOWE D. Object recognition from local scale-invariant features[C]. In: Proceedings of the 7th IEEE International Conference on Computer Vision, Corfu,US: IEEE,1999:1150-1157.

[2] LOWE D G. Distinctive image features from scale-invariant keypoints[J]. International Journal of Computer Vision,2004,60(2):91-110.

[3] Zhao Wanglei, NGO C W. Flip-invariant SIFT for copy and object detection[J]. Image Processing, IEEE,2013,22(3):980-991.

[4] 張瑞年.聯(lián)合時(shí)空SIFT特征的同源視頻檢測(cè)[J].電子技術(shù)應(yīng)用,2012,38(3):130-133.

[5] JUAN L,GWUN O. A comparison of SIFT, PCA-SIFT and SURF[J]. International Journal of Image Processing (IJIP),2009,3(4):143-152.

[6] BAY H,ESS A,TUYTELAARS T,et al. Speeded up robust features(SURF)[J].Computer Vision and Image Understand ing(CVIU),2008,110(3):346-359.

[7] 路寧.基于SURF和CamShift的物體跟蹤方法[J].微型機(jī)與應(yīng)用,2012,31(27):40-43.

[8] OZUYSAL M, CALONDER M, LEPETIT V, et al. Fast keypoint recognition using random ferns[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,2010,32(3):448-461.

[9] MOREL J M, YU G S. ASIFT: a new framework for fully affine invariant image comparison[J]. SIAM Journal on Image Sciences,2009,2(2):438-469.

[10] MATAS J, CHUM O, URBAN M, et al. Robust widebaseline stereo from maximally stable extremal regions[J]. Image and Vision Computing,2004,22(10):761-767.

[11] FISCHLER M A,BOLLES R C. Random sample consensus:A paradigm for model fitting with applications to image analysis and automated cartography[J].Communications of the ACM,1981,24(6):381-395.

此內(nèi)容為AET網(wǎng)站原創(chuàng),未經(jīng)授權(quán)禁止轉(zhuǎn)載。