《電子技術(shù)應(yīng)用》
您所在的位置:首頁(yè) > 嵌入式技術(shù) > 設(shè)計(jì)應(yīng)用 > 基于局部限定搜索區(qū)域的特征匹配算法
基于局部限定搜索區(qū)域的特征匹配算法
2018年電子技術(shù)應(yīng)用第8期
張振寧,李 征,鄭俊偉
四川大學(xué) 計(jì)算機(jī)學(xué)院,四川 成都610065
摘要: 提出一種局部限定搜索區(qū)域的特征匹配算法,將空間約束與局部描述符結(jié)合起來(lái)。該算法在ASIFT算法基礎(chǔ)之上,針對(duì)在特征匹配階段直接去除一對(duì)多、多對(duì)一的特征點(diǎn)的缺陷做出了改進(jìn)。由于這些被去掉的特征點(diǎn)中有很多是可以得到正確匹配的,導(dǎo)致獲得到的匹配點(diǎn)對(duì)少了很多,通過(guò)在已經(jīng)匹配的點(diǎn)對(duì)的周圍限定區(qū)域內(nèi)尋找出新的未曾匹配的點(diǎn)對(duì),最終達(dá)到提升正確匹配數(shù)量的目標(biāo)。經(jīng)實(shí)驗(yàn)驗(yàn)證,所提出的局部限定搜索區(qū)域的特征匹配算法相比于ASIFT算法能大量增加特征匹配點(diǎn)的數(shù)量。
關(guān)鍵詞: 局部限定 ASIFT 特征匹配
中圖分類號(hào): TP391
文獻(xiàn)標(biāo)識(shí)碼: A
DOI:10.16157/j.issn.0258-7998.174463
中文引用格式: 張振寧,李征,鄭俊偉. 基于局部限定搜索區(qū)域的特征匹配算法[J].電子技術(shù)應(yīng)用,2018,44(8):130-133,142.
英文引用格式: Zhang Zhenning,Li Zheng,Zheng Junwei. Feature matching algorithm based on partial limitation search region[J]. Application of Electronic Technique,2018,44(8):130-133,142.
Feature matching algorithm based on partial limitation search region
Zhang Zhenning,Li Zheng,Zheng Junwei
College of Computer Science,Sichuan University,Chengdu 610065,China
Abstract: This paper proposes a feature matching algorithm for partial limitation search regions, which combines spatial constraints with local descriptors. Based on the ASIFT algorithm, this paper improves the defects of directly removing one-to-many and many-to-one feature points in the feature matching phase. Since many of these removed feature points can be properly matched,resulting match points less. This paper will find a new unmatched pair of points within the surrounding area of the matching pairs, and finally achieve the goal of raising the correct number of matches. Experiments show that the feature matching algorithm proposed in this paper can greatly increase the number of feature matching compared with the ASIFT algorithm.
Key words : partial limitation;ASIFT;feature matching

0 引言

    在現(xiàn)有的目標(biāo)識(shí)別[1]、目標(biāo)分類[2]、三維重建[3]等實(shí)際應(yīng)用中,提取到的特征點(diǎn)匹配數(shù)量越多,識(shí)別精度越高,分類則會(huì)越精細(xì)。

    尺度不變模擬[4-5]、基于仿射變換的SURF描述符[6]、仿射不變模擬[7-8]及二值圖像代替灰度圖像[9]等現(xiàn)有提升特征數(shù)量的方法雖然提升了特征點(diǎn)數(shù)量,然而在進(jìn)行匹配的過(guò)程中,由于直接去掉了很多一對(duì)多、多對(duì)一的特征點(diǎn),從而導(dǎo)致獲得到的匹配點(diǎn)對(duì)少了很多,而這些被去掉的特征點(diǎn)中有很多是可以得到正確匹配的。本文方法在ASIFT算法特征匹配的基礎(chǔ)上,通過(guò)在已經(jīng)正確匹配的特征點(diǎn)對(duì)的周圍限定鄰域內(nèi)尋找特征點(diǎn)進(jìn)行匹配,達(dá)到增加正確匹配的特征點(diǎn)、提升正確匹配點(diǎn)數(shù)量的目標(biāo)。

1 算法模型與方法

    在正確匹配的特征點(diǎn)對(duì)的周圍限定鄰域內(nèi)尋找特征點(diǎn)進(jìn)行匹配的過(guò)程如下:

    (1)設(shè)ASIFT算法在參考圖像I1與測(cè)試圖像I2中提取到的特征點(diǎn)集合分別為S1、S2,ASIFT算法得到的匹配點(diǎn)集合為MS,S1、S2中未匹配的點(diǎn)為US1、US2。

    (2)在MS中隨機(jī)選取一個(gè)未計(jì)算過(guò)的匹配點(diǎn)對(duì)設(shè)為P1(x1,y1)、P2(x2,y2),設(shè)點(diǎn)P1、P2所在的模擬圖像分別為Ip1、Ip2。分別求出US1、US2中未匹配上的特征點(diǎn)在圖像Ip1、Ip2上的坐標(biāo),分別記這些坐標(biāo)集合為Ssim1、Ssim2。

    (3)分別在Ssim1、Ssim2中查找在點(diǎn)(x1,y1)、(x2,y2)的限定區(qū)域內(nèi)的點(diǎn),當(dāng)選取的兩個(gè)點(diǎn)同時(shí)滿足條件時(shí)分別保存在集合S3和S4中。

    (4)若集合S3中的所有點(diǎn)都已經(jīng)計(jì)算過(guò),則跳至步驟(5);否則在集合S3中隨機(jī)選取未計(jì)算過(guò)得一個(gè)點(diǎn),同時(shí)在集合S4中選取與該點(diǎn)距離最近與次近的點(diǎn),若與最近點(diǎn)的距離和與次近點(diǎn)的小于給定閾值,則該點(diǎn)與最近距離的點(diǎn)匹配,將匹配的特征點(diǎn)對(duì)加入集合NS中,將US1、US2中對(duì)應(yīng)的點(diǎn)標(biāo)記為已匹配。

    (5)若MS中所有的點(diǎn)對(duì)都已經(jīng)計(jì)算過(guò),則將集合NS中的點(diǎn)加入MS中并結(jié)束,否則跳至步驟(2)。

    下面對(duì)步驟(2)、步驟(3)和步驟(4)分別進(jìn)行詳細(xì)介紹。

1.1 將特征點(diǎn)坐標(biāo)映射到對(duì)應(yīng)的模擬圖像上

    設(shè)圖像I1當(dāng)前某一模擬圖像為I,由于在ASIFT中求得的特征點(diǎn)的坐標(biāo)都是I1上的坐標(biāo)(需要在I1上畫出匹配的特征點(diǎn)對(duì)),因此需要將I1上的坐標(biāo)映射到模擬圖像I上。

    由ASIFT算法中從圖像I1到圖像I的變換,可以得出圖像I1坐標(biāo)(x,y)到模擬圖像上的坐標(biāo)(x1,y1)之間的對(duì)應(yīng)關(guān)系為:

jsj5-gs1-2.gif

其中,w與h分別為圖像I1的寬度與高度。

    根據(jù)式(1)和式(2),在MS中隨機(jī)選取一個(gè)未計(jì)算過(guò)的匹配點(diǎn)對(duì)設(shè)為P1(x1,y1)、P2(x2,y2),設(shè)點(diǎn)P1、P2所在的模擬圖像分別Ip1、Ip2,就可以求出US1、US2中未匹配上的特征點(diǎn)在圖像Ip1、Ip2上的坐標(biāo),分別記這些坐標(biāo)集合為Ssim1、Ssim2。

1.2 在未匹配的特征點(diǎn)中查找符合匹配點(diǎn)對(duì)的限定區(qū)域內(nèi)的點(diǎn)

    在Ssim1、Ssim2中查找在點(diǎn)P1(x1,y1)、P2(x2,y2)的限定區(qū)域內(nèi)的點(diǎn),限定區(qū)域范圍為計(jì)算特征點(diǎn)描述符的像素區(qū)域。當(dāng)Ssim1、Ssim2中選取的兩個(gè)點(diǎn)同時(shí)滿足條件時(shí),將這兩個(gè)點(diǎn)記錄下來(lái),分別保存在集合S3和S4中。限定區(qū)域用如下式表示:

    jsj5-gs3.gif

其中,(x3,y3)、(x4、y4)分別為集合Ssim1、Ssim2中未匹配的點(diǎn)在圖像Ip1、Ip2上的坐標(biāo),r1、r2分別為點(diǎn)P1(x1,y1)、P2(x2,y2)在圖像Ip1、Ip2上計(jì)算描述符像素區(qū)域的半徑。

1.3 計(jì)算符合限定區(qū)域內(nèi)的特征點(diǎn)是否為匹配點(diǎn)

    從集合S3中隨機(jī)取出未計(jì)算過(guò)的點(diǎn)設(shè)為Q1,從集合S4中找出與點(diǎn)Q1最近與次近的兩個(gè)點(diǎn),設(shè)為Q2、Q3。若Q2與Q1間的距離d1以及Q3與Q1間的距離d2的比值小于給定閾值t,則認(rèn)為Q1與Q2匹配。計(jì)算公式為:

    jsj5-gs4.gif

其中:

     jsj5-gs5-6.gif

其中,(l1,l2,…,lh)表示點(diǎn)Q1的描述符,(m1,m2,…,mh)表示點(diǎn)Q2的描述符,(n1,n2,…,nh)表示點(diǎn)Q3的描述符,h表示描述符的維數(shù),t此處取0.36。

    將匹配的特征點(diǎn)對(duì)加入集合NS中,將US1、US2中對(duì)應(yīng)的點(diǎn)標(biāo)記為已匹配。這樣就把空間約束與局部描述符結(jié)合起來(lái)了。

2 實(shí)驗(yàn)

    本節(jié)主要是通過(guò)實(shí)驗(yàn)分析本文算法的性能,并將結(jié)果與ASIFT算法結(jié)果進(jìn)行比較。通過(guò)使用相同的圖像集,利用本文算法與ASIFT算法來(lái)處理圖像集得到匹配實(shí)驗(yàn)結(jié)果。在比較兩個(gè)算法的性能時(shí),會(huì)用到兩種算法的匹配結(jié)果圖像以及匹配正確點(diǎn)對(duì)數(shù)目來(lái)進(jìn)行對(duì)比分析。

2.1 絕對(duì)傾斜測(cè)試

    圖1顯示了絕對(duì)傾斜測(cè)試實(shí)驗(yàn)的設(shè)置。在圖2中的油畫在拍攝時(shí)焦距縮放改變?cè)凇?~×10間,拍攝時(shí)視角的改變范圍在為0°(正面)~80°。很顯然,超過(guò)80°,在正面圖像與最邊上的圖像之間建立對(duì)應(yīng)關(guān)系是非常復(fù)雜的。在一個(gè)反射表面存在一個(gè)如此大的視角改變范圍,傾斜視圖中的圖像在正面視圖中會(huì)完全不同。

jsj5-t1.gif

jsj5-t2.gif

    表1給出了在不同的絕對(duì)傾斜角下,兩個(gè)算法匹配的正確點(diǎn)對(duì)數(shù)。其中表1中相機(jī)的焦距縮放為×1,表1中的圖像在拍攝時(shí)相機(jī)的拍攝角度θ均在45°~80°之間,其中傾斜度t=1/cosθ,圖像的尺寸大小均為400×300,表中的正確匹配點(diǎn)對(duì)數(shù)量都是經(jīng)過(guò)RANSAC[10-11]算法處理得到的。圖3給出了兩個(gè)算法使用部分圖像經(jīng)過(guò)RANSAC算法處理得到的匹配結(jié)果,兩幅用來(lái)匹配的圖像是相機(jī)在正面拍攝圖2以及65°拍攝角度拍攝圖2,相機(jī)焦距縮放均為×1。由表1以及圖3中可以看出,在相同的條件下,本文算法比ASIFT算法得到的正確匹配點(diǎn)對(duì)數(shù)較多。

jsj5-b1.gif

jsj5-t3.gif

    再來(lái)比較一下相機(jī)與物體之間的距離放大10 倍的結(jié)果。表2中的圖像在拍攝時(shí)相機(jī)的拍攝角度均在45°~80°之間,相機(jī)的焦距縮放為×10,使用圖2兩個(gè)算法匹配得到正確點(diǎn)對(duì)數(shù),其中圖像的尺寸大小均為400×300,表中的正確匹配點(diǎn)對(duì)數(shù)量都是經(jīng)過(guò)RANSAC算法處理得到的。圖4給出了兩個(gè)算法使用部分圖像經(jīng)過(guò)RANSAC算法處理后得到的匹配結(jié)果,兩幅用來(lái)匹配的圖像是相機(jī)在正面拍攝圖2以及45°拍攝角度拍攝圖2,相機(jī)焦距縮放均為×10。由表2以及圖4可以看出,仍然能夠得到類似表1以及圖3中給出的結(jié)論。

jsj5-b2.gif

jsj5-t4.gif

    上述的實(shí)驗(yàn)結(jié)果表明在相同的條件下,不管相機(jī)的焦距縮放范圍在×1~×10內(nèi)以及緯度角(絕對(duì)傾斜)在0°~80°范圍內(nèi)如何變化,本文算法都能得到比ASIFT算法多很多的正確匹配點(diǎn)對(duì)。

2.2 相對(duì)傾斜測(cè)試

    圖5顯示了相對(duì)傾斜測(cè)試實(shí)驗(yàn)的設(shè)置。對(duì)于圖6中的雜志分別設(shè)置相機(jī)使用一個(gè)固定的緯度角θ,對(duì)應(yīng)t=2和t=4,經(jīng)度角φ的變化范圍為0°~90°。相機(jī)的焦距和光軸縮放是×4。在每個(gè)設(shè)置中用作實(shí)驗(yàn)的圖像都有相同的絕對(duì)傾斜度t=2或者t=4,對(duì)應(yīng)的相對(duì)傾斜τ(相對(duì)于圖像在φ=0°)的范圍為1~t2=4或者16,而φ的范圍為0°~90°。

jsj5-t5.gif

jsj5-t6.gif

    表3顯示了用來(lái)匹配的兩幅圖像絕對(duì)傾斜度為t1=2,t2=2,φ1=0°,φ和相對(duì)傾斜τ的取值為表中的第一列時(shí)的對(duì)比結(jié)果。其中所使用的實(shí)驗(yàn)圖像的大小均為400×300,表中的正確匹配點(diǎn)對(duì)數(shù)量都是經(jīng)過(guò)RANSAC算法處理得到的。

jsj5-b3.gif

    表4顯示了在待匹配的兩幅圖像絕對(duì)傾斜度t1=4,t2=4,φ1=0°,φ和相對(duì)傾斜τ的值取表中的第一列時(shí)的對(duì)比結(jié)果。其中所使用的實(shí)驗(yàn)圖像的大小均為400×300,表中的正確匹配點(diǎn)對(duì)數(shù)量都是經(jīng)過(guò)RANSAC算法處理得到的。

jsj5-b4.gif

    圖7給出了兩個(gè)算法使用部分圖像得到的匹配結(jié)果,兩幅用來(lái)匹配的圖像是在t1=2,t2=2,φ1=0°,φ2=40°(τ=2.5)條件下得到的,正確匹配點(diǎn)對(duì)數(shù)是經(jīng)過(guò)RANSAC算法處理后得到的結(jié)果。

jsj5-t7.gif

3 結(jié)論

    本文主要研究基于局部限定搜索區(qū)域的特征匹配算法,介紹了研究方向現(xiàn)狀,針對(duì)經(jīng)典算法ASIFT在特征匹配階段直接去除一對(duì)多、多對(duì)一的特征點(diǎn)的缺陷做出了改進(jìn),提出局部限定搜索區(qū)域的特征匹配算法。在實(shí)驗(yàn)階段本文利用大量的實(shí)驗(yàn)詳細(xì)地對(duì)比了本文算法與ASIFT算法,結(jié)果顯示本文算法得到的匹配點(diǎn)對(duì)比ASIFT算法增加大約0.85倍左右。

    由于本文算法是在ASIFT算法得到的匹配結(jié)果上得到的,算法的匹配時(shí)間要比ASIFT算法較長(zhǎng)一些,接下來(lái)工作的重點(diǎn)是在保證得到大量的正確匹配點(diǎn)對(duì)數(shù)量的情況下,使算法的效率能夠大大提高。

參考文獻(xiàn)

[1] He Kaiming,Zhang Xiangyu,Ren Shanqing,et al.Deep residual learning for image recognition[C].2016 IEEE Conference on CVPR,2016.

[2] ZENG X,OUYANG W,WANG M,et al.Deep learning of scene-specific classifier for pedestrian detection[M].Computer Vision-ECCV 2014.Springer International Publishing,2014:472-487.

[3] VERGAUWEN M,GOOL L V.Web-based 3D reconstruction service[J].Machine Vision & Applications,2006,17(6):411-426.

[4] SE S,LOWE D,LITTLE J.Vision-based mobile robot localization and mapping using scale-invariant features[C].IEEE International Conference on Robotics and Automation,2001.Proceedings.IEEE,2001,2:2051-2058.

[5] LOWE D G.Object recognition from local scale-invariant features[C].The Proceedings of the Seventh IEEE International Conference on Computer Vision.IEEE,2002:1150.

[6] 劉欣,李校林,謝燦,等.一種基于仿射變換的SURF圖像配準(zhǔn)算法[J].電子技術(shù)應(yīng)用,2014,40(6):130-132.

[7] CUI C,NGAN K N.Global propagation of affine invariant features for robust matching[J].IEEE Transactions on Image Processing,2013,22(7):2876-2888.

[8] TUYTELAARS T,GOOL L V.Matching widely separated views based on affine invariant regions[J].International Journal of Computer Vision,2004,59(1):61-85.

[9] 彭興璇,唐雪嬌,董星.基于改進(jìn)SIFT算法在圖像匹配中的研究[J].微型機(jī)與應(yīng)用,2015,34(20):36-38.

[10] LUO J,GWUN O.A comparison of SIFT,PCA-SIFT and SURF[J].International Journal of Image Processing,2009,3(4):143-152.

[11] FISCHLER M A,BOLLES R C.Random sample consensus;a paradigm for model fitting with applications to image analysis and automated cartography[M].ACM,1981.



作者信息:

張振寧,李  征,鄭俊偉

(四川大學(xué) 計(jì)算機(jī)學(xué)院,四川 成都610065)

此內(nèi)容為AET網(wǎng)站原創(chuàng),未經(jīng)授權(quán)禁止轉(zhuǎn)載。