《電子技術(shù)應(yīng)用》
您所在的位置:首頁(yè) > 測(cè)試測(cè)量 > 設(shè)計(jì)應(yīng)用 > 非特征點(diǎn)雙目測(cè)距技術(shù)研究
非特征點(diǎn)雙目測(cè)距技術(shù)研究
來(lái)源:微型機(jī)與應(yīng)用2013年第22期
許承慧,劉桂華,梁 峰
(西南科技大學(xué) 信息工程學(xué)院,四川 綿陽(yáng)621000)
摘要: 提出了一種局部稠密匹配與人工干預(yù)相結(jié)合的測(cè)距方案,利用非特征點(diǎn)與特征點(diǎn)的位置關(guān)系,構(gòu)建“最小矩形”以縮小匹配范圍,再應(yīng)用NCC(歸一化互相關(guān))算法對(duì)非特征點(diǎn)進(jìn)行稠密立體匹配,最后根據(jù)雙目測(cè)距原理直接獲取非特征點(diǎn)的距離信息。該方法能任意選取圖像上的非特征點(diǎn)進(jìn)行實(shí)時(shí)距離測(cè)量,具有精度高、速度快和操作性強(qiáng)等優(yōu)點(diǎn)。
Abstract:
Key words :

摘  要: 提出了一種局部稠密匹配與人工干預(yù)相結(jié)合的測(cè)距方案,利用非特征點(diǎn)與特征點(diǎn)的位置關(guān)系,構(gòu)建“最小矩形”以縮小匹配范圍,再應(yīng)用NCC(歸一化互相關(guān))算法對(duì)非特征點(diǎn)進(jìn)行稠密立體匹配,最后根據(jù)雙目測(cè)距原理直接獲取非特征點(diǎn)的距離信息。該方法能任意選取圖像上的非特征點(diǎn)進(jìn)行實(shí)時(shí)距離測(cè)量,具有精度高、速度快和操作性強(qiáng)等優(yōu)點(diǎn)。
關(guān)鍵詞: 雙目立體視覺(jué);非特征點(diǎn)測(cè)距;NCC算法

    雙目立體視覺(jué)測(cè)距[1]技術(shù)作為機(jī)器視覺(jué)領(lǐng)域的一個(gè)研究熱點(diǎn),目前已廣泛應(yīng)用于機(jī)器人、三維測(cè)量、虛擬現(xiàn)實(shí)等領(lǐng)域。特別在機(jī)器人應(yīng)用領(lǐng)域,實(shí)現(xiàn)機(jī)器人路徑規(guī)劃和避障[2]的一個(gè)關(guān)鍵技術(shù)就是準(zhǔn)確測(cè)量機(jī)器人到障礙物的距離。目前常用的測(cè)距方法主要有:紅外測(cè)距、激光測(cè)距、微波雷達(dá)測(cè)距等主動(dòng)測(cè)距[3]方案和雙目立體視覺(jué)測(cè)距、單目測(cè)距等被動(dòng)測(cè)距[4]方案。其中,主動(dòng)測(cè)距方案一般需要額外的能量發(fā)射裝置和合適的傳播介質(zhì),所以不適用于惡劣條件下工作的機(jī)器人;而被動(dòng)測(cè)距方案中的雙目立體視覺(jué)測(cè)距在一定程度上實(shí)現(xiàn)了人眼的視覺(jué)感知功能,具有探測(cè)范圍寬、目標(biāo)信息完整、不需配備額外裝置等優(yōu)點(diǎn),在機(jī)器人定位導(dǎo)航、避障等研究領(lǐng)域得到了越來(lái)越廣泛的應(yīng)用。
    雙目測(cè)距技術(shù)的關(guān)鍵在于特征點(diǎn)匹配[5],因?yàn)槠ヅ渚戎苯佑绊憸y(cè)距的精度。為了減少匹配的不確定性,提高匹配效率,國(guó)內(nèi)外眾多專(zhuān)家學(xué)者應(yīng)用了約束假設(shè),而約束一般可分為兩類(lèi):(1)基于圖像幾何的約束[6],例如位置、朝向等;(2)基于場(chǎng)景的約束[7],例如場(chǎng)景中物體的性狀和相互關(guān)系。依據(jù)這些基本約束并結(jié)合實(shí)際情況選擇合適的解決方案,使得目前的特征點(diǎn)匹配技術(shù)日臻完善。但針對(duì)非特征點(diǎn)的立體匹配,尤其是紋理缺乏、特征缺失的圖像區(qū)域,如何匹配其中的非特征點(diǎn)是一個(gè)研究難點(diǎn)。目前國(guó)內(nèi)外常用的解決方案是對(duì)視差圖[8]進(jìn)行修補(bǔ)或者對(duì)整幅圖像在區(qū)域增長(zhǎng)的基礎(chǔ)上進(jìn)行稠密匹配[9]等。這樣可以解決一部分實(shí)際問(wèn)題,但不適用于移動(dòng)機(jī)器人實(shí)時(shí)測(cè)距這一應(yīng)用背景,因?yàn)樾扪a(bǔ)視差圖需對(duì)環(huán)境有一定先驗(yàn)知識(shí),而移動(dòng)機(jī)器人在緊急救援工作中對(duì)惡劣環(huán)境是沒(méi)有先驗(yàn)知識(shí)的。另一方面,由于稠密匹配需要計(jì)算所有像點(diǎn)的像素灰度值并與待匹配點(diǎn)及其鄰域像素的灰度值進(jìn)行對(duì)比,計(jì)算量龐大,耗時(shí)過(guò)長(zhǎng)的同時(shí)亦增加了系統(tǒng)誤差。
    基于移動(dòng)機(jī)器人實(shí)時(shí)導(dǎo)航、測(cè)距這一應(yīng)用背景,本文研究了一種針對(duì)非特征點(diǎn)的雙目測(cè)距方案,以獲取需測(cè)距的非特征點(diǎn)的距離信息為目的,利用非特征點(diǎn)與已精準(zhǔn)匹配的特征點(diǎn)的位置關(guān)系,結(jié)合匹配中的順序一致性約束,構(gòu)造了“最小矩形”,以縮小匹配點(diǎn)的搜索范圍,再利用NCC稠密匹配算法做立體匹配,最后結(jié)合雙目相機(jī)的標(biāo)定參數(shù),利用雙目測(cè)距原理實(shí)現(xiàn)對(duì)非特征點(diǎn)的實(shí)時(shí)測(cè)距。實(shí)驗(yàn)結(jié)果表明,這種方法在降低運(yùn)算量的同時(shí)提高了測(cè)量的準(zhǔn)確度,而且充分利用了人機(jī)交互界面的友好性和反饋功能,適用于具體的工程實(shí)踐。

1.2 非特征點(diǎn)匹配
    在實(shí)際工程中,機(jī)器人操作者希望快速獲取圖像中某一點(diǎn)的實(shí)際距離,當(dāng)該點(diǎn)為非特征點(diǎn)時(shí),首要問(wèn)題是找到該點(diǎn)的匹配點(diǎn)。
    以圖1為例,左圖像中用1*、2*、…標(biāo)示已精確匹配的特征點(diǎn),其在右圖像中對(duì)應(yīng)的匹配點(diǎn)用*1′、*2′…標(biāo)示。A、B、C分別代表3種情況的非特征點(diǎn):點(diǎn)A代表第一種情況,即該點(diǎn)附近5像素的鄰域內(nèi)有一個(gè)以上的特征點(diǎn);點(diǎn)B代表第二種情況,即該點(diǎn)附近5像素鄰域內(nèi)沒(méi)有特征點(diǎn),但是30像素鄰域內(nèi)有兩個(gè)或兩個(gè)以上的特征點(diǎn);點(diǎn)C代表了第三種情況,即該點(diǎn)的30像素鄰域內(nèi)均無(wú)特征點(diǎn)。右圖像上,人工估計(jì)了非特征點(diǎn)的匹配點(diǎn)所在的區(qū)域,用a、b、c標(biāo)示;而通過(guò)非特征點(diǎn)匹配算法得到的匹配點(diǎn)則用A′、B′、C′標(biāo)示。下文具體介紹3種情況下的匹配方案。

    情況1:先將點(diǎn)A的匹配點(diǎn)A′的搜索區(qū)域劃定在右圖像上以點(diǎn)1*的精確匹配點(diǎn)*1′為中心的21×21的矩形區(qū)域內(nèi),再用 NCC算法在該區(qū)域內(nèi)計(jì)算匹配點(diǎn)A′。最后再與右圖像上人工確定的搜索區(qū)域的中心點(diǎn)a進(jìn)行比較,相距在12個(gè)像素之內(nèi)認(rèn)為算法正確,否則視該點(diǎn)為第三種情況。
    情況2:將B點(diǎn)附近的精確匹配點(diǎn)按照距離大小排列,確定距離最近的兩個(gè)匹配點(diǎn)2*和3*,依據(jù)順序不變性原理,用這兩個(gè)匹配點(diǎn)構(gòu)成“最小矩形”,且B點(diǎn)在矩形內(nèi)部。“最小矩形”的確定步驟如下:
    (1)計(jì)算匹配的特征點(diǎn)到非特征點(diǎn)B的距離,從距離最小的特征匹配點(diǎn)開(kāi)始,依次與B 點(diǎn)坐標(biāo)進(jìn)行比較,直到找到一個(gè)與B點(diǎn)坐標(biāo)不同的點(diǎn),即為構(gòu)建“最小矩形”的一個(gè)頂點(diǎn)(圖1中2*)。
 
    (3)以找到的兩個(gè)特征點(diǎn)為頂點(diǎn)構(gòu)建“最小矩形”,在矩形范圍內(nèi)用NCC算法確定非特征點(diǎn)的匹配點(diǎn)(圖1中的B′點(diǎn)),再與右圖像上人工確定的搜索區(qū)域中心點(diǎn)(圖1中b點(diǎn))做比較,若距離在12像素以?xún)?nèi)認(rèn)為算法正確,否則視該點(diǎn)為第三種情況。
    情況3:對(duì)點(diǎn)C直接利用機(jī)器人操作中人機(jī)交互的便利性,人工在右圖像上確定搜索區(qū)域,該區(qū)域是以點(diǎn)c為中心的21×21鄰域。該非特征點(diǎn)位于低紋理區(qū)域,因此不適合用前兩種情況來(lái)搜索匹配點(diǎn),所以采用信任人工的方案,在人工確定的搜索區(qū)域做立體匹配,其另一優(yōu)點(diǎn)是可以直接避免對(duì)雙目盲點(diǎn)區(qū)域的匹配搜索工作。此外還可以對(duì)前兩種方案進(jìn)行校正和糾錯(cuò)。

 


    圖3顯示了非特征點(diǎn)測(cè)距過(guò)程,左圖像上任意點(diǎn)選了一些非特征點(diǎn)(*1~*17),右圖像上人工選取了立體匹配搜索區(qū)域的中心點(diǎn)(+1~+17),本文對(duì)任意選取的17個(gè)非特征點(diǎn)進(jìn)行距離測(cè)量,并與實(shí)測(cè)值進(jìn)行比較,統(tǒng)計(jì)對(duì)照結(jié)果如表3所示。

    分析可知,該方案對(duì)任意點(diǎn)的測(cè)距結(jié)果與實(shí)測(cè)距離基本吻合,整體誤差在5%以?xún)?nèi)。經(jīng)過(guò)多次實(shí)驗(yàn)可知,對(duì)實(shí)測(cè)距離為5 m以?xún)?nèi)的非特征點(diǎn),計(jì)算值與實(shí)際值的誤差在2%以?xún)?nèi),6 m以外的點(diǎn)測(cè)距結(jié)果誤差較大,特別是8 m以外的點(diǎn)誤差甚至超過(guò)4%,這是因?yàn)橛?jì)算模型將攝像機(jī)作為線性模型考慮,所以誤差是由距離增大時(shí)其非線性表現(xiàn)明顯造成的。但從整體來(lái)看,該方案的測(cè)距結(jié)果在允許的誤差范圍內(nèi)。
    本文在vs2008版本的C++實(shí)現(xiàn)平臺(tái)下對(duì)多組分辨率為640×480的圖片進(jìn)行了測(cè)距實(shí)驗(yàn),并與常用的視差圖測(cè)距方案對(duì)比,結(jié)果顯示本方案平均耗時(shí)12 ms,而視差圖方案平均耗時(shí)160 ms,可見(jiàn)該方案提高了實(shí)時(shí)性。
    由以上結(jié)論可知,該測(cè)距方案簡(jiǎn)便可行,能滿足機(jī)器人導(dǎo)航中對(duì)任意非特征點(diǎn)進(jìn)行實(shí)時(shí)測(cè)距的要求。
    本文研究的非特征點(diǎn)雙目測(cè)距方案以移動(dòng)機(jī)器人導(dǎo)航、避障為應(yīng)用背景,充分考慮了待測(cè)距的非特征點(diǎn)
與周?chē)哑ヅ涮卣鼽c(diǎn)的位置關(guān)系,構(gòu)建了“最小矩形”以縮小匹配點(diǎn)的搜索范圍,并充分利用人機(jī)交互界面的友好性,加以人工干預(yù)以矯正匹配的精確度,順利完成了對(duì)非特征點(diǎn)的測(cè)距工作。該方案的優(yōu)點(diǎn)是不用生成稠密視差圖,減少計(jì)算量的同時(shí)提高了算法的準(zhǔn)確性和實(shí)時(shí)性;且能夠任意選取圖像上的點(diǎn)進(jìn)行距離測(cè)量,操作方便,直觀性更強(qiáng);可以人工對(duì)匹配點(diǎn)進(jìn)行校準(zhǔn)控制,反饋功能更強(qiáng)。但系統(tǒng)的穩(wěn)定性還有待提高。
參考文獻(xiàn)
[1] 祝琨,楊唐文,阮秋琦,等.基于雙目視覺(jué)的運(yùn)動(dòng)物體實(shí)時(shí)跟蹤與測(cè)距[J].機(jī)器人,2009,31(4):327-334.
[2] 梁冰,洪炳镕,曙光.自主機(jī)器人視覺(jué)與行為模型及避障研究[J].電子學(xué)報(bào),2003,31(21):266-269.
[3] 徐德,譚民.機(jī)器人視覺(jué)測(cè)量與控制「M].北京:國(guó)防工業(yè)出版社,2008.
[4] Xiong Chao,Tian Xiaofang,Lu Qiyong.Real-time binocular  matching and depth measurement based on competing  schema[J].Computer Engineering and Applications,2006,42(1):83-85.
[5] 郭龍?jiān)?計(jì)算機(jī)視覺(jué)立體匹配相關(guān)理論與算法研究[D].南京:南京理工大學(xué),2009.
[6] 王立中,麻碩士,薛河儒,等.一種改進(jìn)的SIFT特征點(diǎn)匹配算法[J].內(nèi)蒙古大學(xué)學(xué)報(bào),2009,40(5):615-619.
[7] 劉盛夏.基于相位信息的立體圖像匹配研究[D].上海:上海交通大學(xué),2010.

此內(nèi)容為AET網(wǎng)站原創(chuàng),未經(jīng)授權(quán)禁止轉(zhuǎn)載。