摘 要: 針對傳統(tǒng)互信息配準(zhǔn)方法計(jì)算量較大且未利用圖像空間信息的缺點(diǎn),提出了一種結(jié)合SURF描述符和廣義近鄰圖的圖像配準(zhǔn)算法。該算法用SURF從圖像中提取尺度空間特征點(diǎn)并獲得特征點(diǎn)描述子,然后用廣義近鄰圖來估計(jì)Rényi熵與互信息。該算法結(jié)合了SURF描述子的魯棒性和廣義近鄰圖估計(jì)Rényi熵的高效性。實(shí)驗(yàn)結(jié)果表明,對于真實(shí)遙感圖像,該算法在配準(zhǔn)準(zhǔn)確度、魯棒性和速度上都明顯優(yōu)于幾種傳統(tǒng)配準(zhǔn)方法。
關(guān)鍵詞: 圖像配準(zhǔn);廣義近鄰圖;Rényi熵圖;SURF描述子
圖像配準(zhǔn)是對同一場景在不同條件下(如不同的時(shí)間、拍攝環(huán)境、視角和傳感器等)得到的兩幅或多幅圖像尋求某種空間上的變換,使一幅圖像能夠和另一幅圖像上的對應(yīng)點(diǎn)達(dá)到空間上的一致[1]。圖像配準(zhǔn)技術(shù)是圖像處理與分析中的基本任務(wù),已經(jīng)在計(jì)算機(jī)視覺、圖像融合、全景圖像拼接、醫(yī)學(xué)診斷與輔助治療等眾多領(lǐng)域得到廣泛的應(yīng)用[2-3]。
目前,圖像配準(zhǔn)方法大體分為基于灰度和基于特征兩大類?;诨叶鹊姆椒ńD像間像素灰度值的目標(biāo)函數(shù),如互信息測度[4],通過對目標(biāo)函數(shù)的優(yōu)化實(shí)現(xiàn)配準(zhǔn)。該方法沒有考慮像素的空間信息,在不同成像條件下的圖像配準(zhǔn)中,其精度較低、計(jì)算量大且配準(zhǔn)時(shí)間長。
基于特征的配準(zhǔn)方法先提取各個(gè)圖像中的特征,再完成特征之間的匹配,通過匹配的特征建立圖像間的映射變換,最后求出配準(zhǔn)后的圖像。特征點(diǎn)是該類方法最常使用的圖像特征,其中BAY H等人提出的SURF(Speeded-Up Robust Features)算法是一種尺度空間的特征點(diǎn)描述方法[5],對圖像間的分辨率、旋轉(zhuǎn)、平移和光照變化等保持不變,且時(shí)間復(fù)雜度低、速度較快?;谔卣鼽c(diǎn)的配準(zhǔn)方法減輕了圖像灰度差異和噪聲的影響,縮短了配準(zhǔn)時(shí)間。然而,特征點(diǎn)匹配問題本身就是一個(gè)尚未得到較好解決的難題,特征點(diǎn)的誤匹配直接影響了圖像的最終配準(zhǔn)結(jié)果。
為解決上述問題,RANGARAJAN A等提出了一種結(jié)合互信息與特征點(diǎn)的配準(zhǔn)方法[6],定義了特征點(diǎn)集的互信息函數(shù),通過對該函數(shù)最大化實(shí)現(xiàn)圖像配準(zhǔn)。這種方法減輕了灰度差異與特征點(diǎn)誤配對配準(zhǔn)的影響,但函數(shù)形式復(fù)雜,配準(zhǔn)時(shí)間較長。
最新的研究結(jié)果表明,通過對隨機(jī)抽樣構(gòu)建廣義近鄰圖可以估計(jì)隨機(jī)變量的熵[7],這已在統(tǒng)計(jì)學(xué)與信息論的研究中受到廣泛關(guān)注。本文將該理論引入圖像配準(zhǔn)中,將圖像配準(zhǔn)中的特征點(diǎn)與互信息結(jié)合起來估計(jì)特征點(diǎn)的Rényi互信息,提出了一種結(jié)合SURF描述子和廣義近鄰圖醫(yī)學(xué)圖像配準(zhǔn)方法。該方法了融合圖像空間信息且無需計(jì)算概率直方圖。通過與幾種傳統(tǒng)配準(zhǔn)算法相比較,結(jié)果表明,該算法在魯棒性、配準(zhǔn)時(shí)間和配準(zhǔn)精度方面提供了更好的綜合性能。
1 SURF檢測及描述
SURF可以在圖像尺度空間中提取特征點(diǎn),并對每個(gè)特征點(diǎn)賦予特征,即SURF描述符。該算法提取的特征點(diǎn)對尺度、旋轉(zhuǎn)、光照、仿射和透視變換等均具有較強(qiáng)魯棒性,并在計(jì)算速度上明顯快于以往同類方法。
1.2 主方向確定
為保證特征點(diǎn)描述符的旋轉(zhuǎn)不變性,SURF賦予每個(gè)特征點(diǎn)主梯度方向。在以特征點(diǎn)為中心,半徑為6σ(σ為特征點(diǎn)對應(yīng)的尺度)的鄰域內(nèi),用邊長為4σ的Haar小波模板計(jì)算該點(diǎn)在x、y方向的Haar小波響應(yīng),并以該點(diǎn)的高斯函數(shù)對這些響應(yīng)值加權(quán),然后將60°范圍內(nèi)的響應(yīng)相加形成新的向量,遍歷整個(gè)圓形區(qū)域,選擇最長向量的方向?yàn)樵撎卣鼽c(diǎn)的主方向。這樣,對特征點(diǎn)逐個(gè)進(jìn)行計(jì)算,就可以得到每一個(gè)特征點(diǎn)的主方向。
本文提出了一種結(jié)合SURF描述子和廣義近鄰圖的圖像配準(zhǔn)算法。采用SURF快速、魯棒地提取圖像特征點(diǎn),并形成特征點(diǎn)描述子,再結(jié)合特征點(diǎn)的廣義近鄰圖估計(jì)Rényi互信息進(jìn)行配準(zhǔn)。在真實(shí)遙感圖像中進(jìn)行實(shí)驗(yàn),結(jié)果表明該算法在配準(zhǔn)魯棒性、配準(zhǔn)準(zhǔn)確性和配準(zhǔn)時(shí)間3個(gè)方面都優(yōu)于另外兩種傳統(tǒng)圖像配準(zhǔn)方法。
參考文獻(xiàn)
[1] ZITOVA B, FLUSSER J. Image registration methods: a survey[J]. Image and Vision Computing, 2003, 21:977-1000.
[2] 趙仕俊,孫林港.基于紋理特征的圖像自動(dòng)配準(zhǔn)方法研究[J].微型機(jī)與應(yīng)用,2011,30(9):36-38.
[3] 李靖宇,穆偉斌,沈煥泉.醫(yī)學(xué)圖像配準(zhǔn)的優(yōu)化算法改進(jìn)研究[J].微型機(jī)與應(yīng)用,2010(8):47-49.
[4] COLLIGNON A, MAES F, DELAERE D, et al. Automated muhimodality medical image registration using information theory[C]. Proceedings of Information Processing in Medical Imaging, 1995:263-274.
[5] BAY H, TUVTELLARS T, GOOL L VAN. SURF: speeded up robust features[C]. Proceedings of the European Conference on Computer Vision, 2006:404-417.
[6] RANGARAJAN A, Chui Haili, DUNCAN J S, et al.Rigid point feature registration using mutual information[J].Medical Image Analysis,1999,3(4):425-440.
[7] PAL D, POCZOS B, SZEPESVARI C. Estimation of Rényi entropy and mutual information based on generalized nearest-neighbor graphs[C]. NIPS, 2010.
[8] VIOLA P, JONES M J. Rapid object detection using a boosted cascade of simple features[C]. Proceedings of Computer Vision and Pattern Recognition, 2001:511-518.
[9] BROWN M, LOWED. Invariant features from interest point groups[C]. BMVC, 2002:1-10.
[10] LUAN H X, QI F H, XUE Z, et al. Multimodality image registration by maximization of quantitative-qualitative measure of mutual information[J]. Pattern Recognition, 2008, 41: 285-298.