《電子技術(shù)應(yīng)用》
您所在的位置:首頁(yè) > 顯示光電 > 設(shè)計(jì)應(yīng)用 > 基于改進(jìn)的FT算法在自然圖像中的應(yīng)用研究
基于改進(jìn)的FT算法在自然圖像中的應(yīng)用研究
2015年微型機(jī)與應(yīng)用第21期
黃 梨
(沈陽(yáng)理工大學(xué) 信息科學(xué)與工程學(xué)院,遼寧 沈陽(yáng) 110159)
摘要: FT算法是在空間頻域內(nèi)的顯著目標(biāo)檢測(cè)算法。該算法簡(jiǎn)單、高效,但是在自然圖像顯著目標(biāo)檢測(cè)中,存在顯著區(qū)域中心像素抑制、顯著目標(biāo)不突出等問(wèn)題,故對(duì)FT算法進(jìn)行改進(jìn)。首先,在特征提取階段,除了提取顏色和亮度信息外,改進(jìn)的FT算法還提取圖像的邊緣信息,利用Canny算子檢測(cè)圖像的邊緣并用梯度算子表示邊緣特征,使得顯著區(qū)域的邊界信息更加豐富;然后,利用中心優(yōu)先規(guī)則線性處理顯著圖,提高顯著區(qū)域的中心像素的亮度,突出顯著區(qū)域,去除冗余信息。仿真結(jié)果表明改進(jìn)的FT算法是切實(shí)可行的。
Abstract:
Key words :

  摘  要: FT算法是在空間頻域內(nèi)的顯著目標(biāo)檢測(cè)算法。該算法簡(jiǎn)單、高效,但是在自然圖像顯著目標(biāo)檢測(cè)中,存在顯著區(qū)域中心像素抑制、顯著目標(biāo)不突出等問(wèn)題,故對(duì)FT算法進(jìn)行改進(jìn)。首先,在特征提取階段,除了提取顏色和亮度信息外,改進(jìn)的FT算法還提取圖像的邊緣信息,利用Canny算子檢測(cè)圖像的邊緣并用梯度算子表示邊緣特征,使得顯著區(qū)域的邊界信息更加豐富;然后,利用中心優(yōu)先規(guī)則線性處理顯著圖,提高顯著區(qū)域的中心像素的亮度,突出顯著區(qū)域,去除冗余信息。仿真結(jié)果表明改進(jìn)的FT算法是切實(shí)可行的。

  關(guān)鍵詞: 顯著目標(biāo)檢測(cè);Canny算子;梯度;中心優(yōu)先

0 引言

  視覺(jué)注意機(jī)制是人類(lèi)視覺(jué)系統(tǒng)的重要機(jī)制,它能夠從復(fù)雜的圖像中準(zhǔn)確識(shí)別顯著目標(biāo)。一般來(lái)說(shuō),顯著區(qū)域包含較多的信息,顯著目標(biāo)檢測(cè)被廣泛應(yīng)用于許多圖像處理領(lǐng)域,例如感興趣區(qū)域的自適應(yīng)壓縮、圖像和視頻的質(zhì)量評(píng)估[1]、視頻監(jiān)控[2]、圖像分割和草圖檢索等。

  顯著性目標(biāo)檢測(cè)源于視覺(jué)注意模型,是一種模擬人類(lèi)視覺(jué)智能的重要模型,它得到圖像中最顯著的區(qū)域。大量的研究表明視覺(jué)注意模型分為兩種類(lèi)型:自底向上的數(shù)據(jù)驅(qū)動(dòng)的顯著性提取和自頂向下的目標(biāo)驅(qū)動(dòng)的顯著性提取。由于視覺(jué)內(nèi)容需要大量的先驗(yàn)知識(shí),自頂向下的方法應(yīng)用不多。而自底向上的方法受圖像特征支配,不依賴(lài)任何先驗(yàn)知識(shí),被廣泛研究和應(yīng)用。比較經(jīng)典的自底向上的視覺(jué)注意模型是Itti[3]模型,Itti是在特征整合理論的基礎(chǔ)上,利用高斯金字塔進(jìn)行非均勻采樣得到9個(gè)尺度的圖像,計(jì)算各尺度的顏色、亮度和方向特征,由中央周邊差算子計(jì)算各尺度上的顯著圖,最后把各個(gè)尺度的顯著圖融合得到顯著圖,但是Itti算法得到的顯著圖的分辨率低,計(jì)算量較大?;趫D的顯著性算法(Graph-Based Visual Saliency,GBVS[4]),在Itti算法的基礎(chǔ)上進(jìn)行了改進(jìn),在特征提取階段,采用Markov鏈方法計(jì)算顯著值,顯著目標(biāo)相對(duì)完整。基于空間頻域分析的算法有兩種,剩余譜方法(Spectral Residual,SR[5])和全分辨率方法(FT[6])。SR算法運(yùn)算效率高,并且該算法的顯著圖和人眼感知具有一致性。但是SR算法不能計(jì)算顏色的顯著度。FT算法是基于空間頻域分析的,比SR算法保留了較多的高頻信息,顯著目標(biāo)的邊界比SR算法清晰,但同時(shí)也引入了噪聲。

  FT算法是基于空間頻域分析的顯著算法,該算法簡(jiǎn)單高效,但是顯著區(qū)域中心像素抑制,顯著目標(biāo)不突出。故本文在提取顏色和亮度特征的基礎(chǔ)上,加入提取圖像的邊緣特征,提高顯著區(qū)域的輪廓信息的清晰度,得到顯著圖,最后利用中心優(yōu)先規(guī)則對(duì)顯著圖做線性處理,優(yōu)化顯著圖,提高顯著區(qū)域的亮度。

1 FT算法

  FT算法是Achanta等在2009年提出的全頻域分析算法,利用顏色和亮度特征來(lái)估計(jì)中央周邊差對(duì)比度,疊加多個(gè)帶通濾波器得到全分辨率顯著圖。

  1.1 FT算法原理

  設(shè)wlc為低頻截止頻率,whc為高頻截止頻率。為了突出大的顯著對(duì)象,wlc需盡可能的低。為了得到較好的輪廓信息,whc選擇較高。本算法選擇DOG濾波器作為帶通濾波器。DOG公式如下:

  1.png

  式中,9P(LOFA8LJD%3S{W@85I$DU.jpg1和9P(LOFA8LJD%3S{W@85I$DU.jpg2是高斯分布的標(biāo)準(zhǔn)差。DOG帶通濾波器的通頻帶寬是由9P(LOFA8LJD%3S{W@85I$DU.jpg1與9P(LOFA8LJD%3S{W@85I$DU.jpg2的比值決定的。多個(gè)DOG濾波器疊加可由濾波器的標(biāo)準(zhǔn)差的比值ρ表示:

  2.png

  在計(jì)算顯著圖時(shí),9P(LOFA8LJD%3S{W@85I$DU.jpg1和9P(LOFA8LJD%3S{W@85I$DU.jpg2的取值決定帶通濾波器保留圖像中的頻率范圍。為了使ρ變大,令9P(LOFA8LJD%3S{W@85I$DU.jpg1為無(wú)窮大,這將在截止直流頻率的同時(shí)保留所有的其他頻率。使用一個(gè)小的高斯核去除高頻率的噪聲以及紋理。其中小的高斯核選擇二項(xiàng)濾波器代替。使用1/16*[1,4,6,4,1]二項(xiàng)濾波器,并令whc=π/2.75。

  視覺(jué)顯著值的計(jì)算公式為:

  3.png

  Iu(x,y)是圖像在lab空間的像素算術(shù)平均值,Iwhc(x,y)是圖像的高斯模糊模板(使用5×5二項(xiàng)式濾波器),用來(lái)消除紋理細(xì)節(jié)以及噪聲,‖‖是歐式距離。

  1.2 FT算法的顯著圖

  根據(jù)公式(3),得出FT算法的仿真結(jié)果如圖1所示。

001.jpg

  其中,第一列是原圖像,第二列是FT算法得到的顯著圖。從FT算法的顯著圖中看出,前兩幅圖像顯著區(qū)域弱化,背景對(duì)比度較差,顯著區(qū)域中心像素抑制,不顯著區(qū)域被突出。第三幅圖像背景簡(jiǎn)單,顯著圖相對(duì)較好,背景冗余信息處理較好,但仍存在部分顯著區(qū)域弱化的問(wèn)題。針對(duì)這些問(wèn)題,利用改進(jìn)的FT算法進(jìn)行完善。

2 算法的改進(jìn)

  算法的改進(jìn)分為兩個(gè)部分:首先在特征提取階段,加入了全局邊緣特征提取處理,能使顯著區(qū)域邊界更加清晰;然后利用中心優(yōu)先規(guī)則對(duì)顯著圖做線性處理,解決顯著區(qū)域中心像素抑制和顯著區(qū)域不突出等問(wèn)題。

  2.1 基于邊緣特征提取的全局處理

  FT算法在特征提取上采用的是顏色和亮度的特征,由于自然圖像內(nèi)容豐富,邊緣信息比較重要,因此本文在FT算法的顏色和亮度特征提取的基礎(chǔ)上,加入圖像的邊緣特征,使得邊緣細(xì)節(jié)更加豐富。

  由于Canny算子錯(cuò)誤率低、邊緣點(diǎn)能較好地定位以及單一的邊緣點(diǎn)響應(yīng)等優(yōu)點(diǎn),故采用Canny算子檢測(cè)圖像的邊緣信息。圖像梯度信息可以有效地表現(xiàn)圖像邊緣的強(qiáng)度和方向,故采用Sobel模板作為導(dǎo)數(shù)算子,計(jì)算圖像灰度沿著水平和垂直兩個(gè)方向的偏導(dǎo)數(shù),進(jìn)而計(jì)算出梯度的大小和方向。步驟如下:

  (1)用一個(gè)高斯濾波器平滑輸入圖像。高斯函數(shù)定義為:

  4.png

  設(shè)輸入圖像為f(x,y),平滑后的圖像為fs(x,y),公式為:

  fs(x,y)=G(x,y)*f(x,y)(5)

 ?。?)邊緣提取。選擇Sobel模板計(jì)算梯度的大小。gx代表橫向檢測(cè)的圖像灰度值,gy為縱向邊緣檢測(cè)的圖像灰度值。其具體公式如下:

  6.png

  梯度的幅值為:

  |g|=|gx|+|gy|(7)

  那么公式(3)的顯著值定義更改為:

  8.png

  2.2 基于中心優(yōu)先規(guī)則的局部處理

  一般來(lái)說(shuō),圖像像素的中心分布常被用于顯著區(qū)域定位和估計(jì),這是因?yàn)槿藗兣恼諘r(shí)往往把感興趣的目標(biāo)定位在圖像的中心位置。結(jié)果表明每個(gè)像素到圖像中心的距離能夠較好地預(yù)測(cè)顯著目標(biāo)。根據(jù)格式塔法則,視覺(jué)形式可能具有一個(gè)或幾個(gè)中心的圖形。這表明接近注意焦點(diǎn)的部分被認(rèn)為顯著,遠(yuǎn)離注意焦點(diǎn)的部分被認(rèn)為是背景。故本文提出中心優(yōu)先[7]的概念,這能使顯著的邊緣更加顯著,有效地去除背景中的小補(bǔ)丁,更好地評(píng)估顯著圖的性能。

  使用一個(gè)二維的高斯函數(shù)確定圖像的中心,定義圖像的高度為H,寬度為W,高斯函數(shù)在二維空間定義為:

  9.jpg

002.jpg

  圖像中任意像素點(diǎn)(x,y)的最終顯著值為:

  S(x,y)=S′FT(x,y)G(x,y)(10)

  其中G(x,y)為像素點(diǎn)(x,y)在中心優(yōu)先圖中的像素值。

3 仿真結(jié)果分析

  本實(shí)驗(yàn)是在MATLAB 2012a平臺(tái)中實(shí)現(xiàn)上述算法,采用的圖像來(lái)自MSRA-1000數(shù)據(jù)庫(kù),本數(shù)據(jù)庫(kù)包含1 000幅自然圖像和所對(duì)應(yīng)的人工分割圖。FT算法和改進(jìn)的FT算法的顯著圖如圖3所示。

003.jpg

  從顯著圖的對(duì)比結(jié)果看出,改進(jìn)的FT算法提取的顯著圖邊界信息豐富,顯著區(qū)域亮度提高,顯著區(qū)域中心對(duì)比度提高。該算法提取的效果更加符合生物的視覺(jué)感知,比FT算法效果好,準(zhǔn)確度較高,顯著性更明顯。

4 結(jié)論

  本文在視覺(jué)注意模型的基礎(chǔ)上,對(duì)FT算法進(jìn)行了改進(jìn)。仿真結(jié)果表明該算法在自然圖像數(shù)據(jù)庫(kù)中能夠較好地檢測(cè)顯著目標(biāo),此算法的原理是在特征提取階段,加入了邊緣特征提取處理,使得邊緣細(xì)節(jié)更加豐富,然后利用中心優(yōu)先線性處理顯著圖,得到最終的顯著圖,提高了顯著區(qū)域和顯著區(qū)域中心像素的亮度,顯著目標(biāo)得到了更好的檢測(cè)。改進(jìn)的算法簡(jiǎn)單、高效,明顯優(yōu)于FT算法。但該算法仍存在一些不足,例如顯著目標(biāo)內(nèi)部的細(xì)節(jié)不明顯,仍需進(jìn)一步完善。

  參考文獻(xiàn)

  [1] WANG Z, LI Q. Information content weighting for perceptual image quality assessment[J]. IEEE Trans. Image Process, 2011,20(5):1185-1198.

  [2] LOPEZ M T, FERNANDEZ-CABALLERO A, FERNANDEZ M A, et al. Visual surveillance by dynamic visual attention method[J]. Pattern Recognition, 2006, 39 (11):2194-2211.

  [3] ITTI L, KOCH C, NIEBUR E. A model of saliency-based visual attention for rapid scene analysis[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 1998, 20(11):1254-1259.

  [4] HAREL J, KOCH C, PERONA P. Graph-based visual saliency[J]. Neural Information Processing Systems, 2007, 19(1): 545–552.

  [5] Hou Xiaodi, Zhang Liqing. Saliency detection: a spectral residual approach[C]. IEEE Conference on Computer Vision and Pattern Recognition, Shanghai, 2007:2280-2287.

  [6] RADHAKRISHNA A, SHEILA H, FRANCISCO E, et al. Frequency-tuned salient region detection[C]. Los Alamitos: IEEE Computer Society Press, 2009: 1597-1604.

  [7] GOFERMAN S, ZELNIK-MANOR L, TAL A. Context-aware saliency detection[C]. Proceedings of IEEE Conference on Computer Vision and Pattern Recognition, San Francisco: IEEE Computer Society Press, 2012: 2376-2383.


此內(nèi)容為AET網(wǎng)站原創(chuàng),未經(jīng)授權(quán)禁止轉(zhuǎn)載。