摘 要: 提出了一種改進(jìn)的FCM方法,通過(guò)直方圖峰值初始化,并提出區(qū)域相似性度量方式,對(duì)過(guò)分割區(qū)域進(jìn)行合并,克服了FCM算法對(duì)初始值敏感的問(wèn)題。另外,通過(guò)將地形圖映射到Lab空間,將該方法推廣到彩色地形圖分割。實(shí)驗(yàn)表明,該算法能自適應(yīng)選取初值,相比于FGFCM,對(duì)地形圖分割能取得更好的分割效果。
關(guān)鍵詞: 地形圖分割;FCM算法;直方圖初始化;Lab空間
分色根據(jù)地圖顏色特征進(jìn)行地圖要素的分離,是地圖要素提取和識(shí)別的第一步也是至關(guān)重要的一步,分色算法的好壞通常決定了提取和識(shí)別成功與否。四色地形圖是地形圖中最普通的一種,顏色要素為藍(lán)、綠、棕、黑,白色為底色,不同顏色表示不同類別。KHOTANZAD A[1]提出彩色地形圖分色有以下難點(diǎn):(1)掃描儀點(diǎn)擴(kuò)散函數(shù)導(dǎo)致顏色混淆;(2)地形圖要素空間毗鄰;(3)掃描儀RGB值不匹配導(dǎo)致假彩色;(4)線性特征的交叉和覆蓋。除此之外,還有紙質(zhì)地圖本身印刷錯(cuò)誤以及油墨自身的影響。這些原因使得掃描成像后的彩色地圖會(huì)出現(xiàn)成千上萬(wàn)種不同的顏色,人眼可以模糊這些顏色中的細(xì)微差別,輕松地完成地形圖的判讀,但卻給計(jì)算機(jī)正確識(shí)別帶來(lái)很大的困難。
FCM是有較高準(zhǔn)確度的一種聚類算法[2],廣泛用于圖像分割中,但其對(duì)噪聲敏感,計(jì)算速度慢,對(duì)于含噪、數(shù)據(jù)量很大的地形圖分割有很大的局限。許多研究在FCM抗噪性上作了改進(jìn),通過(guò)引入圖像鄰域信息,參考文獻(xiàn)[3-4]分別提出了對(duì)噪聲魯棒的FCM算法:FCM_S和FCM_S1/S2。這幾種算法對(duì)噪聲魯棒,但會(huì)嚴(yán)重?fù)p失圖像的點(diǎn)、線的細(xì)節(jié),導(dǎo)致等高線粘連、斷裂和地形圖符號(hào)信息丟失,這些細(xì)節(jié)的丟失對(duì)于后期地形圖的識(shí)別非常不利。參考文獻(xiàn)[5-6]引入鄰域像素與中心像素灰度值的距離作為一個(gè)控制函數(shù),自適應(yīng)控制鄰域像素對(duì)中心像素的影響程序,能在一定程序減少分割結(jié)果的模糊,但對(duì)于點(diǎn)線細(xì)節(jié)豐富的地形圖分色,依然會(huì)出現(xiàn)等高線的斷絕裂,大量點(diǎn)狀態(tài)信息的丟失,影響分色效果。
在計(jì)算速度方面,F(xiàn)CM_S和FCM_S1/S2計(jì)算速度依賴于圖像尺寸,對(duì)于圖像尺寸很大的地形圖,計(jì)算速度很慢。為此,SZILAGY L等[7]將灰度圖投影到直方圖空間,提出了一種快速FCM(FFCM)算法,其大大減少了數(shù)據(jù)量,提高了計(jì)算速度。CAI W等[8]提出FGFCM,這是一種快速魯棒的FCM處理框架。該方法在快速計(jì)算方面繼承自FFCM,將圖像像素空間投影到直方圖空間,減少了數(shù)據(jù)量,抗噪性能上同時(shí)考慮了空間鄰域和灰度鄰域相似,相比于參考文獻(xiàn)[5-6]中的方法,F(xiàn)GFCM不僅僅考慮了鄰域像素與中心像素的灰度值得距離,而且考慮了像素空間坐標(biāo)的距離,提高了算法對(duì)噪聲的魯棒性,提高了算法對(duì)噪聲的魯棒性,同時(shí)保留了更多的圖像細(xì)節(jié)。但是該方法建立在灰度直方圖的基礎(chǔ)上,所以只適用于灰度圖像,而且沒(méi)有考慮初始值的選取,對(duì)初始值很敏感。
對(duì)于彩色地形圖,本文在FGFCM方法的基礎(chǔ)上進(jìn)行了改進(jìn),考慮到地形圖的特殊性,以四色為主。計(jì)算機(jī)存儲(chǔ)的地形圖中由于地圖繪制本身和掃描過(guò)程中帶來(lái)的色散產(chǎn)生的多種顏色與4種主色調(diào)的顏色相似,因此,將四色地形圖投影到合適的灰度空間中,保證4種主色類間距離大,類內(nèi)距離小,減少了數(shù)據(jù)量但不影響分割結(jié)果。在初始值的選取上,用直方圖峰值進(jìn)行初值選擇,避免陷入局部最優(yōu)。在聚類后,提出一種相似區(qū)域合并方式對(duì)分割后的結(jié)果進(jìn)行合并,避免了過(guò)分割。實(shí)驗(yàn)表明,該方法克服了初始值敏感問(wèn)題,而且在地形圖分割效果上更優(yōu)。
因此,在彩色地形圖b分量中,可以將圖像分為藍(lán)色水域、無(wú)色區(qū)和待分區(qū),這3類類間距離大,類內(nèi)距離?。欢謪^(qū)中包含了綠色和棕色兩種顏色要素,再獲取待分區(qū)的a分量。在a分量中,綠色和棕色分散在無(wú)色區(qū)的兩側(cè),有最大的類間距離,可以很方便地分離綠色要素和棕色要素。
2.2 區(qū)域合并
由于FGFCM沒(méi)有考慮初始值的選擇,對(duì)初始值敏感,容易陷入局部最優(yōu),本文求取投影到a分量和b分量的地形圖直方圖,對(duì)求得直方圖進(jìn)行平滑處理以減少假峰,然后用直方圖峰值初始化FGFCM算法的初始中心,能很好地避免陷入局部最優(yōu)。但很顯然這樣得到的結(jié) 果會(huì)導(dǎo)致過(guò)度分割,還需要進(jìn)一步合并處理。
由于地形圖主色調(diào)始終占大多數(shù),邊界由于掃描儀點(diǎn)散函數(shù)導(dǎo)致大量過(guò)渡色的存在,而這種過(guò)渡色在主色調(diào)中心變化,通過(guò)求取均值,可以弱化過(guò)渡色的影響。在上述分類結(jié)果的基礎(chǔ)上,對(duì)每一類取平均值,然后將均值之間距離小于某個(gè)閾值的進(jìn)行合并。
從圖1可以看出,F(xiàn)GFCM算法在灰度圖下分割,雖然對(duì)水域和植被區(qū)域分割效果比較好,但是對(duì)于棕色區(qū)和無(wú)色區(qū)域不能很好分割;FGFCM在HSV空間對(duì)H分色,對(duì)于水域和植被的分割有明顯的噪聲,而對(duì)于棕色區(qū)域和無(wú)色區(qū)域不能很好分割;本文的方法對(duì)于水域、植被和棕色的等高線區(qū)域都能準(zhǔn)確分割出。
本文改進(jìn)了FGFCM框架對(duì)初始值敏感的問(wèn)題,并且通過(guò)選用合適的顏色空間將算法推廣到了四色地形圖分割中,取得了比較好的效果。
參考文獻(xiàn)
[1] KHOTANZAD A, ZINK E. Contour line and geographic feature extraction from USGS color topographical paper maps[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2003,25(1):18-31.
[2] 馮曉蒲,張鐵峰. 四種聚類方法之比較[J]. 微型機(jī)與應(yīng)用,2010,29(16):1-3.
[3] AHMED M N, YAMANY S M, MOHAMED N, et al. A modified fuzzy c-means algorithm for bias field estimation and segmentation of MRI data[J]. IEEE Transactions on Medical Imaging, 2002,21(3):193-199.
[4] CHEN S, ZHANG D. Robust image segmentation using FCM with spatial constraints based on new kernel-induced distance measure[J].IEEE Transactions on Systems,Man, and Cybernetics,Part B:Cybernetics, 2004,34(4):1907-1916.
[5] 王媛媛.合理利用空間信息的MRI腦部圖像分割[J].微型機(jī)與應(yīng)用,2011,30(19):31-34.
[6] 王黎明.自適應(yīng)加權(quán)空間信息的FCM醫(yī)學(xué)圖像分割[J]. 微型機(jī)與應(yīng)用,2011,30(22):42-45.
[7] SZILAGYI L, BENYO Z, SZILANGYI S M, et al. MR brain image segmentation using an enhanced fuzzy c-means algorithm[C].Proceedings of the 25th Annual International Conference of the IEEE EMBS,2003,Cancun,Mexico, 2003.
[8] CAI W, CHEN S, ZHANG D. Fast and robust fuzzy c-means clustering algorithms incorporating local information for image segmentation[J]. Pattern Recognition, 2007,40(3):825-838.