中文引用格式 : 王麗黎 , 鄭益聰 , 郭東旭 , 等. 基于內(nèi)容引導(dǎo)異構(gòu)雙解碼器的息肉圖像分割 [J]. 網(wǎng)絡(luò)安全與數(shù)據(jù)治理 , 2026 , 45
(2) : 34 -43.
英文引用格式 : Wang Lili, Zheng Yicong, Guo Dongxu, et al. Content-guided heterogeneous dual-decoder network for polyp image segmen- tation [J]. Cyber Security and Data Governance, 2026 , 45(2) : 34 -43.
引言
目前 , 結(jié)直腸癌是全球最常見的惡性腫瘤之 一 , 其發(fā)病率和死亡率也在眾多腫瘤中位居前列 。腸息肉 作為結(jié)腸癌前期主要病變因素 , 發(fā)現(xiàn)并切除可以有效 阻斷結(jié)直腸癌的發(fā)生 , 但結(jié)腸鏡檢查仍存在漏診的現(xiàn)象 , 其中以鋸齒狀病變息肉 ( Sessile Serrated Lesions with dysplasia , SSL) 為主 。由于 SSL 多數(shù)具備形狀不 規(guī)則 、邊界模糊 、尺寸微小等特點 , 需要一個自動化 系統(tǒng)輔助醫(yī)生完成息肉檢測。
傳統(tǒng)醫(yī)學(xué)圖像分割術(shù)主要包括閾值法[1] 、區(qū)域生長法[2] 、邊緣檢測法[3] 以及基于聚類[4] 的分割算法等 , 但在實際臨床診斷中 , 腸息肉常隱匿于腸道組織中 , 且表面易被粘液或糞便所覆蓋 , 提取到的淺層特征不 足以準(zhǔn)確定位息肉 。直到近年隨著深度學(xué)習(xí)技術(shù)的飛 速 發(fā) 展 , 全 卷 積 網(wǎng) 絡(luò) ( Fully Convolutional Networks, FCN) [5] 可通過像素級別的預(yù)測來分割息肉 , 然而 , 基 于 FCN 的方法對細(xì)節(jié)特征恢復(fù)以及多尺度特征處理仍 存在不足 。 自 2015 年 , 基于編解碼器的網(wǎng)絡(luò)模型因其 卓越的性能 , 逐漸占據(jù)圖像分割領(lǐng)域的主導(dǎo)地位 , 如 U-Net[6] 、U-Net + + [7] 和 ResUNet + + [8] 等 , 但在面臨 形狀復(fù)雜 、紋理模糊的微小型 SSL 息肉時 , 上述模型 的分割性能依舊受限 。在此前提下 , 對模型的提升應(yīng) 聚焦于捕捉息肉周圍更多的上下文和語義信息 。鑒于 此 , Wang 等人[9]設(shè)計了多尺度特征融合單元 , 合并息 肉的上下文信息與邊界細(xì)節(jié) , 從而使模型能夠適應(yīng)各 種尺寸的息肉特征 ; Li 等人[10] 提出了 MSCFF-Net 模 型 , 通過多尺度注意力機(jī)制抑制了圖像背景噪聲的干 擾 ; Qin 等人[11] 提出了 FFA-Net, 通過引入空間注意力 機(jī)制生成空間重要性圖 , 該指標(biāo)能夠自適應(yīng)地區(qū)分不 同像素位置的重要級別 , 提升模型對重要特征提取能 力的同時抑制并去除干擾信息 , 但并未考慮到解碼階 段分配至每一特征層中的冗余信息 ; 為了抑制此干擾 信息 , Chen 等人[12] 提出的 DEA-Net 對編碼階段特征 進(jìn)行優(yōu)化 , 獲得更加穩(wěn)定的特征掩碼。
基于以上研究 , 為了更好地捕捉 SSL 腸息肉 , 本文提出了一種新的腸鏡息肉分割方法 , 該方法主要通過增強(qiáng)上下采樣過程中多尺度特征的捕獲能力以及對 重要特征信息的還原來提高分割精度 。本文貢獻(xiàn)如下 :
(1) 提出一種基于內(nèi)容引導(dǎo)異構(gòu)雙解碼器結(jié)構(gòu)的 多尺 度 特 征 融 合 網(wǎng) 絡(luò) ( Hetero-path Content Guidance Feature Fusion Net, HCGFNet) , 利用自編碼器網(wǎng)絡(luò)和 注意力機(jī)制輔助模型對目標(biāo)特征信息的捕捉與恢復(fù) , 并通過跳躍連接充分融合低級空間信息與高級語義 空間。
(2) 提出一種異構(gòu)多路徑自適應(yīng)特征融合模塊 (Hetero-path Adaptive Feature Fusion, HAF) , 利用多路 并聯(lián)的結(jié)構(gòu)與注意力機(jī)制來精確提取息肉附近上下文 特征信息 , 從而區(qū)分腸息肉與腸內(nèi)壁。
(3) 提出一種內(nèi)容引導(dǎo)特征融合注意力機(jī)制 (Content-Guided Feature Fusion Attention, CGFA) , 對每一條通道分配獨一無二的重要性權(quán)重系數(shù) , 實現(xiàn)對重 要特征信息的引導(dǎo)。
在實驗中添加各個模塊后 , 均大幅提升了息肉邊界的分割精度 。在Kvasir-SEG、CVC-ClinicDB、CVC- ColonDB三個數(shù)據(jù)集中均取得了良好的效果。
本文詳細(xì)內(nèi)容請下載:
http://ihrv.cn/resource/share/2000006987
作者信息:
王麗黎1 ,2 , 鄭益聰1 , 郭東旭1 , 王振寧1
(1. 西安理工大學(xué) 自動化與信息工程學(xué)院 , 陜西 西安 710048 ;
2. 西安市無線光通信與網(wǎng)絡(luò)研究重點實驗室 , 陜西 西安 710048)

