《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > 人工智能 > 设计应用 > 基于内容引导异构双解码器的息肉图像分割
基于内容引导异构双解码器的息肉图像分割
网络安全与数据治理
王丽黎1 ,2 , 郑益聪1 , 郭东旭1 , 王振宁1
1. 西安理工大学 自动化与信息工程学院; 2. 西安市无线光通信与网络研究重点实验室
摘要: 针对结直肠图像中息肉尺寸大小不一 、边界模糊以及内窥镜图像清晰度受限等问题 , 提出了一种基于 内容引导异构双解码器的特征融合网络 (HCGFNet) 。HCGFNet 中编码器网络采用异构多路径自适应特征融合模 块 (HAF) , 通过异构多数据流更精准地捕获复杂肠道环境中隐匿的各类小型息肉与周边特征信息 。解码器网络 采用内容引导特征融合注意力机制 (CGFA) , 逐层处理解码阶段特征图中干扰信息 , 细化目标边缘分割效果并 辅助重建灰度图 。最终分别在 KvasirSEG、CVC-ClinicDB、CVC-ColonDB 息肉数据集上进行广泛对比 , 结果表 明 , 所设计的 HCGFNet 相较于目前主流模型 , 在各项性能中均有提升 。引入 HAF、CGFA 模块后 , 各项性能较 基准模型提升 2% ~5% , 较最先进模型提升 1% ~2% 。
中圖分類號 : TP391. 41 文獻(xiàn)標(biāo)志碼 : A DOI :10.19358/j.issn.2097-1788.2026.02.005
中文引用格式 : 王麗黎 , 鄭益聰 , 郭東旭 , 等. 基于內(nèi)容引導(dǎo)異構(gòu)雙解碼器的息肉圖像分割 [J]. 網(wǎng)絡(luò)安全與數(shù)據(jù)治理 , 2026 , 45
(2) : 34 -43.
英文引用格式 : Wang Lili, Zheng Yicong, Guo Dongxu, et al. Content-guided heterogeneous dual-decoder network for polyp image segmen- tation [J]. Cyber Security and Data Governance, 2026 , 45(2) : 34 -43.
Content-guided heterogeneous dual-decoder network for polyp image segmentation
Wang Lili1 ,2 , Zheng Yicong 1 , Guo Dongxu 1 , Wang Zhenning1
1. School of Automation and Information Engineering, Xi ′an University of Technology; 2. Key Laboratory of Wireless Optical Communication and Network Research
Abstract: In response to issues such as varying polyp sizes, blurred boundaries in colorectal images, and limited clarity in endoscopic images, this paper proposes a feature fusion network based on content-guided heterogeneous dual decoders (HCGFNet). In HCGFNet, the encoder net- work employs the proposed Heterogeneous Multi-path Adaptive Feature Fusion module (HAF) , which captures concealed small polyps and sur- rounding feature information in complex intestinal environments more accurately through heterogeneous multi-data streams. The decoder network utilizes the designed Content-Guided Feature Fusion Attention mechanism (CGFA) to process interfering information in feature maps during the decoding phase layer by layer, refining the segmentation of target edges and assisting in grayscale image reconstruction. Extensive comparative experiments conducted on the Kvasir-SEG, CVC-ClinicDB, and CVC-ColonDB polyp datasets demonstrate that the proposed HCGFNet outper- forms current mainstream models across various performance metrics. After incorporating the HAF and CGFA modules, performance improve- ments range from 2% to 5% compared to the baseline model and from 1% to 2% compared to state-of-the-art models.
Key words : medical image segmentation; colorectal polyps; heterogeneous multipath; feature fusion; grayscale reconstruction

引言

目前 , 結(jié)直腸癌是全球最常見的惡性腫瘤之 一 , 其發(fā)病率和死亡率也在眾多腫瘤中位居前列 。腸息肉 作為結(jié)腸癌前期主要病變因素 , 發(fā)現(xiàn)并切除可以有效 阻斷結(jié)直腸癌的發(fā)生 , 但結(jié)腸鏡檢查仍存在漏診的現(xiàn)象 , 其中以鋸齒狀病變息肉  ( Sessile Serrated Lesions with dysplasia , SSL) 為主 。由于 SSL 多數(shù)具備形狀不 規(guī)則 、邊界模糊 、尺寸微小等特點 , 需要一個自動化 系統(tǒng)輔助醫(yī)生完成息肉檢測。

傳統(tǒng)醫(yī)學(xué)圖像分割術(shù)主要包括閾值法[1] 、區(qū)域生長法[2] 、邊緣檢測法[3] 以及基于聚類[4] 的分割算法等 , 但在實際臨床診斷中 , 腸息肉常隱匿于腸道組織中 , 且表面易被粘液或糞便所覆蓋 , 提取到的淺層特征不 足以準(zhǔn)確定位息肉 。直到近年隨著深度學(xué)習(xí)技術(shù)的飛 速 發(fā) 展 , 全 卷 積 網(wǎng) 絡(luò)  ( Fully Convolutional Networks, FCN) [5] 可通過像素級別的預(yù)測來分割息肉 , 然而 , 基 于 FCN 的方法對細(xì)節(jié)特征恢復(fù)以及多尺度特征處理仍 存在不足 。 自 2015 年 , 基于編解碼器的網(wǎng)絡(luò)模型因其 卓越的性能 , 逐漸占據(jù)圖像分割領(lǐng)域的主導(dǎo)地位 , 如 U-Net[6] 、U-Net + + [7] 和 ResUNet + + [8] 等 , 但在面臨 形狀復(fù)雜 、紋理模糊的微小型 SSL 息肉時 , 上述模型 的分割性能依舊受限 。在此前提下 , 對模型的提升應(yīng) 聚焦于捕捉息肉周圍更多的上下文和語義信息 。鑒于 此 , Wang 等人[9]設(shè)計了多尺度特征融合單元 , 合并息 肉的上下文信息與邊界細(xì)節(jié) , 從而使模型能夠適應(yīng)各 種尺寸的息肉特征 ; Li 等人[10] 提出了 MSCFF-Net 模 型 , 通過多尺度注意力機(jī)制抑制了圖像背景噪聲的干 擾 ; Qin 等人[11] 提出了 FFA-Net, 通過引入空間注意力 機(jī)制生成空間重要性圖 , 該指標(biāo)能夠自適應(yīng)地區(qū)分不 同像素位置的重要級別 , 提升模型對重要特征提取能 力的同時抑制并去除干擾信息 , 但并未考慮到解碼階 段分配至每一特征層中的冗余信息 ; 為了抑制此干擾 信息 , Chen 等人[12] 提出的 DEA-Net 對編碼階段特征 進(jìn)行優(yōu)化 , 獲得更加穩(wěn)定的特征掩碼。

基于以上研究 , 為了更好地捕捉 SSL 腸息肉 , 本文提出了一種新的腸鏡息肉分割方法 , 該方法主要通過增強(qiáng)上下采樣過程中多尺度特征的捕獲能力以及對 重要特征信息的還原來提高分割精度 。本文貢獻(xiàn)如下 :

(1) 提出一種基于內(nèi)容引導(dǎo)異構(gòu)雙解碼器結(jié)構(gòu)的 多尺 度 特 征 融 合 網(wǎng) 絡(luò)  ( Hetero-path Content Guidance Feature Fusion Net, HCGFNet) , 利用自編碼器網(wǎng)絡(luò)和 注意力機(jī)制輔助模型對目標(biāo)特征信息的捕捉與恢復(fù) , 并通過跳躍連接充分融合低級空間信息與高級語義 空間。

(2) 提出一種異構(gòu)多路徑自適應(yīng)特征融合模塊 (Hetero-path Adaptive Feature Fusion, HAF) , 利用多路 并聯(lián)的結(jié)構(gòu)與注意力機(jī)制來精確提取息肉附近上下文 特征信息 , 從而區(qū)分腸息肉與腸內(nèi)壁。

(3) 提出一種內(nèi)容引導(dǎo)特征融合注意力機(jī)制 (Content-Guided Feature Fusion Attention, CGFA) , 對每一條通道分配獨一無二的重要性權(quán)重系數(shù) , 實現(xiàn)對重 要特征信息的引導(dǎo)。

在實驗中添加各個模塊后 , 均大幅提升了息肉邊界的分割精度 。在Kvasir-SEG、CVC-ClinicDB、CVC- ColonDB三個數(shù)據(jù)集中均取得了良好的效果。


本文詳細(xì)內(nèi)容請下載:

http://ihrv.cn/resource/share/2000006987


作者信息:

王麗黎1 ,2 , 鄭益聰1 , 郭東旭1 , 王振寧1

(1. 西安理工大學(xué)  自動化與信息工程學(xué)院 , 陜西 西安 710048 ;

2. 西安市無線光通信與網(wǎng)絡(luò)研究重點實驗室 , 陜西 西安 710048)

2.jpg

此內(nèi)容為AET網(wǎng)站原創(chuàng),未經(jīng)授權(quán)禁止轉(zhuǎn)載。