《電子技術(shù)應(yīng)用》
您所在的位置:首頁(yè) > 其他 > 設(shè)計(jì)應(yīng)用 > 基于深度注意力的融合全局和語(yǔ)義特征的圖像描述模型
基于深度注意力的融合全局和語(yǔ)義特征的圖像描述模型
網(wǎng)絡(luò)安全與數(shù)據(jù)治理
及昕浩,彭玉青
(河北工業(yè)大學(xué)人工智能與數(shù)據(jù)科學(xué)學(xué)院,天津300401)
摘要: 現(xiàn)有的圖像描述模型使用全局特征時(shí)受限于感受野大小相同,而基于對(duì)象區(qū)域的圖像特征缺少背景信息。為此,提出了一種新的語(yǔ)義提取模塊提取圖像中的語(yǔ)義特征,使用多特征融合模塊將全局特征與語(yǔ)義特征進(jìn)行融合,使得模型同時(shí)關(guān)注圖像的關(guān)鍵對(duì)象內(nèi)容信息和背景信息。并提出基于深度注意力的解碼模塊,對(duì)齊視覺(jué)和文本特征以生成更高質(zhì)量的圖像描述語(yǔ)句。所提模型在Microsoft COCO數(shù)據(jù)集上進(jìn)行了實(shí)驗(yàn)評(píng)估,分析結(jié)果表明該方法能夠明顯提升描述的性能,相較于其他先進(jìn)模型具有競(jìng)爭(zhēng)力。
中圖分類(lèi)號(hào):TP391文獻(xiàn)標(biāo)識(shí)碼:ADOI: 10.19358/j.issn.2097-1788.2024.02.008
引用格式:及昕浩,彭玉青.基于深度注意力的融合全局和語(yǔ)義特征的圖像描述模型[J].網(wǎng)絡(luò)安全與數(shù)據(jù)治理,2024,43(2):49-53.
Deep attention based image caption model with fusion of global and semantic feature
Ji Xinhao,Peng Yuqing
(School of Artificial Intelligence, Hebei University of Technology, Tianjin 300401,China)
Abstract: Aiming at the problems that existing image caption generation models face limitations when utilizing global features due to the fixed receptive field size, and object region based image features lack background information, an image caption model(DFGS) is proposed. A multifeature fusion module is designed to fuse global and semantic feature, allowing the model to focus on key object and background information in the image. A deep attentionbased decoding module is designed to align visual and textual features, enhancing the generation of higher quality image description statements. Experimental results on MSCOCO dataset show that the proposed model can produce more accurate captions, and is competitive compared with other advanced models.
Key words : image caption; global feature; semantic feature; feature fusion

引言

圖像描述[1-2]是一種使用自然語(yǔ)言描述圖像內(nèi)容的任務(wù),是一項(xiàng)涉及計(jì)算機(jī)視覺(jué)領(lǐng)域和自然語(yǔ)言處理領(lǐng)域的跨領(lǐng)域研究?jī)?nèi)容。目前大多數(shù)方法使用卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN)編碼圖像以提取圖像特征,然后使用Transformer網(wǎng)絡(luò)結(jié)構(gòu)來(lái)解析圖像特征并生成描述語(yǔ)句。Pan等人[3]提出了XLinear注意力塊來(lái)捕獲單或多模態(tài)之間的二階相互作用,并將其集成到Transformer編碼器和解碼器中。Cornia等人[4]在Transformer編碼器和解碼器中設(shè)計(jì)了類(lèi)似網(wǎng)格的連接,以利用編碼器的低級(jí)和高級(jí)特征。多數(shù)研究者針對(duì)Transformer網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行改進(jìn),沒(méi)有關(guān)注CNN提取到的圖像特征其對(duì)應(yīng)的感受野是均勻的網(wǎng)格,難以明顯地關(guān)注圖像中對(duì)象內(nèi)容信息的問(wèn)題。此外Transformer模型中的注意力機(jī)制僅僅是隱式地計(jì)算單個(gè)區(qū)域和其他區(qū)域的相似性,無(wú)法捕捉長(zhǎng)距離的關(guān)系。


作者信息:

及昕浩,彭玉青

(河北工業(yè)大學(xué)人工智能與數(shù)據(jù)科學(xué)學(xué)院,天津300401)


文章下載地址:http://ihrv.cn/resource/share/2000005902


weidian.jpg

此內(nèi)容為AET網(wǎng)站原創(chuàng),未經(jīng)授權(quán)禁止轉(zhuǎn)載。