《電子技術(shù)應(yīng)用》
您所在的位置:首頁(yè) > 人工智能 > 業(yè)界動(dòng)態(tài) > 基于混合注意力機(jī)制的表情識(shí)別研究

基于混合注意力機(jī)制的表情識(shí)別研究

2020-12-15
作者:高健,林志賢,郭太良
來(lái)源:2020年信息技術(shù)與網(wǎng)絡(luò)安全第1期

0     引言

  人臉表情識(shí)別作為人機(jī)交互的重要組成部分,一直是計(jì)算機(jī)視覺(jué)的研究熱點(diǎn),被廣泛應(yīng)用于公共安全、在線教育、醫(yī)療等領(lǐng)域。目前,表情識(shí)別的研究工作主要分為傳統(tǒng)的人工特征提取和基于深度學(xué)習(xí)兩個(gè)方向。人工特征常被用于提取圖像的外觀特征,包括Gabor、HOG以及局部二進(jìn)制LBP等。但由于人工特征受限于算法的設(shè)計(jì),計(jì)算復(fù)雜,在表情識(shí)別中效果不佳,正逐漸被基于深度學(xué)習(xí)的卷積神經(jīng)網(wǎng)絡(luò)所取代。

  利用深度學(xué)習(xí)進(jìn)行圖像識(shí)別任務(wù)時(shí),通常選擇增加卷積神經(jīng)網(wǎng)絡(luò)的深度、寬度以及豐富網(wǎng)絡(luò)感受野的方式來(lái)提升網(wǎng)絡(luò)性能和容量。而在網(wǎng)絡(luò)中引入注意力機(jī)制相比以上三種方式可以使網(wǎng)絡(luò)重點(diǎn)關(guān)注圖像細(xì)節(jié)特征,將原先的平均分配資源變成根據(jù)關(guān)注對(duì)象的重要程度進(jìn)行重新分配,對(duì)模型中不同部分賦予權(quán)重,從中提取關(guān)鍵特征信息。文獻(xiàn)[4]提出SENet網(wǎng)絡(luò)結(jié)構(gòu),采用壓縮和激勵(lì)模塊(SqueezeandExcitation block,SE),對(duì)重要通道特征進(jìn)行強(qiáng)化從而提升識(shí)別率。文獻(xiàn)[5]提出瓶頸注意力模塊,可與任何前向傳播神經(jīng)網(wǎng)絡(luò)結(jié)合。文獻(xiàn)[6]提出一種卷積注意力模塊(Convolutional Block Attention Module,CBAM),結(jié)合了空間注意力和通道注意力,相比SENet[4]只包含通道注意力識(shí)別效果更佳。



本文詳細(xì)內(nèi)容請(qǐng)下載:http://ihrv.cn/resource/share/2000003115





作者信息:

高健,林志賢,郭太良

(福州大學(xué) 物理與信息工程學(xué)院,福建 福州 350116)


本站內(nèi)容除特別聲明的原創(chuàng)文章之外,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,并不代表本網(wǎng)站贊同其觀點(diǎn)。轉(zhuǎn)載的所有的文章、圖片、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無(wú)法一一聯(lián)系確認(rèn)版權(quán)者。如涉及作品內(nèi)容、版權(quán)和其它問(wèn)題,請(qǐng)及時(shí)通過(guò)電子郵件或電話通知我們,以便迅速采取適當(dāng)措施,避免給雙方造成不必要的經(jīng)濟(jì)損失。聯(lián)系電話:010-82306118;郵箱:aet@chinaaet.com。