0 引言
人臉表情識(shí)別作為人機(jī)交互的重要組成部分,一直是計(jì)算機(jī)視覺(jué)的研究熱點(diǎn),被廣泛應(yīng)用于公共安全、在線教育、醫(yī)療等領(lǐng)域。目前,表情識(shí)別的研究工作主要分為傳統(tǒng)的人工特征提取和基于深度學(xué)習(xí)兩個(gè)方向。人工特征常被用于提取圖像的外觀特征,包括Gabor、HOG以及局部二進(jìn)制LBP等。但由于人工特征受限于算法的設(shè)計(jì),計(jì)算復(fù)雜,在表情識(shí)別中效果不佳,正逐漸被基于深度學(xué)習(xí)的卷積神經(jīng)網(wǎng)絡(luò)所取代。
利用深度學(xué)習(xí)進(jìn)行圖像識(shí)別任務(wù)時(shí),通常選擇增加卷積神經(jīng)網(wǎng)絡(luò)的深度、寬度以及豐富網(wǎng)絡(luò)感受野的方式來(lái)提升網(wǎng)絡(luò)性能和容量。而在網(wǎng)絡(luò)中引入注意力機(jī)制相比以上三種方式可以使網(wǎng)絡(luò)重點(diǎn)關(guān)注圖像細(xì)節(jié)特征,將原先的平均分配資源變成根據(jù)關(guān)注對(duì)象的重要程度進(jìn)行重新分配,對(duì)模型中不同部分賦予權(quán)重,從中提取關(guān)鍵特征信息。文獻(xiàn)[4]提出SENet網(wǎng)絡(luò)結(jié)構(gòu),采用壓縮和激勵(lì)模塊(SqueezeandExcitation block,SE),對(duì)重要通道特征進(jìn)行強(qiáng)化從而提升識(shí)別率。文獻(xiàn)[5]提出瓶頸注意力模塊,可與任何前向傳播神經(jīng)網(wǎng)絡(luò)結(jié)合。文獻(xiàn)[6]提出一種卷積注意力模塊(Convolutional Block Attention Module,CBAM),結(jié)合了空間注意力和通道注意力,相比SENet[4]只包含通道注意力識(shí)別效果更佳。
本文詳細(xì)內(nèi)容請(qǐng)下載:http://ihrv.cn/resource/share/2000003115
作者信息:
高健,林志賢,郭太良
(福州大學(xué) 物理與信息工程學(xué)院,福建 福州 350116)