文獻(xiàn)標(biāo)識(shí)碼: A
DOI: 10.19358/j.issn.2096-5133.2021.11.005
引用格式: 梁廣. 基于歐氏距離解纏的多角度跨庫人臉表情識(shí)別[J].信息技術(shù)與網(wǎng)絡(luò)安全,2021,40(11):29-36.
0 引言
如今,人臉表情識(shí)別相關(guān)研究的熱度逐漸上升。相應(yīng)的技術(shù)也應(yīng)用于教育質(zhì)量評(píng)估、刑事審訊等多個(gè)領(lǐng)域。然而,當(dāng)前的很多研究主要關(guān)注于相同數(shù)據(jù)庫上的人臉表情識(shí)別,即訓(xùn)練樣本和測試樣本都來自于同一個(gè)數(shù)據(jù)庫。由于不同表情數(shù)據(jù)庫在人種、背景和光照等存在差異,表情識(shí)別的效果受到很大的影響[1]。同時(shí),人臉圖片也包含多個(gè)不同姿勢,不同姿勢之間的差異也導(dǎo)致了表情識(shí)別準(zhǔn)確率的下降。研究者當(dāng)前也在研究降低數(shù)據(jù)庫和姿勢所帶來影響的方法。
由于姿勢的差異對(duì)表情識(shí)別有明顯的影響,研究人員提出了三大類方法來消除表情識(shí)別中的姿態(tài)差異:姿勢規(guī)范化方法[2];單分類器方法[3-4];姿勢魯棒的特征方法[5-8]。由于正臉的表情識(shí)別準(zhǔn)確率高于側(cè)臉,研究者使用姿勢規(guī)范化的方法將側(cè)臉圖像轉(zhuǎn)換成正臉圖像來進(jìn)行識(shí)別表情。然而,用來測試的目標(biāo)數(shù)據(jù)庫通常缺失同一個(gè)人的正-側(cè)臉數(shù)據(jù)對(duì)。這也導(dǎo)致了側(cè)臉圖像在通過生成式對(duì)抗網(wǎng)絡(luò)[9](Generative Adversarial Networks,GAN)生成正臉的過程中存在失真,影響表情識(shí)別效果。對(duì)于單分類器方法,研究者使用單個(gè)分類器來識(shí)別多種姿勢下的表情。這種方法需要大量不同姿勢的圖像來訓(xùn)練單一分類器,而現(xiàn)實(shí)中很難得到足夠多的多角度圖像。而姿勢魯棒的特征方法嘗試訓(xùn)練一個(gè)編碼器來生成對(duì)姿勢差異魯棒的表情特征。這種方法在特征層面降低了表情特征中的姿勢噪聲,同時(shí)不需要大量的目標(biāo)數(shù)據(jù)庫樣本,也無需生成偽樣本。因此本模型選擇了姿勢魯棒的特征方法來降低姿勢差異。
本文詳細(xì)內(nèi)容請(qǐng)下載:http://ihrv.cn/resource/share/2000003845
作者信息:
梁 廣
(中國科學(xué)技術(shù)大學(xué) 網(wǎng)絡(luò)空間安全學(xué)院,安徽 合肥230026)