基于DenseNet和深度運(yùn)動(dòng)圖的行為識(shí)別算法 | |
所屬分類:技術(shù)論文 | |
上傳者:zhoubin333 | |
文檔大?。?span>4124 K | |
標(biāo)簽: 行為識(shí)別 深度運(yùn)動(dòng)圖像 DenseNet | |
所需積分:0分積分不夠怎么辦? | |
文檔介紹:結(jié)合深度信息以及RGB視頻序列中豐富的紋理信息,提出了一種基于DenseNet和深度運(yùn)動(dòng)圖像的人體行為識(shí)別算法。該算法基于DenseNet網(wǎng)絡(luò)結(jié)構(gòu),首先獲取彩色紋理信息和光流信息,然后從同步的深度視頻序列獲取深度信息,以增強(qiáng)特征互補(bǔ)性;再將空間流、時(shí)間流和深度流三種特征信息分別作為網(wǎng)絡(luò)的輸入;最后通過LSTMs進(jìn)行特征融合和行為分類。實(shí)驗(yàn)結(jié)果表明,在公開的動(dòng)作識(shí)別庫UTDMHAD數(shù)據(jù)集上,該算法識(shí)別準(zhǔn)確率為 92.11%,與該領(lǐng)域中的同類算法相比表現(xiàn)優(yōu)異。 | |
現(xiàn)在下載 | |
VIP會(huì)員,AET專家下載不扣分;重復(fù)下載不扣分,本人上傳資源不扣分。 |
Copyright ? 2005-2024 華北計(jì)算機(jī)系統(tǒng)工程研究所版權(quán)所有 京ICP備10017138號(hào)-2