基于DenseNet和深度運(yùn)動(dòng)圖的行為識(shí)別算法
所屬分類:技術(shù)論文
上傳者:zhoubin333
文檔大?。?span>4124 K
標(biāo)簽: 行為識(shí)別 深度運(yùn)動(dòng)圖像 DenseNet
所需積分:0分積分不夠怎么辦?
文檔介紹:結(jié)合深度信息以及RGB視頻序列中豐富的紋理信息,提出了一種基于DenseNet和深度運(yùn)動(dòng)圖像的人體行為識(shí)別算法。該算法基于DenseNet網(wǎng)絡(luò)結(jié)構(gòu),首先獲取彩色紋理信息和光流信息,然后從同步的深度視頻序列獲取深度信息,以增強(qiáng)特征互補(bǔ)性;再將空間流、時(shí)間流和深度流三種特征信息分別作為網(wǎng)絡(luò)的輸入;最后通過LSTMs進(jìn)行特征融合和行為分類。實(shí)驗(yàn)結(jié)果表明,在公開的動(dòng)作識(shí)別庫UTDMHAD數(shù)據(jù)集上,該算法識(shí)別準(zhǔn)確率為 92.11%,與該領(lǐng)域中的同類算法相比表現(xiàn)優(yōu)異。
現(xiàn)在下載
VIP會(huì)員,AET專家下載不扣分;重復(fù)下載不扣分,本人上傳資源不扣分。