基于雙流卷積神經(jīng)網(wǎng)絡(luò)和生成式對(duì)抗網(wǎng)絡(luò)的行人重識(shí)別算法 | |
所屬分類(lèi):技術(shù)論文 | |
上傳者:muyx | |
文檔大?。?span>597 K | |
標(biāo)簽: 行人重識(shí)別 卷積神經(jīng)網(wǎng)絡(luò) 生成式對(duì)抗網(wǎng)絡(luò) | |
所需積分:0分積分不夠怎么辦? | |
文檔介紹:近年來(lái),針對(duì)行人重識(shí)別問(wèn)題的深度學(xué)習(xí)技術(shù)研究取得了很大的進(jìn)展。然而,在解決實(shí)際數(shù)據(jù)的特征樣本不平衡問(wèn)題時(shí),效果仍然不理想。為了解決這一問(wèn)題,設(shè)計(jì)了一個(gè)更有效的模型,該模型很好地解決了目標(biāo)的不同姿態(tài)的干擾以及數(shù)據(jù)集中的圖片數(shù)量不足的問(wèn)題。首先,通過(guò)遷移姿態(tài)生成對(duì)抗網(wǎng)絡(luò)生成行人不同姿勢(shì)的圖片,解決姿態(tài)干擾及圖片數(shù)量不足的問(wèn)題。然后利用兩種不同的獨(dú)立卷積神經(jīng)網(wǎng)絡(luò)提取圖像特征,并將其結(jié)合得到綜合特征。最后,利用提取的特征完成行人重識(shí)別。采用姿勢(shì)轉(zhuǎn)換方法對(duì)數(shù)據(jù)集進(jìn)行擴(kuò)展,有效地克服了由目標(biāo)不同姿勢(shì)引起的識(shí)別誤差,識(shí)別錯(cuò)誤率降低了6%。實(shí)驗(yàn)結(jié)果表明,該模型在Market-1501和DukeMTMC-Reid上達(dá)到了更好的識(shí)別準(zhǔn)確度。在DukeMTMC-Reid數(shù)據(jù)集上測(cè)試時(shí),Rank-1準(zhǔn)確度增加到92.10%,mAP 達(dá)到84.60%。 | |
現(xiàn)在下載 | |
VIP會(huì)員,AET專(zhuān)家下載不扣分;重復(fù)下載不扣分,本人上傳資源不扣分。 |
Copyright ? 2005-2024 華北計(jì)算機(jī)系統(tǒng)工程研究所版權(quán)所有 京ICP備10017138號(hào)-2