最新設(shè)計(jì)資源

基于Darknet23和特征融合的交通標(biāo)志檢測(cè)方法[測(cè)試測(cè)量][智能交通]

道路交通標(biāo)志檢測(cè)是智能交通的重要環(huán)節(jié)之一,針對(duì)交通標(biāo)志檢測(cè)存在背景復(fù)雜、目標(biāo)較小、檢測(cè)速度慢等問(wèn)題,選取工業(yè)界青睞的YOLOv3模型提出一種改進(jìn)的檢測(cè)方法。利用雙向特征金字塔結(jié)構(gòu)實(shí)現(xiàn)圖像低、中、高層特征語(yǔ)意信息的雙向融合,提升低層預(yù)測(cè)目標(biāo)的分類(lèi)和高層預(yù)測(cè)目標(biāo)的定位能力;將原模型的主干特征提取網(wǎng)絡(luò)進(jìn)行改進(jìn),提出Darknet23網(wǎng)絡(luò),以提高網(wǎng)絡(luò)的提取能力和減少計(jì)算量;根據(jù)目標(biāo)形狀的特點(diǎn),使用K-means聚類(lèi)算法得到用于訓(xùn)練合適的錨點(diǎn)框,并在邊框回歸中引入靈活性更強(qiáng)的L_(α-CIOU)損失函數(shù),使網(wǎng)絡(luò)朝著預(yù)測(cè)框與真實(shí)框重疊度較高的方向去優(yōu)化。實(shí)驗(yàn)結(jié)果表明,該方法在CCTSDB數(shù)據(jù)集上mAP@0.75達(dá)到86.10%、mAP@0.5:0.05:0.95達(dá)到70.017%,相比原網(wǎng)絡(luò)分別提升10.17%和5.656%,參數(shù)量減少3 622 091,速度提升8.27 f/s,且優(yōu)于SSD和Faster RCNN等主流的檢測(cè)網(wǎng)絡(luò)。

發(fā)表于:1/13/2023

基于BERT-CNN的新聞文本分類(lèi)的知識(shí)蒸餾方法研究[通信與網(wǎng)絡(luò)][數(shù)據(jù)中心]

近年來(lái),隨著大數(shù)據(jù)時(shí)代進(jìn)入人類(lèi)的生活之后,人們的生活中出現(xiàn)很多無(wú)法識(shí)別的文本、語(yǔ)義等其他數(shù)據(jù),這些數(shù)據(jù)的量十分龐大,語(yǔ)義也錯(cuò)綜復(fù)雜,這使得分類(lèi)任務(wù)更加困難。如何讓計(jì)算機(jī)對(duì)這些信息進(jìn)行準(zhǔn)確的分類(lèi),已成為當(dāng)前研究的重要任務(wù)。在此過(guò)程中,中文新聞文本分類(lèi)成為這個(gè)領(lǐng)域的一個(gè)分支,這對(duì)國(guó)家輿論的控制、用戶(hù)日常行為了解、用戶(hù)未來(lái)言行的預(yù)判都有著至關(guān)重要的作用。針對(duì)新聞文本分類(lèi)模型參數(shù)量多和訓(xùn)練時(shí)間過(guò)長(zhǎng)的不足,在最大限度保留模型性能的情況下壓縮訓(xùn)練時(shí)間,力求二者折中,故提出基于BERT-CNN的知識(shí)蒸餾。根據(jù)模型壓縮的技術(shù)特點(diǎn),將BERT作為教師模型,CNN作為學(xué)生模型,先將BERT進(jìn)行預(yù)訓(xùn)練后再讓學(xué)生模型泛化教師模型的能力。實(shí)驗(yàn)結(jié)果表明,在模型性能損失約2.09%的情況下,模型參數(shù)量壓縮約為原來(lái)的1/82,且時(shí)間縮短約為原來(lái)的1/670。

發(fā)表于:1/13/2023