《電子技術(shù)應(yīng)用》
您所在的位置:首頁(yè) > 测试测量 > 设计应用 > 基于YOLO改进残差网络结构的车辆检测方法
基于YOLO改进残差网络结构的车辆检测方法
2020年信息技术与网络安全第9期
胡臣辰,陈贤富
中国科学技术大学 微电子学院,安徽 合肥230027
摘要: 针对车辆检测任务,设计更高效、精确的网络模型是行业研究的热点,深层网络模型具有比浅层网络模型更好的特征提取能力,但构建深层网络模型时将导致梯度消失、模型过拟合等问题,应用残差网络结构可以缓解此类问题。基于YOLO算法,改进残差网络结构,加深网络层数,设计了一种含有68个卷积层的卷积神经网络模型,同时对输入图像进行预处理,保证目标在图像上不变形失真,最后在自定义的车辆数据集上对模型进行训练与测试,并将实验结果与YOLOV3模型进行对比,实验表明,本文设计的模型检测精准度(AP)达90.63%,较YOLOV3提高了4.6%。
中圖分類號(hào): TP393
文獻(xiàn)標(biāo)識(shí)碼: A
DOI: 10.19358/j.issn.2096-5133.2020.09.011
引用格式: 胡臣辰,陳賢富. 基于YOLO改進(jìn)殘差網(wǎng)絡(luò)結(jié)構(gòu)的車輛檢測(cè)方法[J].信息技術(shù)與網(wǎng)絡(luò)安全,2020,39(9):56-60.
Vehicle detection method based on improved residual network structure of based on YOLO
Hu Chenchen,Chen Xianfu
Institute of Microelectronics,University of Science and Technology of China,Hefei 230027,China
Abstract: For vehicle detection task, the design of more efficient and accurate network model is a hot research. Deep network model has better feature extraction capabilities than shallow network model, but will cause the gradient to disappear and the model to overfit and other problems. Application of residual network structure can alleviate such problems. Based on the YOLO algorithm, this paper improves the residual network structure and deepens the number of network layers. A convolutional neural network model with 68 convolutional layers is designed. At the same time, the input image is preprocessed to ensure that the target is not deformed or distorted on the image. Finally, the model is trained and tested on a custom vehicle data set, and the experimental results are compared with the YOLOV3 model. The experiment shows that the model detection accuracy(AP) designed in this paper reaches 90.63%, which is 4.6% higher than YOLOV3.
Key words : object detection;YOLO;residual network;deep learning

0 引言

    車輛是目標(biāo)檢測(cè)任務(wù)中的重要對(duì)象之一,在自動(dòng)駕駛、目標(biāo)追蹤等領(lǐng)域有著十分重要的應(yīng)用。以梯度方向直方圖(Histogram of Oriented Gradient,HOG)和支持向量機(jī)(Support Vector Machine,SVM)結(jié)合的傳統(tǒng)目標(biāo)檢測(cè)算法先計(jì)算候選框內(nèi)圖像梯度的方向信息統(tǒng)計(jì)值,再通過正負(fù)樣本訓(xùn)練SVM,使用傳統(tǒng)方法受限于候選框提取效率、HOG特征尺度魯棒性,在實(shí)時(shí)性以及遮擋目標(biāo)檢測(cè)等諸多方面有著明顯缺陷[1]。近年來,基于深度學(xué)習(xí)的目標(biāo)檢測(cè)方法以強(qiáng)特征提取能力、高檢測(cè)率取得了驚人的成果。近年來深度學(xué)習(xí)網(wǎng)絡(luò)在計(jì)算機(jī)視覺上因AlexNet在2012年的ImageNet大賽中大放異彩而進(jìn)入飛速發(fā)展。2014年VGGNet在追求深層網(wǎng)絡(luò)的性能時(shí),發(fā)現(xiàn)增加網(wǎng)絡(luò)的深度會(huì)提高性能,但是與此同時(shí)帶來的梯度消失問題不可避免。2015年ResNet網(wǎng)絡(luò)較好地解決了這個(gè)問題,深層殘差網(wǎng)絡(luò)可以減少模型收斂時(shí)間、改善尋優(yōu)過程,但應(yīng)用尺度大的卷積核的同時(shí)增加了網(wǎng)絡(luò)模型的參數(shù)量與計(jì)算量,降低了模型的訓(xùn)練與檢測(cè)速度[2]。

    計(jì)算機(jī)視覺中的目標(biāo)檢測(cè)任務(wù)關(guān)注圖像中特定目標(biāo)的位置信息,現(xiàn)有方法分為two-stage和one-stage兩類。two-stage方法先產(chǎn)生包含目標(biāo)的候選框,再通過卷積神經(jīng)網(wǎng)絡(luò)對(duì)目標(biāo)進(jìn)行分類,常見的方法有RCNN、Fast-RCNN、Faster-RCNN。one-stage方法直接使用一個(gè)卷積網(wǎng)絡(luò)對(duì)給定輸入圖像給出檢測(cè)結(jié)果,以YOLO為代表的one-stage目標(biāo)檢測(cè)方法在檢測(cè)時(shí),將候選框的生成與目標(biāo)的分類回歸合并成一步,基于YOLO的檢測(cè)算法大大提高了檢測(cè)速度,但檢測(cè)精度仍有待提高[3]。本文選擇在基于YOLO方法的基礎(chǔ)上改進(jìn)主干網(wǎng)絡(luò)的殘差網(wǎng)絡(luò)結(jié)構(gòu),設(shè)計(jì)了一種新的網(wǎng)絡(luò)模型,經(jīng)實(shí)驗(yàn)表明提高了檢測(cè)準(zhǔn)確率。




本文詳細(xì)內(nèi)容請(qǐng)下載:http://ihrv.cn/resource/share/2000003099




作者信息:

胡臣辰,陳賢富

(中國(guó)科學(xué)技術(shù)大學(xué) 微電子學(xué)院,安徽 合肥230027)

此內(nèi)容為AET網(wǎng)站原創(chuàng),未經(jīng)授權(quán)禁止轉(zhuǎn)載。