文獻(xiàn)標(biāo)志碼:A
DOI: 10.16157/j.issn.0258-7998.222900
中文引用格式: 杜婷婷,鐘國韻,江金懋,等. 基于Darknet23和特征融合的交通標(biāo)志檢測方法[J]. 電子技術(shù)應(yīng)用,2023,49(1):14-19.
英文引用格式: Du Tingting,Zhong Guoyun,Jiang Jinmao,et al. Traffic sign′s detection method based on Darknet23 and feature fusion[J]. Application of Electronic Technique,2023,49(1):14-19.
0 引言
隨著全球汽車數(shù)量的逐漸增加,智能交通系統(tǒng)(Intelligent Traffic System,ITS)迎來了新的發(fā)展機遇。交通標(biāo)志檢測與識別技術(shù)作為在ITS中的一種關(guān)鍵技術(shù)應(yīng)用,它可以輔助駕駛員準(zhǔn)確、高效地識別道路交通標(biāo)志,有效減輕駕駛疲勞,從而保障安全駕駛。因此,在真實路況下準(zhǔn)確并及時地檢測出交通標(biāo)志,對無人駕駛、高級輔助駕駛系統(tǒng)具有重要的現(xiàn)實意義。而在駕駛過程中,獲取的交通標(biāo)志圖像存在背景復(fù)雜、目標(biāo)小和光照天氣變化等問題,導(dǎo)致交通標(biāo)志的誤檢或漏檢。
針對上述問題,近年來相關(guān)專家學(xué)者提出了許多不同的檢測方法,主要可以分為兩類:傳統(tǒng)交通標(biāo)志檢測方法和基于深度學(xué)習(xí)的交通標(biāo)志檢測方法。傳統(tǒng)的檢測方法分為基于顏色空間[1]、基于形狀特征[2]和基于多特征融合[3],這3類方法往往面臨諸如遮擋、褪色和環(huán)境等各種因素的影響而造成檢測精度下降的問題。在這些方法的基礎(chǔ)上,相關(guān)研究人員進行了深入的研究和優(yōu)化,提出了基于深度學(xué)習(xí)的檢測方法,分為基于錨框和不基于錨框兩種。目前主流的算法基于錨框的,具體分為兩階段(Two-Stage)和單階段(One-Stage)兩種。前者的典型代表是Zuo Z[4]提出的Faster RCNN和徐國整[5]提出的改進Cascade R-CNN方法,這類算法首先在特征層上通過區(qū)域生成網(wǎng)絡(luò)(Region Proposal Network,RPN)提取可能存在交通標(biāo)志的預(yù)選框,再用對其進行檢測,雖然可以大幅度提高檢測精度,但由于計算量過大,檢測速度較慢;后者的典型代表有Redmon J[6-8] 提出的YOLO系列和孫超[9]提出的改進SSD方法,此類方法是直接對輸入圖像做回歸任務(wù),得到目標(biāo)框的左上角、右下角坐標(biāo)和類別信息,在輸出層上一次性完成預(yù)測,雖然檢測速快,適合做實時檢測任務(wù),但因為中間不需要額外的映襯,在檢測精度上會略有欠缺。張建民[10]等提出了融合注意力機制的Cascaded R-CNN算法,在CCTSDB數(shù)據(jù)集上mAP@0.5達(dá)到99.7%,但模型的平均檢測速度僅為7.6 f/s;鮑敬源[11]等提出了Strong Tiny-YOLOv3算法,雖然在速度上達(dá)到33.78 f/s,但在mAP@0.5上只有85.56%。因此,本文提出一種兼檢測精度高和速度快的交通標(biāo)志檢測方法。
本文詳細(xì)內(nèi)容請下載:http://ihrv.cn/resource/share/2000005069。
作者信息:
杜婷婷,鐘國韻,江金懋,任維民
(東華理工大學(xué) 信息工程學(xué)院,江西 南昌 330013)