《電子技術(shù)應(yīng)用》
您所在的位置:首頁(yè) > 其他 > 設(shè)計(jì)應(yīng)用 > 空基下視多角度紅外目標(biāo)識(shí)別
空基下視多角度紅外目標(biāo)識(shí)別
2022年電子技術(shù)應(yīng)用第7期
劉 彤1,2,3,楊德振1,4,宋嘉樂(lè)1,2,3,傅瑞罡3,何佳凱1
1.華北光電技術(shù)研究所 機(jī)載探測(cè)中心,北京100015;2.中國(guó)電子科技集團(tuán)公司電子科學(xué)研究院,北京100015; 3.國(guó)防科技大學(xué) 電子科學(xué)學(xué)院ATR重點(diǎn)實(shí)驗(yàn)室,湖南 長(zhǎng)沙410073; 4.北京真空電子技術(shù)研究所 微波電真空器件國(guó)家重點(diǎn)實(shí)驗(yàn)室,北京100015
摘要: 為實(shí)現(xiàn)空基下視紅外目標(biāo)的快速高精度識(shí)別,提出了一種單階段的空基下視多角度紅外目標(biāo)識(shí)別算法。首先使用Darknet-53結(jié)合SPP模塊對(duì)紅外目標(biāo)進(jìn)行特征提取,使局部特征與全局特征融合,提高特征圖表達(dá)能力,最后借鑒RetinaNet中的Focal loss鎖定目標(biāo)的檢測(cè)框,同時(shí)得出目標(biāo)類(lèi)型及檢測(cè)精度。針對(duì)現(xiàn)有數(shù)據(jù)集多為平視,且視角單一的缺陷,使用復(fù)合翼無(wú)人機(jī)分別從不同高度和角度采集紅外圖像,構(gòu)建多尺度下視紅外目標(biāo)數(shù)據(jù)集,在PyTorch架構(gòu)上實(shí)現(xiàn)并進(jìn)行性能驗(yàn)證實(shí)驗(yàn),所提算法對(duì)分辨率為640×512的下視紅外圖像中目標(biāo)識(shí)別的mAP達(dá)到91.74%,識(shí)別速度為33 f/s,滿(mǎn)足空基平臺(tái)前端的在線(xiàn)識(shí)別需求,且在公開(kāi)紅外船舶數(shù)據(jù)集上也具有較好的識(shí)別結(jié)果。實(shí)驗(yàn)表明該算法在保證精度的基礎(chǔ)上滿(mǎn)足實(shí)時(shí)性的要求,為后續(xù)用于復(fù)合翼無(wú)人機(jī)上的多尺度目標(biāo)實(shí)時(shí)識(shí)別提供了理論技術(shù)。
中圖分類(lèi)號(hào): TP391.9
文獻(xiàn)標(biāo)識(shí)碼: A
DOI:10.16157/j.issn.0258-7998.212449
中文引用格式: 劉彤,楊德振,宋嘉樂(lè),等. 空基下視多角度紅外目標(biāo)識(shí)別[J].電子技術(shù)應(yīng)用,2022,48(7):131-139.
英文引用格式: Liu Tong,Yang Dezhen,Song Jiale,et al. Air-based downward-looking multi-angle infrared target recognition[J]. Application of Electronic Technique,2022,48(7):131-139.
Air-based downward-looking multi-angle infrared target recognition
Liu Tong1,2,3,Yang Dezhen1,4,Song Jiale1,2,3,F(xiàn)u Ruigang3,He Jiakai1
1.Airborne Detection Center,North China Research Institute of Electro-optics,Beijing 100015,China; 2.China Academic of Electronics and Information Technology,Beijing 100015,China; 3.ATR Key Laboratory,National University of Defense Technology,Changsha 410073,China; 4.National Key Laboratory of Science and Technology on Vacuum Electronics,Beijing Vacuum Electronics Research Institute, Beijing 100015,China
Abstract: In order to realize the rapid and high-precision recognition of air-based downward-looking infrared targets, a single-stage space-based down-looking multi-angle infrared target recognition algorithm is proposed. Firstly, use Darknet-53 combined with SPP module to perform feature extraction on infrared targets, to fuse local features and global features to improve the expression ability of feature maps, and finally use Focal loss in RetinaNet to lock the detection box of the target, and at the same time obtain the target type and detection accuracy. Aiming at the defect that the existing data sets are mostly head-ups and single viewing angles, a composite-wing drone was used to collect infrared images from different heights and angles, and a multi-scale down-view infrared target data set was constructed, which was implemented and verified on the PyTorch architecture. The proposed algorithm achieves 91.74% of the mAP of the downward-looking infrared target, the recognition speed is 33 FPS, and it also has a good recognition result on the public infrared ship data set. The experiments show that the algorithm meets the real-time requirements on the basis of ensuring accuracy, and provides theoretical technology for subsequent real-time recognition of multi-scale targets on compound-wing UAVs.
Key words : downward-looking infrared target;one stage;compound wing drone;SPP;Focal loss

0 引言

    采用多個(gè)復(fù)合翼無(wú)人機(jī)集群的空基紅外目標(biāo)探測(cè)識(shí)別系統(tǒng)進(jìn)行協(xié)同態(tài)勢(shì)感知是地面遠(yuǎn)程紅外制導(dǎo)的有效輔助手段。其中艦船和車(chē)輛目標(biāo)的智能識(shí)別算法作為當(dāng)代陸海防務(wù)系統(tǒng)中關(guān)鍵技術(shù),對(duì)于保障我國(guó)的國(guó)防安全具有重要的應(yīng)用價(jià)值。紅外圖像具有對(duì)比度高、作用距離遠(yuǎn)、穿透力強(qiáng)等特點(diǎn),熱成像不需要借助外界光源,隱蔽性好,可以全天時(shí)工作。目前多數(shù)車(chē)載系統(tǒng)的視角為平視,平視視場(chǎng)受限,而使用機(jī)載系統(tǒng)可以獲得更大的下視視場(chǎng)角,在實(shí)戰(zhàn)中能有效探測(cè)和攔截低空突防的威脅目標(biāo)。

    傳統(tǒng)目標(biāo)識(shí)別算法難以對(duì)下視視場(chǎng)角的圖像進(jìn)行特征提取,作為端到端學(xué)習(xí)的深度學(xué)習(xí),能夠自動(dòng)提取圖像特征,具有較好的目標(biāo)識(shí)別能力。北京理工大學(xué)的王旭辰等[1]提出基于深度學(xué)習(xí)的無(wú)人機(jī)載多平臺(tái)目標(biāo)檢測(cè)算法,使用Darknet-53網(wǎng)絡(luò)作為檢測(cè)器,在公開(kāi)數(shù)據(jù)集UAV123和實(shí)測(cè)數(shù)據(jù)集中進(jìn)行檢測(cè),驗(yàn)證得到該算法在視角旋轉(zhuǎn)、目標(biāo)尺度變化以及障礙物遮擋下能進(jìn)行穩(wěn)定檢測(cè)。但文中僅使用了YOLOv3目標(biāo)檢測(cè)算法,并未對(duì)其進(jìn)行改進(jìn),檢測(cè)精度沒(méi)有得到提高。電子科技大學(xué)的劉瑞[2]針對(duì)空中目標(biāo)存在目標(biāo)尺度及疏密程度變化大、存在重疊、遮擋等問(wèn)題,提出四級(jí)復(fù)雜度的航空?qǐng)D像目標(biāo)檢測(cè)算法,采用復(fù)合擴(kuò)張主干網(wǎng)深度和寬度的方法構(gòu)建出四級(jí)復(fù)雜度的主干網(wǎng)絡(luò),再將主干網(wǎng)分別與FPN+PAN網(wǎng)絡(luò)、輸出頭網(wǎng)絡(luò)相結(jié)合,得到空中目標(biāo)檢測(cè)算法。在VisDrone-DET2020訓(xùn)練集下對(duì)提出的網(wǎng)絡(luò)進(jìn)行訓(xùn)練,將算法的mAP@[.5:.95]累計(jì)提升了0.65%,mAP@0.75累計(jì)提升了1.41%。但僅在公開(kāi)數(shù)據(jù)集上進(jìn)行訓(xùn)練與檢測(cè),該公開(kāi)數(shù)據(jù)集僅為可見(jiàn)光數(shù)據(jù)集,不具備紅外數(shù)據(jù)集所具備的優(yōu)點(diǎn)。嚴(yán)開(kāi)忠等[3]針對(duì)小型無(wú)人機(jī)載平臺(tái)算力受限、檢測(cè)速度慢的問(wèn)題,提出了一種改進(jìn)YOLOv3的目標(biāo)檢測(cè)算法,引入深度可分離卷積對(duì)主干網(wǎng)絡(luò)進(jìn)行改進(jìn),降低網(wǎng)絡(luò)的參數(shù)和計(jì)算量,從而提高檢測(cè)速度。此外使用K-means生成先驗(yàn)框的初始聚類(lèi)中心,在邊界框回歸中使用CIoU損失,同時(shí)將DIoU與NMS相結(jié)合,提高算法的檢測(cè)精度。在自定義數(shù)據(jù)集中的mAP為82%,檢測(cè)速度從3.4 f/s提高到16 f/s。但算法的檢測(cè)精度和速度仍有待提高。上海交通大學(xué)的朱壬泰等[4]針對(duì)目前深度學(xué)習(xí)中多目標(biāo)檢測(cè)算法占用資源量大,無(wú)法在中小型無(wú)人機(jī)平臺(tái)上實(shí)時(shí)運(yùn)行的問(wèn)題,提出了基于卷積神經(jīng)網(wǎng)絡(luò)計(jì)算優(yōu)化的算法。采用深度可分離卷積對(duì)計(jì)算量進(jìn)行優(yōu)化,將主干網(wǎng)Resnet18中的卷積層替換為深度可分離卷積,對(duì)改進(jìn)的算法在公開(kāi)數(shù)據(jù)集PASCAL VOC 2007進(jìn)行驗(yàn)證,得到在檢測(cè)精度不變的條件下,檢測(cè)速度達(dá)到56 f/s。但該算法在航拍數(shù)據(jù)集上的檢測(cè)精度由于與公開(kāi)數(shù)據(jù)集分布的差異有所下降,對(duì)航拍目標(biāo)的適應(yīng)性不強(qiáng)。周子衿[5]針對(duì)深度學(xué)習(xí)網(wǎng)絡(luò)結(jié)構(gòu)復(fù)雜,機(jī)載平臺(tái)計(jì)算資源有限,以及航拍視角中小目標(biāo)數(shù)量大,難以對(duì)圖像特征進(jìn)行提取,容易出現(xiàn)漏檢和錯(cuò)檢現(xiàn)象,對(duì)YOLOv3網(wǎng)絡(luò)進(jìn)行輕量化處理,在網(wǎng)絡(luò)稀疏化訓(xùn)練后進(jìn)行BN層的通道剪枝,此外使用K-maens++算法對(duì)先驗(yàn)框進(jìn)行重定義,將改進(jìn)后的算法在自定義的DOTA-like數(shù)據(jù)集上進(jìn)行測(cè)試,算法權(quán)重模型大小下將98.7%,使得推理時(shí)間加快了60.5%,檢測(cè)速度提高了32.9%,檢測(cè)精度提高1.14%。但無(wú)人機(jī)的飛行高度較低,局限于超低空域附近,所看到的視場(chǎng)角受限。




本文詳細(xì)內(nèi)容請(qǐng)下載:http://ihrv.cn/resource/share/2000004602。




作者信息:

劉  彤1,2,3,楊德振1,4,宋嘉樂(lè)1,2,3,傅瑞罡3,何佳凱1

(1.華北光電技術(shù)研究所 機(jī)載探測(cè)中心,北京100015;2.中國(guó)電子科技集團(tuán)公司電子科學(xué)研究院,北京100015;

3.國(guó)防科技大學(xué) 電子科學(xué)學(xué)院ATR重點(diǎn)實(shí)驗(yàn)室,湖南 長(zhǎng)沙410073;

4.北京真空電子技術(shù)研究所 微波電真空器件國(guó)家重點(diǎn)實(shí)驗(yàn)室,北京100015)



wd.jpg

此內(nèi)容為AET網(wǎng)站原創(chuàng),未經(jīng)授權(quán)禁止轉(zhuǎn)載。