《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > 可編程邏輯 > 設(shè)計應(yīng)用 > 基于FPGA的多源數(shù)據(jù)融合目標檢測的研究與實現(xiàn)
基于FPGA的多源數(shù)據(jù)融合目標檢測的研究與實現(xiàn)
電子技術(shù)應(yīng)用
韓德強,閆釗,楊淇善
北京工業(yè)大學(xué) 計算機學(xué)院
摘要: 隨著智能駕駛、機器人等技術(shù)的高速發(fā)展,在這些場景下常規(guī)的二維檢測算法并不能滿足環(huán)境感知的要求,需要三維目標檢測去獲得精準的環(huán)境信息。但是,目前大多主流的多源數(shù)據(jù)融合的三維目標檢測模型都依賴于高算力、高功耗的平臺,難以在性能較低的嵌入式平臺實現(xiàn)。針對這些問題提出了一種在低功耗的FPGA平臺上實現(xiàn)多源融合的三維目標檢測的方法,通過融合激光雷達點云與攝像頭圖像數(shù)據(jù),來彌補點云特征信息的不足,以實現(xiàn)更高的準確率和檢測的穩(wěn)定性。同時結(jié)合FPGA平臺的特點,對融合的特征進行篩選及處理,并結(jié)合量化策略對模型進行壓縮。經(jīng)過實驗,融合方式明顯提升小物體的準確度,量化后的模型在三維檢測平均精度損失小于3%的情況下在端側(cè)FPGA平臺成功運行。
中圖分類號:TP183 文獻標志碼:A DOI: 10.16157/j.issn.0258-7998.256663
中文引用格式: 韓德強,閆釗,楊淇善. 基于FPGA的多源數(shù)據(jù)融合目標檢測的研究與實現(xiàn)[J]. 電子技術(shù)應(yīng)用,2025,51(11):17-24.
英文引用格式: Han Deqiang,Yan Zhao,Yang Qishan. Research and implementation of multi-source data fusion target detection based on FPGA[J]. Application of Electronic Technique,2025,51(11):17-24.
Research and implementation of multi-source data fusion target detection based on FPGA
Han Deqiang,Yan Zhao,Yang Qishan
School of Computer Science,Beijing University of Technology
Abstract: With the rapid development of technologies such as intelligent driving and robots, conventional 2D detection algorithms cannot meet the requirements of environmental perception in these scenarios, and 3D target detection is required to obtain accurate environmental information. However, the current mainstream 3D target detection models based on multi-source data fusion rely on high-computing and high-power platforms, and are difficult to implement on low-performance embedded platforms. In response to these problems, a method for implementing multi-source fusion 3D target detection on a low-power FPGA platform is proposed. By fusing the LiDAR point cloud and camera image data, the lack of point cloud feature information is compensated to achieve higher accuracy and detection stability. At the same time, combined with the characteristics of the FPGA platform, the fused features are screened and processed, and the model is compressed in combination with a quantization strategy. After experiments, the fusion method significantly improves the accuracy of small objects, and the quantized model runs successfully on the end-side FPGA platform with an average 3D accuracy loss of less than 3%.
Key words : LiDAR;3D object detection;FPGA;embedded;multi-sensor fusion

引言

隨著人工智能技術(shù)的突飛猛進,人工智能相關(guān)的應(yīng)用已經(jīng)和人們的生活息息相關(guān)。機器人以及自動駕駛的相關(guān)應(yīng)用和研究也越來越頻繁地出現(xiàn)在公眾視角之內(nèi)。然而,隨著應(yīng)用場景日益復(fù)雜,人們需要更加優(yōu)秀的環(huán)境感知算法。環(huán)境感知算法不僅直接影響著機器人和自動駕駛運行的性能,更是在復(fù)雜環(huán)境下作出正確決策的基礎(chǔ)[1]。

感知算法的目的是從環(huán)境中獲得物體的位置、類別和運動趨勢等信息。與傳統(tǒng)的二維感知算法相比,三維的環(huán)境感知算法能夠更加準確地獲得真實環(huán)境的信息,滿足高精度檢測的需求[2]。同時,隨著各類算法的不斷成熟與硬件性能的快速發(fā)展,多種傳感器的協(xié)同工作已經(jīng)成為研究者提升感知系統(tǒng)整體性能的一種重要手段[3]?;跀z像頭的目標檢測技術(shù)隨著深度學(xué)習(xí)技術(shù)的發(fā)展和應(yīng)用,在多數(shù)場景下取得了很理想的檢測效果[4]。然而,基于攝像頭的成像的原理,普通單目攝像頭缺少對三維空間中深度信息的精確感知,使用深度相機或者采用多目相機的方式可以獲得近距離精度較高的深度信息,但結(jié)果也會受到運動和距離等因素的影響;毫米波雷達雖然能直接獲取目標的相對速度與距離,但是檢測范圍較小,無法覆蓋遠距離的目標[5]。相比之下,激光雷達可以通過主動掃描獲得高精度的點云數(shù)據(jù),不僅能精確捕捉物體表面信息,相較于其他傳感器還具備較強的抗干擾能力和不同環(huán)境的適應(yīng)能力[6]。但是,點云數(shù)據(jù)存在無序性,不能在空間中均勻地分布[7],處理難度較高。同時由于激光雷達技術(shù)起步較晚,相關(guān)算法尚未完全成熟,其在目標分類等關(guān)鍵環(huán)節(jié)仍存在不足之處。

鑒于此,采用多源信息融合的策略,將激光雷達與攝像頭的數(shù)據(jù)有機結(jié)合,通過圖像檢測來補充點云數(shù)據(jù)中難以捕捉的細節(jié)信息,實現(xiàn)信息的互補,是當(dāng)前三維目標檢測最重要的研究方向[8]。


本文詳細內(nèi)容請下載:

http://ihrv.cn/resource/share/2000006835


作者信息:

韓德強,閆釗,楊淇善

(北京工業(yè)大學(xué) 計算機學(xué)院,北京 100124)


subscribe.jpg

此內(nèi)容為AET網(wǎng)站原創(chuàng),未經(jīng)授權(quán)禁止轉(zhuǎn)載。