《電子技術(shù)應用》
您所在的位置:首頁 > 模擬設計 > 業(yè)界動態(tài) > 傳感器與車聯(lián)網(wǎng)及AI的結(jié)合是安全自動駕駛的關鍵

傳感器與車聯(lián)網(wǎng)及AI的結(jié)合是安全自動駕駛的關鍵

2017-06-09

  要想讓電影中自動駕駛的情景變?yōu)楝F(xiàn)實,環(huán)境傳感器、車聯(lián)網(wǎng)通訊技術(shù)、人工智能決策平臺都是必不可少的關鍵技術(shù)。只有三者結(jié)合,車輛才能實現(xiàn)安全無誤的自動駕駛。這三項技術(shù)對自動駕駛的未來影響深遠。

  一直以來自駕車被當成電視影集里的想象,直到最近才不再被視為遙不可及的幻想,而是當下正逐漸實現(xiàn)的科技產(chǎn)品,其主要是因為各種尖端科技逐漸到位成熟,讓研發(fā)自駕車技術(shù)可普及和取得,最終讓自駕車可以改變?nèi)祟惿钚蛻B(tài)。

  其中,環(huán)境傳感器、車聯(lián)網(wǎng)通訊技術(shù)、人工智能決策平臺都是實現(xiàn)自駕車不可或缺關鍵因素。從自駕車的系統(tǒng)架構(gòu),首先感測環(huán)境信息(Sensor),并透過信息鏈接(Connectiviety),最后完成人工智能決策(decision),車輛才能真正落實安全無誤的機器駕駛,本文從傳感器、車聯(lián)網(wǎng)與人工智能介紹自駕車技術(shù)發(fā)展趨勢。

  傳感器作為自駕車之眼

  自駕車透過傳感器辨識外圍環(huán)境數(shù)據(jù),現(xiàn)今自駕車傳感器解決方案,包括光達(LiDAR)、攝影機、毫米波雷達(MMWRadar)、超音波(Ultrasonic)等,其中光達可在條件惡劣環(huán)境下,仍可透過激光束建構(gòu)出立體影像,協(xié)助自駕車判斷自身所在位置,以及檢測周遭障礙物,光達掃描半徑達100公尺,測距誤差僅有5公分,被視為自駕駛不可或缺的傳感器。

  目前市面僅有機械構(gòu)造式光達,因全手工打造造價昂貴,初階款32線光達即要價4萬美元以上,未來光達能透過硅制程(CMOS)量產(chǎn),以芯片樣態(tài)的固態(tài)光達呈現(xiàn),不僅體積可縮小,光達價錢可望壓在500美元以下。

  在光達價格居高不下情況下,目前自駕車業(yè)者同時采用多元傳感器相互輔助,以不同傳感器物理特性截長補短,例如,像是毫米波雷達偵測距離很遠,但容易被金屬物體干擾;攝影機價格便宜,辨識能力強,但惡劣天候下感測效果差;超音波方向性差、距離短,只能運用在后方防撞。

  透過多元傳感器信息融合(SensorFusion),整合出準確環(huán)境參數(shù),經(jīng)此讓決策系統(tǒng)做出更好、更安全的決策。舉例說明,毫米波雷達能夠測量高達120~250公尺的物體的速度和距離,攝影機在近距離偵測和物體辨識方面十分出色,當兩者攜手合作,雷達則可作為遠方對象早期預警作用,攝影機影像辨識則可精準判斷近距離號志、交通信號,遠近分工達到智能駕駛目的。

  車聯(lián)網(wǎng)打造道路信息透明平臺

  自駕車傳感器其搜集信息僅留存在單一車輛層次,但如果在車輛無法感測的死角,或者不可見遠方突發(fā)事件,即須要透過車輛聯(lián)網(wǎng),以取得更詳盡信息;目前車聯(lián)網(wǎng)層次分為點對點傳輸,以及云端傳輸。

  點對點直接傳輸主要傳遞具有時間敏感性(time-sensitive)數(shù)據(jù),透過車輛間(VehicletoVehicle;V2V)、車輛對道路裝置(VehicletoRoadsideDevice;V2R)直接對話,若透過“遠在天邊”的云端匯整數(shù)據(jù),可能緩不濟急,因此透過點對點傳輸強化車聯(lián)網(wǎng)溝通效益。

  當前車聯(lián)網(wǎng)的技術(shù)格式,主要包含車用環(huán)境無線存取(WAVE)/專用短程通訊(DSRC)與LTE-V2X兩種規(guī)格方向。其中車間點對點通訊最重要的是低延遲性,如此才能做到實時傳遞效果。

  WAVE/DSRC傳輸延遲約20毫秒,相對于LTE-V2X4G約50毫秒,相較具發(fā)展?jié)摿?,雖然下一代LTE-V2X5G傳輸延遲性僅有1毫秒,但其技術(shù)規(guī)格仍尚未成熟,目前各國現(xiàn)今發(fā)展車間傳輸仍以DSRC為主流。

  另一部分,云端傳輸主要應用于高精圖資(HighDefinitionMaps)反饋與實時更新,高精度協(xié)助自駕車完落實點對點全自動駕駛,因此這個給機器看的地圖,必須具備有高精度的坐標、道路線標、路標,同時含括道路垂直坡度、曲率、側(cè)傾、外圍對象等信息,同時可透過云端實時更新路況、障礙、道路維修等實時動態(tài)路況訊息。

  當車間點對點傳輸與云端傳輸共同運作,將可建立一個綿密道路傳輸網(wǎng),協(xié)助自駕車掌握不可見、不易感測訊息。

  AI匯整內(nèi)外信息進行駕駛決策

  當車輛傳感器偵測到周邊環(huán)境信息,同時車間傳輸取得實時遠方路況訊息,此時即需要透過人工智能平臺將多元信息進行匯整、運算、處理,最后做出正確駕駛決策。目前各種人工智能途徑當中,以深度學習(Deeplearning)為最為可行,但該方法需要即大量對象數(shù)據(jù)庫,才能訓練出精準分析系統(tǒng)。

  深度學習如同人類學習分類的過程,透過大量分類完成的樣本標的數(shù)據(jù)庫,持續(xù)將不同分類樣本投入,教導系統(tǒng)學習,使系統(tǒng)逐漸「參透」照片中的規(guī)律性,當未來發(fā)現(xiàn)特例也可如同人類自行推敲分析。

  在整個自駕車系統(tǒng)架構(gòu)內(nèi),感測端如同五羅近處可見訊息,車聯(lián)網(wǎng)將五官延伸搜集遠程不可見信息,遠近訊息融合后,交由車輛的人工智能平臺進行運算決策,最后由如同人類四肢的控制系統(tǒng)執(zhí)行大腦命令,當自駕車的大腦、五官、四肢可以協(xié)調(diào)合作,即可落實機器安全駕駛。


本站內(nèi)容除特別聲明的原創(chuàng)文章之外,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,并不代表本網(wǎng)站贊同其觀點。轉(zhuǎn)載的所有的文章、圖片、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無法一一聯(lián)系確認版權(quán)者。如涉及作品內(nèi)容、版權(quán)和其它問題,請及時通過電子郵件或電話通知我們,以便迅速采取適當措施,避免給雙方造成不必要的經(jīng)濟損失。聯(lián)系電話:010-82306118;郵箱:aet@chinaaet.com。