《電子技術(shù)應(yīng)用》
您所在的位置:首頁(yè) > MEMS|傳感技術(shù) > 業(yè)界動(dòng)態(tài) > 傳感器與AI的結(jié)合是自動(dòng)駕駛的關(guān)鍵

傳感器與AI的結(jié)合是自動(dòng)駕駛的關(guān)鍵

2017-06-18
關(guān)鍵詞: 自動(dòng)駕駛 傳感器 AI

  要想讓電影中自動(dòng)駕駛的情景變?yōu)楝F(xiàn)實(shí),環(huán)境傳感器、車聯(lián)網(wǎng)通訊技術(shù)、人工智能決策平臺(tái)都是必不可少的關(guān)鍵技術(shù)。只有三者結(jié)合,車輛才能實(shí)現(xiàn)安全無(wú)誤的自動(dòng)駕駛。這三項(xiàng)技術(shù)對(duì)自動(dòng)駕駛的未來(lái)影響深遠(yuǎn)。

  一直以來(lái)自駕車被當(dāng)成電視影集里的想象,直到最近才不再被視為遙不可及的幻想,而是當(dāng)下正逐漸實(shí)現(xiàn)的科技產(chǎn)品,其主要是因?yàn)楦鞣N尖端科技逐漸到位成熟,讓研發(fā)自駕車技術(shù)可普及和取得,最終讓自駕車可以改變?nèi)祟惿钚蛻B(tài)。

  其中,環(huán)境傳感器、車聯(lián)網(wǎng)通訊技術(shù)、人工智能決策平臺(tái)都是實(shí)現(xiàn)自駕車不可或缺關(guān)鍵因素。從自駕車的系統(tǒng)架構(gòu),首先感測(cè)環(huán)境信息(Sensor),并透過(guò)信息鏈接(Connectiviety),最后完成人工智能決策(decision),車輛才能真正落實(shí)安全無(wú)誤的機(jī)器駕駛,本文從傳感器、車聯(lián)網(wǎng)與人工智能介紹自駕車技術(shù)發(fā)展趨勢(shì)。

  傳感器作為自駕車之眼

  自駕車透過(guò)傳感器辨識(shí)外圍環(huán)境數(shù)據(jù),現(xiàn)今自駕車傳感器解決方案,包括光達(dá)(LiDAR)、攝影機(jī)、毫米波雷達(dá)(MMWRadar)、超音波(Ultrasonic)等,其中光達(dá)可在條件惡劣環(huán)境下,仍可透過(guò)激光束建構(gòu)出立體影像,協(xié)助自駕車判斷自身所在位置,以及檢測(cè)周遭障礙物,光達(dá)掃描半徑達(dá)100公尺,測(cè)距誤差僅有5公分,被視為自駕駛不可或缺的傳感器。

  目前市面僅有機(jī)械構(gòu)造式光達(dá),因全手工打造造價(jià)昂貴,初階款32線光達(dá)即要價(jià)4萬(wàn)美元以上,未來(lái)光達(dá)能透過(guò)硅制程(CMOS)量產(chǎn),以芯片樣態(tài)的固態(tài)光達(dá)呈現(xiàn),不僅體積可縮小,光達(dá)價(jià)錢可望壓在500美元以下。

  在光達(dá)價(jià)格居高不下情況下,目前自駕車業(yè)者同時(shí)采用多元傳感器相互輔助,以不同傳感器物理特性截長(zhǎng)補(bǔ)短,例如,像是毫米波雷達(dá)偵測(cè)距離很遠(yuǎn),但容易被金屬物體干擾;攝影機(jī)價(jià)格便宜,辨識(shí)能力強(qiáng),但惡劣天候下感測(cè)效果差;超音波方向性差、距離短,只能運(yùn)用在后方防撞。

  透過(guò)多元傳感器信息融合(SensorFusion),整合出準(zhǔn)確環(huán)境參數(shù),經(jīng)此讓決策系統(tǒng)做出更好、更安全的決策。舉例說(shuō)明,毫米波雷達(dá)能夠測(cè)量高達(dá)120~250公尺的物體的速度和距離,攝影機(jī)在近距離偵測(cè)和物體辨識(shí)方面十分出色,當(dāng)兩者攜手合作,雷達(dá)則可作為遠(yuǎn)方對(duì)象早期預(yù)警作用,攝影機(jī)影像辨識(shí)則可精準(zhǔn)判斷近距離號(hào)志、交通信號(hào),遠(yuǎn)近分工達(dá)到智能駕駛目的。

  車聯(lián)網(wǎng)打造道路信息透明平臺(tái)

  自駕車傳感器其搜集信息僅留存在單一車輛層次,但如果在車輛無(wú)法感測(cè)的死角,或者不可見(jiàn)遠(yuǎn)方突發(fā)事件,即須要透過(guò)車輛聯(lián)網(wǎng),以取得更詳盡信息;目前車聯(lián)網(wǎng)層次分為點(diǎn)對(duì)點(diǎn)傳輸,以及云端傳輸。

  點(diǎn)對(duì)點(diǎn)直接傳輸主要傳遞具有時(shí)間敏感性(time-sensitive)數(shù)據(jù),透過(guò)車輛間(VehicletoVehicle;V2V)、車輛對(duì)道路裝置(VehicletoRoadsideDevice;V2R)直接對(duì)話,若透過(guò)“遠(yuǎn)在天邊”的云端匯整數(shù)據(jù),可能緩不濟(jì)急,因此透過(guò)點(diǎn)對(duì)點(diǎn)傳輸強(qiáng)化車聯(lián)網(wǎng)溝通效益。

  當(dāng)前車聯(lián)網(wǎng)的技術(shù)格式,主要包含車用環(huán)境無(wú)線存取(WAVE)/專用短程通訊(DSRC)與LTE-V2X兩種規(guī)格方向。其中車間點(diǎn)對(duì)點(diǎn)通訊最重要的是低延遲性,如此才能做到實(shí)時(shí)傳遞效果。

  WAVE/DSRC傳輸延遲約20毫秒,相對(duì)于LTE-V2X4G約50毫秒,相較具發(fā)展?jié)摿?,雖然下一代LTE-V2X5G傳輸延遲性僅有1毫秒,但其技術(shù)規(guī)格仍尚未成熟,目前各國(guó)現(xiàn)今發(fā)展車間傳輸仍以DSRC為主流。

  另一部分,云端傳輸主要應(yīng)用于高精圖資(HighDefinitionMaps)反饋與實(shí)時(shí)更新,高精度協(xié)助自駕車完落實(shí)點(diǎn)對(duì)點(diǎn)全自動(dòng)駕駛,因此這個(gè)給機(jī)器看的地圖,必須具備有高精度的坐標(biāo)、道路線標(biāo)、路標(biāo),同時(shí)含括道路垂直坡度、曲率、側(cè)傾、外圍對(duì)象等信息,同時(shí)可透過(guò)云端實(shí)時(shí)更新路況、障礙、道路維修等實(shí)時(shí)動(dòng)態(tài)路況訊息。

  當(dāng)車間點(diǎn)對(duì)點(diǎn)傳輸與云端傳輸共同運(yùn)作,將可建立一個(gè)綿密道路傳輸網(wǎng),協(xié)助自駕車掌握不可見(jiàn)、不易感測(cè)訊息。

  AI匯整內(nèi)外信息進(jìn)行駕駛決策

  當(dāng)車輛傳感器偵測(cè)到周邊環(huán)境信息,同時(shí)車間傳輸取得實(shí)時(shí)遠(yuǎn)方路況訊息,此時(shí)即需要透過(guò)人工智能平臺(tái)將多元信息進(jìn)行匯整、運(yùn)算、處理,最后做出正確駕駛決策。目前各種人工智能途徑當(dāng)中,以深度學(xué)習(xí)(Deeplearning)為最為可行,但該方法需要即大量對(duì)象數(shù)據(jù)庫(kù),才能訓(xùn)練出精準(zhǔn)分析系統(tǒng)。

  深度學(xué)習(xí)如同人類學(xué)習(xí)分類的過(guò)程,透過(guò)大量分類完成的樣本標(biāo)的數(shù)據(jù)庫(kù),持續(xù)將不同分類樣本投入,教導(dǎo)系統(tǒng)學(xué)習(xí),使系統(tǒng)逐漸「參透」照片中的規(guī)律性,當(dāng)未來(lái)發(fā)現(xiàn)特例也可如同人類自行推敲分析。

  在整個(gè)自駕車系統(tǒng)架構(gòu)內(nèi),感測(cè)端如同五羅近處可見(jiàn)訊息,車聯(lián)網(wǎng)將五官延伸搜集遠(yuǎn)程不可見(jiàn)信息,遠(yuǎn)近訊息融合后,交由車輛的人工智能平臺(tái)進(jìn)行運(yùn)算決策,最后由如同人類四肢的控制系統(tǒng)執(zhí)行大腦命令,當(dāng)自駕車的大腦、五官、四肢可以協(xié)調(diào)合作,即可落實(shí)機(jī)器安全駕駛。


本站內(nèi)容除特別聲明的原創(chuàng)文章之外,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,并不代表本網(wǎng)站贊同其觀點(diǎn)。轉(zhuǎn)載的所有的文章、圖片、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無(wú)法一一聯(lián)系確認(rèn)版權(quán)者。如涉及作品內(nèi)容、版權(quán)和其它問(wèn)題,請(qǐng)及時(shí)通過(guò)電子郵件或電話通知我們,以便迅速采取適當(dāng)措施,避免給雙方造成不必要的經(jīng)濟(jì)損失。聯(lián)系電話:010-82306118;郵箱:aet@chinaaet.com。