《電子技術應用》
您所在的位置:首頁 > 模擬設計 > 業(yè)界動態(tài) > GPU實現(xiàn)車外場景比對 自駕車學習力大增

GPU實現(xiàn)車外場景比對 自駕車學習力大增

2017-05-03
關鍵詞: GPU 自駕車

    工研院在2016年9月與NVIDIA簽署合作備忘錄,近期已在自動駕駛的深度學習上,有了初步成果。為使臺灣落實技術自主化,該自動駕駛車的關鍵技術皆是由工研院所自行開發(fā),芯片組方案則采用NVIDIADRIVEPX2,融合不同傳感器的數(shù)據(jù),使車輛具備多種感知能力,因此得以充分應付復雜的行車環(huán)境及角落下面就隨汽車電子小編一起來了解一下相關內(nèi)容吧。


  工研院機械所正研究員/自駕車復雜環(huán)境數(shù)據(jù)融合感知技術計劃主持人連豊力指出,由于工研院所開發(fā)的自駕車,是從零開始打造,其采用的車用計算機、通訊協(xié)議,都是掌握在工研院手中,因此要做任何的操控、控制都不會有問題?,F(xiàn)階段我們進行開車場景的錄制,完成后將數(shù)據(jù)丟到NVIDIADRIVEPX2超級計算機開發(fā)平臺中,去對應車用數(shù)據(jù)庫,以進一步推論出所拍攝到的場景是汽車、巴士車,還是行人等。然而,當比對程度達到水平后,就能進一步將車外場景的主要目標對象框出來。

  當系統(tǒng)須一邊開車一邊進行學習,其處理耗能會相當高,但當學習完成后,單純進行辨識的耗能則會降低很多。因此一般在自駕車的學習階段,會是用脫機的方式進行學習,而學習完后的辨識,則就可用在線的方式來進行。但若辨識不成功,則又會再送回數(shù)據(jù)庫去做學習。連豊力表示,未來自駕車的發(fā)展,很可能會是讓車上使用車上處理器,并直接做現(xiàn)場的處理與篩選,但在一段時間后,仍會上傳到數(shù)據(jù)庫,以便做比對。

  連豊力進一步表示,目前自駕車的開發(fā)單位在運用傳感器去感測外界訊息上,主要有兩個做法,第一種方式是比較傳統(tǒng)的,運用傳感器所能感測的模擬訊號,例如根據(jù)車道線是白色還是黃色,去做計算機視覺分析,也就是從色彩、幾何去累積對象的特征,其可靠度較高,目前所看到的行車紀錄器或辨識系統(tǒng),大多是運用這樣的方式在做。

  連豊力進一步表示,另外一種做法,則是目前NVIDIA主要在采用的方式,由于每一次開車左右兩邊的場景,會有所差異,尤其是當?shù)缆凡⒎歉咚俟钒愎P直,而是彎曲的時后,若要讓一臺車學會如何開車,便必須透過錄像機與計算機,將開車的場景、指令(左轉(zhuǎn)、右轉(zhuǎn)、不動、煞車、加速等)錄下來,紀錄完成后,計算機就會開始推論,當影像場景右邊比較亂、左邊比較清楚時,代表方向盤正在左轉(zhuǎn),而影像如果很平均,則代表方向盤沒有在動等,進而去找出中間的關聯(lián)性。

  連豊力分析,當這樣的關系被找出,計算機就可以進而去判斷,主人的開車狀況,甚至車子該如何進一步自動進行左轉(zhuǎn)、右轉(zhuǎn)。因此當計算機的影像紀錄越多,自動駕駛能使用的數(shù)據(jù)庫也就更為豐富。不過相較于傳統(tǒng)方式,其可靠度是比較低的,因其并沒有辦法做到1對1對應,當學習中的攝影機沒有拍到某些信息,這些信息就學習不到了,也就無從判斷,因此如何讓機器的感測能力全面提升,將會是自駕車須跨越的一大門坎。

  有鑒于此,目前工研院在發(fā)展自動駕駛時,是兩種方式同步進行。由于圖形、影片的數(shù)據(jù)量相當大,而NVIDIA最大的強項即是在前端的GPU圖像處理,這也是工研院與NVIDIA連手合作的原因。

    以上是關于汽車電子中-GPU實現(xiàn)車外場景比對 自駕車學習力大增的相關介紹,如果想要了解更多相關信息,請多多關注eeworld,eeworld電子工程將給大家提供更全、更詳細、更新的資訊信息。


本站內(nèi)容除特別聲明的原創(chuàng)文章之外,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,并不代表本網(wǎng)站贊同其觀點。轉(zhuǎn)載的所有的文章、圖片、音/視頻文件等資料的版權歸版權所有權人所有。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無法一一聯(lián)系確認版權者。如涉及作品內(nèi)容、版權和其它問題,請及時通過電子郵件或電話通知我們,以便迅速采取適當措施,避免給雙方造成不必要的經(jīng)濟損失。聯(lián)系電話:010-82306118;郵箱:aet@chinaaet.com。