《電子技術(shù)應(yīng)用》
您所在的位置:首頁(yè) > 人工智能 > 業(yè)界動(dòng)態(tài) > AI對(duì)汽車(chē)行業(yè)的影響

AI對(duì)汽車(chē)行業(yè)的影響

2021-09-09
來(lái)源:與非網(wǎng)

  首先,關(guān)于人工智能(AI)的幾個(gè)觀點(diǎn):它是一個(gè)錯(cuò)誤的名稱(chēng)!AI既不是人工,也不是智能。如果沒(méi)有大量人為的訓(xùn)練,AI無(wú)法識(shí)別事物。在識(shí)別、理解和分類(lèi)物體或場(chǎng)景方面,AI表現(xiàn)出與人類(lèi)完全不同的邏輯。標(biāo)簽意味著AI類(lèi)似于人類(lèi)智能 ……

  其實(shí),不是這樣的。

  AI往往缺乏任何常識(shí),很容易被欺騙或破壞,并可能以意外和不可預(yù)測(cè)的方式失敗。換句話(huà)說(shuō),需要謹(jǐn)慎行事。

  本文探討了AI技術(shù)是如何影響汽車(chē)行業(yè)的。我們將考慮以下這些問(wèn)題。

  AI如何解決一個(gè)問(wèn)題?

  AI在汽車(chē)中的優(yōu)勢(shì)和缺點(diǎn)是什么?

  在汽車(chē)中使用AI的獨(dú)特挑戰(zhàn)是什么?

  哪些汽車(chē)電子領(lǐng)域正在使用AI?

  哪些未來(lái)的汽車(chē)電子領(lǐng)域?qū)⒁蕾?lài)AI技術(shù)?

  AI的開(kāi)發(fā)分三個(gè)階段:建立AI模型,使用相關(guān)數(shù)據(jù)訓(xùn)練AI模型,最后是使用訓(xùn)練好的模型來(lái)解決問(wèn)題,即推理階段。

  大多數(shù)AI模型是基于多種類(lèi)型的神經(jīng)網(wǎng)絡(luò)和學(xué)習(xí)網(wǎng)絡(luò)。例如CNN(Convolutional Neural Networks)、GAN(Generative Adversarial Networks)、DRL(Deep Reinforced Learning)、Federated Learning、Transfer Learning和其他。每一種都有不同的優(yōu)缺點(diǎn),所有類(lèi)型都在迅速發(fā)展。

  下表總結(jié)了AI技術(shù)的優(yōu)缺點(diǎn),以及安全考量和擬議的法規(guī)。

forward (2).jpg

  AI的優(yōu)勢(shì)

  AI主要用于解決復(fù)雜問(wèn)題。由于汽車(chē)行業(yè)存在很多難題,AI在推動(dòng)汽車(chē)技術(shù)發(fā)展方面發(fā)揮著越來(lái)越大的作用。自動(dòng)駕駛汽車(chē)的前景主要取決于新的AI技術(shù)。人們似乎一致認(rèn)為,神經(jīng)網(wǎng)絡(luò)的發(fā)展是未來(lái)AV部署成功的主要途徑。

  好消息是,AI,尤其是神經(jīng)網(wǎng)絡(luò)技術(shù)還處于早期研發(fā)階段,這意味著突破性創(chuàng)新未來(lái)可期。隨著全球范圍內(nèi)在持續(xù)加碼對(duì)AI的投資,可以肯定的是,AI和神經(jīng)網(wǎng)絡(luò)將解決更多的復(fù)雜問(wèn)題,包括汽車(chē)行業(yè)的挑戰(zhàn)。

  AI的缺點(diǎn)開(kāi)發(fā)和部署AI技術(shù)的挑戰(zhàn)之一是對(duì)神經(jīng)網(wǎng)絡(luò)的充分訓(xùn)練。一般來(lái)說(shuō),問(wèn)題越復(fù)雜,神經(jīng)網(wǎng)絡(luò)模型就越復(fù)雜。這意味著需要大型模型。訓(xùn)練需要大量的資源和專(zhuān)業(yè)知識(shí)來(lái)設(shè)計(jì)和測(cè)試AI模型,依靠大型數(shù)據(jù)集來(lái)驗(yàn)證模型的性能。

  AI模型需要廣泛的訓(xùn)練,這意味著需要大型數(shù)據(jù)庫(kù)。更大的訓(xùn)練數(shù)據(jù)集正在變得可用,但訓(xùn)練仍然是一項(xiàng)耗時(shí)而昂貴的任務(wù)。大多數(shù)訓(xùn)練數(shù)據(jù)也必須由人類(lèi)來(lái)標(biāo)注,以使AI模型可以學(xué)習(xí)并變得成熟。而越來(lái)越多的人也在擔(dān)心,偏見(jiàn)(bias)的問(wèn)題也在悄悄地進(jìn)入訓(xùn)練數(shù)據(jù)。

  然后是黑箱問(wèn)題:仍然很難確定AI模型如何做出決定。這種模糊性對(duì)自動(dòng)駕駛系統(tǒng)來(lái)說(shuō)仍然是一個(gè)大問(wèn)題,需要更好的解決方案。

  另一個(gè)問(wèn)題涉及模型對(duì)微小數(shù)據(jù)變化的敏感性。這種脆弱性造成了安全隱患,包括黑掉自動(dòng)駕駛系統(tǒng)的可能性,以及由此對(duì)AV安全造成的威脅。缺乏AI專(zhuān)業(yè)知識(shí)是汽車(chē)和其他行業(yè)的另一個(gè)大缺點(diǎn),這一技能差距不可能很快得到彌補(bǔ)。

  解決問(wèn)題的推理階段也有弊端。大型模型,特別是用于AV的模型,需要巨大的計(jì)算資源來(lái)壓縮傳感器數(shù)據(jù)并支持復(fù)雜的軟件。這些資源也需要功耗,而功耗在汽車(chē)應(yīng)用中總是有限的。

  新興技術(shù)將提高能力并降低推理成本,包括新興的AI芯片技術(shù)、激光雷達(dá)的價(jià)格下降和傳感器性能的提高。

  推理的最大缺點(diǎn)是黑箱問(wèn)題,即AI的可解釋性。AI系統(tǒng)仍然無(wú)法解釋他們是如何做出決定的,這就造成了一系列AI的信任問(wèn)題。對(duì)于汽車(chē)應(yīng)用來(lái)說(shuō),這是不能接受的。

  AI的安全性

  汽車(chē)AI對(duì)安全的要求比其他消費(fèi)領(lǐng)域高得多。因此,必須更加重視AI的安全和研發(fā)。為此,Georgetown大學(xué)的CSET(Center for Security and Emerging Technology)發(fā)布了一份開(kāi)創(chuàng)性的報(bào)告,研究AI的意外后果和潛在影響。

  CSET的報(bào)告確定了AI故障的三種基本類(lèi)型:魯棒性、規(guī)范性和保證性故障。魯棒性故障是指AI系統(tǒng)收到異?;蛞馔獾妮斎?,導(dǎo)致系統(tǒng)故障。在規(guī)范性故障中,AI系統(tǒng)試圖實(shí)現(xiàn)與設(shè)計(jì)者意圖有細(xì)微差別的東西,導(dǎo)致意外的行為或副作用。保證性故障意味著AI系統(tǒng)在運(yùn)行過(guò)程中不能被充分監(jiān)控或控制。

  這份報(bào)告還列舉了AI意外崩潰的例子,并建議采取行動(dòng)降低風(fēng)險(xiǎn),同時(shí)使AI工具更加可信。

  可解釋的人工智能,即XAI(Explainable AI),是一種緩解黑箱效應(yīng)的方法,可以更好地理解哪些數(shù)據(jù)是需要用來(lái)提高模型的準(zhǔn)確性。由國(guó)防部高級(jí)研究計(jì)劃局贊助的XAI研究旨在開(kāi)發(fā)機(jī)器學(xué)習(xí)技術(shù),產(chǎn)生更多可解釋的模型,同時(shí)保持高水平的學(xué)習(xí)性能和準(zhǔn)確性。XAI還將使人類(lèi)用戶(hù)能夠理解、信任和管理AI模型。XAI還可以描述自己的能力,并提供對(duì)其未來(lái)行為的洞察。

  AI法規(guī)

  AI和GDPR(General Data Protection)是緊密相連的。GDPR影響了歐洲和其他地區(qū)的AI發(fā)展。該法規(guī)明確涵蓋了自動(dòng)化、個(gè)人決策和剖析。該規(guī)則保護(hù)消費(fèi)者免受兩者的法律后果。在這種情況下,自動(dòng)化、個(gè)人決策包括AI平臺(tái)在沒(méi)有任何人工干預(yù)的情況下做出的決定。剖析是指對(duì)個(gè)人數(shù)據(jù)的自動(dòng)處理,以評(píng)估個(gè)人。

  對(duì)于汽車(chē)應(yīng)用,這主要影響到內(nèi)容交付系統(tǒng)和用戶(hù)界面。

  歐盟正在準(zhǔn)備一項(xiàng)類(lèi)似于GDPR的AI法規(guī),這項(xiàng)新規(guī)則可能會(huì)像GDPR一樣產(chǎn)生廣泛影響。今年4月,一份代表監(jiān)管AI的法律框架的提案草案發(fā)布。

  歐盟的提案旨在識(shí)別高風(fēng)險(xiǎn)的AI技術(shù)及其應(yīng)用,這些技術(shù)針對(duì)的是可能危及公民安全的交通等關(guān)鍵基礎(chǔ)設(shè)施。這意味著AV將成為AI監(jiān)管的目標(biāo)。

  根據(jù)歐盟提議的AI立法,罰款最高可達(dá)3000萬(wàn)歐元,或公司全球營(yíng)收的6%,以較高額度為準(zhǔn)。GDPR下的最高罰款為2000萬(wàn)歐元,或全球營(yíng)收的4%。

  汽車(chē)領(lǐng)域的AI

  下表總結(jié)了與汽車(chē)電子結(jié)合的AI技術(shù)。不包括用于汽車(chē)制造、供應(yīng)鏈管理、質(zhì)量控制、營(yíng)銷(xiāo)和類(lèi)似功能的AI,盡管在這些領(lǐng)域AI正在做出重大貢獻(xiàn)。

forward (1).jpg

  由神經(jīng)網(wǎng)絡(luò)產(chǎn)生的決策必須是可以理解的。如果不這樣,就很難理解它們是如何工作的,也很難去糾正錯(cuò)誤或偏見(jiàn)。

  神經(jīng)網(wǎng)絡(luò)的決策也必須是穩(wěn)定的。也就是說(shuō),盡管視覺(jué)數(shù)據(jù)有微小的差異,但仍然要保持穩(wěn)定。這對(duì)AV來(lái)說(shuō)尤其重要。例如,停車(chē)牌上貼上黑白膠帶就能讓基于AI的視覺(jué)系統(tǒng)失效。這是一個(gè)無(wú)法接受的例子。

  AV應(yīng)用需要更好的技術(shù)來(lái)理解邊緣案例或以前的軟件行駛訓(xùn)練沒(méi)有經(jīng)歷過(guò)的新的案例。這仍然是大量部署AV系統(tǒng)的一個(gè)關(guān)鍵制約因素。

  目前AI的用例

  語(yǔ)音識(shí)別和用戶(hù)界面一直是汽車(chē)領(lǐng)域最成功的基于AI的應(yīng)用。這些應(yīng)用利用智能手機(jī)和消費(fèi)類(lèi)電子產(chǎn)品中的AI技術(shù),部署在信息娛樂(lè)和HMI中。Alexa、CarPlay、Android Auto和類(lèi)似產(chǎn)品已經(jīng)被使用在大多數(shù)新車(chē)型中。

  遠(yuǎn)程診斷是一個(gè)領(lǐng)先的遠(yuǎn)程信息技術(shù)應(yīng)用。例如,AI技術(shù)的加入可以幫助預(yù)測(cè)未來(lái)的設(shè)備故障。

  基于AI的視覺(jué)系統(tǒng)被用于配備ADAS汽車(chē)的DMS。隨著AI技術(shù)的進(jìn)步,DMS將出現(xiàn)快速增長(zhǎng)。

  許多ADAS功能也使用AI技術(shù),包括ACC到各種類(lèi)型的自動(dòng)泊車(chē)功能。L1和L2的汽車(chē)將在新車(chē)型中使用越來(lái)越多的AI技術(shù)。

  新興的AI用例

  多家車(chē)廠正在搭載有限的駕駛巡航功能。它們通常被稱(chēng)為L(zhǎng)2+,但目前的標(biāo)準(zhǔn)中不包括這個(gè)術(shù)語(yǔ)。稱(chēng)它們?yōu)椤癆utopilot”是錯(cuò)誤的,因?yàn)樗屜M(fèi)者混淆概念,錯(cuò)認(rèn)為比現(xiàn)有的能力更強(qiáng)。而且它們已經(jīng)造成了許多事故。

  L3車(chē)輛發(fā)布已經(jīng)有幾年了,但由于監(jiān)管限制,部署也受到了限制。允許L3的法規(guī)正在出現(xiàn),L3車(chē)輛使用了很多AI技術(shù)。

  OTA軟件和網(wǎng)絡(luò)安全功能都在通過(guò)嵌入式軟件客戶(hù)端以及基于云的服務(wù)和分析軟件增加AI技術(shù)的使用。

  一個(gè)新興的AI應(yīng)用是AV的開(kāi)發(fā)和測(cè)試。大約有5000輛AV處于測(cè)試和驗(yàn)證階段,主要是在中國(guó)和美國(guó),其中包括自動(dòng)駕駛運(yùn)貨車(chē)、自動(dòng)駕駛卡車(chē)、Robotaxi和固定路線(xiàn)的AV。

  未來(lái)的AI用例

  AV領(lǐng)域是AI技術(shù)最有價(jià)值和最難的應(yīng)用。行業(yè)目標(biāo)是實(shí)現(xiàn)一個(gè)比最好的人類(lèi)司機(jī)更好的軟件駕駛程序,同時(shí)又沒(méi)有人類(lèi)行為的那些缺點(diǎn)。

  基于AI技術(shù)的軟件開(kāi)發(fā)已經(jīng)成熟。識(shí)別和修復(fù)軟件錯(cuò)誤有可能在未來(lái)十年通過(guò)創(chuàng)新的AI技術(shù)產(chǎn)生。

  AI技術(shù)帶來(lái)的網(wǎng)絡(luò)安全進(jìn)步也許是汽車(chē)和其他行業(yè)最迫切的需求。這些領(lǐng)域正吸引著大量、持續(xù)的投資。

  底線(xiàn)

  AI技術(shù)已經(jīng)成為汽車(chē)行業(yè)的主要驅(qū)動(dòng)力。到目前為止,有兩家公司在AI技術(shù)方面處于領(lǐng)先地位,Nvidia和Tesla。在為創(chuàng)建和使用AI模型提供芯片和軟件標(biāo)準(zhǔn)方面,顯然Nvidia是領(lǐng)導(dǎo)者。Tesla正在穩(wěn)步在其Autopilot中部署AI。

  與此同時(shí),還有許多公司專(zhuān)注于汽車(chē)AI:Mobileye是ADAS領(lǐng)域的領(lǐng)導(dǎo)者,也正在野心勃勃地布局AV,Waymo當(dāng)然也在其中。

  隨著人們對(duì)安全隱患擔(dān)憂(yōu)的增加,AI開(kāi)發(fā)者必須注意這些變化的跡象,以免意外事故扼殺技術(shù)創(chuàng)新。排名首位的是解開(kāi)AI的黑箱,因?yàn)檫@限制了信任系統(tǒng)的部署。在其他方面,訓(xùn)練數(shù)據(jù)的偏見(jiàn)問(wèn)題是一個(gè)日益嚴(yán)重的問(wèn)題,難以評(píng)估,因此也很難解決。

  歐盟正在制定AI相關(guān)的法規(guī),其他地區(qū)也會(huì)跟進(jìn)。

  在可預(yù)見(jiàn)的未來(lái),AI開(kāi)發(fā)者在建立安全、強(qiáng)大的自動(dòng)駕駛系統(tǒng)時(shí)必須謹(jǐn)慎行事。

  [參考文章]

  AI in Automotive: Current and Future Impact — Egil Juliussen




mmexport1621241704608.jpg


本站內(nèi)容除特別聲明的原創(chuàng)文章之外,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,并不代表本網(wǎng)站贊同其觀點(diǎn)。轉(zhuǎn)載的所有的文章、圖片、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無(wú)法一一聯(lián)系確認(rèn)版權(quán)者。如涉及作品內(nèi)容、版權(quán)和其它問(wèn)題,請(qǐng)及時(shí)通過(guò)電子郵件或電話(huà)通知我們,以便迅速采取適當(dāng)措施,避免給雙方造成不必要的經(jīng)濟(jì)損失。聯(lián)系電話(huà):010-82306118;郵箱:aet@chinaaet.com。