國(guó)外媒體刊文稱,包括特斯拉、谷歌和Uber在內(nèi)的多家公司都在開發(fā)全自動(dòng)駕駛技術(shù)。然而質(zhì)疑者認(rèn)為,由于現(xiàn)有人工智能技術(shù)的瓶頸,全自動(dòng)駕駛汽車可能要花比預(yù)期中更長(zhǎng)的時(shí)間才會(huì)面市。
以下為文章主要內(nèi)容:
如果你相信公司CEO們的說法,那么也許會(huì)認(rèn)為,一輛可完全自動(dòng)駕駛汽車距離面市可能只有幾個(gè)月時(shí)間。
2015年,特斯拉CEO埃隆·馬斯克(Elon Musk)預(yù)測(cè),到2018年,特斯拉將推出全自動(dòng)駕駛汽車。谷歌也是如此。Delphi和MobileEye的Level 4自動(dòng)駕駛系統(tǒng)目前計(jì)劃在2019年推出。同年,Nutonomy將在新加坡街道上部署數(shù)千輛無人駕駛出租車。通用汽車將于2019年投產(chǎn)一款全自動(dòng)駕駛汽車,這款汽車沒有方向盤,也無法由人工干預(yù)。在這些預(yù)測(cè)背后,企業(yè)投入了真金白銀,并基于這樣的假設(shè):軟件發(fā)展能趕得上表面上的熱鬧。
簡(jiǎn)單來看,我們目前距離全自動(dòng)駕駛已非常接近。Waymo已經(jīng)在亞利桑那州公共道路上測(cè)試此類汽車。特斯拉和多家其他公司已銷售自動(dòng)駕駛系統(tǒng)的基礎(chǔ)版本,這樣的系統(tǒng)在發(fā)生意外情況時(shí)仍然需要司機(jī)來干預(yù)。在這個(gè)過程中,發(fā)生了一些事故,有人喪生。但只要系統(tǒng)持續(xù)改進(jìn),邏輯不斷優(yōu)化,我們就能做到完全不需要人工介入。
然而,全自動(dòng)駕駛汽車可能比我們想象中更遠(yuǎn)。人工智能專家越來越擔(dān)心,自動(dòng)駕駛系統(tǒng)如果想要可靠地避免事故,那么可能需要幾年到幾十年的時(shí)間。自我訓(xùn)練的系統(tǒng)需要面對(duì)現(xiàn)實(shí)世界的混亂,而紐約大學(xué)加里·馬庫(kù)斯(Gary Marcus)這樣的專家正準(zhǔn)備調(diào)整原先的預(yù)期。有些時(shí)候,這也被稱作“人工智能的冬天”。技術(shù)發(fā)展的推遲可能會(huì)給指望自動(dòng)駕駛技術(shù)的公司帶來災(zāi)難性后果,讓整整一代產(chǎn)品無法實(shí)現(xiàn)完全的自動(dòng)化。
我們可以很容易地理解,為什么汽車廠商對(duì)自動(dòng)駕駛持樂觀態(tài)度。過去10年中,基于機(jī)器學(xué)習(xí)算法來處理大數(shù)據(jù)集的深度學(xué)習(xí)技術(shù)推動(dòng)了人工智能和科技行業(yè)的巨大發(fā)展。深度學(xué)習(xí)被用于谷歌搜索、Facebook消息流、會(huì)話式的語(yǔ)音轉(zhuǎn)文本算法,以及強(qiáng)大的圍棋系統(tǒng)。在互聯(lián)網(wǎng)行業(yè)以外,我們利用深度學(xué)習(xí)技術(shù)來探測(cè)地震、預(yù)測(cè)心臟病,以及標(biāo)記出攝像機(jī)鏡頭前的可疑行為。如果沒有深度學(xué)習(xí),這一切都是不可能的。
然而,深度學(xué)習(xí)需要大量訓(xùn)練數(shù)據(jù)才能正確工作,需要包含算法可能遇到的幾乎所有場(chǎng)景。例如,類似谷歌圖片的系統(tǒng)只要獲得足夠的訓(xùn)練數(shù)據(jù),告訴它每種動(dòng)物長(zhǎng)什么樣,那么就能很好地去識(shí)別動(dòng)物。馬庫(kù)斯將此類任務(wù)稱作“插值”,即對(duì)所有已標(biāo)記的圖片進(jìn)行分析,判斷新圖片是否屬于某個(gè)群組。
在數(shù)據(jù)來源和結(jié)構(gòu)方面,工程師可以很有創(chuàng)新性。然而,算法有自身的極限。除非預(yù)先向算法提供大量豹子的圖片,否則算法無法識(shí)別出什么是豹子,即使這個(gè)算法此前已經(jīng)能識(shí)別家貓和美洲虎,并且知道豹子的長(zhǎng)相介于兩者之間。這個(gè)過程被稱作“泛化”,需要完全不同的能力集。
很長(zhǎng)一段時(shí)間以來,研究者認(rèn)為,可以使用正確的算法來優(yōu)化泛化能力,但最近的研究表明,傳統(tǒng)的深度學(xué)習(xí)在泛化能力方面甚至比我們想象中還要糟糕。研究發(fā)現(xiàn),傳統(tǒng)的深度學(xué)習(xí)系統(tǒng)很難在一段視頻的不同幀之間進(jìn)行泛化,例如由于背景的細(xì)微變化將同一只北極熊貼上了狒狒、貓鼬和黃鼠狼的標(biāo)簽。由于每個(gè)分類都基于數(shù)百個(gè)因素的共同作用,因此圖片的微小改變就會(huì)完全改變系統(tǒng)判斷。其他研究員已經(jīng)在對(duì)抗數(shù)據(jù)集中利用過這點(diǎn)。
馬庫(kù)斯指出,聊天機(jī)器人狂熱是關(guān)于泛化問題的最新例子。他表示:“2015年時(shí),我們得到了關(guān)于聊天機(jī)器人的承諾。然而,這些聊天機(jī)器人表現(xiàn)得并不好,這并不僅僅是收集數(shù)據(jù)的問題。當(dāng)你在網(wǎng)上和他人交談時(shí),你不希望他們總是重復(fù)之前的話。你希望他們能對(duì)你的話做出回應(yīng),有更多樣的對(duì)話技巧,給你不同于他人的回應(yīng)。深度學(xué)習(xí)技術(shù)并不能開發(fā)出這樣的聊天機(jī)器人。一旦最初的狂熱退去,企業(yè)就會(huì)對(duì)聊天機(jī)器人項(xiàng)目失去信心。目前,很少還有公司仍在積極開發(fā)聊天機(jī)器人?!?/p>
這就讓特斯拉和其他自動(dòng)駕駛公司面臨一個(gè)可怕的問題:自動(dòng)駕駛汽車能否與圖像搜索、語(yǔ)音識(shí)別和人工智能等其他成功應(yīng)用類似,持續(xù)得到優(yōu)化?它們是否會(huì)像聊天機(jī)器人一樣,遇到泛化問題?自動(dòng)駕駛是插值問題還是泛化問題?駕駛過程中的不可預(yù)見性究竟有多少?
現(xiàn)在回答這些問題還為時(shí)過早。馬庫(kù)斯說:“無人駕駛汽車就像個(gè)科學(xué)實(shí)驗(yàn),我們不知道答案。”我們從來沒有實(shí)現(xiàn)過這種水平的自動(dòng)駕駛,因此不知道這是種什么樣的任務(wù)。就識(shí)別熟悉的對(duì)象和遵循規(guī)則而言,現(xiàn)有的技術(shù)能很好地完成。然而馬庫(kù)斯擔(dān)心,在易發(fā)生事故的情況下很好地完成駕駛,這要比汽車行業(yè)想象中復(fù)雜得多?!瓣P(guān)于如何處理意料之外的新東西,深度學(xué)習(xí)做得并不好?!?/p>
我們獲得的實(shí)驗(yàn)數(shù)據(jù)來自公開的事故報(bào)告,所有這些報(bào)告都提供了一些不同尋常的細(xì)節(jié)。在2016年的車禍中,一輛特斯拉Model S全速撞向一輛白色半掛卡車的尾部。當(dāng)時(shí),半掛卡車的高度和明亮的陽(yáng)光令自動(dòng)駕駛系統(tǒng)發(fā)生誤判。今年3月,Uber的無人駕駛汽車撞到一名推著自行車的女性,當(dāng)時(shí)后者突然橫穿馬路。根據(jù)美國(guó)交通運(yùn)輸安全委員會(huì)(NTSB)的報(bào)告,Uber的軟件最開始將這名女性錯(cuò)誤地識(shí)別為未知物體,隨后是一輛汽車,最終是一輛自行車。在加州的另一場(chǎng)事故中,一輛Model X朝著障礙物行駛,在碰撞前還在加速,系統(tǒng)這樣做的原因目前仍不清楚。
每場(chǎng)事故看起來都像是個(gè)邊緣案例,即工程師無法預(yù)料的情況。然而,幾乎每場(chǎng)事故都涉及了不可預(yù)見的場(chǎng)景。如果缺乏泛化能力,無人駕駛汽車將不得不一個(gè)又一個(gè)地學(xué)習(xí)新情況,而最終結(jié)果就是一連串的意外事故,且安全性無法隨時(shí)間推移得到改善。如果懷疑這個(gè)結(jié)論,那么可以看看人工干預(yù)自動(dòng)駕駛系統(tǒng)的報(bào)告。這樣的場(chǎng)景已經(jīng)發(fā)生,技術(shù)進(jìn)步已經(jīng)進(jìn)入平臺(tái)期。
Drive.AI創(chuàng)始人、百度前高管、行業(yè)最知名的推動(dòng)者之一吳恩達(dá)認(rèn)為,問題并不在于構(gòu)建完美的駕駛系統(tǒng),而在于告知路人如何去判斷無人駕駛汽車的行為。換句話說,我們可以嘗試讓道路交通環(huán)境對(duì)汽車來說更安全,而不是從另一個(gè)方向入手。關(guān)于不可預(yù)料的場(chǎng)景,我問他,他是否認(rèn)為,當(dāng)前的系統(tǒng)能處理拿著手杖的行人,即使系統(tǒng)從未見過這樣的對(duì)象。他回答:“我認(rèn)為,許多自動(dòng)駕駛團(tuán)隊(duì)都能處理人行橫道上拿著手杖的行人,但在高速公路中間這樣使用手杖會(huì)非常危險(xiǎn)。”
他認(rèn)為:“我們不應(yīng)該用人工智能去解決手杖的問題,而是應(yīng)該與政府合作,要求人們遵守交通規(guī)則,有更謹(jǐn)慎的考慮。安全問題并不僅僅依靠人工智能技術(shù)的質(zhì)量?!?/p>
深度學(xué)習(xí)并不是唯一的人工智能技術(shù),企業(yè)已開始探索替代方案。盡管技術(shù)在業(yè)內(nèi)受到密切保護(hù)(看看Waymo近期對(duì)Uber的訴訟就可以知道),但許多公司已經(jīng)轉(zhuǎn)向了基于規(guī)則的人工智能。這是種更古老的技術(shù),工程師會(huì)將特定行為和邏輯寫入自治的系統(tǒng)中。這種系統(tǒng)無法像深度學(xué)習(xí)一樣,通過分析數(shù)據(jù)來自主確定行為,但卻能避免深度學(xué)習(xí)的某些局限性。然而,由于基本的認(rèn)知任務(wù)仍然受到深度學(xué)習(xí)技術(shù)的深刻影響,因此很難說工程師們?cè)诟綦x可能的錯(cuò)誤時(shí)有多成功。
Lyft董事會(huì)成員、風(fēng)險(xiǎn)投資人Ann Miura-Ko認(rèn)為,部分問題在于對(duì)自動(dòng)駕駛汽車的期望過高,因此將所有非全自動(dòng)駕駛的東西都?xì)w結(jié)為失敗。他表示:“期望從0直接走到Level 5本身就是不合理的,并不是技術(shù)上的失敗。我認(rèn)為,所有這些微小的改進(jìn)都是在通往全自動(dòng)駕駛道路上取得的重要成就?!?/p>
不過仍不清楚,自動(dòng)駕駛汽車目前的困境還會(huì)持續(xù)多久。類似特斯拉Autopilot的半自動(dòng)駕駛產(chǎn)品已足夠智能,能處理大部分情況,但如果發(fā)生意料之外的情況,那么仍需要人工干預(yù)。因此,一旦實(shí)際發(fā)生問題,很難知道問題的原因是汽車還是司機(jī)。有些批評(píng)人士認(rèn)為,即使錯(cuò)誤很難完全歸咎于機(jī)器,但與人工駕駛相比,這種兩者相結(jié)合的模式可能更不安全。蘭德公司的一項(xiàng)研究估計(jì),無人駕駛汽車需要行駛2.75億英里,且不發(fā)生致命的安全事故,才能證明它們和人工司機(jī)一樣安全。特斯拉Autopilot第一起致人死亡的事故發(fā)生在項(xiàng)目進(jìn)行了1.3億英里時(shí),距離2.75億英里還有很遠(yuǎn)的距離。
不過,由于深度學(xué)習(xí)仍然是汽車感知對(duì)象、做出回應(yīng)的核心,優(yōu)化事故率可能比看起來更難。杜克大學(xué)教授瑪麗·卡明斯(Mary Cummings)提到了今年早些時(shí)候Uber發(fā)生的致命事故?!案兄?決策周期通常相互關(guān)聯(lián),就像這起導(dǎo)致行人死亡的事故一樣。感知環(huán)節(jié)未能做出明確判斷,導(dǎo)致決策環(huán)節(jié)決定不采取任何行動(dòng)。而由于傳感器提供了太多假警報(bào),緊急制動(dòng)也被關(guān)閉?!?/p>
這場(chǎng)事故導(dǎo)致Uber今年夏天暫停了自動(dòng)駕駛項(xiàng)目,這對(duì)于其他計(jì)劃推出自動(dòng)駕駛系統(tǒng)的公司來說不是個(gè)好兆頭。在整個(gè)行業(yè)中,各家公司都在競(jìng)相獲得更多數(shù)據(jù),以解決這個(gè)問題。他們認(rèn)為,積累里程數(shù)最多的公司將開發(fā)出最強(qiáng)大的系統(tǒng)。然而馬庫(kù)斯認(rèn)為,還有更難以解決的問題:“他們只是使用已有的技術(shù),希望技術(shù)能發(fā)揮效果。他們依靠的是大數(shù)據(jù),因?yàn)檫@是他們的支柱,但沒有證據(jù)表明,這可以幫你達(dá)到我們需要的精確度。”