Uber 自動駕駛測試車引發(fā)致命事故后,許多人開始對自動駕駛車輛產生焦慮。這樣的擔心可以理解,畢竟一個巨大的鐵塊高速運行時一旦出現(xiàn)問題,造成的傷害可能相當巨大。Shashua 想跑在前面,預先阻止車輛出現(xiàn)異常情況。
Shashua 的主題演講主要圍繞幾個問題展開,包括“我們如何解決安全問題?”和“一旦事故發(fā)生,怎樣不再讓公眾感覺自動駕駛汽車是洪水猛獸?”
作為一位工程師,他在解決這些問題時也使用了工程師思維,即直接拆分成不同部分,為每個部分找到解決方案,最后再對它們進行整合。
自動駕駛汽車要樹立自信
他做的第一件事是用一個有說服力的案例解釋了“為什么自動駕駛汽車行駛時不能畏首畏尾。”Shashua 先拿 Mobileye 家鄉(xiāng)耶路撒冷的交通說事,不過這種情況我們大家都遇見過,即一條小路匯入一條主路。如果小路上的車輛在并入主路時畏畏縮縮,可能就會造成更多問題,而且會被后方車輛用嘈雜的喇叭問候全家。因此,司機在處理這種情況時必須對自己有自信,換到自動駕駛汽車上也是一個道理,畢竟“沒有城市能接受天天引發(fā)堵車的自動駕駛汽車?!?/p>
因此,從邏輯上來說,自動駕駛汽車要在駕駛風格上接近人類,一定程度的自信必不可少。接受了這一概念,你就得拋棄現(xiàn)有的安全潔癖(自動駕駛汽車必須 100% 安全)。Shashua 指出,你需要的是一個安全保證,這個保證上不能寫“絕不會發(fā)生事故”,而是要寫“這輛車永遠不會引發(fā)事故”。
與此同時,他還主張一點,那就是你必須解決自動駕駛汽車“經濟上的穩(wěn)定性”,這也是汽車制造商不會成為被告的金科玉律。畢竟如果每次發(fā)生事故廠商就陷入到底誰該負責的爭論,恐怕倒閉會成為它們的唯一宿命。
隨后,Shashua 提出一個假設:自動駕駛汽車要想超過人類駕駛員的平均水平,到底要達到什么樣的安全等級?提出問題后他很快就給出了答案,在 Shashua 看來,這根紅線應該是比人類的平均水平高上 1000 倍。這樣的標準恐怕沒人會說不了吧?畢竟你會得到一個駕駛技巧比肩 Lewis Hamilton(F1 世界冠軍),耐心上可與會計師一戰(zhàn)的超級電腦。
隨后,他又在演講臺上做起了算數(shù)。從統(tǒng)計數(shù)據(jù)上來看,現(xiàn)在車輛每行駛 100 萬英里,就會有一名司機喪命。從時間上來看則是每小時道路上會出現(xiàn)一起傷亡事故。這也就意味著,想要達到要求的安全標準(1000 倍),自動駕駛汽車要將上面兩個數(shù)據(jù)分別提升到 10 億小時和 30 億英里。很明顯,這樣的標準未來 10 年內恐怕難以實現(xiàn),我們所說的 1000 倍真的能這樣算嗎?
數(shù)據(jù)≠安全
Shashua 提到這些數(shù)字是為了提前給我們敲響警鐘?!爸贫ㄒ粋€標準然后去實現(xiàn)”是工程師們的慣用手法,過去它是百用百靈,不過,它也是一種“稻草人邏輯”(偷換概念的論證方法,即一個人把另一個人的論證曲解了,然后通過駁倒曲解的論證來聲稱原版也不成立),畢竟現(xiàn)在可沒有廠商敢說自動駕駛汽車在上市前必須經過 10 億小時的駕駛測試。
從這次演講中大家也發(fā)現(xiàn),Shashua 在回應各路批評和暗示時,可是非常擅用這套邏輯。
Shashua 舉上面的例子是為了告訴我們,安全標準不應該被數(shù)據(jù)所驅動。一家公司根本沒必要拿行駛里程來證明自家產品是否合格,雖然現(xiàn)在各家公司都癡迷于積累測試里程,但這些里程是為測試系統(tǒng)服務的,它不應該成為車輛安全與否的證據(jù)。
此外,Shashua 還想傳遞出一個理念,那就是未來幾年隨著自動駕駛測試規(guī)模的擴大,各種與其相關的事故還會層出不窮,只要事故不是自動駕駛汽車引發(fā)的,我們就不能直接將數(shù)據(jù)與安全性掛鉤。在他看來這是一種危險且短視的做法。不過,在大眾看來,這樣的想法可是有些嚇人。
冗余
Shashua 隨后主要談了安全和冗余的意義,他指出車身上安裝的攝像頭陣列能為車輛提供全方位的視覺感知,可作為自動駕駛汽車的主傳感器,至于雷達和 LiDAR,則可提供“真正的冗余”,因為它們基于不同的系統(tǒng)。
當然,Shashua 的論點明顯是有偏向的,畢竟 Mobileye 的技術和專利主要就是基于攝像頭技術的。后來,他還補充稱,要想覆蓋所有的偶然性,每臺自動駕駛汽車都至少要搭載 12 顆攝像頭。
自動駕駛行業(yè)的其它領軍企業(yè)則有完全不同的觀點。就拿通用來說,CTO Jon Lauckner 就表示,自己依然堅信 LiDAR 是自動駕駛汽車的主干傳感器。Lauckner 得出這樣的結論主要是因為 LiDAR “看到”的是攝像頭“看不到”的 3D 圖像,而且 LiDAR 當了主力后,就可以少裝幾個攝像頭了。
至于其它公司,有些則走上了融合路徑,它們攝像頭和 LiDAR 都用,獲得了良好的加成效應。
在下一個議題中,Shashua 則提到了另一個論點:“從來沒人定義過到底什么是危險場景和在這樣的場景下到底該做什么。”
不過,鑒于我們討論的是機器,它們天生就要遵守規(guī)則,因此業(yè)界必須未雨綢繆,對一些關鍵事項進行定義。
預測
隨后 Shashua 又解釋稱,他的意思是一輛自動駕駛汽車根本沒必要去預測其它車輛的動向。“你無須預測其它車輛準備做什么?!彼竽懙卣f道。
這樣的論斷不但在邏輯上發(fā)生了跳躍,還忽視了一個現(xiàn)實,那就是當下的自動駕駛汽車都會不間斷地預測其它車輛動向,尤其是周邊車輛速度,這個步驟其實在 Mobileye 的軟件上也有體現(xiàn)。
同時,這一觀點也與隨后上臺的英特爾實驗室的發(fā)言產生了沖突,他們在演講中花了大量篇幅討論概率性計算,這個步驟就是在用計算機處理傳感器數(shù)據(jù)以預測未來可能發(fā)生的情況。
舉例子也很簡單,一個皮球蹦蹦跳跳穿過某條街道,它的路徑肯定會與一輛經過的自動駕駛汽車交匯。借助概率性計算,系統(tǒng)必須能“看到”這個皮球并預測出下一步會不會有孩子沖過來撿球。這種類型的提前思考能力代表著未來。
不過在 Shashua 看來,這種預測的“生成方式”會帶來過多信息,影響計算機效能。他更偏向于采用“區(qū)別對待的方式”,讓系統(tǒng)只專注于特定目標,比如“超過那輛車”。
后來,為了證明自己觀點的正確性,Shashua 放出了一段視頻,Mobileye 的自動駕駛汽車駛入了他提到的復雜路口,這輛車相當大膽且自信地在車流中穿行,它居然一路從最右車道變到了最左車道,確實相當強悍。
Mobileye CEO 定義了全新的安全標準,它真的靠譜嗎?
“霸占”車道
從這段視頻中我們也可看出,Mobileye 的測試車在變道時相當“霸道”,它甚至做出了許多壞司機的“流氓”操作。在從中間道向左側變道時,這輛測試車直接霸占兩條車道數(shù)秒鐘,讓其它車輛根本沒辦法超車。
Shashua 則非常贊賞測試車的這種行為,他認為車輛用這幾秒清楚地向其它車輛傳達了自己的意圖。
不過,他的獨特思考也引來了大量質疑。演講結束后第一個問題就有與會者問道,“在不同的城市,你如何應對不同的駕駛風格呢?”
這確實是個大問題,如果自動駕駛汽車以耶路撒冷的駕駛風格在洛杉磯行駛,恐怕很快就會激怒其他司機,他們會做出激烈反應,別忘了,天使之城的司機們非常擅長在你的盲區(qū)中開車。這就意味著,Mobileye 的測試車如果意識不到這一點,很容易就會造成事故,部署的車輛越多,事故發(fā)生幾率就越大。
原本,與會者認為 Shashua 會討論下自動駕駛汽車的學習能力,結果這位 Mobileye CEO 卻直接回應說:“這不是個大問題,車輛的反應時間會因為部署區(qū)域的不同進行相應調整,而且車輛的自信程度也會有差異?!彪S后 Shashua 就終止了該問題的討論。
碰撞
接著又有人問了他一個關鍵問題:“如果 Mobileye 的自動駕駛汽車感知到了一個無法避免的車禍,它會怎么做?它要怎么做決策?它會犧牲自己來避免車禍嗎?它會為了救行人而撞向另一輛車嗎?”像上次一樣,Shashua 聽到問題后根本沒思考就回答道,“我們稱其為倫理困境,RSS 會移除任何倫理困境?!?/p>
這里所說的 RSS 便是 Mobileye 的“責任感知安全”(Responsibility-Sensitive Safety)模型,他們還準備將其打造成全球標準,與行業(yè)共同討論自動駕駛汽車安全和事故的相關問題。
Shashua 表示,在這種模型下,它們的自動駕駛汽車能采取一切行動來避免事故發(fā)生,而其它一切事物都“非常主觀”。
Shashua 的理念確實讓人擔心,因為每個政策失誤都是被最初的錯誤理念帶偏的。就像最近備受關注的 Facebook 隱私門,扎克伯格顯然對他人的隱私和個人數(shù)據(jù)毫不關心,每次受到質疑,F(xiàn)acebook 都會用加強隱私管控的錯覺來迷惑大眾。
除非社會思潮發(fā)生根本性變化,否則扎克伯格不會改變自己的既定策略,因此未來 Facebook 恐怕會一錯再錯。
把 Facebook 那一套用在自動駕駛上?
一旦 Mobileye 玩上了 Facebook 那一套,出了車禍他們就能耀武揚威地宣布:“這不是我們的錯,我們遵守了自己的 RSS 規(guī)范?!?/p>
在演講和問答環(huán)節(jié)結束后,Shashua 又準備了一場圓桌會議。不過,這場會議結束后,大家的擔憂更重了。他長篇大論地講述了在業(yè)內搭建一個標準化安全模型的重要性,而在 Shashua 看來,Mobileye 的 RSS 就是最佳選項。此外,由于現(xiàn)在 Mobileye 的大老板是英特爾,因此他們絕對有能力將自己的安全模型推廣到全行業(yè)。
在圓桌會議上,也有人問到了特斯拉和 Uber 車禍的相關問題,Shashua 在回應時只是表示業(yè)內有必要提前定義“到底什么是危險的”,然后利用傳感器數(shù)據(jù)證明“在感應上車輛沒有犯錯”。也就是說,只要車輛按編好的程序執(zhí)行任務,它們對事故就沒有責任。這樣的邏輯確實不好理解。
在圓桌會議上,Shashua 一再強調,自動駕駛汽車的安全標準中有“不引發(fā)事故”一條就足夠了。也就是說,他直接把阿西莫夫的機器人三原則縮減到了一原則。
那么,假設 Mobileye 的自動駕駛汽車為了避免事故在高速路上停下來呢?后續(xù)會不會造成其他車輛的追尾?RSS 模型工作的時間線呢?車輛真的能立即進行重新設定,然后快速行駛起來嗎?
回答這個問題時 Shashua 顯得有些雜亂無章,只是一直在重復與不引發(fā)事故相關的話題,但事實上他這屬于答非所問。
答非所問
不光這個問題,后續(xù)的有關地圖精度、V2V 系統(tǒng)和算法的重要性問題上,Shashua 都熟練地用稻草人邏輯避開。
舉例來說,有人問道 Mobileye 現(xiàn)有地圖的精度和它們的眾包計劃(用 Mobileye 在其它車輛上的攝像頭來搭建地圖),他卻顯得非常不高興,聲稱想得到真正精確的地圖必須在每條道路中植入磁鐵,但誰又愿意花這個錢呢?很明顯,Shashua 又答非所問了。
危險
這種“我就是對的”的工程師思維經常會在技術突破時出現(xiàn),我們見過太多例子,如果將這種技術突破應用于較大場景,其危險性相當駭人。
也許你會說,無所謂啦,反正測試車隊只是在耶路撒冷跑。不過別忘了,Mobileye 的測試車下個月就要進軍加州(而且還是城市交通復雜度非常高的舊金山),而 2021 年它們就要實現(xiàn)商用。