作為人工智能先驅(qū)者、Google Brain高管和多倫多大學(xué)教授,Geoffrey Hinton對于谷歌參與五角大樓AI軍事項(xiàng)目的態(tài)度如何?在最近的一次訪談中,他終于告訴人們:我反對!此外,Hinton還對人工智能在創(chuàng)新上的挑戰(zhàn)等問題發(fā)表了意見??吹贸?,Hinton對于人工智能的未來非常有信心,他也希望研究者們能夠?qū)⒀酃夥诺酶娱L遠(yuǎn)。
20 世紀(jì) 70 年代初期,Geoff Hinton 開始做簡單的數(shù)學(xué)模型,模仿人腦神經(jīng)元視覺理解世界的過程。之后數(shù)十年,人工神經(jīng)網(wǎng)絡(luò)仍然是一門不實(shí)用的技術(shù)。但是 2012 年,Hinton 和他的兩名本科生使用神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)了計(jì)算機(jī)圖像目標(biāo)識別準(zhǔn)確率的大幅提升。之后六個月內(nèi),谷歌收購了這三名研究者創(chuàng)辦的創(chuàng)業(yè)公司 DNNresearch。
現(xiàn)在,這項(xiàng)技術(shù)已經(jīng)成為所有大型科技公司未來規(guī)劃的重中之重。
「作為谷歌高管,我不應(yīng)該公開抱怨五角大樓項(xiàng)目,因此我私下里抱怨。」Geoff Hinton 說。
NeurIPS 2018 期間舉辦了人工智能 G7 大會,來自世界頂尖工業(yè)化經(jīng)濟(jì)體的代表討論如何鼓勵 AI 的優(yōu)勢,并最小化其負(fù)面影響(如工作職位減少和學(xué)會歧視的算法)。Geoff Hinton 參加了這次會議,《連線》對他進(jìn)行了訪問。訪問內(nèi)容如下:
Wired:加拿大總理賈斯丁·特魯多在人工智能 G7 會議上說,需要更多研究來應(yīng)對人工智能帶來的倫理挑戰(zhàn)。你怎么認(rèn)為?
Geoff Hinton(下稱 GH):我一直很擔(dān)心致命自主武器的濫用。我認(rèn)為應(yīng)該設(shè)立類似《日內(nèi)瓦公約》的法規(guī)來禁止它們的使用,就像禁用化學(xué)武器那樣。即使并非所有國家或地區(qū)都簽署這樣的條約,但它可以作為一種道德旗幟。你會注意到誰沒有簽署它。
Wired:超過 4500 名谷歌員工簽名抗議抗議五角大樓合同。谷歌稱該項(xiàng)目并非用于攻擊目的。你是否簽署了抗議書?
GH:作為谷歌高管,我認(rèn)為我不應(yīng)該公開抱怨它,因此我私下里抱怨。我沒有簽署抗議書,而是和谷歌聯(lián)合創(chuàng)始人 Sergey Brin 吐槽了幾句。他說他對此也很苦惱。還好現(xiàn)在谷歌放棄競標(biāo)五角大樓的合同。
Wired:谷歌的領(lǐng)導(dǎo)者決定僅完成合同,而不是續(xù)約合同。他們發(fā)布了關(guān)于 AI 應(yīng)用的準(zhǔn)則,保證不將技術(shù)用于武器。
GH:我認(rèn)為谷歌做出了正確的決定。將來或許所有事情都需要云計(jì)算,我們很難知道在哪兒畫線,一定程度上畫線這件事是隨意的。我很高興谷歌畫下了這條線。這些準(zhǔn)則對我來說意義重大。
Wired:人工智能在日常生活中也引發(fā)了一些倫理問題。例如,用軟件為社會服務(wù)或醫(yī)療做決策。我們應(yīng)該注意什么呢?
GH:在讓技術(shù)運(yùn)轉(zhuǎn)這方面我是專家,但在社會政策方面我是外行。我對此持有技術(shù)專業(yè)見解的地方在于,監(jiān)管結(jié)構(gòu)是否堅(jiān)持讓你解釋 AI 系統(tǒng)的運(yùn)行原理。我認(rèn)為這將是災(zāi)難。
人們無法解釋自己做很多事的工作原理。當(dāng)你雇傭某人時,決策是基于你能夠量化的所有事物,以及所有本能直覺。人們不知道自己是怎么決策的。如果你讓人解釋自己的決策,你就是強(qiáng)制他們編故事。
神經(jīng)網(wǎng)絡(luò)也有類似的問題。當(dāng)你訓(xùn)練神經(jīng)網(wǎng)絡(luò)時,它會學(xué)習(xí)從訓(xùn)練數(shù)據(jù)中提取的十億個表示知識的數(shù)字。如果你輸入一張圖像,它會輸出正確的決策,比如這是不是行人。但是如果你問它「為什么你這么認(rèn)為?」,要是有用于決定一張圖像中是否包含行人的簡單規(guī)則,那這個問題早就解決了。
Wired:我們怎么知道何時應(yīng)該信任這些系統(tǒng)呢?
GH:你應(yīng)該基于執(zhí)行效果來管理它們。運(yùn)行實(shí)驗(yàn)來看是否存在偏差,或者它會不會殺人。拿自動駕駛汽車來說,我認(rèn)為人們逐漸接受它了。即使你不怎么了解自動駕駛汽車的運(yùn)作原理,但如果自動駕駛汽車的事故率大大低于人類駕駛汽車,那么這就是件好事。我認(rèn)為我們必須像對待人類一樣對待人工智能系統(tǒng):只看它們的執(zhí)行效果,如果它們不斷遇到困難,那你可以說它們不夠好。
Wired:你曾經(jīng)說過,思考大腦的運(yùn)作原理對你在人工神經(jīng)網(wǎng)絡(luò)方面的研究有所啟發(fā)。人類大腦通過由大量突觸聯(lián)結(jié)而成的神經(jīng)元網(wǎng)絡(luò)從感官中獲取信息。人工神經(jīng)網(wǎng)絡(luò)通過由權(quán)重連接的數(shù)學(xué)神經(jīng)元網(wǎng)絡(luò)獲得數(shù)據(jù)。在上周發(fā)布的一篇論文《Assessing the Scalability of Biologically-Motivated Deep Learning Algorithms and Architectures》中,你和幾位共同作者認(rèn)為我們應(yīng)該進(jìn)一步揭示人腦中的學(xué)習(xí)算法。為什么?
GH:人腦與大部分神經(jīng)網(wǎng)絡(luò)解決的問題大相徑庭。人腦中大約有 100 萬億個突觸,是人工神經(jīng)網(wǎng)絡(luò)權(quán)重?cái)?shù)量的 10,000 倍。人腦使用大量突觸盡可能多地從幾個 episode 中學(xué)習(xí)。而深度學(xué)習(xí)擅長利用神經(jīng)元之間的連接(比人腦突觸少得多)來學(xué)習(xí),且它還需要有很多 episode 或樣本。我認(rèn)為人腦不考慮將大量知識擠到少量連接中,它考慮的是用大量連接來提取知識。
Wired:要使機(jī)器學(xué)習(xí)系統(tǒng)更多地按人腦的方式運(yùn)作,我們應(yīng)該怎么做?
GH:我認(rèn)為我們需要轉(zhuǎn)向不同類型的計(jì)算機(jī)。幸運(yùn)的是我有一臺。
(Hinton 從錢包里掏出一個大的硅芯片,是 Graphcore 公司的一款芯片原型。)
我們用來運(yùn)行神經(jīng)網(wǎng)絡(luò)的幾乎所有計(jì)算機(jī)系統(tǒng),甚至谷歌的特殊硬件,都使用 RAM 來存儲正在運(yùn)行的程序。將神經(jīng)網(wǎng)絡(luò)的權(quán)重從 RAM 中取出以便處理器使用需要耗費(fèi)大量能源。因此每個人必須確保自己的軟件能夠獲取權(quán)重,軟件還會多次使用權(quán)重。這是一筆巨大的成本,而你對每個訓(xùn)練樣本都必須這么做。
在 Graphcore 芯片上,權(quán)重存儲在處理器上的緩存中,而不在 RAM 中,這樣權(quán)重就無需移動。這樣很多事就比較好探索了。我們或許將得到這樣的系統(tǒng):擁有一萬億權(quán)重,而每個樣本只能接觸其中十億權(quán)重。這樣就更像大腦的規(guī)模了。
Wired:近期對 AI 和機(jī)器學(xué)習(xí)日益高漲的興趣意味著對相關(guān)研究的資助前所未有。該領(lǐng)域的快速增長是否也帶來新的挑戰(zhàn)?
GH:社區(qū)面臨的一項(xiàng)巨大挑戰(zhàn)是,如果現(xiàn)在你想發(fā)表一篇機(jī)器學(xué)習(xí)論文,那么論文中必須有圖表,表中列舉不同數(shù)據(jù)集、不同的方法,且你提出的方法必須看起來是最好的那一個。如果不是,那么這篇論文很難發(fā)表。我認(rèn)為這不利于人們思考創(chuàng)新型想法。
現(xiàn)在如果你寫了一篇表達(dá)全新想法的論文,它幾乎沒有可能被接收,因?yàn)楹芏嗄贻p的論文評審者壓根不理解它?;蛘咚搅速Y深評審者手里,但 ta 要評審太多論文,無法在第一輪就理解它,并認(rèn)為這篇論文無意義。任何讓大腦受傷的事物都可能不會被接受。我認(rèn)為這非常糟糕。
在基礎(chǔ)的科學(xué)會議上,我們應(yīng)該追尋全新的想法。因?yàn)槲覀冎篱L期來看,全新想法要比小的改進(jìn)具備更大的影響力?,F(xiàn)在我們的做法顛倒了,我認(rèn)為這是最大的弊端。
Wired:這會導(dǎo)致該領(lǐng)域的發(fā)展脫離正軌嗎?
GH:只需要等待幾年,失衡會糾正失衡。這只是暫時的。公司忙于教育員工,大學(xué)忙于教育學(xué)生,大學(xué)終將雇傭更多該領(lǐng)域的教授,它會自行回歸正確的道路。
Wired:一些學(xué)者提醒,當(dāng)前的人工智能炒作將導(dǎo)致「AI 寒冬」,就像 1980 年代那樣,由于進(jìn)展無法滿足期望,而導(dǎo)致興趣和資金的干涸。
GH:不會進(jìn)入「AI 寒冬」,因?yàn)?AI 已經(jīng)進(jìn)入你的手機(jī)了。在之前的「AI 寒冬」中,AI 并沒有成為人們?nèi)粘I畹囊徊糠?。而現(xiàn)在它是了。