英國物理學家史蒂芬 霍金認為,人工智能的潛在威脅絕不僅僅是像電影《終結(jié)者》里描繪的那種夢魘,他認為,人工智能正在走向錯誤的軌跡。
在接受拉里 金采訪時,霍金說道:
政府看上去正在進行一場人工智能軍備競賽,利用智能技術(shù)設(shè)計飛機和武器。而那些真正需要人工智能技術(shù)幫助的地方,比如在醫(yī)療健康領(lǐng)域,反而并不能優(yōu)先拿到直接資金支持。
霍金擔心人工智能并不讓人感到意外——他從幾年前就開始提出類似的擔憂了。但是對于人工智能軍備競賽,顯然這已經(jīng)不是短期問題,而是需要引起我們的長期關(guān)注了。
當然,人工智能競賽肯定還會在各個領(lǐng)域里繼續(xù),比如微軟利用人工智能提升應用程序,還有很多公司都在探索自動駕駛汽車。不過,除了霍金之外,SpaceX創(chuàng)始人埃隆?馬斯克,蘋果聯(lián)合創(chuàng)始人史蒂夫?沃茲尼亞克,以及其他數(shù)千個科技界人士都在密切關(guān)注人工智能在軍事領(lǐng)域中的應用。
在接受拉里?金的“Larry King Now”節(jié)目線上采訪時,霍金承認人工智能可以給人類帶來很多好處。他說:
想象一下,人工智能算法可以快速評估科學家的想法,更早監(jiān)測出癌癥,甚至預測股票市場。
但霍金同時也表示,人工智能必須要受到嚴格監(jiān)管。
但是,對于未來學家雷?庫茲韋爾提出只需幾十年就能實現(xiàn)人類思維和機器的融合,霍金并不認同,他說:
我覺得雷?庫茲韋爾的想法過于簡單化、也過于樂觀了。指數(shù)級增長不可能一直持續(xù)下去。過去也有發(fā)生過的類似預測,有些我們無法預測的事情會打斷人工智能的發(fā)展。我不認為人工智能必然會良性發(fā)展。一旦到了某個關(guān)鍵階段,機器能夠?qū)崿F(xiàn)自我進化,我們就不能預測他們的目標是否會和人類的保持一致。
這就是霍金和庫茲韋爾彼此之間的一場隔空辯論?;氐?014年,庫茲韋爾曾表示霍金本人就是人工智能技術(shù)的受益者——比如,語音合成軟件,幫助他克服了自己衰弱的神經(jīng)性變異疾病。同時,他還指出在認識人工智能前景時,人類通常會出于危險考慮而設(shè)置一個“道德律令”。
拉里?金的采訪安排在了本屆Starmus大會上,今年這屆科學大會被安排在了加那利群島,目的是為了慶祝霍金的人生和事業(yè)所取得的成就。霍金是世界上存活時間最長,也是最著名的肌萎縮側(cè)索硬化癥患者,明年一月,他就75歲了。
下面是本次采訪其他一些主要內(nèi)容:
霍金說,人工智能不是人類所遇到的唯一威脅,人口膨脹和空氣污染(包括不斷增長的溫室氣體排放)也是最需要引起人們注意的問題?!艾F(xiàn)在關(guān)注如何避免全球變暖的問題是不是已經(jīng)太晚了呢?”霍金問道。對于這些問題,他看上去并不樂觀。拉里?金詢問霍金從六年前的上一次采訪至今,有什么事情發(fā)生了變化,霍金回答說:“我們?nèi)祟惍斎灰沧兊貌荒敲簇澙泛陀薮懒??!?/p>
霍金最著名的,就是他提出的黑洞理論。最近他又發(fā)表了一篇論文,闡述了黑洞不會摧毀所有被它吸入的東西。但最讓霍金感到驚訝的是,他發(fā)現(xiàn)了一些加速宇宙膨脹的神秘因素,這個因素被稱為暗能量,但是霍金表示之所以叫這個名字,是因為它只是一個名字,用來命名我們還不明白東西的而已。
霍金認為,宇宙中最神秘的問題就是關(guān)于宇宙本身的意義。他說道:“為什么會有宇宙和所有自然法則的存在?他們有存在的必要嗎?在某種意義上,他們肯定有存在的必要,否則我們就不會在這里問這樣的問題了。不過,是否還會有其他更深層次的原因嗎?”
幾年前,霍金曾說過他覺得女人完全就是一個“迷”——雖然有些批評家認為霍金這么說帶有一點性別歧視的色彩。拉里?金在采訪時有提到了這件事,霍金回答說:“從那時候開始,我已經(jīng)從女人身上學到了很多東西?!贝送?,霍金還提醒拉里?金,他已經(jīng)和七個不同的女人結(jié)了八次婚?;艚饐柕溃骸敖?jīng)驗越多,是不是就越容易成功?”拉里?金回答:“你說的沒錯,對于這問題,我覺得該回答——是的。”