物理學(xué)家霍金(Stephen Hawking)、Tesla執(zhí)行長Elon Musk以及蘋果(Apple)共同創(chuàng)辦人Steve Wozniak等幾百位在學(xué)術(shù)界與產(chǎn)業(yè)界頗負(fù)盛名的專家學(xué)者們?nèi)涨昂炇鹆艘环莘磳粜宰詣?dòng)武器的公開信。
這封公開信是生命未來研究所(Future of Life Institute;FLI)在2015年人工智慧國際聯(lián)合會(IJCAI)開幕時(shí)所發(fā)表的,用意在于警告開發(fā)軍事人工智慧(Artificial Intelligence;AI)系統(tǒng)的軍備競賽將會傷害人類。
“如果有任何重大的軍事力量推動(dòng)AI武器的發(fā)展,不可避免地將會造成一波全球性的軍備競賽,而這項(xiàng)技術(shù)軌跡的終點(diǎn)是顯而易見的:自動(dòng)武器將會變成明日的Kalashnikovs沖鋒槍?!?/p>
信中強(qiáng)調(diào),這樣的系統(tǒng)利用其強(qiáng)大的可承受能力,無可避免地將會變得無所不在,并且被用于暗殺、動(dòng)蕩國家、進(jìn)行種族屠殺與恐怖主義。
FLI是由美國麻省理工學(xué)院(MIT)宇宙學(xué)家Max Tegmark和Skype共同創(chuàng)辦人Jaan Tallinn聯(lián)手成立的,Hawking與Musk擔(dān)任該研究所顧問,期望教導(dǎo)人們看清伴隨人類發(fā)展AI而來的風(fēng)險(xiǎn)。他們先前已經(jīng)公開指出超先進(jìn)AI的 潛在危險(xiǎn),Musk還曾經(jīng)強(qiáng)調(diào)先進(jìn)的AI最終“可能成為我們最大的生存威脅”。
由AI帶來的潛在危險(xiǎn)已成為技術(shù)專家和決策者之間討論的共同話題。就在一個(gè)月前,位于美國華府的資訊技術(shù)與創(chuàng)新基金會(Information Technology and Innovation Foundation)邀請多位知名的電腦科學(xué)家共同針對超級智慧電腦是否真的對人類造成威脅的問題展開廣泛討論。
加州大學(xué)柏克萊分校AI教授Stuart Russell參與了這場辯論會,同時(shí)也簽署了這封公開信。根據(jù)他的觀察,“AI是否會對人類造成威脅,取決于我們是否使其成為人類的威脅?!彼麖?qiáng)調(diào),我們還必須更加努力,才能確保不會使AI成為人類的威脅。
美國軍方目前堅(jiān)稱,自動(dòng)系統(tǒng)必須服從人類的指揮。根據(jù)2012年美國國防部(DoD)的政策指令規(guī)定,“自動(dòng)與半自動(dòng)武器系統(tǒng)的設(shè)計(jì)必須能讓指揮官和營運(yùn)商行使適當(dāng)?shù)娜藶榕袛?,凌駕于武力的使用之上?!?/p>
然而,人類控制超越這些系統(tǒng)的實(shí)踐仍然不完善。2014年,人權(quán)組織Reprieve聲稱,美國無人機(jī)在每一次預(yù)定目標(biāo)的攻擊行動(dòng)中意外導(dǎo)致28名不明個(gè)人死亡。
美國國防部對于自動(dòng)武器的政策必須在發(fā)布后的五年內(nèi)重新認(rèn)證,否則將在2022年到期。然而,如果其他國家不斷追逐自動(dòng)系統(tǒng)的開發(fā),那么政治或軍事領(lǐng)袖是否會持持這項(xiàng)策略就不得而知了。
在2014年的報(bào)告中,華府的一個(gè)防御政策小組——新美國安全中心(CNAS)聲稱,全球至少有75個(gè)國家仍不斷投資于自動(dòng)軍事系統(tǒng)的研發(fā),而美國將“出于運(yùn)作的必要性而被迫投入些系統(tǒng),同時(shí)也因?yàn)槿藛T的成本以及傳統(tǒng)載人作戰(zhàn)平臺的發(fā)展越來越無以為繼?!?/p>
如果CNAS是正確的,那么自動(dòng)系統(tǒng)的經(jīng)濟(jì)將會十分吸引人,攻擊性武器的禁令可能無法實(shí)現(xiàn)。
經(jīng)濟(jì)吸引力
經(jīng)濟(jì)將在武器系統(tǒng)的訴求下展現(xiàn)明顯作用。Kalashnikov步槍在很大程度上取決于其普及度、可負(fù)擔(dān)性以及簡單性?;蛘?,以地雷為例,這種表面上的攻擊性自動(dòng)武器并不包括在公開信提出“禁用攻擊性自動(dòng)武器”的涵蓋范圍內(nèi)。
根據(jù)聯(lián)合國的資料,地雷的制造費(fèi)用介于3美元至75美元之間。從1960年代以來,已經(jīng)有多達(dá)1.1億個(gè)地雷被部署在全世界70多個(gè)國家中。此外,在戰(zhàn)時(shí)尚未被發(fā)現(xiàn)的地雷仍可能引爆。
禁止地雷的確有其效果:在1999年分頒布禁雷條約(Mine Ban Treaty)后,因地雷死傷的人數(shù)已經(jīng)從每天25人降低到9人了。但對于地雷的限制至今尚未取得世界各地或每個(gè)人的重視。
的確,更好的AI實(shí)際上也有許多好處。例如,基本的地雷演算法是:如果觸發(fā),隨即爆炸。它能做得更有識別能力嗎?——何時(shí)爆炸、該礦區(qū)的機(jī)制是機(jī)械或電 子的?例如在地雷中加一個(gè)逾期計(jì)時(shí)器,就能避免許多意外致死,特別是當(dāng)作戰(zhàn)結(jié)束后。更先進(jìn)的系統(tǒng)對于有效目標(biāo)應(yīng)該具有更高的識別能力。
攻擊性的向動(dòng)武器目前已經(jīng)存在了。除了地雷,還有自動(dòng)網(wǎng)路武器。例如,Stuxnet一直被歸類于AI。事實(shí)上,相較于消極地禁止自動(dòng)武器系統(tǒng)以外,更實(shí)際也更有效的作法在于追尋一個(gè)積極管理的制度。