《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > 嵌入式技術(shù) > 業(yè)界動(dòng)態(tài) > 學(xué)者專家呼吁禁止研發(fā)AI武器

學(xué)者專家呼吁禁止研發(fā)AI武器

2015-08-03
關(guān)鍵詞: AI武器 霍金 蘋果 Tesla

       物理學(xué)家霍金(Stephen Hawking)、Tesla執(zhí)行長Elon Musk以及蘋果(Apple)共同創(chuàng)辦人Steve Wozniak等幾百位在學(xué)術(shù)界與產(chǎn)業(yè)界頗負(fù)盛名的專家學(xué)者們?nèi)涨昂炇鹆艘环莘磳?duì)攻擊性自動(dòng)武器的公開信。

   這封公開信是生命未來研究所(Future of Life Institute;FLI)在2015年人工智慧國際聯(lián)合會(huì)(IJCAI)開幕時(shí)所發(fā)表的,用意在于警告開發(fā)軍事人工智慧(Artificial Intelligence;AI)系統(tǒng)的軍備競賽將會(huì)傷害人類。

  “如果有任何重大的軍事力量推動(dòng)AI武器的發(fā)展,不可避免地將會(huì)造成一波全球性的軍備競賽,而這項(xiàng)技術(shù)軌跡的終點(diǎn)是顯而易見的:自動(dòng)武器將會(huì)變成明日的Kalashnikovs沖鋒槍?!?/p>

  信中強(qiáng)調(diào),這樣的系統(tǒng)利用其強(qiáng)大的可承受能力,無可避免地將會(huì)變得無所不在,并且被用于暗殺、動(dòng)蕩國家、進(jìn)行種族屠殺與恐怖主義。

   FLI是由美國麻省理工學(xué)院(MIT)宇宙學(xué)家Max Tegmark和Skype共同創(chuàng)辦人Jaan Tallinn聯(lián)手成立的,Hawking與Musk擔(dān)任該研究所顧問,期望教導(dǎo)人們看清伴隨人類發(fā)展AI而來的風(fēng)險(xiǎn)。他們先前已經(jīng)公開指出超先進(jìn)AI的 潛在危險(xiǎn),Musk還曾經(jīng)強(qiáng)調(diào)先進(jìn)的AI最終“可能成為我們最大的生存威脅”。

捕獲.PNG

   由AI帶來的潛在危險(xiǎn)已成為技術(shù)專家和決策者之間討論的共同話題。就在一個(gè)月前,位于美國華府的資訊技術(shù)與創(chuàng)新基金會(huì)(Information Technology and Innovation Foundation)邀請(qǐng)多位知名的電腦科學(xué)家共同針對(duì)超級(jí)智慧電腦是否真的對(duì)人類造成威脅的問題展開廣泛討論。

  加州大學(xué)柏克萊分校AI教授Stuart Russell參與了這場(chǎng)辯論會(huì),同時(shí)也簽署了這封公開信。根據(jù)他的觀察,“AI是否會(huì)對(duì)人類造成威脅,取決于我們是否使其成為人類的威脅?!彼麖?qiáng)調(diào),我們還必須更加努力,才能確保不會(huì)使AI成為人類的威脅。

  美國軍方目前堅(jiān)稱,自動(dòng)系統(tǒng)必須服從人類的指揮。根據(jù)2012年美國國防部(DoD)的政策指令規(guī)定,“自動(dòng)與半自動(dòng)武器系統(tǒng)的設(shè)計(jì)必須能讓指揮官和營運(yùn)商行使適當(dāng)?shù)娜藶榕袛?,凌駕于武力的使用之上。”

  然而,人類控制超越這些系統(tǒng)的實(shí)踐仍然不完善。2014年,人權(quán)組織Reprieve聲稱,美國無人機(jī)在每一次預(yù)定目標(biāo)的攻擊行動(dòng)中意外導(dǎo)致28名不明個(gè)人死亡。

  美國國防部對(duì)于自動(dòng)武器的政策必須在發(fā)布后的五年內(nèi)重新認(rèn)證,否則將在2022年到期。然而,如果其他國家不斷追逐自動(dòng)系統(tǒng)的開發(fā),那么政治或軍事領(lǐng)袖是否會(huì)持持這項(xiàng)策略就不得而知了。

  在2014年的報(bào)告中,華府的一個(gè)防御政策小組——新美國安全中心(CNAS)聲稱,全球至少有75個(gè)國家仍不斷投資于自動(dòng)軍事系統(tǒng)的研發(fā),而美國將“出于運(yùn)作的必要性而被迫投入些系統(tǒng),同時(shí)也因?yàn)槿藛T的成本以及傳統(tǒng)載人作戰(zhàn)平臺(tái)的發(fā)展越來越無以為繼。”

  如果CNAS是正確的,那么自動(dòng)系統(tǒng)的經(jīng)濟(jì)將會(huì)十分吸引人,攻擊性武器的禁令可能無法實(shí)現(xiàn)。

  經(jīng)濟(jì)吸引力

  經(jīng)濟(jì)將在武器系統(tǒng)的訴求下展現(xiàn)明顯作用。Kalashnikov步槍在很大程度上取決于其普及度、可負(fù)擔(dān)性以及簡單性?;蛘撸缘乩诪槔?,這種表面上的攻擊性自動(dòng)武器并不包括在公開信提出“禁用攻擊性自動(dòng)武器”的涵蓋范圍內(nèi)。

  根據(jù)聯(lián)合國的資料,地雷的制造費(fèi)用介于3美元至75美元之間。從1960年代以來,已經(jīng)有多達(dá)1.1億個(gè)地雷被部署在全世界70多個(gè)國家中。此外,在戰(zhàn)時(shí)尚未被發(fā)現(xiàn)的地雷仍可能引爆。

  禁止地雷的確有其效果:在1999年分頒布禁雷條約(Mine Ban Treaty)后,因地雷死傷的人數(shù)已經(jīng)從每天25人降低到9人了。但對(duì)于地雷的限制至今尚未取得世界各地或每個(gè)人的重視。

   的確,更好的AI實(shí)際上也有許多好處。例如,基本的地雷演算法是:如果觸發(fā),隨即爆炸。它能做得更有識(shí)別能力嗎?——何時(shí)爆炸、該礦區(qū)的機(jī)制是機(jī)械或電 子的?例如在地雷中加一個(gè)逾期計(jì)時(shí)器,就能避免許多意外致死,特別是當(dāng)作戰(zhàn)結(jié)束后。更先進(jìn)的系統(tǒng)對(duì)于有效目標(biāo)應(yīng)該具有更高的識(shí)別能力。

  攻擊性的向動(dòng)武器目前已經(jīng)存在了。除了地雷,還有自動(dòng)網(wǎng)路武器。例如,Stuxnet一直被歸類于AI。事實(shí)上,相較于消極地禁止自動(dòng)武器系統(tǒng)以外,更實(shí)際也更有效的作法在于追尋一個(gè)積極管理的制度。

本站內(nèi)容除特別聲明的原創(chuàng)文章之外,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,并不代表本網(wǎng)站贊同其觀點(diǎn)。轉(zhuǎn)載的所有的文章、圖片、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無法一一聯(lián)系確認(rèn)版權(quán)者。如涉及作品內(nèi)容、版權(quán)和其它問題,請(qǐng)及時(shí)通過電子郵件或電話通知我們,以便迅速采取適當(dāng)措施,避免給雙方造成不必要的經(jīng)濟(jì)損失。聯(lián)系電話:010-82306118;郵箱:aet@chinaaet.com。