據(jù)國外媒體報(bào)道, 頂尖的人工智能研究人員警告大眾,“AI軍備競賽”可能對(duì)人類是災(zāi)難性的,并敦促聯(lián)合國審議關(guān)于禁止“進(jìn)攻性自控制武器”的提案。生命未來研究所給出的公開信表示,那些自動(dòng)“選擇并打擊目標(biāo),無需人工干預(yù)”的武器可能成為明天的AK 47,成為助長戰(zhàn)爭、恐怖主義的全球不穩(wěn)定因素。這封公開信由許多科技界的知名人物聯(lián)署,其中包括斯蒂芬·霍金、伊隆·馬斯克和美國哲學(xué)家諾姆·喬姆斯。
該公開信表示,“人工智能(AI)技術(shù)已經(jīng)達(dá)到如果沒有法律約束,幾年內(nèi)就可部署的程度,而不是幾十年?!?該信表示帶有武器的四軸無人機(jī)就是一個(gè)很好的例子。雖然人工智能武器可以減少戰(zhàn)場(chǎng)上的人員傷亡,但這本身就是一個(gè)錯(cuò)誤,因?yàn)樗鼤?huì)降低走向戰(zhàn)爭的門檻。
“不像核武器,AI武器無需昂貴或難以取得原料,所以他們會(huì)變得無處不在。廉價(jià)到所有的軍事強(qiáng)國都會(huì)大批量生產(chǎn)。 他們出現(xiàn)在黑市和恐怖分子手中只是時(shí)間的問題?!?/p>
這封信結(jié)尾警告AI武器的發(fā)展可能會(huì)損害人工智能領(lǐng)域的發(fā)展,并引起“公眾的強(qiáng)烈反對(duì)”,將阻礙有益的人工智能研究。聯(lián)署人表示“應(yīng)對(duì)超越人類控制的進(jìn)攻武器采取禁令”,并敦促聯(lián)合國采取行動(dòng)。
目前半自動(dòng)武器系統(tǒng)已經(jīng)大幅增加,美國空軍預(yù)測(cè),“到2030年機(jī)械性能將極大增強(qiáng),人類反而將成為最弱的系統(tǒng)組件?!?無論是人工智能的批評(píng)者和支持者都表示,人工智能武器系統(tǒng)的界限很難拿捏。
公開信的其他聯(lián)署人還包括蘋果聯(lián)合創(chuàng)始人史蒂夫·沃茲尼亞克,Skype的聯(lián)合創(chuàng)始人Jaan Talinn,Demis Hassabis,英國人工智能公司DeepMind的CEO。