《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > 模擬設(shè)計(jì) > 業(yè)界動(dòng)態(tài) > 馬斯克和霍金等人聯(lián)名警告"人工智能軍備競賽"

馬斯克和霍金等人聯(lián)名警告"人工智能軍備競賽"

2015-07-29

  據(jù)國外媒體報(bào)道, 頂尖的人工智能研究人員警告大眾,“AI軍備競賽”可能對(duì)人類是災(zāi)難性的,并敦促聯(lián)合國審議關(guān)于禁止“進(jìn)攻性自控制武器”的提案。生命未來研究所給出的公開信表示,那些自動(dòng)“選擇并打擊目標(biāo),無需人工干預(yù)”的武器可能成為明天的AK 47,成為助長戰(zhàn)爭、恐怖主義的全球不穩(wěn)定因素。這封公開信由許多科技界的知名人物聯(lián)署,其中包括斯蒂芬·霍金、伊隆·馬斯克和美國哲學(xué)家諾姆·喬姆斯。

  該公開信表示,“人工智能(AI)技術(shù)已經(jīng)達(dá)到如果沒有法律約束,幾年內(nèi)就可部署的程度,而不是幾十年?!?該信表示帶有武器的四軸無人機(jī)就是一個(gè)很好的例子。雖然人工智能武器可以減少戰(zhàn)場(chǎng)上的人員傷亡,但這本身就是一個(gè)錯(cuò)誤,因?yàn)樗鼤?huì)降低走向戰(zhàn)爭的門檻。

  “不像核武器,AI武器無需昂貴或難以取得原料,所以他們會(huì)變得無處不在。廉價(jià)到所有的軍事強(qiáng)國都會(huì)大批量生產(chǎn)。 他們出現(xiàn)在黑市和恐怖分子手中只是時(shí)間的問題?!?/p>

  這封信結(jié)尾警告AI武器的發(fā)展可能會(huì)損害人工智能領(lǐng)域的發(fā)展,并引起“公眾的強(qiáng)烈反對(duì)”,將阻礙有益的人工智能研究。聯(lián)署人表示“應(yīng)對(duì)超越人類控制的進(jìn)攻武器采取禁令”,并敦促聯(lián)合國采取行動(dòng)。

  目前半自動(dòng)武器系統(tǒng)已經(jīng)大幅增加,美國空軍預(yù)測(cè),“到2030年機(jī)械性能將極大增強(qiáng),人類反而將成為最弱的系統(tǒng)組件?!?無論是人工智能的批評(píng)者和支持者都表示,人工智能武器系統(tǒng)的界限很難拿捏。

  公開信的其他聯(lián)署人還包括蘋果聯(lián)合創(chuàng)始人史蒂夫·沃茲尼亞克,Skype的聯(lián)合創(chuàng)始人Jaan Talinn,Demis Hassabis,英國人工智能公司DeepMind的CEO。


本站內(nèi)容除特別聲明的原創(chuàng)文章之外,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,并不代表本網(wǎng)站贊同其觀點(diǎn)。轉(zhuǎn)載的所有的文章、圖片、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無法一一聯(lián)系確認(rèn)版權(quán)者。如涉及作品內(nèi)容、版權(quán)和其它問題,請(qǐng)及時(shí)通過電子郵件或電話通知我們,以便迅速采取適當(dāng)措施,避免給雙方造成不必要的經(jīng)濟(jì)損失。聯(lián)系電話:010-82306118;郵箱:aet@chinaaet.com。