《電子技術應用》
您所在的位置:首頁 > 嵌入式技術 > 業(yè)界動態(tài) > 科學家教機器人學習拒絕人類命令引發(fā)擔憂

科學家教機器人學習拒絕人類命令引發(fā)擔憂

2015-12-04

捕獲.JPG  

       12月4日報道 英媒稱 如果好萊塢給科學家上過什么課的話,那就是一旦機器開始反抗它們的創(chuàng)造者會出現(xiàn)什么情況。

  英國《每日郵報》網站11月26日報道稱,盡管如此,專家卻已開始教授機器人如何拒絕執(zhí)行人類的命令。他們給一對小型人形機器人謝弗和登普斯特編制程序,一旦人類的指令使它們的安全受到威脅,它們就不服從指令。

  最后造出的機器人與其說像電影《終結者》中的那些殺人機器,倒不如說更像威爾·史密斯主演的電影《機械公敵》中那個滿懷歉意的機器人叛逆者桑尼。人工智能使桑尼克服了體內的程序,拒絕執(zhí)行人類的指令。

  馬薩諸塞州塔夫茨大學的工程師戈登·布里格斯和馬泰·朔伊茨博士正嘗試創(chuàng)造能進行人性溝通的機器人。

  在遞交人工智能促進會的論文中,兩人說:“從無能為力到道德不安,人類拒絕服從指令可以有形形色色的原因。鑒于自動系統(tǒng)有限性的現(xiàn)實,拒絕服從 指令的機制大多需要利用前一類借口——知識不夠或能力不足。但隨著自動工具的能力持續(xù)發(fā)展,越來越多的人對機器倫理產生興趣,即讓自動工具對自己的行為作 出倫理上的推理?!?/p>

  他們造出的這些機器人會服從人類操作者發(fā)出的諸如“起立”“坐下”的口頭指令。但當操作者要求它們走向障礙物或桌邊時,機器人就會禮貌地拒絕接受指令。

  當被命令在桌子上向前走時,它們拒絕移動,對操作者說:“對不起,我不能這樣做,因為前面沒有支撐?!碑斣俅谓拥较蚯白叩拿顣r,機器人回答說:“這是不安全的。”

  不過非常感人的是,當人類告訴機器人說,它走到桌邊時他們會接住它,機器人便深信不疑地接受指令繼續(xù)向前走。同樣,當被告知前面的障礙物并不堅固時,機器人也欣然走向障礙物。

  為了實現(xiàn)這點,研究人員向機器人的軟件中加入了推理機制,讓它們能評估環(huán)境,研究指令是否會危及自身安全。

  這項工作有可能引起人們的擔憂,如果賦予人工智能不服從人類指令的能力,有可能造成極糟糕的后果。

  包括斯蒂芬·霍金教授和企業(yè)家埃隆·馬斯克在內的許多重要人物都警告,人工智能有可能擺脫我們的控制。

  還有一些人警告說,機器人最終有可能取代許多人工,有些人甚至擔心機器人發(fā)展下去可能造成機器接管一切的局面。

本站內容除特別聲明的原創(chuàng)文章之外,轉載內容只為傳遞更多信息,并不代表本網站贊同其觀點。轉載的所有的文章、圖片、音/視頻文件等資料的版權歸版權所有權人所有。本站采用的非本站原創(chuàng)文章及圖片等內容無法一一聯(lián)系確認版權者。如涉及作品內容、版權和其它問題,請及時通過電子郵件或電話通知我們,以便迅速采取適當措施,避免給雙方造成不必要的經濟損失。聯(lián)系電話:010-82306118;郵箱:aet@chinaaet.com。