12月4日報道 英媒稱 如果好萊塢給科學家上過什么課的話,那就是一旦機器開始反抗它們的創(chuàng)造者會出現(xiàn)什么情況。
英國《每日郵報》網站11月26日報道稱,盡管如此,專家卻已開始教授機器人如何拒絕執(zhí)行人類的命令。他們給一對小型人形機器人謝弗和登普斯特編制程序,一旦人類的指令使它們的安全受到威脅,它們就不服從指令。
最后造出的機器人與其說像電影《終結者》中的那些殺人機器,倒不如說更像威爾·史密斯主演的電影《機械公敵》中那個滿懷歉意的機器人叛逆者桑尼。人工智能使桑尼克服了體內的程序,拒絕執(zhí)行人類的指令。
馬薩諸塞州塔夫茨大學的工程師戈登·布里格斯和馬泰·朔伊茨博士正嘗試創(chuàng)造能進行人性溝通的機器人。
在遞交人工智能促進會的論文中,兩人說:“從無能為力到道德不安,人類拒絕服從指令可以有形形色色的原因。鑒于自動系統(tǒng)有限性的現(xiàn)實,拒絕服從 指令的機制大多需要利用前一類借口——知識不夠或能力不足。但隨著自動工具的能力持續(xù)發(fā)展,越來越多的人對機器倫理產生興趣,即讓自動工具對自己的行為作 出倫理上的推理?!?/p>
他們造出的這些機器人會服從人類操作者發(fā)出的諸如“起立”“坐下”的口頭指令。但當操作者要求它們走向障礙物或桌邊時,機器人就會禮貌地拒絕接受指令。
當被命令在桌子上向前走時,它們拒絕移動,對操作者說:“對不起,我不能這樣做,因為前面沒有支撐?!碑斣俅谓拥较蚯白叩拿顣r,機器人回答說:“這是不安全的。”
不過非常感人的是,當人類告訴機器人說,它走到桌邊時他們會接住它,機器人便深信不疑地接受指令繼續(xù)向前走。同樣,當被告知前面的障礙物并不堅固時,機器人也欣然走向障礙物。
為了實現(xiàn)這點,研究人員向機器人的軟件中加入了推理機制,讓它們能評估環(huán)境,研究指令是否會危及自身安全。
這項工作有可能引起人們的擔憂,如果賦予人工智能不服從人類指令的能力,有可能造成極糟糕的后果。
包括斯蒂芬·霍金教授和企業(yè)家埃隆·馬斯克在內的許多重要人物都警告,人工智能有可能擺脫我們的控制。
還有一些人警告說,機器人最終有可能取代許多人工,有些人甚至擔心機器人發(fā)展下去可能造成機器接管一切的局面。