摘要:自從德國機器人“出事”之后,熱議機器人之聲全球起伏。有科學(xué)家認為要控制機器人的發(fā)展速度,也有科學(xué)家認為要加速機器人的發(fā)展,那么,在倫理道德觀念的今天,機器人的發(fā)展是否應(yīng)該兼具倫理道德觀念,既能有效發(fā)展機器人產(chǎn)業(yè),又能夠保證人類社會安全。
發(fā)展機器人 是否要兼具道德倫理觀
在1942年的短篇小說中,科幻作家Isaac
Asimov提出了機器人的3條準則——工程安全措施和內(nèi)置的道德準則,以保證機器人會友善對待人類并使人們免于機器末日。這些準則一是機器人不能傷害人
類,或無所作為而導(dǎo)致人類受傷害;二是機器人必須聽從命令,除非這些命令違背第一條準則;三是機器人必須保護自身,但這些保護不能與第一和第二條準則相違
背。
不過,今年5月,在美國布魯金斯學(xué)會的一個無人駕駛汽車研討會上,專家討論了在危急時刻無人駕駛汽車應(yīng)當怎樣做。如果汽車為了保護自己的乘客而急剎車,但造成后方車輛追尾應(yīng)如何?或當車輛為了躲避兒童進行急轉(zhuǎn),但撞到旁邊其他人怎么辦?
“在日常生活中,我們能看到越來越多的自動化系統(tǒng)。”研討會參加者、德國西門子公司工程師Karl-Josef Kuhn說。但他問道,研究人員如何能裝配一個可以在“兩個壞主意之間作決定的”機器人?
隨著機器人不斷發(fā)展,這些困境將很快影響到衛(wèi)生保健機器人、軍事無人機和其他有能力決定幫助或傷害人類的自動設(shè)備。研究人員越來越意識到,社會對此類機
器的接受程度將取決于它們是否安全,能否遵守社會準則和鼓勵彼此間的信任?!拔覀冃枰〉萌斯ぶ悄茉趥惱矸矫娴某晒Α!奔幽么鬁厣髮W(xué)哲學(xué)家
Marcello Guarini說?!?br/> 目前,幾個項目正在應(yīng)對這些挑戰(zhàn),其中包括美國海軍研究辦公室和英國政府工程資金委員會資助的一些創(chuàng)新項目。他們必須處理一系列難題,例如機器人要進行倫理決策需要哪些智能、程度如何以及如何將這些轉(zhuǎn)化成機器指令。計算機學(xué)家、機器人學(xué)家和哲學(xué)家都要投身其中?!?br/> “如果你5年前問我,我們能否制作出有道德的機器人,我將會說不能。但現(xiàn)在,我不再認為這是一個瘋狂的主意。”英國布里斯托機器人實驗室機器人專家Alan Winfield說。
學(xué)習(xí)型機器
一個被頻繁提及的實驗是一個名為Nao的商業(yè)機器人,它會提醒人們按時服藥。
“乍聽上去十分簡單?!笨的腋翊髮W(xué)哲學(xué)家SusanLeigh
Anderson說。她與丈夫、哈特福德大學(xué)計算機學(xué)家MichaelAnderson一起致力于機器人研究?!暗幢阍谶@種有限的任務(wù)中,也涉及許多倫
理問題?!崩?,如果患者拒絕接受它的藥物,Nao應(yīng)該如何做?
為了教Nao處理此類問題,Anderson夫婦給予它許多生物倫理學(xué)家解決自治、傷害和患者利益間沖突的案例。然后,學(xué)習(xí)算法會將這些案例分類,直到他 們找到指導(dǎo)機器人應(yīng)對新情況的模式?!?br/>
通過此類“機器學(xué)習(xí)”,機器人能從甚至模糊不清的輸入信息中提取有用的知識。該方法理論上將幫助機器人在遇到更多情況時,在倫理決策方面做得更好。但很
多人擔憂,這種進步是有代價的。斯坦福大學(xué)人工智能和倫理學(xué)講師JerryKaplan表示,這些原則不會被寫進計算機代碼,因此“你沒辦法了解為何一個
特殊程序能告訴它某件事在倫理上是對或錯”。
許多工程師表示,解決這一問題需要不同的策略,大部分人嘗試生成具有明確規(guī)則的程
序,而非要求機器人自行判斷。Winfield去年出版的實驗結(jié)論顯示:什么是能讓機器人營救掉入洞中的人的最簡單規(guī)則?Winfield認為,顯然機器
人需要能察覺周圍環(huán)境,識別出洞和人的位置以及它相對于兩者的位置。而且,機器人也需要規(guī)則以預(yù)期自身行動可能產(chǎn)生的影響。
Winfield的實驗使用了冰球大小的機器人,他讓其中一些“H機器人”代表人類,另一些“A機器人”代表以Asimov命名的倫理機器。
Winfield利用類似Asimov第一條法則的規(guī)則編成了“A機器人”:如果它認為“H機器人”掉入洞中,它必須前往拯救“H機器人”。
結(jié)果顯示,即便最低限度的倫理機器人也將是有用的。Winfield表示,“A機器人”通常會設(shè)法拯救“人類”,并會首先前往離自己近的那一個。有時,
通過快速移動,它甚至能兩個都救出。但實驗也顯示出保守行動的限制。在幾乎一半的試驗中,“A機器人”會陷入兩難境地,并使得兩個“H機器人”都“死
亡”?!?br/> 為了解決該問題,就需要額外的規(guī)則,以確定如何選擇。如果一個“H機器人”是成人,而另一個“H機器人”是兒童,“A機器人”應(yīng)該先救誰?諸如此類的判斷,即便是人類也不能總是達成一致。就像Kaplan提到的那樣,通常“我們不知道如何編纂何種顯性規(guī)則”?!?br/> 殺人機器爭論
支持者認為,基于規(guī)則的方法有一大優(yōu)點:它通常能明確機器人為何作出這個選擇,因為是它的設(shè)計者編纂了這些規(guī)則。對于美國軍隊而言,還有一個重要關(guān)注
點:哪些自動系統(tǒng)是重要的戰(zhàn)略目標。佐治亞理工學(xué)院機器人倫理軟件學(xué)家Ronald
Arkin指出,對于機器人能否協(xié)助士兵或執(zhí)行致死任務(wù),“你最不想做的事就是把一個自動機器人送到軍隊,并找出它應(yīng)遵循哪些規(guī)則”。如果一個機器人要選
擇拯救士兵還是追逐敵軍,它必須預(yù)先知道自己要做什么?!?br/> 在美國國防部的支持下,Arkin正在設(shè)計一個程序,以確保軍事機器人能按照國際戰(zhàn)爭條約執(zhí)行任務(wù)。一套名為“倫理管理”的算法將評估射擊導(dǎo)彈等任務(wù)是否可行,如果允許機器人行動,答案會是“是”?! ?br/> 在倫理管理的虛擬測試中,一個無人駕駛飛模擬行器被要求打擊敵方目標,但如果附近有平民設(shè)施則不能進行該任務(wù)。在各種給定的場景中,該算法會決定何時將允許無人機完成它的使命?!?br/>
目前,美、日、韓、英等國大幅增加了軍事機器人研發(fā)的經(jīng)費,有英國專家稱,20年內(nèi)“自動殺人機器”技術(shù)將可能被廣泛應(yīng)用。對此,不少人感到憂慮:對于
這些軍事機器,人類真的能完全掌控它們嗎?Arkin認為,這些機器在一些情況下能做得比人類士兵更好,只要它們被編程不會打破戰(zhàn)爭規(guī)則?!?br/> 無論如何,聯(lián)合國《特定常規(guī)武器公約》近日正再次就殺手機器人主題聽取技術(shù)和法律專家的意見。國際機器人武器控制委員會成員、斯坦福大學(xué)網(wǎng)絡(luò)與社會研究中心的Pete rAsaro表示,越來越多的人贊同,沒有人類監(jiān)督情形下的機器人殺人是不可接受的。
人類、道德和機器
自從1818年瑪麗·雪萊創(chuàng)作出世界上第一部科幻小說《科學(xué)怪人》,到1927年美國西屋公司制造出第一個機器人“電報箱”,再到現(xiàn)在,幻想正在一步步變?yōu)楝F(xiàn)實。機器人在擁有“十八般武藝”的同時,也甚至開始有自己的“情感”?!?br/>
近日,日本電信企業(yè)軟銀集團宣布,將在日本推出能識別人的情感并與人交流的機器人Pepper。據(jù)介紹,第一代Pepper機器人于去年6月公開亮相,
經(jīng)過1年的研發(fā),新款機器人的智力和情感交流能力都有顯著提升。新款機器人Pepper時而歌唱、時而舞蹈,并且輕松自如地與人們互動交流。當受到人們表
揚時,Pepper會流露出喜悅之情。當被“戲弄”時,則會委屈地放聲哭泣。隨著科技的發(fā)展,情感機器人總有一天會變?yōu)楝F(xiàn)實。這不禁引發(fā)了人類新的 思考:
人應(yīng)該怎樣對待機器人?
研究人員表示,如何建造倫理機器人將對機器人的未來發(fā)展產(chǎn)生重要影響。英國利物浦大學(xué)計算機學(xué)家
Michael
Fisher認為,規(guī)則約束系統(tǒng)將讓大眾安心?!叭绻麄儾淮_定機器人會做什么,他們會害怕機器人。”他說,“但如果我們能分析和證明他們的行為的原因,
我們就可能克服這種信任問題。”在一個政府資助項目中,他與Winfield等人合作,以證實倫理機器項目的產(chǎn)出。
相比之下,機
器學(xué)習(xí)方法讓機器人能從經(jīng)驗中提取信息。這將使得它們更靈活和有用。許多機器人專家表示,最好的前進道路是多種方法結(jié)合?!斑@有點類似精神療
法?!盤ereira說,“你可能不會只用一個理論?!币粋€尚未解決的挑戰(zhàn)是,如何將這些方法結(jié)合成一個可行的方法。