《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > 嵌入式技術(shù) > 業(yè)界動態(tài) > 發(fā)展機(jī)器人 是否要兼具道德倫理觀

發(fā)展機(jī)器人 是否要兼具道德倫理觀

2015-07-07

       摘要:自從德國機(jī)器人“出事”之后,熱議機(jī)器人之聲全球起伏。有科學(xué)家認(rèn)為要控制機(jī)器人的發(fā)展速度,也有科學(xué)家認(rèn)為要加速機(jī)器人的發(fā)展,那么,在倫理道德觀念的今天,機(jī)器人的發(fā)展是否應(yīng)該兼具倫理道德觀念,既能有效發(fā)展機(jī)器人產(chǎn)業(yè),又能夠保證人類社會安全。

635718571625418991312.jpg

發(fā)展機(jī)器人 是否要兼具道德倫理觀

  在1942年的短篇小說中,科幻作家Isaac Asimov提出了機(jī)器人的3條準(zhǔn)則——工程安全措施和內(nèi)置的道德準(zhǔn)則,以保證機(jī)器人會友善對待人類并使人們免于機(jī)器末日。這些準(zhǔn)則一是機(jī)器人不能傷害人 類,或無所作為而導(dǎo)致人類受傷害;二是機(jī)器人必須聽從命令,除非這些命令違背第一條準(zhǔn)則;三是機(jī)器人必須保護(hù)自身,但這些保護(hù)不能與第一和第二條準(zhǔn)則相違 背。
  不過,今年5月,在美國布魯金斯學(xué)會的一個無人駕駛汽車研討會上,專家討論了在危急時刻無人駕駛汽車應(yīng)當(dāng)怎樣做。如果汽車為了保護(hù)自己的乘客而急剎車,但造成后方車輛追尾應(yīng)如何?或當(dāng)車輛為了躲避兒童進(jìn)行急轉(zhuǎn),但撞到旁邊其他人怎么辦? 
  “在日常生活中,我們能看到越來越多的自動化系統(tǒng)。”研討會參加者、德國西門子公司工程師Karl-Josef Kuhn說。但他問道,研究人員如何能裝配一個可以在“兩個壞主意之間作決定的”機(jī)器人? 
   隨著機(jī)器人不斷發(fā)展,這些困境將很快影響到衛(wèi)生保健機(jī)器人、軍事無人機(jī)和其他有能力決定幫助或傷害人類的自動設(shè)備。研究人員越來越意識到,社會對此類機(jī) 器的接受程度將取決于它們是否安全,能否遵守社會準(zhǔn)則和鼓勵彼此間的信任?!拔覀冃枰〉萌斯ぶ悄茉趥惱矸矫娴某晒Α!奔幽么鬁厣髮W(xué)哲學(xué)家 Marcello Guarini說?!?br/>  目前,幾個項目正在應(yīng)對這些挑戰(zhàn),其中包括美國海軍研究辦公室和英國政府工程資金委員會資助的一些創(chuàng)新項目。他們必須處理一系列難題,例如機(jī)器人要進(jìn)行倫理決策需要哪些智能、程度如何以及如何將這些轉(zhuǎn)化成機(jī)器指令。計算機(jī)學(xué)家、機(jī)器人學(xué)家和哲學(xué)家都要投身其中?!?br/>  “如果你5年前問我,我們能否制作出有道德的機(jī)器人,我將會說不能。但現(xiàn)在,我不再認(rèn)為這是一個瘋狂的主意?!庇祭锼雇袡C(jī)器人實(shí)驗室機(jī)器人專家Alan Winfield說。

學(xué)習(xí)型機(jī)器 
  一個被頻繁提及的實(shí)驗是一個名為Nao的商業(yè)機(jī)器人,它會提醒人們按時服藥?!?br/>   “乍聽上去十分簡單?!笨的腋翊髮W(xué)哲學(xué)家SusanLeigh Anderson說。她與丈夫、哈特福德大學(xué)計算機(jī)學(xué)家MichaelAnderson一起致力于機(jī)器人研究?!暗幢阍谶@種有限的任務(wù)中,也涉及許多倫 理問題?!崩纾绻颊呔芙^接受它的藥物,Nao應(yīng)該如何做? 
  為了教N(yùn)ao處理此類問題,Anderson夫婦給予它許多生物倫理學(xué)家解決自治、傷害和患者利益間沖突的案例。然后,學(xué)習(xí)算法會將這些案例分類,直到他 們找到指導(dǎo)機(jī)器人應(yīng)對新情況的模式。 
   通過此類“機(jī)器學(xué)習(xí)”,機(jī)器人能從甚至模糊不清的輸入信息中提取有用的知識。該方法理論上將幫助機(jī)器人在遇到更多情況時,在倫理決策方面做得更好。但很 多人擔(dān)憂,這種進(jìn)步是有代價的。斯坦福大學(xué)人工智能和倫理學(xué)講師JerryKaplan表示,這些原則不會被寫進(jìn)計算機(jī)代碼,因此“你沒辦法了解為何一個 特殊程序能告訴它某件事在倫理上是對或錯”。
  許多工程師表示,解決這一問題需要不同的策略,大部分人嘗試生成具有明確規(guī)則的程 序,而非要求機(jī)器人自行判斷。Winfield去年出版的實(shí)驗結(jié)論顯示:什么是能讓機(jī)器人營救掉入洞中的人的最簡單規(guī)則?Winfield認(rèn)為,顯然機(jī)器 人需要能察覺周圍環(huán)境,識別出洞和人的位置以及它相對于兩者的位置。而且,機(jī)器人也需要規(guī)則以預(yù)期自身行動可能產(chǎn)生的影響?!?br/>   Winfield的實(shí)驗使用了冰球大小的機(jī)器人,他讓其中一些“H機(jī)器人”代表人類,另一些“A機(jī)器人”代表以Asimov命名的倫理機(jī)器。 Winfield利用類似Asimov第一條法則的規(guī)則編成了“A機(jī)器人”:如果它認(rèn)為“H機(jī)器人”掉入洞中,它必須前往拯救“H機(jī)器人”。
   結(jié)果顯示,即便最低限度的倫理機(jī)器人也將是有用的。Winfield表示,“A機(jī)器人”通常會設(shè)法拯救“人類”,并會首先前往離自己近的那一個。有時, 通過快速移動,它甚至能兩個都救出。但實(shí)驗也顯示出保守行動的限制。在幾乎一半的試驗中,“A機(jī)器人”會陷入兩難境地,并使得兩個“H機(jī)器人”都“死 亡”?!?br/>  為了解決該問題,就需要額外的規(guī)則,以確定如何選擇。如果一個“H機(jī)器人”是成人,而另一個“H機(jī)器人”是兒童,“A機(jī)器人”應(yīng)該先救誰?諸如此類的判斷,即便是人類也不能總是達(dá)成一致。就像Kaplan提到的那樣,通?!拔覀儾恢廊绾尉幾牒畏N顯性規(guī)則”。 
  殺人機(jī)器爭論 
   支持者認(rèn)為,基于規(guī)則的方法有一大優(yōu)點(diǎn):它通常能明確機(jī)器人為何作出這個選擇,因為是它的設(shè)計者編纂了這些規(guī)則。對于美國軍隊而言,還有一個重要關(guān)注 點(diǎn):哪些自動系統(tǒng)是重要的戰(zhàn)略目標(biāo)。佐治亞理工學(xué)院機(jī)器人倫理軟件學(xué)家Ronald Arkin指出,對于機(jī)器人能否協(xié)助士兵或執(zhí)行致死任務(wù),“你最不想做的事就是把一個自動機(jī)器人送到軍隊,并找出它應(yīng)遵循哪些規(guī)則”。如果一個機(jī)器人要選 擇拯救士兵還是追逐敵軍,它必須預(yù)先知道自己要做什么?!?br/>  在美國國防部的支持下,Arkin正在設(shè)計一個程序,以確保軍事機(jī)器人能按照國際戰(zhàn)爭條約執(zhí)行任務(wù)。一套名為“倫理管理”的算法將評估射擊導(dǎo)彈等任務(wù)是否可行,如果允許機(jī)器人行動,答案會是“是”?! ?br/>  在倫理管理的虛擬測試中,一個無人駕駛飛模擬行器被要求打擊敵方目標(biāo),但如果附近有平民設(shè)施則不能進(jìn)行該任務(wù)。在各種給定的場景中,該算法會決定何時將允許無人機(jī)完成它的使命?!?br/>   目前,美、日、韓、英等國大幅增加了軍事機(jī)器人研發(fā)的經(jīng)費(fèi),有英國專家稱,20年內(nèi)“自動殺人機(jī)器”技術(shù)將可能被廣泛應(yīng)用。對此,不少人感到憂慮:對于 這些軍事機(jī)器,人類真的能完全掌控它們嗎?Arkin認(rèn)為,這些機(jī)器在一些情況下能做得比人類士兵更好,只要它們被編程不會打破戰(zhàn)爭規(guī)則?!?br/>  無論如何,聯(lián)合國《特定常規(guī)武器公約》近日正再次就殺手機(jī)器人主題聽取技術(shù)和法律專家的意見。國際機(jī)器人武器控制委員會成員、斯坦福大學(xué)網(wǎng)絡(luò)與社會研究中心的Pete rAsaro表示,越來越多的人贊同,沒有人類監(jiān)督情形下的機(jī)器人殺人是不可接受的。

人類、道德和機(jī)器 
  自從1818年瑪麗·雪萊創(chuàng)作出世界上第一部科幻小說《科學(xué)怪人》,到1927年美國西屋公司制造出第一個機(jī)器人“電報箱”,再到現(xiàn)在,幻想正在一步步變?yōu)楝F(xiàn)實(shí)。機(jī)器人在擁有“十八般武藝”的同時,也甚至開始有自己的“情感”。 
   近日,日本電信企業(yè)軟銀集團(tuán)宣布,將在日本推出能識別人的情感并與人交流的機(jī)器人Pepper。據(jù)介紹,第一代Pepper機(jī)器人于去年6月公開亮相, 經(jīng)過1年的研發(fā),新款機(jī)器人的智力和情感交流能力都有顯著提升。新款機(jī)器人Pepper時而歌唱、時而舞蹈,并且輕松自如地與人們互動交流。當(dāng)受到人們表 揚(yáng)時,Pepper會流露出喜悅之情。當(dāng)被“戲弄”時,則會委屈地放聲哭泣。隨著科技的發(fā)展,情感機(jī)器人總有一天會變?yōu)楝F(xiàn)實(shí)。這不禁引發(fā)了人類新的  思考: 人應(yīng)該怎樣對待機(jī)器人? 
  研究人員表示,如何建造倫理機(jī)器人將對機(jī)器人的未來發(fā)展產(chǎn)生重要影響。英國利物浦大學(xué)計算機(jī)學(xué)家 Michael Fisher認(rèn)為,規(guī)則約束系統(tǒng)將讓大眾安心。“如果他們不確定機(jī)器人會做什么,他們會害怕機(jī)器人?!彼f,“但如果我們能分析和證明他們的行為的原因, 我們就可能克服這種信任問題?!痹谝粋€政府資助項目中,他與Winfield等人合作,以證實(shí)倫理機(jī)器項目的產(chǎn)出。 
  相比之下,機(jī) 器學(xué)習(xí)方法讓機(jī)器人能從經(jīng)驗中提取信息。這將使得它們更靈活和有用。許多機(jī)器人專家表示,最好的前進(jìn)道路是多種方法結(jié)合?!斑@有點(diǎn)類似精神療 法?!盤ereira說,“你可能不會只用一個理論。”一個尚未解決的挑戰(zhàn)是,如何將這些方法結(jié)合成一個可行的方法。

本站內(nèi)容除特別聲明的原創(chuàng)文章之外,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,并不代表本網(wǎng)站贊同其觀點(diǎn)。轉(zhuǎn)載的所有的文章、圖片、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無法一一聯(lián)系確認(rèn)版權(quán)者。如涉及作品內(nèi)容、版權(quán)和其它問題,請及時通過電子郵件或電話通知我們,以便迅速采取適當(dāng)措施,避免給雙方造成不必要的經(jīng)濟(jì)損失。聯(lián)系電話:010-82306118;郵箱:aet@chinaaet.com。