最近關(guān)于機器人和倫理的討論大多圍繞著自動駕駛汽車是否會決定碾過最近的小貓,或者是離它稍遠一點的裝滿小狗的籃子,或者類似那樣的事情。機器人能否在遇到新情況時做出道德決定,這是很多人仍在研究的問題,但在規(guī)則更清晰的情況下,機器人更容易做到合乎道德,同時也不太可能碾過可愛的動物。
上個月,喬治亞理工學(xué)院的研究人員發(fā)表了一篇論文,題為“在醫(yī)患關(guān)系中,機器人調(diào)解員的道德管理者”。他們的想法是,機器人將成為我們?nèi)粘I畹囊徊糠?,它們比人類更擅長密切關(guān)注事物,而且不會分心或無聊,并且一直會如此。因此,對倫理問題有理解的機器人將能夠觀察病人和看護人之間的互動,當他們發(fā)現(xiàn)事情并沒有按照應(yīng)有的方式進行時,他們就會進行干預(yù)。這很重要,我們需要它。
在美國,大約有一百萬人患有帕金森癥。像外骨骼和機器人伴侶這樣的機器人系統(tǒng)已經(jīng)開始幫助人們進行身體康復(fù)和情感支持,但我們還需要一段時間才能讓那些有能力為帕金森患者提供他們所需幫助的機器人。與此同時,病人嚴重依賴于醫(yī)護人員,這對雙方來說都是一個挑戰(zhàn)。帕金森癥對人與人之間的互動尤其棘手,因為肌肉控制的減少意味著患者常常難以通過面部表情來表達情感,這可能會導(dǎo)致誤解或更糟糕的事情。
為了測試機器人調(diào)解員在這種情況下是否有幫助,佐治亞理工學(xué)院的研究人員Jaeeun Shim,Ronald Arkin和Michael Pettinati開發(fā)了一個道德干預(yù)調(diào)解員(IEG)。 它基本上是一組編碼特定道德規(guī)則的算法,并確定在不同情況下應(yīng)該做什么。 在這種情況下,IEG使用語音量和臉部跟蹤等指標來評估病人看護者互動中“人的尊嚴是否因其他不恰當?shù)男袨槎艿酵{”。 如果發(fā)生這種情況,IEG將指定機器人如何以及何時進行干預(yù)。
為了更好表現(xiàn)他們的IEG,研究人員使用了一個具有良好感測能力的Nao人形機器人(麥克風(fēng)陣列和相機),并且可以進行語音合成(用于干預(yù)位)。然后,他們在兩名研究生之間進行模擬,腳本化的交互,以了解機器人將如何反應(yīng)。
在項目的最后部分,研究人員招募了一群人(可能會使用該系統(tǒng)的老年人)觀看這些交互并描述他們對他們的反應(yīng)。這是少數(shù)參與者(9人,平均年齡71歲),但在現(xiàn)階段,IEG仍然是一個待證明的概念,所以研究人員對定性反饋更感興趣。 根據(jù)研究參與者的回應(yīng),研究人員能夠標記出一些重要反饋,如:
安全是最重要的:“我認為任何保護病人的事情都是好事?!边@很有價值。在這里,這是合適的,因為它提供了真實的信息,而不僅僅是命令?!?/p>
機器人不應(yīng)該命令或批判
是的,如果沒有人想要打擊機器人,那不會是社會機器人研究。 這些研究人員為了他們的信用,正在把這種反饋放在心上,并且與專家合作調(diào)整語言,例如通過改變“請冷靜下來”為“讓我們冷靜下來”,后者可能收到更少的指責(zé)。 他們還計劃通過結(jié)合生理數(shù)據(jù)來改善系統(tǒng),以更好地檢測患者和照顧者的情緒狀態(tài),從而提高機器人干預(yù)的準確性。
我們應(yīng)該強調(diào),機器人無法取代兩個人之間的同情互動,這不是該項目的目的。 一般來說,機器人或AI系統(tǒng)可能是有效的調(diào)解員,確保照顧者和患者在道德上互相尊重,幫助改善關(guān)系而不是替代它們。