《電子技術應用》
您所在的位置:首頁 > 人工智能 > 業(yè)界動態(tài) > 破解人工智能道德治理中的責任難題

破解人工智能道德治理中的責任難題

2021-12-23
來源:人民微看點

人工智能技術的迅猛發(fā)展及其在社會各領域的廣泛應用,帶來了一系列風險挑戰(zhàn)。如何對人工智能倫理風險進行道德治理,成為人們不得不認真思考的重要問題。按照傳統責任理論,由某項技術所引發(fā)的道德責任須根據過失的大小分配給該技術的設計師、制造商、使用者、監(jiān)管者等人類主體。但由于人工智能具有顯著的自動化特征,如果將其排除在道德責任之外,可能會造成“責任空場”。因此,建立完善的人工智能道德治理體系,必須破解該技術在道德責任歸屬時面臨的難題。

c1a4-5eca605a1268d77c619cfbb24ad1c135.jpg

有限責任

人工智能責任歸屬的第一個難題是人工智能是否有資格成為某一事件(或后果)負責任的行為者,而不只是由人類操控的技術工具。這需要回答人工智能是否具備就承擔責任而言的最低限度的道德認知能力和道德自主性。人工智能是用計算機來模擬和實現的“類人智能”。它將外部環(huán)境信息轉換為輸入數據,并通過從數據中生成的特征量對輸入數據進行處理,實現數據輸出。人工智能的輸入和輸出過程,可以理解為它感知外部環(huán)境信息和根據感知信息而采取特定行動的過程。人工智能的行為選擇是基于對外部環(huán)境的判斷所作出的能動反應。相較而言,傳統計算機程序根據設計好的函數完成數據的輸入與輸出,其對外部環(huán)境的反應是被動的。此外,人工智能還可以進一步插入道德算法,將人類對道德重要性的理解轉譯為人工智能信息處理和決策的邏輯規(guī)則,使其從前瞻性意義上遵守社會道德要求,作出負責任的行為決策。

人工智能的特殊性在于其獨特的學習算法。通過多層處理,低層次的特征表示轉化為高層次的特征表示,使人工智能具備了完成復雜任務的能力,可以模仿特定的人類行為。例如,AlphaGo通過神經網絡的深度學習和反復自我博弈的強化學習,不僅提高了其在圍棋博弈中的預測能力,而且還發(fā)現新的游戲規(guī)則,走出了新策略。這里,學習算法是由人類設計師預先規(guī)定的,但AlphaGo通過機器學習而作出的行為決策卻不是人類設計師決定的。人工智能具備了確定但有限的自主性、交互性及行動能力,可以在特定環(huán)境中獨立作出行為決策,故可對其進行道德歸責。而承認人工智能可在最低限度上進行責任歸屬,就肯定了其在道德治理體系中有限的能動地位。

非意圖責任

第二個難題是人工智能遵循數學、物理學等自然定律,缺乏“能夠承擔責任的感覺”。對責任的主觀感受首先表現為行為者的主觀意圖,即行為者對行為的意義的認識,希望或想要以某種方式行動的態(tài)度。盡管主觀意圖確實影響了人們對行為者進行道德譴責或懲罰的力度,但它并非責任歸屬的必要條件。從道德實踐上看,主觀意圖作為行為者的內在狀態(tài),很難對其作出準確評價。而且,人們進行責任歸屬的目的在于,通過對損害性后果的回溯性評價,來確定導致該后果的行為者原因,不論行為者是否有主觀意圖。德國學者奧特弗利德·赫費以俄狄浦斯為例,說明這種無過錯責任在史前社會普遍存在:責任是客觀的,即便行為者不存在任何主觀過錯,也需要承擔道德責任。按照客觀性原則對人工智能進行責任歸屬,主要考查損害性后果以及行為與后果之間的因果關系即可,不必再關注行為者的主觀意圖。

對責任的主觀感受還表現為行為者因自己的行為而產生的自責、懊悔等反應性態(tài)度,因而承認自己本來可以按照其他方式而行動。人工智能缺乏感受性,很難想象它會產生任何形式的痛苦或內疚,那么,對人工智能進行責任歸屬并實施道德懲罰是否還有意義?就反應性態(tài)度而言,他人的反應性態(tài)度而非行為者的自我反應性態(tài)度才是責任歸屬的動力。他人的責備和怨恨不僅是他人對某一事件(或后果)所作出的價值評價,也是在評價基礎上對行為者所作出的反應。責備和怨恨允許行為者提出免于被責備的理由。但與此同時,如果行為者與某一事件(或后果)的因果責任極其顯著,引發(fā)他人強烈的責備和怨恨反應時,他人將拒絕人工智能以技術作為其免責理由。就道德懲罰而言,懲罰作為“對過去錯誤的一種自然報復”,在現代社會逐漸喪失其道德正當性。道德責任并不必然要求對行為者進行道德懲罰,而是要求行為者正視、改正或補償自己的道德過錯,同時盡量避免發(fā)生類似的道德過錯。就此而言,要求人工智能承擔道德責任是可行的。

共同責任

第三個難題是對人工智能進行責任歸屬,是否會削弱人類的道德責任或威脅人類的責任主體地位。答案是否定的。對人工智能的正確歸責有助于明確人類與人工智能的責任邊界,從而強化人類的道德責任。人類設計師、制造商、使用者等參與了人工智能的理論創(chuàng)新、技術研發(fā)、生產制造、實踐應用等環(huán)節(jié),相應地承擔著內在知識的責任、科學實驗的責任以及將科學付諸實踐的責任。這些多元主體在該技術設計—生產—應用鏈條上分工合作,由此發(fā)展出一條責任鏈:沒有哪個單獨環(huán)節(jié)承擔單獨的責任,每個環(huán)節(jié)都是責任的一部分,而這部分責任又不得不與這個環(huán)節(jié)對整個行為所承擔的責任相聯系。正如赫費所言,誰為別人能夠做這件事創(chuàng)造了一些前提條件,他就要為這件事負有共同責任。相反,如果他們沒有看到這種關系,或者不能看到這種關系,就會產生責任歸屬的要求,應該為此設置能夠監(jiān)督責任履行的機構。該機構對人類設計師、制造商和使用者的履責行為進行監(jiān)督和管理。人類行為者不僅不能免除道德責任,還需承擔起相應的賠償或補償責任。

在道德實踐中,人類行為者將一部分道德授權給人工智能,如允許智能搜索引擎對敏感詞進行篩查并屏蔽等。授權行為意味著一部分道德資本由人類行為者轉移給人工智能,使后者代替人類行為者履行一定的社會職責。對人工智能的道德授權是否意味著道德責任的授權?這取決于授權是對道德行為本身的授權還是對道德行為坐標(即只為人類道德決策提供反饋信息)的授權。對道德行為的授權,意味著道德上的善惡及責任在人工智能與人類所組成的多智能體系統中分布。此時,人工智能替代人類行為者參與到現實的社會分工之中,成為社會系統的重要組成部分,因而,需要承擔由社會分配給該職責的道德責任,即分布式道德責任。對道德行為坐標的授權,仍將人類作為道德責任的中心并通過人工智能實現人類的道德意圖,人工智能僅需承擔擴展式道德責任。不論分布式還是擴展式道德責任,都沒有免除人類在道德治理中的主體地位。

總之,人工智能道德治理的關鍵在于立足一種新的開放性責任理論對人工智能進行責任歸屬。首先,人工智能的道德責任是無過錯責任。人工智能責任歸屬的目的是依據客觀性原則對道德行為及其后果進行正確歸因。特別是當多行為主體共同參與某一行為決策時,正確歸因有助于及時糾正錯誤。其次,人工智能能夠且僅能承擔與其智能水平和自治能力相適應的道德責任。當前廣泛應用的弱人工智能的道德責任與其具備從大數據中自行提取特征量的能力密切相關。對其責任歸屬不能整齊劃一,需要根據其自動化等級分級對待。超出其能力范圍的道德責任仍需由人類行為者承擔。再次,人工智能的責任歸屬要求對人工智能算法進行回溯性實驗直至找到算法缺陷或程序漏洞。人工智能承擔責任的方式包括優(yōu)化算法、程序升級、暫?;蛴谰猛V故褂?。相應的補償或賠償責任也需由人類行為者承擔。最后,人類設計師應監(jiān)督和激勵人工智能不斷積累道德經驗,將道德經驗轉化為道德算法或新的特征量,盡量減少未經預料的道德情形和兩難困境。在計算機領域,通過程序升級修正漏洞的情形很常見,這也要求對人工智能的道德錯誤進行合理認識和總結。




最后文章空三行圖片.jpg


本站內容除特別聲明的原創(chuàng)文章之外,轉載內容只為傳遞更多信息,并不代表本網站贊同其觀點。轉載的所有的文章、圖片、音/視頻文件等資料的版權歸版權所有權人所有。本站采用的非本站原創(chuàng)文章及圖片等內容無法一一聯系確認版權者。如涉及作品內容、版權和其它問題,請及時通過電子郵件或電話通知我們,以便迅速采取適當措施,避免給雙方造成不必要的經濟損失。聯系電話:010-82306118;郵箱:aet@chinaaet.com。