《電子技術應用》
您所在的位置:首頁 > 人工智能 > 設計應用 > 負責任的發(fā)展生成式人工智能的挑戰(zhàn)及應對路徑
負責任的發(fā)展生成式人工智能的挑戰(zhàn)及應對路徑
網絡安全與數據治理
鄧臻宇
中南財經政法大學知識產權研究中心
摘要: 生成式人工智能正推動著新一輪科技產業(yè)的變革,但也引發(fā)了諸多治理風險,例如數據濫用、訓練數據質量不高,算法黑箱、算法歧視現象普遍,但目前的監(jiān)管理念和措施仍具有滯后性。為了實現生成式人工智能負責任的發(fā)展,在治理路徑上,需要用戶、開發(fā)者和監(jiān)管部門等多元主體從技術和法律等多維度協同參與治理,構建數據質量管理體系、建立開放共享的公共訓練數據平臺;實行算法備案登記、審查評估機制,實現對算法公平公正的敏捷治理;完善生成式人工智能侵權歸責體系、探索監(jiān)管沙盒制度的應用,實現技術創(chuàng)新的負責任發(fā)展。
中圖分類號:D912文獻標識碼:ADOI:10.19358/j.issn.2097-1788.2024.07.011
引用格式:鄧臻宇.負責任的發(fā)展生成式人工智能的挑戰(zhàn)及應對路徑[J].網絡安全與數據治理,2024,43(7):69-76.
Challenges and paths to responsible development of generative AI
Deng Zhenyu
Centre for Studies of Intellectual Property Rights, Zhongnan University of Economics and Law
Abstract: Generative AI is driving a new round of changes in the science and technology industry, but it also triggers many governance risks, such as data misuse, poor quality of training data, algorithmic black box and algorithmic discrimination are common, but the current regulatory concepts and measures are still lagging behind. In order to achieve the responsible development of generative AI, on the governance path, it is necessary for multiple subjects such as users, developers and regulators to participate in the governance in a coordinated manner from multiple dimensions such as technology and law, to build a data quality management system and establish an open and shared public training data platform. Algorithmic filing and registration, review and assessment mechanisms are implemented, to achieve fair and impartial and agile governance of algorithms. The system of attribution of responsibility for generative AI infringement is improved, and the application of regulatory sandbox system is explored, so as to realise the responsible development of technological innovation.
Key words : responsible development; generative artificial intelligence; open sharing; regulatory sandbox

引言

以ChatGPT為代表的生成式人工智能正以“快進鍵”的模式推進社會的進步,為各個領域的發(fā)展帶來了諸多機遇,但所伴隨的風險也對既有的技術治理體系提出了全新的挑戰(zhàn)。目前,世界各國正通過修改法律法規(guī)和政策文件的形式,尋求生成式人工智能技術創(chuàng)新發(fā)展與安全治理之間的平衡,要求生成式人工智能技術人員以更加審慎負責的態(tài)度促進技術進步。人工智能時代,新型技術的快速發(fā)展呼喚著制度的變革。我國對生成式人工智能的有序發(fā)展同樣予以高度重視,2023年4月11日,由國家網信辦公布了《生成式人工智能服務管理辦法(征求意見稿)》,同年7月13日,國家網信辦聯合國家發(fā)展改革委、教育部、科技部、工業(yè)和信息化部等多個部門公布了《生成式人工智能服務管理暫行辦法》(以下簡稱《辦法》)。通過對兩份文件的對比分析,可以看出我國對生成式人工智能的發(fā)展持鼓勵態(tài)度,在《生成式人工智能服務管理暫行辦法》中為生成式人工智能提供了更為寬松的技術創(chuàng)新化環(huán)境。而實踐中,生成式人工智能已經深深嵌入社會發(fā)展脈絡中,對傳統的生產方式實現了全面的革新,但同時也對社會治理、科技倫理和法治保障等提出了前所未有的挑戰(zhàn),例如數據隱私侵犯和數據濫用、算法歧視和算法黑箱、不公平的AI決策和生成虛假內容等多個方面的風險,需要相關主體以負責任的態(tài)度推動該項技術的涌進。面對生成式人工智能帶來的挑戰(zhàn),2023年5月4日,美國政府在與處于人工智能創(chuàng)新前沿的四家美國公司Alphabet、Anthropic、Microsoft和OpenAI的首席執(zhí)行官會面后,公布了三項有關人工智能的新舉措,分別是投資推動負責任的美國人工智能研究開發(fā),對現有生成式人工智能系統進行公開評估,政府以身作則制定政策以減輕人工智能風險并利用人工智能機遇。我國國家新一代人工智能治理專業(yè)委員會也早在2019年發(fā)布過《新一代人工智能治理原則——發(fā)展負責任的人工智能》,但是并未對提出的原則制定詳細規(guī)則。面對生成式人工智能技術的迅猛發(fā)展與顯現的治理問題,負責任式發(fā)展生成式人工智能應是當前技術發(fā)展的新共識。鑒于此,本文在把握負責任的生成式人工智能定義的基礎上,總結人工智能特性,分析發(fā)展面臨的挑戰(zhàn),并尋求對應的破解路徑,通過提升對數據安全的管理,重視對生成式人工智能系統的審查和評估,構建開放共享、普惠包容的算力資源,并嘗試構建層次化的分級分類監(jiān)管措施等,探索出一套能夠有效推動生成式人工智能負責任發(fā)展的本土化治理體系。


本文詳細內容請下載:

http://ihrv.cn/resource/share/2000006094


作者信息:

鄧臻宇

(中南財經政法大學知識產權研究中心,湖北武漢430073)


Magazine.Subscription.jpg

此內容為AET網站原創(chuàng),未經授權禁止轉載。