9月9日,全國網絡安全標準化技術委員會制定的《人工智能安全治理框架(1.0版)》對外公開發(fā)布。
人工智能安全治理原則指出,秉持共同、綜合、合作、可持續(xù)的安全觀,堅持發(fā)展和安全并重,以促進人工智能創(chuàng)新發(fā)展為第一要務,以有效防范化解人工智能安全風險為出發(fā)點和落腳點,構建各方共同參與、技管結合、分工協(xié)作的治理機制,壓實相關主體安全責任,打造全過程全要素治理鏈條,培育安全、可靠、公平、透明的人工智能技術研發(fā)和應用生態(tài),推動人工智能健康發(fā)展和規(guī)范應用,切實維護國家主權、安全和發(fā)展利益,保障公民、法人和其他組織的合法權益,確保人工智能技術造福于人類。
基于風險管理理念,本框架針對不同類型的人工智能安全風險,從技術、管理兩方面提出防范應對措施。同時,目前人工智能研發(fā)應用仍在快速發(fā)展,安全風險的表現(xiàn)形式、影響程度、認識感知亦隨之變化,防范應對措施也將相應動態(tài)調整更新,需要各方共同對治理框架持續(xù)優(yōu)化完善。
1)安全風險方面。通過分析人工智能技術特性,以及在不同行業(yè)領域應用場景,梳理人工智能技術本身,及其在應用過程中面臨的各種安全風險隱患。
2)技術應對措施方面。針對模型算法、訓練數(shù)據(jù)、算力設施、產品服務、應用場景,提出通過安全軟件開發(fā)、數(shù)據(jù)質量提升、安全建設運維、測評監(jiān)測加固等技術手段提升人工智能產品及應用的安全性、公平性、可靠性、魯棒性的措施。
3)綜合治理措施方面。明確技術研發(fā)機構、服務提供者、用戶、政府部門、行業(yè)協(xié)會、社會組織等各方發(fā)現(xiàn)、防范、應對人工智能安全風險的措施手段,推動各方協(xié)同共治。
4)安全開發(fā)應用指引方面。明確模型算法研發(fā)者、服務提供者、重點領域用戶和社會公眾用戶,開發(fā)應用人工智能技術的若干安全指導規(guī)范。
對人工智能安全風險分類,主要涉及兩大類:
1)內生安全風險
包括模型算法安全風險、數(shù)據(jù)安全風險、系統(tǒng)安全風險;
2)應用安全風險
包括網絡域安全風險、現(xiàn)實域安全風險、認知域安全風險、倫理域安全風險。
綜合治理措施方面提出了以下重點:
1)實施人工智能應用分類分級管理。根據(jù)功能、性能、應用場景等,對人工智能系統(tǒng)分類分級,建立風險等級測試評估體系。加強人工智能最終用途管理,對特定人群及場景下使用人工智能技術提出相關要求,防止人工智能系統(tǒng)被濫用。對算力、推理能力達到一定閾值或應用在特定行業(yè)領域的人工智能系統(tǒng)進行登記備案,要求其具備在設計、研發(fā)、測試、部署、使用、維護等全生命周期的安全防護能力。
2)建立人工智能服務可追溯管理制度。對面向公眾服務的人工智能系統(tǒng),通過數(shù)字證書技術對其進行標識管理。制定出臺人工智能生成合成內容標識標準規(guī)范,明確顯式、隱式等標識要求,全面覆蓋制作源頭、傳播路徑、分發(fā)渠道等關鍵環(huán)節(jié),便于用戶識別判斷信息來源及真實性。
3)完善人工智能數(shù)據(jù)安全和個人信息保護規(guī)范。針對人工智能技術及應用特點,明確人工智能訓練、標注、使用、輸出等各環(huán)節(jié)的數(shù)據(jù)安全和個人信息保護要求。
4)構建負責任的人工智能研發(fā)應用體系。研究提出“以人為本、智能向善”在人工智能研發(fā)應用中的具體操作指南和最佳實踐,持續(xù)推進人工智能設計、研發(fā)、應用的價值觀、倫理觀對齊。探索適應人工智能時代的版權保護和開發(fā)利用制度,持續(xù)推進高質量基礎語料庫和數(shù)據(jù)集建設,為人工智能安全發(fā)展提供優(yōu)質營養(yǎng)供給。制定人工智能倫理審查準則、規(guī)范和指南,完善倫理審查制度。
5)強化人工智能供應鏈安全保障。推動共享人工智能知識成果,開源人工智能技術,共同研發(fā)人工智能芯片、框架、軟件,引導產業(yè)界建立開放生態(tài),增強供應鏈來源多樣性,保障人工智能供應鏈安全性穩(wěn)定性。
6)推進人工智能可解釋性研究。從機器學習理論、訓練方法、人機交互等方面組織研究人工智能決策透明度、可信度、糾錯機制等問題,不斷提高人工智能可解釋性和可預測性,避免人工智能系統(tǒng)意外決策產生惡意行為。
7)人工智能安全風險威脅信息共享和應急處置機制。持續(xù)跟蹤分析人工智能技術、軟硬件產品、服務等方面存在的安全漏洞、缺陷、風險威脅、安全事件等動向,協(xié)調有關研發(fā)者、服務提供者建立風險威脅信息通報和共享機制。構建人工智能安全事件應急處置機制,制定應急預案,開展應急演練,及時快速有效處置人工智能安全威脅和事件。
8)加大人工智能安全人才培養(yǎng)力度。推動人工智能安全教育與人工智能學科同步發(fā)展,依托學校、科研機構等加強人工智能安全設計、開發(fā)、治理人才的培養(yǎng),支持培養(yǎng)人工智能安全前沿基礎領域頂尖人才,壯大無人駕駛、智能醫(yī)療、類腦智能、腦機接口等領域安全人才隊伍。
9)建立健全人工智能安全宣傳教育、行業(yè)自律、社會監(jiān)督機制。面向政府、企業(yè)、社會公用事業(yè)單位加強人工智能安全規(guī)范應用的教育培訓。加強人工智能安全風險及防范應對知識的宣傳,全面提高全社會人工智能安全意識。指導支持網絡安全、人工智能領域行業(yè)協(xié)會加強行業(yè)自律,制定提出高于監(jiān)管要求、具有引領示范作用的人工智能安全自律公約,引導督促人工智能技術研發(fā)機構、服務提供者持續(xù)提升安全能力水平;面向公眾建立人工智能安全風險隱患投訴舉報受理機制,形成有效的人工智能安全社會監(jiān)督氛圍。
10)促進人工智能安全治理國際交流合作。積極與各國就人工智能開展合作交流,支持在聯(lián)合國框架下成立國際人工智能治理機構,協(xié)調人工智能發(fā)展、安全與治理重大問題。推進APEC、G20、金磚國家等多邊機制下的人工智能安全治理合作,加強與共建“一帶一路”國家、“全球南方”國家合作,研究成立人工智能安全治理聯(lián)盟,增強發(fā)展中國家在全球人工智能治理中的代表性和發(fā)言權。鼓勵人工智能企業(yè)、機構開展跨國交流合作,分享最佳操作實踐,共同制定人工智能安全國際標準。