2020年9月,為征求意見而公布的《中華人民共和國個人信息保護法(草案)》(下稱《草案》)確立了我國算法自動化決策治理的基本框架,為自動化決策嵌入平臺經(jīng)濟、數(shù)字政府運行劃定了合法邊界。算法是數(shù)字平臺處理海量用戶數(shù)據(jù)、繪制用戶畫像、精準定價與個性化推送的“生產(chǎn)工具”,已經(jīng)成為平臺運行的核心動力。聯(lián)合國教科文組織于2018年發(fā)布的《重塑文化政策報告》指出,算法既是平臺的支配力量,也是文化表達和獲取的變革力量?!恫莅浮穼λ惴ㄗ詣踊瘺Q策的相關(guān)規(guī)定,即增加平臺義務(wù)、設(shè)置監(jiān)管框架、強化平臺責(zé)任等,勢必將深度影響數(shù)字經(jīng)濟產(chǎn)業(yè)發(fā)展。筆者從《草案》中有關(guān)平臺算法自動化決策治理的基本框架展開,探討《草案》給平臺責(zé)任帶來的變化。平臺算法治理已經(jīng)基本建立了算法問責(zé)制框架,一定程度上擺脫了傳統(tǒng)平臺責(zé)任的認定困境,走向了“技術(shù)之治”,但仍須對制度進行一定細化,建立完善的平臺算法問責(zé)體系。
一 《草案》確立的平臺自動化決策治理框架
《草案》給出了算法自動化決策治理的中國方案,從事前設(shè)計部署、事中運行與事后結(jié)果輸出的自動化決策全生命周期為平臺的算法自動化決策設(shè)置了義務(wù)框架。
?。ㄒ唬┧惴ㄓ绊懺u估:平臺自動化決策治理時點前移
《草案》第54條確立了自動化決策的事前評估制度,其第1款規(guī)定“個人信息處理者應(yīng)當對下列個人信息處理活動在事前進行風(fēng)險評估……(二)利用個人信息進行自動化決策……”。其第2、3款規(guī)定:風(fēng)險評估的內(nèi)容應(yīng)當包括:(一)個人信息的處理目的、處理方法等是否合法、正當、必要;(二)對個人的影響及風(fēng)險程度;(三)所采取的安全保護措施是否合法、有效并與風(fēng)險程度相適應(yīng)。風(fēng)險評估報告和處理情況記錄應(yīng)當至少保存三年?!?/p>
根據(jù)《草案》第54條的規(guī)定,平臺須在算法自動化決策上線前進行事前評估。風(fēng)險評估的內(nèi)容既包括算法自動化決策的合法性與必要性,也包括其影響及風(fēng)險。隨著十余年平臺經(jīng)濟的高速發(fā)展,算法自動化決策的濫用與倫理缺失的累積危害已經(jīng)進入了顯現(xiàn)期。為避免平臺部署缺陷性算法自動化決策可能對公民財產(chǎn)和人身權(quán)利,以及對公共利益和國家安全帶來的危害,建立平臺算法事前評估制度已時機成熟。
要求平臺在事前對自動化決策進行評估,是將平臺治理時點前移的重要標志。近年來,網(wǎng)絡(luò)平臺治理的逐漸前移由以下原因驅(qū)動:其一,事后追責(zé)機制已經(jīng)不能滿足網(wǎng)絡(luò)平臺算法自動化決策的治理需求。平臺算法的計算對象是數(shù)以萬計的平臺用戶數(shù)據(jù),其一旦發(fā)生價值觀偏差,對社會的不利影響會具有延展性與持續(xù)性。事后對平臺的追責(zé)機制不能有效應(yīng)對,各種補償制度難以從根本上解決問題。其二,平臺責(zé)任事后如何確定和劃分成為新的挑戰(zhàn),具體業(yè)務(wù)的平臺規(guī)范適用出現(xiàn)空白。2019年以來興起的平臺新業(yè)態(tài),如直播帶貨、人臉識別等新型業(yè)務(wù)并無具體的法律對其規(guī)制,法律責(zé)任很難確定。算法自動化決策的風(fēng)險是平臺內(nèi)生的,伴隨著平臺作為設(shè)計者的決策與行為,依賴事后追責(zé)機制,可能會造成未來不斷出現(xiàn)平臺新的算法自動化決策治理缺位。
《草案》首次在法律層面從個人信息保護的角度確立了算法自動化決策風(fēng)險評估制度。法律層面對于平臺算法自動化決策的事前評估不再僅僅指向網(wǎng)絡(luò)安全與數(shù)據(jù)安全,此前”四部委“及行業(yè)協(xié)會組織的隱私與個人信息保護評估有了法律層面的依據(jù)。
?。ǘ┧惴▽徲嬛贫龋浩脚_自動化決策治理手段升級
《草案》第53條確立了事中的算法審計制度。其規(guī)定:”個人信息處理者應(yīng)當定期對其個人信息處理活動、采取的保護措施等是否符合法律、行政法規(guī)的規(guī)定進行審計。履行個人信息保護職責(zé)的部門有權(quán)要求個人信息處理者委托專業(yè)機構(gòu)進行審計。“根據(jù)第53條的規(guī)定,監(jiān)管部門的監(jiān)管對象從外部直接”穿透“至平臺內(nèi)部的算法運行層面?!恫莅浮芬笃脚_應(yīng)對其算法自動化決策等信息處理活動定期進行審計,必要時監(jiān)管部門有權(quán)啟動對平臺的第三方外部算法審計。
算法審計制度的確立體現(xiàn)了平臺自動化決策治理手段的升級:其一,監(jiān)管部門直接將算法作為監(jiān)管的對象。這一監(jiān)管手段在近年來成為各國平臺治理的常用手段,如2019年澳大利亞競爭與消費者委員會(ACCC)宣布計劃設(shè)立專門分支機構(gòu)”主動監(jiān)視“平臺算法運行,賦予其要求披露算法詳細信息的權(quán)限。其二,監(jiān)管部門的活動直接指向平臺內(nèi)部日常運營活動,穿透了平臺法人的外殼。我國算法審計制度規(guī)定監(jiān)管部門有權(quán)啟動外部審計,體現(xiàn)了在事態(tài)嚴重時監(jiān)管部門可直接對企業(yè)組織內(nèi)部結(jié)構(gòu)與事務(wù)進行干預(yù)監(jiān)管。無獨有偶,在”劍橋分析“事件后,美國聯(lián)邦貿(mào)易委員會(Federal Trade Commission,F(xiàn)TC)在 Facebook 設(shè)立三個委員會,其工作人員不由企業(yè)任免并可向 FTC 直接匯報工作。其三,平臺的算法治理引入了多方主體參與。在算法審計制度中,企業(yè)自律與第三方機構(gòu)扮演了重要角色。一方面,平臺要定期進行自我審計。這也成了世界各大平臺公司的日常實踐,如微軟設(shè)立人工智能倫理委員會,聯(lián)邦政府與亞馬遜合作并與企業(yè)合作開發(fā)促進算法公平性的項目。另一方面,第三方機構(gòu)在平臺多元治理中扮演越來越重要的作用。如為了人民組織(ProPublica)即通過算法審計發(fā)現(xiàn)量刑算法存在的種族歧視問題,紐約大學(xué)的 AI Now 研究院則專門針對紐約市算法監(jiān)管行動發(fā)布報告,評價政府監(jiān)管行動的得失并提出建議。我國現(xiàn)有的第三方機構(gòu)發(fā)揮作用不足,預(yù)計在出臺后的《個人信息保護法》相關(guān)制度的推動下將有所發(fā)展。
要求平臺進行定期算法審計已經(jīng)成為世界各國的通行做法。以印度《個人數(shù)據(jù)保護法案》為例,其要求數(shù)據(jù)控制者聘請獨立的數(shù)據(jù)審計方對算法的數(shù)據(jù)處理行為進行一年一度的審計,審計的內(nèi)容包括算法的透明度、企業(yè)的相關(guān)保障措施等,審計結(jié)果體現(xiàn)為對數(shù)據(jù)控制者的信用評級打分。此外,當監(jiān)管部門認為數(shù)據(jù)控制者有可能造成算法的損害結(jié)果時,也可啟動算法審計。
平臺算法審計制度的確立,既體現(xiàn)了監(jiān)管部門直接穿透平臺法人的外殼干預(yù)平臺日常運營,又初步建立了企業(yè)自律與第三方共同參與的算法多元治理框架?!恫莅浮凡粌H建立了算法影響評估的事前監(jiān)管制度,也對事中算法運營進行日常監(jiān)管。
?。ㄈ┫嚓P(guān)用戶權(quán)利:平臺自動化決策義務(wù)增加
《草案》第25條確立了平臺對算法自動化決策結(jié)果事后的相關(guān)義務(wù)。其規(guī)定:”利用個人信息進行自動化決策,應(yīng)當保證決策的透明度和處理結(jié)果的公平合理。個人認為自動化決策對其權(quán)益造成重大影響的,有權(quán)要求個人信息處理者予以說明,并有權(quán)拒絕個人信息處理者僅通過自動化決策的方式作出決定。通過自動化決策方式進行商業(yè)營銷、信息推送,應(yīng)當同時提供不針對其個人特征的選項?!?/p>
根據(jù)《草案》第25條的規(guī)定,平臺須對自動化決策的結(jié)果承擔(dān)如下義務(wù):第一,保證自動化決策過程的透明和結(jié)果的公平合理。這一條款針對一直以來被詬病的對特定人群的算法歧視、大數(shù)據(jù)殺熟等問題。根據(jù)平臺對算法應(yīng)用的場景,算法透明度的要求可能涉及代碼、邏輯、模型、目標、決策等多個方面,而結(jié)果的公平合理可能涉及機會平等或結(jié)果平等,以避免平臺利用算法處理海量個人數(shù)據(jù)可能造成系統(tǒng)性地使某些社會群體處于不利地位。第二,對決策結(jié)果予以說明。這一條款與歐盟《通用數(shù)據(jù)保護條例》(GDPR)第22條類似,個人有權(quán)要求平臺對其造成”重大影響“的自動化決策作出說明,但”重大影響“尚未有明確規(guī)定。第三,平臺須對用戶提供不針對個人特征的自動化決策選項。這一規(guī)定是對《中華人民共和國電子商務(wù)法》第18條第1款的再次強調(diào),即”電子商務(wù)經(jīng)營者根據(jù)消費者的興趣愛好、消費習(xí)慣等特征向其提供商品或者服務(wù)的搜索結(jié)果的,應(yīng)當同時向該消費者提供不針對其個人特征的選項,尊重和平等保護消費者合法權(quán)益“。
《草案》第25條直接為平臺的自動化決策結(jié)果設(shè)定了相關(guān)義務(wù),并作出了如下突破:第一,突破平臺一直以來采用的”技術(shù)中立“抗辯,要求平臺為算法自動化決策結(jié)果承擔(dān)責(zé)任,須保證算法自動化決策結(jié)果的公平合理。第二,擴張平臺用戶的知情權(quán),確立了有限制的”算法解釋權(quán)“,用戶既可以要求自動化決策結(jié)果的透明,也可以在涉及”重大影響“時獲得平臺說明。這一制度致力于打破用戶與平臺之間的信息不對稱,為平臺施加了信息披露的義務(wù)。第三,要求平臺打破算法個性化推薦給用戶打造的”信息繭房“,要求平臺保障用戶的知情權(quán)。推薦算法的個性化推送、個性化定價,是當前各大互聯(lián)網(wǎng)平臺普遍使用的增加利潤的武器。研究顯示,算法根據(jù)用戶個人信息定制的結(jié)果排名總是高于其他任何因素。2015年優(yōu)步僅根據(jù)動態(tài)定價算法就創(chuàng)造了68億美元的利潤。此條要求網(wǎng)絡(luò)平臺不得以此損害消費者利益,不得利用個性化推薦損害用戶的知情權(quán)以及對用戶進行價格歧視。
總體而言,《草案》設(shè)定了平臺算法自動化決策事前、事中與事后的全生命周期的監(jiān)管框架,既借鑒了近三年來世界各國立法的相關(guān)制度,也沿襲了我國既有的相關(guān)實踐。
二 揭開平臺技術(shù)面紗:平臺算法問責(zé)制的初步確立
《草案》將平臺監(jiān)管對象深入至平臺的底層技術(shù)邏輯——算法層面,為平臺的算法自動化決策的設(shè)計部署、運行與結(jié)果輸出等設(shè)置了注意義務(wù),并以此作為平臺責(zé)任的承擔(dān)依據(jù)。《草案》初步確立了我國的平臺算法問責(zé)制和以平臺治理為核心的算法自動化決策治理框架。
?。ㄒ唬┢脚_追責(zé)的直接指向:平臺的算法自動化決策
《草案》確立的平臺自動化決策治理框架,體現(xiàn)立法者將”主體—行為—責(zé)任“的傳統(tǒng)法律追責(zé)思路更新為技術(shù)治理思路。立法者充分認識到算法在平臺日常運行中的核心作用,因此對于平臺責(zé)任不再糾結(jié)于主觀過錯與違法結(jié)果等傳統(tǒng)法律責(zé)任的認知體系,而是直接將平臺算法作為法律監(jiān)管的對象。
監(jiān)管部門將平臺責(zé)任追究指向算法層面,解決了法律面臨的如何認定平臺”行為“的理論問題。平臺的運作功能和盈利模式,或者學(xué)界提出的”架構(gòu)“等,均關(guān)系到平臺的法律定性以及功能描述。然而,”平臺“一詞至今尚無標準定義。根據(jù)現(xiàn)有研究,平臺的雙邊市場效應(yīng)特征十分突出。平臺的功能已經(jīng)超越市場主體,實際上已通過算法架構(gòu)建立了基于數(shù)據(jù)挖掘與分析的數(shù)據(jù)服務(wù)市場,并且在此市場中,糅合了多向度和多方面的法律關(guān)系。平臺算法的計算結(jié)果來源于用戶提供的原始數(shù)據(jù),而數(shù)據(jù)提供者并非僅有用戶,還包括交易產(chǎn)生的數(shù)據(jù),甚至包含政府提供的公共數(shù)據(jù)。因此,平臺盡管是”數(shù)據(jù)控制者“,但平臺通過算法收集、抓取和分析數(shù)據(jù),并提供大數(shù)據(jù)產(chǎn)品(如用戶畫像),同時通過與其他市場主體簽訂服務(wù)協(xié)議,構(gòu)建平等主體間的民事法律關(guān)系。在這樣一個紛繁復(fù)雜的多邊市場中,可落入傳統(tǒng)法律規(guī)制對象的既包括平臺用戶協(xié)議的解釋規(guī)則、平臺對所呈現(xiàn)內(nèi)容的事前審查,也包括對所提供服務(wù)的質(zhì)量保障義務(wù)與相關(guān)事后義務(wù),以及基于算法自動化決策所產(chǎn)生的個性化推送等。
由于平臺作為多邊市場存在多重法律關(guān)系,因此長期以來在平臺責(zé)任的追究問題上一直存在著”平臺責(zé)任中行為人與責(zé)任人相分離“”平臺本應(yīng)技術(shù)中立所以承擔(dān)的是無過錯責(zé)任“的理論困境,甚至在刑事責(zé)任的追究上也存在”幫助犯正犯化“的爭議。《草案》中平臺作為個人信息的處理者,平臺要為算法加工個人數(shù)據(jù)產(chǎn)生的數(shù)據(jù)質(zhì)量承擔(dān)具體的法律義務(wù)。因此,算法自動化決策乃至平臺架構(gòu)均被納入”行為“的范圍,平臺的算法自動化決策無法逃脫過錯責(zé)任的承擔(dān),技術(shù)中立與無差別技術(shù)抗辯已經(jīng)無法產(chǎn)生責(zé)任規(guī)避的效果。
平臺責(zé)任中個人信息的使用原則和行為邊界,終仍須著落于平臺處理個人信息的工具——算法的設(shè)計部署、運行的控制上。根據(jù)平臺處理個人信息的正當性與合理性原則,平臺還須對算法自動化決策結(jié)果的輸出承擔(dān)一定的注意義務(wù),保證”自動化決策結(jié)果的公平合理“。至此,平臺責(zé)任追究的對象已穿透平臺的技術(shù)面紗,直抵平臺技術(shù)的底層邏輯——算法。
?。ǘ┢脚_注意義務(wù)的擴張:從算法設(shè)計到結(jié)果輸出
平臺責(zé)任的認定機制中,平臺注意義務(wù)從簡單的”明知應(yīng)知“被擴張至算法設(shè)計、算法運行直到結(jié)果輸出的全過程。平臺這一注意義務(wù)的擴張趨勢有學(xué)者在理論上早有提及,并于2018年以來逐步被各國立法實踐所采納。
美國法學(xué)家萊斯格早在《代碼2.0》中即指出,代碼(算法)搭建了網(wǎng)絡(luò)空間架構(gòu),建構(gòu)和引導(dǎo)了用戶行為。萊斯格首次將架構(gòu)納入法律社會學(xué)分析,提升到與法律、市場、社會規(guī)范平行的高度,并系統(tǒng)地說明(甚至預(yù)言)架構(gòu)如何”規(guī)制“社會主體的在線行為,影響諸如版權(quán)、隱私、言論這樣的法律制度,進而提出賽博空間的根本問題:誰終控制架構(gòu)的生產(chǎn)和運作。2011年,Cavoukian 提出”設(shè)計隱私“的理念,主張平臺在算法設(shè)計時就有責(zé)任考慮用戶的隱私保護。學(xué)界主張基于平臺算法(架構(gòu))對平臺運行與用戶權(quán)利的影響,平臺算法設(shè)計階段即應(yīng)負起相應(yīng)注意義務(wù)。
平臺算法運行中的注意義務(wù)也在各國司法實踐中獲得實質(zhì)性推進。GDPR 建立了算法數(shù)據(jù)處理評估制度、算法認證制度,官方于2019年發(fā)布了”行為指引與認證標準“。歐盟議會的《算法責(zé)任與透明治理框架》提出建立”算法影響評估“(AIA)機制,歐盟部長委員會向成員國提出立法建議,應(yīng)對算法對內(nèi)容與用戶行為的”過程操縱“能力。GDPR 的風(fēng)險預(yù)防型立法逐漸獲得各國立法者的青睞,美國、加拿大和德國也逐漸重視算法系統(tǒng)的事前風(fēng)險防范制度,要求企業(yè)承擔(dān)更多的信息披露義務(wù),以減少監(jiān)管機構(gòu)的負擔(dān)。無論是 GDPR 的算法專條還是美國的《算法問責(zé)法案》(Algorithmic Accountability Act of 2019),其中的算法透明度、可見性、評估、認證等制度均充分體現(xiàn)了算法風(fēng)險預(yù)防型流程監(jiān)管的加強趨勢。實踐中,”西班牙谷歌案“”武爾夫夫人訴谷歌案“等一系列司法判例,以及行政機關(guān)的一些行政處罰案都表明了對平臺算法有從設(shè)計階段問責(zé)的傾向。
同時,各國也加強了算法造成危害結(jié)果后對平臺的問責(zé)。平臺作為算法的使用者與控制者,有義務(wù)在不利后果發(fā)生后報告并證明算法系統(tǒng)設(shè)計和決策應(yīng)用的合理性,并有義務(wù)減輕算法可能帶來的任何負面影響或者潛在危害。
?。ㄈ┢脚_算法治理的目標:平臺的算法問責(zé)
平臺算法治理的核心目標是厘清平臺責(zé)任的認定與分配,具體而言是解決”誰負責(zé)、怎么負責(zé)、負什么責(zé)“的問題。平臺算法治理必須既符合技術(shù)邏輯,也符合法律責(zé)任主客觀相一致的法律原理,打造”負責(zé)任“的平臺算法責(zé)任體系。
技術(shù)一旦應(yīng)用,則需要對來自人類社會的各種倫理訴求作出負責(zé)任的回應(yīng)。算法問責(zé)制有確保平臺負責(zé)任地開發(fā)和使用算法系統(tǒng),從而改善人類福利并造福社會的功能。在諸多算法治理手段中,算法透明度和算法問責(zé)制之間既有區(qū)別又有聯(lián)系。其中一個重要區(qū)別是,問責(zé)制主要是個人或組織的一項法律和道德義務(wù),即對其活動進行說明,承擔(dān)責(zé)任;而算法透明度可作為實現(xiàn)這一目標的工具,要求平臺以透明的方式披露算法運行過程與結(jié)果,算法的結(jié)果透明度、目標透明度和影響透明度比算法本身的透明度對算法問責(zé)更有意義。歸根結(jié)底,透明度、數(shù)據(jù)出處日志、代碼更改和其他記錄保存都是重要的技術(shù)治理工具,平臺責(zé)任制度設(shè)計的根本目標是建立明確的法律責(zé)任鏈。
平臺算法治理以平臺算法問責(zé)制作為目標,相比其他治理目標具有優(yōu)勢。個人數(shù)據(jù)保護進路的算法治理存在重大局限,強調(diào)權(quán)利保護而不明確算法責(zé)任的歸責(zé)主體、歸責(zé)條件和規(guī)則事由,使得個人權(quán)利保護進路的算法監(jiān)管無法落地。歐盟提倡的”設(shè)計隱私“理念過于狹隘,無法涵蓋算法治理的公平、安全等重要價值。美國的事后監(jiān)管模式事實上是”一事一理“,難以被他國學(xué)習(xí)、復(fù)制。FTC 調(diào)查程序漫長、反應(yīng)滯后,事后監(jiān)管也未形成令人信服的可供對標的佳實踐,盲目借鑒將會造成司法管轄的低效能,并使得行政監(jiān)管權(quán)限與邊界模糊化。現(xiàn)有《草案》中應(yīng)以行政賦能作為主要手段,以平衡用戶與科技巨頭”算法權(quán)力“的不對等現(xiàn)狀,來滿足未來算法問責(zé)制的需求。
平臺從提供”連接“服務(wù)走向智能化與自動化后,網(wǎng)絡(luò)平臺應(yīng)當基于”算法責(zé)任“的主觀過錯,將”客觀損害結(jié)果“和之前已經(jīng)事先存在的”算法責(zé)任“相結(jié)合,建立權(quán)責(zé)一致、責(zé)罰相當?shù)谋O(jiān)管框架與法律責(zé)任體系。
三 平臺算法問責(zé)制的框架完善與制度細化
我國平臺責(zé)任存在監(jiān)管時點滯后、責(zé)任機理模糊、調(diào)整對象過淺的情況,因此常被詬病為”事故型問責(zé)“或”按需求處罰“,導(dǎo)致問責(zé)的必要性、合理性存疑。《草案》確立了算法問責(zé)制的基本框架,但遺憾的是,對于平臺算法責(zé)任的機理與層次尚不明晰。因此,應(yīng)以符合法理和技術(shù)邏輯的科學(xué)問責(zé)思路來校正監(jiān)管部門與生俱來的”越早越好“和”越嚴越好“的擴張邏輯,使平臺責(zé)任設(shè)置和追究走向科學(xué)化、體系化,監(jiān)管力度與平臺過錯相適應(yīng)。
?。ㄒ唬┢脚_算法注意義務(wù)的適度擴張
為了避免事后僅根據(jù)損害結(jié)果客觀歸責(zé),必須通過制度在事前進行算法設(shè)計部署的相關(guān)信息披露以確定事后的問責(zé)點。對平臺責(zé)任中平臺是否盡到注意義務(wù)的考察應(yīng)在事前進行,并以某種形式將事后的問責(zé)點固定下來。這樣既能夠避免事后平臺隱瞞與錯誤披露的可能,也可以預(yù)防風(fēng)險,避免錯誤的算法計算反復(fù)被適用于海量主體,從而導(dǎo)致?lián)p害彌散化。
算法評估標準應(yīng)當適度擴張。遺憾的是,《草案》對于平臺自動化決策的評估基于其立法目的限于”對個人的影響及風(fēng)險“,而平臺的自動化決策遠不止于此。例如,平臺匹配工作任務(wù)與勞動者的算法,影響就業(yè)的薪酬與機會,事關(guān)就業(yè)公平;平臺對商戶的信用評分算法,對商戶獲得流量與業(yè)務(wù)至關(guān)重要;甚至互聯(lián)網(wǎng)保險公司采用的算法決定是否允許用戶投保以及保費高低,已具有了一定的公共服務(wù)色彩。平臺是數(shù)字經(jīng)濟中組織社會生產(chǎn)的核心組織,其算法設(shè)計直接關(guān)系到社會經(jīng)濟運行,對參與生產(chǎn)與資源分配的社會主體具有深遠影響。
2018年以來,立法者逐漸認識到數(shù)據(jù)保護制度偏重私權(quán)與合規(guī),無法顧及公共利益與網(wǎng)絡(luò)治理,因此算法規(guī)制成為網(wǎng)絡(luò)治理的新抓手。目前,歐盟及各成員國呈現(xiàn)算法立法與數(shù)據(jù)立法分立且并重的態(tài)勢。例如,GDPR 的數(shù)據(jù)處理評估制度(DPIA)即是針對高風(fēng)險數(shù)據(jù)處理活動對數(shù)據(jù)控制者設(shè)置的預(yù)警自查義務(wù)。AI Now 研究院也提出了類似的”算法影響評估“制度,要求在重要的公共部門使用算法前,應(yīng)采取關(guān)鍵步驟來確定何時以及如何產(chǎn)生潛在危害的,包括增加其專業(yè)知識和能力以有效評估算法系統(tǒng),并允許第三方審計公共部門的算法。由于近三年英國脫歐事件與歐洲各國大選,算法對網(wǎng)絡(luò)信息內(nèi)容的決定性作用與社會動員力量引起了立法者的關(guān)注。歐盟議會指導(dǎo)意見要求在線平臺確保政治廣告透明性、闡述算法推薦內(nèi)容機制并允許第三方驗證,以應(yīng)對算法操縱新聞議程。
《草案》的算法事前評估制度可類比建設(shè)項目的環(huán)境影響評估制度。算法可能產(chǎn)生的公共利益、公民權(quán)利等風(fēng)險的評估,包括風(fēng)險的來源、性質(zhì)、特殊性和嚴重性等。在數(shù)據(jù)實踐中,個人信息的隱私與數(shù)據(jù)安全并不可截然分開,如許多個人信息泄露是由于未能有效維護信息安全而導(dǎo)致的。有他國實踐主張,算法的設(shè)計部署者應(yīng)提供更為廣泛的評估,包括算法應(yīng)用對人權(quán)、隱私和數(shù)據(jù)保護的影響等;有的學(xué)者主張,算法設(shè)計部署應(yīng)著重提供”社會影響聲明“”歧視影響評估“,甚至”人類影響聲明“等。我國未來應(yīng)以行政法規(guī)或規(guī)章對《草案》確立的算法評估制度具化細化,依據(jù)算法應(yīng)用場景、算法處理數(shù)據(jù)風(fēng)險、算法使用部門、算法的法律后果等多種風(fēng)險評估標準,采取不同的算法監(jiān)管強度。
?。ǘ┢脚_算法問責(zé)制度的細化
第一,應(yīng)明確平臺啟動算法評估的條件。我國并未明確平臺對算法自動化決策進行評估的啟動標準,應(yīng)在未來實施細則中具體明確以方便今后平臺的合規(guī)工作。我國的《信息安全技術(shù)個人信息安全規(guī)范》將”處理超過100萬人的個人信息“作為評估啟動的標準,但對于《草案》中的算法評估在何種條件下啟動并未明確。將算法應(yīng)用涉及的用戶數(shù)量作為高風(fēng)險標準是為了避免算法造成的系統(tǒng)性風(fēng)險。這種適用范圍的確定以美國《算法問責(zé)法案》為代表,針對有權(quán)訪問大量信息的大型公司,適用于年收入超過5000萬美元,擁有至少100萬人或設(shè)備的信息或主要充當買賣消費者數(shù)據(jù)的數(shù)據(jù)經(jīng)紀人的公司。法國也將當前(或?qū)恚┙佑|軟件應(yīng)用程序的用戶數(shù)量構(gòu)成了確定監(jiān)管措施是否適當?shù)闹匾鶞?,認定每月連接數(shù)超過500萬的平臺比連接數(shù)較少的平臺受到更嚴格的監(jiān)管。可以預(yù)見,我國未來可能建立以用戶數(shù)、企業(yè)規(guī)?;蛩惴ǚ旨墳榍爸脳l件的評估啟動條件。
第二,應(yīng)明確平臺啟動算法評估的后果。算法評估報告是否應(yīng)公布,并在何種范圍內(nèi)公布?對公眾披露的大風(fēng)險在于算法的設(shè)計信息可能會被競爭對手獲取,或被用戶不當使用。例如,網(wǎng)絡(luò)用戶在掌握搜索引擎排名權(quán)重等信息后,通過搜索引擎優(yōu)化(SEO)技術(shù)對排名和搜索建議進行操縱。這些風(fēng)險可通過將披露對象限定于監(jiān)管部門而得以避免。在各國制度中,美國的《算法問責(zé)法案》擬要求平臺對監(jiān)管部門(FTC)披露信息,澳大利亞反壟斷部門的平臺算法監(jiān)管措施也僅限于對監(jiān)管部門的披露,而在英國數(shù)據(jù)保護機關(guān) ICO 的調(diào)查報告中建議數(shù)據(jù)處理評估的結(jié)果應(yīng)該公開。數(shù)據(jù)處理評估在實踐當中已經(jīng)逐漸開始發(fā)揮作用。曾供職荷蘭數(shù)據(jù)保護機關(guān)的 Sjoera Nas 在 EDPL 撰文披露了微軟公司 Office ProPlus 軟件的影響評估報告。這份報告由荷蘭政府中央采購部門披露。報告披露,微軟在未經(jīng)用戶同意的情況下,對用戶使用 Word、Excel、PowerPoint 以及 Outlook 等常用軟件進行數(shù)據(jù)收集。微軟隱私和法規(guī)事務(wù)副總顧問事后予以回應(yīng),稱相關(guān)軟件已經(jīng)升級,并對算法進行數(shù)據(jù)收集的問題進行了修繕?!恫莅浮窇?yīng)在未來的具體制度設(shè)計中明確算法評估報告的公布范圍。
(三)平臺多元治理體系的完善
平臺運行過程中的算法審計是針對算法運行過程進行問責(zé)的主要依據(jù)。應(yīng)鼓勵建立多元主體的平臺問責(zé)體系,由平臺對算法進行自我審計與評估,以幫助提前識別和減輕算法可能帶來的風(fēng)險,這既有助于為日后的問責(zé)提供充分有效的信息,又符合鼓勵行業(yè)自律的自證合規(guī)原則。
平臺的自我審計與評估應(yīng)包括對算法與使用數(shù)據(jù)在運行階段的頻繁評估,以檢查是否有任何偏見(例如,錯誤的分類、不準確的預(yù)測、對個人的負面影響),并制定解決任何偏見因素的方法。算法審計系統(tǒng)應(yīng)構(gòu)建為自動決策的準確性和相關(guān)性進行的定期審查,并應(yīng)包括周期性地防止基于敏感數(shù)據(jù)的錯誤和不準確而發(fā)生歧視的程序和措施。政府對平臺的算法監(jiān)管需要把握侵入平臺內(nèi)部運行的限度,盡量形成合作規(guī)制,通過低成本”輕推“的監(jiān)管方式調(diào)動平臺的技術(shù)力量自我規(guī)制。如 Facebook 自2018年起就遭到其偏愛左傾新聞來源的批評,盡管美國并未展開相關(guān)調(diào)查,F(xiàn)acebook 還是對其算法的政治偏見進行了內(nèi)部審計。
從技術(shù)的角度來看,對測試結(jié)果的正確解釋可能受到技術(shù)能力的限制,尤其是對于機器學(xué)習(xí)的算法內(nèi)部如何達成結(jié)果可能無法進行有效解釋。這限制了監(jiān)管部門提供證據(jù)確認平臺算法設(shè)計和運行中的過錯。因此,還需要事前就設(shè)立不同算法的技術(shù)標準、測試程序,審核算法設(shè)計運行是否達到了相關(guān)標準。政府部門應(yīng)制定測試程序和審計統(tǒng)計技術(shù)標準的計劃,并在必要時根據(jù)應(yīng)用領(lǐng)域進行區(qū)分。專業(yè)技術(shù)支持部門應(yīng)在算法測試中發(fā)揮主導(dǎo)作用。
?。ㄋ模┢脚_算法責(zé)任的體系化設(shè)置
《草案》確立了平臺數(shù)據(jù)活動造成的損害的過錯責(zé)任原則(過錯推定原則)?!恫莅浮返?5條規(guī)定:”因個人信息處理活動侵害個人信息權(quán)益的,按照個人因此受到的損失或者個人信息處理者因此獲得的利益承擔(dān)賠償責(zé)任……個人信息處理者能夠證明自己沒有過錯的,可以減輕或者免除責(zé)任?!坝纱丝梢酝茢?,平臺算法自動化決策(數(shù)據(jù)活動)造成損害的歸責(zé)原則也應(yīng)為過錯責(zé)任原則,那么,如何根據(jù)不同的過錯程度設(shè)計體系化的平臺算法責(zé)任,仍有待未來法律與實踐的回答。
首先,平臺算法問責(zé)應(yīng)對不同類型風(fēng)險設(shè)置不同層次的法律責(zé)任。對”高風(fēng)險“的應(yīng)用場景可采取風(fēng)險規(guī)制思路,強化事前監(jiān)管,對應(yīng)用準入設(shè)置必要的評估等要求,完善相應(yīng)責(zé)任立法體系。對于高風(fēng)險的”關(guān)鍵算法系統(tǒng)“可適當采取嚴格責(zé)任或無過錯責(zé)任,對于風(fēng)險適中的算法則采取過錯責(zé)任原則。
其次,平臺對算法的評估與審計不符合標準,或進行虛假評估與審計時,監(jiān)管部門可以強制要求披露或介入平臺運營。例如,法國2019年《反網(wǎng)絡(luò)仇恨法案》提出提高數(shù)據(jù)處理透明度,接受技術(shù)資源高級視聽委員會的監(jiān)督,并向后者上報所收到問題的處理情況和必要數(shù)據(jù);加強與法國司法系統(tǒng)的合作,取消違法用戶的匿名權(quán)利并提交用戶信息,接受獨立檢察官的依法審核及必要介入。
最后,我國可以在復(fù)雜領(lǐng)域通過司法審判對具體案件進行平臺算法責(zé)任的探索,通過個案析理提升立法清晰度?!恫莅浮分械钠脚_算法問責(zé)制多為統(tǒng)籌性、原則性立法,在具體案件適用過程中存在清晰性不足的問題。
結(jié)語 人工智能時代,法律的重要任務(wù)是保障自動化決策公平的核心公共利益?!恫莅浮分械钠脚_算法治理框架以保障用戶的個人信息與財產(chǎn)權(quán)益為目標,應(yīng)積極發(fā)揮促進公平、發(fā)展等民眾福祉的作用。隨著風(fēng)險社會的來臨,以及平臺權(quán)力和算法權(quán)力的崛起,法律與監(jiān)管部門應(yīng)主動防治風(fēng)險,建立完善的平臺算法問責(zé)制度,形成符合法理和技術(shù)邏輯的科學(xué)問責(zé)思路和監(jiān)管思路,以促進”負責(zé)任“的平臺算法設(shè)計與運行體系。