《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > 模擬設(shè)計 > 業(yè)界動態(tài) > 大數(shù)據(jù)“殺熟”,算法“歧視”,網(wǎng)絡(luò)互聯(lián)時代如何實現(xiàn)算法正義?

大數(shù)據(jù)“殺熟”,算法“歧視”,網(wǎng)絡(luò)互聯(lián)時代如何實現(xiàn)算法正義?

2021-12-22
來源:紫金財經(jīng)

大數(shù)據(jù)“殺熟”,算法“歧視”,平臺“畫像”……網(wǎng)絡(luò)互聯(lián)時代,算法,這個曾經(jīng)藏匿深處、遠離大眾的互聯(lián)網(wǎng)專業(yè)詞匯,如今越來越多地被提及,越來越多地被關(guān)注。

算法以全新的挑戰(zhàn)形態(tài)對法律實踐產(chǎn)生沖擊,如何回應(yīng)這些挑戰(zhàn),如何用法律保護算法的計算正義,使其促進共同善的同時,不對正義和公平造成沖擊,本文作者認為,傳統(tǒng)的回應(yīng)型規(guī)制視角并不可取,而是應(yīng)該從計算正義角度重構(gòu)算法與法律的關(guān)系模式。

人工智能帶來社會生活的智能化,隨著算法研發(fā)的發(fā)展和成熟,生產(chǎn)、社會生活、商業(yè)經(jīng)營和公共決策等領(lǐng)域越來越多地利用算法來實現(xiàn)特定目標。算法從幕后走到臺前,成為法學研究的熱點。

01算法的廣泛應(yīng)用帶來諸多法律困境

算法技術(shù)的獨特性不僅體現(xiàn)在算法如何進行計算和應(yīng)用,而是對法律的價值世界造成沖擊。算法所引發(fā)的不僅是技術(shù)不受約束或者行業(yè)難以監(jiān)管,而是在一個非常基礎(chǔ)的層面上沖擊了法律這種制度形式:算法系統(tǒng)的黑箱問題、算法運行過程中的歧視、算法對偏見的數(shù)字化固化等等。這些現(xiàn)象導(dǎo)致社會產(chǎn)生強烈擔憂,更讓法律規(guī)制面臨棘手困境。

社會生活的計算化和算法與法律的融合產(chǎn)生了三方面的難題,帶來了一定程度的社會危機和治理困境。

第一類是監(jiān)管難題。社會生活的計算化改變了傳統(tǒng)概念的內(nèi)涵和社會理解,算法對社會生活的“入侵”使得隱私、自主、平等等概念變得模糊不清。借助算法,運營商對個人數(shù)據(jù)的收集變得易如反掌,通過算法監(jiān)測用戶的舉動也成為技術(shù)常態(tài);社交平臺收集用戶信息并進行畫像,定向推送廣告;網(wǎng)絡(luò)服務(wù)提供者運用數(shù)據(jù)進行特定的數(shù)據(jù)分析或者實驗。

第二類是價值難題。從效用上看,算法具有巨大的社會利益:在商業(yè)領(lǐng)域,算法可以快速精準地判斷市場商業(yè)需求;在公共領(lǐng)域,算法也潛力無限。然而,從價值角度來看,算法引發(fā)一定程度的價值危機:一方面改變?nèi)说闹黧w性理解,賦予人的自由、自主選擇和決策以新的內(nèi)涵;另一方面在實踐中引發(fā)固化歧視、侵犯隱私的問題,構(gòu)成對人之尊嚴的威脅。

以算法黑箱問題為例,在商業(yè)領(lǐng)域,消費平臺會基于人們的購買記錄和消費習慣而差別定價,這種操作的依據(jù)并不透明,消費者也難以察覺。算法黑箱的規(guī)制難點在于算法決策過程完全由機器根據(jù)特定函數(shù)進行運轉(zhuǎn),人力無法干預(yù),更無法解釋算法運轉(zhuǎn)的內(nèi)在原理。

然而,人們需要對算法的價值難題保持清醒的認識,算法本身是技術(shù)應(yīng)用程式,其價值問題本質(zhì)上是算法設(shè)計者和使用者利用算法損害某些價值。

第三類是歸責難題。算法應(yīng)用必然伴隨著法律責任配置,以防范風險和實施救濟。隨著人工智能的廣泛應(yīng)用,其侵權(quán)問題也成為理論難點。人工智能的風險之一是算法侵權(quán)的救濟途徑難以確定。

一個典型的例子是自動駕駛汽車致?lián)p的責任認定問題,汽車生產(chǎn)廠家、算法設(shè)計者和車主應(yīng)如何劃分責任,是自動駕駛汽車進入市場前須解決的問題。此外,算法歧視的救濟也是一個復(fù)雜問題,特別是在公共決策中,如果一個人因為性別或?qū)W歷而受到自動化行政決策的不同待遇,他能否向政府主張救濟?

算法以全新的挑戰(zhàn)形態(tài)對法律實踐產(chǎn)生沖擊。我們果真束手無策嗎?當前有大量的研究針對算法規(guī)制提出各種形式的建議。但需要迫切回應(yīng)的基礎(chǔ)性問題是,算法和法律之間有什么關(guān)系?算法所造成的法律挑戰(zhàn),法律能夠有力地應(yīng)對嗎?從計算正義的角度切入這個問題,可以挖掘出回應(yīng)這些難題的有效思路。

02 算法的價值:共同善與計算正義

理解法律與算法之關(guān)系的關(guān)鍵在于從價值上厘清二者之間的關(guān)聯(lián)。

算法的內(nèi)涵有技術(shù)和社會兩重意義。算法的技術(shù)意義并無太大爭議,算法是一種計算方法,通過計算公式得出確定的結(jié)果。算法的社會意義受制于科技發(fā)展水平和社會語境,計算機的發(fā)明和網(wǎng)絡(luò)傳輸技術(shù)的提升使得大數(shù)據(jù)收集成為可能,在此基礎(chǔ)上,算法通過對海量數(shù)據(jù)的深度學習可以實現(xiàn)自我更新和升級,最后形成更為成熟的算法。

網(wǎng)絡(luò)服務(wù)主體開發(fā)利用特定算法(決策樹、貝葉斯算法等)并服務(wù)于社會公眾,比如信貸機構(gòu)、網(wǎng)約車、社交和外賣平臺等。除了商業(yè)外,政府也可以發(fā)揮自動決策的優(yōu)勢,運用算法決定行政審批,包括公共資源審核、假釋評估等。

可以看出,算法改變了社會,也創(chuàng)造了更多新的可能。但從價值角度來說,算法的社會意義主要體現(xiàn)在算法能夠促進共同善,即對于社會共同體的每個個體都至關(guān)重要的那些善好,比如知識、社會交往和實踐理性等等。

社交媒體可以促進社會交往和信息交流,大大便利人們對知識的追求。算法的引入,使得人們不僅能夠更好地實現(xiàn)這些善,也改變了實現(xiàn)善的方式。比如傳統(tǒng)知識獲取方式是閱讀和教育,現(xiàn)代的知識獲取方式十分多元,網(wǎng)絡(luò)閱讀、視聽平臺、社交媒體傳播等都是知識獲取的重要方式。

但算法并不能自動實現(xiàn)這些基本善,人們帶著改善社會、實現(xiàn)善的意圖將算法嵌入到各種應(yīng)用場景之中,算法不僅參與到善的實現(xiàn)過程中——人們借助算法技術(shù)能夠更便捷地檢索知識,也能重塑知識這種價值,知識不再是關(guān)于世界的判斷和信念,也成為以計算化的方式而存在的代碼和數(shù)據(jù)。

這個過程產(chǎn)生了正義問題。

為什么要提出計算正義?

算法是技術(shù),通常來說被用于實現(xiàn)某種目標,比如設(shè)計一種視覺識別算法,用于人臉識別或者動畫設(shè)計。算法技術(shù)與正義無關(guān),但算法運行在某一場景之中,并且對人的決策和行動產(chǎn)生實際影響的時候,算法技術(shù)就產(chǎn)生了正義問題。

由于算法種類千差萬別,應(yīng)用場景層出不窮,算法涉及到的具體善也非常多。但整體上來說,算法實踐最終都指向社會實踐的基本善,也引發(fā)實現(xiàn)這些善的正義問題。

例如,招聘算法能夠幫助雇主更為精確和高效地挑選合適雇員,促進就業(yè),但計算過程可能會包含潛在的歧視。如果一個雇主對女性應(yīng)聘者說:“你是女性,我不能招聘你”,顯然構(gòu)成歧視,法律可以對這種性別歧視做出回應(yīng)。但如果招聘算法在數(shù)據(jù)處理過程中包含著偏見,法律對這種計算化的偏見應(yīng)該如何回應(yīng),卻是一個全新的問題。

法律有各種應(yīng)對歧視(比如種族歧視、性別歧視等)的規(guī)范形式和責任原理,但在算法歧視問題上卻左右為難。由于算法所需要的數(shù)據(jù)本身并無完美,所以算法歧視無法避免。但傳統(tǒng)意義上的反歧視法在應(yīng)對這種技術(shù)化和計算化的顯性或隱性歧視上卻束手無策。

03 算法與法律的重構(gòu)模式

社會實踐是復(fù)雜的,充滿了價值沖突和利益分歧,算法應(yīng)用在諸多方面加劇了這種復(fù)雜性。算法實踐所引發(fā)的法律挑戰(zhàn)和價值擔憂,使得對算法進行規(guī)制成為必需。

在算法應(yīng)用出現(xiàn)問題和引發(fā)擔憂時,很多建議往往采取傳統(tǒng)的回應(yīng)型規(guī)制視角,主張將算法納入法律監(jiān)管,通過法律對算法進行規(guī)范。然而,規(guī)制所承載的回應(yīng)型法律姿態(tài)不足以應(yīng)對新興科技的發(fā)展步伐,因為從實踐來看,科技對法律的影響意義反而比法律對科技的回應(yīng)和規(guī)制更為突出。  

理解算法與法律之關(guān)系的一種理想模式是重構(gòu)模式,該模式強調(diào)的是法律在應(yīng)對技術(shù)挑戰(zhàn)時,應(yīng)當對自身追求共同善的方式進行重新梳理。這種模式并不是要改變法律的屬性,而是分析算法和法律的價值分別如何實現(xiàn),二者之間如何契合,以及出現(xiàn)沖突時應(yīng)該如何解決。

例如,面對算法歧視時,正確的思路不是通過法律消除算法的歧視,而是分析算法歧視與傳統(tǒng)歧視有何不同,根源上是否存在差異,以及法律是否能夠展現(xiàn)出不同于傳統(tǒng)歧視防范方式的新方案。在算法的法律應(yīng)對上,重構(gòu)模式可以發(fā)揮更為實質(zhì)的作用和理論指導(dǎo)意義。

在價值上,算法既沖擊了傳統(tǒng)價值實踐方式,也重塑了價值的呈現(xiàn)形態(tài)。算法的社會意義主要體現(xiàn)在決策上,包括公共決策和私人決策。決策的主要意義在于為利益分配和社會合作提供方案,引導(dǎo)人們追求共同善。

算法追求的具體價值類型有很多,有一些價值是法律與算法共同追求的,比如效率,但兩者也存在著很多價值差異,比如算法追求決策的客觀性,法律則追求決策的公開透明。這些差異會帶來實踐張力。例如,人的決策會受到認知局限、價值偏好等方面的影響;算法決策則以客觀數(shù)據(jù)為素材、借助海量數(shù)據(jù)分析引導(dǎo)決策。

算法運行是客觀的,但也會因為數(shù)據(jù)的選擇、算法的設(shè)計而注入偏見和引發(fā)歧視。這種歧視不同于人為歧視,而是一種被計算化的技術(shù)偏差。因此,算法歧視的源頭不在于算法本身,而在于機器學習所使用的那些數(shù)據(jù)。機器學習必須使用人類的生活和實踐經(jīng)驗中所積累的數(shù)據(jù),而計算結(jié)果反過來又影響人們的實踐。

如果沒有算法的參與,人類決策和預(yù)測也會產(chǎn)生大量偏見。算法影響了偏見產(chǎn)生的方式,主要體現(xiàn)在決策過程的計算化和數(shù)據(jù)化改變了人們的價值推理方式和道德判斷形態(tài),也帶來正義評價機制的改變。計算正義旨在揭示這種改變的社會和法律意義。算法應(yīng)用范圍的擴展和具體應(yīng)用場景的實踐積累不斷重塑計算正義空間的結(jié)構(gòu)和道德內(nèi)涵。

機器學習的決策結(jié)果與傳統(tǒng)的道德判斷產(chǎn)生的社會意義不同。人的道德判斷具有一個面向?qū)嵺`的開放性論辯結(jié)構(gòu),比如,要判斷男性是否比女性更具有能力優(yōu)勢,可以通過道德論辯、價值衡量和實踐檢驗加以辨析。但機器學習的技術(shù)性知識轉(zhuǎn)化(社會理解轉(zhuǎn)變?yōu)閿?shù)據(jù)輸入)、復(fù)雜化運作(數(shù)以億萬級的數(shù)據(jù)處理),為算法決策所承載的道德判斷賦予了全新的技術(shù)內(nèi)涵。

通過社會規(guī)范或者制度安排而表明的歧視性判斷與通過計算過程而得出的智能化偏見在本質(zhì)上是不同的。我們不能確定地說算法偏見必須通過算法自身的技術(shù)改善而得以消除,但至少可以確定的是,如果只認為通過法律規(guī)制能夠消除這種偏見,是錯失重點的方向。

所以,實現(xiàn)計算正義,首先不在于解決算法運行中的問題,而是展示如何從法律角度理解算法所引發(fā)的價值問題,以及構(gòu)建出這兩種“規(guī)范”之間的互動空間。

算法與法律的重構(gòu)不是簡單的功能融合,因為算法發(fā)揮技術(shù)功能,而法律發(fā)揮規(guī)范功能。兩者的重構(gòu)體現(xiàn)在算法對人的行為指引可視為法律指引功能的延伸,但算法的技術(shù)價值需要由法律價值加以約束并進行價值整合。這是一項復(fù)雜的技術(shù)和社會工程,同時展現(xiàn)了算法融入法律并拓展計算正義之內(nèi)涵的開放空間。




最后文章空三行圖片.jpg


本站內(nèi)容除特別聲明的原創(chuàng)文章之外,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,并不代表本網(wǎng)站贊同其觀點。轉(zhuǎn)載的所有的文章、圖片、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無法一一聯(lián)系確認版權(quán)者。如涉及作品內(nèi)容、版權(quán)和其它問題,請及時通過電子郵件或電話通知我們,以便迅速采取適當措施,避免給雙方造成不必要的經(jīng)濟損失。聯(lián)系電話:010-82306118;郵箱:aet@chinaaet.com。