隨著人工智能技術(shù)的普及,我們似乎開始“無條件”相信計算機(jī)算法所提供的結(jié)果,然而有些問題是不可忽略的。除了對就業(yè)產(chǎn)生的影響,由于人工智能往往基于人類提供的樣本數(shù)據(jù)進(jìn)行學(xué)習(xí),并且“來者不拒”,包括人類的“負(fù)能量”,因此,人工智能極有可能和小孩一樣學(xué)壞,在價值取向上出現(xiàn)扭曲。人類在學(xué)習(xí)過程中可能出現(xiàn)的任何一種認(rèn)知偏差都有可能在人工智能系統(tǒng)的學(xué)習(xí)過程中出現(xiàn)。
這樣的事件已經(jīng)在不斷發(fā)生,比如不久前Google公司的圖像識別程序?qū)讉€黑人的面孔標(biāo)記為大猩猩;LinkedIn的一個招聘廣告計劃顯示偏好是男性;而名為Tay的Microsoft聊天機(jī)器人,僅僅在Twitter學(xué)習(xí)了一天,就開始出現(xiàn)了反猶太人的信息。
人工智能正在成為“種族主義者”
人工智能在“價值觀”上的這種偏差,給社會帶來的影響將是巨大的。
去年五月,就有一則報道稱美國法院用于犯罪風(fēng)險評估的計算機(jī)程序?qū)谌俗锓复嬗衅?。根?jù)調(diào)查新聞組織ProPublica的說法,在COMPAS(懲教罪犯管理分析替代制裁)的項目中,關(guān)于判斷嫌疑人是否是累犯的問題,算法給出的黑人風(fēng)險值(45%)幾乎是白人風(fēng)險值的兩倍(24%),所以會更容易將黑人定為再犯嫌疑人。
與COMPAS類似的很多項目還在全美數(shù)百個法院中應(yīng)用,而這無疑將影響法官和其他官員的判決。我們似乎看到,由于存在種族歧視而被詬病的美國司法制度,已經(jīng)開始尋求技術(shù)的幫助來改變這樣的局面,但最終卻發(fā)現(xiàn)算法本身也存在種族偏見。
提供該軟件的公司Northpointe對報告的結(jié)論提出異議,但聲稱該項目由于敏感的商業(yè)機(jī)密拒絕透露內(nèi)部算法。無論如何,ProPublica的指責(zé)還是揭示了一個困擾許多社會學(xué)家和計算機(jī)科學(xué)家多年的問題,即在計算工具變得越來越先進(jìn)的同時,其計算原理也變得越來越不透明。計算工具所依賴的逮捕記錄、郵政編碼、社會關(guān)系和收入等數(shù)據(jù),不僅帶有偏見,也有可能進(jìn)一步加深人類的偏見。
當(dāng)我們?yōu)橛嬎銠C(jī)算法提供的信息越多,機(jī)器學(xué)習(xí)和其它利用大數(shù)據(jù)的程序所展現(xiàn)出來的性能也就越好。據(jù)麥肯錫的全球管理顧問透露,在過去的一年中,針對人工智能這一領(lǐng)域,科技公司大約投入了200億到300億的資金,并主要用于研發(fā)。這些公司相信人工智能能夠篩選社會所產(chǎn)生的大量信息,并找到有助于人類社會變得更高效、更富有、更高幸福指數(shù)的模式。
許多科學(xué)家都希望利用機(jī)器學(xué)習(xí)實現(xiàn)很多事情,例如幫助失業(yè)人員找到工作、預(yù)測養(yǎng)老基金的走勢,以及整理稅務(wù)和海關(guān)工作。這些項目將會涉及到人類生活的方方面面,成為一種得到廣泛認(rèn)可的智慧。如其中一位計算機(jī)科學(xué)家所說:“我們可能不知道人工智能的應(yīng)用現(xiàn)在有多么廣泛,但是,我卻知道我們不能后退?!?/p>
然而,目前人們對人工智能的關(guān)注點往往是在預(yù)測未來趨勢上,關(guān)于如何阻止相關(guān)項目進(jìn)一步加劇過去社會中存在的不平等現(xiàn)象卻關(guān)注得很少。
舊金山非盈利性人權(quán)數(shù)據(jù)分析組(HRDAG)的首席統(tǒng)計師Kristian Lum表示:“人們常常一不小心就會讓程序自動執(zhí)行不該有的偏見認(rèn)知?!比ツ?,Lum和一位合作伙伴一起展示了一個稱為“PredPol”的項目,計算機(jī)基于對過去的犯罪報告的“學(xué)習(xí)”,可以幫助警察部門預(yù)測未來犯罪可能發(fā)生的熱點地區(qū)。而這也導(dǎo)致了警察部門對于黑色和棕色人種聚集的地區(qū)過度警惕。一位政策研究員Samuel Sinyangwe表示,這種做法“特別惡毒”,一方面,警察可以說自己沒有偏見,只是根據(jù)數(shù)據(jù)的分析結(jié)果執(zhí)行;另一方面,這也在暗示公眾計算機(jī)的算法是公正的。
計算機(jī)的偏見認(rèn)知是人類賦予的
事實上,計算機(jī)本身是不會有偏見的,但是它會從人類所提供的數(shù)據(jù)中快速學(xué)會歧視。雖然機(jī)器學(xué)習(xí)使得計算機(jī)可以做很多例如語言翻譯、人臉識別或在Netflix隊列中推薦電影的工作。但是,隨著算法得以從原始代碼不斷“循環(huán)學(xué)習(xí)”,其中的原理也變得越來越復(fù)雜、越來越不透明。而對此,很多像Northpointe一樣的公司,礙于算法的商業(yè)敏感性往往也不愿意透露算法的內(nèi)部運(yùn)行原理。
此前,巴斯大學(xué)(University of Bath)的一位研究員Joanna Bryson開發(fā)了一個旨在“學(xué)習(xí)”詞匯之間的關(guān)聯(lián)性的程序,并發(fā)現(xiàn)這一程序在讀取了互聯(lián)網(wǎng)上數(shù)百萬頁的文本之后,開始將女性的名字和代詞與“接待員”和“護(hù)士”等工作聯(lián)系起來。令她更為震驚的是,這個結(jié)果與美國政府?dāng)?shù)據(jù)所顯示的結(jié)果一致,性別的確與職業(yè)存在著近90%的相關(guān)性。
Bryson表示:“人們希望人工智能是公正客觀的,而這本身就是錯誤的。如果基礎(chǔ)數(shù)據(jù)反映了人們的固有印象和判斷,或者如果你根據(jù)人類的文化來訓(xùn)練人工智能,那么,你還是會發(fā)現(xiàn)偏見在人工智能領(lǐng)域中也是普遍存在的?!?/p>
那么,在這樣的情況下,誰會是“受害者”?根據(jù)Cathy O‘Neil所著的《數(shù)學(xué)殺傷性武器(Weapons of Math Destruction)》一書中所說,在當(dāng)今社會里,最大的“受害者”通常是那些最容易受到自動化系統(tǒng)評估影響的人。比如說,真正富有的人不太可能通過網(wǎng)絡(luò)去找工作,也不會讓銀行行政人員以外的任何人評估他們的貸款申請。而在司法制度中,那些成千上萬沒有錢雇傭律師或其他法律顧問的被告,將成為最有可能接受計算機(jī)自動評估的人。
在Kristian Lum 2016年發(fā)表的一篇論文中,她具體揭示了由于人工智能系統(tǒng)中偏見的存在,哪些人群會成為“受害者”。以PredPol為例——該項目根據(jù)奧克蘭市警察局提供的近期犯罪和逮捕記錄的統(tǒng)計數(shù)據(jù)進(jìn)行分析,總結(jié)出了未來可能發(fā)生犯罪的地域,從而為警方部署提供依據(jù)。盡管統(tǒng)計學(xué)家們以國家統(tǒng)計數(shù)據(jù)為基礎(chǔ),統(tǒng)計出的整個國家的毒品使用量白人和黑人的概率差不多,但是,PredPol項目顯示的犯罪集中區(qū)域的結(jié)果中黑人社區(qū)的數(shù)量卻是白人社區(qū)數(shù)量的兩倍。
而如果美國警方根據(jù)PredPol所預(yù)測的結(jié)果在這些區(qū)域不斷開展行動并增加了逮捕數(shù)量,就會進(jìn)入一個惡性循環(huán),在那些警察最常訪問的地區(qū),PredPol預(yù)測的犯罪行為也會越來越多。同時,這也將導(dǎo)致更多的警察被安排到這些地區(qū)。如此循環(huán)往復(fù)。
要解決偏見認(rèn)知的問題還沒有“萬全之策”
雖然,我們大多數(shù)人都不了解PredPol等程序中的復(fù)雜代碼,但是,洛杉磯一個處理警方監(jiān)視的社區(qū)小組Stop LAPD Spying Coalition,其組織者Hamid Khan表示,人們認(rèn)為預(yù)測性警務(wù)是一種自上而下的保持治安水平不變的方法,這將會導(dǎo)致那些本就不穩(wěn)定的地區(qū)陷入病態(tài)化。
在計算機(jī)科學(xué)界有這么一句話,錯誤的輸入,就會導(dǎo)致錯誤的輸出。這意味著程序并不是萬能的,如果你給計算機(jī)的信息是有缺陷的,計算機(jī)并不會修復(fù)這些缺陷,而只是根據(jù)已有的信息進(jìn)行處理。用Khan的話說:“輸入了種族主義,就會導(dǎo)致種族歧視信息的輸出”。
但現(xiàn)在我們還不清楚的是,現(xiàn)行的法律怎么樣去防止歧視,以及如何規(guī)范算法決策來解決這個問題。2016年,曾為微軟研究員的康奈爾大學(xué)教授Solon Barocas表示,當(dāng)涉及大數(shù)據(jù)和機(jī)器學(xué)習(xí)時,現(xiàn)行法律是幾乎不能解決歧視問題的。目前在美國,已經(jīng)有許多傳統(tǒng)的民權(quán)主義者,包括美國公民自由聯(lián)盟(ACLU)在內(nèi),正在不斷維護(hù)民眾在這方面的權(quán)利,甚至試圖通過城市政策,要求警方披露其采用的包括人工智能在內(nèi)的所有技術(shù)。
但是,由于政府機(jī)構(gòu)采用私有企業(yè)的技術(shù),其內(nèi)部工作原理可能不透明,因而這一過程非常復(fù)雜并且曲折。
對此,英國也實施了一系列的保護(hù)措施。例如,如果一項決定被完全交給計算機(jī),那么,政府的服務(wù)商和公司就必須進(jìn)行披露。但是,牛津大學(xué)的阿蘭圖靈研究所的法律學(xué)者Sandra Wachter則表示,現(xiàn)行法律并沒有完全符合技術(shù)進(jìn)步的方向,很多漏洞都可能造成算法的不公開使用。因此,他要求政府提供“解釋權(quán)”,所有對應(yīng)的實施方案都必須以更高的透明度完全公開。
針對這一話題,很多科學(xué)文獻(xiàn)都反映了當(dāng)今社會關(guān)于“公平”本質(zhì)的辯論,而研究人員正在采用一切方法,從幾十年的歷史數(shù)據(jù)中剝離“不公平”的因素,并修改算法模型,從而保護(hù)受反歧視法保護(hù)的所有群體。然而,圖靈研究所的一名研究員仍然認(rèn)為這是非常困難的,因為“改變變量可能會引入新的偏見,有時我們甚至不知道偏見如何影響數(shù)據(jù),以及什么才是偏見?!?/p>
所以說,人工智能除了技術(shù)和應(yīng)用本身,還有很多的社會和道德問題需要解決??梢哉f,計算機(jī)科學(xué)家面臨著一個陌生又熟悉的挑戰(zhàn):他們的工作要面向未來,但是,在面對有學(xué)習(xí)能力的機(jī)器的時候,卻發(fā)現(xiàn)自己卻還被困在非常古老而傳統(tǒng)的問題中。