幾十年前,我是美國媒體EE Times駐歐洲的外籍特派記者,當(dāng)我不經(jīng)意地表示對美國商業(yè)慣例的反感,認(rèn)為這是對隱私權(quán)的侵犯時,一些產(chǎn)業(yè)分析師告訴我:“在美國,消費(fèi)者愿意用他們的個資來換免費(fèi)的東西;”至于美國的隱私權(quán)保護(hù),他們說:“火車已經(jīng)過站很久了…”
還是這樣嗎?
自從歐盟在一年前推出《通用數(shù)據(jù)保護(hù)規(guī)則》(General Data Protection Regulation,GDPR),遵守GDPR的壓力已擴(kuò)展到美國的資料平臺業(yè)者,這些公司的業(yè)務(wù)覆蓋范圍實(shí)際上涵蓋全球。而且即使在美國本土,加州也在去年推出了《加州消費(fèi)者隱私保護(hù)法案》(California Consumer Privacy Act,CCPA),該法案旨在強(qiáng)化對加州居民的隱私權(quán)和消費(fèi)者權(quán)利保護(hù),有人認(rèn)為該法案比GDPR更強(qiáng)大;該法案將在2020年1月生效。
社會大眾對隱私權(quán)的重視正在美國迅速發(fā)酵。
美國消費(fèi)者或許姍姍來遲,但他們正在醒悟放棄隱私所付出的代價。將個資留在Facebook、Google這樣的大型技術(shù)平臺業(yè)者手中,這些公司可能會也可能不會做合乎道德的事情;美國人發(fā)現(xiàn),當(dāng)他們的個資被黑客入侵、竊取、買賣,甚至被可疑群體用來影響選舉結(jié)果時,他們幾乎是訴諸無門。
在大數(shù)據(jù)時代,隱私保護(hù)法規(guī)迅速成為任何數(shù)字安全對話的主要元素;對于那些將業(yè)務(wù)建立在消費(fèi)者個資之上的公司,消費(fèi)者的信任正演變?yōu)槠渖虡I(yè)模式的重要組成部分。但相較之下,人工智能(AI)的“公正性”(fairness)仍處于我們在20年前討論隱私權(quán)時的狀態(tài),它還沒有上升到許多人的意識層面,至少目前還沒。
我意識到在工程領(lǐng)域,許多人認(rèn)為“公正性”是模糊、令人不快的議題,在他們看來,這與他們在技術(shù)開發(fā)和軟/硬件設(shè)計方面的工作無關(guān)。
是這樣嗎?
EE Times在最近推出的一個AI專題報導(dǎo)中討論了AI的公正性,但有些讀者認(rèn)為那應(yīng)該是“社會工程”(social engineering)的范疇。
許多那一類的評論認(rèn)為,這暗指工程師會被要求去操控技術(shù)(或游戲算法、數(shù)據(jù)集),為“政治正確性”(politically correctness)改變機(jī)器學(xué)習(xí)的結(jié)果;而“政治正確性”和“公正性”一樣,是有著預(yù)設(shè)立場的一個詞。
事實(shí)遠(yuǎn)非如此。
被AI解雇或被AI殺死
真正的問題是“偏見”(bias),這里指的是那些可能會扭曲機(jī)器學(xué)習(xí)結(jié)果的數(shù)據(jù)集偏見,而這種偏見透過訓(xùn)練算法的優(yōu)化策略又被進(jìn)一步放大。
想想那些不完整的數(shù)據(jù)集,例如忽略了坐輪椅的人、忽略了穿著綠色熒光夾克的建筑工人們;基于這些數(shù)據(jù)集被訓(xùn)練的AI算法可能會像打保齡球那樣撞倒一群建筑工人,讓坐輪椅比騎獨(dú)輪車更危險。
在這些案例中,AI的不準(zhǔn)確性最終可能賠上人們的寶貴性命,顯然AI的機(jī)器決策未公正對待對那些穿熒光綠夾克和坐輪椅的人。
市場對AI趨之若鶩,因?yàn)楦骷移髽I(yè)都在尋求自動化其特定業(yè)務(wù)的方法;在尋求自動化方案的過程中,我們開始有意或無意地屈服于機(jī)器,涵蓋整個決策范圍。AI涉及的工作包括人事管理、信用評等、客戶服務(wù),甚至是駕駛。
要充分了解何謂 AI 的“不公正”,你需要想象自己是機(jī)器決策觸發(fā)之壞消息的受害者。
如果某個 AI 算法做出針對某個年齡層員工進(jìn)行裁員的決策,這些倒霉的員工有權(quán)質(zhì)問AI為什么丟飯碗的是他們;他們可能還想知道,他們的雇主所依賴之AI系統(tǒng)是否在不知不覺間被設(shè)計為不公平對待某個年齡層。
一旦感覺到受了機(jī)器的委屈,你可能會很抓狂,甚至可能比被一個你知道是混蛋的人類老板炒魷魚更不爽。
算法也會是個混蛋嗎?
不透明的算法
這個問題暴露了一個令人不安的現(xiàn)實(shí)──每套AI算法都是一個黑盒子,沒人知道算法在做什么,無論是Facebook這樣的社交網(wǎng)絡(luò)巨擘使用的算法,還是Waymo自動駕駛車輛使用的算法,這使得這個大無畏的新AI時代之一切,都變得不透明和不確定。
最近人們已經(jīng)開始公開討論,是時候與Facebook分手了…
我不確定如果使用者決定分手,是否會改變那些大型科技平臺的任何商業(yè)行為,但有一件事是肯定的:不是使用者,而是Facebook本身在肆意決定我們會在新聞推送看到什么;Facebook的運(yùn)營不受任何法律監(jiān)督。
正如Facebook共同創(chuàng)創(chuàng)辦人Chris Hughes在投稿《紐約時報》(The New York Times)的一篇文章所寫:“Facebook的力量最大的麻煩在于,馬克(編按:Facebook共同創(chuàng)辦人暨執(zhí)行長Mark Zuckerberg)能單方面控制言論;他這種擁有監(jiān)控、組織甚至審查20億人對話的能力史無前例?!?/p>
他寫道:“Facebook的工程師們編寫算法,并決定哪些使用者評論或體驗(yàn)最終會顯示在朋友和家人的新聞推送中。這些算法規(guī)則是專屬的,而且非常復(fù)雜,甚至許多Facebook員工自己都不懂那些規(guī)則?!?/p>
這一切并非都是工程社群的責(zé)任,企業(yè)、政府主管機(jī)關(guān)、消費(fèi)者和整個社會應(yīng)該共同承擔(dān)。
不過那些負(fù)責(zé)撰寫算法和設(shè)計系統(tǒng)的工程師們,應(yīng)該開始考慮乍看之下離他們的實(shí)驗(yàn)室很遠(yuǎn)的后果——隱私權(quán)保護(hù)和公正性。從現(xiàn)在開始討論以「隱私權(quán)保護(hù)設(shè)計」(privacy protection by design)或“公正性設(shè)計”(fairness by design)為基礎(chǔ)原則的系統(tǒng)開發(fā)正是時候!