Cassie Kozyrkov在過(guò)去五年里在谷歌擔(dān)任過(guò)各種各樣的技術(shù)職務(wù),但她現(xiàn)在擔(dān)任著“首席決策科學(xué)家”這個(gè)有點(diǎn)奇怪的職位。“決策科學(xué)是數(shù)據(jù)和行為科學(xué)的交叉學(xué)科,涉及統(tǒng)計(jì)學(xué)、機(jī)器學(xué)習(xí)、心理學(xué)、經(jīng)濟(jì)學(xué)等。
實(shí)際上,這意味著Kozyrkov幫助谷歌推動(dòng)了一個(gè)積極的人工智能議程——或者,至少,讓人們相信人工智能并不像許多人宣稱(chēng)的那么糟糕。
焦慮
“機(jī)器人正在偷走我們的工作”,“人工智能是人類(lèi)生存的最大威脅”,類(lèi)似的言論已不絕如耳,尤其在過(guò)去幾年里,這種擔(dān)憂變得更加明顯。
人工智能對(duì)話助手滲入我們的家中,汽車(chē)和卡車(chē)自動(dòng)駕駛似乎指日可待,機(jī)器可以在電腦游戲中打敗人類(lèi),甚至創(chuàng)意藝術(shù)也不能幸免于人工智能的沖擊。另一方面,我們也被告知枯燥重復(fù)的工作可能會(huì)成為過(guò)去。
人們對(duì)自己在自動(dòng)化世界中的未來(lái)感到焦慮和困惑,這是可以理解的。但是,根據(jù)Kozyrkov的說(shuō)法,人工智能只是人類(lèi)努力方向的延伸。
“人類(lèi)的故事就是自動(dòng)化的故事,” Kozyrkov表示。“人類(lèi)的史詩(shī)就是要把事情做得更好——從有人拿起一塊石頭砸向另一塊石頭的那一刻起,因?yàn)槭虑榭梢宰龅酶?。我們是一個(gè)制造工具的物種,我們反抗苦差事?!?/p>
對(duì)人工智能潛在恐懼的原因是我們覺(jué)得它可以做得比人類(lèi)更好,但這種擔(dān)心并不成立。Kozyrkov認(rèn)為,所有工具都比人類(lèi)好。理發(fā)師用剪刀理發(fā),因?yàn)橛檬职杨^發(fā)剪出來(lái)是一種不太理想的體驗(yàn)。印刷機(jī)使文本的大規(guī)模生產(chǎn)成為可能,其規(guī)模是人類(lèi)用鋼筆無(wú)法復(fù)制的。但筆本身就開(kāi)啟了一個(gè)充滿機(jī)遇的世界。
“我們所有的工具都比人類(lèi)好——這就是工具的意義所在,” Kozyrkov繼續(xù)說(shuō)道?!叭绻麤](méi)有工具你可以做得更好,為什么要使用工具呢?如果你擔(dān)心電腦的認(rèn)知能力比你強(qiáng),那我要提醒你,你的筆和紙?jiān)谟洃浄矫姹饶銖?qiáng)。我的水桶比我更擅長(zhǎng)裝水,我的計(jì)算器比我更擅長(zhǎng)把六位數(shù)相乘。人工智能在某些方面也會(huì)變是如此?!?/p>
當(dāng)然,許多人對(duì)人工智能和自動(dòng)化的潛在恐懼并不是說(shuō)它會(huì)比人類(lèi)更擅長(zhǎng)做事。對(duì)許多人來(lái)說(shuō),真正的危險(xiǎn)在于,任何惡意實(shí)體可以肆無(wú)忌憚地對(duì)我們的一舉一動(dòng)進(jìn)行跟蹤和微觀管理,從而在我們身上投下反烏托邦的陰影——幾乎不費(fèi)任何力氣就能實(shí)現(xiàn)一個(gè)秘密的宏偉愿景。
其他的擔(dān)憂與算法偏見(jiàn)、缺乏足夠的監(jiān)督以及最終的末日?qǐng)鼍坝嘘P(guān):如果某件事發(fā)生了嚴(yán)重且無(wú)意的錯(cuò)誤,該怎么辦?
偏見(jiàn)
研究人員已經(jīng)證明了人臉識(shí)別系統(tǒng)中固有的偏見(jiàn),比如亞馬遜的Rekognition。民主黨總統(tǒng)候選人參議員Elizabeth Warren此前呼吁聯(lián)邦機(jī)構(gòu)解決算法偏見(jiàn)的問(wèn)題,比如美聯(lián)儲(chǔ)如何處理貨幣貸款歧視。
但人們對(duì)人工智能如何真正減少人類(lèi)現(xiàn)有偏見(jiàn)的關(guān)注少之又少。
舊金山最近宣稱(chēng),它將使用人工智能來(lái)減少對(duì)犯罪嫌疑人的偏見(jiàn),例如,自動(dòng)修改警方報(bào)告中的某些信息。
在招聘領(lǐng)域,風(fēng)投支持的Fetcher正著手幫助企業(yè)利用人工智能尋找人才。該公司聲稱(chēng),人工智能還有助于將人類(lèi)偏見(jiàn)降到最低。Fetcher通過(guò)在線渠道自動(dòng)尋找潛在候選人,并使用關(guān)鍵字來(lái)確定個(gè)人可能擁有的技能,而這些技能并沒(méi)有列在個(gè)人資料中。該公司將其平臺(tái)宣傳為消除招聘偏見(jiàn)的一種簡(jiǎn)單方法,因?yàn)槿绻阌?xùn)練一個(gè)系統(tǒng)遵循一套嚴(yán)格的標(biāo)準(zhǔn),只關(guān)注技能和經(jīng)驗(yàn),性別、種族或年齡等因素將不會(huì)被考慮在內(nèi)。
Fetcher聯(lián)合創(chuàng)始人兼首席執(zhí)行官Andres Blank表示:“我們相信,我們可以利用技術(shù)來(lái)解決多種形式的招聘偏見(jiàn),幫助公司建立更加多樣化和包容性的組織?!?/p>
但對(duì)人工智能系統(tǒng)性歧視的擔(dān)憂,是許多人工智能領(lǐng)域的首要議題。微軟敦促美國(guó)政府監(jiān)管面部識(shí)別系統(tǒng),研究人員正致力于在不影響預(yù)測(cè)結(jié)果準(zhǔn)確性的前提下,減少人工智能中的偏見(jiàn)。
人為因素
最重要的是,人工智能還處于相對(duì)起步階段,我們?nèi)栽谘芯咳绾谓鉀Q算法偏見(jiàn)等問(wèn)題。但Kozyrkov表示,人工智能所顯示的偏見(jiàn)與現(xiàn)有的人類(lèi)偏見(jiàn)是一樣的——用于訓(xùn)練機(jī)器的數(shù)據(jù)集與用于教育人類(lèi)的教科書(shū)完全一樣。
“數(shù)據(jù)集和教科書(shū)都有人類(lèi)作者——它們都是根據(jù)人類(lèi)的指令收集的,”她說(shuō)?!叭绻憬o你的學(xué)生一本由一位懷有嚴(yán)重偏見(jiàn)的作者編寫(xiě)的教科書(shū),你認(rèn)為你的學(xué)生不會(huì)染上同樣的偏見(jiàn)嗎?”
當(dāng)然,在現(xiàn)實(shí)世界中,受人尊敬的同行評(píng)審的期刊或教科書(shū)應(yīng)該有足夠的監(jiān)督來(lái)對(duì)抗任何明顯的偏見(jiàn)——但如果作者、他們的數(shù)據(jù)源以及鼓勵(lì)學(xué)生閱讀教科書(shū)的老師都有同樣的偏見(jiàn)呢?任何陷阱可能要到很久以后才會(huì)被發(fā)現(xiàn),到那時(shí)想要阻止任何不良影響就太晚了。
因此,Kozyrkov夫認(rèn)為,“視角的多樣性”對(duì)于確保偏見(jiàn)最小化是必不可少的。
她說(shuō):“你對(duì)數(shù)據(jù)的關(guān)注越多,你就越有可能發(fā)現(xiàn)那些潛在的不良案例。所以在人工智能中,多樣性是必須擁有的。你確實(shí)需要從不同的角度來(lái)看待和思考如何使用這些例子來(lái)影響世界?!?/p>
測(cè)試
與學(xué)生考試的現(xiàn)實(shí)世界類(lèi)似,在部署人工智能算法和機(jī)器學(xué)習(xí)模型之前測(cè)試它們,是確保它們能夠執(zhí)行設(shè)定的任務(wù)。
人類(lèi)學(xué)生如果被問(wèn)到他們事先學(xué)習(xí)過(guò)的問(wèn)題,他們可能在考試中表現(xiàn)得非常好,但這可能是因?yàn)樗麄冇泻芎玫挠洃浟?,而不是?duì)手頭的科目有一個(gè)完整的理解。為了測(cè)試更廣泛的理解能力,需要給學(xué)生一些問(wèn)題,讓他們能夠應(yīng)用所學(xué)知識(shí)。
機(jī)器學(xué)習(xí)是在同樣的前提下運(yùn)行的——存在一種被稱(chēng)為“過(guò)度擬合”的建模錯(cuò)誤,在這種錯(cuò)誤中,一個(gè)特定的函數(shù)與訓(xùn)練數(shù)據(jù)過(guò)于緊密地對(duì)齊,可能會(huì)出現(xiàn)誤報(bào)?!半娔X的記憶力真的很好,” Kozyrkov說(shuō),“所以你真正測(cè)試他們的方法是給他們一些真實(shí)的新東西,他們不可能記住的。如果成功了,那就是真的成功了?!?/p>
Kozyrkov將安全有效的人工智能的四項(xiàng)原則與教授人類(lèi)學(xué)生的四項(xiàng)基本原則進(jìn)行了比較,基本是類(lèi)似的:
明智的教學(xué)目標(biāo)
相關(guān)和多樣化的觀點(diǎn)
精心制作的測(cè)試
安全網(wǎng)
不過(guò),即使是最精心設(shè)計(jì)、初衷最好的人工智能系統(tǒng)也可能失敗或犯錯(cuò)——事實(shí)上,系統(tǒng)越好,在某些方面就越危險(xiǎn),就像人類(lèi)學(xué)生一樣。
“即使你的學(xué)生真的很好,他們也可能犯錯(cuò)誤,” Kozyrkov說(shuō),“事實(shí)上,在某些方面,差學(xué)生比好生更危險(xiǎn),因?yàn)橛辛瞬钌阋呀?jīng)習(xí)慣了他們犯錯(cuò)誤,所以你已經(jīng)有了安全網(wǎng)。但是對(duì)于好生,如果你從來(lái)沒(méi)有見(jiàn)過(guò)他們犯錯(cuò)誤,你可能會(huì)認(rèn)為他們從來(lái)沒(méi)有犯過(guò)錯(cuò)誤。這可能只會(huì)讓你花費(fèi)更長(zhǎng)的時(shí)間,然后就是災(zāi)難性的失敗。”
這種“安全網(wǎng)”可以采取多種形式,但它往往涉及建立一個(gè)單獨(dú)的系統(tǒng),而不是“過(guò)分信任你的好學(xué)生,” Kozyrkov說(shuō)。在一個(gè)例子中,一個(gè)房主配置了他的智能攝像頭和鎖系統(tǒng),如果它發(fā)現(xiàn)了一張不熟悉的面孔,就會(huì)啟動(dòng)它——但有點(diǎn)滑稽的是,它錯(cuò)誤地將房主識(shí)別為他T恤上的蝙蝠俠形象,并拒絕他進(jìn)入。
所有這一切都指向一個(gè)可能對(duì)許多人來(lái)說(shuō)顯而易見(jiàn)但或許值得重復(fù)的觀點(diǎn):人工智能是其創(chuàng)造者的反映。因此,我們需要集中精力實(shí)現(xiàn)系統(tǒng)和檢查,以確保那些構(gòu)建機(jī)器的人(“教師”)是負(fù)責(zé)任的。
圍繞“機(jī)器教學(xué)”的重要性,人們達(dá)成了越來(lái)越多的共識(shí)。微軟等公司最近表示,人工智能的下一個(gè)前沿領(lǐng)域?qū)⑹抢萌祟?lèi)專(zhuān)業(yè)人士的專(zhuān)業(yè)技能來(lái)訓(xùn)練機(jī)器學(xué)習(xí)系統(tǒng),而不管專(zhuān)家是否具備人工智能知識(shí)或編程能力。
“是時(shí)候讓我們把重點(diǎn)放在機(jī)器教學(xué)上,而不僅僅是機(jī)器學(xué)習(xí)了,” Kozyrkov指出?!安灰尶苹眯≌f(shuō)的花言巧語(yǔ)分散你對(duì)人類(lèi)責(zé)任的注意力,從一開(kāi)始就關(guān)注參與其中的人類(lèi)。從領(lǐng)導(dǎo)者設(shè)定的目標(biāo),到工程師編寫(xiě)、分析師和決策者核查的數(shù)據(jù)集,再到統(tǒng)計(jì)學(xué)家進(jìn)行的測(cè)試,再到可靠性工程師構(gòu)建的安全網(wǎng),所有這些都包含了很多人為因素?!?/p>