《電子技術(shù)應(yīng)用》
您所在的位置:首頁(yè) > 模擬設(shè)計(jì) > 業(yè)界動(dòng)態(tài) > 歐美相繼出臺(tái)AI新規(guī),整治“蠻荒的西部”

歐美相繼出臺(tái)AI新規(guī),整治“蠻荒的西部”

2020-03-02
來(lái)源:網(wǎng)易科技
關(guān)鍵詞: AI EuropeanCommission Deepfake

1.jpg

  圖片來(lái)源@視覺(jué)中國(guó)

  文|學(xué)術(shù)頭條

  歐盟委員會(huì) (European Commission) 近日發(fā)布《人工智能白皮書(shū)》,計(jì)劃制定一套人工智能的新法規(guī),以保護(hù)公民免受濫用人工智能技術(shù)的傷害。

  同時(shí),歐盟表示新法規(guī)將側(cè)重于透明度和監(jiān)督,以區(qū)別該地區(qū)與美國(guó)和中國(guó)的做法。有趣的是,歐美委員會(huì)將目前 AI 發(fā)展的現(xiàn)狀比作「蠻荒的西部」,并表示將重點(diǎn)關(guān)注「高風(fēng)險(xiǎn)」案例。

  AI 現(xiàn)狀:蠻荒的西部?

  如今,人臉識(shí)別已經(jīng)成為一些執(zhí)法機(jī)關(guān)追蹤嫌犯時(shí)最強(qiáng)有力的武器;還有些醫(yī)療機(jī)構(gòu)正通過(guò)分析人的臉部特征,來(lái)診斷某些罕見(jiàn)遺傳疾病……但它對(duì)公民隱私權(quán)構(gòu)成的威脅,也前所未有。

  相較指紋等其他生物特征,人臉識(shí)別的最大不同就在于,它能遠(yuǎn)距離發(fā)生作用,而無(wú)需直接接觸。這意味著,政府、公司等機(jī)構(gòu)和個(gè)人可能未經(jīng)當(dāng)事人同意、甚至完全不知情的情況下讀取并搜集其數(shù)據(jù),進(jìn)而非法使用。

  事實(shí)上,人臉不僅僅能表明身份,讓人覺(jué)得美或丑,還泄露許多其他信息。有研究表明,通過(guò)大數(shù)據(jù)和算法,有相當(dāng)大概率能通過(guò)人臉特征來(lái)測(cè)算一個(gè)人的智力水平、性取向,甚至政治傾向……

  因此,一旦這種技術(shù)被不恰當(dāng)?shù)厥褂?,就有可能產(chǎn)生嚴(yán)重后果——例如,保險(xiǎn)公司或可更精確判定一個(gè)人的健康狀況,從而制定出包賺不賠的保單價(jià)格;雇主可能會(huì)雇傭或拒絕一些特定的雇員,以滿足其偏見(jiàn);一些政府則可能更加主動(dòng)有效地對(duì)某些特定人群進(jìn)行追蹤、監(jiān)控甚至迫害;在人種多元的國(guó)家,臉部特征數(shù)據(jù)的運(yùn)算結(jié)果還可能造成對(duì)某些族群人士的不公正認(rèn)知……

  還有人認(rèn)為,人臉識(shí)別會(huì)反過(guò)來(lái)影響人們的現(xiàn)實(shí)交往和信任關(guān)系。如果都知道自己的臉部特征會(huì)對(duì)自己將在社會(huì)上遭遇怎樣的對(duì)待產(chǎn)生重大影響時(shí),人們就會(huì)被訓(xùn)練成「表演大師」。長(zhǎng)此以往,整個(gè)社會(huì)將陷入巨大的信任危機(jī)之中。

  再比如,近幾年來(lái),基于 AI 技術(shù)的 Deepfake 視頻在網(wǎng)絡(luò)上有泛濫之勢(shì),該技術(shù)能夠生成逼真的假視頻或音頻片段,很多時(shí)候足以亂真。這些逼真的視頻讓人們發(fā)出「技術(shù)無(wú)所不能」的贊嘆,同時(shí),也引發(fā)了更多的人對(duì)技術(shù)濫用和不可控的擔(dān)憂,甚至是恐懼。

  

2.jpeg

  Deepfake 的出現(xiàn)實(shí)現(xiàn)了「以假亂真」的合成技術(shù)

  與惡搞娛樂(lè)和公益相比,Deepfake 更多地顯示了技術(shù)的「陰暗獠牙」。利用 Deepfake 偽造的演講視頻已經(jīng)對(duì)馬來(lái)西亞和加蓬的政治丑聞產(chǎn)生影響。

  據(jù) Deepfake 檢測(cè)軟件的 Deeptrace Labs 的一份報(bào)告稱(chēng),目前在線的 Deepfake 視頻中有96%是非自愿拍攝的「換頭」色情片,片中人的臉往往被換成了女性名人的臉。這已經(jīng)超出了惡搞的范疇,觸及違法的邊緣。

  禁用人臉識(shí)別?

  根據(jù)歐盟發(fā)布的白皮書(shū)內(nèi)容,在未來(lái)的五年中,歐盟委員會(huì)將專(zhuān)注于數(shù)字化的三個(gè)關(guān)鍵目標(biāo):為人民服務(wù)的技術(shù);公平競(jìng)爭(zhēng)的經(jīng)濟(jì);開(kāi)放、民主和可持續(xù)的社會(huì),白皮書(shū)還提出一系列人工智能研發(fā)和監(jiān)管的政策措施,并提出建立「可信賴(lài)的人工智能框架」。

  近年來(lái),歐洲一直在尋求在技術(shù)政策方面強(qiáng)調(diào)公平和倫理。

  歐洲內(nèi)部市場(chǎng)和服務(wù)專(zhuān)員蒂森·布雷頓(Thierry Breton)表示,新法規(guī)將與《一般數(shù)據(jù)保護(hù)條例》(General Data Protection Regulation) 相媲美。這部影響深遠(yuǎn)的數(shù)據(jù)隱私法于2018年生效,也被稱(chēng)為史上最嚴(yán)數(shù)據(jù)保護(hù)法,對(duì)侵犯網(wǎng)民隱私的違法企業(yè),罰金最高可達(dá)2000萬(wàn)歐元(約合1.5億元人民幣)或者其全球營(yíng)業(yè)額的4%,以高者為準(zhǔn)。法規(guī)出臺(tái)不久,F(xiàn)acebook 和谷歌等美國(guó)企業(yè)也都成為 GDPR 法案下的第一批被告。

  根據(jù)新規(guī),歐盟將建議禁止在公共場(chǎng)所使用面部識(shí)別技術(shù),并且提到這些系統(tǒng)的運(yùn)行將需要人的監(jiān)督和審計(jì)。作為建議的一部分,歐盟還希望成員國(guó)任命相關(guān)部門(mén)監(jiān)督人工智能政策規(guī)則的執(zhí)行情況。

  當(dāng)然,這些規(guī)定嚇壞了硅谷的公司。即使 GDPR 這樣的法規(guī)只針對(duì)歐洲,也往往具有全球影響。布雷頓表示:「與 GDPR 一樣,我們有自己的規(guī)則,我們將在這里執(zhí)行。他們將確保我們?cè)跉W洲珍視的個(gè)人和基本權(quán)利得到尊重?!?/p>

  歐洲是世界上最大的工業(yè)大陸,盡管人工智能等轉(zhuǎn)型技術(shù)被稱(chēng)為關(guān)鍵技術(shù),但人們普遍認(rèn)為歐洲落后于美國(guó),美國(guó)的發(fā)展由財(cái)力雄厚的科技巨頭主導(dǎo)?,F(xiàn)在,通過(guò)歐盟引入有關(guān)人工智能和面部識(shí)別等技術(shù)數(shù)據(jù)收集透明度的規(guī)則,將領(lǐng)先邁出重要一步。

  歐盟科技主管瑪格麗特維斯特格 ( Margrethe Vestager ) 在之前的新聞發(fā)布會(huì)上指出,該規(guī)則將涵蓋自動(dòng)駕駛汽車(chē)和生物識(shí)別 ID 等用途。歐盟以外想要在歐洲部署其技術(shù)的公司,可能需要采取具體步驟,例如使用歐洲數(shù)據(jù)集重新訓(xùn)練面部識(shí)別功能。歐盟希望積累在制造業(yè),交通運(yùn)輸,能源和醫(yī)療保健等領(lǐng)域收集的數(shù)據(jù),以保護(hù)公眾利益,并加速歐洲自己的初創(chuàng)公司。

  同時(shí),歐盟將提議每年花費(fèi)近220億美元用于構(gòu)建可以用作 AI 開(kāi)發(fā)基礎(chǔ)的新數(shù)據(jù)生態(tài)系統(tǒng)。該計(jì)劃假設(shè)歐洲擁有大量的政府和工業(yè)數(shù)據(jù),并且希望提供監(jiān)管和財(cái)務(wù)激勵(lì)措施以匯總這些數(shù)據(jù),然后這些數(shù)據(jù)將提供給同意遵守歐盟法規(guī)的 AI 開(kāi)發(fā)人員。

  谷歌:支持政府監(jiān)管,但制定規(guī)則應(yīng)謹(jǐn)慎

  谷歌 CEO Pichai 近日在布魯塞爾舉行的 Bruegel 智庫(kù)組織的一次會(huì)議上說(shuō):「我認(rèn)為政府和監(jiān)管法規(guī)應(yīng)盡早解決此問(wèn)題,并出臺(tái)管理的框架規(guī)定,這是很重要的?!?/p>

  「現(xiàn)在這樣做可能會(huì)立竿見(jiàn)影,但也可能要等待一段時(shí)間才能見(jiàn)效,屆時(shí)我們才能真正考慮如何使用它。使用這種技術(shù)取決于政府制定的路線。」

  Pichai 表示,監(jiān)管機(jī)構(gòu)在起草規(guī)則時(shí)應(yīng)謹(jǐn)慎行事。歐盟委員會(huì)在該問(wèn)題上發(fā)布的建議將在很大程度上決定人臉識(shí)別技術(shù)未來(lái)在歐洲的命運(yùn)。

  微軟:不應(yīng)一刀切

  相比之下,微軟總裁 Brad Smith 對(duì)此表達(dá)了兩點(diǎn)不同的觀點(diǎn),他認(rèn)為,面部識(shí)別技術(shù)在某些情況下是可以造福社會(huì)的,比如非政府組織可以使用它來(lái)尋找失蹤的孩子。

  Smith 說(shuō):「我真的不愿意討論讓人們禁用某項(xiàng)技術(shù),人臉識(shí)別技術(shù)可以讓久別的家人團(tuán)聚?!?/p>

  他還說(shuō),如果能有一個(gè)合理的選擇,讓我們能用「手術(shù)刀」,而不是「切肉刀」來(lái)解決這個(gè)問(wèn)題,那就不要一刀切都禁了。

  現(xiàn)在重要的是首先確定問(wèn)題所在,然后制定規(guī)則,確保該技術(shù)不會(huì)用于大規(guī)模監(jiān)視。他認(rèn)為,最終要讓一項(xiàng)技術(shù)變得更好的方法只有一種,就是多用,而不是禁用。

  Faceboo:呼吁加強(qiáng)監(jiān)管

  Facebook 首席執(zhí)行官馬克·扎克伯格(Mark Zuckerberg)近日還專(zhuān)門(mén)到訪布魯塞爾與 Vestager 會(huì)晤并討論擬議的法規(guī)。扎克伯格在《金融時(shí)報(bào)》周末發(fā)表的觀點(diǎn)文章中再次呼吁加強(qiáng)對(duì) AI 和其他技術(shù)的監(jiān)管,以幫助建立公眾信任。

  「我們需要更多的監(jiān)督和問(wèn)責(zé),」扎克伯格寫(xiě)道。「人們需要感覺(jué)到,全球技術(shù)平臺(tái)是對(duì)某人的回應(yīng),因此監(jiān)管應(yīng)該讓企業(yè)在犯錯(cuò)時(shí)承擔(dān)責(zé)任。」

  據(jù)了解,公眾有12周時(shí)間就這些規(guī)定發(fā)表評(píng)論,歐盟委員會(huì)將在今年晚些時(shí)候正式提出立法。

  前進(jìn)還是倒退?

  白皮書(shū)標(biāo)志著一個(gè)新進(jìn)程的開(kāi)始,這一進(jìn)程可能引導(dǎo)針對(duì)人工智能系統(tǒng)及其企業(yè)的新立法?!高@將使大規(guī)模(對(duì)人工智能的)監(jiān)控合法化,」獨(dú)立研究員斯蒂芬妮·黑爾博士說(shuō)。

  黑爾博士認(rèn)為,委員會(huì)應(yīng)暫停使用面部識(shí)別技術(shù)多年,以便就如何或是否可以合乎道德地使用這類(lèi)系統(tǒng)征詢(xún)專(zhuān)家的意見(jiàn)。

  而實(shí)際上,一些英國(guó)警察已經(jīng)在公共場(chǎng)合使用面部識(shí)別系統(tǒng)。英國(guó)警方使用人臉識(shí)別攝像頭監(jiān)控威爾士足球比賽的人群時(shí),一些球迷捂著臉抗議。這項(xiàng)技術(shù)存在爭(zhēng)議的一個(gè)跡象是,甚至一個(gè)鄰近警察局的負(fù)責(zé)人也表示反對(duì)這項(xiàng)技術(shù)。

  南威爾士警方在卡迪夫體育場(chǎng)外部署了裝有人臉識(shí)別的貨車(chē),作為長(zhǎng)期試驗(yàn)的一部分。在這個(gè)試驗(yàn)項(xiàng)目中,警方實(shí)時(shí)掃描球迷,并拘留因過(guò)去行為不端而被列入黑名單的任何人。維權(quán)人士和球隊(duì)支持者在卡迪夫市和斯旺西城之間的比賽前舉行了抗議,他們戴著口罩、頭套或圍巾。

  「這與風(fēng)險(xiǎn)不相稱(chēng),」威爾士足球支持者協(xié)會(huì)主席文斯·阿爾姆說(shuō),該協(xié)會(huì)幫助組織了這次抗議活動(dòng)?!盖蛎詡冇X(jué)得他們好像被選中當(dāng)做試驗(yàn)品。」

  英國(guó)擁有世界上最高密度的監(jiān)控?cái)z像頭之一,幾十年來(lái),英國(guó)安全部門(mén)一直在公共場(chǎng)所使用攝像頭,但是在2001年9月11日之后,英國(guó)還遭遇了國(guó)內(nèi)恐怖襲擊。

  倫敦大學(xué)學(xué)院 (University College London) 的邁克爾維爾 (Michael Veale) 表示,這份白皮書(shū)是一個(gè)「錯(cuò)失發(fā)展機(jī)會(huì)的計(jì)劃」?!杆^(guò)于專(zhuān)注于孤立的系統(tǒng),而沒(méi)有考慮周?chē)沫h(huán)境、商業(yè)模式、它的用途,以及推動(dòng)人工智能的經(jīng)濟(jì)和政治體系。」

  Veale 博士補(bǔ)充說(shuō),包括 GDPR 在內(nèi)的現(xiàn)有法律為防止濫用面部識(shí)別提供了保護(hù),但是他認(rèn)為,與其制定新的法律,不如把重點(diǎn)放在執(zhí)行這些法律上。

  他個(gè)人已經(jīng)向監(jiān)管機(jī)構(gòu)提交了針對(duì)科技公司的「幾起」投訴,但他還沒(méi)有被告知任何由此導(dǎo)致的行動(dòng)。

  數(shù)字權(quán)益組織 Access Now 的丹尼爾洛伊弗 (Daniel Leufer) 也在 twitter 上發(fā)帖稱(chēng),這份白皮書(shū)在面部識(shí)別和人工智能生物識(shí)別方面的內(nèi)容「令人失望」地薄弱。

  也有些人對(duì)目前在人臉識(shí)別方面缺乏具體的建議表示歡迎。

  法國(guó)格勒諾布爾阿爾卑斯大學(xué) (Grenoble Alpes) 的西奧多克里斯塔基斯 (Theodore Christakis) 是法國(guó)國(guó)家數(shù)字委員會(huì) (French National Digital Council) 的成員。他在采訪中表示:「歐盟委員會(huì)需要更多時(shí)間來(lái)研究如此復(fù)雜的問(wèn)題,并在這一領(lǐng)域謹(jǐn)慎推進(jìn),這似乎是合理的。」

  AI 未來(lái)何去何從?

  根據(jù)一份新的政府報(bào)告,英國(guó)將不會(huì)設(shè)立專(zhuān)門(mén)的人工智能監(jiān)管機(jī)構(gòu),但需要對(duì)公共部門(mén)的使用和道德規(guī)范給予更明確的說(shuō)明。

  這份名為《人工智能與公共標(biāo)準(zhǔn):公共生活標(biāo)準(zhǔn)委員會(huì)》的報(bào)告稱(chēng),政府「在開(kāi)放性上失敗了」,人們對(duì)「人工智能黑箱」的擔(dān)憂在很大程度上是錯(cuò)誤的。

  報(bào)告指出:「公共部門(mén)組織在使用人工智能方面不夠透明,而且很難發(fā)現(xiàn)政府目前在哪些領(lǐng)域使用了機(jī)器學(xué)習(xí)。」

  該報(bào)告主張,「所有公營(yíng)機(jī)構(gòu)在提供公共服務(wù)前,應(yīng)發(fā)表聲明,說(shuō)明使用人工智能是否符合有關(guān)法例及規(guī)例;不需要特定的人工智能監(jiān)管機(jī)構(gòu),但應(yīng)成立監(jiān)管保證機(jī)構(gòu),以確定監(jiān)管領(lǐng)域的空白,并就與人工智能相關(guān)的問(wèn)題向個(gè)別監(jiān)管機(jī)構(gòu)和政府提供建議」

  IT 服務(wù)提供商 Insight 的技術(shù)策略師亞歷克斯·吉蘭 (Alex Guillen) 在報(bào)告發(fā)布后評(píng)論稱(chēng),「首先,公共部門(mén)需要記住,目前人工智能和機(jī)器學(xué)習(xí)等技術(shù)的最有效使用,是為了提高而不是取代人類(lèi)。幫助公共部門(mén)的工作人員做出更明智的決定,以改善公共服務(wù)。然而,無(wú)論人工智能如何應(yīng)用于公共部門(mén),它都需要被當(dāng)作雇員對(duì)待——并給予必要的培訓(xùn)和信息,以完成其工作。」

  Guillen 補(bǔ)充說(shuō),「與任何依賴(lài)數(shù)據(jù)的技術(shù)一樣,垃圾輸入意味著垃圾輸出。從警務(wù)中的面部識(shí)別,到幫助國(guó)民保健服務(wù) (NHS) 診斷和治療病人,人工智能需要正確的數(shù)據(jù)和正確的治理,以避免造成比解決更多的問(wèn)題。否則,任何執(zhí)行都會(huì)受到道德問(wèn)題和數(shù)據(jù)偏見(jiàn)或歧視指控的困擾?!?/p>

  在美國(guó),一些政界人士對(duì)人臉識(shí)別軟件的準(zhǔn)確性和越來(lái)越多的使用也表示擔(dān)憂。一些人臉識(shí)別技術(shù)錯(cuò)誤地識(shí)別了女性和有色人種,公民自由和隱私團(tuán)體對(duì)如何收集這些項(xiàng)目的數(shù)據(jù)表示擔(dān)憂。

  但與歐盟的謹(jǐn)慎作風(fēng)不同,美國(guó)白宮在2020年1月7日提出10條人工智能監(jiān)管原則,要求避免聯(lián)邦機(jī)構(gòu)對(duì)人工智能應(yīng)用的過(guò)度干預(yù),強(qiáng)調(diào)監(jiān)管的靈活性。

  其中,靈活性原則指出,大多數(shù)情況下,試圖規(guī)定死板的人工智能應(yīng)用規(guī)則是不切實(shí)際且無(wú)效的,因?yàn)槿斯ぶ悄軐⒁灶A(yù)期的速度發(fā)展,機(jī)構(gòu)需要對(duì)新的信息和證據(jù)做出反應(yīng)。

  熟悉此事的官員告訴《國(guó)防一號(hào)》(Defense One),美國(guó)國(guó)防部 (Defense Department) 也將很快制定一套詳細(xì)的規(guī)則,以管理如何開(kāi)發(fā)和使用人工智能。2019年10月,美國(guó)國(guó)防創(chuàng)新委員會(huì) (DIB) 發(fā)布了一份規(guī)則草案,名為「關(guān)于人工智能的道德使用的建議」。

  「國(guó)防部已經(jīng)進(jìn)入采用人工智能原則的最后階段,這些原則將在美國(guó)軍方全面實(shí)施?!刮褰谴髽锹?lián)合人工智能中心 (Joint Artificial Intelligence Center) 發(fā)言人阿羅·亞伯拉罕森中校 (Lt. Cmdr. Arlo Abrahamson) 說(shuō)。

  DIB 的指導(dǎo)方針和附帶的實(shí)現(xiàn)方針,遠(yuǎn)遠(yuǎn)超出了谷歌、Facebook 和微軟等科技巨頭發(fā)布的有關(guān)人工智能的簡(jiǎn)短而基本上是膚淺的愿景聲明。一些人工智能和武器領(lǐng)域的倫理學(xué)家和學(xué)者對(duì)美國(guó)國(guó)防部采用人工智能的消息表示歡迎,但他們補(bǔ)充稱(chēng),這方面還有進(jìn)一步的工作要做,人工智能在軍事上使用的風(fēng)險(xiǎn)和擔(dān)憂仍將存在。

  參考資料:

  歐盟擬在公共場(chǎng)所禁用人臉識(shí)別五年,防止濫用. (n.d.). Retrieved February 24, 2020, from https://www.secrss.com/article/16692

  EU plans new rules for AI but experts seek more detail. (2020, February 19). BBC News. https://www.bbc.com/news/technology-51559010

  Pentagon to Adopt Detailed Principles for Using AI - Defense One. (n.d.). Retrieved February 24, 2020, from https://www.defenseone.com/technology/2020/02/pentagon-adopt-detailed-principles-using-ai/163185/?oref=d-channelriver

  UK govt 'failing on openness' around public sector AI – but specific regulator not the answer—AI News. (n.d.). Retrieved February 24, 2020, from https://artificialintelligence-news.com/2020/02/11/uk-govt-failing-on-openness-around-public-sector-ai-but-specific-regulator-not-the-answer/


本站內(nèi)容除特別聲明的原創(chuàng)文章之外,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,并不代表本網(wǎng)站贊同其觀點(diǎn)。轉(zhuǎn)載的所有的文章、圖片、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無(wú)法一一聯(lián)系確認(rèn)版權(quán)者。如涉及作品內(nèi)容、版權(quán)和其它問(wèn)題,請(qǐng)及時(shí)通過(guò)電子郵件或電話通知我們,以便迅速采取適當(dāng)措施,避免給雙方造成不必要的經(jīng)濟(jì)損失。聯(lián)系電話:010-82306118;郵箱:aet@chinaaet.com。