《電子技術應用》
您所在的位置:首頁 > 人工智能 > 業(yè)界動態(tài) > 人臉識別頻踩道德紅線?

人臉識別頻踩道德紅線?

2021-05-19
來源:是說芯語
關鍵詞: 人臉識別 禁令

  據(jù)路透社報道,亞馬遜已經延長了對自家人臉識別軟件用于執(zhí)法的禁令,”直到另行通知“ 。

  該禁令之前設定為期一年,原定于六月到期。亞馬遜沒有立即回應為何延長這一禁令。

  早在 2018 年,亞馬遜員工就曾力促亞馬遜縮減這一項目的規(guī)?!麄冋J為,有記載的人臉識別種族偏見,可能加劇當?shù)鼐綄ι贁?shù)族裔的暴力行為。

  亞馬遜一直為該項目辯護,直到去年6月,當時抗議活動的壓力越來越大,亞馬遜這才宣布,面向警方客戶的服務暫停一年。

  Rekognition屬于AWS所提供的一項服務,其實許多亞馬遜在云計算領域的競爭對手都具有類似的技術。就在亞馬遜做出承諾的第二天,微軟也宣布了類似聲明,稱將不會向當?shù)鼐匠鍪燮涿娌孔R別服務。

  而IBM在同一周內也表示,將停止開發(fā)或研究面部識別技術;谷歌則表示不會向任何人提供面部識別技術的商用。

  去年夏天,關于人臉識別技術的道德性問題甚囂塵上。麻省理工學院媒體實驗室的研究員Joy Buolamwini和微軟研究院的Timnit Gebru,都致力于揭示人臉識別技術在種族偏見方面的偏見。兩人做了不少基礎性工作,其中有一篇共同撰寫的論文被廣泛引用。

  該論文指出,包括IBM和Microsoft在內的主要科技公司,他們的人臉識別系統(tǒng),用于識別膚色較黑的人的錯誤率,比識別膚色較白的人要高幾十個百分點。根據(jù)《紐約時報》的一份報告,問題部分在于用于訓練系統(tǒng)的數(shù)據(jù)集,其中絕大多數(shù)可能是男性和白人。

  在2019年的另一項研究中,Buolamwini和另一位學者分析了Rekognition,發(fā)現(xiàn)亞馬遜的系統(tǒng)也存在重大問題,無法識別膚色較黑的人的性別,以及誤以膚色較黑的婦女為男性。研究發(fā)現(xiàn),該系統(tǒng)在分析膚色較淺的人的圖像時的錯誤率幾乎為零。

  在之前首次宣布禁用于執(zhí)法時,亞馬遜曾表示,希望國會利用這段服務暫停的時間,來調整人臉識別技術的法律法規(guī)。

  當時亞馬遜在聲明中曾表示,”我們主張政府制定更嚴格的法規(guī)來管理人臉識別技術使用的道德問題,期望這一為期一年的暫停,可以使國會有足夠的時間出臺適當?shù)囊?guī)則,并且我們隨時準備根據(jù)要求提供幫助?!?/p>

  但到目前為止,還沒有聯(lián)邦立法解決警方與人臉識別技術的矛盾,但是許多州或地方政府已經通過了相關規(guī)定,決定減少這一技術的使用。

  2019年5月,舊金山成為美國第一個禁止政府使用人臉識別的城市,奧克蘭緊隨其后;俄勒岡州和緬因州波特蘭的城市也通過立法。

  去年12月,馬薩諸塞州有過一項類似的禁令草案,但當時并未獲得通過,不過最近通過了一項修改后的法案,對警方使用人臉識別一事增加了一些限制。

  去年7月,紐約州立法機構剛剛通過了一項法令,禁止在學校中使用人臉識別和其他生物特征識別技術,直至 2022 年。

  另外,就在上個月,歐盟也發(fā)布了一項監(jiān)管人工智能使用的提案:《關于”歐洲議會和理事會條例:制定人工智能的統(tǒng)一規(guī)則(人工智能法案)并修訂某些聯(lián)盟立法“的提案》。

  該提案規(guī)定了企業(yè)和政府應如何使用人工智能技術,長達108頁,對人工智能在一系列活動中的使用都進行了限制,其中就包括限制警方在公共場合使用人臉識別軟件。

  這些領域因其可能對人們的安全或基本權利造成威脅,而被歐盟視為”高風險“領域。不過,出于國家安全和其他目的的應用,可能會有一些豁免權。根據(jù)該提案要求,歐盟將有可能對違規(guī)最嚴重的公司處以相當于其全球年銷售額6%的罰款。

 


微信圖片_20210517164139.jpg


本站內容除特別聲明的原創(chuàng)文章之外,轉載內容只為傳遞更多信息,并不代表本網站贊同其觀點。轉載的所有的文章、圖片、音/視頻文件等資料的版權歸版權所有權人所有。本站采用的非本站原創(chuàng)文章及圖片等內容無法一一聯(lián)系確認版權者。如涉及作品內容、版權和其它問題,請及時通過電子郵件或電話通知我們,以便迅速采取適當措施,避免給雙方造成不必要的經濟損失。聯(lián)系電話:010-82306118;郵箱:aet@chinaaet.com。