《電子技術(shù)應(yīng)用》
您所在的位置:首頁(yè) > 模擬設(shè)計(jì) > 業(yè)界動(dòng)態(tài) > 人臉識(shí)別引發(fā)道德倫理?yè)?dān)憂,你的臉被監(jiān)視了嗎

人臉識(shí)別引發(fā)道德倫理?yè)?dān)憂,你的臉被監(jiān)視了嗎

2020-11-29
來(lái)源:新浪科技綜合

人臉識(shí)別系統(tǒng)已經(jīng)給我們的城市帶來(lái)諸多方便。然而,在許多國(guó)家,對(duì)人臉識(shí)別的抵抗聲也在不斷高漲。研究人員、公民自由倡導(dǎo)者和法律學(xué)者都受到人臉識(shí)別技術(shù)興起的困擾。他們正在跟蹤其使用,揭露其危害并開(kāi)展運(yùn)動(dòng)以尋求保障甚至是徹底禁止技術(shù)的使用。然而,技術(shù)發(fā)展的潮流浩浩蕩蕩,更多人認(rèn)為該技術(shù)的存在是“不可避免的”,但是其背后存在的道德倫理問(wèn)題值得我們深思。

31.jpg

  近期,《自然》雜志的一系列報(bào)道對(duì)人臉識(shí)別系統(tǒng)背后的道德倫理學(xué)進(jìn)行了探討。一些科學(xué)家正在分析人臉識(shí)別技術(shù)固有的不準(zhǔn)確和偏見(jiàn),對(duì)其背后存在的歧視發(fā)出警告,并呼吁加強(qiáng)監(jiān)管、提高技術(shù)透明度。

  《自然》雜志對(duì)480位從事人臉識(shí)別、人工智能計(jì)算機(jī)科學(xué)領(lǐng)域研究的研究人員的調(diào)查顯示,人們對(duì)人臉識(shí)別研究的倫理學(xué)普遍存在擔(dān)憂,但也存在分歧。

  有些未經(jīng)同意獲取數(shù)據(jù)

  為了使人臉識(shí)別算法正常工作,必須對(duì)大型圖像數(shù)據(jù)集進(jìn)行訓(xùn)練和測(cè)試,理想情況下,必須在不同的光照條件和不同的角度多次捕獲這些圖像。過(guò)去,科學(xué)家普遍招募志愿者,只為收集各種角度的照片;但現(xiàn)在,大多數(shù)人未經(jīng)許可即被收集人臉圖像。

  在《自然》雜志的480位受訪者中,當(dāng)被問(wèn)及對(duì)應(yīng)用面部識(shí)別方法從外表識(shí)別或預(yù)測(cè)個(gè)人特征(如性別、年齡或種族)的研究有何看法時(shí),約三分之二的人表示,此類研究只能在獲得面部識(shí)別者知情同意的情況下進(jìn)行,或者在與可能受到影響的群體代表討論后進(jìn)行。

  大多數(shù)人認(rèn)為,使用人臉識(shí)別軟件的研究應(yīng)事先獲得倫理審查機(jī)構(gòu)(例如機(jī)構(gòu)審查委員會(huì))的批準(zhǔn)。他們認(rèn)為,對(duì)于在學(xué)校、工作場(chǎng)所或由私人公司監(jiān)視公共場(chǎng)所時(shí)使用人臉識(shí)別進(jìn)行實(shí)時(shí)監(jiān)視感到最不舒服,但是他們通常會(huì)支持警察在刑事調(diào)查中使用人臉識(shí)別系統(tǒng)。

  從法律上講,目前尚不清楚歐洲的科學(xué)家是否可以未經(jīng)人們的同意而收集個(gè)人人臉的照片以進(jìn)行生物識(shí)別研究。歐盟的通用數(shù)據(jù)保護(hù)條例并沒(méi)有為研究人員提供明顯的法律依據(jù)。在美國(guó),一些州表示,商業(yè)公司未經(jīng)其同意使用個(gè)人的生物識(shí)別數(shù)據(jù)是非法的。

  受訪者強(qiáng)烈認(rèn)為,應(yīng)該有其他法規(guī)來(lái)規(guī)范公共機(jī)構(gòu)使用人臉識(shí)別技術(shù)。超過(guò)40%的人則希望禁止實(shí)時(shí)大規(guī)模監(jiān)視。

  存在性別和種族偏見(jiàn)現(xiàn)象

  人臉識(shí)別系統(tǒng)通常是專有的并且保密,但是專家說(shuō),大多數(shù)系統(tǒng)涉及一個(gè)多階段過(guò)程,該過(guò)程通過(guò)深度學(xué)習(xí)對(duì)大量數(shù)據(jù)進(jìn)行大規(guī)模神經(jīng)網(wǎng)絡(luò)訓(xùn)練。

  美國(guó)國(guó)家標(biāo)準(zhǔn)技術(shù)研究院(NIST)在去年年底發(fā)布的報(bào)告中稱,人臉識(shí)別的準(zhǔn)確率有了顯著提高,深度神經(jīng)網(wǎng)絡(luò)在識(shí)別圖像方面效果明顯。但NIST同時(shí)也證實(shí),相對(duì)于有色人種或女性,大多數(shù)人臉識(shí)別對(duì)于白人男性面孔的準(zhǔn)確性更高。特別是,在NIST的數(shù)據(jù)庫(kù)中被歸類為非裔美國(guó)人或亞裔的面孔被誤認(rèn)的可能性是那些被歸類為白人的面孔的10—100倍。與男性相比,女性誤報(bào)的可能性更高。

  領(lǐng)導(dǎo)NIST圖像小組的電氣工程師克雷格·沃森認(rèn)為,這種不準(zhǔn)確很可能反映了每家公司培訓(xùn)數(shù)據(jù)庫(kù)構(gòu)成的不平衡,一些公司可能已經(jīng)開(kāi)始解決這個(gè)問(wèn)題。

  有待嚴(yán)格立法和監(jiān)管

  致力于人臉識(shí)別或分析技術(shù)的研究人員指出,人臉識(shí)別有很多用途,比如尋找走失的兒童,追蹤罪犯,更方便地使用智能手機(jī)和自動(dòng)取款機(jī),通過(guò)識(shí)別機(jī)器人的身份和情緒來(lái)幫助機(jī)器人與人類互動(dòng),在一些醫(yī)學(xué)研究中,還可以幫助診斷或遠(yuǎn)程跟蹤同意的參與者。

32.jpg

  人臉識(shí)別技術(shù)有好處,但這些好處需要根據(jù)風(fēng)險(xiǎn)進(jìn)行評(píng)估,這就是為什么它需要得到適當(dāng)和細(xì)致的監(jiān)管。

  目前,許多研究人員以及谷歌、亞馬遜、IBM和微軟等公司都呼吁在人臉識(shí)別系統(tǒng)方面出臺(tái)更嚴(yán)格的監(jiān)管措施。

  馬薩諸塞州波士頓東北大學(xué)研究面部監(jiān)控的計(jì)算機(jī)科學(xué)家、法學(xué)教授伍德羅·哈特佐格說(shuō)視人臉識(shí)別技術(shù)為“史上最危險(xiǎn)的發(fā)明”,說(shuō)如果美國(guó)立法者允許公司使用人臉識(shí)別,他們應(yīng)該編寫(xiě)規(guī)則,從健身房到餐廳都應(yīng)當(dāng)禁止“面部指紋”的收集和儲(chǔ)存,并禁止將人臉識(shí)別技術(shù)與自動(dòng)化決策(如預(yù)測(cè)性警務(wù)、廣告定位和就業(yè))結(jié)合使用。

  尚須謹(jǐn)慎研究和思考

  密歇根州立大學(xué)東蘭辛分校的計(jì)算機(jī)科學(xué)家阿尼爾·賈恩說(shuō):“在我們的社會(huì)中,我們需要大量正當(dāng)而合法的人臉和生物識(shí)別應(yīng)用?!钡恍┛茖W(xué)家表示,研究人員也必須認(rèn)識(shí)到,在人們不知情的情況下對(duì)人臉進(jìn)行遠(yuǎn)程識(shí)別或分類的技術(shù)從根本上是危險(xiǎn)的,應(yīng)該努力抵制其被用來(lái)控制人們的做法。

  作為人工智能領(lǐng)域的首要會(huì)議之一,神經(jīng)信息處理系統(tǒng)會(huì)議是今年首次要求進(jìn)行這種道德考量,即提交有關(guān)人臉識(shí)別論文的科學(xué)家必須添加一份聲明,說(shuō)明他們的工作中存在的倫理問(wèn)題和潛在的負(fù)面后果。

  此外,《自然機(jī)器智能》雜志也在試圖要求一些機(jī)器學(xué)習(xí)論文的作者在文章中加入一項(xiàng)聲明,考慮到更廣泛的社會(huì)影響和倫理問(wèn)題。

  紐約伊薩卡市康奈爾大學(xué)從事技術(shù)倫理研究的社會(huì)學(xué)家凱倫·利維認(rèn)為,研究人臉識(shí)別的學(xué)者意識(shí)到道德倫理問(wèn)題,“感覺(jué)像是科學(xué)界真正的覺(jué)醒”。


本站內(nèi)容除特別聲明的原創(chuàng)文章之外,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,并不代表本網(wǎng)站贊同其觀點(diǎn)。轉(zhuǎn)載的所有的文章、圖片、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無(wú)法一一聯(lián)系確認(rèn)版權(quán)者。如涉及作品內(nèi)容、版權(quán)和其它問(wèn)題,請(qǐng)及時(shí)通過(guò)電子郵件或電話通知我們,以便迅速采取適當(dāng)措施,避免給雙方造成不必要的經(jīng)濟(jì)損失。聯(lián)系電話:010-82306118;郵箱:aet@chinaaet.com。