《電子技術應用》
您所在的位置:首頁 > 通信與網(wǎng)絡 > 業(yè)界動態(tài) > Facebook:AI可檢測出平臺刪除的94.7%仇恨言論

Facebook:AI可檢測出平臺刪除的94.7%仇恨言論

2020-11-21
來源:新浪科技

de76-kefmpha8314757.jpg

    據(jù)報道,Facebook周四宣布,人工智能軟件目前可以檢測出平臺上刪除的94.7%的仇恨言論。

  Facebook的首席技術官麥克·斯瑞普菲(Mike Schroepfer)在一篇博客文章中透露了該數(shù)字,并補充稱,一年前該比例為80.5%,2017年時僅24%。Facebook最新的《社區(qū)標準執(zhí)行報告》中也提到了該數(shù)字。

  諸如Facebook、Twitter等社交媒體公司經(jīng)常因為未能從平臺上刪除仇恨言論(包括種族誹謗、宗教攻擊等)而受到批評。

  這些公司在全球依靠成千上萬名內(nèi)容審查員來管理平臺上分享的帖子、照片和視頻。周三,超過200名Facebook審查員在一封寫給扎克伯格的公開信中稱,疫情期間,公司強制要求他們回到公司上班,是棄他們的生命安全于不顧。

  但是光有人類審查員還不夠。如今,科技巨頭越來越來依賴人工智能,即可以從經(jīng)驗中自動改進算法的機器學習。

  “Facebook在人工智能方面的一個核心關注點是部署先進的機器學習技術,以保護人們免受有害內(nèi)容的侵擾,”斯瑞普菲說。

  “隨著有數(shù)十億人使用我們的平臺,我們依賴人工智能去擴大我們的內(nèi)容審核工作,并在可能的情況下自動化內(nèi)容處理決策,”他說,“我們的目標是針對每一種形式的內(nèi)容以及全球每一種語言和社區(qū),盡可能快速而準確地識別出仇恨言論、虛假信息以及其他違反平臺政策的內(nèi)容形式?!?/p>

  但是Facebook的人工智能軟件依舊很難發(fā)現(xiàn)某些違反政策的內(nèi)容。例如,該軟件很難識別圖文的含義,對反諷和俚語的識別也不總是很準確。但是在很多情況下,人類可以快速判斷一條內(nèi)容是否違反了Facebook的政策。

  Facebook稱,該公司最近部署了兩項新的人工智能技術,來解決這些難題。第一項技術叫做“增強誠信優(yōu)化器”(RIO),可以從真實的在線示例和指標中學習,而非使用離線數(shù)據(jù)集;第二項技術是叫做“Linformer”的人工智能架構,可以允許Facebook使用復雜語言理解模型。之前該模型因為過于龐大而無法大規(guī)模使用。

  “我們現(xiàn)在在產(chǎn)品中使用RIO和Linformer,以在全球不同地區(qū)分析Facebook和Instagram上的內(nèi)容,”斯瑞普菲說。

  Facebook還表示,它還開發(fā)了一種新的工具,可以檢測deepfakes(計算機合成視頻),并對現(xiàn)有的系統(tǒng)“SimSearchNet”做了些許改進。該系統(tǒng)是一個圖像匹配工具,旨在檢測平臺上的虛假信息。

  “所有這些創(chuàng)新放在一起,意味著我們的人工智能系統(tǒng)現(xiàn)在可以對內(nèi)容有更深更廣泛的了解,”斯瑞普菲說,“它們?nèi)缃駥ζ脚_上分享的內(nèi)容更加敏感,當新的熱詞和圖像出現(xiàn)并傳播時,它們可以更加快速地學習。”

  斯瑞普菲還指出,F(xiàn)acebook面臨的挑戰(zhàn)“十分復雜、細微,并且發(fā)展迅速”。他還說,錯誤地將內(nèi)容標記為仇恨言論或虛假信息會“阻礙人們自由表達的能力”。


本站內(nèi)容除特別聲明的原創(chuàng)文章之外,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,并不代表本網(wǎng)站贊同其觀點。轉(zhuǎn)載的所有的文章、圖片、音/視頻文件等資料的版權歸版權所有權人所有。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無法一一聯(lián)系確認版權者。如涉及作品內(nèi)容、版權和其它問題,請及時通過電子郵件或電話通知我們,以便迅速采取適當措施,避免給雙方造成不必要的經(jīng)濟損失。聯(lián)系電話:010-82306118;郵箱:aet@chinaaet.com。