《電子技術(shù)應(yīng)用》
您所在的位置:首頁(yè) > 通信與網(wǎng)絡(luò) > 業(yè)界動(dòng)態(tài) > 深度偽造Deepfakes正在打開網(wǎng)絡(luò)安全的“潘多拉魔盒”

深度偽造Deepfakes正在打開網(wǎng)絡(luò)安全的“潘多拉魔盒”

2022-11-08
來(lái)源:安全牛
關(guān)鍵詞: Deepfakes 網(wǎng)絡(luò)安全

  2017年,當(dāng)名為“Deepfakes”的用戶在互聯(lián)網(wǎng)上首次發(fā)布合成視頻時(shí),也許不曾想到他已經(jīng)打開了“潘多拉魔盒”。隨著DeepFake技術(shù)在缺少監(jiān)管的狀態(tài)下野蠻生長(zhǎng)至今,已逐漸成為危害經(jīng)濟(jì)和社會(huì)穩(wěn)定的存在。無(wú)數(shù)事實(shí)都在時(shí)刻提醒我們:眼見(jiàn)未必為實(shí)!不能再理所當(dāng)然地相信互聯(lián)網(wǎng)上的圖像和視頻。

  Deepfakes技術(shù)發(fā)展大事記

  2014:Deepfakes技術(shù)誕生

  2014年,“GAN之父”Ian Goodfellow與同事發(fā)表了首篇介紹生成對(duì)抗網(wǎng)絡(luò)(GAN)的科學(xué)論文,它就是我們今天深入討論的deepfakes的技術(shù)基礎(chǔ)。

  2015年:GAN越發(fā)完善

  研究人員開始將GAN與經(jīng)過(guò)圖像識(shí)別優(yōu)化的多層卷積神經(jīng)網(wǎng)絡(luò)(CNN)相結(jié)合。CNN能夠并行處理大量數(shù)據(jù),而且在顯卡上的運(yùn)行效率特別高。這一組合取代了以往較為簡(jiǎn)單的GAN代理驅(qū)動(dòng)網(wǎng)絡(luò),也讓生成結(jié)果的可信度邁上新的臺(tái)階。

  2017年:第一段Deepfakes視頻誕生

  生成器代理通常會(huì)生成低分辨率的圖像,因?yàn)樵角逦饺菀妆粰z測(cè)出問(wèn)題,只有這樣,檢查代理才難以檢測(cè)內(nèi)容的真?zhèn)?。Nvidia通過(guò)分階段訓(xùn)練網(wǎng)絡(luò):先由偽造AI學(xué)習(xí)創(chuàng)建低分辨率圖像,然后,將分辨率逐漸提升,以此推動(dòng)Deepfakes仿真能力實(shí)現(xiàn)了質(zhì)的飛躍。自此,Deepfakes一詞就成了AI生成圖像和視頻的代名詞。

  微信圖片_20221108134355.png

  2018年:Deepfakes登陸YouTube頻道

  此后,Nvidia研究人員進(jìn)一步提升GAN控制能力,他們可以針對(duì)單一圖像特征(例如人像中的“黑發(fā)”和“微笑”)做出調(diào)整。通過(guò)這種方式,可以將訓(xùn)練圖像的特征有針對(duì)性地轉(zhuǎn)移到AI生成圖像上。與此同時(shí),首個(gè)專門研究Deepfakes的YouTube頻道正式上線,包括了各種類型的視頻。

  微信圖片_20221108134353.png

  【網(wǎng)絡(luò)轉(zhuǎn)移可用于控制圖像AI,例如僅創(chuàng)建微笑著的人像】

  2019年:Deepfakes成為主流

  拋開技術(shù)進(jìn)步不談,2019年是deepfakes正式成為主流的一年。網(wǎng)絡(luò)上Deepfakes數(shù)量快速增加,Deepfakes的技術(shù)發(fā)展速度超出了預(yù)期,技術(shù)專家Hao Li甚至大膽預(yù)測(cè),Deepfakes將在很快走向完美。

  2020年:對(duì)Deepfakes提出監(jiān)管

  Facebook在2020年美國(guó)大選開始時(shí)宣布,將在自家平臺(tái)上全面禁止deepfakes——諷刺或戲仿性質(zhì)的Deepfakes除外;YouTube也采取了類似的指導(dǎo)方針;Twitter則開始執(zhí)行其2019年推出的管理Deepfakes準(zhǔn)則;當(dāng)年8月,TikTok也開始禁止其視頻平臺(tái)違規(guī)使用Deepfakes技術(shù)。

  在這一年,Jigsaw公司正式發(fā)布了一款由AI驅(qū)動(dòng)的檢測(cè)工具Assembler,可幫助管理者檢測(cè)出Deepfakes圖像。高通則投資了一家初創(chuàng)公司,該公司能夠以不可撤銷的方式將原始照片及視頻標(biāo)記為“原創(chuàng)”,從而降低后續(xù)的Deepfakes識(shí)別難度。

  目前階段

  Deepfakes技術(shù)本身仍在繼續(xù)發(fā)展,微軟已經(jīng)正式推出了FaceShifter,能夠?qū)⒛:脑紙D像處理為可信的偽造畫面。娛樂(lè)巨頭迪士尼也開始在電影制作中廣泛應(yīng)用Deepfakes技術(shù),并推出了百萬(wàn)像素級(jí)Deepfakes視頻制作工具。這一切,都為Deepfakes可能被利用的犯罪活動(dòng)創(chuàng)造了條件。

  今年6月,F(xiàn)BI發(fā)布公告,提醒公眾警惕在遠(yuǎn)程求職面試中使用Deepfakes技術(shù)假扮成他人的情況。這些職位大多與信息技術(shù)、系統(tǒng)開發(fā)、數(shù)據(jù)庫(kù)以及軟件管理相關(guān)。如果這些詐騙者成功過(guò)關(guān),將有權(quán)訪問(wèn)目標(biāo)企業(yè)的敏感數(shù)據(jù),包括客戶 PII(個(gè)人身份信息)、財(cái)務(wù)數(shù)據(jù)、公司IT數(shù)據(jù)庫(kù)和/或?qū)S行畔ⅰ?/p>

  Deepfakes威脅日益增加

  經(jīng)過(guò)多年的發(fā)展,現(xiàn)在的Deepfakes技術(shù)已經(jīng)從“一眼假”變成真?zhèn)文娴摹皩?shí)時(shí)換臉”,而且門檻極低,只需要通過(guò)一款軟件,幾張圖片,即可一鍵生成。而一系列的網(wǎng)絡(luò)安全事件也充分表明,Deepfakes引發(fā)的信任安全危機(jī)可能才剛剛開始。

  根據(jù)VMware最新發(fā)布的《年度全球事件響應(yīng)威脅報(bào)告》顯示,去年,使用面部和語(yǔ)音替換技術(shù)進(jìn)行網(wǎng)絡(luò)攻擊的數(shù)量增長(zhǎng)了13%。其中,電子郵件是Deepfakes攻擊的主要傳遞載體,占整體攻擊數(shù)量的78%,這與商業(yè)電子郵件入侵(BEC)嘗試的持續(xù)增加有關(guān)。

  此外,在接受研究人員調(diào)查的網(wǎng)絡(luò)安全專業(yè)人士中,有66%的受訪人表示他們?cè)谶^(guò)去一年中發(fā)現(xiàn)了至少一起此類事件。事實(shí)再次證明,Deepfakes技術(shù)用于網(wǎng)絡(luò)攻擊已經(jīng)從理論威脅演變成了現(xiàn)實(shí)危害。

  早在2019年,美國(guó)國(guó)土安全部就對(duì)Deepfakes技術(shù)的應(yīng)用安全性提出了質(zhì)疑,稱“使用該技術(shù)騷擾或傷害他人利益的現(xiàn)象應(yīng)當(dāng)引起公眾重視”。然而,用于分辨Deepfakes偽造視頻的技術(shù)目前還尚未成熟。

  根據(jù)威脅情報(bào)公司Sensity發(fā)布的一份最新研究報(bào)告顯示,Deepfakes檢測(cè)算法和軟件有86%的幾率會(huì)將經(jīng)Deepfakes偽造處理過(guò)的視頻認(rèn)定為“真”。而2022年3月卡內(nèi)基梅隆大學(xué)的研究指出,對(duì)比市面上各種Deepfakes技術(shù)檢測(cè)產(chǎn)品的算法和硬件基礎(chǔ)發(fā)現(xiàn),其準(zhǔn)確度在30%-90%之間浮動(dòng)。

  更重要的是,隨著Deepfakes技術(shù)的快速發(fā)展,也許未來(lái)再精密的Deepfakes檢測(cè)算法也無(wú)法準(zhǔn)確地識(shí)別真?zhèn)巍_@意味著Deepfakes技術(shù)將最終改變游戲規(guī)則——無(wú)論是社交還是娛樂(lè)方面。Deepfakes專家Hao Li認(rèn)為,這種發(fā)展趨勢(shì)是完全有可能的,因?yàn)閳D像的實(shí)質(zhì)不過(guò)是輔以適當(dāng)顏色的像素,AI找到完美的副本只是時(shí)間問(wèn)題。

  此外,短視頻的盛行,以及Reface或Impressions等應(yīng)用的普及,使得偽造圖像和視頻正變得司空見(jiàn)慣。過(guò)去,人們堅(jiān)信“耳聽為虛,眼見(jiàn)為實(shí)”,而現(xiàn)在,可能正如GAN之父Ian Goodfellow所言,“AI也許正在關(guān)閉我們這一代觀察世界的大門。”

  積極防御Deepfakes應(yīng)用風(fēng)險(xiǎn)

  雖然Deepfakes技術(shù)在應(yīng)用時(shí)產(chǎn)生的威脅看起來(lái)很嚴(yán)重,不過(guò),我們也并非完全無(wú)計(jì)可施。FBI在之前的公告中就指出,雖然一些Deepfakes視頻處理的極為逼真,但并未達(dá)到完美無(wú)瑕的程度。通過(guò)一些不正常的眨眼、不正常的光線、不協(xié)調(diào)的聲音,以及咳嗽、打噴嚏等動(dòng)作細(xì)節(jié),都可識(shí)別出視頻的真假。在時(shí)長(zhǎng)超過(guò)10s的視頻畫面中,發(fā)現(xiàn)這些破綻并不難。

  同時(shí),企業(yè)組織還可以采取多種措施來(lái)抵御它們,包括培訓(xùn)和教育、先進(jìn)技術(shù)以及威脅情報(bào)等,從而在一定程度上抑制惡意的Deepfakes活動(dòng):

  首先,教育和培訓(xùn)員工有關(guān)Deepfakes社交工程攻擊(尤其是那些最有針對(duì)性的攻擊)的知識(shí)是降低風(fēng)險(xiǎn)的一個(gè)重要因素,而且必須將重點(diǎn)放在財(cái)務(wù)部門相關(guān)員工身上,并且經(jīng)常性提醒他們注意這種可能性;

  其次,在技術(shù)方面,建議企業(yè)組織部署更多的分析系統(tǒng),以及時(shí)發(fā)現(xiàn)異常偽造行為等。Deepfakes欺詐活動(dòng)一般需要時(shí)間來(lái)設(shè)置和執(zhí)行,這讓潛在受害者有足夠的時(shí)間來(lái)發(fā)現(xiàn)警告信號(hào)并采取行動(dòng);

  除此之外,企業(yè)還可以通過(guò)隨機(jī)分配用戶指令來(lái)實(shí)現(xiàn)有效防御。因?yàn)镈eepfakes創(chuàng)作者無(wú)法預(yù)測(cè)數(shù)以千計(jì)的可能請(qǐng)求。雖然犯罪分子可以實(shí)時(shí)操縱Deepfakes,但視頻質(zhì)量會(huì)顯著下降,因?yàn)镈eepfakes技術(shù)所需的強(qiáng)大處理能力使其無(wú)法快速做出反應(yīng)。在此情況下,反復(fù)響應(yīng)錯(cuò)誤的用戶可以被標(biāo)記,并進(jìn)行進(jìn)一步調(diào)查。



更多信息可以來(lái)這里獲取==>>電子技術(shù)應(yīng)用-AET<<

二維碼.png


本站內(nèi)容除特別聲明的原創(chuàng)文章之外,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,并不代表本網(wǎng)站贊同其觀點(diǎn)。轉(zhuǎn)載的所有的文章、圖片、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無(wú)法一一聯(lián)系確認(rèn)版權(quán)者。如涉及作品內(nèi)容、版權(quán)和其它問(wèn)題,請(qǐng)及時(shí)通過(guò)電子郵件或電話通知我們,以便迅速采取適當(dāng)措施,避免給雙方造成不必要的經(jīng)濟(jì)損失。聯(lián)系電話:010-82306118;郵箱:aet@chinaaet.com。