前不久,一個客戶帶著頭盔去買房的新聞上了熱搜。經(jīng)過媒體的深扒發(fā)現(xiàn),這一夸張之舉背后的原因倒不是客戶怕露富或者有其他什么難言之隱,而是因為精明的開發(fā)商會在不知不覺中通過人工智能(AI)采集客戶人臉數(shù)據(jù),并以此為依據(jù)判定傭金在各個銷售渠道中的歸屬;同時此舉也徹底封死了客戶希望在不同銷售渠道中貨比三家的想法——因為只要是你之前“露過臉”,系統(tǒng)就會得知此前其他渠道商給你的報價,這時你再想砍一分錢都沒有可能。為了避免自己的“臉”被開發(fā)商“偷走”并用來對付自己,客戶才不得以用這種最原始的方法來對抗AI。
這個案例喚醒了人們對于使用日趨廣泛的人臉識別等AI應(yīng)用的擔(dān)心,由此也開始在心中盤算,當我們在享受AI帶來的新體驗的同時,可能付出的安全代價。
AI的安全問題
實際上,上面這個案例只是AI安全一個層面上的問題,如果仔細劃分,會發(fā)現(xiàn)今天的AI至少面臨三個層面的挑戰(zhàn):
第一個層面,是AI技術(shù)本身內(nèi)在的安全風(fēng)險。要知道,AI所依賴的機器學(xué)習(xí)實際上是將傳統(tǒng)上我們所依賴的正常的邏輯變成“黑箱操作”,我們只知道決策輸出的結(jié)果,而對于神經(jīng)網(wǎng)絡(luò)內(nèi)在工作的邏輯并不是完全掌握,這是AI與傳統(tǒng)上的“自動控制”最大的區(qū)別。如果在這個過程中,機器學(xué)習(xí)的數(shù)據(jù)被污染,就會影響樣本和判斷的準確性;機器學(xué)習(xí)模型自身存在的缺陷,會帶來更加隱蔽的安全問題。也就是說,比起傳統(tǒng)的信息安全問題,AI內(nèi)在的安全問題更難于發(fā)現(xiàn)和及時應(yīng)對。
第二個層面,是AI技術(shù)被惡意使用的問題。歷史的經(jīng)驗告訴我們,黑客總是會跟隨最新技術(shù),甚至有時候還會引領(lǐng)最新技術(shù)。AI的出現(xiàn),無疑給黑客提供了新的進攻武器,他們可以使用機器學(xué)習(xí)進行海量數(shù)據(jù)分析,對于攻擊目標的安全策略和方法進行揣摩,并找到突破口。要知道,安全領(lǐng)域的困境就在于:防御者必須預(yù)測并阻斷進攻者可能使用的一萬種攻擊手段,而進攻者只需要利用防御者的一個漏洞就可以完成入侵,達到目的。因此在全球數(shù)字化轉(zhuǎn)型快速推進之時,隨著AI技術(shù)的發(fā)展,信息安全風(fēng)險比以往任何時候都要高。
第三個層面,是AI應(yīng)用中存在的隱私泄露、數(shù)據(jù)濫用等問題。文章開頭所提到的例子,就屬于這個范疇。而且在AI與物聯(lián)網(wǎng)疊加催生出“人工智能物聯(lián)網(wǎng)(AIoT)”之后,這種風(fēng)險性傳播的速度會更快,影響的范圍會更廣,防范難度自然也會更大。
應(yīng)對AI安全挑戰(zhàn)
如此看來,AI的安全問題著實難解。不過再難,也需要擰緊“安全閥”,這是一個必須要解決的問題。
缺少工具可能是在求解AI難題時,最大的困惑。全球知名的白帽黑客Kevin Mitnick就曾經(jīng)表示,現(xiàn)在還沒有真正符合AI核心技術(shù)的工具或產(chǎn)品出現(xiàn),他自己對于AI產(chǎn)品進行安全分析評估的經(jīng)驗也是不足的。
不過,就像AI可以被黑客用來作為攻擊的手段一樣,AI強大的能力,本身也可以作為一種安全工具被加以利用。今天的網(wǎng)絡(luò)安全廠商正在引入AI技術(shù),去解決傳統(tǒng)防御方案解決不了的新威脅,提高原有檢測方案的檢測精度,進行更高效自動化數(shù)據(jù)分類,實現(xiàn)更快的威脅響應(yīng)處置。也就是說,AI不僅可以被用于對抗已有的攻擊,也可去感知和預(yù)測未來可能發(fā)生的安全威脅,這就使得安全防御變得更加積極。
根據(jù)中國信通院發(fā)布的《中國網(wǎng)絡(luò)安全產(chǎn)業(yè)白皮書(2019 年)》,在網(wǎng)絡(luò)安全領(lǐng)域,AI技術(shù)正在發(fā)力的地方包括(但不限于)以下這些方面:
· 在異常流量檢測方面,AI為加密流量分析提供新方案。
· 在惡意軟件防御方面,針對特定場景的AI應(yīng)用取得積極進展。
· 在異常行為分析方面,AI可成為模式識別的有效補充。
· 在敏感數(shù)據(jù)保護方面,AI助力數(shù)據(jù)識別和保護能力提升。
· 在安全運營管理方面,基于AI的安全編排與自動化響應(yīng)(SORA)逐漸興起。
有了AI作為安全防御的利器,人們的下一步就是要去探索一個體系化的安全解決方案。比如,為了應(yīng)對AI模型各個環(huán)節(jié)可能存在的安全風(fēng)險,并給出相應(yīng)的防御建議,騰訊就發(fā)布了一個“AI安全攻擊矩陣”。
這個AI安全攻防矩陣的意義在于:它可以覆蓋從AI模型開發(fā)前的環(huán)境搭建,到模型的訓(xùn)練部署,以及后期的使用維護的整個AI產(chǎn)品生命周期,盡可能列舉出在這個過程中可能遇到的所有安全問題,并給出相應(yīng)的應(yīng)對策略。這樣一來,對照這個“矩陣”,開發(fā)者就可以根據(jù)AI部署運營的基本情況,排查可能存在的安全問題,并根據(jù)推薦的防御建議布防,降低已知的安全風(fēng)險。雖然這樣的探索,目前來看只是一個起步,但也算是一個不錯的開端。
技術(shù)之外的努力
當然,由于AI對于人類社會的觸動是多方面、深層次的,所以AI安全策略也不能僅僅停留在技術(shù)層面。具體來講,在技術(shù)之外,我們至少在兩個方面必須有所行動:
· 一是從法律角度構(gòu)筑安全防線,通過立法明確AI安全的“紅線”,讓黑客及AI濫用者付出應(yīng)有的代價;
· 二是建立行業(yè)公認的行為準則,通過行業(yè)自律等方式,覆蓋那些由于法律滯后于技術(shù)發(fā)展可能出現(xiàn)的灰色地帶,給用戶安全以最大化的保障,這也是為AI長足發(fā)展營造一個更健康的生態(tài)。
在文章的最后,分享一組數(shù)據(jù):根據(jù)IDC的研究數(shù)據(jù),2019年全球網(wǎng)絡(luò)安全支出較2018增長了近9.4%,達到1066.3億美元;然而與此同時,有機構(gòu)預(yù)測同期網(wǎng)絡(luò)犯罪的總成本可能超過2萬億美元,也就是說網(wǎng)絡(luò)犯罪活動的成本是安全支出的20倍左右。
這就是人們所面臨的安全環(huán)境,而且AI的出現(xiàn)會讓這種環(huán)境更為復(fù)雜。而在安全的問題上,決不能妥協(xié),因為關(guān)鍵之處一旦失守,可不是丟一張“臉”的數(shù)據(jù)那么簡單了。這種讓人細思極恐的壓力,也正是業(yè)界進步的動力所在。