引言
深度學習技術的迅猛進步已使全球達成共識:人工智能技術(Artificial Intelligence, AI)將與核技術、生物技術和航空航天技術并駕齊驅,成為影響國家安全的關鍵因素[1]。2017年,美國率先提出“算法戰(zhàn)”的構想,此后,全球主要大國紛紛將AI技術融入陸、海、空、天、網及電等多元化軍事領域,以執(zhí)行探測識別、威脅評估、情報分析及指揮決策等核心任務。2022年,美國退役上將約翰·艾倫預言,未來戰(zhàn)爭將邁入“極速戰(zhàn)”的新紀元。所謂“極速戰(zhàn)”,指的是一種高度依賴AI主導,人類指揮官極少介入的超快速戰(zhàn)爭模式。這預示著人工智能成為“重塑戰(zhàn)爭法則”的革命性技術。
目前,在國際軍事舞臺上,已有諸如美國“捕食者”和“死神”無人機、以色列的“鐵穹”防御系統(tǒng)、英國的“塔洛斯”無人步戰(zhàn)車等多個實例展示了人工智能技術的實戰(zhàn)應用。此外,在國際聯(lián)合軍事演習中頻繁使用人工智能輔助決策系統(tǒng),能夠整合來自不同來源的數據,為指揮官提供快速、準確的戰(zhàn)場信息,從而加快決策過程。
對抗性攻擊與人工智能技術的安全魯棒應用息息相關。由于AI模型內部工作機理存在著不可解釋性,一旦所使用的數據遭受攻擊或篡改,將對模型的輸出結果造成嚴重影響。這種通過對數據施加某種惡意干擾使得人工智能發(fā)生錯誤的技術就被稱為對抗性攻擊(Adversarial Attacks)技術[2]。目前,已經有大量研究表明對抗攻擊所帶來的數據安全問題可以極大程度地影響軍事智能模型。2021年8月,蘭德公司發(fā)布了《對抗性攻擊如何影響美國軍事人工智能系統(tǒng)》[3],通過實例深入剖析了對抗攻擊對軍事智能系統(tǒng)和作戰(zhàn)行動的影響,并建議應切實加強對模型與數據集的安全防護。同年,韓國提出使用對抗性迷彩貼圖來在物理場景下對數據施加擾動,實現軍事目標的智能對抗[4]。2022年,英國研究了對抗攻擊和數據的不確定性在混合戰(zhàn)爭(Hybrid Warfare)中的威脅。同年,Chen Yuwei評估了對抗攻擊在搜尋、鎖定、追蹤、瞄準、交戰(zhàn)和評估各個階段可能造成的數據安全威脅,并使用仿真作戰(zhàn)軟件進行了驗證[5]。
關注對抗攻擊所帶來數據安全問題對軍事智能模型的可靠穩(wěn)定部署有著重要意義。本文旨在分析軍事智能模型所面臨的數據安全風險及其具體形態(tài),闡述對抗攻擊技術的應用場景與部署方式,以期為智能化建設的穩(wěn)健推進提供堅實的安全保障。本文的核心內容如圖 1所示。首先對軍事智能數據可能遭遇的四種風險形態(tài)進行了詳盡闡述;然后列舉了六種易受到對抗攻擊威脅的軍事領域常用數據類型,并詳細描述了相關對抗攻擊的具體部署方法;最后總結了為確保軍事數據安全性所需采取的具體措施。
本文詳細內容請下載:
http://ihrv.cn/resource/share/2000006225
作者信息:
陸正之1,黃希宸2,彭勃1
(1.國防科技大學試驗訓練基地,陜西西安710106;
2.國防科技大學電子科學學院,湖南長沙410073)