《電子技術應用》
您所在的位置:首頁 > 通信與網絡 > 設計應用 > 軍事智能數據安全問題:對抗攻擊威脅
軍事智能數據安全問題:對抗攻擊威脅
網絡安全與數據治理
陸正之1,黃希宸2,彭勃1
1.國防科技大學試驗訓練基地; 2.國防科技大學電子科學學院
摘要: 人工智能技術已深入軍事作戰(zhàn)的各個領域,對現代戰(zhàn)爭形態(tài)進行了全面革新。數據作為軍事智能模型的核心驅動力,為模型的有效運轉提供了保障。然而,由于深度學習的不可解釋性,對抗攻擊技術的存在給當前軍事智能模型帶來了嚴峻的數據安全問題。這種威脅在智能系統(tǒng)的訓練和推理過程中均可能產生,形式多樣,難以防范。同時,受到對抗樣本干擾的軍事數據類型多樣,敵方采取的欺騙手段也日趨復雜。因此,分析軍事智能數據安全風險樣態(tài),并進一步給出軍事智能數據風險的防范措施,希望能夠為增強軍事智能數據的安全性提供有益的參考和借鑒。
中圖分類號:TP391文獻標識碼:ADOI:10.19358/j.issn.2097-1788.2024.11.005引用格式:陸正之,黃希宸,彭勃.軍事智能數據安全問題:對抗攻擊威脅[J].網絡安全與數據治理,2024,43(11):23-28.
The data security of military intelligence:adversarial attacks
Lu Zhengzhi 1,Huang Xichen 2,Peng Bo 1
1.Test Center,National University of Defense Technology; 20College of Electronic Science and Technology,National University of Defense Technology
Abstract: Artificial intelligence technology has now been deeply applied in various fields of military operations, comprehensively changing the shape of modern warfare. Data is the core driving force of military intelligence models, providing a guarantee for the effective operation of the models.However, due to the non-interpretability of deep learning, the existence of adversarial attack techniques has brought serious data security problems to current military intelligence models. On the one hand, such security threats come in various forms and can be affected during the full life cycle of training and reasoning of intelligent systems. On the other hand, the types of military data interfered by adversarial samples are complicated, and the means of implementing deception show a diversified trend. Therefore, this paper will analyse the security risk pattern of military intelligent data, and further give specific measures on how to prevent the risk of military intelligent data in the hope that it can provide certain references and lessons for improving the security of military intelligent data.
Key words : artificial intelligence for military; data security; adversarial attacks; physical adversarial attacks

引言

深度學習技術的迅猛進步已使全球達成共識:人工智能技術(Artificial Intelligence, AI)將與核技術、生物技術和航空航天技術并駕齊驅,成為影響國家安全的關鍵因素[1]。2017年,美國率先提出“算法戰(zhàn)”的構想,此后,全球主要大國紛紛將AI技術融入陸、海、空、天、網及電等多元化軍事領域,以執(zhí)行探測識別、威脅評估、情報分析及指揮決策等核心任務。2022年,美國退役上將約翰·艾倫預言,未來戰(zhàn)爭將邁入“極速戰(zhàn)”的新紀元。所謂“極速戰(zhàn)”,指的是一種高度依賴AI主導,人類指揮官極少介入的超快速戰(zhàn)爭模式。這預示著人工智能成為“重塑戰(zhàn)爭法則”的革命性技術。

目前,在國際軍事舞臺上,已有諸如美國“捕食者”和“死神”無人機、以色列的“鐵穹”防御系統(tǒng)、英國的“塔洛斯”無人步戰(zhàn)車等多個實例展示了人工智能技術的實戰(zhàn)應用。此外,在國際聯(lián)合軍事演習中頻繁使用人工智能輔助決策系統(tǒng),能夠整合來自不同來源的數據,為指揮官提供快速、準確的戰(zhàn)場信息,從而加快決策過程。

對抗性攻擊與人工智能技術的安全魯棒應用息息相關。由于AI模型內部工作機理存在著不可解釋性,一旦所使用的數據遭受攻擊或篡改,將對模型的輸出結果造成嚴重影響。這種通過對數據施加某種惡意干擾使得人工智能發(fā)生錯誤的技術就被稱為對抗性攻擊(Adversarial Attacks)技術[2]。目前,已經有大量研究表明對抗攻擊所帶來的數據安全問題可以極大程度地影響軍事智能模型。2021年8月,蘭德公司發(fā)布了《對抗性攻擊如何影響美國軍事人工智能系統(tǒng)》[3],通過實例深入剖析了對抗攻擊對軍事智能系統(tǒng)和作戰(zhàn)行動的影響,并建議應切實加強對模型與數據集的安全防護。同年,韓國提出使用對抗性迷彩貼圖來在物理場景下對數據施加擾動,實現軍事目標的智能對抗[4]。2022年,英國研究了對抗攻擊和數據的不確定性在混合戰(zhàn)爭(Hybrid Warfare)中的威脅。同年,Chen Yuwei評估了對抗攻擊在搜尋、鎖定、追蹤、瞄準、交戰(zhàn)和評估各個階段可能造成的數據安全威脅,并使用仿真作戰(zhàn)軟件進行了驗證[5]。

關注對抗攻擊所帶來數據安全問題對軍事智能模型的可靠穩(wěn)定部署有著重要意義。本文旨在分析軍事智能模型所面臨的數據安全風險及其具體形態(tài),闡述對抗攻擊技術的應用場景與部署方式,以期為智能化建設的穩(wěn)健推進提供堅實的安全保障。本文的核心內容如圖 1所示。首先對軍事智能數據可能遭遇的四種風險形態(tài)進行了詳盡闡述;然后列舉了六種易受到對抗攻擊威脅的軍事領域常用數據類型,并詳細描述了相關對抗攻擊的具體部署方法;最后總結了為確保軍事數據安全性所需采取的具體措施。

5.png



本文詳細內容請下載:

http://ihrv.cn/resource/share/2000006225


作者信息:

陸正之1,黃希宸2,彭勃1

(1.國防科技大學試驗訓練基地,陜西西安710106;

2.國防科技大學電子科學學院,湖南長沙410073)


Magazine.Subscription.jpg

此內容為AET網站原創(chuàng),未經授權禁止轉載。