文獻(xiàn)標(biāo)識碼: A
DOI: 10.19358/j.issn.2096-5133.2021.06.002
引用格式: 葉啟松,戴旭初. 一種利用類別顯著性映射生成對抗樣本的方法[J].信息技術(shù)與網(wǎng)絡(luò)安全,2021,40(6):9-14.
0 引言
深度學(xué)習(xí)技術(shù)在計算機(jī)視覺、語音識別、自然語言處理等各個領(lǐng)域有著廣泛的應(yīng)用,然而有研究表明,深度神經(jīng)網(wǎng)絡(luò)具有一定的脆弱性[1],該脆弱性使得深度神經(jīng)網(wǎng)絡(luò)容易受到攻擊,這一問題引起了廣泛的重視。對抗樣本攻擊是攻擊深度神經(jīng)網(wǎng)絡(luò)的主要方法,該方法通過對原樣本添加微小的、不可察覺的擾動生成對抗樣本,使得深度神經(jīng)網(wǎng)絡(luò)對該樣本做出錯誤的預(yù)測。
對抗樣本的遷移性指針對結(jié)構(gòu)已知的深度神經(jīng)網(wǎng)絡(luò)模型生成的對抗樣本,能使得結(jié)構(gòu)未知的深度神經(jīng)網(wǎng)絡(luò)模型對該樣本做出錯誤預(yù)測。如果對抗樣本有更好的遷移性,其就能更好地攻擊結(jié)構(gòu)和參數(shù)未知的模型,這也是利用對抗樣本進(jìn)行攻擊的主要應(yīng)用場景。攻擊者在擁有深度神經(jīng)網(wǎng)絡(luò)模型的結(jié)構(gòu)和參數(shù)信息的前提下進(jìn)行的對抗樣本攻擊,稱為在白盒條件下的對抗樣本攻擊。現(xiàn)有的白盒條件下的對抗樣本攻擊方法雖然有較高的攻擊成功率,但是其生成的對抗樣本的遷移性較差,在主要的應(yīng)用場景中并不適用。遷移性差的主要原因在于,這類方法所生成的對抗樣本與模型的結(jié)構(gòu)和參數(shù)高度耦合,其擾動難以對結(jié)構(gòu)和參數(shù)不同的其他模型進(jìn)行有效的干擾。遷移性差的這一缺點在目標(biāo)神經(jīng)網(wǎng)絡(luò)引入了防御方法時表現(xiàn)得更為明顯。
本文詳細(xì)內(nèi)容請下載:http://ihrv.cn/resource/share/2000003593
作者信息:
葉啟松,戴旭初
(中國科學(xué)技術(shù)大學(xué) 網(wǎng)絡(luò)空間安全學(xué)院,安徽 合肥230026)