亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        針對深度學習的對抗攻擊綜述*

        2021-05-15 09:56:26郭嘉寶彭鉞峰
        密碼學報 2021年2期
        關鍵詞:魯棒性攻擊者分類器

        劉 會, 趙 波, 郭嘉寶, 彭鉞峰

        武漢大學 國家網(wǎng)絡安全學院, 武漢430072

        1 引言

        深度學習被廣泛應用于計算機視覺、自然語言處理、語音識別等多個領域并取得了重大突破.尤其在圖像識別和圖像分類的任務中, 深度學習具備非常高的準確度, 甚至表現(xiàn)出了超越人類的工作能力.然而,即使深度神經(jīng)網(wǎng)絡通過模擬人類大腦神經(jīng)網(wǎng)絡結構取得了顯著的效果, 但是深度神經(jīng)網(wǎng)絡的理解方式與人類認知仍然存在較大差異, 深度學習的工作原理缺乏可解釋性, 其輸出結果的可信性難以得到有效的保障.深度學習缺乏可解釋性由其自身結構和運行機理決定, 具體表現(xiàn)在以下3 個方面: (1) 深度神經(jīng)網(wǎng)絡的神經(jīng)元數(shù)量大、參數(shù)多; (2) 神經(jīng)網(wǎng)絡采用分層結構, 層次之間連接方式多樣; (3) 神經(jīng)網(wǎng)絡自主學習樣本特征, 而許多特征人類無法理解.在探索深度學習的可解釋性、揭示深度學習的工作原理的過程中, Szegedy等人[1]發(fā)現(xiàn)深度神經(jīng)網(wǎng)絡對加入特定擾動的圖像樣本表現(xiàn)出極高的脆弱性, 并將這種帶有對抗擾動的樣本稱之為“對抗樣本”(見圖1).

        圖1 對抗樣本生成示例Figure 1 Adversarial example

        在計算機視覺領域, 對抗樣本現(xiàn)象是指對輸入圖像加入人眼視覺難以感知的輕微擾動, 導致基于深度學習的圖像分類器以高置信度的方式輸出錯誤的結果.在數(shù)字水印領域[2], 對抗擾動會影響嵌入模式的完整性, 使得水印無法檢測, 數(shù)字媒體的真實性無法得到有效驗證.Sharif[3]通過優(yōu)化方法計算擾動并打印到眼鏡框上, 攻擊者只需要佩戴這種定制的眼鏡便可以成功欺騙人臉識別系統(tǒng), 獲得合法的訪問權限.對抗樣本的研究對解釋深度學習工作原理具有顯著的意義, 同時也極大促進了基于深度學習安全攻防的發(fā)展.

        本文從對抗攻擊的基本原理出發(fā), 重點調研了其在計算機視覺領域的關鍵技術和代表性成果, 特別探討了對抗攻擊在具體場景下的應用價值, 進一步揭示了對抗樣本對深度學習的安全威脅.通過對對抗攻擊的發(fā)展歷程進行梳理, 探究該技術面臨的主要挑戰(zhàn), 并指出未來的發(fā)展前景.本文的主要貢獻如下:

        (1) 系統(tǒng)分析了計算機視覺領域中對抗攻擊的典型算法, 并按擾動范圍、模型知識、攻擊目標的針對性、攻擊頻次對對抗攻擊進行分類, 提供這類算法的整體概述;

        (2) 調研了對抗攻擊在具體場景下的實際應用, 包括自然語言處理、語音識別、惡意軟件檢測、對抗樣本可解釋性等, 進一步明確了對抗攻擊的研究對于深度學習的價值;

        (3) 按對抗攻擊的發(fā)展歷程對其進行詳細梳理, 探討了對抗攻擊面臨的主要挑戰(zhàn)和未來可能的發(fā)展方向.

        本文整體架構如下.第2 節(jié)主要介紹了對抗攻擊的基本知識和概念, 以及計算機視覺領域中常用數(shù)據(jù)集.第3 節(jié)按照擾動范圍、模型知識背景、攻擊針對性和攻擊頻次提出相應的對抗攻擊分類方法.第4 節(jié)重點分析了對抗攻擊在計算機視覺領域中的8 類關鍵技術.第5 節(jié)介紹了對抗攻擊在諸如自然語言處理、語音識別、惡意軟件檢測和可解釋性對抗樣本等領域的應用.第6 節(jié)探討了對抗樣本攻擊面臨的主要挑戰(zhàn)和未來的發(fā)展前景.第7 節(jié)總結全文.

        2 背景知識

        2.1 深度學習

        深度學習是由大量帶有激活函數(shù)的神經(jīng)元組成的深層次的神經(jīng)網(wǎng)絡.神經(jīng)元接受上層輸入信號后進行加權連接, 通過激活函數(shù)處理產生神經(jīng)元的輸出并進行信號的下層傳遞, 從而構建了深層次的神經(jīng)網(wǎng)絡結構.深度神經(jīng)網(wǎng)絡能夠在不依賴于專家知識的情況下自動學習原始數(shù)據(jù)的顯隱性特征, 其形式化表達如公式(1)所示.

        這里f(i)(x,θi) 是第i 層網(wǎng)絡的函數(shù), i = 1,2,··· ,k , 其中k 是深度神經(jīng)網(wǎng)絡的層數(shù).在計算機視覺領域, 卷積神經(jīng)網(wǎng)絡(CNN) 是最常用的神經(jīng)網(wǎng)絡結構之一.CNN 由輸入層、卷積層、池化層和全連接層組成, 其中卷積層通過權重共享進行卷積運算, 池化層通過對主要特征采樣調整信號規(guī)模.手寫字體識別模型LeNet-5[4]誕生于1998 年, 是最早的CNN 之一.近年來, 隨著ImageNet 大規(guī)模視覺識別挑戰(zhàn)賽(ILSVRC) 的興起, 涌現(xiàn)了大量優(yōu)秀的CNN 模型, 代表性的研究成果包括:

        (1) AlexNet[5]: 由2012 年ILSVRC 冠軍獲得者Krizhevsky 等人提出, 總共有8 個帶權重的網(wǎng)絡層, 其中前5 層為卷積層, 后3 層為全連接層;

        (2) VGG[6]: 由2014 年ILSVRC 第二名獲得者Simonyan 等人提出, 以VGG-16 和VGG-19 為代表, 具有網(wǎng)絡層次深、泛化能力強等特點;

        (3) GoogLeNet[7]: 由2014 年ILSVRC 冠軍獲得者Szegedy 等人提出, 通過引入Inception 模塊來提高網(wǎng)絡內部計算資源的利用率;

        (4) ResNet[8]: 由2015 年ILSVRC 冠軍獲得者He 等人提出, 通過改變深度神經(jīng)網(wǎng)絡的連接方式簡化網(wǎng)絡訓練, 單個模型在ImageNet 數(shù)據(jù)集的準確率高達95.51%;

        (5) SeNet[9]: 由2017 年(最后一屆)ILSVRC 冠軍獲得者Hu 等人提出, 該模型關注通道之間的關系, 并提出SE 模塊對學習到的特征進行自適應重構.

        2.2 對抗攻擊

        對抗樣本是指通過對原始樣本人為加入人眼視覺難以感知的細微擾動所形成的輸入樣本, 該樣本能使深度學習模型以高置信度的方式給出錯誤的輸出.通過生成對抗樣本以達成逃避基于深度學習的檢測服務的攻擊方式被稱為對抗攻擊.對抗攻擊的流程如圖2 所示.

        圖2 對抗攻擊流程圖Figure 2 Flow chart of adversarial attacks

        在圖像分類任務中, 用戶輸入一張圖像至已訓練好的深度學習分類器中, 分類器會給出相應類別的預測結果.當遭受對抗攻擊后, 原始樣本被加入人眼難以察覺的擾動, 形成的對抗樣本能夠誤導分類器給出其他類別的預測結果.對抗攻擊的形式化表達如公式(2)所示.

        這里, 深度學習分類器f 分類原始樣本x 至類別l, 分類加入擾動δ 所形成的對抗樣本x′至類別l′, D 是樣本的取值范圍.對抗攻擊是指在成功誤導深度學習分類器的前提下求解擾動量的最小值, 本質是一個約束最優(yōu)化問題.

        2.3 樣本距離度量

        對抗攻擊是指通過加入人眼難以察覺的擾動, 生成能夠成功欺騙深度學習分類器以達到逃逸攻擊的目的. 為了使對抗樣本更具欺騙性, 對抗攻擊中目標函數(shù)的定義顯得尤為重要. 目標函數(shù)的定義涉及到對原始樣本與對抗樣本的距離度量, 以量化樣本之間的相似性. 在許多經(jīng)典的對抗攻擊算法中, Lp被廣泛用于度量樣本間的p 范式距離, 其定義如公式(3)所示.

        這里L0, L2和L∞是3 個最常用的樣本距離度量指標. L0是指對抗擾動的數(shù)量, L2是指原始樣本與對抗樣本的歐幾里得距離, L∞表示對抗擾動的最大改變強度.

        2.4 數(shù)據(jù)集

        對抗攻擊通常需要對相同數(shù)據(jù)集進行仿真實驗, 以評估和對比攻擊方法的性能. 在圖像分類領域,ImageNet、MNIST 和CIFAR-10 是3 個應用非常廣泛的開源數(shù)據(jù)集. ImageNet 是根據(jù)WordNet 層次結構組織的圖像數(shù)據(jù)集. 該數(shù)據(jù)集數(shù)量龐大、類別豐富,是迄今為止最優(yōu)秀的圖像數(shù)據(jù)集,著名的ILSVRC挑戰(zhàn)賽基于此數(shù)據(jù)集展開對抗攻擊和防御. MNIST 數(shù)據(jù)集來自美國國家標準與技術研究所, 是一個手寫體數(shù)字(0–9) 數(shù)據(jù)庫. 該數(shù)據(jù)集包含60 000 個訓練樣本和10 000 個測試樣本, 數(shù)字已標準化于大小為28×28 的圖像中. CIFAR-10 是由Geoffrey Hinton 的學生Alex Krizhevsky 和Vinod Nair 等人整理搭建的小型數(shù)據(jù)集, 用于普通物體識別. 該數(shù)據(jù)集包含60 000 張大小為32×32×3 的圖像, 其中訓練樣本50 000 張、測試樣本10 000 張. CIFAR-10 數(shù)據(jù)集總共分為10 個類別, 分別是飛機、汽車、鳥、貓、鹿、狗、蛙、馬、船和卡車. MNIST 和CIFAR-10 內容簡潔、尺寸小, 易于對抗攻擊的實施, 因此經(jīng)常被作為評價對抗攻擊性能的圖像數(shù)據(jù)集.

        3 對抗攻擊分類

        攻擊者通常會根據(jù)不同的場景設計相應的對抗攻擊方案. 歸納對抗攻擊方法的特性, 我們從擾動范圍、攻擊者掌握目標模型知識的情況、攻擊目標的針對性、攻擊實施的頻次等4 個方面對對抗攻擊進行分類.

        (1) 擾動范圍

        a. 全局像素擾動攻擊

        全局像素擾動攻擊是指攻擊者生成對抗樣本過程中通過對圖像所有像素增加合適的擾動, 以達到欺騙深度學習模型的目的. 利用梯度下降生成對抗樣本的方法是一種典型的全局像素擾動攻擊, 具有更強的可遷移性.

        b. 部分像素擾動攻擊

        部分像素擾動攻擊是指攻擊者通過權衡各個像素的擾動優(yōu)先級、并選擇最佳的擾動組合生成對抗樣本, 以達到欺騙深度學習模型的目的. 該方法有時僅須改變一個像素值, 但生成的對抗樣本通常不具備可遷移性.

        (2) 模型知識

        a. 白盒攻擊

        白盒攻擊是指攻擊者在已知目標模型所有知識的情況下生成對抗樣本的一種攻擊手段, 這些知識包括網(wǎng)絡結構、權重和超參、激活函數(shù)類型、訓練數(shù)據(jù)等. 這種攻擊方案實施起來較為容易, 但多數(shù)場景下攻擊者難以獲得深度學習模型的內部知識, 因此應用場景非常有限.

        b. 黑盒攻擊

        黑盒攻擊是指攻擊者在不知道目標模型任何內部信息的情況下實施的攻擊方案. 這類攻擊者通常扮演普通用戶獲得基于深度學習的應用服務的分類結果, 通過應用服務提供的輸出對該模型實施對抗攻擊.由于不需要掌握目標模型, 黑盒攻擊更容易在低控制權場景下部署和實施.

        (3) 針對性

        a. 定向攻擊

        定向攻擊旨在將深度學習分類器誤導至攻擊者指定的類別. 例如在人臉識別系統(tǒng)中, 攻擊者需要將未授權的人臉偽裝成已授權的人臉, 以實現(xiàn)非法授權. 定向攻擊一方面需要降低深度學習對輸入樣本真實類別的置信度, 同時應盡可能提升攻擊者指定類別的置信度, 因此攻擊難度較大.

        b. 非定向攻擊

        非定向攻擊旨在將深度學習分類器誤導至錯誤的類別即可, 而不指定具體的類別. 例如在監(jiān)控系統(tǒng)中,攻擊者希望通過生成對抗樣本實現(xiàn)逃逸攻擊, 達到規(guī)避檢測的目的. 非定向攻擊僅需要盡可能降低深度學習對輸入樣本真實類別的置信度, 因此攻擊難度相對較小.

        (4) 攻擊頻次

        a. 單次攻擊

        單次攻擊是指攻擊者只需要一次計算就能夠生成成功欺騙深度學習模型的對抗樣本, 即通過一次計算找到約束條件下的最優(yōu)解. 一般情況下, 單次攻擊的效率高, 但生成的對抗樣本魯棒性較差.

        b. 迭代攻擊

        迭代攻擊通常需要多次計算逼近約束條件下的最優(yōu)解. 該攻擊方案較單次攻擊需要更長的運行時間,但通常能得到誤分類率更高、魯棒性更強的對抗樣本.

        4 關鍵技術研究進展

        對抗樣本的發(fā)現(xiàn)源自于對深度學習可解釋性的探索. Szegedy 等人[1]發(fā)現(xiàn)加入特定擾動的圖像樣本能夠輕易欺騙深度神經(jīng)網(wǎng)絡, 并提出“對抗樣本” 這一概念. 這個有趣的發(fā)現(xiàn)促進了研究人員對對抗樣本引發(fā)的安全問題的思考. 攻擊者通過對輸入樣本加入少量擾動便能有效實施逃逸攻擊, 輕易規(guī)避基于深度學習服務的安全檢測. 這一節(jié)我們按各個技術提出的時間順序介紹了近年來計算機視覺領域中對抗攻擊研究的代表性成果, 并按照第3 節(jié)所介紹的對抗攻擊分類方法對這些攻擊算法進行分類, 分類結果見表1.

        表1 對抗攻擊分類Table 1 Taxonomy of adversarial attacks

        (1) L-BFGS 攻擊

        在探索深度學習可解釋性的研究中, Szegedy[1]等人證明了深度學習對加入特定擾動的輸入樣本表現(xiàn)出極強的脆弱性, 并由此發(fā)現(xiàn)了對抗樣本的存在, 提出了第一個針對深度學習的對抗攻擊方案L-BFGS.L-BFGS 攻擊的定義如公式(4)所示.

        這里c 是大于0 的常量, x′是對輸入樣本x 增加擾動δ 所形成的對抗樣本, Jθ為損失函數(shù). L-BFGS 攻擊所生成的對抗樣本的質量嚴重依賴于參數(shù)c 的選取, 因此該方法通常需要花費大量的時間尋找合適的參數(shù)c 以求解約束最優(yōu)化問題. 利用L-BFGS 攻擊生成的對抗樣本具有良好的遷移性, 大多數(shù)情況下在不同類型的深度神經(jīng)網(wǎng)絡結構、不同數(shù)據(jù)集訓練的模型中同樣適用. 該方法的提出引起了學術界和工業(yè)界對深度學習可信性的思考, 開啟了針對深度學習的對抗攻擊和防御等安全問題的研究.

        (2) FGSM 攻擊

        Goodfellow 等人[10]認為對抗樣本的存在源自于深度神經(jīng)網(wǎng)絡的高維度線性特性, 高維度的線性模型必然存在對抗樣本. 基于這一觀點, Goodfellow 等人設計了FGSM (fast gradient sign method) 對抗攻擊, 該方法的形式化表達如公式(5)所示.

        這里ε 是常量, sign 表示符號函數(shù), 對抗擾動為δ. FGSM 攻擊采用后向傳播求解神經(jīng)網(wǎng)絡損失函數(shù)的梯度. 該方法僅需一次梯度更新得到對抗擾動, 屬于單次攻擊的類別, 因此對抗攻擊實施的效率非常高,但對抗樣本的不可見性難以保證. 在此基礎上, 許多改進的方案相繼提出. 考慮到一次梯度更新生成的對抗樣本擾動強度較大, Kurakin 等人[11]提出了基礎迭代法I-FGSM, 通過多個小步梯度更新優(yōu)化擾動強度. Rozsa 等人[12]提出FGVM(fast gradient value method) 攻擊, 直接利用損失函數(shù)的梯度值δ =?xJθ(x,l) 作為擾動強度生成對抗樣本, 為每張圖像提供多個可能的對抗性擾動.

        (3) JSMA 攻擊

        JSMA (Jacobian-based saliency map attack) 攻擊[13]由Papernot 等人于2016 年提出. 不同于FGSM, JSMA 攻擊是一種利用前向傳播計算輸入擾動對神經(jīng)網(wǎng)絡輸出結果的影響. JSMA 攻擊包括計算深度神經(jīng)網(wǎng)絡的雅可比矩陣、構建對抗顯著映射和選擇擾動像素三個步驟. 深度神經(jīng)網(wǎng)絡f 對輸入樣本x 的雅可比矩陣計算方法如公式(6)所示.

        為量化像素值的改變對目標分類器的影響, JSMA 攻擊提出了利用雅可比矩陣構建對抗顯著映射, 其表達式如公式(7)所示.

        這里i 是輸入特征. 輸入特征值越大, 說明基于深度學習的目標分類器對該特征的擾動越敏感. 因此, 在擾動像素的選擇階段, JSMA 攻擊選擇對抗顯著值最大的像素加入擾動, 以此生成對抗樣本欺騙深度學習分類器. 實驗證明, 當改變原始樣本中4.02% 的特征時, JSMA 攻擊可以獲得97% 的攻擊成功率. 由于雅可比矩陣計算依賴于神經(jīng)網(wǎng)絡的輸入樣本, 不同的輸入樣本計算得到的雅可比矩陣差異較大, 因此JSMA 攻擊通常不具備可遷移性.

        (4) DeepFool 攻擊

        考慮到深度神經(jīng)網(wǎng)絡對對抗樣本表現(xiàn)出極強的不穩(wěn)定性, Moosavi-Dezfooli 等人[14]提出了一種計算對抗擾動的方法DeepFool, 通過計算原始樣本與對抗樣本的決策邊界的最小距離來量化深度學習分類器面向對抗攻擊的魯棒性. 給定一個反射分類器f(x)=ωTx+b,其對應的仿射平面Γ={x:ωTx+b=0},那么, 改變分類器對原始樣本x0分類結果的最小擾動δ 等于x0到仿射平面Γ 的正交投影, 最小擾動δ的計算方式如公式所示.

        通過整體迭代, DeepFool 攻擊能夠得到對抗擾動的近似最小值δ, 其表達如公式(9)所示.

        這里δi是指第i 輪迭代中加入的對抗擾動, 可由公式(8)計算得到. DeepFool 攻擊通過每一輪的像素修改將原始樣本推向決策邊界, 直至跨越?jīng)Q策邊界形成對抗樣本. 相比于FGSM 攻擊、JSMA 攻擊, DeepFool攻擊生成的對抗樣本平均擾動最小. 然而, DeepFool 攻擊是以最小距離使原始樣本跨越?jīng)Q策邊界形成對抗樣本, 因此無法將深度學習分類器誤導至指定的類別, 即不具備定向攻擊的能力.

        (5) Universal Perturbation 攻擊

        不同于針對單個圖像的對抗攻擊, Universal Perturbation 攻擊[15]提出了一種通用的對抗擾動計算方法. 該方法生成的擾動具有很強的泛化能力, 能夠跨數(shù)據(jù)集、跨模型實施對抗攻擊. Universal Perturbation 攻擊借鑒了DeepFool 攻擊的思想, 利用對抗擾動將大多數(shù)原始樣本推出決策邊界, 其定義如公式(10)所示.

        這里通用的對抗擾動δ 必須滿以下約束:

        這里參數(shù)ε 控制對抗擾動δ 的擾動強度, α 控制對圖像庫X 實施對抗攻擊的失敗率. 在計算Universal Perturbation 的整體迭代過程中, Moosavi-Dezfooli 等人采用DeepFool 算法計算每一個輸入樣本的最小擾動并更新對抗擾動δ, 直至大多數(shù)(P ≥1 ?α) 的對抗樣本能夠成功欺騙深度學習分類器. Universal Perturbation 攻擊的存在揭示了深度神經(jīng)網(wǎng)絡決策邊界之間的幾何關聯(lián). 攻擊者不需要直接攻擊目標模型, 而是在本地生成泛化能力強的對抗擾動, 以此遷移至目標模型實施對抗攻擊, 實現(xiàn)在低控制權場景下對抗攻擊的部署和開展.

        (6) One-Pixel 攻擊

        One-Pixel 攻擊[16]通過僅改變原始圖像中一個像素點實現(xiàn)針對深度神經(jīng)網(wǎng)絡的對抗攻擊, 是一種基于前向傳播的攻擊方案. 該方法對擾動像素的位置信息和擾動強度進行編碼, 基于差分進化算法利用深度神經(jīng)網(wǎng)絡的反饋結果引導對抗擾動的進化方向, 直至對抗擾動收斂至穩(wěn)定的狀態(tài). One-Pixel 攻擊的定義如公式(12)所示.

        這里fl′(x′) 表示深度學習分類器f 識別對抗樣本x′為類別l′的概率, d=1 表示僅改變一個像素值. 該問題本質上是一個單約束的優(yōu)化問題. 考慮到暴力求解該優(yōu)化問題的時間代價高, Su 等人[16]引入差分進化算法求解最優(yōu)的對抗擾動. 這里采用的差分進化算法不包括交叉算子, 其變異算子如公式(13)所示.

        這里xi(g +1) 表示第g +1 代的候選解, 該候選解是由對抗擾動的坐標x ?y 和改變強度RGB 組成.F = 0.5 表示縮放因子, r1, r2, r3 是隨機數(shù). 由于差分進化算法不需要知道深度神經(jīng)網(wǎng)路的梯度信息, 僅依賴輸出類別的概率分布引導進化方向, 因此One-Pixel 攻擊屬于黑盒攻擊. 此外, 該攻擊方案不要求深度神經(jīng)網(wǎng)絡可微分, 適用于多種深度學習分類器. 基于進化算法的優(yōu)化問題計算依賴于種群規(guī)模和迭代次數(shù), 為盡可能獲得全局最優(yōu)解, 種群規(guī)模和迭代次數(shù)的設定相對較大. One-Pixel 攻擊通常需要在較大的種群規(guī)模中通過多輪迭代尋求對抗擾動的最優(yōu)解, 因此攻擊效率較低.

        (7) C&W 攻擊

        防御性蒸餾[17]是利用知識蒸餾將復雜模型所學的“知識” 遷移到結構簡單的神經(jīng)網(wǎng)絡中, 通過避免攻擊者直接接觸原始神經(jīng)網(wǎng)絡達到防御對抗攻擊的目的. 針對防御性蒸餾, Carlini 和Wagner 聯(lián)合提出了在L0, L2和L∞范式下的一組有效的攻擊方法C&W 攻擊[18]. 通過對比這3 種范式下的實驗結果,他們認為, L2范式下的C&W 攻擊具備最強的攻擊能力. L2范式的C&W 攻擊如公式(14)所示.

        這里, f 的定義如下:

        這里Z(x) 是神經(jīng)網(wǎng)絡softmax 層的輸出, 超參k 約束該攻擊找到具有高置信度且錯誤類別為t 的對抗樣本x′. C&W 攻擊表現(xiàn)出了較L-BFGS、FGSM、JSMA 和DeepFool 更好的攻擊效果, 同時具備破壞防御性蒸餾的能力. 然而, C&W 攻擊需要花費大量的時間尋找合適的參數(shù)以約束擾動的可見性, 屬于迭代攻擊的類別, 因此攻擊效率相對較低.

        (8) Luo&Liu 攻擊

        對抗攻擊的加入應盡可能不被人眼視覺察覺, 因此樣本距離度量需要充分考慮人眼視覺系統(tǒng). Luo 等人[19]通過調研人眼視覺系統(tǒng)發(fā)現(xiàn), 人眼對平坦區(qū)域的擾動較紋理區(qū)域更敏感, 在加入對抗擾動時應考慮擾動像素周圍的紋理特征. 而圖像的紋理特征可以通過方差量化, 量化方法如公式(16)所示.

        這里SD(pi) 表示以擾動像素pi為中心的n×n 窗口區(qū)域內的方差. 考慮到擾動強度對人眼視覺的影響,Luo 等人[19]建立了與擾動強度和紋理特征有關的樣本距離度量方法, 如公式(17)所示.

        這里m 表示加入擾動的數(shù)量, χ 是擾動強度, D(x,x′) 表示原始樣本與對抗樣本的視覺距離. 為了增強對抗樣本的魯棒性, Luo&Liu 攻擊構建了可微分的目標函數(shù)如公式(18)所示.

        這里i 表示除目標類別之外的其他類別, Pi是指深度學習分類器將樣本識別為類別i 的概率. 通過重構約束函數(shù)和目標函數(shù), Luo 等人提出了一種新的對抗攻擊方案, 如公式(19)所示.

        這里Dmax表示樣本間的最大距離, 由攻擊者手動輸入. Luo&Liu 攻擊通過評估每個像素值的擾動優(yōu)先級, 利用貪婪算法得到近似最優(yōu)的像素擾動組合, 形成對抗擾動. 相比于Lp范式距離度量, 該方案的約束函數(shù)考慮了擾動強度、數(shù)量和紋理特征, 生成的對抗樣本具有更強的隱蔽性. 然而, 由于像素優(yōu)先級的評估需要遍歷原始樣本的所有像素及其對應的擾動強度, 大量的時間開銷使得該攻擊方案效率低下.

        5 對抗攻擊應用

        對抗攻擊的提出源自于深度學習在計算機視覺領域的應用和探索. 事實上, 對抗攻擊充分利用了深度神經(jīng)網(wǎng)絡與人類在理解輸入樣本時先天存在的差異, 通過加入擾動擴大這種差異, 從而導致深度學習模型給出不同于人類感知的判斷. 因此, 對抗攻擊不僅僅局限于計算機視覺領域, 文本、音頻、代碼等其他數(shù)據(jù)類型也同樣面臨對抗攻擊的安全威脅. 第5 節(jié)介紹了對抗攻擊在諸如自然語言處理[20]、語音識別[21,22]、惡意軟件檢測[23,24]等領域的應用, 特別介紹了對抗攻擊技術對深度神經(jīng)網(wǎng)絡工作原理的探索, 強調該技術在揭示深度學習可解釋性的應用價值[1,25].

        5.1 自然語言處理

        對抗攻擊對深度學習的威脅在自然語言處理領域廣泛存在. 不同于圖像相鄰像素相關性高, 文本的離散性使其難以優(yōu)化, 而且文本對某些單詞非常敏感, 一個單詞的簡單替換也可能導致整體語義發(fā)生變化.Li 等人[20]充分利用文本的離散性研制了一套高效生成對抗文本的工具TextBugger, 其攻擊流程主要包括選擇單詞擾動位置、添加擾動兩個階段.

        在選擇單詞擾動位置時, TextBugger 針對白盒攻擊和黑盒攻擊的場景分別提出了單詞擾動優(yōu)先級的評估方法. 在白盒攻擊的場景下, TextBugger 利用雅克比矩陣評估文本擾動對目標分類器的影響. 在黑盒攻擊的場景下, TextBugger 通過計算移除文本種某一該單詞后檢測器對文本預測結果置信度的變化, 以此尋找對分類結果影響最大的單詞.

        在添加擾動過程中, TextBugger 定義了5 種常用的文本擾動方法: (1) 插入: 在單詞中隨機插入一個空格; (2) 刪除: 隨機刪除單詞中的一個字母; (3) 交換: 隨機交換鄰近的兩個字母; (4) Sub-C: 將單詞中的一個字母替換為外觀相似的字符(比如o 替換成0, l 替換成數(shù)字1); (5) Sub-W: 在詞空間中尋找鄰近的單詞替代(比如foolish 替換成silly). TextBugger 嘗試對擾動優(yōu)先級高的單詞選擇不同的擾動策略, 直到成功欺騙基于深度學習的文本分類器.

        TextBugger 攻擊針對特定白盒模型, 如卷積神經(jīng)網(wǎng)絡(CNN)、長短期記憶網(wǎng)絡(LSTM) 等表現(xiàn)出良好效果. 在針對如Google Perspective、IBM Classifier、Facebook fastText 等5 類基于深度學習的文本分類的應用中, TextBugger 同樣具有非常高的誤分類率, 進而證明了對抗攻擊在自然語言處理領域具有顯著的現(xiàn)實威脅.

        5.2 語音識別

        相比于視覺, 人類對語音領域的擾動更為敏感, 而且這些擾動在無線傳輸信道中容易受到干擾[21,22].因此, 對抗攻擊在語音識別領域的不可察覺性和魯棒性面臨嚴峻挑戰(zhàn). Yao 等人[21]利用聽覺掩碼的心理聲學模型生成音頻對抗樣本, 從魯棒性和不可察覺性兩方面定義的對抗攻擊的目標函數(shù)如公式(20)所示.

        5.3 惡意軟件

        惡意軟件檢測系統(tǒng)本質上執(zhí)行二分類任務, 即區(qū)別惡意軟件和非惡意軟件. 基于深度學習的惡意軟件檢測系統(tǒng)[23,24]通常需要完成惡意代碼特征提取和特征學習兩個過程. 對抗攻擊通過對代碼特征人為加入少量擾動以誤導惡意軟件檢測系統(tǒng), 使其按攻擊者的意圖給出分類結果. 因此, 生成惡意軟件的對抗樣本主要有以下兩步: 評估擾動對分類器的影響和選擇擾動生成對抗樣本. 基于此, Grosse 等人[23]借鑒了JSMA 攻擊的算法, 利用雅可比矩陣計算代碼特征的擾動優(yōu)先級, 然后加入當前擾動優(yōu)先級最大的特征直至成功規(guī)避檢測系統(tǒng). 為保證對抗性樣本的可用性, 該方案對擾動做了如下限制: (1) 對抗擾動僅影響應用程序中單行代碼的特性; (2) 僅擾動與AndroidManifest.xml 清單文件相關的特性. 這種攻擊方法通過兩個限制條件確保了惡意軟件的對抗樣本保留其原始功能, 同時能有效規(guī)避檢測系統(tǒng). 由于雅可比矩陣的計算需要知道目標系統(tǒng)的神經(jīng)網(wǎng)絡結構, 因此這種攻擊方法屬于白盒攻擊.

        5.4 可解釋性對抗樣本

        對抗樣本的提出源自于對深度學習可解釋性的探索, 而后發(fā)展成針對基于深度學習檢測服務的逃逸攻擊及其防御. 而在文獻[25] 中, Ilyas 等人將對輸入樣本的特征劃分為魯棒性特征和非魯棒性特征. 魯棒性特征是指人類視覺可以理解的特征(例如鼻子、眼睛、嘴等), 其他特征為非魯棒性特征. 基于這一劃分,他們利用對抗攻擊解釋了對抗樣本存在的原因: 對抗脆弱性由非魯棒性特性引起. 為證明這一結論, Ilyas等人[25]構建了以下兩個實驗.

        實驗1: 構建由魯棒性特征組成的訓練樣本并訓練深度學習模型. 如果該模型的魯棒性更強, 說明通過刪除非魯棒性特征能夠提升模型魯棒性.

        實驗2: 構建由非魯棒性特征組成的訓練樣本并訓練深度學習模型. 如果該模型有效, 說明深度學習模型使用到了非魯棒性特征, 對抗樣本是有價值的特征.

        為構建由魯棒性特征組成的訓練樣本, 實驗1 對輸入樣本集(X,L) 展開對抗攻擊, 得到對抗樣本集(X′,L′). 由于對抗攻擊破壞了輸入樣本X 的非魯棒性特征、保留其魯棒性特征, 因此可以構建魯棒性特征樣本集(X′,L). 實驗分別利用魯棒性特征樣本集(X′,L) 和原始樣本集(X,L) 訓練同一深度學習模型. 結果表明, 利用魯棒性特征樣本集(X′,L) 訓練的模型魯棒性更強, 從而證明刪除樣本中的非魯棒性特征能夠有效提升深度學習模型的魯棒性.

        為構建由非魯棒性特征組成的訓練樣本, 實驗2 利用對抗攻擊方法得到對抗樣本集(X′,L′), 并以此作為非魯棒性特征樣本集, 此時可以認為對抗樣本X′保留了類別L 的魯棒性特征和類別L′的非魯棒性特征. 實驗利用非魯棒性特征樣本集(X′,L′) 訓練深度學習模型, 并在原始測試樣本集進行精確度測試.結果發(fā)現(xiàn)在CIFAR 數(shù)據(jù)集的精確度高達43%, 說明深度神經(jīng)網(wǎng)絡學習到了輸入樣本的非魯棒性特征.

        該方法巧妙地利用對抗攻擊從正反兩方面證明了輸入樣本的非魯棒性特征是有價值的特征, 而不是有限樣本過擬合的產物, 進而解釋了對抗樣本現(xiàn)象是由輸入樣本的非魯棒性特性引起. 如果不明確地阻止深度神經(jīng)網(wǎng)絡學習輸入樣本的非魯棒性特征, 深度學習將始終面臨對抗攻擊的安全威脅.

        6 挑戰(zhàn)與展望

        對抗樣本現(xiàn)象吸引了學術界和產業(yè)界的共同關注. 隨著對抗攻擊技術的發(fā)展, 對抗樣本的防御手段得到重視. 主流的對抗樣本防御技術包括蒸餾神經(jīng)網(wǎng)絡[17]、對抗訓練[26,27]、梯度掩蓋[28,29]等, 但這些防御手段大多最終都被成功破解或被證明無效[30,31]. 對抗樣本的檢測技術作為一種防御手段的補充應運而生, 例如, 利用深度神經(jīng)網(wǎng)絡對合法樣本與對抗樣本進行二分類[32], 在深度神經(jīng)網(wǎng)絡中加入檢測機制[33],打造平臺以評估樣本面向對抗攻擊的魯棒性等[34]. 但這些檢測技術無法完全區(qū)分合法樣本和對抗樣本,對抗攻擊的安全隱患仍然存在. 因此, 在深度學習的可解釋性沒有完全揭曉之前, 針對深度學習的對抗攻擊仍然值得重視.

        對抗攻擊技術在計算機視覺領域取得了顯著的成績, 其未來可能的發(fā)展方向至少包括以下3 個方面.一是生成具備高魯棒性[19,35,36]、隱蔽性[19,37]和可遷移性[15,38]的對抗樣本, 保障對抗攻擊在復雜環(huán)境和低控制權場景下的部署和實施; 二是注重對抗攻擊的應用價值[20–24,39], 例如, 生成病毒的對抗樣本規(guī)避惡意軟件檢測系統(tǒng)[23,24], 生成惡意文件的對抗樣本攻擊文件分類器[39]等; 三是利用對抗攻擊技術探索深度神經(jīng)網(wǎng)絡的工作原理, 從本質上揭示深度學習的可解釋性[1,25].

        7 結語

        本文介紹了針對深度學習的對抗攻擊基本原理和分類方法, 重點選取了計算機視覺領域中8 類主流的對抗攻擊算法進行詳細解讀和分析, 并著重介紹了對抗攻擊在自然語言處理、語音識別、惡意軟件檢測和解釋對抗樣本現(xiàn)象等4 個方面的應用. 回顧其發(fā)展歷程, 對抗樣本現(xiàn)象的發(fā)現(xiàn)源于對深度學習可解釋性的探索, 初期的對抗攻擊方法重點關注攻擊行為的可用性, 而后向可遷移性、隱蔽性、魯棒性等多方面發(fā)展, 同時注重對抗攻擊在各種復雜環(huán)境和低控制權場景下的實際應用, 并逐步延申至針對深度學習檢測服務的逃逸攻擊. 在總結其發(fā)展歷程的基礎上, 本文分析了對抗攻擊面臨的主要挑戰(zhàn), 并指出了該技術未來3 個重要的研究方向.

        猜你喜歡
        魯棒性攻擊者分類器
        基于微分博弈的追逃問題最優(yōu)策略設計
        自動化學報(2021年8期)2021-09-28 07:20:18
        荒漠綠洲區(qū)潛在生態(tài)網(wǎng)絡增邊優(yōu)化魯棒性分析
        基于確定性指標的弦支結構魯棒性評價
        中華建設(2019年7期)2019-08-27 00:50:18
        正面迎接批判
        愛你(2018年16期)2018-06-21 03:28:44
        BP-GA光照分類器在車道線識別中的應用
        電子測試(2018年1期)2018-04-18 11:52:35
        加權空-譜與最近鄰分類器相結合的高光譜圖像分類
        結合模糊(C+P)均值聚類和SP-V-支持向量機的TSK分類器
        基于非支配解集的多模式裝備項目群調度魯棒性優(yōu)化
        非接觸移動供電系統(tǒng)不同補償拓撲下的魯棒性分析
        有限次重復博弈下的網(wǎng)絡攻擊行為研究
        国产熟女内射oooo| 农村国产毛片一区二区三区女| 国产三级精品三级在线| 亚洲一区二区日韩专区| 国产成人综合亚洲看片| 中文字幕亚洲乱码熟女一区二区| 国产精品福利久久香蕉中文| 乱码精品一区二区三区| 国产aⅴ天堂亚洲国产av| 日韩字幕无线乱码免费| 国产一品二品三区在线观看| 久久人妻av一区二区软件| 欧美精品videosse精子| 久久综合狠狠色综合伊人| 伊人99re| 丝袜美腿久久亚洲一区| 蜜桃视频国产一区二区| 免费人成在线观看| 日日碰狠狠躁久久躁| 手机色在线| 亚洲捆绑女优一区二区三区 | 国产精品香蕉在线观看| 亚洲色偷偷偷综合网另类小说| 国产不卡在线观看视频| 亚洲精品无码久久久久去q| 国产激情视频白浆免费| 亚洲日本视频一区二区三区| 亚洲国产女同在线观看| 夜夜躁日日躁狠狠久久av| 麻豆高清免费国产一区| 亚洲欧洲美洲无码精品va| 大红酸枝极品老料颜色| 少妇激情av一区二区三区| 亚洲第一最快av网站| 亚洲精品成人网久久久久久| 国产美女久久久亚洲综合| 少妇高潮在线精品观看| 久久国产精品-国产精品| 在线av野外国语对白| av免费观看在线网站| 久久无码潮喷a片无码高潮|