亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        增強(qiáng)型深度對(duì)抗樣本攻擊防御算法

        2021-02-21 02:56:56劉佳瑋張文輝寇曉麗李雁妮
        關(guān)鍵詞:分類深度模型

        劉佳瑋,張文輝,寇曉麗,李雁妮

        (西安電子科技大學(xué) 計(jì)算機(jī)科學(xué)與技術(shù)學(xué)院,陜西 西安 710071)

        近年來,深度神經(jīng)網(wǎng)絡(luò)模型(Deep Neural Networks,DNNs)已被成功應(yīng)用于很多應(yīng)用領(lǐng)域,如:計(jì)算機(jī)視覺、語音識(shí)別、自然語言處理等等。但DNNs極易受到一種被添加了細(xì)微的惡意擾動(dòng)信息的樣本,稱之為對(duì)抗樣本(Adversarial Example,AE)的攻擊。由于對(duì)抗樣本的擾動(dòng)非常細(xì)微,以致人眼及深度神經(jīng)網(wǎng)絡(luò)模型均難以察覺辨識(shí),從而導(dǎo)致深度神經(jīng)網(wǎng)絡(luò)模型產(chǎn)生錯(cuò)誤的分類/預(yù)測結(jié)果,即深度神經(jīng)網(wǎng)絡(luò)模型防御對(duì)抗樣本的魯棒性(Adversarial Robustness,AR)大大降低[1-2]。因此,研究高效的深度對(duì)抗樣本防御算法,以提高深度模型的魯棒性是當(dāng)前深度學(xué)習(xí)面臨的一個(gè)極具挑戰(zhàn)性問題。SZEGEDY等[3]首次提出深度神經(jīng)網(wǎng)絡(luò)模型中存在對(duì)抗樣本的概念,通過深度攻擊算法在原始輸入的干凈樣本上添加細(xì)微擾動(dòng)后以產(chǎn)生對(duì)抗樣本,從而攻擊深度模型的魯棒性。防御算法的核心目標(biāo)是讓深度模型有效抵御對(duì)抗樣本的攻擊,以提高其魯棒性。近年來,已產(chǎn)生了一些較好的深度對(duì)抗防御算法[4-16]。現(xiàn)有對(duì)抗防御算法主要分為以下兩類:對(duì)抗訓(xùn)練算法[4-9]與對(duì)抗樣本去噪算法[10-16]。對(duì)抗樣本去噪算法通過在目標(biāo)深度神經(jīng)網(wǎng)絡(luò)模型中添加一個(gè)預(yù)訓(xùn)練好的去噪模型,從而消除對(duì)抗樣本中的擾動(dòng)信息。對(duì)抗樣本去噪算法簡單、高效,但它在去除對(duì)抗樣本噪聲的同時(shí),也損傷了原始干凈樣本上的一些有用信息,導(dǎo)致最終訓(xùn)練的深度模型對(duì)干凈樣本的分類/預(yù)測精度下降。對(duì)抗訓(xùn)練算法通過優(yōu)化損失函數(shù)[17]、修改目標(biāo)模型結(jié)構(gòu)、更新網(wǎng)絡(luò)參數(shù)等形式訓(xùn)練出具有更強(qiáng)的對(duì)抗魯棒性的深度模型。但該類算法相對(duì)復(fù)雜,模型訓(xùn)練收斂緩慢且模型不穩(wěn)定。

        針對(duì)現(xiàn)有的對(duì)抗樣本去噪算法的上述缺陷,筆者提出了一種基于輸入去噪與隱層信息恢復(fù)的新的增強(qiáng)型深度對(duì)抗樣本防御算法。主要貢獻(xiàn)有以下3點(diǎn)。(1)針對(duì)現(xiàn)有深度去噪算法精度有待于提高,對(duì)干凈樣本去噪時(shí)產(chǎn)生信息損失的缺陷,提出了基于U-net[21]網(wǎng)絡(luò)模型,以及對(duì)抗樣本與增強(qiáng)型干凈樣本聯(lián)合訓(xùn)練模型的一種新的增強(qiáng)型對(duì)抗樣本輸入去噪方法?;谕拱碚?,將對(duì)抗樣本與預(yù)測/分類錯(cuò)誤的干凈樣本的隱層向量進(jìn)行凸組合以訓(xùn)練并修正模型對(duì)干凈樣本有損信息的恢復(fù)策略。(2)在此基礎(chǔ)上,提出了一種高效的增強(qiáng)型深度對(duì)抗樣本防御算法(Input Denoising and Hidden Information Restoring,ID+HIR)。(3)在多個(gè)基準(zhǔn)數(shù)據(jù)集上與現(xiàn)有代表性的深度對(duì)抗樣本去噪算法進(jìn)行了性能對(duì)比仿真實(shí)驗(yàn),理論分析與實(shí)驗(yàn)結(jié)果表明筆者所提出的ID+HIR算法的對(duì)抗防御性能優(yōu)于現(xiàn)有代表性的對(duì)抗去噪防御算法。筆者提出的算法ID+HIR源碼及附錄(包含相關(guān)部分實(shí)驗(yàn)及分析、訓(xùn)練算法偽碼及定理證明)的下載地址為:https://github.com/xd-1307/ID-HIR。

        1 相關(guān)工作

        近年來,由于對(duì)抗樣本去噪算法的簡單高效性,它已成為深度防御對(duì)抗樣本攻擊的主流算法。DAE[13]是最早提出的對(duì)抗樣本去噪算法,它使用去噪自編碼器網(wǎng)絡(luò)結(jié)構(gòu),通過輸入僅疊加了高斯噪音的原始樣本,以抵御對(duì)抗樣本的噪音;ComDefend算法[10]通過壓縮的卷積神經(jīng)網(wǎng)絡(luò)ComCNN以及重構(gòu)卷積神經(jīng)網(wǎng)絡(luò)RecCNN來實(shí)現(xiàn)對(duì)抗樣本的去噪;HGD算法[11]將對(duì)抗樣本輸入所提出的去噪模型中,通過將原始圖像與去噪圖像在CNN的距離作為損失以指導(dǎo)模型的優(yōu)化;PixelDefend[12]通過特定的去噪模型以實(shí)現(xiàn)圖像灰度級(jí)的對(duì)抗防御;FS算法[14]通過濾波器平滑數(shù)據(jù)的方式去除對(duì)抗擾動(dòng)信息;JPEG和TVM算法[15]將圖像進(jìn)行壓縮,壓縮失真后的圖像在一定程度上抵御了對(duì)抗樣本;NRP算法[16]利用對(duì)抗訓(xùn)練的思想來訓(xùn)練模型;FD特征去噪算法[18]輸入對(duì)抗樣本,通過在模型的隱層對(duì)特征向量進(jìn)行均值濾波來抵御對(duì)抗樣本的噪聲;DS去噪平滑算法[19]輸入干凈樣本并疊加特殊噪音,通過最小化噪聲樣本和干凈樣本的誤差來訓(xùn)練模型。上述對(duì)抗去噪類算法思想及缺陷如圖1所示。

        (a)已有大多數(shù)對(duì)抗去噪算法缺陷示意圖 (b)文中ID+HIR對(duì)抗去噪算法示意圖

        按照慣例,將完成特定預(yù)測/分類任務(wù)的深度網(wǎng)絡(luò)模型稱為目標(biāo)模型。已有的對(duì)抗樣本去噪算法均面臨如下挑戰(zhàn)性問題:(1)由于在目標(biāo)模型的前端加入了對(duì)抗樣本的去噪模型,故算法在提升目標(biāo)模型對(duì)抗魯棒性的同時(shí),會(huì)損失干凈樣本的有用信息,造成目標(biāo)模型對(duì)干凈樣本的識(shí)別精度下降;(2)對(duì)干凈樣本有用信息的改變/損壞會(huì)被目標(biāo)深度神經(jīng)網(wǎng)絡(luò)逐層放大,即導(dǎo)致干凈樣本的分類/預(yù)測結(jié)果誤差會(huì)隨著網(wǎng)絡(luò)模型的加深而逐步放大。

        不同于現(xiàn)有的對(duì)抗樣本去噪算法,筆者提出的ID+HIR算法由兩部分構(gòu)成:即由輸入去噪模型(Input Denoiser,ID)及隱層信息恢復(fù)模型(Hidden Information Restorer,HIR)構(gòu)成。ID+HIR算法首先在目標(biāo)模型輸入前端插入ID模型,以去除對(duì)抗樣本的擾動(dòng)信息。之后在目標(biāo)模型的隱層后插入HIR模型,以恢復(fù)干凈樣本上受損的有用信息,以進(jìn)一步提高目標(biāo)模型的對(duì)抗魯棒性和識(shí)別精度,并避免現(xiàn)有算法對(duì)原始干凈樣本信息的損失缺陷。

        2 基于輸入去噪及隱層信息恢復(fù)的ID+HIR算法

        2.1 ID+HIR算法概述

        與現(xiàn)有的對(duì)抗去噪算法不同,筆者提出的算法在目標(biāo)模型Tθ(·)中插入了兩個(gè)相互獨(dú)立的模型:即輸入ID模型和隱層HIR信息恢復(fù)模型。其中,ID模型負(fù)責(zé)去除輸入樣本上可能存在的對(duì)抗性擾動(dòng)信息。ID模型的輸入為待分類樣本,輸出為去除擾動(dòng)對(duì)抗信息(亦稱為噪聲)后的樣本。HIR模型負(fù)責(zé)在目標(biāo)模型的隱層恢復(fù)干凈樣本受損的信息,該模型輸入為樣本在目標(biāo)模型的隱層輸出向量,輸出為被修復(fù)的隱層向量。在對(duì)HIR模型進(jìn)行訓(xùn)練時(shí),通過構(gòu)建對(duì)抗樣本和干凈樣本的隱層向量凸包作訓(xùn)練數(shù)據(jù),以有效提升HIR模型對(duì)干凈樣本有損信息的恢復(fù)。該機(jī)制使得目標(biāo)模型在具有良好的對(duì)抗魯棒性的前提下,維持了對(duì)干凈樣本的識(shí)別能力。ID和HIR兩模型的功能與訓(xùn)練相互獨(dú)立,兩者協(xié)同完成輸入樣本(對(duì)抗樣本和/或干凈樣本)的去噪及受損信息的恢復(fù)功能,以最終實(shí)現(xiàn)深度目標(biāo)模型的正確預(yù)測/分類任務(wù)。

        ID+HIR算法首先將ID插入到目標(biāo)模型Tθ(·)的前端,然后將深度目標(biāo)模型Tθ(·)進(jìn)行切分,在切分點(diǎn)處插入HIR模型。由于在圖像識(shí)別領(lǐng)域的目標(biāo)模型通常選擇卷積神經(jīng)網(wǎng)絡(luò)CNNs,故切分點(diǎn)可以選在卷積層之后與分類層之間,在切分點(diǎn)處添加HIR模型。筆者提出算法的網(wǎng)絡(luò)模型結(jié)構(gòu)示意圖如圖2所示。

        2.2 輸入層ID模型

        2.2.1 ID模型

        筆者提出的輸入層ID模型結(jié)構(gòu)采用U-net[21]網(wǎng)絡(luò)結(jié)構(gòu)。由于U-net結(jié)構(gòu)含有的殘差結(jié)構(gòu),可以有效提取圖像的高維語義信息并融合低維空間信息,并善于提取細(xì)微的數(shù)據(jù)信息,避免了傳統(tǒng)DAE對(duì)于彩色圖和大尺寸圖擬合能力較差的弊端,使模型具有更強(qiáng)的去噪能力。ID網(wǎng)絡(luò)模型結(jié)構(gòu)如圖 2所示。

        圖2 ID模型結(jié)構(gòu)示意圖

        2.2.2 ID模型的訓(xùn)練

        ID模型記為Iw(·),其中,w為ID模型的參數(shù)。設(shè)ID模型的輸入為對(duì)抗樣本x′和/或干凈樣本x,期望其輸出為去除對(duì)抗樣本擾動(dòng)信息后的樣本,故可給出ID模型的優(yōu)化目標(biāo)損失函數(shù)為

        (1)

        其中,Iw(·)為指示函數(shù),滿足條件為1,否則為0。由于指示函數(shù)I(·)是0-1函數(shù),在采用反向傳播算法優(yōu)化深度模型參數(shù)時(shí)會(huì)存在梯度消失問題,故文中將指示函數(shù)I(·)替換為交叉熵?fù)p失函數(shù)來訓(xùn)練ID模型。故ID模型的損失函數(shù)式(1)可轉(zhuǎn)化為

        LID=arg min(-∑ylogTθ(Iw(x,x′))) 。

        (2)

        值得注意的是:由于訓(xùn)練好的ID模型的輸入為對(duì)抗樣本和/或干凈樣本,故在ID模型訓(xùn)練時(shí),采用對(duì)抗樣本和干凈樣本同時(shí)進(jìn)行訓(xùn)練,以避免ID模型過擬合對(duì)抗樣本;另外,當(dāng)對(duì)抗樣本中的擾動(dòng)(噪聲)較大時(shí),為了避免訓(xùn)練出的ID模型過度擬合對(duì)抗樣本,而對(duì)干凈樣本的擬合能力降低的問題,可首先采用多輪的高斯擾動(dòng)數(shù)據(jù)增強(qiáng)方法[20],對(duì)干凈樣本進(jìn)行數(shù)據(jù)增強(qiáng)處理,得到增強(qiáng)的干凈樣本數(shù)據(jù)集XE。然后,采用X′∪XE聯(lián)合訓(xùn)練Iw(·),以提高其去噪及泛化能力。

        2.3 隱層信息恢復(fù)模型HIR

        2.3.1 HIR模型

        如前文所述,傳統(tǒng)的去噪算法會(huì)導(dǎo)致干凈樣本的信息損失,使干凈樣本的特征分布偏離目標(biāo)模型Tθ(·)的分類器所能正確識(shí)別的分布空間。為了恢復(fù)信息受損的干凈樣本,將目標(biāo)模型Tθ(·)進(jìn)行拆分為特征提取層(即隱空間層,簡稱隱層)和分類層,其中,用φ(·)表示隱層的函數(shù)映射,用g(·)表示分類層的函數(shù)映射。文中算法在隱層后增加HIR模型,以恢復(fù)干凈樣本的受損信息,并保證對(duì)去噪后的對(duì)抗樣本不產(chǎn)生負(fù)面影響。即目標(biāo)模型的輸入的干凈樣本x和對(duì)抗樣本x′經(jīng)過Iw(·)和φ(·)后,其隱層輸出為xh。xh在經(jīng)過HIR模型的函數(shù)映射Hπ(·)(π為HIR模型參數(shù))得到的隱層表示將能被g(·)正確識(shí)別。與ID模型相同,本文的HIR模型的網(wǎng)絡(luò)結(jié)構(gòu)也采用U-net網(wǎng)絡(luò)模型。

        2.3.2 HIR模型的訓(xùn)練

        在對(duì)HIR模型進(jìn)行訓(xùn)練時(shí),需保證:(1)輸入若是有損的干凈樣本的隱層向量,則HIR模型需要對(duì)其進(jìn)行恢復(fù)并輸出,以使目標(biāo)模型能夠?qū)崿F(xiàn)正確分類;(2)若輸入為經(jīng)過ID模型去噪后的對(duì)抗樣本的隱層向量,則該隱層向量已經(jīng)能夠被分類器正確分類,故HIR模型不能對(duì)該向量造成任何不良的負(fù)面影響,以此為目標(biāo)并指導(dǎo)HIR模型的訓(xùn)練。在測試階段,HIR模型確保無需預(yù)知當(dāng)前樣本是干凈樣本或?qū)箻颖镜碾[層輸出,可自適應(yīng)地選擇是否應(yīng)恢復(fù)受損信息。為了達(dá)到上述目標(biāo),基于凸包理論,構(gòu)建對(duì)抗樣本和干凈樣本的隱層向量凸包作為訓(xùn)練數(shù)據(jù),以此來有效訓(xùn)練HIR模型。需要注意的是,所構(gòu)建的凸包僅用于指導(dǎo)HIR模型的訓(xùn)練,并不參與模型的測試。

        干凈樣本經(jīng)過去噪模型ID處理后,其樣本上的有用信息可能會(huì)遭到破壞,造成目標(biāo)模型對(duì)干凈樣本的預(yù)測/分類錯(cuò)誤。該問題的本質(zhì)是:干凈樣本在經(jīng)過ID模型及目標(biāo)模型后,其隱層向量可能會(huì)偏移到目標(biāo)模型錯(cuò)誤的預(yù)測/分類分布空間中。

        為了更清楚地論述HIR訓(xùn)練數(shù)據(jù)的思想,引入如下助記符及定理。

        圖3 干凈樣本與對(duì)抗樣本隱層向量凸包示意圖,其內(nèi)部的向量是xh和x′h的線性組合

        HIR模型希望使P1和P2分布內(nèi)的數(shù)據(jù)均能處于分類器能夠正確分類的空間P1中。因此,為了使無法被正確分類的數(shù)據(jù)(處于P2空間中)能夠被HIR模型恢復(fù),定義HIR的P2交叉熵?fù)p失函數(shù)如下:

        (3)

        其中,Hπ(·)為HIR模型的映射函數(shù)。

        同理,為了維持正確分類的數(shù)據(jù)(處于P1空間中),定義HIR的P1損失函數(shù)如下:

        LP1=-∑ylogg(Hπ(xhi)) 。

        (4)

        為保證訓(xùn)練得到的HIR模型能夠使P1、P2中的數(shù)據(jù)均處于正確的分布空間中,定義訓(xùn)練HIR模型的損失函數(shù)如下所示:

        LHIR=LP1+LP2。

        (5)

        (6)

        3 實(shí)驗(yàn)結(jié)果及分析

        3.1 實(shí)驗(yàn)環(huán)境與模型超參及度量標(biāo)準(zhǔn)

        (1)實(shí)驗(yàn)環(huán)境與模型超參設(shè)置

        實(shí)驗(yàn)環(huán)境為:Intel(R)Xeon(R)Gold 5115 CPU @2.40 GHz,97 GB RAM,NVIDIA Tesla P40 22 GB GPU。文中算法ID+HIR及對(duì)比基準(zhǔn)算法均基于Python 3.7實(shí)現(xiàn),并在Pytorch 1.6.0下進(jìn)行了測試。中文算法模型所設(shè)置的超參為:學(xué)習(xí)率λ=η=0.01,訓(xùn)練次數(shù)T=50,優(yōu)化器選擇Adam。實(shí)驗(yàn)對(duì)比的基準(zhǔn)算法的模型超參嚴(yán)格遵循論文原文的超參設(shè)置。

        (2)對(duì)抗防御性能度量標(biāo)準(zhǔn)

        在對(duì)抗學(xué)習(xí)領(lǐng)域,通常用兩個(gè)性能指標(biāo)來衡量一個(gè)防御算法的優(yōu)劣。第1個(gè)指標(biāo)為添加防御算法后目標(biāo)模型對(duì)原始干凈樣本的分類/預(yù)測準(zhǔn)確率;第2個(gè)指標(biāo)為防御算法對(duì)目標(biāo)模型魯棒性的提升,即目標(biāo)模型分類/預(yù)測準(zhǔn)確率的提升程度。筆者亦采用上述兩個(gè)通用的度量標(biāo)準(zhǔn)來衡量本文算法及對(duì)比算法的對(duì)抗防御性能。

        3.2 數(shù)據(jù)集

        實(shí)驗(yàn)采用CIFAR-10、CIFAR-100、MNIST和SVNH標(biāo)準(zhǔn)數(shù)據(jù)集。CIFAR-10數(shù)據(jù)集是一個(gè)用于識(shí)別普適物體的小型數(shù)據(jù)集,由10個(gè)類別的32×32彩色圖像組成,共60 000張。CIFAR-100數(shù)據(jù)集是基于CIFAR-10的擴(kuò)展,共有100個(gè)類別,顏色尺寸與CIFAR-10的相同。MNIST數(shù)據(jù)集由70 000張28×28的手寫數(shù)字的灰度圖片組成。SVNH數(shù)據(jù)集來源于谷歌街景門牌號(hào)碼圖片,每張圖片尺寸為32×32的RBG圖片。

        3.3 ID+HIR在CIFAR-10和CIFAR-100數(shù)據(jù)集上的對(duì)抗魯棒性

        首先,將CIFAR-10、CIFAR-100數(shù)據(jù)集以5∶1的比例劃分為訓(xùn)練集和測試集,分別在ResNet56模型[24],采用FGSM[25]、CW[26]、BIM[27]攻擊算法制作了3種不同類別的對(duì)抗樣本,分別簡記為FGSM/CW/BIM(對(duì)抗樣本)。其中,對(duì)抗擾動(dòng)閾值ε分別為4、8、16,ε表示p范數(shù)的對(duì)抗擾動(dòng)閾值δ的上限,即‖δ‖p≤ε。

        ID+HIR算法的訓(xùn)練數(shù)據(jù)為訓(xùn)練集的3種對(duì)抗樣本的集合。測試數(shù)據(jù)為測試集下的各種對(duì)抗樣本以及干凈樣本。目標(biāo)模型采用典型的卷積神經(jīng)網(wǎng)絡(luò)模型VGG16[28]和ResNet18[24]。另外,對(duì)比算法中額外增加了Fast AT[29]算法,該算法是一種對(duì)抗訓(xùn)練算法,以驗(yàn)證文中算法在分類精度和魯棒性上優(yōu)于該對(duì)抗訓(xùn)練算法。實(shí)驗(yàn)結(jié)果如表1所示。

        表1 ID+HIR算法在CIFAR-10較小圖像數(shù)據(jù)集對(duì)抗魯棒性對(duì)比結(jié)果 %

        表1的實(shí)驗(yàn)結(jié)果表明,在CIFAR-10數(shù)據(jù)集上,筆者提出的ID+HIR算法在目標(biāo)模型VGG16與ResNet18上展現(xiàn)了近似的對(duì)抗魯棒性,且具有以下3種特性:

        (1)目標(biāo)模型(VGG16和ResNet18模型)在不采取任何防御手段的場景下,有較差的對(duì)抗魯棒性;而當(dāng)使用文中的ID+HIR防御算法加入到目標(biāo)模型后,其目標(biāo)模型均對(duì)對(duì)抗樣本有較高的分類精度。

        (2)ID+HID算法對(duì)原始樣本的識(shí)別精度為91.2%和92.1%,雖然相比無防御場景下目標(biāo)模型對(duì)干凈樣本92.6%和93.2%的分類精度有所降低,但是相比其他的對(duì)抗樣本去噪類算法,如ComDefend算法對(duì)干凈樣本的分類精度為85.2%,文中算法均有著較大的精度提升,且它在各種對(duì)抗樣本上的分類精度也遠(yuǎn)高于ComDefend等去噪算法。

        (3)在ResNet18模型上,ID+HIR算法對(duì)原始樣本識(shí)別精度略低于FS算法,但是FS算法對(duì)FGSM、CW和BIM等對(duì)抗樣本展現(xiàn)出的對(duì)抗魯棒性均大幅度低于文中算法。JPEG-Compression、TVM等算法同樣在干凈樣本和對(duì)抗樣本上的分類精度低于本文算法。本實(shí)驗(yàn)選擇的對(duì)抗訓(xùn)練類算法Fast AT在面對(duì)BIM對(duì)抗樣本時(shí)略優(yōu)于文中算法,其原因在于BIM算法是一種迭代攻擊的算法,對(duì)模型具有更強(qiáng)的干擾性,對(duì)抗訓(xùn)練算法在訓(xùn)練模型時(shí)直接更新目標(biāo)模型的參數(shù),具有更好的適應(yīng)能力,但是在面對(duì)FGSM和CW對(duì)抗樣本時(shí),ID+HIR算法具有更好的性能。

        表2的實(shí)驗(yàn)結(jié)果表明:在CIFAR-10數(shù)0據(jù)集上,筆者提出的IHD算法在VGG16模型與ResNet18模型上展現(xiàn)了近似的對(duì)抗魯棒性。從上述實(shí)驗(yàn)結(jié)果得出以下結(jié)論:

        表2 ID+HIR算法在CIFAR-100數(shù)據(jù)集上的對(duì)抗魯棒性對(duì)比結(jié)果表 %

        在CIFAR-100數(shù)據(jù)集上,VGG16和ResNet18模型均有著類似于CIFAR-10數(shù)據(jù)集上的效果,IHD算法面對(duì)各類對(duì)抗樣本時(shí),分類精度均強(qiáng)于其他的去噪算法,證明了IHD算法在面臨類別數(shù)為100的更多分類的問題時(shí),仍能展現(xiàn)出更優(yōu)的對(duì)抗魯棒性。

        上述實(shí)驗(yàn)結(jié)果充分表明,筆者所提出的ID+HIR算法不僅能在小尺寸圖像數(shù)據(jù)集上(CIFAR-10和CIFAR-100)表現(xiàn)出較好的去噪性能,在很大程度上去除對(duì)抗樣本上的擾動(dòng)信息,而且能維持目標(biāo)模型對(duì)原始干凈樣本的分類精度。這充分證明了文中算法的有效性及在各種數(shù)據(jù)集上良好的普適性。

        3.4 ID+HIR的消融實(shí)驗(yàn)

        為進(jìn)一步測試與驗(yàn)證筆者提出的ID+HIR對(duì)干凈樣本的受損信息的恢復(fù)能力,故進(jìn)行了消融實(shí)驗(yàn),即移除該算法中的HIR模型以測試目標(biāo)模型的性能,并與完整的ID+HIR算法進(jìn)行性能對(duì)比。同時(shí),為了驗(yàn)證算法的ID模型在面對(duì)高擾動(dòng)對(duì)抗樣本訓(xùn)練時(shí),會(huì)加劇對(duì)干凈樣本的損失,本實(shí)驗(yàn)對(duì)防御模型的訓(xùn)練在具有不同擾動(dòng)的對(duì)抗樣本下獨(dú)立訓(xùn)練,并驗(yàn)證模型的對(duì)抗魯棒性以及對(duì)干凈樣本的魯棒性。ID+HIR消融實(shí)驗(yàn)結(jié)果均表明了ID及HIR模型的有效性及正確性。

        訓(xùn)練數(shù)據(jù)為對(duì)抗擾動(dòng)閾值ε分別采用4、8、16的FGSM和CW對(duì)抗樣本,目標(biāo)模型選擇ResNet56模型。該模型對(duì)CIFAR-10干凈樣本的識(shí)別精度為92.6%,對(duì)SVHN的識(shí)別精度為96.5%。針對(duì)MNIST數(shù)據(jù)集選擇具有4層卷積層的卷積神經(jīng)網(wǎng)絡(luò),識(shí)別精度為99.1%。目標(biāo)模型對(duì)對(duì)抗樣本的識(shí)別精度以及兩種防御場景下的實(shí)驗(yàn)結(jié)果如表3所示。

        表3 HIR模型消融實(shí)驗(yàn)結(jié)果表 %

        表3實(shí)驗(yàn)結(jié)果表明:

        (1)在CIFAR-10數(shù)據(jù)集中,在僅使用ID模型做對(duì)抗防御的情況下,均能大幅提升模型對(duì)對(duì)抗樣本的識(shí)別精度,說明ID模型有效地去除了對(duì)抗樣本上的擾動(dòng)噪聲;

        (2)選用CW作為訓(xùn)練數(shù)據(jù)時(shí),可以看到本文算法下目標(biāo)模型對(duì)對(duì)抗樣本識(shí)別精度為90.0%,而ID為73.2%,證明了HIR模型在隱層的凸包訓(xùn)練方式同時(shí)可以有效地將對(duì)抗樣本的隱層向量拉回到分類器所能正確識(shí)別的空間中;

        (3)在SVHN數(shù)據(jù)集上的實(shí)驗(yàn),有著和CIFAR-10數(shù)據(jù)集相似的特點(diǎn),但是針對(duì)該數(shù)據(jù)集訓(xùn)練得到的模型在對(duì)抗樣本上均有著比CIFAR-10更高的精度。通過MNIST數(shù)據(jù)集上的實(shí)驗(yàn)可以發(fā)現(xiàn),在本文ID+HIR算法防御下,目標(biāo)模型對(duì)對(duì)抗樣本的識(shí)別精度維持在98.7%,與之前的99.2%相差無幾,證明HIR防御模型幾乎不影響模型的分類精度。

        4 結(jié)束語

        防御對(duì)抗樣本的攻擊,是當(dāng)前深度模型面臨的一個(gè)嚴(yán)峻挑戰(zhàn)性難題。針對(duì)現(xiàn)有對(duì)抗樣本去噪算法損失干凈樣本信息,導(dǎo)致目標(biāo)模型預(yù)測/分類精度下降的缺陷,基于增強(qiáng)型輸入去噪模型ID,以及基于凸包理論所構(gòu)建的隱層有損失信息恢復(fù)器HIR,筆者提出了一種新的高效深度對(duì)抗樣本攻擊防御算法ID+HIR。在多個(gè)基準(zhǔn)數(shù)據(jù)集上的大量對(duì)比仿真實(shí)驗(yàn)表明,所提出的算法優(yōu)于當(dāng)前典型優(yōu)良的對(duì)抗樣本去噪算法。

        猜你喜歡
        分類深度模型
        一半模型
        分類算一算
        深度理解一元一次方程
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
        分類討論求坐標(biāo)
        深度觀察
        深度觀察
        深度觀察
        數(shù)據(jù)分析中的分類討論
        免费在线观看蜜桃视频| 亚洲AV日韩AV永久无码电影| 97福利视频| 欧美性受xxxx白人性爽| 久久人人爽人人爽人人av东京热| 精品久久久久久国产| 伊人色网站| 久久久亚洲日本精品一区| 中文字幕av永久免费在线| 一本色道久久亚洲综合| 18禁真人抽搐一进一出在线| 欧美成人三级一区二区在线观看| 白白色发布永久免费观看视频| 精品视频一区二区三区日本| 亚洲乱码一区二区三区在线观看 | 午夜视频在线观看视频在线播放| 米奇777四色精品人人爽| 欧美日韩精品福利在线观看| 国产av一区二区三区在线| 在线日本看片免费人成视久网| 亚洲av成人无码精品电影在线| 精品免费福利视频| 日韩精品有码中文字幕 | 免费成人在线电影| 亚洲免费观看| 亚洲免费看三级黄网站| 亚洲国产精品不卡av在线| 精品国产人妻一区二区三区| 巨熟乳波霸若妻在线播放| 午夜国产精品视频免费看电影| 一区二区三区亚洲视频 | 亚洲男人av天堂久久资源| 美女网站免费观看视频| 亚洲国产av导航第一福利网 | 国产精品亚洲一区二区在线观看| 人妻精品丝袜一区二区无码AV | 免费少妇a级毛片人成网| 亚洲精品亚洲人成在线下载 | 青青草亚洲视频社区在线播放观看| 人人妻人人澡人人爽人人精品97| 久久久久久久妓女精品免费影院|