亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        面向?qū)箻颖镜纳疃壬窠?jīng)網(wǎng)絡(luò)可解釋性分析

        2022-02-17 10:47:12董胤蓬
        自動化學(xué)報(bào) 2022年1期
        關(guān)鍵詞:語義深度特征

        董胤蓬 蘇 航 朱 軍

        深度神經(jīng)網(wǎng)絡(luò)(Deep neural networks,DNNs)[1]由于在語音識別、圖像分類、自然語言處理等諸多領(lǐng)域取得了很好的效果,近年來獲得了人們的廣泛關(guān)注.但是由于缺乏對其內(nèi)部工作機(jī)理的理解與分析[2],深度神經(jīng)網(wǎng)絡(luò)通常被看作“黑盒”模型,導(dǎo)致用戶只能觀察模型的預(yù)測結(jié)果,而不能了解模型產(chǎn)生決策的原因.深度神經(jīng)網(wǎng)絡(luò)的不可解釋性也會極大地限制其發(fā)展與應(yīng)用.例如,在諸如醫(yī)療、自動駕駛等許多實(shí)際的應(yīng)用場景中,僅僅向用戶提供最終的預(yù)測結(jié)果而不解釋其原因并不能夠滿足用戶的需求.用戶需要獲取模型產(chǎn)生決策的原因來理解、認(rèn)可、信任一個(gè)模型,并在模型出錯(cuò)時(shí)修復(fù)模型的問題.因此,研究提升模型可解釋性的學(xué)習(xí)算法、使用戶可以理解信任模型、并與模型進(jìn)行交互變得至關(guān)重要.

        近些年來,有很多的方法嘗試去解決深度神經(jīng)網(wǎng)絡(luò)的可解釋性問題.例如,一個(gè)模型對于圖像的分類結(jié)果可以歸因于圖像的關(guān)鍵性區(qū)域[3]或者其他類似圖像[4].同時(shí),一系列的工作研究如何可視化深度神經(jīng)網(wǎng)絡(luò)內(nèi)部神經(jīng)元學(xué)習(xí)到的特征[5?8].但是這些方法存在以下幾個(gè)問題:1)它們通常是在模型訓(xùn)練結(jié)束后進(jìn)行解釋,并不能在訓(xùn)練的過程中約束其學(xué)習(xí)到一個(gè)可解釋的模型;2)它們僅僅關(guān)注模型對于正常樣本的預(yù)測進(jìn)行解釋與分析,而忽視了模型在現(xiàn)實(shí)場景中可能遇到的對抗樣本(Adversarial examples)[9?14];3)它們并沒有解釋模型發(fā)生錯(cuò)誤的原因,也不能讓用戶針對性地修復(fù)模型的問題.

        本文針對圖像分類任務(wù),利用對抗樣本檢驗(yàn)深度神經(jīng)網(wǎng)絡(luò)的內(nèi)部特征表示.對抗樣本是指攻擊者通過向真實(shí)樣本(Real examples)中添加微小的、人眼不可察覺的擾動,導(dǎo)致模型發(fā)生預(yù)測錯(cuò)誤的樣本.真實(shí)樣本和對抗樣本可以從正反兩方面研究深度神經(jīng)網(wǎng)絡(luò)的行為,既可以通過真實(shí)樣本分析模型產(chǎn)生正確預(yù)測的原因,同時(shí)也可以通過對抗樣本分析模型發(fā)生錯(cuò)誤的原因,以深入探究深度神經(jīng)網(wǎng)絡(luò)的運(yùn)行機(jī)制.雖然利用模型預(yù)測錯(cuò)誤的真實(shí)樣本分析其產(chǎn)生錯(cuò)誤的原因也是一種可行的方法,但是真實(shí)樣本中發(fā)生的錯(cuò)誤往往是比較小的錯(cuò)誤,相比于對抗樣本的預(yù)測錯(cuò)誤可以忽略不計(jì).例如,模型可能會將一個(gè)真實(shí)的公交車圖片錯(cuò)分為客車,這種錯(cuò)誤可以被接受;然而如果模型將一個(gè)對抗的公交車圖片錯(cuò)分為飛機(jī),則不能夠被我們所接受.通過將對抗樣本與真實(shí)樣本輸入到深度神經(jīng)網(wǎng)絡(luò)中并檢驗(yàn)其特征表示,我們發(fā)現(xiàn)深度神經(jīng)網(wǎng)絡(luò)內(nèi)部學(xué)習(xí)到的特征表示與人類所理解的語義概念之間存在著極大的不一致性.如圖1 所示,神經(jīng)元學(xué)習(xí)到的特征通常用對其產(chǎn)生強(qiáng)響應(yīng)的樣本所表示[8].當(dāng)只使用真實(shí)樣本時(shí),神經(jīng)元會檢測某種語義概念.但是會存在其他的樣本 (例如藍(lán)色圓圈標(biāo)記的對抗樣本) 也對神經(jīng)元產(chǎn)生很強(qiáng)的響應(yīng),盡管這些樣本的語義概念十分不一致.這使得神經(jīng)元學(xué)習(xí)得到的特征難以解釋.

        圖1 語義概念與神經(jīng)元學(xué)習(xí)到的特征存在不一致性的示意圖Fig.1 Demonstration of the inconsistency between a semantic concept and the learned features of a neuron

        基于以上的分析,本文進(jìn)一步提出了加入特征表示一致性損失的對抗訓(xùn)練方式(Adversarial training with a consistent loss),其目標(biāo)是在模型的訓(xùn)練過程中學(xué)習(xí)到人類可解釋的特征表示.通過加入對抗樣本與真實(shí)樣本特征表示的距離作為一致性損失函數(shù)訓(xùn)練深度神經(jīng)網(wǎng)絡(luò),可以使網(wǎng)絡(luò)在特征層面上消除掉對抗噪聲的干擾,使其對于對抗樣本的特征表示與真實(shí)樣本的特征表示盡量接近.如圖1所示,對于深度神經(jīng)網(wǎng)絡(luò)內(nèi)部的某個(gè)神經(jīng)元,如果該神經(jīng)元檢測到的特征與人類所理解的語義概念不一致時(shí),意味著會存在藍(lán)色圓圈標(biāo)記的對抗樣本對其產(chǎn)生很強(qiáng)的響應(yīng).然而這些對抗樣本所對應(yīng)的真實(shí)樣本并不會對其產(chǎn)生很強(qiáng)的響應(yīng),這就導(dǎo)致了一致性損失很大.通過加入特征表示一致性的損失函數(shù),可以使得該神經(jīng)元學(xué)習(xí)到的特征與人類所理解的某個(gè)語義概念相關(guān)聯(lián)(如虛線所示).這個(gè)過程最終會使得深度神經(jīng)網(wǎng)絡(luò)內(nèi)部的神經(jīng)元學(xué)習(xí)到可以抵抗對抗噪聲干擾的特征,從而在某個(gè)語義概念出現(xiàn)時(shí)產(chǎn)生響應(yīng)、不出現(xiàn)時(shí)不產(chǎn)生響應(yīng).因此該方法可以提升深度神經(jīng)網(wǎng)絡(luò)的可解釋性.實(shí)驗(yàn)結(jié)果表明在一些可解釋性度量標(biāo)準(zhǔn)下,該訓(xùn)練方式可以使深度神經(jīng)網(wǎng)絡(luò)內(nèi)部的特征表示與人類所理解的語義概念更加一致,得到可解釋性更好的深度神經(jīng)網(wǎng)絡(luò).

        本文的主要貢獻(xiàn)有:1)提出利用對抗樣本分析深度神經(jīng)網(wǎng)絡(luò)的可解釋性,并發(fā)現(xiàn)神經(jīng)元學(xué)習(xí)到的特征表示與人類所理解的語義概念之間存在不一致性;2)提出了加入特征表示一致性損失的對抗訓(xùn)練方式,可以極大地促進(jìn)深度神經(jīng)網(wǎng)絡(luò)的可解釋性.

        1 相關(guān)工作

        本節(jié)將介紹深度神經(jīng)網(wǎng)絡(luò)的可解釋性、對抗樣本與對抗訓(xùn)練的相關(guān)工作.

        1.1 深度神經(jīng)網(wǎng)絡(luò)的可解釋性

        近年來有很多工作研究深度神經(jīng)網(wǎng)絡(luò)的可解釋性.深度神經(jīng)網(wǎng)絡(luò)內(nèi)部的神經(jīng)元可以被解釋為物體或者物體組成部分的檢測器.例如,神經(jīng)元響應(yīng)最大化(Activation maximization)[8]通過找到對某個(gè)神經(jīng)元產(chǎn)生響應(yīng)最強(qiáng)的一組圖片代表其學(xué)習(xí)的特征.包含反卷積神經(jīng)網(wǎng)絡(luò)在內(nèi)的一些基于梯度的算法[5?6]通過將模型的響應(yīng)反向傳播到輸入空間中,并通過對其顯著區(qū)域可視化解釋模型的預(yù)測.Bau 等[15]提出通過比較神經(jīng)元學(xué)習(xí)到的特征與語義概念之間一致性以度量深度神經(jīng)網(wǎng)絡(luò)的可解釋性.此外,模型的預(yù)測還可以通過影響力函數(shù)(Influence function)[4]或者解釋圖模型(Explanatory graph)[16]等方式產(chǎn)生解釋.此外,還有許多方法在模型的訓(xùn)練過程中提升其可解釋性.例如,從文本中提取出的語義主題可以通過可解釋性損失(Interpretive loss)[17]的方式加入到模型的訓(xùn)練中.上下文相關(guān)可解釋網(wǎng)絡(luò)(Contexture explanation networks)[18]在預(yù)測的同時(shí)學(xué)習(xí)產(chǎn)生相應(yīng)的解釋.膠囊網(wǎng)絡(luò)(Capsule networks)[19]將一組神經(jīng)元作為一個(gè)膠囊用于表示某個(gè)語義概念.

        盡管現(xiàn)有很多方法展示出深度神經(jīng)網(wǎng)絡(luò)內(nèi)部的神經(jīng)元學(xué)習(xí)到的特征可以與人類所理解的語義概念相關(guān)聯(lián),這些工作僅僅是利用真實(shí)數(shù)據(jù)進(jìn)行分析.本文通過對抗樣本分析深度神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)的特征表示,發(fā)現(xiàn)了與之前的一些結(jié)論不一致的現(xiàn)象.

        1.2 對抗樣本與對抗訓(xùn)練

        攻擊者向真實(shí)樣本中添加微小的、人眼不可察覺的擾動,可以構(gòu)造出使得模型發(fā)生預(yù)測錯(cuò)誤的對抗樣本[9?14].基于模型預(yù)測錯(cuò)誤的不同表現(xiàn)形式,對抗樣本可以分為兩類.第1 類稱為無目標(biāo)的對抗樣本,它們可以讓模型將其錯(cuò)誤地預(yù)測為真實(shí)類別以外的任意類別.第2 類稱為有目標(biāo)的對抗樣本,它們會被模型錯(cuò)分為攻擊者所指定的目標(biāo)類別,以達(dá)到攻擊者的特定目的.給定一個(gè)真實(shí)樣本x,其真實(shí)類別為y.同時(shí)給定一個(gè)基于深度神經(jīng)網(wǎng)絡(luò)的分類器fθ(·),其中θ代表分類器的參數(shù).一個(gè)對抗樣本x?通常會在真實(shí)樣本x的鄰域內(nèi)進(jìn)行尋找,使得x?看起來與x沒有任何差別,但是會被模型錯(cuò)分.通常情況下,一個(gè)無目標(biāo)的對抗樣本通過最大化網(wǎng)絡(luò)的損失函數(shù)L(fθ(x?),y) 產(chǎn)生,可以使得fθ(x?),其中L是分類網(wǎng)絡(luò)通常使用的交叉信息熵?fù)p失函數(shù)(Cross-entropy loss).而有目標(biāo)的對抗樣本通過最小化網(wǎng)絡(luò)的損失函數(shù)L(fθ(x?),y?) 產(chǎn)生,使網(wǎng)絡(luò)將其錯(cuò)分為目標(biāo)類別y?,即fθ(x?)=y?.

        有很多的攻擊方法可以解決上述的優(yōu)化問題,以產(chǎn)生對抗樣本.其中快速梯度符號法(Fast gradient sign method,FGSM)[10]通過一步梯度迭代產(chǎn)生對抗樣本.對于無目標(biāo)對抗攻擊,FGSM 可以表示為

        其中,?是擾動的噪聲規(guī)模.FGSM 首先計(jì)算損失函數(shù)對于輸入的梯度,然后取梯度的符號將其歸一化,并乘以擾動規(guī)模?,可以使得對抗樣本與真實(shí)樣本的距離滿足∥x??x∥∞≤?.基于FGSM,基礎(chǔ)迭代法(Basic iterative method,BIM)[11]通過多步梯度迭代,可以產(chǎn)生攻擊效果更好的對抗樣本.基于優(yōu)化的方法[12]直接求解

        其中,第1 項(xiàng)減小對抗樣本與真實(shí)樣本的?2距離,第2 項(xiàng)最大化網(wǎng)絡(luò)的損失函數(shù),λ是一個(gè)超參數(shù).上述的幾種攻擊方法可以簡單地?cái)U(kuò)展到有目標(biāo)攻擊上,通過將式(1)和式(2)中的損失函數(shù)L(fθ(x?),y)替換成?L(fθ(x?),y?) 即可.

        由于對抗樣本對于深度神經(jīng)網(wǎng)絡(luò)所帶來的安全隱患,有很多的防御方法期望抵抗對抗樣本的干擾,得到更加魯棒的模型.在這些防御方法中,對抗訓(xùn)練(Adversarial training)[10,20?23]是一類典型且有效的算法.對抗訓(xùn)練通過將對抗樣本加入到訓(xùn)練過程中更新模型參數(shù),使其可以抵抗對抗樣本的影響.具體地,對抗訓(xùn)練可以被定義為一個(gè)最小最大化問題

        其中,D是數(shù)據(jù)分布,S(x)是所允許的對抗樣本區(qū)域.上式中的內(nèi)層最大化問題通常通過攻擊算法產(chǎn)生的對抗樣本近似,而外層最小化問題將對抗樣本作為訓(xùn)練數(shù)據(jù)得到更加魯棒的模型.

        本文說明了對抗樣本以及對抗訓(xùn)練對于深度神經(jīng)網(wǎng)絡(luò)可解釋性分析的作用.我們通過對抗樣本分析深度神經(jīng)網(wǎng)絡(luò)的特征表示,并利用加入特征表示一致性損失的對抗訓(xùn)練方式提升網(wǎng)絡(luò)的可解釋性.

        2 面向?qū)箻颖镜目山忉屝苑治?/h2>

        先前的工作認(rèn)為深度神經(jīng)網(wǎng)絡(luò)可以學(xué)習(xí)到對于圖像內(nèi)容的解耦的特征表示[6,8],即其中的神經(jīng)元會檢測人類所理解的語義概念,從而使整體的特征表示可以解釋.然而,在本節(jié)中展示了可以檢測語義概念(例如物體或者物理組成部分)的神經(jīng)元可以很輕易地被對抗樣本所欺騙,展現(xiàn)出神經(jīng)元學(xué)習(xí)到的特征和語義概念之間的不一致性.

        為了檢驗(yàn)深度神經(jīng)網(wǎng)絡(luò)面對對抗樣本時(shí)的特征表示,我們首先利用基于優(yōu)化的對抗攻擊算法產(chǎn)生有目標(biāo)的對抗樣本.需要注意的是本節(jié)所展示的實(shí)驗(yàn)結(jié)果并不僅僅局限于所采用的攻擊算法.與式(2)類似,通過求解以下的優(yōu)化問題可以產(chǎn)生一個(gè)有目標(biāo)的對抗樣本x?

        給定對抗樣本x?和與之對應(yīng)的真實(shí)樣本x,我們將它們輸入到深度神經(jīng)網(wǎng)絡(luò)中,并通過神經(jīng)元響應(yīng)最大化算法(Activation maximization)[8]檢驗(yàn)其特征表示.該方法對于每個(gè)神經(jīng)元,找到對其產(chǎn)生響應(yīng)最強(qiáng)的一組圖片代表該神經(jīng)元學(xué)習(xí)到的特征,可以對其學(xué)習(xí)的特征進(jìn)行可視化.

        圖2 中展示了VGG-16[24]網(wǎng)絡(luò)中某些神經(jīng)元學(xué)習(xí)到的特征的可視化結(jié)果.對于每個(gè)神經(jīng)元,我們選取了對其產(chǎn)生響應(yīng)最強(qiáng)的8 幅真實(shí)圖片和8 幅對抗圖片代表其學(xué)習(xí)到的特征.對于這些選取的圖片,我們利用差異圖(Discrepancy map)[8]觀測其中顯著的區(qū)域,可以更好地發(fā)現(xiàn)神經(jīng)元檢測的特征的語義概念.從圖中可以看出,對每個(gè)神經(jīng)元產(chǎn)生響應(yīng)較強(qiáng)的真實(shí)圖片中具有明確的語義概念.比如圖2 (d)中展示了對第147 個(gè)神經(jīng)元產(chǎn)生響應(yīng)最強(qiáng)的8 幅真實(shí)圖片都是鳥的圖片,而高亮區(qū)域顯示出鳥頭的特征,所以此神經(jīng)元可以被解釋為鳥頭的檢測器,這個(gè)結(jié)果也與之前的研究結(jié)論一致.這樣的現(xiàn)象對其他的神經(jīng)元和模型同樣成立,可以看出真實(shí)圖片中的語義概念具有很好的一致性,其共同的語義概念可以解釋神經(jīng)元學(xué)習(xí)到的特征.然而僅僅對真實(shí)圖片進(jìn)行分析并不能完全了解神經(jīng)元真正的行為,通過下面的分析將會發(fā)現(xiàn),神經(jīng)元并不具備檢測輸入圖像中語義信息的能力.

        從另一個(gè)方面進(jìn)行分析,可以發(fā)現(xiàn)對神經(jīng)元產(chǎn)生響應(yīng)較強(qiáng)的對抗圖片中的語義信息和真實(shí)圖片中的語義信息沒有任何關(guān)聯(lián).在圖2 中所展示的任何一個(gè)神經(jīng)元,對其產(chǎn)生響應(yīng)較強(qiáng)的對抗圖片中沒有共同的特征,也與通過真實(shí)圖片發(fā)現(xiàn)的神經(jīng)元的語義沒有任何關(guān)系.比如圖2 (d) 中的對抗圖片均沒有出現(xiàn)鳥,其中也沒有任何相似的特征.而包含鳥的對抗圖片反而沒有對此神經(jīng)元產(chǎn)生很強(qiáng)的響應(yīng).這與通過真實(shí)圖片得到的結(jié)論嚴(yán)重不符,即該神經(jīng)元對于對抗樣本并沒有檢測其學(xué)習(xí)到的特征.

        為了探究產(chǎn)生此現(xiàn)象的原因,我們通過進(jìn)一步分析神經(jīng)元的行為,發(fā)現(xiàn)了以下的現(xiàn)象:在圖2 中由方框框起來的對抗圖片會被模型誤分為與對應(yīng)的真實(shí)圖片中語義特征類似的類別.比如在圖2 (d)中,此神經(jīng)元檢測真實(shí)圖片中鳥的概念,而方框中的對抗圖片同樣被VGG-16 模型誤分為不同類別的鳥.因此,我們認(rèn)為神經(jīng)元并不具備檢測圖像中高層次語義信息(物體或者物體組成部分)的能力,而是會對模型預(yù)測為特定類別的圖片產(chǎn)生較強(qiáng)的響應(yīng),無論圖片中是否會出現(xiàn)與此類別相關(guān)的物體.后續(xù)的定量實(shí)驗(yàn)也會進(jìn)一步證明此結(jié)論.本文中的顯著區(qū)域可視化并不局限于所采用的響應(yīng)最大化和差異圖方法,其他類似方法也可以使用[25?26].

        圖2 VGG-16 網(wǎng)絡(luò)中神經(jīng)元(來自conv5_3 層)特征可視化Fig.2 The visualization results of the neuron (from the conv5_3 layer) features in VGG-16

        3 基于特征一致性的對抗訓(xùn)練

        基于以上的分析,我們在本節(jié)提出了加入特征表示一致性損失的對抗訓(xùn)練方式(Adversarial training with a consistent loss),可以在訓(xùn)練深度神經(jīng)網(wǎng)絡(luò)的過程中提升其學(xué)習(xí)的特征表示與人類所理解的語義概念之間的一致性.與之前的一些利用高層語義概念顯式地提升模型可解釋性的工作[17]不同,本節(jié)所提出的方法可以通過對抗訓(xùn)練的方式隱式地提升模型可解釋性.對抗訓(xùn)練通過指導(dǎo)深度神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)到對于對抗樣本和真實(shí)樣本更加接近的特征表示,去除掉噪聲對于其特征表示的干擾,從而使其內(nèi)部的神經(jīng)元在相關(guān)的語義概念出現(xiàn)時(shí)產(chǎn)生響應(yīng),而在語義概念不出現(xiàn)時(shí)不產(chǎn)生響應(yīng).這樣才能更好地解釋每個(gè)神經(jīng)元學(xué)習(xí)到的特征.

        為了達(dá)到上述的目標(biāo),我們引入特征表示一致性損失函數(shù),并將其加入到對抗訓(xùn)練的過程中.具體地,所提出的方法通過優(yōu)化以下的目標(biāo)函數(shù)訓(xùn)練深度神經(jīng)網(wǎng)絡(luò)的參數(shù)θ

        其中,第1 項(xiàng)為分類損失函數(shù),與式(3)類似地定義為

        第2 項(xiàng)為特征一致性損失,定義為

        其中,φθ(x) 返回網(wǎng)絡(luò)對于輸入x的特征表示向量,d為距離的度量函數(shù),用于計(jì)算對抗樣本與真實(shí)樣本特征表示之間的距離.我們選取平方歐幾里得距離(Squared Euclidean distance)作為d.

        為了求解訓(xùn)練目標(biāo)函數(shù)(5),需要首先求解內(nèi)層的最大化問題找到對抗樣本,進(jìn)而求解外層的最小化問題以訓(xùn)練網(wǎng)絡(luò)參數(shù).需要注意的是式(5)中包含兩個(gè)目標(biāo)函數(shù)Lcls(θ,x)與Lcon(θ,x),是兩個(gè)不同的最大化問題.故而需要求解兩個(gè)內(nèi)層最大化問題.為了簡化訓(xùn)練方式,我們僅僅求解Lcls(θ,x) 找到一個(gè)對抗樣本x?,然后利用x?作為Lcon(θ,x) 的一個(gè)近似解,而不再具體求解Lcon(θ,x) .為了最大化Lcls(θ,x),有很多對抗攻擊算法都可以使用.在本文中我們選取FGSM方法產(chǎn)生對抗樣本.具體地,針對式(6)中的最大化問題,我們首先采用式(1)中的方法產(chǎn)生對抗樣本xFGSM.除了在對抗樣本xFGSM處優(yōu)化網(wǎng)絡(luò)交叉信息熵?fù)p失函數(shù)外,我們還優(yōu)化在真實(shí)樣本x處的損失函數(shù),故而Lcls(θ,x) 具體表示為

        其中,α為一個(gè)超參數(shù),選取為0.5.Lcon(θ,x) 也通過產(chǎn)生的對抗樣本xFGSM定義特征層面的損失函數(shù)為

        最后將式(8) 和式(9) 中定義的Lcls(θ,x) 和Lcon(θ,x)代入式(5)中訓(xùn)練網(wǎng)絡(luò)的參數(shù)θ.訓(xùn)練算法選用通常訓(xùn)練深度神經(jīng)網(wǎng)絡(luò)的隨機(jī)梯度下降法(Stochastic gradient descent,SGD).

        本文所提出的加入特征表示一致性損失的對抗訓(xùn)練方式與基于高層特征指導(dǎo)的去噪器防御對抗樣本的方法[27]有一定的相似性.兩個(gè)方法都用到了深度神經(jīng)網(wǎng)絡(luò)特征表示一致性的損失函數(shù)作為訓(xùn)練目標(biāo).但是這兩個(gè)方法在目標(biāo)、訓(xùn)練方式、以及最終結(jié)果上存在很大的區(qū)別:1)我們的方法目標(biāo)是提升深度神經(jīng)網(wǎng)絡(luò)的可解釋性,高層特征指導(dǎo)的去噪器目標(biāo)是去除對抗樣本中的噪聲,提升模型魯棒性;2)我們利用對抗訓(xùn)練的方式訓(xùn)練模型,而高層特征指導(dǎo)的去噪器通過分類器的特征表示作為損失函數(shù)訓(xùn)練去噪器,而不更新分類器的參數(shù);3)在實(shí)驗(yàn)結(jié)果中,我們的方法可以提升深度神經(jīng)網(wǎng)絡(luò)的可解釋性,而高層特征指導(dǎo)的去噪器由于不更新模型的參數(shù),所以模型的可解釋性沒有任何改變.

        4 實(shí)驗(yàn)與分析

        本文在ImageNet[28]數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn).通過對抗樣本分析三個(gè)不同的深度神經(jīng)網(wǎng)絡(luò)的可解釋性,并利用提出的加入特征一致性損失的對抗訓(xùn)練方式提升這三個(gè)模型的可解釋性.實(shí)驗(yàn)結(jié)果證明了通過該方法訓(xùn)練得到的深度神經(jīng)網(wǎng)絡(luò)的特征與人類所理解的語義概念之間的一致性更好.

        4.1 實(shí)驗(yàn)設(shè)定

        本文選取AlexNet[29]、VGG-16[24]和ResNet-18[30]三個(gè)經(jīng)典的網(wǎng)絡(luò)結(jié)構(gòu)研究其可解釋性.對于正常訓(xùn)練的模型,我們采用預(yù)訓(xùn)練好的AlexNet 和VGG-16 模型,并重新訓(xùn)練了一個(gè)ResNet-18 模型.ResNet-18 通過隨機(jī)梯度下降進(jìn)行優(yōu)化,其中超參數(shù)設(shè)置為:動量為0.9,權(quán)重衰減項(xiàng)為 5×10?5,批大小為100,初始學(xué)習(xí)率為0.05,每當(dāng)模型損失函數(shù)在一段時(shí)間內(nèi)停止下降時(shí)將學(xué)習(xí)率減小10 倍.該模型總共訓(xùn)練了30 萬輪.ResNet-18 網(wǎng)絡(luò)中加入了批歸一化操作(Batch normalization)[31].由于對抗訓(xùn)練的計(jì)算成本過高,我們通過微調(diào)的方式在這些訓(xùn)練好的正常模型上進(jìn)行對抗訓(xùn)練.在對抗訓(xùn)練的過程中需要利用FGSM 算法生成對抗樣本,我們將擾動的規(guī)模設(shè)置為? ∈[4,16] .我們將對抗訓(xùn)練得到的三個(gè)同樣結(jié)構(gòu)的模型表示為AlexNet-Adv、VGG-16-Adv 和ResNet-18-Adv.

        在測試階段,我們選取兩個(gè)數(shù)據(jù)集用于測試.其中第1 個(gè)數(shù)據(jù)集是ImageNet 驗(yàn)證集,包含5 萬幅圖片.為了使用對抗樣本驗(yàn)證這些模型的可解釋性,我們利用Adam 優(yōu)化器求解式(4),其中Adam的步長設(shè)置為5,總共優(yōu)化10~ 20 輪.對于數(shù)據(jù)集中的每一幅真實(shí)圖片,為了產(chǎn)生有目標(biāo)的對抗樣本,我們將目標(biāo)類別設(shè)置為模型對真實(shí)圖片預(yù)測概率最小的類別,可以使得真實(shí)類別與目標(biāo)類別的差異更加明顯.需要注意的是對于每一個(gè)模型,我們都針對該模型產(chǎn)生對抗樣本.第2 個(gè)測試數(shù)據(jù)集是Broden[15]數(shù)據(jù)集,提供了對于圖片中語義概念的細(xì)粒度標(biāo)注,包括顏色、紋理、材質(zhì)、場景、物體部分和物體等.該數(shù)據(jù)集用于定量地衡量深度神經(jīng)網(wǎng)絡(luò)的可解釋性.對于該數(shù)據(jù)集,我們?nèi)匀徊捎们笆龅膶箻颖旧煞绞?給定這兩個(gè)數(shù)據(jù)集中的真實(shí)圖片和對其產(chǎn)生的對抗圖片,我們繼而定性以及定量地研究正常訓(xùn)練的模型和用我們所提出的算法訓(xùn)練的模型的可解釋性的優(yōu)劣.

        4.2 評估指標(biāo)

        本文采用兩個(gè)指標(biāo)衡量深度神經(jīng)網(wǎng)絡(luò)中神經(jīng)元學(xué)習(xí)的特征與語義概念之間的一致性.第1 個(gè)指標(biāo)是Bau 等[15]在2017 年提出的利用Broden 數(shù)據(jù)集計(jì)算的指標(biāo).該指標(biāo)計(jì)算神經(jīng)元學(xué)習(xí)到的特征與數(shù)據(jù)集標(biāo)注的語義概念之間的一致性以解釋神經(jīng)元的特征,并通過與不同層次語義概念相關(guān)聯(lián)的神經(jīng)元的數(shù)量或比例度量深度神經(jīng)網(wǎng)絡(luò)的可解釋性.具體來說,對于模型中的每一個(gè)神經(jīng)元,首先通過整個(gè)數(shù)據(jù)集得到該神經(jīng)元產(chǎn)生的響應(yīng)的分布,然后通過這些響應(yīng)值的上0.5%分位數(shù)確定一個(gè)閾值.該閾值用于掩膜每幅圖片對其產(chǎn)生的響應(yīng)值.然后將該神經(jīng)元特征的掩膜擴(kuò)展到圖片大小,得到一個(gè)分割掩膜.最后,該分割掩膜與數(shù)據(jù)集中包含的語義概念真實(shí)的分割掩膜計(jì)算交并比大小.如果交并比很大,就說明該神經(jīng)元產(chǎn)生響應(yīng)的區(qū)域與圖像中包含某種語義概念的區(qū)域重合度很高,可以認(rèn)為該神經(jīng)元檢測此種語義概念.雖然這個(gè)指標(biāo)可以得到每個(gè)神經(jīng)元檢測的語義概念,但是它需要包含各種語義概念分割結(jié)果的數(shù)據(jù)集,而對于ImageNet 這種僅僅包含圖片分類標(biāo)簽的數(shù)據(jù)集并不適用.因此我們提出了第2 個(gè)指標(biāo)用于衡量深度神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)的特征與語義概念的一致性.

        基于一些直觀的觀察,一般情況下低層次的語義信息(例如顏色、紋理)會在許多不同類別的圖片中出現(xiàn),而高層次的語義信息(例如物體或者物理組成部分) 僅僅會在一些特定類別的圖片中出現(xiàn).因此我們認(rèn)為,如果一個(gè)神經(jīng)元對某些特定類別的圖片產(chǎn)生較強(qiáng)的響應(yīng),那么它更有可能檢測高層次的語義信息;反之如果該神經(jīng)元對多種類別的圖片都產(chǎn)生很強(qiáng)的響應(yīng),那么它更有可能檢測低層次的語義信息.基于此觀察,我們通過計(jì)算對每個(gè)神經(jīng)元產(chǎn)生響應(yīng)較強(qiáng)的圖片中的語義信息的多樣性衡量該神經(jīng)元檢測語義信息的層次和一致性.

        具體地,對于一個(gè)神經(jīng)元ni,我們首先利用整個(gè)數(shù)據(jù)集計(jì)算其產(chǎn)生的響應(yīng),然后用前1%的圖片代表其學(xué)習(xí)的特征.我們令pi代表這些圖片的類別分布,即代表這些圖片中真實(shí)類別為j的圖片的比例,以指示該神經(jīng)元傾向于檢測的類別.為了計(jì)算這些圖片類別分別的多樣性,一個(gè)簡單的方式是用pi的熵作為衡量指標(biāo),但是該指標(biāo)忽視了類別之間的層次相關(guān)性.例如,相比于對貓和狗圖片都產(chǎn)生響應(yīng)的神經(jīng)元(其可能檢測動物皮毛),一個(gè)對不同類別的狗的圖片產(chǎn)生響應(yīng)的神經(jīng)元(其可能檢測狗臉)更有可能檢測更高層次的語義概念.

        為了解決上述問題,我們通過WordNet[22]將各個(gè)類別之間的語義相關(guān)性進(jìn)行度量.如圖3 所示,我們利用WordNet 樹結(jié)構(gòu)中不同類別的距離作為語義相關(guān)性的度量,具體計(jì)算方式為

        圖3 基于WordNet[32]衡量特征的層次與一致性示意Fig.3 Illustration for quantifying the level and consistency of features based on WordNet[32]

        其中,wl,wm是第l和第m個(gè)類別的單詞,d(wl,wm)為它們在WordNet 樹結(jié)構(gòu)中的距離.σ為一個(gè)超參數(shù),設(shè)置為1.基于每兩個(gè)類別的語義相關(guān)性cl,m,我們將其組合成類別相關(guān)性矩陣C=[cl,m] .從而,將神經(jīng)元ni檢測特征的層次和一致性定量地表示為

        LC值更高則代表神經(jīng)元檢測一個(gè)更高層次的語義概念或更關(guān)注于某些特定類別的圖片.

        除了真實(shí)圖片外,我們也關(guān)注對每個(gè)神經(jīng)元產(chǎn)生響應(yīng)最強(qiáng)的前1%的對抗圖片.對于每個(gè)神經(jīng)元,用p代表對其產(chǎn)生響應(yīng)最強(qiáng)的前1%真實(shí)圖片的類別分布,同時(shí)用q代表對其產(chǎn)生響應(yīng)最強(qiáng)的前1%對抗圖片的真實(shí)類別分布,并用代表對其產(chǎn)生響應(yīng)最強(qiáng)的前1% 對抗圖片的目標(biāo)類別分布.與式(11)中的定義類似,我們計(jì)算真實(shí)圖片語義概念與對抗圖片語義概念的相關(guān)性為

        其中,CS1衡量真實(shí)圖片和對抗圖片中內(nèi)容的相似度;CS2測量真實(shí)圖片類別和對抗圖片目標(biāo)類別的相似度.

        在極端情況下,CS1=1 意味著對抗圖片的真實(shí)類別與真實(shí)圖片的類別完全一致,說明神經(jīng)元對于對抗圖片與真實(shí)圖片均檢測一致的語義概念,則其可解釋性更好.另一方面,CS2=1 意味著對抗圖片的目標(biāo)類別與真實(shí)圖片的類別完全一致,而且內(nèi)容完全不相關(guān),說明該神經(jīng)元可解釋性很差.值得注意的是CS1和CS2不可能同時(shí)很高,這是因?yàn)閝和由于攻擊的存在差異明顯.

        4.3 實(shí)驗(yàn)結(jié)果

        1) 可視化結(jié)果.我們首先采用響應(yīng)最大化的方式觀測深度神經(jīng)網(wǎng)絡(luò)內(nèi)部神經(jīng)元學(xué)習(xí)到的特征.對于每個(gè)神經(jīng)元,在ImageNet 驗(yàn)證集中找到對其產(chǎn)生響應(yīng)最強(qiáng)的8 幅真實(shí)圖片和8 幅對抗圖片代表其學(xué)習(xí)到的特征.對于三個(gè)正常模型AlexNet,VGG-16 和ResNet-18 的可視化結(jié)果如圖4、圖2和圖5所示.正如在第2 節(jié)中所討論的,這些神經(jīng)元并不會對對抗樣本中相關(guān)的語義概念產(chǎn)生響應(yīng),而僅對于模型錯(cuò)分為相關(guān)類別的圖像產(chǎn)生響應(yīng),無論這些圖片中的語義概念是否相關(guān)聯(lián).類似地,我們展示對三個(gè)通過我們所提出的對抗訓(xùn)練方式得到的模型AlexNet-Adv、VGG-16-Adv 和 ResNet-18-Adv的可視化結(jié)果,如圖6~ 8 所示.通過對抗訓(xùn)練,我們發(fā)現(xiàn)對抗圖片和真實(shí)圖片中的語義概念十分接近,表明這些網(wǎng)絡(luò)中的神經(jīng)元更傾向于對語義概念產(chǎn)生響應(yīng).這就說明了通過我們所提出的對抗訓(xùn)練方式,模型內(nèi)部特征的可解釋性更強(qiáng),更容易被人類所理解.后續(xù)的定量實(shí)驗(yàn)也進(jìn)一步驗(yàn)證了此結(jié)論.

        圖4 AlexNet 網(wǎng)絡(luò)中神經(jīng)元(來自conv5 層)特征可視化Fig.4 The visualization results of the neuron (from the conv5 layer) features in AlexNet

        圖5 ResNet-18 網(wǎng)絡(luò)中神經(jīng)元(來自conv5b 層)特征可視化Fig.5 The visualization results of the neuron (from the conv5b layer) features in ResNet-18

        圖6 AlexNet-Adv 網(wǎng)絡(luò)中神經(jīng)元(來自conv5 層)特征可視化Fig.6 The visualization results of the neuron (from the conv5 layer) features in AlexNet-Adv

        2) 定量結(jié)果.對于Broden 數(shù)據(jù)集,我們計(jì)算每個(gè)模型中和各類語義概念相關(guān)的神經(jīng)元的比例,代表模型可解釋性的好壞.如果某個(gè)神經(jīng)元產(chǎn)生響應(yīng)的掩碼與一個(gè)語義概念的分割掩碼的交并比大于0.4,就認(rèn)為它是一個(gè)可解釋的神經(jīng)元.對于每個(gè)模型也同時(shí)計(jì)算該模型對于對抗圖片的可解釋神經(jīng)元的比例.表1 中展示了實(shí)驗(yàn)結(jié)果,共有 6 類不同的語義概念,分別為:顏色 (C)、紋理 (T)、材質(zhì) (M)、場景 (S)、物體組成部分 (P) 和物體 (O) .

        圖7 VGG-16-Adv 網(wǎng)絡(luò)中神經(jīng)元(來自conv5_3 層)特征可視化Fig.7 The visualization results of the neuron (from the conv5_3 layer) features in VGG-16-Adv

        圖8 ResNet-18-Adv 網(wǎng)絡(luò)中神經(jīng)元(來自conv5b 層)特征可視化Fig.8 The visualization results of the neuron (from the conv5b layer) features in ResNet-18-Adv

        從表1 的實(shí)驗(yàn)結(jié)果中可以看到,對于正常訓(xùn)練的模型,和高層次語義概念相關(guān)聯(lián)的神經(jīng)元在面向?qū)箻颖緯r(shí)會大幅度下降.這證實(shí)了這些神經(jīng)元學(xué)習(xí)到的特征與語義概念之間存在不一致性.另一方面,通過對抗訓(xùn)練得到的模型即使在對抗樣本存在時(shí)其中的神經(jīng)元也會和語義概念有很好的關(guān)聯(lián).這些結(jié)果也證明了利用本文提出的對抗訓(xùn)練方式可以提升深度神經(jīng)網(wǎng)絡(luò)特征表示與語義概念的一致性.

        在表1 中,我們還對比了不加入特征一致性損失的對抗訓(xùn)練方式[20]得到的模型,該模型是在Inception V3[33]結(jié)構(gòu)上訓(xùn)練得到,表示為Adv-Inc-v3.為了展示該方法對于模型可解釋性的提升,我們進(jìn)一步選取正常訓(xùn)練的Inception V3 模型進(jìn)行比較,表示為Inc-v3.從表1 可以看到,采用不加入一致性損失的對抗訓(xùn)練方式得到的模型相比于正常訓(xùn)練的模型也能得到更好的可解釋性,這與之前的研究發(fā)現(xiàn)[34]相符,其原因是魯棒的模型會更加依賴可解釋的特征進(jìn)行分類.然而,不加入特征表示一致性損失的對抗訓(xùn)練對于可解釋性的提升不如加入一致性損失的對抗訓(xùn)練明顯,這也說明了我們所提出方法的有效性.圖9 中也進(jìn)一步對Adv-Inc-v3 模型內(nèi)部的神經(jīng)元學(xué)習(xí)到的特征進(jìn)行了可視化.可以看到某些神經(jīng)元展示出了比較好的可解釋性,對其產(chǎn)生響應(yīng)較強(qiáng)的真實(shí)圖片與對抗圖片具有類似的語義概念,可以解釋該神經(jīng)元學(xué)習(xí)到的特征.但是也存在某些神經(jīng)元,如圖9(c) 所示,對其產(chǎn)生響應(yīng)最強(qiáng)的8 幅對抗圖片中包含了不屬于該語義概念的圖片.

        圖9 Adv-Inc-v3 網(wǎng)絡(luò)中神經(jīng)元(來自最后一層)特征可視化Fig.9 The visualization results of the neuron (from the last layer) features in Adv-Inc-v3

        表1 各個(gè)模型面對真實(shí)圖片和對抗圖片時(shí)其中與語義概念關(guān)聯(lián)的神經(jīng)元的比例(%)Table 1 The ratio (%) of neurons that align with semantic concepts for each model when showing real and adversarial images respectively

        此外,我們還進(jìn)一步對比了[15]中所發(fā)現(xiàn)的可解釋性更好的模型VGG-16-Place.相對于在ImageNet 數(shù)據(jù)集上訓(xùn)練的模型,該模型是在Place 數(shù)據(jù)集上訓(xùn)練得到,具有更好的可解釋性.從表1 可以看到,雖然對于真實(shí)圖片VGG-16-Place 模型可解釋性更好,但是當(dāng)對抗樣本存在時(shí)其可解釋性也會大幅下降.說明了該網(wǎng)絡(luò)中神經(jīng)元學(xué)習(xí)到的特征與語義概念之間也存在不一致性.也進(jìn)一步說明了利用加入特征表示一致性損失的對抗訓(xùn)練方式提升模型可解釋性的必要.

        對于ImageNet 驗(yàn)證集,圖 10 中展示了CS1和CS2隨LC變化的曲線,對于一個(gè)給定的LC值,計(jì)算在該LC值附近的所有神經(jīng)元的CS1和CS2的平均值,其中神經(jīng)元來自于所有卷積層.對于正常訓(xùn)練的模型,CS1隨著LC的增加而降低,這意味著面向真實(shí)圖片檢測高層次語義特征的神經(jīng)元對于對抗圖片并沒有檢測相似的語義概念.而CS2隨著LC的增加而增加,說明了這些神經(jīng)元只是對模型預(yù)測為某些類別的圖片產(chǎn)生較強(qiáng)的響應(yīng),而不考慮圖片中是否真正存在該類別的語義概念.另一方面對于對抗訓(xùn)練的模型,CS1保持在很高的值,說明模型中的神經(jīng)元對真實(shí)圖片和對抗圖片中的類似語義產(chǎn)生較強(qiáng)響應(yīng),證明了該方法可以提升模型中神經(jīng)元學(xué)習(xí)的特征表示與語義概念的一致性,提升了模型的可解釋性.

        圖10 CS1 和CS2 隨LC 的變化曲線Fig.10 The curves of CS1 and CS2 along with LC

        3) 模型性能.表2 中展示了在本文中所采用的模型在ImageNet 驗(yàn)證集及對其采用FGSM 方法產(chǎn)生的對抗樣本的分類準(zhǔn)確率結(jié)果.可以看到經(jīng)過對抗訓(xùn)練,模型的準(zhǔn)確率會下降1%~ 5%左右,但是也可以提升模型對于攻擊的魯棒性.我們認(rèn)為對抗訓(xùn)練方式可以在模型準(zhǔn)確率和模型可解釋性以及魯棒性之間做出平衡.

        表2 各個(gè)模型在ImageNet 驗(yàn)證集及對于FGSM 攻擊的準(zhǔn)確率(%) (擾動規(guī)模為 ?=4)Table 2 Accuracy (%) on the ImageNet validation set and adversarial examples generated by FGSM with ?=4

        5 結(jié)論

        本文利用對抗樣本從模型錯(cuò)誤的角度檢驗(yàn)深度神經(jīng)網(wǎng)絡(luò)的的特征表示,并發(fā)現(xiàn)其中神經(jīng)元學(xué)習(xí)到的特征與人類所理解語義概念存在不一致性.為了解決此問題以提升深度神經(jīng)網(wǎng)絡(luò)的可解釋性,本文提出了加入特征表示一致性的對抗訓(xùn)練方式.實(shí)驗(yàn)結(jié)果證實(shí)了該訓(xùn)練方法可以有效地提升神經(jīng)元學(xué)習(xí)的特征與語義概念之間的一致性,得到可解釋性更好的深度神經(jīng)網(wǎng)絡(luò).

        猜你喜歡
        語義深度特征
        深度理解一元一次方程
        語言與語義
        如何表達(dá)“特征”
        不忠誠的四個(gè)特征
        深度觀察
        深度觀察
        深度觀察
        抓住特征巧觀察
        “上”與“下”語義的不對稱性及其認(rèn)知闡釋
        認(rèn)知范疇模糊與語義模糊
        久久国产精品精品国产色婷婷| 久久熟女少妇一区二区三区| 国产老熟女精品一区二区| 精品伊人久久大线蕉色首页| 99久久久无码国产精品试看| 日本专区一区二区三区| 在线女同免费观看网站| 欧美怡春院一区二区三区 | 青青草原综合久久大伊人| 久久久久亚洲AV无码专区喷| 青青草视频在线观看视频免费| 偷拍偷窥女厕一区二区视频| 亚洲综合国产一区二区三区| 国产日产精品久久久久久| 在线看片免费人成视久网不卡| 97精品一区二区三区| 又大又粗又爽的少妇免费视频| 国产精品久久码一区二区| 亚洲精品成人久久av| 麻豆文化传媒精品一区观看| 伊人久久大香线蕉av一区| 亚洲欧洲日韩免费无码h| 亚洲综合伊人久久综合| 中文字幕有码无码人妻av蜜桃| а√天堂资源8在线官网在线 | 久久久亚洲av成人网站 | 中文字幕一区二区三区人妻精品 | 国产成人无码精品久久久露脸| 一卡二卡三卡视频| 日产精品一区二区免费| 97成人精品视频在线| 亚洲日产精品一二三四区| 午夜无码一区二区三区在线| 日本女优爱爱中文字幕| 野花香社区在线视频观看播放| 日本老熟欧美老熟妇| 97久久成人国产精品免费| 97成人精品视频在线| 午夜无码国产理论在线| 蜜桃在线播放免费一区二区三区| 亚洲国产av综合一区|