亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于隱寫噪聲深度提取的JPEG圖像隱寫分析

        2023-09-07 08:47:52范文同李震宇羅向陽(yáng)
        關(guān)鍵詞:分類深度特征

        范文同,李震宇,張 濤,羅向陽(yáng)

        (1.中國(guó)人民解放軍戰(zhàn)略支援部隊(duì)信息工程大學(xué) 網(wǎng)絡(luò)空間安全學(xué)院,河南 鄭州 450001;2.數(shù)學(xué)工程與先進(jìn)計(jì)算國(guó)家重點(diǎn)實(shí)驗(yàn)室,河南 鄭州 450001;3.河南省網(wǎng)絡(luò)空間態(tài)勢(shì)感知重點(diǎn)實(shí)驗(yàn)室,河南 鄭州 450001;4.常熟理工學(xué)院 計(jì)算機(jī)科學(xué)與工程學(xué)院,江蘇 常熟 215500)

        1 引 言

        隱寫術(shù)通過將秘密信息嵌入到載體中,從而在不引起第三方懷疑的情況下進(jìn)行隱蔽通信[1]。由于隱蔽通信的過程很難被他人發(fā)現(xiàn),一些犯罪人員和恐怖分子會(huì)利用它來(lái)危害社會(huì)穩(wěn)定和國(guó)家安全。作為隱寫術(shù)的對(duì)立技術(shù),隱寫分析旨在檢測(cè)隱蔽通信的存在,并在與隱寫術(shù)的對(duì)抗過程中不斷發(fā)展。

        隨著互聯(lián)網(wǎng)通信技術(shù)和圖像處理技術(shù)的發(fā)展,在互聯(lián)網(wǎng)中廣泛傳播的JPEG圖像成為了隱寫術(shù)的合適載體。因此,針對(duì)JPEG圖像的隱寫分析[2]也逐漸成為學(xué)術(shù)界的重要研究課題。JPEG圖像隱寫分析的目標(biāo)是檢測(cè)一張看似正常的JPEG圖像中是否隱藏了秘密信息,判斷所使用的隱寫方法,估計(jì)秘密信息的嵌入位置,提取秘密信息[3]。其中,判斷圖像是否含有秘密信息是最重要的部分,這也是當(dāng)前研究的重點(diǎn)[4]。含有秘密信息的圖像稱為載秘圖像,其他的稱為載體圖像。

        現(xiàn)有的隱寫分析方法可以分為基于人工特征設(shè)計(jì)的傳統(tǒng)隱寫分析方法和基于深度學(xué)習(xí)的隱寫分析方法。對(duì)于傳統(tǒng)隱寫分析方法,研究者們首先利用人工設(shè)計(jì)的高維特征提取方法來(lái)捕獲圖像中由秘密信息嵌入引起的統(tǒng)計(jì)異常,然后使用經(jīng)過訓(xùn)練的分類器來(lái)確定圖像中是否包含秘密信息。代表性的方法有空域富模型方法(Spatial Rich Model,SRM)[5]、離散余弦變換殘差方法(Discrete Cosine Transform Residual,DCTR)[6]、相位感知投影模型(PHase Aware pRojection Model,PHARM)[7]和Gabor濾波器殘差方法(Gabor Filter Residual,GFR)[8]。然而隨著當(dāng)前隱寫技術(shù)[9-10]的發(fā)展,有效的高維特征提取方法越來(lái)越難以設(shè)計(jì),設(shè)計(jì)出的特征提取方法也會(huì)受限于研究者的領(lǐng)域知識(shí)和啟發(fā)式探索,這限制了隱寫分析的發(fā)展。

        隨著深度學(xué)習(xí)的興起,研究人員發(fā)現(xiàn),神經(jīng)網(wǎng)絡(luò)可以學(xué)習(xí)圖像的多層次特征,這樣既可以減少啟發(fā)式的特征設(shè)計(jì),也能更好地反映圖像的本質(zhì)特征[11]。因此,研究者們開始將深度學(xué)習(xí)應(yīng)用于隱寫分析之中,并取得了大量成果。在各種深度網(wǎng)絡(luò)中,卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,CNN)[12]因?yàn)槠洫?dú)有的特性受到了研究者們的重視。卷積操作可以捕獲圖像中由秘密信息嵌入引起的細(xì)微變化,這種細(xì)微變化也被稱為隱寫噪聲,這在功能上與傳統(tǒng)隱寫分析方法中的特征提取步驟類似。池化層和激活函數(shù)層也可以用來(lái)模擬傳統(tǒng)隱寫分析方法中的量化和截?cái)嗖襟E。因此,基于卷積神經(jīng)網(wǎng)絡(luò)模型的隱寫分析方法[13]已成為圖像隱寫分析的主流。

        根據(jù)針對(duì)隱寫算法類型的不同,基于深度學(xué)習(xí)的隱寫分析方法可以分為空域隱寫分析方法和JPEG域隱寫分析方法?,F(xiàn)有的基于深度學(xué)習(xí)的隱寫分析方法大多是針對(duì)空域隱寫算法所設(shè)計(jì)的。TAN等[14]將深度學(xué)習(xí)應(yīng)用于隱寫分析之中,提出了名為TanNet的隱寫分析網(wǎng)絡(luò)。該網(wǎng)絡(luò)只有4層,包括3個(gè)卷積層和1個(gè)全連接層。QIAN等[15]將傳統(tǒng)卷積網(wǎng)絡(luò)的預(yù)處理層替換為固定的高通濾波核來(lái)增強(qiáng)隱寫信號(hào),提出了一種基于深度學(xué)習(xí)的隱寫分析模型QianNet。為了避免隱寫特征的損失,在QianNet中使用了平均池化層來(lái)代替最大池化層。為了進(jìn)一步提高隱寫分析的性能,XU等[16]沿用了QianNet網(wǎng)絡(luò)架構(gòu)的特點(diǎn),提出了XuNet。考慮到預(yù)處理層提取的噪聲殘差與符號(hào)無(wú)關(guān),XuNet在第1個(gè)卷積層之前使用abs層來(lái)收斂特征圖,其檢測(cè)性能與SRM相當(dāng),甚至在某些情況下有所超越。YE等[17]將SRM的特征提取部分與深度學(xué)習(xí)相結(jié)合,提出了YeNet,其檢測(cè)精度已經(jīng)超過基于人工特征設(shè)計(jì)的傳統(tǒng)隱寫分析方法。ZHANG等[18]針對(duì)卷積核以及網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行改進(jìn),提出了ZhuNet。該網(wǎng)絡(luò)使用可分離卷積代替原有的卷積層來(lái)提高隱寫信號(hào)和圖像信號(hào)之間的信噪比。此外,還采用了空間金字塔結(jié)構(gòu)來(lái)豐富特征的表達(dá),檢測(cè)效果有了相當(dāng)大的提升。由于隨意調(diào)整圖像的大小會(huì)嚴(yán)重影響圖像中的隱寫信號(hào)[19],YOU 等[20]以孿生網(wǎng)絡(luò)為基礎(chǔ),設(shè)計(jì)了一種新的隱寫分析網(wǎng)絡(luò)SiaStegNet,來(lái)實(shí)現(xiàn)在不重新訓(xùn)練參數(shù)的情況下對(duì)多尺度的圖像進(jìn)行隱寫分析,在多尺度圖像上的檢測(cè)效果十分優(yōu)秀。

        雖然目前在互聯(lián)網(wǎng)上傳播的圖像大多是JPEG圖像,但相比于空域隱寫分析方法,針對(duì)JPEG圖像的隱寫方法要少得多。ZENG等[21]提出了一個(gè)基于深度學(xué)習(xí)的JPEG域隱寫分析網(wǎng)絡(luò),其檢測(cè)效果與傳統(tǒng)方法基本持平。后來(lái),ZENG等[22]在之前工作的基礎(chǔ)上,通過將JPEG圖像轉(zhuǎn)換為空域圖像再進(jìn)行隱寫檢測(cè)的方式,有效地提高了隱寫分析的準(zhǔn)確率。此外,在XuNet的基礎(chǔ)上,XU[23]提出了一種名為J-XuNet的JPEG域隱寫分析方法。該方法采用了20層全卷積網(wǎng)絡(luò)來(lái)進(jìn)行隱寫分析,通過殘差連接來(lái)防止梯度爆炸以及隱寫特征的消失,其檢測(cè)效果已經(jīng)優(yōu)于傳統(tǒng)方法。考慮到之前的隱寫分析方法仍然包含了一些手工設(shè)計(jì)的元素,BOROUMAND等[24]設(shè)計(jì)了一種基于殘差網(wǎng)絡(luò)的端到端隱寫分析模型,名為SRNet。該網(wǎng)絡(luò)在空域和JPEG域上都有非常出色的表現(xiàn)。2021年,SU等[25]提出了一種基于全卷積網(wǎng)絡(luò)的端到端隱寫分析模型,稱為EWNet。該模型可以在不重復(fù)訓(xùn)練的情況下,針對(duì)任意大小的JPEG圖像進(jìn)行隱寫分析,在JPEG圖像隱寫分析方面取得了最先進(jìn)的檢測(cè)效果。考慮到當(dāng)前基于深度學(xué)習(xí)的隱寫分析方法通常無(wú)法獲得選擇通道感知(Selection-Channel Aware,SCA)的知識(shí),LIU等[26]將與SCA作用相同的剩余通道空間注意(Channel-Spatial Attention,CSA)模塊引入到卷積網(wǎng)絡(luò)中,來(lái)進(jìn)一步提高模型的隱寫分析性能。此外,為了獲取多尺度的層次特征表示,文中使用空間金字塔池化來(lái)代替全局平均池化。該網(wǎng)絡(luò)在JPEG隱寫分析領(lǐng)域檢測(cè)效果要優(yōu)于SRNet。

        當(dāng)前,大多數(shù)基于深度學(xué)習(xí)的隱寫分析方法會(huì)先提取圖像中包含的隱寫噪聲,再對(duì)提取的隱寫噪聲進(jìn)行分類。隱寫噪聲提取的準(zhǔn)確度在很大程度上決定了隱寫分析的性能。目前大多數(shù)方法通過將這兩個(gè)階段連接在一起,利用分類模塊的誤差優(yōu)化隱寫噪聲提取模塊,以此提高隱寫噪聲提取的準(zhǔn)確度。然而,隨著圖像質(zhì)量因子的提高,隱寫噪聲與圖像內(nèi)容的信號(hào)比例會(huì)急劇下降,隱寫噪聲也變得更加難以提取?;诙说蕉说碾[寫分析模型,在訓(xùn)練過程中沒有為隱寫噪聲提取模塊設(shè)定優(yōu)化目標(biāo)。當(dāng)圖像的質(zhì)量因子較高時(shí),這種訓(xùn)練方式可能會(huì)限制隱寫噪聲的提取準(zhǔn)確度。為了解決這個(gè)問題,文中提出了一種基于有監(jiān)督訓(xùn)練策略的隱寫噪聲深度提取模型,以此提高隱寫分析的準(zhǔn)確率。文中工作的主要貢獻(xiàn)如下:

        (1) 提出了一種基于隱寫噪聲深度提取的JPEG圖像隱寫分析方法。該方法可以減少圖像內(nèi)容對(duì)隱寫分析的影響,準(zhǔn)確地提取出隱寫噪聲,并判斷該圖像是否為載秘圖像。

        (2) 提出了一種指導(dǎo)隱寫噪聲深度提取網(wǎng)絡(luò)的模型評(píng)價(jià)指標(biāo)來(lái)選擇最佳網(wǎng)絡(luò),并將其與針對(duì)隱寫噪聲所設(shè)計(jì)的分類網(wǎng)絡(luò)相融合,得到完整的隱寫分析網(wǎng)絡(luò)。

        (3) 在基準(zhǔn)數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果表明,針對(duì)J-UNIWARD和UED-JC這兩種隱寫算法,文中方法要優(yōu)于經(jīng)典的基于深度學(xué)習(xí)的隱寫分析方法。

        2 基于噪聲深度提取的JPEG隱寫分析方法

        與經(jīng)典計(jì)算機(jī)視覺領(lǐng)域中的物體識(shí)別和圖像分類等任務(wù)不同,隱寫分析主要關(guān)注細(xì)微的隱寫噪聲而不是一般的圖像內(nèi)容。當(dāng)圖像的質(zhì)量因子較高時(shí),隱寫噪聲與圖像內(nèi)容的信號(hào)比例會(huì)急劇下降,隱寫噪聲很難被準(zhǔn)確地提取出來(lái)。然而,基于深度學(xué)習(xí)的端到端隱寫分析方法并沒有為隱寫噪聲提取模塊設(shè)置獨(dú)立的優(yōu)化目標(biāo),這可能會(huì)限制隱寫噪聲提取的準(zhǔn)確度。為了克服這一局限性,文中為隱寫噪聲提取模塊設(shè)置單獨(dú)的優(yōu)化目標(biāo)來(lái)準(zhǔn)確提取隱寫噪聲。

        2.1 網(wǎng)絡(luò)結(jié)構(gòu)

        文中所提出的隱寫分析網(wǎng)絡(luò)名為SNdesNet。該網(wǎng)絡(luò)主要由兩個(gè)部分組成,即隱寫噪聲深度提取網(wǎng)絡(luò)(SneNet)和分類網(wǎng)絡(luò),如圖1所示。

        圖1 SNdesNet檢測(cè)流程

        首先,使用SneNet從待檢測(cè)圖像中提取可能存在的隱寫噪聲;然后,將隱寫噪聲輸入到分類網(wǎng)絡(luò),以確定輸入是載秘圖像還是載體圖像。由于隱寫噪聲提取模塊的優(yōu)化過程是回歸任務(wù),其目標(biāo)函數(shù)與分類模塊不同,所以無(wú)法將兩個(gè)網(wǎng)絡(luò)連接在一起進(jìn)行同步優(yōu)化。出于這個(gè)原因,文中使用分段式的網(wǎng)絡(luò)結(jié)構(gòu)來(lái)分別對(duì)這兩段網(wǎng)絡(luò)進(jìn)行優(yōu)化。顯然,文中方法的關(guān)鍵是隱寫噪聲深度提取網(wǎng)絡(luò)和分類網(wǎng)絡(luò)的構(gòu)建。具體的網(wǎng)絡(luò)結(jié)構(gòu)將在后文中分別進(jìn)行介紹。

        2.2 隱寫噪聲深度提取網(wǎng)絡(luò)

        SneNet的目標(biāo)是從輸入圖像中提取可能存在的隱寫噪聲。隱寫噪聲指的是載秘圖像和載體圖像之間的像素差:

        Ri,j=Si,j-Ci,j,

        (1)

        其中,Si,j表示載秘圖像(i,j)位置的像素;Ci,j表示載體圖像對(duì)應(yīng)位置的像素;兩幅圖像對(duì)應(yīng)點(diǎn)像素之間的差值Ri,j就是圖像中所含有的隱寫噪聲。

        在輸入的過程中首先將JPEG圖像解壓縮到空域,使用JPEG圖像的像素矩陣作為網(wǎng)絡(luò)的輸入。這樣網(wǎng)絡(luò)的訓(xùn)練過程更容易收斂,也便于計(jì)算圖像中所包含的隱寫噪聲。需要注意的是,隱寫分析人員無(wú)法獲得載秘圖像的原始載體圖像。因此,隱寫噪聲的提取問題可以轉(zhuǎn)化為載體圖像的預(yù)測(cè)問題,而這與圖像去噪任務(wù)非常相似。不同的是,相比于圖像的自然噪聲,隱寫噪聲要細(xì)微得多,但仍可以從圖像去噪領(lǐng)域中尋找靈感。文中提出的SneNet受到了圖像去噪網(wǎng)絡(luò)RIDNet[27]的啟發(fā),在其基礎(chǔ)上進(jìn)行了一定的修改,以達(dá)到隱寫噪聲提取的目的。對(duì)于修改的合理性將會(huì)在實(shí)驗(yàn)部分進(jìn)行說明。

        2.2.1 SneNet的網(wǎng)絡(luò)結(jié)構(gòu)

        SneNet的網(wǎng)絡(luò)結(jié)構(gòu)如圖2所示,其骨干部分主要由兩部分組成,分別是高維特征提取模塊和隱寫噪聲學(xué)習(xí)模塊。

        圖2 隱寫噪聲深度提取網(wǎng)絡(luò)(SneNet)的網(wǎng)絡(luò)結(jié)構(gòu)

        高維特征提取模塊由兩個(gè)卷積層組成,在圖像去噪網(wǎng)絡(luò)的最前端添加了一個(gè)預(yù)處理層,以提取高維特征f0。與圖像中的自然噪聲相比,隱寫噪聲要小得多,所以直接使用去噪網(wǎng)絡(luò)來(lái)提取隱寫噪聲會(huì)使網(wǎng)絡(luò)難以收斂。為了加速網(wǎng)絡(luò)的收斂,使用固定的濾波核來(lái)初始化卷積核,該步驟可以表示為

        f0=Convp(x) ,

        (2)

        其中,Convp(·)表示在載秘圖像上的預(yù)處理卷積操作。之后提取出的高維特征f0被輸入到隱寫噪聲學(xué)習(xí)模塊,通過有監(jiān)督的訓(xùn)練策略來(lái)提取高維特征中的隱寫噪聲n,即

        n=Mns(f0) ,

        (3)

        其中,Mns(·)為隱寫噪聲的學(xué)習(xí)過程,主要由圖2中4個(gè)逐級(jí)連接的增強(qiáng)注意力模塊(Enhancement Attention Module,EAM)組成。最后一個(gè)EAM模塊輸出的特征會(huì)再經(jīng)過一層卷積來(lái)降低特征的維度,生成待檢測(cè)圖像中的隱寫噪聲n。

        從圖2的下半部分可以看出,EAM的輸入特征首先經(jīng)過一個(gè)并行的卷積層來(lái)擴(kuò)大特征圖的接收域,再將并行卷積層的輸出結(jié)果合并來(lái)增加特征圖的通道;接著,使用兩個(gè)連續(xù)的卷積層來(lái)學(xué)習(xí)隱寫噪聲相關(guān)的特征,并通過增強(qiáng)殘差塊對(duì)特征進(jìn)行壓縮和展平;最后,使用通道注意力機(jī)制關(guān)注高維特征中的隱寫噪聲相關(guān)特征。

        SneNet中使用的殘差連接[28]可以有效地減少隱寫噪聲在網(wǎng)絡(luò)傳播過程中的損失。通過將網(wǎng)絡(luò)的淺層和深層直接相連,網(wǎng)絡(luò)可以避免退化,融合不同尺度的特征也能用來(lái)輔助網(wǎng)絡(luò)對(duì)隱寫噪聲的學(xué)習(xí)。此外,使用隱寫噪聲而不是載體圖像作為網(wǎng)絡(luò)輸出,與從載秘圖像到載體圖像的轉(zhuǎn)換相比,從載秘圖像到隱寫噪聲的轉(zhuǎn)換更容易學(xué)習(xí)。載秘圖像和隱寫噪聲之間的明顯區(qū)別能夠幫助網(wǎng)絡(luò)收斂。

        需要注意的是,在SneNet中沒有使用批歸化處理(Batch Normalization,BN)層來(lái)對(duì)特征圖進(jìn)行歸一化。當(dāng)前的隱寫網(wǎng)絡(luò)常用BN層來(lái)加速網(wǎng)絡(luò)的收斂,防止模型過擬合。然而,使用BN層對(duì)圖像進(jìn)行歸一化會(huì)破壞圖像的對(duì)比度信息,這一點(diǎn)在圖像去噪任務(wù)中得到了研究,因此不在SneNet中使用BN層。

        2.2.2 SneNet的訓(xùn)練過程

        在網(wǎng)絡(luò)的訓(xùn)練過程中,使用L1 損失來(lái)計(jì)算網(wǎng)絡(luò)的損失,計(jì)算公式為

        (4)

        其中,yi為真實(shí)噪聲,f(xi)為網(wǎng)絡(luò)的提取噪聲,N是同一批次輸入的圖像數(shù)量。圖像去噪網(wǎng)絡(luò)常用L2 損失作為網(wǎng)絡(luò)的損失函數(shù),但它對(duì)孤立點(diǎn)更為敏感,而L1損失則更為穩(wěn)定。此外,實(shí)驗(yàn)結(jié)果表明,使用L1 損失作為損失函數(shù)的SneNet性能要比使用L2 損失高約2%,因此選擇L1 損失作為損失函數(shù)。

        此外,使用峰值信噪比(Peak Signal to Noise Ration,PSNR)[29]作為衡量標(biāo)準(zhǔn)來(lái)評(píng)估隱寫噪聲提取的準(zhǔn)確度。該值可用于評(píng)估圖像經(jīng)過重建后的圖像質(zhì)量,PSNR值越高,說明重建后的圖像質(zhì)量越好。因此選擇這個(gè)指標(biāo)來(lái)評(píng)估SneNet的隱寫噪聲提取能力。去噪后的圖像與原始圖像之間的PSNR值越高,提取的隱寫噪聲就越準(zhǔn)確,PSNR定義為PPSNR,即

        PPSNR=20 lg(MAX)-10 lg(MSE) ,

        (5)

        (6)

        其中,I是原始圖像;K是去噪后的圖像;l和w分別是圖像的長(zhǎng)和寬;MAX是圖像中可能存在的最大像素值。實(shí)驗(yàn)中使用的圖像為8位像素,因此MAX為255;MSE是I和K之間的均方誤差。

        此外,實(shí)驗(yàn)結(jié)果還表明,由PSNR值最低的網(wǎng)絡(luò)提取的隱寫噪聲并不具有最佳的分類性能。事實(shí)上,從載秘圖像和載體圖像中分別提取的隱寫噪聲之間有較大的差異也很重要。為此,設(shè)計(jì)了一個(gè)模型評(píng)價(jià)指標(biāo)P來(lái)評(píng)估SneNet的隱寫噪聲提取性能,指導(dǎo)模型的選擇。P的計(jì)算公式為

        P=psc(pcc-pss) ,

        (7)

        其中,psc為去噪后的載秘圖像和載體圖像之間的PSNR值,pcc是去噪后的載體圖像和載體圖像之間的PSNR值,pss是去噪后的載秘圖像和載秘圖像之間的PSNR值。psc越高,從載秘圖像中提取的隱寫噪聲與真實(shí)隱寫噪聲越相似。而pss和pcc之間的差值越大,從載秘圖像和載體圖像中提取出的隱寫噪聲之間的差異就越大。評(píng)價(jià)指標(biāo)P同時(shí)考慮了隱寫噪聲的準(zhǔn)確提取以及載秘圖像和載體圖像提取噪聲的差異。因此,P值越高,提取的隱寫噪聲越利于分類網(wǎng)絡(luò)進(jìn)行檢測(cè)。

        為了擴(kuò)大從載秘圖像和載體圖像中提取噪聲的差異,可為載秘圖像和載體圖像設(shè)定不同的優(yōu)化目標(biāo)。將隱寫噪聲用作載秘圖像訓(xùn)練的監(jiān)督,同時(shí)由于載體圖像中不包含隱寫噪聲,因此使用零值作為偽噪聲來(lái)優(yōu)化載秘圖像的訓(xùn)練。使用載秘圖像和隱寫噪聲作為正樣本,載體圖像和偽噪聲作為負(fù)樣本,來(lái)共同構(gòu)建訓(xùn)練數(shù)據(jù)集。

        2.3 分類網(wǎng)絡(luò)

        隱寫噪聲分類網(wǎng)絡(luò)的目標(biāo)是對(duì)SneNet所提取的隱寫噪聲n進(jìn)行分類,判斷輸入圖像是否屬于載秘圖像??紤]到提取的隱寫噪聲可以看作是一種特殊的圖像,基于現(xiàn)有的圖像分類網(wǎng)絡(luò)Swin Transformer[30]的骨干構(gòu)建分類網(wǎng)絡(luò),該網(wǎng)絡(luò)的輸出即為文中隱寫分析方法的檢測(cè)結(jié)果。分類網(wǎng)絡(luò)的具體結(jié)構(gòu)如圖3所示。

        圖3 分類網(wǎng)絡(luò)結(jié)構(gòu)

        從輸入圖像中提取的隱寫噪聲首先被Patch partition模塊分割成多個(gè)非重疊等尺寸的Patch,再通過全連接層進(jìn)行嵌入,擴(kuò)充Patch中特征的維度;然后,嵌入后的Patch被送入4個(gè)連續(xù)的Swin Transformer Block中,以獲得輸入圖像的層次化特征圖;最后,提取的特征圖依次通過LayerNorm層、平均池化層和全連接層,得到輸入圖像的分類結(jié)果。兩個(gè)連續(xù)的Swin Transformer Block中的主要模塊是窗口多頭自注意力模塊(Window Multi-headed Self-Attention,W-MSA)和滑動(dòng)窗口多頭自注意力模塊(Shifted Window Multi-headed Self-Attention,SW-MSA)。W-MSA模塊基于局部窗口計(jì)算注意力矩陣,減少了計(jì)算工作量。同時(shí)為了獲得特征圖的全局注意矩陣,在W-MSA模塊之后,使用SW-MSA模塊來(lái)進(jìn)行窗口之間的信息交互。

        從圖1中可以看出,隱寫噪聲在空間上的分布是不連續(xù)的,這說明隱寫噪聲的局部特征不能準(zhǔn)確地代表隱寫噪聲的特性。因此,分類網(wǎng)絡(luò)需要對(duì)隱寫噪聲的全局特征給予足夠的重視。眾所周知,Swin Transformer中使用的自注意模塊擴(kuò)大了網(wǎng)絡(luò)的感受野,能夠捕獲輸入圖像的全局特征。此外,網(wǎng)絡(luò)中使用的滑動(dòng)窗口策略也可以解決自注意模塊的高計(jì)算復(fù)雜性問題。因此,文中基于Swin Transformer的骨干網(wǎng)絡(luò)構(gòu)建隱寫噪聲的分類網(wǎng)絡(luò)。

        3 實(shí)驗(yàn)設(shè)置

        為了評(píng)估所提方法的隱寫分析性能,使用兩種自適應(yīng)JPEG隱寫算法在不同圖像質(zhì)量因子和嵌入率下進(jìn)行了一系列的對(duì)比實(shí)驗(yàn)。網(wǎng)絡(luò)的性能是通過在測(cè)試數(shù)據(jù)集上的檢測(cè)錯(cuò)誤率來(lái)評(píng)估的,該錯(cuò)誤率的計(jì)算方法為假陽(yáng)性率和假陰性率的均值。接下來(lái)將對(duì)實(shí)驗(yàn)設(shè)置、數(shù)據(jù)集生成和各種實(shí)現(xiàn)細(xì)節(jié)進(jìn)行具體說明。

        3.1 數(shù)據(jù)集與對(duì)比方法

        文中實(shí)驗(yàn)的數(shù)據(jù)集采用了來(lái)自BOSSBase-v1.01[31]和BOWS2[32]中的20 000張灰度圖像。這兩個(gè)數(shù)據(jù)集各包含了10 000張大小為512×512的灰度圖像。在數(shù)據(jù)集生成的過程中,首先將大小為512×512的原始圖像裁剪成4張互不重疊的256×256的圖像,然后隨機(jī)選擇這4張圖像中的1張進(jìn)行實(shí)驗(yàn)。使用這種方法生成實(shí)驗(yàn)數(shù)據(jù)集可以減少網(wǎng)絡(luò)訓(xùn)練的成本,并保持原有的圖像質(zhì)量。接著,將所有挑選出的圖像壓縮為質(zhì)量因子為75和85的JPEG圖像,使用這些壓縮圖像構(gòu)建載體圖像數(shù)據(jù)集。

        為了驗(yàn)證文中方法在JPEG圖像上的隱寫分析性能,使用了兩種經(jīng)典的自適應(yīng)JPEG隱寫方法:J-UNIWARD[33]和UED-JC[34],對(duì)載體圖像進(jìn)行嵌入,分別生成嵌入率為0.1、0.2、0.3、0.4和0.5 bpnzac的載秘圖像。對(duì)于每種質(zhì)量因子、隱寫算法和嵌入率,隨機(jī)選擇BOSSBase數(shù)據(jù)集中的4 000張圖像和整個(gè)BOWS 2數(shù)據(jù)集用于網(wǎng)絡(luò)訓(xùn)練,再?gòu)腂OSSBase數(shù)據(jù)集中剩余的6 000張圖像中隨機(jī)選出5 000張圖像用于檢測(cè),最后的1 000張圖像用于驗(yàn)證。將選出的載體圖像和對(duì)應(yīng)的載秘圖像一起共同構(gòu)建實(shí)驗(yàn)的訓(xùn)練集、測(cè)試集和驗(yàn)證集。這種數(shù)據(jù)集的劃分方式與SRNet[24]和EWNet[25]的劃分相同。

        在圖像的讀取過程中,所有的圖像首先被解壓縮到了空域,使用JPEG圖像的像素矩陣作為網(wǎng)絡(luò)的輸入。為了增強(qiáng)模型的擬合能力,也采用了隨機(jī)鏡像和旋轉(zhuǎn)的方式對(duì)數(shù)據(jù)集進(jìn)行數(shù)據(jù)增強(qiáng)[35]。

        為了對(duì)比評(píng)估文中方法的隱寫分析性能,進(jìn)行了一系列的實(shí)驗(yàn)。采用的對(duì)比方法是針對(duì)JPEG圖像的隱寫分析方法,分別是:

        (1) J-XuNet[23]:一個(gè)20層的全卷積深度網(wǎng)絡(luò),采用殘差連接來(lái)減少特征的損失。

        (2) SRNet[24]:一個(gè)48層的端到端隱寫分析網(wǎng)絡(luò)。該網(wǎng)絡(luò)去除了以往深度學(xué)習(xí)隱寫分析模型中的手工設(shè)計(jì)元素,使用神經(jīng)網(wǎng)絡(luò)的強(qiáng)大學(xué)習(xí)能力來(lái)自主學(xué)習(xí)合適的參數(shù)。

        (3) EWNet[25]:一個(gè)全卷積深度網(wǎng)絡(luò),采用反卷積層來(lái)對(duì)特征圖進(jìn)行上采樣,以此豐富用于分類的特征。該方法可以在不重新訓(xùn)練參數(shù)的情況下對(duì)任意大小的JPEG圖像進(jìn)行隱寫分析。

        (4) CSANet[26]:一個(gè)端到端的隱寫分析網(wǎng)絡(luò),使用CSA模塊來(lái)為網(wǎng)絡(luò)引入選擇通道感知的相關(guān)知識(shí),此外還通過空間金字塔池化結(jié)構(gòu)來(lái)獲取不同尺度的層次特征表示。

        3.2 實(shí)現(xiàn)細(xì)節(jié)

        文中方法包括兩個(gè)組成部分:隱寫噪聲深度提取網(wǎng)絡(luò)和分類網(wǎng)絡(luò)。因?yàn)閮蓚€(gè)子網(wǎng)的網(wǎng)絡(luò)結(jié)構(gòu)和優(yōu)化目標(biāo)并不相同,所以為其設(shè)置了不同的訓(xùn)練參數(shù)。

        對(duì)于隱寫噪聲深度提取網(wǎng)絡(luò),網(wǎng)絡(luò)中所有卷積層參數(shù)采用均值為0,標(biāo)準(zhǔn)差為0.01的高斯分布進(jìn)行隨機(jī)初始化。采用Adam算法優(yōu)化損失函數(shù),模型初始學(xué)習(xí)率設(shè)置為1×10-3,采用余弦退火策略對(duì)學(xué)習(xí)率進(jìn)行動(dòng)態(tài)調(diào)整,最小學(xué)習(xí)率設(shè)置為1×10-5,對(duì)于每一次迭代,mini-batch設(shè)置為16,即8個(gè)載體-載秘圖像對(duì)。網(wǎng)絡(luò)經(jīng)過訓(xùn)練直至收斂(約150個(gè)epoch),選擇在測(cè)試集上P值最高的網(wǎng)絡(luò)來(lái)進(jìn)行隱寫噪聲的提取。

        對(duì)于隱寫噪聲分類網(wǎng)絡(luò),采用Swin Transformer網(wǎng)絡(luò)的預(yù)訓(xùn)練參數(shù)對(duì)分類網(wǎng)絡(luò)進(jìn)行初始化,優(yōu)化算法采用Adadelta優(yōu)化器,模型初始學(xué)習(xí)率為1×10-3,同樣采用余弦退火策略來(lái)動(dòng)態(tài)調(diào)整學(xué)習(xí)率,最小學(xué)習(xí)率為1×10-4,每一次迭代的mini-batch設(shè)置為24,即12個(gè)載體-載秘圖像對(duì)。使用驗(yàn)證集上性能最好的網(wǎng)絡(luò)在測(cè)試集上進(jìn)行測(cè)試。

        實(shí)驗(yàn)采用的顯卡均為TITAN XP(12 GB),內(nèi)存為64 GB,搭建的深度學(xué)習(xí)環(huán)境為Tensorflow 1.12.0和Pytorch 1.7。J-XuNet、EWNet和CSANet 3種模型所用的代碼為對(duì)應(yīng)論文中給出的源碼,SRNet則是在Pytorch環(huán)境中自主復(fù)現(xiàn)。4種網(wǎng)絡(luò)的參數(shù)設(shè)置都與對(duì)應(yīng)論文中的參數(shù)保持一致。需要注意的是,復(fù)現(xiàn)的SRNet并沒有達(dá)到文獻(xiàn)[24]中的檢測(cè)精度,這主要是因?yàn)閿?shù)據(jù)集的預(yù)處理方式不同。文獻(xiàn)[24]將原始數(shù)據(jù)集中的512×512大小的圖像直接壓縮為256×256的JPEG圖像,這會(huì)導(dǎo)致圖像內(nèi)容更加平滑,所以隱寫痕跡更容易被檢測(cè)。而實(shí)驗(yàn)中則是先將原始圖像首先被裁剪成256×256的圖像,再壓縮成具有不同質(zhì)量因子的JPEG圖像,這種處理方式生成的圖像更難被檢測(cè)。

        此外,在訓(xùn)練的過程中還采用了課程學(xué)習(xí)的訓(xùn)練策略來(lái)幫助網(wǎng)絡(luò)更好的收斂。具體來(lái)說,對(duì)于每種隱寫方法,分別在不同質(zhì)量因子和嵌入率下進(jìn)行課程學(xué)習(xí)。對(duì)于質(zhì)量因子,采用質(zhì)量因子為75條件下訓(xùn)練得到的網(wǎng)絡(luò)參數(shù)對(duì)質(zhì)量因子85條件下訓(xùn)練的網(wǎng)絡(luò)進(jìn)行初始化;對(duì)于嵌入率,按照0.5-0.4-0.3-0.2-0.1(bpnzac)的順序進(jìn)行漸進(jìn)式學(xué)習(xí),使用前一個(gè)嵌入率下訓(xùn)練得到的網(wǎng)絡(luò)參數(shù)對(duì)后一個(gè)將要訓(xùn)練的網(wǎng)絡(luò)進(jìn)行初始化。

        4 實(shí)驗(yàn)結(jié)果與分析

        4.1 參數(shù)合理性分析

        為了確定SneNet的損失函數(shù)和學(xué)習(xí)率等參數(shù),還進(jìn)行了以下實(shí)驗(yàn)分析。采用的隱寫算法為UED-JC,圖像質(zhì)量因子為75,嵌入率為0.5。

        對(duì)于損失函數(shù),使用L1損失,L2損失和Charbonnier損失來(lái)進(jìn)行對(duì)比實(shí)驗(yàn)。L1損失用于最小化預(yù)測(cè)圖像和目標(biāo)圖像之間的像素差值的絕對(duì)值之和,L2損失可以獲得更好的PSNR值,而Charbonnier損失能夠幫助網(wǎng)絡(luò)更好的收斂。實(shí)驗(yàn)結(jié)果如表1所示。

        表1 使用L1損失、L2損失和Charbonnier損失作為損失函數(shù)的PSNR值與準(zhǔn)確率

        實(shí)驗(yàn)結(jié)果表明,雖然L2損失具有最好的PSNR值,但是pcc和pss之間的差異是最低的,僅為2.59,比L1損失要低0.99。與L1損失相比,Charbonnier損失雖然能夠幫助網(wǎng)絡(luò)更快的收斂,但P值和準(zhǔn)確度都要低于L1損失。因此,選擇L1損失作為網(wǎng)絡(luò)的損失函數(shù)是合理的。

        為了確保網(wǎng)絡(luò)能夠正常地提取隱寫噪聲,需要單獨(dú)設(shè)置載體圖像訓(xùn)練的學(xué)習(xí)率,采用二分法來(lái)確定最合適學(xué)習(xí)率。具體來(lái)說,選擇了1×10-3,5×10-4,2.5×10-4,1×10-4,1×10-5來(lái)作為實(shí)驗(yàn)的初始學(xué)習(xí)率。實(shí)驗(yàn)結(jié)果如表2所示。

        表2 不同初始學(xué)習(xí)率的PSNR值與準(zhǔn)確率

        實(shí)驗(yàn)結(jié)果表明,當(dāng)學(xué)習(xí)率為2.5×10-4時(shí),網(wǎng)絡(luò)對(duì)隱寫噪聲的提取效果最好。當(dāng)載體圖像的學(xué)習(xí)率接近載秘圖像的學(xué)習(xí)率時(shí),偽噪聲會(huì)對(duì)網(wǎng)絡(luò)的訓(xùn)練產(chǎn)生很大的影響,訓(xùn)練后的模型基本不能提取任何隱寫噪聲。而當(dāng)學(xué)習(xí)率較小時(shí),psc更高,pss更低,從載秘圖像和載體圖像中提取的隱寫噪聲之間的差異十分微弱,這不利于分類網(wǎng)絡(luò)的訓(xùn)練。因此,選擇2.5×10-4作為載體圖像的初始學(xué)習(xí)率。

        為了直觀地展示網(wǎng)絡(luò)從載體圖像和載秘圖像中提取的隱寫噪聲之間的差別,在圖4中展示了多組載秘圖像和載體圖像所提取的隱寫噪聲。為了達(dá)到更清晰的視覺效果,對(duì)隱寫噪聲的像素值進(jìn)行了翻轉(zhuǎn),其中越暗的像素點(diǎn)表明該點(diǎn)隱寫噪聲越強(qiáng)。所用的隱寫算法為J-UNIWARD,嵌入率為0.5。

        圖4 提取噪聲與真實(shí)噪聲的可視化結(jié)果

        圖4為網(wǎng)絡(luò)提取噪聲和真實(shí)噪聲的可視化結(jié)果。其中載體提取噪聲為SneNet從載體圖像中提取的隱寫噪聲,載秘提取噪聲則是SneNet從載秘圖像中提取的隱寫噪聲。最右列的真實(shí)隱寫噪聲為載秘圖像中所包含的真實(shí)隱寫噪聲,而主要隱寫噪聲則是真實(shí)隱寫噪聲在去除了所有像素值為1的點(diǎn)后的噪聲圖,主要描繪真實(shí)噪聲中幅度較大的部分。從圖4中可以看出,載秘提取噪聲與載體提取噪聲相比,包含的信息要更加豐富,且兩種噪聲之間有著很大的差異,這種提取噪聲的差異構(gòu)成了分類網(wǎng)絡(luò)對(duì)載秘圖像和載體圖像分類的基礎(chǔ)。從圖4中還可以看出,載秘提取噪聲與真實(shí)隱寫噪聲的分布十分相似,說明文中方法可以減少圖像內(nèi)容的影響,更加關(guān)注圖像中所包含的隱寫噪聲。同時(shí)也能說明文中使用PSNR的差值來(lái)表示載秘圖像和載體圖像提取噪聲的差異是合理的。而且載秘提取噪聲可以較為完整地覆蓋主要隱寫噪聲所出現(xiàn)的區(qū)域,這說明隱寫噪聲深度提取網(wǎng)絡(luò)能夠有效地提取載秘圖像中所包含的隱寫噪聲。

        4.2 網(wǎng)絡(luò)結(jié)構(gòu)合理性分析

        為了分析SneNet網(wǎng)絡(luò)結(jié)構(gòu)的合理性,選擇了多種圖像去噪網(wǎng)絡(luò)來(lái)進(jìn)行對(duì)比實(shí)驗(yàn)。對(duì)比實(shí)驗(yàn)的數(shù)據(jù)集與2.1節(jié)中的相同,為了降低訓(xùn)練的成本,僅使用了嵌入率為0.4和0.5 bpnzac的數(shù)據(jù)集。使用去噪后的載秘圖像與對(duì)應(yīng)的載體圖像之間的PSNR值來(lái)評(píng)估網(wǎng)絡(luò)對(duì)隱寫噪聲的提取能力。

        在圖像去噪網(wǎng)絡(luò)方面,選擇了一個(gè)經(jīng)典的去噪網(wǎng)絡(luò)DNCNN[36]和一個(gè)近期的網(wǎng)絡(luò)MIRNet[37]來(lái)進(jìn)行實(shí)驗(yàn)。DNCNN是一個(gè)端到端的卷積去噪網(wǎng)絡(luò),在合成噪聲上展現(xiàn)出了良好的去噪性能,在不同噪聲上的泛化能力也很強(qiáng)。MIRNet通過對(duì)特征圖進(jìn)行下采樣來(lái)獲得多尺度的噪聲特征,這對(duì)隱寫噪聲的提取很有好處。

        此外,還對(duì)這些網(wǎng)絡(luò)進(jìn)行了一些修改,使得網(wǎng)絡(luò)對(duì)隱寫噪聲的適應(yīng)性更強(qiáng)。為了減少隱寫噪聲在網(wǎng)絡(luò)傳播過程中的損失,在DNCNN中添加了殘差連接[27],通過將網(wǎng)絡(luò)的淺層和深層直接相連,能夠避免網(wǎng)絡(luò)的退化。不同層次的圖像特征進(jìn)行融合也能輔助網(wǎng)絡(luò)對(duì)隱寫噪聲的學(xué)習(xí)。對(duì)于MIRNet,學(xué)習(xí)從載秘圖像到隱寫噪聲的變換,幫助網(wǎng)絡(luò)的收斂。此外通過使用高通濾波核來(lái)初始化這兩個(gè)網(wǎng)絡(luò)第1個(gè)卷積層的卷積核,以此移除不必要的圖像內(nèi)容信息。通過減少圖像低維信息的影響,輔助網(wǎng)絡(luò)的學(xué)習(xí)。將修改后的網(wǎng)絡(luò)稱為DNCNN+和MIRNet+,在實(shí)驗(yàn)中,分別使用DNCNN、RIDNet、MIRNet、DNCNN+、MIRNet+以及文中所設(shè)計(jì)的SneNet提取隱寫噪聲。實(shí)驗(yàn)結(jié)果如圖5所示。

        圖5 使用6種網(wǎng)絡(luò)去噪后的載秘圖像與對(duì)應(yīng)載體圖像的PSNR值

        實(shí)驗(yàn)結(jié)果表明,SneNet在多種情況下都取得了最高的PSNR值。通過比較DNCNN、MIRNet、RIDNet、DNCNN+、MIRNet+和SneNet的結(jié)果,可以看出,殘差連接能夠提高隱寫噪聲的提取效果,防止圖像中微弱的隱寫噪聲在網(wǎng)絡(luò)的傳播過程中丟失。而且,通過將網(wǎng)絡(luò)的淺層和深層直接相連,網(wǎng)絡(luò)能夠更加有效地融合不同層次的特征。融合后的特征更加全面,可以增強(qiáng)網(wǎng)絡(luò)對(duì)噪聲的提取能力。

        與DNCNN相比,RIDNet和MIRNet在隱寫噪聲的提取方面表現(xiàn)更好,這是因?yàn)镽IDNet和MIRNet是針對(duì)真實(shí)噪聲的去噪網(wǎng)絡(luò)。然而,MIRNet中使用的多尺度特征融合模塊在隱寫噪聲上并不是很適合。經(jīng)過多次下采樣處理后,細(xì)微的隱寫噪聲難以保留,這會(huì)對(duì)隱寫噪聲的提取產(chǎn)生影響。因此,文中方法在RIDNet的基礎(chǔ)上構(gòu)建SneNet是合理的。此外,MIRNet和MIRNet+的實(shí)驗(yàn)結(jié)果表明,采用固定濾波核對(duì)卷積層進(jìn)行初始化也能夠抑制圖像本身內(nèi)容的影響。經(jīng)過初始化的卷積層可以提取圖像的高頻信息,使網(wǎng)絡(luò)專注于隱寫噪聲的提取。

        4.3 隱寫分析性能研究

        為了評(píng)估文中方法的隱寫分析性能,使用所提方法在J-UNIWARD和UED-JC這兩種隱寫算法上進(jìn)行了一系列的實(shí)驗(yàn),采用的對(duì)比方法是4種經(jīng)典的針對(duì)JPEG圖像的隱寫分析方法EWNet、SRNet、CSANet和J-XuNet。圖像的質(zhì)量因子為75和85,嵌入率為0.1~0.5.實(shí)驗(yàn)結(jié)果如表3、圖6和圖7所示。

        表3 文中方法SNdesNet與EWNet、SRNet、CSANet和J-XuNet的檢測(cè)錯(cuò)誤率對(duì)比

        (a) 質(zhì)量因子為75

        (a) 質(zhì)量因子為75

        從表3、圖6和圖7可知,SNdesNet的檢測(cè)錯(cuò)誤率要普遍低于SRNet和J-XuNet。當(dāng)質(zhì)量因子為75時(shí),SNdesNet的隱寫分析性能要低于EWNet,與CSANet相近;當(dāng)質(zhì)量因子為85時(shí),SNdesNet的檢測(cè)效果優(yōu)于CSANet;當(dāng)嵌入率較高時(shí),與EWNet相比,SNdesNet具有更好的檢測(cè)效果。

        當(dāng)隱寫算法為J-UNIWARD時(shí),在質(zhì)量因子為75的情況下,SNdesNet的檢測(cè)錯(cuò)誤率要優(yōu)于SRNet和J-XuNet,與CSANet相近,略高于EWNet。在質(zhì)量因子為85的情況下,SNdesNet的檢測(cè)錯(cuò)誤率要普遍優(yōu)于其他4種對(duì)比方法。當(dāng)隱寫算法為UED-JC時(shí),在質(zhì)量因子為75的情況下,SNdesNet的檢測(cè)錯(cuò)誤率要優(yōu)于SRNet和J-XuNet,略高于與EWNet和CSANet。在質(zhì)量因子為85的情況下,當(dāng)嵌入率大于0.3時(shí),SNdesNet的檢測(cè)錯(cuò)誤率要優(yōu)于其他4種對(duì)比算法,當(dāng)嵌入率小于等于0.3時(shí),SNdesNet的檢測(cè)錯(cuò)誤率要優(yōu)于SRNet和J-XuNet,與CSANet相近,略低于EWNet。

        與SRNet、CSANet和J-XuNet相比,SNdesNet更關(guān)注隱寫算法給圖像帶來(lái)的變化。SNdesNet可以抑制圖像內(nèi)容的影響,網(wǎng)絡(luò)中采用的殘差連接也能減少隱寫信號(hào)的丟失。通過捕獲隱寫噪聲的全局特征,基于Swin Transformer骨干構(gòu)建的分類網(wǎng)絡(luò)也能擁有更好的分類能力,因此文中方法取得了更好的檢測(cè)效果。

        與EWNet相比,當(dāng)質(zhì)量因子為85且嵌入率比較高時(shí),SNdesNet的檢測(cè)錯(cuò)誤率要更低。這是因?yàn)樵谶@些情況下,圖像內(nèi)容對(duì)隱寫分析的影響更嚴(yán)重,SneNet提取的隱寫噪聲更準(zhǔn)確,因此分類效果要更好。然而,當(dāng)質(zhì)量因子較低時(shí),EWNet中使用的反卷積層可以通過對(duì)特征圖進(jìn)行上采樣來(lái)豐富用于分類的特征。所以,在這種情況下,EWNet擁有更好的檢測(cè)效果。

        在相同硬件條件下,對(duì)5種網(wǎng)絡(luò)的平均訓(xùn)練時(shí)間進(jìn)行了比較,結(jié)果如表4所示。

        表4 5種網(wǎng)絡(luò)的平均訓(xùn)練時(shí)長(zhǎng)

        從表4可以看出,文中方法的平均訓(xùn)練時(shí)間相對(duì)較長(zhǎng),這主要是由于噪聲提取網(wǎng)絡(luò)的訓(xùn)練相對(duì)耗時(shí)。在噪聲提取網(wǎng)絡(luò)的訓(xùn)練過程中,以去噪網(wǎng)絡(luò)為基礎(chǔ)進(jìn)行設(shè)計(jì),圖像在網(wǎng)絡(luò)中傳播時(shí)大小并沒有發(fā)生變化,這增加了噪聲提取網(wǎng)絡(luò)的計(jì)算量,極大地增加了訓(xùn)練的時(shí)長(zhǎng),該網(wǎng)絡(luò)的訓(xùn)練時(shí)長(zhǎng)為24.92 h。訓(xùn)練獲得的噪聲提取網(wǎng)絡(luò)將作為一個(gè)預(yù)處理網(wǎng)絡(luò)添加在分類網(wǎng)絡(luò)之前,因此訓(xùn)練分類網(wǎng)絡(luò)時(shí)無(wú)需再對(duì)噪聲提取網(wǎng)絡(luò)進(jìn)行訓(xùn)練。而由于文中提出的方法抑制了圖像內(nèi)容對(duì)隱寫分析的影響,提出的評(píng)價(jià)指標(biāo)P也使提取的隱寫噪聲有利于分類網(wǎng)絡(luò)的檢測(cè),因此分類網(wǎng)絡(luò)在訓(xùn)練30個(gè)epoch后就可以達(dá)到收斂,這極大地減少了訓(xùn)練的時(shí)間,分類網(wǎng)絡(luò)的訓(xùn)練時(shí)長(zhǎng)為3.61 h。整個(gè)網(wǎng)絡(luò)的訓(xùn)練時(shí)長(zhǎng)為兩個(gè)子網(wǎng)絡(luò)分別訓(xùn)練時(shí)長(zhǎng)之和,即28.53 h。

        5 結(jié)束語(yǔ)

        為了提取更準(zhǔn)確的隱寫噪聲,提高隱寫分析的準(zhǔn)確率,文中提出了一種基于隱寫噪聲深度提取的JPEG圖像隱寫分析方法。該方法首先通過有監(jiān)督的訓(xùn)練策略構(gòu)建隱寫噪聲深度提取網(wǎng)絡(luò),而后利用文中提出的模型評(píng)價(jià)指標(biāo)選擇最優(yōu)網(wǎng)絡(luò),最后,使用隱寫噪聲深度提取網(wǎng)絡(luò)和分類網(wǎng)絡(luò)共同構(gòu)建文中的隱寫分析模型。在實(shí)驗(yàn)中,對(duì)文中方法所提出網(wǎng)絡(luò)參數(shù)和結(jié)構(gòu)的合理性進(jìn)行了分析。與現(xiàn)有的基于深度學(xué)習(xí)的JPEG隱寫分析方法的對(duì)比實(shí)驗(yàn)結(jié)果表明,與SRNet、CSANet和J-XuNet相比,文中方法可以獲得更高的檢測(cè)準(zhǔn)確率。當(dāng)圖像質(zhì)量因子較大、信息嵌入率較高時(shí),文中方法的隱寫分析性能與EWNet相比略有提高。但是文中方法仍有不足之處,如當(dāng)嵌入率過低時(shí),該方法難以非常準(zhǔn)確地提取出隱寫噪聲,同時(shí)隱寫噪聲深度提取網(wǎng)絡(luò)和分類網(wǎng)絡(luò)的組合導(dǎo)致了模型的規(guī)模較大。未來(lái)的工作包括:一方面是提取更加準(zhǔn)確的隱寫噪聲;另一方面是對(duì)模型進(jìn)行壓縮,提升訓(xùn)練的效率。

        猜你喜歡
        分類深度特征
        分類算一算
        深度理解一元一次方程
        如何表達(dá)“特征”
        不忠誠(chéng)的四個(gè)特征
        分類討論求坐標(biāo)
        深度觀察
        深度觀察
        深度觀察
        數(shù)據(jù)分析中的分類討論
        教你一招:數(shù)的分類
        日韩视频午夜在线观看| 大伊香蕉精品视频一区| 日本a在线免费观看| 精精国产xxx在线视频app| 亚洲熟伦在线视频| 一区二区三区国产大片| av在线一区二区三区不卡| 日韩中文字幕久久久老色批| 国产美女被遭强高潮露开双腿| 亚洲精品日本久久久中文字幕| 日本精品啪啪一区二区| 亚洲自拍偷拍一区二区三区| 国产毛片av最新视频| 波多野结衣不打码视频| 久久久www成人免费毛片| 免费观看又色又爽又黄的| 男人边吃奶边做好爽免费视频 | 亚洲午夜无码毛片av久久| 精品国产这么小也不放过| 闺蜜张开腿让我爽了一夜| 欧美人与动牲交a欧美精品| 精品少妇一区二区三区视频| 亚洲两性视频一三区| www.尤物视频.com| 国产av一卡二卡日韩av| 国产a∨天天免费观看美女| 中文无码熟妇人妻av在线| 日本阿v网站在线观看中文| 香蕉视频毛片| 午夜亚洲国产精品福利| 精品成人av人一区二区三区| 中国人在线观看免费的视频播放| 一本加勒比hezyo无码专区 | 狠狠色狠狠色综合日日不卡| 欧美a在线播放| 亚洲色无码中文字幕| 亚洲精品中文字幕熟女| 色熟妇人妻久久中文字幕| 免费不卡在线观看av| 国产精品久久国产精麻豆99网站| 一区二区三区日本大片|