亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于密集殘差網(wǎng)絡(luò)的圖像隱藏方案

        2024-05-10 03:36:06陳立峰劉佳潘曉中孫文權(quán)董煒娜
        科學(xué)技術(shù)與工程 2024年9期

        陳立峰, 劉佳, 潘曉中, 孫文權(quán), 董煒娜

        (武警工程大學(xué)密碼工程學(xué)院, 西安 710086)

        隱寫術(shù)是一種將秘密信息嵌入載體以實(shí)現(xiàn)隱蔽通信的技術(shù),在信息安全、數(shù)據(jù)通信等諸多領(lǐng)域發(fā)揮著重要作用。隱寫一般通過載體修改、載體選擇和載體合成的方法實(shí)現(xiàn)[1]。載體修改是通過某種修改策略將秘密信息嵌入載體中[2-5],該類方法的載密圖像失真度低,圖像質(zhì)量好,但對(duì)基于統(tǒng)計(jì)分析的隱寫檢測算法抵抗較弱。載體選擇[6]是在消息和載體數(shù)據(jù)集之間建立映射關(guān)系,以傳輸圖像的方式來傳輸秘密信息。這種方法無須對(duì)載體進(jìn)行修改,但嵌入容量較低且隨著通信次數(shù)增多,圖像庫存在暴露的風(fēng)險(xiǎn)[7]。載體合成[8]的隱寫通過直接構(gòu)造含密載體來實(shí)現(xiàn)。該方法構(gòu)造的含密載體通常具有不夠真實(shí)或不夠自然的問題。

        隨著深度學(xué)習(xí)的不斷發(fā)展,圖像生成技術(shù)不斷提高。2014年,Goodfellow等[9]提出了生成對(duì)抗網(wǎng)絡(luò)(generative adversarial networks,GAN),通過對(duì)抗博弈的方法極大地提高了模型生成樣本的能力。研究者們開始將深度學(xué)習(xí)技術(shù)應(yīng)用到隱寫領(lǐng)域,利用生成模型生成含密載體來隱藏秘密信息[10-14]。這類方法擴(kuò)大了隱藏容量和提升了隱寫安全性,但生成的含密圖像與原始圖像在細(xì)節(jié)上仍有一定差異。

        除生成模型以外,另一類基于深度學(xué)習(xí)的隱寫方案采用了編-解碼(enconder-decoder)框架。Buluja等[15-16]首次使用編碼-解碼網(wǎng)絡(luò)將一張經(jīng)過預(yù)處理的彩色圖像嵌入另一張相同大小的彩色圖像中,這種方法具有較高的隱寫容量,但生成的含密圖像存在部分失真。Wu等[17]提出了一種無須進(jìn)行圖像預(yù)處理的端到端隱寫網(wǎng)絡(luò)Stegnet。該方案在編碼過程中加入殘差連接,并使用方差損失函數(shù)來解決含密圖像中非紋理區(qū)域存在噪聲點(diǎn)的問題,但該方案仍未解決生成含密圖像的顏色失真的問題。Hayes等[18]將對(duì)抗訓(xùn)練的思想引入編碼-解碼網(wǎng)絡(luò)以實(shí)現(xiàn)隱寫操作,但該方法的嵌入容量較低。Rehman等[19]使用卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural-network,CNN)構(gòu)建了一個(gè)編碼-解碼網(wǎng)絡(luò),運(yùn)用CNN層提取圖像特征能力,將一張灰度圖像嵌入彩色圖像中。該方案網(wǎng)絡(luò)結(jié)構(gòu)簡單,生成含密圖像和提取的秘密圖像質(zhì)量不高。為解決這一問題,Zhang等[20]將灰度秘密圖像與彩色載體圖像的Y通道進(jìn)行拼接,先通過編碼網(wǎng)絡(luò)生成含密圖像,再通過解碼網(wǎng)絡(luò)提取秘密圖像,有效避免了圖像顏色失真的問題,但該方案較為復(fù)雜,需要對(duì)圖像進(jìn)行預(yù)處理。還有一些研究者采用了基于流模型[21](flow-based)的編-解碼網(wǎng)絡(luò),編碼器和解碼器共享參數(shù),只需訓(xùn)練一個(gè)網(wǎng)絡(luò)實(shí)現(xiàn)信息的嵌入和提取[22-24]。

        為解決當(dāng)前基于編-解碼網(wǎng)絡(luò)的隱寫方法[19]中含密圖像顏色失真以及對(duì)圖像進(jìn)行預(yù)處理[20]的問題,現(xiàn)設(shè)計(jì)一種端到端的基于密集殘差網(wǎng)絡(luò)的圖像隱藏方案,提出一種利用密集連接和殘差連接改變編碼-解碼網(wǎng)絡(luò)結(jié)構(gòu)的方法,加強(qiáng)特征的傳遞,提高圖像質(zhì)量。引入注意力機(jī)制來獲取圖像深層特征,并設(shè)計(jì)一種損失函數(shù)約束訓(xùn)練過程,使生成的含密圖像更接近載體圖像。訓(xùn)練時(shí)無須對(duì)圖像進(jìn)行預(yù)處理,加快訓(xùn)練速度,提高隱寫效率。

        1 本文方案

        1.1 模型總體框架

        模型采用一種端到端的訓(xùn)練模式,主要由兩部分組成,編碼器E和解碼器D。編碼器E接受大小為1×H×W的秘密圖像S和大小為3×H×W的載體圖像C作為輸入,并產(chǎn)生大小為3×H×W的載密圖像C′。解碼器D收到含密圖像C′作為輸入,得到大小為1×H×W的解秘圖像S′。模型的總體架構(gòu)如圖1所示。

        圖1 模型總體架構(gòu)Fig.1 Overall architecture of the model

        1.2 編碼器網(wǎng)絡(luò)結(jié)構(gòu)

        編碼器E接受秘密圖像S和載體圖像C作為輸入,通過卷積和拼接操作將兩幅圖像信息融合,然后使用6個(gè)具有相同結(jié)構(gòu)層的塊,每個(gè)塊包含密集連接和卷積神經(jīng)網(wǎng)絡(luò)構(gòu)成的卷積層,再使用BN(batch normalization)層對(duì)數(shù)據(jù)進(jìn)行歸一化處理,每一卷積層都使用Relu作為激活函數(shù),通過密集連接加強(qiáng)特征的傳遞,增強(qiáng)編碼器對(duì)圖像深層次特征的提取能力[25];中間加入基于卷積塊的注意力模塊(convolutional block attention module,CBAM)[26],即通道注意力和空間注意力以串聯(lián)的方式組合,獲取圖像的復(fù)雜紋理區(qū)域特征,最后使用殘差連接的方式提取特征圖的全局特征,從而生成高質(zhì)量圖像。編碼器網(wǎng)絡(luò)結(jié)構(gòu)如圖2所示。

        圖2 編碼器網(wǎng)絡(luò)結(jié)構(gòu)Fig.2 Encoder network structure

        使用3×256×256的載體圖像C和1×256×256的秘密圖像S,編碼器接受載體圖像和秘密圖像后,先使用大小為3×3的卷積核分別對(duì)兩幅圖像進(jìn)行卷積,輸出兩個(gè)32通道的特征圖,再使用拼接操作和卷積操作輸出一個(gè)3通道特征圖,最后經(jīng)過7層網(wǎng)絡(luò)結(jié)構(gòu)生成3×256×256的含密圖像C′。編碼器中的7層網(wǎng)絡(luò)結(jié)構(gòu)如表1所示。

        表1 編碼器具體網(wǎng)絡(luò)結(jié)構(gòu)Table 1 Encoder specific network structure

        1.3 解碼器網(wǎng)絡(luò)結(jié)構(gòu)

        解碼器D接受來自編碼器E的含密圖像C′之后,使用6個(gè)卷積層與注意力機(jī)制CBAM來提取含密圖像C′中的特征,中間使用密集連接加強(qiáng)特征的傳遞,準(zhǔn)確地從含密圖像C′中提取出解密圖像S′。解碼器網(wǎng)絡(luò)結(jié)構(gòu)如圖3所示。

        圖3 解碼器網(wǎng)絡(luò)結(jié)構(gòu)Fig.3 Decoder network structure

        解碼器D與編碼器E具有類似的網(wǎng)絡(luò)結(jié)構(gòu),解碼器收到大小為3×256×256的含密圖像C′后,使用6層卷積核大小為3×3的卷積層提取特征,中間加入注意力模塊獲取圖像的復(fù)雜紋理區(qū)域特征,得到1×256×256的解密圖像S′。解碼器中的具體網(wǎng)絡(luò)結(jié)構(gòu)如表2所示。

        表2 解碼器具體網(wǎng)絡(luò)結(jié)構(gòu)Table 2 Decoder specific network structure

        1.4 損失函數(shù)

        損失函數(shù)主要包括兩個(gè)部分,載體圖像內(nèi)容損失Le和秘密圖像內(nèi)容損失Ld。在圖像隱藏過程中,不僅要保證載體圖像和含密圖像相似度高,還要保證解碼器能準(zhǔn)確地從含密圖像中提取秘密圖像。

        1.4.1 載體圖像內(nèi)容損失

        Le為載體圖像和含密圖像的均方誤差(mean square error, MSE),如式(1)所示。

        (1)

        式(1)中:α為權(quán)重參數(shù);C′為含密圖像;C為載體圖像。

        1.4.2 秘密圖像內(nèi)容損失

        Ld為秘密圖像內(nèi)容損失,如式(2)所示。

        μ(1-Lmsssim)

        (2)

        式(2)中:β、γ和μ為權(quán)重參數(shù);S′為解密圖像;S為秘密圖像。由于人眼對(duì)圖像結(jié)構(gòu)信息比較敏感,為使解密圖像更符合人的視覺感知,在秘密圖像內(nèi)容損失中加入了結(jié)構(gòu)相似性(structural similarity,SSIM)損失Lssim和多尺度結(jié)構(gòu)相似性(multi-scale SSIM,MSSSIM)[27]損失Lmsssim。其中,SSIM分為3個(gè)部分:照明度、對(duì)比度、結(jié)構(gòu),分別如式(3)、式(4)和式(5)所示。

        (3)

        (4)

        (5)

        SSIM的計(jì)算公式如式(6)所示。

        SSIM(x,y)=[l(x,y)]l[c(x,y)]m[s(x,y)]n

        (6)

        實(shí)際使用時(shí),一般將參數(shù)設(shè)置為l=m=n=1,C3=C2/2,得

        (7)

        MS-SSIM的計(jì)算公式如式(8)所示。

        (8)

        式中:μx、σx分別為圖像X的均值和方差;μy、σy分別為圖像Y的均值和方差;σxy為X和Y的協(xié)方差;M為不同尺度;βm和γm為圖像之間的相對(duì)重要性,βm=γm=1;C1=(k1L)2,C2=(k2L)2為常數(shù),k1默認(rèn)取值0.01,k2取值0.03,L為像素值的動(dòng)態(tài)范圍,如果數(shù)據(jù)為uint8型,L取值為255。綜上所述,總的損失函數(shù)Lo如式(9)所示。

        Lo=Le+Ld

        (9)

        2 實(shí)驗(yàn)結(jié)果與分析

        實(shí)驗(yàn)在數(shù)據(jù)集LFW、PASCAL-VOC12和ImageNet上進(jìn)行了測試。LFW數(shù)據(jù)集一共含有1 680人的13 000多張人臉圖像,從LFW中選取10 000張圖像,其中5 000張為載體圖像,5 000張為秘密圖像作為訓(xùn)練集,其余的3 000張圖像作為驗(yàn)證集;PASCAL-VOC12數(shù)據(jù)集分為20類,包含23 080張圖片,從中選取16 000張圖像,其中8 000張為載體圖像,8 000張為秘密圖像,并從其余部分選擇5 000張圖像作為驗(yàn)證集;由于ImageNet數(shù)據(jù)集較大,包含14 197 122張圖像,選取了其中10 000張圖像作為訓(xùn)練集,5 000張圖像作為驗(yàn)證集。運(yùn)行實(shí)驗(yàn)的設(shè)備為64 GB內(nèi)存的電腦,操作系統(tǒng)為Windows11。采用Adam優(yōu)化器,輸入圖像大小統(tǒng)一調(diào)整為256×256,學(xué)習(xí)率Learning Rate=0.000 1,Batch size=64, Epochs=500,損失函數(shù)參數(shù)設(shè)置為α=0.3,β=0.3,γ=0.5,μ=0.5。

        2.1 隱寫效率對(duì)比

        采用訓(xùn)練時(shí)間和隱寫時(shí)間來評(píng)估隱寫效率,在LFW數(shù)據(jù)集上選取500張載體圖像和500張秘密圖像進(jìn)行訓(xùn)練得到訓(xùn)練時(shí)間,并選取100張載體圖像和100張秘密圖像進(jìn)行測試取平均值得到平均隱寫時(shí)間,實(shí)驗(yàn)結(jié)果如表3所示。

        表3 不同方案的隱寫效率Table 3 Steganography efficiency of different schemes

        從表3可以看出,本文方案與文獻(xiàn)[19]相比效率相當(dāng),較文獻(xiàn)[20]相比,訓(xùn)練時(shí)間減少了0.9 h,平均隱寫時(shí)間減少了7 s。

        2.2 隱寫容量對(duì)比

        隱寫容量即負(fù)載,指隱藏消息的長度,通常用相對(duì)負(fù)載率(relative payload ratio,RPR)來度量。隱寫容量的公式如式(10)所示。

        (10)

        式(10)中:|M|為隱藏圖像的大小;|S|為載體圖像的大小。秘密圖像的大小為1×H×W,載體圖像的大小為3×H×W,由此計(jì)算出本文方案的RPR為33.3%,即每像素位可以隱藏8bit數(shù)據(jù),和文獻(xiàn)[19]和文獻(xiàn)[20]具有相同的隱寫容量。

        2.3 圖像質(zhì)量對(duì)比

        圖像質(zhì)量通常用不可感知性來衡量,不可感知性又稱感知透明性,指載體圖像和秘密圖像在感知上不存在差異,通常采用MSE反映圖像變化的質(zhì)量,峰值性噪比(peak signal to noise ratio,PSNR)比較圖片的壓縮質(zhì)量,SSIM顯示載體圖像和秘密圖像的相似性。其中,在評(píng)估過程中,PSNR由MES計(jì)算得出,PSNR與SSIM越高越好,MSE與PSNR的計(jì)算方法分別如式(11)和式(12)所示。

        (11)

        PSNR=20lg(sc)-10lg(MSE)

        (12)

        式中:X和Y分別為兩個(gè)大小為W×H的圖像;sc為縮放因子,通常取值為2。

        本文方案與其他方案的實(shí)驗(yàn)結(jié)果對(duì)比如表4所示??梢钥闯?本文方案在PASCAL-VOC12數(shù)據(jù)集上的表現(xiàn)更好,PSNR和SSIM值均高于其他方案。本文與文獻(xiàn)[19]和文獻(xiàn)[20]相比,本文方案在LFW和ImageNet數(shù)據(jù)集PSNR值較低,主要是PSNR值是逐像素點(diǎn)進(jìn)行計(jì)算的,不太符合人的主觀感受。相比之下,本文方案的SSIM值較高,是由于在提取網(wǎng)絡(luò)損失中引入了SSIM和MS-SSIM損失函數(shù),更加關(guān)注圖像的結(jié)構(gòu)化信息,更符合人的視覺感知。

        2.4 圖像效果對(duì)比

        實(shí)驗(yàn)選取相同的載體圖像和秘密圖像,將本文方案與其他方案在LFW、PASCAL-VOC12和ImageNet數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果進(jìn)行了對(duì)比,訓(xùn)練出的載密圖像和解密圖像效果對(duì)比如圖4、圖5和圖6所示。

        圖4 LFW數(shù)據(jù)集的圖像訓(xùn)練結(jié)果對(duì)比Fig.4 Comparison of image training results from LFW datasets

        圖5 PASCAL-VOC12數(shù)據(jù)集的圖像訓(xùn)練結(jié)果對(duì)比Fig.5 Comparison of image training results from PASCAL-VOC12 datasets

        圖6 ImageNet數(shù)據(jù)集的圖像訓(xùn)練結(jié)果對(duì)比Fig.6 Comparison of image training results from ImageNet datasets

        通過對(duì)比可以看到,本文方案較文獻(xiàn)[19]在圖像質(zhì)量上有明顯的提升,解決了文獻(xiàn)[19]的含密圖像顏色失真和解密圖像含有載體圖像輪廓的問題。且本文方案與文獻(xiàn)[20]相比均有較高的圖像質(zhì)量,本文方案的優(yōu)勢(shì)在于使用殘差密集連接和注意力機(jī)制加強(qiáng)了特征的傳遞,無需對(duì)圖像進(jìn)行預(yù)處理。

        2.5 安全性

        算法的安全性是評(píng)價(jià)信息隱藏方案的一項(xiàng)重要指標(biāo)。將秘密圖像嵌入載體圖像中,因此隱寫分析的任務(wù)是將載體圖像與含密圖像區(qū)分開來。

        首先對(duì)不同方案生成的圖像進(jìn)行了統(tǒng)計(jì)分析,隨機(jī)選取相同的載體圖像和含密圖像,以圖6中載體圖像1為例,將其在本文方案得到的含密圖像的直方圖與其他方案得到的含密圖像直方圖進(jìn)行了對(duì)比,如圖7所示。橫坐標(biāo)表示范圍為0~255的亮度值,縱坐標(biāo)表示像素的數(shù)量。從生成的直方圖來看,生成的含密圖像與原始圖像的相似度較其他兩個(gè)方案更高。

        圖7 不同方案的直方圖Fig.7 Histograms of different schemes

        使用兩種隱寫分析工具來驗(yàn)證方案的安全性,分別是傳統(tǒng)隱寫分析工具StegExpose[28]和基于深度學(xué)習(xí)的隱寫分析工具SRNet[29]。StegExpose工具包包含SPA(sample pairs analysis)、RS(regular-singular)分析等隱寫分析,可以快速使用經(jīng)過驗(yàn)證的隱寫分析方法批量分析圖像。

        在選取500張載體圖像在3個(gè)方案上分別生成500張含密圖像,然后將這些圖像對(duì)進(jìn)行了隱寫分析,生成了3條受試者操作特征(receiver operating characteristic,ROC)曲線,如圖8所示。由實(shí)驗(yàn)結(jié)果可知,3個(gè)方案生成的含密圖像的ROC曲線大致都在對(duì)角線附近,具有較好的抗隱寫分析能力。

        圖8 ROC曲線Fig.8 ROC curve

        采用圖像隱寫分析網(wǎng)絡(luò)SRNet進(jìn)行了隱寫分析,使用Adamax優(yōu)化器,輸入圖像大小統(tǒng)一調(diào)整為256×256,Learning Rate=0.001,Batch size=10,Epochs=180。表5給出了不同隱寫方法下SRNet的檢測精度。其中,檢測精度越接近50%(隨機(jī)猜測),圖像隱藏算法性能越好??梢钥闯?本文方案網(wǎng)絡(luò)模型檢測準(zhǔn)確率達(dá)58.23%,比較接近50%,表明本文方案網(wǎng)絡(luò)模型具有較好的安全性。

        表5 不同方案的檢測準(zhǔn)確率Table 5 Detection accuracy of different schemes

        3 結(jié)論

        設(shè)計(jì)了一種基于密集殘差網(wǎng)絡(luò)的圖像隱寫方案,使用密集殘差連接的方式,加強(qiáng)圖像的特征傳遞,并使用注意力機(jī)制模塊提取圖像深層次特征,提高了載密圖像和解密圖像的質(zhì)量。實(shí)驗(yàn)表明,本文方案和文獻(xiàn)[19]相比具有更好的圖像質(zhì)量,和文獻(xiàn)[20]相比,本文方案無須進(jìn)行圖像預(yù)處理操作。但本文方案只對(duì)灰度圖像進(jìn)行了隱藏,且隱寫容量低于文獻(xiàn)[16],在未來的工作中,可以嘗試隱藏彩色圖像,進(jìn)一步提高隱寫容量。

        亚洲天堂av在线免费看| 综合图区亚洲另类偷窥| 蜜桃视频在线看一区二区三区 | 亚洲美女啪啪| 蜜桃视频在线免费观看一区二区| 中文字幕色婷婷在线视频| 人妻少妇精品视频专区vr| 中文亚洲av片在线观看| 欧美第五页| 亚洲AV秘 无码一区二区三| 国产91在线精品观看| 日本丰满老妇bbw| 狠狠躁夜夜躁人人躁婷婷视频| 一卡二卡三卡视频| 国产乱色国产精品免费视频| 国产人禽杂交18禁网站| 日本一区二区三区高清视| 一二三四五区av蜜桃| 精精国产xxxx视频在线播放| 免费无遮挡无码视频在线观看| 久久久人妻一区精品久久久| 中国国产不卡视频在线观看| 特级av毛片免费观看| 全免费a级毛片免费看| 粉色蜜桃视频完整版免费观看在线| 99riav国产精品视频| 国产精品人妻一区夜夜爱| 蜜芽尤物原创AV在线播放| 亚洲五码av在线观看| 欧美嫩交一区二区三区| 精品人妻系列无码人妻免费视频 | 国产自拍视频免费在线观看| а天堂8中文最新版在线官网| 亚洲精品国产v片在线观看| 中文字幕在线观看乱码一区| 国产成人精品一区二三区在线观看| 99久久精品无码一区二区毛片| 国产熟女高潮视频| 美女视频永久黄网站免费观看国产| 国产精品成人自拍在线观看| av无码电影一区二区三区|