亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        HCGAN:一種基于GAN的高容量信息隱藏算法

        2022-04-29 00:00:00張克君李旭于新穎馮麗雯秦昊聰張健毅

        摘要:針對(duì)現(xiàn)有信息隱藏算法存在隱寫容量低、信息提取困難以及安全性差等問(wèn)題,本文提出了一種基于生成對(duì)抗網(wǎng)絡(luò)的高容量信息隱藏算法(High Capacity Information Hiding Algorithm Based on GAN,HCGAN).在秘密信息嵌入方面,使用基于Im-Residual結(jié)構(gòu)的編碼器將秘密信息嵌入載體圖像中,避免了秘密信息嵌入時(shí)由卷積層提取特征導(dǎo)致的信息損失.在秘密信息提取方面,使用基于稠密結(jié)構(gòu)的解碼器從含秘圖像中提取出秘密信息,利用特征復(fù)用來(lái)增加秘密信息的提取率.在抗隱寫分析方面,利用基于隱寫分析的鑒別器與基于Im- Residual 結(jié)構(gòu)的編碼器進(jìn)行對(duì)抗訓(xùn)練,以提高含秘圖像的抗隱寫分析能力.實(shí)驗(yàn)表明,經(jīng)過(guò)對(duì)抗訓(xùn)練后,HCGAN在2 bpp嵌入率下比WOW和S-UNIWARD在0.4 bpp嵌入率下具有更低的隱寫分析檢測(cè)率.

        關(guān)鍵詞:信息隱藏;深度學(xué)習(xí);生成對(duì)抗網(wǎng)絡(luò);自編碼器;卷積神經(jīng)網(wǎng)絡(luò)

        中圖分類號(hào):TN915.08文獻(xiàn)標(biāo)志碼:A

        HCGAN:A High Capacity Information Hiding Algorithm Based on GAN

        ZHANG Kejun" LI Xu YU Xinying FENG Liwen QIN Haocong ZHANG Jianyi1

        (1. Department of Cyberspace Security,Beijing Electronic Science and Technology Institute,Beijing 10007 China;

        2. School of Cyberspace Security,Beijing University of Posts and Telecommunications,Beijing 100876,China)

        Abstract:Aiming at the problems of low steganographic capacity,difficult information extraction,and poor security in existing information hiding algorithms,this paper proposes a high capacity information hiding algorithm based on GAN (HCGAN). For secret information embedding,an Im-Residual structure-based encoder is applied to embed the secret information into the carrier image,avoiding the information loss caused by the feature extraction of the convolution layer. For secret information extraction,a dense structure-based decoder is utilized to extract secret information from the secret image,and feature reuse is used to increase the extraction rate of secret information. In terms of anti-steganalysis,the discriminator based on steganalysis and the encoder based on Im-Residual structure are used for adversarial training to improve the anti-steganalysis ability of the secret image. Experiments show that after adversarial training,HCGAN has a lower steganalysis detection rate at an embedding rate of 2bpp than the WOW and SUNIWARD algorithms at an embedding rate of 0.4bpp.

        Key words:information hiding;deep learning;generative adversarial networks;autoencoder;convolutional neural network

        隨著網(wǎng)絡(luò)信息技術(shù)的快速發(fā)展和移動(dòng)終端設(shè)備的不斷普及,數(shù)字多媒體成為互聯(lián)網(wǎng)通信的主要載體.數(shù)字多媒體的廣泛應(yīng)用使得網(wǎng)絡(luò)中充斥著大量對(duì)國(guó)家、企業(yè)或個(gè)人而言十分敏感的信息.為保證這些信息能被安全地傳遞,發(fā)送方通常需要對(duì)信息進(jìn)行加密,同時(shí)加密后的密文只能被持有特定密鑰的接收者解密,但密文的偽隨機(jī)性會(huì)暴露秘密信息的存在,從而引來(lái)攻擊者的懷疑和攻擊.信息隱藏技術(shù)通過(guò)將敏感的秘密信息偽裝成普通信息來(lái)隱藏秘密信息,為上述問(wèn)題提供了解決方案,對(duì)信息安全有著重要意義[1].

        在信息隱藏過(guò)程中,發(fā)送方首先將秘密信息嵌入載體中形成含秘載體,隨后把含秘載體上傳到公共信道[2].特定的接收方從公共信道中下載含秘載體,使用密鑰或提取算法從中提取出秘密信息.在秘密信息的傳遞過(guò)程中,除了通信雙方之外,其他人雖然可以下載含秘載體但無(wú)法獲取其中的秘密信息.信息隱藏技術(shù)的這種隱蔽性能夠有效阻止攻擊者對(duì)秘密信息的感知和破壞,進(jìn)而保證了秘密信息在傳遞過(guò)程中的安全[3].

        信息隱藏技術(shù)和加密技術(shù)的結(jié)合既防止了秘密信息的存在被知曉,又保護(hù)了秘密信息的內(nèi)容,但仍不能保證秘密信息的絕對(duì)安全.發(fā)送方在嵌入秘密信息時(shí)會(huì)不可避免地對(duì)載體造成干擾,隱寫分析就可以對(duì)這些干擾進(jìn)行分析并判斷出載體是否含有秘密信息.信息隱藏和隱寫分析互為對(duì)手,在相互對(duì)抗中不斷發(fā)展進(jìn)步.為了對(duì)抗隱寫分析,信息隱藏已經(jīng)從早期的最低有效位(Least Significant Bit,LSB)替換算法[4]發(fā)展到現(xiàn)在根據(jù)載體內(nèi)容來(lái)嵌入秘密信息的自適應(yīng)信息隱藏算法.在不斷進(jìn)步的信息隱藏技術(shù)的推動(dòng)下,隱寫分析也很快實(shí)現(xiàn)了從專用到通用,從低維特征到高維特征的跨越.

        不斷進(jìn)步的隱寫分析算法雖然促進(jìn)了信息隱藏算法的發(fā)展,卻對(duì)信息隱藏技術(shù)的安全性提出了挑戰(zhàn).近年來(lái),深度學(xué)習(xí)技術(shù)在運(yùn)算速度更快的硬件支持下迅速發(fā)展,不斷涌現(xiàn)出各種網(wǎng)絡(luò)模型.深度置信網(wǎng)絡(luò)[5]及反向傳播算法的提出更是推動(dòng)了深度學(xué)習(xí)技術(shù)在計(jì)算機(jī)視覺(jué)、自然語(yǔ)言處理和自動(dòng)駕駛等領(lǐng)域的發(fā)展.深度學(xué)習(xí)強(qiáng)大的學(xué)習(xí)能力和特征表達(dá)能力,使得隱寫分析算法的設(shè)計(jì)不再需要豐富的專業(yè)知識(shí).在基于深度學(xué)習(xí)的隱寫分析算法被提出之后,隱寫分析對(duì)含秘載體的檢測(cè)能力越來(lái)越強(qiáng),這迫使信息隱藏領(lǐng)域的研究者開(kāi)始研究更加安全的信息隱藏算法.

        在對(duì)信息隱藏技術(shù)的探索中,Goodfellow等人于2014年提出的生成對(duì)抗網(wǎng)絡(luò)[6](Generative Adversarial Networks,GAN)受到了信息隱藏技術(shù)研究者的關(guān)注.GAN包含兩個(gè)神經(jīng)網(wǎng)絡(luò),其中一個(gè)網(wǎng)絡(luò)能夠生成符合真實(shí)樣本分布的生成樣本,另一個(gè)網(wǎng)絡(luò)用來(lái)區(qū)分真實(shí)樣本和生成樣本,這兩個(gè)網(wǎng)絡(luò)互相對(duì)抗并交替訓(xùn)練.GAN這種對(duì)抗博弈的方法和信息隱藏技術(shù)與隱寫分析算法互相對(duì)抗并不斷發(fā)展的情況十分相似,因此信息隱藏技術(shù)的研究者期望將GAN用于信息隱藏中以得到更強(qiáng)的安全性和更高的隱寫容量.迄今為止,基于GAN網(wǎng)絡(luò)的信息隱藏算法并沒(méi)有完全實(shí)現(xiàn)上述目標(biāo),它們?cè)陔[寫容量、安全性和秘密信息提取準(zhǔn)確率等方面還存在不足.因此,研究基于GAN的信息隱藏技術(shù)并使其在隱寫容量和安全性等方面獲得提升有著重要的實(shí)際意義.

        本文提出了一種新的基于GAN的高容量信息隱藏算法(HCGAN).該算法能夠在高容量的情況下保持較高的秘密信息提取率,并且有較強(qiáng)的抗隱寫分析能力.HCGAN算法由三部分組成:①基于Im- Residual 結(jié)構(gòu)的編碼器,發(fā)送方能夠通過(guò)編碼器將秘密信息嵌入載體圖像中形成隱秘圖像;②基于稠密結(jié)構(gòu)的解碼器,接收方可以通過(guò)解碼器將秘密從隱秘圖像中提取出來(lái);③基于隱寫分析的鑒別器,用來(lái)進(jìn)行對(duì)抗性訓(xùn)練以提高隱秘圖像的抗隱寫分析能力.本文的主要貢獻(xiàn)如下:

        1)提出了基于Im-Redisual結(jié)構(gòu)的編碼器,其中Im-Residual結(jié)構(gòu)是基于Residual結(jié)構(gòu)進(jìn)行優(yōu)化所形成的,Im-Residual結(jié)構(gòu)的編碼器采用多次嵌入的思想能夠降低秘密信息因特征提取而產(chǎn)生的信息損失,從而提高秘密信息提取率.

        2)設(shè)計(jì)了基于稠密結(jié)構(gòu)的解碼器,利用Dense結(jié)構(gòu)特征復(fù)用的能力提取出更多有用特征,以進(jìn)一步提高解碼器的秘密信息提取率.

        3)提出了一種基于隱寫分析的鑒別器,通過(guò)GAN的對(duì)抗訓(xùn)練思想進(jìn)一步提升HCGAN信息隱藏算法的抗隱寫分析能力.

        1相關(guān)工作

        1.1經(jīng)典的信息隱藏算法

        根據(jù)所使用的方法不同,信息隱藏技術(shù)可以分為經(jīng)典的信息隱藏算法和基于深度學(xué)習(xí)的信息隱藏算法.

        最低有效位替換算法作為早期的信息隱藏算法,只對(duì)像素中最不影響圖像視覺(jué)效果的最低有效位進(jìn)行修改[4].LSB替換算法能保證載體的視覺(jué)質(zhì)量,但在嵌入過(guò)程中沒(méi)有考慮載體的統(tǒng)計(jì)特征.因此,隱寫分析算法可以輕易地根據(jù)直方圖異常等特征識(shí)別出通過(guò)LSB替換算法獲得的含秘載體.像素值差分[7](Pixel Value Differencing,PVD)使用兩個(gè)連續(xù)像素之間的差來(lái)表示秘密信息,比LSB替換算法更安全,但是也存在統(tǒng)計(jì)特征的異常.此后,研究者們?cè)O(shè)計(jì)信息隱藏算法時(shí)就注意保持某些統(tǒng)計(jì)特征不變.LSB匹配算法對(duì)LSB替換技術(shù)進(jìn)行改進(jìn),如果秘密比特和載體圖像的LSB不匹配,則在相應(yīng)的像素值上隨機(jī)加減1叫隨機(jī)加減1的方法可以保持載體圖像的統(tǒng)計(jì)直方圖不變,但最低位和次低位的統(tǒng)計(jì)特征異常仍會(huì)使LSB匹配算法不夠安全[8].除了可以在空間域嵌入秘密信息以外,也可以在各種變換域嵌入秘密信息.離散余弦變化(Discrete Cosine Transform,DCT)就是一種變換域.與傅立葉變換類似,DCT可以將圖像從空間域轉(zhuǎn)換到頻率域.JPEG格式的圖像就使用了DCT,其對(duì)每個(gè)顏色成分使用余弦變換來(lái)將大小為8x8的連續(xù)像素塊轉(zhuǎn)換為64個(gè)余弦系數(shù).JSteg[9]、OutGuess[10]等方法都是在DCT的基礎(chǔ)上嵌入秘密信息的信息隱藏算法.

        信息隱藏算法能夠根據(jù)載體內(nèi)容自適應(yīng)地嵌入秘密信息來(lái)提高算法的安全性.2010年,Pevny等人[11]提出的HUGO就是一種自適應(yīng)的信息隱藏算法.HUGO首先通過(guò)嵌入信息對(duì)載體圖像的影響來(lái)定義失真函數(shù),隨后使用加權(quán)范數(shù)函數(shù)將像素空間壓縮為特征空間,并在失真函數(shù)最小的位置嵌入秘密信息[11]. 2012年,Holub等人[12]提出的WOW (Wavelet Obtained Weights)算法可以根據(jù)圖像內(nèi)容在紋理復(fù)雜的區(qū)域嵌入更多的信息.2014年Holub等人[13]提出的S-UNIWARD算法是一種與嵌入域無(wú)關(guān)的通用失真函數(shù).雖然HUGO、WOW和S- UNIWARD的失真函數(shù)各不相同,但三個(gè)算法的最終目的都是通過(guò)最小化失真函數(shù)來(lái)自適應(yīng)地嵌入秘密信息.此后提出的經(jīng)典的信息隱藏算法或是改進(jìn)失真函數(shù)[14],或是改進(jìn)隱寫編碼[15].這些改進(jìn)雖然提高了信息隱藏的安全性,但對(duì)信息隱藏算法的隱寫容量提高非常有限.

        1.2基于深度學(xué)習(xí)的信息隱藏算法

        基于深度學(xué)習(xí)的信息隱藏算法被提出后,經(jīng)典信息隱藏算法的安全就面臨著嚴(yán)重的威脅.將深度學(xué)習(xí)應(yīng)用于信息隱藏領(lǐng)域以對(duì)抗基于深度學(xué)習(xí)的隱寫分析算法成為信息隱藏領(lǐng)域中新的研究方向.特別是生成對(duì)抗網(wǎng)絡(luò),其優(yōu)秀的圖像生成能力和博弈對(duì)抗的思想引起了信息隱藏領(lǐng)域研究者們的關(guān)注.

        2017年,Hayes等人[16]提出將GAN與信息隱藏相結(jié)合的Ste-GAN-ography算法.該算法使用三個(gè)普通的神經(jīng)網(wǎng)絡(luò)分別作為嵌入秘密信息的生成器、提取秘密信息的提取器和進(jìn)行隱寫分析的鑒別器,訓(xùn)練過(guò)程和一般的生成對(duì)抗網(wǎng)絡(luò)相同.2017年,Tang等人[17]提出了ASDL-GAN算法.該算法首先學(xué)習(xí)一個(gè)概率映射矩陣來(lái)為秘密信息尋找合適的嵌入位置,然后使用傳統(tǒng)的STC方法嵌入秘密信息.Yang等人[18]在ASDL-GAN的基礎(chǔ)上進(jìn)行改進(jìn),使用Tanh- simulator激活函數(shù)、基于U-NET[19]的生成器和SCA[20]判別器來(lái)減少訓(xùn)練時(shí)間并增強(qiáng)抗隱寫分析能力.Liu等人[21]于2018年提出了一種直接使用ACGAN生成器進(jìn)行無(wú)載體信息隱藏的Stego- ACGAN算法.該算法通過(guò)建立圖像類別與文本之間的映射字典,將秘密信息表示為圖像類別信息,然后將圖像類別信息輸入生成器生成含秘圖像,從而實(shí)現(xiàn)無(wú)載體的信息隱藏[21-22].2019年,Zhang等人[23]提出一種基于約束采樣的含密載體生成方法.該方法首先訓(xùn)練一個(gè)生成器,然后通過(guò)數(shù)字化卡登格子對(duì)生成器進(jìn)行約束采樣,以獲得滿足條件的含密圖像.

        自2017年提出在載體圖像中隱藏秘密圖像的應(yīng)用場(chǎng)景后,圖像信息隱藏這一方向迅速成為信息隱藏領(lǐng)域的研究熱點(diǎn)[24].2017年,Baluja等人[24]提出使用神經(jīng)網(wǎng)絡(luò)在圖像中尋找合適的位置并嵌入秘密圖像信息.該方法對(duì)編碼過(guò)程進(jìn)行訓(xùn)練,將整個(gè)秘密圖像嵌入載體圖像中并使秘密圖像信息分散到圖像的每個(gè)比特中.2018年,Zhang等人[25]提出將封面圖像分為Y、U、V三個(gè)通道,并通過(guò)編碼器將灰度化的秘密圖像隱藏到封面圖像的丫通道中.2020年,Duan等人[26]提出了一種結(jié)合圖像橢圓曲線密碼學(xué)和深度學(xué)習(xí)的大容量信息隱藏算法.該算法利用離散余弦變換對(duì)秘密圖像進(jìn)行變換,再用橢圓曲線密碼術(shù)對(duì)變換后的圖像進(jìn)行加密,最后使用SegNet[27]網(wǎng)絡(luò)來(lái)隱藏和提取秘密信息.

        圖像信息隱藏算法帶來(lái)的高隱寫容量是在損失部分秘密圖像數(shù)據(jù)的前提下達(dá)成的.這些算法之所以能隱藏秘密圖像信息,是因?yàn)閳D像能夠在損失部分?jǐn)?shù)據(jù)后不影響信息的呈現(xiàn).如果要隱藏較多的文本或其他類型的秘密信息,使用現(xiàn)有的圖像信息隱藏算法會(huì)導(dǎo)致較低的秘密信息提取準(zhǔn)確率和較弱的抗隱寫分析能力.

        本文對(duì)圖像信息隱藏算法進(jìn)行研究后發(fā)現(xiàn)引起秘密信息損失的主要原因是卷積層只能提取有限特征.因此,本文設(shè)計(jì)了基于Im-Redisual結(jié)構(gòu)的編碼器,通過(guò)減少編碼過(guò)程中的信息損失來(lái)提高秘密信息提取率,本文利用基于稠密結(jié)構(gòu)的解碼器和基于隱寫分析的鑒別器分別來(lái)提高秘密信息提取率和抗隱寫分析能力.

        2基于GAN的高容量信息隱藏算法HCGAN

        為解決信息隱藏算法存在的隱寫容量低和抗隱寫能力弱的問(wèn)題,本文提出了一種基于GAN的高容量信息隱藏算法(HCGAN).如圖1所示,HCGAN算法主要由三部分組成:基于Im-Residual結(jié)構(gòu)的編碼器、基于稠密結(jié)構(gòu)的解碼器和基于隱寫分析的鑒別器.基于Im-Residual結(jié)構(gòu)的編碼器將輸入的秘密信息和載體進(jìn)行編碼以得到含秘載體.發(fā)送方得到含秘載體后將其上傳到公共信道中.接收方從公共信道中獲得含秘載體后,使用基于稠密結(jié)構(gòu)的解碼器從含秘載體中解碼出秘密信息.基于隱寫分析的鑒別器的任務(wù)是區(qū)分含秘載體和普通載體,并在訓(xùn)練時(shí)提供梯度以優(yōu)化基于Im-Residual結(jié)構(gòu)的編碼器.需要注意的是,基于隱寫分析的鑒別器只在模型訓(xùn)練時(shí)使用.模型只需使用基于Im-Residual結(jié)構(gòu)的編碼器和基于稠密結(jié)構(gòu)的解碼器就可以完成秘密信息的傳遞.本節(jié)將詳細(xì)介紹HCGAN模型的三個(gè)組成部分及其總體架構(gòu),并描述其訓(xùn)練過(guò)程.

        2.1基于Im-Residual結(jié)構(gòu)的編碼器

        為提高模型的隱寫容量,本文在殘差網(wǎng)絡(luò)結(jié)構(gòu)的基礎(chǔ)上進(jìn)行改進(jìn),得到了一種被稱為Im-Residual 的網(wǎng)絡(luò)基礎(chǔ)結(jié)構(gòu).Im-Residual結(jié)構(gòu)通過(guò)增加秘密信息的直接映射來(lái)減少秘密信息在特征提取過(guò)程中的損失.基于Im-Residual結(jié)構(gòu)的編碼器更適用于信息隱藏,并且能夠增加載體中可以嵌入的秘密信息.

        編碼器的目標(biāo)是將秘密信息安全地嵌入載體圖像中,從而方便解碼器從中提取出秘密信息.如圖2(a)所示,基于深度學(xué)習(xí)的信息隱藏算法的編碼器一般使用多個(gè)基礎(chǔ)卷積層+LeakyReLU激活函數(shù)+BN層結(jié)構(gòu)作為卷積神經(jīng)網(wǎng)絡(luò).因?yàn)榫矸e神經(jīng)網(wǎng)絡(luò)是通過(guò)卷積核提取特征,再將提取出來(lái)的特征歸一化處理后作為下一個(gè)卷積核的輸入,所以在此過(guò)程中不可避免地會(huì)因?yàn)樘崛√卣鞫鴵p失信息.對(duì)圖像類型的秘密信息而言,損失一部分不重要的信息是可以接受的,并且不會(huì)影響秘密信息內(nèi)容的傳遞.但是對(duì)于其他類型如文本類型的秘密信息而言,損失一部分信息是不可接受的.因此,為了使編碼器結(jié)構(gòu)能適用于其他類型的秘密信息,Kevin A. Zhang等提出使用Dense結(jié)構(gòu)的卷積神經(jīng)網(wǎng)絡(luò)來(lái)降低編碼器對(duì)于信息的損失,如圖2(b)所示.但Dense結(jié)構(gòu)也會(huì)導(dǎo)致輸入增加,進(jìn)而增加需訓(xùn)練的參數(shù)[28].

        在研究和分析了Dense結(jié)構(gòu)之后,我們發(fā)現(xiàn)其能減少信息損失的核心原因不是Dense結(jié)構(gòu)帶來(lái)的特征的多次重復(fù)使用,而是對(duì)秘密信息的多次嵌入.因此,本文提出了基于Im-Residual結(jié)構(gòu)的編碼器,如圖2(c)所示.在殘差結(jié)構(gòu)的基礎(chǔ)上通過(guò)短路多次嵌入秘密信息,優(yōu)化了編碼器模型,減少了約1/3的訓(xùn)練參數(shù),最終得到了更優(yōu)的提取率和視覺(jué)性能. Dense結(jié)構(gòu)和Im-Residual結(jié)構(gòu)的參數(shù)對(duì)比如表1所示,表中D為嵌入率.

        在本文中,基于Im-Residual結(jié)構(gòu)的編碼器通過(guò)Im-Residual結(jié)構(gòu)的卷積神經(jīng)網(wǎng)絡(luò)將秘密信息嵌入載體圖像中以得到含秘圖像,如公式(1)所示:

        S=C+EIm-Redisual(C,M)(1)

        式中:C為W×H×3的彩色載體圖像,M∈{0,1}D×w×H為將要嵌入的秘密信息,S為W×H×3的彩色含秘圖像.

        2.2基于稠密結(jié)構(gòu)的解碼器

        在基于Im-Residual結(jié)構(gòu)的編碼器將更多的秘密信息嵌入載體中之后,如何從含秘載體中更好地提取出秘密信息就成了后續(xù)研究的重點(diǎn).Im- Residual 結(jié)構(gòu)可以使用更少量參數(shù)完成將少量信息嵌入圖片等含有大量信息的載體中,以減少過(guò)擬合風(fēng)險(xiǎn)并完成編碼器工作.但在需要從大量信息中提取出少量信息的解碼器場(chǎng)景中,Im-Residual結(jié)構(gòu)就無(wú)法提供足夠的信息供后續(xù)網(wǎng)絡(luò)層使用.因此為提高解碼器的提取能力,本文設(shè)計(jì)出了一種基于稠密結(jié)構(gòu)的解碼器.稠密連接網(wǎng)絡(luò)中每一個(gè)網(wǎng)絡(luò)層輸出的特征映射會(huì)直接疊加到后面網(wǎng)絡(luò)層的輸入中,以實(shí)現(xiàn)特征的復(fù)用.特征的復(fù)用保證了后面網(wǎng)絡(luò)層的信息總是多于前面網(wǎng)絡(luò)層的信息.基于稠密結(jié)構(gòu)的解碼器就是利用稠密結(jié)構(gòu)特征復(fù)用的能力對(duì)含秘載體的特征進(jìn)行多次處理以提高秘密信息的提取準(zhǔn)確率.

        基于深度學(xué)習(xí)的信息隱藏算法的解碼器使用的也是基本的卷積層+LeakyReLu+BN層結(jié)構(gòu),如圖3(a)所示.然而,網(wǎng)絡(luò)層數(shù)的增加會(huì)帶來(lái)信息損失的問(wèn)題.稠密結(jié)構(gòu)通過(guò)將卷積層提取出的特征疊加在之后所有的卷積層的輸入中,來(lái)實(shí)現(xiàn)各層特征的復(fù)用并降低信息的損失.因此,本文設(shè)計(jì)出基于稠密結(jié)構(gòu)的解碼器來(lái)對(duì)含秘圖像中的秘密信息進(jìn)行提取,如圖3(b)所示.實(shí)驗(yàn)結(jié)果顯示基于稠密結(jié)構(gòu)的解碼器在高容量的信息隱藏算法中表現(xiàn)出更優(yōu)的秘密信息提取率,并能指引編碼器實(shí)現(xiàn)更優(yōu)的視覺(jué)效果.

        本文模型將基于Im-Residual結(jié)構(gòu)的編碼器和基于稠密結(jié)構(gòu)的解碼器組合起來(lái)形成了一種自編碼器.這種自編碼器能夠?qū)崿F(xiàn)高隱寫容量的信息隱藏,其過(guò)程如公式(2)所示:

        像中提取出的秘密信息,D為嵌入率,表示我們想要在載體圖像的每個(gè)像素中嵌入的秘密信息比特?cái)?shù).

        2.3基于隱寫分析的鑒別器

        基于Im-Residual結(jié)構(gòu)的編碼器和基于稠密結(jié)構(gòu)的解碼器所構(gòu)成的自編碼器能夠?qū)崿F(xiàn)高隱寫容量的信息隱藏,但是在含秘圖像中嵌入大量的秘密信息會(huì)導(dǎo)致其抗隱寫分析能力降低.因此,為了提高含秘圖像的抗隱寫分析能力,本文提出了基于隱寫分析的鑒別器.該鑒別器利用其鑒別結(jié)果和GAN的對(duì)抗性來(lái)訓(xùn)練編碼器,從而生成更安全的含秘圖像.

        本文在XuNet的基礎(chǔ)上進(jìn)行改進(jìn),使用全部的SRM濾波核和KV核作為預(yù)處理層,并在模型訓(xùn)練時(shí)將SRM濾波核的參數(shù)固定.相比于KV核,使用全部的SRM濾波核能夠提供更多的噪聲信息以便后面的神經(jīng)網(wǎng)絡(luò)進(jìn)行特征提取和分類.為了適用于彩色含秘圖像,本文在對(duì)含秘圖像進(jìn)行分析前加入了灰度層來(lái)將彩色含秘圖像變?yōu)榛叶群貓D像,以便后續(xù)的處理.基礎(chǔ)的鑒別器和本文提出的基于隱寫分析的鑒別器對(duì)比圖如圖4所示.

        利用GAN的對(duì)抗博弈能力,本文提出的基于隱寫分析的鑒別器和基于Im-Residual結(jié)構(gòu)的編碼器實(shí)現(xiàn)了相互對(duì)抗并且相互提供梯度,最終提高了基于Im-Residual結(jié)構(gòu)的編碼器輸出含秘圖像的抗隱寫分析能力.在訓(xùn)練過(guò)程中,我們將含秘圖像或載體圖像輸入基于隱寫分析的鑒別器得到對(duì)應(yīng)的鑒別結(jié)果,如公式(3)所示:

        p=S((C+EIm-Redisual(C,M))orC)(3)

        式中:C表示尺寸為3×W×H的彩色載體圖像,M表示需嵌入的秘密信息,p表示分類結(jié)果,一般用輸入圖像是載體圖像的概率來(lái)表示.

        2.4HCGAN的整體架構(gòu)和損失函數(shù)設(shè)計(jì)

        將基于Im-Redisual結(jié)構(gòu)的編碼器、基于稠密結(jié)構(gòu)的解碼器和基于隱寫分析的鑒別器組合起來(lái)就是本文提出的HCGAN算法的整體架構(gòu),如圖5所示.其中,⊕代表像素相加.首先,發(fā)送者將秘密信息M

        本文提出的基于GAN的高容量信息隱藏模型包含編碼器、解碼器和鑒別器三個(gè)部分,因此需要對(duì)這三個(gè)部分分別設(shè)計(jì)損失函數(shù)

        2.4.1相似性損失

        基于Im-Residual結(jié)構(gòu)的編碼器作為嵌入過(guò)程需要將秘密信息嵌入載體圖像中形成含秘圖像,因此,首先要保證在載體圖像和含秘圖像之間不存在肉眼可以感知的失真.圖像之間的相似性可以使用SSIM和PSNR來(lái)表述.為了便于計(jì)算,本文使用均方誤差(也稱L2損失)作為載體圖像和含秘圖像相似性的評(píng)價(jià)指標(biāo),如公式(4)所示:

        式中:C表示載體圖像,W和H表示載體圖像的寬和高,PC表示載體圖像的分布,M表示秘密信息,E(C,M)則表示編碼器網(wǎng)絡(luò)的輸出,即含秘圖像.

        2.4.2準(zhǔn)確率損失

        準(zhǔn)確率損失指的是基于稠密結(jié)構(gòu)的解碼器從含秘圖像中提取出的秘密信息和原本的秘密信息之間的差距.交叉熵是一種機(jī)器學(xué)習(xí)的損失函數(shù),可以用來(lái)衡量?jī)蓚€(gè)隨機(jī)變量之間的差別,因此本文選擇交叉熵函數(shù)作為算法的準(zhǔn)確率損失,如公式(5)所示:

        式中:PC表示載體圖像的分布,D(E(C,M))表示解碼器提取出來(lái)的秘密信息.交叉熵函數(shù)在這里用CrossEntropy表示,如公式(6)所示:

        2.4.3安全性損失

        基于隱寫分析的鑒別器的目標(biāo)是區(qū)分含秘圖像和載體圖像,同時(shí)具有一定的隱寫分析的能力.因此和一般的GAN一樣,本文使用鑒別器的輸出作為安全性損失,如公式(8)所示:

        式中:S(E(C,M))表示鑒別器的輸出.

        2.4.4編碼器的損失函數(shù)

        基于Im-Residual結(jié)構(gòu)的編碼器是模型的核心,其性能的優(yōu)劣對(duì)上述三個(gè)損失都有很大的影響,因此本文將基于Im-Residual結(jié)構(gòu)的編碼器的損失函數(shù)定義為公式(9):

        LE=lmse+laccuracy+lsecurity(9)

        2.4.5解碼器的損失函數(shù)

        與基于Im-Residual結(jié)構(gòu)的編碼器相比,基于稠密結(jié)構(gòu)的解碼器的損失函數(shù)就比較簡(jiǎn)單,只與準(zhǔn)確率損失有關(guān),如公式(10)所示:

        LD=laccuracy(10)

        2.4.6鑒別器的損失函數(shù)

        基于隱寫分析的鑒別器被用來(lái)區(qū)分載體圖像和含秘圖像,并在訓(xùn)練過(guò)程中給基于Im-Residual結(jié)構(gòu)的編碼器提供梯度.因此在訓(xùn)練整個(gè)網(wǎng)絡(luò)時(shí),基于隱寫分析的鑒別器訓(xùn)練至關(guān)重要,它所提供的梯度直接影響著基于Im-Residual結(jié)構(gòu)的編碼器性能和含秘圖像的質(zhì)量.因此,本文使用Wasserstein距離作為基于隱寫分析的鑒別器的損失函數(shù),如公式(11)所示:

        每次迭代使用損失函數(shù)來(lái)判斷神經(jīng)網(wǎng)絡(luò)的好壞,并使用梯度下降的方法來(lái)更新神經(jīng)網(wǎng)絡(luò)的參數(shù).

        3實(shí)驗(yàn)分析

        信息隱藏算法的性能可以從三個(gè)角度進(jìn)行評(píng)估:圖像中可以隱藏的數(shù)據(jù)量,即容量;含秘圖像與載體圖像之間的相似度,即失真;隱寫分析工具避免檢測(cè)的能力,即安全性.因此,本節(jié)分別設(shè)計(jì)實(shí)驗(yàn)驗(yàn)證容量、失真和安全性.若無(wú)特殊說(shuō)明,所有實(shí)驗(yàn)均使用Pytorch框架實(shí)現(xiàn),并在單個(gè)NVIDIA GTX1080 Ti GPU上進(jìn)行訓(xùn)練.ADAM優(yōu)化器用于最小化損失,學(xué)習(xí)率為0.000 4.

        3.1評(píng)價(jià)標(biāo)準(zhǔn)

        3.1.1峰值信噪比(Peak Signal-to-Noise Ratio,PSNR)

        實(shí)驗(yàn)使用PSNR和SSIM[26]來(lái)評(píng)價(jià)含秘圖像和載體圖像的相似度.PSNR代表峰值信噪比,給定載體圖像C、含秘圖像S和可能的最大像素值MAX PSNR的計(jì)算方式如公式(13)所示:

        3.1.2結(jié)構(gòu)相似性(Structural SIMilarity,SSIM)

        SSIM代表結(jié)構(gòu)相似性,由載體圖像C的采樣x和含秘圖像S的采樣y之間的三個(gè)比較衡量——亮度、對(duì)比度和結(jié)構(gòu)來(lái)計(jì)算,如公式(14)所示:

        式中:μx和μy分別是x和y的均值,σx和σy分別是x和y的方差,σxy是x和y的協(xié)方差.r1=(k1MAX12、r12=(k2MAX12為兩個(gè)常數(shù),一般設(shè)k1為0.01、k2為0.03.

        3.1.3RS-BPP評(píng)價(jià)方法

        為了測(cè)量基于深度學(xué)習(xí)的信息隱藏算法的有效容量,本文采用Zhang等人提出的RS-BPP[28]評(píng)價(jià)方法.該方法表示圖像中可以可靠傳輸?shù)钠骄忍財(cái)?shù)除以圖像的大小.因此,RS-BPP可以直接與傳統(tǒng)的隱寫技術(shù)進(jìn)行比較,其值等于1-2p,p為提取錯(cuò)誤率.

        3.2失真和容量分析

        本文在LUSN-bed數(shù)據(jù)集中對(duì)不同編碼器-解碼器結(jié)構(gòu)在嵌入率D∈{" …,6}的情況下進(jìn)行訓(xùn)練,并分別使用PSNR、SSIM和RS-BPP對(duì)各個(gè)算法的失真和容量在測(cè)試集中進(jìn)行測(cè)試,結(jié)果如圖6和表2所示.

        從圖6中可以看出,就算是在6bpp的嵌入率的情況下,隱秘圖片也未顯示出肉眼可見(jiàn)的失真.通過(guò)對(duì)比表2中高嵌入量下的基礎(chǔ)提取器和基于Dense 結(jié)構(gòu)的提取器的結(jié)果可以發(fā)現(xiàn),無(wú)論使用哪種編碼器,基于Dense結(jié)構(gòu)的解碼器總是有更高的容量,可證明使用Dense結(jié)構(gòu)確實(shí)可以提高解碼器的提取準(zhǔn)確率.同樣,相同條件下基于Im-Redisual結(jié)構(gòu)的編碼器也顯示了比其他編碼器更高的容量和較小的失真.由表2可知,無(wú)論在哪種嵌入率下,HCGAN模型總是顯示出較優(yōu)的性能.

        為了研究神經(jīng)網(wǎng)絡(luò)是如何嵌入秘密信息的,本文在6 bpp嵌入率下將HCGAN算法得到的隱秘圖像減去載體圖像得到殘差圖像并將其灰度化,如圖7 所示.從圖7可以看出,HCGAN算法能夠自適應(yīng)地尋找嵌入位置,并在紋理復(fù)雜的區(qū)域嵌入更多的信息,在平滑的區(qū)域嵌入較少的信息.

        為了進(jìn)一步驗(yàn)證HCGAN算法的泛化能力,本文采用CelebA和COCO數(shù)據(jù)集在1 bpp、3 bpp、6 bpp的嵌入率下對(duì)本文模型進(jìn)行試驗(yàn),結(jié)果如表3和表4所示,由表可知,本文提出的算法適用于各種不同的圖像集并表現(xiàn)良好.

        3.3安全性分析

        安全性是信息隱藏算法的另一種重要指標(biāo),其主要是指抗隱寫分析能力,通常使用隱寫分析工具的檢測(cè)率進(jìn)行評(píng)估.本節(jié)使用一個(gè)流行的開(kāi)源隱寫分析工具StegExpose(結(jié)合了幾種現(xiàn)有的隱寫分析技術(shù),包括樣本對(duì)、RS分析、卡方攻擊和初級(jí)集)進(jìn)行實(shí)驗(yàn),來(lái)驗(yàn)證HCGAN模型生成不可檢測(cè)的含秘圖像的能力.為了進(jìn)行對(duì)照實(shí)驗(yàn),本文采用LUSN-bed數(shù)據(jù)集分別在1 bpp、3 bpp、6 bpp嵌入率下訓(xùn)練HCGAN模型和其他結(jié)構(gòu)不變只改變鑒別器為普通卷積結(jié)構(gòu)鑒別器的信息隱藏算法模型.模型訓(xùn)練完成后,分別給各個(gè)模型輸入1 000個(gè)測(cè)試集中的圖像得到1 000個(gè)隱秘圖像,然后使用StegExpose工具對(duì)2 000個(gè)圖像進(jìn)行分析并畫(huà)出ROC曲線,如圖8所示.需注意的是,圖中的直線表示隨機(jī)判斷的ROC曲線.

        從圖8中可以看出,無(wú)論是1 bpp、3 bpp還是6 bpp嵌入率的信息隱藏模型,使用隱寫分析器作為鑒別器的HCGAN算法的抗隱寫分析能力總是優(yōu)于其他結(jié)構(gòu)不變只改變鑒別器為普通卷積結(jié)構(gòu)鑒別器的模型.即使在嵌入率為6 bpp的情況下,StegExpose工具的檢測(cè)率也低于0.7,可以看出本文算法能夠更有效地抵抗基于深度學(xué)習(xí)的隱寫分析算法.

        為了驗(yàn)證本文算法具有抵抗基于深度學(xué)習(xí)的隱寫分析能力,以及避免由于對(duì)XuNet的針對(duì)性訓(xùn)練而引起的檢測(cè)不可信問(wèn)題,本文使用Yedroudj等人[29]于2018年提出的Yedroudj-Net隱寫分析模型來(lái)檢測(cè)本文模型的抗隱寫分析能力,結(jié)果如表5所示.需要注意的是,Yedroudj-Net在訓(xùn)練時(shí)采取半肓檢測(cè)方式,其訓(xùn)練集中包含各種嵌入率下分別由普通卷積結(jié)構(gòu)的鑒別器和基于隱寫分析的鑒別器引導(dǎo)的基于Im-Residual結(jié)構(gòu)的編碼器所生成的含秘圖像.

        從表5中可以看出,在1 bpp、2 bpp等較低嵌入率下基于隱寫分析的鑒別器引導(dǎo)基于Im-Residual 結(jié)構(gòu)的編碼器生成的含秘圖像有著較低的檢測(cè)準(zhǔn)確率.在5 bpp和6 bpp的高嵌入率下,由于載體圖像中嵌入了大量秘密信息所帶來(lái)的大量擾動(dòng),從而使Yedroudj-Net隱寫分析器能夠?qū)崿F(xiàn)接近100%的檢測(cè)準(zhǔn)確率.

        最后,本文在Yedroudj-Net隱寫分析模型下比較了HCGAN算法和經(jīng)典信息隱藏算法WOW、S- UNIWARD在相似安全性下的嵌入率,結(jié)果如表6所示.注意,這里的訓(xùn)練集包含各嵌入率下分別由普通卷積結(jié)構(gòu)的鑒別器和基于隱寫分析的鑒別器所生成的含秘圖像(作為負(fù)向樣本)和載體(作為正向樣本).從表6中可以看出,本文提出的信息隱藏算法能夠在嵌入率為2.0 bpp下顯示出比WOW和S- UNIWARD算法在0.4 bpp的嵌入率下更低的隱寫分析檢測(cè)率,即更高的安全性.這進(jìn)一步驗(yàn)證了本文提出的信息隱藏模型能夠?qū)崿F(xiàn)高隱寫容量并且在高隱寫容量下保持較強(qiáng)的安全性.

        4總結(jié)與展望

        本文提出了一種基于GAN的高容量信息隱藏算法HCGAN,該算法能夠以較高的提取率隱藏高容量秘密信息,并具有一定的抗隱寫分析能力.實(shí)驗(yàn)表明,HCGAN算法能有效嵌入3 bpp以上高容量的秘密信息,并且在高容量下依舊具有較強(qiáng)的安全性.

        信息隱藏技術(shù)常因新的創(chuàng)意或者其他領(lǐng)域的進(jìn)展而有長(zhǎng)足的發(fā)展.結(jié)合本文工作,本節(jié)提出了未來(lái)研究信息隱藏技術(shù)的一些思路.本文提出的模型利用了GAN的對(duì)抗性,但沒(méi)有關(guān)注GAN能通過(guò)噪聲生成符合真實(shí)圖像分布的圖像生成能力.因此將GAN 的圖像生成能力用于信息隱藏領(lǐng)域是后續(xù)研究的一個(gè)方向.本文提出的模型雖然擁有較高的安全性,但還是有可能被隱寫分析檢測(cè)出來(lái).在近幾年對(duì)于神經(jīng)網(wǎng)絡(luò)的研究中,有部分研究者發(fā)現(xiàn)對(duì)一張已經(jīng)正確分類的圖片進(jìn)行細(xì)微的像素修改后,DNN會(huì)將其錯(cuò)誤地分類為其他類型[30].在今后的工作中,將這種對(duì)抗性樣本引入信息隱藏技術(shù),使基于深度學(xué)習(xí)的隱寫分析將含秘圖像錯(cuò)誤分類,以此來(lái)進(jìn)一步提高含秘圖像的抗隱寫分析能力.

        參考文獻(xiàn)

        [1]張新鵬,錢振興,李晟.信息隱藏研究展望[J].應(yīng)用科學(xué)學(xué)報(bào),2016,34(5):475-489.

        ZHANG X P,QIAN ZX,LIS. Prospect of digital steganography research[J].Journal of Applied Sciences,2016,34(5):475-489.(In Chinese)

        [2]高華玲.信息隱藏關(guān)鍵技術(shù)研究綜述[J].電子世界,2016(9):146.

        GAO H L. Review on key technologies of information hiding [J]. Electronics World,2016(9):146-146.(In Chinese)

        [3] FRIDRICH J. Steganography in digital media [M]. Cambridge:Cambridge University Press,2009.

        [4] CHAN C K,CHENG L M. Hiding data in images by simple LSB substitution[J] .Pattern Recognition,200 37(3):469-474.

        [5] HINTON G E ,SALAKHUTDINOV R R.Reducing the dimensionality of data with neural networks[J]. Science,2006,313(5786):504-507.

        [6] GOODFELLOW I J,POUGET-ABADIE J,MIRZA M,et al. Generative Adversarial Networks [C]//Advances in Neural Information Processing Systems. Montreal,2014:20672-2680.

        [7] WU D C,TSAI W H. A steganographic method for images by pixel-value differencing [ J]. Pattern Recognition Letters ,200 24 (9/10):1613-1626.

        [8] MIELIKAINEN J. LSB matching revisited[J]. IEEE Signal Processing Letters,2006,13(5):285-287.

        [9] HSU C T,WU J L. Hidden digital watermarks in images[J] . IEEE Transactions onImage Processing,1999,8(1):58-68.

        [10] BHATTACHARYYA S,SANYAL G. A robust image steganography using DWT difference modulation (DWTDM)[J]. International Journal of Computer Network and Information Security,201 4(7):27-40.

        [11] PEVNY T,F(xiàn)ILLER T,BAS P. Using high-dimensional image models to perform highly undetectable steganography [M]//Information Hiding. Berlin,Heidelberg:Springer Berlin Heidelberg,2010:161-177.

        [12] HOLUB V,F(xiàn)RIDRICH J. Designing steganographic distortion using directional filters [C]//2012 IEEE International Workshop on Information Forensics and Security. Costa Adeje,Spain:IEEE,2012:234-239.

        [13] HOLUB V,F(xiàn)RIDRICH J,DENEMARK T. Universal distortion function for steganography in an arbitrary domain[J]. EURASIP Journal on Information Security,201 2014:1.

        [14] GUO LJ,NIJQ,SUWK,et al. Using statistical image model for JPEG steganography:uniform embedding revisited [J].IEEE Transactions on Information Forensics and Security,2015,10 (12):2669-2680.

        [15] DIOUF B,DIOP I,KEITA K W,et al. Adaptive linear programming of polar codes to minimize additive distortion in steganography [C]//2016 SAI Computing Conference (SAI). London,UK:IEEE,2016:1086-1092.

        [16] HAYES J,DANEZIS G. Generating Steganographic Images via Adversarial Training[ C]//Advances in Neural Information Processing System. Long Beach,2017:1964-1963.

        [17] TANG W X,TAN S Q,LI B,et al. Automatic steganographic distortion learning using a generative adversarial network [ J]. IEEE Signal Processing Letters,2017,24(10):1547-1551.

        [18] YANG J H,LIU K,KANG X G,et al. Spatial image steganography based on generative adversarial network[EB/OL] . 2018:arXiv:1804.07939[cs.MM].https://arxiv.org/abs/1804.07939.

        [19] RONNEBERGER O,F(xiàn)ISCHER P,BROX T. U-Net:convolutional networks for biomedical image segmentation[C]//Medical Image Computing and Computer-Assisted Intervention - MICCAI 2015. 2015:234-241.

        [20] DENEMARK T D,BOROUMAND M,F(xiàn)RIDRICH J. Steganalysis features for content-adaptive JPEG steganography[J] .IEEE Transactions on Information Forensics and Security,2016,11(8):1736-1746.

        [21] LIU M M,ZHANG M Q,LIU J,et al. Coverless information hiding based on generative adversarial networks[J] . Journal of Applied Sciences,2018,36(2):371-382.

        [22]吳建斌,康子陽(yáng),劉逸雯,等.基于圖像分類的無(wú)載體信息隱藏方法[J].湖南大學(xué)學(xué)報(bào)(自然科學(xué)版),2019,46(12):25-32.

        WU J B,KANG Z Y,LIU Y W,et al. Coverless information hiding algorithm based on image classification[J]. Journal of Hunan University (Natural Sciences),2019,46(12):25-32.(In Chinese)

        [23] ZHANG Z,LIU J,KE Y,et al. Generative steganography by sam- pling[J]. IEEE Access,2019,7:118586-118597.

        [24] BALUJA S. Hiding images in plain sight:Deep steganography [C]// Advances in Neural Information Processing Systems. Long Beach:Neural Information Processing Systems,2017:2069- 2079.

        [25] ZHANG R,DONG S Q,LIU J Y. Invisible steganography via generative adversarial networks[J]. Multimedia Tools and Applica- tions,2019,78(7):8559-8575.

        [26] DUAN X T,GUO D D,LIU N,et al. A new high capacity image steganography method combined with image elliptic curve cryptography and deep neural network[J]. IEEE Access,2020,8:25777- 25788.

        [27] BADRINARAYANAN V,KENDALL A,CIPOLLA R.SegNet:a deep convolutional encoder-decoder architecture for image segmentation[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2017,39(12):2481-2495.

        [28] ZHANG K A,CUESTA-INFANTE A,XU L,et al.SteganoGAN:high capacity image steganography with GANs[EB/OL] . 2019:arXiv:1901.03892[cs.CV].https://arxiv.org/abs/1901.03892

        [29] YEDROUDJ M ,COMBY F,CHAUMONT M.Yedroudj-net:an efficient CNN for spatial steganalysis[C]//2018 IEEE International Conference on Acoustics,Speech and Signal Processing. Calgary,AB,Canada:IEEE,2018:2092-2096.

        [30] NGUYEN A,YOSINSKI J,CLUNE J. Deep neural networks are easily fooled:high confidence predictions for unrecognizable im- ages[ C]//2015 IEEE Conference on Computer Vision and PatternRecognition. Boston,MA,USA:IEEE,2015:427-436.

        97久久精品无码一区二区天美 | 成人国产精品高清在线观看| 久久精品国产精品亚洲艾| 日韩av无码社区一区二区三区| 无码日韩精品一区二区三区免费 | 日本成年一区久久综合| …日韩人妻无码精品一专区| 亚洲人成无码网www| 中文字幕在线一区乱码| 久久精品国产亚洲av性瑜伽| 国产午夜精品一区二区| 99国产超薄丝袜足j在线观看| 日本看片一区二区三区| 91九色成人蝌蚪首页| 最近中文字幕大全在线电影视频| 亚洲国产成人无码影院| 在线观看免费的黄片小视频| 亚洲中文字幕日产无码| 性高朝久久久久久久| 亚洲欧美久久婷婷爱综合一区天堂| 亚洲午夜经典一区二区日韩| 精品国产免费一区二区三区| 大地资源网更新免费播放视频| 精选二区在线观看视频| 日本一二三区在线观看视频| 亚洲av无码成人专区片在线观看| 国产一级在线现免费观看| 国产视频一区二区三区久久亚洲| 国自产拍偷拍精品啪啪一区二区| 美女自卫慰黄网站| 日本经典中文字幕人妻| 国产成人久久精品一区二区三区| 免费观看黄网站在线播放| 国产性一交一乱一伦一色一情| 亚洲国产成人av毛片大全| 国产精品亚洲lv粉色| 久久尤物AV天堂日日综合| 午夜亚洲精品一区二区| 十四以下岁毛片带血a级| 亚洲中文字幕无码爆乳av| 黑丝美女喷水在线观看|