亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        一種基于深度學(xué)習(xí)的移動(dòng)端隱寫方法

        2022-04-29 00:00:00廖鑫黎懿熠歐陽(yáng)軍林周江盟戴湘桃秦拯

        摘要:隱寫是隱蔽通信的主流方法之一,而移動(dòng)端則是當(dāng)下最常用的通信設(shè)備,二者的結(jié)合研究具有較高的實(shí)際意義.近年來,基于深度學(xué)習(xí)的隱寫方法得到快速發(fā)展,然而在性能提升的同時(shí),各類網(wǎng)絡(luò)結(jié)構(gòu)向著更復(fù)雜、龐大的方向演變,逐漸脫離以隱蔽通信為核心的實(shí)際應(yīng)用場(chǎng)景,實(shí)用性較低.針對(duì)這一現(xiàn)象,本文提出一種適用于移動(dòng)端的輕量級(jí)圖像隱寫方法.對(duì)網(wǎng)絡(luò)整體進(jìn)行輕量化設(shè)計(jì),結(jié)合深度可分離卷積降低模型計(jì)算量,在精度和速度之間取得較好的折中平衡.以生成對(duì)抗網(wǎng)絡(luò)的思想,將編碼器、解碼器和判別器構(gòu)成的整體模型納入對(duì)抗訓(xùn)練中,使子網(wǎng)絡(luò)在迭代對(duì)弈中實(shí)現(xiàn)螺旋式上升發(fā)展.為應(yīng)對(duì)真實(shí)環(huán)境下的各類挑戰(zhàn),模型被落地部署于移動(dòng)設(shè)備上進(jìn)行真機(jī)實(shí)驗(yàn).在移動(dòng)端,精簡(jiǎn)后的模型性能會(huì)出現(xiàn)小幅下降.對(duì)此,在方法中引入BCH糾錯(cuò)碼以確保正確提取信息.實(shí)驗(yàn)結(jié)果表明,該移動(dòng)端隱寫方法生成圖像質(zhì)量好,且具有較高的響應(yīng)速度,能滿足現(xiàn)代社會(huì)中人們對(duì)便捷性的高要求.值得注意的是,該方法的所有計(jì)算工作均可在移動(dòng)端獨(dú)立完成,不需要通過網(wǎng)絡(luò)請(qǐng)求服務(wù)器,能避免網(wǎng)絡(luò)竊聽攻擊.

        關(guān)鍵詞:隱寫;深度學(xué)習(xí);生成對(duì)抗網(wǎng)絡(luò);移動(dòng)端;輕量級(jí)

        中圖分類號(hào):TP309文獻(xiàn)標(biāo)志碼:A

        A Mobile Steganography Method Based on Deep Learning

        LIAO Xin LI Yiyi" OUYANG Junlin ZHOU Jiangmeng DAI Xiangtao QIN Zheng1

        (1. College of Computer Science and Electronic Engineering,Hunan University,Changsha 41008 China;

        2. School of Computer Science and Engineering,Hunan University of Science and Technology,Xiangtan 41120 China;

        3. School of Physics and Electronics,Central South University,Changsha 41008 China;

        4. Great Wall Information Co.,Ltd,Changsha 410199,China)

        Abstract:Steganography is one of the main methods for covert communication,while mobile phones are the most commonly used communication devices. The combination of the two has high practical significance. In recentyears,steganography has developed rapidly with deep learning technologies. To improve the performance,networks evolve towards a more complex and large style,which gradually deviates from the real world scenarios with covert communication as the core,resulting in low practicability. For convenience and efficiency,a lightweight image steganography method is proposed for mobile phone. The network structure is designed in a light style,with depthwise separable convolutions utilized to reduce useless parameters and keeping a balance between accuracy and speed. Based on generative adversarial networks,the proposed method consists of a generator,a decoder,and a discriminator,which are trained together defiantly and finally advance in a spiral upward trend. To deal with various challenges in the real world,the model is deployed on mobile phones for tests. The networks used on smartphones are pruned,which indicates performance degradation. To ameliorate this problem and enhance decoding accuracy,BCH correcting codes are used in the method. The results show that the method can generate high-quality images with high speed,which meets the convenience requirements in today's world. Besides,it's worth noting that the method works without online requests. All the embedding and extracting tasks can be done by phone itself,which means this scheme is immune to eavesdropping attacks.

        Key words:steganography;deep learning;GAN;mobile phone;lightweight

        信息時(shí)代下,數(shù)據(jù)背后的價(jià)值被挖掘顯現(xiàn),人們逐漸意識(shí)到信息安全的重要性,并對(duì)其提出了更高的要求.在眾多信息保護(hù)方法中,隱寫技術(shù)[1]不僅能保障信息本身的安全性,也使得秘密信息的傳遞過程不易被感知.通過隱寫技術(shù),秘密信息被嵌入圖像、音頻和視頻等多媒體載體[2-3].這些多媒體內(nèi)容在嵌密前后幾乎無異,人類無法感知其間細(xì)微的變化.如此,秘密信息即可隨著圖像音頻等介質(zhì)一并傳播,實(shí)現(xiàn)隱蔽且安全的傳輸.

        隱寫兼具安全性和隱蔽性的雙重特性,逐漸成為信息安全領(lǐng)域中的一大研究熱點(diǎn)[4-8].目前已經(jīng)出現(xiàn)了許多圍繞隱寫開展的研究[9],然而其中鮮有針對(duì)移動(dòng)端設(shè)計(jì)的隱寫方法.近年來,深度學(xué)習(xí)技術(shù)被廣泛應(yīng)用于隱寫領(lǐng)域,為進(jìn)一步挖掘數(shù)據(jù)潛力,模型被設(shè)計(jì)得愈發(fā)復(fù)雜多變,其訓(xùn)練和使用需占用更多計(jì)算資源.這些大型網(wǎng)絡(luò)難以被應(yīng)用于移動(dòng)設(shè)備.另外,應(yīng)用市場(chǎng)中的隱寫應(yīng)用大多是基于早期方法的簡(jiǎn)單實(shí)踐[10],譬如基于LSB算法的PocketStego和Steganography_M.這些應(yīng)用的安全性較低,難以抵抗最常見的攻擊,且極易被偵破,亟須發(fā)展針對(duì)移動(dòng)平臺(tái)的高可用性隱寫技術(shù).

        隱寫技術(shù)常用于隱蔽通信,而移動(dòng)設(shè)備則是當(dāng)今社會(huì)中最常用的通信設(shè)備,二者的結(jié)合研究顯得理所當(dāng)然.早期移動(dòng)設(shè)備算力的不足阻礙了相關(guān)研究的開展,直到現(xiàn)在硬件技術(shù)的大幅度提升才為這一思路提供了可行平臺(tái).本文提出了一種基于生成對(duì)抗網(wǎng)絡(luò)[11]的移動(dòng)端隱寫方法,通過對(duì)抗訓(xùn)練的方式逐步提高模型的隱寫效果,能將秘密信息嵌入自然圖像中,輸出包含秘密信息的載密圖像.

        本文的主要貢獻(xiàn)如下.

        1)基于對(duì)抗的思想,設(shè)計(jì)由編碼器、解碼器和判別器構(gòu)成的整體模型框架,三者在對(duì)抗訓(xùn)練中相互博弈,通過合理的損失函數(shù)進(jìn)行約束,最終呈螺旋上升式進(jìn)步,編碼器生成圖像質(zhì)量提升,同時(shí)解碼器能更準(zhǔn)確地提取并還原秘密信息.

        2)以有效和精簡(jiǎn)為原則進(jìn)行網(wǎng)絡(luò)模型設(shè)計(jì),在性能和輕量之間取得較好的折中,減少編碼器和解碼器網(wǎng)絡(luò)層數(shù),同時(shí)使用深度可分離卷積進(jìn)一步減少模型的計(jì)算量.與現(xiàn)有的其他深度學(xué)習(xí)隱寫方法相比,所提出的方法資源占用量更低,且能維持較好的性能.

        3)以實(shí)用性為出發(fā)點(diǎn),對(duì)所提出的方法進(jìn)行落地實(shí)現(xiàn),并在實(shí)際應(yīng)用場(chǎng)景中進(jìn)行真機(jī)測(cè)試.對(duì)于跨平臺(tái)算子改變?cè)斐傻哪P托阅芟陆祮栴},結(jié)合BCH糾錯(cuò)碼提高解碼正確率,保障了信息的可靠傳輸,驗(yàn)證了基于深度學(xué)習(xí)的隱寫算法在移動(dòng)端平臺(tái)的可行性.

        1相關(guān)工作

        1.1生成對(duì)抗網(wǎng)絡(luò)

        Goodfellow提出的生成對(duì)抗網(wǎng)絡(luò)(Generative Adversarial Networks,GAN)[11],是深度學(xué)習(xí)中的一種重要算法.一個(gè)典型的GAN模型通常包含生成器和判別器.生成器的目的在于使得生成圖像的分布與自然圖像盡可能類似,讓人無法用肉眼辨別.而判別器的任務(wù)則是辨別輸入圖像是否為生成圖像,其目標(biāo)和利益恰好與生成器相反.這二者交替進(jìn)行訓(xùn)練,其中一方或會(huì)率先取得進(jìn)步,但不久后另一方便會(huì)追趕上來.二者的進(jìn)步迭代交叉,呈螺旋上升的趨勢(shì).

        1.2傳統(tǒng)隱寫與深度學(xué)習(xí)隱寫

        傳統(tǒng)隱寫技術(shù)可以分為自適應(yīng)和非自適應(yīng)兩類.一些非自適應(yīng)的隱寫方法利用信道編碼中的技術(shù)實(shí)現(xiàn)矩陣嵌入,譬如一些基于漢明碼和基于方向編碼的矩陣嵌入方法.此外還存在修改區(qū)域可選的矩陣嵌入方法,如濕紙碼[12].與非自適應(yīng)隱寫方法不同,自適應(yīng)隱寫方法會(huì)依據(jù)圖像內(nèi)容,有針對(duì)性地選擇紋理豐富度更高的區(qū)域進(jìn)行嵌密.自適應(yīng)隱寫方法常依靠最小失真框架實(shí)現(xiàn),譬如經(jīng)典的HUGO[13]和UNIWARD[14]等.嵌入失真代價(jià)函數(shù)和STC[15]構(gòu)成了該框架的主要組成部分.

        近年來,深度學(xué)習(xí)興起并進(jìn)入了快速發(fā)展的階段[16-18],其相關(guān)技術(shù)被引入隱寫領(lǐng)域,與傳統(tǒng)隱寫方法碰撞出一些新的研究方法.Hayes等人結(jié)合深度學(xué)習(xí),提出包含Alice、Bob和Eve三個(gè)子網(wǎng)絡(luò)的隱寫模型[19],輸出的載密圖像與原始圖像具有較高相似性. Zhu等人側(cè)重考慮魯棒性,在所提出的HiDDeN[20]中增加噪聲層,用以模擬JPEG壓縮和各類噪聲,從而提升魯棒性,但其存在嵌密量較低的缺點(diǎn).Bernard等人提出的方法中[21],隱寫方可以使用對(duì)抗樣本和動(dòng)態(tài)STC等工具用以嵌密,而隱寫分析方則擁有許多分析方法,雙方模擬對(duì)抗游戲,使得模型收斂并獲得一種高效的隱寫算法,充分挖掘了經(jīng)典隱寫方法的安全性.

        1.3移動(dòng)端隱寫應(yīng)用

        目前的研究中,針對(duì)移動(dòng)設(shè)備的較少,且現(xiàn)有的移動(dòng)端應(yīng)用大多是基于傳統(tǒng)方法的實(shí)踐[10],譬如LSB算法及其變型和F5算法等.這些移動(dòng)端隱寫方法不足以抵擋現(xiàn)在的隱寫分析技術(shù),存在安全性較低的問題.在自適應(yīng)隱寫上,SU等人[22]提出了基于J-UNIWARD的移動(dòng)端隱寫,其安全性有所提高.近年來出現(xiàn)的基于深度學(xué)習(xí)的隱寫方法大多存在體量較大的問題.盡管隨著硬件設(shè)備的發(fā)展,移動(dòng)設(shè)備的算力提升且內(nèi)存增加,但這些大體量的隱寫方法仍會(huì)占用設(shè)備的大量資源,無法滿足移動(dòng)端及時(shí)響應(yīng)的需求.

        2基于GAN的移動(dòng)端隱寫方法

        2.1模型結(jié)構(gòu)

        隱寫分析是與隱寫對(duì)立的技術(shù),可用于分析圖像中是否包含秘密信息[23].隱寫與隱寫分析之間的對(duì)抗和GAN中生成器與判別器之間的對(duì)抗十分相似,因此GAN能被自然地運(yùn)用到隱寫任務(wù)中.所提出的移動(dòng)端圖像隱寫方法綜合考慮了發(fā)送者和接收者的應(yīng)用需求,由生成器、解碼器和判別器三個(gè)部分組成,如圖1所示.向生成器輸入載體圖像IC和待嵌入信息,經(jīng)處理后即可輸出載密圖像IS.解碼器的目的則是從載密圖像IS中提取并還原秘密信息.判別器則發(fā)揮著隱寫分析的作用.

        拍攝的原始圖像和秘密信息需經(jīng)歷一番轉(zhuǎn)換才能輸入生成器.首先將秘密信息按ASCII碼轉(zhuǎn)換為01串,然后將其變形為三維矩陣并擴(kuò)展為與載體圖像相同長(zhǎng)寬的形狀,這樣便能在通道維度將二者拼接為一個(gè)整體.此處的擴(kuò)展操作通過反卷積實(shí)現(xiàn),而非全連接,這樣可以很大程度上減少計(jì)算量.生成器對(duì)該整體提取特征,從而獲得載密圖像.生成器的網(wǎng)絡(luò)結(jié)構(gòu)啟發(fā)自U-Net[24],先利用卷積進(jìn)行下采樣,逐步縮小特征圖大小,并獲得多尺度特征;而后進(jìn)行反卷積上采樣,同時(shí)級(jí)聯(lián)之前獲得的特征,輸出特征圖逐漸恢復(fù)為原始大小,并在最后作為殘差圖像輸出.將殘差圖像與載體圖像相加,即可得到載密圖像.該模型較好地結(jié)合了淺層、深層信息,有利于更好地感知圖像信息,從而生成圖像質(zhì)量更好的載密圖像.考慮到應(yīng)用場(chǎng)景是移動(dòng)端,在部署模型時(shí),可將模型中的標(biāo)準(zhǔn)卷積更換為深度可分離卷積,從而減小網(wǎng)絡(luò)計(jì)算量.不同嵌密量的生成器網(wǎng)絡(luò)有著微小的區(qū)別,在圖2中可以看到20 000 bit嵌密量下的生成器結(jié)構(gòu).

        解碼器網(wǎng)絡(luò)是類似漏斗形的結(jié)構(gòu),它由多層卷積組成,每層輸出特征圖大小逐漸減小,提取關(guān)鍵特征以還原秘密信息,并期望最后解碼的信息與原始秘密信息M盡可能一致,如圖2所示.在訓(xùn)練階段本文使用隨機(jī)01串模擬秘密信息,在部署運(yùn)用時(shí)則結(jié)合BCH糾錯(cuò)碼以提高解碼正確率.

        判別器作為一個(gè)二分類器,發(fā)揮了類似隱寫分析器的作用,目的是督促生成器輸出圖像質(zhì)量更好的載密圖像,提高安全性.在本工作中,使用Ye- Net[25]作為判別器.Ye-Net是2017年由Ye等人提出的基于深度學(xué)習(xí)的隱寫分析器,它是現(xiàn)在最先進(jìn)的隱寫分析方法之一.

        2.2損失函數(shù)

        生成器與解碼器作為一個(gè)小整體,與判別器交替進(jìn)行訓(xùn)練,二者相互促進(jìn),直到達(dá)到納什均衡點(diǎn).判別器的損失函數(shù)設(shè)計(jì)如下:

        式中:IS表示載密圖像,Ye-Net(IS)表示載密圖像通過Ye-Net后得到的評(píng)判結(jié)果.解碼器使用交叉熵?fù)p失函數(shù)進(jìn)行約束,損失函數(shù)表示如式(2).

        式中:Mi表示秘密信息,Mi′表示提取的秘密信息,CrossEntropy是交叉熵?fù)p失計(jì)算.生成器的損失函數(shù)包括圖像損失和安全性評(píng)估,如式(3)~式(5).

        LGenerator=αLI+βLS(3)

        LI=1-0.5×(τPSNR(IC,IS)+SSIM(IC,IS))(4)

        式中:IC表示載體圖像,PSNR(IC,IS)和SSIM(IC,IS)分別表示載體圖像與載密圖像之間的峰值信噪比和結(jié)構(gòu)相似性,τ、α以及β是計(jì)算參數(shù),數(shù)值分別為0.01、1和0.5.

        通過損失函數(shù)約束,生成器網(wǎng)絡(luò)逐步趨向于輸出質(zhì)量更好的載密圖像,它與載體圖像在肉眼觀察中難以進(jìn)行區(qū)分,且不易被隱寫分析器檢測(cè)出來.同時(shí),解碼器的解碼能力亦趨向于提升.

        2.3輕量化處理

        本工作的應(yīng)用場(chǎng)景為移動(dòng)端,這要求網(wǎng)絡(luò)模型在滿足精度的同時(shí),盡可能輕量化.本文嘗試?yán)盟岢龅碾[寫方法構(gòu)建安卓應(yīng)用,所得到的APK安裝包大小約20.9 MB.以同樣的方法嘗試對(duì)Stega- Stamp[26]和Hayes等人的方法[19]進(jìn)行構(gòu)建,獲得了大小分別為400 MB和848 MB的APK安裝包.由此可以直觀地感受到所提出的模型具有較高的輕巧性.

        此外,本文還針對(duì)資源不足的設(shè)備,提出了進(jìn)一步的輕量化改進(jìn)方法.實(shí)驗(yàn)中將標(biāo)準(zhǔn)卷積替換為深度可分離卷積,以期減少模型計(jì)算量.深度可分離卷積采用先分后合的結(jié)構(gòu),首先按單個(gè)通道分別進(jìn)行卷積,這樣能大大減少所需的參數(shù)量;而后將這些輸出合并再執(zhí)行1×1卷積.后者可在通道維度上進(jìn)行學(xué)習(xí),彌補(bǔ)了單通道卷積的不足.

        優(yōu)化后的模型可以從文件大小上直觀感受到模型體量明顯下降.包含有生成器與解碼器的模型文件由原先的4 087 kB縮小到了2 122 kB,APK文件則從20.9 MB縮小到14.7 MB.進(jìn)一步地,對(duì)模型的計(jì)算復(fù)雜度進(jìn)行量化評(píng)估.對(duì)于深度可分離卷積,其計(jì)算量可以表示為式(6).

        m×Lk×Lk×Lout×Lout+m×n×Lout×Lout(6)

        式中:m和n分別表示輸入和輸出特征圖的通道數(shù),Lk和Lout分別是卷積核和輸出特征圖的邊長(zhǎng).輕量化后的隱寫方法體量明顯降低,且計(jì)算量減少到原本的19.24%.在低算力的移動(dòng)設(shè)備上,可以選擇部署輕量化后的隱寫模型,這將有益于減少設(shè)備的計(jì)算壓力,且將性能維持在較好的水平;而對(duì)于資源豐富的設(shè)備,可以選擇使用原始隱寫模型以獲得更佳的性能體驗(yàn).

        3實(shí)驗(yàn)

        3.1實(shí)驗(yàn)設(shè)置

        考慮到移動(dòng)端相機(jī)獲取的圖像大多數(shù)是JPEG格式,所以本方法中沒有使用隱寫任務(wù)常用的無損圖像數(shù)據(jù)庫(kù),而是使用mirflickr25k數(shù)據(jù)集.該數(shù)據(jù)集由25 000張JPEG格式的圖像組成,囊括多種分類標(biāo)簽,比如clouds、male和food等.本文的實(shí)驗(yàn)中將數(shù)據(jù)集分為兩部分,其中20 000張圖作為訓(xùn)練集,5 000 張圖作為測(cè)試集.模型訓(xùn)練在NVDIA GeForce RTX 2080 Ti GPU上完成,并使用了Adam優(yōu)化器幫助收斂.

        3.2隱寫圖像質(zhì)量和解碼準(zhǔn)確率

        將所提出的隱寫方法與兩個(gè)基準(zhǔn)方法Stega- Stamp[26]和ReDMark[27]進(jìn)行對(duì)比,其結(jié)果如表1所示.本文方法在圖像質(zhì)量指標(biāo)SSIM和PSNR上均優(yōu)于其他方法,表現(xiàn)出較好的性能.解碼準(zhǔn)確率也更高,達(dá)到了99.37%.在體量方面,模型文件大小與模型計(jì)算參數(shù)量相關(guān).本文方法可對(duì)400×400像素的圖像進(jìn)行信息嵌入,與StegaStamp方法的輸入圖像大小一致.在此同一量級(jí)的對(duì)比中,本文模型更輕巧,模型文件大小僅為StegaStamp方法的五分之一.而相較于處理圖像僅為32X32像素的ReDMark方法,盡管本文方法處理的圖像更大,但模型中的輕量化處理使參數(shù)量大大減少,本文模型文件甚至更小一些.

        這里可以對(duì)上述結(jié)果作進(jìn)一步的解釋說明.StegaStamp方法中使用噪聲層模擬各類噪聲、壓縮和色彩失真攻擊,從而獲得較高的魯棒性.但噪聲層的引入會(huì)導(dǎo)致一定程度的圖像質(zhì)量下降.相較于Stega- Stamp,本文的方法更注重于移動(dòng)端的通信能力,選擇將重點(diǎn)放在提升圖像質(zhì)量與嵌密量上.因此所提出的方案剔除了噪聲層的干擾,從而使圖像在視覺效果上更為清晰.文中引入PSNR和SSIM對(duì)圖像質(zhì)量進(jìn)行評(píng)估.其中,PSNR表示信號(hào)最大值與背景噪聲之間的比例大小,當(dāng)噪聲大幅度降低后,該指標(biāo)獲得顯著提升.而在結(jié)構(gòu)相似性方面,由于隱寫任務(wù)對(duì)圖像結(jié)構(gòu)的改變較少,該項(xiàng)指標(biāo)的提高不甚明顯.此外,在模型體量上,本文舍棄了全連接層,結(jié)構(gòu)層次也更淺,因此模型更為輕巧,甚至在提升嵌密量后亦能保持較低的模型體量.體量上的優(yōu)勢(shì)將有益于模型在移動(dòng)端的部署,同時(shí)也有助于取得更快的響應(yīng)速度.

        對(duì)于深度學(xué)習(xí)方法,模型嵌密量的改變意味著模型結(jié)構(gòu)的變動(dòng)和性能的下降.為了維持方法原有的優(yōu)良特性,同時(shí)盡可能公平地進(jìn)行性能對(duì)比,本文在后續(xù)實(shí)驗(yàn)中將ReDMark處理的數(shù)據(jù)進(jìn)行拼接處理.將多個(gè)32×32像素的處理圖像拼接為384×384像素的圖像,從而與處理圖像為400×400像素的StegaStamp和本文方法構(gòu)成同一量級(jí).在嵌密量指標(biāo)上,經(jīng)過拼接處理的ReDMark方法可達(dá)到6 912 bit.根據(jù)圖像質(zhì)量、魯棒性和嵌密量三指標(biāo)平衡規(guī)律,信息隱藏方法的嵌密量越高,其另外兩項(xiàng)指標(biāo)將更難以提升.本文方法的嵌密量高于對(duì)比方法,在此“劣勢(shì)”中進(jìn)行對(duì)比,更可顯現(xiàn)本文方法在圖像質(zhì)量和輕量性質(zhì)中的優(yōu)越性.

        訓(xùn)練完畢并通過初步測(cè)試的模型可以借助支持庫(kù)部署在移動(dòng)端.首先將模型轉(zhuǎn)換輸出獲得pb格式的模型文件,再結(jié)合從TensorFlow源碼編譯的libten- sorflow_inference.so和libandroid_inference.jar 庫(kù)文件,即可在安卓端進(jìn)行模型調(diào)用.在安卓工程的使用中,圖像的讀入讀出會(huì)帶來一定程度的圖像質(zhì)量損失,這一問題主要表現(xiàn)為解碼準(zhǔn)確率下降.為了緩解這一問題,本文在安卓工程中引入了BCH糾錯(cuò)碼.輸入圖像類型仍是JPEG格式,而輸出類型則選用PNG 格式,以盡可能降低錯(cuò)誤率.結(jié)合BCH的糾錯(cuò)能力,隱寫應(yīng)用能基本正確地還原秘密信息,且圖像質(zhì)量良好,見圖3.

        3.3模型運(yùn)行時(shí)間測(cè)試

        模型運(yùn)行的速度與內(nèi)存大小、CPU等硬件設(shè)備相關(guān),且不同的耗電狀態(tài)和系統(tǒng)資源管理策略也會(huì)對(duì)計(jì)算速度帶來不同程度的影響.本文通過改變安卓模擬器的CPU核數(shù)和內(nèi)存大小,來模擬不同的CPU性能和內(nèi)存狀態(tài),如表2所示.作為對(duì)比,實(shí)驗(yàn)中公平地將對(duì)比模型打包并轉(zhuǎn)換,然后結(jié)合編譯獲得的支持庫(kù),以類似的安卓代碼部署在移動(dòng)端.在同等條件下,本文方法展現(xiàn)了更佳的反應(yīng)速度.尤其在內(nèi)存資源較為匱乏的情況下,這種優(yōu)越性更為明顯.在僅使用1核CPU和2G內(nèi)存的情況下,所提出的方法比StegaStamp用時(shí)少了32.4%,且遠(yuǎn)小于ReDMark用時(shí).而在1 G的內(nèi)存下,StegaStamp模型甚至?xí)o法正常運(yùn)行,提示內(nèi)存不足然后閃退.ReDMark方法所處理的圖像較小,單次運(yùn)行負(fù)擔(dān)較小,但這同時(shí)帶來了更多頻次的處理,總體用時(shí)反而較長(zhǎng).

        模型的運(yùn)行速度受許多因素的影響,而其中影響較大的因素是CPU的性能.如表2所示,在同等CPU核數(shù)下,1 G、2 G和4G內(nèi)存之間的運(yùn)行時(shí)間差距較小,而在不同核數(shù)下的差異較大.為進(jìn)一步探討CPU性能與模型運(yùn)行時(shí)間之間的關(guān)系,本文將模擬器的內(nèi)存固定為4G,同時(shí)改變模擬器的CPU核數(shù)進(jìn)行實(shí)驗(yàn),如圖4所示.在不同CPU核數(shù)下,本文方法運(yùn)行用時(shí)均小于StegaStamp.當(dāng)CPU核數(shù)低于4核時(shí),移動(dòng)端算力不足,執(zhí)行并發(fā)度較低,因此運(yùn)行用時(shí)在很大程度上受模型計(jì)算量的影響.此狀態(tài)下,計(jì)算量更低的本文方法可占據(jù)較大的優(yōu)勢(shì).當(dāng)CPU核數(shù)上升到4核后,設(shè)備資源相對(duì)充裕,兩者的模型均能在較短時(shí)間內(nèi)完成運(yùn)算,因此差異較小.此狀態(tài)下,兩個(gè)模型的運(yùn)行耗時(shí)都趨于穩(wěn)定平緩.而在該穩(wěn)定狀態(tài)下,本文方法仍保有一定的優(yōu)勢(shì).

        3.4運(yùn)行模型的內(nèi)存占用情況

        除了運(yùn)行時(shí)間外,本文對(duì)模型的內(nèi)存占用情況進(jìn)行了實(shí)驗(yàn)和記錄.為了便于觀察,本文固定在同一環(huán)境下進(jìn)行多次內(nèi)存占用測(cè)試.所用的安卓模擬器被設(shè)置為1核CPU且內(nèi)存為4 G.受設(shè)備狀態(tài)和內(nèi)存回收機(jī)制等因素的影響,測(cè)試結(jié)果常會(huì)上下浮動(dòng).在多次模型調(diào)用的過程中,內(nèi)存占用往往先上升至一個(gè)峰值,然后再陡然下降并最終趨于平緩,且平緩時(shí)內(nèi)存占用值比模型調(diào)用前更高一些.基于這一觀察,在實(shí)驗(yàn)中分別統(tǒng)計(jì)了調(diào)用模型時(shí)的內(nèi)存占用峰值和內(nèi)存占用穩(wěn)定值作為結(jié)果,見表3.在移動(dòng)場(chǎng)景下,不論是內(nèi)存占用峰值還是穩(wěn)定值,本文方法對(duì)內(nèi)存資源的消耗均遠(yuǎn)低于StegaStamp.其內(nèi)存占用穩(wěn)定值平均為37.87 MB,完全可以滿足移動(dòng)設(shè)備的使用要求,甚至能在低內(nèi)存的設(shè)備上正常使用.這將有助于在更輕巧的設(shè)備上部署該模型,如小型相機(jī)等.

        3.5真機(jī)測(cè)試

        在實(shí)際應(yīng)用場(chǎng)景下,本文選用了三種常見的智能移動(dòng)設(shè)備進(jìn)行真機(jī)測(cè)試,包括榮耀30、小米10 Lite 和榮耀9.三個(gè)移動(dòng)設(shè)備的狀態(tài)各不相同,其中前兩者使用時(shí)長(zhǎng)不超過一年,而榮耀9使用了近四年.真機(jī)實(shí)驗(yàn)測(cè)試的內(nèi)容包括模型運(yùn)行時(shí)間和解碼正確率,如表4所示.其中,本文將圖像讀寫帶來的損失納入考察范圍,測(cè)試重載入圖像的解碼正確率,并記為重載入.實(shí)驗(yàn)表明,所提出的隱寫模型在真機(jī)實(shí)驗(yàn)中亦具有較好的性能,響應(yīng)及時(shí).即便是使用近四年的舊機(jī)型也能在1.7 s內(nèi)輸出結(jié)果,具有較高的使用普適性.

        4結(jié)論

        本文針對(duì)移動(dòng)端展開研究,結(jié)合深度學(xué)習(xí)設(shè)計(jì)了一種輕量化的隱寫模型.具體工作中結(jié)合生成對(duì)抗網(wǎng)絡(luò)的思想,直接由網(wǎng)絡(luò)輸出載密圖像.針對(duì)移動(dòng)端的使用,對(duì)網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行了改進(jìn),舍棄對(duì)全連接層的使用,并用深度可分離卷積替換標(biāo)準(zhǔn)卷積,從而降低網(wǎng)絡(luò)體量并減少計(jì)算量.在部署時(shí),出現(xiàn)解碼器性能下降的問題.對(duì)此,使用BCH糾錯(cuò)碼矯正解碼錯(cuò)誤比特,從而實(shí)現(xiàn)秘密信息的正確提取.實(shí)驗(yàn)結(jié)果表明,所提出的隱寫模型在移動(dòng)端具有較好的表現(xiàn),能滿足一般的移動(dòng)端隱寫需求,填補(bǔ)了在移動(dòng)端深度學(xué)習(xí)隱寫研究上的空缺.

        從結(jié)果上看,所設(shè)計(jì)的隱寫應(yīng)用能為安全相關(guān)從業(yè)人員提供更便利的隱蔽通信方法.在未來的工作中,擬針對(duì)移動(dòng)端使用時(shí)的性能下降問題開展相關(guān)研究,期望在保持較小的計(jì)算量下,盡可能提升隱寫性能,尤其是生成圖像的質(zhì)量.這要求在輕量化中盡可能保留對(duì)隱寫性能影響較大的組成部分,而刪去無關(guān)緊要的分支,具體細(xì)節(jié)還有待進(jìn)一步的研究.

        參考文獻(xiàn)

        [1]翟黎明,嘉炬,任魏翔,等.深度學(xué)習(xí)在圖像隱寫術(shù)與隱寫分析領(lǐng)域中的研究進(jìn)展[J].信息安全學(xué)報(bào),2018,3(6):2-12.

        ZHAI L M,JIA J,REN W X,et al. Recent advances in deep learning for image steganography and steganalysis [J] . Journal of Cyber Security,2018,3(6):2-12.(In Chinese)

        [2]劉榮,李冠,賈斌.基于改進(jìn)生成對(duì)抗網(wǎng)絡(luò)的圖像自適應(yīng)隱寫模型[J].計(jì)算機(jī)工程與設(shè)計(jì),202 42(6):1551-1561.

        LIU R ,LI G,JIA B . Image adaptive steganography model basedon improved generative adversarial network[J] . Computer Engineering and Design,202 42(6):1551-1561.(In Chinese)

        [3]廖鑫,唐志強(qiáng),曹紜.基于生成對(duì)抗網(wǎng)絡(luò)的空域彩色圖像隱寫失真函數(shù)設(shè)計(jì)方法[J].軟件學(xué)報(bào),2021. DOI:10.13328/j.cnki. jos.006290.

        LIAO X,TANG Z Q,CAO Y. Steganographic distortion function learning method for spatial color image based on generative adversarial network [J].Joumal of Software,2021. DOI:10.13328/j. cnki.jos.006290.(In Chinese)

        [4]馬媛媛,徐久成,張祎,等.基于W2ID準(zhǔn)則的Rich Model隱寫檢測(cè)特征選取方法[J].計(jì)算機(jī)學(xué)報(bào),202 44(4):724-740.

        MA Y Y,XU J C,ZHANG Y,et al. W2ID criterion-based rich model steganalysis features selection[J] Chinese Journal of Com- puters,202 44(4):724-740 (In Chinese)

        [5]任魏翔,翟黎明,王麗娜,等.基于卷積神經(jīng)網(wǎng)絡(luò)的JPEG圖像隱寫分析參照?qǐng)D像生成方法[J].計(jì)算機(jī)研究與發(fā)展,2019,56 (10):2250-2261

        REN W X,ZHAI L M,WANG L N,et al Reference image generation algorithm for JPEG image steganalysis based on convolutional neural network[J] Journal of Computer Research and Development,2019,56(10):2250-2261 (In Chinese)

        [6]吳建斌,康子陽(yáng),劉逸雯,等.基于圖像分類的無載體信息隱藏方法[J].湖南大學(xué)學(xué)報(bào)(自然科學(xué)版),2019,46(12):25-32 .

        WUJB ,KANG Z Y,LIU Y W,et al. Coverless information hiding algorithm based on image classification[J] Journal of Hunan University (Natural Sciences),2019,46 (12):25-32.(In Chinese)

        [7]吳俊锜,翟黎明,王麗娜,等.基于多尺度濾波器的空域圖像隱寫增強(qiáng)算法[J].計(jì)算機(jī)研究與發(fā)展,2020,57(1研:2251- 2259

        WU J Q,ZHAI L M,WANG L N,et al Enhancing spatial steganographic algorithm based on multi-scale filters[J] Journal of Computer Research and Development,2020,57(11):2251-2259 (In Chinese)

        [8]劉慧超,王志君,梁利平.基于紋理特性的能量差調(diào)制視頻水印算法[J].湖南大學(xué)學(xué)報(bào)(自然科學(xué)版),2020,47(10)116-123

        LIU H C,WANG Z J,LIANG L P Energy difference modulated video watermarking algorithm based on texture feature [J] . Journal of Hunan University(Natural Sciences),2020,47(10):116- 123 (In Chinese)

        [9]付章杰,王帆,孫星明,等.基于深度學(xué)習(xí)的圖像隱寫方法研究

        [J] 計(jì)算機(jī)學(xué)報(bào),2020,43(9):1656-1672

        FUZJ,WANG F,SUN XM,et al. Research on steganography of digital images based on deep learning[J] Chinese Journal of Computers,2020,43(9):1656-1672 (In Chinese)

        [10] CHEN W H,LIN L,WU M,et al Tackling android stego apps in the wild[ C]//2018 Asia-Pacific Signal and Information ProcessingAssociation Annual Summit and Conference (APSIPA ASC). Honolulu,HI,USA :IEEE ,2018:1564 - 1573.

        [11] GOODFELLOW I,POUGET-ABADIE J,MIRZA M,et al. Generative adversarial networks [J] . Communications of the ACM ,2020,63(11):139-144.

        [12] FRIDRICH J,GOLJAN M,LISONEK P,et al. Writing on wet paper [J] .IEEE Transactions on Signal Processing,2005,53(10):3923-3935.

        [13] PEVNY T,F(xiàn)ILLER T,BAS P. Using high-dimensional image models to perform highly undetectable steganography [C]//Information Hiding. Berlin,Heidelberg:Springer Berlin Heidelberg,2010:161-177.

        [14] HOLUB V,F(xiàn)RIDRICH J. Digital image steganography using universal distortion[C]//Proceedings of the First ACM Workshop on Information Hiding and Multimedia Security. New York,NY,USA:Association for Computing Machinery,2013 :59-68.

        [15] FILLER T,JUDAS J,F(xiàn)RIDRICH J. Minimizing additive distortion in steganography using syndrome-trellis codes[J].IEEE Transactions on Information Forensics and Security,201 6(3):920-935.

        [16]張政馗,龐為光,謝文靜,等.面向?qū)崟r(shí)應(yīng)用的深度學(xué)習(xí)研究綜述[J].軟件學(xué)報(bào),2020,31(9):2654-2677.

        ZHAN G Z K,PAN G W G,XIE W J,et al. Deep learning for realtime applications:a survey[J].Journal of Software,2020,31(9):2654-2677.(In Chinese)

        [17]劉勇,李杰,張建林,等.基于深度學(xué)習(xí)的二維人體姿態(tài)估計(jì)研究進(jìn)展[J].計(jì)算機(jī)工程,202 47(3):1-16.

        LIU Y,LI J,ZHANG J L,et al.Research progress of twodimensional human pose estimation based on deep learning[J].Computer Engineering,202 47(3):1-16 .(In Chinese)

        [18]謝修娟,顧兵.基于深度學(xué)習(xí)的抗菌藥物耐藥性分析研究[J].湖南大學(xué)學(xué)報(bào)(自然科學(xué)版),202 48(10):113-120.

        XIE X J,GU B.Research on antimicrobial resistance analysis based on deep learning[J].Journal of Hunan University(NaturalSciences),202 48(10):113-120.(In Chinese)

        [19] HAYES J,DANEZIS G. Generating steganographic images via adversarial training[ C]//Proceedings of the 31st International Conference on Neural Information Processing Systems. Red Hook,NY,USA:Curran Associates Inc,2017:1951-1960.

        [20] ZHU J R,KAPLAN R,JOHNSON J,et al.HiDDeN:hiding data with deep networks[ C]//Computer Vision-ECCV 2018. Munich,Germany:Springer International Publishing,2018:682-697.

        [21] BERNARD S,BAS P,KLEIN J,et al. Explicit optimization of min max steganographic game [ J]. IEEE Transactions on Information Forensics and Security,202 16:812-823.

        [22] SU A T,MA S,ZHAO X F.Fast and secure steganography based on J-UNIWARD[J].IEEE Signal Processing Letters,2020,27:221-225.

        [23]沈軍,廖鑫,秦拯,等.基于卷積神經(jīng)網(wǎng)絡(luò)的低嵌入率空域隱寫分析[J].軟件學(xué)報(bào),202 32(9):2901-2915.

        SHEN J,LIAO X,QIN Z,et al. Spatial steganalysis of low embedding rate based on convolutional neural network[J] Journal of Software,202 32(9):2901-2915 (In Chinese)

        [24] RONNEBERGER O,F(xiàn)ISCHER P,BROX T. U-Net:Convolutional networks for biomedical image segmentation[C]//Proceedings of Medical Image Computing and Computer-Assisted Intervention. Munich,Germany:Springer International Publishing,2015:234-241.

        [25] YE J,NI J Q,YI Y Deep learning hierarchical representations for image steganalysis[J] IEEE Transactions on Information Forensics and Security,2017,12(11):2545-2557

        [26] TANCIK M,MILDENHALL B,NG R StegaStamp:invisible hyperlinks in physical photographs[ C]//2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition(CVPR)Seattle,

        WA,USA:IEEE,2020:2114-2123

        [27] AHMADI M,NOROUZI A,KARIMI N,et al ReDMark:Frame- work for residual diffusion watermarking based on deep networks [J] Expert Systems with Applications,2020,146:113157

        亚洲av永久无码精品一区二区| 最全精品自拍视频在线| 日韩一区二区三区熟女| 97久久国产亚洲精品超碰热| 少妇无码av无码专区线| 97色偷偷色噜噜狠狠爱网站97| 亚洲成av在线免费不卡| 在线播放草猛免费视频| 99久久精品免费观看国产| 久久97精品久久久久久久不卡| 亚洲AV无码中文AV日韩A| 成h视频在线观看免费| 久久久久久久久毛片精品| 爽爽午夜影视窝窝看片| 大胸美女吃奶爽死视频| 国产精品日韩亚洲一区二区| 免费网站内射红桃视频| 久久婷婷国产剧情内射白浆| 日韩精人妻无码一区二区三区| 久久伊人精品中文字幕有| 97在线视频免费人妻| 久久人人97超碰超国产| 91精品国产综合久久青草| 国产高清精品一区二区| 日日噜噜夜夜狠狠va视频| 97性视频| 亚洲中文字幕诱惑第一页| 亚洲一区二区三区乱码在线中国 | 色多多a级毛片免费看| 中文字幕无码专区一VA亚洲V专| 少妇人妻在线伊人春色| 内射人妻无套中出无码| 亚洲永久精品ww47| 人妻少妇精品视中文字幕国语| 高清在线有码日韩中文字幕| 北条麻妃国产九九九精品视频| 国产高级黄区18勿进一区二区| 免费看男女啪啪的视频网站| 精品久久久久久综合日本 | 伊人久久大香线蕉免费视频| 日韩一二三四区免费观看|