亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于顯著性檢測的圖像隱寫分析方法

        2021-03-07 05:16:22黃思遠張敏情畢新亮
        計算機應用 2021年2期
        關鍵詞:特征區(qū)域檢測

        黃思遠,張敏情*,柯 彥,畢新亮

        (1.武警工程大學密碼工程學院,西安 710086;2.網絡與信息安全武警部隊重點實驗室(武警工程大學),西安 710086)

        (*通信作者電子郵箱aqi_zmq@126.com)

        0 引言

        長期以來,圖像隱寫術和圖像隱寫分析一直在相互斗爭中發(fā)展[1-2]。圖像隱寫術致力于將秘密信息盡可能地隱藏在圖像中,并盡可能減少圖像在視覺質量和統(tǒng)計特征方面的變化;圖像隱寫分析則利用圖像處理和機器學習理論來分析隱寫圖像和載體圖像之間的統(tǒng)計差異,并通過增加特征數量和增強分類器性能來提高檢測精度。圖像隱寫分析的困難在于隱寫分析模型無法完全有效地建模隱寫操作在圖像中嵌入秘密消息時發(fā)生的細微差異。近幾年提出的圖像自適應隱寫術利用最小失真函數用優(yōu)先選擇圖像的紋理復雜區(qū)域進行嵌入,秘密信息更巧妙地隱藏在難以建立隱寫分析模型的區(qū)域中,加大了檢測的難度,提高了隱寫技術的安全性,給圖像隱寫分析帶來了嚴峻的挑戰(zhàn)。

        為了對抗圖像自適應隱寫術,傳統(tǒng)的圖像隱寫分析需要考慮更復雜、更高維的圖像統(tǒng)計特性。Fridrich 等[3]提出的富模型將多種相異特征融合于一體,使用集成分類器進行訓練,取得了不錯的效果。但是也面臨諸多困難:首先,算法設計的復雜度高、難度大;其次,特征參數的調節(jié)需要花費大量的時間和精力,導致實驗效率低下。

        近年來,深度學習的發(fā)展使得傳統(tǒng)的圖像隱寫分析中提取特征和分類這兩個步驟統(tǒng)一起來并實現自動化,使端到端的方法成為可能,并取得了很好的效果。2015年,Qian等[4]提出一個具有5個卷積層的網絡結構,使用KV 核作為預處理層對圖像進行預處理,使得模型能夠直接對殘差圖像進行學習,降低了圖像內容對訓練的干擾。2016 年,Xu 等[5]提出的Xu-Net 使用KV 核作為高通濾波器(High-Pass Filter,HPF)層對圖像進行預處理操作。該網絡中使用5 個卷積層:為了防止網絡模型過擬合,前兩個卷積層的卷積核為5× 5,而隨后的卷積層中則使用1× 1大小的卷積核;每個卷積層中均使用了批量標準化(Batch Normalization,BN)操作;前兩個卷積層后使用雙曲正切(Hyperbolic Tangent,TanH)激活函數,其他卷積層使用修正線性單元(Rectified Linear Unit,ReLU)激活函數;每個卷積層通過均值池化來減小特征圖的維度。2017 年Ye 等[6]提出了Ye-Net,該網絡使用了更深的10 層卷積網絡結構,并且使用30個空域富模型(Spatial Rich Model,SRM)卷積核作為預處理層來讓模型學習更多的特征。Ye 等在文獻中設計了新的截斷線性單元(Truncated Linear Unit,TLU)作為激活函數,通過適當地設置參數T(一般取3 或7)使網絡能夠更好地適應隱寫噪聲分布;Ye-Net還通過通道選擇,進一步改善了 該模型的檢測效果。2018 年,Boroumand 等[7]提出了SRNet,該模型整體由四部分不同作用的卷積層模塊組成,有效地利用了BN 層和殘差網絡,并且加入通道選擇,提高了模型對隱寫算法的檢測準確率。2019 年,Zhu 等[8]提出的Zhu-Net使用3× 3核代替?zhèn)鹘y(tǒng)的5× 5核,并在預處理層優(yōu)化卷積層,提高了對空域隱寫術的檢測精度。

        然而,現有的基于卷積神經網絡(Convolutional Neural Network,CNN)的模型提取的特征仍然存在大量冗余,這意味著特征的大部分維度都是無用的,尤其在檢測圖像自適應隱寫算法時,嵌入變化通常被限制在難以建模的復雜紋理和邊緣區(qū)域,而并非圖像的所有區(qū)域。針對此問題,本文提出了一種基于顯著性檢測的圖像隱寫分析方法,通過對數據進行預處理引導模型在訓練時提高對圖像隱寫區(qū)域特征的關注度,從而提高模型的訓練效果以及檢測準確率。

        本文的主要工作包括:

        1)提出了一種基于顯著性檢測的圖像隱寫分析方法,引導模型對圖像隱寫區(qū)域特征進行針對性的學習;

        2)對訓練集進行數據統(tǒng)計分析,并在訓練中采取不同的訓練策略,對比各種策略給訓練效果帶來的影響;

        3)在空域和JPEG 域上針對不同嵌入率和自適應隱寫算法進行驗證,實驗結果表明本文提出的方法可以有效地提升隱寫分析模型的檢測性能;

        4)對模型在不同載體源、不同隱寫算法及不同嵌入率的情況下進行了失配測試,測試結果表明本文方法具有較好的泛化能力和實用性。

        1 相關工作

        1.1 圖像自適應隱寫術

        圖像自適應隱寫術是現代圖像隱寫術方案中安全性最高的技術,它通過基于嵌入成本調整嵌入位置來提高抗檢測能力[9]。許多目前可用的自適應隱寫算法,如HUGO[10]、WOW[11]、S-UNIWARD[12]、UED[13]和J-UNIWARD[12],都具有很高的抗檢測能力,并且它們中的大多數是在最小化失真函數的框架下設計的。在該框架中,首先根據失真函數為每個覆蓋元素的改變分配成本,然后通過使用一些編碼技術,如STC(Syndrome Trellis Code),根據失真情況,綜合考慮確定最終要改變的元素,從而使整體失真最小化。

        文獻[2]對圖像自適應隱寫進行了形象的描述,如圖1 所示,由于在圖像紋理復雜區(qū)域進行隱寫操作可以減少圖像在視覺質量和統(tǒng)計特征方面的變化,所以圖像中位于紋理復雜區(qū)域的元素被修改概率較大。因此,對隱寫算法修改概率更高的區(qū)域進行更有側重的檢測,將有利于提升隱寫分析的效果。自適應隱寫算法修改概率的損失函數計算方法為

        其中:βi,j為位于圖像位置(i,j)的元素被修改的概率值;λ為大于零的數值,具體數值由隱寫的相對嵌入率決定。

        圖1 原始圖像及其對應的隱寫點圖和嵌入修改概率圖Fig.1 Cover image and the corresponding stego image and embedding probability image

        1.2 顯著性檢測

        顯著性檢測是計算機視覺中的一個重要且具有挑戰(zhàn)性的問題,其目的是自動發(fā)現并定位與人類感知一致的視覺感興趣區(qū)域。近年來,顯著性檢測在目標跟蹤[14]、圖像壓縮[15]、圖像分割[16]、場景分類[17]等任務中得到了廣泛的應用。

        每個圖像的特征可以在低級、中級、高級三個不同的層次上表示:低層特征與原始圖像的顏色、邊緣、紋理有關;中層特征主要對應于物體的輪廓、形狀和空間環(huán)境信息;高層特征與背景、對象識別以及對象間的內在語義交互有關。如何在統(tǒng)一的學習框架下對上述因素進行有效的建模,是顯著性檢測中需要解決的關鍵和具有挑戰(zhàn)性的問題。

        傳統(tǒng)的顯著性檢測通過純數學的方法,在不需要訓練模型的情況下識別出顯著性區(qū)域。如Itti 等[18]受靈長類動物啟發(fā),在KU 視覺注意模型的基礎上提出了一種經典的顯著性檢測方法:針對多尺度圖像,不同的空間位置通過競爭獲取顯著性,然后通過顯著圖融合獲得顯著性區(qū)域,并且在模型后端設計了一種winner-take-all 激活網絡,模擬人類視覺動態(tài)更新關注點的位置。Cheng 等[19]使用稀疏直方圖簡化圖像顏色表示,采用基于圖的分割方法將圖像劃分為多個區(qū)域,根據空間位置距離加權的顏色對比度之和計算圖像區(qū)域的顯著性。在人工智能興起之后,深度學習技術也廣泛地應用于顯著性檢測。Zhang 等[20]提出了控制淺層和深層特征的雙向傳遞,以獲得準確的預測;Chen 等[21]采 用HED(Holistically-nested Edge Detection),通過使用逆向注意模型迭代地細化其輸出;Liu 等[22]通過上下文注意網絡預測像素級注意圖,將其與U-Net 結構結合起來檢測顯著性區(qū)域。雖然這些方法提高了顯著性檢測的標準,但在精細結構段質量和邊界精度方面仍有很大的改進空間。針對此問題,Qin 等[23]提出了一種基于邊界感知的顯著性檢測模型BASNet,該模型通過融合二值交叉熵(Binary Cross Entropy,BCE)、結構相似性(Structural SIMilarity,SSIM)和交并比(Intersection-over-Union,IoU)三種損失函數,引導網絡更加關注邊界質量,精確分割顯著性區(qū)域,并且使顯著性區(qū)域邊界更加清晰,如圖2所示。

        圖2 BASNet處理效果圖Fig.2 Processing renderings of BASNet

        2 基于顯著性檢測的圖像隱寫分析方法

        在BASNet模型的啟發(fā)下,本文提出了一種基于顯著性檢測的圖像隱寫分析方法,利用顯著性檢測技術對訓練數據進行預處理,引導模型增加對隱寫區(qū)域特征的關注度,并且減少訓練中不利特征的干擾,從而提高模型的訓練效果和檢測性能。本文提出的方法整體框架如圖3 所示,主要由顯著性檢測模塊、區(qū)域篩選模塊和判別器模塊組成。

        首先由顯著性檢測模塊分割出判別錯誤圖像的顯著性區(qū)域,形成顯著性圖。其次,由區(qū)域篩選模塊對符合預處理要求的圖像進行篩選,保證處理的合理性和有效性,而后將篩選出的符合要求的圖像與其對應的原始圖像進行圖像融合,形成顯著性融合圖;不符合要求的顯著性圖則用其對應的原始圖像替換。最后,將符合要求圖像的顯著性融合圖和不符合要求圖像的對應原始圖像合并,形成更新后的數據集,輸入判別器模塊進行訓練,使判別器對與隱寫區(qū)域重合度較高的區(qū)域進行有針對性的特征學習,從而提高模型的訓練效果和檢測精度。

        圖3 基于顯著性檢測的圖像隱寫分析方法整體框架圖Fig.3 Framework of the method for image steganalysis based on saliency detection

        2.1 顯著性檢測模塊

        顯著性檢測模塊用于生成待測圖像的顯著性區(qū)域。對于不同內容和紋理的圖像,隱寫分析算法的檢測能力是有限的,然而現有的檢測方法通常不區(qū)分不同內容和紋理的圖像,將它們放在同一個數據集中進行訓練和分類。如果判別器對圖像中高強度的隱寫噪聲敏感,那么也可能對圖像中低強度的隱寫噪聲敏感;但是,如果判別器對圖像中低強度的隱寫噪聲敏感,則不確定是否對圖像中高強度的隱寫噪聲也敏感[24]。如圖4 所示,對于內容和紋理較為簡單的原始圖像I1,噪聲強度量化為S1;隱寫后的圖像為I1′,噪聲強度為S1′,這里滿足表達式S1′>S1。同時,對于另一幅原始圖像I2,它的內容和紋理比I1略為豐富和復雜,噪聲強度量化為S2,有S2>S1,則存在S1′≈S2的情況,即本來沒有隱寫的原始圖像,其特征復雜度與隱寫圖像達到了同一程度,并且從I1′提取的特征也近似等于從I2提取的特征。最終,原始圖像和隱寫圖像就會被判別器誤認為是同一類。

        圖4 誤判原因示意圖Fig.4 Schematic diagram of error detection

        針對上述問題,本文從特征提取方面入手,分析了圖像自適應隱寫嵌入區(qū)域的特征與顯著性檢測標注區(qū)域的特征之間的關聯。圖像自適應隱寫通過STC使圖像在經過隱寫后的失真最小化,而其最直觀的表現為秘密信息嵌入在圖像紋理復雜的區(qū)域,從人類視覺的角度分析,這部分區(qū)域就是與周圍區(qū)域有較強對比度或明顯不同的區(qū)域,即圖像中最為顯著的區(qū)域;顯著性檢測則通過對人類視覺的模擬,將有限的計算資源分配給圖像中更重要的信息,即使模型對圖像中的顯著性區(qū)域進行標注,所以圖像自適應隱寫的嵌入區(qū)域與顯著性檢測的標注區(qū)域在其特征內容上存在很大程度的相關性。

        基于上述分析,本文將計算機視覺領域的顯著性檢測模型引入圖像隱寫分析,使模型能夠將圖像中最可能進行隱寫的區(qū)域標注出來,其他區(qū)域則忽略。因此,模型在訓練中更容易學習原始圖像和隱寫圖像在噪聲強度上的差異特征,減少出現誤判的情況,從而提高其訓練效果和檢測能力。

        在顯著性檢測模塊,本文將文獻[23]中BASNet的預測模塊和多尺度殘差優(yōu)化模塊引入網絡。

        預測模塊的設計靈感來源于U-Net[25],該網絡的主要目的是通過處理得到一個粗糙的顯著性圖。多尺度殘差優(yōu)化模塊首先對比粗糙顯著性圖和真實標注之間的殘差,而后通過學習來進一步優(yōu)化粗糙顯著性圖,最終提高顯著性圖的圖像質量,其結構如圖5 所示。本文通過對多尺度殘差優(yōu)化模塊的利用,使模型能夠更準確地分割出隱寫區(qū)域,為下一步的圖像融合提供更好的實施基礎。

        該模型算法的中心思想在文獻[22]中表示為:

        其中,Scoarse、Sresidual和Srefined分別表示預測模塊的殘差、顯著性圖和真實標注的殘差以及優(yōu)化后的殘差。該模型主要架構由輸入層、編碼器、橋接層、解碼器和輸出層組成。編碼器和解碼器都有四個階段(如圖5 虛線框標注),每個階段由一個卷積層和64 個大小為3× 3 的過濾器組成,采用批量歸一化(BN)和ReLU 激活。橋接層設置一個卷積層,參數與其他層相同。編碼器中的下采樣用最大池化層(maxpool),解碼器用雙線性上采樣層(bilinear upsample)。顯著性檢測模塊輸出模型的最終顯著性圖。為了獲得高質量的區(qū)域細分和清晰的邊界,文獻[22]還對該模型在訓練時定義了一種混合損失?(k),表示為:

        圖5 多尺度殘差優(yōu)化模塊結構Fig.5 Structure of multi-scale residual refine module

        該損失結合了BCE、SSIM 和IoU 損失,有助于減小交叉?zhèn)鞑ピ谶吔缟蠈W習信息而產生的虛假誤差,使邊界更加精細化。為了提高實驗效率,本文采用遷移學習的方式調用在顯著性檢測數據集ECSSD[26]上預訓練的BASNet模型來進行實驗。

        在經過顯著性檢測模塊處理后,本文對圖像的顯著性區(qū)域與隱寫區(qū)域進行對比分析,如圖6 所示。從對比分析中可以看出,區(qū)域重合度存在兩種情況:第一種是圖像中顯著目標較為明確時,經過處理后的顯著性區(qū)域與隱寫區(qū)域重合度較高;第二種是圖像中顯著目標較為模糊時,經過處理后的顯著性區(qū)域與隱寫區(qū)域重合度較低。因為顯著性區(qū)域與隱寫區(qū)域重合度較低的圖像不符合實驗要求,所以需要設計一個區(qū)域篩選模塊,將符合要求的圖像篩選出來,保證處理的合理性和有效性。

        2.2 區(qū)域篩選模塊

        區(qū)域篩選模塊用于將符合處理要求的圖像篩選出來。在進行圖像自適應隱寫操作時,由于其最小化失真函數的框架,所以秘密信息會優(yōu)先選擇紋理較為復雜的區(qū)域進行嵌入,即圖像中最顯著的區(qū)域,因而顯著性檢測技術中會將這部分區(qū)域標注出來。

        本節(jié)首先利用數據集BOSSbase1.01[27]對顯著性區(qū)域與隱寫區(qū)域的重合度進行數據的統(tǒng)計與分析。進行分析的圖像數量為10 000,質量因子為75,自適應隱寫算法為J-UNIWARD,嵌入率為0.4 bpnzAC(bits per none zero AC)。為了對數據分布情況進行整體的分析,本文設計了一種顯著性區(qū)域和隱寫區(qū)域的重合度η的計算方法:

        其中:N表示圖像中像素點的總數,Ncoin表示重合區(qū)域的像素點的個數,Nstego表示隱寫區(qū)域的像素點個數,PStego(i,j)和PSD(i,j)分別表示隱寫點圖和顯著性圖在位置(i,j)的像素值。本文利用該算法將10 000張圖像的顯著性區(qū)域和隱寫區(qū)域的重合度進行數據統(tǒng)計,如表1所示。

        表1 顯著性區(qū)域和隱寫區(qū)域的重合度統(tǒng)計Tab.1 Statistics of coincidence rate of saliency regions and steganography regions

        由表1 可以看出顯著性區(qū)域和隱寫區(qū)域的重合度主要分布在[0,0.2)和[0.5,1],而重合度小的圖像并不適合進行顯著性處理,因此,需要利用區(qū)域篩選模塊對圖像進行篩選,保證處理的有效性。

        圖6 顯著性圖與隱寫點圖的對比Fig.6 Comparison of saliency images and stego image

        本文通過實驗對比分析,將區(qū)域篩選模塊中篩選區(qū)域的閾值K設為0.7,即篩選出顯著性區(qū)域和隱寫區(qū)域的重合度集中在[0.7,1]的圖像,具體在3.3 節(jié)詳細闡述。而后利用圖像融合技術,將顯著性圖與原始圖像進行融合,其目的是將圖像中顯著性區(qū)域以外的像素置0,引導模型只關注顯著性區(qū)域的圖像特征,如圖7所示。

        2.3 判別器模塊

        初始檢測錯誤的圖像以及更新后數據集的重新訓練都需要判別器模塊來進行處理。圖8 展示了由文獻[7]提供的判別器模型SRNet的細節(jié)。

        SRNet 模型共有四部分:前兩個部分為1~7 層,主要功能是提取噪聲的部分殘差;第三部分為8~11 層,主要功能是降低特征圖的維數;第四部分包括全連接層和Softmax 分類器。第12 層計算每個特征圖的統(tǒng)計矩,并將特征向量輸入分類器。其中,卷積層都采用3× 3 的卷積核;1~7 層不采用池化層;8~11 層采用3× 3 的池化層,步長為2;非線性激活函數均為ReLU。

        圖7 圖像融合示意圖Fig.7 Schematic diagram of image fusion

        圖8 SRNet模型結構Fig.8 Structure of SRNet

        3 實驗與分析

        3.1 數據集及實驗平臺

        本實驗在Windows 10 操作系統(tǒng)下運行,深度學習框架為TensorFlow-gpu 1.15.2,編程語言為Python 3.6.6,顯卡為NVIDIA V100(32 GB),計算架構為CUDA 10.0,依賴包為cudnn7。實驗數據集采用的是BOSSbase1.01,分別在空域和JPEG 域進行實驗驗證:對于空域,使用S-UNIWARD、HUGO、WOW 和HILL[28]自適應隱寫算法進行隱寫,嵌入率為0.1~0.4 bpp(bits per pixel);對于JPEG 域,首先對空域圖像進行JPEG 壓縮,轉換為質量因子為75 和95 的JPEG 圖像,而后使用J-UNIWARD 和JC-UED[29]自適應隱寫算法對圖像進行隱寫,嵌入率為0.1~0.4 bpnzAC。

        3.2 實驗參數

        為了保證顯著性檢測的質量和效果,與文獻[7]不同,本文對于數據集不作任何尺寸的調整,使用分辨率為512 × 512的原始圖像進行實驗,實驗中,隨機選取4 000 張圖像作為訓練集,1 000 張圖像作為驗證集,5 000 張圖像作為測試集,設置訓練集每一批次(batchsize)為32,驗證集為40,判別器使用SRNet模型,初始學習率(learning_rate)為0.001,運用Adam[30]優(yōu)化器,最大迭代次數為50 0000。在對比實驗過程中,本文提出的方法以及對比方法采用相同的訓練集、驗證集和測試集,并且三個數據集的圖像互不重復。

        3.3 實驗結果與分析

        3.3.1 不同訓練策略的實驗結果對比

        為了驗證本文方法的隱寫分析性能,在使用J-UNIWARD自適應隱寫算法進行隱寫,嵌入率為0.4 bpnzAC,圖像質量因子為75 的情況下,分別對替換所有圖像、替換所有檢測錯誤的圖像、替換經過區(qū)域篩選模塊后合適的圖像這三種訓練策略進行對比實驗,結果如圖9 所示。第一種訓練策略為替換所有圖像,實驗結果顯示模型的訓練效果很差,檢測準確率很低,并且難以收斂,因為模型在訓練時無法很好地學習圖像本身的特征;第二種訓練策略為只將判別器檢測錯誤的圖像替換為顯著性圖,這種訓練策略的檢測準確率較第一種訓練策略有明顯提升,因為模型對學習錯誤的特征進行了針對性的訓練;第三種訓練策略為只將經過區(qū)域篩選模塊處理后合適的圖像替換為顯著性圖,實驗結果表明,第三種訓練策略的效果最優(yōu),并且收斂較快。

        圖9 不同訓練策略的實驗對比Fig.9 Comparison of different training strategies

        對于區(qū)域篩選模塊的篩選閾值K,本文也進行了實驗分析,通過實驗比較了在不同區(qū)域篩選閾值下訓練的模型性能,其中K取0.6,0.7,0.8 三個值,實驗結果見表2。從實驗結果可以看出區(qū)域篩選閾值對檢測性能有著一定的影響。當K=0.6 時,檢測準確率下降較多,其原因是部分顯著性區(qū)域與隱寫區(qū)域重合度較低的圖像存在一定的冗余,不利于模型對特征的學習;當K=0.8時,檢測準確率略微下降,其原因是部分顯著性區(qū)域與隱寫區(qū)域重合度較高的圖像被原始圖像替換,導致模型并不能很好地對有利區(qū)域進行針對性的學習;當K=0.7時,模型的檢測準確率達到最佳。

        表2 不同區(qū)域篩選閾值K下的檢測準確率Tab.2 Detection accuracies of different region filter thresholds K

        ROC(Receiver Operating Characteristic)曲線是一種衡量隱寫分析模型的重要指標,可以通過縱軸正陽率(True Positive Rate,TPR)和橫軸假陽率(False Positive Rate,FPR)的關系反映模型在數據集正負樣本分布不均勻的情況下的判別能力,即模型的魯棒性。AUC 值為ROC 曲線所覆蓋的區(qū)域面積,AUC 值越大,模型檢測效果越好。圖10 展示了本文方法和SRNet在不同嵌入率和自適應隱寫算法下的ROC曲線以及對應的AUC 值,圖像質量因子(Quality Factor,QF)為75。其中:“AUC-本文方法-JUNIWARD-0.4 bpnzAC=0.885 3”表示嵌入算法為JUNIWARD,嵌入率為0.4 bpnzAC 的實驗參數下,本文方法能夠達到的AUC值為0.8853。

        圖10 不同嵌入率和隱寫算法下的ROC曲線Fig.10 ROC curve of different embedding rates and steganography algorithms

        3.3.2 不同隱寫算法的實驗結果對比

        為了驗證本文方法對于自適應隱寫算法檢測的有效性,分別對用空域和JPEG 域的自適應隱寫算法嵌入的數據集進行隱寫分析,如表3、4 所示。從實驗結果可以看出,本文的方法在空域和JPEG 域通用,并且整體表現良好,但是在嵌入率較低時,該方法展現不出太大的優(yōu)勢,并且在圖像質量較高,自適應隱寫算法較復雜的情況下,存在一定的劣勢,這方面在今后的工作中有待進一步提升。

        3.3.3 不同隱寫分析模型的實驗結果對比

        為了驗證實驗的可靠性,本文對比了當前在JPEG域隱寫分析有一定競爭力的J-XuNet[31]、PNet[32]、SCA-GFR[33]以及在空域隱寫分析有一定競爭力的Ye-Net、Xu-Net、SRM[34],在訓練集和測試集數量相同的情況下,分別對用J-UNIWARD、JC-UED、HUGO、HILL 隱寫算法進行嵌入的圖像進行隱寫分析,如圖11 所示。從檢測準確率可以看出,本文方法的性能有明顯的優(yōu)越性。

        本文提出的基于顯著性檢測的圖像隱寫分析方法相對于當前隱寫分析模型的優(yōu)勢體現在其利用顯著性檢測技術對圖像中最有可能進行隱寫的區(qū)域進行針對性地特征提取與學習,使模型最大限度地學習到隱寫區(qū)域的特征,并且和非隱寫區(qū)域的特征產生較強的特征差異性,更加有利于提高模型的判別性能,從而在模型的訓練效果以及檢測準確率方面產生顯著的提升。

        表3 空域不同隱寫算法的檢測準確率 單位:%Tab.3 Detection accuracies of different steganography algorithms in spatial domain unit:%

        表4 JPEG域不同隱寫算法的檢測準確率 單位:%Tab.4 Detection accuracies of different steganography algorithms in JPEG domain unit:%

        3.3.4 模型的失配測試

        在實際應用的環(huán)境下,許多圖像隱寫分析方法具有很強的針對性,它們通常針對一種特定的隱寫算法,這可能會導致某些隱寫分析算法在檢測特定的隱寫算法時有非常好的結果,但可能無法檢測到其他隱寫術。對于訓練集和測試集來自不同源的情況,不同成像設備會造成載體量化后噪聲分布不一致,檢測結果會造成失配;在隱寫圖像生成過程中,不同隱寫方法和嵌入率也會造成失配,這種問題為模型的實用性帶來了極大的考驗。為了進一步驗證模型的泛化能力及提升其應用價值,本文對模型進行了失配測試。

        IStego100K 數據集[35]中的圖像與BOSSbase1.01 數據集來源不同,并且采用不同的成像設備。本文利用在BOSSbase1.01 數據集下訓練好的模型,對IStego100K 數據集進行檢測。在實驗中,將IStego100K 數據集中的原始圖像先處理為分辨率為512 × 512的灰度圖像,然后在空域用隱寫算法S-UNIWARD、HUGO、WOW 和HILL 進行隱寫,在JPEG 域用隱寫算法J-UNIWARD 和JC-UED 進行隱寫。表5 展示了本文提出的方法在不同嵌入算法上進行訓練和測試的結果;表6 展示了本文提出的方法在不同嵌入率上進行訓練和測試的結果,圖像質量因子為75。從表中可以看出,本文方法在應對載體庫源失配情況時表現良好,對于不同的隱寫算法和不同嵌入率,雖然由于訓練的特征與測試的特征分布不同而導致檢測準確率降低,但仍能夠達到與直接訓練相近的檢測準確率,在實際應用情況下,不會因為失配問題而導致嚴重的檢測偏差,說明本文提出的方法具有良好的泛化性能和實用性。

        圖11 不同隱寫分析模型的實驗對比Fig.11 Comparison of different steganalysis models

        表5 在不同隱寫算法上進行訓練和測試的準確率 單位:%Tab.5 Results of different steganography algorithms on train and test unit:%

        表6 在不同嵌入率上進行訓練和測試的準確率 單位:%Tab.6 Results of different payload on train and test unit:%

        4 結語

        考慮到圖像自適應隱寫以不同的概率在圖像中不同區(qū)域隱藏秘密信息,然而現有的隱寫分析方法大多不加區(qū)分地從不同區(qū)域提取隱寫分析特征的問題,本文提出了一種基于顯著性檢測的圖像隱寫分析方法,通過顯著性檢測模塊和區(qū)域篩選模塊引導隱寫分析模型更加關注圖像的隱寫區(qū)域,提高訓練的效果和檢測準確率,準確率最多可提高3 個百分點。在BOSSbase1.01 數據集上通過對不同的隱寫算法和嵌入率的圖像進行檢測,驗證了該方法的有效性;并且對模型進行了失配測試,該模型在失配情況下檢測準確率不會產生嚴重偏差,驗證了方法的泛化性和實用性。下一步的研究方向是改善本文方法對于嵌入率較低圖像的檢測能力,以及進一步提升圖像隱寫分析的檢測準確率和訓練效率。

        猜你喜歡
        特征區(qū)域檢測
        “不等式”檢測題
        “一元一次不等式”檢測題
        “一元一次不等式組”檢測題
        如何表達“特征”
        不忠誠的四個特征
        當代陜西(2019年10期)2019-06-03 10:12:04
        抓住特征巧觀察
        小波變換在PCB缺陷檢測中的應用
        關于四色猜想
        分區(qū)域
        基于嚴重區(qū)域的多PCC點暫降頻次估計
        電測與儀表(2015年5期)2015-04-09 11:30:52
        亚洲国产综合精品中久| 无码不卡免费一级毛片视频| 欧美—iGAO视频网| 亚洲国产国语对白在线观看| 成人免费无码大片a毛片抽搐色欲| 自慰无码一区二区三区| 欧美精品aaa久久久影院| 亚洲福利一区二区不卡| 人妻体内射精一区二区三区 | 激情 一区二区| sm免费人成虐漫画网站| 777精品出轨人妻国产| 天码av无码一区二区三区四区| yy111111少妇影院| 一区二区三区四区亚洲免费| 国产a国产片国产| 中文无码成人免费视频在线观看| 亚洲中文字幕乱码一二三区| 国产91色综合久久高清| 老司机亚洲精品影院| 亚洲毛片αv无线播放一区| 在线视频播放观看免费| 中文字幕无码成人片| 五月婷婷俺也去开心| 无码91 亚洲| 91亚洲国产成人精品一区.| 色婷婷综合久久久久中文字幕| 久久这里只有精品9| 日本一区二区啪啪视频| 国色天香社区视频在线| 日本免费人成视频播放| 水蜜桃一二二视频在线观看免费 | 乌克兰粉嫩xxx极品hd| 国产在线精品福利大全| 亚洲综合久久精品少妇av| 日韩美女亚洲性一区二区| 美女张开腿黄网站免费| 午夜福利电影| 日本女同伦理片在线观看| 丰满精品人妻一区二区| 骚小妹影院|