亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于紋理特征分類與合成的魯棒無載體信息隱藏

        2020-06-13 07:11:32司廣文韓彥芳張志超
        應用科學學報 2020年3期
        關(guān)鍵詞:梳狀正確率紋理

        司廣文, 秦 川, 姚 恒, 韓彥芳, 張志超

        上海理工大學光電信息與計算工程學院,上海200093

        機密信息的安全傳遞是信息戰(zhàn)及保密通信的核心任務.作為信息安全傳遞的重要方式,信息隱藏(information hiding)或稱隱寫(steganography)技術(shù)將機密信息偽裝為不引人注意的普通信息而達到隱蔽傳輸或隱蔽存儲的目的,對國家安全與信息安全具有重要意義[1].信息隱藏的研究在20 世紀90 年代受到重視并得到蓬勃發(fā)展.傳統(tǒng)的信息隱藏方法主要是利用圖像、音頻、視頻等載體信號的空間冗余來隱藏秘密信息,不可避免地把修改痕跡留在含密載體上,因此很難有效抵抗各類隱寫分析算法的檢測.為了有效抵抗各類隱寫分析算法的檢測,只能通過不修改載體進行信息隱藏,因此“無載體信息隱藏”這一概念應運而生.“無載體”并不是指不需要載體,與傳統(tǒng)的信息隱藏相比,它強調(diào)的是不需要其他載體而是直接以秘密信息為驅(qū)動來生成或者獲取含密載體[2].現(xiàn)有的無載體信息隱藏方法主要有文本無載體信息隱藏和圖像無載體信息隱藏兩類方法.由于圖像本身包含大量的信息且使用最為廣泛,因此常被當作理想的信息隱藏載體.圖像無載體信息隱藏通過提取圖像的特征序列并映射為二進制信息段來構(gòu)建秘密信息與圖像的映射關(guān)系[3].根據(jù)載體圖像獲取方式的不同,基于圖像的無載體信息隱藏算法可分為基于載體圖像選擇和載體圖像生成的無載體信息隱藏算法[4]兩類.

        基于載體圖像選擇的信息隱藏方案所利用的圖像特征信息通常包括像素亮度值、顏色、紋理、邊緣、輪廓等.此類方案采用恰當?shù)奶卣髅枋龇绞?,建立特征信息與需要隱藏的秘密信息之間的映射關(guān)系,從而進行秘密信息傳遞,代表性的工作如:利用亮度均值、圖像尺度不變特征(scale-invariant feature transform, SIFT)等[5-7].文獻[6]首先將載體圖像均勻分塊,利用不同圖像塊亮度均值的大小關(guān)系,構(gòu)建哈希序列,映射秘密信息.通過哈希序列使秘密信息與圖像形成對應關(guān)系,發(fā)送特定的圖像完成秘密信息的傳輸.

        基于載體圖像生成的方案常以秘密信息為驅(qū)動生成含密圖像,如文獻[8-9]提出在紋理圖像生成過程中進行數(shù)據(jù)的嵌入.該類方法首先在樣本圖像中選擇若干彩色點,然后使用局部二值模式(local binary pattern, LBP)碼映射二值數(shù)據(jù)和彩色點之間的關(guān)系,并根據(jù)秘密信息預先確定若干位置的彩色點,最后從樣本圖像中尋找合適內(nèi)容,生成含密的大幅紋理圖.隨著紋理生成技術(shù)[10-11]的不斷成熟和發(fā)展,利用形變函數(shù)生成水影畫的方式引起了廣泛的關(guān)注[12-13],文獻[12]通過模擬水影畫(又稱濕拓畫,marbling)來隱藏信息.該方法在白紙上書寫待傳遞的信息,以相似的背景圖案來填充空白部分,利用模擬marbling 的形變方法生成具有復雜紋理結(jié)構(gòu)的數(shù)字圖像.文獻[13]首先構(gòu)建不同的特征圖形單元映射二進制數(shù)據(jù),根據(jù)二進制秘密信息選取不同的圖形單元,確定圖形單元在白紙上的位置,生成含有隱寫單元的圖像;然后通過添加背景元素,利用形變操作生成含密紋理圖像并發(fā)送,該方案實現(xiàn)了數(shù)據(jù)的大容量隱寫.

        文獻[14]利用圖像哈希算法將映射相同哈希碼的圖像作為同一類進而生成哈希圖像庫,然后根據(jù)秘密信息映射的哈希碼,選取與載體圖像塊最相似的哈希圖像塊生成含密載體圖像.文獻[14]融合了上述兩種方法,在載體選擇的基礎上生成了新的載體.

        上述方法中,基于載體圖像選擇的方法魯棒性強,但數(shù)據(jù)隱藏容量較低,因此不被廣泛使用;基于載體圖像生成的方法雖然數(shù)據(jù)隱藏容量高,但魯棒性不強,不能有效地對抗高斯噪聲、JPEG 壓縮等攻擊.為此,本文提出了基于紋理特征分類與合成的魯棒無載體信息隱藏算法,融合上述兩類方法的優(yōu)點,在對抗各類攻擊及數(shù)據(jù)隱藏容量方面優(yōu)于文獻[2,6-7]所提出算法,同時在一定程度上解決了文獻[12-13]魯棒性不強的問題.

        1 基于紋理分類與合成的魯棒無載體信息隱藏算法

        1.1 算法總體框架

        本文所提出的基于紋理圖像分類與合成的魯棒無載體信息隱藏算法框架如圖1 所示.

        在訓練分類模型階段要求秘密信息的接收方和發(fā)送方進行如下操作:首先對圖像庫內(nèi)紋理圖像進行統(tǒng)一處理,將每一幅紋理圖像分割成規(guī)格一致的圖像塊(patch)作為一個類別(class);然后提取圖像特征數(shù)據(jù)進行監(jiān)督式分類訓練;進一步通過迭代訓練的方式生成穩(wěn)定的圖像分類模型并得到經(jīng)過篩選后的圖像庫;最后對同一個class 下的不同patch 塊,根據(jù)曼哈頓距離確定每一個patch 的位置信息.這樣對于每一個patch 塊都會對應唯一的二進制數(shù)據(jù),構(gòu)建接收和發(fā)送雙方共享的映射字典.

        圖1 算法總體框架Figure 1 Framework of the proposed algorithm

        在信息隱藏過程中,發(fā)送方將秘密信息分割為固定長度的秘密信息段,通過映射字典選取每段秘密信息對應的patch 塊,利用公共密鑰將patch 塊組合為一張新的圖像,隨后通過形變操作生成含密紋理圖像并通過公共信道發(fā)送給接收方.

        在信息提取過程中,接收方通過公共信道獲取含密紋理圖像,然后根據(jù)公共密鑰對紋理圖像進行逆形變操作從而得到原始patch 塊;隨后利用分類模型得到每一個patch 塊所屬的class 類,并計算曼哈頓距離以確定每一個patch 塊的位置信息;最終通過映射字典提取秘密信息.

        1.2 特征分類及模型訓練

        在圖像特征提取中使用空間金字塔匹配(spatial pyramid matching,SPM)算法提取圖像的SIFT 特征.SPM 算法通過對圖像進行多層級均勻劃分的方式實現(xiàn)匹配、識別、分類[15],其原理如下:假設存在兩個特征集合G、F,其中每個特征的維度是d維,將特征空間劃分為不同的尺度q={0,1,2,··· ,Q}.當以尺度q來劃分特征空間G、F的每一個維度時,k維的特征空間可以劃分出K=2kq個網(wǎng)格.表示在分割尺度為q下的直方圖特征:表示G特征在以尺度q劃分下落在第r個網(wǎng)格中的特征點的數(shù)目;表示F特征落在第r個網(wǎng)格中的特征點的數(shù)目,則該尺度下匹配點總數(shù)的計算公式為

        將縮寫為R,定義權(quán)重為則兩個特征集合G、F的SPM 的核為

        本文使用支持向量機(support vector machine,SVM)對圖像進行監(jiān)督式分類訓練.SVM是圖像分類領(lǐng)域常用的分類方法,其基本原理是:在樣本數(shù)據(jù)線性可分的情況下,直接尋找其最優(yōu)的分類超平面,并使樣本的分類間距盡可能大;在樣本數(shù)據(jù)線性不可分的情況下,通過使用核函數(shù)將樣本數(shù)據(jù)映射到高維空間,然后再尋找最優(yōu)的分類超平面,從而達到分類的目的[16].核函數(shù)的選擇是SVM 分類器性能的決定因素之一.本文所選擇的核函數(shù)是應用最廣泛的徑向基函數(shù)(radial basis function,RBF),它帶有兩個參數(shù):Ψ和Y,其中Ψ表示模型對誤差的懲罰系數(shù),Y反映了數(shù)據(jù)映射到高維特征空間后的分布.Ψ越大,模型越容易過擬合,Ψ越小,模型越容易欠擬合;Y越大,支持向量越多,Y值越小,支持向量越少,模型的泛化性變好.但若Y過小,模型實際上會退化為線性模型;若Y很大,理論上SVM 可以擬合任何非線性數(shù)據(jù).

        在訓練中我們將每一個class 下、來自同一幅紋理圖片的patch 作為同一個類.這樣的分類不夠精細,同時會造成類別的錯誤預判.但本文目的是對已知分類圖像的精準預測,并不是對未知紋理圖像分類的預測,因此模型可以達到極高的預測精度且泛化能力較強.為了提高魯棒性,在訓練模型過程中加入了經(jīng)過高斯噪聲、JPEG 壓縮等處理的圖像塊.由于圖像的SIFT 特征具有良好的穩(wěn)健性,對平移、尺度縮放、旋轉(zhuǎn)、仿射變換、遮擋,甚至亮度變化和噪聲都有很好的抵抗能力[17],因此實驗的魯棒性很強,具體訓練步驟如下:

        步驟1準備訓練圖像集.首先對紋理圖像庫中的patch 塊進行攻擊.攻擊方式從高斯噪聲、JPEG 壓縮或者椒鹽噪聲中任取一種,將被攻擊過的patch 塊加入到對應的class 中作為訓練圖像;測試圖像集為訓練圖像集.

        步驟2提取特征,訓練模型.在SPM 框架下提取圖像SIFT 特征作為特征數(shù)據(jù),每一個class 作為一個類別,進行監(jiān)督式分類訓練.為剔除一部分數(shù)據(jù)并沒有使用交叉檢驗和網(wǎng)格搜索的方法確定參數(shù),而是根據(jù)經(jīng)驗首先將模型參數(shù)Ψ的初始值設置為200,Y的初始值設置為2,然后進行模型訓練.

        步驟3迭代訓練模型.根據(jù)預測結(jié)果,刪除類別預測中出現(xiàn)錯誤的class,只保留預測完全正確的class.同時根據(jù)最終圖像庫的大小調(diào)整參數(shù),為了得到較理想的分類模型,參數(shù)調(diào)整過程中盡可能使懲罰系數(shù)Ψ調(diào)小而Y值調(diào)大,對模型進行迭代訓練;

        步驟4建立最終SPM 分類模型.根據(jù)最終所需要圖像庫的大小,選擇class 數(shù)目,利用網(wǎng)格搜索選擇參數(shù)使模型的分類正確率達到100%,選擇Ψ盡可能小而參數(shù)Y盡可能大,建立最終分類模型,得到經(jīng)過篩選后的圖像庫.

        1.3 構(gòu)建映射字典

        構(gòu)建映射字典的過程如圖2 所示.假設經(jīng)過篩選后圖像庫中有N組可區(qū)分紋理圖像,表示為:C={C1,C2,··· ,CN},每個class 下包含M個patch 塊,則分類標簽為i的class 內(nèi)第j個patch 塊,表示所對應的二進制數(shù)據(jù).

        圖2 構(gòu)建映射字典Figure 2 Mapping dictionary construction

        所對應的二進制數(shù)據(jù)的長度L為

        也就是每一個可以映射長度為L的二進制數(shù)據(jù).令n=lbN,m=lbM,則每一個patch 塊所對應的二進制數(shù)據(jù)求解公式為

        式中,dec2bin()表示將十進制數(shù)據(jù)轉(zhuǎn)化為二進制運算,n和m為轉(zhuǎn)化的位數(shù).可以看出映射字典中的數(shù)據(jù)由兩部分組成:一部分是不同類別的紋理圖像所映射的秘密信息;另一部分是在同一類別下的紋理圖像塊中不同位置所映射的秘密信息.

        1.4 信息隱藏

        本文當中秘密信息隱藏的關(guān)鍵步驟是根據(jù)映射字典查找對應的圖像塊,具體步驟如下:

        步驟1發(fā)送方首先將二進制秘密信息S以長度L進行分割,得S={s1,s2,··· ,sk},然后再將長度為L的秘密信息段sk分割為長度為n和m兩段,得K為秘密信息段的數(shù)目.

        步驟2對于每一個信息段根據(jù)兩段二進制秘密信息和映射字典查找對應的即可找到對應分類標簽為i的class 下的第j個patch 塊,由此將所有秘密信息段所對應唯一的patch 塊提取出來,根據(jù)公共密鑰進行排序組成一幅新的圖像.

        步驟3對新圖像進行形變操作,得到最終攜帶秘密信息的紋理圖像,并發(fā)送給接收方.

        由于本文所使用的圖像塊是紋理圖像,因此通過簡單的形變操作就可以達到一個較好的視覺效果.目前常用的形變函數(shù)有梳狀變換、斜變換、正弦變換、圓形變換等,下面介紹本文用到的梳狀形變函數(shù)及正弦變換函數(shù).

        梳狀形變函數(shù)能夠模仿直線梳子的效果在任意方向上穿過圖像,若在平面當中有一點P(x,y),則經(jīng)過梳狀變換之后映射點P'(x',y')的計算過程為

        式中:mod()為求余運算,α為最大位移量,λ用來控制梳狀變換的尖銳程度,β用來控制兩個梳齒波間距,d是點P(x,y)與任意方向直線Li之間的距離,B為直線Li上任意一點,v為直線Li單位法向量,

        正弦形變函數(shù)能夠使圖像產(chǎn)生正弦變形的效果,若在平面當中有一點的坐標為P1(x1,y1),則經(jīng)過正弦變換之后映射點的計算過程為

        式中,w為正弦變換的波長,A為振幅,θ為相位,t為形變的偏移量.

        發(fā)送方選取不同的形變參數(shù),即可生成不同視覺效果的紋理圖像.接收方需要在安全信道接收到含有形變參數(shù)的密鑰,才可以對圖像進行正確解密.發(fā)送方也可使用固定形變參數(shù)進行形變操作,接收方根據(jù)公共密鑰即可對圖像進行逆形變從而提取秘密信息.

        1.5 信息提取

        信息提取是本文的關(guān)鍵步驟.接收方需要與發(fā)送方共享圖像庫特征數(shù)據(jù)、class 類別信息、patch 位置信息及公共密鑰,才能正確提取秘密信息,具體步驟如下.

        步驟1接收方獲取紋理圖像后,首先根據(jù)公共密鑰,對含密紋理圖像進行逆形變操作,得到由patch 塊組成的圖像,然后依次提取K個patch 塊,得到含密的、有順序的patch 塊圖像集合.

        步驟2使用與訓練模型過程中相同的特征提取方法,提取K個patch 塊圖像特征,然后使用SPM分類模型對K個patch 塊進行類別的預測.假設得到的類別信息C={C1,C2,··· ,Ck},查找映射字典,即可得到原始秘密信息S中類別信息所對應的秘密信息:.

        步驟3對第k個patch 塊位置信息進行判斷時,首先根據(jù)類別的預測結(jié)果Ck,從圖像特征庫中提取對應class 內(nèi)共M個patch 塊的特征數(shù)據(jù).通過計算曼哈頓距離,找到距離第k個patch 塊最近的且位置信息為j的patch 塊查找所有patch 塊所對應的位置信息,即可得到原始秘密信息S中位置信息所對應的秘密信息:.

        步驟4將步驟2 和3 中解密得到的對應合并,即可得到原始的秘密信息.

        2 實驗結(jié)果與比較

        本文所有實驗均在Windows 7 操作系統(tǒng)下使用Matlab2016a 仿真軟件完成.分類模型采用的是LIBSVM 工具包提供的分類模型;實驗當中圖像庫中圖像來源于GitHub[18]以及百度圖片網(wǎng)站;秘密信息為隨機生成的二進制數(shù)據(jù).

        首先建立一個包含1 400 個類別22 400 個patch 塊的紋理圖像庫,patch 塊的尺寸均為100×100,經(jīng)過3 次迭代訓練.第1 次模型訓練過程中參數(shù)Ψ取值為200,參數(shù)Y取值為2,得到預測完全正確的分組為858 組;第2 次模型訓練,參數(shù)不變,得到預測完全正確的分組為661 組;第3 次模型訓練參數(shù)不變,得到預測完全正確的分組為525 組,從中選擇512 組class 作為最終信息隱藏載體,再次進行模型訓練.最終利用網(wǎng)格搜索方法,得到當參數(shù)Ψ為200,Y為4 時,分類模型的預測正確率為100%,紋理庫共包含512 類,每一類均有16 個patch 塊,共計8 192 個patch 塊.隨后對隱藏容量與魯棒性進行分析比較.

        2.1 實驗結(jié)果

        在本文的實驗條件下,每一個patch 塊所攜帶二進制數(shù)據(jù)的長度L=lb(NM)=lb(512×16)=13 比特.在實驗中隨機產(chǎn)生1 300 比特二進制數(shù)據(jù)作為秘密信息,分割為100 段,每段包含13 比特.根據(jù)每段秘密信息對照映射字典查找patch 塊,利用公共密鑰組成一幅新的圖像,然后進行形變操作獲得含密紋理圖像.

        圖3 是含密紋理圖像生成及patch 組合圖像恢復過程.發(fā)送端生成紋理圖像過程中使用形變參數(shù)如下:梳狀形變中α=70,λ=70,β=50.

        圖3(a)是通過映射字典獲取的100 個patch 塊組成的圖像,尺寸為1 000×1 000,攜帶秘密信息1 300 比特.首先根據(jù)公共密鑰將圖3(a)分割,將尺寸為100×100 的patch 塊分割為10 份10×100 的塊,并拼接為10×1 000 的長方形塊組合生成圖3(b).圖3(b)經(jīng)過水平方向梳狀形變后生成圖3(c),圖3(c)經(jīng)過垂直方向梳狀變換生成圖3(d).

        接收方獲取含密紋理圖像圖3(e)后,首先根據(jù)公共密鑰進行二次不同方向的梳狀逆形變,得到圖3(g);然后將圖3(g)進行重新組合即可得到含密圖像塊圖3(h);隨后根據(jù)公共密鑰按順序提取patch 塊,并對圖像塊特征進行分類預測,通過曼哈頓距離計算位置信息;最后查找映射字典恢復秘密信息,實驗驗證秘密信息提取誤碼率為0.

        圖3 含密紋理圖像生成及恢復過程Figure 3 Generation of stego texture image and corresponding recovery procedure

        相同的形變函數(shù)、不同的形變參數(shù)會生成不同的含密紋理圖像,圖4 為實驗結(jié)果.實驗使用與圖3 相同的秘密信息,通過不同參數(shù)的梳狀形變,獲得了不同視覺效果的含密紋理圖像.梳狀形變參數(shù)為:α= 150,λ= 100,β= 100,梳狀形變過程與圖3 實驗一致.可以看出圖4(d)視覺效果與圖3 (d)有明顯的不同,且視覺效果良好,通過實驗驗證秘密信息提取誤碼率為0.相同的形變函數(shù)、不同的形變次數(shù)可以生成不同的紋理圖像,圖5 為實驗結(jié)果.

        圖4 形變參數(shù)對含密紋理圖像的影響Figure 4 Influence of deformation parameters on stego texture image

        圖5 形變次數(shù)對含密紋理圖像的影響Figure 5 Influence of deformation number on stego texture image

        實驗中使用形變的方式為正弦形變,參數(shù)為:w=25,A=11,θ=π/3,t=π/2.其中圖5(b)經(jīng)過水平正弦變換得到圖5(c),圖5(c)經(jīng)過垂直正弦變換得到圖5(d),然后依次進行水平和垂直方向的正弦形變即可得到圖5(h).顯然得到的紋理圖像5(d)到圖5(h)均有不同且良好的視覺效果,通過實驗驗證秘密信息提取誤碼率為0.

        多種形變函數(shù)可以生成不同且良好視覺效果的紋理圖像,圖6 為實驗結(jié)果.實驗中使用正弦形變和梳狀形變兩種不同變換方式,其參數(shù)如下:正弦形變參數(shù)w= 25,A= 15,θ=π/3,t= π/2,梳狀形變參數(shù)α= 100,λ= 100,β= 80.圖6(b)依次進行水平梳狀形變、垂直方向梳狀形變、水平方向正弦形變、垂直方向正弦形變即可獲得圖6(f),圖6(f)的視覺效果良好,通過實驗驗證秘密信息提取誤碼率為0.

        圖6 多種形變函數(shù)生成的含密紋理圖像Figure 6 Generation of stego texture image based on multiple deformation functions

        大量類似的實驗表明:本文所提出的信息隱藏算法能夠100%提取秘密信息,且含密紋理圖像生成方式多樣,視覺效果均良好.

        2.2 隱藏容量分析與比較

        在數(shù)據(jù)隱藏容量方面,本文所提算法的隱藏容量與圖像庫的大小有直接關(guān)系,同時與最終發(fā)送紋理圖片的尺寸也相關(guān),即

        式中,S為紋理圖像傳送秘密信息總長度,L為每個patch 塊所攜帶的秘密信息的長度,Tw和Th分別表示生成紋理圖像的寬和高,Pw和Ph分別為patch 塊的寬和高.本文對patch進行了統(tǒng)一尺寸的處理.上述實驗中每個patch 隱藏二進制數(shù)據(jù)長度為:L= lb(NM) =lb(512×16)=13 比特,生成紋理圖像尺寸為1 000×1 000,能夠攜帶秘密信息的長度為1 300比特.

        實驗首先對本文算法與文獻[2,6-7]算法的隱藏容量進行對比,結(jié)果如表1 所示.本文算法和文獻[2,6-7] 的隱藏容量均與圖像庫的大小有關(guān),為公平起見,假定圖像庫大小均為2n+m幅.秘密信息為二進制數(shù)據(jù),由表1可以得出本文最終發(fā)送的單幅圖像數(shù)據(jù)隱藏容量要優(yōu)于文獻[2,6-7].本文對patch 塊集合進行了形變操作,生成的含密紋理圖像為(TwTh/(PwPh))個圖像塊的集合,使得最終發(fā)送紋理圖像的數(shù)據(jù)隱藏容量得到提升.

        文獻[12-13]與本文算法數(shù)據(jù)隱藏容量與含密紋理圖像的尺寸存在正比例關(guān)系,為確保公平性,假設最終發(fā)送紋理圖像的尺寸均為800×800.實驗結(jié)果如表2 所示.本文算法隱藏容量使用式(7)計算得出為832 比特(圖像總數(shù)為2 ),要優(yōu)于文獻[12]的432 比特,在文獻[13]采用稀疏比例取值為0.03~0.30 時,單幅圖像數(shù)據(jù)隱藏容量的取值范圍為800~8 000 比特,在當前實驗條件下文獻[13]所提算法的數(shù)據(jù)隱藏容量要優(yōu)于本文算法.從理論上講,在本文所提方案的框架下,隨著圖像庫的升級算法的數(shù)據(jù)隱藏容量還可以進一步提高.

        表1 不同算法隱藏容量的比較Table 1 Comparison of hiding capacity of different algorithms

        表2 相同尺寸單幅圖像數(shù)據(jù)隱藏容量的比較Table 2 Comparison of hidden data capacity of single image with the same size

        2.3 魯棒性分析與比較

        使用椒鹽噪聲、高斯噪聲、JPEG 壓縮分別對含密圖像進行攻擊,然后進行數(shù)據(jù)提取.圖7 為一組實驗中紋理圖像在不同攻擊情況下恢復patch 圖像的結(jié)果.其中圖7(a)為含密patch圖像,經(jīng)過2 次梳狀形變操作后得到含密紋理圖像為圖7(c);圖7(c)被椒鹽噪聲、高斯噪聲、JPEG 壓縮攻擊后對應得到圖7(d)~(f);圖像逆形變過程中圖7(d)~(f)經(jīng)過逆形變操作,對應得到圖7(g)~(i),然后分別進行秘密信息提取.

        考慮到攻擊后的紋理圖像在恢復過程中可能會受到形變次數(shù)的影響,因此在實驗中同一組秘密信息通過不同的形變次數(shù)再生成不同的含密紋理圖像進行傳送.然后將受到攻擊的紋理圖像分別進行秘密信息的提取,并對比分析實驗結(jié)果.經(jīng)過100 次重復實驗,每次實驗發(fā)送秘密信息為1 300 比特隨機數(shù)據(jù),獲得含密圖像尺寸為1 000×1 000.提取正確率(accuracy rate)通常定義為Cr= (Z/S)×100%,其中,Z為提取正確的秘密信息長度,S為秘密信息總長度.

        實驗條件設置:

        實驗12 次不同方向的梳狀形變,形變參數(shù)α=70,λ=70,β=50;

        實驗22 次梳狀形變,2 次正弦形變,正弦形變參數(shù)w=25,A=15,θ=π/3,t=π/2,梳狀形變參數(shù)α=100,λ=100,β=80.

        接收端收到的紋理圖像后分別進行椒鹽噪聲、高斯噪聲、JPEG 壓縮攻擊,然后進行秘密信息的提取,實驗結(jié)果如圖8 所示.

        圖7 紋理圖像在不同攻擊情況下恢復的patch 圖像Figure 7 Restored patches under different attacks on stego texture image

        圖8(a)為椒鹽噪聲稠密度與提取正確率的關(guān)系圖,可以看出在實驗一條件下,含密紋理圖像經(jīng)過2 次形變,在實驗2 條件下含密圖像經(jīng)過4 次形變,兩組實驗的結(jié)果基本保持一致,此時提取正確率與形變次數(shù)無關(guān).當椒鹽噪聲稠密度達到0.05 時,平均的提取正確率保持在91%以上.

        圖8(b)為在均值為0 情況下高斯噪聲方差與提取正確率的關(guān)系,可以看出實驗1 的結(jié)果與實驗2 的結(jié)果基本一致,3 條曲線基本重合,此時提取正確率與形變次數(shù)無關(guān).噪聲方差越大圖片質(zhì)量越低,在本文算法中當噪聲方差為0.05 時,實驗1 和實驗2 的正確率均保持在82%以上,隨著噪聲方差的降低,在本文算法的提取正確率在穩(wěn)定上升.

        圖8(c)為JPEG 壓縮質(zhì)量因子與提取正確率之間的關(guān)系,質(zhì)量因子系數(shù)越大圖片質(zhì)量越高.實驗中當質(zhì)量因子取值在40~100 時,實驗2 的提取正確率要略好于實驗1,且均能保持在85%以上;當質(zhì)量因子取值在10~40 時,增加形變次數(shù)會導致提取正確率明顯下降,可以看出當質(zhì)量因子達到10 的時候,實驗1 的提取正確率為65%左右,實驗2 的提取正確率為75%左右,兩個實驗結(jié)果的平均提取正確率保持在70%左右.

        圖8 提取正確率與各類攻擊的關(guān)系Figure 8 Relationship between the correct extraction rate and various types of attacks

        本文算法在一定程度上解決了文獻[12-13]算法魯棒性不強的問題.將本文實驗結(jié)果與文獻[2,7]算法進行比較可知,文獻[2,7]所使用的框架為SIFT BOW 模型[19],屬于非監(jiān)督式分類模型,經(jīng)過聚類訓練后所得到的模型為線性模型,因此魯棒性很強;本文采用的是監(jiān)督式分類訓練得到的模型為非線性系統(tǒng),模型更為復雜,安全性更高,且本文提取圖像特征的算法是對SIFT BOW 模型提取圖像特征算法的升級,同時增加了被攻擊過的訓練樣本,從而提高了算法的魯棒性.表3 是本文算法與文獻[7]算法在高斯噪聲(均值為0,方差為0.01)和JPEG壓縮(質(zhì)量因子為75%)攻擊時秘密信息提取正確率的比較.

        表3 不同算法的提取正確率比較Table 3 Accuracy rates comparison of data extraction with different algorithms %

        通過對比數(shù)據(jù)我們可以發(fā)現(xiàn):在高斯噪聲攻擊下本文算法的提取正確率為92.5%,要優(yōu)于文獻[7]的91.0%;對JPEG 壓縮攻擊本文的魯棒性也要優(yōu)于文獻[7],與理論分析結(jié)果一致.

        3 結(jié) 語

        本文提出的基于紋理特征分類與合成的魯棒無載體信息隱藏算法,融合了基于載體圖像選擇與基于載體圖像生成兩類信息隱藏算法的優(yōu)點,兼顧了魯棒性與嵌入容量兩個方面,在一定程度上解決了當前圖像無載體信息隱藏算法存在的問題.本文主要利用紋理圖像的類別及位置信息映射秘密信息,模型訓練過程中增加了被攻擊后的圖像作為訓練數(shù)據(jù),提升了算法的魯棒性;在patch 塊處理過程中利用形變操作將多份秘密圖像塊合成為一幅新的、視覺效果良好的紋理圖像,使得相同尺寸單張圖像的數(shù)據(jù)隱藏容量有了較大的提高.實驗和分析表明本文所提算法魯棒性強,信息隱藏量大,生成的紋理圖像視覺效果好.接下來的工作可以考慮增加圖像庫的類別,提升每一類圖像的數(shù)量,從而進一步提高隱藏容量.同時可以使用基于深度學習的圖像分類模型,進一步提高算法的魯棒性.

        猜你喜歡
        梳狀正確率紋理
        超聲導波目標模式的激勵方法研究
        振動與沖擊(2024年4期)2024-03-02 02:02:14
        1500萬年前的南酸棗化石長啥樣等
        門診分診服務態(tài)度與正確率對護患關(guān)系的影響
        基于BM3D的復雜紋理區(qū)域圖像去噪
        軟件(2020年3期)2020-04-20 01:45:18
        PVDF梳狀換能器接收非線性蘭姆波的實驗研究?
        應用聲學(2019年3期)2019-07-25 07:19:58
        使用紋理疊加添加藝術(shù)畫特效
        TEXTURE ON TEXTURE質(zhì)地上的紋理
        Coco薇(2017年8期)2017-08-03 15:23:38
        生意
        品管圈活動在提高介入手術(shù)安全核查正確率中的應用
        天津護理(2016年3期)2016-12-01 05:40:01
        生意
        故事會(2016年15期)2016-08-23 13:48:41
        日韩精品久久久中文字幕人妻| 亚洲狼人社区av在线观看| 亚洲无码性爱视频在线观看| 久久免费精品视频老逼| 亚洲专区路线一路线二网| 大陆老熟女自拍自偷露脸| 少妇粉嫩小泬喷水视频| 伊人狠狠色丁香婷婷综合| 最新中文字幕av无码不卡| 国产精品无码无片在线观看3d| 久久乐国产精品亚洲综合| 天堂在线www中文| 亚洲第一区二区快射影院| 日本一区中文字幕在线播放| 亚洲第一幕一区二区三区在线观看| 国产一区二区视频免费在| 人人妻人人澡人人爽精品日本| 天天躁夜夜躁狠狠躁2021| 极品新婚夜少妇真紧| 国产自产精品露脸刺激91在线 | 97久久久久国产精品嫩草影院| 手机在线免费av网址| 日本a级一级淫片免费观看| 亚洲中文字幕久久精品无码a | 色噜噜狠狠综曰曰曰| 亚洲综合无码一区二区三区 | 亚洲中文字幕高清乱码毛片| 国产av大片久久中文字幕| 精品亚洲第一区二区三区 | 国产亚洲视频在线观看网址| 国产成人户外露出视频在线| 日本av一区二区播放| 蜜桃网站免费在线观看视频| 男女18视频免费网站| 乱人妻中文字幕| 亚洲av日韩精品久久久久久| 性感人妻一区二区三区| 人妻少妇艳情视频中文字幕| 欧美xxxxx高潮喷水| 亚洲毛片αv无线播放一区| 久久精品性无码一区二区爱爱|