亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于Contourlet域高階統(tǒng)計(jì)量的圖像隱寫(xiě)分析

        2015-09-12 07:49:52王昌盛張大偉陳智博
        兵器裝備工程學(xué)報(bào) 2015年12期
        關(guān)鍵詞:子帶識(shí)別率小波

        王昌盛,張大偉,陳智博

        (軍械工程學(xué)院信息管理中心,石家莊 050003)

        隱寫(xiě)術(shù)作為信息隱藏的一個(gè)重要分支,用于保護(hù)隱藏在載體中信息的安全性。針對(duì)隱寫(xiě)術(shù)的攻擊稱為隱寫(xiě)分析,它是在已知或未知嵌入算法的情況下,通過(guò)統(tǒng)計(jì)分析或模式分類(lèi)等手段檢測(cè)觀測(cè)對(duì)象中是否存在秘密信息的技術(shù)。由于在保障信息安全和提高隱寫(xiě)算法安全性等方面具有重要的指導(dǎo)意義,隱寫(xiě)分析已成為信息隱藏領(lǐng)域研究的熱點(diǎn)。

        由于小波分解在信號(hào)處理和圖像處理中的廣泛應(yīng)用,基于小波高階統(tǒng)計(jì)量的隱寫(xiě)分析也引起了國(guó)內(nèi)外許多學(xué)者的關(guān)注,成為了一種重要的隱寫(xiě)分析方法。如Hary Farid提出了一種基于高階統(tǒng)計(jì)量的檢測(cè)模型[1],取得了很好的效果。但是Farid的方法也存在一些問(wèn)題。

        首先,小波并不是表示圖像的最優(yōu)基。因?yàn)樵诙S圖像中,由于邊緣、輪廓和紋理等具有高維奇異性的幾何特征包含了大部分信息,秘密信息也多嵌入在這些位置。而二維小波是由兩個(gè)一維小波的張量積形成,本質(zhì)上仍然是一維變換,其基函數(shù)只有水平、垂直、對(duì)角線3個(gè)方向,它難以表示具有線奇異和曲線奇異等更高維的幾何特征。針對(duì)上述缺點(diǎn),需要發(fā)展新的高維函數(shù)的最優(yōu)表示方法。Do等[2]提出了一種“真正的”二維圖像的表示方法,即Contourlet變換。Contourlet基的支撐區(qū)間是隨尺度而變化的“長(zhǎng)條形”結(jié)構(gòu),因而具有比小波變換更好的多分辨率、局部性、方向性和各向異性,能更加有效地捕獲圖像的邊緣信息。

        其次,F(xiàn)arid采用了一個(gè)線性預(yù)測(cè)模型,通過(guò)某小波系數(shù)“附近”的系數(shù)進(jìn)行線性組合作為該系數(shù)的預(yù)測(cè)值并計(jì)算預(yù)測(cè)誤差,把這個(gè)預(yù)測(cè)誤差的統(tǒng)計(jì)特征作為第二組特征向量。但是這個(gè)線性模型的參數(shù)只能通過(guò)經(jīng)驗(yàn)獲得,如果參數(shù)選擇不當(dāng),對(duì)隱寫(xiě)分析算法的性能影響非常大。

        我們知道,隱寫(xiě)分析要解決的一個(gè)重要問(wèn)題就是提取合適的統(tǒng)計(jì)特征,而統(tǒng)計(jì)特征的獲得卻依賴于自然圖像的統(tǒng)計(jì)模型。在隱寫(xiě)分析研究的初期,為了簡(jiǎn)化問(wèn)題,一般都假設(shè)圖像的采樣(如像素、DCT系數(shù)、DWT系數(shù)等)間是獨(dú)立同分布的,忽略了采樣間的統(tǒng)計(jì)相關(guān)性。但是隨著研究的深入,人們發(fā)現(xiàn),圖像采樣間實(shí)際上是統(tǒng)計(jì)相關(guān)的,獨(dú)立同分布的假設(shè)會(huì)低估隱寫(xiě)分析算法的性能,高估隱寫(xiě)算法的安全性[3]。因此人們逐漸將各種相關(guān)性模型引入隱寫(xiě)分析中,以期得到更好的性能。例如,Sullivan[3]使用描述像素間相關(guān)性的MC(馬爾科夫鏈)模型用于擴(kuò)頻類(lèi)和量化索引類(lèi)隱寫(xiě)算法的檢測(cè)。Farid的線性模型也考慮了小波系數(shù)之間的相互關(guān)系,但并沒(méi)有完整精確地刻畫(huà)出小波系數(shù)間的相關(guān)性,還有改進(jìn)的空間。

        基于以上分析,將Contourlet變換引入隱寫(xiě)分析,并采用相關(guān)性模型來(lái)提取特征,這是一個(gè)很好的研究思路。相關(guān)的研究有文獻(xiàn)[4,5],但是前者對(duì)同樣采用了Farid的線性相關(guān)模型,后者使用了互信息,兩者都不能完全刻畫(huà)Contourlet系數(shù)不同尺度和方向的相關(guān)性。本文采用Contourlet域隱馬爾科夫樹(shù)(CDHMT)模型來(lái)描述Contourlet系數(shù)的相關(guān)性。實(shí)驗(yàn)結(jié)果表明,本文提出的方法是一種更加有效的隱寫(xiě)分析方法。

        1 特征提取

        Farid提取的小波高階統(tǒng)計(jì)特征分為兩個(gè)部分,一部分是圖像小波分解后各個(gè)尺度在水平、垂直和對(duì)角三個(gè)方向的均值、方差、斜度和峭度,第二個(gè)統(tǒng)計(jì)特征子集是基于系數(shù)量值的最佳線性預(yù)測(cè)器所產(chǎn)生的對(duì)數(shù)誤差值,在各個(gè)尺度、子帶上計(jì)算上述4個(gè)統(tǒng)計(jì)特征而形成的,兩個(gè)特征子集共計(jì)24(N-1)維特征(N為小波分解的尺度)。受她的啟發(fā),我們?cè)贑ontourlet域也將提取類(lèi)似的統(tǒng)計(jì)特征,第一個(gè)特征子集是圖像Contourlet分解后各個(gè)尺度、各個(gè)方向子帶的均值、方差、斜度和峭度,第二個(gè)特征子集是采用基于CDHMT模型的預(yù)測(cè)誤差值,再同樣計(jì)算上述4個(gè)統(tǒng)計(jì)量而得到的。在此基礎(chǔ)上對(duì)特征值進(jìn)行加權(quán)處理,形成最終的特征集。

        1.1 預(yù)測(cè)誤差的計(jì)算

        Farid采用的線性預(yù)測(cè)器來(lái)形成預(yù)測(cè)值。這種方法有兩個(gè)缺陷:一是沒(méi)有完全揭示出系數(shù)之間的相關(guān)性,二是鄰近小波系數(shù)的權(quán)重不好確定,主要依靠經(jīng)驗(yàn),如果權(quán)重確定的不當(dāng),對(duì)分類(lèi)結(jié)果影響很大。在此采用CDHMT模型來(lái)形成預(yù)測(cè)值。

        在圖像隱寫(xiě)分析中,一般都假設(shè)嵌入的秘密信息是高斯白噪聲,即隱寫(xiě)過(guò)程可以表示為

        u、v和e分別指載體圖像、隱寫(xiě)后的圖像和嵌入圖像的Contourlet系數(shù),問(wèn)題就轉(zhuǎn)化為已知 v,盡可能準(zhǔn)確地估計(jì)出u。

        由隱寫(xiě)圖像,可以計(jì)算出相應(yīng)的CDHMT模型參數(shù)θv,減去噪聲的方差,可以得到估計(jì)圖像的模型參數(shù)θu。如下式:

        這里(j,k,n)是指 Contourlet分解中尺度 j、方向 k 的子帶中第n個(gè)系數(shù),m是該系數(shù)的狀態(tài)??梢杂妹商乜宸椒ü烙?jì)出來(lái)。(y)+的定義是

        如果給定狀態(tài) Sj,k,n=m,Contourlet系數(shù)服從零均值的高斯分布,那么問(wèn)題就簡(jiǎn)化為從零均值高斯噪聲中估計(jì)出一個(gè)零均值高斯信號(hào)。這個(gè)問(wèn)題已經(jīng)有現(xiàn)成的解法[6]

        而在使用EM算法進(jìn)行CDHMT模型訓(xùn)練的時(shí)候,已經(jīng)可以計(jì)算出 p(Sj,k,n=m|vj,k,n,θu),因此得到以下式子

        預(yù)測(cè)誤差就可以通過(guò)公式得到

        分別在各個(gè)尺度和方向的子帶中計(jì)算均值、方差、斜度和峭度就可以得到第二個(gè)特征子集。因此,在尺度j,方向k的子帶上得到的特征集合是

        1.2 特征加權(quán)

        為了增強(qiáng)特征的魯棒性,我們對(duì)上述提取的兩組特征進(jìn)行加權(quán)處理,權(quán)重的依據(jù)是各子帶的標(biāo)準(zhǔn)差的大小。Contourlet變換各子帶的標(biāo)準(zhǔn)差反映了各子帶灰度相對(duì)于灰度均值的離散情況,標(biāo)準(zhǔn)差越大,則灰度級(jí)分布越分散,高頻分量越高,應(yīng)該賦予其較大的權(quán)值;反之,則賦予其較小的權(quán)值。通過(guò)加權(quán)使得不同子帶信息的重要性反映到最終的特征量中。

        設(shè)尺度為j、方向?yàn)閗的子帶的權(quán)重為wj,k,定義為

        這里需要用到各個(gè)子帶的標(biāo)準(zhǔn)差,這個(gè)值不需要重新計(jì)算,因?yàn)樵谇蠼釩DHMT模型參數(shù)的時(shí)候就已經(jīng)計(jì)算出來(lái)了,計(jì)算權(quán)重的時(shí)候可以直接使用。那么,經(jīng)過(guò)加權(quán)處理后形成的最終特征集合就是

        1.3 特征歸一化

        為了消除各特征之間量綱、量級(jí)等不同的影響,消除量度偏差,且使各個(gè)特征數(shù)據(jù)具有可比性,在分析之前需要對(duì)原始特征數(shù)據(jù)進(jìn)行歸一化處理。本文的歸一化采用高斯歸一化方法[7],其特點(diǎn)是少量超大或超小的元素值對(duì)整個(gè)歸一化后的元素值分布影響不大。

        2 分類(lèi)器SVM

        SVM(支持向量機(jī))在解決小樣本、非線性樣本以及高維機(jī)器學(xué)習(xí)問(wèn)題中表現(xiàn)出許多特有的優(yōu)勢(shì),此外,許多學(xué)者的研究成果都表明,SVM的分類(lèi)效果“似乎”優(yōu)于其他傳統(tǒng)分類(lèi)工具。因此,本文同樣采用SVM作為通用隱寫(xiě)分析的分類(lèi)器。

        3 實(shí)驗(yàn)結(jié)果

        實(shí)驗(yàn)所用的原始圖像是從NRCS圖像數(shù)據(jù)庫(kù)中隨機(jī)選取的2500幅彩色JPEG圖像。將選取的圖像從中央截取512×512大小的一塊,并轉(zhuǎn)化為灰度圖像后,作為實(shí)驗(yàn)用圖像。將得到的灰度圖像隨機(jī)平均分為5組,每組500幅,第1組不嵌入任何數(shù)據(jù),第2組到第5組圖像分別使用時(shí)空域的± LSB[8]、DCT 域的 F5[9]、DWT 域的 CDMAICA[10]等 4 種隱寫(xiě)算法嵌入秘密信息,每組圖像都隨機(jī)選取400幅用于訓(xùn)練,剩余的100幅用于測(cè)試。實(shí)驗(yàn)的時(shí)候,使用第1組分別和其他4組進(jìn)行組合,測(cè)試對(duì)這4種嵌入算法的識(shí)別性能。按照嵌入強(qiáng)度的不同重復(fù)做上述實(shí)驗(yàn),嵌入強(qiáng)度分別為0.01、0.05、0.1 和 0.15,單位是 bpp(bit per pixel)。

        特征提取時(shí)使用Contourlet Hidden Markov Tree toolbox工具箱,對(duì)每幅圖像進(jìn)行3層分解,每層分別有4、8和8個(gè)方向子帶。這樣每幅圖像提取8×(4+8+8)=160維的特征。SVM采用OSU SVM Toolbox工具箱,采用RBF核,默認(rèn)參數(shù)。定義識(shí)別率為正確識(shí)別的圖像數(shù)目與總測(cè)試圖像數(shù)目的百分比,實(shí)驗(yàn)結(jié)果如表1所示。

        表1 本文方法的識(shí)別率

        從實(shí)驗(yàn)和結(jié)果中可以發(fā)現(xiàn):

        1)當(dāng)嵌入率在0.01 bpp時(shí),識(shí)別率能達(dá)到60%以上;當(dāng)嵌入強(qiáng)度增加到0.15 bpp,識(shí)別率已經(jīng)達(dá)到90%左右,這證明了本章所提算法的有效性。而且隨著嵌入強(qiáng)度的增加,識(shí)別率也隨著上升。這是很自然的,因?yàn)榍度氲拿孛苄畔⒃蕉?,載體圖像的質(zhì)量降低就越明顯,也就更容易被檢測(cè)出來(lái)。

        2)識(shí)別率隨嵌入強(qiáng)度上升的幅度是不一樣的。當(dāng)嵌入強(qiáng)度從0.01 bpp提高到0.05 bpp,識(shí)別率都增加了10個(gè)百分點(diǎn)以上;而嵌入強(qiáng)度再增加,識(shí)別率上升的幅度就不明顯了。在實(shí)驗(yàn)中也繼續(xù)增大嵌入率,當(dāng)嵌入率在0.20 bpp以上時(shí),識(shí)別率變化不大,再繼續(xù)實(shí)驗(yàn)已經(jīng)沒(méi)有意義了。

        為了形象直觀地說(shuō)明本文算法的性能,作者分別按照文獻(xiàn)[4,5,11]的特征提取方法,在上述的實(shí)驗(yàn)圖像集上重新做實(shí)驗(yàn),計(jì)算各自的平均識(shí)別率,實(shí)驗(yàn)結(jié)果如圖1所示。從圖1中可以看出,本文所提的算法性能明顯優(yōu)于Farid的經(jīng)典算法,也同樣優(yōu)于兩種類(lèi)似的算法。

        圖1 性能比較

        4 結(jié)論

        本文分析了小波高階統(tǒng)計(jì)量的缺陷,從兩個(gè)方面加以改進(jìn),一是引入Contourlet分解,能夠更好地表現(xiàn)圖像的細(xì)節(jié)特征;二是采用CDHMT模型,能完整刻畫(huà)Contourlet系數(shù)的相關(guān)性。在此基礎(chǔ)上提出了一種基于Contourlet域高階統(tǒng)計(jì)量的隱寫(xiě)分析算法。實(shí)驗(yàn)結(jié)果表明,該算法是一種有效可行的隱寫(xiě)分析算法。

        [1]Farid H.Detecting hidden messages using higher-order statistical models:Proceedings of International Conference on Image Processing,2002[C].2002(2):II_905-II_908.

        [2]Do M N,Vetterli M.The contourlet transform:an efficient directional multiresolution image representation[J].Image Processing,IEEE Transactions on,2005,14(12):2091-2106.

        [3]Sullivan K,Madhow U,Chandrasekaran S,et al.Steganalysis for Markov cover data with applications to images[J].IEEE Transactions on Information Forensics and Security,2006,1(2):275-287.

        [4]Hedieh S.A Steganalysis Method Based on Contourlet Transform Coefficients:Proceedings of International Conference on Intelligent Information Hiding and Multimedia Signal Processing,2008[C].2008:245-248.

        [5]Hongping X U,Jianhui X.Steganalysis method based on svm and statistic model in contourlet domain[J].SPIE.2007,6786:67861C-67864C.

        [6]Crouse M S,Nowak R D,Baraniuk R G.Wavelet-based statistical signal processing using hidden Markovmodels[J].Signal Processing,IEEE Transactions on.1998,46(4):886-902.

        [7]Ortega M,Rui Y,Chakrabarti K,et al.Supporting ranked Boolean similarity queries in MARS[J].Knowledge and Data Engineering,IEEE Transactions on.1998,10(6):905-925.

        [8]Sharp T.An Implementation of Key-Based Digital Signal Steganography[J].LNCS.2001,2137:13-26.

        [9]Westfeld A.F5-A Steganographic Algorithm:High Capacity Despite Better Steganalysis[J].2001,2137:289-302.

        [10]Gonzalez-Serrano F J,Molina-Bulla H Y,Murillo-Fuentes J J.Independent component analysis applied to digital image watermarking:Proceedings of International Conference on Acoustics,Speech,and Signal Processing,2001[C].Salt Lake City,UT,USA,2001(3):1997-2000.

        [11]Lyu S,F(xiàn)arid H.Detecting Hidden Messages Using Higher-Order Statistics and Support Vector Machines[J].LNCS.2003,2578:340-354.

        猜你喜歡
        子帶識(shí)別率小波
        一種基于奇偶判斷WPT的多音干擾抑制方法*
        構(gòu)造Daubechies小波的一些注記
        基于類(lèi)圖像處理與向量化的大數(shù)據(jù)腳本攻擊智能檢測(cè)
        子帶編碼在圖像壓縮編碼中的應(yīng)用
        電子制作(2019年22期)2020-01-14 03:16:24
        基于MATLAB的小波降噪研究
        電子制作(2019年13期)2020-01-14 03:15:32
        基于真耳分析的助聽(tīng)器配戴者言語(yǔ)可懂度指數(shù)與言語(yǔ)識(shí)別率的關(guān)系
        提升高速公路MTC二次抓拍車(chē)牌識(shí)別率方案研究
        基于改進(jìn)的G-SVS LMS 與冗余提升小波的滾動(dòng)軸承故障診斷
        高速公路機(jī)電日常維護(hù)中車(chē)牌識(shí)別率分析系統(tǒng)的應(yīng)用
        基于虛擬孔徑擴(kuò)展的子帶信息融合寬帶DOA估計(jì)
        妺妺窝人体色www聚色窝韩国| 狠狠噜狠狠狠狠丁香五月| 久久午夜夜伦鲁鲁片免费无码| 中文文精品字幕一区二区| 久久精品国产亚洲精品色婷婷| 日本va中文字幕亚洲久伊人 | 国产精品成人免费视频一区| 日本午夜免费福利视频| 久久亚洲国产成人精品v| 久久黄色精品内射胖女人| 日韩久久无码免费毛片软件| 国产精品黄在线观看免费软件| 国产精品中文第一字幕| 五月婷婷丁香视频在线观看| 中国女人内谢69xxxxxa片| 欧美性猛交xxxx黑人猛交| 国产v精品成人免费视频400条| 日韩av一区二区不卡在线| 好紧好爽免费午夜视频| 久久99精品久久久久久| 天堂女人av一区二区| 久久久精品亚洲一区二区国产av| 激情综合色综合久久综合| 久久青草免费视频| 白白色福利视频在线观看| 日本少妇高潮喷水视频| 亚洲精品国偷自产在线99正片| av草草久久久久久久久久久 | 蜜桃av无码免费看永久| 中文字幕午夜精品久久久| 极品少妇被猛的白浆直喷白浆| 欧美日韩精品福利在线观看| 日本久久黄色高清视频| 一本久道综合色婷婷五月| √天堂中文官网8在线| 国产精品亚洲综合色区丝瓜 | 国产精品人人爱一区二区白浆| 91自拍视频国产精品| 亚洲美腿丝袜 欧美另类| 国产91一区二这在线播放| 美女与黑人巨大进入免费观看 |