楊富圣,高鐵杠
(南開(kāi)大學(xué)軟件學(xué)院,天津300071)
?
一種基于差分DCT系數(shù)對(duì)直方圖的圖像取證方法
楊富圣,高鐵杠
(南開(kāi)大學(xué)軟件學(xué)院,天津300071)
摘要:提出了一種基于差分DCT域系數(shù)對(duì)直方圖的圖像拼接篡改檢測(cè)方法.該方法首先對(duì)圖像進(jìn)行DCT變換,而后分別計(jì)算DCT系數(shù)矩陣的水平、垂直、主對(duì)角線、副對(duì)角線四個(gè)方向的差分DCT系數(shù)矩陣,并對(duì)得到的差分DCT系數(shù)矩陣進(jìn)行系數(shù)對(duì)直方圖化,提取特征向量.最后,利用支持向量機(jī)對(duì)真實(shí)圖像和篡改后的圖像進(jìn)行分類識(shí)別.實(shí)驗(yàn)結(jié)果表明,在相關(guān)的測(cè)試數(shù)據(jù)集上,和現(xiàn)存的一些算法相比,該方法不僅具有較低的計(jì)算復(fù)雜度,同時(shí),其檢測(cè)性能在目前所有提出的算法中達(dá)到最高,性能優(yōu)良.
關(guān)鍵詞:圖像取證;差分DCT系數(shù);系數(shù)對(duì)直方圖;支持向量機(jī)
準(zhǔn)確鑒定一幅數(shù)字圖像的真?zhèn)我呀?jīng)成為信息安全領(lǐng)域一個(gè)熱點(diǎn)課題.理論上,數(shù)字圖像取證包括主動(dòng)取證和被動(dòng)取證兩個(gè)方面.由于主動(dòng)取證需要事先向圖像中嵌入特定的信息,其應(yīng)用范圍受到很大限制.而被動(dòng)取證則適用于所見(jiàn)到的任何圖像.根據(jù)對(duì)圖像的篡改種類,人們已經(jīng)提出了多種圖像被動(dòng)取證算法,如面向復(fù)制-粘貼的篡改取證算法、面向?qū)Ρ榷仍鰪?qiáng)的篡改取證算法、面向JPEG壓縮的篡改取證以及面向圖像縮放的篡改取證技術(shù)等[1~9].
圖像拼接篡改是常見(jiàn)的圖像篡改方式之一,這種篡改操作所引起的圖像統(tǒng)計(jì)特征的變化正是人們需要發(fā)現(xiàn)并以此識(shí)別圖像真?zhèn)蔚氖侄?例如,人們應(yīng)用高階矩譜、雙向干譜等進(jìn)行圖像合成的篡改識(shí)別[10~12],利用雙向干譜相關(guān)特征進(jìn)行圖像拼接篡改的識(shí)別率可以達(dá)到72%[12]; Shi提出了一種自然圖像模型進(jìn)行拼接合成圖像取證的正確率達(dá)到了80.15%[13]; Chen則利用二維相位一致性和小波特征函數(shù)的統(tǒng)計(jì)矩特征識(shí)別成功率達(dá)到了82.32%[14];而Shi利用小波矩特征和馬爾科夫特征組成的融合特征進(jìn)行拼接圖像的識(shí)別,成功率高達(dá)91.87%[15].Sutthiwan等提取圖像頻域的二階矩特征達(dá)到了平均97.9%的識(shí)別率[16].He等人利用圖像DCT域擴(kuò)展馬爾科夫轉(zhuǎn)移概率特征和小波域的轉(zhuǎn)移概率特征的融合,實(shí)現(xiàn)了93.42%的圖像拼接檢測(cè)識(shí)別率[17].Sahar等利用多尺度Weber Local Descriptors(WLD)在圖像的色度空間進(jìn)行特征提取,達(dá)到了96.61%的平均識(shí)別率[18].
上述提出的方法中,有的計(jì)算復(fù)雜度較高,而有的則識(shí)別率較低,一個(gè)良好的圖像篡改檢測(cè)算法不僅應(yīng)該具有較低的運(yùn)算復(fù)雜度,而且其識(shí)別率應(yīng)該達(dá)到較高的水平,基于這種思想,本文提出了一種融合差分DCT系數(shù)和系數(shù)對(duì)直方圖的圖像拼接篡改檢測(cè)方法.該方法的特征向量基本維數(shù)為324,通過(guò)降維處理,特征向量的維數(shù)可以降低為50;同時(shí),該算法的識(shí)別率達(dá)到了99%以上,超越了目前所有公開(kāi)出版算法中的篡改檢測(cè)識(shí)別率.
2.1離散余弦變換(Discrete Cosine Transform)
離散余弦變換在數(shù)字水印和圖像處理領(lǐng)域中的應(yīng)用較為廣泛.在圖像壓縮和處理領(lǐng)域廣泛使用的JPEG標(biāo)準(zhǔn)也應(yīng)用了DCT作為變換方法.
其中,C(u,v)稱為DCT系數(shù).
2.2差分DCT系數(shù)
差分DCT系數(shù)矩陣可以減少圖像內(nèi)容相關(guān)性對(duì)檢測(cè)結(jié)果的影響[15],這是因?yàn)閳D像經(jīng)過(guò)DCT變換后的系數(shù)不服從高斯分布,所以這些系數(shù)間存在統(tǒng)計(jì)相關(guān)性[19].將圖像進(jìn)行DCT變換后的系數(shù)矩陣,記為D(x,y),對(duì)D(x,y)進(jìn)行水平、垂直、主對(duì)角線、副對(duì)角線四個(gè)方向的差分計(jì)算,得到的系數(shù)矩陣分別記作Dh,Dv,Dd,Dm.其中,x,y是DCT系數(shù)矩陣的索引.差分矩陣計(jì)算式如下:
為了驗(yàn)證差分DCT系數(shù)的性質(zhì),隨機(jī)選取CASIA圖像庫(kù)1000次進(jìn)行抽樣,并分別計(jì)算樣本空間中各個(gè)圖像水平方向差分DCT系數(shù)的直方圖,再求取各個(gè)樣本點(diǎn)的期望值,得到的系數(shù)分布圖如圖1所示.其中,橫坐標(biāo)代表差分DCT系數(shù)的取值,縱坐標(biāo)代表差分DCT系數(shù)為某一值時(shí)所占整幅圖像的比例.從圖中可以看出差分后的DCT系數(shù)服從拉普拉斯發(fā)布,系數(shù)取值基本集中在以0為中心的較小的范圍內(nèi),從而進(jìn)一步驗(yàn)證了DCT變換后的系數(shù)間存在一定的相關(guān)性.
2.3系數(shù)對(duì)直方圖及其形式
圖像的直方圖常用于隱寫(xiě)分析[20],Mahmood等通過(guò)對(duì)圖像空域的直方圖進(jìn)行傅里葉變換,進(jìn)而提取其Zernike矩特征進(jìn)行圖像對(duì)比度篡改的識(shí)別[21].借鑒圖像的空域像素直方圖思想,構(gòu)造系數(shù)對(duì)直方圖.對(duì)于一個(gè)大小為m×n的矩陣,其系數(shù)對(duì)直方圖的(i,j)位置上的數(shù)值代表矩陣序列化后系數(shù)值從數(shù)值i變換到j(luò)發(fā)生的次數(shù),即
其中P代表發(fā)生的次數(shù);δ(·)為示性函數(shù),當(dāng)括號(hào)內(nèi)條件成立時(shí)δ(·)=1,否則δ(·)= 0;ζ(m,n)代表m ×n的矩陣序列化后的序列,求和范圍為整個(gè)序列,F(xiàn)λ代表矩陣序列化后的某一位置的值.
系數(shù)對(duì)直方圖的概念可以用二維離散型隨機(jī)變量的聯(lián)合分布律來(lái)定義,設(shè)S表示一個(gè)整數(shù)序列,從S中連續(xù)取兩個(gè)數(shù),設(shè)隨機(jī)變量X表示第一次取到的數(shù)字,隨機(jī)變量Y表示第二次取到的數(shù)字.則N(X = i,Y = j)= P(X = i,Y = j)×N(i,j),其中N(X = i,Y = j)表示第一次取到數(shù)字i且第二次取到數(shù)字j的有序數(shù)對(duì)個(gè)數(shù),P(X = i,Y = j)表示隨機(jī)變量X,Y的聯(lián)合分布律,N(i,j)表示S中可以取到的有序數(shù)對(duì)總個(gè)數(shù).N(X = i,Y = j)即為系數(shù)對(duì)直方圖的概念.
2.4差分DCT系數(shù)對(duì)直方圖
對(duì)每個(gè)差分DCT系數(shù)矩陣,按照列序進(jìn)行展開(kāi),轉(zhuǎn)換成行向量<V>.在<V>中設(shè)定一個(gè)閾值T,T的選取不能過(guò)小或者過(guò)大.因?yàn)槿绻鸗過(guò)小,閾值處理后的差分DCT系數(shù)會(huì)丟失大量的邊緣及紋理信息;如果T過(guò)大,會(huì)有過(guò)多的低頻信息被統(tǒng)計(jì)進(jìn)來(lái),影響統(tǒng)計(jì)的效果;同時(shí)過(guò)大的T還會(huì)引起特征向量維數(shù)的增大,增加計(jì)算的復(fù)雜度.因此為了達(dá)到在識(shí)別率與計(jì)算的復(fù)雜度之間的均衡,通過(guò)實(shí)驗(yàn)的方法進(jìn)行閾值T的選擇.表1是從CASIA圖像庫(kù)中隨機(jī)選取1000張圖像進(jìn)行5次檢測(cè)的平均結(jié)果,可以看出當(dāng)T = 4與T = 6時(shí)方法同時(shí)具有較高的識(shí)別率,但是T = 6時(shí)的特征向量維數(shù)是676維,而T =4時(shí)特征向量?jī)H為324維,為了減小算法的計(jì)算復(fù)雜度,本文選擇T =4.
表1 不同閾值下的檢測(cè)結(jié)果
計(jì)算滿足[- T,T]區(qū)間的系數(shù)對(duì)直方圖,記作CPH矩陣,顯然,CPH矩陣的維數(shù)為(2×T +1)×(2×T + 1).當(dāng)T為4時(shí),一個(gè)差分DCT系數(shù)矩陣的維數(shù)為81.生成四個(gè)差分DCT系數(shù)矩陣后,分別計(jì)算Dh,Dv,Dd,Dm四個(gè)方向差分DCT系數(shù)矩陣的CPH矩陣,將四個(gè)CPH矩陣分別轉(zhuǎn)換成行向量記作:融合后得到向量,顯然向量的維數(shù)為324.該向量將用于進(jìn)行分類訓(xùn)練和測(cè)試.特征提取的流程圖如圖2所示.
3.1實(shí)驗(yàn)數(shù)據(jù)和條件
實(shí)驗(yàn)數(shù)據(jù)庫(kù)采用了CASIA v1.0數(shù)據(jù)庫(kù)和CASIA v2.0數(shù)據(jù)庫(kù)[22],該庫(kù)是目前流行的用于拼接檢測(cè)評(píng)估的首選數(shù)據(jù)庫(kù).相比于傳統(tǒng)的哥倫比亞圖像測(cè)試庫(kù),CASIA數(shù)據(jù)庫(kù)的組成更加復(fù)雜,也更接近現(xiàn)實(shí).實(shí)驗(yàn)測(cè)試平臺(tái)為Windows平臺(tái),測(cè)試軟件選為Matlab R2013b.
3.2實(shí)驗(yàn)方法
實(shí)驗(yàn)中使用支持向量機(jī)(SVM)作為分類器,并選取LIBSVM工具箱[23].分類時(shí),將分類中所有的真實(shí)圖像標(biāo)記為“+1”,所有的拼接圖像標(biāo)記為“-1”,即得到一個(gè)二值分類問(wèn)題.
對(duì)于CASIA v1.0進(jìn)行測(cè)試時(shí),隨機(jī)選擇5/6的真實(shí)圖像和5/6的拼接圖像作為訓(xùn)練集,剩下的1/6真實(shí)圖像和1/6拼接圖像作為測(cè)試集.
而對(duì)于CASIA v2.0,由于該庫(kù)中圖像的存儲(chǔ)格式有三類(JPEG、BMP、TIFF),并且每一類包含的文件數(shù)目不同,為了使得提取的特征具有一致性,首先將BMP、TIFF格式圖像用Q = 100,壓縮成JPEG格式.其次,由于圖像內(nèi)容分為八大類,圖像拼接區(qū)域的大小分為S(30%拼接區(qū)域)、M(30%- 60%拼接區(qū)域)、L(拼接區(qū)域大于60%)三類,圖像拼接區(qū)域邊界的后期處理又分為模糊和未處理.為了訓(xùn)練集的完備性分別從各個(gè)類別中提取訓(xùn)練集中的圖像.
在SVM訓(xùn)練過(guò)程中,核函數(shù)選擇RBF,核函數(shù)中的gamma函數(shù)以及損失函數(shù)的設(shè)置通過(guò)網(wǎng)格尋優(yōu)的方法得到.用得到的訓(xùn)練模型對(duì)測(cè)試集數(shù)據(jù)進(jìn)行檢測(cè).
3.3實(shí)驗(yàn)結(jié)果
將真實(shí)圖像定義為正樣本,拼接圖像定義為為負(fù)樣本.這樣,對(duì)于二值分類問(wèn)題,SVM對(duì)一個(gè)測(cè)試樣本有4種可能的判決結(jié)果,如下:
TP(True Positive),被預(yù)測(cè)為正的正樣本個(gè)數(shù);
FN(False Negative),被預(yù)測(cè)為負(fù)的正樣本個(gè)數(shù);
FP(False Positive),被預(yù)測(cè)為正的負(fù)樣本個(gè)數(shù);
TN(True Negative),被預(yù)測(cè)為負(fù)的負(fù)樣本個(gè)數(shù);
基于上述定義,采用四種定量參數(shù)描述SVM的分類效果,即TPR(True Positive Rate)、TNR(True Negative Rate)、檢測(cè)準(zhǔn)確率Accuracy和精確率Precision,計(jì)算公式如下:
在對(duì)CASIA v1.0進(jìn)行的算法測(cè)試中,對(duì)含有667張真實(shí)圖像和767張篡改圖像的訓(xùn)練集進(jìn)行訓(xùn)練,然后對(duì)133張真實(shí)圖像和154張拼接圖像的測(cè)試集進(jìn)行檢測(cè).十組訓(xùn)練集和測(cè)試集的檢測(cè)結(jié)果見(jiàn)表2.
從表2可看出,真實(shí)圖像的平均TPR為99.925%,拼接圖像的平均TNR為99.805%,平均檢測(cè)準(zhǔn)確率為99.86%,平均精確率為99.78%.
對(duì)CASIA v2.0進(jìn)行算法測(cè)試時(shí),對(duì)含有1600張真實(shí)圖像和1600張篡改圖像的訓(xùn)練集進(jìn)行訓(xùn)練,然后對(duì)400張真實(shí)圖像和400張拼接圖像的測(cè)試集進(jìn)行檢測(cè).表3是十組分類過(guò)程的檢測(cè)結(jié)果.
從表3可以看出,真實(shí)圖像的平均TPR為99.9%,拼接圖像的平均TNR為98.125%,平均檢測(cè)準(zhǔn)確率為99.02%,平均精確率為98.16%.
表2 十組隨機(jī)分類的圖像庫(kù)測(cè)試的結(jié)果
實(shí)驗(yàn)結(jié)果對(duì)應(yīng)的ROC(Receiver Operating Characteristic Curve)曲線圖如圖3所示,圖3(a)是在CASIA v1.0上檢測(cè)所得的ROC曲線,(b)是在CASIA v2.0上檢測(cè)所得的ROC曲線.
可以看出,提出方法得到的實(shí)驗(yàn)結(jié)果曲線AUC(Area Under the Curve)值更高,也表明預(yù)測(cè)結(jié)果更準(zhǔn)確.
3.4實(shí)驗(yàn)結(jié)果對(duì)比與分析
目前,人們也提出了一些圖像拼接篡改檢測(cè)方法,并取得了良好結(jié)果.為了便于比較和分析,本文選取了Sutthiwan[16]、He[17]和Sahar[18]提出的方法和本文提出的方法進(jìn)行對(duì)比分析,因?yàn)檫@些方法選擇了與本文相同的測(cè)試數(shù)據(jù)集,所以具有可比性.表4和表5從特征向量的維數(shù)與識(shí)別率方面分別給出了在CASIA v1.0上和CASIA v2.0上的對(duì)比結(jié)果.
表3 十組隨機(jī)分類的圖像庫(kù)測(cè)試的結(jié)果
從表4和表5可以看出,在同樣的測(cè)試數(shù)據(jù)集上,和已有的一些圖像拼接檢測(cè)方法相比,基于差分DCT系數(shù)直方圖的檢測(cè)方法具有更高的識(shí)別率,并且特征向量的維數(shù)適中.
同時(shí),為了使得算法的復(fù)雜度更低,本文嘗試將特征向量進(jìn)行降維處理,在CASIA v1.0上,當(dāng)特征向量的維數(shù)降為50時(shí),算法的識(shí)別率為98.27%,當(dāng)特征向量的維數(shù)降為4時(shí),算法的識(shí)別率為97.57%,在CASIA v2.0上,當(dāng)特征向量的維數(shù)降為4時(shí),算法的識(shí)別率為98.2478%,可見(jiàn)此時(shí)算法仍然保持非常的檢測(cè)率.
表4 提出的方法在CASIA v1.0上的對(duì)比結(jié)果
表5 提出的方法在CASIA v2.0上的對(duì)比結(jié)果
為了評(píng)估所提出的方法對(duì)于JPEG壓縮的魯棒性,將實(shí)驗(yàn)的對(duì)比對(duì)象選為基于差分像素鄰接矩陣(Subtractive Pixel Adjacency Model,SPAM)的檢測(cè)方法[24],測(cè)試庫(kù)選為相同的測(cè)試集IEEE IFS-TC image forensics challenge[25].實(shí)驗(yàn)中選取壓縮因子Q =75,80,85,90,95分別對(duì)待測(cè)試圖像進(jìn)行壓縮,實(shí)驗(yàn)對(duì)比結(jié)果如表6所示.
表6 魯棒性測(cè)試對(duì)比結(jié)果
從表6可以看出,拼接檢測(cè)的識(shí)別率隨著壓縮因子的提高而提高,與所采用的檢測(cè)方法無(wú)關(guān);盡管圖像的拼接操作是在空域進(jìn)行的,但是所提出的方法對(duì)于拼接后再進(jìn)行JPEG壓縮的圖像依然能夠獲得較滿意的識(shí)別率.
本文提出了一種基于圖像差分DCT系數(shù)的圖像拼接檢測(cè)方法.該方法的新穎之處在于將傳統(tǒng)意義上的空域像素對(duì)直方圖擴(kuò)展到DCT域,并且與差分DCT系數(shù)矩陣相結(jié)合,提出了一種嶄新的特征向量提取方式.該方法和已有的一些方法相比,不僅計(jì)算復(fù)雜度低,還具有良好的性能.通過(guò)大量的實(shí)驗(yàn)證明了該方法的有效性.
參考文獻(xiàn)
[1]Popescu A C,F(xiàn)arid H.Exposing Digital Forgeries by Detecting Duplicated Image Regions[R].Hanover: Dartmouth College Department of Computer Science Technical,2004,TR2004 -515.
[2]Amerini I,Ballan L,Caldelli R,et al.A sift-based forensic method for copy-move attack detection and transformation recovery[J].IEEE Transactions on Information Forensics and Security,2011,6(3): 1099 -1110.
[3]Pan X,Lyu S.Region duplication detection using image feature matching[J].IEEE Transactions on Information Forensics and Security,2010,5(4): 857 -867.
[4]Wu Q,Wang S,Zhang X.Log-polar based scheme for revealing duplicated regions in digital images[J].IEEE Signal Processing Letters,2011,18(10): 559 -562.
[5]Avidan S,Shamir A.Seam carving for content-aware image resizing[J].ACM Transactions on Graphics,2007,26(3): 10.
[6]王波,孫璐璐,孔祥維,等.圖像偽造中模糊操作的異常色調(diào)率取證技術(shù)[J].電子學(xué)報(bào),2006,34(12A): 2451 -2454.Wang Bo,Sun Lu-lu,Kong Xiang-wei,et al.Image forensics technology using abnormity of local hue for blur detection[J].Acta Electronica Sinica,2006,34(12A): 2451 -2454.(in Chinese)
[7]周琳娜,王東明,郭云彪,等.基于數(shù)字圖像邊緣特性的形態(tài)學(xué)濾波取證技術(shù)[J].電子學(xué)報(bào),2008,36(6): 1047 -1051.Zhou Lin-na,Wang Dong-ming,Guo Yun-biao,et al.Exposing digital forgeries by detecting image blurred mathematical morphology edge[J].Acta Electronica Sinica,2008,36(6): 1047 -1051.(in Chinese)
[8]Cao G,Zhao Y,Ni R,et al.Contrast enhancement-based forensics in digital images[J].IEEE Transactions on Information Forensics and Security,2014,9(3): 515 -525.
[9]Luo W,Huang J,Qiu G.JPEG error analysis and its applications to digital image forensics[J].IEEE Transactions on Information Forensics and Security,2010,5(3): 480 -491.
[10]Farid H.Detecting Digital Forgeries Using Bispectral A-nalysis[R].Cambridge: Massachusetts Institute of technology,1999,AIM -1657.
[11]Ng T T,Chang S F,Sun Q.A Data Set of Authentic and Spliced Image Blocks[R].Columbia: Columbia University,ADVENT Technical,2004.203.
[12]Ng T T,Chang S F.Blinddetection of digital photomontageusing higher order statistics[DB/OL].http: / /www.ee.columbia.edu/dvmm/,2004 -01.
[13]Fu D,Shi Y Q,Su W.Detection of image splicing based on hilbert-huang transform and moments of characteristic functions with wavelet decomposition[A].Proceedings of the 5th International Workshop on Digital Watermarking[C].Berlin: Springer,2006.177 -187.
[14]Chen W,Shi Y Q,Su W.Imagesplicing detection using 2-D phase congruency and statistical moments of characteristic function[A].Proceedings of SPIE Electronic Imaging[C].California: SPIE,2007.65050R -1.
[15]Shi Y Q,Chen C,Chen W.A natural image model approach to splicing detection[A].Proceedings of the 9th Workshop on Multimedia&Security[C].New York: ACM,2007.51 -62.
[16]Sutthiwan P,Shi Y Q,Dong J,et al.New developments in color image tampering detection[A].Proceedings of IEEE International Symposium on Circuits and Systems[C].New York: IEEE,2010.3064 -3067.
[17]He Z,Lu W,Sun W,et al.Digital image splicing detection based on Markov features in DCT and DWT domain[J].Pattern Recognition,2012,45(12): 4292 -4299.
[18]Saleh S Q,Hussain M,Muhammad G,et al.Evaluation ofimage forgery detection using multi-scale weber local descriptors[A].Proceedings of Advances in Visual Computing[C].Berlin: Springer,2013.416 -424.
[19]Shi Y Q,Chen C,Chen W.A markov process based approach to effective attacking JPEG steganography[A].Proceedings of the 8th Information Hiding Workshop[C].Berlin: Springer,2006.249 -264.
[20]Qian-Lan D.The blind detection of information hiding in color image[A].Proceedings of the 2nd International Conference on Computer Engineering and Technology[C].New York: IEEE,2010.V7-346-V7-348.
[21]Shabanifard M,Shayesteh M G,Akhaee M A.Forensic detection of image manipulation using the Zernike moments and pixel-pair histogram[J].IET Image Processing,2013,7(9): 817 -828.
[22]Jing Dong.CASIA tampered image detection evaluation database[DB/OL].http: / /forensics.idealtest.org,2011.
[23]Chang C C,Lin C J.LIBSVM: a library for support vector machines[J].ACM Transactions on Intelligent Systems and Technology,2011,2(3): 1 -25.
[24]Qiu X,Li H,Luo W,et al.A universal image forensic strategy based on steganalytic model[A].Proceedings of the 2nd ACM Workshop on Information Hiding and Multimedia Security[C].New York: ACM,2014.165 -170.
[25]ARocha,A Piva,J Huang.Images corpus of the 1st IEEE IFS-TC image forensics challenge[DB/OL].http: / /ifc.recod.ic.unicamp.br/fc.website/index.py?sec = 5,2013 -06.
楊富圣男,1984年生于天津.博士研究生,研究方向?yàn)槎嗝襟w信息安全技術(shù).
E-mail: yong-nk@ sina.com
高鐵杠男,1966年生于河北河間.教授,博士生導(dǎo)師,研究方向?yàn)閿?shù)字媒體安全技術(shù)、軟件工程.
An Image Forensic Algorithm Based on Differential Coefficient-Pair Histogram in DCT Domain
YANG Fu-sheng,GAO Tie-gang
(College of Software,Nankai University,Tianjin 300071,China)
Abstract:An image forensic method based on coefficient-pair histogram of differential DCT coefficient was proposed.In the method,the image is firstly transformed by DCT,and then the differential DCT coefficient of four directions,such as horizontal direction,vertical direction,diagonal direction and the second diagonal direction are computed.After that,the coefficient-pair histogram for each differential DCT coefficient is calculated.Finally,support vector machine(SVM)is used to classify the authentic and spliced image through training the feature vectors of authentic and that of tampered image.The experimental results show that the proposed approach not only has low computing complexity,but also outperforms all the state-of-the-art methods in detection rate on the same test database.
Key words:image forensics; differential DCT coefficient; coefficient-pair histogram; support vector machine
作者簡(jiǎn)介
基金項(xiàng)目:天津市自然科學(xué)基金重點(diǎn)項(xiàng)目(No.11JCZDJC16000)
收稿日期:2014-05-28;修回日期: 2015-06-24;責(zé)任編輯:李勇鋒
DOI:電子學(xué)報(bào)URL:http: / /www.ejournal.org.cn10.3969/j.issn.0372-2112.2016.01.002
中圖分類號(hào):TN911.7
文獻(xiàn)標(biāo)識(shí)碼:A
文章編號(hào):0372-2112(2016)01-0008-06