亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于區(qū)域劃分和四元數(shù)的彩色圖像復(fù)制粘貼篡改檢測(cè)*

        2022-08-11 08:41:08魏偉一王婉茹趙毅凡
        關(guān)鍵詞:特征區(qū)域檢測(cè)

        魏偉一,王婉茹,趙毅凡,陳 幗

        (西北師范大學(xué)計(jì)算機(jī)科學(xué)與工程學(xué)院,甘肅 蘭州 730070)

        1 引言

        各種修圖軟件的廣泛使用可以很方便地實(shí)現(xiàn)圖像內(nèi)容修改,因此在新聞、雜志和司法等領(lǐng)域,判斷圖像真?zhèn)畏浅V匾?。檢測(cè)圖像、視頻是否經(jīng)過(guò)篡改的取證技術(shù)成為了一個(gè)重要的研究方向,圖像復(fù)制粘貼篡改檢測(cè)是檢測(cè)一幅圖像中是否存在多個(gè)相同區(qū)域。一般來(lái)說(shuō),偽造檢測(cè)都遵循預(yù)處理、特征提取、特征匹配和偽造定位的經(jīng)典流程。復(fù)制粘貼篡改檢測(cè)技術(shù)主要分為基于塊的特征提取和基于關(guān)鍵點(diǎn)的特征提取2類。

        在基于塊的復(fù)制-粘貼篡改檢測(cè)方法中,預(yù)處理一般分為規(guī)則塊劃分和不規(guī)則塊劃分2種方法。前者將圖像直接劃分為重疊的或非重疊的規(guī)則分塊;后者一般是指根據(jù)鄰近區(qū)域像素的一致性將圖像劃分成不規(guī)則的超像素塊,然后圖像塊經(jīng)過(guò)如極復(fù)指數(shù)變換PCET(Polar Complex Exponential Transform)[1]、離散余弦變換DCT(Discrete Cosine Transform)[2]或離散小波變換DWT(Discrete Wavelet Transform)后得到塊內(nèi)特征并匹配。為降低塊匹配的時(shí)間復(fù)雜度,Cozzolino等人[3]提出利用快速且有效的近似最近鄰搜索算法(PatchMatch)定位篡改區(qū)。Novozmsk等人[4]推導(dǎo)出一個(gè)基于JPEG的約束,圖像中的某些塊必須滿足這個(gè)約束才能被確定是篡改區(qū)域,但這種方法只適合JPEG格式的圖像。Pun等人[5]首先對(duì)超像素使用局部韋伯描述符WLD(Weber Local Descriptor)提取特征進(jìn)行粗匹配,再將圓形塊進(jìn)行離散Fourier-Mellin變換得到精確匹配的結(jié)果?;趬K的特征提取方法在小區(qū)域的篡改檢測(cè)中準(zhǔn)確性較好,但時(shí)間復(fù)雜度較高,對(duì)仿射變換、大尺度的幾何變換等各種攻擊的魯棒性較差。

        關(guān)鍵點(diǎn)具有尺度不變性、縮放不變性和較好的魯棒性等優(yōu)點(diǎn),因此被廣泛應(yīng)用于計(jì)算機(jī)視覺(jué)任務(wù)中。在基于關(guān)鍵點(diǎn)的篡改檢測(cè)方法中,以每個(gè)關(guān)鍵點(diǎn)周圍區(qū)域的像素作為輸入進(jìn)行關(guān)鍵點(diǎn)的特征描述,比較常用的關(guān)鍵點(diǎn)提取方法有SIFT(Scale-Invariant Feature Transform)[6]、Harris[7]、SURF(Speeded Up Robust Features)[8]和AKAZE(Accelerate KAZE)[6]等。Lin等人[7]提出了一種評(píng)價(jià)聚類方法,結(jié)合混合關(guān)鍵點(diǎn)可以檢測(cè)篡改。Alhammadi等人[8]通過(guò)結(jié)合單圖像超分辨率SISR(Single Image Super-Resolution)算法設(shè)計(jì)了一種用于篡改檢測(cè)的super-SURF算法。Liu等人[9]利用K-means聚類將圖像分為紋理區(qū)域和平滑區(qū)域后,分別提取不同的特征點(diǎn)檢測(cè)篡改區(qū)域,這種在不同區(qū)域用各自特征點(diǎn)進(jìn)行檢測(cè)得到的結(jié)果容易受分割區(qū)域的影響。為了得到更多的特征點(diǎn),Li等人[10]通過(guò)降低對(duì)比度閾值和放大圖像獲得更多的特征點(diǎn)。肖斌等人[11]提出使用結(jié)構(gòu)張量屬性將超像素塊分組并在組內(nèi)進(jìn)行SIFT塊內(nèi)結(jié)構(gòu)匹配,但是這種方法只可以將圖像分割成平滑區(qū)、過(guò)渡區(qū)和紋理區(qū)。相比基于塊的檢測(cè)方法,通常基于特征點(diǎn)的檢測(cè)方法的速度要快得多,但是基于特征點(diǎn)的方法在檢測(cè)小區(qū)域或平滑區(qū)域的篡改時(shí)精度較低。因此,結(jié)合兩者優(yōu)勢(shì)可得到更好的檢測(cè)結(jié)果。

        以上2種檢測(cè)方法都屬于傳統(tǒng)的復(fù)制粘貼篡改檢測(cè)方法,隨著深度學(xué)習(xí)和神經(jīng)網(wǎng)絡(luò)方法的廣泛使用,新的篡改檢測(cè)方法不斷涌出。Muzaffer等人[12]以圖像均勻塊作為AlexNet神經(jīng)網(wǎng)絡(luò)的輸入提取第5層特征并降維得到每個(gè)圖像塊的特征。Liu等人[13]利用卷積核網(wǎng)絡(luò)進(jìn)行復(fù)制-粘貼偽造檢測(cè),但檢測(cè)得到的非篡改區(qū)比較多。Agarwal等人[14]使用簡(jiǎn)單線性迭代聚類SLIC(Simple Linear Iterative Clustering)劃分超像素,然后使用VGGNet(Visual Geometry Group Network)提取超像素內(nèi)的特征。雖然基于神經(jīng)網(wǎng)絡(luò)的篡改檢測(cè)方法可以得到較好的效果,但是訓(xùn)練時(shí)間不理想,并且一部分復(fù)制-粘貼篡改常發(fā)生在圖像不規(guī)則的小區(qū)域中,導(dǎo)致檢測(cè)精度不高。

        一方面,現(xiàn)有的方法在提取特征點(diǎn)時(shí)大多直接在整幅圖像降低對(duì)比度閾值,或劃分平滑、紋理和過(guò)渡區(qū)域后再分別在不同的區(qū)域使用不同的對(duì)比度閾值,這樣難以根據(jù)不同的區(qū)域特性使用合適的閾值;另一方面,特征提取多在灰度圖像上進(jìn)行,沒(méi)有利用圖像的色彩信息。因此,針對(duì)現(xiàn)有算法存在的問(wèn)題,結(jié)合基于特征點(diǎn)的方法和基于塊的方法的優(yōu)勢(shì),本文使用自適應(yīng)形態(tài)重建AMR(Adaptive Morphological Reconstruction)算法[15]分割超像素并計(jì)算超像素的顏色矩;然后將圖像聚類成多個(gè)子區(qū)域,在不同的子區(qū)域中自適應(yīng)使用不同的對(duì)比度閾值提取足夠多的特征點(diǎn)。四元數(shù)矩陣對(duì)圖像的色彩信息有良好的表達(dá)效果,并且不是單一的顏色特征,因此本文提出在特征點(diǎn)周圍用四元數(shù)矩陣構(gòu)建局部高斯金字塔提取Hu矩特征。對(duì)圖像的特征向量經(jīng)過(guò)2NN(2 Neareast Neighbour)匹配處理后,利用估計(jì)仿射變換RANSAC(RANdom SAmple Consensus)消除錯(cuò)誤匹配,最后結(jié)合Delaunay算法有效定位出偽造區(qū)。

        2 基于區(qū)域劃分和四元數(shù)的彩色圖像CMFD算法

        在提取一幅圖像特征點(diǎn)時(shí),本文稱高熵區(qū)特征點(diǎn)密集而低熵區(qū)特征點(diǎn)較少的現(xiàn)象為“特征點(diǎn)分布不均勻”效應(yīng)。現(xiàn)有解決這一效應(yīng)的方法大多通過(guò)直接降低圖像對(duì)比度閾值來(lái)得到更充分的特征點(diǎn),但這樣會(huì)給高熵區(qū)增加過(guò)多的特征點(diǎn),從而使后續(xù)的特征匹配過(guò)程更加復(fù)雜。因此,本文提出基于顏色矩的區(qū)域劃分和四元數(shù)Hu矩的彩色圖像復(fù)制-粘貼篡改檢測(cè)算法,算法過(guò)程如圖1所示。

        Figure 1 Flowchart of the proposed algorithm圖1 本文所提算法流程圖

        2.1 AMR超像素分割算法

        復(fù)制-粘貼篡改檢測(cè)中常見(jiàn)的超像素分割方法有SLIC、分水嶺分割和基于熵率法等,但是這些超像素分割方法的參數(shù)不易確定。而AMR分割算法無(wú)需指定固定參數(shù),且對(duì)尺度變化魯棒、計(jì)算時(shí)間復(fù)雜度較低,因此本文使用AMR進(jìn)行超像素分割。SLIC和ARM的分割結(jié)果如圖2所示,可看出AMR能提供更好的分割結(jié)果。

        Figure 2 Segmentation results of SLIC and AMR圖2 SLIC與AMR分割結(jié)果對(duì)比

        2.2 密集特征點(diǎn)提取

        2.2.1 超像素顏色矩提取

        顏色矩是一種簡(jiǎn)單有效的色彩特征表示方法,由一階矩、二階矩和三階矩組成,計(jì)算方式如式(1)~式(3)所示:

        (1)

        (2)

        (3)

        其中,pi,j表示彩色圖像第j個(gè)像素的第i個(gè)顏色分量;N表示圖像中的像素個(gè)數(shù);μi,σi和Si分別為一階矩、二階矩和三階矩。

        人眼觀看物體時(shí)最先看到的是物體的明暗變化,這種明暗感知被數(shù)字化到Lab顏色模型中的L通道,因此本文在L通道計(jì)算顏色矩Fcolor,組成一個(gè)3維直方圖向量,如式(4)所示:

        Fcolor=[μL,σL,sL]

        (4)

        2.2.2 基于密度的超像素區(qū)域劃分

        一幅圖像中,超像素是局部區(qū)域中相似像素的集合,使用顏色矩可以表達(dá)圖像超像素的顏色分布,所以本文將顏色矩作為超像素的特征。常用的聚類算法有K-means、基于密度的聚類DBSCAN(Density-Based Spatial Clustering of Applications with Noise)和凝聚層次聚類等[16]??紤]到DBSCAN聚類算法可通過(guò)控制2個(gè)參數(shù)實(shí)現(xiàn)聚類,所以提出用DBSCAN算法對(duì)超像素的顏色矩進(jìn)行聚類,以實(shí)現(xiàn)區(qū)域劃分。另外,本文在聚類算法中加入輪廓系數(shù)[17]評(píng)價(jià)指標(biāo),可以讓不同的圖像根據(jù)自身的顏色矩特征自適應(yīng)聚類。聚類的結(jié)果如圖3所示,可以看出根據(jù)顏色矩自適應(yīng)劃分可以將圖像分割成多個(gè)不同的區(qū)域,便于后續(xù)根據(jù)區(qū)域特性提取均勻特征點(diǎn)。

        Figure 3 Results of adaptive region division圖3 自適應(yīng)區(qū)域劃分結(jié)果

        2.2.3 均勻SIFT特征點(diǎn)提取

        為使特征的描述符具有尺度、縮放、旋轉(zhuǎn)甚至仿射不變的特性,Lowe[18]提出了一種圖像局部特征描述的算子SIFT算法。SIFT特征點(diǎn)的檢測(cè)與特征描述過(guò)程主要包括:尺度空間檢測(cè);確定特征點(diǎn)的位置及尺度;確定特征點(diǎn)方向;生成128維特征向量。

        在視覺(jué)處理中,基于特征點(diǎn)的檢測(cè)方法可以反映一幅圖像的局部特征。但是,一幅圖像中的特征點(diǎn)大多集中在高熵區(qū)域,容易導(dǎo)致特征點(diǎn)分布不均勻(如圖4c所示),這樣不易發(fā)現(xiàn)較平坦區(qū)域的篡改。因此,Wang等人[19]提出通過(guò)降低對(duì)比度閾值來(lái)得到更多的特征點(diǎn),但如圖4d所示的平滑區(qū)域“特征點(diǎn)分布不均勻”問(wèn)題仍未得到有效解決。

        Figure 4 Results of feature points extraction圖4 特征點(diǎn)提取結(jié)果

        雖然通過(guò)降低對(duì)比度閾值可以得到充足的特征點(diǎn),但其缺點(diǎn)是對(duì)比度閾值難以確定。如果對(duì)比度閾值設(shè)置較大,會(huì)導(dǎo)致特征點(diǎn)不足,篡改定位不全;若對(duì)比度閾值設(shè)置較小,會(huì)導(dǎo)致特征點(diǎn)過(guò)多,使后續(xù)特征點(diǎn)匹配過(guò)程更加復(fù)雜。所以,本文提出一種動(dòng)態(tài)調(diào)整對(duì)比度閾值以得到均勻特征點(diǎn)的特征點(diǎn)密集度評(píng)價(jià)算法,算法流程如圖5所示。

        Figure 5 Flowchart of the evaluation algorithm for feature point density圖5 特征點(diǎn)密集度評(píng)價(jià)算法流程圖

        本文用區(qū)域大小和特征點(diǎn)個(gè)數(shù)之間的關(guān)系描述一個(gè)區(qū)域內(nèi)特征點(diǎn)的密集程度,即特征點(diǎn)密集度,如式(5)所示:

        Dense=sizeregion/siftnum

        (5)

        其中,sizeregion表示區(qū)域大小,siftnum表示區(qū)域內(nèi)的特征點(diǎn)數(shù)量。

        利用本文的特征點(diǎn)密集度評(píng)價(jià)算法提取的特征點(diǎn)結(jié)果如圖4f所示,可見(jiàn)動(dòng)態(tài)改變對(duì)比度閾值可以得到更均勻的特征點(diǎn)。

        2.3 局部熵比Hu矩特征提取

        特征點(diǎn)是一種局部梯度特征,非紋理區(qū)域一般較平坦,梯度值較小,直接使用特征點(diǎn)匹配會(huì)造成較多的錯(cuò)誤;并且SIFT特征點(diǎn)的提取是在灰度圖像中進(jìn)行,忽略了色彩信息,借助四元數(shù)可以將一幅三通道的RGB彩色圖像經(jīng)過(guò)計(jì)算融合到一個(gè)通道中,保存了大量的色彩信息,因此本文提出提取特征點(diǎn)的局部四元數(shù)Hu矩特征,以表現(xiàn)特征點(diǎn)的色彩信息。

        2.3.1 四元數(shù)

        四元數(shù)是一種超復(fù)數(shù),有3個(gè)虛部和1個(gè)實(shí)部。在傳統(tǒng)的四元數(shù)表示方法中,一般令四元數(shù)的實(shí)部為0。Wei等人[20]結(jié)合了信息熵、顏色和亮度等圖像信息,根據(jù)人類視網(wǎng)膜的視覺(jué)感知結(jié)構(gòu)提出了一種新穎的四元數(shù)表達(dá)方式。相比傳統(tǒng)的表示方法,此四元數(shù)不僅利用了四元數(shù)的實(shí)部,并且可以將不同的顏色通道更好地關(guān)聯(lián)在一起,如式(6)所示:

        Q=H+RGi+BYj+Ik

        (6)

        其中,H表示信息熵,RG表示R和G顏色空間的差值,BY表示B和Y顏色空間的差值,I值表示圖像的亮度。具體計(jì)算如式(7)~式(13)所示:

        R=r-(g+b)/2

        (7)

        G=g-(r+b)/2

        (8)

        B=b-r+g/2

        (9)

        Y=(r+g)/2-|r-g|/2-b

        (10)

        RG=(r-3g)/2

        (11)

        BY=2b-r-g+|r-g|/2

        (12)

        I=(r+g+b)/3

        (13)

        其中r,g,b表示紅綠藍(lán)3種顏色值。

        2.3.2 Hu不變矩

        Hu矩具有平移不變性、旋轉(zhuǎn)不變性和縮放不變性,因此使用Hu矩可以對(duì)圖像的像素強(qiáng)度進(jìn)行有效度量。為增強(qiáng)特征描述符,在特征點(diǎn)的周圍取n×n鄰域構(gòu)建高斯金字塔并得到金字塔各層的四元數(shù)矩陣,最后計(jì)算各層Hu矩并使用局部熵比融合金字塔的各層Hu矩。

        (1)對(duì)于離散圖像,圖像的(p+q)階原點(diǎn)矩可以表示如式(14)所示:

        (14)

        其中,ρ(x,y)表示圖像函數(shù),Row表示圖像的行,Col表示圖像的列。

        (2)圖像的質(zhì)心坐標(biāo)計(jì)算如式(15)所示:

        (15)

        其中,m00表示零階原點(diǎn)矩,m10和m01表示一階原點(diǎn)矩。

        (3)圖像的(p+q)階中心矩可表示為式(16):

        p,q=0,1,2,…

        (16)

        (4)為抵抗尺度變化,利用零階中心矩u00對(duì)各階中心距進(jìn)行歸一化處理,得到歸一化中心矩:

        (17)

        其中,m=(p+q)/2+1。

        (5)利用二階、三階中心矩可以導(dǎo)出如式(18)~式(24)所示的7個(gè)不變矩:

        H1=η20+η02

        (18)

        (19)

        (20)

        (21)

        H5=(η30-3×η12)×(η30+η12)×

        (3×η21-η03)×(η21+η03)×

        (22)

        (η20-η02)+4×η11×(η30+η12)×

        (η21+η03)

        (23)

        H7=(3×η21-η03)×(η30+η12)×

        (3×η12-η30)×(η21+η03)×

        (24)

        最終Hu矩特征用式(25)表示:

        FHu={H1,H2,H3,H4,H5,H6,H7}

        (25)

        2.3.3 局部熵比Hu矩特征提取

        由于金字塔不同層的同一特征表示的信息量不同,因此需要計(jì)算每層的信息熵[21]與逐層總和的比值,并對(duì)各層得到的Hu矩特征加權(quán),使局部Hu矩特征更加魯棒。

        (1)將第k層中的局部信息熵λk進(jìn)行量化,如式(26)所示:

        (26)

        (2)將量化后的比例作為每層Hu矩特征的權(quán)重,并進(jìn)行累加求和,得到最終的局部Hu矩特征描述,如式(27)所示:

        FHu=λ1FHu1+λ2FHu2+…+λkFHuk

        (27)

        2.4 特征匹配

        將得到的128維SIFT特征與局部7維Hu矩特征級(jí)聯(lián),這樣對(duì)于每一個(gè)特征點(diǎn),形成了一個(gè)新的135維的特征描述子:F=[FSIFT,FHu]。在特征匹配時(shí),用2NN算法進(jìn)行特征間的相似性度量。先計(jì)算某一特征與其它特征向量之間的歐氏距離得到距離集合D,并將D中的距離從小到大排序得到n-1個(gè)特征;然后計(jì)算最相近的2個(gè)距離的比值,如果比值小于T_match,說(shuō)明2個(gè)特征匹配,匹配結(jié)果如圖6a所示。但是,特征經(jīng)過(guò)2NN匹配后仍可能存在誤匹配,本文通過(guò)估計(jì)仿射變換RANSAC消除錯(cuò)誤匹配,結(jié)果如圖6b所示。

        Figure 6 Results of feature matching圖6 特征匹配結(jié)果

        2.5 Delaunay算法定位篡改區(qū)域

        本文在零均值歸一化互相關(guān)ZNCC(Zero-mean Normalization Cross Correlation)的基礎(chǔ)上提出一種準(zhǔn)確定位篡改區(qū)的新算法。

        2.5.1 零均值歸一化互相關(guān)系數(shù)

        從圖6a的第3列和圖6b的第3列可以看出,經(jīng)過(guò)RANSAC后仍存在部分錯(cuò)誤匹配,所以計(jì)算匹配的特征點(diǎn)R(i,j)周圍鄰域的ZNCC系數(shù)去除孤立點(diǎn)并用于后續(xù)的定位,計(jì)算如式(28)所示:

        (28)

        其中,xi和yi分別表示2個(gè)樣本在模板上的值,μx和μy表示均值,σx和σy表示標(biāo)準(zhǔn)差,n表示模板中像素的個(gè)數(shù)。

        如果R(i,j)小于給定的ZNCC閾值T_ZNCC,則鄰域置為1。在本文實(shí)驗(yàn)中,取以特征點(diǎn)為中心的10×10鄰域。

        2.5.2 Delaunay算法

        將原圖再次使用SLIC算法[22]進(jìn)行超像素分割,利用SLIC中的K-means對(duì)得到的匹配特征點(diǎn)進(jìn)行聚類,如果每個(gè)標(biāo)簽類別中特征點(diǎn)的個(gè)數(shù)少于3個(gè),則視為孤立點(diǎn),舍棄;否則,使用Delaunay算法[23]提取離散點(diǎn)的邊界。Delaunay算法是一種邊界輪廓提取算法,可以滿足全局和局部最優(yōu)的要求。如圖7所示,該算法在每個(gè)超像素中找到離散的點(diǎn),用Delaunay三角形連接離散點(diǎn)的外側(cè)框線,分別得到連通區(qū)域,最后填充連通區(qū)域,并進(jìn)行形態(tài)學(xué)處理定位出最終的篡改區(qū)。

        Figure 7 Delaunay algorithm圖7 Delaunay算法

        3 實(shí)驗(yàn)與結(jié)果分析

        3.1 數(shù)據(jù)集及評(píng)價(jià)標(biāo)準(zhǔn)

        GRIP數(shù)據(jù)集[1]和FAU數(shù)據(jù)集[24]中包含平滑區(qū)、非平滑區(qū)的篡改,因此本文選擇在這2個(gè)公共數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn)。GRIP數(shù)據(jù)集中包含80幅篡改圖像和80幅真值圖像,每幅圖像的尺寸大小均為768×1024像素。FAU數(shù)據(jù)集中包含48組圖像,其中包含旋轉(zhuǎn)和尺度不同攻擊的圖像共計(jì)720幅,此數(shù)據(jù)集中的圖像大小為300×420像素到2592×3888像素不等。

        使用的評(píng)價(jià)標(biāo)準(zhǔn)分別為精確率P(Precision)、召回率R(Recall)及F值[24],其定義如式(29)~式(31)所示:

        (29)

        (30)

        (31)

        其中,NTP是檢測(cè)的結(jié)果中正確檢測(cè)為篡改區(qū)的像素?cái)?shù)目,NFP是檢測(cè)的結(jié)果中錯(cuò)誤檢測(cè)為篡改的像素?cái)?shù)目,NFN是檢測(cè)結(jié)果中未檢測(cè)出的像素?cái)?shù)目。

        3.2 參數(shù)設(shè)置

        在本文所提的算法中,參數(shù)的設(shè)置對(duì)篡改結(jié)果的檢測(cè)至關(guān)重要,因此在實(shí)驗(yàn)中分別選擇20幅包含非平滑區(qū)域篡改圖像和20幅包含平滑區(qū)域篡改的圖像,在以下幾個(gè)參數(shù)的約束下進(jìn)行實(shí)驗(yàn):在提取密集特征點(diǎn)時(shí),特征點(diǎn)密集度閾值越小得到的特征點(diǎn)越緊密,但是同時(shí)會(huì)降低特征點(diǎn)提取效率,通過(guò)實(shí)驗(yàn)發(fā)現(xiàn),設(shè)特征點(diǎn)密集度T_dense為2是一個(gè)很好的折衷方案;在局部熵比Hu矩特征的提取過(guò)程中,構(gòu)建的局部高斯金字塔的層數(shù)設(shè)為3;使用2NN算法進(jìn)行特征匹配時(shí),根據(jù)實(shí)驗(yàn)結(jié)果分析,匹配閾值過(guò)大會(huì)增加誤匹配,過(guò)小會(huì)使得篡改區(qū)域的定位不完整,因此本文將特征的匹配閾值T_match設(shè)為0.4;在定位階段,為判斷特征點(diǎn)的相關(guān)性以去除孤立點(diǎn),進(jìn)而使用Delaunay算法進(jìn)行篡改區(qū)域定位,將零均值歸一化互相關(guān)系數(shù)T_ZNCC設(shè)為0.5;在最后使用Delaunay算法定位時(shí),考慮到可能將相鄰區(qū)域中的特征點(diǎn)視為同一類,所以將篡改的圖像再次使用SLIC超像素分割算法,初始化超像素個(gè)數(shù)為100,300,500和800,分別進(jìn)行篡改定位實(shí)驗(yàn),最終發(fā)現(xiàn)超像素個(gè)數(shù)為100時(shí)邊緣處理的效果最好,如圖8所示。

        Figure 8 Comparison of different number of superpixels圖8 不同超像素個(gè)數(shù)對(duì)比圖

        Figure 9 Detection images of comparative algorithms圖9 算法檢測(cè)結(jié)果對(duì)比

        3.3 結(jié)果分析以及算法評(píng)價(jià)

        通過(guò)數(shù)據(jù)集上的實(shí)驗(yàn)可以看出,本文算法比文獻(xiàn)[10,11]的算法更加精確。圖9為對(duì)比算法的5組結(jié)果圖。表1將本文算法與其他算法進(jìn)行了對(duì)比,可看出本文算法的精度要比文獻(xiàn)[10,11]算法的高。這是因?yàn)槲墨I(xiàn)[10]在特征點(diǎn)提取過(guò)程中使用了固定閾值,從而得到的特征點(diǎn)不充分,提出的密集度特征點(diǎn)密集度評(píng)價(jià)算法相比于文獻(xiàn)[10]得到的特征點(diǎn)更加均勻,另外還考慮到特征點(diǎn)局部的顏色信息,提取局部熵比四元數(shù)Hu矩特征,相比文獻(xiàn)[10,11]只用到的SIFT特征更加魯棒,特征描述符具有更準(zhǔn)確的描述性。在篡改定位階段,從圖9可以看出,在特征點(diǎn)聚類后使用Delaunay算法定位,得到的定位結(jié)果更準(zhǔn)確。因此,對(duì)比這2種算法,本文算法具有更好的匹配結(jié)果和篡改定位效果。

        本文分別測(cè)試了不同縮放、旋轉(zhuǎn)等攻擊下本文算法和文獻(xiàn)[10,11]算法的檢測(cè)結(jié)果,如圖10所示。從圖10可以看出,在應(yīng)對(duì)旋轉(zhuǎn)和縮放攻擊時(shí),相比文獻(xiàn)[10,11]算法,本文算法取得的效果更好。

        Table 1 Detection results of different algorithms表1 不同算法檢測(cè)結(jié)果對(duì)比

        Figure 10 Attack comparison results of different algorithms圖10 不同算法的攻擊效果對(duì)比

        4 結(jié)束語(yǔ)

        為得到均勻的特征點(diǎn),本文提出一種基于密集度的自適應(yīng)特征點(diǎn)提取算法,先通過(guò)自適應(yīng)聚類分割區(qū)域,根據(jù)每個(gè)區(qū)域的特征點(diǎn)密集度動(dòng)態(tài)調(diào)整對(duì)比度閾值,從而得到密集的特征點(diǎn);提出在特征點(diǎn)的周圍計(jì)算局部熵比四元數(shù)Hu矩特征,以增強(qiáng)特征描述的魯棒性,增加特征描述符的顏色信息;針對(duì)特征匹配后存在的誤匹配,通過(guò)估計(jì)仿射變換矩陣去掉錯(cuò)誤匹配;在篡改定位階段,通過(guò)計(jì)算零均值歸一化互相關(guān)系數(shù)去掉孤立點(diǎn),并使用Delaunay算法得到準(zhǔn)確的定位結(jié)果。實(shí)驗(yàn)結(jié)果表明,本文算法不僅可以自適應(yīng)地將圖像分割成不同的區(qū)域,并且在特征提取、特征匹配和篡改定位上都得到了更好的效果。此外,本文算法在應(yīng)對(duì)旋轉(zhuǎn)、縮放攻擊上也都表現(xiàn)出了較好的魯棒性。

        猜你喜歡
        特征區(qū)域檢測(cè)
        “不等式”檢測(cè)題
        “一元一次不等式”檢測(cè)題
        “一元一次不等式組”檢測(cè)題
        如何表達(dá)“特征”
        不忠誠(chéng)的四個(gè)特征
        抓住特征巧觀察
        小波變換在PCB缺陷檢測(cè)中的應(yīng)用
        關(guān)于四色猜想
        分區(qū)域
        基于嚴(yán)重區(qū)域的多PCC點(diǎn)暫降頻次估計(jì)
        亚洲成av人无码免费观看| 午夜福利理论片高清在线观看| 无码手机线免费观看| 亚洲色欲大片AAA无码| 久久深夜中文字幕高清中文 | 色爱无码av综合区| 久久AV老司机精品网站导航 | 白白在线免费观看视频| 无套无码孕妇啪啪| 精品国模一区二区三区| 国内精品一区二区2021在线| 免费人成网站在线播放| 亚洲精品宾馆在线精品酒店| 一二三四在线观看免费视频| 国产在线不卡视频| 日韩在线精品免费观看| 92午夜少妇极品福利无码电影| 国产精品jizz在线观看老狼| 就国产av一区二区三区天堂| 麻豆成人久久精品二区三区免费 | 曰本人做爰又黄又粗视频| 亚洲人成人网毛片在线播放| 成人一区二区三区蜜桃| 久久久久久久久无码精品亚洲日韩| 少妇愉情理伦片丰满丰满午夜| 国产乱色国产精品免费视频| 国产亚洲精品综合在线网站| 内射人妻无套中出无码| 色偷偷av亚洲男人的天堂| 美女裸体无遮挡黄污网站| 国产三级精品三级在线专区| 亚洲成av人片在www| 在线欧美精品二区三区| 国产精品久久熟女吞精| 日日麻批免费40分钟无码| 国产中老年妇女精品| 亚洲一区不卡在线导航| 在线精品首页中文字幕亚洲| 亚洲人午夜射精精品日韩| 国产人成亚洲第一网站在线播放| 亚洲精品中文字幕一二三|