亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于改進(jìn)顯著圖和局部特征匹配的copy-move竄改檢測(cè)

        2023-10-18 23:14:21趙鴻圖周秋豪

        趙鴻圖 周秋豪

        摘 要:檢測(cè)整幅竄改圖像的方法增加了許多非必要的計(jì)算量,為了降低計(jì)算復(fù)雜度和進(jìn)一步提高檢測(cè)精確率,提出了一種基于改進(jìn)顯著圖和局部特征匹配的copy-move竄改檢測(cè)方法。首先,結(jié)合圖像梯度改進(jìn)顯著圖,分離出包含圖像高紋理信息的局部顯著區(qū)域;其次,只對(duì)該局部區(qū)域采用SIFT(scale invariant feature transform)算法提取特征點(diǎn);然后,對(duì)顯著性小的圖像采用密度聚類(lèi)和二階段匹配策略,對(duì)顯著性大的圖像采用超像素分割和顯著塊特征匹配的策略;最后,結(jié)合PSNR和形態(tài)學(xué)操作來(lái)定位竄改區(qū)域。在兩個(gè)公開(kāi)數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn),該方法的平均檢測(cè)時(shí)間小于10 s,平均檢測(cè)精確率大于97%,均優(yōu)于所對(duì)比的方法。實(shí)驗(yàn)結(jié)果表明,該方法能夠大幅縮減檢測(cè)時(shí)間、有效提高檢測(cè)精確率,并且對(duì)幾何變換和后處理操作也都具有較好的魯棒性。

        關(guān)鍵詞:copy-move竄改檢測(cè);圖像顯著性;局部特征;SIFT算法;密度聚類(lèi);超像素分割

        中圖分類(lèi)號(hào):TP391.41?? 文獻(xiàn)標(biāo)志碼:A

        文章編號(hào):1001-3695(2023)09-044-2838-07

        doi:10.19734/j.issn.1001-3695.2023.01.0012

        Copy-move forgery detection based on improved saliency map and local feature matching

        Zhao Hongtu,Zhou Qiuhao

        (School of Physical & Electronic Information,Henan Polytechnic University,Jiaozuo Henan 454003,China)

        Abstract:The method of detecting the whole tampered image increases many unnecessary calculations.In order to reduce the computational complexity and further improve the detection accuracy,this paper proposed a copy-move forgery detection method based on improved saliency map and local feature matching.Firstly,it combined the gradient of image to improve the saliency map,and separated the local salient regions containing high texture information of the image.Secondly,it only used SIFT(scale invariant feature transform) algorithm to extract feature points in this local area.Then,it adopted density clustering and two-stage matching strategy for images with low saliency,and adopted the strategy of superpixel segmentation and salient block feature matching for images with high saliency.Finally,it combined PSNR and morphological operations to locate the tampered area.Experiments on two public datasets show that the average detection time of this method is less than 10 s,and the average detection accuracy is greater than 97%,which are better than the compared methods.The experimental results show that this method can greatly reduce the detection time,effectively improve the detection accuracy,and has good robustness to geometric transformation and post-processing operations.

        Key words:copy-move forgery detection;image saliency;local feature;SIFT algorithm;density clustering;superpixel segmentation

        0 引言

        近年來(lái),Photoshop和Gimp等圖像編輯軟件的應(yīng)用日益廣泛,這使得圖像竄改的成本和門(mén)檻都在變低。如今,圖像竄改在新聞報(bào)道、司法取證、軍事領(lǐng)域和學(xué)術(shù)研究中均有運(yùn)用,并且這些竄改后的圖像能以一種近乎完美的方式呈現(xiàn)出來(lái),以至于肉眼難以發(fā)覺(jué)竄改區(qū)域。這也導(dǎo)致許多不法分子利用這類(lèi)圖像進(jìn)行違法犯罪活動(dòng),如在法庭上作偽證、社交網(wǎng)絡(luò)上傳播誤導(dǎo)性信息等,由此產(chǎn)生的負(fù)面影響引起了社會(huì)的廣泛關(guān)注。因此,有關(guān)圖像真實(shí)性和完整性的取證技術(shù)變得尤為重要。

        copy-move竄改是圖像竄改的一種常見(jiàn)操作[1],它將圖像中的一個(gè)或多個(gè)區(qū)域粘貼到同一幅圖像的其他位置來(lái)隱藏或者復(fù)制感興趣的圖像內(nèi)容,并且在竄改過(guò)程中通常會(huì)伴隨著幾何變換和后處理操作。幾何變換包括旋轉(zhuǎn)和縮放等,后處理操作包括高斯模糊處理、添加高斯白噪聲等。為了檢測(cè)copy-move竄改區(qū)域,學(xué)者們提出了許多copy-move竄改檢測(cè)(copy-move forgery detection,CMFD)的方法,這些方法一般可以分為三種,即基于塊的方法、基于特征點(diǎn)的方法以及基于特征點(diǎn)和塊的方法。其中,前兩種方法有相似的流程,包括圖像特征提取、特征匹配、消除假匹配和定位竄改區(qū)域。

        基于塊的方法是將圖像劃分為重疊的圓形或方形的塊,并從這些塊中提取特征。文獻(xiàn)[2]采用極性復(fù)指數(shù)變換(polar complex exponential transformation,PCET)和奇異值分解(singular value decomposition,SVD)對(duì)圓形塊進(jìn)行特征提取和降維處理,通過(guò)相似閾值估計(jì)進(jìn)行塊匹配。文獻(xiàn)[3]采用離散余弦變換(discrete cosine transform,DCT)和細(xì)胞自動(dòng)機(jī)(cellular automata,CA)進(jìn)行特征提取,通過(guò)補(bǔ)丁匹配算法(patch math,PM)進(jìn)行塊匹配。雖然分塊方法精度很高,但大量的塊特征導(dǎo)致了較高的計(jì)算復(fù)雜度,并且該方法對(duì)幾何變換的魯棒性不強(qiáng)。而基于特征點(diǎn)的方法通過(guò)提取圖像高紋理區(qū)域的特征點(diǎn)和描述局部特征來(lái)彌補(bǔ)塊方法的不足。文獻(xiàn)[4]采用尺度不變特征變換(scale-invariant feature transform,SIFT)提取特征點(diǎn),通過(guò)雙級(jí)過(guò)濾進(jìn)行特征匹配。文獻(xiàn)[5]將加速魯棒特征(speeded up robust features,SURF)應(yīng)用于特征提取。文獻(xiàn)[6]采用AKAZE(accelerated KAZE)提取特征點(diǎn)和相應(yīng)特征,通過(guò)密度聚類(lèi)(density-based spatial clustering of applications with noise,DBSCAN)消除錯(cuò)誤匹配。文獻(xiàn)[7]通過(guò)改進(jìn)SIFT算法得到增強(qiáng)型的RootSIFT算法,再結(jié)合相似性度量來(lái)標(biāo)記竄改區(qū)域。與分塊方法相比,雖然基于特征點(diǎn)的方法檢測(cè)精度會(huì)降低,但由于它避開(kāi)了窮舉搜索,從而降低了運(yùn)算的復(fù)雜度?;谔卣鼽c(diǎn)和塊的方法則結(jié)合了兩者的優(yōu)點(diǎn),為特征提取提供了新的思路。文獻(xiàn)[8]首先提取Harris角點(diǎn),再利用角點(diǎn)周?chē)鍌€(gè)均值生成特征向量來(lái)實(shí)現(xiàn)竄改檢測(cè)。文獻(xiàn)[9]應(yīng)用RANSAC(random sample consensus)算法消除誤匹配,通過(guò)生成仿射變換矩陣來(lái)獲取可疑竄改區(qū)域。文獻(xiàn)[10,11]采用簡(jiǎn)單線性迭代聚類(lèi)(simple linear iterative clustering,SLIC)將圖像分成不規(guī)則和不重疊的超像素塊,通過(guò)對(duì)每個(gè)塊提取特征點(diǎn)來(lái)進(jìn)行檢測(cè)。文獻(xiàn)[12,13]利用SLIC超像素分割和聚類(lèi)分析將圖像劃分為復(fù)雜區(qū)域和平滑區(qū)域進(jìn)行檢測(cè)。文獻(xiàn)[14]使用自適應(yīng)形態(tài)重建(adaptive morphological reconstruction,AMR)算法結(jié)合密度聚類(lèi)算法自適應(yīng)劃分超像素,再在多個(gè)子區(qū)域提取密集特征點(diǎn),然后結(jié)合128維SIFT特征和7維局部四元數(shù)Hu矩特征來(lái)描述特征點(diǎn),使得算法具有較好的魯棒性。

        然而,copy-move竄改通常是對(duì)局部區(qū)域進(jìn)行竄改,但目前的諸多算法在檢測(cè)時(shí)都是對(duì)整幅圖像進(jìn)行特征提取,這增加了許多不必要的計(jì)算量。并且,密度聚類(lèi)和超像素分割結(jié)果受參數(shù)影響較大,當(dāng)竄改區(qū)域和原始區(qū)域相距較近或部分重疊時(shí),算法可能會(huì)失效。針對(duì)上述問(wèn)題,本文提出了一種結(jié)合圖像顯著性的竄改檢測(cè)方法。該方法首先結(jié)合圖像梯度對(duì)顯著圖進(jìn)行改進(jìn),使其更好地提取圖像的高紋理和顯著性區(qū)域,然后根據(jù)顯著性大小來(lái)分配不同的檢測(cè)策略。當(dāng)顯著性小時(shí),只提取顯著區(qū)域特征點(diǎn),然后進(jìn)行粗匹配和密度聚類(lèi),再對(duì)聚類(lèi)結(jié)果使用簇間匹配或簇內(nèi)匹配獲取匹配對(duì);當(dāng)顯著性大時(shí),先采用超像素分割獲取不規(guī)則塊,然后只對(duì)顯著區(qū)域所在的塊進(jìn)行特征點(diǎn)提取,再通過(guò)塊間匹配或塊內(nèi)匹配獲取匹配對(duì)。其中,聚類(lèi)半徑和超像素塊初始尺寸均由顯著性大小確定。最后根據(jù)匹配對(duì)采用峰值信噪比(peak signal to noise ratio,PSNR)和形態(tài)學(xué)操作定位竄改區(qū)域。該方法通過(guò)縮減檢測(cè)區(qū)域,能夠大幅降低計(jì)算復(fù)雜度,并且通過(guò)簇間匹配和塊間匹配能夠提高檢測(cè)的準(zhǔn)確率。

        4 實(shí)驗(yàn)仿真及分析

        4.1 數(shù)據(jù)集和實(shí)驗(yàn)環(huán)境

        實(shí)驗(yàn)測(cè)試樣本選取文獻(xiàn)[20]提出的Dataset數(shù)據(jù)集和文獻(xiàn)[21]中提出的CMH數(shù)據(jù)集。Dataset數(shù)據(jù)集共有90張大小約為1 000×700或700×1 000的竄改圖像,CMH數(shù)據(jù)集共有108張大小從845×634像素(最小)到1 296×972像素(最大)不等的竄改圖像,兩個(gè)數(shù)據(jù)集均包含了旋轉(zhuǎn)和縮放攻擊的copy-move竄改圖像。所有實(shí)驗(yàn)仿真以MATLAB 2019b為實(shí)驗(yàn)平臺(tái),在Intel Core i5-6300HQ CPU @ 2.30 GHz,運(yùn)行內(nèi)存8 GB的個(gè)人電腦中運(yùn)行。

        4.2 方法復(fù)雜度與合理性實(shí)驗(yàn)

        4.2.1 方法復(fù)雜度實(shí)驗(yàn)

        與傳統(tǒng)竄改檢測(cè)方法不同,本文在對(duì)竄改圖像提取特征點(diǎn)時(shí),通過(guò)改進(jìn)的顯著圖獲取圖像的顯著區(qū)域,從而達(dá)到縮小檢測(cè)范圍和減少計(jì)算量的目的。然后只對(duì)顯著區(qū)域進(jìn)行特征點(diǎn)提取和進(jìn)一步的匹配處理。為了驗(yàn)證本文算法的復(fù)雜度,將檢測(cè)整幅圖像的方法和只檢測(cè)顯著區(qū)域的方法進(jìn)行對(duì)比。其中,檢測(cè)整幅圖像的方法是將圖2流程圖中的輸入圖像由改進(jìn)顯著圖替換成原始圖像的灰度圖。部分實(shí)驗(yàn)結(jié)果如圖3所示,對(duì)應(yīng)的檢測(cè)結(jié)果和時(shí)間如表1所示。其中,(a)為原始竄改圖像,(b)為改進(jìn)的顯著圖,(c)為對(duì)整幅圖像提取特征點(diǎn)的結(jié)果,(d)為(c)的特征點(diǎn)匹配結(jié)果,(e)為只提取顯著區(qū)域特征點(diǎn)的結(jié)果,(f)為(e)的特征點(diǎn)匹配結(jié)果。

        通過(guò)圖3和表1發(fā)現(xiàn),對(duì)于人物圖像,本文方法在保持正確匹配對(duì)數(shù)不減少的情況下,特征點(diǎn)提取的總數(shù)量減少了20.18%,檢測(cè)時(shí)間縮短了34.55%。對(duì)于風(fēng)景圖像,本文方法在保持99.05%的正確匹配對(duì)數(shù)情況下,特征點(diǎn)提取的總數(shù)量減少了28.5%,檢測(cè)時(shí)間縮短了45.79%。因此,本文提出的檢測(cè)顯著區(qū)域方法相對(duì)于檢測(cè)整幅圖像的方法而言,能夠有效減少提取特征點(diǎn)的數(shù)量,進(jìn)而大幅縮短檢測(cè)總時(shí)間。因此,本文方法的復(fù)雜度更低。

        4.2.2 方法合理性實(shí)驗(yàn)

        為了驗(yàn)證所提方法的合理性,本文對(duì)上述提取的顯著性區(qū)域繼續(xù)實(shí)驗(yàn),采用兩種策略對(duì)同一幅竄改圖像檢測(cè)結(jié)果進(jìn)行對(duì)比,實(shí)驗(yàn)結(jié)果如表2所示。

        通過(guò)表1和表2發(fā)現(xiàn),對(duì)于顯著性較小的人物圖像,由于提取的特征點(diǎn)總數(shù)量較少,其兩次匹配的時(shí)間要遠(yuǎn)小于劃分超像素塊的時(shí)間,這也導(dǎo)致超像素顯著塊匹配策略的總檢測(cè)時(shí)間更長(zhǎng)。對(duì)于顯著性較大的風(fēng)景圖像,由于提取的特征點(diǎn)數(shù)量較多,導(dǎo)致其密度聚類(lèi)的時(shí)間大幅增加,而劃分超像素塊的時(shí)間反而減少。這是因?yàn)閳D像顯著性越大,劃分后的每個(gè)塊尺寸越大,總塊數(shù)就越少,分割時(shí)間也越短。此外,二階段匹配策略的正確匹配對(duì)數(shù)也要略高于超像素顯著塊匹配策略。

        綜上,本文對(duì)于顯著性小的竄改圖像采用二階段匹配策略能夠在提高匹配對(duì)數(shù)的情況下同時(shí)縮短檢測(cè)時(shí)間;對(duì)于顯著性大的竄改圖像,采用超像素顯著塊匹配策略能夠在對(duì)檢測(cè)精確度影響很小的情況下大幅縮短檢測(cè)時(shí)間。因此,本文方法具有合理性。

        4.3 算法有效性實(shí)驗(yàn)

        本文對(duì)CMH數(shù)據(jù)集中23張和Dataset數(shù)據(jù)集中50張只經(jīng)過(guò)簡(jiǎn)單平移copy-move竄改檢測(cè)的圖像進(jìn)行實(shí)驗(yàn),部分實(shí)驗(yàn)結(jié)果如圖4所示。其中,(a)為原始竄改圖像,(b)為改進(jìn)的顯著圖,(c)為兩種策略的聚類(lèi)結(jié)果和提取顯著區(qū)域超像素特征點(diǎn)結(jié)果,(d)為特征點(diǎn)匹配結(jié)果,(e)為通過(guò)形態(tài)學(xué)操作定位出竄改區(qū)域位置,(f)為竄改圖像真實(shí)的竄改區(qū)域位置。

        根據(jù)圖4可知,由于兩個(gè)公開(kāi)數(shù)據(jù)集中的竄改區(qū)域和原始區(qū)域位置相距較遠(yuǎn),使得檢測(cè)策略均為簇間匹配和塊間匹配。而只有當(dāng)竄改區(qū)域和原始區(qū)域有部分重疊或相距較近時(shí),才會(huì)采用簇內(nèi)匹配和塊內(nèi)匹配的策略。所以,為進(jìn)一步體現(xiàn)算法的有效性,本文在dataset數(shù)據(jù)集中選取20張?jiān)紙D像進(jìn)行近距離或部分重疊竄改,并對(duì)這些竄改圖像進(jìn)行實(shí)驗(yàn),部分檢測(cè)結(jié)果如圖5所示。

        通過(guò)圖4和5的檢測(cè)結(jié)果發(fā)現(xiàn),本文方法能夠根據(jù)竄改圖像的顯著性大小使用不同的檢測(cè)策略,并對(duì)所測(cè)試的簡(jiǎn)單平移copy-move竄改的圖像具有很好的檢測(cè)性能。

        4.4 算法魯棒性實(shí)驗(yàn)

        4.4.1 幾何變換竄改檢測(cè)

        為驗(yàn)證本文方法對(duì)幾何變換竄改的魯棒性,對(duì)CMH數(shù)據(jù)集中25張經(jīng)歷縮放竄改變換的圖像(縮放因子在0.8~1.54)、25張經(jīng)歷旋轉(zhuǎn)竄改變換的圖像(旋轉(zhuǎn)方向在-90°~180°)以及35張同時(shí)經(jīng)歷縮放和旋轉(zhuǎn)的圖像進(jìn)行實(shí)驗(yàn),部分實(shí)驗(yàn)結(jié)果如圖6所示。

        通過(guò)對(duì)比圖6中真值圖像發(fā)現(xiàn),本文檢測(cè)結(jié)果邊緣部分有少數(shù)像素缺失,但是基本能夠還原出竄改區(qū)域的形狀和具體位置。因此,本文算法對(duì)縮放和旋轉(zhuǎn)變換的竄改圖像能夠保持較好的檢測(cè)性能。

        4.4.2 后期處理竄改檢測(cè)

        為驗(yàn)證本文方法對(duì)后期處理竄改的魯棒性,本文對(duì)兩個(gè)數(shù)據(jù)集中的83張簡(jiǎn)單平移竄改圖像進(jìn)行高斯模糊處理和添加高斯白噪聲處理。其中,高斯模糊處理的濾波窗口為3×3,模糊因子分別為f=0.5和f=2;添加噪聲的均值為0,方差分別為v=0.000 5和v=0.001。部分實(shí)驗(yàn)結(jié)果如圖7所示。

        通過(guò)對(duì)比圖7中真值圖像和本文檢測(cè)結(jié)果發(fā)現(xiàn),在檢測(cè)高斯模糊處理的圖像時(shí),本文檢測(cè)方法對(duì)邊緣細(xì)節(jié)的還原能力略微不足,使得邊緣較為平滑,但即使面對(duì)模糊因子較大的高斯模糊處理仍能檢測(cè)出竄改區(qū)域的基本輪廓。此外,在檢測(cè)添加高斯白噪聲的圖像時(shí),對(duì)于方差較大的加噪處理,本文檢測(cè)結(jié)果的邊緣部分會(huì)出現(xiàn)細(xì)微程度的漏檢,存在少量像素缺失的現(xiàn)象,但同樣基本可以檢測(cè)出竄改區(qū)域的形狀和具體位置。綜合來(lái)說(shuō),本文方法對(duì)后期處理竄改檢測(cè)能夠保持良好的檢測(cè)性能,具有較好的魯棒性。

        4.5 算法性能對(duì)比實(shí)驗(yàn)

        為了更好地研究本文方法的性能,將本文方法與同樣基于特征點(diǎn)的新興趣點(diǎn)檢測(cè)方法[22]、采用SLIC超像素分割和聚類(lèi)分析的檢測(cè)方法[13]以及基于密度聚類(lèi)的AMR超像素分割檢測(cè)方法[14]進(jìn)行對(duì)比。采用TRP和FPR來(lái)衡量方法的檢測(cè)性能,其中,TPR是竄改區(qū)域被正確檢測(cè)的概率,F(xiàn)PR是竄改區(qū)域被檢測(cè)為真實(shí)區(qū)域的概率。

        TPR=正確檢測(cè)出來(lái)的竄改像素?cái)?shù)量竄改區(qū)域總像素?cái)?shù)量

        FPR=竄改像素被檢測(cè)為真實(shí)像素的數(shù)量真實(shí)像素總數(shù)量

        在本文采用的兩個(gè)公開(kāi)數(shù)據(jù)集上進(jìn)行驗(yàn)證,并繪制簡(jiǎn)單copy-move、幾何變換與后期處理操作的ROC曲線分別如圖8~10所示。

        通過(guò)圖8發(fā)現(xiàn),四種方法的TPR都在90%以上,并且FPR都小于10%,這表明四種方法對(duì)簡(jiǎn)單copy-move竄改檢測(cè)均有良好的表現(xiàn)。而本文方法在密度聚類(lèi)前后采用的二階段匹配策略能夠更好地消除誤匹配,因此具有更高的TPR和更低的FPR。

        通過(guò)圖9發(fā)現(xiàn),旋轉(zhuǎn)和縮放變換都會(huì)導(dǎo)致檢測(cè)性能降低,但TPR也都保持在85%以上,原因是四種方法提取的特征點(diǎn)特征都是利用它們周?chē)I(lǐng)域內(nèi)穩(wěn)健、不變的特征來(lái)描述的,因此對(duì)幾何變換都有較好的魯棒性。本文增加的簇內(nèi)匹配和塊內(nèi)匹配策略能夠提高檢測(cè)精確率,因此TPR也高于其余三種方法。

        通過(guò)圖10發(fā)現(xiàn),后處理操作會(huì)稍大程度地降低檢測(cè)性能,原因是高斯模糊和添加白噪聲都會(huì)影響特征點(diǎn)提取的數(shù)量和位置,從而增大了定位時(shí)產(chǎn)生的誤差。文獻(xiàn)[22]方法檢測(cè)性能下降最多,原因是過(guò)濾階段未被移除的誤匹配點(diǎn)會(huì)導(dǎo)致迭代擴(kuò)展可疑區(qū)域興趣點(diǎn)過(guò)程的誤差增大。而本文方法在定位時(shí)通過(guò)獲取矩形領(lǐng)域最佳PSNR來(lái)擴(kuò)展可疑區(qū)域,因此具有更好的魯棒性。

        為了驗(yàn)證本文方法在時(shí)間復(fù)雜度上的優(yōu)勢(shì),將數(shù)據(jù)集拆分為顯著性小于等于30%的圖像和顯著性大于30%的圖像,并分別使用四種方法對(duì)同一幅圖像進(jìn)行實(shí)驗(yàn)。各算法的平均檢測(cè)時(shí)間如圖11所示。

        通過(guò)圖11發(fā)現(xiàn),由于本文只對(duì)顯著性區(qū)域進(jìn)行特征提取,并針對(duì)顯著性大小分配不同的檢測(cè)策略,所以大幅縮減了檢測(cè)時(shí)間。文獻(xiàn)[13]雖然也采用了時(shí)間上具有優(yōu)勢(shì)的超像素分割策略,但需要計(jì)算每個(gè)超像素塊的像素均值、標(biāo)準(zhǔn)差以及特征點(diǎn)與塊總像素的比率,并根據(jù)這些參數(shù)利用K-means聚類(lèi)將圖像的超像素劃分為復(fù)雜區(qū)域和平滑區(qū)域分別進(jìn)行檢測(cè),因此大幅增加了時(shí)間開(kāi)銷(xiāo)。文獻(xiàn)[14]的方法在多個(gè)步驟中通過(guò)增加時(shí)間開(kāi)銷(xiāo)來(lái)?yè)Q取檢測(cè)精度,首先在區(qū)域劃分時(shí)使用了密度聚類(lèi)來(lái)對(duì)超像素的顏色矩進(jìn)行聚類(lèi),其次為得到均勻特征點(diǎn),通過(guò)反復(fù)計(jì)算特征點(diǎn)密集度來(lái)動(dòng)態(tài)調(diào)整對(duì)比度閾值,然后在竄改區(qū)域定位時(shí)通過(guò)比較匹配點(diǎn)10×10領(lǐng)域的零均值歸一化互相關(guān)系數(shù)來(lái)去除孤立點(diǎn),最后再次對(duì)原圖使用SLIC超像素分割和K-means聚類(lèi)進(jìn)一步去除孤立點(diǎn),因此該方法的時(shí)間復(fù)雜度較高。文獻(xiàn)[22]提取的新興趣點(diǎn)數(shù)量較大,并且需要經(jīng)過(guò)四次迭代才獲得最終的檢測(cè)結(jié)果,因此在時(shí)間開(kāi)銷(xiāo)上最不具優(yōu)勢(shì)。

        綜上可知,通過(guò)對(duì)比其他三種方法,本文方法對(duì)幾何變換和后期處理的魯棒性更好,并且在檢測(cè)時(shí)間上也更具有優(yōu)勢(shì)。

        5 結(jié)束語(yǔ)

        本文提出了一種基于改進(jìn)顯著圖和局部特征匹配的copy-move竄改檢測(cè)方法。該方法首先利用梯度圖改進(jìn)顯著圖,通過(guò)獲取圖像的顯著性區(qū)域來(lái)縮減檢測(cè)范圍。為減小時(shí)間開(kāi)銷(xiāo),對(duì)顯著性小的圖像采用基于密度聚類(lèi)的二階段匹配策略,對(duì)顯著性大的圖像采用基于超像素分割和顯著塊特征匹配的檢測(cè)策略,并通過(guò)增加簇內(nèi)匹配和塊內(nèi)匹配來(lái)提高方法的檢測(cè)精度,再利用PSNR和形態(tài)學(xué)操作來(lái)定位竄改區(qū)域。最后,在兩個(gè)公開(kāi)數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn)仿真。結(jié)果表明該方法的檢測(cè)精度較高、時(shí)間復(fù)雜度較低,并對(duì)幾何變換和后處理操作都具有較好的魯棒性。然而,雖然本文方法對(duì)竄改視覺(jué)重要區(qū)域的圖像具有較好的檢測(cè)性能,但當(dāng)竄改區(qū)域位于圖像低紋理的平滑區(qū)域時(shí),該方法可能無(wú)法有效定位出完整的竄改區(qū)域。因此,如何進(jìn)一步提高圖像平滑區(qū)域copy-move竄改的檢測(cè)精確度是今后研究工作的方向。

        參考文獻(xiàn):

        [1]Fridrich A J,Soukal B D,Luká A J.Detection of copy-move forgery in digital images[C]//Proc of Digital Forensic Research Workshop.Washington DC:IEEE Computer Society,2003:55-61.

        [2]Wang Yilan,Kang Xiaobing,Chen Yanjun.Robust and accurate detection of image copy-move forgery using PCET-SVD and histogram of block similarity measures[J].Journal of Information Security and Applications,2020,54(21-23):102536.

        [3]Gani G,Qadir F.Copy move forgery detection using DCT,PatchMatch and cellular automata[J].Multimedia Tools and Applications,2021,80:32219-32243.

        [4]Yang Jixiang,Liang Zhiyao,Gan Yanfen,et al.A novel copy-move forgery detection algorithm via two-stage filtering[J].Digital Signal Processing,2021,113(4):103032.

        [5]Xu Bo,Wang Junwen,Liu Guangjie,et al.Image copy-move forgery detection based on SURF[C]//Proc of International Conference on Multimedia Information Networking & Security.Washington DC:IEEE Computer Society,2010:889-892.

        [6]Zhou Xuehua,Shi Qingjie.Multiple copy-move forgery detection based on density clustering[J].Pattern Recognition and Image Analysis,2021,31(1):109-116.

        [7]Sujin J S,Sophia S.Copy-move geometric tampering estimation through enhanced sift detector method[J].Computer Systems Science and Engineering,2023,44(1):157-171.

        [8]趙潔,武斌,張艷.基于Harris興趣點(diǎn)和空域均值信息的圖像復(fù)制粘貼竄改檢測(cè)算法[J].計(jì)算機(jī)應(yīng)用研究,2013,30(9):2791-2794.(Zhao Jie,Wu Bin,Zhang Yan.Detection algorithm of image copy-move forgery based on Harris and spacial average information[J].Application Research of Computers,2013,30(9):2791-2794.)

        [9]王任華,霍宏濤,蔣敏.RANSAC算法在同圖復(fù)制鑒定中的應(yīng)用研究[J].計(jì)算機(jī)應(yīng)用研究,2014,31(7):2209-2212.(Wang Renhua,Huo Hongtao,Jiang Min.Application research of RANSAC algorithm on copy-move forgery detection[J].Application Research of Computers,2014,31(7):2209-2212.)

        [10]Pun Chiman,Yuan Xiaochen,Bi Xiuli.Image forgery detection using adaptive over segmentation and feature point matching[J].IEEE Trans on Information Forensics and Security,2015,10(8):1705-1716.

        [11]Narayanan S S,Gopakumar G.Recursive block based keypoint ma-tching for copy move image forgery detection[C]//Proc of the 11th International Conference on Computing,Communication and Networking Technologies.Washington DC:IEEE Computer Society,2020:1-6.

        [12]Liu Yong,Wang Hongxia,Wu Hanzhou,et al.An efficient copy-move detection algorithm based on superpixel segmentation and Harris key-points[C]//Proc of International Conference on Cloud Computing and Security.Berlin:Springer,2017:61-73.

        [13]Liu Yong,Wang Hongxia,Chen Yi,et al.A passive forensic scheme for copy-move forgery based on superpixel segmentation and K-means clustering[J].Multimedia Tools and Applications,2020,79(1-2):477-500.

        [14]魏偉一,王婉茹,趙毅凡,等.基于區(qū)域劃分和四元數(shù)的彩色圖像復(fù)制粘貼竄改檢測(cè)[J].計(jì)算機(jī)工程與科學(xué),2022,44(7):1256-1264.(Wei Weiyi,Wang Wanru,Zhao Yifan,et al.Color image copy-move forgery detection based on region division and quaternion[J].Computer Engineering and Science,2022,44(7):1256-1264).

        [15]獨(dú)智序,王曉峰.基于穩(wěn)健特征點(diǎn)的圖像copy-move竄改檢測(cè)算法[J].云南大學(xué)學(xué)報(bào):自然科學(xué)版,2019,41(1):61-67.(Du Zhixu,Wang Xiaofeng.Image copy-move tampering detection algorithm based on robust feature points[J].Journal of Yunnan University:Natural Science Edition,2019,41(1):61-67).

        [16]Amerini I,Ballan L,Caldelli R,et al.A SIFT-based forensic method for copy-move attack detection and transformation recovery[J].IEEE Trans on Information Forensics and Security,2011:1099-1110.

        [17]Mohamed A B,Gunasekaran M,F(xiàn)akhry A E,et al.2-levels of clustering strategy to detect and locate copy-move forgery in digital images[J].Multimedia Tools and Applications,2018,6(3):1-19.

        [18]Prakash C S,Panzade P P,Om H,et al.Detection of copy-move forgery using AKAZE and SIFT keypoint extraction[J].Multimedia Tools and Applications,2019(7):23535-23558.

        [19]Achanta R,Shaji A,Smith K,et al.SLIC superpixels compared to state-of-the-art superpixel methods[J].IEEE Trans on Pattern Analysis & Machine Intelligence,2012,34(11):2274-2282.

        [20]Ardizzone E,Bruno A,Mazzola G.Copy-move forgery detection by matching triangles of keypoints[J].IEEE Trans on Information Forensics and Security,2015,10(10):2084-2094.

        [21]Ewerton S,Tiago C,Anselmo F,et al.Going deeper into copy-move forgery detection:exploring image telltales via multi-scale analysis and voting processes[J].Journal of Visual Communication and Image Representation,2015,29:16-32.

        [22]Zandi M,Mahmoudi-Aznaveh A,Talebpour A.Iterative copy-move forgery detection based on a new interest point detector[J].IEEE Trans on Information Forensics and Security,2016,11(11):2499-2512.

        收稿日期:2023-01-03;修回日期:2023-02-14? 基金項(xiàng)目:河南省科技廳科技攻關(guān)和軟科學(xué)項(xiàng)目(192102310446);河南省高?;究蒲袠I(yè)務(wù)費(fèi)專(zhuān)項(xiàng)資金資助項(xiàng)目(NSFRF210406)

        作者簡(jiǎn)介:趙鴻圖(1965-),男(通信作者),河南長(zhǎng)垣人,副教授,碩導(dǎo),博士,主要研究方向?yàn)橹悄苄畔⑻幚?、?shù)字信號(hào)處理等;周秋豪(1997-),男,河南信陽(yáng)人,碩士,主要研究方向?yàn)閳D像處理、智能信息處理等(hao1142055898@163.com).

        2021精品综合久久久久| 欧美精品亚洲精品日韩专区| 亚洲美腿丝袜 欧美另类| 日韩二三区| 一区二区三区国产亚洲网站 | 中字乱码视频| 成人h视频在线观看| 久久半精品国产99精品国产| 亚洲av性色精品国产| 女女同恋一区二区在线观看| 巨茎中出肉欲人妻在线视频| 富婆如狼似虎找黑人老外| 亚洲成AV人国产毛片| 久久精品国产亚洲av麻豆床戏| 亚洲va欧美va日韩va成人网| 亚洲欧美精品aaaaaa片| 无码专区亚洲avl| 国产一级黄色片在线播放| 四虎国产精品永久在线| 国产欧美一区二区精品性色| 亚洲人成网站www| 极品尤物在线精品一区二区三区| av综合网男人的天堂| 亚洲最大天堂无码精品区| 日本精品一区二区在线看| 偷拍美女上厕所一区二区三区| 末成年女a∨片一区二区| 麻豆国产成人精品午夜视频| 亚洲综合精品在线观看中文字幕| 国产在线91精品观看| 岳好紧好湿夹太紧了好爽矜持| 久久精品国产99精品九九| 亚洲精品一区二区三区日韩 | 无码字幕av一区二区三区| 亚洲日韩乱码中文无码蜜桃臀| 亚洲乱码中文字幕综合| 国产一区二区自拍刺激在线观看| 真人与拘做受免费视频| 动漫av纯肉无码av在线播放| 蜜桃视频一区二区三区四| 午夜精品久久久久久99热|