亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于改進(jìn)Deep LabV3+的圖像篡改檢測(cè)技術(shù)

        2022-04-22 11:20:32
        現(xiàn)代計(jì)算機(jī) 2022年3期
        關(guān)鍵詞:特征提取特征區(qū)域

        劉 旭

        (四川大學(xué)網(wǎng)絡(luò)空間安全學(xué)院,成都 610207)

        0 引言

        隨著圖像處理軟件的廣泛應(yīng)用,人們可以在不需要專業(yè)技能的情況下對(duì)圖片進(jìn)行美化與修飾。這類軟件在給人們生活帶來(lái)便利和樂趣的同時(shí),也帶來(lái)了一個(gè)問(wèn)題:圖像篡改?,F(xiàn)有的常用圖像篡改方法有:復(fù)制粘貼、拼接和移除。復(fù)制粘貼是指篡改者復(fù)制圖像中的某一特殊區(qū)域,然后粘貼到這幅圖像的另一個(gè)區(qū)域。由于同一幅圖像中的色彩、亮度等不會(huì)有明顯變化,因此復(fù)制粘貼篡改一般很難被人眼察覺。拼接是指篡改者剪切圖像中的某一區(qū)域,然后粘貼到其他圖像中。由于兩幅圖像間色彩、亮度等的差異,因此拼接篡改區(qū)域和非篡改區(qū)域會(huì)存在明顯的差異,通常篡改者會(huì)使用模糊,壓縮等后處理方式消除這些差異。移除是指篡改者刪除圖像中的某一區(qū)域,然后利用區(qū)域周圍的像素對(duì)刪除區(qū)域進(jìn)行填充。它和復(fù)制粘貼一樣,都是操作同一張圖像,因此篡改區(qū)域很難被人察覺。

        針對(duì)網(wǎng)絡(luò)中篡改圖像泛濫問(wèn)題,學(xué)術(shù)界進(jìn)行了大量的研究。現(xiàn)有的檢測(cè)方法主要分為兩類:基于手工特征提取的傳統(tǒng)檢測(cè)方法和基于深度學(xué)習(xí)的檢測(cè)方法。基于手工特征提取的檢測(cè)方法依賴于人工選擇和提取特征,耗費(fèi)大量的人力、物力和時(shí)間,并且得到的特征向量魯棒性也不夠健壯。深度學(xué)習(xí)不僅能自適應(yīng)從圖像中提取特征,解決了特征工程的局限性,而且提取的特征向量具有更好的表征性,從而能實(shí)現(xiàn)更好的分類效果?,F(xiàn)有的基于深度學(xué)習(xí)的方法雖然在模型的魯棒性和準(zhǔn)確性上有一定程度的優(yōu)化,但深層網(wǎng)絡(luò)中篡改特征丟失,導(dǎo)致現(xiàn)有方法對(duì)小尺度篡改區(qū)域檢測(cè)性能不佳,存在較高的漏報(bào)率,并且連續(xù)降采樣使得特征圖分辨率不斷減小,篡改區(qū)域邊緣特征丟失,導(dǎo)致現(xiàn)有方法無(wú)法精確定位篡改區(qū)域。

        針對(duì)現(xiàn)有主流圖像篡改檢測(cè)方法存在的問(wèn)題,本文提出并實(shí)現(xiàn)了一種改進(jìn)DeepLabV3+算法的圖像篡改檢測(cè)模型。首先基于約束卷積層設(shè)計(jì)了一個(gè)可學(xué)習(xí)多種篡改特征的特征提取器,用于自適應(yīng)提取多種篡改特征;其次使用不同步長(zhǎng)的可分離卷積代替池化層和利用空洞卷積在不改變特征圖大小的同時(shí),擴(kuò)大感受野,提取更有效的篡改特征;利用多級(jí)跳層結(jié)構(gòu)融合低級(jí)特征和高級(jí)特征,精細(xì)化定位區(qū)域;最后利用CBAM關(guān)注篡改特征抑制非篡改特征,減少篡改特征在深層網(wǎng)絡(luò)中消失并且利用ASPP模塊融合不同采樣率的空洞卷積提取的特征,提取多尺度特征,改善了現(xiàn)有模型對(duì)小尺度篡改區(qū)域檢測(cè)不佳的問(wèn)題,提高了檢測(cè)的準(zhǔn)確率。

        1 算法實(shí)現(xiàn)

        本文提出了一種基于改進(jìn)DeepLabV3+的圖像篡改檢測(cè)模型,如圖1所示,模型主要由可學(xué)習(xí)的特征提取器,ASPP模塊和特征融合模塊組成。首先利用可學(xué)習(xí)的特征提取器捕獲由篡改操作導(dǎo)致的相鄰像素之間關(guān)系的變化特征,其次利用ASPP模塊提取多尺度特征以增強(qiáng)對(duì)不同尺度篡改區(qū)域的檢測(cè)性能,然后特征融合模塊融合多級(jí)特征以增強(qiáng)全局特征表示,最后使用SoftMax分類器進(jìn)行逐像素分類,定位篡改區(qū)域。

        圖1 基于改進(jìn)Deep LabV3+的圖像篡改檢測(cè)模型結(jié)構(gòu)

        1.1 可學(xué)習(xí)的特征提取器

        為了抑制圖像的語(yǔ)義信息并自適應(yīng)學(xué)習(xí)豐富的篡改特征,本文基于約束卷積層、空洞卷積和CBAM模塊設(shè)計(jì)了一個(gè)可學(xué)習(xí)的特征提取器。約束卷積層通過(guò)提取像素殘差特征抑制圖像語(yǔ)義信息,將像素殘差輸入到主干網(wǎng)絡(luò)自適應(yīng)學(xué)習(xí)由篡改操作導(dǎo)致相鄰像素之間關(guān)系的變化特征;空洞卷積在不改變特征圖分辨率大小的前提下,擴(kuò)大感受野,保留了更多細(xì)節(jié)特征;CBAM模塊從空間和通道兩個(gè)不同的維度計(jì)算注意力權(quán)重,關(guān)注篡改特征抑制非篡改特征,強(qiáng)化對(duì)篡改特征學(xué)習(xí)能力,緩解篡改特征在深層網(wǎng)絡(luò)中的消散問(wèn)題。

        約束卷積層位于特征提取器的第一層,用于提取像素殘差特征抑制圖像語(yǔ)義信息。特征提取方法公式(1)所述:

        其中上標(biāo)表示CNN的第一層,下標(biāo)表示層內(nèi)的第個(gè)卷積核,卷積核的中心點(diǎn)值為-1,其余所有值之和為1。

        盡管約束卷積層能捕獲豐富的篡改信息,但在DCNN中為了增加感受野并降低計(jì)算量,需要進(jìn)行連續(xù)降采樣操作,這就使得特征圖分辨率降低,損失了一部分細(xì)節(jié)特征,導(dǎo)致現(xiàn)有方法無(wú)法精確定位篡改區(qū)域。為了解決這個(gè)問(wèn)題本文使用空洞卷積在不改變特征圖分辨率大小的前提下,擴(kuò)大感受野,提升了模型的定位精度。在二維空間上對(duì)于位置,在輸入上使用卷積核進(jìn)行卷積,輸出為:

        其中是卷積核大小,速率在采樣點(diǎn)之間引入-1個(gè)零,將感受野從擴(kuò)大到(+(-1)×(-1)),而不增加參數(shù)和計(jì)算量。

        隨著網(wǎng)絡(luò)結(jié)構(gòu)的深入,篡改特征在深層網(wǎng)絡(luò)中的弱化問(wèn)題導(dǎo)致模型漏報(bào)率較高。為了降低漏報(bào)率本文引入CBAM模塊沿著空間和通道兩個(gè)不同的維度依次推斷出注意力權(quán)重,然后與原始特征圖相乘來(lái)對(duì)特征進(jìn)行自適應(yīng)調(diào)整,把更多的權(quán)重分配給篡改特征,達(dá)到關(guān)注篡改特征,抑制非篡改特征的目的,有效緩解了特征弱化問(wèn)題。如圖2所示,其中?表示逐元素相乘。

        圖2 CBAM體系結(jié)構(gòu)

        1.2 ASPP模塊

        為了檢測(cè)出多尺度篡改區(qū)域降低漏報(bào)率,本文利用ASPP模塊來(lái)提取多尺度特征。ASPP模塊采用不同比例的并行空洞卷積來(lái)挖掘不同尺度的篡改信息,如圖3所示。ASPP模塊由四個(gè)并行的空洞卷積和一個(gè)全局最大池化組成,其中四個(gè)并行的空洞卷積分別為1個(gè)1×1的空洞卷積,3個(gè)3×3的空洞卷積,膨脹率分別為(1,6,12,18)。最后將不同尺度的特征圖合并后輸入到特征融合模塊。

        圖3 ASPP體系結(jié)構(gòu)

        1.3 特征融合模塊

        為了捕獲到更豐富的細(xì)節(jié)特征,實(shí)現(xiàn)更精確的定位,本文對(duì)主干網(wǎng)絡(luò)的最后三個(gè)模塊都進(jìn)行跳躍連接。網(wǎng)絡(luò)輸入一張(512,512,3)的圖片,三級(jí)跳層和ASPP模塊的輸出分別為:(128,128,256)、(64,64,256)、(32,32,728)和(32,32,1280)。融合模塊如圖4所示,由于這些特征中包含大量的通道,使網(wǎng)絡(luò)訓(xùn)練變得更加困難,所以分別對(duì)這四個(gè)特征進(jìn)行1×1的卷積降低通道數(shù)。然后對(duì)后面三個(gè)特征分別進(jìn)行2倍、4倍和4倍雙線性上采樣得到相同的特征大小,接著將這4個(gè)相同大小的特征圖拼接在一起。拼接后,使用3×3的卷積來(lái)細(xì)化這些特征,然后進(jìn)行4倍雙線性上采樣還原回輸入特征圖大小。最后使用SoftMax逐像素進(jìn)行分類。

        圖4 特征融合模塊結(jié)構(gòu)

        2 實(shí)驗(yàn)

        2.1 實(shí)驗(yàn)環(huán)境

        為了使網(wǎng)絡(luò)具有較強(qiáng)的泛化能力,本文選擇四個(gè)公開數(shù)據(jù)集大約50 K篡改圖像作為網(wǎng)絡(luò)訓(xùn)練集,每個(gè)數(shù)據(jù)集都提供篡改圖片和二進(jìn)制掩碼,具體細(xì)節(jié)如表1所示。

        表1 訓(xùn)練數(shù)據(jù)集信息

        表1中篡改方式一列中C表示復(fù)制粘貼篡改,S表示拼接篡改。表二中R表示移除篡改。

        為了證明提出的篡改檢測(cè)方法的通用性,本文選擇了四個(gè)公開可用的數(shù)據(jù)集作為測(cè)試數(shù)據(jù) 集:NIST16、CASIA、COLUMBIA和COVERAGE數(shù)據(jù)集,具體細(xì)節(jié)如表2所示。

        表2 測(cè)試數(shù)據(jù)集信息

        表2中CASIA數(shù)據(jù)集是指:CASIA 1.0數(shù)據(jù)集有921張圖片,CASIA 2.0有5123張圖片。

        為了在測(cè)試數(shù)據(jù)集上微調(diào)模型,本文參考[1]對(duì)測(cè)試數(shù)據(jù)集進(jìn)行劃分。CASIA 2.0用于訓(xùn)練,CASIA1.0用于測(cè)試,COLUMBIA僅用于測(cè)試,具體細(xì)節(jié)如表3所示。

        表3 四個(gè)標(biāo)準(zhǔn)數(shù)據(jù)集訓(xùn)練和測(cè)試集劃分

        本文在tensorflow平臺(tái)上實(shí)現(xiàn)了基于改進(jìn)DeepLabV3+的圖像篡改檢測(cè)模型。在模型中,首先將所有圖像調(diào)整為512×512×3的標(biāo)準(zhǔn)尺寸作為網(wǎng)絡(luò)的輸入,然后使用均值為0,方差為0.01的高斯分布初始化網(wǎng)絡(luò)權(quán)重,接著使用Adam優(yōu)化器進(jìn)行訓(xùn)練,初始學(xué)習(xí)率為1e-3,使用交叉熵記錄模型的損失,在訓(xùn)練過(guò)程中測(cè)試集損失兩次不下降就將學(xué)習(xí)率降低為原來(lái)的0.1倍。本文的所有實(shí)驗(yàn)均在NVIDIA GTX 1080 Ti GPU上進(jìn)行。

        2.2 實(shí)驗(yàn)結(jié)果分析

        本文在像素級(jí)別使用查準(zhǔn)率(precision)、召回率(recall)和1分?jǐn)?shù)來(lái)評(píng)估實(shí)驗(yàn)性能,將提出的方法與現(xiàn)有的基準(zhǔn)模型進(jìn)行比較,這些基準(zhǔn)模型包括傳統(tǒng)的無(wú)監(jiān)督方法ELA和NOI1和最 新 的 基 于DNN的 方 法:HLED、Man?TraNet和RGB-N。實(shí)驗(yàn)結(jié)果如表4所示。

        表4 四個(gè)標(biāo)準(zhǔn)數(shù)據(jù)集上precision比較

        表4、表5和表6分別展示了本文方法與基準(zhǔn)方法在四個(gè)標(biāo)準(zhǔn)數(shù)據(jù)上precision、recall和1的比較,其中DLV3+表示基于DeepLabV3+的篡改檢測(cè)方法。上述結(jié)果中ELA、NOI1、HLED和ManTraNet是運(yùn)行代碼后的到的結(jié)果,RGB-N是直接從原文復(fù)制而來(lái)。

        表5 四個(gè)標(biāo)準(zhǔn)數(shù)據(jù)集上recall比較

        表6 四個(gè)標(biāo)準(zhǔn)數(shù)據(jù)集上F1分?jǐn)?shù)比較

        從實(shí)驗(yàn)結(jié)果可以發(fā)現(xiàn),基于深度學(xué)習(xí)的檢測(cè)方法明顯優(yōu)于基于手工特征的傳統(tǒng)檢測(cè)方法,如ELA,NOI1。這是因?yàn)閭鹘y(tǒng)的檢測(cè)方法需要人工選擇和提取特征,這些特征都傾向于檢測(cè)單一篡改類型,并且模型的準(zhǔn)確率依賴于特征工程。本文提出的模型優(yōu)于現(xiàn)有的基于深度學(xué)習(xí)的方法,如:HLED,RGB-N和ManTraNet。這是因?yàn)镠LED利用重采樣特征、RGB-N利用噪聲域特征捕獲篡改區(qū)域和非篡改區(qū)域不一致,這些手工設(shè)計(jì)特征和傳統(tǒng)檢測(cè)類似都傾向于檢測(cè)單一篡改類型。與RGB-N相比本文提出的模型在四個(gè)公開數(shù)據(jù)集上1分?jǐn)?shù)提高了0.092、0.234、0.091和0.238,增長(zhǎng)率分別為12.7%、57.4%、13.1%和54.5%。

        圖5展示了本文提出的方法與基準(zhǔn)方法在部分測(cè)試數(shù)據(jù)集上的篡改區(qū)域定位圖。其中R表示移除篡改、S表示拼接篡改、C表示復(fù)制粘貼篡改,圖像中黑色像素表示真實(shí)區(qū)域,白色像素表示篡改區(qū)域。從實(shí)驗(yàn)結(jié)果可知本文提出的方法不僅能有效檢測(cè)出移除、拼接和復(fù)制粘貼三種篡改類型的圖像,而且能更精確定位篡改區(qū)域,最后一組圖像說(shuō)明了本文提出的方法適用于小篡改區(qū)域和多篡改區(qū)域的檢測(cè)。

        圖5 測(cè)試數(shù)據(jù)集上篡改區(qū)域定位圖

        3 結(jié)語(yǔ)

        本文提出了一種基于改進(jìn)DeepLabV3+的圖像篡改檢測(cè)模型。首先可學(xué)習(xí)的特征提取器能自適應(yīng)從圖像中提取多種篡改特征;其次利用CBAM模塊關(guān)注篡改特征抑制非篡改特征,緩解深層網(wǎng)絡(luò)中篡改特征消失問(wèn)題,利用ASPP模塊提取多尺度篡改特征;最后利用特征融合模塊融合低級(jí)特征和高級(jí)特征獲得更精細(xì)化的定位結(jié)果。在幾個(gè)公開數(shù)據(jù)集上結(jié)果表明,本文提出的方法優(yōu)于現(xiàn)有的主流方法。

        猜你喜歡
        特征提取特征區(qū)域
        如何表達(dá)“特征”
        基于Gazebo仿真環(huán)境的ORB特征提取與比對(duì)的研究
        電子制作(2019年15期)2019-08-27 01:12:00
        不忠誠(chéng)的四個(gè)特征
        抓住特征巧觀察
        一種基于LBP 特征提取和稀疏表示的肝病識(shí)別算法
        關(guān)于四色猜想
        分區(qū)域
        基于嚴(yán)重區(qū)域的多PCC點(diǎn)暫降頻次估計(jì)
        基于MED和循環(huán)域解調(diào)的多故障特征提取
        線性代數(shù)的應(yīng)用特征
        河南科技(2014年23期)2014-02-27 14:19:15
        亚洲综合自拍| 女人张开腿让男人桶爽| 被三个男人绑着躁我好爽视频| 无码国产精品一区二区vr老人| 久久久久成人精品免费播放| 亚洲中文高清乱码av中文| 亚洲免费观看视频| 中文字幕一区二区三区日韩精品| 日韩一区二区肥| 成人av在线免费播放| 人妻夜夜爽天天爽三区丁香花| 国产成人一区二区三区影院动漫 | 久久九九有精品国产尤物| 国产女主播在线免费观看| 亚洲高清三区二区一区| 国语对白做受xxxxx在线| 人妻少妇精品无码专区二| 国产一区不卡视频在线| 日韩少妇人妻中文字幕| 国产精品_国产精品_k频道| 日韩精品视频av在线观看| 国产成人综合精品一区二区| 中国丰满人妻videoshd| 一个人看的www免费视频中文| 甲状腺囊实性结节三级| 中文字幕日韩精品人妻久久久| 欧美老妇交乱视频在线观看| 色婷婷综合中文久久一本| 97av在线播放| 国产视频激情在线观看| 中文字幕乱码亚洲精品一区| 欧美日韩色| 国产成人高清视频在线观看免费| 性色av一二三天美传媒| 在线亚洲人成电影网站色www| 美女熟妇67194免费入口| 国产在线一区二区av| 曰本人做爰又黄又粗视频| 亚洲区日韩精品中文字幕| 精品国产av一区二区三四区| 内射口爆少妇麻豆|