亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        UMTransNet:結(jié)合U?Net和多尺度感知Transformer的圖像拼接定位方法

        2025-01-06 00:00:00張維何月順謝浩浩楊安博楊超呂熊
        現(xiàn)代電子技術(shù) 2025年1期

        摘" 要: 當(dāng)前基于深度學(xué)習(xí)的圖像拼接定位方法大多只關(guān)注深層次特征,且感受野有限,忽略了淺層次特征,影響圖像拼接定位的準(zhǔn)確性。針對(duì)上述問題,文中提出一種結(jié)合改進(jìn)U?Net和多尺度多視角Transformer的圖像拼接定位網(wǎng)絡(luò)UMTransNet。改進(jìn)U?Net模型的編碼器,將編碼器中的最大池化層替換成卷積層,防止淺層次特征的流失;將多尺度多視角Transformer嵌入到U?Net的跳躍連接中,Transformer的輸出特征與U?Net的上采樣特征進(jìn)行有效融合,實(shí)現(xiàn)深層次特征與淺層次特征的平衡,從而提高圖像拼接定位的準(zhǔn)確性。通過可視化檢測結(jié)果圖顯示,所提方法在定位拼接篡改區(qū)域方面表現(xiàn)得更加出色。

        關(guān)鍵詞: 數(shù)字圖像取證; 圖像拼接定位; U?Net; 多尺度感知; 自注意力機(jī)制; 交叉注意力機(jī)制

        中圖分類號(hào): TN911.73?34; TP391" " " " " " " " "文獻(xiàn)標(biāo)識(shí)碼: A" " " " " " " " " " 文章編號(hào): 1004?373X(2025)01?0033?07

        UMTransNet: Image stitching and localization method combining U?Net"and multi?scale perception Transformer

        ZHANG Wei, HE Yueshun, XIE Haohao, YANG Anbo, YANG Chaowen, Lü Xiong

        (School of Information Engineering, East China University of Technology, Nanchang 330013, China)

        Abstract: Most of the current deep learning based image stitching and localization methods are primarily focused on deep?level features with limited receptive fields, thereby overlooking shallow?level features, which adversely affects the accuracy of image stitching and localization. In view of the above, a novel image stitching and localization network UMTransNet which combines an improved U?Net architecture with a multi?scale multi?view Transformer is proposed. The encoder of the U?Net model is enhanced, and the maximum pooling layer of the encoder is replaced with convolutional layers to prevent the loss of shallow?level features. Additionally, the multi?scale multi?view Transformer is embedded into the skip connections of the U?Net, which facilitates the effective fusion of the output features of the Transformer and the upsampled features of the U?Net, so as to achieve a balance between deep?level and shallow?level features, thereby enhancing the accuracy of image stitching and localization. The results of visualization detection graph show that the proposed methed is more excellent in locating stitched tampered regions.

        Keywords: digital image forensics; image stitching localization; U?Net; multi?scale perception; self?attention mechanism; cross?attention mechanism

        0" 引" 言

        數(shù)字圖像[1]處理技術(shù)的進(jìn)步使得圖像成為重要的信息記錄工具,但同時(shí)也帶來了圖像篡改的挑戰(zhàn)。圖像拼接[2]通常是指將外來圖片插入到原圖片中,拼接操作[3]引起的細(xì)微變化可以通過基于物理學(xué)和統(tǒng)計(jì)學(xué)的方法追溯?;谖锢韺W(xué)的方法追溯“場景級(jí)別”留下的不一致性,文獻(xiàn)[4]提出可操作金字塔變換結(jié)合局部二值模式和支持向量機(jī)的圖像偽造檢測方法,以及結(jié)合SPT和YCbCr色彩空間的技術(shù)提高檢測性能。基于統(tǒng)計(jì)學(xué)的方法專注于“信號(hào)級(jí)”的偽影,文獻(xiàn)[5]將從小波子帶特征函數(shù)中提取的特征與從DCT域中提取的特性相結(jié)合,以獲得用于支持向量機(jī)(SVM)分類的判別特征向量。其中通常需要一些必要的先驗(yàn)知識(shí),在實(shí)際應(yīng)用中,這就要求涉及的剪接檢測方案更具通用性,更少地依賴于特定的假設(shè)。

        近年來,深度神經(jīng)網(wǎng)絡(luò)[6]已被證明能夠表征來自高維感官輸入的復(fù)雜統(tǒng)計(jì)依賴性,并有效地學(xué)習(xí)其分層表示,使它們能夠很好地推廣到各種計(jì)算機(jī)視覺任務(wù)中,包括圖像分類、對(duì)象跟蹤等。目前,大多數(shù)深度學(xué)習(xí)方法都利用卷積神經(jīng)網(wǎng)絡(luò)提取特征,文獻(xiàn)[7]提出一種雙流的Faster R?CNN網(wǎng)絡(luò),其目的是從圖像和噪聲中提取特征,并通過雙線性池化層融合來自兩個(gè)流的特征。文獻(xiàn)[8]提出一種高置信度操作定位體系結(jié)構(gòu),利用重采樣特征、長短期記憶(LSTM)單元和編解碼器網(wǎng)絡(luò)將被操作區(qū)域與非被操作區(qū)域分割出來。但由于卷積操作的感受野有限,僅能考慮圖像局部區(qū)域,難以捕捉遠(yuǎn)距離像素之間的關(guān)聯(lián)。文獻(xiàn)[9]設(shè)計(jì)了一種跳躍架構(gòu)來利用低級(jí)別的高分辨率特征,并對(duì)不同的CNN架構(gòu)[9?10]進(jìn)行了測試。文獻(xiàn)[11]用自然卷積保持更高分辨率的特征映射,文獻(xiàn)[12]用可學(xué)習(xí)的反卷積操作恢復(fù)空間信息。但是,在進(jìn)行特征融合時(shí)沒有考慮特征冗余和特征貢獻(xiàn),簡單的將特征進(jìn)行合并不利于發(fā)揮特征的互補(bǔ)性,這將導(dǎo)致檢測效果受到限制。

        為了克服上述限制,本文提出一種U型拼接篡改檢測網(wǎng)絡(luò)UMTransNet,該網(wǎng)絡(luò)基于改進(jìn)的U?Net結(jié)構(gòu)、多尺度多視角Transformer技術(shù)和交叉注意力特征融合方法。UMTransNet的U形結(jié)構(gòu)使其能夠有效捕捉目標(biāo)的細(xì)節(jié)和邊界,同時(shí),采用Transformer捕捉跳躍連接傳遞的特征之間的內(nèi)部相關(guān)性,利用交叉注意力特征融合方法將Transformer特征與上采樣特征進(jìn)行融合,以確保冗余信息不會(huì)影響網(wǎng)絡(luò)的學(xué)習(xí)效果。

        1" 圖像拼接定位模型

        1.1" 改進(jìn)的U?Net結(jié)構(gòu)

        傳統(tǒng)的U?Net[13]網(wǎng)絡(luò)由收縮路徑和對(duì)稱擴(kuò)展路徑組成,本文改進(jìn)了傳統(tǒng)的U?Net結(jié)構(gòu)用于圖像拼接定位檢測,使用卷積層代替最大池化層,由于卷積層相比最大池化層能夠?qū)W習(xí)到更具判別性的特征表示,因此本文提出的網(wǎng)絡(luò)模型中采用了卷積核大小設(shè)置為2×2、步長設(shè)置為2的卷積層,代替?zhèn)鹘y(tǒng)的最大池化層完成特征圖下采樣的操作。最大池化層雖然可以減小特征圖尺寸、降低計(jì)算量,但其過于簡單的池化方式會(huì)導(dǎo)致一些細(xì)節(jié)信息的丟失。而卷積層通過可學(xué)習(xí)的卷積核和非線性激活函數(shù),可以自動(dòng)學(xué)習(xí)輸入數(shù)據(jù)更深層次的抽象表示,從而挖掘出更富有區(qū)分能力的特征。為了加速訓(xùn)練收斂、提高模型泛化性能,本文在網(wǎng)絡(luò)中每個(gè)卷積層的輸出后接入了批量歸一化層。這有助于緩解一些訓(xùn)練時(shí)常見的梯度消失或梯度爆炸問題,從而加快收斂速度。因此,通過引入卷積下采樣層和BN層,不僅可以更好地捕獲特征信息,還能顯著提升模型的訓(xùn)練效率和泛化水平。U?Net下采樣模塊如圖1所示。

        1.2" 多尺度多視角Transformer

        為了解決U?Net的跳躍連接問題,本文改進(jìn)了多尺度多視角Transformer模型MMViT,如圖2所示,它將多尺度特征圖和多視角編碼引入Transformer模型。該模型對(duì)不同視圖進(jìn)行編碼,并建立多個(gè)通道分辨率特征階段,以同時(shí)處理多個(gè)視圖。在每個(gè)尺度階段,使用交叉注意力塊來跨視圖融合信息,從而使MMViT模型能夠獲取不同分辨率的復(fù)雜高維表征。

        每個(gè)自注意力塊結(jié)構(gòu)如圖3所示,輸入視圖[X]通過單獨(dú)的線性層生成[Q]、[K]、[V],并對(duì)其進(jìn)行池化操作生成[Q]、[K]、[V]。池化操作[P=?;θ]使用具有參數(shù)集(卷積核,步幅,填充)的卷積運(yùn)算實(shí)現(xiàn),可以表示為:

        [PoolingAttention?=" " " " " " " SoftmaxPQ;θQPTK;θKdPV;θV] (1)

        交叉注意力塊用于在每個(gè)尺度階段合并來自不同視圖的信息。為了充分利用縮放到較低分辨率之前學(xué)到的各個(gè)視圖中的信息,交叉注意力塊位于自注意力塊之前。交叉注意力塊的結(jié)構(gòu)在圖4中詳細(xì)呈現(xiàn)。與自注意力塊類似,首先輸入視圖通過線性層和池化注意力層傳遞輸入視圖,生成[Qi]、[Ki]、[Vi]。隨后沿著時(shí)間和空間維度連接所有[Qi]、[Ki]、[Vi],形成交叉注意力的[Q]、[K]、[V]。交叉池化注意力表達(dá)式為:

        [CrossPoolingAttention?=Softmaxi=0NpQi;θQii=0NpTKi;θKidi=0NpVi;θVi] (2)

        式中:[i=0N表示連接操作],[N]是視圖的數(shù)量。交叉注意力機(jī)制用于獲取全局上下文信息,并將其在每個(gè)視圖之間的信息合并。在注意力機(jī)制之后,輸出特征被分離為各個(gè)視圖,以備后續(xù)使用。

        1.3" 通道交叉注意力(CCA)特征融合模塊

        為了更好地融合Transformer特征和上采樣特征,本文引入一種通道級(jí)交叉注意力模塊,具體結(jié)構(gòu)如圖5所示。該模塊能夠引導(dǎo)信息過濾,消除與解碼器特征之間的歧義。它將第[i]層Transformer輸出[Oi∈RC×H×W]和第[i]層解碼器輸出[Di∈RC×H×W]作為通道級(jí)交叉注意力的輸入,并通過全局平均池化(GAP)層進(jìn)行空間壓縮,產(chǎn)生向量[GX=1H×Wi=1Hj=1WXki, j]。本文使用這個(gè)操作嵌入全局空間信息,然后生成注意力掩碼:

        [Mi=L1?GOi+L2?GDi] (3)

        式中:[L1∈RC×C]和[L2∈RC×C]是兩個(gè)線性層的權(quán)重。得到的向量用于重新激活[Oi],即[Oi=σMi?Oi],其中,[σMi]表示通道的重要性。最后,被掩蔽的[Oi]與第[i]層解碼器特征連接在一起。

        1.4" 圖像拼接定位模型構(gòu)建

        目前基于Transformer的圖像篡改方法主要集中在改進(jìn)U?Net的編碼器。文獻(xiàn)[14]指出,由于較淺層的編碼器和解碼器之間存在語義差距,淺層特征的語義信息較少,可能會(huì)通過簡單的跳躍連接降低最終性能。本文在U?Net編碼器和解碼器之間引入一個(gè)Transformer模塊來構(gòu)建UMTransNet框架,如圖6所示,以更好地融合編碼器特征并減少語義間隙。

        具體來說,改進(jìn)傳統(tǒng)U?Net結(jié)構(gòu)以適應(yīng)圖像拼接檢測任務(wù),引入一種多尺度多視角Transformer來代替U?Net中的跳躍連接,并利用交叉注意力特征融合模塊融合Transformer特征與上采樣特征。

        2" 實(shí)驗(yàn)結(jié)果及分析

        2.1" 實(shí)驗(yàn)設(shè)置

        2.1.1" 實(shí)驗(yàn)數(shù)據(jù)

        本研究使用兩個(gè)公開數(shù)據(jù)集CASIA1.0數(shù)據(jù)集[15]和CASIA2.0數(shù)據(jù)集[15]以及參照文獻(xiàn)[16]中的合成方法,從COCO數(shù)據(jù)集[17]中提取的對(duì)象拼接到無操作的NIST16數(shù)據(jù)集上的合成數(shù)據(jù)集。訓(xùn)練集和測試集的配置見表1。圖7展示了部分拼接樣本及其對(duì)應(yīng)的真實(shí)掩模,其中白色區(qū)域表示拼接區(qū)域。

        2.1.2" 實(shí)驗(yàn)配置

        實(shí)驗(yàn)采用的配置如下:實(shí)驗(yàn)平臺(tái)為Windows 11,64位操作系統(tǒng);CPU為i5?12490F;GPU為NVIDIA GeForce RTX 3060,12 GB顯存;計(jì)算機(jī)運(yùn)行內(nèi)存為32 GB。CUDA版本為11.8;Python版本為3.9;PyTorch版本為2.0.1。采用自適應(yīng)矩陣(Adaptive Moment Estimation, Adam)作為優(yōu)化器,學(xué)習(xí)率初始值設(shè)定為[1×10-6],經(jīng)過500輪訓(xùn)練后逐步調(diào)整為[1×10-8],批尺寸大小為8,并進(jìn)行總共1 000輪訓(xùn)練。在最終階段,本文選擇在訓(xùn)練集上達(dá)到最高[F1]?Score的模型進(jìn)行測試。

        2.1.3" 評(píng)價(jià)指標(biāo)

        實(shí)驗(yàn)旨在識(shí)別并準(zhǔn)確定位圖像中的篡改拼接部分。本文以[F1]?Score和交并比(IoU)作為評(píng)價(jià)指標(biāo),用于評(píng)估方法的性能。所有的評(píng)價(jià)指標(biāo)都是基于像素級(jí)別的,計(jì)算時(shí)將檢測結(jié)果圖[Ma]和實(shí)際篡改區(qū)域圖[Ga]進(jìn)行對(duì)比。[F1]?Score的計(jì)算公式如下:

        [F1?Score=2×precision×recallprecision+recall=2?TP2?TP+FP+FN] (4)

        式中:[precision=TPTP+FP];[recall=TPTP+FN];TP代表正確檢測的篡改區(qū)域;FP代表錯(cuò)誤檢測的非篡改區(qū)域;FN代表錯(cuò)誤檢測的篡改區(qū)域;[F1]?Score是精確度和召回率的調(diào)和平均,取值范圍介于0~1之間,較高的[F1]?Score表示更好的檢測結(jié)果。交并比(IoU)用于評(píng)估算法性能,通過計(jì)算預(yù)測框與實(shí)際目標(biāo)框的交集與并集的比值來衡量,公式如下,較大的IoU表示更好的檢測結(jié)果。

        [IoU=TPTP+FP+FN] (5)

        2.2" 消融實(shí)驗(yàn)

        本文研究UMTransNet中各個(gè)模塊包括改進(jìn)U?Net、多尺度多視角Transformer(MMViT)、交叉注意力特征融合模塊CCA對(duì)最終檢測定位性能的影響。表2給出了各個(gè)方案的拼接檢測結(jié)果。從表2可以看出,單一的改進(jìn)對(duì)模型的整體性能提升有限,這是因?yàn)閱我桓倪M(jìn)在某些方面帶來改善,但在其他方面會(huì)引入負(fù)面影響,導(dǎo)致整體提升性能有限。本文將各個(gè)模塊進(jìn)行結(jié)合以獲得更好的定位性能,改進(jìn)U?Net能夠提升對(duì)復(fù)雜圖形的特征提取能力,相較于傳統(tǒng)U?Net在圖像篡改檢測任務(wù)中更加具有優(yōu)勢,而MMViT能夠同時(shí)處理輸入的不同分辨率的多個(gè)視角,在每個(gè)尺度階段獲取多分辨率的時(shí)間上下文,從而融合編碼器的多尺度特征,從整體上有效地探索足夠的信息,而CCA能夠引導(dǎo)MMViT特征與解碼器的特征進(jìn)行更有效的融合,從而消除解碼器與MMViT之間的語義差距,進(jìn)一步提升模型的性能。

        2.3" 對(duì)比實(shí)驗(yàn)

        本文分別與其他3種典型方法進(jìn)行對(duì)比,其均為基于深度學(xué)習(xí)的檢測方法,對(duì)比方法包括:基于環(huán)形殘差U形網(wǎng)絡(luò)的拼接定位網(wǎng)絡(luò)RRU?Net[18];基于處理痕跡的篡改檢測網(wǎng)絡(luò)ManTra?Net[19];基于多任務(wù)學(xué)習(xí)的注意力網(wǎng)絡(luò)圖像篡改檢測方法SE?Network[20]。具體結(jié)果如表3所示。

        從表3可以看出,本文方法比其他方法表現(xiàn)出了更好的性能。這是因?yàn)楸疚姆椒軌蛴行Р蹲捷斎胄蛄械拈L距離依賴,通過交叉注意力協(xié)作學(xué)習(xí)來有效融合U?Net跳躍連接中存在尺度語義差距的多尺度特征,在不同層次的特征表示之間進(jìn)行有效的信息交流和整合,以達(dá)到從整體上有效地探索足夠的信息,并解決復(fù)雜的尺度變化問題。不僅能夠從局部深層次地關(guān)注圖像特征,更能夠從全局上獲取圖像特征。同時(shí),從表3可以發(fā)現(xiàn),所提方法在合成數(shù)據(jù)集上比公共數(shù)據(jù)集表現(xiàn)得更好,這是因?yàn)楹铣蓴?shù)據(jù)集的規(guī)模要遠(yuǎn)大于公共數(shù)據(jù)集,這使得模型能夠從圖像中獲取到更多的特征。

        圖8為各方法的可視化結(jié)果圖,由圖8可知,本文提出的UMTransNet在拼接區(qū)域的定位上表現(xiàn)更佳。

        2.4" 魯棒性實(shí)驗(yàn)

        為了掩蓋篡改痕跡,可以對(duì)圖像進(jìn)行后處理。本文將測試所提出的方法對(duì)JPEG壓縮和高斯濾波處理的魯棒性。在實(shí)驗(yàn)中,采用RRU?Net[18]和SE?Network[20]進(jìn)行比較。不同方法對(duì)JPEG壓縮和高斯濾波兩種后處理操作的拼接圖像的實(shí)驗(yàn)結(jié)果([F1]?Score)分別如圖9、圖10所示。

        拼接后的圖像可以通過JPEG壓縮導(dǎo)致圖像質(zhì)量損失和篡改區(qū)域的不可逆變化。從圖9可見,雖然RRU?Net對(duì)JPEG壓縮的抵抗力相對(duì)較強(qiáng),但在拼接區(qū)域的整體定位方面并未達(dá)到理想水平。隨著質(zhì)量因子的降低,不僅RRU?Net的[F1]?Score較低,其他方法也都顯示出了性能下降的趨勢。

        這表明壓縮質(zhì)量的降低對(duì)于拼接區(qū)域定位任務(wù)的影響是普遍存在的,而非特定于某一種方法。然而,盡管所有方法在一定程度上都存在性能下降的問題,但在對(duì)比中,本文提出的方法在拼接區(qū)域定位任務(wù)上表現(xiàn)出了更為出色的性能。這是因?yàn)楸疚姆椒ㄔ谔幚砥唇訁^(qū)域時(shí)具有更好的特征提取能力和更準(zhǔn)確的邊界檢測。因此,盡管存在壓縮引起的性能下降問題,但本文方法在應(yīng)對(duì)這一挑戰(zhàn)時(shí)展現(xiàn)出了更高的魯棒性和準(zhǔn)確性,為拼接圖像處理提供了一種可靠的解決方案。

        高斯濾波常用于處理拼接圖像的邊緣部分。在圖10中,本文對(duì)比了三種不同的方法,并觀察到它們都對(duì)高斯濾波的變化相當(dāng)敏感。隨著高斯濾波標(biāo)準(zhǔn)差的增加,與其他兩種方法相比,本文提出的方法在精度下降方面的速度較為緩慢。這表明本文方法在面對(duì)高斯濾波時(shí)能夠更好地保持穩(wěn)健性和準(zhǔn)確性。因此,本文方法在高斯濾波下表現(xiàn)出更高的魯棒性,這意味著即使在較大的濾波范圍內(nèi),本文方法仍能夠保持相對(duì)穩(wěn)定的性能,這對(duì)于實(shí)際應(yīng)用中的圖像處理任務(wù)是非常重要的。

        從上述實(shí)驗(yàn)結(jié)果可以看出,JPEG壓縮和高斯濾波處理兩種后處理操作都對(duì)實(shí)驗(yàn)結(jié)果產(chǎn)生了影響,這是因?yàn)檫@兩種處理會(huì)使圖像細(xì)節(jié)退化,從而影響了篡改痕跡,但總體而言,本文方法在檢測和定位拼接區(qū)域時(shí)表現(xiàn)出了最高的準(zhǔn)確性和可靠性,這證明所提方法具有較好的魯棒性。

        3" 結(jié)" 論

        本文方法利用改進(jìn)的U?Net作為主干網(wǎng)絡(luò),將多尺度多視角Transformer模塊嵌入U(xiǎn)?Net的跳躍連接部分,并使用交叉注意力特征融合模塊CCA將上采樣特征與Transformer傳遞的特征進(jìn)行融合,可以有效提高網(wǎng)絡(luò)對(duì)特征的提取與聚焦能力,達(dá)到較高的識(shí)別率,解決現(xiàn)有網(wǎng)絡(luò)對(duì)邊緣特征與全局特征提取能力不足的問題。然而,本文是在大量數(shù)據(jù)樣本的訓(xùn)練下進(jìn)行測試,雖獲得了較好的定位性能,但其泛化能力有待進(jìn)一步提高。這種局限性導(dǎo)致其盡管在大型數(shù)據(jù)集上表現(xiàn)良好,但當(dāng)應(yīng)用于小數(shù)據(jù)集時(shí),性能并不盡如人意,如何在較少數(shù)據(jù)集的情況下達(dá)到較高的識(shí)別精度是今后的主要研究方向。

        注:本文通訊作者為何月順。

        參考文獻(xiàn)

        [1] 朱新同,唐云祁,耿鵬志.數(shù)字圖像篡改檢測技術(shù)綜述[J].中國人民公安大學(xué)學(xué)報(bào)(自然科學(xué)版),2022,28(4):87?99.

        [2] 賀一峰,趙旭東,亞森·艾則孜.精細(xì)化自動(dòng)檢測篡改區(qū)域的數(shù)字圖像取證方法[J].現(xiàn)代電子技術(shù),2016,39(7):83?88.

        [3] 王釬灃,夏國靜,牛鑫鑫,等.基于改進(jìn)的SIFT圖像快速拼接方法[J].現(xiàn)代電子技術(shù),2022,45(8):159?162.

        [4] MUHAMMAD G, AL?HAMMADI M H, HUSSAIN M, et al. Image forgery detection using steerable pyramid transform and local binary pattern [J]. Machine vision and applications, 2014, 25(4): 985?995.

        [5] SHI Y Q, CHEN C H, CHEN W. A natural image model approach to splicing detection [C]// Proceedings of the 9th Workshop on Multimedia Security. New York: ACM, 2007: 51?62.

        [6] 盧佳佳.基于計(jì)算機(jī)視覺的KLT跟蹤圖像拼接模型設(shè)計(jì)[J].現(xiàn)代電子技術(shù),2021,44(13):41?45.

        [7] ZHOU P, HAN X T, MORARIU V I, et al. Two?stream neural networks for tampered face detection [C]// 2017 IEEE Conference on Computer Vision and Pattern Recognition Workshops. New York: IEEE, 2017: 1831?1839.

        [8] BAPPY J H, SIMONS C, NATARAJ L, et al. Hybrid LSTM and encoder?decoder architecture for detection of image forgeries [J]. IEEE transactions on image processing, 2019, 28(7): 3286?3300.

        [9] LONG J, SHELHAMER E, DARRELL T. Fully convolutional networks for semantic segmentation [C]// 2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). New York: IEEE, 2015: 3431?3440.

        [10] SIMONYAN K, ZISSERMAN A. Very deep convolutional networks for large?scale image recognition [EB/OL]. [2015?04?10]. https://arxiv.org/abs/1409.1556.

        [11] CHEN L C, PAPANDREOU G, KOKKINOS I, et al. Semantic image segmentation with deep convolutional nets and fully connected CRFs [EB/OL]. [2016?06?07]. https://arxiv.org/abs/1412.7062.

        [12] NOH H, HONG S, HAN B. Learning deconvolution network for semantic segmentation [C]// 2015 IEEE International Conference on Computer Vision (ICCV). New York: IEEE, 2015: 1520?1528.

        [13] RONNEBERGER O, FISCHER P, BROX T. U?Net: Convolutional networks for biomedical image segmentation [C]// Proceedings on 18th International Conference on Medical Image Computing and Computer?assisted Intervention. Heidelberg: Springer, 2015: 234?241.

        [14] WANG H N, CAO P, WANG J Q, et al. UCTransNet: Rethin?king the skip connections in U?Net from a channel?wise perspective with transformer [C]// Proceedings of the AAAI Conference on Artificial Intelligence. [S.l.]: AAAI, 2022: 2441?2449.

        [15] DONG J, WANG W, TAN T N. CASIA image tampering detection evaluation database [C]// 2013 IEEE China Summit amp; International Conference on Signal and Information Processing. New York: IEEE, 2013: 422?426.

        [16] ZHOU P, HAN X T, MORARIU V I, et al. Learning rich features for image manipulation detection [C]// 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. New York: IEEE, 2018: 1053?1061.

        [17] LIN T Y, MAIRE M, BELONGIE S J, et al. Microsoft COCO: Common objects in context [C]// Proceedings of 13th European Conference on Computer Vision. Heidelberg: Springer, 2014: 740?755.

        [18] BI X L, WEI Y, XIAO B, et al. RRU?Net: The ringed residual U?Net for image splicing forgery detection [C]// 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops (CVPRW). New York: IEEE, 2019: 30?39.

        [19] WU Y, ABDALMAGEED W, NATARAJAN P. ManTra?Net: Manipulation tracing network for detection and localization of image forgeries with anomalous features [C]// 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition. New York: IEEE, 2019: 9543?9552.

        [20] ZHANG Y L, ZHU G P, WU L G, et al. Multi?task SE?Network for image splicing localization [J]. IEEE transactions on circuits and systems for video technology, 2022, 32(7): 4828?4840.

        基金項(xiàng)目:江西省科技計(jì)劃項(xiàng)目(20232ABC03A09)

        作者簡介:張" 維(1997—),男,湖南衡陽人,碩士研究生,主要研究方向?yàn)槿斯ぶ悄?、圖像處理。

        何月順(1971—),男,湖南永州人,博士研究生,教授,博士生導(dǎo)師,主要研究領(lǐng)域?yàn)槿斯ぶ悄?、大?shù)據(jù)分析與智能處理、網(wǎng)絡(luò)空間安全。

        国产蜜臀精品一区二区三区| 亚洲毛片在线免费视频| 久久精品国产亚洲av麻豆会员| 人妻少妇偷人精品无码| 国产精品久久久久免费a∨| 美女熟妇67194免费入口| 亚洲中文字幕第15页| 日韩精品专区av无码| 亚洲精品久久久久久| 国产精品美女一级在线观看| 人妻精品一区二区三区蜜桃| 亚洲色中文字幕无码av| 亚洲熟妇无码av不卡在线播放| 亚洲一区丝袜美腿在线观看| 亚洲精品98中文字幕| 亚洲精品成人av在线| 久久久精品免费观看国产| 妇女自拍偷自拍亚洲精品| 国产精品青草久久久久婷婷| av成人资源在线播放| 久久精品日本不卡91| 久久精品免费一区二区三区| 中文字幕亚洲综合久久菠萝蜜| 粗一硬一长一进一爽一a视频| 亚洲综合久久精品少妇av| 欧美日韩在线视频一区| 亚洲精品永久在线观看| 日韩精品视频在线一二三| 日本中文字幕婷婷在线| 97人妻碰碰视频免费上线| 欧美日韩性高爱潮视频| 亚洲av熟女少妇一区二区三区| 亚洲va欧美va日韩va成人网| 亚洲人成网站77777在线观看 | 色婷婷色丁香久久婷婷| 国产精品无码久久久久久久久久| 国产艳妇av在线出轨| 男人的天堂av你懂得| 97人伦色伦成人免费视频| 四虎影视国产在线观看精品| 丰满少妇又爽又紧又丰满动态视频 |