邢艷 魏接達(dá) 汪若飛 黃睿
摘 要:數(shù)據(jù)增強(qiáng)是提升變化檢測(cè)模型泛化能力的一種主要方法。盡管現(xiàn)有的數(shù)據(jù)增強(qiáng)方法在圖像分類、目標(biāo)檢測(cè)中取得了較好的效果,但忽略了多個(gè)時(shí)間序列圖像之間的差異和變化目標(biāo)的多樣性。為了較好地保留變化區(qū)域并且增加復(fù)雜的背景信息,基于變化區(qū)域掩碼,提出一種適用于變化檢測(cè)的數(shù)據(jù)增強(qiáng)方法:MaskMix。首先,將當(dāng)前圖像對(duì)的變化區(qū)域粘貼到一個(gè)圖像對(duì)上,得到具有新的背景和新的變化的變化圖像對(duì)。其次,采用多路徑加權(quán)融合策略進(jìn)一步增強(qiáng)變化圖像對(duì)。在每條路徑上,從圖像處理集合中隨機(jī)選取一種經(jīng)典的圖像處理方法進(jìn)一步處理變化圖像對(duì),然后使用Dirichlet分布產(chǎn)生的K維權(quán)重將K條路徑處理后的圖像對(duì)進(jìn)行融合。最后,通過(guò)跳躍連接將處理前的圖像對(duì)和處理后的圖像對(duì)按Beta分布產(chǎn)生權(quán)重,進(jìn)行更深層次的混合。實(shí)驗(yàn)結(jié)果表明,提出的MaskMix在BCD和LEVIRCD兩個(gè)數(shù)據(jù)集上,有效地提升了變化檢測(cè)方法ADCDNet、BIT、ChangeFormer、SNUNet和DSAMNet的泛化性能。與現(xiàn)有的圖像增強(qiáng)方法MixUp、AugMix、MUM和CropMix相比,MaskMix能有效增加變化圖像的復(fù)雜性和多樣性,提升現(xiàn)有變化檢測(cè)方法的泛化性能。
關(guān)鍵詞:數(shù)據(jù)增強(qiáng);圖像增強(qiáng);變化檢測(cè);掩碼混合;圖像混合
中圖分類號(hào):TP391?? 文獻(xiàn)標(biāo)志碼:A?? 文章編號(hào):1001-3695(2023)12-050-3834-07
doi:10.19734/j.issn.10013695.2023.06.0228
MaskMix:mask mixing augmentation method for change detection
Abstract:Data augmentation is a key technique to improve the generalizability of change detection models.Although the existing data augmentation methods achieve promising performance in image classification and object detection,they ignore the differences among the timeseries images and the diversities of the changed objects.In order to preserve the change region and increase the information of the complex background,this paper proposed a novel data augmentation method for change detection based on change region mask,called MaskMix.Firstly,the change regions of the current image pair were pasted on an image pair to generate a new change image pair having new background and new changes.Secondly,MaskMix further augmented the image pair by multipath weighted fusion strategy.It selected a classical image processing method randomly from an image processing set for each path to conduct further augmentation.And then the processed image pairs from K paths were fused using a Kdimensional weight generated by Dirichlet distribution.Finally,the preprocessed image pair and the postprocessed image pair were fused by the weight generated by the Beta distribution through the skip connection.Experiments conducted on two publicly available datasets,e.g.,BCD (build change detection) and LEVIRCD (LEVIR building change detection dataset),demonstrate that MaskMix significantly improves the generalizability of change detectors,e.g.,ADCDNet,BIT,ChangeFormer,SNUNet,and DSAMNet.Moreover,compared with the existing image augmentation methods,such as MixUp,AugMix,MUM,and CropMix,MaskMix effectively increases the complexity and diversity of change images,enhancing the generalizability of existing change detection methods.
Key words:data augmentation;image augmentation;change detection;mask mixing;image mixing
0 引言
變化檢測(cè)是計(jì)算機(jī)視覺和遙感中的一項(xiàng)重要任務(wù),旨在識(shí)別和分析不同時(shí)間、同一場(chǎng)景的變化過(guò)程,被廣泛用于監(jiān)測(cè)城市擴(kuò)張[1]、森林砍伐[2]、農(nóng)田變化[3]、地質(zhì)災(zāi)害[4]等地表變化。
近年來(lái),越來(lái)越多的基于深度學(xué)習(xí)的變化檢測(cè)模型在公共數(shù)據(jù)集上取得了較好的檢測(cè)性能。然而,受限于訓(xùn)練數(shù)據(jù)集樣本的多樣性無(wú)法覆蓋整個(gè)樣本空間,以及光照變化、背景變化和其他變化因素的影響,現(xiàn)有的變化檢測(cè)方法在處理真實(shí)世界的復(fù)雜場(chǎng)景時(shí),往往存在著泛化性能弱的問題。這主要是由于現(xiàn)有方法在訓(xùn)練過(guò)程中未能充分考慮到場(chǎng)景變化的多樣性,導(dǎo)致其在新場(chǎng)景下的適應(yīng)能力不足。目前,提高模型泛化性能的主要方法是數(shù)據(jù)增強(qiáng),即通過(guò)不同變換增加原始數(shù)據(jù)集的復(fù)雜性和多樣性。傳統(tǒng)的數(shù)據(jù)增強(qiáng)方法一般使用一些簡(jiǎn)單的變換來(lái)豐富數(shù)據(jù)集,如將圖像旋轉(zhuǎn)一定的角度、裁剪一定的大小、調(diào)整到一定的尺度或添加不同類型的噪聲等。這些經(jīng)典的數(shù)據(jù)增強(qiáng)技術(shù)可以有效提高深度模型的檢測(cè)性能,但簡(jiǎn)單的圖像變換無(wú)法很好地捕捉真實(shí)世界場(chǎng)景中發(fā)生的復(fù)雜多樣的變化。
為此,研究人員致力于研究更加先進(jìn)的數(shù)據(jù)增強(qiáng)技術(shù)。文獻(xiàn)[5,6]通過(guò)隨機(jī)擦除圖像中的部分區(qū)域使模型關(guān)注其他區(qū)域的特征,從而減少模型對(duì)于特定區(qū)域的過(guò)擬合。為了避免過(guò)度剔除圖像的連續(xù)區(qū)域,文獻(xiàn)[7]使用一組空間均勻分布的網(wǎng)格,以產(chǎn)生更加平滑的遮擋效果。為了使模型更好地學(xué)習(xí)多個(gè)對(duì)象之間的相互關(guān)系,提高對(duì)不同場(chǎng)景變化的適應(yīng)性,近年來(lái)圖像混合技術(shù)[8~13]備受關(guān)注,其主要通過(guò)將兩個(gè)或多個(gè)圖像混合在一起來(lái)完成圖像數(shù)據(jù)的增強(qiáng),從而提高模型的魯棒性和泛化能力。例如,文獻(xiàn)[8]通過(guò)對(duì)輸入數(shù)據(jù)進(jìn)行線性插值來(lái)生成新的訓(xùn)練樣本,其差值系數(shù)由Beta分布隨機(jī)生成。然而,由于混合圖像是隨機(jī)進(jìn)行的,這可能會(huì)導(dǎo)致一些顯著性區(qū)域被遮蓋。為了進(jìn)一步提高混合圖像的質(zhì)量,文獻(xiàn)[14,15]提出了基于顯著性區(qū)域的圖像混合方法。隨著深度學(xué)習(xí)技術(shù)的發(fā)展,更為復(fù)雜的數(shù)據(jù)增強(qiáng)技術(shù)被提出,文獻(xiàn)[16~18]利用生成對(duì)抗網(wǎng)絡(luò)(generative adversarial network,GAN)為模型提供更逼真、更多樣化的訓(xùn)練數(shù)據(jù)。
上述數(shù)據(jù)增強(qiáng)方法大多被用于圖像分類、目標(biāo)檢測(cè)等視覺任務(wù),并取得了較好的效果。然而,由于變化檢測(cè)問題的特殊性,輸入數(shù)據(jù)是兩個(gè)或多個(gè)時(shí)間序列的圖像,這些圖像通常代表著同一地區(qū)的不同時(shí)間點(diǎn)拍攝的圖像。變化檢測(cè)任務(wù)的目標(biāo)是檢測(cè)這些時(shí)間序列圖像之間的差異,以識(shí)別任何可能的變化或異常情況。因此,針對(duì)變化檢測(cè)的數(shù)據(jù)增強(qiáng)存在如下問題:a)數(shù)據(jù)的不平衡性。在變化檢測(cè)領(lǐng)域,變化區(qū)域通常只占整個(gè)圖像的一小部分,而非變化區(qū)域則占據(jù)了圖像的大部分,導(dǎo)致正負(fù)樣本之間嚴(yán)重不平衡。并且,現(xiàn)有的數(shù)據(jù)增強(qiáng)方法不能很好地解決此問題,如圖1(b)所示,現(xiàn)有數(shù)據(jù)增強(qiáng)方法未能生成變化檢測(cè)任務(wù)所需的變化目標(biāo),在變化檢測(cè)任務(wù)中的適用性弱,因此,需要對(duì)圖像的正負(fù)樣本進(jìn)行分析,保證正負(fù)樣本的平衡性。b)數(shù)據(jù)匹配。變化前和變化后的圖像之間的差異構(gòu)成圖像的變化區(qū)域,但由于前后圖像采集于不同的時(shí)間、氣候條件、光照條件等,變化圖像對(duì)的背景區(qū)域存在著較大差異。在進(jìn)行數(shù)據(jù)增強(qiáng)時(shí),需要仔細(xì)考慮變化目標(biāo)的邊界,防止與背景噪聲混淆,確保變化區(qū)域清晰明確。c)標(biāo)簽的生成。在變化檢測(cè)任務(wù)中,需要為每個(gè)樣本生成相應(yīng)的標(biāo)簽,以指示變化的位置。然而,當(dāng)前廣泛使用的數(shù)據(jù)增強(qiáng)方法隨機(jī)地混合圖像區(qū)域,使得變化區(qū)域變得模糊,進(jìn)而導(dǎo)致無(wú)法生成準(zhǔn)確的標(biāo)簽信息,為模型的訓(xùn)練增加了難度。如圖1(a)所示,MixUp[8]、CropMix[12]在增強(qiáng)變化圖像對(duì)時(shí)不能較好地保留變化區(qū)域,增加了復(fù)雜的背景信息,導(dǎo)致無(wú)法滿足變化檢測(cè)的數(shù)據(jù)增強(qiáng)要求。因此,設(shè)計(jì)一個(gè)適用于變化檢測(cè)的數(shù)據(jù)增強(qiáng)方法是本文研究的重點(diǎn)。
為了克服上述問題,本文基于變化區(qū)域的掩碼提出一種適用于變化檢測(cè)的數(shù)據(jù)增強(qiáng)方法:MaskMix。首先,將當(dāng)前圖像對(duì)的變化區(qū)域粘貼到從訓(xùn)練集中隨機(jī)獲取的一個(gè)圖像對(duì)上,得到具有新的背景和新的變化的變化圖像對(duì)。其次,采用多路徑加權(quán)融合策略進(jìn)一步增強(qiáng)變化圖像對(duì)。在每條路徑上,隨機(jī)從圖像處理集合中選取一種經(jīng)典的圖像處理方法進(jìn)一步處理變化圖像對(duì),再使用Dirichlet分布產(chǎn)生的K維權(quán)重向量將處理后的圖像對(duì)進(jìn)行融合,增加圖像的多樣性和復(fù)雜性。最后,通過(guò)跳躍連接將處理前的圖像對(duì)和處理后的圖像對(duì)按不同權(quán)重進(jìn)行更深層次的混合。如圖1所示,本文方法(MaskMix)混合了圖像的變化區(qū)域,增加了圖像的多樣性,有效地突出了圖像的變化區(qū)域,豐富了背景信息。圖1(c)所呈現(xiàn)的數(shù)據(jù)表明,MaskMix能夠?yàn)樽兓瘷z測(cè)模型提供更多的變化區(qū)域,有效地提升了現(xiàn)有變化檢測(cè)方法的泛化性能。
1 相關(guān)工作
1.1 數(shù)據(jù)增強(qiáng)
數(shù)據(jù)增強(qiáng)是指對(duì)已有數(shù)據(jù)通過(guò)添加輕微擾動(dòng)或利用原始數(shù)據(jù)新建合成新訓(xùn)練數(shù)據(jù)的方法,它有效提高了訓(xùn)練數(shù)據(jù)的質(zhì)量,解決了目前深度模型易過(guò)擬合、低泛化性的問題,已被廣泛應(yīng)用于深度模型訓(xùn)練。
圖像變換是常見的數(shù)據(jù)增強(qiáng)方法,包括旋轉(zhuǎn)、平移和傾斜等[19]。這些方法豐富了數(shù)據(jù)集的多樣性和復(fù)雜性。但由于圖像變換過(guò)于簡(jiǎn)單,增強(qiáng)結(jié)果不能很好地模擬真實(shí)世界的圖像變化,出現(xiàn)了基于圖像擦除的增強(qiáng)方法。Cutout[5]和random erasing[6]通過(guò)在圖像中隨機(jī)挖掉一小塊區(qū)域來(lái)產(chǎn)生一個(gè)新的訓(xùn)練樣本,從而讓網(wǎng)絡(luò)更好地處理邊緣信息。GridMask[7]根據(jù)設(shè)定的參數(shù)隨機(jī)生成一個(gè)網(wǎng)格遮罩矩陣,然后按照網(wǎng)格遮罩矩陣的規(guī)則,在圖像上對(duì)一些像素進(jìn)行遮蓋,形成新的訓(xùn)練樣本。此外,一些研究還致力于通過(guò)混合圖像來(lái)提升模型的泛化能力。MixUp[8]通過(guò)混合兩個(gè)訓(xùn)練樣本及其標(biāo)簽,產(chǎn)生一個(gè)新的訓(xùn)練樣本,有助于網(wǎng)絡(luò)更好地學(xué)習(xí)不同類別的樣本和樣本之間的關(guān)系。AugMix[10]通過(guò)在多條分支上對(duì)圖像進(jìn)行多次隨機(jī)增強(qiáng)(扭曲、旋轉(zhuǎn)、色彩曝光、自動(dòng)對(duì)比度等),然后將增強(qiáng)后的圖像混合在一起來(lái)產(chǎn)生一個(gè)新的訓(xùn)練樣本。這種方法能夠?yàn)榫W(wǎng)絡(luò)提供更為豐富的訓(xùn)練數(shù)據(jù),從而提高泛化能力。還有研究通過(guò)使用搜索算法選擇最佳的圖像增強(qiáng)策略來(lái)提高模型的泛化能力[20]。
上述數(shù)據(jù)增強(qiáng)方法能夠提升分類任務(wù)或目標(biāo)檢測(cè)任務(wù)的準(zhǔn)確率和泛化能力,但將其使用到變化檢測(cè)任務(wù)時(shí),圖像變化區(qū)域的信息未能被充分利用,并且會(huì)使得變化區(qū)域和背景區(qū)域變得模糊,進(jìn)而導(dǎo)致變化變成非變化,并不適用于變化檢測(cè)任務(wù)。本文的目標(biāo)是設(shè)計(jì)一個(gè)適用于變化檢測(cè)任務(wù)的數(shù)據(jù)增強(qiáng)方法。
1.2 變化檢測(cè)
變化檢測(cè)旨在發(fā)現(xiàn)兩張不同時(shí)間同一場(chǎng)景拍攝的圖像之間的差異,在遙感、監(jiān)視、醫(yī)療和民用基礎(chǔ)設(shè)施等領(lǐng)域有著大量應(yīng)用[21]。現(xiàn)有的變化檢測(cè)方法可分為傳統(tǒng)變化檢測(cè)方法和基于深度學(xué)習(xí)的變化檢測(cè)方法兩類。
傳統(tǒng)變化檢測(cè)方法大多通過(guò)一些簡(jiǎn)單的代數(shù)運(yùn)算來(lái)發(fā)現(xiàn)兩張圖像之間的差異。文獻(xiàn)[22]通過(guò)分析像素差異得到變化圖。文獻(xiàn)[23]基于差異圖像噪聲模型的空間分布、閾值化變化圖像的噪聲來(lái)產(chǎn)生變化區(qū)域。文獻(xiàn)[24]基于像素點(diǎn)強(qiáng)度比值的Cauchy分布,實(shí)現(xiàn)對(duì)變化目標(biāo)的檢測(cè)。文獻(xiàn)[25,26]基于主成分分析(PCA)的方法檢測(cè)圖像變化。
由于傳統(tǒng)方法的閾值難以選取,魯棒性低,檢測(cè)結(jié)果容易受到背景噪聲、光線以及非變化區(qū)域(樹木、泥沙等)的影響,基于深度學(xué)習(xí)的變化檢測(cè)方法逐漸取代了傳統(tǒng)變化檢測(cè)方法。為了生成準(zhǔn)確的變化檢測(cè)結(jié)果,文獻(xiàn)[27]利用卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural network,CNN)從圖像中提取豐富的、具有判別力的特征,然后通過(guò)交差編碼模塊計(jì)算圖像對(duì)的特征差異并生成變化圖。為了獲得更多有效的特征,文獻(xiàn)[28]提出了一種雙時(shí)態(tài)圖像Transformer(bitemporal image Transformer,BIT),首先通過(guò)CNN提取圖像特征,并使用空間注意力將特征圖轉(zhuǎn)換成一組緊湊的語(yǔ)義向量(token),然后Transformer編碼器對(duì)這些向量之間的上下文進(jìn)行建模。借助豐富的上下文標(biāo)記,Transformer解碼器將得到更加細(xì)化的特征圖,最后將其特征的絕對(duì)差值送入CNN中得到最終的變化圖。文獻(xiàn)[29]將分層結(jié)構(gòu)的Transformer編碼器與多層感知機(jī)(MLP)融合在一個(gè)孿生網(wǎng)絡(luò)中,有效地呈現(xiàn)變化檢測(cè)網(wǎng)絡(luò)所需要的多尺度細(xì)節(jié)。
由于現(xiàn)有數(shù)據(jù)增強(qiáng)方法在變化檢測(cè)任務(wù)中的適用性較弱,不能很好地處理圖像的變化區(qū)域和背景區(qū)域。本文提出一種適用于變化檢測(cè)的數(shù)據(jù)增強(qiáng)方法來(lái)提高原始數(shù)據(jù)的質(zhì)量,豐富原始數(shù)據(jù)的前景信息,提升變化檢測(cè)模型應(yīng)對(duì)各種變化的能力。
2 本文方法
如圖2 所示,MaskMix將當(dāng)前圖像對(duì)的變化區(qū)域取出后粘貼到從訓(xùn)練集中隨機(jī)選取的圖像對(duì)上。然后采用多路徑加權(quán)融合策略進(jìn)一步增強(qiáng)變化圖像對(duì)。在每條路徑上,隨機(jī)選取一種圖像處理方法處理變化圖像對(duì),然后使用Dirichlet分布產(chǎn)生的權(quán)重將處理后的圖像對(duì)進(jìn)行融合。最后,將處理前的圖像對(duì)和處理后的圖像對(duì)按Beta分布產(chǎn)生的權(quán)重進(jìn)行更深層次的混合。
2.1 新變化圖像合成
給定訓(xùn)練集合DAptrain={〈I11,I21,M1〉,〈I12,I22,M2〉,…,〈I1n,I2n,Mn〉},其中〈I1,I2〉表示圖像對(duì),M表示變化區(qū)域的掩碼。對(duì)當(dāng)前圖像對(duì)〈I1i,I2i〉進(jìn)行擴(kuò)展時(shí),使用其對(duì)應(yīng)的變化區(qū)域掩碼Mi提取圖像中的變化區(qū)域,然后將變化區(qū)域粘貼到從{DAptrain-〈I1i,I2i,Mi〉}中隨機(jī)選取的圖像對(duì)〈I1j,I2j〉,形式化表示為
2.2 多路圖像增強(qiáng)
2.3 加權(quán)圖像混合
其中:rand(O)表示從增強(qiáng)操作集O中隨機(jī)采樣一個(gè)增強(qiáng)操作;ф(I,o)表示使用圖像增強(qiáng)操作o對(duì)圖像I進(jìn)行變換。
2.4 基于MaskMix的變化檢測(cè)模型訓(xùn)練算法
給定變換檢測(cè)模型ψ,基于MaskMix的變化檢測(cè)模型訓(xùn)練如算法1所示。為了保證充分地利用原始訓(xùn)練數(shù)據(jù),設(shè)置了數(shù)據(jù)增強(qiáng)概率τ,讀取數(shù)據(jù)時(shí)隨機(jī)產(chǎn)生概率p,當(dāng)p<τ時(shí),使用MaskMix增強(qiáng)圖像對(duì),否則保留原始數(shù)據(jù)不變。算法1展示了MaskMix作為即插即用的組件,可以容易地被用于變化檢測(cè)模型的訓(xùn)練中。
算法1 基于MaskMix的變化檢測(cè)模型訓(xùn)練算法
輸入:變換檢測(cè)模型ψ,訓(xùn)練集合DAptrain={〈I1i,I2i,Mi〉},最大訓(xùn)練次數(shù)Epoch,增強(qiáng)操作集O,增強(qiáng)概率τ,增強(qiáng)路徑數(shù)K。
輸出:訓(xùn)練后的變化檢測(cè)模型ψ。
1 Function MaskMix(I1i,I2i,Mi,K)
算法第1~13行為MaskMix的執(zhí)行流程。第3~5行對(duì)輸入圖像對(duì)〈I1i,I2i〉進(jìn)行增強(qiáng),實(shí)現(xiàn)新變化圖像的合成;第7~9行對(duì)合成的圖像進(jìn)行多路數(shù)據(jù)增強(qiáng),豐富變化圖像的信息;第11行對(duì)多路增強(qiáng)的圖像進(jìn)行深層次的混合,保證數(shù)據(jù)的真實(shí)性與健壯性。
3 實(shí)驗(yàn)
3.1 數(shù)據(jù)集
本文采用BCD(build change detection)[30]和LEVIRCD(LEVIR building change detection dataset)[31]兩個(gè)建筑變化檢測(cè)數(shù)據(jù)集進(jìn)行實(shí)驗(yàn)。
BCD數(shù)據(jù)集由一組像素為32507×15354的圖像對(duì)組成。由于硬件設(shè)備限制,以256×256大小的滑動(dòng)窗口對(duì)BCD數(shù)據(jù)集進(jìn)行裁剪,挑選出具有變化的圖像對(duì)用于實(shí)驗(yàn)。考慮到深度網(wǎng)絡(luò)需要大量的訓(xùn)練數(shù)據(jù),為了達(dá)到理想的效果,在BCD數(shù)據(jù)集上進(jìn)行了相應(yīng)的擴(kuò)展,使用隨機(jī)翻轉(zhuǎn)和顏色失真等方式來(lái)豐富數(shù)據(jù)集,最終獲得17 298對(duì)圖像。然后隨機(jī)選取80%的圖像對(duì)用于訓(xùn)練,10%的圖像對(duì)用于驗(yàn)證,剩余的10%用于測(cè)試。
LEVIRCD數(shù)據(jù)集包含637對(duì)像素為1024×1024的圖像。采用不重疊裁剪方式將LEVIRCD數(shù)據(jù)集內(nèi)所有圖像裁剪為256×256大小的圖像塊,并挑選出具有變化的圖像對(duì)用于實(shí)驗(yàn),最終獲得4 538對(duì)圖像。然后隨機(jī)選取70%的圖像對(duì)用于訓(xùn)練,10%的圖像對(duì)用于驗(yàn)證,剩余的20%用于測(cè)試。
特別地,對(duì)于ADCDNet[27]和SNUNet[32]變化檢測(cè)網(wǎng)絡(luò),在BCD和LEVIRCD數(shù)據(jù)集上,分別選取90%和80%的圖像對(duì)用于訓(xùn)練,剩下的用于驗(yàn)證和測(cè)試。
3.2 評(píng)價(jià)指標(biāo)
實(shí)驗(yàn)中,采用綜合評(píng)價(jià)指標(biāo)F1(F1score)、交并比(intersection over union,IoU)、整體準(zhǔn)確率(overall accuracy,OA)來(lái)評(píng)價(jià)變化檢測(cè)模型的性能。
3.3 對(duì)比方法
本文采用MixUp、AugMix、MUM和CropMix四種數(shù)據(jù)增強(qiáng)方法作為實(shí)驗(yàn)的對(duì)比方法,選取ADCDNet[27]、BIT[28]、ChangeFormer[29]、SNUNet[32]和DSAMNet[33]五種變化檢測(cè)網(wǎng)絡(luò)在BCD和LEVIRCD兩個(gè)建筑變化檢測(cè)數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn)。MUM和CropMix在ADCDNet模型上表現(xiàn)優(yōu)異。MixUp通過(guò)混合兩個(gè)訓(xùn)練樣本來(lái)增加數(shù)據(jù)的多樣性,在SNUNet模型上取得了較優(yōu)異的效果。AugMix通過(guò)混合增強(qiáng)樣本來(lái)豐富訓(xùn)練集數(shù)據(jù),是當(dāng)下最為流行的數(shù)據(jù)增強(qiáng)方法之一。
3.4 實(shí)驗(yàn)結(jié)果
不同數(shù)據(jù)增強(qiáng)方法在BCD和LEVIRCD數(shù)據(jù)集上的量化結(jié)果如表1所示,可以得出以下結(jié)論:a)并非所有的數(shù)據(jù)增強(qiáng)方法都能提升變化檢測(cè)模型的效果。在BCD數(shù)據(jù)集上,BIT、ChangeFormer和SNUNet模型使用AugMix數(shù)據(jù)增強(qiáng)方法獲得的量化結(jié)果低于原始數(shù)據(jù)的量化結(jié)果。在LEVIRCD數(shù)據(jù)集上,ADCDNet、BIT、SNUNet和DSAMNet模型使用MixUp數(shù)據(jù)增強(qiáng)方法獲得的量化結(jié)果低于原始數(shù)據(jù)的量化結(jié)果。這是由于MixUp和AugMix在擴(kuò)展數(shù)據(jù)時(shí)會(huì)隨機(jī)模糊圖像中的變化區(qū)域?qū)е碌?。b)本文方法能夠很好地提升變化檢測(cè)模型的準(zhǔn)確率和泛化能力。在BCD和LEVIRCD數(shù)據(jù)集上,所有變化檢測(cè)模型使用MaskMix數(shù)據(jù)增強(qiáng)方法得到的結(jié)果均優(yōu)于使用原始數(shù)據(jù)所得結(jié)果。此外,使用MaskMix數(shù)據(jù)增強(qiáng)方法在大部分情況下也均優(yōu)于其他對(duì)比方法。例如,在BCD數(shù)據(jù)集上,在SNUNet模型上,MaskMix的F1=0.752,OA=0.967,IoU=0.681,比第二位的CropMix(F1=0.737,OA=0.963,IoU=0.667)分別高2.0%,0.4%和2.1%,比第三位的MUM(F1=0.726,OA=0.958,IoU=0.648)分別高3.6%,0.9%和5.1%。在LEVIRCD數(shù)據(jù)集上,使用MaskMix時(shí),各檢測(cè)器的評(píng)價(jià)指標(biāo)也有所提升。例如,在BIT模型上,MaskMix的F1=0.780,OA=0.976,IoU=0.695,比位于第二位的MUM(F1=0.771,OA=0.974,IoU=0.680)分別高1.2%,0.2%和2.2%。以上實(shí)驗(yàn)表明,MaskMix通過(guò)豐富變化圖像的前景特征,可以有效增強(qiáng)變化檢測(cè)模型的檢測(cè)能力。
圖3展示了在不同變化檢測(cè)模型上有無(wú)本文方法的可視化結(jié)果。從中可以看到,BIT和SNUNet變化檢測(cè)模型的檢測(cè)結(jié)果容易受到光線、樹木以及其他非變化建筑物體的影響,如圖3第1、2行,SNUNet受背景光線變化以及非變化物體的影響,多檢測(cè)出了一些分散的小區(qū)域。在第4行中,BIT受背景光線變化以及樹木的影響,未能很好地檢測(cè)出相應(yīng)的變化區(qū)域,而使用本文方法后,能夠更好地檢測(cè)出相應(yīng)的變化區(qū)域。在細(xì)節(jié)處理方面,MaskMix同樣更勝一籌,例如,ADCDNet在處理變化區(qū)域的輪廓細(xì)節(jié)方面存在一定的不足,如圖3第3行,變化區(qū)域的輪廓顯得粗糙不平直,而使用MaskMix后,能夠更加準(zhǔn)確地檢測(cè)到變化區(qū)域的輪廓細(xì)節(jié)。因此,MaskMix能夠很好地解決變化檢測(cè)模型受光線和非建筑物物體影響而產(chǎn)生誤檢、漏檢以及檢測(cè)不夠準(zhǔn)確的問題。
圖4展示了更多使用MaskMix增強(qiáng)后的樣例。從中可以看到,MaskMix引入了更多的變化區(qū)域,如圖4中第5~10列,多個(gè)不同大小和風(fēng)格的變化區(qū)域根據(jù)掩碼形狀重新組合,形成更全面、更綜合、具有多個(gè)變化區(qū)域的新圖像對(duì),使模型能夠充分關(guān)注到兩個(gè)時(shí)間序列圖像之間的差異;如圖4第3、4列,變化檢測(cè)器受光線等因素的影響檢測(cè)出的變化區(qū)域較少,而使用MaskMix的變化檢測(cè)器能夠抑制不同背景噪聲產(chǎn)生的影響,準(zhǔn)確檢測(cè)出各個(gè)變化目標(biāo),以獲得更優(yōu)的檢測(cè)結(jié)果。
不同數(shù)據(jù)增強(qiáng)方法的時(shí)間開銷如表2所示??梢园l(fā)現(xiàn),MaskMix處理一對(duì)圖像所需的時(shí)間為10.3 ms,相對(duì)于其他方法而言稍慢,但其效果最好。這是因?yàn)镸askMix在生成新樣本時(shí)能夠更好地豐富原始圖像的重要特征,并增加樣本的多樣性和魯棒性。雖然其他增強(qiáng)方法如MixUp、MUM和CropMix具有更快的處理速度,均不到10 ms,但它們受到線性插值、裁剪等操作的限制,無(wú)法捕捉到更復(fù)雜的圖像特征。AugMix雖然提供了更多樣化和復(fù)雜的數(shù)據(jù)增強(qiáng)效果,但其處理時(shí)間較長(zhǎng),取得的結(jié)果也差于MaskMix。以上結(jié)果表明,盡管MaskMix的速度略慢,但其增強(qiáng)效果表現(xiàn)出色,是一種有效提升變化檢測(cè)模型的數(shù)據(jù)增強(qiáng)方法。
不同數(shù)據(jù)增強(qiáng)方法的復(fù)雜度如表3所示,其中,MixUp和MUM的復(fù)雜度均為O(1);AugMix的復(fù)雜度為O(K×D),與路徑數(shù)K和深度D相關(guān);CropMix的復(fù)雜度為O(N),與裁剪的視圖數(shù)目N有關(guān);而MaskMix的復(fù)雜度為O(K),主要開銷源于K條增強(qiáng)路徑。盡管MaskMix的時(shí)間復(fù)雜度高于MixUp和MUM,但實(shí)驗(yàn)結(jié)果顯示,MaskMix在性能上勝過(guò)了其他方法。通過(guò)引入更多變化區(qū)域的數(shù)據(jù)增強(qiáng)方式,MaskMix能夠有效地改善數(shù)據(jù)集的質(zhì)量,并在變化檢測(cè)任務(wù)上取得更好的結(jié)果。
3.5 消融實(shí)驗(yàn)
實(shí)驗(yàn)中,MaskMix在增強(qiáng)過(guò)程中使用到的參數(shù)有增強(qiáng)概率τ、增強(qiáng)路徑數(shù)K等,為了探明相關(guān)參數(shù)設(shè)置的合理性,使用ADCDNet變化檢測(cè)網(wǎng)絡(luò)在BCD和LEVIRCD兩個(gè)數(shù)據(jù)集上進(jìn)行消融實(shí)驗(yàn)。
3.5.1 增強(qiáng)概率分析
為了探討不同增強(qiáng)概率對(duì)變化檢測(cè)模型的影響,在增強(qiáng)路徑為3的情況下進(jìn)行消融實(shí)驗(yàn),實(shí)驗(yàn)的量化結(jié)果如表4所示。從中可以看出:在各數(shù)據(jù)集上,隨著增強(qiáng)概率的增加,模型的各項(xiàng)指標(biāo)呈先上升后下降的趨勢(shì),在增強(qiáng)概率為0.3時(shí),模型的評(píng)價(jià)指標(biāo)達(dá)到最優(yōu)值。以上分析表明,設(shè)置適當(dāng)?shù)脑鰪?qiáng)概率能提升模型的檢測(cè)能力,證明了增強(qiáng)概率的有效性。
3.5.2 增強(qiáng)路徑數(shù)分析
實(shí)驗(yàn)中,默認(rèn)增強(qiáng)路徑數(shù)在BCD數(shù)據(jù)集上為4,在LEVIRCD數(shù)據(jù)集上為3。為了探討增強(qiáng)路徑數(shù)對(duì)變化檢測(cè)模型的影響,在增強(qiáng)概率為0.3的情況下進(jìn)行消融實(shí)驗(yàn),實(shí)驗(yàn)的量化結(jié)果如表5所示??梢缘玫剑篴)在BCD數(shù)據(jù)集上,隨著增強(qiáng)路徑數(shù)的增多,模型的各項(xiàng)指標(biāo)大體上呈先上升后下降的趨勢(shì),在路徑數(shù)為4時(shí),各項(xiàng)指標(biāo)達(dá)到最大值;b)在LEVIRCD數(shù)據(jù)集上,隨著增強(qiáng)路徑的增多,模型各項(xiàng)指標(biāo)呈現(xiàn)先上升后下降的趨勢(shì),當(dāng)路徑數(shù)為3時(shí),各項(xiàng)指標(biāo)都達(dá)到了最高值。這是因?yàn)椋诼窂綌?shù)較少時(shí),難以生成高質(zhì)量的數(shù)據(jù),而當(dāng)路徑數(shù)過(guò)多時(shí),會(huì)損害數(shù)據(jù)的真實(shí)性。因此,選擇適當(dāng)?shù)穆窂綌?shù),生成的數(shù)據(jù)更加貼近真實(shí)世界,有助于提高模型的檢測(cè)能力。以上實(shí)驗(yàn)表明,選擇合適的增強(qiáng)路徑可以進(jìn)一步提高變化檢測(cè)模型的檢測(cè)能力,證明了設(shè)計(jì)增強(qiáng)路徑的合理性。
3.5.3 有無(wú)變化圖像合成分析
為了研究2.1節(jié)提出的變化圖像合成策略對(duì)變化檢測(cè)模型的影響,按照3.5.2節(jié)提到的默認(rèn)設(shè)置進(jìn)行消融實(shí)驗(yàn),實(shí)驗(yàn)的量化結(jié)果如表6所示??梢缘玫剑涸贐CD和LEVIRCD數(shù)據(jù)集上,通過(guò)變化圖像合成策略能夠?yàn)樽兓瘷z測(cè)模型提供更多的變化區(qū)域和更復(fù)雜的變化信息,從而提高檢測(cè)模型的檢測(cè)能力。當(dāng)移除變化圖像合成策略時(shí),模型無(wú)法充分學(xué)習(xí)到更多的變化信息,性能表現(xiàn)低于采用變化圖像合成策略的情況。以上實(shí)驗(yàn)表明,提出的變化圖像合成策略能夠提升變化檢測(cè)模型的檢測(cè)能力,并證實(shí)了該策略的有效性。
3.5.4 有無(wú)深層次融合分析
在加權(quán)圖像融合中,使用了通過(guò)跳躍連接將處理前的圖像對(duì)和處理后的圖像對(duì)按Beta分布產(chǎn)生權(quán)重進(jìn)行更深層次的混合。為了研究該策略對(duì)變化檢測(cè)模型的影響,按照3.5.2節(jié)提到的默認(rèn)設(shè)置進(jìn)行消融實(shí)驗(yàn),實(shí)驗(yàn)的量化結(jié)果如表7所示。可以得到:在BCD和LEVIRCD數(shù)據(jù)集上,通過(guò)跳躍連接能夠控制原始圖像和混合圖像之間的比例關(guān)系,為變化檢測(cè)模型提供更健壯、更符合真實(shí)世界的數(shù)據(jù),從而提高變化檢測(cè)模型的檢測(cè)能力。而移除跳躍連接策略時(shí),導(dǎo)致一些增強(qiáng)操作的效果被放大,而其他操作的效果被弱化或忽略。使得圖像的混合可能會(huì)變得過(guò)于傾向于某些增強(qiáng)操作,從而產(chǎn)生不利于模型訓(xùn)練的不平衡結(jié)果。以上實(shí)驗(yàn)表明,通過(guò)跳躍連接能夠幫助模型更好地理解圖像信息,提升模型的檢測(cè)能力,并證實(shí)了該策略的有效性。
3.5.5 多路混合中不同概率分布比較
實(shí)驗(yàn)中,引入權(quán)重w來(lái)混合K條路徑增強(qiáng)后的結(jié)果。其目的是用于控制每個(gè)增強(qiáng)路徑對(duì)最終結(jié)果的貢獻(xiàn)程度,確保最終的增強(qiáng)數(shù)據(jù)中包含各種類型的變化,增加數(shù)據(jù)的多樣性,從而提高模型的泛化能力,使其能夠更好地適應(yīng)各種測(cè)試數(shù)據(jù)。為了探討不同分布下產(chǎn)生的權(quán)重是否會(huì)對(duì)MaskMix造成不同的影響,按照3.5.2節(jié)提到的默認(rèn)設(shè)置進(jìn)行實(shí)驗(yàn),實(shí)驗(yàn)的量化結(jié)果如表8所示??梢缘玫剑涸贐CD和LEVIRCD數(shù)據(jù)集上,MaskMix在不同分布產(chǎn)生的多路混合權(quán)重w下得到的結(jié)果均比較相近,其主要原因是權(quán)重w用于控制每個(gè)增強(qiáng)路徑對(duì)最終結(jié)果的貢獻(xiàn)程度,在w1+w2+…+wK=1、較小的采樣尺度(增強(qiáng)路徑K)以及隨機(jī)增強(qiáng)的條件下,各個(gè)分布生成的結(jié)果不會(huì)有太大區(qū)別。
3.5.6 深層次混合中不同概率分布比較
實(shí)驗(yàn)中,引入權(quán)重α來(lái)控制新變化圖像和混合圖像之間的比例關(guān)系。為了探討不同方式產(chǎn)生的權(quán)重α是否會(huì)影響結(jié)果的穩(wěn)定性,按照3.5.2節(jié)提到的默認(rèn)設(shè)置進(jìn)行實(shí)驗(yàn),實(shí)驗(yàn)的量化結(jié)果如表9所示??梢缘玫剑涸贐CD和LEVIRCD數(shù)據(jù)集上,MaskMix在不同分布產(chǎn)生的深層次混合權(quán)重α的量化結(jié)果相當(dāng),這是因?yàn)椴蓸?和1之間的權(quán)重α是用于平衡新變化圖像和混合圖像之間的比例關(guān)系,并且其采樣過(guò)程具有隨機(jī)性。因此,不同分布下的結(jié)果差異不會(huì)太大,與設(shè)置權(quán)重α的初衷相符。
3.5.7 有無(wú)背景分析
在實(shí)驗(yàn)中,本文挑選出具有變化的圖像對(duì)作為訓(xùn)練數(shù)據(jù),而未變化的圖像對(duì)則將其丟棄。為了探討利用未變化圖像對(duì)作為背景能否提高變化檢測(cè)模型的檢測(cè)能力,按照3.5.2節(jié)提到的默認(rèn)設(shè)置進(jìn)行消融實(shí)驗(yàn),實(shí)驗(yàn)的量化結(jié)果如表10所示。可以得到:在BCD和LEVIRCD數(shù)據(jù)集上,引入未變化圖像作為背景后,模型的各項(xiàng)指標(biāo)均低于未引入背景時(shí)的各項(xiàng)指標(biāo)。以上實(shí)驗(yàn)表明,在不使用未變化圖像作為背景的情況下,模型的檢測(cè)效果更為理想。
4 結(jié)束語(yǔ)
基于變化區(qū)域的掩碼,本文提出了一種適用于變化檢測(cè)的數(shù)據(jù)增強(qiáng)方法:MaskMix。將當(dāng)前圖像對(duì)的變化區(qū)域粘貼到其他圖像對(duì)上,得到具有新的背景和新的變化的變化圖像對(duì)。再使用傳統(tǒng)的圖像處理方法進(jìn)一步增強(qiáng)圖像,豐富圖像的多樣性。通過(guò)MaskMix擴(kuò)展后的數(shù)據(jù),引入了新的變化區(qū)域和新的背景區(qū)域,同時(shí)使用傳統(tǒng)的圖像處理方法引入噪聲,增加了變化圖像的復(fù)雜性和多樣性。在BCD和LEVIRCD兩個(gè)公共數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果表明,MaskMix優(yōu)于現(xiàn)有的圖像增強(qiáng)方法MixUp、AugMix、MUM和CropMix,有效地提升了現(xiàn)有變化檢測(cè)方法的泛化性能。
直接混合變化區(qū)域掩碼,可能導(dǎo)致產(chǎn)生的變化圖像不真實(shí),如兩個(gè)場(chǎng)景的建筑物堆疊、前景和背景不搭配等。在未來(lái)的研究工作中,筆者將考慮這些因素,研究如何產(chǎn)生真實(shí)性更強(qiáng)的數(shù)據(jù)。
參考文獻(xiàn):
[1]Hegazy I R,Kaloop M R.Monitoring urban growth and land use change detection with GIS and remote sensing techniques in Daqahlia governorate Egypt [J].International Journal of Sustainable Built Environment,2015,4(1):117124.
[2]Haboudane D.Deforestation detection and monitoring in cedar forests of the moroccan middleatlas mountains[C]//Proc of IEEE IGARSS.Piscataway,NJ:IEEE Press,2007:43274330.
[3]Wang S W,Gebru B M,Lamchin M,et al.Land use and land cover change detection and prediction in the Kathmandu district of Nepal using remote sensing and GIS [J].Sustainability,2020,12(9):3925.
[4]Juliev M,Pulatov A,F(xiàn)uchs S,et al.Analysis of land use land cover change detection of Bostanlik district,Uzbekistan [J].Polish Journal of Environmental Studies,2019,28(5):32353242.
[5]DeVries T,Taylor G W.Improved regularization of convolutional neural networks with cutout[EB/OL].(2017)[20230520].https://arxiv.org/pdf/1708.04552.pdf.
[6]Zhong Zhun,Zheng Liang,Kang Guoliang,et al.Random erasing data augmentation[C]//Proc of the 34th AAAI Conference on Artificial Intelligence.Palo Alto,CA:AAAI Press,2020:1300113008.
[7]Chen Pengguang,Liu Shu,Zhao Hengshuang,et al.GridMask data augmentation [EB/OL].(2020) [2023520].https://arxiv.org/pdf/2001.04086.pdf.
[8]Zhang Hongyi,Cisse M,Dauphin Y N,et al.MixUp:beyond empirical risk minimization [C]//Proc of the 6th International Conference on Learning Representations.2018:113.
[9]Harris E,Marcu A,Painter M,et al.FMix:enhancing mixed sample data augmentation [EB/OL].(2020) [2023520].https://arxiv.org/pdf/2002.12047.pdf.
[10]Hendrycks D,Mu N,Cubuk E D,et al.AugMix:a simple data processing method to improve robustness and uncertainty [C]//Proc of the 8th International Conference on Learning Representations.2020.
[11]Huang Shaoli,Wang Xinchao,Tao Dacheng.SnapMix:semantically proportional mixing for augmenting finegrained data [C]//Proc of the 35th AAAI Conference on Artificial Intelligence.Palo Alto,CA:AAAI Press,2021:16281636.
[12]Han Junlin,Petersson L,Li Hongdong,et al.CropMix:sampling a rich input distribution via multiscale cropping [EB/OL].(2022) [20230520].https://arxiv.org/pdf/2205.159 55.pdf.
[13]Kim J M,Jang J Y,Seo S,et al.Mum:mix image tiles and unmix feature tiles for semisupervised object detection[C]//Proc of IEEE Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2022:1451214521.
[14]Dabouei A,Soleymani S,Taherkhani F,et al.SuperMix:supervising the mixing data augmentation [C]//Proc of IEEE Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2021:1379413803.
[15]Gong Chengyue,Wang Dilin,Li Meng,et al.KeepAugment:a simple informationpreserving data augmentation approach[C]//Proc of IEEE Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2021:10551064.
[16]FridAdar M,Klang E,Amitai M,et al.Synthetic data augmentation using GAN for improved liver lesion classification [C]//Proc of the 15th International Symposium on Biomedical Imaging.Piscataway,NJ:IEEE Press,2018:289293.
[17]陳文兵,管正雄,陳允杰.基于條件生成式對(duì)抗網(wǎng)絡(luò)的數(shù)據(jù)增強(qiáng)方法 [J].計(jì)算機(jī)應(yīng)用,2018,38(11):33053311.(Chen Wenbing,Guan Zhengxiong,Chen Yunjie.Data augmentation method based on conditional generative adversarial net model[J].Journal of Computer Applications,2018,38(11):33053311.)
[18]杜卉然,許亮,呂帥.基于鄰域差分濾波生成式對(duì)抗網(wǎng)絡(luò)的數(shù)據(jù)增強(qiáng)方法 [J].計(jì)算機(jī)應(yīng)用研究,2020,37(6):18951899,1905.(Du Huiran,Xu Liang,Lyu Shuai.Data augmentation based on neighboring difference filtering generative adversarial network[J].Application Research of Computers,2020,37(6):18951899,1905.)
[19]Simard P Y,Steinkraus D,Platt J C.Best practices for convolutional neural networks applied to visual document analysis[C]//Proc of the 7th International Conference on Document Analysis and Recognition.Piscataway,NJ:IEEE Press,2003:958963.
[20]Cubuk E D,Zoph B,Mane D,et al.AutoAugment:learning augmentation policies from data[C]//Proc of IEEE Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2019:113123.
[21]Radke R J,Andra S,AlKofahi O,et al.Image change detection algorithms:a systematic survey[J].IEEE Trans on Image Processing,2005,14(3):294307.
[22]Hsu Y Z,Nagel H H,Rekers G.New likelihood test methods for change detection in image sequences[J].Computer Vision,Graphics,and Image Processing,1984,26(1):73106.
[23]Rosin P.Thresholding for change detection[C]//Proc of the 6th International Conference on Computer Vision.Piscataway,NJ:IEEE Press,1998:274279.
[24]明英,蔣晶玨.視覺監(jiān)視中基于柯西分布的統(tǒng)計(jì)變化檢測(cè) [J].中國(guó)圖象圖形學(xué)報(bào),2008,13(2):328334.(Ming Ying,Jiang Jingjue.Cauchy distribution based on statistical change detection for visual surveillance [J].Journal of Image and Graphics,2008,13(2):328334.)
[25]Deng Jinsong,Wang Ke,Deng Xiaohua,et al.PCAbased landuse change detection and analysis using multitemporal and multisensor satellite data [J].International Journal of Remote Sensing,2008,29(16):4823-4838.
[26]黃維,黃進(jìn)良,王立輝,等.基于PCA的變化向量分析法遙感影像變化檢測(cè) [J].國(guó)土資源遙感,2016,28(1):2227.(Huang Wei,Huang Jinliang,Wang Lihui,et al.Remote sensing image change detection based on change vector analysis of PCA component[J].Remote Sensing for Land & Resources,2016,28(1):2227.)
[27]Huang Rui,Zhou Mo,Zhao Qiang,et al.Change detection with absolute difference of multiscale deep features[J].Neurocomputing,2020,418:102113.
[28]Chen Hao,Qi Zipeng,Shi Zhenwei.Remote sensing image change detection with transformers[J].IEEE Trans on Geoscience and Remote Sensing,2021,60:114.
[29]Bandara W G C,Patel V M.A transformerbased siamese network for change detection[C]//Proc of IEEE IGARSS.Piscataway,NJ:IEEE Press,2022:207210.
[30]Ji Shunping,Wei Shiqiang,Lyu Meng.Fully convolutional networks for multisource building extraction from an open aerial and satellite imagery data set[J].IEEE Trans on Geoscience and Remote Sensing,2018,57(1):574-586.
[31]Zhang Chenxiao,Yue Peng,Tapete D,et al.A deeply supervised image fusion network for change detection in high resolution bitemporal remote sensing images [J].ISPRS Journal of Photogrammetry and Remote Sensing,2020,166:183-200.
[32]Fang Sheng,Li Kaiyyu,Shao Jinyuan,et al.SNUNetCD:a densely connected Siamese network for change detection of VHR images[J].IEEE Geoscience and Remote Sensing Letters,2021,19:1-5.
[33]Liu Mengxi,Shi Qian.DSAMNet:a deeply supervised attention metric based network for change detection of highresolution images[C]//Proc of IEEE IGARSS.Piscataway,NJ:IEEE Press,2021:6159-6162.