亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        面向建筑物變化檢測的主體邊緣分解與重組神經(jīng)網(wǎng)絡(luò)

        2023-02-18 01:12:18葉沅鑫孫苗苗劉天逸郝思媛
        測繪學(xué)報(bào) 2023年1期
        關(guān)鍵詞:變化檢測邊緣建筑物

        葉沅鑫,孫苗苗,周 亮,楊 超,劉天逸,郝思媛

        1. 西南交通大學(xué)地球科學(xué)與環(huán)境工程學(xué)院, 四川 成都 611756; 2. 高速鐵路安全運(yùn)營空間信息技術(shù)國家地方聯(lián)合工程實(shí)驗(yàn)室, 四川 成都 611756; 3. 青島理工大學(xué)信息與控制工程學(xué)院, 山東 青島 266520

        建筑物作為一個城市的重要組成部分,其拆除、新建、擴(kuò)建等變化與人類生活息息相關(guān),及時準(zhǔn)確地獲取建筑物的變化信息對于人類發(fā)展具有重要意義[1]。隨著遙感成像技術(shù)的快速發(fā)展,可用于變化檢測的遙感影像數(shù)據(jù)越來越多,為利用遙感影像進(jìn)行建筑物變化檢測提供了海量的研究數(shù)據(jù)。面向建筑物的遙感影像變化檢測成為研究熱點(diǎn)[2-3]。相關(guān)的變化檢測方法研究也獲得巨大發(fā)展,從早期的基于像元的建筑物變化檢測發(fā)展至結(jié)合面向?qū)ο蠓治龅姆椒ǎ瑥闹焕霉庾V特征的方法發(fā)展至結(jié)合光譜、形態(tài)學(xué)指數(shù)[4]等多種特征[5-8]的方法。雖然傳統(tǒng)的像元級、對象級方法研究取得了豐碩的研究成果,但受限于人為設(shè)計(jì)特征的表達(dá)能力和分割結(jié)果的準(zhǔn)確性,其在檢測的準(zhǔn)確性和完整性方面仍存在許多不足之處。

        近年來,深度學(xué)習(xí)技術(shù)憑借其特有的深層特征表達(dá)能力,為大數(shù)據(jù)時代下遙感影像處理領(lǐng)域如目標(biāo)檢測[9-10]、影像匹配[11]、變化檢測[12]、影像分類[13]等提供了新的解決方案,得到了學(xué)者們的廣泛關(guān)注。其中,將深度學(xué)習(xí)技術(shù)引入傳統(tǒng)變化檢測流程中的方法[14-15]應(yīng)用較早,但由于未能充分利用神經(jīng)網(wǎng)絡(luò)端到端的結(jié)構(gòu)優(yōu)勢,檢測效率較低。因此,許多學(xué)者將可進(jìn)行像元級預(yù)測的全卷積神經(jīng)網(wǎng)絡(luò)(fully convolutional networks,FCN)[16]引入變化檢測中,構(gòu)建端到端的變化檢測模型。雖然端到端的方式提高了檢測效率,但FCN中的下采樣操作會影響像元空間位置的準(zhǔn)確性,難以獲得規(guī)則的建筑物形狀。一系列改進(jìn)方法被提出,如以U-Net為代表的編碼-解碼結(jié)構(gòu)[17-18]可通過上采樣和反卷積盡可能地恢復(fù)影像的空間位置信息,提高檢測結(jié)果的準(zhǔn)確性;以注意力模型為代表的結(jié)合時空關(guān)系的方法[19-21]可通過位置注意力、通道注意力增強(qiáng)網(wǎng)絡(luò)對變化和未變化像元的可分離度,優(yōu)化建筑物邊界的檢測效果。

        上述基于深度學(xué)習(xí)的變化檢測方法雖然在探測建筑物變化方面獲得了較好的檢測結(jié)果,但由于它是通過建模影像的全局信息來提高物體內(nèi)部的一致性,或是通過多尺度特征融合優(yōu)化地物邊緣檢測效果,忽視了地物主體與邊緣間的差異(主體內(nèi)像元間相似性強(qiáng),邊緣像元屬性間存在較大差異),檢測結(jié)果中易產(chǎn)生鋸齒形邊界,出現(xiàn)多個相鄰建筑物被視為單個建筑物的情況。為此,本文借鑒解耦思想[22]在語義分割領(lǐng)域的成功應(yīng)用,把地物分解成主體和邊緣的解耦思想引入變化檢測中,并在此基礎(chǔ)上增加特征優(yōu)化結(jié)構(gòu),提出了一種基于主體、邊緣分解與重組網(wǎng)絡(luò)的建筑物變化檢測方法(building change detection method based on main body,edge decomposition and reorganization network,BEDRNet)。該方法通過特征分離,分解出主體特征和邊緣特征,然后采用多重監(jiān)督將計(jì)算出的標(biāo)簽與預(yù)測間的損失都傳送給網(wǎng)絡(luò),并利用特征優(yōu)化結(jié)構(gòu)實(shí)現(xiàn)主體特征和邊緣特征的精準(zhǔn)優(yōu)化,削弱原始影像中的不相關(guān)信息,最后通過特征重組和上采樣形成完整的變化檢測流程。

        1 本文方法

        BEDRNet模型主要包括特征提取、特征分解、特征優(yōu)化、特征重組與損失函數(shù)5個模塊,并采用多重監(jiān)督的策略訓(xùn)練網(wǎng)絡(luò)。其中,①特征提取:提取雙時相影像的多尺度差值特征;②特征分解:通過構(gòu)建可學(xué)習(xí)的流域,分離出主體特征和邊緣特征;③特征優(yōu)化:設(shè)計(jì)特征優(yōu)化結(jié)構(gòu),利用主體標(biāo)簽和邊緣標(biāo)簽對主體特征和邊緣特征進(jìn)行精準(zhǔn)優(yōu)化;④特征重組:對優(yōu)化后的主體特征和邊緣特征進(jìn)行重組并生成最終的變化檢測結(jié)果以形成完整的變化檢測流程;⑤監(jiān)督策略與損失函數(shù):采用多重監(jiān)督的策略,損失函數(shù)由主體損失、邊緣損失和預(yù)測結(jié)果損失3部分組成。模型整體設(shè)計(jì)如圖1所示。

        圖1 本文方法總體流程Fig.1 Flowchart of the proposed method

        1.1 特征提取

        變化檢測中的兩期遙感影像間存在一定的光譜和時相差異,特征提取對于網(wǎng)絡(luò)檢測效果具有重要的影響。FCN作為一種逐像元確定預(yù)測結(jié)果的經(jīng)典模型,在變化檢測中取得了廣泛應(yīng)用,但其中的下采樣操作會導(dǎo)致預(yù)測圖中地物邊界檢測效果較差,出現(xiàn)檢測性能降低的情況,尤其對于小目標(biāo)的檢測。ResNet[23]作為提取影像深層特征的基本模塊,已經(jīng)在目標(biāo)識別、圖像分割等任務(wù)中表現(xiàn)出良好的性能。此外,孿生網(wǎng)絡(luò)結(jié)構(gòu)作為一種能夠高效提取兩分支輸入特征的網(wǎng)絡(luò)結(jié)構(gòu),對于變化檢測而言具有天然的優(yōu)勢,在變化檢測中得到了廣泛應(yīng)用[24]。為此,本文在特征提取部分參考FCN網(wǎng)絡(luò)架構(gòu),基于孿生ResNet提取影像特征。本文將對孿生ResNet架構(gòu)及特征提取實(shí)施細(xì)節(jié)進(jìn)行介紹。

        1.1.1 孿生ResNet

        孿生網(wǎng)絡(luò)是由兩個分支網(wǎng)絡(luò)構(gòu)成的一種耦合架構(gòu),如圖2所示,相比于傳統(tǒng)神經(jīng)網(wǎng)絡(luò)只能接收一個樣本輸入,孿生網(wǎng)絡(luò)可以同時接收兩個輸入,最后經(jīng)過決策層獲得輸出。在孿生網(wǎng)絡(luò)中,分支網(wǎng)絡(luò)結(jié)構(gòu)相同且權(quán)值共享,決策層可以是全連接層,可以是某種相似性度量算法,也可以是某種簡單運(yùn)算,如相減、卷積等。孿生ResNet包含兩個結(jié)構(gòu)相同且權(quán)值共享的ResNet分支網(wǎng)絡(luò),可以提取多尺度差值特征作為后續(xù)變化檢測模塊的輸入。

        圖2 孿生網(wǎng)絡(luò)架構(gòu)Fig.2 The architecture of Siamese network

        ResNet作為一種有效的特征提取手段,憑借殘差連接的方式可以很好地解決深層神經(jīng)網(wǎng)絡(luò)中存在的“退化”現(xiàn)象。其基本思想為:在提取影像特征時,不直接學(xué)習(xí)目標(biāo)y與輸入x之間的關(guān)系,而是通過殘差的形式對目標(biāo)進(jìn)行學(xué)習(xí)。其基本單元如式(1)所示

        y=F(x,{wi,b})+x

        (1)

        式中,F(xiàn)(x,{wi,b})為殘差函數(shù);wi為權(quán)重;b為偏置項(xiàng)。

        不同深度的ResNet結(jié)構(gòu),殘差基本單元的構(gòu)成形式存在微小差異。圖3展示了殘差基本單元常用的兩種構(gòu)成形式。左側(cè)為由兩個卷積層組成殘差基本單元,即ResNet18和ResNet34的基本模塊,右側(cè)為含有3個卷積層的殘差單元,ResNet50、ResNet101及ResNet152的基本結(jié)構(gòu)。3個卷積層中第1個卷積層和第3個卷積層的卷積核大小設(shè)定為1,可以實(shí)現(xiàn)特征通道數(shù)的轉(zhuǎn)換,減少網(wǎng)絡(luò)中的卷積核參數(shù)個數(shù)。考慮到訓(xùn)練效率及特征提取能力,本文參考ResNet50構(gòu)建特征提取模塊。

        圖3 殘差基本單元Fig.3 The residual basic unit

        1.1.2 特征提取

        1.2 特征分解

        在遙感影像中,地物主體對應(yīng)影像的低頻信息部分,像元間的相似性較強(qiáng),邊緣對應(yīng)影像的高頻部分,像元間的差異性較強(qiáng)。相對于存在較大差異的邊緣部分而言,具有更強(qiáng)內(nèi)部一致性的主體像元特征更容易提取,且對于具有不同分辨率的多尺度特征而言,低分辨率特征圖可以更好地反映影像的整體信息,更易提取對象的主體特征。在特征提取的5個階段中,如圖4所示,DF1、DF2細(xì)節(jié)信息豐富,DF5更好地反映了影像整體信息,故本文將雙時相影像多尺度差值特征中最深層次的特征DF5作為特征分解部分的輸入,通過可學(xué)習(xí)的流域?qū)ο髢?nèi)部的像元特征流向?qū)ο蟮闹行?,以提取主體特征。然后通過特征圖減去主體特征獲得影像的邊緣特征。

        圖4 特征提取各階段結(jié)果Fig.4 The results of each stage in feature extraction module

        網(wǎng)絡(luò)結(jié)構(gòu)如圖5所示,F(xiàn)為用于分解出主體和邊緣的特征,F(xiàn)Low為編碼特征圖,DF為解碼后的特征圖,F(xiàn)low為流域,F(xiàn)body為分離出的主體特征,F(xiàn)edge為分離出的邊緣特征。其中流域通過學(xué)習(xí)F→Fbody的映射關(guān)系獲得主體特征,其學(xué)習(xí)任務(wù)與光流相似,都是旨在學(xué)習(xí)輸入與目標(biāo)之間的運(yùn)動信息。由于卷積神經(jīng)網(wǎng)絡(luò)在給定足夠訓(xùn)練數(shù)據(jù)的情況下,非常善于學(xué)習(xí)輸入與輸出的關(guān)系。因此,本文參考神經(jīng)光流網(wǎng)絡(luò)[25]的結(jié)構(gòu)構(gòu)建特征分解部分,即整體采用編碼解碼的結(jié)構(gòu)設(shè)計(jì),通過對特征進(jìn)行下采樣獲得頻率更低的編碼特征圖FLow,再通過上采樣和跨步卷積生成低頻圖DF,最后通過輸入特征F和卷積獲得流域Flow,其中,F(xiàn)、FLow、DF、Flow的特征圖大小分別為256×32×32、256×16×16、256×32×32、256×32×32。

        圖5 特征分解Fig.5 Feature decomposition module

        獲得流域Flow后,通過Flow對物體內(nèi)像元特征的流向進(jìn)行引導(dǎo),采用xl+Flowl(xl)將標(biāo)準(zhǔn)空間格網(wǎng)Ωl中每個位置的點(diǎn)xl映射為新點(diǎn)x′。接著如式(2)所示,采用空間變換網(wǎng)絡(luò)中所提出的雙線性差分采樣機(jī)制[26]來近似估計(jì)Fbody中的每個點(diǎn)xl,通過雙線性內(nèi)插獲得主體特征圖Fbody中xl鄰域范圍內(nèi)4個像元的像元值

        (2)

        式中,?l表示在分離空間格網(wǎng)上的雙線性核的權(quán)重,主要由Flow計(jì)算得到;N表示鄰域范圍內(nèi)的像元。

        邊緣特征Fedge為影像的高頻信息部分,主體特征為影像中的低頻信息,故可以從整幅影像中“減去”表示低頻信息的主體特征來獲得。如式(3)所示,從深度特征F中減去主體特征Fbody生成Fedge

        Fedge=F-Fbody

        (3)

        1.3 特征優(yōu)化

        特征分解出的主體特征和邊緣特征的特征層次較深,可更好地反映整體信息但缺少細(xì)節(jié)特征,其邊界信息的可靠性不強(qiáng)。且上采樣操作雖能增加特征圖的尺寸,卻無法提升其信息量。直接對其進(jìn)行監(jiān)督,計(jì)算相應(yīng)的損失對網(wǎng)絡(luò)參數(shù)進(jìn)行更新,生成的預(yù)測邊界的準(zhǔn)確性不高。為提高地物邊界的準(zhǔn)確度,本文設(shè)計(jì)特征優(yōu)化結(jié)構(gòu),通過結(jié)合多尺度淺層特征的方式,在逐漸增加特征圖尺寸的同時添加細(xì)節(jié)信息。由于地物的邊緣和主體分別屬于高低頻信息,本文采用圖6所示的特征優(yōu)化結(jié)構(gòu)對邊緣特征和主體特征分別進(jìn)行優(yōu)化。

        圖6 特征優(yōu)化Fig.6 Feature optimization module

        1.4 特征重組

        1.5 監(jiān)督策略與損失函數(shù)

        現(xiàn)有的變化檢測方法只對最終的預(yù)測結(jié)果進(jìn)行監(jiān)督訓(xùn)練,忽視了地物主體和邊緣之間存在相互作用。為實(shí)現(xiàn)主體特征和邊界特征的精準(zhǔn)優(yōu)化,本文采用多重監(jiān)督的策略,分別利用主體特征標(biāo)簽、邊緣特征標(biāo)簽及變化檢測結(jié)果標(biāo)簽對優(yōu)化后的主體特征、邊緣特征和最終的預(yù)測結(jié)果進(jìn)行監(jiān)督。其中,邊緣特征標(biāo)簽由變化檢測結(jié)果標(biāo)簽的最外層像元構(gòu)成(遍歷結(jié)果標(biāo)簽圖每一個像素,判斷其4鄰域所屬類別,如有不同則識別為邊緣,否則識別為非邊緣),主體標(biāo)簽由變化檢測結(jié)果標(biāo)簽減去邊緣標(biāo)簽生成。損失函數(shù)如式(4)所示

        (4)

        通過多重的監(jiān)督訓(xùn)練,特征優(yōu)化結(jié)構(gòu)對主體特征和邊緣特征的優(yōu)化效果如圖7所示,其中,第1行為主體特征的優(yōu)化效果,第2行為邊緣特征的優(yōu)化效果。由圖7(a)可以看出,通過特征分解形成的主體特征和邊緣特征,其輪廓比較模糊,難以給出完整的地物變化信息;由圖7(b)可以看出,優(yōu)化一次的主體特征可以明顯地看出變化地物的輪廓,但缺乏詳細(xì)的細(xì)節(jié)信息,優(yōu)化一次的邊緣特征可以發(fā)現(xiàn)某些地物輪廓信息,但多數(shù)變化地物的邊界線存在不連續(xù)現(xiàn)象,難以獲取準(zhǔn)確的變化地物輪廓。對比圖7(c)和圖7(d)可以發(fā)現(xiàn),經(jīng)過兩次優(yōu)化的主體特征和邊緣特征能夠獲得準(zhǔn)確的地物變化信息,即BEDRNet模型可通過多重監(jiān)督訓(xùn)練,對地物的主體和邊緣進(jìn)行精準(zhǔn)優(yōu)化。

        圖7 網(wǎng)絡(luò)預(yù)測效果Fig.7 Network forecasting effect

        2 試驗(yàn)與分析

        2.1 試驗(yàn)數(shù)據(jù)

        本文采用文獻(xiàn)[19]在2020年公開的航空影像建筑物變化檢測數(shù)據(jù)集LEVIR-CD。該數(shù)據(jù)集由639張1024×1024像素的谷歌地球影像組成,空間分辨率為0.5 m,雙時相影像間的跨度為5~14 a,其中的建筑物包括別墅、高層公寓、小型車庫和大型倉庫等,種類豐富。整個數(shù)據(jù)集中共含有31 333個獨(dú)立的變化建筑物,平均每個影像對中含有50個變化的建筑物,變化信息十分豐富。本文在試驗(yàn)時,沿用LEVIR-CD的數(shù)據(jù)劃分方式,將數(shù)據(jù)集分為訓(xùn)練集、驗(yàn)證集和測試集3組,每組數(shù)據(jù)集分別包括445組、64組、128組影像對。數(shù)據(jù)擴(kuò)增方式采用無重疊裁剪、隨機(jī)翻轉(zhuǎn)、-15°~15°內(nèi)隨機(jī)旋轉(zhuǎn),影像裁剪的尺寸為256×256。擴(kuò)增后的訓(xùn)練集、驗(yàn)證集和測試集的樣本量分別為10 680、1536和2048張。

        2.2 試驗(yàn)設(shè)計(jì)

        為突出基于BEDRNet的變化檢測的優(yōu)越性,探索網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計(jì)的合理性,本文設(shè)計(jì)了兩組試驗(yàn)對比方案。第1組方案為不同方法間的對比,本文將BEDRNet模型與4種變化檢測模型進(jìn)行比較。其中,方法Ⅰ為FC-EF[27],方法Ⅱ?yàn)镋F-Siam-conc[27],方法Ⅲ為全卷積孿生網(wǎng)絡(luò)結(jié)合基本時空注意力模型的STA-BAM[19],方法Ⅳ為全卷積孿生網(wǎng)絡(luò)結(jié)合金字塔時空注意力模型的STA-PAM[19]。方法Ⅴ為基于BEDRNet的本文方法。第2組為消融試驗(yàn),在BEDRNet模型中,本文所設(shè)計(jì)的優(yōu)化結(jié)構(gòu)(見1.3節(jié))對于主體和邊緣的精準(zhǔn)優(yōu)化非常重要,為對其有效性及合理性進(jìn)行分析,本文設(shè)計(jì)了相應(yīng)的消融試驗(yàn)對特征優(yōu)化結(jié)構(gòu)的性能進(jìn)行測試。試驗(yàn)方法涉及BEDRNet-base和BEDRNet,其中BEDRNet-base為不含特征優(yōu)化結(jié)構(gòu)的BEDRNet模型。

        所有試驗(yàn)基于Ubuntu 18.04系統(tǒng),CPU型號為Intel(R) Core(TM) i7-10700KF,GPU為NVIDIA GeForce RTX 3080顯卡,顯存大小為10 GB。采用Pytorch 1.8.0深度學(xué)習(xí)框架。各試驗(yàn)方法參數(shù)設(shè)置見表1。

        表1 各試驗(yàn)方法參數(shù)設(shè)置Tab.1 The parameters setting of each method

        2.3 試驗(yàn)結(jié)果與分析

        2.3.1 不同方法檢測結(jié)果對比

        為對5種基于深度學(xué)習(xí)的變化檢測方法進(jìn)行合理的評價,本文從定性和定量兩方面對變化檢測結(jié)果進(jìn)行分析。在定量分析方面,采用總分類精度、召回率、精確度、F1score及均值交并比(Mean IoU)5種評價指標(biāo)對檢測結(jié)果的精度進(jìn)行評價,并對比了5種方法的訓(xùn)練與測試效率。定性方面,對測試集中一般密集度及較高密集度的建筑物檢測效果,及檢測結(jié)果邊界準(zhǔn)確性進(jìn)行了詳細(xì)分析。

        在定量分析方面,表2展示了上述5種基于深度學(xué)習(xí)的變化檢測方法在LEVIR-CD數(shù)據(jù)集上的檢測精度。

        表2 LEVIR-CD數(shù)據(jù)集5種方法檢測精度Tab.2 The detection accuracy of the five methods on LEVIR-CD data set (%)

        對表2中的數(shù)據(jù)進(jìn)行分析,可以發(fā)現(xiàn):①BEDRNet的檢測性能最佳,在5種評價指標(biāo)上均達(dá)到了最高精度。特別地,其在精確度、F1score及Mean_IoU方面分別比結(jié)合金字塔時空注意力模型的STA-PAM方法高出約9.3%、5.1%、4.4%。②在對全局信息進(jìn)行建模的變化檢測方法中,相較于基于U-Net的FC-EF法和EF-Siam-conc法,結(jié)合時空注意力的STA-BAM法和STA-PAM法能夠獲得較好的檢測性能,但其檢測精度仍低于BEDRNet的檢測結(jié)果。

        表3展示了5種變化檢測方法平均每輪訓(xùn)練用時及平均測試每對影像所用時長。由于模型復(fù)雜度和數(shù)據(jù)處理策略的不同,各方法模型訓(xùn)練用時差異較大,其中FC-EF法與STA-BAM法的訓(xùn)練用時最短,EF-Siam-conc法次之,本文方法與STA-PAM訓(xùn)練用時相對較長。5種方法均達(dá)到了較高的變化檢測效率,得到每對雙時相影像變化檢測結(jié)果的平均用時均小于0.05 s。其中,F(xiàn)C-EF法與STA-BAM法測試效率最高,本文方法與EF-Siam-conc次之,STA-PAM檢測效率相對較低。綜合考慮變化檢測精度與檢測效率可知,本文方法具有較好的變化檢測性能。

        表3 5種方法訓(xùn)練與測試用時Tab.3 The training and testing time of the five methods

        在定性分析方面,為直觀地展示上述5種變化檢測方法的檢測效果,本文分別以彩色疊加圖和黑白二值變化圖為例,對不同建筑物密集程度的檢測結(jié)果進(jìn)行了展示,在兩種類型的圖中,從左到右依次是變化檢測結(jié)果標(biāo)簽、FC-EF法檢測結(jié)果、EF-Siam-conc法檢測結(jié)果、STA-BAM法檢測結(jié)果、STA-PAM法檢測結(jié)果、BEDRNet法檢測結(jié)果。其中,圖8展示了在建筑物一般密集程度研究區(qū)域的檢測結(jié)果,綠色部分表示能夠正確識別的變化區(qū)域,紅色部分表示錯誤識別區(qū)域。由第1行及第2行的檢測結(jié)果可以看出,BEDRNet能較好地保持地物輪廓的完整性,對大型建筑物進(jìn)行準(zhǔn)確識別。由第3行、第4行及第5行的結(jié)果可以發(fā)現(xiàn),BEDRNet可以對小型建筑物實(shí)現(xiàn)精準(zhǔn)識別,對地物邊界的描述也更加詳細(xì)準(zhǔn)確。

        圖8 5種方法在建筑物一般密集度區(qū)域的檢測結(jié)果Fig.8 The detection results of the five methods in the general density building area

        圖9顯示了5種方法在建筑物間密集程度較高區(qū)域的檢測效果,圖10對比了5種方法變化區(qū)域邊界檢測的準(zhǔn)確性??梢悦黠@看出,沒有結(jié)合注意力機(jī)制的FC-EF法及EF-Siam-conc法檢測效果較差,很難識別出建筑物之間的間隙,且檢測結(jié)果邊界破碎,準(zhǔn)確性不高。相比之下,結(jié)合時空注意力的STA-BAM法和STA-PAM法檢測性能有所提升,但對建筑物間隙的識別能力仍然較弱,建筑物之間存在部分連接現(xiàn)象,且容易產(chǎn)生“鋸齒形邊界”現(xiàn)象(見圖10矩形框)。而BEDRNet在建筑物密集度較高的區(qū)域具有更好的識別能力,且能夠較好地保持地物輪廓的準(zhǔn)確性,具有很強(qiáng)的抗鋸齒性能。以上試驗(yàn)結(jié)果表明,雖然時空注意力在提高變化檢測性能方法具有一定的優(yōu)越性,但在密集度較高的建筑物區(qū)域的檢測效果仍有待提升,而BEDRNet通過分別對地物主體、邊緣進(jìn)行建模,可以準(zhǔn)確地識別大型和小型建筑物,且在保持地物邊界的準(zhǔn)確性方面也具有更好的性能。

        圖9 5種方法在密集度較高區(qū)域的檢測結(jié)果Fig.9 The detection results of the five methods in the high-density area

        圖10 5種方法邊界檢測效果Fig.10 The boundary detection effect of the five methods

        2.3.2 消融試驗(yàn)

        為了精確地優(yōu)化建筑物的主體和邊緣特征,本文在BEDRNet模型中設(shè)計(jì)了特征優(yōu)化結(jié)構(gòu)。為了對其設(shè)計(jì)的合理性和有效性進(jìn)行驗(yàn)證,這里開展了有關(guān)特征優(yōu)化結(jié)構(gòu)的消融試驗(yàn)。試驗(yàn)方法包括無特征優(yōu)化結(jié)構(gòu)的BEDRNet-base法及含有特征優(yōu)化結(jié)構(gòu)的BEDRNet。其定量檢測精度見表4。

        表4 消融試驗(yàn)檢測精度Tab.4 The detection accuracy of ablation experiments (%)

        由表4可以看出,BEDRNet的精確度、F1score和Mean_IoU分別比BEDRNet-base高出約2.6%、2.0%和1.7%,即含有特征優(yōu)化結(jié)構(gòu)的方法可以獲得較高的檢測精度。

        檢測結(jié)果如圖11所示,其中第1列為變化檢測結(jié)果標(biāo)簽,第2列為BEDRNet-base檢測結(jié)果圖,第3列為BEDRNet法檢測結(jié)果。由圖11可知,含有特征優(yōu)化結(jié)構(gòu)的BEDRNet法能夠在大型建筑物區(qū)域獲得完整的建筑物輪廓(如圖中第1行檢測結(jié)果中的矩形框所示),能夠較好地識別小型建筑物(如圖中第2行和第3行檢測結(jié)果中的矩形框及橢圓框所示),且無論是對于大型建筑物還是小型建筑物,BEDRNet檢測結(jié)果中的鋸齒現(xiàn)象都較弱。

        圖11 消融試驗(yàn)結(jié)果Fig.11 The results of ablation experiment

        綜上所述,BEDRNet模型中的特征優(yōu)化結(jié)構(gòu)設(shè)置合理,性能高效,能夠通過分別建模大型和小型建筑物的主體和邊緣實(shí)現(xiàn)地物輪廓的準(zhǔn)確識別。

        3 結(jié) 論

        為優(yōu)化建筑物密集區(qū)域的邊界檢測效果,本文將特征解耦的思想應(yīng)用到變化檢測中,提出了一種基于主體、邊緣分解與重組網(wǎng)絡(luò)的建筑物變化檢測方法(BEDRNet模型)。該方法的網(wǎng)絡(luò)結(jié)構(gòu)包括特征提取、特征分解、特征優(yōu)化、特征重組及預(yù)測損失5個部分。其中特征提取主要用于提取影像的深層特征,特征分解用于分解出主體特征和邊緣特征,特征優(yōu)化通過結(jié)合多尺度淺層特征對主體特征、邊緣特征進(jìn)行精準(zhǔn)優(yōu)化,特征重組部分用于對優(yōu)化后的特征進(jìn)行重組和上采樣,生成變化檢測二值圖。試驗(yàn)結(jié)果表明,相較于基于U-Net網(wǎng)絡(luò)的方法、結(jié)合時空注意力的方法,BEDRNet模型能夠在建筑物區(qū)域獲得較優(yōu)的檢測結(jié)果。由于訓(xùn)練樣本的多樣性對模型的性能十分重要,目前現(xiàn)有的數(shù)據(jù)集多為同源遙感影像,未來的研究方向之一就是制作異源遙感影像變化檢測數(shù)據(jù)集,以測試和進(jìn)一步改進(jìn)BEDRNet模型。

        猜你喜歡
        變化檢測邊緣建筑物
        用于遙感圖像變化檢測的全尺度特征聚合網(wǎng)絡(luò)
        基于多尺度紋理特征的SAR影像變化檢測
        鄰近既有建筑物全套管回轉(zhuǎn)鉆機(jī)拔樁技術(shù)
        描寫建筑物的詞語
        基于稀疏表示的視網(wǎng)膜圖像對變化檢測
        基于Landsat影像的黃豐橋林場森林變化檢測研究
        一張圖看懂邊緣計(jì)算
        火柴游戲
        建筑物的加固改造與鑒定評估
        河南科技(2014年24期)2014-02-27 14:19:47
        在邊緣尋找自我
        雕塑(1999年2期)1999-06-28 05:01:42
        久久精品人人做人人爽| 日本高清视频在线观看一区二区| 天天做天天爱夜夜夜爽毛片| 亚洲av无码专区在线播放中文 | 老少配老妇老熟女中文普通话 | 亚洲人成精品久久久久| 有码中文字幕一区二区| 日本a级特级黄色免费| 国产又色又爽又高潮免费视频麻豆 | 无码任你躁久久久久久| 亚洲狼人社区av在线观看| 国产亚洲av一线观看| 无码 人妻 在线 视频| 天堂一区人妻无码| 久久久亚洲精品蜜桃臀| 毛片精品一区二区二区三区| 国产成人精品一区二区三区| 性饥渴艳妇性色生活片在线播放| 乱人伦人妻中文字幕不卡| 亚洲精品中字在线观看| 国产国产裸模裸模私拍视频| 亚洲国产AV无码男人的天堂| 国产一区二区精品av| 国产高清在线视频一区二区三区| 人妻激情另类乱人伦人妻| 国产激情久久99久久| 国产在线a免费观看不卡| 亚洲日韩精品无码av海量| 国产肉体ⅹxxx137大胆| 亚洲色偷偷偷综合网另类小说| 日本久久久免费观看视频| 久久综合狠狠色综合伊人| 精品无码久久久九九九AV| 少妇深夜吞精一区二区| av无码电影一区二区三区| 人妻av一区二区三区精品| 手机av男人天堂免费网址| 国产精品会所一区二区三区| 国产精品免费大片| 最新永久无码AV网址亚洲| 中文字幕人妻在线少妇|