亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于融合邊緣變化信息全卷積神經(jīng)網(wǎng)絡(luò)的遙感圖像變化檢測(cè)

        2022-05-31 06:18:26張香梁呂國(guó)芳
        電子與信息學(xué)報(bào) 2022年5期
        關(guān)鍵詞:檢測(cè)方法

        王 鑫 張香梁 呂國(guó)芳

        (河海大學(xué)計(jì)算機(jī)與信息學(xué)院 南京 211100)

        1 引言

        隨著衛(wèi)星與無(wú)人機(jī)等遙感技術(shù)的飛速發(fā)展,遙感圖像數(shù)據(jù)總量和類(lèi)型都不斷增加,也為遙感圖像的處理提出了更多的挑戰(zhàn)和要求[1]。多時(shí)相遙感圖像的變化檢測(cè),實(shí)質(zhì)是利用同一地區(qū)不同時(shí)相的多幅遙感圖像,監(jiān)測(cè)該地區(qū)的地物變化的過(guò)程。目前,遙感圖像變化檢測(cè)技術(shù)在許多領(lǐng)域都有著廣泛的應(yīng)用,如土地利用變化監(jiān)測(cè)、城市發(fā)展規(guī)劃和布局、水資源地理分布情況和質(zhì)量勘測(cè)等[2–4]。

        傳統(tǒng)的遙感圖像變化檢測(cè)方法主要借助底層或中層特征作為變化區(qū)域判別的依據(jù)。這些方法可以分為直接比較法和先分析后比較法。前者是指先通過(guò)比較像素或各種特征來(lái)構(gòu)成差異圖,然后利用差異圖來(lái)提取變化的區(qū)域。直接比較法又包括圖像差值法、圖像比值法、變化矢量分析法等[5,6]。例如,文獻(xiàn)[6]提出一種基于PCA-K-means的算法,這是一種經(jīng)典的直接比較法,其首先利用主成分分析(Principal Component Analysis, PCA)來(lái)提取兩幅圖像相減的差異圖像正交特征向量,然后使用K-means得到變化檢測(cè)圖像。直接比較法對(duì)數(shù)據(jù)預(yù)處理比較敏感,若預(yù)處理效果不好,檢測(cè)結(jié)果很容易受到噪聲影響。而先分析后比較法是先對(duì)兩幅圖像中的地物進(jìn)行分析,根據(jù)分析的結(jié)果判斷變化區(qū)域。這類(lèi)方法包括支持向量機(jī)、隨機(jī)森林、決策樹(shù)等[7,8]。上述兩類(lèi)傳統(tǒng)的變化檢測(cè)方法,由于從圖像中所提取的特征都比較淺層,并不適合目前具有高分甚至超高分辨率的遙感圖像。

        近年來(lái),深度學(xué)習(xí)由于能從圖像中提取更深層次的特征,而廣泛應(yīng)用于圖像處理和模式識(shí)別領(lǐng)域。目前,國(guó)內(nèi)外學(xué)者提出了許多基于深度學(xué)習(xí)的遙感圖像變化檢測(cè)方法。從方法的框架上來(lái)看,大致可分為3類(lèi):(1) 先提取特征再進(jìn)行檢測(cè)的方法,即先使用深度網(wǎng)絡(luò)對(duì)雙時(shí)相圖像提取圖像特征,再根據(jù)特征進(jìn)行變化檢測(cè)[9];(2) 先預(yù)分類(lèi)再進(jìn)行檢測(cè)的方法,即先使用傳統(tǒng)算法對(duì)差分圖像進(jìn)行預(yù)分類(lèi),挑選明確是變化與不變的樣本對(duì)深度網(wǎng)絡(luò)進(jìn)行訓(xùn)練,最后將不確定的樣本輸入訓(xùn)練好的網(wǎng)絡(luò),得到結(jié)果圖[10]。盡管這兩類(lèi)方法都基于深度學(xué)習(xí),其變化檢測(cè)的效果也優(yōu)于傳統(tǒng)的方法,但它們?cè)跈z測(cè)過(guò)程中所需的閾值判斷、聚類(lèi)和樣本選擇等步驟仍受到人為經(jīng)驗(yàn)的影響,容易產(chǎn)生誤差。(3) 基于全卷積網(wǎng)絡(luò)的方法,這是一種完全端到端的學(xué)習(xí)框架,中間不摻雜人為因素的干擾,整個(gè)過(guò)程更加魯棒、高效[11]。根據(jù)圖像的輸入方法,這類(lèi)方法又可以細(xì)分為單輸入的網(wǎng)絡(luò)和雙輸入的網(wǎng)絡(luò)。單輸入網(wǎng)絡(luò)是將雙時(shí)相圖像級(jí)聯(lián)為一幅圖像后再輸入網(wǎng)絡(luò)[12,13]。例如,文獻(xiàn)[13]將雙時(shí)相圖像對(duì)串聯(lián)作為改進(jìn)UNet++網(wǎng)絡(luò)的輸入,將不同語(yǔ)義層次的變化圖進(jìn)行合并,生成最終的變化圖。相比較單輸入網(wǎng)絡(luò)而言,雙輸入網(wǎng)絡(luò)是借鑒了孿生網(wǎng)絡(luò)[14–16],將全卷積網(wǎng)絡(luò)前端特征提取部分改為兩個(gè)結(jié)構(gòu)相同的網(wǎng)絡(luò)。例如,文獻(xiàn)[15]提出了3種全卷積神經(jīng)網(wǎng)絡(luò)框架用于遙感圖像的變化檢測(cè),其中一種是單輸入,另外兩種為雙輸入,實(shí)驗(yàn)結(jié)果表明雙輸入的網(wǎng)絡(luò)架構(gòu)更適用于變化檢測(cè)。文獻(xiàn)[16]提出一種基于DSIFN的方法,屬于雙輸入的基于全卷積網(wǎng)絡(luò)的方法,雙時(shí)相圖像通過(guò)孿生輸入網(wǎng)絡(luò)提取深度特征,在訓(xùn)練時(shí)將降采樣后的變化圖的直接反饋引入網(wǎng)絡(luò)的中間層,獨(dú)立計(jì)算損失來(lái)更新網(wǎng)絡(luò)參數(shù)。

        盡管基于全卷積網(wǎng)絡(luò)的方法取得了較好的變化檢測(cè)性能,但仍然存在一些不足:(1)全卷積網(wǎng)絡(luò)在提取雙時(shí)相圖像深度特征時(shí),不易獲得圖像的結(jié)構(gòu)變化信息(如邊緣信息等),這將不利于網(wǎng)絡(luò)后端檢測(cè)圖像的重建;(2)部分全卷積網(wǎng)絡(luò)為了滿(mǎn)足單輸入的要求,會(huì)將雙時(shí)相圖像串聯(lián)為一個(gè)圖像,較難區(qū)分每個(gè)圖像的深度特征,不利于最后變化圖的重建[17];(3)類(lèi)似UNet[18]這種全卷積網(wǎng)絡(luò),在變化檢測(cè)時(shí)會(huì)將前端原始深層圖像特征引入到后端,與圖像差異特征級(jí)聯(lián)在一起,這會(huì)帶來(lái)特征冗余問(wèn)題。

        為此,本文針對(duì)上述問(wèn)題,提出了一種基于融合邊緣變化信息全卷積神經(jīng)網(wǎng)絡(luò)的遙感圖像變化檢測(cè)方法。首先,為了獲取雙時(shí)相圖像的結(jié)構(gòu)變化信息,提出計(jì)算兩時(shí)相圖像的邊緣檢測(cè)圖,以得到邊緣差異圖像,作為后續(xù)網(wǎng)絡(luò)的一個(gè)輸入。其次,為了充分提取和區(qū)分每個(gè)輸入的深度特征,搭建了一種基于VGG-16的3支路網(wǎng)絡(luò)框架,該框架將對(duì)雙時(shí)相圖像和邊緣差異圖像分別進(jìn)行深度特征提取。最后,在變化判別部分,設(shè)計(jì)了一種通道注意力模塊,用于關(guān)注特征圖中的關(guān)鍵信息,同時(shí)抑制無(wú)用信息,從而進(jìn)一步提升變化檢測(cè)的精度。整個(gè)方法的創(chuàng)新點(diǎn)在于融合了邊緣變化的信息和通道注意力的模塊,因此,本文將其稱(chēng)為EANet (Edge-Attention Network)。

        2 提出的方法

        2.1 總體框架

        圖1為本文提出算法的總體框架。EANet由邊緣結(jié)構(gòu)變化信息檢測(cè)、深度特征提取和變化區(qū)域判別3部分組成。深度特征提取部分包含3個(gè)支路,雙時(shí)相遙感圖像(即變化前的圖像和變化后的圖像)分別輸入支路T1和T2,邊緣差異圖像輸入第3個(gè)支路C3。變化區(qū)域判別部分將3支路提取得到的深度特征進(jìn)行級(jí)聯(lián),用于變化區(qū)域的判別。

        圖1 本文所提方法的總體框架

        2.2 邊緣結(jié)構(gòu)變化信息檢測(cè)

        在計(jì)算機(jī)視覺(jué)領(lǐng)域中,邊緣可以有效傳達(dá)圖像的結(jié)構(gòu)信息。為此,本文采用 Canny算子[19],對(duì)雙時(shí)相圖像進(jìn)行邊緣檢測(cè),計(jì)算邊緣圖。

        2.3 深度特征提取

        為了提取雙時(shí)相圖像及邊緣差異圖的深度特征,本文設(shè)計(jì)了一種基于VGG-16[20]的3支路網(wǎng)絡(luò)框架。在圖像處理領(lǐng)域,VGG-16作為一個(gè)強(qiáng)大而準(zhǔn)確的分類(lèi)網(wǎng)絡(luò),在圖像分類(lèi)和目標(biāo)檢測(cè)等任務(wù)中取得了良好的效果。為此,本文采用在“ImageNet”數(shù)據(jù)集[21]上預(yù)先訓(xùn)練好的VGG-16的前5層卷積和池化部分,對(duì)雙時(shí)相圖像和邊緣差異圖進(jìn)行深度特征的提取。

        2.4 變化區(qū)域判別

        在特征提取部分,經(jīng)過(guò)卷積和池化后,最后一層生成的特征圖具備了較為豐富的全局信息,但也損失了很多細(xì)節(jié)。為了彌補(bǔ)這些損失,本文借鑒UNet中的跳躍連接(Skip-connection),在每進(jìn)行一次轉(zhuǎn)置卷積后,使用跳躍連接將前端提取的特征圖引入后端,并與上一層轉(zhuǎn)置卷積得到的特征圖進(jìn)行級(jí)聯(lián)。然后,為了關(guān)注特征圖中的關(guān)鍵信息,同時(shí)抑制無(wú)用信息,引入SE(Squeeze-and-Excitation)[22]模塊,將級(jí)聯(lián)后的特征圖先通過(guò)SE,再經(jīng)過(guò)3層卷積層和轉(zhuǎn)置卷積層。最后,通過(guò)Softmax對(duì)特征進(jìn)行分類(lèi),得到最終的變化檢測(cè)結(jié)果。

        2.4.1 SE 模塊

        3 實(shí)驗(yàn)結(jié)果和分析

        3.1 實(shí)驗(yàn)數(shù)據(jù)集

        實(shí)驗(yàn)采用LEVIR-CD數(shù)據(jù)集[24],該數(shù)據(jù)集由637張超高分辨率(0.5 m/pixel)的Google Earth圖像對(duì)組成。每張圖像有RGB3個(gè)波段,大小為1024像素×1024像素。圖像來(lái)自美國(guó)得克薩斯州20個(gè)不同地區(qū),捕捉時(shí)間從2002年到2018年不等,具有顯著的土地利用變化信息。

        圖2 SE模塊結(jié)構(gòu)示意圖

        3.2 實(shí)驗(yàn)環(huán)境和設(shè)置

        本文實(shí)驗(yàn)運(yùn)行環(huán)境為L(zhǎng)inux,平臺(tái)為11 GB顯存的GPU(RTX2080Ti),采用Python3.6語(yǔ)言,Pytorch框架。訓(xùn)練選用Adam優(yōu)化算法,batch size為8,0.0001的學(xué)習(xí)率,200個(gè)epochs,耗時(shí)4 h。本文使用準(zhǔn)確率(Accuracy, Acc)、查準(zhǔn)率(Precision)、查全率(Recall)、F1測(cè)量值(F1-measure)作為算法評(píng)價(jià)指標(biāo)[23]。

        此外,實(shí)驗(yàn)針對(duì)2.2節(jié)涉及的 maxVal和minVal參數(shù)設(shè)定方法如下:根據(jù)文獻(xiàn)[20]建議,m axVal和minVal的比率一般設(shè)定為2:1或3:1,因此本文首先設(shè)置 maxVal 為255,然后m inVal的取值從100~150逐次增加5并遍歷所有結(jié)果,最后根據(jù)實(shí)驗(yàn)結(jié)果選擇效果最好的m axVal和m inVal的值。另外,針對(duì)2.3節(jié)涉及的卷積層使用k×k卷積核,k×k取值設(shè)定為3 ×3,且卷積核步長(zhǎng)設(shè)定為1,其原因在于與7×7 或5 ×5 的卷積核相比,3 ×3卷積核能夠保證在具有相同感知野的條件下,提升網(wǎng)絡(luò)的深度,從而在一定程度上提升深度網(wǎng)絡(luò)的學(xué)習(xí)效果,同時(shí)在本文設(shè)計(jì)的基于VGG-16的3支路網(wǎng)絡(luò)框架中所采用的多個(gè)3 ×3卷積核比一個(gè)僅具有較大尺寸的卷積核擁有更少的參數(shù),這也在另一方面保證了網(wǎng)絡(luò)訓(xùn)練的效率。

        3.3 結(jié)果和分析

        3.3.1 提出算法的實(shí)驗(yàn)結(jié)果

        為了驗(yàn)證本文提出的邊緣變化信息檢測(cè)和通道注意力模塊的作用,構(gòu)建了不同的網(wǎng)絡(luò)形式,并進(jìn)行了消融實(shí)驗(yàn)。設(shè)BASIC為最基礎(chǔ)的雙輸入U(xiǎn)Net網(wǎng)絡(luò),該網(wǎng)絡(luò)不含邊緣變化信息檢測(cè)和通道注意力模塊;BSE表示在BASIC網(wǎng)絡(luò)后端加入通道注意力模塊。圖3給出了BASIC, BSE和本文提出EANet定性分析結(jié)果。

        如圖3所示,為測(cè)試集中隨機(jī)選取的5對(duì)圖像的實(shí)驗(yàn)結(jié)果圖。圖中前兩行為輸入的雙時(shí)相圖像(Input1和Input2),第3行為真實(shí)變化圖(Ground Truth, GT),第4行為BASIC網(wǎng)絡(luò)的變化檢測(cè)結(jié)果,第5行為BSE網(wǎng)絡(luò)的變化檢測(cè)結(jié)果,第6行為本文提出的EANet變化檢測(cè)結(jié)果。圖中黃色橢圓標(biāo)出的是實(shí)際沒(méi)有變化卻預(yù)測(cè)為變化的像素區(qū)域,紅色方框標(biāo)出的是實(shí)際變化卻預(yù)測(cè)為未變化的像素區(qū)域。由圖3可以看出,本文提出的算法,其檢測(cè)結(jié)果優(yōu)于BSE 和BASIC。例如,圖3(a)示例1中,與GT相比,BASIC將實(shí)際未變化的區(qū)域判定成了變化區(qū)域(見(jiàn)黃色橢圓框標(biāo)注);與BASIC相比,BSE由于加入了通道注意力,有效避免了對(duì)變化區(qū)域的誤檢,這說(shuō)明了通道注意力模塊的有效性。再如,圖3(b)示例2中,BASIC和BSE都只能檢測(cè)到部分變化的區(qū)域(見(jiàn)紅色方框標(biāo)注),而我們的方法檢測(cè)到了較為完整的變化區(qū)域,與GT圖最為吻合。這說(shuō)明邊緣變化信息的融入強(qiáng)調(diào)了雙時(shí)相圖像的結(jié)構(gòu)變化,從而減少了漏檢的像素區(qū)域。綜上結(jié)果反映了本文提出的融合邊緣變化信息和通道注意力模塊的EANet在遙感圖像變化檢測(cè)中的優(yōu)越性。

        圖3 不同網(wǎng)絡(luò)架構(gòu)的變化檢測(cè)定性結(jié)果對(duì)比

        表1為不同網(wǎng)絡(luò)架構(gòu)的變化檢測(cè)定量結(jié)果對(duì)比??梢钥闯?,本文提出的EANet網(wǎng)絡(luò)變化檢測(cè)結(jié)果最好,Acc(99.67%)、Recall(92.35%)、F1(93.85%)最高。此外,BSE的4個(gè)指標(biāo)結(jié)果均優(yōu)于BASIC,證明了通道注意力模塊重新分配特征通道的重要性,有利于網(wǎng)絡(luò)后端變化區(qū)域的判別。最后,將EANet與BSE比較發(fā)現(xiàn),雖然EANet的Precision相對(duì)較低,但其Acc, Recall和F1均較高,綜合來(lái)說(shuō)本文算法結(jié)果更好。

        表1 不同網(wǎng)絡(luò)架構(gòu)的變化檢測(cè)定量結(jié)果對(duì)比(%)

        圖4為不同的網(wǎng)絡(luò)架構(gòu)在訓(xùn)練集和測(cè)試集上Loss曲線(xiàn)和F1曲線(xiàn)對(duì)比結(jié)果。其中,圖4(a)為L(zhǎng)oss訓(xùn)練曲線(xiàn),圖4(b)為L(zhǎng)oss測(cè)試曲線(xiàn),圖4(c)為訓(xùn)練F1曲線(xiàn),圖4(d)為測(cè)試F1曲線(xiàn)。如圖4(a)所示,3個(gè)網(wǎng)絡(luò)模型均呈現(xiàn)了良好的訓(xùn)練效果,在100個(gè)epoch之后Loss曲線(xiàn)趨于平緩。如圖4(b)所示,本文方法在測(cè)試集上的Loss曲線(xiàn)最優(yōu),BSE次之,可見(jiàn)在網(wǎng)絡(luò)中加入邊緣變化信息和通道注意力模塊都能夠增強(qiáng)網(wǎng)絡(luò)泛化的能力。如圖4(c)和圖4(d)所示,本文提出的網(wǎng)絡(luò)在測(cè)試集上的F1都要略微高于其余兩個(gè)網(wǎng)絡(luò),說(shuō)明該網(wǎng)絡(luò)變化檢測(cè)精度高。

        圖4 不同的網(wǎng)絡(luò)架構(gòu)在訓(xùn)練集和測(cè)試集上Loss曲線(xiàn)與F1曲線(xiàn)對(duì)比

        3.3.2 與其他算法的比較結(jié)果

        將其余3個(gè)現(xiàn)有的算法在LEVIR-CD數(shù)據(jù)集進(jìn)行變化檢測(cè)。第1種比較算法是傳統(tǒng)的基于PCA-Kmeans的算法[6];第2種比較算法是基于單輸入全卷積網(wǎng)絡(luò)Unet++的方法[13];第3種比較算法是基于雙輸入全卷積網(wǎng)絡(luò)DSIFN的方法[16]。這3種算法的具體描述參見(jiàn)引言部分。

        圖5為與其他算法的比較結(jié)果圖。圖5第4列PCA-K-means檢測(cè)結(jié)果圖只能模糊地檢測(cè)出少量變化區(qū)域,圖中明顯有大量噪聲干擾,傳統(tǒng)方法的檢測(cè)結(jié)果很差,并不適用于高分辨率遙感圖像。圖5第5行Unet++算法的檢測(cè)結(jié)果,雖能檢測(cè)出變化區(qū)域,但是檢測(cè)結(jié)果圖邊界模糊。例如:圖5(b)列示例2的GT圖中,我們可以看到有很多邊界明顯的建筑物的變化,Unet++只能檢測(cè)出變化區(qū)域整體外部輪廓,而不能精細(xì)地將每一個(gè)變化的建筑物區(qū)分開(kāi)來(lái),不利于精確地檢測(cè)出每一處變化的位置,有很多誤檢的像素點(diǎn)。圖5第6行DSIFN算法的檢測(cè)結(jié)果有與GT圖比較有部分漏檢的像素點(diǎn)。例如:圖5(c)列示例3的紅色方框中,GT圖有4塊變化的區(qū)域,DSIFN只能檢測(cè)出3塊變化區(qū)域,本文算法檢測(cè)出了4塊變化的區(qū)域,與GT圖比較僅有少許像素點(diǎn)的差別。

        表2為其他算法的比較結(jié)果精度對(duì)比。結(jié)合圖5和表2的結(jié)果,本文方法獲得了最佳的檢測(cè)效果。PCA-K-means算法 F1(10.50%)最低,檢測(cè)效果最差,深度學(xué)習(xí)比傳統(tǒng)方法更適用于高分辨率遙感圖像。Unet++算法F1(75.60%),雖也取得了較高的檢測(cè)結(jié)果,但是結(jié)合檢測(cè)結(jié)果圖可知圖像單個(gè)特征不充分導(dǎo)致檢測(cè)圖像邊界模糊,只能檢測(cè)出變化區(qū)域的外部輪廓,雙時(shí)相圖像使用孿生輸入網(wǎng)絡(luò)提取的圖像單個(gè)特征更有利于檢測(cè)圖像的重建。本文方法相對(duì)于DSIFN在檢測(cè)精度F1上有些微的提升。

        圖5 不同算法的變化檢測(cè)定性結(jié)果對(duì)比

        圖6為與其他算法在訓(xùn)練和測(cè)試時(shí)Loss曲線(xiàn)和F1曲線(xiàn)的對(duì)比,圖6(a)為L(zhǎng)oss訓(xùn)練曲線(xiàn),圖6(b)為L(zhǎng)oss測(cè)試曲線(xiàn),圖6(c)為F1訓(xùn)練曲線(xiàn),圖6(d)為F1測(cè)試曲線(xiàn)。如圖6(a)所示,與Unet++相比,雙端輸入的網(wǎng)絡(luò)訓(xùn)練損失曲線(xiàn)下降速度快,雙端輸入的網(wǎng)絡(luò)是較好的訓(xùn)練模式。在第100個(gè)epoch時(shí),Unet++的Loss訓(xùn)練曲線(xiàn)還未趨于平緩,訓(xùn)練代價(jià)較大。如圖6(b)所示,本文框架在測(cè)試集上損失曲線(xiàn)最后下降的值最小,Unet++最大,則Unet++的泛化能力最差,單端輸入的深度學(xué)習(xí)網(wǎng)絡(luò)在變化檢測(cè)領(lǐng)域的泛化能力不如其余兩個(gè)雙輸入網(wǎng)絡(luò)。DSIFN和本文網(wǎng)絡(luò)均為雙端輸入網(wǎng)絡(luò),本文網(wǎng)絡(luò)在泛化能力上略?xún)?yōu)于DSIFN。如圖6(d)所示,Unet++的測(cè)試精度遠(yuǎn)沒(méi)有DSIFN和本文算法高,結(jié)合表2的精度對(duì)比數(shù)據(jù),本文算法的檢測(cè)精度最高。

        圖6 不同算法在訓(xùn)練集和測(cè)試集上Loss曲線(xiàn)與F1曲線(xiàn)對(duì)比

        表2 不同算法的變化檢測(cè)定量結(jié)果對(duì)比(%)

        最后,本文還對(duì)提出的網(wǎng)絡(luò)和兩種深度網(wǎng)絡(luò)模型(Unet++和DSIFN)進(jìn)行了模型計(jì)算力(FLOPs)、參數(shù)量(Params)及訓(xùn)練時(shí)間的對(duì)比和分析,結(jié)果如表3所示。鑒于本文模型在深度特征提取部分采用了3個(gè)支路,比Unet++多出2條支路,比DSIFN多出1條支路,因此提出算法的計(jì)算力FLOPs和參數(shù)量Params略有提升。此外,由于本文方法在處理雙時(shí)相圖像時(shí)需要預(yù)先檢測(cè)出邊緣差異圖,所以其算法訓(xùn)練時(shí)間也略高一些。盡管增加了計(jì)算代價(jià),但是本文方法在變化檢測(cè)的精度方面有了顯著的提升,結(jié)果圖中誤檢數(shù)和漏檢數(shù)也減少了很多。未來(lái)工作將研究如何在保證精度提升的前提下,降低模型空間和時(shí)間代價(jià)。

        表3 不同算法的計(jì)算效率結(jié)果對(duì)比

        4 結(jié)束語(yǔ)

        本文提出了一種融合了邊緣變化信息和SE模塊的EANet高分辨率遙感圖像變化檢測(cè)。首先對(duì)雙時(shí)相圖像進(jìn)行邊緣檢測(cè)得到邊緣圖,相減得到邊緣差異圖。再使用3支基于VGG-16的模型提取雙時(shí)相圖像和邊緣差異圖的深度特征,強(qiáng)調(diào)雙時(shí)相圖像的結(jié)構(gòu)變化信息。雙時(shí)相圖像和邊緣差異圖的特征圖輸入網(wǎng)絡(luò)后端變化判別部分用于變化檢測(cè)。在變化區(qū)域判別部分,每一次特征圖級(jí)聯(lián)后加入SE模塊,來(lái)強(qiáng)調(diào)攜帶信息量大的通道。網(wǎng)絡(luò)在公開(kāi)的LEVIR-CD遙感數(shù)據(jù)集上進(jìn)行了驗(yàn)證。實(shí)驗(yàn)表明,邊緣差值圖能有效傳遞邊緣變化信息,強(qiáng)調(diào)雙時(shí)相圖像的結(jié)構(gòu)變化,加入SE模塊能提高檢測(cè)精度。將本文方法與其他3種變化檢測(cè)方法對(duì)比,本文方法在視覺(jué)效果和精度衡量上均優(yōu)于其余3種方法。由于本文提出的方法能夠有效提取遙感圖像中變化區(qū)域的結(jié)構(gòu)信息,從而提高變化檢測(cè)的精度,因此算法更適用于城市建筑群變化檢測(cè)等類(lèi)似問(wèn)題上。

        猜你喜歡
        檢測(cè)方法
        “不等式”檢測(cè)題
        “一元一次不等式”檢測(cè)題
        “一元一次不等式組”檢測(cè)題
        “幾何圖形”檢測(cè)題
        “角”檢測(cè)題
        學(xué)習(xí)方法
        可能是方法不對(duì)
        小波變換在PCB缺陷檢測(cè)中的應(yīng)用
        用對(duì)方法才能瘦
        Coco薇(2016年2期)2016-03-22 02:42:52
        四大方法 教你不再“坐以待病”!
        Coco薇(2015年1期)2015-08-13 02:47:34
        欧洲在线一区| 色综合久久中文娱乐网| 看黄a大片日本真人视频直播| 精品乱码一区二区三区四区| 亚洲av中文aⅴ无码av不卡| 蜜臀av一区二区三区| 超碰人人超碰人人| 日本午夜免费福利视频| 国产激情一区二区三区成人免费| 亚洲五码av在线观看| 欧美性色欧美a在线播放| 亚洲精品无码久久久久久| 538任你爽精品视频国产| 国产熟妇一区二区三区网站| 在线观看一级黄片天堂| 中国老熟妇自拍hd发布| 日韩欧美国产自由二区| 人妖与人妖免费黄色片| 国产精品美女久久久网av| 国产特级毛片aaaaaa高清| 在线视频中文字幕乱人伦| 国产在线一区二区三区不卡| 日韩亚洲欧美久久久www综合| 日日鲁鲁鲁夜夜爽爽狠狠视频97 | 久久亚洲春色中文字幕久久| 国产精品泄火熟女| 高清无码一区二区在线观看吞精 | 日本免费大片一区二区三区| 深夜福利啪啪片| 久久久久久av无码免费看大片 | 中文字幕人乱码中文字幕| 少妇对白露脸打电话系列| 3亚洲日韩在线精品区| 国产专区国产精品国产三级| 国产99在线 | 亚洲| 欧美在线专区| 亚洲国产天堂av成人在线播放| 精品亚洲a∨无码一区二区三区| 日韩精品无码av中文无码版| 操B小视频国产| 国产乱理伦在线观看美腿丝袜|