王一琛,劉 慧,王海濤,錢育蓉+
(1.新疆大學(xué) 軟件學(xué)院,新疆 烏魯木齊 830046;2.新疆大學(xué) 信息科學(xué)與工程學(xué)院,新疆 烏魯木齊 830046;3.新疆大學(xué) 新疆維吾爾自治區(qū)信號(hào)檢測(cè)與處理重點(diǎn)實(shí)驗(yàn)室,新疆 烏魯木齊 830046;4.新疆大學(xué) 軟件工程重點(diǎn)實(shí)驗(yàn)室,新疆 烏魯木齊 830046)
基于遙感影像的建筑物解譯在城市規(guī)劃、地圖服務(wù)、自動(dòng)駕駛、商業(yè)規(guī)劃、變化檢測(cè)等方面應(yīng)用,語(yǔ)義分割在遙感圖像解譯中扮演重要角色,是低高層遙感圖像處理及分析的重要銜接[1]。語(yǔ)義分割是一種圖像像素級(jí)標(biāo)注技術(shù),指為圖像中的每一個(gè)像素分配對(duì)應(yīng)的像素標(biāo)簽,基于這些像素標(biāo)簽將圖像分割為若干具有語(yǔ)義信息的區(qū)域[2]。
近年來(lái),使用場(chǎng)論和集合論的語(yǔ)義分割方法[3-6]建立在數(shù)學(xué)模型的基礎(chǔ)之上,不同數(shù)據(jù)集上結(jié)果相差較大。Long等[7]提出的FCN模型將端到端的卷積神經(jīng)網(wǎng)絡(luò)框架結(jié)構(gòu)引入語(yǔ)義分割任務(wù)中。基于編碼器-解碼器[8-11]和基于候選區(qū)域[12-15]的方法現(xiàn)在被廣泛使用,由于遙感圖像易受到類別分布不平衡、建筑物邊緣細(xì)節(jié)信息難以分割等因素的影響,Minh[16]使用卷積神經(jīng)網(wǎng)絡(luò)對(duì)道路和建筑物進(jìn)行檢測(cè)。Li等[17]將密集連接添加到U-Net模型的編碼器和解碼器之中。Zhang等[18]使用層次密集連接的網(wǎng)絡(luò)用于提高網(wǎng)絡(luò)提取圖像特征能力。近年來(lái)注意力機(jī)制也被應(yīng)用在遙感圖像語(yǔ)義分割領(lǐng)域,將注意力機(jī)制加入網(wǎng)絡(luò)以提升模型的靈敏度并降低無(wú)關(guān)區(qū)域的影響[19,20]。上述模型通過對(duì)模型添加密集連接模塊或注意力機(jī)制的方法用于增加圖像分割質(zhì)量,但也隨之增大了模型參數(shù)量,難以在大規(guī)模部署和實(shí)時(shí)環(huán)境下進(jìn)行有效的應(yīng)用。針對(duì)遙感圖像地物信息復(fù)雜導(dǎo)致模型分割完整度低和模型參數(shù)量大的問題,本文設(shè)計(jì)了以編碼器-解碼器為結(jié)構(gòu)的輕量化語(yǔ)義分割模型LED-Net。
為了使網(wǎng)絡(luò)得到更準(zhǔn)確的分割結(jié)果圖和更少的模型參數(shù)量,LED-Net采用端到端的編碼器-解碼器結(jié)構(gòu),結(jié)構(gòu)如圖1所示,輸入圖像經(jīng)過網(wǎng)絡(luò)可以直接得到分割結(jié)果圖。
圖1 LED-Net結(jié)構(gòu)
在編碼器部分使用含有通道注意力機(jī)制的ResNet網(wǎng)絡(luò)用于圖像的語(yǔ)義信息提取,提高模型對(duì)于建筑物的特征提取能力;為了使結(jié)果圖得到準(zhǔn)確的建筑物分割預(yù)測(cè),解碼器部分使用輕量化的DUpsampling模塊將編碼器生成的特征圖進(jìn)行解碼操作,生成最終的預(yù)測(cè)結(jié)果。
語(yǔ)義分割編碼器中的骨干網(wǎng)絡(luò)可以自適應(yīng)地從輸入圖像中學(xué)習(xí)到圖像的類別信息和位置信息,網(wǎng)絡(luò)提取特征的能力影響最后分割結(jié)果的精度和性能,語(yǔ)義分割基于編碼器-解碼器結(jié)構(gòu)的模型中,通過添加注意力機(jī)制的模塊用于進(jìn)一步提升模型獲取特征圖能力[21]。注意力機(jī)制主要分為通道(channel)注意力機(jī)制和空間(spatial)注意力機(jī)制,通道注意力機(jī)制相較于空間注意力機(jī)制,參數(shù)量少,節(jié)省網(wǎng)絡(luò)運(yùn)行時(shí)間。
ECA-Net[22]中的通道注意力ECA模塊通過一維卷積來(lái)獲取特征圖中通道間的交互信息,這種模塊在圖像分類和目標(biāo)檢測(cè)領(lǐng)域被證明能提升網(wǎng)絡(luò)特征提取能力并且不會(huì)增加過多的額外參數(shù),ECA模塊可以由式(1)~式(3)表示
(1)
式中:Ic為輸入的特征圖,c為輸入模塊內(nèi)的通道數(shù)。式(1) 將H×W×C的特征圖通過Fga全局平均池化模塊進(jìn)行全局平均操作,其中H、W、C代表特征圖的高、寬、通道數(shù)量,輸出Zc特征圖的大小為1×1×C
Qc=σ(Dk(Zc))
(2)
式中:Dk代表為一維的卷積核,k為卷積核的大小。σ為Sigmoid激活函數(shù)。特征圖Zc經(jīng)過卷積和Sigmoid激活函數(shù)之后得到各通道的權(quán)值Qc
Oc=Ic·Qc
(3)
式中:將注意力模塊的輸入特征圖Ic與通道權(quán)值Qc相乘,最終得到與Ic大小相同的輸出特征圖Oc。
LED-Net采用改進(jìn)的ResNet網(wǎng)絡(luò)作為骨干網(wǎng)絡(luò),去除了ResNet中的全連接層,并在其中加入ECA模塊和空洞卷積,網(wǎng)絡(luò)結(jié)構(gòu)如圖2所示。高效通道注意力殘差網(wǎng)絡(luò)主要由1個(gè)7×7卷積、1個(gè)最大池化層(Max Pooling)和4個(gè)高效通道注意力殘差塊(efficient channel attention residual block,ECARB)構(gòu)成。每個(gè)ECARB進(jìn)行不同數(shù)目1×1、3×3的卷積(convolution,Conv)操作,每個(gè)Conv由BN(batch normalization)、ReLU(rectified linear unit)和卷積核(Convolution Kernel)共同組成。通過ECARB使得網(wǎng)絡(luò)的每一層都可以獲得前面?zhèn)鬟f下來(lái)的特征圖,實(shí)現(xiàn)特征傳遞,提高每層之間像素特征和梯度流的傳遞。由于語(yǔ)義分割任務(wù)與分類任務(wù)的不同,語(yǔ)義分割任務(wù)需要進(jìn)行上采樣恢復(fù)到與輸入圖像分辨率相同的大小,并兼顧圖像分割目標(biāo)的類別信息和位置信息提取,與PSPNet[23]和DeepLabV3+[24]網(wǎng)絡(luò)相同,本文在ResNet的第3個(gè)和第4個(gè)ECARB中將標(biāo)準(zhǔn)3×3卷積核的空洞率分別改為2和4。
圖2 編碼器骨干網(wǎng)絡(luò)結(jié)構(gòu)
語(yǔ)義分割模型在編碼器部分通常將輸入圖像縮小為原始尺寸的1/8或1/16,解碼器部分常使用雙線性插值算法或堆棧式反卷積,將圖像分辨率擴(kuò)大8倍或16倍,兩種方法的優(yōu)劣勢(shì)各在于:雙線性插值算法模型參數(shù)量小,但圖像邊緣分割能力較弱;而使用反卷積對(duì)于目標(biāo)的邊緣信息恢復(fù)能力強(qiáng),但模型參數(shù)量較大。為解決解碼器的精度和模型參數(shù)量平衡問題,LED-Net使用數(shù)據(jù)依賴上采樣(data-dependent upsampling,DUpsampling)模塊[25]用于替代傳統(tǒng)的解碼器。
DUpsampling是一種將編碼器輸出特征圖進(jìn)行語(yǔ)義編碼的模塊,如圖3所示,F(xiàn)為編碼器輸出尺寸大小為H×W×C的特征圖,之后將特征圖中每個(gè)1×1×C大小的像素轉(zhuǎn)變?yōu)?×C矩陣,并將其乘上C×N大小的待訓(xùn)練矩陣W,乘積結(jié)果生成1×N的特征,通過重新排列(Rearrange)將1×N的特征變?yōu)镽×R×(N/R2) 的特征,其中R代表DUpsampling輸出所擴(kuò)大分辨率的倍數(shù),經(jīng)過對(duì)輸入特征圖F內(nèi)每個(gè)像素點(diǎn)進(jìn)行DUpsampling操作,最終得到 (R×H)×(R×W)×(N/R2) 大小的輸出分割圖像O。
圖3 DUpsampling結(jié)構(gòu)(圖中R=2)
DUpsampling模塊的損失函數(shù)被定義為
P=Sigmoid(DUpsampling(F))
(4)
BCELoss(P,T)=-TlogP-(1-T)log(1-P)
(5)
其中,F(xiàn)為輸入的特征圖(feature map),T代表target的二分類值,其中T=1代表此像素點(diǎn)為建筑物,T=0為背景。DUpsampling模塊將F的分辨率擴(kuò)大到與T相同的尺寸,并經(jīng)過Sigmoid激活函數(shù)進(jìn)行類別預(yù)測(cè),將分割圖中每個(gè)像素值P歸一化到0~1之間,之后使用二分類的交叉熵(binary cross entropy,BCE)損失函數(shù)P越接近于1代表網(wǎng)絡(luò)判斷此像素點(diǎn)時(shí)建筑物的概率更大,反之則代表網(wǎng)絡(luò)判斷像素點(diǎn)為背景的概率更大。DUpsampling模塊通過網(wǎng)絡(luò)訓(xùn)練迭代,將輸出分割圖和標(biāo)簽圖的損失減少,使解碼器DUpsampling模塊輸出更加準(zhǔn)確的分割預(yù)測(cè)圖。
由于LED-Net中高效通道注意力殘差網(wǎng)絡(luò)將輸入圖片下采樣到1/8分辨率大小,而語(yǔ)義分割結(jié)果圖需要與輸入圖片保持相同的分辨率大小,所以LED-Net將DUpsampling擴(kuò)大倍率R設(shè)為8,以獲取最終的分割結(jié)果圖。
INRIA Aerial Image數(shù)據(jù)集[26]由按像素手工標(biāo)記的航空?qǐng)D像組成。數(shù)據(jù)集由3波段正射RGB圖像組成,標(biāo)簽由含有兩個(gè)語(yǔ)義類別的地面真實(shí)數(shù)據(jù)組成:建筑物和非建筑物。數(shù)據(jù)集涵蓋了Austin、Chicago、Kitsap、Western Tyrol和Vienna的城市區(qū)域,空間分辨率為30 cm,每個(gè)城市各有36張5000×5000像素分辨率的高分遙感圖像和標(biāo)簽,每個(gè)高分遙感圖像和標(biāo)簽中包含地面1500×1500 m2的區(qū)域。數(shù)據(jù)集作者將每個(gè)城市的前5張圖片作為測(cè)試集,剩余圖片作為訓(xùn)練集,由此我們共可獲得155張訓(xùn)練圖片,25張測(cè)試圖片用于網(wǎng)絡(luò)的訓(xùn)練和測(cè)試對(duì)比。
Massachusetts Buildings數(shù)據(jù)集[16]由波士頓城市和郊區(qū)的航拍圖像組成。每張航拍圖像拍攝面積為2.25平方公里,標(biāo)簽圖由OpenStreetMap項(xiàng)目中獲得的建筑標(biāo)簽獲得的,該數(shù)據(jù)平均遺漏噪聲水平僅約為5%,圖像的標(biāo)簽由含有建筑物和非建筑物這兩類的地面數(shù)據(jù)組成。數(shù)據(jù)集包含151張1500×1500像素分辨率的高分遙感圖像,每個(gè)高分遙感圖像和標(biāo)簽中包含地面2250×2250 m2的區(qū)域。訓(xùn)練集包含137張圖像及標(biāo)簽,測(cè)試集包含10張圖像及標(biāo)簽。
由于數(shù)據(jù)集中圖像和標(biāo)簽均為高分辨圖像,若模型直接使用這些圖像和標(biāo)簽進(jìn)行訓(xùn)練,會(huì)因高分辨率遙感圖像尺寸較大,導(dǎo)致訓(xùn)練過程出現(xiàn)內(nèi)存不足而導(dǎo)致無(wú)法訓(xùn)練,所以需要對(duì)數(shù)據(jù)集圖片進(jìn)行切分。切分使用重疊切片(overlap-tile)策略,對(duì)于INRIA Aerial Image數(shù)據(jù)集,首先將圖像和標(biāo)簽邊緣處進(jìn)行188像素的鏡像填充,以確保等分切分,之后將遙感圖像及標(biāo)簽切分成384×384大小的小尺寸圖像,每張圖片由此可以切分成196張小尺寸圖像,數(shù)據(jù)集被切分為30 380張圖片用于訓(xùn)練和4900張圖片用于測(cè)試。對(duì)于Massachusetts Buildings數(shù)據(jù)集,將圖像和標(biāo)簽邊緣進(jìn)行18像素的鏡像填充,之后將遙感圖像及標(biāo)簽同樣切分成384×384大小,每張圖片由此可以切分成16張小尺寸圖像,此數(shù)據(jù)集被切分為2192張訓(xùn)練圖片和160張測(cè)試圖片。
為增加模型的魯棒性,本文在訓(xùn)練過程中加入了數(shù)據(jù)增廣操作,對(duì)訓(xùn)練集中切分好的圖像和標(biāo)簽隨機(jī)進(jìn)行逆時(shí)針旋轉(zhuǎn)90度旋轉(zhuǎn)180度、270度、沿X軸上下翻轉(zhuǎn)和沿Y軸左右翻轉(zhuǎn)的處理。
本實(shí)驗(yàn)在NVIDIA TeslaV100 GPU服務(wù)器上搭建基于Pytorch的語(yǔ)義分割框架,操作環(huán)境為64位Windows 10,編程語(yǔ)言為Python3.7,主要函數(shù)庫(kù)包括OpenCV、PIL、Numpy等。模型訓(xùn)練過程使用的優(yōu)化器Adam,訓(xùn)練參數(shù)設(shè)置見表1。當(dāng)訓(xùn)練次數(shù)進(jìn)行到50次時(shí),學(xué)習(xí)率減少為0.005。
表1 訓(xùn)練參數(shù)設(shè)置
為了公平的比較LED-Net與同研究模型在兩個(gè)數(shù)據(jù)集上的準(zhǔn)確率,本文使用與數(shù)據(jù)集相關(guān)文獻(xiàn)一致的評(píng)價(jià)指標(biāo)。對(duì)于INRIA Aerial Image Dataset使用Acc.(overall accuracy)和IoU(intersection over union)這兩個(gè)評(píng)價(jià)指標(biāo),用于在對(duì)比實(shí)驗(yàn)中進(jìn)行模型準(zhǔn)確率的比較[26],Acc.如式(6)所示,IoU如式(7)所示。標(biāo)簽圖中的正類代表建筑物,負(fù)類代表背景,TP(true positive)表示正類被判定為正類;FP(false positive)表示負(fù)類被判定為正類;FN(false negative)表示正類被判定為負(fù)類;TN(true negative)表示負(fù)類被判定為負(fù)類
(6)
(7)
而Massachusetts Buildings Dataset采用了一種松弛(relaxed)F1-score用于評(píng)價(jià)各模型的分割性能,寬松系數(shù)(relaxed factor)ρ代表在預(yù)測(cè)圖中的每一個(gè)像素點(diǎn)在四周范圍允許有ρ個(gè)像素點(diǎn)的誤差,當(dāng)ρ=0及代表傳統(tǒng)的F1-score,我們?cè)趯?duì)比實(shí)驗(yàn)使用ρ=0和ρ=3的F1-score對(duì)各模型的準(zhǔn)確率進(jìn)行比較[16]。F1-score如式(8)所示
(8)
在建筑物語(yǔ)義分割實(shí)際應(yīng)用任務(wù)中,不僅需要對(duì)比模型的準(zhǔn)確率,而且還要考慮模型的大小,為此我們計(jì)算了LED-Net與其它模型的參數(shù)量進(jìn)行綜合性能對(duì)比。
為了驗(yàn)證LED-Net中所設(shè)計(jì)的ECA模塊和DUpsampling模塊的有效性,我們使用編碼器骨干網(wǎng)絡(luò)為加入空洞卷積的ResNet-50,解碼器為雙線性插值的網(wǎng)絡(luò)模型作為基礎(chǔ)模型,并分別對(duì)基礎(chǔ)模型的編碼器網(wǎng)絡(luò)添加ECA模塊和解碼器替換為DUpsampling模塊。值得注意的是,與對(duì)比實(shí)驗(yàn)不同,消融實(shí)驗(yàn)為說(shuō)明ECA模塊和DUpsampling模塊在兩個(gè)數(shù)據(jù)集中的效果差異,實(shí)驗(yàn)中的各模型使用F1-score、Acc.、IoU這3個(gè)評(píng)價(jià)指標(biāo)對(duì)比準(zhǔn)確率,并對(duì)各模型的參數(shù)量做綜合性能考量。
表2展示了在INRIA Aerial Image 數(shù)據(jù)集消融實(shí)驗(yàn)的準(zhǔn)確率和模型參數(shù)量對(duì)比,相較于基礎(chǔ)模型1、模型2和模型3分別添加ECA模塊與DUpsampling模塊,對(duì)于準(zhǔn)確率的提升基本相同,其中IoU指標(biāo)提升0.68%。LED-Net通過同時(shí)添加兩個(gè)模塊使得IoU指標(biāo)提升1.67%,表明了我們?cè)O(shè)計(jì)的模塊在準(zhǔn)確率提升方面的有效性。圖4為INRIA Aerial Image 數(shù)據(jù)集上各模型的分割結(jié)果,3張圖片塊的建筑物均包含大小和形狀不同的建筑物模型1,存在建筑的誤分類和邊緣分割效果差的情況,而添加了ECA模塊的結(jié)果圖誤分類現(xiàn)象更少,使用DUpsampling模塊增加了建筑物邊緣的分割精確度,同時(shí)使用兩種模塊在可視化效果圖中達(dá)到了最優(yōu)。
表2 INRIA Aerial Image數(shù)據(jù)集消融實(shí)驗(yàn)性能對(duì)比
圖4 INRIA Aerial Image數(shù)據(jù)集消融實(shí)驗(yàn)分割結(jié)果
Massachusetts Buildings數(shù)據(jù)集的消融實(shí)驗(yàn)準(zhǔn)確率結(jié)果對(duì)比見表3,添加我們?cè)O(shè)計(jì)的兩個(gè)模塊同樣在3個(gè)指標(biāo)上都取得了提升。添加DUpsampling模塊的IoU指標(biāo)增加4.04%,而添加ECA模塊IoU指標(biāo)增加1%??梢暬指罱Y(jié)果如圖5所示,添加ECA模塊的模型2減少了城市中密集建筑物之間的誤分類像素,與INRIA Aerial Image數(shù)據(jù)集不同,Massachusetts Buildings數(shù)據(jù)集中的建筑物數(shù)量更多且更加密集,模型3和模型4在此數(shù)據(jù)集上的分割準(zhǔn)確率和可視化結(jié)果圖效果更好,這是由于DUpsampling模塊通過可學(xué)習(xí)的上采樣矩陣,對(duì)建筑物的邊緣和細(xì)節(jié)特征進(jìn)行精確的分割,從而達(dá)到準(zhǔn)確率和可視化效果的提升。
表3 Massachusetts Buildings數(shù)據(jù)集消融實(shí)驗(yàn)性能對(duì)比
圖5 Massachusetts Buildings數(shù)據(jù)集消融實(shí)驗(yàn)分割結(jié)果
在表2和表3參數(shù)量對(duì)比中,添加ECA模塊的編碼器網(wǎng)絡(luò)僅通過增加很少的參數(shù)數(shù)量達(dá)到了準(zhǔn)確率的提升,而解碼器使用DUpsampling可以在減少28.2%參數(shù)量情況下增加分割準(zhǔn)確率。結(jié)合準(zhǔn)確率和參數(shù)量對(duì)比,ECA模塊和DUpsampling模塊達(dá)到了預(yù)期的設(shè)計(jì)效果。
我們選擇了一些最先進(jìn)的研究,包括語(yǔ)義分割和建筑物檢測(cè)領(lǐng)域的FCN-50[7]、U-Net[8]、Building-A-Net[17]、PSPNet[23]、DeepLabV3+[24]、E-FCN[26]。本文與數(shù)據(jù)集文獻(xiàn)和Building-A-Net使用的評(píng)價(jià)指標(biāo)相同,使用3.2節(jié)中的Acc.和IoU這兩個(gè)評(píng)價(jià)指標(biāo)用于在INRIA Aerial Image Dataset比較準(zhǔn)確率、松弛(Relaxed)F1-score指標(biāo),用于評(píng)價(jià)各模型在Massachusetts Buildings數(shù)據(jù)集上的準(zhǔn)確率,并計(jì)算出各模型參數(shù)量用于綜合性能對(duì)比。
3.4.1 INRIA Aerial Image數(shù)據(jù)集對(duì)比實(shí)驗(yàn)
INRIA Aerial Image數(shù)據(jù)集上各模型的準(zhǔn)確率和模型參數(shù)量對(duì)比結(jié)果見表4,LED-Net在城市數(shù)量更多且地物信息更加復(fù)雜的遙感圖片上,相較于其它模型在Acc.和IoU兩項(xiàng)指標(biāo)上取得了最高的準(zhǔn)確率,相較于次優(yōu)準(zhǔn)確率的DeepLabV3+,模型參數(shù)減少41%。可視化分割預(yù)測(cè)圖對(duì)比如圖6所示,其中LED-Net對(duì)比其它模型,在建筑物的邊緣處分割效果更加精細(xì)和準(zhǔn)確,PSPNet和DeepLabV3+由于直接采用雙線性插值算法,對(duì)于圖片中形狀不規(guī)則的建筑物分割效果較差,LED-Net使用DUpsampling增加了模型對(duì)于建筑物邊緣和細(xì)節(jié)信息的處理能力。相對(duì)于U-Net,LED-Net通過在骨干網(wǎng)絡(luò)增加ECA模塊使得特征提取能力增強(qiáng),分割圖中的建筑物誤分類像素也更少。
表4 INRIA Aerial Image數(shù)據(jù)集上各模型性能對(duì)比
圖6 INRIA Aerial Image數(shù)據(jù)集上各模型分割結(jié)果
3.4.2 Massachusetts Buildings數(shù)據(jù)集對(duì)比實(shí)驗(yàn)
Massachusetts Buildings數(shù)據(jù)集上各模型的準(zhǔn)確率和模型參數(shù)量對(duì)比結(jié)果見表5,LED-Net在建筑物數(shù)量更多且更加密集的遙感圖片上,相較于其它模型在ρ=3的Relaxed F1-score取得了最高的準(zhǔn)確率,在ρ=0的Relaxed F1-score取得了次優(yōu)的準(zhǔn)確率,且相對(duì)于使用GAN網(wǎng)絡(luò)的Building-A-Net,模型參數(shù)量減少84萬(wàn)個(gè)。我們?cè)跍y(cè)試集中挑選3張圖片作為可視化分割預(yù)測(cè)圖對(duì)比,如圖7所示,LED-Net對(duì)建筑物的誤分類像素更少,邊緣細(xì)節(jié)分割效果也更好。
表5 Massachusetts Buildings數(shù)據(jù)集上各模型性能對(duì)比
圖7 Massachusetts Buildings數(shù)據(jù)集上各模型分割結(jié)果
綜合兩個(gè)數(shù)據(jù)集上的實(shí)驗(yàn),表明了我們?cè)O(shè)計(jì)的LED-Net模型可以在減少的參數(shù)量的情況下,增加分割準(zhǔn)確率,并且可以生成可視化效果更好的分割預(yù)測(cè)圖,以滿足實(shí)際應(yīng)用需求。
本文針對(duì)高分遙感圖像建筑物語(yǔ)義分割模型,存在建筑物的整體和邊緣分割完整度低和模型參數(shù)量大的問題,提出了一種輕量化的遙感建筑物語(yǔ)義分割網(wǎng)絡(luò)LED-Net。LED-Net使用編碼器-解碼器結(jié)構(gòu),其中編碼器骨干網(wǎng)絡(luò)使用帶有ECA模塊的ResNet網(wǎng)絡(luò),提高模型在遙感圖像中的特征提取能力;解碼器使用輕量化的DUpsampling模塊,通過這個(gè)模塊提高建筑物的邊緣分割能力并減少模型參數(shù)量。實(shí)驗(yàn)結(jié)果表明,與同研究模型相比,LED-Net在INRIA Aerial Image Dataset和Massachusetts Buildings Dataset均取得了更好性能。LED-Net對(duì)于背景復(fù)雜和邊緣信息要求高的目標(biāo)物分割效果較好,且模型參數(shù)量較少,后續(xù)考慮推廣到遙感圖像的道路、水域、農(nóng)田等語(yǔ)義分割實(shí)際應(yīng)用中去。