盛晟 萬(wàn)芳琦 林康聆 胡朝陽(yáng) 陳華
摘要:高精度的水體提取有助于水資源監(jiān)測(cè)和管理。目前基于遙感影像的水體提取方法缺乏對(duì)于邊界質(zhì)量的重視,造成邊界劃分不準(zhǔn)確,細(xì)節(jié)保留度低的問(wèn)題。為了提升遙感影像水體提取的邊界與細(xì)節(jié)的精度,提出了一種基于多尺度特征融合的高分辨率遙感影像水體提取深度學(xué)習(xí)算法,包括分層特征提取模塊與融合多尺度特征的堆疊連接解碼器模塊。分層特征提取模塊中,引入了通道注意力結(jié)構(gòu),用于整合高分辨率遙感影像中水體的形狀、紋理和色調(diào)信息,以便更好地理解水體的形狀和邊界。在融合多尺度特征的堆疊連接解碼器模塊中,進(jìn)行了多層次語(yǔ)義信息的堆疊連接,并加強(qiáng)了特征提取,同時(shí)捕捉了廣泛的背景信息和細(xì)微的細(xì)節(jié)信息,以實(shí)現(xiàn)更好的水體提取效果。在自行標(biāo)注的數(shù)據(jù)集與公開(kāi)數(shù)據(jù)集上的試驗(yàn)結(jié)果表明,模型的準(zhǔn)確率達(dá)到了98.37%和91.23%,與現(xiàn)有的語(yǔ)義分割模型相比,提取的水體邊緣更加完整,同時(shí)保留細(xì)節(jié)的能力更強(qiáng)。提出的模型提升了水體提取的精度和泛化能力,為高分辨率遙感影像水體提取提供了參考。
關(guān)鍵詞:水體提??;高分辨率遙感影像;深度學(xué)習(xí);多尺度特征融合
中圖分類(lèi)號(hào):P332文獻(xiàn)標(biāo)識(shí)碼:A文章編號(hào):1001-9235(2024)02-0045-08
Deep Learning Algorithm for Water Body Extraction from High-resolution Remote Sensing Images Based on Hierarchical Feature Extraction and Multi-scale Feature Fusion
SHENG Sheng1,WAN Fangqi2,LIN Kangling1,HU Zhaoyang3,CHEN Hua1*
(1.State Key Laboratory of Water Resources Engineering and Management,Wuhan University,Wuhan 430072,China; 2.Jiangxi Institute of Natural Resources Surveying,Mapping and Monitoring,Nanchang 330009,China; 3.Fujian Provincial Investigation,Design & Research Institute of Water Conservancy & Hydropower,F(xiàn)uzhou 350001,China)
Abstract: Highly accurate water body extraction can be helpful for water resources monitoring and management.The current methods of water body extraction based on remote sensing images lack attention to boundary quality,resulting in inaccurate boundary delineation and low detail retention.To improve the boundary and detail accuracy of water body extraction for remote sensing images,this paper proposes a deep learning algorithm for water body extraction from high-resolution remote sensing images based on multi-scale feature fusion.The model includes a hierarchical feature extraction module and a stacked-connected decoder module that fuses multi-scale features.In the hierarchical feature extraction module,a channel attention structure is introduced for integrating shape,texture,and hue information of water bodies in high-resolution remote sensing images to better understand the shapes and boundaries of water bodies.In the stacked-connected decoder module that incorporates multi-scale features,the stacked connection of multi-level semantic information and enhanced feature extraction are performed.Meanwhile,broad background information and fine detail information are captured to achieve better water body extraction results.Experimental results on both self-annotated and publicly available datasets show that the model yields 98.37% and 91.23% accuracy,and extracts more complete edges of water bodies while retaining more details than existing semantic segmentation models.The proposed model improves the accuracy and generalization ability of water body extraction and provides references for water body extraction from high-resolution remote sensing images.
Keywords:water body extraction;high-resolution remote sensing images;deep learning;multi-scale feature fusion
水體信息應(yīng)用范圍廣,對(duì)于水資源管理、環(huán)境保護(hù)和災(zāi)害監(jiān)測(cè)等方面具有重要作用。遙感影像提供了及時(shí)的數(shù)據(jù)支持和廣泛的空間覆蓋,通過(guò)獲取和分析遙感數(shù)據(jù),可以識(shí)別和監(jiān)測(cè)水體的分布、變化和特征,幫助決策者和研究人員更好地理解和管理水體資源[1]。遙感影像提取水體為水資源管理和環(huán)境保護(hù)提供數(shù)據(jù)支持,對(duì)促進(jìn)可持續(xù)發(fā)展和維護(hù)生態(tài)平衡具有重要意義。
遙感影像水體提取方法有指數(shù)法[2-3]和分類(lèi)法[4-5]。水體指數(shù)法通過(guò)分析影像中水體的光譜特性來(lái)選取特定波段構(gòu)建水體指數(shù),并設(shè)定特定的閾值進(jìn)行水體提取[6]。Mcfeeters[7]根據(jù)植被與水體的不同反射特征構(gòu)建了歸一化差異水體指數(shù)(NDWI),該指數(shù)強(qiáng)調(diào)水體特征,有效提取大面積區(qū)域水體、建筑物陰影與水體。分類(lèi)法屬于機(jī)器學(xué)習(xí)方法,相較于指數(shù)法,它可以充分利用高分辨率影像及解譯過(guò)程中的光譜信息和空間特征(語(yǔ)義信息)。Sarp等[8]采用支持向量機(jī)(SVM)對(duì)湖面進(jìn)行水體提取,結(jié)果表明SVM方法在精度上優(yōu)于NDWI。
近年,隨著深度學(xué)習(xí)的發(fā)展,神經(jīng)網(wǎng)絡(luò)因其接近甚至超越人類(lèi)的分類(lèi)能力[9],且可結(jié)合語(yǔ)義(信息)分割進(jìn)行遙感影像像素級(jí)二分類(lèi)(水體和背景)來(lái)提取水體,引起了研究者的廣泛關(guān)注。王寧等[10]選擇安徽巢湖流域?yàn)檠芯繉?duì)象,分別采用UNet語(yǔ)義分割網(wǎng)絡(luò)與隨機(jī)森林針對(duì)高分一號(hào)(GF-1)影像進(jìn)行水體提取,試驗(yàn)結(jié)果表明語(yǔ)義分割網(wǎng)絡(luò)對(duì)于高分辨率影像水體提取更具優(yōu)勢(shì)。陳前等[11]借鑒Deeplabv3語(yǔ)義分割網(wǎng)絡(luò)[12]設(shè)計(jì)基于高分辨率衛(wèi)星影像的水體提取算法,驗(yàn)證了語(yǔ)義分割網(wǎng)絡(luò)在水體提取方面的應(yīng)用能力。Chen等[13]設(shè)計(jì)WBE-NN語(yǔ)義分割網(wǎng)絡(luò)模型,其核心在于采用全局空間多光譜增強(qiáng)水體特征,提取大范圍語(yǔ)義信息,獲得了較高精度的提取結(jié)果。以上均說(shuō)明了深度神經(jīng)網(wǎng)絡(luò)能有效學(xué)習(xí)語(yǔ)義信息,提高水體提取的精度。
然而,遙感影像中的地物目標(biāo)具有尺度效應(yīng)[14],觀測(cè)結(jié)果會(huì)隨著觀測(cè)尺度改變而產(chǎn)生較大差異。水體在高分辨率影像下具有豐富的拓?fù)浣Y(jié)構(gòu)以及色彩信息,造成高分辨率影像水體特征豐富,空間復(fù)雜度指數(shù)級(jí)增加,解譯難度相對(duì)于低分辨率影像更高??紤]到水體提取的效率和精度,越來(lái)越多研究開(kāi)始嘗試?yán)蒙疃葘W(xué)習(xí)網(wǎng)絡(luò)架構(gòu)從高分辨率遙感影像中提取水體,特別是語(yǔ)義分割模型,包含F(xiàn)CN[15]、Unet[16]、PSPNet[17]、DeepLab series[18]等等,為水體信息的精確提取提供了新的思路和方法。然而,當(dāng)前水體算法普遍重視區(qū)域精度,但是對(duì)于水體邊界提取質(zhì)量缺乏重視,造成水體與岸線(xiàn)邊界劃分不夠準(zhǔn)確。針對(duì)上述挑戰(zhàn),提出一種基于多尺度特征融合的水體提取模型,實(shí)現(xiàn)神經(jīng)網(wǎng)絡(luò)低層語(yǔ)義信息到高層語(yǔ)義信息的融合。模型借鑒了Deeplabv3+結(jié)構(gòu),采用了倒殘差結(jié)構(gòu)[19]進(jìn)行分層特征提取,并加強(qiáng)對(duì)較高層級(jí)特征的提取,采用深度可分離卷積充分融合高中低級(jí)特征,保證模型在不同水體特征下的提取能力;采用空洞卷積進(jìn)行特征圖尺寸恢復(fù),保證了模型對(duì)于大面積水體與小面積水體的識(shí)別能力,同時(shí)可以實(shí)現(xiàn)水岸線(xiàn)的精細(xì)化識(shí)別。
1 研究方法
構(gòu)建的模型總體上借鑒了DeeplabV3+網(wǎng)絡(luò),整體結(jié)構(gòu)見(jiàn)圖1。模型主要包括2個(gè)模塊,分別是分層特征提取模塊與融合多尺度特征的堆疊連接解碼器模塊,在分層特征提取模塊中,借鑒了MobileNetV3[20]系列網(wǎng)絡(luò)中的倒殘差結(jié)構(gòu)進(jìn)行深度特征提取。其中,空洞卷積代替部分普通卷積操作提升模型感受野,保證模型對(duì)大范圍水體特征提取能力。在提取水體特征后,從中抽取3層水體特征信息進(jìn)行融合,對(duì)2個(gè)較高層級(jí)的特征進(jìn)行加強(qiáng)特征提取操作。
將3個(gè)層級(jí)的特征進(jìn)行堆疊后采用2次深度可分離卷積充分融合高中低級(jí)特征,保證了模型在不同水體特征下的提取能力。模型采用空洞卷積進(jìn)行特征圖尺寸恢復(fù),在實(shí)現(xiàn)小面積水體特征抽取的基礎(chǔ)上,保證了大范圍水體提取的特征連續(xù)性。最后采用卷積核為1的普通卷積進(jìn)行通道調(diào)整,輸出像素集的水體分割結(jié)果。該模型是一種端到端的水體提取網(wǎng)絡(luò),模型輸入是高分辨率的衛(wèi)星遙感影像,輸出結(jié)果為水體提取的掩膜圖和矢量圖層。
1.1 分層特征提取模塊
采用倒殘差結(jié)構(gòu)進(jìn)行分層特征提取,將第一個(gè)卷積層卷積核個(gè)數(shù)從32變?yōu)?6,同時(shí)將Last Stage進(jìn)行精簡(jiǎn),去除2組卷積塊,采用非線(xiàn)性激活函數(shù)Hardswish以減少運(yùn)算成本。
在水體特征提取部分,由于要素自身特點(diǎn)以及傳感器的差異,水體在遙感影像中存在不同的尺寸特征以及色彩紋理特征,并且沒(méi)有特定拓?fù)浣Y(jié)構(gòu)。因此針對(duì)水體的提取需要充分融合高中低級(jí)特征,將主干特征提取網(wǎng)絡(luò)部分卷積操作更換為空洞卷積,以提升水體提取模型的感受野,保證模型對(duì)于大范圍水體的特征提取能力。最后從網(wǎng)絡(luò)的特征提取部分中間抽取3個(gè)層級(jí)的水體特征信息用于特征融合。
同時(shí)在模型主干特征提取網(wǎng)絡(luò)bottleneck中引入了通道域注意力機(jī)制SENet,網(wǎng)絡(luò)通過(guò)學(xué)習(xí)特征通道間的相關(guān)性,獲取每個(gè)特征通道的重要程度,可以強(qiáng)化通道中的重要特征來(lái)加強(qiáng)特征提取能力。網(wǎng)絡(luò)對(duì)輸入特征層進(jìn)行2個(gè)主要操作包括壓縮(Squeeze)和激發(fā)(Excitation)。模型接受來(lái)自神經(jīng)網(wǎng)絡(luò)的特征層后,利用全局平均池化將特征層高寬壓縮,見(jiàn)式(1):
式中,uc表示輸入特征矩陣中第c個(gè)二維矩陣;H、W分別表示矩陣的高、寬,此公式可以將C×H×W的特征圖壓縮為C×1×1,僅保留通道維度,之后利用全連接層獲取每個(gè)通道的權(quán)重值,再將結(jié)果與輸入特征層相乘即可獲得注意力修正后的特征圖,見(jiàn)式(2):
式中,sc表示經(jīng)過(guò)Squeeze操作后生成的特征圖權(quán)重,因此實(shí)現(xiàn)了輸入特征圖在通道維度上的重新標(biāo)定。
同時(shí),重新設(shè)計(jì)了激活函數(shù)hsigmoid,并用hswish代替swish函數(shù):
1.2 融合多尺度特征的堆疊連接解碼器模塊
多尺度特征融合結(jié)構(gòu)見(jiàn)圖2。網(wǎng)絡(luò)引入了解碼(Decoder)模塊,將編碼(Encoder)模塊中輸出的低層和高層語(yǔ)義信息進(jìn)行融合,并對(duì)高層語(yǔ)義信息進(jìn)行空洞空間金字塔池化(ASPP),ASPP模塊中存在4個(gè)分支,每個(gè)分支都采用空洞卷積提升感受野,5個(gè)空洞卷積分別設(shè)置了不同膨脹率,分支中采用了全局平均池化和卷積操作,將5個(gè)分支特征進(jìn)行堆疊并用核為1的卷積進(jìn)行特征整合,即可獲得整張圖片的特征濃縮。最后,將加強(qiáng)特征提取后的高層語(yǔ)義特征上采樣并和低層特征疊加,進(jìn)行卷積操作來(lái)融合特征[21]。
1.3 損失函數(shù)
由于水體提取屬于二分類(lèi)問(wèn)題,只有正樣本與負(fù)樣本,正樣本為1,負(fù)樣本為0。因此損失函數(shù)是將輸出經(jīng)過(guò)sigmoid激活后,利用二分類(lèi)交叉熵?fù)p失函數(shù)計(jì)算:
ln(y|p)=-(ylnp+(1-y)ln(1-p)) ???(5)
式中 y——水體標(biāo)簽值,取值為0、1;p——模型經(jīng)過(guò)sigmoid輸出水體的概率值。
2 數(shù)據(jù)來(lái)源及預(yù)處理
為了保證模型的泛化性能,本試驗(yàn)采用的遙感影像樣本融合了GF-1、GF-6、谷歌以及CCF BDCI競(jìng)賽開(kāi)源數(shù)據(jù)集。其中高分系列數(shù)據(jù)分辨率2 m,在總數(shù)據(jù)中占比80%,谷歌影像分辨率2 m,占比5%,開(kāi)源數(shù)據(jù)分辨率1 m,采用最鄰近插值法進(jìn)行重采樣至2 m,占比15%。多源數(shù)據(jù)相較于單一來(lái)源數(shù)據(jù)通常具有互補(bǔ)性與合作性的優(yōu)勢(shì),可以產(chǎn)生比單信息來(lái)源數(shù)據(jù)更精確和更可靠的評(píng)估與判斷,有利于提升最終水體提取模型的魯棒性與泛化能力,因此,研究選取的水體樣本覆蓋遼寧東港,湖南岳陽(yáng)市,寧夏惠農(nóng)區(qū)、原州區(qū)、中寧縣,江西南昌市,山西鎮(zhèn)安縣,遼寧振興區(qū)以及開(kāi)源數(shù)據(jù)中覆蓋的地區(qū)。由于原始遙感影像存在幾何畸變,需要對(duì)原始影像進(jìn)行底圖匹配、糾正、融合操作,最終獲取糾正后的遙感影像。
研究采用的水體樣本來(lái)源于地理國(guó)情調(diào)查,公開(kāi)數(shù)據(jù)集以及手工標(biāo)注數(shù)據(jù)。利用ArcGIS軟件,將地理國(guó)情調(diào)查數(shù)據(jù)覆蓋至高分衛(wèi)星影像上,采用人工目視檢查的方式,修改調(diào)查矢量數(shù)據(jù)與底圖不匹配的地方,修改完成后,利用Python和GDAL將矢量數(shù)據(jù)轉(zhuǎn)換為像素值為0和255的二值掩膜圖,再將影像底圖與二值掩膜裁剪為256×256尺寸的訓(xùn)練數(shù)據(jù)。公開(kāi)數(shù)據(jù)集采用的則是2020CCF遙感解譯大賽的公開(kāi)數(shù)據(jù)集,原始數(shù)據(jù)集有多類(lèi)地物要素,從原始標(biāo)注數(shù)據(jù)中將水體對(duì)應(yīng)圖斑提取出來(lái),制作成二值掩膜圖后,刪除不含水體的訓(xùn)練樣本。手工標(biāo)注的影像來(lái)源于湖北省某地區(qū),利用ArcGIS軟件手工繪制水體該地區(qū)水體輪廓,制作水體矢量數(shù)據(jù),其后利用與處理地理國(guó)情數(shù)據(jù)相同的方式將矢量數(shù)據(jù)轉(zhuǎn)換為二值掩模圖并裁減為256×256尺寸的訓(xùn)練數(shù)據(jù),見(jiàn)圖3。綜合以上數(shù)據(jù)預(yù)處理步驟,共獲取了41 912組水體樣本數(shù)據(jù),按照9∶1比例劃分為訓(xùn)練集與驗(yàn)證集,分別包含37 720組訓(xùn)練集與4 192組驗(yàn)證集。測(cè)試數(shù)據(jù)來(lái)源于南昌市青山湖區(qū),此地區(qū)數(shù)據(jù)沒(méi)有參與模型訓(xùn)練,可以保證公平,選取該地區(qū)是為了測(cè)試模型對(duì)于大范圍真實(shí)場(chǎng)景的水體提取能力。
3 試驗(yàn)結(jié)果與分析
3.1 試驗(yàn)方案
為了判斷模型面向真實(shí)遙感影像的水體提取能力,同時(shí)保證模型效果的可復(fù)現(xiàn)性與可信度,分別在自行標(biāo)注的數(shù)據(jù)和開(kāi)源數(shù)據(jù)集上進(jìn)行水體提取試驗(yàn)。并且采用語(yǔ)義分割網(wǎng)絡(luò)中最為常見(jiàn)的對(duì)比模型FCN、PSPNet、UNet以及成熟的分割模型Deeplabv3_ResNet50、Deeplabv3_ResNet101為對(duì)比模型,以驗(yàn)證所提出網(wǎng)絡(luò)結(jié)構(gòu)的有效性。
3.1.1 真實(shí)應(yīng)用試驗(yàn)
為驗(yàn)證不同網(wǎng)絡(luò)模型對(duì)同分辨率異源數(shù)據(jù)的水體提取效果,選取南昌某地區(qū)2021年度GF-1,3波段影像,分辨率為2 m,幅寬10 km×10 km。對(duì)該幅影像利用人工標(biāo)注水體,以此作為水體指標(biāo)評(píng)估的正樣本。通過(guò)對(duì)比試驗(yàn)中各類(lèi)模型在該異源數(shù)據(jù)的水體提取指標(biāo)進(jìn)行結(jié)果可視化與精度評(píng)估。人工標(biāo)注的水體真值數(shù)據(jù)見(jiàn)圖4。
3.1.2 公開(kāi)數(shù)據(jù)集
為了驗(yàn)證模型在不同分辨率遙感影像上的泛化能力,選用公開(kāi)的WHU-GID數(shù)據(jù)集進(jìn)行6種網(wǎng)絡(luò)的預(yù)測(cè)結(jié)果可視化以及精度對(duì)比分析。GID數(shù)據(jù)集是武漢大學(xué)的夏桂松團(tuán)隊(duì)采用中國(guó)GF-2影像數(shù)據(jù)構(gòu)建的大規(guī)模土地類(lèi)型覆蓋數(shù)據(jù)集,數(shù)據(jù)覆蓋全國(guó)60多個(gè)城市,覆蓋超過(guò)5萬(wàn)km2的區(qū)域。研究采用其中的GID-5數(shù)據(jù),原始數(shù)據(jù)中包含建筑物,農(nóng)田,水體,草地與林地5大類(lèi)土地分類(lèi)。提取原始標(biāo)簽中水體所對(duì)應(yīng)的像素值,制作為單一水體標(biāo)簽,將其與影像一同裁剪為512×512尺寸數(shù)據(jù),制作水體數(shù)據(jù)集。
模型基于Python 3.8的PyTorch 1.11深度學(xué)習(xí)框架訓(xùn)練。硬件設(shè)備環(huán)境為Intel Xeon Gold 6226R CPU,128GB RAM,Tesla T4-16GB×3,操作系統(tǒng)為Ubuntu20.04。在模型訓(xùn)練過(guò)程中,訓(xùn)練函數(shù)是參數(shù)優(yōu)化的依據(jù)。采用的優(yōu)化器為SGD隨機(jī)梯度下降,初始學(xué)習(xí)率為0.001,動(dòng)量為0.9,權(quán)重衰減為1×10-5,當(dāng)模型訓(xùn)練至97個(gè)epoch,學(xué)習(xí)率下降至3.84×10-7。
3.2 評(píng)價(jià)指標(biāo)
研究采用的評(píng)價(jià)指標(biāo)為準(zhǔn)確率(Accuracy)、精確率(Precision)、召回率(Recall)、交并比(IoU)和F1-Score。所有指標(biāo)通過(guò)語(yǔ)義分割領(lǐng)域通用的混淆矩陣計(jì)算,見(jiàn)表1。
其中,準(zhǔn)確率表示準(zhǔn)確預(yù)測(cè)的樣本占總樣本比例,精確率表示正確預(yù)測(cè)為正的樣本占預(yù)測(cè)為正的樣本的比例,召回率表示正確預(yù)測(cè)為正的樣本占真實(shí)正樣本的比率;交并比表示預(yù)測(cè)的圖斑面積與正確圖斑面積的交集占預(yù)測(cè)圖斑面積和正確圖斑面積的并集的比例;F1-Score是介于精確率與召回率之間的綜合評(píng)估指標(biāo)。指標(biāo)計(jì)算見(jiàn)式(6)—(10):
3.3 真實(shí)應(yīng)用場(chǎng)景試驗(yàn)
3.3.1 定性試驗(yàn)分析結(jié)果
為了進(jìn)行細(xì)節(jié)比較,將測(cè)試影像裁剪為512×512尺寸,制作成用于比較的圖片,選取的6種網(wǎng)絡(luò)在其上的可視化結(jié)果見(jiàn)圖5,其中第一列為原圖,第二列為真實(shí)標(biāo)簽,后續(xù)分別為6種模型的水體提取結(jié)果。
從圖中可以看出,F(xiàn)CN網(wǎng)絡(luò)特征可以提取較多語(yǔ)義信息,但是由于精度不夠,不適合進(jìn)行像素級(jí)別的分割,導(dǎo)致效果較差;PSPNet所采用的金字塔場(chǎng)景分析網(wǎng)絡(luò),為像素級(jí)分割任務(wù)提供了良好的框架,但是其對(duì)于大范圍水體邊界的提取效果不佳;UNet是語(yǔ)義分割領(lǐng)域的經(jīng)典網(wǎng)絡(luò),采用編碼器-解碼器結(jié)構(gòu)與跳躍連接機(jī)制,在遙感解譯流域有著不錯(cuò)的效果,但是在上述采樣過(guò)程中,會(huì)淡化特征,在影像水體提取中,存在水體提取輪廓不完整的問(wèn)題;成熟的模型Deeplabv3_ResNet50和Deeplabv3_ResNet101在水體提取中也取得了較好的效果,但是由于缺乏對(duì)特征的關(guān)注度,導(dǎo)致對(duì)于細(xì)小坑塘水體的提取效果稍差;根據(jù)模型對(duì)于實(shí)際應(yīng)用場(chǎng)景的提取效果可以看出,搭建的模型能夠完整提取大范圍的水體邊源信息,提取的水體邊界與堤岸的吻合度最高,同時(shí)能夠解決其他模型對(duì)于細(xì)小坑塘水體的遺漏現(xiàn)象,提升水體提取召回率。
3.3.2 定量試驗(yàn)分析結(jié)果
采用不同指標(biāo)對(duì)測(cè)試期模型精度進(jìn)行評(píng)價(jià),結(jié)果見(jiàn)表2。研究提出的模型在各項(xiàng)指標(biāo)上均優(yōu)于5個(gè)對(duì)比網(wǎng)絡(luò),其中Accuracy為98.37%,Precision為95.90%,Recall為97.43%,IoU為93.62%,F(xiàn)1為96.66%,與FCN、PSPNet、UNet相比,精度提升明顯。與成熟的語(yǔ)義分割網(wǎng)絡(luò)Deeplabv3_ResNet50和Deeplabv3_ResNet101相比,Accuracy分別提升1.47%和0.78%,Precision分別提升4.67%和0.95%,Recall分別提升1.87%和0.51%,IoU分別提升5.88%和1.13%,F(xiàn)1分別提升3.32%和0.77%。綜上可以驗(yàn)證本算法的有效性。
3.4 GID數(shù)據(jù)集試驗(yàn)分析
3.4.1 定性實(shí)驗(yàn)結(jié)果分析
處理并裁剪開(kāi)源GID測(cè)試數(shù)據(jù)之后,不同網(wǎng)絡(luò)在其上的可視化結(jié)果見(jiàn)圖6,其中第一列為原圖,第二列為真實(shí)標(biāo)簽,后續(xù)分別為不同模型的水體提取結(jié)果。由于FCN模型在3.3節(jié)中的試驗(yàn)表現(xiàn)較差,因此在本節(jié)中不參與對(duì)比。根據(jù)圖7中水體提取結(jié)果可以看出,研究所提出的模型在GID公開(kāi)數(shù)據(jù)集中的水體提取效果差于自行制作的數(shù)據(jù)集,這可能是由于GID水體數(shù)據(jù)集中的水體影像光譜特征,陰影特征多樣所致。同時(shí),GID數(shù)據(jù)集中提取的水體樣本有限也可能是原因之一。然而,研究所提出模型的水體提取效果依舊優(yōu)于其他模型,模型提取的水體邊緣較其他對(duì)比網(wǎng)絡(luò)更完整,同時(shí)保留細(xì)節(jié)的能力更強(qiáng)。通過(guò)和其他模型對(duì)比,研究所提出的模型在公開(kāi)數(shù)據(jù)集中驗(yàn)證了自身的有效性。
3.4.2 定量試驗(yàn)結(jié)果分析
表3所示,改進(jìn)的網(wǎng)絡(luò)在各項(xiàng)指標(biāo)上均優(yōu)于5個(gè)對(duì)比網(wǎng)絡(luò),其中研究所提出的模型Accuracy為91.23%,Precision為88.41%,Recall為90.80%,IoU為81.22%,F(xiàn)1為89.59%。與PSPNet和UNet相比,精度提升明顯。與成熟的語(yǔ)義分割網(wǎng)絡(luò)Deeplabv3_ResNet50、Deeplabv3_ResNet101相比,Accuracy分別提升2.94%和1.02%,Precision分別提升2.06%和1.56%,Recall分別提升1.69%和0.44%,IoU分別提升1.89%和0.61%,F(xiàn)1分別提升1.91%和1.02%,綜上可以驗(yàn)證本算法的有效性。
上述對(duì)比試驗(yàn)清晰地展示了研究提出的模型在水體提取任務(wù)中的優(yōu)勢(shì)。這些優(yōu)勢(shì)主要源于本模型的幾個(gè)重要特性:首先,采用空洞卷積技術(shù)來(lái)擴(kuò)大感受野,而不增加參數(shù)數(shù)量或計(jì)算復(fù)雜度,使得模型能夠捕捉到更廣闊的上下文信息,從而更好地理解水體的形狀和邊界;其次,本模型通過(guò)融合不同尺度的特征圖,同時(shí)捕捉到了廣泛的背景信息和細(xì)微的細(xì)節(jié)信息。水體邊緣通常由微小的紋理和顏色變化構(gòu)成,因此模型在水體邊緣檢測(cè)方面表現(xiàn)出了更強(qiáng)的能力提升。
4 結(jié)論
提出了一種用于高分辨率遙感影像水體提取任務(wù)的深度學(xué)習(xí)語(yǔ)義分割模型,包括2個(gè)模塊:特征提取模塊與堆疊連接解碼器模塊。前者對(duì)輸入的高分辨率影像進(jìn)行特征提取,采用空洞卷積技術(shù)擴(kuò)大感受野,使得模型能夠捕捉到更廣闊的信息;后者主要由堆疊級(jí)聯(lián)與加強(qiáng)特征提取模塊組成,在通道以及空間維度對(duì)目標(biāo)特征進(jìn)行強(qiáng)化,提升水體邊緣檢測(cè)的能力。在自行標(biāo)注以及公開(kāi)數(shù)據(jù)集上,模型的準(zhǔn)確率達(dá)到了98.37%和91.23%,召回率達(dá)到了97.43%和90.8%,明顯優(yōu)于其他語(yǔ)義分割模型。并且提出模型能夠相對(duì)完整地提取水體的邊界信息,同時(shí)保留細(xì)節(jié)的能力更強(qiáng),解決了其他模型對(duì)于細(xì)小坑塘水體的遺漏現(xiàn)象。試驗(yàn)證明了提出模型能夠顯著提高水體檢測(cè)性能,為高分辨率遙感影像水體提取任務(wù)提供了更好的解決方案。
參考文獻(xiàn):
[1]陳亮,張波,穆磊,等.基于混合像元分解法的黃河河道水體遙感監(jiān)測(cè)[J].人民珠江,2016,37(10):34-37.
[2]王小標(biāo),謝順平,都金康.水體指數(shù)構(gòu)建及其在復(fù)雜環(huán)境下有效性研究[J].遙感學(xué)報(bào),2018,22(2):360-372.
[3]黃汝根,孫祥鵬,牟舵.基于“高分一號(hào)”遙感影像水體提取方法的對(duì)比分析[J].人民珠江,2017,38(3):66-70.
[4]段秋亞,孟令奎,樊志偉,等.GF-1衛(wèi)星影像水體信息提取方法的適用性研究[J].國(guó)土資源遙感,2015,27(4):79-84.
[5]廖鈺冰,周峰.基于時(shí)序高分一號(hào)影像的平原河網(wǎng)區(qū)水體信息快速提取研究[J].人民珠江,2020,41(1):34-38.
[6]蘇龍飛,李振軒,高飛,等.遙感影像水體提取研究綜述[J].國(guó)土資源遙感,2021,33(1):9-19.
[7]MCFEETERS S K.The use of the Normalized Difference Water Index (NDWI) in the delineation of open water features[J],International Journal of Remote Sensing,1996,17(7):1425-1432.
[8]SARP G,OZCELIK M.Water body extraction and change detection using time series:A case study of Lake Burdur,Turkey[J].Journal of Taibah University for Science,2018,11(3):381-391.
[9]CAO Y R,HE Z J,WANG L J,et al.VisDrone-DET2021:The vision meets drone object detection challenge results[C]//Proceedings of the IEEE/CVF International Conference on Computer Vision,2021:2847-2854.
[10]王寧,程家驊,張寒野,等.U-net模型在高分辨率遙感影像水體提取中的應(yīng)用[J].國(guó)土資源遙感,2020,32(1):35-42.
[11]陳前,鄭利娟,李小娟,等.基于深度學(xué)習(xí)的高分遙感影像水體提取模型研究[J].地理與地理信息科學(xué),2019,35(4):43-49.
[12]CHEN L C,ZHU Y,PAPANDREOU G,et al.Encoder-decoder with atrous separable convolution for semantic image segmentation[C]//Proceedings of the European Conference on Computer Vision (ECCV),2018:801-818.
[13]CHEN Y,TANG L L,KAN Z H,et al.A novel Water Body Extraction Neural Network (WBE-NN) for optical high-resolution multispectral imagery[J].Journal of Hydrology,2020,588.DOI:10.1016/j.jhydrol.2020.125092.
[14]王冬玲,舒清態(tài),王強(qiáng),等.基于偏最小二乘回歸的高山松生物量遙感模型空間尺度效應(yīng)分析[J].西南林業(yè)大學(xué)學(xué)報(bào)(自然科學(xué)),2020,40(4):87-93.
[15]LI Z S,ZHANG X L,XIAO P F.Spectral index-driven FCN model training for water extraction from multispectral imagery[J].ISPRS Journal of Photogrammetry and Remote Sensing,2022,192:344-360.
[16]張慶港,張向軍,余海坤,等.一種輕量級(jí)網(wǎng)絡(luò)模型的遙感水體提取方法[J].測(cè)繪科學(xué),2022,47(11):64-72.
[17]ZHAO H S,SHI J P,QI X J,et al.Pyramid scene parsing network[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition,2017:2881-2890.
[18]張永洪,孫路遙,席夢(mèng)丹.DeepLab V3+網(wǎng)絡(luò)在遙感影像中城市水體的提取方法[J].西安文理學(xué)院學(xué)報(bào)(自然科學(xué)版),2023,26(2):93-98,104.
[19]SANDLER M,HOWARD A,ZHU M L,et al.Mobilenetv2:Inverted residuals and linear bottlenecks[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition,2018:4510-4520.
[20]HOWARD A,SANDLER M,CHU G,et al.Searching for mobilenetv3[C]//Proceedings of the IEEE/CVF International Conference on Computer Vision,2019:1314-1324.
[21]CHEN L C,PAPANDREOU G,KOKKINOS I,et al.Deeplab:Semantic image segmentation with deep convolutional nets,atrous convolution,and fully connected crfs[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2017,40(4):834-848.
(責(zé)任編輯:向 飛)