亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于改進(jìn)DeepLabV3+的遙感圖像分割方法

        2024-09-14 00:00:00席裕斌趙良軍寧峰何中良梁剛張蕓胡月明
        現(xiàn)代電子技術(shù) 2024年11期
        關(guān)鍵詞:語義分割模型

        摘" 要: 由于遙感圖像具有高分辨率,卷積層需要擴(kuò)大感受野以捕獲更豐富的語義信息。 在進(jìn)行遙感圖像分割時(shí),DeepLabV3+模型采用較大的空洞率以獲得更大感受野,導(dǎo)致網(wǎng)格偽影問題。因此,提出一種優(yōu)化網(wǎng)格偽影的改進(jìn)DeepLabV3+模型。首先,在空間空洞金字塔池化(ASPP)之前引入了一個(gè)平滑網(wǎng)格偽影模塊,以減輕網(wǎng)格偽影對(duì)分割任務(wù)的影響;接著,在ASPP模塊的每個(gè)空洞卷積之后添加了一個(gè)逐點(diǎn)卷積,以保留更多的空間信息;其次,替換空洞卷積的激活函數(shù)為LeakyReLU;最后,在DeepLabV3+中引入了ECA注意力機(jī)制。通過在GID15和Postdam遙感數(shù)據(jù)集上的驗(yàn)證,相對(duì)于基礎(chǔ)的DeepLabV3+模型,改進(jìn)模型在準(zhǔn)確度和平均交并比方面均取得了顯著提升,證明所提出的網(wǎng)絡(luò)調(diào)整能有效提高遙感圖像分割的精度。

        關(guān)鍵詞: 遙感圖像; 語義分割; 網(wǎng)格偽影; 空間空洞金字塔池化; ECA注意力機(jī)制; DeepLabV3+模型

        中圖分類號(hào): TN911.73?34; TP391" " " " " " " " " "文獻(xiàn)標(biāo)識(shí)碼: A" " " " " " " " " 文章編號(hào): 1004?373X(2024)11?0051?08

        Remote sensing image segmentation method based on improved DeepLabV3+

        XI Yubin1, ZHAO Liangjun1, NING Feng2, HE Zhongliang1, LIANG Gang1, ZHANG Yun1, HU Yueming3

        (1. School of Computer Science and Engineering, Sichuan University of Science amp; Engineering, Yibin 643002, China;

        2. School of Automation and Information Engineering, Sichuan University of Science amp; Engineering, Yibin 643002, China;

        3. School of Tropical Agriculture and Forestry, Hainan University, Haikou 570208, China)

        Abstract: Because of the high resolution of remote sensing images, convolutional layers need to enlarge their receptive fields to capture richer semantic information. In the process of remote sensing image segmentation, the larger dilation rate is adopted for the DeepLabV3+ model to achieve a larger receptive field, leading to the issue of grid pseudo?artifacts. Therefore, an optimized DeepLabV3+ model is proposed with improvements to address the problem of grid pseudo?artifacts. A smoothing grid pseudo?artifact module is introduced before the atrous spatial pyramid pooling (ASPP) to mitigate the impact of grid pseudo?artifacts on segmentation tasks. Subsequently, a pointwise convolution is added after each dilated convolution in the ASPP module to retain more spatial information. The activation function of dilated convolutions is replaced with LeakyReLU. The efficient channel attention (ECA) mechanism is introduced into DeepLabV3+. By validation on the GID15 and Postdam remote sensing datasets, the improved model demonstrates significant enhancements in terms of accuracy and mean intersection over union (MIoU) in comparison with the baseline DeepLabV3+ model. This validates that the proposed network adjustments can effectively improve the accuracy of remote sensing image segmentation.

        Keywords: remote sensing image; semantic segmentation; grid artifact; ASPP; ECA mechanism; DeepLabV3+ model

        0" 引" 言

        近年來,隨著遙感技術(shù)和深度學(xué)習(xí)的迅速發(fā)展,遙感圖像分割在土地利用、城市規(guī)劃、資源管理等領(lǐng)域中變得越來越重要。遙感圖像分割的目標(biāo)是將圖像中的每個(gè)像素分配到相應(yīng)的類別,以實(shí)現(xiàn)對(duì)地物的準(zhǔn)確辨別和定量分析[1?2]。在這一領(lǐng)域,深度學(xué)習(xí)技術(shù)的應(yīng)用取得了顯著的突破,而改進(jìn)算法則更是成為提高分割精度和泛化能力的重要途徑[3]。其中,卷積神經(jīng)網(wǎng)絡(luò)(CNN)在遙感圖像分割領(lǐng)域有著廣泛應(yīng)用,使準(zhǔn)確性和泛化能力得到了顯著的改進(jìn)[4]。

        通過對(duì)卷積網(wǎng)絡(luò)的改進(jìn)提出了全卷積神經(jīng)網(wǎng)絡(luò)(Full Convolutional Network, FCN),文獻(xiàn)[5]基于FCN以及高效判別式概率模型條件隨機(jī)場(chǎng)(Conditional Random Field, CRF)提出了FCN?CRF算法,在針對(duì)高光譜遙感影像分割方面表現(xiàn)出較高的分割精度,且具有較低的參數(shù)量和高運(yùn)行效率。在植物主體部分分割準(zhǔn)確,但會(huì)在不同農(nóng)作物類型交界處產(chǎn)生一定程度的像元混同。文獻(xiàn)[6]提出了一種名為Separable Dense U?Net(SD?UNet)的方法,通過在U?Net中引入密集連接、可分離卷積、批歸一化層和Tanh激活函數(shù),解決了深度學(xué)習(xí)在城市植被提取中存在的問題,如超細(xì)植被遺漏、計(jì)算負(fù)擔(dān)沉重和模型性能不穩(wěn)定等。文獻(xiàn)[7]為應(yīng)對(duì)高分辨率遙感圖像建筑物分割精度低和邊緣模糊問題。在SegNet網(wǎng)絡(luò)基礎(chǔ)上改進(jìn),采用GELU激活函數(shù)、改進(jìn)的殘差瓶頸結(jié)構(gòu)和跳躍連接提取更多建筑特征,同時(shí)引入邊緣校正模塊進(jìn)一步提高邊緣完整性。文獻(xiàn)[8]針對(duì)DeepLabV3+在遙感圖像建筑物分割中存在的小目標(biāo)漏分、誤分和邊界粘合問題。采用密集空洞金字塔池化和條形池化模塊增強(qiáng)感受野和依賴關(guān)系,引入SE通道注意力模塊獲取更豐富的邊緣特征,提升了分割性能。

        針對(duì)遙感圖像分辨率高、種類較多和背景復(fù)雜而導(dǎo)致的分割準(zhǔn)確率低,容易出現(xiàn)錯(cuò)分的問題。本文提出了一種新穎而有效的方法,通過平滑網(wǎng)格偽影來提升分割的準(zhǔn)確度,改進(jìn)主要體現(xiàn)在如下四個(gè)方面:

        1) 在ASPP模塊之前引入了平滑網(wǎng)格偽影模塊(Smooth Grid Artifact Module, SGAM);

        2) 優(yōu)化ASPP,在空洞卷積之后加入逐點(diǎn)卷積;

        3) 針對(duì)空洞卷積之后的激活函數(shù)進(jìn)行優(yōu)化,使用LeakyReLU替代原有激活函數(shù);

        4) 引入ECA注意力機(jī)制。

        1" 基礎(chǔ)網(wǎng)絡(luò)結(jié)構(gòu)

        DeepLabV3是一種用于語義分割的卷積神經(jīng)網(wǎng)絡(luò)(CNN),由Google團(tuán)隊(duì)開發(fā)。它是DeepLab系列的第三個(gè)版本,旨在實(shí)現(xiàn)高精度的語義分割,特別是在圖像的細(xì)節(jié)和邊界方面[8]。DeepLabV3+是DeepLab系列的進(jìn)一步改進(jìn)版本,專注于提高語義分割任務(wù)的性能[1]。該架構(gòu)繼承了DeepLabV3的核心思想,但通過引入一系列創(chuàng)新性的改進(jìn)來解決其前身的一些限制。

        首先,在編碼階段,本文選擇了MobileNetV2網(wǎng)絡(luò),相較于Xception網(wǎng)絡(luò),MobileNetV2具有相對(duì)較小的模型大小和參數(shù)量[9],它通過使用深度分離卷積和線性瓶頸設(shè)計(jì),以及倒殘差結(jié)構(gòu),實(shí)現(xiàn)了在相對(duì)小的模型尺寸和參數(shù)量下提供良好性能的目標(biāo)[10]。其次,DeepLabV3+引入了空洞空間金字塔池化(ASPP)編碼器[1]。這一新的編碼器結(jié)構(gòu)通過整合空洞卷積和空間金字塔池化,增強(qiáng)了網(wǎng)絡(luò)對(duì)不同尺度上下文信息的捕獲能力。此外,ASPP編碼器進(jìn)一步擴(kuò)展了感受野,提高了網(wǎng)絡(luò)對(duì)圖像語境的理解。在ASPP編碼器中,不僅保留了高級(jí)特征,還引入了一個(gè)編碼器,專注于處理低級(jí)細(xì)節(jié)特征,從而使網(wǎng)絡(luò)對(duì)細(xì)節(jié)和邊緣的感知更為敏銳[2]。另外,DeepLabV3+在圖像金字塔池化方面進(jìn)行了改進(jìn),以更好地處理多尺度信息。通過優(yōu)化圖像金字塔池化,網(wǎng)絡(luò)能夠更全面地捕獲不同尺度上的上下文信息,增強(qiáng)了對(duì)各種尺寸對(duì)象的適應(yīng)性。

        在解碼階段,DeepLabV3+引入了解碼器模塊,以更好地應(yīng)對(duì)語義分割任務(wù)中的像素級(jí)定位需求。解碼器模塊通過上采樣和編碼器特征級(jí)聯(lián)的方式,有效地提高了分割結(jié)果的分辨率[11]。這個(gè)改進(jìn)有助于網(wǎng)絡(luò)更準(zhǔn)確地定位對(duì)象的邊界,提高語義分割的精確性。

        在訓(xùn)練階段,DeepLabV3+仍然保持了多尺度輸入圖像的策略,使網(wǎng)絡(luò)更具魯棒性。這一綜合性的改進(jìn)使得DeepLabV3+在各種場(chǎng)景中能夠更準(zhǔn)確地理解圖像內(nèi)容,實(shí)現(xiàn)更細(xì)致的語義分割。

        2" 本文網(wǎng)絡(luò)結(jié)構(gòu)

        2.1" 改進(jìn)后的DeepLabV3+

        本文在DeepLabV3+的基礎(chǔ)上進(jìn)行了四個(gè)方面的改進(jìn)。首先,引入了一個(gè)網(wǎng)格偽影平滑模塊,以消除由空洞卷積引起的網(wǎng)格偽影,從而提升分割精度;其次,在ASPP模塊的空洞卷積之后,加入了逐點(diǎn)卷積,以保留更多的空間信息;然后,采用了ECA(Efficient Channel Attention)注意力機(jī)制,以增強(qiáng)模型對(duì)關(guān)鍵特征的感知能力;最后,替換了空洞卷積之后的激活函數(shù),將原有的ReLU替換為LeakyReLU,以進(jìn)一步改進(jìn)模型的性能,如圖1所示。

        2.2" 平滑網(wǎng)格偽影模塊

        在深度卷積神經(jīng)網(wǎng)絡(luò)(DCNN)中,空洞卷積是一種常見且廣泛應(yīng)用的技術(shù),常用于圖像語義分割、目標(biāo)檢測(cè)、音頻生成、視頻建模和機(jī)器翻譯等領(lǐng)域。然而,由于其特殊的采樣方式,可能會(huì)導(dǎo)致輸出特征圖上出現(xiàn)規(guī)則的網(wǎng)格狀圖案,這種現(xiàn)象被稱為網(wǎng)格偽影問題??斩淳矸e是通過在卷積核中引入空洞(也稱為膨脹率)來擴(kuò)大感受野而不增加參數(shù)數(shù)量的一種技術(shù)。然而,當(dāng)膨脹率較大時(shí),由于卷積核的稀疏采樣,網(wǎng)絡(luò)輸出的特征圖上可能出現(xiàn)規(guī)律性的網(wǎng)格狀結(jié)構(gòu),而不是期望的平滑輸出。這可能對(duì)一些任務(wù),特別是圖像生成或分割等需要高質(zhì)量輸出的任務(wù),產(chǎn)生負(fù)面影響[12]。

        為了解決這個(gè)問題,本文設(shè)計(jì)了一種簡單而有效的去網(wǎng)格偽影方法,通過兩個(gè)不同空洞率的空洞卷積串聯(lián),捕捉不同尺度的特征,從而減輕網(wǎng)格偽影問題,如圖2所示。

        首先,通過MobileNetV2模塊的處理,圖像獲得了一個(gè)320維的特征圖;接著,本文引入了兩個(gè)空洞卷積層,分別設(shè)置空洞率為1和3,確保它們空洞率的最大公約數(shù)不大于1。這樣的設(shè)計(jì)旨在充分利用不同的感受野,以實(shí)現(xiàn)對(duì)圖像特征的多尺度提取,特別是在細(xì)節(jié)信息方面。同時(shí),這個(gè)設(shè)計(jì)還有助于減輕網(wǎng)格偽影對(duì)分割任務(wù)的影響。空洞率為1的卷積層通常用于捕捉局部細(xì)節(jié),因?yàn)樗刃в趥鹘y(tǒng)的普通卷積,直接關(guān)注輸入特征圖的每個(gè)像素。這有助于保留圖像中的精細(xì)紋理和局部結(jié)構(gòu)。而空洞率為3的卷積層則在更大的感受野范圍內(nèi)進(jìn)行卷積操作,能夠捕捉更廣泛的上下文信息。這對(duì)于理解目標(biāo)物體的整體結(jié)構(gòu)和關(guān)系非常有幫助,尤其是在處理全局語境時(shí)。通過這樣的設(shè)計(jì),在網(wǎng)絡(luò)中融合了不同尺度的信息,實(shí)現(xiàn)了對(duì)細(xì)節(jié)和全局特征的全面感知[13]。在隨后使用空洞率為6、12和18的卷積層時(shí),這種多尺度的設(shè)計(jì)還有助于減輕可能出現(xiàn)的網(wǎng)格偽影問題,使得模型在提取特征時(shí)更加平滑而精確。

        2.3" 逐點(diǎn)卷積

        逐點(diǎn)卷積在圖像分割領(lǐng)域具有多重優(yōu)勢(shì):首先,通過在網(wǎng)絡(luò)瓶頸層采用逐點(diǎn)卷積,可以有效降低特征圖的通道數(shù),從而顯著減少計(jì)算復(fù)雜性,提高訓(xùn)練和推理效率[14],特別適用于處理大規(guī)模圖像數(shù)據(jù)集;其次,逐點(diǎn)卷積提供了靈活的參數(shù)控制機(jī)制,通過調(diào)整輸出通道數(shù),可以對(duì)特征圖的深度進(jìn)行精準(zhǔn)調(diào)控,使得模型更易訓(xùn)練,且不容易過擬合;最后,盡管逐點(diǎn)卷積本身是線性的,但在其后通常添加非線性激活函數(shù),從而引入非線性映射,有助于學(xué)習(xí)更復(fù)雜的圖像特征和語義信息,提高模型感知能力[15]。此外,逐點(diǎn)卷積并不改變輸入圖像的空間尺寸,因此有助于保留更多的空間信息,對(duì)于像素級(jí)別的圖像分割任務(wù)至關(guān)重要。綜合這些優(yōu)勢(shì),逐點(diǎn)卷積在圖像分割領(lǐng)域具有廣泛的適用性和出色的性能。

        2.4" ECA注意力機(jī)制

        ECA注意力機(jī)制是一種用于卷積神經(jīng)網(wǎng)絡(luò)的注意力機(jī)制,旨在更有效地捕捉輸入特征圖中不同通道之間的關(guān)系。它在注意力機(jī)制的基礎(chǔ)上引入了輕量級(jí)的計(jì)算方式,以降低計(jì)算成本和參數(shù)數(shù)量[16?17]。ECA注意力機(jī)制的主要思想是通過考慮每個(gè)通道內(nèi)的全局信息,來為每個(gè)通道分配不同的權(quán)重。具體細(xì)節(jié)如圖3所示。

        首先,通過全局平均池化(GAP)對(duì)輸入特征圖的每個(gè)通道進(jìn)行處理,從而得到每個(gè)通道的全局信息;接著,通過一個(gè)簡單的一維卷積層對(duì)全局信息進(jìn)行處理,這一步驟有助于學(xué)習(xí)通道之間的關(guān)系,同時(shí)相較于全連接層,計(jì)算代價(jià)較小[17];隨后,對(duì)卷積層的輸出應(yīng)用Sigmoid激活函數(shù),將權(quán)重值映射到(0,1)的范圍,得到的Sigmoid輸出與輸入特征圖相乘,生成每個(gè)通道的注意力權(quán)重;最終,將這些通道注意力權(quán)重乘以輸入特征圖,以獲得經(jīng)過調(diào)整的特征圖,完成了對(duì)不同通道關(guān)系的自適應(yīng)調(diào)整。這一系列步驟構(gòu)成了ECA注意力機(jī)制。通過輕量級(jí)計(jì)算和參數(shù)操作,實(shí)現(xiàn)了在通道維度上的注意力引入,以提高模型對(duì)輸入特征的表達(dá)能力,為提高圖像分割的準(zhǔn)確性和效率提供了有力支持。

        2.5" Leaky ReLU激活函數(shù)

        Leaky ReLU(Leaky Rectified Linear Unit)是對(duì)傳統(tǒng)ReLU激活函數(shù)的一種改進(jìn),旨在解決ReLU在負(fù)數(shù)輸入時(shí)輸出為零可能導(dǎo)致的“死亡神經(jīng)元”問題。其原理在于引入一個(gè)小的負(fù)斜率,使得在負(fù)數(shù)輸入時(shí),Leaky ReLU允許一小部分的負(fù)數(shù)通過[18?19]。Leaky ReLU的數(shù)學(xué)表達(dá)式如下:

        [f(x)=x," " " " " "xgt;0α?x," " " x≤0]" " " " " " (1)

        式中:[α]是一個(gè)小的正數(shù),通常設(shè)置為較小的常數(shù)值,如0.01。Leaky ReLU在正數(shù)輸入時(shí)與ReLU相同,而在負(fù)數(shù)輸入時(shí),不再將輸出完全截?cái)酁榱悖浅艘訹α]。這樣,Leaky ReLU允許激活函數(shù)在負(fù)數(shù)部分具有一定的斜率,使得梯度不會(huì)完全消失。Leaky ReLU的引入可以提高模型的泛化能力,在本文所采用的三種數(shù)據(jù)集上,相較于傳統(tǒng)的ReLU激活函數(shù),準(zhǔn)確度均有所提升。

        3" 實(shí)驗(yàn)環(huán)境與結(jié)果分析

        3.1" 數(shù)據(jù)集

        本文的數(shù)據(jù)來源主要包括Gaofen?2衛(wèi)星拍攝的GID?15數(shù)據(jù)集和Postdam數(shù)據(jù)集。GID?15數(shù)據(jù)集使用的是基于分辨率為1 m的全色圖像和4 m的多光譜圖像進(jìn)行融合后的圖像。覆蓋我國60多個(gè)城市,包含15個(gè)不同的場(chǎng)景類別,從而提供了豐富的土地覆蓋多樣性,這對(duì)于模型的訓(xùn)練具有挑戰(zhàn)性。同時(shí),還引入了Postdam數(shù)據(jù)集,該數(shù)據(jù)集通過無人機(jī)拍攝,分辨率為5 cm,涵蓋了Postdam地區(qū)的大規(guī)模建筑群和密集街道,包含5個(gè)不同的場(chǎng)景類別。通過在這兩個(gè)數(shù)據(jù)集上進(jìn)行訓(xùn)練和預(yù)測(cè),驗(yàn)證模型在處理不同城市、場(chǎng)景、分辨率和拍攝方式的遙感圖像時(shí)的魯棒性和泛化能力。在預(yù)處理階段,將圖像裁剪為512×512 pixel,以適應(yīng)遙感圖像的普遍尺寸,并以9∶1的比例劃分為訓(xùn)練集和驗(yàn)證集。這樣的數(shù)據(jù)處理策略有助于確保模型在面對(duì)多樣性數(shù)據(jù)時(shí)的性能表現(xiàn)。

        3.2" 實(shí)驗(yàn)設(shè)置與環(huán)境

        本文實(shí)驗(yàn)是在Windows下搭建的Pytorch框架上訓(xùn)練的,總迭代次數(shù)為150次,初始學(xué)習(xí)率為5×10-4,采用余弦退火的方法調(diào)整學(xué)習(xí)率。處理器為Intel[?] Core i5?12 400 2.60 GHz,顯卡為NVIDIA RTX 3060 Ti(顯存大小為8 GB),內(nèi)存大小為32 GB,編程語言為Python 3.9,cuda版本為11.8。

        3.3" 評(píng)價(jià)指標(biāo)

        評(píng)價(jià)指標(biāo)的選取對(duì)遙感圖像分割的精度評(píng)估有著重要作用,本文采用了三個(gè)遙感圖像分割領(lǐng)域常用的評(píng)價(jià)指標(biāo):Accuracy、mPA(Mean Pixel Accuracy)、MIoU (Mean IoU score),其公式分別為:

        [Accuracy=TP+TNTN+TP+FP+FN]" (2)

        [mPA=1k+1i=0kTP+TNTN+TP+FP+FN]" (3)

        [MIoU=1k+1i=0kTPFN+FP+TP]" " (4)

        式中:TP表示真實(shí)值為Positive,預(yù)測(cè)為Positive,稱作是正確的Positive(True Positive, TP);FN表示真實(shí)值為Positive,預(yù)測(cè)為Negative,稱作是錯(cuò)誤的Negative(False Negative, FN);FP表示真實(shí)值為Negative,預(yù)測(cè)為Positive,稱作是錯(cuò)誤的Positive(False Positive, FP);TN表示真實(shí)值為Negative,預(yù)測(cè)為Negative,稱作是正確的Negative(True Negative, TN)[14,17];[k+1]表示類別數(shù)。

        3.4" 消融實(shí)驗(yàn)對(duì)比

        為了驗(yàn)證模型的泛化能力,本文使用了兩個(gè)數(shù)據(jù)集來評(píng)價(jià)模型。通過逐步添加平滑網(wǎng)格偽影模塊、改進(jìn)后的ASPP、ECA注意力機(jī)制以及替換激活函數(shù)到原模型中進(jìn)行消融實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果表明,本文所使用的改進(jìn)策略都能對(duì)DeepLabV3+模型進(jìn)行準(zhǔn)確度提升。具體評(píng)價(jià)指標(biāo)如表1、表2所示。

        從表1可以看出,通過往原始模型中添加改進(jìn)的模塊,都可以使模型的MIoU、mPA以及Accuracy得到提升。平滑網(wǎng)格偽影模塊通過減少圖像中的噪音或平滑不規(guī)則結(jié)構(gòu)來改善分割效果。改進(jìn)ASPP模塊的整合增強(qiáng)了模型對(duì)復(fù)雜場(chǎng)景的上下文信息理解能力。ECA注意力機(jī)制的加入有助于模型更好地集中注意力于圖像關(guān)鍵區(qū)域,提高了語義分割性能。Leaky ReLU激活函數(shù)的使用有助于更好地處理梯度消失問題,使得模型更容易訓(xùn)練。這些模塊的整合可能共同作用,提供了更強(qiáng)大、更魯棒的特征表示,從而顯著改善了遙感圖像的語義分割效果。

        本文從GID15數(shù)據(jù)集中選取了幾張具有不同地物特征的遙感圖像如圖4所示。

        從圖4可以看出,由于GID15數(shù)據(jù)集具有高分辨率,原模型在分類中容易出現(xiàn)錯(cuò)分的情況,通過逐步改進(jìn)原模型,最終模型的分割效果已經(jīng)非常接近標(biāo)簽圖像。

        表2是在Postdam數(shù)據(jù)集上進(jìn)行的消融實(shí)驗(yàn)結(jié)果。表2的實(shí)驗(yàn)結(jié)果表明,對(duì)DeepLabV3+的改進(jìn)在Postdam數(shù)據(jù)集上依然有效。

        從圖5可以看出,與原模型對(duì)比,改進(jìn)后的模型在邊緣輪廓部分的分割精度更高,這表明新引入的模塊有效地增強(qiáng)了模型對(duì)復(fù)雜場(chǎng)景的理解和對(duì)細(xì)微結(jié)構(gòu)的捕捉能力。改進(jìn)后的模型在圖像邊緣區(qū)域呈現(xiàn)出更為準(zhǔn)確和連貫的分割結(jié)果,進(jìn)一步提升了在Postdam數(shù)據(jù)集上的語義分割性能。

        在本次實(shí)驗(yàn)中,經(jīng)過改進(jìn)的模型在兩種數(shù)據(jù)集上都表現(xiàn)出更高的準(zhǔn)確性,成功減少了原始模型中的錯(cuò)誤分類并提高了邊緣細(xì)節(jié)部分的分割精度。這表明所引入的改進(jìn)措施,無論是針對(duì)高分辨率的處理能力,還是對(duì)復(fù)雜場(chǎng)景的理解能力,都產(chǎn)生了積極的影響,使得最終模型的分割效果更加接近標(biāo)簽圖像。

        3.5" 主流分割算法模型對(duì)比

        在本節(jié)中將對(duì)比多個(gè)語義分割模型在性能指標(biāo)上的表現(xiàn),通過評(píng)估不同主干網(wǎng)絡(luò)結(jié)構(gòu)對(duì)模型性能的影響。選取了一系列經(jīng)典的模型,包括PSPNet、U?Net、Hrnet、DeepLabV3+以及本文提出的模型(Ours),并在主干網(wǎng)絡(luò)上采用了不同的架構(gòu),例如MobileNetV2、Resnet50、VGG等。通過比較模型在MIoU、mPA以及Accuracy上的表現(xiàn),深入了解各模型對(duì)于遙感圖像語義分割任務(wù)的適應(yīng)能力。與其他模型相比,經(jīng)過改進(jìn)的DeepLabV3+在MIoU、mPA和Accuracy分?jǐn)?shù)上都取得了顯著的提升,如表3和表4所示。這表明改進(jìn)措施對(duì)于模型整體性能的提升起到了積極的作用。在MIoU指標(biāo)上,改進(jìn)后的DeepLabV3+展現(xiàn)出更為精確的像素級(jí)別分割效果,而在mPA和Accuracy方面也取得了更高的綜合性能。這一系列實(shí)驗(yàn)結(jié)果強(qiáng)化了改進(jìn)后的DeepLabV3+模型在遙感圖像語義分割任務(wù)中的卓越表現(xiàn),為深入理解其性能提供了重要的實(shí)證支持。

        從表3、表4可以明顯看出,本文方法在GID和Postdam數(shù)據(jù)集上的表現(xiàn)都不錯(cuò),在GID15數(shù)據(jù)集上,PSPNet結(jié)合Resnet50以及U?Net結(jié)合Resnet50分別達(dá)到了61.68%和64.71%的MIoU,顯示了對(duì)于分類復(fù)雜、種類較多的遙感圖像,Resnet50主干網(wǎng)絡(luò)的優(yōu)越性能。而在Postdam數(shù)據(jù)集上,相同模型達(dá)到了更高的MIoU(72.54%和68.13%),表明其在不同場(chǎng)景中的適應(yīng)性。此外,Hrnet模型在兩個(gè)數(shù)據(jù)集上都呈現(xiàn)出對(duì)hrnetv2_w32配置更好的適應(yīng)性,這表明對(duì)于一些復(fù)雜地理環(huán)境,更深的網(wǎng)絡(luò)結(jié)構(gòu)可能更有優(yōu)勢(shì)。本文模型在兩個(gè)數(shù)據(jù)集上均取得了最佳性能,分別為GID15數(shù)據(jù)集上的67.21%和Postdam數(shù)據(jù)集上的74.13%的MIoU,說明本文模型在不同環(huán)境中都能取得顯著效果。

        圖6展示了不同算法在分割效果上的對(duì)比。從圖6a)可以觀察到,由于遙感圖像背景復(fù)雜、種類繁多,導(dǎo)致所有算法在這一數(shù)據(jù)集上的分割效果普遍較差。但是對(duì)于其中大面積的植被、耕地或者水面分割效果較好,對(duì)于輪廓邊緣分割效果較差。圖6b)展示了在Postdam數(shù)據(jù)集上的分割效果圖,其空間分辨率相對(duì)較高,能夠呈現(xiàn)地面信息的更多細(xì)節(jié)。

        在這個(gè)數(shù)據(jù)集上,所有的算法都展現(xiàn)出了不錯(cuò)的分割效果,特別是在汽車這一類別的分割方面表現(xiàn)得非常出色。然而,相較之下,其他算法在低植被和樹木分割的邊緣效果相對(duì)較差。本文通過對(duì)模型的改進(jìn),在空間細(xì)節(jié)方面的表現(xiàn)要優(yōu)于其他網(wǎng)絡(luò),其邊界更加清晰,幾乎沒有出現(xiàn)錯(cuò)分的情況。

        4" 結(jié)" 語

        本文針對(duì)遙感圖像具有高分辨率的特性,為了獲取更多的語義信息,在DeepLabV3+模型中使用較大空洞率而出現(xiàn)的網(wǎng)格偽影問題,提出了DeepLabV3+的改進(jìn)模型。在DeepLabV3+模型的基礎(chǔ)上增加了平滑網(wǎng)格偽影模塊,保留了不同尺度空間信息,有助于緩解潛在的網(wǎng)格偽影問題,從而使模型在進(jìn)行特征提取時(shí)表現(xiàn)得更加平滑而準(zhǔn)確。同時(shí),對(duì)ASPP模塊中的空洞卷積進(jìn)行了優(yōu)化,在空洞卷積之后,引入了逐點(diǎn)卷積,以保留更多的細(xì)節(jié)信息。此外,替換了空洞卷積后的激活函數(shù),采用LeakyReLU代替原有的ReLU。最后,引入了ECA注意力機(jī)制,進(jìn)一步提高了模型的準(zhǔn)確率。

        注:本文通訊作者為趙良軍。

        參考文獻(xiàn)

        [1] 宦海,朱蓉蓉,張浩,等.多尺度特征融合網(wǎng)絡(luò)的遙感圖像林地檢測(cè)[J].現(xiàn)代電子技術(shù),2022,45(4):165?170.

        [2] 劉丹英,劉曉燕.基于U?net卷積神經(jīng)網(wǎng)絡(luò)的多尺度遙感圖像分割算法[J].現(xiàn)代電子技術(shù),2023,46(21):44?47.

        [3] WANG Z M, WANG J S, YANG K, et al. Semantic segmentation of high?resolution remote sensing images based on a class feature attention mechanism fused with Deeplabv3+ [J]. Computers amp; geosciences, 2022, 158: 104969.

        [4] ZHANG J L, LI Y X, ZHANG B W, et al. CD?MQANet: Enhancing multi?objective semantic segmentation of remote sensing images through channel creation and dual?path encoding [J]. Remote sensing, 2023, 15(18): 4520.

        [5] 雒萌,張圣微,霍雨,等.融合全卷積網(wǎng)絡(luò)與條件隨機(jī)場(chǎng)的高光譜語義分割[J].遙感信息,2023,38(3):69?76.

        [6] LIN N, QUAN H, HE J, et al. Urban vegetation extraction from high?resolution remote sensing imagery on SD?UNet and vegetation spectral features [J]. Remote sensing, 2023, 15(18): 4488.

        [7] WU S, HUANG X, ZHANG J. Application and research of the image segmentation algorithm in remote sensing image buildings [J]. Scientific programming, 2022(1): 22?26.

        [8] 郭江,辛月蘭,謝琪琦.改進(jìn)DeepLabV3+的遙感圖像建筑物分割[J/OL].激光雜志,1?10[2023?05?17].http://kns.cnki.net/kcms/detail/50.1085.TN.20230517.1001.002.html.

        [9] 汝承印,張仕海,張子淼,等.基于輕量級(jí)MobileNet?SSD和MobileNetV2?DeeplabV3+的絕緣子故障識(shí)別方法[J].高電壓技術(shù),2022,48(9):3670?3679.

        [10] 陳毅夫,何敬,劉剛,等.融合Swin?Transformer網(wǎng)絡(luò)模型的水體高光區(qū)域提取[J].遙感信息,2023,38(4):129?136.

        [11] WANG J X, FENG Z X, JIANG Y, et al. Orientation attention network for semantic segmentation of remote sensing images [J]. Knowledge?based systems, 2023, 267: 110415.

        [12] LIANGZHE Y, WENJIE Z, HAO C, et al. DRE?Net: A dynamic radius?encoding neural network with an incremental training strategy for interactive segmentation of remote sensing images [J]. Remote sensing, 2023, 15(3): 801.

        [13] 吳寧,羅楊洋,許華杰.基于多尺度特征融合的遙感圖像語義分割方法[J].計(jì)算機(jī)應(yīng)用,2024,44(3):737?744.

        [14] 厙向陽,馬亦駿.改進(jìn)的遙感圖像語義分割算法[J].計(jì)算機(jī)工程與科學(xué),2023,45(3):504?511.

        [15] HE X, ZHOU Y, ZHAO J Q, et al. Swin transformer embedding UNet for remote sensing image semantic segmentation [J]. IEEE transactions on geoscience and remote sensing, 2022, 60: 1?15.

        [16] 高廣尚.深度學(xué)習(xí)推薦模型中的注意力機(jī)制研究綜述[J].計(jì)算機(jī)工程與應(yīng)用,2022,58(9):9?18.

        [17] ZHOU G Q, LIU W G, ZHU Q, et al. ECA?MobileNetV3 (large)+ SegNet model for binary sugarcane classification of remotely sensed images [J]. IEEE transactions on geoscience and remote sensing, 2022, 60: 1?15.

        [18] LU H, MA Y, ZHANG S C, et al. Daytime sea fog identification based on multi?satellite information and the ECA?TransUnet model [J]. Remote sensing, 2023, 15(16): 3949.

        [19] NAYEF B H, ABDULLAH S N H S, SULAIMAN R, et al. Optimized leaky ReLU for handwritten Arabic character recognition using convolution neural networks [J]. Multimedia tools and applications, 2022, 81(2): 1?30.

        作者簡介:席裕斌(1999—),男,碩士研究生,研究方向?yàn)閳D像處理和遙感技術(shù)。

        趙良軍(1980—),男,博士研究生,副教授,碩士研究生導(dǎo)師,高級(jí)工程師,研究方向?yàn)樾l(wèi)星遙感、深度學(xué)習(xí)和圖像處理。

        寧" 峰(2000—),男,碩士研究生,研究方向?yàn)槟繕?biāo)檢測(cè)和深度學(xué)習(xí)。

        何中良(1995—),男,碩士研究生,研究方向?yàn)檫b感技術(shù)和深度學(xué)習(xí)。

        梁" 剛(1999—),男,碩士研究生,研究方向?yàn)橛?jì)算機(jī)視覺和圖像處理。

        張" 蕓(1998—),女,碩士研究生,講師,研究方法為遙感圖像處理、深度學(xué)習(xí)。

        猜你喜歡
        語義分割模型
        一半模型
        p150Glued在帕金森病模型中的表達(dá)及分布
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
        結(jié)合語義邊界信息的道路環(huán)境語義分割方法
        一種改進(jìn)迭代條件模型的遙感影像語義分割方法
        基于積神經(jīng)網(wǎng)絡(luò)的圖像著色方法研究
        基于全卷積網(wǎng)絡(luò)FCN的圖像處理
        基于語義分割的車道線檢測(cè)算法研究
        基于語義分割的增強(qiáng)現(xiàn)實(shí)圖像配準(zhǔn)技術(shù)
        尤物网址在线观看| 一区二区三区四区亚洲免费 | 国产美女被遭强高潮露开双腿| 国产成人综合久久大片| 免费又黄又爽又色的视频| 国产熟女高潮视频| 亚洲av乱码专区国产乱码| 天堂久久一区二区三区| 又大又长粗又爽又黄少妇视频| 久久久久亚洲av无码专区网站| 国产成人综合日韩精品无| 高清中文字幕一区二区三区| 比较有韵味的熟妇无码| 国产乱沈阳女人高潮乱叫老 | 色青青女同性恋视频日本熟女| 手机免费在线观看av网址| 日日碰狠狠添天天爽无码 | 国产在线一区二区三区四区不卡| 亚洲欧美国产国产综合一区| 亚洲毛片网| 精品国产一区二区av麻豆不卡| 一边摸一边抽搐一进一出口述 | 久久国产精品偷任你爽任你| 国产成人av一区二区三区无码 | 欧美成人猛交69| 国产一级大片免费看| 熟女乱乱熟女乱乱亚洲| 国产精品免费一区二区三区四区 | 亚洲第一狼人天堂网亚洲av| 色婷婷五月综合亚洲小说| 亚洲一区二区三区在线中文| 亚洲天堂av在线网站| 中文亚洲欧美日韩无线码| 九九久久国产精品大片| 今井夏帆在线中文字幕| 亚洲精品国偷拍自产在线观看| 国产精品嫩草影院午夜| 性色国产成人久久久精品二区三区| 胸大美女又黄的网站| 国产黄页网站在线观看免费视频 | 久久久精品人妻一区二区三区免费 |