亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于語(yǔ)義和邊緣特征融合的高分辨率遙感影像水體提取方法

        2022-05-26 09:31:34張景涵張承明錢(qián)永蘭韓穎娟帥麗華
        熱帶地理 2022年5期
        關(guān)鍵詞:邊緣語(yǔ)義水體

        尹 昊,張景涵,張承明,錢(qián)永蘭,韓穎娟,葛 瑤,帥麗華,劉 銘

        (1. 山東農(nóng)業(yè)大學(xué),山東 泰安 271018;2. 國(guó)家氣象中心,北京 100081;3. 中國(guó)氣象局旱區(qū)特色農(nóng)業(yè)氣象災(zāi)害監(jiān)測(cè)預(yù)警與風(fēng)險(xiǎn)管理重點(diǎn)實(shí)驗(yàn)室,銀川 750002)

        遙感圖像分割技術(shù)能夠根據(jù)提出的逐像素特征對(duì)圖像進(jìn)行分割,為每個(gè)像素分配一個(gè)類(lèi)別標(biāo)簽。以圖像分割結(jié)果為基礎(chǔ),可以進(jìn)一步提取出湖泊、河流和水田等水體的空間分布信息(Minaee et al.,2019)。利用遙感圖像分割技術(shù)提取水體信息,不僅能夠節(jié)省大量的人力物力,還能極大地提高工作效率。但由于同物異譜、異物同譜、地形復(fù)雜、空間分辨率有限、分類(lèi)方法復(fù)雜以及遙感數(shù)據(jù)本身的原因,對(duì)遙感圖像進(jìn)行分割時(shí),如何準(zhǔn)確地識(shí)別水體邊緣,是長(zhǎng)期困擾研究者的一個(gè)難題。僅利用原始圖像和卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行圖像分割時(shí),常會(huì)出現(xiàn)同類(lèi)對(duì)象像素中,邊緣像素的特征值與內(nèi)部像素的特征值間存在較大差異,如小池塘和狹窄的河流,從而導(dǎo)致對(duì)象邊緣錯(cuò)誤的概率增大。如何針對(duì)水體特點(diǎn),融合語(yǔ)義特征與邊緣細(xì)節(jié)信息生成同時(shí)具有較高的類(lèi)間區(qū)分度和類(lèi)內(nèi)一致性的逐像素特征,是提升提取結(jié)果精度的關(guān)鍵。

        目前識(shí)別水體的核心思路主要是增強(qiáng)水體信息和抑制非水體信息(Zhou et al.,2014)。遙感圖像中提取水體的主要方法有:水體指數(shù)法光譜分類(lèi)(Zhang et al.,2018)、閾值分割方法(Berthon et al.,2010)、機(jī)器學(xué)習(xí)(Karpatne et al., 2016;何海清等,2017)和卷積神經(jīng)網(wǎng)絡(luò)(陳坤等,2021)等。多種水體指數(shù)被廣泛應(yīng)用于水體提取,如NDWI(Normalized Difference Water Index,歸一化水指數(shù))(McFeeters et al.,1996)和MNDWI(Modified NDWI,改進(jìn)的歸一化水指數(shù))(Xu et al., 2006)等,這些方法都是利用不同波段光譜信息的差異來(lái)增強(qiáng)水體的信息,然后通過(guò)設(shè)定閾值對(duì)水體進(jìn)行提取。由于單一的水體指數(shù)往往有一定的局限性,如NDWI能夠最大程度地抑制植被信息,但在區(qū)分水體和建筑物、陰影方面的能力較差;MNDWI利用中紅外波段代替近紅外波段,提高了建筑物與水體的差異,但僅適用于有中紅外波段的影像,且最優(yōu)閾值的設(shè)定具有很強(qiáng)的主觀性,需要隨著面積和時(shí)間的變化而變化(王帆等,2021)。這些方法過(guò)多地依賴(lài)專(zhuān)家知識(shí),需要經(jīng)過(guò)多次實(shí)驗(yàn)才可能得到較理想的提取結(jié)果。此外,上述方法多針對(duì)于某一特定區(qū)域的遙感圖像源,當(dāng)用于處理不同地區(qū)、不同時(shí)期的影像時(shí),往往需要重新進(jìn)行參數(shù)率定,泛化能力較差。

        隨著機(jī)器學(xué)習(xí)技術(shù)的發(fā)展,研究者開(kāi)始將其應(yīng)用到遙感圖像分割任務(wù)中,支持向量機(jī)(Zhang et al.,2017;單治彬等,2018)、決策樹(shù)(Al-Obeidat et al.,2015)、隨機(jī)森林(王一帆等,2020)等都在遙感圖像分割領(lǐng)域取得了優(yōu)異的表現(xiàn)。如常文濤等(2020)根據(jù)面向?qū)ο笤恚捎秒S機(jī)森林算法,以紅邊波段和雷達(dá)波段影像數(shù)據(jù)為數(shù)據(jù)源進(jìn)行了濕地提取。但這些方法生成的特征信息多是以單個(gè)像素為基礎(chǔ),未能充分利用相鄰像素之間的信息,因此提取的水體對(duì)象邊緣處的精度仍不夠理想。

        卷積神經(jīng)網(wǎng)絡(luò)不僅能夠提取簡(jiǎn)單特征,也能夠提取出表達(dá)能力較強(qiáng)的語(yǔ)義特征,魯棒性強(qiáng),在遙感信息提取中得到廣泛應(yīng)用,該方法雖然需要一定數(shù)量的人工標(biāo)記圖,但標(biāo)記圖制作簡(jiǎn)單且可以作為數(shù)據(jù)積累。訓(xùn)練成功的模型在應(yīng)用于不同地區(qū)時(shí),使用者可在已有數(shù)據(jù)集的基礎(chǔ)上補(bǔ)充部分標(biāo)記圖,模型仍然能成功地完成提取工作。因此,利用卷積神經(jīng)網(wǎng)絡(luò)提取水體具有較強(qiáng)的優(yōu)勢(shì)。

        全卷積網(wǎng)絡(luò)(Long et al.,2015)是首個(gè)在相機(jī)圖像分割任務(wù)中取得成功的卷積神經(jīng)網(wǎng)絡(luò),但隨著網(wǎng)絡(luò)層數(shù)的增加,不同結(jié)構(gòu)之間的差異也在擴(kuò)大(Ioffe et al.,2015)。以全卷積網(wǎng)絡(luò)為基礎(chǔ),研究者進(jìn)一步提出了更多的網(wǎng)絡(luò)結(jié)構(gòu),以提高圖像語(yǔ)義分割的質(zhì)量,這些新的網(wǎng)絡(luò)結(jié)構(gòu)大多數(shù)屬編碼器-解碼器結(jié)構(gòu)(Noh et al.,2015),其中編碼器用于圖像特征提取和降維,解碼器用于恢復(fù)特征圖的大小和細(xì)節(jié)。基于全卷積網(wǎng)絡(luò)結(jié)構(gòu)發(fā)展起來(lái)的模型多以感受野較小3×3型卷積核為基礎(chǔ),當(dāng)將這類(lèi)模型應(yīng)用于細(xì)節(jié)豐富圖像時(shí),往往會(huì)因感受野內(nèi)像素區(qū)分度較小而導(dǎo)致提取的特征質(zhì)量較差。針對(duì)這一現(xiàn)象,研究者提出了一種新型的以空洞卷積結(jié)構(gòu)為基礎(chǔ)的模型,其典型代表是DeepLab系列的模型(Chen et al., 2019),該模型以ResNet(Residual Network)(He et al.,2016)作為其骨干網(wǎng)絡(luò)。空洞卷積可以增加輸入域尺寸,通過(guò)等權(quán)融合等方式融合不同尺度不同層次的語(yǔ)義特征,提高最終語(yǔ)義特征的質(zhì)量。

        與相機(jī)圖像相比,遙感圖像的細(xì)節(jié)信息要少得多,卷積神經(jīng)網(wǎng)絡(luò)應(yīng)用于遙感圖像分割時(shí),所建立的模型結(jié)構(gòu)需要充分考慮遙感圖像特點(diǎn)才能取得較好的效果。如劉文祥等(2020)針對(duì)遙感影像上呈現(xiàn)出擬合速度慢、邊緣目標(biāo)分割不精確、大尺度目標(biāo)分割類(lèi)內(nèi)不一致、存在孔洞等缺陷,在Deep‐labv3+中引入雙注意力機(jī)制模塊,有效改善了提取效果;何紅術(shù)等(2020)在擴(kuò)張路徑中對(duì)低維特征信息進(jìn)行加強(qiáng),并引入條件隨機(jī)場(chǎng),實(shí)現(xiàn)了基于改進(jìn)U-Net 網(wǎng)絡(luò)的高分遙感影像水體提?。籛ang 等(2020)提出了一種基于多維密集連接卷積神經(jīng)網(wǎng)絡(luò),對(duì)高分辨率遙感圖像水體進(jìn)行識(shí)別,模型泛化性較好,但深層語(yǔ)義特征丟失了部分邊緣細(xì)節(jié)信息,使得水體提取結(jié)果的邊緣處精度不理想。

        邊緣檢測(cè)方法可以得到局部像素灰度的突變,獲得封閉或者開(kāi)放的邊緣,提取邊緣像素的點(diǎn)集,提供豐富的低層邊緣信息(Shrivakshan et al.,2012)。結(jié)合邊緣檢測(cè)的方法進(jìn)行語(yǔ)義分割,能夠有效解決分割結(jié)果中存在的邊緣模糊、分割不準(zhǔn)確等問(wèn)題(Chen et al., 2016;黃巍 等,2018;王囡等,2021)。Lyu等(2019)發(fā)現(xiàn)將高分辨率的全局邊緣信息與低分辨率的分類(lèi)級(jí)語(yǔ)義信息結(jié)合在一起,可以有效彌補(bǔ)語(yǔ)義分割中的邊緣信息丟失問(wèn)題。HED-H CNN(Marmanis et al., 2018)利用雙分支的網(wǎng)絡(luò)結(jié)構(gòu)同時(shí)提取邊緣圖與分割圖,并利用邊緣特征對(duì)整個(gè)提取網(wǎng)絡(luò)進(jìn)行優(yōu)化,使分割結(jié)果中各地物邊界明確,結(jié)合邊緣特征提高分割結(jié)果精度。因此,邊緣特征與語(yǔ)義特征有效融合可以提高特征質(zhì)量,有助于精確恢復(fù)分割區(qū)域的邊界,得到更好的遙感圖像分割結(jié)果(Cheng et al., 2017; Liu et al.,2018)。

        鑒于此,本文提出一種融合語(yǔ)義特征與邊緣特征的遙感圖像分割模型SEF-Net(Semantic Feature and Edge Feature Fusion Network),該模型利用一個(gè)邊緣特征與語(yǔ)義特征的融合模塊進(jìn)行多尺度特征融合,提取出具有較高的類(lèi)間區(qū)分度和類(lèi)內(nèi)一致性的高質(zhì)量的逐像素級(jí)特征,試圖提升水體邊緣處提取結(jié)果的精度,以達(dá)到獲取高精度水體空間分布的目標(biāo)。以期為從遙感圖像中提取高精度的土地利用信息提供新思路。

        1 數(shù)據(jù)集

        目前,高分2 號(hào)遙感影像(Gaofen 2,GF-2)已被用于土地調(diào)查、環(huán)境監(jiān)測(cè)、作物估算、建設(shè)規(guī)劃等方面。每幅GF-2 影像由多光譜影像和全色影像組成,多光譜影像的空間分辨率為4 m,包括藍(lán)、綠、紅、近紅外4個(gè)光譜波段,全色影像的空間分辨率為1 m。選擇Gaofen Image Dataset(GID)數(shù)據(jù)集①http://captain.whu.edu.cn/GID/、2020年“中科星圖杯”高分遙感圖像解譯+軟件大賽的高分辨率可見(jiàn)光圖像水體目標(biāo)自動(dòng)提取數(shù)據(jù)集(高分水體數(shù)據(jù)集),以及8幅廣東省廣州市部分地區(qū)2020年的GF2影像人工標(biāo)注制作的數(shù)據(jù)集作為驗(yàn)證數(shù)據(jù)集進(jìn)行實(shí)驗(yàn)②http://www.cresda.com/CN。

        其中,GID數(shù)據(jù)集是用于土地利用和土地覆蓋分類(lèi)的大型數(shù)據(jù)集,包含中國(guó)60 多個(gè)不同城市的150幅高質(zhì)量GF-2圖像,像素為7 200×6 800,覆蓋的地理區(qū)域超過(guò)5 萬(wàn)km2。數(shù)據(jù)集對(duì)農(nóng)田、林地、建筑物、水體和草地5 種土地利用類(lèi)型進(jìn)行標(biāo)注(圖1)。

        高分水體數(shù)據(jù)集由高分二號(hào)光學(xué)數(shù)據(jù)組成,分辨率為1~4 m,包含中國(guó)不同城市的1 000幅高質(zhì)量GF-2裁剪圖像,像素為492×492。每幅圖像按照像素級(jí)別分別進(jìn)行江、河、湖、海等場(chǎng)景像素級(jí)標(biāo)注(圖2)。

        廣東省廣州市部分地區(qū)的GF-2 遙感影像利用航天宏圖信息技術(shù)股份有限公司自主研發(fā)的PIE 遙感圖像處理軟件對(duì)所有圖像進(jìn)行預(yù)處理,主要包括大氣校正、幾何校正、正射校正和圖像融合等步驟。融合得到的圖像包含紅、藍(lán)、綠、近紅外4個(gè)波段,空間分辨率為1 m。

        由于水體同其他土地利用類(lèi)型具有較明顯的視覺(jué)差異,人工使用遙感圖像處理軟件的視覺(jué)解譯功能標(biāo)記水體,再將圖像分割為尺寸為512×512像素的圖像塊,從中選取包含水體的236 幅進(jìn)行人工標(biāo)注。

        2 方法

        2.1 模型輸入

        利用改進(jìn)的Canny算法對(duì)遙感圖像的數(shù)據(jù)集進(jìn)行邊緣提取,以獲取的邊緣位置信息為基礎(chǔ),利用邊緣位置像素的信息值生成邊緣圖像。利用原始圖像(圖3-a)、人工標(biāo)記圖(圖3-b)、邊緣圖像(圖3-c)構(gòu)成圖像組,作為模型的輸入,用于對(duì)SEFNet模型進(jìn)行訓(xùn)練和測(cè)試。

        圖3 圖像塊組示例(a.原始影像;b.人工標(biāo)記圖;c.邊緣圖像)Fig.3 Example image block group(a.original image;b.manual marking map;c.edge diagram)

        2.2 SEF-Net模型結(jié)構(gòu)

        SEF-Net 模型使用遙感圖像及相應(yīng)的邊緣圖像作為輸入,由1個(gè)編碼器、1個(gè)解碼器、1個(gè)多平行擴(kuò)張卷積塊和1個(gè)分類(lèi)器組成(圖4)。編碼器包含2 組特征提取單元,一組直接從遙感圖像中提取語(yǔ)義特征,一組從遙感圖像和邊緣圖中提取邊緣特征;解碼器使用分級(jí)融合策略對(duì)編碼器生成的特征圖進(jìn)行融合和解碼,以降低對(duì)象邊緣像素與對(duì)象內(nèi)部像素的特征差異;分類(lèi)器根據(jù)編碼器輸出的特征圖完成逐像素分類(lèi)。

        圖4 SEF-Net網(wǎng)絡(luò)結(jié)構(gòu)Fig.4 SEF-Net network structure diagram

        在訓(xùn)練模型時(shí),需要同時(shí)使用遙感圖像塊及其對(duì)應(yīng)的標(biāo)記圖像塊作為輸入,標(biāo)記圖像塊作為參考圖像,計(jì)算本次訓(xùn)練的損失值;使用訓(xùn)練成功的模型進(jìn)行分割時(shí),僅需要使用遙感圖像作為輸入。在訓(xùn)練階段和分割階段,模型輸出均為逐像素的標(biāo)注結(jié)果。

        2.2.1 編碼器 編碼器包括語(yǔ)義特征提取組和邊緣特征提取組。語(yǔ)義特征提取組由4級(jí)提取單元組成,除第1級(jí)語(yǔ)義特征提取單元以遙感圖像作為輸入外,其余各級(jí)語(yǔ)義特征提取單元以上一級(jí)特征圖作為輸入(圖5)。每級(jí)語(yǔ)義特征提取單元均包含2個(gè)卷積層、1 個(gè)BN 層(Batch Normalization)、1 個(gè)激活層和1個(gè)池化層,2個(gè)卷積層的卷積核均為3×3,采用嵌套結(jié)構(gòu),這種結(jié)構(gòu)設(shè)計(jì)的優(yōu)勢(shì)在于充分考慮了高分辨率遙感圖像結(jié)構(gòu)變化對(duì)卷積計(jì)算的影響,有利于編碼器為同類(lèi)像素生成穩(wěn)定性好的特征。

        圖5 感受野示意圖Fig.5 Schematic diagram of receptive field

        與語(yǔ)義特征提取組相似,邊緣特征提取組也是由4級(jí)提取單元組成,每級(jí)邊緣特征提取單元的結(jié)構(gòu)與同級(jí)的語(yǔ)義特征提取單元結(jié)構(gòu)一致。4 級(jí)單元首先進(jìn)行特征提取,再使用線性融合模型對(duì)邊緣特征圖和語(yǔ)義特征圖進(jìn)行融合。使用的線性融合模型公式為:

        式中:fsemantic為語(yǔ)義特征圖;fedge為邊緣特征圖;γ為權(quán)重系數(shù)向量,每級(jí)γ的取值可隨模型訓(xùn)練進(jìn)行自動(dòng)調(diào)整,最終達(dá)到兩類(lèi)特征圖的自適應(yīng)結(jié)合。

        激活層使用卷積神經(jīng)網(wǎng)絡(luò)中應(yīng)用較廣的ReLU函數(shù)(Rectified Linear Unit)作為激活函數(shù)。

        池化運(yùn)算具有加速特征聚集的作用,能淘汰掉區(qū)分度差的特征值,有利于生成一致性好的特征。但池化運(yùn)算一般會(huì)降低特征圖的尺寸,可能會(huì)導(dǎo)致部分特征值不具有代表性,在SEF-Net模型中使用最大池化策略。經(jīng)過(guò)線性融合后的邊緣特征,邊緣附近的像素特征值增大,增加了特征的區(qū)分能力。

        2.2.2 多并行空洞卷積模塊 為了對(duì)水體對(duì)象進(jìn)行更精細(xì)的分割,構(gòu)建了一個(gè)并行空洞卷積模塊,將多個(gè)具有不同接受域的、不同空洞參數(shù)的空洞卷積并行合并,這樣模型能夠?qū)崿F(xiàn)不同尺度的特征的融合(圖6)。

        圖6 多并行空洞卷積模塊結(jié)構(gòu)Fig.6 Structure diagram of multi-parallel void convolution module

        2.2.3 解碼器 解碼器設(shè)置了4級(jí)解碼層,用于對(duì)編碼器提取到的特征圖融合后進(jìn)行上采樣處理,以獲取兼有較高的類(lèi)間區(qū)分度和類(lèi)內(nèi)一致性的逐像素特征向量(圖7)??梢钥闯觯考?jí)解碼層包括一個(gè)串接層和一個(gè)解碼單元,串接層將輸入的m層尺寸為w×h的兩組特征圖進(jìn)行串接,得到尺寸不變的2m層特征圖組,再輸入到解碼單元對(duì)特征圖組進(jìn)行融合并提升特征圖尺寸。

        圖7 特征融合模塊Fig.7 Feature fusion module

        每個(gè)解碼單元包括1 個(gè)特征融合層,1 個(gè)上采樣層、1個(gè)激活層和1個(gè)調(diào)整層。特征融合層為1×1型卷積層,將兩類(lèi)串聯(lián)連接后的特征進(jìn)行特征值融合。上采樣層是一個(gè)反卷積層,用于恢復(fù)特征圖的尺寸,SEF-Net 模型采用逐步恢復(fù)的策略,每次調(diào)整時(shí)行數(shù)和列數(shù)分別擴(kuò)大1倍,最后將特征圖的尺寸恢復(fù)到與原圖像一致。調(diào)整層為1×1 型卷積層,其作用是對(duì)上采樣后的特征值進(jìn)行調(diào)整。解碼器最后能為每個(gè)像素生成一個(gè)長(zhǎng)度為32的特征向量。

        2.2.4 分類(lèi)器 SEF-Net 模型使用一層卷積核為3的卷積層和Sigmoid(Little,1974)作為分類(lèi)器,分類(lèi)器使用解碼器輸出的32層的特征圖作為輸入,卷積層將輸入特征圖數(shù)量調(diào)整為1,Sigmoid逐像素計(jì)算歸屬于水體的概率作為輸出,最后以0.5 作為閾值判斷各像素的類(lèi)別。Sigmoid計(jì)算公式為:

        2.3 損失函數(shù)

        SEF-Net 以交叉熵作為基礎(chǔ)定義損失函數(shù),計(jì)算預(yù)測(cè)值與真值的誤差,并通過(guò)反向傳播更新權(quán)值。樣本的交叉熵(Rubinstein,1999)定義為:

        式中:p為SEF-Net模型輸出的類(lèi)別概率向量;q為根據(jù)人工標(biāo)記生成的真實(shí)概率分布,在q中,除像素所屬類(lèi)別對(duì)應(yīng)的分量為1外,其余分量為0。

        對(duì)于SEF-Net模型而言,每個(gè)像素均可看作一個(gè)獨(dú)立樣本,在此基礎(chǔ)上,將損失函數(shù)(Liu et al.,2016)定義為:

        式中:x為Sigmoid的輸出;label為訓(xùn)練的遙感影像塊對(duì)應(yīng)的標(biāo)記圖。

        2.3 實(shí)驗(yàn)設(shè)計(jì)

        選擇SegNet、Refinenet、Deeplabv3 和HED-H CNN作為對(duì)比模型設(shè)計(jì)對(duì)比實(shí)驗(yàn)。SegNet采用經(jīng)典的編解碼結(jié)構(gòu),用于比較經(jīng)典編解碼結(jié)構(gòu)模型與SEF-Net 的結(jié)構(gòu)對(duì)提取效果的影響;Refinenet 利用池化與卷積操作提取影像的不同尺度的特征信息,使用遠(yuǎn)程殘差連接實(shí)現(xiàn)高分辨率的預(yù)測(cè),淺層的完善特征直接用于強(qiáng)化高級(jí)的語(yǔ)義特征,用于比較解碼器融合淺層語(yǔ)義特征的多尺度模型與融合邊緣特征模型之間的效果差異;Deeplabv3 采用基于空洞卷積的空間金字塔池化,能有效地捕獲多尺度信息,用于比較融合邊緣特征的模型與多尺度大范圍語(yǔ)義特征的模型間效果差異。

        圖8 比較了5 種不同的邊緣檢測(cè)算法,可以看出,除Canny 之外,其他4 種算法均生成了許多水體內(nèi)部的邊緣點(diǎn),而Canny檢測(cè)由于極大值抑制展現(xiàn)出的優(yōu)勢(shì),得到的邊緣與實(shí)際水體地塊的邊緣高度重合,且沒(méi)有很多細(xì)碎的噪聲邊緣。另外,使用邊緣檢測(cè)圖與高分辨率遙感圖像一同提取得到的邊緣特征在邊緣處具有更好的區(qū)分度,因此選擇Can‐ny邊緣檢測(cè)算法取水體邊緣。

        圖8 圖像塊組示例(a.原始圖像;b.Canny邊緣檢測(cè)圖;c.Laplacian邊緣檢測(cè)圖;d.Roberts 邊緣檢測(cè)圖;e.Prewitt邊緣檢測(cè)圖;f.Sobel邊緣檢測(cè)圖)Fig.8 Example of image block groups(a.original image;b.Canny edge detection diagram;c.Laplacian edge detection diagram;d.Roberts edge detection diagram;e.Prewitt edge detection diagram;f.Sobel edge detection diagram)

        以PyTorch 為基礎(chǔ),使用Python 語(yǔ)言開(kāi)發(fā)了SEF-Net 模型。SEF-Net 模型采用端對(duì)端的方式,使用SGD(Stochastic Gradient Descent,隨機(jī)梯度下降)算法作為訓(xùn)練算法。利用一臺(tái)圖形工作站開(kāi)展對(duì)比實(shí)驗(yàn),該圖形工作站安裝了一個(gè)容量為12GB 的Titan X 顯卡,實(shí)驗(yàn)所用的操作系統(tǒng)為L(zhǎng)inux Ubuntu 16.04。為了增加樣本的數(shù)量和多樣性,對(duì)訓(xùn)練數(shù)據(jù)集中的每一張圖像均進(jìn)行了顏色調(diào)整、水平翻轉(zhuǎn)、垂直翻轉(zhuǎn)等處理,色彩調(diào)整因素包括亮度、飽和度、色調(diào)和對(duì)比度。經(jīng)過(guò)增強(qiáng)得到的圖像僅用于模型訓(xùn)練,測(cè)試所使用的圖像均為原始圖像。

        使用交叉驗(yàn)證法開(kāi)展對(duì)比實(shí)驗(yàn),每次實(shí)驗(yàn)均從數(shù)據(jù)集中選擇80%的圖像塊組作為訓(xùn)練數(shù)據(jù),其他20%的圖像塊組作為測(cè)試數(shù)據(jù)。共組織了5輪測(cè)試,保證每張遙感圖像塊均被測(cè)試1次。

        2.4 評(píng)價(jià)指標(biāo)

        為了便于評(píng)價(jià)各個(gè)模型的提取結(jié)果,將結(jié)果圖中的像素分為4種類(lèi)別:被正確識(shí)別成水體的像素(TP)、被正確識(shí)別成其他類(lèi)的像素(TN)、被錯(cuò)誤識(shí)別成水體的像素(FP)和被錯(cuò)誤識(shí)別成其他類(lèi)的像素(FN)。在此基礎(chǔ)上,選擇Acc(Accuracy,準(zhǔn)確率)、精確率(Precision)、召回率(Recall)、F1(F1 Score,F(xiàn)1 分?jǐn)?shù))作為評(píng)價(jià)指標(biāo)(湯涌等,2020)。

        Accuracy表示正確分類(lèi)的水體像素?cái)?shù)在所有像素?cái)?shù)中所占的比例,計(jì)算方法為:

        Precision用來(lái)表示正確分類(lèi)的水體像素?cái)?shù)在所有被分類(lèi)成水體的像素?cái)?shù)所占比例,計(jì)算方法為:

        Recall用來(lái)表示正確分類(lèi)的水體像素?cái)?shù)在全部實(shí)際為水體的像素?cái)?shù)中所占比例,計(jì)算方法為:

        F1同時(shí)兼顧了模型的準(zhǔn)確率和召回率,計(jì)算方法為:

        3 結(jié)果分析

        3.1 不同方法的測(cè)試結(jié)果

        圖9 給出了GID 數(shù)據(jù)集中4 個(gè)典型區(qū)域及所有對(duì)比模型的測(cè)試結(jié)果。與其他4個(gè)方法相比,SEFNet 提取出的水體目標(biāo)噪聲更小,邊緣更光滑,極少出現(xiàn)將其他類(lèi)像素錯(cuò)誤識(shí)別為水體的情況,對(duì)于光譜信息相差較大的水體像素也可以實(shí)現(xiàn)有效區(qū)分,對(duì)河、湖等水體目標(biāo)提取結(jié)果均較為理想。

        圖9 GID數(shù)據(jù)集水體結(jié)果(a.原始圖像;b.與圖a相對(duì)應(yīng)的人工標(biāo)記圖像;c.SegNet;d.Deeplabv3;e.Refinenet;f.HED-H CNN;g.SEF-Net)Fig.9 Water result diagram of GID dataset(a.original images;b.manually labeled images corresponding to figure a;c.SegNet;d.Deeplabv3;e.Refinenet;f.HED-H CNN;g.SEF-Net)

        從表1可以看出,SEF-Net結(jié)果的4項(xiàng)評(píng)價(jià)指標(biāo)均優(yōu)于對(duì)比模型。SEF-Net的精確率為98.37%,說(shuō)明SEF-Net 分類(lèi)為水體的像素精確率非常高,比HED-H CNN 模型高1.25%;召回率比Refinenet 高2.80%,比Deeplabv3 高6.23%;F1 分?jǐn)?shù)也達(dá)到了95.12%。

        3.2 廣州地區(qū)數(shù)據(jù)集實(shí)驗(yàn)結(jié)果

        從對(duì)比模型在2020 年廣州地區(qū)GF-2 測(cè)試中4個(gè)典型區(qū)域的測(cè)試結(jié)果(圖10)可發(fā)現(xiàn),SEF-Net相較于SegNet 和Deeplabv3,可以對(duì)面積較大的水體提取出邊緣細(xì)粒度良好的結(jié)果,也沒(méi)有將個(gè)別建筑物錯(cuò)誤識(shí)別為水體;SEF-Net 相較于Refinenet,可以將小面積的水體對(duì)象進(jìn)行有效分割;SEF-Net在復(fù)雜的環(huán)境中也可以有效地提取檢測(cè)建筑物的陰影下的水,能夠?qū)⑺械拇c水有效區(qū)分出來(lái)。

        圖10 廣州GF-2影像水體結(jié)果(a.原始圖像;b.與圖a相對(duì)應(yīng)的人工標(biāo)記圖像;c.Refinenet;d.Deeplabv3;e.SegNet;f.SEF-Net)Fig.10 Water results of GF-2 image in Guangzhou(a.original images;b.manually labeled images corresponding to figure a;c.Refinenet;d.Deeplabv3;e.SegNet;f.SEF-Net)

        從表1可以看出,SEF-Net結(jié)果的4項(xiàng)評(píng)價(jià)指標(biāo)均優(yōu)于對(duì)比模型,SEF-Net 的準(zhǔn)確率最高,為94.06%;精確率優(yōu)于第二準(zhǔn)確的Refinenet 模型3.32%;召回率比Refinenet高3.72%,比Deeplabv3高4.4%;F1 分?jǐn)?shù)也達(dá)到了最高的95.88%,比Seg‐Net高7.35%。

        表1 對(duì)比模型在3種數(shù)據(jù)集的結(jié)果比較Table 1 Comparison result of different model on three datasets %

        3.3 高分水體數(shù)據(jù)集實(shí)驗(yàn)結(jié)果

        圖11給出了高分水體數(shù)據(jù)集中6個(gè)典型區(qū)域及所有對(duì)比模型在各個(gè)區(qū)域上的測(cè)試結(jié)果??梢园l(fā)現(xiàn),在地形較為復(fù)雜的地塊中,水體的邊緣十分曲折,提取得到的結(jié)果往往比較破碎,針對(duì)較窄的河流,SEF-Net 明顯優(yōu)于2 個(gè)對(duì)比模型;在遇到多塊小面積水田時(shí),SEF-Net 引入邊緣特征后可以得到更為精細(xì)的結(jié)果。

        圖11 高分水體數(shù)據(jù)集結(jié)果(a.原始圖像;b.與圖a相對(duì)應(yīng)的人工標(biāo)記圖像;c.Deeplabv3;d.Refinenet;e.SEF-Net)Fig.11 Results of high-resolution water body dataset(a.original images;b.manually labeled images corresponding to figure a;c.Deeplabv3;d.Refinenet;e.SEF-Net)

        從表1可以看出,SEF-Net結(jié)果的4項(xiàng)評(píng)價(jià)指標(biāo)均優(yōu)于對(duì)比模型,SEF-Net 準(zhǔn)確率最高,為89.56%;F1 分?jǐn)?shù)也達(dá)到了最高,為91.54%;精確率比Deeplabv3 高4.21%;召回率比Refinenet 高4.45%。說(shuō)明引入邊緣特征能夠有效地提高卷積神經(jīng)網(wǎng)絡(luò)分割結(jié)果,同時(shí)也說(shuō)明通過(guò)增強(qiáng)邊緣特征對(duì)于小數(shù)據(jù)集的水體提取問(wèn)題也是有效的。

        4 討論

        4.1 引入邊緣特征的優(yōu)勢(shì)

        光譜特征、紋理特征和語(yǔ)義特征是目前遙感圖像分割工作中廣泛使用的3種特征,其中光譜特征主要表達(dá)像素自身信息的聯(lián)系;紋理特征主要表達(dá)相鄰像素間的空間相關(guān)性;語(yǔ)義特征主要表達(dá)特定區(qū)域內(nèi)像素間的關(guān)聯(lián),是一種抽象性較強(qiáng)的信息。與光譜特征和紋理特征相比,語(yǔ)義特征具有更強(qiáng)的表達(dá)能力,用于分類(lèi)時(shí)具有較強(qiáng)的優(yōu)勢(shì)。

        卷積神經(jīng)網(wǎng)絡(luò)通過(guò)合理組織卷積核,能夠同時(shí)提取到這三類(lèi)特征,如使用1×1型卷積核能夠提取到的特征相當(dāng)于光譜特征,通過(guò)淺層獲得的特征可以看作紋理特征,不同深度的卷積層可以獲取不同級(jí)別的語(yǔ)義特征。因而,可以認(rèn)為高級(jí)的語(yǔ)義特征包含光譜特征、紋理特征和語(yǔ)義特征的信息。從對(duì)比實(shí)驗(yàn)結(jié)果看,所有卷積神經(jīng)網(wǎng)絡(luò)模型的精度都在87%以上,遠(yuǎn)高于利用遙感指數(shù)等傳統(tǒng)方法的結(jié)果,證明了卷積神經(jīng)網(wǎng)絡(luò)在提取特征方面的優(yōu)勢(shì)。

        進(jìn)一步分析圖10、11 兩組實(shí)驗(yàn)結(jié)果可以發(fā)現(xiàn),SegNet、Deeplabv3、Refinenet、SEF-Net 模型所提取的結(jié)果中,對(duì)象內(nèi)部像素的分類(lèi)結(jié)果都比較理想,差異主要在于水體的邊緣處。由于SEF-Net引入了邊緣信息對(duì)語(yǔ)義特征進(jìn)行改善,提高了水體邊緣像素的特征區(qū)分能力,使得對(duì)象邊緣的提取結(jié)果明顯得到優(yōu)化,證明了引入邊緣信息策略的合理性。

        4.2 多尺度特征的優(yōu)勢(shì)

        除SegNet模型是僅利用逐級(jí)解碼方法生成逐像素特征外,Deeplabv3、Refinenet 和SEFNet 模型均采用了融合策略,通過(guò)對(duì)不同尺度的特征進(jìn)行融合生成用于分類(lèi)的逐像素特征。根據(jù)對(duì)比實(shí)驗(yàn),SegNet 模型所得到結(jié)果的各項(xiàng)指標(biāo)均不如其他模型,證明了通過(guò)融合多尺度特征能有效提高特征質(zhì)量。

        雖然Deeplabv3 模型和Re‐finenet 模型采用的具體融合過(guò)程有所不同,但這兩種模型均采用了定權(quán)融合策略,其優(yōu)勢(shì)在于簡(jiǎn)化了融合過(guò)程,不需要通過(guò)訓(xùn)練確定融合參數(shù),但由于不同級(jí)別的語(yǔ)義特征所代表的信息存在較大差異,從而對(duì)最終特征的貢獻(xiàn)也有所不同,采用定權(quán)融合策略可能會(huì)掩蓋不同級(jí)別的語(yǔ)義特征間的這種差異,不能達(dá)到有效提高同一對(duì)象像素間特征一致性的目的。而SEF-Net 采用的是變權(quán)融合策略,雖然需要增加額外的網(wǎng)絡(luò)參數(shù),但有助于表達(dá)不同級(jí)別語(yǔ)義的特征,可以提高同一對(duì)象像素特征間的一致性。

        5 結(jié)論

        針對(duì)從遙感影像中提取高精度水體空間分布的需要,本文在分析高分辨率遙感影像上水體對(duì)象數(shù)據(jù)特點(diǎn)的基礎(chǔ)上,充分利用語(yǔ)義特征與邊緣特征各自的優(yōu)勢(shì),建立了SEF-Net 模型以實(shí)現(xiàn)水體提取。SEF-Net 首先對(duì)語(yǔ)義特征與邊緣特征進(jìn)行融合,以生成兼有高類(lèi)內(nèi)一致性和高類(lèi)間區(qū)分度的精細(xì)特征,然后利用獲取的精細(xì)特征從遙感影像中提取水體精細(xì)空間分布,與現(xiàn)有方法相比,SEF-Net 提取結(jié)果的最高精度達(dá)到95.07%,即使在小數(shù)集中,SEFNet 的精度也達(dá)到了89.56%,說(shuō)明SEF-Net 模型不僅具有比同類(lèi)模型更強(qiáng)的提取能力,同時(shí)也具有較強(qiáng)的適應(yīng)能力,為大范圍、精細(xì)化、自動(dòng)化的水體信息提取工作提供了一定的思路。通過(guò)更換樣本數(shù)據(jù)集,SEF-Net 可直接應(yīng)用于從遙感圖像中提取農(nóng)作物、居民地、林地等面狀對(duì)象空間分布信息。

        本文的主要貢獻(xiàn)有:1)利用Canny 算法從原始遙感圖像生成邊緣圖像,并將其作為輔助數(shù)據(jù)源改善特征提取過(guò)程。實(shí)驗(yàn)證明,利用從邊緣圖像中提取出的邊緣特征信息,能夠有效提高對(duì)象邊緣處像素語(yǔ)義特征的區(qū)分能力;2)針對(duì)融合多尺度特征的需要,利用空洞卷積來(lái)擴(kuò)大感受野,利用1×1卷積對(duì)權(quán)重進(jìn)行自適應(yīng)調(diào)整,從而有效地改善了融合效果,提高了對(duì)象邊緣像素與內(nèi)部像素的特征一致性。

        本文方法需要較高精度的標(biāo)記數(shù)據(jù)構(gòu)建訓(xùn)練數(shù)據(jù)集,工作量較大,未來(lái)可考慮引入半監(jiān)督訓(xùn)練方法,降低模型訓(xùn)練對(duì)標(biāo)記工作的要求,以便將模型應(yīng)用于生產(chǎn)實(shí)踐。

        猜你喜歡
        邊緣語(yǔ)義水體
        農(nóng)村黑臭水體治理和污水處理淺探
        生態(tài)修復(fù)理念在河道水體治理中的應(yīng)用
        語(yǔ)言與語(yǔ)義
        廣元:治理黑臭水體 再還水清岸美
        一張圖看懂邊緣計(jì)算
        “上”與“下”語(yǔ)義的不對(duì)稱(chēng)性及其認(rèn)知闡釋
        認(rèn)知范疇模糊與語(yǔ)義模糊
        歐盟將禁止八種水體有毒物質(zhì)
        語(yǔ)義分析與漢俄副名組合
        在邊緣尋找自我
        雕塑(1999年2期)1999-06-28 05:01:42
        亚洲国产精品无码专区在线观看| 亚洲麻豆av一区二区| 91九色极品探花内射| 人妻少妇精品久久久久久| 亚洲男人的天堂在线播放 | 亚洲国产一区二区av| 国产成人精品久久亚洲高清不卡| 亚洲国产激情一区二区三区| 999久久66久6只有精品| 亚洲免费精品一区二区| 欧美成人午夜免费影院手机在线看 | 亚洲中文字幕无线乱码va| 色综合悠悠88久久久亚洲| 狼人青草久久网伊人| 四虎4545www国产精品| 久久免费网站91色网站| 一区在线视频免费播放| 99国产精品无码| 婷婷色综合成人成人网小说| 亚洲熟女少妇精品久久| 亚洲av成人无码一二三在线观看 | av无码国产在线看免费网站| 日本强好片久久久久久aaa| 麻豆av一区二区天堂| 国产视频一区二区在线免费观看| 无码一区二区三区亚洲人妻| 久久久久久亚洲AV成人无码国产 | 一本色道久久亚洲加勒比| 吃奶摸下激烈床震视频试看| 国产91对白在线观看| 国产少妇高潮在线视频| 亚洲女同一区二区| 成人无码午夜在线观看| 免费啪啪av人妻一区二区| 亚洲中文无码av永久| 亚洲一区二区三区在线高清中文| 亚洲精品国偷拍自产在线| 日日摸夜夜添无码无码av| 亚洲av色香蕉一区二区蜜桃| 久久一二区女厕偷拍图| 国产美女自慰在线观看|