亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于擴(kuò)張圖卷積網(wǎng)絡(luò)的SAR圖像分類(lèi)

        2022-07-15 09:53:00葉鄉(xiāng)鳳董張玉楊學(xué)志
        關(guān)鍵詞:分類(lèi)特征

        葉鄉(xiāng)鳳,董張玉,楊學(xué)志

        (1合肥工業(yè)大學(xué) 計(jì)算機(jī)與信息學(xué)院,合肥 230601;2工業(yè)安全與應(yīng)急技術(shù)安徽省重點(diǎn)實(shí)驗(yàn)室,合肥 230601;3合肥工業(yè)大學(xué) 軟件學(xué)院,合肥 230601;4智能互聯(lián)網(wǎng)系統(tǒng)安徽省實(shí)驗(yàn)室,合肥 230601)

        0 引 言

        合成孔徑雷達(dá)可以在全天候和晝夜條件下提供高分辨率的圖像。SAR分割的目的是為每個(gè)像素點(diǎn)分配特定的標(biāo)簽,是變化檢測(cè)、目標(biāo)識(shí)別的基礎(chǔ)。常用的分割框架是像素級(jí),首先采用灰度共生矩陣或變換域?yàn)V波器提取SAR圖像的特征,如小波變換;其次,利用分類(lèi)器對(duì)像素進(jìn)行分類(lèi),包括隨機(jī)森林(Random Forest)、AdaBoost等。近年來(lái),深度學(xué)習(xí)體系結(jié)構(gòu)已被證明具有良好的高級(jí)特征表示性能,可以同時(shí)進(jìn)行特征提取和分割。目前,基于卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,CNN)和全卷積神經(jīng)網(wǎng)絡(luò)(Fully Convolutional Networks,F(xiàn)CN)的深度學(xué)習(xí)方法取得了良好的性能。

        但是上述網(wǎng)絡(luò)模型只能在規(guī)則的正方形的區(qū)域進(jìn)行卷積,KIPF等人認(rèn)為拓?fù)鋱D更能表達(dá)事物之間的依賴(lài)性關(guān)系,提出了圖卷積網(wǎng)絡(luò)(Graph Convolutional Network,GCN),以一種快速卷積的方式同時(shí)編碼圖的節(jié)點(diǎn)和邊的特征;GCN網(wǎng)絡(luò)模型數(shù)過(guò)多會(huì)抑制其性能,MA等人使用GCN并加入注意力機(jī)制對(duì)鄰居節(jié)點(diǎn)進(jìn)行加權(quán)聚合,并且引入超像素的機(jī)制減少計(jì)算量,取得了優(yōu)于傳統(tǒng)算法的分類(lèi)結(jié)果;LEE等人以一種自適應(yīng)的方式,同時(shí)利用時(shí)間信息和強(qiáng)度信息,增強(qiáng)特征;LI等人將卷積神經(jīng)網(wǎng)絡(luò)中殘差網(wǎng)絡(luò)、密集型卷積等的思想引入到圖卷積網(wǎng)絡(luò)中,證明了殘差連接可以加深網(wǎng)絡(luò)的深度;WAN等人提取不同尺度的空間信息增強(qiáng)細(xì)節(jié)特征,證明了空間尺度細(xì)節(jié)信息的重要性,但是卻忽略了不同尺度的感受野的重要性程度不一,帶來(lái)了冗余。

        針對(duì)上述問(wèn)題,本文構(gòu)建了一種改進(jìn)的圖卷積網(wǎng)絡(luò),即構(gòu)建了RDGC模塊,對(duì)不同尺度的信息進(jìn)行提取,提取局部細(xì)節(jié)空間特征;再利用依賴(lài)性關(guān)系自適應(yīng)提取不同感受野的信息,即對(duì)不同感受野的信息進(jìn)行增強(qiáng)或抑制,獲取有表征力的特征;將各個(gè)模塊的輸出進(jìn)行串連拼接,整合各個(gè)層次的信息,并將底層全局特征信息附加在其上,形成殘差連接,補(bǔ)充空間細(xì)節(jié)。

        1 本文算法框架

        本文提出了一種基于自適應(yīng)擴(kuò)張圖卷積網(wǎng)絡(luò),用于SAR圖像分類(lèi),網(wǎng)絡(luò)模型結(jié)構(gòu)如圖1所示。網(wǎng)絡(luò)共包括3個(gè)模塊:粗分割模塊、殘差擴(kuò)張圖卷積模塊(RDGC)和特征融合模塊。

        圖1 本文網(wǎng)絡(luò)模型架構(gòu)Fig.1 The network model architecture of this paper

        粗分割模塊:為了降低計(jì)算量,采用SLIC算法對(duì)真實(shí)SAR進(jìn)行超像素粗分割處理。表示SAR圖像,表示SAR圖像經(jīng)過(guò)SLIC超像素后的結(jié)果,則粗分割模塊處理過(guò)程可以表示為式(1):

        其中,將第一個(gè)RDGC模塊的輸入經(jīng)過(guò)1×1的卷積,以調(diào)整通道維度。

        特征融合模塊:將每個(gè)殘差擴(kuò)張圖卷積模塊的輸出特征串接在一起,整合不同層次的信息流,式(3):

        最后,將粗分割后圖像經(jīng)過(guò)1×1卷積之后得到底層特征,附加在增強(qiáng)后的特征圖上,形成全局殘差學(xué)習(xí),補(bǔ)充底層細(xì)節(jié)信息,解決梯度爆炸的問(wèn)題,從而提高SAR圖像分割精度,公式(4):

        1.1 擴(kuò)張圖

        在SAR圖像分割領(lǐng)域,已經(jīng)證明多尺度的有效性。在SAR圖像中,地物通常具有不同的幾何外觀,不同尺度包含的上下文信息有助于充分挖掘圖像區(qū)域局部屬性。擴(kuò)張卷積已經(jīng)廣泛應(yīng)用于CNN網(wǎng)絡(luò)模型中,可以擴(kuò)大感受野,并且不增加網(wǎng)絡(luò)的復(fù)雜性。DeepGCN也證明了擴(kuò)張卷積在GCN模型中的有效性。受擴(kuò)張卷積的啟發(fā),本文構(gòu)造不同擴(kuò)張率的圖結(jié)構(gòu),利用不同感受野,挖掘中心像素點(diǎn)周?chē)目臻g上下文信息。擴(kuò)張率為1,2,3對(duì)應(yīng)的鄰居節(jié)點(diǎn)集,如圖2所示。因此,任意一個(gè)中心樣本x在擴(kuò)張率為時(shí)的鄰居節(jié)點(diǎn)集為式(5):

        圖2 不同擴(kuò)張率的鄰居節(jié)點(diǎn)Fig.2 Neighbor nodes at different dilated rates

        其中,(x=x,(x)是x的擴(kuò)張率為1的鄰居節(jié)點(diǎn)集合,也是普通圖結(jié)構(gòu),(Sx))是x的擴(kuò)張率為1的鄰居節(jié)點(diǎn)集的所有一階鄰居節(jié)點(diǎn)的集合。

        1.2 殘差擴(kuò)張圖卷積

        本文提出了一種殘差擴(kuò)張圖卷積模塊(RDGC),對(duì)圖像不同尺度特征之間的依賴(lài)性關(guān)系進(jìn)行建模,自適應(yīng)地為不同的尺度特征分配權(quán)重,提取更重要感受野的細(xì)節(jié)信息,增強(qiáng)特征的表達(dá)能力。

        RDGC主要是由3個(gè)擴(kuò)張率不同圖卷積和一個(gè)感受野選擇塊(Reception Field Slect,RFS)的組合,使用殘差連接將輸入與輸出相加,此模塊的主要構(gòu)成如圖3所示。

        圖3 殘差擴(kuò)張圖卷積模塊Fig.3 Residual dilated graph convolutional module

        為了獲得更多感受野的信息,以每個(gè)超像素為圖的節(jié)點(diǎn),構(gòu)建了擴(kuò)張率分別為1,2,3的圖結(jié)構(gòu),并進(jìn)行卷積操作,即將擴(kuò)張圖與輸入的特征相乘,對(duì)中心節(jié)點(diǎn)加權(quán)聚合處理得到不同的特征,提取不同尺度的信息,式(6):

        其中,和h分別是擴(kuò)張圖卷積層的輸入與輸出;為激活函數(shù);是擴(kuò)張率為的鄰接矩陣,也就是擴(kuò)張圖結(jié)構(gòu);是可訓(xùn)練的權(quán)重矩陣。

        神經(jīng)網(wǎng)絡(luò)的神經(jīng)元感受野的大小并不是固定的。為了自適應(yīng)地利用特征在不同尺度上的重要性,對(duì)不同尺度的感受野信息依賴(lài)關(guān)系進(jìn)行建模,使其能夠更靈活地進(jìn)行多尺度特征選擇,自適應(yīng)選擇感受野大小。

        首先,將3個(gè)尺度的輸出特征進(jìn)行直接相加融合,并進(jìn)行平均最大池化處理,得到全局特征;其次,利用多層感知機(jī)進(jìn)一步提取深層次、有判別性的全局特征,∈1;最后,再分別進(jìn)行3次全連接,得到∈1、∈1和∈1。

        在通道維度上對(duì)這3個(gè)特征進(jìn)行softmax歸一化處理,從3個(gè)不同擴(kuò)張因子的擴(kuò)張卷積中獲取特征圖的重要因子的特征選擇,即得到3個(gè)不同尺度上權(quán)重系數(shù);最后將權(quán)重系數(shù)與、、對(duì)應(yīng)相乘,完成對(duì)不同感受野特征的加權(quán)。整個(gè)過(guò)程可由式(7)~(11)表示:

        殘差連接使得可以重復(fù)利用特征,保證了局部特征信息可以傳遞到更高層,確保高層的性能至少與低層一樣,解決了現(xiàn)有網(wǎng)絡(luò)存在的模型退化問(wèn)題,因此將輸入特征殘差連接到融合后的特征中,殘差擴(kuò)張模塊的輸出為式(12):

        2 實(shí)驗(yàn)結(jié)果與分析

        2.1 實(shí)驗(yàn)數(shù)據(jù)

        為了評(píng)估所提網(wǎng)絡(luò)的性能,且避免單一土地覆蓋類(lèi)別對(duì)分割結(jié)果的影響,實(shí)驗(yàn)采用了兩幅SAR圖像數(shù)據(jù)進(jìn)行驗(yàn)證,分別是RADARSAT-2拍攝的Flevoland和San-Francisco-Bay,分辨率均為12×8 m。Flevoland的大小為1 000×1 400,包括水體、城區(qū)、森林、農(nóng)田1和農(nóng)田2這5類(lèi)土地覆蓋類(lèi)型,其原始影像和標(biāo)簽圖如圖4(a)和(b)所示;San Francisco-Bay的大小為1 101×1 161,包括建筑物1、建筑物2、建筑物3、水體、植被這5類(lèi)土地覆蓋類(lèi)型,圖4其原始影像和標(biāo)簽圖如圖4(c)和圖4(d)所示。

        圖4 實(shí)驗(yàn)所用圖像以及相對(duì)應(yīng)的標(biāo)簽Fig.4 The images and the corresponding ground truth

        2.2 參數(shù)設(shè)置

        對(duì)于Flevoland和San Francisco-Bay兩幅真實(shí)SAR圖像,在每一類(lèi)標(biāo)簽像素樣本中,選30個(gè)樣本作為訓(xùn)練集,剩下的樣本作為測(cè)試集,以此評(píng)價(jià)所提網(wǎng)絡(luò)的分割性能。圖像數(shù)據(jù)進(jìn)行SLIC粗分割的參數(shù)見(jiàn)表1。

        表1 SLIC粗分的參數(shù)設(shè)置Tab.1 Parameter settings of SLIC

        擴(kuò)張圖卷積隱藏層神經(jīng)元個(gè)數(shù)為60,算法選用Adam優(yōu)化訓(xùn)練參數(shù),設(shè)置動(dòng)量為0.9,學(xué)習(xí)率為0.06,訓(xùn)練500輪次后,損失值達(dá)到穩(wěn)定。

        選用了現(xiàn)有的主流SAR分割算法與本文所提網(wǎng)絡(luò)進(jìn)行對(duì)比,分別是基于CNN的網(wǎng)絡(luò)模型ResNet18;基于全卷積的網(wǎng)絡(luò)模型PSPNet和基于GCN的網(wǎng)絡(luò)模型MSGCN和AGCN。本文采用各個(gè)類(lèi)別的分割精度,總體分割精度OA、平均分類(lèi)精度AA和Kappa系數(shù)評(píng)估各個(gè)網(wǎng)絡(luò)模型的分割性能。

        網(wǎng)絡(luò)采用PyCharm 2021,在處理器為Intel Xeon Silver4114@2.2 GHZ,內(nèi)存大小為128 GB,顯卡為Nvidia Tesla P100-PCIE-16 GB。

        2.3 實(shí)驗(yàn)結(jié)果

        2.3.1 Flevoland圖像分類(lèi)結(jié)果對(duì)比與討論

        對(duì)比方法和本文所提網(wǎng)絡(luò)的各類(lèi)別的準(zhǔn)確度、OA、AA和Kappa系數(shù),見(jiàn)表2??梢钥闯觯趯?duì)比方法中,所提網(wǎng)絡(luò)分割性能最佳;從類(lèi)別來(lái)看,所提算法在農(nóng)田2這一類(lèi)別上提升效果最為顯著,相較MSGCN,高出13.52%。

        表2 不同算法在Flevoland圖像上的分類(lèi)結(jié)果Tab.2 Classification results of different algorithms on Flevoland

        與現(xiàn)有的主流SAR圖像分割算法對(duì)比可視化結(jié)果,如圖5所示。PSPNet和ResNet18算法的水體分類(lèi)精度雖然都達(dá)到了約99%,但是水體區(qū)域內(nèi)仍有“椒鹽”狀的誤分類(lèi)點(diǎn),本文算法“水體”分類(lèi)精準(zhǔn)度達(dá)到100%,水體區(qū)域地物平整,輪廓清晰;在其余4類(lèi)地物分類(lèi)中,ResNet18和PSPNet分類(lèi)的結(jié)果都有大量的誤分類(lèi)點(diǎn),如“農(nóng)田2”像素被大量誤分為“森林”,MSGCN和AGCN分類(lèi)結(jié)果有所改善,但是邊界處仍有不少誤分現(xiàn)象,本文算法能有效改善這種現(xiàn)象,能夠有效保持邊界清晰,且區(qū)域平滑。

        圖5 不同算法在Flevoland上的可視化結(jié)果Fig.5 Visual results of different algorithms on Flevoland

        2.3.2 San Francisco-Bay圖像分類(lèi)結(jié)果對(duì)比與討論

        對(duì)比方法和本文所提網(wǎng)絡(luò)的各類(lèi)別的準(zhǔn)確度、OA、AA和Kappa系數(shù),見(jiàn)表3。由表3可知,在所有對(duì)比算法中,MSGCN表現(xiàn)最優(yōu),但本文算法優(yōu)于MSGCN,在OA、AA和Kappa系數(shù)指標(biāo)上都獲得了理想的分割結(jié)果,分別是93.09%、93.32%、91.27%,尤其是在建筑物1類(lèi)別上,相比MSGCN,提高了近10%,且遠(yuǎn)遠(yuǎn)優(yōu)于其他對(duì)比算法的分類(lèi)精度,因此,也證明了所提網(wǎng)絡(luò)的有效性以及對(duì)不同數(shù)據(jù)集具有魯棒性。

        表3 不同算法在San Francisco-Bay圖像上的分類(lèi)結(jié)果Tab.3 Classification results of different algorithms on San Francisco-Bay images

        與現(xiàn)有的主流SAR圖像分割算法對(duì)比可視化結(jié)果,如圖6所示。由圖6可知,ResNet18利用特征復(fù)用,增強(qiáng)了特征,但是分類(lèi)結(jié)果仍斑駁;PSPNet利用多尺度去提取不同細(xì)節(jié)的特征能夠改善這種情況,但是精確度仍不高??偟膩?lái)說(shuō),現(xiàn)有網(wǎng)絡(luò)整體分類(lèi)結(jié)果較為粗糙,與標(biāo)簽圖相比,大量“植被”像素被錯(cuò)誤分類(lèi)為“水體”。相比之下,所提網(wǎng)絡(luò)可以有效區(qū)分類(lèi)間邊緣、地物規(guī)整以及區(qū)域內(nèi)更加平滑。

        圖6 不同算法在San Francisco-Bay上的可視化結(jié)果Fig.6 Visual results of different algorithms on San Francisco-Bay

        3 結(jié)束語(yǔ)

        本文提出了一種新的殘差擴(kuò)張圖卷積網(wǎng)絡(luò),解決圖像因樣本少、而噪聲多,現(xiàn)有網(wǎng)絡(luò)提取細(xì)節(jié)特征不充分的問(wèn)題。所提的RDGC模塊具有強(qiáng)大的特征提取能力,不僅能通過(guò)多個(gè)不同擴(kuò)張率的圖卷積提取不同空間尺度的細(xì)節(jié)信息,并且可以自適應(yīng)選擇感受野,過(guò)濾冗余的信息,因此對(duì)多尺度特征更加敏感。為了防止特征丟失和梯度彌漫,將模塊的輸入與最終的輸出結(jié)果殘差連接,增強(qiáng)保持細(xì)節(jié)信息的能力。通過(guò)實(shí)驗(yàn)分析與對(duì)比,本文設(shè)計(jì)的網(wǎng)絡(luò)達(dá)到了理想的分類(lèi)性能,且勻質(zhì)區(qū)域平滑,邊緣保持能力強(qiáng),解決了小樣本圖像分類(lèi)精度低的問(wèn)題。由于SAR受噪聲干擾嚴(yán)重,本文的后續(xù)工作將考慮構(gòu)建更優(yōu)質(zhì)的圖結(jié)構(gòu),讓圖結(jié)構(gòu)能夠更精準(zhǔn)的表達(dá)像素之間的相似度關(guān)系,便于后層卷積網(wǎng)絡(luò)進(jìn)行加權(quán)聚合運(yùn)算,從而有效地提升分類(lèi)性能。

        猜你喜歡
        分類(lèi)特征
        抓住特征巧觀察
        分類(lèi)算一算
        垃圾分類(lèi)的困惑你有嗎
        大眾健康(2021年6期)2021-06-08 19:30:06
        新型冠狀病毒及其流行病學(xué)特征認(rèn)識(shí)
        如何表達(dá)“特征”
        不忠誠(chéng)的四個(gè)特征
        分類(lèi)討論求坐標(biāo)
        數(shù)據(jù)分析中的分類(lèi)討論
        教你一招:數(shù)的分類(lèi)
        抓住特征巧觀察
        国产AⅤ无码久久丝袜美腿| 一夲道无码人妻精品一区二区| 中文字幕亚洲一区二区三区| 91久久香蕉国产熟女线看| 亚洲自偷自拍另类第1页| 中文无码成人免费视频在线观看| 精品无码av一区二区三区| 国内露脸少妇精品视频| 青青草97国产精品免费观看| 久久久久久久性潮| 国产91精品成人不卡在线观看| 久久久久亚洲AV成人网毛片 | 亚洲av乱码专区国产乱码| 国产成人精品一区二免费网站| 国产成人高清精品亚洲一区| 日本一级三级在线观看| 尤物国产一区二区三区在线观看| 国产精品国产三级第一集| 天天爽夜夜爽人人爽| 无码免费一区二区三区| 手机看片福利日韩| 久久精品国产亚洲AV香蕉吃奶| 亚洲国产综合性感三级自拍| 伊人狼人大香线蕉手机视频 | 日本一区三区三区在线观看| 无码 人妻 在线 视频| 久久综合九色综合网站| 亚洲黄色性生活一级片| 日韩精品一区二区三区影音视频 | 精品久久久无码中文字幕| 麻豆人妻无码性色AV专区| 美女草逼视频免费播放| 国产成人精品一区二区三区av| 人妻少妇中文字幕在线观看| 精品国偷自产在线视频九色| 亚洲男同帅gay片在线观看| 国产精品原创巨作av无遮| 91精品啪在线观看国产色| 日本黑人乱偷人妻在线播放| 午夜成人理论福利片| 在线欧美中文字幕农村电影|