葉鄉(xiāng)鳳,董張玉,楊學(xué)志
(1合肥工業(yè)大學(xué) 計(jì)算機(jī)與信息學(xué)院,合肥 230601;2工業(yè)安全與應(yīng)急技術(shù)安徽省重點(diǎn)實(shí)驗(yàn)室,合肥 230601;3合肥工業(yè)大學(xué) 軟件學(xué)院,合肥 230601;4智能互聯(lián)網(wǎng)系統(tǒng)安徽省實(shí)驗(yàn)室,合肥 230601)
合成孔徑雷達(dá)可以在全天候和晝夜條件下提供高分辨率的圖像。SAR分割的目的是為每個(gè)像素點(diǎn)分配特定的標(biāo)簽,是變化檢測(cè)、目標(biāo)識(shí)別的基礎(chǔ)。常用的分割框架是像素級(jí),首先采用灰度共生矩陣或變換域?yàn)V波器提取SAR圖像的特征,如小波變換;其次,利用分類(lèi)器對(duì)像素進(jìn)行分類(lèi),包括隨機(jī)森林(Random Forest)、AdaBoost等。近年來(lái),深度學(xué)習(xí)體系結(jié)構(gòu)已被證明具有良好的高級(jí)特征表示性能,可以同時(shí)進(jìn)行特征提取和分割。目前,基于卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,CNN)和全卷積神經(jīng)網(wǎng)絡(luò)(Fully Convolutional Networks,F(xiàn)CN)的深度學(xué)習(xí)方法取得了良好的性能。
但是上述網(wǎng)絡(luò)模型只能在規(guī)則的正方形的區(qū)域進(jìn)行卷積,KIPF等人認(rèn)為拓?fù)鋱D更能表達(dá)事物之間的依賴(lài)性關(guān)系,提出了圖卷積網(wǎng)絡(luò)(Graph Convolutional Network,GCN),以一種快速卷積的方式同時(shí)編碼圖的節(jié)點(diǎn)和邊的特征;GCN網(wǎng)絡(luò)模型數(shù)過(guò)多會(huì)抑制其性能,MA等人使用GCN并加入注意力機(jī)制對(duì)鄰居節(jié)點(diǎn)進(jìn)行加權(quán)聚合,并且引入超像素的機(jī)制減少計(jì)算量,取得了優(yōu)于傳統(tǒng)算法的分類(lèi)結(jié)果;LEE等人以一種自適應(yīng)的方式,同時(shí)利用時(shí)間信息和強(qiáng)度信息,增強(qiáng)特征;LI等人將卷積神經(jīng)網(wǎng)絡(luò)中殘差網(wǎng)絡(luò)、密集型卷積等的思想引入到圖卷積網(wǎng)絡(luò)中,證明了殘差連接可以加深網(wǎng)絡(luò)的深度;WAN等人提取不同尺度的空間信息增強(qiáng)細(xì)節(jié)特征,證明了空間尺度細(xì)節(jié)信息的重要性,但是卻忽略了不同尺度的感受野的重要性程度不一,帶來(lái)了冗余。
針對(duì)上述問(wèn)題,本文構(gòu)建了一種改進(jìn)的圖卷積網(wǎng)絡(luò),即構(gòu)建了RDGC模塊,對(duì)不同尺度的信息進(jìn)行提取,提取局部細(xì)節(jié)空間特征;再利用依賴(lài)性關(guān)系自適應(yīng)提取不同感受野的信息,即對(duì)不同感受野的信息進(jìn)行增強(qiáng)或抑制,獲取有表征力的特征;將各個(gè)模塊的輸出進(jìn)行串連拼接,整合各個(gè)層次的信息,并將底層全局特征信息附加在其上,形成殘差連接,補(bǔ)充空間細(xì)節(jié)。
本文提出了一種基于自適應(yīng)擴(kuò)張圖卷積網(wǎng)絡(luò),用于SAR圖像分類(lèi),網(wǎng)絡(luò)模型結(jié)構(gòu)如圖1所示。網(wǎng)絡(luò)共包括3個(gè)模塊:粗分割模塊、殘差擴(kuò)張圖卷積模塊(RDGC)和特征融合模塊。
圖1 本文網(wǎng)絡(luò)模型架構(gòu)Fig.1 The network model architecture of this paper
粗分割模塊:為了降低計(jì)算量,采用SLIC算法對(duì)真實(shí)SAR進(jìn)行超像素粗分割處理。表示SAR圖像,表示SAR圖像經(jīng)過(guò)SLIC超像素后的結(jié)果,則粗分割模塊處理過(guò)程可以表示為式(1):
其中,將第一個(gè)RDGC模塊的輸入經(jīng)過(guò)1×1的卷積,以調(diào)整通道維度。
特征融合模塊:將每個(gè)殘差擴(kuò)張圖卷積模塊的輸出特征串接在一起,整合不同層次的信息流,式(3):
最后,將粗分割后圖像經(jīng)過(guò)1×1卷積之后得到底層特征,附加在增強(qiáng)后的特征圖上,形成全局殘差學(xué)習(xí),補(bǔ)充底層細(xì)節(jié)信息,解決梯度爆炸的問(wèn)題,從而提高SAR圖像分割精度,公式(4):
在SAR圖像分割領(lǐng)域,已經(jīng)證明多尺度的有效性。在SAR圖像中,地物通常具有不同的幾何外觀,不同尺度包含的上下文信息有助于充分挖掘圖像區(qū)域局部屬性。擴(kuò)張卷積已經(jīng)廣泛應(yīng)用于CNN網(wǎng)絡(luò)模型中,可以擴(kuò)大感受野,并且不增加網(wǎng)絡(luò)的復(fù)雜性。DeepGCN也證明了擴(kuò)張卷積在GCN模型中的有效性。受擴(kuò)張卷積的啟發(fā),本文構(gòu)造不同擴(kuò)張率的圖結(jié)構(gòu),利用不同感受野,挖掘中心像素點(diǎn)周?chē)目臻g上下文信息。擴(kuò)張率為1,2,3對(duì)應(yīng)的鄰居節(jié)點(diǎn)集,如圖2所示。因此,任意一個(gè)中心樣本x在擴(kuò)張率為時(shí)的鄰居節(jié)點(diǎn)集為式(5):
圖2 不同擴(kuò)張率的鄰居節(jié)點(diǎn)Fig.2 Neighbor nodes at different dilated rates
其中,(x)=x,(x)是x的擴(kuò)張率為1的鄰居節(jié)點(diǎn)集合,也是普通圖結(jié)構(gòu),(S(x))是x的擴(kuò)張率為1的鄰居節(jié)點(diǎn)集的所有一階鄰居節(jié)點(diǎn)的集合。
本文提出了一種殘差擴(kuò)張圖卷積模塊(RDGC),對(duì)圖像不同尺度特征之間的依賴(lài)性關(guān)系進(jìn)行建模,自適應(yīng)地為不同的尺度特征分配權(quán)重,提取更重要感受野的細(xì)節(jié)信息,增強(qiáng)特征的表達(dá)能力。
RDGC主要是由3個(gè)擴(kuò)張率不同圖卷積和一個(gè)感受野選擇塊(Reception Field Slect,RFS)的組合,使用殘差連接將輸入與輸出相加,此模塊的主要構(gòu)成如圖3所示。
圖3 殘差擴(kuò)張圖卷積模塊Fig.3 Residual dilated graph convolutional module
為了獲得更多感受野的信息,以每個(gè)超像素為圖的節(jié)點(diǎn),構(gòu)建了擴(kuò)張率分別為1,2,3的圖結(jié)構(gòu),并進(jìn)行卷積操作,即將擴(kuò)張圖與輸入的特征相乘,對(duì)中心節(jié)點(diǎn)加權(quán)聚合處理得到不同的特征,提取不同尺度的信息,式(6):
其中,和h分別是擴(kuò)張圖卷積層的輸入與輸出;為激活函數(shù);是擴(kuò)張率為的鄰接矩陣,也就是擴(kuò)張圖結(jié)構(gòu);是可訓(xùn)練的權(quán)重矩陣。
神經(jīng)網(wǎng)絡(luò)的神經(jīng)元感受野的大小并不是固定的。為了自適應(yīng)地利用特征在不同尺度上的重要性,對(duì)不同尺度的感受野信息依賴(lài)關(guān)系進(jìn)行建模,使其能夠更靈活地進(jìn)行多尺度特征選擇,自適應(yīng)選擇感受野大小。
首先,將3個(gè)尺度的輸出特征進(jìn)行直接相加融合,并進(jìn)行平均最大池化處理,得到全局特征;其次,利用多層感知機(jī)進(jìn)一步提取深層次、有判別性的全局特征,∈1;最后,再分別進(jìn)行3次全連接,得到∈1、∈1和∈1。
在通道維度上對(duì)這3個(gè)特征進(jìn)行softmax歸一化處理,從3個(gè)不同擴(kuò)張因子的擴(kuò)張卷積中獲取特征圖的重要因子的特征選擇,即得到3個(gè)不同尺度上權(quán)重系數(shù);最后將權(quán)重系數(shù)與、、對(duì)應(yīng)相乘,完成對(duì)不同感受野特征的加權(quán)。整個(gè)過(guò)程可由式(7)~(11)表示:
殘差連接使得可以重復(fù)利用特征,保證了局部特征信息可以傳遞到更高層,確保高層的性能至少與低層一樣,解決了現(xiàn)有網(wǎng)絡(luò)存在的模型退化問(wèn)題,因此將輸入特征殘差連接到融合后的特征中,殘差擴(kuò)張模塊的輸出為式(12):
為了評(píng)估所提網(wǎng)絡(luò)的性能,且避免單一土地覆蓋類(lèi)別對(duì)分割結(jié)果的影響,實(shí)驗(yàn)采用了兩幅SAR圖像數(shù)據(jù)進(jìn)行驗(yàn)證,分別是RADARSAT-2拍攝的Flevoland和San-Francisco-Bay,分辨率均為12×8 m。Flevoland的大小為1 000×1 400,包括水體、城區(qū)、森林、農(nóng)田1和農(nóng)田2這5類(lèi)土地覆蓋類(lèi)型,其原始影像和標(biāo)簽圖如圖4(a)和(b)所示;San Francisco-Bay的大小為1 101×1 161,包括建筑物1、建筑物2、建筑物3、水體、植被這5類(lèi)土地覆蓋類(lèi)型,圖4其原始影像和標(biāo)簽圖如圖4(c)和圖4(d)所示。
圖4 實(shí)驗(yàn)所用圖像以及相對(duì)應(yīng)的標(biāo)簽Fig.4 The images and the corresponding ground truth
對(duì)于Flevoland和San Francisco-Bay兩幅真實(shí)SAR圖像,在每一類(lèi)標(biāo)簽像素樣本中,選30個(gè)樣本作為訓(xùn)練集,剩下的樣本作為測(cè)試集,以此評(píng)價(jià)所提網(wǎng)絡(luò)的分割性能。圖像數(shù)據(jù)進(jìn)行SLIC粗分割的參數(shù)見(jiàn)表1。
表1 SLIC粗分的參數(shù)設(shè)置Tab.1 Parameter settings of SLIC
擴(kuò)張圖卷積隱藏層神經(jīng)元個(gè)數(shù)為60,算法選用Adam優(yōu)化訓(xùn)練參數(shù),設(shè)置動(dòng)量為0.9,學(xué)習(xí)率為0.06,訓(xùn)練500輪次后,損失值達(dá)到穩(wěn)定。
選用了現(xiàn)有的主流SAR分割算法與本文所提網(wǎng)絡(luò)進(jìn)行對(duì)比,分別是基于CNN的網(wǎng)絡(luò)模型ResNet18;基于全卷積的網(wǎng)絡(luò)模型PSPNet和基于GCN的網(wǎng)絡(luò)模型MSGCN和AGCN。本文采用各個(gè)類(lèi)別的分割精度,總體分割精度OA、平均分類(lèi)精度AA和Kappa系數(shù)評(píng)估各個(gè)網(wǎng)絡(luò)模型的分割性能。
網(wǎng)絡(luò)采用PyCharm 2021,在處理器為Intel Xeon Silver4114@2.2 GHZ,內(nèi)存大小為128 GB,顯卡為Nvidia Tesla P100-PCIE-16 GB。
2.3.1 Flevoland圖像分類(lèi)結(jié)果對(duì)比與討論
對(duì)比方法和本文所提網(wǎng)絡(luò)的各類(lèi)別的準(zhǔn)確度、OA、AA和Kappa系數(shù),見(jiàn)表2??梢钥闯觯趯?duì)比方法中,所提網(wǎng)絡(luò)分割性能最佳;從類(lèi)別來(lái)看,所提算法在農(nóng)田2這一類(lèi)別上提升效果最為顯著,相較MSGCN,高出13.52%。
表2 不同算法在Flevoland圖像上的分類(lèi)結(jié)果Tab.2 Classification results of different algorithms on Flevoland
與現(xiàn)有的主流SAR圖像分割算法對(duì)比可視化結(jié)果,如圖5所示。PSPNet和ResNet18算法的水體分類(lèi)精度雖然都達(dá)到了約99%,但是水體區(qū)域內(nèi)仍有“椒鹽”狀的誤分類(lèi)點(diǎn),本文算法“水體”分類(lèi)精準(zhǔn)度達(dá)到100%,水體區(qū)域地物平整,輪廓清晰;在其余4類(lèi)地物分類(lèi)中,ResNet18和PSPNet分類(lèi)的結(jié)果都有大量的誤分類(lèi)點(diǎn),如“農(nóng)田2”像素被大量誤分為“森林”,MSGCN和AGCN分類(lèi)結(jié)果有所改善,但是邊界處仍有不少誤分現(xiàn)象,本文算法能有效改善這種現(xiàn)象,能夠有效保持邊界清晰,且區(qū)域平滑。
圖5 不同算法在Flevoland上的可視化結(jié)果Fig.5 Visual results of different algorithms on Flevoland
2.3.2 San Francisco-Bay圖像分類(lèi)結(jié)果對(duì)比與討論
對(duì)比方法和本文所提網(wǎng)絡(luò)的各類(lèi)別的準(zhǔn)確度、OA、AA和Kappa系數(shù),見(jiàn)表3。由表3可知,在所有對(duì)比算法中,MSGCN表現(xiàn)最優(yōu),但本文算法優(yōu)于MSGCN,在OA、AA和Kappa系數(shù)指標(biāo)上都獲得了理想的分割結(jié)果,分別是93.09%、93.32%、91.27%,尤其是在建筑物1類(lèi)別上,相比MSGCN,提高了近10%,且遠(yuǎn)遠(yuǎn)優(yōu)于其他對(duì)比算法的分類(lèi)精度,因此,也證明了所提網(wǎng)絡(luò)的有效性以及對(duì)不同數(shù)據(jù)集具有魯棒性。
表3 不同算法在San Francisco-Bay圖像上的分類(lèi)結(jié)果Tab.3 Classification results of different algorithms on San Francisco-Bay images
與現(xiàn)有的主流SAR圖像分割算法對(duì)比可視化結(jié)果,如圖6所示。由圖6可知,ResNet18利用特征復(fù)用,增強(qiáng)了特征,但是分類(lèi)結(jié)果仍斑駁;PSPNet利用多尺度去提取不同細(xì)節(jié)的特征能夠改善這種情況,但是精確度仍不高??偟膩?lái)說(shuō),現(xiàn)有網(wǎng)絡(luò)整體分類(lèi)結(jié)果較為粗糙,與標(biāo)簽圖相比,大量“植被”像素被錯(cuò)誤分類(lèi)為“水體”。相比之下,所提網(wǎng)絡(luò)可以有效區(qū)分類(lèi)間邊緣、地物規(guī)整以及區(qū)域內(nèi)更加平滑。
圖6 不同算法在San Francisco-Bay上的可視化結(jié)果Fig.6 Visual results of different algorithms on San Francisco-Bay
本文提出了一種新的殘差擴(kuò)張圖卷積網(wǎng)絡(luò),解決圖像因樣本少、而噪聲多,現(xiàn)有網(wǎng)絡(luò)提取細(xì)節(jié)特征不充分的問(wèn)題。所提的RDGC模塊具有強(qiáng)大的特征提取能力,不僅能通過(guò)多個(gè)不同擴(kuò)張率的圖卷積提取不同空間尺度的細(xì)節(jié)信息,并且可以自適應(yīng)選擇感受野,過(guò)濾冗余的信息,因此對(duì)多尺度特征更加敏感。為了防止特征丟失和梯度彌漫,將模塊的輸入與最終的輸出結(jié)果殘差連接,增強(qiáng)保持細(xì)節(jié)信息的能力。通過(guò)實(shí)驗(yàn)分析與對(duì)比,本文設(shè)計(jì)的網(wǎng)絡(luò)達(dá)到了理想的分類(lèi)性能,且勻質(zhì)區(qū)域平滑,邊緣保持能力強(qiáng),解決了小樣本圖像分類(lèi)精度低的問(wèn)題。由于SAR受噪聲干擾嚴(yán)重,本文的后續(xù)工作將考慮構(gòu)建更優(yōu)質(zhì)的圖結(jié)構(gòu),讓圖結(jié)構(gòu)能夠更精準(zhǔn)的表達(dá)像素之間的相似度關(guān)系,便于后層卷積網(wǎng)絡(luò)進(jìn)行加權(quán)聚合運(yùn)算,從而有效地提升分類(lèi)性能。