亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        高光譜影像小樣本分類的圖卷積網(wǎng)絡(luò)方法

        2021-11-25 09:47:40左溪冰余旭初張鵬強高奎亮朱恩澤
        測繪學(xué)報 2021年10期
        關(guān)鍵詞:特征提取光譜像素

        左溪冰,劉 冰,余旭初,張鵬強,高奎亮,朱恩澤

        1. 信息工程大學(xué),河南 鄭州 450001; 2. 武警安徽省總隊機動支隊,安徽 合肥 230041

        高光譜遙感能夠同時獲取地物空間維和光譜維信息,具有圖譜合一的特點[1]。高光譜影像分類是高光譜影像應(yīng)用的重要環(huán)節(jié),其主要任務(wù)是為圖像中的每一個像元點賦予唯一的類別標(biāo)識。高光譜影像的分類任務(wù)通常需要大量的標(biāo)記樣本,而標(biāo)記樣本的獲取是一項費時費力的工作。同時,高光譜影像分類中高維和小樣本的特性也容易產(chǎn)生維數(shù)災(zāi)難問題[2]。

        早期的高光譜影像分類方法側(cè)重于探索影像的光譜特征在分類中的作用,在這些方法中,K近鄰[3](KNN)分類器和支持向量機[4](SVM)因其良好的分類性能而得到了廣泛的應(yīng)用。此外,基于圖的方法[5]、極限學(xué)習(xí)機[6]、基于稀疏表達(dá)的方法[7]也被進(jìn)一步應(yīng)用于高光譜影像分類。然而,這些像素級分類器沒有考慮影像的空間上下文信息,得到的分類結(jié)果不盡人意。后續(xù)研究表明,綜合利用高光譜影像的空間和光譜信息能有效提高分類精度,因此,拓展形態(tài)學(xué)剖面[8](EMP)、馬爾可夫隨機場[9](MRF)、局部二值模式[10](LBP)、Gabor濾波器[11]等方法被應(yīng)用于高光譜影像的空間特征提取,進(jìn)一步提高了影像的分類精度。雖然早期的分類方法在影像分類中扮演了重要的角色,但是它們在很大程度上依賴于人為設(shè)計的特征,具有很強的經(jīng)驗性。

        在深度學(xué)習(xí)時代,基于卷積神經(jīng)網(wǎng)絡(luò)的方法能夠通過一系列的層次結(jié)構(gòu)從原始影像數(shù)據(jù)中自動提取抽象的特征,避免了復(fù)雜的人為特征設(shè)計,因此取得了廣泛應(yīng)用。目前大多數(shù)基于卷積神經(jīng)網(wǎng)絡(luò)的高光譜影像分類方法大致可以分為光譜特征提取網(wǎng)絡(luò)、空間特征提取網(wǎng)絡(luò)和空譜特征提取網(wǎng)絡(luò)[12]。光譜特征提取網(wǎng)絡(luò)旨在通過堆疊的層次結(jié)構(gòu)提取影像的深層光譜特征。經(jīng)典的光譜特征提取網(wǎng)絡(luò)有堆棧式自編碼器[13](SAE)、深度置信網(wǎng)絡(luò)[14](DBN)、一維卷積神經(jīng)網(wǎng)絡(luò)[15](1D-CNN)、一維生成對抗網(wǎng)絡(luò)[16]和循環(huán)神經(jīng)網(wǎng)絡(luò)[17](RNN)。此外,文獻(xiàn)[18]利用卷積神經(jīng)網(wǎng)絡(luò)探索了高光譜影像像素對的光譜特征。文獻(xiàn)[19]利用字典學(xué)習(xí)來訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò),取得了更好的分類效果。與光譜特征網(wǎng)絡(luò)不同,空間特征提取網(wǎng)絡(luò)利用深度網(wǎng)絡(luò)提取影像的空間信息,并將學(xué)習(xí)到的空間特征與其他特征提取技術(shù)提取的光譜特征進(jìn)行融合,以獲得更高的分類精度。文獻(xiàn)[20]將主成分分析(PCA)和二維卷積神經(jīng)網(wǎng)絡(luò)(2D-CNN)相結(jié)合,提取了影像的空間和光譜信息。文獻(xiàn)[21]提出了一種多尺度的空間特征提取網(wǎng)絡(luò),并使用權(quán)重機制融合了不同尺度的空間結(jié)構(gòu)信息和光譜信息,取得了更佳的分類效果。空譜特征提取網(wǎng)絡(luò)能夠同時提取影像的空譜聯(lián)合信息。其中,三維卷積神經(jīng)網(wǎng)絡(luò)[22](3D-CNN)利用三維卷積層對高光譜影像立方體進(jìn)行端到端的空譜特征提取,取得了較好的分類結(jié)果。文獻(xiàn)[23]利用殘差學(xué)習(xí)模塊構(gòu)建了深層三維卷積網(wǎng)絡(luò)(Res-3D-CNN),有效地解決了三維卷積網(wǎng)絡(luò)的深層退化問題。上述基于卷積神經(jīng)網(wǎng)絡(luò)的方法雖然取得了一定進(jìn)展,但是它們只對影像的規(guī)則格網(wǎng)區(qū)域進(jìn)行卷積,在特征提取過程中無法很好地表達(dá)影像的不規(guī)則局部區(qū)域,導(dǎo)致在訓(xùn)練樣本較少的情況下出現(xiàn)誤分類。

        近年來,圖神經(jīng)網(wǎng)絡(luò)(GNN)引起了越來越多的關(guān)注。文獻(xiàn)[24]在不動點理論的基礎(chǔ)上首次提出了GNN模型,它可以聚合圖的節(jié)點特征,并將整個圖嵌入到新的特征空間中。文獻(xiàn)[25]在頻譜圖理論的基礎(chǔ)上提出了卷積神經(jīng)網(wǎng)絡(luò)的表述。在頻譜圖理論的基礎(chǔ)上,文獻(xiàn)[26]提出了GCN模型,該模型基于非歐幾里得數(shù)據(jù)進(jìn)行運算,通過隱含層的學(xué)習(xí),可以聚合圖中每個圖節(jié)點的鄰居特征信息,進(jìn)而對節(jié)點特征和局部圖結(jié)構(gòu)進(jìn)行編碼。若將高光譜影像中的每個像素視作一個圖節(jié)點,則可以將高光譜影像轉(zhuǎn)換為圖結(jié)構(gòu)數(shù)據(jù),進(jìn)而利用GCN對影像中的不規(guī)則局部區(qū)域進(jìn)行表達(dá),以提高影像在小樣本情況下的分類精度。

        本文設(shè)計了一種基于圖卷積網(wǎng)絡(luò)的高光譜影像分類方法(rotation-invariant uniform local binary pattern and graph convolutional neural network,RULBP+GCN),該方法在紋理特征提取的基礎(chǔ)上,通過K近鄰方法將影像構(gòu)建為拓?fù)鋱D結(jié)構(gòu),并輸入圖卷積網(wǎng)絡(luò)模型進(jìn)行影像分類,以提高影像在小樣本情況下的分類精度。

        1 本文方法

        本文方法的總體流程如圖1所示,該方法主要由3部分組成:LBP紋理特征提取,K近鄰構(gòu)圖和圖卷積網(wǎng)絡(luò)分類。對于原始高光譜影像,首先,通過主成分分析(PCA)將影像降維至3個波段;然后,提取3個波段的LBP紋理特征,并利用K近鄰方法對影像進(jìn)行構(gòu)圖;最后,使用圖卷積網(wǎng)絡(luò)提取圖節(jié)點的特征,并利用softmax函數(shù)生成每個節(jié)點的預(yù)測標(biāo)簽,進(jìn)而得到影像的分類結(jié)果圖。

        文獻(xiàn)[10]指出,結(jié)合高光譜影像的LBP紋理特征和光譜特征能夠顯著提升影像在小樣本情況下的分類精度。本文方法利用局部二值模式(LBP)提取影像的局部空間特征,并將提取得到的空間特征與影像的光譜特征相結(jié)合,綜合利用影像的空間信息和光譜信息。另外,在特征提取的基礎(chǔ)上,使用K近鄰方法將影像構(gòu)圖,充分建立影像不同樣本點之間的全局關(guān)聯(lián)。隨后,基于樣本點之間的關(guān)聯(lián)關(guān)系,利用圖卷積網(wǎng)絡(luò)聚合不同樣本點的特征,以充分利用影像的樣本信息,提高影像在小樣本條件下的分類精度。下文將分別介紹圖卷積網(wǎng)絡(luò)、K近鄰構(gòu)圖和局部二值模式。

        圖1 基于圖卷積網(wǎng)絡(luò)的高光譜影像分類方法流程Fig.1 Flow chart of hyperspectral image classification method based on graph convolution network

        1.1 圖卷積網(wǎng)絡(luò)

        圖卷積網(wǎng)絡(luò)是一種可以直接對圖結(jié)構(gòu)數(shù)據(jù)進(jìn)行操作的特征提取器,它可以通過圖卷積操作,充分利用節(jié)點之間的依賴關(guān)系和每個鄰居節(jié)點的特征信息。因此,與基于卷積神經(jīng)網(wǎng)絡(luò)的深度學(xué)習(xí)模型不同,GCN可以直接應(yīng)用于不規(guī)則數(shù)據(jù)。

        gθ·x=UgθUTx

        (1)

        式中,U是歸一化圖拉普拉斯矩陣的特征向量組成的矩陣;UTx是x的圖傅里葉變換。圖拉普拉斯矩陣的計算公式為

        (2)

        式中,L為圖拉普拉斯矩陣;Λ是L的特征值組成的對角矩陣??紤]到高光譜影像構(gòu)圖時像素節(jié)點較多,為便于在大圖中計算L的特征值分解,使用切比雪夫多項式Tk(x)直到第K階的截斷展開來近似式(2),得到的計算公式為

        (3)

        (4)

        隨后引入“再歸一化”,即

        (5)

        式中,H(0)=X為原始高光譜影像構(gòu)圖后的數(shù)據(jù);H(l)是第l+1層的輸入;W(l)是第l+1層的權(quán)值矩陣;σ代表激活函數(shù)。GCN的損失函數(shù)為

        (6)

        式中,yL是標(biāo)記像素點的索引集合;F是輸出層的特征圖個數(shù),在本文中對應(yīng)高光譜影像的地物類別數(shù)量;Ylf和Zlf分別是真實標(biāo)簽的索引矩陣和預(yù)測標(biāo)簽的索引矩陣。在訓(xùn)練過程中,通過反向傳播算法對GCN模型的所有參數(shù)進(jìn)行優(yōu)化,使得損失函數(shù)L最小。

        1.2 K近鄰構(gòu)圖

        由于圖卷積網(wǎng)絡(luò)只能直接作用于圖結(jié)構(gòu)數(shù)據(jù),因此需要將高光譜影像構(gòu)建為拓?fù)鋱D結(jié)構(gòu)。這里將影像的每一個像素視作圖的節(jié)點,通過K近鄰方法構(gòu)建拓?fù)鋱D。高光譜影像視為特征矩陣X∈RN×C,其中N為像素個數(shù),C為特征向量的維數(shù)。兩個樣本xi與j之間的歐氏距離dij的計算公式為

        (7)

        所有樣本對的距離度量可以構(gòu)成對稱距離矩陣D=[dij]∈RN×N。例如,矩陣D中的dij表示第i個像素到第j個像素的歐氏距離。為了方便構(gòu)圖,這里選擇距離像素xi最近的K個像素作為像素xi的鄰居節(jié)點,并將它們用邊連接起來,最終將高光譜影像構(gòu)造成一個無向圖。

        1.3 局部二值模式

        為進(jìn)一步提高影像的分類精度,通過LBP的方法提取影像的紋理特征,并結(jié)合光譜特征進(jìn)行分類。LBP是一種用來描述圖像局部紋理特征的算子,具有原理簡單、計算復(fù)雜度低、旋轉(zhuǎn)不變性和灰度不變性等優(yōu)勢[27]。對于一個給定的中心像素(x,y),其LBP碼的計算公式為

        (8)

        式中,R表示中心像素的鄰域半徑;P表示鄰域內(nèi)采樣的像素點個數(shù);LBP特征提取的(P,R)一般取值為(8,1);gc表示中心像素(x,y)的灰度值;g0,g1,…,gP-1表示鄰域內(nèi)像素的灰度值。由式(8)可知,中心像素的LBP碼共有2P種,這將會增加特征提取過程中的空間復(fù)雜度和時間復(fù)雜度,因此考慮采用基于旋轉(zhuǎn)不變性的等價LBP(rotation-invariant uniform local binary pattern,RULBP),該方法計算出的RULBP碼取決于二進(jìn)制中0和1的跳變次數(shù),中心像素RULBP碼的具體計算公式為

        (9)

        式中,U表示二進(jìn)制編碼中從0到1或從1到0的跳變次數(shù)。圖2給出了(P,R)取(8,1)時中心像素RULBP碼的兩種計算示例,在圖2(a)中,二進(jìn)制數(shù)00011000對應(yīng)的U值為1,因此中心像素的RULBP碼為2,在圖2(b)中,二進(jìn)制00110011對應(yīng)的U值為4,因此中心像素的RULBP碼為9。由式(9)可知,當(dāng)以中心像素的8鄰域為窗口計算其RULBP碼時,中心像素的LBP碼由原來的256種減少為10種,因此采用RULBP能夠有效地減少LBP碼的種類,提高了LBP特征提取的穩(wěn)定性。

        圖2 8鄰域窗口內(nèi)中心像素的LBP碼計算示例Fig.2 Example of LBP code calculation of center pixel in eight-neighborhood window

        對于高光譜影像數(shù)據(jù),可以將影響的每個波段視為灰度圖像,直接應(yīng)用RULBP模型獲取各波段中每個像素的RULBP碼,并采用中心像素圖像塊的統(tǒng)計直方圖作為該像素的RULBP特征。值得注意的是,統(tǒng)計直方圖的橫軸代表RULBP碼的種類,其范圍為[0,9],縱軸代表圖像塊內(nèi)各RULBP碼出現(xiàn)的頻率。圖3以Pavia大學(xué)數(shù)據(jù)集為例,給出了高光譜影像RULBP特征提取的具體流程,由于高光譜影像具有高維特性,且相鄰波段具有高度相關(guān)性,因此首先使用主成分分析將高光譜影像降維至3個波段,然后分別對3個主成分進(jìn)行RULBP特征提取,最終結(jié)合3個主成分特征與3個RULBP特征,為影像的每一個像素生成33維的特征向量。最終提取的特征包含了主要的光譜特征及RULBP提取的局部紋理特征,同時利用了高光譜影像的空間信息和光譜信息。

        2 試驗結(jié)果及分析

        試驗的硬件環(huán)境為16 GB內(nèi)存,IntelCorei7-9750H處理器,RTX 2070顯卡。本文設(shè)計的圖卷積網(wǎng)絡(luò)基于python語言和深度學(xué)習(xí)庫Tensorflow-GPU開發(fā)實現(xiàn)。在網(wǎng)絡(luò)的訓(xùn)練過程中,設(shè)置網(wǎng)絡(luò)的迭代次數(shù)為2000次,每隔10次記錄測試樣本集上模型的分類準(zhǔn)確率,并以10次為周期對學(xué)習(xí)率實施動態(tài)衰減,在訓(xùn)練過程中,使用Adam函數(shù)對模型的訓(xùn)練損失進(jìn)行優(yōu)化。

        圖3 高光譜影像RULBP特征提取流程(以Pavia大學(xué)數(shù)據(jù)集為例)Fig.3 Flow chart of RULBP feature extraction from hyperspectral images (taking the University of Pavia dataset as an example)

        2.1 試驗數(shù)據(jù)

        為驗證圖卷積網(wǎng)絡(luò)在高光譜影像分類方面的優(yōu)勢,選取3個常用的高光譜數(shù)據(jù)集進(jìn)行分類試驗,分別為Pavia大學(xué)數(shù)據(jù)集、Indian Pines數(shù)據(jù)集和Salinas數(shù)據(jù)集。

        (1) Pavia大學(xué)數(shù)據(jù)集。Pavia大學(xué)數(shù)據(jù)集是由德國的機載反射光學(xué)光譜成像儀(reflective optics spectrographic imaging system,ROSIS-03)在2003年對意大利的帕維亞城成像的一部分高光譜數(shù)據(jù),光譜覆蓋范圍為430~860 nm,影像大小為610×340像素,其中包含地物的像素有42 776個,空間分辨率為1.3 m,去除受噪聲影響的波段后,剩余103個波段可用于分類。該數(shù)據(jù)集對9種地物進(jìn)行了標(biāo)注。地物類別、選取的訓(xùn)練樣本數(shù)量、測試樣本數(shù)量見表1。

        表1 Pavia大學(xué)數(shù)據(jù)集劃分情況

        (2) Indian Pines數(shù)據(jù)集。Indian Pines數(shù)據(jù)集是由機載可視紅外光譜儀(airborne visible infrared imaging spectrometer,AVIRIS)傳感器于1992年對美國印第安納州一塊印度松樹區(qū)域進(jìn)行成像獲得,光譜覆蓋范圍為400~2500 nm,影像大小為145×145像素,其中包含地物的像素有10 249個,空間分辨率為20 m,去除受噪聲影響的波段后,剩余200個波段可用于分類。該數(shù)據(jù)集對16種地物進(jìn)行了標(biāo)注。地物類別、選取的訓(xùn)練樣本數(shù)量、測試樣本數(shù)量見表2。值得注意的是,第9類地物僅包含20個像素,因此在每類地物選取的訓(xùn)練樣本數(shù)目超過20時,第9類地物仍選取20個樣本。

        表2 Indian Pines數(shù)據(jù)集劃分情況

        (3) Salinas數(shù)據(jù)集。Salinas數(shù)據(jù)集是AVIRIS光譜儀獲取的美國加利福尼亞州薩利納斯山谷區(qū)域的高光譜影像,影像大小為512×217像素,其中包含地物的像素有54 129個,空間分辨率為3.7 m,原始影像共有224個波段,去除受噪聲影響的波段后,剩余204個波段可用于分類。該數(shù)據(jù)集對16種地物進(jìn)行了標(biāo)注。地物類別、選取的訓(xùn)練樣本數(shù)量、測試樣本數(shù)量見表3。

        表3 Salinas數(shù)據(jù)集劃分情況

        2.2 試驗參數(shù)設(shè)置

        在GCN正式訓(xùn)練之前,首先需要確定最佳試驗參數(shù)。試驗中需要確定的參數(shù)包括每個節(jié)點的鄰居節(jié)點數(shù)量K,GCN模型的網(wǎng)絡(luò)結(jié)構(gòu)以及學(xué)習(xí)率。

        在K近鄰構(gòu)圖的過程中,參數(shù)K的含義是圖中每個節(jié)點的鄰居數(shù)量,在試驗過程中,如果K太小,則無法充分表達(dá)節(jié)點之間的依賴關(guān)系,不利于分類精度的提高;如果K取值過大,則節(jié)點會聚合鄰居節(jié)點中不利于分類的信息,進(jìn)而降低分類精度。圖4(a)給出了不同K取值情況下3個數(shù)據(jù)集的分類精度,由圖4(a)可知,隨著K的增加,分類精度呈現(xiàn)先上升后下降的趨勢。為確定參數(shù)K的最佳值,在最高分類精度對應(yīng)的參數(shù)附近進(jìn)行K值的細(xì)粒度查找,如圖4(b)所示。在圖4(b)中,Pavia大學(xué)在K值為200時分類精度最高,Indian Pines在K值為30時分類精度最高,Salinas在K值為70時分類精度最高。因此最終在K近鄰構(gòu)圖的過程中,Pavia大學(xué)、Indian Pines和Salinas的K值分別取為200、30和13。

        圖4 不同鄰居節(jié)點對應(yīng)的分類精度(%)Fig.4 Classification accuracy corresponding to different neighbor nodes (%)

        與卷積神經(jīng)網(wǎng)絡(luò)類似,GCN的網(wǎng)絡(luò)結(jié)構(gòu)會影響到網(wǎng)絡(luò)的學(xué)習(xí)能力,最終影響影像的分類精度和分類效率。表4給出了不同網(wǎng)絡(luò)結(jié)構(gòu)對應(yīng)的影像總體分類精度和訓(xùn)練時間,本文使用不同的節(jié)點組合來表示GCN不同的網(wǎng)絡(luò)結(jié)構(gòu),例如,8表示包含8個節(jié)點的單個隱藏層;8-16表示分別包含8個節(jié)點和16個節(jié)點的兩個隱藏層;8-16-32表示分別包含8個節(jié)點、16個節(jié)點和32個節(jié)點的3個隱藏層。表4中加粗的數(shù)據(jù)為最高的分類精度或最少的訓(xùn)練時間。由表4可知,對于3組高光譜數(shù)據(jù)集,不同網(wǎng)絡(luò)結(jié)構(gòu)對應(yīng)的訓(xùn)練時間差別不大,因此最終選取總體分類精度較高的節(jié)點組合作為最終的網(wǎng)絡(luò)結(jié)構(gòu),Pavia大學(xué)數(shù)據(jù)集對應(yīng)的網(wǎng)絡(luò)結(jié)構(gòu)為包含32個節(jié)點的單個隱藏層,Indian Pines數(shù)據(jù)集和Salinas數(shù)據(jù)集對應(yīng)的網(wǎng)絡(luò)結(jié)構(gòu)為包含64個節(jié)點的單個隱藏層。

        參照深度學(xué)習(xí)應(yīng)用于高光譜影像分類試驗的一般經(jīng)驗,將學(xué)習(xí)率分別設(shè)置為0.1、0.01、0.001和0.000 1,圖5展現(xiàn)了不同學(xué)習(xí)率對應(yīng)的損失函數(shù)值。由圖5可知,較大的學(xué)習(xí)率(如0.01)將會導(dǎo)致?lián)p失函數(shù)值波動較大,不利于模型的訓(xùn)練;較小的學(xué)習(xí)率(如0.001)將產(chǎn)生較低的損失函數(shù)值,使得模型的擬合能力更強。因此3個試驗數(shù)據(jù)集的學(xué)習(xí)率均設(shè)置為0.001。

        表4 不同網(wǎng)絡(luò)結(jié)構(gòu)對應(yīng)的總體分類精度和訓(xùn)練時間

        圖5 不同學(xué)習(xí)率對應(yīng)的損失函數(shù)曲線Fig.5 The loss function curve corresponding to different learning rates

        2.3 試驗結(jié)果與分析

        為驗證本文提出的方法(RULBP+GCN)應(yīng)對小樣本問題的有效性,每類地物分別隨機選取5、10、15、20、25個訓(xùn)練樣本進(jìn)行分類,并將本文方法與支持向量機(SVM)[28]、直推式支持向量機(transductive support vector machine,TSVM)[29]、一維卷積神經(jīng)網(wǎng)絡(luò)(1DCNN)[15]、二維卷積神經(jīng)網(wǎng)絡(luò)(2DCNN)[20]、三維卷積神經(jīng)網(wǎng)絡(luò)(3DCNN)[22]、半監(jiān)督生成對抗網(wǎng)絡(luò)(SGAN)[30]以及深度少樣例學(xué)習(xí)方法(DFSL+SVM)[31]進(jìn)行對比分析。其中,SVM是一種常用的監(jiān)督分類器,其核函數(shù)采用高斯徑向基函數(shù);TSVM是一種半監(jiān)督分類方法,其核心思想是嘗試為未標(biāo)記樣本找到合適的標(biāo)簽值,使得超平面劃分后的間隔最大化;1DCNN、2DCNN和3DCNN是常用的深度學(xué)習(xí)方法;SGAN是一種半監(jiān)督的深度學(xué)習(xí)方法;DFSL+SVM在訓(xùn)練深度三維卷積神經(jīng)網(wǎng)絡(luò)的過程中模擬小樣本分類的情況,并將提取到的特征輸入支持向量機中進(jìn)行分類,能有效解決小樣本分類問題。值得注意的是,上述對比方法均以原始高光譜影像作為輸入,未進(jìn)行PCA降維和RULBP特征提取,因此為了保證對比試驗的公平性,設(shè)置一組未進(jìn)行PCA降維與RULBP特征提取的圖卷積網(wǎng)絡(luò)分類試驗,記作GCN。表5至表7分別給出了RULBP+GCN和不同對比方法在3組高光譜影像數(shù)據(jù)集上的總體分類精度。表中數(shù)據(jù)為10次試驗結(jié)果的總體分類精度的均值和標(biāo)準(zhǔn)差。

        觀察并分析表5—表7中的試驗結(jié)果可知,所有方法的總體分類精度隨著每類地物訓(xùn)練樣本數(shù)量L的增加而提升,表明增加監(jiān)督樣本的數(shù)量和引入未標(biāo)記樣本可以提高高光譜影像的分類精度。由于半監(jiān)督方法能夠有效利用未標(biāo)記樣本,一定程度上緩解了標(biāo)記樣本不足的問題,因此半監(jiān)督支持向量機TSVM的分類精度高于傳統(tǒng)支持向量機SVM的分類精度。1DCNN、2DCNN、3DCNN、SGAN、DFSL+SVM、GCN以及RULBP+GCN等深度學(xué)習(xí)方法的分類精度總體上均高于傳統(tǒng)的支持向量機方法,表明深度學(xué)習(xí)方法具備更強的特征提取能力。

        表5 不同方法在Pavia大學(xué)數(shù)據(jù)集上的分類結(jié)果

        表6 不同方法在Indian Pines數(shù)據(jù)集上的分類結(jié)果

        表7 不同方法在Salinas數(shù)據(jù)集上的分類結(jié)果

        將GCN與其他深度學(xué)習(xí)方法(1DCNN、2DCNN、3DCNN、SGAN、DFSL+SVM)的分類精度進(jìn)行對比分析可知,在每類地物隨機選取5個訓(xùn)練樣本的情況下,GCN的分類精度高于1DCNN、2DCNN、3DCNN和SGAN,但明顯低于DSFL+SVM。這表明即使不進(jìn)行影像的PCA降維和紋理特征提取,GCN取得的分類精度仍高于卷積神經(jīng)網(wǎng)絡(luò)取得的分類精度。由于DFSL+SVM在訓(xùn)練過程中模擬了高光譜影像的少樣例學(xué)習(xí)問題,因此在每類地物隨機選取5個訓(xùn)練樣本的條件下,能夠取得更高的分類精度。但是,隨著訓(xùn)練樣本數(shù)量的增加,GCN的分類精度會出現(xiàn)低于2DCNN、3DCNN、SGAN和DFSL+SVM的情況,這主要是因為GCN僅僅捕捉了影像像素點之間的全局關(guān)聯(lián),忽略了影像中存在的空間信息和光譜信息,而2DCNN、3DCNN、SGAN和DFSL+SVM等方法以影像像素的鄰域塊作為網(wǎng)絡(luò)的輸入,一定程度上聯(lián)合利用了影像的空間信息和光譜信息。

        相比而言,本文提出的方法(RULBP+GCN)的總體分類精度最高,表明了RULBP+GCN在小樣本情況下分類的有效性。該方法首先提取影像的局部紋理特征,并通過K近鄰方法將影像構(gòu)圖,建立像素點之間的全局關(guān)聯(lián),其中的每個節(jié)點都包含了豐富的空間信息和光譜信息。在此基礎(chǔ)上,GCN充分利用了節(jié)點之間的依賴關(guān)系,通過聚合鄰居節(jié)點的特征信息,對高光譜影像中的局部區(qū)域進(jìn)行了充分表達(dá),進(jìn)而提高了影像在小樣本情況下的分類精度。另外,在3組高光譜數(shù)據(jù)集上,RULBP+GCN的總體分類精度均高于GCN的分類精度。表明了使用RULBP進(jìn)行紋理特征提取的有效性。

        為了更加直觀地觀察RULBP+GCN方法的分類效果,圖6、圖7、圖8分別給出了3組數(shù)據(jù)集的假彩色影像(第10、50、100波段合成),地物真實標(biāo)記,以及選取不同數(shù)量訓(xùn)練樣本的情況下,RULBP+GCN取得的分類結(jié)果圖。觀察圖6、圖7、圖8可知,隨著每類地物選取的訓(xùn)練樣本數(shù)量L的增加,分類圖的分類噪聲逐漸減少,這也更加直觀地反映了RULBP+GCN在小樣本情況下的有效性。

        圖6 Pavia大學(xué)數(shù)據(jù)集上選取不同數(shù)量的訓(xùn)練樣本獲得的分類結(jié)果Fig.6 The classification results obtained by selecting different number of training samples from Pavia University dataset

        圖7 Indian Pines數(shù)據(jù)集上選取不同數(shù)量的訓(xùn)練樣本獲得的分類結(jié)果Fig.7 The classification results obtained by selecting different number of training samples from Indian Pines dataset

        2.4 效率對比分析

        為進(jìn)一步研究RULBP+GCN的計算效率,本文選擇SVM、TSVM、1DCNN、2DCNN、3DCNN、SGAN和DFSL+SVM進(jìn)行對比分析,見表8,其中深度學(xué)習(xí)方法1DCNN、2DCNN、3DCNN、SGAN和DFSL+SVM的迭代次數(shù)均為2000次,每種方法的執(zhí)行時間包括訓(xùn)練時間和測試時間。監(jiān)督分類器SVM具有較少的超參數(shù),因此執(zhí)行時間很短[32-33],但其在3個數(shù)據(jù)集上的分類精度均低于RULBP+GCN。RULBP+GCN的訓(xùn)練時間比TSVM、1DCNN、2DCNN、3DCNN、DFSL+SVM的訓(xùn)練時間少,且分類精度均高于所有的對比方法,表明RULBP+GCN在保證分類精度的同時,也具備更快的執(zhí)行速度。

        圖8 Salinas數(shù)據(jù)集上選取不同數(shù)量的訓(xùn)練樣本獲得的分類結(jié)果Fig.8 The classification results obtained by selecting different number of training samples from Salinas dataset

        表8 在3個數(shù)據(jù)集上的效率對比(每類地物選取5個標(biāo)記樣本作為訓(xùn)練樣本)

        3 結(jié) 論

        為改善高光譜影像在小樣本情況下的分類精度,本文提出了一種基于圖卷積網(wǎng)絡(luò)的高光譜影像分類方法。該方法首先從高光譜影像中提取RULBP特征并將其組織成圖結(jié)構(gòu),隨后使用GCN模型對圖數(shù)據(jù)進(jìn)行分類。采用Pavia大學(xué)、Indian Pines和Salinas 3組高光譜影像數(shù)據(jù)進(jìn)行試驗驗證,試驗結(jié)果表明:RULBP紋理特征提取能夠有效地利用影像空間特征,有利于提高影像的分類精度;GCN模型充分利用了像素節(jié)點之間的依賴關(guān)系,通過聚合鄰居節(jié)點的特征信息,有效改善了高光譜影像在小樣本條件下的分類精度。

        雖然本文提出的方法在小樣本條件下取得了一定的成效,但影像的構(gòu)圖方法直接決定了各像素點之間的鄰接關(guān)系,進(jìn)而決定圖卷積模型從鄰居節(jié)點中聚合到的特征信息的優(yōu)劣,最終影響影像的分類精度。進(jìn)一步的研究工作將結(jié)合更加有效的影像構(gòu)圖方法和圖卷積模型,以期在每類地物選取5個樣本的條件下,獲得更高的分類精度。

        猜你喜歡
        特征提取光譜像素
        趙運哲作品
        藝術(shù)家(2023年8期)2023-11-02 02:05:28
        基于三維Saab變換的高光譜圖像壓縮方法
        像素前線之“幻影”2000
        “像素”仙人掌
        基于Daubechies(dbN)的飛行器音頻特征提取
        電子制作(2018年19期)2018-11-14 02:37:08
        Bagging RCSP腦電特征提取算法
        高像素不是全部
        CHIP新電腦(2016年3期)2016-03-10 14:22:03
        星載近紅外高光譜CO2遙感進(jìn)展
        基于MED和循環(huán)域解調(diào)的多故障特征提取
        苦味酸與牛血清蛋白相互作用的光譜研究
        少妇人妻精品一区二区三区视 | 精品久久综合日本久久综合网| 午夜免费电影| 夜夜嗨av一区二区三区| 2021国产最新无码视频| 久久开心婷婷综合中文| 国产精品理论片在线观看| 亚洲国产成人久久综合电影| 国产精品女同一区二区久久| 成年男女免费视频网站点播| 丰满少妇被猛烈进入高清播放| 精品一区二区三区无码免费视频| 亚洲V在线激情| 美女狂喷白浆网站视频在线观看 | 国产精品v片在线观看不卡| 亚洲产国偷v产偷v自拍色戒| 亚洲国产精品国自产拍av在线 | 无码gogo大胆啪啪艺术| 亚洲精品国精品久久99热一| 麻豆国产AV网站| 日本午夜剧场日本东京热| 亚洲av永久无码精品网站在线观看 | 中国免费av网| 人妻少妇中文字幕,久久精品| 美女脱了内裤张开腿让男人桶网站 | 欧美性生交大片免费看app麻豆 | 麻豆夫妻在线视频观看| 成人影院在线视频免费观看| 久久精品人人做人人爽| 国产亚洲精品综合在线网址| 曰日本一级二级三级人人| 又大又紧又粉嫩18p少妇| 免费一级毛片麻豆精品| 91亚洲夫妻视频网站| 美女张开腿黄网站免费| 亚洲综合无码一区二区| 国产精品一区二区av白丝在线| 日韩av一区二区三区激情在线| 国产精品无码久久久久| 亚洲熟女av超清一区二区三区| 日韩在线不卡一区三区av|