亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于超像素分割的圖注意力網(wǎng)絡(luò)的高光譜圖像分類

        2024-05-15 21:57:32高路堯胡長虹肖樹林

        高路堯 胡長虹 肖樹林

        摘要: 針對卷積神經(jīng)網(wǎng)絡(luò)(CNN)僅能應(yīng)用于歐氏數(shù)據(jù), 無法有效獲取像素間的全局關(guān)系特征以及長距離上下文信息的問題, 構(gòu)建一個(gè)基于超像素分割的圖注意力網(wǎng)絡(luò)SSGAT. 該網(wǎng)絡(luò)將超像素分割后的超像素塊視為圖結(jié)構(gòu)中的圖節(jié)點(diǎn), 有效減少了圖結(jié)構(gòu)的復(fù)雜度, 并降低了分類圖的噪聲. 在3個(gè)數(shù)據(jù)集上對SSGAT及對比算法的分類精度進(jìn)行測試, 分別獲得了94.11%,95.22%,96.37%的總體分類精度. 結(jié)果表明該方法性能優(yōu)異, 在處理大尺度區(qū)域的分類問題時(shí)優(yōu)勢明顯.

        關(guān)鍵詞: 高光譜圖像; 圖注意力網(wǎng)絡(luò); 殘差機(jī)制; 超像素分割

        中圖分類號: TP391文獻(xiàn)標(biāo)志碼: A文章編號: 1671-5489(2024)02-0357-12

        Hyperspectral Image Classification Based on SuperpixelSegmentation with Graph Attention Networks

        GAO Luyao1,2, HU Changhong1, XIAO Shulin1,2

        (1. Changchun Institute of Optics, Fine Mechanics and Physics, Chinese Academy of Sciences,Changchun 130033, China; 2. University of Chinese Academy of Sciences, Beijing 100049, China)

        Abstract: Aiming at the problem that convolutional neural network (CNN) could only be applied to Euclidean data and could not effectively obtain global relationship features between pixels and long-distance contextual information, we constructed a superpixel segmentation-based graph attention network (SSGAT). The network treated the segmented superpixel blocks as graph nodes in the graph structure, effectively reducing the complexity of the graph structure and reducing the noise of the classification graph.? The classification accuracy of SSGAT and the comparison algorithm were tested on three datasets, and overall classification accuracy of 94.11%, 95.22%, and 96.37% were obtained, respectively. The results show that the method has excellent performance and significant advantages in dealing with classification problems in large-scale regions.

        Keywords: hyperspectral image; graph attention network; residual mechanism; superpixel segmentation

        高光譜成像系統(tǒng)可同時(shí)獲取地物豐富的光譜信息和二維空間信息進(jìn)而形成高光譜圖像(hyperspectral images, HSI)[1]. HSI的光譜維度由數(shù)十至數(shù)百個(gè)連續(xù)波段組成, 細(xì)微的光譜特征極大提升了地物分辨能力, 因此已廣泛應(yīng)用于災(zāi)害監(jiān)測、 植被分類、 精細(xì)農(nóng)業(yè)以及醫(yī)學(xué)診斷等領(lǐng)域[2-5].

        HSI分類的目標(biāo)是對HSI中的各像素所代表的地物對象進(jìn)行判別[6]. 早期主要依靠一些機(jī)器學(xué)習(xí)算法進(jìn)行高光譜圖像分類任務(wù), 傳統(tǒng)的機(jī)器學(xué)習(xí)算法主要分為特征工程與分類器分類兩個(gè)過程. 特征工程的目的是根據(jù)專業(yè)知識對數(shù)據(jù)進(jìn)行處理, 從而使處理后的特征在后續(xù)分類算法中得到更好地應(yīng)用, 例如主成分分析(PCA)[7]、 獨(dú)立成分分析(ICA)[8]等降維方法. 典型的分類器包括支持向量機(jī)(SVM)[9]、 隨機(jī)森林(RF)[10]和k-近鄰(KNN)[11]等方法. 但上述方法忽略了HSI中的空間信息, 且特征提取過程需人為參與, 因此限制了分類準(zhǔn)確度的提升.

        深度學(xué)習(xí)通過聚合低級特征自動對圖像的高階特征進(jìn)行提取, 避免了繁瑣的特征工程, 且能取得比機(jī)器學(xué)習(xí)方法更好的分類結(jié)果[5], 因此, 已經(jīng)替代了傳統(tǒng)的機(jī)器學(xué)習(xí)分類方法[12]. 其中, 卷積神經(jīng)網(wǎng)絡(luò)(CNN)由于具有局部連接、 權(quán)值共享的特點(diǎn)已成為高光譜分類領(lǐng)域的主流方法[13]. 首先被用于HSI分類任務(wù)的深度學(xué)習(xí)方法是一維卷積(1DCNN)和二維卷積神經(jīng)網(wǎng)絡(luò)(2DCNN)[14-15], 一維卷積將每個(gè)波段的像素點(diǎn)視為一個(gè)序列, 而二維卷積將每個(gè)波段的像素視為一個(gè)矩陣, 這類方法的分類結(jié)果均優(yōu)于機(jī)器學(xué)習(xí)方法, 但仍存在對圖像的空間及光譜信息利用不足的問題. 因此, Chen等[4]提出了三維卷積神經(jīng)網(wǎng)絡(luò)(3DCNN)模型以同時(shí)提取空譜聯(lián)合特征, 相比二維卷積, 3DCNN可以同時(shí)在3個(gè)方向上進(jìn)行卷積操作, 進(jìn)而提取更多的特征信息, 該方法實(shí)現(xiàn)了對空譜信息的同步提取, 但該模型的計(jì)算負(fù)擔(dān)較大. 為解決上述問題并提取更豐富的特征, 研究者提出了一種混合光譜CNN(HybridSN)[5], 使圖像先經(jīng)過三維卷積處理再經(jīng)過二維卷積處理, 在獲取豐富特征的同時(shí)計(jì)算負(fù)擔(dān)比3DCNN方法小[16].

        為分析并利用數(shù)據(jù)之間的關(guān)聯(lián)性, 突出重要的特征并忽略不相關(guān)的噪聲信息, 人們提出了注意力機(jī)制. Mei等[17]使用基于空間注意力的卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行HSI分類, 通過對像素周圍的區(qū)域進(jìn)行空間注意力卷積進(jìn)而提高了分類精度. Yang等[18]將二維卷積與三維卷積相結(jié)合, 增添了一個(gè)三維注意力模塊以獲取更豐富的特征. 為解決網(wǎng)絡(luò)層數(shù)增加導(dǎo)致的過擬合問題, Zhong等[19]將殘差結(jié)構(gòu)引入3DCNN模型, 構(gòu)建了光譜殘差模塊和空間殘差模塊, 取得了較滿意的分類結(jié)果; Wang等[20]提出了一種基于殘差和注意力機(jī)制的深度卷積神經(jīng)網(wǎng)絡(luò), 通過引入注意力機(jī)制和殘差連接提高了分類精度和魯棒性.

        雖然目前基于CNN的分類方法應(yīng)用廣泛, 但CNN中的卷積操作是通過平移卷積核實(shí)現(xiàn)的, 其工作方式導(dǎo)致其只能應(yīng)用于規(guī)則數(shù)據(jù)的處理, 卷積核的大小又限制了其獲取長距離上下文特征的能力, 忽視了對高光譜圖像分類任務(wù)有幫助的關(guān)系特征, 很難對不規(guī)則數(shù)據(jù)進(jìn)行處理. 為解決上述問題, 研究者們借鑒卷積網(wǎng)絡(luò)的思想設(shè)計(jì)了圖卷積網(wǎng)絡(luò), 并將其應(yīng)用在HSI分類任務(wù)中[21].

        圖卷積網(wǎng)絡(luò)通過捕獲并聚合圖結(jié)構(gòu)中各節(jié)點(diǎn)及其相鄰節(jié)點(diǎn)之間的關(guān)系獲取上下文信息, 圖結(jié)構(gòu)的不規(guī)則性導(dǎo)致在圖結(jié)構(gòu)上直接進(jìn)行卷積非常困難. 基于空域中卷積的Fourier變換等于頻域中的Fourier變換的乘積[22], Kipf等[23]首先提出了頻域圖卷積網(wǎng)絡(luò)模型, 先將空域輸入信號和空域卷積核轉(zhuǎn)換到頻域, 在譜域中相乘后再通過Fourier逆變換轉(zhuǎn)換回空域. Velikovic等[24]提出了圖注意力網(wǎng)絡(luò)(graph attention network, GAT), GAT利用注意力機(jī)制對鄰域節(jié)點(diǎn)進(jìn)行聚合操作, 可對不同節(jié)點(diǎn)之間的關(guān)系進(jìn)行不同程度的加權(quán), 從而提高了模型對關(guān)鍵節(jié)點(diǎn)的關(guān)注度, 并使模型能更好地捕捉節(jié)點(diǎn)之間的全局關(guān)系. Wang等[25]則在高光譜圖像的光譜維度上構(gòu)建多尺度金字塔, 在每個(gè)尺度空間應(yīng)用GAT方法提取特征, 最后實(shí)現(xiàn)分類任務(wù). Sha等[26]提出了一種新的基于圖注意力網(wǎng)絡(luò)的分類框架以充分利用空譜信息.

        針對基于CNN的分類方法無法有效獲取像素間的關(guān)系特征、 難以對不規(guī)則數(shù)據(jù)進(jìn)行處理等問題, 本文構(gòu)建一個(gè)基于超像素分割的圖注意力網(wǎng)絡(luò)SSGAT(superpixel segmentation-based graph attention networks), 并通過與其他主流方法進(jìn)行對比實(shí)驗(yàn)和消融實(shí)驗(yàn), 對提出的SSGAT方法進(jìn)行評估, 實(shí)驗(yàn)結(jié)果證明了本文算法性能優(yōu)異.

        1 實(shí)驗(yàn)方法

        本文根據(jù)圖卷積網(wǎng)絡(luò)中的圖注意力模型, 設(shè)計(jì)一個(gè)基于超像素分割的圖注意力網(wǎng)絡(luò)SSGAT, 圖1為SSGAT網(wǎng)絡(luò)的總體結(jié)構(gòu). 首先, 針對HSI的高維特性問題, 用PCA降維方法對原始HSI進(jìn)行降維處理, 以減少原始影像中的冗余信息, 并降低數(shù)據(jù)的維度. 數(shù)據(jù)維度過多會使模型的訓(xùn)練和預(yù)測速度變慢, 同時(shí)也可能出現(xiàn)過擬合等問題; 其次, 使用SLIC(simple linear iterative clustering)超像素分割算法將影像分割為連續(xù)的像素塊, 并以每個(gè)像素塊作為節(jié)點(diǎn)構(gòu)建圖結(jié)構(gòu), 以避免構(gòu)圖過程中將每個(gè)像素視為圖節(jié)點(diǎn)所導(dǎo)致的巨大計(jì)算量; 再次, 將得到的圖結(jié)構(gòu)輸入到兩層圖注意力網(wǎng)絡(luò)中進(jìn)行特征提取, 為避免網(wǎng)絡(luò)訓(xùn)練過擬合的風(fēng)險(xiǎn), 在網(wǎng)絡(luò)中增添了殘差結(jié)構(gòu), 殘差結(jié)構(gòu)通過跨層跳躍連接的方式, 克服了傳統(tǒng)深度神經(jīng)網(wǎng)絡(luò)中梯度消失和網(wǎng)絡(luò)難以訓(xùn)練的問題, 提高了網(wǎng)絡(luò)的表達(dá)能力和訓(xùn)練效率; 最后, 得到影像的分類結(jié)果圖. 通過與其他主流方法進(jìn)行對比實(shí)驗(yàn)以及消融實(shí)驗(yàn), 對SSGAT方法進(jìn)行評估, 證明了本文算法性能優(yōu)異.

        1.1 超像素分割

        超像素分割算法是一種將圖像分割成具有相似顏色、 紋理和形狀的連續(xù)區(qū)域的方法[27], 這些區(qū)域被稱為超像素. 超像素分割算法的作用是減少計(jì)算時(shí)間、 降低算法的復(fù)雜度, 廣泛應(yīng)用于圖像處理等領(lǐng)域. 目前, 常見的超像素分割算法包括SLIC[28],QuickShift[29],MeanShift[30]等. 這些算法在分割速度、 分割精度和計(jì)算復(fù)雜度等方面存在一定的差異.

        SLIC算法根據(jù)像素之間的距離和顏色差異將圖像像素分配到最近的聚類中心形成超像素. 對比其他分割方法, 該方法計(jì)算簡單、 效果優(yōu)良, 因此本文選用SLIC分割算法進(jìn)行圖結(jié)構(gòu)的構(gòu)建. 算法的工作過程如下.

        一般情況下, SLIC算法只有超像素?cái)?shù)量K一個(gè)參數(shù), 在給定K值后, 會在圖像上均勻生成K個(gè)種子點(diǎn)作為超像素的聚類中心, K的個(gè)數(shù)即超像素的個(gè)數(shù). 假設(shè)將一張具有M個(gè)像素點(diǎn)的圖像分割為K個(gè)超像素, 則每個(gè)超像素內(nèi)包含M/K個(gè)像素. 每個(gè)超像素塊的長和寬可定義為S=sqrt(M/K).

        為避免種子點(diǎn)落在噪聲點(diǎn)或邊緣區(qū)域影響分割結(jié)果, 還需對種子點(diǎn)的位置進(jìn)行調(diào)整, 對每個(gè)種子點(diǎn)3×3鄰域內(nèi)的梯度值重新計(jì)算, 并將新的種子點(diǎn)設(shè)為該鄰域內(nèi)梯度最小處.

        通過迭代計(jì)算新的聚類中心, 遍歷每個(gè)超像素塊中心點(diǎn)周圍的2S×2S區(qū)域內(nèi)的像素點(diǎn), 然后尋找距離每個(gè)像素最近的聚類中心, 并將該像素劃分到其中, 即完成了一次迭代. 重新計(jì)算每個(gè)超像素塊的中心點(diǎn)并迭代, 一般迭代10次即可完成收斂. 距離度量可分為光譜距離和空間距離兩個(gè)指標(biāo):ds=(c1j-c1i)2+(c2j-c2i)2+…+(cnj-cni)2,(1)

        dl=(xj-xi)2+(yj-yi)2,(2)其中高光譜數(shù)據(jù)可以用{c1i,c2i,…,cni,xi,yi}表示, ds表示像素i和像素j的光譜距離, {c1i,c2i,…,cni}表示像素i的n個(gè)波段內(nèi)的不同特征, dl表示像素i和像素j的空間距離, (xi,yi)表示像素i的空間坐標(biāo). 對兩種距離做歸一化后可得:D′=ds/Ns2+dl/Nl2=ds/m2+dl/S2,(3)其中: 最大顏色距離Ns隨圖像的不同而不同, 通過一個(gè)參數(shù)m表示, 一般取一個(gè)固定常數(shù)10; Nl是類內(nèi)最大空間距離, 定義為Nl=S; S為超像素的邊長.

        SLIC算法因?yàn)橛?jì)算簡單、 效果良好的特點(diǎn)被廣泛應(yīng)用在各領(lǐng)域. 本文中超像素的劃分?jǐn)?shù)量根據(jù)數(shù)據(jù)集的像素點(diǎn)總數(shù)的不同而不同, 因此規(guī)定超像素的劃分個(gè)數(shù)為K=(H×W)/β, 其中H和W分別為數(shù)據(jù)集的長和寬, β為一個(gè)控制超像素?cái)?shù)量的分割系數(shù).

        1.2 GAT網(wǎng)絡(luò)的構(gòu)建

        2 實(shí)驗(yàn)結(jié)果與分析

        2.1 數(shù)據(jù)集及評價(jià)指標(biāo)

        為測試SSGAT網(wǎng)絡(luò)的性能, 采用Indian Pines(IP),Pavia University(PU)和Salinas(SA)3個(gè)應(yīng)用廣泛的高光譜數(shù)據(jù)集對網(wǎng)絡(luò)進(jìn)行測試與分析. 使用總體分類精度(overall accuracy, OA)、 平均分類精度(average accuracy, AA)和Kappa系數(shù)3個(gè)指標(biāo)評估本文算法.

        數(shù)據(jù)集IP是美國農(nóng)業(yè)部應(yīng)用紅外成像光譜儀對一片印度松樹進(jìn)行成像獲取的, 圖像在去除20個(gè)干擾波段后剩余200個(gè)波段, 尺寸為145×145, 包含16種土地覆蓋類型, 共10 366個(gè)樣本, 包括玉米、 豆類、 雜草、 棉花等農(nóng)作物, 以及道路、 建筑物、 陰影等非農(nóng)作物類別, 每個(gè)像素點(diǎn)可被歸為16個(gè)類別之一. 其假彩色圖像及標(biāo)記樣本如圖3所示.

        數(shù)據(jù)集PU是使用光譜成像儀對一所大學(xué)成像獲取的, 在剔除12個(gè)干擾波段后剩余103個(gè)有效波段, 圖像尺寸為610×340, 包含9種土地覆蓋類型, 共42 776個(gè)樣本, 該數(shù)據(jù)集包括瀝青、 草地、 土地、 建筑物、 樹木等. 其假彩色圖像及標(biāo)記樣本如圖4所示.

        數(shù)據(jù)集SA是對美國的一個(gè)山谷成像獲取的, 在去除20個(gè)干擾波段后剩余204個(gè)波段, 圖像尺寸為512 ×217, 包含16種土地覆蓋類型, 共54 215個(gè)樣本. 其假彩色圖像及標(biāo)記樣本如圖5所示.

        表1~表3分別列出了測試過程中上述3個(gè)數(shù)據(jù)集的樣本劃分?jǐn)?shù)目. 由于不同數(shù)據(jù)集的樣本總量并不相同, 為準(zhǔn)確測試各算法對不同類別樣本的分類性能, 因此, 本文對各數(shù)據(jù)集訓(xùn)練樣本的劃分比例也不同. 由于數(shù)據(jù)集IP包含的樣本總量較少且各類別之間的數(shù)量相差懸殊, 所以在該數(shù)據(jù)集中隨機(jī)選取每類樣本的15%作為訓(xùn)練樣本, 其余樣本用于驗(yàn)證及測試. 數(shù)據(jù)集PU及數(shù)據(jù)集SA包含的樣本總量較多且分布相對均勻, 因此這兩個(gè)數(shù)據(jù)集的訓(xùn)練樣本數(shù)設(shè)為每類樣本的5%.

        2.2 實(shí)驗(yàn)參數(shù)設(shè)置

        本文實(shí)驗(yàn)基于Python3.8.12語言和Pytorch1.1.0學(xué)習(xí)框架實(shí)現(xiàn). 用于訓(xùn)練的硬件為i7-10750H CPU和NVIDIA GeForce RTX 2060s GPU. 實(shí)驗(yàn)中使用學(xué)習(xí)率為0.000 1的Adam優(yōu)化器優(yōu)化本文模型, 迭代步數(shù)設(shè)為800. 實(shí)驗(yàn)重復(fù)進(jìn)行5次取平均值以減少誤差. SSGAT中每個(gè)數(shù)據(jù)集的超像素個(gè)數(shù)劃分為數(shù)據(jù)集樣本總數(shù)的1/150. 將第一層圖注意力的輸出維度設(shè)為64, 第二層的輸出維度為每個(gè)數(shù)據(jù)集的樣本類別數(shù).

        2.3 分類結(jié)果及分析

        為驗(yàn)證本文模型的性能, 選擇幾種有表示性的HSI分類方法與本文模型進(jìn)行比較分析, 其中包括機(jī)器學(xué)習(xí)中的SVM[9]、 卷積神經(jīng)網(wǎng)絡(luò)中的2DCNN[15]、 3DCNN[16]、 GCN方法[25]和GAT[26]方法. 上述方法均采用原文獻(xiàn)中使用的參數(shù), 實(shí)驗(yàn)結(jié)果重復(fù)5次取平均值.

        表4~表6分別列出了不同方法在上述3個(gè)數(shù)據(jù)集上的分類準(zhǔn)確率、 各方法的訓(xùn)練及測試時(shí)間. 實(shí)驗(yàn)結(jié)果表明, SSGAT在所有數(shù)據(jù)集中均取得了最優(yōu)的分類效果, 在3個(gè)數(shù)據(jù)集中總體分類精度OA分別達(dá)到了94.11%,95.22%,96.37%. 圖6~圖8分別為各方法在不同數(shù)據(jù)集上得到的地物分類圖.

        由表4可見: 在數(shù)據(jù)集IP中, 由于SVM方法只關(guān)注了HSI的光譜信息, 且特征提取能力弱, 因此分類精度只有75.33%; 2DCNN方法與SVM方法相比無需手動設(shè)計(jì)特征提取方法, 可自動捕捉圖像的深層特征; 3DCNN方法能利用三維卷積核同時(shí)獲取HSI的空譜特征, 因此3DCNN獲得了比2DCNN更高的分類精度, 但其訓(xùn)練時(shí)間與測試時(shí)間均高于2DCNN; 上述方法忽略了圖像的節(jié)點(diǎn)特征, 且沒有對重要信息進(jìn)行特別關(guān)注; GCN與原始GAT方法得到的OA分別為82.22%和83.99%, 分類精度較差, 但SSGAT獲得了94.11%的總體分類精度, 證明了超像素分割及殘差結(jié)構(gòu)的增加對網(wǎng)絡(luò)性能的提升有幫助; SSGAT在第二類及第十二類地物上的分類結(jié)果分別達(dá)到97.99%和96.38%, 這兩類地物的尺度均較大, 證明該網(wǎng)絡(luò)更適用于對尺度較大的地物進(jìn)行分類. 該網(wǎng)絡(luò)的訓(xùn)練時(shí)間雖不是最優(yōu), 但訓(xùn)練時(shí)間相比GAT方法有所下降, 這得益于超像素分割技術(shù)的應(yīng)用. 由圖6可見, SSGAT的地物分類圖的誤分類現(xiàn)象最少, 且相比其他算法噪聲最少.

        由表5可見, 對比數(shù)據(jù)集IP上的分類結(jié)果, 各方法在數(shù)據(jù)集PU中的分類精度都有不同程度的提升, 這是因?yàn)樵摂?shù)據(jù)集包含的訓(xùn)練樣本數(shù)更多, 使得各模型能更準(zhǔn)確地對HSI進(jìn)行分類. 其中SSGAT在3種精度評價(jià)指標(biāo)下均取得了最好成績, OA為95.22%, AA為94.41%, Kappa系數(shù)為93.33%. 其OA相比于GAT方法, 精度提升了9.74%, 相比于GCN方法精度提升了10.75%. 由圖7可見, SSGAT的地物分類圖顯示效果最好, 誤分類最少, 與兩種卷積神經(jīng)網(wǎng)絡(luò)方法相比更平滑.

        由表6可見, SSGAT在3種精度評價(jià)指標(biāo)下仍取得了最好結(jié)果, 整體分類精度為96.37%. 由圖8可見, SSGAT算法的誤分類最少. 上述實(shí)驗(yàn)結(jié)果表明, SSGAT的分類能力優(yōu)異, 且在大尺度區(qū)域能獲得更好的分類結(jié)果.

        2.4 超像素?cái)?shù)量的影響

        在構(gòu)建圖結(jié)構(gòu)前進(jìn)行超像素分割處理可有效減少計(jì)算量并降低分類圖中的噪聲, 因此本文采用超像素分割技術(shù), 通過分割系數(shù)控制超像素的數(shù)量和大小, 分割系數(shù)越大, 超像素的數(shù)量越少, 獲得的分割圖尺寸越大, 保留更大的物體和抑制更多的噪聲. 反之, 分割系數(shù)越小, 超像素?cái)?shù)量越多, 獲得的分割圖尺寸越小, 保留更小的物體并包含更多的噪聲. 為分析超像素塊數(shù)量對分類結(jié)果的影響, 將分割系數(shù)分別設(shè)為50,100,150,200, 在每個(gè)數(shù)據(jù)集上測試SSGAT的分類精度, 繪制不同分割系數(shù)下的整體分類精度折線圖, 結(jié)果如圖9所示.

        由圖9可見, SSGAT在數(shù)據(jù)集IP上的精度隨分割系數(shù)的增加而降低, 表明數(shù)據(jù)集IP中存在更多的小物體, 因此更小的系數(shù)可保存更多的細(xì)節(jié). 在數(shù)據(jù)集PU上的分類精度隨分割系數(shù)的增加呈上升趨勢, 這是由于與數(shù)據(jù)集IP中的樣本類別相比, 該數(shù)據(jù)集中類別尺度更大, 分割系數(shù)的增加對整體精度的影響很小, 但這種上升關(guān)系不會一直保持. 在地物類別尺度更大的數(shù)據(jù)集SA上, 分類精度隨著分割系數(shù)的增加先升高后降低, 當(dāng)分割系數(shù)為150時(shí)達(dá)到峰值. 這是因?yàn)榉指钕禂?shù)的進(jìn)一步增大, 使得這些大尺度地物與周圍其他類別的像素進(jìn)行了聚類, 影響了其自身的分類精度. 為防止分類圖過于平滑, 本文將分割系數(shù)設(shè)置為150.

        2.5 消融實(shí)驗(yàn)

        為進(jìn)一步對SSGAT網(wǎng)絡(luò)的性能進(jìn)行分析, 對SSGAT網(wǎng)絡(luò)進(jìn)行消融實(shí)驗(yàn), 以驗(yàn)證該網(wǎng)絡(luò)的合理性. 首先, 為測試殘差結(jié)構(gòu)對網(wǎng)絡(luò)性能的影響, 在數(shù)據(jù)集劃分及實(shí)驗(yàn)條件不變的情況下, 在3個(gè)數(shù)據(jù)集上對不設(shè)置殘差結(jié)構(gòu)的網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行測試, 記為實(shí)驗(yàn)一; 其次, 為考察注意力網(wǎng)絡(luò)層數(shù)對網(wǎng)絡(luò)性能的影響, 將SSGAT中的層數(shù)設(shè)置為3層進(jìn)行實(shí)驗(yàn), 記為實(shí)驗(yàn)二. 實(shí)驗(yàn)結(jié)果列于表7.

        通過實(shí)驗(yàn)一與SSGAT的對比可見, 增添了殘差結(jié)構(gòu)的SSGAT在3個(gè)數(shù)據(jù)集上的分類精度均有不同程度的上升, 所以SSGAT中的殘差結(jié)構(gòu)對整體網(wǎng)絡(luò)性能的提升有幫助. 通過實(shí)驗(yàn)二與SSGAT的對比可見, 當(dāng)網(wǎng)絡(luò)層數(shù)變?yōu)?層時(shí), 其分類性能并沒有預(yù)期中的增加. 這是因?yàn)閷訑?shù)的進(jìn)一步增加使網(wǎng)絡(luò)的參數(shù)及計(jì)算資源的需求增多, 因此本文將網(wǎng)絡(luò)層數(shù)設(shè)置為2.

        綜上所述, 針對目前的分類方法無法有效獲取像素間關(guān)系特征的問題, 本文構(gòu)建了一個(gè)基于超像素分割的圖注意力網(wǎng)絡(luò), 利用圖結(jié)構(gòu)對不規(guī)則的HSI進(jìn)行處理, 以獲取其上下文信息和依賴關(guān)系. 在3個(gè)代表性的高光譜圖像數(shù)據(jù)集上對SSGAT及對比算法的分類精度進(jìn)行測試, 對SSGAT進(jìn)行對比實(shí)驗(yàn)及消融實(shí)驗(yàn), 在3個(gè)數(shù)據(jù)集上分別獲得了94.11%,95.22%,96.37%的總體分類精度, 與其他算法相比性能優(yōu)異, 對大尺度區(qū)域的分類問題具有明顯優(yōu)勢. 但該方法也存在不足, 超像素分割將HSI中的像素進(jìn)行了聚合并以相同的特征進(jìn)行表示, 將每個(gè)超像素視為圖節(jié)點(diǎn)后信息, 只能在每個(gè)超像素之間傳播, 對超像素內(nèi)的局部空譜信息提取不足.

        參考文獻(xiàn)

        [1]BIOUCAS-DIAS J M, PLAZA A, CAMPS-VALLS G, et al. Hyperspectral Remote Sensing Data Analysis and Future Challenges [J]. IEEE Geoscience and Remote Sensing Magazine, 2013, 1(2): 6-36.

        [2]FAUVEL M, TARABALKA Y, BENEDIKTSSON J A, et al. Advances in Spectral-Spatial Classification of Hyperspectral Images [J]. Proceedings of the IEEE, 2013, 101(3): 652-675.

        [3]MA Z T, JIANG Z G, ZHANG H P. Hyperspectral Image Classification Using Feature Fusion Hypergraph Convolution Neural Network [J]. IEEE Transactions on Geoscience and Remote Sensing, 2021, 60: 5517314-1-5517314-14.

        [4]CHEN Y S, JIANG H L, LI C Y, et al. Deep Feature Extraction and Classification of Hyperspectral Images Based on Convolutional Neural Networks [J]. IEEE Transactions on Geoscience and Remote Sensing, 2016, 54(10): 6232-6251.

        [5]L W J, WANG X F. Overview of Hyperspectral Image Classification [J]. Journal of Sensors, 2020(2): 1-13.

        [6]AUDEBERT N, LE S B, LEFEVRE S. Deep Learning for Classification of Hyperspectral Data: A Comparative Review [J]. IEEE Geoscience and Remote Sensing Magazine, 2019, 7(2): 159-173.

        [7]PRASAD S, BRUCE L M. Limitations of Principal Components Analysis for Hyperspectral Target Recognition [J]. IEEE Geoscience and Remote Sensing Letters,? 2008, 5(4): 625-629.

        [8]VILLA A, BENEDIKTSSON J A, CHANUSSOT J, et al. Hyperspectral Image Classification with Independent Component Discriminant Analysis [J]. IEEE Transactions on Geoscience and Remote Sensing, 2011, 49(12): 4865-4876.

        [9]MELGANI F, BRUZZONE L. Classification of Hyperspectral Remote Sensing Images with Support Vector Machines [J]. IEEE Transactions on Geoscience and Remote Sensing, 2004, 42(8): 1778-1790.

        [10]GISLASON P O, BENEDIKTSSON J A, SVEINSSON J R. Random Forests for Land Cover Classification [J]. Pattern Recognition Letters, 2006, 27(4): 294-300.

        [11]HUGHES G. On the Mean Accuracy of Statistical Pattern Recognizers [J]. IEEE Transactions on Information Theory, 1968, 14(1): 55-63.

        [12]KRIZHEVSKY A, SUTSKEVER I, HINTON G E. Imagenet Classification with Deep Convolutional Neural Networks [J]. Communications of the ACM, 2017, 60(6): 84-90.

        [13]CHEN Y S, LIN Z H, ZHAO X, et al. Deep Learning-Based Classification of Hyperspectral Data [J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2014, 7(6): 2094-2107.

        [14]HU W, HUANG Y Y, WEI L, et al. Deep Convolutional Neural Networks for Hyperspectral Image Classification [J]. Journal of Sensors, Hindawi Limited, 2015, 2015: 1-12.

        [15]MAKANTASIS K, KARANTZALOS K, DOULAMIS A, et al. Deep Supervised Learning for Hyperspectral Data Classification through Convolutional Neural Networks [C]//2015 IEEE International Geoscience and Remote Sensing Symposium (IGARSS). Pisataway, NJ: IEEE, 2015: 4959-4962.

        [16]盧佳, 保文星. 基于獨(dú)立空譜殘差融合的聯(lián)合稀疏表示高光譜圖像分類 [J]. 計(jì)算機(jī)工程, 2019, 45(1): 246-252. (LU J, BAO W X. Hyperspectral Image Classification Based on Joint Sparse Representation of Independent Spatial-Spectral Residual Fusion [J]. Computer Engineering, 2019, 45(1): 246-252.)

        [17]MEI X G, PAN E T, MA Y, et al. Spectral-Spatial Attention Networks for Hyperspectral Image Classification [J]. Remote Sensing, 2019, 11(8): 963-1-963-18.

        [18]YANG X E, ZHANG X F, YE Y M, et al. Synergistic 2D/3D Convolutional Neural Network for Hyperspectral Image Classification [J]. Remote Sensing, MDPI, 2020, 12(12): 2033-1-2033-19.

        [19]ZHONG Z L, LI J, LUO Z M, et al. Spectral-Spatial Residual Network for Hyperspectral Image Classification: A 3D Deep Learning Framework [J]. IEEE Transactions on Geoscience and Remote Sensing, 2017, 56(2): 847-858.

        [20]WANG F, JIANG M, QIAN C, et al. Residual Attention Network for Image Classification [C]//2017 IEEE Conference on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE, 2017: 6450-6458.

        [21]WU Z H, PAN S K, CHEN F W, et al. A Comprehensive Survey on Graph Neural Networks [J]. IEEE Transactions on Neural Networks and Learning Systems, 2020, 32(1): 4-24.

        [22]BRUNA J, ZAREMBA W, SZLAM A, et al. Spectral Networks and Locally Connected Networks on Graphs [EB/OL]. (2013-12-22)[2023-01-01]. https://arxiv.org/abs/1312.6203.

        [23]KIPF T N, WELLING M. Semi-supervised Classification with Graph Convolutional Networks [EB/OL]. (2016-09-09)[2023-02-10]. https://arxiv.org/abs/1609.02907.

        [24]VELIKOVIC P, CUCURULL G, CASANOVA A, et al. Graph Attention Networks [EB/OL]. (2017-10-30)[2023-02-15]. https://arxiv.org/abs/1710.10903.

        [25]WANG T, WANG G, TAN K E, et al. Spectral Pyramid Graph Attention Network for Hyperspectral Image Classification [EB/OL]. (2020-01-20)[2023-03-01]. https://arxiv.org/abs/2001.07108.

        [26]SHA A S, WANG B, WU X F, et al. Semisupervised Classification for Hyperspectral Images Using Graph Attention Networks [J]. IEEE Geoscience and Remote Sensing Letters, 2020, 18(1): 157-161.

        [27]WANG M R, LIU X B, GAO Y X, et al. Superpixel Segmentation: A Benchmark [J]. Signal Processing: Image Communication, 2017, 56: 28-39.

        [28]YING X. An Overview of Overfitting and Its Solutions [J]. Journal of Physics: Conference Series, 2019, 1168: 022022-1-022022-7.

        [29]ZHANG S X, MA Z H, ZHANG G, et al. Semantic Image Segmentation with Deep Convolutional Neural Networks and Quick Shift [J]. Symmetry, 2020, 12(3): 427-1-427-11.

        [30]COMANICIU D, MEER P. Mean Shift Analysis and Applications [C]//Proceedings of the Seventh IEEE International Conference on Computer Vision. Piscataway, NJ: IEEE, 1999: 1197-1203.

        (責(zé)任編輯: 韓 嘯)

        收稿日期: 2023-05-04.

        第一作者簡介: 高路堯(1998—), 男, 漢族, 碩士研究生, 從事高光譜成像及圖像處理的研究, E-mail: gaoluyao20@mails.ucas.ac.cn.

        通信作者簡介: 胡長虹(1983—), 男, 漢族, 博士, 副研究員, 從事高光譜成像技術(shù)的研究, E-mail: changhonghu@rocketmail.com.

        基金項(xiàng)目: 吉林省與中國科學(xué)院科技合作高技術(shù)產(chǎn)業(yè)化項(xiàng)目(批準(zhǔn)號: 2020SYHZ0028)和2021年吉林省預(yù)算內(nèi)基本建設(shè)基金(批準(zhǔn)號: 2021C045-3).

        青青草免费在线视频久草| 成 人片 黄 色 大 片| 男女性杂交内射女bbwxz| 日本做受120秒免费视频| 精品久久久久久777米琪桃花| 久久久久久99精品| 亚洲男人的天堂色偷偷| 青青草视频在线观看网| 天天摸夜夜摸摸到高潮| 日本夜爽爽一区二区三区| 国语精品视频在线观看不卡| 看国产亚洲美女黄色一级片| 欧美老肥妇做爰bbww| 人妻丰满熟妇av无码区不卡| 国产精品理人伦国色天香一区二区 | 亚洲日韩成人无码| 少妇人妻偷人精品视频| 色系免费一区二区三区| 一本久久a久久精品综合| 人妻中文字幕在线中文字幕| 欧美黑人又大又粗xxxxx| 精品人妻系列无码一区二区三区| 久久91精品国产91久| 国产精品日本中文在线| 妺妺窝人体色777777| 婷婷丁香五月中文字幕| 久久波多野结衣av| 美女被躁到高潮嗷嗷免费观看| 美女张开腿黄网站免费| 日本亚洲国产一区二区三区| 成人亚洲欧美久久久久| 国产又大大紧一区二区三区| 久久久中日ab精品综合| 久久亚洲私人国产精品va| 精品人妻VA出轨中文字幕| 日韩精品一区二区三区在线观看的| 黄色潮片三级三级三级免费| 精品无码av一区二区三区不卡| 97在线观看播放| 国产精品对白交换视频| 日韩女优中文字幕在线|