亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于自高斯與通道注意力的重塑卷積高光譜圖像分類算法

        2024-01-16 00:00:00譚云飛李明羅勇航文貴豪石超山
        關(guān)鍵詞:重塑類別注意力

        摘 "要:針對(duì)傳統(tǒng)卷積受限固有的網(wǎng)絡(luò)結(jié)構(gòu),缺乏建立遠(yuǎn)程依賴關(guān)系的能力和分類精度較差等問(wèn)題,提出一種基于自高斯與通道注意力的重塑卷積高光譜圖像分類算法(RC-LSGA)模型。RC-LSGA模型首先采用卷積層提取淺層空間信息的特征,再使用通道注意力機(jī)制增強(qiáng)光譜特征,然后通過(guò)LSGA Transformer模塊和重塑卷積分支對(duì)全局-局部特征信息進(jìn)行提取,最后將獲得的特征輸入分類器實(shí)現(xiàn)分類。RC-LSGA模型能夠有效區(qū)分不同波段信息,對(duì)PU、SA和LK數(shù)據(jù)集中類別識(shí)別的平均準(zhǔn)確率分別達(dá)到98.20%、99.33%和99.46%。實(shí)驗(yàn)結(jié)果表明,在訓(xùn)練樣本數(shù)量有限的情況下,RC-LSGA模型性能優(yōu)異,在分類任務(wù)中實(shí)用價(jià)值較高。

        關(guān)鍵詞:高光譜圖像分類;通道注意力;LSGA"Transformer模塊;重塑卷積

        中圖分類號(hào):TP391 """"""""""""""""文獻(xiàn)標(biāo)志碼:A """""""""""""文章編號(hào):1008-0562(2024)06-0742-10

        Hyperspectral image classification method based on"reshaped convolutional channel attention with light self-Gaussian attention

        TAN Yunfei, LI Ming*, LUO Yonghang"WEN Guihao,"SHI Chaoshan

        College of Computer and Information Science, Chongqing Normal University, Chongqing"401331, China

        Abstract:"Aiming at the problems of traditional convolution limited inherent network structure, lack of ability to establish remote dependencies and poor classification accuracy, a reshaped convolution hyperspectral image classification algorithm "model based on self-Gaussian and channel attention"(RC-LSGA) is proposed. The RC-LSGA model first uses the convolutional layer to extract the features of shallow spatial information, and then uses the channel attention mechanism to enhance the spectral features. Then, the global-local feature information is extracted by the LSGA Transformer module and the reshaping convolution branch. Finally, the obtained features are input into the classifier to achieve classification. The RC-LSGA model can effectively distinguish different band information, and the average accuracy of category recognition in PU, SA"and LK datasets is 98.20%, 99.33% and 99.46% respectively. The experimental results show that the RC-LSGA model has excellent performance and high practical value in classification tasks when the number of training samples is limited.

        Key"words:"hyperspectral image classification; channel attention; LSGA"Transformer"module; reshaped convolutional

        0""引言

        高光譜圖像(hyperspectral image,HSI)含有大量有價(jià)值的空間信息和光譜信息,因此在遙感測(cè)量[1]、農(nóng)業(yè)檢測(cè)[2]、城市安全監(jiān)控[3]、軍事國(guó)防[4]等領(lǐng)域得到廣泛應(yīng)用。為充分挖掘HSI數(shù)據(jù)在圖像去噪[5]、光譜解混[6]、異常檢測(cè)[7]、地物分類[8]等方面的潛力,學(xué)者們采用不同方法捕獲數(shù)據(jù)特征。HSI數(shù)據(jù)規(guī)模龐大、維度高且信息冗余,增加了圖像解析的難度,因此如何準(zhǔn)確提取和有效利用空間光譜信息來(lái)進(jìn)行分類是當(dāng)前研究的一個(gè)主要挑戰(zhàn)[9-10]。

        早期的HSI分類方法有支持向量機(jī)(SVM)[11]、基于協(xié)作表示的分類器(CRC)[12]和主成分分析(PCA)[13]等。這些方法在分類性能中表現(xiàn)良好,但在處理高維度非線性特征方面存在局限性。隨著深度學(xué)習(xí)在視覺(jué)任務(wù)中不斷發(fā)展,學(xué)者們將神經(jīng)網(wǎng)絡(luò)擴(kuò)展到HSI分類領(lǐng)域。LIU等[14]設(shè)計(jì)了淺層卷積神經(jīng)網(wǎng)絡(luò),但該方法只關(guān)注了光譜的相關(guān)性,忽略了空間信息,導(dǎo)致性能不佳。隨著網(wǎng)絡(luò)深度增加和模型復(fù)雜度變大,運(yùn)行效率受到影響。ROY等[15]使用2D-3D混合卷積神經(jīng)網(wǎng)絡(luò)降低模型復(fù)雜度,提升分類精度。SONG等[16]通過(guò)加深2DCNN,在卷積層之間引入殘差學(xué)習(xí),緩解梯度消失和爆炸的問(wèn)題,由此提出深度特征融合網(wǎng)絡(luò)(DFFN)。為充分重用前幾層的特征信息,PAOLETTI等[17]使用密集連接卷積網(wǎng)絡(luò),ZHONG等[18]建立3D空譜殘差網(wǎng)絡(luò)(SSRN),WANG等[19]提出基于密集連接模塊的快速密集連接空譜卷積網(wǎng)絡(luò)(FDSSC)。然而,受卷積核尺寸的影響,較深層的網(wǎng)絡(luò)會(huì)出現(xiàn)捕捉非局部區(qū)域長(zhǎng)程交互信息效率低的問(wèn)題。

        注意力機(jī)制被設(shè)計(jì)成關(guān)注信息相關(guān)區(qū)域,減少對(duì)非必要區(qū)域的關(guān)注,在Transformer架構(gòu)中引入了自注意力機(jī)制,并應(yīng)用在計(jì)算機(jī)視覺(jué)領(lǐng)域,取得較好效果。QING等[20]提出一種端到端的Transformer網(wǎng)絡(luò),通過(guò)光譜注意力機(jī)制和自注意力機(jī)制提取光譜和空間特征。HONG等[21]提出頻譜轉(zhuǎn)換器網(wǎng)絡(luò)(SF),該網(wǎng)絡(luò)通過(guò)Transformer從HSI的相鄰波段中學(xué)習(xí)每個(gè)波段的局部序列信息,但在捕捉全局信息方面仍有提升的空間。MA等[22]提出雙分支多注意力機(jī)制網(wǎng)絡(luò)(DBMA),但將注意力機(jī)制置于網(wǎng)絡(luò)的后端,且在初始階段不發(fā)生作用。LI等[23]提出結(jié)合光譜注意力機(jī)制和空間注意力機(jī)制的雙分支雙注意力網(wǎng)絡(luò)(DBDA),但該方法在計(jì)算過(guò)程中存在參數(shù)量過(guò)大的問(wèn)題。SUN等[24]提出的光譜空間特征標(biāo)記的Transformer網(wǎng)絡(luò)(SSFTT)在一定程度上提升了分類精度,但總體性能仍不理想,主要原因是Transformer在提取局部和全局信息方面存在局限性。ZHU等[25]提出一種帶有光譜注意力和空間注意力的殘差光譜-空間注意網(wǎng)絡(luò)(RSSAN),該方法能更好地關(guān)注豐富的光譜波段和空間位置。MA等[26]提出一種自高斯注意力的網(wǎng)絡(luò),采用高斯絕對(duì)位置偏差模擬HSI數(shù)據(jù)分布,能夠顯著提升全局特征信息的獲取效果,但存在局部信息缺失的情況。雖然以上方法在引入注意力機(jī)制后性能增強(qiáng),但在捕捉空間和光譜之間的長(zhǎng)程依賴關(guān)系方面,仍未能達(dá)到最優(yōu)效果。

        針對(duì)上述問(wèn)題,筆者提出一種基于自高斯與通道注意力的重塑卷積高光譜圖像分類算法 (reshaped convolutional"channel attention with light self-Gaussian attention,RC-LSGA)模型。RC-LSGA模型首先通過(guò)卷積層獲取局部特征關(guān)系,然后引入通道注意力機(jī)制,更好地保留圖像塊完整性,最后將得到的特征傳入兩個(gè)分支。一個(gè)分支將LSGA與Transformer結(jié)合建模,通過(guò)感知位置的方式建模遠(yuǎn)程關(guān)系,實(shí)現(xiàn)全局特征提取;另一分支引入重塑卷積分支,高效利用局部特征信息。這種全局和局部結(jié)合的方式,提高了高光譜圖像特征的表達(dá)性,使整體分類精度表現(xiàn)優(yōu)異。

        1 "RC-LSGA模型整體框架

        RC-LSGA模型框架見圖1。首先,通過(guò)主成分分析對(duì)HSI數(shù)據(jù)降維,再將圖像塊輸入混合譜空特征提取器提取淺層特征信息。然后,使用通道注意力增強(qiáng)光譜特征信息的表達(dá),再將特征信息傳入LSGA Transformer和重塑卷積分支中,實(shí)現(xiàn)深層特征提取。最后,融合提取的特征,并經(jīng)由線性分類器分類。

        RC-LSGA程序如下。

        Input:"The HSI dataset X0RH×W×S.

        1: Obtain XPCARH×W×S"by performing PCA to reduce the dimensionality of the original HSI.

        2: Divide"XPCA"into blocks, obtain n"samples, each samples size is X1Rh×w×s.

        3: for"=1 to "do

        4:""Use the hybrid spectral-spatial feature extractor to extract shallow local features"A.

        5: "Enhance the spectral feature representation of"A"using channel attention to obtain"E.

        6:""""for"=1 to "do

        7:""""""Feature"Zlsga"with local and global information is generated by the LSGA transformer.

        8:""""""Feature Zr-conv"with the detailed feature information by the reshaped convolutional branch.

        9:""""""Feature information Fusion"Zout=Zlsga+Zr-conv

        10: ""end for

        11:""Perform average pooling on the feature

        U=AvgPoolingZout).

        12:""Perform linear classification on the feature

        N=LinearClassifierU).

        13: end for

        Output:"Predicted the labels of pixels via N.

        2 "算法描述

        2.1""混合譜空特征提取器

        設(shè)輸入的高光譜數(shù)據(jù)為X0RH×W×S,其中HW分別為HSI的高度和寬度,S為光譜帶數(shù)。通過(guò)PCA對(duì)原始數(shù)據(jù)進(jìn)行降維,既保留大部分關(guān)鍵信息,又減少參數(shù)數(shù)量和模型計(jì)算量。經(jīng)過(guò)PCA降維后,HSI可表示為XPCARH×W×s為PCA處理后的光譜帶數(shù)。然后將降維后的數(shù)據(jù),以中心像素為基準(zhǔn),逐像素取周邊鄰域像素構(gòu)成像素特征塊X1Rh×w×s,其類別Y=(y1,y2,…,yk)為中心像素對(duì)應(yīng)的標(biāo)簽,其中為HSI類別數(shù)量。

        混合譜空特征提取器先將X1重塑為X2Rs×h×w,再利用3D卷積層提取特征信息。第m卷積層第n個(gè)特征圖在像素位置(i,jk)處的輸出值為

        ,(1)

        式中:φ(·)為激活函數(shù);bmn為偏置參數(shù);2λ+1,2μ+1和2η+1分別為卷積核的通道數(shù)、高度和寬度;為卷積核;為輸入三維數(shù)據(jù)塊的數(shù)量,取1。

        將輸出特征進(jìn)一步傳入到2D卷積層,第卷積層第個(gè)特征圖在像素位置(i,j)處的輸出值為

        。(2)

        最后得到所有特征,輸出為A。

        2.2 "通道注意力

        為細(xì)化光譜特征,在卷積層后添加通道注意力,如圖2所示,圖中c'表示通道的個(gè)數(shù),h×w表示輸入的尺寸大小。

        AAT矩陣相乘,經(jīng)過(guò)Softmax激活函數(shù)層獲得通道注意力特征圖。

        個(gè)通道對(duì)第個(gè)通道的影響力可表示為

        , (3)

        式中,Ai、Aj分別為輸出特征A通道和通道上的特征值。

        XTA矩陣相乘的結(jié)果變換為。通過(guò)尺寸參數(shù)對(duì)結(jié)果進(jìn)行加權(quán)并添加輸入A,得到最終光譜注意力圖,其中E是所有通道Ej的加權(quán)和。

        。 (4)

        通道注意力機(jī)制會(huì)削弱信息缺失通道,增加像素的權(quán)重,得到輸出大小為c'×h×w的特征圖。

        2.3 "LSGA Transformer網(wǎng)絡(luò)

        Transformer主要用于學(xué)習(xí)全局特征信息。原始的Transformer結(jié)構(gòu)見圖3(a),分別由兩個(gè)歸一化(LN)層,一個(gè)多層感知機(jī)(MLP)和多頭自注意力(MHSA)組成,其中MHSA是Transformer中最重要的部分,其結(jié)構(gòu)見圖3(b)。

        引入多頭自注意力機(jī)制可以同時(shí)關(guān)注多個(gè)重點(diǎn)區(qū)域,提升模型效率,還可以為注意力層提供多個(gè)表示子空間,使模型有更大容量。原始注意力可表示為

        ,(5)

        式中,Q、KV分別為查詢矩陣、鍵矩陣和值矩陣。

        Transform無(wú)法捕獲位置信息,因此在多頭自注意力機(jī)制中,對(duì)每個(gè)頭中引入相對(duì)位置偏差參數(shù),即

        , (6)

        式中,d為多頭注意力機(jī)制中每個(gè)頭的維度。

        對(duì)于每個(gè)輸入HSI塊,中心像素光譜信息比周圍像素更關(guān)鍵。通常距離相近的像素更相似,因此使用二維高斯函數(shù)來(lái)表示HSI的空間關(guān)系為

        ,(7)

        式中:為標(biāo)準(zhǔn)差;(x,y)為空間位置坐標(biāo);t為輸入HSI塊的大小。

        將多頭注意力中的相對(duì)位置偏差用高斯絕對(duì)位置替代偏差,提升細(xì)節(jié)特征信息獲取能力,如圖3(c)所示,完整的LSGA"Transformer如圖3(d)所示,其表達(dá)式為

        。 (8)

        將LSGA的計(jì)算結(jié)果再傳入多層感知機(jī)進(jìn)行處理,整個(gè)LSGA Transformer處理的特征表示為Zlsga

        2.4 "重塑卷積分支

        卷積神經(jīng)網(wǎng)絡(luò)具有強(qiáng)大的局部特征提取能力,因此為充分重用特征信息,使用二維卷積組來(lái)捕獲HSI的局部特征信息。卷積組主要包含3個(gè)二維卷積層,同時(shí)為使模型更快收斂,在每個(gè)卷積層后添加BN層和ReLU激活函數(shù),重塑卷積分支結(jié)構(gòu)見圖4。

        將得到的特征信息進(jìn)行三維重塑,然后傳輸?shù)蕉S卷積組進(jìn)行操作,利用卷積參數(shù)共享的特點(diǎn),更快地得到細(xì)膩的特征信息,此過(guò)程可表示為

        Zr-conv=Conv2D(Conv2D(Conv2D(Reshape(E))))。(9)

        最后,通過(guò)逐元素相加將LSGA Transformer和重塑卷積分支捕獲的不同類型特征融合。

        3 "實(shí)驗(yàn)

        為驗(yàn)證提出的方法在HSI分類中的準(zhǔn)確性和有效性,選取3個(gè)公共數(shù)據(jù)集開展實(shí)驗(yàn)。首先采用定量精度指標(biāo)對(duì)RC-LSGA的性能進(jìn)行評(píng)估。定量精度指標(biāo)包括:總體準(zhǔn)確率(overall accuracy,OA)、平均準(zhǔn)確率(average accuracy,AA)和Kappa系數(shù)K。然后,通過(guò)調(diào)整模型的輸入尺寸、學(xué)習(xí)率、PCA光譜波段和LSGA Transformer層數(shù),取10次實(shí)驗(yàn)的平均值,確定模型的最優(yōu)參數(shù)。最后,將RC-LSGA模型與其他模型進(jìn)行對(duì)比,并進(jìn)行消融實(shí)驗(yàn)。實(shí)驗(yàn)計(jì)算機(jī)配置如下:Intel Core I7-9700K CPU、RTX1080Ti和16GB RAM。選Adam優(yōu)化器,設(shè)批處理大小為128,Epoch為100。

        3.1 "高光譜數(shù)據(jù)集

        高光譜數(shù)據(jù)是含有多個(gè)光譜波段的圖像,實(shí)驗(yàn)選取的3個(gè)公共數(shù)據(jù)集的信息見表1。PU數(shù)據(jù)集在意大利北部帕維亞大學(xué)校園內(nèi)采集,包含9個(gè)不同類別,103個(gè)高光譜波段,圖像分辨率為610×340。SA數(shù)據(jù)集在加利福尼亞州薩利納斯谷的農(nóng)田上采集,包含16個(gè)不同類別,204個(gè)高光譜波段,圖像分辨率為512×217。LK數(shù)據(jù)集在中國(guó)湖北省龍口鎮(zhèn)采集,包含9個(gè)不同類別,270個(gè)高光譜波段,圖像分辨率為550×400。為了驗(yàn)證RC-LSGA模型的性能,分別將每個(gè)數(shù)據(jù)集的訓(xùn)練集設(shè)置為總樣本數(shù)的1%、1%和0.2%。

        3.2 "參數(shù)設(shè)置及調(diào)節(jié)

        (1)輸入尺寸敏感性分析

        圖像輸入尺寸對(duì)分類的結(jié)果影響顯著,因此通過(guò)對(duì)比3個(gè)數(shù)據(jù)集的定量精度指標(biāo)確定最優(yōu)輸入尺寸,結(jié)果見圖5。從圖5可以看出,輸入尺寸為7×7時(shí),LK數(shù)據(jù)集的AA值明顯下降;除此之外,各數(shù)據(jù)集的OA值、AA值和K值隨輸入尺寸增大呈緩慢增加而后緩慢下降的趨勢(shì),導(dǎo)致這一結(jié)果的主要原因是LK數(shù)據(jù)集中存在樣本不平衡問(wèn)題。然而,從總體來(lái)看,當(dāng)輸入圖像尺寸為11×11時(shí),在3個(gè)數(shù)據(jù)集上均分類結(jié)果表現(xiàn)出最佳效果。

        (2)學(xué)習(xí)率分析

        學(xué)習(xí)率對(duì)模型的擬合效果有直接影響。不同學(xué)習(xí)率下,3個(gè)數(shù)據(jù)集的分類準(zhǔn)確率見圖6。從圖6中可以看出,當(dāng)學(xué)習(xí)率為0.001時(shí),3個(gè)數(shù)據(jù)集的分類準(zhǔn)確率均達(dá)到最高。根據(jù)圖6(a),PU數(shù)據(jù)集的分類準(zhǔn)確率隨著學(xué)習(xí)率的增加先上升后下降,且在拐點(diǎn)處達(dá)到最佳。根據(jù)圖6(b)、圖6(c)可知,學(xué)習(xí)率對(duì)SA、LK數(shù)據(jù)集的分類準(zhǔn)確率影響較小,這主要是因?yàn)镾A、LK數(shù)據(jù)集具有豐富的樣本和多個(gè)類別,使得RC-LSGA模型具備較強(qiáng)的抗過(guò)擬合能力。

        (3)PCA維度分析

        光譜維度大小對(duì)分類準(zhǔn)確率同樣存在影響,3種數(shù)據(jù)集在不同光譜維度下的分類準(zhǔn)確率見圖7。由圖7(a)、圖7(b)可見,PU、SA數(shù)據(jù)集的3個(gè)分類準(zhǔn)確率指標(biāo)值均呈先增大后減少的趨勢(shì),光譜維度為36時(shí),3個(gè)指標(biāo)值最大。由圖7(c)可見,LK數(shù)據(jù)集分類準(zhǔn)確率的變化不太明顯,光譜維度為42時(shí)表現(xiàn)最好。這可能是因?yàn)樵摂?shù)據(jù)集中包含了大量類別且光譜信息豐富。

        (4)LSGA Transformer層數(shù)分析

        合理選擇Transformer的層數(shù)可保證RC-LSGA模型網(wǎng)絡(luò)的魯棒性,因此分別使用6種層數(shù)對(duì)3種數(shù)據(jù)集進(jìn)行分類,驗(yàn)證RC-LSGA模型的性能。不同Transformer層數(shù)下3種數(shù)據(jù)集分類準(zhǔn)確率見圖8。

        從圖8可以看出,層數(shù)為4時(shí),RC-LSGA模型對(duì)3種數(shù)據(jù)集分類的OA值、AA值和K值均為最優(yōu)。由圖8(a)可知,PU數(shù)據(jù)集分類的3個(gè)評(píng)價(jià)指標(biāo)隨著層數(shù)的增加變化較為明顯,這是因?yàn)镻U數(shù)據(jù)集種類別較少,層數(shù)增加使訓(xùn)練更充分。但當(dāng)層數(shù)持續(xù)增加到一定值,分類評(píng)價(jià)指標(biāo)值出現(xiàn)下降,這是因?yàn)閷訑?shù)過(guò)多使RC-LSGA模型的計(jì)算量增加,導(dǎo)致模型整體性能下降。由圖8(b)、圖8(c)可知,SA、LK數(shù)據(jù)集的3個(gè)評(píng)價(jià)指標(biāo)隨著層數(shù)的增加變化較為平緩,這是因?yàn)闃颖驹诳臻g分布較為緊湊且類別數(shù)量較多,增加網(wǎng)絡(luò)層數(shù)不利于特征的識(shí)別,反而使分類準(zhǔn)確率降低。層數(shù)為6時(shí),LK數(shù)據(jù)集的3個(gè)評(píng)價(jià)指標(biāo)下降最明顯,這是因?yàn)閷訑?shù)過(guò)大增加了模型的復(fù)雜性。

        3.3 "對(duì)比實(shí)驗(yàn)結(jié)果與分析

        將RC-LSGA模型分別與SVM模型、3DCNN模型、RSSAN模型、SF模型、DFFN模型、SSRN模型、DBDA模型進(jìn)行對(duì)比。PU、SA和LK數(shù)據(jù)集的分類準(zhǔn)確率分別見表2~表4,分類結(jié)果分別見圖9~圖11。

        由表2可見,RC-LSGA模型對(duì)PU數(shù)據(jù)集的分類在OA值、AA值和K值上都有一定優(yōu)勢(shì)。與SVM模型相比,RC-LSGA模型的OA值高16.14個(gè)百分點(diǎn),這表明深度學(xué)習(xí)在HSI分類中表現(xiàn)更加出色。RC-LSGA模型對(duì)類別3、類別6和類別7的分類準(zhǔn)確率達(dá)到100%,明顯優(yōu)于其他方法。但與SSRN模型相比,RC-LSGA模型對(duì)類別3的分類準(zhǔn)確率低2.93個(gè)百分點(diǎn);與DFFN模型相比,對(duì)類別8的分類準(zhǔn)確率低3.07個(gè)百分點(diǎn)。這主要是因?yàn)閮深惒馁|(zhì)較為接近,在分類的時(shí)候易出現(xiàn)交叉誤分的情況。由圖9可見,RC-LSGA模型的分類結(jié)果最為清晰,盡管在建筑物輪廓處存在細(xì)微的誤分類,但與其他方法相比,其分類效果顯著提升,這表明RC-LSGA模型能夠充分利用HSI中的高低頻信息。

        由表3可見,RC-LSGA模型對(duì)多個(gè)類別的分類準(zhǔn)確率為100%,這是因?yàn)镾A數(shù)據(jù)集樣本數(shù)量充足,同時(shí)RC-LSGA模型對(duì)不同光譜波段的特征有加強(qiáng)作用。由圖10可見,RSSAN模型提取和細(xì)化了光譜空間特征,但特征提取不足導(dǎo)致分類結(jié)果圖中有噪聲點(diǎn)。DBDA模型雖然引入了注意力機(jī)制,但對(duì)樹木的分類準(zhǔn)確率不理想。與其他引入注意力機(jī)制的模型相比,RC-LSGA模型對(duì)SA數(shù)據(jù)集的分類結(jié)果最優(yōu),OA值、AA值和K值分別達(dá)到了99.33%,99.34%和99.25%。

        由表4可見,在LK數(shù)據(jù)集上不同模型的分類效果均較好,但RC-LSGA模型對(duì)大多數(shù)類別的分類準(zhǔn)確率明顯較高,尤其是類別2、類別4,RC-LSGA模型的分類準(zhǔn)確率分別達(dá)到99.61%和99.84%。RC-LSGA模型在LK數(shù)據(jù)集上的OA值達(dá)到了99.46%,優(yōu)于其他模型,進(jìn)一步驗(yàn)證了該模型的有效性。由圖11可見,"RC-LSGA模型在LK數(shù)據(jù)集上生成的分類圖更接近實(shí)際情況,這是因?yàn)樵撃P湍苌筛嗟奶卣鲌D,并充分利用其中的信息來(lái)提取全局特征和局部細(xì)節(jié)。

        3.4 "消融實(shí)驗(yàn)

        為探究不同模塊對(duì)RC-LSGA模型性能的影響,針對(duì)每個(gè)數(shù)據(jù)集分別進(jìn)行了4組消融實(shí)驗(yàn)。通過(guò)分析OA值,評(píng)估了RC-LSGA模型的可行性,消融實(shí)驗(yàn)結(jié)果見表5。

        首先在不添加任何模塊的情況下分類精度最低,一定程度上說(shuō)明沒(méi)有充分利用全局與局部信息。其次,只添加通道注意力和只添加三維重塑卷積情況下,雖然在精度上有一定的提升,但總體效果不佳。將通道注意力和三維重塑卷積結(jié)合后,分類的準(zhǔn)確率提升較大,在PU、SA和LK數(shù)據(jù)集上分別達(dá)到了98.20%,99.33%,99.46%,這進(jìn)一步證明了RC-LSGA模型在分類性能上的優(yōu)勢(shì)。

        3.5 "模型運(yùn)行效率分析

        為驗(yàn)證RC-LSGA的執(zhí)行效率,以模型的參數(shù)量和單次訓(xùn)練時(shí)間作為評(píng)價(jià)指標(biāo),見表6。

        由表6可見,SVM模型訓(xùn)練的時(shí)間最長(zhǎng),這是因?yàn)镾VM模型采用逐像素預(yù)測(cè);與只使用卷積的3DCNN模型、DFFN模型和SSRN模型相比,引入視覺(jué)Transformer的SF模型,運(yùn)行時(shí)間明顯縮短;與其他模型相比,RC-LSGA模型的訓(xùn)練時(shí)間和參數(shù)量明顯減少,只有DBDA模型的訓(xùn)練時(shí)間和參數(shù)量都優(yōu)于RC-LSGA模型,這主要是因?yàn)镽C-LSGA模型引入重塑卷積分支,導(dǎo)致訓(xùn)練成本增加。但總體看來(lái),RC-LSGA模型仍是分類精度最高的。

        4 "結(jié)論

        (1)通過(guò)自高斯注意力Transformer來(lái)建立長(zhǎng)距離依賴關(guān)系并獲取全局信息,利用通道注意力和重塑卷積來(lái)獲取細(xì)膩的局部特征,建立RC-LSGA模型。與其他模型的對(duì)比實(shí)驗(yàn)表明,該模型對(duì)3個(gè)數(shù)據(jù)集中的類別識(shí)別效果最優(yōu)。

        (2)RC-LSGA模型在不同類別之間仍存在誤判的情況,因此模型仍需要進(jìn)一步改進(jìn)。在未來(lái)的研究中,將致力于提高HSI分類精度的同時(shí),實(shí)現(xiàn)模型的輕量化。

        參考文獻(xiàn)(References):

        [1] TU B,ZHOU C"L,KUANG W"L,et al.Multiattribute sample learning for hyperspectral image classification using hierarchical peak attribute propagation[J].IEEE Transactions on Instrumentation and Measurement,"2022,71:6502617.

        [2] GEVAERT C M,SUOMALAINEN J,TANG J,et al.Generation of spectral-temporal response surfaces by combining multispectral satellite and hyperspectral UAV imagery for precision agriculture applications[J]."IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing,2015,8(6):3140-3146.

        [3] XUE Z"H,ZHOU Y"Y,DU P"J.S3Net:spectral–spatial Siamese network for few-shot hyperspectral image classification[J].IEEE Transactions on Geoscience and Remote Sensing,2022,60:1-19.

        [4] ARDOUIN J P,LéVESQUE J,REA T A.A demonstration of hyperspectral image exploitation for military applications[C]//2007 10th International Conference on Information Fusion.July 9-12,2007,Quebec, QC,Canada. IEEE,2007:1-8.

        [5] HE C"X,SUN L,HUANG W,et al.TSLRLN:tensor subspace low-rank learning with non-local prior for hyperspectral image mixed denoising[J].Signal Processing,2021,184:108060.

        [6] SUN L,WU F"Y,ZHAN T"M,et al.Weighted nonlocal low-rank tensor decomposition method for sparse unmixing of hyperspectral images[J]."IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing,2020,13:1174-1188.

        [7] NASRABADI N M.Hyperspectral target detection:an overview of current and future challenges[J].IEEE Signal Processing Magazine, 2014,31(1):34-44.

        [8] TU B,REN Q,ZHOU C"L,et al.Feature extraction using multidimensional spectral regression whitening for hyperspectral image classification[J].IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing,2021,14:8326-8340.

        [9] MA Y,LIU Z,CHEN CHEN C L P.Hybrid spatial-spectral feature in broad learning system for Hyperspectral image classification[J].Applied Intelligence,2022,52(3):2801-2812.

        [10] AUDEBERT N,LE SAUX B,LEFèVRE S.Deep learning for classification of hyperspectral data:a comparative review[J].IEEE Geoscience and Remote Sensing Magazine,2019,7(2):159-173.

        [11] ARCHIBALD R,F(xiàn)ANN G.Feature selection and classification of hyperspectral images with support vector machines[J].IEEE Geoscience and Remote Sensing Letters,2007,4(4):674-677.

        [12] SHEN X"F,BAO W"X,LIANG H"B,et al.Grouped collaborative representation for hyperspectral image classification using a two-phase strategy[J].IEEE Geoscience and Remote Sensing Letters,2022,19:"5505305.

        [13] BANDOS T V,BRUZZONE L,CAMPS-VALLS G.Classification of hyperspectral images with regularized linear discriminant analysis[J]. IEEE Transactions on Geoscience and Remote Sensing,2009,47(3): 862-873.

        [14] LIU B,YU X"C,ZHANG P"Q,et al.A semi-supervised convolutional neural network for hyperspectral image classification[J].Remote Sensing Letters,2017,8(9):839-848.

        [15] ROY S K,KRISHNA G,DUBEY S R,et al.HybridSN:exploring 3-D–2-D CNN feature hierarchy for hyperspectral image classification[J].IEEE Geoscience and Remote Sensing Letters,2020, 17(2):277-281.

        [16] SONG W"W,LI S"T,F(xiàn)ANG L"Y,et al.Hyperspectral image classification with deep feature fusion network[J].IEEE Transactions on Geoscience and Remote Sensing,2018,56(6):3173-3184.

        [17] PAOLETTI M E,HAUT J M,PLAZA J,et al.Deep"amp;"dense convolutional neural network for hyperspectral image classification[J].Remote Sensing,2018,10(9):1454.

        [18] ZHONG Z"L,LI J,LUO Z"M,et al.Spectral-spatial residual network for hyperspectral image classification:a 3-D deep learning framework[J]. IEEE Transactions on Geoscience and Remote Sensing,2018,56(2): 847-858.

        [19] WANG W"J,DOU S"G,JIANG Z"M,et al.A fast dense spectral–spatial convolution network framework for hyperspectral images classification[J]."Remote Sensing,2018,10(7):1068.

        [20] QING Y"H,LIU W"Y,F(xiàn)ENG L"Y,et al.Improved transformer net for hyperspectral image classification[J].Remote Sensing,2021,13"(11):2216.

        [21]"HONG D"F,HAN Z,YAO J,et al."Spectral"former:"rethinking hyperspectral image classification with transformers[J].IEEE Transactions on Geoscience and Remote Sensing,2022,60:5518615.

        [22] MA W"P,YANG Q"F,WU Y,et al.Double-branch multi-attention mechanism network for hyperspectral image classification[J]. Remote Sensing,2019,11(11):1307.

        [23] LI R,ZHENG S"Y,DUAN C"X,et al.Classification of hyperspectral image based on double-branch dual-attention mechanism network[J]. Remote Sensing,2020,12(3):582.

        [24] SUN L,ZHAO G"R,ZHENG Y"H,et al.Spectral-spatial feature tokenization transformer for hyperspectral image classification[J]. IEEE Transactions on Geoscience and Remote Sensing,2022,60:5522214.

        [25] ZHU M"H,JIAO L"C,LIU F,et al.Residual spectral–spatial attention network for hyperspectral image classification[J].IEEE Transactions on Geoscience and Remote Sensing,2021,59(1):449-462.

        [26] MA C,WAN M"J,WU J,et al.Light self-Gaussian-attention vision transformer for hyperspectral image classification[J].IEEE Transactions on Instrumentation and Measurement,2023,72:5015712.

        猜你喜歡
        重塑類別注意力
        讓注意力“飛”回來(lái)
        重塑未來(lái)
        自動(dòng)化正悄然無(wú)聲地重塑服務(wù)業(yè)
        李滄:再造與重塑
        商周刊(2018年11期)2018-06-13 03:41:54
        “揚(yáng)眼”APP:讓注意力“變現(xiàn)”
        A Beautiful Way Of Looking At Things
        服務(wù)類別
        重塑靈魂
        論類別股東會(huì)
        商事法論集(2014年1期)2014-06-27 01:20:42
        中醫(yī)類別全科醫(yī)師培養(yǎng)模式的探討
        人妻少妇偷人精品免费看| 国产av天堂亚洲国产av麻豆| 亚洲av男人免费久久| 亚洲中文欧美日韩在线| 国产自拍在线视频观看| 人妻经典中文字幕av| 日本大肚子孕妇交xxx| 国产精品成人观看视频| 中文字幕 人妻熟女| 色窝窝无码一区二区三区2022| 国产一区二区三区涩涩| 国产精品亚洲第一区二区三区 | 欧美人与善在线com| 亚洲精品国产成人| 可以免费在线看黄的网站| 国产精品一区二区久久精品蜜臀| 日韩一本之道一区中文字幕| 五月av综合av国产av| 99精品国产兔费观看久久99| 狠狠色噜噜狠狠狠狠97俺也去| 你懂的视频网站亚洲视频| 一本色道久久88亚洲精品综合| 免费a级毛片出奶水| 国产片AV在线永久免费观看| 不打码在线观看一区二区三区视频| 中国黄色偷拍视频二区| 成人艳情一二三区| 醉酒后少妇被疯狂内射视频 | 中文亚洲第一av一区二区| 日本护士xxxxhd少妇| 国产精品黄在线观看免费软件 | 中文字幕人成乱码中文| 日本丰满少妇xxxx| 丰满女人又爽又紧又丰满| 国产 无码 日韩| 国产精品亚洲三级一区二区三区| 人妻精品久久久久中文字幕69| 超薄肉色丝袜一区二区| 国产精品亚洲国产| av在线不卡一区二区| 麻豆亚洲av熟女国产一区二|