梁文韜,康 雁,李 浩,李晉源,寧浩宇
(云南大學(xué) 軟件學(xué)院,昆明 650500)
隨著遙感圖像獲取技術(shù)的不斷發(fā)展,人們可從遙感圖像中獲取更多有用信息。遙感場景分類是根據(jù)遙感圖像中所提取的特征對遙感場景進(jìn)行分類和識別。由于提升場景分類準(zhǔn)確率可提高目標(biāo)檢測效果,更好地完成土地資源問題的覆蓋率與利用率分析以及土地規(guī)劃建設(shè)等任務(wù)[1],因此遙感場景分類作為遙感圖像應(yīng)用過程不可或缺的一環(huán)非常重要。遙感場景圖像除了具有顏色、紋理、空間與光譜信息等特征以及包括多特征融合的描述子在內(nèi)的淺層次信息[2-4],還含有較多深層次信息,增加了提升其分類準(zhǔn)確率的難度。
本文提出一種基于復(fù)雜度適配的自適應(yīng)遙感場景分類模型。充分利用遙感圖像各層特征,構(gòu)建具有多重特征的遙感圖像復(fù)雜度評價矩陣,對圖像復(fù)雜度進(jìn)行層次聚類劃分,并根據(jù)DenseNet、CapsNet和SENet神經(jīng)網(wǎng)絡(luò)對復(fù)雜度特征敏感度的不同,分別將其與不同復(fù)雜度圖像子集匹配,最終得到遙感圖像場景分類結(jié)果。
在遙感場景分類任務(wù)中,最小距離法、平行六面體法、最大似然法、等混合距離法、循環(huán)集群法等監(jiān)督與非監(jiān)督的傳統(tǒng)識別分類方法應(yīng)用較多,但是這些方法魯棒性較弱且泛化能力不強(qiáng),難以廣泛應(yīng)用,且分類準(zhǔn)確率也很難提高。
近年來,隨著深度學(xué)習(xí)技術(shù)在計算機(jī)視覺領(lǐng)域的不斷發(fā)展,其在遙感場景分類任務(wù)上取得眾多成果,特別是卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,CNN)模型在遙感場景分類任務(wù)中取得比傳統(tǒng)方法更好的分類效果。在模型結(jié)構(gòu)方面,文獻(xiàn)[2]使用AlexNet、VGGNet-16和GoogLeNet網(wǎng)絡(luò)獲得遠(yuǎn)高于傳統(tǒng)低層特征提取方法的分類效果。文獻(xiàn)[5]利用PMS架構(gòu)的DCNN模型獲得比CNN模型更佳的分類效果。文獻(xiàn)[6]建立卷積神經(jīng)網(wǎng)絡(luò)模型,降低圖像變形引起的誤差,從而獲得優(yōu)于傳統(tǒng)方法的分類效果。在模型特征利用率方面,文獻(xiàn)[7]利用深度學(xué)習(xí)模型-堆棧自動編碼機(jī)提高對圖像的特征利用。文獻(xiàn)[8]使用局部二值模式(Local Binary Pattern,LBP)提高對圖像的特征利用。文獻(xiàn)[9]使用視覺注意機(jī)制提高紋理特征利用率。與傳統(tǒng)分類方法相比,使用CNN進(jìn)行遙感分類不僅可大幅提升準(zhǔn)確性,還能獲得更強(qiáng)的泛化性能。但目前相關(guān)研究主要采用卷積和池化操作獲取圖像全局特征,對遙感圖像的特征利用率不高。
對于遙感場景分類任務(wù)而言,由于遙感場景圖像信息量通常與場景種類和特征分布緊密關(guān)聯(lián),例如,沙漠、草地的圖像信息量遠(yuǎn)少于商業(yè)區(qū)、港口的圖像信息量。在場景特征分布方面,信息量較少的圖像類別由淺層特征決定,信息量較大的圖像類別由深層特征決定。因此,本文提出一種1×15維的特征屬性描述矩陣劃分不同特征分布的遙感圖像,并對圖像的復(fù)雜度進(jìn)行描述。對遙感圖像劃分類別進(jìn)行分析發(fā)現(xiàn),圖像按照復(fù)雜度分為3類時各類別的平均相似性最大,因此根據(jù)復(fù)雜度聚類獲得低、中、高復(fù)雜度的3類圖像。文獻(xiàn)[10]指出不同結(jié)構(gòu)的CNN與不同特征分布的遙感圖像敏感度有差異,使用對應(yīng)的CNN結(jié)構(gòu)處理敏感度較高的遙感圖像可充分發(fā)揮CNN固有特性,從而提高分類精度。僅加深和加寬網(wǎng)絡(luò)模型雖然可提高圖像分類任務(wù)的正確率[11-12],但會給算法效率、硬件條件帶來更大壓力,造成神經(jīng)網(wǎng)絡(luò)梯度不穩(wěn)定與網(wǎng)絡(luò)退化等問題,導(dǎo)致算法性能下降[13]。因此,針對不同特征分布的圖像改進(jìn)模型結(jié)構(gòu)可獲得更高的分類準(zhǔn)確率和算法效率,并能適應(yīng)更多的硬件條件[14-15]。各類神經(jīng)網(wǎng)絡(luò)中DenseNet、CapsNet和SENet結(jié)構(gòu)分別對低、中、高復(fù)雜度圖像敏感度最高。
本文針對上述情況提出與遙感圖像特征復(fù)雜度分布相匹配的多維自適應(yīng)模型。在對遙感場景圖像進(jìn)行分類處理時,先計算輸入圖像的復(fù)雜度描述矩陣(由顏色矩、灰度共生矩陣、信息熵、信息增益以及線占比等多重特征組成的1×15維矩陣),再根據(jù)上述特征采用層次聚類方式獲得3種復(fù)雜度子集,最后分別使用DenseNet、CapsNet、SENet訓(xùn)練與其相適應(yīng)的圖像,以獲得復(fù)雜度與神經(jīng)網(wǎng)絡(luò)自適應(yīng)的模型。
評價圖像復(fù)雜度的方法較多,包括基于圖像紋理、模糊數(shù)學(xué)理論、多特征集成的圖像復(fù)雜度評價方法,以及基于信息論衡量的圖像復(fù)雜度評價方法等[16-18]。由于遙感圖像的顏色特征、輪廓、紋理特征較突出,因此本文基于前人研究工作[19-21]提出一種1×15維的特征描述矩陣,其中包括顏色特征、紋理特征、空間特征、信息熵特征、拉普拉斯邊緣檢測線占比等特征。雖然同類別地表類型圖像在不同分辨率與成像方式下具有不同的深層次特征,但從中獲得復(fù)雜度評價矩陣特征分布的方法類似,因此不同類別遙感場景在復(fù)雜度評價矩陣中的區(qū)別較明顯。
1)顏色矩
顏色矩[21]是一種顏色特征評價方式,用矩表示圖像顏色分布情況,其計算參數(shù)較少。為獲得更佳的復(fù)雜度評價效果,通常采用一階矩、二階矩、三階矩表示圖像的顏色特征。顏色矩的計算公式如下:
(1)
(2)
(3)
其中,pi,j表示彩色圖像第j個像素的第i個顏色分量,ui表示所有像素第i個顏色分量的平均值,N表示像素個數(shù)。圖像的三階顏色矩組成1個9維向量表示顏色特征,表達(dá)式為:
Fcolor=[μH,σH,sH,μs,σs,ss,μv,σv,sv]
(4)
2)灰度共生矩陣
灰度共生矩陣[22]是當(dāng)圖像中灰度級值為m的像素以及與其距離為δ(Δx,Δy)且灰度級值為n的像素都出現(xiàn)時,2個像素灰度級同時發(fā)生的概率將空間坐標(biāo)映射為灰度對所構(gòu)成灰度共生矩陣?;叶裙采仃囉胮(m,n,d,θ)(m,n=0,1,…,L-1)表示,其中m和n分別為2個像素點的灰度級值,L為圖像的灰度級,d和θ分別為2個像素點的距離關(guān)系和方位關(guān)系。從灰度共生矩陣中可獲得包含圖像紋理信息的子特征,因此本文從灰度共生矩陣中提取能量、熵、對比度以及倒數(shù)差分矩作為圖像復(fù)雜度的評價子。
定義1(能量) 能量是灰度共生矩陣各元素值的平方和,用于度量圖像紋理灰度變化穩(wěn)定程度,反映圖像灰度均勻程度和紋理粗細(xì)度特征,其計算公式為:
(5)
定義2(熵) 熵是圖像包含信息量的隨機(jī)性度量,即圖像中紋理的信息量,反映圖像的紋理特征,其計算公式為:
(6)
定義3(對比度) 對比度用于度量灰度共生矩陣值的分布和圖像局部變化程度,反映圖像中紋理清晰程度特征,其計算公式為:
(7)
定義4(倒數(shù)差分矩) 倒數(shù)差分矩反映圖像紋理的同質(zhì)性,即圖像紋理局部變化程度,其計算公式為:
(8)
上述灰度共生矩陣的4個特征描述子構(gòu)成4維向量特征,表達(dá)式為:
FGray=[Eng,Ent,Con,Idm]
(9)
3)圖像信息熵
圖像信息熵用于統(tǒng)計特征數(shù)量,可表示圖像灰度分布的聚集特征,其計算公式為:
(10)
其中,a表示像素的灰度值且0≤a≤255,b表示鄰域灰度均值且0≤b≤255,pa,b表示灰度值為a、鄰域灰度均值為b的像素所占比例。
4)拉普拉斯邊緣檢測線占比
圖像通過拉普拉斯邊緣檢測可獲得圖像輪廓線條灰度圖,計算輪廓線數(shù)值與整體像素比值所得圖像線占比L用來表示圖像輪廓特征,即L=Lap/Img,Lap表示經(jīng)拉普拉斯邊緣檢測后的像素矩陣,Img表示原像素矩陣。
將上述特征分量組合后得到圖像復(fù)雜度評價矩陣,即描述圖像復(fù)雜度所需的15維向量矩陣Ffeature=FGray+Fcolor+E+L,其結(jié)構(gòu)如圖1所示。
圖1 圖像復(fù)雜度評價矩陣的結(jié)構(gòu)Fig.1 Structure of image complexity evaluation matrix
層次聚類是一種無監(jiān)督聚類,通過迭代計算各類別數(shù)據(jù)點相似度可構(gòu)建1棵有層次的嵌套聚類樹。本文采用自下而上的合并方法創(chuàng)建聚類樹,層次聚類的合并過程為:計算2類數(shù)據(jù)點的相似性,再組合所有數(shù)據(jù)點中相似度最高的2個數(shù)據(jù)點,然后反復(fù)迭代該過程。層次聚類使用歐式距離計算不同類別數(shù)據(jù)點的距離相似度(D),計算公式為:
(11)
采用圖像復(fù)雜度評價矩陣Ffeature計算各圖像之間的相似性得到不同復(fù)雜度[23],從而獲得不同復(fù)雜度的圖像子集并映射到原始圖像上,將原始圖像按此規(guī)律進(jìn)行劃分,從而獲得不同復(fù)雜度的圖像子集(NWPU-RESISC45、UC Mered、WHU-RS)。本文使用Calinski-Harabaz分?jǐn)?shù)評價類簇數(shù)不同時的聚類效果。Calinski-Harabaz分?jǐn)?shù)是分離度與緊密度的比值,該值越大說明類自身越緊密、類與類之間越分散,即聚類結(jié)果更優(yōu),反之說明聚類效果不佳。Calinski-Harabaz分?jǐn)?shù)的計算公式如下:
(12)
其中,m為圖像數(shù)據(jù)總量,k為簇數(shù),Bk為簇間協(xié)方差矩陣,Wk為簇內(nèi)協(xié)方差矩陣,tr為矩陣的跡(矩陣主對角線上元素總和)。
對3類遙感圖像子集復(fù)雜度矩陣進(jìn)行簇數(shù)為2~5的聚類分析,得到Calinski-Harabaz分?jǐn)?shù)如表1所示,可以看出當(dāng)簇數(shù)為3時各類遙感圖像子集所得Calinski-Harabaz分?jǐn)?shù)最高,因此在中等類別數(shù)量規(guī)模的遙感場景圖像中聚類劃分簇數(shù)為3較合適。
表1 3類遙感圖像子集所得Calinski-Harabaz分?jǐn)?shù)Table 1 Calinski-Harabaz scores from three remotesensing image subsets
圖2為3類圖像子集圖例??梢钥闯?第1類圖像子集為草地、沙漠等,信息量較少;第2類圖像子集為湖泊、運動場等,信息量適中;第3類圖像子集為商業(yè)區(qū)、港口等,信息量較大。因此,上述3類圖像子集分別標(biāo)定為低復(fù)雜度、中復(fù)雜度和高復(fù)雜度,各圖像子集在不同復(fù)雜度下的數(shù)據(jù)量如表2所示。
圖2 3類圖像子集圖例Fig.2 Legend of three image subsets
表2 3類圖像子集在不同復(fù)雜度下的數(shù)據(jù)量Table 2 Data quantity with different complexity ofthree image subsets
本文引入DenseNet、CapsNet、SENet 3種網(wǎng)絡(luò)作為自適應(yīng)復(fù)雜度子集的神經(jīng)網(wǎng)絡(luò)模型集成對象。
2.3.1 DenseNet
DenseNet[24]將卷積和池化層的輸出特征作為卷積層的特征輸入,其結(jié)構(gòu)如圖3所示。
圖3 DenseNet結(jié)構(gòu)Fig.3 DenseNet structure
在本文遙感場景分類任務(wù)的DenseNet中,每L層有L(L+1)/2個連接,即L層的輸出為xl,表示為:
xl=F(xx-1)+xl-1+xl-2+Lx1
(13)
DenseNet能很好地保留與利用模型中卷積層所得的圖像低維特征[25],而沙漠、草地等低復(fù)雜度圖像的內(nèi)容和高維特征較少。DenseNet既可充分利用低維特征也能避免高維特征干擾,因此其對于復(fù)雜度較低圖像的敏感度較其他復(fù)雜度的圖像更強(qiáng),通常用DenseNet訓(xùn)練低復(fù)雜度遙感場景圖像。
2.3.2 CapsNet
與傳統(tǒng)卷積神經(jīng)網(wǎng)絡(luò)相比,膠囊網(wǎng)絡(luò)(Capsule Network,CapsNet)[26]用向量信息取代標(biāo)量信息,即在傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的輸入線性求和階段增加耦合系數(shù)cij,其輸入Sj的計算公式為:
(14)
其中,μi為上一層CapsNet的輸出,Wij為每個輸出的權(quán)值,上一層每個膠囊神經(jīng)元以不同強(qiáng)弱的連接輸出到下一層某個神經(jīng)元。耦合系數(shù)cij的計算公式為:
(15)
其中,b初始值為0,由更新bij←bij+Wijμivj獲得。在前向傳播求Si的過程中,Wij為隨機(jī)值,b初始化為0可得到cij,μi為上一層CapsNet的輸出,通過Cij、Wij、μi的值可得到下一層輸入,CapsNet就能更好地保存圖像的位置與方向信息,CapsNet結(jié)構(gòu)如圖4所示。對于遙感圖像而言,拍攝角度變換、距離不同會造成神經(jīng)網(wǎng)絡(luò)的誤判,而CapsNet能很好地解決上述問題,從而獲得更高的分類準(zhǔn)確率[27]。由于中復(fù)雜度圖像通常目標(biāo)較完整,比低復(fù)雜度圖像具有更多深層次特征,且不像高復(fù)雜度圖像分布復(fù)雜與特征繁多,因此對于中復(fù)雜度圖像,CapsNet不會遺漏其整體位置、方向等重要特征,也不會受更高維特征的干擾,較其他網(wǎng)絡(luò)敏感度更強(qiáng)。而低復(fù)雜度圖像具有的特征更少,其位置分布和輪廓特征不明顯,CapsNet分類效果不如DenseNet,因此通常用CapsNet訓(xùn)練中復(fù)雜度遙感場景圖像。
圖4 CapsNet結(jié)構(gòu)Fig.4 CapsNet structure
2.3.3 SENet
SENet[28]采用特征重標(biāo)定策略,先通過Squeeze操作壓縮特征,用1個實數(shù)表示各二維特征通道,該實數(shù)有一定的全局感受野,輸出的維度和輸入的特征通道數(shù)相匹配,Squeeze操作的計算公式如下:
(16)
然后進(jìn)行Excitation操作,通過學(xué)習(xí)更新參數(shù)w進(jìn)行特征通道之間相關(guān)性建模,再進(jìn)行Reweight操作,即選擇Excitation輸出表示特征后,每個特征通道的重要性權(quán)重與原始特征矩陣進(jìn)行相乘加權(quán),從而完成在各通道上對原始特征的重標(biāo)定。SENet能對復(fù)雜圖像的多維特征進(jìn)行排序篩選,以避免冗余特征干擾,達(dá)到更好的分類效果[29],其結(jié)構(gòu)如圖5所示。高復(fù)雜度圖像通常包含龐大的信息量,在位置關(guān)系、輪廓特征、顏色特征等方面更復(fù)雜,從中提取的有用特征較其他復(fù)雜度圖像更多。如果不考慮上述特征則會降低最終的分類效果,而SENet能全面考慮與有效利用各特征,對高復(fù)雜度圖像而言,SENet較其他網(wǎng)絡(luò)敏感度更強(qiáng)。因此,通常用SENet訓(xùn)練高復(fù)雜度遙感場景圖像。
圖5 SENet結(jié)構(gòu)Fig.5 SENet structure
對于遙感場景分類任務(wù)中的遙感圖像,先使用復(fù)雜度評價矩陣抽取遙感圖像的復(fù)雜度特征,再使用2.2節(jié)中的聚類方式對該復(fù)雜度評價矩陣進(jìn)行聚類,從而獲得3種復(fù)雜度的圖像子集,分析其中的圖像并進(jìn)行高、中、低復(fù)雜度標(biāo)定,然后分別用2.3節(jié)中的3種神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,最終獲得復(fù)雜度聚類模型和與對應(yīng)復(fù)雜度敏感的神經(jīng)網(wǎng)絡(luò)模型。用復(fù)雜度聚類模型對測試數(shù)據(jù)進(jìn)行復(fù)雜度劃分,再將對應(yīng)的復(fù)雜度敏感模型進(jìn)行分類,從而獲得更精準(zhǔn)的分類結(jié)果。在對各復(fù)雜度敏感的神經(jīng)網(wǎng)絡(luò)模型訓(xùn)練過程中,為獲得更全面的特征分布,對不同復(fù)雜度的圖像數(shù)據(jù)進(jìn)行增強(qiáng)[30]處理,使其擴(kuò)充為原來的5倍,算法的具體流程如圖6所示。
圖6 本文自適應(yīng)算法流程Fig.6 Procedure of the proposed adaptive algorithm
該算法具體步驟如下:
輸入有標(biāo)簽的訓(xùn)練集train,無標(biāo)簽的測試集test
輸出測試遙感圖像的類別
1)對訓(xùn)練集train進(jìn)行多特征抽取,獲得包含顏色矩、灰度共生矩陣、信息熵、信息增益、線占比多重特征的1×15維復(fù)雜度描述矩陣。
2)根據(jù)復(fù)雜度描述矩陣使用層次聚類方法將訓(xùn)練集train中圖像劃分低、中、高3個復(fù)雜度,獲得trainL(低復(fù)雜度)、trainM(中復(fù)雜度)、trainH(高復(fù)雜度)和復(fù)雜度聚類模型M0。
3)采用數(shù)據(jù)增強(qiáng)方法將trainL、trainM、trainH分別擴(kuò)充為原來的5倍,再使用DenseNet、CapsNet、SENet分別訓(xùn)練復(fù)雜度低、中、高的數(shù)據(jù)集,獲得與對應(yīng)復(fù)雜度敏感的神經(jīng)網(wǎng)絡(luò)模型M1、M2、M3。
4)測試集test通過復(fù)雜度聚類模型M0劃分屬于低、中、高3個復(fù)雜度的測試圖像testL、testM、testH,再將其分別通過對其復(fù)雜度敏感的模型M1、M2、M3,所得結(jié)果即為測試集圖像的類別。
本文分別在NWPU-RESISC45數(shù)據(jù)集、UC Mered數(shù)據(jù)集、WHU-RS數(shù)據(jù)集3個數(shù)據(jù)集上驗證所提模型的有效性。NWPU-RESISC45數(shù)據(jù)集具有45個遙感場景類別,其中每類有700張尺寸為256像素×256像素的圖像。UC Merced數(shù)據(jù)集來自美國地質(zhì)勘探局國家城市地圖,共有21個遙感場景類別,其中每類有100張尺寸為256像素×256像素的圖像。WHU-RS數(shù)據(jù)集來自武漢大學(xué)由Google Earth截取的衛(wèi)星遙感圖像,共有19個遙感場景類別,其中每類有50張尺寸為600像素×600像素的圖像。為確保實驗的有效性,對訓(xùn)練模型的數(shù)據(jù)集進(jìn)行旋轉(zhuǎn)、平移、縮放與對比度拉伸變換等數(shù)據(jù)增強(qiáng)[30]處理,將其擴(kuò)大5倍。
本文實驗環(huán)境為GTX 1080Ti 12核32 GB機(jī)器,采用GPU訓(xùn)練。訓(xùn)練階段,使用Shuffle方式訓(xùn)練,Batch設(shè)定為16。為保證訓(xùn)練效率,圖像尺寸統(tǒng)一縮放為64像素×64像素,網(wǎng)絡(luò)輸入是Batch_size為16×64×64×3的4維張量。為使各模型訓(xùn)練收斂后作為最終模型,各模型的epoch設(shè)置為100。在訓(xùn)練神經(jīng)網(wǎng)絡(luò)過程中,DenseNet和SENet模型使用Binary_crossentropy作為損失函數(shù),CapsNet模型使用Margin_loss作為損失函數(shù),SENet模型使用SGD算法作為優(yōu)化器,DenseNet和CapsNet模型使用Adam算法作為優(yōu)化器。以準(zhǔn)確率(A)作為最終分類效果的評價指標(biāo)。
(17)
其中:TP表示實際與預(yù)測都為正的樣本數(shù);FN表示實際為正而預(yù)測為負(fù)的樣本數(shù);TN表示實際與預(yù)測都為負(fù)的樣本數(shù);FP表示實際為負(fù)而預(yù)測為正的樣本數(shù)。
本文實驗與近期遙感場景分類任務(wù)進(jìn)行對比分析,結(jié)果如表3所示[2,30-31]??梢钥闯?在NWPU-RESISC45、UC Mered、WHU-RS數(shù)據(jù)集上,基于LLC、BoVW的傳統(tǒng)模型準(zhǔn)確率較低,約為0.5;AlexNet、VGGNet等神經(jīng)網(wǎng)絡(luò)模型準(zhǔn)確率較高,在0.8以上;而本文所選DenseNet、CapsNet、SENet等單一模型的準(zhǔn)確率明顯優(yōu)于其他模型,表明該類模型對遙感場景數(shù)據(jù)有更好的適應(yīng)性;本文自適應(yīng)模型在3個數(shù)據(jù)集上的準(zhǔn)確率較單一模型平均提高3個百分點,分類效果提升明顯。
表3 不同模型在3種數(shù)據(jù)集上的準(zhǔn)確率Table 3 Accuracy of different models onthree datasets
圖7~圖9分別為DenseNet、CapsNet、SENet和本文自適應(yīng)模型分別在NWPU-RESISC45數(shù)據(jù)集、UC Mered數(shù)據(jù)集、WHU-RS數(shù)據(jù)集上得到的各類別準(zhǔn)確率??梢钥闯?對低復(fù)雜度的草地、沙漠等類別,DenseNet準(zhǔn)確率較高;對高復(fù)雜度的商業(yè)區(qū)、港口等類別,SENet準(zhǔn)確率較高;對中復(fù)雜度的運動場、機(jī)場等類別,CapsNet準(zhǔn)確率較高。本文自適應(yīng)模型在3個數(shù)據(jù)集上的整體準(zhǔn)確率均高于其他模型。
上述實驗表明,本文提出的自適應(yīng)模型對遙感場景分類準(zhǔn)確率提升效果明顯,既可有針對性提取與利用不同復(fù)雜度遙感圖像的特征,又能綜合各神經(jīng)網(wǎng)絡(luò)模型優(yōu)勢,實現(xiàn)遙感圖像分類的高準(zhǔn)確率。
圖7 4種模型在NWPU-RESISC45數(shù)據(jù)集上各場景類別的準(zhǔn)確率Fig.7 Accuracy of each sence category of four models on NWPU-RESISC45 dataset
圖8 4種模型在UC Mered數(shù)據(jù)集上各場景類別的準(zhǔn)確率Fig.8 Accuracy of each sence category of four models on UC Mered dataset
圖9 4種模型在WHU-RS數(shù)據(jù)集上各場景類別的準(zhǔn)確率Fig.9 Accuracy of each sence category of four models on WHU-RS dataset
針對遙感圖像復(fù)雜度與神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)存在適應(yīng)性關(guān)系的情況,本文提出一種自適應(yīng)神經(jīng)網(wǎng)絡(luò)分類模型。建立遙感圖像復(fù)雜度評價矩陣,計算獲得不同復(fù)雜度的圖像子集,并對圖像復(fù)雜度進(jìn)行層次聚類分級,得到與遙感圖像復(fù)雜度匹配的多維自適應(yīng)神經(jīng)網(wǎng)絡(luò)模型。實驗結(jié)果表明,與DenseNet、CapsNet、SENet等模型相比,該模型具有更高的遙感場景分類準(zhǔn)確率。下一步將在評價矩陣中引入肯德爾等級、可決系數(shù)等指標(biāo),使模型對大規(guī)模數(shù)據(jù)具有更好的普適性。