摘要: 針對高分辨遙感圖像樣本量小, 以及傳統(tǒng)優(yōu)化支持向量機(jī)(SVM)算法易陷入局部最優(yōu)解、 尋優(yōu)速度慢等問題, 提出一種基于深度遷移學(xué)習(xí)與獅群優(yōu)化SVM(LSO-SVM)算法對遙感圖像場景進(jìn)行分類. 首先, 通過自適應(yīng)對比度增強(qiáng)圖像后利用顏色聚合向量提取圖像顏色特征; 其次, 利用3種預(yù)訓(xùn)練網(wǎng)絡(luò)分別提取圖像的遷移學(xué)習(xí)深度特征; 最后, 將手工提取的圖像特征與用3種預(yù)訓(xùn)練網(wǎng)絡(luò)獲取的特征使用系列特征融合方法進(jìn)行融合, 并將其輸入LSO-SVM進(jìn)行圖像場景分類. 結(jié)果表明, 該算法解決了小樣本情況下深度學(xué)習(xí)較難訓(xùn)練及傳統(tǒng)優(yōu)化SVM算法易陷入局部最優(yōu)解、 尋優(yōu)速度慢的問題. 在80%的訓(xùn)練條件下, 數(shù)據(jù)集UCM Land-Use和RSSCN7的分類精度分別達(dá)到99.52%和98.57%.
關(guān)鍵詞: 遙感圖像; 圖像分類; 遷移學(xué)習(xí); 獅群優(yōu)化算法; 顏色聚合向量
中圖分類號: TP751
文獻(xiàn)標(biāo)志碼: A
文章編號: 1671-5489(2023)04-0863-12
Remote Sensing Scene Classification Based onDeep Learning and Lion Swarm SVM Algorithm
WANG Liqi1, HOU Yuchao2, GAO Xiang1, TAN Xiuhui1,
CHENG Rong1, WANG Peng1, BAI Yanping1,2
(1. School of Mathematics, North University of China, Taiyuan 030051, China;2. School of Information and Communication Engineering, North University of China, Taiyuan 030051, China)
Abstract: Aiming at the problem of
the small sample size of high-resolution remote sensing images and
traditional optimized support vector machine (SVM) algorithms easily falling into local optima and slow optimization speed, we
proposed an algorithm based on deep transfer learning and lion swarm optimization SVM (LSO-SVM)to classify remote sensing image scene. Firstly, after enhancing the image through adaptive contrast,
color aggregation vectors were used to extract image color features. Secondly, three kinds of pretrained networks were used to extract the transfer learning depth features of images. Finally, the manually extracted image features and the features obtained using three pretrained networks were fused by using a series of feature fusion methods, and inputted them into LSO-SVM for image scene classification. The results show that the algorithm solves the problems of difficulty in deep learning training in small sample situations and the tendency of traditional optimized SVM algorithms to fall into local optima and slow search speed. Under 80% training conditions, the classification accuracy of UCM Land-Use and RSSCN7 datasets reaches 99.52% and 98.57%, respectively.
Keywords: remote sensing image; image classification; transfer learning; lion swarm optimization algorithm; color coherence vector
隨著遙感和衛(wèi)星技術(shù)的快速發(fā)展, 獲取的高分辨率圖像越來越多[1], 遙感圖像場景分類逐漸成為遙感圖像領(lǐng)域的研究熱點. 基于深度學(xué)習(xí)的分類方法通常需要大量的帶標(biāo)記樣本, 而獲取帶標(biāo)記的樣本非常困難, 使得這類方法效果不理想[2]. 針對上述問題, 研究小樣本條件下的遙感圖像分類方法具有重要意義[3-4].
遷移學(xué)習(xí)是一種利用已有的知識對不同但相近領(lǐng)域問題進(jìn)行求解的機(jī)器學(xué)習(xí)算法[5], 其將在自然圖像等數(shù)據(jù)集中學(xué)習(xí)到的知識遷移到遙感圖像等較小樣本的學(xué)習(xí)任務(wù)中, 已成為目前解決遙感圖像樣本量較少的主流方法[6]. 目前, 主流的深度遷移學(xué)習(xí)算法主要包括基于特征的遷移或者網(wǎng)絡(luò)的遷移和基于結(jié)構(gòu)的遷移[7-8]. 其中將預(yù)訓(xùn)練的網(wǎng)絡(luò)對遙感圖像特征提取應(yīng)用到場景分類中是最直接的遷移策略. 余東行等[9]提出了一種結(jié)合卷積神經(jīng)網(wǎng)絡(luò)(CNN)與集成學(xué)習(xí)的遙感影像場景分類方法, 利用預(yù)訓(xùn)練模型提取同一圖像多個高層語義特征; Ammour等[10]先用預(yù)訓(xùn)練的網(wǎng)絡(luò)進(jìn)行特征提取, 然后在數(shù)據(jù)域分類上采用兩個非對稱網(wǎng)絡(luò)結(jié)合的方法進(jìn)行訓(xùn)練; Han等[11]利用改進(jìn)的AlexNet網(wǎng)絡(luò)并結(jié)合空間金字塔池化方法(SPP)防止網(wǎng)絡(luò)遷移過程中的過渡擬合; Tun等[12]提出了一種混合預(yù)訓(xùn)練VGG16-CNN-SVM分類器模型, 能在少量樣本下較好地提取圖像特征; Lima等[13]系統(tǒng)性地評估了遷移學(xué)習(xí)在卷積神經(jīng)網(wǎng)絡(luò)中的應(yīng)用, 結(jié)果表明, 從更大、 更通用的自然圖像數(shù)據(jù)集上訓(xùn)練的模型中遷移學(xué)習(xí)的性能優(yōu)于直接從較小的遙感數(shù)據(jù)集上進(jìn)行遷移學(xué)習(xí).
深度學(xué)習(xí)圖像分類中, 分類器的選擇與設(shè)計至關(guān)重要[14]. 研究表明, 將CNN提取的深層特征進(jìn)行不同方式的特征融合并輸入支持向量機(jī)(SVM)進(jìn)行分類, 效果優(yōu)于直接使用CNN分類[15]. Girshick等[16]利用深度學(xué)習(xí)進(jìn)行目標(biāo)檢測時, 用SVM分類器代替全連接層后接Softmax進(jìn)行輸出, 取得了更佳的效果; Sara等[17]研究表明, 在高維、 少量的樣本條件下, SVM的泛化能力優(yōu)于K-最近鄰、 隨機(jī)森林等分類器. 盡管SVM在許多領(lǐng)域都有較好的性能, 但其分類效果很大程度上依賴核參數(shù)g和懲罰因子c的選擇. 遺傳算法(GA)、 粒子群優(yōu)化(PSO)算法等傳統(tǒng)優(yōu)化算法在SVM參數(shù)優(yōu)化中存在易陷入局部最優(yōu)解和尋優(yōu)速度慢等問題[18]. Liu等[19]提出了一種獅群優(yōu)化算法(LSO), 相比GA和PSO等傳統(tǒng)優(yōu)化算法, 具有較好的全局收斂性、 魯棒性以及高維復(fù)雜函數(shù)尋優(yōu)能力.
基于上述研究, 本文提出一種基于深度學(xué)習(xí)與獅群優(yōu)化SVM算法的方法用于遙感圖像場景分類. 首先, 使用自適應(yīng)對比度增強(qiáng)算法(ACE)[20], 在增強(qiáng)圖像后通過顏色聚合向量(CCV)[21]提取圖像顏色特征; 其次, 利用預(yù)訓(xùn)練網(wǎng)絡(luò)GoogleNet[22],ResNet101[23]和VGG-16[24]分別提取遙感圖像深度特征; 最后, 將這些特征自適應(yīng)融合, 并輸入LSO-SVM進(jìn)行遙感圖像場景分類.
1 基本原理
1.1 自適應(yīng)對比度增強(qiáng)
ACE算法將一張圖像分為低頻和高頻兩部分, 在增強(qiáng)表示細(xì)節(jié)的高頻部分后, 對圖像進(jìn)行重組得到增強(qiáng)圖像. 但在彩色圖像中需先將圖像轉(zhuǎn)換成HSI色彩空間, 再對亮度通道I進(jìn)行增強(qiáng)后合并通道, 最后轉(zhuǎn)換回RGB空間.
2.1 預(yù)處理
預(yù)處理主要包括數(shù)據(jù)增強(qiáng)和數(shù)據(jù)標(biāo)準(zhǔn)化. 為提高顏色特征對圖像的表達(dá)能力, 使用ACE增強(qiáng)圖像細(xì)節(jié)信息, 并根據(jù)采用網(wǎng)絡(luò)模型的輸入大小, 將訓(xùn)練圖像和測試圖像縮放到適合的尺寸對數(shù)據(jù)進(jìn)行標(biāo)準(zhǔn)化.
2.2 特征提取融合
高分辨率遙感圖像場景分類方法的特征提取策略主要分為以下兩類: 基于手工的特征提取和基于數(shù)據(jù)驅(qū)動的特征提取[26]. 本文方法同時使用兩者進(jìn)行特征提取以獲得更精細(xì)的特征.
在手工特征提取階段, 為更好地表達(dá)圖像色彩的空間位置, 選用CCV提取遙感圖像顏色特征向量C=((α1,β1),(α2,β2),…,(αn,βn)), 將2×n維的C轉(zhuǎn)化為1×2n的向量C′=(α1,…,αn,β1,…,βn), 以保證每張圖像輸出一個一維向量.
在數(shù)據(jù)驅(qū)動特征提取階段, 選用深度遷移學(xué)習(xí)算法解決遙感圖像小樣本集的問題, 為遷移學(xué)習(xí)選取合適的圖像特征, 在GoogleNet,VGG-16和ResNet101三種預(yù)訓(xùn)練網(wǎng)絡(luò)下進(jìn)行實驗. GoogleNet模型在網(wǎng)絡(luò)架構(gòu)中引入Inception單元, 在相同的計算量下提取更多的特征, 從而獲取更優(yōu)的訓(xùn)練結(jié)果; VGG-16模型采用更小的卷積層(3×3)增加網(wǎng)絡(luò)深度, 有效提升了模型效果; ResNet101模型通過引入“快捷連接”極大消除了深度過大的神經(jīng)網(wǎng)絡(luò)訓(xùn)練困難問題.
GoogleNet模型和ResNet101模型都僅含1個用于分類的全連接層, 去除該全連接層的同時, 分別[KG*8]加入128維的全連接層和64維的全連接層, 以獲取兩個維度不同的特征向量作為提取的圖像特征. VGG-16模型含有3個全連接層, 去除最后一層用于分類全連接層的同時, 分別加入128維和64維[KG*8]的全連接層, 以獲取兩個維度不同的特征向量作為提取的圖像特征.
最后將手工提取的圖像特征和使用3種預(yù)訓(xùn)練網(wǎng)絡(luò)獲取的特征用系列特征融合方法進(jìn)行融合, 并將其作為LSO-SVM分類的輸入.
2.3 LSO-SVM分類
本文基于獅群優(yōu)化提出LSO-SVM算法. 該算法將獅群優(yōu)化算法融合到SVM內(nèi), 改進(jìn)了傳統(tǒng)SVM易陷入局部最優(yōu)解、 尋優(yōu)速度慢等問題, 能實現(xiàn)高效、 高精度的圖像分類. 算法步驟如下:
1) [JP2]初始化獅群算法相關(guān)參數(shù), 包括獅子數(shù)目N、 最大迭代次數(shù)T、 成年獅在獅群中的比例因子β等;[JP]
2) 將各獅子當(dāng)前位置作為個體歷史最優(yōu)位置, 初始群體最優(yōu)位置為雄獅位置, 通過交叉驗證, 對訓(xùn)練樣本進(jìn)行分類, 以交叉驗證的準(zhǔn)確率作為適應(yīng)度值;
3) 根據(jù)式(5)更新雄獅位置, 并計算適應(yīng)度值;
4) 根據(jù)式(6)更新母獅位置;
5) 產(chǎn)生(0,1)內(nèi)的均勻隨機(jī)數(shù)q, 根據(jù)式(7)更新幼獅位置, 若qlt;1/3, 則幼獅向雄獅位置移動; 若1/3≤qlt;2/3, 則幼獅在母獅的位置附近小范圍移動; 若q≥2/3, 則幼獅被驅(qū)趕到遠(yuǎn)離雄獅的位置;
6) 根據(jù)獅子的位置重新計算適應(yīng)度值, 并更新自身和獅群的歷史最優(yōu)位置, 判斷算法是否滿足結(jié)束條件, 不滿足則每隔一定迭代次數(shù)重新排序, 確定獅群各獅子的位置后返回步驟3); 反之則停止, 輸出雄獅位置(即輸出最優(yōu)參數(shù)), 并將測試集輸入到最優(yōu)的SVM模型中進(jìn)行圖像分類.
2.4 實驗數(shù)據(jù)
為驗證本文方法的有效性, 采用具有表示性的UCM Land-Use和RSSCN7兩種遙感圖像數(shù)據(jù)集進(jìn)行實驗. 數(shù)據(jù)集UCM Land-Use包含農(nóng)田、 高爾夫球場、 港口等21個類別, 每類有100張圖片, 圖像尺寸為256×256; 數(shù)據(jù)集RSSCN7包含草地、 森林、 停車場等7個類別, 每類有400張圖片, 圖像尺寸為400×400. 兩個數(shù)據(jù)集類別示例分別如圖2和圖3所示.
3 實驗結(jié)果與分析
3.1 實驗設(shè)置
在MATLAB R2019b的環(huán)境下進(jìn)行實驗, 遷移學(xué)習(xí)過程及相應(yīng)的深度特征提取在處理器型號為AMD Ryzen5 3500X, 內(nèi)存為12 GB, 顯卡型號為1660s 6 GB條件下進(jìn)行, 其余實驗均在處理器型號為i7-10700, 內(nèi)存為8 GB條件下進(jìn)行. 實驗中訓(xùn)練集均為每類80%的圖像. 3種不同的預(yù)訓(xùn)練網(wǎng)絡(luò)均基于數(shù)據(jù)集ImageNet, 實驗中批量大小為10, 初始學(xué)習(xí)率為0.000 1, 迭代次數(shù)為10次. LSO-SVM中最大迭代次數(shù)為100, 種群大小為10, 交叉驗證折數(shù)為5, 成年獅群所占獅群的比例為0.5, 核參數(shù)g和懲罰因子C范圍均為[0.01,100].
3.2 特征分析
利用原始數(shù)據(jù)集和AHE增強(qiáng)的數(shù)據(jù)集分別通過CCV提取顏色特征向量, 將生成的特征輸入LSO-SVM中, 實驗結(jié)果列于表1. 由表1可見, 利用AHE增強(qiáng)后的數(shù)據(jù)集相比于原始數(shù)據(jù)集獲得了更高的分類精度, 數(shù)據(jù)集UCM Land-Use和RSSCN7分別提高4.28%和3.39%. 結(jié)果表明, AHE有效增強(qiáng)了圖像顏色信息, 使顏色特征更充分地表達(dá)圖像特征.
將基于模型GoogleNet,VGG-16和ResNet101所提取的特征分別命名為GoogleNet-64,GoogleNet-128,VGG-64,VGG-128和ResNet-64,ResNet-128(64,128分別表示該網(wǎng)絡(luò)提取特征的維數(shù)). 將12種特征利用LSO-SVM進(jìn)行分類, 實驗結(jié)果列于表2. 由表2可見, 不同預(yù)訓(xùn)練模型在遙感影像場景分類中都取得了90%以上的分類效果, 表明卷積網(wǎng)絡(luò)可有效提取圖像的深度特征. 數(shù)據(jù)集UCM Land-Use中VGG-128取得的分類效果最好, 3種預(yù)訓(xùn)練模型隨著維度的增加均一定程度地提高了分類效果, VGG模型在該數(shù)據(jù)集上優(yōu)于其他模型. 數(shù)據(jù)集RSSCN7中ResNet-64取得的分類效果最好, GoogleNet和ResNet101模型隨著維度的增加, 均在一定程度上降低了分類效果, 該情況在ResNet101模型中體現(xiàn)的尤為明顯; 而VGG16模型仍然保持隨著維度的增加, 分類效果逐漸提升.
3.3 特征融合分析
利用CCV提取的顏色特征與GoogleNet-64,GoogleNet-128,VGG-64,VGG-128,ResNet-64,ResNet-128分別進(jìn)行自適應(yīng)特征融合. 生成的融合特征用維度后加C表示, 如GoogleNet-64C,GoogleNet-128C. 同時在不同數(shù)據(jù)集上選用不同的特征進(jìn)行融合, 在數(shù)據(jù)集UCM Land-Use上選用CCV,GoogleNet-128,ResNet-128, 而在數(shù)據(jù)集RSSCN7上則選用CCV,VGG-128,ResNet-64分別進(jìn)行特征融合獲取最終的兩個特征, 生成的特征用GR-C和VR-C表示. 將14種特征利用LSO-SVM進(jìn)行分類, 實驗結(jié)果列于表3.
由表3可見, 數(shù)據(jù)集UCM Land-Use中GoogleNet-64C,ResNet-64C,ResNet-128C相比于融合顏色特征之前分類精度分別提高0.48%,0.47%,0.95%, VGG-64C,VGG-128C分類精度保持不變, GoogleNet-128C分類精度相比之前略低; 數(shù)據(jù)集RSSCN7中除VGG-128C分類精度保持不變外, 其他融合特征的分類精度均一定程度高于原來的單一特征. 結(jié)果表明, 手工特征CCV作為卷積神經(jīng)網(wǎng)絡(luò)提取高級語義信息的一個淺層信息補(bǔ)充, 可有效提升深度特征的分類精度, 對于提升不同卷積神經(jīng)網(wǎng)絡(luò)的性能和不同遙感場景分類數(shù)據(jù)集的分類效果都具有顯著意義.
GR和VR在數(shù)據(jù)集UCM Land-Use和RSSCN7中的分類效果都優(yōu)于單一的卷積神經(jīng)網(wǎng)絡(luò)提取的深層特征. 結(jié)果表明, 不同卷積神經(jīng)網(wǎng)絡(luò)提取的特征具有較好的互補(bǔ)性. 因為不同卷積神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)是不一致的, 導(dǎo)致其網(wǎng)絡(luò)關(guān)注到的場景圖像特點具有差異性.
在GR-C和VR-C分別取得數(shù)據(jù)集UCM Land-Use和RSSCN7中最佳分類精度, 相比于GR和VR分別提高0.71%和0.36%. 結(jié)果表明, 手工提取的特征對于融合后的深度特征同樣具有信息補(bǔ)充的能力, 可有效提升特征對于圖像信息表達(dá)的能力.
為有效分析手工提取的特征和數(shù)據(jù)驅(qū)動的特征同時結(jié)合和分別使用的差異性, 通過兩個數(shù)據(jù)集在CCV,GR-C和VR-C的混淆矩陣進(jìn)行論證. 圖4和圖5分別為CCV在數(shù)據(jù)集UCM Land-Use和RSSCN7上的混淆矩陣, 圖6和圖7分別為GR-C和VR-C在數(shù)據(jù)集UCM Land-Use和RSSCN7上的混淆矩陣.
由圖4和圖5可見, CCV在數(shù)據(jù)集UCM Land-Use上建筑物、 密集住宅、 高爾夫球場、 中型住宅和稀疏住宅等類別分類性能較差, 數(shù)據(jù)集中場景圖像復(fù)雜的類別均達(dá)到平均分類精度; 在數(shù)據(jù)集RSSCN7上工業(yè)和田地兩個類別分類較差, 田地類別中錯誤分類的85.71%被誤分類到草地類別中, 工業(yè)類別中錯誤分類的81.25%被誤分類到居民區(qū)和停車場, 結(jié)果表明, CCV在面對復(fù)雜圖像和類間相似度高的類別分類中, 性能較差, 但對于簡單的場景圖像類別分類性能較好.
由圖6和圖7可見, 卷積神經(jīng)網(wǎng)絡(luò)提取的高級語言信息可極大彌補(bǔ)手工提取特征面對復(fù)雜場景圖像和類間相似度高時分類性能不佳的缺點. 結(jié)果表明, 手工提取的特征和基于數(shù)據(jù)驅(qū)動的特征分別使用時有一定程度的缺陷. 手工提取特征在面對復(fù)雜場景圖像、 類間相似性和類內(nèi)多樣性時, 難以表達(dá)完整的圖像信息, 而卷積神經(jīng)網(wǎng)絡(luò)在提取高級語義信息的同時丟失了淺層信息. 因此, 手工提取的特征和基于數(shù)據(jù)驅(qū)動的特征同時使用并結(jié)合, 可有效彌補(bǔ)二者的缺陷.
3.4 優(yōu)化SVM性能分析
選取不同的特征, 對比網(wǎng)格搜索優(yōu)化SVM(GS-SVM)、 粒子群優(yōu)化SVM(PSO-SVM)和LSO-SVM, 將3種不同優(yōu)化SVM算法在相同條件下對分類精度和運行時間進(jìn)行對比, 實驗結(jié)果分別列于表4和表5.
由表4和表5可見, 不同特征不同維度下, PSO-SVM相比于GS-SVM具有更優(yōu)的分類精度, 但運行時間較慢; LSO-SVM比GS-SVM和PSO-SVM在運行速度上分別提升約1倍和1.5倍; 在分類精度上比GS-SVM和PSO-SVM分別提高約0.5%和0.3%. 表明本文提出的LSO-SVM在分類精度和運行時間上均取得了更優(yōu)的效果.
3.5 分類方法分析
下面在數(shù)據(jù)集UCM Land-Use和RSSCN7上將本文方法與目前現(xiàn)有方法的分類精度進(jìn)行比較. 在數(shù)據(jù)集UCM Land-Use上采用ADPC-NET[27],[JP2]ResNet+attention[28],ECNN[9]和FACNN-fine tuning[29]方法進(jìn)行對比, 在數(shù)據(jù)集RSSCN7上采用CGDSN[30],UN CNN[31],SISCNN-C[32]和Attention[JP]CNN+H-GCN[33]方法進(jìn)行對比, 實驗結(jié)果列于表6. 由表6可見, 本文方法相比于目前現(xiàn)有方法在數(shù)據(jù)集UCM Land-Use和RSSCN7上均取得了更優(yōu)的分類精度.
綜上所述, 本文提出了一種基于深度學(xué)習(xí)與獅群優(yōu)化SVM算法的場景分類方法. 該方法利用遷移學(xué)習(xí)在小樣本下的實用性和SVM分類器在卷積網(wǎng)絡(luò)深層特征分類的優(yōu)越性, 有效解決了遙感圖像樣本量少導(dǎo)致分類精度較低的問題; 在遷移學(xué)習(xí)過程中, 采用多個預(yù)訓(xùn)練模型并提出加入不同的全連接層, 在增加圖像特征多樣性的同時, 降低了圖像特征維度, 有效提高了SVM運行速度; 在SVM優(yōu)化上首次提出獅群算法優(yōu)化的SVM, 在提高分類精度的同時大幅度縮短了運行時間.
參考文獻(xiàn)
[1]李若瑤, 張鉑, 王斌. 基于多層特征上下文編碼網(wǎng)絡(luò)的遙感圖像場景分類 [J]. 紅外與毫米波學(xué)報, 2021, 40(4): 530-538. (LI R Y, ZHANG B, WANG B. Remote Sensing Image Scene Classification Based on Multilayer Feature Context Coding Network [J]. Journal of Infrared and Millimeter Wave, 2021, 40(4): 530-538.)
[2]胡娟, 楊厚群, 杜欣然, 等. 小樣本學(xué)習(xí)在高分遙感影像分類與識別中的應(yīng)用 \[J]. 重慶郵電大學(xué)學(xué)報(自然科學(xué)版), 2022, 34(3): 410-422.
(HU J, YANG H Q, DU X R, et al. Application of Small Sample Learning in Classification and Recognition of High-Score Remote Sensing Images \[J]. Journal of Chongqing University of Posts and Telecommunications (Natural Science Edition), 2022, 34(3): 410-422.)
[3]賀琪, 張津源, 黃冬梅, 等. RA-ProtoNet: 基于元學(xué)習(xí)的小樣本遙感場景分類方法 \[J]. 激光與光電子學(xué)進(jìn)展, 2023, 60(10): 366-373. (HE Q, ZHANG J Y, HUANG D M, et al. RA-ProtoNet: Classification Method of Small-Sample Remote Sensing Scene Based on Meta-Learning \[J]. Progress in Laser and Optoelectronics, 2023, 60(10): 366-373.)
[4]郭艷, 宋佳珍, 馬麗, 等. 基于各類特征對齊遷移網(wǎng)絡(luò)的多時相遙感圖像分類 [J]. 地球科學(xué), 2021, 46(10): 3730-3739. (GUO Y, SONG J Z, MA L, et al. Classification of Multi-phase Remote Sensing Images Based on Various Feature-Aligned Migration Networks [J]. Earth Science, 2021, 46(10): 3730-3739.)
[5]ZHANG L, GAO X B. Transfer Adaptation Learning: A Decade Survey [J]. IEEE Transactions on Neural Networks and Learning Systems, 2022, 3: 1-22.
[6]伍洲, 楊寒石, 鄔俊俊, 等. 進(jìn)化遷移優(yōu)化算法綜述 \[J]. 計算機(jī)工程, 2023, 49(1): 1-14. (WU Z, YANG H S, WU J J, et al. Review of Evolutionary Migration Optimization Algorithms \[J]. Computer Engineering, 2023, 49(1): 1-14.)
[7]譚琨, 王雪, 杜培軍. 結(jié)合深度學(xué)習(xí)和半監(jiān)督學(xué)習(xí)的遙感影像分類進(jìn)展 [J]. 中國圖象圖形學(xué)報, 2019, 24(11): 1823-1841. (TAN K, WANG X, DU P J. Progress in Remote Sensing Image Classification Combining Deep Learning and Semi-supervised Learning [J]. Chinese Journal of Image and Graphics, 2019, 24(11): 1823-1841.)
[8]王彬, 趙作鵬. 基于雙流全卷積網(wǎng)絡(luò)的駕駛員姿態(tài)估計方法 \[J]. 江蘇大學(xué)學(xué)報(自然科學(xué)版), 2022, 43(2): 161-168.
(WANG B, ZHAO Z P. Driver Attitude Estimation Method Based on Dual-stream Fully Convolutional Network \[J]. Journal of Jiangsu University (Natural Science Edition), 2022, 43(2): 161-168.)
[9]余東行, 張保明, 趙傳, 等. 聯(lián)合卷積神經(jīng)網(wǎng)絡(luò)與集成學(xué)習(xí)的遙感影像場景分類 [J]. 遙感學(xué)報, 2020, 24(6): 717-727. (YU D X, ZHANG B M, ZHAO C, et al. Remote Sensing Image Scene Classification Based on Convolutional Neural Network and Integrated Learning [J]. Journal of Remote Sensing, 2020, 24(6): 717-727.)
[10]AMMOUR N, BASHMAL L, BAZI Y, et al. Asymmetric Adaptation of Deep Features for Cross-Domain Classification in Remote Sensing Imagery [J]. IEEE Geoscience and Remote Sensing Letters, 2018, 15(4): 597-601.
[11]HAN X B, ZHONG Y F, CAO L Q, et al. Pre-trained AlexNet Architecture with Pyramid Pooling and Supervision for High Spatial Resolution Remote Sensing Image Scene Classification [J]. Remote Sensing, 2017, 9: 848-870.
[12]TUN N L, GAVRILOV A, TUN N M, et al. Remote Sensing Data Classification Using a Hybrid Pre-trained VGG16 CNN-SVM Classifier [C]//IEEE Conference of Russian Young Researchers in Electrical and Electronic Engineering 2021. Piscataway, NJ: IEEE, 2021: 2171-2175.
[13]LIMA P D, MARFURT K. Convolutional Neural Network for Remote-Sensing Scene Classification: Transfer Learning Analysis [J]. Remote Sensing, 2020, 12(1): 86-101.
[14]易瑔, 張宇航, 宗艷桃, 等. 基于卷積神經(jīng)網(wǎng)絡(luò)的高光譜圖像分類算法綜述 \[J]. 電光與控制, 2023, 30(3): 70-77.
(YI Q, ZHANG Y H, ZONG Y T. Review of Hyperspectral Image Classification Algorithms Based on Convolutional Neural Networks \[J]. Electro-Optics amp; Control, 2023, 30(3): 70-77.)
[15]耿萬軒, 周維勛, 金雙根. 基于LDCNN特征提取的多核SVM高分辨率遙感影像場景分類 [J]. 測繪通報, 2021(8): 14-21. (GENG W X, ZHOU W X, JIN S G. Scene Classification of Multicore SVM High Resolution Remote Sensing Images Based on LDCNN Feature Extraction [J]. Bulletin of Surveying and Mapping, 2021(8): 14-21.)
[16]GIRSHICK R, DONAHUE J, DARRELL T, et al. Rich Feature Hierarchies for Accurate Object Detection and Semantic Segmentation [C]//IEEE Conference on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE, 2014: 580-587.
[17]SARA S Z, JOHN T. Building Classification from Lidar Data for Spatiotemporal Assessment of 3D Urban Developments [J]. Procedia Engineering, 2017, 180: 1453-1461.
[18]馬晨佩, 李明輝, 鞏強(qiáng)令, 等. 基于麻雀搜索算法優(yōu)化支持向量機(jī)的滾動軸承故障診斷 [J]. 科學(xué)技術(shù)與工程, 2021, 21(10): 4025-4029. (MA C P, LI M H, GONG Q L, et al. Fault Diagnosis of Rolling Bearings Based on Sparrow Search Algorithm Optimization Support Vector Machine [J]. Science Technology and Engineering, 2021, 21(10): 4025-4029.)
[19]LIU S J, YANG Y, ZHOU Y Q. A Swarm Intelligence Algorithm-Lion Swarm Optimization [J]. Pattern Recognition and Artificial Intelligence, 2018, 31(5): 431-441.
[20]PASCAL G. Automatic Color Enhancement (ACE) and Its Fast Implementation [J]. IPOL, 2012, 2: 266-277.
[21]MOSLEHI M, DE BARROS F P J. Using Color Coherence Vectors to Evaluate the Performance of Hydrologic Data Assimilation [J]. Water Resources Research, 2019, 55(2): 1717-1729.
[22]SZEGEDY C, LIU W, JIA Y Q, et al. Going Deeper with Convolutions [C]//IEEE Conference on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE, 2015: 1-9.
[23]KAREN S, ZISSERMAN A. Very Deep Convolutional Networks for Large-Scale Image Recognition [EB/OL]. (2015-04-10)[2022-02-10]. https://arxiv.org/abs/1409.1556.
[24]HE K M, ZHANG X G, REN S Q, et al. Deep Residual Learning for Image Recognition [C]//IEEE Conference on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE, 2016: 770-778.
[25]易芳吉, 鐘麗莎, 李章勇. 基于SVM分類器的癲癇腦電時空特征提取方法的研究 \[J]. 重慶郵電大學(xué)學(xué)報(自然科學(xué)版), 2022, 34(3): 444-450.
(YI F J, ZHONG L S, LI Z Y. Research on Spatiotemporal Feature Extraction Method of Epilepsy EEG Based on SVM Classifier \[J]. Journal of Chongqing University of Posts and Telecommunications (Natural Science Edition), 2022, 34(3): 444-450.)
[26]錢曉亮, 李佳, 程塨, 等. 特征提取策略對高分辨率遙感圖像場景分類性能影響的評估 [J]. 遙感學(xué)報, 2018, 22(5): 758-776. (QIAN X L, LI J, CHENG Y, et al. Evaluation of the Effect of Feature Extraction Strategy on the Classification Performance of High-Resolution Remote Sensing Images [J]. Journal of Remote Sensing, 2018, 22(5): 758-776.)
[27]BI Q, QIN K, ZHANG H. APDC-Net: Attention Pooling-Based Convolutional Network for Aerial Scene Classification [J]. IEEE Geoscience and Remote Sensing Letters, 2020, 17(9): 1603-1607.
[28]喬星星, 施文灶, 劉芫汐, 等. 基于ResNet雙注意力機(jī)制的遙感圖像場景分類 [J]. 計算機(jī)系統(tǒng)應(yīng)用, 2021, 30(8): 243-248. (QIAO X X, SHI W Z, LIU Y X, et al. Remote Sensing Image Scene Classification Based on ResNet Dual Attention Mechanism [J]. Computer System Application, 2021, 30(8): 243-248.)
[29]LU X Q, HAO S, ZHENG X T. A Feature Aggregation Convolutional Neural Network for Remote Sensing Scene Classification [J]. IEEE Transactions on Geoscience and Remote Sensing, 2019, 57(10): 7894-7906.
[30]鄧培芳, 徐科杰, 黃鴻. 基于CNN-GCN雙流網(wǎng)絡(luò)的高分辨率遙感影像場景分類 [J]. 遙感學(xué)報, 2021, 25(11): 2270-2282. (DENG P F, XU K J, HUANG H. Scene Classification of High-Resolution Remote Sensing Images Based on CNN-GCN Dual-current Network [J]. Journal of Remote Sensing, 2021, 25(11): 2270-2282.)
[31]徐風(fēng), 孫萬硯. 基于非對稱全局卷積神經(jīng)網(wǎng)絡(luò)的遙感圖像識別方法 [J]. 林業(yè)工程學(xué)報, 2020, 5(6): 137-142. (XU F, SUN W Y. Remote Sensing Image Recognition Method Based on Asymmetric Global Convolutional Neural Network [J]. Chinese Journal of Forestry Engineering, 2020, 5(6): 137-142.)
[32]方希祿, 付偉, 胡正言, 等. 基于隨機(jī)子圖像模型的遙感圖像分類 [J]. 計算機(jī)工程與應(yīng)用, 2020, 56(21): 204-209. (FANG X L, FU W, HU Z Y, et al. Classification of Remote Sensing Images Based on Random Sub-image Model [J]. Computer Engineering and Applications, 2020, 56(21): 204-209.)
[33]GAO Y, SHI J, LI J, et al. Remote Sensing Scene Classification Based on High-Order Graph Convolutional Network [J]. European Journal of Remote Sensing, 2021, 54(9): 1-15.
(責(zé)任編輯: 韓 嘯)
收稿日期: 2022-05-20.
第一作者簡介: 王李祺(1996—), 男, 漢族, 碩士研究生, 從事機(jī)器學(xué)習(xí)、 數(shù)字圖像處理與模式識別的研究, E-mail: 1023252901@qq.com. 通信作者簡介: 白艷萍(1962—), 女, 漢族, 博士," 教授, 從事現(xiàn)代優(yōu)化理論與方法、 神經(jīng)網(wǎng)絡(luò)算法及應(yīng)用的研究, E-mail:baiyp666@163.com.
基金項目: 國家自然科學(xué)基金(批準(zhǔn)號: 61774137), 山西省基礎(chǔ)研究計劃項目(批準(zhǔn)號: 202103021224195; 202103021224212; 202103021223189; 20210302123019)和山西省回國留學(xué)人員科研項目(批準(zhǔn)號: 2020-104; 2021-108).