李巖舟 何艷洲 覃鋒 錢萬強 吳媚 喬曦
摘要:互花米草的侵入對我國的生態(tài)系統多樣性造成了巨大損失,如何準確地識別零散斑塊的互花米草對其早期監(jiān)測及預警具有重要意義。采用低空無人機遙感技術,以廣西北海地區(qū)春季時期紅樹林中的互花米草為研究對象,利用AlexNet、VGG16、GoogleNet、ResNet50、EfficientNetB0五種卷積神經網絡,分別對包含互花米草、紅樹林及其他地物背景的圖像數據集進行模型的訓練、驗證與測試,然后將訓練好的五種網絡模型對整個試驗區(qū)域的互花米草及地物背景進行識別并標記,得到互花米草的分布圖?;诨煜仃嚭瓦\算時間的綜合定量評估結果表明,ResNet50網絡模型總體上優(yōu)于另外四種網絡模型,識別準確率最高,達到了96.96%,且在測試集上耗時僅為5.47 s。將識別結果圖與互花米草實際分布圖進行對比,ResNet50網絡模型的識別結果與互花米草的實際分布基本重合。
關鍵詞:無人機遙感;互花米草;卷積神經網絡;零散斑塊
中圖分類號:S451: TP391.4
文獻標識碼:A
文章編號:2095-5553 (2023) 04-0159-08
Abstract: The invasion of Spartina alterniflora has caused great losses to ecosystem diversity in China. How to accurately identify Spartina alterniflora in scattered patches is important for early monitoring and early warning. In this paper, low-altitude UAV remote sensing technology was used to study Spartina alterniflora in spring mangroves in Beihai area of Guangxi. Five convolutional neural networks including AlexNet, VGG16, GoogleNet, ResNet50 and EfficientNetB0 were used. Model training, validation and testing were carried out on image data sets containing Spartina alterniflora, mangrove and other ground object backgrounds respectively, then the cultivated five network models were used to identify and mark Spartina alterniflora and ground object backgrounds in the whole experiment area, obtaining the distribution map of Spartina alterniflora. The comprehensive quantitative evaluation results based on confusion matrix and operation time showed that ResNet50 network model was superior to the other four network models in general, with the highest recognition accuracy of 96.96%, and the test set took only 5.47 s. The identification results were compared with the actual distribution of Spartina alterniflora, and the identification results of ResNet50 network model basically coincided with the actual distribution of Spartina alterniflora.
Keywords: UAV remote sensing; Spartina alterniflora; convolutional neural network; scattered patches
0 引言
近年來,生態(tài)安全問題愈發(fā)突出,中國每年因生物入侵造成的經濟損失超2 000億元[1]。為遏制入侵物種的傳播,中國于2013年發(fā)布了《中國第一批外來入侵物種名單》,其中互花米草是僅有的海岸帶鹽沼植物[2]。
互花米草(Spartina alterniflora)原產于北美洲,具有抗擊風沙,保護河堤等優(yōu)點。出于保灘護岸的目的,我國于1979年從美國引進互花米草的幼苗和種子,并在福建省羅源灣進行試種實驗[3],其后在我國沿海地區(qū)開始推廣試種?;セ撞萃ㄟ^有性繁殖和無性繁殖來擴大種群,經過多年的擴散,已經廣泛分布到中國海岸潮間帶,對中國的濱海濕地生態(tài)系統的結構和功能造成嚴重影響[4-7]。根據文獻的記載,廣西最早于1979年在合浦縣丹兜海和廉州灣引種了互花米草[8]。陶艷成等[9]在前人研究的基礎上,基于衛(wèi)星影像對廣西互花米草的擴散現狀進行了監(jiān)測分析,得出互花米草正處于迅速擴張期,空間上呈現出自東向西擴散的結論。李麗鳳等[10]對廣西山口紅樹林保護區(qū)中互花米草和紅樹林之間的生存轉化關系進行研究,得出互花米草侵占灘涂的空間速度比紅樹林快的結論。如何快速準確地識別出互花米草早期的生長分布狀況,對于互花米草的精準防治具有重要的意義。
隨著計算機科學技術的發(fā)展,越來越多的機器學習方法應用于植物等對象的分類識別中。Chen等[11]利用深度學習卷積神經網絡SRCNN和FSRCNN對斑塊尺度上的互花米草進行監(jiān)測分析,提高了圖像的分辨率,特別是FSRCNN對識別和估算小斑塊的互花米草更為有效。原忠虎等[12]提出了一種基于改進的VGGNet模型,對外來入侵植物葉片進行識別,該模型可以有效地降低因葉片輪廓相近導致識別錯誤的問題。喬曦等[13]提出了基于卷積神經網絡的野外薇甘菊識別模型MicranthaNet,識別準確率達到了94.50%,且總耗時僅為10.369 s。安談洲等[14]基于卷積神經網絡模型,對油菜是否發(fā)生凍害進行識別,識別精度達到98.13%。Qian等[15]基于薇甘菊圖像數據,提出了一種深度卷積神經網絡模型——IAPsNet,該模型的識別準確率達到93.39%。
相較于人工踏查的方法,無人機效率更高。而對于衛(wèi)星遙感來說,受衛(wèi)星重訪周期的制約,遙感數據的獲取受到限制,同時對于零散斑塊入侵物種的監(jiān)測難以實現[16-17]。無人機作為一種新型的遙感平臺,靈活性較強,獲取的空間影像分辨率可輕松達到厘米級甚至毫米級,能夠彌補衛(wèi)星遙感空間分辨率不足的短板,采集成本低于衛(wèi)星遙感。Wan等[18]利用高空間分辨率的無人機對廣西北海的互花米草進行研究,彌補了中等空間衛(wèi)星圖像分辨率低下的不足。Mullerova等[19]以兩種具有明顯不同物候的草本物種為研究對象,對比無人機遙感和衛(wèi)星遙感情況,得出無人機能夠在所需的時間周期內,低成本靈活地獲取數據,非常適合目標檢測,而衛(wèi)星圖像適用更大區(qū)域范圍的結論。
基于以上文獻的分析,本文以無人機遙感的方式,基于深度學習方法,對廣西北海地區(qū)紅樹林中的互花米草進行研究,識別零散斑塊的互花米草,為后續(xù)互花米草的防治根除提供數據支撐。
1 試驗材料與方法
1.1 圖像采集
試驗樣本:試驗圖像數據采集于2021年3月24日,采集區(qū)位于廣西壯族自治區(qū)北海市銀海區(qū)竹林村,位置坐標信息為21°27′43.58″N,109°18′54.02″E。試驗器材:大疆御MAVIC MINI無人機航拍器。試驗數據采集方法:設置無人機的飛行高度為10 m,飛行速度為4.0 m/s,拍照模式設置為等間距拍照,相機朝向設置為平行于主航線,飛行航向重疊率設置為60%,旁向重疊率設置為60%,云臺俯仰角度設置為-90°,拍攝面積設置為40 m×80 m,拍攝模式為手動操作拍攝。
1.2 圖像數據處理
1.2.1 數據處理設備
Windows版本為Windows Server 2019Datacenter,基于x64的處理器,64位操作系統。處理器型號為Intel(R) Core(TM) i7-7700 CPU @3.60 GHZ,內存64.0 GB,顯卡型號為NVIDIA TITAN Xp。
1.2.2 數據處理方法
1)? 采集單張原始圖片共計1 200張,單張原始圖片像素大小為4 000像素×2 250像素。
2)? 用photoscan軟件拼接采集的圖片,生成正射影像,對拼接后的圖片進行裁剪,去掉與試驗無關的部分,最終得到圖片的像素大小為9 408像素×18 928像素。正射影像圖如圖1所示。
3)? 利用MATLAB2018軟件,對拼接后的大圖片進行分割,分割成112像素×112像素大小,得到14 196張圖片。
1.2.3 數據集制作
1)? 數據集的標簽分為四類,即互花米草、海欖雌(紅樹林)、灘涂、河堤。
2)? 從分割后的小照片中,隨機挑選出4 500張互花米草照片,4 500張紅樹林照片,500張灘涂圖片,500張河堤照片。由于灘涂和河堤照片較少,為了避免數據不平衡造成的影響,對灘涂和河堤照片進行數據增強,通過旋轉、剪切等,得到1 500張灘涂照片、1 500張河堤照片。
3) 把得到的互花米草、海欖雌、灘涂、河堤的數據集,按照6∶2∶2的比例,劃分成訓練集、驗證集、測試集。訓練集用于訓練網絡的模型,驗證集用于調整網絡模型的超參數,測試集用于檢驗訓練完成后的網絡模型。數據標簽圖像如圖2所示。
1.3 網絡模型選擇
用于分類任務的卷積神經網絡模型有很多,比如早期的LeNet、Alexnet、VGG、GoogleNet、ResNet、DenseNet等,以及最近幾年新發(fā)表的算法模型如MobileNet、ShuffleNet、EfficientNet等,網絡模型越來越小而精巧,模型的識別速度以及識別準確率越來越高。Abade等[20]對過去10年中選擇的121篇植物病蟲害識別等方面的論文進行統計,結果表明AlexNet、VGG、ResNet、LeNet、Inception V3、GoogleNet等網絡模型在之前的研究中使用較多。因此本文以前期研究中使用次數較多的網絡以及最近幾年新發(fā)表的網絡——AlexNet、VGG16、GoogleNet、ResNet50、EfficientNetB0作為識別互花米草的深度卷積神經網絡模型,通過調節(jié)網絡模型的學習率、訓練周期數、樣本批次大小等超參數,對互花米草進行圖像識別。
1.4 網絡結構
卷積神經網絡主要由輸入層、卷積層、池化層、全連接層、輸出層組成[21]。本文基于AlexNet[22]、VGG16[23]、GoogleNet[24]、ResNet50[25]、EfficientNetB0[26]五種卷積網絡模型對互花米草進行分類識別,應用于本次試驗的五種卷積網絡模型的結構及參數分別如表1~表5所示,通過試驗的對比,找出適合互花米草識別的網絡模型。
以模型在測試集上的運行時間作為網絡模型的識別效率,單位為秒。
2 模型訓練與結果分析
2.1 模型超參數選擇
在深度卷積神經網絡中,除了模型自身的結構以外,學習率(Learing rate)、訓練周期數(Epoch)、樣本批次大小(Batchsize)等超參數也會影響模型的收斂速度、訓練速度和泛化能力。超參數的設置,對模型訓練結果有相當大的影響。學習率如果設置過大,網絡模型通過反向傳播更新參數的過程中,可能會跳過使損失函數最小的參數值,使網絡模型陷入局部最小值;學習率如果設置過小,梯度下降的速度會變慢,參數更新的速度會變小,雖然隨著訓練周期數的增加網絡模型最終也會趨于收斂,但耗費的時間比較長,收斂速度比較慢。因此在訓練的過程中可以采用衰減學習率的策略,先給網絡模型一個較大的初始學習率,快速得到一個較優(yōu)的解,隨著訓練周期的增加,逐步減小學習率,使得模型在訓練的后期更加穩(wěn)定。一般情況下傾向于選擇相對較小的學習率,學習率選擇范圍在0.01~0.001,本文中,初始學習率設置為0.01,學習衰減率設置為0.85。同樣訓練周期如果設置過大,模型訓練的時間會變長,訓練速度變小,網絡模型收斂之后會上下震蕩,對準確率的提升沒有意義,浪費電腦資源;如果訓練周期設置過小,模型會在收斂之前停止訓練,得不到最優(yōu)的結果。樣本批次大小的設置對模型的訓練速度也有著較大影響,在一定范圍內,樣本批次設置越大,計算機設備的內存利用率越高,網絡模型訓練的速度會越快,樣本批次大小設置過大的話,對計算機的內存容量要求會更高,在一個訓練周期內,迭代次數會相應變小,對參數的更新會變得緩慢,通常樣本批次大小設置為2的冪次方,比如設置為32、64、128等。經過實際的驗證,將訓練周期設置為500,樣本批次大小設置為128,會得到一個較優(yōu)的網絡模型。
2.2 模型訓練情況分析
經過500個周期的訓練之后,網絡模型的訓練結果如圖3所示。
從圖3中可以看出,網絡模型在經歷500個訓練周期之后,損失函數值不再減小,訓練集準確率也不再上升,發(fā)生小幅度的振蕩,表示網絡模型均已達到收斂狀態(tài)。其中AlexNet、VGG16、GoogleNet、EfficientNetB0、ResNet50模型的訓練集最高準確率分別為84.23%、93.03%、96.32%、94.77%、98.03%,訓練集損失函數最小值分別為0.372、0.191、0.208、0.145、0.061。GoogleNet和ResNet50在訓練集上有較好的識別能力,識別準確率均達到了95%以上,而AlexNet在訓練集上的識別能力相對較差。訓練集的結果反映了網絡模型對訓練集樣本的識別能力。
2.3 模型測試情況分析
網絡模型在訓練集收斂之后,會保存一個最優(yōu)的訓練模型,分別把AlexNet、VGG16、GoogleNet、ResNet50、EfficientNetB0網絡模型的測試集喂入各自訓練好的神經網絡中,生成混淆矩陣,并且計算出各個網絡模型的識別準確率、精確率、召回率、F1-Score、識別效率,測試結果如表6所示。
從表6中可以看出,AlexNet、VGG16、GoogleNet、ResNet50、EfficientNetB0五種卷積神經網絡模型對四個類別總體識別準確率分別為83.75%、92.63%、93.21%、96.96%、93.50%。其中,ResNet50網絡模型測試準確率最高,表現出網絡模型具有較好的分類識別能力和模型泛化能力以及具有較好的魯棒性;在互花米草的識別上,ResNet50網絡模型識別的精確率為97.61%,召回率為95.22%,F1-Score為96.40%,相比于另外四種網絡,ResNet50對互花米草的識別精度和能力都是最好。在海欖雌的識別上,EfficientNetB0網絡模型識別的精確率為99.66%,ResNet50網絡模型識別的精確率為99.00%,略低于EfficientNetB0,而其召回率為99.22%,F1-Score為99.11%,均優(yōu)于另外四種卷積網絡模型。在灘涂的識別上,ResNet50網絡模型識別的精準率、召回率、F1-Score分別為88.47%,94.67%,91.47%,在對河堤的識別上,ResNet50網絡模型識別的精準率、召回率、F1-Score分別為97.99%,97.67%,97.83%,是五種模型中識別結果最優(yōu)的網絡模型。
從識別效率上來看,AlexNet、VGG16、GoogleNet、ResNet50、EfficientNetB0五種卷積神經網絡模型在測試集上的運行時間分別為2.67 s、4.41 s、4.62 s、5.47 s、5.59 s。AlexNet網絡所用的時間最少,識別效率最高;EfficientNetB0網絡所用時間最多,效率最低;ResNet50網絡運行時間略高于VGG16、GoogleNet,僅相差1 s左右。單從識別效率來看,應選用AlexNet網絡作為最終的網絡模型,但是AlexNet網絡模型識別準確率較低,不利于互花米草的識別,而ResNet50網絡模型識別準確率較高,運行時間也較為不錯,有利于互花米草的快速識別。
因此,綜合識別準確率和識別效率來說,ResNet50神經卷積網絡模型對互花米草的識別結果較好。
2.4 識別結果顯示
將前期分割好的14 196張像素大小為112×112的圖片,分別喂入訓練好的五種深度卷積神經網絡模型中,讓模型對其進行分類識別,并將識別出的互花米草的顏色進行紅色標記,最后將經過顏色標記的圖像拼接,得到互花米草的分布圖。結果如圖4所示。
從圖4中可以直觀地看出互花米草大致的分布狀況,通過識別結果圖的展示,表明網絡模型對互花米草的識別分類具有可行性,將識別結果圖與互花米草實際分布圖相比較,通過局部圖的展示,可以看出ResNet50網絡模型的識別結果與互花米草的實際分布較為重合。
2.5 識別差異分析
從圖4中可以看出,ResNet50卷積神經網絡模型識別出來的結果局部與實際存在不一致的情況。把模型識別結果與人工識別結果不一致的圖片挑出一部分,作進一步的分析,識別結果不一致的圖片如圖5所示。
從圖5中可以看出,在互花米草訓練集挑選過程中,把既包含有互花米草又含有紅樹林的圖片,分成互花米草照片,當把這些圖片喂入神經網絡進行訓練時,模型在提取圖片特征時,除了提取互花米草的特征,也會提取海欖雌的特征,作為識別互花米草的依據,當模型對新的數據集分類識別時,模型有可能會把海欖雌的特征當作互花米草,造成結果不一致的現象。同樣對灘涂的識別情況也是如此,在挑選互花米草數據集的過程中,把既有灘涂又有互花米草的圖片,人為分成互花米草,把訓練好的模型應用于新的數據集,識別結果出現偏差。針對這種錯誤,在后續(xù)的過程中,重新挑選數據集,挑選的圖片中只包含單一的類別,同時繼續(xù)采集識別物種的圖片信息,擴大數據集,不斷的優(yōu)化卷積神經網絡模型,從而提高識別準確率。
3 討論
隨著無人機技術的不斷更新和深度學習技術的發(fā)展,越來越多的圖像識別技術用于入侵植物的檢測中。本文通過對文獻的調研分析,選擇AlexNet、VGG16、GoogleNet、ResNet50、EfficientNetB0五種卷積神經網絡,用于對互花米草的識別監(jiān)測,研究結果表明ResNet50網絡模型對互花米草的識別效果較好,然后又分析了網絡模型與識別結果不一致的原因,通過查看訓練數據集,在挑選互花米草數據集的過程中,把包含多個類別種類的照片歸為了互花米草,深度學習網絡模型在提取圖片特征的過程中,也會提取多個類別的特征當作互花米草,在對新的數據集識別時,出現結果不一致的現象。雖然本次試驗取得了良好的試驗結果,但是還存在一些不足,在采集圖片的過程中,天氣因素也占有一部分影響,當太陽光線比較強時,拍攝的照片會反光,當有風天氣時,拍攝的照片會模糊不清,這些因素都會影響模型對互花米草的識別能力。與此同時,對于不同季節(jié)、不同地區(qū)的互花米草,ResNet50網絡模型是否也有一個較好的識別能力,除了這五種卷積網絡模型,是否還有比ResNet50網絡更優(yōu)秀的模型用于互花米草的分類識別,這是一個值得后續(xù)探討的問題。
4 結論
1)? 基于低空無人機遙感技術,通過選用五種卷積神經網絡模型——AlexNet、VGG16、GoogleNet、ResNet50、EfficientNetB0應用于春季時期紅樹林中零散斑塊互花米草的識別,結果顯示ResNet50網絡模型在訓練集上識別準確率達到了98.03%,在測試集中識別準確率達到了96.96%,同時在測試集上對互花米草識別的精確率、召回率、F1-Score都是最高,表現出較好的魯棒性和泛化性,具有較好的識別效果,可以為小面積互花米草的識別與防治提供資料。
2)? ResNet50網絡模型在測試集上的運行時間為5.47 s,比VGG16、GoogleNet網絡模型略高于1 s左右,比AlexNet網絡模型高于2.80 s,比EfficientNetB0網絡模型低于0.12 s。識別效率雖然不是五個網絡模型中最高,但是運行時間也較為不錯,綜合識別準確率來看,以訓練好的ResNet50卷積網絡模型作為最終模型。
3)? 將訓練好的網絡模型對互花米草進行識別時,會出現識別結果圖與實際分布圖局部存在不一致的現象,這種現象是由數據集中互花米草的不同劃分情況造成的。
4) 本次試驗所選用的網絡模型還可以為后續(xù)同一地點不同時期的互花米草識別研究及同一時期不同地點互花米草的識別研究提供借鑒與參考。
參 考 文 獻
[1] 李大林. 我國每年因外來生物入侵經濟損失超兩千億元[J]. 廣西質量監(jiān)督導報, 2014(11): 30.
[2] 朱玉玲. 基于深度學習分類方法的山東省外來入侵物種互花米草遙感監(jiān)測與分析[D]. 青島: 自然資源部第一海洋研究所, 2020.
[3] 徐國萬, 卓榮宗, 曹豪, 等. 互花米草生物量年動態(tài)及其與灘涂生境的關系[J]. 植物生態(tài)學報, 1989, 13(3): 230-235.
Xu Guowan, Zhuo Rongzong, Cao Hao, et al. Annual changes of biomass of Spartina alterniflora and the relationships between biomass and tidal land habits [J]. Chinese Journal Plant Ecology, 1989, 13(3): 230-235.
[4] 汪秀巖, 周宇鵬, 薛雨霏, 等. 高低緯度種源互花米草種子萌發(fā)特性及其對溫度的響應[J]. 生態(tài)學雜志, 2021, 40(9): 2763-2772.
Wang Xiuyan, Zhou Yupeng, Xue Yufei, et al. Seed germination characteristics of Spartina alterniflora from high and low latitude populations in relation to temperature [J]. Chinese Journal of Ecology, 2021, 40(9): 2763-2772.
[5] 趙欣怡. 基于時序光學和雷達影像的中國海岸帶鹽沼植被分類研究[D]. 上海: 華東師范大學, 2020.
[6] 解雪峰, 孫曉敏, 吳濤, 等. 互花米草入侵對濱海濕地生態(tài)系統的影響研究進展[J]. 應用生態(tài)學報, 2020, 31(6): 2119-2128.
Xie Xuefeng, Sun Xiaomin, Wu Tao, et al. Impacts of Spartina alterniflora invasion on coastal wetland ecosystem: Advances and prospects [J]. Chinese Journal of Applied Ecology, 2020, 31(6): 2119-2128.
[7] 王卿, 安樹青, 馬志軍, 等. 入侵植物互花米草——生物學、生態(tài)學及管理[J]. 植物分類學報, 2006(5): 559-588.
Wang Qing, An Shuqing, Ma Zhijun, et al. Invasive Spartina alterniflora: Biology, ecology and management [J]. Acta Phytotaxonomica Sinica, 2006(5): 559-588.
[8] 鄧必玉, 吳玲巧, 秦旭東, 等. 廣西紅樹林主要外來植物現狀及防控對策研究[J]. 林業(yè)調查規(guī)劃, 2020, 45(4): 54-60.
Deng Biyu, Wu Lingqiao, Qin Xudong, et al. Current situation and control measures of exotic plants in mangrove forest of Guangxi [J]. Forest Inventory and Planning, 2020, 45(4): 54-60.
[9] 陶艷成, 潘良浩, 范航清, 等. 廣西海岸潮間帶互花米草遙感監(jiān)測[J]. 廣西科學, 2017, 24(5): 483-489.
Tao Yancheng, Pan Lianghao, Fan Hangqing, et al. Remote sensing monitoring of Spartina alterniflora in coastal intertidal zone of Guangxi [J]. Guangxi Sciences, 2017, 24(5): 483-489.
[10] 李麗鳳, 劉文愛, 陶艷成, 等. 廣西山口紅樹林保護區(qū)互花米草擴散動態(tài)及其驅動力[J]. 生態(tài)學報, 2021, 41(17): 6814-6824.
Li Lifeng, Liu Wenai, Tao Yancheng, et al. Diffusion dynamics and driving forces of Spartina alterniflora in the Guangxi Shankou Mangrove Reserve [J]. Acta Ecologica Sinica, 2021, 41(17): 6814-6824.
[11] Chen M, Ke Y, Bai J, et al. Monitoring early stage invasion of exotic Spartina alterniflora using deep-learning super-resolution techniques based on multisource high-resolution satellite imagery: A case study in the Yellow River Delta, China [J]. International Journal of Applied Earth Observation and Geoinformation, 2020, 92.
[12] 原忠虎, 王維, 蘇寶玲. 基于改進VGGNet模型的外來入侵植物葉片識別方法[J]. 計算機與現代化, 2021(9): 7-11.
Yuan Zhonghu, Wang Wei, Su Baoling. Leaf recognition method of invasive alien plants based on improved VGGNet model [J]. Computer and Modernization, 2021(9): 7-11.
[13] 喬曦, 錢萬強, 樊偉, 等. 基于深度學習的野外薇甘菊圖像識別[C]. 第五屆全國入侵生物學大會——入侵生物與生態(tài)安全, 2018.
[14] 安談洲, 李俐俐, 張瑞杰, 等. 無人機遙感及深度學習在油菜凍害識別中的應用研究[J]. 中國油料作物學報, 2021, 43(3): 479-486.
An Tanzhou, Li Lili, Zhang Ruijie, et al. Application research of unmanned aerial vehicle remote sensing and deep learning in identification of freezing injury in rapeseed [J]. Chinese Journal of Oil Crop Sciences, 2021, 43(3): 479-486.
[15] Qian W, Huang Y, Liu Q, et al. UAV and a deep convolutional neural network for monitoring invasive alien plants in the wild [J]. Computers and Electronics in Agriculture, 2020, 174.
[16] 劉凱, 龔輝, 曹晶晶, 等. 基于多類型無人機數據的紅樹林遙感分類對比[J]. 熱帶地理, 2019, 39(4): 492-501.
Liu Kai, Gong Hui, Cao Jingjing, et al. Comparison of mangrove remote sensing classification based on multi-type UAV data [J]. Tropical Geography, 2019, 39(4): 492-501.
[17] 孫中宇, 荊文龍, 喬曦, 等. 基于無人機遙感的盛花期薇甘菊爆發(fā)點識別與監(jiān)測[J]. 熱帶地理, 2019, 39(4): 482-491.
Sun Zhongyu, Jing Wenlong, Qiao Xi, et al. Identification and monitoring of blooming Mikania micrantha outbreak points based on UAV remote sensing [J]. Tropical Geography, 2019, 39(4): 482-491.
[18] Wan H W, Wang Q, Jiang D, et al. Monitoring the invasion of Spartina alterniflora using very high resolution unmanned aerial vehicle imagery in Beihai, Guangxi (China) [J]. Scientific World Journal, 2014.
[19] Mullerova J, Bruna J, Bartalos T, et al. Timing is important: Unmanned aircraft vs. satellite imagery in plant invasion monitoring [J]. Front Plant Sci, 2017, 8: 887.
[20] Abade A, Ferreira P A, De Barros Vidal F. Plant diseases recognition on images using convolutional neural networks: A systematic review [J]. Computers and Electronics in Agriculture, 2021, 185.
[21] 黃亦其, 劉琪, 趙建曄, 等. 基于深度卷積神經網絡的紅樹林物種無人機監(jiān)測研究[J]. 中國農機化學報, 2020, 41(2): 141-146, 189.
Huang Yiqi, Liu Qi, Zhao Jianye, et al. Research on unmanned aerial surveillance of mangrove species based on deep convolutional neural network [J]. Journal of Chinese Agricultural Mechanization, 2020, 41(2): 141-146, 189.
[22] Krizhevsky A, Sutskever I, Hinton G. ImageNet classification with deep convolutional neural networks [C]. NIPS, 2012.
[23] Simonyan K, Zisserman A. Very deep convolutional networks for large-scale image recognition [J]. Computer Science, 2014.
[24] Szegedy C, Liu W, Jia Y, et al. Going deeper with convolutions [J]. CoRR, 2014, abs/1409.4842.
[25] He K, Zhang X, Ren S, et al. Deep residual learning for image recognition [J]. IEEE, 2016.
[26] Tan M X, Le Q V. EfficientNet: Rethinking model scaling for convolutional neural networks [C]. 36th International Conference on Machine Learning (ICML), 2019.