馬俊偉 陳鵬飛 孫 毅 谷 健 王李娟
基于無人機多光譜影像和機器學習方法的玉米葉面積指數(shù)反演研究
馬俊偉1,2陳鵬飛2,4,*孫 毅3谷 健3王李娟1,*
1江蘇師范大學地理測繪與城鄉(xiāng)規(guī)劃學院, 江蘇徐州 221116;2中國科學院地理科學與資源研究所 / 資源與環(huán)境信息系統(tǒng)國家重點實驗室, 北京 100101;3中國科學院沈陽應用生態(tài)研究所, 遼寧沈陽 110016;4江蘇省地理信息資源開發(fā)與利用協(xié)同創(chuàng)新中心, 江蘇南京 210023
為實現(xiàn)基于機器學習方法和無人機影像的葉面積指數(shù)(leaf area index, LAI)準確估測。本研究對比了人工神經(jīng)網(wǎng)絡(luò)法(Artificial Neural Network algorithm, ANN)、高斯過程回歸法(Gaussian Process Regression algorithm, GPR)、支持向量回歸法(Support Vector Regression algorithm, SVR)和梯度提升決策樹法(Gradient Boosting Decision Tree, GBDT)等幾種主流的機器學習方法在基于無人機影像的玉米LAI反演中的優(yōu)劣。為此, 開展了不同有機肥、無機肥、秸稈還田以及種植密度處理的玉米田間試驗, 在不同生育期獲取了無人機多光譜影像和LAI數(shù)據(jù)?;谶@些數(shù)據(jù), 首先通過相關(guān)性分析, 選擇對LAI敏感的光譜指數(shù)作為估測變量, 然后分別耦合偏最小二乘法(Partial Least Squares Regression, PLSR)和ANN、GPR、SVR、GBDT建立LAI反演模型, 并對它們進行對比分析。結(jié)果表明, PLSR+GBDT法構(gòu)建的LAI反演模型精度最高, 穩(wěn)定性最好, 建模cal2和RMSEcal為0.90和0.25, 驗證val2和RMSEval為0.90和0.29; 與PLSR+GBDT模型結(jié)果最接近的是基于PLSR+GPR法建立的模型, 其建模cal2和RMSEcal為0.86和0.30, 驗證val2和RMSEval為0.89和0.29, 且具有訓練速度快, 并能給出反演結(jié)果不確定度的優(yōu)勢; PLSR+ANN法的建模cal2和RMSEcal為0.85和0.31, 驗證val2和RMSEval為0.89和0.30; PLSR+SVR法的建模cal2和RMSEcal為0.86和0.32, 驗證val2和RMSEval為0.90和0.33。因此, PLSR+GBDT法和PLSR+GPR法被推薦作為玉米LAI反演模型構(gòu)建的最優(yōu)方法。
葉面積指數(shù); 機器學習; 無人機; 多光譜影像; 玉米
葉面積指數(shù)(leaf area index, LAI)定義為單位土地面積上植物單面葉片面積的總和[1]。LAI是反映植物群體大小的良好指標, 與植物生長狀況及光合作用能力密切相關(guān)[2], 被廣泛應用于作物長勢評估。玉米是重要的糧食和飼料作物, 在保障糧食安全中具有重要地位[3]。因此, 實現(xiàn)玉米LAI的快速、無損探測, 對其長勢監(jiān)測和產(chǎn)量預測具有重要意義。
遙感技術(shù)可實現(xiàn)作物生理、生化參數(shù)的快速、無損探測[4-6]。將遙感技術(shù)應用于LAI估測, 能有效彌補傳統(tǒng)LAI估測方法耗時、耗力的不足, 實現(xiàn)作物長勢的動態(tài)監(jiān)測。近年來, 隨著無人機與傳感器技術(shù)的發(fā)展, 無人機遙感技術(shù)以具有機動靈活、可獲取高時空分辨率影像、低成本等優(yōu)勢[7], 被逐漸應用到農(nóng)情監(jiān)測中, 成為現(xiàn)代精準農(nóng)業(yè)研究的重要手段之一[8-9]。在利用無人機遙感技術(shù)進行LAI估算方面, 主要有經(jīng)驗模型法和物理模型法。經(jīng)驗模型法是直接基于統(tǒng)計學方法來建立影像光譜信息與LAI間的定量關(guān)系模型, 利用模型對目標區(qū)域LAI進行預測的方法[10]。該方法易于實現(xiàn), 但也存在模型由于缺乏機理性解釋, 需要大量樣本對模型進行重復訓練的問題[11]。結(jié)合葉片光學模型與冠層模擬模型, 可實現(xiàn)以植被生理、生化參數(shù)信息等作為輸入來模擬冠層光譜反射率。物理模型法基于其逆向過程實現(xiàn)植被生理、生化參數(shù)的反演[12]。該方法的優(yōu)點是具有較好的物理性解釋, 但同時也存在著模型復雜, 所需輸入?yún)?shù)多, 容易產(chǎn)生病態(tài)反演的問題[13]。總體來說, 經(jīng)驗模型法還是當前實踐中應用最多的方法。
經(jīng)驗模型法既包括了光譜指數(shù)法(Spectral Index, SI)、偏最小二乘法(Partial Least Squares Regression, PLSR)、主成分回歸法(Principal Component Regression, PCR)等傳統(tǒng)數(shù)據(jù)分析方法, 也包括人工神經(jīng)網(wǎng)絡(luò)法(Artificial Neural Network, ANN)、支持向量回歸法(Support Vector Regression, SVR)、梯度提升決策樹法(Gradient Boosting Decison Tree, GBDT)等機器學習方法。當前, 已有大量研究開展了基于機器學習方法的LAI反演工作, 如Liu等[14]基于無人機多光譜影像數(shù)據(jù), 利用GBDT反演了玉米LAI; 基于無人機高光譜影像, Yuan等[15]利用ANN構(gòu)建了大豆LAI反演模型; 利用SVR法, Shi等[16]分別基于茶園紅豆、綠豆的無人機多光譜影像建立了LAI反演模型。高斯過程回歸法(Gaussian Process Regression, GPR)作為近年來新興的機器學習方法, 具有結(jié)構(gòu)簡單、參數(shù)少、訓練快等優(yōu)點[17-18]。目前, 利用GPR法進行玉米LAI反演的研究較為少見。此外, 已有研究表明耦合PLSR與機器學習方法, 以PLSR的潛在變量作為機器學習方法的輸入, 比單獨利用2種方法會取得更優(yōu)的作物參數(shù)估測效果[19-20]。因此, 耦合PLSR, 比較GPR與其他機器學習方法在玉米LAI反演中的優(yōu)劣, 為用戶提供最優(yōu)方法具有重要意義。
本研究通過開展田間試驗以獲取不同生長條件下玉米植株, 并在玉米多個生育期獲取無人機影像和LAI數(shù)據(jù), 分別基于PLSR 耦合ANN、GPR、SVR、GBDT法構(gòu)建LAI反演模型, 并進行對比分析, 以期實現(xiàn)玉米LAI高精度反演, 進而為田間精準管理提供支撐。
內(nèi)蒙古自治區(qū)東四盟地區(qū)是我國重要的黑土區(qū)之一, 是重要的玉米生產(chǎn)基地。試驗于2022年在扎蘭屯市大河灣農(nóng)場(47°54'2"N, 123°1'33"E)開展(圖1)。該區(qū)域?qū)儆跍貛О霛駶櫞箨懶约撅L氣候區(qū), 土壤肥沃, 光照充足。研究區(qū)共設(shè)70個小區(qū), 玉米品種為“華慶6號”, 包括4個不同處理的田間試驗, 分別為: 無機肥用量、有機肥用量、秸稈還田量和種植密度試驗。此外, 試驗還設(shè)置2個無肥小區(qū)(施肥水平為T0: 0 kg hm–2)、2個穩(wěn)定性復合肥小區(qū)(施肥水平為T1: N-P2O5-K2O比例為26-10-12的穩(wěn)定性復合肥750 kg hm–2)。其中, 無機肥用量試驗: N設(shè)4 個施肥水平, 分別為N1: 150 kg hm–2、N2: 180 kg hm–2、N3: 210 kg hm–2、N4: 240 kg hm–2; P2O5設(shè)3個施肥水平, 分別為P1: 60 kg hm–2、P2: 75 kg hm–2、P3: 90 kg hm–2; K2O設(shè)3個施肥水平, 分別為K1: 75 kg hm–2、K2: 90 kg hm–2、K3: 105 kg hm–2。有機肥用量試驗設(shè)5個水平, 分別為O1: 0 kg hm–2、O2: 22,500 kg hm–2、O3: 37,500 kg hm–2、O4: 45,000 kg hm–2、O5: 52,500 kg hm–2; 種植密度試驗設(shè)5個水平, 分別為D1: 50,000株 hm–2、D2: 55,000株 hm–2、D3: 60,000株 hm–2、D4: 62,000株 hm–2、D5: 64,000株 hm–2。秸稈還田量試驗設(shè)5個水平, 分別為R1: 0 kg hm–2、R2: 3000 kg hm–2、R3: 4500 kg hm–2、R4: 6000 kg hm–2、R5: 7500 kg hm–2。各處理均設(shè)2個重復。除上述處理措施有差異外, 有機肥、秸稈還田以及種植密度試驗均施N-P2O5-K2O比例為26-10-12的穩(wěn)定性復合肥750 kg hm–2, 其余各項田間管理措施相同。
分別于玉米四葉期(6月28日)和九葉期(7月15日)進行無人機影像獲取和田間采樣。
1.2.1 無人機影像獲取 本研究基于尾座式垂直起降固定翼無人機和Micasense Altum多光譜相機(MicaSense, 美國)組成遙感平臺進行玉米多光譜影像獲取。相比固定翼無人機和多旋翼無人機, 尾座式垂直起降固定翼無人機兼具旋翼無人機對場地要求低和固定翼無人機續(xù)航時間長、速度快的優(yōu)勢。本研究應用了Altum相機的可見–近紅外區(qū)域的相關(guān)波段, 各波段的中心波長和波寬參數(shù)如表1所示。為保證數(shù)據(jù)的可靠性, 無人機飛行時間選擇為10:00—14:00中天氣晴朗無云時進行, 設(shè)置飛行高度為150 m, 航向重疊度為75%, 旁向重疊度為75%。無人機飛行前, 對灰板進行拍照以用于將獲取影像的DN值轉(zhuǎn)化為反射率。另外, 在田間均勻布設(shè)46個控制點, 基于厘米級誤差差分GPS天寶GEO 7X (Trimble, 美國)獲取控制點經(jīng)、緯度信息。Pix4Dmapper軟件(Pix4D, 瑞士)用于對無人機獲取的多光譜影像進行拼接處理; ArcGIS軟件(Esri, 美國)用于基于控制點對無人機影像進行幾何精校正。
圖1 研究區(qū)位置及田間小區(qū)分布情況
N1: 150kghm–2, N2: 180kghm–2, N3: 210kghm–2, N4: 240kghm–2; P1: 60kghm–2, P2: 75kghm–2, P3: 90kghm–2;K1: 75kghm–2, K2: 90kghm–2, K3: 105kghm–2;O1: 0kghm–2, O2: 22,500kghm–2, O3: 37,500kghm–2, O4: 45,000kghm–2, O5: 52,500kghm–2;D1: 50,000 plant hm–2, D2: 55,000 plant hm–2, D3: 60,000 plant hm–2, D4: 62,000 plant hm–2, D5: 64,000 plant hm–2;R1: 0kghm–2, R2: 3000kghm–2, R3: 4500kghm–2, R4: 6000kghm–2, R5: 7500kghm–2; T0: 0 kg hm–2, T1: 750 kg hm–2.
1.2.2 田間采樣 無人機飛行后, 在每個小區(qū)選擇長勢均勻一致的區(qū)域作為樣點, 先基于GEO 7X獲取各個小區(qū)樣點的經(jīng)、緯度信息, 再采用LAI 2200植物冠層分析儀(LI-COR Inc., 美國)進行玉米LAI測定。
光譜指數(shù)通過將光譜波段進行組合, 以消除背景干擾并提高對目標參量的敏感性。許多研究直接基于其來反演植被LAI[21]。因此, 本研究首先基于無人機影像, 以各個小區(qū)樣點位置為中心, 種植行間距為半徑, 提取圓內(nèi)所有像元光譜反射率并求均值作為各樣點玉米冠層光譜反射率, 然后計算20種常見用于反演LAI的光譜指數(shù)(表2), 分析光譜指數(shù)與LAI的相關(guān)性, 篩選出與LAI相關(guān)性高的光譜指數(shù)。其次, 為消除變量間的共線性, 同時減少輸入變量的個數(shù), 將篩選的光譜指數(shù)先標準化到[–1,1]以消除變量間數(shù)量級差異, 然后將標準化好的數(shù)據(jù)輸入PLSR中以獲取對應的潛在變量, 并選擇能代表總信息量98%以上信息的潛在變量作為機器學習方法的輸入(本研究選擇的潛在變量數(shù)為6); 最后, 以選擇的潛在變量為輸入, 分別使用ANN、GPR、SVR、GBDT建立玉米LAI反演模型, 并對4種方法建模的優(yōu)、劣進行對比分析。總體技術(shù)路線圖如圖2所示, 各種方法具體建模過程詳細描述見后。本研究使用Matlab2020a (MathWorks Inc., 美國)編程實現(xiàn)各模型的建模與驗證過程。在建模過程中, 基于獲取的2期樣本數(shù)據(jù), 分別按2︰1的比例等間隔選取樣本作為建模樣本和驗證樣本, 共獲得94個建模樣本, 46個驗證樣本。利用建模樣本構(gòu)建LAI反演模型, 然后使用驗證樣本進行模型的驗證。所有方法都基于相同的建模數(shù)據(jù)集和驗證數(shù)據(jù)集, 分別采用建模決定系數(shù)(cal2)、均方根誤差(RMSEcal)及驗證決定系數(shù)(val2)、均方根誤差(RMSEval)作為建模和外部驗證的精度評價指標。
表1 Altum多光譜相機的可見-近紅外譜區(qū)波段相關(guān)參數(shù)信息
表2 本研究選取的光譜指數(shù)
(續(xù)表2)
1.3.1 PLSR+ANN模型法 ANN法是20世紀80年代迅速發(fā)展起來的一種機器學習算法, 其由一個輸入層、多個隱含層以及一個輸出層構(gòu)成, 通過梯度下降和反向傳播算法進行反復訓練獲取最優(yōu)模型參數(shù), 能夠處理輸入和輸出變量之間的任何線性或非線性關(guān)系[42]。本研究采用的是包含輸入層、1個隱含層和輸出層的3層BP神經(jīng)網(wǎng)絡(luò)算法。已有研究表明這是一種高效的神經(jīng)網(wǎng)絡(luò)算法[43]。構(gòu)建ANN模型時, 以選擇的PLSR潛在變量為輸入, 首先使用留一交叉檢驗法, 以cv2最大, RMSEcv最小為原則, 來確定ANN模型隱含層節(jié)點數(shù)、輸入層到隱含層激活函數(shù)、隱含層到輸出層激活函數(shù)等參數(shù)。其中, 隱含層節(jié)點數(shù)設(shè)置為1~5, 以1為步長變化; 輸入層到隱含層和隱含層到輸出層的激活函數(shù)可選擇為tansig函數(shù)、logsig函數(shù)和purelin函數(shù)3種類型。其次, 利用建模數(shù)據(jù)集所有樣本來基于選定的潛在變量、最優(yōu)隱含層節(jié)點數(shù)、輸入層到隱含層激活函數(shù)和隱含層到輸出層激活函數(shù)來訓練網(wǎng)絡(luò)模型。最后, 基于驗證數(shù)據(jù)集所有樣本來對構(gòu)建的模型進行驗證。
1.3.2 PLSR+GPR模型法 GPR法是由Rasmussen和William[44]提出的一種非參數(shù)回歸模型,通過假設(shè)訓練樣本為高斯過程的采樣, 利用先驗的均值函數(shù)和核函數(shù)基于樣本進行訓練, 并根據(jù)訓練樣本定義似然函數(shù), 利用貝葉斯理論得出目標的后驗分布, 以此來進行預測。在構(gòu)建GPR模型時, 首先基于建模數(shù)據(jù)集, 以選擇的PLSR潛在變量為輸入, 采用留一交叉檢驗法, 以cv2最大, RMSEcv最小為原則, 來確定核函數(shù)類型。其中, 核函數(shù)類型可選擇為指數(shù)(Exponential)核函數(shù)、平方指數(shù)(Squaredexponential)核函數(shù)、Matern3/2核函數(shù)、Matern5/2核函數(shù)、有理二次(Rationalquadratic)核函數(shù)、自動相關(guān)確定指數(shù)(Ardexponential)核函數(shù)、自動相關(guān)確定平方指數(shù)核函數(shù)(Ardsquaredexponential)、自動相關(guān)確定Matern3/2 (Ardmatern3/2)核函數(shù)、自動相關(guān)確定Matern5/2 (Ardmatern5/2)核函數(shù)、自動相關(guān)確定有理二次(Ardrationalquadratic)核函數(shù)。其次, 利用所有建模數(shù)據(jù)集樣本, 基于選定的潛在變量、核函數(shù)來訓練模型; 最后, 基于所有驗證數(shù)據(jù)集樣本來對構(gòu)建的模型進行驗證。
圖2 基于不同方法的LAI反演模型構(gòu)建技術(shù)路線圖
1.3.3 PLSR+SVR模型法 SVR法通過建立最優(yōu)決策超平面來進行樣本數(shù)據(jù)回歸擬合。為解決非線性問題, 其引入了核函數(shù), 通過非線性映射將低維空間映射到高維的特征空間, 在高維空間上進行線性回歸[45]。在構(gòu)建SVR模型時, 首先基于建模數(shù)據(jù)集, 以選擇的PLSR潛在變量為輸入, 采用留一交叉檢驗法, 以cv2最大, RMSEcv最小為原則, 來確定核函數(shù)類型。其中, 核函數(shù)類型可選擇為線性(Linear)核函數(shù)、多項式(Polynomial)核函數(shù)、徑向基(Rbf)核函數(shù)以及高斯(Gaussian)核函數(shù)。其次, 利用所有建模數(shù)據(jù)集樣本基于選定的核函數(shù)來訓練模型;最后, 基于所有驗證數(shù)據(jù)集樣本來對構(gòu)建的模型進行驗證。
1.3.4 PLSR+GBDT模型法 GBDT法是由Friedman[46]提出的一種迭代決策樹方法,其通過迭代訓練新的決策樹來擬合真實值與當前預測值之間的殘差并進行預測。GBDT法的重要參數(shù)為決策樹的數(shù)量及深度[47]。在構(gòu)建GBDT模型時, 首先基于建模數(shù)據(jù)集, 以選擇的PLSR潛在變量為輸入, 采用留一交叉檢驗法, 以cv2最大, RMSEcv最小為原則, 確定最優(yōu)的決策樹數(shù)量和決策樹深度組合。其中, 決策樹數(shù)量設(shè)置為100~500, 以100為步長變化;決策樹深度設(shè)置為2,從0至6以1為步長變化。然后, 利用所有建模樣本, 基于選定的最優(yōu)決策樹數(shù)量及深度來訓練模型。最后, 基于所有驗證樣本對獲得的模型進行驗證。
田間試驗中, 玉米不同生育期獲得的LAI數(shù)據(jù)情況如表3。由表3可知, 2個生育期的數(shù)據(jù)都存在較大變異, 尤其是四葉期數(shù)據(jù), 說明基于不同田間試驗, 本研究獲得了具有不同LAI狀態(tài)的玉米樣本??傮w來說, 試驗獲取的玉米LAI范圍在0.37~3.19之間, 涵蓋了一個較為理想的變化區(qū)間, 應能較好的支撐本研究開展不同LAI反演方法的對比研究。
將試驗獲取的140個樣點LAI與其對應的光譜指數(shù)進行相關(guān)性分析, 各光譜指數(shù)與LAI間相關(guān)性均達0.01顯著水平(表4)。由表4可知, NDRE與LAI相關(guān)性最高, 相關(guān)系數(shù)達到0.90; TCARI、MCARI、TCARI/OSAVI與LAI相關(guān)性較低, 相關(guān)系數(shù)在0.67~0.79之間變化; 其余光譜指數(shù)與LAI有中等程度的相關(guān)性, 相關(guān)系數(shù)在0.80~0.89之間變化。這是因為: (1) 紅光、藍光主要受葉綠素吸收影響, 在高植被密度容易飽和; 近紅外主要受葉片散射影響, 對LAI具有較高的敏感性; 紅邊波段對植被長勢、健康狀態(tài)敏感。因此, 應用紅邊、近紅外波段的NDRE對LAI變化最敏感; (2) TCARI、MCARI、TCARI/OSAVI是針對葉綠素反演提出的光譜指數(shù), 在本研究中其與LAI之間也有一定的相關(guān)性, 但相關(guān)性明顯不如其他光譜指數(shù)。通過對比分析, 將除TCARI、MCARI、TCARI/OSAVI外的17種光譜指數(shù)作為PLSR的輸入來計算潛在變量。
如前所述, 根據(jù)潛在變量選擇標準, 前6個PLSR潛在變量被作為構(gòu)建ANN模型的輸入。在所有隱含層節(jié)點數(shù)、輸入層到隱含層和隱含層到輸出層的激活函數(shù)組合中, 采用2個隱含層節(jié)點、purelin函數(shù)作為輸入層到隱含層激活函數(shù)和隱含層到輸出層激活函數(shù)時, PLSR+ANN模型的交叉檢驗cv2最大, RMSEcv最小, 其值分別為0.83和0.33, 如圖3所示?;谒薪颖? 利用該參數(shù)組合構(gòu)建PLSR+ANN模型, 建模cal2為0.85, RMSEcal為0.31 (圖4-a); 在基于驗證樣本進行外部驗證時, 驗證val2為0.89, RMSEval為0.30 (圖4-b)。
表3 玉米LAI數(shù)據(jù)統(tǒng)計
表4 各光譜指數(shù)與玉米LAI的相關(guān)性分析結(jié)果
**:< 0.01.
圖3 PLSR+ANN模型交叉檢驗結(jié)果
圖4 基于PLSR+ANN的玉米LAI反演模型結(jié)果
(a):建模; (b):驗證。(a):calibration; (b):validation.
對于PLSR+GPR模型, 以前6個PLSR潛在變量作為GPR模型的輸入, 不同核函數(shù)下交叉檢驗cv2和RMSEcv結(jié)果如圖5所示。從圖5可以看出, 當核函數(shù)為平方指數(shù)核函數(shù)時, 交叉檢驗cv2最大, RMSEcv最小, 其值分別為0.83和0.33。基于所有建模樣本構(gòu)建PLSR+GPR反演模型時取得了較好的結(jié)果, 建模cal2為0.86, RMSEcal為0.30 (圖6-a)。利用驗證樣本對模型進行外部驗證, 同樣取得了較好的驗證結(jié)果, 驗證val2為0.89, RMSEval為0.29 (圖6-b)。
對于PLSR+SVR模型, 以前6個PLSR潛在變量作為SVR模型的輸入, 不同核函數(shù)下交叉檢驗cv2和RMSEcv結(jié)果如圖7所示。當核函數(shù)為徑向基核函數(shù)時, 交叉檢驗cv2最大, RMSEcv最小, 其值分別為0.84和0.34?;谒薪颖緲?gòu)建PLSR+SVR反演模型時, 建模cal2為0.86, RMSEcal為0.32 (圖8-a)。利用驗證樣本對模型進行外部驗證, 驗證val2為0.90, RMSEval為0.33 (圖8-b)。
圖5 PLSR+GPR模型交叉驗證結(jié)果
圖6 基于PLSR+GPR的玉米LAI反演模結(jié)果
(a):建模; (b):驗證。(a):calibration; (b):validation.
對于PLSR+GBDT模型, 以前6個PLSR潛在變量作為GBDT模型的輸入, 不同決策樹數(shù)量與樹深下交叉檢驗cv2和RMSEcv結(jié)果如圖9所示。在所有決策樹數(shù)量和決策樹深度的組合中, 當決策樹的數(shù)量為500, 決策樹的深度為2時, 交叉檢驗cv2最大, RMSEcv最小, 其值分別為0.79和0.37。利用該組合, 基于所有建模樣本構(gòu)建PLSR+GBDT反演模型時, 取得了較好的結(jié)果, 建模cal2為0.90, RMSEcal為0.25 (圖10-a); 利用驗證樣本對模型進行外部驗證, 同樣取得了較好的驗證結(jié)果, 驗證val2為0.90, RMSEval為0.29 (圖10-b)。
圖7 PLSR+SVR模型交叉驗證結(jié)果
圖8 基于PLSR+SVR的玉米LAI反演模結(jié)果
(a):建模; (b):驗證。(a):calibration; (b):validation.
圖9 PLSR+GBDT模型交叉驗證結(jié)果
圖10 基于PLSR+GBDT的玉米LAI反演模結(jié)果
(a):建模; (b):驗證。(a):calibration; (b):validation.
本研究利用無人機多光譜影像, 基于PLSR+ ANN法、PLSR+GPR法、PLSR+SVR法和PLSR+ GBDT法構(gòu)建了玉米LAI反演模型, 建模2在0.85~ 0.90, RMSE在0.25~0.32之間; 驗證2在0.89~0.90, RMSE在0.29~0.33之間。基于無人機多光譜數(shù)據(jù), Liu等[48]使用多個植被指數(shù)構(gòu)建蘋果LAI的GBDT反演模型, 其驗證2達0.85。Sun等[49]基于無人機多光譜影像, 組合光譜指數(shù)和紋理指數(shù), 使用SVR法構(gòu)建了玉米LAI反演模型建模2為0.81, 驗證2為0.81;基于無人機高光譜數(shù)據(jù), 馬怡茹等[50]利用經(jīng)過篩選的敏感波段, 使用SVR建立棉花LAI反演模型, 建模2為0.63, 驗證2為0.63。與上述研究相比, 本研究基于無人機多光譜數(shù)據(jù)建立的玉米LAI反演模型結(jié)果在合理范圍之內(nèi)。
另外, 在農(nóng)時、天氣等因素限定下, 農(nóng)情信息獲取的窗口往往非常短, 迫切需要一種高效的無人機影像獲取手段, 以保障大地塊(如東北黑土區(qū))農(nóng)情信息的及時監(jiān)測。本研究采用自主設(shè)計的尾座式垂直起降固定翼無人機平臺來獲取多光譜影像。如前所述, 該無人機平臺采用旋翼起降、固定翼作業(yè), 不但具有機動、靈活無需飛行跑道的優(yōu)勢, 而且作業(yè)效率遠高于已有研究中常采用的旋翼無人機平臺。從本研究的結(jié)果看, 在這種平臺支撐下獲取的無人機影像能較好的反演LAI, 這為垂直起降固定翼無人機應用于農(nóng)情遙感監(jiān)測, 提供了應用支撐。
相對于其他機器學習方法, GBDT方法采用了集成學習的思想, 通過綜合多棵樹開展學習, 降低單次學習的不確定性, 以獲得更穩(wěn)定的模型泛化能力[51]。因此, 在本研究中, PLSR+GBDT模型的方法取得了最優(yōu)的結(jié)果, 其所建LAI反演模型的建模和驗證結(jié)果均優(yōu)于其他機器學習方法(表5)。PLSR+GPR模型的結(jié)果僅次于PLSR+GBDT模型的結(jié)果, 其在建模和驗證過程中比PLSR+GBDT模型結(jié)果稍差。相比于其他機器學習模型, PLSR+GPR模型的優(yōu)點是參數(shù)少,訓練速度快, 而且能給出反演結(jié)果的不確定度。從估測誤差(RMSE)看PLSR+ANN模型的結(jié)果排在第3位,其能夠擬合各種非線性過程, 但涉及的參數(shù)比較多, 模型訓練所需時間比較長, 有時容易出現(xiàn)過度學習問題。PLSR+SVR模型的結(jié)果最差, 原因可能是由于核函數(shù)選擇的限制, 其應用受到了一定的制約[52]。因此, 本研究推薦PLSR+GBDT法和PLSR+ GPR法作為玉米LAI反演建模的方法。
表5 不同方法下玉米LAI反演結(jié)果
雖然在本研究的試驗中設(shè)置了玉米有機肥、無機肥、秸稈還田以及種植密度試驗, 但研究采集的數(shù)據(jù)集中于追肥管理期, 未能采集到玉米生長后期的數(shù)據(jù), 并且模型的構(gòu)建只是基于特定地點同一年份的數(shù)據(jù), 這限制了模型在不同情景應用的能力。因此, 將LAI的PLSR+GBDT模型和PLSR+GPR模型真正應用于生產(chǎn)實踐, 今后還需要構(gòu)建不同氣候條件、不同年份、各種種植管理模式下的數(shù)據(jù)集, 來對模型進行進一步優(yōu)化調(diào)整, 以此來滿足其在不同場景中的應用。同時, 本研究僅針對玉米開展了模型對比研究, 對于其他作物類型是否適用, 需要在未來進一步驗證。
在玉米田間精準管理實踐中, 可以首先獲取無人機多光譜影像, 其次基于構(gòu)建的PLSR+GBDT模型或PLSR+GPR模型來對玉米LAI進行預測, 然后根據(jù)LAI來判定田間玉米長勢情況, 生成精準管理地圖; 最后, 根據(jù)精準管理地圖, 進行玉米田間精準管理。
本研究開展了不同有機肥、無機肥、秸稈還田以及種植密度處理的玉米田間試驗, 獲取了玉米不同生育期無人機多光譜影像和LAI數(shù)據(jù)?;谶@些數(shù)據(jù), 對PLSR耦合ANN、GPR、SVR、GBDT等4種不同機器學習方法反演LAI的優(yōu)劣進行對比分析。結(jié)果表明PLSR+GBDT模型構(gòu)建的LAI反演模型精度最高; 其次是PLSR+GPR模型, 其與PLSR+ GBDT模型結(jié)果接近, 且具有更快的訓練速度, 并能給出反演結(jié)果的不確定度; PLSR+ANN法構(gòu)建的模型緊隨其后, PLSR+SVR法構(gòu)建的模型精度最差。因此, PLSR+GBDT法和PLSR+GPR法被推薦作為玉米LAI反演模型構(gòu)建最優(yōu)方法。本研究可為人們合理選擇方法準確估測LAI, 評估田間玉米長勢, 開展精準管理服務(wù)。
[1] 夏天, 吳文斌, 周清波, 周勇, 于雷. 基于高光譜的冬小麥葉面積指數(shù)估算方法. 中國農(nóng)業(yè)科學, 2012, 45: 2085–2092. Xia T, Wu W B, Zhou Q B, Zhou Y, Yu L. An estimation method of winter wheat leaf area index based on hyperspectral data., 2012, 45: 2085–2092 (in Chinese with English abstract).
[2] Inoue Y. Synergy of remote sensing and modeling for estimating ecophysiological processes in plant production., 2003, 6: 3–16.
[3] 李俐, 許連香, 王鵬新, 齊璇, 王蕾. 基于葉面積指數(shù)的河北中部平原夏玉米單產(chǎn)預測研究. 農(nóng)業(yè)機械學報, 2020, 51(6): 198–208. Li L, Xu L X, Wang P X, Qi X, Wang L. Summer maize yield forecasting based on leaf area index., 2020, 51(6): 198–208 (in Chinese with English abstract).
[4] 蘇偉, 侯寧, 李琪, 張明政, 趙曉鳳, 蔣坤萍. 基于Sentinel-2遙感影像的玉米冠層葉面積指數(shù)反演. 農(nóng)業(yè)機械學報, 2018, 49(1): 151–156. Su W, Hou N, Li Q, Zhang M Z, Zhao X F, Jiang K P. Retrieving leaf area index of corn canopy based on Sentinel-2 remote sensing image., 2018, 49(1): 151–156 (in Chinese with English abstract).
[5] 張春蘭, 楊貴軍, 李賀麗, 湯伏全, 劉暢, 張麗研. 基于隨機森林算法的冬小麥葉面積指數(shù)遙感反演研究. 中國農(nóng)業(yè)科學, 2018, 51: 855–867. Zhang C L, Yang G J, Li H L, Tang F Q, Liu C, Zhang L Y. Remote sensing inversion of leaf area index of winter wheat based on random forest algorithm., 2018, 51: 855–867 (in Chinese with English abstract).
[6] 任建強, 吳尚蓉, 劉斌, 陳仲新, 劉杏認, 李賀. 基于Hyperion高光譜影像的冬小麥地上干生物量反演. 農(nóng)業(yè)機械學報, 2018, 49(4): 199–211. Ren J Q, Wu S R, Liu B, Chen Z X, Liu X R, Li H. Retrieving winter wheat above-ground dry biomass based on hyperion hyperspectral imagery., 2018, 49(4): 199–211 (in Chinese with English abstract).
[7] 王利民, 劉佳, 楊玲波, 陳仲新, 王小龍, 歐陽斌. 基于無人機影像的農(nóng)情遙感監(jiān)測應用. 農(nóng)業(yè)工程學報, 2013, 29(18): 136–145. Wang L M, Liu J, Yang L B, Chen Z X, Wang X L, Ou-Yang B. Applications of unmanned aerial vehicle images on agricultural remote sensing monitoring., 2013, 29(18): 136–145 (in Chinese with English abstract).
[8] Yue J B, Feng H K, Yang G J, Li Z H. A comparison of regression techniques for estimation of above-ground winter wheat biomass using near-surface spectroscopy., 2018, 10: 66.
[9] Fu Y Y, Yang G J, Li Z H, Song X Y, Li Z H, Xu X G, Wang P, Zhao C J. Winter wheat nitrogen status estimation using UAV-based RGB imagery and gaussian processes regression., 2020, 12: 3778.
[10] Liu K, Zhou Q B, Wu W B, Xia T, Tang H J. Estimating the crop leaf area index using hyperspectral remote sensing., 2016, 15: 475–491.
[11] Shi Y, Wang J, Wang J, Qu Y H. A prior knowledge-based method to derivate high-resolution leaf area index maps with limited field measurements., 2016, 9: 13.
[12] 陳鵬飛, 孫九林, 王紀華, 趙春江. 基于遙感的作物氮素營養(yǎng)診斷技術(shù): 現(xiàn)狀與趨勢. 中國科學: 信息科學, 2010, 40(增刊1): 21–37. Chen P F, Sun J L, Wang J H, Zhao C J. Using remote sensing technology for crop nitrogen diagnosis: status and trends.(Infor Sci), 2010, 40(S1): 21–37 (in Chinese with English abstract).
[13] Durbha S S, King R L, Younan N H. Support vector machines regression for retrieval of leaf area index from multiangle imaging spectroradiometer., 2007, 107: 348–361.
[14] Liu S B, Jin X L, Bai Y, Wu W B, Cui N B, Cheng M H, Liu Y D, Meng L, Jia X, Nie C W, Yin D M. UAV multispectral images for accurate estimation of the maize LAI considering the effect of soil background., 2023, 121: 103383.
[15] Yuan H H, Yang G J, Li C C, Wang Y J, Liu J G, Yu, H Y, Feng H K, Xu B, Zhao X Q, Yang X D. Retrieving soybean leaf area index from unmanned aerial vehicle hyperspectral remote sensing: analysis of RF, ANN, and SVM regression models., 2017, 9: 309.
[16] Shi Y, Gao Y, Wang Y, Luo D N, Chen S Z, Ding Z T, Fan K. Using unmanned aerial vehicle-based multispectral image data to monitor the growth of intercropping crops in tea plantation., 2022, 13: 820585.
[17] Zhang Y, Yang J, Liu X, Du L, Shi S, Sun J, Chen B W. Estimation of multi-species leaf area index based on Chinese GF-1 satellite data using look-up table and gaussian process regression methods., 2020, 20: 2460.
[18] Berger K, Verrelst J, Féret J B, Wang Z H, Wocher M, Strathmann M, Danner M, Mauser W, Hank T. Crop nitrogen monitoring: recent progress and principal developments in the context of imaging spectroscopy missions., 2020, 242: 111758.
[19] Das B, Manohara K K, Mahajan G R, Sahoo R N. Spectroscopy based novel spectral indices, PCA- and PLSR-coupled machine learning models for salinity stress phenotyping of rice.,2020, 229: 117983.
[20] Mahajan G R, Das B, Murgaokar D, Herrmann I, Berger K, Sahoo R N, Patel K, Desai A, Morajkar S, Kulkarni R M. Monitoring the foliar nutrients status of mango using spectroscopy-based spectral indices and PLSR-combined machine learning models., 2021, 13: 641.
[21] Xie Q, Huang W, Zhang B, Chen P F, Song X Y, Pascucci S, Pignatti S, Laneve G, Dong Y Y. Estimating winter wheat leaf area index from ground and hyperspectral observations using vegetation indices.,2016, 9: 771–780.
[22] Miller J R, Hare E W, Wu J. Quantitative characterization of the vegetation red edge reflectance 1. An invertedGaussian reflectance model., 1990, 11: 1755–1773.
[23] Schuerger A C, Capelle G A, Di Benedetto J A, Mao C Y, Thai C N, Evans M D, Richards J T, Blank T A, Stryjewski E C. Comparison of two hyperspectral imaging and two laser-induced fluorescence instruments for the detection of zinc stress and chlorophyll concentration in Bahia grass (Flugge.)., 2003, 84: 572–588.
[24] Richardson A J, Wiegand C L. Distinguishing vegetation from soil background information., 1977, 43: 1541–1552.
[25] Huete A, Didan K, Miura T, Rodriguez E P, Gao X, Ferreira L G. Overview of the radiometric and biophysical performance of the MODIS vegetation indices., 2002, 83: 195–213.
[26] Huete A, Justice C, Liu H. Development of vegetation and soil indices for MODIS-EOS., 1994, 49: 224–234.
[27] Qi J, Chehbouni A, Huete A R, Keer Y H, Sorooshian S. A modified soil adjusted vegetation index., 1994, 48: 119–126.
[28] Rondeaux G, Steven M, Baret F. Optimization of soil-adjusted vegetation indices., 1996, 55: 95–107.
[29] Broge N H, Leblanc E. Comparing prediction power and stability of broadband and hyperspectral vegetation indices for estimation of green leaf area index and canopy chlorophyll density., 2001, 76: 156–172.
[30] Gitelson A A, Kaufman Y J, Merzlyak M N. Use of a green channel in remote sensing of global vegetation from EOS- MODIS., 1996, 58: 289–298.
[31] Huete A R. A soil vegetation adjusted index (SAVI)., 1988, 25: 295–309.
[32] Van Beek J, Tits L, Somers B, Coppin P. Stem water potential monitoring in pear orchards through WorldView-2 multispectral imagery., 2013, 5: 6647–6666.
[33] Erdle K, Mistele B, Schmidhalter U. Comparison of active and passive spectral sensors in discriminating biomass parameters and nitrogen status in wheat cultivars., 2011, 124: 74–84.
[34] Daughtry C, Walthall C L, Kim M S, de Colstoun E B, McMurtrey J E. Estimating corn leaf chlorophyll concentration from leaf and canopy reflectance., 2000, 74: 229–239.
[35] Haboudane D, Miller J R, Tremblay N, Zarco-Tejada P J, Dextraze L. Integrated narrow-band vegetation indices for prediction of crop chlorophyll content for application to precision agriculture., 2002, 81: 416–426.
[36] Haboudane D, Tremblay N, Miller J R, Vigneault P. Remote estimation of crop chlorophyll content using spectral indices derived from hyperspectral data., 2008, 46: 423–437.
[37] Han L, Yang G J, Dai H Y, Xu B, Yang H, Feng H K, Li Z H, Yang X D. Modeling maize above-ground biomass based on machine learning approaches using UAV remote-sensing data., 2019, 15: 10.
[38] Roujean J L, Breon F M. Estimating PAR absorbed by vegetation from bidirectional reflectance measurements., 1995, 51: 375–384.
[39] Chen J M. Evaluation of vegetation indices and a modified simple ratio for boreal applications., 1996, 22: 229–242.
[40] Sripada R P, Heiniger R W, White J G, Meijer A D. Aerial color infrared photography for determining early in-season nitrogen requirements in corn., 2006, 98: 968–977.
[41] Thompson C N, Mills C, Pabuayon I L B, Ritchie G L. Time-based remote sensing yield estimates of cotton in water- limiting environments., 2020, 112: 975–984.
[42] Chen P F, Wang J H, Huang W J, Tremblay N, Ou-Yang Z, Zhang Q. Critical nitrogen curve and remote detection of nitrogen nutrition index for corn in the northwestern plain of shandong province, China., 2013, 6: 682–689.
[43] Farifteh J, Van der Meer F D, Atzberger C, Carranza E J M. Quantitative analysis of salt-affected soil reflectance spectra: a comparison of two adaptive methods (PLSR and ANN)., 2007, 110: 59–78.
[44] Rasumssen C E, Williams C K I. Gaussian Process for Machine Learning. New York: The MIT Press, 2006. p 7.
[45] Valdimirn. The Nature of Statistical Learning Theory. New York: Springer, 2000. pp 267–290.
[46] Friedman J. Greedy function approximation: a gradient boosting machine., 2001, 29: 1189–1232.
[47] Wu T A, Zhang W, Wu S Y, Cheng M H, Qi L S, Shao G C, Jiao X Y. Retrieving rice (L.) net photosynthetic rate from UAV multispectral images based on machine learning methods., 2023, 13: 1088499.
[48] Liu Z J, Guo P J, Liu H, Fan P, Zeng P Z, Liu X Y, Feng C, Wang W, Yang F Z. Gradient boosting estimation of the leaf area index of apple orchards in UAV remote sensing., 2021, 13: 3263.
[49] Sun X K, Yang Z Y, Su P Y, Wei K X, Wang Z G, Yang C B, Wang C, Qin M X, Xiao L J, Yang W D, Zhang M J, Song X Y, Feng M C. Non-destructive monitoring of maize LAI by fusing UAV spectral and textural features., 2023, 14: 1158837.
[50] 馬怡茹, 呂新, 易翔, 馬露露, 祁亞琴, 侯彤瑜, 張澤. 基于機器學習的棉花葉面積指數(shù)監(jiān)測. 農(nóng)業(yè)工程學報, 2021, 37(13): 152–162. Ma Y R, Lyu X, Yi X, Ma L L, Qi Y Q, Hou T Y, Zhang Z. Monitoring of cotton leaf area index using machine learning., 2021, 37(13): 152–162 (in Chinese with English abstract).
[51] Zhang Z D, Jung C. GBDT-MO: gradient-boosted decision trees for multiple outputs., 2021, 32: 3156–3167.
[52] 王麗愛, 馬昌, 周旭東, 訾妍, 朱新開, 郭文善. 基于隨機森林回歸算法的小麥葉片SPAD值遙感估算. 農(nóng)業(yè)機械學報, 2015, 46(1): 259–265. Wang L A, Ma C, Zhou X D, Zi Y, Zhu X K, Guo W S. Estimation of wheat leaf SPAD value using RF algorithmic model and remote sensing data., 2015, 46(1): 259–265 (in Chinese with English abstract).
Comparing different machine learning methods for maize leaf area index (LAI) prediction using multispectral image from unmanned aerial vehicle (UAV)
MA Jun-Wei1,2, CHEN Peng-Fei2,4,*, SUN Yi3, GU Jian3, and WANG Li-Juan1,*
1School of Geography, Geomatics and Planning, Jiangsu Normal University, Xuzhou 221116, Jiangsu, China;2State Key Laboratory of Resource and Environmental Information System, Institute of Geographic Sciences and Natural Resources Research, Chinese Academy of Sciences, Beijing 100101, China;3Institute of Applied Ecology, Chinese Academy of Sciences, Shenyang 110016, Liaoning, China;4Jiangsu Center for Collaborative Innovation in Geographical Information Resource Development and Application, Nanjing 210023, Jiangsu, China
To make an accurate estimation of leaf are index (LAI) based on machine learning methods and images from UAV, we compared the several mainstream machine learning methods for maize LAI prediction, such as Artificial Neural Network method (ANN), Gaussian Process Regression method (GPR), Support Vector Regression method (SVR), and Gradient Boosting Decision Tree (GBDT). For this purpose, field experiments that considering apply of different amount of organic fertilizer, different amount of inorganic fertilizer, different amount of crop residue, and different planting density were carried out. Based on these experiments, field campaign were conducted to obtain UAV multispectral images and LAI data at different growth stages in maize. Based on above data, firstly, correlation analysis was used to select LAI-sensitive spectral indices, and then the Partial Least Squares Regression method (PLSR) and ANN, GPR, SVR, GBDT were coupled to design the LAI prediction models, respectively, and their performance for LAI prediction were compared. The results showed that the LAI prediction model constructed by PLSR+GBDT method had the highest accuracy and the best stability. The models of2and RMSE values were 0.90 and 0.25, and the verified2and RMSE values were 0.90 and 0.29 during validation, respectively. The model based on PLSR+GPR model was followed, with2and RMSE values of 0.86 and 0.30 during calibration, and2and RMSE values of 0.89 and 0.29 during validation, respectively. Besides, it had faster training speed and could give the uncertainty of the prediction. The model designed by PLSR+ANN method had2and RMSE values of 0.85 and 0.31 during calibration, and2and RMSE values of 0.89 and 0.30 during validation, respectively. The model designed by PLSR+SVR method had2and RMSE values of 0.86 and 0.32, and2and RMSE values of 0.90 and 0.33, respectively. Therefore, PLSR+GBDT method and PLSR+GPR method are recommended as the optimal methods for designing maize LAI prediction models.
LAI; machine learning; UAV; multispectral image; maize
2023-04-17;
2023-05-05.
10.3724/SP.J.1006.2023.33001
通信作者(Corresponding author): 陳鵬飛, E-mail: pengfeichen@igsnrr.ac.cn; 王李娟, E-mail: wanglj2013@jsnu.edu.cn
E-mail: majunwei@jsnu.edu.cn
2023-01-01;
本研究由中國科學院先導A專項(XDA28040502), 國家自然科學基金項目(41871344)和江蘇師范大學研究生科研創(chuàng)新計劃項目(2022XKT0070)資助。
This study was supported by the Strategic Priority Research Program of the Chinese Academy of Sciences (XDA28040502), the National Natural Science Foundation of China (41871344), and the Jiangsu Normal University Graduate Research Innovation Program Project (2022XKT0070).
URL: https://kns.cnki.net/kcms/detail/11.1809.S.20230504.1627.006.html
This is an open access article under the CC BY-NC-ND license (http://creativecommons.org/licenses/by-nc-nd/4.0/).