嚴(yán)薇,唐樂,彭佳元,劉文祥,張振乾*
(1 湖南農(nóng)業(yè)大學(xué)農(nóng)學(xué)院,湖南 長沙 410128; 2 湖南省農(nóng)業(yè)信息與工程研究所,湖南 長沙 410125)
當(dāng)前,我國食用油自給率不足35%[1],而油菜是我國第一大油料作物,其安全生產(chǎn)對確保我國食用油安全有十分重要的作用[2]。制約我國油菜產(chǎn)業(yè)發(fā)展的關(guān)鍵因素是栽培技術(shù)水平較低、田間管理成本高等導(dǎo)致種植戶的效益較差[3-4]。
無人機(jī)遙感在農(nóng)業(yè)資源、災(zāi)情、生態(tài)環(huán)境等方面的監(jiān)測應(yīng)用廣泛[5-7],具有成本較低、數(shù)據(jù)采集不受時(shí)間和頻率的限制等優(yōu)點(diǎn)[8],在油菜研究中也有較多應(yīng)用。張建等[9]利用無人機(jī)從多個(gè)角度獲取油菜終花期的可見光圖像,發(fā)現(xiàn)飛行高度為40 m時(shí),油菜生物量估算精度最佳,且種植密度較高時(shí),預(yù)測生物量的效果較好。趙必權(quán)等[10]認(rèn)為利用苗期油菜目標(biāo)數(shù)量與形態(tài)特征的內(nèi)在關(guān)聯(lián)能有效識別油菜機(jī)械直播的出苗數(shù)。同時(shí),利用無人機(jī)可以幫助農(nóng)業(yè)管理人員快速、有效地完成大規(guī)模油菜作物的長勢監(jiān)測任務(wù)[11-12]。何元[13]研究了不同施肥水平和種植密度下油菜苗期和角果期的冠層光譜,利用基于Matlab開發(fā)的農(nóng)作物數(shù)字圖像分析系統(tǒng)CMS提取冠層圖像的顏色特征。朱紅艷[14]基于優(yōu)選植被指數(shù)和優(yōu)選特征波長等多種數(shù)據(jù)挖掘算法和機(jī)器學(xué)習(xí)算法,建立了穩(wěn)健的油菜花數(shù)目、油菜氮素、葉面積指數(shù)和產(chǎn)量的遙感定量模型。當(dāng)前,基于無人機(jī)光譜對油菜開展的相關(guān)研究大都集中在苗期和角果期,而越冬期的相關(guān)報(bào)道較少。而越冬期油菜體內(nèi)積累有機(jī)養(yǎng)分較多,呼吸作用消耗養(yǎng)分少,是積累糖分較多的一個(gè)時(shí)期[15],且葉片光合作用較旺盛,生長較好[16],因此監(jiān)測越冬期油菜長勢能為次年產(chǎn)量、品質(zhì)等預(yù)測提供基礎(chǔ)數(shù)據(jù)。
本研究利用無人機(jī)獲取可見光光譜范圍內(nèi)不同種類油菜越冬期冠層光譜數(shù)據(jù),探索不同類型油菜越冬期生長發(fā)育狀況實(shí)時(shí)定量監(jiān)測方法,以有效降低田間管理及數(shù)據(jù)調(diào)查的人工投入等生產(chǎn)成本。
試驗(yàn)地點(diǎn)位于湖南省長沙市芙蓉區(qū)湖南農(nóng)業(yè)大學(xué)耘園基地(113°09′E,28°19′N),每個(gè)小區(qū)5行,株行距30 cm×30 cm,隨機(jī)選取其中60個(gè)不同品種油菜的小區(qū)(栽培密度相同)為圖像數(shù)據(jù)采集區(qū)。
1.2.1 無人機(jī)圖像獲取
選擇晴朗無風(fēng)的天氣進(jìn)行數(shù)據(jù)采集。于2021年11月19日12:00—14:00,利用湖南大智無疆智能科技有限公司的大疆悟2無人機(jī)(最大飛行速度為94 km/h,最大飛行時(shí)間25 min,最快采集速度100 ms)搭載高清相機(jī)(2 080萬像素,最高可錄制5.2 K視頻),通過遙控進(jìn)行油菜地俯視拍照,無人機(jī)飛行高度為40 m。
1.2.2 油菜葉片 SPAD值測定方法
每個(gè)小區(qū)選取中等長勢油菜5株,利用美國生產(chǎn)的SPAD-502型手持式葉綠素儀測量頂部功能葉片上、中、下3個(gè)葉位點(diǎn)SPAD值,并計(jì)算平均值作為該小區(qū)油菜SPAD值。從60個(gè)小區(qū)中采用3∶1劃分?jǐn)?shù)據(jù)集,隨機(jī)抽取45個(gè)作為建模集,15個(gè)作為驗(yàn)證集。
1.3.1 無人機(jī)影像預(yù)處理方法
本研究利用Matlab 2020a圖像處理系統(tǒng)軟件進(jìn)行圖像分析[13]。在 RGB模型中,如果R=G=B(R、G、B分別為可見光紅色、綠色、藍(lán)色通道的值),則彩色表示一種灰度顏色,其中R=G=B的值叫灰度值[17],灰度范圍為0~255[18]。利用Matlab 2020a軟件對圖像進(jìn)行灰度化處理,最后得到各個(gè)小區(qū)圖像的R、G和B值。
1.3.2 圖像顏色特征選擇
本研究選擇了與R、G和B值較相關(guān)的24個(gè)顏色指數(shù)用于無人機(jī)圖像數(shù)據(jù)分析,包括可見光大氣阻抗植被指數(shù)[VARI,VARI=(G-R)/(G+R-B)][17]、歸一化差分指數(shù)[NDI,NDI=(G-R)/(G+R)][19]和超綠植被指數(shù)(ExG,ExG=2G-R-B)[19]等。圖像顏色特征如表1。
1.3.3 數(shù)據(jù)分析
篩選與油菜SPAD值相關(guān)性顯著的顏色特征,建立基于無人機(jī)的油菜葉片葉綠素反演模型,取不同小區(qū)油菜圖像數(shù)據(jù)與SPAD值,代入模型進(jìn)行驗(yàn)證,以確定模型準(zhǔn)確度。
表1 圖像顏色特征編號表
基于60個(gè)樣本的SPAD 值及優(yōu)選出的圖像顏色特征,分別采用BP神經(jīng)網(wǎng)絡(luò)(back propagation neural network,BPNN)、多元逐步回歸 (multiple stepwise regression,MSR)、多元線性回歸(multivariable linear regression,MLR)等方法構(gòu)建油菜葉片SPAD值反演模型。本研究選用決定系數(shù)(coefficient of determination,R2)、均方根誤差(Root Mean Squared Error,RMSE)和相對分析誤差(the ratio of prediction to deviation,RPD)綜合評價(jià)油菜SPAD值反演模型精度,模型的R2越接近1,相應(yīng)的RMSE數(shù)值越小,RPD越大,則模型估算能力越好[20]。
60個(gè)油菜樣本SPAD值為29.44~43.03,平均值為37.16,標(biāo)準(zhǔn)差為3.26,中間值為37.22。45個(gè)建模集的SPAD值為29.44~43.03,平均值為36.70,標(biāo)準(zhǔn)差為3.31,中間值為36.63。15個(gè)驗(yàn)證集SPAD值為33.66~43.03,平均值為38.54,標(biāo)準(zhǔn)差為2.77,中間值為40.82。可見,試驗(yàn)區(qū)域不同種類油菜葉片SPAD值有差異。建模集和驗(yàn)證集與全部樣本描述統(tǒng)計(jì)結(jié)果相似,試驗(yàn)樣本具有代表性。
采用SPSS軟件進(jìn)行無人機(jī)圖像顏色特征和葉綠素含量的相關(guān)性分析,篩選油菜無人機(jī)圖像顏色與油菜葉綠素相關(guān)性顯著(P<0.05)特征的數(shù)據(jù)(表2)。B、G/R、G/B、G/(R+B)、(G-R)/B、(G-B)/R、(G-R)/(G+R)、(G-B)/(G+B)、(G-R)/(R+G+B)和(G-B)/(R+G+B)等10個(gè)顏色特征與SPAD值相關(guān)性較強(qiáng),可用于建立SPAD模型。
表2 油菜葉片顏色特征與SPAD值相關(guān)性分析
基于45個(gè)建模樣本,以選取的10個(gè)顏色特征指數(shù)為自變量,SPAD值為因變量,分別采用多元逐步回歸、多元線性回歸、BP 神經(jīng)網(wǎng)絡(luò)構(gòu)建SPAD值定量反演模型。由表3可看出,3種建模方法建立的油菜SPAD值反演模型的計(jì)算精度不同。其中BP神經(jīng)網(wǎng)絡(luò)模型建模精度決定系數(shù)R2為0.461,均方根誤差RMSE為2.147,驗(yàn)證精度決定系數(shù)R2為0.367,均方根誤差RMSE為2.012,相對分析誤差為1.642。與多元線性和多元逐步回歸模型相比,BP神經(jīng)網(wǎng)絡(luò)模型的R2最大,更接近1,RMSE數(shù)值最小,RPD值最大,因而該模型建模精度較高。利用建模集和驗(yàn)證集SPAD估測值與實(shí)測值數(shù)據(jù)對進(jìn)行驗(yàn)證,并繪制實(shí)測值與估測值的關(guān)系圖(圖1、圖2)。由圖1、圖2可知,SPAD估測值與實(shí)測值較接近,二者間趨勢基本一致,說明該模型的穩(wěn)定性較好,預(yù)測準(zhǔn)確度較高。這與崔小濤[21]基于BP神經(jīng)網(wǎng)絡(luò)建立模型的研究結(jié)果一致。
表3 油菜SPAD反演模型
圖1 BP神經(jīng)網(wǎng)絡(luò)建模集SPAD估測值與實(shí)測值擬合結(jié)果Fig.1 BP neural network fitting results of modeling set SPAD estimated values and actual measured values
圖2 BP神經(jīng)網(wǎng)絡(luò)驗(yàn)證集SPAD估測值與實(shí)測值擬合結(jié)果Fig.2 BP neural network fitting results of the estimated and measured values of SPAD for the validation set
本研究中,SPAD值與B顏色特征呈顯著負(fù)相關(guān),與其他顏色特征呈顯著正相關(guān),這與紀(jì)偉帥等[22]研究結(jié)果不同,可能與物種和地域不同有關(guān)。BP神經(jīng)網(wǎng)絡(luò)模型相較于多元逐步回歸模型和多元線性回歸模型精度更高、更穩(wěn)定,與前人研究一致[23-25]。越冬期是油菜生長的關(guān)鍵時(shí)期,楊婧[26]發(fā)現(xiàn)該時(shí)期油菜葉片光譜在綠光區(qū)域的反射率增加,藍(lán)光和紅光范圍吸收谷面積增大,圖像顏色能較好地預(yù)測葉綠素含量。魏青等[27]利用無人機(jī)多光譜影像監(jiān)測越冬期小麥葉綠素含量,得到的回歸模型可檢測葉片SPAD值變化。目前基于無人機(jī)研究越冬期油菜的相關(guān)報(bào)道較少,本研究對越冬期油菜SPAD值、葉綠素含量及可見光光譜進(jìn)行綜合分析,并建立了可靠的監(jiān)測模型,有助于更全面、便捷地了解油菜田間生長情況。
目前,油菜葉片SPAD值定量建模反演還沒有統(tǒng)一的標(biāo)準(zhǔn)模型。本研究是針對湖南地區(qū)油菜葉片SPAD值的建模反演研究,雖然實(shí)測樣本數(shù)量及模型精度有待進(jìn)一步提高,但得到的模型仍能有效地反映油菜田間生長情況,表明該方法可用于油菜田間管理,因而在后續(xù)研究中將進(jìn)一步加大樣本量及采用不同地區(qū)種植的油菜,以提高監(jiān)測模型的準(zhǔn)確度和適應(yīng)性。
本研究發(fā)現(xiàn)SPAD值與B顏色特征呈顯著負(fù)相關(guān),與其他顏色特征呈顯著正相關(guān)?;谙嚓P(guān)性分析選取了與油菜葉片SPAD值顯著相關(guān)的B、G/R、G/B、G/(R+B)、(G-R)/B、(G-B)/R、(G-R)/(G+R)、(G-B)/(G+B)、(G-R)/(R+G+B)和(G-B)/(R+G+B)等10個(gè)顏色特征,分別采用BP神經(jīng)網(wǎng)絡(luò)、多元逐步回歸、多元線性回歸等方法構(gòu)建油菜葉片SPAD反演模型,其中BP神經(jīng)網(wǎng)絡(luò)(BPNN)建模R2最高,RMSE最低,RPD最大,模型精度最佳,為本研究中的最佳分析方法。