范宏 劉素紅 陳吉軍 沈江龍 喬雪麗 鄭江華
摘要:采用無人機(jī)獲取白喉烏頭危害草原區(qū)的1 cm空間分辨率的無人機(jī)數(shù)字正射影像,分別在5×5、10×10、20×20、40×40、80×80像素5個(gè)尺度下選取白喉烏頭和普通牧草2類訓(xùn)練樣本,使用VGG16、VGG19、ResNet50等3種模型對(duì)圖像切片的特征進(jìn)行學(xué)習(xí),以獲取圖像切片的深層特征,進(jìn)而實(shí)現(xiàn)對(duì)2類地物的分類提取。對(duì)比5個(gè)分割尺度下3種模型得到的分類精度,發(fā)現(xiàn)不同的分割尺度對(duì)分類精度有明顯影響,隨著分割尺度的增加分類精度呈現(xiàn)出先升高再降低的趨勢(shì),在40×40像素尺度下3種方法都得到了最高的分類精度,分別為95.31%、96.88%、93.75%,白喉烏頭的分類驗(yàn)證精度分別為86.52%、92.77%、93.81%。對(duì)分類結(jié)果進(jìn)行分析發(fā)現(xiàn),在40×40像素的尺度下對(duì)應(yīng)的地面實(shí)際范圍是40 cm×40 cm,與白喉烏頭的單株長(zhǎng)寬接近,能較好地提取白喉烏頭整株的深層特征。
關(guān)鍵詞:卷積神經(jīng)網(wǎng)絡(luò);毒害草;無人機(jī)影像;圖像識(shí)別;白喉烏頭;牧草
中圖分類號(hào): TP391.41;S127文獻(xiàn)標(biāo)志碼: A
文章編號(hào):1002-1302(2021)12-0173-08
收稿日期:2020-11-06
基金項(xiàng)目:新疆維吾爾自治區(qū)高??蒲杏?jì)劃(編號(hào):XJEDU2019I010);2018年新疆治蝗滅鼠指揮辦公室委托項(xiàng)目。
作者簡(jiǎn)介:范 宏(1994—),男,安徽阜陽人,碩士研究生,主要研究方向?yàn)檫b感與草原災(zāi)害防治。E-mail:1025288556@qq.com。
通信作者:鄭江華,博士,教授,博士生導(dǎo)師,主要研究方向?yàn)檫b感與地理信息系統(tǒng)應(yīng)用研究。E-mail:zheng_jianghua@126.com。
天然草原是發(fā)展畜牧業(yè)的基礎(chǔ),近年來過度放牧和不合理開發(fā)以及氣候變化等因素,導(dǎo)致新疆伊犁河谷天然草地大面積退化,毒害草大量繁殖和蔓延,可食牧草生產(chǎn)力下降,加劇了草畜矛盾,嚴(yán)重影響了當(dāng)?shù)匦竽翗I(yè)生產(chǎn)和草原生態(tài)平衡,毒害草已成為新疆伊犁草原的隱形殺手[1]。目前我國草原毒害草災(zāi)害監(jiān)測(cè)主要依靠人工實(shí)地調(diào)查、現(xiàn)場(chǎng)取樣等方式,不僅耗時(shí)、費(fèi)力,且存在代表性、時(shí)效性差和主觀性強(qiáng)等弊端,難以對(duì)毒害草的危害程度進(jìn)行準(zhǔn)確判斷和對(duì)其危害范圍進(jìn)行預(yù)估[2]。
草原毒害草的識(shí)別檢測(cè)主要包括地面檢測(cè)和遙感檢測(cè)[3]。遙感技術(shù)在草原毒害草的識(shí)別上主要是依據(jù)植被的光譜特征,根據(jù)植物在紅光波段、近紅外波段、中紅外波段以及遠(yuǎn)紅外波段對(duì)光譜的吸收反射特征來區(qū)分不同的植被進(jìn)而識(shí)別出所要檢測(cè)的毒害草[4-5]。郭芬芬等使用2012年的HJ-IA衛(wèi)星超光譜成像儀(HSI)的高光譜數(shù)據(jù),在西藏申扎縣根據(jù)多種類型草地的光譜特性進(jìn)行了其分布范圍的提取[6]。溫阿敏等采用GF-1衛(wèi)星WFV傳感器獲取的多光譜遙感影像結(jié)合其光譜特征對(duì)新疆伊寧縣的白喉烏頭進(jìn)行識(shí)別,驗(yàn)證了WFV數(shù)據(jù)在草原毒害草白喉烏頭監(jiān)測(cè)中的可行性[2]。杜欣等在深圳市東部利用高分辨率Pléiades遙感衛(wèi)星影像,結(jié)合光譜、地形及紋理信息,采用投影尋蹤學(xué)習(xí)網(wǎng)絡(luò)的方法,實(shí)現(xiàn)了植物分類[7]。
無人機(jī)技術(shù)的發(fā)展,也為毒害草的識(shí)別監(jiān)測(cè)研究提供了高精度的數(shù)據(jù)支持[8]。其中,無人機(jī)可見光遙感影像只包含了RGB 3個(gè)通道,能夠利用的光譜信息非常匱乏[9],因受限于傳感器通道數(shù),使得在利用其數(shù)據(jù)進(jìn)行圖像分類時(shí)有很大困難[10]。通過對(duì)比白喉烏頭和普通牧草在可見光光譜范圍內(nèi)的光譜曲線發(fā)現(xiàn),二者在可見光波段范圍的光譜特征較為相似,加大了無人機(jī)遙感中白喉烏頭的提取難度,采用傳統(tǒng)的像素統(tǒng)計(jì)方法很難達(dá)到白喉烏頭與普通牧草的分離,會(huì)造成大量像元混分[11]。
卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,簡(jiǎn)稱CNN)是一種能夠進(jìn)行深度學(xué)習(xí)的人工神經(jīng)網(wǎng)絡(luò)系統(tǒng)[12]。和傳統(tǒng)的圖像分類方式相比,卷積神經(jīng)網(wǎng)絡(luò)能夠通過控制卷積核大小對(duì)更大范圍的圖像信息進(jìn)行提取,而無須對(duì)圖像中單個(gè)像元進(jìn)行信息提取,與人類的視覺神經(jīng)系統(tǒng)能夠?qū)D像進(jìn)行更深層次的抽象化處理類似,進(jìn)而對(duì)原始圖像進(jìn)行分類得到分類結(jié)果。卷積神經(jīng)網(wǎng)絡(luò)方法相較于傳統(tǒng)神經(jīng)網(wǎng)絡(luò)使用了局部感受野和空間采樣技術(shù)以及權(quán)值共享,這樣可減少大量參數(shù),能夠更好地進(jìn)行特征提取,增強(qiáng)了其適用性,泛化能力也更強(qiáng)[13]。卷積神經(jīng)網(wǎng)絡(luò)的基本網(wǎng)絡(luò)結(jié)構(gòu)可以分為輸入層、卷積層、全連接層和輸出層4部分[14]。
無人機(jī)影像數(shù)據(jù)的空間分辨率相對(duì)較高,從圖像識(shí)別角度考慮,利用深度學(xué)習(xí)對(duì)無人機(jī)影像進(jìn)行特征提取和地物識(shí)別,得到了草原毒害草分布情況[15]。目標(biāo)特征的提取來源于圖像信息,包括目標(biāo)的光譜信息、形狀信息、紋理信息等,關(guān)鍵在于將圖像信息與目標(biāo)本身的特點(diǎn)結(jié)合。
研究區(qū)普通牧草成片分布,白喉烏頭散布其中,其具有一定高度且存在陰影。但是白喉烏頭光譜與牧草光譜在可見光范圍內(nèi)高度重合,易混淆面狀地物目標(biāo)。針對(duì)研究區(qū)內(nèi)白喉烏頭與牧草的類間邊界模糊、光譜相似等問題,本研究提出了一種基于卷積神經(jīng)網(wǎng)絡(luò)自動(dòng)提取圖像切片特征對(duì)白喉烏頭和普通牧草進(jìn)行區(qū)分的方法,并對(duì)識(shí)別時(shí)切片尺度大小的選擇進(jìn)行了探討。首先對(duì)無人機(jī)影像按不同的切分尺度進(jìn)行規(guī)則分割,得到相應(yīng)的圖像切片[16],然后利用基于CNN的VGG16、VGG19、ResNet50模型[17]對(duì)圖像切片的圖像特征進(jìn)行學(xué)習(xí)[18],從而實(shí)現(xiàn)對(duì)白喉烏頭與普通牧草的分類,根據(jù)試驗(yàn)結(jié)果得到最佳的切分尺度。
1 研究區(qū)與數(shù)據(jù)
1.1 研究區(qū)概況
研究區(qū)為新疆那拉提草原,地處天山腹地,位于被譽(yù)為“塞外江南”的伊犁河谷東端,地理位置為85°17′~85°28′E、43°01′~43°15′N,總面積960 km2(圖1)。屬于大陸性半干旱氣候,夏季炎熱、冬天寒冷,春季氣溫升高快、秋季氣溫降低亦快,春季氣溫明顯高于冬季。該地區(qū)平均海拔1 800 m,年降水量為880 mm,年平均氣溫在 20 ℃左右。主要土壤類型有高山草甸土、山地黑鈣土、灰褐色森林土等。那拉提草原草地類型為山地高寒草甸,常見的植被有白喉烏頭(Aconitum leucostomum)、草原老鸛草(Geranium pratense)、箭 頭 唐 松 草(Thalictrum simplex)、鴨茅(Dactylis glomerata)、無芒雀麥(Bromus inermis)和巨序翦股穎(Agrostis gigantea)等[19]。
1.2 數(shù)據(jù)來源
本研究所采用的數(shù)據(jù)為大疆精靈Phantom 4 Pro V2.0型四旋翼無人機(jī)影像數(shù)據(jù),相機(jī)使用2.54 cm(CMOS)傳感器,拍攝時(shí)間為2019年7月16日,地點(diǎn)為新疆那拉提草原南緣,研究區(qū)域植被類型為草原和林地,地勢(shì)較為平坦。研究區(qū)無人機(jī)(UAV)影像分辨率為0.01 m,飛行高度為 30 m,共獲取2 891幅無人機(jī)影像。無人機(jī)參數(shù)與相機(jī)參數(shù)如表1所示。
2 原理與方法
2.1 網(wǎng)絡(luò)模型
本研究選用的CNN模型是在ImageNet數(shù)據(jù)集上預(yù)訓(xùn)練好的VGG16、VGG19、ResNet50模型。利用SGD和AdaGrad優(yōu)化算法[20],對(duì)網(wǎng)絡(luò)參數(shù)進(jìn)行微調(diào)。VGGNet網(wǎng)絡(luò)[21]是在AlexNet網(wǎng)絡(luò)[22]的設(shè)計(jì)基礎(chǔ)上進(jìn)一步發(fā)展而來的,其主要貢獻(xiàn)之一是將網(wǎng)絡(luò)的深度增加到16~19層[17],并且網(wǎng)絡(luò)設(shè)計(jì)使用了非常小的 3×3 的卷積核。其中VGG16模型包含3個(gè)全連接層和13個(gè)卷積層,共16層;VGG19與VGG16結(jié)構(gòu)相似,有3個(gè)全連接層(Fully connected+ReLU)和16個(gè)卷積層(Convolution+ReLU),共19層(圖2)。
ResNet是2015年何凱明提出的CNN結(jié)構(gòu)模型,在ImageNet Large Scale Visual Recognition Challenge 2015(ILSVRC2015)會(huì)議中該方法以152層的網(wǎng)絡(luò)模型將錯(cuò)誤率降低到了3.75%,并且排名第一[23]。ResNet 50是一種更加容易被優(yōu)化的模型,是基于已有訓(xùn)練深度網(wǎng)絡(luò)提出的一種減輕了網(wǎng)絡(luò)訓(xùn)練負(fù)擔(dān)的殘差學(xué)習(xí)框架,它可以在網(wǎng)絡(luò)深度增加的同時(shí)讓精度也得到增加[24]。ResNet模型利用層次更深的網(wǎng)絡(luò)解決了訓(xùn)練誤差隨網(wǎng)絡(luò)層數(shù)的增加而增加的問題[25]。相比于VGGNet網(wǎng)絡(luò),ResNet50包含了49個(gè)卷積層和1個(gè)全連接層,共50層,它的網(wǎng)絡(luò)結(jié)構(gòu)更為龐大(圖3)。
2.2 研究方法
本研究通過對(duì)無人機(jī)影像進(jìn)行多個(gè)尺度下的規(guī)則切分,獲取多個(gè)尺度的圖像切片,然后構(gòu)建所需的數(shù)據(jù)集,包含訓(xùn)練樣本集、測(cè)試樣本集、驗(yàn)證數(shù)據(jù)集及白喉烏頭、普通牧草2類目標(biāo)樣本(圖4)。將制作完成的數(shù)據(jù)集使用VGGNet模型和ResNet模型進(jìn)行訓(xùn)練,通過訓(xùn)練得到各尺度下圖像切片的圖像特征,以優(yōu)化網(wǎng)絡(luò)模型;本次研究的深度卷積網(wǎng)絡(luò)選用VGG16、VGG19、ResNet50等3種深度學(xué)習(xí)模型。完成訓(xùn)練之后對(duì)驗(yàn)證數(shù)據(jù)集的圖像進(jìn)行分類,得到分類結(jié)果,最后利用抽樣法對(duì)得到的分類結(jié)果進(jìn)行精度驗(yàn)證, 同時(shí)與傳統(tǒng)的2種分類方法
進(jìn)行對(duì)比分析。
2.2.1 數(shù)據(jù)集構(gòu)建
白喉烏頭危害區(qū)內(nèi)的無人機(jī)影像中主要包含牧草和白喉烏頭2類地物。由于2類地物在可見光光譜范圍內(nèi)差異很小和類間邊界模糊等特點(diǎn),若采用傳統(tǒng)的像元級(jí)監(jiān)督分類會(huì)造成極大的混淆;采用面向?qū)ο蟮姆诸惙椒ǎ茈y正確地找到2類地物的邊界,分類結(jié)果也很不理想。根據(jù)2類地物的空間分布特點(diǎn),結(jié)合影像的空間分辨率與地物目標(biāo)的大小采用不同的切割尺度對(duì)影像進(jìn)行切分。首先對(duì)影像進(jìn)行目視解譯,分別選取2類地物的樣本各240個(gè),按照3 ∶1隨機(jī)分為訓(xùn)練樣本集和驗(yàn)證樣本集;按照與訓(xùn)練樣本集、測(cè)試樣本集對(duì)應(yīng)的切割尺度對(duì)影像進(jìn)行規(guī)則切分,構(gòu)成測(cè)試數(shù)據(jù)集。通過提取不同尺度下圖像切片特征對(duì)測(cè)試數(shù)據(jù)集進(jìn)行識(shí)別,然后為識(shí)別后的圖像切片賦予不同的標(biāo)簽,以達(dá)到對(duì)影像的分類提取。
2.2.2 分類精度驗(yàn)證
通過試驗(yàn)得到分類結(jié)果,對(duì)分類后的圖像采用抽樣法來進(jìn)行分類精度的驗(yàn)證。利用系統(tǒng)抽樣的方法進(jìn)行樣本抽取[26],以保證被抽樣的樣點(diǎn)在圖像上能夠均勻分布。首先確定抽樣的間隔,再隨機(jī)確定1個(gè)樣本在第1段內(nèi),然后按相等間隔選取后續(xù)樣本。最后通過目視解譯對(duì)比野外實(shí)地照片和無人機(jī)影像,來確定樣本是否分類正確,再通過計(jì)算得到試驗(yàn)的分類精度。
2.2.3 分類結(jié)果對(duì)比
將深度學(xué)習(xí)得到的分類結(jié)果與基于支持向量機(jī)(SVM)分類、最大似然分類2種方法的分類結(jié)果進(jìn)行對(duì)比,通過人工目視解譯來判斷3種模型在5個(gè)尺度下的分類測(cè)試結(jié)果與2種監(jiān)督分類方法的正確性,找到最佳的圖像分割尺度和方法。
3 試驗(yàn)結(jié)果與分析
3.1 數(shù)據(jù)集與預(yù)處理
在綜合考慮影像空間分辨率和目標(biāo)地物大小的基礎(chǔ)上,本研究選取了共5個(gè)尺度的數(shù)據(jù)集,分別是5×5、10×10、20×20、40×40、80×80像素。5個(gè)尺度下分別建立訓(xùn)練數(shù)據(jù)集、測(cè)試數(shù)據(jù)集、驗(yàn)證數(shù)據(jù)集。訓(xùn)練數(shù)據(jù)集和測(cè)試數(shù)據(jù)集的構(gòu)建步驟如下:首先對(duì)影像進(jìn)行人工目視解譯,分別選取2類地物樣本各240個(gè);然后通過筆者所在研究團(tuán)隊(duì)研發(fā)的圖像裁剪軟件(Extract-Interface V1.0)按坐標(biāo)文件進(jìn)行規(guī)則裁剪;最終將得到的圖像切片按照3 ∶1隨機(jī)分為訓(xùn)練樣本集和測(cè)試樣本集。驗(yàn)證數(shù)據(jù)集的構(gòu)建是選取1幅較大影像,通過圖像裁剪軟件按固定尺度進(jìn)行規(guī)則裁剪。由于要避免數(shù)據(jù)量過大導(dǎo)致測(cè)試時(shí)間過長(zhǎng),故采用了不同大小的影像用來構(gòu)建測(cè)試數(shù)據(jù)集。在5×5像素尺度下選取1幅500×500像素的影像,裁剪得到10 000幅圖像切片;在10×10像素尺度下則選取1幅1 000×1 000像素的影像,裁剪得到10 000幅圖像切片;在20×20、40×40、80×80像素尺度下選取1幅2 000×2 000像素的影像,裁剪分別得到 10 000、2 500、625幅圖像切片。本研究的主要目標(biāo)是對(duì)不同尺度下的白喉烏頭和普通牧草2類地物進(jìn)行區(qū)分,選取的訓(xùn)練樣本集展示如表2所示。
3.2 結(jié)果與分析
本次研究采用5種不同分割尺度的方案,結(jié)合基于CNN的VGGNet與ResNet模型將研究區(qū)內(nèi)的白喉烏頭與普通牧草進(jìn)行區(qū)分。從分類的測(cè)試精度中可以看出,基于深度CNN的自動(dòng)提取圖像特征的幾種方法在提取圖像的深層信息方面具有一定優(yōu)勢(shì),能夠更好地綜合圖像的紋理、光譜、結(jié)構(gòu)等信息,對(duì)圖像的信息提取更加全面。如表3所示,隨著分割尺度的增加,分類精度大體呈現(xiàn)先增加再減小的趨勢(shì)。
將規(guī)則分割的5個(gè)尺度的驗(yàn)證數(shù)據(jù)集輸入15個(gè)通過訓(xùn)練得到的優(yōu)化后的網(wǎng)絡(luò)模型,進(jìn)行自動(dòng)分類得到的分類結(jié)果見表4。
在40×40像素尺度下3種模型分類精度較高,VGG16、VGG19、ResNet50模型的分類精度分別為95.31%、96.88%、93.75%。分析發(fā)現(xiàn),在40×40像素的尺度下對(duì)應(yīng)的地面實(shí)際范圍是40 cm×40 cm,與白喉烏頭的單株長(zhǎng)寬接近,在訓(xùn)練樣本的選擇中圖像切片恰好覆蓋整株白喉烏頭,能較好地提取整株白喉烏頭的深層特征。從表4也可以看普通牧草 白喉烏頭出,在該尺度下3個(gè)網(wǎng)絡(luò)模型提取的白喉烏頭分布效果較好,基本覆蓋所有的白喉烏頭。在5×5像素尺度下,只能得到較少的白喉烏頭和牧草的光譜特征,在信息提取時(shí),2類地物光譜差異很小,故分類精度很低,分別只有66.97%、66.41%、62.50%;3個(gè)網(wǎng)絡(luò)模型提取的白喉烏頭分布均較為雜亂,不能很好地表示白喉烏頭的空間分布(表4)。與5×5像素相比,在10×10像素尺度下的信息稍加豐富,在分類精度上有一定提升,分別為76.56%、72.66%、82.81%,但2類地物的相似性仍然很難區(qū)分,3個(gè)網(wǎng)絡(luò)模型的提取結(jié)果依然不理想,大量的牧草被識(shí)別為了白喉烏頭。在20×20像素尺度下,樣本已經(jīng)能覆蓋正常白喉烏頭的1/4和較小白喉烏頭的一半甚至全部,2類地物在該尺度下已經(jīng)可以明顯區(qū)分,分類精度有了明顯提升,分別為86.07%、86.07%、93.44%,其中ResNet50模型所得到的精度已經(jīng)非常接近其在40×40像素尺度下的分類精度,ResNet50模型所分出的白喉烏頭已經(jīng)很接近真實(shí)的白喉烏頭分布,另外2個(gè)模型較差。在80×80像素尺度下,其分類精度分別為95.31%、94.31%、82.93%。從訓(xùn)練樣本可以看出,樣本圖像切片包含了白喉烏頭和其周圍牧草的信息,有一定的信息混雜,在分類精度上VGG16和VGG19模型與上一尺度的分類精度相比變化很小,在ResNet50模型中,其精度下降較為明顯,從93.75%下降到82.93%。大部分白喉烏頭都已被識(shí)別出,但由于切割尺度問題,有些較小而孤立的白喉烏頭沒有被區(qū)分出來,同時(shí)大量的牧草也被識(shí)別為白喉烏頭。
綜上所述,模型的分類精度與其訓(xùn)練樣本尺度的選擇之間可能具有較大的關(guān)聯(lián)。對(duì)分類結(jié)果分析發(fā)現(xiàn),當(dāng)訓(xùn)練樣本的尺度能恰好完整地包含目標(biāo)地物時(shí),可以更好地提取其深層特征,對(duì)光譜特征差異較小的地物識(shí)別,能夠達(dá)到更好的分類精度。
3.2 分類精度驗(yàn)證
通過對(duì)不同尺度下分類精度的對(duì)比與分析,得到白喉烏頭識(shí)別檢測(cè)的最佳切分尺度為40×40像素,利用系統(tǒng)抽樣法對(duì)分類結(jié)果進(jìn)行精度驗(yàn)證。本研究將40×40像素的3個(gè)網(wǎng)絡(luò)模型對(duì)應(yīng)的結(jié)果圖進(jìn)行均勻采樣,采樣數(shù)均為625塊。通過與實(shí)地照片和無人機(jī)影像的對(duì)此解譯來確定樣本分類是否正確,然后統(tǒng)計(jì)得到最終分類精度。
如表5所示,使用深度學(xué)習(xí)的方法進(jìn)行圖像分類可以取得很好的效果。測(cè)試階段的表現(xiàn)更加明顯,VGG16、VGG19、ResNet50的分類精度均達(dá)到了93%以上;在分類精度驗(yàn)證時(shí),可以看出白喉烏頭的分類精度分別為86.52%、92.77%、93.81%,分類效果較為理想,僅存在個(gè)別偏差;牧草的分類精度分別為78.92%、76.94%、67.61%,3種方法對(duì)牧草的分類大體正確,但在局部范圍內(nèi)存在一定偏差,原因是影像中顏色偏亮的枯黃牧草被錯(cuò)分為白喉烏頭,導(dǎo)致牧草的分類精度偏低。由于在影像中牧草所占比例較大、白喉烏頭所占面積較小,故整體精度受牧草精度影響較大,分別為78.92%、76.94%、67.61%?;诰矸e神經(jīng)網(wǎng)絡(luò)的3種方法中,3個(gè)網(wǎng)絡(luò)提取的白喉烏頭分布一致性較高,與實(shí)際目視解譯結(jié)果相比,三者基本能夠?qū)缀頌躅^完全識(shí)別出來,基本沒有遺漏。較易產(chǎn)生混淆的是牧草中光譜反射率較高的偏黃牧草與稀疏牧草,通過人工目視解譯也有一定難度,因此驗(yàn)證數(shù)據(jù)中部分牧草會(huì)被識(shí)別為白喉烏頭。由于本研究的目的是識(shí)別檢測(cè)白喉烏頭,從分類的驗(yàn)證結(jié)果看白喉烏頭基本都被識(shí)別出來,分類效果較好,達(dá)到了對(duì)白喉烏頭的識(shí)別檢測(cè)目的。
4 討論與結(jié)論
為了體現(xiàn)深度學(xué)習(xí)方法在草原毒害草識(shí)別上的優(yōu)越性,將本研究分類結(jié)果與傳統(tǒng)的2種監(jiān)督分類方法進(jìn)行了對(duì)比(圖5)。
通過目視解譯可以看出,基于像元統(tǒng)計(jì)的傳統(tǒng)分類方法對(duì)于光譜差異很小的地物分類效果很差,大量的牧草被錯(cuò)分為白喉烏頭。其原因是牧草與白喉烏頭均為草本植物,顏色均呈綠色,目視解譯也很難對(duì)其進(jìn)行區(qū)分;在影像中白喉烏頭的頂部較普通牧草偏亮,這是牧草與白喉烏頭的區(qū)分標(biāo)志,但部分牧草由于枯黃或被牛羊啃食過后較為稀疏,呈現(xiàn)亮度也偏大,因此在這些區(qū)域使用任一種分類方法進(jìn)行分類都有很大難度。與傳統(tǒng)的基于像元統(tǒng)計(jì)的分類方法相比,深度學(xué)習(xí)方法的分類精度明顯提高,VGG16、VGG19和ResNet50的分類精度均達(dá)到了93%以上,白喉烏頭的分類精度驗(yàn)證也分別為86.52%、92.77%、93.81%,整體精度受牧草精度影響分別為78.92%、76.94%、67.61%。從圖5中可以看出白喉烏頭基本全被識(shí)別出來,能夠滿足白喉烏頭識(shí)別的精度要求。
在地物識(shí)別的圖像切割尺度選擇上,對(duì)試驗(yàn)結(jié)果分析可以得出,當(dāng)圖像切片恰好能完全覆蓋目標(biāo)地物時(shí),能夠最為全面地獲取目標(biāo)地物的深層特征,這樣所達(dá)到的分類精度也就是最高的。但在驗(yàn)證分類模型的分類精度時(shí)發(fā)現(xiàn),由于切割尺度設(shè)為與目標(biāo)地物白喉烏頭尺寸一樣,在實(shí)際操作中對(duì)測(cè)試影像進(jìn)行規(guī)則切割,其中會(huì)有一定量的白喉烏頭被攔腰分在2個(gè)圖像切片里,或者有1/4在1個(gè)切片里,出現(xiàn)同1個(gè)切片中有2類地物,導(dǎo)致二者無法得到很好的區(qū)分,即使是人工目視解譯判讀也很難給出明確的界定。這種情況下,增加1類混合地物切片,或許能夠改善分類結(jié)果,以后的研究中會(huì)著重考慮。
總體來看,深度學(xué)習(xí)方法較傳統(tǒng)方法有非常好的區(qū)分效果,錯(cuò)分現(xiàn)象大量減少,較好地解決了傳統(tǒng)方法所不能完成的光譜相近地物的區(qū)分問題,實(shí)現(xiàn)了白喉烏頭與牧草較高精度的自動(dòng)分類。
本研究利用深度學(xué)習(xí)的代表性模型VGG16、VGG19和ResNet50對(duì)草原毒害草的識(shí)別問題進(jìn)行研究,通過與SVM和最大似然2種傳統(tǒng)圖像分類方法的結(jié)果對(duì)比,說明深度學(xué)習(xí)網(wǎng)絡(luò)可以更好地提取地物的深層特征,從而提升無人機(jī)影像分類的準(zhǔn)確性,能夠較好地解決白喉烏頭與普通牧草在可見光范圍內(nèi)光譜相似、在傳統(tǒng)基于像元統(tǒng)計(jì)方法中難以區(qū)分的問題。
本研究提出了基于CNN的分類方法,對(duì)無人機(jī)影像中白喉烏頭和牧草進(jìn)行分類,并討論了切割尺度的選擇問題,確定了最佳切分尺度。從試驗(yàn)結(jié)果看,3種模型的分類精度在不同的尺度下各有優(yōu)劣,但都在40×40像素尺度下得到了最佳分類效果,分別為95.31%、96.88%、93.75%,總體趨勢(shì)呈現(xiàn)隨著切割尺度的增大分類精度先增加再減小的趨勢(shì)。故最佳的切割尺度應(yīng)該選擇盡量接近被檢測(cè)目標(biāo)的實(shí)際大小,這樣能夠較完整地提取圖像切片深層信息,達(dá)到較高的分類精度。
隨著草原毒害草防治工作的迫切要求和無人機(jī)監(jiān)測(cè)技術(shù)的發(fā)展,深度學(xué)習(xí)方法將在無人機(jī)草原毒害草監(jiān)測(cè)識(shí)別中發(fā)揮重要作用。今后將繼續(xù)深入開展相關(guān)研究,進(jìn)一步提升草原毒害草的識(shí)別精度,為新疆草原毒害草防治提供技術(shù)支撐和相關(guān)參考。
參考文獻(xiàn):
[1]李 宏,陳衛(wèi)民,陳 翔,等. 新疆伊犁草原毒害草種類及其發(fā)生與危害[J]. 草業(yè)科學(xué),2010,27(11):171-173.
[2]溫阿敏,鄭江華,穆 晨,等. 基于GF-1WFV數(shù)據(jù)的草原毒草白喉烏頭空間分布監(jiān)測(cè)與分析[J]. 新疆農(nóng)業(yè)科學(xué),2015,52(10):1939-1946.
[3]Felinks B,Pilarski M,Wiegleb G. Vegetation survey in the former brown coal mining area of eastern Germany by integrating remote sensing and ground-based methods[J]. Applied Vegetation Science,1998,1(2):233-240.
[4]Jia X P,Richards J A. Segmented principal components transformation for efficient hyperspectral remote-sensing image display and classification[J]. IEEE Transactions on Geoscience and Remote Sensing,1999,37(1):538-542.
[5]Nagler P L,Daughtry C S T,Goward S N. Plant litter and soil reflectance[J]. Remote Sensing of Environment,2000,71(2):207-215.
[6]郭芬芬,范建容,湯旭光,等. 基于HJ-1A高光譜數(shù)據(jù)的藏北高原草地分類方法對(duì)比[J]. 遙感信息,2013,28(1):77-82,88.
[7]杜 欣,黃曉霞,李紅旮,等. 基于投影尋蹤學(xué)習(xí)網(wǎng)絡(luò)算法的植物群落高分遙感分類研究[J]. 地球信息科學(xué)學(xué)報(bào),2016,18(1):124-132.
[8]Chen J J,Yi S H,Qin Y,et al. Improving estimates of fractional vegetation cover based on UAV in alpine grassland on the Qinghai-Tibetan Plateau[J]. International Journal of Remote Sensing,2016,37(8):1922-1936.
[9]Walter V. Object-based classification of remote sensing data for change detection[J]. ISPRS Journal of Photogrammetry and Remote Sensing,2004,58(3/4):225-238.
[10]易超人,鄧燕妮. 多通道卷積神經(jīng)網(wǎng)絡(luò)圖像識(shí)別方法[J]. 河南科技大學(xué)學(xué)報(bào)(自然科學(xué)版),2017,38(3):41-44.
[11]李云飛,符冉迪,金 煒,等. 多通道卷積的圖像超分辨率方法[J]. 中國圖象圖形學(xué)報(bào),2017,22(12):1690-1700.
[12]He K M,Zhang X Y,Ren S Q,et al. Spatial pyramid pooling in deep convolutional networks for visual recognition[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,2015,37(9):1904-1916.
[13]Sirinukunwattana K,Raza S E A,Tsang Y W,et al. Locality sensitive deep learning for detection and classification of nuclei in routine colon cancer histology images[J]. IEEE Transactions on Medical Imaging,2016,35(5):1196-1206.
[14]段 萌,王功鵬,牛常勇. 基于卷積神經(jīng)網(wǎng)絡(luò)的小樣本圖像識(shí)別方法[J]. 計(jì)算機(jī)工程與設(shè)計(jì),2018,39(1):224-229.
[15]韓星爍,林 偉. 深度卷積神經(jīng)網(wǎng)絡(luò)在圖像識(shí)別算法中的研究與實(shí)現(xiàn)[J]. 微型機(jī)與應(yīng)用,2017,36(21):54-56.
[16]Helmy A K,EL-Taweel G S. Regular gridding and segmentation for microarray images[J]. Computers & Electrical Engineering,2013,39(7):2173-2182.
[17]Zefler M D,F(xiàn)ergus R. Visualizing and understanding convolutional networks[C]//Fleet D,Pajdla T,Schiele B,et al. Proceeding of Computer Vision—ECCV 2004. Zurich:Springs,2014:818-833.
[18]Zhou X,Sun Z P,Liu S H,et al. A method for extracting the leaf litter distribution area in forest using chip feature[J]. International Journal of Remote Sensing,2018,39(15/16):5310-5329.
[19]張鮮花,安沙舟,王顯瑞,等. 白喉烏頭種群空間分布格局初步研究[J]. 草地學(xué)報(bào),2012,20(3):428-433.
[20]黃慧萍,吳炳方,李苗苗,等. 高分辨率影像城市綠地快速提取技術(shù)與應(yīng)用[J]. 遙感學(xué)報(bào),2004,8(1):68-74.
[21]Simonyon K,Zisserman A. Very deep convolutional networks for large-scale image recognition[J]. Computer Science,2014:1-14.
[22]Krizhevsky A,Sutskever I,Hinton G E. ImageNet classification with deep convolutional neural networks[J]. Communications of the ACM,2017,60(6):84-90.
[23]He K M,Zhang X Y,Ren S Q,et al. Deep residual learning for image recognition[C]//IEEE. Proceedings of the IEEE Computer Society Conference on Computer Vision and Pattern Recognition,2016:770-778.
[24]王景中,楊 源,何云華. 基于多分類和ResNet的不良圖片識(shí)別框架[J]. 計(jì)算機(jī)系統(tǒng)應(yīng)用,2018,27(9):100-106.
[25]陳小娥,楊薇薇. 基于深度學(xué)習(xí)的車標(biāo)識(shí)別算法的研究與實(shí)現(xiàn)[J]. 長(zhǎng)春工程學(xué)院學(xué)報(bào)(自然科學(xué)版),2017,18(2):117-120.
[26]Gundersen H J G,Jensen E B. The efficiency of systematic sampling in stereology and its prediction[J]. Journal of Microscopy,1987,147(3):229-263.