付健 薛新宇 孫竹 徐陽
摘要:油菜地塊精準(zhǔn)提取可實(shí)現(xiàn)道路、田埂和地塊三部分的分離,為植保無人機(jī)提供準(zhǔn)確作業(yè)區(qū)域和非作業(yè)區(qū)域,推動(dòng)植保無人機(jī)實(shí)現(xiàn)自主作業(yè)。基于甘肅省張掖市民樂縣油菜地?zé)o人機(jī)低空RGB影像,構(gòu)建基于簡(jiǎn)單線性迭代聚類(SLIC)分割和VGG16分類網(wǎng)絡(luò)相結(jié)合的方法實(shí)現(xiàn)油菜田地塊邊界提取。首先,以過綠指數(shù)方式灰度化圖像,區(qū)分裸露地表與植被覆蓋區(qū)域,其次,通過直方圖分析、輪廓檢測(cè)提取地塊主體部分;最后,通過簡(jiǎn)單線性迭代聚類(SLIC)和VGG16模型相結(jié)合,劃分網(wǎng)格,識(shí)別過分割區(qū)域中的作物種植區(qū)域,提取完整地塊。對(duì)比所提算法與傳統(tǒng)邊界檢測(cè)算法地塊邊界提取效果,結(jié)果表明:所提模型的平均交并比和平均準(zhǔn)確率分別為95.9%、96.0%,邊界提取精度和完整性明顯優(yōu)于傳統(tǒng)算法。所提模型能夠消除低空拍攝下雜草的影像,可為農(nóng)田邊界提取提供參考,可為植保無人機(jī)完全自主作業(yè)做好鋪墊。
關(guān)鍵詞:地塊提??;無人機(jī);過綠指數(shù);超像素分割;VGG16;圖像識(shí)別
中圖分類號(hào):S565
文獻(xiàn)標(biāo)識(shí)碼:A
文章編號(hào):2095-5553 (2023) 04-0137-08
Abstract: The precise extraction of oilseed rape field can realize the separation of road, field ridge and plot, provide accurate operation area and non-operation area for plant protection UAV, and promote the realization of autonomous operation of plant protection UAV. Based on UAV low-altitude RGB images of rapeseed field in Minle County, Zhangye City, Gansu Province, this paper constructed a method combining simple linear iterative clustering (SLIC) segmentation and VGG16 classification network to achieve boundary extraction of rapeseed field blocks. Firstly, the image was grayed with green index to distinguish bare ground and vegetation covered area. Secondly, the main part of the field was extracted by histogram analysis and contour detection. Finally, by combining simple linear iterative clustering (SLIC) and VGG16 model, the grid was divided to identify the cropping regions in the segmented region and extract the whole field. The results showed that the average intersection ratio and average accuracy of the proposed model were 95.9% and 96.0%, respectively. The accuracy and integrity of the proposed model were better than those of the traditional algorithm. The model proposed in this paper can eliminate the images of weeds taken at low altitude, which can provide reference for the extraction of farmland boundaries and pave the way for the autonomous operation of plant protection UAV.
Keywords:? field extraction; UAV; excess green index; super pixel segmentation; VGG16; image recognition
0 引言
精準(zhǔn)農(nóng)業(yè)主要是通過對(duì)作物生長(zhǎng)區(qū)域進(jìn)行細(xì)分化管理,優(yōu)化肥料和農(nóng)藥等農(nóng)業(yè)生產(chǎn)投入[1]。油菜盛花期田間管理主要包括施肥和病蟲害管理,由于傳統(tǒng)的人工施肥和背負(fù)式噴霧機(jī)施藥,作業(yè)勞動(dòng)強(qiáng)度大,作業(yè)范圍受限,主要依賴于植保無人機(jī)進(jìn)行施肥和飛防作業(yè)。目前,無人機(jī)自主作業(yè)是通過人手持 RTK在每一塊田進(jìn)行打點(diǎn)定位,然后再手動(dòng)生成作業(yè)路徑,打點(diǎn)工作繁瑣,給無人機(jī)自主作業(yè)造成不便。故通過精準(zhǔn)農(nóng)田劃分,快速完成不同田塊的精準(zhǔn)定位,對(duì)優(yōu)化植保無人機(jī)作業(yè)路徑,實(shí)現(xiàn)完全自主作業(yè)具有重要意義。
農(nóng)田劃分是將農(nóng)場(chǎng)以單一田塊作為單元?jiǎng)澐譃椴煌姆忾]區(qū)域[2]。傳統(tǒng)數(shù)字農(nóng)田劃分是基于衛(wèi)星遙感數(shù)據(jù),依托數(shù)字圖像處理技術(shù)提取農(nóng)田邊界線,進(jìn)而劃分出獨(dú)立農(nóng)田[3-5]。但由于遙感衛(wèi)星數(shù)據(jù)存在時(shí)間成本較高、受大氣因素和影像分辨率的影響,邊界提取精度較差等弊端[6-8],農(nóng)田劃分結(jié)果難以用于指導(dǎo)植保無人機(jī)作業(yè)。近年來,隨著人機(jī)技術(shù)的發(fā)展和成熟,由于其具有機(jī)動(dòng)性高、成本和獲取影像過程中不容易受到大氣干擾、易獲取低空高分辨率圖像等優(yōu)點(diǎn)[9-10],已經(jīng)被廣泛應(yīng)用于農(nóng)田分類、農(nóng)田邊界提取以及水渠提取等農(nóng)田信息的研究[11-15]?;谝陨蟽煞N數(shù)據(jù)類型的農(nóng)田邊界提取方法以經(jīng)典邊界檢測(cè)算法為主,代表算法有Canny邊界檢測(cè)、分水嶺邊界檢測(cè)、均值漂移區(qū)域生長(zhǎng)分割以及基于Gpb+SLIC的輪廓檢測(cè)法[16-21],此類算法大多依據(jù)圖像的像素值分布,將像素值梯度超過某值的位置作為農(nóng)田邊界,但該類算法,在不同種植區(qū)域,不同分辨率[22]、不同采樣距離[23]的情況下,算法的魯棒性較差。除經(jīng)典邊界檢測(cè)算法外,有研究者采用深度學(xué)習(xí)的方法進(jìn)行探索。楊蜀秦等[24]結(jié)合DeepLab V3+語義分割模型,實(shí)現(xiàn)基于無人機(jī)采集的多光譜數(shù)據(jù)影像的農(nóng)田作物分類,為農(nóng)田邊界提取提供新的思考方向。由于農(nóng)田影響數(shù)據(jù)的復(fù)雜性,現(xiàn)有的農(nóng)田劃定方法存在一些缺點(diǎn):一是不能提取田埂,會(huì)導(dǎo)致植保無人機(jī)在非種植區(qū)域作業(yè),造成化肥和農(nóng)藥的浪費(fèi);二是由于地塊尺寸不一致,形狀不同,使得農(nóng)田種植區(qū)域分割為非種植區(qū)域,稱為農(nóng)田過分割,導(dǎo)致無人機(jī)作業(yè)范圍存在遺漏之處,降低植保效果。
針對(duì)上述問題,本文以甘肅省張掖市民樂縣張家莊為研究區(qū)域,以油菜田為研究對(duì)象,構(gòu)建了基于簡(jiǎn)單線性迭代聚類(SLIC)分割和VGG16分類網(wǎng)絡(luò)的地塊邊界識(shí)別模型。首先采用超像素分割給地塊預(yù)分割圖像劃分網(wǎng)格,其次,采用VGG16對(duì)過分割區(qū)域的網(wǎng)格塊再識(shí)別,提高體塊邊界提取精度,進(jìn)而提取完整地塊。
1 數(shù)據(jù)獲取與處理
1.1 研究區(qū)域概況
本文研究區(qū)域?yàn)楦拭C省張掖市民樂縣,東經(jīng)100.489 44°,北緯38.529 8°,位于祁連山北麓,河西走廊中段,海拔高度2 000~2 850 m,屬于沿山冷涼灌區(qū),屬溫帶大陸性荒漠草原氣候,年平均降水量351 mm,無霜期140天,氣候冷涼濕潤(rùn)、晝夜溫差大、光照充足,病蟲害輕,是種植油菜的適宜區(qū)域,張掖市油菜種植常年播種面積約20 000 hm2,是當(dāng)?shù)刂匾慕?jīng)濟(jì)作物。所采集區(qū)域地形平坦,具有代表性和適用性。
1.2 數(shù)據(jù)采集
本文采用的拍攝平臺(tái)為大疆Air 2S無人機(jī)遙感影像采集平臺(tái),展開尺寸(長(zhǎng)×寬×高)為183 mm×253 mm×77 mm,對(duì)角線軸距302 mm,搭載CMOS影像傳感器,視角為88°,35 mm等效焦距為22 mm。圖像采集時(shí)間為2021年7月5日,天氣晴朗,炎熱無風(fēng),拍攝對(duì)象為贛油雜8號(hào),油菜所處時(shí)期為盛花期,無人機(jī)拍攝航高為100 m,圖像數(shù)據(jù)格式為RGB,相機(jī)與垂直方向夾角為0°,圖像分辨率為4 000×3 000,影像儲(chǔ)存格式為JPG。圖1為本次數(shù)據(jù)采集樣本,可以看出油菜種植區(qū)域地塊標(biāo)準(zhǔn),邊界成直線形狀,地塊呈現(xiàn)成三角形和規(guī)則四邊形,部分地塊面積不大,種植不均勻,田埂處存在較多雜草,容易導(dǎo)致過分割或欠分割。
2 研究方法
目前農(nóng)田邊界提取的無人機(jī)遙感影像的拍攝高度為110~500 m[13-15, 21-23]。隨著拍攝高度下降,農(nóng)田信息更加豐富,田埂雜草的影響逐漸凸顯,基于經(jīng)典邊緣檢測(cè)的農(nóng)田邊界提取方法對(duì)田埂雜草的魯棒性差。故本文提出了SLIC+VGG16模型以識(shí)別種植區(qū)域和雜田埂雜草區(qū)域,該模型包含兩個(gè)過程:一是地塊預(yù)提?。欢抢肧LIC+VGG16修正地塊預(yù)提取結(jié)果,得到完整地塊。
2.1 地塊預(yù)分割
地塊預(yù)提取是通過圖像灰度化、直方圖分析、圖像增強(qiáng)、二值化、形態(tài)學(xué)處理等數(shù)字圖像處理方法得到二值圖像,采用輪廓查找方法提取油菜農(nóng)田的主體部分。下文重點(diǎn)闡述地塊預(yù)提取過程中的灰度化,直方圖分析、輪廓查找3個(gè)關(guān)鍵步驟。
1)? 圖像灰度化。油菜和雜草(非種植區(qū)域)為綠色植物,像素值分布較為相近,與裸露地表(田埂道路)在像素值分布上存在明顯差異,可采用過綠指數(shù)(ExG)[25-26]對(duì)圖像進(jìn)行灰度化,區(qū)分植被覆蓋區(qū)域和裸露地表。過綠指數(shù)計(jì)算公式如式(1)所示。
3)? 輪廓查找地塊。輪廓對(duì)象一般存在于不同的位置,但是有時(shí)是一個(gè)輪廓形狀位于另一個(gè)輪廓形狀的內(nèi)部,我們稱最外層的為一級(jí)輪廓,第二層的為二級(jí)輪廓,以此類推。在本文研究?jī)?nèi)容中,一級(jí)結(jié)構(gòu)應(yīng)該是農(nóng)田的邊界和地塊外部的其他物體輪廓?;谵r(nóng)田為圖像中的主體部分,單塊農(nóng)田輪廓應(yīng)為封閉邊界,且其包圍的面積應(yīng)該遠(yuǎn)遠(yuǎn)大于其他噪聲產(chǎn)生的輪廓。故可依據(jù)農(nóng)田面積和封閉輪廓作為條件,篩選圖像中的一級(jí)結(jié)構(gòu),可以消除部分農(nóng)田內(nèi)部的“空洞”和外部雜草等噪聲。經(jīng)過輪廓查找篩選后的結(jié)果如圖4(c)所示。
2.2 地塊再提取
為解決上文地塊預(yù)提取帶來的地塊“過分割”現(xiàn)象,本文提出了超像素分割和VGG16模型相結(jié)合的方法。將預(yù)處理后未能認(rèn)定為邊界的部分如圖5所示,通過超像素分割為閾值相近的子塊,并將子塊喂入到VGG16識(shí)別網(wǎng)絡(luò)中,預(yù)測(cè)每個(gè)子塊是否屬于農(nóng)田。
3)? 迭代優(yōu)化。根據(jù)距離度量給每個(gè)種子點(diǎn)2S鄰域內(nèi)的每個(gè)像素分配類標(biāo)簽,若D′≤D,則將像素點(diǎn)更新為當(dāng)前種子點(diǎn),并令D=D′。然后進(jìn)行重復(fù)迭代,直至每個(gè)像素標(biāo)簽類別不再發(fā)生變化,一般需要迭代10次。
用SLIC算法對(duì)地塊預(yù)分割之后的圖像進(jìn)行超像素分割,RGB圖像尺寸大小為2 000像素×1 500像素,K分別取500、800、1 000、1 500時(shí)得到的結(jié)果如圖6所示,同時(shí)探究了不同聚類數(shù)目下的VGG16模型的分類準(zhǔn)確度,結(jié)果如表1所示。由表1可以看出超像素塊數(shù)目為800和1 000時(shí),模型準(zhǔn)確率分別84.7%和89.4%,準(zhǔn)確率較為接近,但是聚類數(shù)目越大,意味著像素塊越小,地塊邊界提取的精度就越高,故選擇超像素塊分割數(shù)目為1 000。
2.2.2 分類網(wǎng)絡(luò)模型選擇
自2012年,Krizhevsky等提出的AlexNet分類網(wǎng)絡(luò)在Image Net分類任務(wù)中奪得冠軍之后,相繼涌現(xiàn)以VGGNet、ResNet、GoogleNet代表優(yōu)秀分類網(wǎng)絡(luò),深度學(xué)習(xí)分類網(wǎng)絡(luò)模型逐漸取代傳統(tǒng)的分類方式成為主流圖像分類方法[30]。VGG16網(wǎng)絡(luò)模型是Karen Simonyan在2014年提出的深度學(xué)習(xí)模型[28],因其結(jié)構(gòu)簡(jiǎn)單、能挖掘圖像深度語義信息、泛化能力強(qiáng)等優(yōu)點(diǎn),被廣發(fā)應(yīng)用于分類和定位任務(wù)中。故本文預(yù)設(shè)選用VGG16模型完成判斷超像素塊是否屬于農(nóng)田的過程,對(duì)比了VGGNet、AlexNet、ResNet、GoogleNet模型分類準(zhǔn)確率。
數(shù)據(jù)集是由隨機(jī)選取30幅圖像進(jìn)行地塊預(yù)分割和超像素分割后生成的像素塊制作而成,數(shù)據(jù)集由油菜、雜草、裸露地表三類組成,每種類型數(shù)據(jù)數(shù)量相近,共3 562幅,數(shù)據(jù)集按照訓(xùn)練集∶驗(yàn)證集∶測(cè)試集為8∶1∶1進(jìn)行劃分,并采用添加高斯噪聲、水平翻轉(zhuǎn)、改變亮度、旋轉(zhuǎn)的方式將數(shù)據(jù)集擴(kuò)充到7 124幅。四種模型在相同條件下,迭代次數(shù)epoch=100,各類模型在驗(yàn)證集和測(cè)試集準(zhǔn)確率如表2所示。
由試驗(yàn)結(jié)果可知,VGG16在測(cè)試集和驗(yàn)證集的準(zhǔn)確率遠(yuǎn)高于其他的分類模型,準(zhǔn)確率分別達(dá)到94.2%、89.4%。ResNet、GoogleNet分類網(wǎng)絡(luò)結(jié)構(gòu)的設(shè)計(jì)主要用于訓(xùn)練梯度消失的現(xiàn)象和融合不同網(wǎng)絡(luò)層的信息,由于超像素塊常常存在像素值為0的部分,所以分類網(wǎng)絡(luò)不容易出現(xiàn)梯度消失的結(jié)構(gòu),并且由于此分類任務(wù)并未關(guān)注目標(biāo)的位置大小,故ResNet、GoogleNet兩類網(wǎng)絡(luò)的優(yōu)勢(shì)并未在本次分類任務(wù)中凸顯,相反分類效果較差。AlexNet是由5個(gè)卷積層和5個(gè)全連接層,難以提取深層次信息,故而分類準(zhǔn)確率較差??蛇xVGG16作為分類網(wǎng)絡(luò)。
VGG16模型由13個(gè)卷積層和3個(gè)全連接層組成,模型的原輸入尺寸為224×224,原輸出類別為20。表1探究了不同輸入尺寸下,模型的準(zhǔn)確率,可知,當(dāng)輸入尺寸為96×96時(shí),模型準(zhǔn)確率最高為89.4%。結(jié)合超像素的分割數(shù)目為1 000時(shí),超像素塊的圖像尺寸,調(diào)整模型輸入尺寸為96×96;根據(jù)數(shù)據(jù)集類別為油菜、雜草、裸露地表三類,調(diào)整模型輸出類別為3,修改后的模型如圖7所示。
3 試驗(yàn)結(jié)果與分析
3.1 不同算法提取效果對(duì)比
為驗(yàn)證本地塊提取方法的先進(jìn)性,對(duì)比了Canny邊緣檢測(cè)、分水嶺(Watershed)分割算法以及Mean Shift算法。Canny邊緣檢測(cè)算法和分水嶺(Watershed)分割算法采用中灰度化處理方式采用過綠指數(shù)。
如圖8所示,五種算法在地塊邊界提取的完整性為圖8(d)>圖8(c)>圖8(b)>圖8(a),地塊提取的準(zhǔn)確率為圖8(d)>圖8(c)>圖8(b)>圖8(a)。Canny邊緣檢測(cè)受到田埂雜草和道路雜草的影響,封閉完整的地塊邊界提取效果非常差,產(chǎn)生了較多冗余信息;Watershed算法和Mean Shift算法能夠提取大部分完整、獨(dú)立的地塊邊界,但無法提取田埂雜草較多的位置處的地塊邊界,造成相鄰地塊檢測(cè)為同一地塊;SLIC+VGG16地塊邊界提取方法可將單一田塊作為獨(dú)立種植單元進(jìn)行提取,但受到分類網(wǎng)絡(luò)精度影響,不完整地塊差生過分割或欠分割現(xiàn)象。
除此之外,本文統(tǒng)計(jì)不同算法的平均識(shí)別時(shí)間,Canny邊緣檢測(cè)、Watershed分割算法、Mean Shift算法以及SLIC+VGG16算法分別為0.8 s,0.83 s,20 s,1.9 s。Mean Shift算法提取效果優(yōu)于Canny和Watershed算法,但是速度較慢,主要原因是Mean Shift算法在圖像全局進(jìn)行搜索,效率低下;SLIC+VGG16相對(duì)傳統(tǒng)的識(shí)別算法,速度并沒有明顯下降,但是精度卻提升較大。
以上對(duì)比可知,傳統(tǒng)邊界提取方法由于提取方式單一、魯棒性差等問題,在低空遙感圖像下無法消除雜草帶來的影響。本文所提方法可以彌補(bǔ)傳統(tǒng)邊緣檢測(cè)算法無法有效區(qū)分田埂雜草區(qū)域和地塊種植區(qū)域的弊端和無法劃定單一農(nóng)田作為獨(dú)立區(qū)域管理單元的問題,模型識(shí)別時(shí)間在2 s內(nèi),能夠在低空遙感圖像背景下,提取準(zhǔn)確、完整的單一田塊。
3.2 地塊提取準(zhǔn)確度評(píng)價(jià)
以采用Labelme軟件標(biāo)注的標(biāo)簽值作為人工地塊提取的真實(shí)值,類比于語義分割模型評(píng)價(jià)指標(biāo),提出單塊農(nóng)田平均交并比(mIoU)和像素精度(mPA)兩項(xiàng)評(píng)價(jià)指標(biāo)上的表現(xiàn),并給出了最大交并比(IoUmax)、最小交并比(IoUmin)、最大像素精度(PAmax)和最小像素精度(PAmin),對(duì)比了本文所提模型和均值漂移算法,結(jié)果如表2所示。
由表3可知,SLIC+VGG16的mIoU為95.9%,比Mean Shift算法提高了9.4%,mPA為96.0%,比Mean Shift提高了6.6%,可知SLIC+VGG16模型能夠準(zhǔn)確提取地塊,提取的地塊與目標(biāo)地塊高度重合,滿足提取精度要求;SLIC+VGG16的IoUmax和IoUmin差值為18.9%,較Mean Shift減小了16.2%;SLIC+VGG16的PAmax和PAmin的差值為18.9%,較Mean Shift減小了16.2%,SLIC+VGG16模型和Mean Shift算法的IoUmax和PAmax的值較為接近,IoUmin和PAmin的值卻相差很大,其主要原因是Mean Shift算法無法識(shí)別田埂雜草和作物區(qū)域的邊界,相鄰兩部分地塊識(shí)別為單一地塊,可知本模型較Mean Shift對(duì)地塊邊界提取有更好的適應(yīng)性。
4 討論
通過對(duì)比分析本文所提模型與可以看出,本文所提模型邊界提取精度較傳統(tǒng)的邊界檢測(cè)算法有較大的提升,其主要原因:(1)給出了一種低空提取農(nóng)田邊界的方法。與研究高空遙感下的農(nóng)田邊界劃定不同,本文針對(duì)的低空遙感圖像下數(shù)據(jù)信息更為豐富,雜草等冗余信息復(fù)雜的問題,提出SLIC +VGG16的地塊提取方法,解決了低空遙感圖像獨(dú)立地塊提取復(fù)雜的問題,提高了地塊提取精度,有利于實(shí)現(xiàn)以地塊為單元的精準(zhǔn)區(qū)域管理;(2)給出了一種消除地塊過分割現(xiàn)象的方法。傳統(tǒng)邊緣檢測(cè)算法在消除雜草的影響過程中會(huì)產(chǎn)生過分割的現(xiàn)象,故對(duì)過分割區(qū)域進(jìn)行超像素分割和分類識(shí)別,進(jìn)一步判斷過分割是否屬于農(nóng)田種植區(qū)域。文中沒有對(duì)原圖像進(jìn)行超像素分割,而是經(jīng)過預(yù)處理之后再進(jìn)行超像素分割,其原因有:消除田埂雜草的影響;降低圖像處理的時(shí)間成本。
但是該模型也存在一定的局限性:(1)VGG16分類網(wǎng)絡(luò)的準(zhǔn)確率很難得到進(jìn)一步的提升;(2)由于超像素塊邊界不圓滑導(dǎo)致地塊邊界容易差產(chǎn)生極度不規(guī)則的形狀;(3)未探究模型在其他高度的無人機(jī)遙感影像數(shù)據(jù)的邊界提取效果。作者將對(duì)以上問題做進(jìn)一步研究。
5 結(jié)論
1) 由于在低空下拍攝的無人機(jī)遙感圖像地塊信息更為豐富,細(xì)節(jié)也更為復(fù)雜,田埂雜草和作物像素值相近,傳統(tǒng)邊界檢測(cè)模型、語義分割模型難以提取田埂雜草密集處的邊界。針對(duì)以上問題,本文根據(jù)雜草閾值分布特點(diǎn),提出了對(duì)田埂雜草適應(yīng)性強(qiáng)的SLIC +VGG16地塊邊界提取模型。
2) 該模型首先采用超綠指數(shù)方法對(duì)應(yīng)進(jìn)行灰度化;其次統(tǒng)計(jì)裸露地表、作物以及田埂的灰度值直方圖,確定低閾值TH1=70、高閾值TH2=150進(jìn)行二值分割,以消除不同田埂雜草和部分冗余噪聲;再者采用輪廓檢測(cè)方法消除部分閾值分割產(chǎn)生的作物區(qū)域出現(xiàn)的大面積空洞;然后采用超像素分割將上述確定為非作物區(qū)域的位置分割為超像素塊,喂入訓(xùn)練好的VGG16分類網(wǎng)絡(luò)中,進(jìn)一步確定是否屬于作物區(qū)域;最后對(duì)比了VGG16網(wǎng)絡(luò)與其他分類網(wǎng)絡(luò)的分類精度,通過對(duì)比的方法檢驗(yàn)了SLIC+VGG16與Mean Shift等四種邊界提取算法的效果和精度。結(jié)果表明,VGG16網(wǎng)絡(luò)分類準(zhǔn)確度最高,為94.2%;本文模型能夠消除田埂雜草的影響,相較于其他四種邊界提取算法具有更好的適應(yīng)性;從SLIC+VGG16與Mean Shift對(duì)比試驗(yàn)來看,模型邊界提取精度mIoU和PA分別為95.9%、96.0%,較Mean Shift算法都有較大的提升,同時(shí)具有較小的極值差,說明該模型的邊界提取的適應(yīng)性較好。
本模型采用的邊界提取模型相較于傳統(tǒng)的邊界提取算法能夠更好地消除雜草的影響,對(duì)低空無人機(jī)遙感影像具有更好的適應(yīng)性,可為無人機(jī)低空遙感影像農(nóng)田劃分提供參考。
參 考 文 獻(xiàn)
[1] Georgi C, Spengler D, Itzerott S, et al. Automatic delineation algorithm for site-specific management zones based on satellite remote sensing data [J]. Precision Agriculture, 2018, 19(4): 684-707.
[2] Fmb A, Lsg B, Rd B, et al. Delineation of management zones in agricultural fields using cover-crop biomass estimates from PlanetScope data [J]. International Journal of Applied Earth Observation and Geoinformation, 2020, 85.
[3] Muoz X, Freixenet J, Cuf X, et al. Strategies for image segmentation combining region and boundary information-ScienceDirect [J]. Pattern Recognition Letters, 2003, 24(1-3): 375-392.
[4] 賈坤, 李強(qiáng)子, 田亦陳, 等. 遙感影像分類方法研究進(jìn)展[J]. 光譜學(xué)與光譜分析, 2011, 31(10): 2618-2623.
Jia Kun, Li Qiangzi, Tian Yichen, et al. A review of classification method of remote sensing imagery [J]. Spectroscopy and spectral analysis, 2011, 31(10): 2618-2623.
[5] 陳君穎, 田慶久. 高分辨率遙感植被分類研究[J]. 遙感學(xué)報(bào), 2007, 11(2): 221-227.
Chen Junying, Tian Qingjiu. Vegetation classification based on high-resolution satellite image [J]. Journal of Remote Sensing, 2007, 11(2): 221-227.
[6] Watkins B, Niekerk A V. A comparison of object-based image analysis approaches for field boundary delineation using multi-temporal Sentinel-2 imagery [J]. Computers and Electronics in Agriculture, 2019, 158: 294-302.
[7] Watkins B, Niekerk A V. Pre-print automating field boundary delineation with multi-temporal sentinel-2 imagery [J]. Computers and Electronics in Agriculture, 2019, 167: 105078.
[8] 李森. 高空間分辨率遙感影像耕地地塊提取方法研究[D]. 北京: 中國科學(xué)院大學(xué), 2019.
Li Sen. Research on cultivated land parcel extraction method based on high spatial resolution remote sensing image [D]. Beijing: University of Chinese Academy of Sciences, 2019.
[9] 王利民, 劉佳, 楊玲波, 等. 基于無人機(jī)影像的農(nóng)情遙感監(jiān)測(cè)應(yīng)用[J]. 農(nóng)業(yè)工程學(xué)報(bào), 2013, 29(18): 136-145.
Wang Limin, Liu Jia, Yang Lingbo, et al. Applications of unmanned aerial vehicle images on agricultural remote sensing monitoring [J]. Transactions of the Chinese society of Agricultural Engineering, 2013, 29(18): 136-145.
[10] 張正健, 李愛農(nóng), 邊金虎, 等. 基于無人機(jī)影像可見光植被指數(shù)的若爾蓋草地地上生物量估算研究[J]. 遙感技術(shù)與應(yīng)用, 2016, 31(1): 51-62.
Zhang Zhengjian, Li Ainong, Bian Jinhu, et al. Estimating aboveground biomass of grassland in Zoige by visible vegetation index derived from unmanned aerial vehicle image [J]. Remote Sensing Technology and Application, 2016, 31(1): 51-62.
[11] 紀(jì)景純, 趙原, 鄒曉娟, 等. 無人機(jī)遙感在農(nóng)田信息監(jiān)測(cè)中的應(yīng)用進(jìn)展[J]. 土壤學(xué)報(bào), 2019, 56(4): 773-784.
Ji Jingchun, Zhao Yuan, Zou Xiaojuan, et al. Advancement in application of UAV remote sensing to monitoring of farmlands [J]. Acta Pedologica Sinica, 2019, 56(4): 773-784.
[12] Fang H, Chen H, Jiang H, et al. Research on method of farmland obstacle boundary extraction in UAV remote sensing images [J]. Sensors, 2019(19): 4431-4444.
[13] 韓文霆, 張立元, 張海鑫, 等. 基于無人機(jī)遙感與面向?qū)ο蠓ǖ奶镩g渠系分布信息提?。跩]. 農(nóng)業(yè)機(jī)械學(xué)報(bào), 2017, 48(3): 205-214.
Han Wenting, Zhang Liyuan, Zhang Haixin, et al. Extraction method of sublateral canal distribution information based on UAV remote sensing [J]. Transactions of the Chinese society for Agricultural Machinery, 2017, 48(3): 205-214.
[14] 郭鵬, 武法東, 戴建國, 等. 基于無人機(jī)可見光影像的農(nóng)田作物分類方法比較[J]. 農(nóng)業(yè)工程學(xué)報(bào), 2017, 33(13): 112-119.
Guo Peng, Wu Fadong, Dai Jianguo, et al. Comparison of farmland crop classification methods based on visible light images of unmanned aerial vehicles [J]. Transactions of the Chinese Society of Agricultural Engineering, 2017, 33(13): 112-119.
[15] Wang L, Wang Y, Zhang J, et al. Research on boundary recognition and extraction method of field operation area based on UAV remote sensing images [J]. IFAC-Papers OnLine, 2019, 52(30): 231-238.
[16] Bergado J R, Persello C, Stein A. Recurrent multiresolution convolutional networks for VHR image classification [J]. IEEE Transactions on Geoscience and Remote Sensing, 2018, 56(11): 6361-6374.
[17] Cheng T, Ji X, Yang G, et al. DESTIN: A new method for delineating the boundaries of crop fields by fusing spatial and temporal information from WorldView and Planet satellite imagery [J]. Computers and Electronics in Agriculture, 2020, 178.
[18] Hong R, Park J, Jang S, et al. Development of a parcel-level land boundary extraction algorithm for aerial imagery of regularly arranged agricultural areas [J]. Remote Sensing, 2021, 13(6): 1167.
[19] Wagner M P, Oppelt N. Extracting agricultural fields from remote sensing imagery using graph-based growing contours [J]. Remote Sensing, 2020, 12(7): 1205.
[20] 蔣軍娟. 基于不同算法的地類邊界輪廓檢測(cè)效果對(duì)比分析[J]. 北京測(cè)繪, 2020, 34(12): 1763-1766.
Jiang Junjuan. Comparison and analysis of the detection effect of the boundary contour of land class based on different algorithms [J]. Beijing Surveying and Mapping, 2020, 34(12): 1763-1766.
[21] 龐新華, 朱文泉, 潘耀忠, 等. 基于高分辨率遙感影像的耕地地塊提取方法研究[J]. 測(cè)繪科學(xué), 2009, 34(1): 48-49, 161.
Pang Xinhua, Zhu Wenquan, Pan Yaozhong, et al. Research on cultivated land parcel extraction based on high-resolution remote sensing image [J]. Science of Surveying and Mapping, 2009, 34(1): 48-49, 161.
[22] 楊亞男, 康洋, 樊曉, 等. 基于地形特征的無人機(jī)遙感梯田影像邊緣提取方法[J]. 智慧農(nóng)業(yè), 2019, 1(4): 50-61.
Yang Yanan, Kang Yang, Fan Xiao, et al. Edge extraction method of remote sensing UAV terrace image based on topographic feature [J]. Smart Agriculture, 2019, 1(4): 50-61.
[23] 吳晗, 林曉龍, 李曦嶸, 等. 面向農(nóng)業(yè)應(yīng)用的無人機(jī)遙感影像地塊邊界提?。跩]. 計(jì)算機(jī)應(yīng)用, 2019, 39(1): 298-304.
Wu Han, Lin Xiaolong, Li Xirong, et al. Land parcel boundary extraction of UAV remote sensing image in agricultural application [J]. Journal of Computer Applications, 2019, 39(1): 298-304.
[24] 楊蜀秦, 宋志雙, 尹瀚平, 等. 基于深度語義分割的無人機(jī)多光譜遙感作物分類方法[J]. 農(nóng)業(yè)機(jī)械學(xué)報(bào), 2021, 52(3): 185-192.
Yang Shuqin, Song Zhishuang, Yin Hanping, et al. Crop classification method of UVA multispectral remote sensing based on deep semantic segmentation [J]. Transactions of the Chinese Society for Agricultural Machinery, 2021, 52(3): 185-192.
[25] 汪小欽, 王苗苗, 王紹強(qiáng), 等. 基于可見光波段無人機(jī)遙感的植被信息提?。跩]. 農(nóng)業(yè)工程學(xué)報(bào), 2015, 31(5): 152-159.
Wang Xiaoqin, Wang Miaomiao, Wang Shaoqiang, et al. Extraction of vegetation information from visible unmanned aerial vehicle images [J]. Transactions of the Chinese Society of Agricultural Engineering, 2015, 31(5): 152-159.
[26] 田振坤, 傅鶯鶯, 劉素紅, 等. 基于無人機(jī)低空遙感的農(nóng)作物快速分類方法[J]. 農(nóng)業(yè)工程學(xué)報(bào), 2013, 29(7): 109-116, 295.
Tian Zhenkun, Fu Yingying, Liu Suhong, et al.Rapid crops classification based on UAV low-altitude remote sensing [J]. Transactions of the Chinese Society of Agricultural Engineering, 2013, 29(7): 109-116, 295.
[27] Alastair P M, Simon P, Jonathan W, et al. Superpixel lattices[C]. IEEE Computer Society Conference on Computer Vision and Pattern Recognition, Anchorage, Alaska, USA, 2008.
[28] 韓紀(jì)普, 段先華, 常振. 基于SLIC和區(qū)域生長(zhǎng)的目標(biāo)分割算法[J]. 計(jì)算機(jī)工程與應(yīng)用, 2021, 57(1): 213-218.
Han Jipu, Duan Xianhua, Chang Zhen. Target segmentation algorithm based on SLIC and region growing [J]. Computer Engineering and Applications, 2021, 57(1): 213-218.
[29] 任欣磊, 王陽萍. 基于改進(jìn)簡(jiǎn)單線性迭代聚類算法的遙感影像超像素分割[J]. 激光與光電子學(xué)進(jìn)展, 2020, 57(22): 354-362.
Ren Xinlei, Wang Yangping. Supper-pixel segmentation of remote sensing image based on improved simple linear clustering algorithm [J]. Laser & Optoelectronic Progress, 2020, 57(22): 354-362.
[30] 張珂, 馮曉晗, 郭玉榮, 等. 圖像分類的深度卷積神經(jīng)網(wǎng)絡(luò)模型綜述[J]. 中國圖象圖形學(xué)報(bào), 2021, 26(10): 2305-2325.
Zhang Ke, Feng Xiaohan, Guo Yurong, et al.Overview of deep convolutional neural networks for image classification [J]. Journal of Image and Graphics, 2021, 26(10): 2305-2325.