劉一航,鐘繼康,李瀚
基于四旋翼無人機的機耕農(nóng)場監(jiān)察裝置
劉一航,鐘繼康,李瀚
(武漢理工大學 機電學院,湖北 武漢 430070)
農(nóng)作物在每一個生長周期內(nèi)的外部形狀相對不同,并且大多數(shù)具有明顯的外部特征,因此可以較好區(qū)分農(nóng)作物的生長周期。在現(xiàn)有較為先進的無人機航拍技術基礎上,完全可以依靠無人機對大型農(nóng)場進行普查并結合圖像處理技術判斷生長階段對應性進行耕作?;诖吮尘?,擬研究一套基于四旋翼無人機的機耕農(nóng)場管理系統(tǒng),依靠四旋翼無人機對農(nóng)場進行航拍,對航拍獲得的圖像進行處理,從而判斷生長周期,并且判斷具體屬于哪一塊土地,有針對性地進行耕作。
無人機;機耕農(nóng)場;監(jiān)察;視覺識別
擬采用大疆無人機的大疆御Air無人機,該款無人機航程30 min,運行速度約為30 km/h(最高運行速度可達60 km/h)。航拍穩(wěn)定極高,像素可達3 200萬,并且拍照廣角為180°,方便采集信息。
無人機最大作用距離為4 km(即最大巡航路徑為25 km),并且擁有在4 km內(nèi)傳輸720 p的實時圖傳能力,理論上在不對農(nóng)場環(huán)境做大幅度改造的情況下僅依靠2.4/5.8 GHz信號傳輸?shù)淖畲蟀霃娇蛇_4 km,面積可達50 km2的區(qū)域的圖像拍攝。并且大疆御Air可以依靠Wi-Fi信號傳輸進行控制,因此在中間增加中繼增強信號增大其工作范圍。
軟件部分采用大疆公司的外部開發(fā)SDK為基礎進行開發(fā),將原有的RGB數(shù)學模型轉(zhuǎn)化為較為方便處理的HSV數(shù)學模型,最終采用HSV數(shù)學模型得到的數(shù)值對所得到的圖片進行比對分析。
直接拍照得到的照片是基于RGB模型的像素點的圖形,每一點都由RGB三個數(shù)值存儲,信息存儲量大,處理三維數(shù)組運算相對較慢。并且RGB顏色空間是不均勻的顏色空間,兩個顏色之間的知覺差異與空間中兩點間的歐氏距離不成線性比例,而且RGB值之間的相關性很高。同一顏色屬性在不同條件下RGB值很分散,識別某種特別顏色時,很難確定其閾值和其在顏色傳統(tǒng)的顏色相似度計算方法空間中的分布范圍,不利于目標物體的識別,因此將其轉(zhuǎn)化為較為簡單的HSV模型。程序運行過程如圖1所示。
后期對農(nóng)場圖像進行識別時,選擇最為明顯的小麥成熟為例子講述其識別過程。小麥成熟前為青色,其RGB值為0,255,255,轉(zhuǎn)化為HSV數(shù)學模型后為180,1,255。小麥成熟后為黃色,其RGB值為255,255,0,轉(zhuǎn)化為HSV數(shù)學模型后為60,1,255。其識別僅計算灰度即可,黃色與青色在HSV模型下為互補色,識別起來相對快。
圖1 程序運行過程
在確認了黃色色塊后,軟件將進行形狀識別。圖片所拍攝的畫面承載的土地大小一定,在得到灰度圖后灰度接近60的部分采用畫圓的方法簡單畫出成熟小麥的外框區(qū)域。得到其大致成熟區(qū)域的外形后,根據(jù)圖片比例與圖形比例計算出成熟區(qū)域占據(jù)整體區(qū)域的比例,計算出比例后將會將數(shù)據(jù)上傳給上位機。使用者根據(jù)上位機所顯示的數(shù)據(jù)判斷是否應該采摘。
在實際使用中可能由于光線原因?qū)е碌孛娴淖厣恋卣宫F(xiàn)出與金黃色類似的顏色狀態(tài),因此為了操作者在上位機可以根據(jù)該片區(qū)土地的實際情況(是否存在大面積撂荒)選擇是否對該塊土地進行反復調(diào)查。選擇無人機的自我路徑規(guī)劃可以在一個正方形的四個角對一塊土地進行反復校準,對該塊土地的識別采用相對較為簡單的識別方式,減少識別工作量提升辨別速度。
以一個300 hm2(3 km2)的農(nóng)場為基礎進行計算,無人機每架次巡航15 km,巡航半徑4 km。大型農(nóng)場土地相對較為平整,土地相對較為完整。假設其為一個長2 km、寬1.5 km的土地,操作者可以在任意一點釋放無人機,無人機的定位系統(tǒng)將會在該點建立起坐標系,并且無人機接入網(wǎng)絡依靠地圖導航確定無人機位置,并在坐標系上建立一個動態(tài)的運動模型。
在人工確認作業(yè)區(qū)域全部在信號作用范圍內(nèi)與航程路線規(guī)劃內(nèi)情況下,無人機會隨之建立起一個動態(tài)的運動模型確定其所處的位置,對應性地根據(jù)需要選擇需要探測的土地(不同種類作物成熟期不相同)。
工人在上位機規(guī)劃好對應的行程,上位機把對應的探測區(qū)域展示給使用者,并且使用者需要確認行程上無大塊土地撂荒。如果存在土地撂荒,使用者將需要在規(guī)劃行程時將撂荒區(qū)域標明。工作流程如圖2所示。
圖2 工作流程
無人機飛行過程中不斷進行圖像獲取,圖像處理軟件根據(jù)對應的RGB轉(zhuǎn)HSV算法確定黃色色塊比例以及是否撂荒。無人機將自身的位置信息與圖片黃色色塊比例上傳給上位機,工人根據(jù)實際情況判斷是否采摘。
項目的創(chuàng)新之處有以下幾方面:①采用無人機高速對農(nóng)場進行巡回監(jiān)察并且適應性強;②采用圖像處理技術根據(jù)航拍結果判斷生長周期并且確定自身位置;③多點位多照片提升其圖像識別精確度。
采用圖像處理技術判斷其生長周期,現(xiàn)在較為通用的大疆無人機可運行30 min,行程15 km,在合理規(guī)劃路徑的基礎上,每臺無人機可以在單個班次內(nèi)的監(jiān)察范圍為3~4 km2。在存在電池擴容的情況下,理論上可以滿足一個家庭農(nóng)場所需的監(jiān)察管理需求。還可利用圖像處理技術判斷農(nóng)作物相對較為明顯的生長特征(例如小麥生長期為綠色,成熟期為黃色),并傳輸數(shù)據(jù)給農(nóng)場工人。
國家統(tǒng)計局數(shù)據(jù)顯示,中國現(xiàn)有耕地20.24億畝(約為135萬平方千米),加拿大的農(nóng)場與中國的國有農(nóng)場相比,中國未來約有15萬~20萬個家庭農(nóng)場。每一個家庭農(nóng)場使用一套這樣的系統(tǒng)就可以滿足其的使用需求。
這套系統(tǒng)搭建起來需要8 000元,可以代替人工對附近的土地進行監(jiān)察。無人機工作時間30 min,充電需要54 min,因此每天可飛行6~8架次,合計監(jiān)控監(jiān)察面積為20 km2每架每日。
按照加拿大一個獨立農(nóng)場3 km2土地計算,一臺聯(lián)合收割機每日可以完成0.267~0.333 km2土地的收割,即在10~15個工作日就可以完成對農(nóng)場的采收(實際工作時間可能更長),在這段時間內(nèi)需要人工對可以采收的區(qū)域不斷進行確定(此工作需每日進行一次)。每名農(nóng)業(yè)工人如果人工判斷是否可以采摘,判斷量單日約為0.667 km2土地,該系統(tǒng)相當于4~5名人力,4~5名人力(重體力勞動)半個月的工作時間工資約為10 000~13 000元。由此可得該系統(tǒng)在一年內(nèi)就將會收回成本,并且極大提升了農(nóng)業(yè)自動化程度,減少對人力的需求,同時減少這項工作可能對人的傷害。同時該系統(tǒng)還可提高對生長周期的判斷能力,節(jié)約更多的人力。
[1]程嘉暉.基于深度卷積神經(jīng)網(wǎng)絡的飛行器圖像識別算法研究[D].杭州:浙江大學,2017.
[2]吳笛.基于圖像識別水稻蟲害預警系統(tǒng)的研究[D].長沙:湖南農(nóng)業(yè)大學,2015.
[3]李妍.玉米大豆水稻圖像識別方法研究[D].大慶:黑龍江八一農(nóng)墾大學,2017.
[4]胡直峰.植物圖像識別方法研究及實現(xiàn)[D].杭州:浙江大學,2017.
[5]陳玉輝.基于圖像識別的工業(yè)機器人軌跡規(guī)劃研究與應用[D].杭州:浙江大學,2017.
[6]張鵬.基于圖像特征提取的算法設計與應用[D].成都:電子科技大學,2011.
[7]賴勇.出入口人數(shù)統(tǒng)計系統(tǒng)的設計與實現(xiàn)[D].成都:電子科技大學,2010.
TP391.41
A
10.15913/j.cnki.kjycx.2019.15.052
2095-6835(2019)15-0127-02
〔編輯:嚴麗琴〕