伍淵遠(yuǎn),尚 欣,張呈彬,謝新義
(寧夏大學(xué) 機(jī)械工程學(xué)院,寧夏 銀川 750021)
自然光照下智能葉菜收獲機(jī)作業(yè)參數(shù)的獲取
伍淵遠(yuǎn),尚 欣*,張呈彬,謝新義
(寧夏大學(xué) 機(jī)械工程學(xué)院,寧夏 銀川 750021)
針對(duì)智能葉菜收獲機(jī)作業(yè)過程中需自主獲取導(dǎo)航參數(shù)與割臺(tái)高度調(diào)整參數(shù)的問題,提出了利用機(jī)器視覺技術(shù)獲取這兩種作業(yè)參數(shù)的方法。首先對(duì)自主獲取導(dǎo)航參數(shù)進(jìn)行研究,將采集的葉菜田圖像進(jìn)行預(yù)處理、獲取導(dǎo)航離散點(diǎn),利用穩(wěn)健回歸法對(duì)離散點(diǎn)進(jìn)行線性擬合進(jìn)而獲得導(dǎo)航控制參數(shù),以便收獲機(jī)調(diào)整作業(yè)方向;然后對(duì)于割臺(tái)高度調(diào)節(jié)參數(shù),將葉菜割茬圖像預(yù)處理及割茬高度特征提取以獲得割茬高度,利用割茬高度作為收獲機(jī)割臺(tái)高度調(diào)整的參數(shù)。結(jié)果表明,導(dǎo)航線準(zhǔn)確識(shí)別率為97%,留茬高度的平均測量誤差為8 mm,最大相對(duì)誤差為11.9%。說明該方法在自然光照下,能有效獲取作業(yè)方向參數(shù)和留茬高度,為無人駕駛式收獲機(jī)的智能、精準(zhǔn)作業(yè)提供了技術(shù)支持。
機(jī)器視覺;智能收獲機(jī);導(dǎo)航參數(shù);割茬高度
隨著信息技術(shù)、傳感技術(shù)的發(fā)展應(yīng)用,農(nóng)業(yè)裝備智能化已經(jīng)成為未來發(fā)展的必然趨勢[1-3]。葉菜收獲機(jī)在其作業(yè)過程中對(duì)作業(yè)參數(shù)的自主獲取技術(shù)是實(shí)現(xiàn)葉菜收獲機(jī)智能化、無人化的關(guān)鍵,而葉菜收獲機(jī)作業(yè)中導(dǎo)航參數(shù)與割臺(tái)高度調(diào)整參數(shù)作為關(guān)鍵作業(yè)參數(shù),直接影響到智能葉菜收獲機(jī)的作業(yè)軌跡與收獲質(zhì)量,故對(duì)葉菜收獲機(jī)自動(dòng)獲取導(dǎo)航參數(shù)與割臺(tái)高度調(diào)整參數(shù)的研究對(duì)實(shí)現(xiàn)葉菜收獲機(jī)的完全智能化具有重要意義。智能農(nóng)業(yè)裝備導(dǎo)航研究主要集中在GPS導(dǎo)航和機(jī)器視覺這兩種方式[4-5]。GPS導(dǎo)航雖可進(jìn)行大范圍的路徑規(guī)劃,但其抗干擾能力弱,基于機(jī)器視覺的導(dǎo)航技術(shù)提供的相對(duì)坐標(biāo)使導(dǎo)航更加靈活[6-8]。因此,利用機(jī)器視覺獲取導(dǎo)航參數(shù)已有不少研究,但其運(yùn)用于實(shí)踐時(shí)仍存在實(shí)時(shí)性、穩(wěn)定性差的問題。同時(shí),隨著近年來精準(zhǔn)農(nóng)業(yè)的興起,機(jī)器視覺系統(tǒng)在提供導(dǎo)航信息的同時(shí)還能搜集更多有關(guān)作物的信息,如:作物形態(tài)結(jié)構(gòu)參數(shù)、病蟲害信息的獲取等,因此能為精準(zhǔn)農(nóng)業(yè)的實(shí)施和農(nóng)業(yè)裝備完全智能化提供更可靠的支撐[9]。故機(jī)器視覺技術(shù)能為葉菜收獲機(jī)自主獲取更多作業(yè)參數(shù)提供解決途徑,通過機(jī)器視覺識(shí)別葉菜收獲作業(yè)中割茬高度用以控制割臺(tái)高度調(diào)整是實(shí)現(xiàn)智能葉菜收獲機(jī)自動(dòng)獲取割臺(tái)高度調(diào)整參數(shù)的有效手段。雖已有國內(nèi)外學(xué)者利用機(jī)器視覺技術(shù)對(duì)核桃、馬鈴薯、結(jié)球甘藍(lán)等農(nóng)產(chǎn)品的形態(tài)特征檢測方法進(jìn)行了研究,但檢測目的還局限于實(shí)現(xiàn)農(nóng)產(chǎn)品品質(zhì)外形檢測及分類分級(jí)上[10-14],對(duì)采用機(jī)器視覺技術(shù)實(shí)時(shí)檢測收獲作業(yè)中作物割茬高度用以實(shí)現(xiàn)葉菜收獲機(jī)及時(shí)自動(dòng)調(diào)整割臺(tái)的研究還未見報(bào)道。針對(duì)上述問題,本文利用機(jī)器視覺技術(shù)著重對(duì)葉菜收獲機(jī)自主獲取導(dǎo)航參數(shù)與割茬高度參數(shù)的算法開展研究,提出一種準(zhǔn)確、穩(wěn)健、快速的算法以滿足葉菜收獲機(jī)自主作業(yè)實(shí)時(shí)性要求,并依此設(shè)計(jì)一種切割裝置高度控制系統(tǒng)。
首先對(duì)作物圖像進(jìn)行預(yù)處理得到二值圖像,然后將其劃分為若干個(gè)水平圖像條并選取目標(biāo)窗口,分別對(duì)每圖像條進(jìn)行垂直投影確定作物行中心得到導(dǎo)航離散點(diǎn),使用穩(wěn)健回歸法對(duì)導(dǎo)航離散點(diǎn)進(jìn)行線性擬合獲得導(dǎo)航參數(shù),如圖1所示。
1.1 圖像預(yù)處理
對(duì)圖像的預(yù)處理有著非常重要的作用,預(yù)處理階段得到的圖像的質(zhì)量高低直接影響到后續(xù)對(duì)圖像特征提取的效果好壞,這也是圖像處理中的一個(gè)難題。
1.1.1 圖像灰度化
將葉菜田間采集到的圖像分析發(fā)現(xiàn)作物的顏色呈綠色,而土壤表現(xiàn)為非綠色,如圖2所示。對(duì)田間圖像特征分析發(fā)現(xiàn),作物的綠(G)顏色分量較高,土壤背景的紅(R)分量較高,田間彩色圖像中水平線剖面的紅(R)、綠(G)、藍(lán)(B)顏色分量如圖1所示。因此,為了突出作物圖像中的綠色分量值、抑制背景,常用圖像灰度化方法為超綠色法[15-16],如圖3所示。
1.1.2 圖像閾值分割
在將彩色圖像轉(zhuǎn)換為灰度圖像后,需要對(duì)其進(jìn)行分割以便提取圖像中目標(biāo)。目前研究中常用分割方法有:最大類間方差法(Otsu法)、動(dòng)態(tài)閾值法、K-Means算法等。Otsu算法計(jì)算簡單、穩(wěn)定有效,能使用于圖像特點(diǎn)與質(zhì)量相異的場合;動(dòng)態(tài)閾值分割法利用子區(qū)域獨(dú)立分割的思想,對(duì)小區(qū)域分割效果很好且適用于光照不均勻的圖像,但是不太適用于對(duì)實(shí)時(shí)性要求較高的圖像處理中[17];K-Means具有一定的自適應(yīng)性,且不受噪聲與局部邊緣變化的影響,但該算法易受聚類中心的數(shù)目以及初始類中心的影響。綜合分析研究采用Otsu算法,實(shí)現(xiàn)圖像分割閾值的自動(dòng)獲取,圖像分割得到的二值圖中土壤背景與作物區(qū)分明顯,如圖4所示。
圖1 導(dǎo)航參數(shù)獲取算法流程圖Fig.1 Flow chart of navigation parameter acquisition algorithm
圖2 田間圖像與水平線剖面顏色信息Fig.2 Color information of the field image
圖3 田間灰度圖像Fig.3 Gray image of the field
1.1.3 二值圖像除噪處理
由于田間雜草、枯葉、光線等影響,采集到的圖像質(zhì)量往往不夠高,如圖4所示,得到的二值圖像噪聲較多。文中采用5×5的窗口進(jìn)行中值濾波去除其噪聲,處理后圖像噪點(diǎn)明顯減少,結(jié)果如圖5所示。
圖4 田間圖像分割結(jié)果Fig.4 Results of field image segmentation
圖5 中值濾波圖像Fig.5 Median filter image
1.2 導(dǎo)航路徑識(shí)別
1.2.1 獲取導(dǎo)航離散點(diǎn)
在葉菜大規(guī)模種植中作物行通常呈直線狀,行與行間幾乎呈平行關(guān)系,且作物行之間距離基本相等。由于攝像機(jī)安裝在智能收獲機(jī)的正中間,因此可利用采集到的圖像中間的作物行的一組中間點(diǎn)作為導(dǎo)航離散點(diǎn)。采集到的圖像中作物行在遠(yuǎn)方有收斂趨勢,故將圖像水平劃分為若干等高度的圖像條后理想狀態(tài)下每一圖像條上必然有作物存在。之后對(duì)每一圖像條進(jìn)行垂直投影,得到相應(yīng)的垂直投影曲線[18]。計(jì)算每一圖像條的白色像素均值,由其均值分別判斷最左邊作物行的左邊緣點(diǎn)和最右邊作物行的右邊緣點(diǎn),求出左邊緣點(diǎn)與右邊緣點(diǎn)的中間點(diǎn)即為作物行的中心點(diǎn)。本方法具體實(shí)現(xiàn)過程如下:
設(shè)圖像高為H,寬為B。由于采集到的圖像的中間總是存在作物行,因此選取圖像中心1/3區(qū)域?yàn)樘幚泶翱冢幚韰^(qū)圖像寬度為l(l=B/3),如圖6所示。此處理方法可以避免由于采集到的圖像中出現(xiàn)作物行不對(duì)稱導(dǎo)致導(dǎo)航線提取時(shí)出現(xiàn)較大誤差的情況。將目標(biāo)窗口圖像等距水平劃分為若干大小為l×h的圖像條。f(i,j)為圖像條上(i,j)處的灰度值,s(j)為圖像條上第j列垂直投影后得到的投影值,m為圖像條中所有投影值的平均值。計(jì)算公式為:
(1)
(2)
式中:i=1,2,3,…,h;j=1,2,3,…,l。
1)圖像條劃分取h=20(單位為像素),即劃分為l×20的若干圖像條,如圖7所示。
2)對(duì)每圖像條窗口從左到右逐列掃描,求出每列中白色像素個(gè)數(shù)s(j),并計(jì)算出各圖像條平均值m,如圖7。
圖6 目標(biāo)窗口Fig.6 Objective window
圖7 第1行圖像條及其垂直投影Fig.7 Strip of image and its vertical projection curve
3)對(duì)各圖像條s(j)分別先從左至右掃描,求處理窗口作物行左邊緣點(diǎn),然后從右至左掃描求得作物行右邊緣點(diǎn)。實(shí)現(xiàn)方法為:從左至右依次判斷若s(j) 4)分別對(duì)每圖像條求中間點(diǎn)位置t,方法為:t=(x1+x2)/2,t即為每一圖像條的導(dǎo)航離散點(diǎn)位置,導(dǎo)航離散點(diǎn)獲取算法流程見圖8。 1.2.2 獲取導(dǎo)航線參數(shù) 在獲取導(dǎo)航路徑時(shí)研究中常用:最小二乘法、Hough變換等。綜合分析,實(shí)驗(yàn)采用回歸系數(shù)較好,模式較穩(wěn)定,擬合效果較理想的穩(wěn)健回歸法對(duì)導(dǎo)航離散點(diǎn)擬合得到導(dǎo)航參數(shù)。 1.3 導(dǎo)航控制參數(shù)計(jì)算 通過獲得的導(dǎo)航線參數(shù)可以得到所需的導(dǎo)航控制參數(shù)。導(dǎo)航控制參數(shù)主要包含實(shí)際導(dǎo)航路線與智能收獲機(jī)軸線的側(cè)向位移偏差和角度偏差[19]。基于單目機(jī)器視覺智能收獲機(jī)的路徑信息與導(dǎo)航控制參數(shù)信息轉(zhuǎn)換示意圖如圖9所示。 圖8 導(dǎo)航離散點(diǎn)獲取算法流程圖Fig.8 Flow chart of navigation discrete point acquisition algorithm 圖9 位移偏差與角度偏差示意圖Fig.9 Schematic diagram of displacement deviation and angular deviation 如圖9中,原點(diǎn)O為攝像機(jī)中心點(diǎn),y軸為智能收獲機(jī)軸線方向,虛線為得到的導(dǎo)航路徑,L為智能收獲機(jī)軸線與導(dǎo)航路徑的位移偏差,α為導(dǎo)航路徑與收獲機(jī)的角度偏差。根據(jù)攝像機(jī)坐標(biāo)系與圖像坐標(biāo)系關(guān)系及小孔成像原理,可將圖像坐標(biāo)系中的L和α轉(zhuǎn)換到世界坐標(biāo)系相應(yīng)參考路徑的L′和α′。轉(zhuǎn)換公式如下: (3) (4) 式中:k1、k2為攝像機(jī)內(nèi)部參數(shù),可通過攝像機(jī)標(biāo)定獲得;β為攝像機(jī)傾角;X0為圖像坐標(biāo)系中導(dǎo)航路徑與x軸的交點(diǎn)。據(jù)此公式便可由圖像坐標(biāo)系中導(dǎo)航路徑得到世界坐標(biāo)系中的導(dǎo)航參數(shù)。 在葉菜收獲機(jī)作業(yè)過程中,由于地形、葉菜品種等因素的影響,會(huì)導(dǎo)致葉菜收獲的割茬出現(xiàn)不同的高度,甚至出現(xiàn)不符合收獲要求的割茬,因此就要求智能葉菜收獲機(jī)能有根據(jù)割臺(tái)高度調(diào)整參數(shù)自動(dòng)調(diào)整割臺(tái)的功能。文中對(duì)割臺(tái)高度調(diào)整參數(shù)的獲取研究,是利用機(jī)器視覺技術(shù)對(duì)葉菜收獲過程中的割茬進(jìn)行高度特征提取,將獲取的割茬高度通過相應(yīng)的轉(zhuǎn)換作為割臺(tái)高度調(diào)整參數(shù)傳送給割臺(tái)調(diào)整系統(tǒng)。故文中研究重點(diǎn)是機(jī)器視覺對(duì)割茬高度的獲取。 2.1 割茬高度檢測系統(tǒng)設(shè)計(jì) 對(duì)于不同種類葉菜作物,收獲機(jī)收割后其留茬高度基本是不同的。因此綜合考慮檢測精度和經(jīng)濟(jì)效益,設(shè)計(jì)出一種基于視覺識(shí)別的收獲機(jī)割臺(tái)高度智能控制系統(tǒng),如圖10。其中CCD相機(jī)負(fù)責(zé)采集待測作物圖像,并將采集到的圖像信號(hào)轉(zhuǎn)換成數(shù)字信號(hào)傳輸?shù)接?jì)算機(jī)中。計(jì)算機(jī)對(duì)輸入的信號(hào)進(jìn)行處理、運(yùn)算輸出割臺(tái)位移信號(hào)h0,經(jīng)過指令電位器后變?yōu)殡妷盒盘?hào)u,同時(shí)割臺(tái)位移信號(hào)h經(jīng)過反饋電位器得到反饋電壓u′,則由橋式電路將偏差電壓信號(hào)u″=u-u′算出,當(dāng)u″為零時(shí)工作臺(tái)不發(fā)生移動(dòng)。當(dāng)計(jì)算機(jī)發(fā)出新的指令時(shí),指令位移信號(hào)實(shí)際需要調(diào)整的距離信號(hào)h0與割臺(tái)位移信號(hào)h會(huì)產(chǎn)生偏差電壓信號(hào)u″,此偏差信號(hào)被轉(zhuǎn)化成不同占空比的PWM信號(hào),經(jīng)PWM放大器的功率放大后,控制電磁閥開度,由輸出流量去控制切割裝置移動(dòng),直到u″信號(hào)為零時(shí),切割裝置停止運(yùn)動(dòng)。其控制原理圖如圖11所示。 高度計(jì)算公式為: H=H0-H1。 (5) 其中H1=n×l,對(duì)得到的預(yù)處理圖像從上向下進(jìn)行逐行掃描,得出第一行有像素為1的行,確定此行數(shù)值n;l為每個(gè)像素代表的實(shí)際尺寸長度,由標(biāo)定得到;H0為圖像高度,由于是定焦距拍攝目標(biāo),所以H0可通過標(biāo)定得到。 2.2 系統(tǒng)標(biāo)定 為確定測量系統(tǒng)中每一個(gè)像素代表的目標(biāo)尺寸大小,需對(duì)測量系統(tǒng)標(biāo)定。首先在白板上標(biāo)出橫縱坐標(biāo)軸,每點(diǎn)坐標(biāo)間距為10 mm,然后將白板貼在平整的墻上,使x、y軸分別平行于地面和鉛垂線;固定好的攝像頭要求其鏡頭中心與板上坐標(biāo)軸中心在同一高度,且垂直于平板所在平面,需保證平面到攝像頭前段距離為固定值W=305 mm,調(diào)整焦距使圖像清晰,并固定焦距不變;然后采集圖像,經(jīng)過計(jì)算便可求出每個(gè)像素垂直方向代表實(shí)際尺寸為:l=0.63 mm。 1, 待測作物; 2,CCD相機(jī);3,計(jì)算機(jī);4,電位器;5,收獲機(jī)切割裝置1, Tested crop;2,CCD camera;3, Computer;4,Potentiometer;5,Harvester cutting device圖10 智能控制系統(tǒng)示意圖Fig.10 Schematic diagram of intelligent control system 圖11 割臺(tái)高度控制系統(tǒng)原理圖Fig.11 Schematic diagram of cutting height control system 2.3 割茬圖像處理 利用標(biāo)定好的高度測量系統(tǒng)對(duì)割茬高度圖像進(jìn)行采集。然后對(duì)采集到的割茬圖像進(jìn)行預(yù)處理,以達(dá)到對(duì)圖像分割和背景去除,如圖12所示。對(duì)割茬圖像預(yù)處理采用2 GRB顏色特征將其進(jìn)行灰度化,利用Otsu 法將灰度圖像二值化,并運(yùn)用中值濾波對(duì)二值圖像處理去除噪聲。為了準(zhǔn)確計(jì)算割茬形態(tài)結(jié)構(gòu)參數(shù),在圖像分割完成后,必須完全去除背景,所以文中在采用3×3單位矩陣對(duì)二值圖像進(jìn)行一次腐蝕處理。最終分割圖像如圖12所示。圖像中的殘留背景被有效去除,得到的圖像效果較好,割茬目標(biāo)形狀變化不大。然后對(duì)得到的分割圖像從上向下依次掃描,得出第一行有像素為1的行,確定此行為n。 圖12 留茬原圖像及預(yù)處理圖像Fig.12 Original image and preprocessed image 圖像處理由PC機(jī)完成,配置為:CPU主頻率2.3 GHz,內(nèi)存4 GB。采用MATLAB R2014a仿真。 3.1 導(dǎo)航路徑獲取實(shí)驗(yàn) 為了驗(yàn)證算法的通用性和合理性,于寧夏大學(xué)賀蘭試驗(yàn)基地隨機(jī)采集了30張不同時(shí)間段的葉菜田間圖像來驗(yàn)證,圖像尺寸為960×720。圖像處理依次按照所述的圖像預(yù)處理、劃分目標(biāo)窗口及圖像條、獲取導(dǎo)航離散點(diǎn)、穩(wěn)健回歸擬合導(dǎo)航線,試驗(yàn)結(jié)果表明,97%的圖像都可以檢測出導(dǎo)航線來,每一條導(dǎo)航線都代表作物行中心線,整個(gè)過程平均耗時(shí)為0.26 s,實(shí)驗(yàn)結(jié)果如圖13所示。 3.2 高度識(shí)別實(shí)驗(yàn) 在自然光照下,于銀川市西夏區(qū)分別模擬大白菜、油麥菜、結(jié)球甘藍(lán)被收割后的不同留茬高度場景,利用標(biāo)定好的測量系統(tǒng),對(duì)每一場景下的葉菜高度進(jìn)行了試驗(yàn)。首先將大白菜、油麥菜、結(jié)球甘藍(lán)分別分為A組、B組、C組。分別對(duì)每一組的作物模擬隨機(jī)截取三個(gè)不同高度的留茬。對(duì)A組三個(gè)不同高度的留茬依次編號(hào)為:A1、A2、A3;對(duì)B組三個(gè)不同高度的留茬依次編號(hào)為:B1、B2、B3;對(duì)C組三個(gè)不同高度的留茬依次編號(hào)為:C1、C2、C3。然后利用刻度尺人工測量出每組作物留茬高度實(shí)際值,再使用標(biāo)定好的測量系統(tǒng)對(duì)其進(jìn)行圖像采集、處理、高度運(yùn)算,分別進(jìn)行3次,取平均值,部分割茬圖像處理結(jié)果見圖14所示。兩種方法進(jìn)行對(duì)比,結(jié)果如表1所示。對(duì)高度測量的評(píng)價(jià)方法采用相對(duì)誤差來衡量。由表1可以看出,視覺系統(tǒng)檢測到的作物留茬高度比其真實(shí)高度要小。綜合分析可知,造成此情況是因?yàn)樵趫D像預(yù)處理階段對(duì)圖像的腐蝕處理去掉了作物的部分邊緣輪廓,且在人工測量的過程中不可避免的人為誤差和系統(tǒng)誤差都會(huì)造成上述情況出現(xiàn)。 圖13 導(dǎo)航線提取結(jié)果Fig.13 Image results 圖14 預(yù)處理結(jié)果Fig.14 Pretreatment result 表1高度測量結(jié)果對(duì)比 Table1Comparison of height measurement results 測量方法Measuringmethod編號(hào)NumberA1A2A3B1B2B3C1C2C3人工測量Manualmeasurement/cm26.517.611.328.219.615.116.011.06.0視覺測量Systemmeasurement/cm26.416.611.626.917.913.315.411.26.6測量誤差Measurementerror/cm0.11.00.31.31.71.80.60.20.6相對(duì)誤差Relativeerror/%0.385.682.654.618.6711.923.751.8210.00 1)獲取導(dǎo)航參數(shù)算法,利用劃分若干圖像條的方法進(jìn)行垂直投影獲取導(dǎo)航離散點(diǎn)然后穩(wěn)健回歸得到導(dǎo)航參數(shù)穩(wěn)定有效。 2)對(duì)留茬高度獲取時(shí),對(duì)系統(tǒng)標(biāo)定過程中產(chǎn)生的誤差會(huì)嚴(yán)重影響到系統(tǒng)后續(xù)對(duì)割茬高度測量的準(zhǔn)確性,同時(shí)在利用視覺測量過程中人為因素導(dǎo)致的不確定性對(duì)視覺系統(tǒng)的影響也較大。后續(xù)研究中可集中在降低外界因素對(duì)視覺測量系統(tǒng)的不利影響上。由系統(tǒng)測量得到留茬高度后便可根據(jù)實(shí)際情況調(diào)整收獲機(jī)工作臺(tái)到合適收割高度。 3)試驗(yàn)結(jié)果表明,導(dǎo)航線提取過程平均耗時(shí)為0.26 s,導(dǎo)航線準(zhǔn)確識(shí)別率為97%,留茬高度識(shí)別平均測量誤差為8 mm,最大相對(duì)誤差為11.9%,基本滿足智能葉菜收獲機(jī)自主作業(yè)要求,為研究無人駕駛式葉菜智能收獲機(jī)提供了視覺基礎(chǔ)。 [1] 周濟(jì). 智能制造——“中國制造2025”的主攻方向[J]. 中國機(jī)械工程, 2015,26(17):2273-2284. ZHOU J. Intelligent mannfacturing-Main direction of “Made in China 2025”[J].ChinaMechanicalEngineering, 2015,26(17):2273-2284. (in Chinese with English abstract) [2] 羅維. 國務(wù)院印發(fā)《中國制造2025》全面推進(jìn)制造強(qiáng)國戰(zhàn)略[J]. 上海金屬, 2015(4):69. LUO W. The State Council issued the “made in China 2025” comprehensively promote the manufacturing strategy[J].ShanghaiMetals, 2015(4):69. (in Chinese) [3] 王俊,杜冬冬,胡金冰,等. 蔬菜機(jī)械化收獲技術(shù)及其發(fā)展[J]. 農(nóng)業(yè)機(jī)械學(xué)報(bào), 2014, 45(2):81-87. WANG J, DU D D, HU J B, et al. Vegetable mechanized harvesting technology and its development[J].TransactionsoftheChineseSocietyforAgriculturalMachinery, 2014, 45(2):81-87. (in Chinese with English abstract) [4] CHEN B, TOJO S, WATANABE K. Machine vision for a micro weeding robot in a paddy field[J].BiosystemsEngineering, 2003, 85(4):393-404. [5] 陳艷,張漫,馬文強(qiáng),等. 基于GPS和機(jī)器視覺的組合導(dǎo)航定位方法[J]. 農(nóng)業(yè)工程學(xué)報(bào), 2011, 27(3):126-130. CHEN Y, ZHANG M, MA W Q, et al. Positioning method of integrated navigation based on GPS and machine vision[J].TransactionsoftheChineseSocietyofAgriculturalEngineering, 2011, 27(3): 126-130. (in Chinese with English abstract) [6] 胡靜濤,高雷,白曉平,等. 農(nóng)業(yè)機(jī)械自動(dòng)導(dǎo)航技術(shù)研究進(jìn)展[J]. 農(nóng)業(yè)工程學(xué)報(bào), 2015, 31(10):1-10. HU J T, GAO L, BAI X P, et al. Review of research on automatic guidance of agricultural vehicles[J].TransactionsoftheChineseSocietyofAgriculturalEngineering, 2015, 31(10): 1-10. (in Chinese with English abstract) [7] 劉陽,高國琴. 農(nóng)業(yè)機(jī)械視覺導(dǎo)航基準(zhǔn)線識(shí)別研究進(jìn)展[J]. 農(nóng)機(jī)化研究, 2015(5):7-13. LIU Y, GAO G Q. Research development of vision-based guidance directrix recognition for agriculture vehicles[J].JournalofAgriculturalMechanizationResearch, 2015(5):7-13. (in Chinese with English abstract) [8] 孟慶寬,何潔,仇瑞承,等. 基于機(jī)器視覺的自然環(huán)境下作物行識(shí)別與導(dǎo)航線提取[J]. 光學(xué)學(xué)報(bào), 2014(7):172-178. MENG Q K, HE J, QIU R C, et al. Crop recognition and navigation line detection in natural environment based on machine vision[J].ActaOpticaSinica, 2014(7):172-178. (in Chinese with English abstract) [9] 刁智華,王會(huì)丹,魏偉. 機(jī)器視覺在農(nóng)業(yè)生產(chǎn)中的應(yīng)用研究[J]. 農(nóng)機(jī)化研究, 2014(3):206-211. DIAO Z H, WANG H D, WEI W. Summary of research on machine vision application in agricultural production[J].JournalofAgriculturalMechanizationResearch, 2014(3):206-211. (in Chinese with English abstract) [10] 劉建軍,姚立健,彭樟林. 基于機(jī)器視覺的山核桃等級(jí)檢測技術(shù)[J]. 浙江農(nóng)業(yè)學(xué)報(bào), 2010, 22(6):854-858. LIU J J, YAO L J, PENG Z L. Detection technique for cathay hickory grade based on machine vision[J].ActaAgriculturaeZhejiangensis, 2010, 22(6):854-858. (in Chinese with English abstract) [11] AL OHALI Y. Computer vision based date fruit grading system: Design and implementation[J].JournalofKingSaudUniversity-ComputerandInformationSciences, 2011, 23(1):29-36. [12] ELMASRY G, CUBERO S, MOLTO E, et al. In-line sorting of irregular potatoes by using automated computer-based machine vision system[J].JournalofFoodEngineering, 2012, 112(1-2):60-68. [13] 李愷,楊艷麗,劉凱,等. 基于機(jī)器視覺的紅掌檢測分級(jí)方法[J]. 農(nóng)業(yè)工程學(xué)報(bào), 2013, 29(24):196-203. LI K, YANG Y L, LIU K, et al. Determination and grading of Anthurium based on machine vision[J].TransactionsoftheChineseSocietyofAgriculturalEngineering, 2013, 29(24): 196-203. (in Chinese with English abstract) [14] 李鴻強(qiáng),孫紅,李民贊. 基于機(jī)器視覺的結(jié)球甘藍(lán)形狀鑒別方法[J]. 農(nóng)業(yè)機(jī)械學(xué)報(bào), 2015,46(S1):141-146. LI H Q, SUN H, LI M Z. Identification of cabbage ball shape based on machine vision[J].TransactionsoftheChineseSocietyforAgriculturalMachinery, 2015,46(S1):141-146. (in Chinese with English abstract) [15] 袁加紅,朱德泉,孫丙宇,等. 基于機(jī)器視覺的水稻秧苗圖像分割[J]. 浙江農(nóng)業(yè)學(xué)報(bào), 2016, 28(6):1069-1075. YUAN J H, ZHU D Q, SUN B Y, et al. Machine vision based segmentation algorithm for rice seedling[J].ActaAgriculturaeZhejiangensis, 2016, 28(6):1069-1075. (in Chinese with English abstract) [16] SEGAARD H T, OLSEN H J. Determination of crop rows by image analysis without segmentation[J].Computers&ElectronicsinAgriculture, 2003, 38(2):141-158. [17] 田海韜,趙軍,蒲富鵬. 馬鈴薯芽眼圖像的分割與定位方法[J]. 浙江農(nóng)業(yè)學(xué)報(bào), 2016, 28(11):1947-1953. TIAN H T, ZHAO J, PU F P. A method for recognizing potato’s bud eye[J].ActaAgriculturaeZhejiangensis, 2016, 28(11):1947-1953. (in Chinese with English abstract) [18] 何潔,孟慶寬,張漫,等. 基于邊緣檢測與掃描濾波的農(nóng)機(jī)導(dǎo)航基準(zhǔn)線提取方法[J]. 農(nóng)業(yè)機(jī)械學(xué)報(bào), 2014,45(S1):265-270. HE J, MENG Q K,ZHANG M, et al. Crop baseline extraction method for off-road vehicle based on boundary detection and scan-filter[J].TransactionsoftheChineseSocietyforAgriculturalMachinery, 2014,45(S1):265-270. (in Chinese with English abstract) [19] 遲德霞,任文濤,由佳翰,等. 水稻插秧機(jī)視覺導(dǎo)航信息獲取試驗(yàn)[J]. 沈陽農(nóng)業(yè)大學(xué)學(xué)報(bào), 2015, 46(5): 575-580. CHI D X, REN W T, YOU J H, et al. Experiment on acquisition of navigation information of unmanned rice transplanter based on machine vision[J].JournalofShenyangAgriculturalUniversity, 2015, 46(5): 575-580. (in Chinese with English abstract) (責(zé)任編輯張 韻) Acquisitionofoperationparametersofintelligentleafvegetableharvesterundernaturallighting WU Yuanyuan, SHANG Xin*, ZHANG Chengbin, XIE Xinyi (SchoolofMechanicalEngineering,NingxiaUniversity,Yinchuan750021,China) Aiming at the problem of obtaining navigation parameters and the height of cutting platform parameters autonomously during the operation of intelligent leaf vegetable harvester, the method of obtaining two kinds of job parameters by machine vision was proposed. Firstly, the autonomous navigation parameters were studied, the collected images of leaf vegetables were pretreated and the navigation discrete points were obtained. The robust regression method was used to linearly fit the discrete points to obtain the navigation control parameters so that the harvester could adjust the direction of the work. Then the parameters for the height of the cutting table, image preprocessing and stubble height feature extraction of leafy vegetables were adjusted. The stubble height was used as the parameter of the height of the cutting table of the harvester. The results showed that the accurate line recognition rate was 97%, and the relative error of stubble height was 8 mm, the maximum relative error was 11.9%. It showed that the method could effectively extract the direction parameters and stubble height under natural light, which provided technical support for intelligent and accurate operation of unmanned harvester. machine vision; intelligent harvester; navigation parameter; stubble height 伍淵遠(yuǎn),尚欣,張呈彬,等. 自然光照下智能葉菜收獲機(jī)作業(yè)參數(shù)的獲取[J].浙江農(nóng)業(yè)學(xué)報(bào),2017,29(11): 1930-1937. 10.3969/j.issn.1004-1524.2017.11.21 2017-05-02 寧夏回族自治區(qū)西部一流學(xué)科建設(shè)項(xiàng)目(機(jī)械工程);寧夏大學(xué)研究生創(chuàng)新項(xiàng)目(GIP2017019) 伍淵遠(yuǎn)(1992—),男,四川達(dá)州人,碩士研究生,主要從事智能農(nóng)業(yè)裝備研究。E-mail: keatswu@163.com *通信作者,尚欣,E-mail: XKshangx@163.com S126;TP242 A 1004-1524(2017)11-1930-082 割臺(tái)高度調(diào)整參數(shù)的獲取
3 結(jié)果與分析
4 結(jié)論