孟慶寬, 楊曉霞, 劉 易, 劉永江, 張振儀
(1.天津職業(yè)技術師范大學自動化與電氣工程學院,天津 300222; 2.天津市信息傳感與智能控制重點實驗室,天津 300222)
利用農業(yè)移動機器人進行自動化導航作業(yè),能夠顯著提高田間作業(yè)速度,降低生產成本,避免勞動者暴露在高溫、高濕等惡劣環(huán)境中[1]?;跈C器視覺導航的農業(yè)移動機器人具有作業(yè)效率高、實時性好、系統(tǒng)成本低等優(yōu)點,已經成為國內外農業(yè)機械導航領域的一個研究重點[2]。導航基準線提取是農業(yè)移動機器人進行導航作業(yè)的關鍵環(huán)節(jié)之一,實時準確地檢測作物行中心線和導航路徑能有效提升移動機器人的作業(yè)速度與精度。
農田環(huán)境復雜多變,光照變化、雜草噪聲、陰影遮擋及導航基準線檢測算法的魯棒性對于農業(yè)移動機器人能否高效穩(wěn)定地進行導航作業(yè)有重要影響。為了克服光照變化對視覺圖像處理產生的干擾,安秋等[3]提出了一種基于光照穩(wěn)定性及光照無關圖的導航信息獲取方法,提高了導航路徑識別對光照變化的適應性。Jiang等[4-7]在RGB[R:紅(Red),G:綠(Green),B:藍(Blue)]、HIS[H:色調(Hue),I:強度(Intensity),S:飽和度(Saturation)]和YCrCb[Y:明亮度(Luminance),Cr:紅色分量色度(Chrominance of red),Cb:藍色分量色度(Chrominance of blue)]顏色空間下,分別選擇2G-R-B顏色因子、H分量及Cr分量將彩色圖像轉換為灰度圖像,以降低圖像分割對光照變化的敏感度。由于R、G、B 3個分量相互耦合,隨光照度的變化而變化,因此2G-R-B顏色因子對光照變化的適應性不強;H分量與RGB顏色空間的轉化是非線性的,在一定程度上會導致圖像失真,從而使圖像處理結果產生誤差;YCrCb顏色空間由明亮度分量、紅色分量、藍色分量構成,沒有對綠色分量進行有效表達,不適合處理農田綠色作物圖像。在作物行直線擬合方法的選擇上,Gée等[8-9]采用Hough變換進行作物行識別,存在累加器峰值較難確定、計算量大的問題,而且當雜草噪聲較大時, 作物行直線檢測的實時性和準確性變差。司永勝等[10]采用最小二乘法進行早期作物行中心線檢測,基于作物行特征點鄰近關系對特征點進行分類,對歸類后的特征點通過最小二乘法進行直線擬合,得到作物行中心線,但在歸類過程中存在將雜草噪聲點歸為作物特征點的情況,會對作物行直線的擬合精度造成影響。姜國權等[11]提出基于圖像特征點粒子群聚類算法的麥田作物行檢測方法,通過粒子群聚類算法對圖像特征點進行聚類,然后對每類特征點進行直線擬合,獲取麥田作物行中心線,與標準Hough變換相比,運行速度提高了1倍。何潔等[12]通過掃描濾波算法識別作物行中心線,結果顯示,該算法計算速度快、適應能力強,但算法檢測的準確性主要取決于移動步長的選擇。孟慶寬等[13]應用粒子群算法在圖像頂邊和底邊的像素點集合中搜索作物行中心線,進而得到導航路徑,不過圖像頂邊和底邊區(qū)域范圍內的大部分像素點距離作物行中心線較遠,可見算法的檢測速度與準確性還有進一步提升的空間。刁智華等[14]采用最大正方形提取作物骨架,通過直線擬合得到作物行直線,由于算法需要對每個目標像素點查找最大正方形,從而增加了計算復雜度,耗時較多,在高速導航作業(yè)的情況下容易導致系統(tǒng)響應速度產生延遲。陳子文等[15]提出一種基于自動Hough變換累加閾值的多作物行提取算法,實現(xiàn)了對不同生長時期的生菜、綠甘藍的準確識別,不過此算法涉及最優(yōu)閾值計算,平均耗時約為1 s,作物行直線提取平均耗時約為200 ms,算法的整體檢測速度偏低。關卓懷等[16]根據(jù)圖像灰度垂直投影值動態(tài)設定感興趣區(qū)域,通過水平掃描獲取作物行中心線擬合關鍵點,采用多段3次B樣條曲線擬合法提取水稻待收獲區(qū)域邊界線, 可以準確識別已收獲區(qū)域和未收獲區(qū)域。楊洋等[17]采用基于快速區(qū)域卷積神經網絡(Faster Region-based Convolutional Neural Network,F(xiàn)aster-R CNN)的檢測框架對多株玉米根莖進行識別定位,基于已識別的玉米根莖位置,通過直線擬合方法獲取導航路徑信息,1 s可檢測7幀圖片。Faster-R CNN屬于2階段目標檢測法,需要在特征圖上生成檢測框信息,由于生成檢測框會耗費一定時間,因而導致算法的整體檢測速度受到限制。
綜上所述,針對光照變化對圖像處理的影響,本研究利用圖像熵估計圖像質量,當光照條件變化時,通過對攝像機曝光時間進行調節(jié),控制圖像亮度,使作物與土壤相比具有良好的對比度,從而提高分割圖像的完整程度;在導航路徑識別算法方面,本研究旨在提出一種基于人工蜂群算法的作物行中心線提取方法,通過對作物行特征點空間進行迭代搜索,選擇由適應度最高的特征點構成的直線作為作物行中心線,從而有效提高導航路徑識別的準確性和速度。
出于成本的考慮,農業(yè)移動機器人視覺傳感器多采用普通工業(yè)攝像機,當外界光照條件變化時,需要手動調節(jié)攝像機參數(shù)或者光圈,但是手動調節(jié)相機無法使參數(shù)快速準確地達到適當?shù)闹?,從而不能滿足農業(yè)機器人高效作業(yè)的需求。除了調整光圈外,改變攝像機曝光時間也可以改變圖像質量。研究發(fā)現(xiàn),圖像曝光時間與圖像熵之間存在非線性映射關系,當圖像曝光時間最佳時,圖像熵會達到最大值[18]。為此,本研究根據(jù)圖像熵在線調整攝像機曝光時間,避免圖像出現(xiàn)過曝光或欠曝光,以降低圖像分割對光照變化的敏感程度,使作物信息可以完整清晰地從背景環(huán)境中分割出來。
在信息論中,熵是對不確定性的度量。熵越高,能傳輸?shù)男畔⒃蕉?;熵越低,則表示可傳輸?shù)男畔⒃缴?。?幅圖像中,不同位置的像素具有不同的灰度,用xi(i=1,2,…,k)表示,其中k表示圖像灰度級。用Pi表示各灰度級出現(xiàn)的概率,圖像熵(E)的計算公式為
(1)
式中,P1表示灰度級為1的像素出現(xiàn)的概率,Pk表示灰度級為k的像素出現(xiàn)的概率。
設1幅圖像的分辨率為m×n(m表示圖像高度,n表示圖像寬度),如果所有灰度分布均勻,則計算得到的圖像熵具有最大值,此時圖像中所有灰度級的像素出現(xiàn)的概率相同:
(2)
因此,圖像熵最大值(Emax)的計算公式為
(3)
對于灰度圖像,圖像的灰度級為256,因此圖像熵的最大值為8,不過該值是在理想條件下得出的,在實際情況中圖像灰度很難實現(xiàn)均勻分布,所以實際環(huán)境中的圖像熵將小于Emax。圖像熵與攝像機曝光時間近似呈現(xiàn)拋物線形關系(開口方向向下),當圖像曝光時間最佳時,對應的圖像熵最大,圖像中包含的信息最多[19]。
由于圖像熵與曝光時間之間的函數(shù)表達式未知,因此本研究采用差值法計算最佳曝光時間(xopt)。算法的基本思路如下:在圖像曝光時間范圍內插入2個點,分別計算2個點對應的圖像熵并進行比較,根據(jù)比較結果移動插值點的位置,縮小最佳曝光時間區(qū)間。重復上述過程,不斷縮小最佳曝光時間的取值范圍,最后收斂到最佳曝光時間。算法的具體步驟如下:
(1)利用2G-R-B因子將彩色圖像轉換為灰度圖像,設曝光時間取值范圍為[a,b],搜索移動步長為t_step, 終止閾值為T。
(2)建立臨時變量a_temp、b_temp和插入變量x1、x2,令a_temp=a,b_temp=b。
(3)x1=a_temp+t_step,x2=b_temp-t_step。如果|x1-x2|≤T,則執(zhí)行步驟(5),否則執(zhí)行步驟(4)。
(4)根據(jù)公式(1)計算x1、x2處的圖像熵f(x1)、f(x2)。如果f(x1)=f(x2),則a_temp=x1,b_temp=x2,返回步驟(3);如果f(x1)>f(x2),則b_temp=x2,返回步驟(3);如果f(x1) 為了測試算法的有效性,分別采用基于圖像熵的曝光時間調整方法和曝光時間恒定方法在晴天環(huán)境下進行圖像采集,在曝光時間恒定方法中,將曝光時間初始化為5 ms,在基于圖像熵的曝光時間調整方法中,曝光時間取值范圍為[1 ms,10 ms],t_step=1 ms。圖1a、圖2a為利用2種方法采集的玉米圖片,通過2G-R-B顏色因子將彩色圖像灰度化并選擇Otsu法進行圖像分割,結果如圖1b、圖2b、圖1c、圖2c所示。根據(jù)公式(1)計算得出,圖1b的熵為7.26,圖2b的熵為7.04,可見圖1b的質量優(yōu)于圖2b。由處理結果可以看出,基于圖像熵的曝光時間調整方法獲得的灰度圖像中作物信息清晰、完整且與土壤相比對比度明顯,同時二值圖像中的綠色作物可以無損地從背景中得以分離,呈現(xiàn)出良好的分割效果;曝光時間恒定方法獲得的灰度圖像和二值圖像中存在作物與土壤對比度不明顯、分割信息不完整等問題。 a:原圖;b:灰度圖;c:二值圖。圖1 基于圖像熵的曝光時間調整條件下圖像的采集處理效果Fig.1 Effect of image acquisition and processing under the condition of exposure time adjustment a:原圖;b:灰度圖;c:二值圖。圖2 基于曝光時間恒定條件下圖像的采集處理效果Fig.2 Effect of image acquisition and processing under the condition of constant exposure time 利用Otsu算法得到的二值圖像,雖然可以實現(xiàn)作物與環(huán)境背景的有效區(qū)分,但是在某些情況下會存在雜草噪聲,使作物行直線提取的準確性下降。因此,本研究選擇圖像形態(tài)學處理中的膨脹、腐蝕運算進行濾波去噪處理[20]。圖3為作物圖像形態(tài)學濾波前后的效果。由圖3b可以看出,濾波后圖像中的雜草噪聲被有效濾除,作物行的特征信息損失得很少,得以清晰完整地保留。 a:濾波前圖像;b:濾波后圖像。圖3 圖像形態(tài)學濾波去噪處理效果Fig.3 Noise-suppressed processing of images by morphological filtering 作物行特征點檢測是實現(xiàn)作物行中心線提取的關鍵環(huán)節(jié)之一,常規(guī)方法是對整幅圖像進行特征點檢測,然后根據(jù)特征點間的距離特性進行聚類處理,不過這種處理方法會造成圖像處理算法整體的實時性和抗干擾能力降低[21]。為了提高作物行直線檢測的速度和準確性,本研究采用灰度垂直投影法對圖像上半部分、下半部分進行投影,根據(jù)投影值計算出作物行在圖像頂部、底部的位置信息,再通過直線連接形成作物行條形區(qū)域(圖4a)。在此基礎上,利用基于垂直投影的移動窗口法對條形區(qū)域內的作物行進行特征點提取[22],將同一條形區(qū)域內的特征點歸為一類,詳見圖4b。 a:區(qū)域檢測;b:特征點提取。圖4 作物行區(qū)域檢測與特征點的提取Fig.4 Regional detection and feature points extraction of crop 人工蜂群算法(Artificial bee colony algorithm,ABC)是一種仿生智能優(yōu)化算法,算法的最小搜索模型包括蜜源、引領蜂、跟隨蜂和偵查蜂4個組成要素及招募蜜蜂、放棄蜜源2個行為[23]。算法中引領蜂、跟隨蜂的數(shù)量等于蜜源數(shù)量,其基本原理如下:設求解的問題維數(shù)為D,蜜源位置代表問題的潛在解,蜜源i的位置表示為xi=(xi1,xi2,…,xiD),則ABC算法的數(shù)學模型為 xid=xmin,d+rand(0,1)(xmax,d-xmin,d) (4) vid=xid+φ(xid-xjd) (5) (6) 式中,xmin和xmax分別表示搜索空間的上限和下限;d=1,2,…,D,表示解的1個維數(shù);vid表示搜索階段在蜜源i附近產生的1個新蜜源,j∈(1,2,…,NP),j≠i;φ表示隨機數(shù),取值范圍為[-1,1];Pi表示跟隨蜂選擇第i個蜜源的概率;fiti為第i個蜜源適應度;NP為解的數(shù)量;當超過設定的循環(huán)數(shù)后,若蜜源質量仍無法得到提升,則這個蜜源被舍棄,與之對應的引領蜂轉變?yōu)閭刹榉?,偵查蜂按照公?4)產生新蜜源。 農田作物行在形態(tài)上表現(xiàn)為小曲率曲線或者近似直線,其方程可以根據(jù)圖像中的2個像素點確定。設V為由作物行特征點構成的數(shù)據(jù)空間,(xi,yi)和(xj,yj)為V中的2個點,則作物行中心線方程可以表示為下式: (7) 統(tǒng)計上述直線上包含的特征點數(shù),將其作為評價直線優(yōu)劣的標準,通過調整(xi,yi)和(xj,yj)的位置,選擇包含特征點數(shù)最多的直線作為作物行中心線。在一般情況下,為了提高作物行的直線檢測精度,可以將直線上特征點的統(tǒng)計轉化為距離直線一定范圍(d范圍)特征點的統(tǒng)計。因此,作物行中心線提取問題可以看成函數(shù)優(yōu)化問題,即在數(shù)據(jù)空間V中尋找2個點,使其構成的直線所包含的特征點數(shù)最多,將這2個點作為問題的最優(yōu)解。由于人工蜂群算法可以有效解決函數(shù)優(yōu)化問題,所以作物行的直線提取可以利用蜂群算法實現(xiàn)。相比于Hough變換,基于人工蜂群算法的作物行直線檢測方法只需要對圖像空間的作物行特征點進行搜索,不需要計算每個像素點到參數(shù)空間的投影累加值,具有更高的實時性和計算效率;相比于最小二乘法,人工蜂群算法將距離候選直線一定范圍(d范圍)特征點的統(tǒng)計值作為適應度,在d取值比較小的情況下,可以使距離作物行直線較遠的雜草噪聲點不影響真實作物行直線的擬合,使算法具有良好的抗干擾性。用人工蜂群算法進行導航線提取的具體步驟如下: (1)通過對圖像進行灰度垂直投影,獲取作物行數(shù)量(N)及區(qū)域范圍,如果N≥1(表示圖像中至少包括1條作物行),則對條形區(qū)域內作物行進行特征點檢測,否則結束程序。 (3)初始化作物行計數(shù)變量(num)=1,距離閾值(d),蜜源數(shù)量(m)(引領蜂和跟隨蜂數(shù)量與蜜源數(shù)量相同),局部搜索最大次數(shù)(limit),最大迭代次數(shù)(C)。建立適應度函數(shù)f=T(T表示距離直線d范圍內的特征點數(shù))。 (5)引領蜂根據(jù)公式(5)進行鄰域搜索,產生新的蜜源(vi),計算新蜜源的適應度。如果vi的適應度大于xi的適應度,則xi=vi,否則xi保持不變。 (6)根據(jù)公式(6)計算xi的相關概率(Pi),跟隨蜂依據(jù)Pi進行蜜源選擇。跟隨蜂利用公式(5)進行鄰域搜索,產生新解vi,計算其適應度。如果vi的適應度大于xi的適應度,則xi=vi,否則xi保持不變。 (7)經過limit次循環(huán)后,如果xi的適應度沒有改變,則放棄該解,對應的引領蜂轉化為偵查蜂,根據(jù)公式(4)產生1個新解代替當前的xi。 (8)保存當前最優(yōu)解,判斷是否達到最大迭代次數(shù)(C),如果達到則輸出最優(yōu)結果,否則返回步驟(5)。 (9)如果num+1>N,則執(zhí)行步驟(10),否則num=num+1,返回步驟(4)。 (10)以圖像中心線為界,選擇其左右兩側距離最近的作物行中心線作為基準,推導出導航線方程。 圖5為利用上述算法提取的導航路徑效果,其中虛線表示作物行中心線,實線為根據(jù)2條相鄰作物行中心線計算得到的導航線。可以看出,所獲取的作物行中心線與導航路徑信息清晰準確。 圖5 導航路徑的提取效果Fig.5 Extraction effect of navigation path 本研究中的農業(yè)移動機器人平臺主要由視覺傳感器、工業(yè)控制計算機、可編程邏輯控制器(PLC)、位移傳感器、速度傳感器、液壓執(zhí)行機構和導航車輛組成。移動機器人的主要功能是導航除草,其對應的系統(tǒng)結構、試驗平臺分別如圖6、圖7所示。 圖6 農業(yè)移動機器人系統(tǒng)結構框圖Fig.6 System structure diagram of agricultural mobile robots 圖7 農業(yè)移動機器人試驗平臺Fig.7 Experimental platform of agricultural mobile robots 圖像采集設備使用北京凌云光子技術有限公司生產的Blackfly S系列CMOS(Complementary metal oxide semiconductor,互補金屬氧化物半導體)相機,輸出圖像格式為bmp,圖像尺寸為640×480像素,幀頻為1 s 8幀。工控機采用中國臺灣威強電工業(yè)電腦有限公司生產的PPC-F22A-H81型工業(yè)電腦,中央處理器(CPU)為Intel 酷睿i5-6500四核處理器,內存容量為4 GB,操作系統(tǒng)為Win7;PLC型號為KSC-10,可基于ST(Structured text,結構化文本)語言進行程序設計;速度傳感器型號為VB-Z9400,輸出信號為方波(50%占空比,即矩形波高電平保持時間與低電平保持時間相同);位移傳感器型號為CWY-CB,輸出電壓范圍為 0~5 V(直流電);圖像處理程序在VS2015開發(fā)環(huán)境下基于C語言進行代碼設計。 為了測試圖像分割效果對光照變化的適應能力,本研究分別利用基于圖像熵的曝光時間調整方法(本研究方法)和曝光時間恒定方法,在3種光照度條件下各采集45幅圖片(每種光照條件下采集15幅)。在基于圖像熵的曝光時間調整方法中,相機曝光時間調整范圍為[0.1 ms, 20.0 ms] ,搜索移動步長為0.5 ms;在曝光時間恒定方法中,相機曝光時間設置為10 ms。利用2種方法進行圖像采集時,保持相機光圈大小不變。為了評價圖像分割質量,本研究采用Meyer等[24]提出的方法,利用圖像相對分割錯誤率對本研究方法和曝光時間恒定方法所對應的分割圖像效果進行評估。圖像相對分割錯誤率定義為 (8) 由公式(8)可以看出,在像素一定的條件下,2個分割圖像含有的公共像素集(交集)越大,計算得到的相對分割錯誤率越小,表示2個分割圖像間的差異越??;反之,表示2個分割圖像間的差異越大。 圖8為不同光照環(huán)境下2種方法對應二值圖像的相對分割錯誤率對比曲線,其中,EXP_V-EXP_C曲線表示本研究方法對于曝光時間恒定方法的相對分割錯誤率;EXP_C-EXP_V曲線表示曝光時間恒定方法對于本研究方法的相對分割錯誤率。由圖8a、圖8b、圖8c可以看出,在不同光照條件下,EXP_C-EXP_V曲線均高于EXP_V-EXP_C曲線,并且隨著光照度的增加,相對分割錯誤率呈現(xiàn)不斷上升的態(tài)勢,這主要是由于光照度越大,曝光時間恒定方法中綠色作物信息損失得越多(圖2c),在公共像素集相同的情況下,曝光時間恒定方法對于本研究方法的相對分割錯誤率越大。 a:1 000~8 000 lx光照度;b:10 000~50 000 lx光照度;c:60 000~90 000 lx光照度。圖8 不同光照環(huán)境下圖像相對分割錯誤率對比曲線Fig.8 Correlation curves of relative error rate in image segmentation under different illumination conditions 研究結果表明,相比于曝光時間恒定方法,本研究方法在不同光照度下可以使作物信息完整地從土壤背景中分離出來,信息損失較小(圖1c),能夠有效抑制光照變化對圖像處理的影響。不過,當光圈處于隨機位置時,采用本研究方法計算最佳曝光時間需要耗費一定時間。為此,在導航路徑提取前,先手動調節(jié)光圈到最佳位置(以準確完整地分割作物行為準),然后開啟曝光時間調整方法,使曝光時間快速調整到最佳狀態(tài)。在導航過程中自然光照變化緩慢,短時間內圖像熵值的變化范圍很小,可以設定熵的閾值,每隔一定時間計算1次圖像熵,如果圖像熵在閾值范圍內,就不進行曝光時間調整,如果圖像熵超出閾值范圍,則在原有最佳曝光時間鄰域內進行小范圍搜索,快速得到當前的最佳曝光時間,這樣算法耗時對整體導航路徑檢測實時性的影響很小。 本研究采集90幅不同生長階段并含有雜草噪聲的玉米圖像(分別在玉米平均高度為18 cm、24 cm、32 cm的3個生長時期各采集30幅),對標準Hough變換算法、標準最小二乘法和人工蜂群算法在導航路徑識別的準確性、實時性和適應性3個方面進行對比測試。導航路徑識別程序在VS2015軟件環(huán)境下基于C語言進行設計,處理圖像尺寸為640×480像素,檢測環(huán)節(jié)包含圖像灰度化、圖像分割、作物行區(qū)域檢測、特征點提取、作物行直線提取和導航路徑識別等。為了對算法的抗干擾性進行測試,檢測步驟中沒有包含形態(tài)學濾波環(huán)節(jié)。在Hough變換算法中,θ∈[-90°,+90°],ρ∈(0像素,800像素)(θ表示直角坐標系下直線和原點間的垂線與x軸正向的夾角,ρ表示直角坐標系下直線到原點的距離),量化精度為1°。在人工蜂群算法中,蜜源數(shù)量、引領蜂數(shù)量和跟隨蜂數(shù)量均為30個,局部搜索閾值(limit)=10,最大迭代次數(shù)(C)=50,直線距離閾值(d)=2。 由表1可以看出,在不同作物生長階段,人工蜂群算法準確識別的圖像數(shù)量多于其他2種算法,表明人工蜂群算法具有更好的準確性和適應性。Hough變換算法和最小二乘法的檢測準確率均比人工蜂群算法要低,主要原因是葉片的分散生長和雜草噪聲的存在使得Hough變換算法和最小二乘法的檢測準確率降低。人工蜂群算法也存在導航路徑識別錯誤的圖像,原因是行間存在大面積雜草,造成作物行位置檢測失敗,從而無法提取作物行直線,不過在此情況下,最小二乘法和Hough變換算法也同樣無法準確識別導航路徑。準確識別導航路徑需要滿足導航路徑有效識別、導航路徑檢測準確2個條件,能否有效識別導航路徑與作物行位置檢測環(huán)節(jié)有關,而導航路徑檢測的準確性由導航路徑提取算法的性能決定。表1中的3種算法均采用垂直投影法進行作物行位置的檢測,由于在30幅圖像中有1幅存在由于雜草密度很高而無法有效檢測作物行位置信息的情況,所以導航路徑的有效識別率為96.6%。在算法實時性方面,Hough變換算法耗時最多,最小二乘法最少,人工蜂群算法介于兩者之間,略高于最小二乘法。 表1 玉米不同生長階段可準確識別的導航路徑圖像數(shù)量與平均耗時 圖9、圖10為不同雜草密度環(huán)境下3種算法的導航路徑識別結果。本研究采用人工標注法獲取參考導航路徑作為評價標準,將用不同算法得到的導航線與參考導航線進行比較,根據(jù)對比結果進行分析評價。人工標注參考導航路徑的方法如下:選擇圖像頂部和底部作物中心點,連接2點構成參考作物行中心線,此中心線延長線與圖像頂邊和底邊分別產生交點;編寫程序對頂邊和底邊像素點進行逐個標記,記錄標記點與交點重合時的坐標,基于2個交點坐標計算出作物行中心線方程,根據(jù)相鄰2條作物行中心線推導出參考導航路徑方程。 圖9 高密度雜草環(huán)境下導航路徑的提取Fig.9 Extraction of navigation path under the condition of high weeds density 圖10 低密度雜草環(huán)境下導航路徑的提取Fig.10 Extraction of navigation path under the condition of low weeds density 從圖9、圖10還可以看出,Hough變換算法在不同雜草密度情況下提取的導航路徑相對于參考導航路徑均存在明顯偏差,最小二乘法與人工蜂群算法提取的導航路徑與參考導航路徑接近,不過在高雜草密度條件下由于受到雜草噪聲的影響,最小二乘法對左側作物行的檢測結果存在一定偏差,從而對導航路徑的檢測精度產生一定影響。為定量分析檢測結果與參考路徑之間的誤差,本研究選擇不同算法導航線上的5個像素點(圖像頂邊、底邊與距離底邊1/4、1/2、3/4高度的像素點),計算這些點到參考導航路徑的距離平方和。 由表2可以看出,在不同雜草密度條件下,人工蜂群算法提取的導航路徑與參考導航路徑的參數(shù)(截距、斜率)差距最??;表3中Hough變換算法提取的導航路徑與參考導航路徑之間的誤差最大,最小二乘法次之,說明人工蜂群算法對于雜草的抗干擾能力強于另外2種算法。 試驗結果表明,本研究提出的基于人工蜂群算法的導航線識別方法可以快速準確地識別導航基準線,與Hough變換算法相比具有良好的實時性與準確性,與最小二乘法相比對雜草噪聲不敏感,具有較強的抗干擾能力。 為了評價導航路徑識別算法的動態(tài)性能,利用拖拉機導航平臺分別在0.8 m/s、1.2 m/s和1.6 m/s速度條件下進行路徑跟蹤試驗。試驗地玉米田,植株平均高度約為30 cm,行間距為60 cm,路徑跟蹤長度為25 m。將高精度全球定位系統(tǒng)(GPS)安裝在拖拉機頂部中心位置用于采集系統(tǒng)運動軌跡,將攝像頭安裝于拖拉機前端配重架上,GPS與攝像頭均位于拖拉機中軸線上,GPS定位數(shù)據(jù)輸出頻率為2 Hz。試驗前用GPS從導航路徑起點位置開始,每隔一定距離采集1個點,一直到終點,可以獲得跟蹤路徑的參考信息。為了保證導航數(shù)據(jù)的有效性,對3種速度跟蹤試驗各重復5次,選擇各速度條件下橫向偏差最大的1次進行分析。 表2 不同算法導航線參數(shù)的對比 由圖11、圖12、圖13可以看出,在同一速度條件下,3種導航線提取算法的橫向偏差均以0為基準進行上下波動,其中Hough變換算法的波動范圍最大,最小二乘法次之,人工蜂群算法最小。由表4可以看出,在3種導航速度條件下,Hough變換算法與最小二乘法的最大橫向偏差和平均橫向偏差均高于人工蜂群算法,主要原因是雜草噪聲干擾使這2種算法擬合的導航路徑精度降低,導致跟蹤誤差增加。試驗結果表明,在動態(tài)環(huán)境中,本研究提出的基于人工蜂群算法提取的導航基準線可以使農業(yè)導航機器人快速準確地對導航路徑進行跟蹤,具有良好的動態(tài)特性。 表3 不同算法導航路徑對于參考導航路徑的誤差 a:農業(yè)移動機器人行駛速度0.8 m/s;b:農業(yè)移動機器人行駛速度1.2 m/s;c:農業(yè)移動機器人行駛速度1.6 m/s。圖11 Hough變換算法提取的導航路徑跟蹤結果Fig.11 Tracking results of guidance line by Hough transform algorithm a:農業(yè)移動機器人行駛速度0.8 m/s;b:農業(yè)移動機器人行駛速度1.2 m/s;c:農業(yè)移動機器人行駛速度1.6 m/s。圖12 最小二乘法提取的導航路徑跟蹤結果Fig.12 Tracking results of guidance line by least square algorithm a:農業(yè)移動機器人行駛速度0.8 m/s;b:農業(yè)移動機器人行駛速度1.2 m/s;c:農業(yè)移動機器人行駛速度1.6 m。圖13 人工蜂群算法提取的導航路徑跟蹤結果Fig.13 Tracking results of guidance line by artificial bee colony algorithm 表4 3種導航路徑識別算法在不同農業(yè)移動機器人行駛速度下導航路徑跟蹤誤差 本研究針對自然環(huán)境下基于機器視覺的農業(yè)移動機器人,擬解決其圖像處理易受光照影響的問題,提出了基于圖像熵的相機曝光時間調整方法,使圖像質量達到最優(yōu),以提高圖像分割效果對光照變化的適應性;為了解決常規(guī)導航路徑識別算法存在的實時性差、準確性低等不足,提出了基于人工蜂群算法的作物行中心線檢測與導航路徑識別方法,將作物行中心線提取問題轉化為函數(shù)優(yōu)化問題。試驗結果表明:(1)對于自然光照變化的農田作業(yè)環(huán)境,基于圖像熵的相機曝光時間調整方法可以使作物信息清晰完整地從背景中分離出來,具有較小的相對分割錯誤率,為后期進行導航路徑的準確識別提供了條件。(2)基于人工蜂群算法的導航路徑提取方法可快速、準確地檢測導航路徑,相比常規(guī)檢測方法具有消耗時間少、抗干擾性強等特點。對于1幅640×480像素的圖像,導航路徑提取的平均耗時為76.4 ms。在3種不同導航速度條件下,最大橫向偏差不超過8.9 cm,可以滿足農業(yè)移動機器人行間導航除草作業(yè)的精度要求。2 形態(tài)學去噪與作物行特征點檢測
2.1 圖像的形態(tài)學處理
2.2 作物行區(qū)域檢測與特征點的提取
3 基于人工蜂群算法的導航路徑識別
3.1 人工蜂群算法的基本原理
3.2作物行中心線的檢測與導航路徑的識別
4 結果與分析
4.1 光照適應性試驗
4.2 導航路徑識別算法對比測試
4.3 導航路徑識別算法動態(tài)性能測試
5 結 論