王紅君 陳慧 岳有軍
摘要:針對溫室小范圍復雜作業(yè)環(huán)境中的農作機器人視覺導航路徑信息的提取方法進行研究。該方法首先對紅、綠、藍(red、green、blue,簡稱RGB)顏色空間各分量算子重新組合比較,在HSI(hue-saturation-intensity)色彩空間對不同光照條件下各分量的均值和標準差進行比較,對圖像的RGB空間的各分量作差得到(G-B)、(R-B)差值圖像,再對G-B、R-B差值圖像和H分量圖像用最大類間方差法(OTSU)分別進行最優(yōu)閾值分割,然后再合并、濾波,將植物從背景中分離,最后用優(yōu)化后的Hough變換進行植物行中心線的提取從而確定導航路線。結果表明,該方法能去除雜草和降低光照條件的影響,很好地適應復雜的溫室環(huán)境,能準確分割和提取農作物行中心線,算法簡單,實時性、魯棒性強。
關鍵詞:視覺導航;溫室;顏色空間;圖像分割;路徑信息;Hough變換
中圖分類號: TN91173文獻標志碼:
文章編號:1002-1302(2017)16-0202-04
收稿日期:2016-04-05
基金項目:天津市農業(yè)科技成果轉化與推廣項目(編號:201203060、201303080)。
作者簡介:王紅君(1963—),女,天津人,碩士,教授,碩士生導師,研究方向為流程工業(yè)先進控制技術。E-mail:hongewang@126com。
通信作者:陳慧,碩士,主要研究方向為電氣工程。E-mail:403069145@qqcom。
基于機器人視覺的自主導航技術是農業(yè)機器人實現田間連續(xù)作業(yè)的重要環(huán)節(jié)和基礎,是農業(yè)裝備智能化的關鍵技術。以機器視覺為主的機器人導航路徑檢測已經成為該領域的研究熱點,目前大部分集中在田間作業(yè)機器人導航路徑檢測方面。
溫室設施和作物密集度大、空間占用率高的特殊性,增加了溫室作業(yè)機器人路徑檢測的難度,使溫室環(huán)境視覺導航研究更具挑戰(zhàn)性[1-3]。針對光照不均和作物遮擋對導航路徑檢測的影響,Lv等提出了基于機器視覺的壟間加熱管敏感區(qū)域提取方法對導航路徑進行檢測[4];王新忠等提出g、Cr、Cb色彩分量組合的導航線分割方法,實現了導航信息有效快速識別[5];袁挺等采用基于與光照無關圖的方法去除陰影干擾,基于圖像分割和優(yōu)化的Hough變換提取作物行中心線。以上文獻雖然不同程度上解決了光照對導航路徑檢測的影響問題,能很快提取路徑信息但仍然存在不足:Lv等提出的路徑檢測方法中在2行農作物之間都存在路徑標識物,溫室環(huán)境過于理想化,適用范圍比較局限[4-5],而袁挺等提出的提取作物中心線的方法并不能清晰分離植物和背景,存在許多噪聲點,影響路徑提取的魯棒性。
針對溫室小范圍環(huán)境無任何路徑標識的情況,提出基于RGB和HSI不同顏色空間圖像分割的視覺導航路徑信息提取方法。首先對RGB顏色空間各分量算子重新組合比較,并在HSI色彩空間對不同光照條件下各分量的均值和標準差進行比較,用OTSU法對圖像的(G-B)、(R-B)差值圖像和H分量圖像分別進行最優(yōu)閾值分割,初步提取導航目標,然后對各顏色空間的分割圖像進行分析、合并,提高識別準確率。最后,利用優(yōu)化后的Hough變換對農作物的行中心線進行提取,確定導航路線。
1圖像分割
11圖像采集
從攝像機在溫室內拍攝的錄像中截取動態(tài)圖,選取45°的拍攝俯視角,距地面高度為05 m,圖像分辨率為400像素×300像素,土壤呈不均勻黃棕色,有大棚、灌溉管、雜草、陰影等,農作物存在生長不均勻的現象(圖1)。
[FK(W10][TPWHJ1tif][FK)]
12色彩空間選取
選擇RGB、HSI等2個色彩空間。RGB是最常用的彩色信息表達空間,不須要轉化圖片的色彩空間,避免信息丟失和對原有圖片信息的歪曲[8]。HSI色彩空間中色度(H)表示不同的顏色,飽和度(S)表示顏色的深淺,亮度(I)表示顏色的明暗程度,在HSI顏色模型中,三分量H、S、I具有相對獨立性,可分別對它們進行控制,將亮度 I 與反映色彩本質特征的2個參數色調H和飽和度S分開,對受光照條件影響大的采集圖像可以避免I量[9]。本研究用經典方法實現從RGB色彩空間到HSI色彩空間的轉換,如公式(1)所示。
13基于RGB和HSI色彩空間的彩色圖像分割
本研究提出基于RGB和HSI色彩空間的彩色圖像分割方法,如圖2所示。
131RGB色彩空間的圖像灰度化
在RGB色彩空間對R、G、B分量的灰度圖像進行重新組合,選用組合算子(R-G)、(R-B)、(G-R)、(G-B)作為特征量進行代數運算。經處理發(fā)現,(R-B)灰度圖像的灰度值對農作物和土地區(qū)分不明顯,如圖3所示。(G-R)灰度圖像在很好地識別出農作物的同時,有效地濾除了雜草和大棚背景,但不能全部識別出生長不均勻處的農作物,對植物信息保留不完整,增加了農作物幼苗被濾除的可能性,如圖4所示。而(R-G)、(G-B)灰度圖像保留的農作物細節(jié)比較完整,也較為清晰地保留了灌溉管,且對農作物和背景的區(qū)分也很明顯,如圖5、圖6所示。因此本研究選?。≧-G)、(G-B)的灰度差值圖像作為在RGB空間圖像分割的輸入。
132HSI色彩空間的分量提取
本研究采用的是小范圍溫[CM(25]室環(huán)境,必然會伴隨光照不均(機器人的農作時間點不同和天氣變化等情況)、陰影等問題。在同一位置、不同時間點、不同光照條件下拍攝4張圖像并對其在HSI色彩空間各分量的均值和標準差進行計算,拍攝時間為08:00、10:00、12:00、14:00,如圖7、圖8所示。
由圖7可以看出,在08:00—14:00隨著光照強度的變化,H分量、S分量的均值基本不變,而I分量的均值變化明顯,隨著光照強度的增強而增大,波動幅度較大;由圖8可以看出,在光照條件變化的情況下,H分量的標準差變化很小,而S分量、I分量的標準差隨著光照強度的變化波動較為明顯。
綜上所述,本研究在HSI色彩空間里只考慮其中的H分量,從而降低光照條件的影響,強化了圖像處理時對農業(yè)溫室環(huán)境的針對性。
133圖像分割方法
基于RGB和HSI色彩空間提出的圖像分割方法包括在RGB空間對(R-G)、(G-B)差值圖像和在HSI空間對H分量分別用OTSU最大類間方差法選取最佳閾值,將圖像二值化。
OTSU法是一種使類間方差最大的自動閾值方法,是在最小二乘法原理的基礎上推導得出最佳閾值的求取方法,具有簡單、處理速度快的特點,是一種常用的閾值選取方法[10]。對不同類型的物體,如果灰度值或其他特征值差別很大,此方法能有效地對圖像進行分割[11]。但是,在用OTSU法進行圖像分割時,圖像的灰色直方圖必須呈現雙峰的形式,在彩色圖像中,須要考慮如何利用顏色信息來獲得對分割有效的直方圖[12]。
本研究在RGB顏色空間中對(R-G)、(G-B)差值圖像取反后發(fā)現,農作物目標明亮而土地背景灰暗,能很好地區(qū)分農作物目標和土地背景,并且與在HSI色彩空間的H分量的灰度直方圖都呈現雙峰型,所以選用OTSU法來進行自動閾值分割。
OTSU法首先根據初始閾值把圖像分為2類,然后計算這2類之間的方差,更新閾值,重新計算類間方差,滿足類間方差最大時的閾值即為所求最佳閾值[11]。具體過程[11-14]如下:
(1)假定一幀農作物圖像f(i,j)的灰度分為k級,灰度值i的像素數為ni,像素總數為N=∑[DD(]ki=1[DD)]ni,求出圖像中的所有像素的分布概率Pi=ni/N;
(2)給定一個初值Th=Th0,將圖像分為前景C1和背景C2類,前景C1={1,2,…,Th},背景C2={Th+1,Th+2,…,k};
(3)根據公式計算2類圖像的方差δ1、δ2,灰度均值μ1、μ2,以及總體灰度均值μ。
(6)將Th從0到255循環(huán),分別計算C1和C2的類間方差,當方差最大時對應的Th為最佳分割的閾值Th+。
134圖像合并與濾波
在RGB色彩空間,先將(R-G)和(G-B)反差圖像分割后的圖像作數學運算,再將其與HSI色彩空間H分量上分割后的圖像作數學運算,經過反復的濾波試驗,最終確定用中值濾波對合并后的圖像進行處理,取得最佳分割效果。
14分割結果與分析
本研究提出在RGB顏色空間對 (G-B)、(R-G)的差值圖像和在HSI顏色空間對H分量用OTSU法分別進行最優(yōu)閾值分割,最后再合并、濾波。圖9是在RGB色彩空間直接用OTSU法直接分割的圖像,沒有達到植物與背景分離的效果,圖像效果比較雜亂;圖10是在RGB顏色空間(R-G)反差圖像的分割圖像,農作物可以跟背景分離且對細節(jié)保留較為完整,但存在噪聲點較大等不足;圖11是在RGB顏色空間(G-B)反差圖像的分割圖像,濾除了雜草和大棚,但對農作保留并不完整且存在噪聲;圖12是在HSI顏色空間H分量上的分割圖像,濾除了灌溉管信息,存在少量噪聲;圖13是利用本研究方法得到的分割結果,比單純在RGB色彩空間用OTSU法分割效果要明顯很多,比(R-G)、(G-B)的差值圖像和H分量分割的效果更好,既能有效濾除雜草和噪聲影響,又能準確分離農作物和背景。
從上述分割結果可以看出,本研究提出的分割方法能很清[CM(25]晰地將農作物從土地和大棚背景中分離出來,對農作物的[CM)]
缺失處、生長不均衡處、灌溉管和一些必要的細節(jié)保留很完整,對背景和雜草濾除很干凈,去除噪聲、植物的陰影、光照不均等影響,分割效果較為理想,能準確識別農作物并且很好地適應農業(yè)溫室的復雜環(huán)境。
2導航線檢測
21Hough變換提取導航線
經過圖像分割、合并和濾波,圖像中農作物和灌溉管顯示為黑色,土壤、大棚均為白色。農作物行基本匯集在一個不規(guī)則的長條狀內,可以提取農作物行的中心線為導航線,作為農業(yè)溫室機器人導航的標準線,確定機器人的姿態(tài)[4-6]。對農作物中心線的提取常用Hough變換,該算法抗干擾能力強,受噪聲和作物行內斷裂的影響小,可靠性高、魯棒性強,適合于農業(yè)機器人視覺導航中的導航路徑提取問題。但傳統(tǒng)Hough變換是一種窮盡式搜索,導致算法復雜性很高,且峰值點檢測常出現誤檢測問題,處理時間長,無法滿足在溫室小范圍內實時性的要求,故必須對傳統(tǒng)變換進行優(yōu)化處理。
本研究所采集的圖像視野范圍較遠,為滿足機器人在行走過程中導航的實時性和準確性,只對圖像的下半部分進行處理,縮短了處理時間。采用優(yōu)化的Hough變換來提取農作物的行中心線。Hough變換包括將笛卡爾坐標空間中的直線變換到極坐標空間中,由于y=kx+b形式的直線方程無法表述x=c斜率無窮大形式的直線[15],因此,對任意方向和任意位置直線的檢測,往往采用極坐標(ρ,θ)作為變換空間,極坐標方程可寫成:
[JZ(]ρ=xcosθ+ysinθ。[JZ)][JY](8)
在實際計算過程中,為求出(x,y)平面所構成的直線段,對分割后的圖像進行細化處理,根據圖像尺寸確定Hough變換參數空間的大小,將ρ、θ參數空間離散化為許多單元,每1個單元是1個累加器,并分配內存;以2°為θ的步長,對圖像中每一個目標(xi,yi)點,將θ的量化值代入ρ=xicosθ+yisinθ,計算出對應的ρ,所得結果值落在某個單元內,使該單元的累加器加1,獲得參數空間累加器;對參數空間進行中值濾波,去除噪聲點。峰值檢測尋找10個最大值點,根據導航路徑方位角比導航偏移誤差重要的特點,通過導航路徑方位角統(tǒng)計判斷峰值檢測的正確性,得出最能代表導航路徑的最優(yōu)峰值點,最后根據檢測到的峰值點在圖像中繪制出農作物的行中心線[15]。
22導航線提取結果分析
在預先知道區(qū)域形狀的條件下,利用優(yōu)化后的Hough 變換可以方便地得到植物的中心線而將不連續(xù)的像素點連接起來。其主要優(yōu)點是受噪聲和曲線間斷的影響較小,這對農田環(huán)境中檢測機器人跟蹤路徑非常有效。采用優(yōu)化后的Hough變換對農作物行導航圖像進行處理,提取出農作物的行中心,然后對行中心線去均值得出導航路線(圖14)。
[FK(W14][TPWHJ14tif][FK)]
圖像大小為400像素×300像素,由于植物生長不均勻而且分為左右2列,須對左右2列分別進行中心線的提取,目標點偏多,大約用了65 ms的處理時間,比傳統(tǒng)的Hough變換所用時間大概縮短了2/5。在溫室內拍攝的錄像中截取20幅圖像進行處理,正確的識別率可以達到95%,優(yōu)化的Hough變換算法大大減少了運算量,處理時間滿足了視覺導航實時性要求。
3結論
本研究針對溫室小范圍復雜環(huán)境中的農作機器人的視覺導航方法進行研究,提出溫室環(huán)境路徑信息提取的方法并進一步做試驗驗證。結果表明,本研究提出的分割方法效果比較好, 并且算法較為簡單,可降低光照不均等影響,能將圖像快速分割,并準確識別導航目標;采用優(yōu)化的Hough變換能迅速準確提取植物行中心線,能有效去除噪聲和農作物行缺失的影響。隨機在溫室內拍攝的錄像中截取20幅圖像進行處理,正確的識別率可以達到95%。從檢測效果來說,利用優(yōu)化后的Hough變換檢測農作物中心線再取均值,確定導航路線是成功的,魯棒性強。
參考文獻:
趙洲,朱新華,何穎,等 機器人在溫室中的應用研究[J] 農機化研究,2015(1):238-241
王福娟 溫室環(huán)境視覺導航路徑的識別[J] 農機化研究,2010,32(6):83-86
[3]Wang J,Sugisaka M Study on the effective visual navigation for an alife mobile robot[C] Beijing:International Conference on Mechatronics and Automation,2011:2211-2215
[4]Lv H M,Dong J W The designation of robot exhibition system based on visual navigation[C] Shanghai:4th International Congress on Image and Signal Processing,2011:1992-1995
[5]王新忠,韓旭,毛罕平,等 基于最小二乘法的溫室番茄壟間視覺導航路徑檢測[J] 農業(yè)機械學報,2012,43(6):161-166
[6]袁挺,任永新,李偉,等 基于光照色彩穩(wěn)定性分析的溫室機器人導航信息獲取[J] 農業(yè)機械學報,2012,43(10):161-166[HJ172mm]
[7]安秋,李志臣,姬長英,等 基于光照無關圖的農業(yè)機器人視覺導航算法[J] 農業(yè)工程學報,2009,25(11):208-212
[8]Liu Z,Chen W,Zou Y,et al Regions of interest extraction based on HSV color space[C] Beijing:10th International Conference on Industrial Informatics (INDIN),2012:481-485
[9]Smith A R Color Gamut Transform Pairs[J] ACM Siggraph Computer Graphics,1978,12(3):12-19
[10]王婷婷 基于顏色空間的圖像分割方法研究[D] 濟南:山東師范大學,2014
[11]Liu Z,Chen W,Zou Y,et al Salient region detection based on binocular vision[C] 7th IEEE Conference on Industrial Electronics and Applications,2012:1862-1866
[12]尹建軍,王新忠,毛罕平,等 RGB與HSI顏色空間下番茄圖像分割的對比研究[J] 農機化研究,2006(11):171-174
[13]楊璟,朱雷 基于RGB顏色空間的彩色圖像分割方法[J] 計算機與現代化,2010(8):147-149
[14]劉瓊,史諾 基于Lab和YUV顏色空間的農田圖像分割方法[J] 國外電子測量技術,2015(4):39-41
[15]安秋 農業(yè)機器人視覺導航系統(tǒng)及其光照問題的研究[D] 南京:南京農業(yè)大學,2008