蘇 偉,蔣坤萍,閆 安,劉 哲,張明政,王 偉
(1. 中國農(nóng)業(yè)大學(xué)土地科學(xué)與技術(shù)學(xué)院,北京 100083;2. 山東省滕州市田崗學(xué)校,滕州 277519)
優(yōu)良的玉米品種具有高產(chǎn)、抗倒伏、抗病蟲害等優(yōu)點,玉米育種工作對于農(nóng)業(yè)生產(chǎn)具有重要意義[1]。育種地塊的壟數(shù)作為玉米育種的重要參數(shù)之一,可以輔助獲取玉米育種基地內(nèi)不同品種的種植面積、研究種植格局及其不同種植格局下光的利用率、光合有效輻射等情況。但是,目前獲取壟數(shù)的方法多為人工調(diào)查,費時、費力且很容易出錯,限制了大面積地塊玉米壟數(shù)的獲取。無人機平臺在快速獲取區(qū)域范圍內(nèi)農(nóng)作物表型信息方面具有優(yōu)勢,且機動靈活、適合復(fù)雜農(nóng)田環(huán)境、作業(yè)效率高、成本低,逐漸成為高通量獲取農(nóng)作物表型信息的重要手段,初步應(yīng)用于小麥倒伏面積、冠層葉面積指數(shù)提取等工作中[2-4]。
目前,國內(nèi)外對育種玉米壟數(shù)提取的研究報道不多見,類似的報道多見于農(nóng)業(yè)機械視覺導(dǎo)航定位對農(nóng)作物單壟的直線提取。姜國權(quán)等[5]基于尺寸為640×480像素的圖像,利用基于機器視覺和隨機方法的策略提取了小麥、玉米、大豆的種植行信息;袁佐云等[6]提出了基于投影法和穩(wěn)健回歸法對位置點進行線性擬合提取作物行;馬紅霞等[7]、呂萌[8]、趙瑞嬌等[9]、孫雪琪等[10]使用Hough變換提取單條作物行;孟慶寬等[11]基于線性相關(guān)系數(shù)約束的作物行中心檢測方法提取玉米種植行的中心線;Jiang等[12]提出基于多數(shù)ROI(Region Of Interest)統(tǒng)計特征檢測作物行線;Vidovi?等[13]、S?gaard 等[14]、Choi等[15]、Torii[16]基于機器學(xué)習的方法提取農(nóng)作物行;姜國權(quán)等[17]利用圖像灰度變換和Otsu自動閾值化的方法檢測玉米的種植行;刁智華等[18]利用形態(tài)學(xué)細化和偽分支剔除相結(jié)合的方法提取玉米作物行;孟慶寬等[19]利用粒子群方法提取玉米種植行從而用于農(nóng)機導(dǎo)航路徑的識別;韓永華等[20]利用小波變換及 Otsu分割方法提取青菜地的種植行;王曉杰[21]、董勝等[22]利用Hough變換方法檢測作物種植行。以上方法都能提取農(nóng)作物行,但目前多數(shù)研究對象是單條作物行或單張相片視野內(nèi)的幾條作物行的問題,尚未在較大面積的壟數(shù)提取上運用與檢驗。鑒于此,本研究基于無人機超低空遙感技術(shù)獲取的高分辨率遙感影像,尋求一種適合提取大面積范圍內(nèi)玉米壟數(shù)的算法,即嘗試通過影像灰度化處理、投影法和Hough變換提取研究區(qū)內(nèi)育種基地多地塊的玉米壟數(shù)。
無人機超低空遙感試驗于2016年1月6日在金色農(nóng)華種業(yè)科技股份有限公司崖城育種基地進行,該基地位于海南省三亞市崖州區(qū)西部,中心位置為 109°11′05″N,18°25′17″E,總面積約 15 hm2,種植了各生育期的玉米。崖州區(qū)屬熱帶海洋性季風氣候,年平均氣溫25 ℃以上。
飛行試驗使用固定翼瑞士eBee Ag精細農(nóng)業(yè)用無人機,搭載Canon S110 RGB相機(包括紅、綠、藍3個波段,分辨率為1200萬像素,質(zhì)量為198 g),開展無人機育種玉米種植信息獲取試驗。試驗當天天氣狀況良好,晴朗無風。eBee Ag無人機帶有地面?zhèn)鞲衅髟O(shè)備和機載人工智能設(shè)備,可自動獲取高精度的無人機POS信息(拍照瞬間的位置參數(shù)、姿態(tài)參數(shù))。無人機飛行時天氣晴朗無云,飛行高度為70 m,飛行速度為6 m/s,旁向重疊為70 %,航向重疊為70%,飛行時間為12:00左右。飛行覆蓋區(qū)域為整個崖城育種基地,共采集高清數(shù)碼照片 212張、一個POS文件txt格式。經(jīng)后處理軟件Pix4Dmapper拼接,獲得崖城育種基地的正射影像圖(*.tif)、數(shù)字表面模型圖(*.tif)和三維點云數(shù)據(jù)(*.txt)。通過一個架次的飛行獲取了金色農(nóng)華海南崖城育種基地包括苗期、拔節(jié)期、成熟期的3個育種地塊的UAV影像,3個地塊的無人機影像及其局部放大圖如圖 1所示,拔節(jié)期玉米地塊面積約20 000 m2,種植株距為0.3 m、行距為0.6 m,南北走向,自北向南分為擴繁、測配和品比制種 3個功能區(qū),是育種基地功能區(qū)最多的一個地塊。拔節(jié)期的玉米植株較大,但葉片未完全覆蓋地面,植株尚未封壟,不同玉米種植行之間的玉米葉片只有少數(shù)發(fā)生交叉;苗期的玉米較小,相鄰壟之間葉片互不交叉,影像上具有明顯的裸土特征;成熟期的玉米已經(jīng)完全封壟,不同玉米種植行之間的玉米葉子存在嚴重的交叉,影像上是明顯的植被特征。
圖1 玉米育種基地無人機影像及其局部放大圖Fig.1 UAV image and partial enlargement of corn breeding trial
Hough變換是一種有效的直線檢測方法[23],對隨機噪聲和部分遮蓋不敏感[24-31]。因為Hough變換算法具有很大的盲目性,且需要的存儲空間和計算量都較大[25],本研究采用基于一點的改進Hough變換方法從無人機影像中檢測育種玉米的種植壟數(shù)。首先,計算無人機影像的超綠特征(2G-R-B),并進行二值化優(yōu)化處理;然后,對開運算處理后的二值影像進行分割投影,在左邊界和右邊界的判斷基礎(chǔ)上,提取玉米壟的中心點;最后,對中心點影像進行Hough變換,根據(jù)Hough影像峰值點的數(shù)量計算所分析地塊的壟數(shù)。具體壟數(shù)提取流程如圖 2所示。
圖2 育種玉米種植壟數(shù)提取流程圖Fig.2 Flowchart for extracting the line number for breeding corn
1.2.1 超綠特征提取與壟線候選點檢測
1)超綠特征提取
對比分析無人機影像上土壤和玉米冠層在紅、綠、藍可見光波段的反射特性可知:玉米冠層對綠波段具有較高的反射率,對紅波段和藍波段有較低的反射率;而土壤背景在紅波段、綠波段和藍波段的反射率依次降低,且三波段間反射率的差異并不大。無人機影像特征空間上玉米冠層和土壤的光譜反射特點是:玉米冠層具有較高的G值,高于玉米冠層的R值和B值;土壤背景的R值、G值和B值依次減小且相差不大。因此,采用超綠特征(2G-R-B)方法[7]進行特征提取,以更好的區(qū)分玉米冠層和土壤背景。常見的超綠特征因子計算方法有2G-R-B、2g-r-b及1.262g +0.884r +0.311b,其中r、g、b分別為歸一化后的R、G、B值。王曉杰[21]研究表明,利用2G-R-B計算的超綠特征因子對植被與土壤的分割效果要優(yōu)于其他2種,本文對3種特征的計算結(jié)果結(jié)論與之相同,因此,采用2G-R-B計算的超綠特征因子,如下
由于玉米葉片生長方向的隨機性,二值化后的影像壟間通常有細長的突刺甚至連接,對壟數(shù)的提取存在一定的干擾性。圖像形態(tài)學(xué)的開運算(先腐蝕運算,后膨脹運算)可以把比結(jié)構(gòu)元素小的突刺濾掉,切斷細長搭連而起到分離作用,同時保證不產(chǎn)生全局的幾何失真[32]。因此,研究過程中使用二值形態(tài)學(xué)開運算進行腐蝕與膨脹處理,以消除壟間的突刺或者連接。2)壟線候選點檢測
為準確提取壟線在 Hough變換前檢測壟線的候選點,候選點檢測方法的原理見參考文獻[33]中對于定位點的檢測方法。該研究中使用 1×n的窗口對超綠特征影像從上到下、從左到右逐像素掃描并計算區(qū)域內(nèi)的目標像素數(shù),n的選擇由影像空間分辨率和目標對象的大小而定。為選取最優(yōu)掃描窗口,本研究選擇了苗期、拔節(jié)期、成熟期的3個地塊的育種玉米UAV影像,根據(jù)壟距分別使用1×15、1×25、1×50的窗口搜索并檢測用于壟數(shù)提取的候選點。此處,候選點是可能有直線出現(xiàn)的位置。
1.2.2 影像分割投影法
玉米的播種規(guī)律一般是條播方式沿直線種植,各壟線之間相互平行、壟間距基本相等,玉米的壟播在無人機影像上呈有規(guī)律的綠色條帶分布。基于玉米壟的這些結(jié)構(gòu)特點,為提高Hough變換速度,沿壟線方向?qū)τN地塊影像進行等間距分割,得到若干個影像分割條帶用于后續(xù)的 Hough變換及壟數(shù)提取。本研究中所涉及的 3個地塊的玉米種植株距都為0.3 m、行距為0.6 m,無人機影像空間分辨率為 0.06 m,為提高影像處理速度,采用5~10個像素行(列)作為分割間距。對每個影像條進行投影得到投影直方圖曲線,曲線上的峰值點對應(yīng)的列坐標(行坐標)為壟線中心點的位置,即每一壟的中點位置。
設(shè)原始影像的大小為w列、h行,因壟線方向與正北方向夾角較小,則分割后的影像條大小為w列、h行,g(i,j)為無人機影像上點(i, j)的像素值,s(j)為影像條第 j列進行投影后得到的像素值之和,m為影像條所有像素的均值。
式中i =1, 2, …, h,j =1, 2, …, w。根據(jù)影像條中投影值s(j)的直方圖曲線及影像條均值m可以確定玉米壟線的邊界,繼而找到壟線中心點并進行標記。判斷規(guī)則為:當投影值 s(j-1)<m<s(j+1)時,s(j)標記為壟的左邊界;當投影值 s(j-1)>m>s(j+1)時,s(j)標記為壟的右邊界;左、右邊界的中點則是該影像條中壟線的中心點。
1.2.3 Hough變換原理
Hough變換是根據(jù)影像空間和Hough參數(shù)空間的對偶性原理,將影像中每個特征點映射到參數(shù)空間累加陣列的多個累加器中,通過統(tǒng)計各個累加器的計數(shù)檢測出極值,從而確定是否存在直線并獲得直線參數(shù)[6,25,32]。為避免Hough變換的盲目性,基于前文提取的候選點進行累加器的判斷和計算,基于Hough變換的點-正弦曲線的對偶性,將壟候選點影像由影像空間變換到極坐標參數(shù)空間,使用式(3)將點(x, y)變換到極坐標下的正弦曲線(ρ, θ)。設(shè)置一個大小為(ρ, θ)的累加器A,記錄每個點(x, y)變換后所有θ取值對應(yīng)的ρ值出現(xiàn)的次數(shù)。
式中ρ為原點到直線的垂直距離,θ為ρ與x軸的夾角。
1)設(shè)置累加器數(shù)組A (ρ, θ)初始值均為0,其中θ的取值范圍是[0 °,180°],步長為1°,ρ 的取值范圍是[0,N],N為3個地塊對角上的像素個數(shù);
2)將影像中像素值為1的點坐標帶入公式(3),遍歷所有的θ取值,計算每個θ取值對應(yīng)的ρ值;
3)每計算一個θ取值對應(yīng)的ρ值,累加器A中坐標為(ρ, θ)的值加 1;
4)遍歷 3個地塊的中心點影像,累加器中較大值對應(yīng)的(ρ, θ)即影像空間中的直線在極坐標參數(shù)空間中的變換。
本研究中利用無人機影像的超綠特征分離玉米冠層和背景土壤,超綠特征提取結(jié)果與灰度化處理結(jié)果如圖3所示。整個研究區(qū)的超綠特征像素值在[0, 154]內(nèi)變化,此時尚無法判斷所分析像素是玉米冠層還是背景土壤。將超綠灰度影像的均值作為閾值,進行影像二值化處理,得到如圖3b所示的拔節(jié)期地塊的超綠特征影像的二值化結(jié)果。玉米處在拔節(jié)期,尚未封壟但不同行之間的葉片存在少數(shù)交叉的情況,從圖3d可以明顯看出二值化后的影像存在相鄰兩壟連接的問題,這是由于玉米葉片生長方向的不確定引起的,壟間存在葉片的相互交叉現(xiàn)象所致。使用 5×1的窗口作為結(jié)構(gòu)元素,對二值影像進行形態(tài)學(xué)開運算(先腐蝕運算,后膨脹運算),運算的結(jié)果如圖3e所示,圖3d、3e為其局部放大圖,可以看出:經(jīng)過影像的開運算處理后,部分壟線邊界突刺問題被消除并斷開相鄰兩壟線間的細小連接,有效去除影像噪音,提高提取精度。
圖3 拔節(jié)期地塊無人機影像超綠特征計算、二值化及開啟運算結(jié)果Fig.3 Super-green feature, thresholding results, and opening results of jointing stage corn
以拔節(jié)期地塊為例論述使用分割投影法提取條狀壟線中心點的步驟:拔節(jié)期地塊的影像大小為10 097行×6 591列,綜合考慮影像處理速度和中心點提取精度,采用5個像素行作為分割間距,從而得到5行×6 591列的影像分割條(如圖 4a)。使用式(2)計算每個像素條列坐標上的投影值,投影直方圖曲線如圖4b所示,計算像素條所有像素的均值。
二值化影像圖4a中白色像素值為1,是玉米冠層像素;黑色像素值為0,是背景土壤像素;圖4b是圖4a對應(yīng)位置上的投影值,可以看出:玉米冠層像素的投影值高于背景土壤像素的投影值,且種植越密集值越大。此外,從圖4b可以看出:玉米冠層像素的投影值s(j)明顯高于兩端的背景土壤像素的投影值,且每條壟線對應(yīng)一個峰值,峰值點的縱坐標j是該條壟線的中心點對應(yīng)的縱坐標。
對每個影像條,以均值m作為閾值判斷每個峰值點的列坐標。遍歷每個影像條的s(j)數(shù)組,比較與均值m的大小關(guān)系,左右邊界的中點值認為是該影像條中峰值的列坐標,即壟線的中心點列坐標,中心點橫坐標記為該影像條中間像素行的行號。遍歷每個影像分割條,得到研究區(qū)拔節(jié)期地塊的壟線中心點影像,圖 5為其局部圖結(jié)果。圖5a為影像開運算結(jié)果的局部放大圖,圖5b為該區(qū)域?qū)?yīng)的壟中心點提取結(jié)果,可以看出:所有的壟中心線都被檢測出,但是目前的壟中心點連線后的中心線為曲線,尚不具備理想的玉米壟的直線特征。
圖4 影像分割條及其投影值直方圖Fig.4 One strip of UAV image and its histogram
圖5 投影法提取的玉米壟中心點Fig.5 Extracted lines of corn plants using projection method
研究區(qū)拔節(jié)期地塊的 Hough變換結(jié)果圖如圖 6a所示,影像中點越黑表示在該點交匯的正弦曲線越多,即對應(yīng)的影像空間在該參數(shù)處存在直線的可能性越大。研究區(qū)內(nèi)玉米的沿直線條播方式確定了每條壟線有相同的斜率,對偶變換到極坐標下有相同的 θ參數(shù),表現(xiàn)在Hough影像上為每條壟線變換后點坐標有相同的 θ列坐標。根據(jù)這一特性,取 Hough影像中像素值最大點的 θ列坐標,認為是各壟線在變換域的角度參數(shù)θ。根據(jù)無人機影像的分辨率和玉米壟距的大小,確定以 θ列坐標為中心截取左右各25個像素的Hough影像條,使用改進的投影法提取影像條的峰值點,該峰值點的個數(shù)即為壟線的條數(shù)。
為了達到精確提取壟線條數(shù),對分割投影法進行改進。Hough影像條的兩端存在很長的 0值區(qū)域,從而拉低了整個影像條的均值,如果繼續(xù)以此均值作閾值將產(chǎn)生極大的誤差。根據(jù)Hough影像條的直方圖曲線峰值極高的特點,選擇影像條中非 0像素值的均值作為閾值進行判斷峰點的邊界,從而保證所有峰值點坐標的正確提取,圖6b為研究區(qū)拔節(jié)期地塊無人機影像的Hough峰值點提取結(jié)果,圖6c為其局部放大圖。根據(jù)提取的峰值點的坐標參數(shù)(ρ, θ),經(jīng)Hough逆變換在影像空間中繪出求得的玉米壟所在的直線。表1為3個生育期的育種玉米地塊的壟數(shù)提取結(jié)果,用于試驗的苗期玉米壟數(shù)為43壟,使用1×15、1×25、1×50的窗口檢測候選點后通過Hough變換分別提取了42、45、58壟,提取精度分別為97.67%、95.35%、88.37%;用于試驗的拔節(jié)期玉米壟數(shù)為74壟,使用前面3個尺寸的窗口檢測候選點后通過Hough變換分別提取的壟數(shù)為 74、74、105壟,提取精度分別為100.00%、100.00%、58.11%;用于試驗的玉米壟數(shù)為44壟,使用前面 3個尺寸的窗口檢測候選點后通過 Hough變換分別提取的壟數(shù)分別為46、40、49壟,提取精度分別為95.45%、90.91%、88.64%。上述試驗表明:利用1×15窗口的提取精度最高,原因是該尺寸與壟距接近。
上述研究結(jié)果表明:利用該研究所提出的基于影像分割投影法和Hough變換可以正確提取不同生育期的玉
米壟數(shù),其中以拔節(jié)期的玉米壟數(shù)提取精度最高,此時的玉米植株在UAV影像上可以識別且又尚未封壟,只有少數(shù)葉片存在交叉情況,是提取種植壟數(shù)的最佳時相;就候選點檢測來講,與玉米種植的壟間間隔相近的窗口尺寸是壟數(shù)監(jiān)測的最佳尺寸。對于成熟期玉米植株,已經(jīng)完全封壟,相鄰壟之間的玉米葉片相互交叉,所以壟數(shù)提取的誤差較大。
圖6 變換域影像、Hough變換峰值點及局部放大圖Fig.6 Image in transform domain, peak points of Hough transform and its zoomed picture
表1 不同窗口下基于UAV影像的壟數(shù)提取統(tǒng)計結(jié)果Table 1 Statistical result of extracted corn plants lines using UAV images at different candidate detection windows
本文針對玉米育種中需要快速提取區(qū)域范圍內(nèi)育種玉米種植壟數(shù)的需求,基于無人機影像,通過提取影像的超綠特征、影像的分割投影Hough變換,成功提取了育種玉米地塊的種植壟數(shù),為玉米育種提供一種有用的表型參數(shù)。
1)在無人機影像的 RGB彩色空間中,超綠特征(2G-R-B)可以有效區(qū)分綠色植被與背景土壤信息,這是基于無人機影像的農(nóng)作物表型信息提取的一項必要工作,也可作為農(nóng)作物分類的一種專家知識。
2)利用基于壟數(shù)提取候選點的Hough變換方法,可以準確地從無人機影像中提取玉米種植的壟數(shù),且以拔節(jié)期為最佳提取時間,本研究基于74壟處于拔節(jié)期的無人機影像,使用1×15窗口檢測候選點后通過Hough變換可以正確提取出74壟玉米,提取精度為100%。該方法簡單、易于實現(xiàn),能夠有效提取條狀壟線的中心點。
該研究的優(yōu)勢在于充分利用UAV影像上玉米種植壟的高空間分辨率超綠特征,利用基于候選點的Hough變換方法對玉米壟幾何特征的表達,較為成功地提取了處于 3個不同生育期的玉米地塊的壟數(shù)信息,為玉米育種種植信息的提取、大田玉米的農(nóng)事活動(如施肥、噴藥等)提供可靠數(shù)據(jù),也可以作為基于遙感影像的線狀地物(如道路、河流等)骨架線提取的方法。不足之處在于該方法適用于拔節(jié)期玉米植株(提取精度 100%),苗期的玉米植株太?。ㄌ崛【?7.67%)、成熟期的玉米植株(提取精度為95.45%)存在葉片相互交叉的情況,在基于候選點的Hough變換時各個方向上累加器的計數(shù)沒有太大差異,因而檢測出的極值不穩(wěn)定,導(dǎo)致難以檢測出正確的玉米壟數(shù)。將來的研究工作中將會針對苗期玉米植株和成熟期玉米植株情況進行深入研究,以減少壟數(shù)提取的各種限制條件。
致謝:感謝金色農(nóng)華種業(yè)科技股份有限公司提供海南三亞崖城育種基地作為無人機超低空遙感監(jiān)測的試驗基地。
[1] 蘇偉,吳代英,武洪峰,等. 基于最大熵模型的玉米冠層LAI升尺度方法[J]. 農(nóng)業(yè)工程學(xué)報, 2016, 34(7): 165-172.Su Wei, Wu Daiying, Wu Hongfeng, et al. Upscaling method for corn canopy LAI using MaxEnt model[J]. Transactions of the Chinese Society of Agricultural Engineering(Transactions of the CSAE), 2016, 32(7): 165-172. (in Chinese with English abstract)
[2] 楊貴軍,李長春,于海洋,等. 農(nóng)用無人機多傳感器遙感輔助小麥育種信息獲取[J]. 農(nóng)業(yè)工程學(xué)報, 2015, 31(21):184-190.Yang Guijun, Li Changchun, Yu Haiyang, et al. UAV based multi-load remote sensing technologies for wheat breeding information acquirement[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2015, 31(21): 184-190. (in Chinese with English abstract)
[3] 劉建剛,趙春江,楊貴軍,等. 無人機遙感解析田間作物表型信息研究進展[J]. 農(nóng)業(yè)工程學(xué)報, 2016, 32(24): 98-106.Liu Jiangang, Zhao Chunjiang, Yang Guijun, et al. Review of field-based phenotyping by unmanned aerial vehicle remote sensing platform[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2016,32(24): 98-106. (in Chinese with English abstract)
[4] Yang G, Liu J, Zhao C, et al. Unmanned aerial vehicle remote sensing for field-based crop phenotyping: current status and perspectives [J]. Frontiers in Plant Science, 2017, 8:1-26.
[5] 姜國權(quán),柯杏,杜尚豐,等. 基于機器視覺和隨機方法的作物行提取算法[J]. 農(nóng)業(yè)機械學(xué)報, 2008, 39(11): 85-88.Jiang Guoquan, Ke Xing, Du Shangfeng, et al. Detection algorithm of crop rows based on machine vision and randomized method [J]. Transactions of the Chinese Society for Agricultural Machinery, 2008, 39(11): 85-88. (in Chinese with English abstract)
[6] 袁佐云,毛志懷,魏青. 基于計算機視覺的作物行定位技術(shù)[J]. 中國農(nóng)業(yè)大學(xué)學(xué)報, 2005, 10(3): 69-72.Yuan Zuoyun, Mao Zhihuai, Wei Qing. Orientation technique of crop rows based on computer vision [J]. Journal of China Agricultural University, 2005, 10(3): 69-72. (in Chinese with English abstract)
[7] 馬紅霞,馬明建,馬娜,等. 基于Hough變換的農(nóng)業(yè)機械視覺導(dǎo)航基準線識別[J]. 農(nóng)機化研究, 2013(4): 37-39.Ma Hongxia, Ma Mingjian, Ma Na, et al. Baseline recognition based on Hough transform in the vision navigation of agricultural vehicles [J]. Journal of Agricultural Mechanization Research, 2013(4): 37-39. (in Chinese with English abstract)
[8] 呂萌. 基于 Hough變換的平行直線檢測改進算法研究[J].微型機與應(yīng)用, 2010, 29(17): 27-29.Lv Meng. Research of the improved parallel line detection algorithm based on Hough transform [J]. Image Processing and Multimedia Technology, 2010, 29(17): 27-29. (in Chinese with English abstract)
[9] 趙瑞嬌,李民贊,張漫,等. 基于改進Hough變換的農(nóng)田作物行快速檢測算法[J]. 農(nóng)業(yè)機械學(xué)報, 2009, 40(7): 163-165.Zhao Ruijiao, Li Minzan, Zhang Man, et al. Rapid crop-row detection based on improved Hough transformation [J].Transactions of the Chinese Society for Agricultural Machinery, 2009, 40(7): 163-165. (in Chinese with English abstract)
[10] 孫雪琪,宋小春. 一種新的改進的Hough變換直線提取算法[J]. 計算機與數(shù)字工程, 2015(8): 1501-1503.Sun Xueqi, Song Xiaochun. A new improved Hough transform algorithm for line extraction[J]. Computer &Digital Engineering, 2015(8): 1501-1503. (in Chinese with English abstract)
[11] 孟慶寬,劉剛,張漫,等. 基于線性相關(guān)系數(shù)約束的作物行中心線檢測方法[J]. 農(nóng)業(yè)機械學(xué)報, 2013(增刊1): 216-223.Meng Qingkuan, Liu Gang, Zhang Man, et al. Crop rows detection based on constraint of liner correlation coefficient[J]. Transactions of the Chinese Society for Agricultural Machinery, 2013(Supp.1): 216-223. (in Chinese with English abstract)
[12] Jiang G, Wang Z, Liu H. Automatic detection of crop rows based on multi-ROIs [J]. Expert Systems with Applications,2015, 42(5): 2429-2441.
[13] Vidovi? I, Scitovski R. Center-based clustering for line detection and application to crop rows detection [J].Computers & Electronics in Agriculture, 2014, 109: 212-220.
[14] S?gaard H T, Olsen H J. Determination of crop rows by image analysis without segmentation [J]. Computers &Electronics in Agriculture, 2003, 38(2): 141-158.
[15] Choi K H, Han S K, Park K H, et al. Morphology-based guidance line extraction for an autonomous weeding robot in paddy fields[J]. Computers & Electronics in Agriculture,2015, 113: 266-274.
[16] Torii T. Research in autonomous agriculture vehicles in Japan[J]. Computers & Electronics in Agriculture, 2000,25(1): 133-153.
[17] 姜國權(quán),王志衡,趙翠君. 基于已知點的作物行檢測方法[J]. 應(yīng)用基礎(chǔ)與工程科學(xué)學(xué)報, 2013, 21(5): 983-990.Jiang Guoquan, Wang Zhiheng, Zhao Cuijun. An algorithm of detecting crop rows based on known-points [J]. Journal of Basic Science and Engineering, 2013, 21(5): 983-990. (in Chinese with English abstract)
[18] 刁智華,吳貝貝,魏玉泉,等. 一種快速剔除偽分枝的作物行骨架提取算法[J]. 農(nóng)機化研究, 2016(9): 17-22.Diao Zhihua, Wu Beibei, Wei Yuquan, et al. A crop row skeleton extraction algorithm based on morphological thinning and pseudo branch elimination [J]. Journal of Agricultural Mechanization Research, 2016(9): 17-22. (in Chinese with English abstract)
[19] 孟慶寬,張漫,楊耿煌,等. 自然光照下基于粒子群算法的農(nóng)業(yè)機械導(dǎo)航路徑識別[J]. 農(nóng)業(yè)機械學(xué)報, 2016, 47(6):11-20.Meng Qingkuan, Zhang Man, Yang Genghuang, et al.Guidance line recognition of agricultural machinery based on particle swarm optimization under natural illumination [J].Transactions of the Chinese Society for Agricultural Machinery, 2016, 47(6): 11-20. (in Chinese with English abstract)
[20] 韓永華,汪亞明,孫麒,等. 基于小波變換及Otsu分割的農(nóng)田作物行提取[J]. 電子與信息學(xué)報, 2016, 38(1): 63-70.Han Yonghua, Wang Yaming, Sun Qi, et al. Crop row detection based on wavelet transformation and Otsu segmentation algorithm [J]. Journal of Electronics &Information Technology, 2016, 38(1): 63-70. (in Chinese with English abstract)
[21] 王曉杰. 基于機器視覺的農(nóng)田作物行檢測方法研究[D].焦作: 河南理工大學(xué), 2016.Wang Xiaojie. Study on Crop Rows Detection with Machine Vision [D]. Jiaozuo: Henan Polytechnic University, 2016. (in Chinese with English abstract)
[22] 董勝,袁朝輝,谷超,等. 基于多學(xué)科技術(shù)融合的智能農(nóng)機控制平臺研究綜述[J]. 農(nóng)業(yè)工程學(xué)報, 2017, 33(8): 1-11.Dong Sheng, Yuan Zhaohui, Gu Chao, et al. Research on intelligent agricultural machinery control platform based on multi-discipline technology integration [J]. Transactions of the Chinese Society of Agricultural Engineering(Transactions of the CSAE), 2017, 33(8): 1-11. (in Chinese with English abstract)
[23] Hough V P C. Method and means for recognizing complex patterns: US3069654[P]. 1962-12-18.
[24] 陳兵旗. 實用數(shù)字圖像處理與分析(第二版)[M]. 北京:中國農(nóng)業(yè)大學(xué)出版社,2014.
[25] 趙穎,陳兵旗,王書茂. 基于機器視覺的耕作機器人行走目標直線檢測[J]. 農(nóng)業(yè)機械學(xué)報, 2006, 37(4):81-86.Zhao Ying, Chen Bingqi, Wang Shumao. Fast detection of furrows based on machine vision on autonomous mobile robot[J]. Transactions of the Chinese Society for Agricultural Machinery, 2006, 37(4): 81-86. (in Chinese with English abstract)
[26] Zhang Lei, Wang Shumao, Chen Bingqi, et al. Crop-edge detection based on machine vision[J]. New Zealand Journal of Agricultural Research, 2007, 50(5): 1367-1374.
[27] 饒洪輝,姬長英. 基于標記信息的 Hough 變換檢測早期的作物行中心線[J]. 農(nóng)業(yè)工程學(xué)報,2007,23(3):146-150.Rao Honghui, Ji Changying. Crop-row detection using Hough transform based on connected component labeling[J].Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2007, 23(3): 146-150. (in Chinese with English abstract)
[28] 王曉燕,陳媛,陳兵旗,等. 免耕覆蓋地秸稈行茬導(dǎo)航路徑的圖像檢測[J]. 農(nóng)業(yè)機械學(xué)報, 2009, 40(6): 158-163.Wang Xiaoyan, Chen Yuan, Chen Bingqi, et al. Detection of stubble row and inter-row line for computer vision guidance in no-till field [J]. Transactions of the Chinese Society for Agricultural Machinery, 2009, 40(6): 158-163. (in Chinese with English abstract)
[29] 趙曉霞,張鐵中,陳兵旗,等. 自然環(huán)境下桃子圖像分割算法[J]. 農(nóng)機化研究, 2009, 31(2): 107-111.Zhao Xiaoxia, Zhang Tiezhong, Chen Bingqi, et al. Study on the segmentation algorithm for peach in natural scene[J].Journal of Agricultural Mechanization Research, 2009, 31(2):107-111. (in Chinese with English abstract)
[30] 陳媛,王曉燕,陳兵旗,等. 玉米根茬圖像的分割方法[J].農(nóng)機化研究, 2009, 31(2): 17-19.Chen Yuan, Wang Xiaoyan, Chen Bingqi, et al.Segmentation of maize stubble image[J]. Journal of Agricultural Mechanization Research, 2009, 31(2): 17-19.(in Chinese with English abstract)
[31] 梁習卉子,陳兵旗,姜秋慧,等. 基于圖像處理的玉米收割機導(dǎo)航路線檢測方法[J]. 農(nóng)業(yè)工程學(xué)報, 2016, 32(22):43-49.Liangxi Huizi, Chen Bingqi, Jiang Qiuhui, et al. Detection method of navigation route of corn harvester based on image processing [J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2016,32(22): 43-49. (in Chinese with English abstract)
[32] 章毓晉. 圖像工程(中冊)圖像處理[M].北京: 清華大學(xué)出版社. 2012.
[33] 張紅霞, 張鐵中, 陳兵旗. 基于模式識別的農(nóng)田目標定位線檢測[J]. 農(nóng)業(yè)機械學(xué)報, 2008, 39(2):107-111.Zhang Hongxia Zhang Tiezhong, Chen Bingqi. Detection algorithm for orientation lines based on pattern recognition[J].Transactions of the Chinese Society for Agricultural Machinery, 2008, 39(2): 107-111. (in Chinese with English abstract)