馮可心
摘 要:建立在虛擬植物基礎(chǔ)上的生產(chǎn)決策系統(tǒng)將有助于深入地了解和調(diào)控農(nóng)作物生長,有效提高農(nóng)業(yè)決策水平,減少化肥、農(nóng)藥的使用量。作為現(xiàn)代農(nóng)業(yè)信息化技術(shù)核心部分,虛擬植物在農(nóng)業(yè)上具有廣泛應(yīng)用。本文對農(nóng)作物三維空間數(shù)據(jù)采集平臺及試驗設(shè)計進行了分析。
關(guān)鍵詞:農(nóng)作物;三維空間;數(shù)據(jù)采集平臺;試驗設(shè)計
以三維視覺方式分析,研究和設(shè)計農(nóng)作物形態(tài)結(jié)構(gòu)和生長過程。由于植物生長的多樣性、復(fù)雜性和可變性,植物形態(tài)模型的建立比機械部件和建筑物等的建模更難,因此三維植物模型的建立一直是植物學(xué)重點,計算機圖形學(xué)等方面?;趫D像的植物三維重建是指利用機器視覺原理通過攝像機獲取圖像進行三維重建,主要應(yīng)用于農(nóng)作物生長狀況的實時監(jiān)測,藥物和肥料的準確噴灑。及時預(yù)防和控制病蟲害等研究領(lǐng)域。在本文中,Kinect是微軟為XBOX360室內(nèi)運動感應(yīng)游戲,用于收集不同時期農(nóng)作物的三維空間數(shù)據(jù)。
一、系統(tǒng)設(shè)計方案
1.數(shù)據(jù)采集系統(tǒng)設(shè)計
本研究采用的數(shù)據(jù)采集系統(tǒng)如圖2.1所示。采集系統(tǒng)由數(shù)碼相機,視頻傳感器,三維激光測距儀,數(shù)據(jù)采集單元和通信模塊組成。
(1)數(shù)碼相機。數(shù)碼相機采用鎖孔成像原理,通過光學(xué)鏡頭投射物體的坐標點,并在傳感器上形成相應(yīng)的坐標點。圖像平面坐標點的集合可以真實地反映拍攝對象的空間關(guān)系。通過對圖像平面坐標點的分析,可獲得拍攝對象的特征形態(tài)。圖像傳感器是農(nóng)作物生長觀察的關(guān)鍵組成部分,是農(nóng)作物生長觀察的基礎(chǔ),利用圖像傳感器做農(nóng)作物生長區(qū)域的空間映射,將目標識別到圖像空間坐標點,通過計算坐標像素,得到目標特征參數(shù)??紤]到現(xiàn)場環(huán)境的復(fù)雜性,選擇具有自動對焦,自動曝光和自動白平衡的攝像機,以確保攝像機能夠適應(yīng)不斷變化的天氣并更好地收集農(nóng)作物的真實場景圖像。
(2)三維激光測距儀。3 d激光測距儀是一臺激光測距儀,安裝在三軸云臺,三軸云臺安裝在地面上,3米高度測量范圍0-250厘米,它可以實現(xiàn)360°旋轉(zhuǎn)水平,垂直--90°-90 °旋轉(zhuǎn),旋轉(zhuǎn)角度為0.5°,最小支持RS485和RS232通訊,可通過PC指令掃描設(shè)定開始時間和視點,實現(xiàn)觀察區(qū)域耕作測量。三軸搖籃頭的固定底座安裝在離地面3.5米處。由于地面的平坦度和主搖籃頭的安裝位置,三軸搖籃頭中的激光發(fā)射器的高度略有不同。
(3)數(shù)據(jù)采集單元。農(nóng)作物生長狀態(tài)信息由數(shù)據(jù)采集單元獲取,由數(shù)據(jù)存儲,通信接口,USB接口,外部存儲器接口,以太網(wǎng)接口,監(jiān)控電路,指示燈等組成。同時,系統(tǒng)可以運行嵌入式實時操作系統(tǒng)。結(jié)構(gòu)框如圖2.2所示。數(shù)據(jù)采集單元主要用于收集農(nóng)作物生長的真實場景圖像并將其與通信模塊連接。數(shù)據(jù)采集系統(tǒng)的主要功能包括以下三點:
①控制圖像傳感器采集圖像并設(shè)置傳感器參數(shù);②將采集的圖像數(shù)據(jù)存儲到CF卡中,通過通信模塊實現(xiàn)數(shù)據(jù)通信和傳輸,并與數(shù)據(jù)監(jiān)控中心進行交互;③為省電可以設(shè)置自適應(yīng)供電模式,例如可以在工作間隔期間接通低功耗模式。
(4)數(shù)據(jù)傳輸單元。ZY2100自動農(nóng)作物氣象觀測站支持現(xiàn)有的有線和無線通信技術(shù)。有線通信模式包括以太網(wǎng)專線(IEEE 802.3)和光纖,無線通信模式主要通過4G網(wǎng)絡(luò)傳輸。如圖2.3所示。將監(jiān)控點的警告信息發(fā)送到區(qū)域控制中心或本地信息顯示標志。
圖像采集器通過有線,Wi-Fi / 3G / 4G路由器和其他通信設(shè)備將農(nóng)作物圖像采集信息傳輸?shù)綌?shù)據(jù)監(jiān)控中心。監(jiān)控中心設(shè)置收集時間并控制數(shù)據(jù)收集單元在不同時間收集數(shù)據(jù)。當收集的圖像連續(xù)丟失時,監(jiān)控中心將發(fā)出警報消息。為確保觀測數(shù)據(jù)的完整性、連續(xù)性和準確性,數(shù)據(jù)采集單元具有自動和手動數(shù)據(jù)采集和采集功能。
(5)供電單元。大多數(shù)農(nóng)作物觀測站都是在田間建造的。當使用220V市政電源時,需要鋪設(shè)線路。為不影響農(nóng)業(yè),電力線需要埋在地下。因此電源采用電池供電方式,并采用太陽能光伏發(fā)電板對電池充電。如圖所示,太陽能供電單元主要由太陽能光伏板,充放電控制器和儲能電池組成。供電能力主要與連續(xù)陰雨天,工作時間和系統(tǒng)功耗有關(guān),可根據(jù)實際情況計算。本文使用的電池輸出電壓為12V,3d激光測距儀的輸入電壓為12V,集電極輸入電壓為5V,攝像機輸入電壓為7.4v。需要轉(zhuǎn)換電池輸出電壓。目前,常見的電壓轉(zhuǎn)換芯片是LM2596和TPS5430。在本文中,選擇LM2596模塊作為電壓控制芯片。 LM2596是降壓電源管理單片機的開關(guān)穩(wěn)壓器,可通過電位器實現(xiàn)5V固定輸出電壓或0-37v直流可調(diào)電壓,最大輸出電流為3A。兩個直流電壓輸出模塊設(shè)計用于將電池的12V電壓轉(zhuǎn)換為可由收集器和攝像機正常使用的電壓。
2.農(nóng)作物自動觀測識別軟件設(shè)計
自動農(nóng)作物觀察和識別軟件是數(shù)據(jù)監(jiān)測中心的一部分,是整個識別系統(tǒng)的核心。數(shù)據(jù)監(jiān)控中心由數(shù)據(jù)通信軟件,農(nóng)作物識別軟件和集成商業(yè)軟件組成。本文以農(nóng)作物識別算法及其實現(xiàn)為主要研究內(nèi)容,對通信軟件設(shè)計和綜合業(yè)務(wù)部分進行了詳細的介紹。 MATLAB2014a用作材料識別軟件的開放式開發(fā)環(huán)境,硬件配備i5-6500cpu,8GB內(nèi)存和Windows 64位操作系統(tǒng)。設(shè)置配置文件,該文件包含觀察站點信息ID,裁剪類型代碼ID,讀取圖像的路徑,識別開始日期,識別開發(fā)周期的開始,識別結(jié)果的存儲路徑。軟件運行時首先讀取配置文件,通過字符匹配,是否存在圖像存儲路徑,如果圖像路徑存在,則根據(jù)配置設(shè)置位置開始讀取圖像,然后確定網(wǎng)站信息的圖像,編碼并且配置文件設(shè)置的信息是一致的,如果沒有則需要重置配置文件,如信息一致根據(jù)配置文件選擇相應(yīng)的判別算法周期進行判斷。如圖像達到一定生長階段,生長階段識別標記成為下一個生長階段識別標記。
3.多傳感器圖像融合技術(shù)
被稱為最大的優(yōu)點是能夠同時獲取彩色圖像的空間距離信息,即獲得RGB三維圖像,在目標物體識別和定位過程中,獲得更多具有信息的特征,并通過一定的算法有效地進行信息融合,將顯著提高目標識別的準確性,精度和速度,研究人員一直致力于信息融合在傳感器中的發(fā)展和意義。在RGB-D圖像處理過程中,根據(jù)應(yīng)用的不同,一般有兩種處理方法:(1)圖像處理在融合決策之前獲取特征信息;(2)執(zhí)行圖像融合以在做出決定之前獲得融合的特征信息。
4.三維重建技術(shù)
目前的三維重建方法包括:(1)基于生長規(guī)則的建模方法,如l系統(tǒng),過程參數(shù)方程等。它們只需要少量參數(shù)來控制一些基于植物學(xué)或數(shù)學(xué)的生長規(guī)則來獲得植物模型,實際減少程度低。(2)基于圖像的三維重建,有基于單一圖像和圖像序列的方法,該方法的復(fù)雜度很高。(3)基于激光點云的重建方法。通過Fast SCAN,F(xiàn)ocus3D,Hand SCAN和其他激光掃描儀獲得3d點云數(shù)據(jù),然后重建模型。該技術(shù)很簡單,但掃描設(shè)備很昂貴。 Kinect深度圖像包含空間信息,通過簡單的空間坐標變換處理,可以間接獲得點云數(shù)據(jù),然后可以獲得三維重建模型。
二、識別算法研究
1.農(nóng)作物發(fā)育狀況特征參數(shù)識別算法研究
農(nóng)作物生長狀況特征參數(shù)包括農(nóng)作物覆蓋度、密度、高度、葉面積指數(shù)、干物質(zhì)重量等參數(shù),本文主要研究覆蓋度,高度的自動識別方法,基于顏色特征的圖像分割算法的使用,獲取圖像分割,目標特征參數(shù),并根據(jù)覆蓋的公式,農(nóng)作物的覆蓋值。
(1)農(nóng)作物發(fā)育狀況特征參數(shù)識別算法框架。圖像處理是通過不同的數(shù)學(xué)運算從數(shù)字圖像獲得特征信息的過程,包括圖像預(yù)處理,圖像分割,特征提取和其他手段。為獲得一些預(yù)期的結(jié)果,初步篩選所收集的原始圖像,即圖像預(yù)處理。預(yù)處理是去除圖像中的噪聲。常用的圖像預(yù)處理方法有圖像增強、圖像變換、圖像濾波、圖像平滑等功能,算法處理手段有圖像灰度和二值化、腐蝕擴展操作、中值濾波、高斯濾波、小波分析等,目的是去除圖像噪聲,增強有用信息,從而提高特征提取和識別分析的可靠性。由于天氣、太陽光照度和其他條件的差異,所獲得的大田農(nóng)作物圖像有明顯差異,因此處理圖像并減少環(huán)境干擾對識別結(jié)果的影響尤為重要。隨著基于綠色像素的分割方法的不斷研究和發(fā)展,許多學(xué)者提出了對光強度不敏感的分割算法,可用于分割所收集的綠色農(nóng)作物圖像,這不僅節(jié)省了計算量,但也使分割結(jié)果更準確。
(2)綠色植被提取算法。綠色植被提取通常使用圖像的顏色特征來提取不同顏色的空間(例如RGB和HSV)。最常用的色彩空間是RGB色彩空間。根據(jù)綠色像素的頻率,直方圖統(tǒng)計方法用于計算該區(qū)域中顏色發(fā)生的頻率。 Ex G和Ex GR等提取方法不需要考慮顏色之間的空間位置和空間關(guān)系,只需要對顏色的頻率值進行統(tǒng)計,并設(shè)置合適的閾值來實現(xiàn)綠色像素的提取。該方法計算速度快,復(fù)雜度低,但由于忽略了顏色之間的空間關(guān)系,因此無法在分割中準確表達圖像目標。自1995年以來在Excess green(ExG)算法中,一些學(xué)者在不斷深入研究的基礎(chǔ)上,先后提出了CIVE,AP-HI聚類算法,本研究采用了三種田間農(nóng)作物實時圖像分割算法。從2016年春季內(nèi)蒙古吐泉縣農(nóng)作物生長周期中選取三個具有代表性的真實場景圖像。該區(qū)域的光照強度高于鄭州地區(qū)。圖像的選擇原則如下:第一個是早期生長階段農(nóng)作物的真實場景圖像,即三葉期和七葉期之間。為了便于后者的表達,它被稱為I類圖像,如圖3.1(a),(b)和(c)所示。第二類是中期生長階段,基本上是農(nóng)作物生長的拔節(jié)期。它被稱為II類圖像,如圖3.1(d)(e)(f)所示。第三種類型是后期生長階段,在農(nóng)作物抽穗期之后和成熟期之前,稱為III類圖像,如圖3.1(g)(h)(I)所示。根據(jù)不同的照明條件,選擇了三種圖像,即不充分照明,正常照明和明亮照明,并采用不同的分割方法對圖像進行分割。所選圖像如下:
①ExG分割
Excess green (Ex G)是 Woebbecke 在 1995 年提出的,通過使用色度坐標和修改色調(diào),將綠色植物從土壤背景中分離出來,分割公式如 2.1所示:
Ex G =2 g -r -b (2.1)
利用 Ex G 算法分別對三類圖像進行處理,得到分割結(jié)果如下:
從圖像分割的結(jié)果可以看出,Ex G方法能夠分割I(lǐng)類圖像。如圖3.2(a),(b)和(c)所示,盡管在具有較低亮度的圖像中分割農(nóng)作物,但是引入了大量噪聲,而在其他兩個圖像中不能分割田地中的農(nóng)作物。在II類圖像分割中,如圖3.2(d)(e)(f)所示,暗圖像的亮度很好地分割出裁剪出來,而另外兩個圖像被引入了很多噪點,特別是第二幅圖像未能分解,對光強度特別敏感,該方法在正常亮度的情況下說明,不可能對土壤進行背景分割,對光線的敏感性較強,導(dǎo)致分割效果不理想;對于III類圖像的分割,噪聲被引入圖3.2(g),(h)和(I)所示的結(jié)果中。特別是,當光強度高時,圖像不能被有效地分割。
②CIVE分割
CIVE植被提取顏色指數(shù)(植被提取的顏色指數(shù))是2003年基于大豆和甜菜區(qū)綠色植被提取的片岡,考慮如何從背景中獲取綠色植被,土壤和農(nóng)作物生長狀況的領(lǐng)域進行評價,方法表達式如公式2.2中所示的類型:
CIVE =0.441r -0.811g +0.385b +18.78745 (公式2.2)
利用 CIVE 對三類圖像進行分割,實驗結(jié)果如下:
CIVE方法在I類圖像分割過程中,CIVE方法實現(xiàn)了良好的分割效果,但有一點損失分割; CIVE方法當II類圖像在a和c中分割時,存在很大一部分分割結(jié)果丟失,尤其是丟失圖像,分割誤差過大; CIVE方法對III類圖像進行分割,對三種圖像分割結(jié)果有損失,特別是在第一次圖像丟失嚴重時,分割誤差過大,說明這種方法也不穩(wěn)定。 CIVE算法在較高的土壤背景百分比下,可以實現(xiàn)綠色植被的有效提取。當農(nóng)作物到后期,隨著葉面積的增加,以農(nóng)作物覆蓋土壤背景的圖像形式,從而導(dǎo)致CIVE算法對分割結(jié)果缺乏綠色植被。
2.覆蓋度自動識別算法
農(nóng)作物覆蓋率是衡量農(nóng)作物生長的重要指標,也是評估農(nóng)作物生長的重要參數(shù)。覆蓋率是指植物垂直投射在地面上的樣本區(qū)域總面積的百分比。準確提取覆蓋率信息對于監(jiān)測農(nóng)作物生長和預(yù)測農(nóng)作物產(chǎn)量非常重要。傳統(tǒng)的覆蓋度計算方法包括:估算方法,概率計算方法,儀器測量方法等。隨著農(nóng)業(yè)科技的發(fā)展,中國農(nóng)業(yè)進入了以高產(chǎn),優(yōu)質(zhì),高效為發(fā)展方向的新階段。通過統(tǒng)計綠色像素自動觀察圖像占整個圖像的比例,得到農(nóng)作物覆蓋率,提出四種方法,農(nóng)作物生長完整周期的圖像分割真實統(tǒng)計綠色像素在每個圖像中占比例整個圖像,農(nóng)作物覆蓋全循環(huán)曲線。見圖3.4。
X軸表示2016年收集的春季農(nóng)作物的田間圖像數(shù)量,從苗期到成熟期共427個,按生長順序排列。 Y軸表示從整個圖像中的相應(yīng)圖像分割的農(nóng)作物的比例。 Ex G分割得到的覆蓋曲線波動最嚴重,整體數(shù)據(jù)分割性能與上述三次實驗一致。由于其對光的敏感性,分割結(jié)果是均勻的,因此不適合具有大的光變化的農(nóng)作物分割場景。 CIVE方法曲線波動比較嚴重,也觀察到Y(jié)值,CIVE方法與其他方法相比,農(nóng)作物分割最小,特別是在農(nóng)作物中后期,土壤逐漸受到農(nóng)作物植被的阻斷,分割結(jié)果數(shù)值小,從上述三種圖像分割結(jié)果是一致的,因此CIVE方法對農(nóng)作物種植面積較大,土壤在背景條件下不明顯,容易造成分割缺失,使分割效果小;通過HI方法和本文中的方法獲得的曲線是相似的。觀察到Y(jié)值。這兩種方法的分割結(jié)果是相似的。根據(jù)HI對上述三種圖像的分割效果,當光照強度較高時,HI分割會引入噪聲,從而導(dǎo)致高覆蓋值。因此,多閾值圖像分割的分割結(jié)果更接近實際值。本研究采用多閾值圖像分割方法,圖像分割,告知日常采集和篩選參數(shù),從每日三葉蟲期間篩選開始收集第一天的覆蓋率作為基準,所有圖像使用的第一個日期閾值分割圖像分割方法,獲取每個圖像的覆蓋范圍,設(shè)置每日圖像覆蓋率變化的三角洲,覆蓋范圍內(nèi)三角洲所有圖像的變化篩選率,其平均值為三葉蟲周期圖像覆蓋率第一天。設(shè)置每日覆蓋率rho,確定圖像覆蓋開始后的三葉期,圖像覆蓋率以滿足每日覆蓋率和每日圖像覆蓋率,并選擇農(nóng)作物覆蓋率的平均值作為當天的圖像覆蓋范圍,以及標準覆蓋范圍之后的第二天。識別過程如圖3.5所示:
3.深度圖像獲取試驗
傳統(tǒng)的單眼識別往往是可見光照度和陰影,色度和環(huán)境的變化,物體等因素對彩色圖像的影響無法提供3D數(shù)據(jù)信息,而雙目識別雖然克服了這個問題,可以轉(zhuǎn)換2 d識別為3 d識別處理,但雙目很難識別攝像系統(tǒng)的校準和測量等,當攝像系統(tǒng)運動或變形時,必須選擇校準對象,系統(tǒng)的魯棒性大大降低。另外,雙目識別有時需要匹配拍攝相同場景的兩個攝像機,這需要相對大量的計算并且難以滿足實時要求。 Kinect可用于獲取深度圖像,這可以更好地解決單眼和雙目識別中遇到的問題。主要優(yōu)點如下:(1)可以快速獲取物體和場景的深度信息,滿足實時監(jiān)控的要求; (2)像素灰度值僅與物體或場景與深度相機之間的距離有關(guān),并且不受光線或陰影等因素的影響。它可以適應(yīng)各種環(huán)境變化,具有很強的魯棒性。 (3)核心設(shè)備是廉價彩色攝像機,紅外發(fā)射器和紅外CMOS傳感器。價格也比較低,使用方法與普通相機類似,適合普遍使用; (4)除獲得深度圖像外,該裝置還可以獲得相應(yīng)的RGB彩色圖像,更有利于后期圖形和圖像的分析和處理。
4.農(nóng)作物冠層高度識別算法研究
田間農(nóng)作物的冠層高度測量是自動農(nóng)作物生長觀察的難點。傳統(tǒng)的測量方法是技術(shù)人員深入到現(xiàn)場,測量幾個區(qū)域的高度值,然后計算平均值。工作量大,測量結(jié)果受人為因素的影響很大。一些研究采用基準測試方法,通過圖像采集比較基準測量的大小來測量農(nóng)作物冠層的高度。然而,該方法在測量方面存在很大的局限性,只能通過基準周圍幼苗的高度來判斷整個區(qū)域的幼苗冠層高度。此外,實地崗位影響正常的農(nóng)業(yè)活動,給機械化作業(yè)帶來諸多不便。本文研究了基于激光技術(shù)的野外冠層高度測量技術(shù)。激光測距儀安裝在三軸云平臺上,實現(xiàn)觀察區(qū)域的動態(tài)掃描,獲得冠層定位點集。通過校正內(nèi)角誤差,三角幾何轉(zhuǎn)換和數(shù)據(jù)擬合獲得農(nóng)作物冠層高度。
(1)激光測距原理。激光測距是通過測量激光脈沖信號和目標之間的時間間隔來計算目標的測量距離。激光發(fā)射器發(fā)射光束。當光束撞擊物體時,光束將被反射回來。激光接收器接收反射光并記錄用于發(fā)射和接收的時間t。
(2)三軸云臺參數(shù)標定。當數(shù)據(jù)采集系統(tǒng)通電時,三軸支架頭被激活并旋轉(zhuǎn)到初始位置。此時,激光發(fā)射器S直接面向地面,以從地面獲得發(fā)射點的高度。高度是從三軸云臺底部到地面的高度,這是通過激光發(fā)射器自動測量地面獲得的高度。在terminal命令中輸入READPARAM命令以獲得高度值H0,垂直校正角度α和水平校正角度b。校正后的角度a和b是在三維高度計頭部設(shè)計中校準后由全站儀器確定的旋轉(zhuǎn)偏差角度。在高度計算中,測距儀的掃描角度是設(shè)定角度和校正角度的總和。
為了確保實驗的準確性,在采集系統(tǒng)通電之前,應(yīng)對三軸云臺下的地面進行布置和平整。在激光測距儀獲得從發(fā)射噴嘴到地面的高度之后,采用垂直線測量方法。具有T形錐形的細線用于將垂直線從激光發(fā)射器的初始位置引導(dǎo)到地面,并且用儀表標尺測量垂直線L0的長度。 L0 / cosa用于測量高度H0是否可靠。如果手動測量值和自動測量值之間的高度差在50mm以內(nèi),則H0用作后續(xù)計算的基礎(chǔ)。如果誤差在50mm以內(nèi),則使用L0 / cosa的長度作為基準。使用SETPARAM指令重置高度值。當測距儀垂直旋轉(zhuǎn)時,激光口高度離地面會發(fā)生變化,顯然,發(fā)射口高度值離地面作為測量基準是不科學(xué)的,因此,利用三角形角度和邊長關(guān)系,確定高度偏差圖3.6三軸云臺發(fā)射器的垂直掃描位置之間的關(guān)系,根據(jù)三角余弦定理可以知道delta delta H = R *(1-cosa)。
設(shè)定初始化高度H0,垂直旋轉(zhuǎn)角度Ai,垂直校正角度a,三軸云臺旋轉(zhuǎn)半徑r,如圖3.7所示:Hi = H0 +列車H = H0 + r *(1-cosai) 。
在實際應(yīng)用過程中,為避免設(shè)備對農(nóng)民的農(nóng)業(yè)活動造成的不便,觀察設(shè)備一般安裝在沒有農(nóng)作物生長的田地邊緣。因此激光發(fā)射器的高度與地面的高度與農(nóng)作物生長的水平面的高度之間存在偏差。當測量農(nóng)作物冠層的高度時,應(yīng)以農(nóng)作物生長平面為基準,計算平面到激光發(fā)射點S垂直高度h',如圖3.8所示,農(nóng)作物平面與設(shè)備安裝平面高度差為火車在初始化激光發(fā)射器時,將照射在地面上的點O的平面作為參考平面。有:H'= H +ΔH
當h> 0時,農(nóng)作物平面在基準面上方;當h <0時,裁剪平面位于基準平面下方;當h = 0時,裁剪平面和基準平面重疊,h'值和h相同。
(3)農(nóng)作物冠層高度數(shù)據(jù)采集。由于農(nóng)作物真實場景圖像的采集位置是固定的,因此高度數(shù)據(jù)應(yīng)該是該真實場景圖像區(qū)域中農(nóng)作物的冠層高度。打開遙控終端,在終端窗口輸入READPARAM指令,設(shè)置掃描的初始和結(jié)束角度,以及掃描的水平和垂直步驟,使激光發(fā)射器發(fā)出的光束落在觀察到的農(nóng)作物范圍內(nèi)通過相機。將水平掃描范圍設(shè)置為“beta”,將垂直掃描范圍設(shè)置為“alpha”。在高度測量裝置中,電動工作,三軸云臺自動初始化,激光發(fā)射旋轉(zhuǎn)到S“點,垂直角度α理論角度位置為0°,三軸云臺在水平位置e點,水平角度β理論角度為0°。
5.出苗期識別算法研究
農(nóng)作物的出苗階段是農(nóng)作物生長發(fā)育初期的第一個特征階段。在觀察農(nóng)作物生長階段期間,可以基于農(nóng)作物的出苗階段計算生長和發(fā)育階段的經(jīng)驗。因此準確判斷農(nóng)作物幼苗出苗階段對于確定農(nóng)作物整個生長階段至關(guān)重要。農(nóng)作物出苗階段的鑒定主要是根據(jù)每日圖像出現(xiàn)階段的數(shù)量來確定是否達到出苗階段,利用綠色像素提取,出苗階段的幼苗類型特征和出苗分布區(qū)域的圖像來判斷是否到苗期。在判斷出現(xiàn)圖像時,所涉及的識別算法包括多閾值圖像分割算法,掩模操作和區(qū)域生長算法。判斷圖像出現(xiàn)的前提是從真實場景中分割出農(nóng)作物苗期的圖像。由于田間背景環(huán)境復(fù)雜,在農(nóng)作物出現(xiàn)之前就已在田間產(chǎn)生雜草。同時,不同氣候和地區(qū)土壤的色差較大,增加了農(nóng)作物出苗時圖像分割的難度。因此,在苗期自動識別農(nóng)作物之前,應(yīng)消除復(fù)雜背景環(huán)境對鑒定結(jié)果的影響。在本文中,二元掩模處理用于去除背景中的干擾項。
三、結(jié)語
本研究總結(jié)了Kinect在農(nóng)業(yè)信息領(lǐng)域的應(yīng)用,闡述了其在國內(nèi)外的研究進展,分析了Kinect的關(guān)鍵技術(shù),闡述了其優(yōu)缺點和發(fā)展方向,為其應(yīng)用和研究提供了有益的參考。 Kincet在現(xiàn)代農(nóng)業(yè)信息領(lǐng)域。在三維形狀重建的農(nóng)作物生長模型方面,為了實現(xiàn)基于農(nóng)作物生長發(fā)育的實際重建規(guī)律是非常困難的,盡管可以在設(shè)備的基礎(chǔ)上獲得圖像信息的深度,以提高重建效率,簡化重建步驟,但三維重建和低自動化的普遍適用性,未來應(yīng)增加樓宇自動化系統(tǒng),三維重建快速重建。
參考文獻:
[1]高仁強,張顯峰,孫敏,趙慶展. 融合無人機LiDAR和高分辨率光學(xué)影像的點云分類方法[J]. 南京信息工程大學(xué)學(xué)報(自然科學(xué)版),2018,10(01):102-112.
[2]王孟博. 基于點云的農(nóng)作物植株三維重建技術(shù)研究[J]. 鄂州大學(xué)學(xué)報,2018,25(01):104-106+109.
[3]牛慶林,馮海寬,楊貴軍,李長春,楊浩,徐波,趙衍鑫. 基于無人機數(shù)碼影像的玉米育種材料株高和LAI監(jiān)測[J]. 農(nóng)業(yè)工程學(xué)報,2018,34(05):73-82.
[4]高寒,李芳,朱景福,王孟博,李妍. 農(nóng)作物基于點云的三維重建方法研究[J]. 農(nóng)業(yè)科技與信息,2018(02):74-76+86.
[5]陳晨,劉濤,武威,陳雯,李瑞,周彤,姚照勝,孫成明. 三維傳感器Kinect在農(nóng)業(yè)領(lǐng)域的應(yīng)用與發(fā)展[J].江蘇農(nóng)業(yè)科學(xué),2018,46(08):11-14.
[6]肖麗萍,劉木華,ZHU Heping,蔡金平,林金龍,歐鳴雄. 噴嘴噴施不同生物農(nóng)藥霧滴特性研究[J]. 農(nóng)業(yè)機械學(xué)報,2018,49(02):100-106.
[7]陳洪,趙慶展,李沛婷. 無校正點的機載LiDAR農(nóng)作物點云數(shù)據(jù)精度評價[J]. 江蘇農(nóng)業(yè)科學(xué),2018,46(12):179-184.
[8]戴建國,張國順,郭鵬,曾窕俊,崔美娜,薛金利. 基于無人機遙感可見光影像的北疆主要農(nóng)作物分類方法[J]. 農(nóng)業(yè)工程學(xué)報,2018,34(18):122-129.
[9]周杰,王益. 均勻矩形陣列的三維空間衰落相關(guān)模型[J]. 新疆大學(xué)學(xué)報(自然科學(xué)版),2017,34(01):44-48.
[10]張雪,郭彩玲,宗澤,張偉潔,劉剛. 基于輪廓分割的草莓葉片三維建模[J]. 農(nóng)業(yè)工程學(xué)報,2017,33(S1):206-211.
[11]陳冬梅. 基于計算機的視覺立體匹配算法研究[J]. 無線互聯(lián)科技,2017(04):61-62.
[12]甘陽英,蘇柱華,肖廣江,張金鴿. 廣東連平縣生態(tài)農(nóng)業(yè)發(fā)展規(guī)劃研究[J]. 中國農(nóng)學(xué)通報,2017,33(17):146-152.
通訊作者:李偉凱,男,山東安丘人,教授,博士生導(dǎo)師。