李毅念,杜世偉,姚 敏,易應(yīng)武,楊建峰,丁啟朔,何瑞銀
?
基于小麥群體圖像的田間麥穗計(jì)數(shù)及產(chǎn)量預(yù)測方法
李毅念,杜世偉,姚 敏,易應(yīng)武,楊建峰,丁啟朔,何瑞銀
(南京農(nóng)業(yè)大學(xué)工學(xué)院,南京 210031)
在田間小麥測產(chǎn)時(shí),需人工獲取田間單位面積內(nèi)的麥穗數(shù)和穗粒數(shù),耗時(shí)耗力。為了快速測量小麥田間單位面積內(nèi)的產(chǎn)量,該文利用特定裝置以田間麥穗傾斜的方式獲取田間麥穗群體圖像,通過轉(zhuǎn)換圖像顏色空間RGB→HSI,提取飽和度S分量圖像,然后把飽和度S分量圖像轉(zhuǎn)換成二值圖像,再經(jīng)細(xì)窄部位粘連去除算法進(jìn)行初步分割,再由邊界和區(qū)域的特征參數(shù)判斷出粘連的麥穗圖像,并利用基于凹點(diǎn)檢測匹配連線的方法實(shí)現(xiàn)粘連麥穗的分割,進(jìn)而識(shí)別出圖像中的麥穗數(shù)量;通過計(jì)算圖像中每個(gè)麥穗的面積像素點(diǎn)數(shù)并由預(yù)測公式得到每個(gè)麥穗的籽粒數(shù),進(jìn)而計(jì)算出每幅圖像上所有麥穗的預(yù)測籽粒數(shù),然后計(jì)算出0.25 m2區(qū)域內(nèi)對(duì)應(yīng)的4幅圖像上的預(yù)測籽粒數(shù);同時(shí)根據(jù)籽粒千粒質(zhì)量數(shù)據(jù),計(jì)算得到該區(qū)域內(nèi)的產(chǎn)量信息。該文在識(shí)別3個(gè)品種田間麥穗單幅圖像中麥穗數(shù)量的平均識(shí)別精度為91.63%,籽粒數(shù)的平均預(yù)測精度為90.73%;對(duì)3個(gè)品種0.25 m2區(qū)域的小麥麥穗數(shù)量、總籽粒數(shù)及產(chǎn)量預(yù)測的平均精度為93.83%、93.43%、93.49%。運(yùn)用該文方法可以實(shí)現(xiàn)小麥田間單位面積內(nèi)的產(chǎn)量信息自動(dòng)測量。
農(nóng)作物;算法;圖像分割;小麥;麥穗群體圖像;單位面積麥穗數(shù);籽粒數(shù);產(chǎn)量預(yù)測
為保證國家糧食安全、制定合理的糧食價(jià)格及宏觀調(diào)控政策,需要及時(shí)、準(zhǔn)確地預(yù)測、估算農(nóng)作物的預(yù)期產(chǎn)量[1]。在田間小麥測產(chǎn)過程中,現(xiàn)有估產(chǎn)方法首先要獲得單位面積內(nèi)的麥穗數(shù)和穗粒數(shù)信息,然后根據(jù)籽粒的千粒質(zhì)量計(jì)算得到小麥的產(chǎn)量[2]。然而目前單位面積內(nèi)的麥穗數(shù)和穗粒數(shù)信息的獲取往往通過人工計(jì)數(shù)來完成,耗時(shí)耗力。
近年來,隨著圖像處理技術(shù)在農(nóng)業(yè)領(lǐng)域各方面研究的不斷深入和發(fā)展,涌現(xiàn)出了許多基于圖像處理技術(shù)來改善傳統(tǒng)農(nóng)業(yè)操作方法的報(bào)道。在水稻測產(chǎn)方面,龔紅菊[3]利用自制計(jì)算機(jī)視覺系統(tǒng),拍攝成熟期水稻群體圖像,應(yīng)用分形理論分析水稻群體圖像的分形特征,最后建立水稻單位面積產(chǎn)量模型,模型精度為92.57%。Reza等[4]基于圖像處理方法利用所搭建的無人機(jī)平臺(tái)獲取田間水稻的秧苗圖像,通過圖像算法對(duì)圖像中的水稻植株進(jìn)行計(jì)數(shù),其識(shí)別精度在89%到93%之間。
目前對(duì)于小麥田間產(chǎn)量預(yù)測,主要是基于機(jī)器視覺的方法用于群體特性研究。Cointault等[5]設(shè)計(jì)了田間自動(dòng)行走機(jī)器人來獲取小麥單位面積內(nèi)圖像,然后通過提取圖像顏色和紋理特征的方法僅僅識(shí)別出小麥穗數(shù)量信息。Zhu等[6]為了實(shí)時(shí)獲取抽穗期田間小麥生長信息情況利用田間監(jiān)控?cái)z像頭獲取圖像識(shí)別出指定范圍內(nèi)的麥穗數(shù)量。Fernandez-Gallego等[7]基于圖像處理技術(shù),通過濾波和尋找最大值的方法來檢測計(jì)數(shù)所采集田間麥穗圖像中的麥穗數(shù),其算法識(shí)別精度達(dá)到了90%,并未對(duì)田間小麥的產(chǎn)量信息做進(jìn)一步研究。Li等[8]提出利用麥穗植株圖像中穗頭的顏色和紋理等特征參數(shù)并結(jié)合神經(jīng)網(wǎng)絡(luò)來檢測小麥穗頭,其檢測正確率在80%左右,但是該研究是在基于實(shí)驗(yàn)室環(huán)境下所培養(yǎng)的盆栽小麥上進(jìn)行的,并未應(yīng)用到實(shí)際田間測產(chǎn)中。杜世偉等[9]利用拋物線分割單株小麥穗部各小穗的方法獲取穗部小穗數(shù)及籽粒數(shù),其精度分別為97.01%、94.38%,只是對(duì)單株麥穗穗部信息做了深入研究,并未涉及田間麥穗群體圖像的產(chǎn)量預(yù)測。劉濤等[10]提出了一種利用圖像分析技術(shù)實(shí)現(xiàn)田間麥穗快速計(jì)數(shù)的方法,通過對(duì)撒播和條播各35幅樣本圖像進(jìn)行計(jì)數(shù)試驗(yàn),準(zhǔn)確率分別為95.77%和96.89%;范夢(mèng)揚(yáng)等[11]在已有研究的基礎(chǔ)上采用支持向量機(jī)學(xué)習(xí)的方法,精確提取小麥麥穗輪廓,同時(shí)構(gòu)建麥穗特征數(shù)據(jù)庫,來對(duì)麥穗進(jìn)行計(jì)數(shù),平均識(shí)別精度高于93%,均未對(duì)田間單位平方米內(nèi)的小麥籽粒及產(chǎn)量信息進(jìn)行研究。
綜上可知,對(duì)于小麥田間測產(chǎn)研究方面,只是通過圖像分析的方法對(duì)單位面積內(nèi)麥穗進(jìn)行計(jì)數(shù),鮮有通過田間小麥群體圖像直接獲取小麥單位面積內(nèi)籽粒及產(chǎn)量信息的相關(guān)研究報(bào)道。因此,本文基于圖像處理技術(shù),以田間小麥群體圖像為研究對(duì)象,利用凹點(diǎn)檢測匹配分割算法及提取穗頭面積像素?cái)?shù)的方法,對(duì)圖像中的麥穗數(shù)和籽粒數(shù)進(jìn)行識(shí)別預(yù)測,根據(jù)籽粒千粒質(zhì)量計(jì)算得到田間小麥單位面積內(nèi)的產(chǎn)量信息,以期實(shí)現(xiàn)田間小麥單位面積內(nèi)產(chǎn)量的自動(dòng)測量。
田間圖像拍攝地點(diǎn)為南京市浦口區(qū)江浦農(nóng)場大田正常條播小麥地塊,圖像采集時(shí)間為2017年5月22日— 5月29日15:00到傍晚時(shí)段,品種分別為“蘇科麥1號(hào)”、“蘇麥188號(hào)”、“揚(yáng)麥22號(hào)”,所取圖像樣本數(shù)量分別為64、60、60幅。圖像采集時(shí),如圖1a所示,將1個(gè)正四棱臺(tái)殼體(上底面邊長為0.5 m,下底面邊長為1 m)的上下2個(gè)正方形底面去除,倒扣在田間麥穗上(為增加裝置穩(wěn)定性,分別在倒扣的正四棱臺(tái)殼體上底面4個(gè)角下方固定4個(gè)支腿,支腿高度為0.5 m);然后正四棱臺(tái)中間用1個(gè)正四棱錐殼體(底面邊長為0.5 m,棱錐高為0.5 m)從麥穗上方垂直放下,其作用是將0.5 m×0.5 m區(qū)域內(nèi)的麥穗分到正四棱臺(tái)的4個(gè)方向的4個(gè)內(nèi)側(cè)面上;然后在正四棱錐殼體底面中央安裝旋轉(zhuǎn)底座,旋轉(zhuǎn)底座上安裝固定支架,用來固定相機(jī);最后用照相機(jī)鏡頭以固定距離(本文以能夠看到所拍攝內(nèi)側(cè)面上所有的麥穗時(shí)的距離=0.6 m)垂直于4個(gè)內(nèi)側(cè)面分別采集圖像,相機(jī)型號(hào)為Canon EOS 80D,圖像分辨率為6 000×3 368像素,圖像格式為JPG。相機(jī)拍攝視場大小為0.75 m×0.42 m,圖像背景顏色為白色。試驗(yàn)中采集到的圖像如圖1b所示。
1. 相機(jī) 2. 固定支架 3. 正四棱錐殼體 4. 正四棱臺(tái)下底 5. 正四棱臺(tái)內(nèi)側(cè)面 6. 旋轉(zhuǎn)底座 7. 正四棱臺(tái)上底
麥穗圖像采集后,首先經(jīng)過圖像顏色空間轉(zhuǎn)換提取飽和度分量圖像,然后進(jìn)一步通過圖像預(yù)處理、去除細(xì)窄處粘連、凹點(diǎn)檢測匹配分割等算法處理,實(shí)現(xiàn)圖像中麥穗分割計(jì)數(shù),以及籽粒數(shù)、產(chǎn)量預(yù)測。算法流程圖如圖2所示。
為了降低原圖像受外界亮度不均的干擾[12],本文首先將采集的圖像由RGB顏色空間向HSI顏色空間轉(zhuǎn)換;然后提取S分量(即飽和度分量)圖像,如圖3a所示。再對(duì)S分量圖像進(jìn)行二值化、形態(tài)學(xué)開運(yùn)算、去除小面積得到二值圖像,如圖3b所示。再對(duì)二值圖像進(jìn)行線性平滑濾波[13-14],如圖3c所示。
圖2 田間麥穗圖像處理算法流程圖
圖3 小麥群體圖像預(yù)處理
為便于麥穗分割,需去除圖3c中各連通域內(nèi)細(xì)窄粘連部位,具體實(shí)施思路如下:
1)首先,對(duì)圖3c二值圖像進(jìn)行連通區(qū)域標(biāo)記,并依次讀取每個(gè)連通域。為減小運(yùn)算量,提高計(jì)算效率,需對(duì)每個(gè)連通域按最小矩形剪切,如圖4a所示。
2)獲取目標(biāo)區(qū)域邊界(包含外邊界和內(nèi)邊界)坐標(biāo)。為了簡化后續(xù)算法計(jì)算量,在不影響計(jì)算精度的情況下,本文將各邊界坐標(biāo)長度簡化縮短5倍,即從第1個(gè)坐標(biāo)點(diǎn)開始每隔4個(gè)點(diǎn)取1個(gè)坐標(biāo)值,得到的目標(biāo)區(qū)域邊界圖像如圖4b所示。
3)所有邊界各點(diǎn)坐標(biāo)依次求相互距離。通過設(shè)定閾值1(根據(jù)細(xì)窄粘連部位一般寬度設(shè)定,1=45),篩選出距離小于閾值1的點(diǎn)對(duì)的坐標(biāo)。其中,各點(diǎn)求相互距離利用的歐幾里得距離公式如下[15]
式中1與2分別為邊界上2點(diǎn)的橫坐標(biāo);1與2分別為邊界上2點(diǎn)的縱坐標(biāo)。
4)判斷符合距離條件的點(diǎn)對(duì)是否在同1個(gè)邊界上,若否,則這2個(gè)點(diǎn)直接相連并使2點(diǎn)連線之間的坐標(biāo)位置處置0,實(shí)現(xiàn)連線分割;若是,則進(jìn)一步判斷該點(diǎn)對(duì)在該邊界上的序數(shù)距離是否大于1個(gè)指定閾值2(根據(jù)小麥穗頭端部寬度確定,2=55):如果大于2,則2個(gè)點(diǎn)直接相連并使2點(diǎn)連線之間的坐標(biāo)位置處置0,實(shí)現(xiàn)連線分割;如果小于2,則這個(gè)點(diǎn)對(duì)不是所需要連線分割的點(diǎn)對(duì),應(yīng)舍去。經(jīng)過距離判斷后篩選出的需要連線分割的點(diǎn)對(duì)坐標(biāo)分布如圖4c所示。
5)經(jīng)過上述過程可實(shí)現(xiàn)同1個(gè)連通域內(nèi)目標(biāo)圖像的細(xì)窄部位連線分割,然后再通過去除小面積等算法得到初步分割圖,如圖4d所示。最后依次對(duì)每個(gè)連通域進(jìn)行上述算法流程處理。
1.5.1 邊界特性參數(shù)提取
1)邊界長度,即區(qū)域輪廓的周長[16]。本文選擇4連通域情況下,首先獲得單個(gè)連通域外邊界,然后統(tǒng)計(jì)輪廓邊界上像素點(diǎn)的個(gè)數(shù),記作。
2)邊界點(diǎn)角度,即輪廓邊界上各點(diǎn)分別與其前后績點(diǎn)所組成向量之間的夾角。前績點(diǎn)和后績點(diǎn)分別表示邊界上一點(diǎn)沿邊界向前或向后取一定距離像素點(diǎn)處的點(diǎn)[17]。
1.5.2 區(qū)域特性參數(shù)提取
1)區(qū)域面積,即邊界所包圍的區(qū)域輪廓的大小[18]。本文計(jì)算區(qū)域面積就是對(duì)屬于區(qū)域的像素進(jìn)行計(jì)數(shù),記作1。
2)形狀因子,即區(qū)域周長的平方與面積1的比:1=2/1。形狀因子在一定程度上描述了區(qū)域的緊湊型,有時(shí)也稱為致密度或分散度[18]。
3)凸閉包面積占空比,即指1個(gè)連通域內(nèi)的面積1與該連通域凸殼面積0的比值,即:=1/0。凸殼定義為對(duì)于任何1個(gè)子集(如1個(gè)連通域),有1個(gè)最小的包含的凸集,即所有包含的凸集的交集,稱其為的凸殼[19]。連通域的凹域定義為連通域的凸殼減去該連通域剩下的部分,其面積為:2=0–1。
圖4 去除細(xì)窄處粘連
1.5.3 多特征參數(shù)綜合識(shí)別
由圖5a可見,由于麥穗與麥穗粘連的形態(tài)多種多樣,所以只通過連通域的1個(gè)特征參數(shù)無法較準(zhǔn)確地判斷該連通域是否粘連。因此,本文通過提取多個(gè)特征參數(shù)來綜合判斷圖像中每個(gè)連通域內(nèi)的組成情況。對(duì)于麥穗的邊界,由圖5a可以觀察到,其邊界一般比較粗糙曲折,邊界點(diǎn)的角度就復(fù)雜多樣,但是其角度值一般要小,而對(duì)于連通域內(nèi)的莖桿部分,其邊界比較光滑筆直,邊界點(diǎn)的角度也比較均勻集中,值主要分布在170°~180°之間。所以對(duì)于莖稈來說,其邊界點(diǎn)的角度值在170°~180°之間的點(diǎn)數(shù)量占邊界點(diǎn)總數(shù)的比率170o–180o要大于麥穗的邊界情況,本文根據(jù)每個(gè)品種小麥穗圖像中莖稈和穗的實(shí)際統(tǒng)計(jì)情況確定選擇170o–180o=0.35。對(duì)同1個(gè)品種相同處理?xiàng)l件下的小麥圖像中的各連通域,若是單個(gè)穗,其邊界長度要比粘連的情況?。ū疚耐ㄟ^統(tǒng)計(jì)比較單個(gè)穗和粘連穗的邊界長度選擇0=2 000);同理,粘連穗的面積像素?cái)?shù)要比單個(gè)穗的大(本文通過統(tǒng)計(jì)比較單個(gè)穗和粘連穗的面積像素?cái)?shù)選擇0=70 000)。粘連穗形狀比單個(gè)穗要復(fù)雜,所以,粘連穗形狀因子要高于單個(gè)穗(本文通過統(tǒng)計(jì)比較單個(gè)穗和粘連穗的形狀因子,選擇0=40)。單個(gè)穗的凸閉包更接近麥穗的形狀,而粘連穗由于多個(gè)麥穗連接會(huì)增大凹域的面積,從而降低凸閉包面積占空比的值,使其低于單個(gè)麥穗的凸閉包面積占空比的值。本文通過統(tǒng)計(jì)比較單個(gè)穗和粘連穗的凸閉包面積占空比的值,選擇0=0.75。經(jīng)過閾值法對(duì)各連通域進(jìn)行識(shí)別判斷,得到分類結(jié)果圖像見圖5b~圖5d。
圖5 識(shí)別分類后圖像
基于凹點(diǎn)檢測的方法主要利用粘連目標(biāo)邊界輪廓上的特征信息來尋找目標(biāo)邊界上合適的凹點(diǎn)作為分割點(diǎn),然后根據(jù)某種配對(duì)規(guī)則對(duì)分割點(diǎn)進(jìn)行配對(duì),最后連接分割點(diǎn)即可將粘連在一起的目標(biāo)物體分離成單個(gè)不粘連的目標(biāo)物體[20-22]。當(dāng)有2個(gè)及以上的目標(biāo)個(gè)體相互粘連在一起時(shí),在粘連處會(huì)形成凹形區(qū)域(稱作凹域),凹曲程度最大的點(diǎn)則為要尋找的待分割點(diǎn)[23]。
1.6.1 粘連麥穗圖像邊緣平滑
由于得到的目標(biāo)圖像中粘連麥穗輪廓邊界存在微小的凹凸不規(guī)則處,會(huì)對(duì)選擇準(zhǔn)確的凹點(diǎn)產(chǎn)生干擾,所以,在凹點(diǎn)提取之前要對(duì)粘連麥穗圖像邊緣進(jìn)行平滑。本文借鑒文獻(xiàn)[22]中求目標(biāo)區(qū)域凹域的方法,采用多次平滑目標(biāo)圖像的凹域,然后利用凸包圖像減去平滑后的凹域圖像,得到平滑后的粘連目標(biāo)圖像見圖6。
1.6.2 凹點(diǎn)提取
本文在凹點(diǎn)提取時(shí)先利用夾角法初選出部分待選凹點(diǎn),再利用面積法確定出最終的合適凹點(diǎn),綜合2種方法的優(yōu)勢,使凹點(diǎn)提取過程準(zhǔn)確快速。具體算法過程如下:
圖6 粘連麥穗圖像邊緣平滑
2)由圖7c可知,已經(jīng)初選出來的部分凹點(diǎn)中仍然存在少數(shù)多余的凹點(diǎn),故本文又采用面積法來篩選出最佳的凹點(diǎn)。如圖7d所示,對(duì)已經(jīng)初選出的凹點(diǎn),在其位置處作指定半徑的圓,該圓被目標(biāo)輪廓邊界劃分為兩部分,一部分在邊界內(nèi)部而另一部分在邊界外部。通過統(tǒng)計(jì)每個(gè)待選凹點(diǎn)處落在邊界內(nèi)部的部分圓的像素?cái)?shù),然后設(shè)定閾值,來優(yōu)選出最終所需要的凹點(diǎn)。面積法的優(yōu)點(diǎn)是凹點(diǎn)處凹角越小,落在邊界內(nèi)部的圓的面積越大,反之,凹點(diǎn)處凹角越大,面積越小。篩選出的凹點(diǎn)如圖7e所示,圖中仍然存在多余的凹點(diǎn),可以通過設(shè)定距離閾值剔除,最終篩選出的凹點(diǎn)如圖7f所示。
3)上述凹點(diǎn)提取的過程主要針對(duì)的是粘連目標(biāo)只有外邊界的情況,但在實(shí)際圖像處理試驗(yàn)過程中,還存在極少數(shù)的粘連目標(biāo)圖像具有內(nèi)邊界的情況。這就需要首先判斷粘連目標(biāo)圖像是否存在內(nèi)邊界,如果不存在內(nèi)邊界,則按照上述過程只對(duì)外邊界提取凹點(diǎn)處理;如果存在內(nèi)邊界,則采用對(duì)外邊界提取凹點(diǎn),而內(nèi)邊界提取凸點(diǎn)的方法進(jìn)行處理。
注:圖7a.中V表示凹點(diǎn)處向量積的方向垂直紙面向里,?表示凸點(diǎn)處向量積的方向垂直紙面向外。
1.6.3 凹點(diǎn)匹配分割
目前,凹點(diǎn)匹配的方法主要是以距離最近原則進(jìn)行匹配。針對(duì)不同的識(shí)別目標(biāo),距離最近原則方法分離的正確率有所差異,這種原則對(duì)形狀比較規(guī)則的目標(biāo)分割的正確率要高一些,比如圓形的細(xì)胞[24]或礦石顆粒[25]等,而對(duì)于比較復(fù)雜的粘連麥穗圖像單純的利用這種方法往往會(huì)出現(xiàn)錯(cuò)誤的分割結(jié)果。為此,本文通過觀察不同的粘連麥穗圖像的凹點(diǎn)分布特點(diǎn),提出6條凹點(diǎn)匹配原則:
1)2個(gè)待匹配的凹點(diǎn)連線均應(yīng)該在目標(biāo)圖像內(nèi)部,不應(yīng)該穿過目標(biāo)邊界外部的黑色背景區(qū)域。
2)2個(gè)待匹配的凹點(diǎn)連線應(yīng)該穿過目標(biāo)圖像的中軸線(即骨架線),如圖8a所示,也就是兩凹點(diǎn)連線肯定要和目標(biāo)區(qū)域的中軸線存在交點(diǎn)。
3)優(yōu)先選擇符合反向角區(qū)域雙向選擇的凹點(diǎn)。1個(gè)待匹配的凹點(diǎn)和其位置處邊界前后距點(diǎn)所組成的夾角的反向角區(qū)域內(nèi)的凹點(diǎn)優(yōu)先選擇,如果反向角區(qū)域內(nèi)存在多個(gè)符合要求的凹點(diǎn),則再判斷待匹配凹點(diǎn)是否也在這些凹點(diǎn)處的反向角區(qū)域內(nèi),如果是,則優(yōu)先選擇,即優(yōu)先選擇符合雙向選擇的兩凹點(diǎn)。如圖8b所示,凹點(diǎn)在凹點(diǎn)處前后距點(diǎn)的反向角區(qū)域內(nèi),故凹點(diǎn)、匹配;而、兩凹點(diǎn)符合反向角區(qū)域雙向選擇,故凹點(diǎn)、匹配。
4)距離最近原則。如果滿足以上條件的凹點(diǎn)處仍然存在多個(gè)凹點(diǎn)等待選擇,那么再考慮距離最近原則,優(yōu)先選擇距離較近的凹點(diǎn)組成凹點(diǎn)對(duì)。
圖8 凹點(diǎn)匹配分割
5)凹點(diǎn)對(duì)連線應(yīng)該避免交叉。當(dāng)存在多條分割線時(shí),應(yīng)該在選出1個(gè)凹點(diǎn)對(duì)時(shí),再判斷該凹點(diǎn)對(duì)連線是否和前面已經(jīng)選出的凹點(diǎn)對(duì)連線是否存在交點(diǎn),若不存在交點(diǎn),則確定使用該凹點(diǎn)對(duì);反之,若存在交點(diǎn),則舍棄該凹點(diǎn)對(duì),選擇另外的符合上述原則的凹點(diǎn)進(jìn)行匹配。
6)當(dāng)存在內(nèi)邊界時(shí),優(yōu)先選擇內(nèi)邊界上的凸點(diǎn)按照以上原則和外邊界上的凹點(diǎn)相匹配。
根據(jù)以上原則可篩選出需要匹配的凹點(diǎn)對(duì),然后對(duì)凹點(diǎn)對(duì)進(jìn)行連線分割。本文粘連麥穗圖像凹點(diǎn)連線分割的效果圖見圖8c。各粘連麥穗圖像分割完畢后,再與原本未粘連的單個(gè)麥穗圖像疊加,即可得到分割后的麥穗圖像見圖8d。
1.7.1 麥穗計(jì)數(shù)
本文將每幅圖像識(shí)別測量的麥穗數(shù)作為預(yù)測值,實(shí)際人工計(jì)數(shù)得到的麥穗數(shù)作為實(shí)測值。通過比較每幅圖像上麥穗數(shù)預(yù)測值和實(shí)測值之間的相對(duì)誤差和絕對(duì)誤差來評(píng)價(jià)本文算法識(shí)別的精度及可靠性;同時(shí)對(duì)0.25 m2內(nèi)對(duì)應(yīng)的4幅圖像麥穗數(shù)預(yù)測值進(jìn)行累加求和,得到0.25 m2內(nèi)總麥穗數(shù)預(yù)測值,并與總麥穗數(shù)實(shí)測值作誤差分析。
1.7.2 籽粒計(jì)數(shù)
采集圖像時(shí),事先在正四棱臺(tái)每個(gè)內(nèi)側(cè)面上任意選擇3株麥穗,然后在其莖稈位置上做好標(biāo)記,并記錄每幅圖像上所標(biāo)記的3株麥穗的實(shí)測籽粒數(shù);再通過圖像識(shí)別過程獲得該3株麥穗的面積像素?cái)?shù),最后建立起每個(gè)麥穗籽粒數(shù)與其面積像素?cái)?shù)之間的線性相關(guān)關(guān)系,進(jìn)而得到每個(gè)品種籽粒數(shù)的預(yù)測公式。利用該預(yù)測公式可以對(duì)每幅圖像上所識(shí)別出的每個(gè)麥穗進(jìn)行籽粒數(shù)預(yù)測,然后將每個(gè)麥穗的預(yù)測結(jié)果記錄下來并進(jìn)行求和得到該幅圖像上的預(yù)測總籽粒數(shù)。本文將每幅圖像上的麥穗在采集時(shí)用剪刀剪下穗頭進(jìn)行烘干脫粒,然后通過人工計(jì)數(shù)獲取每幅圖像區(qū)域上的實(shí)測總籽粒數(shù)。同樣,通過比較每幅圖像的籽粒數(shù)預(yù)測值和實(shí)測值之間的相對(duì)誤差和絕對(duì)誤差來評(píng)價(jià)本文算法識(shí)別的精度及可靠性;同時(shí)對(duì)0.25 m2內(nèi)對(duì)應(yīng)的4幅圖像中總籽粒數(shù)預(yù)測值與實(shí)測值作誤差分析。
1.7.3 千粒質(zhì)量測定
千粒質(zhì)量是以克表示的1 000粒種子的質(zhì)量,它是體現(xiàn)種子大小與飽滿程度的一項(xiàng)指標(biāo)。千粒質(zhì)量也是作物產(chǎn)量構(gòu)成因素之一,是在作物測產(chǎn)時(shí)必須要使用的。本文對(duì)每個(gè)品種的麥穗籽粒隨機(jī)數(shù)出1 000粒,在電子天平(型號(hào):FA2204B,Max=220 g,檢定標(biāo)尺分度值為10 d,試劑標(biāo)尺分度值為0.1 mg)上進(jìn)行稱質(zhì)量,并記錄數(shù)據(jù),然后重復(fù)5次,取5次千粒質(zhì)量的平均值作為對(duì)應(yīng)品種的千粒質(zhì)量。
1.7.4 產(chǎn)量計(jì)算
在計(jì)算產(chǎn)量時(shí),首先將0.25 m2內(nèi)對(duì)應(yīng)的4幅圖像籽粒數(shù)識(shí)別預(yù)測值相加,然后乘以對(duì)應(yīng)品種的千粒質(zhì)量并除以1 000,得到該品種在0.25 m2內(nèi)的產(chǎn)量,作為產(chǎn)量預(yù)測值;將同區(qū)域內(nèi)的麥穗脫粒后進(jìn)行稱質(zhì)量,得到該區(qū)域的產(chǎn)量實(shí)測值,最后通過比較每個(gè)區(qū)域內(nèi)的產(chǎn)量預(yù)測值和實(shí)測值之間的相對(duì)誤差和絕對(duì)誤差來評(píng)價(jià)本文算法的識(shí)別精度與可靠性。
使用式(2)計(jì)算單個(gè)樣本圖像中所提取參數(shù)算法預(yù)測值和人工實(shí)測值的相對(duì)誤差,使用式(3)計(jì)算每個(gè)品種總體樣本圖像的平均絕對(duì)誤差,使用式(4)計(jì)算每個(gè)品種總體樣本圖像的平均相對(duì)誤差。
注:AE為平均絕對(duì)誤差,RE為平均相對(duì)誤差,%。
為了比較本文凹點(diǎn)檢測分割算法對(duì)圖像中粘連麥穗分割前后麥穗數(shù)識(shí)別精度的影響,本文分別對(duì)粘連麥穗分割前圖像中的麥穗連通域進(jìn)行計(jì)數(shù),并與圖像中的實(shí)測麥穗數(shù)做誤差分析,見表1。由表1可以計(jì)算出:3個(gè)試驗(yàn)小麥品種所采集圖像的粘連麥穗分割前麥穗數(shù)的識(shí)別平均絕對(duì)誤差為8.84個(gè),平均相對(duì)誤差為29.07%,和粘連麥穗分割后麥穗數(shù)的識(shí)別誤差相比,粘連麥穗未分割時(shí)的識(shí)別誤差明顯升高。所以,本文凹點(diǎn)檢測分割算法可有效地對(duì)圖像中粘連麥穗實(shí)現(xiàn)分割,從而提高圖像中麥穗數(shù)的識(shí)別精度。由上分析可知,本文算法在識(shí)別田間麥穗圖像中麥穗數(shù)量時(shí)單幅圖像的識(shí)別精度為91.63%。
表1 粘連麥穗分割前麥穗數(shù)識(shí)別誤差分析
2.2.1 單個(gè)麥穗實(shí)測籽粒數(shù)與面積像素?cái)?shù)相關(guān)關(guān)系建立
通過對(duì)3個(gè)品種每幅圖像中的麥穗進(jìn)行識(shí)別,再提取圖像中事先標(biāo)號(hào)的麥穗的面積像素?cái)?shù),最后將每個(gè)品種標(biāo)號(hào)的麥穗的實(shí)測籽粒數(shù)與其圖像中得到的面積像素?cái)?shù)建立線性關(guān)系見圖10。由圖10可知,事先標(biāo)記的麥穗的實(shí)測籽粒數(shù)與其在圖像上所占的面積像素?cái)?shù)具有極其顯著的線性相關(guān)性,決定系數(shù)2均達(dá)0.82以上(< 0.001)。說明可以利用籽粒數(shù)與面積像素?cái)?shù)的線性相關(guān)關(guān)系來間接地預(yù)測圖像中已分割好的每個(gè)麥穗的籽粒數(shù)。
2.2.2 籽粒數(shù)預(yù)測結(jié)果分析
圖10 3個(gè)品種小麥圖像中已標(biāo)記麥穗的籽粒數(shù)與面積像素?cái)?shù)的線性相關(guān)關(guān)系
圖11 3個(gè)品種小麥圖像預(yù)測籽粒數(shù)與實(shí)測籽粒數(shù)的線性相關(guān)關(guān)系
2.2.3 產(chǎn)量預(yù)測結(jié)果分析
本文還將所選定的0.25 m2區(qū)域內(nèi)對(duì)應(yīng)的4幅圖像的總穗數(shù)、總籽粒數(shù)和產(chǎn)量的預(yù)測值和該區(qū)域內(nèi)的總穗數(shù)、總籽粒數(shù)和產(chǎn)量的實(shí)測值進(jìn)行了統(tǒng)計(jì)并做了誤差分析,見表2。由表2可進(jìn)一步計(jì)算:
1)3個(gè)品種麥穗圖像的麥穗數(shù)識(shí)別平均絕對(duì)誤差為6.83個(gè);平均相對(duì)誤差為6.17%。所以本文算法在識(shí)別田間0.25 m2面積區(qū)域內(nèi)麥穗數(shù)時(shí)的精度為93.83%;
2)3個(gè)品種麥穗圖像的籽粒數(shù)預(yù)測平均絕對(duì)誤差為257.88粒;平均相對(duì)誤差為6.57%。所以本文算法在預(yù)測田間0.25 m2面積區(qū)域內(nèi)籽粒數(shù)時(shí)的精度為93.43%;
3)3個(gè)品種麥穗圖像的產(chǎn)量預(yù)測平均絕對(duì)誤差為8.40 g;平均相對(duì)誤差為6.51%。所以本文算法在預(yù)測田間0.25 m2麥穗圖像的麥穗產(chǎn)量時(shí)的精度為93.49%;
表2 0.25 m2麥穗數(shù)、籽粒數(shù)和產(chǎn)量預(yù)測結(jié)果誤差分析
本文在進(jìn)行田間麥穗圖像測產(chǎn)試驗(yàn)時(shí),所采用的3個(gè)品種麥穗均取自江浦農(nóng)場不同農(nóng)戶田間地塊的小麥,從3個(gè)品種小麥的千粒質(zhì)量數(shù)據(jù)可以看出:不同品種麥穗之間存在一定的差異性。
通過建立單個(gè)麥穗實(shí)測籽粒數(shù)與面積像素?cái)?shù)相關(guān)關(guān)系,由圖10可以進(jìn)一步觀察到,雖然單個(gè)麥穗實(shí)測籽粒數(shù)與面積像素?cái)?shù)存在極其顯著(<0.001)的線性相關(guān)性,但是其散點(diǎn)分布相對(duì)來說還較分散,其2還未達(dá)到0.90以上。這也是造成本文籽粒數(shù)預(yù)測精度較低的直接原因。通過觀察原圖像可發(fā)現(xiàn)同一幅圖像上的麥穗并不是都以正視圖或側(cè)視圖呈現(xiàn),而是兩者混合的情況,由于小麥穗的正視圖與側(cè)視圖面積上的差異,導(dǎo)致單個(gè)麥穗的實(shí)測籽粒數(shù)與面積像素?cái)?shù)的線性相關(guān)性減弱。所以要想進(jìn)一步提高籽粒數(shù)的預(yù)測精度可以通過改善算法以識(shí)別區(qū)分出圖像中麥穗的呈現(xiàn)形態(tài)。此外,在采集圖像時(shí),應(yīng)該注意嚴(yán)格控制所采集圖像都要在相同條件下。
通過對(duì)圖像中的麥穗數(shù)預(yù)測值的誤差分析,本文方法要優(yōu)于范夢(mèng)揚(yáng)等[11]的基于支持向量機(jī)學(xué)習(xí)的識(shí)別方法。而和劉濤等[10]研究單位面積麥穗數(shù)量的方法識(shí)別精度相比,本文方法識(shí)別精度還有待提高。經(jīng)過仔細(xì)觀察本文算法處理前后的圖像可知,誤差來源主要是采樣點(diǎn)處的麥穗在4個(gè)方向的分布不均勻?qū)е虏糠謭D像出現(xiàn)麥穗堆積現(xiàn)象,從而增大誤差。所以,圖像采集裝置還應(yīng)該繼續(xù)改進(jìn)完善,同時(shí)提高算法的識(shí)別精度。另外,已有文獻(xiàn)的小麥田間圖像測產(chǎn)方法并沒有實(shí)現(xiàn)圖像中麥穗的分割計(jì)數(shù),僅僅是通過穗頭骨架拐點(diǎn)的個(gè)數(shù)進(jìn)行麥穗數(shù)預(yù)測,更沒有進(jìn)一步得到圖像中麥穗的籽粒數(shù)及產(chǎn)量的相關(guān)信息,而本文通過一系列分割算法實(shí)現(xiàn)了圖像中麥穗數(shù)、籽粒數(shù)、產(chǎn)量的識(shí)別預(yù)測。
通過對(duì)每個(gè)品種單幅圖像籽粒數(shù)預(yù)測值的誤差分析,發(fā)現(xiàn)試驗(yàn)相對(duì)誤差在15%以上的頻數(shù)較大,尤其是“蘇科麥1號(hào)”品種,經(jīng)過試驗(yàn)觀察分析,發(fā)現(xiàn)這些相對(duì)誤差較大的圖像多分布于整體樣本序數(shù)的后面部分,這是由于這些圖像在采集時(shí)正值臨近傍晚時(shí)段,天色逐漸變暗,導(dǎo)致所采集圖像清晰度明顯下降,最終影響了算法的識(shí)別精度。
近年來在小麥田間產(chǎn)量預(yù)測方面,除了人工實(shí)地取樣測產(chǎn)外,還包括:利用基于高光譜遙感的預(yù)測模型方法來預(yù)測小麥產(chǎn)量,其模型平均識(shí)別精度在84%左右[26];利用主動(dòng)遙感儀器獲得小麥冠層歸一化植被指數(shù)以及比值植被指數(shù)的變化情況來建立回歸模型來預(yù)測小麥產(chǎn)量,其模型預(yù)測精度因小麥不同的生長期變化而變化,在返青期和灌漿期模型的識(shí)別精度最高在92%~93%之間[27];利用氣象數(shù)據(jù)與遙感數(shù)據(jù)相結(jié)合的估產(chǎn)模型來預(yù)測小麥產(chǎn)量[28],其精度要好于僅基于遙感或氣象模型,為91.50%。而本文算法在對(duì)0.25 m2區(qū)域小麥產(chǎn)量預(yù)測方面精度為93.49%,要優(yōu)于基于高光譜遙感圖像的識(shí)別精度和利用氣象數(shù)據(jù)與遙感數(shù)據(jù)相結(jié)合的模型的預(yù)測精度,并且本文在小麥產(chǎn)量預(yù)測精度上還有可提高的空間。要進(jìn)一步提高單位平方米內(nèi)產(chǎn)量預(yù)測的精度,需要提高區(qū)域內(nèi)每幅圖像上的麥穗數(shù)及籽粒數(shù)的識(shí)別精度,可通過進(jìn)一步改善算法,優(yōu)化籽粒數(shù)的預(yù)測公式以及改進(jìn)圖像采集裝置來實(shí)現(xiàn)。
本文以田間0.25 m2區(qū)域小麥穗為研究對(duì)象,利用特定裝置使麥穗傾斜的方式獲取小麥穗部圖像,通過顏色空間轉(zhuǎn)換、去除細(xì)窄處粘連、粘連麥穗判斷、凹點(diǎn)檢測分割等算法過程,實(shí)現(xiàn)了圖像中粘連麥穗的有效分割,提高圖像中麥穗數(shù)的識(shí)別精度,在識(shí)別3個(gè)品種田間麥穗單幅圖像中麥穗數(shù)量的平均識(shí)別精度為91.63%;通過計(jì)算圖像中每個(gè)麥穗的面積像素點(diǎn)數(shù)以及像素點(diǎn)數(shù)與籽粒數(shù)之間的相關(guān)關(guān)系得到的預(yù)測公式得到每個(gè)麥穗的籽粒數(shù),進(jìn)而計(jì)算出每幅圖像上所有麥穗的預(yù)測籽粒數(shù),籽粒數(shù)的平均預(yù)測精度為90.73%;進(jìn)一步得到了單位面積內(nèi)的小麥麥穗數(shù)量、總籽粒數(shù)及產(chǎn)量信息,3個(gè)品種0.25 m2區(qū)域的小麥麥穗數(shù)量、總籽粒數(shù)及產(chǎn)量預(yù)測的平均精度為93.83%、93.43%、93.49%。運(yùn)用本文方法可以實(shí)現(xiàn)小麥田間單位面積內(nèi)的產(chǎn)量信息自動(dòng)測量。
[1] 歐文浩,蘇偉,薛文振,等. 基于HJ-1衛(wèi)星影像的三大農(nóng)作物估產(chǎn)最佳時(shí)相選擇[J]. 農(nóng)業(yè)工程學(xué)報(bào),2010,26(11):176-182.Ou Wenhao, Su Wei, Xue Wenzhen, et al. Selection of optimum phase for yield estimation of three major crops based on HJ-1 satellite images[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2010, 26(11): 176-182. (in Chinese with English abstract)
[2] 李向東,呂風(fēng)榮,張德奇,等. 小麥田間測產(chǎn)和實(shí)際產(chǎn)量轉(zhuǎn)換系數(shù)實(shí)證研究[J]. 麥類作物學(xué)報(bào),2016,36(1):69-76.Li Xiangdong, Lü Fengrong, Zhang Deqi, et al. Empirical study on conversion factors between yield monitoring and actual yield of winter wheat[J]. Journal of Triticeae Crops, 2016, 36(1): 69-76. (in Chinese with English abstract)
[3] 龔紅菊. 基于分形理論及圖像紋理分析的水稻產(chǎn)量預(yù)測方法研究[D]. 南京:南京農(nóng)業(yè)大學(xué),2008. Gong Hongju. Estimating Paddy Yield based on Fractal and Image Texture Analysis[D]. Nanjing: Nanjing Agricultural University, 2008. (in Chinese with English abstract)
[4] Reza M N, Na I S, Lee K H. Automatic counting of rice plant numbers after transplanting using low altitude UAV images[J]. International Journal of Contents, 2017, 13: 1-8.
[5] Cointault F, Journaux L, Gouton P. Statistical methods for texture analysis applied to agronomical images[C]//Electronic Imaging 2008. International Society for Optics and Photonics, 2008: 593-602.
[6] Zhu Y, Cao Z, Lu H, et al. In-field automatic observation of wheat heading stage using computer vision[J]. Biosystems Engineering, 2016, 143: 28-41.
[7] Fernandez-Gallego J A, Kefauver S C, Gutiérrez N A, et al. Wheat ear counting in-field conditions: High throughput and low-cost approach using RGB images[J]. Plant Methods, 2018, 14(1): 1-12.
[8] Li Q Y, Cai J, Berger B, et al. Detecting spikes of wheat plants using neural networks with laws texture energy[J]. Plant Methods, 2017, 13(1): 1-13.
[9] 杜世偉,李毅念,姚敏,等. 基于小麥穗部小穗圖像分割的籽粒計(jì)數(shù)方法[J]. 南京農(nóng)業(yè)大學(xué)學(xué)報(bào),2018,41(4): 742-751. Du Shiwei, Li Yinian, Yao Min, et al. Counting method of grain number based on wheatear spikelet image segmentation[J]. Journal of Nanjing Agricultural University, 2018, 41(4): 742-751. (in Chinese with English abstract)
[10] 劉濤,孫成明,王力堅(jiān),等. 基于圖像處理技術(shù)的大田麥穗計(jì)數(shù)[J]. 農(nóng)業(yè)機(jī)械學(xué)報(bào),2014,45(2):282-290.Liu Tao, Sun Chengming, Wang Lijian, et al. In-field wheatear counting based on image processing technology[J]. Transactions of the Chinese Society for Agricultural Machinery, 2014, 45(2): 282-290. (in Chinese with English abstract)
[11] 范夢(mèng)揚(yáng),馬欽,劉峻明,等. 基于機(jī)器視覺的大田環(huán)境小麥麥穗計(jì)數(shù)方法[J]. 農(nóng)業(yè)機(jī)械學(xué)報(bào),2015,46(增刊1):234-239.Fan Mengyang, Ma Qin, Liu Junming, et al. Counting method of wheatear in field based on machine vision technology[J]. Transactions of the Chinese Society for Agricultural Machinery, 2015, 46 (Supp.1): 234-239. (in Chinese with English abstract)
[12] 王建新. 基于HSI空間的單幅圖像去霧算法研究[D]. 石家莊:河北師范大學(xué),2015. Wang Jianxin. Research Single Image Defogging Algorithm based on HSI Color Space[D]. Shijiazhuang: Hebei Normal University, 2015. (in Chinese with English abstract)
[13] 杜慧,鄧瀟瀟,李建,等. 智能的圖像濾波去噪算法[J]. 計(jì)算機(jī)工程與設(shè)計(jì),2015(8):2180-2184.Du Hui, Deng Xiaoxiao, Li Jian, et al. Smart algorithm for image filtering de-noising[J]. Computer Engineering and Design, 2015(8): 2180-2184. (in Chinese with English abstract)
[14] 余勝威,丁建明,吳婷,等. MATLAB圖像濾波去噪分析及其應(yīng)用[M]. 北京: 北京航空航天大學(xué)出版社,2015:1-22.
[15] 趙榮椿,趙忠明,張艷寧,等. 數(shù)字圖像處理[M]. 西安:西北工業(yè)大學(xué)出版社,2016:369-376.
[16] 章毓晉. 圖像處理和分析技術(shù)[M]. 北京:高等教育出版社,2015:69-74.
[17] 李豐軍,吾守爾?斯拉木,劉宏杰,等. 一種基于角度的邊界點(diǎn)檢測算法[J]. 計(jì)算機(jī)工程,2008,34(11):203-205. Li Fengjun, Wushour?Silamu, Liu Hongjie, et al. Boundary points detect algorithm based on angle[J]. Computer Engineering, 2008, 34(11): 203-205. (in Chinese with English abstract)
[18] 張徳豐. MATLAB數(shù)字圖像處理[M]. 北京:機(jī)械工業(yè)出版社,2009:285-305.
[19] 陶德威. 基于凹點(diǎn)匹配和分水嶺變換的車輛圖像分割算法研究[D]. 南昌:南昌大學(xué),2016. Tao Dewei. Research on the Vehicle Image Segmentation Algorithm based on Concave Points Matching and Watershed Transformation[D]. Nanchang: Nanchang University, 2016. (in Chinese with English abstract)
[20] 童振,蒲立新,董方杰. 基于改進(jìn)分水嶺算法和凹點(diǎn)搜索的乳腺癌粘連細(xì)胞分割[J]. 生物醫(yī)學(xué)工程學(xué)雜志,2013(4):692-696.Tong Zhen, Pu Lixin, Dong Fangjie. Automatic segmentation of clustered breast cancer cells based on modified watershed algorithm and concavity points searching[J]. Journal of Biomedical Engineering, 2013(4): 692-696. (in Chinese with English abstract)
[21] 李宏輝,郝穎明,吳清瀟,等. 基于凹點(diǎn)方向線的粘連藥品圖像分割方法[J]. 計(jì)算機(jī)應(yīng)用研究,2013,30(9):2852-2854. Li Honghui, Hao Yingming, Wu Qingxiao, et al. Based on concave point direction line adhesion drug image segmentation method[J]. Application Research of Computers, 2013, 30(9): 2852-2854. (in Chinese with English abstract)
[22] 宋懷波,張傳棟,潘景朋,等. 基于凸殼的重疊蘋果目標(biāo)分割與重建算法[J]. 農(nóng)業(yè)工程學(xué)報(bào),2013,29(3):163-168. Song Huaibo, Zhang Chuandong, Pan Jingpeng, et al. Segmentation and reconstruction of overlapped apple images based on convex hull[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2013, 29(3): 163-168. (in Chinese with English abstract)
[23] 高星. 基于標(biāo)記分水嶺和凹點(diǎn)的粘連大米圖像分割技術(shù)研究[D]. 鄭州:河南工業(yè)大學(xué),2015. Gao Xing. Study on Image Segmentation Technique of Touching Rice based on Watershed and Pits[D]. Zhengzhou: Henan University of Technology, 2015. (in Chinese with English abstract)
[24] 楊輝華,趙玲玲,潘細(xì)朋,等. 基于水平集和凹點(diǎn)區(qū)域檢測的粘連細(xì)胞分割方法[J]. 北京郵電大學(xué)學(xué)報(bào),2016,39(6):11-16. Yang Huihua, Zhao Lingling, Pan Xipeng, et al. Overlapping cell segmentation based on level set and concave area detection[J]. Journal of Beijing University of Posts and Telecommunications, 2016, 39(6): 11-16. (in Chinese with English abstract)
[25] 董珂. 基于機(jī)器視覺的礦石粒度檢測技術(shù)研究[D]. 北京:北京工業(yè)大學(xué),2013. Dong Ke. Research on Ore Granularity Detection Technology based on Machine Vision[D]. Beijing: Beijing University of Technology, 2013. (in Chinese with English abstract)
[26] 馮偉,朱艷,田永超,等. 基于高光譜遙感的小麥籽粒產(chǎn)量預(yù)測模型研究[J]. 麥類作物學(xué)報(bào),2007,27(6):1076-1084. Feng Wei, Zhu Yan, Tian Yongchao, et al. Model for predicting grain yield with canopy hyperspectal remote sensing in wheat[J]. Journal of Triticeae Crops, 2007, 27(6): 1076-1084. (in Chinese with English abstract)
[27] 曹偉,張娜. 基于Green Seeker對(duì)小麥植被指數(shù)與產(chǎn)量形成模型的研究[J]. 華北農(nóng)學(xué)報(bào),2015, 30(增刊1):383-389. Cao Wei, Zhang Na. A model research can be built by yield of wheat and green vegetation index of wheat based on the green seeker[J]. Acta Agriculturae Boreali-Sinica, 2015, 30(Supp.1): 383-389. (in Chinese with English abstract)
[28] 彭麗. 基于MODIS和氣象數(shù)據(jù)的陜西省小麥與玉米產(chǎn)量估算模型研究[D]. 杭州:浙江大學(xué),2014. Peng Li. Wheat and Maize Yield Model Estimation based on MODIS and Meteorological Data in Shaanxi Province[D]. Hangzhou: Zhejiang University, 2014. (in Chinese with English abstract)
Method for wheatear counting and yield predicting based on image of wheatear population in field
Li Yinian, Du Shiwei, Yao Min, Yi Yingwu, Yang Jianfeng, Ding Qishuo, He Ruiyin
(210031,)
At present,the wheatear number and grain number for unit area wheat in field can be measured whenpredicting yield. Generally, phenotype parameters should be obtained by manual count technique. It is time-consuming and needs great effort. In order to quickly measure the yield of unit area wheat in field, the wheatear population image was obtained by tilting the wheatear with specific device in field. The contour information on wheatear image in field was collected. Firstly, the color space of wheatear population image was converted from RGB (red green blue) to HSI (hue saturation intensity) for the sake of improving the uniformity of image color. Then the saturation component of image was extracted from the HSI color space of wheatear population image. Binary image of the saturation component of image was obtained by using image binary algorithm,morphological opening operation and removing of small regions algorithm. Then binary image was smoothed by linear mean filtering algorithm. The adherent and narrow part was removed by setting distance threshold between boundary points. Then the adhesive wheatear in image was judged out by its boundary and region characteristic parameters from the binary image. The boundary characteristic parameters included the length of entire boundary and the angle of on boundary point. The region characteristic parameters included the region area and shape factor of region and duty cycle of convex closure. Then image edge of adhesive wheatear was smoothed by using concave domain smoothing method. Then concave points on the boundary of adhesive wheatear were extracted by using included angle method and area method. The concave point pairs were found by 6 matching principles of concave points. The adhesive wheatear in image was segmented by connecting concave point which was already detected and matched on the binary image boundary. The separated wheatears and non-adhesive wheatears were superimposed on a binary image. The connected regions on the binary image were marked by image labeling algorithm. The number of wheatears in one binary image was counted. And the total number of wheatears in 0.25 m2area was obtained by summing the number of wheatears in corresponding 4 wheatear images. Meanwhile, the area pixels number of each wheatear in binary image was extracted. The grain number prediction formula of wheatear in image was obtained by the linear relationship between actual grain number and area pixels number of pre-marked wheatear. Then the grain number of each wheatear in binary image was forecasted by using grain number prediction formula. The total grain number of wheatear in one image was obtained by summing the grain numbers of each wheatear in binary image. The total grain number of wheatear in 0.25 m2area was obtained by summing the grain numbers in corresponding four wheatear images. The 1 000-grain weight of 3 varieties of wheat which included Suke wheat 1, Yang wheat 22 and Su wheat 188 was measured respectively. Finally the yield of wheat in 0.25 m2area was calculated according to the 1 000-grain weight and the total grain number of wheatear. Compared with the actual wheatear number, grain number in a wheatear image and actual yield information of wheat in 0.25 m2area, the experiment results manifest that the average identification precision of the wheatear number in a wheatear image for 3 varieties of wheat is 91.63%, and the average prediction precision of the grain number in a wheatear image for 3 varieties of wheat is 90.73%. And the average prediction precision of the total wheatear number, total grain number and yield of wheat in 0.25 m2area for 3 varieties of wheat are 93.83%, 93.43% and 93.49%, respectively. The automaticallypredicting yield information of wheat in unit area can be realized by using wheatear image features method.
crops; algorithms; image segmentation; wheat; wheatear population image; wheatear number in unit area; grain number; yield prediction
10.11975/j.issn.1002-6819.2018.21.022
TP391.4
A
1002-6819(2018)-21-0185-10
2018-06-23
2018-09-13
國家重點(diǎn)研發(fā)計(jì)劃(2016YFD0300908);江蘇省政策引導(dǎo)類計(jì)劃(產(chǎn)學(xué)研合作)前瞻性聯(lián)合研究項(xiàng)目(BY2016060-01)
李毅念,副教授,主要從事現(xiàn)代農(nóng)業(yè)裝備研究。 Email:liyinian@163.com。
李毅念,杜世偉,姚 敏,易應(yīng)武,楊建峰,丁啟朔,何瑞銀. 基于小麥群體圖像的田間麥穗計(jì)數(shù)及產(chǎn)量預(yù)測方法[J]. 農(nóng)業(yè)工程學(xué)報(bào),2018,34(21):185-194. doi:10.11975/j.issn.1002-6819.2018.21.022 http://www.tcsae.org
Li Yinian, Du Shiwei, Yao Min, Yi Yingwu, Yang Jianfeng, Ding Qishuo, He Ruiyin. Method for wheatear counting and yield predicting based on image of wheatear population in field[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2018, 34(21): 185-194. (in Chinese with English abstract) doi:10.11975/j.issn.1002-6819.2018.21.022 http://www.tcsae.org