賈麗麗, 余孝源, 梁 耀, 李豐果
(華南師范大學(xué)物理與電信工程學(xué)院,廣東省量子調(diào)控工程與材料重點(diǎn)實(shí)驗(yàn)室,廣州 510006)
自然生長(zhǎng)狀態(tài)下樹(shù)葉圖像的分割與提取
賈麗麗, 余孝源, 梁 耀, 李豐果*
(華南師范大學(xué)物理與電信工程學(xué)院,廣東省量子調(diào)控工程與材料重點(diǎn)實(shí)驗(yàn)室,廣州 510006)
以用智能手機(jī)拍攝的自然生長(zhǎng)狀態(tài)下的含有復(fù)雜背景的樹(shù)葉圖像為研究對(duì)象,對(duì)圖像的背景及其RGB的3個(gè)顏色分量的特征進(jìn)行分析,根據(jù)分析的結(jié)果提出采用超綠(EXG)算法和底帽變換算法相結(jié)合的方法對(duì)目標(biāo)樹(shù)葉進(jìn)行分割. 對(duì)于綠色分量與其他2個(gè)分量差異大的背景采用EXG算法去除,而對(duì)于綠色分量與其他2個(gè)分量差異小的背景采用形態(tài)學(xué)的底帽變換去除. 為了減小目標(biāo)樹(shù)葉分割的錯(cuò)分率,采用Otsu算法、形態(tài)學(xué)和邊緣最大矩形對(duì)上述分割后的細(xì)節(jié)進(jìn)行細(xì)化分割. 分割結(jié)果表明:文中所采用的算法可以很好地將目標(biāo)樹(shù)葉從背景中分割出來(lái),錯(cuò)分率小于3.68%.
復(fù)雜背景; 超綠算法; 形態(tài)學(xué)處理; 圖像分割
計(jì)算機(jī)圖像處理技術(shù)已廣泛應(yīng)用于植物樹(shù)葉信息提取的研究,為了避免圖像背景對(duì)葉片特征信息提取的影響,在樹(shù)葉的特征信息提取時(shí)通常將樹(shù)葉從樹(shù)上采摘下來(lái),用掃描儀、照相機(jī)等設(shè)備獲得背景單一的樹(shù)葉圖像,然后用不同算法提取樹(shù)葉的相關(guān)特征信息[1-6]. 這一方法大大減少了提取算法的復(fù)雜性,但對(duì)樹(shù)葉是破壞性的,難以滿足對(duì)植物生長(zhǎng)狀態(tài)的實(shí)時(shí)監(jiān)測(cè).
在提取與分割生長(zhǎng)狀態(tài)下的樹(shù)葉圖像時(shí),不得不面對(duì)不同復(fù)雜背景對(duì)目標(biāo)樹(shù)葉分割的影響. 如何從背景復(fù)雜的圖像中分割出目標(biāo)樹(shù)葉是樹(shù)葉特征信息提取的關(guān)鍵,也是經(jīng)典難題之一[7-13]. 王紅君等[14]在研究復(fù)雜背景下植物葉片的彩色圖像分割時(shí)提出了利用各向異性的擴(kuò)散性質(zhì)對(duì)圖像進(jìn)行預(yù)處理,利用分水嶺和自動(dòng)種子區(qū)域生長(zhǎng)算法對(duì)圖像進(jìn)行分割,但其分割結(jié)果距離人眼判別的分割效果還存在一定差距. 滿慶奎[15]在研究復(fù)雜背景下植物葉片圖像分割算法時(shí)通過(guò)在待提取輪廓的附近人為設(shè)置若干控制點(diǎn),然后通過(guò)進(jìn)一步的優(yōu)化運(yùn)算來(lái)逼近目標(biāo)的真實(shí)輪廓,然而這一分割算法無(wú)法實(shí)現(xiàn)對(duì)植物葉片圖像的自動(dòng)分割. 趙德升等[16]應(yīng)用雜草識(shí)別中常用的灰度化方法,根據(jù)灰度圖像直方圖的特點(diǎn)采用適當(dāng)?shù)拈撝颠M(jìn)行植物圖像分割. 為了解決K-均值算法對(duì)農(nóng)業(yè)圖像分割中,常用的超綠特征(2G-R-B)圖像分割效果不佳的缺點(diǎn),趙博等[17]提出了一種基于微粒群與K-均值算法相結(jié)合的分割方法. 于國(guó)英[18]提出了應(yīng)用改進(jìn)的Radon變換與感興趣區(qū)域相結(jié)合的方法,來(lái)加快提取的速度并且通過(guò)模擬實(shí)驗(yàn)和田間實(shí)驗(yàn)證明了該方法的可行性.
近年來(lái),智能手機(jī)的功能越來(lái)越強(qiáng)大,是一個(gè)非常便捷的智能應(yīng)用平臺(tái),用手機(jī)所拍攝的圖像質(zhì)量也相當(dāng)高,但從手機(jī)所拍攝的圖像的復(fù)雜背景中分割出所需的目標(biāo)樹(shù)葉仍是一個(gè)難點(diǎn). 基于這一問(wèn)題,并根據(jù)手機(jī)所獲圖像的背景特點(diǎn),本文提出利用超綠算法和底帽變換相結(jié)合的方法獲得目標(biāo)樹(shù)葉邊緣的坐標(biāo)信息,從而從復(fù)雜的背景中分割出所需的目標(biāo)樹(shù)葉. 這一研究為下一步提取目標(biāo)樹(shù)葉的特征信息奠定基礎(chǔ),也為開(kāi)發(fā)基于智能手機(jī)的樹(shù)葉識(shí)別系統(tǒng)提供算法參考.
1.1 超綠算法的分割原理
在RGB三維彩色空間中圖像像素點(diǎn)的像素值分別用R、G、B等3個(gè)分量表示,綠色植物圖像的G分量值通常比其他2個(gè)分量值大,因此,可以利用彩色圖像灰度化因子(2G-B-R)(也稱“超綠”)[19-20]對(duì)圖像進(jìn)行處理與分割. 這一算法在一定程度上“放大”綠色分量的比重,增加綠色目標(biāo)樹(shù)葉與非綠色背景的對(duì)比度,便于目標(biāo)樹(shù)葉的分割. 超綠算法的這一特點(diǎn),尤其適合去除像建筑物、地面和天空等非植物性背景.
超綠算法可以表示為:
(1)
其中T為閾值. 從式(1)可以看出:灰度化因子大于或等于255的像素點(diǎn)的灰度值統(tǒng)一為255;灰度化因子大于閾值T且小于255的像素點(diǎn)的灰度值用灰度化因子表示;灰度化因子小于或等于閾值T的像素點(diǎn)的灰度值統(tǒng)一為0. 因此可通過(guò)選擇合適的閾值T分割背景區(qū)域和目標(biāo)區(qū)域.
1.2 形態(tài)學(xué)運(yùn)算
原圖像邊緣輪廓清晰是圖像分割的前提條件,然而很多圖像由于邊緣輪廓不清晰使得提取的目標(biāo)圖像邊緣信息不夠完整甚至出現(xiàn)錯(cuò)分的現(xiàn)象. 為了得到目標(biāo)圖像完整的邊緣信息,本文采用數(shù)學(xué)形態(tài)學(xué)中的底帽變換對(duì)圖像進(jìn)行預(yù)處理. 在底帽變換中用到形態(tài)學(xué)中的3種基本運(yùn)算:膨脹運(yùn)算、腐蝕運(yùn)算、由膨脹和腐蝕算法衍生出的閉運(yùn)算.
1.2.1 基本運(yùn)算
(1)膨脹運(yùn)算. 主要用于填補(bǔ)輪廓線中的斷裂部分,其對(duì)圖像進(jìn)行以下操作:
(2)
其中,b為結(jié)構(gòu)元素,f為原圖像. 式(2)表明:先對(duì)結(jié)構(gòu)元素b做自身原點(diǎn)的映射,再將其映射平移x. 若f和b映射的交集不為空集,則原點(diǎn)處對(duì)應(yīng)的值為目標(biāo)圖像的像素點(diǎn)值.
(2)腐蝕運(yùn)算. 主要用于消除在分割過(guò)程中被錯(cuò)分的細(xì)小邊緣,其對(duì)圖像進(jìn)行以下操作:
(3)
式(3)表明:若結(jié)構(gòu)元素b平移x后仍包含于f中,則原點(diǎn)處對(duì)應(yīng)的值為目標(biāo)圖像的像素點(diǎn)值.
(3)閉運(yùn)算. 主要用于提取目標(biāo)樹(shù)葉的高亮邊緣,其對(duì)圖像進(jìn)行以下操作:
(4)
閉運(yùn)算是膨脹運(yùn)算的完善,相比于膨脹運(yùn)算而言,閉運(yùn)算可以在提高圖像邊緣亮度的基礎(chǔ)上使目標(biāo)圖像的大小基本保持不變.
1.2.2 底帽變換 底帽變換是閉運(yùn)算與減法運(yùn)算的結(jié)合,其對(duì)圖像進(jìn)行以下操作:
s=(f·b)-f.
(5)
底帽變換可以用圖1進(jìn)行說(shuō)明,圖中①表示圖像中較暗的區(qū)域,②表示圖像中較亮的區(qū)域. 可以看出:通過(guò)底帽變換后去除原圖像中亮的區(qū)域,突出了暗的區(qū)域.
圖1 底帽變換示意圖
在分割過(guò)程中發(fā)現(xiàn):結(jié)構(gòu)元素b的形狀和尺寸對(duì)分割的結(jié)果影響較大,因此需要選擇合適的結(jié)構(gòu)元素. 本文采用的是各向?qū)ΨQ的圓盤形結(jié)構(gòu)元素. 隨著結(jié)構(gòu)元素半徑的增大,目標(biāo)樹(shù)葉和背景的對(duì)比度也會(huì)隨之增強(qiáng),但圖像信息的失真也會(huì)隨之嚴(yán)重. 因此需要綜合考慮,既要增強(qiáng)圖像的對(duì)比度,又要避免圖像失真過(guò)大. 文中圓盤的半徑為2.
1.3 Otsu算法
通過(guò)超綠算法和底帽變換相結(jié)合可以將目標(biāo)樹(shù)葉粗略地從圖像背景中分割出來(lái),但會(huì)出現(xiàn)錯(cuò)分的情況,因此還需采用Otsu算法減小目標(biāo)樹(shù)葉圖像的錯(cuò)分率. 其基本原理是確定一個(gè)最優(yōu)閾值,使樹(shù)葉和背景這2個(gè)像素類的類間方差最大,從而達(dá)到進(jìn)一步分割樹(shù)葉和背景的目的.
采用Otsu算法對(duì)灰度圖像處理的步驟為:
(1)計(jì)算像素點(diǎn)的概率. 像素值為i的像素點(diǎn)的概率Pi為:
Pi=Ni/N(i=1,2,…,255),
(6)
其中,Ni表示灰度值i相對(duì)應(yīng)的像素點(diǎn)的個(gè)數(shù),N為圖像像素點(diǎn)的總個(gè)數(shù).
(2)計(jì)算圖像背景和目標(biāo)物的灰度均值. 圖像中背景和目標(biāo)物的灰度均值分別用u1(T)和u0(T)表示:
(7)
從式(7)可以看出:背景類由灰度值在[0,T]之間的像素點(diǎn)組成,目標(biāo)物類由灰度值在[T+1,255]之間的像素點(diǎn)組成.
(3)計(jì)算圖像的背景類和目標(biāo)類像素的類間方差σ2(T):
(8)
從Otsu算法可以看出:Otsu算法以錯(cuò)分概率最小作為分割閾值的選取準(zhǔn)則,可以通過(guò)閾值的選取實(shí)現(xiàn)去除錯(cuò)分的背景.
2.1 原圖背景特征分析
本文采用的樣品圖像是使用小米手機(jī)(像素為800萬(wàn))獲得的自然生長(zhǎng)狀態(tài)下的樹(shù)葉(圖3A),可以看到背景中含有建筑物和其他樹(shù)葉等物體. 目標(biāo)樹(shù)葉的“綠色”與背景建筑物的“綠色”分量差異較大,而與其他的背景樹(shù)葉差異小. 若選取如圖3A虛線框所圍成的區(qū)域,對(duì)所選取的3個(gè)區(qū)域計(jì)算其灰度化因子的平均值. 平均值分別為-8、61和-1,其中-8對(duì)應(yīng)區(qū)域①,61對(duì)應(yīng)區(qū)域②,-1對(duì)應(yīng)區(qū)域③. 背景(區(qū)域①和區(qū)域③)的灰度化因子平均值均小于零,而目標(biāo)樹(shù)葉的大于零. 因此,選擇0為分割閾值即可對(duì)灰度化因子為-8的建筑物背景區(qū)域有效去除,而對(duì)于灰度化因子為-1的其他背景區(qū)域無(wú)法采用超綠算法去除,需采用形態(tài)學(xué)的底帽變化去除.
2.2 目標(biāo)樹(shù)葉分割流程圖
目標(biāo)樹(shù)葉分割的具體步驟(圖2)如下:
(1)對(duì)原彩色圖像進(jìn)行超綠處理;
(2)將原彩色圖像進(jìn)行灰度化后,采用底帽變換去除圖像的暗區(qū)域,保留高亮邊緣;
(3)使用Otsu算法分別處理步驟(1)、(2)得到的圖像,進(jìn)一步減小圖像的錯(cuò)分率;
(4)把步驟(3)處理得到的2幅圖像做異或運(yùn)算得到比較完整的目標(biāo)樹(shù)葉;
(5)對(duì)步驟(4)所得結(jié)果利用形態(tài)學(xué)方法處理進(jìn)行填洞和腐蝕,對(duì)目標(biāo)樹(shù)葉的邊緣做進(jìn)一步的優(yōu)化處理;
(6)使用連通區(qū)域提取目標(biāo)樹(shù)葉的坐標(biāo)信息;
(7)利用目標(biāo)樹(shù)葉的坐標(biāo)信息從原圖中匹配疊加即可得到完整的目標(biāo)樹(shù)葉彩色圖像.
圖2 分割流程圖
3.1 樣本一目標(biāo)圖像的分割
由于圖3A中含有建筑物和其他樹(shù)葉這2種形態(tài)和顏色不同的背景,因此需要采用不同的算法進(jìn)行去除. 對(duì)含建筑物部分的背景使用超綠算法進(jìn)行去除,去除結(jié)果如圖3B所示. 從圖3B可以看出:含建筑物部分的背景已經(jīng)很好地被分割,但是右邊含有其他樹(shù)葉的背景由于與目標(biāo)樹(shù)葉的綠色分量接近沒(méi)有被去除. 對(duì)于含有其他樹(shù)葉的背景部分,需先對(duì)原圖像進(jìn)行灰度化處理,然后再做底帽變換(圖3C). 經(jīng)過(guò)反復(fù)試驗(yàn),底帽變換選擇圓盤形結(jié)構(gòu)元素去除該類樹(shù)葉背景,這一選擇既增強(qiáng)了圖像的對(duì)比度,又避免了圖像失真過(guò)大而影響后續(xù)的結(jié)果. 從圖3C可以看出:經(jīng)過(guò)底帽變換后可以得到目標(biāo)樹(shù)葉的邊緣輪廓,但會(huì)在局部出現(xiàn)細(xì)小的錯(cuò)分現(xiàn)象(如圖中紅色虛線橢圓框所示). 為了減小錯(cuò)分現(xiàn)象以及突出樹(shù)葉的邊緣輪廓,還需對(duì)超綠運(yùn)算和底帽變換后的目標(biāo)物圖像進(jìn)行Otsu運(yùn)算,閾值T選為0. 圖3B、C經(jīng)過(guò)Otsu運(yùn)算后結(jié)果如圖3D、E所示. 從圖3D、E可以看出:目標(biāo)樹(shù)葉區(qū)域與背景區(qū)域還有所相連(圖3D),而且邊緣與背景相似,因此需要將圖3D、E做異或運(yùn)算即可得到目標(biāo)樹(shù)葉突出的邊緣輪廓(圖3F). 但從圖3F可以看出:樹(shù)葉邊緣還有一些細(xì)小的斷裂,對(duì)這些細(xì)小的斷裂還需用腐蝕和填洞運(yùn)算使目標(biāo)樹(shù)葉脫離復(fù)雜背景目標(biāo)樹(shù)葉所占的區(qū)域面積在整個(gè)圖像中最大,故可以采用連通區(qū)域提取方法得到目標(biāo)樹(shù)葉(圖3G). 通過(guò)初步分割將目標(biāo)樹(shù)葉從周圍背景中脫離出來(lái)(圖3H). 從圖3H可以看出:經(jīng)過(guò)連通區(qū)域運(yùn)算后目標(biāo)樹(shù)葉可以從背景中分割出來(lái). 但分割的目標(biāo)樹(shù)葉的下端(紅色虛框圈出)還有一部分沒(méi)有分割掉,其原因?yàn)樵摬糠值念伾c目標(biāo)樹(shù)葉的顏色極其相似,上述算法無(wú)法將其分割掉. 沒(méi)有分割掉的部分其外輪廓與目標(biāo)樹(shù)葉的輪廓相差很大接著可以采用目標(biāo)樹(shù)葉的最小凸多邊形和內(nèi)部填充算法進(jìn)一步分割(圖3I). 經(jīng)過(guò)一系列的算法運(yùn)算,目標(biāo)樹(shù)葉成功地分割出來(lái)了. 利用所分割的目標(biāo)樹(shù)葉的坐標(biāo)信息,與原圖像(圖3A)進(jìn)行匹配疊加即可得到單一背景的目標(biāo)樹(shù)葉的彩色圖像(圖3J). 這一結(jié)果為后續(xù)目標(biāo)樹(shù)葉特征參數(shù)的提取奠定了堅(jiān)實(shí)的基礎(chǔ).
圖3 樣本一目標(biāo)樹(shù)葉的分割
3.2 分割算法的有效性驗(yàn)證
為了檢驗(yàn)樣本一目標(biāo)樹(shù)葉提取算法的有效性,選擇其他8個(gè)樣本(圖4)對(duì)目標(biāo)樹(shù)葉利用與樣本一相同的算法進(jìn)行分割,從圖5可以看到8個(gè)樣本的目標(biāo)樹(shù)葉得到很好地分割. 由此可以看出:根據(jù)手機(jī)拍攝圖像背景復(fù)雜的特點(diǎn),本文采用的目標(biāo)樹(shù)葉分割算法可以有效地將目標(biāo)樹(shù)葉從建筑物、泥土、水泥路面以及其他不同形態(tài)的背景樹(shù)葉中分割出來(lái).
錯(cuò)分率(Misclassification Error,ME)[21]用來(lái)評(píng)價(jià)目標(biāo)樹(shù)葉分割的準(zhǔn)確率. 其定義為:
圖4 各樣本原圖
(9)
其中,V表示使用算法分割的目標(biāo)樹(shù)葉的像素?cái)?shù),Vp表示人工方式分割的目標(biāo)樹(shù)葉的像素?cái)?shù), |V∩Vp|表示使用算法分割的目標(biāo)樹(shù)葉和人工方式分割的目標(biāo)樹(shù)葉相同位置像素值相等的個(gè)數(shù).M*N表示圖像的大小,即像素總數(shù). |V∩Vp|/(M*N)代表目標(biāo)樹(shù)葉分割的準(zhǔn)確率. 計(jì)算錯(cuò)分率時(shí),只需要統(tǒng)計(jì)2個(gè)圖像相同位置像素值不等的個(gè)數(shù)與像素總數(shù)的比值. ME的值越小,表明錯(cuò)分率越小,分割效果越好.
為了分析本算法的錯(cuò)分率,首先需要確定評(píng)價(jià)標(biāo)準(zhǔn). 本文采用Photoshop軟件對(duì)原圖進(jìn)行分割,用得到的目標(biāo)樹(shù)葉作為評(píng)價(jià)標(biāo)準(zhǔn). 將各樣本的Photoshop分割圖和本文算法分割圖進(jìn)行二值化處理. 利用式(9)對(duì)本文分割的9個(gè)樣本進(jìn)行計(jì)算,得到各樣本的錯(cuò)分率. 從計(jì)算結(jié)果(表1)可以看出用本文算法分割得到的目標(biāo)樹(shù)葉的錯(cuò)分率均小于3.68%.
本文僅給出樣本一和樣本A采用Photoshop軟件分割得到的目標(biāo)樹(shù)葉和本文算法分割得到的目標(biāo)樹(shù)葉的對(duì)比圖(圖6). 從圖中可以看出本文的分割算法可以達(dá)到很好的分割效果.
圖5 各樣本目標(biāo)樹(shù)葉的分割
圖6 Photoshop效果圖和本文算法分割結(jié)果圖
Figure 6 The segmentation results of Photoshop and the proposed algorithm
表1 樣本錯(cuò)分率Table 1 Error rates of samples %
本文針對(duì)用手機(jī)獲得的自然狀態(tài)下的含有復(fù)雜背景的樹(shù)葉圖像,提出了超綠算法和底帽變換相結(jié)合的分割方法,并結(jié)合其他算法得到了輪廓清晰的目標(biāo)樹(shù)葉,目標(biāo)樹(shù)葉的分割錯(cuò)分率小于3.68%. 分割所采用的算法無(wú)需人工參與,可實(shí)現(xiàn)自動(dòng)化分割. 這些算法和分割研究為下一步樹(shù)葉特征參數(shù)的提取奠定基礎(chǔ),并為進(jìn)一步開(kāi)發(fā)使用智能手機(jī)的樹(shù)葉識(shí)別系統(tǒng)提供算法參考. 誠(chéng)然,由于目標(biāo)樹(shù)葉拍攝時(shí)不同的拍攝角度所對(duì)應(yīng)的背景具有較大的隨機(jī)性,這大大限定了分割算法的兼容性和適用性. 眾所周知,一種算法從基礎(chǔ)研究到應(yīng)用于產(chǎn)品需要經(jīng)過(guò)3個(gè)階段:基礎(chǔ)研究、優(yōu)化和移植. 本文僅處于基礎(chǔ)研究階段,還需對(duì)目標(biāo)樹(shù)葉分割算法的適用性及其各種參數(shù)的影響進(jìn)行深入研究,同時(shí)還需對(duì)算法進(jìn)行優(yōu)化,提高運(yùn)行速度,以期盡可能地滿足智能手機(jī)運(yùn)行的要求,實(shí)現(xiàn)基于智能手機(jī)平臺(tái)的樹(shù)葉識(shí)別軟件.
[1] CLARK J,BARMAN S,REMAGNINO P,et al. Venation pattern analysis of leaf images[M]∥BEBIS G,BOYLE R,PARVIN B,et al. Advances in Visual Computing. Berlin:Springer,2006:427-436.
[2] MARCHANT J A,BRIVOT R. Real-time tracking of plant rows using a hough transform[J]. Real-Time Imaging,1995,1(5):363-371
[3] 李燦燦,孫長(zhǎng)輝,王靜,等. 基于改進(jìn)的Sobel算子和色調(diào)信息的葉脈提取方法[J]. 農(nóng)業(yè)工程學(xué)報(bào),2011,27(7): 196-199.
LI C C,SUN C H,WANG J,et al. Extraction of leaf vein based on improved Sobel algorithm and hue information[J]. Transactions of the Chinese Society of Agricultural Engineering,2011,27(7):196-199.
[4] BIRNBOIM H C,DOLY J. A rapid alkaline extraction procedure for screening recombinant plasmid DNA[J]. Nucleic Acids Research,1979,7(6):1513-1523
[5] 李冠林,馬占鴻,黃沖,等. 基于K-mean聚類算法的葡萄病害彩色圖像分割方法[J]. 農(nóng)業(yè)工程學(xué)報(bào),2010,26(S2):32-37.
LI G L,MA Z H,HUANG C,et al. Segmentation of color images of grape disease using K-means clustering algorithm[J]. Transactions of the Chinese Society of Agricultural Engineering,2010,26(S2):32-37.
[6] SEZGIN M,SANKURB. Survey over image there holding techniques and quantitative performance[J]. Journal of Electronic Imaging,2004,13(1):146-165.
[7] BERGASA L,DUFFY N,LACEY G,et al. Industrial inspection using Gaussian functions in a colorspace[J]. Image and Vision Computing,2000,18(12):951-957.
[8] 王小銘. 計(jì)算機(jī)圖像圖形學(xué)應(yīng)用研究的現(xiàn)狀與發(fā)展策略芻議[J]. 華南師范大學(xué)學(xué)報(bào)(自然科學(xué)版),1998(4):108-111.
WANG X M. The current status and development strategy of applied research of computer image and graphics[J]. Journal of South China Normal University (Natural Science Edition), 1998(4):108-111.
[9] 張武,黃帥,汪京京,等. 復(fù)雜背景下小麥葉部病害圖像分割方法研究[J].計(jì)算機(jī)工程與科學(xué),2015,37(7):1349-1354.
ZHANG W,HUANG S,WANG J J,et al. Wheat leaf diseases under complicated background image segmentation method research[J]. Computer Engineering and Science,2015,37(7):1349-1354.
[10] 王靜,李燦燦,王情偉,等. 樹(shù)葉長(zhǎng)寬比及邊緣曲率的提取[J]. 華南師范大學(xué)學(xué)報(bào)(自然科學(xué)版),2013,45(1):38-41.
WANG J,LI C C,WANG Q W,et al. The extraction of leaves’ aspect ratio and boundary curvature[J]. Journal of South China Normal University(Natural Science Edition),2013,45(1):38-41.
[11] OTSU N. A threshold selection method form gray-level histogram[J]. IEEE Transactions on Systems Man & Cybernetics,1979(9):652-655.
[12] 蘇禮楷,王小銘. 基于輪廓特征點(diǎn)檢測(cè)的植物葉片幾何建模[J]. 華南師范大學(xué)學(xué)報(bào)(自然科學(xué)版),2009,39(4):39-42
SU L K,WANG X M. Geometry modeling for plant leaf contour based on feature point detection[J]. Journal of South China Normal University (Natural Science Edition),2009,39(4):39-42.
[13] 龍慶華,陳天鈞,葉穗紅,等. 植物組培環(huán)境計(jì)算機(jī)自動(dòng)監(jiān)控網(wǎng)絡(luò)系統(tǒng)[J]. 華南師范大學(xué)學(xué)報(bào)(自然科學(xué)版),1998(3):70-75.
LONG Q H,CHEN T J,YE S H,et al. Computer automa-tic supervisory network system for plant growth surroun-dings[J]. Journal of South China Normal University (Natural Science Edition),1998(3):70-75.
[14] 王紅君,陳偉,趙輝,等. 復(fù)雜背景下植物葉片的彩色圖像分割[J]. 中國(guó)農(nóng)機(jī)化學(xué)報(bào),2013,34(2):207-211.
WANG H J,CHEN W,ZHAO H,et al. Color image segmentation of plant leaves under complex background[J].Chinese Agricultural Chemical,2013,34(2):207-211.
[15] 滿慶奎. 復(fù)雜背景下植物葉片圖像分割算法及其應(yīng)用研究[D]. 曲阜:曲阜師范大學(xué),2009:19-23.
MAN Q K. Research on image segmentation algorithm and its application in plant leaves under complex background[D]. Qufu:Qufu Normal University,2009:19-23.
[16] 趙德升,毛罕平,陳樹(shù)人,等. 雜草識(shí)別中背景分割方法的比較研究[J]. 農(nóng)機(jī)化研究,2009(11):76-79.
ZHAO D S,MAO H P,CHEN S R,et al. A comparative study of the background segmentation method in wood identification[J].Journal of Agricultural Mechanization Research,2009(11):76-79.
[17] 趙博,宋正河,毛文華,等. 基于PSO與K-均值算法的農(nóng)業(yè)超綠圖像分割方法[J]. 農(nóng)業(yè)機(jī)械學(xué)報(bào),2009(8): 166-169.
ZHAO B,SONG Z H,MAO W H,et al. Super green agriculture-based segmentation method PCA and K-means algorithm[J]. Transactions of the Chinese Society of Agricultural Machinery,2009(8):166-169.
[18]于國(guó)英. 農(nóng)業(yè)AGV視覺(jué)導(dǎo)航參數(shù)提取與軌跡控制的研究[D]. 鎮(zhèn)江:江蘇大學(xué),2006:16-17.
YU G Y. Agriculture AGV vision navigation parameter extraction research and trajectory control[D]. Zhenjiang:Jiangsu University,2006:16-17.
[19] 胡波. 雜草識(shí)別中圖像特征的優(yōu)化及識(shí)別算法的研究[D]. 鎮(zhèn)江:江蘇大學(xué),2007:23-25.
HU B. Research on weed identification image optimization features and recognition algorithm[D]. Zhenjiang:Jiangsu University,2007:23-25.
[20] SEZGIN M,SANKUR B. Survey over image thresholding techniques and quantitative performance evaluation[J]. Journal of Electronic Imaging,2004,13(1):146-165.
[21] PATIL R V,JONDHALEK C. Edge based technique to estimate number of clusters in k-means color image segmentation[C]∥Proceeding of the 3rd IEEE International Conference on Computer Science & Information Technology. Piscataway,NJ:IEEE,2010:117-121.
【中文責(zé)編:莊曉瓊 英文審校:肖菁】
Leaves’ Image Segmentation and Extraction under Natural Growing Condition
JIA Lili,YU Xiaoyuan, LIANG Yao, LI Fengguo*
(School of Physics and Telecommunication Engineering, Guangdong Provincial Key Laboratory of Quantum Engineering and Quantum Materials, South China Normal University, Guangzhou 510006, China)
The leaves obtained by mobile phones in complex backgrounds are taken as the research objects. Accor-ding to the results of RGB components feature analysis, the target leaves can be segmented by the extra-green cha-racter (EXG) and the bottom-hat transformation. For removing the background of the green component and the others with large difference, the bottom-hat transformation can be used. While for the other two components with small difference, the extra-green character can be used. Moreover, in order to reduce the error rate of the segmentation, the Otsu algorithm can be used to modify its details. The result shows that all above of the algorithms can segment the leaves well from the complex backgrounds and all error rates are less than 3.68%.
complex background; extra-green character; morphology dispose; image segmentation
2015-12-30 《華南師范大學(xué)學(xué)報(bào)(自然科學(xué)版)》網(wǎng)址:http://journal.scnu.edu.cn/n
廣東省教育部產(chǎn)學(xué)研結(jié)合項(xiàng)目(2011B090400199)
TP391.41
A
1000-5463(2017)01-0116-06
*通訊作者:李豐果,教授,Email:ganguli@126.com.