亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于局部模糊聚類的植物葉脈提取

        2018-09-26 12:02:56楊澤靜鄭伯川
        關鍵詞:葉脈灰度邊緣

        楊澤靜,張 征,鄭伯川

        (西華師范大學 數(shù)學與信息學院,四川 南充 637009)

        0 引 言

        地球上形形色色的植物構成了我們的綠色家園。傳統(tǒng)的植物分類方法是綜合植物的莖、葉、花、果實、種子等信息對植物進行分類識別。葉片作為植物的重要部分,相對于花、果實、種子等來講,具有存在周期長,方便采集等優(yōu)點,常被單獨作為區(qū)分植物的重要特征。而葉脈是區(qū)分葉片的重要特征,不同植物的葉脈排列往往也不相同,因此提取葉脈對植物葉片識別具有非常重要的意義。

        隨著計算機圖像處理技術的發(fā)展,許多研究者都嘗試利用計算機圖像處理算法自動從葉片圖像中提取葉脈。傅弘等[1]提出基于人工神經(jīng)網(wǎng)絡的葉脈信息提取算法;Zheng和Wang[2]提出了結合數(shù)學形態(tài)學的植物葉脈提取算法;李永亮等[3]等提出模糊邏輯與復合順序形態(tài)學相結合的葉脈檢測方法;馬全軍等[4]提出基于方向能量的植物葉脈提取算法;張立紅等[5]提出基于Hough變換的植物葉脈檢測算法;李燦燦等[6]還提出的基于k-means聚類的植物葉脈提取算法;宣旭峰等[7]提出基于HSV彩色空間與直方圖信息的植物葉脈FFCM算法。這些方法分別從不同的角度探究了葉脈的提取。

        田甜等[8]提出基于全變分去噪和八方向sobel算子的葉脈提取方法,將傳統(tǒng)sobel算子的方向模板增加到八個,利用這八個方向的邊緣檢測算子模板得到葉脈多方向的邊緣。該方法簡單,快速,對葉脈邊緣定位準確,但提取的始終是葉脈邊緣而非葉脈本身。李燦燦等[9]提出基于改進的sobel算子和色調(diào)信息的葉脈提取算法,該方法利用sobel算子檢測邊緣作為葉脈,但是由于主葉脈較粗,只能提取到葉脈的邊緣,不能提取葉脈中間部分。為了避免主葉脈出現(xiàn)空洞,該方法再利用色調(diào)信息提取主葉脈,然后將兩者結果融合在一起作為葉脈。雖然主葉脈是真正的葉脈區(qū)域,但是次葉脈還是只是葉脈的邊緣。傳統(tǒng)的聚類方法能夠提取葉脈區(qū)域,但得到葉脈區(qū)域?qū)庹仗貏e敏感,往往包含許多葉肉區(qū)域。因此,本文提出基于局部聚類的植物葉脈提取算法,該算法結合了邊緣檢測和局部聚類的優(yōu)點,利用邊緣檢測得到局部區(qū)域,然后對局部區(qū)域進行聚類,得到的最終葉脈區(qū)域不僅區(qū)域定位準確,而且避免了光照的影響。

        1 基于局部模糊聚類的葉脈提取

        1.1 葉脈提取流程

        本文的葉脈提取流程如圖1所示,具體每個框圖的實現(xiàn)細節(jié)在后面逐一介紹。

        1.2 葉片區(qū)域提取

        包含葉片的圖像中往往包含非葉片區(qū)域的背景,要準確提取葉脈,首先需要將葉片與背景區(qū)分開,提取出葉片區(qū)域。具體算法步驟如下:

        步驟1:將葉片彩色圖像CI(見圖2a)轉換為灰度圖像GI(見圖2b),利用公式(1)進行轉換。

        GIx,y=0.299Rx,y+0.587Gx,y+0.114Bx,y

        (1)

        其中,Rx,y、Gx,y、Bx,y分別是RGB彩色空間中像素x,y的3個顏色分量。

        步驟2:利用最大類間方差法[10]得到閾值h,利用公式(2)將葉片區(qū)域與背景分隔,得到葉片區(qū)域的模板圖Mask(見圖2c)。

        (2)

        步驟3:根據(jù)Mask求出葉片區(qū)域的左上角坐標lx,ly和右下角坐標rx,ry。

        步驟5:根據(jù)坐標lx,ly和rx,ry裁剪彩色圖像CI和灰度圖像GI,得到只包含葉片區(qū)域的彩色圖像cI和灰度圖像gI,以及模板圖mask;

        步驟5:對彩色圖像cI和灰度圖像gI,以及模板圖mask四周添加5個像素寬度的背景,設最后得到的圖像大小為m×n。最后得到的彩色圖像cI和灰度圖像gI,以及模板圖mask分別見圖2d—圖2f

        1.3 基于Canny邊緣檢測提取包含葉脈的初始葉脈區(qū)域

        通常,葉片中葉脈部分的顏色比葉肉部分的顏色亮度更高,而邊緣處的顏色亮度介于它們之間。因此本文利用邊緣處的顏色作為閾值對葉片區(qū)域進行二值分割。另外由于全局閾值不能將全局不明顯的葉脈分割出來,因此本文采用局部閾值進行分割。Canny邊緣檢測算法[11]具有檢測的邊緣定位準確,且是單一的邊緣響應的優(yōu)點,因此本文利用Canny邊緣檢測算法檢測葉脈與葉肉顏色發(fā)生改變的邊緣,以及背景與葉片區(qū)域發(fā)生顏色改變的邊緣,然后根據(jù)邊緣得到包含葉脈的區(qū)域。具體步驟如下:

        步驟1:利用Canny邊緣檢測算法檢測灰度圖gI的葉脈邊緣,得到葉脈邊緣二值圖edge1(見圖3a);

        步驟2:利用Canny邊緣檢測算法檢測葉片區(qū)域模板圖mask,得到葉片輪廓二值圖outline(見圖3b);

        步驟3:葉脈邊緣二值圖中包含輪廓信息,因此需要從葉脈邊緣圖edge1中去掉輪廓圖outline的輪廓,得到新的葉脈邊緣圖edge2。去掉輪廓的步驟如下:

        1)對輪廓圖outline中的每個輪廓像素點x,y;

        2)找到葉脈邊緣圖edge1的對應點x,y,將以該點為中心的7×7鄰域內(nèi)的點全部設為零,得到去掉葉片輪廓的葉脈邊緣圖edge2(見圖3c)。

        步驟4:基于局部閾值對gI的葉片區(qū)域進行分割,得到包含葉脈的區(qū)域,具體步驟如下:

        1)計算灰度圖像gI中全部葉脈邊緣像素點的平均灰度值gth作為全局分割閾值。

        (3)

        2)計算葉片區(qū)域每個像素的局部分割閾值。針對葉片區(qū)域的每個像素點x,y,按公式(4)計算其局部分割閾值。

        (4)

        非葉片區(qū)域的每個像素點的局部閾值取任意正值。

        3)根據(jù)局部分割閾值矩陣lTH對灰度圖像gI進行二值分割,得到包含葉脈的區(qū)域圖vein1(見圖3d)。

        (5)

        步驟5:由于可能受光照不均的影響,在初始分割圖vein1中,亮度較高的葉肉會被分割成葉脈區(qū)域(見圖3d)。葉脈區(qū)域與葉脈邊緣相鄰,因此可以利用葉脈與葉脈邊緣相鄰的特點,將大部分誤分為葉脈的葉肉區(qū)域去除掉。對于每個像素點x,y,逐一按公式(6)計算,得到包含葉脈的區(qū)域vein2(見圖3e)。

        (6)

        1.4 對初始葉脈區(qū)域進行模糊聚類提取最終葉脈區(qū)域

        模糊聚類具有很好的無監(jiān)督的學習能力,廣泛用于解決分類問題。如果對整個葉片區(qū)域進行聚類,容易受光照不均等噪音影響,對葉脈和葉肉的分類效果不好。因此本文在前面對包含葉脈的局部區(qū)域提取的基礎上,利用模糊聚類方法對vein2對應的彩色圖像進行分類,得到最終的葉脈區(qū)域。

        1.4.1 模糊聚類[12]

        模糊聚類通過優(yōu)化目標函數(shù),得到每個樣本到全部聚類中心的隸屬度,選擇隸屬度最大的類,實現(xiàn)自動對樣本數(shù)據(jù)進行分類。

        給定一個數(shù)據(jù)集X,把這些數(shù)據(jù)分成c類,分別對應的聚類中心為C1,C2…Cc,Uij表示數(shù)據(jù)樣本j屬于類i的隸屬度。定義模糊聚類的目標函數(shù)和約束條件,分別如公式(7)和公式(8)所示。

        (7)

        (8)

        其中,n是樣本個數(shù),m為隸屬度因子,用來刻畫屬于樣本的輕緩程度。

        模糊聚類開始之前首先初始化Ci,i=1,2,…,c,由公式(9)可以得到隸屬度矩陣的初值,然后根據(jù)公式(9)和公式(10)交替迭代計算,直到收斂。最后計算每個樣本的最大隸屬度,得到該樣本的所屬類別。

        (9)

        (10)

        1.4.2 局部模糊聚類

        對提取出來的包含葉脈的區(qū)域進行模糊聚類,具體步驟如下:

        步驟1:獲得包含葉脈的區(qū)域中所有像素的坐標idex矩陣,使得

        vien2(idex(i,1),idex(i,2))=1

        (11)

        idex是一個p×2的矩陣,p是vien2中所有值為1的點數(shù)。

        步驟2:根據(jù)公式(12)提取彩色圖像中的點,得到聚類樣本數(shù)據(jù)。

        (12)

        data是一個p×3的矩陣。

        步驟3:對data進行模糊聚類,將其聚為c1和c2兩類。

        步驟4:選擇c1和c2兩類中平均灰度值最大的類為葉脈類,另外一類則是葉肉類。設葉脈類中的點在data中的行索引為vidx。

        步驟5: 利用公式(13)計算獲得葉脈的彩色圖cvein。

        (13)

        2 實驗結果與分析

        本文實驗對比了文獻[8]、文獻[9]、全局模糊聚類算法以及本文算法的葉脈提取效果(見圖4)。由圖4b可以看出,文獻[8]提取的葉脈主要是葉脈邊緣,在較粗的葉脈處,葉脈中間出現(xiàn)明顯的空隙,沒有提取出真正的葉脈區(qū)域;圖4c中,文獻[9]雖然利用了色調(diào)信息提取了主葉脈區(qū)域,但是次葉脈仍然是葉脈邊緣,并且在主葉脈部分的許多地方出現(xiàn)孔洞現(xiàn)象;圖4d中,由于是基于全局模糊聚類,提取的葉脈受光照不均影響嚴重,提取的葉脈包含大量的葉肉區(qū)域。圖4e是本文方法的葉脈提取結果,從結果圖可以看出,本文方法相比文獻[8]和[9],提取的是葉脈區(qū)域,不是葉脈邊緣;相比全局模糊聚類方法,主要提取的是葉脈區(qū)域,有效避免光照不均的影響。

        3 結束語

        本文提出的基于局部模糊聚類的葉脈提取方法通過Canny邊緣檢測,不僅能夠準確定位葉脈邊緣,而且還可以有效去除光照不均的影響,同時通過葉脈邊緣定位,可以準確找到包含葉脈的區(qū)域,從而可以利用模糊聚類提取葉脈。相比直接對整個葉片區(qū)域進行全局模糊聚類的方法,本文方法更能將葉脈準確提取出來,排除了光照不均的影響。相對直接利用邊緣檢測獲得葉脈的方法,本文方法提取的是真正的葉脈區(qū)域,而不是葉脈邊緣。本文假設葉脈區(qū)域的顏色亮點高于葉肉區(qū)域,在實際情況中,可能葉肉的顏色亮度高于葉脈。因此,對于葉肉的顏色亮度高于葉脈的葉片,只需要對其灰度圖進行取反計算后就可以采用本文的方法進行葉脈提取。

        猜你喜歡
        葉脈灰度邊緣
        采用改進導重法的拓撲結構灰度單元過濾技術
        最美葉脈
        基于灰度拉伸的圖像水位識別方法研究
        高技術通訊(2021年3期)2021-06-09 06:57:48
        把“照片印”在葉脈上
        葉脈書簽
        基于最大加權投影求解的彩色圖像灰度化對比度保留算法
        自動化學報(2017年5期)2017-05-14 06:20:56
        一張圖看懂邊緣計算
        我是一片葉子
        基于灰度線性建模的亞像素圖像抖動量計算
        在邊緣尋找自我
        雕塑(1999年2期)1999-06-28 05:01:42
        免费一级肉体全黄毛片| 久久精品国产字幕高潮| 国语对白做受xxxxx在线| 亚洲饱满人妻视频| 久久高潮少妇视频免费| 亚洲av高清天堂网站在线观看| 欧美变态另类刺激| 乱码午夜-极国产极内射 | 国产精品国产三级国产av主| 国产人妖视频一区二区| 久久久久夜夜夜精品国产| 国产精品亚洲综合一区在线观看| 无码专区亚洲avl| 最新国产激情视频在线观看| 午夜理论片yy6080私人影院 | 97se在线观看| 成人女同av免费观看| av在线观看免费天堂| 天码人妻一区二区三区| 天天狠天天透天干天天| 精品久久免费国产乱色也| 久久久久久自慰出白浆| 台湾佬娱乐中文22vvvv| 国产码欧美日韩高清综合一区| av网页免费在线观看| 99精品国产丝袜在线拍国语| 男人扒开女人双腿猛进女人机机里| 美女福利一区二区三区在线观看| 少妇下面好爽好紧好湿一区二区| 国产精品你懂的在线播放| 亚洲Va中文字幕久久无码一区| 人妻中文字幕在线一二区| 蜜臀亚洲av无码精品国产午夜.| 国产96在线 | 亚洲| 亚洲愉拍自拍视频一区| 日韩精品人妻中文字幕有码在线| 国产精品一区二区久久不卡| 美女爽好多水快进来视频| av在线入口一区二区| 爱性久久久久久久久| 在线看片免费人成视频电影|