亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        一種基于圖的彩色圖像分割算法*

        2016-10-29 07:42:00沃焱金璇
        關鍵詞:像素點相似性紋理

        沃焱 金璇

        (華南理工大學 計算機科學與工程學院, 廣東 廣州 510006)

        ?

        一種基于圖的彩色圖像分割算法*

        沃焱金璇

        (華南理工大學 計算機科學與工程學院, 廣東 廣州 510006)

        為了解決圖像分割中容易出現(xiàn)的過分割問題,提出了一種基于圖的彩色圖像分割算法.該算法在區(qū)域合并的基礎上,首先用Mean shift方法進行預處理,得到初始過分割區(qū)域后對其構(gòu)造鄰接圖,然后計算鄰接區(qū)域的顏色、紋理及邊緣特征相似性以判斷區(qū)域是否需要合并直到所有滿足條件的區(qū)域都被合并.為了保持圖像的全局屬性,文中通過查找最優(yōu)合并成本的方式進行區(qū)域合并.實驗結(jié)果表明:即使在圖像目標和背景區(qū)域顏色比較相似時,文中算法也能較好地實現(xiàn)對目標區(qū)域的完整分割;與其他4種算法相比,文中算法具有更好的分割性能.

        圖像分割;Gabor濾波器;紋理;邊緣;區(qū)域相似性

        圖像分割的目的是將整個圖像分成若干個互不相交的非空子區(qū)域,每個子區(qū)域的內(nèi)部是連通的,同一區(qū)域在亮度、顏色等特征上具有相似性,而相鄰區(qū)域之間不具有相似性.分割問題是圖像處理、計算機視覺中一個基礎性和挑戰(zhàn)性的問題,在圖像識別、目標檢測等技術(shù)中有重要的作用.該問題在20世紀70年代就受到了廣泛的關注,人們提出了多種圖像分割方法,如閾值方法[1]、聚類方法[2-3]、圖論方法[4-5]、基于區(qū)域的方法[6-7]等.而基于圖的分割方法[8-12]因能考慮到所有像素點攜帶的特征和空間信息而備受關注.在構(gòu)造的圖中,圖頂點表示圖像的像素點或區(qū)域,頂點之間用邊連接,邊的權(quán)值可以表示像素點或區(qū)域之間的不相似性.最早提出基于圖的分割方法是Zahn[8]的基于最小生成樹方法.該方法的分割標準是消除最小生成樹中權(quán)值較大的邊,權(quán)值為像素點之間的亮度差異,由于突變區(qū)域亮度大于穩(wěn)定區(qū)域亮度,采用固定閾值和局部測量方式進行分割可能使突變區(qū)域被分成多個區(qū)域,或亮度較低區(qū)域被合并.為解決這個問題,Urquhart[9]提出了用最小權(quán)值對邊進行歸一化的分割方法,此方法容易導致錯誤分割,并且難以保持圖像的全局屬性.Felzenswalb等[10]提出了通過計算區(qū)域內(nèi)部和區(qū)域之間的顏色差異來預測邊界是否存在,從而進行區(qū)域合并.在這些以像素點為頂點的的圖方法中,圖像越大,頂點越多,且每個頂點需與周圍的多個頂點建立鄰接關系,使得圖像處理復雜度較高.為解決這個問題,Rezvanifar等[11]先用Mean shift方法進行預處理,然后結(jié)合Ncut和AverageCut進行圖像分割.Bo等[12]先用分水嶺分割,再結(jié)合連續(xù)概率比測試和最大可能性標準進行合并預測,并動態(tài)合并滿足條件的區(qū)域.這些方法中,圖的頂點表示一個小的區(qū)域,每個頂點只需與周圍少部分頂點建立連接,提高了圖像處理速度.但這些方法僅根據(jù)顏色進行分割,當圖像目標和背景區(qū)域顏色相似時,難以得到好的分割結(jié)果.

        針對這些問題,文中結(jié)合圖像的顏色、紋理和邊緣特征,提出了一種基于圖的彩色圖像分割算法.為提高圖像的分割速度,文中先使用Mean shift[13]進行預處理得到初始過分割區(qū)域,并利用這些區(qū)域構(gòu)造相應的鄰接圖.為保持圖像的分割完整性,文中提取了圖像的邊緣輪廓,并計算鄰接區(qū)域的邊緣相似性.為減少圖像目標和背景顏色相似時的過分割現(xiàn)象,文中利用Gabor濾波提取圖像的紋理特征,并通過統(tǒng)計鄰接區(qū)域的紋理分布來計算其紋理相似性.為了保持圖像的全局屬性,文中根據(jù)查找最優(yōu)合并成本的方式進行區(qū)域合并.

        1 區(qū)域相似性度量

        文中利用區(qū)域合并來分割圖像.由于區(qū)域比像素點攜帶更多的信息,并且基于區(qū)域的處理方法能提高圖像分割效率,因此文中先用Mean shift預處理得到初始過分割區(qū)域集合R={R1,R2,…,RN},然后通過度量區(qū)域相似性將相似的區(qū)域進行合并.文中從顏色、紋理和邊緣3個特征來度量區(qū)域相似性.

        1.1顏色相似性

        為度量區(qū)域顏色相似性,先將圖像分成R、G、B三個通道,鄰接區(qū)域Ri與Rj(Ri,Rj?R)的顏色差異Diff(Ri,Rj)可表示為

        (1)

        式中,pi′∈Ri,pj′∈Rj,cζ(pi′)、cζ(pj′)分別為像素點pi′、pj′在第ζ通道的顏色值,NRi、NRj分別為區(qū)域Ri、Rj的像素點個數(shù).Diff(Ri,Rj)越大,Ri、Rj顏色相似的概率越?。环粗?,其顏色相似的概率越大.則鄰接區(qū)域Ri、Rj顏色相似性條件可表示為

        (2)

        ε1為閾值.通過比較ε1與區(qū)域顏色差異大小來判斷顏色相似性,因此ε1的取值應與圖像顏色差異及分布相關.當區(qū)域顏色差異較大時,圖像顏色分布比較分散,為避免過分割現(xiàn)象,ε1需相應地增大;當區(qū)域差異較小時,為避免欠分割現(xiàn)象,ε1需相應地減小.由于顏色的標準差能反映顏色的分布情況,因此文中利用圖像顏色的標準差來計算ε1:

        ε1=2[(stdR+stdG+stdB)/3]×max(Diff)

        (3)

        式中,max(Diff)為鄰接區(qū)域?qū)Φ淖畲箢伾町?,stdR、stdG、stdB分別為圖像在R、G、B通道歸一化后的標準差.stdR、stdG、stdB越小,說明圖像顏色分布越集中,顏色差異越小,對應的ε1值也越小;反之,stdR、stdG、stdB越大時,說明顏色分布越分散,對應的顏色差異越大,ε1值也越大.

        1.2邊緣相似性

        為了較好地保證分割圖像的完整性,合并前需考慮區(qū)域間是否有較強的邊緣輪廓.Arbelaez等[14]利用局部多尺度信息和全局邊緣信息提出了一種有效的提取邊緣輪廓的方法.局部多尺度邊緣信息和全局邊緣信息的結(jié)合,既能提取出圖像的邊緣輪廓,又能凸顯出顯著的邊緣,有效地對圖像進行描述.基于這些優(yōu)點,文中使用該方法來提取圖像的邊緣輪廓.

        1.2.1邊緣輪廓提取

        對于局部邊緣提取,該方法通過計算在LAB顏色空間中的L、a、b通道以及紋理通道的方向梯度信號G(x,y,θ)來預測像素點在θ方向存在邊緣的概率.對于L、a、b通道的方向梯度,該方法先在像素點p′(x,y)處放置一圓盤,并在θ方向?qū)A盤劃分成兩半,然后求出兩個半圓盤的亮度或者顏色直方圖分布.兩個半圓盤直方圖h、h′的χ2距離就是像素點p′的方向梯度:

        (4)

        (5)

        式中:mPb(x,y,θ)為像素點在(x,y)處θ方向的局部多尺度邊緣概率;s為尺度;Gch,σ(ch,s)(x, y, θ)是顏色通道ch上以(x、y)為圓心、σ(ch,s)為圓盤半徑,從角度θ上進行切分的兩個半圓盤直方圖的差異;αch,s為權(quán)值,用來衡量不同通道尺度下的概率分布.像素點的局部多尺度邊緣能量可表示為

        (6)

        對于全局邊緣檢測,可用譜聚類將局部多尺度信息結(jié)合到全局框架.首先根據(jù)局部多尺度邊緣概率定義相似矩陣Wij,

        (7)

        (8)

        μ×sPb(x,y,θ)

        (9)

        式中,βch,s和μ為權(quán)值.對于像素點的全局邊緣能量,可以用像素點的最大gPb邊緣概率來表示:

        (10)

        1.2.2邊緣相似性判斷

        由于gPb用邊緣梯度信號描述,梯度越大,存在邊緣的可能性越大.而鄰接區(qū)域的邊緣相似性主要在于檢測鄰接區(qū)域邊界之間是否存在邊緣,因此文中根據(jù)鄰接區(qū)域間相鄰邊界點的梯度概率來度量邊緣相似性.

        在圖1所示的示例中,Ri、Rj為鄰接區(qū)域.Ri、Rj的相鄰邊界點集合P={pm|1≤m≤NP},NP為Ri、Rj之間的相鄰邊界點個數(shù).根據(jù)邊界點的梯度幅值可將Ri、Rj間的邊緣梯度概率Grad(Ri,Rj)表示為

        圖1鄰接區(qū)域分布圖

        Fig.1Distributionofadjacentregions

        邊界點集合P的邊緣概率平均值:

        式中,pm(x)、pm(y)表示第m個邊界點的x、y坐標.Grad(Ri,Rj)越大,Ri、Rj之間存在邊緣的可能性越大,兩區(qū)域邊緣特征越不相似;反之,Grad(Ri,Rj)越小,Ri、Rj之間存在邊緣的可能性越小,邊緣相似的概率越大.因此,Ri、Rj的邊緣相似性條件可表示為

        (12)

        式中,ε2為閾值.當區(qū)域邊界點的梯度概率小于ε2時,鄰接區(qū)域具有邊緣相似性;反之,則不具有邊緣相似性.

        1.3紋理相似性

        紋理是圖像處理中的常用特征.在文獻[10-12]方法中,僅用顏色特征來進行圖像分割,當背景和目標區(qū)域顏色相似時,難以得到較好的分割結(jié)果,因此在合并時需要考慮區(qū)域間的紋理相似性.

        Gabor濾波[15]是一種常用的提取紋理的方法,能有效提取不同方向和尺度的紋理信息.因此,文中用Gabor濾波器來提取紋理特征.二維Gabor濾波器表示為

        (13)

        式中,x′=xcosθ′+ysinθ′,y′=-xsinθ′+ycosθ′,?為波長,θ′為Gabor核函數(shù)方向,ψ為相位偏移,δ為高斯標準差,γ為空間縱橫比.

        (14)

        (15)

        (16)

        當Ri中所有像素點投完票,可獲得圖2(a)所示的紋理分布.直方圖在θ′方向上的能量分布可表示為

        (17)

        式中,E′(x(k),y(k),θ′)為Ri中第k個像素點在θ′方向上的權(quán)值.同理,對區(qū)域Rj紋理統(tǒng)計后,可得到圖2(b)所示的紋理分布.

        (a)Ri紋理分布(b)Rj紋理分布

        圖2圖1中Ri、Rj的區(qū)域紋理分布

        Fig.2Texture distribution of regionsRiandRjin Fig.1

        統(tǒng)計鄰接區(qū)域Ri、Rj的紋理分布后,其紋理差異可以表示為

        (18)

        tDist(Ri,Rj)越大,Ri與Rj紋理相似的概率越小,反之紋理相似的概率越大.因此,區(qū)域Ri、Rj的紋理相似條件可表示為

        (19)

        ε3為參數(shù).當兩區(qū)域之間的紋理差異小于ε3時,兩個區(qū)域在紋理上有相似性,反之不具有相似性.

        1.4區(qū)域合并條件

        合并條件是區(qū)域合并的關鍵.文中度量了圖像顏色、紋理以及邊緣特征的相似性,如果僅把顏色相似性作為合并條件,當目標和背景區(qū)域顏色相似時,容易將目標和背景區(qū)域融合.同理,如果僅把紋理或者邊緣相似性作為最終合并條件,也難以獲得較好的分割結(jié)果.若利用顏色和紋理或者顏色和邊緣相似性作為合并條件,與之前單一特征相比,合并效果應該要好,但如果將顏色、紋理和邊緣特征相結(jié)合,使得合并條件更加嚴格,既能使相似的區(qū)域被合并,又能夠有效地減少過分割現(xiàn)象.因此,文中結(jié)合顏色、紋理以及邊緣特征相似性,將構(gòu)造的區(qū)域合并條件表示為

        C′(Ri,Rj)=C1(Ri,Rj)C2(Ri,Rj)C3(Ri,Rj) (20)

        僅當C′(Ri,Rj)=1時才進行合并,此時C1(Ri,Rj)、C2(Ri,Rj)、C3(Ri,Rj)均為1,表明區(qū)域Ri、Rj在顏色、紋理和邊緣特征上都具有相似性.

        2 基于圖的區(qū)域合并

        2.1鄰接圖的構(gòu)造

        為了更好地描述圖像,文中對Mean shift[13]產(chǎn)生的過分割區(qū)域集合R構(gòu)建鄰接圖.令G′=(V,e)表示一個無向圖,V是圖的頂點集合,對圖進行初始化時V=R.(vi,vj)∈e,e是邊集合,(vi,vj)表示連接頂點vi和vj的邊,該邊的上的權(quán)值w((vi,vj))用于衡量vi、vj的不相似性.結(jié)合區(qū)域在顏色、紋理和邊緣特征上的差異,可將連接vi、vj的邊的權(quán)值w((vi,vj))表示為

        w((vi,vj))=Diff(vi,vj)+Grad(vi,vj)+

        tDist(vi,vj)

        (21)

        2.2區(qū)域合并過程

        在區(qū)域合并過程中,合并順序的優(yōu)劣能反映算法能否保持圖像全局屬性.由于區(qū)域之間的差異性,合并時會產(chǎn)生合并成本,記為costF,差異越大,costF越大.為使合并順序最優(yōu),每次合并時costF應最小.由于邊的權(quán)值能反映區(qū)域間的差異,因此區(qū)域Ri和Rj之間的costF可用權(quán)值表示,即

        costF(Ri,Rj)=w((Ri,Rj))

        (22)

        在合并過程中,選擇costF最小的邊(Ri,Rj),若Ri、Rj滿足合并條件就將Ri、Rj合并,并更新與Ri、Rj相關聯(lián)的邊.若Ri、Rj不滿足合并條件,因其他邊的costF比costF(Ri,Rj)大,表明其他區(qū)域間的顏色、紋理以及邊緣上的特征差異更大,因而不會滿足合并條件,此時區(qū)域合并可以終止.

        合并算法的步驟如下:

        1)利用式(22)計算出鄰接圖中所有邊的合并成本costF.

        2)在邊集合e中選擇合并成本costF最小的邊(Ri,Rj),利用式(20)計算C′(Ri,Rj).

        3)若C′(Ri,Rj)=1,則將Ri合并入Rj,并對鄰接圖作以下更新.

        (a)刪除Ri與Rj間的邊(Ri,Rj);

        (b)對于所有從Ri出發(fā)的邊(Ri,Rkk),刪除邊(Ri,Rkk),若在集合e中不存在邊(Rj,Rkk),則建立邊(Rj,Rkk);

        (c)對于所有從Rj出發(fā)的邊(Rj,Rll),利用式(22)重新計算costF(Rj,Rll);

        (d)返回步驟2).

        4)若C′(Ri,Rj)=0,則終止區(qū)域合并,輸出分割結(jié)果.

        2.3區(qū)域合并屬性

        文中利用查找最優(yōu)合并成本的方式進行合并,可以保持圖像的一些全局屬性,既不產(chǎn)生過分割也不產(chǎn)生欠分割.

        為證明文中算法滿足這一屬性,文中參照文獻[10]方法中精細和粗糙分割的概念定義過分割和欠分割.若分割S中包含一些滿足合并條件但沒合并的區(qū)域?qū)?,則稱S過分割;若S存在另一個分割S′,S′中鄰接區(qū)域之間有明顯的邊界,且S′的每個區(qū)域都包含在S的一些塊中,S′能通過S的一次或多次劃分得到,則稱S是欠分割的.另外,若兩區(qū)域的邊緣特征不相似,則區(qū)域之間存在邊界.

        如果S是欠分割,則S中存在另一個分割S′,S′的鄰接區(qū)域之間存在邊界.令區(qū)域C∈S,鄰接區(qū)域A,B∈S′,A?C,B?C,且A和B之間有最小costF.由文中算法可知,在A和B合并之前不會和C中其他區(qū)域合并,與C包含A、B矛盾.因此S不是欠分割.

        綜上所述,文中算法在區(qū)域合并過程中能保持圖像的全局屬性,既不產(chǎn)生過分割也不產(chǎn)生欠分割.

        3 實驗分析

        3.1分割評估數(shù)據(jù)庫

        為驗證文中算法的分割性能,文中采用分割評估數(shù)據(jù)庫(SED)[16]進行實驗.該數(shù)據(jù)庫包含100幅彩色圖像及對應的標準分割結(jié)果,每幅圖像含有單一目標區(qū)域,且背景和目標亮度、紋理等特征都有所不同.

        為評估分割質(zhì)量,文中采用式(23)計算F值[17]來評估分割結(jié)果與標準分割結(jié)果的一致性.

        (23)

        式中:r1為查全率;r2為查準率;F為兩個指標的綜合,反映了算法的分割性能,F(xiàn)越大,分割質(zhì)量越好.

        3.2實驗參數(shù)設置

        實驗參數(shù)設置如下:Gabor濾波器相位偏移ψ為0,空間縱橫比γ為1,波長?和標準差δ分別為4和3.度量邊緣、紋理相似性的閾值ε2和ε3需適當調(diào)整.ε2較小可使少數(shù)區(qū)域被合并而形成欠分割,ε2較大可能導致過分割.為得到較好的分割效果,文中ε2取為53.對于ε3,先用標準差求得圖像在8個方向上的紋理分布,標準差越大,紋理差異越大.實驗中當標準差大于0.32時,圖像的紋理差異明顯,為使紋理相似區(qū)域能合并,ε3取0.3;反之,當標準差小于0.32時,圖像平滑紋理差異不明顯,若ε3取值與前者一致,則可能使目標和背景融合導致過分割,此時ε3取0.2.

        3.3分割結(jié)果

        3.3.1圖像分割結(jié)果

        對圖3(a)所示原圖進行圖像分割,原圖邊緣輪廓如圖3(b)所示.圖3(c)為Mean shift[13]預處理的結(jié)果.為完整地分割出目標區(qū)域,文中利用過分割區(qū)域構(gòu)造鄰接圖,并迭代合并具有相似性的區(qū)域,迭代70和150次的結(jié)果分別如圖3(d)和3(e)所示,與圖3(c)相比,區(qū)域個數(shù)明顯減少,目標區(qū)域邊緣逐漸清晰,仍有需合并的區(qū)域;迭代合并300和325次的結(jié)果如圖3(f)和3(g)所示,圖中背景相似區(qū)域被合并,目標區(qū)域基本分割完成;最終的分割結(jié)果如圖3(h)所示,其目標邊緣輪廓與圖3(b)中顯著邊緣輪廓一致,說明文中算法能較好地實現(xiàn)對目標區(qū)域的完整分割.

        圖3圖像分割結(jié)果

        Fig.3Results of image segmentation

        3.3.2紋理、邊緣對分割效果的影響

        為驗證紋理、邊緣對分割效果的影響,采用文中算法從顏色、顏色+紋理、顏色+邊緣、顏色+紋理+邊緣4種情況對圖4(a)、5(a)進行分割實驗,結(jié)果如圖4和5所示.

        圖4強紋理、弱邊緣分割結(jié)果

        Fig.4Segmentation results of strong texture and weak contour

        圖5弱紋理、強邊緣分割結(jié)果

        Fig.5Segmentation results of weak texture and strong contour

        由于圖4(a)的目標和背景顏色相似,若僅用顏色,則目標與背景融合,分割結(jié)果如圖4(c)所示;因原圖部分邊緣模糊(見圖4(b)),故未能分割出完整的邊緣(見圖4(e));引入紋理后,能較好地分割出目標區(qū)域(見圖4(d));顏色、紋理和邊緣的結(jié)合能獲得完整的邊緣,還能消除一些細小的區(qū)域(見圖4(f)).圖5(a)的目標和背景區(qū)域顏色相似且紋理差異較小,僅用顏色同樣使目標區(qū)域與背景融合(見圖5(c)),紋理的引入也不能獲得完整的邊緣輪廓(見圖5(d)).因圖5(b)的邊緣輪廓完整,故加入邊緣后圖5(e)、5(f)能完整地提取目標區(qū)域.

        顏色、顏色+紋理、顏色+邊緣、顏色+紋理+邊緣的分割評估結(jié)果分別為0.611、0.665、0.693、0.784.可知,引入紋理和邊緣能提高文中算法的分割性能,顏色、紋理和邊緣的結(jié)合,可使目標區(qū)域輪廓完整,分割效果更優(yōu).

        3.3.3分割結(jié)果評估與比較

        (a)目標與背景有相似顏色及紋理情況下的分割結(jié)果

        (b)目標與背景的顏色及紋理差異較大情況下的分割結(jié)果

        (c)目標與背景的顏色相似、紋理不同情況下的分割結(jié)果

        為評估算法的分割性能,文中利用式(23)計算F值對以上5種算法進行評估,文中算法、HIS[14]、EGS[10]、DRM[12]、Mean shift[13]的F值分別為0.784、0.781、0.602、0.460、0.440.由此可知,同其他的分割算法相比,文中算法有更好的分割性能.

        4 結(jié)論

        文中提出了一種基于圖的彩色圖像分割算法.該算法采用區(qū)域合并的方式,先用Mean shift預處理得到初始過分割區(qū)域,并利用這些區(qū)域構(gòu)造鄰接圖;然后通過度量圖像在顏色、紋理和邊緣特征的相似性來構(gòu)造區(qū)域合并條件.為了獲得較優(yōu)的合并順序,文中采用查找最優(yōu)合并成本的方式進行區(qū)域合并,以保持圖像的全局屬性.在SED數(shù)據(jù)庫上的實驗結(jié)果表明,與現(xiàn)有算法相比,文中算法具有更好的分割性能,在目標和背景區(qū)域顏色較相似的情況下,能較好地實現(xiàn)對目標區(qū)域的完整分割.

        [1]楊震倫,閔華清,羅榮華.基于改進量子粒子群優(yōu)化的多閾值圖像分割方法 [J].華南理工大學學報(自然科學版),2015,43(5):126-138.

        YANG Zhen-lun,MIN Hua-qing,LUO Rong-hua.Multi-threshold image segmentation algorithm based on improved quantum-behaved particle swarm optimization [J].Journal of South China University of Technology(Natural Science Edition),2015,43(5):126-138.

        [2]GONG Mao-guo,LIANG Yan,SHI Jiao,et al.Fuzzyc-means clustering with local information and kernel metric for image segmentation [J].IEEE Transactions on Image Processing,2013,22(2):573-584.

        [3]周曉明,李釗,劉雄英.一種基于改進FCM的自動圖像分割 [J].華南理工大學學報(自然科學版),2014,42(3):1-7.

        ZHOU Xiao-ming,LI Zhao,LIU Xiong-ying.An automatic image segmentation algorithm based on improved FCM [J].Journal of South China University of Technology(Natural Science Edition),2014,42(3):1-7.

        [4]BO Peng,ZHANG L,ZHANG D.A survey of graph theoretical approaches to image segmentation [J].Pattern Recognition,2013,46(3):1020-1038.

        [5]SHI J,MALIK J.Normalized cuts and image segmentation [J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2000,22(8):888-905.

        [6]LI Tai-yong,XIE Zhi-long,WU Jiang,et al.Interactive object extraction by merging regions withk-global maximal similarity [J].Neurocomputing,2013,120(23):610-623.

        [7]TAN Xiao,SUN Chang-ming,SIRAULT X,et al.Stereo matching using cost volume watershed and region merging [J].Signal Processing:Image Communication,2014,29(10):1232-1244.

        [8]ZAHN C T.Graph-theoretic methods for detecting and describing gestalt clusters [J].IEEE Transactions on Computers,1971,20(1):68-86.

        [9]URQUHART R.Graph theoretical clustering based on limited neighborhood sets [J].Pattern Recognition,1982,15(2):173-187.

        [10]FELZENSWALB P,HUTTENLOCHER D.Efficient graph-based image segmentation [J].International Journal of Computer Vision,2004,59(2):167-181.

        [11]REZVANIFAR A,KHOSRAVIFARD M.Including the size of regions in image segmentation by region-based graph [J].IEEE Transactions on Image Processing,2014,23(2):635-644.

        [12]BO Peng,ZHANG L,ZHANG D.Automatic image segmentation by dynamic region merging [J].IEEE Tran-sactions on Image Processing,2011,20(12):3592-3605.

        [13]COMANICIU D,MEER P.Mean shift:a robust approach toward feature space analysis [J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2002,24(5):603-619.

        [14]ARBELAEZ P,MICHAEL M,F(xiàn)OWLKES C,et al.Contour detection and hierarchical image segmentation [J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2011,33(5):898-916.

        [15]FORGEL I,SAGI D.Gabor filters as texture discriminator [J].Biological Cybernetics,1989,61(2):103-113.

        [16]ALPERT S,GALUN M,BASRI R.Image segmentation by probabilistic bottom-up aggregation and cue integration [J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2012,34(2):315-327.

        [17]HRIPCSAK G,ROTHSCHILD A S.Agreement,the F-measure,and reliability in information retrieval [J].Journal of the American Medical Informatics Association,2005,12(3):296-298.

        s: Supported by the National Natural Science Foundation of China(61472145),the Natural Science Foundation of Guangdong Province(2016A030313472) and the Special funds for University-Industry Cooperation of Guangdong Province and the Ministry of Education of China(2013B090500015)

        A Graph-Based Color Image Segmentation Algorithm

        WOYanJINXuan

        (School of Computer Science and Engineering, South China University of Technology, Guangzhou 510006, Guangdong, China)

        In order to solve the over-segmentation problem in the image segmentation, a graph-based color image segmentation algorithm is proposed. In the algorithm, on the basis of the region-merging method, the over-segmentation regions are obtained by using Mean shift to preprocess an image, and for the over-segmentation regions, a region adjacency graph is constructed. Then, the color, texture and edge contour similarities between adjacency regions are measured to judge if adjacency regions need to be merged, until all the satisfactory regions are merged. Besides, the regions are merged by searching the optimal merging-cost, so as to preserve some global prosperity of the image. Experimental results indicate that the proposed algorithm can completely segment object regions even when the color features between background regions and object regions of an image are similar, and it has a better segmentation performance in comparison with four state-of-the-art segmentation algorithms.

        image segmentation; Gabor filters; textures; edge; regional similarity

        1000-565X(2016)09-0001-08

        2015-11-15 20

        國家自然科學基金資助項目(61472145);廣東省自然科學基金資助項目(2016A030313472);華南理工大學中央高?;究蒲袠I(yè)務費專項資金資助項目(2015ZZ031);廣東省-教育部產(chǎn)學研合作專項(2013B090500015)

        沃焱(1975-),女,博士,教授,主要從事多媒體應用技術(shù)研究.E-mail:woyan@scut.edu.cn

        TP 391.41

        10.3969/j.issn.1000-565X.2016.09.001

        猜你喜歡
        像素點相似性紋理
        一類上三角算子矩陣的相似性與酉相似性
        淺析當代中西方繪畫的相似性
        河北畫報(2020年8期)2020-10-27 02:54:20
        基于BM3D的復雜紋理區(qū)域圖像去噪
        軟件(2020年3期)2020-04-20 01:45:18
        使用紋理疊加添加藝術(shù)畫特效
        基于canvas的前端數(shù)據(jù)加密
        TEXTURE ON TEXTURE質(zhì)地上的紋理
        Coco薇(2017年8期)2017-08-03 15:23:38
        基于逐像素點深度卷積網(wǎng)絡分割模型的上皮和間質(zhì)組織分割
        低滲透黏土中氯離子彌散作用離心模擬相似性
        消除凹凸紋理有妙招!
        Coco薇(2015年5期)2016-03-29 23:22:15
        基于Node-Cell結(jié)構(gòu)的HEVC幀內(nèi)編碼
        成年男人午夜视频在线看| 嫩草影院未满十八岁禁止入内| aaa毛片视频免费观看| 秀人网嫩模李梓熙大尺度| 亚洲av综合色一区二区| 先锋中文字幕在线资源| 久久精品国产亚洲av高清色欲 | 欧美野外疯狂做受xxxx高潮| 亚洲动漫成人一区二区| 成人性生交大片免费看i| 国产三级精品视频2021| 东北妇女肥胖bbwbbwbbw| 亚洲AV无码精品一区二区三区l | 国产亚洲精品在线视频| 免费无码高潮流白浆视频| 欧美z0zo人禽交欧美人禽交| 日韩精品首页在线观看| 日韩人妻中文字幕专区| 成人国产精品一区二区视频| 一国产区在线观看| 国产一级黄色性生活片| 少妇高潮太爽了在线看| 搡老熟女中国老太| 亚洲一区二区久久青草| 麻豆精品在线视频观看| 国产精品国三级国产av| 99久久婷婷国产综合亚洲91 | 亚洲综合久久精品少妇av | 中文字幕乱码亚洲无线精品一区| 九九久久精品一区二区三区av | 毛片内射久久久一区| 国产一级在线现免费观看| 亚洲国产一区二区视频| 中文字字幕人妻中文| 日韩精品成人一区二区三区| 蜜臀av国内精品久久久人妻| 亚洲国产中文字幕视频| 人人狠狠综合久久亚洲| 欧洲亚洲色一区二区色99| 亚洲精品偷拍自综合网| 午夜性无码专区|