亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        結(jié)合波利亞罐模型和M-H算法的遙感圖像分割

        2018-08-20 06:16:34趙泉華
        信號處理 2018年3期
        關(guān)鍵詞:實驗方法模型

        李 玉 李 杰 王 玉 趙泉華

        (遼寧工程技術(shù)大學(xué)測繪與地理科學(xué)學(xué)院遙感科學(xué)與應(yīng)用研究所,遼寧阜新 123000)

        1 引言

        圖像分割是根據(jù)圖像像素的一些特殊性質(zhì)(如光譜測度、空間結(jié)構(gòu)特征等),按照某種規(guī)則或算法將圖像分成具有一致特性區(qū)域的方法和手段[1],是遙感圖像處理中的關(guān)鍵技術(shù),也是對圖像后續(xù)分析的基礎(chǔ)。至今,圖像分割已經(jīng)有多種相關(guān)方法[2],主要包括:閾值分割[3]、區(qū)域分割[4]、聚類分割[5]和統(tǒng)計模型分割[6]。然而,隨著遙感成像技術(shù)的快速發(fā)展,遙感圖像分辨率逐漸提高,增加了其分割的困難性。目前,很多針對低、中分辨率遙感圖像的分割方法已無法滿足在實際應(yīng)用中對分割精度的要求。因此,如何對遙感圖像進行精確分割愈加受到關(guān)注。

        由于分辨率的提高,遙感圖像細(xì)節(jié)信息愈加豐富,而目前的圖像分割方法多是以單一像素作為處理單元,沒有利用像素之間存在的相關(guān)性,使用這種傳統(tǒng)的分割方法得到的結(jié)果中必會包含較多錯分像素[7]。因此,如何有效利用像素之間關(guān)系成為遙感圖像分割中的關(guān)鍵問題。對此,Hassner和Sklansky[8]將馬爾科夫隨機場(Markov Random Field, MRF)引入圖像分割中,為像素及其鄰域的相互關(guān)系提供一種描述方式,使得有效利用像素之間的關(guān)系成為可能。在基于MRF的圖像分割方法中,常用Potts模型定義鄰域勢能函數(shù)[9]。Potts模型將圖像看作像素陣列,像素類別表示模型的狀態(tài),陣列中任意像素的狀態(tài)由該像素的鄰域像素狀態(tài)決定。該模型原理簡單,普適性強,可有效將像素鄰域運用到圖像分割中。然而,Potts模型是將中心像素與其鄰域內(nèi)像素逐個進行對比,僅考慮鄰域內(nèi)單個像素對中心像素的作用,未考慮鄰域整體的作用。因此,該模型抗噪性不強[10],容易造成中心像素錯分,尤其體現(xiàn)在處理較復(fù)雜的圖像中。為此,本文在波利亞罐模型的基礎(chǔ)上,試圖定義新的鄰域勢能函數(shù),該函數(shù)將鄰域整體作為處理單元,從而達到減少像素錯分、提高抗噪性的效果,進而有效提高圖像分割精度。

        波利亞罐模型是由Polya和Eggenberger[11]為模擬傳染病在人群中的擴散提出的一種隨機實驗?zāi)P?,該模型包含許多重要的概率分布,在概率論和應(yīng)用概率中占有十分重要的地位[12]。波利亞罐模型實驗對罐中不同顏色的小球進行隨機抽取,每次取出一個小球,記錄顏色后放回,然后加入一些同樣顏色的小球,以這樣的過程模擬傳染病的擴散。此過程每進行一次,罐中小球的組成會發(fā)生變化,隨著抽取次數(shù)的增加,被取到次數(shù)最多的某顏色小球在罐中的數(shù)量會逐漸增多。Polya和Eggenberger根據(jù)這種隨著抽取次數(shù)增加,某顏色小球數(shù)量逐漸增多的現(xiàn)象,提出模型的“時間傳染”特性。在Johnson和Kotz[13]的研究中,發(fā)現(xiàn)波利亞罐模型的隨機實驗過程可以生成馬爾科夫鏈和馬爾科夫隨機場。在圖像處理領(lǐng)域,Alajaji和Burlina[14]根據(jù)該模型提出一種能夠去除噪聲的圖像重建方法;耿茵茵等[15]則提出了一種區(qū)分圖像前景和背景的判決機制,并應(yīng)用于指紋圖像處理中;Banerjee等[16]將該模型應(yīng)用到圖像分割中,根據(jù)模型的“空間傳染”特性,得到一種有效提高圖像分割精度的處理方法,但該方法在針對紋理特征比較復(fù)雜的區(qū)域上依然存在誤判問題。

        本文將波利亞罐模型應(yīng)用到遙感圖像分割中,根據(jù)該模型為圖像標(biāo)號場定義一新的鄰域勢能函數(shù),在此基礎(chǔ)上結(jié)合Bayesian定理,構(gòu)建圖像統(tǒng)計分割模型,并根據(jù)最大后驗概率(Maximum A Posteriori, MAP)準(zhǔn)則[17]和Metropolis-Hastings(M-H)算法[18-19]求解分割模型。分別對模擬圖像與真實遙感圖像進行分割實驗,驗證提出方法的可行性和有效性。

        2 算法描述

        2.1 波利亞罐模型

        罐模型是一種隨機實驗?zāi)P?,根?jù)預(yù)先設(shè)計的方案,抽取罐中不同顏色的小球,根據(jù)取到小球的顏色改變罐中各顏色小球的數(shù)量,從而改變罐中各顏色小球的組成,這樣的隨機實驗?zāi)P蜑楣弈P蚚20]。

        波利亞罐模型是一種重要的罐模型。假設(shè)罐中有B個藍色小球和W個白色小球,從中隨機抽取一只,記錄顏色后放回,并加入c個相同顏色的小球。每次抽取后,取出的某顏色小球(如藍色小球)數(shù)量增加,而另一種顏色小球(如白色小球)數(shù)量不變。上述過程重復(fù)進行,直到滿足預(yù)設(shè)的終止條件,這種隨機實驗?zāi)P头Q為波利亞罐模型。以下是該模型的一些基本性質(zhì)和推論。

        性質(zhì)1設(shè)事件Bn為第n次抽取取到藍色小球,由數(shù)學(xué)歸納法可得到Bn發(fā)生的概率P(Bn)為:

        (1)

        上式表明,每次抽取到藍色小球的概率只與B和W相關(guān),等于B/(B+W),即最初罐中藍色小球與所有小球的數(shù)量比。

        性質(zhì)2以Xn表示前n次抽取中取到藍色小球的次數(shù),P(Xn=k)表示這n次抽取中取到藍色小球次數(shù)為k的概率,則P(Xn=k)為:

        (2)

        其中,H=B+W,表示抽取前罐中藍、白兩種顏色小球的總個數(shù)。式(2)分子分母同除以c,并令α=B/c,γ=W/c,H/c=α+γ,得到該式的另一種表達方式,即:

        (3)

        其中,〈α〉k=α(α+1)…(α+(k-1)),〈γ〉n-k=γ(γ+1)…(γ+(n-k-1)),〈α+γ〉n=(α+γ)(α+γ+1)…(α+γ+(n-1))。

        推論由式(3)可得前n次抽取過程中,取到藍色小球次數(shù)的期望E(Xn)為:

        (4)

        設(shè)Yn表示n次抽取后罐中藍色小球的總個數(shù),則Yn=cXn+B,E(Yn)表示n次抽取后罐中藍色小球總個數(shù)的期望,由Yn及E(Xn)可得E(Yn):

        (5)

        可得出n次抽取后罐中藍色小球所占比例P(Yn):

        (6)

        上式表明,n次抽取后罐中藍色小球數(shù)與小球總數(shù)比等于最開始時罐中藍色小球數(shù)與小球總數(shù)之比。因此,若抽取前罐中某顏色(類別)小球數(shù)量占優(yōu),經(jīng)過若干次抽取后,該顏色(類別)小球仍然占優(yōu),體現(xiàn)了波利亞罐模型隨機實驗過程具有保持罐中小球主要類別的特點。

        將上述隨機實驗過程作用于圖像像素鄰域,可以強調(diào)鄰域像素中的主要類別,針對圖像中孤立的錯分像素,可以根據(jù)鄰域?qū)⑵淙コ?,從而更精確地分割圖像。

        2.2 圖像分割模型

        設(shè)X和Y是兩個離散隨機場,分別表示為X={Xi1Xi∈L,i∈S},Y={Yi1Yi∈D,i∈S},其中,Xi和Yi分別為X和Y中的元素,取值范圍分別為L和D。L、D和S表示三個符號集:L={1, …,L},D={1, …,D},S={1, …,S},i表示隨機場中元素的索引。在基于像素的圖像分割模型中,令離散隨機場X和Y分別表示圖像的標(biāo)號場和特征場,Xi和Yi分別為像素i對應(yīng)的隨機變量;符號集L和D分別表示圖像類別的集合和圖像光譜測度的集合,L和D分別為圖像類別總數(shù)和圖像最大光譜測度;S表示圖像域,i為圖像像素索引,S為圖像像素總數(shù)。對于給定圖像y={yi1yi∈D,i∈S},可視為特征場Y的一個實現(xiàn),yi為像素i的光譜測度。

        2.2.1罐模型建立

        將波利亞罐模型與圖像標(biāo)號場相結(jié)合,根據(jù)鄰域建立罐模型。將像素i視為罐,初始形式用u0(i)表示,像素各類別對應(yīng)小球的各顏色,u0(i)中各顏色小球數(shù)由像素i的鄰域中各類別像素的個數(shù)得到。對具有L個目標(biāo)類的圖像建立罐模型,設(shè)Gl,0(i)表示抽取前(即0次抽取后)類別標(biāo)號為l的小球數(shù)量,Gl,0(i)根據(jù)像素i的鄰域得到,此過程可由圖1表示。

        圖1 像素i鄰域標(biāo)號場及其初始罐模型u0(i)

        圖1表示可分割為3個類屬(L=3)的遙感圖像,結(jié)合鄰域像素標(biāo)號,為中心像素i建立罐模型的過程。圖中像素i鄰域中有3個標(biāo)號為1的像素,2個標(biāo)號為2的像素,3個標(biāo)號為3的像素。令罐中黑、灰、白三色分別對應(yīng)1、2和3三種標(biāo)號,設(shè)罐中初始小球總數(shù)H0(i)為8,則像素i的初始罐模型u0(i)中含3個黑色(標(biāo)號1)小球、2個灰色(標(biāo)號2)小球、3個白色(標(biāo)號3)小球,即G1,0(i)=3,G2,0(i)=2,G3,0(i)=3。將以上過程作用于圖像中的其他像素,完成罐模型的建立。

        u0(i)和H0(i)分別為初始時像素i罐模型和小球總數(shù)的表示方式,以此類推,則un-1(i)和Hn-1(i)分別表示第n-1次抽取后,進行第n次抽取前像素i的罐模型及小球總數(shù),n=1,2, …。

        2.2.2標(biāo)號場模型

        采用MRF描述圖像標(biāo)號場,并使用波利亞罐模型定義其鄰域勢能函數(shù)。假設(shè)標(biāo)號場X中各隨機變量Xi相互獨立,根據(jù)MRF與Gibbs隨機場的等價性[21],標(biāo)號場X的概率密度函數(shù)為:

        (7)

        其中,Ni表示像素i的鄰域像素集合,i′為Ni中的像素,i′∈Ni;η表示鄰域像素的空間作用強度,為預(yù)定義參數(shù);Vi′(Xi)為像素i的鄰域勢能函數(shù),可表示為:

        (8)

        上式利用波利亞罐模型進行定義,Gl,F(i)和HF(i)分別為第F次波利亞罐模型隨機實驗過程后,罐中顏色(標(biāo)號)為l的小球的個數(shù)和所有小球總個數(shù),具體過程說明如下:

        (1)抽取及成分更新

        根據(jù)圖2所示方法在un-1(i)中模擬波利亞罐模型的隨機實驗過程。

        圖2 抽取及成分更新過程示意圖

        圖2中,在un-1(i)中使用賭輪盤隨機選擇方法[22]取出一個小球,假定得到小球的顏色為黑(①),則向un-1(i)中加入c個黑色(標(biāo)號1)小球(②,此圖中c=1),得到成分更新后的罐模型un(i)。①中得到的顏色(標(biāo)號)用Jn(i)表示,則圖中Jn(i)為1。

        針對分為L類的圖像,Jn(i)取值如下:

        Jn(i)=l,l=1,…,L

        (9)

        上式也可表示第n次抽取得到的小球標(biāo)號為l。然后,向罐un-1(i)中加入c個標(biāo)號為l的小球,得到罐un(i),此過程可表示如下:

        un(i)={Gl,n(i),Gl′,n(i)1l,l′=1,…,L,

        l≠l′,n=1,2,…}

        (10)

        其中,如果Jn(i)=l,則Gl,n(i)=Gl,n-1(i)+c,Gl′,n(i)=Gl′,n-1(i)。

        重復(fù)上述過程,若達到規(guī)定的抽取次數(shù),或者罐un(i)中各顏色小球數(shù)量比與罐un-1(i)中對應(yīng)顏色小球數(shù)量比基本一致,停止抽取。假設(shè)停止時總共抽取了F次,則有:

        uF(i)={Gl,F(i)1l=1,…,L,F=1,2,…}

        (11)

        (2)鄰域勢能函數(shù)

        根據(jù)上述隨機實驗過程,結(jié)合該過程相關(guān)性質(zhì),得到利用波利亞罐模型定義的鄰域勢能函數(shù),即式(8)。將該式代入式(7),得到最終標(biāo)號場X的概率密度函數(shù):

        (12)

        2.2.3特征場模型

        若像素i的標(biāo)號Xi=l,則假設(shè)其特征變量Yi服從參數(shù)為μl和σl的高斯分布,且所有像素相互獨立。由此,得到Y(jié)的聯(lián)合條件概率密度函數(shù):

        (13)

        其中,p(Yi1Xi=l,θl)為給定標(biāo)號Xi=l條件下,特征變量Yi的概率密度。θ={θl,l∈L}={μ,σ}={μ1, …,μL,σ1, …,σL}表示特征場模型參數(shù)矢量,l為類別標(biāo)號索引,μ為高斯分布均值矢量,σ為高斯分布標(biāo)準(zhǔn)差矢量。

        令高斯分布的均值矢量μ(標(biāo)準(zhǔn)差矢量σ)為相互獨立的隨機變量且滿足某種先驗分布,假設(shè)μ(σ)服從均值為μμ(μσ),標(biāo)準(zhǔn)差為σμ(σσ)的高斯分布,其聯(lián)合概率密度函數(shù)為:

        (14)

        (15)

        2.2.4后驗概率模型

        給定的圖像y可以作為特征場Y的一次實現(xiàn),在此條件下可將Y視為已知量。根據(jù)Bayesian定理,可得到由標(biāo)號場X、特征場Y、參數(shù)矢量θ={μ,σ}組成的聯(lián)合后驗概率密度函數(shù):

        p(X,θ1Y)∝p(X)p(Y1X,θ)p(θ)

        =p(X)p(Y1X,θ)p(μ)p(σ)

        (16)

        上式為建立的統(tǒng)計分割模型,求出該式中的標(biāo)號場X和參數(shù)矢量θ即可實現(xiàn)圖像分割。利用MAP準(zhǔn)則,標(biāo)號場X的最優(yōu)解Xopt可表示為:

        Xopt=arg max{p(X,θ1Y)}

        (17)

        2.3 M-H算法

        由MAP準(zhǔn)則,當(dāng)后驗概率密度函數(shù)最大時,得到最優(yōu)的圖像分割結(jié)果,因此需要求出可令p(X,θ1Y)達到最大的Xopt和θopt。由于M-H算法在進行參數(shù)求解時原理簡單、操作方便,本文利用該方法求解X和θ。為完備采樣(X,θ),設(shè)計移動操作:(1)改變參數(shù)矢量θ;(2)改變標(biāo)號場X。具體過程如下:

        (1)改變參數(shù)矢量θ

        (18)

        (19)

        (2)改變標(biāo)號場X

        從Y={Yi1Yi∈D,i∈S}中以等概率方式隨機抽取一像素i,其標(biāo)號Xi=l;再從L={1,…,L}中以等概率方式隨機抽取一標(biāo)號l*,若l*≠l,則標(biāo)號l*的接受率aX(Xi=l,Xi=l*)為:

        aX(Xi=l,Xi=l*)=

        (20)

        2.4 算法流程

        本文使用波利亞罐模型重新定義圖像標(biāo)號場的鄰域勢能函數(shù),并利用M-H算法求解圖像的后驗概率密度函數(shù),提出方法的流程總結(jié)如下:

        (1)初始化圖像標(biāo)號場X(0),高斯分布參數(shù)矢量θ(0);

        (2)根據(jù)X(0),為圖像各像素建立罐模型;

        (3)進行波利亞罐模型隨機實驗,得到Vi′(Xi);

        (4)在t次迭代,執(zhí)行M-H算法采樣總參數(shù)矢量(X(t-1),θ(t-1)),求得(X(t),θ(t));

        (5)步驟(3)、(4)重復(fù)進行,直至達到預(yù)設(shè)的循環(huán)次數(shù)或總參數(shù)矢量(X,θ)收斂到穩(wěn)定值,停止迭代。

        3 實驗結(jié)果和討論

        為驗證本文提出方法的可行性和有效性,在Intel Core i7 3.6GHz/4GB內(nèi)存/MATLAB R2011a環(huán)境下對模擬圖像和真實遙感圖像進行分割實驗。

        3.1 模擬圖像分割

        為對提出方法進行定性、定量評價和比較,首先對模擬圖像進行實驗。模擬圖像以尺寸為128×128的圖3(a)為模板,其中,①~④表示不同的同質(zhì)區(qū)域。圖3(b)是依據(jù)圖3(a)模板生成的模擬圖像,各同質(zhì)區(qū)域內(nèi)像素相互獨立且服從同一高斯分布,各區(qū)域分布參數(shù)見表1。由表可知,同質(zhì)區(qū)域①~④的標(biāo)準(zhǔn)差依次遞增,標(biāo)準(zhǔn)差越大,分割難度越大。利用提出方法對圖3(b)進行分割,并與基于傳統(tǒng)Potts模型的分割方法(即,利用Potts模型定義鄰域勢能函數(shù)的分割方法)、文獻[10]Potts模型的改進方法、文獻[16]方法,以及易康軟件中的多尺度分割方法的分割結(jié)果進行對比分析,驗證提出方法的抗噪性及優(yōu)越性。

        圖3 (a) 幾何模板;(b) 模擬圖像

        同質(zhì)區(qū)域①②③④均值2080140200標(biāo)準(zhǔn)差20304050

        本文采用像素的3×3鄰域建立罐模型,實驗結(jié)果見圖4(a)??梢钥闯?,提出方法的分割結(jié)果比較理想,能夠?qū)⒏魍|(zhì)區(qū)域較好地分割開,各區(qū)域內(nèi)基本不含錯分像素。為驗證提出方法比基于傳統(tǒng)Potts模型的分割方法有更好的抗噪性,對二者的分割結(jié)果(見圖4(a)和圖4(b))進行比較,可以看出,圖4(a)各同質(zhì)區(qū)域內(nèi)的錯分像素明顯少于圖4(b),說明本文使用波利亞罐模型定義的鄰域勢能函數(shù)抗噪性較強,優(yōu)于傳統(tǒng)Potts模型。圖4(c)為文獻[10]Potts模型改進方法的實驗結(jié)果,此方法將中心像素與鄰域內(nèi)各像素的光譜測度值及二者的歐式距離引入勢能函數(shù)中,以提高抗噪性。圖4(c)各區(qū)域內(nèi)錯分像素明顯減少,優(yōu)于圖4(b),但沒有本文方法實驗結(jié)果圖4(a)理想。此外,波利亞罐模型直接使用鄰域整體,而Potts模型是將中心像素與其鄰域內(nèi)像素逐個進行對比,導(dǎo)致后者計算量增加,具體體現(xiàn)在實驗運行速度上:圖4(a)的運行時間少于圖4(b)運行時間的三分之二,少于圖4(c)運行時間的四分之三,說明與Potts模型相比,提出方法更方便快捷。圖4(d)為文獻[16]方法的實驗結(jié)果,該方法首先對圖像進行初分割,在此基礎(chǔ)上根據(jù)波利亞罐模型的隨機實驗過程對結(jié)果進行優(yōu)化,以提高圖像分割精度。此方法相對方便快捷,但結(jié)果的準(zhǔn)確性一定程度上取決于圖像的初分割結(jié)果,局限性過強,且圖4(d)各區(qū)域內(nèi)依然存在錯分像素和噪聲。圖4(e)為易康軟件多尺度分割方法的實驗結(jié)果。通過與此結(jié)果對比可知,本文方法能夠較好地保持各區(qū)域邊緣。

        為對實驗結(jié)果進行定量精度評價,以圖3(a)模板為參考圖像,計算圖4分割結(jié)果的混淆矩陣,并由此矩陣計算用戶精度、產(chǎn)品精度、總體精度及Kappa系數(shù),計算結(jié)果列于表2。比較表2中五種方法的混淆矩陣和Kappa系數(shù),說明使用提出方法進行分割得到了比較準(zhǔn)確的實驗結(jié)果。圖4(a)的總體精度和Kappa系數(shù)分別為99.68%和0.9957,高于另外四種對比算法,總體精度和Kappa系數(shù)越接近于1,分割結(jié)果越準(zhǔn)確[23]。上述定量分析結(jié)果驗證了本文提出方法的抗噪性及優(yōu)越性。

        為了對實驗結(jié)果進行定性評價,對(圖4)提取輪廓線,并將其疊加在模擬圖像圖3(b)上,如圖5所示??梢钥闯?,本文提出方法分割結(jié)果輪廓線與實際輪廓線能夠較好吻合,且吻合程度優(yōu)于對比方法。

        圖4 分割結(jié)果((a) 提出方法;(b) Potts模型;(c) 文獻[10]方法;(d) 文獻[16]方法;(e) 多尺度分割)

        本文方法/Potts模型/文獻[10]方法/文獻[16]方法/多尺度分割方法精度指標(biāo)同質(zhì)區(qū)域①②③④用戶精度/%99.95/97.50/99.54/93.20/99.7699.83/93.44/99.10/91.46/99.6399.29/88.97/99.42/91.79/99.3999.63/90.58/97.03/84.53/99.22產(chǎn)品精度/%99.83/98.93/99.95/99.68/99.7399.95/94.53/99.44/93.38/99.8599.63/85.86/96.04/73.14/99.1299.29/91.36/99.58/94.04/99.29總精度/%99.68/92.67/98.75/90.06/99.50Kappa0.9957/0.9023/0.9834/0.8675/0.9933

        圖5 視覺評價((a) 提出方法;(b) Potts模型;(c) 文獻[10]方法;(d) 文獻[16]方法;(e) 多尺度分割)

        3.2 真實遙感圖像分割

        為驗證提出方法的適用性,選取4幅128×128全色遙感圖像(如圖6)進行分割,類別數(shù)分別為2、3、4和4,圖像中包含水體、草地、裸地、建筑等常見地物。其中,圖6(a)為0.6 m分辨率QuickBird圖像,圖6(b)為0.5 m分辨率GeoEye-1圖像,圖6(c)為0.8 m分辨率IKONOS圖像,圖6(d)為0.7 m分辨率EROS-B圖像。對四幅圖像分別使用提出方法及四種對比方法進行處理,并對最終結(jié)果進行分析比較。

        圖7(a1)~(d1)為提出方法分割結(jié)果,從整體上看,既能夠?qū)⒉煌愋偷匚飬^(qū)分開,又保持了各地物的形狀。與傳統(tǒng)使用Potts模型及其改進方法的分割結(jié)果圖7(a2)~(d2)、(a3)~(d3)相比,提出方法各同質(zhì)區(qū)域內(nèi)的錯分像素明顯減少。例如,圖6(a)中湖泊周邊陸地區(qū)域中有大量像素和湖泊區(qū)域像素灰度接近,圖7(a2)和(a3)都沒有準(zhǔn)確地分割這些像素,使得實驗結(jié)果陸地區(qū)域中有大量的湖泊類,而使用本文方法的圖7(a1)可將二者區(qū)分開。這是因為提出方法利用波利亞罐模型的隨機實驗過程,將像素隸屬于各類別的概率之間的差距拉大,偏重鄰域中像素數(shù)量較多的類別,可結(jié)合鄰域有效去除孤立的錯分像素。實驗結(jié)果圖7(b1)~(d1)各區(qū)域內(nèi)的錯分像素同樣少于圖7(b2)~(d2)、(b3)~(d3),體現(xiàn)了提出方法較Potts模型有更強的抗噪性。此外,圖7(a1)~(d1)的運行時間少于圖7(a2)~(d2)、(a3)~(d3),說明提出方法的運行速度更快。通過與文獻[16]方法的實驗結(jié)果圖7(a4)~(d4)對比可知,提出方法可以較好保持各地物的形狀及細(xì)節(jié)信息,例如圖7(b4)中右上角裸地區(qū)域變形,下方黑色線狀地物消失,二者在圖7(b1)中得到保持。圖7(a5)~(d5)為易康軟件中多尺度分割方法的分割結(jié)果,通過反復(fù)實驗調(diào)整分割尺度參數(shù),使產(chǎn)生的圖斑形狀盡量與地物形狀相吻合,并在最大程度上使類別數(shù)與原圖一致(四幅圖像的形狀因子和緊致度因子均設(shè)為0.5,尺度參數(shù)分別為90、90、95、60)。然而與圖7(a1)~(d1)相比,此方法結(jié)果中存在類別誤判,圖7(b5)和(d5)中存在將同類地物分為多類,不同地物分為同類的現(xiàn)象。

        為對真實遙感圖像分割結(jié)果圖7進行定量精度評價,以圖6的手動標(biāo)記模板圖8為標(biāo)準(zhǔn)分割結(jié)果,計算圖7的混淆矩陣及各項精度指標(biāo),見表3。表3中,圖7(a1)~(d1)的各項精度指標(biāo)都在90%左右,總體精度和Kappa系數(shù)均高于另外四種對比算法。通過這些數(shù)值,驗證了提出方法的準(zhǔn)確性和優(yōu)越性。

        圖6 真實遙感圖像((a) 湖泊;(b) 球場;(c) 海岸;(d) 街區(qū))

        圖7 分割結(jié)果((a1)~(d1) 提出方法;(a2)~(d2) Potts模型;(a3)~(d3) 文獻[10]方法;(a4)~(d4) 文獻[16]方法;(a5)~(d5) 多尺度分割)

        圖8 真實遙感圖像模板

        圖9為圖7分割結(jié)果的視覺評價,從輪廓線與原圖像的疊加效果來看,提出方法可以很好地實現(xiàn)分割。

        表3 真實遙感圖像的定量評價

        圖9 視覺評價((a1)~(d1) 提出方法;(a2)~(d2) Potts模型;(a3)~(d3) 文獻[10]方法;(a4)~(d4) 文獻[16]方法;(a5)~(d5) 多尺度分割)

        4 結(jié)論

        遙感圖像的精確分割一直是遙感圖像處理中的研究熱點。為此,本文提出一種結(jié)合波利亞罐模型和M-H算法的遙感圖像分割方法。提出方法通過模擬波利亞模型可以產(chǎn)生MRF的隨機實驗過程,為像素及其鄰域建立一種相互關(guān)系,在此基礎(chǔ)上為圖像標(biāo)號場模型定義新的鄰域勢能函數(shù)。此函數(shù)根據(jù)波利亞罐模型“時間傳染”和“空間傳染”的特性,可以提高分割方法的抗噪性,從而更精確地分割圖像,同時易于求解。采用提出方法分別對模擬圖像和全色遙感圖像進行分割實驗和評價,評價結(jié)果驗證了該方法的可行性和有效性。此外,波利亞罐模型還有許多性質(zhì)可以運用到圖像分割中,在下一步工作中,主要從提高圖像邊緣分割精度和可變類圖像分割兩方面進行研究。

        [1] Jensen J R. Introductory Digital Image Processing: A Remote Sensing Perspective(3rd Edition)[M]. Upper Saddle River, United States: Pearson Prentice Hall, 2005: 393-399.

        [2] 周莉莉, 姜楓. 圖像分割方法綜述研究[J]. 計算機應(yīng)用研究, 2017, 34(7): 1921-1928.

        Zhou Lili, Jiang Feng. Survey on image segmentation methods[J]. Application Research of Computers, 2017, 34(7): 1921-1928. (in Chinese)

        [3] 吳一全, 孟天亮, 吳詩婳. 圖像閾值分割方法研究進展20年(1994-2014)[J]. 數(shù)據(jù)采集與處理, 2015, 30(1): 1-23.

        Wu Yiquan, Meng Tianliang, Wu Shihua. Research progress of image thresholding methods in recent 20 years(1994-2014)[J]. Journal of Data Acquisition and Processing, 2015, 30(1): 1-23. (in Chinese)

        [4] 王玉, 李玉, 趙泉華. 可變類多光譜遙感圖像分割[J]. 遙感學(xué)報, 2016, 20(6): 1381-1390.

        Wang Yu, Li Yu, Zhao Quanhua. Integration of multispectral remote-sensing image segmentation with unknown number of classes[J]. Journal of Remote Sensing, 2016, 20(6): 1381-1390. (in Chinese)

        [5] 李玉, 徐秋曄, 林文杰, 等. 結(jié)合多元信息聚類與空間約束的遙感圖像分割方法[J]. 信號處理, 2017, 33(5): 749-757.

        Li Yu, Xu Qiuye, Lin Wenjie, et al. Remote sensing image segmentation method combining multivariate information clustering with spatial constraints[J]. Journal of Signal Processing, 2017, 33(5): 749-757. (in Chinese)

        [6] Wang X F, Min H, Zou L, et al. A novel level set method for image segmentation by incorporating local statistical analysis and global similarity measurement[J]. Pattern Recognition, 2015, 48(1): 189-204.

        [7] 宋熙煜, 周利莉, 李中國, 等. 圖像分割中的超像素方法研究綜述[J]. 中國圖象圖形學(xué)報, 2015, 20(5): 599- 608.

        Song Xiyu, Zhou Lili, Li Zhongguo, et al. Review on superpixel methods in image segmentation[J]. Journal of Image and Graphics, 2015, 20(5): 599- 608. (in Chinese)

        [8] Hassner M, Sklansky J. The use of Markov Random Fields as models of texture[J]. Computer Graphics and Image Processing, 1980, 12(4): 357-370.

        [9] Besag J. On the Statistical Analysis of Dirty Picture[J]. Journal of the Royal Statistical Society(Series B (Methodological)), 1986, 48(3): 259-302.

        [10] 郭雷, 侯一民, 倫向敏. 一種基于圖像上下文信息的無監(jiān)督彩色圖像分割算法[J]. 模式識別與人工智能, 2008, 21(1): 82- 87.

        Guo Lei, Hou Yimin, Lun Xiangmin. An unsupervised color image segmentation algorithm based on context information[J]. Pattern Recognition and Artificial Intelligence, 2008, 21(1): 82- 87. (in Chinese)

        [11] Eggenberger F, Polya G. Uber die statistik verketter vorgange[J]. Zeit Angew Math Mech, 1923, 3(4): 279-289.

        [12] 何朝兵. 關(guān)于Polya罐子模型的幾個結(jié)論[J]. 海南大學(xué)學(xué)報:自然科學(xué)版, 2009, 27(4): 332-335.

        He Chaobing. Several results of Polya urn model[J]. Natural Science Journal of Hainan University, 2009, 27(4): 332-335. (in Chinese)

        [13] Johnson N L, Kotz S. Urn Models and Their Application[M]. New York, United States: John Wiley & Sons, 1977: 176-194.

        [14] Alajaji F, Burlina P. Image modeling and restoration through contagion urn schemes[C]∥International Conference on Image Processing. Washington, D.C., United States: IEEE Computer Society Press, 1995, 2: 53-56.

        [15] 耿茵茵, 蔡安妮, 孫景鰲. 基于瓦罐模型的多判據(jù)判決及其在圖像分割中的應(yīng)用[J]. 電子學(xué)報, 2002, 30(7): 1017-1019.

        Geng Yinyin, Cai Anni, Sun Jingao. Multiple criterion decisions based on urn model and its application in image segmentation[J]. Acta Electronica Sinica, 2002, 30(7): 1017-1019. (in Chinese)

        [16] Banerjee A, Burlina P, Alajaji F. Image segmentation and labeling using the Polya urn model[J]. IEEE Transactions on Image Processing, 1999, 8(9): 1243-1253.

        [17] Geman S, Geman D. Stochastic relaxation, Gibbs distribution, and Bayesian restoration of images[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 1984, 6(6): 721-741.

        [18] Chib S, Greenberg E. Understanding the Metropolis-Hastings algorithm[J]. The American Statistician, 1995, 49(4): 327-335.

        [19] Zhao Q H, Wang Y, Li Y. Voronoi tessellation-based regionalised segmentation for colour texture image[J]. IET Computer Vision, 2017, 10(7): 613- 622.

        [20] Mahmoud M H. Polya Urn Models[M]. Boca Raton, United States: CRC Press, 2009: 50-53.

        [21] Spitzer F. Markov Random Fields and Gibbs ensembles[J]. The American Mathematical Monthly, 1971, 78(2): 142-154.

        [22] 周輝仁, 鄭丕諤, 牛犇, 等. 基于遞階遺傳算法和BP網(wǎng)絡(luò)的模式分類方法[J]. 系統(tǒng)仿真學(xué)報, 2009, 21(8): 2243-2247.

        Zhou Huiren, Zheng Pie, Niu Ben, et al. HGA-BP-based pattern classification method[J]. Journal of System Simulation, 2009, 21(8): 2243-2247. (in Chinese)

        [23] Congaltonr G, Green K. Assessing the Accuracy of Remotely Sensed Data: Principles and Practices[M]. Boca Raton, United States: CRC Press, 2008: 105-119.

        猜你喜歡
        實驗方法模型
        一半模型
        記一次有趣的實驗
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權(quán)M-估計的漸近分布
        做個怪怪長實驗
        可能是方法不對
        3D打印中的模型分割與打包
        NO與NO2相互轉(zhuǎn)化實驗的改進
        實踐十號上的19項實驗
        太空探索(2016年5期)2016-07-12 15:17:55
        用對方法才能瘦
        Coco薇(2016年2期)2016-03-22 02:42:52
        天堂а√在线最新版中文| 精品国产av色一区二区深夜久久| 台湾无码av一区二区三区| 久精品国产欧美亚洲色aⅴ大片| 日本高清视频在线一区二区三区| 亚洲片在线视频| 亚洲精品一区二区三区新线路| 亚洲av男人电影天堂热app| 成人片黄网站色大片免费观看cn| 亚洲国产成人久久综合一区77| 日本最新一区二区三区免费看| 美女露出奶头扒开内裤的视频| 一本色道久久88亚洲精品综合| 一本一本久久a久久精品综合| 久久久久无码精品国| 国产一区二区三区在线av| 有坂深雪中文字幕亚洲中文 | 中文字幕色资源在线视频| 美女内射毛片在线看免费人动物| 无遮挡边吃摸边吃奶边做| 国产360激情盗摄一区在线观看| 久久精品亚洲94久久精品| 国产精品兄妹在线观看麻豆| 91精品福利一区二区| 少妇激情一区二区三区久久大香香| 91九色成人蝌蚪首页| 欧美日韩精品| 亚洲欧美日韩中文v在线| 久久综合亚洲鲁鲁五月天| 性色欲情网站| 在线看片无码永久免费aⅴ| 国产青青草自拍视频在线播放| 免费在线观看视频播放| 白又丰满大屁股bbbbb| 亚洲欧洲日产国码久在线| 日本视频在线观看一区二区| 国产精品久久久久9999赢消| 97国产免费全部免费观看| 中文字幕人妻久久一区二区三区| 成年免费a级毛片免费看| 男女男在线精品网站免费观看|