程述立,汪烈軍,秦繼偉,杜安鈺
(1.新疆大學(xué) 信息科學(xué)與工程學(xué)院,烏魯木齊 830046; 2.新疆大學(xué) 軟件學(xué)院,烏魯木齊 830046;3.新疆大學(xué) 網(wǎng)絡(luò)與信息技術(shù)中心,烏魯木齊 830046)
群智能算法優(yōu)化的結(jié)合熵的最大類間方差法與脈沖耦合神經(jīng)網(wǎng)絡(luò)融合的圖像分割算法
程述立1,汪烈軍2*,秦繼偉3,杜安鈺1
(1.新疆大學(xué) 信息科學(xué)與工程學(xué)院,烏魯木齊 830046; 2.新疆大學(xué) 軟件學(xué)院,烏魯木齊 830046;3.新疆大學(xué) 網(wǎng)絡(luò)與信息技術(shù)中心,烏魯木齊 830046)
針對(duì)最大類間方差準(zhǔn)則下的圖像分割結(jié)果攜帶原圖信息量不足、實(shí)時(shí)性差和脈沖耦合神經(jīng)網(wǎng)絡(luò)(PCNN)模型中循環(huán)迭代次數(shù)難以確定的問(wèn)題,提出了群智能算法優(yōu)化的結(jié)合熵的最大類間方差法(OTSU-H)與PCNN融合的自動(dòng)圖像分割算法。首先,充分利用圖像的灰度分布信息和相關(guān)信息,將圖像信息中冗余度、競(jìng)爭(zhēng)性以及互補(bǔ)性有效地融合,構(gòu)造二維和三維觀測(cè)空間,提出了OTSU-H準(zhǔn)則的快速遞歸算法;其次,將快速遞推算法的目標(biāo)函數(shù)分別作為布谷鳥(niǎo)搜索(CS)算法、螢火蟲(chóng)算法(FA)、粒子群優(yōu)化(PSO)算法和遺傳算法(GA)四種群智能算法的適應(yīng)度函數(shù);最后,將優(yōu)化之后的OTSU-H引入PCNN模型中自動(dòng)獲取循環(huán)迭代次數(shù)。實(shí)驗(yàn)結(jié)果表明,與原始的最大類間方差法(OTSU)、最大熵準(zhǔn)則以及基于圖論分割、像素的聚類分割和候選區(qū)域語(yǔ)義分割的圖像分割算法相比,所提算法具有較好的圖像分割效果,同時(shí)降低了計(jì)算復(fù)雜度,節(jié)約了計(jì)算機(jī)的存儲(chǔ)空間 ,具有較強(qiáng)的抗噪能力。所提算法時(shí)間損耗少、不需要訓(xùn)練的特性使得算法的運(yùn)用范圍較廣。
圖像分割;脈沖耦合神經(jīng)網(wǎng)絡(luò);布谷鳥(niǎo)搜索算法;螢火蟲(chóng)算法;粒子群優(yōu)化算法;遺傳算法
圖像分割一直是研究人員關(guān)注的焦點(diǎn),在許多領(lǐng)域中均有著較為廣泛的應(yīng)用。圖像存在噪聲點(diǎn)、密度不均等問(wèn)題,使得圖像分割在準(zhǔn)確率、穩(wěn)定性、實(shí)時(shí)性等方面仍然存在著很大的提升空間。隨著人工智能的推廣,脈沖耦合神經(jīng)網(wǎng)絡(luò)(Pulse Coupled Neural Network, PCNN)不需要學(xué)習(xí)和訓(xùn)練以及具有同步脈沖發(fā)放和全局耦合的特性,使其在圖像分割領(lǐng)域得到了廣泛的運(yùn)用。Eckhorn等[1]提出了基于貓的視覺(jué)皮層神經(jīng)元信號(hào)傳導(dǎo)特性的神經(jīng)網(wǎng)絡(luò)模型;針對(duì)PCNN模型參數(shù)的設(shè)置決定了其性能好壞的問(wèn)題, Li等[2]提出了一種免疫克隆算法來(lái)優(yōu)化PCNN 的參數(shù)調(diào)試問(wèn)題,實(shí)現(xiàn)了 PCNN參數(shù)的自適應(yīng)調(diào)整;Zhou等[3-5]提出了迭代分割由粗到細(xì)的策略,簡(jiǎn)化了PCNN的輸入和動(dòng)態(tài)閾值變化策略;于江波等[6-9]確保了參數(shù)的正確調(diào)整和迭代結(jié)果的自動(dòng)控制。這些研究使得PCNN能夠自適應(yīng)地去進(jìn)行圖像分割,為PCNN的應(yīng)用提供了基礎(chǔ)。
圖像分割的實(shí)時(shí)性和穩(wěn)定性均會(huì)影響相關(guān)人員的判斷,并且實(shí)時(shí)性和穩(wěn)定性也是圖像分割的關(guān)鍵因素[10]。景曉軍等[11]提出快速二維最大類間方差法(OTSU),減小了時(shí)間復(fù)雜度。為了進(jìn)一步提高算法對(duì)對(duì)比度和信噪比都較低的圖像的分割效果,景曉軍等[12]又提出快速遞推的三維最大類間方差分割算法,提高了算法的魯棒性;范九倫等[13]給出了三維最大類間方差分割算法的遞推公式,在原來(lái)的基礎(chǔ)上減少了計(jì)算時(shí)間。
上述算法完成了圖像分割的基本要求,但是在很多領(lǐng)域中,圖像分割更注重實(shí)時(shí)性、穩(wěn)定性以及圖像分割的準(zhǔn)確率,所以在一定抗噪性能的基礎(chǔ)上,如何有效地從原圖中獲取更多的信息量尤為重要。本文首先針對(duì)傳統(tǒng)一維最大類間方差法(One-dimensional OTSU, 1OTSU)、2OTSU和3OTSU的圖像分割結(jié)果攜帶原圖信息量較少的問(wèn)題,提出一維結(jié)合熵的最大類間方差法(One-dimensional OTSU-entropy, 1OTSU-H)、2OTSU-H和3OTSU-H準(zhǔn)則,該準(zhǔn)則可以獲取原圖較大的類間方差,擁有原圖更多的信息量,具有較好的抗噪性能;其次為了進(jìn)一步提高算法在圖像分割中的實(shí)時(shí)性,提出了用粒子群優(yōu)化(Particle Swarm Optimization, PSO)算法、布谷鳥(niǎo)搜索(Cuckoo Search, CS)算法、螢火蟲(chóng)算法(Firefly Algorithm, FA)、遺傳算法(Genetic Algorithm, GA)四種群智能算法[14-17]進(jìn)行優(yōu)化,將OTSU-H準(zhǔn)則的目標(biāo)函數(shù)作為四種群智能算法的適應(yīng)度函數(shù);最后將所提出的算法引入PCNN中,作為PCNN自動(dòng)獲取循環(huán)迭代次數(shù)的新準(zhǔn)則,將搜索的全局最優(yōu)閾值作為PCNN的動(dòng)態(tài)閾值,進(jìn)而實(shí)現(xiàn)基于區(qū)域的最佳自動(dòng)圖像分割。本文算法既保證了獲得較大的類間方差的基礎(chǔ)之上擁有原圖更多的信息量,又減小了算法時(shí)間消耗,提高了圖像分割的準(zhǔn)確性。通過(guò)與原始的OTSU、最大熵準(zhǔn)則以及近三年研究者們提出的五種最新圖像分割算法對(duì)比,驗(yàn)證了本文算法在保證實(shí)時(shí)性的同時(shí)有著較好的圖像分割效果。
傳統(tǒng)的OTSU算法的目標(biāo)是獲取原圖最大的類間方差,保證圖像中目標(biāo)和背景有最大的區(qū)分度。但是該算法沒(méi)有考慮圖像熵,而在一些特定的領(lǐng)域(醫(yī)學(xué)、航空和船舶等)圖像分割中熵值和抗噪性能均是比較重要的因素,因此在保證擁有較大類間方差的基礎(chǔ)上獲取原圖更多的信息量是本文算法研究的重點(diǎn)。
針對(duì)1OTSU準(zhǔn)則下圖像分割攜帶原圖信息量不足的問(wèn)題,將一維圖像熵引入到一維的目標(biāo)函數(shù)中,這種結(jié)合了一維OTSU和一維圖像熵的目標(biāo)函數(shù)稱為1OTSU-H算法。
一維熵Hs定義為:
(1)
w0(s) 和w1(s)分別為一維圖像分割中目標(biāo)區(qū)域和背景區(qū)域的灰度概率:
(2)
(3)
w0(s)+w1(s)=1
(4)
u0(s)、u1(s)和uT(s)分別為一維圖像分割中目標(biāo)區(qū)域的均值、背景區(qū)域相應(yīng)的均值和總體均值:
(5)
(6)
uT(s)=w0(s)u0(s)+w1(s)u1(s)
(7)
一維圖像分割中目標(biāo)區(qū)域的類間方差、背景區(qū)域的類間方差和總的類間方差分別為式(8)、(9)和(10):
σ0(s)=w0(s)(u0(s)-uT(s))2
(8)
σ1(s)=w1(s)(u1(s)-uT(s))2
(9)
trσb(s)=σ0(s)+σ1(s)
(10)
本文提出的1OTSU-H算法的目標(biāo)函數(shù)及其對(duì)數(shù)表達(dá)式分別為式(11)和(12):
h(s0)=max{(trσb(s))Nvar×(Hs)Nh}
(11)
ln[h(s0)]=max{Nvarln[trσb(s)]+Nhln[Hs]}
(12)
一維OTSU-H算法僅利用了圖像灰度的分布信息,而沒(méi)有考慮圖像灰度的相關(guān)性,而許多圖像的圖像像元點(diǎn)之間是存在一定相關(guān)性的,因此需要構(gòu)造二維觀測(cè)空間,此時(shí)算法的實(shí)時(shí)性變差,基于以上考慮,本文又提出了2OTSU-H快速迭代算法。結(jié)合二維OTSU和二維熵的特性形成2OTSU-H算法。
設(shè)圖像I大小為M*N,灰度級(jí)區(qū)間為(0,L-1),像素點(diǎn)(s,t)的灰度值為f(s,t),鄰域均值為g(s,t),g(s,t) 的定義為:
(13)
g(s,t)滿足:
(14)
即g(s,t)和f(s,t)有相同的灰度值區(qū)間。
由f(s,t)和g(s,t)構(gòu)成二元組(i,j),設(shè)pij為I的灰度聯(lián)合概率分布,即:
pij=nij/(M×N)
(15)
二維觀測(cè)空間背景和目標(biāo)的概率分別為式(16)、(17):
(16)
(17)
閾值(s,t)把Cameraman圖劃分為如圖1(b)所示的四個(gè)部分;圖1(c)是圖像I的二維灰度直方圖,從圖1(c)可以看出,I灰度信息集中于區(qū)域1和區(qū)域3,區(qū)域2和4是圖像中存在的邊緣和噪聲信息,而且像素點(diǎn)很少可忽略不計(jì)。
w0+w1=1
(18)
圖1 二維觀測(cè)空間Fig. 1 Two-dimensional observation space
二維直方圖目標(biāo)類均值、背景類均值及總體均值分別為式(19)、(20)和(21):
(19)
(20)
w0(s,t)u0+w1(s,t)u1
(21)
考慮到該算法實(shí)時(shí)性較差的問(wèn)題,可用二維OTSU遞推公式,表述為:
w0(0,0)=p00
(22)
w0(s,0)=w0(s-1,0)+ps0
(23)
w0(0,t)=w0(0,t-1)+p0t
(24)
w0(s,t)=w0(s,t-1)+w0(s-1,t)-w0(s-1,t-1)+pst
(25)
ui(0,0)=0
(26)
ui(s,0)=ui(s-1,0)+s·ps0
(27)
ui(0,t)=ui(0,t-1)+s·p0t
(28)
ui(s,t)=ui(s,t-1)+ui(s-1,t)-
ui(s-1,t-1)+s·pst
(29)
由式(22)~(25)可得w0, 由式(26)~(29)可得ui。同理可得:w1和uj。
二維觀測(cè)空間中類間方差的跡為:
trσb(s,t)=
(30)
二維熵為:
(31)
本文提出的2OTSU-H算法的目標(biāo)函數(shù)及其對(duì)數(shù)表達(dá)式分別為式(32)和(33):
h(s0,t0)=max{(trσb(s,t))Nvar×(Hst)Nh}
(32)
ln[h(s0,t0)]=max{Nvarln[trσb(s,t)]+Nhln[Hst]}
(33)
2OTSU-H快速迭代算法的時(shí)間復(fù)雜度由以前的O(L4)降到O(L2)。
在相同的參數(shù)下,2OTSU-H抗噪性能要優(yōu)于1OTSU-H,而二維觀測(cè)空間區(qū)域1及區(qū)域3概率和為1的假設(shè)普遍性不夠,需要建立三維觀測(cè)空間,而三維觀測(cè)空間進(jìn)行圖像分割會(huì)提高計(jì)算復(fù)雜度,因此提出3OTSU-H算法以及3OTSU-H快速迭代算法。
任選一幅圖像,像素點(diǎn)(s,t)對(duì)應(yīng)的f(s,t)、g(s,t)和h(s,t)構(gòu)成三元組(i,j,k)。其灰度聯(lián)合概率分布為:
pijk=nijk/(M×N)
(34)
背景和目標(biāo)的概率分別為式(35)和式(36):
(35)
(36)
閾值(s,t,q)把三維觀測(cè)空間劃分為如圖2(a)~(d)所示的8個(gè)區(qū)域,圖像的灰度信息主要分布于區(qū)域1和8;邊緣信息和噪聲信息主要分布于其他6個(gè)區(qū)域。除了區(qū)域1和8之外,其余6個(gè)區(qū)域中像素點(diǎn)很少,可假設(shè)區(qū)域2~7上中像素點(diǎn)概率和為0。
圖2 三維觀測(cè)空間Fig. 2 Three-dimensional observation space
三維直方圖目標(biāo)類均值、背景類均值及總體均值分別為式(37)、(38)和(39):
(37)
(38)
(39)
傳統(tǒng)3OTSU時(shí)間復(fù)雜度高,可由三維遞推公式表述為:
w0(0,0,0)=p000
(40)
w0(s,0,0)=w0(s-1,0,0)+ps00
(41)
w0(0,t,0)=w0(0,t-1,0)+p0t0
(42)
w0(0,0,q)=w0(0,0,q-1)+p00q
(43)
w0(s,t,0)=
w0(s-1,t,0)+w0(s,t-1,0)-
w0(s-1,t-1,0)+pst0
(44)
w0(s,0,q)=w0(s-1,0,q)+w0(s,0,q-1)-
w0(s-1,0,q-1)+ps0q
(45)
w0(0,t,q)=w0(0,t-1,q)+w0(0,t,q-1)-
w0(0,t-1,q-1)+p0tq
(46)
w0(s,t,q)=w0(s-1,t,q)+w0(s,t-1,q)+
w0(s,t,q-1)-w0(s,t-1,q-1)-w0(s-1,t,q-1)-
w0(s-1,t-1,q)-w0(s-1,t-1,q-1)+pstq
(47)
ui(0,0,0)=0
(48)
ui(s,0,0)=ui(s-1,0,0)+s·ps00
(49)
ui(0,t,0)=ui(0,t-1,0)+0·p0t0
(50)
ui(0,0,q)=ui(0,0,q-1)+0·p00q
(51)
ui(s,t,0)=ui(s-1,t,0)+ui(s,t-1,0)-
ui(s-1,t-1,0)+s·pst0
(52)
ui(s,0,q)=ui(s-1,0,q)+ui(s,0,q-1)-
ui(s-1,0,q-1)+s·ps0q
(53)
ui(0,t,q)=ui(0,t-1,q)+ui(0,t,q-1)-
ui(0,t-1,q-1)+s·p0tq
(54)
ui(s,t,q)=ui(s-1,t,q)+ui(s,t-1,q)+
ui(s,t,q-1)-ui(s,t-1,q-1)-ui(s-1,t,q-1)-
ui(s-1,t-1,q)+ui(s-1,t-1,q-1)+s·pstq
(55)
由式(40)~(47)可得w0, 由式(48)~(55)可得ui。同理可得:w1、uj、uk。
三維觀測(cè)空間類間方差的跡如式(56):
trσb(s,t,q)=[(w0(s,t,q)uTi-ui(s,t,q))2+
(w0(s,t,q)uTj-uj(s,t,q))2+
(w0(s,t,q)uTk-uk(s,t,q))2]/[w0(s,t,q)w1(s,t,q)]
(56)
三維熵為:
(57)
本文提出的3OTSU-H算法的目標(biāo)函數(shù)及其對(duì)數(shù)表達(dá)式分別為式(58)、(59):
h(s0,t0,q0)=max{(trσb(s,t,q))Nvar×(Hstq)Nh}
(58)
ln[h(s0,t0,q0)]=max{Nvarln[trσb(s,t,q)]+
Nhln[Hstq]}
(59)
3OTSU-H快速迭代算法的時(shí)間復(fù)雜度由以前的O(L6)降到O(L3)。
雖然2OTSU-H和3OTSU-H快速遞推算法與傳統(tǒng)的2OTSU和3OTSU算法相比實(shí)時(shí)性有了很大程度的提升,但是在實(shí)際應(yīng)用中實(shí)時(shí)性和準(zhǔn)確率的問(wèn)題仍待解決。群智能算法的出現(xiàn),不僅可以提高算法的實(shí)時(shí)性,而且能搜索到OTSU-H算法的全局最優(yōu)值,避免陷入OTSU-H算法的局部最優(yōu)值,提高算法的準(zhǔn)確率。因此本文提出用四種群智能算法分別一維、二維及三維OTSU-H算法進(jìn)行優(yōu)化,其中對(duì)3OTSU-H算法的優(yōu)化過(guò)程如下:
CS算法根據(jù)布谷鳥(niǎo)以巢寄生方式提高自己的繁殖率,并結(jié)合Lévy飛行行為更新鳥(niǎo)巢位置,獲得全局最優(yōu)值。用該算法優(yōu)化時(shí),不需要重新匹配大量參數(shù),需要初始化算法的基本參數(shù),將OTSU-H算法的目標(biāo)函數(shù)作為布谷鳥(niǎo)算法的適應(yīng)度函數(shù)。
算法1 CS-3OTSU-H算法。
輸入 鳥(niǎo)巢數(shù)量n=50,鳥(niǎo)巢替換的概率Pa=0.25,搜索范圍[Lb,Ub]為[1,255],參數(shù)Nvar=1和Nh=1;
輸出 最優(yōu)鳥(niǎo)巢(s0,t0,q0)。
3OTSU-H目標(biāo)函數(shù)Fs0t0q0=ln[h(s0,t0,q0)];
初始化n個(gè)鳥(niǎo)巢位置sitiqi(i=1,2,…,n);
while(t<最大迭代次數(shù))
通過(guò)Lévy 飛行得到鳥(niǎo)巢i;
從n個(gè)鳥(niǎo)巢中隨機(jī)選擇一個(gè)鳥(niǎo)窩j;
評(píng)估適應(yīng)度Fsitiqi、Fsjtjqj;
if (Fsitiqi>Fsjtjqj)
用新鳥(niǎo)巢i替換j;
end
拋棄并更新較差鳥(niǎo)窩的Pa;
找出當(dāng)前最優(yōu)鳥(niǎo)巢;
end
輸出CS-3OTSU-H的最優(yōu)閾值(s0,t0,q0)。
PSO算法依據(jù)鳥(niǎo)類在捕食過(guò)程中,個(gè)體食物源位置以及離食物的距離到底有多遠(yuǎn),為了找到食物,搜索食物源附近的個(gè)體周圍區(qū)域,實(shí)現(xiàn)了信息的共享,每個(gè)個(gè)體建立自身的信念,當(dāng)發(fā)現(xiàn)其他個(gè)體的適應(yīng)度函數(shù)值高于自己時(shí),個(gè)體會(huì)調(diào)整自己的速度和位置,從而以提高自身的搜索能力。該算法在優(yōu)化1OTSU-H 、2OTSU-H和3OTSU-H時(shí),將OTSU-H算法的目標(biāo)函數(shù)作為PSO的適應(yīng)度函數(shù)。
算法2 PSO-3OTSU-H算法流程。
輸入 粒子個(gè)數(shù)n=50,bird_setp= 20,相關(guān)參數(shù)c1=2、c2=2、w=0.9,產(chǎn)生的位置和速度,參數(shù)Nvar=1和Nh=1;
輸出 最優(yōu)種群位置(s0,t0,q0)。
3OTSU-H目標(biāo)函數(shù)Fs0t0q0=ln[h(s0,t0,q0)];
初始化n個(gè)種群位置和速度;
while(t<最大迭代次數(shù))
計(jì)算Fstq;
記錄每個(gè)個(gè)體取最好適應(yīng)度值的位置;
與歷史最優(yōu)個(gè)體適應(yīng)度值進(jìn)行比較;
if (Fstq>=Fmax)
記錄Fstq的位置,作為全局最優(yōu)解;
end
找出當(dāng)前最優(yōu)種群位置(s0,t0,q0);
end
輸出PSO-3OTSU-H的最優(yōu)閾值(s0,t0,q0)。
FA算法反映每個(gè)螢火蟲(chóng)被絕對(duì)亮度比它大的螢火蟲(chóng)所吸引,從而更新更新自身的位置。在優(yōu)化OTSU-H時(shí),初始化算法參數(shù) ,將OTSU-H的目標(biāo)函數(shù)作為FA的適應(yīng)度函數(shù)。
算法3 FA-3OTSU-H算法。
輸入 粒子個(gè)數(shù)n=50,MaxGeneration=20,相關(guān)參數(shù)α=0.5,β=0.2,γ=1,參數(shù)Nvar=1和Nh=1;
輸出 最優(yōu)種群位置(s0,t0,q0)。
3OTSU-H目標(biāo)函數(shù)Fs0t0q0=ln[h(s0,t0,q0)];
隨機(jī)產(chǎn)生n只螢火蟲(chóng),確定每個(gè)螢火蟲(chóng)的絕對(duì)亮度I(xi);
while(t<最大迭代次數(shù))
fori=1:n
forj=1:n
ifI(xi)>I(xj)
計(jì)算i和螢火蟲(chóng)j的距離rij;
計(jì)算i和螢火蟲(chóng)j的引力β;
把螢火蟲(chóng)j向i移動(dòng);
計(jì)算更新新的螢火蟲(chóng)的亮度;
end
end
end
end
輸出FA-3OTSU-H的最優(yōu)閾值(s0,t0,q0)。
GA是模仿 “物競(jìng)天擇,適者生存”的演化法則。將解空間數(shù)據(jù)表示成遺傳空間中染色體及染色體上的基因,基因在染色體上數(shù)據(jù)的不同組合構(gòu)成不同的點(diǎn),通過(guò)對(duì)位置的編碼、選擇、交叉、變異和解碼找到問(wèn)題的最優(yōu)解。在優(yōu)化OTSU-H的過(guò)程中,需要初始化遺傳代數(shù)、種群數(shù)目、選擇、交叉和變異的概率,將OTSU-H的目標(biāo)函數(shù)作為GA的適應(yīng)度函數(shù)。
算法4 GA-3OTSU-H算法。
輸入 選擇、交叉、變異的概率分別為0.9,0.7和0.05,染色體數(shù)目40,最大遺傳代數(shù)為500,參數(shù)Nvar=1和Nh=1;
輸出 最優(yōu)染色體(s0,t0,q0)。
3OTSU-H目標(biāo)函數(shù)Fs0t0q0=ln[h(s0,t0,q0)];
設(shè)置最大迭代次數(shù),初始化n個(gè)染色體si(i=1,2,…,n);
while(t<最大迭代次數(shù))
從n個(gè)染色體中隨機(jī)選擇一個(gè)染色體;
評(píng)估適應(yīng)度Fsitiqi、Fsjtjqj;
if (Fsitiqi>Fsjtjqj)
用新染色體i替換j;
end
找出當(dāng)前最優(yōu)染色體(s0,t0,q0);
end
輸出GA-3OTSU-H的最優(yōu)閾值(s0,t0,q0)。
在其他參數(shù)固定的前提下,PCNN循環(huán)迭代次數(shù)的選取影響著圖像的分割效果。在現(xiàn)有的研究中,馬義德等[5]提出了基于圖像熵準(zhǔn)則的自動(dòng)圖像分割算法。于江波等[6]研究了PCNN模型中除了循環(huán)迭代次數(shù)以外的其他參數(shù)在圖像處理中的確定問(wèn)題。最大熵準(zhǔn)則能獲取原圖最大的信息量,但是抗噪性能確不理想;最大類間方差準(zhǔn)的抗噪能力較強(qiáng),但是從原圖中獲取的信息量不足:因此最大熵和最大類間方差準(zhǔn)則下圖像分割效果均不理想。本文的2OTSU-H、二維最大熵和2OTSU算法的分割效果如圖3所示。
基于以上考慮,將群智能算法優(yōu)化后的OTSU-H準(zhǔn)則作為PCNN循環(huán)迭代次數(shù)選取的準(zhǔn)則。
PCNN簡(jiǎn)化模型其公式如下:
Fij(n)=Iij
(60)
(61)
Uij(n)=Fij(n)(1+bLij(n))
(62)
Tij(n)=e-aTij(n-1)+VYij(n)
(63)
(64)
圖3 不同算法分割效果Fig. 3 Segmentation effects of different algorithms
任選一幅圖像,像素(i,j) 的原始灰度值是Iij,Fij為反饋域輸入通道,Lij為鏈接域通道,b為鏈接的強(qiáng)度系數(shù),Uij位內(nèi)部狀態(tài)信號(hào),Tij為門限閾值,Yij為脈沖輸出。簡(jiǎn)化的PCNN模型中,b是可變的,b值越大,圖像分解得越精細(xì),圖像的輪廓越明顯,反之圖像的細(xì)節(jié)越豐富。
為了驗(yàn)證本文算法的性能, 選取了大量圖像在Matlab R2016a實(shí)驗(yàn)平臺(tái)上進(jìn)行測(cè)試。計(jì)算機(jī)的配置為3.5 GHz Intel Core i3- 4150 CPU和8.0 GB內(nèi)存。
對(duì)cameraman圖分別加入高斯噪聲、椒鹽噪聲和混合噪聲,在2OTSU-H和3OTSU-H準(zhǔn)則下進(jìn)行抗噪性能測(cè)試,測(cè)試結(jié)果如圖4所示。從圖4中可以看出,在噪聲類型不同的情況下,3OTSU-H的抗噪性能均優(yōu)于2OTSU-H,對(duì)大部分噪聲都有著較好的抑制能力,因此在相同的參數(shù)下3OTSU-H的抗噪性能優(yōu)于2OTSU-H,同時(shí)2OTSU-H和3OTSU-H都擁有較好的抗噪性能。
在二維觀測(cè)空間和三維觀測(cè)空間中,分別用最大類間方差準(zhǔn)則、OTSU-H和最大熵準(zhǔn)則對(duì)cameraman和lena進(jìn)行圖像分割,分割結(jié)果如圖5~6所示。
在表1中,參數(shù)為(1,0)的情況下表示最大類間方差準(zhǔn)則;參數(shù)為(0,1)情況下表示最大熵準(zhǔn)則;參數(shù)為(1,1)和(1,2)是結(jié)合了最大類間方差和圖像熵的OTSU-H準(zhǔn)則。在OTSU-H準(zhǔn)則下,分割之后的圖像所攜帶的信息量均有一定的提升。從圖5~6中可以看出OTSU-H的圖像分割效果要優(yōu)于OTSU和最大熵準(zhǔn)則下的圖像分割效果。
為了進(jìn)一步降低OTSU-H的時(shí)間復(fù)雜度,提出了用四種群智能算法分別對(duì)2OTSU-H和3OTSU-H進(jìn)行優(yōu)化,統(tǒng)計(jì)各算法的時(shí)間復(fù)雜度、閾值和灰度熵,不同參數(shù)下的結(jié)果如表2所示。
圖4 抗噪性能測(cè)試結(jié)果Fig. 4 Test results of anti-noise performance
表2中數(shù)據(jù)是在cameraman圖中測(cè)試得到,在二維算法優(yōu)化中,PSO使2OTSU-H算法的實(shí)時(shí)性提高了41.8%,CS使2OTSU-H算法的實(shí)時(shí)性提高了28.2%,F(xiàn)A使2OTSU-H算法的實(shí)時(shí)性提高了26.3%,GA使2OTSU-H算法的實(shí)時(shí)性提高了19.5%。在三維算法優(yōu)化中,PSO使3OTSU-H算法的實(shí)時(shí)
性提高了44.4%,CS使3OTSU-H算法的實(shí)時(shí)性提高了43.8%,F(xiàn)A使3OTSU-H算法的實(shí)時(shí)性提高了24.3%, GA使3OTSU-H算法的實(shí)時(shí)性提高了22.1%。因此,二維圖像分割算法中PSO-2OTSU-H算法的實(shí)時(shí)性最強(qiáng),三維圖像分割算法中PSO-3OTSU-H和CS-3OTSU-H算法的實(shí)時(shí)性最強(qiáng)。綜上所述,基于粒子群算法和布谷鳥(niǎo)算法對(duì)2OTSU-H、3OTSU-H的優(yōu)化性能最好,實(shí)時(shí)性最強(qiáng)。
圖5 二維圖像分割結(jié)果Fig. 5 Segmentation results of two-dimensional images
圖 6 三維圖像分割結(jié)果Fig. 6 Segmentation results of three-dimensional images表1 不同參數(shù)對(duì)圖像信息量的影響Tab. 1 Effects of different parameters on image information amount
圖像算法參數(shù)(1,0)閾值灰度熵參數(shù)(1,1)閾值灰度熵參數(shù)(1,2)閾值灰度熵參數(shù)(0,1)閾值灰度熵lena2OTSU-H(134,117)0.9813(136,122)0.9931(136,125)0.9978(137,128)1.00003OTSU-H(130,128,117)0.9801(136,122,133)0.9929(136,125,134)0.9977(255,140,128)1.0000cameraman2OTSU-H(90,102)0.8308(114,121)0.9071(126,130)0.9622(173,137)1.00003OTSU-H(125,111,88)0.8291(170,115,114)0.9034(227,124,126)0.9631(255,137,163)1.0000
表2 不同參數(shù)下群智能優(yōu)化后算法性能客觀評(píng)價(jià)Tab. 2 Objective evaluation of swarm intelligence optimized algorithm performance under different parameters
對(duì)cameraman和lena進(jìn)行分割,比較在三種準(zhǔn)則下PCNN的分割效果。從圖7~8可以看出, OTSU-H與PCNN融合的的一維、二維和三維圖像分割效果優(yōu)于最大類間方差及最大熵準(zhǔn)則。
圖7 對(duì)cameraman圖像的算法融合測(cè)試結(jié)果Fig. 7 Algorithm fusion test results of image cameraman
圖8 對(duì)lena圖像的算法融合測(cè)試結(jié)果Fig. 8 Algorithm fusion test results of image lena
采用最大熵準(zhǔn)則、OTSU和OTSU-H準(zhǔn)則分別在二維觀測(cè)空間中和三維觀測(cè)空間中,對(duì)任意兩幅圖像(一幅醫(yī)學(xué)圖像,一幅航空?qǐng)D)進(jìn)行圖像分割,分割結(jié)果如圖9所示。
從圖9可以看出,最大熵準(zhǔn)則和最大類間方差準(zhǔn)則都不同程度上出現(xiàn)了錯(cuò)分,而本文算法在醫(yī)學(xué)和航空?qǐng)D像中分割效果比最大類間方差和最大熵分割效果好。
從表2可以看出,基于粒子群算法和布谷鳥(niǎo)算法優(yōu)化后的OTSU-H擁有最好的實(shí)時(shí)性。因此PSO-OTSU-H及CS-OTSU-H實(shí)時(shí)性和準(zhǔn)確率的提高,可以給醫(yī)生和飛行員提供實(shí)時(shí)性的判斷。
圖像分割方法主要有圖論分割、像素的聚類分割、基于候選區(qū)域的語(yǔ)義分割[18]。Li等[19]提出基于圖論的線性譜聚類(Linear Spectral Clustering, LSC)算法,迭代地使用k-means算法在高維特征空間的聚類作用。Achanta等[20]改進(jìn)了更為復(fù)雜的距離計(jì)算公式,提出了基于像素聚類的自適應(yīng)簡(jiǎn)單線性迭代聚類(Adaptively Simple Linear Iterative Clustering, ASLIC)算法。Long等[21]提出了全卷積網(wǎng)絡(luò)(Fully Convolutional Network, FCN)。Hariharan等[22]借用圖像金字塔的思想,提出了Hypercolumn算法。Zheng等[23]提出了RNN(Recurrent Neural Network)算法。測(cè)試的數(shù)據(jù)集為模式分析統(tǒng)計(jì)建模和計(jì)算學(xué)習(xí)視覺(jué)對(duì)象類(Pattern Analysis Statistical modeling and Computational Learning Visual Object Classes, PASCAL VOC)[24]。不同算法的分割效果對(duì)比如圖10所示,相應(yīng)的性能評(píng)價(jià)結(jié)果如表3所示。
圖10為本文算法以及LSC、ASLIC、FCN、Hypercolumn和RNN等算法的分割效果。從圖10可以看出,圖10(b)、(d)、(e)和(f)分割效果最好。
圖9 最大熵、OTSU和OTSU-H在二、三維觀測(cè)空間中的圖分割結(jié)果Fig. 9 Image segmentation effects of algorithms maximum entropy, OTSU, OTSU-H in 2D and 3D space
圖10 不同算法分割效果對(duì)比Fig. 10 Comparison of segmentation effects of different algorithms
從表3可以看出,本文算法、FCN和Hypercolumn進(jìn)行圖像分割時(shí)擁有原圖較多的信息量,雖然本文算法擁有的信息量略低于FCN,但是本文算法模型簡(jiǎn)單,不需要訓(xùn)練,而最新算法如FCN、Hypercolumn和RNN都是基于卷積神經(jīng)網(wǎng)絡(luò),模型復(fù)雜,訓(xùn)練時(shí)間長(zhǎng),且測(cè)試時(shí)間也相對(duì)較長(zhǎng)。因此可以得出,本文算法在保證實(shí)時(shí)性的同時(shí)有著較好的圖像分割效果。
表3 不同算法性能客觀評(píng)價(jià)Tab. 3 Objective evaluation of performance of different algorithms
本文提出了基于群智能算法優(yōu)化的OTSU-H與PCNN融合的圖像分割算法。該算法根據(jù)OTSU-H準(zhǔn)則來(lái)確定PCNN的最佳迭代次數(shù),并且運(yùn)用群智能算法來(lái)優(yōu)化融合算法的目標(biāo)函數(shù),減少算法的時(shí)間損耗。在算法的實(shí)現(xiàn)過(guò)程中,首先構(gòu)造了觀測(cè)空間;其次給出了融合算法的快速遞推公式;最后用群智能算法優(yōu)化目標(biāo)函數(shù)。與OTSU算法和最大熵準(zhǔn)則相比,本文算法既有著較大的類間方差也攜帶原圖較多的信息量。與圖論分割、像素的聚類分割和基于候選區(qū)域的語(yǔ)義分割的分割效果相比,本文算法時(shí)間損耗少,攜帶信息量較大,同時(shí)穩(wěn)定性好。在實(shí)驗(yàn)過(guò)程中,對(duì)本文算法的實(shí)時(shí)性進(jìn)行了評(píng)測(cè)對(duì)實(shí)用性進(jìn)行了驗(yàn)證。實(shí)驗(yàn)結(jié)果表明:本文算法在低對(duì)比度和低信噪比的圖像中,仍具有較好的圖像分割效果,同時(shí)本文算法減少了所需的計(jì)算量,節(jié)約了計(jì)算機(jī)的存儲(chǔ)空間,具有較強(qiáng)的抗干擾能力,在保證實(shí)時(shí)性的同時(shí)有著較好的圖像分割效果,可以運(yùn)用于醫(yī)學(xué)、航空等領(lǐng)域。下一步將研究,在保證一定實(shí)時(shí)性的同時(shí),與基于語(yǔ)義的圖像分割算法相結(jié)合,進(jìn)行多信息融合的圖像分割,進(jìn)一步提高算法的精度。
References)
[1] ECKHORN R, REITBOECK H J, ARNDT M, et al. Feature linking via stimulus-evoked oscillations: experimental results from cat visual cortex and functional implications from a network model [C]// Proceedings of the 1989 International Joint Conference on Neural Networks. Piscataway, NJ: IEEE, 1989: 723-730.
[2] LI J F, ZOU B J, DING L, et al. Image segmentation with PCNN model and immune algorithm [J]. Journal of Computer Systems, 2013, 8(9): 2429-2436.
[3] ZHOU D G, GAO C, GUO Y C. A coarse-to-fine strategy for iterative segmentation using simplified pulse-coupled neural network [J]. Soft Computing, 2014, 18(3): 557-570.
[4] 唐寧,江貴平,呂慶文.優(yōu)化的PCNN自適應(yīng)三維圖像分割算法[J].計(jì)算機(jī)應(yīng)用研究,2012,29(4):1591-1594.(TANG N, JIANG G P, LYU Q W. Adaptive 3D image segmentation based on optimized PCNN [J] . Application Research of Computers, 2012, 29 (4): 1591-1594.)
[5] 馬義德,戴若蘭,李廉.一種基于脈沖耦合神經(jīng)網(wǎng)絡(luò)和圖像熵的自動(dòng)圖像分割方法[J].通信學(xué)報(bào),2002,23(1):46-51.(MA Y D, DAI R L, LI L. Automated image segmentation using pulse coupled neural networks and image’s entropy [J]. Journal of China Institute of Communications, 2002, 23 (1): 46-51.)
[6] 于江波,陳后金,王巍,等.脈沖耦合神經(jīng)網(wǎng)絡(luò)在圖像處理中的參數(shù)確定[J].電子學(xué)報(bào),2008,36(1):81-85.(YU J B, CHEN H J, WANG W, et al. Parameter determination of pulse coupled neural network in image processing [J]. Acta Electronica Sinica, 2008, 36(1): 81-85.)
[7] 趙峙江,趙春暉,張志宏.一種新的PCNN模型參數(shù)估算方法[J].電子學(xué)報(bào),2007,35(5):996-1000.(ZHAO Z J, ZHAO C H, ZHANG Z H. A new method of PCNN’s parameter’s optimization [J] . Acta Electronica Sinica, 2007, 35(5): 996-1000.)
[8] YONEKAWA M, KUROKAWA H. An automatic parameter adjustment method of pulse coupled neural network for image segmentation [C]// Proceedings of the 2009 19th International Conference on Artificial Neural Networks, LNCS 5768. Berlin: Springer, 2009: 834-843.
[9] LI X J, MA Y D, FENG X W. Self-adaptive autowave pulse-coupled neural network for shortest-path problem [J]. Neurocomputing, 2013, 115: 63-71.
[10] UNNIKRISHNAN R, PANTOFARU C, HEBERT M. Toward objective evaluation of image segmentation algorithms [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2007, 29(6): 929-944.
[11] 景曉軍,蔡安妮,孫景鰲.一種基于二維最大類間方差的圖像分割算法[J].通信學(xué)報(bào),2001,22(4):71-76.(JING X J, CAI A N, SUN J A. Image segmentation based on 2D maximum between-cluster variance [J] . Journal of China Institute of Communications, 2001, 22 (4): 71-76.)
[12] 景曉軍,李劍峰,劉郁林.一種基于三維最大類間方差的圖像分割算法[J].電子學(xué)報(bào),2003,31(9):1281-1285.(JIAO X J, LI J F, LIU Y L. Image segmentation based on 3-D maximum between-cluster variance [J] .Acta Electronica Sinica, 2003, 31 (9): 1281-1285.)
[13] 范九倫,趙鳳,張雪峰.三維Otsu閾值分割方法的遞推算法[J].電子學(xué)報(bào),2007,35(7):1398-1402.(FAN J L, ZHAO F, ZHANG X F. Recursive algorithm for three-dimensional Otsu’s thresholding segmentation method [J] . Acta Electronica Sinica, 2007, 35 (7): 1398-1402.)
[14] HELEN R, KAMARAJ N, SELVI K, et al. Segmentation of pulmonary parenchyma in CT lung images based on 2D Otsu optimized by PSO [C]// Proceedings of the 2011 International Conference on Emerging Trends in Electrical and Computer Technology. Piscataway, NJ: IEEE, 2011: 536-541.
[15] 鄧凱英,鄧競(jìng)偉,孫鐵利.基于Tempered Lévy Flight隨機(jī)游走模型的布谷鳥(niǎo)搜索算法[J].計(jì)算機(jī)應(yīng)用研究,2016,33(10):2992-2996.(DENG K Y, DENG J W, SUN T L. Cuckoo search algorithm based on Tempered Lévy Flight random walk model [J]. Application Research of Computers, 2016, 33 (10): 2992-2996.)
[16] 劉長(zhǎng)平,葉春明.一種新穎的仿生群智能優(yōu)化算法:螢火蟲(chóng)算法[J].計(jì)算機(jī)應(yīng)用研究,2011,28(9):3295-3297.(LIU C P, YE C M. Novel bioinspired swarm intelligence optimization algorithm: firefly algorithm [J] . Application Research of Computers, 2011, 28 (9): 3295-3297.)
[17] 熊志輝,李思昆,陳吉華.遺傳算法與螞蟻算法動(dòng)態(tài)融合的軟硬件劃分[J].軟件學(xué)報(bào),2005,16(4):503-512.(XIONG Z H, LI S K, CHEN J H. Hardware/software partitioning based on dynamic combination of genetic algorithm and ant algorithm [J]. Journal of Software, 2005, 16 (4): 503-512.)
[18] 姜楓,顧慶,郝慧珍,等.基于內(nèi)容的圖像分割方法綜述[J].軟件學(xué)報(bào),2017,28(1):160-183.(JIANG F, GU Q, HAO H Z, et al. Survey on content-based image segmentation methods [J] . Journal of Software, 2017, 28 (1): 160-183.)[19] LI Z Q, CHEN J S. Superpixel segmentation using linear spectral clustering [C]// Proceedings of the 2015 IEEE Conference on Computer Vision and Pattern Recognition. Washington, DC: IEEE Computer Society, 2015: 1356-1363.
[20] ACHANTA R, SHAJI A, SMITH K, et al. SLIC superpixels compared to state-of-the-art superpixel methods [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2012, 34(11): 2274-2282.
[21] LONG J, SHELHAMER E, DARRELL T. Fully convolutional networks for semantic segmentation [C]// Proceedings of the 2015 IEEE Conference on Computer Vision and Pattern Recognition. Washington, DC: IEEE Computer Society, 2015: 3431-3440.
[22] HARIHARAN B, ARBELAEZ P, GIRSHICK R, et al. Hypercolumns for object segmentation and fine-grained localization [C]// Proceedings of the 2015 IEEE Computer Conference on Vision and Pattern Recognition. Washington, DC: IEEE Computer Society, 2015: 447-456.
[23] ZHENG S, JAYASUMANA S, ROMERA-PAREDES B, et al. Conditional random fields as recurrent neural networks [C]// Proceedings of the 2015 IEEE Computer Conference on Computer Vision and Pattern Recognition. Washington, DC: IEEE Computer Society, 2015: 1529-1537.
[24] EVERINGHAM M, WILLIAMS C. The PASCAL Visual Object Classes challenge 2010 (VOC2010) part 1 — challenge & classification task [C]// Proceedings of the 2010 International Conference on Machine Learning Challenges: Evaluating Predictive Uncertainty Visual Object Classification. Berlin: Springer, 2010: 117-176.
This work is partially supported by the National Natural Science Foundation of China (61471311).
CHENGShuli, born in 1990, M. S. candidate. His research interests include image processing.
WANGLiejun, born in 1975, Ph. D., professor. His research interests include image processing, wireless sensor network.
QINJiwei, born in 1978, Ph. D., lecturer. Her research interests include data mining.
DUAnyu, born in 1993, M. S. candidate. Her research interests include wireless sensor network.
ImagesegmentationalgorithmbasedonfusionofgroupintelligentalgorithmoptimizedOTSU-entropyandpulsecoupledneuralnetwork
CHENG Shuli1, WANG Liejun2*, QIN Jiwei3, DU Anyu1
(1.CollegeofInformationScienceandEngineering,XinjiangUniversity,UrumqiXinjiang830046,China;2.CollegeofSoftware,XinjiangUniversity,UrumqiXinjiang830046,China;3.NetworkandInformationTechnologyCenter,XinjiangUniversity,UrumqiXinjiang830046,China)
The image segmentation results under the maximum interclass variance criterion have the problems that the original information is not enough, the real-time performance is poor, the number of iterations in the Pulse Coupled Neural Network (PCNN) model is difficult to determine. In order to solve the problems, a new automatic image segmentation algorithm was proposed based on the fusion of group intelligent algorithm optimized OTSU-entropy (OTSU-H) and PCNN. Firstly, the gray distribution information and related information of the image were used to fuse redundancy, competition and complementarity of the image effectively, at the same time, the two-dimensional and three-dimensional observation space were constructed. The fast recursive algorithm of OTSU-H criterion was proposed. Secondly, the objective function of the fast recursive algorithm was respectively used as the fitness function of the four group intelligent algorithms of Cuckoo Search (CS) algorithm, Firefly Algorithm (FA), Particle Swarm Optimization (PSO) algorithm and Genetic Algorithm (GA). Finally, the optimized OTSU-H was introduced into the PCNN model to acquire the number of iterations automatically. The experimental results show that, compared with the original OTSU, the maximum entropy criterion, the image segmentation algorithms based on graph theory segmentation, pixel clustering segmentation and candidate region semantic segmentation, the proposed algorithm has better image segmentation effect, reduces the computational complexity, saves the storage space of the computer, and has strong anti-noise ability. In addition, the proposed algorithm has a wide range of applications with the characteristics of less time consumption and not need training.
image segmentation; Pulse Coupled Neural Network (PCNN); Cuckoo Search (CS) algorithm; Firefly Algorithm (FA); Particle Swarm Optimization (PSO) algorithm; Genetic Algorithm (GA)
2017- 06- 01;
2017- 08- 12。
國(guó)家自然科學(xué)基金資助項(xiàng)目(61471311)。
程述立(1990—),男,陜西安康人,碩士研究生,主要研究方向:圖像處理; 汪烈軍(1975—),男,四川雅安人,教授,博士生導(dǎo)師,博士,主要研究方向:圖像處理、無(wú)線傳感網(wǎng); 秦繼偉(1978—),女,河南汲縣人,講師,博士,主要研究方向:數(shù)據(jù)挖掘; 杜安鈺(1993—),女,新疆烏魯木齊人,碩士研究生,主要研究方向:無(wú)線傳感網(wǎng)。
1001- 9081(2017)12- 3528- 08
10.11772/j.issn.1001- 9081.2017.12.3528
(*通信作者電子郵箱wljxju@xju.edu.cn)
TP391.41
A