劉 軍 李子毅
(蘭州理工大學(xué)機電工程學(xué)院 蘭州 730050)
圖像分割是機械視覺關(guān)鍵技術(shù)之一,其主要是通過把圖像分成各具特性的區(qū)域并將感興趣的區(qū)域提取出來,從而為后續(xù)的圖像分析奠定基礎(chǔ)[1]。自20世紀50年代以來國內(nèi)外學(xué)者就對其開展了廣泛研究,經(jīng)過多年發(fā)展目前應(yīng)用較廣泛、相對成熟的算法有閾值分割法[2]、邊緣檢測法[3]、聚類分割法[4]等。閾值分割法的原理是用一個或若干個閾值對圖像的灰度值進行分類處理,并將灰度值介于某一范圍的像素歸并為同一物體。其優(yōu)點是計算簡單、實用性強,但對噪聲比較敏感,當背景復(fù)雜時易丟失邊界信息,造成分割錯誤[5]。邊緣檢測法的原理是通過對鄰域像素進行運算確定邊緣點,然后按一定策略將邊緣點連接成閉合曲線,從而構(gòu)成分割區(qū)域。其優(yōu)點是被分割對象輪廓位置準確,但對含噪圖像分割時效果不理想,需對輪廓邊界進行修正[5]。聚類分割法通過對灰度圖像和彩色圖像中相似灰度或色度合并,將圖像劃分為不同的區(qū)域,該方法具有符合人類認知特性、描述簡潔明晰、易于實現(xiàn)等特點,但也存在諸如計算復(fù)雜、算法性能依賴于初始聚類中心、對噪聲較敏感等問題[6]。
PCNN作為第三代人工神經(jīng)網(wǎng)絡(luò)的新模型,具有優(yōu)良的生物學(xué)背景以及捕獲、同步脈沖發(fā)放等特性[7],因此被引用到圖像分割中并得到了廣泛運用[8],例如,Kuntimad 和 Ranganath[9]在 1999年闡明PCNN分割原理后將其應(yīng)用于圖像分割并取得了較好的分割效果。馬義德[10]等在2002年首次將香農(nóng)熵引進PCNN圖像分割中,利用香農(nóng)熵最大準則確定分割迭代次數(shù),進而獲得最佳分割結(jié)果。上述文獻雖將PCNN成功用于簡單圖像的分割,但對于對比度較低、背景或目標灰度分布較復(fù)雜圖像的分割,仍存在一些實際應(yīng)用上的局限性,例如PCNN模型結(jié)構(gòu)復(fù)雜,參數(shù)繁雜,調(diào)試難度大,直接應(yīng)用于圖像分割比較復(fù)雜,因此學(xué)者更加注重脈沖耦合神經(jīng)網(wǎng)絡(luò)的簡化以及參數(shù)自動設(shè)定的研究[11~12]。例如文獻[13]提出利用OTSU法計算PCNN的初始閾值,該方法計算初始閾值時僅考慮了圖像像元的灰度分布信息,而沒有充分考慮像元之間的空間相關(guān)信息,在圖像質(zhì)量較好和背景穩(wěn)定變化情況下可得到較理想閾值,但圖像的信噪比較低時得到的閾值不理想。文獻[14]提出利用多小波域圖像方向?qū)Ρ榷鹊慕^對值作為神經(jīng)元的鏈接強度系數(shù),但連接權(quán)值矩陣仍采用固定值,使算法的普遍適用性受到限 制 。 文 獻[15]提 出 的 Unit—linking PCNN(ULPCNN)算法,應(yīng)用于圖像分割雖然能取得較好的效果,但對于對比度較低、背景或目標灰度分布較復(fù)雜的圖像,仍存在局限性。
基于此,受文獻[12]的啟發(fā),為了更好地解決復(fù)雜背景環(huán)境下圖像的分割問題,提出一種改進型PCNN圖像分割算法。該算法結(jié)合二維最大類間方差法對初始閾值進行優(yōu)化,由于其綜合考慮圖像像元的灰度分布信息及像元之間的空間位置信息,與傳統(tǒng)的實驗法相比在圖像質(zhì)量較差、背景復(fù)雜的情況下同樣可得到較理想的閾值,并且為了提高算法的實時性,依據(jù)遞推原理推導(dǎo)出了相應(yīng)快速遞推公式,解決了初始閾值的快速自動標定問題;同時,在生物視覺系統(tǒng)中,每個神經(jīng)元的連接強度與其相鄰神經(jīng)元有一定關(guān)系,而在根據(jù)實驗選擇一個相同連接強度的傳統(tǒng)PCNN分割算法中均未考慮,同時考慮到人眼視覺對圖像中灰度的變化十分敏感,即視覺處理對于灰度變化明顯區(qū)域的反應(yīng)比灰度變化不明顯區(qū)域的反應(yīng)強烈,所以神經(jīng)元的連接強度與鄰域神經(jīng)元灰度變化有關(guān)。均方差反映了組內(nèi)個體間的離散程度,因此可通過計算圖像局部灰度均方差表示灰度變化程度,從而利用圖像局部灰度均方差確定連接強度系數(shù);在PCNN模型中當鄰域神經(jīng)元中存在距離和灰度差異時它們對中心神經(jīng)元的影響程度是不同的,因此本文綜合考慮像素點的空間距離和灰度值差異確定其連接權(quán)值矩陣,解決了PCNN網(wǎng)絡(luò)關(guān)鍵參數(shù)的自動標定問題。最后依據(jù)信息熵最大原則判別分割結(jié)果,最終實現(xiàn)了目標對象自適應(yīng)自動分割。實驗表明,本算法較傳統(tǒng)PCNN算法具有圖像分割速度快、目標輪廓分割清晰、抗干擾性強等優(yōu)點,可為后續(xù)的高級圖像智能分析提供極大的便利。
構(gòu)成PCNN的神經(jīng)元是一個綜合動態(tài)多參數(shù)非線性系統(tǒng),它包括接受域、內(nèi)部活動部分(調(diào)制部分)和脈沖發(fā)生器三部分,其數(shù)學(xué)模型如圖1所示。
圖1 脈沖耦合神經(jīng)網(wǎng)絡(luò)神經(jīng)元模型
由于傳統(tǒng)PCNN模型神經(jīng)元間存在大量的反饋連接對其進行數(shù)學(xué)分析十分困難,同時模型中大量的參數(shù)需要依據(jù)經(jīng)驗或大量實驗確定,因此該模型存在一些實際應(yīng)用上的局限性。為了更好地滿足圖像處理中的實際需要,本文借鑒文獻[16]研究成果,采用如下模型:
其中,i、j為神經(jīng)元的標號;Iij、Fij[n]、Lij[n]、Uij[n] 、θij[n]、Yij[n]分別為神經(jīng)元的外部刺激、第(i , j)神經(jīng)元的n次反饋輸入、線性連接輸入、內(nèi)部活動項、動態(tài)閾值和PCNN產(chǎn)生輸出的時序脈沖序列;αθ為θij的衰減時間常數(shù);β表示神經(jīng)元突觸間的連接強度;wijkl為鏈接權(quán)值矩陣。
利用PCNN進行圖像分割時,通常將每個像素對應(yīng)一個PCNN神經(jīng)元,歸一化的像素灰度值作為外界刺激信號,將這些神經(jīng)元按一定方式連接,就得到一個單層脈沖耦合神經(jīng)網(wǎng)絡(luò)。向網(wǎng)絡(luò)輸入一幅圖像,當某一個象素對應(yīng)的神經(jīng)元發(fā)生脈沖,鄰域內(nèi)與它相似的神經(jīng)元也發(fā)生脈沖。產(chǎn)生的脈沖序列Yij[n]構(gòu)成一幅二值圖像序列,該序列依賴于網(wǎng)絡(luò)參數(shù)的選取。顯然該序列包含有圖像的區(qū)域、邊緣、紋理等信息,這樣輸出序列就構(gòu)成了PCNN的輸出分割圖像。
以圖2(a)為例,設(shè)圖像中(i , j)處像元的灰度值為s,以它為中心k×l鄰域內(nèi)像元平均灰度值為t。將測試圖像的二維直方圖定義在一個256×256 的正方形區(qū)域,如圖2(c)、圖2(d)所示,其橫坐標表示圖像像元的灰度值,縱坐標表示像元的鄰域平均灰度值。同時,由圖2(c)、圖2(d)可知,圖像大部分像元集中在直方圖的對角線上,可用灰度值s及灰度均值t組成的閾值對(s ,t) 將二維灰度直方圖的定義域分割成4個區(qū)域,分別用A、B、C、D表示,如圖2(e)所示。由于目標內(nèi)部或背景內(nèi)部的像點之間相關(guān)性很強,像點的灰度值和它的鄰域平均灰度非常接近;而在目標和背景的邊界附近的像點,它的灰度值和鄰域平均灰度間差異明顯,基于以上認識,圖2(e)中區(qū)域A和背景對應(yīng)區(qū)域D和目標對應(yīng),而區(qū)域C和區(qū)域B表示邊界附近
文獻[17]指出,上述式(4)中初始閾值的確定非常關(guān)鍵,在大多文獻中都采用經(jīng)驗值。而初始閾值選取不準確易造成模型在首次迭代時神經(jīng)脈沖的錯誤發(fā)放,同時初始閾值的選取對尋優(yōu)速度也有決定性作用。本文綜合考慮圖像像元的灰度分布信息及像元之間的空間位置信息,利用二維最大類間方差法對初始閾值進行優(yōu)化,并且為了提高算法的實時性,推導(dǎo)并給出了相關(guān)快速遞推公式。像點和噪聲點。
圖2 測試圖像的二維直方圖及定義域
背景區(qū)域的先驗概率ω0與目標區(qū)域的先驗概率ω1分別為
式中,C0、C1分別表示與背景和目標相對應(yīng)的兩類區(qū)域。 pij表示閾值對( )s,t發(fā)生的聯(lián)合概率,L為圖像的灰度級,0≤i,j<L-1;0≤s,t<L。
背景和目標類對應(yīng)的均值
式中,T表示矩陣轉(zhuǎn)質(zhì);i表示像素點的行;j表示像素點的列。
總體均值可表示為
現(xiàn)在我們在二維直方圖的基礎(chǔ)上,定義目標和背景間的分離程度矩陣(類間方差)為
由于二維最大類間方差法在計算閾值時需遍歷全部的s和t(0 ≤s,t≤255) ,即搜索次數(shù)為2552,計算時間長、復(fù)雜度大、影響實時性能。為解決以上問題,本文結(jié)合遞推原理導(dǎo)出其相關(guān)快速遞推公式,其推導(dǎo)過程如下:
設(shè) ω0(s ,t)的計算順序是從圖3(a)的左上角開始,從左到右,從上到下進行。假設(shè)在圖3(a)中ω0(s ,t-1)(用黑點表示)和 ω0(s -1,t)(用交叉點表示)已經(jīng)計算完畢,則可以利用這些已知量來簡化對當前位置ω0( )s,t 的計算。
圖3 二維最大類間方差法的快速遞推算法示意圖
圖3(b)中,ω0(s ,t-1)對應(yīng)于橫線區(qū)域和左斜線區(qū)域內(nèi)所有 pij的總和,ω0(s -1,t)對應(yīng)于橫線區(qū)域和右斜線區(qū)域內(nèi)所有 pij的總和,ω0(s -1,t-1)對應(yīng)于橫線區(qū)域內(nèi)所有 pij的總和,pst對應(yīng)于交叉線區(qū)域內(nèi)所有 pij的總和。計算ω0(s ,t)則要對左斜線、右斜線、橫線和方格線這四個區(qū)域內(nèi)所有 pij求和。由此,得出計算ω0(s ,t) 的遞推公式如下
采用以上快速遞推的計算過程,降低了計算復(fù)雜度,節(jié)省了計算時間,提高了算法的實時性,同時減少了計算所需的存儲空間。
在PCNN模型中,當 β≠0就形成耦合連接情況,此時利用耦合連接輸入L對反饋輸入F進行調(diào)節(jié)是神經(jīng)元之間通信的關(guān)鍵,先假定有兩個耦合神經(jīng)元ij和kl,而且這兩個神經(jīng)元對應(yīng)的激勵滿足
此時當外部輸入較大的激勵使神經(jīng)元ij在t時刻點火而輸出脈沖,通過耦合連接作用把已點火的神經(jīng)元臨近的神經(jīng)元kl的內(nèi)部行為在這一刻由原來的Ikl被調(diào)制為Ikl( )1+βLkl,即神經(jīng)元 kl對應(yīng)像素的亮度強度由Ikl被抬升為Ikl( )1+βLkl。所以,只要當式時,神經(jīng)元kl被神經(jīng)元ij捕獲,并在接近t時刻提前點火。
結(jié)合式(19)和式(20)有 Ikl被捕獲的灰度范圍
由式(21)可知,當連接強度系數(shù) β、耦合連接L值越大,則能夠點火的范圍越寬,能夠滿足同步點火的神經(jīng)元就越多。
由以上分析可知,連接強度系數(shù)β反映了相鄰神經(jīng)元與中心神經(jīng)元之間耦合強度,是影響神經(jīng)元捕獲特性和同步脈沖發(fā)放特性的關(guān)鍵參數(shù)。其定義式如下
其中xkl表示以(i , j)為中心的鄰域神經(jīng)元的灰度值,xˉij表示 (i , j)為中心的k×l區(qū)域內(nèi)神經(jīng)元灰度均值,s表示k,l的取值范圍,n表示k×l區(qū)域內(nèi)神經(jīng)元個數(shù),βij表示中心神經(jīng)元的連接強度系數(shù)。
由于視覺系統(tǒng)對灰度分布不均勻的區(qū)域較敏感,且灰度分布不均勻的區(qū)域在圖像中大多是物體的邊緣,因此通過計算局部灰度均方差σ確定連接強度系數(shù)β,在一定程度上兼顧了區(qū)域分割的完整性和邊緣信息的保留。
PCNN模型中,ωijkl為耦合連接輸入域Lij[n]中Ykl[n-1]的加權(quán)系數(shù)。表示中心神經(jīng)元受周圍神經(jīng)元影響的大小,反映鄰近神經(jīng)元對中心神經(jīng)元傳遞信息的強弱。假設(shè)某一神經(jīng)元位于一個n×n(一般為3×3或5×5)連接權(quán)值矩陣ωijkl的中心,其相鄰像素為該矩陣中對應(yīng)的神經(jīng)元,每一個神經(jīng)元與其相鄰神經(jīng)元連接權(quán)值在大多文獻中采用其相鄰神經(jīng)元的歐幾里得距離平方倒數(shù),即神經(jīng)元ij與神經(jīng)元kl的連接權(quán)為
由于神經(jīng)元的耦合連接強度不僅和神經(jīng)元之間的距離有關(guān),還和神經(jīng)元的灰度值有關(guān)。本文受式(23)的啟發(fā),在此基礎(chǔ)上綜合考慮像素間的空間、灰度差異對其進行改進,得到以下連接權(quán)值ωijkl表達式:
其中,(i+k,j+l)表示以神經(jīng)元ij為中心的相鄰神經(jīng)元,dspace(i + k,j+l)表示相鄰神經(jīng)元與中心神經(jīng)元ij歐氏距離,即dspace(i + k,j+l)=(i -k)2+( j -l)2。dgrey(i + k,j+l)表示相鄰神經(jīng)元與中心神經(jīng) 元ij灰度差值,即dgrey(i + k,j+l)=g(i ,j)-g(i + k,j+l) 。
在式(25)中為避免中心神經(jīng)元與相鄰神經(jīng)元灰度值相同時出現(xiàn)|dspace(i + k,j+l) ×dgrey(i + k,j+l) |為零而導(dǎo)致分母為零的情況,所以在此表達式上加常數(shù)1,從而得到連接強度矩陣ωijkl的最終表達式:
由式(25)可知中心神經(jīng)元與相鄰神經(jīng)元的灰度差異越大或空間距離越大時其對應(yīng)連接權(quán)值越小,表明中心神經(jīng)元受相鄰神經(jīng)元影響越小,即相鄰神經(jīng)元對中心神經(jīng)元傳遞信息的越弱,反之亦然。
熵是圖像統(tǒng)計特性的一種表現(xiàn)形式,反映了圖像包含信息量的大小。一般分割后圖像熵值越大,說明分割后從原圖得到信息量越大,分割圖像細節(jié)越豐富,因而分割效果也越好。本文在實現(xiàn)初始閾值及關(guān)鍵參數(shù)自動標定的基礎(chǔ)上結(jié)合圖像信息熵最大原則作為最優(yōu)分割結(jié)果的判別準則。其定義式:
其中,P0和P1分別表示分割圖像二值輸出Y[n]為0和1的概率。
Step1:初始化
1)令圖像中的每一個像素作為一個神經(jīng)元,并將歸一化的像素灰度值作為外界激勵信號Iij輸入網(wǎng)絡(luò),即Fij[]n=Iij。
2)初始化PCNN模型中的參數(shù)。設(shè)定衰減時間常數(shù)αθ=0.15,確定模型最大迭代次數(shù)n0=30。
3)利用式(13)、(14)計算PCNN模型的最佳初始閾值。
4)利用式(22)、(25)優(yōu)化網(wǎng)絡(luò)參數(shù) β 和W ,并將其保存。
5)Y[0]=0,最大熵Hmax=0。
Step2:迭代變量n=1。
Step3:由式(1)~(5)計算每個PCNN神經(jīng)元的內(nèi)部活動項和動態(tài)門限,比較Uij[n]和Eij[n -1]大小,如果Uij[n]≥Eij[n -1],則Yij[n]=1即該神經(jīng)元Iij激發(fā),標記該神經(jīng)元,該神經(jīng)元始終保持激發(fā)狀態(tài)。
Step4:計算 Y[n]所代表的二值圖像的香農(nóng)熵H ,若 H>Hmax,Hmax=H ,YS=Y(n)。
Step5:n=n+1。
Step6:若 n<n0轉(zhuǎn)到Step3;否則結(jié)束,輸出YS,即為圖像自動分割結(jié)果。
本文以Matlab R2010a為仿真環(huán)境,選用Lena和室外監(jiān)控抓拍圖像為代表,對本算法進行測試。并與OTSU算法分割結(jié)果、傳統(tǒng)PCNN模型的分割結(jié)果進行對比以驗證本算法的有效性。注意,本文針對該算法進行了大量測試工作,受篇幅限制,僅列舉了部分典型圖像的測試結(jié)果。
圖4、圖5分別給出測試圖像的分割結(jié)果,表1列出了圖像分割中的關(guān)鍵實驗數(shù)據(jù),表2給出了圖像分割結(jié)果的客觀評價結(jié)果。
圖4 Lena圖像分割結(jié)果
對比圖4(b)、圖4(c)和圖4(d),相比OTSU算法和傳統(tǒng)PCNN模型,由于本文方法在網(wǎng)絡(luò)關(guān)鍵參數(shù)選取時,充分利用了神經(jīng)元之間的耦合特性和測試圖像自身的空間和灰度特性,使得分割圖像帽子上的飾物、肩部的頭發(fā)、面部輪廓、五官及背景分割完整清晰。由于室外監(jiān)控拍攝圖像干擾較多、背景復(fù)雜,對此類圖像的分割一直是圖像分割領(lǐng)域的一個難點,對比圖5(b)、圖5(c)和圖5(d)可知,利用本文方法將行人區(qū)域清晰分割出來,且行人輪廓完整、動作姿態(tài)清晰可辨,同時對于背景中包含大量細節(jié)的物體,例如樹木、建筑物、汽車、地面鋪設(shè)瓷磚的紋理等,本文算法的分割效果極大地改善了OTSU算法和傳統(tǒng)PCNN算法分割目標輪廓模糊、不完整的缺陷,能夠較好地反映物體的形狀特征。
圖5 室外監(jiān)控抓拍圖像分割結(jié)果
分析表1數(shù)據(jù)可知,由于本文算法利用二維最大類間方差法優(yōu)化初始閾值時,綜合考慮圖像像元的灰度分布信息及像元之間的空間位置信息,相比傳統(tǒng)的依據(jù)經(jīng)驗確定的閾值更加準確。對于Lena圖像的分割,采用本文方法當分割圖像信息熵最大值時迭代次數(shù)nmax為2,而采用傳統(tǒng)PCNN模型當分割圖像信息熵最大值時迭代次數(shù)nmax為20,本文方法的尋優(yōu)次數(shù)明顯小于傳統(tǒng)PCNN模型的尋優(yōu)次數(shù)。同時對于室外監(jiān)控拍攝圖像的分割也可得到同樣的結(jié)果。即本文方法較傳統(tǒng)PCNN方法,在較少尋優(yōu)次數(shù)內(nèi)達到最佳分割效果,從而節(jié)省了分割時間,提高了分割效率。同樣,通過分析表1數(shù)據(jù)可知,本文方法對于測試圖像的分割結(jié)果均優(yōu)于OTSU算法分割結(jié)果,尤其對于室外監(jiān)控抓拍復(fù)雜背景環(huán)境下圖像的分割本文方法更具優(yōu)勢。由于OTSU方法對噪聲比較敏感,因此對室外監(jiān)控抓拍復(fù)雜背景環(huán)境下圖像的分割中未能得到較好的結(jié)果。但對于圖像中受陰影影響的部分,基于以上方法的分割效果都不太理想,還需對PCNN模型進一步完善。
表1 基于兩種算法的圖像分割實驗數(shù)據(jù)
表2 圖像分割結(jié)果的客觀評價結(jié)果
此外,為了對三種方法的分割結(jié)果進行量化的比較分析,采用區(qū)域?qū)Ρ榷菴M、區(qū)域一致性UM作為對測試圖像分割結(jié)果的客觀評價指標。此指標是客觀定量的,其值越大,則分割效果越好。由表2可知,本文算法準確有效,優(yōu)于其他兩種算法。
綜上所述,本算法具有可行性,且具有圖像分割速度快、目標輪廓分割清晰、抗干擾性強等優(yōu)點,可為后續(xù)的高級圖像智能分析提供極大的便利。
針對復(fù)雜背景環(huán)境下傳統(tǒng)圖像分割算法存在分割精度低、抗干擾性差等問題,提出一種改進型PCNN圖像分割算法以更好地解決復(fù)雜背景環(huán)境下圖像的分割問題。該算法綜合考慮圖像像元的灰度分布信息及像元之間的空間位置信息,利用二維最大類間方差法對初始閾值進行優(yōu)化,推導(dǎo)并給出了相關(guān)快速遞推公式。對網(wǎng)絡(luò)關(guān)鍵參數(shù)優(yōu)化時,從PCNN的耦合特性出發(fā),結(jié)合了圖像自身空間和灰度特性提出了相關(guān)優(yōu)化方法。實驗證明,該算法對復(fù)雜背景環(huán)境下的圖像具有較好的處理能力和分割效果。下一階段,本文從模型的動態(tài)特性出發(fā)對其進行研究,以解決對陰影影響較敏感的問題。
[1]RAYA T H,BETTAIAH V,RANGANATH H S.Adaptive Pulse Coupled Neural Network parameters for image seg?mentation[J].World Academy of Science Engineering&Technology,2011,73:1046-1052.
[2]劉超,蔡文華,陸玲.圖像閾值法分割綜述[J].電腦知識與技術(shù),2015(1):140-142.
LIU Chao,CAI Wenhua,LU Ling.Survey on the Method of Image Threshold Segmentation[J].Computer Knowl?edge And Technology,2015(1):140-142.
[3]LU Y,MIAO J,DUAN L,et al.A new approach to image segmentation based on simplified region growing PCNN[J].Applied Mathematics&Computation,2008,205(2):807-814.
[4]YU H,LIU Z,WANG G.An automatic method to deter?mine the number of clusters using decision-theoretic rough set[J].International Journal of Approximate Rea?soning,2014,55(1):101-115.
[5]劉勍.基于脈沖耦合神經(jīng)網(wǎng)絡(luò)的圖像處理若干問題研究[D].西安:西安電子科技大學(xué),2011.
LIU Qing.Research on Several Issues about Image Pro?cessing Based on Pulse Coupled Neural Networks[D].Xi'an:Xidian University,2011.
[6]WU J,XIA J,CHEN J M,et al.Adaptive detection of mov?ing vehicle based on on-line clustering[J].Journal of Computers,2011,6(10):2045-2052.
[7]HELMY A K,El-TAWEEL G S.Image segmentation scheme based on SOM-PCNN in frequency domain[J].Applied Soft Computing,2016,40:405-415.
[8]SUBASHINI M M,SAHOO S K.Pulse coupled neural net?works and its applications[J].Expert Systems with Appli?cations,2014,41(8):3965-3974.
[9]G.Kuntimad G,Heggere S.Ranganath.Perfect image seg?mentation using pulse coupled neural networks[J].IEEE Transactions on Neural Networks,1999,10(3):591-598.
[10]馬義德,戴若蘭,李廉.一種基于脈沖耦合神經(jīng)網(wǎng)絡(luò)和圖像熵的自動圖像分割方法[J].通信學(xué)報,2002,23(1):46-51.
MA Yide,DAI Ruolan,LI Lian.Automated Image Seg?mentation Using Pulse Coupled Neural Networks and Im?age's Entropy[J].Journal on Communication,2002,23(1):46-51.
[11]CHEN Y,PARK S K,MA Y,et al.A New Automatic Parameter Setting Method of a Simplified PCNN for Im?age Segmentation[J].Neural Networks IEEE Transac?tions on,2011,22(6):880-892.
[12]WEI S,HONG Q,HOU M.Automatic image segmenta?tion based on PCNN with adaptive threshold time con?stant[J].Neurocomputing,2011,74(9):1485-1491.
[13]楊娜,陳后金,李艷鳳,等.PCNN模型耦合參數(shù)的優(yōu)化及車輛圖像分割[J].交通運輸系統(tǒng)工程與信息,2012,12(1):48-54.
YANG Na,CHEN Houjin,LI Yanfeng,et al.Optimiza?tion of Pulse Coupled Neural Networks Coupling Parame?ter and Image Segmentation of License Plate[J].Journal of Transportation Systems Engineering and Information Technology,2012,12(1):48-54.
[14]王志慧,趙保軍,沈庭芝.基于MMPN和可調(diào)節(jié)鏈接強度的圖像融合[J].電子學(xué)報,2015,5(1):140-142.
WANG Zhihui,ZHAO Baojun,SHEN Tingzhi.Image Fu?sion Based on MMPN and Adjustable Linking Strength[J].Acta Electronica Sinica,2015,5(1):140-142.
[15]譚穎芳,周冬明,趙東風(fēng),等.Unit-Linking PCNN和圖像熵的彩色圖像分割與邊緣檢測[J].計算機工程與應(yīng)用,2009,45(12):174-177.
TAN Yingfang,ZHOU Dongming,ZHAO Dongfeng,et al.Color Image Segmentation and Edge Detection Using Unit-Linking PCNN and Image Entropy[J].Computer Engineering and Applications,2009,45(12):174-177.
[16]楊娜.基于脈沖耦合神經(jīng)網(wǎng)絡(luò)的車輛圖像分割研究[D].北京:北京交通大學(xué),2013.
YANG Na.Study on Vehicle Image Segmentation Based on Pulse Coupled Neural Networks[D].Beijing:Beijing Jiaotong University,2013.
[17]Szeliski R.Computer Vision:Algorithms and Applica?tions[J].Journal of Polymer Science Polymer Chemistry Edition,2011,21(8):2601-2605.