梁禮明,吳 健,夏雨辰
(江西理工大學(xué) 電氣工程與自動化學(xué)院,江西 贛州 341000)
?
均值漂移算法的鐵路護欄網(wǎng)格提取
梁禮明,吳 健,夏雨辰
(江西理工大學(xué) 電氣工程與自動化學(xué)院,江西 贛州 341000)
針對鐵路沿線護欄的檢測問題,提出了一種改進的均值漂移算法。首先,從閾值分割算法入手,得到鐵路防護欄網(wǎng)格區(qū)域的顏色范圍;然后,基于均值漂移算法對其進行圖像平滑和分割;再針對產(chǎn)生的過分割圖像,采用基于最小面積的合并停止準(zhǔn)則來進行區(qū)域合并;最后進行網(wǎng)格提取。實例驗證表明:改進的均值漂移算法的效果優(yōu)于傳統(tǒng)的均值漂移算法。
鐵路護欄;網(wǎng)格提??;閾值分割;均值漂移;區(qū)域合并
鐵路護攔網(wǎng)主要用于防止行人或動物穿越鐵路,保護列車線路行駛安全。目前開發(fā)的綜合檢測列車中,都安裝有視頻監(jiān)測系統(tǒng),用于線路環(huán)境監(jiān)測和軌道狀態(tài)檢測,但線路環(huán)境監(jiān)測也只是利用車頭攝像機拍攝列車運行的前方視景,并沒有單獨針對護欄網(wǎng)進行自動檢測[1]。由于對線路環(huán)境信息的分析仍然是人工完成的,因此監(jiān)測效率較低。而全景拍攝的鐵路護攔網(wǎng)用自動化設(shè)備實行實時檢測也很難達到要求[2]。
鐵路護欄檢測方面研究文獻較少,而網(wǎng)格圖像特征提取方面仍有相關(guān)研究。文獻[3]采用基于隱馬爾科夫模型(HMM)解碼方法提取網(wǎng)格圖像中的直線,但處理圖像的背景無干擾。文獻[4]利用網(wǎng)格變化的規(guī)律提取網(wǎng)格特征,但覆蓋在圖像上方的網(wǎng)格必須是完整的。本文研究的鐵路防護欄圖像中的網(wǎng)格區(qū)域在圖像中所占面積比例很小,相當(dāng)于是許多個狹窄的細(xì)小區(qū)域的集合。鐵路護欄圖像分割背景復(fù)雜,網(wǎng)格提取困難,數(shù)據(jù)量巨大,為了以后向?qū)崟r檢測的推廣,不適合采用太過復(fù)雜的分割方法。所以,根據(jù)圖像中比較突出的像素特征和幾何結(jié)構(gòu)的先驗信息等特點,先從經(jīng)典閾值分割方法入手,并重點對均值漂移(Mean Shift)圖像分割等方法的理論和應(yīng)用進行研究。
本次實驗采用的圖像是本項目圖片全圖的1/16,其中圖像的大小為378 pixel×504 pixel。圖像的目標(biāo)為綠色的網(wǎng)格,分別將鐵路護欄圖像RGB空間的3個分量當(dāng)成單獨的灰度圖,用閾值法進行分割;項目采集的原圖像(見圖1a)三分量的直方圖如圖1b、圖1c和圖1d所示,各個分量的直方圖均為單峰值直方圖,通過直方圖閾值法實驗[5],結(jié)果得出無法直接找到合適的閾值。
實驗先采用傳統(tǒng)閾值圖像分割方法對圖像進行分割并觀察效果。圖2為傳統(tǒng)閾值圖像分割方法。圖2a中利用Otsu法[6]獲取的閾值G分量閾值Tg=94;圖2b中利用最大熵閾值分割法[7]獲取的閾值為Tg=158;圖2c中Niblack局部閾值法[8]獲取的閾值為Tg=191;圖2d中手動雙閾值分割法[9]獲取的閾值為Tg=202。
從上述的分割結(jié)果可以看出:對于此類復(fù)雜圖像而言,Otsu法雖然把目標(biāo)區(qū)域(即防護欄網(wǎng))全部分割出來了,但是同時也有許多的背景區(qū)域被提取出來;最大熵閾值分割法得出的二值化圖像中背景幾乎全部被剔除,留下的全是目標(biāo)區(qū)域,但是目標(biāo)區(qū)域不完整;Niblack局部閾值法夸大了圖像細(xì)節(jié),導(dǎo)致圖像中不平滑的背景中的局部噪聲也被分割出來。圖2d采取的是雙閾值二值化方法,在保證目標(biāo)區(qū)域全被提取出的前提下,以O(shè)tsu法所得的閾值為參考,測試網(wǎng)格區(qū)域的各分量的取值范圍:100≤Tg≤230。經(jīng)典閾值分割方法取得良好的分割效果,但由于存在較明顯的過分割和欠分割現(xiàn)象,在精確鐵路護欄網(wǎng)格的提取方面存在不足,因此本文將使用改進的分割方法進行圖像分割。
圖1 原圖及R、G、B各分量直方圖
圖2 傳統(tǒng)閾值圖像分割方法
2.1 均值漂移圖像分割帶寬的選擇
Mean Shift算法濾波過程中最大的優(yōu)點是保存了邊緣圖像的平滑。本文采用的方法是Mean Shift算法推廣到圖像分割中的一個新的應(yīng)用方向[10-14],
(1)
作為核函數(shù),設(shè)置空間帶寬為hs,色度帶寬為hr,則核密度的估計函數(shù)為:
(2)
本文中的x是一個5維的特征向量,鐵路防護欄網(wǎng)圖像處理過程中使用二維空間位置向量xs和三維色度值向量xr。Mean Shift迭代公式為:
(3)
令xi為原始圖像中的像素點的集合,zi(i=1,…,N)為濾波后的圖像對應(yīng)的點,則設(shè)定初始點xi、空間帶寬hs=6、色度帶寬hr=12、最小移動步長ε=0.01和算法最大迭代次數(shù)K=10后,算法循環(huán)執(zhí)行以下步驟:
(Ⅰ)初始下標(biāo)j=1,迭代次數(shù)為k=0,初始待處理點yi,1=xi。
不同的帶寬參數(shù)對圖像分割的結(jié)果是有相當(dāng)大的影響的,一般來說,帶寬參數(shù)的選擇,可以基于目標(biāo)區(qū)域和背景區(qū)域的尺度大小。
圖3a為鐵路護欄網(wǎng)原圖,圖3b~圖3h為帶寬參數(shù)不同時MeanShift對鐵路防護欄圖像分割的效果。表1為鐵路防護欄網(wǎng)各子圖像濾波運算時間對比。
圖3 以帶寬(hr,hs)的值域-空間帶寬濾波鐵路護防欄的子圖像
表1 鐵路防護欄網(wǎng)各子圖像的濾波運算時間 s
從圖像分割實驗可以看出:
(Ⅰ)空間帶寬hs直接決定圖像分割的時間長短,隨著hs的增大,算法運行時間成倍增加;而hs不變,hr由小到大變化,算法運行時間只有略微減少。
(Ⅱ)圖像的分割質(zhì)量決定于色度帶寬hr的大小,隨著hr的增大,背景越平滑,即分割的區(qū)域數(shù)目快速減少;當(dāng)hs不變時,hr由小到大,結(jié)果改變不明顯。
(Ⅲ)空間帶寬hs在過小的hr(如hr=6)下改變時,鐵路防護欄網(wǎng)格的區(qū)域濾波效果不但不明顯,而且過分割現(xiàn)象很嚴(yán)重,如圖3b所示。
(Ⅳ)當(dāng)hr過大(如hr=24、hr=30)時,改變空間帶寬hs,會使圖像過度平滑,欠分割現(xiàn)象較嚴(yán)重,鐵路防護欄網(wǎng)區(qū)域未能全部分離出來,如圖3f~圖3h所示。
(Ⅴ)只有色度帶寬和空間帶寬在合理的范圍內(nèi)取值時,如色度帶寬為12、18時,空間帶寬為6、10時,圖像的分割效果很好,如圖3c~圖3e所示。
為了取得最好的濾波效果且最大限度地保存分割圖像中的網(wǎng)格區(qū)域,采用的空間帶寬為6,色度帶寬為12。
用Mean Shift算法對圖像進行處理時發(fā)現(xiàn):改進的Mean Shift算法在濾波后能很好地突出和保留防護欄圖像邊緣特征。實驗在一臺普通PC機上進行,該機器配置為Intel(R) Core(TM)2 Duo CPU,內(nèi)存為2 GB,算法采用Matlab R2009b環(huán)境下編程實現(xiàn)。經(jīng)過一系列的實驗和測試,以下基本特征出現(xiàn)在鐵路護護欄的網(wǎng)格中:
(Ⅰ)色度特征:網(wǎng)格區(qū)域的RGB各分量的取值范圍相對來說是一定的,經(jīng)過測試獲取他們的范圍分別是:95≤Tr=120,100≤Tg≤230,80≤Tb≤240,Tr、Tg、Tb分別為R分量、G分量、B分量的閾值。
(Ⅱ)幾何特征:網(wǎng)格可以看成橫豎兩個方向的直線,且豎直線的間距近似是相等的,橫直線的相鄰間距也只有兩種。根據(jù)實地測量豎直線的間距為7.0 cm,橫直線的間距為5.5 cm和20.0 cm兩種(即只存在兩種長寬比的網(wǎng)格)。
(Ⅲ)輻射特征:網(wǎng)格一般由兩條相對明顯的邊線標(biāo)識,并且邊線兩邊的灰度有一定的反差效果。
(Ⅳ)拓?fù)涮卣鳎阂话阕o欄網(wǎng)不會突然中斷,網(wǎng)格和網(wǎng)格是彼此連接的。
2.2 分割后區(qū)域合并
為了盡量保存圖像中的網(wǎng)格區(qū)域,在Mean Shift圖像分割時,選取了相對較小的空間帶寬,這時過分割現(xiàn)象就是分割結(jié)果中伴隨的新問題。經(jīng)過Mean Shift算法分割后得到圖像各個區(qū)域內(nèi)部的色度值即為原圖像局部最大值的色度,具有色度一致性的優(yōu)點。但是由于存在過分割現(xiàn)象,圖像區(qū)域之間仍然有部分相似性存在,故采用區(qū)域合并算法。
算法中首先設(shè)置一個最小的面積閾值M0(即像素數(shù)目),將低于這一閾值的小區(qū)域直接合并到其鄰近的相似區(qū)域中作為區(qū)域合并預(yù)處理手段。經(jīng)過測試得出面積最大閾值M1=100。
本文采用基于區(qū)域面積加權(quán)的區(qū)域相似度準(zhǔn)則和基于最小面積閾值的合并停止準(zhǔn)則來進行區(qū)域合并。區(qū)域合并過程為:
(Ⅰ)按照設(shè)定的最小面積(即像素數(shù))M0,將所有的區(qū)域面積小于M0的小區(qū)域直接合并到相鄰的大區(qū)域中。
(Ⅱ)針對被分割圖像R,分別計算出邊緣圖像E、標(biāo)識矩陣B的構(gòu)建區(qū)域鄰接圖RAG,并且計算每個區(qū)域的面積S(Ri)。
(Ⅲ)依據(jù)相似性準(zhǔn)則,依次開始合并面積最小的區(qū)域,將其合并到按式(4)計算出的相似度最大的相鄰區(qū)域中去。
(4)
其中,Ave(Ri)和Ave(Rj)表示兩個區(qū)域邊緣處對應(yīng)的梯度的均值。
(Ⅳ)更新區(qū)域鄰接圖RAG,重復(fù)步驟(Ⅲ),直到所有區(qū)域的面積大于閾值100。
圖4a是鐵路防護欄網(wǎng)格的圖例。圖4b是應(yīng)用本文所提的自動Mean Shift方法分割后的效果圖像,其中分割參數(shù)hs=6,圖像中最小像素值M0=10。圖4c是原圖像分割后對顏色范圍提取的二值化圖像。圖4d是對上一步分割后的圖像按照本文所提出的圖像網(wǎng)格區(qū)域合并策略,并采用了最小面積閾值(M1=100)所得到的分割效果圖像。將前后兩種方法的分割效果圖像對比后不難看出:所改進的Mean Shift算法能夠較好地分割防護欄網(wǎng)圖像,把防護欄網(wǎng)格的區(qū)域較為明顯地突出來,雖然過分割現(xiàn)象在分割后的圖像中也伴隨顯現(xiàn)出來,但采用區(qū)域合并方法后能夠得到較好的二值化圖像,基本消除了過分割所產(chǎn)生的問題。
圖4 區(qū)域合并實驗結(jié)果
實驗采用項目所采集的鐵路防護欄圖像,對鐵路防護欄圖像進行了普通Mean Shift分割和改進的組合Mean Shift分割,分割結(jié)果如圖5所示。
圖5a為本項目采集的鐵路防護欄原圖像;圖5b是普通Mean Shift分割結(jié)果,分割參數(shù)設(shè)置為hs=6,最小像素M0=10 pixel;圖5c是改進的組合MeanShift算法的分割結(jié)果。對比普通Mean Shift分割和改進的組合Mean Shift分割的結(jié)果可以看出:本研究(改進的Mean Shift算法)較好地實現(xiàn)了鐵路護欄圖像的分割,分割精度較為理想,基本消除了單獨用經(jīng)典閾值過分割和普通MeanShift帶來的欠分割和過分割問題,并且能得到較好的二值化結(jié)果。圖5d為對改進的Mean Shift算法所分割圖像的直線檢測,通過實驗結(jié)果可以看出:應(yīng)用改進的Mean Shift分割算法,鐵路護欄網(wǎng)格能夠很好地被識別。
圖5 防護欄圖像實驗結(jié)果
本文圍繞面向區(qū)域的鐵路防護欄圖像分割的重要研究內(nèi)容進行展開,對采集的鐵路護欄圖像進行閾值分割、固定帶寬選擇、區(qū)域合并、分割后的直線檢測等方面的分析與研究。實現(xiàn)了對大部分網(wǎng)格的提取定位,為后續(xù)對未檢測出來的網(wǎng)格部分實現(xiàn)補充檢測以及最終的網(wǎng)格完整性判斷提供了堅實的基礎(chǔ)。
[1] 常江.巡道車視頻檢測系統(tǒng)的設(shè)計及關(guān)鍵技術(shù)的實現(xiàn)[D].北京:北京交通大學(xué),2009.
[2] 王堯,余祖俊.高速鐵路線路護欄完整性自動檢測系統(tǒng)研究[J].鐵道學(xué)報,2013,35(4):43-50.
[3] Zheng Y F,Li H O,Doermann D.A Parallel Line Detection Algorithm Based on HMM Decoding[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2005,27(5):777-792.
[4] 沈玉峰,汪繼文,林勝華.網(wǎng)格提取的圖像修復(fù)方法[J].計算機工程與應(yīng)用,2009,45(20):173-174.
[5] 謝鵬鶴.圖像閾值分割算法研究[D].湘潭:湘潭大學(xué),2012.
[6] 胡兵.改進的Otsu算法在多尺度圖像分割中的應(yīng)用研究[D].長沙:中南大學(xué),2012.
[7] 張新明,張愛麗,鄭延斌,等.改進的最大熵閾值分割及其快速實現(xiàn)[J].計算機科學(xué),2012,38(8):278-283.
[8] 韓思奇,王蕾.圖像分割的閾值法綜述[J].系統(tǒng)工程與電子技術(shù),2002,24(6):91-94.
[9] Comaniciu D,Meer P.Mean Shift:A Robust Approach Toward Feature Space Analysis[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2002,24(5):603-619.
[10] 張少娜.基于均值漂移的目標(biāo)跟蹤算法研究[D].南京:南京郵電大學(xué),2013.
[11] 沈玉峰,林勝華,蘇守寶.網(wǎng)格提取的圖像修復(fù)方法[J].計算機工程與應(yīng)用,2009,45(20):173-174.
[12] Ning J F,Zhang L,Zhang D,et al.Interactive Image Segmentation by Maximal Similarity Based Region Merging[J].Pattern Recognition,2010,43(2):445-456.
[13] Park J G,Lee C.Skull Stripping Based on Region Growing for Magnetic Resonance Brain Images[J].Neuro Image,2009,47(4):1394-1407.
[14] Vijaya G,Vasudevan D V.A Simple Algorithm for Image Denoising Based on Mssegmentation[J].International Journal of Computer Applications,2010,2(6):9-10.
國家自然科學(xué)基金項目(5136501);江西省自然科學(xué)基金項目(20132BAB203020);江西省教育廳科學(xué)技術(shù)研究項目(GJJ13430)
梁禮明(1967-),男,江西吉安人,教授,碩士,研究領(lǐng)域為機器學(xué)習(xí)、模式識別、集員辨識.
2014-08-24
1672-6871(2015)03-0028-05
TP391.4
A