洪 浩,霍春寶,王 京,王 燕
(1.遼寧工業(yè)大學(xué) 電氣工程學(xué)院,遼寧 錦州 121001;2.遼寧省電力有限公司錦州供電公司,遼寧 錦州 121001;3.北京印刷學(xué)院 機(jī)電工程學(xué)院,北京 102600)
基于改進(jìn)Otsu算法在前方目標(biāo)車輛識(shí)別中的研究
洪 浩1,霍春寶1,王 京2,王 燕3
(1.遼寧工業(yè)大學(xué) 電氣工程學(xué)院,遼寧 錦州 121001;2.遼寧省電力有限公司錦州供電公司,遼寧 錦州 121001;3.北京印刷學(xué)院 機(jī)電工程學(xué)院,北京 102600)
在防碰撞預(yù)警系統(tǒng)中,使用常見(jiàn)的圖像分割算法識(shí)別車輛時(shí),易造成目標(biāo)的特征信息丟失以及邊緣模糊化的現(xiàn)象,因此文中采用了一種基于最大類間方差法與遺傳算法相結(jié)合的分割算法。該算法先用正態(tài)分布概率密度函數(shù)確定前方車道區(qū)域灰度值的閾值范圍;然后對(duì)遺傳算法的初始種群進(jìn)行交叉、變異操作以尋找分割閾值的最優(yōu)解;在此基礎(chǔ)上,結(jié)合最大類間方差法的自適應(yīng)性,在給定的閾值范圍內(nèi)進(jìn)行局部最優(yōu)搜索;最后,獲取圖像分割的最佳閾值。研究結(jié)果表明,在光線昏暗、攝像頭破損等情況下,改進(jìn)算法具有很好的識(shí)別性,它不僅能有效地分割出目標(biāo)車輛與背景,同時(shí)還大大地縮短了運(yùn)行時(shí)間,提高了分割的時(shí)效性。通過(guò)Matlab仿真實(shí)驗(yàn)得出,改進(jìn)算法在前方目標(biāo)車輛識(shí)別中有明顯的優(yōu)勢(shì)。
防碰撞預(yù)警系統(tǒng);車輛識(shí)別;最大類間方差法;遺傳算法;圖像分割
圖像分割是計(jì)算機(jī)圖像處理的一個(gè)重要環(huán)節(jié)。圖像分割是指根據(jù)圖像的灰度、顏色、紋理、幾何形狀等特性,提取出感興趣區(qū)域的過(guò)程[1-3]。然而,如何快速、準(zhǔn)確、自適應(yīng)地識(shí)別前方目標(biāo)車輛是一個(gè)十分重要的問(wèn)題。在防碰撞預(yù)警系統(tǒng)中,經(jīng)過(guò)對(duì)前方道路路面區(qū)域采用Hough變換得到理想的車道線后,就能有效地把路面區(qū)域劃分為車道區(qū)域和非車道區(qū)域[4-5]。同時(shí),為了有效利用陰影特征識(shí)別前方目標(biāo)車輛,可以將檢測(cè)范圍縮小到車道區(qū)域,這樣就能提高前方車輛檢測(cè)和跟蹤的精度,避免了非車道區(qū)域造成的干擾。但是,道路路面區(qū)域的灰度值是不均勻的,在攝像機(jī)距離遠(yuǎn)的區(qū)域內(nèi)顏色較淺,像素灰度值較大;攝像機(jī)距離近的區(qū)域內(nèi)顏色較深,像素灰度值較小[6]。如果直接在ROI(Region Of Interest)區(qū)域內(nèi)使用Otsu法進(jìn)行車輛與背景的分割,近景的一部分道路也會(huì)誤檢為目標(biāo)。因此,如何準(zhǔn)確地、清晰地把目標(biāo)車輛從背景中分離是一個(gè)十分關(guān)鍵的問(wèn)題。分離的好壞將直接影響目標(biāo)車輛的跟蹤精確性以及預(yù)警系統(tǒng)的穩(wěn)定性。
為了解決這個(gè)問(wèn)題,文中采用基于最大類間方差法與GA相結(jié)合的分割算法。該方法不僅能夠較清晰地分離出目標(biāo)車輛,還可以大大節(jié)省目標(biāo)搜尋時(shí)間,提高了目標(biāo)車輛分離的時(shí)效性。
Otsu閾值分割算法是在1978年由日本學(xué)者大津提出的。它是一維最大類間方差法,是在結(jié)合了最小二乘法原理的基礎(chǔ)上推導(dǎo)出來(lái)的[7-8]。該算法是一種自適應(yīng)的、有效的圖像分割算法。它通過(guò)衡量目標(biāo)區(qū)域的灰度均值、背景區(qū)域的灰度均值以及整幅圖像的灰度均值之間的方差來(lái)選取最佳閾值。當(dāng)方差越大時(shí),目標(biāo)區(qū)域就越能從背景區(qū)域分割出來(lái)。
1.1 Otsu算法基本原理
Otsu算法的基本原理[9-11]是利用一閾值先把原圖像分成目標(biāo)和背景兩部分,然后分別計(jì)算當(dāng)前閾值下目標(biāo)部分和背景部分的區(qū)域概率、區(qū)域平均灰度以及圖像的總平均灰度和類間方差,并采用遍歷的方法使類間方差達(dá)到最大,此時(shí)的閾值就是最佳閾值。Otsu法對(duì)圖像中的噪聲和目標(biāo)部分的大小十分敏感,它僅對(duì)類間方差為單峰的圖像有較好的分割效果。同時(shí),該方法不需要人為設(shè)定參數(shù),是一種自適應(yīng)的閾值選擇方法。它不僅適用于兩個(gè)區(qū)域的單閾值選擇,也適用于多區(qū)域的多閾值選擇。
1.2 Otsu算法的公式推導(dǎo)
(1)
各灰度值出現(xiàn)的概率為:
(2)
對(duì)于pi,有:
(3)
設(shè)T把圖像中的像素分成C0和C1兩類,在[0,T-1]區(qū)間的像素組成C0,在[T,L-1]區(qū)間的像素組成C1[12]。則區(qū)域C0和C1的概率分別為:
(4)
(5)
區(qū)域C0和C1的平均灰度分別為:
(6)
(7)
其中,μ是整幅圖像的平均灰度。
(8)
此時(shí),區(qū)域C0和C1的內(nèi)部方差為:
(9)
(10)
兩個(gè)區(qū)域的總方差為:
(12)
其中,μ為車道區(qū)域灰度的平均值;δ為車道區(qū)域灰度的方差。
根據(jù)圖1可知,正態(tài)變量在[μ-3δ,μ+3δ]區(qū)間范圍內(nèi)的概率高達(dá)99.7%以上,在[-,μ-3δ]和[μ+3δ,+]區(qū)間范圍內(nèi)概率極小,那么最優(yōu)閾值必在[μ-3δ,μ+3δ]范圍內(nèi)。
改進(jìn)算法流程如下:
(1)選取N個(gè)小矩形窗口,每一個(gè)窗口大小為50*50像素,且每個(gè)窗口間隔50像素,這樣的區(qū)域采樣能夠獲取最接近車道區(qū)域?qū)嶋H灰度值的取樣值。
(2)分別計(jì)算出小矩形窗口各自的灰度均值μi和方差均值δi,選取它們的灰度均值和方差均值的平均值作為該車道區(qū)域的灰度值μm和方差值δm。
圖1 正態(tài)分布概率密度函數(shù)
(4)隨機(jī)產(chǎn)生N個(gè)第一次尋優(yōu)的初始種群,通過(guò)bs2rv函數(shù)進(jìn)行二進(jìn)制碼和實(shí)值的轉(zhuǎn)變(N=10)。
(5)計(jì)算種群中各個(gè)個(gè)體的適應(yīng)度值:f(X11)-f(X1N),公式如下:
P1=S1/I,P2=S2/J
(6)選擇。以Matlab中GA的select作為選擇程序,設(shè)代溝GAP=0.9,即每次遺傳后子代數(shù)量為父代的90%,沒(méi)有完全被復(fù)制,有部分剩余。
(7)交叉。打亂種群中個(gè)體的順序,然后隨機(jī)排序,兩兩組成新的一組,并根據(jù)事先預(yù)定的交叉概率進(jìn)行交叉操作,生成新一代種群(交叉概率Pc=0.7)。
(8)變異。使用變異概率Pm(Pm=0.4)變異當(dāng)前種群每一行相對(duì)應(yīng)的一個(gè)個(gè)體中的每一個(gè)元素,進(jìn)而形成新一代群體。
(9)終止。設(shè)定指定代數(shù)G(G=150)作為尋優(yōu)循環(huán)跳出的判斷條件,如不滿足,則此時(shí)的第一代群體是新生成的群體,然后轉(zhuǎn)到步驟(3)繼續(xù)尋優(yōu);否則轉(zhuǎn)到步驟(7)。
(10)若終止條件滿足,則GA最優(yōu)解輸出就是最后一代群體中適應(yīng)度最大的個(gè)體,再將其反編碼,得到對(duì)應(yīng)的十進(jìn)制灰度值t,則t就是GA得到的閾值。
(11)依據(jù)設(shè)定的閾值A(chǔ),結(jié)合最大類間方差法在[t-A,t+A]范圍內(nèi)進(jìn)行局部最優(yōu)搜索,即求得圖像分割的最佳閾值。
為了驗(yàn)證改進(jìn)的Otsu閾值分割算法的優(yōu)越性,文中分別對(duì)圖2中的兩幅不同的車道區(qū)域進(jìn)行仿真實(shí)驗(yàn)。
圖2 兩種不同路面的車道區(qū)域
實(shí)驗(yàn)平臺(tái)是Pentium4,內(nèi)存為1G,運(yùn)行環(huán)境為MATLAB7.0。
從圖3(a)和圖4(a)可知,在進(jìn)行車輛識(shí)別前,先對(duì)車道區(qū)域進(jìn)行粗提取,把非有效區(qū)域,如天空區(qū)域等去除,得到ROI區(qū)域,這樣不僅可以提高目標(biāo)車輛跟蹤的精確度,也節(jié)省了計(jì)算量。
圖3 用不同的方法得到普通車道區(qū)域的目標(biāo)車輛識(shí)別結(jié)果
從圖3(b)、(c)和圖4(b)、(c)可以看出,Otsu算法的分割結(jié)果不能完整、清晰地把目標(biāo)車輛從背景中識(shí)別出來(lái),這樣會(huì)給車輛的目標(biāo)跟蹤造成誤檢,而改進(jìn)的Otsu算法對(duì)于普通的車道區(qū)域或者帶有標(biāo)識(shí)線的車道區(qū)域都能較好地分離目標(biāo)和背景,提取車輛底部的陰影區(qū)域。因此,文中提出的改進(jìn)算法更能滿足實(shí)時(shí)性的需求。
圖4 用不同的方法得到帶有標(biāo)識(shí)線車道區(qū)域的目標(biāo)車輛識(shí)別結(jié)果
同時(shí),為了驗(yàn)證改進(jìn)算法的運(yùn)行速度和性能,表1給出了比較結(jié)果。
表1 改進(jìn)算法與傳統(tǒng)Otsu算法運(yùn)行時(shí)間與閾值的比較
面對(duì)現(xiàn)有的Otsu算法在不同的車道區(qū)域識(shí)別目標(biāo)車輛時(shí)出現(xiàn)的完整性和清晰性等問(wèn)題,文中提出了一種改進(jìn)算法。先在車道區(qū)域內(nèi)求取各個(gè)區(qū)域各自的灰度均值和方差,然后根據(jù)車道區(qū)域的像素灰度值符合正態(tài)分布來(lái)設(shè)定理想閾值的范圍,同時(shí)利用遺傳算法的并行特性,并結(jié)合傳統(tǒng)的Otsu算法。實(shí)驗(yàn)結(jié)果表明,改進(jìn)算法具有良好的可行性,與傳統(tǒng)的Otsu算法相比,改進(jìn)算法分割效果更明顯,并且大大減少了計(jì)算量和運(yùn)行時(shí)間。所以文中提出的改進(jìn)算法具有較好的識(shí)別性。
[1] 褚巧龍.基于Otsu的圖像閾值分割算法的研究[D].秦皇島:燕山大學(xué),2014.
[2] 丁紅軍,蔡鴻杰,邢克禮.遺傳神經(jīng)網(wǎng)絡(luò)在圖像分割中的應(yīng)用研究[J].自動(dòng)化技術(shù)與應(yīng)用,2010,29(3):8-12.
[3] 李俊山,李旭輝.數(shù)字圖像處理[M].北京:清華大學(xué)出版社,2013:26-28.
[4] 馮 月.基于單目視覺(jué)的前方車輛檢測(cè)和測(cè)距方法研究[D].北京:北京化工大學(xué),2013.
[5] 胡會(huì)珍.基于視覺(jué)的運(yùn)動(dòng)車輛識(shí)別與跟蹤方法研究[D].太原:中北大學(xué),2012.
[6] 李 青,鄭南寧,馬 琳,等.基于主元神經(jīng)網(wǎng)絡(luò)的非結(jié)構(gòu)化道路跟蹤[J].機(jī)器人,2005,27(3):247-251.
[7]ZhangS,BebisG,MillerR.On-roadvehicledetectionusingopticalsensors:areview[C]//ProceedingsofThe7thInternationalIEEEconferenceonintelligenttransportationsystems.[s.l.]:IEEE,2009:585-590.
[8] 張東生.基于閾值的圖像分割算法研究[D].大慶:東北石油大學(xué),2011.
[9]LinZH.ThecellimagesegmentationbasedontheK-LtransformandOTSUmethod[C]//Proceedingsof2011internationalconferenceonmultimediaandsignalprocessing.Washington,DC:IEEEComputerSociety,2014:25-28.
[10] 鄭 宏,潘 勵(lì).基于遺傳算法的圖像閾值的自動(dòng)選取[J].中國(guó)圖象圖形學(xué)報(bào),2009,4(4):327-330.
[11] 吳成柯,劉 靖,徐正偉,等.圖像分割的遺傳算法方法[J].西安電子科技大學(xué)學(xué)報(bào),1996,23(1):34-41.
[12] 黃建新,劉 懷,黃 偉.基于遺傳算法的圖像分割閾值選取[J].南京師范大學(xué)學(xué)報(bào):工程技術(shù)版,2007,7(1):14-17.
[13] 侯格賢,吳成柯.圖像分割質(zhì)量評(píng)價(jià)方法研究[J].中國(guó)圖象圖形學(xué)報(bào),2010,5(1):39-43.
[14] 汪筱紅,須文波.基于遺傳算法的閾值圖像分割研究[J].太原師范學(xué)院學(xué)報(bào):自然科學(xué)版,2007,6(3):111-113.
[15] 高廣春,熊 凱,趙勝穎,等.自適應(yīng)小波變換更新濾波器的優(yōu)化研究[J].電路與系統(tǒng)學(xué)報(bào),2011,16(3):81-86.
[16] 袁超偉,王桃榮.基于第二代小波變換的多分辨率圖像水印方案[J].北京郵電大學(xué)學(xué)報(bào),2002,25(3):93-97.
Research on Front Target Vehicle Identification Based on Improved Otsu Algorithm
HONG Hao1,HUO Chun-bao1,WANG Jing2,WANG Yan3
(1.College of Electrical Engineering,Liaoning University of Technology,Jinzhou 121001,China;2.Power Company Limited of Liaoning Electric Power Supply Co.,Ltd.,Jinzhou 121001,China;3.School of Mechatronic Engineering,Beijing Institute of Graphic Communication,Beijing 102600,China)
In the anti-collision warning system,the common image segmentation algorithm in identifying vehicle often causes the phenomenon that loss of information about the target feature and edge blurring.Therefore,it puts forward an improved image segmentation algorithm based on the Otsu algorithm and GA in this paper.This algorithm first confirms a threshold range of the front lane area by the normal distribution function,then crossovers and mutates the initial population of GA to search the optimal segmentation threshold.On this basis,combined with the adaptivity of Otsu,it searches the local optimum in the range of a set threshold.Finally,the optimal threshold of image segmentation is obtained.The results show that the improved algorithm has a good recognition performance in the light of the dim light and the damage of the camera.It not only can effectively segment the target vehicle and the background,but also greatly shorten the running time and improve the efficiency of the segmentation.Through simulation,the improved algorithm has obvious advantages in identifying the target vehicle in front.
anti-collision warning system;vehicle identification;Otsu;GA;image segmentation
2015-08-31
2015-12-04
時(shí)間:2016-05-25
遼寧省科技計(jì)劃聯(lián)合基金項(xiàng)目(2015020047);北京市青年教師拔尖人才項(xiàng)目(TXM2015-014223-000007)
洪 浩(1989-),男,碩士研究生,研究方向?yàn)閳D像分割、模式識(shí)別;霍春寶,教授,碩士研究生導(dǎo)師,研究方向?yàn)閳D像處理以及智能主動(dòng)安全。
http://www.cnki.net/kcms/detail/61.1450.TP.20160525.1700.018.html
TP391.4
A
1673-629X(2016)06-0078-04
10.3969/j.issn.1673-629X.2016.06.017