申 瑛1,楊煥志2,張振彬1,曾慶歡2李 平1,陳炳權(quán)1,張榜英1
(1.吉首大學(xué)信息科學(xué)與工程學(xué)院 湖南 吉首 416000;2.吉首大學(xué)
物理與機(jī)電工程學(xué)院 湖南 吉首 416000)
?
基于活動(dòng)輪廓與模糊型支持向量機(jī)的車(chē)輛分類(lèi)算法
申瑛1,楊煥志2,張振彬1,曾慶歡2李平1,陳炳權(quán)1,張榜英1
(1.吉首大學(xué)信息科學(xué)與工程學(xué)院 湖南 吉首 416000;2.吉首大學(xué)
物理與機(jī)電工程學(xué)院 湖南 吉首 416000)
摘要:視頻監(jiān)控系統(tǒng)是智能交通監(jiān)控系統(tǒng)的重要組成部分.通過(guò)監(jiān)視區(qū)域車(chē)輛視頻圖像的預(yù)處理、檢測(cè),完成車(chē)輛的實(shí)時(shí)分類(lèi),并根據(jù)分類(lèi)結(jié)果實(shí)時(shí)確定交通燈控制系統(tǒng)紅黃綠燈的放行時(shí)間.采用活動(dòng)輪廓跟蹤模型對(duì)運(yùn)動(dòng)車(chē)輛視頻圖像實(shí)現(xiàn)檢測(cè),由模糊型支持向量機(jī)方法實(shí)現(xiàn)運(yùn)動(dòng)車(chē)輛的分類(lèi).Matlab軟件仿真結(jié)果表明,大中小型車(chē)輛的平均正確識(shí)別率達(dá)96.49%,提高了車(chē)輛通行效率.
關(guān)鍵詞:差分圖像;活動(dòng)輪廊模型;模糊型;支持向量機(jī)
智能交通視頻監(jiān)控系統(tǒng)實(shí)時(shí)采集視頻區(qū)域中的車(chē)輛視頻圖像,并通過(guò)一系列視頻圖像處理方法對(duì)車(chē)輛視頻圖像進(jìn)行處理[1],完成車(chē)輛實(shí)時(shí)檢測(cè)與分類(lèi),為智能交通燈控制系統(tǒng)的實(shí)時(shí)控制提供依據(jù),并根據(jù)各支路車(chē)流量大小實(shí)時(shí)改變紅黃綠燈放行時(shí)間,大大提高十字路口的車(chē)輛通行效率.針對(duì)目前車(chē)輛識(shí)別率不高的缺陷[2],筆者設(shè)計(jì)了如圖1所示的車(chē)輛檢測(cè)與分類(lèi)系統(tǒng)結(jié)構(gòu).首先對(duì)采集的視頻圖像進(jìn)行灰度化[3]預(yù)處理,并將灰度化后的車(chē)輛視頻圖像與背景圖像進(jìn)行背景差分處理[4],然后對(duì)差分圖像進(jìn)行檢測(cè)與分類(lèi)等相關(guān)圖像處理[5-7].該車(chē)輛檢測(cè)算法建立在活動(dòng)輪廓模型之上,并采用模糊型支持向量機(jī)方法對(duì)車(chē)輛進(jìn)行分類(lèi).
圖1 系統(tǒng)總體結(jié)構(gòu)
1視頻圖像預(yù)處理
通常情況下,智能交通視頻監(jiān)控系統(tǒng)通過(guò)攝像頭采集的視頻圖像均為彩色圖像,該彩色圖像雖然包含了大量的有用信息,但是會(huì)耗費(fèi)較大存儲(chǔ)空間.考慮將彩色圖像轉(zhuǎn)化為灰度圖像(該灰度圖像實(shí)質(zhì)是R,G,B個(gè)分量相同的特殊彩色圖像),于是一個(gè)像素點(diǎn)的顏色變化范圍由255×255降至255,為后續(xù)的圖像處理減少了計(jì)算量.YUV顏色空間中Y分量定義為亮度,并由該值反映亮度等級(jí).由RGB和YUV顏色空間的變化關(guān)系,建立了亮度Y與R,G,B等3種顏色分量的對(duì)應(yīng)關(guān)系Y=0.3R+0.59G+0.11B,最終以這個(gè)亮度值定義該圖像的灰度值.
當(dāng)圖像灰度化后,采用背景差分方法來(lái)分割視頻圖像.背景差分方法是將同一景物在不同時(shí)刻采集的2幀視頻圖像進(jìn)行相減,或?qū)⑼痪拔镌诓煌ǘ蔚囊曨l圖像進(jìn)行相減,從而得出2幀圖像的差分圖像.該算法較幀差法[8]能更好地識(shí)別和提取運(yùn)動(dòng)目標(biāo).
設(shè)有2幀不相同的視頻圖像,其中一幀為P1(x,y),另一幀為P2(x,y).若以P2(x,y)為背景圖像,則按照下列方法得到背景差分圖像:
N(x,y)=|M1(x,y)-M2(x,y)|.
其中:M1(x,y) 是以像素點(diǎn)P1(x,y)為中心的灰度值之和;M2(x,y) 是以像素點(diǎn)P2(x,y)為中心的灰度值之和;N(x,y)是P1(x,y)與P2(x,y)這2幅圖像的灰度差額,即差分圖像.利用背景差分算法得到的交通監(jiān)控視頻圖像中的運(yùn)動(dòng)目標(biāo)車(chē)輛分割結(jié)果如圖2所示.
圖2 背景差分法結(jié)果前后對(duì)比
得到背景差分圖像之后,再將差分圖像進(jìn)行去噪預(yù)處理[9],選擇合適的灰度值閾值,凡是差分圖像的像素灰度值大于該閾值則設(shè)成255,小于該閾值則設(shè)成 0,于是得到二值化圖像,該二值化圖像更能凸顯運(yùn)動(dòng)車(chē)輛的輪廓.
2視頻圖像運(yùn)動(dòng)車(chē)輛檢測(cè)算法
根據(jù)基于活動(dòng)輪廓的跟蹤算法原理[10],采用Canny算子對(duì)視頻圖像進(jìn)行邊緣檢測(cè),并對(duì)視頻中的每輛車(chē)輛建立輪廓模型,改變圖像目標(biāo)車(chē)輛的封閉曲線,就可以得到一個(gè)取代該目標(biāo)車(chē)輛的活動(dòng)輪廓.該活動(dòng)輪廓具有一定的彈性,是由運(yùn)動(dòng)車(chē)輛上一些可以自由活動(dòng)的連接點(diǎn)組成,在圖像檢測(cè)過(guò)程中,隨目標(biāo)車(chē)輛的變化而變化,可以適應(yīng)不同的目標(biāo)車(chē)輛,且在變化過(guò)程中會(huì)自動(dòng)尋找適應(yīng)自身變化的能量,從而得到自適應(yīng)的最小能量.該模型從最開(kāi)始的狀態(tài)慢慢向目標(biāo)車(chē)輛外輪廓靠近,最終與車(chē)輛外輪廓進(jìn)行連續(xù)的平滑接觸,在這個(gè)接觸過(guò)程中,圖像的能量分為2個(gè)部分:內(nèi)部能量保證活動(dòng)輪廓的連續(xù)與平滑性,從而取代車(chē)輛外輪廓;外部能量保證活動(dòng)輪廓的整體形狀,從而迅速靠攏車(chē)輛外輪廓.
活動(dòng)輪廓模型包含圖像內(nèi)部能量和外部能量2個(gè)部分,它是一條可控的連續(xù)性平滑曲線,其能量函數(shù)定義為
其中:輪廓曲線上的點(diǎn)用向量m(s)=(x(s),y(s))表示,x(s)和y(s)分別表示圖像中活動(dòng)輪廓模型像素點(diǎn)的坐標(biāo)位置;描述車(chē)輛外輪廓形狀邊界的自變量s∈[0,1].
Ei(m(s))表示圖像中活動(dòng)輪廓的內(nèi)部能量,定義為
Ei(m(s))=(|m1(s)|2·α(s)+|m2(s)|2·β(s))/2.
其中:活動(dòng)輪廓線的一階項(xiàng)m1(s)表示其連續(xù)性;二階項(xiàng)m2(s)表示其彎曲程度;α,β分別為該輪廓線一階項(xiàng)m1(s)和二階項(xiàng)m2(s)的權(quán)重系數(shù),通過(guò)調(diào)整該權(quán)重系數(shù)α,β,就可以控制活動(dòng)輪廓線的相關(guān)彈性形變.
Eo(m(s))代表圖像力的能量項(xiàng),一般根據(jù)圖像灰度的梯度信息設(shè)計(jì)而成,表達(dá)式為
Eo(m(s))=γ|I(x,y)|2.
其中:I(x,y)表示圖像中由各點(diǎn)灰度值組成的灰度矩陣;為圖像的梯度算子;γ為圖像的權(quán)重系數(shù).
Ec(m(s))表示外部能量項(xiàng),一般需要根據(jù)實(shí)際情況來(lái)定義,該能量項(xiàng)保證了驅(qū)動(dòng)活動(dòng)輪廓線迅速向車(chē)輛的真實(shí)輪廓靠近.
活動(dòng)輪廊模型的構(gòu)建如圖3所示.其詳細(xì)構(gòu)建過(guò)程描述如下:
(1)從預(yù)處理后的差分圖像中得到視頻圖像中的運(yùn)動(dòng)目標(biāo)車(chē)輛.
(2)求出視頻圖像中運(yùn)動(dòng)目標(biāo)車(chē)輛區(qū)域的中心點(diǎn)(xi,yi)和最大半徑rimax.
(3)以區(qū)域中心點(diǎn)(xi,yi) 為中心,以長(zhǎng)度半徑r=rimax+2的圓形區(qū)域?yàn)橛行z測(cè)區(qū)域.
(4)以區(qū)域中心點(diǎn)(xi,yi) 為中心,構(gòu)建N條相同間隔的射線Li(i=0,1,2,…,N),其中每相鄰2條射線間隔角度為2π/N,檢測(cè)的有效長(zhǎng)度半徑為r.
(5)由該有效圓形檢測(cè)區(qū)域的射線和車(chē)輛外輪廓形狀線得到交叉點(diǎn),最終構(gòu)建出車(chē)輛輪廓模型.
Matlab軟件仿真結(jié)果如圖4,5所示.
圖3 活動(dòng)輪廓模型的形成
圖4 背景差分法
圖5 車(chē)輛活動(dòng)輪廓模型
3視頻圖像運(yùn)動(dòng)車(chē)輛分類(lèi)算法
支持向量機(jī)[11]在解決有關(guān)車(chē)輛分類(lèi)問(wèn)題時(shí),其車(chē)輛樣本通過(guò)最優(yōu)超平面劃分成2種對(duì)立類(lèi)型,然而在實(shí)際分類(lèi)中,存在一些不能被劃分到這2種類(lèi)型的車(chē)輛樣本.為了解決車(chē)輛樣本與分類(lèi)別之間存在的模糊關(guān)系,將數(shù)學(xué)領(lǐng)域內(nèi)的模糊理論[12]運(yùn)用到分類(lèi)方案中,這種模糊型支持向量機(jī)方法可以有效提高車(chē)輛分類(lèi)的效率.
模糊型支持向量機(jī)模型是在支持向量機(jī)基礎(chǔ)上融合了模糊理論,在構(gòu)造運(yùn)動(dòng)目標(biāo)車(chē)輛的函數(shù)時(shí),通過(guò)設(shè)置一個(gè)特征權(quán)系數(shù),實(shí)現(xiàn)對(duì)不同車(chē)輛樣本的分類(lèi).當(dāng)車(chē)輛樣本噪聲較大時(shí),該特征權(quán)系數(shù)可以提高車(chē)輛樣本的有效性,大大提升分類(lèi)效率及其準(zhǔn)確性.
用一個(gè)特征集合來(lái)描述其不確定性.令目標(biāo)車(chē)輛的集合為A,a是該集合中的一個(gè)任意元素.那么A上的特征集合B定義為B=(a,UA),a∈A,其中UA是關(guān)于集合A中的任意元素a的映射函數(shù),該函數(shù)的取值范圍為[0,1].
車(chē)輛分類(lèi)算法分為2個(gè)部分:模式部分和決策部分.模式部分統(tǒng)計(jì)車(chē)輛實(shí)際特征值,然后由車(chē)輛活動(dòng)輪廓模型建立完整的樣本庫(kù),并對(duì)車(chē)輛樣本進(jìn)行初步分類(lèi).為充分利用車(chē)輛樣本,選取模糊型支持向量機(jī)的特征向量.決策部分由車(chē)輛樣本建立完整的模糊型支持向量機(jī)分類(lèi)器,根據(jù)已選取的特征向量做最后分類(lèi)決策.具體流程如圖6所示.
圖6 分類(lèi)流程
車(chē)輛活動(dòng)輪廓模型是分類(lèi)的關(guān)鍵信息,先將已通過(guò)道路檢測(cè)線的車(chē)輛進(jìn)行分類(lèi),其余的車(chē)輛不作處理.將這些車(chē)輛與它對(duì)應(yīng)的活動(dòng)輪廓模型用相對(duì)比例的方框框出(圖7第1行為車(chē)輛模型,第2行為車(chē)輛樣本),然后提取出車(chē)輛樣本,并將所得結(jié)果保存.
圖7 模型與樣本圖像
提取車(chē)輛樣本后開(kāi)始訓(xùn)練模糊型支持向量機(jī)的分類(lèi),將車(chē)輛模型與樣本相關(guān)的諸如長(zhǎng)寬和、長(zhǎng)寬比和區(qū)域面積作為該分類(lèi)器的特征向量,調(diào)整好該分類(lèi)器的各項(xiàng)參數(shù),通過(guò)實(shí)時(shí)采集的車(chē)輛圖像分析車(chē)輛模型與樣本的特征向量,并對(duì)其進(jìn)行初次分類(lèi).車(chē)輛類(lèi)型分為小型車(chē)(即自行車(chē)與摩托車(chē))、中型車(chē)(即出租車(chē)與私家車(chē))、大型車(chē)(即客車(chē)、大貨車(chē)、工地大型用車(chē)).比較車(chē)輛模型與車(chē)輛樣本的特征向量(長(zhǎng)、寬單位像素),從而得出最終分類(lèi)結(jié)果(表1).
表1 車(chē)輛模型與車(chē)輛樣本的特征向量
完成了模糊型支持向量機(jī)分類(lèi)器的訓(xùn)練工作后,再對(duì)新的車(chē)輛樣本進(jìn)行分類(lèi).車(chē)輛樣本圖像被該分類(lèi)器讀入(圖8),其分類(lèi)的結(jié)果如圖9所示.
Matlab軟件實(shí)驗(yàn)仿真結(jié)果表明,110輛大型車(chē)能識(shí)別出105輛,其正確識(shí)別率為95.45%,中型車(chē)675輛能識(shí)別出660輛,其正確識(shí)別率為97.92%,小型車(chē)230輛能識(shí)別出221輛,其正確識(shí)別率為96.09%,平均正確識(shí)別率達(dá)96.49%,取得了較為理想的效果,驗(yàn)證了模糊型支持向量機(jī)進(jìn)行車(chē)輛分類(lèi)的可行性和正確性.
圖8 樣本讀入
圖9 分類(lèi)識(shí)別結(jié)果
4結(jié)語(yǔ)
基于活動(dòng)輪廓模型的檢測(cè)算法,利用變化形狀的活動(dòng)輪廓線對(duì)車(chē)輛差分圖像進(jìn)行檢測(cè),使其檢測(cè)的精確度得到提高.該算法常被一些模式化的曲線形狀所干擾,導(dǎo)致目標(biāo)檢測(cè)錯(cuò)誤.采用模糊型支持向量機(jī)對(duì)視頻圖像中的運(yùn)動(dòng)目標(biāo)車(chē)輛進(jìn)行分類(lèi),模糊型支持向量機(jī)的分類(lèi)策略降低了車(chē)輛樣本噪聲,并消除了無(wú)用的樣本,使得分離的樣本數(shù)量增多,提高了車(chē)輛的正確分類(lèi)及識(shí)別效率.
參考文獻(xiàn):
[1] 陳炳權(quán),劉宏立,孟凡斌.數(shù)字圖像處理的現(xiàn)狀及其發(fā)展方向[J].吉首大學(xué)學(xué)報(bào):自然科學(xué)版,2009,30(1):63-70.
[2] 孫少林,馬志強(qiáng),湯偉.灰度圖像二值化算法研究[J].價(jià)值工程,2010(5):142-143.
[3] 孟凡清.基于背景差分法與ORB算法的運(yùn)動(dòng)目標(biāo)檢測(cè)與跟蹤算法研究[D].北京:北京印刷學(xué)院,2014.
[4] 楊晶晶.數(shù)字視頻圖像預(yù)處理算法的研究與實(shí)現(xiàn)[D].上海:復(fù)旦大學(xué),2012.
[5] 曾俊.圖像邊緣檢測(cè)技術(shù)及其應(yīng)用研究[D].武漢:華中科技大學(xué),2011.
[6] 劉馳.基于活動(dòng)輪廓的圖像分割算法研究[D].南京:南京理工大學(xué),2014.
[7] 王愛(ài)平.視頻目標(biāo)跟蹤技術(shù)研究[D].長(zhǎng)沙:國(guó)防科技大學(xué),2011.
[8] 趙濟(jì)民.基于SVM的地磁車(chē)輛檢測(cè)器車(chē)型分類(lèi)方法研究[D].北京:北京交通大學(xué),2014.
[9] 郭佳.基于光照不均勻圖像的自適應(yīng)二值化方法研究[D].武漢:武漢科技大學(xué),2013.
[10] 王俊龍.基于支持向量機(jī)建模的非線性預(yù)測(cè)控制研究[D].北京:北京交通大學(xué),2014.
[11] 徐淑瓊.模糊支持向量機(jī)及其在場(chǎng)景圖像處理中的應(yīng)用研究[D].廣州:廣東工業(yè)大學(xué),2013.
[12] 權(quán)佳成.基于模糊理論的圖像分割算法的研究[D].重慶:重慶大學(xué),2011.
(責(zé)任編輯陳炳權(quán))
Algorithm of Vehicle Classification Based on Traffic Video Surveillance System
SHEN Ying1,YANG Huanzhi2,ZHANG Zhenbin1,ZENG Qinghuan2,
LI Ping1,CHEN Bingquan1,ZHANG Bangying1
(1.College of Information Science and Engineering,Jishou University,Jishou 416000,Hunan China;2.College of
Physics and Electromechanical Engineering,Jishou University,Jishou 416000,Hunan China)
Abstract:Video surveillance system is a component of intelligent transportation system.Through preprocessing and detecting the video image of vehicles in monitoring area,and real-time classification,the release time of traffic lights can be confirmed in real time according to the size of the vehicle flow.By using the method of the active contour tracking model and fuzzy support vector machine,the intelligent traffic video surveillance system provides real-time detection and classification of vehicles.Matlab simulation results show that the average correct recognition rate of large,medium and small sized vehicle is 8 9.8%,so the method can improve the efficiency of traffic.
Key words:difference image;active contour tracking model;fuzzy;support vector machine
通信作者:張榜英(1975—),男,湖南瀘溪人,吉首大學(xué)信息科學(xué)與工程學(xué)院講師,湖南大學(xué)博士生,主要從事智能控制與嵌入式系統(tǒng)研究.
基金項(xiàng)目:國(guó)家級(jí)大學(xué)生創(chuàng)新創(chuàng)業(yè)訓(xùn)練計(jì)劃資助項(xiàng)目(201310531002);湖南省大學(xué)生研究性學(xué)習(xí)和創(chuàng)新性實(shí)驗(yàn)計(jì)劃資助項(xiàng)目(201310531002);吉首大學(xué)大學(xué)生研究性學(xué)習(xí)與創(chuàng)新性實(shí)驗(yàn)計(jì)劃資助項(xiàng)目(JSU-CX-2013-08)
收稿日期:2014-05-26
中圖分類(lèi)號(hào):TP391.4
文獻(xiàn)標(biāo)志碼:A
DOI:10.3969/j.issn.1007-2985.2015.02.012
文章編號(hào):1007-2985(2015)02-0055-05