陳 艷,嚴(yán) 騰,宋俊芳,宋煥生
(1.長(zhǎng)安大學(xué) 信息工程學(xué)院,西安 710064; 2.長(zhǎng)安大學(xué) 外國(guó)語(yǔ)學(xué)院,西安 710064; 3.西藏民族大學(xué) 信息工程學(xué)院,陜西 咸陽(yáng) 712082)(*通信作者電子郵箱373433788@qq.com)
智能交通監(jiān)控系統(tǒng)需構(gòu)建一個(gè)準(zhǔn)確、高效的交通信息采集系統(tǒng),而夜間車(chē)輛檢測(cè)是交通信息采集系統(tǒng)中不可或缺的組成部分,可為車(chē)型分類(lèi)、交通事件檢測(cè)、交通流調(diào)查等提供有效信息。近年來(lái)國(guó)內(nèi)外諸多研究對(duì)車(chē)輛檢測(cè)開(kāi)展了深入的探索,建立了基于環(huán)形線圈、雷達(dá)[1-4]和機(jī)器視覺(jué)的車(chē)輛檢測(cè)方法?;诃h(huán)形線圈的檢測(cè)精度高、檢測(cè)簡(jiǎn)單但靈活性差、功能單一,基于雷達(dá)的檢測(cè)雖不受天氣光照的影響但維護(hù)復(fù)雜,基于機(jī)器視覺(jué)的檢測(cè)方法具有豐富的信息含量且成本代價(jià)低,因此基于機(jī)器視覺(jué)的車(chē)輛檢測(cè)方法應(yīng)用最為廣泛。
針對(duì)視頻車(chē)輛檢測(cè)的特征,基于機(jī)器視覺(jué)的車(chē)輛檢測(cè)方法一般分為基于背景模型的檢測(cè)、基于顏色亮度模型的檢測(cè)和基于幾何特征模型的檢測(cè)?;诒尘澳P偷能?chē)輛檢測(cè)主要是通過(guò)背景差、幀差、混合高斯模型或ViBE(Video indexing and Browsing Environment)算法等全局圖像檢測(cè)車(chē)輛。Yang等[5]采用基于邊緣的背景差分法和基于區(qū)域的背景差分法,利用支持向量機(jī)(Support Vector Machine, SVM)進(jìn)行車(chē)輛檢測(cè)分類(lèi)。Zhang等[6]采用三幀圖像差分法檢測(cè)車(chē)輛,通過(guò)深度卷積神經(jīng)網(wǎng)絡(luò)識(shí)別車(chē)輛類(lèi)型。Basri等[7]提出通過(guò)調(diào)整交通擁擠下檢測(cè)的感興趣區(qū)域,采用優(yōu)化后的高斯混合模型(Gaussian Mixture Model, GMM)檢測(cè)車(chē)輛,從而實(shí)現(xiàn)對(duì)車(chē)輛的計(jì)數(shù)分析。Wei等[8]利用ViBE背景模型提取背景,根據(jù)形態(tài)學(xué)圖像處理方法檢測(cè)運(yùn)動(dòng)車(chē)輛。St-Charles等[9]根據(jù)像素的空間特征,采用基于像素級(jí)的反饋環(huán)路的非參數(shù)模型,自適應(yīng)背景更新檢測(cè)車(chē)輛。于萬(wàn)霞等[10]提出在YCbCr(Luminance,Chrominance-blue,Chrominance-r)顏色空間上的背景差分方法,根據(jù)迭代處理確定提取背景的閾值。上述方法由于車(chē)輛遮擋和陰影等復(fù)雜因素的影響,導(dǎo)致背景提取不穩(wěn)定,存在“鬼影”目標(biāo)等問(wèn)題,誤檢率高?;陬伾P蜋z測(cè)主要包括在RGB(Red-Green-Blue)、HSV(Hue-Saturation-Value)、YCbCr顏色空間中利用局部車(chē)燈的顏色分量來(lái)檢測(cè)車(chē)輛。劉勃等[11]提出在RGB圖像中搜索R顏色特征,結(jié)合車(chē)尾燈的運(yùn)動(dòng)信息檢測(cè)跟蹤車(chē)輛。O’Malley等[12]采用適合于HSV空間的紅色閾值檢測(cè)車(chē)尾燈,利用顏色互相關(guān)對(duì)稱(chēng)性確定車(chē)尾燈對(duì)。Swamy等[13]利用顏色空間模型,根據(jù)每個(gè)像素的顏色和亮度畸變檢測(cè)車(chē)輛前景圖像。由于夜間光線較暗和車(chē)尾轉(zhuǎn)向燈等的影響,攝像機(jī)捕捉的車(chē)輛顏色信息不夠準(zhǔn)確,導(dǎo)致上述方法在檢測(cè)顏色特征定位車(chē)燈時(shí)誤差偏大。針對(duì)這兩種方法,基于幾何特征的檢測(cè)是通過(guò)局部車(chē)燈部件的形狀信息、對(duì)稱(chēng)特性等,初步確定車(chē)燈區(qū)域,利用車(chē)燈進(jìn)一步檢測(cè)車(chē)輛。Wang等[14]通過(guò)提取車(chē)燈信息,根據(jù)車(chē)燈的特征利用AdaBoost(Adaptive Boosting)分類(lèi)器檢測(cè)車(chē)輛。Juric等[15]通過(guò)粒子濾波器檢測(cè)車(chē)燈,根據(jù)車(chē)燈的局部特征配對(duì)分類(lèi)車(chē)燈,從而實(shí)現(xiàn)車(chē)輛的跟蹤。歐志芳等[16]采用閾值法分割明亮塊,通過(guò)車(chē)燈對(duì)的面積比、互相關(guān)值和長(zhǎng)寬比的D-S(Dempster-Shafer)證據(jù)理論檢測(cè)車(chē)輛。以上方法都是在二維交通場(chǎng)景下提取車(chē)燈信息,但因攝像機(jī)的透視關(guān)系,車(chē)燈圖像存在尺度變換和幾何形變,導(dǎo)致提取的車(chē)燈信息不準(zhǔn)確,因此本文在Wang等[14]的方法上提出在逆投影圖下提取車(chē)燈真實(shí)信息,根據(jù)車(chē)燈真實(shí)的空間幾何關(guān)系,構(gòu)建車(chē)燈對(duì)的高斯混合模型,初步檢測(cè)車(chē)輛,設(shè)置逆投影圖車(chē)輛樣本,利用AdaBoost分類(lèi)器進(jìn)一步檢測(cè)車(chē)輛,實(shí)現(xiàn)對(duì)夜間車(chē)輛的快速準(zhǔn)確檢測(cè)。
智能交通監(jiān)控系統(tǒng)采用固定單目攝像機(jī)拍攝視頻圖像,此視頻圖像是三維空間場(chǎng)景到二維平面圖像的投影。因攝像機(jī)的透視關(guān)系,二維圖像與真實(shí)三維場(chǎng)景物體存在巨大的差距,存在尺度變換和幾何形變。本文將利用三維逆投影圖恢復(fù)車(chē)頭燈對(duì)的三維空間幾何信息,通過(guò)對(duì)二維的車(chē)輛圖像序列進(jìn)行標(biāo)定,形成三維重建圖像,得到逆投影圖像序列。該圖像序列中車(chē)頭燈對(duì)具有幾何不變形,其位置、大小與真實(shí)車(chē)頭燈對(duì)的位置、大小一一對(duì)應(yīng),從而為準(zhǔn)確檢測(cè)車(chē)頭燈對(duì)提供基礎(chǔ)。
首先在已標(biāo)定的交通場(chǎng)景中預(yù)先確定一個(gè)逆投影面,設(shè)計(jì)的逆投影面依照夜間待檢測(cè)的車(chē)前燈對(duì)的特征及空間位置確定。依不同的場(chǎng)景可設(shè)置平行于路面、垂直于路面或者與路面成一定角度的逆投影面,本文需實(shí)現(xiàn)對(duì)車(chē)頭燈對(duì)的檢測(cè),因此在三維交通道路視頻中設(shè)計(jì)垂直于路面而平行于車(chē)輛正面與車(chē)頭燈對(duì)相貼合的逆投影面。
逆投影面按1 cm×1 cm的分辨率分割成若干網(wǎng)格,每個(gè)網(wǎng)格由對(duì)應(yīng)的每個(gè)像素表示,由這些像素構(gòu)成的圖則為逆投影圖。其逆投影圖構(gòu)建過(guò)程如圖1所示,假設(shè)A表示設(shè)置的與垂直于路面的逆投影面,其中:g為逆投影面上的一個(gè)網(wǎng)格,p表示逆投影面A上的g網(wǎng)格投影到二維圖像上的像素點(diǎn),gp表示在逆投影圖上與網(wǎng)格g對(duì)應(yīng)的像素點(diǎn),則逆投影就是將二維圖像像素點(diǎn)p映射到逆投影圖像素點(diǎn)gp的過(guò)程。逆投影圖中每個(gè)像素點(diǎn)復(fù)制了逆投影面每個(gè)網(wǎng)格的信息,則每個(gè)像素點(diǎn)的信息就是逆投影面上每個(gè)網(wǎng)格的信息。因逆投影面上每個(gè)網(wǎng)格包含了對(duì)應(yīng)三維空間中真實(shí)大小尺寸的網(wǎng)格信息,則逆投影圖的二維圖像上每個(gè)像素點(diǎn)同樣代表了三維空間中真實(shí)大小尺寸的網(wǎng)格信息。
圖1 逆投影構(gòu)建過(guò)程
在夜間交通視頻圖像中,由于光線太弱,利用車(chē)頭燈的顯著特征粗定位車(chē)輛。根據(jù)在夜間車(chē)頭燈像素值相對(duì)于鄰域內(nèi)其他像素是最大的,采用搜索窗原理尋找逆投影圖像的局部極大值,粗定位車(chē)頭燈對(duì)的區(qū)域。設(shè)置搜索窗的高度和寬度大小為5,其中定位的區(qū)域不僅包括車(chē)頭燈對(duì)的位置,也包括亮度值比較大的車(chē)燈反光區(qū)域或其他干擾的非車(chē)燈區(qū)域。
當(dāng)初步確定車(chē)頭燈對(duì)的區(qū)域后,利用漫水填充算法進(jìn)一步標(biāo)記車(chē)頭燈對(duì)的位置。設(shè)置漫水填充算法的起始點(diǎn)為圖像局部極大值點(diǎn),選擇8鄰域固定像素填充掩碼方式,設(shè)置當(dāng)前觀察像素與鄰域像素的上下限為[40,100]。
根據(jù)車(chē)輛的車(chē)頭燈對(duì)的空間幾何先驗(yàn)知識(shí)可知,車(chē)頭燈具有一些明顯的特征,如車(chē)燈的高度、寬度、車(chē)燈對(duì)水平間距和垂直間距、面積相似度等。在2D圖像檢測(cè)中因?yàn)閿z像機(jī)的成像原理,使得這些易于表述的空間幾何特征在圖像中發(fā)生尺度和形狀變化,本文在逆投影圖像下利用上述真實(shí)局部空間幾何特征檢測(cè)車(chē)燈。
根據(jù)逆投影比例關(guān)系,計(jì)算車(chē)燈在逆投影圖下的相對(duì)車(chē)燈寬度W和長(zhǎng)度L。本文對(duì)車(chē)輛視頻中采集的車(chē)輛樣本進(jìn)行統(tǒng)計(jì),設(shè)置寬度上下限為T(mén)w1和Tw2,高度上下限為T(mén)l1和Tl2,若檢測(cè)到的車(chē)燈寬度和高度滿(mǎn)足Tw1 車(chē)燈面積A為: A=W*L (1) 面積比為: Aradio=As/Ab (2) 根據(jù)車(chē)輛局部幾何特征可知,實(shí)際車(chē)輛的兩個(gè)車(chē)頭燈對(duì)具有相同的面積A,利用逆投影圖恢復(fù)的目標(biāo)形狀,通過(guò)先驗(yàn)知識(shí)中車(chē)燈對(duì)的面積比Aradio趨于1的條件,剔除無(wú)法滿(mǎn)足的偽區(qū)域。 但是在實(shí)驗(yàn)中存在并排相鄰兩輛車(chē)的車(chē)燈被誤配對(duì)的現(xiàn)象。為了解決此問(wèn)題,考慮車(chē)輛生產(chǎn)的通用性和普適性,規(guī)格尺寸大小集中在一定的范圍之內(nèi),則設(shè)左右車(chē)燈對(duì)的中心坐標(biāo)分別為(xl,yl),(xr,yr),車(chē)燈對(duì)的水平間距為Xdiff,垂直間距為Ydiff,車(chē)燈對(duì)相對(duì)于道路面的高度H,則車(chē)燈對(duì)之間的空間關(guān)系表達(dá)式如下: Xdiff=|xr-xl| (3) Ydiff=|yr-yl| (4) (5) 對(duì)采集到的大量車(chē)燈對(duì)樣本分析可知車(chē)燈對(duì)特征變量Xdiff、Ydiff和H落在范圍內(nèi)樣本數(shù)最多,落在范圍邊界的樣本數(shù)較少,從數(shù)學(xué)角度分析,車(chē)燈對(duì)的每個(gè)空間特征關(guān)系分布符合高斯分布,則車(chē)燈對(duì)特征的空間變量分布概率模型呈現(xiàn)為高斯混合模型。由于車(chē)燈準(zhǔn)直間距在真實(shí)場(chǎng)景中相差較小,為了建模簡(jiǎn)單,本文忽略不計(jì)。根據(jù)對(duì)車(chē)輛視頻中采集的車(chē)燈對(duì)樣本的空間特征變量Xdiff和H進(jìn)行統(tǒng)計(jì)概率Pr建模,其結(jié)果如圖2所示。 圖2 車(chē)燈對(duì)樣本的特征變量空間關(guān)系建模 其中得到的車(chē)燈對(duì)高斯概率模型為ψ,檢測(cè)到車(chē)燈對(duì)特征的空間變量為D={Xdiff,H},則表示檢測(cè)到的車(chē)燈對(duì)特征變量符合構(gòu)建的高級(jí)混合模型的概率,稱(chēng)為模型ψ時(shí)D的似然度,則檢測(cè)車(chē)燈對(duì)符合同一輛車(chē)的公式為: P(D|Ψ)>T (6) 根據(jù)設(shè)置的閾值T,當(dāng)檢測(cè)的車(chē)燈對(duì)的概率大于閾值時(shí),則左右車(chē)燈對(duì)為同一輛車(chē),進(jìn)而解決車(chē)燈對(duì)誤匹配的問(wèn)題。 AdaBoost分類(lèi)器是對(duì)同一個(gè)訓(xùn)練樣本集訓(xùn)練不同的弱分類(lèi)器,通過(guò)集合弱分類(lèi)器構(gòu)造一個(gè)強(qiáng)分類(lèi)器。因AdaBoost分類(lèi)器不需要任何關(guān)于弱分類(lèi)器的先驗(yàn)知識(shí)[17],為了進(jìn)一步剔除車(chē)燈影子、地面反射等的干擾,本文選用逆投影車(chē)輛樣本,在逆投影圖像下采用局部二值特征(Local Binary Pattern,LBP)的AdaBoost分類(lèi)器分類(lèi)車(chē)燈樣本,其具體實(shí)現(xiàn)步驟[18-19]如下。 步驟1 給定車(chē)燈訓(xùn)練樣本集{(x1,y1),(x2,y2),…,(xm,ym)},其中m為車(chē)燈樣本數(shù),xi為訓(xùn)練樣本,yi為樣本標(biāo)識(shí),yi∈{0,1},1表示正樣本,即包含車(chē)前燈對(duì)的樣本,0表示負(fù)樣本,即不包含車(chē)前燈對(duì)的樣本,其中正樣本個(gè)數(shù)為P,負(fù)樣本個(gè)數(shù)為N,則m=P+N。 步驟2 初始化正負(fù)樣本xi的權(quán)重。 (7) 步驟3 設(shè)置弱分類(lèi)器的個(gè)數(shù)為T(mén)。 1)權(quán)重歸一化: (8) 2)對(duì)于LBP特征譜的統(tǒng)計(jì)直方圖特征f,訓(xùn)練每個(gè)弱分類(lèi)器cf,計(jì)算該特征的弱分類(lèi)器的加權(quán)錯(cuò)誤率: (9) 選取擁有最小錯(cuò)誤率εf的弱分類(lèi)器cf加入到強(qiáng)分類(lèi)器中。 3)重新更新調(diào)整樣本權(quán)重: (10) 其中:βt=εt/(1-εt)。 若樣本xi被正確分類(lèi),則θi=0;否則θi=1。 步驟4 最強(qiáng)分類(lèi)器為: (11) 其中:αt=log (1/βt)。 為了驗(yàn)證本文提出的基于AdaBoost的夜間逆投影車(chē)輛檢測(cè)方法的性能,進(jìn)行了測(cè)試。圖3(a)中白色線框?yàn)樵诮煌ㄒ曨l中設(shè)置的逆投影面大小。當(dāng)車(chē)輛駛?cè)肽嫱队懊鎱^(qū)域與逆投影面貼合時(shí),根據(jù)投影關(guān)系計(jì)算出逆投影圖,利用局部像素極大值和漫水填充算法粗定位車(chē)燈區(qū)域,根據(jù)車(chē)燈對(duì)的長(zhǎng)寬、相似度和車(chē)燈對(duì)的空間關(guān)系的高斯混合模型等知識(shí)初步檢測(cè)車(chē)燈對(duì),在圖3(b)中矩形框表示在逆投影圖像下定位的車(chē)燈區(qū)域,圖3(c)中矩形框?yàn)楦鶕?jù)車(chē)燈對(duì)的先驗(yàn)知識(shí)構(gòu)造的高斯混合模型正確檢測(cè)到的車(chē)臉位置,圖3(d)為因地面反光的影響,錯(cuò)誤的將車(chē)燈影子檢測(cè)為車(chē)輛的錯(cuò)誤目標(biāo)。 夜間中車(chē)燈檢測(cè)經(jīng)常會(huì)遇到影子干擾問(wèn)題,尤其在雨雪天氣下由于路面積水會(huì)引起車(chē)燈的反射,產(chǎn)生的鏡像影子會(huì)使車(chē)燈的檢測(cè)造成誤判,因此為了消除路燈、交通信號(hào)燈、地面積水反光造成的鏡像影子等影響,采用高速公路交通場(chǎng)景下車(chē)輛視頻,分割出夜間逆投影車(chē)輛圖像和非車(chē)輛圖像,正樣本圖像尺寸為24 pixels×24 pixels,訓(xùn)練個(gè)數(shù)為1 092,負(fù)樣本圖像尺寸大于正樣本尺寸,訓(xùn)練個(gè)數(shù)為2 024。正樣本為逆投影圖像下包括含有車(chē)頭燈對(duì)的車(chē)臉圖像,負(fù)樣本包括車(chē)燈影子、路燈、交通信號(hào)燈等圖像,圖4為在雨天下根據(jù)正負(fù)樣本在地面積水引起的反射的情況下正確檢測(cè)到車(chē)輛的結(jié)果。 在上海華夏路段、西安二環(huán)路段和重慶某高速路段3個(gè)場(chǎng)景中對(duì)本文逆投影下的基于AdaBoost的夜間車(chē)輛檢測(cè)進(jìn)行測(cè)試。由表1可知,與文獻(xiàn)[14]中D-S證據(jù)理論相比,檢測(cè)率提高了2.03%,漏檢率降低了17.83%,誤檢率降低了47.51%;與文獻(xiàn)[16]中原始圖像下的AdaBoost方法相比,檢測(cè)率提高了1.931%,漏檢率降低了7.58%,誤檢率降低了27.61%。文獻(xiàn)[14]和[16]是在二維場(chǎng)景中獲取車(chē)燈的信息,本文是通過(guò)三維逆投影圖像獲得真實(shí)車(chē)燈對(duì)的幾何信息,構(gòu)建高斯混合模型,采用了含有車(chē)燈影子、地面反光、路燈等的負(fù)樣本,剔除了干擾因素的影響,因此檢測(cè)率高,誤檢率低,滿(mǎn)足了交通場(chǎng)景檢測(cè)的準(zhǔn)確性和可靠性的要求。 圖3 初步檢測(cè)車(chē)燈 圖4 雨天下的檢測(cè)結(jié)果 Tab. 1 Test results of vehicle detection 本文的方法是根據(jù)先驗(yàn)知識(shí)構(gòu)造的車(chē)燈對(duì)的高斯混合模型初步檢測(cè)車(chē)輛區(qū)域,當(dāng)存在著無(wú)車(chē)燈、單車(chē)燈、車(chē)燈對(duì)面積相差太大或車(chē)燈粘連在一起的時(shí)候,無(wú)法根據(jù)先驗(yàn)知識(shí)和構(gòu)造的高斯混合模型匹配車(chē)燈對(duì),進(jìn)而無(wú)法檢測(cè)到車(chē)臉對(duì)象,因此出現(xiàn)漏檢的情況,因此本文下一步需對(duì)此類(lèi)情況進(jìn)行分析解決。 因攝像機(jī)的透視關(guān)系,根據(jù)二維交通場(chǎng)景下的車(chē)燈存在尺度變換和幾何形變,本文提出根據(jù)逆透視映射關(guān)系構(gòu)建三維逆投影圖像,在逆投影圖像下采用局部極大值和漫水填充算法粗定位車(chē)燈區(qū)域,利用車(chē)頭燈對(duì)的長(zhǎng)寬、幾何相似度和構(gòu)建的車(chē)燈對(duì)的空間關(guān)系高斯混合模型,匹配車(chē)頭燈對(duì),獲到包含車(chē)臉的逆投影圖檢測(cè)區(qū)域,最后設(shè)置逆投影車(chē)輛樣本,利用AdaBoost算法分類(lèi)檢測(cè)車(chē)輛。本文采用逆投影車(chē)輛樣本,降低了因攝像機(jī)透視變形的影響,使車(chē)輛樣本更接近真實(shí)車(chē)輛圖形,通過(guò)構(gòu)建的高斯混合模型解決了車(chē)輛并排誤檢測(cè)的問(wèn)題。實(shí)驗(yàn)結(jié)果表明,本文采用的方法提高了檢測(cè)的精度,降低了誤檢率,解決了車(chē)燈影、地面反光等干擾因素的影響,滿(mǎn)足了交通場(chǎng)景中車(chē)輛檢測(cè)的精度要求。 References) [1] 靳璐,付夢(mèng)印,王美玲,等.基于視覺(jué)和毫米波雷達(dá)的車(chē)輛檢測(cè)[J].紅外與毫米波學(xué)報(bào),2014,33(5):465-471.(JIN L, FU M Y, WANG M L, et al. Vehicle detection based on vision and millimeter wave radar [J]. Journal of Infrared and Millimeter Waves, 2014, 33(5): 465-471.) [2] WANG X, XU L, SUN H, et al. On-road vehicle detection and tracking using MMW radar and monovision fusion [J]. IEEE Transactions on Intelligent Transportation Systems, 2016, 17(7): 2075-2084. [3] BURLET J, DALLA F M. Robust and efficient multi-object detection and tracking for vehicle perception systems using radar and camera sensor fusion [C]// Proceedings of the 2012 International Conference on Road Transport Information and Control. Stevenage, UK: IET, 2012: 1-6. [4] PAGE D, OWIRKA G, NICHOLS H, et al. Detection and tracking of moving vehicles with Gotcha radar systems [J]. IEEE Aerospace & Electronic Systems Magazine, 2014, 29(1): 50-60. [5] YANG C, DAI Z J. Vehicle-classification based on edge extraction and background difference [C]// Proceedings of the 4th International Conference on Measuring Technology and Mechatronics Automation. Clausthal-Zellerfeld: Trans Tech Publications, 2012: 1109-1113. [6] ZHANG W, CHEN L, GONG W, et al. An integrated approach for vehicle detection and type recognition [C]// Proceedings of the 2015 IEEE 12th International Conference on Ubiquitous Intelligence and Computing, 2015 IEEE 12th International Conference on Autonomic and Trusted Computing and 2015 IEEE 15th International Conference on Scalable Computing and Communications and Its Associated Workshops. Piscataway, NJ: IEEE, 2015: 798-801. [7] BASRI, INDRABAYU, ACHMAD A. Gaussian mixture models optimization for counting the numbers of vehicle by adjusting the region of interest under heavy traffic condition [C]// Proceedings of the 16th International Seminar on Intelligent Technology and Its Applications. Piscataway, NJ: IEEE, 2015: 245-250. [8] WEI P, LU X, TANG T, et al. A highway vehicle detection method based on the improved visual background extractor [C]// Proceedings of the 12th International Conference on Fuzzy Systems and Knowledge Discovery. Piscataway, NJ: IEEE, 2016:1519-1524. [9] ST-CHARLES P L, BILODEAU G A, BERGEVIN R. Flexible background subtraction with self-balanced local sensitivity [C]// Proceedings of the 2014 IEEE Conference on Computer Vision and Pattern Recognition. Washington, DC: IEEE Computer Society, 2014: 414-419. [10] 于萬(wàn)霞,杜太行.基于彩色空間的背景幀差法視頻車(chē)輛檢測(cè)[J].計(jì)算機(jī)仿真,2010,27(1):285-287.(YU W X, DU T H. Video based vehicle detection based on background difference in color space [J]. Computer Simulation, 2010, 27(1): 285-287.) [11] 劉勃,周荷琴,魏銘旭.基于顏色和運(yùn)動(dòng)信息的夜間車(chē)輛檢測(cè)方法[J].中國(guó)圖象圖形學(xué)報(bào),2005,10(2):187-191.(LIU B, ZHOU H Q, WEN M X. Vehicle detection at night using color and motion information [J]. Journal of Image and Graphics, 2005, 10(2): 187-191.) [12] O’MALLEY R, JONES E, GLAVIN M. Rear-lamp vehicle detection and tracking in low-exposure color video for night conditions [J]. IEEE Transactions on Intelligent Transportation Systems, 2010, 11(2): 453-462. [13] SWAMY G N, SRILEKHA S. Vehicle detection and counting based on color space model [C]// Proceedings of the 2015 International Conference on Communications and Signal Processing. Piscataway, NJ: IEEE, 2015: 447-450. [14] WANG W, SHEN C, ZHANG J, et al. A two-layer night-time vehicle detector [C]// Proceedings of the 2009 International Conference on Digital Image Computing: Techniques and Applications. Piscataway, NJ: IEEE, 2009: 162-167. [15] JURIC D, LONCARIC S. A method for on-road night-time vehicle headlight detection and tracking [C]// Proceedings of the 2014 International Conference on Connected Vehicles and Expo. Piscataway, NJ: IEEE, 2014: 655-660. [16] 歐志芳,安吉堯,周芳麗.利用D-S證據(jù)理論的夜間車(chē)輛檢測(cè)[J].計(jì)算機(jī)應(yīng)用研究,2012,25(5):1943-1946.(OU Z F, AN J Y, ZHOU F L. Night-time vehicle detection using D-S evidence theory [J]. Application Research of Computers, 2012, 25(5): 1943-1946.) [17] ALEFS B, SCHREIBER D. Accurate speed measurement from vehicle trajectories using AdaBoost detection and robust template tracking [C]// Proceedings of the 10th International IEEE Conference on Intelligent Transportation Systems. Piscataway, NJ: IEEE, 2007: 405-412. [18] ZHU J, ZOU H, ROSSET S, et al. Multi-class AdaBoost [J]. Statistics & Its Interface, 2009, 2(3): 349-360. [19] YAN G, YU M, YU Y, et al. Real-time vehicle detection using histograms of oriented gradients and AdaBoost classification [J]. Optik—International Journal for Light and Electron Optics, 2016, 127(19): 7941-7951. This work is partially supported by the National Natural Science Foundation of China (61572083). CHENYan, born in 1989, Ph. D. candidate, engineer. Her research interests include image processing, intelligent transportation. YANTeng, born in 1992, M. S. candidate. His research interests include intelligent transportation. SONGJunfang, born in 1984, Ph. D. candidate. Her research interests include image processing. SONGHuansheng, born in 1964, Ph. D., professor. His research interests include image processing, artificial intelligence.1.4 基于AdaBoost的車(chē)燈分類(lèi)器檢測(cè)
2 實(shí)驗(yàn)結(jié)果分析
3 結(jié)語(yǔ)