陳擁權(quán),陳 影,陳學(xué)三
(合肥寰景信息技術(shù)有限公司,合肥 安徽 230088)
基于Adaboost分類器的車輛檢測(cè)與跟蹤算法
陳擁權(quán),陳 影,陳學(xué)三
(合肥寰景信息技術(shù)有限公司,合肥 安徽 230088)
車輛檢測(cè)與跟蹤是智能交通領(lǐng)域的重要研究課題之一。為了促進(jìn)平安城市的建設(shè),更好地輔助車輛駕駛,提出了一種基于類Haar特征和Adaboost分類器的實(shí)時(shí)車輛檢測(cè)與跟蹤算法。采集大量車輛正負(fù)樣本圖像,基于積分圖提取圖像的類Haar特征;利用Adaboost算法對(duì)類Haar特征進(jìn)行選擇及分類器訓(xùn)練;利用得到的分類器進(jìn)行模式匹配,實(shí)現(xiàn)對(duì)車輛的檢測(cè)。在相鄰幀中進(jìn)行車輛的特征匹配,完成車輛的跟蹤。在車輛跟蹤的基礎(chǔ)上,通過(guò)場(chǎng)景標(biāo)定,實(shí)現(xiàn)對(duì)車輛的測(cè)速和車流量的統(tǒng)計(jì)。在真實(shí)道路場(chǎng)景中的實(shí)驗(yàn)結(jié)果表明,所提方法能實(shí)時(shí)并有效地對(duì)車輛進(jìn)行檢測(cè)與跟蹤,在一定程度上緩解了交通壓力;能準(zhǔn)確地進(jìn)行車輛測(cè)速和車流量統(tǒng)計(jì),可為超速和道路擁擠的判定提供相關(guān)依據(jù),具有較好的應(yīng)用前景。
車輛檢測(cè)與跟蹤;類Haar特征;Adaboost算法;測(cè)速;車流量統(tǒng)計(jì)
隨著城市化進(jìn)程的加快,智能交通的重要性越發(fā)凸顯。而車輛檢測(cè)作為智能交通領(lǐng)域中至關(guān)重要的一部分,激發(fā)了廣大學(xué)者們的研究興趣。車輛檢測(cè)方法一般有光流法[1-2]、幀差法[3-4]和背景差分法[5-6]等。其中,光流法的算法復(fù)雜度較高,不能在實(shí)時(shí)系統(tǒng)中得到有效應(yīng)用;幀差法雖然算法復(fù)雜度較低,但是檢測(cè)精度達(dá)不到應(yīng)用的需求;背景差分法是最常用的方法,但背景的初始化和維護(hù)比較困難,且由于忽視了相鄰像素點(diǎn)之間的關(guān)系,因此抗噪聲能力較差,同時(shí)算法易受圖像陰影的干擾,也不能很好地解決遮擋問(wèn)題。
近年來(lái),機(jī)器學(xué)習(xí)的發(fā)展為目標(biāo)檢測(cè)提供了新的思路。在基于神經(jīng)網(wǎng)絡(luò)的目標(biāo)檢測(cè)方法中,Rowley等提出采用局部連接的神經(jīng)網(wǎng)絡(luò)進(jìn)行人臉檢測(cè)[7],取得了較好的效果,具有里程碑的意義;張全發(fā)等提取圖像的梯度方向直方圖特征,利用支持向量機(jī)訓(xùn)練分類器,實(shí)現(xiàn)圖像中工程車輛的檢測(cè)[8],具有較高的準(zhǔn)確度。為此,利用Adaboost算法[9-10]實(shí)現(xiàn)車輛的檢測(cè),其針對(duì)同一個(gè)訓(xùn)練集訓(xùn)練不同的弱分類器,然后聯(lián)合弱分類器,構(gòu)造最終的強(qiáng)分類器。Adaboost算法無(wú)需任何關(guān)于弱學(xué)習(xí)器性能的先驗(yàn)知識(shí),算法效率高,具有很強(qiáng)的應(yīng)用性。
在車輛跟蹤方面,基于區(qū)域的跟蹤方法[11]很難處理車輛間的遮擋問(wèn)題;基于模型的方法[12]存在難以獲得所有車輛詳細(xì)的幾何模型和穩(wěn)健性不夠高的問(wèn)題;而動(dòng)態(tài)輪廓法[13]在復(fù)雜的交通場(chǎng)景中初始化較困難。為此,提出一種基于類Haar特征與Adaboost分類器的車輛檢測(cè)與跟蹤算法。該算法采用基于特征的跟蹤方法[14],將車輛的某些特征作為匹配跟蹤的基礎(chǔ),并用相應(yīng)的特征參數(shù)來(lái)描述目標(biāo)的運(yùn)動(dòng)狀態(tài),通過(guò)跟蹤車輛上的某些特征實(shí)現(xiàn)對(duì)車輛的跟蹤。在車輛跟蹤的基礎(chǔ)上,通過(guò)場(chǎng)景標(biāo)定,將圖像坐標(biāo)轉(zhuǎn)化為世界坐標(biāo),實(shí)現(xiàn)對(duì)車輛的測(cè)速和車流量的統(tǒng)計(jì)。
Adaboost算法的主要思想是將許多分類能力較差的弱分類器通過(guò)一定方式整合起來(lái),構(gòu)成一個(gè)分類能力較強(qiáng)的強(qiáng)分類器,再將若干強(qiáng)分類器串聯(lián)起來(lái),形成分級(jí)分類器,進(jìn)一步在圖像上進(jìn)行多尺度搜索檢測(cè)。
1.1特征選取與計(jì)算
為了判斷圖像中是否含有車輛,需要對(duì)車輛的多個(gè)特征進(jìn)行建模。這里選用Viola等提出的類Haar特征[10,15]作為車輛檢測(cè)的特征向量,對(duì)車輛進(jìn)行刻畫。
類Haar的每個(gè)特征由多個(gè)矩形組成,可以對(duì)邊緣和線性特征進(jìn)行檢測(cè),其特征值的計(jì)算為組成的矩形區(qū)域灰度積分之和,如式(1)所示。
(1)
其中,ωi∈R為矩形的權(quán)重;RecSum(ri)為矩形ri構(gòu)成的區(qū)域灰度積分;N為構(gòu)成的矩形個(gè)數(shù)。
1.2Adaboost算法描述
利用級(jí)聯(lián)分類器作為判斷圖像窗口類別的二分類器,該級(jí)聯(lián)式的分類器能快速排除圖像中絕大部分的非車輛窗口,進(jìn)而加快車輛檢測(cè)速度。算法描述如下:
(1)對(duì)于給定的訓(xùn)練樣本(x1,y1),(x2,y2),…,(xn,yn),其中yi=0代表其為非車輛(負(fù)樣本),yi=1代表其為車輛(正樣本),n為訓(xùn)練樣本總數(shù)。
(2)對(duì)權(quán)重進(jìn)行初始化:w1,i=D(i)。當(dāng)樣本是正樣本時(shí),D(i)=1/2k;當(dāng)樣本是負(fù)樣本時(shí),D(i)=1/2l。其中k,l分別為正負(fù)樣本的數(shù)量,k+l=n。
(3)對(duì)t=1,2,…,T,有:
①歸一化權(quán)重。
(2)
②基于每個(gè)特征f均訓(xùn)練一個(gè)弱分類器h(x,f,p,θ);計(jì)算所有這些弱分類器的加權(quán)(qt)錯(cuò)誤率εf。
εf=∑iqi|h(xi,f,p,θ)-yi|
(3)
③選擇最佳的弱分類器ht(x)(擁有最小錯(cuò)誤率εt)。
(4)
④按照該最佳弱分類器調(diào)整權(quán)重。
(5)
(4)最終的強(qiáng)分類器如式(6)所示:
(6)
在訓(xùn)練時(shí),減小被正確分類的樣本權(quán)重,增加被錯(cuò)誤分類的樣本權(quán)重,以強(qiáng)化后面訓(xùn)練的簡(jiǎn)單分類器對(duì)這些錯(cuò)誤分類樣本的訓(xùn)練。最后,整合所有的弱分類器,構(gòu)成最終的強(qiáng)分類器。
1.3車輛檢測(cè)流程
車輛檢測(cè)分類器采用離線的方式進(jìn)行訓(xùn)練,以保證車輛檢測(cè)的實(shí)時(shí)性。在視頻的各個(gè)場(chǎng)景中采集大量的車輛和非車輛正負(fù)樣本;提取樣本圖像的類Haar特征,進(jìn)一步進(jìn)行特征選擇;基于Haar特征訓(xùn)練一系列Adaboost弱分類器,依據(jù)權(quán)重把這些弱分類器組合成強(qiáng)分類器。該過(guò)程運(yùn)算量較大,耗時(shí)較長(zhǎng),但因在離線的模式下進(jìn)行,不會(huì)占用系統(tǒng)檢測(cè)時(shí)間。
利用訓(xùn)練得到的分類器對(duì)采集的車輛圖像進(jìn)行檢測(cè),具體過(guò)程如下:在待檢測(cè)圖像上利用不同大小的矩形框進(jìn)行多尺度掃描,利用級(jí)聯(lián)分類器對(duì)掃描的每個(gè)矩形區(qū)域進(jìn)行判斷。如果某矩形區(qū)域通過(guò)了所有的級(jí)聯(lián)分類器,說(shuō)明該區(qū)域?yàn)檐囕v窗口,并得到當(dāng)前圖像中車輛所在的位置;否則,說(shuō)明該區(qū)域不是車輛區(qū)域。車輛檢測(cè)的具體流程如圖1所示。
圖1 車輛檢測(cè)算法流程
車輛跟蹤的基本思想是確定同一輛車在不同幀中的位置。基于特征匹配的車輛跟蹤并不是對(duì)整個(gè)車進(jìn)行跟蹤,僅利用檢測(cè)框的質(zhì)心進(jìn)行匹配。通過(guò)對(duì)車輛上點(diǎn)的跟蹤來(lái)完成對(duì)車輛的跟蹤,當(dāng)車輛存在部分遮擋時(shí),該算法仍能保持較好的跟蹤效果。
(7)
(8)
(9)
當(dāng)當(dāng)前幀中車輛的質(zhì)心與估計(jì)的質(zhì)心位置差距越小時(shí),函數(shù)f3的值越小。
利用式(7)對(duì)相鄰幀中的車輛質(zhì)心進(jìn)行匹配,可以形成軌跡。如果k的值不存在,則表示幀t中車輛i為新出現(xiàn)的車輛,在幀t+1中開(kāi)始跟蹤,將形成一條新的軌跡;如果幀t-1中有未被匹配上的車輛質(zhì)心,則表示對(duì)該車輛的跟蹤結(jié)束。由于交通場(chǎng)景中連續(xù)兩幀之間圖像的差異很小,加之車輛的運(yùn)動(dòng)為剛性運(yùn)動(dòng),所以在兩幀之間可以很好地對(duì)質(zhì)心進(jìn)行匹配。
基于特征匹配的車輛跟蹤方法具有其他方法少有的優(yōu)點(diǎn),具體如下:
(1)提取的特征較為簡(jiǎn)單,運(yùn)算速度較快,實(shí)時(shí)性較好;
(2)抗遮擋和光照變化能力較強(qiáng)。在跟蹤過(guò)程中,即使車輛間發(fā)生部分遮擋或者光照變化,也能準(zhǔn)確地檢測(cè)出跟蹤框質(zhì)心的位置,仍然可以對(duì)運(yùn)動(dòng)車輛進(jìn)行持續(xù)跟蹤。
為了驗(yàn)證所提算法的有效性,在拍攝的真實(shí)道路場(chǎng)景中的視頻圖像上采集不同環(huán)境、不同光照條件下的車輛正負(fù)樣本,其中正樣本4 000,負(fù)樣本8 500,并全部歸一化為24*24像素的大小,部分樣本如圖2所示。
圖2 部分訓(xùn)練樣本
使用OpenCV來(lái)實(shí)現(xiàn)樣本的特征提取和分類器的訓(xùn)練,訓(xùn)練階段數(shù)設(shè)為18。每個(gè)階段分類器需要的最小命中率設(shè)為0.995,總的錯(cuò)誤警告率為0.5。按照該設(shè)置得到的強(qiáng)分類器個(gè)數(shù)為18,每個(gè)強(qiáng)分類器包含了若干弱分類器及其分割的閾值。
3.1車輛檢測(cè)
(10)
其中,0<α<1,實(shí)驗(yàn)中取α=0.7。
部分車輛檢測(cè)結(jié)果如圖3所示,其中外面較大的矩形框?yàn)闄z測(cè)的感興趣區(qū)域,里面較小的矩形框標(biāo)出的為檢測(cè)到的車輛區(qū)域。
圖3 車輛檢測(cè)結(jié)果
由圖3可以看出,在不同環(huán)境、不同光照條件下,該算法對(duì)不同行駛方向的車均有較好的檢測(cè)效果。每幀圖像處理的時(shí)間在20 ms左右,達(dá)到了實(shí)時(shí)檢測(cè)。
3.2車輛跟蹤
在檢測(cè)的基礎(chǔ)上,對(duì)檢測(cè)框的質(zhì)心進(jìn)行匹配,形成車輛運(yùn)動(dòng)的軌跡,完成車輛的跟蹤。依據(jù)車輛出現(xiàn)的先后順序,對(duì)車輛進(jìn)行標(biāo)號(hào)。部分車輛跟蹤結(jié)果如圖4和圖5所示,其中外面較大的矩形框?yàn)楦櫟母信d趣區(qū)域,里面較小的矩形框標(biāo)出的為檢測(cè)到的車輛區(qū)域,車輛后面的曲線為車輛運(yùn)動(dòng)的軌跡。
圖4 晴天前拍車輛跟蹤結(jié)果
圖5 陰雨天后拍車輛跟蹤結(jié)果
由圖4和圖5可以看出,在不同環(huán)境、不同光照條件下,該算法對(duì)不同行駛方向的車均有較好的跟蹤效果,只有在極個(gè)別的情況下才會(huì)出現(xiàn)在某一幀跟丟的情況。算法有效性得到驗(yàn)證。每幀圖像處理的平均時(shí)間在30 ms左右,達(dá)到了實(shí)時(shí)跟蹤。
3.3測(cè)速與流量統(tǒng)計(jì)
在跟蹤的基礎(chǔ)上,還進(jìn)行了車輛測(cè)速和流量統(tǒng)計(jì),擴(kuò)展了車輛跟蹤的應(yīng)用。這里通過(guò)計(jì)算軌跡點(diǎn)的速度來(lái)估計(jì)車輛的速度。由于軌跡點(diǎn)會(huì)出現(xiàn)在圖像的不同位置,而像素間的距離和真實(shí)世界的距離不成比例,因此需要通過(guò)場(chǎng)景標(biāo)定來(lái)解決。在實(shí)驗(yàn)中采集36對(duì)圖像坐標(biāo)點(diǎn)和對(duì)應(yīng)的世界坐標(biāo)點(diǎn),計(jì)算單應(yīng)矩陣,進(jìn)而對(duì)圖像坐標(biāo)和世界坐標(biāo)進(jìn)行轉(zhuǎn)換。因?yàn)闃?biāo)定的是二維場(chǎng)景,所以計(jì)算速度的點(diǎn)越靠近地面,計(jì)算出的速度的準(zhǔn)確度越高。實(shí)驗(yàn)中取檢測(cè)框下邊界的中點(diǎn)O,將該點(diǎn)的圖像坐標(biāo)轉(zhuǎn)為世界坐標(biāo),根據(jù)點(diǎn)O在兩幀圖像中移動(dòng)的距離和幀差,計(jì)算點(diǎn)O的速度,用點(diǎn)O的速度近似地估計(jì)車輛的速度。為了保證速度的穩(wěn)定性,只對(duì)幀t中軌跡大于5的車輛采用多幀平均法進(jìn)行速度的計(jì)算。
具體過(guò)程如下:分別計(jì)算點(diǎn)O在下列兩幀圖像:(t,t-1),(t,t-2),…,(t,1)之間的速度;求出上述t-1個(gè)速度的平均值u和標(biāo)準(zhǔn)差sigma,如果某一個(gè)速度v滿足:abs(v-u)>sigma,則認(rèn)為該速度是外點(diǎn),予以舍棄;求剩余速度的平均值即為該車輛在幀t中的速度。
統(tǒng)計(jì)到當(dāng)前幀為止,經(jīng)過(guò)某一絆線的車輛數(shù)量。在感興趣區(qū)域內(nèi)定義一條水平的絆線y=LineY(世界坐標(biāo)),在車輛跟蹤的基礎(chǔ)上,如果某個(gè)車輛的軌跡長(zhǎng)度大于1,則求得該車輛檢測(cè)框質(zhì)心在當(dāng)前幀和上一幀中的世界坐標(biāo)位置,分別為(xt,yt)、(xt-1,yt-1),假設(shè)LineY>yt>yt-1,進(jìn)而得到y(tǒng)方向幀間距離l=yt-yt-1。如果0 部分車輛測(cè)速和流量統(tǒng)計(jì)結(jié)果如圖6所示。 圖6 車輛測(cè)速與車流量統(tǒng)計(jì)結(jié)果 由圖6可以看出,車輛測(cè)速算法可以較準(zhǔn)確地對(duì)車輛進(jìn)行測(cè)速,經(jīng)實(shí)驗(yàn)得知測(cè)量值和真實(shí)車速之間的差距在±1 km/h之內(nèi)。在良好的車輛檢測(cè)基礎(chǔ)上,車流量統(tǒng)計(jì)算法可以精確地對(duì)車輛的個(gè)數(shù)進(jìn)行統(tǒng)計(jì),準(zhǔn)確率高達(dá)99%以上。每幀圖像處理的平均時(shí)間在35 ms左右,達(dá)到了實(shí)時(shí)測(cè)速與車流量統(tǒng)計(jì)。 為了促進(jìn)智能交通的進(jìn)一步發(fā)展,提出了一種基于Adaboost算法的車輛檢測(cè)方法。該方法利用基于特征匹配的跟蹤方法對(duì)車輛進(jìn)行跟蹤,在車輛跟蹤的基礎(chǔ)上實(shí)現(xiàn)對(duì)車速的測(cè)量和車流量的統(tǒng)計(jì)。實(shí)驗(yàn)結(jié)果表明,該方法在不同的環(huán)境與光照條件下均可以對(duì)不同行駛方向的車輛進(jìn)行實(shí)時(shí)精確地檢測(cè)與跟蹤。今后,針對(duì)道路交通環(huán)境的復(fù)雜性,將進(jìn)一步研究車輛的連續(xù)精確檢測(cè)跟蹤方法,并同時(shí)對(duì)車輛闖紅燈、違章停車等行為的檢測(cè)方法進(jìn)行研究。 [1] Xin Y,Hou J, Dong L,et al. A self-adaptive optical flow method for the moving object detection in the video sequences[J].International Journal for Light and Electron Optics,2014,125(19):5690-5694. [2] 朱 婧.基于改進(jìn)的光流場(chǎng)算法對(duì)運(yùn)動(dòng)目標(biāo)的檢測(cè)與跟蹤技術(shù)研究[D].哈爾濱:哈爾濱工程大學(xué),2006. [3] 姚春蓮,郭克友.一種利用幀差信息的實(shí)時(shí)運(yùn)動(dòng)對(duì)象檢測(cè)算法[J].計(jì)算機(jī)工程與應(yīng)用,2011,47:390-394. [4] Weng M Y,Huang G C,Da X Y.A new interframe difference algorithm for moving target detection[C]//International congress on image and signal processing.[s.l.]:[s.n.],2010:285-289. [5] Zhu Y. Moving objects detection and segmentation based onbackground subtraction and image over-segmentation[J].Journal of Software,2011,6(7):1361-1367. [6] Wang W,Yang J,Gao W.Modeling background and segmenting moving objects from compressed video[J].IEEE Transactions on Circuits and Systems for Video Technology,2008,18(5):670-681. [7] Rowley H A,Baluja S,Kanade T.Neural network-based face detection[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,1998,20(1):23-38. [8] 張全發(fā),蒲寶明,李天然,等.基于HOG特征和機(jī)器學(xué)習(xí)的工程車輛檢測(cè)[J].計(jì)算機(jī)系統(tǒng)應(yīng)用,2013,22(7):104-107. [9] 文學(xué)志,方 魏,鄭鈺輝.一種基于類Haar特征和改進(jìn)AdaBoost分類器的車輛識(shí)別算法[J].電子學(xué)報(bào),2011,39(5):1121-1126. [10] 李文波,王立研.一種基于Adaboost算法的車輛檢測(cè)方法[J].長(zhǎng)春理工大學(xué)學(xué)報(bào):自然科學(xué)版,2009,32(2):292-295. [11] Comanniciu D,Ramesh V,Meer P.Kernel-based object tracking[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2003,25(5):564-577. [12] 劉國(guó)翌,陳 睿,鄧 宇,等.基于視頻的三維人體運(yùn)動(dòng)跟蹤[J].計(jì)算機(jī)輔助設(shè)計(jì)與圖形學(xué)學(xué)報(bào),2006,18(1):82-88. [13] Freedman D,Zhang T.Active contours for tracking distributions[J].IEEE Transactions on Image Processing,2004,13(4):518-526. [14] Tissainayagam P,Suter D.Object tracking in image sequences using point feature[J].Pattern Recognition,2005,38(1):105-113. [15] Viola P,Jones M.Robust real-time face detection[J].International Journal of Computer Vision,2004,57(2):137-154. AVehicleDetectionandTrackingAlgorithmBasedonAdaboostClassifier CHEN Yong-quan,CHEN Ying,CHEN Xue-san (Hefei VRview Information Technology Co.,Ltd.,Hefei 230088,China) Vehicle detection and tracking is one of the most important research topics in the field of intelligent transportation.A real-time algorithm of vehicle detection and tracking based on Haar-like features and the Adaboost classifier is proposed to promote the construction of safe city and assist vehicle driving.A large number of positive and negative sample images of vehicle are collected.The Haar-like features of the images are extracted based on the integral map and the Adaboost algorithm is exploited to do Haar-like features selection and classifier training for matching the pattern with the obtained classifier to realize the vehicles detection.The characteristics of the vehicles in the adjacent frames are matched to complete vehicles tracking.By calibrating scene,the vehicle speed measurement and traffic statistics have been achieved based on vehicles tracking.Experimental results in real road scene show that it can effectively conduct vehicle detection and tracking in real-time for alleviating the traffic pressure to some extent and can implement vehicle speed measurement and traffic statistics accurately,which has provided the relevant basis for speeding and road congestion with an excellent application prospect. vehicle detection and tracking;Haar-like features;Adaboost algorithm;speed measurement;traffic statistics TP301.6 A 1673-629X(2017)10-0165-04 2016-11-08 2017-03-14 < class="emphasis_bold">網(wǎng)絡(luò)出版時(shí)間 時(shí)間:2017-07-11 安徽省自主創(chuàng)新專項(xiàng)資金計(jì)劃項(xiàng)目(13Z02005) 陳擁權(quán)(1978-),男,碩士,CCF高級(jí)會(huì)員,研究方向?yàn)橛?jì)算機(jī)視覺(jué)、圖像處理與模式識(shí)別。 http://kns.cnki.net/kcms/detail/61.1450.TP.20170711.1457.088.html 10.3969/j.issn.1673-629X.2017.10.0354 結(jié)束語(yǔ)
計(jì)算機(jī)技術(shù)與發(fā)展2017年10期