鄒 震,陳思聰,胡士強(qiáng),張曉宇
1.上海交通大學(xué) 航空航天學(xué)院,上海200240
2.加州大學(xué)伯克利分校 理學(xué)院 應(yīng)用數(shù)學(xué)與經(jīng)濟(jì)學(xué)系,加利福尼亞州 伯克利4010
在交通壓力日益增長(zhǎng)的今天,為保障大眾市民出行的通暢,政府專(zhuān)門(mén)開(kāi)辟了公交專(zhuān)用車(chē)道。但是有些社會(huì)車(chē)輛司機(jī)缺乏自覺(jué)性,經(jīng)常違章占用公交車(chē)道,影響公交車(chē)的正常運(yùn)行。尤其是在上下班高峰期,社會(huì)車(chē)輛擁堵嚴(yán)重,此時(shí)保證公交車(chē)輛的運(yùn)行通暢更顯得非常重要。針對(duì)違章占用公交車(chē)道的社會(huì)車(chē)輛,交管部門(mén)采取了許多措施對(duì)社會(huì)車(chē)輛進(jìn)行違章抓拍,比如目前北京的做法是在公交車(chē)頭部安裝攝像機(jī),對(duì)占用公交車(chē)道的社會(huì)車(chē)輛進(jìn)行跟蹤智能抓拍并錄像取證,這種方法對(duì)社會(huì)車(chē)輛起到了很好的威懾作用。在其他一些城市則采用在路口附近架設(shè)固定監(jiān)測(cè)探頭,對(duì)公交車(chē)道進(jìn)行持續(xù)監(jiān)測(cè),實(shí)時(shí)抓拍占道車(chē)輛。對(duì)于基于固定攝像頭的違章車(chē)輛檢測(cè)方法,已經(jīng)開(kāi)展了許多先期研究[1-2]。文獻(xiàn)[3]是實(shí)現(xiàn)了基于背景差分法建立了智能交通監(jiān)測(cè)系統(tǒng);文獻(xiàn)[4]則基于道路邊界檢測(cè)和車(chē)輛檢測(cè)跟蹤提出了視覺(jué)跟蹤的交通監(jiān)控方法;文獻(xiàn)[5]基于紅外攝像頭,該方法能夠抑制可見(jiàn)光不足或可見(jiàn)光變化強(qiáng)烈對(duì)系統(tǒng)的影響;文獻(xiàn)[6]通過(guò)基于像素的在線向量支持回歸動(dòng)態(tài)調(diào)整閾值進(jìn)行前景分割方法,提高抑制光線的變化;文獻(xiàn)[7]針對(duì)交通監(jiān)測(cè)攝像機(jī)拍攝的視頻流提出了高斯混合模型和背景差分相結(jié)合的方法進(jìn)行處理,實(shí)現(xiàn)了交通監(jiān)測(cè)。但在實(shí)際應(yīng)用系統(tǒng)中,由于早晚及陰晴天氣引起的光線變化,這些方法都不能很好地實(shí)時(shí)更新背景或智能適應(yīng)環(huán)境變化,導(dǎo)致檢測(cè)算法的魯棒性不強(qiáng),為抑制光線變化而采用的算法實(shí)時(shí)性又不能滿(mǎn)足要求,不能快速準(zhǔn)確地實(shí)現(xiàn)違章車(chē)輛監(jiān)測(cè)和抓拍。
本文利用城市路口對(duì)準(zhǔn)公交專(zhuān)用車(chē)道的固定攝像頭拍攝的實(shí)際視頻,提出了一種魯棒顏色差分直方圖檢測(cè)算法,實(shí)現(xiàn)了對(duì)違章占用公交車(chē)道的違章車(chē)輛快速監(jiān)測(cè)和準(zhǔn)確抓拍。
針對(duì)環(huán)境光線變化對(duì)檢測(cè)的影響,參考文獻(xiàn)[8]給出的魯棒顏色差分直方圖算法分割前景,通過(guò)給出的背景圖像,前景可以通過(guò)計(jì)算輸入圖像與背景圖像每個(gè)像素的顏色差分值來(lái)提取。如果每個(gè)像素的顏色差分值比設(shè)定閾值大,這個(gè)像素就會(huì)被認(rèn)為是前景;反之,該像素就會(huì)被認(rèn)為是背景。由于該閾值能夠自適應(yīng)地根據(jù)當(dāng)前幀圖像改變,因此該算法能夠適應(yīng)環(huán)境以及光線的變化。
為了更快地將當(dāng)前背景圖像更新至與當(dāng)前環(huán)境相適應(yīng)的圖像,采用背景模糊匹配方法選擇與當(dāng)前環(huán)境最接近的初始背景圖像。具體方法如下:
(1)選擇不同的天氣條件,在視野中沒(méi)有車(chē)輛時(shí)拍攝當(dāng)前圖像,建立靜態(tài)背景圖像庫(kù)。
(2)程序開(kāi)始獲取第一幀圖像,選取特定區(qū)域,與背景庫(kù)中圖像的同樣區(qū)域進(jìn)行比較。
(3)取差異最小的背景庫(kù)中圖像作為當(dāng)前初始背景圖像,參與檢測(cè)。
顏色分割算法從顏色差分直方圖中提取閾值,以適應(yīng)環(huán)境和光照的影響。因?yàn)殚撝档挠?jì)算是根據(jù)輸入圖像和背景圖像的顏色差分直方圖實(shí)時(shí)地計(jì)算求得,每一幀的閾值由當(dāng)前幀計(jì)算得出用于當(dāng)前幀前景分割,而文獻(xiàn)[8]中,當(dāng)前幀的前景分割用的是上一幀計(jì)算得出的閾值,這與實(shí)際情況不符。它能根據(jù)環(huán)境和光照的變化自適應(yīng)改變,所以該閾值的選取具有一定的魯棒性。為了使分割的車(chē)輛更清晰,需要對(duì)分割的結(jié)果進(jìn)行處理,包括去除陰影,填補(bǔ)和去噪等過(guò)程。最后,背景圖像根據(jù)顏色的分割結(jié)果進(jìn)行更新。
顏色差分直方圖算法對(duì)光照變化的抑制具有一定的魯棒性,該算法步驟如下:
(1)計(jì)算輸入和背景圖像在公交車(chē)道區(qū)域?qū)?yīng)位置的顏色差分值ΔI。
(2)利用ΔI計(jì)算運(yùn)動(dòng)目標(biāo)分割左右閾值。其中閾值設(shè)定理論表述為:在每一個(gè)顏色差分直方圖中背景像素的分布類(lèi)似于零均值的高斯分布,前景像素分布在零均值的兩側(cè)。文獻(xiàn)[8]是從零均值開(kāi)始往兩側(cè)遍歷拐點(diǎn),而本文是先找出峰值,再?gòu)姆逯甸_(kāi)始往兩側(cè)遍歷高低閾值。這種方法更符合實(shí)際,因?yàn)樵趯?shí)際情況中峰值不一定落在零點(diǎn)。在峰值兩邊的第一個(gè)拐點(diǎn)分別定義為右閾值H和左閾值L。
(3)利用L,H和ΔI分割輸入圖像:
if (L≤ΔI≤H)
該像素是背景;
(1)干預(yù)前后評(píng)估兩組關(guān)節(jié)活動(dòng)度。(2)評(píng)估護(hù)理滿(mǎn)意度,根據(jù)評(píng)分分為滿(mǎn)意、基本滿(mǎn)意與不滿(mǎn)意,以滿(mǎn)意與基本滿(mǎn)意之和占比統(tǒng)計(jì)護(hù)理滿(mǎn)意度。
根據(jù)式(1)背景更新;
else 該像素是前景;
其 中RB(x,y)、GB(x,y)、BB(x,y)分別是該背景圖像像素紅、綠、藍(lán)三個(gè)通道的像素值,Ri(x,y)、Gi(x,y)、Bi(x,y)分別為該輸入圖像像素紅、綠、藍(lán)三個(gè)通道的像素值,n=3。
(4)定義圖像Q為檢測(cè)圖像,其大小為M×N。先將其中所有像素都置為0,根據(jù)步驟(2)中得到的前景像素的坐標(biāo),將Q(xi,yi)置為1,即認(rèn)為是前景。
(5)根據(jù)文獻(xiàn)[9]的方法對(duì)Q去除陰影,定義:
若TH_S1≤Ra≤TH_S2,則Q(xB,yB) =0,即為背景。其中閾值參數(shù)TH_S1和TH_S2分別設(shè)為0.98 和1.6。
(6)根據(jù)文獻(xiàn)[10]方法對(duì)圖像Q進(jìn)行腐蝕膨脹。此時(shí)圖像Q即為檢測(cè)前景的結(jié)果圖像。
圖1 初始處理
實(shí)驗(yàn)結(jié)果證明,基于魯棒顏色差分直方圖的方法能夠?qū)崿F(xiàn)不同光照條件下(早晨和傍晚、陰天和晴天等)車(chē)輛的魯棒檢測(cè),為后續(xù)跟蹤和判別車(chē)輛違章?tīng)顟B(tài)和抓拍提供了可靠的檢測(cè)視頻。
圖2 陰天條件下檢測(cè)結(jié)果
圖3 多云條件下檢測(cè)結(jié)果
根據(jù)目標(biāo)檢測(cè)的結(jié)果,在圖像中框定前景團(tuán)塊,其大小為W×H,并且計(jì)算出其質(zhì)心的坐標(biāo)。通過(guò)卡爾曼濾波對(duì)其進(jìn)行跟蹤,預(yù)測(cè)目標(biāo)在下一時(shí)刻出現(xiàn)的位置區(qū)域,其大小為1.4W×1.4H,在該區(qū)域內(nèi)進(jìn)行下一時(shí)刻的檢測(cè),以確認(rèn)跟蹤的是同一目標(biāo)。
設(shè)車(chē)輛質(zhì)心坐標(biāo)為(xp,yp),車(chē)輛運(yùn)動(dòng)狀態(tài)向量為。卡爾曼濾波采用勻速模型,狀態(tài)轉(zhuǎn)移矩陣為:
量測(cè)矩陣為:
因?yàn)樵趯?shí)際系統(tǒng)中視頻刷新周期為8 f/s,所以T=0.125 s 。初始狀態(tài)X=[7 00 0 1 200 0]T,初始過(guò)程噪聲協(xié)方差矩陣P( 0 |0 )與量測(cè)噪聲協(xié)方差矩陣R 均為4×4單位矩陣。根據(jù)卡爾曼濾波基本方程:
得到預(yù)測(cè)狀態(tài)X=x(k+1|k+1),即可得到車(chē)輛質(zhì)心坐標(biāo)的預(yù)測(cè)值。
圖4 不同天氣條件下跟蹤結(jié)果
在本十字路口,最右側(cè)車(chē)道為公交專(zhuān)用車(chē)道。當(dāng)社會(huì)車(chē)輛借用公交車(chē)道右轉(zhuǎn)彎時(shí),并不構(gòu)成違章;但當(dāng)社會(huì)車(chē)輛占用公交車(chē)道,越過(guò)十字路口中心線并且繼續(xù)直行的,則視為違章車(chē)輛。因此,當(dāng)車(chē)輛越過(guò)停車(chē)線時(shí),需要對(duì)車(chē)輛進(jìn)行持續(xù)檢測(cè)與跟蹤,依據(jù)劃定的邊界線判斷其是右轉(zhuǎn)彎還是直行。此時(shí),將車(chē)輛越過(guò)停車(chē)線的圖像保存在緩沖區(qū)作為第一張圖片。若跟蹤的車(chē)輛質(zhì)心越過(guò)設(shè)定的邊界線時(shí),判斷該目標(biāo)是直行還是轉(zhuǎn)彎,決定是否抓拍。如圖在視野中劃定車(chē)輛右轉(zhuǎn)彎的界線橫坐標(biāo)為1 500,當(dāng)xp≥1 500 時(shí),認(rèn)為車(chē)輛右轉(zhuǎn)彎,釋放緩沖區(qū)中保存的圖像;劃定車(chē)輛直行的界線縱坐標(biāo)為520,當(dāng)yp≥520 時(shí),則認(rèn)為該車(chē)輛直行了,屬于違章車(chē)輛,將此時(shí)的圖像與緩沖區(qū)中的圖像一起保存,該組圖像即可作為違章的證據(jù)。
圖5 違章判斷流程圖
圖6 直行(橫)轉(zhuǎn)彎(豎)邊界線
圖7 違章證據(jù)
系統(tǒng)主程序采用Visual Studio 2008 編譯環(huán)境,MFC和OpenCV2.0 庫(kù)函數(shù)編寫(xiě)[11]。為了進(jìn)一步加快運(yùn)算速度,處理時(shí)將原圖分辨率從1 600×1 200 縮放至320×240,而抓拍時(shí)為了保證圖像清晰度,仍然保存1 600×1 200 的高清晰圖像。攝像頭型號(hào)為CY-DC2035J,讀取速率為8 f/s,圖8為系統(tǒng)主程序運(yùn)行流程圖。
表1 不同方法現(xiàn)場(chǎng)處理結(jié)果比較
表2 不同方法處理同一段視頻結(jié)果比較
圖8 系統(tǒng)流程圖
為了驗(yàn)證本文提出算法的有效性,利用同一路口監(jiān)測(cè)場(chǎng)景,分別在光照變化不明顯的陰天、光照變化相對(duì)穩(wěn)定的晴天和光照變化劇烈的多云天氣進(jìn)行違章車(chē)輛抓拍實(shí)驗(yàn),記錄實(shí)際違章車(chē)輛數(shù)和程序抓拍車(chē)輛數(shù),采用平均背景分割法、Codebook 法與本文方法作為比較,在一個(gè)綠燈周期內(nèi)對(duì)違章車(chē)輛進(jìn)行檢測(cè)抓拍。得到的對(duì)比結(jié)果如表1所示。
表1 中每個(gè)條件下的4 個(gè)數(shù)據(jù)分別為:實(shí)際違章車(chē)輛數(shù),抓拍車(chē)輛數(shù),準(zhǔn)確率和處理速率。通過(guò)分析表中數(shù)據(jù)可以看出,Codebook方法處理速度有限,每秒只能處理4幀,導(dǎo)致在不同環(huán)境下違章辨別準(zhǔn)確率不足20%。而背景剪除法在光照變化不明顯的環(huán)境下能夠滿(mǎn)足要求,但是環(huán)境發(fā)生變化后就會(huì)失效崩潰,其處理速度由于算法簡(jiǎn)單而能夠滿(mǎn)足8 f/s 的要求。本文提出的魯棒顏色差分直方圖方法能夠?qū)崟r(shí)處理攝像頭讀取的圖像,滿(mǎn)足攝像頭讀取速率,并且在環(huán)境變化時(shí)違章辨別準(zhǔn)確率均能保證在80%以上。表2 中列出了對(duì)三種不同天氣環(huán)境下同一段視頻的處理結(jié)果,通過(guò)實(shí)驗(yàn)數(shù)據(jù)可以看出,當(dāng)播放速率達(dá)到12 f/s 時(shí),本文方法依然能夠跟上播放速率,處理速率也能達(dá)到12 f/s,并且能夠保證準(zhǔn)確率在80%以上,而背景剪除法不能適應(yīng)環(huán)境變化,Codebook 方法不能滿(mǎn)足實(shí)時(shí)性要求。以上實(shí)驗(yàn)結(jié)果證明在不同的場(chǎng)景和天氣條件下,該方法能夠保證準(zhǔn)確性和實(shí)時(shí)性,是一種可應(yīng)用于實(shí)際系統(tǒng)的快速檢測(cè)方法。
針對(duì)交通監(jiān)測(cè)中對(duì)違章車(chē)輛辨別不能滿(mǎn)足魯棒性和實(shí)時(shí)性的要求,本文采用魯棒顏色差分直方圖方法抑制環(huán)境變化,分割前景和背景,準(zhǔn)確分辨違章車(chē)輛。采用設(shè)定感興趣區(qū)域ROI 和圖像縮放提高處理速度,精確跟蹤公交車(chē)道上的車(chē)輛,區(qū)分和記錄違章車(chē)輛。本文方法特點(diǎn)如下:(1)采用背景圖像模糊匹配,對(duì)初始背景圖像進(jìn)行篩選,以便更快將背景更新至適應(yīng)當(dāng)前環(huán)境。(2)對(duì)顏色差分直方圖閾值自適應(yīng)算法進(jìn)行改進(jìn),當(dāng)前幀閾值用于分割當(dāng)前幀前景,改善檢測(cè)效果。(3)采用劃定感興趣區(qū)域和圖像縮放,加快運(yùn)算速度。實(shí)驗(yàn)結(jié)果表明該方法可靠有效,并且滿(mǎn)足實(shí)時(shí)性要求,目前該系統(tǒng)已應(yīng)用于路口違章車(chē)輛實(shí)時(shí)檢測(cè)系統(tǒng)中。
[1] 王為,姚明海.基于計(jì)算機(jī)視覺(jué)的智能交通監(jiān)控系統(tǒng)[J].浙江工業(yè)大學(xué)學(xué)報(bào),2010,38(5):574-579.
[2] 馮軍,金立.基于視覺(jué)跟蹤的交通監(jiān)控[J].電腦知識(shí)與技術(shù),2010,6(24):62-67.
[3] 白立崗,賈冬冬.紅外攝像機(jī)在交通監(jiān)控系統(tǒng)中的應(yīng)用[J].中國(guó)交通信息產(chǎn)業(yè),2009,11(11):89-90.
[4] 高韜,劉正光,岳士宏,等.用于智能交通的運(yùn)動(dòng)車(chē)輛跟蹤算法[J].中國(guó)公路學(xué)報(bào),2010,23(3):89-94.
[5] 陳功,楊奎元,周荷琴,等.魯棒的實(shí)時(shí)多車(chē)輛檢測(cè)與跟蹤系統(tǒng)設(shè)計(jì)[J].信號(hào)處理,2009,25(4):607-612.
[6] Wang Junxian,Bebis G,Miller R.Robust video-based surveillance by integrating target detection with tracking[C]//Proceedings of the 2006 Conference on Computer Vision and Pattern Recognition Workshop(CVPRW’06),2006.
[7] Kun A J.Traffic monitoring with computer vision[C]//7th International Symposium on Date of Conference on Applied Machine Intelligence and Informatics,2009.
[8] Chiu Chung-Cheng,Ku Min-Yu,Liang Li-Wey.A robust object segmentation system using a probability-based background extraction algorithm[J].IEEE Transactions on Circuits and Systems for Video Technology,2010,4(20):68-76.
[9] Bevilacqua A.Effective shadow detection in traffic monitoring applications[J].WSCG,2004,1(11):57-64.
[10] Wahl F M,Wong K Y,Casey R G.Block segmentation and text extraction in mixed text/image documents[J].Computer Graphics Image Process,1982,20(4):375-390.
[11] Bradski G,Kaehler A.Learning OpenCV[M].[S.l.]:Newgen Publishing,2008:68-108.
[12] Salvador E.Cast shadow segmentation using invariant color features[J].Computer Vision and Image Understanding,2004,2(6):238-259.