彭梓晗 程佳馨 魏筱萌
(南京農(nóng)業(yè)大學(xué)工學(xué)院農(nóng)機(jī)系,中國 南京 210031)
電動自行車逆行是重大交通事故的罪魁禍?zhǔn)祝欢缆飞先鄙賹ζ浔O(jiān)管的裝置,致使其駕駛者產(chǎn)生僥幸心理。而人工監(jiān)管耗時(shí)費(fèi)力,因而設(shè)置對非機(jī)動車如電動自行車的監(jiān)管裝置勢在必行,只有實(shí)現(xiàn)和機(jī)動車類似的違章抓拍,才能從根本上解決。
交通事件監(jiān)測系統(tǒng)有如下幾個(gè)流程:運(yùn)動車輛自動檢測、運(yùn)動車輛自動跟蹤、交通事件判定、異常交通事件發(fā)生自動報(bào)警。核心部分是對采集的交通監(jiān)測視頻進(jìn)行圖像處理,通過對目標(biāo)的檢測與跟蹤,得到其行駛軌跡,再利用算法對車輛違章行為進(jìn)行判定,從而達(dá)到對車輛違章事件的監(jiān)測。
混合高斯模型是一個(gè)可以用來表示在總體分布中含有K個(gè)子分布的概率模型,其中K取值為3到5。K值越大,處理得到的檢測效果越好,但處理所需時(shí)間也越長。其概率密度函數(shù)可以用K 個(gè)高斯函數(shù)表示:
獲得新的圖像后,將當(dāng)前圖像像素和混合高斯模型中K 個(gè)高斯分布進(jìn)行匹配,若滿足下式,則認(rèn)為匹配成功。
以下為通過高斯混合模型提取出來的背景和前景:
圖1 視頻前景圖
圖2 視頻背景圖
1.3.1背 景 差 分 法
該算法是利用視頻圖像中的當(dāng)前幀與背景參考模型比較來檢測運(yùn)動前景的一種方法。設(shè)定BGi為背景圖像,F(xiàn)i為當(dāng)前幀圖像,差分圖像 Di,則:
為RiDi(x,y)二值化后的圖像。對 Ri進(jìn)行連通分析,當(dāng)此連通區(qū)域的面積大于設(shè)定閾值T,就認(rèn)為是檢測目標(biāo)。
1.3.2幀 間 差 分 法
幀間差分法是利用相鄰幀圖像間的區(qū)別來獲取運(yùn)動目標(biāo)。即對一段視頻中連續(xù)的圖像幀做差分運(yùn)算,以此獲取運(yùn)動目標(biāo)輪廓。在多目標(biāo)檢測和攝像機(jī)運(yùn)動的情況下也具有很好的適用性。
1.4.1基 于 輪 廓 的 跟 蹤 方 法
其思想是將圖像進(jìn)行分割,得到一塊連通的區(qū)域,進(jìn)而判別該區(qū)域是背景還是前景。將得到的目標(biāo)輪廓作為初始模板,對視頻中的每一幀圖像進(jìn)行二值化處理,最后進(jìn)行模板匹配,跟蹤運(yùn)動目標(biāo)的輪廓,并自適應(yīng)更新。
1.4.2基 于 特 征 跟 蹤 法
該算法通過提取車輛某些特征來實(shí)現(xiàn)車輛跟蹤。常見的目標(biāo)特征有:點(diǎn)、線、區(qū)域、大小、邊緣,有時(shí)候還有一些亮度特征。在視頻圖像序列中,一般情況下的幀頻率為15-30幀/秒,可以假設(shè)這些特征在其運(yùn)動軌跡上是平滑的。
1.4.3基于 3D模型的跟蹤方法
該方法是根據(jù)攝像機(jī)的三維幾何學(xué)知識,通過將一個(gè)三維模型投影到圖像中,從而分析圖像中運(yùn)動目標(biāo)的位置而進(jìn)行跟蹤[1]。運(yùn)用三維模型來描述,特征較全面,但獲取精確的運(yùn)動目標(biāo)幾何模型非常困難,因此其應(yīng)用也受限。
2.1.1降 噪 處 理
圖像降噪的方法有均值濾波、中值濾波、形態(tài)學(xué)噪聲濾除和小波去噪等。通過比較分析,我們最終采用的是中值濾波,這種降噪方法對消除椒鹽噪聲特別有效,既去除噪聲又能保證圖像的邊緣銳度不改變。
2.1.2降 序 排 序
利用OpenCV中自帶的尋找輪廓和繪制輪廓函數(shù)獲取前景對象的最外輪廓,再將每一個(gè)輪廓的面積用其外接矩形的面積表示,并對面積進(jìn)行降序排序,去除偽目標(biāo)。
卡爾曼濾波原理是:根據(jù)運(yùn)動方程對該值進(jìn)行預(yù)測,作為跟蹤的一個(gè)依據(jù)。另一個(gè)依據(jù)是用測量手段得到變量的值??柭鼮V波通過對這兩個(gè)依據(jù)進(jìn)行一系列迭代實(shí)現(xiàn)運(yùn)動車輛跟蹤[2]。
卡爾曼濾波理論的兩個(gè)核心公式為:
運(yùn)動方程:Xk=AkXk-1+Wk(2-1)
預(yù)測方程:Yk=CkXkVk(2-2)
2.2.1跟 蹤
1)跟蹤車輛質(zhì)心提取
在圖像處理中用外接矩形框住電動自行車,矩形中心即車輛質(zhì)心。由矩形可以獲得對角點(diǎn)坐標(biāo):左下點(diǎn) A(x0,y0),右上點(diǎn) B(x1,y1)。通過對角點(diǎn)坐標(biāo)可以求出中心坐標(biāo)
2)質(zhì)心匹配
假設(shè)我們要跟蹤第k幀中的第i個(gè)目標(biāo),要計(jì)算在k+1幀中所有車輛目標(biāo)和上一幀中第i個(gè)目標(biāo)的距離,我們假設(shè)與k+1幀第j個(gè)目標(biāo)進(jìn)行計(jì)算:
2.2.2軌 跡 顯 示
將監(jiān)測的電動自行車質(zhì)心標(biāo)記為:
其中(xiyi)表示第i幀圖像中被追蹤目標(biāo)的質(zhì)心坐標(biāo),將這些坐標(biāo)相連,即可繪制出電動自行車運(yùn)動軌跡,再根據(jù)圖線判斷電動自行車行為。
以道路規(guī)定的正確行駛方向?yàn)閥軸正方向,攝像機(jī)對著車流來向。用數(shù)組Centre[i]來存儲質(zhì)心坐標(biāo)。在正確的行駛情況下,y軸的坐標(biāo)只會逐步增大,一旦出現(xiàn)yi+1-yi<0,即可判定電動自行車逆行。但是這種判斷方法易受干擾,檢測的錯(cuò)誤率較高,因此需添加一個(gè)約束條件:
其中Dm表示檢測幀數(shù)的最少值。NUM表示在兩幀間逆行的次數(shù),N表示比較總次數(shù),若其中逆行的比例較大,則認(rèn)為車輛發(fā)生了違章逆行。
圖3 電動自行車檢測結(jié)果
圖4 質(zhì)心跟蹤軌跡
本文運(yùn)用Open CV3.0.0和Visual Studio2010搭建了交通視頻監(jiān)測平臺,實(shí)現(xiàn)電動自行車逆行檢測。道路現(xiàn)有的攝像頭基本都是對機(jī)動車違章進(jìn)行抓拍,缺少對電動自行車的監(jiān)測。在對比傳統(tǒng)的基于圖像處理的車輛行為檢測技術(shù)后,采取合適的方法對電動自行車逆行行為進(jìn)行研究,仍存在以下待改進(jìn)的地方:
(1)電動自行車逆行的交通視頻難以采集,算法測試樣本不足;
(2)本文所用視頻發(fā)生時(shí)間均為白天,對于夜間的電動自行車檢測準(zhǔn)確度將會降低;
(3)交通監(jiān)測系統(tǒng)應(yīng)能自主檢測并報(bào)警,本文所用算法無法做到實(shí)時(shí)傳送;
(4)當(dāng)交通場景中車輛運(yùn)行混亂時(shí),應(yīng)結(jié)合更多的特征作為目標(biāo)模板。當(dāng)有遮擋發(fā)生時(shí),算法應(yīng)該能在線學(xué)習(xí)來保持目標(biāo)跟蹤的實(shí)時(shí)性。
【參考文獻(xiàn)】
[1]高冬冬.基于車輛跟蹤軌跡的停車和逆行檢測研究[D].西安:長安大學(xué),2015.
[2]王明.Kalman濾波實(shí)現(xiàn)目標(biāo)跟蹤[DB/OL].http://blog.csdn.net/wangluomin/article/details8807602,2013.4.16.