唐 玲, 陳明舉, 楊平先
(四川理工學(xué)院 自動化與電子信息學(xué)院, 四川 自貢 643000)
?
基于機(jī)器視覺的車輛距離測量系統(tǒng)設(shè)計
唐 玲, 陳明舉, 楊平先
(四川理工學(xué)院 自動化與電子信息學(xué)院, 四川 自貢 643000)
為實現(xiàn)車距測量實時性與準(zhǔn)確性的要求,機(jī)器視覺被引入到車距測量中,設(shè)計了具有實用性的單目視覺的車輛距離測量系統(tǒng)。該系統(tǒng)首先對采集到的圖像利用小波變換進(jìn)行去噪與增強(qiáng),再通過Hough與模糊集論對車道線進(jìn)行提取作為定位車輛的參考線以減少車輛定位的搜索時間,通過路面灰度值與基于窗口能量的方法準(zhǔn)確定位車輛,最后根據(jù)針孔成像原理建立實際三維圖像空間與攝像機(jī)二維圖像的映射關(guān)系,計算出前面車輛的實際距離值。結(jié)果表明,當(dāng)實際車輛距離小于70 m時,測距絕對誤差小于2 m,相對誤差不超過5%,測距時間小于0.25 s。
機(jī)器視覺; 車道線檢測; 圖像去噪; 距離測量
隨著汽車日益普及,人們越來越重視駕駛的安全性和操作的簡單性,很多學(xué)者積極對汽車輔助駕駛系統(tǒng)進(jìn)行研究[1]。車道線檢測與車距的測量是實現(xiàn)智能駕駛的關(guān)鍵技術(shù)。由于機(jī)器視覺具有視覺范圍寬、性能穩(wěn)定、價格便宜,以及提供的視覺信息豐富等特點信息,越來越多的研究人員致力于機(jī)器視覺對車距測量的研究[2-4]。
目前,應(yīng)用于智能車輛的視覺系統(tǒng)主要有雙目視覺距離測量和單目視覺系統(tǒng)。雙目視覺距離測量需要2個或多個攝像頭,這就大大增加了圖像的處理時間和經(jīng)濟(jì)成本,同時設(shè)備的安裝、圖像的同步與匹配也較困難。而單目視覺系統(tǒng)值需要一個攝像頭,可以從序列圖像中獲得準(zhǔn)三維圖像,從而定位車輛的位置,無疑大大減少運算的時間提高實時性要求。于是許多人致力于單目測距領(lǐng)域的研究[5-7],但他們側(cè)重于距離的測量,而沒有結(jié)合實際道路情況對實時性、魯棒性以及實用性進(jìn)行研究。本文根據(jù)實際道路的情況,從實時性、魯棒性和實用性方面考慮,對車道圖片的預(yù)處理、車道線的檢測以及測量的距離測定進(jìn)行研究,設(shè)計一種基于單目視覺的車輛距離測算系統(tǒng),該系統(tǒng)具有很強(qiáng)的實時性和實用性。
1.1 車道圖像去噪增強(qiáng)
在車道圖像的獲取過程中,由于天氣、汽車運動、隨機(jī)障礙等不利因素的影響,不可避免地造成獲得的圖像質(zhì)量的下降。因此,在進(jìn)行車輛距離測定之前車道圖像必須去噪與增強(qiáng)預(yù)處理。由于小波變換擁有時域和頻域“變焦距”分析能力, 在圖像去噪與增強(qiáng)處理方面能取得很好的效果[8],并且運算簡單,因此,可以對道路圖像在小波域同時實現(xiàn)去噪與增強(qiáng)處理。二維圖像進(jìn)行小波變換,能夠得到一個低頻子帶和不同尺度下的多個高頻子帶。低頻子帶系數(shù)反映圖像整體的對比度信息,高頻子帶系數(shù)反映圖像細(xì)節(jié)與噪聲信息,可以對低頻帶系數(shù)進(jìn)行非線性變換以實現(xiàn)圖像增強(qiáng),對各尺度高頻帶系數(shù)進(jìn)行閥值處理以消除噪聲。低頻帶采用的非線性變換函數(shù)為:
(1)
式中:
b實現(xiàn)對非線性函數(shù)的分段點控制,c控制非線性函數(shù)的斜率。其函數(shù)曲線如圖1所示。
各尺度高頻帶閥值處理函數(shù)為:
(2)
獲得的車道圖像及采用小波變換去噪增強(qiáng)后的圖像如圖2所示。由圖可見,去噪增強(qiáng)處理后的圖像不僅去除了噪聲,車道線、車輛明顯變得更清晰度了。
圖1 非線性變換函數(shù)
圖2 車道圖像的消噪與增強(qiáng)結(jié)果
1.2 車道線的提取
許多單目視覺車輛測距技術(shù)重于整個路面的處理,而忽視了分道線的作用。如果能把車道線提取作為車輛距離測定的的參考點,將提高距離測定的精度并減少運算時間。車道線的灰度值遠(yuǎn)大于其他區(qū)域的灰度值,通過簡單的邊緣算子就能提取車道線。如果直接進(jìn)行邊緣檢測運算量較大,為減少運算量,可以通過閥值處理后得到二值圖像進(jìn)行邊緣檢測而得到只含有車道線的圖像。Otsu是通過計算類間方差最大值獲得最優(yōu)閥值,分割效果較好。因此,選取Otsu對車道圖像進(jìn)行閥值分割[9]。Otsu算法首先采用如下公式計算圖像中背景、目標(biāo)的均值:
(3)
(4)
(5)
由目標(biāo)和背景兩類像素的類間方差的OTSU最佳閾值t為:
(6)
閥值處理后二值圖像的道路線與路面不同的灰度值,但同時也存在細(xì)小的邊緣,由于道路線呈現(xiàn)不同的角度,為使檢測到的道路線邊緣連續(xù),去除細(xì)小的邊緣。選取具有8個卷積核能對某特定邊緣方向做出最大響應(yīng)的Krish算子。Krish算子的8個卷積核如下:
Krish算子提取的車道線圖片如圖3(b)所示。接下來對Krish算子提取的車道線圖片進(jìn)行車道線的提取。由于車道線具有間斷性并伴有雜物遮擋,直接用Hough變換提取直線時,由于其統(tǒng)計特性的模糊度較低,容易產(chǎn)生雙線、干擾直線從而影響車道線的提取[10-11]。為克服這一缺點將模糊聚類的思想引入到車道線的檢測中,對Hough變換提取直線進(jìn)行聚類分析提高邊緣線檢測的正確性。
Hough變換是把圖像空間(x,y)中定義的一些滿足某種方程的點變換到參數(shù)空間(a,b)當(dāng)中去。所有過圖像空間(x,y)點的直線都滿足方程:
y=ax+b
(7)
式中:a為斜率;b為截距。ab平面稱為參數(shù)平面;xy平面內(nèi)一個固定的點對應(yīng)于參數(shù)平面一條直線,反過來,參數(shù)平面內(nèi)一個固定的點對應(yīng)于xy平面一條直線。由此可知,圖像平面共線的點將在參數(shù)平面上有一個公共的焦點。Hough變換對線的檢測就是找到參數(shù)平面上的該焦點,從而檢測出該焦點對應(yīng)圖像平面中的線。直接采用Hough采集到的路面標(biāo)線不夠清晰,這樣就造成車道線誤檢和漏檢。為提高對車道線識別的正確率,對Hough變換提取出道路標(biāo)識線點采用模糊集論的方法進(jìn)行再判斷[12-13]。具體步驟如下:
(1) 對二值圖像進(jìn)行Hough變換,對檢測到的道路線做相應(yīng)的標(biāo)注,對標(biāo)注點構(gòu)成樣本集
(2) 選擇幾個樣本點作為聚類中Ck,用一條方向特征和位置特征同時改變的直線掃描當(dāng)前中心點Ck,記錄下滿足當(dāng)前直線特征的a和b,組成Ck的特征值
(3) 用一條方向特征和位置特征同時改變的直線掃描樣本集內(nèi)的樣本Ui,并記錄滿足直線的參數(shù)值a與b,組成Ui的特征值,
其中,m為當(dāng)前樣本具備的直線特征總數(shù)。
(4) 采用歐幾里德距離作為聚類準(zhǔn)則,使樣本點向各中心聚集,得到分類樣本點與中心點的距離矩陣:
其中:k為選取的聚類中心總數(shù),
(5) 當(dāng)Ak,j<δ時,認(rèn)為樣本點Ui屬于第k類,將其歸入Ci類。
(6) 求Ci類中直線特征的樣本點的直線斜率ak和截距bk,即可得到該類樣本點所確定的直線yk=akxk+bk。
通過Hough變換與模糊集論提取的車道線如圖3(c)所示,可見提取的圖像不僅無雜物的干擾,而且相鄰的車道線的影響也消除了。
圖3 車道線的提取
1.3 目標(biāo)車輛的定位
通常,車輛在兩條車道線之間行駛,為減少計算量,首先只在兩條車道線之間定位車輛。對于目標(biāo)車輛的識別,本文采用基于路面灰度值的初始目標(biāo)車輛定位與基于窗口能量的車輛準(zhǔn)確定位相結(jié)合的方法準(zhǔn)確定位車輛。最后建立模型,準(zhǔn)確測得前方目標(biāo)距離。通常車道范圍內(nèi)灰度值基本保持不變的,而在車輛底部位置將出現(xiàn)陰影,陰影小于路面灰度值,因此可以在去噪增強(qiáng)后圖片中通過求車輛的底部平均灰度值找到車輛底部,從而實現(xiàn)對車輛的粗定位。車輛底部可以通過m×m窗口內(nèi)的局部平均值相對較小來確定,局部平均值定義為:
(8)
單憑這一點可以找到車輛的大致位置,接下來需要找到汽車的車牌邊緣位置,更準(zhǔn)確定位車輛位置。閥值分割后圖像的邊緣信息較多,對車輛的精確定位造成誤導(dǎo)。因此,采用數(shù)字形態(tài)學(xué)中的開運算去除不利的邊緣。開運算定義如下:
(9)
開運算是用一個結(jié)構(gòu)體S對腐蝕圖像先腐蝕后膨脹。從而去掉圖像中小于結(jié)構(gòu)體S的邊緣。開運算處理過程如圖4所示。
圖4 車輛的定位
從開運算處理后的圖像上可見,車牌位置的灰度值小于車牌周圍的灰度值,通過對車輛底部位置上面區(qū)域進(jìn)行能量法搜索的方法找到車牌位置坐標(biāo),從而獲得車輛的準(zhǔn)確位置。具體方法如下,選取n×k的正方形,在開運算后的圖像計算局部能量,局部能量最小的位置點為車輛的精確位置,如圖4(c)所示精確位置坐標(biāo)為(545,324)。
1.4 距離的測定
圖5 顯示坐標(biāo)與圖像坐標(biāo)
圖6 距離測定示意圖
(10)
從圖6可見地面上一點p在到攝像機(jī)焦點的水平距離可以通過下面公式得到:
(11)
測量實驗是搭建計算機(jī)測距程序上,實時捕獲前方車輛圖像,單目測距系統(tǒng)所使用的硬件包括計算機(jī)CPU為AMD 雙核 2.3 GHz,內(nèi)存2 GB,ColorCCD Camera, 32倍光學(xué)變焦,分辨率為0.2inch,DH-CG,400 圖像采集卡,其分辨率為768×576×24 bit。攝像機(jī)中心軸與x軸垂直方向的夾角θ′為0°,攝像機(jī)孔徑張角2α為0.396,攝像機(jī)與地面距離h為1.5 m。為了方便獲得車輛的實際距離,選擇車輛較少的公路進(jìn)行實驗。實驗中所測的距離數(shù)據(jù)、誤差以及處理時間如表1所示。
從表1可以看出,隨著距離的增加,絕對距離和相對距離誤差都在增大,運算時間也在增加。這是由于測距精度受采集到的圖像中車輛的清晰度的影響,距離越遠(yuǎn),單位距離的分辨率就越低,車輛圖像越模糊,定位車輛在圖像空間的誤差就大,引起的測距誤差就越大。但是總的來看,在100 m以內(nèi),相對誤差基本上
表1 車距測量的部分?jǐn)?shù)據(jù)
不會超過5%。當(dāng)實際車輛距離小于70 m時,測距絕對誤差小于2 m,測距時間小于0.25 s。另外,在彎道、斜坡、遮擋物等不規(guī)則的道路試驗時,提取的參考車道線不夠準(zhǔn)確,但可以通過找到車牌位置實現(xiàn)車輛的定位,從而求得前車的直線距離,此時距離誤差約有增加,但是測距誤差和時間仍然滿足車輛輔助駕駛的要求,因此,本文的單目視覺車輛測距是一種可行的方案。
本文的車輛距離測定系統(tǒng)從圖像去噪與增強(qiáng)、車道線的檢測、目標(biāo)車輛識別定位及車距測量方面進(jìn)行了研究。為滿足實時性的要求并取得較好的圖像預(yù)處理效果,采用小波變換同時實現(xiàn)圖像的去噪與增強(qiáng)。再提取圖像中的車道線作為車輛定位的參考。采用基于路面灰度值的粗定位與基于車輛車牌位置的準(zhǔn)確定位。在距離車輛中,利用小孔成像原理進(jìn)行逆變換,在已知參數(shù)先驗知識情況下計算車輛實際距離。在實際試驗中,通過距離誤差與運算時間證明本算法滿足實時性要求并達(dá)到一定的精度,具有較好的應(yīng)用前景。
[1] 江登表,程小輝. 基于高斯運動模型的車輛檢測[J]. 電視技術(shù), 2009, 33(8):103-105.
[2] 郭克友.機(jī)器視覺技術(shù)在安全輔助駕駛中的應(yīng)用[M]. 北京:國防工業(yè)出版社, 2012:125-131.
[3] 隋亞剛,李正煕,劉小明,等. 城市智能交通控制理論與應(yīng)用[M]. 北京:中國水利水電出版社,2011: 62-68.
[4] 郝 靜.基于單目機(jī)器視覺的智能車輛測距系統(tǒng)研究[D]. 北京:北京工業(yè)大學(xué), 2011.
[5] 王武宏. 車輛人機(jī)交互安全與輔助駕駛[M]. 北京:人民交通出版社, 2012:92-97.
[6] Kim Z W. Robust lane detection and tracking in challenging Scenarios[J]. Intelligent Transportations Systems, 2008(9):16-26.
[7] 魯威威,肖志濤,雷美琳.基于單目視覺的前方車輛檢測與測距方法研究[J]. 電視技術(shù), 2011, 35(1):125-128
[8] 趙 麗, 王玉蘭, 張孝攀. 基于小波變換的圖像處理技術(shù)研究[J]. 四川理工學(xué)院學(xué)報(自然科學(xué)版), 2013, 26(6): 37-40.
[9] 檀建鵬,莊麗葵,王 彪. 一種用于無人機(jī)著陸的地平線提取算法[J]. 計算機(jī)工程, 2011, 37 (10):182-184.
[10] 魯 曼, 蔡自興, 李 儀.道路區(qū)域分割的車道線檢測方法[J]. 智能系統(tǒng)學(xué)報, 2012, 5(6):505-509
[11] 曾文靜,徐玉如,萬 磊.自主式水下機(jī)器人的光視覺管道探測跟蹤系統(tǒng)[J]. 上海交通大學(xué)學(xué)報, 2012,46(2):178-183.
[12] 王洪亞.一種改進(jìn)的夜間車牌定位和字符分割算法[J]. 四川理工學(xué)院學(xué)報(自然科學(xué)版), 2013, 26(5): 38-42.
[13] 李晶校. 模式識別[M]. 北京:電子工業(yè)出版社, 2010: 206-208
[14] 杜鑫峰,熊 蓉,褚 健. 仿人足球機(jī)器人視覺系統(tǒng)快速識別與精確定位[J]. 浙江大學(xué)學(xué)報(工學(xué)版), 2009, 43 (11):1975-1980.
[15] LIU Xin, XU Xin. Vision-based long-distance lane perception and front vehicle location for full autonomous vehicles on highway roads[J]. Journal of Central South University, 2012, 19(5):1454-1466.
Design of Vehicle Distance Measurement System Based on Machine Vision
TANGLing,CHENMing-ju,YANGPing-xian
(College of Automation and Electronic Information,Sichuan University of Science and Engineering, Zigong 643000, China)
In order to realize real-time and accurate measurement of vehicle distance system, the paper presents a prototype vehicle distance measurement system based on the monocular vision. This system first uses wavelet transformation to denoise and enhance the image, then extracts the lane line as reference of vehicle by using Hough and fuzzy set theory to reduce the searching time, uses grey value of the road and winder energy to locate the vehicle. Finally, by the geometric transformation theory mapping relationship between the actual 3D space and the 2D image space is established, and the leading vehicle distance is calculated. The experiment results show the absolute distance error is less than 2 meters provided that the actual distance is less than 70 m,the relative error is less than 5%, and the processing time is less than 0.25 seconds. So this vehicle distance measurement system is real-time and accurate enough to utility.
machine vision; lane detection; image denoising; distance measurement
2015-05-25
四川省教育廳科研項目(13ZB0138);人工智能四川省重點實驗室開放基金項目(2013RYY02);四川理工學(xué)院校級科研基金項目(2012KY13)
唐 玲(1981-),女,重慶銅梁人,講師,從事圖像與信息處理研究。Tel.:0813-8237368;E-mail:fashion-kitty@163.com
TN 911.73
A
1006-7167(2016)03-0056-04