陳志猛,劉東權
(四川大學 計算機學院,四川 成都610064)
車輛檢測技術一直是智能交通和模式識別領域的一個重要研究課題,有著十分廣泛的應用。車輛檢測技術作為車輛跟蹤、視頻測速、流量統(tǒng)計,車輛識別等技術的前提,其檢測的速度和精準度都將直接影響著智能交通系統(tǒng)的整體效率和質量。車輛檢測是一種典型的目標檢測和目標定位技術,其主要任務是檢測所拍攝的車道路圖像中是否存在感興趣的車輛并確定其位置。由于受道路圖像的自然背景、車道線、光照條件、車標模糊、污損、變形傾斜等影響,車輛檢測與定位一直是一個具有挑戰(zhàn)性的熱點研究課題。隨著近年來計算機技術的不斷提高和智能交通發(fā)展,車輛檢測技術有了很大的突破。
車輛檢測的常用的方法有:①幀差法[1-3],幀差法于場景的變化具有較強的自適應性,但一般不能完全提取出所有相關的特征像素點,在運動實體內(nèi)部產(chǎn)生空洞現(xiàn)象,容易漏檢運動速度較慢的車輛,并且常常會將一輛車分成幾個部分造成多檢。②光流法[4-6],在攝像機運動的前提下也能檢測出獨立的運動目標,但光流計算方法相當復雜,計算量大,且去噪性能差。③基于立體視覺的車輛檢測法[7-9],運用兩個或多個攝像機對同一景物從不同位置成像獲得立體像對,通過各種算法匹配出相應像點,從而恢復深度 (距離)信息。該方法能在車速很小時直接檢測其位置,但它要求正確標定攝像機,受車輛運動或天氣等因素影響,這是很難做到的。④基于知識的方法10,利用車輛的形狀、顏色、對稱性等信息,以及道路和陰影等常識信息進行相關檢測。該方法簡單、直觀,易于編程實現(xiàn),但需要估計多個經(jīng)驗閾值,如車輛長寬的經(jīng)驗比值、車輛邊緣的最小長 度、車輛陰影與道路的灰度差異閾值等。經(jīng)驗閾值準確與否,直接關系系統(tǒng)性能的好壞。這些方法都有一定的局限性。而且只能檢測攝像頭前方固定區(qū)域,檢測一部分圖像上的車輛。
基于以上算法的不足,本文提出了一種基于對稱性的快速車輛檢測新方法。該方法能在最大限度的減少非車輛圖像區(qū)域帶來的干擾的基礎上,充分利用車輛具有對稱性和車輛水平邊緣等重要特性實現(xiàn)對圖像中所有車輛的快速、精準定位。
在道路圖像中,行駛的汽車具有一定程度的對稱性,對稱性是各種不同車型汽車所具有的一個共同特性。本文利用汽車的對稱性特征檢測出道路圖像中的汽車。本算法的對稱性描述如下:
(1)對預處理的圖像做垂直邊緣檢測;
(2)在垂直邊緣圖像中,以從左至右的方向選取每一列垂直線作為中心對稱軸;用中心對稱軸為水平中心的矩形,其寬d:dmin<d<dmax;d++;
d從到一個預先設置的最小值dmin到一個最大值dmax,在矩形范圍內(nèi)尋找關于對稱軸對稱的對稱點數(shù)量(其中dmax為略大于最大汽車寬度,dmin為最小車寬);
(3)計算寬度為d的矩形區(qū)域內(nèi)的對稱度。令對稱度
sym=s2/n
式中:s——關于對稱軸對稱的對稱點數(shù),n——矩形區(qū)域內(nèi)所有垂直邊緣點數(shù);
計算每列對的稱度sym,并判斷sym=s2/n>T是否滿足 (T為預先設定的對稱度閥值)。
如果條件滿足,則被認為是中心對稱軸上存在車輛,并把最大對稱度所對應的d值作為待檢測出的汽車寬度。
一種實用的車輛檢測技術,除了要考慮檢測的精準性外,檢測的實時性也是至關重要的。為了提高算法高效性,首先對圖像進行預處理,以減少行人光線等非車輛區(qū)域因素對檢測算法帶來的干擾,提高檢測的速度。本算法采用了去除背景的方法,以突出汽車區(qū)域。采用圖像放縮的方法,提高算法的效率。用這兩種方法對原始圖像進行預處理。
在道路車輛檢測過程中,道路環(huán)境是非常復雜的,道路兩邊的樹木、車道線、橋梁、道路路標等,都會對車輛檢測帶來許多干擾。因為這些干擾因素的存在,如果不對背景做預處理,車輛檢測過程將變得非常復雜,將直接影響檢測的實時性和準確性。
在光照條件相似的同一道路環(huán)境下,道路圖像除了汽車存在的區(qū)域以外的其它區(qū)域和背景圖像的相應部分基本一致,如果用道路圖像對背景圖像做減操作便會得到突出汽車減弱背景的圖像。圖1,圖2,圖3分別為道路車輛圖像、背景圖像和道路車輛圖像減去背景圖像后的圖像。
為了有效地突出車輛的邊緣信息,提高算法的效率,對圖像進行車輛邊緣增強。常用邊緣增強算子有Robert算子,水平差分,Sobel算子模板等??紤]到Sobel算子對噪聲具有一定的抑制作用并能最大限度地檢測出邊界信息,本文采用對邊緣響應最大的Sobel算子x和y方向模板對水平邊緣和垂直邊緣進行增強。
在對稱性計算過程中,對稱性的計算是整個算法中最主要時間的消耗部分?;疑珗D像有太多的細節(jié),在計算對稱性非常耗時,而且不能提供比二值圖像跟多對稱性。本文利用最大類間方差求圖像的全局閾值,把灰度圖像轉化為二值圖像。
對圖3分別做水平和垂直邊緣檢測后的二值圖像。如圖4、圖5所示。
在檢測道路車輛圖像時,由于圖像中存在的車輛距離攝像頭的距離有遠有近,以至于汽車在圖像中尺寸存在著很大差異。距離攝像頭較遠的汽車尺寸較小,較近的尺寸較大。因此在判斷對稱度sym=s2/n>T是否成立時,T的預設值將隨車輛的遠近不同有所變化,其計算T過程將是非常復雜的,甚至很難求得。因此,為解決這個難題,本文算法采用分割的方法將圖5分割為遠景、中景和近景圖,分割后的3幅圖像尺寸的寬高比保持與原始圖像尺寸一致。將3幅分割圖像放縮到同一的尺寸大小 (寬高比不變,尺寸大小根據(jù)實際情況相應縮?。@樣一來便可以對3幅圖像分別確定一個固定大小的閥值T1,T2,T3(T1,T2和T3的值略有差別)。圖6表示圖像分割的示意圖。
圖6 垂直邊緣圖像分割遠中近景圖像
此外,利用圖像分割和放縮的方法還有一個很顯著的優(yōu)勢,它能明顯提高汽車檢測的速度,對原始圖像 (特別是具有較大尺寸的圖像)進行全圖對稱點尋找過程的耗時是相當驚人的,即便是最后能精確檢測出汽車位置,也是沒有實際利用價值的。放縮后對對稱點的尋找時間隨放縮后的圖像尺寸決定,不受原始圖像尺寸大小的影響。
本檢測算法主要包括以下幾步:對稱軸及相應車輛寬度的尋找和計算,冗余對稱軸的合并、求車輛的垂直位置、對遠景、中景和近景圖像的檢測結果進行第二次冗余合并。
利用汽車的對稱性性質檢測車輛是本算法思想的核心部分,因此對具有高對稱度的對稱軸的尋找是本算法的關鍵部分。以遠景圖為例,圖7為利用對稱算法sym=s2/n對Sobel垂直增強圖像的遠景圖的對稱軸計算結果。
圖7 遠景圖對稱軸檢測的結果
圖7 中的彩色垂直線為對遠景圖對稱軸的計算結果,從圖中可以觀察出,對每一輛汽車來說,由于汽車局部就滿足對稱性,通常求得的對稱軸多于一條,然而對于每輛車我們只要求確定其中心對稱軸,因此就有必要對圖中多條對稱軸進行合并。
本檢測算法所采用的合并算法被簡要描述為:
(1)確定合并組。因為水平平行行駛的兩輛車的對稱軸滿足一定車寬,所以我們認為同一輛汽車所檢測出來的所有對稱軸,其相鄰對稱軸之間的距離必須滿足小于某個給定寬帶,本實驗采用的實驗值為3。
(2)求出合并組內(nèi)所有以對稱軸為中心對應寬度的左右端點的水平最小值Xmin和最大值Xmax。
(3)合并后的對稱軸。以 (Xmin+Xmax)/2作為合并后的新的對稱軸。
(4)計算Xmin-Xmax作為合并后對稱軸所對應的汽車寬度值。
圖8為應用此合并方法的實驗結果。
圖8 遠景圖對稱軸合并后結果
汽車垂直位置的確定是在圖像的水平邊緣檢測圖的基礎上求得的。在水平邊緣檢測過程中,道路上行駛的車輛,車輛邊緣及底部有大量的陰影,像素密度比較大。本文計算方法為:對每條對稱軸確定一個d*h的矩形框 (其中d為對應對稱軸相應的汽車寬度,由3.2中的步驟 (4)求得;h根據(jù)原始圖像和放縮后的圖像尺寸共同確定,本實驗的實驗值為3),從對稱軸的底部向著頂部移動,當移動到某一位置時,如果這個矩形框被水平邊緣點填充的填充度大于預先給的一個閥值T′,則被認為是尋找到了汽車的底部位置。矩形填充度被定義為
T′=F/N
式中:F——矩形框內(nèi)被邊緣點填充的填充點數(shù),N——矩形框所能容納的對大點數(shù)。圖9為其實驗結果圖。
圖9 遠景圖車底檢測結果
由于本算法對圖像進行了遠景,中景和景圖像分割,因而同一輛汽車就有可能被劃分到多幅圖像中,以至于同一輛車被檢測多次。必須尋求一種方法能對同一輛車檢測的多個結果進行合并。本算法所采用方法如下:
(1)將遠景、中景和近景圖像的實驗結果按照相應的縮放比例還原到原始圖像中,如圖10所示。從圖中可以觀察出線3,4和線5,線8、9、10和11都為同一輛車在不同圖像中所檢測出的結果,需要對其進行合并。
圖10 遠中近景檢測圖像合并結果
(2)判斷需要進行合并的結果。以線4和線5為例,因為它們所對應的對稱軸距離有限,然而單根據(jù)它們對應的對稱軸距離卻不足以確定它們是否應該被合并,原因是相距很近的對稱軸完全有可能是前后處于同一水平位置汽車所檢測出來的。所以就有必要對其增加約束條件來判斷他們是否應該被合并。從圖中可以觀察出,同一車道上的兩輛車輛距離必能大于車長,線4和線5之間的垂直距離很明顯小于汽車的長度,因而需要被合并。汽車的長度可以用4/3倍線4和線5的平均值來確定。
(3)對需要合并的結果進行取舍。其方法是選擇垂直位置較低的水平線作為汽車的底部,汽車寬度值被認為是水平線寬度值。對道路車輛圖像進行檢測的最終試驗結果如圖11所示。
圖11 車底及對稱軸合并結果
實驗結果分析,該算法幾乎能檢測到測試圖片中的所有車輛的位置及其車寬,去除大量的干擾,算法高效易行。而且方向相反車輛也能夠被檢測到。但是,有些情況,比如車輛在圖片中有方向有偏移,或者由于光線,及車輛本身存在對稱性不足等原因,車輛不滿足對稱性,對稱性檢測不到車輛的存在。
在城市上下班高峰期時,路上車輛較多,車輛在圖像中容易形成重疊。同時,如果路上行人太多,而且一般情況下,行人也具有對稱性,行路與路面接觸的地方存在陰影,能影響到檢測效果。
速度分析:與本文圖像為例,圖像大小為352×255,對稱軸計算的次數(shù)大約要2 700 000次。本算法把原圖像縮放成176×140的3幅固定大小圖片,對稱軸計算次數(shù)為740 000次。運算速度是普通算法的3倍多,而且圖像越大,本算法速度的優(yōu)越性更好。
為了驗證算法的有效性,用該算法對100多張視頻照片,進行了檢測,圖像尺寸為352×288像素,計算機硬件環(huán)境為:AMD Athlon64X2Dual Core Processor3800+,1G,XP,VC++6.0。實驗結果表明,基于對稱性的車輛檢測算法簡單有效,平均檢測時間為100ms。
車輛檢測技術一直是智能交通和模式識別領域的一個具有挑戰(zhàn)性的熱點研究課題。隨著社會的進步,對車輛的檢測應用也越來越多。一些車輛檢測方法的檢測精度是隨著光照的變化而變化的,當光照良好時檢測精度好,反之如傍晚、雨雪天氣等光照不好時則較差;另一個問題是陰影問題,陰影是造成車輛檢測方法誤檢測的主要原因,陰影通常有3種情況:車輛自身的運動陰影、道路場景中的靜態(tài)陰影、緩慢移動的陰影如浮云造成的陰影;同時車輛在道路場景中的相互遮擋也是必須考慮的一種情況。本文提出了一種基于對稱性的車輛檢測法,該算法充分利用了在道路上行駛的車輛滿足對稱性及存在水平陰影這一特征,來檢測道路上行駛車輛。去除了道路背景及天氣環(huán)境的影響,克服了光照及陰影的影響,對室外環(huán)境的變化有較強的適應性。該算法對于高速公路及城市周邊道路的車輛檢測非常高效易行。經(jīng)道路試驗證明,該算法比以往算法更高效,同時檢測范圍和準確度也得到了很大的提高。道路試驗結果表明該算法的準確、易行有效,可靠,具有良好的魯棒性。
[1]TANG Jialing,LI Xiying,LUO Donghua.Fram-e difference method based on detection of vehicles at night[J].Vehicle and Control Computer,2008,16 (12):1811-1813 (in Chinese). [唐佳林,李熙瑩,羅東華.一種基于幀差法的夜間車輛檢測方法 [J].計算機車輛與控制,2008,16 (12):1811-1813.]
[2]QIU Daoyi,ZHANG Wenjing.Frame-differenc-e method in real-time tracking moving objects in the application [J].Journal of North China Institute of Water Conservancy and Hydroelectric Power,2009,30 (3):45-47 (in Chinese). [邱道伊,張文靜.幀差法在運動目標實時跟蹤中的應用 [J].華北水利水電學院學報,2009,30 (3):45-47.]
[3]LI Congjun,BO Jun.Frame difference method based on urban road vehicle detection at night [J].Manufacturing Automation,2011,33 (4):1009-1011 (in Chinese). [李從軍,柏軍.基于幀差法的夜間城市道路車輛檢測 [J].制造業(yè)自動化,2011,33 (4):1009-1011.]
[4]LI Xilai,LI Aihua,BAI Xiangfeng.Intelligen-t transportation systems optical flow motion detection vehicle [J].Electro-Optic Technology Application,2010,9 (2):75-78 (in Chinese).[李喜來,李艾華,白向峰.智能交通系統(tǒng)運動車輛的光流法檢測 [J].光電技術應用,2010,9 (2):75-78.]
[5]HU Juehui,LI Yiming,PAN Xiaoxia.Improve optical flow method for vehicle dentification and tracking [J].Science Technology and Engineering,2010,10 (23):5814-5817 (in Chinese).[胡覺暉,李一民,潘曉露.改進的光流法用于車輛識別與 跟蹤 [J].科學 技術 與工程,2010,10 (23):5814-5817.]
[6]HU Yijing,LI Zhengfang,HU Yueming.Optical flow motion analysis based on the theory and application [J].Computer Measurement &Control,2007,15 (2):219-221 (in Chinese).[胡以靜,李政訪,胡躍明.基于光流的運動分析理論及應用 [J].計算機測量與控制,2007,15 (2):219-221.]
[7]MIAO Xiaodong,LI Xunming.Road vehicle visual detection methods [J].Transducer and Microsystem Technologies,2010,29 (2):5-8 (in Chinese). [繆小冬,李舜酩.路面車輛的視覺檢測方法 [J].傳感器與微系統(tǒng),2010,29 (2):5-8.]
[8]SHAN Hongmei,SU Jian.Based on stereo vision about poor test new methods of wheelbase [J].Jouranl of Jilin University Engineering and Technology Edition,2010,40 (3):35-38(in Chinese).[單紅梅,蘇建.基于立體視覺的軸距左右差檢測新方法 [J].吉林大學學報 (工學版),2010,40 (3):35-38.]
[9]GUO Longyuan.Computer vision theory and related stereo matching algorithm [D].Journal of Nanjing University of Science and Technology,2009,32 (9):62-70 (in Chinese).[郭龍源.計算機視覺立體匹配相關理論與算法研究 [D].南京理工大學學報,2009,32 (9):62-70.]
[10]WANG Biao,WANG Chengru,WANG Fenfen.Fixed scene detection and tracking multi-target motion [J].Computer Engineering and Design,2008,29 (8):2014-2019 (in Chinese).[王彪,王成儒,王芬芬.固定場景下多目標運動檢測 與 跟 蹤 [J]. 計 算 機 工 程 與 設 計,2008,29 (8):2014-2019.]
[11]Kastinaki V,Zervakis M,Kalaitzakis K.A survey of video processing techniques for traffic applications [J].Image and Vision Computing,2003,21 (4):359-381.
[12]SUN Z,BEBIS G,MILLER R.On road vehicle detection:A review [J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2006,21 (4):694-711.
[13]TSAI Luowei,HSIEH Junwei,F(xiàn)AN Kuochin.Vehicle detection using normalized color and edge map [J].IEEE Transactions on Image Processing,2007,16 (3):850-864.
[14]CHEN Y T,CHEN C S,HUANG C R,et al.Efficient hierarchiacl method for background subtration [J].Pattern Recognition,2007,40 (10):2706-2715.
[15]LEE D S.Effective Gaussian mixture learning for video background subtraction [J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2005,27 (5):827-832.
[16]Zivkovic Z,Van Der HeUden.Efficient adaptive density estimation per image Pixei for the task of background subtraction[J].PaRem Recognition Letters,2006,27 (7):773-780.
[17]HU Weiming,XIAO Xuejuan,XIE Dan.Traffic accident prediction using 3-D model-based vehicle tracking [J].IEEE Transactions on Vehicular Technology,2004,53 (3):677-694.