谷燕如,黃忠朝
(中南大學(xué)基礎(chǔ)醫(yī)學(xué)院,湖南 長(zhǎng)沙 410083)
當(dāng)今發(fā)生的眾多交通事故中,無(wú)意識(shí)的車(chē)道偏離是危及人身安全的主要原因。在駕駛員對(duì)周?chē)?chē)輛不注意或者昏昏欲睡的一瞬間,就可能發(fā)生一次致命的碰撞。為了減少交通事故的發(fā)生和提高安全性,對(duì)駕駛員輔助系統(tǒng)(Driver Assistant System,DAS)的研究已經(jīng)在全球范圍內(nèi)進(jìn)行了很多年。
DAS是在駕駛過(guò)程中為駕駛員提供幫助或輔助的系統(tǒng),這些系統(tǒng)通過(guò)從車(chē)輛周?chē)膫鞲衅髦蝎@取輸入來(lái)計(jì)算某種形式的反饋,然后用于輔助駕駛員。自適應(yīng)巡航控制(Adaptive Cruise Control,ACC)、盲點(diǎn)監(jiān)測(cè)(Blind Spot Monitoring,BSM)、車(chē)道偏離預(yù)警(蘊(yùn)ane Departure Warning,蘊(yùn)DW)等都是駕駛員輔助系統(tǒng)的示例。
蘊(yùn)DW連續(xù)監(jiān)測(cè)車(chē)輛在兩側(cè)車(chē)道標(biāo)記上的位置,如果車(chē)輛與標(biāo)記之間小于一定距離,會(huì)向司機(jī)發(fā)送通知并且采取糾正措施。使用車(chē)道檢測(cè)和偏離預(yù)警,可以減少因駕駛員注意力不集中、分心和疲勞導(dǎo)致的意外車(chē)道偏離,AURORA,AutoVue和A蘊(yùn)VINN都是這一系統(tǒng)的應(yīng)用實(shí)例。
車(chē)道檢測(cè)系統(tǒng)由不同的模塊組成,如捕獲車(chē)道標(biāo)線(xiàn)的視頻或圖片、車(chē)道建模、特征提取、車(chē)道檢測(cè)、車(chē)道跟蹤和車(chē)道偏離預(yù)警系統(tǒng)等。車(chē)道建模用來(lái)獲取車(chē)道線(xiàn)的數(shù)學(xué)描述,在特征提取步驟中識(shí)別特定的車(chē)道特征如邊緣、紋理或者顏色等,車(chē)道檢測(cè)是通過(guò)擬合提取出的特征和車(chē)道模型來(lái)進(jìn)行的,最后使用車(chē)道跟蹤模塊跟蹤車(chē)道的變更。由于車(chē)道檢測(cè)及偏離預(yù)警系統(tǒng)運(yùn)行環(huán)境的靈活性,在實(shí)施這一系統(tǒng)時(shí),需要考慮不同的復(fù)雜條件,如道路類(lèi)型、天氣和駕駛場(chǎng)景等。系統(tǒng)的總體框圖如圖1所示。
圖1 車(chē)道檢測(cè)和偏離預(yù)警系統(tǒng)框圖
由于車(chē)道檢測(cè)和偏離預(yù)警系統(tǒng)工作運(yùn)行時(shí)環(huán)境條件的多變,車(chē)道檢測(cè)成為一項(xiàng)具有挑戰(zhàn)性的任務(wù)。因此在使用該系統(tǒng)時(shí),需要考慮道路類(lèi)型、路面、環(huán)境因素等不同的情況。
(1)道路類(lèi)型。車(chē)道標(biāo)記之間明顯的不同。車(chē)道標(biāo)記可以是明顯的實(shí)線(xiàn)、虛線(xiàn)或分短線(xiàn)、物理障礙物等,也可能什么都沒(méi)有。不同于高速路,城市道路的車(chē)道標(biāo)記沒(méi)有明確的定義,背景中的基礎(chǔ)設(shè)施(如建筑物)或交通參與者都可能使得標(biāo)記不連續(xù)。
(2)路面。結(jié)構(gòu)化道路上涂有車(chē)道線(xiàn),而非結(jié)構(gòu)道路上可能是不清晰的或者對(duì)比度很低,這樣會(huì)導(dǎo)致路面外觀(guān)更加的惡化。另外,變化的天氣條件、不同的照明情況使得這一問(wèn)題更加復(fù)雜。
(3)陰影。在照明條件變化的情況下車(chē)道檢測(cè)很有挑戰(zhàn)性,當(dāng)?shù)缆吠瑫r(shí)有陰影區(qū)域和非陰影區(qū)域時(shí),這一任務(wù)變得更加復(fù)雜。樹(shù)、建筑或路面上其他車(chē)輛都有可能造成假的道路邊緣。
(4)照明變化。產(chǎn)生的原因有兩個(gè),一是自然光隨時(shí)間和天氣變化;二是人造光由于路燈和車(chē)輛的前后燈造成的變化。
(5)夜晚場(chǎng)景。在夜晚,由于可見(jiàn)度降低,車(chē)道檢測(cè)變得更加艱難。由于沒(méi)有陽(yáng)光,駕駛員需要打開(kāi)前燈或借助街燈來(lái)照亮車(chē)前方的道路,利用尾燈來(lái)提醒后面車(chē)輛的駕駛員。因此,這些燈光造成的噪聲邊緣可能會(huì)使系統(tǒng)在提取車(chē)道標(biāo)記時(shí)遇到難題。
預(yù)處理是車(chē)道檢測(cè)和偏離預(yù)警系統(tǒng)的重要組成部分,有助于減少計(jì)算時(shí)間,提高算法的效果。也可以用于去除因相機(jī)不穩(wěn)定運(yùn)動(dòng)產(chǎn)生的傳感器噪聲和誤差。系統(tǒng)的輸入是相機(jī)獲取的基于RGB的彩色圖像序列,相機(jī)沿車(chē)輛中心線(xiàn)安裝在車(chē)內(nèi)前方,在不影響司機(jī)視線(xiàn)的前提下獲取前方道路的信息。
要進(jìn)行平滑操作,可以使用均值、中值或高斯濾波器。為了去除噪聲并保留細(xì)節(jié),Xu和蘊(yùn)i使用中值濾波器對(duì)圖像進(jìn)行濾波,然后用圖像直方圖對(duì)灰度圖像進(jìn)行增強(qiáng)。為了適應(yīng)不同的光照條件,在預(yù)處理階段進(jìn)行自適應(yīng)閾值處理。通過(guò)Otsu算法進(jìn)行自適應(yīng)閾值,然后進(jìn)行形態(tài)學(xué)方法去除因二進(jìn)制轉(zhuǎn)換得到的圖像中的斑點(diǎn),如侵蝕、擴(kuò)張等。
引入分段線(xiàn)性拉伸函數(shù)來(lái)提高在環(huán)境較暗時(shí)車(chē)道圖像的對(duì)比度,這一函數(shù)對(duì)不同的車(chē)道顏色都有很好的魯棒性,有助于在各種照明條件下提高車(chē)道檢測(cè)的準(zhǔn)確性。在Ostu閾值前使用FIR濾波器有助于消除噪聲以及不均勻的背景照明等因素帶來(lái)的影響。然后進(jìn)行形態(tài)學(xué)處理確定相關(guān)的對(duì)象,并且為了消除路面污漬,移除了較小的區(qū)域,從而獲得精確的邊界。為了克服亮度變化對(duì)車(chē)道檢測(cè)的影響,采用自聚類(lèi)算法和模糊c均值算法,根據(jù)道路的亮度分布,這些算法會(huì)計(jì)算出兩個(gè)分布值來(lái)區(qū)分明暗分量。
在車(chē)道檢測(cè)過(guò)程中,大部分算法只考慮灰度分量。像素的顏色最初是在RGB色彩空間表示的,RGB值可以轉(zhuǎn)換到Y(jié)CbCr色彩空間。原因在于人的視覺(jué)系統(tǒng)對(duì)顏色不太敏感,而彩色圖像中最重要的視覺(jué)信息保留在圖像的Y分量中,因此只在Y分量上進(jìn)行車(chē)道檢測(cè)程序,對(duì)于色度分量(Cb和Cr),由于人的視覺(jué)系統(tǒng)對(duì)其不敏感而被丟棄。這可以節(jié)省數(shù)據(jù)存儲(chǔ)空間以及縮短計(jì)算時(shí)間。轉(zhuǎn)化的形式可以描述為:
在這一等式中,顏色的權(quán)重是不一樣的,這會(huì)導(dǎo)致在色彩轉(zhuǎn)換為灰度時(shí)信息的丟失,因此為了提高車(chē)道標(biāo)記亮度值的質(zhì)量,灰度轉(zhuǎn)換過(guò)程改寫(xiě)為:
為了減少冗余的圖片數(shù)據(jù)量,輸入圖像應(yīng)該設(shè)定在感興趣區(qū)域上,可以提高系統(tǒng)的速度和準(zhǔn)確率。速度的提高是通過(guò)減小待處理圖片大小來(lái)實(shí)現(xiàn)的,而通過(guò)選取感興趣區(qū)域可以去除與車(chē)道標(biāo)記相似的特征從而提高準(zhǔn)確率。當(dāng)車(chē)輛向前行駛時(shí),車(chē)道線(xiàn)總是在車(chē)輛前方,因此在圖像底部選取感興趣區(qū)域比較合適。Dong等人在駕駛場(chǎng)景底部選取圖像四分之一作為感興趣區(qū)域。車(chē)引擎蓋和擋風(fēng)玻璃上的刮水器都有可能產(chǎn)生假的邊緣而影響車(chē)道檢測(cè)的性能,所以這部分需要忽略掉。蘊(yùn)in等人使用常規(guī)和自適應(yīng)ROI初始化,如果可以在上一幀檢測(cè)到車(chē)道標(biāo)記,則使用自適應(yīng)方法,否則就用常規(guī)方法,即選取圖像底部作為感興趣區(qū)域。
為了節(jié)約處理時(shí)間,Hsiao等人用消失點(diǎn)來(lái)確定ROI。當(dāng)相機(jī)安裝在測(cè)試車(chē)上時(shí),其光軸與車(chē)身中心線(xiàn)重合,滾動(dòng)角和傾斜角均為0,道路圖像的消失點(diǎn)出現(xiàn)在垂直方向的中心,于是處理區(qū)域就需要限定在消失點(diǎn)以下的部位,因?yàn)榈缆穲D像中可見(jiàn)的車(chē)道一般都位于這一區(qū)域。
當(dāng)幀率相對(duì)較高時(shí),車(chē)道線(xiàn)在視頻連續(xù)幀中的出現(xiàn)的位置相似。令l表示車(chē)道線(xiàn)的長(zhǎng),f表示幀率,ν代表車(chē)輛行駛速度,則包含相同車(chē)道線(xiàn)的幀數(shù)n可以表示為
同樣的,車(chē)輛在連續(xù)兩幀之間的橫向運(yùn)動(dòng)非常小,因此車(chē)道位置在這些幀之間也只有很小的差異。這一先驗(yàn)知識(shí)可以用來(lái)預(yù)測(cè)下一幀的車(chē)道位置,從而邊緣檢測(cè)算法只需要考慮圖像中一小部分區(qū)域,這進(jìn)一步減少了計(jì)算負(fù)擔(dān)。
大部分情況下,輸入圖像的上部都是天空,大部分的車(chē)道信息都位于圖像底部,因此總是建議在圖像底部選擇感興趣區(qū)域。
在車(chē)道檢測(cè)和偏離預(yù)警系統(tǒng)中,車(chē)道模型起到十分重要的作用。車(chē)道建模用于獲取道路車(chē)道標(biāo)記的數(shù)學(xué)描述。到目前為止各種基于視覺(jué)的車(chē)道檢測(cè)技術(shù)提出了不同的車(chē)道模型。為了模擬道路,有些算法使用直線(xiàn),而其他算法使用更復(fù)雜的模型,如拋物線(xiàn)、雙曲線(xiàn)、B樣條曲線(xiàn)和回旋曲線(xiàn)等。
在線(xiàn)性模型中,假設(shè)車(chē)道時(shí)直的,即假定檢測(cè)范圍內(nèi)的車(chē)道標(biāo)記為直線(xiàn)。盡管線(xiàn)性模型很簡(jiǎn)單,但是因?yàn)橹辉谡障鄼C(jī)系統(tǒng)有限的檢測(cè)范圍內(nèi)可行而限制了它的應(yīng)用。在車(chē)道偏離預(yù)警系統(tǒng)中,要求在幾秒前計(jì)算出車(chē)輛的軌跡,而對(duì)高速公路而言,需要對(duì)30~40m或者更長(zhǎng)的距離進(jìn)行精確的車(chē)道建模,以便捕捉1s的車(chē)道跨越邊界的時(shí)間(time to lane crossing,T蘊(yùn)C)。所以在這種情況下,復(fù)雜的車(chē)道模型效果會(huì)更好,如基于拋物線(xiàn)或基于樣條的車(chē)道模型。
從簡(jiǎn)單的直線(xiàn)模型到復(fù)雜的樣條模型,車(chē)道標(biāo)記的數(shù)學(xué)描述是通過(guò)這些不同的車(chē)道模型實(shí)現(xiàn)的。簡(jiǎn)單的模型不能十分準(zhǔn)確的表示車(chē)道的形狀,而復(fù)雜的模型會(huì)產(chǎn)生較高的計(jì)算成本,同時(shí)會(huì)增加誤檢發(fā)生的可能性。
在智能汽車(chē)應(yīng)用系統(tǒng)中,車(chē)道檢測(cè)是計(jì)算機(jī)視覺(jué)領(lǐng)域的研究熱點(diǎn)。車(chē)道檢測(cè)在車(chē)道偏離預(yù)警系統(tǒng)中起著重要的作用。它可以檢測(cè)復(fù)雜環(huán)境下的車(chē)道標(biāo)記,并可靠地用其估計(jì)車(chē)輛相對(duì)于車(chē)道的位置和軌跡。車(chē)道檢測(cè)任務(wù)分為以下兩個(gè)步驟:邊緣檢測(cè)和車(chē)道檢測(cè)。
根據(jù)表4及圖1,高風(fēng)險(xiǎn)性(Ⅲ級(jí))區(qū)主要涉及中山區(qū)(2-1、2-2、2-3單元)、低山區(qū)(3-2、3-3單元)、深切丘陵區(qū)(4-1單元)、淺切丘陵區(qū)(6-1單元)等7個(gè)地貌單元;低風(fēng)險(xiǎn)性(Ⅰ級(jí))區(qū)涉及河谷區(qū)(7-1、7-2、7-3、8-1單元)等4個(gè)地貌單元;其余23個(gè)地貌單元均為中風(fēng)險(xiǎn)性(Ⅱ級(jí))。
邊緣檢測(cè)方法用來(lái)提取每個(gè)閾值特征的邊緣,根據(jù)路面和車(chē)道線(xiàn)之間的鮮明對(duì)比來(lái)定義車(chē)道邊界。由于車(chē)道邊界以邊緣為特征,所以邊緣檢測(cè)是車(chē)道檢測(cè)中的重要步驟。通過(guò)過(guò)濾無(wú)用的信息并保留重要的結(jié)構(gòu)特性,這一步驟可以顯著減少數(shù)據(jù)量。邊緣檢測(cè)后的結(jié)果圖像可以作為閾值圖像的輪廓。為了有效地檢測(cè)邊緣,應(yīng)遵循以下標(biāo)準(zhǔn)。
(1)低錯(cuò)誤率:通過(guò)檢測(cè)圖像中的所有邊緣來(lái)實(shí)現(xiàn)低錯(cuò)誤率,同時(shí)不應(yīng)該對(duì)非邊緣做出響應(yīng)。
(2)應(yīng)該很好的定位邊緣點(diǎn),即檢測(cè)器檢測(cè)到的實(shí)際邊緣和邊緣像素之間的距離應(yīng)該是最小的。
(3)對(duì)于單邊緣點(diǎn),應(yīng)該只做出一個(gè)響應(yīng)。
以下是邊緣檢測(cè)中的主要步驟:①首先對(duì)圖像進(jìn)行平滑處理來(lái)降低噪音;于邊緣點(diǎn)的檢測(cè)。對(duì)圖像進(jìn)行局部運(yùn)算,提取所有可能是邊緣點(diǎn)的點(diǎn);③邊緣定位。在上述獲得的候選邊緣點(diǎn)中,通過(guò)這一步選擇真正代表車(chē)道邊緣的點(diǎn)。有很多種方法可以進(jìn)行邊緣檢測(cè),如Sobel,Canny,轉(zhuǎn)向?yàn)V波器,二維FIR濾波器等。
車(chē)道檢測(cè)是一個(gè)重要的步驟,將特征提取階段與跟蹤階段聯(lián)系在一起。在車(chē)道檢測(cè)中,根據(jù)所提取的特征對(duì)實(shí)際車(chē)道位置進(jìn)行預(yù)測(cè)。當(dāng)獲得邊緣圖像后,可以最終確定屬于車(chē)道標(biāo)記的邊界。在進(jìn)行車(chē)道檢測(cè)時(shí),會(huì)做出一些假設(shè),如:①繪制車(chē)道標(biāo)記時(shí)比其他部分的顏色更亮;于沿著車(chē)道時(shí)標(biāo)記變化的方向小而平滑;③車(chē)道標(biāo)記中心的左右兩側(cè)是平行的。
車(chē)道檢測(cè)有兩種常用方法,一是基于特征的方法,二是基于模型的方法。通過(guò)提取道路圖像中的低級(jí)特征來(lái)定位其中的車(chē)道是基于特征的方法常見(jiàn)的應(yīng)用。如J.Niu等人的研究,他們?cè)谲?chē)道檢測(cè)過(guò)程中的特征提取有兩步,先是利用改進(jìn)的Hough變換提取小段的車(chē)道輪廓,然后使用DBSCAN聚類(lèi)算法進(jìn)行聚類(lèi)。
基于模型的方法則通過(guò)使用幾何元素,如拋物線(xiàn)、雙曲線(xiàn)、直線(xiàn)等描述車(chē)道,由于其簡(jiǎn)單性而被廣泛使用。如Jung等人利用車(chē)道寬度的時(shí)間一致性和Hough變換來(lái)檢測(cè)表示車(chē)道邊界的兩條平行直線(xiàn),然后利用加權(quán)最小二乘法將檢測(cè)到的車(chē)道點(diǎn)擬合成立方體模型。
車(chē)道標(biāo)記的檢測(cè)不僅是車(chē)道偏離預(yù)警系統(tǒng)的必須要完成的任務(wù),也是其他駕駛員輔助系統(tǒng)的重要功能,如基于視覺(jué)的前車(chē)碰撞和駕駛員行為檢測(cè)、前車(chē)檢測(cè)等。從各項(xiàng)車(chē)道檢測(cè)技術(shù)的研究中發(fā)現(xiàn),即使霍夫變換存在一些缺點(diǎn),很多研究人員還是用來(lái)檢測(cè)車(chē)道標(biāo)記。其他方法如扇形掃描、共軛高斯模型等,在對(duì)抗陰影、車(chē)道標(biāo)記遮擋、其他道路標(biāo)記時(shí)。也可以提供穩(wěn)定的車(chē)道檢測(cè)功能。
使用車(chē)道跟蹤技術(shù)來(lái)對(duì)下一圖像中的車(chē)道位置進(jìn)行預(yù)估,使車(chē)道偏離檢測(cè)系統(tǒng)可以對(duì)車(chē)輛相對(duì)于公路的位置進(jìn)行估測(cè)并對(duì)車(chē)輛的位置信息進(jìn)行更新。由于幀序列之間的時(shí)空連續(xù)性,故連續(xù)的兩幀之間位置不會(huì)有過(guò)大偏差。而上一幀獲取的車(chē)道位置信息則可以對(duì)下一幀的車(chē)道進(jìn)行預(yù)測(cè)。在進(jìn)行車(chē)道跟蹤的過(guò)程中,以往的道路幾何知識(shí)對(duì)新圖像中車(chē)道邊界的位置和方向提出了較強(qiáng)的限制。卡爾曼濾波器,擴(kuò)展卡爾曼濾波器,粒子濾波器,退火粒子濾波器和超粒子濾波器都在車(chē)道跟蹤中有較好的應(yīng)用效果。
使用卡爾曼濾波器對(duì)目標(biāo)進(jìn)行跟蹤并預(yù)測(cè)其特征位置,算法含有兩步:第一步為對(duì)系統(tǒng)的狀態(tài)進(jìn)行預(yù)估,而第二步則是通過(guò)噪聲測(cè)量來(lái)精確系統(tǒng)的預(yù)估。由于其具有簡(jiǎn)單,易處理和穩(wěn)健性等特點(diǎn),卡爾曼濾波廣泛被應(yīng)用于車(chē)道跟蹤分析中——但只能應(yīng)用于線(xiàn)性系統(tǒng)。針對(duì)這一缺點(diǎn),擴(kuò)展卡爾曼濾波器通過(guò)使用簡(jiǎn)單的線(xiàn)性化非線(xiàn)性模型對(duì)其進(jìn)行規(guī)避。
使用粒子濾波法對(duì)車(chē)道進(jìn)行跟蹤具有處理非高斯不確定性和多重假設(shè)的能力。H.Zhao等人使用退火粒子濾波器進(jìn)行車(chē)道跟蹤,通過(guò)邊緣圖的角度信息來(lái)確定粒子權(quán)重。與傳統(tǒng)粒子濾波器相比,在退火粒子濾波器中每幀的計(jì)算時(shí)間都有顯著的縮短。
通過(guò)基于可塑模板方法的圖像形狀似然(likelihood of image shape,蘊(yùn)OIS)來(lái)對(duì)車(chē)道進(jìn)行逐幀跟蹤。在跟蹤過(guò)程中,上一幀獲取的車(chē)道位置信息用來(lái)對(duì)下一幀的車(chē)道進(jìn)行預(yù)測(cè)。蘊(yùn)OIS會(huì)輸出包括當(dāng)前車(chē)道曲率、方向和偏移量的數(shù)據(jù),這些結(jié)果與卡爾曼濾波器得到的結(jié)果一起用于預(yù)測(cè)車(chē)輛相對(duì)車(chē)道的位置。Wang等人對(duì)與重采樣粒子濾波器和高斯粒子濾波器的性能進(jìn)行了比較?;谒迫缓瘮?shù)的高斯和粒子濾波器法包含特征圖譜,可以更好地進(jìn)行車(chē)道跟蹤。
圖2 車(chē)道檢測(cè)與跟蹤
Hou等人使用卡爾曼和粒子濾波器進(jìn)行道路跟蹤。蘊(yùn)ee等人用反向透視映射(Inverse Perspective Mapping,IPM)構(gòu)建鳥(niǎo)瞰圖圖像,用閾值來(lái)對(duì)直線(xiàn)(即車(chē)道標(biāo)記)進(jìn)行檢測(cè),用隨機(jī)抽樣一致線(xiàn)性擬合技術(shù)估計(jì)模型的參數(shù)。最終跟蹤階段包含卡爾曼濾波器完成,如圖2所示。Feng等人提出了軌跡規(guī)劃多項(xiàng)式算法用于自動(dòng)車(chē)道變換。蘊(yùn)otfy等人提出的車(chē)道偏離預(yù)警跟蹤系統(tǒng)則沒(méi)有使用卡爾曼濾波器,而是利用IPM構(gòu)建鳥(niǎo)瞰圖,然后使用簡(jiǎn)化的霍夫變換來(lái)獲取車(chē)道邊界。
大多數(shù)跟蹤算法都需借助多種卡爾曼濾波器和粒子濾波器。與卡爾曼濾波器相比,粒子濾波器和其衍生出的其他方法都要求有較高的計(jì)算能力;但在并行計(jì)算系統(tǒng)下它的應(yīng)用效率更高。
車(chē)道偏離預(yù)警系統(tǒng)會(huì)不斷對(duì)車(chē)輛與其任一側(cè)車(chē)道標(biāo)記的相對(duì)位置進(jìn)行監(jiān)控,并在車(chē)輛開(kāi)始發(fā)生偏移時(shí)警告駕駛員。車(chē)道偏離這種危險(xiǎn)情況由以下兩種情況引起:①當(dāng)車(chē)輛過(guò)于靠近車(chē)道邊界時(shí);于車(chē)輛的偏離速度過(guò)高,即車(chē)輛靠近車(chē)道邊界的速度過(guò)快。
由車(chē)道檢測(cè)模塊得出的結(jié)果會(huì)被決策模塊用來(lái)確定車(chē)輛相對(duì)于最近車(chē)道的位置。決策模塊的原理是用車(chē)輛兩側(cè)的車(chē)道標(biāo)記來(lái)計(jì)算車(chē)道中心的位置,當(dāng)車(chē)輛開(kāi)始偏離中心線(xiàn),就觸發(fā)警報(bào)。為提高車(chē)道偏離報(bào)警系統(tǒng)的效率,決策模塊也可采用其他來(lái)源的數(shù)據(jù)。例如,通過(guò)定向指示設(shè)備的顯示,模塊可以判定車(chē)道改變是有意的還是無(wú)意的。
在蘊(yùn)ee等人的研究中,車(chē)道偏離是基于邊緣分布函數(shù)的對(duì)稱(chēng)軸和局部最大值來(lái)進(jìn)行識(shí)別的。當(dāng)車(chē)輛偏離行駛車(chē)道中心時(shí),軸的位置就會(huì)發(fā)生變化。盡管基于的車(chē)道偏離識(shí)別會(huì)對(duì)系統(tǒng)性能有所裨益,但該算法高度依賴(lài)于對(duì)車(chē)道標(biāo)識(shí)的識(shí)別,且可能在帶有虛線(xiàn)車(chē)道標(biāo)記的彎道處產(chǎn)生錯(cuò)誤。因此,為了提高系統(tǒng)的穩(wěn)健性,蘊(yùn)ee和Yi提出了基于邊緣分布函數(shù)的車(chē)道偏離識(shí)別方法的修正版。新算法中增加了與車(chē)道相關(guān)的參數(shù)(如視野中車(chē)道邊界的方向和位置),并引入偏離率來(lái)確定偏離發(fā)生的時(shí)刻。蘊(yùn)ee和同事考慮了θl和θr以及距離ρl和ρr來(lái)定義左右車(chē)道邊界。當(dāng)照相機(jī)光軸與車(chē)道中心重合時(shí),其值為如果車(chē)輛偏離車(chē)道中心的值則會(huì)從1偏離。當(dāng)車(chē)輛靠近左邊界時(shí),和ρl減少,而θr和ρr增加。當(dāng)車(chē)輛接近右邊界時(shí),θr和ρr減小,而ρl和θl增加。使用回歸分析根據(jù)回歸系數(shù)和平方和來(lái)判斷車(chē)輛是否有偏離車(chē)道的可能性。通過(guò)融合回歸系數(shù)和殘差平方和以及偏離率,可以使偽邊緣檢測(cè)最小化以及確定車(chē)道偏離的起點(diǎn)和終點(diǎn)。
Hsiao等人用時(shí)空機(jī)制來(lái)識(shí)別車(chē)道偏離。算法中定義了矩形的臨界框架,超出就會(huì)報(bào)警。駕駛員根據(jù)從左右車(chē)道標(biāo)記到警示框的底部的截距dM和dS獲得警報(bào)。如果dM或dS大于影像寬度的四分之一就會(huì)觸發(fā)警報(bào)。當(dāng)車(chē)輛靠近車(chē)道邊界時(shí),空間機(jī)制就會(huì)發(fā)揮作用。當(dāng)車(chē)輛靠近車(chē)道邊界的速度過(guò)快,時(shí)間警報(bào)機(jī)制會(huì)在空間警告之前觸發(fā)緊急警報(bào)。
文章介紹了各種基于視覺(jué)的車(chē)道檢測(cè)和偏離預(yù)警系統(tǒng)的系統(tǒng),一般來(lái)說(shuō)都包含有車(chē)道建模、特征提取、車(chē)道檢測(cè)與跟蹤和偏離預(yù)警模塊。可以觀(guān)察到,在駕駛員輔助系統(tǒng)中,如偏離預(yù)警、變道輔助、避碰等,車(chē)道檢測(cè)都起著至關(guān)重要的作用。由于車(chē)道標(biāo)記的特征被設(shè)定為邊緣的形式,所以通常應(yīng)用基于特征的車(chē)道檢測(cè)。在大多數(shù)系統(tǒng)中,檢測(cè)車(chē)道標(biāo)記時(shí)廣泛使用霍夫變換,這需要大量的計(jì)算時(shí)間。
通過(guò)至今為止的文獻(xiàn)調(diào)查,不同的研究團(tuán)隊(duì)提出的不同技術(shù)在檢測(cè)率、準(zhǔn)確率和最小誤報(bào)率方面都取得了較好的效果,但是今后車(chē)道檢測(cè)和偏離預(yù)警系統(tǒng)的研究范圍內(nèi)仍需要達(dá)到以下要求:①系統(tǒng)要有較好的穩(wěn)健性,就是說(shuō)在所有復(fù)雜條件下都可以準(zhǔn)確地檢測(cè)到車(chē)道;于車(chē)道檢測(cè)的方法速度要快,以滿(mǎn)足實(shí)時(shí)監(jiān)測(cè)的要求;③系統(tǒng)在車(chē)速較快的情況下檢測(cè)車(chē)道偏離時(shí)誤報(bào)率要降到最低。
[1] M.Chen,T.Jochem,D.Pomerleau,Aurora:A vision based roadway departure warning system[C].in:Proc.IEEE RSJ International Conf.on Intelligent Robots and Systems 95,no.03,1998.
[2] D.Obradovi,Konjovi Z,Pap E,et al.蘊(yùn)inear fuzzy space based road lane model and detection [J].Knowledge-Based Systems,2013,38:37-47.
[3] J.Son,H.Yoo,S.Kim,K.Sohn,Real-time illumination invariant lane detection for lane departure warning system [J].Expert Syst,2015,(4).
[4] Melo J,Naftel A,Bernardino A,et al.Detection and classification of highway lanes using vehicle motion trajectories[J].IEEE Transactions on Intelligent Transportation Systems,2006,7(2):188-200.
[5] 蘊(yùn)an M,Rofouei M,Soatto S,et al.Smart蘊(yùn)DWS:A robust and scalable lane departure warning system for the smartphones[C].International IEEE Conference on Intelligent Transportation Systems.IEEE,2009.
[6] Xu H,蘊(yùn)i H.Study on a Robust Approach of蘊(yùn)ane departure Warning Algrithm[C].20102nd international conference on signal processing system,2010.
[7] Gaikwad V,蘊(yùn)okhande S.蘊(yùn)ane Departure Identification for Advanced Driver Assistance[J].IEEE Transactions on Intelligent Transportation Systems,2015,16(2).
[8] Mu C,Ma X.蘊(yùn)ane Detection Based on Object Segmentation and Piecewise Fitting [J].Telkomnika Indonesian Journal of Electrical Engineering,2014,12(5).
[9] Wang X,Wang Y,Wen C.Robust lane detection based on gradientpairs constraint[J].2011,(3):3181-3185.
[10] Wang J G,蘊(yùn)in C J,Chen S M.Applying fuzzy method to vision-based lane detection and departure warning system[J].Expert Systems with Applications,2010,37(1):113-126.
[11] Wu P C,Chang C Y,蘊(yùn)in C H.蘊(yùn)ane-mark extraction for automobiles under complex conditions [J].Pattern Recognition,2014,47(8):2756-2767.
[12] Dong Y,Xiong J,蘊(yùn)i 蘊(yùn),et al.Robust lane detection and tracking for lane departure warning[C].//International Conference on Computational Problem-Solving.IEEE,2012.
[13] Hsiao P Y,Yeh C W,Huang S S,et al.A Portable Vision-Based Real-Time 蘊(yùn)ane Departure Warning System:Day and Night[J].IEEE Transactions on Vehicular Technology,2009,58(4).
[14] Mccall J C,Trivedi M M.Video-based lane estimation and tracking for driver assistance:survey,system,and evaluation[J].IEEE Transactions on Intelligent Transportation Systems,2006,7(1):20-37.
[15] H.Guan,W.Xingang ,W.Wenqi ,Z.Han,W.Yuanyuan,Real-time lane-vehicle detection and tracking system [C].in:Chinese Control and Decision Conference(CCDC),2016.
[16] H.Aung ,M.H.Zaw,Video based lane departure warning system using hough transform[C].in:International Conf.on Advances in Engineering and Technology(ICAET),Singapore,2010.
[17] J.Niu,J.蘊(yùn)u ,M.Xu ,P.蘊(yùn)v,X.Zhao ,Robust lane detection using two-stage feature extraction with curve fitting [J].Pattern Recognit,2016,(59):225-233.
[18] S.Jung,J.Youn,S.Sull,Efficient lane detection based on spatiotemporal im-ages[J].IEEE Trans.Intell.Transp.Syst,2016,17(1):289-295.
[19] Oussalah M,Zaatri A,Brussel H V.Kalman Filter Approach for蘊(yùn)ane Extraction and Following[J].Journal of Intelligent&Robotic Systems,2002,34(2):195-218.
[20] S.Srivastava,M.蘊(yùn)umb,R.Singal,Improved lane detection using hybrid median filter and modified hough transform[J].Int.J.Adv.Res.Comput.Sci.Softw.Eng,2014,4(1):30-37.
[21] Zhao K,Meuter M,Nunn C,et al.A novel multi-lane detection and tracking system[C].Intelligent Vehicles Symposium.IEEE,2012.
[22] H.蘊(yùn)i,F(xiàn).Nashashibi,Robust real time lane detection based on lane mark seg-ment features and general a priori knowledge[C].in:IEEE International Conf.on Robotics and Biomimetics,Phuket,Thailand,2011.
[23] Zhao H,Teng Z,Kim H H,et al.Annealed Particle Filter Algorithm Used for蘊(yùn)ane Detection and Tracking[J].2013,(1):31-35.
[24] Shin B S,Tao J,Klette R.A superparticle filter for lane detection[J].Pattern Recognition,,2015,48(11):3333-3345.
[25] 蘊(yùn)ee Y,Kim H.Real-time lane detection and departure warning system on embedded platform [C].IEEE,International Conference on Consumer Electronics-Berlin.IEEE,2016:1-4.
[26] Kreucher C,蘊(yùn)akshmanan S,Kluge K.A Driver Warning System Based onthe蘊(yùn)OIS蘊(yùn)aneDetectionAlgorithm[C],1998.
[27] Wang Y,Dahnoun N,Achim A.A novel system for robust lane detection and tracking[J].Signal Processing,2012,92(2):319-334.
[28] Hou C,Hou J,Yu C.An efficient lane markings detection and tracking method based on vanishing point constraints[C].Control Conference.IEEE,2016.
[29] F.You,R.Zhang ,G.蘊(yùn)ie,H.Wang,H.Wen,J.Xu,Trajectory planning and track-ing control for autonomous lane change maneuver based on the cooperative vehicle infrastructure system[J].Expert Syst,2015,42(14).
[30] O.G.蘊(yùn)otfy ,A.A.Kassem,E.M.Nassief,H.A.Ali,M.R.Ayoub,M.A.El-Moursy,M.M.Farag,蘊(yùn)ane departure warning tracking system based on score mechanism[C].in:IEEE 59th International Midwest Symposium on Circuits and Systems(MWSCAS),2016.
[31] 蘊(yùn)ee J W.A Machine Vision System for蘊(yùn)ane-Departure Detection[J].Computer Vision&Image Understanding,2002,86(1):52-78.
[32] 蘊(yùn)ee J W,Yi U K.A lane-departure identification based on 蘊(yùn)BPE,Hough transform,and linear regression[J].Computer Vision and Image Understanding,2005,99(3):359-383.