宋士奇,樸 燕,王 健
(長(zhǎng)春理工大學(xué) 電子信息工程學(xué)院,吉林 長(zhǎng)春 130022)
智能交通系統(tǒng)作為國(guó)家信息化建設(shè)的重要組成部分,在城市道路智能監(jiān)控、高速公路智能調(diào)度及車輛高級(jí)輔助駕駛系統(tǒng)等方面發(fā)揮著重要作用。其中車輛的行為識(shí)別作為智能交通系統(tǒng)的關(guān)鍵技術(shù),在車輛的自動(dòng)駕駛和輔助駕駛領(lǐng)域中受到了廣泛關(guān)注[1]。車輛的行為信息對(duì)于保障駕駛員的人身安全、避免交通事故的發(fā)生具有重要的參考價(jià)值和實(shí)際意義。
獲取車輛行為信息數(shù)據(jù)的方式總體上包括感知技術(shù)探測(cè)和視頻圖像處理兩大類[2]。感知技術(shù)探測(cè)主要利用傳感器探測(cè)車輛周圍的環(huán)境,根據(jù)道路交通兩側(cè)和監(jiān)控上方的探測(cè)傳感裝置獲取所需參數(shù),綜合判斷車輛的行為狀態(tài),此類方法目前廣泛應(yīng)用于智能汽車行業(yè)之中。視頻圖像因其包含豐富的數(shù)據(jù),通過(guò)圖像處理手段對(duì)監(jiān)控?cái)z像頭和行車記錄儀獲取的視頻進(jìn)行分析,已成為獲取車輛行為信息的主要方法。相比于感知技術(shù)探測(cè),視頻圖像處理因其具有更好的魯棒性和實(shí)時(shí)性,已經(jīng)成為研究車輛行為識(shí)別的熱點(diǎn)方向。目前在車輛行為識(shí)別領(lǐng)域,基于圖像處理算法的研究已取得階段性的成果。Kasper等[3]運(yùn)用貝葉斯網(wǎng)絡(luò)的基本理論在結(jié)構(gòu)化道路場(chǎng)景中識(shí)別車輛的行為。Gadepally等[4]在綜合考慮車輛動(dòng)力學(xué)模型的基礎(chǔ)上,采用隱馬爾可夫模型描述車輛的行為。Song等[5]使用改進(jìn)的Moravec算法提取特征點(diǎn),構(gòu)建車輛特征點(diǎn)的運(yùn)動(dòng)軌跡曲線判斷車輛的行為狀態(tài),在復(fù)雜天氣條件下具有較高的魯棒性。潘登等[6]提出了車輛行為的時(shí)空演化模型,為復(fù)雜場(chǎng)景下車輛的行為建模和車輛的自適應(yīng)控制奠定了基礎(chǔ)。黃鑫等[7]在車輛檢測(cè)和車輛跟蹤的基礎(chǔ)上,采用特征熵和特征標(biāo)量?jī)蓚€(gè)參數(shù)到聚類中心的歐式距離,判斷車輛的行為特征。但是,目前車輛行為識(shí)別算法處理的視頻很多都是基于道路監(jiān)控高點(diǎn)固定獲得的,因此背景沒(méi)有變化,很難應(yīng)用于背景變化的車輛自動(dòng)駕駛領(lǐng)域。并且基于軌跡特征的車輛行為判斷很大程度上取決于車輛跟蹤的魯棒性,軌跡聚類的過(guò)程導(dǎo)致車輛行為識(shí)別實(shí)時(shí)性差。
本文針對(duì)車輛行為識(shí)別存在的問(wèn)題,提出一種基于車道信息融合的車輛行為識(shí)別算法,應(yīng)用于車輛的輔助駕駛領(lǐng)域。主要表現(xiàn)在:(1)在車道檢測(cè)過(guò)程中提出一種基于改進(jìn)Robinson與LSD的模型,實(shí)現(xiàn)對(duì)不同場(chǎng)景下車道的高效檢測(cè);(2)根據(jù)車道的檢測(cè)結(jié)果,提出一種基于滑動(dòng)窗口的三次樣條數(shù)學(xué)模型,實(shí)現(xiàn)對(duì)車道的擬合;(3)通過(guò)車道的參數(shù)信息分析車輛的運(yùn)動(dòng)狀態(tài),結(jié)合車輛位置綜合判斷車輛的偏離狀態(tài)。
車道檢測(cè)是車輛輔助駕駛的基礎(chǔ),并且在車輛的行為識(shí)別中發(fā)揮著重要作用,但光照條件、車道路面破損及路面陰影干擾等因素往往影響著車道檢測(cè)的效率和準(zhǔn)確性。因此本文提出一種基于改進(jìn)Robinson與LSD的模型實(shí)現(xiàn)車道的檢測(cè)。算法首先將獲取的視頻幀圖像進(jìn)行感興趣區(qū)域分割、逆透視變換及色彩空間轉(zhuǎn)換等圖像的預(yù)處理,然后利用改進(jìn)的Robinson算子建立插值公式求取最佳梯度幅值實(shí)現(xiàn)車道邊緣的提取,最后通過(guò)效率更高的LSD算法實(shí)現(xiàn)車道的檢測(cè)。
2.1.1 圖像預(yù)處理
通過(guò)行車記錄儀或者車載攝像機(jī)獲得的車道圖像通常包含天空、車道兩旁的樹(shù)木等一些環(huán)境信息,若直接對(duì)采集到的圖像進(jìn)行處理,不僅降低了車道檢測(cè)的效率,而且無(wú)關(guān)信息的干擾也影響著車道檢測(cè)的準(zhǔn)確性。通常在結(jié)構(gòu)化道路中車道信息位于圖像的中下部,因此本文將圖像的中下部設(shè)定為感興趣區(qū)域,即圖像的預(yù)處理部分。
相機(jī)的圖像采集過(guò)程可以看作世界坐標(biāo)系與圖像坐標(biāo)系之間的映射,因此獲得的行車圖像具有近大遠(yuǎn)小的透視效果。通過(guò)傳統(tǒng)的逆透視變換可以有效地矯正圖像,但需要借助相機(jī)位置參數(shù)、朝向參數(shù)等獲取逆透視變換矩陣,計(jì)算過(guò)程復(fù)雜。本文應(yīng)用一種簡(jiǎn)單的逆透視規(guī)則,即從感興趣區(qū)域中采樣4個(gè)位置點(diǎn),在俯視圖中估算4個(gè)點(diǎn)的位置,直接計(jì)算逆透視變換矩陣。設(shè)(x,y)為感興趣區(qū)域中的坐標(biāo)點(diǎn),俯視圖中相應(yīng)的坐標(biāo)點(diǎn)為(u,v),則對(duì)應(yīng)的映射過(guò)程為式(1):
QW=HIWPI,
(1)
式中有:
PI=[x,y,1]T,
(2)
QW=[uλ,vλ,λ]T,
(3)
其中:λ為輔助參數(shù),HIW為逆透視變換矩陣。通過(guò)4組對(duì)應(yīng)的坐標(biāo)點(diǎn),即可對(duì)逆透視變換矩陣中的未知參數(shù)進(jìn)行求解,通過(guò)不斷調(diào)節(jié)兩幅圖中對(duì)應(yīng)點(diǎn)的坐標(biāo),獲取最佳映射矩陣,計(jì)算效率高、實(shí)用性強(qiáng)。
目前基于RGB色彩模型的車道檢測(cè)算法,對(duì)白天光線均勻的場(chǎng)景有較強(qiáng)的適用性,但在低照度環(huán)境中效果較差,而采用YCbCr模型可以對(duì)圖像的亮度和色度進(jìn)行分離,能夠有效避免光照對(duì)車道檢測(cè)的影響。本文在逆透視變換處理的基礎(chǔ)上通過(guò)色彩轉(zhuǎn)化模型式(4),實(shí)現(xiàn)低照度環(huán)境中車道的檢測(cè)。
(4)
2.1.2 改進(jìn)Robinson車道邊緣提取
運(yùn)用Canny算子、Sobel算子、Robinson算子等進(jìn)行圖像的邊緣提取是目前的常用方法[8],在車道檢測(cè)的過(guò)程中同樣也被廣泛應(yīng)用。其中Robinson算子由8個(gè)理想的邊緣模板組成,對(duì)噪聲具有抑制的作用,算子的輸出值通過(guò)與被檢測(cè)區(qū)域最為相近的模板給出,使得圖像邊緣得到增強(qiáng)。但也存在著計(jì)算復(fù)雜、定位不準(zhǔn)確等問(wèn)題,本文對(duì)Robinson邊緣提取過(guò)程進(jìn)行改進(jìn),使其在車道檢測(cè)的過(guò)程中效率更高。
利用邊緣模板與圖像進(jìn)行卷積運(yùn)算時(shí),由于中心像素點(diǎn)到各領(lǐng)域點(diǎn)的距離差距,因此引入權(quán)重因子進(jìn)行加權(quán)卷積運(yùn)算。定義模板矩陣和圖像灰度值矩陣分別為
(5)
(6)
(7)
其中Gθ(i,j)為坐標(biāo)(i,j)處θ方向的梯度幅值,w為權(quán)重因子。通過(guò)式(8)計(jì)算坐標(biāo)(i,j)的梯度幅值G(i,j)
G(i,j)=max(|Gθ(i,j)|),
(8)
定義最佳梯度區(qū)間α為梯度幅值G(i,j)在坐標(biāo)(i,j)處方向角θ±22.5°范圍。
在實(shí)際圖像的計(jì)算過(guò)程中通常只能得到中心像素點(diǎn)A其8個(gè)鄰域的梯度幅值,而中心像素點(diǎn)的最佳梯度幅值可能在8個(gè)鄰域的臨近區(qū)間,因此在定義的最佳梯度區(qū)間α內(nèi)求取最佳梯度幅值。若最佳梯度方向角為β,如圖1所示,為了得到最佳梯度幅值GrabTmp1引入式(9)進(jìn)行插值運(yùn)算:
GrabTmp1=2·GrabA1·GrabA2,
(9)
其中:GrabA1和GrabA2在滿足GrabA1+GrabA2=1的條件下,分別為式(10)和式(11);
(10)
(11)
圖1 最佳梯度方向Fig.1 Best gradient direction
對(duì)得到的最佳梯度幅值GrabTmp1進(jìn)行非極大值抑制,以實(shí)現(xiàn)對(duì)車道邊緣的細(xì)化作用。
2.1.3 基于LSD車道檢測(cè)
Hough變換是進(jìn)行車道檢測(cè)的重要步驟,但也存在著檢測(cè)效果不穩(wěn)定的現(xiàn)象,而LSD(Line Segment Detector)算法[9]具有檢測(cè)速率快、魯棒性強(qiáng)的特點(diǎn)。因此,本文將經(jīng)過(guò)車道邊緣提取的圖像利用準(zhǔn)確性和效率更高的LSD算法實(shí)現(xiàn)車道的檢測(cè)。
圖2 line-support區(qū)域生成圖。(a)原圖像;(b)level-line區(qū)域;(c)line-support區(qū)域。Fig.2 Line-support region generation diagram. (a) Original image; (b) Level-line region; (c) Line-support region.
LSD直線檢測(cè)算法主要參考梯度大小和方向兩個(gè)因素計(jì)算局部直線輪廓,在線性時(shí)間內(nèi)能夠獲得亞像素級(jí)精度的檢測(cè)結(jié)果。算法首先根據(jù)每個(gè)像素點(diǎn)的level-line角度生成level-line區(qū)域,再利用種子生長(zhǎng)法尋找角度一致line-support區(qū)域,如圖2所示,通過(guò)最小外接矩形對(duì)line-support區(qū)域進(jìn)行擬合,其中該區(qū)域的主軸方向由矩形的主軸方向確定;然后統(tǒng)計(jì)最小外接矩形內(nèi)的像素點(diǎn)個(gè)數(shù),即level-line角度與主軸角度之差在容錯(cuò)區(qū)間2τ范圍內(nèi)的像素點(diǎn)個(gè)數(shù);最后計(jì)算基于獲取數(shù)據(jù)下的最小外接矩形的NFA(Number of False Alarm)值,并判斷NFA的值是否滿足閾值條件,由此決定最小外接矩形是否為直線。LSD直線檢測(cè)過(guò)程中的種子生長(zhǎng)法定義為:在未搜索的區(qū)域內(nèi),把像素點(diǎn)中梯度幅值最大的點(diǎn)確定為種子點(diǎn),并將該像素點(diǎn)標(biāo)定為已搜索,搜索該像素點(diǎn)周圍未搜索過(guò)并與該像素點(diǎn)的角度誤差值在閾值范圍內(nèi)的鄰域點(diǎn),然后以新點(diǎn)作為起點(diǎn)并進(jìn)行遞歸搜索。LSD算法在檢測(cè)的過(guò)程中由于不需要調(diào)節(jié)參數(shù),因此能夠滿足幾何圖像的快速變換。
車道擬合作為車道檢測(cè)的后續(xù)步驟,通過(guò)對(duì)檢測(cè)的車道特征點(diǎn)進(jìn)行擬合,可以獲取車道的參數(shù)信息。本文提出一種基于滑動(dòng)窗口的三次樣條數(shù)學(xué)模型,實(shí)現(xiàn)對(duì)車道的擬合。
2.2.1 基于滑動(dòng)窗口的車道特征點(diǎn)識(shí)別
按照x軸方向?qū)④嚨罊z測(cè)的結(jié)果劃分為左右兩個(gè)部分進(jìn)行區(qū)域搜索,分別將兩個(gè)部分在x軸方向做直方圖統(tǒng)計(jì),得到像素峰值分布圖如圖3所示,將最大峰值的位置確定為車道線搜索的基點(diǎn)。設(shè)置搜索窗口的寬度和高度參數(shù),窗口寬度設(shè)定為車道寬度的2倍,以窗口寬度的3/4定義窗口的高度。以基點(diǎn)中心作為當(dāng)前搜索的起點(diǎn)進(jìn)行網(wǎng)格化縱向搜尋,對(duì)每個(gè)搜尋窗口分別進(jìn)行x軸方向和y軸方向直方圖統(tǒng)計(jì),獲取搜索窗口內(nèi)非零像素的個(gè)數(shù)并濾除非零像素個(gè)數(shù)小于閾值的窗口,計(jì)算剩余窗口內(nèi)非零像素的坐標(biāo)均值作為當(dāng)前搜索窗口的中心點(diǎn),并將當(dāng)前搜索窗口的中心點(diǎn)作為下一個(gè)備選基點(diǎn)。
圖3 像素峰值分布圖Fig.3 Pixel peak distribution
設(shè)第i個(gè)基點(diǎn)為Si(xSi,ySi),第i個(gè)窗口的中點(diǎn)為Ci(xi,yi),若基點(diǎn)Si和中心點(diǎn)Ci的坐標(biāo)滿足式(12)及式(13):
xi=xSi-h,
(12)
(13)
其中:h為搜索窗口的高度,w為搜索窗口的寬度,yi1為窗口縱向自下而上搜索到第一個(gè)白色像素點(diǎn)的縱坐標(biāo)值,yi2為窗口縱向自上而下搜索到第一個(gè)白色像素點(diǎn)的縱坐標(biāo)值。則將第i個(gè)窗口的中點(diǎn)Ci(xi,yi)作為第i+1個(gè)基點(diǎn)Si+1(xSi+1,ySi+1),否則將第i+1個(gè)基點(diǎn)Si+1(xSi+1,ySi+1)的坐標(biāo)設(shè)定為(xi,ySi),以此進(jìn)行遍歷至窗口到達(dá)圖像的邊緣為止,獲取車道特征點(diǎn)的坐標(biāo)集合。
2.2.2 基于三次樣條插值的車道擬合
相比于最小二乘多項(xiàng)式,三次樣條曲線的一階和二階導(dǎo)數(shù)連續(xù)且曲線具有連續(xù)光滑的特性,因此三次樣條插值法構(gòu)建的車道數(shù)學(xué)模型更加符合車道的實(shí)際情況。
設(shè)通過(guò)滑動(dòng)窗口獲取的車道特征點(diǎn)坐標(biāo)集合為{(x1,y1),(x2,y2),...,(xn,yn)},求解三次樣條的曲線方程即求解每一段樣條曲線的系數(shù),算法首先計(jì)算點(diǎn)與點(diǎn)之間的步長(zhǎng)hi:
hi=xi+1-xi,(i=1,2,...,n),
(14)
然后將路徑特征點(diǎn)坐標(biāo)和端點(diǎn)條件代入矩陣方程計(jì)算,得到二次微分值mi,由此求解每一段的三次樣條曲線系數(shù):
ai=yi,
(15)
(16)
(17)
(18)
最后根據(jù)求解的曲線系數(shù),得到在每一個(gè)子區(qū)間xi≤x≤xi+1內(nèi),三次樣條插值函數(shù)的數(shù)學(xué)模型f(xi)=ai(x-xi)3+bi(x-xi)2+ci(x-xi)+di。依次計(jì)算對(duì)應(yīng)區(qū)間插值函數(shù)的表達(dá)式,至遍歷所有特征點(diǎn),得到三次樣條插值車道擬合模擬如圖4所示。
圖4 三次樣條插值車道擬合模型Fig.4 Cubic spline interpolation lane fitting model
通過(guò)車道的擬合曲線可以獲取車道的參數(shù)信息,結(jié)合車輛相對(duì)于車道的位置,能夠綜合判斷車輛的行為狀態(tài),本文根據(jù)車道的曲率半徑和方向兩個(gè)參數(shù)分析車輛的運(yùn)動(dòng)狀態(tài),結(jié)合車輛的中心位置判斷車輛的偏離狀態(tài)。
將經(jīng)過(guò)擬合的車道信息進(jìn)行預(yù)處理,由于在結(jié)構(gòu)化道路中車道線以直線為主,且彎道的曲率在一定的閾值范圍內(nèi),因此每隔一個(gè)子區(qū)間選擇樣條插值函數(shù)進(jìn)行參數(shù)計(jì)算。設(shè)左車道特征點(diǎn)坐標(biāo)集合為{(Lx1,Ly1),(Lx2,Ly2),...,(Lxn,Lyn)},由此得到子區(qū)間內(nèi)含參數(shù)的三次樣條插值函數(shù)數(shù)學(xué)公式為:fL(Lxi)=aLi(x-Lxi)3+bLi(x-Lxi)2+cLi(x-Lxi)+dLi,以此計(jì)算點(diǎn)(Lxi,Lyi)處的曲率半徑RLxi:
(19)
并由式(20)計(jì)算得出左車道的曲率半徑:
(20)
再利用左車道特征點(diǎn)計(jì)算左車道方向DLx:
(21)
同理計(jì)算出右車道的曲率半徑RRx及右車道方向DRx。利用左右兩車道的曲率半徑均值得到車道曲率半徑Rx,根據(jù)左右兩車道的方向均值得到車道方向Dx,同時(shí)進(jìn)行車輛方向量化編碼如圖5所示,將180°的平面左右各67.5°范圍編碼設(shè)定為車輛左轉(zhuǎn)和右轉(zhuǎn)方向,中間45°范圍設(shè)定為車輛直行方向。綜合車道曲率半徑Rx和車道方向Dx兩個(gè)參數(shù),通過(guò)式(22)判斷車輛的運(yùn)動(dòng)轉(zhuǎn)態(tài),其中T為車道曲率半徑閾值。
(22)
圖5 車輛方向量化編碼Fig.5 Vehicle direction quantization coding
設(shè)某一運(yùn)動(dòng)時(shí)刻車輛和車道的位置關(guān)系如圖6所示,其中(Cxi,Cyi)為車輛的中心位置,(Lxi,Lyi)和(Rxi,Ryi)分別為對(duì)應(yīng)于車輛中心位置(Cxi,Cyi)的車道左右邊界坐標(biāo),Lwd為車道中心到邊界的距離,根據(jù)式(23)計(jì)算車輛中心位置(Cxi,Cyi)到車道右邊界(Rxi,Ryi)的距離Dis:
(23)
將所得的距離Dis與車道中心到右邊界的距離Lwd進(jìn)行比較,若所得的Dis值小于車道中心到右邊界的距離Lwd,則判定為車輛較車道中心位置偏右,若所得的Dis值大于車道中心到右邊界的距離Lwd,則判定為車輛較車道中心位置偏左,若所得的Dis值與車道中心到右邊界的距離Lwd值相等,則車輛位于車道的中心行駛。由此根據(jù)式(24)得出車輛的偏離狀態(tài)。
(24)
圖6 車輛車道位置模型Fig.6 Vehicle and lane position model
本次實(shí)驗(yàn)的數(shù)據(jù)庫(kù)選用BDD100K數(shù)據(jù)集[10]和實(shí)驗(yàn)室自建的數(shù)據(jù)集,其中BDD100K數(shù)據(jù)集是伯克利大學(xué)AI實(shí)驗(yàn)室開(kāi)發(fā)的內(nèi)容最具多樣性的駕駛數(shù)據(jù)集,包括不同天氣、場(chǎng)景和時(shí)間的真實(shí)駕駛場(chǎng)景圖像,且圖像質(zhì)量包括高清和模糊兩種。本文的自建數(shù)據(jù)集為車載行車記錄儀在長(zhǎng)春城市道路中車輛行駛所獲得,包括不同場(chǎng)景下的實(shí)時(shí)道路場(chǎng)景圖像和視頻。
實(shí)驗(yàn)基于Anaconda3平臺(tái),通過(guò)Python3.6語(yǔ)言實(shí)現(xiàn)編程,所有實(shí)驗(yàn)均在配置Intel Xeon E5-2678v3 CPU及NVIDIA 1080Ti GPU,操作系統(tǒng)為Windows Server 2016 64 bits,內(nèi)存為64 GB的實(shí)驗(yàn)室服務(wù)器終端上完成。
車道檢測(cè)作為車輛行為識(shí)別的基礎(chǔ),其檢測(cè)結(jié)果往往影響著車輛行為識(shí)別的準(zhǔn)確性。目前車道檢測(cè)的主要方法包括基于Haar特性的圖像匹配法[11]、基于貝塞爾曲線模型的檢測(cè)算法[12]、基于Hough變換[13]以及Hough變換改進(jìn)的檢測(cè)算法[14],因此,選擇上述文獻(xiàn)的方法與文本提出的算法對(duì)車道檢測(cè)的性能進(jìn)行評(píng)估,其中選擇的測(cè)試數(shù)據(jù)為BDD100K數(shù)據(jù)集中白天、傍晚、夜晚和雨天4種場(chǎng)景下各600幀圖像。參考文獻(xiàn)[15]中的評(píng)估指標(biāo),引入準(zhǔn)確率(Cor)和橫向偏移(LD)兩個(gè)參數(shù)指標(biāo),其計(jì)算公式分別為式(26)和式(27):
(25)
(26)
(27)
其中:Gt為車道標(biāo)定的真值點(diǎn),X為算法檢測(cè)點(diǎn),W為車道線的寬度,f為視頻幀數(shù),δ為誤差補(bǔ)償像素值。同時(shí)選擇傳輸速率(TR)、誤檢率(FDR)和漏檢率(MDR)對(duì)算法的檢測(cè)車道效果進(jìn)行綜合評(píng)價(jià),誤檢率為場(chǎng)景中錯(cuò)誤識(shí)別車道線的幀數(shù)占總幀數(shù)的百分比,漏檢率為車道線漏檢的幀數(shù)占總幀數(shù)的百分比,車道檢測(cè)算法評(píng)估結(jié)果見(jiàn)表1。
表1 車道檢測(cè)算法評(píng)估結(jié)果Tab.1 Result of lane detection algorithm evaluation
從表1中可以看出,文獻(xiàn)[11]通過(guò)提取Haar特征能夠準(zhǔn)確地識(shí)別車道信息,但算法計(jì)算復(fù)雜度高導(dǎo)致傳輸速率較低;文獻(xiàn)[12]采用貝塞爾曲線模型利用車道的連續(xù)性特征進(jìn)行搜索,提高了檢測(cè)效率和實(shí)時(shí)性;文獻(xiàn)[14]通過(guò)改進(jìn)的Hough變換進(jìn)行車道檢測(cè),相比于文獻(xiàn)[13]的Hough變換檢測(cè)法具有較高的檢測(cè)效率和檢測(cè)精度,同時(shí)算法在誤檢率和漏檢率上有所降低;本文算法在車道檢測(cè)的過(guò)程中,通過(guò)改進(jìn)的Robinson算子建立插值公式,相比于上述算法處理的數(shù)據(jù)量較少,速度更快,提高了算法的運(yùn)行效率,在復(fù)雜環(huán)境下避免了車道檢測(cè)過(guò)程中的誤檢和漏檢現(xiàn)象,優(yōu)化了檢測(cè)過(guò)程,提高了算法檢測(cè)的準(zhǔn)確率。不同場(chǎng)景中車道檢測(cè)識(shí)別結(jié)果如圖7所示,從圖中可以看出本文算法在白天、傍晚、夜晚及雨天的不同環(huán)境下,車道檢測(cè)取得了較高的檢測(cè)精度,為后續(xù)車道的行為識(shí)別奠定了良好的基礎(chǔ)。
圖7 車道檢測(cè)識(shí)別結(jié)果。(a~d)原始圖像;(e~h)車道檢測(cè)結(jié)果。Fig.7 Lane detection recognition results. (a~d) Original image; (e~h) Lane detection result.
為了更有效地評(píng)估本文車輛行為識(shí)別算法的各項(xiàng)性能,分別在BDD100K公開(kāi)數(shù)據(jù)集和實(shí)驗(yàn)室自建的數(shù)據(jù)集中進(jìn)行測(cè)試。根據(jù)車道檢測(cè)的結(jié)果選取車道檢測(cè)準(zhǔn)確率較高的文獻(xiàn)[11]、文獻(xiàn)[12]和文獻(xiàn)[14]算法分別與本文采用的滑動(dòng)窗口三次樣條車道擬合算法進(jìn)行組合,同時(shí)在本文車道檢測(cè)算法的基礎(chǔ)上引入最小二乘車道擬合算法進(jìn)行車輛的行為識(shí)別,并與本文算法進(jìn)行對(duì)比。
3.3.1 公開(kāi)數(shù)據(jù)集結(jié)果與分析
車輛的行為識(shí)別在BDD100K公開(kāi)數(shù)據(jù)集的實(shí)驗(yàn),選取白天、傍晚、夜晚和雨天4種場(chǎng)景下各800幀視頻圖像進(jìn)行測(cè)試。引入準(zhǔn)確率(Cor)、錯(cuò)誤率(Err)、傳輸速率(TR) 3個(gè)參數(shù)指標(biāo)對(duì)車輛的行為識(shí)別算法進(jìn)行綜合評(píng)價(jià),其中錯(cuò)誤率包括誤檢率和漏檢率,評(píng)估結(jié)果見(jiàn)表2。
表2 車輛行為識(shí)別公開(kāi)數(shù)據(jù)集結(jié)果Tab.2 Result of vehicle behavior recognition in public data sets
從表2的實(shí)驗(yàn)結(jié)果可以看出,方法1、方法2和方法3與本文算法相比,由于在車道檢測(cè)時(shí)檢測(cè)準(zhǔn)確率的差異,導(dǎo)致其在車輛行為識(shí)別時(shí)結(jié)果的不同,其中本文算法與其他3種算法相比具有較高的檢測(cè)精度,并且能夠滿足實(shí)時(shí)性的要求。在方法4中車道擬合的方法選取了最小二乘法,與本文的滑動(dòng)窗口三次樣條擬合算法相比數(shù)據(jù)擬合精度較差,因此本文的車輛行為識(shí)別結(jié)果的準(zhǔn)確率與方法4相比有所提高。
通常車輛的偏離狀態(tài)是影響車輛行為識(shí)別準(zhǔn)確率的主要因素之一,因此本文在表2實(shí)驗(yàn)結(jié)果的基礎(chǔ)上對(duì)車輛的偏離狀態(tài)進(jìn)行進(jìn)一步分析,選取準(zhǔn)確率(Cor)和橫向偏移(LD)兩個(gè)參數(shù)對(duì)不同車輛行為識(shí)別算法進(jìn)行評(píng)價(jià),其中橫向偏移(LD)表示標(biāo)定的真實(shí)點(diǎn)與算法檢測(cè)點(diǎn)之間的差值,車輛的偏離狀態(tài)行為識(shí)別結(jié)果見(jiàn)表3。
表3 車輛偏離狀態(tài)行為識(shí)別結(jié)果Tab.3 Result of vehicle deviation state behavior recognition
通過(guò)表3的實(shí)驗(yàn)數(shù)據(jù)可以得到,本文算法與其他算法相比具有較高檢測(cè)準(zhǔn)確率以及較小的橫向偏移,因此在對(duì)車輛的行為進(jìn)行分析時(shí),本文算法可以對(duì)車輛的運(yùn)動(dòng)狀態(tài)和車輛中心的偏離狀態(tài)給出較為準(zhǔn)確的信息。
針對(duì)不同場(chǎng)景下車輛行為識(shí)別的結(jié)果略有不同,綜合表2和表3的實(shí)驗(yàn)數(shù)據(jù),選擇準(zhǔn)確率較高的方法2和方法4以及本文的算法,對(duì)車輛的行為識(shí)別算法在白天、傍晚、夜晚和雨天4種場(chǎng)景下進(jìn)行評(píng)估,每種場(chǎng)景各800幀視頻圖像,不同場(chǎng)景下車輛行為識(shí)別結(jié)果見(jiàn)表4,且在公開(kāi)數(shù)據(jù)集中本文算法在不同場(chǎng)景下的識(shí)別結(jié)果如圖8所示。
表4 不同場(chǎng)景車輛行為識(shí)別結(jié)果Tab.4 Result of vehicle behavior recognition in different scenes
圖8 不同場(chǎng)景車輛行為識(shí)別結(jié)果。(a~b)白天場(chǎng)景;(c)傍晚場(chǎng)景;(d)夜晚場(chǎng)景;(e~f)雨天場(chǎng)景。Fig.8 Vehicle behavior recognition results in different scenes. (a~b) Daytime scenes;(c)Nightfall scenes; (d) Night scenes; (e~f) Rain scenes.
根據(jù)表4的實(shí)驗(yàn)結(jié)果,在不同場(chǎng)景下本文算法與其他兩種算法相比均具有較高的識(shí)別準(zhǔn)確率和傳輸速率,結(jié)合圖8的實(shí)驗(yàn)結(jié)果可以看出,在不同場(chǎng)景下本文算法能夠分辨出車輛的左轉(zhuǎn)如圖8(d)、右轉(zhuǎn)如圖8(f)和直線行駛3種行為,并對(duì)車輛的偏離狀態(tài)給出了有效的信息。
3.3.2 自建數(shù)據(jù)集結(jié)果與分析
為了使實(shí)驗(yàn)的結(jié)果更具有實(shí)際意義,對(duì)車輛的行為識(shí)別算法在實(shí)驗(yàn)室自建數(shù)據(jù)集進(jìn)行測(cè)試。與在公開(kāi)數(shù)據(jù)集中同樣選取白天、傍晚、夜晚和雨天4種場(chǎng)景下各800幀視頻圖像進(jìn)行測(cè)試,并引入準(zhǔn)確率(Cor)、錯(cuò)誤率(Err)、傳輸速率(TR) 3個(gè)參數(shù)指標(biāo)對(duì)車輛的行為識(shí)別算法進(jìn)行綜合評(píng)價(jià),評(píng)估結(jié)果見(jiàn)表5,在自建數(shù)據(jù)集中本文算法在不同場(chǎng)景下的識(shí)別結(jié)果如圖9所示。
表5 車輛行為識(shí)別自建數(shù)據(jù)集結(jié)果Tab.5 Result of vehicle behavior recognition in self-built data sets
根據(jù)表5實(shí)驗(yàn)數(shù)據(jù),在自建的數(shù)據(jù)集中本文算法與其他方法相比,同樣具有較高的識(shí)別精度,并且每秒的傳幀速率能夠滿足實(shí)時(shí)性的要求。結(jié)合圖9的實(shí)驗(yàn)結(jié)果,在不同的實(shí)驗(yàn)環(huán)境下本文算法可以有效地識(shí)別車輛直行、左轉(zhuǎn)和右轉(zhuǎn)3種狀態(tài),并給出車輛偏離車道中心位置的信息。綜合車輛行為識(shí)別在公開(kāi)數(shù)據(jù)集和實(shí)驗(yàn)室自建數(shù)據(jù)集的實(shí)驗(yàn)結(jié)果,本文算法與其他算法相比具有較高的準(zhǔn)確率和傳輸速率。
圖9 自建數(shù)據(jù)集車輛行為識(shí)別結(jié)果。(a~d)原始圖像;(e~h)實(shí)驗(yàn)結(jié)果圖像。Fig.9 Self-built data set vehicle behavior recognition results. (a~d) Original image; (e~h) Experimental result image.
本文提出一種基于車道信息融合的車輛行為識(shí)別算法,對(duì)車輛輔助駕駛領(lǐng)域中車輛的行為狀態(tài)進(jìn)行判斷。首先在圖像預(yù)處理的基礎(chǔ)上,運(yùn)用改進(jìn)的Robinson算子獲取最佳梯度幅值,實(shí)現(xiàn)對(duì)車道的邊緣提取,再利用LSD算法完成車道的檢測(cè);然后通過(guò)一種基于滑動(dòng)窗口的三次樣條插值法對(duì)車道進(jìn)行擬合;最后根據(jù)車道的曲率半徑和方向2個(gè)參數(shù)分析車輛的運(yùn)動(dòng)狀態(tài),結(jié)合車輛的中心位置判斷車輛的偏離狀態(tài)。在公共數(shù)據(jù)集和自建數(shù)據(jù)集中分別進(jìn)行測(cè)試,實(shí)驗(yàn)結(jié)果表明本文方法在不同場(chǎng)景下可以有效地區(qū)分車輛的運(yùn)動(dòng)狀態(tài)并給出車輛的偏離信息,與其他算法相比,本文方法的準(zhǔn)確率為93.04%,每秒傳輸幀數(shù)達(dá)到42.37,基本滿足交通場(chǎng)景的實(shí)際要求。