劉金清, 陳存弟
1(福州外語外貿(mào)學(xué)院, 福州 350202)
2(福建師范大學(xué) 光電與信息工程學(xué)院 醫(yī)學(xué)光電科學(xué)與技術(shù)教育部重點(diǎn)實(shí)驗(yàn)室, 福州 350007)通訊作者: 劉金清, E-mail: 2060008441@qq.com
自動駕駛是智能交通的必然產(chǎn)物, 而機(jī)器視覺感知技術(shù)是自動駕駛中的“眼睛”, 它能夠通過對無人駕駛車輛所在的路面車輛動態(tài)圖像進(jìn)行智能識別以實(shí)現(xiàn)安全駕駛.本文主要研究無人車所在路面的車輛動態(tài)圖像的智能識別技術(shù), 基于嵌入式平臺選擇適用于高速路的車道檢測、車輛監(jiān)測和跟蹤算法.
近些年, 車道檢測和車輛跟蹤技術(shù)的進(jìn)步得益于國內(nèi)外學(xué)者廣泛的關(guān)注與研究.車道檢測技術(shù)有: 基于逆透視變換的方法[1,2], 基于Hough 變換的方法[3,4], 基于拋物線的方法[5], 基于B 樣條曲線的方法[6,7].
適用于車輛檢測的目標(biāo)檢測算法主要以深度學(xué)習(xí)算法為主, 如以CNN 結(jié)構(gòu)為基礎(chǔ)的AlexNet、GoogleNet、LeNet[8]、VGG、ResNet 等算法, 而這些算法需要高性能CPU+GPU 作為訓(xùn)練和運(yùn)行載體, 因而并不適用于嵌入式平臺上的實(shí)時性要求.基于Adaboost 分類器簡單且運(yùn)算量較小, 較容易移植到嵌入式平臺.
基于動態(tài)背景下的車輛跟蹤方法有: 基于卡爾曼濾波KF (Kalman Filter)的車輛跟蹤[9,10], 基于擴(kuò)展卡爾曼濾波EKF (Extended Kalman Filter)的車輛跟蹤[11],基于均值漂移(Mean-Shift)的車輛跟蹤[12], 基于粒子濾波PF (Particle Filter)的車輛跟蹤[13,14], 基于核化相關(guān)濾波KCF (Kernelized Correlation Filters)的車輛跟蹤[15],基于一種新的單目標(biāo)長時間跟蹤TLD (Tracking Learning Detection)的車輛跟蹤[16], 基于多示例學(xué)習(xí)MIL (Multiple Instance Learning)的車輛跟蹤[17,18].本文選用適用于多目標(biāo)跟蹤且非線性系統(tǒng)的粒子濾波算法來實(shí)現(xiàn)車輛跟蹤.
車道經(jīng)過攝像機(jī)成像后, 由原先三維空間中的客觀物體投影在二維空間上, 車道線不可避免地在圖像中出現(xiàn)透視效果.針對任意的分辨率圖像, 如本文處理的路面圖像大小為480×320, 在算法設(shè)計(jì)時先設(shè)置分道線最大寬度為 ML W=0.1×IW=48個 像素, 其中 IW表示圖像寬度.假設(shè)路面的ROI 區(qū)域高度為 RO I_H, 那么從ROI 區(qū)域的底部到消失點(diǎn)所在的行數(shù), 其分道線寬度的變化可用(1)表達(dá)式表示:ROI 區(qū)域內(nèi), 針對第i 行的LW, 計(jì)算坐標(biāo)( c,r)點(diǎn)的灰度值與 (c- LW,r) 點(diǎn)灰度值之差diffL和坐標(biāo)為( c,r)點(diǎn)和(c+LW,r)點(diǎn)的灰度值之差diffR, 再綜合diffL和diffR的
利用式(1)和式(2)遍歷原圖I, 可表述為: 在差值來重定義原來的灰度圖.
圖1(a)為重新定義的灰度圖F, 圖1(b)為二值化的結(jié)果.
圖1 自適應(yīng)閾值二值化
圖2 中, 白色橫線處的灰色分布如圖3 所示, 分道線的灰度值與路面灰度值之差約為100.利用式(3)擴(kuò)展得到式(4), 車道分割自適應(yīng)閾值Th 就為:Th=I(c,r).data/2, 接下來使用Th 對圖像F 進(jìn)行二值化處理, 得到圖1(b)結(jié)果.
圖2 路面上白色橫線
圖3 白色橫線路面灰度值
成像路面不但包含有真正的分道線, 而且還有偽分道區(qū)域, 要想擬合出正確的分道線, 就必須剔除偽分道線.如圖4 所示, 分道線經(jīng)過相機(jī)系統(tǒng)投影成像后,分道線表現(xiàn)有如下特征:
圖4 車道最小矩形模型
(1)分道線是細(xì)長的連通域.
(2)求白色連通域的最小矩形, 可知道其與水平邊的夾角控制在一定的范圍內(nèi), 夾角范圍為 θ ∈ [20,70].
(3)白色連通域所含的像素數(shù)不可能很小.
(4)分道線質(zhì)心所在的行不小于圖像高度的2/3.
本文使用Suzuki S 提出的輪廓提取算法[19]尋找二值圖的輪廓, 首先提取二值圖連通域輪廓, 接著提取每個輪廓的最小矩形, 同時計(jì)算每個連通域最小矩形的質(zhì)心, 根據(jù)以上的4 點(diǎn)特征, 過濾掉多余的偽分道線.結(jié)果如圖5 所示.
高速結(jié)構(gòu)路面上同向車道經(jīng)常被分成幾條車道,由虛線、實(shí)線、虛實(shí)線和雙實(shí)隔開.為了避免在分道線擬合時同一車道錯誤識別為多條車道, 有必要對斷裂的車道線進(jìn)行合并.圖6 為合并示意圖.
圖5 車道分割結(jié)果
圖6 車道拼接示意圖
(1)斷裂的分道線或虛線分道線, 其連通域之間是上下關(guān)系, 加上相機(jī)系統(tǒng)投影成像后出現(xiàn)透視效果的原因, 行間距相差不大: | y1-y2|<T1.
(2)最小矩形與水平線的角度θ 相差不大:|θ1-θ2|<
(3)根據(jù)最小矩形的質(zhì)心和t anθ求得的直線表達(dá)式能以最短的距離交于彼此的最小矩形區(qū)域.如圖6(b)中 L1和 L2的延長線彼此相交于最小矩形.
(4)針對虛實(shí)分道線或者雙實(shí)分道線, 依據(jù)兩個連通域最小矩形與水平線的夾角不大15°的規(guī)則:|θ1-θ2|≤15, 提取斜邊最長的連通域作為最終的分道線.
如圖7 所示, 分別是斷裂分道線的連接結(jié)果和多余分道線連接結(jié)果.
針對車道中的直線分道線部分, 用直線方程擬合,而對于車道中曲線分道線部分, 采用的是基于Catmullrom[6]的樣條曲線擬合.
(1)斜截式:y=kx+b
(2) Catmull-rom splines
Catmull-rom 樣條曲線實(shí)質(zhì)上是三次多項(xiàng)式(式(5)).假設(shè)有兩點(diǎn) pi和 pi+1, 且已知兩點(diǎn)對應(yīng)的導(dǎo)數(shù)為和 pi+1′, 根據(jù) pi、 pi+1、 pi′和 pi+1′計(jì)算處多項(xiàng)式的系數(shù) aj, j=0,1,2,3 , 便可擬合兩點(diǎn)的曲線.本文將 pi和pi+1相 鄰兩點(diǎn)的斜率作為 pi′和 pi+1′導(dǎo)數(shù), 得到樣條曲線的表達(dá)式(6).從式(6)可以看出, 如果要擬合兩點(diǎn)之間的曲線, 則須知道4 個坐標(biāo)點(diǎn).
(3)直線方程擬合車道
車道上用于Catmull-Rom 擬合的點(diǎn)模型如圖8 所示.取接近圖像底部的兩點(diǎn)計(jì)算出直線方程, 并延伸到車道圖像的底邊緣.擬合結(jié)果如圖9 所示, 延長直線即是以直線方程擬合的結(jié)果.
圖7 分道線提取結(jié)果
圖8 曲線擬合點(diǎn)模型
圖9 車道直線部分
(4) Catmull-spline 擬合曲線車道
取 p1, p2,p3,pv作為Catmull-spline 算法的擬合坐標(biāo)點(diǎn), pv是 p2和 p3的線性方程延長點(diǎn), 因此擬合出來的樣條曲線能經(jīng)過 p1, p2,p33 點(diǎn), 如圖10 所示.
圖10 彎曲車道擬合
針對無人車在高速路上不變更車道或者不超車的情況下, 只檢測當(dāng)前行駛車道, 既能降低路面車道檢測算法的復(fù)雜度, 又能提高運(yùn)行速度和檢測的準(zhǔn)確度.本文基于HSV 顏色空間和Sobel 梯度設(shè)置一定的閾值范圍來分割單車道.
1.6.1 路面圖像二值化
如圖11 為車道圖像的RGB 空間圖像和HSV 空間圖像.圖12(a)是Sobel 水平方向邊緣圖.根據(jù)HSV顏色空間特性和Sobel 邊緣特性, 各自設(shè)定特定的閾值, 便可以得到分割出路面的二值圖.經(jīng)過大量的實(shí)驗(yàn)數(shù)據(jù)比較, 本文設(shè)定S 通道灰度值在 S g ∈[170, 255],V 通道灰度級設(shè)定在 Vg∈[30,255], Sobel 圖灰度值轉(zhuǎn)成 [0, 255] 范圍后設(shè)定的灰度閾值為 S bg∈[65,100], 如果滿足關(guān)系則認(rèn)為是分道線.如圖12(b)所示即是分割后的路面二值圖.
圖11 HSV 顏色空間各通道圖
圖12 車道二值化圖像
1.6.2 基于透視變換提取分道線坐標(biāo)點(diǎn)
基于透視變換提取分道線坐標(biāo)點(diǎn)的步驟如下:
(1)車輛的視覺傳感器安裝后位置方向均固定不變, 因此, 可以根據(jù)拍攝到的路面圖像, 預(yù)先設(shè)定車道的ROI 區(qū)域.如圖13(a)所示.
圖13 尋找透視空間車道點(diǎn)
(2)設(shè)定ROI 區(qū)域主要是用在二值圖中, 對ROI區(qū)域透視變換, 如圖13(b)所示.
(3)在透視空間尋找分道線的坐標(biāo)點(diǎn).將透視空間分成左右兩半, 分別以小矩形滑動窗口的方式遍歷出左右分道線的坐標(biāo)點(diǎn).滑動窗口自下往上計(jì)算在滑動窗口中的投影值, 取投影值最大的列和窗口底邊所在的行作為透視空間中的分道線坐標(biāo)點(diǎn), 如圖13(b)的紅點(diǎn).
1.6.3 基于二次多項(xiàng)式擬合分道線
選用二次多項(xiàng)式來擬合分道線.對于多項(xiàng)的求解,可定義為對給定的一組數(shù) (xi,yi),i=0,1,···,m, 求次數(shù)不超過m 的多項(xiàng)式(7)且滿足差平方之和最小式(8):
根據(jù)式(8)求得系數(shù) ai得到 Pn(x)即是最小二乘擬合的多項(xiàng)式.如圖14(a)所示, 紅點(diǎn)表示原來提取到的點(diǎn), 藍(lán)點(diǎn)所示二次多項(xiàng)式擬合后的點(diǎn).將透視空間的坐標(biāo)點(diǎn)逆變換到原圖像上, 其結(jié)果如圖14(b)所示.
圖14 單車道透視結(jié)果
本文檢測車輛是基于HOG+Adaboost[20]分類算法和基于車底陰影特征相結(jié)合的方法.
車輛檢測框圖如圖15 所示.
圖15 車輛檢測框圖
HOG 相關(guān)參數(shù):
① cell 單元為8×8 像素;
② [ 0,2π]劃分成9 個bins;
③ 設(shè)置block 大小為16×16 像素, 滑動步長為4×4.
每個cell 的特征矢量維度為9, 2×2 個cell 組成block 對應(yīng)的特征矢量維度為36.所有待訓(xùn)練的車輛圖像均尺度縮小為32×32, 且block 的滑動窗口步長為4,因此一幅圖像的HOG 特征維度為36×7×7=1764.將特征向量輸入由多個強(qiáng)分類器組成的Cascade[21]分類器,得到最終的分類結(jié)果.車輛檢測結(jié)果圖16 所示.
圖16 車輛檢測結(jié)果
為了過濾Adaboost 算法的誤檢區(qū)域, 引入車底陰影的方法作為車輛的校驗(yàn), 同時能找到車輛底部與路面的交線, 有助于建立三維模型精確計(jì)算車距.
2.2.1 提取車輛區(qū)域子圖并二值化
對2.1 節(jié)得到的車輛矩形框放大一倍得到車輛區(qū)域子圖 Fbw, 接著依據(jù)結(jié)構(gòu)路面上分道線與路面的灰度級分布近似呈正態(tài)分布的規(guī)律, 計(jì)算出相應(yīng)的閾值來二值化車輛區(qū)域子圖.本文二值化方法如下:
(1)高速路面上的安全車距一般保持在50 米以上,因此在圖像底部設(shè)定一個ROI 區(qū)域能夠確保僅包含有路面而不會包含其他車輛, 稱該子圖為 Fl, 如圖17 所示.
圖17 F l 子圖
(2)灰度化 Fl, 計(jì)算灰度均值μ 和路面方差 σ:
(3)統(tǒng)計(jì)路面像素點(diǎn): gσ(x,y)∈[μ-σ,μ+σ], 然后求像素點(diǎn)的均值 μσ和方差σσ:
圖18 二值化
2.2.2 提取車底陰影與路面的交線
本文根據(jù)以下規(guī)則來提取車底陰影與路面交線:
(1)在圖 Fbw下半?yún)^(qū)域?qū)ふ臆嚨钻幱皦K.如圖19(a)所示, 車底陰影的上下線分布關(guān)系為:
(2)遍歷所有獨(dú)立陰影區(qū)域的最小列 mi n_L、最大列 ma x_R 和最大行 ma x_D, 兩兩比較獨(dú)立陰影區(qū)域的最大行y 間距, 滿足式(12)關(guān)系則合并為一個陰影區(qū):
(3)計(jì)算 ma x_R 和 mi n_L之差, 如式(13), 其差值大于 Fbw寬1/4 的陰影區(qū)域可初步設(shè)定為車底陰影.
(4) max_R 和 mi n_L之差最大時作為陰影與路面的交線, 如圖19(b).
(5)對于不能在(1, 2, 3, 4)驗(yàn)證規(guī)則中找到陰影區(qū)域的矩形框認(rèn)定為非車輛區(qū)域.結(jié)果如圖19(c)和圖19(d)所示.
圖19 檢測結(jié)果
相機(jī)以30 f/m 的速度采集, 且車輛在高速路上行駛的最高速度為120 km/h, 最低速度為60 km/h, 故可計(jì)算出幀間車輛行駛的距離為(0.55-1.11) m, 可引入跟蹤算法.粒子濾波是一種基于蒙特卡洛方法, 其核心思想是從后驗(yàn)概率中抽取隨機(jī)狀態(tài)粒子來近似蒙特卡洛積分, 進(jìn)而估計(jì)出下一個跟蹤狀態(tài).該方法切合于所有能用狀態(tài)空間模型表示的非線性系統(tǒng), 濾波過程中抽取的隨機(jī)狀態(tài)粒子可以逼近最優(yōu)估計(jì)的精度.
將車輛的粒子模型定義為:
其中, x、y 是最優(yōu)估計(jì)中心位置, s 是尺度因子, xp、yp是 前一幀的最優(yōu)估計(jì)中心位置, sp是前一幀的尺度因子, x0和 y0保 存 檢 測 到 的 車 輛 原 始 坐 標(biāo); w idth和height 分別是車輛區(qū)域的寬和高, w是粒子的權(quán)重.histogram是維度為110 的HSV 顏色直方圖, 本文的提取規(guī)則為式(15)所示:
提取規(guī)則中, H、S 和V 為HSV 空間中的3 個通道像素值, 認(rèn)為分量 V 或者 S的值小于0.2 為無色塊, 則將無色塊的直方圖分配在下標(biāo)為 [10 0,109]之間, 否則將 S 和 V分量值各分成10 個區(qū)間, 組合成維度為100 的特征矢量, 因此, 基于HSV 的顏色直方圖采集每個車輛的特征矢量維度為110.
計(jì)算前一幀車輛所有粒子的狀態(tài)轉(zhuǎn)移預(yù)測, 實(shí)質(zhì)上是在獲取車輛目標(biāo)后, 在目標(biāo)附近場景中按照高斯分布的規(guī)則分撒粒子來搜索目標(biāo)對象.本文在動態(tài)二階自回歸模型中融入高斯分布規(guī)則來實(shí)現(xiàn)粒子更新,如式(16)所示:
得到本幀的所有粒子狀態(tài)轉(zhuǎn)移結(jié)果, 粒子的屬性有:
A1與A2系數(shù)分別表示相鄰幀跟蹤結(jié)果的信任度和間隔幀的信任度.粒子濾波的觀測概率密度函數(shù)以第n 個粒子的歸一化顏色直方圖與前一幀最優(yōu)狀態(tài)估計(jì)的歸一化顏色直方圖的相似度來衡量.顏色直方圖歸一化為式(17)所示:
計(jì)算兩個歸一化顏色直方圖的巴氏距離作為該粒子的權(quán)重值, 權(quán)重值越大的粒子, 說明該粒子與上一幀的最優(yōu)估計(jì)車輛區(qū)域越相近.假設(shè)前一幀的歸一化顏色直方圖為 Hp[i], 當(dāng)前幀歸一化顏色直方圖為 H[i], 其巴氏距離 pw的計(jì)算公式為式(18):
計(jì)算完一個車輛目標(biāo)的所有粒子權(quán)重后, 歸一化權(quán)重以更好地衡量每個粒子的相對作用度, 歸一化后最大權(quán)重的粒子可以被視為本次跟蹤的最優(yōu)狀態(tài)評估.車輛長時間跟蹤過程中總會出現(xiàn)粒子退化現(xiàn)象, 傳統(tǒng)的重采樣方法是直接刪除與目標(biāo)對象不相似的粒子,依據(jù)權(quán)重大小復(fù)制與目標(biāo)對象相似度高的粒子.傳統(tǒng)的重采樣方法:
① 大到小的順序?qū)︻A(yù)測的粒子權(quán)重排序如下:
② 假設(shè)每個跟蹤目標(biāo)的粒子數(shù)為 Nu m個, 按權(quán)重大小順序復(fù)制粒子數(shù)為:
③ 循環(huán)②步, 根據(jù)權(quán)重順序累加 npi個權(quán)重為pwi的粒子, 直到累加數(shù)量達(dá)到N um個則停止復(fù)制粒子.
傳統(tǒng)重采樣方法盡管能夠解決粒子退化問題, 但缺陷是粒子的多樣性缺失問題被引入.本文設(shè)置跟蹤目標(biāo)的粒子數(shù)為 Nu m=50 個, 當(dāng)有效粒子數(shù) Neff少于30 個時則認(rèn)為粒子退化.消除退化的粒子, 也就是對粒子重采樣, 同時確保粒子不失多樣性.本文改進(jìn)的重采樣方法如下:
(1)計(jì)算有效粒子數(shù) Neff, 若則進(jìn)入步驟(2), 否則跳到步驟(3).
① 隨機(jī)選取粒子 , 找到距離 最小的m=6 個粒子.
② 求m+1 個粒子的加權(quán)平均值:
④ 循環(huán)①~③步, 利用 Uj產(chǎn)生新的粒子來代替原來權(quán)重大于 wph的粒子, 并且補(bǔ)充原來剔除掉小于wpl的粒子, 直到粒子數(shù)達(dá)到 Nu m則停止粒子的產(chǎn)生.
⑤ 重置每個粒子的權(quán)重為: w pj=1/Num.
圖20 為粒子退化圖, 可看出粒子散布很散亂且范圍大, 這是由于隨著迭代次數(shù)的增加, 大部分粒子的權(quán)重會縮小, 少部分的粒子權(quán)重變得極大, 導(dǎo)致粒子間的權(quán)重方差會隨著迭代次數(shù)而不斷增大產(chǎn)生的.圖21 是采用傳統(tǒng)的重采樣法更新的粒子圖, 由圖可看出按照權(quán)重排序來復(fù)制粒子時, 權(quán)重越大的粒子被復(fù)制的數(shù)量越多, 導(dǎo)致顯示在圖像上的粒子數(shù)量越少, 繼而引進(jìn)粒子多樣性降低問題.如圖22 所示, 為了既能克服粒子退化問題又能解決傳統(tǒng)重采樣方法導(dǎo)致粒子多樣性缺失問題, 本文改進(jìn)的粒子重采樣方法, 不但提高了粒子分布的多樣性, 而且粒子能夠均勻地分布在車輛區(qū)域中.
圖20 粒子退化
圖21 傳統(tǒng)的重采樣法粒子圖
圖22 改進(jìn)的重采樣粒子圖
6 種不同性質(zhì)路面上的多車道檢測實(shí)驗(yàn)結(jié)果如圖23所示.
3 種不同性質(zhì)路面上的單車道檢測實(shí)驗(yàn)結(jié)果如圖24所示.
不同幀次的車輛視頻跟蹤實(shí)驗(yàn)結(jié)果如圖25 所示.
本文使用多個視頻流來檢驗(yàn)算法的檢測結(jié)果.4.1 節(jié)中使用兩個路段上的路面視頻測試多車道算法,截取6 張正常光照路面、減速標(biāo)志路面、隧道路面、彎曲路面和上坡路面上的車道檢測結(jié)果; 4.2 節(jié)是單車道在有陰影、強(qiáng)光和花白路面的結(jié)果; 4.3 節(jié)截取的是第1、10、40、60、70、90、100、150、200 幀的跟蹤結(jié)果.通過實(shí)驗(yàn)結(jié)果可看出, 本文檢測結(jié)果良好, 有助于進(jìn)一步地移植在嵌入式平臺并實(shí)現(xiàn)車道偏離報警和前向防撞系統(tǒng).
對于車輛檢測, 檢測集200 張圖片, 有248 個車輛,采用不同算法實(shí)驗(yàn)統(tǒng)計(jì)檢測到的車輛識別率和誤檢區(qū)域個數(shù)如表1 所示.采用傳統(tǒng)的單獨(dú)使用Hog+Gentle-Adaboost 算法, 檢測到的車輛有239 個, 誤檢區(qū)域52 個;采用Hog+Gentle-Adaboost 算法結(jié)合車底陰影校驗(yàn)算法檢測到的車輛有239 個, 誤檢區(qū)域只有2 個, 大大減少誤檢的區(qū)域個數(shù), 進(jìn)而避免跟蹤算法不必要的跟蹤運(yùn)算, 提高跟蹤效率.實(shí)驗(yàn)表明采用本文檢測算法效果良好.
本文車道檢測與車輛跟蹤算法[22]能較好地檢測高速路段車輛行駛的分道線和前方車輛, 可靠性和準(zhǔn)確性較高, 較容易移植到嵌入式平臺.盡管目前的深度學(xué)習(xí)算法對目標(biāo)檢測精度較高, 但是難以在嵌入式平臺得到運(yùn)用, 而且本文的算法是針對視頻流處理, 所采用的Hog+Adaboost 算法檢測到車輛后則使用跟蹤算法實(shí)現(xiàn)車輛的跟蹤, 能在嵌入式平臺內(nèi)存和運(yùn)算能力有限的情況下得到可靠的運(yùn)用.
針對車道檢測, 本文將車道分為單車道和多車道來檢測, 對于正常光照路面、減速標(biāo)志路面、隧道路面、彎曲路面和上坡路面均能得到較好的結(jié)果.
圖23 多車道檢測實(shí)驗(yàn)結(jié)果圖
圖24 單車道檢測實(shí)驗(yàn)結(jié)果圖
針對車輛跟蹤, 采用動態(tài)二階自回歸模型的方法預(yù)測車輛的狀態(tài).對于粒子濾波固有的粒子退化問題,創(chuàng)新性地引入Thompson_Taylor 算法改善了粒子退化和低多樣性的缺陷.
針對車輛檢測, 首先使用Hog+Gentle-Adaboost 分類算法實(shí)現(xiàn)無人車前方路面車輛的檢測, 接著基于車底陰影的特征對車底陰影進(jìn)行檢測以驗(yàn)證學(xué)習(xí)算法檢測到的車輛區(qū)域的真?zhèn)涡? 同時提高了車輛的跟蹤效率.
圖25 車輛檢測與跟蹤結(jié)果圖
表1 采用不同算法的車輛識別率和區(qū)域誤檢數(shù)對比表
不足之處是車道檢測和車輛檢測算法過于繁瑣,接下來的研究工作是優(yōu)化算法, 進(jìn)一步結(jié)合嵌入式平臺實(shí)時運(yùn)行本文算法, 同時根據(jù)車道提取和車輛檢測反饋的結(jié)果, 基于機(jī)器視覺建立車距檢測模型, 不但要檢測出前方車輛與本車的距離, 還要計(jì)算出前方車輛相對于攝像機(jī)光軸的偏轉(zhuǎn)角度, 以實(shí)現(xiàn)車道偏離的及時報警.