趙富強,孔 斌,楊 靜,王智靈,梁華為
(1.中國科學院合肥智能機械研究所,安徽合肥 230031;2.中國科學技術大學,安徽合肥 230026;3.中國科學院合肥研究院應用技術研究所,安徽合肥 230088;4.安徽省智能駕駛技術及應用工程實驗室,安徽合肥 230088)
隨著社會經(jīng)濟的發(fā)展,人們生活水平不斷提高,汽 車和駕駛員數(shù)量增長迅速,平均每年增長率是上一年的10%,每年增加超過千萬輛汽車,汽車給人們帶來便利的同時,也不可避免地帶來了巨大的交通安全問題,在交通事故中,追尾事故占較大比重[1]。
駕駛安全問題是汽車產業(yè)亟待解決的關鍵性問題。近年來,知名車企將安全輔助駕駛系統(tǒng)納入標配,盡可能保證駕駛員的安全[2]。安全輔助駕駛系統(tǒng)主要分為車道線偏離預警、前車碰撞預警和疲勞駕駛監(jiān)測等 ,綜合各方面信息,提醒駕駛員安全駕駛,該系統(tǒng)依賴于安裝在車輛內或外部的相機,獲取交通環(huán)境下的視頻數(shù)據(jù),利用計算機視覺方法,如目標檢測、目標跟蹤、區(qū)域分割等,計算目標位置和軌跡等信息,通過一定策略綜合處理該信息,按照潛在危險的重要程度,輸出預警信號[4]。但目前已有的輔助駕駛系統(tǒng)存在諸多問題:誤警率較高,影響駕駛員,從而導致駕駛員關閉輔助駕駛系統(tǒng),輔助駕駛系統(tǒng)形同虛設;嵌入式平臺對視頻數(shù)據(jù)的處理速度難以滿足預警系統(tǒng)對實時性的要求;在不同的駕駛場景下,光照強度的變化導致車載相機成像質量變差,影響對圖像的處理。近年來,隨著計算機視覺的發(fā)展,目標檢測和目標跟蹤算法的準確率和實時性有了大幅度提高[5],同時,隨著嵌入式GPU的興起,對圖像的處理速度可以滿足預警系統(tǒng)對實時性的要求,目標檢測和目標跟蹤算法可以應用于安全輔助駕駛系統(tǒng)。
現(xiàn)實場景中,當前車并線時,前車和本車的駕駛員均無法在短時間內,判斷兩車是否保持安全的距離和速度,從而導致嚴重的交通事故。本文開創(chuàng)性地提出了前車并線預警策略,可以在前車有并線意圖的情況下,提醒本車駕駛員及時減速避讓。目前已有的前碰撞預警系統(tǒng)的原理是對前方靜態(tài)目標障礙物的預警,主要關注前方目標的靜態(tài)特點,并未考慮當前車輛與前方車輛之間的相對運動趨勢。本文利用目標跟蹤算法跟蹤前方車輛,記錄前車的位置和軌跡等信息,分析前車的運動趨勢,實現(xiàn)前車并線預警功能。
前碰撞預警算法由目標檢測、目標跟蹤、標定測距以及預警策略模塊組成,算法的整體流程如圖1所示。通過車載相機獲取路況圖像,對圖像進行預處理,利用目標檢測算法檢測圖像中的目標車輛,如果檢測到前方特定區(qū)域有目標車輛出現(xiàn),切換到目標跟蹤模塊,跟蹤后續(xù)圖像中的目標,如果跟蹤結果的最大置信度小于設定閾值,則說明目標消失或發(fā)生較大的外觀變化,重新切換到目標檢測模塊。跟蹤模塊輸出目標矩形框,并記錄軌跡信息。通過標定測距模塊測量當前車輛與前方目標車輛的距離[6]。預警策略模塊融合距離、軌跡等信息,實現(xiàn)預警。
2.1.1 檢測算法介紹
圖1 前碰撞預警系統(tǒng)功能流程圖
利用目標檢測算法,獲得圖像中的目標車輛的位置。本文根據(jù)交通環(huán)境下車輛的特點:目標的尺寸通常變化不大,因此,本文對Yolov3卷積神經(jīng)網(wǎng)絡檢測算法進行剪枝處理[7];對檢測錨框的尺寸進行調整,如表1所示,第1列表示兩個輸出層分別負責檢測的目標尺度,第1行表示每個輸出層對應的檢測錨框的3種大小,近似正方形錨框主要用于預測機動車等目標,瘦高的長方形錨框用于預測非機動車等目標。
表1 輸出層的目標尺寸 單位:像素
2.1.2 算法的具體工作流程
利用已標注的交通場景圖像樣本數(shù)據(jù)集,對目標檢測網(wǎng)絡進行訓練,完成每輪訓練后,求解網(wǎng)絡輸出結果的損失,當損失小于一定閾值,或訓練迭代到設定的次數(shù)后,保存權重參數(shù)并結束訓練。在檢測階段,將輸入圖像輸入到檢測網(wǎng)絡,與訓練好的權重參數(shù)進行運算,輸出目標的位置矩形框[8]。具體流程如圖2所示,上面的圖像集合表示訓練集,通過深度學習方法訓練權重參數(shù),左邊的圖像表示測試圖像,通過與網(wǎng)絡的權重參數(shù)運算,輸出目標檢測框,如右邊的圖像中紅色矩形框所示。
2.1.3 剪枝后的卷積神經(jīng)網(wǎng)絡結構
圖2 目標檢測算法流程圖
圖3 剪枝后的卷積神經(jīng)網(wǎng)絡結構
剪枝后的Yolov3卷積神經(jīng)網(wǎng)絡結構如圖3所示,圖中最上面的圖像表示輸入圖像,依次與網(wǎng)絡中各層運算,得到特征矩陣;從網(wǎng)絡的不同層引出特征矩陣,經(jīng)過幾層卷積層融合后,到達輸出層,分別檢測不同大小的目標,如圖中Convs/Scale1和Convs/Scale2所示,最下面的圖像中紅色矩形框表示目標的位置。每個輸出層對應3種錨框,因此,輸出層矩特征矩陣按通道分成3個部分,每個部分分別由矩形框(x,y,w,h)和置信度Conf組成。輸出層Scale1充分保留了圖像的細節(jié)信息,負責檢測中小目標,輸出層Scale2保存較多的語義信息,負責檢測大目標。按照置信度對檢測結果進行排序,選擇置信度大于0.9對應的目標矩形框,作為最終網(wǎng)絡的檢測結果。
2.1.4 檢測算法的損失函數(shù)
檢測算法的損失函數(shù)由定位損失、分類損失和置信度損失組成[9]。
Locloss1表示目標中心位置損失,由目標框中心坐標的均方誤差組成。
Locloss2表示目標矩形框的長寬損失,由目標框的長寬的平方根誤差平方組成,一定程度上弱化較大尺寸的目標框損失對整體損失函數(shù)貢獻。
式中,S2表示輸出層的錨點數(shù);B表示每個錨點對應的示預測目標的矩形框參數(shù),分別對應中心坐標和長寬;x^i、y^i、w^i、h^i表示標注目標的矩形框參數(shù)。
分類損失用于計算預測類別與真實類別的誤差,由目標類別誤差和背景類別誤差組成。
式中,Ci表示預測標簽示真實標簽;lnoobjij表示第i個錨點對應的第j個檢測框是否有目標,如果有,則
置信度損失用于計算分類置信度對損失的貢獻。置信度越小,對整體損失的貢獻程度越大,反之亦然。
式中,pi(c)表示第i個錨點中第c類的預測置信度;p^i(c)表示第i個錨點中第c類的真值置信度;
由于各部分損失對損失函數(shù)的貢獻程度不同,通過加權的方式,綜合各部分損失函數(shù),得到總體損失函數(shù)。
式中,λcoord表示位置誤差的權重;λnoobj表示非目標類別誤差權重。
基于路面紋理上下文的自適應尺度目標跟蹤算法是前車碰撞預警算法的關鍵部分,主要用于跟蹤目標車輛,記錄前車運動軌跡。核相關濾波算法屬于辨別式跟蹤算法,在第一幀中的目標周圍區(qū)域,采用在x和y方向上循環(huán)位移的方式采集樣本,計算樣本的HOG特征矩陣,根據(jù)循環(huán)矩陣的性質,可通過傅里葉變換在頻域進行運算,從而加快了在線訓練和跟蹤的速度[10]。但由于其固有的缺陷,如:當連續(xù)幀間的目標尺度變化較大時,跟蹤框往往無法準確跟蹤前方目標車輛。本文從自適應尺度和道路紋理上下文信息融合等方面,解決原有算法存在的缺陷。
2.2.1 核相關濾波基本理論
基于核相關濾波的目標跟蹤算法是辨別式跟蹤算法,該算法利用樣本集,在線學習一個可辨別的相關濾波器,用于區(qū)分下一幀中特定區(qū)域內目標的位置。傳統(tǒng)的采樣策略是在目標周圍區(qū)域隨機剪切樣本,得到正負樣本集,而核相關濾波算法采用循環(huán)位移的方法[11],在目標區(qū)域周圍進行密集采樣,計算樣本的HOG特征矩陣,整個樣本空間的特征矩陣組成的矩陣是循環(huán)矩陣。通過二維高斯函數(shù)產生樣本標簽,靠近樣本空間的中央位置,標簽值較大,反之亦然,標簽值的大小表示目標的置信度。如圖4所示,下層表示經(jīng)過循環(huán)移位后的樣本空間中的樣本分布圖,上層表示樣本空間中的樣本對應的標簽值,靠近中間位置呈橘黃色,表示標簽值較大,遠離中間位置呈藍色,表示標簽值較小。
圖4 循環(huán)樣本空間與標簽對應關系
在利用脊回歸算法訓練過程中,根據(jù)循環(huán)矩陣的性質,在頻域中減少計算量,有效提高算法的實時性。脊回歸算法如式(7)所示。
式中,A0為樣本集特征矩陣;w為可學習相關濾波器的權重參數(shù)矩陣;y為樣本集的標簽矩陣;λ1為正則項參數(shù)。
對式(7)求導,并令導數(shù)為0,求解w的矩陣形式如式(8)所示;根據(jù)循環(huán)矩陣的性質,時域中的循環(huán)矩陣X可用頻域中的對角陣表示,如式(9)所示;根據(jù)式(8)和式(9),可得到頻域中的權重參數(shù)矩陣,如式(10)所示。
式中,F(xiàn)為傅里葉變換矩陣;AT為樣本集特征矩陣的0共軛轉置;α^0為循環(huán)特征矩陣A0的第一行向量組成的對角矩陣的傅里葉變換;α^0*為循環(huán)特征矩陣A0T的第一行向量組成的對角矩陣的傅里葉變換。
目標跟蹤階段,將下一幀圖像中的搜索區(qū)域的特征組成的循環(huán)矩陣Z與權重參數(shù)矩陣w運算后,得到的響應矩陣R中最大的響應值對應的位置,是圖像中目標的中心位置,如式(11)所示。
2.2.2 融合路面紋理上下文信息的跟蹤方法
傳統(tǒng)的核相關濾波器僅僅利用單一的目標信息作為跟蹤標準,無法有效利用空間上下文信息,而空間上下文信息對預測目標位置具有重要意義[12]。在交通場景下,圖像中的待跟蹤目標車輛在路面上方行駛,且在行駛過程中,前后兩幀的路面紋理相對穩(wěn)定。如圖5所示,圖中藍色矩形框表示路面紋理區(qū)域,紅色矩形框表示目標車輛??梢耘c傳統(tǒng)的核相關濾波算法融合,輔助跟蹤目標車輛。
圖5 道路場景下路面紋理與目標的位置關系
融合道路紋理信息的核相關濾波方法可有效解決目標部分遮擋的跟蹤問題。如果遇到目標車輛部分遮擋,導致目標區(qū)域的響應值非最大響應值,融合路面紋理信息后,仍然可準確跟蹤目標。融合路面紋理上下文信息的脊回歸訓練公式如式(12)所示。
式中,λ2為權衡路面上下文信息對響應值的影響程度參數(shù);A1為路面區(qū)域的循環(huán)樣本特征矩陣。
2.2.3 尺度自適應跟蹤模型
在交通場景下的車輛跟蹤過程中,由于前車和當前車輛的相對速度變化,導致圖像中的目標車輛的尺度發(fā)生變化,傳統(tǒng)的核相關濾波方法無法適應目標車輛變化較大的情況。本文在傳統(tǒng)的核相關濾波的基礎上,增加尺度自適應跟蹤模型。
采用圖像金字塔或濾波器金字塔模型處理與尺度相關的問題,通過一定尺度間隔采樣不同尺度的圖像[13],但該方法的計算量急劇增大,不利于預警算法對實時性的要求。本文根據(jù)交通場景下目標跟蹤尺度變化的特點,增加一個維度處理目標尺度變化,如圖6所示,圖中左邊的圖像表示上一幀中用來在線訓練位移濾波器w和尺度濾波器w1的樣本,通過以像素為單位進行循環(huán)移位,得到循環(huán)樣本空間,計算樣本的HOG特征,與二維高斯標簽矩陣結合,利用脊回歸算法訓練,得到位移濾波器w;以目標中心位置為中心,以一定的間隔采集不同尺度的樣本,并計算樣本的HOG特征,與一維高斯標簽結合,通過脊回歸算法訓練,得到尺度濾波器w1;當獲取到當前幀圖像后,首先,通過位移濾波器w與輸入圖像的特征矩陣運算后,得到當前幀目標中心位置的坐標,然后,利用尺度濾波器計算當前幀目標的最優(yōu)尺度,最終輸出目標的位置和大小,如圖中右下角圖像中紅色虛線框所示。
圖6 自適應尺度跟蹤算法的在線訓練和檢測流程
2.2.4 目標檢測和目標跟蹤切換策略
在復雜多變的交通場景中,正在跟蹤的前方目標易出現(xiàn)運動模糊、遮擋及截斷的情況,導致跟蹤算法對目標跟蹤失敗,本文設計了一個目標檢測和跟蹤模塊的切換時機的方法,當跟蹤模塊對目標跟蹤失敗后,及時切換到目標檢測模塊,重新檢測目標[14]。
根據(jù)核相關濾波跟蹤算法的輸出結果的最大響應值的含義,當準確跟蹤到下一幀目標時,響應矩陣的最大值接近于1,反之,接近于0。根據(jù)該特點,設定切換閾值β,如圖7所示,當0<β<0.7時,表示跟蹤模塊無法有效跟蹤目標,切換到檢測模塊,重新檢測目標;當β>0.7時,表示跟蹤模塊仍然能夠準確跟蹤目標;當檢測模塊檢測到有效目標時,切換到跟蹤模塊對目標進行持續(xù)跟蹤。
圖7 目標檢測和跟蹤模塊切換流程
通過測距模塊實現(xiàn)測量當前車輛和前方目標的距離的功能。目前常用的測距方法有超聲波測距、毫米波測距、攝像機標定測距和激光測距等[15]。利用單目相機的成像原理,通過鏡頭將物體的反射光進行折射后,在攝像機的感光屏上成像[16]。車載相機的坐標空間由4個相互關聯(lián)的坐標系組成,如圖8所示。其中,OW-XWYWZW表示世界坐標系,O-XYZ表示攝像機坐標系,o1-xy表示成像坐標系,o2-uv表示圖像坐標系,紅色的“×”表示世界坐標空間中的點MW和攝像機坐標系中的點M的位置坐標,藍色的“×”表示圖像坐標空間中的點m的位置坐標。根據(jù)式(13),實現(xiàn)圖像坐標空間的點m與世界坐標空間中的點MW的一一映射關系。
式中,A為攝像機的內部參數(shù);fx為x方向以像素為單位的焦距;fy為y方向以像素為單位的焦距;cx為圖像中心對應的x方向的索引;cy為圖像中心對應的y方
圖8 坐標空間的對應關系圖
在目標檢測和跟蹤基礎上,利用圖9所示的流程實現(xiàn)檢測和跟蹤模塊之間數(shù)據(jù)傳遞的有效性。具體流程如下。
圖9 目標檢測與跟蹤算法的數(shù)據(jù)傳遞流程圖
(1)預警系統(tǒng)啟動后,獲取視頻數(shù)據(jù)的第一幀,首先,判斷獲取的幀是否有效,如果無效,則退出。否則,進入檢測流程,檢測并輸出所有的檢測結果,如果未檢測到有效目標,則繼續(xù)檢測下一幀,否則,將目標位置信息記錄下來,并將檢測標志IsDetecting置false,最后,初始化目標跟蹤模塊,輸出目標位置。
(2)當下一幀到來時,進入跟蹤流程,跟蹤目標并輸出結果,如果跟蹤結果的置信度小于閾值,則認為跟蹤失敗,則將檢測標志IsDetecting置true,否則,更新目標跟蹤模塊,輸出目標位置。
2.4.1 碰撞時間預警
采用車載相機標定的方法,可以計算當前車輛和前車的實際距離,同時還需要獲得兩車的相對速度,綜合兩個指標得出碰撞時間(Time of Collision,TTC)[17]。如圖10所示,A車表示當前車輛,B車表示與A車同一車道的前方目標車輛,A車和B車之間的連線表示兩車的碰撞時間。當駕駛員在2.5 s以上發(fā)現(xiàn)危險時,并采取制動措施,可以避免與前車發(fā)生碰撞。
圖10 碰撞時間預警示意圖
利用兩車的相對距離d和相對速度v計算碰撞時間tTTC,由于無法直接測量前車的速度,為了降低成本,本車無法安裝測速儀器,因此,可以通過前后兩幀車距變化與連續(xù)兩幀之間的時間差得出兩車的相對速度,碰撞時間tTTC的計算方法如式(14)所示,以當前車輛的行駛方向為正方向,兩車的在第t幀的相對速度由第t+1幀的距離dt+1與第t幀的距離dt之差與連續(xù)兩幀的時間間隔Δt決定,當▽d<0時,表示兩車的相對距離減小,當▽d>0時,表示兩車的相對距離增示輛車的相對速度越大,反之亦然。
根據(jù)碰撞時間tTTC的值,采取相應的預警措施,如表2所示,當tTTC的取值在(-∞,-2.5)范圍時,預警級別為三級,駕駛員可自主控制車輛,預警系統(tǒng)無需提示;當 tTTC的取值在(-2.5,-1.3]范圍時,預警級別為二級,預警系統(tǒng)發(fā)出聲音預警,提醒駕駛員安全駕駛;當tTTC的取值在(-1.3,0]范圍時,預警級別為一級,預警系統(tǒng)發(fā)出聲音提示,并在一定程度上制動車輛。
表2 碰撞時間與預警級別關系表
2.4.2 前車并線預警
如果前方車輛進入當前車道,駕駛員需要提前預判是否避讓,如果當前車輛與前方車輛的相對速度較高,或前車以較大的速度和角度突然并線,駕駛員無法在短時間內避讓,釀成車禍。本文結合前車運動軌跡,分析前車并線意圖,實現(xiàn)前車并線預警功能。
車載相機安裝在車輛頂部的中央位置,相機成像的中心點對應于車輛正前方的中央位置,如圖11所示,圖中紅色柵格線表示當前車輛安全行駛區(qū)域,該區(qū)域以當前車輛中央向前方的延長線為中軸線,分別向左右兩邊擴展的距離稱為擴展距離,用d1表示,向前方延伸的距離稱為延伸距離,用d2表示。區(qū)域內的每條紅色直線表示距離當前車輛不同距離的位置,藍色實線表示該區(qū)域形成的三維空間的邊界,以當前車輛兩側車道內的目標車輛的中心位置為目標運動軌跡的錨點,當目標錨點從紅色區(qū)域外部向區(qū)域內部移動時,表示前方車輛有并線意圖,此時,預警系統(tǒng)開始預警,提醒駕駛員減速避讓。擴展距離d1和延伸距離d2的關系,如圖12所示,橫坐標表示兩車的相對距離,單位為m,用distance表示,縱坐標表示不同distance對應的安全行駛區(qū)域在圖像中的寬度,單位為像素,用width表示,隨著兩車的相對距離的增加,width逐漸減小。
圖11 前車并線預警原理示意圖
圖12 檢測寬度與車距關系折線圖
2.4.3 非機動車預警
根據(jù)目標車輛的類別,將目標車輛分為機動車和非機動車。在交通場景中,非機動車屬于運動狀態(tài)不穩(wěn)定的交通參與者,在駕駛過程中,容易出現(xiàn)突然停止、轉彎或摔倒等情況,機動車駕駛員需要與非機動車保持一定的距離,并隨時注意突發(fā)情況的發(fā)生。當非機動車出現(xiàn)在當前車輛前方時,預警算法及時預警,提醒駕駛員注意避讓非機動車,謹慎駕駛。
本文的實驗采用KITTI數(shù)據(jù)集和實際交通場景采集的樣本數(shù)據(jù)集。其中KITTI數(shù)據(jù)集由德國卡爾斯魯厄理工學院和豐田美國技術研究院聯(lián)合創(chuàng)辦,是目前世界上最大的無人駕駛場景數(shù)據(jù)集,該數(shù)據(jù)集包含目標檢測、跟蹤、激光雷達及雙目視覺等圖像序列和標注數(shù)據(jù)。如表3所示,KIITI數(shù)據(jù)集根據(jù)目標的最小尺寸(Min_Box)、最大遮擋面積(Max_Occlusion)和最大截斷區(qū)域(Max_Truncation),分為容易、中等和困難3個部分,分別評估算法在不同難度的數(shù)據(jù)集下的性能指標;在實際場景下采集的數(shù)據(jù)集包括高架道路、市區(qū)公路等交通場景。
表3 KIITI數(shù)據(jù)集難易程度分布
通過車載相機與障礙物的實際距離和利用車載相機的標定矩陣計算出來的距離,來分析標定誤差。如表4所示,隨著相機與障礙物的距離的增加,誤差率有所增加,主要是因為距離相機越遠的位置,單位像素所對應世界坐標空間中的距離越大,導致標定誤差增大,但誤差在允許范圍內,滿足預警系統(tǒng)對誤差的要求。
表4 車載相機標定誤差統(tǒng)計
利用KITTI數(shù)據(jù)集抽取包含單個目標的數(shù)據(jù)集,并采用VOT評估工具箱,對比本文所述的跟蹤算法與已有的跟蹤算法之間的性能,結果如表5所示,Ms_Rcacf_6表示本文所述的算法在λ2=0.6時的算法,cacf_dsst表示未考慮路紋理上下文區(qū)域的多尺度跟蹤算法,cacf表示未考慮道路紋理上下文區(qū)域的單尺度跟蹤算法,kcf_dsst表示傳統(tǒng)的核相關濾波的多尺度跟蹤算法。分析實驗數(shù)據(jù)可知,本文提出的算法的平均交并比和EAO(Expected Average Overlap)數(shù)據(jù)均排名第1,平均失敗次數(shù)排名第2,幀率FPS排名第3,綜合以上指標分析,本文所述的算法在準確率方面表現(xiàn)更好,在程序實現(xiàn)中,可通過并行計算技術來彌補幀率較小的缺點。
表5 目標跟蹤算法性能指標
本實驗將車載相機安裝在車輛頂部中央位置,對真實道路場景進行采樣,并在離線場景下對算法進行測試,實驗結果如圖13所示,x軸表示兩車的相對距離;y軸表示兩車的相對速度;z軸表示碰撞時間TTC。當碰撞時間在(-1.3,0]之間時,進行一級預警,如散點圖中紅色大號球點所示,當碰撞時間在(-2.5,-1.3]之間時,進行二級預警,如散點圖中黃色中號球點所示,當碰撞時間在(-∞,-2.5)之間時,進行三級預警,如散點圖中綠色小號球點所示。兩車的相對距離越小,相對速度為負數(shù),且絕對值越大時,表示輛車在短時間碰撞,預警的緊急度越高,反之亦然。
圖13 預警時間與預警級別散點圖
交通場景下,碰撞時間與預警輸出示意圖,如圖14所示,上方坐標系的橫軸表示當前幀在圖像序列中的索引,縱軸表示碰撞時間TTC的值,圖中每一幀的索引對應該幀中當前車輛與目標車輛的碰撞時間,紅色的點表示一級預警,黃色的點表示二級預警,綠色的點表示三級預警,下方的圖像表示特定幀在圖像中的預警結果,黃色矩形框表示目標的位置,其下方的字體描述預警界別。
該實驗主要應用于結構化道路,如:高速、高架道路等場景,并線預警算法對當前車輛前方一定范圍進行檢測,并對可能變道的車輛進行持續(xù)跟蹤,當變道車輛開始進入危險區(qū)域時,進行預警,提示駕駛員及時減速避讓,防止因減速不及時,導致與前方車輛發(fā)生追尾。并線預警實驗結果,如圖15所示,綠色矩形框表示安全情況下目標車輛的位置,這些車輛對當前車輛安全行駛不能構成潛在危險;當目標車輛進入危險區(qū)域后,該車輛的位置矩形框由綠色變成紅色,預警系統(tǒng)通過語音或指示燈提示駕駛員“前方車輛變道,注意減速避讓”;圖中紅色符號“×”表示目標車輛中心位置的歷史軌跡,黃色曲線表示目標車輛與當前車輛的相對位置變化;完成前車并線并穩(wěn)定行駛后,停止預警。
在實際交通場景下,非機動車屬于弱勢交通參與對象,同時由于非機動車駕駛員交通安全意識不強,容易突然變道或者曲線行駛,引發(fā)交通事故。該實驗通過采集交通場景下的包含非機動車的視頻數(shù)據(jù),對本文所述的非機動車預警算法進行測試,實驗結果如圖16所示,黃色直線表示當前車輛前方危險區(qū)域,綠色和黃色矩形框分別表示非機動車或行人的位置信息,當非機動車進入危險區(qū)域后,預警系統(tǒng)進行預警,提示駕駛員注意前方非機動車輛,注意避讓或減速。
圖14 前車碰撞時間預警示意圖
圖15 前車并線預警示意圖
圖16 非機動車預警示意圖
本文提出的基于視頻的前車并線及碰撞預警算法實現(xiàn)了前車碰撞時間預警、前車并線預警以及非機動車預警等功能。目標檢測算法對交通環(huán)境下的車輛有較高的檢出率,有效提高了預警算法的準確率,同時,本文提出的基于路面紋理上下文信息的目標跟蹤算法融合目標周圍信息,實現(xiàn)對目標的精確定位,可以準確獲得前車目標車輛的運動軌跡信息。根據(jù)檢出的結果,結合車載相機標定方法,實現(xiàn)對前方車輛距離的估計,為后續(xù)的綜合預警提供充足的信息。但是,由于交通環(huán)境復雜,難以衡量跟蹤算法對目標的跟蹤結果的準確性,較難把握檢測算法和跟蹤算法的切換時機,在以后的工作中,將進一步對長時跟蹤算法進行研究,結合目標的幾何及外觀信息等,進行綜合判斷。