畢建權(quán) 張耀鵬 楊奇才 杜 靜
(1.洛陽電子電子裝備試驗中心 洛陽 471003)(2.平頂山市工業(yè)學校 平頂山 467000)
車輛跟馳交互是車輛群智能研究的核心,也是智能交通流仿真研究的重要內(nèi)容。目前,國內(nèi)外相關(guān)研究較多,主要是基于單車道下的車輛跟馳模型建立和參數(shù)優(yōu)化。常見的跟馳模型有GM 模型、線性模型、安全距離模型、AP 模型和模糊邏輯模型等[1]。
GM 模型[2]是由Gazis和Herman 等 于1958年提出的最經(jīng)典跟馳模型,其假設(shè)車輛加速度與兩車相對速度Δv成比例,目前GM 模型研究主要致力于不同環(huán)境下最優(yōu)參數(shù)的選取。Helly 線性模型[3]與GM 有很大不同,它將前車的減速制動引入模型,Helly線性模型最大的不足是其對速度差值反應(yīng)量是一致的?;诎踩嚲嗟母Y模型與GM 模型的刺激-反應(yīng)原理不同,其是基于車輛行駛中不發(fā)生碰撞的安全距離控制駕駛的模型,也稱為防追尾模型[4]。模糊邏輯跟馳模型[5]是由Kikuchi和Chakroborty于1992年提出,主要基于模糊推理解決車輛跟馳問題,該模型可復現(xiàn)真實的跟馳駕駛行為,在加速度、相對速度和速度標準誤差等方面比GM 模型要好。AP模型(Action Point Model)[6]則是Michaels基于駕駛員心理行為建立的模型,主要將感官的刺激抽象為相對速度和距離的變化。此外,很多研究者也對上述模型做了一些拓展性研究,如基于TSK 模型的車輛跟馳模型[7],基于最優(yōu)控制的車輛跟馳模型[8],基于期望車速的跟馳模型[9],考慮側(cè)向偏移的跟馳模型[10]等。目前跟馳模型都是基于單車道、前車狀態(tài)參數(shù)已知的條件下開展的,而實際交通環(huán)境中車輛跟馳行為都是在前車速度、加速度、最大減速度等狀態(tài)參數(shù)未知,駕駛員完全憑借兩車間距實現(xiàn)跟馳。
因此,本文通過單目視覺導航縮微智能車設(shè)計了一種基于視覺測距的多車道復雜環(huán)境下的車輛跟馳策略,解決僅依賴視覺的車輛跟馳可行性和有效性的問題,為進一步群縮微智能交互、交通仿真與評估研究奠定基礎(chǔ),對研究擬人交互駕駛、縮微交通仿真等研究提出一種新仿真實驗平臺。
實際交通環(huán)境下,前車行駛狀態(tài)未知,用于跟馳控制的信息受限,后車駕駛員僅依靠眼睛判斷兩車間距、前車尾燈和路況等信息,實現(xiàn)對車輛的跟馳控制。為模擬真實交通信息受限條件下的車輛跟馳行為,本文在多車道環(huán)境下研究基于視覺測距的跟馳交互策略,模擬駕駛員基于視覺跟馳的行為,并通過縮微智能車跟馳實驗驗證交互策略及跟馳模型的有效性,需要解決問題有:基于視覺的車輛檢查和距離估計、基于制動距離的線性跟馳模型、基于車輛橫向位置和車尾燈的跟馳交互模型等。對應(yīng)的跟馳交互策略如圖1所示。本文主要研究內(nèi)容如下:
圖1 多車道環(huán)境下基于視覺測距的車輛跟馳交互結(jié)構(gòu)圖
1)車輛制動距離模型分析;
2)基于視覺測距單車道跟馳模型;
3)多車道下,基于車尾燈、視覺測量的橫向偏移量的車輛跟馳策略。
由圖1可知,縮微車跟馳主要根據(jù)車間距D,車尾燈CRL,前車橫向偏移量x,其中車尾燈CRL=0是表示前車尾燈不亮,采用單車道內(nèi)的基于安全制動距離的跟馳;CRL=1是表示前車有換道行為,后車采用基于x車輛跟馳,由基于橫向偏移量的轉(zhuǎn)向控制和基于安全制動距離的跟馳共同完成,即基于安全制動距離的超車換道跟馳模型。
本文跟馳交互研究是基于視覺的廣義跟馳,即駕駛行為跟馳,目的不是在速度和加速度上完全重復被跟馳車輛,主要與前車保持動態(tài)安全距離的行為重現(xiàn)。前車采取停車、加速、減速、換道等行為時,后者在安全距離內(nèi)依次響應(yīng)前方駕駛動作。跟馳模型中可用于跟馳控制參數(shù)只有車間距、前車尾燈、車道線和前車橫向偏移量,對被跟馳車輛的信息完全未知,與實際交通路況相似。本文中做了如下幾點合理的假設(shè):
1)車輛制動距離與速度成正比例關(guān)系。
2)被跟馳車輛速度未知,基于安全考慮,計算制動安全距離時假設(shè)前車為最危險情況,即車速為0。
3)被跟馳車輛不存在倒車行為,只完成加速、減速、停車、換道等駕駛行為。
本文車輛制動模型采用基于制動過程的經(jīng)典安全模型[11],如式(1)所示:
式中v是指后車制動前的速度;t為車輛制動遲滯時間;am為減速度,d為車輛制動停止后與前車的距離。通過實驗得的制動距離D隨速度變化曲線,其二次擬合方程如式(2)所示??芍?,本文實驗中的縮微智能車對應(yīng)制動遲滯時間t=0.0126s,最大減速度am=0.63m/s。
將跟馳車輛不同速度下的車輛制動距離作為跟馳安全距離,理想期望安全距離應(yīng)該比制動距離大彈性變量ξ,防止車輛發(fā)生緊急碰撞,如式(3)所示。根據(jù)對安全車間距要求選擇ξ大小,但不能為負,即期望距離不能比制動安全距離小,本文選取ξ=0.05m。
本文采用基于安全制動距離的線性模型如式(4)所示,將視覺測量的距離變化率Δv(t)、車間距與期望安全距離的差值Δx(t)-D-ξ作為t時刻車輛加速度an(t)兩線性控制量,其中C1為速度差值在控制加速度中的權(quán)重,C2是距離差值在加速度控制中的權(quán)重,an(t)表示t時候后車加速度。
圖2 橫向偏移量控制參數(shù)圖
基于橫向偏移量的換道跟馳跟馳模型主要是基于車尾燈的多車道跟馳模型,該模型中除了需要對車輛速度進行控制外,還需對車輛的轉(zhuǎn)角進行控制,使車輛重現(xiàn)前方車輛的換道行駛行為,同時確保兩車處于安全距離。此模型中用于控制參數(shù)如圖2所示,分別為橫向偏移量x=AB,車間距D=AC,其中x用于車輛的轉(zhuǎn)向控制系統(tǒng),本文采用輸入量為x和x變化率的模糊控制算法,而AC則作為式(4)中參數(shù)D。圖2中A表示前車尾部中心點,B表示與A在同一橫向位置的車輛中心軸,C表示后車前沿中心點,則BC為后車中軸線。
環(huán)境實時感知是縮微智能車交互研究的基礎(chǔ),由于需要檢測的元素多,處理器能力有限。為提高檢測的速度,滿足智能駕駛需求,本文基于道路環(huán)境結(jié)構(gòu)化特點,提出一種完全基于像素點的快速道路元素檢測算法,如圖3所示,并對環(huán)境檢測識別的區(qū)域、分辨率和頻率進行優(yōu)化,進一步提高系統(tǒng)實時性和穩(wěn)定性。主要優(yōu)化方法有:
1)圖像分割檢測?;诮Y(jié)構(gòu)化道路中各元素的特定分布,采用分區(qū)域檢測方法。
2)圖像跟蹤檢測。根據(jù)相鄰幀圖像的連續(xù)性,對同一元素進行跟蹤識別,縮小檢測范圍。
3)基于特定場景環(huán)境觸發(fā)相應(yīng)檢測算法,降低元素的檢測次數(shù)。
4)多分辨率道路元素檢測。根據(jù)元素的遠近和識別精度的需求,采用不同分辨率的圖像,既可提高檢測效率也能滿足檢測精度。
5)優(yōu)化耗時檢測次數(shù)。
6)基于典型特征快速識別環(huán)境元素,提高單次檢測效率,降低檢測復雜性。
圖3 不同分辨率下的環(huán)境檢測原理圖
圖3為本文環(huán)境感知框圖結(jié)構(gòu),其中車輛、信號燈、人偶、標志牌等主要基于顏色、形狀、位置、對稱性等特征;車道線、斑馬線、路面標志主要基于灰度圖像中連通域形狀、數(shù)量等特征快速區(qū)別,涉及到模板匹配、ROI跟蹤等方法。十字路口判斷標志是檢測到斑馬線和停止線。通過上述優(yōu)化設(shè)置,可使縮微智能車在某些情況下對特定道路元素視而不見,見而不識,優(yōu)化檢測次數(shù)和效率,提高環(huán)境感知實時性。
本文通過Matlab仿真驗證模型理論有效性,并根據(jù)實際車輛機械性能及跟馳性能需求確定模型參數(shù)值,即式(3)、式(4)跟馳模型中的速度差值權(quán)重C1和距離權(quán)重C2。本文通過Matlab對跟馳模型中涉及跟馳模型參數(shù)對車輛跟馳誤差、響應(yīng)時間等影響,選擇一組合適跟馳參數(shù),圖4分別是C1、C2對速度跟馳性能的影響曲線,藍色曲線為前車速度曲線,對應(yīng)方程為V前車=0.2+0.02t,紅線為后車速度曲線。由圖可知,C2恒定時,C1越大,穩(wěn)定時間越短;C1恒定時,C2越大,超調(diào)越大。本文仿真實驗初始條件為:車輛初始距離為1.0m,前車速度變化為V前車=0.2+0.02t,后車初始速度為0m/s。
受車輛機械性能影響,車輛加速度不可能太大,即圖4中速度跟馳穩(wěn)定時間不可能過短,時間太長則影響跟馳效果,即速度超調(diào)量不能過大。因此,本文選擇C1=0.6,C2=0.3,在能滿足試驗需求的同時也不違背車輛機械性能特點。該參數(shù)下的跟馳曲線如圖5所示,其中圖5(a)、(b)對應(yīng)前后兩車速度和加速度的跟馳曲線,圖5(c)中的藍色曲線是跟馳過程中的車間距,紅色為安全距離曲線,圖5(d)為車間距與安全距離差值隨時間變化的曲線。
圖4 C1,C2對速度跟馳性能的影響曲線
圖5 C1=0.5,C2=0.3時的參數(shù)跟馳曲線
圖6 縮微智能車跟馳過程中各參數(shù)曲線
為驗證跟馳模型仿真參數(shù)的有效性,本文通過圖6(a)所示縮微智能車進行跟馳實驗。根據(jù)跟馳過程車輛速度和視覺測量的車間距可以得到車輛速度和距離差值的跟馳曲線,如圖6(b)、(c)所示。實驗中前車速度是人為設(shè)置,如圖6(b)中藍色線所示,V前車=0.2+0.02t,紅線為后車跟馳速度,初始值為0m/s,初始兩車距離為1m;圖6(c)中的藍色線是車輛跟馳時的車間距,它隨速度改變而不斷變化,而紅線是車輛間距與安全距離間的差值變化曲線,與速度跟馳性能相似,跟馳行為穩(wěn)定后差值近似為零。由此可見,基于視覺測距的安全距離線性跟馳模型能夠達到很好跟馳效果,跟馳模型參數(shù)有效。
本文主要研究只依賴視覺測距該受限條件下的車輛廣義跟馳問題,包括單車道下的基于安全制動線性跟馳模型、多車道下基于橫向偏移量的換道跟馳模型分析以及跟馳模型中涉及的車輛制動安全距離問題,通過仿真獲得相關(guān)跟馳模型參數(shù),并通過縮微智能車驗證基于視覺跟馳模型的可行性和有效性,解決僅依賴于視覺測距信息下的跟馳問題,為進一步擬人交互駕駛,車輛協(xié)同、交通仿真與評估等研究提供技術(shù)支持。
本文研究對相對結(jié)構(gòu)化的真實交通環(huán)境下的視覺跟馳模型和策略提供借鑒作用,但由于車輛的機械性能、控制、傳感器精度、背景環(huán)境復雜度等方面存在差異,需要在圖像處理算法和車輛控制算法進行完善。此外,本文中的縮微交通環(huán)境和車輛交互系統(tǒng)可以為智能交通研究提供縮微仿真實驗平臺,彌補智能交通計算機仿真研究可信度低的同時,降低了場地實驗的成本和風險。
[1]張智勇,榮建,任福天.跟車模型研究綜述[J].公路交通科技,2004,6(21):108-113.
[2]Adolf D.May.Traffic Flow Fundamentals[M].New Jersey:Prentice Hall Inc,1990(GM).
[3]Helly.W.Simulation of bottlenecks in single lane traffic flow[C]//Proceedings of the symposium on theory of traffic flow.Research Laboratories,General motors,New York:Elsevier,1959:207-23.
[4]Kometani,Sasaki.Dynamic behavior of traffic with an on linear spacing-speed relationship[C]//Proceedings of the symposium on theory of traffic flow research laboratories,General Motors,1959:105-119.
[5]Kikuchi.C,Chakroborty.P.Car following model based on a fuzzy inference system[J].Transportation Research Record,1992,1365:82-91.
[6]Mark Brackstone,Mike McMonald.Car following:a historical review[J].Transportation Research F,1999,2:181-196.
[7]陶誠,黃圣國.基于TSK 模型的車輛跟馳模型[J].華南理工大學學報,2009,3(37):144-148.
[8]張元元,王曉原,譚德榮,等.基于最優(yōu)控制的車輛跟馳模型研究[J].山東理工大學學報,2011,1(25):6-10.
[9]呂貞,陸建.基于期望車速的跟馳模型研究[J].交通運輸工程與信息學報,2010,3(8):68-73.
[10]宋現(xiàn)敏,金盛,王殿海,等.考慮側(cè)向偏移的車輛跟馳模型[J].吉林大學學報(工學版),2012,2(41):333-337.
[11]許倫輝,羅強,吳建偉,等.基于最小安全距離的車輛跟馳模型研究[J].公路交通科技,2010,10(27):95-100.
[12]Hsu-Yung C,Bor-Shenn J,Pei-Ting T,et al.Lane Detection With Moving Vehicles in the Traffic Scenes[J].Intelligent Transportation Systems,IEEE Transactions on.,2006,7(4):571-582.
[13]Chun-Che W,Shih-Shinh H,Li-Chen F.Driver assistance system for lane detection and vehicle recognition with night vision[C]//Intelligent Robots and System,2005:3530-3535.
[14]Zu K.Realtime lane tracking of curved local road[C]//Intelligent Transportation System Conference,2006:1149-1155.
[15]D'Cruz C,Jua J Z.Lane detection for driver assistance and intelligent vehicle applications[C]//Communications and Information Technologies,2007:1291-1296.