主題詞:自動駕駛 駕駛意圖識別高斯混合模型隱馬爾可夫模型Frenet坐標系中圖分類號:U463.6 文獻標志碼:A DOI:10.19620/j.cnki.1000-3703.20231201
Driving Intention Recognition Based on Gaussian Mixture-Hidden MarkovModel
Shen Yu122,Liu Guanghui2,Ma Xuanpeng1,XuJiawen2,Yan Yuan2 (1.School of Information Engineering,Gansu Minzu Normal University,Hezuo 747ooo;2.Schoolof Electronicand Information Engineering,Lanzhou Jiaotong University,Lanzhou )
【Abstract】To achieve accurate recognition of vehicle driving intentions in highway scenarios,this paper proposes a drivingintentionrecognitionmodelthatcombinesdualreferencelinesintheFrenetcoordinatewith GausianMixture Models (GMMs)andHidden Markov Models (HMMs).Themodel selectsdrivingdata fromdiferentreference linesintheFrenet coordinatebasedonvehiclepositionasobservedvariables.By integratingtheobservationprobabilitiesoutputbytheGMMat previousand subsequent time steps withthe HMM,the model identifies the vehicles’driving intentionat thecurrentmoment. Theefectivenessof themodelisvalidatedusingtheUS-101datasetfrom NGSIM.Theresultsshow that thedual-referenceline GMM-HMM model achieves recognition accuracies of 93.33% for lane keeping and 92.24% for lane changing,indicating excellent recognition performance.
Key Words:Autonomous driving,Driving intention recognition,Gaussan Mixture Model (GMM),HiddenMarkovModel (HMM),F(xiàn)renetcoordinate
【引用格式】沈瑜,劉廣輝,馬翱鵬,等.基于高斯混合-隱馬爾可夫模型的駕駛意圖識別[J].汽車技術(shù),2025(5):22-28SHENY,LIUGH,MAXP,etal.Driving IntentionRecognitionBasedonGausian Mixture-HiddenMarkovModel[J].Automobile Technology,2025(5):22-28.
1前言
道路交通事故原因分析表明,約四分之一的安全事故源于駕駛意圖傳達不明確[1。因此,準確識別駕駛意圖,提高車輛行駛安全性,已成為當前自動駕駛技術(shù)領(lǐng)域關(guān)注的焦點。
目前,駕駛意圖識別方法主要分為基于規(guī)則(Rule-Based)和基于深度學習的方法?;谝?guī)則的識別方法將駕駛經(jīng)驗轉(zhuǎn)化為知識,并將提取出相應規(guī)則,應用于駕駛意圖識別2]。Bouchard等3]基于雙層規(guī)則理論,根據(jù)設(shè)計規(guī)則和環(huán)境狀態(tài)感知識別駕駛意圖,模型在可解釋性和安全性方面表現(xiàn)良好,但受限于規(guī)則引擎的固有缺陷,泛化能力不足。Bhattacharyya等提出了基于規(guī)則與數(shù)據(jù)驅(qū)動協(xié)同識別駕駛意圖的方法,結(jié)合車輛行駛參數(shù),通過規(guī)則確定基本駕駛意圖,同時優(yōu)化參數(shù)以匹配真實駕駛行為。該方法提升了駕駛意圖識別的可解釋性和真實性,但在實時性和泛化性方面仍有改進空間?;谝?guī)則的方法適用于簡單交通場景,其效率和可靠性較高,但因面對復雜或未知場景的覆蓋率較低,識別的準確性與適應性存在一定局限性[5]。
基于深度學習的方法已成為主流的駕駛意圖識別方法,Zyner基于遞歸神經(jīng)網(wǎng)絡(RecursiveNeuralNetwork,RNN)預測方法,從激光雷達的跟蹤系統(tǒng)中獲取數(shù)據(jù),用于變道行為的駕駛意圖識別。Fang等[7]基于深度神經(jīng)網(wǎng)絡(DeepNeuralNetworks,DNN)的駕駛意圖識別模型,融合自標車輛與周圍車輛的交互信息、道路信息和車輛狀態(tài),識別混合交通流中的駕駛意圖,并通過NGSIM(NextGenerationSimulation)數(shù)據(jù)集驗證提出方法的有效性。張新鋒等提出了融合注意力機制和殘差卷積的雙向長短時記憶(Bi-directionalLongShort-TermMemory,Bi-LSTM)識別模型,該模型在特征自動提取和時序依賴建模中優(yōu)勢顯著,但其魯棒性較低。Liu等提出基于隱馬爾可夫模型(HiddenMarkovModel,HMM)的車輛駕駛意圖識別方法,并使用自建天橋環(huán)境數(shù)據(jù)訓練和測試駕駛意圖識別模型。趙建東等結(jié)合卷積神經(jīng)網(wǎng)絡(ConvolutionalNeuralNetworks,CNN)和門控循環(huán)單元(GatedRecurrentUnit,GRU),并利用注意力機制構(gòu)建變道意圖識別模型,綜合考慮了車輛行駛中的時序特征和空間特征。基于深度學習方法能夠提升模型識別的準確率,但缺乏可解釋性和擴展性,對于數(shù)據(jù)波動無法及時處理,性能會有所下降。
因此,本文采用雙參考線高斯混合-隱馬爾可夫模型(GMM-HMM)模型,通過Frenet坐標系下兩條參考線的動態(tài)切換,更精確地捕捉車輛在不同車道位置下的駕駛意圖特征。利用高斯混合(GaussianMixtureModel,GMM)模型對駕駛行為空間分布的多模態(tài)特性,結(jié)合HMM的時間序列分析能力,提升變道意圖的早期識別率。同時,通過引入雙參考線機制,在保持強可解釋性的基礎(chǔ)上,增強模型對不同道路場景的泛化性。
2數(shù)據(jù)處理
2.1NGSIM數(shù)據(jù)集
本文基于NGSIM數(shù)據(jù)集的多維度駕駛行為特征,構(gòu)建駕駛意圖識別數(shù)據(jù)集。該數(shù)據(jù)集由目標路段頂部的高性能攝像機拍攝,提取車輛水平坐標、垂直坐標、速度、加速度等特征,采樣頻率為 10Hz 。選擇高速公路場景下的US-101路段,道路拓撲結(jié)構(gòu)如圖1所示。其中,1\~5號車道為道路主要車道,6號車道為集散車道,7號、8號車道分別為匝道的入口和出口。
2.2數(shù)據(jù)預處理
由于NGSIM數(shù)據(jù)集由多個攝像機拍攝視頻獲取車輛軌跡信息,在數(shù)據(jù)拼接、融合過程中容易出現(xiàn)較大誤差,因而需要對數(shù)據(jù)進行預處理。數(shù)據(jù)集中部分特征參數(shù)說明如表1所示。
駕駛意圖樣本數(shù)據(jù)提取與處理過程如下:
a.篩選數(shù)據(jù):本文暫不考慮存在強制性變道的第6\~8號車道,僅考慮1\~5號車道的數(shù)據(jù)。在US-101場景中主要包括3種類型車輛,分別為摩托車、大型車輛和中小型汽車,其中,汽車占比為 96.1% 。鑒于不同車型的駕駛習慣差距較大,剔除大型車輛和摩托車數(shù)據(jù),僅保留汽車類樣本數(shù)據(jù),并進行平滑處理。
b.平滑數(shù)據(jù):由于原始數(shù)據(jù)存在誤差和噪聲,需對訓練數(shù)據(jù)進行平滑處理,本文采用對稱指數(shù)移動平均(symmetricExponentialMovingAverage,sEMA)濾波算法對原始數(shù)據(jù)的橫向位置Y、速度 σv 進行處理。以數(shù)據(jù)集中一個車輛軌跡為例,平滑處理結(jié)果如圖2所示。
2.3Frenet坐標系下特征提取
Frenet坐標系以車道左、右邊緣線為參考線 r(s) 通過將車輛位置向參考線投影,定義投影距離和沿參考線累積弧長,將車輛笛卡爾坐標轉(zhuǎn)換為Frenet坐標。假設(shè)在笛卡爾坐標系中,車輛位置為 N(x,y) ,從點 N 向參考線 r(s) 投影,投影點為 M ,則投影點 M 到點 N 的距離為車輛相對于參考線的橫向位移l,從參考線的起始點 F 到投影點 M 的曲線距離為車輛相對于參考線的縱向位移d。在Frenet坐標系下,使用橫向位移和縱向位移描述車輛位置 (l,d) 。兩坐標系的映射關(guān)系為r(s),(x,y)(l,d)由于車輛的行駛軌跡無法與參考線完全重合,需要利用參考線描述車輛的運動狀態(tài)。本文以車道的左、右邊緣線為參考線,根據(jù)車輛位置選擇所需的參考線。當車輛位于車道左側(cè)時,選擇車道左邊緣線為參考線,車輛的運動狀態(tài)為 lLeft,vl,Left,dLeft,vd,Left] 其中, 分別為參考方向的縱向位移和垂直參考方向的橫向位移,(204號 vl,left?vd,Left 分別為車輛縱向和橫向速度。同理,當車輛位于車道右側(cè)時,選擇車道右邊緣線為參考線,如圖3所示,車輛運動狀態(tài)為 [lRight
車輛運動狀態(tài)可作為觀測變量計算駕駛意圖觀測概率。
將NGSIM數(shù)據(jù)集中車輛駕駛意圖分為車道保持、左變道和右變道3類。其中,車道保持為車輛在行駛過程中未跨越車道邊緣線,車輛變道為橫跨車道邊緣線兩側(cè)的連續(xù)過程。為了確定各類駕駛意圖的樣本數(shù)量,通過Vehicle_ID獲取車輛行駛數(shù)據(jù),并根據(jù)行駛數(shù)據(jù)中Lane_ID的變化確定變道時刻。從變道時刻的Frame_ID向前回溯縱向位移 lLeft 和縱向速度 vl,Left ,如果連續(xù)3幀數(shù)據(jù)的 lLeft 遞減且 vl,Left≠0 ,則下一幀數(shù)據(jù)作為左變道的起始幀 Fstart ,從變道時刻Frame_ID向后回溯 lLeft 、vl,Left ;如果連續(xù)3幀數(shù)據(jù)的 lLeft 不變,則下一幀數(shù)據(jù)作為左變道終止幀 Fend 。位于 [Fstart,F(xiàn)end] 的數(shù)據(jù)為左變道過程的樣本,同理可標注右變道樣本,剩余數(shù)據(jù)則標注為車道保持樣本。
結(jié)合駕駛意圖的提取情況,由于大多數(shù)車輛在行駛過程中未發(fā)生變道行為,所以車道保持樣本數(shù)量相對較多。篩除6\~8號車道數(shù)據(jù)后,結(jié)合道路行駛方向,右變道樣本數(shù)量較少。最終,本文樣本共6154組,其中,車道保持、左變道和右變道的樣本數(shù)量分別為5344組、559組和256組。
3高斯混合-隱馬爾可夫模型構(gòu)建
高斯混合模型具有較好的計算特性,通過GMM擬合車輛橫向位置、橫向速度等連續(xù)觀測變量,計算駕駛意圖的概率分布,可作為HMM的輸入。而駕駛行為具有連續(xù)時序性,隱馬爾可夫模型通過狀態(tài)轉(zhuǎn)移概率與歷史觀測序列的動態(tài)關(guān)聯(lián),可有效建模并識別駕駛意圖的概率分布[12]。因此,本文使用GMM-HMM駕駛意圖識別模型,其結(jié)構(gòu)如圖4所示。
3.1高斯混合模型
當樣本數(shù)據(jù) 為多維數(shù)據(jù)時,多變量高斯分布的概率密度函數(shù)為:
式中: 為 D 維列向量 ,μ,Σ 分別為樣本的均值矩陣和協(xié)方差矩陣。
高斯混合模型是由多個單高斯模型組合而成的概率模型[13],各模型均符合單高斯分布,因此,高斯混合模型可表示為:
式中: K 為混合模型中單高斯模型的數(shù)量, αk 為第 k 個單高斯模型的權(quán)重, 為第 k 個單高斯分布
分別為第 k 個單高斯模型中觀測變量數(shù)據(jù)的均值和協(xié)方差矩陣。
3.2 隱馬爾可夫模型
隱馬爾可夫模型由狀態(tài)變量 s 和觀測變量 σo 構(gòu)成。狀態(tài)序列 ,狀態(tài)變量的值域為駕駛意圖的有限集合,即
為狀態(tài)變量的數(shù)量;觀測序列
,其中, T 為總時間幀數(shù),取決于時間窗的長度;狀態(tài)轉(zhuǎn)移矩陣為
,其中, aij 為 χt 時刻車輛駕駛意圖 qi 在 (t+1) 時刻轉(zhuǎn)移至 qj 的概率;發(fā)射概率矩陣為
,其中,
為當駕駛意圖處于 qj 時,觀測到駕駛行為 vk 的概率;初始狀態(tài)概率矩陣為
,且滿足
。因此,HMM模型由矩陣 π,A 和 B 構(gòu)成,即 λ=[π,A,B]
考慮到駕駛意圖無法通過直接觀測,本文將駕駛意圖作為HMM的隱藏狀態(tài)變量,通過觀測變量獲取的車輛運動狀態(tài)數(shù)據(jù),反映駕駛員的駕駛行為特征,區(qū)分不同駕駛意圖。本文在Frenet坐標系下,將車道左、右邊緣線作為參考線,描述車輛運動狀態(tài)。以車道左邊緣線為參考線時,選取車輛的 lLeft 和 vl,Left 作為觀測變量;以車道右邊緣線為參考線時,選?。?0 lRight 和 vl,Right 作為觀測變量。因此,觀測變量可表示為
各時刻車輛隱藏狀態(tài)變量為3種駕駛意圖的概率分布,不同時刻的隱藏狀態(tài)變量間可相互轉(zhuǎn)移。 aii 為任一狀態(tài)保持不變的概率, aij 為任兩個狀態(tài)相互轉(zhuǎn)移的概率,則車輛駕駛意圖狀態(tài)轉(zhuǎn)移矩陣為:
通過GMM擬合車輛位置、速度等連續(xù)變量的概率分布,作為駕駛意圖識別HMM的觀測概率。則高斯混合模型輸出觀測值的概率為:
式中: 為二維高斯分布概率密度函數(shù), αjk 為第j個高斯分布的權(quán)重系數(shù) ?,μjk.Σjk 分別為第j個高斯分布的數(shù)據(jù)均值矩陣和協(xié)方差矩陣。
3.3 GMM-HMM模型
3.3.1 參數(shù)學習
結(jié)合高斯混合模型,GMM-HMM模型可表示為λ=[π,A,α,μ,Σ] 已知駕駛行為序列 求解
使 P(O|λ) 最大。由于狀態(tài)變量序列未知,可采用
算法[3進行參數(shù)估計。
首先,定義 Q 函數(shù)為:
對 Q 函數(shù)展開可得:
以參數(shù) π 為例,推導求解過程得到:
采用拉格朗日乘子法計算極值:
令 ,將 γ 代人偏導公式,得到:
P(O|λ(t)) 和 可通過前向變量 αt(s) 表示,參數(shù) A,B 求解過程同樣符合上述原理。
3.3.2 參數(shù)訓練
模型參數(shù)學習具體步驟如下:
a.初始化一組參數(shù) λ=[π,A,α,μ,Σ], 狀態(tài)轉(zhuǎn)移矩陣 A 可根據(jù)經(jīng)驗進行初始化, π,A,α,μ, Σ 根據(jù)數(shù)據(jù)分布特征進行初始化
b.確定模型訓練所需的樣本數(shù)據(jù),即觀測變量序列o 。使用Holdout驗證方法,隨機選擇總樣本的 70% 作為訓練樣本。
c.編寫MATLAB程序,初始化參數(shù)后,根據(jù)Baum一Welch算法進行參數(shù)學習。
d.輸出訓練結(jié)果。
根據(jù)上述方法,得到模型的訓練結(jié)果為4個二維單高斯模型,GMM-HMM模型參數(shù)為:
式中: /
分別為以車道左邊緣線為參考線,駕駛意圖為左變道特征的均值和協(xié)方差矩陣;μ(:,:,2) 和 Σ(:,:,1,2) 分別為以車道右邊緣線為參考線,駕駛意圖為右變道特征的均值和協(xié)方差矩陣: :μ(:,:,3) /
分別為以車道兩側(cè)(左側(cè)和右側(cè))邊緣線為參考線,駕駛意圖為車道保持特征的均值和協(xié)方差矩陣。
GMM-HMM模型輸出觀測概率如圖5所示。其中,左側(cè)2個橢圓表示以車道左邊緣線為參考線的觀測變量分布特征;右側(cè)2個橢圓表示以車道右邊緣線為參考線的觀測變量分布特征;橢圓的長、短半軸表示對應方向觀測變量的標準差;橢圓的中心位置表示每個單高斯分布的觀測變量均值。
4駕駛意圖識別
單獨時刻駕駛車輛觀測值無法體現(xiàn)駕駛意圖,可通過連續(xù)駕駛動作進行推理,根據(jù)過去連續(xù)T時間段內(nèi)的駕駛動作,識別當前時刻車輛的駕駛意圖。本文使用滑動時間窗,時間窗長度為T,如圖6所示。駕駛意圖識別問題可描述為:已知GMM-HMM參數(shù) λ=[π,A,α,μ,Σ] 滑動時間窗內(nèi)的駕駛動作序列為 求解 T 時段內(nèi)最有可能的狀態(tài)序列
,使P(O,S*|λ) 最大。通過維特比(Viterbi)算法[4遞推求解最優(yōu)的狀態(tài)序列 S* ,從而確定車輛的駕駛意圖。
使用總樣本的 30% 數(shù)據(jù)進行模型驗證,即車道保持樣本、左變道樣本和右變道樣本分別為1604組、168組和77組。以車道右邊緣線為Frenet坐標系的參考線,左、右變道識別過程分別如圖7、圖8所示。
以車道右邊緣線為Frenet坐標系的參考線為例,由圖7可知,第4s時車輛橫向位移發(fā)生改變,逐漸靠近左車道邊緣線,同時,車道保持意圖識別概率下降,左變道意圖概率上升,可通過比較意圖概率確定最終識別結(jié)果。當左變道概率大于車道保持概率時,識別結(jié)果將從車道保持轉(zhuǎn)換成左變道。當2.5s后完成左變道時,車輛距離車道右邊緣線的橫向位移為0。
本文將精確率 (Precision)P 、召回率 (Recall)R 、F1 分數(shù)和準確率(Accuracy) )A 作為模型性能評價指標。相關(guān)公式為:
式中: TP 為正確識別目標駕駛意圖的數(shù)量, FP 為將非目標意圖誤判為目標意圖的數(shù)量, TN 為正確識別非目標意圖的數(shù)量, FN 為未能識別目標駕駛意圖的數(shù)量。
為了進一步驗證本文模型的有效性,將本文模型與RuleBased、DNN等雙參考線模型及單參考線模型GMM-HMM*進行對比,結(jié)果如表2所示。
由表2可知,相比單參考線,雙參考線通過提供更全面的橫向位置信息,增強了GMM-HMM模型對車輛動態(tài)的感知,同時捕捉車輛與兩側(cè)車道的相對偏移量及變化趨勢:車道保持時,兩側(cè)偏移量穩(wěn)定;變道時,一側(cè)偏移持續(xù)減小而另一側(cè)增大,形成明顯特征差異。多維觀測數(shù)據(jù)提高了模型對車輛橫向運動的敏感性。相較于使用單參考線的GMM-HMM*模型,本文模型由于使用雙參考線,車道保持準確率和變道準確率分別提高2.19百分點和3.07百分點,識別準確率均高于其他雙參考線模型,且在精確度、召回率和F1分數(shù)評價指標上優(yōu)于其他模型。因此,所提出的雙參考線GMM-HMM模型在識別實際駕駛員的駕駛意圖中更具優(yōu)勢。
5結(jié)束語
本文提出的雙參考線GMM-HMM模型充分考慮了車輛行駛過程中時間的連續(xù)性,能夠根據(jù)觀測變量準確識別駕駛意圖。該模型可應用于智能駕駛領(lǐng)域,通過識別危險換道行為,優(yōu)化自主換道過程,提前預警可能的危險情況,對提高駕駛主動安全性、改善車輛的智能決策和交互能力有重要意義。
由于試驗樣本數(shù)量有限,且僅考慮車輛變道和車道保持的相關(guān)信息,后續(xù)將綜合考慮道路環(huán)境、周圍車輛等因素對意圖識別的影響。同時,探究復雜道路(如交叉路口、坡道等)條件下,超車、轉(zhuǎn)向等駕駛意圖識別。
參考文獻
[1]WANGZC,F(xiàn)ENGQ,LUO M,etal.EfficientFSS-Based PrivateStatisticsforTrafficMonitoring[C]//2O24IEEE23rd International Conference on Trust,Security and Privacy in Computing and Communications (TrustCom). Sanya, China: IEEE,2024:1361-1370.
[2] KHELFA B,BAI, TORDEUX A. PredictingHighway LaneChanging Maneuvers:A Benchmark Analysis of Machine and Ensemble Learning Algorithms[J]. Physica A: Statistical Mechanics and its Applications,2023,612.
[3]BOUCHARDF,SEDWARDSS,CZARNECKI K.A RuleBased:Behaviour Planner for Autonomous Driving[C]// International Joint Conference on Rules and Reasoning. Berlin,Germany:Springer,2022:263-279.
[4]BHATTACHARYYA R,JUNGS,KRUSEL A,etal.A Hybrid Rule-Based and Data-Driven Approach to Driver Modeling Through Particle Filtering[J].IEEE Transactions on Intelligent Transportation Systems,2022, 23(8): 13055- 13068.
[5]方華珍,劉立,顧青,等.自動駕駛車輛換道意圖識別研究 現(xiàn)狀[J].工程科學學報,2024,46(10):1845-1855. FANGH Z,LIU L,GUQ,et al.Research Status of LaneChanging Intention Recognition for Autonomous Vehicles[J]. Chinese Journal of Engineering,2024,46(10):1845-1855.
[6]ZYNERA,WORRALLS,NEBOTE.ARecurrentNeural Network Solution for Predicting Driver Intentionat UnsignalizedIntersections[J].IEEERobotics and AutomationLetters,2018,3(3):1759-1764.
[7]FANG H Z,LIU L,GU Q,et al.Driving Intention Recognition of Human Drivers in Mixed Traffic Flow[C]// 2022 IEEE 25th International Conference on Intelligent Transportation Systems (ITSC). Macau, China:IEEE,2022: 153-157.
[8]張新鋒,王萬寶,柳歡,等.高速動態(tài)交通場景下自動駕駛 車輛換道意圖識別模型研究[J].汽車技術(shù),2023(4):8-15. ZHANGXF,WANAGWB,LIUH,etal.ResearchonLane Change Intention Recognition Model of Automated Vehicle inHigh-Speed Dynamic Traffic Scenario[J]. Automobile Technology,2023(4): 8-15.
[9] LIU SW, ZHENG K, ZHAO L,et al.A Driving Intention Prediction Method Based on Hidden Markov Model for Autonomous Driving[J]. Computer Communications,2020, 157: 143-149.
[10]趙建東,趙志敏,屈云超,等.軌跡數(shù)據(jù)驅(qū)動的車輛換 道意圖識別研究[J].交通運輸系統(tǒng)工程與信息,2022, 22(4): 63-71. ZHAO JD,ZHAO Z M,QU YC,et al.Vehicle Lane Change Intention Recognition Driven by Trajectory Data[J]. Journal of Transportation Systems Engineeringand Information Technology,2022,22(4): 63-71.
[11] DO JY,HAN K,CHOI S B.Lane Change-Intention Inferenceand Trajectory Prediction of Surrounding Vehicles onHighways[J]. IEEE Transactions on Intelligent Vehicles, 2023,8(7):3813-3825.
[12]FANGJW,WANGF,XUEJR,etal.BehavioralIntention Prediction in Driving Scenes:A Survey[J].IEEE Transactions on Inteligent Transportation Systems,2024, 25(8): 8334-8355.
[13] LUO Y Q, ZHANG JY,WANG SF,et al.A Driving IntentionPredictionMethodforMixed Traffic Scenarios[C]// 2022 IEEE 7th International Conference on Intelligent Transportation Engineering (ICITE).Beijing, China: IEEE,2022.
[14]LV Y Z,WEI C. Multi-Objective Optimal Decision Making forAutonomous Driving Based on Multi-Modal Predicted Trajectories[Cl// International Conference on Mechatronic Engineering and Artificial Intelligence (MEAI 2023). Shenyang, China: AIP Publishing,2024.
(責任編輯瑞秋)
修改稿收到日期為2025年1月26日。