亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于高斯混合-隱馬爾可夫模型的駕駛意圖識別

        2025-06-27 00:00:00沈瑜劉廣輝馬翱鵬許佳嚴源
        汽車技術(shù) 2025年5期
        關(guān)鍵詞:模型

        主題詞:自動駕駛 駕駛意圖識別高斯混合模型隱馬爾可夫模型Frenet坐標系中圖分類號:U463.6 文獻標志碼:A DOI:10.19620/j.cnki.1000-3703.20231201

        Driving Intention Recognition Based on Gaussian Mixture-Hidden MarkovModel

        Shen Yu122,Liu Guanghui2,Ma Xuanpeng1,XuJiawen2,Yan Yuan2 (1.School of Information Engineering,Gansu Minzu Normal University,Hezuo 747ooo;2.Schoolof Electronicand Information Engineering,Lanzhou Jiaotong University,Lanzhou )

        【Abstract】To achieve accurate recognition of vehicle driving intentions in highway scenarios,this paper proposes a drivingintentionrecognitionmodelthatcombinesdualreferencelinesintheFrenetcoordinatewith GausianMixture Models (GMMs)andHidden Markov Models (HMMs).Themodel selectsdrivingdata fromdiferentreference linesintheFrenet coordinatebasedonvehiclepositionasobservedvariables.By integratingtheobservationprobabilitiesoutputbytheGMMat previousand subsequent time steps withthe HMM,the model identifies the vehicles’driving intentionat thecurrentmoment. Theefectivenessof themodelisvalidatedusingtheUS-101datasetfrom NGSIM.Theresultsshow that thedual-referenceline GMM-HMM model achieves recognition accuracies of 93.33% for lane keeping and 92.24% for lane changing,indicating excellent recognition performance.

        Key Words:Autonomous driving,Driving intention recognition,Gaussan Mixture Model (GMM),HiddenMarkovModel (HMM),F(xiàn)renetcoordinate

        【引用格式】沈瑜,劉廣輝,馬翱鵬,等.基于高斯混合-隱馬爾可夫模型的駕駛意圖識別[J].汽車技術(shù),2025(5):22-28SHENY,LIUGH,MAXP,etal.Driving IntentionRecognitionBasedonGausian Mixture-HiddenMarkovModel[J].Automobile Technology,2025(5):22-28.

        1前言

        道路交通事故原因分析表明,約四分之一的安全事故源于駕駛意圖傳達不明確[1。因此,準確識別駕駛意圖,提高車輛行駛安全性,已成為當前自動駕駛技術(shù)領(lǐng)域關(guān)注的焦點。

        目前,駕駛意圖識別方法主要分為基于規(guī)則(Rule-Based)和基于深度學習的方法?;谝?guī)則的識別方法將駕駛經(jīng)驗轉(zhuǎn)化為知識,并將提取出相應規(guī)則,應用于駕駛意圖識別2]。Bouchard等3]基于雙層規(guī)則理論,根據(jù)設(shè)計規(guī)則和環(huán)境狀態(tài)感知識別駕駛意圖,模型在可解釋性和安全性方面表現(xiàn)良好,但受限于規(guī)則引擎的固有缺陷,泛化能力不足。Bhattacharyya等提出了基于規(guī)則與數(shù)據(jù)驅(qū)動協(xié)同識別駕駛意圖的方法,結(jié)合車輛行駛參數(shù),通過規(guī)則確定基本駕駛意圖,同時優(yōu)化參數(shù)以匹配真實駕駛行為。該方法提升了駕駛意圖識別的可解釋性和真實性,但在實時性和泛化性方面仍有改進空間?;谝?guī)則的方法適用于簡單交通場景,其效率和可靠性較高,但因面對復雜或未知場景的覆蓋率較低,識別的準確性與適應性存在一定局限性[5]。

        基于深度學習的方法已成為主流的駕駛意圖識別方法,Zyner基于遞歸神經(jīng)網(wǎng)絡(RecursiveNeuralNetwork,RNN)預測方法,從激光雷達的跟蹤系統(tǒng)中獲取數(shù)據(jù),用于變道行為的駕駛意圖識別。Fang等[7]基于深度神經(jīng)網(wǎng)絡(DeepNeuralNetworks,DNN)的駕駛意圖識別模型,融合自標車輛與周圍車輛的交互信息、道路信息和車輛狀態(tài),識別混合交通流中的駕駛意圖,并通過NGSIM(NextGenerationSimulation)數(shù)據(jù)集驗證提出方法的有效性。張新鋒等提出了融合注意力機制和殘差卷積的雙向長短時記憶(Bi-directionalLongShort-TermMemory,Bi-LSTM)識別模型,該模型在特征自動提取和時序依賴建模中優(yōu)勢顯著,但其魯棒性較低。Liu等提出基于隱馬爾可夫模型(HiddenMarkovModel,HMM)的車輛駕駛意圖識別方法,并使用自建天橋環(huán)境數(shù)據(jù)訓練和測試駕駛意圖識別模型。趙建東等結(jié)合卷積神經(jīng)網(wǎng)絡(ConvolutionalNeuralNetworks,CNN)和門控循環(huán)單元(GatedRecurrentUnit,GRU),并利用注意力機制構(gòu)建變道意圖識別模型,綜合考慮了車輛行駛中的時序特征和空間特征。基于深度學習方法能夠提升模型識別的準確率,但缺乏可解釋性和擴展性,對于數(shù)據(jù)波動無法及時處理,性能會有所下降。

        因此,本文采用雙參考線高斯混合-隱馬爾可夫模型(GMM-HMM)模型,通過Frenet坐標系下兩條參考線的動態(tài)切換,更精確地捕捉車輛在不同車道位置下的駕駛意圖特征。利用高斯混合(GaussianMixtureModel,GMM)模型對駕駛行為空間分布的多模態(tài)特性,結(jié)合HMM的時間序列分析能力,提升變道意圖的早期識別率。同時,通過引入雙參考線機制,在保持強可解釋性的基礎(chǔ)上,增強模型對不同道路場景的泛化性。

        2數(shù)據(jù)處理

        2.1NGSIM數(shù)據(jù)集

        本文基于NGSIM數(shù)據(jù)集的多維度駕駛行為特征,構(gòu)建駕駛意圖識別數(shù)據(jù)集。該數(shù)據(jù)集由目標路段頂部的高性能攝像機拍攝,提取車輛水平坐標、垂直坐標、速度、加速度等特征,采樣頻率為 10Hz 。選擇高速公路場景下的US-101路段,道路拓撲結(jié)構(gòu)如圖1所示。其中,1\~5號車道為道路主要車道,6號車道為集散車道,7號、8號車道分別為匝道的入口和出口。

        圖1US-101道路拓撲結(jié)構(gòu)

        2.2數(shù)據(jù)預處理

        由于NGSIM數(shù)據(jù)集由多個攝像機拍攝視頻獲取車輛軌跡信息,在數(shù)據(jù)拼接、融合過程中容易出現(xiàn)較大誤差,因而需要對數(shù)據(jù)進行預處理。數(shù)據(jù)集中部分特征參數(shù)說明如表1所示。

        表1NGSIM數(shù)據(jù)集參數(shù)

        駕駛意圖樣本數(shù)據(jù)提取與處理過程如下:

        a.篩選數(shù)據(jù):本文暫不考慮存在強制性變道的第6\~8號車道,僅考慮1\~5號車道的數(shù)據(jù)。在US-101場景中主要包括3種類型車輛,分別為摩托車、大型車輛和中小型汽車,其中,汽車占比為 96.1% 。鑒于不同車型的駕駛習慣差距較大,剔除大型車輛和摩托車數(shù)據(jù),僅保留汽車類樣本數(shù)據(jù),并進行平滑處理。

        b.平滑數(shù)據(jù):由于原始數(shù)據(jù)存在誤差和噪聲,需對訓練數(shù)據(jù)進行平滑處理,本文采用對稱指數(shù)移動平均(symmetricExponentialMovingAverage,sEMA)濾波算法對原始數(shù)據(jù)的橫向位置Y、速度 σv 進行處理。以數(shù)據(jù)集中一個車輛軌跡為例,平滑處理結(jié)果如圖2所示。

        圖2車輛數(shù)據(jù)平滑結(jié)果

        2.3Frenet坐標系下特征提取

        Frenet坐標系以車道左、右邊緣線為參考線 r(s) 通過將車輛位置向參考線投影,定義投影距離和沿參考線累積弧長,將車輛笛卡爾坐標轉(zhuǎn)換為Frenet坐標。假設(shè)在笛卡爾坐標系中,車輛位置為 N(x,y) ,從點 N 向參考線 r(s) 投影,投影點為 M ,則投影點 M 到點 N 的距離為車輛相對于參考線的橫向位移l,從參考線的起始點 F 到投影點 M 的曲線距離為車輛相對于參考線的縱向位移d。在Frenet坐標系下,使用橫向位移和縱向位移描述車輛位置 (l,d) 。兩坐標系的映射關(guān)系為r(s),(x,y)(l,d)由于車輛的行駛軌跡無法與參考線完全重合,需要利用參考線描述車輛的運動狀態(tài)。本文以車道的左、右邊緣線為參考線,根據(jù)車輛位置選擇所需的參考線。當車輛位于車道左側(cè)時,選擇車道左邊緣線為參考線,車輛的運動狀態(tài)為 lLeft,vl,Left,dLeft,vd,Left] 其中, 分別為參考方向的縱向位移和垂直參考方向的橫向位移,(204號 vl,left?vd,Left 分別為車輛縱向和橫向速度。同理,當車輛位于車道右側(cè)時,選擇車道右邊緣線為參考線,如圖3所示,車輛運動狀態(tài)為 [lRight 車輛運動狀態(tài)可作為觀測變量計算駕駛意圖觀測概率。

        圖3Frenet坐標系下車輛狀態(tài)

        將NGSIM數(shù)據(jù)集中車輛駕駛意圖分為車道保持、左變道和右變道3類。其中,車道保持為車輛在行駛過程中未跨越車道邊緣線,車輛變道為橫跨車道邊緣線兩側(cè)的連續(xù)過程。為了確定各類駕駛意圖的樣本數(shù)量,通過Vehicle_ID獲取車輛行駛數(shù)據(jù),并根據(jù)行駛數(shù)據(jù)中Lane_ID的變化確定變道時刻。從變道時刻的Frame_ID向前回溯縱向位移 lLeft 和縱向速度 vl,Left ,如果連續(xù)3幀數(shù)據(jù)的 lLeft 遞減且 vl,Left≠0 ,則下一幀數(shù)據(jù)作為左變道的起始幀 Fstart ,從變道時刻Frame_ID向后回溯 lLeft 、vl,Left ;如果連續(xù)3幀數(shù)據(jù)的 lLeft 不變,則下一幀數(shù)據(jù)作為左變道終止幀 Fend 。位于 [Fstart,F(xiàn)end] 的數(shù)據(jù)為左變道過程的樣本,同理可標注右變道樣本,剩余數(shù)據(jù)則標注為車道保持樣本。

        結(jié)合駕駛意圖的提取情況,由于大多數(shù)車輛在行駛過程中未發(fā)生變道行為,所以車道保持樣本數(shù)量相對較多。篩除6\~8號車道數(shù)據(jù)后,結(jié)合道路行駛方向,右變道樣本數(shù)量較少。最終,本文樣本共6154組,其中,車道保持、左變道和右變道的樣本數(shù)量分別為5344組、559組和256組。

        3高斯混合-隱馬爾可夫模型構(gòu)建

        高斯混合模型具有較好的計算特性,通過GMM擬合車輛橫向位置、橫向速度等連續(xù)觀測變量,計算駕駛意圖的概率分布,可作為HMM的輸入。而駕駛行為具有連續(xù)時序性,隱馬爾可夫模型通過狀態(tài)轉(zhuǎn)移概率與歷史觀測序列的動態(tài)關(guān)聯(lián),可有效建模并識別駕駛意圖的概率分布[12]。因此,本文使用GMM-HMM駕駛意圖識別模型,其結(jié)構(gòu)如圖4所示。

        圖4GMM-HMM模型框架

        3.1高斯混合模型

        當樣本數(shù)據(jù) 為多維數(shù)據(jù)時,多變量高斯分布的概率密度函數(shù)為:

        式中: 為 D 維列向量 ,μ,Σ 分別為樣本的均值矩陣和協(xié)方差矩陣。

        高斯混合模型是由多個單高斯模型組合而成的概率模型[13],各模型均符合單高斯分布,因此,高斯混合模型可表示為:

        式中: K 為混合模型中單高斯模型的數(shù)量, αk 為第 k 個單高斯模型的權(quán)重, 為第 k 個單高斯分布 分別為第 k 個單高斯模型中觀測變量數(shù)據(jù)的均值和協(xié)方差矩陣。

        3.2 隱馬爾可夫模型

        隱馬爾可夫模型由狀態(tài)變量 s 和觀測變量 σo 構(gòu)成。狀態(tài)序列 ,狀態(tài)變量的值域為駕駛意圖的有限集合,即 為狀態(tài)變量的數(shù)量;觀測序列 ,其中, T 為總時間幀數(shù),取決于時間窗的長度;狀態(tài)轉(zhuǎn)移矩陣為 ,其中, aij 為 χt 時刻車輛駕駛意圖 qi 在 (t+1) 時刻轉(zhuǎn)移至 qj 的概率;發(fā)射概率矩陣為 ,其中, 為當駕駛意圖處于 qj 時,觀測到駕駛行為 vk 的概率;初始狀態(tài)概率矩陣為 ,且滿足 。因此,HMM模型由矩陣 π,A 和 B 構(gòu)成,即 λ=[π,A,B]

        考慮到駕駛意圖無法通過直接觀測,本文將駕駛意圖作為HMM的隱藏狀態(tài)變量,通過觀測變量獲取的車輛運動狀態(tài)數(shù)據(jù),反映駕駛員的駕駛行為特征,區(qū)分不同駕駛意圖。本文在Frenet坐標系下,將車道左、右邊緣線作為參考線,描述車輛運動狀態(tài)。以車道左邊緣線為參考線時,選取車輛的 lLeft 和 vl,Left 作為觀測變量;以車道右邊緣線為參考線時,選?。?0 lRight 和 vl,Right 作為觀測變量。因此,觀測變量可表示為

        各時刻車輛隱藏狀態(tài)變量為3種駕駛意圖的概率分布,不同時刻的隱藏狀態(tài)變量間可相互轉(zhuǎn)移。 aii 為任一狀態(tài)保持不變的概率, aij 為任兩個狀態(tài)相互轉(zhuǎn)移的概率,則車輛駕駛意圖狀態(tài)轉(zhuǎn)移矩陣為:

        通過GMM擬合車輛位置、速度等連續(xù)變量的概率分布,作為駕駛意圖識別HMM的觀測概率。則高斯混合模型輸出觀測值的概率為:

        式中: 為二維高斯分布概率密度函數(shù), αjk 為第j個高斯分布的權(quán)重系數(shù) ?,μjkjk 分別為第j個高斯分布的數(shù)據(jù)均值矩陣和協(xié)方差矩陣。

        3.3 GMM-HMM模型

        3.3.1 參數(shù)學習

        結(jié)合高斯混合模型,GMM-HMM模型可表示為λ=[π,A,α,μ,Σ] 已知駕駛行為序列 求解 使 P(O|λ) 最大。由于狀態(tài)變量序列未知,可采用 算法[3進行參數(shù)估計。

        首先,定義 Q 函數(shù)為:

        對 Q 函數(shù)展開可得:

        以參數(shù) π 為例,推導求解過程得到:

        采用拉格朗日乘子法計算極值:

        ,將 γ 代人偏導公式,得到:

        P(O|λ(t)) 和 可通過前向變量 αt(s) 表示,參數(shù) A,B 求解過程同樣符合上述原理。

        3.3.2 參數(shù)訓練

        模型參數(shù)學習具體步驟如下:

        a.初始化一組參數(shù) λ=[π,A,α,μ,Σ], 狀態(tài)轉(zhuǎn)移矩陣 A 可根據(jù)經(jīng)驗進行初始化, π,A,α,μ, Σ 根據(jù)數(shù)據(jù)分布特征進行初始化

        b.確定模型訓練所需的樣本數(shù)據(jù),即觀測變量序列o 。使用Holdout驗證方法,隨機選擇總樣本的 70% 作為訓練樣本。

        c.編寫MATLAB程序,初始化參數(shù)后,根據(jù)Baum一Welch算法進行參數(shù)學習。

        d.輸出訓練結(jié)果。

        根據(jù)上述方法,得到模型的訓練結(jié)果為4個二維單高斯模型,GMM-HMM模型參數(shù)為:

        式中: / 分別為以車道左邊緣線為參考線,駕駛意圖為左變道特征的均值和協(xié)方差矩陣;μ(:,:,2) 和 Σ(:,:,1,2) 分別為以車道右邊緣線為參考線,駕駛意圖為右變道特征的均值和協(xié)方差矩陣: :μ(:,:,3) / 分別為以車道兩側(cè)(左側(cè)和右側(cè))邊緣線為參考線,駕駛意圖為車道保持特征的均值和協(xié)方差矩陣。

        GMM-HMM模型輸出觀測概率如圖5所示。其中,左側(cè)2個橢圓表示以車道左邊緣線為參考線的觀測變量分布特征;右側(cè)2個橢圓表示以車道右邊緣線為參考線的觀測變量分布特征;橢圓的長、短半軸表示對應方向觀測變量的標準差;橢圓的中心位置表示每個單高斯分布的觀測變量均值。

        圖5GMM-HMM模型輸出觀測概率結(jié)果

        4駕駛意圖識別

        單獨時刻駕駛車輛觀測值無法體現(xiàn)駕駛意圖,可通過連續(xù)駕駛動作進行推理,根據(jù)過去連續(xù)T時間段內(nèi)的駕駛動作,識別當前時刻車輛的駕駛意圖。本文使用滑動時間窗,時間窗長度為T,如圖6所示。駕駛意圖識別問題可描述為:已知GMM-HMM參數(shù) λ=[π,A,α,μ,Σ] 滑動時間窗內(nèi)的駕駛動作序列為 求解 T 時段內(nèi)最有可能的狀態(tài)序列 ,使P(O,S*|λ) 最大。通過維特比(Viterbi)算法[4遞推求解最優(yōu)的狀態(tài)序列 S* ,從而確定車輛的駕駛意圖。

        圖6滑動時間窗示意

        使用總樣本的 30% 數(shù)據(jù)進行模型驗證,即車道保持樣本、左變道樣本和右變道樣本分別為1604組、168組和77組。以車道右邊緣線為Frenet坐標系的參考線,左、右變道識別過程分別如圖7、圖8所示。

        (c)意圖識別結(jié)果圖7左變道識別過程

        以車道右邊緣線為Frenet坐標系的參考線為例,由圖7可知,第4s時車輛橫向位移發(fā)生改變,逐漸靠近左車道邊緣線,同時,車道保持意圖識別概率下降,左變道意圖概率上升,可通過比較意圖概率確定最終識別結(jié)果。當左變道概率大于車道保持概率時,識別結(jié)果將從車道保持轉(zhuǎn)換成左變道。當2.5s后完成左變道時,車輛距離車道右邊緣線的橫向位移為0。

        本文將精確率 (Precision)P 、召回率 (Recall)R 、F1 分數(shù)和準確率(Accuracy) )A 作為模型性能評價指標。相關(guān)公式為:

        式中: TP 為正確識別目標駕駛意圖的數(shù)量, FP 為將非目標意圖誤判為目標意圖的數(shù)量, TN 為正確識別非目標意圖的數(shù)量, FN 為未能識別目標駕駛意圖的數(shù)量。

        (c)意圖識別結(jié)果圖8右變道識別過程

        為了進一步驗證本文模型的有效性,將本文模型與RuleBased、DNN等雙參考線模型及單參考線模型GMM-HMM*進行對比,結(jié)果如表2所示。

        由表2可知,相比單參考線,雙參考線通過提供更全面的橫向位置信息,增強了GMM-HMM模型對車輛動態(tài)的感知,同時捕捉車輛與兩側(cè)車道的相對偏移量及變化趨勢:車道保持時,兩側(cè)偏移量穩(wěn)定;變道時,一側(cè)偏移持續(xù)減小而另一側(cè)增大,形成明顯特征差異。多維觀測數(shù)據(jù)提高了模型對車輛橫向運動的敏感性。相較于使用單參考線的GMM-HMM*模型,本文模型由于使用雙參考線,車道保持準確率和變道準確率分別提高2.19百分點和3.07百分點,識別準確率均高于其他雙參考線模型,且在精確度、召回率和F1分數(shù)評價指標上優(yōu)于其他模型。因此,所提出的雙參考線GMM-HMM模型在識別實際駕駛員的駕駛意圖中更具優(yōu)勢。

        表2模型對比結(jié)果

        5結(jié)束語

        本文提出的雙參考線GMM-HMM模型充分考慮了車輛行駛過程中時間的連續(xù)性,能夠根據(jù)觀測變量準確識別駕駛意圖。該模型可應用于智能駕駛領(lǐng)域,通過識別危險換道行為,優(yōu)化自主換道過程,提前預警可能的危險情況,對提高駕駛主動安全性、改善車輛的智能決策和交互能力有重要意義。

        由于試驗樣本數(shù)量有限,且僅考慮車輛變道和車道保持的相關(guān)信息,后續(xù)將綜合考慮道路環(huán)境、周圍車輛等因素對意圖識別的影響。同時,探究復雜道路(如交叉路口、坡道等)條件下,超車、轉(zhuǎn)向等駕駛意圖識別。

        參考文獻

        [1]WANGZC,F(xiàn)ENGQ,LUO M,etal.EfficientFSS-Based PrivateStatisticsforTrafficMonitoring[C]//2O24IEEE23rd International Conference on Trust,Security and Privacy in Computing and Communications (TrustCom). Sanya, China: IEEE,2024:1361-1370.

        [2] KHELFA B,BAI, TORDEUX A. PredictingHighway LaneChanging Maneuvers:A Benchmark Analysis of Machine and Ensemble Learning Algorithms[J]. Physica A: Statistical Mechanics and its Applications,2023,612.

        [3]BOUCHARDF,SEDWARDSS,CZARNECKI K.A RuleBased:Behaviour Planner for Autonomous Driving[C]// International Joint Conference on Rules and Reasoning. Berlin,Germany:Springer,2022:263-279.

        [4]BHATTACHARYYA R,JUNGS,KRUSEL A,etal.A Hybrid Rule-Based and Data-Driven Approach to Driver Modeling Through Particle Filtering[J].IEEE Transactions on Intelligent Transportation Systems,2022, 23(8): 13055- 13068.

        [5]方華珍,劉立,顧青,等.自動駕駛車輛換道意圖識別研究 現(xiàn)狀[J].工程科學學報,2024,46(10):1845-1855. FANGH Z,LIU L,GUQ,et al.Research Status of LaneChanging Intention Recognition for Autonomous Vehicles[J]. Chinese Journal of Engineering,2024,46(10):1845-1855.

        [6]ZYNERA,WORRALLS,NEBOTE.ARecurrentNeural Network Solution for Predicting Driver Intentionat UnsignalizedIntersections[J].IEEERobotics and AutomationLetters,2018,3(3):1759-1764.

        [7]FANG H Z,LIU L,GU Q,et al.Driving Intention Recognition of Human Drivers in Mixed Traffic Flow[C]// 2022 IEEE 25th International Conference on Intelligent Transportation Systems (ITSC). Macau, China:IEEE,2022: 153-157.

        [8]張新鋒,王萬寶,柳歡,等.高速動態(tài)交通場景下自動駕駛 車輛換道意圖識別模型研究[J].汽車技術(shù),2023(4):8-15. ZHANGXF,WANAGWB,LIUH,etal.ResearchonLane Change Intention Recognition Model of Automated Vehicle inHigh-Speed Dynamic Traffic Scenario[J]. Automobile Technology,2023(4): 8-15.

        [9] LIU SW, ZHENG K, ZHAO L,et al.A Driving Intention Prediction Method Based on Hidden Markov Model for Autonomous Driving[J]. Computer Communications,2020, 157: 143-149.

        [10]趙建東,趙志敏,屈云超,等.軌跡數(shù)據(jù)驅(qū)動的車輛換 道意圖識別研究[J].交通運輸系統(tǒng)工程與信息,2022, 22(4): 63-71. ZHAO JD,ZHAO Z M,QU YC,et al.Vehicle Lane Change Intention Recognition Driven by Trajectory Data[J]. Journal of Transportation Systems Engineeringand Information Technology,2022,22(4): 63-71.

        [11] DO JY,HAN K,CHOI S B.Lane Change-Intention Inferenceand Trajectory Prediction of Surrounding Vehicles onHighways[J]. IEEE Transactions on Intelligent Vehicles, 2023,8(7):3813-3825.

        [12]FANGJW,WANGF,XUEJR,etal.BehavioralIntention Prediction in Driving Scenes:A Survey[J].IEEE Transactions on Inteligent Transportation Systems,2024, 25(8): 8334-8355.

        [13] LUO Y Q, ZHANG JY,WANG SF,et al.A Driving IntentionPredictionMethodforMixed Traffic Scenarios[C]// 2022 IEEE 7th International Conference on Intelligent Transportation Engineering (ICITE).Beijing, China: IEEE,2022.

        [14]LV Y Z,WEI C. Multi-Objective Optimal Decision Making forAutonomous Driving Based on Multi-Modal Predicted Trajectories[Cl// International Conference on Mechatronic Engineering and Artificial Intelligence (MEAI 2023). Shenyang, China: AIP Publishing,2024.

        (責任編輯瑞秋)

        修改稿收到日期為2025年1月26日。

        猜你喜歡
        模型
        一半模型
        一種去中心化的域名服務本地化模型
        適用于BDS-3 PPP的隨機模型
        提煉模型 突破難點
        函數(shù)模型及應用
        p150Glued在帕金森病模型中的表達及分布
        函數(shù)模型及應用
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權(quán)M-估計的漸近分布
        3D打印中的模型分割與打包
        国产精品国产三级在线专区| 福利视频一二三在线观看| 女同啪啪免费网站www| 人妻中文字幕一区二区二区| 成人av一区二区三区四区| 国产对白国语对白| 亚洲精品av一区二区| 国产狂喷水潮免费网站www| 国产高清一区二区三区视频| 婷婷九月丁香| 日韩av一区二区三区在线观看| 日本一区二区三区丰满熟女| 亚洲精品一区二区高清| 一本到在线观看视频| 欧美精品一区二区蜜臀亚洲| 亚洲AV无码永久在线观看| 一区二区三区黄色一级片| 日本xxxx色视频在线观看免费| 97在线观看| 99久久久无码国产精品动漫| 亚洲av毛片在线播放| 天天做天天添av国产亚洲| 亚洲日韩国产精品第一页一区| 亚洲高清中文字幕精品不卡 | 中文字幕一区二区三区四区在线 | 国产美女精品一区二区三区| 国产视频毛片| av免费在线手机观看| 中文字幕无码乱人伦| 久久无码人妻精品一区二区三区 | 第九色区Aⅴ天堂| 91亚洲国产成人精品一区.| 国产人妻精品无码av在线| 四虎在线播放免费永久视频| 国产一区二区一级黄色片| 国产精品情侣呻吟对白视频| 秋霞鲁丝片av无码| 亚洲综合网一区二区三区| 在线观看免费日韩精品| 久久九九国产精品怡红院| 97精品国产高清自在线看超|