主題詞:智能車輛軌跡預(yù)測生成式對抗網(wǎng)絡(luò)社交池化機(jī)制自注意力機(jī)制中圖分類號(hào):TP183;U461.91 文獻(xiàn)標(biāo)志碼:A DOI: 10.19620/j.cnki.1000-3703.20240867
Vehicle Trajectory Prediction Method Based on Social GAN Network and Self-Attention Mechanism
ZhuLangqian’,Ma Shijun',Liu Mingjian12,LiMuyang',Hao Changsheng1 (1.Collegeof Information Engineering,DalianOcean University,Dalian16023;2.KeyLaboratoryofEnvironment ControlledAquaculture,Ministryof Education,DalianOcean University,Dalian116023)
【Abstract】Toaddresstheissue thattemporalfeaturesand spatialfactors ofthe trafcenvironment affcttheaccuracyof vehicletrajectorypredictioninvehicledriving,thispaperproposesavehicletrajectorypredictionmethodintegratingtemporal multi-headself-attentionandsocial pooling basedonthe Social GenerativeAdversarial Network (SMA-GAN).Firstly,the historicaltrajectoryfeaturesareextractedbythetemporalcorelationofthetargetvehicle'sowntrajectorydatausingthemultiheadself-atentionmechanism.Then,thespatialdimensionalfeaturesofthetargetvehicleareextractedbythesocialpoling mechanismbasedonthespatialpositionalrelationshipbetweenthetargetvehicleandthesuroundingvehicles.Finalythe predictedtrajectoryofthetargetvehicleisobtainedbytheencoder-decoder.Modeltrainingandcomparisontestsare conducted using the NGSIM dataset,and theresultsshow that theSMA-GAN model has higher predictionaccuracy and efficiency in the highway scene.
KeyWords:Intelligent vehicle,Trajectory prediction,Generative Adversarial Network(GAN). Social pooling mechanism,Self-attention mechanism
【引用格式】祝朗千,馬時(shí)俊,劉明劍,等.基于Social GAN網(wǎng)絡(luò)與自注意力機(jī)制的車輛軌跡預(yù)測方法[J].汽車技術(shù),2025(6):8-14.ZHULQ,MASJ,LIUMJ,etal.VehicleTrajectoryPredictionMethodBasedonSocialGANNetworkandSelf-AtentionMechanism[J]. Automobile Technology,2025(6): 8-14.
1前言
隨著智能交通系統(tǒng)的迅速發(fā)展,車輛軌跡預(yù)測技術(shù)能夠感知復(fù)雜交通環(huán)境中的潛在風(fēng)險(xiǎn)因素,結(jié)合駕駛輔助系統(tǒng)的應(yīng)用,對于提升行車安全具有重要意義。
目前,多數(shù)研究根據(jù)車輛特征和駕駛員意圖預(yù)測未來車輛軌跡,主要分為傳統(tǒng)機(jī)器學(xué)習(xí)方法與深度學(xué)習(xí)方法。對于傳統(tǒng)機(jī)器學(xué)習(xí)方法方面,Abbas等2將道路車輛劃分為5種運(yùn)動(dòng)狀態(tài)并預(yù)測車輛軌跡,文獻(xiàn)[3]\~文獻(xiàn)[5]使用無監(jiān)督聚類算法對不同駕駛風(fēng)格進(jìn)行識(shí)別,并通過模型生成特定車輛的駕駛風(fēng)格。但對于復(fù)雜的交通場景,模型難以分辨車輛行為,容易影響模型分類的準(zhǔn)確性。
對于深度學(xué)習(xí)方面,長短時(shí)記憶(LongShort-TermMemory,LSTM)網(wǎng)絡(luò)可有效捕捉特征間長期依賴關(guān)系而被廣泛應(yīng)用。文獻(xiàn)[6]\~文獻(xiàn)[9]將LSTM與卷積神經(jīng)網(wǎng)絡(luò)結(jié)合,充分提取多輛車間歷史軌跡的交互信息;朱云鶴等[0]利用編解碼器和滑動(dòng)窗口,提取行駛車輛的歷史特征向量;季學(xué)武等[11使用LSTM模型識(shí)別駕駛員意圖,利用解碼器輸出預(yù)測軌跡。為了描述不同行人對目標(biāo)車輛的作用,Alahi等利于社交池化(SocialPooling)層將空間位置網(wǎng)格化,網(wǎng)格內(nèi)行人軌跡的隱藏狀態(tài)視為空間的社交影響。Gupta等3]基于生成對抗網(wǎng)絡(luò)(GenerativeAdversarialNetwork,GAN)4提出了Social-GAN模型,根據(jù)多個(gè)行人的相對距離和隱藏狀態(tài)提取最顯著的特征,生成符合行人運(yùn)動(dòng)規(guī)律的軌跡。Qin等5使用網(wǎng)格地圖描述其空間和時(shí)間的流動(dòng)性分布。上述方法雖能提取車輛間空間關(guān)系,但車輛歷史軌跡中關(guān)鍵時(shí)序特征的表征仍顯不足。
為了進(jìn)一步分析車輛特征,可通過注意力機(jī)制捕捉車輛交互關(guān)系與關(guān)鍵時(shí)序特征。文獻(xiàn)[16]\~文獻(xiàn)[19]將LSTM網(wǎng)絡(luò)結(jié)合注意力機(jī)制,提高了軌跡預(yù)測精度;季文禮等2通過構(gòu)建車輛間影響力場函數(shù),利用軌跡間的時(shí)空特征實(shí)現(xiàn)車輛軌跡預(yù)測;Yang等2分析道路線形對車輛換道意圖的影響,提出了意圖卷積混合注意網(wǎng)絡(luò);Sun 等[22]利用Transformer模型[23]的多頭注意力(Multi-HeadAttention,MHA)提取融合車輛與環(huán)境特征,提高了預(yù)測精度。雖然注意力機(jī)制能夠提升對車輛特征的建模能力,但難以量化周圍車輛對自標(biāo)車輛的影響關(guān)系與歷史軌跡特征,容易導(dǎo)致預(yù)測精度下降。
通過結(jié)合周圍車輛數(shù)據(jù)的時(shí)空關(guān)聯(lián)性,提高較長時(shí)域中車輛軌跡的預(yù)測精度,本文提出了一種基于生成對抗網(wǎng)絡(luò)融合時(shí)間多頭自注意力與社交池化(SocialpoolingandMulti-head Self-Attention Generative AdversarialNetworks,SMA-GAN)的車輛軌跡預(yù)測模型。采用時(shí)間自注意力模塊,提取目標(biāo)車輛的歷史軌跡特征;構(gòu)建社交池化模塊,捕捉周圍車輛的影響關(guān)系;融合時(shí)空特征,利用編碼器-解碼器結(jié)構(gòu)生成目標(biāo)車輛的未來軌跡。同時(shí),通過消融試驗(yàn)和對比試驗(yàn),驗(yàn)證本文模型的有效性。
2基于時(shí)空融合的軌跡預(yù)測模型
2.1車輛軌跡預(yù)測形式化定義
在城市道路行駛過程中,車輛根據(jù)周車和行人動(dòng)態(tài)修正前進(jìn)的方向和速度,進(jìn)而改變車輛行駛軌跡。在一段時(shí)間內(nèi),當(dāng)前時(shí)刻的車輛位置變化與上一時(shí)刻的車輛位置、環(huán)境存在較強(qiáng)關(guān)聯(lián)性。因此,本文將車輛軌跡預(yù)測問題視為時(shí)間序列問題,探究車輛軌跡的時(shí)間、空間的關(guān)聯(lián)性。
以當(dāng)前場景假定為平面坐標(biāo)系,對于各場景的目標(biāo)車輛,定義各時(shí)刻的所有車輛坐標(biāo),目標(biāo)車輛集合為:
式中: ci 為第 i 個(gè)目標(biāo)車輛。
車輛在 χt 時(shí)刻的狀態(tài)向量為:
ci=(ti,xi,yi,vi,ai,θi)
式中: xi,yi 分別為車輛所在坐標(biāo)系的橫、縱坐標(biāo), vi 為車輛行駛速度, ai 為車輛加速度, θi 為車輛的轉(zhuǎn)向角。
將預(yù)測過程的時(shí)間集合分為歷史時(shí)間集合和未來軌跡預(yù)測時(shí)間集合,目標(biāo)車輛的時(shí)間集合為:
式中: Ti 為車輛所有時(shí)間集合, tj 為第 j 時(shí)刻, Tihis,Tipre 分別為歷史時(shí)間集合和預(yù)測時(shí)間集合, 分別為歷史軌跡的起始時(shí)間和終止時(shí)間, tobs,tend 分別為預(yù)測軌跡的起始時(shí)間和終止時(shí)間。
在訓(xùn)練過程中,目標(biāo)車輛狀態(tài)集合、歷史軌跡狀態(tài)集合、預(yù)測軌跡狀態(tài)集合分別為:
2.2模型框架
基于生成對抗網(wǎng)絡(luò),結(jié)合自注意力機(jī)制與社交池化機(jī)制,本文提出一種基于時(shí)間與空間特征融合的車輛軌跡預(yù)測方法,模型的總架構(gòu)如圖1所示。
首先,考慮目標(biāo)車輛行駛軌跡的時(shí)間相關(guān)性,將車輛歷史軌跡信息輸入軌跡生成器,經(jīng)編碼器處理后,傳輸至自注意力模塊,生成車輛時(shí)間維度的特征向量;其次,量化周車對目標(biāo)車輛的影響,將歷史特征向量輸入社交池化模塊,得到空間維度的特征向量;然后,將時(shí)間特征向量與空間特征向量融合輸入解碼器,循環(huán)生成未來預(yù)測軌跡;最后,將車輛預(yù)測軌跡與真實(shí)軌跡輸入軌跡判別器,生成判斷概率,使生成軌跡分布更加接近車輛真實(shí)軌跡,令生成器與判別器共同進(jìn)步。
2.2.1 軌跡生成器
軌跡生成器包含編碼器模塊、時(shí)間多頭注意力層、社交池化層以及解碼器模塊。編碼器模塊利用LSTM對每輛車的歷史軌跡序列建模,根據(jù)上一時(shí)刻的隱藏層狀態(tài)和當(dāng)前時(shí)刻的輸入,輸出車輛行駛歷史軌跡的特征向量:
式中: We 為LSTM層的可學(xué)習(xí)權(quán)重。
由于當(dāng)前時(shí)刻車輛狀態(tài)與過去時(shí)刻狀態(tài)高度相關(guān),為了使模型更好地學(xué)習(xí)車輛軌跡的時(shí)間特征,采用多頭注意力模塊,提取每輛車在時(shí)間維度的關(guān)聯(lián)性,模塊架構(gòu)如圖2所示。
使用自注意力機(jī)制處理序列數(shù)據(jù),能夠考慮序列中所有位置,有效地捕捉車輛行駛數(shù)據(jù)特征。通過時(shí)間多頭注意力機(jī)制,提取車輛歷史軌跡數(shù)據(jù)的隱藏狀態(tài)。將第i輛車的車輛行駛歷史軌跡特征向量 hit 傳輸至?xí)r間多頭注意力模塊,相關(guān)過程為:
式中: Wq?Wk?Wv 分別為自注意力中對應(yīng)查詢矩陣 qi. 關(guān)鍵矩陣 ki 和數(shù)值矩陣 vi 的權(quán)重參數(shù)。
計(jì)算當(dāng)前時(shí)刻 n 個(gè)注意力頭的車輛注意力值,并進(jìn)行拼接,得到時(shí)間相關(guān)特征向量:
式中: hn 為車輛 i 在任意時(shí)刻 Φt 的第 n 個(gè)自注意力特征值, dk 為關(guān)鍵矩陣的維度, hitep 為任意時(shí)刻拼接車輛 n 個(gè)注意力頭的車輛時(shí)間特征向量集合。
為了量化車輛間的社交關(guān)系,利用社交池化層提取行駛車輛與周車的空間特征,如圖3所示。以目標(biāo)車輛為中心,選擇當(dāng)前時(shí)刻目標(biāo)車輛所在車道及其左、右兩側(cè)車道中,與起始坐標(biāo)位置相距不超過 60m 的車輛,并提取其軌跡信息,將編碼后的隱藏狀態(tài)特征融合為全新的狀態(tài)特征,作為車輛社交池化特征。
在解碼器階段,編碼器隱藏態(tài)與該時(shí)刻社交池化向量混合初始化解碼器,由前一刻社交匯集向量和自注意力模塊提取的特征共同組成匯聚向量,作為隱藏態(tài)傳遞。首先,通過位置信息進(jìn)行車輛觀測序列的社交分類,將同一時(shí)刻 m 個(gè)車輛狀態(tài)向量 hit 依次輸入社交池化層,得到社交池化向量 si°t 然后,將 sit 與 hitep 融合輸入多層感知機(jī)(Multi-LayerPerceptron,MLP),再與隨機(jī)高斯分布噪聲向量 z 連接,作為解碼器LSTM網(wǎng)絡(luò)層的初始隱藏狀態(tài)。解碼器在 χt 時(shí)刻預(yù)測軌跡時(shí),利用前一刻的映射向量初始化LSTM,得到后一刻車輛的預(yù)測點(diǎn)
解碼器循環(huán)見式(12),將車輛所有時(shí)刻預(yù)測軌跡數(shù)據(jù)更新至預(yù)測軌跡狀態(tài)集合 Pipre 。
式中: sit 為 hit 經(jīng)過處理的社交池化向量, eit 為使用多層感知機(jī)融合 eit 與 sit 的特征向量, WMLP 為多層感知機(jī)的權(quán)重參數(shù), hip 為車輛 i 在 χt 時(shí)刻的解碼器LSTM隱藏狀態(tài)向量, 為解碼器LSTM權(quán)重參數(shù), Wpre 為輸出層網(wǎng)絡(luò)參數(shù),
為車輛的預(yù)測位置。
2.2.2 軌跡判別器
軌跡判別器由一個(gè)單獨(dú)的編碼器以及MLP層組成,用于對輸入軌跡進(jìn)行真?zhèn)闻袛?,以促進(jìn)軌跡生成器更好地學(xué)習(xí)真實(shí)軌跡分布,其結(jié)構(gòu)如圖4所示。
編碼器將輸人的真實(shí)軌跡數(shù)據(jù)和軌跡生成器生成的虛假軌跡數(shù)據(jù),通過多個(gè)LSTM編碼映射為高維特征向量 Hd, 再將其輸入到MLP層,得到輸入軌跡的真實(shí)性概率:
式中: Wd 為軌跡判別器中編碼器LSTM權(quán)重參數(shù), Wm 為多層感知機(jī)權(quán)重參數(shù) ?,p 為判定輸人軌跡為真實(shí)軌跡的概率。
2.2.3 損失函數(shù)
本文的損失函數(shù) L 主要由2部分構(gòu)成:一是軌跡生成器需要生成更加真實(shí)的車輛軌跡,采用L2范式構(gòu)建軌跡生成器的損失函數(shù) LL2 ;二是軌跡判別器需要更準(zhǔn)確地判定輸入軌跡的真?zhèn)危捎媒徊骒負(fù)p失函數(shù)LGAN○
式中: 分別為軌跡生成器和軌跡判別器的輸出, r 為輸入真實(shí)軌跡數(shù)據(jù),為輸入滿足高斯分布的噪聲向量,E 為期望值,k為生成器的采樣次數(shù), (xi,yi) 為車輛的真實(shí)位置。
3試驗(yàn)環(huán)境設(shè)置
將車輛歷史行駛軌跡數(shù)據(jù)在SMA-GAN和其他先進(jìn)軌跡預(yù)測模型中進(jìn)行迭代預(yù)訓(xùn)練。在輸入前3s的歷史軌跡數(shù)據(jù),分別輸出1\~5s預(yù)測結(jié)果的情況下,通過對比試驗(yàn)以及消融試驗(yàn),驗(yàn)證本文模型的有效性。
3.1數(shù)據(jù)集與參數(shù)
本文試驗(yàn)使用公開數(shù)據(jù)集NGSIM(NextGenerationSimulation)中IUS-101數(shù)據(jù)集,通過提取車輛ID、車輛局部坐標(biāo)、車輛速度、加速度和車輛轉(zhuǎn)向角信息作為模型的輸入。本文數(shù)據(jù)集共包含4680輛車的軌跡數(shù)據(jù),按照8:1:1分為訓(xùn)練集、驗(yàn)證集和測試集。其中,訓(xùn)練集包含3744輛車的軌跡數(shù)據(jù),模型訓(xùn)練迭代200次。
在Windows10操作系統(tǒng)下進(jìn)行試驗(yàn),圖像處理器采用英偉達(dá)RTX3090Ti,顯存容量為24GB,將Python作為編程語言。模型的編碼器維度設(shè)置為64,批大小為32,采用自適應(yīng)矩估計(jì)(Adam)優(yōu)化器,生成器與鑒別器的學(xué)習(xí)率分別設(shè)置為0.0005和0.001。
3.2評(píng)價(jià)指標(biāo)
為了評(píng)估模型性能,選擇均方根誤差(RootMeanSquare Error,RMSE)、平均位移誤差(AverageDisplace-mentError,ADE)、最終位移誤差(FinalDisplacementError,F(xiàn)DE)作為性能評(píng)價(jià)指標(biāo)。其中,RMSE反映整體預(yù)測軌跡與真實(shí)軌跡間偏離程度;ADE衡量整個(gè)預(yù)測過程中各預(yù)測點(diǎn)與對應(yīng)真實(shí)點(diǎn)間歐氏距離的平均值,體現(xiàn)軌跡的整體預(yù)測精度;FDE僅關(guān)注預(yù)測終點(diǎn)與真實(shí)終點(diǎn)間歐氏距離,用于評(píng)估最終位置的預(yù)測準(zhǔn)確性。
式中: T 為預(yù)測時(shí)間步數(shù), 分別為真實(shí)軌跡和預(yù)測軌跡的終點(diǎn)位置。
4試驗(yàn)與結(jié)果分析
4.1消融試驗(yàn)
為了驗(yàn)證本文模型中各模塊的有效性,對SMA-GAN模型進(jìn)行消融試驗(yàn),時(shí)域 te 內(nèi)模型預(yù)測結(jié)果如表1所示。
由表1可知,以GAN網(wǎng)絡(luò)為基線,由于社交池化模塊考慮時(shí)間動(dòng)態(tài)特征,MHA捕捉車輛間的空間交互信息,使模型預(yù)測精度均有所提升。融合時(shí)間和空間特征后,模型的預(yù)測性能表現(xiàn)優(yōu)異,證明了綜合考慮時(shí)空特征的重要性。
4.2 對比試驗(yàn)
在NGSIM數(shù)據(jù)集上,將本文提出的SMA-GAN模型與其他主流的車輛軌跡預(yù)測模型進(jìn)行對比試驗(yàn),對比模型包括社交池化與長短時(shí)記憶(SocialLongShort-TermMemory,S-LSTM)模型[2]、卷積社交池化與長短時(shí)記憶(Long Short-Term Memory with Convolutional Socialpooling,CS-LSTM)模型、社交池化與生成對抗網(wǎng)絡(luò)(Social Generative Adversarial Network,S-GAN)模型[13]、非局部社交池化與長短時(shí)記憶(Non-Local SocialLongShort-TermMemory,NLS-LSTM)模型[24],結(jié)果如表2和表3所示。
由表2可知,與CS-LSTM、S-LSTM、S-GAN和NLS-LSTM模型相比,SMA-GAN、NLS-LSTM模型在短預(yù)測時(shí)域(1s)內(nèi)的RMSE均為最低且預(yù)測效果接近;在中長預(yù)測時(shí)域(2\~5s,SMA-GAN的RMSE最低;在5s的預(yù)測時(shí)域中,相較于NLS-LSTM,SMA-GAN的RMSE降低了 13.8% ,說明本文模型的時(shí)間多頭自注意力模塊能夠有效提取車輛行駛過程中的時(shí)間相關(guān)性,更精準(zhǔn)地預(yù)測車輛的軌跡位置。
由表3可知,SMA-GAN模型在短預(yù)測時(shí)域(1s)的預(yù)測時(shí)域中的ADE指標(biāo)和FDE指標(biāo)略低于S-GAN模型。而在中長時(shí)間預(yù)測(4\~5s中,SMA-GAN模型的ADE指標(biāo)和FDE指標(biāo)明顯優(yōu)于其他模型。在5s的預(yù)測時(shí)域中,SMA-GAN模型和S-GAN模型的ADE指標(biāo)低于 4m ,且SMA-GAN模型比S-GAN精準(zhǔn)度提升了6.5% ,表現(xiàn)出更高的預(yù)測精度,進(jìn)一步說明社交池化模塊與時(shí)間多頭自注意力模塊融合,提取周圍行駛車輛的時(shí)空特征,比僅考慮提取車輛的空間特征更具優(yōu)勢。
為了進(jìn)一步驗(yàn)證本文模型性能,對比CS-LSTM、S-LSTM、S-GAN與SMA-GAN的運(yùn)行時(shí)間,各模型運(yùn)行結(jié)果分別為 1 8 . 1 6 m s".、1 2 . 3 0" m s、"1 1 . 7 9m s 、 1 4 . 0 8m s "。僅采用社會(huì)池化的S-GAN模型表現(xiàn)最優(yōu),引人時(shí)間多頭自注意力模塊的SMA-GAN模型,雖然其運(yùn)行速度相較于S-GAN有所下降,但仍然保持著良好的運(yùn)行效率。
因此,SMA-GAN車輛軌跡預(yù)測方法相較于其他主流車輛軌跡預(yù)測模型,在均方根誤差、最小平均位移誤差和最小終點(diǎn)位移誤差指標(biāo)上總體為最優(yōu),預(yù)測出的車輛行駛軌跡準(zhǔn)確性最高。
4.3 預(yù)測軌跡可視化
在測試數(shù)據(jù)集中,選取4種駕駛場景,分別為直線行駛、左換道行駛、右換道行駛和多換道行駛。將本文預(yù)測結(jié)果進(jìn)行可視化,分析不同駕駛場景下模型的性能,如圖5所示。
由圖5可知,本文模型能夠在復(fù)雜的車路環(huán)境中,相對準(zhǔn)確地預(yù)測行駛車輛對周車的行駛軌跡,保證車輛的安全行駛。車輛直行時(shí),模型預(yù)測度與實(shí)際軌跡貼合度較高,能夠?yàn)橹悄芷嚨臎Q策提供依據(jù)。但當(dāng)車輛出現(xiàn)轉(zhuǎn)向、變道等轉(zhuǎn)變方向的行駛條件下,特別在車輛行駛途中發(fā)生多次轉(zhuǎn)向換道的情況下,模型無法準(zhǔn)確預(yù)測到轉(zhuǎn)向點(diǎn)。盡管模型預(yù)測效果在車輛發(fā)生轉(zhuǎn)向的情況下略有下降,但仍然保持了較好的預(yù)測能力。
5結(jié)束語
本文基于時(shí)空多頭注意力的社交生成對抗網(wǎng)絡(luò)(SMA-GAN)的車輛軌跡預(yù)測方法,充分挖掘目標(biāo)車輛歷史軌跡的時(shí)間依賴性,量化周圍車輛的空間交互影響,增強(qiáng)了軌跡預(yù)測的準(zhǔn)確性。通過生成器與判別器的對抗訓(xùn)練機(jī)制,使預(yù)測軌跡在保持連貫性的同時(shí),更貼近真實(shí)交通行為的分布。
鑒于道路交通行駛場景復(fù)雜多變,本文模型訓(xùn)練軌跡數(shù)據(jù)多為高速公路行車場景,后續(xù)將重點(diǎn)關(guān)注模型的泛化性,以適應(yīng)更多典型的交通場景。
參考文獻(xiàn)
[1] ZHANGJN,WEIZW,LIUBX,et al.Cloud-EdgeTerminal Collaborative AIGC for Autonomous Driving[J]. IEEEWirelessCommunications,2024,31(4):40-47.
[2]ABBASM T,JIBRANMA,AFAQM,etal.An Adaptive ApproachtoVehicleTrajectoryPredictionUsingMultimodel Kalman Filter[J].Transactions on Emerging Telecommunications Technologies,2020,31(5).
[3]XING Y,LV C,CAO D.Personalized Vehicle Trajectory Prediction Based on Joint Time-Series Modeling for Connected Vehicles[J]. IEEE Transactions on Vehicular Technology,2019,69(2):1341-1352.
[4]JIANGYD,ZHUB,YANG SY,et al.Vehicle Trajectory Prediction Considering Driver Uncertainty andVehicle Dynamics Based on Dynamic Bayesian Network[J]. IEEE Transactionson Systems,Man,and Cybernetics,2023, 53(2): 689-703.
[5] SUJY,LI M Y,ZHU L Q,et al.Vehicle TrajectoryPrediction Method Based on Driver Behavior-Classification and Informer Models[J].World Electric Vehicle Journal, 2024,15(6).
[6] DEO N,TRIVEDI M M. Convolutional Social Pooling for Vehicle Trajectory Prediction[C]//Proceedingsof the IEEE Conference on Computer Vision and Pattern Recognition Workshops. Salt Lake City,UT,USA: IEEE,2018:1468- 1476.
[7] MUKHERJEE S,WANG S,WALLACE A. Interacting Vehicle Trajectory Prediction with Convolutional Recurrent Neural Networks[Cl// 2O2O IEEE International Conference on Robotics and Automation (ICRA).Paris,F(xiàn)rance: IEEE, 2020:4336-4342.
[8] XU D W,SHANG X T,LIU YW Z,et al. Group Vehicle Trajectory Prediction with Global Spatio-Temporal Graph[J]. IEEE Transactions on Intelligent Vehicles,2022,8(2): 1219-1229.
[9] SHI J, SUN D X, GUO B C. Vehicle Trajectory Prediction Basedon Graph Convolutional Networks in Connected Vehicle Environment[J]. Applied Sciences,2023,13(24): 13192-13192.
[10]朱云鶴,劉明劍,祝朗千,等.SW-SAN:基于 Seq2Seq結(jié) 合注意力機(jī)制與滑動(dòng)窗口的車輛軌跡預(yù)測模型[J].現(xiàn)代 電子技術(shù),2024,47(11):175-180. ZHU Y H,LIU M J, ZHU L Q,et al. SW-SAN: Vehicle Trajectory Prediction Model Based on Seq2Seq Combined with Attention Mechanism and Sliding Window[J]. Modern Electronics Technique,2024,47(11): 175-180.
[11]季學(xué)武,費(fèi)聰,何祥坤,等.基于LSTM網(wǎng)絡(luò)的駕駛意圖 識(shí)別及車輛軌跡預(yù)測[J].中國公路學(xué)報(bào),2019,32(6):34- 42. JI XW, FEI C,HE X K,et al. Intention Recognition and Trajectory Prediction for Vehicles Using LSTM Network[J]. China Journal of Highway and Transport, 2019, 32(6): 34- 43.
[12]ALAHI A,GOEL K,RAMANATHAN V,et al.Social LSTM:Human Trajectory Prediction in Crowded Spaces[C]// Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition.Las Vegas,NV,USA:IEEE, 2016: 961-971.
[13] GUPTA A, JOHNSON J, FEI-FEI L,et al. Social GAN: SociallyAcceptableTrajectorieswithGenerative Adversarial Networks[Cl//Proceedingsof theIEEE Conference on Computer Vision and Pattern Recognition. Salt Lake City,UT,USA: IEEE,2018:2255-2264.
[14] CRESWELL A,WHITE T,DUMOULIN V,etal. Generative Adversarial Networks:An Overview[J]. IEEE Signal Processing Magazine,2018,35(1): 53-65.
[15] QIN Y,GUAN Y L, YUEN C. Spatiotemporal Capsule Neural Network for Vehicle Trajectory Prediction[J]. IEEE Transactions on Vehicular Technology,2023,72(8): 9746- 9756.
[16]LINL,LIWZ,BIHK,etal.Vehicle Trajectory Prediction UsingLSTMs with Spatial-Temporal Attention Mechanisms[J]. IEEE Intelligent Transportation Systems Magazine,2022,14(2): 197-208.
[17] CHENXB, ZHANGHJ, ZHAOF, et al. Intention-Aware Vehicle Trajectory Prediction Based on Spatial-Temporal Dynamic Attention Network for Internet of Vehicles[J]. IEEE Transactions on Intelligent Transportation Systems, 2022,23(10): 19471-19483.
[18] MESSAOUD K, YAHIAOUI I, VERROUST-BLONDET A, et al.Atention Based Vehicle Trajectory Prediction[J]. IEEE Transactions on Inteligent Vehicles,2020,6(1): 175-185.
[19] GUO H Y, MENG Q Y, CAO D P, et al. Vehicle Trajectory Prediction Method Coupled withEgo Vehicle Motion Trend under Dual Attention Mechanism[J]. IEEE Transactions on Instrumentation and Measurement,2022,71: 1-16.
[20]李文禮,韓迪,石曉輝,等.基于時(shí)-空注意力機(jī)制的車輛 軌跡預(yù)測[J].中國公路學(xué)報(bào),2023,36(1):226-239. LI WL,HAN D,SHI X H,et al.Vehicle Trajectory Prediction BasedonSpatial-TemporalAttention Mechanism[J]. China Journal of Highway and Transport, 2023,36(1): 226-239.
[21]YANG M X,ZHANGBL,WANG TT,et al.Vehicle Interactive DynamicGraph Neural Network Based Trajectory Prediction for Internet of Vehicles[J].IEEE Internet of ThingsJournal,2024,22(11): 35777-35790.
[22] SUN D X, GUO H L, WANG W H. Vehicle Trajectory Prediction Based on Multivariate Interaction Modeling[J]. IEEEAccess,2023,11:131639-131650.
[23] VASWANI A, SHAZEER N,PARMAR N, et al. Attention IsAll You Need[EB/OL]. (2023-08-02) [2025-01-16]. https://arxiv.org/abs/1706.03762.
[24] MESSAOUD K, YAHIAOUI I, VERROUST-BLONDET A, et al.Non-Local Social Pooling for Vehicle Trajectory Prediction[C]// 2019 IEEE Intelligent Vehicles Symposium (IV).Paris,F(xiàn)rance: IEEE,2019: 975-980. (責(zé)任編輯瑞秋) 1口17