亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于動(dòng)態(tài)圖注意力的車輛軌跡預(yù)測(cè)研究

        2024-05-17 00:00:00陳曉偉李煊鵬張為公
        汽車技術(shù) 2024年3期
        關(guān)鍵詞:模型

        【摘要】針對(duì)目前軌跡預(yù)測(cè)研究中交互建模方法使用的圖注意力網(wǎng)絡(luò)(GAT)為靜態(tài)注意力,無(wú)法有效捕捉復(fù)雜道路場(chǎng)景中車輛間交互的問(wèn)題,提出了一種基于編碼器-解碼器架構(gòu)的動(dòng)態(tài)圖注意力網(wǎng)絡(luò)(ED-DGAT)預(yù)測(cè)高速公路環(huán)境中運(yùn)動(dòng)車輛的未來(lái)軌跡。編碼模塊使用動(dòng)態(tài)圖注意力機(jī)制學(xué)習(xí)場(chǎng)景中車輛間的空間交互,采用狀態(tài)簡(jiǎn)化動(dòng)態(tài)圖注意力網(wǎng)絡(luò)建模解碼階段車輛運(yùn)動(dòng)的相互依賴,最后使用NGSIM數(shù)據(jù)集評(píng)估所提出的模型,并與長(zhǎng)短時(shí)記憶(LSTM)、聯(lián)合社交池化與長(zhǎng)短時(shí)記憶(S-LSTM)、聯(lián)合卷積社交池化與長(zhǎng)短時(shí)記憶(CS-LSTM)算法模型進(jìn)行對(duì)比分析,結(jié)果表明,預(yù)測(cè)軌跡的均方根誤差(RMSE)降低了25%,且模型的推理速度為CS-LSTM模型的2.61倍。

        主題詞:軌跡預(yù)測(cè) 注意力機(jī)制 圖神經(jīng)網(wǎng)絡(luò) 多目標(biāo)交互

        中圖分類號(hào):U461.91 " 文獻(xiàn)標(biāo)志碼:A " DOI: 10.19620/j.cnki.1000-3703.20230582

        Research on Vehicle Trajectory Prediction Based on Dynamic Graph Attention

        Chen Xiaowei, Li Xuanpeng, Zhang Weigong

        (Southeast University, Nanjing 210096)

        【Abstract】In current research on vehicle trajectory prediction, the existing Graph Attention Network (GAT), which is based on a static attention mechanism, fails to effectively capture interactions between vehicles in complex road conditions. To address this issue, this paper proposed an Encoder-Decoder Dynamic Graph Attention Network (ED-DGAT) to predict future trajectories of highway vehicles. In this model, the encoding module incorporates a dynamic graph attention mechanism to learn spatial interactions among vehicles. Simultaneously, a simplified dynamic graph attention network is adopted to model the interdependencies of vehicle movements during the decoding phase. This paper evaluated the proposed algorithm using the NGSIM dataset and conducted comparative analysis with other models such as LSTM, Social-LSTM (S-LSTM), and CS-LSTM. The results show that the Root Mean Squared Error (RMSE) of predicted trajectory has been reduced by 25%, and the inference speed is 2.61 times of the CS-LSTM model.

        Key words: Trajectory prediction, Attention mechanism, Graph neural networks, Multi-objective interaction

        【引用格式】 陳曉偉, 李煊鵬, 張為公. 基于動(dòng)態(tài)圖注意力的車輛軌跡預(yù)測(cè)研究[J]. 汽車技術(shù), 2024(3): 24-30.

        CHEN X W, LI X P , ZHANG W G. Research on Vehicle Trajectory Prediction Based on Dynamic Graph Attention[J]. Automobile Technology, 2024(3): 24-30.

        1 前言

        為實(shí)現(xiàn)安全高效行駛,自動(dòng)駕駛汽車需自主且合理地估計(jì)周圍目標(biāo)的運(yùn)動(dòng)軌跡。然而,車輛的行為決策不僅與駕駛員的駕駛風(fēng)格、道路環(huán)境相關(guān),還受到周圍車輛間交互行為的影響,故預(yù)測(cè)復(fù)雜道路場(chǎng)景中車輛的運(yùn)動(dòng)軌跡極具挑戰(zhàn)性。

        傳統(tǒng)方法基于運(yùn)動(dòng)物理學(xué)[1]或結(jié)合概率論[2-4]估計(jì)車輛的運(yùn)動(dòng)軌跡。隨著人工智能技術(shù)的發(fā)展,許多研究人員開(kāi)始采用基于循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,RNN)及其變體的編碼器-解碼器架構(gòu)進(jìn)行時(shí)序數(shù)據(jù)的預(yù)測(cè)研究[5-6]。然而,RNN無(wú)法捕捉運(yùn)動(dòng)車輛間的空間相關(guān)性。

        文獻(xiàn)[7]~文獻(xiàn)[9]引入了一種名為“社交池化”的機(jī)制,該方法將道路中相鄰車輛的運(yùn)動(dòng)特征聚合到統(tǒng)一的空間網(wǎng)格,并利用池化和卷積等方法融合車輛的運(yùn)動(dòng)特征。文獻(xiàn)[10]~文獻(xiàn)[13]基于圖神經(jīng)網(wǎng)絡(luò)(Graph Neural Network,GNN)建模車輛間的交互關(guān)系,其中圖的節(jié)點(diǎn)表示運(yùn)動(dòng)車輛,圖的邊表示車輛間的空間交互,并利用圖卷積網(wǎng)絡(luò)(Graph Convolutional Network,GCN)聚合相鄰車輛的特征。文獻(xiàn)[14]~文獻(xiàn)[16]基于注意力機(jī)制加權(quán)聚合鄰近車輛的相互影響,重點(diǎn)關(guān)注對(duì)目標(biāo)車輛具有更高影響力的鄰近車輛。與“社交池化”方法和基于圖的方法相比,基于注意力機(jī)制的方法可以更好地解釋運(yùn)動(dòng)車輛間的空間交互。

        此外,上述所有方法只考慮歷史軌跡編碼階段車輛間的交互,而在預(yù)測(cè)階段建模鄰近車輛的影響至關(guān)重要。

        文獻(xiàn)[17]、文獻(xiàn)[18]利用基于注意力機(jī)制的GNN變體——圖注意力網(wǎng)絡(luò)(Graph Attention Network,GAT)建模道路目標(biāo)間的交互。Brody等[19]從概念上證明了GAT計(jì)算的是靜態(tài)注意力,并提出了基于動(dòng)態(tài)注意力機(jī)制的GATv2(本文稱為動(dòng)態(tài)圖注意力網(wǎng)絡(luò))。與GAT相比,動(dòng)態(tài)圖注意力網(wǎng)絡(luò)(Dynamic Graph Attention Network,DGAT)具備更強(qiáng)的圖表示能力。受此啟發(fā),本文提出一種基于編碼器-解碼器架構(gòu)的動(dòng)態(tài)圖注意力網(wǎng)絡(luò)(Encoder-Decoder Dynamic Graph Attention Network,ED-DGAT)預(yù)測(cè)車輛軌跡,模型基于RNN的變體-循環(huán)門控單元(Gate Recurrent Unit,GRU)編碼單一車輛運(yùn)動(dòng)的時(shí)間相關(guān)性,設(shè)計(jì)基于DGAT的交互建模模塊,利用DGAT聚合GRU的隱藏狀態(tài)并以此編碼相鄰車輛的歷史運(yùn)動(dòng)狀態(tài),在GRU解碼階段的每一時(shí)間幀使用狀態(tài)簡(jiǎn)化DGAT捕獲車輛間的空間交互。

        2 軌跡預(yù)測(cè)問(wèn)題描述

        本文的目標(biāo)是根據(jù)高速公路場(chǎng)景中目標(biāo)車輛與鄰近車輛的歷史軌跡信息,預(yù)測(cè)得到車輛的未來(lái)軌跡。車輛的歷史軌跡可以使用一系列離散的點(diǎn)描述,本文所提出算法模型的輸入為:

        [X=xTobs-th,xTobs-th+1,…,xTobs] " " " " " " " " " "(1)

        式中:n為道路中車輛數(shù)量,Tobs為道路場(chǎng)景的觀察時(shí)刻,th為歷史軌跡時(shí)長(zhǎng),xt=(x0t,x1t,…,xnt)為t時(shí)刻道路所有車輛的位置信息,xit為車輛i在t時(shí)刻的坐標(biāo)。

        與之前的工作[5,7]只預(yù)測(cè)單一車輛的未來(lái)軌跡不同,本文選擇一次性預(yù)測(cè)道路場(chǎng)景中所有車輛的未來(lái)軌跡:

        [Y=y1,y2,…,ytf] " " " " " " " " " " " " " " (2)

        式中:tf為預(yù)測(cè)時(shí)長(zhǎng),yt=(y0t,y1t,…,ynt)為未來(lái)時(shí)刻t道路中所有車輛的位置信息,yit為車輛i在t時(shí)刻的坐標(biāo)。

        相應(yīng)地,使用[Y=y1,y2,…,ytf]表示模型的輸出,其中,[yt]為未來(lái)時(shí)刻t道路中所有車輛位置的預(yù)測(cè)值,使用[yti]表示t時(shí)刻車輛i坐標(biāo)的預(yù)測(cè)值。

        3 模型設(shè)計(jì)

        本文所提出的算法模型ED-DGAT由歷史軌跡編碼模塊、交互編碼模塊和預(yù)測(cè)解碼模塊組成,具體結(jié)構(gòu)如圖1所示。歷史軌跡編碼模塊基于GRU編碼單一車輛的歷史軌跡,交互編碼模塊利用DGAT提取可變數(shù)量的鄰近車輛之間的交互特征,預(yù)測(cè)解碼模塊結(jié)合單一車輛的歷史軌跡編碼與鄰近車輛的交互編碼,生成車輛的未來(lái)軌跡。

        3.1 歷史軌跡編碼模塊

        ED-DGAT模型使用雙層GRU編碼單一車輛的運(yùn)動(dòng)特征,所有車輛共享同一個(gè)GRU,GRU的隱藏維度為64。對(duì)于Tobs時(shí)刻,使用多層感知機(jī)(Multi-Layer Perceptron,MLP)編碼最近th幀的車輛軌跡,然后按時(shí)間順序輸入GRU中,最后得到隱藏狀態(tài)矩陣H:

        H=(h0,h1,…,hn) " " " " " " " " " " " " " " " "(3)

        式中:hi為車輛i的運(yùn)動(dòng)特征。

        3.2 交互編碼模塊

        在道路場(chǎng)景中,車輛的運(yùn)動(dòng)受周圍車輛的影響,這和人與人之間的社交網(wǎng)絡(luò)相似,研究人員常使用圖神經(jīng)網(wǎng)絡(luò)建模人與人之間的社交網(wǎng)絡(luò),受此啟發(fā),本文選擇使用圖神經(jīng)網(wǎng)絡(luò)的最新方法DGAT建模車輛間的交互。DGAT為不同的鄰近車輛分配不同的權(quán)重,在此基礎(chǔ)上加權(quán)聚合鄰近車輛的特征,從而更加合理地考慮周圍車輛對(duì)目標(biāo)車輛的影響。

        3.2.1 圖的構(gòu)建

        DGAT的計(jì)算過(guò)程基于圖結(jié)構(gòu),因此圖的結(jié)構(gòu)將顯著影響模型的計(jì)算效率和預(yù)測(cè)性能??紤]到車輛間的影響互不相同,本文使用有向圖G={V,E}表示道路場(chǎng)景中的車輛關(guān)系,其中V、E分別為圖的節(jié)點(diǎn)集和邊集。

        定義1(有向圖):對(duì)于圖G={V,E},設(shè)圖中節(jié)點(diǎn)數(shù)量為m,則節(jié)點(diǎn)集V={1,…,m},邊集E={e0,0,e0,1,…,ei,j,…,em,m}?V×V表示V中任意2個(gè)節(jié)點(diǎn)之間的邊,其中ei,j表示從節(jié)點(diǎn)i到節(jié)點(diǎn)j的邊。若從節(jié)點(diǎn)i到節(jié)點(diǎn)j的邊與從節(jié)點(diǎn)j到節(jié)點(diǎn)i的邊不相等,則圖G為一個(gè)有向圖。

        如果圖只包含自連接,模型的性能理論上應(yīng)與無(wú)交互建模的模型相似。而如果采用全連接的方式,將會(huì)導(dǎo)致冗余連接,隨著圖中節(jié)點(diǎn)的數(shù)量增加,冗余連接將呈指數(shù)增長(zhǎng),嚴(yán)重影響模型的計(jì)算效率。因此,本文所構(gòu)建的圖神經(jīng)網(wǎng)絡(luò)為鄰居節(jié)點(diǎn)指向中心節(jié)點(diǎn)的星形結(jié)構(gòu)。

        節(jié)點(diǎn)集合V中的節(jié)點(diǎn)表示道路場(chǎng)景中的運(yùn)動(dòng)車輛,節(jié)點(diǎn)特征vi為車輛i的歷史軌跡編碼。此外,本文使用圖的第1個(gè)節(jié)點(diǎn)表示被預(yù)測(cè)車輛,其余節(jié)點(diǎn){1,2,…,m}表示鄰近車輛,因此邊集合表示為:

        E={ej,0}(j=0,…,m) " " " " " " " " " " " (4)

        式中:ej,0表示圖中的節(jié)點(diǎn)j和節(jié)點(diǎn)0之間存在有向邊連接,節(jié)點(diǎn)j是節(jié)點(diǎn)0的鄰居。

        道路場(chǎng)景中,車輛的距離靠近就會(huì)產(chǎn)生交互,因此本文采取距離閾值Dclose判斷2個(gè)節(jié)點(diǎn)間是否存在邊連接,如果節(jié)點(diǎn)所表示的車輛在Tobs時(shí)刻的距離小于閾值,則認(rèn)定節(jié)點(diǎn)間存在邊連接,設(shè)Dclose=50 m。圖1中,圓圈內(nèi)中心處的車輛認(rèn)定為與圈內(nèi)其他車輛存在空間交互。

        3.2.2 DGAT計(jì)算方法

        DGAT基于自注意力機(jī)制加權(quán)聚合鄰居節(jié)點(diǎn)的特征,并用于更新節(jié)點(diǎn)自身。DGAT的輸入為歷史軌跡的編碼H,模型輸出為[H′=(h′0,h′1,…,h′n)]。圖神經(jīng)網(wǎng)絡(luò)中節(jié)點(diǎn)對(duì)(節(jié)點(diǎn)i與節(jié)點(diǎn)j)間的注意力系數(shù)為:

        [αi,j=soft max(e(hi,hj))=exp(e(hi,hj))k∈Niexp(e(hi,hk))] " " " " " (5)

        式中:αij為節(jié)點(diǎn)i對(duì)節(jié)點(diǎn)j的注意力系數(shù);Ni為圖神經(jīng)網(wǎng)絡(luò)中節(jié)點(diǎn)i的鄰居節(jié)點(diǎn)集合;e為評(píng)分函數(shù),用于計(jì)算每條邊的初始分?jǐn)?shù);softmax函數(shù)用于歸一化節(jié)點(diǎn)i所有鄰居節(jié)點(diǎn)的初始注意力系數(shù)。

        評(píng)分函數(shù)的定義為:

        [e(hi,hj)=aT?σWhiWhj] " " " " " " " " " " (6)

        式中:||表示向量的拼接,W∈RF×F′為應(yīng)用于每個(gè)節(jié)點(diǎn)的共享線性變換的權(quán)重矩陣,F(xiàn)、F′分別為DGAT輸入、輸出的維度,a∈R2F′為單層前饋神經(jīng)網(wǎng)絡(luò)的權(quán)重矩陣,σ為非線性激活函數(shù)LeakyReLU。

        得到節(jié)點(diǎn)對(duì)其鄰居節(jié)點(diǎn)的注意力系數(shù)后,DGAT通過(guò)加權(quán)求和鄰居節(jié)點(diǎn)的特征更新中心節(jié)點(diǎn)的特征:

        [h′i=σk∈Niaij?Whj] " " " " " " " " " " " " "(7)

        式(5)~式(7)展示了單層DGAT的計(jì)算方法。本文采用單層DGAT構(gòu)建車輛間的交互,DGAT的輸出[h′i]為鄰近車輛對(duì)車輛i的空間交互特征。此外,模型中使用了多頭注意力機(jī)制提升DGAT的性能,多頭注意力機(jī)制的數(shù)量為8。

        3.3 預(yù)測(cè)解碼模塊

        預(yù)測(cè)解碼模塊的輸入為單一車輛的動(dòng)態(tài)特征與鄰近車輛的交互特征。將歷史軌跡編碼模型的輸出H與交互編碼模塊的輸出H′輸入到2個(gè)不同的MLP中,并將輸出拼接,以此融合車輛的運(yùn)動(dòng)模式與空間交互特征。具體計(jì)算流程為:

        [hi=δ1(hi)] " " " " " " " " " " " " " " " " "(8)

        [gi=δ2(h′i)] " " nbsp; " " " " " " " " " " " " " "(9)

        [di=higi] " " " " " " " " " " " " " " " "(10)

        式中:δ1、δ2分別為編碼H與H′的3層MLP,使用ReLU激活函數(shù),δ1的隱含層維度為128和64,δ2的隱含層維度為256和128;[hi]、gi分別為δ1、δ2的編碼輸出,維度分別為32和64;di為車輛i的解碼輸入。

        與歷史編碼器相似,本文采用雙層GRU作為預(yù)測(cè)解碼模塊的骨干網(wǎng)絡(luò),同時(shí)采用狀態(tài)簡(jiǎn)化的DGAT(使用D-DGAT表示解碼模塊所使用的DGAT)建模預(yù)測(cè)階段車輛間的交互。與編碼動(dòng)態(tài)圖注意力(Encoder Dynamic Graph Attention Network,E-DGAT)不同,解碼動(dòng)態(tài)圖注意力(Decoder Dynamic Graph Attention Network,D-DGAT)不再計(jì)算目標(biāo)節(jié)點(diǎn)對(duì)鄰居節(jié)點(diǎn)的注意力系數(shù),而是直接采用E-DGAT計(jì)算的注意力系數(shù)。D-DGAT的輸入為t時(shí)刻目標(biāo)車輛與鄰近車輛的坐標(biāo)。具體計(jì)算流程為:

        [γt-1i=η1(yt-1i)] " " " " " " " " " " " " " " "(11)

        [γt-1i=σk∈Niaij?Wdγt-1i] " " " " " " " " " " "(12)

        [gt-1i=δ3(γt-1i)] " " " " " " " " " " " " " " "(13)

        式中:η1為與歷史軌跡編碼模塊中相同的單層MLP,使用ReLU激活函數(shù),輸出維度為32;γjt-1為鄰近車輛j在(t-1)時(shí)刻位置的編碼;Wd為線性變換函數(shù)的權(quán)重矩陣;[γt-1i]為車輛i在(t-1)時(shí)刻的空間交互特征;δ3為3層MLP,使用ReLU激活函數(shù),隱含層維度為256和128;[gt-1i]為δ3的輸出,維度為64。

        解碼GRU的隱藏狀態(tài)初始化為零,輸入包括編碼GRU的隱藏狀態(tài)、交互編碼模塊的輸出、上一時(shí)間幀目標(biāo)車輛的位置坐標(biāo)、上一時(shí)間幀鄰近車輛的交互編碼。當(dāng)前時(shí)刻解碼模塊的計(jì)算方法為:

        [mti=Φ(di,yt-1i,gt-1i)] " " " " " " " " " " " " "(14)

        [yti=η2(mti)] " " " " " " " " " " " " " " " " "(15)

        式中:Ф為解碼GRU,隱藏維度為128;mit為車輛i在時(shí)刻t的GRU隱藏狀態(tài);η2為單層MLP。

        具體而言,第1個(gè)解碼步驟中使用Tobs時(shí)刻的車輛坐標(biāo)作為輸入,當(dāng)前時(shí)間步的輸出用作下一時(shí)間步解碼GRU的輸入。對(duì)應(yīng)的解碼步驟循環(huán)tf次,得到所有車輛的未來(lái)軌跡。

        3.4 模型訓(xùn)練策略

        本文使用Adam作為優(yōu)化器訓(xùn)練網(wǎng)絡(luò),學(xué)習(xí)率為0.001,模型每次訓(xùn)練1個(gè)駕駛場(chǎng)景,即批大?。˙atchsize)設(shè)置為1,共訓(xùn)練5代(Epoch)。

        3.5 損失函數(shù)

        本文提出的模型使用預(yù)測(cè)得到的軌跡輸出和軌跡真值計(jì)算損失。與文獻(xiàn)[7]相似,本文使用均方誤差作為損失函數(shù):

        [L=1ni∈nYi-Yi2] " " " " " " " " " (16)

        式中:Y為車輛i的真實(shí)未來(lái)軌跡,[Yi]為模型預(yù)測(cè)結(jié)果。

        4 試驗(yàn)分析

        4.1 環(huán)境配置

        本文所有試驗(yàn)均在同一服務(wù)器上完成,具體硬件配置如表1所示。所有試驗(yàn)均基于Python語(yǔ)言和深度學(xué)習(xí)框架Pytorch實(shí)現(xiàn),其中圖神經(jīng)網(wǎng)絡(luò)相關(guān)試驗(yàn)基于深度圖譜庫(kù)(Deep Graph Library,DGL)[20]開(kāi)源框架實(shí)現(xiàn)。

        4.2 數(shù)據(jù)集

        本文選擇在NGSIM數(shù)據(jù)集上評(píng)估所提出的算法模型。NGSIM數(shù)據(jù)集廣泛用于車輛軌跡預(yù)測(cè),分為us-101[21]和i-80[22]2個(gè)部分,分別在長(zhǎng)度為640 m和503 m的高速公路中以10 Hz的頻率采集的總時(shí)長(zhǎng)為45 min的真實(shí)車輛軌跡。將數(shù)據(jù)集分為訓(xùn)練集、驗(yàn)證集和測(cè)試集,比例為7∶1∶2。從數(shù)據(jù)集中選取連續(xù)的8 s片段,前3 s用作觀察的軌跡歷史,后5 s作為被預(yù)測(cè)的真實(shí)軌跡。與Deo等[6-7,11]相同,對(duì)數(shù)據(jù)進(jìn)行下采樣,采樣頻率為5 Hz。

        4.3 評(píng)價(jià)指標(biāo)

        本文試驗(yàn)采用均方根誤差(Root Mean Squared Error,RMSE)評(píng)估模型性能:

        [ermse=i∈nt∈1,2,…,tfyti-yti2n?tf] " " " " " " " " " (17)

        4.4 定量結(jié)果與分析

        將本文提出的ED-DGAT模型與對(duì)比模型進(jìn)行對(duì)比驗(yàn)證。對(duì)比模型包括單一長(zhǎng)短時(shí)記憶(Vanilla LSTM,V-LSTM)、聯(lián)合社交池化與長(zhǎng)短時(shí)記憶(Social LSTM,S-LSTM)[23]、聯(lián)合卷積社交池化與長(zhǎng)短時(shí)記憶(LSTM with Convolutional Social pooling,CS-LSTM)、E-DGAT、編碼-解碼圖卷積(Encoder-Decoder Graph Convolutional Network,ED-GCN)、編碼-解碼圖注意力(Encoder-Decoder Graph Attention Network,ED-GAT),表2提供了上述模型在NGSIM數(shù)據(jù)集上預(yù)測(cè)時(shí)長(zhǎng)分別為1~5 s的RMSE指標(biāo)。

        由表2可知,與CS-LSTM模型相比,預(yù)測(cè)的車輛軌跡在5 s時(shí)長(zhǎng)上的RMSE評(píng)價(jià)指標(biāo)降低了25%。比較使用GAT作為圖聚合方式的ED-GAT模型與使用池化方案的S-LSTM模型、CS-LSTM模型和使用GCN作為圖聚合方式的ED-GCN模型,ED-GAT模型的RMSE最低,驗(yàn)證了基于注意力機(jī)制的交互建模方法可以更好地理解運(yùn)動(dòng)車輛間的空間交互。使用DGAT作為圖聚合方式的ED-DGAT模型的預(yù)測(cè)誤差進(jìn)一步下降,原因在于:道路場(chǎng)景中車輛間空間交互的復(fù)雜程度高,DGAT的圖表示能力更強(qiáng),更加適用于車輛軌跡預(yù)測(cè)領(lǐng)域。ED-DGAT模型與E-DGAT模型的試驗(yàn)結(jié)果表明,在預(yù)測(cè)階段建模車輛之間的交互可以有效提升模型的預(yù)測(cè)性能。

        4.4 定性結(jié)果與分析

        為了更好地理解DGAT在提高車輛間空間交互建模方面的貢獻(xiàn),本文對(duì)同一道路場(chǎng)景下不同車輛ED-DGAT模型的預(yù)測(cè)結(jié)果進(jìn)行可視化,如圖2所示。由圖2可知,在高速公路場(chǎng)景中,同一車道的后方車輛跟隨前方車輛行駛,對(duì)于變道車輛而言,以避免碰撞為原則匯入目標(biāo)車道。圖2中,對(duì)于直行車輛,ED-DGAT模型能有效捕捉車輛間的跟隨行為,對(duì)于變道車輛,ED-DGAT模型能有效識(shí)別車輛的變道意圖。對(duì)于直行車輛和變道車輛,ED-DGAT模型都能捕獲車輛軌跡的細(xì)節(jié),得到更加貼近真實(shí)場(chǎng)景的預(yù)測(cè)結(jié)果。

        4.5 消融試驗(yàn)

        本文將Dclose設(shè)置為不同值,探討其對(duì)模型性能的影響,試驗(yàn)結(jié)果如圖3所示。從圖3中可以看出,相較于Dclose=0,Dclosegt;0時(shí)預(yù)測(cè)結(jié)果的5 s RMSE顯著降低,原因在于:Dclose=0時(shí)目標(biāo)車輛不考慮鄰近車輛的影響,模型等同于使用單一GRU的編碼器-解碼器結(jié)構(gòu)。上述結(jié)果表明,建模車輛間的交互能有效降低模型的預(yù)測(cè)誤差。對(duì)比Dclose=100 m與Dclose=50 m模型的性能,Dclose=100 m時(shí)模型的RMSE較低,原因在于:考慮較大的Dclose閾值,模型會(huì)考慮更多鄰近車輛對(duì)目標(biāo)車輛的影響。然而,Dclose為100 m時(shí)RMSE只在Dclose為50 m的基礎(chǔ)上略有降低,原因在于:當(dāng)Dclosegt;50 m時(shí),模型已經(jīng)充分考慮了對(duì)目標(biāo)車輛影響最大的鄰近車輛,此時(shí)再增大Dclose,模型雖然會(huì)考慮更多的鄰近車輛對(duì)目標(biāo)車輛的影響,但這些車輛距離目標(biāo)車輛較遠(yuǎn),對(duì)目標(biāo)車輛的影響遠(yuǎn)低于近距離車輛。此外,考慮更大的Dclose,DGAT的計(jì)算量將會(huì)大幅度增長(zhǎng)。綜合考慮,本文采用Dclose=50 m作為試驗(yàn)的基本設(shè)置。

        4.6 實(shí)時(shí)性分析

        衡量車輛軌跡預(yù)測(cè)模型的標(biāo)準(zhǔn)除預(yù)測(cè)軌跡的誤差外,還應(yīng)關(guān)注模型的計(jì)算效率。石振周[24]等驗(yàn)證了模型推理時(shí)間在40 ms內(nèi)即可滿足實(shí)時(shí)性要求??紤]到自動(dòng)駕駛應(yīng)用場(chǎng)景中,一般使用嵌入式平臺(tái)運(yùn)行模型,計(jì)算資源有限,本文在單塊GPU上驗(yàn)證算法模型,模擬實(shí)際駕駛場(chǎng)景中的車輛軌跡預(yù)測(cè)。表3為本文所用模型的推理時(shí)長(zhǎng),本文所提出的ED-DGAT模型推理速度是CS-LSTM模型推理速度的2.61倍。

        5 結(jié)束語(yǔ)

        本文提出了一種基于DGAT建模車輛交互的ED-DGAT模型,用于預(yù)測(cè)高速公路場(chǎng)景中車輛的未來(lái)軌跡。DGAT基于動(dòng)態(tài)注意力機(jī)制,有效解決了GAT無(wú)法有效捕捉車輛間空間交互的問(wèn)題。定量試驗(yàn)驗(yàn)證所提出模型的性能,并探究了在模型解碼階段同時(shí)建模車輛間交互對(duì)預(yù)測(cè)結(jié)果的影響。定性試驗(yàn)結(jié)果表明,本文所提出的模型能夠預(yù)測(cè)得到更加真實(shí)的車輛未來(lái)運(yùn)動(dòng)軌跡。NGSIM數(shù)據(jù)集上的試驗(yàn)結(jié)果表明,本文提出的模型與現(xiàn)有軌跡預(yù)測(cè)方法CS-LSTM相比RMSE評(píng)價(jià)指標(biāo)下降了25%,并且推理速度為CS-LSTM模型的2.61倍。

        參 考 文 獻(xiàn)

        [1] AMMOUN S, NASHASHIBI F. Real Time Trajectory " " " "Prediction for Collision Risk Estimation between Vehicles[C]// 2009 IEEE 5th International Conference on Intelligent Computer Communication and Processing. Cluj-Napoca, " Romania: IEEE, 2009: 417-422.

        [2] LAUGIER C, PAROMTCHIK I E, PERROLLAZ M, et al. Probabilistic Analysis of Dynamic Scenes and Collision Risks Assessment to Improve Driving Safety[J]. IEEE " " " " Intelligent Transportation Systems Magazine, 2011, 3(4): 4-19.

        [3] EIDEHALL A, PETERSSON L. Statistical Threat Assessment for General Road Scenes Using Monte Carlo Sampling[J]. IEEE Transactions on Intelligent Transportation " " " " Systems, 2008, 9(1): 137-147.

        [4] AOUDE G S, DESARAJU V R, STEPHENS L H, et al. " "Driver Behavior Classification at Intersections and Validation on Large Naturalistic Data Set[J]. IEEE Transactions on Intelligent Transportation Systems, 2012, 13(2): 724-736.

        [5] DEO N, TRIVEDI M M. Multi-Modal Trajectory Prediction of Surrounding Vehicles with Maneuver Based LSTMs[C]// 2018 IEEE Intelligent Vehicles Symposium (IV). Changshu, China: IEEE, 2018: 1179-1184.

        [6] ALTCHé F, DE LA FORTELLE A. An LSTM Network for Highway Trajectory Prediction[C]// 2017 IEEE 20th " " " " " International Conference on Intelligent Transportation " " "Systems (ITSC). Yokohama, Japan: IEEE, 2017: 353-359.

        [7] DEO N, TRIVEDI M M. Convolutional Social Pooling for " Vehicle Trajectory Prediction[C]// 2018 IEEE/CVF " " " " " Conference on Computer Vision and Pattern Recognition Workshops (CVPRW). Salt Lake City, UT, USA: IEEE, 2018: 1468-1476.

        [8] CHEN L, ZHOU Q Y, CAI Y F, et al. CAE-GAN: A Hybrid Model for Vehicle Trajectory Prediction[J]. IET Intelligent Transport Systems, 2022, 16(12): 1682-1696.

        [9] 黃玲, 崔躦, 游峰, 等. 適用于多車交互場(chǎng)景的車輛軌跡預(yù)測(cè)模型[J/OL]. 吉林大學(xué)學(xué)報(bào)(工學(xué)版): 1-10(2022-12-07)[2023-08-21]. https://doi.org/10.13229/j.cnki.jdxbgxb20220728.

        HUANG L, CUI Z, YOU F, et al. Vehicle Trajectory " " " " Prediction Model for Multi-Vehicle Interaction Scenario[J/OL]. Journal of Jilin University (Engineering and Technology Edition): 1-10(2022-12-07)[2023-08-21]. https://doi.org/10.13229/j.cnki.jdxbgxb20220728.

        [10] LIANG M, YANG B, HU R, et al. Learning Lane Graph Representations for Motion Forecasting[C]// European " "Conference on Computer Vision. Glasgow, Scotland, UK: Springer, Cham, 2020: 541-556.

        [11] LI X, YING X W, CHUAH M C. Grip++: Enhanced Graph-Based Interaction-Aware Trajectory Prediction for " " " " " "Autonomous Driving[EB/OL]. (2020-05-19)[2023-08-22]. https://arxiv.org/abs/1907.07792.

        [12] GILLES T, SABATINI S, TSISHKOU D, et al. GOHOME: Graph-Oriented Heatmap Output for Future Motion " " " "Estimation[C]// 2022 International Conference on Robotics and Automation (ICRA). Philadelphia, PA, USA: IEEE, 2022: 9107-9114.

        [13] 趙樹(shù)恩, 蘇天彬, 趙東宇. 基于圖神經(jīng)網(wǎng)絡(luò)的交互車輛駕駛意圖識(shí)別及軌跡預(yù)測(cè)[J]. 汽車技術(shù), 2023(7): 24-30.

        ZHAO S E, SU T B, ZHAO D Y. Interactive Vehicle " " "Driving Intention Recognition and Trajectory Prediction Based on Graph Neural Network[J]. Automobile " " " " " " " Technology, 2023(7): 24-30

        [14] ZHOU Z K, YE L Y, WANG J P, et al. HiVT: Hierarchical Vector Transformer for Multi-Agent Motion Prediction[C]// 2022 IEEE/CVF Conference on Computer Vision and " " Pattern Recognition. New Orleans, LA, USA: IEEE, 2022: 8823-8833.

        [15] 李文禮, 韓迪, 石曉輝, 等. 基于時(shí)-空注意力機(jī)制的車輛軌跡預(yù)測(cè)[J]. 中國(guó)公路學(xué)報(bào), 2023, 36(1): 226-239.

        LI W L, HAN D, SHI X H, et al. Vehicle Trajectory " " " " Prediction Based on Spatial-Temporal Attention " " " " " "Mechanism[J]. China Journal of Highway and Transport, 2023, 36(1): 226-239.

        [16] 連靜, 丁榮琪, 李琳輝, 等. 基于圖模型和注意力機(jī)制的車輛軌跡預(yù)測(cè)方法[J]. 兵工學(xué)報(bào), 2023, 44(7): 2162-2170.

        LIAN J, DING R Q, LI L H, et al. Vehicle Trajectory " " "Prediction Method Based on Graph Models and Attention Mechanism[J]. Acta Armamentarii, 2023, 44(7): 2162-2170.

        [17] KOSARAJU V, SADEGHIAN A, MARTíN-MARTíN R, et al. Social-BiGAT: Multimodal Trajectory Forecasting " " "Using Bicycle-GAN and Graph Attention Networks[C]// Advances in Neural Information Processing Systems 2019. Vancouver, British Columbia, Canada: IEEE, 2019.

        [18] 曾偉良, 陳漪皓, 姚若愚, 等. 時(shí)空?qǐng)D注意力網(wǎng)絡(luò)在交叉口車輛軌跡預(yù)測(cè)的應(yīng)用[J]. 計(jì)算機(jī)科學(xué), 2021, 48(增刊1): 334-341.

        ZENG W L, CHEN Y H, YAO R Y, et al. Application of Spatial-Temporal Graph Attention Networks in Trajectory Prediction for Vehicles at Intersections[J]. Computer " " " Science, 2021, 48(S1): 334-341.

        [19] BRODY S, ALON U, YAHAV E. How Attentive Are Graph Attention Networks?[EB/OL]. (2022-01-31)[2023-08-22]. https://arxiv.org/abs/2105.14491

        [20] WANG M J, ZHENG D, YE Z H, et al. Deep Graph " " " " "Library: A Graph-Centric, Highly-Performant Package for Graph Neural Networks[EB/OL]. (2020-08-25)[2023-08-22]. https://arxiv.org/abs/1909.01315v2.

        [21] COLYAR J, HALKIAS J. US Highway 101 Dataset: " " " " FHWA-HRT-07-030[R]. Washington, DC: U.S. " " " " " " " "Department of Transportation (USDOT), 2007.

        [22] COLYAR J, HALKIAS J. US Highway I-80 Dataset: " " " FHWA-HRT-07-030[R]. Washington, DC: U.S. " " " " " " Department of Transportation (USDOT), 2007.

        [23] ALAHI A, GOEL K, RAMANATHAN V, et al. Social LSTM: Human Trajectory Prediction in Crowded Spaces[C]// 2016 IEEE Conference on Computer Vision and " " Pattern Recognition. Las Vegas, NV, USA: IEEE, 2016: 961-971.

        [24] 石振周. 基于車道線信息的多目標(biāo)軌跡預(yù)測(cè)[D]. 大連: 大連理工大學(xué), 2022.

        SHI Z Z. Multi-Objective Trajectory Prediction Based on Lane Information[D]. Dalian: Dalian University of " " " " " Technology, 2022.

        (責(zé)任編輯 斛 畔)

        修改稿收到日期為2023年8月22日。

        猜你喜歡
        模型
        一半模型
        一種去中心化的域名服務(wù)本地化模型
        適用于BDS-3 PPP的隨機(jī)模型
        提煉模型 突破難點(diǎn)
        函數(shù)模型及應(yīng)用
        p150Glued在帕金森病模型中的表達(dá)及分布
        函數(shù)模型及應(yīng)用
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
        3D打印中的模型分割與打包
        在线视频一区色| 成 人片 黄 色 大 片| 国产av无毛无遮挡网站| 久久国产成人午夜av免费影院| 久久天天躁夜夜躁狠狠85麻豆| 国产69精品久久久久777| 激情综合一区二区三区| 无码电影在线观看一区二区三区| АⅤ天堂中文在线网| 少妇被啪出水在线视频| 日本亚洲国产精品久久| 欧美黑吊大战白妞| 中文人妻无码一区二区三区| 黄片一级二级三级四级| 中文字幕av人妻少妇一区二区| 高潮潮喷奶水飞溅视频无码| 大肉大捧一进一出好爽视频mba| 天天草夜夜草| 国产免费精品一品二区三| www国产亚洲精品久久麻豆| 国自产偷精品不卡在线| 无码一区二区三区网站| 色老板在线免费观看视频日麻批| 午夜少妇高潮在线观看| 玩弄放荡人妻少妇系列| 亚洲欧洲日产国码久在线观看| 国产精品久久夜伦鲁鲁| 久久精品熟女亚洲av麻豆永永| 国产国产裸模裸模私拍视频| 性夜影院爽黄a爽在线看香蕉| 天堂视频一区二区免费在线观看 | 少妇高潮惨叫喷水在线观看| 亚洲欧美日韩国产一区二区精品| 美女把内衣内裤脱了给男人舔| 国产亚洲精品国产精品| 亚洲欧美一区二区三区在线| 麻豆国产乱人伦精品一区二区| 国产精品夜色视频久久| 成人免费xxxxx在线观看| 91亚洲无码在线观看| 日韩精品视频在线一二三|