亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于圖神經(jīng)網(wǎng)絡(luò)的交互車(chē)輛駕駛意圖識(shí)別及軌跡預(yù)測(cè)*

        2023-07-26 13:33:44趙樹(shù)恩蘇天彬趙東宇
        汽車(chē)技術(shù) 2023年7期
        關(guān)鍵詞:信息模型

        趙樹(shù)恩 蘇天彬 趙東宇

        (重慶交通大學(xué),重慶 400074)

        主題詞:自動(dòng)駕駛 駕駛意圖識(shí)別 軌跡預(yù)測(cè) 圖神經(jīng)網(wǎng)絡(luò) 門(mén)控循環(huán)單元

        1 前言

        傳統(tǒng)車(chē)輛與自動(dòng)駕駛車(chē)輛混行交互場(chǎng)景中,由于駕駛?cè)艘鈭D與環(huán)境的不確定性,車(chē)輛的未來(lái)軌跡仍有多種可能性。對(duì)周?chē)?chē)輛軌跡進(jìn)行精準(zhǔn)預(yù)測(cè)有助于自動(dòng)駕駛車(chē)輛作出合理的決策規(guī)劃,進(jìn)而實(shí)現(xiàn)自動(dòng)駕駛車(chē)輛在高動(dòng)態(tài)復(fù)雜環(huán)境中的安全行駛。

        目前車(chē)輛運(yùn)動(dòng)軌跡預(yù)測(cè)方法可分為基于模型和基于數(shù)據(jù)驅(qū)動(dòng)2 種類(lèi)型[1]。M.Brannstrom 等[2]將車(chē)輛動(dòng)力學(xué)模型簡(jiǎn)化為二自由度車(chē)輛模型,根據(jù)車(chē)輛當(dāng)前狀態(tài)分析潛在的運(yùn)動(dòng)模式,生成預(yù)測(cè)軌跡。L.Rummelhard等[3]基于車(chē)輛速度和運(yùn)動(dòng)學(xué)模型預(yù)測(cè)其運(yùn)動(dòng)軌跡。A.Eidehall 等[4]基于車(chē)輛動(dòng)力學(xué)模型,采用蒙特卡羅(Monte Carlo)仿真算法從模型的輸入變量中隨機(jī)選取值生成可能的軌跡簇,并通過(guò)車(chē)輛模型約束得到可行駛的軌跡簇。

        基于數(shù)據(jù)驅(qū)動(dòng)的車(chē)輛軌跡預(yù)測(cè)主要采用基于神經(jīng)網(wǎng)絡(luò)的方法。季學(xué)武等[5]運(yùn)用深度學(xué)習(xí)方法設(shè)計(jì)了一種基于長(zhǎng)短時(shí)記憶(Long Short Term Memory,LSTM)網(wǎng)絡(luò)的駕駛意圖識(shí)別及車(chē)輛軌跡預(yù)測(cè)模型,通過(guò)混合密度網(wǎng)絡(luò)(Mixture Density Network,MDN)輸出預(yù)測(cè)軌跡分布。Xie 等[6]利用卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,CNN)在空間上的優(yōu)勢(shì)和LSTM在時(shí)間上的優(yōu)勢(shì),提出了CNN與LSTM相結(jié)合的周?chē)?chē)輛軌跡預(yù)測(cè)模型。郭景華等[7-8]提出了一種基于殘差雙向長(zhǎng)短時(shí)記憶(Residual Bidirectional Long Short Term Memory,Residual Bi-LSTM)網(wǎng)絡(luò)的車(chē)輛駕駛行為識(shí)別和軌跡預(yù)測(cè)模型。Yook 等[9]提出了一種高精地圖與深度學(xué)習(xí)模型結(jié)合的方法來(lái)提升軌跡的預(yù)測(cè)效果。高振海等[10]基于環(huán)境交互信息提出了基于單雙向長(zhǎng)短時(shí)記憶(Monodirectional and Bidirectional LSTM,MB-LSTM)的交通車(chē)輛意圖識(shí)別及軌跡預(yù)測(cè)模型,以提高長(zhǎng)時(shí)域內(nèi)軌跡的預(yù)測(cè)精度。

        綜上所述,基于車(chē)輛物理模型的軌跡預(yù)測(cè)方法適用于短時(shí)域運(yùn)動(dòng)軌跡預(yù)測(cè),但由于車(chē)輛軌跡的高度非線(xiàn)性及駕駛?cè)肆?xí)慣的多樣性,基于模型的軌跡預(yù)測(cè)方法在長(zhǎng)時(shí)域預(yù)測(cè)上難以取得令人滿(mǎn)意的精度?;跀?shù)據(jù)驅(qū)動(dòng)的軌跡預(yù)測(cè)雖能預(yù)測(cè)長(zhǎng)時(shí)域內(nèi)軌跡的變化,但未考慮被預(yù)測(cè)車(chē)輛和周?chē)?chē)輛的相互影響,其軌跡預(yù)測(cè)精度有待進(jìn)一步提升。

        為了充分理解車(chē)-車(chē)間的交互行為,提高對(duì)周?chē)?chē)輛駕駛意圖識(shí)別及軌跡預(yù)測(cè)的準(zhǔn)確性,本文基于圖采樣與聚合(Graph SAmple and aggreGatE,GraphSAGE)的圖神經(jīng)網(wǎng)絡(luò)和門(mén)控循環(huán)單元(Gated Recurrent Unit,GRU)網(wǎng)絡(luò),提出一種基于GraphSAGE-GRU 的車(chē)輛駕駛意圖識(shí)別及軌跡預(yù)測(cè)模型。通過(guò)構(gòu)建被預(yù)測(cè)車(chē)輛與其周?chē)?chē)輛之間交互的時(shí)空?qǐng)D,運(yùn)用GraphSAGE 圖神經(jīng)網(wǎng)絡(luò)識(shí)別出被預(yù)測(cè)車(chē)輛的駕駛意圖,然后采用編碼-解碼的GRU網(wǎng)絡(luò),構(gòu)建考慮駕駛意圖的軌跡預(yù)測(cè)模型。

        2 周?chē)?chē)輛軌跡預(yù)測(cè)框架

        圖1 所示為傳統(tǒng)駕駛與自動(dòng)駕駛多車(chē)混行匯流場(chǎng)景示意。

        圖1 高速混行匯流場(chǎng)景示意

        為了更好地作出決策,自動(dòng)駕駛車(chē)輛S4需要對(duì)周?chē)?chē)輛進(jìn)行駕駛意圖識(shí)別和軌跡預(yù)測(cè)。假設(shè)自動(dòng)駕駛車(chē)輛對(duì)周?chē)?chē)輛S0進(jìn)行駕駛意圖識(shí)別和軌跡預(yù)測(cè)時(shí),被預(yù)測(cè)車(chē)輛S0的駕駛意圖和軌跡受到其左前車(chē)S1、左后車(chē)S2、前車(chē)S3、后車(chē)S4、右前車(chē)S5、右后車(chē)S6的直接交互影響。因此,以被預(yù)測(cè)車(chē)輛S0及與其存在交互影響的車(chē)輛的狀態(tài)參數(shù)作為駕駛意圖識(shí)別和軌跡預(yù)測(cè)模型的輸入,輸出為車(chē)輛的預(yù)測(cè)軌跡,即

        式中,I(t)為被預(yù)測(cè)車(chē)輛及與其存在交互的車(chē)輛的歷史狀態(tài)參數(shù)矩陣;Si(t)為t時(shí)刻i位置車(chē)輛狀態(tài)信息;i=1,2,3,4,5,6分別表示左前、左后、前、后、右前、右后位置;x(t)、y(t)分別為t時(shí)刻車(chē)輛橫、縱向坐標(biāo);v(t)為t時(shí)刻車(chē)輛絕對(duì)速度;a(t)為t時(shí)刻車(chē)輛加速度;L、LW分別為車(chē)輛長(zhǎng)度、寬度;T為當(dāng)前時(shí)刻;TP為歷史時(shí)域;為t1時(shí)刻預(yù)測(cè)的軌跡坐標(biāo);分別為t1時(shí)刻預(yù)測(cè)的橫、縱向坐標(biāo);TF為預(yù)測(cè)時(shí)域。

        在實(shí)際行駛過(guò)程中,t時(shí)刻i位置被預(yù)測(cè)車(chē)輛的周?chē)赡艽嬖跊](méi)有車(chē)輛的情況,則可默認(rèn)t時(shí)刻i位置的車(chē)輛與被預(yù)測(cè)車(chē)輛的距離為無(wú)窮大,將t時(shí)刻i位置車(chē)輛狀態(tài)參數(shù)設(shè)為Si(t)=[10 000,10 000,0,0,0,0]。

        由圖1 可以看出,車(chē)-車(chē)間的動(dòng)態(tài)交互特性具有時(shí)空關(guān)聯(lián)關(guān)系。將車(chē)輛視為“節(jié)點(diǎn)”,則車(chē)-車(chē)間的交互關(guān)系即為連接節(jié)點(diǎn)的“邊”,從而,多車(chē)間動(dòng)態(tài)交互特性就構(gòu)成了無(wú)向圖(Undirected Graph)網(wǎng)絡(luò)結(jié)構(gòu)。

        本文運(yùn)用圖神經(jīng)網(wǎng)絡(luò)和門(mén)控循環(huán)單元理論,提出基于圖神經(jīng)網(wǎng)絡(luò)和門(mén)控循環(huán)單元的周?chē)?chē)輛駕駛意圖識(shí)別和軌跡預(yù)測(cè)模型,模型架構(gòu)如圖2所示。該模型主要包括駕駛意圖識(shí)別模塊和軌跡預(yù)測(cè)模塊。其中駕駛意圖識(shí)別模塊首先將多車(chē)動(dòng)態(tài)交互場(chǎng)景內(nèi)車(chē)-車(chē)間的運(yùn)動(dòng)狀態(tài)描述為時(shí)空?qǐng)D的形式,運(yùn)用GraphSAGE 圖神經(jīng)網(wǎng)絡(luò)理論對(duì)時(shí)空?qǐng)D中車(chē)輛的運(yùn)動(dòng)狀態(tài)進(jìn)行推理,進(jìn)而識(shí)別出周?chē)?chē)輛的駕駛意圖。軌跡預(yù)測(cè)模塊由GRU網(wǎng)絡(luò)構(gòu)建的軌跡編碼器和解碼器組成。編碼器對(duì)歷史軌跡進(jìn)行編碼,并將編碼信息和駕駛意圖向量共同輸入解碼器,最終得到考慮駕駛意圖的周?chē)?chē)輛預(yù)測(cè)軌跡。

        圖2 基于圖神經(jīng)網(wǎng)絡(luò)與門(mén)控循環(huán)單元的周?chē)?chē)輛軌跡預(yù)測(cè)框架

        3 基于GraphSAGE的車(chē)輛駕駛意圖識(shí)別

        3.1 車(chē)輛動(dòng)態(tài)交互時(shí)空關(guān)聯(lián)關(guān)系

        結(jié)合圖1所示的復(fù)雜交通場(chǎng)景,建立描述多車(chē)間交互關(guān)系的時(shí)空關(guān)聯(lián)圖,如圖3所示。將車(chē)輛作為“節(jié)點(diǎn)”,根據(jù)同一時(shí)刻車(chē)輛的空間位置確定多車(chē)交互關(guān)系的“邊”。從而,多車(chē)動(dòng)態(tài)交互特性即可描述為無(wú)向圖網(wǎng)絡(luò)結(jié)構(gòu),即G=(V,E)。其中,為車(chē)輛“節(jié)點(diǎn)”的集合;為車(chē)車(chē)間關(guān)聯(lián)關(guān)系“邊”的集合,為連接2個(gè)節(jié)點(diǎn)的“邊”。

        圖3 車(chē)輛動(dòng)態(tài)交互時(shí)空?qǐng)D

        將“節(jié)點(diǎn)”的特征矩陣H和“邊”的鄰接矩陣A作為圖神經(jīng)網(wǎng)絡(luò)的輸入,交互規(guī)律信息hG為圖神經(jīng)網(wǎng)絡(luò)輸出。其中,特征矩陣的變量分別為不同時(shí)刻交互車(chē)輛的位置(x(t),y(t))、速度v(t)、加速度a(t)、長(zhǎng)度L、寬度LW等動(dòng)靜態(tài)特征變量,用特征矩陣H0表示:

        式中,d(Si(n),Sj(k))為同一時(shí)刻2 個(gè)節(jié)點(diǎn)的歐式距離;d0=50 m為距離閾值。

        3.2 基于GraphSAGE網(wǎng)絡(luò)的駕駛意圖識(shí)別

        駕駛意圖識(shí)別模型如圖4所示。

        圖4 基于GraphSAGE網(wǎng)絡(luò)的駕駛意圖識(shí)別模型

        車(chē)輛動(dòng)態(tài)交互時(shí)空?qǐng)D的特征矩陣H0和鄰接矩陣A作為GraphSAGE[11]圖神經(jīng)網(wǎng)絡(luò)的輸入,經(jīng)過(guò)2 層Graph?SAGE 圖神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí),得到車(chē)-車(chē)間的交互規(guī)律信息hG,再經(jīng)過(guò)全連接層的映射和Softmax函數(shù)的計(jì)算,即可得到車(chē)輛向左換道、直行或向右換道的駕駛意圖概率,進(jìn)而實(shí)現(xiàn)對(duì)車(chē)輛駕駛意圖的識(shí)別。主要步驟如下:

        式中,fGraphSAGE()為GraphSAGE圖神經(jīng)網(wǎng)絡(luò)函數(shù);fFC()為全連接網(wǎng)絡(luò)函數(shù);hFC為全連接層映射的信息;wFC為全連接層的權(quán)重;b為全連接層的偏置參數(shù);P為輸出的概率矩陣;P1、P2、P3分別為周?chē)?chē)輛左換道、直行、右換道的概率。

        基于GraphSAGE的駕駛意圖識(shí)別算法偽代碼為:

        其中,Hv0為輸入的節(jié)點(diǎn)v的特征;K為GraphSAGE網(wǎng)絡(luò)的層數(shù);Wk為k層GraphSAGE網(wǎng)絡(luò)中的權(quán)重參數(shù)矩陣;σ為非線(xiàn)性激活函數(shù);AGGREGATEk為鄰居節(jié)點(diǎn)特征的聚合函數(shù);N為鄰居節(jié)點(diǎn)的領(lǐng)域函數(shù);為節(jié)點(diǎn)v的鄰居節(jié)點(diǎn)在(k-1)層的特征;為節(jié)點(diǎn)v的鄰居節(jié)點(diǎn)在k層聚合后的特征值;CONCAT()為將(k-1)層v節(jié)點(diǎn)的特征與k層聚合的鄰居節(jié)點(diǎn)特征拼接的函數(shù);為節(jié)點(diǎn)v在k層的特征;zv為節(jié)點(diǎn)v最終的輸出特征。

        4 考慮駕駛意圖的周?chē)?chē)輛軌跡預(yù)測(cè)模型

        為準(zhǔn)確預(yù)測(cè)長(zhǎng)短時(shí)域內(nèi)自動(dòng)駕駛周?chē)?chē)輛的行駛軌跡,本文提出了考慮車(chē)輛駕駛意圖的GRU編碼-解碼軌跡預(yù)測(cè)模型,如圖5所示。將周?chē)?chē)輛歷史軌跡特征信息輸入GRU 編碼層,對(duì)編碼信息和駕駛意圖信息進(jìn)行融合,再經(jīng)過(guò)GRU 解碼層和全連接層進(jìn)行軌跡維度調(diào)整,最后得到車(chē)輛的預(yù)測(cè)軌跡。

        圖5 基于GRU編碼-解碼的軌跡預(yù)測(cè)模型

        4.1 車(chē)輛歷史軌跡編碼

        T時(shí)刻GRU編碼器中的單元體輸入車(chē)輛軌跡信息I(T)和上一時(shí)刻歷史軌跡信息的隱含狀態(tài)he(T-1),經(jīng)過(guò)“更新門(mén)”對(duì)輸入信息進(jìn)行“丟棄”或“保留”,得到新的更新信息Ze(T),再經(jīng)過(guò)“重置門(mén)”的重置,得到重置信息Re(T),以及候選編碼隱藏信息,歷史軌跡信息編碼過(guò)程如下:

        4.2 車(chē)輛軌跡解碼

        周?chē)?chē)輛的駕駛意圖對(duì)被預(yù)測(cè)車(chē)輛軌跡的準(zhǔn)確預(yù)測(cè)至關(guān)重要?;贕raphSAGE 的駕駛意圖識(shí)別模型輸出的結(jié)果是周?chē)?chē)輛駕駛意圖的概率。為準(zhǔn)確預(yù)測(cè)長(zhǎng)短時(shí)域內(nèi)周?chē)?chē)輛的行駛軌跡,本文將駕駛意圖識(shí)別結(jié)果與GRU 編碼信息融合,作為GRU 解碼器的輸入信息。為了更好地表達(dá)駕駛意圖信息,選擇識(shí)別結(jié)果概率最大的駕駛意圖為確信類(lèi)別,令該駕駛意圖為1,其余為0。此時(shí)駕駛意圖的識(shí)別結(jié)果成為一個(gè)“獨(dú)熱編碼”向量,并將此向量與編碼的歷史軌跡信息融合,建立一個(gè)新的特征向量C(t)作為軌跡預(yù)測(cè)解碼器GRU的輸入。

        在T時(shí)刻,GRU解碼器根據(jù)當(dāng)前時(shí)刻的融合向量C(t)和上一時(shí)刻的隱藏信息hd(T-1),經(jīng)過(guò)GRU解碼器中“更新門(mén)”對(duì)融合信息進(jìn)行“丟棄”或“保留”,得到解碼更新信息Zd(T),再經(jīng)過(guò)“重置門(mén)”重置,得到解碼重置信息Rd(T),以及候選解碼信息,解碼過(guò)程如下:

        式中,WZd、WRd、UZd、URd為GRU解碼器中“更新門(mén)”和“重置門(mén)”中的參數(shù)矩陣;、為候選解碼隱藏信息的權(quán)值矩陣。

        GRU解碼器經(jīng)過(guò)對(duì)融合信息的重置、更新,解碼出當(dāng)前時(shí)刻車(chē)輛預(yù)測(cè)的軌跡信息:

        最后,為了得到不同時(shí)域的車(chē)輛預(yù)測(cè)軌跡,需要將解碼的信息經(jīng)過(guò)一層全連接層進(jìn)行軌跡維度的調(diào)整,從而映射出預(yù)測(cè)的軌跡坐標(biāo),其映射過(guò)程為:

        式中,[X(t1),Y(t1)]為預(yù)測(cè)的軌跡坐標(biāo);fFCd為輸出層的全連接網(wǎng)絡(luò)函數(shù);wFCd為全連接層的權(quán)重;bd為偏置向量。

        5 試驗(yàn)與分析

        5.1 數(shù)據(jù)處理

        本文采用美國(guó)聯(lián)邦公路局提供的NGSIM(Next Generation Simulation)的US-101 與I-80 高速公路開(kāi)源數(shù)據(jù)集,從數(shù)據(jù)集中提取交互場(chǎng)景。Deo 等[12]定義了車(chē)輛換道時(shí)間為8 s,韓皓等[13]研究了軌跡預(yù)測(cè)的最佳歷史序列長(zhǎng)度為3 s,因此,本文以當(dāng)前幀被預(yù)測(cè)車(chē)輛的坐標(biāo)為參考點(diǎn),分別提取前3 s 軌跡和后5 s 的軌跡,并將前3 s 的軌跡進(jìn)行駕駛意圖標(biāo)注,用于駕駛意圖識(shí)別模塊的訓(xùn)練與驗(yàn)證。從數(shù)據(jù)集中共提取到20 543 條左換道、31 747條直行數(shù)據(jù)、8 491條右換道。為了避免駕駛意圖識(shí)別模型訓(xùn)練時(shí)出現(xiàn)嚴(yán)重的偏向性,將標(biāo)注的樣本均衡化,即從3種標(biāo)注的類(lèi)型中各選取8 491組數(shù)據(jù),共25 473組數(shù)據(jù)作為總數(shù)據(jù)集,按照8∶2的比例隨機(jī)劃分為訓(xùn)練集和測(cè)試集,進(jìn)行預(yù)測(cè)模型的訓(xùn)練和測(cè)試。

        5.2 駕駛意圖識(shí)別試驗(yàn)結(jié)果

        為了測(cè)試本文提出的基于GraphSAGE 圖神經(jīng)網(wǎng)絡(luò)的周?chē)?chē)輛駕駛意圖識(shí)別模型的識(shí)別效果,分別選取1 698個(gè)左換道、直線(xiàn)行駛、右換道3種駕駛意圖歷史數(shù)據(jù),并與圖卷積神經(jīng)網(wǎng)絡(luò)(Graph Convolution Network,GCN)識(shí)別模型和基于LSTM[5]的駕駛意圖識(shí)別模型進(jìn)行了對(duì)比,識(shí)別效果對(duì)比結(jié)果如表1所示。

        表1 駕駛意圖識(shí)別效果對(duì)比

        由表1可以看出:GraphSAGE模型識(shí)別的總準(zhǔn)確率相較于其他2種算法分別提高了6.20百分點(diǎn)、6.57百分點(diǎn);在對(duì)直線(xiàn)行駛駕駛意圖識(shí)別中,基于GCN 和LSTM模型的識(shí)別準(zhǔn)確率均明顯小于GraphSAGE 模型的準(zhǔn)確率,車(chē)輛在行駛過(guò)程中存在一定的抖動(dòng),導(dǎo)致易將直線(xiàn)駕駛意圖誤判為換道意圖,降低了對(duì)直線(xiàn)行駛駕駛意圖識(shí)別的準(zhǔn)確率。通過(guò)GraphSAGE 圖神經(jīng)網(wǎng)絡(luò)對(duì)車(chē)車(chē)交互行為的學(xué)習(xí)推理,能更好地識(shí)別出車(chē)輛的駕駛意圖,提高意圖識(shí)別的準(zhǔn)確率。

        5.3 軌跡預(yù)測(cè)結(jié)果分析

        為了評(píng)價(jià)軌跡預(yù)測(cè)模型在預(yù)測(cè)時(shí)域5 s 內(nèi)的優(yōu)勢(shì),選擇均方根誤差(Root Mean Square Error,RMSE)Erms進(jìn)行評(píng)價(jià):

        式中,n為預(yù)測(cè)軌跡坐標(biāo)的總數(shù)量;xi、yi分別為橫向坐標(biāo)和縱向坐標(biāo)的真實(shí)值;、分別為橫向坐標(biāo)和縱向坐標(biāo)的預(yù)測(cè)值。

        對(duì)比未考慮駕駛意圖的GRU模型和未考慮駕駛意圖的LSTM模型,各軌跡預(yù)測(cè)模型的均方根誤差結(jié)果如表2所示。

        表2 均方根誤差

        從表2中可以看出,本文所建立的考慮駕駛意圖的GRU 編碼-解碼的軌跡預(yù)測(cè)模型在長(zhǎng)短時(shí)域內(nèi)對(duì)車(chē)輛未來(lái)的運(yùn)動(dòng)軌跡預(yù)測(cè)的準(zhǔn)確度最高,隨著預(yù)測(cè)時(shí)域的增加,雖然車(chē)輛未來(lái)運(yùn)動(dòng)的不確定性增加,預(yù)測(cè)誤差隨之增大,但本文的模型的均方根誤差增加緩慢,說(shuō)明考慮車(chē)輛的駕駛意圖能夠增加預(yù)測(cè)模型的語(yǔ)義信息,從而提高車(chē)輛軌跡的預(yù)測(cè)精度。

        5.4 實(shí)例分析

        被預(yù)測(cè)車(chē)輛換道時(shí),在車(chē)輛到達(dá)車(chē)道線(xiàn)前,越早識(shí)別出車(chē)輛的駕駛意圖和預(yù)測(cè)出未來(lái)的軌跡,越有利于車(chē)輛的決策。從測(cè)試集中選擇一段向左換道的車(chē)輛行駛數(shù)據(jù)進(jìn)行駕駛意圖識(shí)別和軌跡預(yù)測(cè),輸入的歷史時(shí)域?yàn)? s,預(yù)測(cè)時(shí)域?yàn)? s。圖6 所示為車(chē)輛在達(dá)到車(chē)道線(xiàn)的過(guò)程中,實(shí)時(shí)輸出的3類(lèi)駕駛意圖的概率。圖7所示為車(chē)輛在距離車(chē)道線(xiàn)2 s、1 s、0 s 時(shí)距時(shí),預(yù)測(cè)出未來(lái)5 s的軌跡。

        圖6 駕駛意圖識(shí)別結(jié)果

        圖7 軌跡預(yù)測(cè)結(jié)果

        從圖6 中可以看出,在距離車(chē)道線(xiàn)2.5 s 時(shí)距時(shí),車(chē)輛開(kāi)始進(jìn)行左換道,但是左換道駕駛意圖不明顯,此時(shí)模型識(shí)別出的左換道概率較低,隨著車(chē)輛接近車(chē)道線(xiàn),識(shí)別出的左換道駕駛意圖概率逐漸增高,在距離車(chē)道線(xiàn)2 s 時(shí)距時(shí),識(shí)別出的左換道意圖概率已經(jīng)超過(guò)了直線(xiàn)行駛概率,將其判斷為左換道意圖,在到達(dá)車(chē)道線(xiàn)時(shí),識(shí)別出的左換道駕駛意圖概率為100%,說(shuō)明基于Graph?SAGE 網(wǎng)絡(luò)的駕駛意圖識(shí)別模型能夠準(zhǔn)確識(shí)別出車(chē)輛的意圖。

        從圖7中可以看出,在距離車(chē)道線(xiàn)2 s時(shí)距時(shí),車(chē)輛已經(jīng)向左偏移,但是對(duì)于左換道軌跡編碼的信息較少,使預(yù)測(cè)的軌跡誤差較大。隨著提前預(yù)測(cè)時(shí)間的縮短,車(chē)輛越靠近車(chē)道線(xiàn),車(chē)輛換道的運(yùn)動(dòng)軌跡信息越多,預(yù)測(cè)出的換道軌跡也更加精確。同時(shí),相比其他2種模型的軌跡預(yù)測(cè)效果,增加車(chē)輛的駕駛意圖信息,能夠有效提高軌跡的預(yù)測(cè)精度。

        6 結(jié)束語(yǔ)

        本文提出了基于GraphSAGE-GRU 周?chē)?chē)輛駕駛意圖識(shí)別及軌跡預(yù)測(cè)模型,分析了高速環(huán)境下被預(yù)測(cè)車(chē)輛與其周?chē)?chē)輛的相對(duì)位置關(guān)系,構(gòu)建了車(chē)輛之間交互博弈的動(dòng)態(tài)時(shí)空?qǐng)D,采用GraphSAGE 圖神經(jīng)網(wǎng)絡(luò)對(duì)其推理,識(shí)別出車(chē)輛意圖為左換道、直線(xiàn)行駛、右換道的概率,運(yùn)用GRU 網(wǎng)絡(luò)對(duì)車(chē)輛歷史軌跡進(jìn)行編碼-解碼,充分挖掘車(chē)輛歷史軌跡中的運(yùn)動(dòng)信息,并融入駕駛意圖信息,使其輸出更為合理的預(yù)測(cè)軌跡,并在NGSIM自然駕駛數(shù)據(jù)集上進(jìn)行了驗(yàn)證。試驗(yàn)結(jié)果表明,該模型能更好地推理車(chē)-車(chē)之間的交互關(guān)系,理解周?chē)?chē)輛的駕駛意圖,提高自動(dòng)駕駛車(chē)輛對(duì)周?chē)?chē)輛的態(tài)勢(shì)認(rèn)知能力,并且考慮對(duì)周?chē)?chē)輛駕駛行為認(rèn)知的車(chē)輛軌跡預(yù)測(cè)模型能夠提高預(yù)測(cè)軌跡的精度和合理性。

        本文模型是基于高速匯流場(chǎng)景數(shù)據(jù)進(jìn)行訓(xùn)練的,未考慮如十字路口等存在轉(zhuǎn)彎等駕駛意圖,同時(shí),車(chē)輛的運(yùn)動(dòng)軌跡也受到交通環(huán)境中道路結(jié)構(gòu)、交通流等的影響,因此后續(xù)研究中將考慮更多的駕駛意圖以及將道路結(jié)構(gòu)、交通流信息融入到模型中,得到更為精確的駕駛意圖和更合理的預(yù)測(cè)軌跡。

        猜你喜歡
        信息模型
        一半模型
        重要模型『一線(xiàn)三等角』
        重尾非線(xiàn)性自回歸模型自加權(quán)M-估計(jì)的漸近分布
        訂閱信息
        中華手工(2017年2期)2017-06-06 23:00:31
        3D打印中的模型分割與打包
        FLUKA幾何模型到CAD幾何模型轉(zhuǎn)換方法初步研究
        展會(huì)信息
        一個(gè)相似模型的應(yīng)用
        信息
        健康信息
        祝您健康(1987年3期)1987-12-30 09:52:32
        婷婷开心深爱五月天播播| 国产农村妇女精品一区| 国产成人精品999视频| 国产午夜三级一区二区三| 9久9久女女热精品视频免费观看| 在线看不卡的国产视频| 国产亚洲av成人噜噜噜他| 久久精品国产免费观看| 伊人久久成人成综合网222| 欧美xxxxx精品| 精品久久综合日本久久综合网| 国产a国产片国产| 欧洲熟妇乱xxxxx大屁股7| 果冻蜜桃传媒在线观看| 99久久婷婷国产一区| 怡红院av一区二区三区 | 色欲色香天天天综合网www| 国产精品亚洲一区二区三区在线| 精品免费人伦一区二区三区蜜桃| 亚洲码无人客一区二区三区| 尤物在线观看一区蜜桃| 色哟哟网站在线观看| 亚洲国产精品中文字幕日韩| 久久精品人妻中文av| 国产98色在线 | 国产| 初尝黑人巨砲波多野结衣| 欧洲无码一级毛片无遮挡| 中文字幕国产亚洲一区| 国产精品无码一区二区在线看| 日本国产成人国产在线播放| 福利视频一二三在线观看| 色婷婷精品综合久久狠狠| 一本之道日本熟妇人妻| 少妇人妻精品一区二区三区| 亚洲综合网在线观看首页| av成人资源在线播放| 国产精品久久久久久久久电影网| 日本又黄又爽gif动态图| 日韩AV无码乱伦丝袜一区| 亚洲精品中文字幕视频色| 久久久久人妻一区精品色欧美|