亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于Informer算法的網(wǎng)聯(lián)車輛運(yùn)動(dòng)軌跡預(yù)測模型

        2024-04-29 00:00:00趙懂宇王志建宋程龍
        關(guān)鍵詞:特征提取

        摘 要:自動(dòng)駕駛汽車可以根據(jù)軌跡預(yù)測算法計(jì)算周邊車輛的運(yùn)動(dòng)軌跡,并作出反應(yīng)以降低行車風(fēng)險(xiǎn),而傳統(tǒng)的軌跡預(yù)測模型在長時(shí)間序列預(yù)測的情況下會(huì)產(chǎn)生較大的誤差。為解決這一問題,提出了一種以Informer算法為基礎(chǔ)的軌跡預(yù)測模型,并根據(jù)公開數(shù)據(jù)集NGSIM進(jìn)行實(shí)驗(yàn)分析。首先通過對(duì)稱指數(shù)移動(dòng)平均法(sEMA)對(duì)原始數(shù)據(jù)進(jìn)行濾波處理,并在原有的Informer編碼器中加入了聯(lián)合歸一化層對(duì)不同車輛進(jìn)行特征提取處理,減少了不同車輛之間的運(yùn)動(dòng)誤差,通過考慮車輛的本身速度信息與周圍環(huán)境的車輛運(yùn)動(dòng)信息,提高了預(yù)測精度,最后經(jīng)過解碼器得到未來時(shí)刻的車輛軌跡分布。結(jié)果表明,模型對(duì)車輛的軌跡預(yù)測誤差在0.5 m以內(nèi);通過對(duì)軌跡預(yù)測的MAE與MSE結(jié)果分析可知,預(yù)測時(shí)間超過0.3 s以后,Informer模型的軌跡預(yù)測效果明顯優(yōu)于其他算法,驗(yàn)證了模型和算法的有效性。

        關(guān)鍵詞:智能交通控制; 自動(dòng)駕駛車輛; 軌跡數(shù)據(jù)預(yù)測; Informer模型; 注意力模型; 特征提取

        中圖分類號(hào):U3文獻(xiàn)標(biāo)志碼: A文章編號(hào):1001-3695(2024)04-010-1029-05

        doi:10.19734/j.issn.1001-3695.2023.08.0375

        Model of predicting motion trajectory of connected vehicles based on Informer algorithm

        Zhao Dongyu Wang Zhijian Song Chenglong1,2

        Abstract:Autonomous vehicle can calculate the movement track of surrounding vehicles according to the track prediction algorithm,and make response to reduce driving risk,while the traditional track prediction model will produce large errors in the case of long-term series prediction.To address this issue,this paper proposed a trajectory prediction model based on the Infor-mer algorithm,and used the publicly available dataset NGSIM to conduct experimental analysison.Firstly,it filtered the original data by using symmetric exponential moving average method(sEMA) ,and added a joint normalization layer to the original Informer encoder to extract features from different vehicles,reducing the motion error between different vehicles,and improving the prediction accuracy by considering the speed information of the vehicle itself and the vehicle movement information of the surrounding environment.Finally,it got the vehicle trajectory distribution at the future time through the decoder.The results show that the trajectory prediction error of the model is less than 0.5 m.Through the analysis of MAE and MSE results of tra-jectory prediction,when the prediction time exceeds 0.3 s,the trajectory prediction effect of Informer model is obviously better than other algorithms,which verifies the effectiveness of the model and algorithm.

        Key words:intelligent traffic control; autonomous vehicles; trajectory data prediction; Informer model; attention model; feature extraction

        0 引言

        隨著人工智能與互聯(lián)網(wǎng)技術(shù)的發(fā)展,未來無人駕駛汽車與智能網(wǎng)聯(lián)汽車的保有率會(huì)逐漸升高,車輛可以通過車載終端等設(shè)備實(shí)時(shí)獲取周圍車輛的運(yùn)行信息以及道路的路況信息,當(dāng)自動(dòng)駕駛車輛獲取周圍車輛的運(yùn)行信息后,如果對(duì)周圍車輛的行駛軌跡進(jìn)行預(yù)測,就可以提前作出決策以減少事故發(fā)生率。

        為了提高車輛的運(yùn)行安全性、減少事故發(fā)生,需要一種軌跡預(yù)測方法使自動(dòng)駕駛車輛預(yù)測周邊車輛的運(yùn)行軌跡,進(jìn)行風(fēng)險(xiǎn)規(guī)避以提高行車效率。以軌跡預(yù)測模型的結(jié)構(gòu)為依據(jù),可以將軌跡預(yù)測模型分為基于物理的運(yùn)動(dòng)預(yù)測模型和基于數(shù)據(jù)的 軌跡預(yù)測模型兩種。王靚喆[1]采用了基于博弈論的換道決策模型對(duì)車輛的換道意圖進(jìn)行分析。Robin等人[2]使用了基于卡爾曼濾波的CTRA模型對(duì)車輛的運(yùn)動(dòng)軌跡進(jìn)行了預(yù)測分析。 Firl等人[3]提出針對(duì)車道變換過程中通過七次多項(xiàng)式對(duì)車輛的換道軌跡數(shù)據(jù)進(jìn)行建模,并在實(shí)際換道場景中應(yīng)用。李文禮等人[4]將S-GAN模型與注意力機(jī)制相結(jié)合,根據(jù)五次多項(xiàng)式為車輛進(jìn)行路徑規(guī)劃。隨著網(wǎng)聯(lián)車輛數(shù)據(jù)量的增加,基于數(shù)據(jù)的預(yù)測模型的預(yù)測精確度有明顯提升。Kumar等人[5]提出了一種基于支持向量機(jī)和貝葉斯濾波的方法應(yīng)用于在線換道行為預(yù)測。由于基于物理的運(yùn)動(dòng)模型對(duì)于約束條件與實(shí)際場景要求過于理想化,通常只能完成極短時(shí)間內(nèi)的車輛軌跡預(yù)測。

        近幾年,隨著網(wǎng)聯(lián)車輛數(shù)量的增加,軌跡數(shù)據(jù)的數(shù)據(jù)量也大大增多,基于軌跡數(shù)據(jù)的預(yù)測模型開始變多。陳明哲[6]構(gòu)建了以CNN為基礎(chǔ)的LSTM軌跡預(yù)測模型和基于模糊邏輯算法的換道決策模型。吳曉建等人[7]提出了融合dropout與注意力機(jī)制的LSTM-GRU車輛軌跡預(yù)測模型。Xie等人[8]對(duì)深度信念網(wǎng)絡(luò)和長短時(shí)記憶神經(jīng)網(wǎng)絡(luò)的變道意圖預(yù)測模型進(jìn)行訓(xùn)練和仿真。吳翊愷等人[9]基于Transformer模型對(duì)車輛特征進(jìn)行提取,實(shí)現(xiàn)車輛的軌跡預(yù)測。高凱等人[10]通過使用基于多頭注意力的CNN-LSTM模型,提取車輛的橫向位置信息和周圍環(huán)境信息輸入到模型中。Liu等人[11]將車輛不同方向進(jìn)行區(qū)域劃分,根據(jù)各區(qū)域的軌跡概率進(jìn)行軌跡預(yù)測。

        在輸入數(shù)據(jù)量較大時(shí),神經(jīng)網(wǎng)絡(luò)模型會(huì)很難捕捉序列中長期的相互依賴性,產(chǎn)生梯度爆炸或梯度消失而影響模型的預(yù)測準(zhǔn)確率。Informer模型通過使用稀疏注意力機(jī)制來解決存在的梯度問題,使其在長時(shí)間序列預(yù)測中具有很大的優(yōu)勢,實(shí)現(xiàn)算法上的優(yōu)化創(chuàng)新。本文在Informer模型[12]的基礎(chǔ)上,添加了一個(gè)聯(lián)合歸一化層,對(duì)每輛車的信息進(jìn)行特征提取,實(shí)現(xiàn)車輛的運(yùn)動(dòng)軌跡預(yù)測。首先將目標(biāo)車輛的相關(guān)信息構(gòu)建成狀態(tài)向量作為輸入,并構(gòu)建基于稀疏注意力機(jī)制的編碼器和解碼器,編碼器將接收到的車輛矢量信息進(jìn)行編碼,將上下文向量輸入到聯(lián)合歸一化層進(jìn)行數(shù)據(jù)的特征提取并輸入到解碼器中,由解碼器對(duì)信息進(jìn)行解碼得到未來的車輛運(yùn)動(dòng)軌跡,最后進(jìn)行預(yù)測準(zhǔn)確度對(duì)比。

        1 數(shù)據(jù)預(yù)處理

        本文所用的數(shù)據(jù)集為NGSIM數(shù)據(jù)集,由于數(shù)據(jù)在采集過程中存在一定的錯(cuò)誤數(shù)據(jù),需要對(duì)數(shù)據(jù)進(jìn)行去噪處理。本文選用了對(duì)稱指數(shù)移動(dòng)平均法(sEMA)[13]對(duì)軌跡數(shù)據(jù)進(jìn)行了平滑處理,sEMA方法使用加權(quán)平均值法防止數(shù)據(jù)失真,其權(quán)重隨著距離平滑窗口中心的距離增加而減小。圖1、2分別為車輛速度與加速度經(jīng)過去噪處理前后的數(shù)據(jù)對(duì)比圖與概率密度分布圖。

        數(shù)據(jù)的去噪處理主要是將原始數(shù)據(jù)中的缺失數(shù)據(jù)、異常數(shù)據(jù)、重復(fù)數(shù)據(jù)、冗余數(shù)據(jù)以及不平衡數(shù)據(jù)等數(shù)據(jù)進(jìn)行剔除或修復(fù),使車輛運(yùn)動(dòng)數(shù)據(jù)更接近真實(shí)的車輛行駛狀態(tài),減少模型訓(xùn)練產(chǎn)生的誤差,提高模型的預(yù)測精確度。

        2 軌跡預(yù)測模型建立

        由于LSTM以及RNN模型的訓(xùn)練長度會(huì)隨著序列的增加而增加,對(duì)于過長的時(shí)間序列模型的預(yù)測時(shí)間會(huì)顯著增加,預(yù)測精確度也會(huì)有所下降。本文根據(jù)Informer模型并對(duì)原有的算法進(jìn)行了優(yōu)化,實(shí)現(xiàn)對(duì)車輛的軌跡預(yù)測。模型預(yù)測流程如圖3所示,模型包含數(shù)據(jù)編碼、特征提取與解碼器輸出三個(gè)部分。

        2.1 Informer模型介紹

        Informer模型沿用了Transformer模型中的編譯器-解釋器架構(gòu),并在此基礎(chǔ)上進(jìn)行了結(jié)構(gòu)優(yōu)化,降低了算法的計(jì)算時(shí)間復(fù)雜度,并對(duì)解釋器的輸出形式進(jìn)行了優(yōu)化。后面將對(duì)兩種優(yōu)化方法進(jìn)行詳細(xì)介紹。

        2.1.1 稀疏自注意力機(jī)制

        為了解決Transformer模型中計(jì)算時(shí)間復(fù)雜度與內(nèi)存占用過高的問題,Informer模型提出了一種稀疏的自注意力機(jī)制。在實(shí)際的算法運(yùn)行過程中,只有少數(shù)的點(diǎn)積對(duì)在主要的注意力函數(shù)中存在貢獻(xiàn),其他的點(diǎn)積對(duì)可以減少相應(yīng)的判斷權(quán)重。對(duì)于如何識(shí)別出可忽略的權(quán)重,算法使用了KL散度公式,將第i個(gè)查詢向量 Q 的注意力權(quán)重看作一個(gè)概率分布p(kj|qi),當(dāng)一些值對(duì)注意力權(quán)重產(chǎn)生顯著的影響時(shí)就會(huì)使p偏離均勻分布,當(dāng)這些值對(duì)注意力的權(quán)重接近于均勻分布時(shí),這些值就成了冗余值。式(1)(2)為權(quán)重的概率分布計(jì)算。

        如果第i個(gè) Q 的M(qi,K)取值較大,就表明它的注意力權(quán)重更加多樣化,可能會(huì)包含點(diǎn)積對(duì)中影響力較高的一部分。因此對(duì)于所有的 Q 來說,可以選取M(qi,K)排名最靠前的若干個(gè) Q 作為softmax函數(shù)的輸入矩陣,選取的個(gè)數(shù)u=c ln L Q ,L Q 表示 Q 矩陣的時(shí)間步長,c是一個(gè)常數(shù)采樣因子。那么稀疏注意力機(jī)制的運(yùn)算過程就可以表示為

        Informer模型改進(jìn)了Transformer中step-by-step的解碼方式,它的解釋器由一個(gè)帶掩碼的稀疏注意力模型和一個(gè)多頭注意力模型組成,解釋器的輸入由兩部分組成:第一部分輸入為編譯器的輸出,包含數(shù)據(jù)的K值與V值;第二部分輸入是由上一個(gè)解釋器的輸出用0遮擋后得到的向量。在解碼器進(jìn)行輸入時(shí),Informer模型并沒有設(shè)置一個(gè)特定的開始標(biāo)記,而是根據(jù)預(yù)測序列的長度選擇多個(gè)時(shí)間步長來生成解碼器的目標(biāo)函數(shù),這樣就舍棄了解碼器的動(dòng)態(tài)解碼過程而采用一次前向過程即可解碼得到整個(gè)輸出序列。流程如圖4所示。

        2.2 軌跡數(shù)據(jù)特征提取

        不同ID車輛的數(shù)據(jù)可能存在重復(fù)的時(shí)間序列,這將影響車輛運(yùn)動(dòng)行為預(yù)測。為了解決這個(gè)問題,本文進(jìn)行了歸一化處理:將數(shù)據(jù)的輸入層數(shù)轉(zhuǎn)換為單獨(dú)的運(yùn)動(dòng)提取單元,運(yùn)動(dòng)提取單元包含1個(gè)詞嵌入層、1個(gè)歸一化算法層、1個(gè)白化層、2個(gè)卷積層和1個(gè)池化層。白化層與歸一化算法層可以將數(shù)據(jù)統(tǒng)一到一個(gè)規(guī)定的均值和標(biāo)準(zhǔn)差,之后通過兩個(gè)卷積層與一個(gè)池化層對(duì)數(shù)據(jù)進(jìn)行特征提取,減少了不同車輛數(shù)據(jù)之間的冗余性,提高了網(wǎng)絡(luò)的訓(xùn)練效率。

        為了進(jìn)行量化分析,需要對(duì)車輛的運(yùn)動(dòng)特征進(jìn)行劃分,分為車輛本身的運(yùn)動(dòng)數(shù)據(jù)與車輛和周圍環(huán)境之間產(chǎn)生交互的運(yùn)動(dòng)數(shù)據(jù),兩部分特征進(jìn)行融合實(shí)現(xiàn)算法輸入。

        其中:x(t)、y(t)表示t時(shí)刻目標(biāo)車輛在路段參考系中的橫縱坐標(biāo);a(t)x、a(t)y表示t時(shí)刻目標(biāo)車輛的橫向加速度與縱向加速度;v(t)表示目標(biāo)車輛的運(yùn)動(dòng)速度;θ(t)表示目標(biāo)車輛的轉(zhuǎn)向角;α(t)表示目標(biāo)車輛與周圍車輛的車頭間距;β(t)表示目標(biāo)車輛與周圍車輛的車頭時(shí)距;L(t)表示目標(biāo)車輛所在的車道ID,如果目標(biāo)車輛的車道ID數(shù)加1則車輛進(jìn)行了右換道操作,如果目標(biāo)車輛ID數(shù)減1則車輛進(jìn)行了左換道操作。

        根據(jù)式(5)得到的每輛車在t時(shí)刻的狀態(tài)s(t),按照時(shí)間排序排列每輛車在每個(gè)時(shí)刻對(duì)應(yīng)狀態(tài)的描述,可以構(gòu)成每輛車的時(shí)間序列信息H,即

        Informer模型的編碼器可以對(duì)車輛的運(yùn)動(dòng)特征進(jìn)行學(xué)習(xí),對(duì)每一個(gè)瞬間Informer網(wǎng)絡(luò)會(huì)讀取最新的長度為th的歷史軌跡片段,將每輛車的歷史信息編碼成一個(gè)固定長度的上下文向量,這個(gè)向量反映了編碼器對(duì)車輛歷史軌跡的記錄。

        在每一時(shí)刻t,輸入量H經(jīng)過嵌入層編碼轉(zhuǎn)換成特征向量,與位置編碼連接使軌跡預(yù)測模型理解序列的順序。之后通過稀疏自注意力層計(jì)算注意力分布,并通過相加和歸一化得到上下文向量 I t。

        2.3 未來軌跡輸出方法

        由于車輛的運(yùn)行規(guī)律并不固定,所以使用Informer解碼器輸出的車輛位置的概率分布的參數(shù),并不會(huì)判斷駕駛員的駕駛意圖,只會(huì)輸出車輛的運(yùn)動(dòng)位置。本文使用了一個(gè)駕駛意圖模塊獲得車輛的駕駛意圖。在車輛行駛過程中考慮了向左換道、直行和向右換道三種駕駛意圖,定義車輛是否進(jìn)行換道的主要參數(shù)包括車輛的車道ID、轉(zhuǎn)向角、車輛的橫向加速度等。

        本文使用的Informer的解碼器生成未來時(shí)刻的車輛軌跡分布,通過預(yù)測上述三種駕駛意圖中的每一個(gè)分布概率來描述車輛行駛的多模態(tài)性。解碼器包括1個(gè)全連接層與1個(gè)softmax層,將聯(lián)合上下文向量的 I t作為輸入,最終輸出車輛的運(yùn)動(dòng)位置坐標(biāo)。softmax輸出的駕駛意圖概率矩陣為 M ={ω1,ω2,ω3},其中ω1~ω3分別表示車輛向左換道、直行與向右換道三種概率P(mi| I t)。 M 中只有一個(gè)是為1,其余值都為0。特征提取后的車輛數(shù)據(jù)經(jīng)過稀疏注意力計(jì)算后得到一個(gè)注意力矩陣,之后通過一個(gè)embedding投影將離散的上下文向量拼接成一個(gè)完整的上下文向量,作為解碼器的輸入。每個(gè)解碼器包括三個(gè)子層:

        a)蒙版稀疏自注意力層,這一層的數(shù)據(jù)在時(shí)刻t時(shí),大于時(shí)刻t的沒有結(jié)果,小于時(shí)刻t的有結(jié)果,即只關(guān)注前文信息,并且會(huì)將矩陣的查詢向量按影響力進(jìn)行排序,減少計(jì)算時(shí)間。

        b)多頭自注意力層,用于接收包含鍵向量和值向量的上下文向量,向量的值來自上一時(shí)刻的解碼器輸出。

        c)一個(gè)全連接層,預(yù)防梯度消失。增加軌跡預(yù)測模型性能并計(jì)算迭代損失。

        解碼器最后會(huì)輸出一個(gè)實(shí)數(shù)向量,包括車輛的運(yùn)動(dòng)坐標(biāo)以及車輛的自身運(yùn)動(dòng)信息,最后通過一個(gè)線性變換層將浮點(diǎn)數(shù)變成概率索引,softmax層最終輸出軌跡分布概率P(O|I)。計(jì)算公式如下:

        通過訓(xùn)練可以確定二元高斯分布的參數(shù),并與P(O|I)結(jié)合便可判斷車輛是否進(jìn)行了換道操作并對(duì)車輛的運(yùn)動(dòng)軌跡進(jìn)行預(yù)測。

        3 實(shí)例分析

        3.1 數(shù)據(jù)介紹

        NGSIM數(shù)據(jù)集包括US-101路段長約640 m的高速公路路段,數(shù)據(jù)集一共包括8個(gè)車道,主車道為1~5車道,包含數(shù)據(jù)量約300萬條,車輛數(shù)約為5 000輛,主要包含了車輛的速度、加速度、橫縱坐標(biāo)、車頭時(shí)距、車頭間距等車輛運(yùn)動(dòng)信息。NGSIM數(shù)據(jù)集在車輛軌跡預(yù)測、跟馳模型中有著廣泛應(yīng)用,經(jīng)過濾波處理后的數(shù)據(jù)應(yīng)用到的主要參數(shù)如表1所示。

        3.2 Informer模型網(wǎng)絡(luò)初始化

        Informer模型網(wǎng)絡(luò)的初始化主要包括模型的輸入輸出維度、數(shù)據(jù)重采樣的時(shí)間單位、輸入輸出序列長度等內(nèi)容。

        實(shí)驗(yàn)設(shè)置的編碼器輸入包含32個(gè)樣本,每個(gè)樣本中包含100個(gè)幀數(shù)的數(shù)據(jù),數(shù)據(jù)維度12個(gè);解碼器的輸入包括12個(gè)維度的數(shù)據(jù),樣本的時(shí)間數(shù)據(jù)100個(gè),其中前50個(gè)數(shù)據(jù)從編碼器時(shí)間點(diǎn)的后半段進(jìn)行截取,之后50個(gè)數(shù)據(jù)將作為預(yù)測數(shù)據(jù)進(jìn)行輸出。最終的預(yù)測維度為1個(gè),表示車輛橫向位移數(shù)據(jù)。一維卷積核大小為1×3,embedding層中的投影維度設(shè)置為512,將維度為12的時(shí)間數(shù)據(jù)投影成512維的數(shù)組矩陣;稀疏注意力層采用了8個(gè)注意力頭并堆疊了16個(gè)注意力層。稀疏注意力層將篩選25個(gè)Q值作為活躍值。

        前饋神經(jīng)網(wǎng)絡(luò)層的維度為2 048,設(shè)定的學(xué)習(xí)率為0.000 1,越小的學(xué)習(xí)率對(duì)于權(quán)重的更新頻率影響越小。設(shè)置dropout比率為0.1。

        3.3 軌跡預(yù)測模型實(shí)驗(yàn)結(jié)果分析

        實(shí)驗(yàn)從三類數(shù)據(jù)集中各選取了大約10 000條數(shù)據(jù)作為模型所用的數(shù)據(jù)集,將其中80%用作訓(xùn)練集,10%用作測試集,另外10%用作驗(yàn)證集。通過給定前100個(gè)歷史軌跡點(diǎn)的上下文信息作為輸入,對(duì)未來50個(gè)目標(biāo)軌跡點(diǎn)進(jìn)行預(yù)測。對(duì)車輛的運(yùn)動(dòng)軌跡預(yù)測完成之后,使用二元高斯分布輸出三類結(jié)果的概率。

        通過使用基于Informer模型的軌跡預(yù)測模型進(jìn)行訓(xùn)練,訓(xùn)練損失值如圖5所示。模型經(jīng)過6個(gè)epoch訓(xùn)練輪數(shù)分別在迭代次數(shù)100與200輪次進(jìn)行了測試,由圖可知,在模型迭代次數(shù)設(shè)置為100時(shí),模型已經(jīng)具有了很好的收斂性。

        在橫向位移軌跡預(yù)測中,模型定義了未來50幀的車輛軌跡數(shù)據(jù)與原始數(shù)據(jù)進(jìn)行對(duì)比分析。圖6分別為326號(hào)車輛的向左換道過程與563號(hào)車輛的向右換道過程,由圖可知,軌跡預(yù)測模型的橫向軌跡預(yù)測輸出與實(shí)際數(shù)據(jù)的誤差可以保持在0.5 m之內(nèi)。圖6(a)的預(yù)測軌跡相較于圖6(b)更加貼合原始軌跡數(shù)據(jù),因此當(dāng)實(shí)際軌跡數(shù)據(jù)更加平滑時(shí),預(yù)測的精確度會(huì)更高。

        為了驗(yàn)證模型中的聯(lián)合歸一化層特征提取模塊是否對(duì)軌道預(yù)測起到作用,本文將特征提取模塊去除后,進(jìn)行了駕駛軌跡預(yù)測分析并進(jìn)行了橫向軌跡驗(yàn)證,選用了716號(hào)車與4號(hào)車的軌跡數(shù)據(jù)進(jìn)行測試,結(jié)果如圖7所示。由圖可知,去掉聯(lián)合歸一化層之后的軌跡預(yù)測精度明顯下降,誤差基本在0.5 m以上,其主要原因是沒有將不同車輛的特征值進(jìn)行模糊處理,所以每輛車的預(yù)測結(jié)果都會(huì)產(chǎn)生較大的差距。

        在直行軌跡預(yù)測情況下,聯(lián)合歸一化層的處理會(huì)更加重要。圖8為進(jìn)行歸一化處理前后的軌跡預(yù)測模型對(duì)比,使用了528號(hào)車輛的直行軌跡,在105幀左右車輛存在一個(gè)向左的移動(dòng)但沒有產(chǎn)生換道行為,原始的數(shù)據(jù)模型將其預(yù)測為向左換道行為,加入歸一化處理之后模型將軌跡預(yù)測為直行。因此,聯(lián)合歸一化對(duì)于車輛換道行為的識(shí)別預(yù)測具有較好的修正作用。

        3.4 模型的軌跡預(yù)測性能對(duì)比

        為了驗(yàn)證模型預(yù)測的實(shí)際性能,本文與其他軌跡預(yù)測模型進(jìn)行對(duì)比,驗(yàn)證Informer 軌跡預(yù)測模型的預(yù)測精準(zhǔn)度。本文使用均方誤差(MSE)和平均絕對(duì)誤差(MAE)對(duì)各種軌跡預(yù)測模型進(jìn)行性能評(píng)價(jià),主要使用了以下軌跡模型進(jìn)行對(duì)比分析:傳統(tǒng)CTRA模型、CNN-LSTM模型、C-LSTM模型、SVM+BF算法。其中,CTRA運(yùn)動(dòng)模型以卡爾曼濾波為原理,根據(jù)車輛恒定轉(zhuǎn)向角和加速度對(duì)車輛的運(yùn)動(dòng)軌跡進(jìn)行預(yù)測;CNN-LSTM模型通過使用多頭注意力機(jī)制提高輸入序列的特征提取能力;C-LSTM預(yù)測模型通過構(gòu)建兩個(gè)疊加的LSTM單元對(duì)數(shù)據(jù)集進(jìn)行訓(xùn)練并進(jìn)行軌跡預(yù)測;SVM+BF算法將支持向量機(jī)與貝葉斯模型相結(jié)合,通過訓(xùn)練得到狀態(tài)轉(zhuǎn)移矩陣輸出換道意圖預(yù)測。

        軌跡預(yù)測模型位移軌跡預(yù)測結(jié)果對(duì)比如表2和3所示,其中,一幀時(shí)間為0.1 s。

        圖9中可以發(fā)現(xiàn),Informer預(yù)測模型對(duì)于長時(shí)間序列的軌跡預(yù)測經(jīng)過embedding層和數(shù)據(jù)蒸餾處理,損耗沒有下降,因此擁有更高的預(yù)測準(zhǔn)確率。其中,CTRA運(yùn)動(dòng)模型的MAE值和MSE值比其他軌跡預(yù)測模型都大,并且隨著預(yù)測時(shí)間步長的增加,軌跡預(yù)測效果明顯下降。這是因?yàn)樵撃P蜎]有考慮周圍車輛情況,而其他模型都加入了環(huán)境車輛信息,所以,車輛間的相互作用是車輛軌跡預(yù)測模型構(gòu)建需要考慮的因素之一。C-LSTM、CNN-LSTM和SVM+BF模型的誤差值也比Informer軌跡預(yù)測模型大,說明Informer模型能更好地提取車輛歷史數(shù)據(jù)的特征,對(duì)未來長時(shí)間的軌跡預(yù)測性能更好。SVM+BF模型相對(duì)于其他深度學(xué)習(xí)模型的預(yù)測結(jié)果仍有差距,表明支持向量機(jī)模型相對(duì)于深度學(xué)習(xí)模型仍有差距,長短時(shí)記憶網(wǎng)絡(luò)與注意力機(jī)制模型的預(yù)測精度更高,可能是支持向量機(jī)模型對(duì)于歷史數(shù)據(jù)的理解不夠全面。在前3 s左右,基于Informer的軌跡預(yù)測模型的預(yù)測值與實(shí)際值的MSE相比于其他模型降低的幅度不大,但在預(yù)測步長的3 s以后,模型的預(yù)測性能明顯高于其他的軌跡預(yù)測模型。因此,基于注意力機(jī)制的Informer軌跡預(yù)測模型對(duì)長序列歷史軌跡信息有良好的并行處理能力和良好的軌跡預(yù)測能力。

        4 結(jié)束語

        對(duì)于進(jìn)行車輛運(yùn)行軌跡預(yù)測方面,需要考慮的核心問題是進(jìn)行時(shí)間序列預(yù)測,本文通過選用Informer模型對(duì)運(yùn)行車輛進(jìn)行時(shí)間序列預(yù)測,采用聯(lián)合歸一化層對(duì)車輛的編號(hào)特征進(jìn)行提取,以減少不同車輛之間的影響;算法方面應(yīng)用了稀疏注意力矩陣與embedding層提取最大值,以減少數(shù)據(jù)的計(jì)算時(shí)間復(fù)雜度;結(jié)果輸出將駕駛意圖識(shí)別與解碼器結(jié)合,根據(jù)軌跡數(shù)據(jù)得到車輛的換道情況。

        通過使用NGSIM數(shù)據(jù)集對(duì)Informer模型進(jìn)行了實(shí)驗(yàn)驗(yàn)證與結(jié)果分析,結(jié)果表示在橫向軌跡預(yù)測方面,模型的預(yù)測精度在0.5 m之內(nèi),隨著預(yù)測時(shí)間步長的增加,模型的預(yù)測精確度與其他模型相比仍能保持在較高的準(zhǔn)確率。實(shí)驗(yàn)證明Informer模型在長時(shí)間序列模型預(yù)測中,特征提取與處理效率上優(yōu)于其他軌跡預(yù)測模型。未來將根據(jù)車輛的運(yùn)動(dòng)軌跡,進(jìn)一步對(duì)車輛是否產(chǎn)生換道行為進(jìn)行判斷與預(yù)測,并根據(jù)這些行為作出對(duì)應(yīng)的決策,完善車輛換道行為預(yù)測模型。

        參考文獻(xiàn):

        [1]王靚喆.基于博弈論的智能網(wǎng)聯(lián)自動(dòng)駕駛車輛換道行為研究[D].吉林:吉林大學(xué),2022. (Wang Liangzhe.Lane changing behavior of intelligent connected autonomous driving vehicles based on game theory[D].Jilin:Jilin University,2022.)

        [2]Robin S,Christian A,Marcus O,et al.Empirical evaluation of vehicular models for ego motion estimation[C]//Proc of IEEE Intelligent Vehicles Symposium.Piscataway,NJ:IEEE Press,2011:534-539.

        [3]Firl J,Tran Q.Probabilistic maneuver prediction in traffic scenarios[C]//Proc of European Conference on Mobile Robots.2011:1-6.

        [4]李文禮,韓迪,任勇鵬,等.基于交互車輛軌跡預(yù)測的自動(dòng)駕駛車輛軌跡規(guī)劃[J].計(jì)算機(jī)應(yīng)用研究,2023, 40 (2):519-525,538. (Li Wenli,Han Di,Ren Yongpeng,et al.Trajectory planning of auto-nomous vehicle based on interactive vehicle trajectory prediction[J]. Application Research of Computers ,2023, 40 (2):519-525,538.)

        [5]Kumar P,Perrollaz M,Lefevre S,et al.Learning-based approach for online lane change intention prediction[C]//Proc of IEEE Intelligent Vehicles Symposium.Piscataway,NJ:IEEE Press,2013:797-802.

        [6]陳明哲.基于LSTM的自動(dòng)駕駛車道預(yù)測與決策方法研究[D].西安:西京學(xué)院,2022. (Chen Mingzhe.Research on automatic dri-ving lane prediction and decision method based on LSTM algorithm[D].Xi’an:Xijing University,2022.)

        [7]吳曉建,危一華,王愛春,等.基于融合Dropout與注意力機(jī)制的LSTM-GRU車輛軌跡預(yù)測[J].湖南大學(xué)學(xué)報(bào):自然科學(xué)版,2023, 50 (4):65-75. (Wu Xiaojian,Wei Yihua,Wang Aichun,et al.Vehicle trajectory prediction based on LSTM-GRU integrating Dropout and attention mechanism[J]. Journal of Hunan University:Natural Sciences ,2023, 50 (4):65-75.)

        [8]Xie Dongfan,F(xiàn)ang Zhezhe,Jia Bin,et al.A data-driven lane-changing model based on deep learning[J]. Transportation Research Part C:Emerging Technologies ,2019, 106 :41-60.

        [9]吳翊愷,胡啟洲,吳嘯宇.車聯(lián)網(wǎng)背景下的機(jī)動(dòng)車輛軌跡預(yù)測模型[J].東南大學(xué)學(xué)報(bào):自然科學(xué)版,2022, 52 (6):1199-1208. (Wu Yikai,Hu Qizhou,Wu Xiaoyu.Vehicle trajectory prediction model in the context of Internet of Vehicles[J]. Journal of Southeast University:Natural Science Edition ,2022, 52 (6):1199-1208.)

        [10]高凱,李勛豪,胡林,等.基于多頭注意力的CNN-LSTM的換道意圖預(yù)測[J].機(jī)械工程學(xué)報(bào),2022, 58 (22):369-378. (Gao Kai,Li Xunhao,Hu Lin,et al.Lane change intention prediction of CNN-LSTM based on multi-h(huán)ead attention[J]. Journal of Mechanical Enginee-ring ,2022, 58 (22):369-378.)

        [11]Liu Yicheng,Zhang Jinghuai,F(xiàn)ang Liangji,et al.Multimodal motion prediction with stacked Transformers[C]//Proc of Computer Vision and Pattern Recognition.2021:7573-7582.

        [12]Zhou Haoyi,Zhang Shanghang,Peng Jieqi,et al.Informer:beyond efficient transformer for long sequence time-series forecasting[J]. Proceedings of the AAAI Conference on Artificial Intelligence ,202 35 (12):11106-11115.

        [13]Thiemann C,Treiber M,Kesting A,et al.Estimating acceleration and lane-changing dynamics from next generation simulation trajectory data[J]. Transportation Research Record:Journal of the Transportation Research Board ,2008, 2088 (1):90-101.

        收稿日期:2023-08-21;修回日期:2023-10-20 基金項(xiàng)目:國家自然科學(xué)基金資助項(xiàng)目(72071003);北京市教育委員會(huì)科研計(jì)劃項(xiàng)目(110052971921/023)

        作者簡介:趙懂宇(1999—),男,河北定州人,碩士研究生,主要研究方向?yàn)橹悄芙煌刂啤④囕v運(yùn)動(dòng)軌跡預(yù)測;王志建(1982—),男,河北石家莊人,教授,碩導(dǎo),博士,主要研究方向?yàn)橹悄芙煌?、浮?dòng)車技術(shù)(wzjian0722@163.com);宋程龍(2000—),男,陜西寶雞人,碩士研究生,主要研究方向?yàn)橹悄芙煌ā⒏?dòng)車技術(shù).

        猜你喜歡
        特征提取
        特征提取和最小二乘支持向量機(jī)的水下目標(biāo)識(shí)別
        基于Gazebo仿真環(huán)境的ORB特征提取與比對(duì)的研究
        電子制作(2019年15期)2019-08-27 01:12:00
        基于Daubechies(dbN)的飛行器音頻特征提取
        電子制作(2018年19期)2018-11-14 02:37:08
        基于DNN的低資源語音識(shí)別特征提取技術(shù)
        Bagging RCSP腦電特征提取算法
        一種基于LBP 特征提取和稀疏表示的肝病識(shí)別算法
        基于DSP的直線特征提取算法
        基于改進(jìn)WLD的紋理特征提取方法
        淺析零件圖像的特征提取和識(shí)別方法
        基于CATIA的橡皮囊成形零件的特征提取
        国产一区二区亚洲一区| 亚洲中文字幕人妻久久| 精品国产黄一区二区三区| 亚洲人成网站色7799| 亚洲欧美日韩精品久久| 朝鲜女子内射杂交bbw| 国产美女在线精品免费观看网址| 精品中文字幕久久久人妻| 在线亚洲+欧美+日本专区| 蜜桃av噜噜一区二区三区免费| 国产一区二区三区探花| 久久中文字幕一区二区| 加勒比色老久久爱综合网| 高潮内射双龙视频| 久久亚洲精品11p| 免费a级毛片无码a| 国内视频一区| 日韩精品不卡一区二区三区| 精品国产自在现线看久久| √新版天堂资源在线资源| 欧美黑人又粗又大久久久 | 欧美日韩国产乱了伦| 中文字幕有码在线亚洲| 不卡一区二区黄色av| 闺蜜张开腿让我爽了一夜| 国产在线精品一区二区三区不卡| 国产成人精选在线不卡| 日韩精品视频在线观看免费| 日本一区二区三级免费| 国产又大又黑又粗免费视频| 亚洲综合久久成人a片| 中文字幕高清无码不卡在线| 精品中文字幕久久久人妻| 久久伊人亚洲精品视频 | 中文字幕丰满人妻av| 久久99精品九九九久久婷婷 | 国产精品久久久久一区二区三区| 麻豆国产人妻欲求不满谁演的| 日本在线视频网站www色下载| 久久99久久99精品观看| 放荡成熟人妻中文字幕|