亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于邊特征融合的行人軌跡預測算法研究

        2024-01-15 09:59:58王紅霞李枝峻寧樞麟
        長春師范大學學報 2023年12期
        關(guān)鍵詞:行人注意力軌跡

        王紅霞,顧 鵬,李枝峻,寧樞麟

        (沈陽理工大學信息科學與工程學院,遼寧 沈陽 110159)

        0 引言

        復雜場景中準確地對行人軌跡進行預測對自動駕駛系統(tǒng)至關(guān)重要[1]。行人作為自動駕駛的主要參與者,其軌跡更加自由、靈活、復雜,準確地對行人軌跡進行預測可以規(guī)避潛在的風險。行人軌跡預測的難點在于行人的軌跡受主觀因素的影響,同時也受到周圍行人運動的影響,對其精準預測有較高的難度。

        傳統(tǒng)的行人軌跡預測通過手工提取行人交互特征,不僅有交互不足的缺點,而且缺少適配的數(shù)據(jù)集。隨著深度學習的興起,長短期記憶網(wǎng)絡(luò)(Long Short-Term Memory,LSTM)被用于序列預測,通過復雜的網(wǎng)絡(luò)模型再搭配更適配的數(shù)據(jù)集得到了更好的預測效果。ALAHI等[2]提出采用LSTM網(wǎng)絡(luò)提取行人運動軌跡信息,加入池化模塊,在池化模塊范圍內(nèi)的行人共享信息,從而達到提取社交關(guān)系的目的。相對于單獨使用RNN網(wǎng)絡(luò)進行預測,考慮了行人交互,取得了更好的預測效果,缺點是池化操作不能區(qū)別對待行人之間的關(guān)系。生成對抗網(wǎng)絡(luò)[3](Generative Adversarial Networks,GAN)不需要復雜的模型,通過對抗學習達到更好的效果。GUPTA等[4]基于GAN網(wǎng)絡(luò)提出了(Social GAN,SGAN)模型,采用生成器-判別器模式訓練模型,提出新的損失函數(shù)鼓勵網(wǎng)絡(luò)預測多條軌跡,相比先前模型只是預測一條“平均好”的軌跡,在預測精度上有了很大提升,缺點是采用全局池化會加入無效交互且增大運算量,并且GAN模型不易訓練。為了解決交互不足的缺點,有學者提出采用注意力機制模塊提取信息[5-6],相對全局池化,在提取交互關(guān)系上有了一定改進,缺點仍是不能區(qū)別對待行人關(guān)系。

        在對行人交互信息提取中,多數(shù)研究采用池化層進行交互,缺點是損失了大量信息,融入了無效交互。圖神經(jīng)網(wǎng)絡(luò)(Graph Neural Network,GNN)的出現(xiàn),將行人關(guān)系映射到圖中進行建模,更符合社交關(guān)系網(wǎng)絡(luò)。圖注意力網(wǎng)絡(luò)(Graph Attention Network,GAT)是GNN的變體。通過注意力機制(Attention Mechanism)對鄰居節(jié)點做聚合操作。HUANG等[7]基于GAT模型為每個鄰居節(jié)點分配注意力系數(shù),然后通過加權(quán)求和得到節(jié)點新的特征向量,缺點是當前基于圖神經(jīng)網(wǎng)絡(luò)的模型在提取行人之間交互信息所考慮的信息是片面的,忽略了邊特征在圖中的作用。

        針對上述問題,本文提出一種結(jié)合邊特征的時空圖自注意力預測模型(Spatial-Temporal Graph Network with Edge Feature Generative Adversarial Networks,STGEF-GATv2)對行人軌跡進行預測。采用編碼器-解碼器結(jié)構(gòu)作為主體結(jié)構(gòu),引入邊特征提取模塊,將行人歐式距離構(gòu)建鄰接矩陣,輸入到特征融合層,將輸出結(jié)果用作邊特征,增加了GAT可學習信息??臻g交互采用更加有效的GATv2模塊[8]替換GAT模塊,采用更少的頭,提升精度的同時降低了模型復雜度。最后,STGEF-GATv2模型采用模塊時空信息融合模塊[7],可以更好地提取行人間的時空交互信息,從而提高預測模型的精確度。

        1 模型描述

        2 模型架構(gòu)

        2.1 軌跡預測模型

        STGEF-GAT模型的架構(gòu)如圖1所示,主要采用編碼器-解碼器模型。本文在編碼器采用LSTM模型學習行人運動軌跡隱藏狀態(tài),將行人的相對位置坐標輸入特征提取模塊后與LSTM網(wǎng)絡(luò)的隱藏狀態(tài)進行融合,采用GATv2來提取行人空間上的交互特征。另外采用一個LSTM學習行人空間交互的隱藏信息,解碼器采用LSTM網(wǎng)絡(luò),以時間特征、空間特征、交互特征[10]結(jié)合高斯噪聲作為輸入,未來的軌跡作為輸出,最終通過反向傳播進行模型訓練。

        圖1 行人軌跡預測模型架構(gòu)圖

        2.2 邊特征增融合

        原始GAT結(jié)構(gòu)有一個缺陷,在學習注意力機制時不使用任何邊的可用信息,為解決這一缺點本算法通過添加歸一化層,如圖2所示,輸入行人軌跡相對位置坐標,構(gòu)建歐式距離鄰接矩陣,歸一化后進行維度映射。最后與相對位置坐標經(jīng)過LSTM后的隱藏特征進行融合,增加了節(jié)點邊特征向量的信息,提供GAT層更豐富的學習信息。上述過程的計算表達式為:

        圖2 邊特征融合模塊示意圖

        (1)

        進行歸一化的原因是為了減少過擬合,加快模型收斂,此處采用GCN(Graph Convolutional Neural Network)中的歸一化方法,保證了圖的對稱性,并且有利于神經(jīng)網(wǎng)絡(luò)的學習。

        最后進行相加操作,相較于拼接操作和乘法操作的特征融合,采用加法融合使維度更低,減少運算量,降低模型復雜度,同時預測精度并沒有降低。

        2.3 GAT變體GATv2

        在圖結(jié)構(gòu)中行人交互關(guān)系如圖3所示。GAT是GNN模型中重要的一種變體,多頭注意力機制能進一步提升注意力層的表達能力,如圖4所示[11]。

        圖3 行人交互關(guān)系示意圖

        圖4 多頭注意力機制示意圖

        首先計算鄰居節(jié)點及自身的注意力系數(shù),然而BRODY等[8]發(fā)現(xiàn)GAT的注意力有很強的局限性,在GAT中每個節(jié)點都只關(guān)心鄰居節(jié)點,BRODY認為不論自身節(jié)點特征怎么變,得到的注意力權(quán)重的計算結(jié)果都是相同的,將這種注意力稱為靜態(tài)注意力。BRODY通過改進GAT提出了GATv2,由公式(2)演變到公式(3)。經(jīng)過實驗可知,采用兩個頭的實驗結(jié)果比原有GAT四個頭甚至更多頭的實驗效果好,降低了模型復雜度,減少了運算量,最后通過公式(4)對注意力系數(shù)進行加權(quán)求和,得到新的節(jié)點特征向量。

        (2)

        其中,‖表示拼接操作,wgat表示共享權(quán)重矩陣,hi,t表示節(jié)點的特征,aT是一個注意力核函數(shù),目的是進行維度映射。L為激活函數(shù),αij,t為t時刻權(quán)重系數(shù)。

        (3)

        與式(2)不同,式(3)先進行特征拼接[hi,t‖hj,t],然后再與權(quán)重矩陣wgat相乘。經(jīng)過激活函數(shù)L,再與注意力核函數(shù)相乘。

        對得到的注意力系數(shù)進行加權(quán)求和,得到新特征向量,為加強GAT學習能力,采用多頭注意力機制,如公式(4)所示。

        (4)

        2.4 軌跡編碼器模塊

        (5)

        將節(jié)點特征輸入長短期記憶網(wǎng)絡(luò)模型,學習行人運動的隱藏信息,數(shù)學表達式如下:

        mi,t=T(mi,t-1,ei,t;Wm),

        (6)

        其中,Wm為LSTM權(quán)重系數(shù),mi,t為t-1時刻運動隱藏信息,ei,t為節(jié)點特征,T表示循環(huán)神經(jīng)網(wǎng)絡(luò)。

        將運動隱藏特征和邊特征融合模塊進行相加操作:

        Mi,t=mi,t+H,

        (7)

        其中,mi,t表示運動隱藏信息,H表示邊特征提取結(jié)果,來自公式(1),此融合操作對應(yīng)圖1中的C模塊。

        學習行人空間交互信息可表示為:

        gi,t=T(gi,t-1,Gi,t;W),

        (8)

        其中,Gi,t為節(jié)點經(jīng)過多頭圖注意力機制的向量,gi,t-1為歷史空間交互向量,W為長短期記憶網(wǎng)絡(luò)的權(quán)重。

        將時間空間信息進行融合:

        hi,t=σ(Mi,t)‖σ(gi,t),

        (9)

        其中,σ(·)為不同的多層感知器,目的是在相同維度進行拼接。

        最后將結(jié)果拼接高斯噪聲,提升模型的魯棒性和泛化能力。

        Ti,Tobs=hi,t‖z,

        (10)

        其中,z表示高斯噪聲,hi,t為由式(9)學習到的時空信息的融合結(jié)果,Ti,Tobs為融合后的特征向量。

        2.5 軌跡解碼器模塊

        軌跡預測是通過行人相對位置8個步長信息,結(jié)合學習到的時空交互信息,預測下一個步長位置信息。然后將預測位置信息結(jié)合前7個步長進行新的預測,以此類推預測12個步長信息。預測的相對位置信息由公式(12)得到。

        di.Tobs+1=T(di,Tobs,ei,Tobs;W),

        (11)

        (xi,t+1,yi,t+1)=M(di,Tobs+1,Wσ),

        (12)

        其中,ei,Tobs表示相對位置特征向量,di,Tobs為上一步長隱藏信息,di,Tobs+1為預測下一步長信息,W為LSTM的權(quán)重,Wσ為MLP權(quán)重,經(jīng)過嵌入函數(shù)M,得到下一相對位置坐標。

        3 實驗與分析

        3.1 實驗數(shù)據(jù)和環(huán)境

        采用ETH[12]和UCY[13]兩個公共數(shù)據(jù)集進行模型評估。數(shù)據(jù)集由實際生活中行人豐富的交互信息組成,其中ETH數(shù)據(jù)集包含兩個場景:UNIV和HOTEL。UCY數(shù)據(jù)集包含三個場景:ZARA01、ZARA02和UNIV。數(shù)據(jù)集將行人真實位置轉(zhuǎn)換為世界坐標系下的位置信息。實驗采用留一法,使用其中4個數(shù)據(jù)集進行訓練和驗證,在剩余1個數(shù)據(jù)集進行測試。

        超參數(shù)設(shè)置:使用Adam優(yōu)化器進行參數(shù)優(yōu)化,學習率設(shè)為0.001,批處理大小設(shè)為64,訓練輪數(shù)為600。實驗環(huán)境:操作系統(tǒng)為Ubuntu 20.04,處理器顯卡型號為2080Ti,PyTorch版本為1.2,Cuda版本為11.3,所有實驗都是在相同的硬件環(huán)境下進行。

        3.2 評價指標

        實驗時,在模型中輸入8個時間步長(3.2 s)的行人真實軌跡,輸出預測的未來12個時間步長(4.8 s)的行人軌跡。與之前的研究相同,本文使用兩個指標來評估預測誤差。

        3.2.1 平均位置誤差

        平均位置誤差(Average Displacement Error,ADE)為每一時間步的預測坐標與真實坐標之間的均方誤差,計算公式如下:

        (13)

        3.2.2 最終位置誤差

        最終位置誤差(Final Displacement Error,FDE)為在預測的最后一個時間步T,預測坐標與真實坐標的誤差。計算公式如下:

        (14)

        3.3 消融實驗

        為驗證所提出的邊特征融合模塊和GATv2的有效性,采取調(diào)整算法模塊的方法。并在公開數(shù)據(jù)集UCY和ETH上對ADE和FDE兩個指標進行對比,如表1和表2所示,其中加粗黑體為最好的預測結(jié)果。算法1為基礎(chǔ)算法,只采用GAT進行特征提取,不添加任何改進;算法2在基礎(chǔ)算法上采用邊特征融合模塊;算法3在基礎(chǔ)算法上將GAT模塊替換成GATv2模塊;算法4在基礎(chǔ)算法上同時加入邊特征融合模塊和GATv2模塊。

        表1 本文算法消融實驗ADE指標

        表2 本文算法消融實驗FDE指標

        由表1和表2可以看出,當基礎(chǔ)算法增加邊特征后在五個數(shù)據(jù)集下比較兩個指標,若有一定的提升,或者不變,則表明該模型能有效地利用邊的信息。在基礎(chǔ)算法上替換GATv2模塊,除了ZARA1的ADE略有下降,FDE不變,其他指標都有提升,且單獨使用GATv2模塊的效果要好于邊特征融合,提升效果明顯。最后融合算法2和算法3后,兩種評估指標在ETH、HOTEL、UNIV上都有很好的提升,在ZARA1上的效果和邊特征融合效果一樣,在ZARA2上指標略有下降。分析原因是ZARA1、ZARA2數(shù)據(jù)集中行人密度小,行人交互性不強,增加太多交互關(guān)系,產(chǎn)生了一定的過擬合問題。實驗結(jié)果證明,邊特征融合和GATv2模塊的應(yīng)用均可提升預測精度。

        3.4 實驗結(jié)果分析

        為了評估STGEF-GAT算法的性能,本文選取了七種算法(Linear、LSTM、S-LSTM、S-GAN、Sophie[14]、STGAT、STGEF-GATv2)進行ADE和FDE的對比,如表3和表4所示。所有算法的行人觀測時間為3.2 s,行人預測時間為4.8 s。表中黑體為最好預測結(jié)果。

        表3 本文算法與其他算法的ADE指標比較

        表3和表4的實驗結(jié)果證明了邊特征融合和GATv2模塊的有效性,在五個不同的數(shù)據(jù)集上有較好的表現(xiàn),除ZARA1數(shù)據(jù)集的ADE和FDE指標低于Sophine模型,其余四個數(shù)據(jù)集的ADE和FDE指標都要高于所比較的算法,最終平均值全部高于所比較的算法預測,達到了提高模型精度的目的。

        3.5 定性評價

        為了更好地展示模型的預測效果,對模型進行軌跡可視化展示和權(quán)重分配可視化展示,以下兩種有效的可視化展示模塊來自于文獻[7]。在ZARA1數(shù)據(jù)集四個不同場景下的可視化軌跡預測如圖5所示,其中實線代表觀測軌跡,虛線代表預測軌跡,與虛線相近的實線表示真實軌跡。由圖5可以很好地看出STGEF-GATv2模型的有效性。

        圖5 不同場景的可視化圖

        從圖5的場景3可以看出,同向行走的預測軌跡和真實軌跡基本相符。逆向行走對行人預測軌跡影響較大,導致預測位置發(fā)生偏移,且距離位置越近,影響越大,如場景1和場景2相反行走的行人,當兩人發(fā)生交互時對預測同樣產(chǎn)生較大的影響,如場景4。分析原因是當兩人交互時,行人之間交互影響增強,從而導致預測位置發(fā)生偏移。綜上所述,預測可視化很好地展示了模型預測的精度。

        為了更好體現(xiàn)模型是否與周圍行人產(chǎn)生聯(lián)系,對目標行人為周圍行人分配的注意力權(quán)重進行可視化分析,如圖6所示。軌跡上的黑點表示不同時間的步長,箭頭代表行人前進的方向,沒有圓圈代表目標行人的軌跡,圓圈的大小和權(quán)重分配成正比,權(quán)重越大圓圈越大。

        圖6 權(quán)重分配可視化圖

        在圖6的場景1和場景2中,同向行走的行人相較于逆向行駛的人會分配得到更低的權(quán)重,表明與預測行人同向行駛的人有較小的影響力,反之有較大的影響力;在場景3和場景4中,同向后方行走人員相較于同向前方行走人員對目標行人影響更小,分配得到更少的權(quán)重。不足的是對于靜止不動的行人(場景2),始終分配最大的權(quán)重。綜上所述,該算法可以有效分配目標行人和周圍行人的權(quán)重信息,充分表明了該模型的有效性。

        4 結(jié)語

        行人邊特征提取模塊能有效解決圖注意網(wǎng)絡(luò)邊信息的缺失問題,此模塊為圖自注意力層提供更多可學習信息。采用GAT的變體GATv2,可以用更少的頭和層數(shù)達到更好的預測效果,降低了模型復雜度,同時也提升了模型的預測準確度。將預測結(jié)果進行可視化研究分析,可以更直觀地感受該模型軌跡預測效果。為驗證模型的有效性,在ETH和UCY兩個數(shù)據(jù)集上進行實驗,結(jié)果顯示,平均位置誤差和最終位置誤差兩個指標都有所提升。

        猜你喜歡
        行人注意力軌跡
        讓注意力“飛”回來
        毒舌出沒,行人避讓
        意林(2021年5期)2021-04-18 12:21:17
        軌跡
        軌跡
        路不為尋找者而設(shè)
        揚子江(2019年1期)2019-03-08 02:52:34
        軌跡
        “揚眼”APP:讓注意力“變現(xiàn)”
        傳媒評論(2017年3期)2017-06-13 09:18:10
        進化的軌跡(一)——進化,無盡的適應(yīng)
        中國三峽(2017年2期)2017-06-09 08:15:29
        我是行人
        A Beautiful Way Of Looking At Things
        播放灌醉水嫩大学生国内精品| 日韩欧美精品有码在线观看| 亚洲性啪啪无码AV天堂| 日韩AV有码无码一区二区三区 | 亚洲乱亚洲乱妇无码麻豆| а天堂8中文最新版在线官网| 久久久久亚洲av无码专区喷水| 欧美日韩色另类综合| 久久久久久免费毛片精品| 少妇对白露脸打电话系列| 麻豆密入视频在线观看| 天天摸天天做天天爽天天舒服| 人妻少妇中文字幕久久69堂| 亚洲国产综合性感三级自拍 | 加勒比av在线一区二区| 婷婷久久国产综合精品| 欧美牲交a欧美牲交aⅴ免费真| 亚洲av日韩av天堂一区二区三区| 九九99久久精品国产| 天天插视频| 无码啪啪人妻| 中文字幕一区二区va| 久久精品中文字幕有码| 亚洲av无码乱码国产精品久久| 少妇装睡让我滑了进去| 久久久久久无中无码| 美女被射视频在线观看91| 狼人狠狠干首页综合网| 国产自拍成人免费视频| 亚洲 小说区 图片区 都市| 国产成人av在线免播放观看新| 18禁无遮拦无码国产在线播放 | 亚洲av无码一区二区三区乱子伦| 久久tv中文字幕首页| 色www亚洲| 久久狠狠髙潮曰十八女人| 在线观看一级黄片天堂| 日韩亚洲欧美中文在线| 又粗又大又黄又爽的免费视频 | 91国产熟女自拍视频| 伊人久久精品无码av一区|