亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于圖注意力機(jī)制的交通流預(yù)測(cè)模型

        2023-08-09 13:24:50周安眾謝丁峰
        軟件工程 2023年8期
        關(guān)鍵詞:交通流時(shí)空注意力

        周安眾, 謝丁峰

        (湖南工業(yè)職業(yè)技術(shù)學(xué)院信息工程學(xué)院, 湖南 長(zhǎng)沙 410208)

        0 引言(Introduction)

        近年來(lái),研究人員為了消除交通流預(yù)測(cè)中的時(shí)空因素的影響,采用了各種深度學(xué)習(xí)模型[1]。其中,圖卷積神經(jīng)網(wǎng)絡(luò)(Graph Convolutional Network,GCN)用于建模交通網(wǎng)絡(luò)這類非歐結(jié)構(gòu)數(shù)據(jù)已被證明是有效的[2]。在時(shí)間建模方面,遞歸神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,RNN)是短時(shí)交通流預(yù)測(cè)(30 min以內(nèi))中的常用方法[3]。然而,對(duì)更長(zhǎng)時(shí)間(45 min以上)的交通流預(yù)測(cè)效果仍不理想[4],具體原因如下。

        (1)路網(wǎng)中節(jié)點(diǎn)信息不僅隨相鄰節(jié)點(diǎn)變化,還間接受到更遠(yuǎn)距離節(jié)點(diǎn)(高階節(jié)點(diǎn))的影響。傳統(tǒng)深度學(xué)習(xí)模型以局部特征為中心,需要疊加多層結(jié)構(gòu)提取全局特征,訓(xùn)練時(shí)容易出現(xiàn)梯度彌散問(wèn)題,不能有效提取長(zhǎng)距離空間依賴關(guān)系。

        (2)交通流量發(fā)生周期性的變化,如日高峰時(shí)間或其他周期事件,有必要引入長(zhǎng)期的歷史時(shí)間依賴關(guān)系捕捉周期特征。長(zhǎng)短期記憶網(wǎng)絡(luò)和門控循環(huán)單元常用來(lái)提取長(zhǎng)距離時(shí)間依賴關(guān)系,但在迭代訓(xùn)練時(shí)可能會(huì)導(dǎo)致誤差累積[5-7]。

        綜上所述,本文提出一種結(jié)構(gòu)化圖注意力網(wǎng)絡(luò)模型(Structural Graph Attention Network,SGAN)。一方面,SGAN采用注意力機(jī)制替代了傳統(tǒng)深度學(xué)習(xí)架構(gòu)中的局部卷積核,使其在長(zhǎng)距離約束情況下能高效提取時(shí)空特征。另一方面,SGAN在計(jì)算注意力系數(shù)時(shí)利用節(jié)點(diǎn)的結(jié)構(gòu)信息,不僅考慮了節(jié)點(diǎn)之間的特征相關(guān)性,還考慮了節(jié)點(diǎn)的連接方式。

        1 問(wèn)題描述(Problem statement)

        對(duì)于交通流預(yù)測(cè)任務(wù),建立圖G=(V,ε,A),其中V是圖G中的節(jié)點(diǎn)集,ε是邊集,反映節(jié)點(diǎn)之間的連通性。A∈N×N表示G的鄰接矩陣。同時(shí),建立矩陣X(t)∈N×d作為t時(shí)刻的輸入特征矩陣,其中N表示節(jié)點(diǎn)數(shù),d表示特征的維度。給定圖G中T個(gè)時(shí)間步的輸入特征序列(X=[x(t-T+1),…,x(t)]),通過(guò)學(xué)習(xí)映射函數(shù)f預(yù)測(cè)未來(lái)T′個(gè)時(shí)間步的交通流(Y=[x(t+1),…,x(t+T′)])。G提供了圖的空間信息,T則提供了圖中交通流的時(shí)間信息,學(xué)習(xí)函數(shù)f將輸入的T個(gè)歷史時(shí)間步數(shù)據(jù)映射到未來(lái)的T′個(gè)時(shí)間步上。

        2 模型架構(gòu)(Model architecture)

        2.1 整體架構(gòu)

        本文提出的SGAN整體架構(gòu)如圖1所示,由多個(gè)時(shí)空注意力模塊組成,每個(gè)模塊包含一個(gè)空間依賴層(Spatial Dependencies Layer, SDL)和一個(gè)時(shí)間依賴層(Temporal Dependencies Layer, TDL),并加入了殘差結(jié)構(gòu)[8]。歷史周期數(shù)據(jù)經(jīng)過(guò)特征轉(zhuǎn)換后作為時(shí)空注意力模塊的輸入,并通過(guò)多個(gè)SDL和TDL生成最終輸出。SDL主要關(guān)注節(jié)點(diǎn)在圖上的結(jié)構(gòu)依賴關(guān)系,而TDL則主要關(guān)注節(jié)點(diǎn)在時(shí)間步上的順序依賴關(guān)系。

        圖1 SGAN模型的整體架構(gòu)圖Fig.1 The overall architecture of the SGAN model

        一般來(lái)說(shuō),輸入的T個(gè)歷史時(shí)間步與待預(yù)測(cè)的T′個(gè)時(shí)間步相鄰,為最近一個(gè)小時(shí)內(nèi)的歷史觀測(cè)數(shù)據(jù)。此外,每日和每周的長(zhǎng)期歷史觀測(cè)數(shù)據(jù)也能幫助預(yù)測(cè)未來(lái)交通流的周期變化[9],日數(shù)據(jù)設(shè)為待預(yù)測(cè)時(shí)間前一天的相同時(shí)間步,周數(shù)據(jù)設(shè)為待預(yù)測(cè)時(shí)間前一周的相同時(shí)間步,則最近的小時(shí)數(shù)據(jù)記為Xh,日數(shù)據(jù)記為Xd,周數(shù)據(jù)記為Xw,將三個(gè)數(shù)據(jù)進(jìn)行連接作為SGAN的最終輸入數(shù)據(jù):

        X=concat(Xh,Xd,Xw)

        (1)

        數(shù)據(jù)經(jīng)過(guò)連接后包含交通流不同的周期模式,有利于模型提取長(zhǎng)期影響下的周期變化特征,然后通過(guò)一個(gè)全連接層對(duì)其特征進(jìn)行變換,得到一個(gè)高維向量,輸入到時(shí)空注意力模塊進(jìn)行特征提取[10]。

        2.2 空間依賴層

        交通網(wǎng)絡(luò)圖中不同位置的節(jié)點(diǎn)因不同的連接方式導(dǎo)致其重要性存在差異,SDL中引入圖注意力機(jī)制自適應(yīng)地計(jì)算每個(gè)節(jié)點(diǎn)的注意力系數(shù),即節(jié)點(diǎn)的重要度[11]。對(duì)于節(jié)點(diǎn)vi,對(duì)應(yīng)特征為xi,則其輸出特征zi通過(guò)公式(2)計(jì)算:

        (2)

        本質(zhì)上,公式(2)是對(duì)vi的鄰居節(jié)點(diǎn)的聚合操作[12]。xj是鄰居節(jié)點(diǎn)特征,W∈dx×dz是待學(xué)習(xí)的參數(shù)矩陣,σ是激活函數(shù),αij是vi相對(duì)于vj的注意力系數(shù),由以下公式計(jì)算:

        (3)

        其中,n是vi的鄰居節(jié)點(diǎn)數(shù)量,eij利用公式(2)中的共享參數(shù)W對(duì)特征進(jìn)行變換,再由單層前饋神經(jīng)網(wǎng)絡(luò)函數(shù)a得到:

        eij=a(Wxi,Wxj)

        (4)

        公式(2)通過(guò)聚合vi的鄰居節(jié)點(diǎn)特征得到zi,沒(méi)有考慮每個(gè)節(jié)點(diǎn)的連接方式。如圖2所示,假設(shè)以A為中心節(jié)點(diǎn),接收來(lái)自其鄰居節(jié)點(diǎn)的信息,圖3中D的不同邊數(shù)將導(dǎo)致傳遞到節(jié)點(diǎn)A的信息強(qiáng)度不同。因此,需要考慮中心節(jié)點(diǎn)與其相鄰節(jié)點(diǎn)之間的拓?fù)潢P(guān)系,并對(duì)拓?fù)浣Y(jié)構(gòu)進(jìn)行編碼,從而得到圖的空間依賴關(guān)系。

        圖2 A節(jié)點(diǎn)接收鄰居節(jié)點(diǎn)傳遞的信息Fig.2 Node A receiving information transmitted by neighboring nodes

        圖3 鄰居節(jié)點(diǎn)的結(jié)構(gòu)不同導(dǎo)致信息傳遞強(qiáng)度不同F(xiàn)ig.3 Different information intensities caused by different structures of neighboring nodes

        基于以上問(wèn)題,在注意力機(jī)制中引入結(jié)構(gòu)信息。首先將單位矩陣I添加到鄰接矩陣A中,為每個(gè)節(jié)點(diǎn)創(chuàng)建一個(gè)自循環(huán):

        (5)

        (6)

        (7)

        (8)

        圖4 SDL提取高階鄰居節(jié)點(diǎn)的結(jié)構(gòu)信息Fig.4 SDL extracting structural information of high-order neighbor

        (9)

        隨著k的增加,注意力機(jī)制將應(yīng)用于更高階的節(jié)點(diǎn),即更長(zhǎng)距離的節(jié)點(diǎn)。結(jié)合公式(2),定義vi與第k階鄰居的注意力機(jī)制如下:

        (10)

        將提取到的不同階特征連接起來(lái):

        (11)

        2.3 空間依賴層

        圖5 TDL提取節(jié)點(diǎn)不同時(shí)間步之間的依賴關(guān)系Fig.5 TDL extracting dependencies between nodes at different time steps

        (12)

        (13)

        (14)

        為了提高特征的表達(dá)能力,采用多頭注意力[14],由n個(gè)并行的注意力機(jī)制共同輸出,并連接為最終的輸出:

        (15)

        模型將上述多個(gè)時(shí)空模塊進(jìn)行堆疊,形成多層結(jié)構(gòu),并采用具有ReLU激活函數(shù)的全連接層作為模型的最終輸出:

        Y=ReLU(φH+b)∈T′

        (16)

        公式(16)不僅再次提高了特征表示的能力,還將最終的輸出變換為真實(shí)預(yù)測(cè)值的維度,其中T′是用于預(yù)測(cè)的時(shí)間步長(zhǎng)數(shù)。

        3 實(shí)驗(yàn)(Experiment)

        3.1 數(shù)據(jù)集描述

        本文在以下三個(gè)真實(shí)交通數(shù)據(jù)集上驗(yàn)證SGAN的性能。

        (1)METR-LA:該數(shù)據(jù)集包含從美國(guó)洛杉磯高速公路上的探測(cè)器收集的交通信息,選擇了其中207個(gè)傳感器從2012年3月1日到2012年6月30日采集的數(shù)據(jù)。

        (2)PeMS-BAY:該數(shù)據(jù)集由美國(guó)加利福尼亞州運(yùn)輸機(jī)構(gòu)(CalTrans)收集,包含325個(gè)傳感器從2017年1月到2017年5月采集的數(shù)據(jù)。

        (3)PeMS-S:該數(shù)據(jù)集也是由美國(guó)加利福尼亞州運(yùn)輸機(jī)構(gòu)(CalTrans)收集,由228個(gè)傳感器從2012年5月至2012年6月采集的數(shù)據(jù)。

        以上所有數(shù)據(jù)集的時(shí)間步長(zhǎng)的間隔為5 min,應(yīng)用Z-Score標(biāo)準(zhǔn)化,70%的數(shù)據(jù)用于訓(xùn)練,20%的數(shù)據(jù)用于測(cè)試,其余10%的數(shù)據(jù)用于驗(yàn)證。

        3.2 實(shí)驗(yàn)設(shè)置

        本文實(shí)驗(yàn)均由谷歌TensorFlow深度學(xué)習(xí)平臺(tái)實(shí)現(xiàn),運(yùn)行在NVIDIA Titan RTX GPU平臺(tái)上,使用RMSprop優(yōu)化器,迭代訓(xùn)練50次。三個(gè)周期數(shù)據(jù)的時(shí)間步長(zhǎng)為Th=12,Td=12,Tw=12,歷史時(shí)間步長(zhǎng)總和T=36。預(yù)測(cè)時(shí)間步長(zhǎng)T′=12,通過(guò)全連接神經(jīng)網(wǎng)絡(luò)將輸入的原始周期數(shù)據(jù)轉(zhuǎn)換為16維的特征向量,作為第一個(gè)時(shí)空注意力模塊的輸入。整個(gè)架構(gòu)堆疊2個(gè)時(shí)空注意力模塊,每個(gè)模塊采用8頭注意力機(jī)制,高階參數(shù)k為3。

        3.3 基準(zhǔn)模型與評(píng)價(jià)指標(biāo)

        本文采用三個(gè)度量標(biāo)準(zhǔn)用于評(píng)估SGAN的性能,包括平均絕對(duì)誤差(MAE)、均方根誤差(RMSE)和平均絕對(duì)百分比誤差(MAPE),將SGAN與以下代表性的基準(zhǔn)模型進(jìn)行比較。

        (1)ARIMA:差分自回歸移動(dòng)平均模型,一種時(shí)間序列分析方法[15]。

        (2)FC-LSTM:解決了LSTM只考慮時(shí)序,沒(méi)有考慮空間相關(guān)性的問(wèn)題,使用了帶有全連接層的LSTM模型提取時(shí)空依賴關(guān)系[16]。

        (3)STGCN:時(shí)空?qǐng)D卷積模型,使用CNN卷積的方式提取時(shí)空依賴關(guān)系[17]。

        (4)DCRNN:擴(kuò)散卷積循環(huán)神經(jīng)網(wǎng)絡(luò),將交通流建模為擴(kuò)散過(guò)程,采用擴(kuò)散卷積提取空間依賴關(guān)系,采用RNN提取時(shí)間依賴關(guān)系[18]。

        (5)Graph WaveNet:一種圖神經(jīng)網(wǎng)絡(luò)架構(gòu),采用擴(kuò)散圖卷積提取空間依賴關(guān)系,采用帶空洞的卷積核提取時(shí)間依賴關(guān)系[19]。

        (6)ASTGCN:時(shí)空注意力模型,結(jié)合注意力機(jī)制和卷積核同時(shí)捕獲時(shí)空依賴關(guān)系[9]。

        (7)SLCNN:結(jié)構(gòu)學(xué)習(xí)卷積模型,將傳統(tǒng)的CNN擴(kuò)展到圖域并學(xué)習(xí)圖的結(jié)構(gòu)信息用于交通流預(yù)測(cè)[20]。

        (8)NS-SGAN:在SGAN的基礎(chǔ)上,去除了SDL和TDL中的轉(zhuǎn)移矩陣和結(jié)構(gòu)化向量,評(píng)估SGAN中結(jié)構(gòu)化設(shè)計(jì)的有效性。

        3.4 實(shí)驗(yàn)結(jié)果

        表1和表2分別顯示了在METR-LA和PeMS-BAY數(shù)據(jù)集上,SGAN與其他基準(zhǔn)模型在15 min、30 min和60 min時(shí)的預(yù)測(cè)結(jié)果比較,從中可以看出,基于圖結(jié)構(gòu)的STGCN、GraphWaveNet以及本文的SGAN大部分?jǐn)?shù)據(jù)皆優(yōu)于FC-LSTM等非圖結(jié)構(gòu)模型,說(shuō)明交通網(wǎng)絡(luò)的結(jié)構(gòu)信息對(duì)交通預(yù)測(cè)至關(guān)重要。與其他時(shí)空模型相比,采用了注意力機(jī)制的SGAN大部分?jǐn)?shù)據(jù)優(yōu)于基于卷積的STGCN和基于遞歸的DCRNN模型,而SGAN采用注意力機(jī)制提取長(zhǎng)距離依賴關(guān)系,在60 min的預(yù)測(cè)中優(yōu)勢(shì)更明顯,表明注意力機(jī)制在長(zhǎng)時(shí)預(yù)測(cè)方面更有效。同時(shí),SGAN的結(jié)果明顯優(yōu)于去除結(jié)構(gòu)化信息的NS-SGAN,證明了注意力機(jī)制中的結(jié)構(gòu)信息是重要的。

        表 1 SGAN和基準(zhǔn)模型在METR-LA上的性能比較

        表3比較了SGAN與基準(zhǔn)模型在PeMS-S數(shù)據(jù)集上針對(duì)15 min、30 min、45 min和60 min交通流的預(yù)測(cè)結(jié)果。采用圖結(jié)構(gòu)和注意力機(jī)制的模型,其表現(xiàn)優(yōu)于包括ARIMA和FC-LSTM在內(nèi)的時(shí)間序列模型,與基于GCN和RNN結(jié)構(gòu)的STGCN、DCRNN模型相比,采用注意力機(jī)制的SGAN效果更優(yōu)。由于ASTGCN只是部分采用注意力機(jī)制,仍然結(jié)合了卷積核進(jìn)行特征提取,因此其無(wú)法有效提取長(zhǎng)距離依賴關(guān)系,需要多個(gè)獨(dú)立模塊分別提取不同的周期特征,增加了模型的復(fù)雜性。相比Graph WaveNet,SGAN在45 min和60 min的預(yù)測(cè)上表現(xiàn)更好,證明了注意機(jī)制對(duì)更長(zhǎng)時(shí)間交通流預(yù)測(cè)的能力;Graph WaveNet由于采用了小感受野的卷積核,因此在提取短距離依賴方面的表現(xiàn)不錯(cuò),在長(zhǎng)距離依賴方面不如SGAN有效,特別是SGAN采用完全的注意力機(jī)制,可以直接提取長(zhǎng)距離時(shí)空依賴性,不需要通過(guò)疊加太深的層增加感受野,從而降低了模型訓(xùn)練的難度。

        表 3 在PeMS-S 數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果對(duì)比

        本文還分析了高階情況下模型的性能,圖6顯示了在PeMS-BAY數(shù)據(jù)集上MAE取不同k值的結(jié)果比較??梢钥闯?k值越大,數(shù)據(jù)集上的MAE結(jié)果越小。當(dāng)模型考慮更高階的鄰居時(shí),k必須設(shè)置得足夠大,以覆蓋每個(gè)節(jié)點(diǎn)足夠遠(yuǎn)的鄰居。然而,高階信息意味著更多的參數(shù),當(dāng)參數(shù)數(shù)量增加時(shí),訓(xùn)練時(shí)過(guò)擬合問(wèn)題會(huì)導(dǎo)致效果不明顯。此外,對(duì)于較大的k值,經(jīng)過(guò)多層特征提取后,圖上節(jié)點(diǎn)的信息傳遞會(huì)過(guò)于平滑,注意力系數(shù)的權(quán)重會(huì)趨向于平均分配,對(duì)節(jié)點(diǎn)失去區(qū)分性。

        圖6 PeMS-BAY數(shù)據(jù)集上取不同k值的MAE結(jié)果Fig.6 MAE results of different values of k on PeMS-BAY

        為了觀察注意力機(jī)制的影響,從SDL提取出學(xué)習(xí)到的注意力系數(shù)矩陣并可視化。從PeMS-S數(shù)據(jù)集中隨機(jī)選擇的16個(gè)傳感器(節(jié)點(diǎn)),其連接的結(jié)構(gòu)如圖7所示。圖8是當(dāng)k=1時(shí)的注意力系數(shù)熱力圖,點(diǎn)(x,y)處的像素值表示節(jié)點(diǎn)x對(duì)節(jié)點(diǎn)y的注意力系數(shù),像素值顏色越深,表示對(duì)應(yīng)的注意力系數(shù)權(quán)重越高。由于鄰接矩陣A的對(duì)稱性,因此系數(shù)矩陣也具有對(duì)稱的形式。當(dāng)k大于1時(shí),觀察到許多較深色的非對(duì)角塊,因?yàn)殡A數(shù)增加時(shí),在感受野中有更多的節(jié)點(diǎn),相當(dāng)于可以提取到更長(zhǎng)距離的節(jié)點(diǎn)依賴關(guān)系。以節(jié)點(diǎn)11為例,圖8只考慮一階鄰居節(jié)點(diǎn),如節(jié)點(diǎn)2、7、8及其自身。當(dāng)k值增大時(shí),可以從圖9和圖10中看到,節(jié)點(diǎn)11與更遠(yuǎn)處的節(jié)點(diǎn)產(chǎn)生了明顯的注意力系數(shù),即考慮了長(zhǎng)距離的空間依賴性。

        圖7 隨機(jī)選取節(jié)點(diǎn)形成的結(jié)構(gòu)圖Fig.7 Structure diagram formed by randomly selecting nodes

        圖8 k為1時(shí)注意力系數(shù)熱力圖Fig.8 Heat map of attention coefficient when k is 1

        圖9 k為2時(shí)注意力系數(shù)熱力圖Fig.9 Heat map of attention coefficient when k is 2

        圖10 k為3時(shí)注意力系數(shù)熱力圖Fig.10 Heat map of attention coefficient when k is 3

        4 結(jié)論(Conclusion)

        本文提出了一種基于圖注意力機(jī)制的交通流預(yù)測(cè)模型,該模型摒棄了傳統(tǒng)的卷積、遞歸單元,采用注意力機(jī)制能有效地提取交通網(wǎng)絡(luò)圖中的長(zhǎng)距離時(shí)空依賴關(guān)系。同時(shí),在注意力機(jī)制中引入了空間結(jié)構(gòu)和時(shí)間結(jié)構(gòu)信息,使模型不僅考慮了節(jié)點(diǎn)之間的特征相關(guān)性,還考慮了節(jié)點(diǎn)的連接方式,在長(zhǎng)距離時(shí)空上能有效區(qū)分不同的節(jié)點(diǎn)。在真實(shí)數(shù)據(jù)集上的實(shí)驗(yàn)表明,該模型的預(yù)測(cè)結(jié)果明顯優(yōu)于現(xiàn)有模型。

        猜你喜歡
        交通流時(shí)空注意力
        跨越時(shí)空的相遇
        讓注意力“飛”回來(lái)
        鏡中的時(shí)空穿梭
        玩一次時(shí)空大“穿越”
        “揚(yáng)眼”APP:讓注意力“變現(xiàn)”
        A Beautiful Way Of Looking At Things
        交通流隨機(jī)行為的研究進(jìn)展
        時(shí)空之門
        路內(nèi)停車對(duì)交通流延誤影響的定量分析
        具有負(fù)壓力的Aw-Rascle交通流的Riemann問(wèn)題
        最新国产激情视频在线观看| 国产精品三级一区二区按摩| 免费无遮挡毛片中文字幕| 国产成人美涵人妖视频在线观看 | 日本精品一区二区三区二人码| 国产av一级二级三级| av在线高清观看亚洲| 蜜臀av在线播放一区二区三区 | 好爽~又到高潮了毛片视频| 国产一区二区黑丝美胸| 亚洲av无码乱码在线观看富二代| 精品福利视频一区二区三区 | 国产成人福利在线视频不卡| 日本韩国三级在线观看| 麻豆亚洲av熟女国产一区二| 18禁高潮出水呻吟娇喘蜜芽| 无码国产精品一区二区AV| 日本免费一区二区久久久| 欧美性生交活xxxxxdddd| 久久发布国产伦子伦精品| A阿V天堂免费无码专区| 久久伊人精品中文字幕有| 亚洲av成人片在线观看| 久久人人97超碰超国产| 国产三级黄色片子看曰逼大片 | 久久亚洲精品国产亚洲老地址| 日产精品久久久久久久性色| 国产亚洲AV天天夜夜无码| 日本a级片一区二区三区| 97se亚洲国产综合自在线观看| 色婷婷日日躁夜夜躁| 一区二区三区免费观看在线视频| 亚洲av不卡一区男人天堂| 2021久久精品国产99国产精品 | 亚洲一区二区国产精品视频| 日韩女优精品一区二区三区| 国产成人精品电影在线观看| 成 人 网 站 在线 看 免费| 91国产自拍精品视频| 性xxxx18免费观看视频| 国产美女在线精品亚洲二区|