賴(lài)俊龍
(華南農(nóng)業(yè)大學(xué)數(shù)學(xué)與信息學(xué)院,廣東 廣州 510642)
交通流預(yù)測(cè)是智能交通系統(tǒng)中的重要成分,準(zhǔn)確、有效的預(yù)測(cè)能夠改善和緩解城市的交通問(wèn)題。然而,由于交通路網(wǎng)拓?fù)浣Y(jié)構(gòu)的約束和交通流隨時(shí)間變化的規(guī)律,即:空間依賴(lài)性和時(shí)間依賴(lài)性,交通流預(yù)測(cè)成為一個(gè)有挑戰(zhàn)性的問(wèn)題。
傳統(tǒng)的方法有ARIMA、卡爾曼濾波模型等,它們難以處理有較強(qiáng)不確定性的數(shù)據(jù)。因此,如K 近鄰模型、支持向量機(jī)模型等機(jī)器學(xué)習(xí)方法被提出,它們能夠?qū)Ω呔S和非線性特征的數(shù)據(jù)進(jìn)行建模,然而,這些模型在捕獲空間相關(guān)性上存在局限性。為此,Jiang 等將交通網(wǎng)絡(luò)視為圖像并用卷積神經(jīng)網(wǎng)絡(luò)來(lái)捕獲空間特征;Cheng等將卷積神經(jīng)網(wǎng)絡(luò)與循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,RNN)結(jié)合來(lái)學(xué)習(xí)時(shí)空相關(guān)性。但交通網(wǎng)絡(luò)并不像圖像那樣是規(guī)則的結(jié)構(gòu),于是,圖卷積神經(jīng)網(wǎng)絡(luò)(Graph Convolutional Network,GCN)被提出并用于特征學(xué)習(xí)。Zhao 等將GCN 與RNN結(jié)合提出了T-GCN模型;Li等提出擴(kuò)散卷積門(mén)控循環(huán)單元,并結(jié)合編碼器-解碼器結(jié)構(gòu)提出了DCRNN模型,但這些模型的預(yù)測(cè)效果還有待提高。
為應(yīng)對(duì)上述挑戰(zhàn)和問(wèn)題,提出多分辨率時(shí)空注意力網(wǎng)絡(luò)(Multi-Resolution Spatio-Temporal Attention Network,MRSTAN),以便有效地利用時(shí)空特征,進(jìn)而提高預(yù)測(cè)的精準(zhǔn)度。
圖1為模型的框架,主要包括空間模塊、時(shí)間模塊和融合模塊三個(gè)組件。
圖1 多分辨率時(shí)空注意力網(wǎng)絡(luò)框架
傳統(tǒng)GCN 采用的圖結(jié)構(gòu)是靜態(tài)的,不能正確的描述流量之間的依賴(lài)關(guān)系。如圖2 所示,道路1 發(fā)生交通事故后,隨時(shí)間演變會(huì)影響到道路2、3、4 處的交通情況。
圖2 交通流時(shí)空相關(guān)性
為了能自適應(yīng)地學(xué)習(xí)空間結(jié)構(gòu),采用了Guo 等提出的空間注意力,具體公式為:
RNN 常用于序列數(shù)據(jù),但其存在梯度消失和梯度爆炸等缺陷。其變體LSTM 和GRU 可以解決這些缺陷,其中LSTM 比GRU 結(jié)構(gòu)更加復(fù)雜,訓(xùn)練時(shí)間更長(zhǎng)。因此,選擇GRU模型獲取時(shí)間依賴(lài)性,其具體公式如下:
交通流具有周期性,不同的分辨率下,它們之間的相似性有助于模型更好地學(xué)習(xí)到其中的規(guī)律。如圖3所示,2022年2月27日7:30-8:30為要預(yù)測(cè)的真實(shí)數(shù)據(jù),其與昨天、上周同一時(shí)段的車(chē)流量具有相似的趨勢(shì),例如都在第5個(gè)觀測(cè)點(diǎn)附近達(dá)到最低點(diǎn),在接近第7個(gè)觀測(cè)點(diǎn)達(dá)到最高峰,都具有繼續(xù)上升的趨勢(shì)。
圖3 交通流時(shí)間周期性
實(shí)驗(yàn)中,采用PeMS-04 和PeMS-08 高速公路數(shù)據(jù)集,對(duì)其進(jìn)行歸一化并按照6:2:2 的比例隨機(jī)劃分成訓(xùn)練集、驗(yàn)證集和測(cè)試集。
為了評(píng)估模型的性能,將MRSTAN與以下基線方法進(jìn)行了比較。
T-GCN:它在靜態(tài)圖上進(jìn)行圖卷積,并結(jié)合循環(huán)神經(jīng)網(wǎng)絡(luò)進(jìn)行交通流預(yù)測(cè)。
Graph WaveNet:是一種使用自適應(yīng)圖表示和擴(kuò)張卷積的深度學(xué)習(xí)框架。
ASTGCN:它是基于注意力的時(shí)空?qǐng)D卷積網(wǎng)絡(luò),利用時(shí)空注意力機(jī)制分別對(duì)時(shí)空動(dòng)態(tài)進(jìn)行建模。
STSGCN:利用多個(gè)局部的時(shí)空子圖模塊直接同步捕獲局部時(shí)空相關(guān)性。
STGODE:一種基于神經(jīng)微分方程的交通流預(yù)測(cè)框架,使用了連續(xù)的圖卷積和擴(kuò)張卷積進(jìn)行預(yù)測(cè)。
所有實(shí)驗(yàn)均在Linux 服務(wù)器上進(jìn)行(CPU:Intel(R)Xeon(R) Gold 5218,GPU:GeForce RTX 2080 Ti)。均采用60 分鐘作為歷史時(shí)間窗口,并預(yù)測(cè)未來(lái)60 分鐘的交通流狀況?;€方法都遵循其論文中報(bào)告的最佳參數(shù)和結(jié)果。對(duì)本模型而言,所有隱藏維度都設(shè)置為64,采用三階的切比雪夫多項(xiàng)式進(jìn)行圖卷積,空間模塊層數(shù)為2,Adam 優(yōu)化器的學(xué)習(xí)率為0.001,采用L1 范數(shù)作為損失函數(shù),使用MAE、RMSE 和MAPE 作為性能指標(biāo),batchsize為32,訓(xùn)練代數(shù)為250。
實(shí)驗(yàn)結(jié)果如表1 所示,從中可知,在PeMS-04 上,本文方法各指標(biāo)均優(yōu)于最佳基線方法STGODE,在PeMS-08數(shù)據(jù)集上,MAPE比STGODE略差0.23%,但MAE 和RMSE 分別獲得了2.63%和1.45%的改進(jìn),這些結(jié)果證明了模型的有效性。
表1 算法實(shí)驗(yàn)結(jié)果
為了驗(yàn)證本方法不同模塊的有效性,設(shè)計(jì)了兩個(gè)變體:①-A:沒(méi)有注意力機(jī)制;②-F:沒(méi)有融合機(jī)制。實(shí)驗(yàn)結(jié)果見(jiàn)圖4,顯然,兩個(gè)變體誤差更大,表明模型的組件都是有效的。此外,沒(méi)有融合機(jī)制的模型表現(xiàn)最糟糕,表明本文提出的融合模塊的重要性。
圖4 總體誤差
針對(duì)交通流預(yù)測(cè)效果不佳的問(wèn)題,提出多分辨率時(shí)空注意力網(wǎng)絡(luò)。先用注意力圖卷積操作獲取空間特征,再用GRU 獲取時(shí)間特征,最后融合不同時(shí)期的交通流進(jìn)行預(yù)測(cè)。實(shí)驗(yàn)表明,該模型優(yōu)于基線方法。未來(lái)可以將其應(yīng)用于其他時(shí)空相關(guān)性預(yù)測(cè)問(wèn)題上,如天氣預(yù)測(cè)、氣候變化預(yù)測(cè)等。