亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于深度殘差長短記憶網絡交通流量預測算法

        2021-07-02 08:54:16劉世澤秦艷君王晨星柯其學羅海勇王寶會
        計算機應用 2021年6期
        關鍵詞:交通流量卷積向量

        劉世澤,秦艷君,王晨星,蘇 琳,柯其學,羅海勇,孫 藝,王寶會

        (1.北京航空航天大學軟件學院,北京 100191;2.北京郵電大學計算機學院,北京 100876;3.首都師范大學信息工程學院,北京 100048;4.中國科學院計算技術研究所,北京 100190)

        (?通信作者電子郵箱hbliusz@126.com)

        0 引言

        近年來,隨著城市化的不斷發(fā)展,城市交通擁堵問題日益嚴重。對交通流量進行準確預測,有助于優(yōu)化城市交通資源規(guī)劃和調度,緩解交通壓力。交通流量數(shù)據具有規(guī)模大、維數(shù)高和隨時間動態(tài)變化等特性,且容易受到外部復雜、多樣和動態(tài)因素影響,實現(xiàn)長期和準確的交通流量預測具有很大的挑戰(zhàn)性。

        傳統(tǒng)交通流量預測方法大多使用數(shù)學建?;蚍抡娣椒枋鼋煌髁繒r間序列數(shù)據的變化規(guī)律,例如統(tǒng)計模型、傳統(tǒng)機器學習模型、差分整合移動平均自回歸(Autoregressive Integrated Moving Average,ARIMA)模型[1]、向量機回歸模型[2]和馬爾可夫隨機場[3]等,這些方法要求數(shù)據平穩(wěn)且持續(xù),并不能很好地預測復雜動態(tài)變化的交通流量。傳統(tǒng)機器學習方法存在過于依賴特征工程提取、先驗知識等問題,對于維度高、時空相關性復雜的交通流量預測往往難以給出準確的預測性能。

        深度學習方法可以在無需大量先驗知識的情況下表示和自主學習交通流量數(shù)據特征。卷積神經網絡(CNN)[4-7]和遞歸神經網絡(Recurrent Neural Network,RNN)[8-10]對時空數(shù)據具有較好的處理能力。文獻[11-12]基于卷積神經網絡提出了一種時空殘差網絡(Spatio-Temporal Residual Network,STResNet)模型,該模型對交通流量數(shù)據的三種特性——時間特性、空間特性和外部特性進行建模。將殘差網絡和卷積神經網絡相結合以學習空間特征,并通過對內部數(shù)據按照不同周期性進行采樣來模擬時間特征。該模型未考慮交通流量連續(xù)性問題。文獻[13]認為,容量大、參數(shù)多的模型盡管具有較好的預測性能,但較難優(yōu)化,且容易過度學習,與奧卡姆的剃刀理論相悖。

        現(xiàn)有交通流量預測大多考慮單步預測,但在實際應用中,交通流量多步預測存在一定的必要性[14-16]。近年來,基于編解碼器模型的深度學習方法在自然語言理解任務中取得了較大的成功[17-18]。這種模型采用端到端的通用框架,編碼器模型將輸入序列編碼為固定維數(shù)的向量,解碼器再將歷史數(shù)據的矢量表示映射回目標序列。

        為了解決上述問題,本文的主要工作如下:

        1)提出了一種編解碼器交通流量預測模型。該模型融合長短時記憶神經網絡和殘差神經網絡網絡,構成編碼器,學習交通流量數(shù)據的時間相關性和空間相關性,提取時空數(shù)據的特征。將提取的特征映射成為固定長度矢量,輸入到長短時記憶網絡和全連接層組成的解碼器中,實現(xiàn)交通流量的多步預測。

        2)在編碼器模塊中,本文使用多步預測模型,可以大幅提升網絡學習效率,降低時間復雜度。本文通過對比多步訓練耗時和單步預測訓練耗時可知,前者比后者降低了55.5%到65.5%,體現(xiàn)了多步預測模型的優(yōu)越性。

        3)使用北京市真實出租車客流數(shù)據集和紐約真實自行車客流數(shù)據集對所提算法進行了大量測試,實驗結果表明,本文中所提的交通流量預測模型優(yōu)于擴散卷積循環(huán)神經網絡(Diffusion Convolutional RNN,DCRNN)和時空圖卷積(Spatio-Temporal Graph Convolutional Network,STGCN)等交通流量預測算法。

        1 相關工作

        近年來,隨著城市化的發(fā)展,人口增長和移動通信技術在交通中的應用帶來交通數(shù)據快速增長?,F(xiàn)有的統(tǒng)計模型、傳統(tǒng)機器學習模型、差分整合移動平均自回歸模型、向量機回歸模型和馬爾可夫隨機場方法在數(shù)據處理方面存在不能學習復雜的時空數(shù)據相關性,例如數(shù)據的時空特征提取不夠充分。在發(fā)生異常事件的情況下,例如擁堵或事故,存在對交通流量多步預測不準的問題。

        交通流量預測傳統(tǒng)方法,包括使用經典統(tǒng)計模型或傳統(tǒng)機器學習模型[19]。Okutani 等[20]基于線性回歸方法的卡爾曼濾波模型基于這種模型提出一種動態(tài)交通流量預測模型。van der Voort 等[21]提出了差分整合移動平均自回歸模型。近年來,Kim 等[22]使用三維馬爾可夫隨機場(Markov Random Field,MRF)來模擬由車輛檢測站(Vehicle Detector Station,VDS)傳感器網絡所測得的交通流量的時間動態(tài)性。

        隨著人工智能技術的發(fā)展和日益成熟,深度學習也被廣泛應用于交通流量預測。Yao 等[23]提出了一個深度多視圖時空網絡(Deep Multi-View Spatial-Temporal Network,DMVSTNet)框架來對時空關系進行建模,突破了傳統(tǒng)關于交通流量預測的深度學習方法僅獨立考慮空間關系或時間關系的局限,使用三個視圖:時間視圖(未來需求的時間相關性建模)、空間視圖(局部空間相關性建模)和語義視圖(對共享相似時間模式的區(qū)域之間的相關性進行建模)。

        2 SECLI交通流量預測模型

        本文設計的集成擠壓激勵卷積長短時記憶(Squeeze-and-Excitation Convolution Long-short term memory Integrated,SECLI)網絡框架如圖1 所示。從圖1 中可以看出,該網絡主要由編碼器和解碼器構成。其中,編碼器主要由殘差神經網絡和一個長短時記憶(Long Short-Term Memory,LSTM)神經網絡構成,解碼器主要由LSTM 神經網絡和全連接神經網絡構成。SECLI 模型不僅使用LSTM 神經網絡對不同時間段交通流量數(shù)據的時間依賴性和周期性進行學習,而且使用殘差神經網絡對交通流量數(shù)據的空間依賴關系進行學習。

        圖1 SECLI交通流量預測模型編碼解碼框架Fig.1 Encoder-decoder framework of SECLI model for traffic flow prediction

        針對時間依賴性,模型根據當下預測時刻對應的三種時間間隔的數(shù)據進行抽取,分別為當前時刻的c個連續(xù)時刻片的數(shù)據,當前時刻一天前p個連續(xù)時間片數(shù)據和當前時刻一周前t個連續(xù)時間片的數(shù)據。其中,三種時間間隔數(shù)據使用抽取時間片比例控制三種時間特性的學習權重,這三個時間片數(shù)量c、p、t是模型的超參。因為交通流量數(shù)據的不確定性和實時變化的特點,相較遠距離時刻的交通情況,當下的交通流量分布總是與最近時刻更相似,所以通??偸羌哟髮εR近時刻流量數(shù)據學習的權重。

        將數(shù)據進行分片操作之后,本文將三種時間數(shù)據拼接成一個4D 張量集合進行學習。將這個張量變換成3D 傳入深度卷積殘差網絡,同時把變換成一維序列的交通流量數(shù)據送入LSTM 神經網絡,對數(shù)據的時間依賴性和空間依賴性進行學習。

        ResNet模塊是模型編碼器對交通流量數(shù)據進行地理特征抽取的核心模塊。在ResNet 對數(shù)據進行空間特征提取后,將空間特征向量分別與兩個時間特性向量通過加法的方式進行融合,對融合后的兩個向量進行拼接。拼接后的向量E作為編碼器的輸出,已經包含了從所有抽取數(shù)據中學習的時空特性。

        解碼階段,歷史數(shù)據集最后一個時刻的數(shù)據作為LSTM的數(shù)據變換格式后輸入,將向量E拆分為LSTM的兩個狀態(tài)輸入,經過學習后得到單步預測值,再經過全連接層進行歸納,對輸出的格式進行修正,最終得到單步預測結果。

        多步預測將最后一個歷史時刻的真實流量值作為輸入,前文介紹的解碼器輸出作為狀態(tài)初始值,再重新輸入解碼器進行預測,即得到多步預測結果。

        2.1 輸入層

        本文將交通流量數(shù)據視為時間序列數(shù)據,模型根據預測時刻對應的三種時間間隔的數(shù)據進行抽取,分別為當前時刻之前的3 個時刻片的數(shù)據、當前時刻一天前一個時間片數(shù)據和當前時刻一周前一個連續(xù)時間片的數(shù)據。

        輸入層是模型的數(shù)據入口。如圖2 所示,在這一層將預處理后的交通流量數(shù)據每個時間片進行不同時間特性數(shù)據的抽取,得到(None,5,2,32,32)大小數(shù)據張量。其中None 是batch_size的大小,5是3種歷史特性數(shù)據片個數(shù)之和,2維保持原始數(shù)據的維度。將抽取后的張量大小轉換為(None,5×2,32,32)輸入ResNet 進行特征提取,同時轉化成大小為(None,5,2×32×32)的張量輸入對應的LSTM 網絡進行深度時間特征提取。

        圖2 SECLI輸入層結構Fig.2 Input layer structure of SECLI

        2.2 ResNet層

        ResNet是模型編碼器對交通流量數(shù)據進行特征抽取的核心模塊。ResNet包含了2個殘差單元,殘差單元結構如圖3所示,在每個殘差單元中,大小為(None,5×2,32,32)的數(shù)據張量,經過殘差層得到形狀為(None,64,32,32)的特征張量,此處卷積層起到形狀變換的作用,從而便于之后兩個張量進行相加融合。每個張量需經過兩個卷積層和一層擠壓-激勵(Squeeze-and-Excitation,SE)層,得到數(shù)據空間注意力和特征張量。其中每個卷積層前添加批歸一化(Batch Normalization,BN)層與線性整流函數(shù)(Rectified Linear Unit,ReLU)激活函數(shù)。歷史特征向量通過shortcut 路徑與特征張量進行融合,得到大小為(None,64,32,32)的張量作為ResNet的最終輸出。

        圖3 SECLI的殘差單元結構Fig.3 Residual unit structure of SECLI

        ResNet 可以有效避免卷積神經網絡(Convolutional Neural Network,CNN)存在的過擬合以及網絡退化等問題。ResNet能夠在加快訓練速度的同時保持較高的準確率。本文采用的ResNet 模塊如圖4 所示,殘差單元之后都增加了SE 層作為空間注意力模塊。

        圖4 SECLI的ResNet模塊結構Fig.4 ResNet module structure of SECLI

        2.3 SE層

        SE 層這種網絡易于封裝,封裝后的模塊被稱為SEBlock。SE-Block 為數(shù)據“特征通道”這個維度加入注意力機制,通過損失函數(shù)在全局范圍內學習每個特征的重要性并對其進行重新標定。SE-Block 通過“擠壓”和“激勵”兩個關鍵操作,實現(xiàn)這種策略。

        SE 首先進行“擠壓”操作:順著空間維度對輸入向量進行特征壓縮,將每個二維的特征通道u變成一個實數(shù),并且輸出的維度和輸入的特征通道數(shù)是一一對應的。這個實數(shù)表現(xiàn)了特征通道上的全局分布。在代碼實現(xiàn)中,本文使用keras庫中的全局平均池化函數(shù)(GlobalAveragePooling2D),它在每個數(shù)據通道上進行求平均值操作,得到一個長度為特征通道長度的一維向量,因此數(shù)據由傳入的(None,64,32,32)變成(None,64)。為保證數(shù)據維度不變,再使用Reshape 函數(shù)恢復數(shù)據維度,使數(shù)據大小為(None,1,1,64),實現(xiàn)的效果如圖5所示。

        圖5 SECLI的SE層“擠壓”操作示意圖Fig.5 “Squeeze”operation of SE layer of SECLI

        其次是“激勵”操作,它類似循環(huán)神經網絡中門的機制,通過自學習參數(shù)w來為每個特征通道生成權重。之后使用生成的權重對特征進行“重標定”:“激勵”模塊輸出的權重可以看作為特征選擇后的每個特征通道的重要性,然后通過乘法給每個通道增加權重,完成在通道維度上的對原始特征的重標定。SE層整體計算簡化公式如式(1)、(2)所示:

        其中:u為原特征通道;p為壓縮函數(shù);w為u的權重。

        “激勵”操作增加了有用的特征權重,并減小了對當前任務用處不大的特征權重,可以顯式地建模特征通道之間的相互依賴關系。

        2.4 LSTM網絡模塊

        LSTM 網絡模塊是模型編碼器對交通流量數(shù)據進行時間特征抽取的核心模塊。經過大量實驗,本文的LSTM 單元數(shù)設置為64,時間步數(shù)為5,輸入維度為batch_size。其中,LSTM單元數(shù)即為LSTM 中遺忘門、輸入門、輸出門和tanh 層四個前饋網絡中隱藏神經元的個數(shù),LSTM中隱藏神經元的個數(shù)決定了LSTM 層輸出特征的維度,時間步數(shù)據經過LSTM 單元的次數(shù),即通過記憶機制對數(shù)據進行學習和篩選的次數(shù)。圖6 表示LSTM 的輸入過程,將歷史數(shù)據輸入到LSTM 模塊中,輸出兩個隱狀態(tài)。隱狀態(tài)值在預測階段使用。

        圖6 SECLI的LSTM模塊結構Fig.6 LSTM module structure of SECLI

        LSTM 網絡單元如圖7 所示。輸入層將(None,5,2×32×32)送入LSTM 網絡,依次經過LSTM 單元完成學習和遺忘過程。本文使用保留狀態(tài)LSTM,最終輸出最后一個學習單元的隱藏狀態(tài)和記憶單元狀態(tài),大小均為(None,64)。

        圖7 LSTM單元結構Fig.7 LSTM unit structure

        LSTM 第一步是從單元狀態(tài)中丟棄什么信息,ht-1表示上一節(jié)點狀態(tài)的輸出,xt為當前狀態(tài)下數(shù)據的輸入,ft表示遺忘門,W和b均為可學習權重矩陣。以交通流量預測為例,當使用歷史交通數(shù)據進行預測時,神經網絡需要遺忘一部分以前的突發(fā)交通狀況和時間久遠、與當前時刻時間關系較弱的數(shù)據,從而更好地進行預測。

        計算的第二步是輸入門決定在單元狀態(tài)中存儲什么新信息,比如交通時間序列之間新的關系、規(guī)律等。具體操作分為兩部分。首先篩選需要更新的數(shù)據并將值映射到(0,1),同時利用tanh層創(chuàng)建一個新向量來表示當前計算的值更新到記憶單元的比重大小。

        計算的第三步是將舊的記憶狀態(tài)Ct-1更新為新的記憶狀態(tài)Ct。

        最后一步計算是輸出門對單元實際輸出進行最終限制。首先,創(chuàng)建一個有tanh層壓縮的記憶狀態(tài)向量tanh(Ct)。然后使用ht-1、xt和sigmoid 層創(chuàng)建一個濾波器,與上述向量相乘,得到隱狀態(tài)ht。

        其中,門控結構動態(tài)調整LSTM 單元自循環(huán)權重參數(shù),這是網絡自我學習的關鍵。網絡適時對知識進行記憶和遺忘,以實現(xiàn)較為長期的記憶,從而解決對輸入序列與時間的長期依賴問題。

        2.5 特征融合層

        經過ResNet 模塊和LSTM 網絡模塊對時空特征的提取,得到了大小為(None,2,32,32)的地理特征向量和兩個大小為(None,64)的時間特征向量,按照編解碼器的架構,需要融合為一個向量。代碼實現(xiàn)中,特征融合層具體結構如圖8 所示,使用LSTM 單元數(shù)作為CNN 層卷積核個數(shù),卷積核大小為3×3,使地理特征向量的特征通道大小與LSTM 單元數(shù)相等,再使用Reshape 和Dense 層進行形狀轉換,最終使地理特征向量大小為(None,64),分別與LSTM 網絡模塊輸出的兩個狀態(tài)相加融合,得到編碼向量。

        圖8 SECLI的特征融合層結構Fig.8 Feature fusion layer structure of SECLI

        2.6 解碼器模塊

        解碼器模塊主要由一個LSTM 網絡和輸出層組成,組成結構和預測過程,如圖9 所示。與之前LSTM 不同的是,將解碼LSTM 設計為返回全部隱藏狀態(tài)序列作為預測值,同時輸出兩個狀態(tài)向量。

        圖9 SECLI解碼器多步預測示意圖Fig.9 Multi-step prediction schematic diagram of SECLI decoder

        解碼LSTM 輸入編碼器輸出的編碼向量,使用這兩個(None,64)大小的向量作為狀態(tài)輸入對LSTM 的兩個狀態(tài)進行初始化,再使用最后歷史時刻數(shù)據,即預測時刻上一時刻的數(shù)據作為LSTM 的數(shù)據輸入進行預測,得到LSTM 計算過程中每個隱層輸出向量的序列,向量大小均為(None,64),最后將利用Dense 層變換向量形狀,使其形狀與解碼階段輸入的歷史數(shù)據一致,最終得到向量大小為(None,2×32×32)的序列,即為最終預測結果。至此單步預測過程完成,而圖片整體表示多步預測過程,通過不斷獲取單步預測的預測結果、隱藏狀態(tài)和記憶單元狀態(tài),迭代利用LSTM 進行解碼,最終得到多步預測結果。

        3 實驗與結果分析

        在本章中通過實驗評估所提出的模型SECLI。首先,介紹使用的兩個不同的交通客流數(shù)據集,包括出租車和自行車,以及用于比較的最新基準。然后,給出了實驗參數(shù),包括默認模型參數(shù)和仿真環(huán)境。接下來,將對四個數(shù)據集的各種模型進行仿真評估,并得到實驗結果。同時,還給出了時間開銷數(shù)據表明本文所提出模型可以短時精準預測交通流量數(shù)據。

        3.1 實驗數(shù)據

        本文選擇以下兩個數(shù)據集進行評估:

        1)北京出租車(TaxiBJ)。北京出租車數(shù)據是按四個時間間隔從北京出租車的全球定位系統(tǒng)(Global Positioning System,GPS)數(shù)據中收集的:2015 年3 月1 日—6 月30 日,此數(shù)據的交通客流量反映在2 個通道中,網格區(qū)域大小為32×32。最后10 d的數(shù)據是測試數(shù)據,其他數(shù)據是訓練數(shù)據。

        2)紐約自行車(BikeNYC)。該數(shù)據由紐約自行車系統(tǒng)在2014年4月1日—9月30日發(fā)布。每個行程數(shù)據包括:行程持續(xù)時間、開始和結束站臺ID,以及開始和結束時間。此數(shù)據的交通客流量反映在2個通道中,網格區(qū)域大小為16×8。使用最后10 d的數(shù)據進行測試,其余數(shù)據用于訓練。

        在經過數(shù)據預處理后,本文將對預測每個時間片所需的歷史數(shù)據進行抽取,合成歷史信息向量與預測數(shù)據一一對應,但以對數(shù)據集中的第一個時間片的數(shù)據進行預測為例,數(shù)據集中并不存在它的歷史數(shù)據。在取得歷史向量集合和標簽數(shù)據集后,數(shù)據集均取最后10 d的數(shù)據作測試數(shù)據,其他數(shù)據作訓練數(shù)據。抽取和訓練集劃分后的數(shù)據集含數(shù)據條數(shù)如表1所示。

        表1 交通流量預測實驗中的數(shù)據集劃分Tab.1 Dataset division in traffic flow prediction experiments

        3.2 性能評價指標

        為了充分評估算法性能,本文聯(lián)合使用均方根誤差(Root Mean Square Error,RMSE)和平均絕對誤差(Mean Absolute Error,MAE)兩個指標評估算法預測性能,其定義如式(9)和式(10)所示。

        其中:Fi、分別為第i個時間步預測的真實值和預測值;n為樣本總數(shù)。

        3.3 實驗方法

        使用Min-Max 歸一化方法縮放輸入數(shù)據在[0,1]范圍內。在評估中,將預測值重新縮放回正常值。使用激活函數(shù)為比例指數(shù)線性單元(Scaled Exponential Linear Unit,SELU),在卷積層前使用數(shù)據歸一化過程。在實驗中,批次大小設置為32。首先選擇訓練樣本的90%來訓練每個模型,其余10%在驗證集中進行參數(shù)調整。所有實驗中都使用了Early stopping機制。

        3.4 實驗環(huán)境

        本文所提出的SECLI 模型在擁有CentOS Linux Release 7.4.1708(Core)操作系統(tǒng)與128 GB 內存的服務器上進行實驗。服務器的CPU 與GPU 型號分別是Intel Xeon Gold 6132 CPU @2.62 GHz 與Nvidia Tesla-V100。同時本文基于Keras深度學習框架實現(xiàn)了SECLI交通流量預測模型。

        3.5 對比分析

        1)自對比實驗。

        為了評價不同分量對模型的影響,本文基于BikeNYC 數(shù)據集進行了自對比實驗,比較了:1)單獨使用CNN;2)單獨使用ResNet;3)單獨使用LSTM;4)編碼器只使用CNN,解碼器使用LSTM;5)編碼器只使用ResNet,解碼器使用LSTM;6)編解碼器均使用LSTM;7)本文模型去除注意力模塊SE層;8)本文模型將2D-CNN 換成1D-CNN。各變異體的實驗結果如表2所示。從表2 中得到了兩個觀察結果。首先,沒有短期編碼器,模型退化為單步預測模型。其次,模型內各模塊都提高了預測精度,表明了模型各部分的重要性和本文設計的有效性。

        表2 不同算法在BikeNYC數(shù)據集上的交通流量預測結果對比Tab.2 Traffic flow prediction result comparison of different algorithms on BikeNYC dataset

        2)單步預測。

        本節(jié)通過展示實驗的結果趨勢從直觀上來對比預測值和真實值。在對模型進行訓練之后,分別對北京和紐約兩個城市內某區(qū)域進行預測,預測結果和實際結果對比分別如圖10~11所示,預測的趨勢和真實值非常吻合,表明取得了較好的短時交通流量預測效果。且在交通流量值較大位置預測效果要優(yōu)于交通流量值較小的位置;將北京出租車數(shù)據集和紐約自行車數(shù)據集對比,北京出租車數(shù)據集較大,預測效果要優(yōu)于后者。

        圖10 TaxiBJ流量預測值與實際值對比Fig.10 Comparison of prediction values and real values of TaxiBJ flow

        圖11 BikeNYC流量預測值與實際值對比Fig.11 Comparison of prediction values and real values of BikeNYC flow

        首先將本文模型與以下模型進行比較:三個具有代表性的傳統(tǒng)基線包括歷史平均值(Historical Average,HA)、普通線性回歸(Ordinary Linear Regression)和梯度集成(Extreme Gradient Boosting,XGBoost);基于深度神經網絡的時空數(shù)據分析模型(DNN-based prediction model for Spatio-Temporal data,DeepST);ST-ResNet;DMVST-Net;卷積長短時記憶(Convolutional Long-Short Term Memory,ConvLSTM);混合卷積長短時記憶網絡(Fusion Convolutional Long-Short Term Memory Network,F(xiàn)CL-Net);整合區(qū)域人群流并應用于靈活的區(qū)域劃分(Integrates Regional Crowd Flow and Applies to Flexible Region Partition,F(xiàn)lowFlexDP);DCRNN;STGCN。

        表3 給出了綜合比較結果,從表3 可以看出:1)深度學習方法總是優(yōu)于HA、OLR 和XGBoost 等非深度學習方法,這表明了深度學習方法在捕捉非線性時空相關性方面的優(yōu)越性。2)本文所提出基于深度殘差長短記憶網絡(SECLI)模型始終保持最佳性能,并在兩個數(shù)據集中都優(yōu)于其他方法。結果表明,所提模型能夠捕捉到更準確的時空相關性。

        表3 不同深度學習方法流量預測結果對比Tab.3 Traffic flow prediction result comparison of different deep learning methods

        3)多步預測。

        目前交通流量預測模型大多依賴于數(shù)據驅動,數(shù)據量也是決定預測精度的因素之一,但學習的數(shù)據量越大,預測精度越高。因此為提升預測精度,預測模型都耗時較長,充分利用單次數(shù)據學習過程進行多步預測十分有意義,這意味著可以更快、更早地對未來進行長時交通流量預測。BikeNYC 和TaxiBJ 上基于本文模型進行多步預測實驗的重復單步實驗和單次多步的時間開銷實驗對比結果如表4 和表5。與單步預測相比較,單次多步訓練只需要對模型進行單次學習,訓練耗時極大減??;在2 步和3 步預測中,單次多步訓練耗時比重復進行單步預測分別最多提高了55.5%和65.5%,體現(xiàn)了多步預測模型的優(yōu)越性。在實際應用中,可以在相對較短時間內進行多步細粒度的交通流量預測。

        表4 BikeNYC上重復單步預測和多步預測的時間開銷比較Tab.4 Time consumption comparison of repeated single-step and multi-step prediction on BikeNYC

        表5 TaxiBJ上重復單步預測和多步預測的時間開銷比較Tab.5 Time consumption comparison of repeated single-step and multi-step on TaxiBJ

        4 結語

        本文所提的融合殘差神經網絡、LSTM和空間注意力的交通流量預測模型SECLI,能有效學習時空軌跡數(shù)據的深度時空特征和時空依賴性,提高了交通流量多步預測性能。在兩個大規(guī)模公開數(shù)據集上的測試結果驗證了,本文所提的SECLI 模型在單步和多步預測中都明顯優(yōu)于傳統(tǒng)機器學習模型和基線深度學習模型。未來將致力于把本文模型算法應用于非結構化時空數(shù)據的挖掘與處理。

        猜你喜歡
        交通流量卷積向量
        向量的分解
        基于3D-Winograd的快速卷積算法設計及FPGA實現(xiàn)
        聚焦“向量與三角”創(chuàng)新題
        基于XGBOOST算法的擁堵路段短時交通流量預測
        從濾波器理解卷積
        電子制作(2019年11期)2019-07-04 00:34:38
        基于GA-BP神經網絡的衡大高速公路日交通流量預測
        基于傅里葉域卷積表示的目標跟蹤算法
        向量垂直在解析幾何中的應用
        向量五種“變身” 玩轉圓錐曲線
        基于復合卡和ETC的交通流量采集研究
        亚洲第一页在线免费观看| 国产乱人伦av在线a| 欧美日韩综合网在线观看| 无码啪啪人妻| 国产熟女白浆精品视频二| 国产激情艳情在线看视频| 亚洲一区久久久狠婷婷| 久久免费看的少妇一级特黄片| 国产精品兄妹在线观看麻豆| 欧美丰满熟妇bbbbbb百度| 日日噜噜夜夜狠狠久久av| 久久中文字幕亚洲综合| 久久久久av无码免费网| 无码少妇一级AV便在线观看| 国产在线美女| 少妇勾引视频网站在线观看| 日本a级片免费网站观看| 中文字幕精品一区二区2021年| 在线播放无码高潮的视频| 亚洲欧洲综合有码无码| 精品亚洲一区二区三区在线播放| 国产精品爽爽ⅴa在线观看| 亚洲成成品网站源码中国有限公司| 精品国产迪丽热巴在线| 日本少妇一区二区三区四区| 中文字幕aⅴ人妻一区二区| 亚洲红怡院| 蜜桃视频一区二区三区| 午夜精品久久久久久久99老熟妇 | 91网红福利精品区一区二| 男女动态91白浆视频| 久久久久99精品成人片直播| 视频一区欧美| 日本一区二区高清视频| 欧美成人秋霞久久aa片| 国产人妖视频一区二区| 中文字幕无线精品亚洲乱码一区| 亚洲一区二区三区特色视频| 亚洲一线二线三线写真| 天堂AV无码AV毛片毛| 中文字幕av人妻少妇一区二区 |