亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        智能網(wǎng)聯(lián)環(huán)境下基于混合深度學(xué)習的交通流預(yù)測模型

        2020-07-02 06:54:54陸文琦芮一康谷遠利
        關(guān)鍵詞:模型

        陸文琦,芮一康,冉 斌*,谷遠利

        (1.東南大學(xué)a.交通學(xué)院,b.東南大學(xué)—威斯康星大學(xué)智能網(wǎng)聯(lián)交通聯(lián)合研究院,c.城市智能交通江蘇省重點實驗室,南京211189;2.北京交通大學(xué)綜合交通運輸大數(shù)據(jù)應(yīng)用技術(shù)行業(yè)重點實驗室,北京100044)

        0 引 言

        人工智能、大數(shù)據(jù)及5G 通信技術(shù)日漸成熟,車路協(xié)同自動駕駛(Connected and Automated Vehicle Highway,CAVH)已逐漸成為智能交通系統(tǒng)的終極發(fā)展形式,是緩解交通擁堵,提高交通安全和減少排放的重要技術(shù)[1].作為CAVH 的關(guān)鍵模塊之一,精細化短時交通流預(yù)測既是網(wǎng)聯(lián)車(Connected Automated Vehicle,CAV)路徑?jīng)Q策規(guī)劃的基礎(chǔ),也是混合交通流環(huán)境下實現(xiàn)群體優(yōu)化與協(xié)同控制的重要保障.

        交通流預(yù)測技術(shù)已經(jīng)從基于統(tǒng)計學(xué)的參數(shù)方法[2]和機器學(xué)習驅(qū)動的非參數(shù)方法[3]逐漸演化為大數(shù)據(jù)驅(qū)動的深度學(xué)習方法.Pamu?a[4]基于圖像處理技術(shù)利用卷積神經(jīng)網(wǎng)絡(luò)和多層感知機識別并預(yù)測交通狀態(tài);MA 等[5]將長短期記憶神經(jīng)網(wǎng)絡(luò)(Long Short-Term Memory,LSTM)引入交通領(lǐng)域,實現(xiàn)交通流速度的時間序列預(yù)測;王祥雪等[6]對交通流進行時間序列重構(gòu)和標準化處理,在此基礎(chǔ)上,利用多層LSTM 網(wǎng)絡(luò)構(gòu)建多時間梯度交通流預(yù)測模型;谷遠利等[7]利用基于信息熵的灰色關(guān)聯(lián)分析提取交通流空間特征,并采用雙層循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,RNN)實現(xiàn)快速路車道級速度預(yù)測.

        現(xiàn)階段交通流預(yù)測主要基于原始速度或流量數(shù)據(jù),未考慮將原始數(shù)據(jù)分解為規(guī)律性更強的時間序列分量,從而優(yōu)化模型輸入.此外,現(xiàn)有研究主要針對非網(wǎng)聯(lián)場景,對智能網(wǎng)聯(lián)環(huán)境下交通流預(yù)測的研究較少.在CAVH 環(huán)境下,車道交通流的速度、流量等參數(shù)可依靠CAV 實時采集,并通過車—路通信模塊與路側(cè)單元(Road-Side Unit,RSU)實時交互,RSU 將交通流信息傳輸至交通控制中心(Traffic Control Center,TCC)實時處理,借助TCC 強大的數(shù)據(jù)計算能力,原始車道級交通流數(shù)據(jù)可被實時分解為規(guī)律的時間序列分量,并將時間序列分量重構(gòu)為TCC 中深度學(xué)習模型輸入,有效提升預(yù)測精度.

        因此,本文提出一種面向CAVH 系統(tǒng)的混合深度學(xué)習(HDL)交通流速度預(yù)測模型.利用集成經(jīng)驗?zāi)B(tài)分解 (Ensemble Empirical Mode Decomposition,EEMD)[8]處理原始車道級交通流速度數(shù)據(jù)并重構(gòu)為深度學(xué)習模型輸入,引入注意力(Attention)機制和雙向LSTM 構(gòu)建預(yù)測模型框架.實測交通流數(shù)據(jù)驗證表明,該模型具有良好的預(yù)測精度和適用性,且模型構(gòu)建機理符合CAVH 技術(shù)發(fā)展需求.

        1 集成經(jīng)驗?zāi)B(tài)分解

        集成經(jīng)驗?zāi)B(tài)分解(EEMD)[8]是在經(jīng)驗?zāi)B(tài)分解(Empirical Mode Decomposition, EMD)[9]基礎(chǔ)上提出的信號分解方法.EMD 是一種處理非平穩(wěn)非線性序列的時空分析方法,可將原始時間序列,如交通流速度序列V(t)分解為M個固有模態(tài)函數(shù)(Intrinsic Mode Function, IMF)分量Vm(t)和殘差序列R(t),即

        式中:Vm(t)為序列V(t)的第m個IMF 分量,m=1,2,…,M;M為IMF分量數(shù)目;t為序列的時間刻度.

        通常IMF 分量必須滿足兩個約束條件:①在整個時間序列上,IMF分量的極值點和過零點的個數(shù)必須相等或相差不超過一個;②任意時刻,IMF分量的局部上、下包絡(luò)線均值為0.EMD 算法分解步驟如下.

        Step 1識別原始速度序列V(t)的所有局部極大值和極小值點,并利用曲線擬合構(gòu)造出所有上、下包絡(luò)線,得到均值曲線M1(t)和新的分量H1(t).

        Step 2判斷.若H1(t)滿足IMF 的兩個條件,設(shè)H1(t)為V1(t);否則,設(shè)H1(t)為V(t),并返回Step 1.

        Step 3計算R(t).

        Step 4設(shè)R(t)為V(t),重復(fù)Step 1~Step 3找到所有IMF分量,直到R(t)成為單調(diào)的殘差函數(shù).

        然而,由于分解過程中信號極值點分布不均衡,EMD 存在模態(tài)混疊現(xiàn)象,因此,Wu 等[8]提出EEMD 模型,在原始序列中加入相同幅值的白噪聲,改變序列中極值點分布,消除模態(tài)混疊效應(yīng).多次平均后,白噪聲將相互抵消,集成均值結(jié)果作為最終分解結(jié)果.綜上,EEMD分解過程如下.

        Step 1初始化迭代次數(shù)S和白噪聲的標準差ε.

        Step 2將白噪聲Ns(t) 加入原始速度序列V(t),生成添加過噪聲的速度序列V(s)(t)為

        Step 3對S個含噪聲的序列進行EMD分解,獲得S個IMF分量和S個殘差分量R(s)(t),其中,為第s次分解的第m個IMF 分量,m=1,2,…,M,R(s)(t)為第s次分解的殘差分量.

        Step 4計算出第m個IMF 分量的均值和殘差的均值.

        2 雙向長短期記憶神經(jīng)網(wǎng)絡(luò)

        長短期記憶神經(jīng)網(wǎng)絡(luò)(LSTM)[10]是現(xiàn)階段最為流行、認可度最高的循環(huán)神經(jīng)網(wǎng)絡(luò),能夠克服RNN存在的梯度消失問題,已成為解決時間序列預(yù)測問題的經(jīng)典方法.在交通流預(yù)測領(lǐng)域,LSTM 被廣泛應(yīng)用于捕獲交通流的時間特征.

        式中:σg為sigmoid 激活函數(shù);°為兩個向量的乘積;xt為輸入向量;為候選細胞信息向量;ht為隱藏層輸出向量;Wf,Wi,Wo,Wc,bf,bi,bo和bc為需要訓(xùn)練得到的權(quán)值和偏移量.

        雙向LSTM(BiLSTM)結(jié)合雙向RNN和LSTM的優(yōu)點,如圖2所示,BiLSTM由一個前向LSTM隱藏層和一個后向LSTM 隱藏層組成,且這兩個隱藏層都連接著一個輸出層,同時為輸出層提供前向和后向的信息.BiLSTM的輸出為

        式中:和分別為前后向隱藏層的輸出;Wy和by為權(quán)重和偏置.

        圖1 經(jīng)典LSTM 記憶模塊Fig.1 Memory block of classical LSTM

        圖2 BiLSTM 神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)Fig.2 Structure of BiLSTM neural network

        3 CAVH環(huán)境下基于混合深度學(xué)習的車道級速度預(yù)測模型

        3.1 模型結(jié)構(gòu)

        在CAVH 環(huán)境下,短時交通流預(yù)測的研究對象為車道斷面的交通流運行狀態(tài),而車道級交通流具有較強的時變性和非線性特征.為實現(xiàn)CAVH環(huán)境下車道級速度的短時高精度預(yù)測,本文提出集成EEMD、BiLSTM和Attention機制的混合深度學(xué)習模型(Hybrid Deep Learning model,HDL).

        如圖3所示,HDL模型基于CAVH系統(tǒng)強大的數(shù)據(jù)傳輸和并行計算能力,在TCC 中利用EEMD算法將車道交通流速度序列分解為若干IMF分量及殘差分量,并依據(jù)輸入步長重構(gòu)模型輸入.同時,依靠TCC 訓(xùn)練和存儲深度學(xué)習框架,利用BiLSTM挖掘重構(gòu)輸入的時間特征,引入Attention機制對BiLSTM 隱藏層輸出的特征向量賦予不同的權(quán)重,加強重要信息提取.最后,通過全連接層將特征向量轉(zhuǎn)換為預(yù)測結(jié)果輸出.

        圖3 混合深度學(xué)習模型結(jié)構(gòu)示意圖Fig.3 Structure of HDL model

        模型各層的具體描述如下.

        (1)輸入層.利用RSU實時獲取CAV發(fā)送的位置、速度等信息,通過TCC 預(yù)處理,獲取目標車道斷面時間步長為H的原始速度序列V[t] ,V[t] =[v(t-H),…,v(t-2),v(t-1) ],其中,v(t)為t時刻目標車道斷面的速度.基于EEMD算法可將V[t]分解為M個IMF 序列Vm[t],m=1,2,…,M和一個殘差序列R[t] ,其中,Vm[t] =[vm(t-H),…,vm(t-2),vm(t-1) ],R[t] =[r(t-H),…,r(t-2),r(t-1) ],t時刻HDL模型輸入為

        7.1.3 應(yīng)根據(jù)《中華人民共和國食品安全法》第五十三條的規(guī)定,收集和索取所有供應(yīng)商的合法證件,以及產(chǎn)品合格證明文件,并及時更新過期的證件與文件。

        (2)BiLSTM 層.對輸入的重構(gòu)序列變量Qt的時間特征進行提取,雙向結(jié)構(gòu)可以更好地保證模型對長期特征的記憶,BiLSTM在t時刻的輸出為

        (3)Attention 層.通過概率分配的方式對關(guān)鍵信息分配足夠的權(quán)重,從而更全面地獲得重構(gòu)向量特征,突出重要信息的影響,提高預(yù)測模型的準確率. 該層輸入為BiLSTM 層的輸出矩陣Ht=[h1,h2,…,hH]T,Attention 層在t時刻的權(quán)重系數(shù)αt和輸出pt為

        式中:et表示t時刻由BiLSTM層輸出向量ht所決定的注意力概率分布值;we和be為權(quán)重和偏置.

        (4)輸出層.將Attention 層輸出通過全連接計算出預(yù)測步長為Ha的預(yù)測結(jié)果yt=[yt,yt+1,…,yt+Ha-1]T,其中,yt為

        式中:wp和bp為權(quán)重和偏置.

        3.2 損失函數(shù)

        HDL 模型以均方誤差函數(shù)為優(yōu)化目標,目標函數(shù)為

        式中:LMSE為均方誤差(MSE)函數(shù);n為訓(xùn)練樣本數(shù)量k為預(yù)測值;yk為觀測值.

        訓(xùn)練過程中,選擇Adam算法更新模型的權(quán)值和閾值,與傳統(tǒng)隨機梯度下降算法不同,Adam 通過計算一階矩估計和二階矩估計為不同的參數(shù)設(shè)計獨立的自適應(yīng)性學(xué)習率,從而更新參數(shù)并使損失函數(shù)輸出值達到最優(yōu).

        4 實驗分析

        4.1 實驗數(shù)據(jù)與評價指標

        受實驗條件限制,無法構(gòu)建真實的CAVH 環(huán)境采集宏觀交通流數(shù)據(jù),采用北京市二環(huán)快速路外環(huán)車道級交通流速度數(shù)據(jù)檢驗混合深度學(xué)習模型的精度和可靠性.速度數(shù)據(jù)由路側(cè)微波檢測器采集,為車道斷面以2 min 為間隔的平均車速,將此數(shù)據(jù)集類比為圖3中CAVH 環(huán)境下RSU 與CAV數(shù)據(jù)交互和處理后得到的車道級速度序列數(shù)據(jù).如圖4所示,數(shù)據(jù)采集范圍包括5條道路的15個車道斷面,采集時間為2014年1月6日~2月2日的全天時段,即單車道采集的速度序列樣本為720個/天,以前21天數(shù)據(jù)為訓(xùn)練集,后7天數(shù)據(jù)為測試集.

        圖4 研究范圍和檢測器布設(shè)示意圖Fig.4 Schematic diagram of research scope and detector layout

        為評估模型的預(yù)測性能,選擇平均絕對誤差(MAE)和平均絕對百分比誤差(MAPE)評價模型精度,利用希爾不等系數(shù)(TIC)評價模型的擬合度.TIC值越小,擬合程度越高.

        式中:為速度預(yù)測值;yk為速度實測值;K為預(yù)測樣本數(shù)量.

        4.2 模型實施

        實驗環(huán)境為DELL 計算機(Inter(R) Core(TM)i7-8700CPU,8 G RAM),以Tensorflow 中Keras 高層神經(jīng)網(wǎng)絡(luò)API 為框架,在Python3.6 環(huán)境中完成模型搭建和訓(xùn)練.其中,HDL模型的超參數(shù)設(shè)置如下:訓(xùn)練迭代次數(shù)為100 次,批大小為64,BiLSTM隱藏層神經(jīng)元個數(shù)設(shè)置為128,為減小過擬合,BiLSTM和全連接層間設(shè)置Dropout,隨機斷開20%的神經(jīng)元.EEMD分解過程中噪聲標準差為0.2,生成的噪聲序列個數(shù)為500,最大迭代次數(shù)為50.

        4.3 結(jié)果分析

        (1)不同模型預(yù)測結(jié)果對比.

        選擇ARIMA、多層感知機(MLP)、徑向基函數(shù)神經(jīng)網(wǎng)絡(luò)(RBFNN)、LSTM、門控循環(huán)單元網(wǎng)絡(luò)(GRU)、BiLSTM 和EMD-BiLSTM 與本文模型對比,檢驗?zāi)P途群涂煽啃?ARIMA采用赤池信息量準則選擇參數(shù)組合;MLP和RBFNN均為3層結(jié)構(gòu),隱藏層神經(jīng)元個數(shù)為200,考慮上下游對預(yù)測車道的影響,輸入時間步長為10,即對單車道而言,輸入變量個數(shù)為90,其中,RBFNN采用高斯核函數(shù)作為徑向基函數(shù);LSTM、GRU、BiLSTM 和EMD-BiLSTM模型的超參數(shù)設(shè)置如4.2節(jié)所述,輸入模型的時間步長為10,均采用Adam算法進行訓(xùn)練,其中,BiLSTM 算法中包含Attention 機制,EMD- BiLSTM 采用EMD 分解重構(gòu)輸入和Attention機制的雙向LSTM算法.表1為不同方法單步預(yù)測的總體結(jié)果,圖5為各算法在不同車道的預(yù)測效果.

        表1 不同模型總體預(yù)測結(jié)果Table 1 Overall prediction results of different models

        從表1可知:ARIMA、LSTM和GRU模型的各指標較為接近,表明針對車道級速度預(yù)測而言,單一模型的預(yù)測效果區(qū)別較小,且考慮時空特征的機器學(xué)習模型(MLP、RBFNN)與僅考慮時間特征的深度學(xué)習模型(LSTM、GRU)相比無顯著優(yōu)勢;BiLSTM 考慮雙向特征和Attention 機制,與LSTM模型相比,MAE 和MAPE 分別優(yōu)化了2.23%和6.09%;EMD-BiLSTM 利用EMD 分解方法對時間序列輸入進行分解重構(gòu),與BiLSTM 相比,MAE、MAPE 和TIC分別提升了25.77%、23.59%和26.86%;本文HDL模型利用EEMD算法取代EMD算法,進一步提升了預(yù)測效果,與EMD-BiLSTM相比,MAE 和MAPE 分別優(yōu)化了22.42%和25.15%.實驗結(jié)果表明,采用EEMD算法可有效優(yōu)化模型輸入,提升混合模型的預(yù)測精度.

        圖5 各算法在不同車道預(yù)測結(jié)果Fig.5 Prediction results of different models at different lanes

        由圖5可知:各算法在內(nèi)側(cè)和中間車道預(yù)測效果最佳,這主要是由于外側(cè)車道受超車行為和車輛匯入影響,車速波動較大,增加了預(yù)測難度.本文HDL 模型預(yù)測效果最好,在車速較為穩(wěn)定的中間車道,MAE 和MAPE 達到3.22 和6.76%,與EMD-BiLSTM 相比兩項指標分別提升21.04%和21.30%.

        (2)參數(shù)分析.

        分析輸入步長、IMF 分量數(shù)目及預(yù)測步長對HDL 模型性能的影響.圖6 為不同輸入步長下預(yù)測精度和模型訓(xùn)練時間的變化情況.由圖6 可知,隨輸入步長的增加,HDL 模型預(yù)測精度先顯著提升后逐漸穩(wěn)定,單個目標車道預(yù)測的訓(xùn)練時間顯著增加.考慮模型精度和訓(xùn)練時間,HDL模型理想輸入步長為10~15.

        圖6 輸入步長與模型精度和訓(xùn)練時間關(guān)系Fig.6 Relationships among input time step,accuracy,and training time in HDL model

        輸入步長為10 時,IMF 分量數(shù)目對模型精度的影響如圖7 所示,分別考慮前5 個,前10 個,以及全部(>10)IMF 分量作為模型輸入.由圖7 可知:IMF 分量數(shù)目較少時,無法包含足夠有效的交通流信息,EMD-BiLSTM和HDL模型的預(yù)測精度偏低;IMF 數(shù)目大于10 時,兩者均可獲得較為理想的預(yù)測精度,且HDL 的預(yù)測誤差小于EMDBiLSTM.

        圖8為不同預(yù)測模型多步預(yù)測結(jié)果,預(yù)測步長由1 逐步增長到5.結(jié)果表明,隨著預(yù)測步長的增加,各模型的MAE 逐漸增大,EMD-BiLSTM 和HDL 模型精度始終高于其他模型,說明原始速度序列經(jīng)過EMD 和EEMD 分解重構(gòu)后的深度學(xué)習模型具有良好的預(yù)測精度和穩(wěn)定性.

        圖7 IMF 分量數(shù)目與模型精度的關(guān)系Fig.7 Relationship between input number of IMFs and accuracy in HDL model

        圖8 不同模型多步預(yù)測結(jié)果Fig.8 Different models in task of making multi-step-ahead prediction

        5 結(jié) 論

        針對智能網(wǎng)聯(lián)環(huán)境對交通流預(yù)測實時性和精細化的需求,本文提出適用于CAVH 環(huán)境的混合深度學(xué)習交通流預(yù)測模型.模型采用集成經(jīng)驗?zāi)B(tài)分解(EEMD)結(jié)合CAVH 下交通流可實時分解重構(gòu)特性,將原始輸入速度序列分解為多個經(jīng)驗?zāi)B(tài)分量并重構(gòu)為輸入矩陣,利用雙向LSTM 和注意力機制構(gòu)建深度學(xué)習網(wǎng)絡(luò)框架提取重構(gòu)輸入的時間特征,實現(xiàn)CAVH 環(huán)境下的車道級短時交通流速度預(yù)測.現(xiàn)階段構(gòu)建完整的CAVH 環(huán)境存在困難,故采集北京市二環(huán)快速路的交通流速度參數(shù)檢驗?zāi)P偷木群涂煽啃?實驗結(jié)果表明,在單步預(yù)測過程中,HDL模型的MAE、MAPE和TIC顯著優(yōu)于其他模型,隨著預(yù)測步長的增加,HDL的精度無顯著下降,因此,該模型的構(gòu)建機理和預(yù)測效果均能滿足CAVH技術(shù)發(fā)展的需要.

        猜你喜歡
        模型
        一半模型
        一種去中心化的域名服務(wù)本地化模型
        適用于BDS-3 PPP的隨機模型
        提煉模型 突破難點
        函數(shù)模型及應(yīng)用
        p150Glued在帕金森病模型中的表達及分布
        函數(shù)模型及應(yīng)用
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權(quán)M-估計的漸近分布
        3D打印中的模型分割與打包
        成人性生交大片免费入口| 粉嫩高中生无码视频在线观看| av网址大全在线播放| 久久蜜桃资源一区二区| 人妻丰满熟妇岳av无码区hd| 中日av乱码一区二区三区乱码| 国产成人精品三上悠亚久久| 国产激情小视频在线观看| 亚洲av综合色区无码专区桃色| 精品久久久久久久久久中文字幕| 天天插视频| 视频在线亚洲视频在线| 免费在线黄色电影| 久久午夜伦鲁片免费无码| 五月天无码| 国产熟女自拍av网站| 国产成人av综合色| 无码国产精品一区二区免费16| 亚洲综合网一区二区三区| 手机在线看片国产人妻| 亚洲av鲁丝一区二区三区黄| 正在播放国产多p交换视频| 久久色悠悠亚洲综合网| 国产成人久久精品一区二区三区| 中文字幕久久精品一二三区| 国产一区二区牛影视| 精品人妻午夜中文字幕av四季| 粉嫩小泬无遮挡久久久久久| 国产乱妇乱子在线视频| 一区二区三无码| 青青草手机在线免费观看视频 | 国产在线观看无码免费视频 | 天堂无码人妻精品av一区| 精品无码av不卡一区二区三区| 黄片亚洲精品在线观看| 亚洲av乱码一区二区三区林ゆな| 欧美老熟妇欲乱高清视频| 亚洲αv在线精品糸列 | 在线观看中文字幕一区二区三区| 亚洲毛片在线免费视频| 欧美aaaaaa级午夜福利视频|