亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于門控循環(huán)神經(jīng)網(wǎng)絡(luò)的 客運(yùn)站客流預(yù)測

        2022-09-27 07:24:48張亞偉陳瑞鳳劉小燕
        關(guān)鍵詞:客流量進(jìn)站客流

        張亞偉,陳瑞鳳,劉小燕

        (中國鐵道科學(xué)研究院集團(tuán)有限公司 電子計(jì)算技術(shù)研究所,北京 100081)

        0 引言

        客流是鐵路運(yùn)輸組織的基礎(chǔ)和關(guān)鍵因素,掌握客流的現(xiàn)狀和變化趨勢對(duì)分析鐵路運(yùn)營計(jì)劃、營銷策略和售票情況具有重要意義[1]。特大型客運(yùn)站如北京南站、鄭州東站、西安北站在高峰時(shí)期的日發(fā)送客流量超過20萬,如果沒有做好正確的客流應(yīng)對(duì)措施,會(huì)造成車站客流擁塞,阻礙進(jìn)站檢票通道,甚至?xí)斐绍囌具\(yùn)行癱瘓。因此,提前預(yù)知客運(yùn)站客流量可幫助客運(yùn)人員掌握車站客流動(dòng)態(tài)規(guī)律,從而及早制定客流疏散策略,如調(diào)整進(jìn)站檢票通道個(gè)數(shù)、候車廳客流轉(zhuǎn)移等。提前預(yù)知進(jìn)站客流也可以幫助旅客提前掌握客站的擁擠程度,進(jìn)而合理安排出行方式和出行時(shí)間。

        鐵路客流量的數(shù)據(jù)集為時(shí)間序列集合。時(shí)間序列的特點(diǎn)包括:①趨勢性。即某個(gè)變量隨著時(shí)間進(jìn)展或自變量變化,呈現(xiàn)一種比較緩慢而長期的持續(xù)上升、下降、停留的同性質(zhì)變動(dòng)趨向,但變動(dòng)幅度可能存在差異。②周期性。某因素由于外部影響隨著自然季節(jié)的交替出現(xiàn)高峰與低谷的規(guī)律。③隨機(jī)性。個(gè)別為隨機(jī)變動(dòng),整體呈統(tǒng)計(jì)規(guī)律。傳統(tǒng)的時(shí)間序列預(yù)測法包括移動(dòng)平均法、自回歸模型、自回歸滑動(dòng)平均模型、指數(shù)平滑法等,該類方法對(duì)平穩(wěn)、非白噪聲特點(diǎn)的數(shù)據(jù)預(yù)測有較好的效果,然而在處理鐵路客流量這種有突發(fā)性波動(dòng)的數(shù)據(jù)時(shí)往往預(yù)測效果欠佳。近年來,基于深度學(xué)習(xí)網(wǎng)絡(luò)的方法被提出和實(shí)踐,比傳統(tǒng)方法速度更快、預(yù)測更準(zhǔn)確。循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)是一種對(duì)序列數(shù)據(jù)進(jìn)行建模和預(yù)測的神經(jīng)網(wǎng)絡(luò),并且是深度學(xué)習(xí)領(lǐng)域中非常重要的模型。它克服了傳統(tǒng)機(jī)器學(xué)習(xí)方法對(duì)建模數(shù)據(jù)的諸多限制,廣泛應(yīng)用于多種任務(wù)中,如語音識(shí)別、機(jī)器翻譯、文本分類、時(shí)序數(shù)據(jù)預(yù)測等存在序列依賴關(guān)系的場景。循環(huán)神經(jīng)網(wǎng)絡(luò)可以將神經(jīng)元某時(shí)刻的輸出再次作為神經(jīng)元的輸入,由于網(wǎng)絡(luò)結(jié)構(gòu)中的參數(shù)是共享的,這也大大提高了訓(xùn)練性能,同時(shí)使模型可以應(yīng)用到不同長度的數(shù)據(jù)中[2]。由于RNN存在梯度消失和梯度爆炸的問題,改進(jìn)的循環(huán)神經(jīng)網(wǎng)絡(luò)長短期記憶網(wǎng)絡(luò)(LSTM)被提出,它能夠讓信息長期保存,成功解決了RNN的缺陷問題,成為當(dāng)前最流行的RNN改進(jìn)方法。研究使用LSTM的一種變體門控循環(huán)神經(jīng)網(wǎng)絡(luò)(GRU),較LSTM網(wǎng)絡(luò)的結(jié)構(gòu)更加簡單,同時(shí)也可以解決RNN網(wǎng)絡(luò)的長程依賴問題。

        1 門控循環(huán)神經(jīng)網(wǎng)絡(luò)模型

        1.1 RNN模型

        RNN網(wǎng)絡(luò)結(jié)構(gòu)的特殊性在于對(duì)于輸入RNN結(jié)構(gòu)的信息具有記憶性。對(duì)于輸入的序列,它的前一刻和后一刻是有關(guān)系的,從而使RNN結(jié)構(gòu)具有記憶功能。RNN層級(jí)結(jié)構(gòu)如圖1所示[3]。與傳統(tǒng)全連接神經(jīng)網(wǎng)絡(luò)模式一樣,由輸入層、隱藏層、輸出層組成。不同之處在于隱藏層節(jié)點(diǎn)有一個(gè)自我循環(huán)輸入,循環(huán)節(jié)點(diǎn)數(shù)與隱藏層節(jié)點(diǎn)數(shù)相同,該節(jié)點(diǎn)實(shí)現(xiàn)記憶功能。

        圖 1 RNN層級(jí)結(jié)構(gòu)Fig.1 RNN layer structure

        隱藏層節(jié)點(diǎn)結(jié)構(gòu)如圖2所示。xt-1,xt,xt+1代表前一刻、當(dāng)前時(shí)間、下一刻的輸入值,W為權(quán)重值,U為當(dāng)前輸入的權(quán)重值,V為輸出樣本權(quán)重值,St為樣本值在t處所存儲(chǔ)的記憶值。St表達(dá)式如公式 ⑴ 所示。

        圖 2 隱藏層節(jié)點(diǎn)結(jié)構(gòu)Fig.2 Node structure of hidden layer

        在t= 1時(shí)刻,一般初始化輸入S0= 0,隨機(jī)初始化W,U,V。計(jì)算公式如公式 ⑵ 至公式 ⑷ 所示。其中,f,g為激活函數(shù)。f一般為sigmoid,tanh,relu函數(shù),g一般為softmax函數(shù)[4]。

        以此類推,得到最終的輸出如公式 ⑸ 至公式⑺ 所示。

        1.2 LSTM模型

        LSTM是一種變種的RNN,其精髓在于引入了細(xì)胞狀態(tài)概念,不同于RNN只考慮最近的狀態(tài),LSTM為了能記住長期的狀態(tài),在RNN的基礎(chǔ)上增加了一路輸入和一路輸出,增加的這一路就是細(xì)胞狀態(tài),LSTM的細(xì)胞狀態(tài)會(huì)決定哪些狀態(tài)應(yīng)該被留下來,哪些狀態(tài)應(yīng)該被遺忘[5]。LSTM算法結(jié)構(gòu)如圖3所示。

        算法如公式 ⑻ 至公式 ⑿ 所示。

        公式 ⑻ 中,ft是遺忘門,即一個(gè)遺忘值從0到1之間的數(shù)的向量,當(dāng)遺忘值越接近于1時(shí),與其相乘后的原先的細(xì)胞的信息會(huì)被更多的保留下來。相反,當(dāng)遺忘值越接近于0時(shí),與其相乘后的原先細(xì)胞的信息也會(huì)越接近于0,不被保留。公式⑿中,ft?ct-1代表上一時(shí)刻(t- 1)的細(xì)胞經(jīng)過遺忘門后,被保留下來的信息量。

        對(duì)于公式 ⑼ 中輸入門it,同理也是一個(gè)元素值從0到1之間的數(shù)的向量。公式 ⑽代表當(dāng)前時(shí)刻(t)需要更新到當(dāng)前細(xì)胞狀態(tài)的候選信息,之所以選擇用tanh作為激活函數(shù),是為了生成[-1,1]的值,迎合大多數(shù)場景下分布是0中心的需求。因此,公式 ⑿ 中代表當(dāng)前時(shí)刻t真實(shí)加入到細(xì)胞狀態(tài)里的當(dāng)前細(xì)胞狀態(tài)的候選信息量。

        經(jīng)過遺忘門的遺忘和輸入門的輸入后,最后當(dāng)前細(xì)胞狀態(tài)如公式 ⒀ 所示。

        最后的輸出門控制輸出當(dāng)前細(xì)胞狀態(tài)的信息量的多少,即最后的輸出信息量如公式 ⒁ 所示。

        當(dāng)輸入的序列中,沒有重要信息時(shí),LSTM的遺忘門的值就接近于1,輸入門的值接近于0,即過去的細(xì)胞記憶會(huì)被保存,從而實(shí)現(xiàn)長期記憶[6]。

        1.3 GRU模型

        GRU輸入輸出的結(jié)構(gòu)與普通的RNN相似,其內(nèi)部思想與LSTM相似。與LSTM相比,GRU內(nèi)部少了一個(gè)“門控”,參數(shù)比LSTM少,但是卻能夠達(dá)到與LSTM相當(dāng)?shù)墓δ躘7]。GRU模型結(jié)構(gòu)如圖4所示。

        圖 4 GRU模型結(jié)構(gòu)Fig.4 GRU model structure

        與LSTM相比,GRU把遺忘門和輸入門結(jié)合為一個(gè)更新門zt,模型算法如公式 ⒂ 至公式 ⒅ 所示。細(xì)胞狀態(tài)和隱藏單元都為ht,使得模型結(jié)構(gòu)比LSTM更為簡單。公式 ⒅ 中zt?代表當(dāng)前時(shí)刻輸入細(xì)胞狀態(tài)的候選信息量,(1 -zt)?ht-1代表上一時(shí)刻被保留下來的信息量。若沒有重要信息出現(xiàn)時(shí),zt會(huì)接近于0,即細(xì)胞狀態(tài)不會(huì)更新,ht會(huì)約等于ht-1,還是上一時(shí)刻的細(xì)胞狀態(tài)[8]。

        2 基于GRU模型的預(yù)測算法

        基于GRU模型對(duì)客流預(yù)測的算法流程圖如圖5 所示,將原始客流數(shù)據(jù)進(jìn)行預(yù)處理得到標(biāo)準(zhǔn)化數(shù)據(jù),輸入構(gòu)造好的GRU模型進(jìn)行訓(xùn)練,得到訓(xùn)練好的GRU模型,利用該模型得到最終的預(yù)測結(jié)果。

        圖 5 算法流程圖Fig.5 Algorithm flow chart

        2.1 數(shù)據(jù)預(yù)處理

        數(shù)據(jù)來源為北京北站1年的進(jìn)站客流數(shù)據(jù),每30 min采集一次進(jìn)站客流數(shù),進(jìn)站客流圖如圖6所示,展示了包含節(jié)假日在內(nèi)的9月25日至10月4日 10天的數(shù)據(jù),其中橫坐標(biāo)為時(shí)間,縱坐標(biāo)為進(jìn)站客流數(shù)。從波形可以看出其具有明顯的周期特點(diǎn),在早晨和傍晚呈高峰趨勢,且在節(jié)假日時(shí)客流有明顯提升。夜間車站關(guān)閉,客流量為0。

        圖 6 進(jìn)站客流圖Fig.6 Station passenger flow

        以2021年9月30日當(dāng)天的48個(gè)數(shù)據(jù)樣本為例,1天內(nèi)的客流數(shù)如表1所示。

        表 1 1天內(nèi)的客流數(shù) 人Tab.1 Passenger flow within one day

        對(duì)數(shù)據(jù)先做標(biāo)準(zhǔn)化處理,以減小所得結(jié)果誤差。該數(shù)據(jù)值波峰波谷值差異較大,因此采用Z-Score標(biāo)準(zhǔn)化方法[9]進(jìn)行處理。Z-Score能夠?qū)⒉煌考?jí)的數(shù)據(jù)轉(zhuǎn)化為統(tǒng)一量度的Z-Score分值進(jìn)行比較。首先計(jì)算總體數(shù)據(jù)均值、總體數(shù)據(jù)標(biāo)準(zhǔn)差,之后將觀測值標(biāo)準(zhǔn)化,如公式 ⒆ 所示。

        其中,x*為標(biāo)準(zhǔn)化后的樣本值,x為個(gè)體觀測值,μ為樣本數(shù)據(jù)的均值,σ為樣本數(shù)據(jù)的標(biāo)準(zhǔn)差。對(duì)每一天的數(shù)據(jù)單獨(dú)做標(biāo)準(zhǔn)化處理,標(biāo)準(zhǔn)化樣本如表2所示,保留2位小數(shù)。

        表 2 標(biāo)準(zhǔn)化樣本Tab.2 Standardized sample

        2.2 構(gòu)造模型及訓(xùn)練

        (1)構(gòu)造GRU訓(xùn)練模型。首先將1年的原始數(shù)據(jù)導(dǎo)入,并按8 : 2的比例劃分訓(xùn)練集X_train和測試集X_test,采用Z-Score標(biāo)準(zhǔn)化方法將數(shù)據(jù)進(jìn)行標(biāo)準(zhǔn)化處理。

        (2)構(gòu)造GRU網(wǎng)絡(luò)模型。GRU模型需要輸入2個(gè)參數(shù),一個(gè)是unit,一個(gè)是input_shape。形 式 為GRU (unit,input_shape = (TIME_STEPS,INPUT_SIZE))。unit指神經(jīng)元的數(shù)量,input_shape指輸入集的特征。TIME_STEPS代表序列本身的長度,INPUT_SIZE代表輸入集的大小。根據(jù)數(shù)據(jù)集預(yù)測任務(wù),unit取值為10,TIME_STEPS為48,INPUT_SIZE為1。另外,需指定GRU模型輸出維度,格式為Dense (OUTPUT_SIZE),以及所采用的激活函數(shù)Activation,格式為Activation。由于輸出維度為1,因此OUTPUT_SIZE取值為1,Activation采用softmax函數(shù)。

        (3)GRU模型訓(xùn)練。將訓(xùn)練集輸入構(gòu)造好的GRU模型進(jìn)行訓(xùn)練,迭代次數(shù)10 000次,批處理樣本數(shù)為16[10]。

        (4)預(yù)測。對(duì)最后1天(48條數(shù)據(jù))的測試集進(jìn)行預(yù)測,并與原測試集對(duì)比,計(jì)算出RMSE。

        2.3 實(shí)驗(yàn)評(píng)價(jià)標(biāo)準(zhǔn)

        評(píng)價(jià)標(biāo)準(zhǔn)采用均方根誤差(RMSE)方法,該方法可以很好地反映算法的精度。RMSE是觀測值與真實(shí)值偏差的平方和與觀測次數(shù)比值的平方根。計(jì)算過程如公式 ⒇ 所示,yi為數(shù)據(jù)樣本的真實(shí)值,為所計(jì)算的預(yù)測值,m為觀測樣本數(shù)[11]。

        3 結(jié)果分析

        用RNN,LSTM,GRU模型進(jìn)行訓(xùn)練比對(duì),迭代次數(shù)都為10 000次。RNN損失函數(shù)曲線如圖7 所示,LSTM損失函數(shù)曲線如圖8所示,GRU損失函數(shù)曲線如圖9所示。3種循環(huán)神經(jīng)網(wǎng)絡(luò)的損失函數(shù)曲線在迭代8 000次左右趨于平穩(wěn)趨勢,收斂時(shí)間相當(dāng)。最終的損失函數(shù)值RNN模型為0.82,LSTM模型為0.45,GRU模型為0.32。

        圖 7 RNN損失函數(shù)曲線Fig.7 Loss function curve of RNN

        圖 8 LSTM損失函數(shù)曲線Fig.8 Loss function curve of LSTM

        圖 9 GRU損失函數(shù)曲線Fig.9 Loss function curve of GRU

        采用GRU模型對(duì)客流量進(jìn)行1天(48個(gè)時(shí)間點(diǎn))的預(yù)測,GRU預(yù)測結(jié)果如圖10所示。深藍(lán)色波形代表原始樣本觀測值,紅色虛線波形為GRU模型預(yù)測值。

        圖10 GRU預(yù)測結(jié)果Fig.10 Predicted results of GRU

        采用RNN,LSTM對(duì)客流量進(jìn)行預(yù)測對(duì)比,RNN預(yù)測結(jié)果如圖11所示,LSTM預(yù)測結(jié)果如圖12 所示。與圖10對(duì)比可以看出,采用GRU模型的預(yù)測結(jié)果對(duì)凸起的波峰有更高的靈敏度,也更接近原始波形。

        圖 11 RNN預(yù)測結(jié)果Fig.11 Predicted results of RNN

        圖 12 LSTM預(yù)測結(jié)果Fig.12 Predicted results of LSTM

        3種模型的RMSE結(jié)果比對(duì)如表3所示。GRU的RMSE最低,誤差最小。

        表 3 RMSE結(jié)果比對(duì)Tab.3 RMSE result comparison

        4 結(jié)束語

        通過分析客運(yùn)站往年實(shí)際發(fā)送客流量,提出了使用GRU模型對(duì)客流量進(jìn)行預(yù)測的方法。以北京北站1年的客運(yùn)發(fā)送量為樣本,分析其客流特征后采用Z-Score方法進(jìn)行標(biāo)準(zhǔn)化處理。利用GRU模型按照劃分的訓(xùn)練集和測試集進(jìn)行訓(xùn)練,構(gòu)造GRU模型。按照該模型對(duì)北京北站客流量1天的客流進(jìn)行預(yù)測,并且與RNN模型、LSTM模型進(jìn)行了對(duì)比測試。通過RMSE比對(duì)與波形分析,GRU的RMSE更低,且更接近原始波形。利用GRU模型算法對(duì)客運(yùn)站發(fā)送量進(jìn)行預(yù)測,可使客運(yùn)人員提前預(yù)知下一時(shí)刻的進(jìn)站客流數(shù)據(jù),對(duì)車站及時(shí)疏散旅客、防范風(fēng)險(xiǎn)具有重要意義。

        猜你喜歡
        客流量進(jìn)站客流
        客流增多
        進(jìn)站口上下行載頻切換時(shí)引起ATP制動(dòng)問題分析
        春運(yùn)期間北京西站共有154.8萬人次刷臉進(jìn)站
        祖國(2018年6期)2018-06-27 10:27:26
        閱讀(科學(xué)探秘)(2018年8期)2018-05-14 10:06:29
        基于嵌入式系統(tǒng)的商場客流量統(tǒng)計(jì)算法
        基于自學(xué)習(xí)補(bǔ)償?shù)氖覂?nèi)定位及在客流分析中的應(yīng)用
        基于AFC數(shù)據(jù)的城軌站間客流量分布預(yù)測
        人工免疫算法在電梯客流時(shí)段劃分的應(yīng)用
        重慶軌道交通三號(hào)線列車進(jìn)站警示功能接口電路的分析
        城市軌道交通運(yùn)營客流數(shù)據(jù)分析缺陷及應(yīng)對(duì)
        黑人巨茎大战俄罗斯美女| 久久人妻中文字幕精品一区二区 | 国产综合精品久久久久成人| 亚洲中文字幕成人无码| 高潮av一区二区三区| 亚洲国产精品久久久久婷婷老年| 亚洲永久国产中文字幕| 爆乳午夜福利视频精品| 国产高潮国产高潮久久久| 丁香五月亚洲综合在线| 美腿丝袜一区在线观看| 天天综合久久| 国产福利精品一区二区| 白白色发布免费手机在线视频观看| 97无码人妻一区二区三区蜜臀| 免费网站看v片在线18禁无码| 国产人妖在线视频网站| 亚洲AV无码专区国产H小说| 国产99久久久国产精品免费看| 亚洲中文字幕第15页| 国产亚洲精选美女久久久久| 久久精品人人爽人人爽| 亚洲综合激情另类小说区| 亚洲一区二区三区成人网| 日韩在线视频不卡一区二区三区| 亚洲经典三级| 亚洲精品乱码久久久久蜜桃| 久久久人妻一区精品久久久| 亚洲国产一区二区三区网| 国产三级精品三级在线观看| 99久久精品在线视频| 白嫩少妇在线喷水18禁| 国产成人aa在线观看视频| 99久久综合狠狠综合久久| 国产内射爽爽大片视频社区在线| av网址在线一区二区| 亚洲无码视频一区:| 国产精品-区区久久久狼| 麻豆国产精品va在线观看不卡| 亚洲国产成人久久精品一区| 国产内射视频免费观看|