亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于雙向門控循環(huán)單元的通信基站流量預(yù)測(cè)研究

        2022-06-28 02:56:22高躍衡石尚軒羅吉祥
        軟件導(dǎo)刊 2022年6期
        關(guān)鍵詞:梯度時(shí)刻基站

        高躍衡,張 艷,石尚軒,羅吉祥

        (上海理工大學(xué)光電信息與計(jì)算機(jī)工程學(xué)院,上海 200093)

        0 引言

        2021 年是我國“十四五”規(guī)劃開局之年,“加快數(shù)字化發(fā)展”“完善基礎(chǔ)設(shè)施網(wǎng)絡(luò)”已成為“十四五”規(guī)劃的重中之重[1]。隨著現(xiàn)代通信科學(xué)技術(shù)的飛速更迭,目前已經(jīng)發(fā)展出5G 乃至6G 的高速通信技術(shù)[2],讓生活變得更加便捷。但在通信技術(shù)發(fā)展過程中,也衍生出了移動(dòng)通信基站潮汐效應(yīng)問題,即網(wǎng)絡(luò)流量在一天的不同時(shí)段具有某種周期性的變化特征[3]。在流量使用高峰時(shí)段,通信基站[4-5]往往會(huì)處于超負(fù)荷運(yùn)轉(zhuǎn)狀態(tài),無線網(wǎng)絡(luò)較為擁堵,用戶上網(wǎng)體驗(yàn)變差[6-7],此時(shí)運(yùn)營商需要擴(kuò)充基站的載頻數(shù)量以緩解擁堵,從而造成高能耗。相反,在流量使用低谷時(shí)段,如果仍按照高峰時(shí)段的標(biāo)準(zhǔn)配置基站載頻,通信基站的資源利用率就會(huì)變得很低,從而造成不必要的資源浪費(fèi)。

        為了避免網(wǎng)絡(luò)擁堵和資源浪費(fèi),采用合理的智能化算法以實(shí)現(xiàn)基站載頻數(shù)量配置的自動(dòng)化、智能化、精準(zhǔn)化、快速化,成為當(dāng)前亟待解決的問題。

        1 相關(guān)工作

        為了科學(xué)配置資源,對(duì)于通信基站流量配置常采用機(jī)器學(xué)習(xí)模型預(yù)測(cè)方法。目前,科研工作者已經(jīng)從不同角度提出了以下幾類解決方案:

        (1)利用線性模型進(jìn)行預(yù)測(cè)。如:文獻(xiàn)[8-10]基于線性模型分別提出利用自回歸滑動(dòng)平均模型(Autoregressive Moving Average Model,ARMA)、Switching 差分整合移動(dòng)平均自回歸模型(Autoregressive Integrated Moving Average model,ARIMA)、模糊自回歸模型進(jìn)行預(yù)測(cè)的方法。然而,通信基站流量往往不是線性的,并且較為復(fù)雜,利用線性模型預(yù)測(cè)不但精度不高,而且只能做短期預(yù)測(cè)。

        (2)利用遞歸神經(jīng)網(wǎng)絡(luò)進(jìn)行預(yù)測(cè)。遞歸神經(jīng)網(wǎng)絡(luò)可以用來模擬流量非線性變化。如:劉淵等[11]提出一種基于小波分析、自回歸網(wǎng)絡(luò)(Autoregressive Model,AR)和Elman 網(wǎng)絡(luò)的組合預(yù)測(cè)方法。Li 等[12]采用螢火蟲算法優(yōu)化網(wǎng)絡(luò)的初始權(quán)值和閾值,再結(jié)合誤差反向傳播算法(Error Back Propagation Training,BP)對(duì)流量進(jìn)行預(yù)測(cè),預(yù)測(cè)結(jié)果相對(duì)更精確,但仍未達(dá)到理想效果。

        (3)利用循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,RNN)進(jìn)行預(yù)測(cè)。雖然遞歸神經(jīng)網(wǎng)絡(luò)可以模擬實(shí)際流量的非線性變化狀態(tài),但是由于遞歸神經(jīng)網(wǎng)絡(luò)的形式是樹狀展開,因此捕獲時(shí)序特征的能力較弱。而對(duì)于通信基站流量,其最密切關(guān)聯(lián)的變量就是時(shí)間,因此有學(xué)者提出利用RNN,一種遞歸神經(jīng)網(wǎng)絡(luò)的變體,它對(duì)時(shí)序特征的捕獲能力很強(qiáng),且對(duì)時(shí)序信息具有記憶能力。長(zhǎng)短期記憶網(wǎng)絡(luò)(Long Short-term Memory,LSTM)是RNN 的一種變體,其結(jié)構(gòu)較RNN 更為復(fù)雜,有效地解決了RNN 梯度爆炸或梯度消失問題,且對(duì)于長(zhǎng)期預(yù)測(cè)更為精確。Vinayakumar 等[13]在相同的誤差評(píng)價(jià)指標(biāo)上對(duì)比RNN 和LSTM,分別對(duì)網(wǎng)絡(luò)流量作出預(yù)測(cè),LSTM 明顯優(yōu)于RNN。有學(xué)者將LSTM 與其他網(wǎng)絡(luò)或方法結(jié)合,提出改良LSTM,如:文獻(xiàn)[14-16]分別結(jié)合多通道方式和LSTM、自動(dòng)編碼器和LSTM、改進(jìn)粒子濾波算法(Particle Filter,PF)和LSTM。門控循環(huán)單元(Gate Recurrent Unit,GRU)是RNN 的另一種變體,其在LSTM 的基礎(chǔ)上簡(jiǎn)化了部分結(jié)構(gòu),并保持精確的預(yù)測(cè)能力,使預(yù)測(cè)更加高效,且GRU 在通信基站流量預(yù)測(cè)問題上表現(xiàn)要略微優(yōu)于LSTM。Ramakrishnan 等[17]對(duì) 比GRU 和LSTM 發(fā)現(xiàn),GRU 較LSTM 預(yù)測(cè)更準(zhǔn)確、速度更快,也更高效。Cao 等[18]結(jié)合CNN 和門控循環(huán)單元(Gate Recurrent Unit,GRU),使CNN 將流量學(xué)習(xí)為圖像預(yù)測(cè)交互式流量,GRU 預(yù)測(cè)純業(yè)務(wù)流量,其精確度及效率要高于LSTM。

        但是,上述通信基站流量預(yù)測(cè)方法,大多是按照數(shù)據(jù)時(shí)序進(jìn)行單向預(yù)測(cè),只考慮了前一時(shí)刻和當(dāng)前時(shí)刻的關(guān)聯(lián),并沒有考慮到前一時(shí)刻、當(dāng)前時(shí)刻和后一時(shí)刻之間的關(guān)聯(lián),預(yù)測(cè)精度不夠高。因此,必須從提高精度著手進(jìn)行深入研究。根據(jù)通信基站流量預(yù)測(cè)本質(zhì)上是時(shí)間序列預(yù)測(cè)這一特征,再利用GRU 對(duì)于時(shí)間序列的敏感性特點(diǎn),及其在長(zhǎng)期預(yù)測(cè)較RNN 更精確且相對(duì)于LSTM 效率更高兩方面的優(yōu)勢(shì),進(jìn)行流量預(yù)測(cè)算法研究。提出一種基于雙向門控循環(huán)單元(Bi-directional Gate Recurrent Unit,BGRU),對(duì)于通信基站流量具有良好記憶功能和更高精確度的預(yù)測(cè)模型。該模型在訓(xùn)練時(shí),將輸入序列從正反兩個(gè)方向同時(shí)進(jìn)行訓(xùn)練,將每個(gè)細(xì)胞的狀態(tài)值進(jìn)行拼接,以保留雙向的邊緣信息。

        2 算法原理

        算法整體流程如下:

        (1)數(shù)據(jù)處理。對(duì)數(shù)據(jù)進(jìn)行分組打亂和標(biāo)準(zhǔn)化處理。

        (2)選取網(wǎng)絡(luò)。對(duì)比線性網(wǎng)絡(luò)、遞歸神經(jīng)網(wǎng)絡(luò)、RNN、LSTM 以及GRU,綜合考量預(yù)測(cè)精度和實(shí)際情況發(fā)現(xiàn),GRU在基站流量預(yù)測(cè)問題上的表現(xiàn)最好,但仍有提升空間。再考慮到時(shí)間序列的前后關(guān)聯(lián)性,提出基于BGRU 的基站流量預(yù)測(cè)網(wǎng)絡(luò)。

        (3)訓(xùn)練過程。訓(xùn)練時(shí)采取Adam 算法,該算法使得梯度更新平穩(wěn)并能處理稀疏梯度,更容易得到全局最優(yōu)解。

        (4)實(shí)驗(yàn)驗(yàn)證。設(shè)計(jì)參數(shù)調(diào)整實(shí)驗(yàn)和對(duì)比實(shí)驗(yàn),參數(shù)調(diào)整實(shí)驗(yàn)反映調(diào)整過程,對(duì)比實(shí)驗(yàn)引入4 個(gè)網(wǎng)絡(luò):LSTM、GRU、雙向長(zhǎng)短期記憶網(wǎng)絡(luò)(Bi-directional Long Short-term Memory,BLSTM)和BGRU。采取GRU 和BGRU、LSTM 和BLSTM 作對(duì)比,反映雙向網(wǎng)絡(luò)在處理時(shí)序問題上精確度優(yōu)于單向網(wǎng)絡(luò)。采取LSTM 和GRU、BLSTM 和BGRU 作對(duì)比,反映在基站流量預(yù)測(cè)問題上GRU 要優(yōu)于LSTM。

        2.1 GRU神經(jīng)網(wǎng)絡(luò)

        2014 年,Chung 等[19]提出門控循環(huán)單元GRU 網(wǎng)絡(luò),它在性能上與LSTM 不相上下,都能有效地對(duì)RNN 所產(chǎn)生的梯度爆炸或梯度消失現(xiàn)象進(jìn)行抑制,兩者在不同的問題上會(huì)有不同的效果,需具體分析。但是相較于LSTM 的“三門”設(shè)計(jì),GRU 比LSTM 的結(jié)構(gòu)更為簡(jiǎn)潔,計(jì)算效率要高于LSTM,GRU 在LSTM 的結(jié)構(gòu)上進(jìn)行簡(jiǎn)化,GRU 只有兩個(gè)門控單元,分別是更新門與重置門。如圖1 所示,即GRU 結(jié)構(gòu)圖。

        Fig.1 Structure of GRU圖1 GRU結(jié)構(gòu)

        “更新門”與“重置門”的數(shù)學(xué)公式分別如式(1)、式(2)所示。

        GRU 網(wǎng)絡(luò)將上個(gè)時(shí)刻的狀態(tài)信息ht-1和當(dāng)前時(shí)刻的輸入信息xt各自通過權(quán)重Wz后,再拼接通過σ即Sigmoid函數(shù)得到這兩個(gè)門控單元的狀態(tài),并記更新后的信息為zt,而重置后的信息為rt。

        “重置過程”與“更新過程”的數(shù)學(xué)公式分別如式(3)、式(4)所示。

        由式(3)可知,將重置后的信息rt與上個(gè)時(shí)刻的狀態(tài)信息ht-1相乘后,與xt各自通過權(quán)重W后進(jìn)行拼接。隨后通過tanh 激活函數(shù),將其范圍縮放在[-1,1]區(qū)間,得到候選值,包含對(duì)當(dāng)前時(shí)刻信息的記憶情況,這就是“重置過程”。由式(4)可知,(1 -zt)代表遺忘程度,而其與上個(gè)時(shí)刻的狀態(tài)信息ht-1相乘后,則表示對(duì)上個(gè)時(shí)刻的信息相應(yīng)程度上的遺忘,更新后的信息zt與候選值相乘,則代表了對(duì)當(dāng)前信息相應(yīng)程度上的記憶,最后將兩者拼接為當(dāng)前時(shí)刻的輸出,即ht,這便為“更新過程”。

        2.2 BGRU神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)

        如圖2 所示,即單BGRU 的結(jié)構(gòu)圖。BGRU 結(jié)構(gòu)采用兩層GRU 在同一組數(shù)據(jù)上并行預(yù)測(cè),兩層GRU 相互獨(dú)立,互不干擾。輸入X={X1,X2,X3,…,Xt}和狀態(tài)信息h={h0,h1,h2,…,ht}將依次輸入GRU 和GRU’,其中GRU 為前向?qū)?,GRU’為后向?qū)?,兩層的傳播方向相反,每個(gè)時(shí)刻各自都有輸出,分別包含前向信息和后向信息,最終拼接在一起作為該時(shí)刻的輸出Y={Y1,Y2,Y3,…,Yt}。因此,該輸出便保留了邊緣信息。

        2.3 BGRU神經(jīng)網(wǎng)絡(luò)設(shè)計(jì)

        Fig.2 Single layer BGRU structure圖2 單層BGRU結(jié)構(gòu)

        盡管LSTM 或是GRU 都針對(duì)無法進(jìn)行長(zhǎng)時(shí)序記憶作出了修正方案,但隨著時(shí)序的延長(zhǎng),或多或少會(huì)遺忘一部分邊緣信息。因此,為了提升模型精度、盡量不遺漏邊緣信息,將采用三層雙向門控循環(huán)單元BGRU,結(jié)合一層全連接層Dense 進(jìn)行基站流量信息預(yù)測(cè)??紤]到Tanh 函數(shù)區(qū)間在[-1,1],而上行流量并沒有負(fù)值出現(xiàn),于是采取計(jì)算量更小且導(dǎo)數(shù)性質(zhì)更優(yōu)的ReLU 函數(shù)作為激活函數(shù),式(5)為ReLU 函數(shù)的數(shù)學(xué)表達(dá)式。

        損失函數(shù)采用均方誤差(Mean Squared Error,MSE),用來衡量預(yù)測(cè)值與真實(shí)值之間的偏差程度。每層選取32個(gè)神經(jīng)元,且每層的合并方式選擇拼接concat。

        2.4 BGRU預(yù)測(cè)流程

        BGRU 預(yù)測(cè)流程:

        (1)數(shù)據(jù)處理。將數(shù)據(jù)按照一定時(shí)間長(zhǎng)度劃分為各序列,將序列隨機(jī)打亂,保證訓(xùn)練時(shí)的可靠性,隨后進(jìn)行標(biāo)準(zhǔn)化操作,使訓(xùn)練更高效且精度更高。

        (2)數(shù)據(jù)輸入。將處理好的上行流量數(shù)據(jù)按照三維向量的形狀輸入到第一層BGRU 網(wǎng)絡(luò)內(nèi),其中第一維是所有數(shù)據(jù)的數(shù)量總和,第二維是按照一定時(shí)間間隔劃分好的所有時(shí)間序列的數(shù)量總和,第三維則是數(shù)據(jù)特征量,在此僅為上行流量。

        (3)單層BGRU 處理。根據(jù)式(1)、式(2),正向GRU 通過1 時(shí)刻的輸入X1及0 時(shí)刻的狀態(tài)h0經(jīng)過Sigmoid 函數(shù)得到“更新門”和“重置門”的狀態(tài)z1、r1。根據(jù)式(3),r1*h0和x1拼接,通過ReLU 函數(shù)得到狀態(tài)候選值。再根據(jù)式(4),時(shí)刻信息遺忘后的信息(1 -z1)*h0和1 時(shí)刻信息要記憶的信息拼接得到1 時(shí)刻的輸出h1。循環(huán)上述過程,直到得到所有時(shí)刻的輸出h={h0,h1,h2,…,ht}。同樣地,反向GRU 也與上述過程相類似,只是從序列的反向計(jì)算得到所有時(shí)刻的輸出。隨后將各時(shí)刻的正反向輸出進(jìn)行concat 拼接,得到第一層BGRU 各時(shí)刻的輸出Y={Y1,Y2,Y3,…,Yt}。

        (4)多層BGRU 處理。多層BGRU,即將步驟(3)重復(fù)多遍,得到更深層網(wǎng)絡(luò),提取更本質(zhì)的特征,采取3 層BGRU,即將步驟(3)重復(fù)3 遍。將第1 層BGRU 的輸出作為第2 層BGRU 的輸入,循環(huán)上述過程,最終第3 層BGRU的輸出只取其中正向GRU 的最后時(shí)刻輸出以及反向GRU最后時(shí)刻的輸出,進(jìn)行concat 拼接。輸入進(jìn)入Dense 層,整合后得到最終輸出。如圖3所示,即具體網(wǎng)絡(luò)結(jié)構(gòu)。

        Fig.3 3-layer BGRU network structure圖3 3層BGRU網(wǎng)絡(luò)結(jié)構(gòu)

        2.5 Adam優(yōu)化算法

        模型采取Adam 算法[20]進(jìn)行訓(xùn)練模型。對(duì)Adam 算法過程進(jìn)行描述如式(6)——式(8)所示。

        由式(6)可知,β1為指數(shù)衰減率,g為t時(shí)刻梯度,mt為梯度一階矩,此式可以看作是對(duì)歷史梯度求加權(quán)平均。根據(jù)式(7),β2為指數(shù)衰減率,g為t時(shí)刻梯度,vt為梯度二階矩,此式可以看作是對(duì)歷史梯度的平方求加權(quán)平均。而式(8)則是對(duì)變量進(jìn)行更新,其中為lrt學(xué)習(xí)率,?是為了避免除數(shù)等于0以致出現(xiàn)數(shù)學(xué)錯(cuò)誤而設(shè)定的一個(gè)常數(shù)。

        Adam 算法引入了兩個(gè)關(guān)鍵變量,即梯度一階矩與梯度二階矩。梯度一階矩參照Momentum 算法,結(jié)合動(dòng)量的概念,可以實(shí)現(xiàn)梯度更新時(shí)的穩(wěn)定和平滑。梯度二階矩參照Rmsprop 算法,用來處理稀疏梯度。Adam 算法訓(xùn)練時(shí)所需內(nèi)存小,且需調(diào)整的參數(shù)較少,其在更新步長(zhǎng)時(shí)會(huì)作出自適應(yīng)調(diào)節(jié),可以有效地讓梯度下降到全局最優(yōu)解。

        若不使用Adam 算法進(jìn)行訓(xùn)練,則不論是Momentum 算法、Rmsprop 算法抑或是Sgd 算法,都會(huì)有各自的缺點(diǎn),帶來諸如收斂到局部最優(yōu)或是收斂太慢等問題,而Adam 算法則綜合了諸多梯度下降算法的優(yōu)點(diǎn)。

        3 實(shí)驗(yàn)與分析

        3.1 數(shù)據(jù)集與數(shù)據(jù)預(yù)處理

        本文數(shù)據(jù)集來自于北京國測(cè)星繪信息技術(shù)有限公司http://www.satimage.cn/,其中包括眾多小區(qū)每小時(shí)的上行及下行流量數(shù)據(jù),從2018 年3 月1 日至2018 年4 月19 日,共計(jì)50 天。取其中第186 號(hào)小區(qū)的上行流量作為研究數(shù)據(jù),并按照4∶1 的比例將其劃分為訓(xùn)練集和測(cè)試集,其中訓(xùn)練集共有960 條數(shù)據(jù),測(cè)試集有240 條數(shù)據(jù)。最后用2018 年4 月20 日至2018 年4 月24 日,共計(jì)5 天的數(shù)據(jù)作為未來數(shù)據(jù),進(jìn)行結(jié)果驗(yàn)證。

        首先將數(shù)據(jù)集中所有時(shí)間的上行流量總量N按一定的時(shí)間步長(zhǎng)Timestep提取為一個(gè)長(zhǎng)度為Timestep的時(shí)間序列Time(t)1,隨后重復(fù)此提取步驟得到一個(gè)數(shù)據(jù)序列Data{Time(t)1,Time(t)2,Time(t)3,...,Time(t)N-Timestep},然 后將此數(shù)據(jù)序列隨機(jī)打亂得到新的數(shù)據(jù)序列Data'{Time(t)p,Time(t)q,Time(t)r,...,Time(t)w},p≠q≠r≠w且皆為常數(shù),且皆小于等于(N-Timestep)。

        將所得新數(shù)據(jù)序列Data'按4∶1 的比例劃分為訓(xùn)練集Train{Time(t)1,Time(t)2,Time(t)3,...,Time(t)N*0.8} 和測(cè)試集Test{Time(t)1,Time(t)2,Time(t)3,...,Time(t)N*0.2},將Train和Test按照式(9)進(jìn)行標(biāo)準(zhǔn)化,可得標(biāo)準(zhǔn)化后的訓(xùn)練集Train'和測(cè)試集Test',此時(shí)它們均值為0,方差為1。

        其中,式(10)為均值表達(dá)式,式(11)為標(biāo)準(zhǔn)差表達(dá)式。

        3.2 超參數(shù)選擇

        用R2評(píng)估模型預(yù)測(cè)正確率,L2 正則化參數(shù)選取0.01,訓(xùn)練次數(shù)為600 次。在此基礎(chǔ)上,分別對(duì)學(xué)習(xí)率、時(shí)間步長(zhǎng)及批次大小進(jìn)行實(shí)驗(yàn)分析和選取。

        3.2.1 學(xué)習(xí)率調(diào)整分析

        學(xué)習(xí)率是非常重要的超參數(shù),它的選取決定著神經(jīng)網(wǎng)絡(luò)的收斂速度和準(zhǔn)確程度。若選取過大,會(huì)導(dǎo)致梯度徘徊在最優(yōu)點(diǎn)附近并產(chǎn)生震蕩導(dǎo)致無法收斂;若選取過小,則會(huì)導(dǎo)致梯度收斂速度極慢且容易收斂到局部最優(yōu)解。在時(shí)間步長(zhǎng)為24、批次大小為256 的條件下,對(duì)學(xué)習(xí)率的選取展開實(shí)驗(yàn),學(xué)習(xí)率的選取通常以10 為倍數(shù)進(jìn)行調(diào)節(jié),選取0.1、0.01、0.001、0.000 1這4組數(shù)據(jù)進(jìn)行實(shí)驗(yàn)分析。學(xué)習(xí)率變化時(shí),在訓(xùn)練集和測(cè)試集上的損失值及R2的變化情況如表1所示。

        Table 1 Experiment of learning rate adjustment表1 學(xué)習(xí)率調(diào)整實(shí)驗(yàn)

        可以看出,在學(xué)習(xí)率0.001 時(shí),模型的預(yù)測(cè)性能最佳,因此選擇學(xué)習(xí)率為0.001。

        3.2.2 時(shí)間步長(zhǎng)調(diào)整分析

        選取時(shí)間步長(zhǎng)分別為2、6、12、24、36、48,在學(xué)習(xí)率確定為0.001、批次大小為256 的條件下進(jìn)行訓(xùn)練。時(shí)間步長(zhǎng)變化時(shí),在訓(xùn)練集和測(cè)試集上的損失值及R2的變化情況如表2所示。

        Table 2 Experiment of time step adjustment表2 時(shí)間步長(zhǎng)調(diào)整實(shí)驗(yàn)

        可以看出,在時(shí)間步長(zhǎng)為12 或24 時(shí),模型性能達(dá)到最佳,綜合考慮訓(xùn)練時(shí)間,選擇時(shí)間步長(zhǎng)為12。

        3.2.3 批次大小調(diào)整分析

        選取訓(xùn)練批次分別為16、32、64、128、256,在學(xué)習(xí)率為0.001 和時(shí)間步長(zhǎng)為12 的條件下進(jìn)行訓(xùn)練。批次大小變化時(shí),在訓(xùn)練集和測(cè)試集上的損失值及R2的變化情況和單輪迭代所需時(shí)間變化情況如表3所示。

        Table 3 Experiment of batch size adjustment表3 批次大小調(diào)整實(shí)驗(yàn)

        同批次大小的損失函數(shù)如圖4 所示,其中(a)、(b)、(c)、(d)、(e)圖依次為訓(xùn)練批次為16、32、64、128、256時(shí)的損失函數(shù)。

        Fig.4 Loss function for different batch size圖4 不同批次大小的損失函數(shù)

        3.3 模型評(píng)價(jià)標(biāo)準(zhǔn)

        本文將以4 個(gè)評(píng)價(jià)指標(biāo)對(duì)模型進(jìn)行定量評(píng)估,分別是MSE、平均絕對(duì)誤差(Mean Absolute Error,MAE)、可決系數(shù)(Coefficient of Determination,R2)以及中值絕對(duì)誤差(Medi?an Absolute Error,MedAE)。

        MSE 為預(yù)測(cè)數(shù)據(jù)和真實(shí)數(shù)據(jù)對(duì)應(yīng)時(shí)刻數(shù)據(jù)誤差平方和的均值,MSE 越小說明預(yù)測(cè)效果越好,若MSE=0,則說明完全預(yù)測(cè)準(zhǔn)確。其公式如式(12)所示,其中n為測(cè)試集總樣本數(shù),為預(yù)測(cè)值,yi為真實(shí)值。

        MAE 為預(yù)測(cè)數(shù)據(jù)和真實(shí)數(shù)據(jù)絕對(duì)差值之和的均值,其范圍是[0,+∞),同樣地,MAE 越小,說明模型具有越完美的預(yù)測(cè)效果。其公式如式(13)所示,其中n為測(cè)試集總樣本數(shù)為預(yù)測(cè)值,yi為真實(shí)值。

        R2是解釋模型擬合程度的一個(gè)數(shù)值,其范圍為[0,1],越接近1,說明模型擬合程度越高,越接近0,則說明模型擬合程度越低,若R2=0,則說明完全預(yù)測(cè)準(zhǔn)確。其公式如式(14)所示,其中n為測(cè)試集總樣本數(shù)為預(yù)測(cè)值為真實(shí)值的平均值,yi為真實(shí)值。

        MedAE 為預(yù)測(cè)值與真實(shí)值絕對(duì)差值的中位數(shù),MedAE越小,代表模型預(yù)測(cè)越準(zhǔn)確,由于采用中位數(shù)的方式,因而此評(píng)價(jià)指標(biāo)不易受個(gè)別跳躍點(diǎn)的影響,更具穩(wěn)定性。其公式如式(15)所示,其中n為測(cè)試集的總樣本數(shù),為預(yù)測(cè)值,yi為真實(shí)值。

        3.4 模型比較選擇

        為了驗(yàn)證所提BGRU 算法相對(duì)于其他常見模型在基站流量預(yù)測(cè)問題上的有效性,將在相同超參數(shù)的前提下,選取GRU、LSTM、BLSTM 分別與BGRU 作比較。BGRU、GRU、BLSTM、LSTM 的預(yù)測(cè)值和真實(shí)值分別在MSE、MAE、R2、MedAE 上的評(píng)估結(jié)果如表4所示。

        BGRU、GRU、BLSTM、LSTM 在測(cè)試集中隨機(jī)抽取連續(xù)100 小時(shí)的預(yù)測(cè)值和真實(shí)值的比較結(jié)果如圖5 所示,其中(a)、(b)、(c)、(d)圖分別為BGRU、GRU、BLSTM、LSTM。

        Table 4 Comparison of model prediction effect on test set表4 模型在測(cè)試集上的預(yù)測(cè)效果比較

        從表4 和圖5 不難發(fā)現(xiàn),對(duì)于基站流量預(yù)測(cè)問題,BGRU 和GRU 的各項(xiàng)參數(shù)都分別優(yōu)于BLSTM 和LSTM,這表明GRU 模型的整體表現(xiàn)要優(yōu)于LSTM 模型。同時(shí)可以得出,BGRU 和BLSTM 的各項(xiàng)參數(shù)都分別優(yōu)于GRU 和LSTM,這表明雙向網(wǎng)絡(luò)的整體表現(xiàn)要優(yōu)于單向網(wǎng)絡(luò)。

        Fig.5 Prediction of different models on test set圖5 不同模型在測(cè)試集上的預(yù)測(cè)情況

        3.5 未來數(shù)據(jù)預(yù)測(cè)及比較

        對(duì)BGRU、GRU、BLSTM、LSTM 這4 種模型,分別在未來5 天,共120 小時(shí)的數(shù)據(jù)上進(jìn)行預(yù)測(cè),如表5 所示,分別在MSE、MAE、R2、MedAE 作出評(píng)估結(jié)果。

        Table 5 Comparison of model prediction effect in the future data表5 模型對(duì)未來數(shù)據(jù)的預(yù)測(cè)效果比較

        BGRU、GRU、BLSTM、LSTM 在未來5 天數(shù)據(jù)上的預(yù)測(cè)值和真實(shí)值的比較結(jié)果如圖6所示,其中(a)、(b)、(c)、(d)圖分別為BGRU、GRU、BLSTM、LSTM。

        綜合考量表4、表5 和圖5、圖6,雖然在未來數(shù)據(jù)上,模型精度較測(cè)試集略低。但是發(fā)現(xiàn)無論是在測(cè)試集還是在未來數(shù)據(jù)上,相較于對(duì)照的3 個(gè)模型,BGRU 不僅具有更高的精度,而且更具穩(wěn)定性,因此最終選擇BGRU 作為流量預(yù)測(cè)網(wǎng)絡(luò)。

        4 結(jié)語

        Fig.6 Prediction of different models in the future data圖6 不同模型在未來數(shù)據(jù)上的預(yù)測(cè)情況

        本文針對(duì)通信基站流量調(diào)配不合理問題,提出了一種基于雙向門控循環(huán)單元BGRU 的預(yù)測(cè)方法。該方法首先將數(shù)據(jù)按12 小時(shí)的時(shí)間長(zhǎng)度分組并打亂,再作標(biāo)準(zhǔn)化處理;然后輸入網(wǎng)絡(luò)的數(shù)據(jù)將進(jìn)入第一層BGRU,數(shù)據(jù)分別經(jīng)過正向時(shí)序GRU 與反向時(shí)序GRU 并進(jìn)行獨(dú)立處理,在每個(gè)時(shí)間點(diǎn)得到來自于兩個(gè)方向GRU 的不同輸出,而后進(jìn)行拼接操作,再作為輸入,送入下一層BGRU。經(jīng)過3 層的BGRU 處理后,取最后一層網(wǎng)絡(luò)的兩個(gè)方向各自最后時(shí)刻的輸出,進(jìn)行拼接操作后作為預(yù)測(cè)結(jié)果。從北京國測(cè)星繪采集了約8GB 的小區(qū)上行流量數(shù)據(jù),選取適當(dāng)?shù)某瑓?shù)以使損失函數(shù)收斂到最優(yōu)狀態(tài),選取GRU、BLSTM、LSTM 3個(gè)神經(jīng)網(wǎng)絡(luò)進(jìn)行實(shí)驗(yàn)比較,在測(cè)試集上驗(yàn)證該方法在通信基站流量預(yù)測(cè)問題上的優(yōu)越性?;凇熬W(wǎng)絡(luò)自身結(jié)構(gòu)特點(diǎn)”和“單、雙向網(wǎng)絡(luò)”兩個(gè)不同角度進(jìn)行綜合比較分析發(fā)現(xiàn),在“網(wǎng)絡(luò)自身結(jié)構(gòu)特點(diǎn)”方向,GRU 網(wǎng)絡(luò)整體優(yōu)于LSTM網(wǎng) 絡(luò),其 中BGRU 的R2比BLSTM 高0.087、GRU 的R2比LSTM 高0.117,而在“單、雙向網(wǎng)絡(luò)”方向,雙向網(wǎng)絡(luò)整體優(yōu)于單向網(wǎng)絡(luò),其中BGRU 的R2比GRU 高0.049,BLSTM 的R2比LSTM 高0.079。再通過5 天的未來數(shù)據(jù)進(jìn)行驗(yàn)證,整體精度較測(cè)試集有所下降,但BGRU 仍為最優(yōu)。綜合考量后,選擇表現(xiàn)最優(yōu)的BGRU 作為預(yù)測(cè)模型。相對(duì)于傳統(tǒng)的RNN、LSTM 等預(yù)測(cè)方法,此方法具有更高效、更準(zhǔn)確的特點(diǎn)。

        此方法可以針對(duì)不同小區(qū)個(gè)性化地提出不同的流量預(yù)測(cè)模型,在兼顧準(zhǔn)確性的同時(shí),可以實(shí)現(xiàn)一定程度上的流量配置自動(dòng)化,節(jié)省人力成本。如此,資源將得到更合理的分配,并不會(huì)過多配置造成浪費(fèi),也不會(huì)過少配置造成網(wǎng)絡(luò)堵塞。此算法也能夠推廣至與時(shí)間序列相關(guān)的預(yù)測(cè)問題,例如對(duì)城市交通流量、心電圖、水文流量等的預(yù)測(cè)。但是,該算法仍有改進(jìn)空間,未來工作會(huì)將注意力機(jī)制與BGRU 相結(jié)合,對(duì)周期性的尖峰和低谷數(shù)據(jù)配置更高的權(quán)重,令其得到更多關(guān)注,從而進(jìn)一步減小預(yù)測(cè)誤差。

        猜你喜歡
        梯度時(shí)刻基站
        冬“傲”時(shí)刻
        一個(gè)改進(jìn)的WYL型三項(xiàng)共軛梯度法
        捕獵時(shí)刻
        一種自適應(yīng)Dai-Liao共軛梯度法
        一類扭積形式的梯度近Ricci孤立子
        可惡的“偽基站”
        基于GSM基站ID的高速公路路徑識(shí)別系統(tǒng)
        小基站助力“提速降費(fèi)”
        街拍的歡樂時(shí)刻到來了
        基站輻射之爭(zhēng)亟待科學(xué)家發(fā)聲
        久久精品人成免费| 国语自产偷拍在线观看| 亚洲国产成人精品无码区在线播放| 99国产精品99久久久久久| 国产激情无码一区二区三区| 少妇高潮喷水久久久影院| 麻豆精品久久久久久久99蜜桃| 欧美疯狂做受xxxx高潮小说| 国产精品久久久久久久久KTV| 极品少妇一区二区三区四区| 国产精品亚洲一区二区无码| 亚洲午夜无码久久yy6080 | 无码人妻av一区二区三区蜜臀 | 香蕉视频一级| 日本加勒比东京热日韩| 亚洲日韩成人无码不卡网站| 一片内射视频在线观看| 日本97色视频日本熟妇视频| av免费网站免费久久网| 亚洲高清国产一区二区| 亚洲综合天堂av网站在线观看| 99re热视频这里只精品| 国产毛片网| 中文精品久久久久中文| 青青草视频在线你懂的| 亚洲一区二区三区福利久久蜜桃| 国产国语按摩对白av在线观看| 公和我做好爽添厨房| 亚洲综合av一区二区三区| 国产亚洲人成a在线v网站| 亚洲无码一二专区| 人妻av不卡一区二区三区| 爱爱免费视频一区二区三区 | 风流少妇一区二区三区| 亚洲一本二区偷拍精品| 少妇连续高潮爽到抽搐| 无遮挡18禁啪啪羞羞漫画| 久久精品国产www456c0m| 久久婷婷综合色拍亚洲| 天涯成人国产亚洲精品一区av| 国产精品精品自在线拍|