亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        經(jīng)驗(yàn)?zāi)B(tài)分解融合深度學(xué)習(xí)的時(shí)間序列預(yù)測模型

        2022-07-01 06:32:06李昌明
        關(guān)鍵詞:記憶模型

        李昌明

        (遼寧工程技術(shù)大學(xué) 系統(tǒng)工程研究所,遼寧 葫蘆島 125105)

        0 引言

        時(shí)間序列是指通過在生產(chǎn)或科學(xué)研究過程中按照變量或指標(biāo)的出現(xiàn)順序記錄它們的值而獲得的一系列數(shù)值或觀測值,它是一個(gè)變量或在不同時(shí)間的多個(gè)變量生成的隨機(jī)數(shù)據(jù),反映了現(xiàn)象與其變化規(guī)律之間的關(guān)系.預(yù)測是決策的基礎(chǔ),時(shí)間序列預(yù)測是時(shí)間序列數(shù)據(jù)挖掘的基礎(chǔ),在大數(shù)據(jù)時(shí)代背景下,時(shí)間序列預(yù)測是提高管理與決策者洞察力的關(guān)鍵技術(shù).

        時(shí)間序列預(yù)測包括連續(xù)型預(yù)測和離散型預(yù)測,時(shí)間序列的預(yù)測模型依附于序列的先后時(shí)間順序.傳統(tǒng)的時(shí)間序列預(yù)測模型包括自回歸模型(AR,Auto Regressive)、移動(dòng)平均模型(MA,Moving Average)和自回歸移動(dòng)平均模型(ARMA,Auto-Regression Moving Average),至今仍被廣泛應(yīng)用.此外,國內(nèi)外學(xué)者對指數(shù)平滑法(ES,Exponential Smoothing)的研究較多,主要集中在以下方面:①對平滑初值和平滑系數(shù)等參數(shù)的確定方法和優(yōu)化方法進(jìn)行研究[1];②與其它理論方法的結(jié)合研究[2];③應(yīng)用于相關(guān)工程與實(shí)踐的研究[3].

        對指數(shù)平滑相關(guān)理論和應(yīng)用的研究,使得指數(shù)平滑相關(guān)算法迅速發(fā)展,速度更快、精度更高、穩(wěn)定性更強(qiáng)且應(yīng)用到了更多領(lǐng)域中,充分證明了指數(shù)平滑法在時(shí)間序列預(yù)測中的重要性.

        傳統(tǒng)的時(shí)間序列預(yù)測模型不能較好解決非線性擬合問題,因此基于機(jī)器學(xué)習(xí)和深度學(xué)習(xí)相關(guān)知識的時(shí)間序列預(yù)測模型研究得到了推動(dòng),其中循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN,Recurrent Neural Network)及其變種:長短期記憶網(wǎng)絡(luò)(LSTM,Long Short-Term Memory)[4]和門控循環(huán)單元(GRU,Gated Recurrent Unit)[5]等模型是適用于處理序列數(shù)據(jù)的一類模型.深度學(xué)習(xí)框架下較為成功的時(shí)間序列預(yù)測模型有:文獻(xiàn)[6]提出的雙階段注意力機(jī)制循環(huán)神經(jīng)網(wǎng)絡(luò)模型(DA-RNN,Dual-Stage Attention-Based Recurrent Neural Network)、文獻(xiàn)[7]中提出的專門設(shè)計(jì)用于時(shí)間序列預(yù)測的深度學(xué)習(xí)網(wǎng)絡(luò)模型(LSTNet,Long-and Short-term Time-series network)、文獻(xiàn)[8]提出的基于時(shí)間模式注意力機(jī)制的LSTM 模型(TPA-LSTM,Temporal Pattern Attention LSTM).上述3 種模型均是針對多變量時(shí)間序列構(gòu)建的預(yù)測模型,在單變量時(shí)間序列上的預(yù)測效果尚未驗(yàn)證.

        傳統(tǒng)的AR 模型、MA 模型與ARMA 模型等要求時(shí)間序列必須為平穩(wěn)序列,且參數(shù)確定難度大,模型適用范圍較窄,對所適用的時(shí)間序列限制條件較多;指數(shù)平滑法給予長期數(shù)據(jù)的記憶特征較少,給予短期內(nèi)數(shù)據(jù)的記憶特征較多,所以指數(shù)平滑法更適用于短期預(yù)測,需要數(shù)據(jù)的趨勢平穩(wěn),穩(wěn)步上升、下降或平直,對數(shù)據(jù)趨勢變化的適應(yīng)能力較差,且受不變的平滑系數(shù)影響;簡單的感知機(jī)和BP 神經(jīng)網(wǎng)絡(luò)模型(BPNN,Back Propagation Neural Network)無法獲得時(shí)間序列長期的記憶特征,預(yù)測誤差一般較大;RNN、LSTM 與GRU 得益于模型結(jié)構(gòu),預(yù)測效果要優(yōu)于BPNN,但容易出現(xiàn)兩種較差情況:①在序列趨勢突變時(shí)無法及時(shí)跟進(jìn),造成預(yù)測數(shù)據(jù)相較于實(shí)際數(shù)據(jù)滯后一期的情況;②在序列某段時(shí)間長期處于較小數(shù)據(jù)范圍(相對于序列全局最大值與最小值的差值相比)內(nèi)短周期波動(dòng)時(shí),預(yù)測結(jié)果將趨于平直,無法反映數(shù)據(jù)波動(dòng).

        為了解決上述時(shí)間序列預(yù)測模型預(yù)測誤差大且預(yù)測存在滯后一期現(xiàn)象的問題,本文提出一種經(jīng)驗(yàn)?zāi)B(tài)分解算法融合深度學(xué)習(xí)的時(shí)間序列預(yù)測模型.

        1 基本理論

        1.1 時(shí)間序列分解算法

        完全自適應(yīng)噪聲集合經(jīng)驗(yàn)?zāi)B(tài)分解(CEEMDAN,Complete Ensemble Empirical Mode Decomposition with Adaptive Noise)[9]是對經(jīng)驗(yàn)?zāi)B(tài)分解(EMD,Empirical Mode Decomposition)[10]和集合經(jīng)驗(yàn)?zāi)B(tài)分解(EEMD,Ensemble Empirical Mode Decomposition)[11]的改進(jìn),相較于EMD 解決了模態(tài)混疊和端點(diǎn)效應(yīng)的缺陷,在每個(gè)階段添加有限次的自適應(yīng)白噪聲,相較于EEMD 減少了迭代次數(shù)并且提高了重構(gòu)精度.稱分解獲得的分量為本征模態(tài)函數(shù)(IMF,Intrinsic Mode Function),IMF頻率從高到低,可以代表序列不同尺度的特征,因此CEEMDAN 分解亦可用作時(shí)間序列降噪,具體步驟如下.

        步驟4重復(fù)步驟1 到步驟3 直到剩余序列的極值點(diǎn)小于等于2 時(shí)停止循環(huán),獲得最后殘差序列,記為

        假設(shè)共可分解得到m組IMF 序列,那么原序列組成為

        1.2 循環(huán)神經(jīng)網(wǎng)絡(luò)

        RNN 擅長處理序列一類數(shù)據(jù),在自然語言處理方向應(yīng)用居多,但RNN 在時(shí)間維度上拓展的層次越深,越容易出現(xiàn)梯度爆炸或梯度離散的問題,對時(shí)間序列的記憶較短[12].LSTM 解決了RNN 中存在的問題.LSTM 單元結(jié)構(gòu)見圖1.

        圖1 LSTM 單元Fig.1 LSTM unit

        圖1中,遺忘門計(jì)算公式為

        輸入門計(jì)算公式為

        細(xì)胞狀態(tài)主要用于存儲長期記憶,能夠較好地刻畫序列的長期依賴,計(jì)算公式為

        輸出門計(jì)算公式為

        式(4)~式(9)中,xt為單元輸入;ht為隱含狀態(tài);b為偏置;W為層間權(quán)值矩陣;ot為輸出;tanh為雙曲正切激活函數(shù);σ為Sigmoid 激活函數(shù).

        在LSTM[13]中Ct代替ht成為網(wǎng)絡(luò)記憶,從數(shù)學(xué)角度講,對Ct的梯度中不包含權(quán)值矩陣的次冪項(xiàng),防止權(quán)值成指數(shù)式增長或減少;從網(wǎng)絡(luò)結(jié)構(gòu)角度講,細(xì)胞狀態(tài)相當(dāng)于一個(gè)殘差層,可以為網(wǎng)絡(luò)記憶提供直通通道,在時(shí)間軸上梯度展開時(shí),有效避免了RNN 中梯度爆炸或梯度離散的問題.

        GRU 是LSTM 較為成功的變種之一.GRU 單元結(jié)構(gòu)見圖2.復(fù)位門計(jì)算公式為

        更新門計(jì)算公式為

        GRU 中使用候選隱藏狀態(tài)th?代替LSTM 中的tC?決定加入多少當(dāng)前時(shí)刻的記憶信息,使用zt控制需要將上一時(shí)刻的記憶信息遺忘多少,計(jì)算公式為

        復(fù)位門與更新門分別處理網(wǎng)絡(luò)中的長期和短期記憶,GRU 在保持LSTM 功能的前提下簡化了單元結(jié)構(gòu),擁有更少的參數(shù),計(jì)算效率更高.

        圖2 GRU 單元Fig.2 GRU unit

        2 經(jīng)驗(yàn)?zāi)B(tài)分解融合深度學(xué)習(xí)的時(shí)間序列預(yù)測模型

        2.1 時(shí)間序列數(shù)據(jù)組織

        單變量的時(shí)間序列預(yù)測數(shù)據(jù)組織方式可分為3種:數(shù)值對數(shù)值、數(shù)值對序列和序列對數(shù)值,見圖3.

        圖3 時(shí)間序列組織方式Fig.3 time series organization

        數(shù)值對數(shù)值與數(shù)值對序列的組織方式因記憶較短,時(shí)間維度特征較少,故預(yù)測效果不如序列對數(shù)值的組織方式.

        將滑動(dòng)窗口技術(shù)引入時(shí)間序列數(shù)據(jù)組織中,形成一種序列對序列的交錯(cuò)組織方式,同時(shí)關(guān)注序列的長期和短期特征,更多保留序列記憶,具體組織方式見圖4. 在該種數(shù)據(jù)組織方式下,窗口寬度和滑動(dòng)步長參數(shù)的設(shè)置會(huì)直接對預(yù)測效果造成影響.

        圖4 時(shí)間序列交錯(cuò)組織Fig.4 cross organization of time series

        2.2 同比檢驗(yàn)策略

        設(shè)有時(shí)間序列tx,記第k時(shí)刻數(shù)值的環(huán)比為

        記第k時(shí)刻數(shù)值的同比為

        式中,c為所求同比的周期,i為期數(shù).

        以0x為基,記第k時(shí)刻數(shù)值的定基比為

        為確定模型中的最佳窗口寬度參數(shù),即所使用的LSTM 單元與GRU 單元的最佳參數(shù),建立一種結(jié)合式(14)~式(16),求解式(15)中c參數(shù)的同比檢驗(yàn)策略,對輸入時(shí)間序列分解后的每一路IMF 序列進(jìn)行檢測.

        為防止IMF序列中存在的負(fù)值對c參數(shù)的判別造成影響,對tx進(jìn)行變換

        將這種檢測策略放置于每一路IMF 序列的網(wǎng)絡(luò)單元之前,稱為周期基探測器,輸出結(jié)果稱為周期基,流程見圖5. 圖5 中變量list為同比值存放列表,變量ilist為周期值存放列表,常量MAXcycle為探測器的最大探測周期參數(shù),變量sum為求和值,變量num為計(jì)數(shù)值,變量listmin為list中的最小值,變量ilistindex為ilist中索引為index 的值.

        將周期基作為時(shí)間序列交錯(cuò)組織的窗口寬度參數(shù)劃定窗口大小,即作為網(wǎng)絡(luò)輸入節(jié)點(diǎn)數(shù)與輸出節(jié)點(diǎn)數(shù),網(wǎng)絡(luò)可依此在最佳周期規(guī)律的數(shù)據(jù)組織方式上進(jìn)行擬合,加快網(wǎng)絡(luò)訓(xùn)練速率,捕捉數(shù)據(jù)特征;將周期基作為網(wǎng)絡(luò)隱層數(shù),將數(shù)據(jù)長度與周期基的比值作為網(wǎng)絡(luò)隱層節(jié)點(diǎn)數(shù),可有效確定不同特征數(shù)據(jù)使用的網(wǎng)絡(luò)規(guī)模.

        圖5 周期基探測器流程Fig.5 period basis detector flow

        2.3 融合經(jīng)驗(yàn)?zāi)B(tài)分解與深度學(xué)習(xí)的時(shí)間序列預(yù)測模型

        LSTM 與GRU 相比,GRU 參數(shù)更少,比LSTM少多步矩陣計(jì)算,收斂速度更快,花費(fèi)時(shí)間更短,但LSTM 比GRU 多產(chǎn)出tC參數(shù),在某些情況下能夠更好把握數(shù)據(jù)長期記憶.

        LSTM 的輸出門可以對細(xì)胞狀態(tài)進(jìn)行選擇,GRU 則使用全部的細(xì)胞狀態(tài);LSTM 利用遺忘門可以控制接受新老記憶的尺度,GRU 的新記憶加入受老記憶的影響,無法進(jìn)行控制.所以,LSTM 比GRU靈活性更好.

        綜上,選取LSTM 作為對CEEMDAN 高頻分量的預(yù)測模型,選取GRU 作為其余分量的預(yù)測模型,將每個(gè)分量的預(yù)測值與真實(shí)值做非線性擬合,訓(xùn)練網(wǎng)絡(luò),對輸入時(shí)間序列建模,步驟[14-15]如下.

        步驟1將輸入時(shí)間序列tx通過CEEMDAN分解算法分解為n組IMF 分量和一組r分量.

        步驟2將每組分量通過周期基探測器,求得分量最佳周期基c,并且按照2.1 節(jié)中的時(shí)間序列交錯(cuò)組織方式進(jìn)行數(shù)據(jù)組織.

        步驟3將組織后的第一組IMF 分量輸入LSTM 模型,其余IMF分量與r分量輸入GRU 模型,同時(shí),利用c按照2.2 節(jié)定義LSTM 與GRU 的最佳參數(shù).

        步驟4將LSTM 與GRU 的預(yù)測結(jié)果通過Linear 層整合為n+1 個(gè)特征.

        步驟5將特征輸入兩個(gè)串聯(lián)的L&R單元和一個(gè)L&t 單元,其中L&R 單元代表Linear 層與ReLU激活函數(shù)的串聯(lián),L&t 單元代表Linear 層與tanh 激活函數(shù)的串聯(lián).

        步驟6將步驟5 輸出經(jīng)過Linear 層與真實(shí)值通過誤差函數(shù)得出誤差,訓(xùn)練網(wǎng)絡(luò).

        步驟7根據(jù)新輸入值,使用訓(xùn)練后的網(wǎng)絡(luò)進(jìn)行預(yù)測.

        稱上述模型為重融網(wǎng)絡(luò)(RecNet,Recombine Net),結(jié)構(gòu)見圖6.

        圖6 RecNet 模型Fig.6 RecNet model

        RecNet 模型由三層構(gòu)成,分解層主要作用是將輸入序列進(jìn)行分解;傳播層主要作用是獲得不同時(shí)間尺度的特征;融合層主要作用是將不同時(shí)間尺度的特征進(jìn)行融合,得到最終預(yù)測值.

        3 實(shí)驗(yàn)及結(jié)果分析

        3.1 數(shù)據(jù)說明與預(yù)處理

        共選取4 組數(shù)據(jù)對RecNet 進(jìn)行評估,數(shù)據(jù)說明如下.

        數(shù)據(jù)集ec:源自2011 年到2014 年每15min 的用電量,共描述了321 個(gè)客戶的電消費(fèi)數(shù)據(jù),原始數(shù)據(jù)中進(jìn)行了轉(zhuǎn)換,以反映每小時(shí)的消耗量,取168條記錄.

        數(shù)據(jù)集tu:源自加州運(yùn)輸部2015 至2016 年每小時(shí)的數(shù)據(jù),這些數(shù)據(jù)描述了舊金山灣區(qū)高速公路上不同傳感器測量到的道路占用率(0 到1 之間),取168 條記錄.

        數(shù)據(jù)集nd:源自國內(nèi)某商業(yè)銀行每天的通知存款數(shù)據(jù),取364 條記錄.

        數(shù)據(jù)集sf:源自國內(nèi)某商業(yè)銀行每天的小額流入數(shù)據(jù),取364 條記錄.

        上述數(shù)據(jù)均采用最大最小值歸一化方式進(jìn)行預(yù)處理,為

        式中,xscale為歸一化后的數(shù)據(jù);x為當(dāng)前數(shù)據(jù),xmax、xmin分別為序列中的最大值和最小值.

        數(shù)據(jù)集tu 均為0 至0.15 之間的浮點(diǎn)數(shù),為方便歸一化,將數(shù)據(jù)集tu 擴(kuò)大104倍.

        3.2 模型搭建與實(shí)驗(yàn)

        實(shí)驗(yàn)環(huán)境見表1. 模型參數(shù)與對比模型參數(shù)設(shè)置見表2.

        表1 實(shí)驗(yàn)環(huán)境Tab.1 experimental environment

        表2 參數(shù)設(shè)置Tab.2 parameter setting

        BPNN、RNN、LSTM、GRU 和RecNet 中,損失函數(shù)均使用均方誤差(Mean Square Error, MSE),優(yōu)化器均使用Adam;采用MSE 與平均誤差率(Mean Error Rate,MER)檢測模型預(yù)測值與實(shí)際值之間的偏差,數(shù)值越小代表模型預(yù)測誤差越?。徊捎肦2(R-squared)檢測模型準(zhǔn)確程度,數(shù)值越大代表模型預(yù)測越準(zhǔn)確.以上述3 種評價(jià)項(xiàng)評估RecNet 性能,計(jì)算公式分別為

        式(19)~式(21)中,io為實(shí)際值;為預(yù)測值;為實(shí)際值序列的平均值.

        另外,計(jì)算MSE 之前,先將實(shí)際值與預(yù)測值使用式(18)進(jìn)行歸一化后再計(jì)算.

        為驗(yàn)證模型性能,均選取數(shù)據(jù)集的80%作為訓(xùn)練集輸入網(wǎng)絡(luò)進(jìn)行訓(xùn)練;剩余20%作為測試集輸入網(wǎng)絡(luò)進(jìn)行預(yù)測,測試模型性能.為避免隨機(jī)生成的權(quán)值與偏置值對網(wǎng)絡(luò)訓(xùn)練過程造成影響,對不同數(shù)據(jù)集上的訓(xùn)練過程均固定隨機(jī)因子;為避免網(wǎng)絡(luò)過擬合現(xiàn)象,網(wǎng)絡(luò)訓(xùn)練過程每次迭代過程均在訓(xùn)練集中隨機(jī)劃取一部分作為驗(yàn)證集,隨機(jī)交叉訓(xùn)練.

        因啟動(dòng)不同模型所需的前置數(shù)據(jù)量不同,圖7~圖9 中,橫坐標(biāo)均代表數(shù)據(jù)期數(shù),ec 數(shù)據(jù)與tu數(shù)據(jù)每期代表每小時(shí),nd 數(shù)據(jù)與sf 數(shù)據(jù)每期代表每天.預(yù)測結(jié)果所涉及的數(shù)據(jù)集ec 和數(shù)據(jù)集tu 展示161 條數(shù)據(jù),測試集展示34 條數(shù)據(jù);所涉及的數(shù)據(jù)集nd 和數(shù)據(jù)集sf 數(shù)展示353 條數(shù)據(jù),測試集nd 展示97 條數(shù)據(jù),測試集sf 展示71 條數(shù)據(jù).

        圖7為 RecNet 在4 組數(shù)據(jù)測試集上的預(yù)測結(jié)果. 由圖7(b)、圖7(c)可以看出,對數(shù)據(jù)集tu和數(shù)據(jù)集nd,RecNet 模型預(yù)測誤差小,可以快速跟進(jìn)數(shù)據(jù)趨勢,不存在滯后一期現(xiàn)象;圖7(a)、圖7(d)中,對數(shù)據(jù)集ec 和數(shù)據(jù)集sf 在某些異常值情況下存在一定預(yù)測誤差,但依舊可以緊跟數(shù)據(jù)趨勢,同樣避免了滯后一期現(xiàn)象.

        圖7 RecNet 在4 種數(shù)據(jù)測試集上的預(yù)測結(jié)果Fig.7 RecNet prediction results on 4 groups test sets

        表3 為7 種模型在4 組數(shù)據(jù)測試集上的評價(jià)項(xiàng).由表3 中可以看出,在數(shù)據(jù)集ec、數(shù)據(jù)集tu、數(shù)據(jù)集nd 和數(shù)據(jù)集sf 的測試集上,RecNet 模型得到的MSE分別為0.27%、0.06%、0.46%和0.87%,得到的MER分別為3.96%、9.84%、1.95%和7.45%,得到的R2分別為 95.39%、99.38%、93.47%和73.49%.RecNet 在7 種模型中均能得到最小的MSE與MER,得到最大的R2,說明RecNet 相較于其余2 種傳統(tǒng)時(shí)間序列預(yù)測模型和其余4 種神經(jīng)網(wǎng)絡(luò)時(shí)間序列預(yù)測模型有更強(qiáng)的預(yù)測性能,網(wǎng)絡(luò)擬合的模型準(zhǔn)確程度更高.本文提出的周期基探測器,在有效提高模型準(zhǔn)確程度的同時(shí),減少了模型訓(xùn)練所需的參數(shù)量,使得模型更易于啟動(dòng)訓(xùn)練.

        為進(jìn)一步評估模型性能,保持表2 中參數(shù)設(shè)置不變的情況下,將4 種數(shù)據(jù)集的全集輸入網(wǎng)絡(luò)進(jìn)行預(yù)測,預(yù)測結(jié)果見圖8. 由圖8 中(d)可以看出,RedNet 模型在數(shù)據(jù)集sf 部分異常值處仍存在一定預(yù)測誤差,但整體預(yù)測效果較好.

        表4為7 種模型在4 組數(shù)據(jù)全集上的評價(jià)項(xiàng).在數(shù)據(jù)集ec、數(shù)據(jù)集tu、數(shù)據(jù)集nd、數(shù)據(jù)集sf 的全集預(yù)測中,RedNet 模型得到的MSE分別為0.06%、0.03%、0.05%和0.06%,得到的MER分別為2.02%、5.78%、1.27%和7.71%,得到的R2分別為98.93%、99.60%、97.99%和92.22%,相較于其余6 種模型,RedNet 模型在4 種數(shù)據(jù)集全集上表現(xiàn)最優(yōu).

        表3 7 種模型在4 組數(shù)據(jù)測試集上的評價(jià)項(xiàng)Tab.3 evaluation items of 7 models on 4 groups test sets

        圖8 RecNet 在4 種數(shù)據(jù)全集上的預(yù)測結(jié)果Fig.8 RecNet prediction results on 4 groups dataset

        表4 7 種模型在4 組數(shù)據(jù)全集上的評價(jià)項(xiàng)Tab.4 evaluation items of 7 models on 4 groups dataset

        為進(jìn)一步觀察RecNet 模型對神經(jīng)網(wǎng)絡(luò)模型預(yù)測時(shí)間序列造成的滯后一期現(xiàn)象的改進(jìn)效果,取數(shù)據(jù)集nd 中存在上凹型與下凹型起伏趨勢的33 條記錄,在BPNN 模型、RNN 模型、LSTM 模型、GRU模型和本文所提RecNet 模型上分別進(jìn)行預(yù)測,預(yù)測結(jié)果見圖9.

        圖9 部分nd 數(shù)據(jù)集在4 種神經(jīng)網(wǎng)絡(luò)模型及RedNet 模型上的預(yù)測結(jié)果Fig.9 prediction results of partial nd dataset on 4 kinds of neural network models and RecNet

        由圖9 可以看出,BPNN 模型對上凹型與下凹型起伏趨勢均無法跟進(jìn),滯后一期現(xiàn)象嚴(yán)重,且跟進(jìn)后預(yù)測數(shù)據(jù)存在波動(dòng)現(xiàn)象;RNN 模型、LSTM 模型和GRU 模型在上凹型與下凹型數(shù)據(jù)的跟進(jìn)效果上均比BPNN 更佳,但對上凹型數(shù)據(jù)仍有明顯滯后一期現(xiàn)象,且對下凹型數(shù)據(jù)拐點(diǎn)貼合效果較差;RecNet 模型不僅可以快速跟進(jìn)數(shù)據(jù)上凹型與下凹型趨勢,并且能夠準(zhǔn)確貼合拐點(diǎn),趨勢變平直后沒有波動(dòng)現(xiàn)象,預(yù)測性能強(qiáng).

        4 結(jié)論

        提出一種融合經(jīng)驗(yàn)?zāi)B(tài)分解與深度學(xué)習(xí)的時(shí)間序列預(yù)測的RecNet 模型,并且與SGL-ES 模型、2ND-ES 模型,以及BPNN 模型、RNN 模型、LSTM模型和GRU 模型進(jìn)行對比,得出以下結(jié)論.

        (1)RecNet 模型預(yù)測誤差明顯低于傳統(tǒng)時(shí)間序列預(yù)測模型及神經(jīng)網(wǎng)絡(luò)時(shí)間序列預(yù)測模型.在起伏波動(dòng)較少的nd 測試集中預(yù)測平均誤差率僅為1.95%,在起伏波動(dòng)劇烈的sf 測試集中預(yù)測平均誤差率僅為7.45%.

        (2)RecNet 模型對數(shù)據(jù)跟進(jìn)效果佳,解決了傳統(tǒng)時(shí)間序列預(yù)測模型及神經(jīng)網(wǎng)絡(luò)時(shí)間序列預(yù)測模型的預(yù)測滯后一期現(xiàn)象.在較平滑的tu 測試集中模型擬合準(zhǔn)確度高達(dá)為99.38%,即使在存在異常值較多的 sf 測試集中模型擬合準(zhǔn)確度也可達(dá)到73.49%,全集可達(dá)到92.22%.

        (3)RecNet 模型通過周期基探測器捕捉序列特征,自動(dòng)確定網(wǎng)絡(luò)節(jié)點(diǎn)和層數(shù)等參數(shù),并且使用交錯(cuò)方式對單變量時(shí)間序列進(jìn)行組織,相較于其余神經(jīng)網(wǎng)絡(luò)時(shí)間序列預(yù)測模型參數(shù)量更少,更易適配不同類型的序列數(shù)據(jù),訓(xùn)練與預(yù)測效率更高.

        在今后的研究中,考慮將RecNet 模型應(yīng)用于多變量時(shí)間序列預(yù)測和多步時(shí)間序列預(yù)測中,以進(jìn)一步驗(yàn)證模型性能.

        猜你喜歡
        記憶模型
        一半模型
        重要模型『一線三等角』
        夏天的記憶
        重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
        記憶中的他們
        3D打印中的模型分割與打包
        端午記憶
        絲綢之路(2016年9期)2016-05-14 14:36:33
        兒時(shí)的記憶(四)
        兒時(shí)的記憶(四)
        記憶翻新
        海外文摘(2016年4期)2016-04-15 22:28:55
        久久亚洲道色综合久久| 99热免费观看| 久久亚洲国产成人亚| 精品国产一区二区三区毛片| 国产亚洲精品在线视频| 人妻 偷拍 无码 中文字幕 | 有码精品一二区在线| 久久精品国产亚洲片| 亚洲精品一区二区网站| 免费观看a级片| 亚洲va在线∨a天堂va欧美va| 阿v视频在线| 国产成人av三级三级三级在线| 亚洲国产成人精品无码区在线播放 | 伊人不卡中文字幕在线一区二区| 国产白色视频在线观看| 精品久久久久久无码人妻蜜桃| 精品国产成人亚洲午夜福利| 亚洲国产一区二区三区在观看 | 欧美成人精品午夜免费影视| 日本免费不卡一区| 国内自拍视频在线观看| 岛国熟女精品一区二区三区| 中文字幕+乱码+中文字幕一区| 国产av天堂成人网| 精品一区二区亚洲一二三区| 日韩熟女系列中文字幕| 无码国产精品一区二区免费模式| 日韩欧美在线播放视频| 日本97色视频日本熟妇视频| 国产熟妇疯狂4p交在线播放| 成熟丰满熟妇高潮xxxxx| 产精品无码久久_亚洲国产精| 中文字幕一区二区综合| 国产日产精品一区二区三区四区的特点 | 日韩高清毛片| 国产精品污一区二区三区在线观看 | 99久久国产综合精品五月天| 国产精品偷伦免费观看的| 免费在线观看草逼视频| 无码Av在线一区二区三区|