亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于ARIMA和LSTM混合模型的時(shí)間序列預(yù)測(cè)

        2021-02-25 08:51:12王英偉馬樹(shù)才
        關(guān)鍵詞:優(yōu)化模型

        王英偉 馬樹(shù)才

        (遼寧大學(xué)經(jīng)濟(jì)學(xué)院 遼寧 沈陽(yáng) 110036)

        0 引 言

        時(shí)間序列預(yù)測(cè)在眾多領(lǐng)域有廣泛應(yīng)用,如金融、經(jīng)濟(jì)、工程和航空等,并成為機(jī)器學(xué)習(xí)領(lǐng)域的重要研究課題[1]?,F(xiàn)實(shí)中時(shí)間序列通常同時(shí)具有線(xiàn)性和非線(xiàn)性特征,因此對(duì)不同時(shí)間序列現(xiàn)象建立模型并準(zhǔn)確預(yù)測(cè)已成為最具挑戰(zhàn)的應(yīng)用之一。

        ARIMA等統(tǒng)計(jì)模型以簡(jiǎn)單和靈活性被大量用于時(shí)間序列預(yù)測(cè)[2-3],但現(xiàn)實(shí)中的時(shí)間序列通常具有非線(xiàn)性特征,而傳統(tǒng)時(shí)間序列預(yù)測(cè)方法是線(xiàn)性模型,在對(duì)時(shí)間序列建模中表現(xiàn)出一定局限性[4]。因此,支持向量機(jī)和神經(jīng)網(wǎng)絡(luò)等非線(xiàn)性模型,被廣泛用于時(shí)間序列預(yù)測(cè)領(lǐng)域[5]。其中神經(jīng)網(wǎng)絡(luò)具有強(qiáng)大的非線(xiàn)性、映射性和自適應(yīng)性等特征,可以有效提高預(yù)測(cè)精度,以LSTM為代表的深度神經(jīng)網(wǎng)絡(luò)成為近年來(lái)的研究熱點(diǎn)。但單一非線(xiàn)性模型對(duì)同時(shí)具有線(xiàn)性和非線(xiàn)性特征的時(shí)間序列并不能獲得最優(yōu)結(jié)果[6]。

        由于單一模型的局限性,眾多學(xué)者提出由線(xiàn)性和非線(xiàn)性模型組成的混合模型。Zhang[7]和Oliveira等[1]假設(shè)時(shí)間序列同時(shí)具有線(xiàn)性和非線(xiàn)性特征,并分別提出ARIMA-ANN混合模型和ARIMA-SVR混合模型,ARIMA用于提取線(xiàn)性特征,而ANN和SVR用于提取殘差特征,最后對(duì)兩者進(jìn)行組合,后者應(yīng)用PSO選擇模型參數(shù)。文獻(xiàn)[8]提出ARIMA-SVR_s混合模型,首先將時(shí)間序列分解為高波動(dòng)率和低波動(dòng)率兩部分,并分別使用ARIMA和AR_SVR對(duì)兩部分建模,最后將兩者結(jié)果組合。實(shí)驗(yàn)結(jié)果證明,混合模型可以有效提高預(yù)測(cè)精度。以上模型均假設(shè)時(shí)間序列是線(xiàn)性特征和非線(xiàn)性特征的線(xiàn)性組合,但在實(shí)際應(yīng)用中,兩者可能存在非線(xiàn)性關(guān)系,從而影響混合模型的性能。

        針對(duì)上述問(wèn)題,本文對(duì)線(xiàn)性和非線(xiàn)性模型預(yù)測(cè)結(jié)果的組合方式提出新的策略。首先采用ARIMA模型提取時(shí)間序列線(xiàn)性特征,然后用SVR模型對(duì)ARIMA模型的預(yù)測(cè)值和實(shí)際值間的誤差序列進(jìn)行預(yù)測(cè),最后將前兩者預(yù)測(cè)結(jié)果作為L(zhǎng)STM模型的輸入對(duì)時(shí)間序列進(jìn)行預(yù)測(cè),并應(yīng)用貝葉斯優(yōu)化算法選擇深度LSTM模型的超參數(shù)。

        1 ARIMA模型

        ARIMA模型是由Box和Jenkins提出的用于時(shí)間序列分析和預(yù)測(cè)的線(xiàn)性模型。在時(shí)間序列分析中,需要設(shè)置3個(gè)參數(shù),分別為自回歸階數(shù)(p)、差分階數(shù)(d)和移動(dòng)平均階數(shù)(q),ARIMA(p,d,q)的一般形式如下:

        (1)

        φ(B)=1-φ1B-φ2B2-…-φpBp

        (2)

        θ(B)=1-θ1B-θ2B2-…-θqBq

        (3)

        式中:B為后移算子;▽d=(1-B)d為高階差分;φi(i=1,2,…,p)和θj(j=1,2,…,q)分別為自回歸參數(shù)和移動(dòng)平均參數(shù);εt為符合N(0,σ2)正態(tài)分布的誤差項(xiàng)。式(2)和式(3)分別為自回歸相關(guān)系數(shù)多項(xiàng)式和移動(dòng)平均系數(shù)多項(xiàng)式。

        時(shí)間序列yt應(yīng)先采用ADF檢驗(yàn)選取差分階數(shù),將時(shí)間序列變?yōu)槠椒€(wěn)序列,再根據(jù)赤池信息準(zhǔn)則(Akaike Information Criterion,AIC)選擇最佳模型。

        2 支持向量回歸

        支持向量回歸是基于結(jié)構(gòu)風(fēng)險(xiǎn)最小化(SRM)原則進(jìn)行泛化誤差上界最小化,最初由文獻(xiàn)[9]提出的機(jī)器學(xué)習(xí)方法。

        f(x)=ωφ(x)+b

        (4)

        式中:ω為權(quán)值向量;φ是將樣本空間映射到高維空間的非線(xiàn)性變換函數(shù);b為偏差。

        為保證支持向量回歸具有稀疏性,引入ε不敏感損失函數(shù),允許樣本值落入不敏感損失帶,即允許最大為ε的誤差,公式如下:

        (5)

        參數(shù)ω和b通過(guò)式(6)求得。

        (6)

        s.t.yi-ωφ(x)-b≤ε+ξ

        ωφ(x)+b-yi≤ε+ξ*

        ξ,ξ*≥0,i=0,1,…,l

        式中:‖w‖2為模型復(fù)雜度項(xiàng);C為懲罰因子,用于平衡模型復(fù)雜度和最小訓(xùn)練誤差;ξ和ξ*表示松弛變量,用以度量不敏感損失帶外的訓(xùn)練樣本偏離程度。將式(6)引入拉格朗日函數(shù)和核函數(shù),則非線(xiàn)性回歸函數(shù)表示為:

        (7)

        3 LSTM模型

        循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)是用于處理序列數(shù)據(jù)的神經(jīng)網(wǎng)絡(luò)。其最大特點(diǎn)是神經(jīng)元在某一時(shí)刻的輸出能夠作為輸入再次輸入到神經(jīng)元,從而使網(wǎng)絡(luò)具有記憶能力,但RNN無(wú)法解決長(zhǎng)期時(shí)間序列依賴(lài)問(wèn)題。因此,Hochreiter等[10]提出長(zhǎng)短期記憶(LSTM)神經(jīng)網(wǎng)絡(luò)。

        LSTM模型是標(biāo)準(zhǔn)RNN的一種變體,通過(guò)引入記憶單元(Memory Cell)解決長(zhǎng)期依賴(lài)問(wèn)題,即梯度消失和梯度爆炸[11],記憶單元結(jié)構(gòu)如圖1所示。

        圖1 LSTM記憶單元圖

        每個(gè)記憶單元包含三個(gè)門(mén)控結(jié)構(gòu):遺忘門(mén)(ft)、輸入門(mén)(it)和輸出門(mén)(ot),用于對(duì)類(lèi)似傳送帶的單元狀態(tài)(Cell State)進(jìn)行移除和添加信息。每個(gè)門(mén)控結(jié)構(gòu)由一個(gè)sigmoid神經(jīng)網(wǎng)絡(luò)層和一個(gè)點(diǎn)乘操作組成。假設(shè)xt表示t時(shí)刻的輸入向量,Wf、Ws、Wi和Wo表示循環(huán)層權(quán)重矩陣,Uf、Us、Ui和Uo表示輸入層權(quán)重矩陣,bf、bs、bi和bo表示偏置向量,ht表示LSTM層的輸出向量,計(jì)算過(guò)程如下:

        1) 通過(guò)遺忘門(mén)移除單元狀態(tài)St-1中的無(wú)用歷史信息,并計(jì)算遺忘門(mén)激活值:

        ft=sigmoid(Ufxt+Wfht-1+bf)

        (8)

        2) 通過(guò)輸入門(mén)決定將哪些新信息存儲(chǔ)到單元狀態(tài):

        it=sigmoid(Uixt+Wiht-1+bi)

        (9)

        (10)

        3) 將舊單元狀態(tài)St-1更新為新單元狀態(tài)St:

        (11)

        4) 輸出門(mén)通過(guò)sigmoid層決定需要輸出的單元狀態(tài),并將輸出結(jié)果Ot和經(jīng)過(guò)tanh層的新單元狀態(tài)tanh(St)相乘計(jì)算記憶單元的輸出ht:

        Ot=sigmoid(Uoxt+Woht-1+bo)

        (12)

        ht=Ot?tanh(St)

        (13)

        LSTM神經(jīng)網(wǎng)絡(luò)要求輸入連續(xù)時(shí)間步上的特征向量值以便進(jìn)行訓(xùn)練。假設(shè)每個(gè)序列共有N個(gè)時(shí)間步,并且SN表示第N個(gè)時(shí)間步的特征向量,所以第M個(gè)序列可以表示為{SM,SM+1,…,SM+N-1},輸入特征向量序列的構(gòu)造方式如圖2所示。

        圖2 LSTM神經(jīng)網(wǎng)絡(luò)的輸入特征向量序列構(gòu)造方式

        4 深度LSTM神經(jīng)網(wǎng)絡(luò)

        深度LSTM神經(jīng)網(wǎng)絡(luò)是由多個(gè)基本LSTM模塊組成,核心思想是在較低LSTM層建立輸入數(shù)據(jù)的局部特征,并在較高LSTM層進(jìn)行整合。實(shí)驗(yàn)證明,深度LSTM神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)的學(xué)習(xí)能力更強(qiáng)[12]。

        圖3 深度LSTM網(wǎng)絡(luò)結(jié)構(gòu)

        5 貝葉斯優(yōu)化算法

        貝葉斯優(yōu)化算法是一種高效的全局優(yōu)化算法[13]。它能夠在每次迭代中,根據(jù)代理模型擬合實(shí)際目標(biāo)函數(shù)的結(jié)果選擇最優(yōu)評(píng)估點(diǎn),減少目標(biāo)函數(shù)的迭代次數(shù),尤其適合對(duì)評(píng)估代價(jià)高昂的黑盒目標(biāo)函數(shù)進(jìn)行優(yōu)化,因此被廣泛用于機(jī)器學(xué)習(xí)和深度學(xué)習(xí)的超參數(shù)優(yōu)化。

        假設(shè)目標(biāo)函數(shù)f:X→R,貝葉斯優(yōu)化采用基于模型的序貫優(yōu)化法對(duì)式(14)中的最優(yōu)化問(wèn)題求解。

        (14)

        貝葉斯優(yōu)化算法的迭代過(guò)程可以分為三個(gè)部分。(1) 根據(jù)最大化采集函數(shù)選擇最優(yōu)評(píng)估點(diǎn),即xn+1=argmaxap(x),其中ap(f):X→R為采集函數(shù),p(f)為f的先驗(yàn)概率分布;(2) 評(píng)估目標(biāo)函數(shù)yn+1=f(xn+1)+ε,并將新的點(diǎn)(xn+1,yn+1)加入觀測(cè)數(shù)據(jù)Dn=(xj,yj),j=1,2,…,n;(3) 更新f的后驗(yàn)概率分布和采集函數(shù),分別表示為p(f|Dn+1)和ap(f|Dn+1)。

        本文采用高斯過(guò)程(GP)作為代理模型,而采集函數(shù)則使用期望提高(Expected Improvement, EI)函數(shù)。

        6 ARIMA_DLSTM模型

        圖4 ARIMA_DLSTM模型流程

        7 實(shí) 驗(yàn)

        7.1 實(shí)驗(yàn)數(shù)據(jù)與預(yù)處理

        本文采用5組來(lái)自不同領(lǐng)域的時(shí)間序列數(shù)據(jù)集進(jìn)行實(shí)證研究,分別為Canadian Lynx、Colorado River flow、Airline Passengers、比特幣兌美元匯率和國(guó)內(nèi)糖期貨價(jià)格指數(shù)。以上具有不同統(tǒng)計(jì)特征的數(shù)據(jù)集在時(shí)間序列預(yù)測(cè)研究的文獻(xiàn)中被廣泛應(yīng)用[7,14-15]。

        首先對(duì)Canadian Lynx數(shù)據(jù)集進(jìn)行對(duì)數(shù)化處理,即將所有值取常用對(duì)數(shù),再對(duì)每個(gè)數(shù)據(jù)集按4∶1的比例劃分為訓(xùn)練集和測(cè)試集,訓(xùn)練集用于訓(xùn)練模型,測(cè)試集用于評(píng)估模型性能。Canadian Lynx數(shù)據(jù)集共有114個(gè)樣本,其中前100個(gè)樣本作為訓(xùn)練集,后14個(gè)樣本作為測(cè)試集。Colorado River flow數(shù)據(jù)集共有744個(gè)樣本,前595個(gè)樣本作為訓(xùn)練集,后149個(gè)樣本作為測(cè)試集。Airline Passengers數(shù)據(jù)集共有144個(gè)樣本,前115個(gè)樣本作為訓(xùn)練集,后29個(gè)樣本作為測(cè)試集。比特幣兌美元匯率采用2014年12月至2019年7月間的數(shù)據(jù),共有1 672個(gè)樣本,前1 472個(gè)樣本作為訓(xùn)練集,后200個(gè)樣本作為測(cè)試集。國(guó)內(nèi)糖期貨價(jià)格指數(shù)采用2006年3月至2019年4月間共3 190個(gè)樣本,前3 000個(gè)樣本作為訓(xùn)練集,后190個(gè)樣本作為測(cè)試集。

        在神經(jīng)網(wǎng)絡(luò)訓(xùn)練中,數(shù)據(jù)間的量綱差別對(duì)網(wǎng)絡(luò)訓(xùn)練是否能收斂以及預(yù)測(cè)準(zhǔn)確性起到關(guān)鍵作用[16]。因此,在建模前需要對(duì)輸入數(shù)據(jù)進(jìn)行預(yù)處理,本文利用式(15)將樣本數(shù)據(jù)歸一化至[0,1]區(qū)間。

        (15)

        式中:minI(t)和maxI(t)分別為訓(xùn)練數(shù)據(jù)集的最小值和最大值。訓(xùn)練后的輸出數(shù)據(jù)進(jìn)行反歸一化處理,以便得到預(yù)測(cè)值。

        為提高模型泛化能力,采用如下兩種方式避免過(guò)擬合。首先,采用失活(dropout)正則化,在網(wǎng)絡(luò)訓(xùn)練的每次更新中,以一定失活率隨機(jī)選擇一部分單元失活,包括輸入連接和遞歸連接,可以有效防止過(guò)擬合。如果采用深度LSTM網(wǎng)絡(luò),可以同時(shí)在每層間采用失活正則化,所以每層網(wǎng)絡(luò)共有三個(gè)失活參數(shù)。其次采用早停法,將訓(xùn)練樣本劃分為訓(xùn)練集和驗(yàn)證集,在每次迭代中,分別計(jì)算訓(xùn)練集和驗(yàn)證集的損失值,如果驗(yàn)證集損失值在步數(shù)k內(nèi)不再減少,則停止訓(xùn)練,并返回最低驗(yàn)證損失值的模型參數(shù)。本文中使用兩層LSTM神經(jīng)網(wǎng)絡(luò),因此共有六個(gè)失活參數(shù)。在訓(xùn)練集中,80%樣本作為訓(xùn)練集,20%樣本作為驗(yàn)證集,步數(shù)k設(shè)置為50。

        7.2 衡量指標(biāo)

        為評(píng)估ARIMA_DLSTM模型的預(yù)測(cè)性能,本文采用均方誤差(MSE)、平均絕對(duì)百分比誤差(MAPE)和平均絕對(duì)誤差(MAE)作為衡量預(yù)測(cè)精度的指標(biāo)。計(jì)算公式分別為:

        (16)

        (17)

        (18)

        式中:Xt表示實(shí)際值;Ft表示預(yù)測(cè)值;N為時(shí)間序列數(shù)據(jù)集的樣本數(shù)量。

        7.3 實(shí)驗(yàn)結(jié)果

        表1中列出ARIMA_DLSTM混合模型中SVR模型和DLSTM模型的參數(shù)及其選擇范圍。SVR模型采用RBF核函數(shù),超參數(shù)包括懲罰系數(shù)C、不敏感損失系數(shù)ε、寬度系數(shù)γ和時(shí)間步timestep,可以通過(guò)網(wǎng)格搜索進(jìn)行選擇,時(shí)間步數(shù)為輸入序列的長(zhǎng)度。DLSTM模型的層數(shù)為2,超參數(shù)包括每層神經(jīng)元數(shù)量和dropout參數(shù),其中dropout參數(shù)包括輸入連接、遞歸連接和每層連接之間失活參數(shù),所以2層網(wǎng)絡(luò)共有6個(gè)參數(shù),并采用貝葉斯優(yōu)化算法[17]進(jìn)行超參數(shù)選擇,算法迭代次數(shù)為50。為評(píng)估ARIMA_DLSTM混合模型的性能,將ARIMA[7]、ARIMAMLP[18]、ARIMA_MLP[7]、ARIMA_SVR[8]和ARIMA_SVR_s[1]預(yù)測(cè)模型作為對(duì)比模型。

        表1 模型參數(shù)及取值范圍

        (1) Canadian Lynx數(shù)據(jù)集。在SVR模型中,懲罰系數(shù)C為1 000,不敏感損失系數(shù)ε為0.1,寬度系數(shù)γ為1.0,時(shí)間步(輸入序列長(zhǎng)度)為10。LSTM模型的每層神經(jīng)元個(gè)數(shù)分別為26和21,dropout為[0.10,0.26,0.16,0.12,0.27,0.26],時(shí)間步為5,迭代次數(shù)為2 000次。

        圖5給出利用貝葉斯優(yōu)化算法對(duì)LSTM模型進(jìn)行超參數(shù)優(yōu)化的最優(yōu)驗(yàn)證誤差迭代圖。可以看出,算法在第42次迭代后誤差值最優(yōu)。

        圖5 貝葉斯優(yōu)化算法在Canadian Lynx的驗(yàn)證誤差迭代圖

        表2給出了不同模型在Canadian Lynx時(shí)間序列測(cè)試集中的預(yù)測(cè)結(jié)果??梢?jiàn),ARIMA_SVR模型在比較模型中最優(yōu),而ARIMA_DLSTM模型的測(cè)試結(jié)果比ARIMA_SVR模型的MSE、MAPE和MAE值分別降低53.47%、24.84%和26.80%。

        表2 對(duì)Canadian Lynx時(shí)間序列預(yù)測(cè)結(jié)果

        圖6給出ARIMA模型和ARIMA_DLSTM模型在Canadian Lynx測(cè)試集上的預(yù)測(cè)結(jié)果。由圖6可知,ARIMA_DLSTM模型的預(yù)測(cè)結(jié)果和真實(shí)值更加接近,有效提高了ARIMA模型的性能。

        圖6 ARIMA模型和ARIMA_DLSTM模型在Canadian Lynx的時(shí)序列測(cè)結(jié)果

        (2) Colorado River flow數(shù)據(jù)集。在SVR模型中,懲罰系數(shù)C為1 000,不敏感損失系數(shù)ε為0.001,寬度系數(shù)γ為0.01,時(shí)間步(輸入序列長(zhǎng)度)為24。LSTM模型的每層神經(jīng)元個(gè)數(shù)分別為24和34,dropout為[0.14,0.32,0.22,0.18,0.28,0.18],時(shí)間步為43,迭代次數(shù)為2 000次。

        圖7給出利用貝葉斯優(yōu)化算法對(duì)LSTM模型進(jìn)行超參數(shù)優(yōu)化的最優(yōu)驗(yàn)證誤差迭代圖。可見(jiàn),算法在第30次迭代后誤差值最優(yōu)。

        圖7 貝葉斯優(yōu)化算法在Colorado River flow的驗(yàn)證誤差迭代圖

        表3給出了不同模型在Colorado River flow時(shí)間序列測(cè)試集中的預(yù)測(cè)結(jié)果??梢?jiàn),ARIMA_MLP模型的MSE和MAE值在比較模型中最優(yōu),ARIMA_SVR_s模型的MAPE值最優(yōu),而ARIMA_DLSTM模型的測(cè)試結(jié)果比最優(yōu)MSE、MAPE和MAE值分別降低82.15%、41.58%和38.26%。

        表3 對(duì)Colorado River flow時(shí)間序列預(yù)測(cè)結(jié)果

        圖8給出ARIMA模型和ARIMA_DLSTM模型在Colorado River flow測(cè)試集上的預(yù)測(cè)結(jié)果??梢钥闯?,ARIMA_DLSTM模型預(yù)測(cè)值存在滯后現(xiàn)象,但和真實(shí)值更接近,優(yōu)于ARIMA模型。

        圖8 ARIMA模型和ARIMA_DLSTM模型在Colorado River flow的時(shí)序預(yù)測(cè)結(jié)果

        (3) Airline Passengers數(shù)據(jù)集。在SVR模型中,懲罰系數(shù)C為1 000,不敏感損失系數(shù)ε為0.01,寬度系數(shù)γ為0.01,時(shí)間步(輸入序列長(zhǎng)度)為16。LSTM模型的每層神經(jīng)元個(gè)數(shù)分別為35和22,dropout為[0.14,0.27,0.11,0.10,0.27,0.25],時(shí)間步為47,迭代次數(shù)為2 000次。

        圖9給出利用貝葉斯優(yōu)化算法對(duì)LSTM模型進(jìn)行超參數(shù)優(yōu)化的最優(yōu)驗(yàn)證誤差迭代圖。可以看出,算法在第41次迭代后誤差值最優(yōu)。

        圖9 貝葉斯優(yōu)化算法在Airline Passengers的驗(yàn)證誤差迭代圖

        表4給出了不同模型在Airline Passengers時(shí)間序列測(cè)試集中的預(yù)測(cè)結(jié)果??梢钥闯觯珹RIMA_SVR_s模型預(yù)測(cè)結(jié)果在比較模型中最優(yōu),而ARIMA_DLSTM模型的測(cè)試結(jié)果比最優(yōu)MSE、MAPE和MAE值分別降低23.61%、8.09%和5.72%。

        表4 對(duì)Airline Passengers時(shí)間序列預(yù)測(cè)結(jié)果

        圖10給出ARIMA模型和ARIMA_DLSTM模型在Airline Passengers測(cè)試集上的預(yù)測(cè)結(jié)果??梢钥闯觯珹RIMA_DLSTM模型預(yù)測(cè)值和真實(shí)值間趨勢(shì)基本吻合,有效提高了ARIMA模型的預(yù)測(cè)精度。

        圖10 ARIMA模型和ARIMA_DLSTM模型在Airline Passengers 時(shí)間序列預(yù)測(cè)結(jié)果

        (4) 比特幣匯率數(shù)據(jù)集。在SVR模型中,懲罰系數(shù)C為1 000,不敏感損失系數(shù)ε為0.001,寬度系數(shù)γ為0.01,時(shí)間步(輸入序列長(zhǎng)度)為7。LSTM模型的每層神經(jīng)元個(gè)數(shù)分別為23和22,dropout為[0.23,0.11,0.17,0.16,0.32,0.16],時(shí)間步為40,迭代次數(shù)為2 000次。

        圖11給出利用貝葉斯優(yōu)化算法對(duì)LSTM模型進(jìn)行超參數(shù)優(yōu)化的最優(yōu)驗(yàn)證誤差迭代圖??梢钥闯?,算法在第16次迭代后誤差值最優(yōu)。

        圖11 貝葉斯優(yōu)化算法在Bitcoin匯率的驗(yàn)證誤差迭代圖

        表5給出了不同模型在Bitcoin匯率時(shí)間序列測(cè)試集中的預(yù)測(cè)結(jié)果。可以看出,ARIMA_SVR_s模型預(yù)測(cè)結(jié)果在比較模型中最優(yōu),而ARIMA_DLSTM模型的測(cè)試結(jié)果比最優(yōu)MSE、MAPE和MAE值分別降低17.8%、17.13%和10.4%。

        表5 對(duì)Bitcoin匯率時(shí)間序列預(yù)測(cè)結(jié)果

        圖12給出ARIMA模型和ARIMA_DLSTM模型在Bitcoin匯率測(cè)試集上后20組數(shù)據(jù)的預(yù)測(cè)結(jié)果??梢钥闯?,ARIMA_DLSTM模型預(yù)測(cè)值和真實(shí)值之間雖有滯后現(xiàn)象,但趨勢(shì)吻合,能夠提高ARIMA模型的預(yù)測(cè)精度。

        圖12 ARIMA模型和ARIMA_DLSTM模型在Bitcoin匯率時(shí)間序列預(yù)測(cè)結(jié)果

        (5) 糖價(jià)格指數(shù)數(shù)據(jù)集。在SVR模型中,懲罰系數(shù)C為1 000,不敏感損失系數(shù)ε為0.001,寬度系數(shù)γ為1,時(shí)間步(輸入序列長(zhǎng)度)為3。LSTM模型的每層神經(jīng)元個(gè)數(shù)分別為27和5,dropout為[0.03,0.18,0.19,0.06,0.01,0.3],時(shí)間步為20,迭代次數(shù)為2 000次。

        圖13給出利用貝葉斯優(yōu)化算法對(duì)LSTM模型進(jìn)行超參數(shù)優(yōu)化的最優(yōu)驗(yàn)證誤差迭代圖??梢钥闯觯惴ㄔ诘?5次迭代后誤差值最優(yōu)。

        圖13 貝葉斯優(yōu)化算法在糖價(jià)格指數(shù)的驗(yàn)證誤差迭代圖

        表6給出了不同模型在糖價(jià)格指數(shù)時(shí)間序列測(cè)試集中的預(yù)測(cè)結(jié)果??梢钥闯觯珹RIMA_SVR_s模型預(yù)測(cè)結(jié)果在比較模型中最優(yōu),而ARIMA_DLSTM模型的測(cè)試結(jié)果比最優(yōu)MSE、MAPE和MAE值分別降低12.48%、3.17%和3.88%。

        表6 對(duì)糖價(jià)格指數(shù)時(shí)間序列預(yù)測(cè)結(jié)果

        圖14給出ARIMA模型和ARIMA_DLSTM模型在糖價(jià)格指數(shù)測(cè)試集上后20組數(shù)據(jù)的預(yù)測(cè)結(jié)果??梢钥闯?,ARIMA_DLSTM模型預(yù)測(cè)值和真實(shí)值更接近,精度更高。

        圖14 ARIMA模型和ARIMA_DLSTM模型在該時(shí)間序列預(yù)測(cè)結(jié)果

        圖15給出了5個(gè)數(shù)據(jù)集下的ARIMA模型和5種混合模型的MSE誤差比雷達(dá)圖,圖中曲線(xiàn)的頂點(diǎn)位置越靠近邊緣則顯示MSE誤差比越大,說(shuō)明相應(yīng)的混合模型相比于ARIMA模型的MSE誤差更低??梢钥闯?,ARIMA_DLSTM模型在所有時(shí)間序列中MSE誤差最低,其中在Colorado River flow時(shí)間序列中的誤差比最大,優(yōu)勢(shì)最為明顯。

        圖15 5個(gè)數(shù)據(jù)集下的MSE誤差比雷達(dá)圖

        8 結(jié) 語(yǔ)

        本文提出了一種基于ARIMA模型、SVR模型和深度LSTM模型的ARIMA_DLSTM時(shí)間序列混合預(yù)測(cè)模型。ARIMA模型和SVR模型能夠分別提取時(shí)間序列的線(xiàn)性特征和誤差序列的非線(xiàn)性特征,深度LSTM模型對(duì)線(xiàn)性和非線(xiàn)性預(yù)測(cè)結(jié)果進(jìn)行非線(xiàn)性組合。對(duì)來(lái)自不同領(lǐng)域的時(shí)間序列進(jìn)行實(shí)證分析,實(shí)驗(yàn)結(jié)果表明,提出的ARIMA_DLSTM模型和其他混合模型相比,能夠有效提高預(yù)測(cè)精度,有一定的實(shí)際應(yīng)用價(jià)值。

        猜你喜歡
        優(yōu)化模型
        一半模型
        超限高層建筑結(jié)構(gòu)設(shè)計(jì)與優(yōu)化思考
        民用建筑防煙排煙設(shè)計(jì)優(yōu)化探討
        關(guān)于優(yōu)化消防安全告知承諾的一些思考
        一道優(yōu)化題的幾何解法
        由“形”啟“數(shù)”優(yōu)化運(yùn)算——以2021年解析幾何高考題為例
        重要模型『一線(xiàn)三等角』
        重尾非線(xiàn)性自回歸模型自加權(quán)M-估計(jì)的漸近分布
        3D打印中的模型分割與打包
        FLUKA幾何模型到CAD幾何模型轉(zhuǎn)換方法初步研究
        国产精美视频| 亚洲av无码国产精品色午夜字幕 | 国产午夜精品一区二区三区视频| 亚洲专区在线观看第三页| 久久精品国产亚洲av麻豆床戏 | 国产偷国产偷亚洲高清视频| 成人做受视频试看60秒| 国产99视频精品免费视频免里| 亚洲免费观看一区二区三区| 极品美女调教喷水网站| 熟女少妇精品一区二区| 亚洲国产欧美在线成人| 久久高潮少妇视频免费| 亚洲黄色一级在线观看| 内射爽无广熟女亚洲| 国产av天堂成人网| 国产av一区仑乱久久精品| 亚洲国产色一区二区三区 | 久久黄色视频| 欧美亚洲日本国产综合在线| 2021国产精品一区二区在线| 国产一区二区美女主播| av区无码字幕中文色| 久久精品无码免费不卡| 国产成人亚洲综合小说区| 干出白浆视频在线观看| 成人乱码一区二区三区av| 国产精品亚洲五月天高清| 亚洲av噜噜狠狠蜜桃| 一区二区三区国产在线视频 | 久久精品亚洲乱码伦伦中文| 国产精品久久久久久久久久影院| 日本高清不在线一区二区色 | 久久久麻豆精亚洲av麻花| 亚洲日韩成人无码| 18成人片黄网站www| 午夜不卡亚洲视频| 日本高清人妻一区二区| 日本高清在线一区二区三区 | 国产精品无码素人福利不卡| 和外国人做人爱视频|