亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于神經(jīng)網(wǎng)絡(luò)的上證綜指預(yù)測模型研究

        2023-02-15 05:49:04趙騰哲首都經(jīng)濟貿(mào)易大學(xué)統(tǒng)計學(xué)院
        消費導(dǎo)刊 2023年1期
        關(guān)鍵詞:模型

        趙騰哲 首都經(jīng)濟貿(mào)易大學(xué)統(tǒng)計學(xué)院

        在金融市場,特別是股票市場中,如何精準(zhǔn)地選擇股票來規(guī)劃自己的投資計劃,以達(dá)到規(guī)避風(fēng)險和獲得更多收益的目標(biāo),是人們所關(guān)注的重點。

        國外將機器學(xué)習(xí)應(yīng)用于金融市場的研究比較早。2015年Michel Ballings等[1]使用單一分類器模型(神經(jīng)網(wǎng)絡(luò),邏輯回歸,支持向量機和K近鄰)和集成方法(隨機森林,AdaBoost和Kernel Factory)對未來一年股價方向進(jìn)行預(yù)測。Nikola Milosevic[2]提出了一種機器學(xué)習(xí)輔助方法,以長期評估股票的未來價格。Badre Labiad等[3]采用了隨機森林、梯度增強樹和支持向量機來預(yù)測摩洛哥股票市場的短期變化,證明了隨機森林和梯度增強樹比支持向量機適用于短期預(yù)測。Sujin Pyo等[4]使用人工神經(jīng)網(wǎng)絡(luò),使用帶有多項式和徑向基函數(shù)核的支持向量機模型預(yù)測了韓國綜合股票價格指數(shù)200(KOSPI 200)的價格趨勢。Uma Gurav等[5]基于股票市場投資風(fēng)險的最小化與預(yù)測誤差的最小化緊密相關(guān)的事實,采用機器學(xué)習(xí)的方法對于動態(tài)股票市場進(jìn)行預(yù)測。Keywan等[6]講述了機器學(xué)習(xí)的理論和方法,進(jìn)行實例演示,說明投資者如何在避免模型過擬合時運用機器學(xué)習(xí)算法準(zhǔn)確地預(yù)測股票的收益。Dominik Wolff等[7]使用隨機森林,正則Logistic回歸等模型對1999年至2019年期間標(biāo)準(zhǔn)普爾500指數(shù)歷史成份股的每周數(shù)據(jù)進(jìn)行了股票特征訓(xùn)練,以預(yù)測特定股票在接下來的一周內(nèi)是否跑贏大盤。2020年Wenjie Lu等[8]提出了一種CNN-BiLSTM-AM的方法來預(yù)測第二天的股票收盤價。Doron Avramov等[9]基于深度學(xué)習(xí)的投資成功地識別了與大多數(shù)異?,F(xiàn)象一致的錯誤定價股票。韓山杰等[10]基于TensorFlow,構(gòu)建多層感知器模型,用于預(yù)測每日收盤股價。彭燕等[11]證實了股票的調(diào)整不是按照均勻的時間過程推進(jìn),而是具有自身的推進(jìn)過程,幫助投資者進(jìn)一步的了解實際股價并且構(gòu)建合適的股票投資策略。馮宇旭等[12]將LSTM用于滬深300指數(shù)的股價預(yù)測中,獲得了比較好的預(yù)測效果。2021年趙紅蕊等[13]提出了一種在結(jié)合長短期記憶網(wǎng)絡(luò)和卷積神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)上引入注意力機制的股票預(yù)測混合模型。胡聿文等[14]提出一種基于PCA和LASSO的LSTM神經(jīng)網(wǎng)絡(luò)股票價格預(yù)測模型,提高股票價格的預(yù)測精度。方義秋等[15]提出了一種聯(lián)合RMSE損失LSTM-CNN的方法,在預(yù)測效果上具有良好的可行性和普適性。李瀟俊等[16]發(fā)現(xiàn)基于LSTM模型和GRU模型構(gòu)建的混合循環(huán)神經(jīng)網(wǎng)站模型在長期預(yù)測上具有更高的預(yù)測精度。2022年,曹超凡等[17]融合卷積神經(jīng)網(wǎng)絡(luò)和長短時記憶網(wǎng)絡(luò),構(gòu)建CNN-LSTM模型的基礎(chǔ)上,引入多向延遲嵌入的張量處理技術(shù)MDT,驗證了引入MDT技術(shù)的有效性和可行性。嚴(yán)冬梅等[18]提出一種結(jié)合自注意力機制和殘差網(wǎng)絡(luò)的生成式對抗神經(jīng)網(wǎng)絡(luò)模型。能不同程度地減少預(yù)測誤差。

        上述文獻(xiàn)中所使用的模型多為多種神經(jīng)網(wǎng)絡(luò)的混合模型,例如CNN-LSTM神經(jīng)網(wǎng)絡(luò)。然而LSTM作為一種預(yù)測時間序列數(shù)據(jù)的神經(jīng)網(wǎng)絡(luò),其本身對數(shù)據(jù)的擬合效果非常好,加入其他網(wǎng)絡(luò)可能令預(yù)測結(jié)果變差。針對上述問題,本文選擇適當(dāng)加深維度后的模型,與當(dāng)前預(yù)測效果好的混合模型進(jìn)行對比,使用上證綜指進(jìn)行分析,讓模型自主尋找最優(yōu)的超參數(shù),從預(yù)測模型的擬合精度和程度分別判斷模型好壞。結(jié)果顯示文章所使用的模型都有較高的預(yù)測精度,充分證明了加深模型深度比模型混合對于股價的預(yù)測效果提升更加明顯,為股價預(yù)測的神經(jīng)網(wǎng)絡(luò)模型的優(yōu)化方向提供思路。

        一、神經(jīng)網(wǎng)絡(luò)模型

        (一)循環(huán)神經(jīng)網(wǎng)絡(luò)

        循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)是一種專門用來處理序列數(shù)據(jù)的神經(jīng)網(wǎng)絡(luò),相比與于普通前饋神經(jīng)網(wǎng)絡(luò),其可以接受自身和其他神經(jīng)元的信息,構(gòu)成了循環(huán)結(jié)構(gòu),可以有效地挖掘出數(shù)據(jù)中的時序信息,因此在語音識別、語言模型、機器翻譯等方面表現(xiàn)良好。

        但在使用RNN處理問題時一般存在一系列問題,例如“長期依賴”問題。長期是指所預(yù)測的目標(biāo)在序列靠前的位置,但在多次傳播以后,循環(huán)神經(jīng)網(wǎng)絡(luò)難以學(xué)習(xí)到時間久遠(yuǎn)的信息,從而無法進(jìn)行準(zhǔn)確的預(yù)測,同時梯度消失和梯度爆炸是困擾RNN模型訓(xùn)練的關(guān)鍵原因之一。由于RNN的權(quán)值矩陣循環(huán)相乘導(dǎo)致矩陣高次冪,在多次傳播后,大部分情況下梯度傾向于消失,小部分情況下趨于爆炸。

        LSTM神經(jīng)網(wǎng)絡(luò)提出的動機是為了解決上面提到的問題。為了解決長期依賴問題,LSTM引入了門機制,不同于RNN全盤接受信息,LSTM加入了門之后,對所輸入的信息進(jìn)行了選擇,從而可以獲取較遠(yuǎn)的序列的信息。

        LSTM計算過程如下:

        (1)選擇忘記過去某些信息

        ht?1是LSTM神經(jīng)元單元在最后時刻的最終輸出值,xt是當(dāng)前時刻的輸入,σ是激活函數(shù),ft是當(dāng)前時刻遺忘門的輸出,W是權(quán)重,B為偏差。

        (2)記憶現(xiàn)在的某些信息

        it是當(dāng)前時刻的輸入門輸出是當(dāng)前時刻的候選單元狀態(tài)。

        (3)將過去與現(xiàn)在的記憶進(jìn)行合并

        Ct是當(dāng)前時刻的單元狀態(tài),Ct?1是先前時刻的單元狀態(tài)。

        (4)計算得到輸出值

        ot是輸出門的輸出值,ht是當(dāng)前時刻的輸出。

        GRU則進(jìn)一步簡化了LSTM,將遺忘門和輸入門合二為一,只保留了更新門和重置門兩種門操作。在LSTM中長期記憶會影響到某一時刻的模型輸出,而GRU則直接把某一時刻的長期記憶作為輸出,一邊修改長期記憶一邊進(jìn)行輸出,所以這使得GRU比LSTM具有更少的輸入(LSTM有三個輸入,GRU只有兩個)和更簡單的結(jié)構(gòu),運算量也相對減少。

        GRU運算過程如下:

        先使用上一時刻的輸出和當(dāng)前時刻的輸入X做出兩個獨立的門出來。Zt為重置門,tR為更新門。

        (2)先生成臨時激活值,可以發(fā)現(xiàn)Rt越大,之前的信息就帶入越多。

        (3)加權(quán)生成最后的輸出

        (二)卷積神經(jīng)網(wǎng)絡(luò)

        卷積神經(jīng)網(wǎng)絡(luò)是一種前饋神經(jīng)網(wǎng)絡(luò),在自然語言處理和圖像處理方面具有優(yōu)異的表現(xiàn)。卷積結(jié)構(gòu)減少了神經(jīng)網(wǎng)絡(luò)占用的內(nèi)存,局部感受野和權(quán)值共享成功減少了參數(shù)的數(shù)量,提高了模型的效率,防止參數(shù)過多導(dǎo)致模型過擬合。

        卷積神經(jīng)網(wǎng)絡(luò)主要由卷積層、池化層和全連接層構(gòu)成。其中卷積層和池化層是卷積神經(jīng)網(wǎng)絡(luò)獨有。卷積核是卷積層中的主要部分,超參數(shù)主要為卷積核大小、填充和步長,通過卷積層的卷積操作,可以提取出數(shù)據(jù)特征,但提取出的特征維度高,池化層的主要目的就是為了降低特征維度,減少計算量,降低神經(jīng)網(wǎng)絡(luò)的訓(xùn)練成本,通常會在卷積層的后面加一個池化層。池化層的超參數(shù)主要為池大小、填充和激活函數(shù)。

        卷積神經(jīng)網(wǎng)絡(luò)的訓(xùn)練過程如下:

        1.向模型輸入數(shù)據(jù),卷積神經(jīng)網(wǎng)絡(luò)使用梯度下降算法,因此需要對輸入數(shù)據(jù)進(jìn)行標(biāo)準(zhǔn)化,提升卷積神經(jīng)網(wǎng)絡(luò)的表現(xiàn)。

        2.初始化模型的權(quán)值和閾值,固定學(xué)習(xí)率等超參數(shù)。

        3.輸入數(shù)據(jù)依次通過卷積層、池化層和全連接層得到輸出值。

        4.計算輸出值與目標(biāo)值之間的誤差,依次計算各個層之間的誤差,計算出權(quán)值和閾值的調(diào)整量,對其更新。

        5.訓(xùn)練多次后,判斷模型的結(jié)果是否符合預(yù)期,未滿足繼續(xù)迭代,滿足后訓(xùn)練結(jié)束,保存權(quán)值和閾值。

        (三)模型評價指標(biāo)

        為了對各類模型做出更加準(zhǔn)確的評價,筆者采用三種評價指標(biāo)來衡量模型的擬合效果,分別是和R2。

        三種指標(biāo)的公式分別如下:

        二、實驗過程

        (一)數(shù)據(jù)選取與處理

        本實驗選擇上證綜指(000,001)作為實驗數(shù)據(jù),選取的數(shù)據(jù)來源于Choice金融終端,數(shù)據(jù)較為可靠,數(shù)據(jù)時間范圍從1991年7月1日至2020年8月31日共7127個交易日。每條數(shù)據(jù)包含8個變量:開盤價、最高價、最低價格、收盤價、成交量、成交金額、漲跌額和漲跌幅。本實驗以前6627個交易日的數(shù)據(jù)作為訓(xùn)練集,以后500個交易日的數(shù)據(jù)作為測試集。部分樣本數(shù)據(jù)展示如表1所示。

        表1 樣本數(shù)據(jù)

        本文對數(shù)據(jù)建模的過程如下:

        1.輸入訓(xùn)練所需要的數(shù)據(jù)。

        2.對數(shù)據(jù)進(jìn)行預(yù)處理,由于數(shù)據(jù)各個變量值之間相差較大,為了使訓(xùn)練后的模型更加準(zhǔn)確,對數(shù)據(jù)做標(biāo)準(zhǔn)化處理。

        3.初始化神經(jīng)網(wǎng)絡(luò)的權(quán)重和偏置,設(shè)置好網(wǎng)絡(luò)層數(shù),通過隨機搜索找到合適的范圍,通過網(wǎng)格搜索找到最優(yōu)隱藏單元數(shù)等,設(shè)置超參數(shù)。

        4.將數(shù)據(jù)輸入到神經(jīng)網(wǎng)絡(luò)中,設(shè)置學(xué)習(xí)率衰減策略和早停法,便于更好的擬合模型和防止產(chǎn)生過擬合,通過神經(jīng)網(wǎng)絡(luò)得到輸出值。

        5.判斷模型迭代是否完成或者達(dá)到設(shè)定要求,滿足條件后完成訓(xùn)練,更新并保存神經(jīng)網(wǎng)絡(luò);未滿足條件更新模型的權(quán)重和偏置繼續(xù)訓(xùn)練。

        6.將預(yù)測的數(shù)據(jù)輸入訓(xùn)練好的模型,并進(jìn)行標(biāo)準(zhǔn)化處理。

        7.通過訓(xùn)練好的模型得到預(yù)測值,對預(yù)測值做反標(biāo)準(zhǔn)化,與真實的預(yù)測值進(jìn)行比較,計算相應(yīng)的,判斷哪種模型對數(shù)據(jù)的擬合效果更好

        8.為防止神經(jīng)網(wǎng)絡(luò)擬合出現(xiàn)極端值的情況,整個過程共循環(huán)10次,記錄的數(shù)值,計算平均值,使結(jié)果更具說服力。

        (二)模型參數(shù)

        在本實驗中,神經(jīng)網(wǎng)絡(luò)的訓(xùn)練參數(shù)都相同,迭代次數(shù)為100次,損失函數(shù)為MAE,優(yōu)化器選擇Adam,批量大小為64,時間步長為10,初始學(xué)習(xí)率為0.001。在卷積神經(jīng)網(wǎng)絡(luò)中卷積層包含32個卷積核,內(nèi)核大小為1,激活函數(shù)為tanh,填充為same,池化層大小為1,激活函數(shù)為tanh,填充為same,神經(jīng)網(wǎng)絡(luò)中的隱藏單元數(shù)均為256。

        在設(shè)定隱藏單元數(shù)時,運用隨機搜索和網(wǎng)格搜索,令模型自主選擇最優(yōu)的參數(shù),筆者為了兼顧運算的時間和擬合效果,將單元數(shù)上限設(shè)置為256。

        為了使擬合效果更好,筆者采用學(xué)習(xí)率衰減策略,逐步降低學(xué)習(xí)率,以求達(dá)到最好的擬合效果,同時防止擬合次數(shù)過多產(chǎn)生過擬合現(xiàn)象,采用早停法進(jìn)行限制。

        由于神經(jīng)網(wǎng)絡(luò)每次訓(xùn)練的初始權(quán)重和參數(shù)都不同,為了能夠避免出現(xiàn)極端數(shù)值,筆者采用多次訓(xùn)練的方法,將每次訓(xùn)練的結(jié)果置于數(shù)據(jù)框中,共訓(xùn)練10次,求取各個評價指標(biāo)的均值作為最終結(jié)果(見表2)。

        表2 神經(jīng)網(wǎng)絡(luò)參數(shù)

        (三)結(jié)果展示

        筆者利用處理后的訓(xùn)練集數(shù)據(jù)分別對CNN、RNN、LSTM、CNN-RNN、CNN-LSTM、雙層RNN和雙層LSTM進(jìn)行訓(xùn)練后,利用訓(xùn)練完成的模型對測試集數(shù)據(jù)進(jìn)行預(yù)測,并將真實值與預(yù)測值進(jìn)行比較(見圖1-圖7)。

        圖1 CNN

        圖2 RNN

        圖3 LSTM

        圖4 CNN-RNN

        圖5 CNN-LSTM

        圖6 雙層RNN

        圖7 雙層LSTM

        在九種預(yù)測方法中,實值和預(yù)測值的折線擬合度從低到高排序分別為CNN、CNN-RNN、CNN-LSTM、雙層RNN、RNN、單層LSTM和雙層LSTM。雙層LSTM的擬合程度最好,預(yù)測值和真實值幾乎相互重合,CNN的擬合程度最差。根據(jù)每種方法的預(yù)測值和實際值,每種方法的評價指標(biāo)都可以為計算得到后,所有方法的比較結(jié)果見表3、圖8-10所示。

        圖8 MAE圖

        圖9 RMSE圖

        圖10 R2圖

        從表3和圖8-10中可以看出,CNN的MAE,RMSE最大,R2最小,雙層LSTM的MAE,RMSE最小,R2最大,在所有模型中,使用CNN來提取特征或者直接進(jìn)行預(yù)測的模型的擬合結(jié)果都比其他模型差,通過對比RNN和LSTM,可以發(fā)現(xiàn),不管是單獨使用LSTM和RNN模型,還是與CNN結(jié)合使用,LSTM模型的擬合結(jié)果均要優(yōu)于RNN模型。

        表3 預(yù)測誤差表

        同時,在使用雙層模型進(jìn)行處理的過程中,雙層LSTM的模型優(yōu)于單層LSTM,但RNN的結(jié)果與之相反,說明在某種程度上,加深神經(jīng)網(wǎng)絡(luò)層數(shù)會帶來一定的改善,但也要具體問題具體分析。

        總體而言,循環(huán)神經(jīng)網(wǎng)絡(luò)預(yù)測股價具有良好的性能,但當(dāng)數(shù)據(jù)的變量較少時,使用CNN作為特征提取的方法并不能優(yōu)化模型,反而不如單純的循環(huán)神經(jīng)網(wǎng)絡(luò)。當(dāng)神經(jīng)網(wǎng)絡(luò)擬合結(jié)果達(dá)不到預(yù)想程度時,可以適當(dāng)加深神經(jīng)網(wǎng)絡(luò)的層數(shù)進(jìn)行嘗試,可能會有更好的結(jié)果。因此,在利用前十天的數(shù)據(jù)來預(yù)測下一天的收盤價,神經(jīng)網(wǎng)絡(luò)可以很好地預(yù)測第二天的收盤價,為投資者的投資提供參考,同時對于預(yù)測上證指數(shù)而言,雙層LSTM是一種最好的選擇。

        結(jié)語

        本文根據(jù)股票價格數(shù)據(jù)的時間特征,使用CNN、CNN-RNN、CNN-LSTM、雙層RNN、RNN、單層LSTM和雙層LSTM模型來預(yù)測股票收盤價,本文以上證綜指的相關(guān)數(shù)據(jù)為例,以開盤價、最高價、最低價格、收盤價、成交量、成交金額、漲跌額和漲跌幅作為變量,充分利用股票數(shù)據(jù)的時間序列特征,使用前十天的數(shù)據(jù),預(yù)測第二天的收盤價。在所有模型當(dāng)中,雙層LSTM模型對于股價的預(yù)測具有更好的效果。實驗結(jié)果表明CNN不適用于預(yù)測時間序列數(shù)據(jù);LSTM模型均優(yōu)于RNN模型,說明LSTM模型可以更好地擬合時間序列數(shù)據(jù)。相較于利用CNN提取特征的CNN-RNN、CNN-LSTM,雙層RNN、RNN、單層LSTM和雙層LSTM模型,對于股價的預(yù)測具有更好的效果,說明多種神經(jīng)網(wǎng)絡(luò)混合不會確切的改善結(jié)果。對比雙層RNN、單層RNN、單層LSTM和雙層LSTM模型的結(jié)果,單層RNN、雙層LSTM模型的比雙層RNN要小、比單層LSTM要大,證實了適當(dāng)加深神經(jīng)網(wǎng)絡(luò)深度才會使預(yù)測精度提高,這些結(jié)論會為投資者為決策提供幫助。因此,在對神經(jīng)網(wǎng)絡(luò)的優(yōu)化過程中,先選擇適當(dāng)?shù)纳窠?jīng)網(wǎng)絡(luò),例如RNN、LSTM預(yù)測序列數(shù)據(jù),CNN預(yù)測圖像數(shù)據(jù),其次適當(dāng)加深神經(jīng)網(wǎng)絡(luò)的深度和調(diào)參,最后采用多種神經(jīng)網(wǎng)絡(luò)結(jié)合的方法,按照這種順序可使神經(jīng)網(wǎng)絡(luò)模型的結(jié)果更加準(zhǔn)確。

        本文也存在著一些不足之處:第一,本文所考慮的只是上證指數(shù),雖然基本可以代表市場的整體情況,但近年來隨著股票市場的發(fā)展,越來越多的股票加入,所做的模型和方法亟待進(jìn)一步的擴展和研究;第二,本文只考慮了股價數(shù)據(jù)對收盤價的影響,而沒有將新聞和國家政策等因素納入預(yù)測之中。未來的工作將會著重在這些方面進(jìn)行解決,同時會研究模型在其他時間序列數(shù)據(jù),例如汽油價格,黃金價格,是否會有更好的表現(xiàn)。

        猜你喜歡
        模型
        一半模型
        一種去中心化的域名服務(wù)本地化模型
        適用于BDS-3 PPP的隨機模型
        提煉模型 突破難點
        函數(shù)模型及應(yīng)用
        p150Glued在帕金森病模型中的表達(dá)及分布
        函數(shù)模型及應(yīng)用
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權(quán)M-估計的漸近分布
        3D打印中的模型分割與打包
        欧美破处在线观看| 日韩人妻精品中文字幕专区| 久久99精品这里精品动漫6| 国产AV无码无遮挡毛片| 日韩人妻一区二区中文字幕| 一级老熟女免费黄色片| 午夜免费电影| 中文字幕在线精品视频入口一区| 亚洲首页一区任你躁xxxxx| 亚洲第一免费播放区| 亚洲精品综合中文字幕组合| 亚洲夜夜性无码| 亚洲成a人片在线观看无码| www.91久久| 国产av一级二级三级| 亚洲日韩精品一区二区三区无码| 亚洲日本一区二区一本一道| 欧美精品在线一区| 日韩精品视频在线观看免费| 亚洲国产av高清一区二区三区| 少妇久久久久久被弄高潮| 亚洲学生妹高清av| 精品国内自产拍在线视频| 亚洲av一区二区三区网站| 亚洲男人天堂一区二区| 国产国拍精品av在线观看按摩 | 色一情一乱一伦一区二区三区日本 | 国内a∨免费播放| 国产午夜久久久婷婷| 国产精品av免费网站| 漂亮人妻洗澡被公强 日日躁 | 一区二区三区在线少妇| 隔壁老王国产在线精品| 色欲aⅴ亚洲情无码av蜜桃| 国产精品11p| 韩国精品一区二区三区无码视频| 精品国产av无码一道| 中文字幕亚洲精品综合| 最新日本人妻中文字幕| 人妻尝试又大又粗久久| 国内精品九九久久久精品|