亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于TimesNet的大類資產(chǎn)指數(shù)長期預(yù)測

        2023-04-29 00:00:00陳英瑞
        現(xiàn)代信息科技 2023年21期

        收稿日期:2023-04-10

        DOI:10.19850/j.cnki.2096-4706.2023.21.033

        摘" 要:大類資產(chǎn)指數(shù)預(yù)測常用于衡量投資組合的收益表現(xiàn),若能對其進(jìn)行準(zhǔn)確的長期預(yù)測,則可據(jù)此構(gòu)建投資組合以獲取更高的收益。與傳統(tǒng)的機(jī)器學(xué)習(xí)和常見的神經(jīng)網(wǎng)絡(luò)相比,TimesNet在處理多變量長期預(yù)測任務(wù)方面具有更好的效果。文章基于10個(gè)大類資產(chǎn)指數(shù)的歷史數(shù)據(jù),采用TimesNet模型進(jìn)行長期預(yù)測,并在實(shí)證分析中與線性回歸、隨機(jī)森林、支持向量回歸和LSTM四種預(yù)測模型進(jìn)行對比,驗(yàn)證了該模型的準(zhǔn)確性。

        關(guān)鍵詞:多變量預(yù)測;時(shí)間序列;TimesNet;殘差網(wǎng)絡(luò)

        中圖分類號(hào):TP391;TP301.6 文獻(xiàn)標(biāo)識(shí)碼:A 文章編號(hào):2096-4706(2023)21-0145-05

        Long-Term Forecast of Major Asset Index Based on TimesNet

        CHEN Yingrui

        (South China Normal University, Guangzhou" 510631, China)

        Abstract: Major asset index prediction is commonly used to measure the return performance of investment portfolios. If accurate long-term predictions can be made, investment portfolios can be constructed based on this to obtain higher returns. Compared with traditional machine learning and common neural networks, TimesNet has better performance in handling multivariate long-term prediction tasks. This paper is based on historical data from 10 major asset index and uses the TimesNet model for long-term prediction. In empirical analysis, it is compared with four prediction models: linear regression, random forest, support vector regression, and LSTM to verify the accuracy of the model.

        Keywords: multivariate prediction; time series; TimesNet; residual network

        0" 引" 言

        大類資產(chǎn)指數(shù)是指反映不同大類資產(chǎn)市場表現(xiàn)的指數(shù)(如股票、債券、商品等),可用于衡量一個(gè)投資組合的整體表現(xiàn)。在大類資產(chǎn)配置等投資策略中,需要對不同的資產(chǎn)進(jìn)行組合配置,因此大類資產(chǎn)指數(shù)的參考作用尤為重要。與此同時(shí),確定一個(gè)投資組合不僅需要考慮當(dāng)下的行情,還要對未來一段時(shí)間內(nèi)數(shù)據(jù)的變化趨勢進(jìn)行預(yù)測[1]。在實(shí)踐中,相關(guān)從業(yè)者往往通過自身的經(jīng)驗(yàn)及專業(yè)知識(shí)完成對行情的長期預(yù)測,但對普通投資者而言,則需要較高的理論基礎(chǔ),因此需要采用一種基于數(shù)據(jù)本身的長期預(yù)測方法來輔助普通投資者進(jìn)行決策[2,3]。

        傳統(tǒng)的大類資產(chǎn)指數(shù)預(yù)測方法包括支持向量機(jī)[4]和LSTM[5]等模型。這些模型對多變量時(shí)序數(shù)據(jù)長期趨勢及周期信息的學(xué)習(xí)能力不足,只能在短期預(yù)測中取得較好的效果,無法滿足多變量長期預(yù)測的要求。近年來,由于深度神經(jīng)網(wǎng)絡(luò)在學(xué)習(xí)復(fù)雜時(shí)序特征方面具有明顯的優(yōu)勢,出現(xiàn)了諸如基于Transformer的Autoformer[6]之類的復(fù)雜結(jié)構(gòu)預(yù)測模型。其中,TimesNet模型[7]在長期預(yù)測方面優(yōu)勢突出,因此本文提出一種基于TimesNet的多變量長期預(yù)測模型,通過對真實(shí)數(shù)據(jù)進(jìn)行預(yù)測,并與其他模型的預(yù)測結(jié)果進(jìn)行對比分析,發(fā)現(xiàn)該模型能夠在大類資產(chǎn)指數(shù)的長期預(yù)測任務(wù)中取得良好的預(yù)測效果。

        1" 時(shí)序特征提取

        1.1" 時(shí)間編碼嵌入(TimeEmbedding)

        編碼嵌入(Embedding)廣泛應(yīng)用于自然語言處理等任務(wù)中,這些任務(wù)的特點(diǎn)是需要反映數(shù)據(jù)的位置信息,這與時(shí)序數(shù)據(jù)中需要使用“時(shí)間戳”來反映數(shù)據(jù)時(shí)間信息的目標(biāo)是一致的。因此,TimesNet通過在時(shí)序數(shù)據(jù)中添加由深度學(xué)習(xí)生成的時(shí)間編碼和人為設(shè)置的時(shí)間編碼來反映數(shù)據(jù)中的時(shí)間信息。

        第一種Embedding被稱為TokenEmbedding,常見于自然語言處理任務(wù)中詞向量的處理,它通過深度神經(jīng)網(wǎng)絡(luò)自動(dòng)提取數(shù)據(jù)中的時(shí)間信息,本質(zhì)上是通過多個(gè)一維卷積核的卷積運(yùn)算提取時(shí)序數(shù)據(jù)中的前后時(shí)間趨勢特征。變量的個(gè)數(shù)在卷積計(jì)算中的表現(xiàn)是輸入數(shù)據(jù)的通道數(shù),因此可以在這一層通過卷積核個(gè)數(shù)的設(shè)置實(shí)現(xiàn)輸出通道數(shù)的統(tǒng)一,這將有利于后續(xù)統(tǒng)一模型的設(shè)計(jì)。同時(shí),為了確保輸出長度與輸入長度的一致,在卷積計(jì)算過程中會(huì)對數(shù)據(jù)進(jìn)行池化(Pooling)。本文選取的池化方式是在對應(yīng)位置使用0對數(shù)據(jù)進(jìn)行填充。

        第二種Embedding被稱為PositionEmbedding,在Transformer等模型中非常常見。它基于三角函數(shù)的周期性修改三角函數(shù)的周期長度以完成將位置信息或時(shí)間信息嵌入數(shù)據(jù)的任務(wù)。設(shè)該嵌入編碼的函數(shù)為:

        (1)

        (2)

        其中,pos表示當(dāng)前接受編碼嵌入的數(shù)據(jù)位置索引,d表示接受編碼嵌入的數(shù)據(jù)長度,而2i和2i+1則表示在數(shù)據(jù)長度為偶數(shù)或奇數(shù)的情況下所應(yīng)使用的計(jì)算公式,10 000表示最大不重復(fù)編碼長度,即表示輸入的數(shù)據(jù)長度在小于10 000的情況下位置編碼不會(huì)出現(xiàn)重復(fù)。

        第三種Embedding被稱為TemporalEmbedding,與第一種類似,它同樣是利用深度神經(jīng)網(wǎng)絡(luò)自動(dòng)提取時(shí)間信息,不同之處在于它使用的是前饋神經(jīng)網(wǎng)絡(luò),提取的是數(shù)據(jù)中整體的時(shí)間信息,并通過控制神經(jīng)網(wǎng)絡(luò)中輸出層神經(jīng)元的個(gè)數(shù)來確保輸入長度與輸出長度的一致。

        這三種Embedding通過結(jié)果相加的方式得到最終的時(shí)間編碼,同樣通過相加的方式將其嵌入到時(shí)序數(shù)據(jù)中,所以它們之間不存在先后關(guān)系。

        1.2" 周期特征提取模塊

        周期特征提取模塊(TimesBlock)是TimesNet的核心部分。時(shí)序中的每個(gè)變量均是一維數(shù)據(jù),以一個(gè)變量為例,展示數(shù)據(jù)中時(shí)序信息的提取過程。

        首先,對該一維數(shù)據(jù)進(jìn)行離散傅里葉變換,并根據(jù)振幅對所有頻率的周期進(jìn)行降序排序,在去除無意義的高頻周期后,提取前k個(gè)頻率作為該時(shí)序數(shù)據(jù)的周期特征;其次,根據(jù)周期長度對數(shù)據(jù)序列進(jìn)行分割,并將同一周期長度下的切割結(jié)果進(jìn)行拼接得到二維數(shù)據(jù),結(jié)果如圖1所示,不同的周期長度對應(yīng)不同的二維結(jié)果(若時(shí)序數(shù)據(jù)無法被周期長度整除,則在對應(yīng)的周期結(jié)果中丟棄剩余部分)。

        經(jīng)過維度變換后,數(shù)據(jù)被轉(zhuǎn)換為大小各異的二維形式。為保證數(shù)據(jù)大小的統(tǒng)一,需要對二維數(shù)據(jù)進(jìn)行池化操作。為了從不同周期下的二維數(shù)據(jù)中提取時(shí)序信息,這里采用InceptionBlock[8](基礎(chǔ)模塊堆疊結(jié)構(gòu))作為二維特征提取子模塊。InceptionBlock是GoogleNet中重要的組成部分,由傳統(tǒng)的卷積神經(jīng)網(wǎng)絡(luò)衍生而來,該網(wǎng)絡(luò)并沒有在網(wǎng)絡(luò)結(jié)構(gòu)的深度上下功夫,而是通過寬度的拓展實(shí)現(xiàn)更好的信息提取。

        如圖2所示,InceptionBlock通過不同大小卷積核的并行計(jì)算提取二維數(shù)據(jù)中的不同信息,最后在深度維度上對結(jié)果進(jìn)行堆疊得到輸出。

        在該卷積運(yùn)算過程中存在一個(gè)問題,即同一大小的輸入經(jīng)過不同的卷積核運(yùn)算后會(huì)得到不同大小的輸出。若所輸入的二維數(shù)據(jù)大小為nh×nw,卷積核大小為kh×kw,在卷積核的移動(dòng)步長為1時(shí),輸出結(jié)果的大小將為(nh - kh + ph + 1)×(nw - kw + pw + 1),ph和pw分別表示高度和寬度兩個(gè)維度上池化的填充大小。通過池化操作中填充大小的選擇,可以保持同一個(gè)二維數(shù)據(jù)輸入在經(jīng)過不同大小卷積核的卷積運(yùn)算后得到相同大小的輸出結(jié)果。

        經(jīng)過上述所有運(yùn)算后,得到的結(jié)果仍為二維數(shù)據(jù),現(xiàn)在將不同周期特征下的二維數(shù)據(jù)各自展開為一維數(shù)據(jù)。利用Softmax函數(shù)將前文計(jì)算得到的周期振幅數(shù)據(jù)轉(zhuǎn)換為不同周期的權(quán)重,對不同周期特征下的數(shù)據(jù)進(jìn)行加權(quán)求和,得到的結(jié)果為一維數(shù)據(jù),該數(shù)據(jù)即為TimesBlock的輸出結(jié)果。

        值得注意的是,該模塊往往通過InceptionBlock中卷積核個(gè)數(shù)的設(shè)置使展開后的輸出結(jié)果與同一變量下所輸入的數(shù)據(jù)長度相同。

        2" 預(yù)測模型設(shè)計(jì)

        2.1" TimesNet預(yù)測模型結(jié)構(gòu)

        為了實(shí)現(xiàn)大類資產(chǎn)指數(shù)的長期預(yù)測,依照圖3建立TimesNet網(wǎng)絡(luò)預(yù)測模型,該網(wǎng)絡(luò)模型包含時(shí)間編碼嵌入層、全連接層(DenseLayer)、失活層(Dropout)、歸一化層(NormLayer)和周期特征提取模塊。

        若輸入模型的時(shí)序數(shù)據(jù)長度為l,變量個(gè)數(shù)為n,則輸入數(shù)據(jù)的大小可表示為l×n,即表示該數(shù)據(jù)有l(wèi)行n列,設(shè)需要預(yù)測的數(shù)據(jù)長度為l′,則模型的具體結(jié)構(gòu)即計(jì)算過程中數(shù)據(jù)大小的變化可以表示為:

        1)第一層為時(shí)間編碼嵌入層,由TokenEm-bedding、PositionEmbedding和TemporalEmbedding構(gòu)成,這三個(gè)Embedding的結(jié)果相加后得到輸出值。通過卷積過程中的池化操作和全連接層中輸出神經(jīng)元個(gè)數(shù)的設(shè)置,輸出值的大小為l×256,輸出值完全進(jìn)入下一層。

        2)第二層為Dropout,以0.1的概率隨機(jī)丟棄部分神經(jīng)元,數(shù)據(jù)大小不變。

        3)第三層為DenseLayer,首先將輸入數(shù)據(jù)進(jìn)行轉(zhuǎn)置,轉(zhuǎn)置后的大小為256×l,其次對其輸入神經(jīng)網(wǎng)絡(luò)進(jìn)行運(yùn)算,輸出神經(jīng)元的個(gè)數(shù)設(shè)置為l + l′,將神經(jīng)網(wǎng)絡(luò)的輸出結(jié)果轉(zhuǎn)置后得到輸出,輸出值的大小為

        (l + l′ )×256,該層的輸出值仍完全進(jìn)入下一層。

        4)第四層由兩個(gè)TimesBlock疊加而成,其中InceptionBlock的個(gè)數(shù)設(shè)置為2,且均由卷積核大小為1、3、5、7、9、11的6個(gè)子卷積核構(gòu)成。為保證各卷積核輸出大小的一致,各自設(shè)置對應(yīng)的池化填充大小為0、2、4、6、8、10(該處大小為對應(yīng)維度上總的數(shù)據(jù)填充個(gè)數(shù))。第一個(gè)InceptionBlock的輸出通道設(shè)置為512,第二個(gè)InceptionBlock的輸出通道設(shè)置為256。該層輸出值的大小為(l + l′ )×256。每一個(gè)TimesBlock的輸出值與輸入值進(jìn)行殘差連接[9]后完全進(jìn)入下一層。

        5)第五層為NormLayer,該層對輸入數(shù)據(jù)的最后一個(gè)維度進(jìn)行標(biāo)準(zhǔn)化,數(shù)據(jù)大小不變。

        6)第六層為DenseLayer,其輸出神經(jīng)元個(gè)數(shù)設(shè)置為n,輸出值的大小為(l + l′ )×n。

        7)第七層是結(jié)果輸出層,通過對上一層輸出中

        l + l′維度的后端進(jìn)行裁剪,得到大小為 l′×n的數(shù)據(jù)即為該模型的預(yù)測結(jié)果。

        2.2" 全連接層與失活層

        全連接層與前一層神經(jīng)網(wǎng)絡(luò)的每個(gè)輸出神經(jīng)元都存在連接,其運(yùn)算通過矩陣乘法實(shí)現(xiàn)。與其他網(wǎng)絡(luò)結(jié)構(gòu)類似,參數(shù)的更新由反向傳播實(shí)現(xiàn)。在該模型中,全連接層的兩次引入均起到了改變特征個(gè)數(shù)的作用。

        除此之外,全連接層還可以在數(shù)據(jù)的整體維度上提取信息并通過激活函數(shù)構(gòu)建非線性映射,常常被應(yīng)用于深度神經(jīng)網(wǎng)絡(luò)中的輸入處理和輸出處理。其計(jì)算式為:

        (3)

        其中,W表示權(quán)重,X表示由樣本向量組成的矩陣,b表示偏置量。

        為解決深度神經(jīng)網(wǎng)絡(luò)的過擬合(OverFitting)問題,在模型的訓(xùn)練過程中往往會(huì)在神經(jīng)網(wǎng)絡(luò)輸出后使用失活層。失活層以一定的概率使輸出神經(jīng)元停止工作,即將該神經(jīng)元的數(shù)值設(shè)置為0。在深度學(xué)習(xí)模型中添加失活層是一種成本最小的提升模型泛化能力的訓(xùn)練方式。

        2.3" 歸一化層

        歸一化層是一種對數(shù)據(jù)進(jìn)行歸一化的方法,與批歸一化(BatchNorm)方法不同,批歸一化方法是對同一訓(xùn)練批次內(nèi)的每個(gè)特征進(jìn)行歸一化,而該方法是對每個(gè)樣本的所有特征進(jìn)行歸一化,使一個(gè)樣本內(nèi)所有特征的均值為0,方差為1。該方法可以使模型更加穩(wěn)定,提高訓(xùn)練的速度和效果。

        2.4" 殘差連接

        殘差連接(ResidualConnection)是一種神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),如圖4所示,其中x表示輸入的數(shù)據(jù),f(x)表示該深度學(xué)習(xí)模塊的輸出結(jié)果,而F(x)則表示殘差連接的輸出結(jié)果。該過程通過將一個(gè)深度學(xué)習(xí)模塊的輸出結(jié)果與輸入相加,可以讓信息在網(wǎng)絡(luò)中跨越多層進(jìn)行傳遞。

        除此之外,還可以通過殘差連接來設(shè)計(jì)更深的神經(jīng)網(wǎng)絡(luò),因?yàn)樵摲椒梢允股疃葘W(xué)習(xí)模塊在產(chǎn)生過擬合前自動(dòng)失活,在解決過擬合問題的同時(shí)避免了反向傳播中梯度消失(Vanishing Gradient)和梯度爆炸(Exploding Gradient)的問題。

        3" 實(shí)驗(yàn)與結(jié)果

        本文的實(shí)驗(yàn)數(shù)據(jù)集取自2005年1月4日至2022年1月4日這17年中的上證50指數(shù)、滬深300指數(shù)、中證500指數(shù)、中證1000指數(shù)、南華商品指數(shù)、標(biāo)普高盛商品全收益指數(shù)、中債-綜合財(cái)富(1年以下)指數(shù)、中債-綜合財(cái)富(3~5年)指數(shù)、中債-綜合財(cái)富(7~10年)指數(shù)及貨幣基金指數(shù)的每日歷史數(shù)據(jù),10個(gè)指標(biāo)作為預(yù)測模型的多變量輸入。要求模型預(yù)測的結(jié)果為未來96天的指標(biāo)預(yù)測數(shù)據(jù)。

        3.1" 數(shù)據(jù)處理和模型設(shè)置

        3.1.1" 數(shù)據(jù)歸一化

        考慮到經(jīng)過歸一化的數(shù)據(jù)可以使深度神經(jīng)網(wǎng)絡(luò)最優(yōu)參數(shù)的尋找過程變得更為平緩,更容易收斂到最優(yōu)解,本文將所有數(shù)據(jù)縮放到均值為0、方差為1的標(biāo)準(zhǔn)正態(tài)分布以完成歸一化過程。

        3.1.2" 缺失值處理

        由于各指數(shù)的數(shù)據(jù)通常是按照交易日進(jìn)行計(jì)算,而節(jié)假日不是交易日,這就導(dǎo)致大類資產(chǎn)指數(shù)數(shù)據(jù)中缺乏節(jié)假日的數(shù)據(jù),但節(jié)假日不會(huì)進(jìn)行交易,即節(jié)假日后的數(shù)據(jù)與節(jié)假日前的數(shù)據(jù)是完全連貫的,所以可以忽略節(jié)假日導(dǎo)致的數(shù)據(jù)缺失而直接對前后數(shù)據(jù)進(jìn)行拼接。

        3.1.3" 對比模型選擇

        為了驗(yàn)證本文模型的優(yōu)越性,特設(shè)置線性回歸(LinearRegression)、隨機(jī)森林[10](RandomForest)、支持向量回歸(SVR)和長短期記憶模型(LSTM),與本文的TimesNet進(jìn)行對比。

        3.1.4" 參數(shù)設(shè)置

        線性回歸模型采用Scikit-Learn庫中的原始回歸模型;隨機(jī)森林模型設(shè)置最大深度為5,子分類器個(gè)數(shù)為100;支持向量回歸模型設(shè)置懲罰系數(shù)為1,容忍偏差為0.2,核函數(shù)為徑向基核函數(shù)(Radial Basis Function, RBF);LSTM模型設(shè)置LSTM層數(shù)為5,每兩層之間存在失活層,最后通過全連接層進(jìn)行輸出;本文的TimesNet模型設(shè)置TimesBlock中k為5,訓(xùn)練輪數(shù)為30,批數(shù)據(jù)大小為32,參數(shù)優(yōu)化算法為學(xué)習(xí)率自適應(yīng)Adam(Adaptive Moment Estimation)算法。上述所有使用神經(jīng)網(wǎng)絡(luò)的模型均以均方誤差(MeanSquareError)作為損失函數(shù)。

        3.2" 評價(jià)指標(biāo)

        本文選取平均絕對百分誤差(MAPE)、均方根誤差(RMSE)作為衡量模型預(yù)測準(zhǔn)確性的指標(biāo)。MAPE的數(shù)值越小表示預(yù)測結(jié)果與實(shí)際值的偏離程度越小,預(yù)測效果越好;RMSE的數(shù)值越小表示預(yù)測結(jié)果與實(shí)際值的絕對值差距越小,模型越優(yōu)。

        各指標(biāo)的計(jì)算式為:

        (4)

        (5)

        其中,N表示預(yù)測的步長,yi表示真實(shí)值, 表示模型輸出的預(yù)測值。

        3.3" 實(shí)驗(yàn)結(jié)果與對比分析

        為驗(yàn)證模型長期預(yù)測的能力,本文設(shè)置模型的預(yù)測步長為96,即在預(yù)測值與真實(shí)值的對比中,所有96個(gè)預(yù)測值由模型一次預(yù)測得到,而非依據(jù)真實(shí)值逐個(gè)預(yù)測。為統(tǒng)一模型的預(yù)測結(jié)果進(jìn)行評價(jià),本文選取大類資產(chǎn)指數(shù)中的上證50指數(shù)進(jìn)行結(jié)果的對比與分析。根據(jù)歸一化后的結(jié)果計(jì)算不同模型的評價(jià)指標(biāo)結(jié)構(gòu),如表1所示。

        可以看出,TimesNet在長期預(yù)測任務(wù)中的預(yù)測結(jié)果明顯優(yōu)于其他模型。進(jìn)一步分析TimesNet預(yù)測值與真實(shí)值的對比,可知該模型在整體上預(yù)測了數(shù)據(jù)未來變化的趨勢,但隨著預(yù)測時(shí)間的增加,誤差也會(huì)相應(yīng)變大,如圖5所示。

        4" 結(jié)" 論

        針對大類資產(chǎn)指數(shù)長期預(yù)測等極具挑戰(zhàn)性的多變量長期預(yù)測任務(wù),相對于線性回歸、隨機(jī)森林、支持向量回歸和LSTM,本文基于TimesNet構(gòu)建的深度神經(jīng)網(wǎng)絡(luò)模型具有良好的長期預(yù)測效果,能夠較為準(zhǔn)確地預(yù)測數(shù)據(jù)未來的變化趨勢。通過實(shí)驗(yàn)可以發(fā)現(xiàn),該模型在長期預(yù)測結(jié)果的末端仍無法完美擬合真實(shí)值趨勢,對此提出幾個(gè)未來需要解決的問題:

        1)輸入數(shù)據(jù)的長度較短,模型無法從數(shù)據(jù)中提取足夠的時(shí)間趨勢信息。

        2)在TimesBlock的數(shù)據(jù)維度轉(zhuǎn)換后,通過池化解決數(shù)據(jù)大小不一的方法會(huì)導(dǎo)致訓(xùn)練數(shù)據(jù)中存在錯(cuò)誤數(shù)據(jù),影響模型精度。

        除此之外,本文的模型并不局限于大類資產(chǎn)指數(shù)的長期預(yù)測,經(jīng)過參數(shù)的調(diào)整和相應(yīng)的數(shù)據(jù)處理,可以在城市用電負(fù)荷等多變量長期預(yù)測任務(wù)中加以使用。

        參考文獻(xiàn):

        [1] 張沐光,吳文倩.大類資產(chǎn)配置原理與相關(guān)指數(shù)的國內(nèi)外實(shí)踐分析 [J].金融市場研究,2021,114(11):72-82.

        [2] 郭平剛.技術(shù)分析法的邏輯基礎(chǔ) [J].中國證券期貨,2012(11):283.

        [3] 吳威廷.股票基本面分析的主要內(nèi)容 [J].財(cái)經(jīng)界,2020(20):49-50.

        [4] 李悅.基于支持向量機(jī)的股市預(yù)測 [D].上海:復(fù)旦大學(xué),2016.

        [5] 彭燕,劉宇紅,張榮芬.基于LSTM的股票價(jià)格預(yù)測建模與分析 [J].計(jì)算機(jī)工程與應(yīng)用,2019,55(11):209-212.

        [6] WU H X,XU J H,WANG J M,et al. Autoformer: Decomposition transformers with auto-correlation for long-term series forecasting [J].Advances in Neural Information Processing Systems,2021,34:22419-22430.

        [7] WU H,HU T,LIU Y,et al. TimesNet: Temporal 2D-Variation Modeling for General Time Series Analysis [J/OL].arXiv:2210.02186 [cs.LG].[2023-02-19]. https://arxiv.org/abs/2210.02186.

        [8] SZEGEDY C,LIU W,JIA Y Qangqing,et al. Going Deeper with Convolutions [J/OL].arXiv:1409.4842 [cs.CV].[2023-02-24].https://arxiv.org/abs/1409.4842v1.

        [9] 陳登建,杜飛霞,夏換.基于ARIMA與SVR滾動(dòng)殘差模型組合的股票預(yù)測 [J].計(jì)算機(jī)時(shí)代,2022,359(5):76-81.

        [10] 林娜娜,秦江濤.基于隨機(jī)森林的A股股票漲跌預(yù)測研究 [J].上海理工大學(xué)學(xué)報(bào),2018,40(3):267-273+301.

        作者簡介:陳英瑞(2002—),男,漢族,廣東茂名人,本科在讀,研究方向:機(jī)器學(xué)習(xí)。

        中文字幕有码无码人妻av蜜桃| 日韩熟妇精品视频一区二区| 成年毛片18成年毛片| 精品国产乱子伦一区二区三| 成 人片 黄 色 大 片| 无套内谢的新婚少妇国语播放| 国产精品国产三级在线高清观看| 亚洲天堂av在线免费看| 国产不卡在线视频观看| 久久精品无码一区二区三区免费| 国产日韩网站| 国产乱色精品成人免费视频| 无码日韩人妻AV一区免费| 久久天堂精品一区专区av| 精品人妻一区三区蜜桃| 亚洲第一se情网站| 国产精品一区二区韩国AV| 亚洲无av高清一区不卡| 精品厕所偷拍一区二区视频| 国产成人av片在线观看| 亚洲精品6久久久久中文字幕| 久久亚洲一区二区三区四区五| 激情综合五月| 日韩亚洲av无码一区二区不卡| 久久99精品久久久66| 亚洲av一区二区在线| 久久亚洲日韩精品一区二区三区| 无码熟熟妇丰满人妻啪啪| 97人妻无码免费专区| 亚洲乱码中文字幕视频| 亚洲va久久久噜噜噜久久男同| 午夜性刺激免费视频| 成人免费播放片高清在线观看| 亚洲国产a∨无码中文777| 国产亚洲人成a在线v网站| 亚洲中文一本无码AV在线无码| 精品人妻一区二区三区狼人| 成午夜精品一区二区三区| 欧美一级欧美一级在线播放| 在线观看日韩精品视频网站| 中文字幕一区二区三区四区五区|