摘 要:為了進(jìn)一步提高我國貨運(yùn)量的預(yù)測(cè)準(zhǔn)確性,文章基于卷積神經(jīng)網(wǎng)絡(luò)和長(zhǎng)短期記憶網(wǎng)絡(luò)模型,引入注意力機(jī)制(Attention Mechanism)的組合預(yù)測(cè)模型,以對(duì)我國貨運(yùn)量進(jìn)行時(shí)序預(yù)測(cè)。首先,利用卷積神經(jīng)網(wǎng)絡(luò)提取貨運(yùn)量數(shù)據(jù)變化特征。其次,將所提取的特征構(gòu)成時(shí)間序列作為長(zhǎng)短期記憶網(wǎng)絡(luò)的輸入。最后,通過注意力集中捕捉預(yù)測(cè)模型中經(jīng)LSTM層輸出的信息特征,劃分權(quán)重比例,提取關(guān)鍵信息,實(shí)現(xiàn)貨運(yùn)量預(yù)測(cè)。結(jié)合全國月度貨運(yùn)量歷史數(shù)據(jù)進(jìn)行時(shí)序預(yù)測(cè),然后與其他神經(jīng)網(wǎng)絡(luò)預(yù)測(cè)的各種評(píng)價(jià)指標(biāo)進(jìn)行對(duì)比,結(jié)果顯示,CNN-LSTM-Attention模型預(yù)測(cè)誤差小于其他模型,預(yù)測(cè)準(zhǔn)確性相對(duì)較好。
關(guān)鍵詞:貨運(yùn)量;預(yù)測(cè);CNN;LSTM;注意力機(jī)制
中圖分類號(hào):F259.22 文獻(xiàn)標(biāo)志碼:A DOI:10.13714/j.cnki.1002-3100.2024.14.002
文章編號(hào):1002-3100(2024)14-0005-05
Comparison of Time-Series Prediction of Freight Transportation Volume in China Based on CNN-LSTM-Attention Combination Model
YAN Xuebo1,CAO Shixin2 (1. School of Management, Fujian University of Technology, Fuzhou 350118, China; 2. School of Transportation, Fujian University of Technology, Fuzhou 350118, China)
Abstract: In order to further improve the prediction accuracy of China's high freight volume, this paper introduces a combined prediction model of Attention Mechanism based on convolutional neural network and long and short-term memory network model to forecast China's freight volume in time series. First of all, the convolutional neural network is used to extract the features of the freight volume data changes, and then the extracted features are used to constitute a time series as the input of the long and short-term memory network, and finally, the attention is focused on capturing the features of the information output from the LSTM layer in the prediction model, dividing the weight ratio, extracting the key information, and realizing the prediction of the freight volume. Combined with the national monthly freight volume historical data for time series prediction, and then compared with other neural network prediction of various evaluation indexes, the results show that the CNN-LSTM-Attention model prediction error is smaller than other models, and the prediction accuracy is relatively good.
Key words: freight volume; prediction; CNN; LSTM; attention mechanism
0 引 言
近年來,我國的貨物運(yùn)輸總量持續(xù)增長(zhǎng),但增速整體上呈現(xiàn)出逐漸減緩的趨勢(shì),這主要是因?yàn)槲覀兊呢涍\(yùn)量預(yù)測(cè)不夠準(zhǔn)確和合理,導(dǎo)致了資源的浪費(fèi)[1]。貨運(yùn)量的準(zhǔn)確預(yù)測(cè)對(duì)運(yùn)輸行業(yè)的發(fā)展至關(guān)重要,它不僅揭示了未來貨運(yùn)量的趨勢(shì),還為行業(yè)的長(zhǎng)遠(yuǎn)規(guī)劃提供了基礎(chǔ)數(shù)據(jù),通過合理的預(yù)測(cè),不僅可以及時(shí)識(shí)別貨運(yùn)行業(yè)的發(fā)展瓶頸和潛在問題,還能為相關(guān)部門提供決策支持和建設(shè)性建議,確保運(yùn)輸系統(tǒng)的持續(xù)優(yōu)化和完善[2]。因此,精準(zhǔn)地預(yù)測(cè)貨運(yùn)量對(duì)規(guī)劃貨運(yùn)線路、調(diào)整運(yùn)輸結(jié)構(gòu)以及優(yōu)化貨運(yùn)資源配置具有重要意義。
如今,主流研究聚焦貨運(yùn)量與經(jīng)濟(jì)增長(zhǎng)之間的相互關(guān)系[3],從而為 GDP和產(chǎn)業(yè)結(jié)構(gòu)的優(yōu)化提供量化依據(jù)。目前在貨運(yùn)量預(yù)測(cè)領(lǐng)域,研究方法可以分為基于回歸模型預(yù)測(cè)、灰色預(yù)測(cè)模型、基于深度學(xué)習(xí)的預(yù)測(cè)方法,以及組合預(yù)測(cè)模型預(yù)測(cè)方法。
如薛方等[4]利用回歸模型預(yù)測(cè)公路貨運(yùn)量,嚴(yán)雪晴[5]利用灰色預(yù)測(cè)模型預(yù)測(cè),張麗莉等[6]采用BP神經(jīng)網(wǎng)絡(luò),根據(jù)其產(chǎn)生的誤差曲線對(duì)模型進(jìn)行迭代優(yōu)化的方法,該模型具有較好的預(yù)測(cè)精度。程肇蘭等[7]根據(jù)不同時(shí)間粒度下數(shù)據(jù)資料的易獲取程度,構(gòu)建基于月貨運(yùn)量的長(zhǎng)短期神經(jīng)網(wǎng)絡(luò)(LSTM)模型,對(duì)鐵路貨運(yùn)量的預(yù)測(cè)結(jié)果表明,LSTM模型比自回歸移動(dòng)平均模型(ARIMA)和BP神經(jīng)網(wǎng)絡(luò)預(yù)測(cè)效果更好。但在時(shí)間序列過長(zhǎng)時(shí),LSTM容易丟失時(shí)序的信息,使預(yù)測(cè)精確度降低。孟建軍等[8]對(duì)比發(fā)現(xiàn)組合預(yù)測(cè)模型將不同的預(yù)測(cè)方法進(jìn)行有機(jī)結(jié)合,在結(jié)合過程中彌補(bǔ)單一模型的缺陷,對(duì)最優(yōu)的組合方式進(jìn)行修正,以彌補(bǔ)模型的劣勢(shì),從而建立綜合預(yù)測(cè)能力和分析能力。唐龍[9]通過將卷積神經(jīng)網(wǎng)絡(luò)(CNN)的關(guān)聯(lián)特征提取能力和LSTM 的時(shí)序特征提取能力進(jìn)行有機(jī)結(jié)合,其組合模型預(yù)測(cè)效果優(yōu)于LSTM單一模型,但CNN只能提取時(shí)間序列的局部信息,無法對(duì)全部信息進(jìn)行提取,從而影響了模型的精確度。注意力機(jī)制有效補(bǔ)足了CNN只能捕捉局部信息的短板,使得模型能夠在整個(gè)序列上實(shí)現(xiàn)全局的信息整合,并增強(qiáng)了對(duì)時(shí)間序列關(guān)鍵轉(zhuǎn)折點(diǎn)的敏感性。
因此本文在CNN-LSTM的基礎(chǔ)上引入注意力機(jī)制,建立CNN-LSTM-Attention貨運(yùn)量預(yù)測(cè)模型,將具有提取數(shù)據(jù)特征能力的CNN和處理時(shí)間序列表現(xiàn)優(yōu)異的LSTM結(jié)合,以此用注意力機(jī)制分配概率權(quán)重補(bǔ)足CNN只能捕捉局部信息的短板,并驗(yàn)證該模型的預(yù)測(cè)準(zhǔn)確性。
1 研究方法
1.1 卷積神經(jīng)網(wǎng)絡(luò)模型
卷積神經(jīng)網(wǎng)絡(luò)(CNN)是深度學(xué)習(xí)中的一種強(qiáng)大的網(wǎng)絡(luò)結(jié)構(gòu),主要用于圖像和視頻識(shí)別、語音識(shí)別以及自然語言處理等領(lǐng)域。CNN的核心優(yōu)勢(shì)在于其能夠通過卷積層和池化層有效提取輸入數(shù)據(jù)的特征。在卷積層中,網(wǎng)絡(luò)通過應(yīng)用一系列的卷積操作來提取數(shù)據(jù)的局部特征,而池化層則用于減少特征的維度,從而降低計(jì)算復(fù)雜度并提取最主要的特征。在貨運(yùn)量預(yù)測(cè)的應(yīng)用中,CNN可以通過其卷積層處理歷史貨運(yùn)量數(shù)據(jù)。這些層通過濾波器自動(dòng)檢測(cè)數(shù)據(jù)中的關(guān)鍵特征,如周期性變化、長(zhǎng)期趨勢(shì)、季節(jié)性因素,以及可能的異常值。這些特征對(duì)理解貨運(yùn)量的歷史行為和未來趨勢(shì)至關(guān)重要。
傳統(tǒng)的特征提取模型依賴于手工選取特征,這個(gè)過程不僅耗時(shí)而且充滿不確定性。相比之下,CNN通過其特有的卷積層和池化層能夠自動(dòng)執(zhí)行特征提取和降維,有效減少手工處理的負(fù)擔(dān),并且更加有效地從貨運(yùn)量中識(shí)別關(guān)鍵特征[10]。因此,本文先采用CNN對(duì)歸一化后的數(shù)據(jù)進(jìn)行特征提取,然后通過LSTM網(wǎng)絡(luò)進(jìn)行分析預(yù)測(cè)。CNN神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示。
1.2 LSTM網(wǎng)絡(luò)
長(zhǎng)短期記憶網(wǎng)絡(luò)(LSTM)是對(duì)傳統(tǒng)循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)的重要改進(jìn),專門設(shè)計(jì)來解決RNN在處理長(zhǎng)序列數(shù)據(jù)時(shí)面臨的挑戰(zhàn)。LSTM的核心特點(diǎn)是其內(nèi)部的“門”結(jié)構(gòu),包括輸入門、遺忘門和輸出門,這些門控制著信息的流入、保留和流出。通過這種獨(dú)特的機(jī)制,LSTM能夠有效避免梯度消失問題。梯度消失問題是在RNN中,隨著序列的增長(zhǎng),用于訓(xùn)練網(wǎng)絡(luò)的梯度可能會(huì)變得非常小(梯度消失)或異常大(梯度爆炸),從而阻礙了網(wǎng)絡(luò)從長(zhǎng)序列中學(xué)習(xí)有效信息。這使得在需要捕捉長(zhǎng)期依賴關(guān)系的預(yù)測(cè)任務(wù)中,LSTM 和類似的改進(jìn)型RNN變體成為更優(yōu)的選擇[11]。
LSTM的關(guān)鍵是它的單元結(jié)構(gòu),每個(gè)單元包含四個(gè)主要部分:一個(gè)細(xì)胞狀態(tài)和三個(gè)“門”——遺忘門、輸入門和輸出門[12]。LSTM模型內(nèi)部單元結(jié)構(gòu)如圖2所示。
遺忘門的作用是通過一個(gè)sigmoid激活函數(shù)來確定哪些信息需要從細(xì)胞狀態(tài)中保留,哪些需要被遺忘。具體而言,遺忘門接收上一時(shí)刻的隱藏狀態(tài)(記憶細(xì)胞的一部分)和當(dāng)前時(shí)刻的輸入,輸出一個(gè)介于0和1之間的值,表示對(duì)應(yīng)位置的信息保留的程度。0表示完全遺忘,1表示完全保留。
遺忘門的數(shù)學(xué)表達(dá)式如下。
(1)
其中:為遺忘門;表示Sigmoid函數(shù);和分別為遺忘門權(quán)重和偏置系數(shù);為t-1時(shí)刻單元輸出;為t時(shí)刻信息輸入。
輸入門是LSTM中的一個(gè)關(guān)鍵組件,其主要作用是控制新信息的輸入,即決定更新細(xì)胞狀態(tài)的哪些部分。輸入門允許網(wǎng)絡(luò)選擇性地更新細(xì)胞狀態(tài),以適應(yīng)當(dāng)前輸入的信息。
輸入門的數(shù)學(xué)表達(dá)式如下。
(2)
(3)
(4)
其中:為輸入門,決定了多少新的候選值會(huì)被加入到細(xì)胞狀態(tài);是當(dāng)前時(shí)間步的新候選值,它可能被添加到細(xì)胞狀態(tài)中;是當(dāng)前時(shí)間步的細(xì)胞狀態(tài);是候選值的權(quán)重矩陣;是候選值的偏置項(xiàng);是輸入門的權(quán)重矩陣;是輸入門的偏置項(xiàng);是雙曲正切激活函數(shù),它將任意實(shí)值壓縮到區(qū)間[-1,1]。
輸出門是LSTM中的另一個(gè)關(guān)鍵組件,其主要作用是決定當(dāng)前時(shí)刻隱藏狀態(tài)中的哪些信息將被輸出到網(wǎng)絡(luò)的下一層或用于最終的預(yù)測(cè)。輸出門通過一個(gè)sigmoid激活函數(shù)來控制隱藏狀態(tài)的哪些部分將被激活。
輸出門的數(shù)學(xué)表達(dá)式如下。
(5)
(6)
其中:是輸出門的輸出;是輸出門的權(quán)重矩陣;是輸出門的偏置項(xiàng)。
1.3 Attention注意力機(jī)制
注意力機(jī)制使模型能夠?qū)W⒂谳斎胄蛄兄械奶囟ú糠?,以提高處理和預(yù)測(cè)的性能。它的靈感來自人類的視覺注意力機(jī)制,即人類視覺在觀察時(shí)并不會(huì)平等地關(guān)注整個(gè)視野,根據(jù)任務(wù)的需要集中注意力于視野中的某些部分。特別是在序列處理任務(wù)中,如自然語言處理和時(shí)間序列分析,注意力機(jī)制可以幫助模型在處理一個(gè)長(zhǎng)序列時(shí)識(shí)別出最相關(guān)的信息。在LSTM網(wǎng)絡(luò)后添加注意力機(jī)制,可用于捕捉預(yù)測(cè)模型中經(jīng)LSTM層輸出的信息特征,劃分權(quán)重比例,提取關(guān)鍵信息,提高貨運(yùn)量預(yù)測(cè)模型精度[13]。LSTM的隱藏層輸出被用作注意力機(jī)制的輸入,這些輸出首先通過一個(gè)全連接層,其參數(shù)是通過訓(xùn)練學(xué)習(xí)到的,以捕捉不同時(shí)間步的特征。隨后,這些全連接層的輸出經(jīng)過softmax函數(shù)進(jìn)行歸一化處理,產(chǎn)生一組權(quán)重,這些權(quán)重揭示了各個(gè)時(shí)間步隱狀態(tài)對(duì)最終預(yù)測(cè)的相對(duì)重要性。通過這樣的機(jī)制,模型能夠在預(yù)測(cè)時(shí)賦予更多的注意力給那些關(guān)鍵的時(shí)間步,從而提高整體預(yù)測(cè)的準(zhǔn)確度和效率。這個(gè)動(dòng)態(tài)權(quán)重分配過程是自適應(yīng)的,確保了模型能夠在復(fù)雜的序列數(shù)據(jù)中識(shí)別并專注于最具信息量的部分。
注意力機(jī)制計(jì)算過程如下。
(7)
(8)
(9)
其中:是通過對(duì)注意力分?jǐn)?shù)應(yīng)用softmax函數(shù)獲得的權(quán)重;為最后一層LSTM隱藏層的輸出,為每個(gè)隱藏層輸出的得分;加權(quán)平均求和后的值;是偏置項(xiàng)。
2 模型建立與實(shí)證分析
2.1 構(gòu)建 CNN-LSTM-Attention模型
第一步是通過一維卷積層對(duì)輸入數(shù)據(jù)進(jìn)行處理。這個(gè)卷積層的作用是從原始時(shí)間序列數(shù)據(jù)中提取重要的特征,如周期性變化、趨勢(shì)以及可能的異常點(diǎn)。這一步是至關(guān)重要的,因?yàn)樗鼮長(zhǎng)STM層提供了經(jīng)過預(yù)處理和精煉的輸入數(shù)據(jù)。接著,處理后的數(shù)據(jù)被送入LSTM層。LSTM是專門設(shè)計(jì)來處理時(shí)間序列數(shù)據(jù)的,它能夠捕捉數(shù)據(jù)中長(zhǎng)期的依賴性和復(fù)雜的時(shí)間動(dòng)態(tài)。此外,引入了dropout機(jī)制,這有助于防止過擬合,確保模型在面對(duì)新的、未見過的數(shù)據(jù)時(shí)仍然能夠表現(xiàn)良好。之后,在模型中加入了注意力機(jī)制。注意力層的作用是對(duì)LSTM層的輸出進(jìn)行加權(quán),使模型能夠?qū)W⒂谛蛄兄凶铌P(guān)鍵的部分。這種加權(quán)處理使得模型在分析和預(yù)測(cè)時(shí)更加精準(zhǔn),因?yàn)樗軌騾^(qū)分哪些信息是對(duì)最終預(yù)測(cè)最為重要的。之后,經(jīng)過注意力處理的數(shù)據(jù)被送入一個(gè)全連接層,這個(gè)層次將信息聚合并映射到一個(gè)中間表示空間。通過ReLU激活函數(shù)的應(yīng)用,模型能夠增強(qiáng)捕捉非線性關(guān)系的能力,進(jìn)一步增強(qiáng)了預(yù)測(cè)的準(zhǔn)確性。在最后的數(shù)據(jù)處理階段,模型引入了另一個(gè)dropout層以增強(qiáng)其泛化能力,隨后第二個(gè)全連接層將處理過的特征映射到預(yù)測(cè)輸出空間。最后,另一個(gè)全連接層將處理后的信息映射到預(yù)測(cè)輸出空間。這一層的作用是將模型的所有學(xué)習(xí)成果轉(zhuǎn)化為具體的預(yù)測(cè)值,為最終的決策提供支持。CNN-LSTM-Attention預(yù)測(cè)模型結(jié)構(gòu)如圖3所示。
2.2 樣本處理
本文以中國貨運(yùn)量為實(shí)驗(yàn)背景,以實(shí)際月度數(shù)據(jù)為依據(jù)構(gòu)建CNN-LSTM-Attention貨運(yùn)量預(yù)測(cè)模型,進(jìn)行貨運(yùn)量預(yù)測(cè)研究。實(shí)驗(yàn)數(shù)據(jù)均取自國家統(tǒng)計(jì)局官網(wǎng),數(shù)據(jù)樣本示例如圖4所示,選取2005年1月—2023年 9月的貨運(yùn)量月度數(shù)據(jù)共 225組,以2005年1月—2019年12月的貨運(yùn)量作為訓(xùn)練數(shù)據(jù),以2020年1月—2023年9月的貨運(yùn)量作為測(cè)試數(shù)據(jù)。所有模型均使用Python進(jìn)行編寫,模型的訓(xùn)練在Pytorch框架下進(jìn)行。
2.3 模型評(píng)價(jià)指標(biāo)
本文采用以下四種在時(shí)間序列預(yù)測(cè)的常見指標(biāo),通過指標(biāo)判斷模型預(yù)測(cè)效果,指標(biāo)如下。
絕對(duì)平均誤差(MAE):。 (10)
相對(duì)平均誤差(MSE):。 (11)
均方根誤差(RMSE):。 (12)
平均絕對(duì)百分比誤差(MAPE):。 (13)
其中:ytrue表示測(cè)試集,即實(shí)際值;ypre表示通過模型預(yù)測(cè)出的值;n為測(cè)試集的樣本數(shù)。MAE、MSE、RMSE、MAPE數(shù)值越小,表示模型預(yù)測(cè)準(zhǔn)確度越高。
2.4 參數(shù)設(shè)置
為了驗(yàn)證CNN-LSTM-Attention的預(yù)測(cè)效果,分別使用卷積神經(jīng)網(wǎng)絡(luò)——長(zhǎng)短時(shí)記憶網(wǎng)絡(luò)CNN-LSTM、長(zhǎng)短時(shí)記憶LSTM網(wǎng)絡(luò)在相同時(shí)間節(jié)點(diǎn)數(shù)據(jù)下進(jìn)行預(yù)測(cè),進(jìn)而對(duì)比分析。CNN-LSTM-Attention預(yù)測(cè)模型通過歷史數(shù)據(jù)點(diǎn)創(chuàng)建時(shí)間步長(zhǎng)為3的時(shí)間序列,通過該序列用于訓(xùn)練和測(cè)試模型。在這個(gè)模型中,CNN層使用單輸入通道,擁有128個(gè)卷積核,每個(gè)卷積核的大小為3。LSTM層設(shè)定了128個(gè)隱藏狀態(tài)的維度和4個(gè)堆疊的隱藏層,以增強(qiáng)模型處理序列數(shù)據(jù)的能力。此外,模型還包含了一個(gè)自定義的注意力機(jī)制,旨在提升對(duì)序列中重要特征的關(guān)注。最后,模型通過兩個(gè)全連接層進(jìn)行輸出,第一個(gè)全連接層將128維的特征映射到64維,第二個(gè)全連接層進(jìn)一步將其映射為最終的2維輸出。整個(gè)模型的訓(xùn)練過程采用均方誤差(MSE)作為損失函數(shù),使用Adam優(yōu)化器,初始學(xué)習(xí)率設(shè)定為0.001,并通過學(xué)習(xí)率調(diào)度器在訓(xùn)練過程中進(jìn)行調(diào)整。
2.5 實(shí)驗(yàn)結(jié)果
將LSTM模型、CNN-LSTM模型和CNN-LSTM-Attention模型給出的預(yù)測(cè)值與實(shí)際值對(duì)比,其結(jié)果如圖5(a、b、c)所示。并運(yùn)用MAE、RMSE、MSE、MAPE四種評(píng)價(jià)指標(biāo)來衡量預(yù)測(cè)效果。
CNN-LSTM模型的訓(xùn)練數(shù)據(jù)顯示了在學(xué)習(xí)階段與實(shí)際值的良好擬合,然而在未來值的預(yù)測(cè)上,尤其是在圖5b的右端部分,我們看到預(yù)測(cè)值顯示了一定的波動(dòng),這暗示了模型在新數(shù)據(jù)上的不確定性。與此相比,當(dāng)Attention機(jī)制被引入到CNN-LSTM模型中時(shí),預(yù)測(cè)值的精度有了顯著提高。CNN-LSTM-Attention模型的預(yù)測(cè)曲線更緊密地跟隨了測(cè)試數(shù)據(jù),即使在數(shù)據(jù)波動(dòng)較大的區(qū)域,也能保持較高的預(yù)測(cè)精確度,展現(xiàn)出優(yōu)越的泛化能力。另一方面,單獨(dú)的LSTM模型雖然在訓(xùn)練階段與真實(shí)數(shù)據(jù)有較好的擬合,但其預(yù)測(cè)曲線與測(cè)試數(shù)據(jù)相比,差異增大,特別是在預(yù)測(cè)未來值時(shí),表明它可能不如結(jié)合了Attention機(jī)制的模型那樣處理新數(shù)據(jù)的能力??傮w來看Attention機(jī)制在增強(qiáng)模型預(yù)測(cè)時(shí)間序列數(shù)據(jù)時(shí)的有效性,尤其是在處理可能出現(xiàn)的復(fù)雜模式和波動(dòng)時(shí),為CNN-LSTM模型提供了顯著的性能提升。
3種預(yù)測(cè)模型的評(píng)價(jià)結(jié)果如表1所示。四種預(yù)測(cè)模型經(jīng)評(píng)估后,結(jié)果顯示,本研究構(gòu)建的CNN-LSTM-Attention模型在各項(xiàng)性能指標(biāo)上均優(yōu)于其他模型。具體而言,該模型在平均絕對(duì)誤差(MAE)上為0.107 5,相較于LSTM和CNN-LSTM模型,分別下降了13.38%和11.01%。在均方誤差(MSE)指標(biāo)上,該模型減少至0.025 8,較其他兩種模型降低了24.78%和18.10%。均方根誤差(RMSE)為0.160 8,較LSTM和CNN-LSTM模型分別下降了13.39%和9.46%。平均絕對(duì)百分比誤差(MAPE)為0.182 9,較其他兩種模型降低了8.18%和8.04%。由此可見,基于Attention機(jī)制改進(jìn)的CNN-LSTM模型,預(yù)測(cè)誤差最小,預(yù)測(cè)效果相對(duì)較好,更適合用于貨運(yùn)量預(yù)測(cè)任務(wù)。
通過對(duì)比卷積神經(jīng)網(wǎng)絡(luò)-長(zhǎng)短期記憶網(wǎng)絡(luò)(CNN-LSTM)、長(zhǎng)短期記憶網(wǎng)絡(luò)(LSTM)以及卷積神經(jīng)網(wǎng)絡(luò)-長(zhǎng)短期記憶網(wǎng)絡(luò)結(jié)合注意力機(jī)制(CNN-LSTM-Attention)三種模型在預(yù)測(cè)貨運(yùn)量任務(wù)中的表現(xiàn)。實(shí)驗(yàn)結(jié)果顯示:第一,綜合使用卷積神經(jīng)網(wǎng)絡(luò)、長(zhǎng)短期記憶網(wǎng)絡(luò)和注意力機(jī)制在處理復(fù)雜時(shí)間序列預(yù)測(cè)問題上具有顯著優(yōu)勢(shì),CNN-LSTM-Attention模型在預(yù)測(cè)中國貨運(yùn)量方面,其綜合性能優(yōu)于LSTM、CNN-LSTM。第二,本研究證實(shí)了CNN在提取時(shí)間序列數(shù)據(jù)的空間特征方面的高效性,LSTM則在捕捉時(shí)間依賴性方面表現(xiàn)卓越,結(jié)合注意力機(jī)制,該模型能夠識(shí)別對(duì)結(jié)果影響最大時(shí)段的預(yù)測(cè)準(zhǔn)確性。第三,該模型在處理高波動(dòng)性和非線性特征的時(shí)間序列數(shù)據(jù)方面顯示出較強(qiáng)的魯棒性。這意味著它能夠有效應(yīng)對(duì)突發(fā)事件或不規(guī)則趨勢(shì)帶來的預(yù)測(cè)的不確定性問題,為貨運(yùn)領(lǐng)域的決策提供了可靠的數(shù)據(jù)支持。
3 結(jié)論與建議
結(jié)合實(shí)驗(yàn)結(jié)果,本文給出建議:將CNN-LSTM-Attention模型應(yīng)用于物流、供應(yīng)鏈管理、交通規(guī)劃等其他需要處理時(shí)間序列數(shù)據(jù)的領(lǐng)域。其在處理類似復(fù)雜時(shí)間序列的問題上可能同樣有效。
參考文獻(xiàn):
[1] 李紅娟,盧天哲,祝漢燦.全國貨運(yùn)量預(yù)測(cè)與貨運(yùn)結(jié)構(gòu)分析[J].統(tǒng)計(jì)與決策,2022,38(18):179-183.
[2] 徐玉萍,鄧俊翔,蔣澤華.基于組合預(yù)測(cè)模型的鐵路貨運(yùn)量預(yù)測(cè)研究[J].鐵道科學(xué)與工程學(xué)報(bào),2021,18(1):243-249.
[3] 李文杰,袁肖峰,楊勝發(fā),等.基于投入產(chǎn)出模型的省際間貨運(yùn)量模擬研究[J].鐵道科學(xué)與工程學(xué)報(bào),2020,17(5):1302-1309.
[4] 薛方,蘇芮鋒,楊升,等.基于回歸分析的公路貨運(yùn)量預(yù)測(cè)[J].汽車實(shí)用技術(shù),2019(15):65-69.
[5] 嚴(yán)雪晴.基于灰色預(yù)測(cè)模型的廣東省貨運(yùn)總量預(yù)測(cè)研究[J].?dāng)?shù)學(xué)的實(shí)踐與認(rèn)識(shí),2020,50(14):294-302.
[6] 張麗莉.基于神經(jīng)網(wǎng)絡(luò)的公路貨運(yùn)量預(yù)測(cè)方法研究[J].華中師范大學(xué)學(xué)報(bào)(自然科學(xué)版),2015,49(2):186-189.
[7] 程肇蘭,張小強(qiáng),梁越.基于LSTM網(wǎng)絡(luò)的鐵路貨運(yùn)量預(yù)測(cè)[J].鐵道學(xué)報(bào),2020,42(11):15-21.
[8] 孟建軍,陳鵬芳,李德倉,等.鐵路貨運(yùn)量預(yù)測(cè)研究綜述[J].鐵道標(biāo)準(zhǔn)設(shè)計(jì),2022,66(10):18-26.
[9] 唐龍.基于深度學(xué)習(xí)的鐵路貨運(yùn)量預(yù)測(cè)研究[D].成都:西南交通大學(xué),2024.
[10] 曹玉貴,謝夢(mèng)醒.基于WD-CNN-LSTM模型的股票價(jià)格預(yù)測(cè)分析[J].華北水利水電大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版),2023,
39(5):15-22.
[11] 張冠東,楊琛.基于多維長(zhǎng)短時(shí)記憶網(wǎng)絡(luò)的貨運(yùn)量預(yù)測(cè)[J].統(tǒng)計(jì)與決策, 2022,38(12):180-183.
[12] 路志遠(yuǎn),潘佩芬,白雪嬌,等.鐵路基礎(chǔ)設(shè)施位移數(shù)據(jù)預(yù)測(cè)模型研究[J].鐵路計(jì)算機(jī)應(yīng)用, 2022,31(3):12-18.
[13] 曹梅,楊超宇.基于小波的CNN-LSTM-Attention瓦斯預(yù)測(cè)模型研究[J].中國安全生產(chǎn)科學(xué)技術(shù),2023,19(9):69-75.
收稿日期:2023-12-20
基金項(xiàng)目:數(shù)字經(jīng)濟(jì)賦能福建省鄉(xiāng)村振興研究(GY-Z23160)
作者簡(jiǎn)介:燕學(xué)博(1980—),男,湖北十堰人,福建理工大學(xué)管理學(xué)院,副教授、高級(jí)工程師,博士,研究方向:電子信息、大數(shù)據(jù);曹世鑫(1999—),本文通信作者,男,福建南平人,福建理工大學(xué)交通運(yùn)輸學(xué)院碩士研究生,研究方向:數(shù)據(jù)挖掘、供應(yīng)鏈管理。
引文格式:燕學(xué)博,曹世鑫.基于CNN-LSTM-Attention組合模型對(duì)我國貨運(yùn)量時(shí)序預(yù)測(cè)對(duì)比[J].物流科技,2024,47(14):5-9.