亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        GRU結(jié)合STL分解的短期電量預(yù)測方法

        2020-11-17 05:49:10李晉國周紹景李紅嬌
        上海電力大學(xué)學(xué)報 2020年5期
        關(guān)鍵詞:方法模型

        李晉國, 周紹景, 李紅嬌

        (上海電力大學(xué) 計算機(jī)科學(xué)與技術(shù)學(xué)院, 上海 200090)

        目前,電動汽車、分布式發(fā)電以及其他電力相關(guān)技術(shù)的應(yīng)用已得到迅速發(fā)展。作為智能城市的重要組成部分,智能電網(wǎng)使用了許多智能設(shè)備和先進(jìn)的管理系統(tǒng)。智能電網(wǎng)比傳統(tǒng)的電網(wǎng)更高效,更可靠[1]。準(zhǔn)確的短期電量預(yù)測對電力調(diào)度和電力系統(tǒng)安全等非常有利,可以充分優(yōu)化電力系統(tǒng)的資源分配,并減少新能源并網(wǎng)等造成的影響[2]。

        針對短期電量預(yù)測,研究者提出了許多基于統(tǒng)計的方法,有一些成功的方法可以達(dá)到良好的精度,如差分整合移動平均自回歸模型等[3]。但是,這些基于統(tǒng)計的方法通常采取時間序列分布或函數(shù)的形式,無法完全捕獲復(fù)雜的非線性關(guān)系。近年來,人工神經(jīng)網(wǎng)絡(luò)由于具有捕獲非線性關(guān)系的能力而被廣泛使用,還可以解決電力系統(tǒng)管理領(lǐng)域中的分類和回歸問題。在人工神經(jīng)網(wǎng)絡(luò)體系中,循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,RNN)[4]被認(rèn)為是序列建模的新起點(diǎn),但是傳統(tǒng)的循環(huán)神經(jīng)網(wǎng)絡(luò)在訓(xùn)練階段存在梯度消失的問題,會導(dǎo)致網(wǎng)絡(luò)中先前神經(jīng)元的權(quán)重?zé)o法更新,最終導(dǎo)致網(wǎng)絡(luò)訓(xùn)練失敗。因此,RNN的變體——長短期記憶網(wǎng)絡(luò)[5]和門控循環(huán)單元(Gated Recurrent Unit,GRU)[6]被提出來解決這一梯度消失問題,并且事實證明它們非常有效。文獻(xiàn)[7]使用最小二乘法支持向量機(jī)對中長期的電力負(fù)荷進(jìn)行預(yù)測,文獻(xiàn)[8]提出了基于粒子群優(yōu)化算法的BP神經(jīng)網(wǎng)絡(luò)負(fù)荷預(yù)測方法。上述兩種方法都使用了改進(jìn)的粒子群算法優(yōu)化機(jī)器學(xué)習(xí)或神經(jīng)網(wǎng)絡(luò)模型的最優(yōu)參數(shù)或權(quán)值和閾值,以提高預(yù)測精度。其缺點(diǎn)在于,使用粒子群算法需要消耗大量的時間和資源來搜索最優(yōu)的參數(shù)。

        本文提出了一種短期電量預(yù)測方法。該方法基于組合網(wǎng)絡(luò),使用STL(Seasonal-Trend decomposition procedure based on Less)[9]分解方法將原始電量數(shù)據(jù)分解為3個部分,減少了不同部分之間的干擾影響;設(shè)計并使用了GlobalGRU層和LocalGRU,以確保更好地捕獲全局和局部非線性相關(guān)性;為了提高預(yù)測方法的魯棒性,利用線性自回歸模型來獲取電量數(shù)據(jù)的線性相關(guān)性,并與GRU網(wǎng)絡(luò)并行計算。評估實驗結(jié)果表明,該方法可以進(jìn)行有效的時間序列預(yù)測。

        1 短期電量預(yù)測方法

        本文提出的短期電量預(yù)測方法的整體結(jié)構(gòu)如圖1所示。該方法由STL分解和兩個并行的GRU組成,其中GRU網(wǎng)絡(luò)由GlobalGRU和LocalGRU組合而成。STL將原始數(shù)據(jù)分解成趨勢、周期、殘差3個分量,分別將其輸入到預(yù)測模塊中。其中,GlobalGRU層用于捕獲長期全局依賴,LocalGRU層用于捕獲短期局部依賴,使用全連接層合并兩部分的結(jié)果。另外,自回歸模型用于捕獲電量的線性相關(guān)關(guān)系,并且與GRU網(wǎng)絡(luò)并行計算,以提高預(yù)測模塊的魯棒性和準(zhǔn)確性。最后,預(yù)測模塊將GRU網(wǎng)絡(luò)和自回歸模型的預(yù)測結(jié)果進(jìn)行匯總,并生成最終的預(yù)測結(jié)果。

        圖1 短期電量預(yù)測方法的整體架構(gòu)

        1.1 預(yù)測方式

        電量數(shù)據(jù)可以看作一個時間序列x=,是按時間順序排列并具有恒定時間間隔的一系列記錄值,xt表示與時間戳t對應(yīng)的時間步記錄值。

        根據(jù)已知的 預(yù)測xt+h,其中h是從當(dāng)前時間開始的預(yù)測的時間長度,滑動窗口預(yù)測結(jié)果如圖2所示。

        圖2 滑動窗口預(yù)測方法

        同理,可以使用 (n∈+) 預(yù)測未來電量值xt+h+n。

        1.2 時間序列分解

        由于電量具有很大的波動性和不穩(wěn)定性,很難直接對原始數(shù)據(jù)進(jìn)行預(yù)測,因此數(shù)據(jù)的分析和處理至關(guān)重要。

        STL是一個迭代的非參數(shù)回歸過程,是將魯棒局部加權(quán)回歸作為平滑方法的時間序列分解方法。具體地說,通過原始時間序列的Loess回歸(局部回歸)分解出周期性分量,從其余部分中分解出趨勢,最后的部分表示周期性和趨勢擬合的殘差。

        STL分解將電量數(shù)據(jù)的時間序列分解為趨勢、周期和殘差3個部分,目的是減少不同部分之間的相互影響,分別對不同的部分進(jìn)行預(yù)測可以使預(yù)測結(jié)果更加準(zhǔn)確。原始數(shù)據(jù)及STL分解后的分量如圖3所示。

        圖3 原始數(shù)據(jù)及STL分解后的分量

        將這些被分解的時間序列數(shù)據(jù)輸入到下一階段的預(yù)測模塊中,由預(yù)測模塊輸出各分量的預(yù)測結(jié)果,對3個分量的預(yù)測結(jié)果進(jìn)行線性求和,就可以得到完整的預(yù)測序列。

        1.3 預(yù)測模塊

        預(yù)測模塊包括兩個部分:深度神經(jīng)網(wǎng)絡(luò)部分由GlobalGRU和LocalGRU組成,GlobalGRU層用于捕獲全局依賴性,LocalGRU層用于捕獲局部依賴性;線性回歸部分使用自回歸模型。

        1.3.1 GlobalGRU

        考慮到在長序列中經(jīng)典RNN存在梯度消失問題,本文使用GRU網(wǎng)絡(luò)作為該層的主要結(jié)構(gòu)。GRU的結(jié)構(gòu)模型如圖4所示。

        圖4 GRU的結(jié)構(gòu)模型

        該模型基于長短期記憶網(wǎng)絡(luò)LSTM,由更新門zt和重置門rt組成,單元的隱狀態(tài)和輸出被組合為一個狀態(tài)參數(shù)S。與長短期記憶網(wǎng)絡(luò)相比,門的數(shù)量從LSTM中的3個變?yōu)?個,隨著訓(xùn)練參數(shù)的減少,網(wǎng)絡(luò)的訓(xùn)練速度也將提高。GRU的計算公式為

        zt=σ(Wz·[ht-1,xt])

        (1)

        rt=σ(Wr·[ht-1,xt])

        (2)

        (3)

        (4)

        式中:σ——Sigmoid函數(shù);

        Wz,Wr,W——權(quán)重矩陣;

        ht——網(wǎng)絡(luò)中t時刻的隱狀態(tài);

        xt——t時刻的輸入數(shù)據(jù);

        1.3.2 LocalGRU

        文獻(xiàn)[10]提出了一種LocalRNN方法。該方法可以在長序列建模中獲得局部依賴信息。圖5為傳統(tǒng)RNN與LocalRNN操作之間的區(qū)別。

        圖5 傳統(tǒng)RNN與LocalRNN的操作區(qū)別

        1.3.3 自回歸模型

        由于神經(jīng)網(wǎng)絡(luò)的非線性特性,所以輸出的規(guī)模對輸入的規(guī)模并不敏感。為了解決這一問題,本文將線性和非線性分量組合在一起,以獲得最終的預(yù)測結(jié)果。使用經(jīng)典的自回歸模型來獲取原始數(shù)據(jù)的線性特征為

        (5)

        式中:WAR,bAR——參數(shù)矩陣和偏置項。

        最終的預(yù)測結(jié)果由深度神經(jīng)網(wǎng)絡(luò)部分和自回歸部分組成:

        (6)

        2 實驗評估

        2.1 實驗數(shù)據(jù)與設(shè)定

        采用來自上海某區(qū)的真實數(shù)據(jù)集對本文方法進(jìn)行評估,并將結(jié)果與常用的時間序列預(yù)測方法進(jìn)行比較,包括支持向量機(jī)(Support Vector Machine,SVM)和GRU。采樣點(diǎn)的所有時間間隔均為1日,所有數(shù)據(jù)在輸入預(yù)測模型前均使用Min-Max歸一化,將其縮放至0~1。

        在實驗中,電量數(shù)據(jù)集分為訓(xùn)練集(80%)、驗證集(10%)和測試集(10%)。使用滑動窗口預(yù)測方法將分解后的數(shù)據(jù)進(jìn)一步劃分為模型所需的數(shù)據(jù),使用長度為T的電量序列作為模型各部分的輸入數(shù)據(jù),并輸出時間T+h的電量預(yù)測值。

        在神經(jīng)網(wǎng)絡(luò)模型中,使用Adam方法作為優(yōu)化器,使用均方誤差(MSE)作為損失函數(shù)。對于GRU和本文方法,從{64,128,256}中選擇隱藏層維度,從{3,5,7}中選擇網(wǎng)絡(luò)層總數(shù)。根據(jù)驗證集的性能從同一組值中選擇學(xué)習(xí)率,最終結(jié)果取最優(yōu)參數(shù)下多次實驗的平均值。對于SVM,使用網(wǎng)格搜索自動找到其最佳參數(shù)。

        所有方法均基于Python 3.6實現(xiàn),深度學(xué)習(xí)方法使用PyTorch 1.3.0框架實現(xiàn),SVM使用Scikit-learn框架實現(xiàn)。所有實驗均使用配備Intel Core i9-9900K CPU,NVIDIA RTX2080 GPU,32 GB RAM的計算機(jī)進(jìn)行。

        選用3種評估標(biāo)準(zhǔn)作為性能指標(biāo),分別為平均絕對誤差(MAE)、均方根誤差(RMSE)、平均絕對百分比誤差(MAPE)。各指標(biāo)的值越低,表示預(yù)測效果越好。對于滑動窗口預(yù)測模型,設(shè)置歷史數(shù)據(jù)長度={15,25,35},并預(yù)測未來{3,5,10}個時間步。這意味著使用15~35日的歷史數(shù)據(jù)來預(yù)測未來第3日、第5日或第10日的電量值,并且選出表現(xiàn)最優(yōu)的參數(shù)設(shè)置。

        2.2 實驗結(jié)果與分析

        在測試集中,上述參數(shù)和方法的評估結(jié)果如表1所示。

        表1 實驗評估結(jié)果

        表1中的每一列顯示了在不同條件下不同方法的結(jié)果。

        由表1可以看出,與使用普通機(jī)器學(xué)習(xí)方法的SVM模型相比,使用了深度學(xué)習(xí)思想的GRU和本文方法在多個評價指標(biāo)下均取得了更低的誤差值,說明它們比SVM擁有更準(zhǔn)確的預(yù)測能力。究其原因在于,深度學(xué)習(xí)可以學(xué)習(xí)到時間序列中的復(fù)雜非線性依賴關(guān)系,可以比傳統(tǒng)方法更好地解決復(fù)雜的預(yù)測任務(wù)。

        此外,各預(yù)測方法在測試集上的預(yù)測結(jié)果如圖6所示。

        由圖6可知,與傳統(tǒng)的GRU相比,本文提出的方法可以更好地適應(yīng)序列的局部變化。例如,在一些用電高峰和低谷,LocalGRU模塊很好地捕獲了局部依賴性,預(yù)測到電量序列在短時間內(nèi)的突然變化,提高了預(yù)測精度。GlobalGRU模塊使得本文方法不僅能在局部范圍內(nèi)捕捉電量變化,在整體上也能保持準(zhǔn)確的預(yù)測效果,比其他方法更擬合于原始值。

        圖6 各預(yù)測方法在測試集上的預(yù)測結(jié)果

        表2為不同歷史數(shù)據(jù)長度與預(yù)測范圍下的預(yù)測模型誤差。

        由表2可以看出,使用歷史數(shù)據(jù)長度為15日的數(shù)據(jù)進(jìn)行訓(xùn)練時,模型預(yù)測效果較差,說明數(shù)據(jù)量過少使得預(yù)測模型無法獲得充足的信息進(jìn)行預(yù)測。當(dāng)歷史數(shù)據(jù)長度為35日時,相較于25日的預(yù)測效果提升不夠明顯,這表明25日的歷史數(shù)據(jù)長度包含了預(yù)測未來所需的足夠信息。此外,過長的序列也會增加預(yù)測模型訓(xùn)練過程中的資源消耗。因此,本文使用歷史數(shù)據(jù)長度為25日的數(shù)據(jù)進(jìn)行預(yù)測,并且在多個預(yù)測窗口大小都取得較好的預(yù)測效果。

        表2 不同歷史長度與預(yù)測范圍下的預(yù)測模型誤差

        3 結(jié) 語

        電量預(yù)測不僅可以提高電力系統(tǒng)的可靠性,而且可以降低生產(chǎn)成本,因此,實現(xiàn)高效的能源管理具有重要意義。本文提出了一種結(jié)合STL分解和GRU網(wǎng)絡(luò)的新型短期電量預(yù)測方法。首先,該方法通過STL將原始電量序列分解為多個分量;然后,使用GlobalGRU和LocalGRU分別預(yù)測不同分量,并使用自回歸模型提高了預(yù)測結(jié)果的魯棒性;最后,在真實數(shù)據(jù)集上的評估實驗表明,該方案比SVM模型和純GRU模型具有更高的預(yù)測精度,可以捕獲局部和全局相關(guān)性。

        猜你喜歡
        方法模型
        一半模型
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權(quán)M-估計的漸近分布
        學(xué)習(xí)方法
        可能是方法不對
        3D打印中的模型分割與打包
        用對方法才能瘦
        Coco薇(2016年2期)2016-03-22 02:42:52
        FLUKA幾何模型到CAD幾何模型轉(zhuǎn)換方法初步研究
        四大方法 教你不再“坐以待病”!
        Coco薇(2015年1期)2015-08-13 02:47:34
        賺錢方法
        亚洲免费人成网站在线观看| 久久久无码精品亚洲日韩按摩| 极品美女aⅴ在线观看| 欧美在线综合| 日本红怡院东京热加勒比| 在线播放亚洲丝袜美腿| 男女高潮免费观看无遮挡 | 国模91九色精品二三四| 特级精品毛片免费观看| 亚洲人成网站免费播放| 538在线视频| 国产nv精品你懂得| 久久久精品免费国产四虎| 人妻被公上司喝醉在线中文字幕| 成年女人免费v片| 日本精品αv中文字幕| 四虎成人免费| 国产成人精品自拍在线观看| 日韩女同精品av在线观看| 性色av闺蜜一区二区三区| 五月天欧美精品在线观看| 日本午夜一区二区视频| av在线免费观看网站免费| 377p日本欧洲亚洲大胆张筱雨| 国产91精选在线观看麻豆| 日韩精品一二区在线视频| 9久久婷婷国产综合精品性色| 亚洲国产精品va在线看黑人| 精品国产av 无码一区二区三区| 在线亚洲AV成人无码一区小说| 一本色道88久久加勒比精品| 妺妺窝人体色www看人体| 欧美人与物videos另类xxxxx | 免费夜色污私人影院在线观看| 国产一区二区a毛片色欲 | 少妇久久久久久被弄高潮| 国产成人无码精品午夜福利a| 中文字幕日韩精品美一区二区三区| 激情文学婷婷六月开心久久| 一本久久伊人热热精品中文字幕| 日本欧美在线播放|