亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于深度門控循環(huán)單元神經(jīng)網(wǎng)絡(luò)的短期風(fēng)功率預(yù)測模型

        2018-05-16 07:46:00牛哲文余澤遠(yuǎn)唐文虎
        電力自動化設(shè)備 2018年5期
        關(guān)鍵詞:特征模型

        牛哲文,余澤遠(yuǎn),李 波,唐文虎

        (華南理工大學(xué) 電力學(xué)院,廣東 廣州 510641)

        0 引言

        風(fēng)功率預(yù)測是風(fēng)力發(fā)電系統(tǒng)中的關(guān)鍵技術(shù),準(zhǔn)確地對風(fēng)電場未來風(fēng)功率進(jìn)行預(yù)測可以有效地減少和避免風(fēng)電場對電力系統(tǒng)產(chǎn)生的沖擊[1]。因此,風(fēng)功率預(yù)測方法對風(fēng)力發(fā)電的可持續(xù)發(fā)展起著重要的作用。當(dāng)前的風(fēng)功率預(yù)測方法可以主要分為物理方法、統(tǒng)計學(xué)方法、學(xué)習(xí)方法以及上述方法的混合,每種方法都有各自適應(yīng)的時間尺度和數(shù)據(jù)類型[2]。

        物理模型是一種間接預(yù)測風(fēng)功率的方法,它通過風(fēng)力發(fā)電機功率曲線來推算出風(fēng)功率的預(yù)測值[3]。物理模型在長期預(yù)測中有著較好的表現(xiàn),但是由于存在著物理狀態(tài)到數(shù)值狀態(tài)的轉(zhuǎn)變,以及預(yù)測模型參數(shù)與以往數(shù)據(jù)沒有直接關(guān)聯(lián),在短期預(yù)測中它的誤差會相對較高。

        統(tǒng)計模型旨在利用統(tǒng)計學(xué)的方法,描繪出風(fēng)功率的預(yù)測值與以往的風(fēng)功率數(shù)據(jù)的時間序列之間的關(guān)系[4]。常用的統(tǒng)計學(xué)方法有時間序列模型、回歸分析模型以及卡爾曼濾波模型[5-6]。統(tǒng)計學(xué)模型可以有效地解決預(yù)測延遲的問題,但長期預(yù)測的準(zhǔn)確性較低。

        學(xué)習(xí)模型的核心在于通過人工智能算法來構(gòu)建輸入數(shù)據(jù)與輸出數(shù)據(jù)之間的關(guān)系。通過大量數(shù)據(jù)的訓(xùn)練與學(xué)習(xí),使得模型能捕捉到數(shù)據(jù)中隱含的規(guī)律與邏輯,從而做出準(zhǔn)確的預(yù)測。文獻(xiàn)[7]中建立了一種由微分進(jìn)化優(yōu)化的支持向量機SVM(Support Vector Machine)模型,并通過小波變換對風(fēng)速數(shù)據(jù)進(jìn)行預(yù)處理來得到更加精確的風(fēng)功率預(yù)測結(jié)果。文獻(xiàn)[8]將云模型與SVM相結(jié)合,并使用云變換的方法提取風(fēng)速數(shù)據(jù)的特征,從而使預(yù)測效果更加準(zhǔn)確。文獻(xiàn)[9]建立了一種多重支持向量回歸模型,并通過增強和聲搜索方法來最優(yōu)化模型中的參數(shù),進(jìn)而提高短期風(fēng)功率預(yù)測的準(zhǔn)確性。但是傳統(tǒng)神經(jīng)網(wǎng)絡(luò)對長時間序列的處理能力較弱且伴隨著梯度消失與過擬合等問題,使得這種方法也難以有較高的準(zhǔn)確度。支持向量回歸算法雖然能夠避免陷入局部最優(yōu)解,但當(dāng)處理大規(guī)模訓(xùn)練樣本時會出現(xiàn)收斂速度慢及難以實施的問題。

        隨著深度學(xué)習(xí)[10]的興起,文獻(xiàn)[11]提出了使用長短時間記憶LSTM(Long Short-Term Memory)神經(jīng)網(wǎng)絡(luò)的短期負(fù)荷預(yù)測方法,解決了傳統(tǒng)神經(jīng)網(wǎng)絡(luò)不能學(xué)習(xí)長距離依賴關(guān)系的問題,使預(yù)測準(zhǔn)確度上升了一個新的臺階。文獻(xiàn)[12]將主成分分析PCA(Principal Component Analysis)法用于分析影響風(fēng)功率的因素中,并將降維后的輸入通過LSTM神經(jīng)網(wǎng)絡(luò)進(jìn)行風(fēng)功率預(yù)測。文獻(xiàn)[13]將LSTM仿照自動編碼器(autoencoder)的結(jié)構(gòu),提出了一種序列到序列的學(xué)習(xí)方法,相比標(biāo)準(zhǔn)的LSTM在多步預(yù)測方面做出了改進(jìn),但LSTM結(jié)構(gòu)復(fù)雜,需要較長的訓(xùn)練和預(yù)測時間。

        本文提出了一種包含卷積神經(jīng)網(wǎng)絡(luò)CNN(Convo-lutional Neural Network)和門控循環(huán)單元GRU(Gated Recurrent Unit)[14]的C-GRU深度神經(jīng)網(wǎng)絡(luò)模型,其創(chuàng)新點在于:該模型創(chuàng)新地將深度學(xué)習(xí)理論中深層構(gòu)架的特征提取優(yōu)勢應(yīng)用于風(fēng)功率預(yù)測中,一方面利用卷積神經(jīng)網(wǎng)絡(luò)來降低數(shù)據(jù)規(guī)模和復(fù)雜程度,提升模型整體的泛化與學(xué)習(xí)能力;另一方面,通過GRU進(jìn)一步挖掘風(fēng)電場中不同數(shù)據(jù)源提供的信息特征,建立多變量時間序列與風(fēng)功率時間序列之間的非線性關(guān)系,解決了傳統(tǒng)方法由于風(fēng)能的高不確定性和噪聲干擾而產(chǎn)生的準(zhǔn)確度低和建模困難的問題。本文模型利用風(fēng)電場實例中大量有標(biāo)簽的數(shù)據(jù)進(jìn)行訓(xùn)練,優(yōu)化模型參數(shù),可以有效對風(fēng)電場風(fēng)功率進(jìn)行準(zhǔn)確的預(yù)測。最后,通過工程實例對該模型進(jìn)行驗證,并與多種預(yù)測方法在預(yù)測準(zhǔn)確度和預(yù)測速度方面進(jìn)行了對比分析。

        1 C-GRU深度神經(jīng)網(wǎng)絡(luò)

        深度學(xué)習(xí)是機器學(xué)習(xí)的一個新的分支,它旨在構(gòu)建更深層的結(jié)構(gòu)來加強模型在海量數(shù)據(jù)中捕捉隱含特征的能力。與傳統(tǒng)的淺層神經(jīng)網(wǎng)絡(luò)相比,深度學(xué)習(xí)有一系列能夠進(jìn)行非線性變換的隱含層,從而能夠挑戰(zhàn)更加復(fù)雜的環(huán)境與問題。本文中所使用的卷積神經(jīng)網(wǎng)絡(luò)與GRU均是深度學(xué)習(xí)中的重要方法。

        1.1 卷積神經(jīng)網(wǎng)絡(luò)

        卷積神經(jīng)網(wǎng)絡(luò)是一種適合用來處理計算機視覺圖像的神經(jīng)網(wǎng)絡(luò)[15],它的核心結(jié)構(gòu)是卷積層。每一層卷積層中都包含一定數(shù)量的特征探測器,當(dāng)輸入傳入卷積層后,每一個特征探測器都會沿著圖像滑動平移進(jìn)行卷積運算,產(chǎn)生與之對應(yīng)的特征圖譜。而隨著卷積層的堆疊,輸入中隱含的更深層的特征將會被提取并學(xué)習(xí)。

        圖1展示了一個二維卷積層的基本結(jié)構(gòu),其特征捕捉器是一個3×3維的矩陣,輸入矩陣經(jīng)過特征捕捉器的平移卷積之后得到特征圖譜。即對于輸入矩陣元素aij,特征圖譜M為:

        (1)

        其中,σ為卷積層的激活函數(shù);ωkl為一個3×3維系數(shù)矩陣的元素;ai+k,j+l為卷積層的輸入中與ωkl對應(yīng)相乘的元素,i表示行,j表示列;b為偏置項。每一個系數(shù)矩陣只能學(xué)習(xí)一種單一的特征,故一層中需要多個特征捕捉器,而數(shù)據(jù)中深層次的特征則需要堆疊更多的卷積層來捕捉。

        圖1 二維卷積層空間結(jié)構(gòu)Fig.1 Spatial structure of two-dimensional convolutional layer

        本文中的輸入為時間序列向量,因此將一維的卷積神經(jīng)網(wǎng)絡(luò)設(shè)置在整個模型的頂部,使之對輸入的原始風(fēng)功率和風(fēng)速等時間序列進(jìn)行處理。如圖2所示,a1—a7為輸入的一維時間序列,F與T分別為2層一維卷積層中的特征捕捉器,max表示最大值池化層,它是一種最常用的池化方法,即對鄰域內(nèi)特征點取最大值。經(jīng)過池化層后的模型參數(shù)將會減少,計算速度得到提升,最終得到特征圖譜m1—m3。相比于輸入,特征圖譜在向量維度上有了一定的減小,并且攜帶著更加明顯的風(fēng)功率數(shù)據(jù)特征,這樣就可以更好地被之后的網(wǎng)絡(luò)利用。

        圖2 雙卷積層的一維卷積神經(jīng)網(wǎng)絡(luò)Fig.2 One-dimensional CNN with two convolutional layers

        1.2 GRU神經(jīng)網(wǎng)絡(luò)

        GRU神經(jīng)網(wǎng)絡(luò)是循環(huán)神經(jīng)網(wǎng)絡(luò)RNN(Recur-rent Neural Network)的一種[16]。相比于傳統(tǒng)神經(jīng)網(wǎng)絡(luò),RNN能夠更好地處理輸入為時間序列的任務(wù),因為RNN能夠?qū)⒅拜斎氘a(chǎn)生的影響保留到模型,并共同參與到對下一步輸出的計算中。

        鑒于RNN的這種特殊結(jié)構(gòu),它被廣泛應(yīng)用于文本的詞句劃分以及機器翻譯中。理論上,RNN可以利用任意長度的時間序列信息,但是實際中當(dāng)2個輸入之間的步長太大時會很快出現(xiàn)梯度消失或者梯度爆炸現(xiàn)象[17],從而難以實現(xiàn)。GRU神經(jīng)網(wǎng)絡(luò)作為RNN的一種新型變體,它特殊的門結(jié)構(gòu)能夠有效地解決長短時間序列上的變化問題。

        rt=σ(Wrhht-1+Wrxxt)

        (2)

        zt=σ(Wzhht-1+Wzxxt)

        (3)

        圖3 GRU內(nèi)部結(jié)構(gòu)Fig.3 Inner structure of GRU

        (4)

        (5)

        故從上式中可以看出,重置門rt可以控制當(dāng)前輸入xt與之前時刻狀態(tài)ht-1的結(jié)合方式,rt越趨近于0則前一時刻的輸出狀態(tài)所占的比例就越小。更新門zt決定有多少前一時刻的狀態(tài)信息能夠進(jìn)入現(xiàn)在的時刻,zt越趨近于1,表示當(dāng)前狀態(tài)對之前時刻的信息利用得越多。因此,如果將重置門的值設(shè)置為1,而更新門的值設(shè)置為0,就會得到一個傳統(tǒng)的RNN。

        GRU可以通過堆疊來形成多層GRU,本文中構(gòu)建的5層GRU神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)展開圖如圖4所示。

        圖4 5層GRU神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)展開Fig.4 Unrolled architecture of a five-layer GRU neural network

        1.3 基于C-GRU神經(jīng)網(wǎng)絡(luò)的風(fēng)功率預(yù)測模型

        本文采用歷史風(fēng)功率數(shù)據(jù)和數(shù)值天氣預(yù)報中的風(fēng)速、風(fēng)向以及風(fēng)的經(jīng)緯分量作為風(fēng)功率預(yù)測模型的輸入數(shù)據(jù),風(fēng)功率的預(yù)測值作為輸出,進(jìn)行單步預(yù)測。模型可以由下式表示:

        (6)

        圖5 C-GRU風(fēng)功率預(yù)測模型結(jié)構(gòu)Fig.5 Structure of wind power forecasting model based on C-GRU

        從圖5可以看出,C-GRU風(fēng)功率預(yù)測模型由2個主要部分組成,即負(fù)責(zé)對原始輸入數(shù)據(jù)進(jìn)行特征提取和降維的卷積神經(jīng)網(wǎng)絡(luò)以及負(fù)責(zé)對處理后的時間序列進(jìn)行預(yù)測的GRU 神經(jīng)網(wǎng)絡(luò)。高維的原始輸入數(shù)據(jù)傳入卷積神經(jīng)網(wǎng)絡(luò)后,通過特征提取器與池化層的處理,形成包含歷史風(fēng)功率數(shù)據(jù)以及風(fēng)速數(shù)據(jù)特征的低維特征圖譜。特征圖譜作為輸入傳到GRU神經(jīng)網(wǎng)絡(luò)中,GRU神經(jīng)網(wǎng)絡(luò)中的重置門與更新門在大量訓(xùn)練中不斷地調(diào)整自身參數(shù),使它能夠從卷積神經(jīng)網(wǎng)絡(luò)提取的信息中學(xué)習(xí)數(shù)據(jù)間的時間依從關(guān)系。最后,在模型的末端加入一個激活函數(shù)為線性激活函數(shù)的單一神經(jīng)元L來計算GRU神經(jīng)網(wǎng)絡(luò)的預(yù)測值,最終整個C-GRU風(fēng)功率預(yù)測模型的輸出值即為這個全連接神經(jīng)元的輸出。

        對于整個C-GRU風(fēng)功率預(yù)測模型的訓(xùn)練,本文采用了時間反向傳播算法,即將循環(huán)神經(jīng)網(wǎng)絡(luò)按照一定時間步長展開,展開結(jié)果可以看作深度的前饋神經(jīng)網(wǎng)絡(luò),進(jìn)而可以實施標(biāo)準(zhǔn)的反向傳播算法。本文中采用Adam[18]算法作為模型梯度的優(yōu)化算法,相比于傳統(tǒng)的隨機梯度下降SGD(Stochastic Gradient Descent)法,Adam算法采用自適應(yīng)動態(tài)調(diào)整的學(xué)習(xí)率,一方面能夠根據(jù)不同的參數(shù)選擇不同的學(xué)習(xí)率,另一方面還能夠?qū)W(xué)習(xí)率形成一個動態(tài)約束,避免較大的梯度波動。模型中的目標(biāo)損失函數(shù)采用均方誤差函數(shù),即:

        (7)

        其中,Q為訓(xùn)練集中的樣本數(shù)量;pt為t時刻風(fēng)電場風(fēng)功率的真實值。

        1.4 dropout技術(shù)

        本文研究發(fā)現(xiàn),單純地增加神經(jīng)網(wǎng)絡(luò)的深度并不能有效提高模型的預(yù)測準(zhǔn)確度。由于隨著模型網(wǎng)絡(luò)層數(shù)的增加,模型內(nèi)部參數(shù)的數(shù)量呈指數(shù)型增長,而風(fēng)功率預(yù)測的輸入數(shù)據(jù)結(jié)構(gòu)較為單一且缺乏多樣性。經(jīng)過大量訓(xùn)練之后,模型將傾向于模仿訓(xùn)練數(shù)據(jù)的特征而缺乏真正的預(yù)測,即出現(xiàn)過擬合現(xiàn)象。為了減少模型出現(xiàn)的過擬合現(xiàn)象,本文使用了dropout技術(shù)[19]。在訓(xùn)練過程中,dropout 技術(shù)按照一定概率將網(wǎng)絡(luò)中的隱含神經(jīng)元隨機丟棄,即將該神經(jīng)元的輸入與輸出置0,使這部分神經(jīng)元在訓(xùn)練過程中不參與正向與反向傳播,但其權(quán)值仍保留,如圖6所示。圖6為一個標(biāo)準(zhǔn)神經(jīng)網(wǎng)絡(luò)經(jīng)過dropout技術(shù)處理后的結(jié)果,其中被打叉的圓表示被dropout隨機丟棄掉的神經(jīng)元,這樣一方面能夠有效地減少模型中內(nèi)部參數(shù)的數(shù)量,另一方面也相當(dāng)于變相增加了模型輸入數(shù)據(jù)的多樣性,從而在一定程度上減輕了過擬合現(xiàn)象。關(guān)于dropout技術(shù)和風(fēng)功率預(yù)測模型中的過擬合現(xiàn)象在本文實驗部分將進(jìn)行進(jìn)一步的討論。

        圖6 dropout技術(shù)示意圖Fig.6 Schematic diagram of dropout technique

        2 實驗算例

        2.1 數(shù)據(jù)集和數(shù)據(jù)預(yù)處理

        本文以中國北部的額定功率為49.5MW的某風(fēng)電場發(fā)電機組數(shù)據(jù)以及數(shù)值天氣預(yù)報中相應(yīng)的風(fēng)速預(yù)測數(shù)據(jù)作為研究對象,采樣間隔周期為1h。采用從2009年7月1日至2010年11月6日的11834個點的風(fēng)功率數(shù)據(jù)作為C-GRU模型的訓(xùn)練集,以2010年11月7日至2010年12月31日的1298個點的數(shù)據(jù)作為模型的測試集進(jìn)行試驗。

        由于測量誤差以及風(fēng)的不確定性,原始數(shù)據(jù)中充滿了噪聲信號且有諸多異常值,為了減少測量誤差造成的影響,降低由異常值造成的計算誤差,采用式(8)來對數(shù)值天氣預(yù)報中的風(fēng)速風(fēng)向和風(fēng)的經(jīng)緯分量進(jìn)行標(biāo)準(zhǔn)化處理,并采用風(fēng)功率的標(biāo)幺值作為輸入,以提高預(yù)測的準(zhǔn)確率。

        (8)

        其中,xc為標(biāo)準(zhǔn)化之后的模型輸入數(shù)據(jù);xs為原始的輸入數(shù)據(jù);xmax和xmin分別為原始數(shù)據(jù)的最大值和最小值。

        2.2 C-GRU模型預(yù)測準(zhǔn)確性的評估

        本文中采用標(biāo)準(zhǔn)化的平均絕對誤差NMAE(Normalized Mean Absolute Error)與標(biāo)準(zhǔn)化的均方根誤差NRMSE(Normalized Root Mean Square Error)作為模型準(zhǔn)確性的評估標(biāo)準(zhǔn)。NMAE與NRMSE的公式表達(dá)如下:

        (9)

        (10)

        2.3 C-GRU模型的訓(xùn)練及實驗結(jié)果

        本節(jié)對C-GRU模型進(jìn)行風(fēng)功率預(yù)測驗證。通過實驗發(fā)現(xiàn),當(dāng)模型風(fēng)功率輸入時間序列維度為16時預(yù)測結(jié)果最好,預(yù)測期間設(shè)定為4h,即對于某一特定時刻t,采用其前4~19h的真實風(fēng)功率數(shù)據(jù)以及t時刻風(fēng)速、風(fēng)向和風(fēng)的經(jīng)緯分量的數(shù)值天氣預(yù)報預(yù)測值作為輸入數(shù)據(jù)預(yù)測其4h后時刻的風(fēng)功率。經(jīng)過對不同的模型結(jié)構(gòu)及參數(shù)進(jìn)行調(diào)參試驗,最終模型參數(shù)如下。

        a. 卷積神經(jīng)網(wǎng)絡(luò):卷積神經(jīng)網(wǎng)絡(luò)中包含2層卷積層,第一層中有64個特征探測器(1×4維向量),第二層中有32個特征探測器(1×3維向量),它們的激活函數(shù)都為ReLu。

        b. GRU神經(jīng)網(wǎng)絡(luò):本文中模型包含5層GRU單元,經(jīng)過試驗測試調(diào)參,最終設(shè)定每一層中的隱含神經(jīng)元數(shù)分別為64、128、64、32和16。

        c. 全連接層:一個單一神經(jīng)元的全連接層作為C-GRU風(fēng)功率預(yù)測模型的輸出層,它輸出的結(jié)果即為t時刻風(fēng)功率的預(yù)測值。

        本文研究將C-GRU風(fēng)功率預(yù)測模型與其他風(fēng)功率預(yù)測模型進(jìn)行比較,如基本BP神經(jīng)網(wǎng)絡(luò)模型、基本GRU模型以及SVM模型。以上所有的預(yù)測模型都建立在keras庫的基礎(chǔ)上,以theano為后端通過python語言編寫。

        C-GRU風(fēng)功率預(yù)測模型的結(jié)果如圖7所示,圖中風(fēng)功率為標(biāo)幺值。表1展示了不同模型預(yù)測結(jié)果的NMAE與NRMSE值。

        圖7 C-GRU模型的預(yù)測結(jié)果Fig.7 Forecasting results of C-GRU model

        從圖7中可以看出,C-GRU風(fēng)功率預(yù)測模型的預(yù)測曲線能較好地擬合真實的風(fēng)功率曲線,具有短時風(fēng)功率預(yù)測的能力。除此之外,由圖7(b)可以發(fā)現(xiàn),本文中測試模型存在峰值處預(yù)測值低于真實值的情況,這是由于模型輸入數(shù)據(jù)均為歷史風(fēng)功率數(shù)據(jù),下一個時刻的預(yù)測值取決于之前時刻的真實值,故模型具有一定的預(yù)測慣性。因此,當(dāng)風(fēng)速波動較大時,模型的整體預(yù)測值將偏保守。但C-GRU模型相比于其他模型能夠更好地貼合真實的風(fēng)功率曲線,表現(xiàn)出在更加極端的情形下的風(fēng)功率預(yù)測能力。

        表1 多種風(fēng)功率預(yù)測模型在不同風(fēng)速情況下的誤差數(shù)據(jù)比較Table 1 Errors of different wind power forecasting models under different wind speed situations %

        與此同時,在表1所示的誤差指標(biāo)方面,C-GRU模型擁有最小的NMAE值與NRMSE值,即C-GRU模型有最高的預(yù)測準(zhǔn)確度。在與GRU神經(jīng)網(wǎng)絡(luò)的比較中發(fā)現(xiàn),C-GRU模型的準(zhǔn)確度有明顯提升,這說明卷積神經(jīng)網(wǎng)絡(luò)具有很好的數(shù)據(jù)特征捕捉和數(shù)據(jù)降維的功能。從不同風(fēng)速情況下的誤差對比中發(fā)現(xiàn),當(dāng)風(fēng)速波動較大時,模型的預(yù)測誤差均會明顯增加,但C-GRU模型的誤差波動是最小的,在一定程度上證明了C-GRU模型的魯棒性和適應(yīng)性。

        圖8 預(yù)測誤差隨網(wǎng)絡(luò)層數(shù)的變化Fig.8 Forecasting error vs. number of neural network layer

        為了探究C-GRU風(fēng)功率預(yù)測模型的預(yù)測結(jié)果與模型網(wǎng)絡(luò)深度的關(guān)系,本文進(jìn)行了預(yù)測誤差與網(wǎng)絡(luò)層數(shù)的敏感度分析實驗。如圖8所示,在沒有施加dropout的情況下,模型在層數(shù)為3時達(dá)到最好的預(yù)測結(jié)果(NRMSE為9.64%,NMAE為7.75%)。但隨著網(wǎng)絡(luò)層數(shù)的繼續(xù)增加,模型出現(xiàn)了嚴(yán)重的過擬合現(xiàn)象,當(dāng)網(wǎng)絡(luò)層數(shù)增加到5時,模型的預(yù)測結(jié)果比單層網(wǎng)絡(luò)還要差,這是由于隨著網(wǎng)絡(luò)結(jié)構(gòu)的深化,模型參數(shù)變得冗余而復(fù)雜,但短期風(fēng)功率預(yù)測的輸入數(shù)據(jù)形式單一且缺乏變化,從而造成的過擬合現(xiàn)象。但當(dāng)增加dropout后,模型的預(yù)測效果隨著網(wǎng)絡(luò)層數(shù)的增加并沒有衰減,故而在一定程度上減輕了模型的過擬合現(xiàn)象。

        為了進(jìn)一步比較C-GRU模型、LSTM神經(jīng)網(wǎng)絡(luò)模型與GRU神經(jīng)網(wǎng)絡(luò)模型在短期風(fēng)功率預(yù)測中的效率和性能,本文針對不同的輸入時間序列的長度,對三者的預(yù)測準(zhǔn)確度和訓(xùn)練時間進(jìn)行了實驗比較。為了確保實驗的準(zhǔn)確性與合理性,三者均采用相同神經(jīng)元數(shù)和隱含層數(shù),并且使用相同的學(xué)習(xí)率和迭代次數(shù)。具體實驗結(jié)果如表2所示。

        表2 不同輸入時間序列長度下風(fēng)功率預(yù)測模型誤差比較Table 2 Comparison of errors of different wind power forecasting models for different input sequence lengths %

        圖9 不同輸入時間序列長度下單位時期平均訓(xùn)練時間和平均預(yù)測時間Fig.9 Average training time and average forecasting time in one epoch for different input time series lengths

        圖9為不同輸入時間序列長度下單位時期的平均訓(xùn)練時間和平均預(yù)測時間,從中可以看出,在輸入時間序列長度分別為8、16和24的情況下,C-GRU模型和GRU模型的訓(xùn)練時間與預(yù)測時間均小于LSTM模型。具體而言,LSTM模型的平均訓(xùn)練時間約為C-GRU模型的1.27倍,而在測試集上的平均預(yù)測時間約為C-GRU模型的1.36倍,這說明在短期風(fēng)功率預(yù)測問題上,C-GRU神經(jīng)網(wǎng)絡(luò)比LSTM神經(jīng)網(wǎng)絡(luò)有更高的效率和更好的性能,這也與GRU網(wǎng)絡(luò)舍棄LSTM模型中輸入門、輸出門、遺忘門的復(fù)雜結(jié)構(gòu),而以重置門、更新門代替的簡化結(jié)構(gòu)相呼應(yīng)。對比圖9(a)、(b)可以發(fā)現(xiàn),C-GRU模型的訓(xùn)練時間比GRU模型長,但預(yù)測速度比GRU模型快,這說明卷積神經(jīng)網(wǎng)絡(luò)在處理原始數(shù)據(jù)的訓(xùn)練過程中,卷積計算會占用較長的時間,而在預(yù)測過程中,GRU神經(jīng)網(wǎng)絡(luò)使用經(jīng)過卷積神經(jīng)網(wǎng)絡(luò)降維后的數(shù)據(jù),預(yù)測時間會降低,并且這種現(xiàn)象會隨著輸入向量維度的增加而愈發(fā)明顯。

        3 結(jié)論

        針對當(dāng)前短期風(fēng)功率預(yù)測中存在的準(zhǔn)確性及效率不高的問題,本文提出一種新型的C-GRU風(fēng)功率預(yù)測模型,一方面構(gòu)建了包含雙卷積層的一維卷積神經(jīng)網(wǎng)絡(luò),并通過其多層特征捕捉器及最大池化結(jié)構(gòu),對輸入的不確定性時間序列進(jìn)行有效特征挖掘;另一方面,搭建了5層結(jié)構(gòu)的深度GRU神經(jīng)網(wǎng)絡(luò),利用其獨特的門結(jié)構(gòu),提高了模型對變長度時間序列的信息利用和預(yù)測能力,具有工程應(yīng)用價值。

        工程實例分析表明,C-GRU模型相比于傳統(tǒng)神經(jīng)網(wǎng)絡(luò)模型在預(yù)測準(zhǔn)確度方面有明顯提高。除此之外,在與LSTM模型的比較中發(fā)現(xiàn),C-GRU模型的預(yù)測準(zhǔn)確度更高,并且平均訓(xùn)練時間是LSTM模型的79%,平均預(yù)測時間是LSTM模型的74%。通過對比研究,本文還得出了模型網(wǎng)絡(luò)深度與預(yù)測誤差之間的關(guān)系以及dropout技術(shù)對于模型在訓(xùn)練過程中出現(xiàn)的過擬合現(xiàn)象的影響。筆者下一步研究方向旨在對C-GRU模型的預(yù)測誤差進(jìn)行分析與利用,將誤差信息傳遞到模型中以不斷地修正模型參數(shù),形成閉環(huán)反饋,進(jìn)一步完善模型的預(yù)測準(zhǔn)確度。

        參考文獻(xiàn):

        [1] JUNG J,BROADWATER R P. Current status and future advances for wind speed and power forecasting[J]. Renewable & Sustainable Energy Reviews,2014,31(2):762-777.

        [2] 李文良,衛(wèi)志農(nóng),孫國強,等. 基于改進(jìn)空間相關(guān)法和徑向基神經(jīng)網(wǎng)絡(luò)的風(fēng)電場短期風(fēng)速分時預(yù)測模型[J]. 電力自動化設(shè)備,2009,29(6):89-92.

        LI Wenliang,WEI Zhinong,SUN Guoqiang,et al. Multi-interval wind speed forecast model based on improved spatial correlation and RBF neural network[J]. Electric Power Automation Equipment,2009,29(6):89-92.

        [3] 張露,盧繼平,梅亦蕾,等. 基于不同優(yōu)化準(zhǔn)則的風(fēng)電功率預(yù)測[J]. 電力自動化設(shè)備,2015,35(5):139-145.

        ZHANG Lu,LU Jiping,MEI Yilei,et al. Wind power forecasting based on different optimization criterions[J]. Electric Power Automation Equipment,2015,35(5):139-145.

        [4] 歐陽庭輝,查曉明,秦亮,等. 含核函數(shù)切換的風(fēng)電功率短期預(yù)測新方法[J]. 電力自動化設(shè)備,2016,36(9):80-86.

        OUYANG Tinghui,ZHA Xiaoming,QIN Liang,et al. Short-term wind power prediction based on kernel function switching[J]. Electric Power Automation Equipment,2016,36(9):80-86.

        [5] 甘迪,柯德平,孫元章,等. 考慮爬坡特性的短期風(fēng)電功率概率預(yù)測[J]. 電力自動化設(shè)備,2016,36(4):145-150.

        GAN Di,KE Deping,SUN Yuanzhang,et al. Short-term probabilistic wind power forecast considering ramp characteristics[J]. Electric Power Automation Equipment,2016,36(4):145-150.

        [6] 楊建,張利,王明強,等. 計及出力水平影響與自相關(guān)性的風(fēng)電預(yù)測誤差模擬方法[J]. 電力自動化設(shè)備,2017,37(9):96-102.

        YANG Jian,ZHANG Li,WANG Mingqiang,et al. Wind-power forecasting error simulation considering output level and self-correlation[J]. Electric Power Automation Equipment,2017,37(9):96-102.

        [7] 彭春華,劉剛,孫惠娟. 基于小波分解和微分進(jìn)化支持向量機的風(fēng)電場風(fēng)速預(yù)測[J]. 電力自動化設(shè)備,2012,32(1):9-13.

        PENG Chunhua,LIU Gang,SUN Huijuan. Wind speed forecasting based on wavelet decomposition and differential evolution-support vector machine for wind farms[J]. Electric Power Automation Equipment,2012,32(1):9-13.

        [8] 凌武能,杭乃善,李如琦. 基于云支持向量機模型的短期風(fēng)電功率預(yù)測[J]. 電力自動化設(shè)備,2013,33(7):34-38.

        LING Wuneng,HANG Naishan,LI Ruqi. Short-term wind power forecasting based on cloud SVM model[J]. Electric Power Automation Equipment,2013,33(7):34-38.

        [9] HUANG Chaoming,KUO Chunjie,HUANG Yanchang. Short-term wind power forecasting and uncertainty analysis using a hybrid intelligent method[J]. IET Renewable Power Generation,2017,11(5):678-687.

        [10] HINTON G E,SALAKHUTDINOV R. Reducing the dimensionality of data with neural networks[J]. Science,2006,313(5786):504-507.

        [11] ZHENG Jian,XU Cencen. Electric load forecasting in smart grids using long-short-term-memory based recurrent neural network[C]∥2017 51st Annual Conference on Information Sciences and Systems(CISS). [S.l.]:IEEE,2017:1-6.

        [12] QU Xiaoyun,KANG Xiaoning,ZHANG Chao,et al. Short-term prediction of wind power based on deep long short-term memory[C]∥2016 IEEE PES Asia-Pacific Power and Energy Engineering Conference. [S.l.]:IEEE,2016:1148-1152.

        [13] MARINO D L,AMARASINGHE K,MANIC M. Building energy load forecasting using deep neural networks[C]∥IECON 2016-42nd Annual Conference on Industrial Electronics Society. [S.l.]:IEEE,2016:7046-7051.

        [14] HINTON G,LI Deng,DONG Yu,et al. Deep neural networks for acoustic modeling in speech recognition:the shared views of four research groups[J]. IEEE Signal Processing Magazine,2012,29(6):82-97.

        [15] KRIZHEVSKY A,SUTSKEVER I,HINTON G E. ImageNet classification with deep convolutional neural networks[C]∥International Conference on Neural Information Processing Systems. [S.l.]:Curran Associates Inc.,2012:1097-1105.

        [16] GRAVES A,MOHAMED A,HINTON G E,et al. Speech recognition with deep recurrent neural networks[C]∥International Conference on Acoustics,Speech,and Signal Processing. [S.l.]:IEEE,2013:6645-6649.

        [17] PASCANU R,MIKOLOV T,BENGIO Y,et al. On the difficulty of training recurrent neural networks[C]∥International Conference on Machine Learning. [S.l.]:ICML,2012:1310-1318.

        [18] KINGMA D P,BA J. Adam:a method for stochastic optimization[C]∥International Conference on Learning Representations. [S.l.]:ICLR,2015:1-13.

        [19] HINTON G E,SRIVASTAVA N,KRIZHEVSKY A,et al. Improving

        neural networks by preventing co-adaptation of feature detectors[J]. Computer Science,2012,3(4):212-223.

        猜你喜歡
        特征模型
        一半模型
        抓住特征巧觀察
        重要模型『一線三等角』
        新型冠狀病毒及其流行病學(xué)特征認(rèn)識
        重尾非線性自回歸模型自加權(quán)M-估計的漸近分布
        如何表達(dá)“特征”
        不忠誠的四個特征
        抓住特征巧觀察
        3D打印中的模型分割與打包
        FLUKA幾何模型到CAD幾何模型轉(zhuǎn)換方法初步研究
        无码a∨高潮抽搐流白浆| 亚洲va视频一区二区三区| 久久久久99精品成人片| 人妻少妇精品中文字幕av蜜桃| 中文人成影院| 大量老肥熟女老女人自拍| 在线播放亚洲丝袜美腿| 国产成人精品午夜视频| 天天av天天爽无码中文| 中文字幕乱码中文乱码毛片 | 精品五月天| 中文字幕亚洲乱码熟女在线| 国产精品一区二区黄色| 欧美成人精品午夜免费影视| 亚洲男人精品| 日韩女同一区在线观看| 国产精品妇女一区二区三区| 日本高清h色视频在线观看| 亚洲免费观看网站| 少妇激情一区二区三区| 国产精品偷窥熟女精品视频| 国产午夜福利在线播放| 被欺辱的高贵人妻被中出| 偷拍视频这里只有精品| 国产av国片精品jk制服| 香蕉人妻av久久久久天天| 人妻少妇精品一区二区三区| 亚洲av日韩一卡二卡| 亚洲人成人网站在线观看| 精品无码久久久久久久久粉色| 国产免费一区二区三区在线观看 | 国产精品人人做人人爽人人添| 精品国产乱码久久久软件下载| 美女极度色诱视频国产免费| 久久精品久99精品免费| 国产av无码专区亚洲av中文| 国产精品主播视频| 天堂影院久久精品国产午夜18禁| 亚洲色大成网站www永久| 国产极品久久久久极品| 亚洲国产综合精品久久av|