亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于TLBGA-GRU 神經(jīng)網(wǎng)絡(luò)的短期負(fù)荷預(yù)測

        2023-01-09 14:28:20吳鐵洲張曉星
        計(jì)算機(jī)工程 2022年11期
        關(guān)鍵詞:變異神經(jīng)網(wǎng)絡(luò)精度

        吳鐵洲,鄒 智,姜 奔,張曉星

        (1.湖北工業(yè)大學(xué)電氣與電子工程學(xué)院,武漢 430063;2.湖北工業(yè)大學(xué)太陽能高效利用及儲(chǔ)能運(yùn)行控制湖北省重點(diǎn)實(shí)驗(yàn)室,武漢 430063)

        0 概述

        在當(dāng)前新能源滲透率越來越高的新型電力系統(tǒng)中,負(fù)荷預(yù)測是確保其平穩(wěn)高效運(yùn)行的重要保證[1]。負(fù)荷預(yù)測方法按照預(yù)測的時(shí)間范圍來劃分[2],長期與中期預(yù)測通常是從幾個(gè)月到幾年,短期預(yù)測的預(yù)測范圍則是從幾小時(shí)到幾周[3]。HERNANDEZ 等[4]在對(duì)實(shí)際案例進(jìn)行研究后發(fā)現(xiàn),對(duì)于電網(wǎng)來講,短期負(fù)荷預(yù)測具有獨(dú)特的使用價(jià)值。短期負(fù)荷預(yù)測結(jié)果經(jīng)常被用來協(xié)助制定一周內(nèi)電力系統(tǒng)的機(jī)組啟停、機(jī)組最優(yōu)組合、經(jīng)濟(jì)調(diào)度、最優(yōu)潮流及影響電力市場交易等。預(yù)測精度越高,越有利于提高發(fā)電設(shè)備的利用率、經(jīng)濟(jì)調(diào)度的有效性和日常多個(gè)時(shí)間范圍內(nèi)電力運(yùn)行的可服務(wù)性[5]。

        HOSSEN 等[6]將深度神經(jīng)網(wǎng)絡(luò)(Deep Neural Network,DNN)應(yīng)用到短期負(fù)荷預(yù)測中,相較于淺層人工神經(jīng)網(wǎng)絡(luò),DNN 雖在預(yù)測精度上有所提升,但仍需人工提取時(shí)序特征。長短期記憶(Long Short-Term Memory,LSTM)網(wǎng)絡(luò)是一種專門處理時(shí)間序列數(shù)據(jù)的循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,RNN),它解決了RNN 的梯度消失和爆炸以及長期記憶不足的問題[7]。而門控循環(huán)單元(GRU)是在LSTM 的基礎(chǔ)上進(jìn)行改進(jìn)優(yōu)化的神經(jīng)網(wǎng)絡(luò)[8]。與LSTM 相比,GRU 在具有同等準(zhǔn)確率的情況下,擁有更低的復(fù)雜度及更快的收斂速度來捕獲不同時(shí)間步長的長短期依賴性關(guān)系[9]。

        此外,在深度學(xué)習(xí)領(lǐng)域中,不同類型神經(jīng)網(wǎng)絡(luò)的準(zhǔn)確性和收斂性很大程度上依賴于超參數(shù)(如隱藏層的數(shù)量和每層神經(jīng)元的個(gè)數(shù))[10]。而超參數(shù)的設(shè)置在先前都是手工調(diào)試的,需不斷進(jìn)行調(diào)整試錯(cuò),在調(diào)整試錯(cuò)過程中比較依賴其調(diào)參的先驗(yàn)知識(shí),容易陷入局部最優(yōu)解,很難獲得合適的超參數(shù)。文獻(xiàn)[11]分析認(rèn)為,目前主要有3 種方法尋找最佳超參數(shù)。網(wǎng)格搜索(Grid Search,GS)通過引入最小代價(jià)函數(shù)或最高適應(yīng)度函數(shù)的組合獲得超參數(shù)的最佳集合[12]。然而,GS 在運(yùn)行時(shí)需要運(yùn)用大量的算力才能獲得最佳的網(wǎng)絡(luò)架構(gòu)。而隨后提出的隨機(jī)搜索(Random Search,RS)方法雖然可以避免運(yùn)算量大的缺點(diǎn),但其無法保證得到全局最優(yōu)超參數(shù)[13]。另外,RS 在超參數(shù)域中進(jìn)行的是盲目搜索,但這種方式效率較低,難以求解復(fù)雜問題。為了解決該問題,研究人員提出采用遺傳算法等元啟發(fā)式算法搜索超參數(shù)。因?yàn)镚A 在運(yùn)行過程中,首先保存了每個(gè)步驟中具有最佳結(jié)果的超參數(shù)組合,然后通過上一步的超參數(shù)來生成下一步中的新超參數(shù)集??梢钥闯?,其搜索過程不是盲目的,找到最優(yōu)結(jié)果的可能性比RS更高。文獻(xiàn)[14]對(duì)GS、RS 和GA 的精度和計(jì)算時(shí)間進(jìn)行了比較研究,在CIFAR-10 分類數(shù)據(jù)集上的結(jié)果顯示,GA 算法明顯優(yōu)于提到的其他算法。

        GA 算法在運(yùn)行早期容易產(chǎn)生超級(jí)個(gè)體,出現(xiàn)早熟收斂現(xiàn)象,從而導(dǎo)致算法過早地收斂于局部最優(yōu),而非全局最優(yōu)[15]。在過去的幾年中,研究人員一直致力于改進(jìn)GA 算法的性能,以提高該算法在處理不同優(yōu)化問題時(shí)的有效性。研究人員已經(jīng)證明了GA算法的效率直接取決于算子和策略參數(shù)的選擇[16]。關(guān)于變異算子,大多數(shù)研究都試圖確定最佳的變異種類或變異率。然而,更常見方法是動(dòng)態(tài)調(diào)整變異,而不是固定變異率統(tǒng)一應(yīng)用于整個(gè)種群[17]。BEHROOZI 等[18]提出一種基于教與學(xué)優(yōu)化(Teaching Learning Based Optimization,TLBO)的新型變異算子,在解決早熟收斂問題的同時(shí),還提高了GA 算法的性能。該方法采用一種高智能的變異算子,選定的基因?qū)⒅悄艿赝蛔?,以使染色體接近更好的解決方案,而不是隨機(jī)變異。因此,為解決GA 算法的早熟收斂問題,可以從變異算子入手,通過改變變異為種群補(bǔ)充新的個(gè)體,增加種群的多樣性,使算法跳出局部最優(yōu)。

        本文提出一種基于TLBGA-GRU 神經(jīng)網(wǎng)絡(luò)的短期負(fù)荷預(yù)測方法。采用灰色關(guān)聯(lián)分析法對(duì)原始數(shù)據(jù)進(jìn)行分析,剔除冗余特征,將剩余的主要特征保留并輸入到GRU 神經(jīng)網(wǎng)絡(luò)中。隨后通過TLBGA 算法對(duì)GRU 神經(jīng)網(wǎng)絡(luò)進(jìn)行超參數(shù)調(diào)優(yōu),在得到預(yù)測精度更高、性能更好的模型后,再將篩選的數(shù)據(jù)輸入到該模型,從而輸出負(fù)荷預(yù)測的結(jié)果。

        1 TLBGA-GRU 神經(jīng)網(wǎng)絡(luò)模型

        1.1 GRU 循環(huán)神經(jīng)網(wǎng)絡(luò)模型

        經(jīng)研究發(fā)現(xiàn),由于RNN 網(wǎng)絡(luò)中存在循環(huán)單元結(jié)構(gòu),允許輸入特征持續(xù)存在,這也就使得RNN 具有一定短期記憶能力,因此RNN 網(wǎng)絡(luò)在處理時(shí)間序列數(shù)據(jù)方面具有一定的優(yōu)勢。然而,RNN 還是存在階梯消失問題,因此隨著時(shí)間間隔的增加,RNN 會(huì)逐漸失去學(xué)習(xí)舊信息的能力。

        LSTM 是一種特殊的循環(huán)神經(jīng)網(wǎng)絡(luò),其很好地解決了RNN 中梯度消失的問題。但是,在后續(xù)的研究中發(fā)現(xiàn),LSTM 由于其內(nèi)部參數(shù)與數(shù)據(jù)較多,比較復(fù)雜,會(huì)降低其訓(xùn)練效果[19]。為了更好地解決這個(gè)問題,研究人員提出了GRU 神經(jīng)網(wǎng)絡(luò),其內(nèi)部采用門控循環(huán)神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),相比于LSTM,訓(xùn)練參數(shù)較少,收斂速度更快[20]。圖1 所示為GRU 神經(jīng)元內(nèi)部結(jié)構(gòu),計(jì)算公式如式(1)所示。

        圖1 GRU 神經(jīng)元內(nèi)部結(jié)構(gòu)Fig.1 Internal structure of GRU neuron

        在圖1 與式(1)中:Rt表示重置門;Zt則表示更新門;Xt與Qt分別表示t時(shí)刻的輸入與輸出向量;Ht和表 示t時(shí)刻的隱藏狀態(tài)與候選隱藏狀態(tài)[21];Wxz、Wxr、Whr、Whz、Wxh、Whh、Whq是權(quán)重參數(shù);br、bz、bh、bq是偏差參數(shù);⊙表示矩陣的數(shù)乘;1-表示該鏈路向前傳播的數(shù)據(jù)為1-Zt;σ表示的sigmoid 函數(shù)可以將元素的值映射到[0,1]范圍內(nèi),因此重置門Rt和更新門Zt中每個(gè)元素的值域都是[0,1][22]。

        1.2 基于TLBGA 算法的GRU 優(yōu)化實(shí)現(xiàn)

        1.2.1 TLBGA 算法

        自動(dòng)尋找最優(yōu)超參數(shù)的方法較多,如粒子群優(yōu)化算法、蟻群算法、模擬退火算法以及遺傳算法。與遺傳算法相比,其他算法受初始值的影響較大,只能找到問題的局部最優(yōu)解。遺傳算法是一種基于遺傳和變異的模擬生物進(jìn)化機(jī)制的自適應(yīng)優(yōu)化算法,可以有效搜索多參數(shù)組合問題的目標(biāo)函數(shù)值(充分接近最優(yōu)值)[23]。與傳統(tǒng)算法相比,遺傳算法的優(yōu)勢在于可以使用概率、啟發(fā)式規(guī)則進(jìn)行最大搜索,從而比較適合大規(guī)模問題以及多維多模態(tài)問題的求解[24]。

        原始的GA 算法存在早熟收斂問題,很容易由于種群缺少多樣性個(gè)體而陷入局部最優(yōu)。為解決上述問題,本文在算法中加入一種基于TLBO 方法的新型變異算子,在解決早熟收斂問題的同時(shí),還可以提高解的質(zhì)量以及算法的收斂速度。這種算子可以讓選定的基因智能突變,以使染色體接近更好的解決方案,而不是隨機(jī)改變。因此,在每一代遺傳算法中,如果將基于適應(yīng)度的最佳解決方案視為教師,則其他染色體的選定基因會(huì)因教師的相同基因而發(fā)生突變。基于TLBO 的智能變異算子運(yùn)算公式如式(2)所示:

        其中:Tf為教學(xué)因子,它是操作員調(diào)整以設(shè)置收斂速度的設(shè)定系數(shù),此參數(shù)的值在0~1 之間隨機(jī)選擇;DGk,j表示第k個(gè)學(xué)習(xí)者的基因j的平均值與教師當(dāng)中相同基因j的值之間的差值;表示第k個(gè)學(xué)習(xí)者的基因j的更新值。

        TLBO的效果基于教師影響學(xué)生知識(shí)的教學(xué)過程。學(xué)生和教師是班級(jí)的兩個(gè)主要因素,該算法解釋了通過教師(稱為教師階段)和跟隨學(xué)生之間的討論(稱學(xué)生階段)進(jìn)行學(xué)習(xí)的兩種模式。該算法的總體由班級(jí)的一組學(xué)生(即學(xué)習(xí)者)組成。為學(xué)習(xí)者提供的不同主題與優(yōu)化問題的不同設(shè)計(jì)變量類似。班上最好的學(xué)生在每次迭代中成為老師,其他學(xué)生通過最好的學(xué)生的影響提高他們的體能。圖2 所示為基于教與學(xué)的變異(Teaching Learning Based Mutation,TLBM)算子的運(yùn)行流程。圖3 所示為TLBGA 算法的運(yùn)行流程。

        圖2 TLBM 算子運(yùn)行流程Fig.2 Procedure of running of TLBM operator

        圖3 TLBGA 算法運(yùn)行流程Fig.3 Procedure of running of TLBGA algorithm

        算法具體步驟如下:

        1)將需要尋優(yōu)的超參數(shù)輸入GA,生成初始種群,并評(píng)估適應(yīng)度;對(duì)適應(yīng)度進(jìn)行排序,選取適應(yīng)度最高的個(gè)體作為教師。

        2)進(jìn)行選擇、交叉以及基于教學(xué)的變異,在TLBM 中,通過教師引導(dǎo)學(xué)生以及學(xué)生與學(xué)生直接討論,兩種方式引導(dǎo)突變。

        3)評(píng)估子代種群個(gè)體適應(yīng)度,并進(jìn)行排序,選取排序后的前N個(gè)個(gè)體組成新種群,剩余個(gè)體舍棄。

        4)判斷是否滿足收斂標(biāo)準(zhǔn),若不滿足,則返回第2 步;若滿足,則到第5 步。

        5)輸出最優(yōu)解,得到最優(yōu)超參數(shù),結(jié)束。

        為驗(yàn)證TLBO 智能變異算子的有效性,本文將該算子與其他變異算子進(jìn)行了比較,如經(jīng)典變異遺傳算法(Classic Mutation Genetic Algorithm,CMGA)、交換變異遺傳算法(Swap Mutation Genetic Algorithm,SMGA)、轉(zhuǎn)位變異遺傳算法(Inversion Mutation Genetic Algorithm,IMGA)和爬行變異遺傳算法(Scramble Mutation Genetic Algorithm,ScMGA)。

        如表1 所示,經(jīng)過150 次迭代,SMGA、IMGA 和ScMGA 3 種算法得到的結(jié)果幾乎是相似的,而TLBGA 分別為2~5 個(gè)自變量的Sphere 函數(shù)找到了10-104、10-75、10-53和10-44大小的結(jié)果。因 此,可以很明顯地看出TLBGA 算法在尋優(yōu)后得到的解比其他算法具有更高的質(zhì)量。

        表1 Sphere 函數(shù)150 次迭代的最佳結(jié)果Table 1 Optimal results of 150 iterations of Sphere function

        1.2.2 超參數(shù)尋優(yōu)

        在機(jī)器學(xué)習(xí)中,超參數(shù)尋優(yōu)的本質(zhì)其實(shí)就是對(duì)損失函數(shù)進(jìn)行最優(yōu)化的過程,用算法去尋找損失曲面的全局最優(yōu)解,從而避免陷入手工尋優(yōu)中由于先驗(yàn)知識(shí)導(dǎo)致的局部最優(yōu)解[25]。

        將Sphere 函數(shù)圖假定為損失曲面圖,如圖4 所示,損失曲面中不同的路徑代表著一組組不同的超參數(shù)組合,比如當(dāng)選擇不同的激活函數(shù)時(shí),其模型每一層的輸出也會(huì)不同,從而導(dǎo)致尋優(yōu)路徑產(chǎn)生根本差異,尤其是在高維空間下。

        圖4 損失曲面示意圖Fig.4 Schematic diagram of loss surface

        本文用DNN 神經(jīng)網(wǎng)絡(luò)舉例,其輸出計(jì)算如式(3)所示:

        其中:X是包含訓(xùn)練點(diǎn)位置的向量;Z1是第1 層的輸出;σj、ωj和bj分別是與第j層相關(guān)聯(lián)的激活函數(shù)、權(quán)重和偏置向量;U是輸出向量;下標(biāo)M表示第M層,即輸出層。含有兩個(gè)隱藏層的DNN 模型結(jié)構(gòu)如圖5 所示。

        圖5 DNN 神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)Fig.5 Structure of DNN neural network

        如果沒有激活函數(shù),該模型就只是線性回歸模型,無法分析復(fù)雜的輸入數(shù)據(jù)。激活函數(shù)是一個(gè)線性或非線性函數(shù),用作相鄰層之間的數(shù)學(xué)門,以便每層的輸出通過激活函數(shù)到達(dá)下一層。因此,超參數(shù)在很大程度上影響模型的收斂速度和精度。

        1.2.3 基于TLBGA 優(yōu)化超參數(shù)

        使用TLBGA 算法在連續(xù)優(yōu)化中尋找超參數(shù)時(shí),必須考慮兩個(gè)先決條件:1)確定染色體;2)用于評(píng)估生成的解決方案的適應(yīng)度函數(shù)[26]。在這種情況下,使用二進(jìn)制數(shù)組對(duì)基因片段進(jìn)行編碼。圖6 所示為基因片段圖解。

        圖6 基因片段圖解Fig.6 Gene fragment diagram

        第1位到第5位表示隱藏層中神經(jīng)元個(gè)數(shù),第6位到第9 位表示批樣本數(shù)量,剩下的位用來表示學(xué)習(xí)率。將交叉熵的倒數(shù)作為適應(yīng)度函數(shù),以實(shí)現(xiàn)目標(biāo)最大化,如式(4)、式(5)所示:

        其中:為實(shí)際的概率分布值;gi為預(yù)測概率分布值。

        針對(duì)本文中的GRU 神經(jīng)網(wǎng)絡(luò)模型,選擇了對(duì)模型性能影響較大的3 種超參數(shù)進(jìn)行尋優(yōu),分別是隱藏層神經(jīng)元個(gè)數(shù)、批樣本數(shù)量以及學(xué)習(xí)率。如其中的批樣本大小,當(dāng)它過小時(shí),代表輸入網(wǎng)絡(luò)的數(shù)據(jù)樣本數(shù)過小,從而不具代表性,導(dǎo)致網(wǎng)絡(luò)難以收斂;當(dāng)它過大時(shí),又會(huì)使梯度方向過于明確,容易陷入局部最優(yōu)解,降低精度。表2 所示為本文GRU 網(wǎng)絡(luò)超參數(shù)的選擇范圍。

        表2 GRU 網(wǎng)絡(luò)超參數(shù)選擇范圍Table 2 GRU network hyperparameter selection range

        1.3 TLBGA-GRU 模型預(yù)測步驟

        本文采用TLBGA 算法對(duì)GRU 神經(jīng)網(wǎng)絡(luò)進(jìn)行優(yōu)化,將GRU 神經(jīng)網(wǎng)絡(luò)的隱含層神經(jīng)元個(gè)數(shù)、批樣本數(shù)量及學(xué)習(xí)率看作待優(yōu)化值,以輸出誤差作為目標(biāo)函數(shù),利用迭代取得最優(yōu)解。具體步驟如下:

        1)特征工程階段。對(duì)歷史數(shù)據(jù)進(jìn)行預(yù)處理,選取輸入特征,利用灰度關(guān)聯(lián)法對(duì)原始數(shù)據(jù)進(jìn)行關(guān)聯(lián)度分析,剔除冗余特征,保留關(guān)聯(lián)度高于均值的特征并組成新的特征集。

        2)問題與超參數(shù)確認(rèn)階段。將需要尋優(yōu)的部分輸入TLBGA 算法。首先對(duì)隱含層神經(jīng)元個(gè)數(shù)、批樣本數(shù)量及學(xué)習(xí)率進(jìn)行編碼,再利用TLBGA 算法對(duì)其進(jìn)行迭代尋優(yōu),若滿足停止條件,就將其輸回GRU 模型中,進(jìn)行超參數(shù)更新。

        3)預(yù)測階段。將數(shù)據(jù)分為訓(xùn)練集與測試集,利用訓(xùn)練集對(duì)TLBGA-GRU 模型進(jìn)行訓(xùn)練,優(yōu)化并更新網(wǎng)絡(luò)模型參數(shù),使其在對(duì)測試集進(jìn)行預(yù)測時(shí)擁有更好的效果,最后將篩選后的輸入數(shù)據(jù)輸入到訓(xùn)練好的模型中進(jìn)行預(yù)測,從而得到預(yù)測結(jié)果。

        4)評(píng)價(jià)階段。通過RMSE、MAPE 和R23 種指標(biāo)來判斷預(yù)測結(jié)果精度的高低,再經(jīng)過對(duì)比研究得到模型的優(yōu)劣。

        2 負(fù)荷預(yù)測特征與模型評(píng)價(jià)指標(biāo)

        2.1 特征關(guān)聯(lián)度分析

        電力負(fù)荷預(yù)測中的影響因素較多,例如天氣類型、風(fēng)力、節(jié)假日以及溫度等。由于影響因素中存在許多相似或冗余的部分,這些多余的部分浪費(fèi)大量算力,會(huì)使模型的預(yù)測精度下降。為了解決這一問題,本文采用灰色關(guān)聯(lián)度分析法對(duì)原始因素進(jìn)行關(guān)聯(lián)度分析,得到各因素之間關(guān)聯(lián)度的大小后再進(jìn)行篩選。計(jì)算公式如式(6)、式(7)所示:

        其中:y0表示歷史負(fù)荷序列;yi表示第i類其他特征序列:表示均值化后的第i其他特征序列;ri表示第i類其他特征與歷史負(fù)荷的關(guān)聯(lián)度,i∈[1,m],k∈[1,n];m為其他特征個(gè)數(shù);n為各特征序列的維度;ρ為分辨系數(shù),通常取0.5。

        2.2 模型精度評(píng)價(jià)指標(biāo)

        為了精確地研究TLBGA-GRU 模型的優(yōu)勢,采用平均絕對(duì)百分比誤差(Mean Absolute Percentage Error,MAPE)、均方根 誤差(Rooted Mean Squared Error,RMSE)和決定系數(shù)(R2)作為評(píng)價(jià)標(biāo)準(zhǔn),表達(dá)式分別如式(8)、式(9)、式(10)所示:

        其中:n表示預(yù)測樣本采樣點(diǎn)總個(gè)數(shù);yi為第i個(gè)采樣點(diǎn)的實(shí)際負(fù)荷值;為第i個(gè)采樣點(diǎn)的預(yù)測負(fù)荷值。MAPE 與RMSE 的取值范圍在[0,+∞)之間,當(dāng)預(yù)測負(fù)荷值趨近于實(shí)際負(fù)荷值時(shí),MAPE 與RMSE 也越趨近于0。因此,當(dāng)所得預(yù)測結(jié)果的MAPE 及RMSE越小時(shí),則說明文中模型的預(yù)測效果越好。另外,R2越接近1,表示模型的擬合度越好。

        2.3 TLBGA-GRU 模型的訓(xùn)練

        在模型的訓(xùn)練過程中,本文將TLBGA 算法的訓(xùn)練種群大小T設(shè)為20,迭代次數(shù)為100,Ps為0.1,Pc為0.3,Pm為15,選用交叉熵的倒數(shù)作為適應(yīng)度函數(shù),GRU 網(wǎng)絡(luò)的層數(shù)d設(shè)為3,將Droput 設(shè)為0.4 可防止網(wǎng)絡(luò)過擬合。

        3 負(fù)荷預(yù)測實(shí)驗(yàn)與分析

        3.1 數(shù)據(jù)預(yù)處理

        利用式(4)對(duì)所有原始數(shù)據(jù)進(jìn)行均值化處理,然后再用式(5)計(jì)算歷史其他特征因素與最大負(fù)荷數(shù)據(jù)的關(guān)聯(lián)度。表3 所示為計(jì)算的關(guān)聯(lián)度結(jié)果。

        表3 輸入特征關(guān)聯(lián)度分析Table 3 Correlation degree analysis of input features

        由表3 可知:關(guān)聯(lián)度平均值為0.880 971,本文選取關(guān)聯(lián)度高于平均值的特征組成新的特征集,具體分別為天氣類型、節(jié)假日類型、風(fēng)力。最后,將新的特征矩陣輸入到神經(jīng)網(wǎng)絡(luò)模型中進(jìn)行預(yù)測,從而得到更精確的預(yù)測結(jié)果。

        直接將篩選過后的歷史負(fù)荷數(shù)據(jù)、天氣類型、節(jié)假日類型及風(fēng)力等特征同時(shí)作為GRU 神經(jīng)網(wǎng)絡(luò)的輸入,會(huì)導(dǎo)致輸入數(shù)據(jù)的量綱無法統(tǒng)一,不利于模型參數(shù)的優(yōu)化。為了解決此類問題,可以通過離差標(biāo)準(zhǔn)化將原始數(shù)據(jù)轉(zhuǎn)化為落在[0,1]之間的數(shù)據(jù),將數(shù)據(jù)量綱歸一化,以便實(shí)現(xiàn)損失函數(shù)較快收斂,其表達(dá)式如式(11)所示:

        其中:X為歸一化后得到的輸入數(shù)據(jù);x為原始輸入數(shù)據(jù)。

        3.2 歐洲某地區(qū)電力負(fù)荷數(shù)據(jù)集預(yù)測結(jié)果分析

        為驗(yàn)證所提負(fù)荷預(yù)測模型的精確性,本文采用歐洲某地區(qū)2017年7月6日—2018年7月6日共365日的電力負(fù)荷數(shù)據(jù),每小時(shí)采樣一次,其中每天共有24條數(shù)據(jù),總共8 760條數(shù)據(jù)。本文將此負(fù)荷數(shù)據(jù)劃分為兩個(gè)數(shù)據(jù)集,訓(xùn)練集為前358天,測試集為最后7天,對(duì)測試集的日負(fù)荷進(jìn)行預(yù)測。為了評(píng)估所提方法的有效性,本文對(duì)模型進(jìn)行了訓(xùn)練,并與BP、RNN以及GRU等模型進(jìn)行比較。各模型誤差定量評(píng)價(jià)結(jié)果如表4和表5所示。

        表4 TLBGA-GRU 模型誤差定量評(píng)價(jià)結(jié)果Table 4 TLBGA-GRU model error quantitative evaluation results

        表5 不同模型誤差定量評(píng)價(jià)結(jié)果Table 5 Results of quantitative error evaluation of different models

        由表4 可知:TLBGA-GRU 的R2平均值為0.971,RMSE 平均值為519.62 kW,MAPE 平均值為2.05%。由表5 可知:對(duì)其他模型預(yù)測性能的分析表明,GRU 在評(píng)分性能指標(biāo)方面的預(yù)測效果最好。GRU 模型的R2平均值為81.2%,高于BP 模型和RNN 模型的平均值。報(bào)告的結(jié)果包括BP、RNN 和GRU 的均方根誤差(RMSE),分別為1 621.73 kW、738.36 kW、893.27 kW。綜上所述,相較于其他模型,所提方法在RMSE和MAPE指標(biāo)上都有明顯下降,表明在預(yù)測過程中整體預(yù)測精度和模型性能都有較大的提升。

        圖7所示為2018年7月5日15:00—7月6日15:00共24 個(gè)小時(shí)的各模型短期負(fù)荷預(yù)測曲線對(duì)比。由圖7 可以看出:TLBGA-GRU 預(yù)測模型預(yù)測精度更高,擬合效果也更好。在負(fù)荷變化的波谷處,BP、RNN 方法不能準(zhǔn)確分析負(fù)荷波動(dòng)規(guī)律,會(huì)導(dǎo)致精度嚴(yán)重下降,而GRU雖然波動(dòng)較小,但是整體預(yù)測曲線偏右,擬合效果較差。相比之下,本文中TLBGA-GRU 模型能更準(zhǔn)確地捕捉負(fù)荷波動(dòng)規(guī)律,使預(yù)測值更貼近真實(shí)值,提高預(yù)測精度。

        圖7 不同模型預(yù)測結(jié)果對(duì)比Fig.7 Comparison of prediction results of different models

        3.3 美國PJM電力市場公開負(fù)荷數(shù)據(jù)集預(yù)測結(jié)果分析

        本文選取美國PJM 電力市場提供的某地區(qū)的公開數(shù)據(jù)集進(jìn)行負(fù)荷預(yù)測的訓(xùn)練與測試,驗(yàn)證本文所提出模型的有效性。本文數(shù)據(jù)集包含了該地區(qū)2014 年3 月31 日—2014 年4 月30 日接近1 個(gè)月的負(fù)荷數(shù)據(jù),每15 分鐘采樣一次,其中每天共96 條數(shù)據(jù),總共2 880 條數(shù)據(jù)。本文將前29 天作為測試集,剩下的1 天作為測試集進(jìn)行負(fù)荷預(yù)測。

        表6 所示為測試集中日負(fù)荷不同模型精度對(duì)比。由表6 中可知:本文提出TLBGA-GRU 模型的R2的大小與其他模型相比最大,達(dá)到97.2%,而TLBGA-GRU 模型的RMSE 與MAPE 相對(duì)于其他3 種模型在不同程度上也都有所降低,其中MAPE 分別降低了4.92%、1.27%、0.74%。

        表6 不同模型精度對(duì)比Table 6 Comparison of accuracy of different models

        圖8所示為測試集中某天的日負(fù)荷預(yù)測結(jié)果對(duì)比。由圖8 可知:本文提出的TLBGA-GRU 模型能夠比較準(zhǔn)確地判斷真實(shí)負(fù)荷的走勢,與真實(shí)負(fù)荷曲線相比有更好的擬合度,因此具有更高的預(yù)測精度。

        圖8 日負(fù)荷預(yù)測結(jié)果對(duì)比Fig.8 Comparison of daily load prediction results

        4 結(jié)束語

        本文提出一種基于TLBGA-GRU 模型的短期電力負(fù)荷預(yù)測方法。通過TLBO 方法解決GA 算法的早熟收斂問題,得到混合后的具有更好尋優(yōu)能力的TLBGA 算法,并利用其對(duì)神經(jīng)網(wǎng)絡(luò)中超參數(shù)進(jìn)行尋優(yōu),更新優(yōu)化神經(jīng)網(wǎng)絡(luò)模型,克服手動(dòng)尋優(yōu)需要借助先驗(yàn)知識(shí)的缺陷,從而提高模型的整體預(yù)測精度。實(shí)驗(yàn)結(jié)果表明,該方法與BP 神經(jīng)網(wǎng)絡(luò)、RNN 神經(jīng)網(wǎng)絡(luò)、GRU 神經(jīng)網(wǎng)絡(luò)相比具有更高的精度。由于本文模型在負(fù)荷預(yù)測中對(duì)最終結(jié)果產(chǎn)生影響的因素種類較多,因此下一步將對(duì)數(shù)據(jù)的特征工程進(jìn)行改進(jìn),提取輸入特征,以提高預(yù)測模型的普適性及精度。

        猜你喜歡
        變異神經(jīng)網(wǎng)絡(luò)精度
        變異危機(jī)
        變異
        神經(jīng)網(wǎng)絡(luò)抑制無線通信干擾探究
        電子制作(2019年19期)2019-11-23 08:42:00
        基于DSPIC33F微處理器的采集精度的提高
        電子制作(2018年11期)2018-08-04 03:25:38
        GPS/GLONASS/BDS組合PPP精度分析
        基于神經(jīng)網(wǎng)絡(luò)的拉矯機(jī)控制模型建立
        復(fù)數(shù)神經(jīng)網(wǎng)絡(luò)在基于WiFi的室內(nèi)LBS應(yīng)用
        變異的蚊子
        基于支持向量機(jī)回歸和RBF神經(jīng)網(wǎng)絡(luò)的PID整定
        改進(jìn)的Goldschmidt雙精度浮點(diǎn)除法器
        在线观看免费人成视频| 免费a级毛片18禁网站免费| 国产精品亚洲а∨天堂2021| 五月天精品视频在线观看| 精品国产91久久久久久久a| av一区二区在线免费观看| 亚洲国产精品无码av| 国产精品黄在线观看免费软件| 99热这里只有精品国产66| 亚洲熟女av一区少妇| 强开小婷嫩苞又嫩又紧视频韩国| 亚洲成a∨人片在无码2023| 91亚洲人成手机在线观看| 蜜桃传媒免费观看视频| 色狠狠色狠狠综合天天| 亚洲欧洲精品成人久久曰影片| 国产剧情无码中文字幕在线观看不卡视频| 亚洲精品一区二区三区新线路| 日日摸天天碰中文字幕你懂的| 久久人人爽人人爽人人av东京热| 欧美人与物videos另类| 日韩精品一二三区乱码| 中文字幕人妻少妇引诱隔壁| 色欲av一区二区久久精品| 久久伊人久久伊人久久| 亚洲中字幕日产av片在线| 疯狂做受xxxx高潮欧美日本| 成人综合久久精品色婷婷| 一区二区三区亚洲视频| 亚洲精品无码久久久影院相关影片| 日韩国产欧美| 日本高清一区二区三区不卡| 天天躁日日躁狠狠躁av麻豆| 欧美性xxxx狂欢老少配| 激情人妻网址| 美女很黄很色国产av | 国产成年女人特黄特色毛片免| 亚洲中文字幕巨乳人妻| 视频女同久久久一区二区| 国产福利视频在线观看| 日本污视频|