亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于提升人工神經(jīng)網(wǎng)絡(luò)的短期負(fù)荷預(yù)測(cè)模型

        2021-05-07 10:37:18鄒紅波
        電工材料 2021年2期
        關(guān)鍵詞:人工神經(jīng)網(wǎng)絡(luò)權(quán)值偏差

        陶 娟,鄒紅波,周 冬

        (三峽大學(xué) 電氣與新能源學(xué)院,湖北宜昌 443000)

        引言

        電力負(fù)荷預(yù)測(cè)是考慮到歷史負(fù)荷、天氣、時(shí)間等信息,對(duì)未來(lái)電力負(fù)荷進(jìn)行預(yù)測(cè)。負(fù)荷預(yù)測(cè)包括發(fā)電調(diào)度、系統(tǒng)備用發(fā)電量的確定、市場(chǎng)運(yùn)行優(yōu)化等[1-3]。負(fù)荷預(yù)測(cè)對(duì)電力企業(yè)在電力采購(gòu)、發(fā)電、負(fù)荷切換、電壓控制、基礎(chǔ)設(shè)施建設(shè)等方面做出重要決策具有重要作用[4-5]。按預(yù)測(cè)持續(xù)時(shí)間分為長(zhǎng)期預(yù)測(cè)[6-8]和短期預(yù)測(cè)[9-13]。負(fù)荷預(yù)測(cè)包括傳統(tǒng)方法和基于人工智能的方法。前者包括時(shí)間序列[14],多元回歸[15]和狀態(tài)估計(jì)方法,而后者包括模糊邏輯[16]、支持向量機(jī)[17],人工神經(jīng)網(wǎng)絡(luò)(ANN)方法[18]。傳統(tǒng)的方法具有簡(jiǎn)單的優(yōu)點(diǎn),而基于人工智能的方法具有較高的預(yù)測(cè)精度,可以準(zhǔn)確地建模觀測(cè)負(fù)荷與所依賴的變量之間的高度非線性關(guān)系。

        利用集成學(xué)習(xí)進(jìn)一步提高了預(yù)測(cè)精度。集成學(xué)習(xí)中應(yīng)用最多的兩種算法是袋裝神經(jīng)網(wǎng)絡(luò)算法(BNN)和提升人工神經(jīng)網(wǎng)絡(luò)算法(BooNN)。兩種算法都將單個(gè)預(yù)測(cè)模型的輸出聚合起來(lái),以提高總體預(yù)測(cè)精度。BooNN技術(shù)基于迭代地生成許多ANN模型,在每個(gè)迭代中,生成的模型減少了預(yù)期輸出與前一個(gè)迭代中訓(xùn)練的模型之間的誤差。該模型通過前一個(gè)迭代的目標(biāo)輸出中減去加權(quán)估計(jì)值來(lái)更新每次迭代的目標(biāo)輸出。數(shù)值計(jì)算結(jié)果表明,與現(xiàn)有的算法相比,該方法具有更小的預(yù)測(cè)誤差。

        本研究采用一種基于提升人工神經(jīng)網(wǎng)絡(luò)的短期負(fù)荷預(yù)測(cè)方法,并進(jìn)行仿真驗(yàn)證預(yù)測(cè)誤差。

        1 人工神經(jīng)網(wǎng)絡(luò)

        人工神經(jīng)網(wǎng)絡(luò)算法的體系結(jié)構(gòu)包括三層:輸入層、隱含層和輸出層。第一層的輸入由不同的因素或特性組成。隱含層用以把輸入數(shù)據(jù)的特征抽象到另外的維度空間,來(lái)展現(xiàn)其更抽象化的特征,從而利用這些特征更好地進(jìn)行線性劃分。輸出層為最后一層,輸出預(yù)測(cè)值。

        每個(gè)隱含層包含有多個(gè)神經(jīng)元,每層的輸出由前一層的輸入乘以權(quán)重加上偏差得到。權(quán)重矩陣將輸出從前面的層擴(kuò)展到后面的層。神經(jīng)網(wǎng)絡(luò)算法的數(shù)學(xué)模型為:

        式中,xint為t時(shí)刻的輸入矢量,為輸入向量的各個(gè)分量,F(xiàn)為輸入?yún)?shù)的個(gè)數(shù);分別為第1層和第i層輸出矢量;為最后層的輸出,為標(biāo)量;L為總的層數(shù);ρ為各層的激活函數(shù);W1、Wi、WL分別為第1、i、L層的權(quán)值矩陣;b1、bi分別為第1、i層的偏差向量,bL為第L層的偏差,為標(biāo)量。

        通過改變權(quán)值和偏差對(duì)神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,并將所得到的預(yù)測(cè)輸出與輸入訓(xùn)練數(shù)據(jù)比較,得到權(quán)值和偏差的變化,進(jìn)而得到目標(biāo)輸出。通過訓(xùn)練使預(yù)測(cè)輸出與目標(biāo)輸出之間的差異最小化,數(shù)學(xué)表示為:

        式中,xouttarg為目標(biāo)輸出值;W為權(quán)值矩陣集合;b為偏差向量集合。分別表示為:

        通過隨機(jī)梯度下降算法對(duì)權(quán)值和偏差進(jìn)行更新。利用部分訓(xùn)練樣本得到上述目標(biāo)函數(shù),并根據(jù)權(quán)值和偏差計(jì)算目標(biāo)函數(shù)的梯度。通過從權(quán)重和偏差中減去一個(gè)因子加權(quán)的計(jì)算梯度來(lái)更新權(quán)重和偏差。

        2 基于BooNN的負(fù)荷預(yù)測(cè)模型

        在短期電力負(fù)荷預(yù)測(cè)中,預(yù)測(cè)模型反映了影響電力負(fù)荷的各種獨(dú)立參數(shù)X在離散時(shí)間序列上的取值,與這些時(shí)刻測(cè)量到的相應(yīng)負(fù)荷值y之間的關(guān)系。描述X與y關(guān)系的模型i應(yīng)滿足以下要求:

        (2)預(yù)測(cè)值具有較低的方差。不同模型的預(yù)測(cè)值與所有模型的預(yù)測(cè)平均值之間不存在較大差異。

        (3)函數(shù)應(yīng)避免過擬合。該模型應(yīng)該能夠忽略預(yù)測(cè)中的隨機(jī)誤差。

        由于該模型是一個(gè)高度非線性的函數(shù),基于人工智能的算法在處理非線性關(guān)系方面具有很大的優(yōu)勢(shì),本研究采用了基于人工神經(jīng)網(wǎng)絡(luò)的總體學(xué)習(xí)方法,提升人工神經(jīng)網(wǎng)絡(luò)算法。使用一組人工神經(jīng)網(wǎng)絡(luò)模型,其中每個(gè)模型都是通過對(duì)不同數(shù)據(jù)集的訓(xùn)練得到的,然后將這組模型(也稱為總體)融合在一起,得到最終的估計(jì)預(yù)測(cè)。改進(jìn)模型是通過迭代生成,圖1為提升算法的流程。

        圖1 改進(jìn)人工神經(jīng)網(wǎng)絡(luò)算法的流程

        首先,在第i次迭代中使用原始訓(xùn)練數(shù)據(jù)生成初始模型,這些原始訓(xùn)練數(shù)據(jù)包含獨(dú)立的特征和相應(yīng)的目標(biāo)輸出。在第i+1次迭代中,將輸出目標(biāo)替換為第一個(gè)模型預(yù)測(cè)的誤差,從而生成新的模型:

        式中,hi是目標(biāo)輸出與使用第i次迭代后模型的輸出之間的誤差,αi是每個(gè)模型的權(quán)重。迭代過程生成了M個(gè)模型,所有這些模型形成的集合為:

        預(yù)測(cè)因子的線性組合表示為:

        針對(duì)負(fù)荷預(yù)測(cè)問題,考慮由自變量Xtr和負(fù)荷ytr組成的訓(xùn)練數(shù)據(jù)集,改進(jìn)算法的步驟如下:

        (1)參數(shù)定義。定義總體中迭代的總數(shù)為M,權(quán)重αi為常量為ytr。

        (2)迭代生成模型。第一次迭代的模型為:

        (3)從i=2到i=M,殘差按照下式進(jìn)行迭代:

        利用更新后的殘差計(jì)算出一個(gè)新的神經(jīng)網(wǎng)絡(luò)模型:

        更新過程使用在每個(gè)迭代中權(quán)值的估計(jì)值,只使用與目標(biāo)輸出和訓(xùn)練模型得到的輸出之間的差值相關(guān)的部分信息,可以防止過度擬合。

        (4)在所有迭代結(jié)束時(shí),每次迭代得到的所有神經(jīng)網(wǎng)絡(luò)模型即為集合Ψ。

        (5)在給定參數(shù)X的情況下,預(yù)測(cè)負(fù)荷以集成模型輸出的加權(quán)和的形式計(jì)算如下:

        3 算例仿真

        采用文獻(xiàn)[19]中的歷史小時(shí)溫度和負(fù)荷數(shù)據(jù),這些參數(shù)是短期負(fù)荷預(yù)測(cè)的典型參數(shù)。訓(xùn)練數(shù)據(jù)集由這些變量組成的數(shù)據(jù)向量構(gòu)成,目標(biāo)輸出與這些數(shù)據(jù)中給定時(shí)刻測(cè)量的電力負(fù)荷相對(duì)應(yīng)。

        3.1 BooNN中ANN模型的選擇

        表1為不同時(shí)段數(shù)對(duì)平均絕對(duì)誤差率的影響。對(duì)于大于500個(gè)時(shí)段數(shù)、大于20個(gè)節(jié)點(diǎn)和大于1個(gè)隱含層數(shù)時(shí),性能沒有顯著提高。在300個(gè)或更多的時(shí)代,EMAP幾乎保持不變。隨著節(jié)點(diǎn)數(shù)的增加,EMAP減少,而當(dāng)節(jié)點(diǎn)數(shù)超過20時(shí),EMAP不再減少。此外,對(duì)于固定數(shù)量的節(jié)點(diǎn),當(dāng)隱含層從1增加到2時(shí),EMAP的變化非常小。對(duì)于20個(gè)節(jié)點(diǎn),1個(gè)隱含層的性能與10個(gè)節(jié)點(diǎn),2個(gè)隱含層的性能相似?;谶@些結(jié)果,選擇的ANN模型參數(shù)為500個(gè)時(shí)段數(shù),1個(gè)隱含層包含20個(gè)節(jié)點(diǎn)。

        表1 不同時(shí)段數(shù)對(duì)平均絕對(duì)誤差率的影響

        3.2 迭代次數(shù)和樣本大小的確定

        不同迭代次數(shù)和訓(xùn)練樣本大小對(duì)負(fù)荷預(yù)測(cè)精度的影響如表2~3所示。對(duì)于相同的迭代次數(shù),隨著訓(xùn)練樣本數(shù)量的增加,EMAP減小。樣本大于20 000時(shí),對(duì)于每個(gè)樣本大小,25次迭代小于5次迭代的EMAP。隨著迭代次數(shù)增加,EMAP會(huì)有所減少并在最小值附近有一些波動(dòng)。15 000個(gè)樣本時(shí)訓(xùn)練樣本的大小不夠,在這種情況下,EMAP隨著迭代的增加而增加,因?yàn)樵谝欢ǖ牡螖?shù)之后,會(huì)導(dǎo)致過度擬合。

        表2 不同節(jié)點(diǎn)數(shù)和層數(shù)對(duì)平均絕對(duì)誤差率的影響

        表3 不同樣本數(shù)和迭代數(shù)對(duì)平均絕對(duì)誤差率的影響

        圖2為樣本數(shù)為25 000和35 000時(shí)平均絕對(duì)誤差率與迭代次數(shù)的關(guān)系。EMAP隨著迭代次數(shù)的增加而減小,特別是當(dāng)?shù)螖?shù)大于12次時(shí),35 000個(gè)樣本時(shí)的EMAP小于25 000個(gè)樣本的。但差別較小且隨著迭代次數(shù)大于10次時(shí)EMAP變化較小,因此可以選擇樣本大小為25 000,迭代次數(shù)為10次。

        圖2 樣本數(shù)對(duì)平均絕對(duì)誤差率的影響

        3.3 與現(xiàn)有算法性能的比較

        選取文獻(xiàn)[19]中該地區(qū)2018年8月1日~9月1日的數(shù)據(jù)作為訓(xùn)練樣本,預(yù)測(cè)10月1日~12日的小時(shí)負(fù)荷。將通過BooNN算法得到的平均絕對(duì)誤差率與現(xiàn)有的方法進(jìn)行比較,包括袋裝神經(jīng)網(wǎng)絡(luò)算法(BNN)、自回歸滑動(dòng)平均算法(ARMA)、混合無(wú)監(jiān)督神經(jīng)網(wǎng)絡(luò)算法(HybANN)、基于典型日的小波神經(jīng)網(wǎng)絡(luò)(SIWNN)。

        圖3為與現(xiàn)有算法預(yù)測(cè)性能比較,BooNN的誤差率與ARMA、HybANN和SIWNN均有顯著性差異。雖然與BNN相比,其改進(jìn)幅度較小,但BooNN在計(jì)算速度上更有優(yōu)勢(shì)。BooNN的平均預(yù)測(cè)值為1.42%,ARMA、HybANN、BNN和SIWNN的平均預(yù)測(cè)值分別為2.21%、1.94%、1.47%和1.93%,說(shuō)明BooNN具有更高的預(yù)測(cè)精度。

        圖3 與現(xiàn)有算法預(yù)測(cè)性能比較

        4 結(jié)論

        本研究提出了一種基于提升人工神經(jīng)網(wǎng)絡(luò)(BooNN)的短期負(fù)荷預(yù)測(cè)方法。通過仿真,當(dāng)計(jì)算輸出的模型個(gè)數(shù)大于或等于20時(shí),可以獲得較低的預(yù)測(cè)誤差。通過與BNN、ARMA、HybANN和SI‐WNN的預(yù)測(cè)性能比較,進(jìn)一步證明用BooNN得到的誤差更小,波動(dòng)也更小。

        猜你喜歡
        人工神經(jīng)網(wǎng)絡(luò)權(quán)值偏差
        一種融合時(shí)間權(quán)值和用戶行為序列的電影推薦模型
        CONTENTS
        如何走出文章立意偏差的誤區(qū)
        兩矩形上的全偏差
        利用人工神經(jīng)網(wǎng)絡(luò)快速計(jì)算木星系磁坐標(biāo)
        人工神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)簡(jiǎn)單字母的識(shí)別
        電子制作(2019年10期)2019-06-17 11:45:10
        基于權(quán)值動(dòng)量的RBM加速學(xué)習(xí)算法研究
        關(guān)于均數(shù)與偏差
        基于聲發(fā)射和人工神經(jīng)網(wǎng)絡(luò)的混凝土損傷程度識(shí)別
        自適應(yīng)兩級(jí)UKF算法及其在時(shí)變偏差估計(jì)中的應(yīng)用
        国产一区二区在线视频| 最新中文字幕乱码在线| 加勒比婷婷色综合久久| 亚洲综合av大全色婷婷| 99爱在线精品免费观看| 色妞www精品视频| 99精品免费视频| 日韩美女人妻一区二区三区| 日本a级特级黄色免费| 亚洲色成人www永久在线观看 | 亚洲女同性恋激情网站| 亚洲精品国产第一区二区| 国产一区二区女内射| 成人国产午夜在线视频| 麻豆av一区二区天堂| 日韩精品一区二区三区人妻在线| 精品国偷自产在线视频九色| 日韩无套内射视频6| 欧美性爱一区二区三区无a| 激情综合欧美| 国产精品女同久久免费观看| 亚洲一区二区三区自拍麻豆| 大奶白浆视频在线观看| 久久精品国产亚洲av麻豆| 久久亚洲国产精品成人av秋霞| 精品黄色av一区二区三区| 蜜桃视频第一区免费观看| 国产精品一卡二卡三卡| 在线看亚洲十八禁网站| 一本久久精品久久综合桃色| 日本久久精品视频免费| 爱性久久久久久久久| 在线亚洲综合| 精品中文字幕久久久人妻| 久久午夜福利无码1000合集| 中文字幕精品久久久久人妻红杏1| 久久精品国产亚洲av成人擦边 | 久久久av精品波多野结衣| 国内精品一区二区2021在线| 日韩精品一区二区亚洲专区| 不卡av电影在线|