亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于CNN-LSTM-Attention的配電網(wǎng)拓?fù)鋵?shí)時辨識方法

        2024-03-28 02:11:24凌佳凱章逸舟胡金峰費(fèi)有蝶
        浙江電力 2024年3期
        關(guān)鍵詞:配電網(wǎng)特征模型

        凌佳凱,章逸舟,胡金峰,秦 軍,戴 健,費(fèi)有蝶,朱 振

        (1. 國網(wǎng)江蘇省電力有限公司無錫供電分公司,江蘇 無錫 214061;2. 河海大學(xué) 電氣與動力工程學(xué)院,南京 211100)

        0 引言

        隨著現(xiàn)代電力系統(tǒng)的不斷發(fā)展,配電網(wǎng)中新能源滲透率持續(xù)增加,配電網(wǎng)的調(diào)度運(yùn)行、電能質(zhì)量和系統(tǒng)保護(hù)等方面將迎來新的挑戰(zhàn),不僅配電系統(tǒng)中的不確定性顯著增加,其運(yùn)行方式也愈發(fā)復(fù)雜多變。由于配電網(wǎng)運(yùn)行過程中的經(jīng)濟(jì)性和可靠性要求,需要頻繁進(jìn)行網(wǎng)絡(luò)拓?fù)渲貥?gòu),因此網(wǎng)絡(luò)拓?fù)鋸?fù)雜多變[1]。然而,配電網(wǎng)拓?fù)浔孀R與潮流計算、狀態(tài)估計、故障定位等方面存在密切聯(lián)系,可為含高比例新能源的配電網(wǎng)優(yōu)化運(yùn)行提供解決方案,因此拓?fù)浔孀R具有重要意義[2-7]。

        根據(jù)辨識技術(shù)的不同,部分研究將現(xiàn)代配電網(wǎng)拓?fù)浔孀R方法劃分為傳統(tǒng)辨識方法和人工智能辨識方法[8]。在已有的傳統(tǒng)辨識方法中,主要可以分為相關(guān)性判斷法、信號注入法和線性規(guī)劃法等[9]。文獻(xiàn)[10]利用配電網(wǎng)的量測時序數(shù)據(jù),采用潮流計算方法構(gòu)建原始拓?fù)浣Y(jié)構(gòu)庫,并比對輸入量測數(shù)據(jù)與拓?fù)鋷熘械臉颖?,選定誤差最小的拓?fù)錇樽罱K辨識類型。文獻(xiàn)[11]利用配電網(wǎng)偽測量輔助傳統(tǒng)WLS(加權(quán)最小二乘)狀態(tài)估計。文獻(xiàn)[12]提出一種“有功電流注入+頻域信號檢測”作為低壓配電網(wǎng)中的拓?fù)渥R別技術(shù)方案,實(shí)現(xiàn)了配電網(wǎng)數(shù)字化運(yùn)行。文獻(xiàn)[13]通過生成節(jié)點(diǎn)與支路的關(guān)聯(lián)矩陣,并根據(jù)矩陣分析母線狀態(tài),形成待辨識區(qū)域的生成樹,完成了配電網(wǎng)拓?fù)浔孀R工作。文獻(xiàn)[14]通過馬爾可夫隨機(jī)場模型挖掘配電網(wǎng)節(jié)點(diǎn)電壓間的關(guān)聯(lián)性,避免了饋線和變壓器間拓?fù)浔孀R錯誤。上述方法往往需要復(fù)雜的運(yùn)算,影響了拓?fù)湓诰€辨識的時效性。

        隨著人工智能技術(shù)的發(fā)展,基于機(jī)器學(xué)習(xí)的拓?fù)浔孀R方法逐漸應(yīng)用于相關(guān)領(lǐng)域。文獻(xiàn)[15]建立了兩種神經(jīng)網(wǎng)絡(luò)體系,分別訓(xùn)練不同的線路及節(jié)點(diǎn)并共享節(jié)點(diǎn)的信息,實(shí)現(xiàn)配電網(wǎng)拓?fù)浔孀R。文獻(xiàn)[16]基于最小生成樹算法生成配電網(wǎng)拓?fù)涞泥徑泳仃嚕⒔Y(jié)合線性回歸和Distflow潮流模型進(jìn)行拓?fù)浣Y(jié)構(gòu)辨識。文獻(xiàn)[17]提出了一種基于GCN(圖卷積網(wǎng)絡(luò))的思路,根據(jù)配電網(wǎng)中各分布式單元斷路器的開斷狀態(tài)實(shí)現(xiàn)拓?fù)浔孀R,但該方法輸入的節(jié)點(diǎn)信息僅限于節(jié)點(diǎn)電壓數(shù)據(jù)。文獻(xiàn)[18]考慮了配電網(wǎng)內(nèi)多種參數(shù)特征,將有功功率、無功功率、電壓幅值等量測量歸一化處理并作為DNN(深度神經(jīng)網(wǎng)絡(luò))的輸入,實(shí)現(xiàn)配電網(wǎng)的拓?fù)浔孀R。文獻(xiàn)[19]提出了由LightGBM(輕量梯度提升機(jī))篩選配電網(wǎng)節(jié)點(diǎn)的量測信息,最終選用電壓幅值作為DNN輸入特征。但以上機(jī)器學(xué)習(xí)模型架構(gòu)較簡單,難以學(xué)習(xí)量測數(shù)據(jù)深層特征,并且無法區(qū)分不同量測數(shù)據(jù)的重要性差異,導(dǎo)致拓?fù)浔孀R準(zhǔn)確率不高。

        針對已有拓?fù)浔孀R方法精度不足的缺陷,本文構(gòu)建了采用時間斷面量測進(jìn)行特征學(xué)習(xí)的配電網(wǎng)拓?fù)浔孀R框架,提出基于CNN-LSTM-Attention(卷積神經(jīng)網(wǎng)絡(luò)-長短期記憶網(wǎng)絡(luò)-注意力機(jī)制)模型的智能配電網(wǎng)拓?fù)浔孀R方法。所提方法能夠應(yīng)對配電網(wǎng)拓?fù)溥\(yùn)行狀態(tài)頻繁變化的場景,滿足拓?fù)湓诰€辨識的時效性。該方法基于Attention 篩選出拓?fù)浔孀R任務(wù)中的有效特征,以應(yīng)對少量實(shí)時量測的情形。在IEEE 33 和PG&E69 節(jié)點(diǎn)配電網(wǎng)算例中,驗(yàn)證了本文方法對于輻射狀和弱環(huán)網(wǎng)運(yùn)行的有源配電網(wǎng)能夠?qū)崿F(xiàn)高精度和高效率的拓?fù)浔孀R。

        1 配電網(wǎng)拓?fù)浔孀R框架

        1.1 主要模型框架設(shè)計

        本文提出的基于CNN-LSTM-Attention 的配電網(wǎng)拓?fù)浔孀R框架見圖1,選擇部分節(jié)點(diǎn)接入PV(光伏)、WT(風(fēng)力發(fā)電),該框架包含4 個部分:配電網(wǎng)量測訓(xùn)練數(shù)據(jù)集生成、量測數(shù)據(jù)預(yù)處理、基于CNN-LSTM-Attention 的智能拓?fù)浔孀R模型離線訓(xùn)練和根據(jù)實(shí)時量測輸入的在線拓?fù)浔孀R應(yīng)用。

        圖1 基于CNN-LSTM-Attention的配電網(wǎng)拓?fù)浔孀R框架Fig.1 The framework of distribution network topology identification based on CNN-LSTM-Attention

        首先,通過配電網(wǎng)SCADA(數(shù)據(jù)采集與監(jiān)控)系統(tǒng)采集配電網(wǎng)不同拓?fù)浣Y(jié)構(gòu)下的多個斷面量測數(shù)據(jù),并對該量測數(shù)據(jù)進(jìn)行預(yù)處理;其次,將不同拓?fù)浣Y(jié)構(gòu)標(biāo)簽與對應(yīng)的配電網(wǎng)歷史量測數(shù)據(jù)共同構(gòu)建初始訓(xùn)練數(shù)據(jù)集;進(jìn)而,在模型離線訓(xùn)練階段,將訓(xùn)練數(shù)據(jù)輸入已調(diào)參的CNN-LSTMAttention 配電網(wǎng)拓?fù)浔孀R模型中迭代訓(xùn)練,在迭代過程中模型逐步縮小預(yù)測輸出和實(shí)際輸出的偏差值,以此學(xué)習(xí)量測數(shù)據(jù)集與拓?fù)浣Y(jié)構(gòu)間的映射關(guān)系。最后,在在線應(yīng)用階段中將實(shí)時斷面量測數(shù)據(jù)輸入已迭代完畢的模型中,便可智能辨識出對應(yīng)拓?fù)涞慕Y(jié)構(gòu)類型。

        1.2 配電網(wǎng)量測數(shù)據(jù)獲取和處理

        1.2.1 量測數(shù)據(jù)獲取

        對于任一給定的配電網(wǎng),在潮流求解方程中若確定了節(jié)點(diǎn)注入有功功率、節(jié)點(diǎn)注入無功功率、節(jié)點(diǎn)電壓幅值和相鄰節(jié)點(diǎn)間電壓相角差中的其中2 組具體數(shù)據(jù),便可根據(jù)潮流方程確定當(dāng)前配電網(wǎng)的狀態(tài),具體如下:

        式中:Pi、Qi、Ui分別為節(jié)點(diǎn)i的注入有功功率、注入無功功率和電壓幅值;θij為節(jié)點(diǎn)i和節(jié)點(diǎn)j之間的相角差;Gij為節(jié)點(diǎn)i和節(jié)點(diǎn)j之間的支路電導(dǎo);Bij為節(jié)點(diǎn)i和節(jié)點(diǎn)j之間的支路電納;j∈i表示和節(jié)點(diǎn)i相連的所有節(jié)點(diǎn)j。

        由于實(shí)際配電網(wǎng)龐大的網(wǎng)絡(luò)結(jié)構(gòu)以及有限的量測裝置,易獲取的量測數(shù)據(jù)包括節(jié)點(diǎn)電壓幅值和節(jié)點(diǎn)注入功率等,并且由于裝置硬件誤差和通信問題等原因,部分配電網(wǎng)的實(shí)時量測數(shù)據(jù)精度不高。隨著電網(wǎng)技術(shù)發(fā)展,PMU(同步相量測量單元)、微型PMU 和智能電表等量測設(shè)備不僅能做到量測數(shù)據(jù)同時標(biāo)注,且大幅度降低了數(shù)據(jù)量測誤差,但由于技術(shù)和成本的限制,以上裝置在實(shí)際配電網(wǎng)中的裝配數(shù)量較少。鑒于此,本文選用配電網(wǎng)中易獲取的部分?jǐn)嗝媪繙y數(shù)據(jù)(節(jié)點(diǎn)電壓幅值U及節(jié)點(diǎn)注入有功功率P)作為拓?fù)浔孀R模型輸入的主要特征。

        1.2.2 量測數(shù)據(jù)歸一化

        由于配電網(wǎng)穩(wěn)定性較高,較近的負(fù)荷間距離使得線損相對較小,因此相鄰節(jié)點(diǎn)電壓幅值比較接近。對于不同拓?fù)浣Y(jié)構(gòu)下的同一節(jié)點(diǎn),其電壓幅值標(biāo)幺值差異較小,若采用未處理的初始量測數(shù)據(jù)訓(xùn)練配電網(wǎng)拓?fù)浔孀R模型,會影響模型分析樣本間的差異性,進(jìn)而影響辨識效果。鑒于此,本文將電壓幅值量測數(shù)據(jù)采用min-max 標(biāo)準(zhǔn)化方法進(jìn)行歸一化處理:

        式中:U和Unorm分別為該節(jié)點(diǎn)電壓幅值經(jīng)歸一化前、后的具體數(shù)值;Umax和Umin分別為該節(jié)點(diǎn)處歷史電壓幅值的最大值和最小值。

        同理,也應(yīng)對節(jié)點(diǎn)注入有功功率進(jìn)行歸一化處理,避免取值量綱不統(tǒng)一對模型訓(xùn)練產(chǎn)生的負(fù)面影響:

        式中:P和Pnorm分別為該節(jié)點(diǎn)注入有功功率經(jīng)歸一化前、后的具體數(shù)值;Pmax和Pmin分別為該節(jié)點(diǎn)處歷史注入有功功率的最大值和最小值。

        2 基于CNN-LSTM-Attention 的配電網(wǎng)拓?fù)浔孀R模型原理

        2.1 CNN結(jié)構(gòu)

        CNN 是具有深層特征學(xué)習(xí)能力的經(jīng)典前饋神經(jīng)網(wǎng)絡(luò),以局部感知與權(quán)值共享的方式深度學(xué)習(xí)和提取輸入數(shù)據(jù)中蘊(yùn)含的主要特征[20]。卷積層的卷積計算表達(dá)式為:

        卷積核的具體計算操作以圖2為示例,若以單節(jié)點(diǎn)的注入有功功率和電壓幅值作為輸入的某個子矩陣,通過含3通道的2×1尺寸的卷積核和偏置向量計算后,將生成尺寸為3×2的卷積輸出。

        圖2 卷積核計算示意圖Fig.2 Schematic diagram of convolution kernel computation

        CNN 通常包含池化層,但考慮到本模型輸入特征量較少,為盡量保留卷積層提取到的各量測量局部特征,無需池化層對卷積輸出實(shí)現(xiàn)降維。

        2.2 LSTM結(jié)構(gòu)

        RNN(循環(huán)神經(jīng)網(wǎng)絡(luò))擅長處理序列數(shù)據(jù),但應(yīng)用時存在梯度消失或梯度爆炸的問題,LSTM在RNN 的基礎(chǔ)上,通過引入“門”機(jī)制,解決了RNN的梯度消失和梯度爆炸問題[21]。LSTM單元結(jié)構(gòu)如圖3所示。

        圖3 LSTM單元結(jié)構(gòu)Fig.3 Structure of LSTM cells

        LSTM 的網(wǎng)絡(luò)結(jié)構(gòu)包括輸入門、遺忘門、記憶單元和輸出門。其中,輸入門由Sigmoid神經(jīng)網(wǎng)絡(luò)層和tanh 激活層組成,該門結(jié)構(gòu)對當(dāng)前時刻網(wǎng)絡(luò)輸入進(jìn)行控制,計算當(dāng)前輸入保存到記憶單元的信息。

        式中:it和?分別為輸入門的輸出和臨時記憶單元的輸出;Wi和Wc分別為輸入門和更新后的權(quán)重;ht-1和xt分別為前一時刻隱含層輸入和當(dāng)前時刻輸入;bi和bc分別為輸入門和臨時記憶單元的偏置;σ(?)表示Sigmoid激活函數(shù)。

        遺忘門對上一時刻隱含層中的信息進(jìn)行控制,計算出能保留在當(dāng)前時刻記憶單元中的信息,從而實(shí)現(xiàn)長期重要信息的保存。計算公式如下:

        式中:ft、Wf、bf分別為遺忘門的輸出、權(quán)重和偏置值。

        記憶單元由遺忘門的輸出和輸入門的臨時記憶單元兩部分組成,遺忘門保留了序列數(shù)據(jù)的長期重要信息,輸入門單元使得當(dāng)前時刻的無用信息不進(jìn)入記憶單元。計算過程為:

        式中:Ct為當(dāng)前時刻記憶單元輸出值;Ct-1為前一時刻記憶單元輸出值。

        輸出門為網(wǎng)絡(luò)輸出結(jié)果,由當(dāng)前輸入、記憶單元和前一時刻隱含層共同確定。計算公式如下:

        式中:Ot和ht分別為輸出門和隱含層的輸出;Wo和bo分別為輸出門的權(quán)重和偏置值。

        2.3 Attention

        Attention 起初源于計算機(jī)視覺領(lǐng)域,核心目標(biāo)是從給定的所有信息中選擇出對當(dāng)前目標(biāo)任務(wù)更關(guān)鍵的信息[22]。由于配電網(wǎng)輸入量測信息重要程度的區(qū)分需求,需計算不同量測信息的注意力分?jǐn)?shù),并按照該分?jǐn)?shù)對量測信息賦予不同特征權(quán)重。在Attention 模型中,可以把計算注意力分?jǐn)?shù)的對象抽象為查詢向量和鍵值矩陣,如圖4 所示,查詢向量對應(yīng)解碼器狀態(tài),鍵矩陣對應(yīng)編碼器狀態(tài)。輸入注意力層的序列數(shù)據(jù)由鍵值對構(gòu)成。對于給定的查詢向量,這里首先按照鍵值矩陣K中各向量相似性以點(diǎn)積乘法的方式計算注意力分?jǐn)?shù):

        圖4 Attention模型Fig.4 Attention model

        式中:Sscore(q,ki)表示查詢向量q和任一時刻i的鍵值向量ki按照點(diǎn)積乘法求得的注意力分?jǐn)?shù)。

        隨后,對注意力分?jǐn)?shù)進(jìn)行歸一化,使得所有鍵值對應(yīng)的注意力分?jǐn)?shù)總和為1,即:

        式中:n為總時間步長。

        根據(jù)計算出的各時刻鍵值向量ki對應(yīng)注意力分?jǐn)?shù)αi,可以對值向量矩陣V進(jìn)行加權(quán)求和,從而得到對應(yīng)t時刻的Attention輸出為:

        式中:vi為t時刻的值向量。

        2.4 基于CNN-LSTM-Attention 的深度學(xué)習(xí)拓?fù)浔孀R模型

        本文將Attention與CNN、LSTM相結(jié)合,提出一種基于CNN-LSTM-Attention 的深度學(xué)習(xí)配電網(wǎng)拓?fù)浔孀R模型。首先,通過CNN挖掘單一節(jié)點(diǎn)和局部節(jié)點(diǎn)間的量測數(shù)據(jù)特征;其次,由LSTM 層解析拓?fù)浣Y(jié)構(gòu)全局節(jié)點(diǎn)量測之間的關(guān)聯(lián)性;最后,在模型引入了自注意力結(jié)構(gòu),增強(qiáng)對于各節(jié)點(diǎn)量測特征信息的重要性區(qū)分,進(jìn)一步提取輸入量測的深層次特征。該模型共分為6層,分別為輸入層、卷積層、拼接層、LSTM 層、注意力層和輸出層,模型整體結(jié)構(gòu)見圖5。

        圖5 基于CNN-LSTM-Attention的配電網(wǎng)拓?fù)浔孀R模型Fig.5 Topology identification model of distribution networks based on CNN-LSTM-Attention

        1)輸入層:將同一時間斷面的n個節(jié)點(diǎn)的節(jié)點(diǎn)電壓幅值和注入有功功率經(jīng)數(shù)據(jù)標(biāo)準(zhǔn)化后的堆疊量測矩陣H∈R2×n作為輸入。

        2)卷積層:對于輸入量測矩陣H∈R2×n,采用行數(shù)和H相同、列數(shù)為e的卷積矩陣Wc∈R2×e對其進(jìn)行卷積操作。

        具體實(shí)現(xiàn)方式為:對H從左到右按照固定的間隔s平滑移動卷積矩陣Wc并進(jìn)行重復(fù)卷積操作。若設(shè)置卷積核移動固定間隔為1,則單次卷積計算生成的卷積向量為。

        式中:ra為第a次卷積運(yùn)算的卷積向量;符號?表示矩陣間的哈達(dá)瑪積;Ha:a+e-1為輸入量測矩陣H第a列至第a+e-1列向量構(gòu)成的子矩陣。

        將各卷積向量經(jīng)過ReLU 激活函數(shù)的非線性變換操作得到:

        式中:ga為第a次卷積運(yùn)算并經(jīng)ReLU激活函數(shù)生成的特征向量;ba為hi的偏置向量,其中hi為編碼向量,其表達(dá)式見式(17)。將同類型卷積操作生成的特征向量ga按順序堆疊生成量測特征圖G。

        模型中分別采用2×1 和2×2 尺寸的卷積核進(jìn)行卷積運(yùn)算,以此獲取單一節(jié)點(diǎn)內(nèi)的局部量測特征,并解析相鄰節(jié)點(diǎn)量測間可能存在的局部關(guān)聯(lián)特征。為確保輸出的特征圖維度相同,采用Same Padding 的同尺寸填充方式,將超出邊界部分的卷積核補(bǔ)0 填充,因此兩種卷積方式輸出的G1∈Rn×h和G2∈Rn×h維度相同,其中h為卷積核的通道數(shù)。

        3)拼接層:將卷積層以兩種卷積特征解構(gòu)方式產(chǎn)生的量測特征圖G1和G2進(jìn)行堆疊,形成拼接特征矩陣Gstack∈Rn×2h,為下游網(wǎng)絡(luò)的序列特征學(xué)習(xí)提供了先決條件。

        4)LSTM 層:用于學(xué)習(xí)節(jié)點(diǎn)量測全局序列間的關(guān)聯(lián)特征,總時間步長為n。各時間步上的輸入為特征矩陣Gstack的第i列向量gstack,i,在解析全局序列相關(guān)性后輸出各時間步的編碼向量hi。

        5)注意力層:單一時間斷面的輸入量測綜合了多個節(jié)點(diǎn)量測信息,可通過注意力層對于給定拓?fù)浔孀R任務(wù)目標(biāo)的節(jié)點(diǎn)量測信息特征貢獻(xiàn)予以重要性差異區(qū)分,以達(dá)到優(yōu)化模型的計算資源分配并實(shí)現(xiàn)更優(yōu)拓?fù)浔孀R效果的目的。

        式中:Wa為hi的權(quán)重參數(shù)矩陣;ui為hi經(jīng)過單層感知機(jī)的輸出,表示注意力層的鍵值向量;us為根據(jù)量測信息隨機(jī)初始化的查詢向量;A∈Rd為注意力層的輸出,其中d為注意力輸出的維度;αi為hi分配的注意力權(quán)重。

        6)輸出層:由全連接層和Softmax激活函數(shù)層構(gòu)成,實(shí)現(xiàn)對上游網(wǎng)絡(luò)深層特征的歸納總結(jié)。全連接層的維度為m,對應(yīng)于訓(xùn)練樣本中的拓?fù)漕愋蜆?biāo)簽總數(shù),最后由Softmax 分類器輸出拓?fù)錁?biāo)簽。

        式中:WA和bA分別為該層的權(quán)重參數(shù)矩陣和偏置向量;p={p1,p2,…,pm}為拓?fù)漕愋蜆?biāo)簽的概率向量,最終由argmax 函數(shù)選取p中最大元素所對應(yīng)的拓?fù)漕愋妥鳛橥負(fù)浔孀R結(jié)果。

        3 算例分析

        3.1 實(shí)驗(yàn)環(huán)境和數(shù)據(jù)獲取

        本文算例測試集成的開發(fā)環(huán)境為MATLAB和Pycharm,計算機(jī)運(yùn)行硬件條件為CPU i7-9750H(2.6 GHz),GPU 為RTX-2080。拓?fù)浔孀R模型應(yīng)用的深度學(xué)習(xí)框架采用程序設(shè)計語言Python3.7 的 Torch1.11.1、 Tensorflow2.2.0 和Keras2.4.0工具包。

        以IEEE 33 節(jié)點(diǎn)配電系統(tǒng)和PG&E69 節(jié)點(diǎn)系統(tǒng)為算例,作為訓(xùn)練數(shù)據(jù)集的節(jié)點(diǎn)電壓幅值和注入有功功率等量測數(shù)據(jù)由MATPOWER 軟件生成,其中采用2016 年電工數(shù)學(xué)建模競賽的負(fù)荷數(shù)據(jù)模擬配電網(wǎng)運(yùn)行特性??紤]到配電網(wǎng)中PMU和微型PMU設(shè)備可能產(chǎn)生的量測誤差,對訓(xùn)練集的不同量測數(shù)據(jù)分別附加標(biāo)準(zhǔn)差為0.1%的獨(dú)立高斯噪聲。按十折驗(yàn)證法從各拓?fù)浣Y(jié)構(gòu)樣本中隨機(jī)選取10%作為測試集,其余作為訓(xùn)練集,并在訓(xùn)練中隨機(jī)選取訓(xùn)練集的5%作為驗(yàn)證樣本,以修正每次迭代的輸出偏差。

        3.2 模型評價指標(biāo)和參數(shù)設(shè)置

        評價指標(biāo)采用對多分類模型的準(zhǔn)確率、召回率和F1 值,其中拓?fù)漕愋蚷的辨識效果評價指標(biāo)為:

        式中:Pi和Ri分別為拓?fù)浣Y(jié)構(gòu)類型i的辨識準(zhǔn)確率和召回率;Ti為診斷正確的拓?fù)浣Y(jié)構(gòu)類型i樣本;E為拓?fù)浣Y(jié)構(gòu)類型i的實(shí)際樣本總數(shù);F為所有被辨識為拓?fù)浣Y(jié)構(gòu)類型i的樣本總數(shù)。

        對于深度學(xué)習(xí)模型參數(shù)設(shè)置,首先以F1值為優(yōu)化目標(biāo),以CNN通道數(shù)和LSTM隱藏神經(jīng)元個數(shù)為變量,由網(wǎng)格搜索方法尋優(yōu)最佳參數(shù)設(shè)置,CNN-LSTM-Attention模型具體參數(shù)設(shè)置見表1。

        表1 CNN-LSTM-Attention模型參數(shù)設(shè)置Table 1 Parameter setting of CNN-LSTM-Attention

        3.3 測試結(jié)果分析

        3.3.1 IEEE 33節(jié)點(diǎn)配電系統(tǒng)

        首先,以IEEE 33 節(jié)點(diǎn)標(biāo)準(zhǔn)配電系統(tǒng)為算例,為模擬實(shí)際配電網(wǎng)運(yùn)行環(huán)境,選擇部分節(jié)點(diǎn)接入PV、WT等分布式能源,在節(jié)點(diǎn)12和18接入容量分別為400 kV 和500 kV 的WT,WT 采用定功率因數(shù)發(fā)電,功率因數(shù)恒等于0.95。在節(jié)點(diǎn)22 和25接入容量分別為350 kV和450 kV的PV,PV也采用定功率因數(shù)發(fā)電,功率因數(shù)恒等于0.95。由于WT 可在其無功容量范圍內(nèi)維持電壓穩(wěn)定,因此設(shè)置接入WT 的節(jié)點(diǎn)為PV節(jié)點(diǎn),接入PV 裝置的節(jié)點(diǎn)為PQ節(jié)點(diǎn)。

        接入分布式電源的IEEE 33 節(jié)點(diǎn)配電系統(tǒng)拓?fù)浣Y(jié)構(gòu)如圖6 所示。該配電系統(tǒng)中共包含32 條支路和5 條聯(lián)絡(luò)線,各線路具體參數(shù)參考文獻(xiàn)[23]。在系統(tǒng)中分別接入WT和PV分布式電源,具體接入位置和出力參考文獻(xiàn)[24]。以改變聯(lián)絡(luò)線開關(guān)狀態(tài)的方式生成配電系統(tǒng)的15 種運(yùn)行態(tài)拓?fù)浣Y(jié)構(gòu),其中包含10種輻射形網(wǎng)絡(luò)和5種環(huán)形網(wǎng)絡(luò)。對以上拓?fù)浣Y(jié)構(gòu)的分布式能源出力和節(jié)點(diǎn)負(fù)荷變化進(jìn)行不確定性建模,各類型拓?fù)浣Y(jié)構(gòu)取2 000個時間斷面生成樣本數(shù)據(jù),共生成30 000 組樣本。樣本數(shù)據(jù)中各節(jié)點(diǎn)的電壓幅值和注入有功功率量測作為深度學(xué)習(xí)模型的輸入特征,分別記為U1~U33和P1~P33,并以拓?fù)漕愋妥鳛槟P洼敵龅臉颖緲?biāo)簽。

        圖6 接入分布式電源的IEEE 33節(jié)點(diǎn)配電系統(tǒng)Fig.6 The IEEE 33-node distribution system connected to distributed generator

        為驗(yàn)證CNN-LSTM-Attention 模型在配電網(wǎng)拓?fù)浣Y(jié)構(gòu)辨識任務(wù)的有效性,本文選擇其他常用的機(jī)器學(xué)習(xí)模型作為對比,不同深度學(xué)習(xí)模型的識別結(jié)果如表2所示,具體實(shí)現(xiàn)代碼來源于公開發(fā)表的論文或基于論文指定的源碼進(jìn)行微調(diào)。模型實(shí)際訓(xùn)練過程中以Early Stopping 工具監(jiān)視每輪迭代的測試集損失變化,若無明顯降低則終止訓(xùn)練。

        表2 IEEE 33節(jié)點(diǎn)配電系統(tǒng)下不同深度學(xué)習(xí)模型的識別結(jié)果Table 2 Recognition results of different deep learning models in IEEE 33-nobe distribution system

        為驗(yàn)證CNN-LSTM-Attention 的抗噪聲能力,在訓(xùn)練集的原始量測數(shù)據(jù)上分別增加了標(biāo)準(zhǔn)差β為0.5%和1%的高斯噪聲作為對照,考察深度學(xué)習(xí)模型在不同噪聲水平下的F1值,對比結(jié)果見表3。

        表3 IEEE 33節(jié)點(diǎn)配電系統(tǒng)下加入不同量測噪聲水平的測試集F1值對比結(jié)果Table 3 Comparison results of F1 value for test set with different measured noise levels in IEEE 33-node distribution system%

        由表2和表3結(jié)果可以得出如下結(jié)論:

        1)CNN 具備局部感知能力強(qiáng)和共享權(quán)值的特點(diǎn),但僅能識別鄰近節(jié)點(diǎn)量測的局部關(guān)系,并且缺乏對關(guān)鍵信息的辨識能力,因此模型識別準(zhǔn)確率較低,為96.48%。而CNN-LSTM 的組合模型在CNN的基礎(chǔ)上加入LSTM網(wǎng)絡(luò),可同時學(xué)習(xí)節(jié)點(diǎn)量測的局部特征信息和全局序列相關(guān)性,但存在無法辨識數(shù)據(jù)中關(guān)鍵特征的缺陷,導(dǎo)致辨識精度提升幅度有限。ACNN(注意力卷積網(wǎng)絡(luò))在CNN 基礎(chǔ)上增加了Attention,能夠有效感知特征的重要性差異,因此辨識準(zhǔn)確率有所提升。SVM(支持向量機(jī))的最終決策函數(shù)僅由少數(shù)支持向量決定,對含有大規(guī)模訓(xùn)練樣本的多分類任務(wù)辨識效果不佳。DNN采用簡單的全連接層堆疊架構(gòu)的信息傳遞方式,無法有效地對量測數(shù)據(jù)進(jìn)行建模,并容易陷入過擬合等問題,因此測試算例中的整體精度和效率較為低下。

        2)本文模型雖然結(jié)合了CNN、LSTM 和Attention 等網(wǎng)絡(luò),在一定程度上增大了模型參數(shù)總量,但由于模型特征提取能力的增強(qiáng),在每一輪迭代中訓(xùn)練樣本的損失函數(shù)值下降得更快,因此可以結(jié)合Early Stopping 工具,以更少的迭代輪數(shù)提前完成訓(xùn)練。因此,本文模型在實(shí)現(xiàn)99.45%的高辨識精度下,訓(xùn)練和測試效率的衰減幅度較低,對于單斷面輸入量測對應(yīng)拓?fù)漕愋偷钠骄孀R時間約為4.1×10-4s,能夠滿足拓?fù)浣Y(jié)構(gòu)在線辨識的時效性要求。

        3)在一定范圍內(nèi),隨著訓(xùn)練集的量測數(shù)據(jù)噪聲水平增加,本文模型的F1值衰減幅度低于其他對比的深度學(xué)習(xí)模型,由此說明本文模型能夠區(qū)分?jǐn)?shù)據(jù)中的冗余噪聲,具有較強(qiáng)的抗噪能力和魯棒性。

        為驗(yàn)證模型對各類型拓?fù)浔孀R的精度,根據(jù)測試集實(shí)驗(yàn)結(jié)果輸出歸一化混淆矩陣,其可視化熱力圖如圖7 所示,其中第i行第j列元素代表實(shí)際拓?fù)漕愋蚷被模型辨識為拓?fù)漕愋蚸的概率。由圖7結(jié)果可以看出:混淆矩陣從左上至右下的對角線元素幾乎全為1,拓?fù)湔_辨識概率為99.45%,因此可說明本文模型在拓?fù)浣Y(jié)構(gòu)辨識任務(wù)中的有效性。

        圖7 CNN-LSTM-Attention模型辨識的混淆矩陣Fig.7 Confusion matrix of CNN-LSTM-Attention model identification

        圖8展示了測試樣本經(jīng)CNN-LSTM-Attention輸出的各節(jié)點(diǎn)量測注意力權(quán)重差異,將單斷面的量測數(shù)據(jù)輸入至已迭代完畢的靜態(tài)模型中,由注意力層輸出對應(yīng)節(jié)點(diǎn)的注意權(quán)重,最終對于測試集中各時間斷面的注意權(quán)重取平均值并輸出結(jié)果。由圖8可以看出,關(guān)聯(lián)線路頻繁開斷的節(jié)點(diǎn)會被分配更高的注意權(quán)重,因此可驗(yàn)證本文模型能夠區(qū)分各節(jié)點(diǎn)量測信息輸入對于配電網(wǎng)拓?fù)浣Y(jié)構(gòu)辨識的重要性。

        圖8 IEEE 33節(jié)點(diǎn)配電系統(tǒng)下各量測節(jié)點(diǎn)的注意力權(quán)重圖Fig.8 Attention weight diagram of each measuring node in IEEE 33-node distribution system

        IEEE 33節(jié)點(diǎn)配電系統(tǒng)的全部節(jié)點(diǎn)的量測重要性權(quán)重,如圖8所示。按圖8中節(jié)點(diǎn)量測的重要性權(quán)重由低到高逐個減少節(jié)點(diǎn)電壓幅值和注入有功功率的量測特征,得到相應(yīng)的特征子集,并分別訓(xùn)練各深度學(xué)習(xí)模型,得到保留量測的節(jié)點(diǎn)數(shù)與測試集準(zhǔn)確率的對應(yīng)關(guān)系如圖9 所示。由圖9 可知,在使用13 個關(guān)鍵節(jié)點(diǎn)的量測特征時,CNNLSTM-Attention模型的準(zhǔn)確率仍能夠達(dá)到96.78%,可驗(yàn)證本文模型在少量測場景下的有效性。

        圖9 IEEE 33節(jié)點(diǎn)配電系統(tǒng)下保留量測的節(jié)點(diǎn)數(shù)和測試集準(zhǔn)確率的關(guān)系Fig.9 Relationship between number of nodes preserving measurement and accuracy of test set in IEEE 33-node distribution system

        3.3.2 PG&E69節(jié)點(diǎn)配電系統(tǒng)

        同理,以接入分布式電源的PG&E69 節(jié)點(diǎn)配電系統(tǒng)為算例,選擇系統(tǒng)中部分節(jié)點(diǎn)加入了PV、WT 等分布式能源,在節(jié)點(diǎn)41 和53 接入容量為1 000 kV的WT,WT采用定功率因數(shù)發(fā)電,功率因數(shù)恒等于0.95。在節(jié)點(diǎn)6、21 和69 接入容量為500 kV 的PV,PV 也采用定功率因數(shù)發(fā)電,功率因數(shù)恒等于0.95。

        接入分布式電源的PG&E69 節(jié)點(diǎn)配電系統(tǒng)拓?fù)浣Y(jié)構(gòu)如圖10所示。該系統(tǒng)中共包含32條支路和5條聯(lián)絡(luò)線,各線路具體參數(shù)參考文獻(xiàn)[25]。配電系統(tǒng)中接入WT和PV分布式電源,其具體接入位置和出力信息參考文獻(xiàn)[26]。以改變聯(lián)絡(luò)線開關(guān)狀態(tài)的方式生成配電系統(tǒng)的25種運(yùn)行態(tài)拓?fù)浣Y(jié)構(gòu),其中包含18 種輻射形網(wǎng)絡(luò)和7 種環(huán)形網(wǎng)絡(luò)。各類型拓?fù)浣Y(jié)構(gòu)取2 000個斷面生成樣本數(shù)據(jù),共生成50 000 組樣本。以各節(jié)點(diǎn)的電壓幅值和注入有功功率量測作為模型的輸入特征,分別記為U1—U69和P1—P69,并以拓?fù)漕愋妥鳛槟P洼敵龅臉颖緲?biāo)簽。

        圖10 接入分布式電源的PG&E69節(jié)點(diǎn)配電系統(tǒng)Fig.10 The PG&E69-node distribution system connected to distributed generator

        CNN-LSTM-Attention 模型和其他深度學(xué)習(xí)模型在系統(tǒng)中拓?fù)浣Y(jié)構(gòu)辨識任務(wù)的測試結(jié)果如表4所示。由表4 可以看出,本文模型的辨識效果F1值達(dá)到99.08%,并且對于單斷面拓?fù)浔孀R的平均時間約為6.8×10-4s。同樣,為驗(yàn)證CNN-LSTMAttention 的抗噪聲能力,在訓(xùn)練集的原始量測數(shù)據(jù)上分別增加了標(biāo)準(zhǔn)差為0.5%和1%的高斯噪聲作對照,考察模型在不同噪聲水平下的F1值,對比結(jié)果見表5。

        表4 PG&E69節(jié)點(diǎn)配電系統(tǒng)下不同深度學(xué)習(xí)模型的識別結(jié)果Table 4 Recognition results of different deep learning models in PG&E69-node distribution system

        表5 PG&E69節(jié)點(diǎn)配電系統(tǒng)下加入不同量測噪聲水平的測試集F1值對比結(jié)果Table 5 Comparison results of F1 value for test set with different measured noise levels in PG&E69-node distribution system%

        圖11 展示了CNN-LSTM-Attention 模型對于PG&E69 節(jié)點(diǎn)配電系統(tǒng)中各節(jié)點(diǎn)兩側(cè)數(shù)據(jù)的注意力分配,可以看出模型同樣可區(qū)分該系統(tǒng)中不同節(jié)點(diǎn)量測數(shù)據(jù)的重要性。

        圖11 PG&E69節(jié)點(diǎn)配電系統(tǒng)下各量測節(jié)點(diǎn)的注意力權(quán)重圖Fig.11 Attention weight diagram of each measuring node in PG&E69-node distribution system

        為驗(yàn)證本文模型在少量實(shí)時量測的條件下仍能維持較好辨識效果,按圖11 中節(jié)點(diǎn)量測的重要性權(quán)重由低到高逐個減少節(jié)點(diǎn)量測特征,形成特征子集,并分別訓(xùn)練各深度學(xué)習(xí)模型,得到保留量測的節(jié)點(diǎn)數(shù)與測試集準(zhǔn)確率對應(yīng)關(guān)系如圖12 所示。在保留17 個關(guān)鍵節(jié)點(diǎn)的量測特征時,模型的辨識準(zhǔn)確率可達(dá)到97.84%,因此在僅提供部分節(jié)點(diǎn)量測的場景下也具有較高的魯棒性。

        圖12 PG&E69節(jié)點(diǎn)配電系統(tǒng)下保留量測的節(jié)點(diǎn)數(shù)和測試集準(zhǔn)確率的關(guān)系Fig.12 Relationship between number of nodes preserving measurement and accuracy of test set in PG&E69-node distribution system

        4 結(jié)語

        本文建立了基于CNN-LSTM-Attention的配電網(wǎng)拓?fù)浔孀R的深度學(xué)習(xí)框架,采用MATPOWER軟件生成節(jié)點(diǎn)電壓幅值和節(jié)點(diǎn)注入功率量測數(shù)據(jù)并進(jìn)行標(biāo)準(zhǔn)化處理,以此構(gòu)建模型的輸入樣本,實(shí)現(xiàn)深度學(xué)習(xí)模型的特征提取,最終通過兩個不同的配電系統(tǒng)算例驗(yàn)證了本文所提拓?fù)浣Y(jié)構(gòu)辨識模型的有效性和優(yōu)越性?;诒疚难芯砍晒贸鋈缦陆Y(jié)論:

        1)與傳統(tǒng)的配電網(wǎng)拓?fù)浣Y(jié)構(gòu)辨識方法相比,本文方法對訓(xùn)練樣本數(shù)據(jù)的特征數(shù)量要求低,辨識精度較高,并且辨識計算時間能夠滿足在線辨識的時效性要求,可實(shí)現(xiàn)輻射網(wǎng)和弱環(huán)網(wǎng)的拓?fù)浣Y(jié)構(gòu)辨識。

        2)結(jié)合了CNN、LSTM和Attention的模型擁有全局和局部的特征提取能力以及關(guān)鍵信息的區(qū)分能力,對比傳統(tǒng)算法,在分類性能、魯棒性方面均得到有效提升,泛化能力更強(qiáng)。

        3)通過實(shí)際算例驗(yàn)證了可僅使用部分關(guān)鍵節(jié)點(diǎn)的量測特征實(shí)現(xiàn)高精度的拓?fù)浔孀R效果,比較符合配電網(wǎng)裝配的量測裝置較少的場景。因此,本文的拓?fù)浣Y(jié)構(gòu)辨識模型在未來具備廣闊的應(yīng)用前景。

        在未來的實(shí)際配電網(wǎng)拓?fù)浔孀R應(yīng)用中,可將本文提出的深度學(xué)習(xí)模型推廣至實(shí)際配電系統(tǒng)當(dāng)中,通過與SCADA 系統(tǒng)互聯(lián),可實(shí)現(xiàn)高效準(zhǔn)確的配電網(wǎng)拓?fù)湓诰€辨識,從而支撐狀態(tài)估計、故障定位和安全穩(wěn)定分析等其他功能應(yīng)用。

        猜你喜歡
        配電網(wǎng)特征模型
        一半模型
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權(quán)M-估計的漸近分布
        如何表達(dá)“特征”
        不忠誠的四個特征
        配電網(wǎng)自動化的應(yīng)用與發(fā)展趨勢
        抓住特征巧觀察
        3D打印中的模型分割與打包
        基于IEC61850的配電網(wǎng)數(shù)據(jù)傳輸保護(hù)機(jī)制
        電測與儀表(2016年5期)2016-04-22 01:14:14
        配電網(wǎng)不止一步的跨越
        河南電力(2016年5期)2016-02-06 02:11:24
        国产小视频一区二区三区| 97se亚洲精品一区| 欧美日韩国产成人高清视| 人妻中文字幕不卡精品| 日本一区二区三区精品免费| 亚洲av无码一区东京热久久| av香港经典三级级 在线| 视频在线观看一区二区三区| 日韩精品成人一区二区三区| 极品嫩模大尺度av在线播放| 亚洲国产精品va在线看黑人| 国产小视频网址| 亚洲精品国产精品系列| 日韩精品一区二区在线天天狠天| 国产麻传媒精品国产av| 国产日韩欧美网站| 日韩人妻免费一区二区三区| 日本一区二区三区视频网站| 国产美女在线精品免费观看| 国产偷国产偷高清精品 | 少妇人妻一区二区三飞| 天天躁夜夜躁狠狠是什么心态| 久久精品人人做人人爽| a午夜国产一级黄片| 蜜桃成熟时日本一区二区 | 国产成人精品免费久久久久| 美女被搞在线观看一区二区三区 | 国产综合久久久久影院| 久久99免费精品国产| 无码中文字幕人妻在线一区| 国内精品无码一区二区三区| 成年女人片免费视频播放A| 青青草成人免费在线观看视频| 中文 在线 日韩 亚洲 欧美| 国产精品不卡无毒在线观看| 久久国产女同一区二区| 免费人成在线观看视频高潮| 国产av无码专区亚洲av| 亚洲中文字幕av一区二区三区人| 日韩极品视频免费观看| 国产精品9999久久久久|