劉義艷,郝婷楠,張偉
(1.長安大學 能源與電氣工程學院,陜西,西安 710018;2.深圳市沃爾核材股份有限公司,廣東,深圳 518000)
隨著交直流特高壓輸電技術的發(fā)展與電力線路的建設,我國電網(wǎng)正在向大規(guī)模交直流互聯(lián)的方向發(fā)展,跨大區(qū)的全國互聯(lián)電網(wǎng)將會日益完善.復雜的電力系統(tǒng)給電網(wǎng)的安全穩(wěn)定運行帶來了極大的挑戰(zhàn)[1].若電網(wǎng)長期處于異常運行狀態(tài),會危害供電側和用電側的輸配電安全.如何充分挖掘電力大數(shù)據(jù)的潛在價值,快速準確地實現(xiàn)故障的自動識別和定位,提供可靠的評估結果,感知和預警電網(wǎng)運行過程中的風險,制定緊急控制措施,減少經(jīng)濟損失,有效保障電網(wǎng)穩(wěn)定運行,對智能電網(wǎng)的發(fā)展具有重要的意義[2-3].
目前對電網(wǎng)監(jiān)測數(shù)據(jù)的處理包括時域分析、數(shù)據(jù)驅動等分析方法,近年來電網(wǎng)監(jiān)測領域涌出一批新興方法,如機器學習、深度神經(jīng)網(wǎng)絡、循環(huán)神經(jīng)網(wǎng)絡等人工智能方法[4-5].深度學習網(wǎng)絡,相較于人工神經(jīng)網(wǎng)絡,深度神經(jīng)網(wǎng)絡模型深度更大,算法更加復雜,精度更高[6-7].卷積神經(jīng)網(wǎng)絡(convolutional neural networks,CNN)是深度學習網(wǎng)絡的典型代表,具有強大的信號處理能力,尤其在處理多維數(shù)據(jù)方面優(yōu)勢突出,廣泛應用在如圖像處理、計算機視覺和大數(shù)據(jù)分析等領域[8-11].YUAN 等[12]提出了一種基于卷積神經(jīng)網(wǎng)絡(CNN)和長短期記憶(LSTM)神經(jīng)網(wǎng)絡混合模型的檢測方法,可以全面挖掘時空信息.丁津津等[13]集成不同總線上的測量值,搭建圖卷積網(wǎng)絡框架用于配電網(wǎng)故障定位,通過IEEE123 節(jié)點基準系統(tǒng)驗證了GCN 模型定位故障的有效性并且在有限數(shù)量的實測母線下表現(xiàn)良好.CHEN 等[14]提出應用遷移學習算法改進卷積神經(jīng)網(wǎng)絡的方法進行電網(wǎng)異常區(qū)域定位,該方法降低了深度學習算法對樣本數(shù)量的要求,解決了中小樣本情況下深度學習在配電網(wǎng)故障定位時學習效果差的問題.
若采用隨機矩陣的特征值進行研究,沒有考慮特征向量,會存在不能充分挖掘數(shù)據(jù)信息、丟失特征向量中包含的有用信息的問題[15].目前,在電力系統(tǒng)領域將隨機矩陣理論與人工神經(jīng)網(wǎng)絡或深度學習算法相結合應用在工程案例的研究正在開展.魏文兵等[16]將隨機矩陣提取的高維特征值輸入到CNN 中,借助神經(jīng)網(wǎng)絡的自主學習能力快速評估電力系統(tǒng)暫態(tài)電壓性.程瑛穎等[17]對狀態(tài)監(jiān)測數(shù)據(jù)構建的隨機矩陣特征值統(tǒng)計量進行聚類分級,根據(jù)聚類結果判斷電能表的運行狀態(tài),通過算例分析驗證該方法檢測異常狀態(tài)的有效性和時效性,并發(fā)現(xiàn)聚類算法具有較好的魯棒性,抗干擾能力強.
上述研究在電網(wǎng)異常識別方面取得了一定成果,對于采用數(shù)據(jù)集內(nèi)的樣本所構建的輸入特征集,其合理性是影響神經(jīng)網(wǎng)絡異常定位模型準確性的重要因素.因此,為了快速準確地自動定位電網(wǎng)的異常區(qū)域,本文采用隨機矩陣理論作為數(shù)據(jù)挖掘中的特征提取方法,對采集的樣本構建輸入特征集,通過CNN 對輸入層的數(shù)據(jù)源矩陣進行卷積運算優(yōu)化,構建一個新的特征矩陣,并通過訓練該特征矩陣來建立與擾動位置的映射關系,通過建立的映射關系對新的輸入層進行學習實現(xiàn)電網(wǎng)擾動源定位.最后以IEEE39 節(jié)點電網(wǎng)模型三相短路故障為例,構建RMTCNN 模型,先對訓練樣本的原始數(shù)據(jù)提取特征向量,將特征向量輸入CNN 模型進行訓練,應用測試集驗證模型的定位準確率.
RMT 結合統(tǒng)計學理論,從電網(wǎng)監(jiān)測數(shù)據(jù)組成的矩陣的穩(wěn)定性角度判斷電網(wǎng)內(nèi)部的狀態(tài),可以避免傳統(tǒng)分析方法處理數(shù)據(jù)時對電網(wǎng)模型的過度依賴問題.RMT 內(nèi)容十分豐富,本文主要涉及到其中兩個定律:Marchenko-Pastur 定律和單環(huán)定律,這兩種定律均是基于矩陣的經(jīng)驗譜分布(empirical spectral distribution,ESD)函數(shù)總結的矩陣特征值分布滿足的數(shù)學規(guī)律[18-19].
1.1.1 Marchenko-Pastur 定律
對于一個M×M維Hermitian 矩陣A,其具有M個實數(shù)特征值λA=(),定義其經(jīng)驗譜分布函數(shù)為
式中:M為方陣的維度;為矩陣的第i個特征值;I(·)為指示性函數(shù),當括號內(nèi)條件判斷為真時,I(·)的值為1,反之值為0.
矩陣元素獨立同分布且滿足μ(x)=0, σ2(x)=d分布的非方陣XN×T(N<T),其樣本協(xié)方差矩陣定義為
式中:d為矩陣方差;T為矩陣X的列數(shù);XH為矩陣X的共軛轉置矩陣.由Marchenko-Pastur 定律有,樣本協(xié)方差矩陣S的經(jīng)驗譜分布滿足概率密度函數(shù)
如圖1 所示為一個100×110高維矩陣的特征值分布情況.由圖1 可知,正常狀態(tài)隨機矩陣的特征值分布近似滿足分布函數(shù)的曲線趨勢,當矩陣環(huán)境被破壞后,矩陣的特征值分布偏離分布函數(shù)的曲線.
圖1 矩陣的Marchenko-Pastur 分布Fig.1 Marchenko-Pastur distribution of matrix
1.1.2 單環(huán)定律
對于每一行元素滿足獨立同分布且服從μ(x)=0,σ2(x)=d分布的非方陣XN×T(N<T),其XN×T的奇異值等價矩陣為
式中U為與矩陣同維度的哈爾酉矩陣.定義其矩陣積為
式中L為奇異值等價矩陣個數(shù).對矩陣通過變換得到奇異值等價矩陣之后可將矩陣的特征值映射到復平面,即矩陣有N個復數(shù)特征值,提取這些復數(shù)特征值的(實部,虛部)數(shù)對,單環(huán)定律發(fā)現(xiàn)所有特征值的數(shù)對在坐標平面的分布滿足概率密度函數(shù)
為了方便計算,在后面的研究分析中,僅考慮L=1的情況.由式(6)有以下結論:高維隨機矩陣的奇異值等價矩陣的復數(shù)特征值主要分布在內(nèi)環(huán)半徑為和外環(huán)半徑為1 的圓環(huán)內(nèi),內(nèi)環(huán)半徑與矩陣的維度比有關.
如圖2 所示為一個100×110高維矩陣的圓環(huán)分布情況.結合式(6),可以計算得到內(nèi)環(huán)半徑為0.3,外環(huán)半徑始終為1,由圖2 可以看出,正常狀態(tài)矩陣的特征值大致分布在內(nèi)外環(huán)之間,當矩陣環(huán)境被破壞,不滿足隨機矩陣的條件時,矩陣的特征值全部分布在內(nèi)環(huán)里.
圖2 正常狀態(tài)與異常狀態(tài)矩陣的圓環(huán)分布Fig.2 Ring distribution of normal state and abnormal state matrix
由圖1 和圖2 可知,從特征值的分布情況可以判斷當前矩陣內(nèi)元素是否滿足隨機分布,從而判斷當前系統(tǒng)內(nèi)部是否正常,實現(xiàn)實時異常檢測.
CNN 模型由輸入層、隱藏層和輸出層三部分組成,結構示意圖如圖3 所示[20].輸入層為輸入網(wǎng)絡的原始信號或者經(jīng)過預處理之后的數(shù)據(jù);隱藏層是網(wǎng)絡的核心,也是區(qū)別其他神經(jīng)網(wǎng)絡的部分,卷積神經(jīng)網(wǎng)絡的隱藏層由卷積層、激活層、池化層和全連接層組成,對輸入層的數(shù)據(jù)進行降維和特征提取處理;輸出層本質(zhì)上是一個分類器,對隱藏層輸出的特征值進行概率計算,將原始數(shù)據(jù)劃入指定類別,用于分類.
圖3 CNN 結構示意圖Fig.3 Schematic diagram of CNN structure
①卷積層.
卷積層是卷積神經(jīng)網(wǎng)絡模型的核心部分,貫穿整個網(wǎng)絡模型的數(shù)據(jù)運算處理,卷積層由若干卷積核組成,每一個卷積核均對輸入層數(shù)據(jù)進行有規(guī)律的局部掃描,并與掃描到的局部數(shù)據(jù)進行卷積運算,每一次的卷積結果作為相應位置的特征值,全局掃描完形成若干個通道卷積輸出矩陣,并作為下一層網(wǎng)絡的輸入.
②池化層.
池化層是卷積層之后進一步特征壓縮與提取的操作,其主要是通過將卷積輸出矩陣中的特征值按一定的函數(shù)規(guī)律進行聚合,然后再將此規(guī)律得到的特征值組合在一起形成一個新的特征矩陣,池化操作可以降低卷積輸出矩陣的尺寸,并進一步提取矩陣的特征,提高運算效率的同時防止過擬合干擾,增強模型學習效果.池化過程與卷積運算過程相類似,只是使用的運算函數(shù)不一樣,二者都是通過建立運算窗口對輸入矩陣進行局部掃描運算,保存運算結果作為局部特征,通過將窗口滑動實現(xiàn)全局的特征提取.
③激活函數(shù).
激活函數(shù)應用在每一層的輸出之前的神經(jīng)元中,用于對運算結果進行非線性映射,提高網(wǎng)絡的表達能力.選擇合適的激活函數(shù)、神經(jīng)元數(shù)量,調(diào)整合適的函數(shù)權值,神經(jīng)網(wǎng)絡就可以實現(xiàn)任何一個輸入向量到輸出向量之間映射函數(shù)的逼近,增強特征的特性,便于網(wǎng)絡學習與最后的分類.
④全連接層.
全連接層位于隱藏層的最后,作為隱藏層與輸出層的銜接層,是卷積運算的最后一步,全連接層將之前所提取到的特征進行最后綜合降維,形成一個一維向量特征,便于輸出層的分類計算.
⑤SoftMax 分類器.
SoftMax 分類器一般嵌入在輸出層里,通過訓練集自帶的標簽對分類器進行訓練,形成一定的統(tǒng)計規(guī)律,對測試集的全連接層輸出的特征值對應每一類標簽的概率進行計算統(tǒng)計,概率最大值對應的類別即為分類結果,從而對目標值實現(xiàn)預測或者分類.
⑥目標函數(shù).
卷積神經(jīng)網(wǎng)絡中的目標函數(shù)主要用于模型的訓練階段,通過應用函數(shù)求取當前模型的輸出結果與標簽的差值,差值大小用來衡量模型的擬合效果,故目標函數(shù)又稱為損失函數(shù),損失值越小表明網(wǎng)絡預測的效果越好,目標函數(shù)值還用于模型的優(yōu)化,對模型內(nèi)的神經(jīng)元權值進行修改,直至損失值達到設定閾值,完成模型優(yōu)化.根據(jù)函數(shù)針對的對象類型不同,目標函數(shù)可以分為均方誤差函數(shù)和交叉熵函數(shù)兩種,均方誤差函數(shù)針對的是當前輸出與標簽的誤差,交叉熵函數(shù)針對的是對輸出結果進行分類時,樣本對應每個類別的統(tǒng)計概率的分布情況,表達式分別如式(7)和式(8)所示.
式中:M為總的種類數(shù)量;yi為當前數(shù)據(jù)的標簽,即目標值,如果目標類別為i,則yi=1,否則為0;為當前模型對輸入樣本的輸出值,即預測值;pi為模型的SoftMax 分類器對當前樣本輸出進行分類時對應每一類的概率值.根據(jù)函數(shù)對象的區(qū)別可以得知,均方誤差函數(shù)適用于線性回歸、預測等問題時,交叉熵函數(shù)適用于分類識別問題.本文的RMT-CNN 網(wǎng)絡模型中使用交叉熵函數(shù)作為損失函數(shù),用于模型的參數(shù)迭代優(yōu)化.
本文提出的RMT-CNN 模型結構由RMT 提取特征集和CNN 訓練特征集兩個部分組成,模型結構如圖4 所示,RMT 為數(shù)據(jù)預處理過程,用于提取監(jiān)測數(shù)據(jù)的特征向量作為CNN 模型的輸入量,CNN 模型由若干個卷積層、池化層和全連接層組成,通過對RMT提取的特征集進行學習,優(yōu)化選擇最優(yōu)層數(shù)和超參數(shù)組合得到最佳CNN 結構,形成樣本輸入與輸出的映射關系,用于無標簽樣本的故障定位.
圖4 RMT-CNN 模型結構Fig.4 Structure of the RMT-CNN model
將電網(wǎng)監(jiān)測信號作為模型的輸入,經(jīng)過隨機矩陣理論提取監(jiān)測信號的特征集后輸入CNN 模型,通過CNN 模型將帶標簽的輸入信號的特征與標簽形成映射關系,通過映射關系對無標簽樣本進行分類找到樣本對應的擾動位置實現(xiàn)定位.定位的流程如圖5 所示.
圖5 RMT-CNN 定位流程Fig.5 RMT-CNN locating process
具體步驟如下:
①對電網(wǎng)進行區(qū)域劃分,將一個互聯(lián)的大電網(wǎng)劃分為若干個小區(qū)域網(wǎng)絡;
②利用每個區(qū)域內(nèi)的監(jiān)測點同步向量量測裝置(phasor measurement unit, PMU)[21]采集的數(shù)據(jù)分區(qū)構造矩陣,將數(shù)據(jù)集進行歸一化處理;
③將樣本劃分訓練集、驗證集和測試集,分別用于模型的參數(shù)優(yōu)化、優(yōu)化結果檢驗和定位準確率測試;
④將數(shù)據(jù)集分別作為RMT 塊的輸入,采用隨機矩陣理論的特征向量提取法提取各樣本的特征,作為CNN 模型的輸入;
⑤設置模型的初始參數(shù),通過訓練集對網(wǎng)絡進行訓練,將驗證集代入預訓練的模型中計算損失函數(shù)和定位準確率,根據(jù)結果對模型進行調(diào)整,最終獲得RMT-CNN 電網(wǎng)故障定位模型;
⑥采用測試集對RMT-CNN 電網(wǎng)故障定位模型進行測試,得到測試結果.
以IEEE39 節(jié)點系統(tǒng)為研究對象,采用PMU 裝置測量到的18 個節(jié)點72 個電氣信號作為原始數(shù)據(jù)源.對每個節(jié)點進行三相短路故障設置,采樣頻率為1 000 Hz,滑動窗口維度為72×100,即每0.1 s 的監(jiān)測數(shù)據(jù)構成一個狀態(tài)監(jiān)測矩陣,窗口滑動步長為10,每過0.01 s 構建一個矩陣,將按時間序列選取0.1 s 內(nèi)構造的10 個矩陣作為一個樣本,按此方法在每個節(jié)點故障發(fā)生后5 s 內(nèi)隨機生成200 個樣本,每個樣本設置標簽1~39 用于表示故障位置,樣本總量為7 800 個,將這7 800 個樣本按2∶1∶1 劃分為訓練集、驗證集和測試集,用于模型參數(shù)訓練、檢驗模型優(yōu)化程度和檢驗模型定位準確率.
系統(tǒng)內(nèi)有18 個監(jiān)測點,每個監(jiān)測點采集4 個電氣量,狀態(tài)矩陣維度為72×100,設定連續(xù)10 個窗口的狀態(tài)監(jiān)測矩陣為一個樣本數(shù)據(jù)源,對每個窗口矩陣求取最大特征值對應的72×1大小的特征向量.構造特征矩陣時有兩種方法:一種是直接構造法,通過滑動窗口采樣,以100 個時間序列矩陣的特征向量構成一個72×100的樣本特征矩陣;另一種是分區(qū)構造法,將電網(wǎng)分成3 個區(qū)域,每個區(qū)有6 個監(jiān)測點,劃分情況如圖6 所示.因此每個區(qū)域矩陣得到的24×1的特征向量組成一個72×1的特征矩陣,同樣通過滑動窗口采樣,以連續(xù)100 個時間序列矩陣的特征向量構成一個72×100的同樣大小樣本特征矩陣.兩種特征矩陣構造方法用同一數(shù)據(jù)源,構造出兩個相同大小的特征矩陣.應用RMT 構造特征矩陣過程如圖7 所示.
圖6 IEEE39 節(jié)點電網(wǎng)分區(qū)示意圖Fig.6 Schematic diagram of node power grid partition about IEEE39
圖7 樣本特征矩陣構造示意圖Fig.7 Schematic diagram of sample feature matrix construction
本文主要采用分區(qū)構造樣本特征矩陣的方法,圖8 為按該方法構造的特征向量.此處僅列出母線1~3 短路時通過隨機矩陣理論提取的最大特征值對應的特征向量,每個特征向量長度為72.由圖8 可以發(fā)現(xiàn),當IEEE39 標準系統(tǒng)內(nèi)不同節(jié)點發(fā)生短路故障時,提取到的特征向量幅值變化趨勢不同,因此監(jiān)測數(shù)據(jù)組成的高維矩陣最大特征值對應的特征向量元素異常情況能反映不同位置的故障.
圖8 分區(qū)構造的特征向量Fig.8 Feature vectors of partition construction
神經(jīng)網(wǎng)絡模型中的參數(shù)對模型的性能影響較大,本節(jié)對CNN 模型各參數(shù)組合模型進行對比實驗分析,尋找最優(yōu)模型組合參數(shù),提高模型定位識別的效率和準確率.
本文采用準確率A(Accuracy)、精確率P(Precision)、召回率R(Recall)以及F1值作為模型的評價指標.準確率是指識別正確的物體個數(shù)與識別物體總數(shù)的百分率比值,比值越大準確率越高;精確率表示正確預測為正的樣本為正的比例;召回率是指被正確分類樣本棧該類樣本的比例;F1是綜合考慮精準率和召回率的值,反應整體指標.計算公式如下
式中:nTP為真陽性,表示實際類別為正類,預測類別為正類的數(shù)量;nTN為真陰性,表示實際類別為負類,預測類別為負類的數(shù)量;nFP為假陽性,表示實際類別為負類,預測類別為正類的數(shù)量;nFN為假陰性,表示實際類別為負類,預測類別為正類的數(shù)量.本文中將故障情況設為負類,正常情況設為正類.
關于神經(jīng)網(wǎng)絡中池化層的池化方式,目前卷積神經(jīng)網(wǎng)絡中池化方式有兩種:最大池化和平均池化,最大池化采用最大值函數(shù)作為池化函數(shù),均值池化采用平均數(shù)函數(shù)作為池化函數(shù),通過池化窗口選取原矩陣的局部數(shù)據(jù),利用函數(shù)運算取該區(qū)域的元素最大值作為該區(qū)域的池化結果,滑動窗口重復運算.
最大池化法的優(yōu)勢在于池化操作過程中對于數(shù)據(jù)的紋理特征信息更加敏感,尤其是數(shù)據(jù)突變時提取的特征更接近原始數(shù)據(jù),可以保留特征圖中的最大局部特征.本文的電網(wǎng)監(jiān)測信號比較平穩(wěn),當出現(xiàn)異常時信號出現(xiàn)波動或突變,因此采用最大池化方法處理數(shù)據(jù)可以更加快速準確的發(fā)現(xiàn)數(shù)據(jù)的異常情況.
神經(jīng)網(wǎng)絡的激活函數(shù)常見的有三種,如圖9 所示.
圖9 激活函數(shù)Fig.9 Active function
Sigmoid 函數(shù)和雙曲正切函數(shù)(tanh)函數(shù)為單調(diào)遞增有界函數(shù),函數(shù)如圖9(a)、(b)所示,函數(shù)上各點處處連續(xù)且存在導數(shù),并且通過Sigmoid 函數(shù)將神經(jīng)元的輸出值范圍控制在0~1 內(nèi),相當于進行了一次歸一化處理.但Sigmoid 函數(shù)的缺陷在于并不一定關于原點對稱,趨于無窮大或無窮小時函數(shù)曲線趨于平滑,容易造成梯度消失,由于Sigmoid 函數(shù)值和導數(shù)值均大于0,導致網(wǎng)絡反向傳遞過程各層參數(shù)梯度同符號,易使收斂速度下降,無法完成深層網(wǎng)絡的訓練.
Tanh 函數(shù)圖形與Sigmoid 函數(shù)一樣,區(qū)別在于輸出范圍改變?yōu)椋?1, 1),可以視為Sigmoid 函數(shù)的變形結果.這兩種函數(shù)都屬于飽和激活函數(shù),均存在梯度消失問題的缺陷,但Tanh 函數(shù)值關于原點對稱,收斂速度快于Sigmoid 函數(shù).
為了解決上述兩種激活函數(shù)梯度消失的問題,提出一種新的激活函數(shù)-修正線性單元(rectified linear unit,ReLU),ReLU 函數(shù)如圖9(c)所示,本文將使用ReLU 作為模型的激活函數(shù).
本節(jié)研究卷積網(wǎng)絡層數(shù)分別為2、3、4 以及卷積層內(nèi)卷積核不同尺寸、不同數(shù)量的組合對準確率的影響.一般神經(jīng)網(wǎng)絡參數(shù)調(diào)節(jié)采用經(jīng)驗法,參數(shù)的組合具有一定隨機性,無法窮舉所有參數(shù)組合的模型,因此本文給出多次參數(shù)調(diào)整后接近最優(yōu)準確率的組合實驗結果.所有模型組合的池化層均采用2×2大小的最大值池化窗口對卷積層輸出進行池化處理,池化步長為2,即每次降采樣之后維度將會減半,遇到奇數(shù)維度時在池化前進行補0 填充后再池化.
由于輸入樣本尺寸較小,網(wǎng)絡深度需求不太高,因此對2 層、3 層、4 層卷積結構的CNN 模型進行卷積核個數(shù)與尺寸參數(shù)進行設置后,各模型對訓練集進行訓練學習,完成后使用驗證集檢驗各模型定位故障的準確率,檢驗結果如圖10 的柱狀圖所示.
圖10 CNN 超參數(shù)設計實驗結果Fig.10 Experimental results of CNN super-parameter design
由圖10(a)可以發(fā)現(xiàn),2 層網(wǎng)絡中有2 個卷積層,固定每一層卷積層的核數(shù)量不變,每層的卷積核尺寸越大,對接收到的信號的感受域越廣,獲得的全局特征越好,識別率也會越高.若固定卷積核的尺寸不變,增加每一層的卷積核數(shù)量,卷積核數(shù)量越多,提取到的局部特征越多,識別率也會提高.觀察圖10(b)3 層卷積網(wǎng)絡的參數(shù)組合的定位準確率統(tǒng)計結果可以發(fā)現(xiàn),相較于2 層網(wǎng)絡來說,3 層網(wǎng)絡增加了模型的深度,模型的訓練學習能力更強,定位準確率有了顯著的提升,與2 層模型相同的是每層卷積核的個數(shù)越多,網(wǎng)絡的識別效果越好,但當卷積核數(shù)量足夠多的時候固定每層卷積核數(shù)量增大卷積核尺寸對網(wǎng)絡性能的提升效果并不明顯,反而帶來高計算量.觀察圖10(c),4 層卷積網(wǎng)絡的模型定位率比較穩(wěn)定,識別效果受模型內(nèi)卷積核個數(shù)和尺寸的大小影響較小.
綜合分析圖10 中的36 種組合模型的統(tǒng)計結果發(fā)現(xiàn),卷積深度和卷積核的數(shù)量以及尺寸都可以在一定程度上增加準確率,但是過度追求網(wǎng)絡深度和數(shù)量會增加網(wǎng)絡訓練難度和訓練時長.綜合以上方案的定位準確率和耗時,最終確定CNN 網(wǎng)絡為3 層網(wǎng)絡,每層卷積核的數(shù)量分別為10、20、40,每層卷積核的尺寸均為5×5.
通過4.1 節(jié)對CNN 網(wǎng)絡參數(shù)的實驗結果對比分析,最終確定搭建的RMT-CNN 的模型結構及其對應的參數(shù)如表1 所示.
表1 RMT-CNN 電網(wǎng)故障定位模型結構Tab.1 Structure of the fault locating model based on RMTCNN for power grid
確定網(wǎng)絡模型后將測試集降本輸入上述RMTCNN 模型中,進行定位識別,對識別結果與標簽進行對比,統(tǒng)計每個節(jié)點的故障定位準確率結果如表2所示.
表2 各節(jié)點故障定位準確率Tab.2 Location precision of fault in every node
經(jīng)統(tǒng)計,39 個節(jié)點的1 950 個測試樣本的總體定位準確率為97.96%,結果表明該CNN 模型對樣本經(jīng)隨機矩陣理論提取的特征矩陣具有較好的分類效果.
為了驗證本文所提方法的優(yōu)越性,對算法的性能進行了消融實驗,通過消融實驗,RMT 和分區(qū)均可提高CNN 模型的定位準確率.實驗結果如表3所示.
表3 消融實驗結果Tab.3 Melt experiment results
從表3 可以看出,對于同一個CNN 模型,經(jīng)過RMT 處理過原始數(shù)據(jù)后輸入CNN 模型的定位準確率均在95%以上,精確率分區(qū)RMT-CNN 要比未分區(qū)高3%,召回率分區(qū)RMT-CNN 要比未分區(qū)高2%.比直接應用CNN 模型的準確率有了較大的提升,更利于神經(jīng)網(wǎng)絡的學習與分類;對比兩種RMT 提取特征矩陣的方法,提取的特征矩陣均能較好地表征故障數(shù)據(jù)的特征,其中通過電網(wǎng)分區(qū)之后的矩陣提取的最大特征值對應的特征向量對不同故障位置信息更敏感,定位效果更好.
本文在基于高維矩陣的特征向量判斷故障區(qū)域的基礎上,結合深度學習理論中的卷積神經(jīng)網(wǎng)絡提出了一種基于RMT-CNN 模型的電網(wǎng)三相短路故障節(jié)點定位方法.得到如下結論:
①將電網(wǎng)監(jiān)測矩陣通過RMT 提取的特征向量輸入CNN 可以實現(xiàn)三相短路故障分類,準確率可以達到97.96%,精確率達到98.65%,召回率達到96.88%,F(xiàn)1達到97.76%;
②相較于監(jiān)測數(shù)據(jù)直接輸入CNN,通過RMT對原始監(jiān)測數(shù)據(jù)進行特征向量提取之后可以更好地表征樣本特征,神經(jīng)網(wǎng)絡的定位準確率提高13.34%,精確率提高16%,召回率提高18%,F(xiàn)1提高17%;
③分區(qū)構建矩陣提取到的特征向量可以使故障定位準確率提高2.0%,精確率提高3%,召回率提高2%,F(xiàn)1提高2%.