邵淦, 吳昊, 姚朔曄
(國(guó)網(wǎng)寧波供電公司, 寧波 315000)
電力通信作為保障電力運(yùn)行的重要樞紐,是電力建設(shè)和保障的重點(diǎn)。伴隨著電力通信規(guī)模的擴(kuò)大,通信設(shè)備不斷增加,從而使得駕馭電力通信網(wǎng)的難度也逐步增加。因此,如何保障電力通信網(wǎng)的通信以及如何及時(shí)對(duì)通信網(wǎng)出現(xiàn)的故障進(jìn)行診斷與定位,是當(dāng)前電力智能化建設(shè)和思考的重點(diǎn)。傳統(tǒng)的電力通信網(wǎng)故障診斷通過(guò)建立規(guī)則庫(kù)的方式判斷,但這種規(guī)則庫(kù)主要依賴于人工經(jīng)驗(yàn)。而隨著人工智能的興起,深度學(xué)習(xí)算法在處理非線性問(wèn)題方面的優(yōu)勢(shì)開(kāi)始逐步體現(xiàn)。如唐斯等[1]提出基于深度學(xué)習(xí)算法,利用注意力與多尺度卷積神經(jīng)網(wǎng)絡(luò)對(duì)電機(jī)軸承故障診斷,實(shí)現(xiàn)了電機(jī)軸承故障的快速診斷。石赫等[2]基于深度學(xué)習(xí),對(duì)非線性電網(wǎng)故障進(jìn)行了準(zhǔn)確定位?;诖?,本研究提出一種基于CNN卷積神經(jīng)網(wǎng)絡(luò)的電力通信網(wǎng)故障診斷模型,以實(shí)現(xiàn)對(duì)電力通信網(wǎng)的故障診斷。
CNN神經(jīng)網(wǎng)絡(luò)由卷積層、池化層、全連接層三層結(jié)構(gòu)組成[3]。其中,卷積層是整個(gè)網(wǎng)絡(luò)的核心層,主要負(fù)責(zé)提取圖像特征,其數(shù)學(xué)描述如式(1):
y=f(∑wijx+b)
(1)
式中,x、y分別表示該網(wǎng)絡(luò)層的輸入和輸出圖像特征,wij表示二維卷積核,b表示偏置項(xiàng),f(·)表示激活函數(shù),通常為tanh函數(shù)、sigmoid函數(shù)、ReLU函數(shù),但由于前2種函數(shù)收斂速度緩慢,且容易梯度消失,因此本研究中采用ReLU函數(shù),具體表達(dá)式為
f(x)=max(0,x)
(2)
池化層分為平均池化和最大池化2個(gè)大類[4],主要負(fù)責(zé)強(qiáng)化卷積層提取的圖像特征,以提高模型的泛化能力。在本研究中,采用最大池化采樣,數(shù)學(xué)表達(dá)式為
y=f(βdown(x)+b)
(3)
式中,x、y分別表示池化輸入特征和卷積層輸出特征,β、b分別表示乘性和加性偏置項(xiàng),down(·)表示池化函數(shù)。
全連接層的作用是通過(guò)連接的神經(jīng)元組合圖像局部特征,實(shí)現(xiàn)分類并輸出分類結(jié)果。其數(shù)學(xué)描述如式(4)。
y=f(wx+b)
(4)
式中,y表示全連接輸出,f(·)表示激活函數(shù),x表示全連接層輸入,w表示權(quán)值,b表示偏置項(xiàng)。本文的全連接層采用softmax函數(shù)[5]。
CNN網(wǎng)絡(luò)訓(xùn)練的具體流程如下:
(1) 設(shè)置網(wǎng)絡(luò)初始參數(shù),并輸入網(wǎng)絡(luò);
(2) 計(jì)算模型輸出值與目標(biāo)輸出值的誤差;
(3) 當(dāng)誤差小于期望值時(shí),結(jié)束訓(xùn)練,并輸出固定權(quán)值和閾值;反之,則反向傳播誤差,并更新權(quán)值,重復(fù)步驟(2)和步驟(3),直至誤差小于期望值,結(jié)束訓(xùn)練。
基于CNN通信的故障診斷模型構(gòu)建方法,首先利用故障狀態(tài)矩陣對(duì)整個(gè)網(wǎng)絡(luò)故障狀態(tài)進(jìn)行表征,并添加根源故障標(biāo)簽[6]。其次,利用CNN網(wǎng)絡(luò)提取故障特征。然后,計(jì)算輸出結(jié)果與真實(shí)標(biāo)簽向量的誤差。最后,利用softmax分類器輸出診斷結(jié)果。
考慮到原始告警信息數(shù)據(jù)中存在大量噪聲等干擾信息會(huì)對(duì)模型訓(xùn)練造成影響,研究對(duì)這些數(shù)據(jù)進(jìn)行選取與標(biāo)準(zhǔn)化、時(shí)間同步、加權(quán)編碼的處理,具體處理方式如圖1所示。
(1) 告警數(shù)據(jù)選取與標(biāo)準(zhǔn)化
結(jié)合當(dāng)期獲取的電力通信網(wǎng)告警信息特征,本研究對(duì)告警數(shù)據(jù)處理與標(biāo)準(zhǔn)化處理具體實(shí)現(xiàn)方法如下。首先,將采集到的原始告警信息輸入數(shù)據(jù)庫(kù),選取與故障診斷相關(guān)的數(shù)據(jù);然后,根據(jù)本研究定義屬性值和字段名對(duì)所有選取的數(shù)據(jù)進(jìn)行標(biāo)準(zhǔn)化處理,即實(shí)現(xiàn)了對(duì)原始告警數(shù)據(jù)的初步處理。在告警數(shù)據(jù)標(biāo)準(zhǔn)化階段,研究根據(jù)字段值對(duì)最終診斷結(jié)果的影響程度,選取了5個(gè)對(duì)診斷結(jié)果影響較大的字段作為每一條告警信息的標(biāo)識(shí)[7-8]。告警數(shù)據(jù)標(biāo)準(zhǔn)化選取的告警字段及其對(duì)應(yīng)屬性值如表1所示。
表1 標(biāo)準(zhǔn)告警字段及屬性值
(2) 時(shí)間同步
(3) 告警數(shù)據(jù)編碼
告警數(shù)據(jù)編碼主要是表明每種告警對(duì)故障診斷的重要性。研究根據(jù)告警信息不同級(jí)別和類型對(duì)告警信息進(jìn)行加權(quán),以表征故障重要程度。但實(shí)際故障診斷中,由于存在如設(shè)備板卡脫位時(shí)根因告警等次要告警,而這類告警對(duì)故障診斷十分重要,因此本研究利用歷史數(shù)據(jù),設(shè)定每種告警對(duì)故障診斷的重要性,并通過(guò)式(5)對(duì)所有故障診斷影響權(quán)值進(jìn)行計(jì)算。
(5)
式中,wA表示告警A對(duì)故障診斷影響權(quán)值,k表示故障種類,wi表示告警A對(duì)第i中故障的權(quán)值,nA表示wi不等于0的個(gè)數(shù)。
考慮到編碼規(guī)模,研究?jī)H選取了其中8種權(quán)值較大的告警類型進(jìn)行編碼,并根據(jù)告警權(quán)值大小進(jìn)行優(yōu)先級(jí)排序和二值化編碼,得到如表2所示的編碼結(jié)果。
表2 告警編碼
采用圖論鄰接矩陣表征站點(diǎn)拓?fù)溥B接關(guān)系。設(shè)一個(gè)有n個(gè)站點(diǎn)的圖為G,其頂點(diǎn)集、鄰接矩陣、邊集分別為V(G)={v1,v2,…,vn}、A(G)=(aij)n×n、E(G)。
其中:
(6)
編碼故障時(shí)刻每個(gè)站點(diǎn)的告警事務(wù)為T(mén)(G)=diag{t11,t22,…,tnn},tii表示站點(diǎn)vi的告警事務(wù)編碼。定義故障狀態(tài)矩陣為F(G),可通過(guò)式(7)計(jì)算。
V(G)={S1,S2,S3,S4,S5}
(7)
假設(shè)站點(diǎn)集V(G)={S1,S2,S3,S4,S5}中S1丟失接收測(cè)光信號(hào),則該時(shí)刻各站點(diǎn)對(duì)應(yīng)的告警事務(wù)編碼如表3所示。
表3 各站點(diǎn)告警事務(wù)編碼
由式(6)可知鄰接矩陣為
(8)
根據(jù)故障時(shí)刻告警實(shí)物編碼可知:
(9)
由式(7)可知故障狀態(tài)矩陣為
(10)
完成告警數(shù)據(jù)編碼后,添加其對(duì)應(yīng)的根源故障標(biāo)簽即可實(shí)現(xiàn)關(guān)聯(lián)根源故障與告警。將所有故障時(shí)刻告警事務(wù)進(jìn)行編碼,即可得到CNN網(wǎng)絡(luò)訓(xùn)練樣本集。故障類型標(biāo)簽編碼如表4所示。
表4 故障類型標(biāo)簽編碼
基于CNN網(wǎng)絡(luò)主要通過(guò)卷積操作實(shí)現(xiàn)特征提取輸入網(wǎng)絡(luò)的故障狀態(tài)矩陣不同類別的故障特征圖[8]。當(dāng)卷積核越多時(shí),提取到不同層面的特征就越多,就越容易挖掘出故障和告警的特征關(guān)聯(lián),故本研究采用多核進(jìn)行卷積操作。多核卷積操作如圖2所示。
圖2 告警數(shù)據(jù)處理流程圖
最大池化層主要功能是減少圖的特征維度,保留圖的重要特征[9]。其具體池化操作如圖3所示。
圖3 故障特征最大池化
通過(guò)最大池化操作,整個(gè)卷積神經(jīng)網(wǎng)絡(luò)已經(jīng)提取到n1,n2,…,nk等k個(gè)不同故障類別的特征圖。但由于這k個(gè)特征圖僅由故障狀態(tài)矩陣中局部像素獲得,只能反映故障類別的局部特征,而故障特征的完全類別特征并沒(méi)有表示出來(lái),因此需要通過(guò)全連接層加權(quán)處理組合這些局部故障類別特征,并利用softmax分類器進(jìn)行分類,得到每個(gè)故障更全面的特征。根據(jù)故障類別(6類),本研究建立的softmax分類器包含6個(gè)神經(jīng)元,分別對(duì)應(yīng)T1、T2、T3、T4、T5、T6不同故障類別標(biāo)簽,如圖4所示。
圖4 全連接加分類器
對(duì)于故障站點(diǎn)標(biāo)簽,本研究中除softmax層輸出維度的網(wǎng)絡(luò)結(jié)構(gòu)參數(shù)不同外,含1×6的故障類型標(biāo)簽向量,其余參數(shù)均與故障站點(diǎn)標(biāo)簽分類的訓(xùn)練網(wǎng)絡(luò)一致。
2.4.1 診斷模型
考慮到本研究的故障樣本數(shù)據(jù)量有限,且故障狀態(tài)矩陣為11×11,較為簡(jiǎn)單,故本研究設(shè)計(jì)基于CNN的電力通信網(wǎng)故障診斷模型結(jié)構(gòu)較為簡(jiǎn)單,如圖5所示,具體每一層的網(wǎng)絡(luò)參數(shù)如表5所示。表中,C1、C2表示卷積層;P1、P2層表示池化層;FC表示全連接層。
圖5 基于CNN的電力通信網(wǎng)故障診斷模型
表5 基于CNN的電力通信網(wǎng)故障診斷模型參數(shù)
輸入層輸入圖像輸出的是維度為1×1×11單通道灰度圖片。C1的卷積核在卷積前補(bǔ)充一圈0給輸入的圖片四周,以避免圖像邊緣的像素過(guò)多參與卷積導(dǎo)致的邊緣信息大幅丟失,確保輸出特征圖保持原始圖片的大小,長(zhǎng)和寬均為(11+2-3)/1+1=11。由于C1層的卷積核為32個(gè),因此其通道數(shù)為32個(gè)。C2層的輸出特征圖長(zhǎng)寬均為(5+2-3)/1+1=5。P1層的輸出特征圖長(zhǎng)寬均為(11-2)/2+1=5,由于其輸入為C1層輸出,因此其通道同樣為32個(gè)。P2層的輸出特征圖長(zhǎng)寬為(10-2)/2+1=5。FC含1 024個(gè)神經(jīng)元,故其輸出為 1×1 024。softmax分類層輸出維度為1×6。
2.4.2 診斷模型實(shí)現(xiàn)
采用上述方法搭建基于CNN的電力通信網(wǎng)故障模型,并利用采集的告警數(shù)據(jù)對(duì)其訓(xùn)練和測(cè)試。模型訓(xùn)練和測(cè)試具體流程如圖6所示,主要分為以下步驟。
圖6 基于CNN的電力通信網(wǎng)故障診斷流程圖
步驟1:將采樣的告警數(shù)據(jù)進(jìn)行預(yù)處理和編碼得到故障狀態(tài)矩陣集,并轉(zhuǎn)化為灰度圖片。
步驟2:根據(jù)輸入樣本標(biāo)簽和分類要求建立2個(gè)CNN網(wǎng)絡(luò),每個(gè)網(wǎng)絡(luò)分別包括2個(gè)卷積層、2個(gè)池化層、1個(gè)全連接層、1個(gè)輸出層。
步驟3:采用截?cái)嗾龖B(tài)分布法和集成交叉熵函數(shù)法分別設(shè)置初始參數(shù)與定義損失,并采用Adam算法優(yōu)化器優(yōu)化訓(xùn)練。
步驟4:將圖片通過(guò)池化層和全連接層輸出,并計(jì)算其與真實(shí)值的誤差a。
步驟5:判斷模型是否收斂,若模型未收斂,則進(jìn)入步驟6,反之,則進(jìn)入步驟7。
步驟6:將a反向傳播到CNN網(wǎng)絡(luò)各層,并采用BP算法調(diào)整各層權(quán)值,直到模型收斂。
步驟7:根據(jù)損失函數(shù)值大小判斷CNN網(wǎng)絡(luò)是否滿足要求,若滿足則輸出最終故障診斷,反之則返回步驟3。
電力通信網(wǎng)最重要的組成部分是SDH設(shè)備和核心路由器,因此本研究配置的實(shí)驗(yàn)環(huán)境為由華為技術(shù)有限公司提供的11臺(tái)SDH網(wǎng)絡(luò)傳輸機(jī)器、4臺(tái)網(wǎng)管服務(wù)器、8臺(tái)NE40E核心路由器。另外,配置有4臺(tái)OTN和1臺(tái)信號(hào)發(fā)聲器以及1套視頻會(huì)議系統(tǒng)。根據(jù)以上設(shè)備設(shè)施,本研究搭建了如圖7所示的電力通信網(wǎng)仿真實(shí)驗(yàn)拓?fù)鋱D。
圖7 電力通信網(wǎng)仿真測(cè)試拓?fù)鋱D
在SDH配置中,本研究首先進(jìn)行了物理連接和創(chuàng)建配置網(wǎng)元,然后完成了時(shí)鐘的同步設(shè)置以及保護(hù)子網(wǎng)和業(yè)務(wù)的配置,最后通過(guò)上述操作實(shí)現(xiàn)了SDH的整體配置。另外,為確保視頻會(huì)議系統(tǒng)正常運(yùn)行,本研究配置了5個(gè)1兆的視頻會(huì)議專用業(yè)務(wù)通道。
核心路由器配置主要是對(duì)IP和路由表進(jìn)行配置。本研究采用串口方式連接路由器的console口,并以命令行的方式進(jìn)行配置。
3.2.1 參數(shù)設(shè)置
由于神經(jīng)網(wǎng)絡(luò)通常存在訓(xùn)練時(shí)間長(zhǎng)、收斂速度慢的問(wèn)題,導(dǎo)致模型的訓(xùn)練速度和準(zhǔn)確率不高,因此需要對(duì)模型參數(shù)進(jìn)行調(diào)優(yōu)處理[10]。通常情況下,參數(shù)調(diào)優(yōu)有2種方式,分別是調(diào)整與訓(xùn)練過(guò)程有關(guān)的參數(shù),如學(xué)習(xí)率、迭代次數(shù)、最小批次以及調(diào)整與網(wǎng)絡(luò)結(jié)構(gòu)有關(guān)的參數(shù),如網(wǎng)絡(luò)層數(shù)、卷積核個(gè)數(shù)等?;诒狙芯恐性O(shè)計(jì)的卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)和樣本集的特點(diǎn),本研究主要對(duì)與訓(xùn)練過(guò)程有關(guān)的參數(shù)進(jìn)行了調(diào)優(yōu)。
將模型初始參數(shù)迭代次數(shù)設(shè)置為30次,學(xué)習(xí)率設(shè)置為0.01,最小批次大小設(shè)置為128,可得到模型的損失函數(shù)如圖8所示,模型的準(zhǔn)確率如圖9所示。
圖8 學(xué)習(xí)率為0.01時(shí)模型損失函數(shù)
圖9 學(xué)習(xí)率為0.01時(shí)模型準(zhǔn)確率
由圖8、圖9可知,模型的損失值在4.02~4.52之間,模型的準(zhǔn)確率在0.8%~2.5%之間,且存在劇烈的震蕩,均沒(méi)有呈現(xiàn)出明顯的下降或提高。由此可得出,學(xué)習(xí)率為0.01時(shí),模型沒(méi)有收斂。這或許是因?yàn)閷W(xué)習(xí)率過(guò)高,故在保持迭代次數(shù)和其他參數(shù)不變的條件下,調(diào)小學(xué)習(xí)率至0.001,得到模型的損失值如圖10所示,準(zhǔn)確率如圖11所示。
圖10 學(xué)習(xí)率為0.001時(shí)模型損失值
圖11 學(xué)習(xí)率為0.001時(shí)模型準(zhǔn)確率
由圖10可知,當(dāng)?shù)螖?shù)為20之前,模型的損失值下降速度較快;當(dāng)?shù)螖?shù)超過(guò)20后,模型的損失值下降速度不明顯,其原因或是過(guò)度擬合,因此在參數(shù)調(diào)優(yōu)中,需要減少迭代次數(shù)。由圖11可知,當(dāng)?shù)螖?shù)為20時(shí),模型的準(zhǔn)確率高達(dá)98.21%。
綜上可知,本研究設(shè)計(jì)的CNN卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)合理可行,可利用控制變量法對(duì)參數(shù)進(jìn)行微調(diào)。
3.2.2 參數(shù)調(diào)優(yōu)及結(jié)果分析
(1)學(xué)習(xí)率調(diào)優(yōu)結(jié)果分析
在最小批次為128,迭代次數(shù)為20時(shí),不同學(xué)習(xí)率的模型結(jié)果如表6所示。由表可知,當(dāng)學(xué)習(xí)率為[0.000 5,0.004]時(shí),準(zhǔn)確率均達(dá)到97%以上;當(dāng)學(xué)習(xí)率為[0.004,0.005]時(shí),準(zhǔn)確率快速下降;當(dāng)學(xué)習(xí)率為[0.000 5,0.001]時(shí),準(zhǔn)確率提升較小,再降低學(xué)習(xí)率只會(huì)導(dǎo)致訓(xùn)練時(shí)間延長(zhǎng),并不會(huì)對(duì)模型準(zhǔn)確率有較大影響,因此可以確定模型最佳學(xué)習(xí)率應(yīng)在0.001至0.004之間。
表6 不同學(xué)習(xí)率的模型準(zhǔn)確率
(2)最小批次調(diào)優(yōu)結(jié)果分析
在學(xué)習(xí)率為0.001,迭代次數(shù)為20時(shí),不同最小批次大小的模型診斷準(zhǔn)確率如表7所示。由表可知,當(dāng)最小批次大小在128之前,模型的準(zhǔn)確率均高于93%;當(dāng)最小批次大小超過(guò)128之后,模型的準(zhǔn)確率急劇下降,因此可以確定模型最好的最小批次大小應(yīng)為128。
表7 不同最小批次大小模型診斷準(zhǔn)確率
(3)迭代次數(shù)調(diào)優(yōu)結(jié)果分析
在學(xué)習(xí)率為0.001,最小批次大小為128時(shí),不同迭代次數(shù)模型的診斷準(zhǔn)確率如表8所示。由表可知,當(dāng)?shù)螖?shù)為20時(shí),模型的準(zhǔn)確率快速提升;當(dāng)?shù)螖?shù)大于20后,模型的準(zhǔn)確率提升幅度較小,而繼續(xù)增加迭代次數(shù)容易導(dǎo)致過(guò)度擬合。因此,綜合考慮以上因素,本研究控制迭代次數(shù)為20次。
表8 不同迭代次數(shù)的模型診斷準(zhǔn)確率
為驗(yàn)證卷積神經(jīng)網(wǎng)絡(luò)算法的性能,本研究比較了該算法與貝葉斯分類算法的診斷準(zhǔn)確率,如圖12所示。由圖可知,本研究提出的卷積神經(jīng)網(wǎng)絡(luò)算法的診斷準(zhǔn)確率比貝葉斯分類算法的診斷準(zhǔn)確率高6.23%,說(shuō)明卷積神經(jīng)網(wǎng)絡(luò)算法的特征提取能力優(yōu)于貝葉斯分類算法,具有良好的特征提取能力。
圖12 不同算法的故障診斷模型準(zhǔn)確率
通過(guò)參數(shù)調(diào)優(yōu),本研究設(shè)計(jì)的卷積神經(jīng)網(wǎng)絡(luò)模型的故障診斷準(zhǔn)確率達(dá)到99.23%,且比貝葉斯分類算法模型的故障診斷準(zhǔn)確率高6.23%,說(shuō)明本研究設(shè)計(jì)的卷積神經(jīng)網(wǎng)絡(luò)模型可有效提取故障和告警之間的特征關(guān)系,同時(shí)對(duì)故障的分類和診斷準(zhǔn)確率較高,基本與實(shí)際情況相符。
綜上所述,本研究提出的基于CNN卷積神經(jīng)網(wǎng)絡(luò)故障診斷模型結(jié)構(gòu)合理可行,可通過(guò)控制變量法對(duì)微調(diào)參數(shù),進(jìn)而獲得電力通信網(wǎng)故障最佳診斷模型。相較于貝葉斯分類算法模型,該模型對(duì)電力通信網(wǎng)的故障診斷準(zhǔn)確率提高了6.23%,達(dá)到99.23%,基本與實(shí)際情況相符。但由于本研究實(shí)驗(yàn)場(chǎng)地限制,僅設(shè)置了11個(gè)網(wǎng)絡(luò)站點(diǎn),無(wú)法與真實(shí)的電力通信網(wǎng)站點(diǎn)相提并論,因此在實(shí)際電力通信網(wǎng)絡(luò)故障診斷中,故障診斷的難度或?qū)⒋蠓仍黾?。所以,本研究還需在實(shí)驗(yàn)環(huán)境中增加站點(diǎn)數(shù)量,以滿足實(shí)際電力通信網(wǎng)的需求,使數(shù)據(jù)集更符合真實(shí)情況。