亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于優(yōu)化深度神經(jīng)網(wǎng)絡(luò)的配電網(wǎng)單相接地故障診斷

        2021-03-19 01:40:20薛太林耿杰
        電氣自動(dòng)化 2021年1期
        關(guān)鍵詞:基波零序神經(jīng)網(wǎng)絡(luò)

        薛太林,耿杰

        (山西大學(xué) 電力工程系,山西 太原 030013)

        0 引 言

        電力系統(tǒng)配電網(wǎng)故障分為單相接地故障、相間短路故障和接地相間短路故障,其中80%~90%的配電網(wǎng)故障為單相接地故障[1-3]。雖然小電流接地系統(tǒng)在單相接地故障后仍然可以保持正常工作時(shí)間,但是隨著電力系統(tǒng)配電網(wǎng)規(guī)模增大,單相接地短路故障造成的影響也隨之增大。不僅影響了用戶的正常供電,而且可能產(chǎn)生過電壓,燒壞設(shè)備,如果其他線路也具有金屬性短路,則同時(shí)會發(fā)生相間短路,這是更嚴(yán)重的短路事故。為了避免造成更大的事故,應(yīng)迅速識別故障線路和正常線路[4]。

        針對配電網(wǎng)單相接地故障,國內(nèi)外專家做了許多研究。文獻(xiàn)[5]對比了人工神經(jīng)網(wǎng)絡(luò)、分類決策樹、貝葉斯網(wǎng)絡(luò)和支持向量機(jī)等不同算法對配網(wǎng)選線的精確度的影響,但是只是對比了傳統(tǒng)的算法并沒有對算法進(jìn)行改進(jìn)優(yōu)化。文獻(xiàn)[6]提出了采用小波頻熵和熵權(quán)作為深度神經(jīng)網(wǎng)絡(luò)訓(xùn)練的特征值,但是存在激活函數(shù)梯度消失的問題。文獻(xiàn)[7]提出采用遺傳算法優(yōu)化BP神經(jīng)網(wǎng)絡(luò),克服BP神經(jīng)網(wǎng)絡(luò)對權(quán)值不敏感的問題,雖然提高了神經(jīng)網(wǎng)絡(luò)的收斂速度,但是在提高故障辨識精度方面仍需改進(jìn)。

        為了解決上述問題,提出了采用交叉熵?fù)p失函數(shù)和改進(jìn)學(xué)習(xí)率優(yōu)化的深度神經(jīng)網(wǎng)絡(luò)對故障進(jìn)行辨別的方法。通過MATLAB/Simulink搭建的小電流接地系統(tǒng)單相接地故障模型,分析了五種故障特征,并計(jì)算故障特征值,構(gòu)建了深度神經(jīng)網(wǎng)絡(luò)模型。結(jié)果表明:優(yōu)化后的深度神經(jīng)網(wǎng)絡(luò)比未優(yōu)化的深度神經(jīng)網(wǎng)絡(luò)有效地減少了迭代次數(shù),提高了學(xué)習(xí)效率,解決了Logistic sigmoid函數(shù)在訓(xùn)練中存在梯度消失的問題。在測試樣本中加入少量的干擾信號對故障進(jìn)行判斷時(shí),判斷結(jié)果表明:優(yōu)化后的深度神經(jīng)網(wǎng)絡(luò)比未優(yōu)化的神經(jīng)網(wǎng)絡(luò)故障判斷更精確,準(zhǔn)確率更高,抗干擾性好。

        1 小電流接地系統(tǒng)單相接地故障分析

        在我國,66 kV及以下配電網(wǎng)系統(tǒng)采用小電流接地方式,本文選取10 kV小電流系統(tǒng)為研究對象[8]。在MATLAB中搭建具有五條支路的小電流系統(tǒng)模擬故障,設(shè)置故障初相角從0~π、間隔0.02π,設(shè)置接地電阻從0~1 000 Ω、間隔10 Ω,設(shè)置故障點(diǎn)從線路始端、間隔0.5 km。通過MATLAB/Simulink仿真獲得大量故障數(shù)據(jù),為之后深度網(wǎng)絡(luò)的研究奠定基礎(chǔ)。

        1.1 穩(wěn)態(tài)故障特征值的計(jì)算

        1.1.1 零序電流基波故障特征

        在中性點(diǎn)經(jīng)消弧線圈接地系統(tǒng)中,基波的幅值與方向取決于消弧線圈的補(bǔ)償程度,此方法無法判斷故障;在中性點(diǎn)不接地系統(tǒng)中,故障線路基波分量為各非故障線路分量之和,且與非故障線路流向相反,選擇零序電流基波的幅值與相角作為所提取特征量,選取故障后第三個(gè)周期的波形提取特征值。使用傅里葉分解零序基波電流計(jì)算如式(1)所示。

        (1)

        式中:Re[I0]為實(shí)軸分量;Im[I0]為虛軸分量;Ts=1/fs;fs為采樣頻率;ωTs=2π/N;N為所取周期內(nèi)采樣點(diǎn)個(gè)數(shù)。由于對基波進(jìn)行傅里葉分解,因此n=1。

        零序基波電流幅值I0、相角θ1計(jì)算如式(2)所示。

        (2)

        1.1.2 零序電流五次諧波故障特征

        故障線路五次諧波分量是各非故障線路分量之和,且與非故障線路流向相反,故選擇五次諧波的幅值與相角作為所提取的特征量。同理對零序電流五次諧波進(jìn)行傅里葉分解,計(jì)算過程如式(1)、式(2)所示,n=5。

        1.1.3 零序電流有功分量故障特征

        故障線路零序有功分量,在中性點(diǎn)不接地時(shí),是各非故障線路有功之和,且方向相反;中性點(diǎn)經(jīng)消弧線圈接地時(shí),各非故障線路有功之和等于故障線路與消弧線圈支路有功之和,故選擇有功的大小、符號作為所提取特征量。首先選取故障后第三個(gè)周期的基波零序電流、電壓波形,通過傅里葉分解對基波零序電流、電壓進(jìn)行分解,根據(jù)式(1)計(jì)算出基波零序電流、電壓的實(shí)軸分量Re[I0]、Re[U0]和虛軸分量Im[I0]、Im[U0]。根據(jù)式(2)計(jì)算出基波零序電壓幅值U0、基波零序電壓相位θU、基波零序電流幅值I0和基波零序電流相位θ1。

        基波零序有功分量的計(jì)算如式(3)所示,|I0P|與其符號作為所提取的特征值。

        I0P=I0cos(|θU-θ1|)

        (3)

        1.2 暫態(tài)故障特征值計(jì)算

        1.2.1 故障線路首半波故障特征

        故障線路的故障信號首半波大小大于非故障線路,極性與非故障線路相反,故選擇故障后首半波的幅值與極性作為所提取特征量。選取故障發(fā)生后第一個(gè)周期內(nèi)的零序電流為所采集信號,幅值計(jì)算如式(4)所示。

        Imax=|I0|

        (4)

        式中:I0為故障發(fā)生后第一個(gè)周期的零序電流。若零序電流在前半個(gè)周期為正,則極性設(shè)為1,反之設(shè)極性為-1。

        1.2.2 小波包能量故障特征

        在特定的頻帶中,故障線路小波包能量大于非故障線路,故選擇小波包能量作為特征量。選取故障后第一個(gè)周期內(nèi)的信號,使用db15小波基函數(shù)進(jìn)行5層分解,計(jì)算第4尺度內(nèi)的小波包能量作為特征值。

        2 深度神經(jīng)網(wǎng)絡(luò)模型

        隨著云計(jì)算、大數(shù)據(jù)時(shí)代到來,計(jì)算機(jī)的計(jì)算能力大幅提升,緩解了過去對復(fù)雜模型訓(xùn)練的低效性,訓(xùn)練數(shù)據(jù)規(guī)模的擴(kuò)大降低了數(shù)據(jù)過擬合的風(fēng)險(xiǎn),因此深度學(xué)習(xí)得到了人們的青睞[9]。

        2.1 深度神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)模型

        圖1所示為三層隱含層的深度神經(jīng)網(wǎng)絡(luò),輸入層輸入值為所提取的m個(gè)故障特征值,記作列向量{xm}。每個(gè)激活函數(shù)的輸入值為前一層每個(gè)神經(jīng)元的輸入值與相對應(yīng)的權(quán)重值w乘積的和加誤差值b,激活函數(shù)的輸出值為下一層神經(jīng)元的輸入值。

        圖1 深度神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)圖

        以第1個(gè)隱含層為例:xi為深度神經(jīng)網(wǎng)絡(luò)的輸入值;wip為輸入值的權(quán)重系數(shù);bip為誤差值;i為第1個(gè)隱含層輸入個(gè)數(shù);p為第1個(gè)隱含層輸出個(gè)數(shù);1為第1個(gè)隱含層。第1個(gè)隱含層激活函數(shù)的輸入z1p如式(5)所示。

        (5)

        σ為深度神經(jīng)網(wǎng)絡(luò)激活函數(shù),第1個(gè)隱含層激活函數(shù)的輸出值a1p為第2個(gè)隱含層的輸入值,如式(6)所示。

        a1p=σ(z1p)

        (6)

        同理可得第2個(gè)隱含層的輸出a2e和激活函數(shù)的輸入z2e,如式(7)所示。

        (7)

        式中:2為第2個(gè)隱含層;e為第2個(gè)隱含層輸出個(gè)數(shù)。

        第3個(gè)隱含層的輸出值yn為深度網(wǎng)絡(luò)的輸出值,第3個(gè)隱含層的輸入值為z3n,如式(8)所示。

        (8)

        式中:3為第3個(gè)隱含層;n為深度網(wǎng)絡(luò)輸出個(gè)數(shù)。

        2.2 深度神經(jīng)網(wǎng)絡(luò)的優(yōu)化

        (9)

        通過對深度網(wǎng)絡(luò)的訓(xùn)練求取合適的網(wǎng)絡(luò)參數(shù)權(quán)重值w、誤差值b,使ε有最小值。

        本文針對深度網(wǎng)絡(luò)損失函數(shù)和學(xué)習(xí)率對深度網(wǎng)絡(luò)進(jìn)行優(yōu)化。給定w、b初始值,采用梯度下降優(yōu)化損失函數(shù)J,計(jì)算目標(biāo)函數(shù)曲線每一個(gè)所取w在曲線上的斜率,η為學(xué)習(xí)率,第n+1次迭代w、b更新如式(10)所示。

        (10)

        2.2.1 損失函數(shù)的優(yōu)化

        (11)

        設(shè)輸出層為L層,該層權(quán)重值wL和誤差值bL的梯度如式(12)所示。

        (12)

        輸出層L層的梯度情況用δL表示,如式(13)所示。

        (13)

        式中:⊙為Hadamard積。

        而sigmoid激活函數(shù)表達(dá)式為:

        (14)

        由式(14)可知,當(dāng)激活函數(shù)輸入值z的取值逐漸增大,函數(shù)曲線變得越來越平緩,意味著此時(shí)的導(dǎo)數(shù)σ′(z)也越來越小。同樣的,當(dāng)z的取值越來越小時(shí),也有這個(gè)問題。僅僅在z取值為0附近時(shí),導(dǎo)數(shù)σ′(z)的取值較大。方差損失函數(shù)與sigmoid激活函數(shù)的反向傳播算法中,每一層向前遞推都要乘以σ′(z),得到梯度變化值。sigmoid函數(shù)的曲線在大多數(shù)時(shí)候,梯度變化值很小,導(dǎo)致w、b更新到極值的速度較慢,意味著算法收斂速度較慢。

        (15)

        則輸出層的梯度情況δL計(jì)算公式如式(16)所示。

        (16)

        式中:aL為輸出層的輸入值。

        由式(12)和式(16),對比兩者在輸出層L層的δL梯度表達(dá)式,就可以看出使用交叉熵得到的梯度表達(dá)式δL沒有了σ′(z),梯度為預(yù)測值和真實(shí)值的差距,這樣求得的權(quán)重值wL和誤差值bL的梯度也不包含σ′(z),因此避免了反向傳播收斂速度慢的問題。

        2.2.2 學(xué)習(xí)率的優(yōu)化

        深度神經(jīng)網(wǎng)絡(luò)需要設(shè)置合適的學(xué)習(xí)率,如果學(xué)習(xí)率設(shè)置得過大,訓(xùn)練誤差ε在每次更新后可能并不會減小;如果學(xué)習(xí)率設(shè)置得過小,訓(xùn)練會變得很慢。因此在剛開始訓(xùn)練時(shí)離最終結(jié)果遠(yuǎn),將學(xué)習(xí)率設(shè)置的大一點(diǎn),當(dāng)訓(xùn)練了幾次后接近最終結(jié)果,將學(xué)習(xí)率調(diào)小,gi為訓(xùn)練損失函數(shù)J對權(quán)值w的偏導(dǎo)數(shù),t為迭代次數(shù),改進(jìn)學(xué)習(xí)率ηw設(shè)置如式(17)所示。

        (17)

        式中:η為固定值。導(dǎo)數(shù)gi越小學(xué)習(xí)率越大,反之亦然,學(xué)習(xí)率隨著迭代次數(shù)的增加越來越小。

        2.3 深度網(wǎng)絡(luò)超參數(shù)

        深度網(wǎng)絡(luò)的輸入層節(jié)點(diǎn)數(shù)為9,輸出層節(jié)點(diǎn)數(shù)為5,每一個(gè)輸入代表一種所提取的特征值,每一個(gè)輸出代表一條線路,五個(gè)輸出節(jié)點(diǎn)輸出值最大的節(jié)點(diǎn)為本次判斷的結(jié)果即故障所在線路。選擇的深度神經(jīng)網(wǎng)絡(luò)具有三個(gè)隱藏層,設(shè)定網(wǎng)絡(luò)的迭代次數(shù)為1 000,誤差界值設(shè)置為0.001,設(shè)置優(yōu)化后的深度網(wǎng)絡(luò)初始的學(xué)習(xí)率η為0.01,根據(jù)式(17)設(shè)置改進(jìn)的學(xué)習(xí)率ηw,每次迭代學(xué)習(xí)率根據(jù)梯度的下降而減小,設(shè)置未優(yōu)化的深度網(wǎng)絡(luò)學(xué)習(xí)率η為0.001。

        3 深度神經(jīng)網(wǎng)絡(luò)訓(xùn)練與測試

        將前文所提的三種穩(wěn)態(tài)特征量:零序電流基波幅值與極性特征,零序電流五次諧波幅值與極性特征,以及零序電流有功分量幅值與極性特征。故障首半波幅值與極性特征、小波包能量特征,作為深度網(wǎng)絡(luò)的輸入值對深度神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練。

        深度網(wǎng)絡(luò)的辨識精度通常會隨著網(wǎng)絡(luò)迭代次數(shù)的增加而提高。當(dāng)訓(xùn)練誤差ε的值達(dá)到所設(shè)定值0.001時(shí),訓(xùn)練停止。為了方便對比,當(dāng)兩種深度網(wǎng)絡(luò)模型的訓(xùn)練誤差都達(dá)到所設(shè)定值時(shí),訓(xùn)練停止。訓(xùn)練誤差如圖2所示。

        圖2 優(yōu)化后的深度神經(jīng)網(wǎng)絡(luò)和未優(yōu)化的深度神經(jīng)網(wǎng)絡(luò)訓(xùn)練誤差

        由圖2可知:采用交叉熵?fù)p失函數(shù)和改進(jìn)學(xué)習(xí)率的優(yōu)化的深度網(wǎng)絡(luò)誤差在21次迭代后降低至0.009 60,在55次迭代后降低至0.000 99;而采用方差損失函數(shù)和未改進(jìn)學(xué)習(xí)率的深度網(wǎng)絡(luò)誤差在33次迭代后降低至0.010 00,在86次迭代后降低至0.000 95。優(yōu)化深度網(wǎng)絡(luò)的訓(xùn)練迭代次數(shù)比未優(yōu)化深度網(wǎng)絡(luò)減少了36%,因此經(jīng)過交叉熵?fù)p失函數(shù)和改進(jìn)學(xué)習(xí)率的優(yōu)化的深度網(wǎng)絡(luò)具有更高的訓(xùn)練效率。

        選取誤差函數(shù)ε的值0.1、0.05、0.01、0.005、0.001為參考點(diǎn),采用交叉熵?fù)p失函數(shù)和改進(jìn)學(xué)習(xí)率優(yōu)化后的深度神經(jīng)網(wǎng)絡(luò)與采用方差損失函數(shù)和未改進(jìn)學(xué)習(xí)率的深度網(wǎng)絡(luò)相比較,迭代次數(shù)增加量如圖3所示。

        圖3 兩種深度神經(jīng)網(wǎng)絡(luò)的迭代次數(shù)增加量

        由圖2和圖3可知:在訓(xùn)練開始時(shí),ε∈[0.05,0.10]時(shí),由于優(yōu)化后的深度網(wǎng)絡(luò)初始學(xué)習(xí)率大,因此深度網(wǎng)絡(luò)訓(xùn)練效率高,誤差減少速度快,迭代次數(shù)增加變少;ε∈[0.01,0.05]時(shí),隨著迭代次數(shù)增加,由誤差曲線表明,梯度逐漸減小,優(yōu)化后深度網(wǎng)絡(luò)學(xué)習(xí)率逐漸降低,誤差變化越來越慢;ε∈[0.005,0.01]時(shí),未優(yōu)化的深度網(wǎng)絡(luò)出現(xiàn)梯度消失,誤差降低速度減小,網(wǎng)絡(luò)訓(xùn)練效率降低,迭代次數(shù)增幅大;ε∈[0.001,0.005]時(shí),優(yōu)化深度網(wǎng)絡(luò)的學(xué)習(xí)率低于未優(yōu)化深度網(wǎng)絡(luò),誤差降低速度進(jìn)一步變緩,迭代次數(shù)增加量高于之前的節(jié)點(diǎn)。雖然ε∈[0.001,0.005]時(shí)優(yōu)化深度網(wǎng)絡(luò)迭代次數(shù)增加了25次,但是總的迭代次數(shù)比未優(yōu)化深度網(wǎng)絡(luò)少31次,優(yōu)化后的深度網(wǎng)絡(luò)在訓(xùn)練效率方面更有優(yōu)勢。

        將所提取的測試數(shù)據(jù)中,隨機(jī)加入特征值模的±1.5%作為干擾信號,輸入到優(yōu)化后的深度網(wǎng)絡(luò)與未優(yōu)化的深度網(wǎng)絡(luò)中進(jìn)行故障辨識,辨識結(jié)果如表1所示。優(yōu)化后的深度網(wǎng)絡(luò)總的正確率為99.62%,未優(yōu)化的深度網(wǎng)絡(luò)正確率為98.28%,前者的錯(cuò)誤率是后者的4.53倍,優(yōu)化后的深度網(wǎng)絡(luò)具有更好的抗干擾性。

        表1 優(yōu)化后深度網(wǎng)絡(luò)與未優(yōu)化深度網(wǎng)絡(luò)故障辨識正確率

        4 結(jié)束語

        針對小電流接地系統(tǒng)單相接地故障,提出基于優(yōu)化深度網(wǎng)絡(luò),并將暫態(tài)、穩(wěn)態(tài)故障特征相結(jié)合的故障辨別方法。結(jié)果表明,采用改進(jìn)學(xué)習(xí)率和交叉熵?fù)p失函數(shù)優(yōu)化的深度網(wǎng)絡(luò)減少了31次迭代,訓(xùn)練效率提高了36%,避免了sigmoid激活函數(shù)在訓(xùn)練過程中存在梯度消失的問題。在測試樣本中加入少量干擾信號后,未優(yōu)化的深度網(wǎng)絡(luò)故障辨別錯(cuò)誤率是優(yōu)化后的深度網(wǎng)絡(luò)的4.53倍,綜上所述所提方法更加有效。

        猜你喜歡
        基波零序神經(jīng)網(wǎng)絡(luò)
        神經(jīng)網(wǎng)絡(luò)抑制無線通信干擾探究
        電子制作(2019年19期)2019-11-23 08:42:00
        基于跟蹤微分器的基波測量方法研究
        6kV供電系統(tǒng)零序保護(hù)誤動(dòng)作處理
        基于多尺度形態(tài)學(xué)和Kalman濾波的基波分量提取
        電測與儀表(2016年5期)2016-04-22 01:13:44
        基于IEC62053-24靜止式基波頻率無功電能表標(biāo)準(zhǔn)對提高無功補(bǔ)償效果的作用
        電測與儀表(2016年9期)2016-04-12 00:29:58
        利用基波相量變化率的快速選相方法
        大電流接地系統(tǒng)接地故障時(shí)零序電壓分析
        基于神經(jīng)網(wǎng)絡(luò)的拉矯機(jī)控制模型建立
        復(fù)數(shù)神經(jīng)網(wǎng)絡(luò)在基于WiFi的室內(nèi)LBS應(yīng)用
        基于支持向量機(jī)回歸和RBF神經(jīng)網(wǎng)絡(luò)的PID整定
        日本少妇爽的大叫高潮了| 少妇下面好紧好多水真爽播放| 在线亚洲午夜理论av大片| 丰满人妻熟妇乱又伦精品软件| 天天躁日日躁狠狠躁av| 久久夜色撩人精品国产小说 | 亚洲熟妇少妇69| 一区二区特别黄色大片| 日韩一区二区av极品| 亚洲av无码乱码在线观看裸奔| 色婷婷日日躁夜夜躁| 人妻AV无码一区二区三区奥田咲| 97人妻蜜臀中文字幕| 日本女优免费一区二区三区| 美女视频在线观看网址大全| 亚洲第一女人av| 天堂网www资源在线| 国产成年无码v片在线| 97中文字幕在线观看| 国产三级国产精品三级在专区| 亚洲精品岛国av一区二区| 欧美成人aaa片一区国产精品| 84pao强力打造免费视频34| 国产小屁孩cao大人免费视频| 精品一区2区3区4区| 一本一道vs无码中文字幕| 国产精品污www一区二区三区| 久久精品国产久精国产69| 日本高清色一区二区三区| 一区二区三区中文字幕在线播放| 久久国产色av免费观看| 亚洲av日韩av高潮潮喷无码| 99re6久精品国产首页| 精品人妻久久av中文字幕| 亚洲丰满熟女一区二亚洲亚洲| 色偷偷色噜噜狠狠网站30根| 性久久久久久久| 亚洲国产精品国自产电影| 一区二区在线观看日本免费| 久久理论片午夜琪琪电影网| 婷婷亚洲综合五月天小说|