亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于多模態(tài)圖像融合的DCCNN 識別電能質量擾動

        2024-02-18 05:49:14余雷劉宏偉孟蕓
        現(xiàn)代電子技術 2024年3期
        關鍵詞:模態(tài)特征方法

        余雷,劉宏偉,孟蕓

        (1.長安大學 能源與電氣工程學院,陜西 西安 710018;2.長安大學 電子與控制工程學院,陜西 西安 710064)

        0 引言

        近年來,具有不穩(wěn)定性的可再生能源發(fā)電設備大量的被并入電網(wǎng),從而導致并網(wǎng)電源輸出的不確定性,引發(fā)一系列電能質量問題,如諧波、振蕩、暫降等干擾[1]。這些干擾會對電網(wǎng)的安穩(wěn)運行帶來嚴重危害,準確識別電能質量擾動(Power Quality Disturbances,PQDs)對后續(xù)電能質量治理、保證電網(wǎng)安穩(wěn)運行至關重要。

        特征提取是PQDs 識別的關鍵,S 變換[2-3]、小波變換[4-5]、變分模態(tài)分解[6]等是常用的特征提取方法。雖然這些方法取得一些進展,但是在使用上仍舊存在局限性。不過隨著神經(jīng)網(wǎng)絡的快速發(fā)展,為PQDs 識別提供了一種新的研究思路[7]。文獻[8]和文獻[9]將PQDs 時序數(shù)據(jù)通過格拉姆角場(Gramian Angular Field,GAF)映射為二維圖像,然后利用卷積神經(jīng)網(wǎng)絡(Convolutional Neural Network,CNN)進行識別;文獻[10]將PQDs 時序數(shù)據(jù)通過馬爾可夫轉移場(Markov Transition Field,MTF)轉換得到模態(tài)圖像,輸入到結合多頭注意力機制的CNN 中進行特征提?。晃墨I[11]將PQDs 時序數(shù)據(jù)通過遞歸圖(Recurrence Plot,RP)生成二維圖像,輸入到長短時記憶神經(jīng)網(wǎng)絡中進行識別。上述文獻所提方法對于PQDs 識別雖然都取得了不錯的效果,但是也存在不足之處:

        1)大多只對簡單的單一擾動或者兩重擾動進行分類,對于復雜的多重擾動尚未探究;

        2)受限于單種模態(tài)變換,在維度變換過程中容易造成擾動特征信息丟失;

        3)使用單通道網(wǎng)絡結構進行識別,使得面對復雜擾動時提取特征信息不夠完整,分類準確率不高。

        基于以上考慮,本文提出一種基于多模態(tài)圖像融合的雙通道卷積神經(jīng)網(wǎng)絡(Dual-Channel Convolutional Neural Network,DCCNN)算法。首先,為降低格拉姆求和場(Gramain Angular Summation Field,GASF)特征圖的冗余度,提出一種改進的格拉姆角和場(Improved Gramain Angular Summation Field,IGASF);然后,將擾動信號通過IGASF、MTF、無閾值遞歸圖(Un-Thresholded Recurrence Plot,URP)三種模態(tài)轉換方法生成的圖像各提取出一個灰度單通道圖進行融合;最后,將融合得到的特征圖輸入到提出的DCCNN 模型進行識別。結果表明,該方法的抗噪聲魯棒性較好,擾動識別準確率高。

        1 模態(tài)融合

        面對采用單種模態(tài)對擾動信號進行變換過程中容易造成特征信息丟失的問題,本文采用不同模態(tài)融合進而使不同模態(tài)間的信息互補來彌補這一缺點。

        1.1 IGASF 模態(tài)轉換

        GAF 中的GASF 方法是基于余弦函數(shù)進行轉換,會導致生成的GASF 圖有一半冗余度,因此提出一種改進的GASF 算法。

        生成IGASF 特征圖的步驟如下[12]:

        1)通過式(1)將擾動信號X={x1,x2,…,xi,…,xn}進行歸一化并縮放到[-1,1]區(qū)間,xi(i=1,2,…,n)為序列X中的任意一個采樣點。

        2)用式(2)進一步將序列X轉化為極坐標時間序列。

        式中:N為正則化極坐標生成空間的常數(shù)因子;ti為xi對應的時間戳;θi為極坐標角度;ri為極坐標半徑。

        3)基于式(3)將經(jīng)式(2)得到的(ri,θi)組合進行圖像編碼變換,即可得到GASF 特征圖。

        式中x1i代表cos(θ1+θi),其余依次類推。

        觀察式(3)可得,GASF 矩陣沿著主對角線對稱,這就是導致生成的圖像有一半冗余的原因。所以,為降低GASF 圖像冗余,對GASF 算法進行改進。

        式(4)是把主對角線置0,保留上三角信息,式(5)是把主對角線置0,保留下三角信息。

        將式(4)、式(5)按照式(6)進行結合,即可得到IGASF 矩陣。

        擾動信號根據(jù)式(6)生成IGASF 圖像時,可以大大降低圖像的冗余。其中,GASF1 和GASF2 矩陣編碼變換的對象是擾動發(fā)生時刻不同的同類擾動。

        1.2 MTF 模態(tài)轉換

        MTF 算法是通過馬爾可夫轉移概率把擾動數(shù)據(jù)變換為二維圖像[13]。首先將擾動數(shù)據(jù)按取值范圍分為Q個部分,通過遷移概率生成大小為Q×Q的馬爾可夫變遷場W,表達式如式(7)所示:

        式中:wij為子空間qi轉移到子空間qj的概率;xt為t時刻對應的信號幅值。

        考慮到時間位置信息因素,將矩陣W拓展到包含時間信息的MTF,表達式如式(8)所示:

        式中:qi為xi對應的子空間;mij為子空間qi轉移到qj的概率。

        1.3 URP 模態(tài)轉換

        為保留擾動數(shù)據(jù)中所有的特征信息,本文采用URP算法對擾動數(shù)據(jù)進行模態(tài)變換。將擾動數(shù)據(jù)進行相空間重構,得到高維相空間。對于相空間中的軌跡xi(x∈Rd),d為嵌入維數(shù),URP 定義如下[14]:

        式中:‖·‖為∞范數(shù);Ri,j(unthres)為相空間中向量xi和xj間的歐氏距離。

        因為灰度圖能很好地表征圖像中的特征信息,所以將擾動信號經(jīng)上述三種模態(tài)轉換后的圖像各提取出一個灰度單通道圖進行融合,這樣生成的新特征圖中擾動特征信息會更加充分,流程如圖1 所示。

        圖1 多模態(tài)圖像融合流程圖

        2 基于DCCNN 的擾動識別模型

        CNN 在圖像識別方面極具優(yōu)勢,一些作者已經(jīng)把CNN 應用到PQDs 識別領域。但是,大部分文獻采用的單通道CNN 只能對一些簡單的擾動進行識別。同時,因為空洞卷積可以在不降低特征圖尺寸的情況下實現(xiàn)感受野的增長,從而使每個卷積的輸出包含更多的信息,所以為提高識別復雜擾動的準確率,本文提出一種引入空洞卷積的DCCNN 結構。

        普通卷積與空洞卷積的區(qū)別如圖2 所示,其中卷積核以3 × 3 為例。

        圖2 普通卷積和空洞卷積示意圖

        圖2a)為普通卷積(擴張率為1),圖2b)為空洞卷積(擴張率為2)。由圖2 可知,同樣大小的卷積核,空洞卷積后的感受野比普通卷積感受野要大,意味著相同大小的卷積核空洞卷積能提取更多的擾動特征。

        本文提出的DCCNN 模型擾動識別流程如圖3所示。

        圖3 DCCNN 結構擾動識別流程圖

        基于DCCNN 模型的擾動識別算法流程如下:

        1)將經(jīng)過多模態(tài)圖像融合生成的特征圖作為該網(wǎng)絡的輸入;

        2)在雙通道的不同卷積模塊中,對輸入圖像均進行卷積、池化等操作,然后將獲取的特征矩陣經(jīng)全連接層轉化為一維特征向量;

        3)將兩個通道得到的一維特征向量在特征融合層進行融合,接著輸入到Softmax 分類器中進行擾動分類。

        DCCNN 模型中激活函數(shù)使用的是ReLU,優(yōu)化器選用的是Adam,學習率設置為0.000 1,損失函數(shù)采用交叉熵損失函數(shù),該網(wǎng)絡的具體參數(shù)如表1 所示。

        表1 DCCNN 模型主要參數(shù)

        3 算例分析

        本實驗的計算機配置為12th Gen Intel?CoreTMi5-12500H 2.50 GHz、16 GB RAM 和NVIDA GeForce RTX3050 Ti Laptop GPU,網(wǎng)絡模型基于TensorFlow 2.6的Python 語言搭建。由Matlab 仿真生成20 種PQDs,其中包括8 種單一擾動、12 種復合擾動。每種擾動生成1 000 個樣本,訓練集和測試集隨機劃分比例為8∶2。每種擾動所對應標簽如表2 所示。

        表2 PQDs 類別及其對應的標簽

        3.1 訓練過程可視化分析

        提出的DCCNN 模型輸入特征圖大小為128×128×3,迭代250次,得到訓練集與測試集的準確率及其相應的損失值,訓練過程如圖4 所示。

        圖4 訓練過程可視化

        由圖4 可知,隨著迭代次數(shù)的增加,訓練集、測試集的準確率不斷提升,最終穩(wěn)定在97.5%左右。

        圖5 為擾動數(shù)據(jù)經(jīng)不同單模態(tài)轉換后,DCCNN 模型測試集輸出的相應準確率。

        圖5 不同模態(tài)測試集識別準確率

        從圖5 分析可知,PQDs 時序數(shù)據(jù)轉換為GASF 特征圖后,識別準確率達到92.8%;轉換為改進后的IGASF特征圖后,識別準確率達到95.6%,比未改進前的GASF特征圖識別準確率提高了2.8%;轉換為URP 和MTF 特征圖后,識別準確率達到94.7%。四種單模態(tài)轉換方法最終準確率都沒達到97.5%,說明了本文方法能保留更多的擾動特征信息。

        3.2 不同信噪比可視化分析

        為使仿真模擬接近實際情況,在劃分好的測試集中分別隨機加入30 dB、40 dB、50 dB 的高斯白噪聲,用訓練好的模型去識別。圖6為測試集在無噪聲、30 dB、40 dB、50 dB 高斯白噪聲環(huán)境下輸出的混淆矩陣,其中橫坐標代表預測類別的標簽,縱坐標代表真實類別的標簽,對角線和非對角線元素代表相對應的PQDs 標簽判斷正確和判斷錯誤的數(shù)量。

        圖6 不同噪聲條件下測試集識別準確率

        圖6a)為無噪聲環(huán)境下測試集輸出的混淆矩陣,可以看出大多數(shù)擾動都被正確識別出來,s11 代表暫降-諧波-閃變復合擾動,雖然正確識別數(shù)量較少,但也能達到93.5%的準確率;圖6b)為加入30 dB 高斯白噪聲后測試集輸出的混淆矩陣,總體準確率達到95.1%,相比于無噪聲條件下降了2.4%;圖6c)和圖6d)分別為加入40 dB和50 dB 高斯白噪聲后測試集輸出的混淆矩陣,總體準確率達到97.1%,相比于無噪聲條件下降了0.4%。雖然加入不同分貝的噪聲后,測試集準確率略有下降,但仍能保持較高的識別準確率,說明了本文方法具有一定的抗噪魯棒性。

        3.3 不同方法識別結果分析

        為進一步評價本文方法的有效性和可行性,將本文方法的識別準確率與文獻[15-16]中的識別準確率進行比較,并在表3 中給出。其中,由于PQDs 信號組合較多,多數(shù)文獻研究的擾動信號不完全一樣,因此表3 給出的識別準確率是相關文獻與本文所研究的擾動對象重合部分。

        表3 不同方法識別準確率性能比較 %

        對表3 分析可知,本文方法不僅在不同噪聲環(huán)境下對擾動識別正確率波動更小,而且本文的DCCNN 模型提取特征能力強,識別準確率要高于其他方法。

        3.4 工程數(shù)據(jù)可視化分析

        工程數(shù)據(jù)來自國家電網(wǎng)寶雞供電公司扶風、硤石、黃牛、嘉陵、向陽變電站,因為工程數(shù)據(jù)有限,只有諧波(c0)、中斷(c1)、暫態(tài)振蕩(c2)、暫降-諧波(c3)、暫降-暫態(tài)振蕩(c4)、暫升(c5)、暫升-暫態(tài)振蕩(c6)等7 類擾動,每類擾動選擇200個電網(wǎng)實測信號作為訓練集,20個實測信號作為測試集。其中,圖7 為110 kV 黃牛變電站故障發(fā)生時電網(wǎng)母線側三相電壓錄波監(jiān)測得到的擾動波形。

        圖7 黃牛變電站故障發(fā)生時母線電壓波形

        將工程數(shù)據(jù)按照本文方法進行處理,得到的測試集混淆矩陣如圖8 所示。

        圖8 工程數(shù)據(jù)測試集輸出混淆矩陣

        從圖8 分析可知,工程數(shù)據(jù)測試集總體準確率能達到96.4%,7 類擾動能很好地識別出來,說明本文方法對于工程應用具有較高的可行性。

        4 結論

        為提高電網(wǎng)中PQDs 識別的準確率,本文提出一種基于多模態(tài)圖像融合的DCCNN 方法。經(jīng)過實驗得到如下結論:

        1)相較于GASF 特征圖,仿真結果證明本文提出的IGASF 特征圖能夠降低圖像冗余度的同時保留更多的擾動特征信息;

        2)相較于單種模態(tài)轉換,本文所提出的多模態(tài)圖像融合方法在PQDs 時序數(shù)據(jù)編碼成新特征圖像時識別準確率更高;

        3)對于20 種擾動,在不同噪聲環(huán)境下,本文方法識別準確率至少能達到95%以上,表明本文方法提取特征能力強,具有一定的抗噪魯棒性,擾動識別率高;對電網(wǎng)中實測得到的7 類擾動,使用本文方法進行識別準確率能達到96.4%,同時也表明了本文方法泛化能力較好。

        注:本文通訊作者為余雷。

        猜你喜歡
        模態(tài)特征方法
        如何表達“特征”
        不忠誠的四個特征
        當代陜西(2019年10期)2019-06-03 10:12:04
        抓住特征巧觀察
        可能是方法不對
        用對方法才能瘦
        Coco薇(2016年2期)2016-03-22 02:42:52
        國內(nèi)多模態(tài)教學研究回顧與展望
        四大方法 教你不再“坐以待病”!
        Coco薇(2015年1期)2015-08-13 02:47:34
        捕魚
        基于HHT和Prony算法的電力系統(tǒng)低頻振蕩模態(tài)識別
        由單個模態(tài)構造對稱簡支梁的抗彎剛度
        計算物理(2014年2期)2014-03-11 17:01:39
        一本色道久久亚洲综合| 免费 无码 国产精品| 亚洲素人日韩av中文字幕| 日韩av一区二区不卡| 国产精品成人3p一区二区三区| 亚洲国产精品久久久久秋霞1| 激情中文丁香激情综合| 亚洲无人区乱码中文字幕动画| 深夜爽爽动态图无遮无挡| 国产真人无码作爱视频免费 | 国产亚洲精品综合在线网址| 国产亚洲av夜间福利在线观看| 国产免费人成视频在线观看播放 | 国产一级做a爱视频在线| 国语对白在线观看免费| 亚洲av无码乱码国产精品| 就去吻亚洲精品欧美日韩在线| 中文字幕在线人妻视频| 国产午夜视频一区二区三区| 国产午夜鲁丝片av无码| 国产精品亚洲一区二区杨幂| 日本一区二区午夜视频| 97久久婷婷五月综合色d啪蜜芽 | 开心激情站开心激情网六月婷婷| 日韩一区二区三区人妻免费观看| 国产午夜精品一区二区| 欧美日韩性视频| 澳门精品一区二区三区| 亚洲av综合av一区二区三区| 无码国产色欲xxxxx视频| 久久熟女五十路| 一本色道久久亚洲精品| 色播亚洲视频在线观看| 免费的一级毛片| 精品国产亚洲av久一区二区三区| 天天爽夜夜爽夜夜爽精品视频| 藏春阁福利视频| 99久久久精品国产性黑人| 精品粉嫩av一区二区三区| 欧美bbw极品另类| 高清国产美女av一区二区|