亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于數(shù)據(jù)融合驅(qū)動(dòng)和DLSTM網(wǎng)絡(luò)的軸承RUL預(yù)測(cè)

        2021-12-14 01:28:28段桂英姜洪開
        關(guān)鍵詞:信號(hào)方法模型

        段桂英 姜洪開

        1(山東藝術(shù)學(xué)院公共課教育部 山東 濟(jì)南 250014)2(西北工業(yè)大學(xué)航空學(xué)院 陜西 西安 710072)

        0 引 言

        滾動(dòng)軸承作為轉(zhuǎn)子機(jī)械設(shè)備的核心元件,被廣泛應(yīng)用于航空航天、工業(yè)生產(chǎn)及電力系統(tǒng),軸承發(fā)生故障將會(huì)導(dǎo)致巨大的經(jīng)濟(jì)損失,甚至造成災(zāi)難性后果。因此,對(duì)軸承進(jìn)行可靠的剩余壽命預(yù)測(cè)能夠有針對(duì)性地進(jìn)行維修保養(yǎng),從而在保證安全的前提下提升設(shè)備的使用效率[1-2]。

        現(xiàn)有的RUL預(yù)測(cè)方法可以分為三類[3],即基于模型的方法、數(shù)據(jù)驅(qū)動(dòng)的方法和混合方法。其中,數(shù)據(jù)驅(qū)動(dòng)方法與其他兩種方法相比更易于實(shí)現(xiàn),也能夠更加全面地進(jìn)行分析。文獻(xiàn)[4]描述了一種針對(duì)自動(dòng)變速器離合器基于卡爾曼濾波器(Kalman filter,KF)的RUL預(yù)測(cè)方法。文獻(xiàn)[5]提出了一種使用支持向量回歸(SVR)的直接RUL估計(jì)方法,該方法避免了估計(jì)退化狀態(tài)或閾值設(shè)置故障。文獻(xiàn)[6]采用回波狀態(tài)網(wǎng)絡(luò)模型,使用時(shí)間序列數(shù)據(jù)對(duì)燃料電池進(jìn)行RUL預(yù)測(cè)等。但是這些方法通過(guò)映射監(jiān)視信號(hào)和RUL值之間的關(guān)系可以實(shí)現(xiàn)RUL預(yù)測(cè),但是沒(méi)有考慮反映健康狀態(tài)微小變化的不同時(shí)間序列信號(hào)的相關(guān)性。

        循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)作為上述問(wèn)題的一種解決方案,可以跨時(shí)間步長(zhǎng)從先前處理的序列數(shù)據(jù)中提取有用的重要信息,并將其集成到當(dāng)前的單元狀態(tài)中以對(duì)序列數(shù)據(jù)進(jìn)行建模[7]。但是訓(xùn)練中梯度消失或爆炸的問(wèn)題限制了傳統(tǒng)RNN的廣泛應(yīng)用。文獻(xiàn)[8]創(chuàng)建了一種改進(jìn)的名為L(zhǎng)STM的RNN結(jié)構(gòu)來(lái)緩解此問(wèn)題,通過(guò)引入一組記憶神經(jīng)元,LSTM在學(xué)習(xí)魯棒性和敏感數(shù)據(jù)方面表現(xiàn)出了卓越的能力。但是該方法僅分析振動(dòng)信號(hào),而未考慮多傳感器數(shù)據(jù)的融合處理,無(wú)法體現(xiàn)數(shù)據(jù)驅(qū)動(dòng)的全面性,導(dǎo)致預(yù)測(cè)精度不高,而且由于網(wǎng)絡(luò)結(jié)構(gòu)的限制,引入深度學(xué)習(xí)對(duì)預(yù)測(cè)精度提升的效果不佳。

        為解決上述問(wèn)題,本文結(jié)合AMEA及網(wǎng)格搜索策略,提出了一種基于多傳感器信號(hào)融合的DLSTM網(wǎng)絡(luò)剩余壽命預(yù)測(cè)模型。

        1 長(zhǎng)短期記憶網(wǎng)絡(luò)

        與常見的神經(jīng)網(wǎng)絡(luò)不同,RNN具有獨(dú)特的結(jié)構(gòu),即隱藏層的輸出將作為輸入反復(fù)返回,這意味著隱藏層在一段時(shí)間內(nèi)與其自身具有自連接特性。因此,RNN在處理時(shí)序相關(guān)數(shù)據(jù)方面具有很強(qiáng)的能力。其在時(shí)間t處的隱藏層的輸出描述為:

        ht=φ(whx+whhht-1+bh)

        (1)

        式中:whx和whh分別是隱藏層神經(jīng)元的輸入數(shù)據(jù)ht和先前輸出ht-1的權(quán)重系數(shù);bh表示偏差。

        然而,由于在模型訓(xùn)練期間反向傳播過(guò)程中存在梯度消失問(wèn)題,RNN無(wú)法獲取數(shù)據(jù)中的長(zhǎng)期依存關(guān)系。因此,在LSTM網(wǎng)絡(luò)結(jié)構(gòu)中,LSTM神經(jīng)元通過(guò)取代傳統(tǒng)的RNN隱藏神經(jīng)元來(lái)構(gòu)建LSTM層。每個(gè)LSTM神經(jīng)元都有三個(gè)精心設(shè)計(jì)的門函數(shù),即遺忘門、輸入門和輸出門。這種結(jié)構(gòu)確保LSTM神經(jīng)元具有發(fā)現(xiàn)和記憶長(zhǎng)期依賴性的能力。

        LSTM神經(jīng)元中的三個(gè)門函數(shù)為控制信息的輸入和刪除提供了良好的非線性控制機(jī)制。輸入門決定了將進(jìn)入神經(jīng)元狀態(tài)的信息,遺忘門決定了神經(jīng)元狀態(tài)中需要丟棄的信息,輸出門決定從神經(jīng)元狀態(tài)導(dǎo)出什么信息。LSTM神經(jīng)元的計(jì)算過(guò)程可以用數(shù)學(xué)公式表示為:

        gt=φ(wgx+wghht-1+bg)

        (2)

        it=σ(wixxt+wihht-1+bi)

        (3)

        ft=σ(wfxxt+wfhht-1+bf)

        (4)

        ot=σ(woxxt+wohht-1+bo)

        (5)

        st=gt?it+st-1?ft

        (6)

        ht=φ(st)?ot

        (7)

        式中:wgx、wfx、wix和wox是輸入數(shù)據(jù)xt的權(quán)重;wgh、wih、wfh和woh是LSTM神經(jīng)元先前輸出的ht-1的權(quán)重;bg、bf、bi和bo表示輸入節(jié)點(diǎn)、遺忘門、輸入門和輸出門的偏差;gt、ft、it和ot是輸入節(jié)點(diǎn)、遺忘門、輸入門和輸出門的輸出;σ(·)和φ(·)表示S型和tanh函數(shù);st和st-1是LSTM神經(jīng)元在時(shí)間t和t-1時(shí)的狀態(tài);?表示逐點(diǎn)乘法。

        2 RUL預(yù)測(cè)模型

        深度學(xué)習(xí)作為人工神經(jīng)網(wǎng)絡(luò)的擴(kuò)展,可以通過(guò)多層網(wǎng)絡(luò)結(jié)構(gòu)來(lái)自適應(yīng)地捕獲數(shù)據(jù)中的潛在特征[9]。從結(jié)構(gòu)的角度來(lái)看,DLSTM包含多個(gè)隱藏層,這是深度學(xué)習(xí)的一種形式。本文構(gòu)建了一個(gè)DLSTMN模型,以實(shí)現(xiàn)多傳感器數(shù)據(jù)的自動(dòng)融合和RUL的準(zhǔn)確預(yù)測(cè)。

        圖1 預(yù)測(cè)模型結(jié)構(gòu)圖

        輸入數(shù)據(jù)的輸入由輸入神經(jīng)元控制,因此輸入神經(jīng)元的數(shù)量等于所選傳感器信號(hào)的數(shù)量。傳感器時(shí)間序列信號(hào)數(shù)據(jù)分為不同部分,分別用于網(wǎng)絡(luò)模型訓(xùn)練、驗(yàn)證和測(cè)試。輸入數(shù)據(jù)被構(gòu)造成二維矩陣。矩陣中的行數(shù)和列數(shù)為k和T,k代表所選傳感器個(gè)數(shù),T代表采樣點(diǎn)的個(gè)數(shù)。最終將多傳感器數(shù)據(jù)融合到RUL值。

        多個(gè)LSTM層堆疊在構(gòu)造的DLSTM模型中,實(shí)現(xiàn)了多傳感器數(shù)據(jù)的深度挖掘和融合。不同的LSTM層在空間上相連,數(shù)據(jù)從上層輸出到下一層的神經(jīng)元,相同的LSTM層與時(shí)間有關(guān),LSTM層的先前輸出將作為輸入循環(huán)到該層。每個(gè)LSTM層中都包含許多LSTM神經(jīng)元以捕獲傳感器數(shù)據(jù)的長(zhǎng)期依賴性。在每一層LSTM神經(jīng)元之間形成信息交換,實(shí)現(xiàn)跨時(shí)間的自連接。此外,每個(gè)神經(jīng)元的輸出不僅在下一刻循環(huán)進(jìn)入自身,而且還與其他神經(jīng)元共享。

        輸出層采用完全連接的密集層,在該層中將LSTM層的輸出信號(hào)送入其中,最終將多傳感器數(shù)據(jù)融合到RUL值。采用均方誤差函數(shù)作為機(jī)器學(xué)習(xí)中常用的損失函數(shù),以使預(yù)測(cè)的RUL和RUL標(biāo)簽之間的誤差最小。在測(cè)試階段,將在線傳感器數(shù)據(jù)依次發(fā)送到經(jīng)過(guò)訓(xùn)練的DLSTM中,并獲取預(yù)測(cè)的RUL。

        3 模型優(yōu)化

        3.1 模型結(jié)構(gòu)

        DLSTM模型結(jié)構(gòu)的大小,包括LSTM層數(shù)和每個(gè)LSTM層的神經(jīng)元數(shù),需要人為確定。這些是DLSTM模型中兩個(gè)重要的參數(shù),用于控制網(wǎng)絡(luò)的體系結(jié)構(gòu)和拓?fù)洹TS多文獻(xiàn)提出了DLSTM的參數(shù)優(yōu)化方法[10],且取得了較好的效果,但優(yōu)化過(guò)程卻極其復(fù)雜。由于DLSTM網(wǎng)絡(luò)結(jié)構(gòu)的復(fù)雜性和長(zhǎng)的訓(xùn)練過(guò)程,DLSTM與這些優(yōu)化方法相結(jié)合必然會(huì)對(duì)計(jì)算資源提出更高的要求。

        DLSTM將網(wǎng)格搜索用于網(wǎng)絡(luò)配置探索,原理簡(jiǎn)單明了,算法容易實(shí)現(xiàn),計(jì)算資源要求低。LSTM層數(shù)和各層神經(jīng)元數(shù)的候選構(gòu)成一個(gè)二維網(wǎng)格,并驗(yàn)證網(wǎng)格中各節(jié)點(diǎn)參數(shù)以選擇最佳的網(wǎng)絡(luò)結(jié)構(gòu)參數(shù)。最后,將具有最佳驗(yàn)證預(yù)測(cè)性能的參數(shù)視為最優(yōu)參數(shù),并用于在線RUL預(yù)測(cè)中。

        3.2 損失函數(shù)的優(yōu)化

        損失函數(shù)的優(yōu)化算法將直接影響DLSTM訓(xùn)練的效率和時(shí)間,本文DLSTM模型采用AMEA代替?zhèn)鹘y(tǒng)的隨機(jī)梯度下降(Stochastic gradient descent,SGD)優(yōu)化算法,使DLSTM的損失函數(shù)最小。在SGD算法中,保持固定的學(xué)習(xí)速率(Learning rate,LR)來(lái)更新所有的權(quán)值,這意味著LR在訓(xùn)練中保持不變。AMEA通過(guò)分析梯度的一階矩估計(jì)(FME)和二階矩估計(jì)(SME),針對(duì)不同的參數(shù)設(shè)計(jì)獨(dú)立的自適應(yīng)LR[6]。因此,AMEA具有較高的計(jì)算效率,但需要較少的配置資源。用AMEA更新網(wǎng)絡(luò)參數(shù)的過(guò)程表示為:

        (8)

        mt=β1mt-1+(1-β1)gt

        (9)

        (10)

        (11)

        (12)

        (13)

        3.3 引入主動(dòng)丟棄法

        通常神經(jīng)網(wǎng)絡(luò)的訓(xùn)練更加耗時(shí),因此隨著網(wǎng)絡(luò)層數(shù)增加,過(guò)擬合成為一個(gè)嚴(yán)重的問(wèn)題[11]。過(guò)擬合會(huì)導(dǎo)致預(yù)測(cè)模型在訓(xùn)練數(shù)據(jù)中表現(xiàn)出色,但在測(cè)試數(shù)據(jù)中表現(xiàn)不佳。為了解決該問(wèn)題,DLSTM模型采用了主動(dòng)丟棄法來(lái)防止重復(fù)捕獲相同的特征。

        應(yīng)用于DLSTM模型的信號(hào)主動(dòng)丟棄方法的示意圖如圖2所示。其中,深色圈是隱藏層中的神經(jīng)元,它們?cè)贒LSTM的訓(xùn)練過(guò)程中,根據(jù)一定的概率暫時(shí)從網(wǎng)絡(luò)中丟棄。由于丟棄是隨機(jī)發(fā)生的,所以在每個(gè)小批量中訓(xùn)練不同的網(wǎng)絡(luò)。因此,信號(hào)丟棄可以有效地緩解DLSTM的數(shù)據(jù)過(guò)擬合問(wèn)題。需要指出的是,信號(hào)丟棄只在訓(xùn)練過(guò)程中起作用,在測(cè)試過(guò)程中被禁用,這意味著所有隱藏的神經(jīng)元都在測(cè)試過(guò)程中起作用。本文測(cè)試了所有候選遺漏值,將最優(yōu)值應(yīng)用到DLSTM中。

        圖2 主動(dòng)丟棄法應(yīng)用于DLSTM模型

        4 實(shí) 驗(yàn)

        4.1 數(shù)據(jù)集描述

        用于評(píng)估本文方法的數(shù)據(jù)集是由CMAPSS提供的NASA渦扇發(fā)動(dòng)機(jī)轉(zhuǎn)子軸承數(shù)據(jù)集,可變地輸入不同轉(zhuǎn)速,以模擬轉(zhuǎn)子軸承中的不同故障和退化過(guò)程。在實(shí)驗(yàn)過(guò)程中,轉(zhuǎn)子軸承開始在良好的狀態(tài)下運(yùn)行,并出現(xiàn)了一些故障,這些故障會(huì)導(dǎo)致性能下降,直到出現(xiàn)事故為止。

        CMAPSS提供A組-D組四個(gè)數(shù)據(jù)集。每個(gè)數(shù)據(jù)集都包括訓(xùn)練集和測(cè)試集。訓(xùn)練集會(huì)保存整個(gè)壽命周期的信號(hào),而測(cè)試集僅包含多個(gè)傳感器數(shù)據(jù),這些數(shù)據(jù)在軸承故障和RUL需要預(yù)測(cè)之前的某個(gè)時(shí)間終止。訓(xùn)練集和測(cè)試集都由一系列循環(huán)組成,每個(gè)循環(huán)包含26列,分別指軸承序號(hào)、循環(huán)索引、3個(gè)操作設(shè)置和21個(gè)傳感器測(cè)量值。

        由于軸承具有明顯的健康退化過(guò)程,本文采用了A組和C組兩組數(shù)據(jù)集。A組只有一種故障模式,而C組有兩種故障模式。此外,A組和C組都包含100個(gè)訓(xùn)練軸承和100個(gè)測(cè)試軸承。

        實(shí)驗(yàn)中所有方法都是在Anaconda和Python 3.6上執(zhí)行的。計(jì)算設(shè)備是一個(gè)具有Intel Core i5- 4460(3.20 GHz)CPU、16 GB RAM的計(jì)算機(jī)。

        4.2 性能評(píng)價(jià)指標(biāo)

        本文提出的方法采用指標(biāo)得分(Score)、均方根誤差(RMSE)和RUL誤差范圍三個(gè)指標(biāo)來(lái)評(píng)估RUL預(yù)測(cè)性能。

        數(shù)據(jù)創(chuàng)建者提供的指標(biāo)得分表示為:

        (14)

        RMSE計(jì)算如下:

        (15)

        Score和RMSE都用來(lái)評(píng)估預(yù)測(cè)RUL和實(shí)際RUL之間的差異,較小的Score或RMSE值代表較好的預(yù)測(cè)效果。然而,這兩個(gè)指標(biāo)之間存在微妙的差異,如圖5所示??梢钥闯?,比起早期的預(yù)測(cè),Score對(duì)晚期預(yù)測(cè)的懲罰更大。

        圖3 Score和RMSE之間差異的圖示

        指標(biāo)RUL誤差范圍代表所有RUL預(yù)測(cè)值的誤差范圍。RUL誤差范圍越小,預(yù)測(cè)方法的有效性和穩(wěn)定性越高。

        4.3 多傳感器數(shù)據(jù)預(yù)處理

        軸承獲得的多傳感器數(shù)據(jù)存在較大的隨機(jī)波動(dòng)和噪聲干擾,可能影響RUL預(yù)測(cè)的性能。采用指數(shù)平滑算法去除噪聲,減弱傳感器數(shù)據(jù)的隨機(jī)波動(dòng),其表達(dá)式為:

        (16)

        α的大小直接決定了軸承振動(dòng)傳感器數(shù)據(jù)的平滑效果,從而間接影響RUL預(yù)測(cè)的精度。圖4展示出了與A組中的原始傳感器數(shù)據(jù)相比具有不同α值的傳感器2的預(yù)處理傳感器數(shù)據(jù)。傳感器數(shù)據(jù)平滑使用了三個(gè)不同的α值,分別為0.25、0.5和0.75??梢钥闯觯c原始傳感器數(shù)據(jù)相比,平滑的傳感器數(shù)據(jù)的波動(dòng)減小,并且平滑的傳感器數(shù)據(jù)能夠很好地反映原始傳感器數(shù)據(jù)的趨勢(shì)。通過(guò)一系列對(duì)比實(shí)驗(yàn)發(fā)現(xiàn),α值為0.25的預(yù)處理傳感器數(shù)據(jù)波動(dòng)較小,這意味著數(shù)據(jù)平滑效果更好。因此,本文實(shí)驗(yàn)將α設(shè)置為0.25。

        綜上所述,從21個(gè)傳感器獲取的信號(hào)包含在CMAPSS數(shù)據(jù)集中。然而,并不是所有的傳感器都能很好地表示退化過(guò)程。為了得到準(zhǔn)確的RUL預(yù)測(cè),需要選擇傳感器。合理的傳感器信號(hào)與健康退化過(guò)程具有良好的相關(guān)性,表現(xiàn)出單調(diào)遞增或遞減的趨勢(shì)[12]。因此,通過(guò)分析信號(hào)數(shù)據(jù)的單調(diào)性(Mon)和相關(guān)性(Corr)來(lái)實(shí)現(xiàn)傳感器的選擇。

        為了測(cè)量軸承數(shù)據(jù)的趨勢(shì),首先提取軸承數(shù)據(jù)的平均趨勢(shì)特征:

        (17)

        式中:f(t)是時(shí)間t處傳感器信號(hào)的趨勢(shì)值;fU(t)和fL(t)分別表示傳感器信號(hào)的上、下包絡(luò)。

        對(duì)傳感器信號(hào)的Mon和Corr進(jìn)行分析,分別定義如下:

        (18)

        式中:T表示信號(hào)樣本的數(shù)量。

        接下來(lái),通過(guò)Mon和Corr的組合找到一個(gè)復(fù)合選擇標(biāo)準(zhǔn)(CSC),其表示為:

        (19)

        式中:Ω表示所有候選傳感器信號(hào);ωi表示加權(quán)系數(shù)。由式(19)可以看出,CSC與Mon和Corr呈線性正相關(guān),即CSC指數(shù)越高,傳感器越能反映變化趨勢(shì)。為了選擇更好的特征,將閾值設(shè)置為0.75。

        圖5展示了A組和C組中傳感器的分類CSC值,從圖5(a)可以看出,A組中的21個(gè)傳感器(S1-S21)的CSC被排序。S2、S3、S4、S7、S8、S11、S12、S13、S15、S17、S20和S21的CSC大于閾值,因此它們被選中。在圖5(b)中,選擇傳感器S4、S7、S11、S12、S15、S20和S21的數(shù)據(jù)來(lái)構(gòu)建C組中的訓(xùn)練數(shù)據(jù)集。

        圖5 傳感器的CSC排序值

        RUL標(biāo)簽值對(duì)預(yù)測(cè)性能有顯著影響,RUL標(biāo)簽被假定在初始階段是恒定的,然后線性下降。根據(jù)文獻(xiàn)[13],早期的采樣點(diǎn)用一個(gè)恒定的RUL值進(jìn)行標(biāo)記,綜合考慮將其設(shè)置為125。

        5 結(jié)果分析

        5.1 案例一

        對(duì)數(shù)據(jù)集A組進(jìn)行分析,以驗(yàn)證本文方法。首先,在多傳感器數(shù)據(jù)預(yù)處理完成后,利用100個(gè)滾動(dòng)軸承的傳感器數(shù)據(jù)建立訓(xùn)練數(shù)據(jù)集,其中隨機(jī)選取90個(gè)滾動(dòng)軸承進(jìn)行DLSTM模型訓(xùn)練,其余10個(gè)軸承驗(yàn)證模型的有效性。其次,考慮數(shù)據(jù)集中監(jiān)測(cè)信號(hào)的特性,建立了用于RUL預(yù)測(cè)的DLSTM模型,并對(duì)其參數(shù)進(jìn)行了優(yōu)化確定。利用網(wǎng)格搜索方法對(duì)模型進(jìn)行訓(xùn)練,以探索最優(yōu)的DLSTM結(jié)構(gòu)。由LSTM層數(shù)和各層形式的神經(jīng)元數(shù)構(gòu)成二維網(wǎng)格,并將網(wǎng)格中的每個(gè)節(jié)點(diǎn)參數(shù)驗(yàn)證為候選參數(shù)??紤]到時(shí)間限制和計(jì)算復(fù)雜性,將LSTM層數(shù)設(shè)置為1到6,并且每個(gè)LSTM層中的神經(jīng)元數(shù)設(shè)置為50至300。該網(wǎng)格中每?jī)蓚€(gè)參數(shù)組合用于構(gòu)造一個(gè)新的DLSTM。采用10個(gè)驗(yàn)證引擎對(duì)每個(gè)模型結(jié)構(gòu)進(jìn)行驗(yàn)證,并利用RMSE對(duì)模型訓(xùn)練結(jié)果進(jìn)行比較。圖6展示了不同層數(shù)和神經(jīng)元數(shù)的DLSTM的訓(xùn)練結(jié)果??梢钥闯觯總€(gè)模型結(jié)構(gòu)具有不同的性能,DLSTM模型具有5個(gè)LSTM層,每個(gè)LSTM層有100個(gè)神經(jīng)元,達(dá)到了最優(yōu)的性能。因此,在這種情況下,DLSTM模型由5個(gè)LSTM層和100個(gè)神經(jīng)元構(gòu)成。表1記錄了部分參數(shù)組合情況下DLSTM的訓(xùn)練結(jié)果,其選擇了6個(gè)參數(shù)組合,取得了較好的訓(xùn)練效果。通過(guò)對(duì)參數(shù)和訓(xùn)練時(shí)間的比較,發(fā)現(xiàn)DLSTM的訓(xùn)練時(shí)間隨著LSTM層數(shù)和DLSTM層數(shù)的增加而逐漸延長(zhǎng)。

        圖6 不同層數(shù)和神經(jīng)元數(shù)的DLSTM的RMSE分布

        表1 部分參數(shù)組合情況下DLSTM的訓(xùn)練結(jié)果

        為了減少DLSTM模型的數(shù)據(jù)過(guò)度擬合,采用了丟棄法。本文嘗試用不同的丟棄率來(lái)確定構(gòu)造的DLSTM的最佳值。圖7展示了具有不同丟棄值的構(gòu)造的DLSTM的訓(xùn)練結(jié)果,可以看出,當(dāng)丟棄率為0.7時(shí),DLSTM模型具有最小的RMSE值并獲得最佳的訓(xùn)練性能。因此為了獲得良好的DLSTM訓(xùn)練效果,本文將丟棄率設(shè)置為0.7。

        圖7 用不同的丟棄率訓(xùn)練DLSTM

        為了使損失函數(shù)最小化,本文將不同的優(yōu)化算法與AMEA進(jìn)行了比較,包括SGD、均方根(RMSprop)、自適應(yīng)梯度(Adagrad)和Adadelta。圖8展示了使用不同優(yōu)化算法訓(xùn)練DLSTM,可以看出,這四個(gè)優(yōu)化器都可以幫助DLSTM在經(jīng)過(guò)1 000個(gè)階段后實(shí)現(xiàn)網(wǎng)絡(luò)優(yōu)化。盡管如此,與其他算法相比,DLSTM中的AMEA具有更高的效率和更好的收斂性。因此,AMEA在構(gòu)造的DLSTM中用作損失函數(shù)優(yōu)化器。

        圖8 用不同的優(yōu)化器訓(xùn)練DLSTM

        最后,建立了一個(gè)包含5層LSTM和100個(gè)神經(jīng)元的DLSTM模型用于軸承RUL的預(yù)測(cè)。將丟棄值設(shè)為0.7,損失函數(shù)優(yōu)化算法采用AMEA。表2顯示了構(gòu)建DLSTM模型的其他參數(shù)。

        表2 本文DLSTM模型的其他參數(shù)

        模型訓(xùn)練完成后,利用10個(gè)軸承對(duì)訓(xùn)練后的DLSTM進(jìn)行性能驗(yàn)證。圖9比較了10個(gè)軸承的預(yù)測(cè)RUL和真實(shí)RUL以進(jìn)行驗(yàn)證,其中虛線代表預(yù)測(cè)曲線,實(shí)線表示真實(shí)剩余壽命。可以看出,這些預(yù)測(cè)能夠很好地反映出10個(gè)軸承真實(shí)RUL的變化。

        圖9 4個(gè)軸承的驗(yàn)證預(yù)測(cè)結(jié)果

        在線過(guò)程中,將測(cè)試軸承的監(jiān)測(cè)信號(hào)依次輸入DLSTM,得到預(yù)測(cè)的RUL。圖10顯示了A組中100個(gè)軸承的實(shí)際RUL與預(yù)測(cè)RUL。結(jié)果表明,兩者非常吻合。

        圖10 100個(gè)軸承的實(shí)際RUL與預(yù)測(cè)RUL

        本文使用了一些最新的研究成果與DLSTM進(jìn)行了比較,包括MLP[14]、SVR[15]、相關(guān)向量回歸(RVR)[6]、深卷積神經(jīng)網(wǎng)絡(luò)(DCNN)[9]、帶模糊聚類的ELM(ELM-FC)[16]、支持向量機(jī)(SVM)[17]、具有KF的回波狀態(tài)網(wǎng)絡(luò)(ESN-KF)[18]和基于相似性的方法(SBA)[19]。表3展示了各方法的性能比較,其中NA表示信息不可用。表4比較了不同方法的關(guān)鍵參數(shù),它們的得分Score、RMSE與RUL誤差范圍有關(guān)??梢钥闯觯谶@種RUL預(yù)測(cè)問(wèn)題中,許多方法都顯示了各自的優(yōu)勢(shì),包括DCNN、ELM和SBA等。與其他方法相比,DLSTM具有最小的Score、RMSE和RUL誤差范圍。這意味著所提出的DLSTM具有最好的預(yù)測(cè)性能,驗(yàn)證了本文的DLSTM對(duì)該軸承預(yù)測(cè)問(wèn)題的有效性。

        表4 所有方法的關(guān)鍵參數(shù)

        5.2 案例二

        由于包含了更多的故障模式,使用C組數(shù)據(jù)集進(jìn)行準(zhǔn)確的RUL預(yù)測(cè)比A組數(shù)據(jù)集困難得多。本文利用C組數(shù)據(jù)集比較了DLSTM和其他RNN方法的RUL預(yù)測(cè)性能,包括深度遞歸神經(jīng)網(wǎng)絡(luò)(DRNN)、深門控遞歸單元(DGRU)、雙向GRU(BDGRU)和雙向LSTM(BDLSTM)。所有的方法都采用了網(wǎng)格搜索和丟棄的方法來(lái)獲得最優(yōu)模型,關(guān)鍵參數(shù)見表4。圖11展示了五個(gè)模型的RUL誤差的箱形圖。五個(gè)模型100個(gè)軸承的RUL誤差集中在0附近,與其他模型相比,DLSTM的RUL預(yù)測(cè)誤差更為集中,說(shuō)明DLSTM預(yù)測(cè)穩(wěn)定性更好。

        圖11 五個(gè)模型的RUL誤差的箱形圖

        表5根據(jù)三個(gè)評(píng)估指標(biāo)和時(shí)間消耗比較了五個(gè)模型的預(yù)測(cè)結(jié)果,可以看出,所提出的DLSTM在Score、RMSE和RUL誤差范圍方面始終優(yōu)于其他RNN模型。BDLSTM和BDGRU由于其獨(dú)特的雙向網(wǎng)絡(luò)結(jié)構(gòu),能夠更好地處理時(shí)間序列數(shù)據(jù),因此,BDLSTM和BDGRU的評(píng)估指標(biāo)略差于最優(yōu)結(jié)果。由于DRNN結(jié)構(gòu)最簡(jiǎn)單,與其他進(jìn)化的RNN結(jié)構(gòu)相比,DRNN的預(yù)測(cè)結(jié)果相對(duì)較差。在時(shí)間消耗分析方面,DLSTM與其他模型相比沒(méi)有明顯的優(yōu)勢(shì),這是因?yàn)镈LSTM具有相對(duì)復(fù)雜的網(wǎng)絡(luò)結(jié)構(gòu)。所有模型的在線平均計(jì)算時(shí)間均符合工業(yè)要求,因此DLSTM可以應(yīng)用于工業(yè)系統(tǒng)的實(shí)際設(shè)備中。

        表5 C組數(shù)據(jù)集上五個(gè)模型的性能比較

        6 結(jié) 語(yǔ)

        本文通過(guò)建立的DLSTM模型,提出了一種多傳感器數(shù)據(jù)融合驅(qū)動(dòng)的滾動(dòng)軸承RUL預(yù)測(cè)方法,并通過(guò)實(shí)驗(yàn)數(shù)據(jù)進(jìn)行了驗(yàn)證,得出如下結(jié)論:

        (1) DLSTM模型能夠通過(guò)DL結(jié)構(gòu)捕獲傳感器時(shí)間序列信號(hào)之間隱藏的長(zhǎng)期依賴性,從而充分地利用傳感器數(shù)據(jù),提升預(yù)測(cè)精度。(2) 多傳感器數(shù)據(jù)融合驅(qū)動(dòng)與建立的DLSTM相結(jié)合可以有效地提升剩余壽命的預(yù)測(cè)精度,并且具備良好的效率和收斂性。(3) DLSTM模型在線平均計(jì)算時(shí)間相對(duì)其他預(yù)測(cè)方法并未體現(xiàn)明顯的優(yōu)勢(shì),但是能夠符合工業(yè)要求,驗(yàn)證了DLSTM可以應(yīng)用于工業(yè)系統(tǒng)的實(shí)際設(shè)備中。(4) 該方法具有多傳感器數(shù)據(jù)融合能力,方法本身具備一般性,可廣泛應(yīng)用于其他領(lǐng)域的不同類型設(shè)備。

        猜你喜歡
        信號(hào)方法模型
        一半模型
        信號(hào)
        鴨綠江(2021年35期)2021-04-19 12:24:18
        重要模型『一線三等角』
        完形填空二則
        重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
        基于FPGA的多功能信號(hào)發(fā)生器的設(shè)計(jì)
        電子制作(2018年11期)2018-08-04 03:25:42
        可能是方法不對(duì)
        3D打印中的模型分割與打包
        用對(duì)方法才能瘦
        Coco薇(2016年2期)2016-03-22 02:42:52
        基于LabVIEW的力加載信號(hào)采集與PID控制
        日韩精品一区二区三区视频 | 亚洲男人综合久久综合天堂| 亚洲 欧美 国产 制服 动漫| 亚洲av无码男人的天堂在线| 日本不卡在线一区二区三区视频| 国产久久久自拍视频在线观看| 亚洲熟妇av一区二区三区| 国产精品夜间视频香蕉| 91精品啪在线观看国产18| 国产av熟女一区二区三区蜜臀| 偷拍偷窥女厕一区二区视频 | 中文字幕一区二区网站| 久久日韩精品一区二区| 真实人与人性恔配视频| japanese无码中文字幕| 中文字幕人妻少妇美臀| 亚洲国产女性内射第一区二区| 久久久亚洲精品一区二区三区| 日韩精品无码区免费专区| 国产亚洲午夜高清国产拍精品不卡 | 成人网站免费看黄a站视频| 福利网址在线观看| 强d乱码中文字幕熟女1000部| 国产白浆一区二区在线| 亚洲国产av玩弄放荡人妇系列| 国产99在线视频| 日本高清不卡一区二区三区| 男男亚洲av无一区二区三区久久| 国产精品无码无在线观看| 国产在线一91区免费国产91| 久久久精品国产亚洲av网| 又硬又粗进去好爽免费| 成全高清在线播放电视剧| 亚洲AV秘 无码一区二区三区 | 久久久久久夜精品精品免费啦| 老熟妻内射精品一区| 日韩少妇无码一区二区免费视频| 国产白色视频在线观看| 岳毛多又紧做起爽| 成人xx免费无码| 宅男天堂亚洲一区二区三区|