張 帆, 姚德臣, 姚圣卓, 楊建偉, 王琰亮, 魏明輝, 胡忠碩
(1.北京建筑大學 機電與車輛工程學院,北京 100044;2. 北京建筑大學 城市軌道交通車輛服役性能保障北京市重點實驗室,北京 100044;3. 北京交通大學 機械與電子控制工程學院,北京 100044)
現(xiàn)代機械工業(yè)大力發(fā)展,軸承的復雜程度、精細程度都有了很大的提升[1]。在實際工程應用中要保障軸承的安全運行,實際應用中需要實時掌握設備的運行狀態(tài),根據(jù)傳感器所采集的數(shù)據(jù)進行預測。在過去的幾十年里,機器維護策略已經從基于條件的維護策略發(fā)展為智能預測維護[2]。
隨著近幾年深度學習技術的快速發(fā)展,故障診斷方法得以快速提升。深度學習能夠解決混合振動信號提取特征信息的問題,降低人工特征提取的難度[3]。當今的軸承壽命智能預測注重挖掘當前軸承狀態(tài)數(shù)據(jù)與剩余使用壽命(remaining useful life, RUL)之間的潛在關系,這種數(shù)據(jù)驅動的方法已成為主流的軸承RUL預測[4]的方法。特別是隨著深度學習[5]的突破性創(chuàng)新,該技術在軸承RUL預測[6]方面顯示出了優(yōu)勢。在近些年的研究中,不同的研究者通過各自的研究將不同的預測方法應用于軸承壽命預測的領域中來,為軸承RUL預測提供了許多新方法。
Ren[7]等通過研究自動編碼技術與DNN(deep neural network)結合,實現(xiàn)了對軸承壽命的預測。DNN神經網絡能夠較好地提取數(shù)據(jù)特征并進行預測,該網絡經驗能夠實現(xiàn)預測精度的提升,為軸承壽命預測提供了新思路。Hinchi[8]等提出了一個基于卷積和長短期記憶時序神經網絡(long short term memory, LSTM)循環(huán)單元的RUL估計的端到端深度框架。通過利用卷積層直接從傳感器數(shù)據(jù)中提取局部特征,然后引入LSTM層來捕獲退化過程,最后利用LSTM輸出和預測時間值估計RUL。經過卷積神經網絡特征提取的數(shù)據(jù)能為LSTM網絡提供了特征更強的學習樣本。但是,受制于LSTM的單向串行學習過程,數(shù)據(jù)在長時間尺度的預測中會出現(xiàn)梯度消散問題,導致特征的遺忘,數(shù)據(jù)泛化程低。Elsheikh[9]等為了提升LSTM網絡的泛化性,提出了一種雙向串行數(shù)據(jù)傳遞LSTM(bidirectional handshaking LSTM,BHLSTM)網絡。該方法通過前向處理單元處理數(shù)據(jù),并在最終狀態(tài)開始反向處理。一定程度上提升了網絡的預測性能。雙向串行學習數(shù)據(jù)特征,更加滿足RUL預測的需求。但是BHLSTM模型依舊是依靠串行處理方式對數(shù)據(jù)進行處理,雙向學習只能一定程度上緩解特征的消散,解決這個問題需要將數(shù)據(jù)處理方式由串行轉換為并行處理方式。
為了提升循環(huán)神經網絡串行處理數(shù)據(jù)出現(xiàn)的特征消散的問題,姚德臣等[10]提出了一種基于注意力機制的門控循環(huán)單元(gated recurrent unit,GRU)神經網絡預測模型。該方法通過在GRU計算之后的數(shù)據(jù)加入注意力機制,實現(xiàn)了網絡的預測準確率上升。證明了在串行數(shù)據(jù)中引入并行特征提取單元能夠提升網絡預測性能。隨著注意力機制的發(fā)展,一種完全基于編碼與解碼的Transformer自注意力神經網絡于2017年被提出。該網絡的提出深刻的影響了深度學習領域[11],研究者開始將Transformer應用于軸承壽命的預測。Transformer網絡通過并行的編碼層、解碼層對信息進行學習,極大的提升了神經網絡對信息學習的能力。
Mo等[12]引入經過Transformer編碼層與門控卷積單元網絡增強的卷積神經網絡,實現(xiàn)了對NASA(National Aeronautics and Space Administration)公開航空發(fā)動機數(shù)據(jù)集C-MAPASS的壽命預測。其中在單工況雙故障的FD003數(shù)據(jù)集的均方根差最小為11.42,較LSTM-FNN網絡降低4.76。Mo等的研究為Transformer網絡應用于軸承壽命RUL預測提供了支持。Transformer神經網絡通過創(chuàng)新的多頭注意力機制,能夠更好提取軸承壽命數(shù)據(jù)特征,解決大數(shù)據(jù)預測時的準確率問題,提升預測的可靠性。隨著Transformer系列網絡的發(fā)展,越來越多的Transformer網絡被提出,例如ViT(Vision Transformer)、Swin Transformer等網絡。
Hao等[13]為了提升軸承預測精度,提升網絡泛化性能,提出了一種雙通道層次視覺Transformer(bi-channel hierarchical vision transformer,BCHViT)的滾動軸承RUL預測模型。文章通過將IEEE PHM 2012數(shù)據(jù)挑戰(zhàn)賽數(shù)據(jù)集進行小波變換并轉化為64×64圖片放入BCHViT網絡中,通過雙時間尺度學習,一定程度上提升了網絡的預測性能。Ding等[14]提出了一種將卷積模塊與Transformer編碼層結合的CoT (convolutional transformer)網絡實現(xiàn)對軸承的信號特征進行全局和局部建模,提升了網絡的特征提取能力,并同樣在IEEE PHM 2012數(shù)據(jù)挑戰(zhàn)賽數(shù)據(jù)集進行試驗。最終證明改進網絡能夠提升軸承的退化。雖然Transformer系列網絡的預測性能有了較大的提升,但是該系列網絡依舊存在問題。Li等[15]指出Transformer網絡在短時間序列預測問題上,存在預測效果不準確的問題。因此,本文提出了一種能夠適應不同壽命時長的軸承預測神經網絡Transformer-LSTM神經網絡。該網絡通過數(shù)據(jù)串并行結合的方式實現(xiàn)數(shù)據(jù)特征提取。在Transformer-LSTM網絡中,Transformer負責數(shù)據(jù)并行處理,關注數(shù)據(jù)具體部分。在預測長壽命軸承時,能夠保證特征不被遺忘,提升長壽命軸承預測精準度。LSTM負責數(shù)據(jù)串行處理,關注數(shù)據(jù)整體趨勢。在預測短壽命軸承時,能夠保證足夠多的數(shù)據(jù)特征,提升短壽命軸承預測精度。
經試驗驗證,Transformer-LSTM網絡擁有很好的泛化性與精度,能夠實現(xiàn)跨數(shù)據(jù)集合的多組不同壽命時長的軸承壽命精確預測。
編碼層位于Transformer編碼層之前,為模型運算提供對應的數(shù)據(jù)位置信息。在位置編碼過程中,數(shù)據(jù)按照奇偶排列被分開,并分別賦予對應的數(shù)據(jù)的位置信息,位置編碼如圖1所示。計算公式如式(1)、式(2)所示
圖1 位置編碼層結構Fig.1 Positional encoding structure
(1)
(2)
式中:i為時間步長;s為維數(shù);d為對應位置的數(shù)據(jù)編碼。通過位置編碼的原始數(shù)據(jù)被網賦予了順序編碼,從而實現(xiàn)學習位置信息的目的。在位置編碼的最后需要將局部位置特征提取結果表示出來,公式如式(3)所示
fi=ei+pi
(3)
通過位置編碼與局部特征提取的數(shù)據(jù)能夠同時具有數(shù)據(jù)位置信息與特征信息,為Transformer編碼層提供輸入。
Transformer編碼層能夠為Transformer-LSTM網絡提供具有注意力的數(shù)據(jù),經過Transformer編碼層處理的數(shù)據(jù)能夠在長軸承壽命預測時提供更多的特征。數(shù)據(jù)通過Transformer編碼層的點積運算從而產生對數(shù)據(jù)的注意力,并通過多個相同的Transformer編碼層并行處理,實現(xiàn)對數(shù)據(jù)的預測。構成Transformer編碼層的主要結構是多頭注意力機制和前饋層。每個多頭注意力機制和前饋層之后加入層規(guī)范化操作,經過層規(guī)范化處理的數(shù)據(jù)能降低梯度爆等問題,提升網絡的穩(wěn)定性。最后,在數(shù)據(jù)處理過程中一定程度地保留了原始數(shù)據(jù)特征,編碼層加入了兩個線性相加層,以此實現(xiàn)提升模型特征學習的效果。Transformer編碼層結構如圖2所示。
圖2 Transformer編碼層結構Fig.2 Transformer encoder layer structure
編碼層核心部分為多頭注意機制,這個部分是Transformer-LSTM模型實現(xiàn)精準預測的關鍵部分。多頭注意實力機制由多個具有自注意力的頭組成的。多頭注意力機制中自注意過程可以描述為一個由查詢向量和一組鍵-值向量矩陣求解的過程。其中查詢向量(Q)、鍵向量(K)、權重向量(V)由之前一個輸出轉換而來。在實際運算中,模型同時計算一組查詢向量上的注意力函數(shù),并將其打包成矩陣Q,并將鍵向量和值向量打包成矩陣K和V。查詢向量的輸出結果實際上是由前一層編碼的隱藏向量所決定的,矩陣K和V在自我關注中被賦予與Q相同的值。
(4)
(5)
(6)
(7)
為了共同關注來自不同位置的不同表示子空間的信息,需要進一步優(yōu)化,采用H個并行注意計算,在WA∈RHdk×d情況下,多頭注意力機制計算過程如式(8)所示。
(8)
編碼層的功能實現(xiàn)還經過了前饋層前饋網絡由兩個線性變換組成,中間通過一個ReLU激活函數(shù)相連接。它分別且相同地應用于每個時間步長。線性變換公式如式(9)所示。
y=WTx+b
(9)
本篇論文所提出的Transformer-LSTM網絡模型的主要改進工作在于重構了原始Transformer的解碼層。原始Transformer解碼層能夠,引入了Transformer解碼層結構以適應自然語言翻譯任務。但是在Transformer應用于時間序列預測領域時,解碼層往往由線性層所替代,這樣的預測模型在短數(shù)據(jù)集預測時會產生較大的偏差,因此本文提出了一種基于LSTM網絡的重構解碼層以提升網絡的預測能力。重構的LSTM解碼層由線性整流層、LSTM運算層以及全連接層所構成。其中核心部分為LSTM運算層。LSTM解碼層如圖3所示。
圖3 LSTM解碼層結構展示Fig.3 LSTM decoder layer structure
線性整流能夠將Transformer編碼層結果進行整流,將數(shù)據(jù)轉化為匹配LSTM隱藏層的格式,從而為LSTM提供輸入數(shù)據(jù)。
LSTM運算層由輸入門、遺忘門、輸出門以及細胞狀態(tài)所組成。LSTM需要將Transformer編碼層數(shù)據(jù)、上一時刻的隱藏層數(shù)據(jù)ht與上一時刻的細胞狀態(tài)輸出Ct作為共同輸入,通過門控機制串行處理數(shù)據(jù),實現(xiàn)對數(shù)據(jù)的處理[16]。LSTM網絡結構如圖4所示。
圖4 LSTM網絡結構Fig.4 LSTM neural network structure
數(shù)據(jù)在輸入門中計算公式如式(10)所示
it=σ(Wi[ht-1,xt]+bi)
(10)
數(shù)據(jù)在遺忘門中計算公式如式(11)、式(12)所示
ft=σ(Wf[ht-1,xt]+bf)
(11)
(12)
數(shù)據(jù)在輸出門中計算公式如式(13)所示
ot=σ(Wo[ht-1,xt]+bo)
(13)
經過三個門處理的數(shù)據(jù),將會向下傳遞至兩種記憶模塊,在不同的記憶模塊中,數(shù)據(jù)的長短期依賴性被選擇處理,具體處理方式如下所示。
長記憶如式(14)所示
(14)
短記憶如式(15)所示
Ot=ot*tanh(Ct)
(15)
在重構的LSTM解碼層輸出結果之前,本模型引入了兩個全連接層提升模型的魯棒性,提升預測數(shù)據(jù)結果可靠性。
1.1節(jié)~1.3節(jié)介紹了Transformer-LSTM網絡的位置編碼層、編碼層與解碼層,本節(jié)將網絡整體結構進行展示,并將數(shù)據(jù)流傳遞圖進行講解。
Transformer-LSTM網絡處理數(shù)據(jù)的過程分為單元內數(shù)據(jù)處理與單元間數(shù)據(jù)處理。數(shù)據(jù)通過兩種傳遞方式實現(xiàn)對軸承剩余壽命預測。其中單元內處理負責數(shù)據(jù)并行處理,單元外處理負責數(shù)據(jù)串行處理。
單元內數(shù)據(jù)處理依靠相互獨立的位置編碼層、Transformer編碼層與本單元內的LSTM解碼層。數(shù)據(jù)在單元內按照圖5、圖6中①路線前進,對每個時刻新的輸入進行位置編碼以及Transformer編碼。經過編碼的數(shù)據(jù)能夠保留更多的特征,以保證在長壽命軸承預測過程中信號衰減程度降低,具體結構如圖5所示。
圖5 Transformer-LSTM單元內網絡結構Fig.5 Transformer-LSTM inner-unit network structure
圖6 Transformer-LSTM數(shù)據(jù)傳遞過程Fig.6 Transformer-LSTM outer-unit network structure
單元外數(shù)據(jù)處理依靠LSTM解碼層實現(xiàn),在LSTM網絡中,時間序列能夠被完整保存下來,這樣的特點在短壽命時長軸承預測中將更多的時間特征保存下來,實現(xiàn)網絡的串行數(shù)據(jù)處理能力,提升網絡的預測性能。 在Transformer-LSTM單元外數(shù)據(jù)傳遞如圖5、圖6中②數(shù)據(jù)流所示。為了能更加直觀展示網絡的數(shù)據(jù)處理方式,本文搭建了數(shù)據(jù)傳遞模型圖,如圖6所示。
軸承壽命預測是根據(jù)軸承運行過程中所產生的信號的變化,通過特征提取、加工等方式,實現(xiàn)對軸承壽命的預測。一般來說,軸承壽命預測需要依靠軸承運行所發(fā)出的振動信號進行處理,通常來講有方差信號、峰峰值、頻譜信號、包絡譜信號等多種信號處理方式[17]。
本文構建的Transformer-LSTM模型通過以下的技術從而實現(xiàn)對軸承故障的預測,其中技術路線包括:①提取原始數(shù)據(jù)中提取多種時頻域特征,并選擇特征明顯的指標作為特征數(shù)據(jù)集輸入;②對特征數(shù)據(jù)集進行歸一化處理;③搭建Transformer-LSTM模型;④訓練集與驗證集劃分,訓練集用于訓練模型,驗證集用于測試預測數(shù)據(jù);⑤搭建訓練-預測聯(lián)合預測數(shù)據(jù)集并進行量化評估。技術路線如圖7所示。
圖7 技術路線Fig.7 Technology roadmap
特征提取與數(shù)據(jù)集構建是實現(xiàn)預測的基礎,對于軸承壽命預測而言,在眾多的特征中提取滿足預測條件的特征才能夠實現(xiàn)準確的預測。正常的軸承在運行過程中振動逐漸增加,因此可以通過振動加速度傳感器進行采集。
以本文所使用的部分軸承有效信號為例,如圖8所示。軸承的垂向振動加速度信號特征隨著軸承性能退化而發(fā)展,振動信號逐漸增加,呈現(xiàn)出單調上升的趨勢,并且在整個退化過程中整體平穩(wěn),不存在局部激勵震蕩的情況。因此選擇該指標訓練軸承壽命的預測。
圖8 軸承全壽命振動加速度原始信號圖Fig.8 Original signal diagram of bearing full lifevibration acceleration
數(shù)據(jù)歸一化是一種常見的數(shù)據(jù)處理方法,歸一化能夠使數(shù)據(jù)在一定程度上實現(xiàn)收斂,從而降低在預測過程中產生的梯度爆炸問題。本文采用的歸一化方法是0~1歸一化方法,如式(16)所示。該方法可以將原始數(shù)據(jù)通過線性變換,約束到0~1內,從而實現(xiàn)提升收斂速度、防止梯度爆炸。
經過歸一化的垂向振動加速度信號在降低梯度爆炸的概率同時還保留了完整的特征趨勢,相較于原始輸入擁有更好的訓練性,因此選擇歸一化后的垂向振動加速的信號作為網絡輸入。
(16)
本文采用了一種訓練-預測聯(lián)合的數(shù)據(jù)集構建模式,該方法的做法是將訓練結果與預測結果相結合,構建全新數(shù)據(jù)集的方法。
試驗網絡采用滑動窗預測的方式進行訓練,將訓練數(shù)據(jù)、預測數(shù)據(jù)按照設定的batch-size進行等分,分別對訓練集數(shù)據(jù)進行訓練。在訓練過程中打亂時間順序,通過位置編碼層對各個標簽進行位置編碼,對訓練集進行學習,優(yōu)化訓練損失,并設置loss為0,dropout為0.4,提升泛化性。在經歷了設定的epoch之后,網絡得到最終學習結果的權重。測試集根據(jù)訓練集結果進行預測,最終的測試集結果即為試驗所得到的預測結果。
通過滑動窗預測的方式,將每個測試軸承試驗數(shù)據(jù)的前95%數(shù)據(jù)劃分為訓練集,學習軸承退化特征;將后5%的數(shù)據(jù)用作測試集,根據(jù)訓練集學習到的結果預測測試集樣本壽命數(shù)據(jù)。搭建訓練-預測聯(lián)合數(shù)據(jù)集能夠更好的保存訓練集的學習過程,將最后一次訓練的結果與測試集數(shù)據(jù)結合,完整的保存下從學習到預測的全過程,提升數(shù)據(jù)的可觀測性。聯(lián)合數(shù)據(jù)集搭建如圖9所示。
圖9 訓練-預測聯(lián)合數(shù)據(jù)集構建示意圖Fig.9 Trained-prediction combined data sketch
本次試驗通過多組試驗數(shù)據(jù)來驗證網絡的性能。試驗采用的數(shù)據(jù)集分別是辛辛那提大學軸承全壽命數(shù)據(jù)集(intelligent maintenance systems,IMS)以及西安交通大學軸承全壽命數(shù)據(jù)集。試驗數(shù)據(jù)分別包含了小數(shù)據(jù)集、中等長度數(shù)據(jù)集以及長數(shù)據(jù)集3種,分別驗證網絡的精度與泛化性。
本文采用的預處理方式是平均化每個采樣單元的振動加速度從而實現(xiàn)的。經過平均化采樣的數(shù)據(jù)擁有更好的訓練特征,網絡收斂速度更快,能夠關注到軸承損失的整體趨勢,提升網絡預測精度。
3.1.1 辛辛那提大學軸承全壽命試驗數(shù)據(jù)集
辛辛那提大學試驗選取的是IMS軸承全壽命數(shù)據(jù)集進行方法驗證[18],試驗裝置如圖10所示。該數(shù)據(jù)集共包含3組軸承數(shù)據(jù),本次試驗選取第2組軸承全壽命數(shù)據(jù)設計試驗,共984個采集樣本。軸承型號為Rexnord ZA-2115雙排軸承,4組軸承同時旋轉,通過PCB353B33傳感器垂向和橫向同時監(jiān)測軸承信號變化,試驗結束時,1號軸承發(fā)生外圈故障。試驗各項參數(shù)設定為: 轉速2 000 r/min,采樣頻率為20 kHz,每次采樣時長為1 s,每個采樣單元以10 min為一個采樣單元,每個采樣單元生成一個含有20 480采樣點的數(shù)據(jù)文件,采樣間隔10 min,附加徑向載荷6 000 Ib,試驗裝置如圖10所示。
圖10 辛辛那提大學IMS軸承全壽命試驗裝置示意圖Fig.10 University of Cincinnati IMS schematic diagram of bearing full life test device
為了降低試驗噪聲對預測結果的影響以10 min采樣單元進行平均化,將每個采樣單元所得到數(shù)據(jù)進行平均處理,以每個文件的平均數(shù)據(jù)代表軸承在該單元內的振動特征信號,并參與網絡計算。
3.1.2 辛辛那提大學軸承全壽命試驗結果
試驗在Intel i9 10900F,Nvidia RTX3070,PyTorch1.10.0-GPU,Python3.9環(huán)境下試驗從而得到的。在試驗中,設置訓練網絡參數(shù)為:訓練集epoch為200,batch-size為50;測試集batch-size為50,learning-rate為0.000 1。根據(jù)本文2.4節(jié)所提出的訓練集預測集劃分規(guī)則,本文試驗有984個平均化數(shù)據(jù)單元,劃分95%訓練集934個點作為訓練集,劃分最后5%測試集的50個點作為測試集。
試驗壽命指標選擇以2.4節(jié)所構建的訓練-預測聯(lián)合數(shù)據(jù)集的指數(shù)擬合曲線為評判。指數(shù)擬合曲線本文所采用的指數(shù)擬合,所使用的公式如式(17)所示,并通過Origin指數(shù)擬合迭代訓練-預測聯(lián)合數(shù)據(jù)集所得出的結果。擬合采用Levenberg-Marquardt算法進行實現(xiàn),擬合曲線滿足95%置信區(qū)間分布。當擬合曲線壽命達到1時,判定壽命達到極限,即軸承報廢壽命。
y=y0+Ae-x/t
(17)
本組試驗樣本點984個,即軸承984 min報廢,該樣本滿足長壽命樣本數(shù)據(jù)預測條件,為了能夠對比本文提出的Transformer-LSTM網絡性能,本文選擇了Transformer-LSTM without LSTM、LSTM、GRU 3種網絡進行對比試驗。試驗對2.4節(jié)所提到的訓練-預測聯(lián)合數(shù)據(jù)集的最后測試集50個數(shù)據(jù)點進行展示,并通過平均絕對誤差(mean absolute error,MAE)、均方誤差(mean square error,MSE)、均方根誤差(root mean squared error,RMSE)指標對預測數(shù)據(jù)進行量化分析,公式如式(18)~式(20)所示。
(18)
(19)
(20)
為了能夠更加直觀的展示出預測時間與試驗真實報廢時間之間的關系,本文引入了預測時間相對誤差百分比Xerror來進行比較。其中:Ttest為對比試驗預測誤差時間;Ttl為本文提出的Transformer-LSTM網絡的預測誤差時間;Xerror的百分比越低越能夠體現(xiàn)出對比網絡與本文提出的Transformer-LSTM網絡性能接近,反之亦然。Xerror計算公式如式(21)所示。
(21)
如圖11所示,本文提出的方法效果最佳。將數(shù)據(jù)量化分析:Transformer-LSTM模型預測誤差為108 min,Transformer-LSTM without LSTM預測誤差為145 min,LSTM預測誤差為261 min,GRU預測誤差為455 min,而本文提出的Transformer-LSTM與對比網絡相比較,Transformer-LSTM without LSTM的相對誤差為34.26%,LSTM的相對誤差為141.67%,GRU相對誤差為321.30%。通過試驗壽命預測值與相對誤差可以看出,在長壽命數(shù)據(jù)集的預測過程中,本文提出的模型能夠更好的預測出軸承的壽命,準確最高,優(yōu)于并行數(shù)據(jù)處理的Transformer-LSTM without LSTM網絡。為了更加直觀展Transformer-LSTM預測效果,本文將預測評價指標進行展示,結果如表1所示。
表1 IMS軸承全壽命數(shù)據(jù)集預測結果展示Tab.1 IMS bear bearing life data set prediction result
圖11 辛辛那提大學IMS軸承全壽命試驗預測效果圖Fig.11 Prediction effect of different models uses University of Cincinnati IMS schematic diagram of bearing full life test
3.2.1 西安交通大學軸承加速壽命試驗數(shù)據(jù)集
西安交通大學軸承全壽命數(shù)據(jù)是軸承加速退化測試平臺所采集到的[19]。在試驗中:采樣頻率25.6 kHz,采樣間隔為1 min,每次采樣時長為1.28 s,以每分鐘為一采樣單元。通過在軸承的水平與垂直兩個方向上安裝兩個PCB352C33型加速度計收集被測軸承的振動信號,采集軸承在試驗過程中產生的振動加速度信號,并進行采集。采樣頻率為25.6 kHz,采樣間隔為1 min,每次采樣時長為1.28 s。試驗采用的軸承型號為LDK UER204深溝球軸承,試驗一共分為3個工況,試驗裝置如圖12所示,工況如表2所示。
表2 試驗工況Tab.2 Test conditions
圖12 西安交通大學加速軸承失效試驗設備圖Fig.12 XJTU equipment diagram for accelerated bearing failure test
在每種工況下分別有5個軸承參與試驗,以此保證試驗的可靠性。最終形成了一個由15個軸承構成的數(shù)據(jù)集。本次試驗選取了不同工況下的兩種相同失效形式的軸承,分別是:①加載12 kN轉速2 100 r/min工況下的第三號失效軸承;②加載11 kN轉速2 250 r/min的5號失效軸承。這兩個軸承都是因外圈失效報廢的,有著相似的退化趨勢。
試驗在預處理中采用1 min單元的平均處理方式,將每分鐘數(shù)據(jù)進行平均化,并代入網絡進行計算。
3.2.2 西安交通大學軸承加速壽命試驗結果
在該試驗中,選取了兩組不同工況下失效的軸承,驗證網絡的精度與泛化性,試驗在相同訓練環(huán)境下采用與上文相同的4種神經網絡進行驗證。設置訓練網絡參數(shù)為:訓練集epoch為200,batch-size為16;測試集batch-size為16,learning rate為0.000 1。
首先采用加載12 kN轉速2 100 r/min工況下的第三號失效軸承,本軸承實際失效時間為158 min,滿足短壽命時長軸承。根據(jù)本文2.4節(jié)所提出的訓練集預測集劃分規(guī)則,本組試驗有158個平均化數(shù)據(jù)單元,劃分95%訓練集150個點作為訓練集,劃分最后5%測試集的8個點作為測試集。
如圖13所示,本文提出的方法預測時間以及趨勢最準確。將數(shù)據(jù)量化分析:Transformer-LSTM模型預測誤差僅為0.6 min,Transformer-LSTM without LSTM預測誤差為2.7 min,LSTM預測誤差為1.1 min,GRU預測誤差為5 min。Transformer-LSTM與對比網絡相比較,Transformer的相對誤差為350.00%,LSTM的相對誤差為83.33%,GRU預測誤差為733.33%。通過試驗壽命預測值與相對誤差可以看出,本文提出的Transformer-LSTM串并行神經網絡在短壽命軸承壽命預測過程中,準確率依舊最高,優(yōu)于串行數(shù)據(jù)處理的LSTM神經網絡。為了更加直觀展Transformer-LSTM預測效果,本文將預測評價指標進行展示,結果如表3所示。
表3 西安交通大學軸承加速失效數(shù)據(jù)1-3預測結果展示
圖13 辛辛那提大學IMS軸承全壽命試驗預測效果圖1-3Fig.13 Prediction effect of different models uses University of Cincinnati IMS schematic diagram of bearing full life test 1-3
為了加強驗證試驗數(shù)據(jù)的泛化性能,同時驗證了加載11 kN轉速2 250 r/min工況下的第五號失效軸承,本軸承實際失效時間為339 min。該軸承數(shù)據(jù)量適中,屬于中等壽命時長軸承。本組試驗有339個平均化數(shù)據(jù)單元,劃分95%訓練集322個點作為訓練集,劃分最后5%測試集的17個點作為測試集。
如圖14所示,本文提出的方法效果最佳。將數(shù)據(jù)量化分析:Transformer-LSTM模型預測誤差為5.8 min,Transformer預測誤差為7.4 min,LSTM預測誤差為8.8min,GRU預測誤差為29.9 min。Transformer-LSTM與對比網絡相比較,Transformer-LSTM without LSTM的相對誤差為27.58%,LSTM的相對誤差為51.72%,GRU預測誤差為415.52%。通過試驗壽命預測值與相對誤差可以看出:在中等壽命時長的軸承預測過程中,Transformer-LSTM網絡依舊能夠準確的預測軸承剩余壽命,準確率仍然最高,這證明了Transformer-LSTM在軸承壽命預測的過程中泛化性很好,能夠很好地解決單獨的串行或并行網絡在預測軸承壽命時對樣本量的需求。量化試驗結果如表4所示。
表4 西安交通大學軸承加速失效數(shù)據(jù)2-5預測結果展示
圖14 辛辛那提大學IMS軸承全壽命試驗預測效果圖2-5Fig.14 Prediction effect of different models uses University of Cincinnati IMS schematic diagram of bearing full life test 2-5
本文針對軸承不同壽命時長預測不準確、模型泛化能力弱的問題,提出了一種能夠預測不同壽命時長的Transformer-LSTM串并行神經網絡預測模型。通過將Transformer解碼層進行重構,并與LSTM網絡結構融合,實現(xiàn)軸承壽命數(shù)據(jù)的串并行預測處理。得出以下結論:
(1)Transformer-LSTM網絡性能不受軸承壽命時長影響,能夠在不同時間尺度內保持精確的預測效果。預測的軸承壽命、MSE、RMSE均優(yōu)于Transformer-LSTM without LSTM、LSTM、GRU 3種網絡。
(2)Transformer-LSTM網絡在壽命預測過程中,預測結果最接近實際報廢時間,證明了本文提出的網絡能夠提取到更多的特征信息。
(3)Transformer-LSTM神經網絡在不同數(shù)據(jù)集的多種工況下均能取得較好的預測精度,證明了本文所提出的模型具有良好的泛化性。