周 勃,曾勁松,劉國寧,馬光巖
(鄭州大學(xué)機(jī)械與動(dòng)力工程學(xué)院,河南 鄭州 450001)
滾動(dòng)軸承是旋轉(zhuǎn)機(jī)械中廣泛使用的關(guān)鍵零件之一,由于復(fù)雜的工作環(huán)境和多變的工況極易產(chǎn)生故障,帶來嚴(yán)重的安全隱患[1]。根據(jù)不完全統(tǒng)計(jì),大約有三分之一的旋轉(zhuǎn)機(jī)械故障是由軸承故障引起的,因此對(duì)軸承故障信息檢測(cè)和診斷對(duì)保障機(jī)械設(shè)備正常運(yùn)行具有重要意義。
常見的軸承故障智能診斷方法常采用人工的選取軸承振動(dòng)信號(hào)特征然后再利用傳統(tǒng)機(jī)器學(xué)習(xí)方法對(duì)故障類型進(jìn)行模式識(shí)別和分類,但是往往需要對(duì)振動(dòng)信號(hào)做復(fù)雜的信號(hào)處理以獲取相對(duì)滿意的特征,難以達(dá)到較好的分類精度。近年來,有諸多學(xué)者嘗試將深度學(xué)習(xí)技術(shù)引入故障診斷領(lǐng)域。深度學(xué)習(xí)作為機(jī)器學(xué)習(xí)的重要分支之一[2],在復(fù)雜特征提取方面具有傳統(tǒng)機(jī)器學(xué)習(xí)方法不可比擬的優(yōu)勢(shì),更能充分利用數(shù)據(jù),可以自動(dòng)學(xué)習(xí)到數(shù)據(jù)中的深層隱藏表示,從而避免了繁瑣的特征工程。史光宇將軸承振動(dòng)的一維振動(dòng)信號(hào)順序采樣并重構(gòu)成二維灰度圖作為卷積神經(jīng)網(wǎng)絡(luò)(CNN)的輸入,有監(jiān)督的對(duì)軸承進(jìn)行智能故障診斷[3]。文獻(xiàn)[4]構(gòu)建了一種殘差學(xué)習(xí)的深度一維卷積自編碼器,可以無監(jiān)督的對(duì)齒輪箱故障進(jìn)行診斷。文獻(xiàn)[5]通過堆疊LSTM可以自動(dòng)分層提取原始時(shí)間信號(hào)中固有的特征,對(duì)滾動(dòng)軸承診斷并取得了不錯(cuò)效果。文獻(xiàn)[6]則將CNN模型改進(jìn),提出了SECNN模型,通過自適應(yīng)調(diào)整模型提取的特征通道維權(quán)重,提升了故障診斷的準(zhǔn)確率。以上方法表明深度學(xué)習(xí)方法在軸承故障診斷方向具有很強(qiáng)的可行性,但是均未考慮到深度模型在訓(xùn)練過程中可能存在的梯度彌散現(xiàn)象,且在故障特征的提取能力方面仍有很大的提升空間,為了進(jìn)一步提升故障診斷模型的綜合性能,提出了一種基于CKAM-Resnet的軸承故障診斷模型,大大增強(qiáng)了對(duì)故障特征的提取能力,同時(shí)使模型更容易訓(xùn)練。
殘差網(wǎng)絡(luò)(Residual Networks,Resnet)由何凱明提出,通過在網(wǎng)絡(luò)中加入短路連接(Shortcut Connection),有效解地決了深層神經(jīng)網(wǎng)絡(luò)模型的退化問題[7]。殘差網(wǎng)絡(luò)的基本結(jié)構(gòu)是由若干個(gè)殘差塊堆疊而成,如圖1所示?;舅枷胧悄P偷膬?nèi)部結(jié)構(gòu)至少要保有恒等映射的能力。殘差網(wǎng)絡(luò)直接把恒等映射作為網(wǎng)絡(luò)的一部分,將網(wǎng)絡(luò)設(shè)計(jì)為H(x) =F(x) +x,把問題轉(zhuǎn)變?yōu)槿デ蠼庖粋€(gè)殘差映射函數(shù)F(x) =H(x) -x,若使得F(x) = 0就構(gòu)成了一個(gè)恒等映射,如果新添加的層可以被訓(xùn)練成恒等映射H(x) =x,則加深后的新網(wǎng)絡(luò)至少不會(huì)導(dǎo)致性能下降,擬合殘差比擬合恒等映射更為簡(jiǎn)單,且殘差映射更容易被優(yōu)化。
圖1 殘差塊結(jié)構(gòu)Fig.1 Residual Block Structure
假設(shè)殘差神經(jīng)網(wǎng)絡(luò)有L個(gè)殘差塊堆疊而成,用x(l)表示第l個(gè)殘差塊的輸入,x(l+1)表示該殘差塊的輸出。則第l個(gè)殘差塊的輸出可以推導(dǎo)出為:
遞歸可以得到第L個(gè)殘差塊的輸出:
其中{}代表第l個(gè)殘差塊中所有層的權(quán)值矩陣,假定第L個(gè)殘差塊的誤差為L(zhǎng),對(duì)于網(wǎng)絡(luò)第l個(gè)殘差塊根據(jù)鏈?zhǔn)角髮?dǎo)法則由(2)計(jì)算梯度為:
由式(3)可以觀察到,第一個(gè)偏導(dǎo)項(xiàng)不涉及任何權(quán)值層,能保證信息直接傳遞到任意一個(gè)比它淺的l層,而括號(hào)中第二個(gè)偏導(dǎo)項(xiàng)在訓(xùn)練過程中不會(huì)始終保持為-1,意味著梯度不可能一直為0,反向傳播過程中鏈?zhǔn)角髮?dǎo)從連乘變成連加,可以有效的避免梯度消失和梯度彌散現(xiàn)象。
在神經(jīng)科學(xué)領(lǐng)域,動(dòng)物的視覺皮層的神經(jīng)元的感受野的大小可以根據(jù)外界刺激的不同自適應(yīng)的改變,實(shí)驗(yàn)發(fā)現(xiàn)神經(jīng)元的大小并不是固定的而是受刺激調(diào)節(jié)的[8]。選擇性核卷積(Selective Kernel Convolution,SK卷積)的運(yùn)作方式與之類似,將注意力機(jī)制應(yīng)用于不同尺度的卷積核中,采用門控思想來控制信息的流動(dòng)以達(dá)到神經(jīng)元接受刺激而自適應(yīng)的改變感受野的目的,實(shí)現(xiàn)了卷積核的注意力機(jī)制(Convolution Kernel Attention Mechanism,CKAM)。其核心思想就是用多尺度特征匯總的信息來跨通道的地指導(dǎo)如何分配側(cè)重使用哪個(gè)卷積核的表征。
以二維選擇性核卷積為例,其結(jié)構(gòu),如圖2所示。選擇性核卷積由分裂(split),融合(fuse)和選擇(select)三種運(yùn)算組成,X代表輸入的任意特征圖。首先進(jìn)行分裂(split)運(yùn)算,在2個(gè)分支的情況下,(多分支與之類似),分別使用大小為(3×3)和(5×5)的卷積核對(duì)輸入的特征圖X進(jìn)行卷積,得到分裂后大小相同且含有不同尺度信息的特征圖?和?。融合(Fuse)運(yùn)算通過元素求和匯集了多分支的信息,其中U是融合后的特征圖,即:
圖2 選擇性核卷積操作Fig.2 Selective Kernel Convolution Operation
式(5)顯示了全局均值池化的操作,Sc代表第c個(gè)通道經(jīng)過該操作后的結(jié)果。U經(jīng)過全局均值池化后得到含有融合多分支空間信息后的特征s(s∈RC×1),特征s經(jīng)過全連接被壓縮成低維緊湊特征z(z∈Rd×1)來指導(dǎo)特征的自適應(yīng)選取,其中δ表示:
ReLU激活函數(shù),B表示批量歸一化操作,W表示全連接層的權(quán)值矩陣,其中W∈Rd×c。選擇(select)運(yùn)算則是對(duì)緊湊特征z通過兩個(gè)分支的軟注意力(Soft Attention)矩陣[9]A和B(A,B∈RC×d))進(jìn)行仿射變換,并對(duì)A,B對(duì)應(yīng)的通道維度進(jìn)行softmax操作,最終可以得到含有2 個(gè)分支不同尺度卷積核的通道權(quán)重:wA,wB(wA=[a1,a2,…,ac],wB=[b1,b2,…,bc]),其中Ac和Bc分別是軟注意力矩陣A,B中第c個(gè)通道的軟注意力向量,ac和bc分別為經(jīng)過softmax后兩個(gè)分支第c個(gè)通道上的權(quán)重大小。
接著將wA,wB分別與輸入特征圖X分裂出的特征圖?和?進(jìn)行元素相乘得到不同卷積核大小的2個(gè)分支通道權(quán)重調(diào)整后的特征圖,并把2 個(gè)特征圖再一次融合得到最終的特征V。(V=[V1,V2,…,Vc],V∈RH×W),其中由式(8)可以得到最終特征圖在通道c上的特征)。
最終經(jīng)選擇性核卷積得到特征圖V與普通卷積操作得到的特征圖相比匯集了更為豐富的不同感受野的空間融合信息。
針對(duì)滾動(dòng)軸承振動(dòng)信號(hào)的特點(diǎn),將選擇性核卷積可以獲取更為豐富的不同感受野的空間融合特征的特點(diǎn)與殘差網(wǎng)絡(luò)可以避免解決梯度消失/彌散且容易訓(xùn)練的優(yōu)勢(shì)相結(jié)合構(gòu)建出了一種基于CKAM-Resnet的滾動(dòng)軸承故障診斷模型。
CKAM-Resnet 的模型結(jié)構(gòu)借鑒了殘差網(wǎng)絡(luò)的思想,將選擇性核卷積設(shè)計(jì)成了塊的結(jié)構(gòu),模型由堆疊的一維選擇性核卷積塊(1D-SKBlock,SK塊)構(gòu)成,如圖3所示。模型的具體結(jié)構(gòu),如圖4所示。為了提取軸承振動(dòng)信號(hào)的短時(shí)特征,第一層卷積層采用步長(zhǎng)為15,寬為128 的一維寬卷積核,后接(1×2)的一維最大池化層,將輸入的特征圖縮小的同時(shí)加大了深度,模型各層激活函數(shù)均采用線性整流函數(shù)(Relu),并且每一個(gè)卷積和池化層后均引入BN 層(Batch Normalization)[10]加快模型訓(xùn)練過程的收斂減輕過擬合。經(jīng)池化后的特征圖接著通過3個(gè)SK塊,其中每經(jīng)過一個(gè)SK 塊都會(huì)將輸入的特征圖通道數(shù)加倍的同時(shí)使特征圖大小減半,為減小模型參數(shù)量提升計(jì)算速度,每個(gè)SK卷積層的分裂運(yùn)算均采用2分支的一維卷積,卷積核大小分別是(1×3)和(1×7)。SK塊后采用一維全局池化層對(duì)空間信息進(jìn)行了求和,使模型對(duì)輸入的空間變換更具有穩(wěn)定性,并進(jìn)一步減少了模型參數(shù)量,最后經(jīng)過線性層,引入dropout機(jī)制防止模型出現(xiàn)過擬合,將輸出特征降維到10,并經(jīng)過Softmax層輸出預(yù)測(cè)概率值。模型的具體結(jié)構(gòu)參數(shù)設(shè)置,如表1所示。
表1 網(wǎng)絡(luò)模型具體參數(shù)Tab.1 Network Model Specific Parameters
圖3 一維選擇性核卷積塊(1D-SKBlock)Fig.3 1D Selective Kernel Convolution Block
圖4 CKAM-Resnet故障診斷模型結(jié)構(gòu)Fig.4 CKAM-Resnet Fault Diagnosis Model Structure
實(shí)驗(yàn)采用的滾動(dòng)軸承振動(dòng)數(shù)據(jù)來自美國凱斯西儲(chǔ)大學(xué)(Case Western Reserve University,CWRU)軸承數(shù)據(jù)中心經(jīng)軸承數(shù)據(jù)采集系統(tǒng)測(cè)試得到的公開數(shù)據(jù)集[11]。該軸承數(shù)據(jù)采集系統(tǒng)由電機(jī),轉(zhuǎn)矩傳感器,功率計(jì)及電子控制設(shè)備組成,軸承引入的故障均為由電火花加工而成的單一故障,損傷直徑分別為0.007in,0.014in,0.021in(1in=25.4mm),分別位于軸承內(nèi)圈、滾珠和外圈部位。
為驗(yàn)證提出的故障診斷模型對(duì)滾動(dòng)軸承的故障診斷的實(shí)際效果,實(shí)驗(yàn)采用采樣頻率為12kHz,電機(jī)負(fù)載分別為1、2,3hp條件下(1hp≈0.735kW),電機(jī)轉(zhuǎn)速分別為1772r/min,1750r/min,1730r/min,型號(hào)為SKF6205-2RS的驅(qū)動(dòng)端軸承的振動(dòng)數(shù)據(jù)。按軸承損傷位置和直徑的不同,將軸承振動(dòng)數(shù)據(jù)劃分為包括正常狀態(tài)在內(nèi)的10種狀態(tài)標(biāo)簽,并將2048個(gè)采樣點(diǎn)數(shù)劃分為一個(gè)樣本,根據(jù)不同負(fù)載情況,將數(shù)據(jù)集分劃為訓(xùn)練集、驗(yàn)證集和測(cè)試集。為了防止訓(xùn)練集的樣本過少導(dǎo)致模型過擬合,對(duì)數(shù)據(jù)集利用重疊采樣的數(shù)據(jù)增強(qiáng)技術(shù)進(jìn)行了擴(kuò)充[12],并采用z-score標(biāo)準(zhǔn)化對(duì)輸入的樣本數(shù)據(jù)進(jìn)行了預(yù)處理。最終每種負(fù)載情況下每種故障類型均有400個(gè)樣本作為訓(xùn)練集,50個(gè)樣本作為驗(yàn)證集,50個(gè)樣本作為測(cè)試集。單種負(fù)載下具體實(shí)驗(yàn)數(shù)據(jù)集詳情,如表2所示。
表2 實(shí)驗(yàn)數(shù)據(jù)集Tab.2 Experimental Data Set
仿真實(shí)驗(yàn)在開源深度學(xué)習(xí)框架PyTorch下實(shí)現(xiàn),為了節(jié)省內(nèi)存和加快計(jì)算數(shù)據(jù)讀取速度,對(duì)實(shí)驗(yàn)數(shù)據(jù)采用批量(batch)處理。對(duì)提出的模型在訓(xùn)練集上訓(xùn)練的同時(shí)在驗(yàn)證集進(jìn)行驗(yàn)證,根據(jù)模型在驗(yàn)證集上的收斂情況合理設(shè)置模型超參數(shù)。
在模型沒有過擬合的前提下,設(shè)置批處理大?。˙atch Size)為128,Dropout層丟棄概率設(shè)置為0.5,采用多分類交叉熵?fù)p失函數(shù)(Cross Entropy Loss)作為模型訓(xùn)練的損失函數(shù)。為了加快訓(xùn)練并使模型盡可能的收斂到全局最優(yōu)解,訓(xùn)練過程采用學(xué)習(xí)率動(dòng)態(tài)調(diào)整策略,初始學(xué)習(xí)率設(shè)置為0.001,每經(jīng)過10輪訓(xùn)練,學(xué)習(xí)率衰減為原來的0.8倍,最終經(jīng)過50輪迭代學(xué)習(xí)率衰減至0.0003,學(xué)習(xí)率在訓(xùn)練過程中的變化,如圖5所示。
圖5 模型訓(xùn)練過程中學(xué)習(xí)率的變化Fig.5 Changes in Learning Rate During Model Training
為了驗(yàn)證CKAM-Resnet在恒定負(fù)載下的診斷性能,在電機(jī)負(fù)載為1hp,2hp和3hp的條件下分別進(jìn)行實(shí)驗(yàn)。以負(fù)載1hp情況為例,模型在訓(xùn)練過程中在的訓(xùn)練集和驗(yàn)證集的誤差(loss)變化曲線,如圖6所示??梢杂^察到模型的loss曲線經(jīng)過50輪左右訓(xùn)練基本達(dá)到收斂。保存經(jīng)訓(xùn)練收斂后的模型,將訓(xùn)練集樣本輸入模型進(jìn)行測(cè)試,得到最終故障診斷結(jié)果,為了保證結(jié)果的穩(wěn)定性,在不同負(fù)載下分別對(duì)模型均進(jìn)行20次實(shí)驗(yàn),考慮到偶然因素可能對(duì)結(jié)果造成的影響,將經(jīng)模型診斷后得到的實(shí)驗(yàn)結(jié)果中去掉一個(gè)最高值和一個(gè)最低值后的平均準(zhǔn)確率作為最終測(cè)試結(jié)果。模型在負(fù)載為1hp、2hp、3hp下分別用測(cè)試集進(jìn)行測(cè)試得到的混淆矩陣,如圖7~圖9所示。
圖6 模型訓(xùn)練過程中l(wèi)oss變化Fig.6 Loss Changes During Model Training
圖7 負(fù)載1hp實(shí)驗(yàn)結(jié)果的混淆矩陣Fig.7 Confusion Matrix of Experimental Results Under 1hp Load
圖8 負(fù)載2hp實(shí)驗(yàn)結(jié)果的混淆矩陣Fig.8 Confusion Matrix of Experimental Results Under 2hp Load
圖9 負(fù)載3hp下實(shí)驗(yàn)結(jié)果的混淆矩陣Fig.9 Confusion Matrix of Experimental Results Under 3hp Load
Cohen’s kappa系數(shù)是一種評(píng)估模型預(yù)測(cè)結(jié)果和真實(shí)類別是否一致的指標(biāo),其值越大說明模型預(yù)測(cè)結(jié)果與真實(shí)分類結(jié)果一致性越好。同時(shí)采用Cohen’s kappa系數(shù)評(píng)估CKAM-Resnet在3種負(fù)載條件下的分類效果,其中Cohen’s kappa系數(shù)的計(jì)算公式,如式(9)所示。
p0,pe的計(jì)算公式,如式(10),式(11)所示。其中,n為待測(cè)試的樣本總數(shù),g為故障的類別總數(shù);fij表示真實(shí)類別標(biāo)簽為i,預(yù)測(cè)標(biāo)簽為j的樣本個(gè)數(shù),fi·,f·i分別表示真實(shí)標(biāo)簽為i的所有測(cè)試樣本個(gè)數(shù)和預(yù)測(cè)標(biāo)簽為i的所有測(cè)試樣本個(gè)數(shù)。
經(jīng)實(shí)驗(yàn),模型在三種負(fù)載情況下實(shí)驗(yàn)得到的Cohen’s kappa系數(shù),如表3所示。
表3 不同負(fù)載下CKAM-Resnet的Cohen’s kappa系數(shù)Tab.3 Cohen’s Kappa Coefficient of CKAM-Resnet Under Different Loads
為了驗(yàn)證提出方法的優(yōu)越性,對(duì)比實(shí)驗(yàn)選取人工特征+MLP(多層感知機(jī)),EMD+SVM,MLP,LSTM(長(zhǎng)短期記憶網(wǎng)絡(luò)),1DCNN(一維卷積神經(jīng)網(wǎng)絡(luò)),1D-Resnet(一維殘差網(wǎng)絡(luò))這6種故障診斷方法,其中手動(dòng)特征+SVM方法選取了每段樣本的時(shí)域特征(均值,方差,峰峰值,有效值,峭度,偏度,峰值因子,脈沖因子,波形因子,裕度因子,峭度因子,偏度因子)和頻域特征(重心頻率,均方頻率,均方根頻率,頻率方差,頻率標(biāo)準(zhǔn)差)組成的17維特征向量輸入到MLP中進(jìn)行分類;EMD+SVM 方法通過EMD 分解把每個(gè)振動(dòng)信號(hào)樣本分解為若干個(gè)IMF(本征模函數(shù))分量,并計(jì)算各IMF分量與原始信號(hào)的皮爾遜相關(guān)系數(shù),選取最大的4個(gè)IMF分量分別提取其時(shí)域和頻域特征(與人工特征+MLP方法選取的特征一致)共68 個(gè)特征并將其輸入到SVM 進(jìn)行故障分類;LSTM方法采用4層結(jié)構(gòu),隱藏層神經(jīng)元個(gè)數(shù)分別為256,128,64,10;MLP方法則是直接將原始訓(xùn)練數(shù)據(jù)和標(biāo)簽輸入,每層神經(jīng)元個(gè)數(shù)分別為2048,1024,256,10;1D-CNN,1D-Resnet采用4層結(jié)構(gòu),卷積層均采用大小為(1×3)卷積核且每層采用的卷積核數(shù)目及激活函數(shù)均與本模型保持一致,分別為8,16,32,64,每個(gè)卷層后積均接有(1×2)最大池化層,線性層神經(jīng)元分別為1600,512,最后由經(jīng)過Softmax層輸出分10類分類結(jié)果,其中1D-Resnet則是在1D-CNN的基礎(chǔ)上增加了短路連接。以上實(shí)驗(yàn)均在模型正常收斂情況下進(jìn)行。經(jīng)過實(shí)驗(yàn)得到不同故障診斷方法的故障診斷準(zhǔn)確率(Accuracy),如表4所示。
表4 不同負(fù)載下不同故障診斷方法的準(zhǔn)確率Tab.4 The Accuracy of Different Fault Diagnosis Methods Under Different Loads
為了驗(yàn)證CKAM-Resnet模型結(jié)構(gòu)對(duì)特征提取的有效性,引入流形學(xué)習(xí)中t-SNE非線性降維方法將輸入數(shù)據(jù)經(jīng)過模型后每一層輸出的高維特征中的冗余特征消除以留下能反映高維特征本質(zhì)的低維特征,并聚類可視化以便更直觀的顯示模型提取到的特征的分布情況。將模型的每個(gè)SK塊提取到的高維特征利用t-SNE降到二維并聚類可視化,同時(shí)與不采用SK卷積和殘差結(jié)構(gòu)后的模型(記作模型A)和僅采用SK卷積的模型(記作模型B),在相同位置輸出特征的降維后的聚類圖進(jìn)行對(duì)比,如圖4所示。實(shí)驗(yàn)選擇在1hp的負(fù)載下進(jìn)行,所有超參數(shù)選取策略均與恒定負(fù)載下故障診斷實(shí)驗(yàn)保持一致,對(duì)三種結(jié)構(gòu)的模型采用同一批次的數(shù)據(jù)同時(shí)進(jìn)行訓(xùn)練,最終三種結(jié)構(gòu)的模型均正常收斂,提取三種模型在位置1,2,3處輸出的特征采用t-SNE技術(shù)降維并聚類可視化的結(jié)果,如圖10~圖12所示。
圖10 模型A各層輸出特征t-SNE聚類效果圖Fig.10 The Output Feature t-SNE Clustering Effect Diagram of Each Layer of Model A
圖11 模型B各層輸出特征t-SNE聚類效果圖Fig.11 The Output Feature t-SNE Clustering Effect Diagram of Each Layer of Model B
圖12 CKAM-Resnet各層輸出特征t-SNE聚類效果圖Fig.12 CKAM-Resnet Output Feature t-SNE Clustering Effect Diagram of Each Layer
5.4.1 恒定負(fù)載下的故障診斷結(jié)果分析
由不同負(fù)載下故障診斷實(shí)驗(yàn)得到的混淆矩陣和Cohen’s kappa系數(shù)可以觀察到,提出的基于CKAM-Resnet模型在三種負(fù)載情況下均有著0.995以上的k值,說明模型分類結(jié)果與真實(shí)類別的一致性較好,模型在各個(gè)類別上都取到了較高的分類準(zhǔn)確率(均達(dá)到了99%以上),每一類型的故障樣本基本都被正確分類,對(duì)不同故障類型整體誤判率較低。
由不同故障診斷方法的對(duì)比實(shí)驗(yàn)結(jié)果可以看到,CKAMResnet模型在三種負(fù)載狀況下的故障診斷的平均準(zhǔn)確率達(dá)到了99.81%,其中人工特征+MLP與EMD+SVM方法在三種負(fù)載下的平均準(zhǔn)確率分別為85.50%和91.74%,以上兩種方法都是基于特征工程,特征選取的好壞直接決定了故障診斷的實(shí)際效果。MLP與LSTM,1D-CNN,1D-Resnet作為端到端的方法和CKAM-Resnet都是直接將原始信號(hào)作為模型的輸入,其中MLP方法僅達(dá)到了81.1%的平均準(zhǔn)確率,低于人工特征+MLP方法,這是由于缺少特征工程,MLP難以直接從原始信號(hào)中提取合適的特征,而LSTM方法雖然能一定程度上利用時(shí)序信息但其特征提取能力仍弱于1DCNN,1D-Resnet以及CKAM-Resnet,在三種負(fù)載狀況下僅達(dá)到了89.74%的平均準(zhǔn)確率。1D-Resnet由于引入了短路連接,相對(duì)提升了模型綜合的性能,診斷效果優(yōu)于未引入短路連接的1DCNN。而CKAM-Resnet模型結(jié)合了殘差結(jié)構(gòu)和卷積核注意力機(jī)制,對(duì)軸承故障特征的自適應(yīng)提取能力更強(qiáng),在三種負(fù)載下的故障診斷的平均準(zhǔn)確率達(dá)到了99.81%,均優(yōu)于其他故障診斷方法。
5.4.2 可視化結(jié)果分析
由三種模型在位置1,2,3處提取到特征的t-SNE 降維聚類效果圖上可以觀察到,由于模型整體層數(shù)的加深,三種模型對(duì)故障樣本的分類能力均得到了提升,不同故障類型的樣本簇從混疊的狀態(tài)逐漸分離,說明三種模型對(duì)故障特征均有一定的提取能力。從三種模型在同一特征輸出位置的整體聚類效果來看,未采用殘差結(jié)構(gòu)和SK卷積的模型A最差,只采用SK卷積的模型B次之,而二者均采用的CKAM-Resnet模型最優(yōu)。從聚類圖上可以觀察到在最后一個(gè)特征輸出位置處,CKAM-Resnet基本將不同故障類型的樣本簇分離,并且無論是類內(nèi)緊湊度還是類間的分離程度均優(yōu)于其他兩種結(jié)構(gòu)的模型,這說明殘差結(jié)構(gòu)與卷積核注意力機(jī)制的引入可以有效的增強(qiáng)模型在恒定負(fù)載下的對(duì)滾動(dòng)軸承不同類型故障特征的提取能力,較明顯的提升了最終故障診斷的效果。
針對(duì)一般軸承智能診斷模型特征提取能力不足,提出了一種基于CKAM-Resnet端對(duì)端的故障診斷模型。采用凱斯西儲(chǔ)大學(xué)軸承振動(dòng)數(shù)據(jù)集對(duì)模型在恒定負(fù)載下的診斷性能進(jìn)行實(shí)驗(yàn)并與其他軸承故障診斷的方法進(jìn)行對(duì)比,結(jié)果表明CKAM-Resnet故障模型具有更高的診斷準(zhǔn)確率。利用t-SNE非線性降維并將模型關(guān)鍵層輸出特征降維并聚類可視化實(shí)驗(yàn)分析得到,CKAMResnet模型可以更有效提取到滾動(dòng)軸承振動(dòng)信號(hào)中的深層故障特征。這里僅對(duì)恒定負(fù)載情況下進(jìn)行了實(shí)驗(yàn)并驗(yàn)證了CKAMResnet模型在恒定工況條件下對(duì)軸承故障診斷的可行性,但對(duì)于復(fù)雜工況條件下的故障診斷有待進(jìn)一步探究。