亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于GAF與GoogLeNet的軸承故障診斷研究

        2022-10-14 01:07:22黃磊馬圣曹永華
        機(jī)床與液壓 2022年1期
        關(guān)鍵詞:故障診斷軸承卷積

        黃磊,馬圣,曹永華

        (1.江蘇航空職業(yè)技術(shù)學(xué)院航空工程學(xué)院,江蘇鎮(zhèn)江 212134;2.成都芯米科技有限公司技術(shù)研發(fā)部,四川成都 610213)

        0 前言

        航空發(fā)動(dòng)機(jī)的轉(zhuǎn)子系統(tǒng)中各類軸承眾多且工況環(huán)境復(fù)雜,其運(yùn)行精度和安全可靠性制約著發(fā)動(dòng)機(jī)總體性能[1]。軸承在復(fù)雜多變的載荷環(huán)境下長(zhǎng)時(shí)間高速連續(xù)運(yùn)轉(zhuǎn),常因承受沖擊載荷、熱載荷、機(jī)械磨損等而發(fā)生各種故障[2]。由于軸承的任何顯著性故障均從微弱故障中演變而來(lái),而前期微弱故障相比顯著性故障而言,它對(duì)設(shè)備的影響較小,故障特征表現(xiàn)微弱、識(shí)別難度更大。但若前期微弱故障處理不及時(shí),將會(huì)快速發(fā)展為顯著性故障,對(duì)發(fā)動(dòng)機(jī)轉(zhuǎn)子系統(tǒng)造成危害[3]。因此,微弱故障診斷引起國(guó)內(nèi)外學(xué)者的廣泛關(guān)注[3~4]。

        目前,智能故障診斷技術(shù)常采用信號(hào)特征提取、篩選與分類識(shí)別算法相結(jié)合的方式[5]。通過(guò)人工特征提取方法,并結(jié)合ELM、SVM等淺層網(wǎng)絡(luò)的診斷方法,雖然可取得不錯(cuò)成果[6],但相關(guān)資料證明[1]其淺層網(wǎng)絡(luò)結(jié)構(gòu)導(dǎo)致特征提取能力較差,無(wú)法實(shí)現(xiàn)故障微弱特征的提取。

        逐漸興起的卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN)具有較強(qiáng)的特征提取能力,能夠從圖像中提取微弱特征信息,目前廣泛應(yīng)用于圖像識(shí)別領(lǐng)域[7]。近年來(lái),不少學(xué)者將CNN應(yīng)用于故障診斷中。吳春志等[7]為解決人工提取特征再結(jié)合模式識(shí)別算法帶來(lái)的問(wèn)題,提出利用一維卷積神經(jīng)網(wǎng)絡(luò)直接從齒輪箱原始振動(dòng)信號(hào)中學(xué)習(xí)特征的故障識(shí)別方法。昝濤等人[8]在一維卷積網(wǎng)絡(luò)的基礎(chǔ)上,將原始信號(hào)、頻譜分析信號(hào)作為輸入,構(gòu)建多輸入層卷積神經(jīng)網(wǎng)絡(luò)的軸承故障診斷模型。曹繼平等[9]針對(duì)CNN診斷方法存在的計(jì)算效率低、參數(shù)調(diào)試等問(wèn)題,提出采用粒子群優(yōu)化算法確定CNN網(wǎng)絡(luò)結(jié)構(gòu)和參數(shù)的自適應(yīng)深度卷積神經(jīng)網(wǎng)絡(luò),并用主成分分析方法將故障診斷特征學(xué)習(xí)過(guò)程可視化。宮文峰等[10]為解決傳統(tǒng)CNN模型參數(shù)過(guò)多問(wèn)題,引入全局均值池化技術(shù)對(duì)CNN進(jìn)行改進(jìn),改進(jìn)的CNN在軸承故障診斷模型中取得了較好的效果。

        綜上所述,大多數(shù)運(yùn)用在故障診斷技術(shù)上的CNN網(wǎng)絡(luò)均存在結(jié)構(gòu)參數(shù)較多、網(wǎng)絡(luò)深度受限、無(wú)法通過(guò)加深網(wǎng)絡(luò)層數(shù)實(shí)現(xiàn)深層次特征提取的問(wèn)題。而Google借鑒AlexNet網(wǎng)絡(luò)設(shè)計(jì)的GoogLeNet在加深網(wǎng)絡(luò)的同時(shí),減少了網(wǎng)絡(luò)結(jié)構(gòu)參數(shù),并增加輔助分類器,提高網(wǎng)絡(luò)計(jì)算效率、特征識(shí)別能力;并且CAO等[11]驗(yàn)證了它在故障識(shí)別上的可行性。因此,文中以GoogLeNet為診斷識(shí)別模型,并將一維時(shí)間序列軸承原始信號(hào)、EMD分解信號(hào)通過(guò)格拉姆矩陣轉(zhuǎn)換為二維圖片作為輸入、故障類別作為輸出,實(shí)現(xiàn)軸承故障診斷識(shí)別。

        1 基本理論

        1.1 經(jīng)典卷積神經(jīng)網(wǎng)絡(luò)模型

        卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN)是一種受哺乳動(dòng)物視覺(jué)皮層細(xì)胞感野啟發(fā)而演變的典型前饋神經(jīng)網(wǎng)絡(luò),通過(guò)對(duì)樣本的不斷訓(xùn)練更新神經(jīng)元的權(quán)重和偏置[9]。由于它能夠捕捉深層的特征,而被廣泛地應(yīng)用在模式、視頻識(shí)別等領(lǐng)域。CNN模型一般由卷積層、激活層、池化層、全連接層和分類器組成[13]。

        1.1.1 卷積層

        卷積運(yùn)算是CNN中核心計(jì)算單元,對(duì)輸入特征圖與卷積和相重合的區(qū)域內(nèi)進(jìn)行點(diǎn)乘再求和,并通過(guò)激活函數(shù)實(shí)現(xiàn)局部特征的提取。卷積層中的卷積操作可表述為式(1):

        xi+1=wi?xi+bi

        (1)

        式中:xi表示輸入特征圖;xi+1表示卷積計(jì)算后的特征圖;?表示卷積運(yùn)算符;wi表示卷積核權(quán)重;bi表示偏置。

        1.1.2 激活層

        CNN中常采用Relu激活函數(shù)將卷積運(yùn)算后的特征圖通過(guò)激活函數(shù)作非線性變換。將式(1)代入激活函數(shù)中可得:

        yi=f(xi+1)=f(wi?xi+bi)

        (2)

        式中:yi為經(jīng)過(guò)激活層輸出的特征圖。

        1.1.3 池化層

        由于卷積層不僅增加特征提取的能力,同時(shí)增加網(wǎng)絡(luò)結(jié)構(gòu)的參數(shù)數(shù)量,從而導(dǎo)致計(jì)算復(fù)雜度增加,容易導(dǎo)致維度災(zāi)難[13]。為避免此問(wèn)題,CNN中常采用最大池化的方法,在保證特征保留的同時(shí)進(jìn)行降維處理。最大池化操作可表述為式(3):

        maxpooling(f[i-1],f[i],f[i+1])=

        max(f[i-1],f[i],f[i+1])

        (3)

        式中:maxpooling表示最大池化;f[i-1]、f[i]、f[i+1]分別表示第i-1、i、i+1個(gè)像素值。

        1.1.4 全連接層

        全連接層屬于過(guò)渡層,用于連接CNN輸出與Softmax分類器。CNN輸出特征經(jīng)過(guò)Flatten展平函數(shù)轉(zhuǎn)變?yōu)橐痪S數(shù)組,再經(jīng)過(guò)全連接層輸出為n分類的一維向量。全連接層函數(shù)表示為

        o(x)=f(wx+b)

        (4)

        式中:x表示全連接層的輸入;w表示全連接層權(quán)重;b表示全連接層偏置;o(x)表示全連接輸出;f(·)表示激活函數(shù)。

        1.2 格拉姆矩陣

        為便于較好地利用機(jī)器視覺(jué)算法的優(yōu)勢(shì),將一維時(shí)域振動(dòng)信號(hào)轉(zhuǎn)換為二維圖像?;舅枷胧牵合葘?duì)時(shí)域數(shù)據(jù)進(jìn)行極坐標(biāo)編碼,隨后對(duì)生成的角度進(jìn)行Gram矩陣變換,如圖1所示。

        圖1 基于格拉姆算法的轉(zhuǎn)換流程

        假設(shè)一維振動(dòng)時(shí)序序列X={xi|i=1,2,…,n},為保證內(nèi)積不偏向于序列中最大值,先將序列X縮放至[-1, 1]內(nèi)。由于直接計(jì)算每對(duì)點(diǎn)得到的Gram矩陣的分布遵循以0為中心的高斯分布,所得到的圖片存在噪聲。為此,在構(gòu)造Gram矩陣時(shí),先將時(shí)序序列X轉(zhuǎn)換到極坐標(biāo)中。極坐標(biāo)角度φ由arccosx計(jì)算得到,極坐標(biāo)半徑為i/n。

        由于每個(gè)向量的范數(shù)都根據(jù)時(shí)間依賴性進(jìn)行調(diào)整,二維極坐標(biāo)空間的內(nèi)積受到限制。為保證充分利用極坐標(biāo)信息,采用式(5)計(jì)算內(nèi)積[14]:

        x⊕y=cos(θ1+θ2)=cos(arccosx+arccosy)=cos(arccosx)·cos(arccosy)-sin(arccosx)·

        (5)

        其中:θ表示x和y之間的角度。由式(5)可知,x和y越接近,懲罰越大,當(dāng)x=y時(shí)輸出-1,其結(jié)果更容易與高斯噪聲進(jìn)行區(qū)分。因此,基于式(5)便可得到Gram矩陣G:

        G=

        (6)

        2 GoogLeNet模型

        深層CNN網(wǎng)絡(luò)具有更強(qiáng)的特征提取能力,但增加CNN深度容易導(dǎo)致過(guò)擬合、梯度彌散等問(wèn)題。為此,2014年Google提出GoogLeNet網(wǎng)絡(luò)結(jié)構(gòu),增加網(wǎng)絡(luò)深度和寬度的同時(shí)減少網(wǎng)絡(luò)結(jié)構(gòu)參數(shù)。在GoogLeNet的Inception v1結(jié)構(gòu)中,通過(guò)在3×3卷積層、5×5卷積層前和最大池化層后增加1×1卷積層降低特征圖的厚度,其結(jié)構(gòu)如圖2所示。

        圖2 Inception v1結(jié)構(gòu)

        Inception v1結(jié)構(gòu)中1×1卷積層主要用于降低特征圖維度,并經(jīng)過(guò)激活函數(shù)ReLU增加網(wǎng)絡(luò)的非線性特征。GoogLeNet采用模塊化的結(jié)構(gòu)(Inception結(jié)構(gòu)),便于增添和修改。同時(shí),為避免梯度消失,網(wǎng)絡(luò)額外增加2個(gè)輔助分類器,用于向前傳導(dǎo)梯度(即將中間某層的輸出作為分類,并按照較小的權(quán)重加到最終分類結(jié)果中)?;贗nception構(gòu)建的22層GoogLeNet的網(wǎng)絡(luò)結(jié)構(gòu)如圖3所示。

        圖3 GoogLeNet的網(wǎng)絡(luò)結(jié)構(gòu)

        3 基于GoogLeNet的軸承故障診斷模型

        3.1 振動(dòng)數(shù)據(jù)集來(lái)源

        滾動(dòng)軸承振動(dòng)實(shí)驗(yàn)平臺(tái)如圖4所示,實(shí)驗(yàn)中采用307型滾動(dòng)軸承,轉(zhuǎn)子轉(zhuǎn)速為988 r/min,每周期傳感器采樣1 024個(gè)點(diǎn),每次實(shí)驗(yàn)進(jìn)行16個(gè)周期。振動(dòng)信號(hào)模擬工況包括:正常、內(nèi)環(huán)故障、外環(huán)故障、滾動(dòng)體故障4種,4種故障類型的時(shí)域波形如圖5所示,圖中僅呈現(xiàn)一個(gè)周期1 024組樣本數(shù)據(jù)點(diǎn)。

        圖4 滾動(dòng)軸承實(shí)驗(yàn)平臺(tái)

        圖5 時(shí)域波形

        3.2 數(shù)據(jù)處理

        由于采集到的軸承故障振動(dòng)數(shù)據(jù)有限,為避免故障數(shù)據(jù)特征難以捕捉,需要增加故障樣本數(shù)量。數(shù)據(jù)增強(qiáng)[14]方式較多,為增加信號(hào)局部特征的表達(dá),采用經(jīng)驗(yàn)?zāi)B(tài)分解法對(duì)振動(dòng)信號(hào)進(jìn)行分解,并選取本征模態(tài)分量累積貢獻(xiàn)率90%的分量。以內(nèi)環(huán)故障模式為例,其經(jīng)驗(yàn)?zāi)B(tài)分解如圖6所示,其本征模態(tài)分量累計(jì)貢獻(xiàn)率如表1所示。

        表1 IMF能量累積分布 單位:%

        圖6 內(nèi)環(huán)故障EMD分解

        將選擇的分量和原始振動(dòng)信號(hào)分量作為一維時(shí)序序列轉(zhuǎn)為二維圖像的輸入。同時(shí),采用如圖7所示的重疊采樣方法,增加訓(xùn)練樣本數(shù)量,文中樣本重疊采樣比例為2∶3。

        圖7 重疊采樣方法

        將一維時(shí)序序列作為格拉姆矩陣算法輸入,其各類故障信號(hào)由一維時(shí)序信號(hào)轉(zhuǎn)換成二維圖片,從而構(gòu)成圖片數(shù)據(jù)集,數(shù)據(jù)集中部分圖片如圖8所示。

        圖8 數(shù)據(jù)集示意

        3.3 基于GoogLeNet的軸承故障診斷模型

        基于GoogLeNet的軸承故障診斷模型的診斷流程如圖9所示,其算法詳細(xì)步驟描述如下:

        圖9 基于GoogLeNet的軸承故障診斷模型的診斷流程

        步驟1:設(shè)置不同軸承故障類型,并通過(guò)實(shí)驗(yàn)平臺(tái)采集故障振動(dòng)信號(hào);

        步驟2:對(duì)振動(dòng)信號(hào)進(jìn)行經(jīng)驗(yàn)?zāi)B(tài)分解,選取本征模態(tài)分量累計(jì)貢獻(xiàn)率90%的分量與振動(dòng)原始信號(hào)一起作為時(shí)序序列數(shù)據(jù)源;

        步驟3:對(duì)數(shù)據(jù)進(jìn)行重復(fù)采樣,并對(duì)采樣后的時(shí)序序列進(jìn)行格拉姆矩陣變換,創(chuàng)建故障數(shù)據(jù)集;

        步驟4:將故障樣本數(shù)據(jù)集作為GoogLeNet網(wǎng)絡(luò)的輸入,輸入樣本為224×224×3的RGB圖像,輸出故障標(biāo)簽為4,每次batch為32,學(xué)習(xí)速率為0.001;

        步驟5:將訓(xùn)練好的GoogLeNet模型用于診斷測(cè)試集樣本。

        4 基于GoogLeNet的軸承故障診斷結(jié)果分析

        為較好地描述GoogLeNet模型在實(shí)驗(yàn)數(shù)據(jù)集下的診斷效果,采用雙縱坐標(biāo)軸描述GoogLeNet模型訓(xùn)練過(guò)程中訓(xùn)練集、測(cè)試集的準(zhǔn)確率和模型收斂趨勢(shì),其結(jié)果分別如圖10、圖11所示。

        圖10 訓(xùn)練集診斷結(jié)果

        圖11 測(cè)試集診斷結(jié)果

        由圖10可以發(fā)現(xiàn):GoogLeNet模型在訓(xùn)練過(guò)程中波動(dòng)性較大,即使迭代步數(shù)到達(dá)2萬(wàn)步以上,誤差減小,但訓(xùn)練識(shí)別率仍存在較大波動(dòng),說(shuō)明利用GAF對(duì)時(shí)域信號(hào)處理后生成的不同圖片特征間差異性較大,這可能是由于振動(dòng)信號(hào)的時(shí)域信號(hào)具備的時(shí)序信息導(dǎo)致的,而這一問(wèn)題可以通過(guò)增加重疊采樣比例和多次訓(xùn)練取均值得到改善。

        由圖11可以發(fā)現(xiàn):GoogLeNet模型在識(shí)別過(guò)程中波動(dòng)性較大,即使迭代步數(shù)到達(dá)2萬(wàn)步以上,誤差減小,但訓(xùn)練識(shí)別率仍存在較大波動(dòng);隨著網(wǎng)絡(luò)訓(xùn)練步數(shù)增加,其識(shí)別準(zhǔn)確率逐漸增加,識(shí)別率雖出現(xiàn)明顯波動(dòng),但其準(zhǔn)確大于70%,絕大多數(shù)情況下準(zhǔn)確率達(dá)到了90%以上,說(shuō)明經(jīng)過(guò)訓(xùn)練后的GoogLeNet模型具備一定的軸承故障識(shí)別能力。

        為更清楚地展示GoogLeNet模型在測(cè)試集中各個(gè)類別的識(shí)別結(jié)果,引入混淆矩陣對(duì)實(shí)驗(yàn)結(jié)果進(jìn)行分析。GoogLeNet模型在測(cè)試集下的故障識(shí)別結(jié)果如圖12所示。每類故障樣本100個(gè),共4種故障類型。圖中主對(duì)角線上的數(shù)字代表GoogLeNet模型對(duì)每一類故障狀態(tài)正確診斷的樣本個(gè)數(shù)及占總樣本的比例;每一列均量化為精確信息,即正確分類的個(gè)數(shù)和誤分類的個(gè)數(shù)以及某故障被誤判為哪一類故障。

        圖12 測(cè)試結(jié)果的混淆矩陣

        由圖12可知:GoogLeNet模型能夠較好地區(qū)別正常、內(nèi)環(huán)故障、外環(huán)故障、滾動(dòng)體故障4種類型,且每類故障識(shí)別準(zhǔn)確的樣本分別占總樣本的23.25%、23.5%、23.25%、23%;每類故障被誤診的概率不超過(guò)總樣本的1%;GoogLeNet模型對(duì)滾動(dòng)體故障識(shí)別效果相比正常、內(nèi)環(huán)故障、外環(huán)故障效果較差,其誤診樣本達(dá)到總體樣本的2%。

        5 總結(jié)

        針對(duì)軸承故障振動(dòng)信號(hào)微弱難以識(shí)別且常用的頻譜分析流程繁瑣,采用格拉姆矩陣將時(shí)域振動(dòng)信號(hào)轉(zhuǎn)換為二維圖像,并利用GoogLeNet模型強(qiáng)有力的特征提取能力對(duì)軸承故障振動(dòng)信號(hào)進(jìn)行識(shí)別。

        首先,對(duì)實(shí)驗(yàn)平臺(tái)采集的軸承故障振動(dòng)信號(hào)進(jìn)行EMD分解,提取本征模態(tài)分量累積能量分布90%的分量;其次,采用格拉姆算法將選擇的本征模態(tài)分量與原始振動(dòng)信號(hào)處理為二維圖片;最后,利用GoogLeNet模型對(duì)數(shù)據(jù)訓(xùn)練與識(shí)別。仿真結(jié)果表明:GoogLeNet模型在GAF構(gòu)建的數(shù)據(jù)集下,隨著迭代步數(shù)增加,誤差減小,但訓(xùn)練識(shí)別率仍存在較大波動(dòng);隨著網(wǎng)絡(luò)訓(xùn)練步數(shù)增加,其識(shí)別準(zhǔn)確率逐漸增加,識(shí)別率雖出現(xiàn)明顯波動(dòng),但準(zhǔn)確率大于70%,絕大多數(shù)情況下準(zhǔn)確率達(dá)到了90%以上,說(shuō)明經(jīng)過(guò)訓(xùn)練后的GoogLeNet模型具備一定的軸承故障識(shí)別能力。

        猜你喜歡
        故障診斷軸承卷積
        軸承知識(shí)
        哈爾濱軸承(2022年2期)2022-07-22 06:39:32
        軸承知識(shí)
        哈爾濱軸承(2022年1期)2022-05-23 13:13:24
        基于3D-Winograd的快速卷積算法設(shè)計(jì)及FPGA實(shí)現(xiàn)
        軸承知識(shí)
        哈爾濱軸承(2021年2期)2021-08-12 06:11:46
        軸承知識(shí)
        哈爾濱軸承(2021年1期)2021-07-21 05:43:16
        從濾波器理解卷積
        電子制作(2019年11期)2019-07-04 00:34:38
        基于傅里葉域卷積表示的目標(biāo)跟蹤算法
        因果圖定性分析法及其在故障診斷中的應(yīng)用
        一種基于卷積神經(jīng)網(wǎng)絡(luò)的性別識(shí)別方法
        基于LCD和排列熵的滾動(dòng)軸承故障診斷
        久久亚洲精品国产亚洲老地址| 亚洲成a人网站在线看| 国产三级在线看完整版| 亚洲三级中文字幕乱码| 内射夜晚在线观看| 国产成人无码免费网站| 青青草视频网站免费观看| 日韩一区中文字幕在线| 少妇性俱乐部纵欲狂欢少妇| 欧美成人免费全部| 国产免费一级高清淫日本片| 一区二区三区在线日本| 中文字幕日韩人妻少妇毛片| 精品日产卡一卡二卡国色天香 | 亚洲三区二区一区视频| 日本在线一区二区三区视频| 亚洲精品一区久久久久一品av| a级毛片内射免费视频| 久久精品成人91一区二区| 国产一区二区不卡av| 午夜成人理论福利片| 初尝黑人巨砲波多野结衣| 久久精品国产久精国产69| 久久国产精品一区av瑜伽| 丰满人妻一区二区三区视频53| 波多野结衣国产一区二区三区| 午夜男女视频一区二区三区| 中文字幕日韩人妻少妇毛片| 天天躁狠狠躁狠狠躁夜夜躁| 久久这里都是精品一区| 日本精品一区二区三区试看| 国产精品无码一区二区在线观一| 日本丶国产丶欧美色综合| 国产精品亚洲一区二区三区正片| 日韩女优av一区二区| 日日澡夜夜澡人人高潮| 在线观看亚洲你懂得| 一区二区高清视频免费在线观看| 亚洲av日韩综合一区二区三区| 91精品福利一区二区| 美女被搞在线观看一区二区三区 |