亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于雙圖轉(zhuǎn)換和融合CRNN網(wǎng)絡(luò)的軸承故障診斷

        2023-10-18 04:05:00吐松江卡日范志鵬萬(wàn)容齊白新悅吳俁潼
        振動(dòng)與沖擊 2023年19期
        關(guān)鍵詞:故障診斷特征故障

        李 喆, 吐松江·卡日, 范 想, 范志鵬, 萬(wàn)容齊, 白新悅, 吳俁潼

        (新疆大學(xué) 電氣工程學(xué)院,烏魯木齊 830046)

        滾動(dòng)軸承廣泛用于各種旋轉(zhuǎn)機(jī)械,在支撐旋轉(zhuǎn)的同時(shí)常常受到?jīng)_擊載荷與交變載荷等作用,成為運(yùn)行環(huán)境最惡劣、承擔(dān)負(fù)擔(dān)最重的零件,極易產(chǎn)生損傷進(jìn)而影響整個(gè)設(shè)備的運(yùn)行[1];據(jù)統(tǒng)計(jì),軸承故障率占到所有旋轉(zhuǎn)機(jī)械故障的40%~55%[2]。因此,如何準(zhǔn)確地進(jìn)行滾動(dòng)軸承故障診斷成為各相關(guān)領(lǐng)域面臨的重要問(wèn)題。

        振動(dòng)信號(hào)分析是一種最常見(jiàn)的滾動(dòng)軸承故障診斷方法,其無(wú)需拆卸機(jī)器部件即可挖掘和分析故障類別[3]。該方法主要可分為特征提取與類型識(shí)別兩步:首先通過(guò)時(shí)頻域方法,如經(jīng)驗(yàn)?zāi)B(tài)分解(empirical mode decomposition, EMD)[4]、小波變換(wavelet transforme, WT)[5]、變分模態(tài)分解(variational mode decomposition, VMD)[6]等,從原始信號(hào)中提取能反映軸承故障點(diǎn)的特征,并構(gòu)建特征向量;隨后利用人工智能診斷技術(shù),如支持向量機(jī)[7]、隨機(jī)森林[8]、多層感知機(jī)[9]等,對(duì)特征向量進(jìn)行故障類型識(shí)別。雖然傳統(tǒng)的人工智能算法已經(jīng)在軸承故障診斷領(lǐng)域取得了一定效果,但是其對(duì)復(fù)雜非線性問(wèn)題學(xué)習(xí)能力不足,不適用于處理大容量樣本,并且較為依賴信號(hào)處理技術(shù)和人工經(jīng)驗(yàn)。

        近年來(lái),深度學(xué)習(xí)作為新興的數(shù)據(jù)分析方法被廣泛應(yīng)用于旋轉(zhuǎn)機(jī)械故障診斷。其中,卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural network,CNN)使用最為廣泛,并取得了理想效果。基于CNN的故障診斷方法種類繁多,可按輸入維度分為兩類,第一類方法使用一維振動(dòng)信號(hào)作為CNN的輸入。例如,曲建嶺等[10]提出了基于端到端的自適應(yīng)一維卷積神經(jīng)網(wǎng)絡(luò)(ACNN-FD)故障診斷算法,通過(guò)“時(shí)間步”對(duì)原始一維數(shù)據(jù)進(jìn)行劃分后作為輸入。李恒等[11]對(duì)滾動(dòng)軸承振動(dòng)信號(hào)進(jìn)行短時(shí)傅里葉變換,得到時(shí)頻譜樣本輸入卷積神經(jīng)網(wǎng)絡(luò)。然而,原始信號(hào)不能顯著地表示故障特征,并且大多數(shù)已知的CNN模型更容易從高維數(shù)據(jù)中提取特征信息。因此,通過(guò)圖像識(shí)別模型提高時(shí)序分類的精度成為滾動(dòng)軸承故障診斷領(lǐng)域的研究熱點(diǎn)之一。第二類方法將一維信號(hào)轉(zhuǎn)換為二維圖像,然后利用二維卷積神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)故障診斷。例如,袁建虎等[12]將振動(dòng)信號(hào)進(jìn)行連續(xù)小波變換(continue wavelet transform, CWT)后,再將所得時(shí)頻圖輸入CNN分類器模型。Wen等[13]提出了一種將一維振動(dòng)信號(hào)轉(zhuǎn)換為二維灰度圖像后作為CNN輸入的方法,取得了較好的診斷效果。但上述方法中,時(shí)頻圖無(wú)法反映原始信號(hào)的完整信息且易受到人工經(jīng)驗(yàn)的影響,而灰度圖像按行堆棧像素而成,難以反映信號(hào)中包含的時(shí)間信息。為克服上述缺點(diǎn),格拉姆角差場(chǎng)(Gramian angular difference field,GADF)變換、馬爾可夫轉(zhuǎn)移場(chǎng)(Markov transition field,MTF)變換等圖像轉(zhuǎn)換方法,在對(duì)數(shù)據(jù)重構(gòu)時(shí),避免了一維信號(hào)信息的丟失,并保留了與時(shí)間的相關(guān)性。仝鈺等[14]提出通過(guò)使用GADF變換可以將一維信號(hào)轉(zhuǎn)換為二維圖像,并研究發(fā)現(xiàn)GADF圖像比灰度圖像、時(shí)頻圖像更容易被CNN識(shí)別。雷春麗等[15]采用MTF編碼方式將原始一維振動(dòng)信號(hào)轉(zhuǎn)化為二維特征圖像,然后通過(guò)CNN進(jìn)行自適應(yīng)特征提取和故障診斷。近年來(lái),以卷積循環(huán)神經(jīng)網(wǎng)絡(luò)(convolutional recurrent neural network,CRNN)為代表的深度學(xué)習(xí)技術(shù)在自然語(yǔ)言處理和計(jì)算機(jī)視覺(jué)上展現(xiàn)了突出的能力,該方法本質(zhì)上就是利用多像素表征樣本差異性,從而更好地獲取時(shí)間序列的深層特征,因此CRNN模型也被應(yīng)用到軸承故障診斷領(lǐng)域。張訓(xùn)杰等[16]利用GADF將滾動(dòng)軸承一維振動(dòng)信號(hào)轉(zhuǎn)換為二維圖像數(shù)據(jù),并提出基于CNN與雙向門控循環(huán)單元(bidirectional gated recurrent unit,BiGRU)的CRNN診斷模型。

        盡管GADF或MTF方法生成的圖像保留了振動(dòng)序列的空間和時(shí)間依賴性,在CRNN上實(shí)現(xiàn)了故障診斷的功能,但是單一的二維映射存在一定的局限性,且沒(méi)有充分挖掘CRNN對(duì)高維特征提取能力。因此,本文從數(shù)據(jù)輸入形式和特征提取方法兩方面著手,針對(duì)滾動(dòng)軸承原始故障數(shù)據(jù),提出一種基于雙模態(tài)圖轉(zhuǎn)換和融合CRNN網(wǎng)絡(luò)的電機(jī)軸承故障診斷方法,具體過(guò)程如下:

        (1) 分別用格拉姆角差場(chǎng)和馬爾可夫轉(zhuǎn)移場(chǎng)實(shí)現(xiàn)原始一維序列數(shù)據(jù)的圖轉(zhuǎn)換,并用轉(zhuǎn)換后的兩種圖像共同構(gòu)成模型輸入。

        (2) 提出并構(gòu)建了一種融合循環(huán)卷積神經(jīng)網(wǎng)絡(luò),名為Fu-CRNN,該網(wǎng)絡(luò)分別提取兩種圖像的相關(guān)特征后,將特征融合以進(jìn)一步提高網(wǎng)絡(luò)特征表達(dá)能力。

        (3) 通過(guò)分類器實(shí)現(xiàn)對(duì)不同故障類型的分類。

        本文選用來(lái)自凱斯西儲(chǔ)大學(xué)軸承故障試驗(yàn)平臺(tái)的數(shù)據(jù)驗(yàn)證所提方法的優(yōu)越性,通過(guò)將不同負(fù)載數(shù)據(jù)分布到訓(xùn)練集、測(cè)試集和驗(yàn)證集來(lái)評(píng)估所提方法的有效性及泛化能力,并分別與GADF圖像、MAR圖像作為輸入的CRNN網(wǎng)絡(luò)以及其他常見(jiàn)網(wǎng)絡(luò)進(jìn)行對(duì)比分析。實(shí)際算例測(cè)試結(jié)果表明,該方法在軸承故障診斷問(wèn)題上相較于傳統(tǒng)模型具有更優(yōu)的性能。

        1 基本理論

        1.1 格拉姆角差場(chǎng)

        GADF是一種圖像編碼方法,在極坐標(biāo)系上表示時(shí)間序列后,通過(guò)GADF矩陣對(duì)一維振動(dòng)信號(hào)進(jìn)行編碼來(lái)生成包含時(shí)間特征的二維圖像[17]。假設(shè)時(shí)間序列X如式(1)所示

        X=[x(1),x(2),x(3)…,x(n)]T

        (1)

        GADF的轉(zhuǎn)換過(guò)程可以分為兩部分。

        第一步:將X中的x(i)通過(guò)使用如下歸一化操作縮放到區(qū)間[-1,1],表達(dá)式如式(2)所示

        (i=1,2…n)

        (2)

        (3)

        式中:φi為極坐標(biāo)余弦角;ti為時(shí)間戳;r為由時(shí)間戳映射的半徑;N為生成空間中對(duì)極坐標(biāo)系進(jìn)行正則化的常數(shù)因子。對(duì)于取值區(qū)間為[-1,1]的時(shí)間序列,余弦角在極坐標(biāo)系上單調(diào)分布于[0,π]之間,因此時(shí)間序列X在極坐標(biāo)空間中具有唯一逆映射。

        第二步:對(duì)于存儲(chǔ)時(shí)間信息并計(jì)算各極坐標(biāo)三角差的參數(shù)φ,該系統(tǒng)可編碼為GADF矩陣,表達(dá)式如式(4)所示

        (4)

        式中,I=[1,1,…,1]是單位行向量。矩陣的運(yùn)算形式對(duì)應(yīng)于正則內(nèi)積的懲罰形式。此外,矩陣的正對(duì)角線中,時(shí)間趨勢(shì)從左上角到右下角表示,因此時(shí)間序列的時(shí)間相關(guān)性得到了很好的保留。

        1.2 馬爾可夫轉(zhuǎn)移場(chǎng)

        馬爾可夫轉(zhuǎn)移場(chǎng)是一種將時(shí)序信號(hào)編碼為二維矩陣的方法,該方法能表示時(shí)間和概率的動(dòng)態(tài)變化[18-19]。假設(shè)一個(gè)時(shí)間序列為X=[x(1),x(2),…,x(n)]T,其數(shù)值可以離散化到Q個(gè)分位數(shù)單元(bin)中,每個(gè)x(i)可以分配給一個(gè)相關(guān)的分位數(shù)qj(j∈[1,Q]),通過(guò)沿時(shí)間軸以一階馬爾可夫鏈的方式計(jì)算bin之間的遷移概率,得到Q×Q大小的馬爾可夫遷移矩陣W,表達(dá)式如式(5)所示

        (5)

        式中,wij=P(x(t)∈qi|x(t-1)∈qj),wij為qj中元素x(t-1)伴隨qi中元素x(t)的概率,即分位數(shù)qi位于分位數(shù)qj后的概率,又稱為一步轉(zhuǎn)移概率。

        由于矩陣W忽略了X分布與時(shí)間步長(zhǎng)t(i)間的時(shí)間對(duì)應(yīng)關(guān)系,故構(gòu)造MTF來(lái)彌補(bǔ)時(shí)間信息損失。MTF通過(guò)沿時(shí)間順序重新排列k(k=1,2,…,n)步轉(zhuǎn)移概率,得到包含時(shí)間步長(zhǎng)與每個(gè)bin相關(guān)性的矩陣M,其表達(dá)式如式(6)所示

        (6)

        式中:Mij為時(shí)間序列信號(hào)xi映射的bins轉(zhuǎn)移到xj對(duì)應(yīng)的bin的概率。在MTF矩陣中,Mij可以看作是像素點(diǎn),因此可以通過(guò)MTF將時(shí)間序列轉(zhuǎn)換為圖片表示。

        1.3 CRNN網(wǎng)絡(luò)

        CRNN是一類包含卷積計(jì)算且具有深度結(jié)構(gòu)的前饋神經(jīng)網(wǎng)絡(luò),主要用于端到端地識(shí)別圖像文本,將圖像識(shí)別轉(zhuǎn)化為時(shí)序依賴的序列學(xué)習(xí)問(wèn)題[20]。典型CRNN網(wǎng)絡(luò)由CNN與BiGRU級(jí)聯(lián)形成,其結(jié)構(gòu)如圖1所示。

        圖1 CRNN網(wǎng)絡(luò)結(jié)構(gòu)圖Fig.1 The structure of CRNN network

        CRNN既具備CNN提取局部特征的優(yōu)勢(shì),又擁有BiGRU提取序列全局特征的長(zhǎng)處,其中CNN是由二維卷積和最大池化層組成,即標(biāo)準(zhǔn)CNN中去除全連接層。CNN模塊的作用是從輸入圖像中提取特征序列X,X=(x1,x2,…,xT),其中特征向量xt對(duì)應(yīng)第t個(gè)特征映射,更進(jìn)一步說(shuō),xt是由所有特征映射的第t列生成的特征向量連接而成,每一列的寬度被設(shè)置為一個(gè)像素。因?yàn)榫矸e層、最大池化層和激活函數(shù)的平移不變性,所以每一列的特征映射對(duì)應(yīng)著原圖中的一個(gè)矩形區(qū)域,即感受野。感受野與其在特征圖中相對(duì)應(yīng)的列順序相同,因此特征序列中的特征向量與原圖中的感受野一一對(duì)應(yīng),如圖2所示。

        圖2 感受野映射說(shuō)明Fig.2 Illustration of the map of receptive fields

        在二維卷積及池化層后級(jí)聯(lián)的BiGRU由兩層相反傳播方向的門控循環(huán)單元(gated recurrent unit,GRU)組成。GRU被認(rèn)為是循環(huán)神經(jīng)網(wǎng)絡(luò)的(recurrent neural network,RNN)的加強(qiáng)版,在繼承了短期記憶能力的同時(shí),還避免了RNN在訓(xùn)練過(guò)程中出現(xiàn)的梯度消失問(wèn)題。與另一種常見(jiàn)的RNN變體長(zhǎng)短期記憶網(wǎng)絡(luò)(long short-term memory,LSTM)相比,GRU不僅和LSTM一樣解決了梯度消失問(wèn)題,而且還精簡(jiǎn)了框架結(jié)構(gòu),減少了四分之一的參數(shù),進(jìn)而提升了模型訓(xùn)練速度。

        BiGRU相較于GRU對(duì)時(shí)間特征序列有更強(qiáng)的上下文信息提取能力,可捕捉到GRU無(wú)法表征的特征。BiGRU包含的兩個(gè)GRU分別按照順序和逆序傳播,每個(gè)GRU提取某一節(jié)點(diǎn)時(shí)間序列與其前后片段的關(guān)系,將在CNN層生成的特征序列X中的每一個(gè)向量xt預(yù)測(cè)為一個(gè)分布概率,然后通過(guò)全連接層映射到樣本標(biāo)記空間,此時(shí)特征數(shù)量與分類數(shù)量一致,最后經(jīng)過(guò)分類層及概率歸一化后得出預(yù)測(cè)值。

        2 基于Fu-CRNN網(wǎng)絡(luò)的診斷模型

        GADF和MAR方法分別從極坐標(biāo)和馬爾科夫轉(zhuǎn)移概率的角度對(duì)一維信號(hào)進(jìn)行編碼,擁有深層次相關(guān)性特征表征能力。為了結(jié)合它們的優(yōu)點(diǎn),本文基于由原始一維時(shí)間序列數(shù)據(jù)轉(zhuǎn)換而成的兩種模態(tài)的二維圖像數(shù)據(jù),提出Fu-CRNN網(wǎng)絡(luò)診斷模型。該模型在數(shù)據(jù)重構(gòu)模塊完成振動(dòng)信號(hào)的二維化后,將生成的兩種圖片依次輸入到特征提取模塊,經(jīng)特征融合模塊運(yùn)算后,輸出預(yù)測(cè)結(jié)果并完成故障診斷。模型結(jié)構(gòu)如圖3所示。

        圖3 基于Fu-CRNN網(wǎng)絡(luò)診斷模型Fig.3 Diagnosis model based on Fu-CRNN network

        2.1 特征提取模塊

        特征提取模塊是典型的CRNN網(wǎng)絡(luò),由CNN模塊和BiGRU模塊級(jí)聯(lián)組成,其中CNN模塊由7層固定大小的3×3卷積層和5層最大池化層組成,主要用來(lái)學(xué)習(xí)樣本圖像的紋理、角度和邊緣等特征。為了獲取更深層次特征,采用激活函數(shù)對(duì)特征映射進(jìn)行非線性處理。在激活函數(shù)后添加最大池化層,池化層除了實(shí)現(xiàn)下采樣、降維和非線性等功能,還調(diào)整特征映射的尺寸使得最終特征映射為向量形式。隨后在CNN模塊后級(jí)聯(lián)BiGRU模塊,BiGRU將在CNN生成的特征序列S=(S1,S2,…,ST)中的任意向量St預(yù)測(cè)為標(biāo)簽概率分步y(tǒng)t,其中t∈[1,T],St為高和寬都為一個(gè)像素的感受野。GADF圖像(G)和MTF圖像(M)生成的yt組成新的特征序列G′和M′,進(jìn)入下一層網(wǎng)絡(luò)。

        2.2 特征融合模塊

        特征提取模塊分別從GADF和MTF圖像數(shù)據(jù)中提取得到不同的特征序列后,為了能讓模型同時(shí)學(xué)習(xí)到上述兩類特征,對(duì)兩種模態(tài)圖像經(jīng)過(guò)同一模塊處理后的不同模態(tài)輸出進(jìn)行拼接(Concat),從而生成新的融合特征向量。拼接定義如式(7)、(8)所示

        Mcat=fcat(M1,…,Ml)=[M1,…,Ml]

        (7)

        其中,

        (8)

        拼接函數(shù)將CRNN模塊提取到的兩類圖像的特征信息整合后,新向量被輸入到神經(jīng)元數(shù)量為100的全連接層,并通過(guò)激活函數(shù)進(jìn)行非線性特征學(xué)習(xí),最后由Softmax函數(shù)判定故障類型概率,概率值最大的即為預(yù)測(cè)結(jié)果。盡管Fu-CRNN網(wǎng)絡(luò)包含若干種網(wǎng)絡(luò)構(gòu)架,但是仍可以在一個(gè)損失函數(shù)下進(jìn)行訓(xùn)練,是一種端到端的網(wǎng)絡(luò),其整體構(gòu)架如表1所示。

        表1 模型結(jié)構(gòu)示意圖Tab.1 Illustration of model structure

        3 算例分析及對(duì)比試驗(yàn)

        3.1 試驗(yàn)數(shù)據(jù)

        算例數(shù)據(jù)采用來(lái)自于凱斯西儲(chǔ)大學(xué)(CWRU)的軸承故障數(shù)據(jù)集[21]。所用數(shù)據(jù)由置于電機(jī)驅(qū)動(dòng)端加速度傳感器所采集的振動(dòng)信號(hào)構(gòu)成,采樣頻率為12 kHz,采集時(shí)長(zhǎng)10 s,包含4個(gè)正常信號(hào)、77個(gè)外圈損傷信號(hào)、40個(gè)內(nèi)圈損傷信號(hào)及40個(gè)滾動(dòng)體損傷信號(hào),每條信號(hào)含有約121,000個(gè)數(shù)據(jù)。數(shù)據(jù)集分為10類,包含9種不同故障類型(3種故障部位:外圈、內(nèi)圈、滾珠,每個(gè)部位有3種故障尺寸:0.18 mm、0.36 mm、0.54 mm)以及1種正常類型。

        將每段信號(hào)按固定滑窗尺寸隨機(jī)截取,每類故障信號(hào)被劃分為4 000個(gè)樣本。為驗(yàn)證模型在不同負(fù)載與轉(zhuǎn)速情況下的泛化能力,將不同負(fù)載與轉(zhuǎn)速的樣本按照8:1:1的比例劃分為訓(xùn)練集、測(cè)試集和驗(yàn)證集,其中A數(shù)據(jù)集和D數(shù)據(jù)集作為訓(xùn)練集,B數(shù)據(jù)集為測(cè)試集,C數(shù)據(jù)集為驗(yàn)證集,樣本構(gòu)造如表2所示。

        表2 滾動(dòng)軸承樣本構(gòu)造Tab.2 Sample structure of rolling bearing

        3.2 圖像轉(zhuǎn)換

        在本試驗(yàn)中,軸承最低轉(zhuǎn)速為1 730 r/min,由公式N=60f/n計(jì)算出每圈所采集的數(shù)據(jù)量為416。為保障每個(gè)樣本包含完整的周期信息,并使圖像尺寸易于管理,有必要分析不同尺寸滑窗裁剪后的數(shù)據(jù)長(zhǎng)度對(duì)Fu-CRNN網(wǎng)絡(luò)效果的影響。此外,MTF圖像編碼方法中的參數(shù)——分位數(shù)(n_bins)也影響模型的最終性能,因此采用3.1節(jié)中數(shù)據(jù)進(jìn)行試驗(yàn),其中網(wǎng)絡(luò)參數(shù)仍如表1所示。經(jīng)驗(yàn)證,數(shù)據(jù)長(zhǎng)度為1 000,n_bins為10時(shí),模型能充分學(xué)習(xí)時(shí)間相關(guān)性,取得最高的預(yù)測(cè)準(zhǔn)確率,如圖4所示。

        圖4 數(shù)據(jù)長(zhǎng)度和n_bins對(duì)模型預(yù)測(cè)精度影響Fig.4 Impact of data length and n_bins on accuracy

        若按照MTF原理直接將截取的樣本序列轉(zhuǎn)化為1 000×1 000像素的MTF圖像,則存在諸多弊端,除了圖像尺寸過(guò)大導(dǎo)致算力需求過(guò)高外,更重要的是采樣頻率過(guò)高會(huì)使相鄰點(diǎn)變化率趨近于零。為了提高計(jì)算效率并突出MTF圖像表征性能,采用模糊核(blur kernel)不重疊的對(duì)每個(gè)m×m像素區(qū)域進(jìn)行平均,其中m為圖像的邊長(zhǎng)。GADF編碼方法同樣面臨圖像龐大導(dǎo)致算力浪費(fèi)的問(wèn)題,因此采用與MTF圖像相同的處理辦法。

        樣本通過(guò)格拉姆角場(chǎng)和馬爾可夫變遷場(chǎng)分別轉(zhuǎn)換為對(duì)應(yīng)圖像后,再經(jīng)過(guò)壓縮,最終生成的圖像分辨率均為200×200。由上述兩種轉(zhuǎn)換方法生成的不同故障狀態(tài)下的圖像分別如圖5和圖6所示。

        (a) 滾動(dòng)體故障0.18 mm

        (d) 滾動(dòng)體故障0.36 mm

        (e) 內(nèi)圈故障0.36 mm

        (g) 滾動(dòng)體故障0.54 mm

        (h) 內(nèi)圈故障0.54 mm

        (i) 外圈故障0.54 mm

        (j) 正常狀態(tài)圖5 GADF編碼軸承故障圖Fig.5 GADF code bearing fault map

        (a) 外圈故障0.18 mm

        (b) 內(nèi)圈故障0.18 mm

        (c) 滾動(dòng)體故障0.18 mm

        (e) 內(nèi)圈故障0.36 mm

        (f) 滾動(dòng)體故障0.36 mm

        (g) 外圈故障0.54 mm

        (h) 內(nèi)圈故障0.54 mm

        (i) 滾動(dòng)體故障0.54 mm

        (j) 正常狀態(tài)圖6 MTF編碼軸承故障圖Fig.6 MTF code bearing fault map

        3.3 網(wǎng)絡(luò)訓(xùn)練

        試驗(yàn)?zāi)P突赑ython的Pytorch框架搭建,所用硬件配置為CPU i7-9750H、GPU GTX-3060、8GB內(nèi)存。根據(jù)超參數(shù)對(duì)最終模型性能的影響,選取batch_size為64,參數(shù)優(yōu)化器為SGD隨機(jī)梯度下降優(yōu)化器,并且采用給定間隔調(diào)整學(xué)習(xí)率策略。初始化模型參數(shù)后,使用訓(xùn)練集A、D對(duì)模型進(jìn)行訓(xùn)練,用驗(yàn)證集C對(duì)每輪訓(xùn)練后的模型測(cè)試準(zhǔn)確率和損失值,訓(xùn)練完成后用測(cè)試集B評(píng)估模型性能。

        圖7為基于Fu-CRNN網(wǎng)絡(luò)模型迭代300輪后所獲得的準(zhǔn)確率、損失值折線圖。從圖中可以看出,訓(xùn)練模型在迭代了43次時(shí),訓(xùn)練集的準(zhǔn)確率達(dá)到99.93%,測(cè)試集準(zhǔn)確率達(dá)到99.86%,損失均降低至0.001,模型達(dá)到完全收斂,此后訓(xùn)練集與測(cè)試集的準(zhǔn)確率和損失值趨于水平方向穩(wěn)定,由此證明本文所提出的基于雙圖轉(zhuǎn)換和Fu-CRNN網(wǎng)絡(luò)的模型在對(duì)滾動(dòng)軸承進(jìn)行故障診斷時(shí)是可行、有效的。

        (a) 準(zhǔn)確率

        (b) 損失曲線圖7 Fu-CRNN網(wǎng)絡(luò)診斷曲線圖Fig.7 Fu-CRNN model diagnosis curve

        為了進(jìn)一步分析Fu-CRNN對(duì)GADF和MTF編碼圖的特征學(xué)習(xí)與故障分類能力,繪制了如圖8所示的滾動(dòng)軸承分類混淆矩陣。由圖8可知,坐標(biāo)值0~9分別表示滾動(dòng)軸承的10種狀態(tài),對(duì)角線上的深色區(qū)域?yàn)槊款惞收蠚w一化后所對(duì)應(yīng)的準(zhǔn)確率,其余部分的數(shù)值為誤分類率。例如實(shí)際類別3與預(yù)測(cè)類別9對(duì)應(yīng)位置的數(shù)值為0.001,即在測(cè)試集有1個(gè)類別3的故障被誤分類為類別9,具體含義為有1個(gè)0.36 mm外圈故障被錯(cuò)誤的分類為正常狀態(tài),此外還有1個(gè)類別為4的故障被誤分類為類別9,即有1個(gè)0.36 mm外圈故障錯(cuò)誤分類為正常狀態(tài)。綜合圖8所有數(shù)據(jù)可知,在第0、1、5、6、7、8類的滾動(dòng)軸承故障分類中均取得了很高的診斷效果,而在第2、3、4、9類故障分類中也取得較高的準(zhǔn)確率??梢哉f(shuō)明,雙圖轉(zhuǎn)換和Fu-CRNN網(wǎng)絡(luò)相結(jié)合的方法可以在該診斷試驗(yàn)中取得較為滿意的分類效果。

        圖8 滾動(dòng)軸承分類混淆矩陣Fig.8 Rolling bearing classification confusion matrix

        3.4 不同模態(tài)圖像數(shù)據(jù)對(duì)比分析

        為驗(yàn)證本文所提方法的優(yōu)越性,分別用CWT、GADF和MTF轉(zhuǎn)換方法生成的二維矩陣單獨(dú)作為CNN-BiGRU 即CRNN網(wǎng)絡(luò)的輸入。同時(shí)為突出GADF和MTF圖像轉(zhuǎn)換方法的優(yōu)勢(shì),對(duì)一維振動(dòng)信號(hào)轉(zhuǎn)換后的CWT、GADF和MTF圖像兩兩組合輸入到Fu-CRNN模型。根據(jù)單一變量原則,CWT樣本、GADF樣本和MTF樣本直接采用之前生成的樣本,數(shù)量均為100 000條,且劃分方法也與前文一致。當(dāng)?shù)螖?shù)取300時(shí),各模型訓(xùn)練得到的測(cè)試結(jié)果如圖9所示。

        圖9 Fu-CRNN模型診斷曲線圖Fig.9 Fu-CRNN model diagnosis curve

        從圖9中可以看出,CRNN模型在測(cè)試集上對(duì)于CWT、GADF和MTF轉(zhuǎn)換圖像的識(shí)別準(zhǔn)確率分別為88.51%、94.72%和90.79%,均低于本文所提診斷方法取得的準(zhǔn)確率(99.86%),這表明兩種圖像經(jīng)Fu-CRNN網(wǎng)絡(luò)融合后包含更豐富的特征知識(shí),對(duì)于模型的分類識(shí)別具有更優(yōu)越的效果。在基于雙模態(tài)組合模型中,GADF+MTF在故障識(shí)別上準(zhǔn)確率最高(99.86%),而GADF+CWT和MTF+CWT的準(zhǔn)確率分別為97.74%和92.67%,充分表明了GADF和MTF相較于以CWT為代表的時(shí)頻圖像時(shí),可以更完整地保留原始信息,從而保障更高的準(zhǔn)確率。

        3.5 與其他算法對(duì)比分析

        為了更近一步驗(yàn)證本文所提模型的有效性,將本文方法中的特征提取模塊分別替換為CNN-GRU、ResNet以及LeNet5進(jìn)行對(duì)比分析,同時(shí)對(duì)每種網(wǎng)絡(luò)在不同模態(tài)圖像作為輸入時(shí)的表現(xiàn)分析對(duì)比。

        每個(gè)模型均使用前文中的圖像樣本集進(jìn)行試驗(yàn),試驗(yàn)的最終結(jié)果如表3所示。從表3可以看出任一網(wǎng)絡(luò)在雙圖輸入時(shí)的識(shí)別準(zhǔn)確率高于單一圖像輸入時(shí),充分體現(xiàn)出特征融合模塊對(duì)于識(shí)別效果的提升。而在雙圖輸入網(wǎng)絡(luò)中,CNN-BiGRU的故障診斷精度比CNN-GRU、ResNet以及LeNet5均有所提高,這表明CNN-BiGRU作為特征提取模塊時(shí)對(duì)空間與時(shí)間相關(guān)性的提取更加充分。盡管目前基于CWRU數(shù)據(jù)集開展的研究成果中,已有使用GADF方法的端對(duì)端網(wǎng)絡(luò)[22-23]或采用MTF轉(zhuǎn)換圖像作為輸入,其訓(xùn)練集識(shí)別率均達(dá)到100%,均高于本文所建模型的訓(xùn)練集識(shí)別率0.07%,但針對(duì)測(cè)試集的故障識(shí)別率,上述模型識(shí)別率分別為99.08%、99.67%和99.35%,本文所建模型識(shí)別率(99.86%)分別高于上述模型0.78%、0.19和0.51%,具有最高診斷精度。盡管由于不同故障識(shí)別模型的學(xué)習(xí)策略、樣本劃分、基礎(chǔ)分類器的差異導(dǎo)致訓(xùn)練集識(shí)別率存在區(qū)別,但是本文所建模型在測(cè)試集上具有最優(yōu)識(shí)別性能??偟膩?lái)說(shuō),本文所建模型相較于傳統(tǒng)診斷模型能更準(zhǔn)確、更可靠的識(shí)別軸承故障類型。

        表3 不同圖像算法滾動(dòng)軸承故障診斷試驗(yàn)結(jié)果Tab.3 Test results of rolling bearing fault diagnosis with different image algorithms

        4 結(jié) 論

        為了充分發(fā)揮卷積循環(huán)神經(jīng)網(wǎng)絡(luò)對(duì)格拉姆角差場(chǎng)和馬爾可夫變遷場(chǎng)圖像的特征發(fā)掘,本文提出了一種基于雙模態(tài)圖像轉(zhuǎn)換和融合循環(huán)神經(jīng)網(wǎng)絡(luò)的滾動(dòng)軸承故障診斷方法。利用CRNN對(duì)于圖像強(qiáng)大的局部特征和全局特征提取能力,分別提取由GADF和MTF方法生成圖像的特征,再將提取到的特征向量進(jìn)行融合,最終由分類器實(shí)現(xiàn)狀態(tài)識(shí)別。試驗(yàn)證明,本文所使用的方法對(duì)于滾動(dòng)軸承不同故障程度以及不同故障位置的振動(dòng)信號(hào)識(shí)別都取得了較好的識(shí)別效果,平均測(cè)試準(zhǔn)確率達(dá)到99.86%,優(yōu)于常見(jiàn)的診斷模型;且所有試驗(yàn)的訓(xùn)練集、驗(yàn)證集和測(cè)試集均由不同載荷和轉(zhuǎn)速的數(shù)據(jù)集構(gòu)成,充分驗(yàn)證了模型的泛化性能。綜合上述結(jié)果,本文所提出的方法充分汲取兩種轉(zhuǎn)換方法優(yōu)點(diǎn)并提高單一CRNN模型特征表達(dá)能力,對(duì)于滾動(dòng)軸承故障模式識(shí)別有一定的實(shí)用價(jià)值,為智能故障診斷提供了具有可行的方案。在未來(lái)的工作中,針對(duì)雙模態(tài)融合方法導(dǎo)致診斷模型復(fù)雜度提高、時(shí)間成本增加的問(wèn)題,有必要通過(guò)精簡(jiǎn)特征提取模塊、改進(jìn)訓(xùn)練策略、采用輕量分類模型等方面改善,進(jìn)一步發(fā)掘Fu-CRNN模型潛力。

        猜你喜歡
        故障診斷特征故障
        故障一點(diǎn)通
        如何表達(dá)“特征”
        不忠誠(chéng)的四個(gè)特征
        抓住特征巧觀察
        奔馳R320車ABS、ESP故障燈異常點(diǎn)亮
        因果圖定性分析法及其在故障診斷中的應(yīng)用
        故障一點(diǎn)通
        江淮車故障3例
        基于LCD和排列熵的滾動(dòng)軸承故障診斷
        基于WPD-HHT的滾動(dòng)軸承故障診斷
        国产精品公开免费视频| 乱中年女人伦av三区| 94久久国产乱子伦精品免费| 亚洲综合色秘密影院秘密影院| 在线免费观看亚洲天堂av| 亚洲国产成人久久精品一区| 国产精品中文久久久久久久| 国产激情视频在线观看的| 亚洲日韩精品一区二区三区无码 | 一本之道日本熟妇人妻| 欧美不卡一区二区三区| 国内精品无码一区二区三区| 国产v精品成人免费视频400条| 一本色道久久88加勒比—综合| 狠狠色丁香婷婷久久综合| 久久午夜伦鲁片免费无码| 亚洲精品日本| 一区二区高清视频免费在线观看 | 亚洲av高清一区二区| 精品人妻大屁股白浆无码| 成人无码一区二区三区网站| 久久精品国产乱子伦多人| 日本午夜艺术一区二区| 久久久久亚洲精品无码蜜桃| 欧美性猛交xxxx乱大交蜜桃| 精品熟妇av一区二区三区四区| 亚洲精品视频中文字幕| 漂亮人妻被中出中文字幕久久| 又污又爽又黄的网站| 日韩中文字幕一区二区高清| 日本在线一区二区免费| 久久99国产精品久久99| 乱码午夜-极品国产内射| 中文字幕乱码亚洲无线| 一本色道久久亚洲加勒比| 亚洲av成人中文无码专区| 欧美日本免费一区二| 亚洲永久免费中文字幕| 青青青爽在线视频观看| 中文字幕第1页中文字幕在| 国语自产啪在线观看对白|