亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于壓縮感知和深度小波網(wǎng)絡(luò)的列車(chē)故障識(shí)別

        2019-09-04 10:14:27杜小磊陳志剛張楠許旭
        計(jì)算機(jī)應(yīng)用 2019年7期
        關(guān)鍵詞:壓縮感知深度學(xué)習(xí)列車(chē)

        杜小磊 陳志剛 張楠 許旭

        摘 要:針對(duì)列車(chē)走行部故障振動(dòng)數(shù)據(jù)無(wú)監(jiān)督特征學(xué)習(xí)的難點(diǎn),提出了一種基于壓縮感知和深度小波神經(jīng)網(wǎng)絡(luò)(CS-DWNN)的列車(chē)故障識(shí)別方法。首先,對(duì)采集得到的列車(chē)走行部振動(dòng)信號(hào)利用高斯隨機(jī)矩陣進(jìn)行壓縮采樣;其次,構(gòu)建以改進(jìn)小波自編碼器(WAE)為基礎(chǔ)的深層小波網(wǎng)絡(luò),將壓縮后的信號(hào)直接輸入網(wǎng)絡(luò)進(jìn)行自動(dòng)逐層特征提取;最后,用DWNN學(xué)習(xí)到的多層特征分別訓(xùn)練多個(gè)深度支持向量機(jī)(DSVM)和深度森林(DF)分類(lèi)器,并將識(shí)別結(jié)果進(jìn)行集成。該方法利用深層小波網(wǎng)絡(luò)從壓縮信號(hào)中自動(dòng)挖掘隱藏的故障信息,受先驗(yàn)知識(shí)和主觀影響較小,并且避免了復(fù)雜的人工特征提取過(guò)程。實(shí)驗(yàn)結(jié)果表明,CS-DWNN方法取得了99.16%的平均診斷正確率,能夠有效識(shí)別列車(chē)走行部的3種常見(jiàn)故障,識(shí)別能力優(yōu)于傳統(tǒng)的人工神經(jīng)網(wǎng)絡(luò)(ANN)、支持向量機(jī)(SVM)等方法和深度信念網(wǎng)絡(luò)(DBN)、堆棧降噪自編碼器(SDAE)等深度學(xué)習(xí)模型。

        關(guān)鍵詞:列車(chē);壓縮感知;小波自編碼器;深度學(xué)習(xí);故障識(shí)別

        Abstract:Aiming at the difficulty of unsupervised feature learning on defect vibration data of train running part, a method based on Compressed Sensing and Deep Wavelet Neural Network (CS-DWNN) was proposed. Firstly, the collected vibration data of train running part were compressed and sampled by Gauss random matrix. Secondly, a DWNN based on improved Wavelet Auto-Encoder (WAE) was constructed, and the compressed data were directly input into the network for automatic feature extraction layer by layer. Finally, the multi-layer features learned by DWNN were used to train multiple Deep Support Vector Machines (DSVMs) and Deep Forest (DF) classifiers respectively, and the recognition results were integrated. In this method DWNN was employed to automatically mine hidden fault information from compressed data, which was less affected by prior knowledge and subjective influence, and complicated artificial feature extraction process was avoided. The experimental results show that the CS-DWNN method achieves an average diagnostic accuracy of 99.16%, and can effectively identify three common faults in train running part. The fault recognition ability of the proposed method is superior to traditional methods such as Artificial Neural Network (ANN), Support Vector Machine (SVM) and deep learning models such as Deep Belief Network (DBN), Stack De-noised Auto-Encoder (SDAE).

        Key words: train; Compressed Sensing (CS); Wavelet Auto-Encoder (WAE); deep learning; fault identification

        0 引言

        列車(chē)走行部用于保障列車(chē)安全平穩(wěn)地通過(guò)鋼軌,并可減小列車(chē)和鋼軌之間因相互沖擊產(chǎn)生的振動(dòng)。當(dāng)列車(chē)走行部發(fā)生故障時(shí),通過(guò)分析其振動(dòng)信號(hào),可以及時(shí)地判斷列車(chē)故障狀況,對(duì)確保列車(chē)的安全運(yùn)行起到重要作用[1]。

        當(dāng)列車(chē)走行部發(fā)生故障時(shí),其振動(dòng)信號(hào)通常表現(xiàn)出非平穩(wěn)性,一般采用時(shí)頻分析方法。李佳睿等[2]采用改進(jìn)的希爾伯特黃變換(Hilbert-Huang Transform, HHT)對(duì)列車(chē)走行部軸箱進(jìn)行故障診斷;Lei等[3]使用集合經(jīng)驗(yàn)?zāi)B(tài)分解(Ensemble Empirical Mode Decomposition, EEMD)分析列車(chē)軸承振動(dòng)信號(hào),然后選擇敏感特征,并結(jié)合人工神經(jīng)網(wǎng)絡(luò)(Artificial Neural Network, ANN)進(jìn)行故障識(shí)別;然而使用HHT和EEMD等時(shí)頻分析方法進(jìn)行特征提取很大程度上依賴(lài)于工程經(jīng)驗(yàn),并不能保證所提取特征的穩(wěn)定性,且傳統(tǒng)的人工神經(jīng)網(wǎng)絡(luò)(Artificial Neural Network, ANN)和支持向量機(jī)(Support Vector Machine, SVM)等淺層分類(lèi)器面臨維數(shù)災(zāi)難問(wèn)題,難以表征被測(cè)信號(hào)與列車(chē)走行部故障之間復(fù)雜的映射關(guān)系[4]。

        深度學(xué)習(xí)[5]能自動(dòng)從原始數(shù)據(jù)中學(xué)習(xí)具有代表性的特征,很大程度上擺脫了依賴(lài)于診斷專(zhuān)家的信號(hào)處理與特征提取經(jīng)驗(yàn),已逐漸應(yīng)用于列車(chē)故障識(shí)別領(lǐng)域。郭超等[6]構(gòu)建多通道深度信念網(wǎng)絡(luò)(Deep Belief Network, DBN)模型進(jìn)行列車(chē)故障識(shí)別;龐榮等[7]提出了一種基于深度降噪自編碼器(Deep Denoising Auto-Encoder, DDAE)的列車(chē)走行部故障識(shí)別方法;但DBN訓(xùn)練困難,初始權(quán)值有指向性,易陷入局部最優(yōu);DDAE所使用的Sigmoid激活函數(shù)難以建立列車(chē)走行部故障與振動(dòng)信號(hào)之間的精確映射關(guān)系[8]。小波函數(shù)包含尺度因子和位移因子,位移因子使小波沿著信號(hào)的時(shí)間軸進(jìn)行遍歷性分析,尺度因子用于分析信號(hào)不同的頻率,因此,將小波和深度學(xué)習(xí)模型相結(jié)合,將使深度模型具有更優(yōu)的自動(dòng)特征提取能力;而壓縮感知(Compressed Sensing, CS)[9]將列車(chē)原始高維振動(dòng)信號(hào)進(jìn)行壓縮采樣,在保留大部分信息的同時(shí)極大地減小了數(shù)據(jù)冗余量,與深度學(xué)習(xí)結(jié)合將更具優(yōu)勢(shì)。

        監(jiān)督學(xué)習(xí)方法需要大量的帶標(biāo)簽訓(xùn)練數(shù)據(jù),而列車(chē)經(jīng)長(zhǎng)期運(yùn)行后會(huì)積累大量無(wú)標(biāo)簽振動(dòng)數(shù)據(jù),因此,迫切需要無(wú)監(jiān)督學(xué)習(xí)與數(shù)據(jù)壓縮方法,在增強(qiáng)算法適應(yīng)性的同時(shí)減小數(shù)據(jù)維數(shù),同時(shí)保留最有用的信息。本文在CS、小波和深度學(xué)習(xí)優(yōu)勢(shì)的基礎(chǔ)上,提出了一種新的列車(chē)走行部故障識(shí)別方法。先利用CS對(duì)列車(chē)走行部振動(dòng)信號(hào)進(jìn)行壓縮采樣,然后將壓縮信號(hào)直接輸入深度小波神經(jīng)網(wǎng)絡(luò)(Deep Wavelet Neural Network, DWNN)進(jìn)行無(wú)監(jiān)督逐層特征提取,最后用DWNN學(xué)習(xí)到的多層特征分別訓(xùn)練多個(gè)深度支持向量機(jī)(Deep Support Vector Machine, DSVM)和深度森林(Deep Forest, DF)分類(lèi)器,并將結(jié)果進(jìn)行集成。

        1 壓縮感知理論

        本文采用CS方法對(duì)采集到的列車(chē)走行部振動(dòng)信號(hào)進(jìn)行壓縮采樣,提高了后續(xù)的分析效率。CS基于信號(hào)理論和稀疏理論,設(shè)振動(dòng)信號(hào)x∈RN,壓縮過(guò)程如下:

        其中:θ=[θ1,θ2,…,θN]T∈RN是x的稀疏系數(shù)向量,只包含很少的非0值;Ψ=[ψ1,ψ2,…,ψN]T∈RN×N是稀疏字典,本文使用離散余弦變換(Discrete Cosine Transform, DCT)字典,ψi∈RN是稀疏基;Φ∈RM×N為測(cè)量矩陣,一般取高斯隨機(jī)矩陣;y∈RM(MN)為壓縮采樣后的信號(hào),包含了信號(hào)x的絕大多數(shù)信息。為盡可能減小數(shù)據(jù)維數(shù)同時(shí)保留足夠多的故障信息,必須確定合理的壓縮率,壓縮率定義如下:

        本文并非在信號(hào)采集系統(tǒng)上應(yīng)用CS,而是在傳統(tǒng)的A/D采樣之后實(shí)施信號(hào)的壓縮采樣,采集的仍然是傳統(tǒng)的離散信號(hào)。

        2 深度小波神經(jīng)網(wǎng)絡(luò)

        2.1 改進(jìn)小波自編碼器

        自編碼器(Auto-Encoder, AE)[10]包括輸入層、隱層和輸出層,輸入層維數(shù)等于輸出層維數(shù),其核心思想是逼近一個(gè)恒等函數(shù)以自動(dòng)完成特征提取。小波自編碼器(Wavelet Auto-Encoder, WAE)將AE的Sigmoid激活函數(shù)替換為小波函數(shù)φ,將小波的時(shí)頻局部特性和AE的自動(dòng)特征提取優(yōu)勢(shì)相結(jié)合,具有更好的特征表示性能。DWNN由多個(gè)WAE構(gòu)成,標(biāo)準(zhǔn)WAE和2隱層DWNN的結(jié)構(gòu)如圖1。

        設(shè)WAE輸入層有m個(gè)節(jié)點(diǎn),隱層L個(gè)節(jié)點(diǎn),輸出層m個(gè)節(jié)點(diǎn),Wjk是連接隱層小波節(jié)點(diǎn)j和輸入層節(jié)點(diǎn)k的權(quán)值,aj和cj分別為隱層小波節(jié)點(diǎn)j的縮放因子和平移因子。給定輸入樣本向量x=[x1,x2,…,xm]T∈Rm,則隱層小波節(jié)點(diǎn)j的輸出為:

        其中,φ為小波激活函數(shù),本文以Morlet小波函數(shù)的實(shí)部作為隱層激活函數(shù),表達(dá)式如下:

        則小波層節(jié)點(diǎn)j的輸出改寫(xiě)為:

        輸出節(jié)點(diǎn)i的輸出為:

        其中,Wij是隱層小波節(jié)點(diǎn)j與輸出節(jié)點(diǎn)i之間的連接權(quán)值。訓(xùn)練WAE就是不斷地調(diào)整參數(shù),最后找到一組最優(yōu)參數(shù)θWAE={Wij,Wjk,aj,cj},使輸入與輸出間的損失函數(shù)最小化。損失函數(shù)一般定義為均方誤差函數(shù),如下:

        其中:N為輸入樣本數(shù),xsi是輸入的第s個(gè)樣本的第i個(gè)維度,ysi是第s個(gè)重構(gòu)樣本的第i個(gè)維度,但標(biāo)準(zhǔn)WAE的抗噪能力弱,泛化能力弱,容易陷入過(guò)擬合,因此,作如下改進(jìn):改進(jìn)誤差函數(shù)、加入收縮自編碼機(jī)制并改進(jìn)權(quán)重更新策略,詳細(xì)如下。

        1)標(biāo)準(zhǔn)WAE損失函數(shù)是用均方誤差函數(shù)設(shè)計(jì)的,如式(9),這對(duì)復(fù)雜信號(hào)的特征學(xué)習(xí)魯棒性低。文獻(xiàn)[11]中提出一種最大相關(guān)熵?fù)p失函數(shù),較好地克服了均方誤差函數(shù)的缺陷。最大相關(guān)熵對(duì)復(fù)雜非平穩(wěn)背景噪聲不敏感,具有與復(fù)雜信號(hào)特征相匹配的潛力。在本文中,采用最大相關(guān)熵函數(shù)作為WAE的損失函數(shù)。設(shè)兩個(gè)隨機(jī)變量A=[a1,a2,…,aP]T∈RP,B=[b1,b2,…,bP]T∈RP,相關(guān)熵的近似計(jì)算如下:

        其中,σ為高斯核函數(shù)尺寸,則WAE損失函數(shù)可以通過(guò)最大化以下函數(shù)實(shí)現(xiàn):

        其中:xi為輸入樣本向量,yi為重構(gòu)樣本向量。

        2)收縮自編碼機(jī)制。收縮自編碼(Contractive Auto-Encoder, CAE)[12]通過(guò)增加收縮懲罰項(xiàng)學(xué)習(xí)信號(hào)的魯棒性特征。CAE的懲罰項(xiàng)如下:

        通過(guò)最小化式(13),使CAE學(xué)到的隱層表示對(duì)輸入的狹小變動(dòng)具有較強(qiáng)的魯棒性,則改進(jìn)后的WAE的損失函數(shù)如下:

        其中:λ1為收縮懲罰項(xiàng)系數(shù),用于調(diào)節(jié)收縮懲罰項(xiàng)在目標(biāo)函數(shù)中所占比重;DN為N個(gè)輸入樣本集合;λ2為權(quán)重衰減項(xiàng)系數(shù),用于防止網(wǎng)絡(luò)過(guò)擬合;sl是第l層的節(jié)點(diǎn)個(gè)數(shù)(s1=s3=m,s2=L);W(l)IJ為第l層權(quán)重,其中W(1)IJ=Wij,W(2)IJ=Wjk。

        其中:η為學(xué)習(xí)率,b為動(dòng)量項(xiàng)系數(shù),LWAE(k)是WAE的第k次迭代的誤差。式(15)中,η是一個(gè)全局性的常數(shù),當(dāng)η過(guò)大不利于收斂,η過(guò)小需要太多的訓(xùn)練時(shí)間。為了解決上述問(wèn)題,本文引入自適應(yīng)學(xué)習(xí)率,以cj的更新為例,計(jì)算公式如下:

        DWNN堆疊多個(gè)WAE并采取逐層訓(xùn)練方法,將上一級(jí)WAE隱層輸出作為下一級(jí)WAE的輸入,并保證損失函數(shù)最小化,從而構(gòu)成多層次的網(wǎng)絡(luò)結(jié)構(gòu),直到整個(gè)DWNN完成訓(xùn)練。DWNN屬于無(wú)監(jiān)督網(wǎng)絡(luò),為了將其強(qiáng)大的數(shù)據(jù)處理能力用于列車(chē)故障識(shí)別,在圖1(b)所示的網(wǎng)絡(luò)最后一層加上有監(jiān)督Softmax分類(lèi)器,用少量帶標(biāo)簽樣本結(jié)合BP算法對(duì)整個(gè)網(wǎng)絡(luò)進(jìn)行微調(diào),以增強(qiáng)特征提取效果。

        2.2 DWNN層次集成模型

        DWNN具有較強(qiáng)的特征表達(dá)能力,但易受到網(wǎng)絡(luò)層數(shù)和隱層節(jié)點(diǎn)數(shù)目的影響。集成學(xué)習(xí)可提高分類(lèi)系統(tǒng)的泛化能力和可靠性。本文結(jié)合深度學(xué)習(xí)與集成學(xué)習(xí)的優(yōu)點(diǎn),不僅利用DWNN的最后一層特征,還利用DWNN的中間層特征,用DWNN學(xué)習(xí)到的多層特征分別訓(xùn)練DSVM[13]和DF[14]分類(lèi)器。DSVM將深度學(xué)習(xí)模型應(yīng)用于SVM中,將多個(gè)標(biāo)準(zhǔn)SVM堆疊,獲取更高階的判別特征,從而增強(qiáng)魯棒性。DF通過(guò)將多個(gè)隨機(jī)森林(Random Forest, RF)進(jìn)行級(jí)聯(lián)從而達(dá)到更好地表征學(xué)習(xí)和分類(lèi)的效果。最后對(duì)每個(gè)分類(lèi)器采用多數(shù)投票法進(jìn)行集成。圖2為本文4隱層DWNN層次集成模型,圖3為診斷流程。綜上,本文方法診斷步驟如下。

        步驟1 獲取不同故障狀態(tài)的列車(chē)走行部振動(dòng)數(shù)據(jù)樣本集,從樣本集中隨機(jī)選取70%作為訓(xùn)練樣本,其余作為測(cè)試樣本;訓(xùn)練樣本中95%作為無(wú)標(biāo)簽樣本進(jìn)行無(wú)監(jiān)督訓(xùn)練,5%作為有標(biāo)簽樣本進(jìn)行微調(diào)。

        步驟2 利用高斯隨機(jī)矩陣對(duì)列車(chē)走行部振動(dòng)信號(hào)進(jìn)行壓縮采樣。

        步驟3 確定網(wǎng)絡(luò)層數(shù)、各層節(jié)點(diǎn)的數(shù)量和學(xué)習(xí)率等參數(shù)。

        步驟4 進(jìn)行網(wǎng)絡(luò)訓(xùn)練,首先逐層無(wú)監(jiān)督訓(xùn)練WAE,將前一級(jí)WAE的隱層輸出作為下一級(jí)WAE的輸入,逐層提取特征信息,將最后一級(jí)WAE的隱層輸出作為Softmax分類(lèi)器的輸入,通過(guò)有監(jiān)督BP算法微調(diào)整個(gè)DWNN。

        3 實(shí)驗(yàn)結(jié)果與分析

        3.1 實(shí)驗(yàn)數(shù)據(jù)介紹

        空氣彈黃、橫向減振器和抗蛇形減振器是走行部的3個(gè)關(guān)鍵部件,這3個(gè)關(guān)鍵部件若出現(xiàn)故障將嚴(yán)重威脅列車(chē)安全運(yùn)營(yíng)。本文所用的實(shí)驗(yàn)數(shù)據(jù)來(lái)自某大學(xué)重點(diǎn)實(shí)驗(yàn)室,實(shí)驗(yàn)室數(shù)據(jù)集記錄了列車(chē)走行部7種工況下的振動(dòng)信號(hào),如表1。

        在不同工況下采集40km/h和80km/h速度下的振動(dòng)信號(hào),每種速度下的振動(dòng)信號(hào)包含4×105個(gè)采樣點(diǎn),采樣頻率1000Hz。將每種速度下的數(shù)據(jù)分為1000段,每段包含400個(gè)采樣點(diǎn)。圖4為a、b、d和f工況下列車(chē)走行部振動(dòng)信號(hào)時(shí)域圖,為減少噪聲干擾,將原始信號(hào)歸一化到[0,1]。從圖4可以看出幾種工況下的時(shí)域特征較為相似,難以進(jìn)行區(qū)分。

        3.2 壓縮采樣

        將原始振動(dòng)數(shù)據(jù)集與壓縮數(shù)據(jù)集分別標(biāo)記為Y及Y′。數(shù)據(jù)集Y中包含2種速度下列車(chē)走行部7種工況,每類(lèi)工況包含1000個(gè)樣本,每個(gè)樣本包含400個(gè)采樣點(diǎn)。通過(guò)不同維度的高斯隨機(jī)測(cè)量矩陣與數(shù)據(jù)集Y的相乘得到數(shù)據(jù)集Y′。經(jīng)反復(fù)實(shí)驗(yàn),取壓縮率r=50%,高斯隨機(jī)測(cè)量矩陣維度為200×400,根據(jù)式(1)和式(2)對(duì)數(shù)據(jù)集Y進(jìn)行壓縮采樣,獲得壓縮采樣數(shù)據(jù)集Y′。數(shù)據(jù)集Y和Y′在后續(xù)實(shí)驗(yàn)中將作為DWNN的輸入數(shù)據(jù)。

        3.3 與其他方法的對(duì)比

        DWNN雖然省去了大量的人工特征提取的時(shí)間,但其隱含層層數(shù)、隱含層節(jié)點(diǎn)數(shù)以及其他超參數(shù)的確定依然依賴(lài)人力。AutoKeras開(kāi)源軟件利用貝葉斯優(yōu)化通過(guò)每次選擇最佳運(yùn)算來(lái)引導(dǎo)結(jié)構(gòu)搜索空間,能根據(jù)所給定的數(shù)據(jù)集,自動(dòng)搜索在上面執(zhí)行某個(gè)任務(wù)時(shí)可以達(dá)到最佳表現(xiàn)的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)。本文基于AutoKeras軟件搜索得到最優(yōu)DWNN的隱含層數(shù)目、隱含層節(jié)點(diǎn)數(shù)目以及其他超參數(shù)。根據(jù)本文方法,實(shí)驗(yàn)中首先根據(jù)r=50%的壓縮率獲取壓縮數(shù)據(jù),然后將壓縮采樣數(shù)據(jù)隨機(jī)選取70%作為訓(xùn)練數(shù)據(jù),余下作為測(cè)試數(shù)據(jù)。將訓(xùn)練集輸入AutoKeras軟件,AutoKeras將自動(dòng)搜索在執(zhí)行列車(chē)走行部故障識(shí)別任務(wù)時(shí)可以達(dá)到最佳表現(xiàn)的DWNN。輸出參數(shù)如下:輸出6層DWNN模型,包括輸入、輸出層及4個(gè)隱層。輸入層節(jié)點(diǎn)數(shù)為200,輸出層節(jié)點(diǎn)數(shù)為7,第1隱層節(jié)點(diǎn)數(shù)為155,第2隱層神經(jīng)元數(shù)為86,第3隱層節(jié)點(diǎn)數(shù)為38,第4隱層節(jié)點(diǎn)數(shù)為16,無(wú)跨層連接,無(wú)殘差連接,即DWNN模型結(jié)構(gòu)為200-155-86-38-16-7。其他主要參數(shù)分別如下:α為1.54,懲罰參數(shù)λ1為0.04,權(quán)重衰減項(xiàng)系數(shù)λ2為0.003,高斯核函數(shù)尺寸σ為3.26,Batch Size為20,WAE迭代次數(shù)為120,微調(diào)次數(shù)為500。每個(gè)DSVM分類(lèi)器層數(shù)為兩層,核函數(shù)采用徑向基函數(shù)(Radial Basis Function, RBF),參數(shù)由10折交叉驗(yàn)證方法確定。每個(gè)DF分類(lèi)器隨機(jī)森林個(gè)數(shù)為2,隨機(jī)樹(shù)森林個(gè)數(shù)為2,參數(shù)由10折交叉驗(yàn)證方法確定。為了保證提出方法的有效性,進(jìn)行5次實(shí)驗(yàn),取平均結(jié)果。為驗(yàn)證提出方法的優(yōu)越性,使用ANN、SVM、深度ANN、深度信念網(wǎng)絡(luò)(Deep Belief Network, DBN)和堆棧降噪自編碼器(Stacked Denoising Auto-Encoder, SDAE)進(jìn)行分析比較。本文模型和其他深度模型輸入的是壓縮采樣數(shù)據(jù),ANN和SVM輸入的是24個(gè)特征(11個(gè)時(shí)域特征和13個(gè)頻域特征),這24個(gè)特征的詳細(xì)計(jì)算見(jiàn)文獻(xiàn)[15]。其他方法的主要參數(shù)如下。

        方法2(ANN) ANN結(jié)構(gòu)為24-50-7,學(xué)習(xí)率設(shè)為0.1,動(dòng)量項(xiàng)為0.9,迭代次數(shù)設(shè)為500,結(jié)構(gòu)參數(shù)由反復(fù)實(shí)驗(yàn)確定。

        方法3(SVM) SVM采用RBF核函數(shù),核函數(shù)的懲罰因子和半徑分別為20和0.11,由10折交叉驗(yàn)證法[16]確定。

        方法4(深層ANN) 深層ANN結(jié)構(gòu)為200-144-80-40-20-7,學(xué)習(xí)率、動(dòng)量參數(shù)和迭代次數(shù)分別為0.05、0.1和1900,激活函數(shù)為Sigmoid函數(shù),結(jié)構(gòu)參數(shù)由AutoKeras軟件確定。

        方法5(DBN) DBN的結(jié)構(gòu)為200-120-90-60-30-7,學(xué)習(xí)率、動(dòng)量參數(shù)和迭代次數(shù)分別為0.08、0.2和1900,結(jié)構(gòu)參數(shù)由AutoKeras軟件確定。

        方法6(SDAE) DSAE的結(jié)構(gòu)為200-131-90-60-28-7,學(xué)習(xí)率、動(dòng)量參數(shù)和迭代次數(shù)分別為0.08、0.2和1900,激活函數(shù)為Sigmoid函數(shù),結(jié)構(gòu)參數(shù)由AutoKeras軟件確定。

        圖6是為本文方法第一次測(cè)試的多分類(lèi)混淆矩陣,全面記錄了列車(chē)走行部不同故障狀況的識(shí)別結(jié)果,包括正確分類(lèi)信息和錯(cuò)誤分類(lèi)信息,縱坐標(biāo)表示列車(chē)狀態(tài)的實(shí)際標(biāo)簽,橫坐標(biāo)表示預(yù)測(cè)標(biāo)簽,主對(duì)角線(xiàn)上的元素代表了各故障狀態(tài)的識(shí)別精度。

        由表2可知,與其他方法相比,本文方法具有更高的分類(lèi)準(zhǔn)確率和更小的標(biāo)準(zhǔn)差,平均診斷正確率達(dá)到99.16%,高于其他方法,標(biāo)準(zhǔn)差僅0.18。由圖5,提出方法5次實(shí)驗(yàn)的準(zhǔn)確率分別為98.99%、99.49%、99.01%、98.87%和99.64%,均高于其他方法,主要原因是ANN和SVM等傳統(tǒng)淺層模型的性能很大程度上依賴(lài)于主觀的人工特征提取,導(dǎo)致診斷精度和泛化能力低。與其他深度模型相比,本文方法改進(jìn)了編碼器損失函數(shù)并充分利用了小波函數(shù)的優(yōu)良特性,進(jìn)一步提高了對(duì)復(fù)雜非平穩(wěn)振動(dòng)信號(hào)的特征學(xué)習(xí)能力,因此具有更高的穩(wěn)定性。

        3.4 不同激活函數(shù)對(duì)DWNN的影響

        本節(jié)討論一系列具有不同激活函數(shù)的深度模型對(duì)列車(chē)走行部故障識(shí)別性能的影響,包括整流線(xiàn)性單元(Rectified Linear Unit, ReLU)、漏隙線(xiàn)性單元(Leaky Rectified Linear Unit, LReLU)、指數(shù)線(xiàn)性單元(Exponential Linear Unit, ELU)、Sigmoid函數(shù)、Swish函數(shù)和Gaussian函數(shù),各激活函數(shù)表達(dá)式如式(19)~(24):

        在本文DWNN結(jié)構(gòu)基礎(chǔ)上驗(yàn)證不同的激活函數(shù)的性能,只需把DWNN中的小波激活函數(shù)替換為表3所列的激活函數(shù),實(shí)驗(yàn)共進(jìn)行5次,結(jié)果如圖7,可以看出,Morlet小波函數(shù)作為深度模型的激活函數(shù)對(duì)列車(chē)走行部故障識(shí)別率最高,DWNN結(jié)合了小波的時(shí)頻局部特性和深度模型的較強(qiáng)的特征提取能力,具有更好的特征表示性能;Sigmoid函數(shù)飽和區(qū)范圍廣,存在梯度消失問(wèn)題,影響模型的性能;Swish函數(shù)存在運(yùn)算成本大的問(wèn)題;ReLU函數(shù)收斂速度快,但在進(jìn)行反向傳播時(shí),容易形成了“死神經(jīng)元”,對(duì)網(wǎng)絡(luò)不利;LReLU改進(jìn)了ReLU,不會(huì)形成了“死神經(jīng)元”,但存在著抗噪能量弱的問(wèn)題;ELU包含指數(shù)運(yùn)算,存在運(yùn)算量較大的問(wèn)題。

        3.5 壓縮率對(duì)DWNN的影響

        壓縮率衡量壓縮信號(hào)與原始信號(hào)相比的壓縮程度,通過(guò)調(diào)整高斯隨機(jī)矩陣的規(guī)??梢詫?shí)現(xiàn)不同程度的壓縮。壓縮率受CS理論限制,過(guò)高的壓縮率將導(dǎo)致獲得的壓縮信號(hào)存在嚴(yán)重的信息損失。本節(jié)研究了不對(duì)信號(hào)進(jìn)行壓縮采樣和壓縮率r在40%~90%變化時(shí),列車(chē)故障識(shí)別準(zhǔn)確率所受的影響,進(jìn)行5次實(shí)驗(yàn),統(tǒng)計(jì)平均識(shí)別準(zhǔn)確率和平均用時(shí),結(jié)果如表3。

        由表3,壓縮率r在40%~90%變化時(shí),識(shí)別準(zhǔn)確率隨著壓縮率的降低整體趨勢(shì)在提高,當(dāng)壓縮率小于50%后,平均診斷精度不再提高,反而有所下降,所需時(shí)間增加明顯;而不對(duì)信號(hào)進(jìn)行壓縮采樣時(shí),平均診斷正確率要低于壓縮率在50%的情況下2.86%,但是診斷時(shí)間卻大幅度增加。

        3.6 不同優(yōu)化算法對(duì)DWNN的影響

        深度學(xué)習(xí)模型所具有的良好的學(xué)習(xí)能力是建立在大量的訓(xùn)練數(shù)據(jù)和較深層次的網(wǎng)絡(luò)結(jié)構(gòu)基礎(chǔ)之上的,因此深度模型的迭代和訓(xùn)練時(shí)間會(huì)比較長(zhǎng),提高深度模型的收斂速度是必須要考慮的問(wèn)題。本節(jié)將本文所提優(yōu)化方法與一些常見(jiàn)的深度網(wǎng)絡(luò)的優(yōu)化方法進(jìn)行比較,包括自適應(yīng)梯度(Adaptive Gradient, AdaGrad)、自適應(yīng)學(xué)習(xí)率(Adaptive learning rate method, Adadelta)、均方根傳播(Root Mean Square Propagation, RMSProp)、自適應(yīng)動(dòng)量估計(jì)(Adaptive moment estimation, Adam)和自適應(yīng)動(dòng)量最大估計(jì)(Adaptive moment estimation maximum, Adamax)。共進(jìn)行5次實(shí)驗(yàn),統(tǒng)計(jì)平均識(shí)別準(zhǔn)確率和平均用時(shí),如表4所示。

        由表4,本文所提出的自適應(yīng)優(yōu)化算法診斷正確率最高,平均訓(xùn)練用時(shí)相對(duì)最短;AdaGrad優(yōu)化方法仍依賴(lài)于人工設(shè)置一個(gè)全局學(xué)習(xí)率,在中后期有可能使得網(wǎng)絡(luò)訓(xùn)練提前結(jié)束;Adadelta方法在訓(xùn)練后期,容易反復(fù)在局部極小值附近抖動(dòng);RMSprop方法效果在AdaGrad和Adadelta方法之間;Adam和Adamax方法參數(shù)更新較平穩(wěn),但仍不如本文方法。

        4 結(jié)語(yǔ)

        本文提出一種基于CS和DWNN的層次集成模型,實(shí)現(xiàn)了高精度的列車(chē)走行部故障識(shí)別,主要結(jié)論如下:

        1)利用CS對(duì)列車(chē)走行部振動(dòng)信號(hào)進(jìn)行壓縮采樣,在保留有效信息的前提下實(shí)現(xiàn)了數(shù)據(jù)壓縮,很大程度上減少了信息冗余量,縮短了網(wǎng)絡(luò)的訓(xùn)練時(shí)間。

        2)將深度模型和小波相結(jié)合,增添對(duì)信號(hào)時(shí)頻局部特性的表示,增強(qiáng)了網(wǎng)絡(luò)的自動(dòng)提取特征的能力,且改進(jìn)了小波自編碼器的誤差函數(shù),又引入收縮自編碼機(jī)制和自適應(yīng)權(quán)值調(diào)整策略,有效防止DWNN的過(guò)擬合且增強(qiáng)了泛化性能。

        3)將集成學(xué)習(xí)引入故障診斷,不僅利用DWNN的最后一層特征,還利用DWNN的中間層特征,將DWNN學(xué)習(xí)到的多層特征分別訓(xùn)練DSVM和DF分類(lèi)器,提高了模型的泛化能力和可靠性。

        4)利用AutoKeras開(kāi)源構(gòu)架自動(dòng)搜索得到最優(yōu)DWNN的隱含層數(shù)目、隱含層節(jié)點(diǎn)數(shù)目以及其他超參數(shù),節(jié)省了大量人工調(diào)整參數(shù)的時(shí)間。后續(xù)將實(shí)驗(yàn)其他的小波函數(shù)族及超小波函數(shù)族對(duì)網(wǎng)絡(luò)性能的影響,并繼續(xù)改進(jìn)優(yōu)化算法。

        參考文獻(xiàn) (References)

        [1] 陳志,李天瑞,李明,等.基于計(jì)算統(tǒng)一設(shè)備架構(gòu)的高鐵故障診斷方法[J].計(jì)算機(jī)應(yīng)用,2015,35(10):2819-2823.(CHEN Z, LI T R, LI M, et al. Fault diagnosis method of high-speed rail based on compute unified device architecture [J]. Journal of Computer Applications, 2015, 35(10): 2819-2823.)

        [2] 李佳睿,岳建海.基于HHT及共振解調(diào)方法的動(dòng)車(chē)組走行部軸箱軸承故障診斷算法[J].北京交通大學(xué)學(xué)報(bào),2017,41(4):85-90.(LI J R, YUE J H. Fault diagnosis algorithm for the axle box bearing of walking unit in EMU based on HHT and resonance demodulation method [J]. Journal of Beijing Jiaotong University, 2017, 41(4): 85-90.)

        [3] LEI Y, HE Z, ZI Y. EEMD method and WNN for fault diagnosis of locomotive roller bearings [J]. Expert Systems with Applications, 2011, 38(6): 7334-7341.

        [4] SHAO H D, JIANG H K, HUI F W, et al. An enhancement deep feature fusion method for rotating machinery fault diagnosis [J]. Knowledge-Based Systems, 2017, 119: 200-220.

        [5] JURGEN S. Deep learning in neural networks: an overview [J]. Neural Networks, 2015, 61(1):85-117.

        [6] 郭超,楊燕,金煒東.基于EDBN-SVM的高速列車(chē)故障分析[J].計(jì)算機(jī)科學(xué),2016,43(12):281-286.(GUO C, YANG Y, JIN W D. Fault analysis of high speed train based on EDBN-SVM [J]. Computer Science, 2016, 43(12):281-286.)

        [7] 龐榮,余志斌,熊維毅,等.基于深度學(xué)習(xí)的高速列車(chē)轉(zhuǎn)向架故障識(shí)別[J].鐵道科學(xué)與工程學(xué)報(bào), 2015,12(6):1283-1288. (PANG R, YU Z B, XIONG W Y, et al. Faults recognition of high-speed train bogie based on deep learning [J]. Journal of Railway Science and Engineering, 2015, 12(6): 1283-1288.)

        [8] SHAO H D, JIANG H K, ZHAO K. A novel tracking deep wavelet auto-encoder method for intelligent fault diagnosis of electric locomotive bearings [J]. Mechanical Systems and Signal Processing, 2018, 110: 193-209.

        [9] DONOHO D. Compressed sensing [J]. IEEE Transactions on Information Theory, 2006, 52(4): 1289-1306.

        [10] 王雅思,姚鴻勛,孫曉帥,等.深度學(xué)習(xí)中的自編碼器的表達(dá)能力研究[J].計(jì)算機(jī)科學(xué),2015,42(9):56-60.(WANG Y S, YAO H X, SUN X S, et al. Representation ability research of auto-encoders in deep learning[J]. Computer Science, 2015,42(9):56-60.)

        [11] SHAO H D, JIANG H K, ZHAO H, et al. A novel deep autoencoder feature learning method for rotating machinery fault diagnosis[J]. Mechanical Systems and Signal Processing, 2017, 95(10): 187-204.

        [12] 韓霜,吳奇,孫禮兵,等.基于深度收縮自編碼網(wǎng)絡(luò)的飛行員疲勞狀態(tài)識(shí)別[J].生物醫(yī)學(xué)工程學(xué)雜志,2018,35(3):443-451.(HAN S, WU Q, SUN L B. Recognition of fatigue status of pilots based on deep contractive auto-encoding network[J]. Journal of Biomedical Engineering, 2018,35(3):443-451.)

        [13] 姜紅茹.基于深度SVM和深度小波神經(jīng)網(wǎng)絡(luò)的極化SAR影像地物分類(lèi)[D].西安:西安電子科技大學(xué),2014:15-29.(JIANG H R. Terrain classfication of PolSAR image with deep SVM and deep wavelet networks[D]. Xian: Xidian University, 2014:15-29.)

        [14] 薛參觀,燕雪峰.基于改進(jìn)深度森林算法的軟件缺陷預(yù)測(cè)[J].計(jì)算機(jī)科學(xué),2018,45(8):160-165.(XUE C G, YAN X F. Software defect prediction based on improved deep forest algorithm[J]. Computer Science, 2018,45(8):160-165.)

        [15] QU J X, ZHANG Z S, GONG T. A novel intelligent method for mechanical fault diagnosis based on dual-tree complex wavelet packet transform and multiple classifier fusion [J]. Neurocomputing, 2016, 171(1): 837-853.

        [16] MINOWA Y. Verification for generalizability and accuracy of a thinning-trees selection model with the ensemble learning algorithm and the cross-validation method[J]. Journal of Forest Research, 2008,13(5): 275-285.

        猜你喜歡
        壓縮感知深度學(xué)習(xí)列車(chē)
        登上末日列車(chē)
        關(guān)愛(ài)向列車(chē)下延伸
        穿越時(shí)空的列車(chē)
        基于匹配追蹤算法的乳腺X影像的壓縮感知重構(gòu)
        MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場(chǎng)域建構(gòu)
        大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
        淺析壓縮感知理論在圖像處理中的應(yīng)用及展望
        深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
        基于ADM的加權(quán)正則化的塊稀疏優(yōu)化算法
        基于深度卷積網(wǎng)絡(luò)的人臉年齡分析算法與實(shí)現(xiàn)
        軟件工程(2016年8期)2016-10-25 15:47:34
        精品无码专区久久久水蜜桃| 中文字幕一区二区人妻秘书| 97se亚洲国产综合在线| 国内a∨免费播放| 国产精品一区二区三区精品| 国产精品亚洲最新地址| 欧美国产激情18| 性一交一乱一乱一视频| 亚洲午夜成人片| 在线观看女同一区二区| 国产精品成人观看视频国产奇米| 婷婷五月六月综合缴情| 乱子伦av无码中文字幕| 亚洲国产综合久久精品 | 久久综合精品国产二区无码| 国产精品亚洲专区在线播放| 亚洲中文字幕高清在线视频一区 | 亚洲性色av一区二区三区| 人与禽交av在线播放| 韩国女主播一区二区在线观看 | 少妇太爽高潮在线播放| 亚洲av乱码一区二区三区林ゆな | 久久精品国产免费观看三人同眠 | 久久免费国产精品一区二区| 性感的小蜜桃在线观看| 人人妻人人做人人爽| 伊人久久综合精品无码av专区| 国产精品久久无码免费看| 亚洲天堂av在线免费观看| 中文无码一区二区三区在线观看| 中国精品久久精品三级| 免费毛片一区二区三区女同| 国产精品一区二区日本| 伊伊人成亚洲综合人网香| 亚洲精品成人国产av| 国产一区二区三区亚洲| 国产午夜精品一区二区| 欧美韩日亚洲影视在线视频| 中文字幕一区二区三区亚洲 | 大陆极品少妇内射aaaaaa| a级福利毛片|