韓樹(shù)發(fā), 于穎, 唐堂, 陳明, 王亮, 夏躍利
(同濟(jì)大學(xué) 1a. 機(jī)械與能源工程學(xué)院; 1b. 中德工程學(xué)院,上海 201804;2. 云內(nèi)動(dòng)力股份有限公司 昆明 201804)
如今,基于數(shù)據(jù)驅(qū)動(dòng)的智能故障診斷算法取得了優(yōu)異的結(jié)果。數(shù)據(jù)驅(qū)動(dòng)算法從大量歷史數(shù)據(jù)中自主學(xué)習(xí)故障數(shù)據(jù)的內(nèi)在特征,替代傳統(tǒng)的手工特征提取。近年來(lái),深度神經(jīng)網(wǎng)絡(luò)(DNN)展現(xiàn)出強(qiáng)大的分層特征提取能力。其中卷積神經(jīng)網(wǎng)絡(luò)(CNN)是一種特殊的神經(jīng)網(wǎng)絡(luò)形式。由于其稀疏連接性,參數(shù)共享性及平移不變性,CNN能夠提取更為魯棒的特征,在圖像分類(lèi)領(lǐng)域取得了顯著的成果[1]。近兩年來(lái),基于CNN的故障診斷方法吸引了大量學(xué)者研究[2-5]。這些研究結(jié)果顯示,相比與其他數(shù)據(jù)驅(qū)動(dòng)算法,CNN表現(xiàn)出更為優(yōu)異的效果,具有良好的研究前景。
盡管基于深度學(xué)習(xí)的故障診斷取得了如此高的理論準(zhǔn)確率,目前提出的算法仍存在巨大缺點(diǎn),難以滿足實(shí)際應(yīng)用要求。目前基于深度學(xué)習(xí)的故障診斷算法都基于一個(gè)共同的假設(shè),即訓(xùn)練數(shù)據(jù)(也稱(chēng)為源數(shù)據(jù))與測(cè)試數(shù)據(jù)(也稱(chēng)為目標(biāo)數(shù)據(jù))必須具有相同的概率分布。然而在實(shí)際工業(yè)應(yīng)用中設(shè)備的工況復(fù)雜多變,這一假設(shè)很難滿足。當(dāng)訓(xùn)練數(shù)據(jù)與測(cè)試數(shù)據(jù)分布不同時(shí),深度學(xué)習(xí)模型的識(shí)別準(zhǔn)確率往往會(huì)顯著下降,識(shí)別的效果也變得不穩(wěn)定。這是由于不同工況的故障數(shù)據(jù)特征分布不同,傳統(tǒng)的深度學(xué)習(xí)算法在訓(xùn)練數(shù)據(jù)中提取的特征在測(cè)試數(shù)據(jù)中不適用。為此需要引入一種新方法解決源數(shù)據(jù)與目標(biāo)數(shù)據(jù)特征分布差異的問(wèn)題。
遷移學(xué)習(xí)(Transfer learning, TL)是一個(gè)可以解決跨域問(wèn)題的機(jī)器學(xué)習(xí)方法。廣泛應(yīng)用與源數(shù)據(jù)與目標(biāo)數(shù)據(jù)來(lái)自不同分布的情況。遷移學(xué)習(xí)從源域中學(xué)習(xí)知識(shí),并通過(guò)這些知識(shí)協(xié)助目標(biāo)域的分類(lèi)問(wèn)題。微調(diào)(Fine-tune)是一個(gè)有效的遷移學(xué)習(xí)方法[6],適用于當(dāng)源數(shù)據(jù)與目標(biāo)數(shù)據(jù)都有標(biāo)簽的情況。然而,在實(shí)際工業(yè)的故障診斷中,難以收集到足夠的標(biāo)簽?zāi)繕?biāo)數(shù)據(jù)。為了解決目標(biāo)數(shù)據(jù)無(wú)標(biāo)簽時(shí)的分類(lèi)問(wèn)題,領(lǐng)域自適應(yīng)(domain adaptation)技術(shù)被大量地研究[7-10]。
相對(duì)于傳統(tǒng)的數(shù)據(jù)驅(qū)動(dòng)的故障診斷方法,領(lǐng)域自適應(yīng)技術(shù)在多工況故障診斷方面展現(xiàn)了巨大的潛力。然而,當(dāng)前該方面的研究仍處于初步階段。目前應(yīng)用在故障診斷中的領(lǐng)域自適應(yīng)算法的共同點(diǎn)是最小化源數(shù)據(jù)與目標(biāo)數(shù)據(jù)在潛在特征空間中特征分布的差異[11-13]。但這些方法只考慮到減小邊緣分布的距離。然而文獻(xiàn)[14]指出,同時(shí)將邊緣分布與條件邊緣分布相匹配,可以提高模型遷移的魯棒性??紤]到實(shí)際工業(yè)應(yīng)用情況,目標(biāo)域大多為無(wú)標(biāo)簽數(shù)據(jù),因此估計(jì)目標(biāo)域的條件邊緣分布十分困難。本文在原有的領(lǐng)域自適應(yīng)的基礎(chǔ)上,提出了在無(wú)標(biāo)簽?zāi)繕?biāo)域內(nèi)估算條件邊緣分布的方法,進(jìn)而提出了一種同時(shí)匹配邊緣分布與條件邊緣分布的領(lǐng)域自適應(yīng)方法,即為聯(lián)合領(lǐng)域自適應(yīng)算法。將聯(lián)合領(lǐng)域自適應(yīng)算法與CNN結(jié)合,設(shè)計(jì)了一種端到端的多工況故障診斷模型,命名為JDACNN(Joint domain adaptation convolutional neural network)。在本文的實(shí)驗(yàn)中,與當(dāng)前的故障診斷深度遷移模型相比,該模型展示出了更強(qiáng)的遷移學(xué)習(xí)能力。
(1) CNN特征提取
基本的CNN結(jié)構(gòu)主要由3種類(lèi)型的分層構(gòu)成,即卷積層、池化層和全連接層。在卷積層中,卷積核掃描全部輸入得到特征圖;在池化層中,通過(guò)下采樣運(yùn)算來(lái)減小輸出的大小并保持平移不變性。
目前基于CNN的故障診斷研究主要著眼于提取特征的泛化性[15-17]。文獻(xiàn)[15]提出了隨機(jī)卷積和深度信念網(wǎng)絡(luò)(SCDBN)的端到端模型,該模型通過(guò)隨機(jī)卷積核從不同類(lèi)別的軸承數(shù)據(jù)中提取更為泛化的特征。文獻(xiàn)[16]提出了Lifting-Net這一新型CNN架構(gòu),在多轉(zhuǎn)速高噪音的工況下對(duì)故障數(shù)據(jù)進(jìn)行分類(lèi)。文獻(xiàn)[17]提出的CNN模型不依賴(lài)目標(biāo)數(shù)據(jù)信息,在負(fù)載變化的工況下對(duì)故障的識(shí)別取得較好的效果。
(2) 領(lǐng)域自適應(yīng)
遷移學(xué)習(xí)是一種解決在源數(shù)據(jù)和目標(biāo)數(shù)據(jù)來(lái)自不同特征分布時(shí)分類(lèi)準(zhǔn)確率下降的機(jī)器學(xué)習(xí)方法[18]。 在遷移學(xué)習(xí)中,領(lǐng)域自適應(yīng)是一個(gè)能夠從大量的源域數(shù)據(jù)學(xué)習(xí)到知識(shí)轉(zhuǎn)移至無(wú)標(biāo)簽?zāi)繕?biāo)域的有效技術(shù)。領(lǐng)域自適應(yīng)通過(guò)減少源域與目標(biāo)域之間的差異,在目標(biāo)域無(wú)標(biāo)簽的情況下完成了知識(shí)的遷移。領(lǐng)域自適應(yīng)的目的是找到一個(gè)源域與目標(biāo)域共享的特征空間,并在這個(gè)特征空間內(nèi)訓(xùn)練分類(lèi)器。在故障診斷領(lǐng)域,領(lǐng)域自適應(yīng)技術(shù)被初步地應(yīng)用。為了解決跨域的特征提取問(wèn)題,文獻(xiàn)[11]將遷移成分分析(TCA)算法應(yīng)用于故障領(lǐng)域中,旨在減少不同工況下故障信號(hào)的特征分布差異。為了學(xué)習(xí)遷移性的故障數(shù)據(jù)特征,文獻(xiàn)[12]將深度神經(jīng)網(wǎng)絡(luò)與領(lǐng)域自適應(yīng)技術(shù)結(jié)合,提出了一個(gè)新型深度神經(jīng)網(wǎng)絡(luò)模型。該模型適用自編碼器提取源數(shù)據(jù)的特征,同時(shí)通過(guò)減小最大均值差異(MMD)來(lái)縮小源域與目標(biāo)域特征分布的距離。最終,采用支持向量機(jī)(SVM)作為分類(lèi)器來(lái)對(duì)自適應(yīng)的特征進(jìn)行分類(lèi)。文獻(xiàn)[13]提出了一個(gè)深度遷移學(xué)習(xí)模型來(lái)提高模型在無(wú)標(biāo)簽?zāi)繕?biāo)數(shù)據(jù)上的表現(xiàn)。在該文章中,首先利用源數(shù)據(jù)預(yù)訓(xùn)練一個(gè)3層的稀疏自編碼器(SAE),然后通過(guò)同時(shí)最小化源數(shù)據(jù)的分類(lèi)損失與MMD對(duì)模型進(jìn)行微調(diào)。下面將對(duì)領(lǐng)域自適應(yīng)做出定義:
其中,源域與目標(biāo)域的定義如式(1)。
(1)
Ds,Dt分別表示源域和目標(biāo)域。xs,xt分別表示源數(shù)據(jù)和目標(biāo)數(shù)據(jù)。ys表示源數(shù)據(jù)的標(biāo)簽。ns,nt分別表示源域和目標(biāo)域的樣本數(shù)量。
領(lǐng)域自適應(yīng)技術(shù)認(rèn)為源域和目標(biāo)域來(lái)自不同的邊緣分布,即P(xs)≠P(xt)。
領(lǐng)域自適應(yīng)的主流方法是通過(guò)源域和目標(biāo)域訓(xùn)練一個(gè)特征映射,使得映射后的共享特征子空間中源域和目標(biāo)域之間的差異最小,從而將目標(biāo)數(shù)據(jù)的分類(lèi)問(wèn)題轉(zhuǎn)移到源數(shù)據(jù)上。最大均值差異(MMD)評(píng)估源域和目標(biāo)域分布差異的常用方法[19]。MMD越小說(shuō)明差異就越小。
(2)
(3)
其中M表示MMD矩陣,Mij表示MMD矩陣中的元素;H表示轉(zhuǎn)換矩陣,h(·)表示數(shù)據(jù)特征的一個(gè)非線性變換。
在本章,我們提出了一個(gè)基于CNN的聯(lián)合領(lǐng)域自適應(yīng)模型(JDACNN)。通過(guò)最小化源域與目標(biāo)域之間的邊緣分布、條件邊緣分布的距離,通過(guò)自適應(yīng)層的映射可以將源域與目標(biāo)域映射到特征子空間。在這個(gè)特征子空間中,源域與目標(biāo)域的特征分布相同。從而將源域上有標(biāo)簽的分類(lèi)問(wèn)題遷移到目標(biāo)域中,提高模型在目標(biāo)域中的表現(xiàn)。
與CNN類(lèi)似,本文提出的JDACNN從源域中通過(guò)監(jiān)督學(xué)習(xí)的方式提取數(shù)據(jù)的分層特征。而與CNN不同之處在于,JDACNN將底部神經(jīng)層參數(shù)固定,頂部神經(jīng)層設(shè)置為自適應(yīng)層。自適應(yīng)層在源域和目標(biāo)域上進(jìn)行訓(xùn)練,通過(guò)減少M(fèi)MD使自適應(yīng)層上特征的分布差異減少,訓(xùn)練后的自適應(yīng)層可以將源域與目標(biāo)域特征映射到共同的特征子空間,從而完成知識(shí)的遷移。
(1) CNN結(jié)構(gòu)
模型的結(jié)構(gòu)是基于LeNet-5[20]進(jìn)行的改進(jìn),該模型與LeNet-5不同之處在于:減少了卷積核尺寸以提高計(jì)算效率,增加卷積核數(shù)量以提高特征抓取能力,增加了一層全連接層,采用dropout技術(shù),使用不同形式的激活函數(shù)與損失函數(shù)等。該模型包含2個(gè)卷積層,2個(gè)池化層與3個(gè)全連接層。故障信號(hào)的輸入圖尺寸為3232。模型的結(jié)構(gòu)如圖1所示。
圖1 JDACNN結(jié)構(gòu)
第1層,卷積核尺寸為,步長(zhǎng)為1,卷積核數(shù)量為16;第2層,池化范圍為,池化步長(zhǎng)為2;第3層卷積核尺寸為,步長(zhǎng)為1,卷積核數(shù)量為32;第4層池化范圍為,步長(zhǎng)為2;第5層到第6層為全連接層,節(jié)點(diǎn)數(shù)量為500。第7層為輸出層,節(jié)點(diǎn)數(shù)為4。
為了防止卷積與池化操作導(dǎo)致的維度損失,零填充(zero-padding)被應(yīng)用于卷積層與池化層。Drop-out技術(shù)與正則被應(yīng)用在全連接層,以避免模型的過(guò)擬合。Drop-out技術(shù)[21]以一定概率通過(guò)設(shè)置神經(jīng)元參數(shù)為0的方式,移除非輸出的神經(jīng)元。因此drop-out等價(jià)于訓(xùn)練多個(gè)子網(wǎng)絡(luò)的集合體,是一種計(jì)算量小但功能強(qiáng)大的模型正則化技術(shù)。在我們的模型中,drop-out的概率被設(shè)置為0.5。
線性整流函數(shù)(ReLU)函數(shù)被選作為本文模型的激活函數(shù),定義如式(4)
ReLU(x)=max(0,x)
(4)
本文中CNN的損失函數(shù)被設(shè)為交叉熵?fù)p失函數(shù)與l2正則損失,如式(5)。
(5)
公式5中yi表示獨(dú)熱碼(one-hot)標(biāo)簽的第i個(gè)元素,ai表示預(yù)測(cè)的概率,λ代表l2損失的權(quán)重,n表示全連接層參數(shù)w的數(shù)量。
(2) 聯(lián)合領(lǐng)域自適應(yīng)技術(shù)
為了解決多工況下故障診斷準(zhǔn)確率下降的問(wèn)題,本文提出了改進(jìn)的領(lǐng)域自適應(yīng)技術(shù)——聯(lián)合領(lǐng)域自適應(yīng)技術(shù)。為了提高模型的遷移能力,本文提出的聯(lián)合領(lǐng)域自適應(yīng)技術(shù),不僅考慮源域和目標(biāo)域來(lái)自不同的邊緣分布,同時(shí)也考慮到源域和目標(biāo)域來(lái)自不同的條件邊緣分布,即:P(xs|ys)≠P(xt|yt)。
嘗試在源域和目標(biāo)域上訓(xùn)練自適應(yīng)層的參數(shù),通過(guò)降低自適應(yīng)層的MMD來(lái)減少特征分布之間的距離,最終通過(guò)自適應(yīng)層將源域與目標(biāo)域映射到一個(gè)共同的特征空間。如圖2所示。
1到4層為共享層,共享層從源域中提取泛化的特征。5到6層為全連接層,被設(shè)置為自適應(yīng)層。自適應(yīng)層的權(quán)重將由源數(shù)據(jù)與目標(biāo)數(shù)據(jù)共同訓(xùn)練。本文模型的目的是通過(guò)降低MMD,減小自適應(yīng)層所表示的特征的邊緣分布差異與條件邊緣分布的差異。
設(shè)h(·)為自適應(yīng)層的特征映射函數(shù)。源域與目標(biāo)域在潛在特征空間下邊緣分布的MMD如上述式2所定義。
受到文獻(xiàn)[14]的啟發(fā), 為了提高模型的遷移能力。本文提出的模型同時(shí)考慮邊緣分布與條件分布。對(duì)于任意類(lèi)別c,條件邊緣分布的MMD估計(jì)的是P(hs|y=c)與P(ht|y=c)之間的距離,如式(6)、式(7)。
(6)
(7)
為了獲得無(wú)標(biāo)簽?zāi)繕?biāo)數(shù)據(jù)的條件邊緣分布,我們?cè)陬A(yù)訓(xùn)練的網(wǎng)絡(luò)中預(yù)測(cè)目標(biāo)數(shù)據(jù),獲得偽標(biāo)簽,并通過(guò)迭代的方式更新目標(biāo)數(shù)據(jù)的偽標(biāo)簽,進(jìn)而不斷提高網(wǎng)絡(luò)的表現(xiàn)。
圖2 本文模型結(jié)構(gòu)
(3) 最終損失函數(shù)
通過(guò)最小化邊緣分布與條件邊緣分布的MMD,經(jīng)過(guò)自適應(yīng)層的特征映射,源域與目標(biāo)域的特征分布被匹配起來(lái)。從而源域的分類(lèi)問(wèn)題被遷移到目標(biāo)域上。
將公式(2),(5),(6)結(jié)合,模型的損失函數(shù)定義如式(8)。
L=J+λ1MMDmar+λ2MMDcon
(8)
公式(8)中,λ1,λ2分別控制邊緣分布MMD與條件邊緣分布MMD的權(quán)重。
在訓(xùn)練階段,只有源域的樣本用于最小化分類(lèi)損失,源域與目標(biāo)域的樣本共同用于最小化MMD。優(yōu)化算法選為小批量的隨機(jī)梯度下降法。訓(xùn)練網(wǎng)絡(luò)的算法如算法1所示。
為了驗(yàn)證模型的效果,本文采用了西儲(chǔ)大學(xué)(CWRU)的滾動(dòng)軸承故障集進(jìn)行了測(cè)試。西儲(chǔ)大學(xué)故障數(shù)據(jù)集包含4種工作負(fù)載(0HP,1HP,2HP,3HP)。數(shù)據(jù)標(biāo)簽包括正常(NO),內(nèi)圈損壞(IF),外圈損壞(OF)與滾子損壞(RF)。該滾動(dòng)軸承故障集使用加速度傳感器采集振動(dòng)信號(hào),采樣頻率為12 Hz。本文選擇的是加速度傳感器安裝在電機(jī)驅(qū)動(dòng)端采集的數(shù)據(jù)。
算法1:JDACNN訓(xùn)練輸入:源數(shù)據(jù),源數(shù)據(jù)標(biāo)簽,目標(biāo)數(shù)據(jù)輸出:最優(yōu)的JDACNN模型1. 用源域數(shù)據(jù)Xs預(yù)訓(xùn)練JDACNN,預(yù)訓(xùn)練的損失函數(shù)如公式5所示;2. 固定層1到層4的參數(shù);3. 循環(huán): 用最新的JDACNN模型預(yù)測(cè)目標(biāo)數(shù)據(jù),獲得偽標(biāo)簽yt; 將Xs, Xt, ys, yt投入模型中,訓(xùn)練的損失函數(shù)為公式(8); 每訓(xùn)練一步,更新參數(shù),直到收斂。
(1) 準(zhǔn)備階段
本文提出的模型是一種端到端的故障診斷模型,采用源數(shù)據(jù)作為模型的輸入。本文中提出了一個(gè)將原始信號(hào)轉(zhuǎn)換為M×M圖片的方法,如圖3所示。
圖3 原始信號(hào)轉(zhuǎn)換圖片
首先沿著原始信號(hào)以Sd的步長(zhǎng)選擇M2個(gè)信號(hào)節(jié)點(diǎn),如式(9)。
Sd=M-o×M
(9)
公式(9)中,o∈[0,1]為覆蓋率。o越大,會(huì)產(chǎn)生更多的樣本,如式(10)。
P(i,j)=N((i-1)×M+j)
(10)
公式(10)表示了圖片像素點(diǎn)與原始數(shù)據(jù)的對(duì)應(yīng)關(guān)系,P(i,j)代表圖片中第i行第j列的像素點(diǎn)。N(i)表示所選M2個(gè)原始數(shù)據(jù)節(jié)點(diǎn)中的第i個(gè)節(jié)點(diǎn)。
(2) 參數(shù)敏感性
本文中,MMD是對(duì)特征分布差異的估計(jì)。MMD越大,說(shuō)明特征分布差異越大,需要設(shè)置為自適應(yīng)層減少特征差異。CNN提取的底層特征為泛化特征,因此表現(xiàn)為MMD很小,無(wú)需對(duì)MMD很小的網(wǎng)絡(luò)層進(jìn)行自適應(yīng)處理。本文中,依據(jù)每層的MMD來(lái)選擇自適應(yīng)層,如圖4所示。
圖4 各層的MMD
圖4展示了層4到層6的MMD大小。注意到第5層與第6層的MMD明顯大于第4層的MMD。因此層5與層6被設(shè)為模型的自適應(yīng)層。
在網(wǎng)絡(luò)設(shè)計(jì)確定后,模型的超參數(shù)包括MMD權(quán)重λ1,λ2與訓(xùn)練批量大小(Batch size)S。在本段,對(duì)不同的超參數(shù)的選擇進(jìn)行了測(cè)試,以獲得模型最佳表現(xiàn)。
λ1,λ2分別控制了邊緣分布MMD與條件邊緣分布MMD的權(quán)重。權(quán)重越大,源域與目標(biāo)域的特征分布差異越小。但權(quán)重過(guò)大也會(huì)導(dǎo)致分類(lèi)損失難以收斂,影響分類(lèi)準(zhǔn)確率,如圖5所示。
(a) λ1,λ2灰度圖
(b) 批量大小
圖5(a)展示了λ1,λ2從[0, 0.1, 1, 10]這4個(gè)數(shù)值取值時(shí)模型的表現(xiàn),圖中灰度值代表模型測(cè)試的準(zhǔn)確率。最終我們選擇λ1=1,λ2=1。
當(dāng)網(wǎng)絡(luò)訓(xùn)練時(shí),故障數(shù)據(jù)的分布在小批量數(shù)據(jù)中被估計(jì)。一個(gè)小批量數(shù)據(jù)需要包含足夠多的源域與目標(biāo)域的樣本。批量大小決定了MMD估計(jì)的準(zhǔn)確程度,因此S需要足夠大。然而,過(guò)大批量會(huì)消耗大額的計(jì)算機(jī)內(nèi)存。圖5(b)展示了S在[200-1500]取值時(shí)模型的表現(xiàn)。最終我們選擇S=1 000。
(3) 測(cè)試結(jié)果
為了展示聯(lián)合領(lǐng)域自適應(yīng)深度學(xué)習(xí)算法的有效性,本文的JDACNN模型與相同結(jié)構(gòu)的CNN做比較,即只在源域數(shù)據(jù)上訓(xùn)練的CNN模型。JDACNN也與相同結(jié)構(gòu)的傳統(tǒng)的深度遷移神經(jīng)網(wǎng)絡(luò)做比較,即缺少匹配條件邊緣特征分布的領(lǐng)域自適應(yīng)CNN模型,驗(yàn)證聯(lián)合領(lǐng)域自適應(yīng)算法相較于傳統(tǒng)的領(lǐng)域自適應(yīng)算法的優(yōu)越性。
JDACNN也與其他數(shù)據(jù)驅(qū)動(dòng)算法比較來(lái)證明其良好的研究前景。相比較的算法包括傳統(tǒng)的機(jī)器學(xué)習(xí)算法SVM,傳統(tǒng)的深度學(xué)習(xí)算法人工神經(jīng)網(wǎng)絡(luò)(ANN)與經(jīng)典的遷移學(xué)習(xí)算法TCA[7]、聯(lián)合分布適配(JDA)。
在實(shí)驗(yàn)中,將0HP的數(shù)據(jù)作為源域數(shù)據(jù),1HP到3HP的數(shù)據(jù)作為目標(biāo)域數(shù)據(jù)。這3中情況下的測(cè)試分類(lèi)準(zhǔn)確率,如表1所示。
表1 CWRU數(shù)據(jù)集測(cè)試準(zhǔn)確率
從檢測(cè)的結(jié)果來(lái)看,當(dāng)3HP數(shù)據(jù)集是目標(biāo)域時(shí),JDACNN的識(shí)別準(zhǔn)確率達(dá)到97.57%。JDACNN平均準(zhǔn)確率是93.01%。在所有情況下,JDACNN的識(shí)別準(zhǔn)確率均超過(guò)傳統(tǒng)的DTN和有著同樣結(jié)構(gòu)的CNN。相對(duì)于CNN,JDACNN平均提高了8.68%,與傳統(tǒng)的DTN相比,JDACNN平均提高了5.08%。這充分證明了JDACNN在領(lǐng)域自適應(yīng)的有效性。與其他數(shù)據(jù)驅(qū)動(dòng)算法相比,JDA平均達(dá)到了86.67%的準(zhǔn)確率,比其他算法要高。然而,仍相對(duì)于JDACNN低6.34%,這充分證明了JDACNN在提升遷移能力與特征提取方面的有效性。
當(dāng)訓(xùn)練數(shù)據(jù)與測(cè)試數(shù)據(jù)來(lái)自不同分布時(shí),傳統(tǒng)的深度學(xué)習(xí)算法分類(lèi)準(zhǔn)確率將明顯下降。本文提出的JDACNN模型,通過(guò)減小數(shù)據(jù)特征的邊緣分布、條件邊緣分布的MMD,提高了模型的遷移能力,解決了傳統(tǒng)深度學(xué)習(xí)算法準(zhǔn)確率下降的問(wèn)題。本文的主要貢獻(xiàn)如下:
1. 本文提出的模型減少了多工況故障診斷下的準(zhǔn)確率損失。模型在西儲(chǔ)大學(xué)滾動(dòng)軸承故障數(shù)據(jù)集中進(jìn)行測(cè)試。結(jié)果顯示應(yīng)用提出的聯(lián)合領(lǐng)域分布算法后,模型的表現(xiàn)有明顯的提高。
2. 成功地解決了聯(lián)合領(lǐng)域分布算法中估計(jì)無(wú)標(biāo)簽?zāi)繕?biāo)數(shù)據(jù)的條件邊緣分布的難題。通過(guò)迭代設(shè)置偽標(biāo)簽估計(jì)條件邊緣分布,提高了模型的遷移能力。
3. 為了提高模型的遷移能力,依據(jù)MMD選擇自適應(yīng)層,固定共享層參數(shù),保留了模型從源域?qū)W習(xí)到的底層泛化特征。測(cè)試了模型的參數(shù)敏感度,以提高模型能力。最終設(shè)計(jì)了基于CNN的端到端的網(wǎng)絡(luò)結(jié)構(gòu)。
經(jīng)過(guò)實(shí)驗(yàn)測(cè)試,聯(lián)合領(lǐng)域自適應(yīng)技術(shù)表現(xiàn)出更強(qiáng)的遷移能力,展現(xiàn)了在多工況故障診斷方面良好的潛力。本文提出的JDACNN,仍有許多需要改進(jìn)的地方。
在CNN架構(gòu)方面,未來(lái)的研究方向?qū)⒅铝τ谔岣逤NN提取泛化特征的能力。更為泛化的底層特征將有助于聯(lián)合領(lǐng)域自適應(yīng)的知識(shí)遷移。此外,本文提出的JDACNN,在訓(xùn)練優(yōu)化時(shí),容易發(fā)生收斂失敗。這是因?yàn)镽elu被用作激活函數(shù),,當(dāng)未正確設(shè)置超參數(shù)時(shí),一些神經(jīng)元將被過(guò)度激活,導(dǎo)致softmax函數(shù)指數(shù)值過(guò)大,易導(dǎo)致softmax層值的溢出。因此,應(yīng)進(jìn)一步研究一種適用的數(shù)據(jù)預(yù)處理方法,以避免神經(jīng)元過(guò)度激活的現(xiàn)象發(fā)生。