摘" 要: 牽引系統(tǒng)作為列車(chē)動(dòng)能轉(zhuǎn)換的關(guān)鍵模塊,如果發(fā)生故障會(huì)給整車(chē)正常運(yùn)行帶來(lái)重大安全隱患,所以對(duì)其進(jìn)行故障預(yù)測(cè)具有重要意義。然而,傳統(tǒng)預(yù)測(cè)方法存在高度依賴(lài)人工經(jīng)驗(yàn)判斷、不能包含大量故障特征、預(yù)測(cè)精度不足等問(wèn)題。為此,文中提出一種基于時(shí)序數(shù)據(jù)的故障預(yù)測(cè)方法。利用XGBoost算法對(duì)列車(chē)牽引變流器系統(tǒng)的故障特征進(jìn)行計(jì)算和篩選,確定與變流器故障相關(guān)性較強(qiáng)的關(guān)鍵特征;采用貝葉斯優(yōu)化的LSTM模型自適應(yīng)地學(xué)習(xí)多源變量數(shù)據(jù)特征,利用時(shí)間窗對(duì)特征變量數(shù)據(jù)進(jìn)行截取,實(shí)現(xiàn)對(duì)不同類(lèi)型故障的預(yù)測(cè)。實(shí)驗(yàn)結(jié)果表明,所提方法在預(yù)測(cè)變流器場(chǎng)景下的6種故障時(shí)準(zhǔn)確率可達(dá)到91%以上。
關(guān)鍵詞: 牽引系統(tǒng); 故障預(yù)測(cè); 時(shí)序數(shù)據(jù); XGBoost算法; LSTM; 時(shí)間窗
中圖分類(lèi)號(hào): TN911.23?34; TP183" " " " " " " "文獻(xiàn)標(biāo)識(shí)碼: A" " " " " " " " " " " "文章編號(hào): 1004?373X(2025)04?0057?06
Method of train traction system fault prediction based on timeseries data
HE Xinlai, SUN Geng, WANG Minjie, ZHAI Yinan, CHEN Yanlin, YIN Xian, FENG Yanhong
(College of Information Engineering, Dalian Ocean University, Dalian 116023, China)
Abstract: As a key module for the conversion of train kinetic energy, traction system will bring great safety risks to the normal operation of the vehicle if it fails, so it is of great significance to predict its failure. However, traditional prediction methods have problems such as high dependence on manual experience judgment, inability to include a large number of fault features, and insufficient prediction accuracy. On this basis, a method of fault prediction based on timeseries data is proposed. The XGBoost algorithm is used to calculate and screen the fault features of the train traction converter system to determine the key features that are strongly correlated with the converter faults. The LSTM model optimized by Bayes is used to adaptively learn the multi?source variable data features, and the time window is used to intercept the feature variable data to realize the prediction of different types of faults. The experimental results show that The accuracy of the proposed method can reach more than 91% when predicting 6 kinds of faults in converter scenario.
Keywords: traction system; fault prediction; timeseries data; XGBoost algorithm; LSTM; time window
0" 引" 言
牽引系統(tǒng)作為列車(chē)的核心組成部分,其穩(wěn)定運(yùn)行對(duì)于整個(gè)鐵路運(yùn)輸?shù)陌踩陵P(guān)重要[1]。牽引系統(tǒng)故障會(huì)對(duì)列車(chē)的安全運(yùn)營(yíng)產(chǎn)生重要影響,甚至導(dǎo)致列車(chē)停止運(yùn)行,帶來(lái)嚴(yán)重?fù)p失,所以對(duì)故障進(jìn)行預(yù)測(cè)具有重要意義。近年來(lái),隨著故障預(yù)測(cè)相關(guān)理論的研究逐漸深入,故障預(yù)測(cè)的方法根據(jù)對(duì)象的不同可大致分為以下四種:基于物理模型的預(yù)測(cè)方法、基于數(shù)學(xué)模型的預(yù)測(cè)方法、基于機(jī)器學(xué)習(xí)的預(yù)測(cè)方法和基于長(zhǎng)短期記憶網(wǎng)絡(luò)的預(yù)測(cè)方法。這些方法各有其特點(diǎn)和適用場(chǎng)景,需要根據(jù)實(shí)際情況進(jìn)行選擇和優(yōu)化。文獻(xiàn)[2]提出了一種城軌列車(chē)牽引系統(tǒng)故障預(yù)測(cè)和健康管理系統(tǒng)設(shè)計(jì)方案。該方案通過(guò)構(gòu)建車(chē)載子系統(tǒng)、車(chē)載系統(tǒng)和地面大數(shù)據(jù)平臺(tái)的三層結(jié)構(gòu),實(shí)現(xiàn)了電氣部件的故障預(yù)警和牽引系統(tǒng)的健康評(píng)估。這種設(shè)計(jì)方案有望大幅提高檢修和維護(hù)的效率,進(jìn)一步確保城軌列車(chē)的安全運(yùn)行。文獻(xiàn)[3]則針對(duì)地鐵牽引系統(tǒng)的故障預(yù)測(cè)問(wèn)題,提出了一種基于無(wú)偏灰色?馬爾可夫模型的預(yù)測(cè)方法。該方法以受電弓模塊為例,利用無(wú)偏灰色模型預(yù)測(cè)未來(lái)故障情況,并結(jié)合馬爾可夫狀態(tài)轉(zhuǎn)移概率矩陣判斷未來(lái)可能的故障狀態(tài)。相比單獨(dú)使用無(wú)偏灰色預(yù)測(cè)模型,這種方法的預(yù)測(cè)精度更高,為列車(chē)的安全運(yùn)營(yíng)提供了有力保障。但在構(gòu)建模型過(guò)程中,對(duì)系統(tǒng)狀態(tài)的劃分會(huì)受主觀因素影響。文獻(xiàn)[4]專(zhuān)注于高速列車(chē)牽引控制系統(tǒng)中早期微小故障的檢測(cè)、診斷和預(yù)測(cè),提出了基于ToMFIR殘差的故障檢測(cè)機(jī)理、T?S模糊系統(tǒng)中的微小故障檢測(cè)和診斷方法,以及非線性系統(tǒng)復(fù)合傳感器故障的檢測(cè)和定位方法,但未提出衡量故障嚴(yán)重程度的指標(biāo)。上述研究為高速列車(chē)的安全運(yùn)行提供了重要的技術(shù)支持。
長(zhǎng)短期記憶(LSTM)網(wǎng)絡(luò)在1997年由Hochreiter等首次提出[5],彌補(bǔ)了循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)不能“記憶”的問(wèn)題[6],憑借其獨(dú)特的門(mén)機(jī)制[7],在時(shí)間序列數(shù)據(jù)預(yù)測(cè)方面有著更優(yōu)秀的表現(xiàn)[8]。LSTM模型擁有眾多超參數(shù)可供調(diào)整,但使用傳統(tǒng)優(yōu)化方法較難找到最優(yōu)的超參數(shù)方案[9]。而貝葉斯(Bayes)優(yōu)化算法可在更新超參數(shù)之后,通過(guò)驗(yàn)證概率分布的方式來(lái)尋找全局最優(yōu)解,從而提高預(yù)測(cè)精度[10]。
本文提出了一種結(jié)合貝葉斯(Bayes)和LSTM的BS?LSTM列車(chē)故障預(yù)測(cè)方法。通過(guò)XGBoost算法[11]對(duì)傳感器采集到的大量數(shù)據(jù)進(jìn)行重要性分析,將重要性較高的數(shù)據(jù)特征制成數(shù)據(jù)集。為了充分利用數(shù)據(jù)中不同的特征,使用時(shí)間窗[12]對(duì)數(shù)據(jù)集中的時(shí)序數(shù)據(jù)進(jìn)行截取轉(zhuǎn)換,之后輸入到經(jīng)貝葉斯優(yōu)化后的BS?LSTM模型中進(jìn)行故障預(yù)測(cè)[13]。所提方法較為有效地提高了預(yù)測(cè)的效率與準(zhǔn)確率。
1" 牽引變流器數(shù)據(jù)特征提取
1.1" XGBoost特征選擇
在列車(chē)牽引系統(tǒng)中,傳感器數(shù)據(jù)包含多種屬性特征,這些特征對(duì)故障預(yù)測(cè)目標(biāo)具有不同的相關(guān)性。特征選擇是提升數(shù)據(jù)價(jià)值和模型效果的關(guān)鍵步驟,通過(guò)去除無(wú)用數(shù)據(jù)干擾來(lái)提升模型故障預(yù)測(cè)效率。
本文引入高效的XGBoost算法。XGBoost算法運(yùn)用集成學(xué)習(xí)的策略,通過(guò)整合多棵決策樹(shù)提升模型的預(yù)測(cè)性能。在構(gòu)建這些增強(qiáng)型決策樹(shù)的過(guò)程中,算法能夠計(jì)算出各個(gè)特征的重要性得分,實(shí)質(zhì)上表明了特征在構(gòu)建增強(qiáng)決策樹(shù)過(guò)程中的貢獻(xiàn)和價(jià)值。當(dāng)某個(gè)特征在模型中頻繁地被用于構(gòu)建決策樹(shù)時(shí),其重要性自然隨之提升。最終,算法會(huì)將這些來(lái)自不同決策樹(shù)的特征重要性得分進(jìn)行綜合,以形成一個(gè)全面且準(zhǔn)確的特征重要性排序。本文使用網(wǎng)格搜索交叉驗(yàn)證來(lái)確定XGBoost算法的最優(yōu)超參數(shù),再使用調(diào)優(yōu)的XGBoost算法對(duì)列車(chē)牽引變流器系統(tǒng)的故障特征進(jìn)行計(jì)算和篩選,更好地保留原始信息,避免過(guò)度擬合的情況出現(xiàn);之后與專(zhuān)家經(jīng)驗(yàn)相結(jié)合,確定與變流器故障相關(guān)性更加貼合的10個(gè)關(guān)鍵特征,制成數(shù)據(jù)集以便后續(xù)步驟使用。
1.2" 時(shí)間窗數(shù)據(jù)截取
可以將牽引變流器系統(tǒng)傳感器數(shù)據(jù)表示為一個(gè)二維矩陣,其中,“列”表示不同特征變量的監(jiān)測(cè)時(shí)間戳,而“行”則代表不同監(jiān)測(cè)變量的屬性值。但這些數(shù)據(jù)伴隨著時(shí)序的增加而波動(dòng),因此利用時(shí)間窗對(duì)特征變量歷史數(shù)據(jù)進(jìn)行截取,從而得到訓(xùn)練過(guò)程中保持時(shí)間窗大小不變的數(shù)據(jù)片段。
本文的研究中,在將特征提取得到的高相關(guān)度故障特征輸入到模型之前,由于數(shù)據(jù)在時(shí)間維度上可能長(zhǎng)短不一,還需利用時(shí)間窗對(duì)數(shù)據(jù)及其標(biāo)簽進(jìn)行截取。這種截取操作實(shí)際上獲取了特征變量原始數(shù)據(jù)集中的某個(gè)特定時(shí)間段的數(shù)據(jù)片段,為后續(xù)的模型訓(xùn)練提供了合適的數(shù)據(jù)輸入,并確保輸入數(shù)據(jù)的格式可以保持一致。整個(gè)過(guò)程公式如下所示:
[xt=fst:t+m]" " " "(1)
式中:[st:t+m]表示t個(gè)連續(xù)的相同時(shí)間步的數(shù)據(jù),t為數(shù)據(jù)起始時(shí)刻;[xt]表示轉(zhuǎn)化成的第t時(shí)刻模型輸入數(shù)據(jù)信號(hào)。
2" 基于BS?LSTM牽引變流器預(yù)測(cè)方法
本文將LSTM與貝葉斯相結(jié)合,充分考慮數(shù)據(jù)的時(shí)空特征,將XGBoost算法篩選過(guò)的高相關(guān)時(shí)序故障特征輸入LSTM網(wǎng)絡(luò)中進(jìn)行故障預(yù)測(cè)。貝葉斯算法用于對(duì)LSTM網(wǎng)絡(luò)調(diào)優(yōu),以提高預(yù)測(cè)精度與工作效率。
2.1" 多變量時(shí)間序列分析
首先模型從傳感器中獲得列車(chē)運(yùn)行時(shí)所產(chǎn)生的時(shí)序數(shù)據(jù),采樣后的時(shí)序數(shù)據(jù)公式如下:
[X=[x1,x2,…,xt,…,xn]]" " "(2)
式中:X為模型輸入;n是序列長(zhǎng)度。
2.2" LSTM模型介紹
LSTM通過(guò)引入細(xì)胞狀態(tài)元素c和門(mén)機(jī)制,實(shí)現(xiàn)了對(duì)重要信息的長(zhǎng)期記憶和選擇性保留。
LSTM神經(jīng)網(wǎng)絡(luò)中的第一個(gè)門(mén)結(jié)構(gòu)稱(chēng)為遺忘門(mén),其主要功能是控制并決定前一個(gè)時(shí)間步的神經(jīng)單元的細(xì)胞狀態(tài)中哪些信息應(yīng)該被“遺忘”或丟棄。遺忘門(mén)的更新機(jī)制是通過(guò)如下公式實(shí)現(xiàn)的:
[ft=σWfht-1,xt+bf]" " " (3)
式中:[bf]和[Wf]為遺忘門(mén)中的偏置向量和權(quán)重矩陣,這兩個(gè)參數(shù)會(huì)幫助網(wǎng)絡(luò)學(xué)習(xí)如何有效地忘記不必要的信息;[σ]為Sigmoid函數(shù),作用是將輸入值映射到0~1之間,從而決定哪些信息應(yīng)該被保留,哪些信息應(yīng)該被遺忘。
第二個(gè)重要的門(mén)結(jié)構(gòu)是輸入門(mén),它旨在對(duì)當(dāng)前時(shí)刻的輸入[xt]與前一時(shí)刻的隱藏層輸出[ht-1]進(jìn)行調(diào)控和處理。首先,將輸入門(mén)的權(quán)值矩陣[Wi]與輸入向量[ht-1,xt]進(jìn)行矩陣乘法,再加上偏置項(xiàng)[bi],經(jīng)過(guò)Sigmoid函數(shù)的非線性映射后產(chǎn)生一個(gè)向量[it];然后,輸入向量[ht-1,xt]經(jīng)過(guò)[tanh]激活函數(shù)層生成一個(gè)新的向量[Ct],[Ct]代表當(dāng)前時(shí)刻的候選細(xì)胞狀態(tài)。輸入門(mén)通過(guò)對(duì)新輸入的信號(hào)特征進(jìn)行選擇性提取,為后續(xù)運(yùn)算提供了至關(guān)重要的信息。整個(gè)處理過(guò)程公式如下:
[ it=σWiht-1,xt+biCt=tanhWcht-1,xt+bc]" " (4)
遺忘門(mén)和輸入門(mén)首先計(jì)算[ft]和[it],隨后細(xì)胞單元對(duì)細(xì)胞狀態(tài)進(jìn)行更新,如公式(5)所示。使用之前得到的[ft]和[it]兩個(gè)向量對(duì)當(dāng)前時(shí)刻的細(xì)胞狀態(tài)與前一時(shí)刻的細(xì)胞狀態(tài)進(jìn)行選擇性保留,形成了當(dāng)前時(shí)刻的細(xì)胞狀態(tài)[Ct]。
[Ct=ft×Ct-1+it×Ct]" " " "(5)
LSTM神經(jīng)網(wǎng)絡(luò)的第三個(gè)門(mén)結(jié)構(gòu)是輸出門(mén),其專(zhuān)門(mén)負(fù)責(zé)輸出調(diào)控后的細(xì)胞狀態(tài)。它的主要功能在于篩選細(xì)胞狀態(tài)中的信息,確定哪些信息應(yīng)當(dāng)傳遞至下一時(shí)刻或作為當(dāng)前輸出。如公式(6)所示,輸出門(mén)也采用了Sigmoid函數(shù),生成一個(gè)介于0和1之間的比例向量[Ot],以決定細(xì)胞狀態(tài)中應(yīng)輸出的信息。
[ht=Ot×tanhCtOt=σWoht-1,xt+bo] (6)
2.3" 結(jié)合貝葉斯優(yōu)化的BS?LSTM模型
為了提升BS?LSTM神經(jīng)網(wǎng)絡(luò)的訓(xùn)練效率并提高網(wǎng)絡(luò)性能,需要對(duì)神經(jīng)網(wǎng)絡(luò)的超參數(shù)進(jìn)行優(yōu)化。在超參數(shù)調(diào)優(yōu)的過(guò)程中,目前常用的方法包括網(wǎng)格搜索、交叉驗(yàn)證、隨機(jī)搜索等。然而,網(wǎng)格搜索和隨機(jī)搜索方法在計(jì)算上相對(duì)繁重,因?yàn)檫@兩種方法在搜索過(guò)程中并不參考先前的評(píng)估結(jié)果來(lái)選擇后續(xù)需要評(píng)估的超參數(shù),這意味著每次的評(píng)估都是獨(dú)立的,有可能導(dǎo)致在不適合的超參數(shù)上浪費(fèi)大量的評(píng)估時(shí)間。
相比之下,貝葉斯優(yōu)化算法展現(xiàn)出了其獨(dú)特的優(yōu)勢(shì),它能夠有效地利用過(guò)去的評(píng)估結(jié)果來(lái)指導(dǎo)后續(xù)的搜索過(guò)程,從而在較短的時(shí)間內(nèi)定位到更優(yōu)的超參數(shù)配置。正因如此,貝葉斯優(yōu)化在機(jī)器學(xué)習(xí)領(lǐng)域的超參數(shù)調(diào)優(yōu)中得到了廣泛應(yīng)用,其應(yīng)用場(chǎng)景包括但不限于機(jī)器人技術(shù)、推薦系統(tǒng)以及環(huán)境監(jiān)測(cè)等。通過(guò)這種方法可以更高效地找到最佳的超參數(shù)組合,進(jìn)而提升整個(gè)系統(tǒng)的性能。
2.3.1" BS?LSTM訓(xùn)練
1) 初始化超參數(shù)。
2) 將劃分好的訓(xùn)練集作為模型輸入,對(duì)BS?LSTM神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練。
3) 將輸出結(jié)果維度修正至與訓(xùn)練集維度相同,并對(duì)超參數(shù)進(jìn)行不斷更新。
2.3.2" 貝葉斯優(yōu)化
1) 明確需要優(yōu)化的超參數(shù)項(xiàng)目,對(duì)超參數(shù)空間進(jìn)行定義。
2) 對(duì)需要優(yōu)化的目標(biāo)函數(shù)進(jìn)行明確定義,該函數(shù)將作為評(píng)估模型性能的關(guān)鍵指標(biāo);隨后,將所定義的超參數(shù)引入BS?LSTM模型中進(jìn)行訓(xùn)練。
3) 采用高斯過(guò)程求解目標(biāo)函數(shù)的后驗(yàn)概率分布,并基于這個(gè)后驗(yàn)概率分布對(duì)超參數(shù)樣本點(diǎn)進(jìn)行采樣,優(yōu)先選取表現(xiàn)最優(yōu)的超參數(shù),從而實(shí)現(xiàn)超參數(shù)的有效更新。
高斯過(guò)程可以視為多元高斯分布向無(wú)窮維的擴(kuò)展。如果說(shuō)高斯分布描述了隨機(jī)變量的概率分布,那么高斯過(guò)程則刻畫(huà)了函數(shù)的概率分布。這種方式能夠更加準(zhǔn)確地捕捉目標(biāo)函數(shù)的特性,進(jìn)而提高超參數(shù)優(yōu)化的效率和準(zhǔn)確性。高斯過(guò)程可以由均值函數(shù)和協(xié)方差函數(shù)組成,公式如下:
[fx~GPmx,kx,x'] (7)
在第[t]次實(shí)驗(yàn)后,有了數(shù)據(jù)[x1:t,f1:t],由于高斯過(guò)程上任意點(diǎn)[ft+1]與之前的觀測(cè)數(shù)據(jù)服從聯(lián)合高斯分布,進(jìn)一步可以得到預(yù)測(cè)分布,公式如下:
[Pft+1D1:t,xt+1=Nμtxt+1,σ2txt+1] (8)
4) 不斷更新目標(biāo)函數(shù)的后驗(yàn)概率分布和超參數(shù),如式(9)、式(10)所示,直至滿(mǎn)足模型的要求。
[PIx=Pfx≥fx+=Φμx-fx+σx] (9)
[PIx=Pfx≥fx++ξ=Φμx-fx+-ξσx]""(10)
式中[ξ]為超參數(shù),可以指導(dǎo)LSTM模型在不同超參數(shù)的設(shè)置進(jìn)行更多的探索,也就可能獲得更優(yōu)的解。
2.3.3" BS?LSTM損失函數(shù)設(shè)置
在本文中,采用交叉熵?fù)p失函數(shù)對(duì)BS?LSTM網(wǎng)絡(luò)故障預(yù)測(cè)模型進(jìn)行訓(xùn)練和評(píng)估,目標(biāo)是優(yōu)化模型的預(yù)測(cè)能力,使其預(yù)測(cè)結(jié)果盡可能地逼近真實(shí)數(shù)據(jù)。同時(shí),選擇交叉熵值作為一個(gè)重要的評(píng)價(jià)指標(biāo),用于評(píng)價(jià)輸出與實(shí)際發(fā)生的故障情況之間的相似性。這是因?yàn)榻徊骒刂凳悄P皖A(yù)測(cè)的故障類(lèi)別與實(shí)際發(fā)生的故障類(lèi)別之間吻合程度的直觀展現(xiàn),若交叉熵值較低,則表明模型的預(yù)測(cè)結(jié)果與實(shí)際發(fā)生的故障之間具有較高的匹配度;反之則表明模型的預(yù)測(cè)存在較大偏差。通過(guò)這種方式可以精確地評(píng)估模型的性能,并針對(duì)其不足之處進(jìn)行相應(yīng)的調(diào)整和優(yōu)化。交叉熵計(jì)算公式如下:
[Hp,q=-xpxlogq(x)] (11)
式中:[px]表示故障預(yù)測(cè)期望的概率分布;[q(x)]表示實(shí)際的預(yù)測(cè)概率分布。通過(guò)考慮兩種分布的交叉熵可以反映預(yù)測(cè)故障與實(shí)際故障的差距[14]。
3" 實(shí)驗(yàn)分析
3.1" 數(shù)據(jù)集介紹
列車(chē)牽引系統(tǒng)的無(wú)線傳感網(wǎng)數(shù)據(jù)來(lái)自各種信號(hào)監(jiān)測(cè)設(shè)備,如溫度傳感器、電信號(hào)傳感器和開(kāi)關(guān)狀態(tài)監(jiān)測(cè)器。本文研究基于地面數(shù)據(jù)中心的牽引變流器傳感網(wǎng)數(shù)據(jù),原始數(shù)據(jù)集中共有125項(xiàng)數(shù)據(jù),每項(xiàng)數(shù)據(jù)采樣18萬(wàn)余條。
3.2" 數(shù)據(jù)預(yù)處理及特征提取
為了提升BS?LSTM模型的預(yù)測(cè)效果,本文設(shè)計(jì)以下5種數(shù)據(jù)預(yù)處理方法。
1) 樣本周期修正:針對(duì)數(shù)據(jù)采樣周期不一致問(wèn)題,以電信號(hào)采樣間隔30 s為標(biāo)準(zhǔn),對(duì)其他傳感器數(shù)據(jù)進(jìn)行填補(bǔ)或重采樣,保證數(shù)據(jù)在時(shí)域上的一致性。
2) 異常樣本處理:針對(duì)部分樣本特征存在缺失的問(wèn)題,根據(jù)缺失時(shí)間長(zhǎng)度,分別采用均值補(bǔ)齊或眾數(shù)補(bǔ)齊的方法。
3) 噪聲樣本剔除:針對(duì)各種外部因素和測(cè)量誤差導(dǎo)致數(shù)據(jù)中引入噪聲問(wèn)題,根據(jù)行業(yè)經(jīng)驗(yàn)和實(shí)際取值范圍去除離群點(diǎn)信號(hào),提高數(shù)據(jù)質(zhì)量。
4) 故障樣本增強(qiáng):針對(duì)在列車(chē)日常運(yùn)行中故障數(shù)據(jù)與正常數(shù)據(jù)樣本數(shù)量不平衡問(wèn)題,采用過(guò)采樣的方法對(duì)少數(shù)發(fā)生故障的樣本進(jìn)行增強(qiáng)來(lái)生成新的樣本,以增加其數(shù)量。
5) 樣本標(biāo)準(zhǔn)對(duì)齊:針對(duì)樣本特征量綱不同而導(dǎo)致的偏差問(wèn)題,利用最小最大值標(biāo)準(zhǔn)化(Min?Max Scaler)方法將數(shù)據(jù)縮放至[0,1]的范圍,使它們處于相同的數(shù)量級(jí)。通過(guò)XGBoost方法篩選出10個(gè)高相關(guān)度的數(shù)據(jù)特征,如表1所示。
3.3" 模型參數(shù)設(shè)置
本文選用自適應(yīng)梯度算法(AdaGrad)作為優(yōu)化算法以?xún)?yōu)化預(yù)測(cè)模型。AdaGrad算法的核心優(yōu)勢(shì)在于:能夠隨著迭代次數(shù)的增加逐漸自適應(yīng)地減小學(xué)習(xí)率,從而實(shí)現(xiàn)更精細(xì)的學(xué)習(xí)過(guò)程控制。這種自適應(yīng)策略不僅可以平衡模型的學(xué)習(xí)速度,還能在一定程度上防止過(guò)擬合現(xiàn)象的發(fā)生。因此,采用AdaGrad算法對(duì)模型進(jìn)行優(yōu)化,可以顯著提升模型的性能,使其在保持學(xué)習(xí)效率的同時(shí)更好地適應(yīng)數(shù)據(jù),減少泛化誤差。
超參數(shù)的合理配置對(duì)模型的整體性能至關(guān)重要,不恰當(dāng)?shù)某瑓?shù)設(shè)定可能會(huì)對(duì)模型的收斂速度和訓(xùn)練效率產(chǎn)生顯著的負(fù)面影響。在實(shí)驗(yàn)階段,為了找到能最大化模型性能的超參數(shù)組合,本文利用實(shí)驗(yàn)數(shù)據(jù)集的一部分?jǐn)?shù)據(jù)對(duì)時(shí)間窗大小、學(xué)習(xí)率以及隱藏層節(jié)點(diǎn)數(shù)等進(jìn)行了超參數(shù)搜索。
例如,超參數(shù)搜索在10~200的范圍內(nèi)嘗試了不同的隱藏層節(jié)點(diǎn)數(shù)設(shè)置,同時(shí)將學(xué)習(xí)率的搜索范圍設(shè)置在0.000 1~0.1之間,以探索隱藏層節(jié)點(diǎn)數(shù)與學(xué)習(xí)率如何聯(lián)合影響模型的特征提取能力和預(yù)測(cè)精度。通過(guò)上述方式獲得最優(yōu)效果對(duì)應(yīng)的隱藏層節(jié)點(diǎn)數(shù)為70,初始化學(xué)習(xí)率為0.001。此外,通過(guò)考察損失函數(shù)值和模型收斂速度來(lái)評(píng)估不同時(shí)間窗大小的效果,結(jié)果如表2所示。發(fā)現(xiàn)當(dāng)時(shí)間窗大小設(shè)定為40時(shí),損失函數(shù)值最小且模型收斂速度最快。
3.4" 預(yù)測(cè)模型結(jié)果及分析
為了測(cè)試基于BS?LSTM故障預(yù)測(cè)方法在牽引變流器故障工作場(chǎng)景下的預(yù)測(cè)效果,依據(jù)上述方法設(shè)計(jì)了完整實(shí)驗(yàn),超參數(shù)搜索所獲得的針對(duì)牽引變流器模塊故障預(yù)測(cè)任務(wù)的最優(yōu)超參數(shù)組合如表3所示。這一組合在保障模型高效收斂的同時(shí),也顯著提升了故障預(yù)測(cè)的準(zhǔn)確率。
本實(shí)驗(yàn)使用訓(xùn)練集數(shù)據(jù)對(duì)BS?LSTM故障預(yù)測(cè)模型進(jìn)行訓(xùn)練,再使用測(cè)試集對(duì)預(yù)測(cè)模型進(jìn)行驗(yàn)證。在多輪訓(xùn)練后,模型最終性能達(dá)到最佳。模型訓(xùn)練過(guò)程精度和損失變化曲線分別如圖1、圖2所示。
由圖1、圖2可以觀察到,隨著訓(xùn)練迭代次數(shù)的增加,模型在訓(xùn)練集與測(cè)試集上的準(zhǔn)確率都在逐步上升,而訓(xùn)練集與測(cè)試集上的損失函數(shù)值都在逐步下降。在經(jīng)過(guò)大約200次訓(xùn)練后,預(yù)測(cè)模型的表現(xiàn)趨近于收斂狀態(tài),訓(xùn)練集與測(cè)試集上準(zhǔn)確率分別穩(wěn)定在0.88與0.95左右,損失函數(shù)值則分別穩(wěn)定在0.3與0.2左右。
此外,在訓(xùn)練的初始階段準(zhǔn)確率曲線的上升與損失曲線的下降速度均較快,這一現(xiàn)象說(shuō)明了預(yù)測(cè)模型在此階段具有高效的特征學(xué)習(xí)能力;隨時(shí)間的推移,準(zhǔn)確率曲線和損失曲線變化波動(dòng)幅度逐漸減小,這一現(xiàn)象表明預(yù)測(cè)模型不僅學(xué)習(xí)效果較為良好,而且具備較強(qiáng)的學(xué)習(xí)穩(wěn)定性。
LSTM和BS?LSTM多故障預(yù)測(cè)結(jié)果統(tǒng)計(jì)分別如表4、表5所示。
4" 結(jié)" 論
本文提出了一種基于BS?LSTM算法的列車(chē)牽引系統(tǒng)故障預(yù)測(cè)方案,實(shí)現(xiàn)了對(duì)6類(lèi)典型故障的高精度預(yù)測(cè)。在研究過(guò)程中,本文使用XGBoost算法篩選了與變流器故障關(guān)聯(lián)度較強(qiáng)的10種特征作為模型的輸入。實(shí)驗(yàn)結(jié)果表明,BS?LSTM故障預(yù)測(cè)方法能夠有效地預(yù)測(cè)牽引系統(tǒng)變流器大多數(shù)故障,預(yù)測(cè)精度均高于91%。該方案能夠有效預(yù)測(cè)變流器故障,為列車(chē)設(shè)備狀態(tài)的安全監(jiān)管提供了有力支撐。
注:本文通訊作者為孫庚。
參考文獻(xiàn)
[1] 閆洪霞.時(shí)速350公里復(fù)興號(hào)動(dòng)車(chē)組網(wǎng)絡(luò)牽引系統(tǒng):中國(guó)鐵道學(xué)會(huì)科學(xué)技術(shù)獎(jiǎng)特等獎(jiǎng)(二十三)[J].鐵道知識(shí),2020(6):8.
[2] 劉衎,毛琦,李瑮冉,等.城軌車(chē)輛牽引系統(tǒng)故障預(yù)測(cè)與健康管理技術(shù)研究及應(yīng)用[J].現(xiàn)代城市軌道交通,2022(8):107?113.
[3] 張程,李小波,張浩,等.基于無(wú)偏灰色?馬爾可夫模型的地鐵牽引系統(tǒng)故障預(yù)測(cè)[J].智能計(jì)算機(jī)與應(yīng)用,2022,12(5):56?60.
[4] 吳云凱,周揚(yáng),蘇宇.一種基于數(shù)據(jù)驅(qū)動(dòng)的高速列車(chē)懸掛系統(tǒng)早期故障檢測(cè)方法:CN113607443A[P].2021?11?05.
[5] HOCHREITER S, SCHMIDHUBER J. Long short?term memory [J]. Neural computation, 1997, 9(8): 1735?1780.
[6] 程志磊,章國(guó)寶,黃永明.基于CNN?LSTM?LOF的過(guò)程故障預(yù)測(cè)模型[J].北京化工大學(xué)學(xué)報(bào)(自然科學(xué)版),2024,51(1):121?127.
[7] KIM K, PARLOS A G. Induction motor fault diagnosis based on neuropredictors and wavelet signal processing [J]. IEEE/ASME transactions on mechatronics, 2002, 7(2): 201?219.
[8] WANG D, TSE P W, GUO W, et al. Support vector data description for fusion of multiple health indicators for enhancing gearbox fault diagnosis and prognosis [J]. Measurement science and technology, 2011, 22(2): 025102.
[9] LEI Y, JIA F, LIN J, et al. An intelligent fault diagnosis method using unsupervised feature learning towards mechanical big data [J]. IEEE transactions on industrial electronics, 2016, 63(5): 3137?3147.
[10] WIDODO A, YANG B S. Support vector machine in machine condition monitoring and fault diagnosis [J]. Mechanical systems and signal processing, 2007, 21(6): 2560?2574.
[11] CHEN T, GUESTRIN C. XGBoost: a scalable tree boosting system [EB/OL]. [2023?04?18]. https://www.xueshufan.com/publication/3102476541.
[12] LEI Y, HE Z, ZI Y, et al. Fault diagnosis of rotating machinery based on multiple ANFIS combination with Gas [J]. Mechanical systems and signal processing, 2007, 21(5): 2280?2294.
[13] GAO Q W, LIU W Y, TANG B P, et al. A novel wind turbine fault diagnosis method based on intergral extension load mean decomposition multiscale entropy and least squares support vector machine [J]. Renewable energy, 2018, 116: 169?175.
[14] LECUN Y, BOTTOU L. Gradient?based learning applied to document recognition [J]. Proceedings of the IEEE, 1998, 86(11): 2278?2324.
作者簡(jiǎn)介:賀鑫來(lái)(1998—),男,遼寧鞍山人,碩士研究生,研究方向?yàn)闄C(jī)器學(xué)習(xí)、智能交通。
孫" 庚(1979—),男,回族,黑龍江齊齊哈爾人,碩士研究生,副教授,研究方向?yàn)闄C(jī)器學(xué)習(xí)、嵌入式系統(tǒng)。