亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于CNN?Transformer模型的自動(dòng)扶梯軸承故障診斷方法研究

        2024-09-21 00:00:00段毅博黃民王帥劉躍
        現(xiàn)代電子技術(shù) 2024年16期

        摘" 要: 針對(duì)自動(dòng)扶梯滾動(dòng)軸承故障診斷模型診斷識(shí)別率不高的問(wèn)題,提出一種CNN與Transformer相結(jié)合的滾動(dòng)軸承故障診斷方法。該方法采用CNN注意力和Transformer時(shí)域注意力融合機(jī)制,從信號(hào)的通道和時(shí)域兩個(gè)維度提取最有利于識(shí)別的特征信息,降低信道和噪聲等影響。根據(jù)特征信息的重要程度進(jìn)行權(quán)重分配,以提升故障識(shí)別率?;跐L動(dòng)軸承數(shù)據(jù)集,將所提算法模型和CNN、RNN、SVM算法進(jìn)行對(duì)比。結(jié)果表明,該方法識(shí)別軸承故障的準(zhǔn)確度更高,實(shí)現(xiàn)了對(duì)軸承故障的準(zhǔn)確分類(lèi)。

        關(guān)鍵詞: CNN?Transformer; 自動(dòng)扶梯; 滾動(dòng)軸承故障診斷; 特征信息提??; 卷積神經(jīng)網(wǎng)絡(luò); 混淆矩陣

        中圖分類(lèi)號(hào): TN911.23?34; TP277; TH133.33" " " " " " "文獻(xiàn)標(biāo)識(shí)碼: A" " " " " 文章編號(hào): 1004?373X(2024)16?0001?06

        Research on escalator bearing fault diagnosis method based on CNN?Transformer model

        DUAN Yibo1, HUANG Min1, WANG Shuai2, LIU Yue1

        (1. School of Mechanical Electrical Engineering, Beijing Information Science amp; Technology University, Beijing 100192, China;

        2. Beijing Dynaflow Lab Solutions Co., Ltd., Beijing 100160, China)

        Abstract: In allusion to the problem of low diagnostic recognition rate of escalator rolling bearing fault diagnosis model, a" method of rolling bearing fault diagnosis combining CNN and Transformer is proposed. In the method, the fusion mechanism of CNN attention and Transformer time?domain attention is used to extract the feature information most conducive to recognition from both channel and time?domain dimensions of the signal, reduce the influences of channel and noise, etc. The weights are assigned according to the importance of the feature information to improve the fault recognition rate. Based on the rolling bearing dataset, the proposed algorithm model is compared with CNN, RNN, and SVM algorithms, and the results show that the method can identify bearing faults with higher accuracy, realizing the accurate classification of bearing faults.

        Keywords: CNN?Transformer; escalator; fault diagnosis of rolling bearing; feature information extraction; convolutional neural network; confusion matrix

        0" 引" 言

        隨著城市化進(jìn)程的推進(jìn),現(xiàn)代生活中自動(dòng)扶梯的數(shù)量逐年增加。與此同時(shí),老舊扶梯的故障和安全問(wèn)題也日益引起人們的關(guān)注。這些老舊扶梯經(jīng)過(guò)多年的使用,機(jī)械部件可能出現(xiàn)磨損、老化等問(wèn)題,導(dǎo)致運(yùn)行不穩(wěn)定、噪聲增大甚至發(fā)生故障。此外,由于一些老舊扶梯的維護(hù)保養(yǎng)不及時(shí)或不規(guī)范,安全隱患也逐漸顯現(xiàn)。然而,例行的定期檢查和監(jiān)管往往難以發(fā)現(xiàn)其內(nèi)部存在的潛在問(wèn)題,例如電氣系統(tǒng)故障、機(jī)械部件的磨損和松動(dòng)、控制系統(tǒng)硬件損壞、曳引鏈條或鋼絲繩斷裂等[1]。這些故障如若發(fā)現(xiàn)不及時(shí),勢(shì)必會(huì)對(duì)自動(dòng)扶梯乘坐人員的安全造成威脅,同時(shí)也會(huì)增加扶梯的維護(hù)成本并縮短其使用壽命。為及時(shí)發(fā)現(xiàn)上述故障并減少隱患,通常需要進(jìn)行定期檢查和維護(hù)保養(yǎng)。然而,這種方法存在諸多問(wèn)題,例如目的性不強(qiáng)、效率低下、成本高昂以及自動(dòng)化程度不高等[2]。

        隨著機(jī)器學(xué)習(xí)技術(shù)的飛速發(fā)展,研究者們開(kāi)始探索并應(yīng)用多種機(jī)器學(xué)習(xí)方法,如支持向量機(jī)(SVM)、人工神經(jīng)網(wǎng)絡(luò)(ANN)等來(lái)深度挖掘軸承故障數(shù)據(jù)中的隱藏信息。相較于傳統(tǒng)的數(shù)據(jù)處理和分析方法,這些機(jī)器學(xué)習(xí)方法顯著降低了構(gòu)建預(yù)測(cè)模型的難度,使得模型更加簡(jiǎn)潔高效,預(yù)測(cè)精度也得到了顯著提升,為故障預(yù)警和預(yù)測(cè)提供了更為準(zhǔn)確的依據(jù)。然而,這些模型無(wú)法捕獲和理解故障信號(hào)數(shù)據(jù)之間的內(nèi)在關(guān)聯(lián)性,仍存在一定的局限性。

        軸承信號(hào)數(shù)據(jù)本質(zhì)上是一種時(shí)間序列,研究人員們嘗試使用卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN)來(lái)進(jìn)行故障信號(hào)預(yù)測(cè),提高深度神經(jīng)網(wǎng)絡(luò)的檢測(cè)精度。梁敏健等引入卷積核的一維卷積神經(jīng)網(wǎng)絡(luò),構(gòu)建了自動(dòng)扶梯機(jī)械故障的自動(dòng)分類(lèi)模型,實(shí)現(xiàn)對(duì)自動(dòng)扶梯的機(jī)械故障的快速自動(dòng)診斷[3]。段潔利等提出了一種一維端對(duì)端輕量化CNN檢測(cè)方法,即1D?MRL?CNN,直接對(duì)采集到的一維振動(dòng)信號(hào)進(jìn)行檢測(cè),實(shí)現(xiàn)了對(duì)滾動(dòng)軸承的快速診斷[4]。Wen L等將信號(hào)轉(zhuǎn)換為二維圖像,運(yùn)用CNN處理二維圖像,有助于消除手工特征的干擾[5]。在多個(gè)數(shù)據(jù)集上,這種方法表現(xiàn)出較好的性能。

        針對(duì)傳統(tǒng)CNN訓(xùn)練過(guò)程中需要大量數(shù)據(jù)樣本和泛化能力不高的問(wèn)題,研究人員采用長(zhǎng)短期記憶(LSTM)網(wǎng)絡(luò)對(duì)這些問(wèn)題進(jìn)行了優(yōu)化,從而在長(zhǎng)時(shí)間序列預(yù)測(cè)中實(shí)現(xiàn)了比以往更高的預(yù)測(cè)精度。魏永合等提出基于CNN?LSTM?Attention的模型診斷滾動(dòng)軸承信號(hào),相較于傳統(tǒng)的CNN,該模型提高了故障診斷的準(zhǔn)確率[6]。然而,LSTM的并行運(yùn)算能力較弱,在處理大規(guī)模數(shù)據(jù)時(shí)會(huì)面臨計(jì)算效率低下的問(wèn)題;同時(shí),它很難準(zhǔn)確地分配權(quán)重給重要的信息,導(dǎo)致模型無(wú)法充分捕捉到關(guān)鍵特征,影響預(yù)測(cè)精度。ResNet是作為一種殘差結(jié)構(gòu)被提出的,它可以緩解由網(wǎng)絡(luò)深化引起的梯度消失和梯度爆炸狀態(tài)[7],并且使卷積神經(jīng)網(wǎng)絡(luò)能夠通過(guò)加深網(wǎng)絡(luò)層的數(shù)量來(lái)獲得更好的性能。以前的研究選擇構(gòu)建更深的卷積神經(jīng)網(wǎng)絡(luò),以提高模型的魯棒性,但相應(yīng)的模型參數(shù)數(shù)量急劇增加。此外,訓(xùn)練需要大規(guī)模的數(shù)據(jù)集,模型的訓(xùn)練難度和訓(xùn)練時(shí)間也大幅增加。

        以上模型的故障診斷在強(qiáng)噪聲環(huán)境下,通常會(huì)表現(xiàn)出較差的泛化能力,而在不平衡數(shù)據(jù)集下容易發(fā)生過(guò)擬合現(xiàn)象,限制模型診斷性能的提升[8]。為了解決該問(wèn)題,本文基于一個(gè)統(tǒng)一的輕量級(jí)分類(lèi)框架,設(shè)計(jì)一種基于CNN和Transformer的滾動(dòng)軸承故障診斷方法。本文根據(jù)特征的重要程度進(jìn)行權(quán)重分配,在滾動(dòng)軸承數(shù)據(jù)集上進(jìn)行測(cè)試,并將該方法與其他方法進(jìn)行比較,驗(yàn)證所提方法的有效性。

        1" 算法模型

        本文提出的網(wǎng)絡(luò)結(jié)構(gòu)模型主要包含CNN網(wǎng)絡(luò)模型和Transformer網(wǎng)絡(luò)模型兩部分。該整合模型能夠通過(guò)獲取特征數(shù)據(jù)的局部信息和全局特征,對(duì)軸承故障信號(hào)進(jìn)行準(zhǔn)確區(qū)分和判別[9]。

        1.1" 卷積神經(jīng)網(wǎng)絡(luò)模型

        卷積神經(jīng)網(wǎng)絡(luò)(CNN)由Yann LeCun提出,是多層感知機(jī)(MLP)的變形,它是一種前饋型神經(jīng)網(wǎng)絡(luò),受生物自然視覺(jué)認(rèn)知機(jī)制啟發(fā)而來(lái)的[10]。CNN減少了網(wǎng)絡(luò)模型的復(fù)雜度和權(quán)值的數(shù)量。卷積神經(jīng)網(wǎng)絡(luò)包含卷積層、池化層和全連接層三種主要結(jié)構(gòu),這些層可以進(jìn)行疊加,形成一個(gè)完整的CNN模型。

        1.1.1" 卷積層

        卷積層是CNN的核心,它對(duì)輸入層進(jìn)行卷積操作,提取圖像特征。卷積層由一個(gè)個(gè)的卷積核組成,每個(gè)卷積核都可以看作是一個(gè)小型神經(jīng)網(wǎng)絡(luò),具有一組可學(xué)習(xí)的參數(shù)。在卷積過(guò)程中,每個(gè)卷積核按照一定的步長(zhǎng)(Stride)在輸入數(shù)據(jù)上滑動(dòng),并對(duì)每個(gè)滑動(dòng)位置進(jìn)行卷積運(yùn)算,輸出一個(gè)二維的激活圖(Feature Map)。卷積層的作用是通過(guò)卷積運(yùn)算對(duì)輸入數(shù)據(jù)進(jìn)行特征提取,以便后續(xù)的層能夠更好地處理這些特征信息。卷積層l的第j單元的輸出值[alj]可以通過(guò)公式(1)計(jì)算得出。

        [alj=fblj+i∈Mlj al-1i·klij] (1)

        式中:[Mlj]表示選擇的輸入特征圖的集合;[klij]表示可學(xué)習(xí)的卷積核[11]。

        1.1.2" 池化層

        池化層用于減小輸入數(shù)據(jù)的空間尺寸,同時(shí)保留重要的特征信息。池化層通常跟在卷積層之后,可以有效地減少網(wǎng)絡(luò)參數(shù)和計(jì)算量,提高模型的計(jì)算效率和泛化能力。池化層的主要作用是對(duì)輸入的特征圖進(jìn)行壓縮,一方面使特征圖變小,簡(jiǎn)化網(wǎng)絡(luò)計(jì)算復(fù)雜度;另一方面進(jìn)行特征壓縮,提取主要特征[12]。

        1.1.3" 全連接層

        在經(jīng)過(guò)卷積和池化后,全連接層會(huì)選擇ReLU(Rectified Linear Unit)作為激活函數(shù)。ReLU函數(shù)的優(yōu)點(diǎn)是計(jì)算簡(jiǎn)單且具有非線性特性,能夠更好地捕捉輸入數(shù)據(jù)的非線性關(guān)系。在多分類(lèi)任務(wù)中,全連接層通常會(huì)結(jié)合Softmax函數(shù)完成最終的分類(lèi)。Softmax函數(shù)可以將神經(jīng)網(wǎng)絡(luò)的輸出轉(zhuǎn)化為概率分布,使得每個(gè)類(lèi)別的預(yù)測(cè)概率相加等于1。通過(guò)與上一層的神經(jīng)元相連接,并結(jié)合適當(dāng)?shù)募せ詈瘮?shù),能夠整合特征信息并實(shí)現(xiàn)多任務(wù)分類(lèi)[13]。

        1.2" Transformer模型

        1.2.1" 注意力機(jī)制

        Transformer模型采用了自注意力機(jī)制,可以并行計(jì)算序列中所有元素之間的關(guān)系。這使得Transformer模型在計(jì)算效率和長(zhǎng)距離依賴(lài)捕捉能力方面具有明顯優(yōu)勢(shì)。自注意力(Self?Attention)機(jī)制是一種計(jì)算序列中元素之間關(guān)系的方法。對(duì)于每個(gè)元素,自注意力機(jī)制計(jì)算其與其他元素的相關(guān)性,并根據(jù)這些相關(guān)性對(duì)元素進(jìn)行加權(quán)求和,使得模型能夠捕捉序列中的長(zhǎng)距離依賴(lài)關(guān)系[14]。

        在自注意力機(jī)制中,輸入序列中的每個(gè)位置都會(huì)計(jì)算權(quán)重,該權(quán)重表示該位置與其他位置之間的依賴(lài)關(guān)系。每個(gè)位置的注意力權(quán)重由三部分計(jì)算得來(lái):查詢(xún)(Query)、鍵(Key)和值(Value)的線性映射。通過(guò)對(duì)所有位置進(jìn)行注意力加權(quán)平均,就可以獲得每個(gè)位置的表示。在前饋神經(jīng)網(wǎng)絡(luò)中,每個(gè)位置的表示會(huì)經(jīng)過(guò)一個(gè)全連接的前饋網(wǎng)絡(luò),它會(huì)對(duì)位置的特征向量進(jìn)行非線性轉(zhuǎn)換,從而捕捉更高級(jí)的特征。

        1.2.2" Transformer結(jié)構(gòu)

        Transformer模型是一種創(chuàng)新的自然語(yǔ)言處理(NLP)架構(gòu),是一種基于注意力機(jī)制的序列到序列(Sequence?to?Sequence)模型,最初由Google在2017年提出并廣泛應(yīng)用于機(jī)器翻譯任務(wù)。相較于傳統(tǒng)的循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)和長(zhǎng)短期記憶(LSTM)網(wǎng)絡(luò),Transformer模型具有更強(qiáng)的并行計(jì)算能力和長(zhǎng)距離依賴(lài)捕捉能力[15]。

        Transformer結(jié)構(gòu)由編碼器(Encoder)和解碼器(Decoder)兩部分組成,它們分別用于處理輸入序列和生成輸出序列。編碼組件是神經(jīng)網(wǎng)絡(luò)模型中的關(guān)鍵部分,由多頭自注意力機(jī)制和前饋神經(jīng)網(wǎng)絡(luò)構(gòu)成。這些組件通過(guò)自注意力機(jī)制捕捉輸入序列中元素之間的關(guān)系,并利用前饋神經(jīng)網(wǎng)絡(luò)進(jìn)行特征提取和表示學(xué)習(xí)。解碼組件主要由掩碼自注意力機(jī)制、多頭自注意力機(jī)制和前饋神經(jīng)網(wǎng)絡(luò)組成。通過(guò)合理地設(shè)計(jì)和優(yōu)化這些組件,能夠獲得更好的模型性能和更準(zhǔn)確的輸出結(jié)果。

        為了更有效地捕捉序列中各個(gè)位置之間的依賴(lài)關(guān)系,Transformer模型采用了自注意力機(jī)制來(lái)處理序列數(shù)據(jù),取代了傳統(tǒng)的遞歸和卷積操作。這種新的方法可以顯著降低模型的復(fù)雜度,提高序列信息的捕捉效率。這使得Transformer在處理長(zhǎng)距離依賴(lài)和并行計(jì)算方面具有較大優(yōu)勢(shì),并在機(jī)器翻譯、文本摘要、語(yǔ)言模型等任務(wù)上取得了非常好的效果。

        1.3" CNN?Transformer模型

        在傳統(tǒng)的CNN中,通過(guò)卷積操作可以有效地捕獲局部特征和空間關(guān)系,但缺乏對(duì)全局上下文的建模能力。而Transformer模型則通過(guò)自注意力機(jī)制實(shí)現(xiàn)了全局上下文的建模,但在處理任務(wù)中,由于數(shù)據(jù)的高維性和空間結(jié)構(gòu),直接應(yīng)用Transformer會(huì)導(dǎo)致計(jì)算和存儲(chǔ)資源的巨大開(kāi)銷(xiāo)。Transformer模型主要是從時(shí)間角度來(lái)獲取軸承信號(hào)的相關(guān)信息,但對(duì)于不同檢測(cè)部位的空間信息知之甚少。由于CNN在空間特征提取方面表現(xiàn)出色,因此通過(guò)將CNN與Transformer模型相結(jié)合,可以實(shí)現(xiàn)對(duì)故障信號(hào)數(shù)據(jù)中信息的多維提取[9]。CNN?Transformer模型網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示。

        該組合模型的工作流程大致分為以下3個(gè)步驟。

        1) 利用卷積網(wǎng)絡(luò)來(lái)接收輸入特征序列并進(jìn)行卷積操作,提取特征信息。

        2) 運(yùn)用Transformer模型,它由以下幾個(gè)部分組成。通過(guò)卷積網(wǎng)絡(luò)對(duì)輸入特征序列進(jìn)行處理,得到卷積特征(encinputs)。使用Encoder對(duì)卷積特征進(jìn)行編碼處理,得到編碼輸出(encoutputs)。編碼過(guò)程包括多個(gè)EncoderLayer,每個(gè)EncoderLayer包括多頭自注意力機(jī)制和前饋神經(jīng)網(wǎng)絡(luò)。將編碼輸出并進(jìn)行展平操作,得到展平后的特征表示。使用一個(gè)線性投影層(projection)將特征表示映射到一個(gè)大小為100的向量。經(jīng)過(guò)softmax激活函數(shù)處理(act)后,再通過(guò)一個(gè)線性投影層(projection1)得到最終的預(yù)測(cè)結(jié)果(declogits)。

        3) 最終的輸出是預(yù)測(cè)結(jié)果(declogits)和編碼輸出(encoutputs)。總之,該CNN?Transformer模型通過(guò)卷積網(wǎng)絡(luò)提取特征,并通過(guò)Transformer進(jìn)行編碼和解碼,最終將編碼輸出映射到預(yù)測(cè)結(jié)果。

        本文參考MobileViT的思想,考慮到故障信號(hào)識(shí)別任務(wù)對(duì)速度和性能的要求,采用CNN和Transformer相結(jié)合的方法構(gòu)建了一個(gè)輕量級(jí)的網(wǎng)絡(luò)模型[16]。該模型中運(yùn)用的特征處理模塊為3個(gè)卷積層和3個(gè)池化層,其中,第3個(gè)池化層選擇自適應(yīng)最大池化,統(tǒng)一輸出數(shù)據(jù)的維度。在全連接層采用softmax激活函數(shù)對(duì)故障模式進(jìn)行分類(lèi)[17]。

        綜上所述,CNN?Transformer模型通過(guò)卷積網(wǎng)絡(luò)提取振動(dòng)信號(hào)的特征,然后通過(guò)Transformer進(jìn)行編碼處理,并最終將特征映射到故障類(lèi)型的預(yù)測(cè)結(jié)果,這樣模型就可以提高軸承故障的檢測(cè)和預(yù)測(cè)能力[18]。

        2" 算法驗(yàn)證

        2.1" 測(cè)試平臺(tái)

        本文測(cè)試平臺(tái)為自主配置計(jì)算機(jī),64位Windows 10操作系統(tǒng),處理器為Intel[?] CoreTM i5?12500H CPU,8 GB?RTX2050 GPU,16 GB內(nèi)存,神經(jīng)網(wǎng)絡(luò)的構(gòu)建采用PyTorch框架。

        2.2" 數(shù)據(jù)來(lái)源及參數(shù)設(shè)置

        本文所用實(shí)驗(yàn)數(shù)據(jù)選自于凱斯西儲(chǔ)大學(xué)電氣實(shí)驗(yàn)室(CWRU)公開(kāi)的滾動(dòng)軸承數(shù)據(jù)集。西儲(chǔ)大學(xué)滾動(dòng)軸承故障實(shí)驗(yàn)平臺(tái)由一個(gè)電機(jī)、一個(gè)振動(dòng)加速度傳感器、功率測(cè)試計(jì)和電子控制器組成[19]。驅(qū)動(dòng)端的軸承型號(hào)為6205?2RSSKF,風(fēng)扇端的軸承型號(hào)為6203?2RSJEMSKF,均為深溝球軸承。故障類(lèi)型包括4種狀態(tài),分別為內(nèi)圈故障、外圈故障、滾動(dòng)體故障和正常數(shù)據(jù)。電機(jī)近似轉(zhuǎn)速為1 797 r/min,采樣頻率為12 kHz,故障損傷直徑分為小尺寸(0.017 8 cm)、中尺寸(0.035 56 cm)和大尺寸(0.053 54 cm),共計(jì)10種狀態(tài),如表1所示。工況分類(lèi)如表2所示。

        對(duì)10種不同狀態(tài)的數(shù)據(jù)進(jìn)行裁剪,得到120個(gè)樣本,每個(gè)樣本包含1 000個(gè)數(shù)據(jù)點(diǎn),將數(shù)據(jù)集按照4∶1的比例分為訓(xùn)練集和測(cè)試集。在訓(xùn)練過(guò)程中,訓(xùn)練批次(batch size)為256,最大迭代次數(shù)(epoch)為50,優(yōu)化器選擇Adam,最小學(xué)習(xí)率(min learning rate)設(shè)定為0.001。

        2.3" 模型訓(xùn)練

        根據(jù)上述網(wǎng)絡(luò)模型參數(shù)的設(shè)置進(jìn)行訓(xùn)練,由于故障信號(hào)處理的特殊方式,需要在自動(dòng)扶梯實(shí)際運(yùn)行時(shí)對(duì)網(wǎng)絡(luò)模型進(jìn)行實(shí)時(shí)更新。

        根據(jù)2.2節(jié)中模型參數(shù)的設(shè)置,經(jīng)訓(xùn)練后得到訓(xùn)練的損失值及準(zhǔn)確率曲線,如圖2所示。

        由圖2可知,訓(xùn)練的損失值在迭代了25次之后就能夠達(dá)到收斂,趨于擬合,且訓(xùn)練、驗(yàn)證損失值較小。經(jīng)過(guò)50輪訓(xùn)練后,準(zhǔn)確率也達(dá)到了97%以上,同時(shí)訓(xùn)練、驗(yàn)證損失值較小。這也更深一步證明了CNN?Transformer模型能夠有效地提升識(shí)別訓(xùn)練的效率。

        2.4" 結(jié)果分析

        滾動(dòng)軸承故障診斷的主要任務(wù)是通過(guò)對(duì)滾動(dòng)軸承振動(dòng)加速度數(shù)據(jù)的分析和處理,對(duì)信號(hào)進(jìn)行診斷分類(lèi),從而確定故障的具體類(lèi)型。為了評(píng)估所提出的神經(jīng)網(wǎng)絡(luò)模型的故障診斷性能,需要先對(duì)模型進(jìn)行評(píng)估,常用的分類(lèi)問(wèn)題性能評(píng)價(jià)指標(biāo)為查準(zhǔn)率P(Precision)、召回率R(Recall)、準(zhǔn)確率(Accuracy)、F1值(F1 Score)和混淆矩陣(Confusion Matrix)等[20]。

        本文所使用的性能評(píng)價(jià)指標(biāo)是混淆矩陣的準(zhǔn)確率,即將測(cè)試數(shù)據(jù)集輸入分類(lèi)模型中,用所有正確預(yù)測(cè)的樣本數(shù)除以總的樣本數(shù)來(lái)衡量模型算法的性能[21]?;煜仃囀且粋€(gè)二維表格,在混淆矩陣中,每一列代表預(yù)測(cè)值,每一行代表真實(shí)值?;煜仃囍械拿恳粋€(gè)元素表示一個(gè)樣本被預(yù)測(cè)為某一類(lèi)別的次數(shù)。混淆矩陣構(gòu)成如表3所示。為驗(yàn)證上述模型的可靠性和有效性,本文選取混淆矩陣的精確度作為模型的評(píng)價(jià)指標(biāo),即模型預(yù)測(cè)正確的樣本數(shù)與總樣本數(shù)之比。精確度越高,模型預(yù)測(cè)分類(lèi)效果就越好,計(jì)算公式如下:

        模型預(yù)測(cè)混淆矩陣如圖3所示。圖3中縱坐標(biāo)表示真實(shí)標(biāo)簽,橫坐標(biāo)代表預(yù)測(cè)標(biāo)簽。縱坐標(biāo)的每一行表示該種故障被錯(cuò)誤分類(lèi)為其他類(lèi)型故障的比例;而橫坐標(biāo)的每一列則顯示10種樣本中被判為此類(lèi)故障的比例?;煜仃囍鲗?duì)角線上的數(shù)字代表模型對(duì)每一類(lèi)別正確識(shí)別的樣本數(shù)量。主對(duì)角線上的數(shù)值越大,說(shuō)明模型對(duì)相應(yīng)類(lèi)別的識(shí)別能力越強(qiáng)。從圖3中可以看出,模型對(duì)除標(biāo)簽6外的其他故障分類(lèi)效果較好,只有少量樣本被分錯(cuò)。至于標(biāo)簽6的識(shí)別率低、效果較差,從嚴(yán)格意義上來(lái)說(shuō)是由于標(biāo)簽6的數(shù)據(jù)樣本較少,導(dǎo)致訓(xùn)練效果較差。

        表4總結(jié)了基于相同數(shù)據(jù)集,本文算法模型和CNN、RNN、SVM等算法的實(shí)驗(yàn)結(jié)果對(duì)比。由表4可知,不帶Transformer的模型結(jié)構(gòu)較為簡(jiǎn)單,用CNN只能提取信號(hào)的部分特征信息,提取故障特征的能力相對(duì)較弱;Transformer模型具有更加復(fù)雜的網(wǎng)絡(luò)結(jié)構(gòu),提取故障特征的能力相對(duì)較強(qiáng)。添加Transformer網(wǎng)絡(luò)后,CNN?Transformer模型的準(zhǔn)確率更高,故障識(shí)別率達(dá)到97.8%,提高了4.9%;同時(shí)相較于其他模型,該模型故障診斷性能明顯較優(yōu)越。

        3" 結(jié)" 論

        針對(duì)自動(dòng)扶梯滾動(dòng)軸承在噪聲環(huán)境中故障診斷準(zhǔn)確率低的問(wèn)題,本文提出了一種將Transformer與CNN相結(jié)合的滾動(dòng)軸承故障診斷方法。在處理故障信號(hào)時(shí),CNN和Transformer模型各具特長(zhǎng),CNN能夠有效地捕捉時(shí)域信號(hào)數(shù)據(jù)在空間上的關(guān)聯(lián)性,從而揭示出數(shù)據(jù)之間的內(nèi)在聯(lián)系;而Transformer模型則通過(guò)自注意力機(jī)制更好地處理長(zhǎng)序列數(shù)據(jù),捕捉不同數(shù)據(jù)之間的依賴(lài)關(guān)系,從而提取出時(shí)間信息上的特征,避免了傳統(tǒng)循環(huán)神經(jīng)網(wǎng)絡(luò)中梯度消失和梯度爆炸的問(wèn)題。該組合模型結(jié)合了CNN和Transformer各自的優(yōu)勢(shì),能夠提取時(shí)域和頻域特征,豐富了故障信息并有效識(shí)別出故障狀態(tài),從而更全面地分析和處理故障信號(hào)數(shù)據(jù),為故障診斷和預(yù)測(cè)提供更準(zhǔn)確、可靠的支持。通過(guò)將該算法模型和CNN、RNN、SVM等算法進(jìn)行實(shí)驗(yàn)對(duì)比,結(jié)果證明該方法相比傳統(tǒng)CNN網(wǎng)絡(luò),識(shí)別軸承故障的準(zhǔn)確度更高,并且可以減少對(duì)人工特征提取的依賴(lài),實(shí)現(xiàn)了對(duì)故障的準(zhǔn)確分類(lèi)。未來(lái),將繼續(xù)收集自動(dòng)扶梯其他部位軸承故障的數(shù)據(jù),以提高模型的準(zhǔn)確性;同時(shí),還將研究基于移動(dòng)終端的自動(dòng)扶梯機(jī)械故障智能診斷系統(tǒng),以增強(qiáng)模型的實(shí)用性,從而有效地提高系統(tǒng)信息化水平。

        參考文獻(xiàn)

        [1] 楊向蘭,孫士保,王國(guó)強(qiáng),等.基于ECA?ResNet的軸承故障診斷方法[J].軸承,2023,9(7):1?8.

        [2] 陳露萌,李一鳴,黃民.一種抗噪聲軸承故障診斷方法[J].北京信息科技大學(xué)學(xué)報(bào)(自然科學(xué)版),2023,38(2):23?31.

        [3] 梁敏健,彭曉軍,劉德陽(yáng).基于一維卷積神經(jīng)網(wǎng)絡(luò)的自動(dòng)扶梯機(jī)械故障分類(lèi)研究[J].測(cè)控技術(shù),2022,41(7):87?92.

        [4] 段潔利,于世偉,解明坤,等.基于一維輕量化CNN的山地索道軸承故障診斷[J].農(nóng)業(yè)工程學(xué)報(bào),2023,39(14):70?79.

        [5] WEN L, LI X Y, GAO L, et al. A new convolutional neural network?based data?driven fault diagnosis method [J]. IEEE transactions on industrial electronics, 2018, 65(7): 5990?5998.

        [6] 魏永合,宮俊宇.基于CNN?LSTM?Attention的滾動(dòng)軸承故障診斷[J].沈陽(yáng)理工大學(xué)學(xué)報(bào),2022,41(4):73?77.

        [7] 朱浩,寧芊,雷印杰,等.基于注意力機(jī)制Inception?CNN模型的滾動(dòng)軸承故障分類(lèi)[J].振動(dòng)與沖擊,2020,39(19):84?93.

        [8] 李恒,張氫,秦仙蓉,等.基于短時(shí)傅里葉變換和卷積神經(jīng)網(wǎng)絡(luò)的軸承故障診斷方法[J].振動(dòng)與沖擊,2018,37(19):124?131.

        [9] 楊靜雅,齊彥麗,周一青,等.CNN?Transformer輕量級(jí)智能調(diào)制識(shí)別算法[J].西安電子科技大學(xué)學(xué)報(bào),2023,50(3):40?49.

        [10] 馮鵬宇,金韜,沈一選,等.基于CNN?Transformer的城區(qū)地下水位預(yù)測(cè)[J].計(jì)算機(jī)仿真,2023,40(4):492?498.

        [11] 唐宇姣.深度卷積網(wǎng)絡(luò)在皮膚鏡圖像皮損區(qū)域分割中的應(yīng)用研究[D].廣州:南方醫(yī)科大學(xué),2021.

        [12] 雷春麗,史佳碩,馬淑珍,等.強(qiáng)噪聲環(huán)境下基于MSDCNN的滾動(dòng)軸承故障診斷方法[J].北京航空航天大學(xué)學(xué)報(bào),2023,9(7):1?13.

        [13] 譚博韜,黃民,劉躍,等.基于CNN?LSTM故障診斷的自動(dòng)扶梯監(jiān)測(cè)軟件設(shè)計(jì)[J].電子測(cè)量技術(shù),2023,46(12):1?7.

        [14] 朱奇先,梁浩鵬,趙小強(qiáng),等.基于殘差神經(jīng)網(wǎng)絡(luò)的滾動(dòng)軸承故障診斷方法[J].蘭州理工大學(xué)學(xué)報(bào),2022,48(3):86?93.

        [15] 劉茜,易詩(shī),李立,等.基于輕量級(jí)CNN?Transformer混合網(wǎng)絡(luò)的梯田圖像語(yǔ)義分割[J].農(nóng)業(yè)工程學(xué)報(bào),2023,39(13):171?181.

        [16] 武林,江麗.基于CNN和集成SVM的滾動(dòng)軸承故障診斷[J].數(shù)字制造科學(xué),2023,21(2):131?135.

        [17] MUHAMMAD Maaz, ABDELRAHMAN Shaker, HISHAM Cholakkal, et al. EdgeNeXt: efficiently amalgamated CNN?Transformer architecture for mobile vision applications [C]// Computer Vision?ECCV 2022 Workshops. Heidelberg: ACM, 2022: 3?20.

        [18] MA J, LIU F. Bearing fault diagnosis with variable speed based on fractional hierarchical range entropy and hunter?prey optimization algorithm?optimizedrandom forest [J]. Machines, 2022, 10: 763.

        [19] WANG Xinyu, MA Jie. Weak fault feature extraction of rolling bearing based on SVMD and improved MOMEDA [J]. Mathematical problems in engineering, 2021, 2021: 1?11.

        [20] MA J, WANG X, Lü Y, et al. Fault prediction of non‐linear multi‐mode industrial process based on MKPCA model [J]. The Canadian journal of chemical engineering, 2023, 5: 2556?2565.

        [21] LUO X D, WANG G T, LIAO W J, et al. Semi?supervised medical image segmentation via uncertainty rectified pyramid consistency [J]. Medical image analysis, 2020, 80: 102517.

        日韩精品永久免费播放平台| 人妻 日韩 欧美 综合 制服| 一区二区三区在线 | 欧| 91日韩高清在线观看播放| 人妻爽综合网| 日本成人午夜一区二区三区 | 国产精品久久久久精品一区二区| 国产精品无码不卡一区二区三区| 中出高潮了中文字幕| 国产三级韩三级日产三级| 强开小婷嫩苞又嫩又紧视频韩国| 白天躁晚上躁麻豆视频| 久久无码人妻一区=区三区| 一区二区三区人妻在线| 国产极品美女高潮无套| 性一交一乱一伧国产女士spa| 麻豆久久五月国产综合| 亚洲一区二区三区厕所偷拍| 狠狠综合久久av一区二区蜜桃| 国产一区二区在线视频| 精品少妇爆乳无码aⅴ区| 日韩国产自拍视频在线观看| 国产亚洲精品美女久久久m | 国产精品av在线| 精品国产午夜福利在线观看| 日日骚一区二区三区中文字幕| 久久精品一区二区三区蜜桃| 日本乱偷人妻中文字幕| 国产2021精品视频免费播放| 日本一区二区三区在线视频观看| 久久久久免费精品国产| 国产欧美日韩久久久久| 亚洲精品日本| 中文字幕乱码亚洲三区| 国产日产综合| 中文字幕一区二区三区乱码不卡 | 国产卡一卡二卡3卡4乱码| 免费特级黄毛片| 成人影院免费观看在线播放视频| 中国一级黄色片久久久| 伊人久久五月丁香综合中文亚洲|