滕 輝,康 帥,王自法,2,殷 琳
(1. 河南大學(xué) 土木建筑學(xué)院,河南 開(kāi)封 475004; 2. 中震科建防災(zāi)減災(zāi)研究院有限公司, 廣東 韶關(guān) 512029;3. 寧波工程學(xué)院 建筑與交通工程學(xué)院,浙江 寧波 315211)
土木結(jié)構(gòu)在使用期間受外荷載影響可能會(huì)發(fā)生不同程度的損傷,這些損傷在不斷的累積下會(huì)降低結(jié)構(gòu)的安全性,為了及時(shí)修復(fù)損傷確保結(jié)構(gòu)的安全,對(duì)結(jié)構(gòu)進(jìn)行損傷檢測(cè)是必要的[1]。
當(dāng)結(jié)構(gòu)受損時(shí),剛度和質(zhì)量等物理特性會(huì)發(fā)生變化時(shí),從而導(dǎo)致振動(dòng)響應(yīng)發(fā)生變化,根據(jù)這一特性部分學(xué)者提出了基于非參數(shù)(振動(dòng)信號(hào))的結(jié)構(gòu)損傷識(shí)別方法[2]。趙懷山等[3]采用小波降噪和主成分分析對(duì)鋼架橋結(jié)構(gòu)進(jìn)行損傷識(shí)別,該方法能夠有效提取振動(dòng)信號(hào)的特征信息,準(zhǔn)確的進(jìn)行結(jié)構(gòu)損傷識(shí)別;任宜春等[4]對(duì)結(jié)構(gòu)加速度響應(yīng)進(jìn)行改進(jìn)的HHT分析, 通過(guò)結(jié)構(gòu)響應(yīng)瞬時(shí)頻率的變化判斷結(jié)構(gòu)是否損傷和出現(xiàn)損傷的時(shí)間;劉寧等[5]通過(guò)經(jīng)S變換后得到的振動(dòng)信號(hào)時(shí)頻譜以及時(shí)頻譜能量對(duì)結(jié)構(gòu)進(jìn)行損傷識(shí)別。這些時(shí)頻域方法雖然在結(jié)構(gòu)損傷識(shí)別中表現(xiàn)良好,但是在對(duì)數(shù)據(jù)進(jìn)行處理過(guò)程中,容易使振動(dòng)響應(yīng)中的部分損傷特征扭曲或丟失[6]。
隨著機(jī)器學(xué)習(xí)理論不斷的發(fā)展和完善,一些學(xué)者通過(guò)機(jī)器學(xué)習(xí)模型來(lái)提取振動(dòng)響應(yīng)信號(hào)中的損傷特征,以此實(shí)現(xiàn)結(jié)構(gòu)損傷識(shí)別。HAGIWARA等[7]通過(guò)利用支持向量機(jī)(SVM)從少量的傳感器中獲得詳細(xì)的損壞信息,驗(yàn)證了SVM應(yīng)用在結(jié)構(gòu)損傷檢測(cè)的有效性;閆維明等[8]提出結(jié)合BP神經(jīng)網(wǎng)絡(luò)采用加速度響應(yīng)相關(guān)特性作為結(jié)構(gòu)損傷因子的損傷識(shí)別方法,對(duì)簡(jiǎn)支梁結(jié)構(gòu)進(jìn)行損傷識(shí)別,驗(yàn)證了該方法的有效性。 但在應(yīng)用傳統(tǒng)的機(jī)器模型對(duì)振動(dòng)信號(hào)進(jìn)行訓(xùn)練時(shí),容易出現(xiàn)模型訓(xùn)練效率低下,產(chǎn)生過(guò)擬合等現(xiàn)象。
隨著人工智能與深度學(xué)習(xí)的發(fā)展,以卷積神經(jīng)網(wǎng)絡(luò)(CNN)為代表深度學(xué)習(xí)模型的出現(xiàn)彌補(bǔ)上述方法的缺陷[9-10],能夠用采用更少的參數(shù)得到更好的識(shí)別效果。李書(shū)進(jìn)等[11]構(gòu)建了可以從結(jié)構(gòu)動(dòng)力反應(yīng)信號(hào)中進(jìn)行學(xué)習(xí)并完成分類(lèi)診斷的1-D CNN和2-DCNN,并對(duì)結(jié)構(gòu)進(jìn)行了損傷識(shí)別,驗(yàn)證了卷積神經(jīng)網(wǎng)絡(luò)在結(jié)構(gòu)損傷識(shí)別的可行性;李雪松等[12]采用卷積神經(jīng)網(wǎng)絡(luò)提取振動(dòng)響應(yīng)信號(hào)中的特征,并且與傳統(tǒng)的經(jīng)驗(yàn)?zāi)B(tài)分解法和小波包變換法進(jìn)行對(duì)比,驗(yàn)證了卷積神經(jīng)網(wǎng)絡(luò)模型相對(duì)傳統(tǒng)識(shí)別方法有更強(qiáng)的提取特征的能力;ZHANG等[13]提出一種基于多振動(dòng)信號(hào)決策級(jí)融合和卷積神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)損傷識(shí)別方法,對(duì)某鋼架橋梁進(jìn)行了損傷識(shí)別;WANG等[14]使用時(shí)域振動(dòng)響應(yīng),采用密集連接卷積神經(jīng)對(duì)結(jié)構(gòu)進(jìn)行損傷識(shí)別,結(jié)果表明該方法有著較高的準(zhǔn)確度和良好的魯棒性。
以往的研究表明采用卷積神經(jīng)網(wǎng)絡(luò)模型對(duì)結(jié)構(gòu)進(jìn)行損傷識(shí)別有較好的識(shí)別效果,但構(gòu)建并訓(xùn)練出有較高準(zhǔn)確度和良好魯棒性的卷積神經(jīng)網(wǎng)絡(luò),需要對(duì)網(wǎng)絡(luò)模型的結(jié)構(gòu)和超參數(shù)進(jìn)行不斷調(diào)整,直至到達(dá)最優(yōu)效果。為了節(jié)省人力成本和時(shí)間成本,本文采用貝葉斯方法對(duì)一維卷積神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)和超參數(shù)進(jìn)行了優(yōu)化,并構(gòu)建了基于遷移學(xué)習(xí)的ResNet-18模型[15-16],通過(guò)數(shù)值模擬數(shù)據(jù)和實(shí)驗(yàn)數(shù)據(jù)分別考慮單測(cè)點(diǎn)數(shù)據(jù)(單通道)和多測(cè)點(diǎn)數(shù)據(jù)(多通道)對(duì)這兩種模型進(jìn)行訓(xùn)練,并對(duì)損傷識(shí)別結(jié)果進(jìn)行對(duì)比分析。通過(guò)在數(shù)據(jù)集中加入高斯噪聲,根據(jù)預(yù)測(cè)結(jié)果分析兩種模型的抗噪性。
完整的卷積神經(jīng)網(wǎng)絡(luò)包括輸入層、卷積層、池化層、全連接層和分類(lèi)輸出層,卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示。其中卷積層和池化層為核心網(wǎng)絡(luò)層,卷積層具有局部感知和權(quán)值共享等特性,可以降低卷積神經(jīng)網(wǎng)絡(luò)模型的計(jì)算參數(shù),提高模型的計(jì)算效率。卷積層通過(guò)卷積運(yùn)算對(duì)上一層網(wǎng)絡(luò)輸出的數(shù)據(jù)進(jìn)行特征提取,隨著卷積層數(shù)量的增加,網(wǎng)絡(luò)模型可以提取更為復(fù)雜的數(shù)據(jù)特征。
圖1 卷積神經(jīng)網(wǎng)絡(luò)示意圖 圖2 卷積運(yùn)算示意圖
卷積層的卷積運(yùn)算是通過(guò)卷積核矩陣與輸入數(shù)據(jù)上的感受野窗口矩陣對(duì)應(yīng)位置相乘再求和,再將求和后的數(shù)據(jù)返回到輸出矩陣中,一維卷積運(yùn)算過(guò)程見(jiàn)圖2。在進(jìn)行卷積運(yùn)算時(shí)一般卷積核按照從上到下來(lái)進(jìn)行計(jì)算,卷積核的大小和個(gè)數(shù),卷積步長(zhǎng),卷積運(yùn)算前是否對(duì)數(shù)據(jù)進(jìn)行填充這些稱(chēng)為卷積神經(jīng)網(wǎng)絡(luò)的超參數(shù),是由網(wǎng)絡(luò)設(shè)計(jì)者根據(jù)自己需求進(jìn)行設(shè)置。
池化層的設(shè)置可以有效過(guò)濾冗余而保留特征值,提高計(jì)算的效率。池化層常用的兩種池化方式分別為最大值池化和均值池化,最大值池化是將卷積運(yùn)算后的子矩陣中最大值提取出來(lái),最大值池化用來(lái)過(guò)濾像素中無(wú)用的信息,均值池化是將卷積運(yùn)算后的子矩陣中所有數(shù)據(jù)求平均值將平均值作為結(jié)果,平均池化可以防止高維信息丟掉太多。
數(shù)據(jù)輸入網(wǎng)絡(luò)后,經(jīng)過(guò)多次卷積和池化提取數(shù)據(jù)特征,通過(guò)全連接層將這些特征值展平為一維向量,將一維向量輸入softmax層計(jì)算損傷數(shù)據(jù)與標(biāo)簽對(duì)應(yīng)的概率,將概率最大值視為預(yù)測(cè)結(jié)果。全連接層在神經(jīng)網(wǎng)絡(luò)種主要起到整合池化層中提取的重要特征信息,其每層神經(jīng)元都與上一層神經(jīng)元相連接,連接處都有一個(gè)權(quán)重來(lái)計(jì)算特征的重要程度。
遷移學(xué)習(xí)是把在某個(gè)任務(wù)中學(xué)習(xí)到的知識(shí),遷移到目標(biāo)任務(wù)中,使目標(biāo)任務(wù)能夠取得更好的學(xué)習(xí)效果。核心思想是將已通過(guò)大量數(shù)據(jù)訓(xùn)練的網(wǎng)絡(luò)模型遷移到目標(biāo)任務(wù)中進(jìn)行訓(xùn)練和預(yù)測(cè),其原理如下[17]:用D={λ,P(X)}表示域,其中λ和P(X)表示特征空間和邊概率分布,用T={y,f(x)}表示該域的任務(wù),其中:y和f(x)表示標(biāo)記空間和目標(biāo)預(yù)測(cè)函數(shù)。給定一個(gè)基于Dt(目標(biāo)域)的學(xué)習(xí)任務(wù)Tt,從Ds(源域)中獲得學(xué)習(xí)任務(wù)Ts的幫助,通過(guò)發(fā)現(xiàn)和轉(zhuǎn)移Ds和Ts的潛在知識(shí)來(lái)提高學(xué)習(xí)任務(wù)Tt的預(yù)測(cè)函數(shù)f(x)的性能。
在遷移學(xué)習(xí)過(guò)程中需保持模型的網(wǎng)絡(luò)結(jié)構(gòu)不變,然后載入在預(yù)訓(xùn)練模型中訓(xùn)練好的權(quán)重與參數(shù),通過(guò)改變輸入層和輸出層尺寸使結(jié)構(gòu)的振動(dòng)響應(yīng)數(shù)據(jù)輸入模型進(jìn)行訓(xùn)練和預(yù)測(cè)。最后對(duì)模型的部分超參數(shù)進(jìn)行微調(diào),并將采集到的結(jié)構(gòu)響應(yīng)數(shù)據(jù)輸入模型進(jìn)行訓(xùn)練和預(yù)測(cè)。
貝葉斯優(yōu)化是一種全局優(yōu)化算法,可用于求解表達(dá)式未知的函數(shù)的極值問(wèn)題[18]。在訓(xùn)練機(jī)器學(xué)習(xí)模型時(shí),需要不斷調(diào)整模型的超參數(shù)使模型能夠得到最優(yōu)解,這一過(guò)程可抽象為函數(shù)極值問(wèn)題,其變量為模型的超參數(shù),函數(shù)值為機(jī)器學(xué)習(xí)模型的性能指標(biāo)如準(zhǔn)確率和預(yù)測(cè)速度等。因此,可以通過(guò)貝葉斯算法自動(dòng)對(duì)機(jī)器學(xué)習(xí)模型的超參數(shù)進(jìn)行優(yōu)化,解決了人工優(yōu)化耗時(shí)耗力的問(wèn)題。
貝葉斯優(yōu)化的思路是首先隨機(jī)產(chǎn)生初始化樣本點(diǎn),通過(guò)樣本點(diǎn)對(duì)高斯過(guò)程進(jìn)行估計(jì)和更新,再通過(guò)提取函數(shù)來(lái)確定新的樣本點(diǎn),重復(fù)上述步驟,直至迭代終止。該優(yōu)化方法能夠考慮歷史參數(shù)信息提高搜索新樣本點(diǎn)的效率,并且使用較少的迭代次數(shù)就能得到機(jī)器學(xué)習(xí)模型超參數(shù)的最優(yōu)解。
本文采用六層鋼框架結(jié)構(gòu),首層高度為4.5 m,其余層高為3.6 m,跨度和進(jìn)深均為6 m,梁和柱均采用H型鋼,截面尺寸如表1所示。結(jié)構(gòu)阻尼采用瑞利阻尼,柱底固定和梁柱節(jié)點(diǎn)為剛接,結(jié)構(gòu)平面布置如圖3所示,采用ABAQUS梁?jiǎn)卧?單元類(lèi)型:B31),楊氏模量為210 GPa,泊松比為0.3,密度為7 850 kg/m3。
表1 結(jié)構(gòu)構(gòu)件信息Table 1 Information on structural members
圖3 結(jié)構(gòu)平面布置圖Fig. 3 Plane layout of the structure
為了表示結(jié)構(gòu)的損傷程度,將構(gòu)件的彈性模量降低來(lái)模擬損傷,例如彈性模量分別降低10%、30%和50%,代表該構(gòu)件損傷程度為10%、30%和50%。為了模擬不同位置的構(gòu)件損傷,將結(jié)構(gòu)中某個(gè)構(gòu)件的彈性模型進(jìn)行折減,表示該位置構(gòu)件損傷。每層選擇一個(gè)柱、橫梁和縱梁進(jìn)行損傷,共設(shè)定了18種損傷位置,每個(gè)損傷位置下共有3種損傷程度,數(shù)據(jù)集共有54種損傷工況。
通過(guò)有限元方法計(jì)算出在高斯白噪激勵(lì)下的不同損傷工況下的加速度響應(yīng),每次激勵(lì)時(shí)長(zhǎng)為16 s,采樣頻率為100 Hz,每個(gè)樣本長(zhǎng)度為1 600,每次以0.02的步長(zhǎng)對(duì)高斯白噪聲進(jìn)行調(diào)幅,共進(jìn)行30次激勵(lì)。將每層層頂設(shè)置一個(gè)測(cè)點(diǎn),提取每層測(cè)點(diǎn)的時(shí)程加速度作為訓(xùn)練樣本,單個(gè)測(cè)點(diǎn)共有1 620個(gè)訓(xùn)練樣本,全部測(cè)點(diǎn)共有9 720個(gè)訓(xùn)練樣本,將訓(xùn)練樣本80%用于訓(xùn)練,20%用于驗(yàn)證和測(cè)試。
一維卷積神經(jīng)網(wǎng)絡(luò)模型的構(gòu)建需要根據(jù)訓(xùn)練集和驗(yàn)證集正確率、損失值、訓(xùn)練速度等因素對(duì)模型的結(jié)構(gòu)和超參數(shù)進(jìn)行不斷修正來(lái)確定,為了使模型能更快和更準(zhǔn)確的識(shí)別結(jié)構(gòu)損傷,本文在構(gòu)建單通道(單個(gè)測(cè)點(diǎn)數(shù)據(jù))和多通道(多個(gè)測(cè)點(diǎn)數(shù)據(jù))一維卷積神經(jīng)網(wǎng)絡(luò)模型時(shí)采用貝葉斯法對(duì)模型的卷積層個(gè)數(shù)、卷積核大小、學(xué)習(xí)率和正則化進(jìn)行優(yōu)化。在優(yōu)化過(guò)程中,對(duì)模型參數(shù)范圍進(jìn)行設(shè)置,其中每個(gè)卷積塊中卷積層層數(shù)范圍設(shè)定為(1,2),模型中共有三個(gè)卷積塊,卷積核大小范圍設(shè)定為(3,35),由于卷積核一般設(shè)置為奇數(shù),故選取的卷積核大小為范圍內(nèi)的奇數(shù),學(xué)習(xí)率范圍設(shè)定為(1e-3,1e-2),正則化范圍設(shè)定為(1e-4,1e-2)。部分模型優(yōu)化過(guò)程如圖4所示,所有模型優(yōu)化結(jié)果見(jiàn)表2。
表2 網(wǎng)絡(luò)結(jié)構(gòu)及超參數(shù)優(yōu)化結(jié)果Table 2 Optimization results of network structure and hyperparameters
圖4 模型優(yōu)化過(guò)程Fig. 4 Optimization process of model
殘差神經(jīng)網(wǎng)絡(luò)(ResNet)能有效的緩解梯度消失問(wèn)題[19],極大的提高了網(wǎng)絡(luò)模型的深度,從而提高了模型提取特征的能力。其中:ResNet-18網(wǎng)絡(luò)模型有良好的提取特征的能力,在分類(lèi)問(wèn)題上有較好的識(shí)別精度。本文將通過(guò)大量數(shù)據(jù)預(yù)訓(xùn)練的ResNet-18模型遷移學(xué)習(xí)到本案例中,將遷移學(xué)習(xí)后的模型分別采用單通道(單側(cè)點(diǎn)數(shù)據(jù))和多通道(多測(cè)點(diǎn)數(shù)據(jù))進(jìn)行訓(xùn)練和預(yù)測(cè),ResNet-18網(wǎng)絡(luò)結(jié)構(gòu)如圖5所示。
圖5 ResNet-18網(wǎng)絡(luò)結(jié)構(gòu)Fig. 5 Network structure of ResNet-18
采用頂層測(cè)點(diǎn)的加速度數(shù)據(jù)來(lái)構(gòu)建單通道數(shù)據(jù)集,每層測(cè)點(diǎn)數(shù)據(jù)來(lái)構(gòu)建多通道(7通道)數(shù)據(jù)集,將構(gòu)建的單通道數(shù)據(jù)集和多通道數(shù)據(jù)集輸入網(wǎng)絡(luò)模型進(jìn)行訓(xùn)練并通過(guò)測(cè)試集對(duì)模型進(jìn)行評(píng)估,最終識(shí)別結(jié)果見(jiàn)表3。由表3可知:采用多通道數(shù)據(jù)訓(xùn)練出的模型正確率更高,因?yàn)槎嗤ǖ罃?shù)據(jù)相較于單通道數(shù)據(jù)包含更多的結(jié)構(gòu)損傷特征。本文因數(shù)據(jù)集相對(duì)較小而構(gòu)建的一維卷積神經(jīng)網(wǎng)絡(luò)較淺,對(duì)于損傷特征不明顯的數(shù)據(jù)容易識(shí)別錯(cuò)誤,而多通道數(shù)據(jù)補(bǔ)充了單通道中不明顯的損傷特征從而使正確率有所提升。
表3 一維卷積神經(jīng)網(wǎng)絡(luò)模型識(shí)別結(jié)果Table 3 Recognition results of the 1-D convolutional neural network model
將單通道數(shù)據(jù)集和多通道數(shù)據(jù)集輸入2.3節(jié)所述的網(wǎng)絡(luò)模型進(jìn)行訓(xùn)練,訓(xùn)練后通過(guò)測(cè)試集對(duì)模型進(jìn)行評(píng)估,結(jié)果見(jiàn)表4,該模型提取損傷特征的能力較強(qiáng),無(wú)論是在單通道數(shù)據(jù)的訓(xùn)練下還是在多通道數(shù)據(jù)的訓(xùn)練下?lián)p傷定位和損傷程度識(shí)別都可以達(dá)到100%,對(duì)比兩種模型在框架上的損傷識(shí)別結(jié)果可知:一維卷積神經(jīng)網(wǎng)絡(luò)模型在進(jìn)行訓(xùn)練時(shí)用時(shí)較短,但其網(wǎng)絡(luò)結(jié)構(gòu)相對(duì)較淺共16層,對(duì)不明顯的損傷特征無(wú)法有效的識(shí)別出來(lái),而基于遷移學(xué)習(xí)的ResNet-18網(wǎng)絡(luò)模型相較于一維卷積神經(jīng)網(wǎng)絡(luò)提取損傷特征的能力更強(qiáng),在單通道數(shù)據(jù)的訓(xùn)練模型正確率仍能達(dá)到100%,但該網(wǎng)絡(luò)較深共有71層,在進(jìn)行網(wǎng)絡(luò)訓(xùn)練時(shí)需要的訓(xùn)練時(shí)間相對(duì)于一維卷積神經(jīng)網(wǎng)絡(luò)的要更多。
表4 遷移學(xué)習(xí)的ResNet-18模型識(shí)別結(jié)果Table 4 ResNet-18 model recognition results of transfer learning
本文采用的實(shí)驗(yàn)數(shù)據(jù)是來(lái)自卡塔爾大學(xué)公開(kāi)的看臺(tái)結(jié)構(gòu)縮尺實(shí)驗(yàn)數(shù)據(jù)[20],實(shí)驗(yàn)?zāi)P鸵?jiàn)圖6,尺寸為4.2 m×4.2 m,由25根填充梁和8根主梁組成,支撐在4個(gè)柱子上。8根主梁長(zhǎng)4.6 m,懸臂部分填充長(zhǎng)約1 m,其余填充梁長(zhǎng)0.77 m。傳感器布置在填充梁和主梁接頭處,通過(guò)填充梁和主梁接頭(節(jié)點(diǎn))處的連接螺栓來(lái)實(shí)現(xiàn)結(jié)構(gòu)該位置損傷。在整個(gè)框架中每次損傷一個(gè)節(jié)點(diǎn)作為一個(gè)工況,共設(shè)置了30個(gè)損傷工況。
圖6 鋼框架看臺(tái)模型
對(duì)上述的每種工況,采用激振器對(duì)結(jié)構(gòu)進(jìn)行隨機(jī)振動(dòng)激勵(lì),并采集加速度信號(hào),采樣頻率為1 024 Hz,共記錄256 s的加速度信號(hào)。將記錄的信號(hào)按照相等時(shí)長(zhǎng)分段,每段長(zhǎng)度為1 s,每種損傷工況一個(gè)加速度計(jì)共256個(gè)樣本,所有工況共7 680個(gè)樣本。為了分析實(shí)驗(yàn)數(shù)據(jù)中通道對(duì)模型損傷識(shí)別的影響,分別建立了單通道數(shù)據(jù)集和五通道數(shù)據(jù)集。
將上節(jié)所制作的數(shù)據(jù)集輸入構(gòu)建的兩種模型進(jìn)行訓(xùn)練,并用測(cè)試集對(duì)訓(xùn)練后的模型進(jìn)行評(píng)估,兩種模型的識(shí)別效果見(jiàn)表5,在實(shí)驗(yàn)數(shù)據(jù)的訓(xùn)練下,遷移學(xué)習(xí)后的ResNet-18模型的識(shí)別準(zhǔn)確率仍高于一維卷積神經(jīng)網(wǎng)絡(luò)模型,訓(xùn)練模型所需的時(shí)間仍多于一維卷積神經(jīng)網(wǎng)絡(luò)。
無(wú)論是數(shù)值模擬數(shù)據(jù)還是實(shí)驗(yàn)數(shù)據(jù)都驗(yàn)證了基于遷移學(xué)習(xí)的ResNet-18模型提取特征的能力要好于一維卷積神經(jīng)網(wǎng)絡(luò),但在損傷特征較為明顯的多通道數(shù)據(jù)中,一維卷積神經(jīng)網(wǎng)絡(luò)也有很好的識(shí)別效果并且訓(xùn)練效率要高于基于遷移學(xué)習(xí)的ResNet-18模型。
由于該實(shí)驗(yàn)是在室內(nèi)實(shí)驗(yàn)室進(jìn)行的,在采集振動(dòng)信號(hào)時(shí)基本沒(méi)有受到噪聲影響,而在實(shí)際結(jié)構(gòu)檢測(cè)中采集的振動(dòng)信號(hào)不可避免會(huì)參雜各種噪聲,為了測(cè)試單通道數(shù)據(jù)集和多通道數(shù)據(jù)集訓(xùn)練的兩種模型在噪聲影響下的結(jié)構(gòu)損傷識(shí)別效果,分別在單通道數(shù)據(jù)集和多通道數(shù)據(jù)集中加入信噪比為1dB的噪聲,含噪聲的振動(dòng)信號(hào)為[21]:
ay=awgn(a,snr,′measured′)
式中:ay為添加噪聲后的加速度信號(hào),a為原始加速度信號(hào),snr為信噪比。
將加入噪聲的單通道數(shù)據(jù)集和多通道數(shù)據(jù)集分別輸入一維卷積神經(jīng)網(wǎng)絡(luò)模型和基于遷移學(xué)習(xí)的ResNet-18模型進(jìn)行訓(xùn)練,訓(xùn)練結(jié)果見(jiàn)表6,由表6可以看出加噪后數(shù)據(jù)訓(xùn)練的兩種模型的預(yù)測(cè)正確率都有不同程度的下降,但多通道數(shù)據(jù)訓(xùn)練的模型仍然有著很高的正確率。
表6 加噪后模型的識(shí)別結(jié)果Table 6 Recognition results of the model after adding noise %
對(duì)比這兩個(gè)模型在單通道數(shù)據(jù)集和多通道數(shù)據(jù)集訓(xùn)練后模型的預(yù)測(cè)結(jié)果可以看出:多通道訓(xùn)練的模型和單通道訓(xùn)練的模型相比有著較強(qiáng)的抗噪能力,對(duì)比這兩個(gè)模型的識(shí)別效果可以看出:遷移學(xué)習(xí)的ResNet-18模型的抗噪性要優(yōu)于一維卷積神經(jīng)網(wǎng)絡(luò)模型。
本文基于振動(dòng)信號(hào)構(gòu)建了一維卷積神經(jīng)網(wǎng)絡(luò)模型和結(jié)合遷移學(xué)習(xí)的ResNet-18網(wǎng)絡(luò)模型,采用有限元模擬數(shù)據(jù)和實(shí)驗(yàn)數(shù)據(jù)分別考慮單測(cè)點(diǎn)數(shù)據(jù)(單通道)和多測(cè)點(diǎn)數(shù)據(jù)(多通道)對(duì)模型進(jìn)行訓(xùn)練并對(duì)預(yù)測(cè)結(jié)果進(jìn)行對(duì)比分析,主要結(jié)論如下:
1)基于遷移學(xué)習(xí)ResNet-18模型和一維卷積神經(jīng)網(wǎng)絡(luò)模型都能較為準(zhǔn)確的進(jìn)行結(jié)構(gòu)損傷識(shí)別,對(duì)比兩者的訓(xùn)練效率和識(shí)別精度可以得出前者有較強(qiáng)的提取損傷特征的能力,但由于網(wǎng)絡(luò)結(jié)構(gòu)較深,訓(xùn)練模型所需的時(shí)間較長(zhǎng),后者因網(wǎng)絡(luò)結(jié)構(gòu)較淺相較于前者有較高的訓(xùn)練效率,但提取特征的能力相對(duì)較弱。
2)多通道數(shù)據(jù)相對(duì)于單通道數(shù)據(jù)包含的結(jié)構(gòu)損傷特征更多,訓(xùn)練出的模型都有較好的識(shí)別效果,采用提取特征能力較弱的一維卷積神經(jīng)網(wǎng)絡(luò)也能夠準(zhǔn)確進(jìn)行損傷定位和損傷程度識(shí)別。多通道訓(xùn)練的模型受噪聲的影響相對(duì)較小,加入噪聲后,兩種模型仍然有較高的識(shí)別正確率。
3)基于遷移學(xué)習(xí)的ResNet-18 模型比一維卷積神經(jīng)網(wǎng)絡(luò)模型的抗噪能力強(qiáng),加入噪聲后,無(wú)論是單通道數(shù)據(jù)還是多通道數(shù)據(jù)訓(xùn)練出的模型,前者的正確率均高于后者。