張健飛, 黃朝東, 王子凡
(河海大學(xué) 力學(xué)與材料學(xué)院,南京 210098)
為了保證工程結(jié)構(gòu)的安全和正常使用,需要及時(shí)發(fā)現(xiàn)結(jié)構(gòu)損傷并進(jìn)行維修處理。基于振動(dòng)的結(jié)構(gòu)損傷識(shí)別方法利用結(jié)構(gòu)的振動(dòng)測(cè)試信號(hào)進(jìn)行結(jié)構(gòu)整體損傷狀況檢測(cè),相較于傳統(tǒng)的無(wú)損檢測(cè)方法具有很大的優(yōu)越性[1],但在實(shí)際應(yīng)用過(guò)程中,會(huì)不同程度地遇到模型依賴性強(qiáng)、系統(tǒng)容錯(cuò)性差、易受環(huán)境影響等問(wèn)題。人工神經(jīng)網(wǎng)絡(luò)由大量相互連接的簡(jiǎn)單神經(jīng)處理單元組成,可以不依賴于模型,具有較強(qiáng)的容錯(cuò)性和魯棒性以及學(xué)習(xí)聯(lián)想能力等特征,因而在結(jié)構(gòu)損傷識(shí)別領(lǐng)域受到了廣泛的關(guān)注。人工神經(jīng)網(wǎng)絡(luò)用于結(jié)構(gòu)損傷識(shí)別的基本原理就是通過(guò)建立特征參數(shù)與結(jié)構(gòu)損傷狀態(tài)之間的輸入、輸出映射關(guān)系來(lái)實(shí)現(xiàn)損傷識(shí)別。目前已經(jīng)構(gòu)建了許多結(jié)構(gòu)動(dòng)力特征作為神經(jīng)網(wǎng)絡(luò)的輸入?yún)?shù),如:固有頻率[2]、振型[3]和模態(tài)曲率[4]等,然而這些人為設(shè)計(jì)的特征參數(shù)并不一定是最優(yōu)的,難以在不同類型的損傷識(shí)別中都取得最優(yōu)效果[5]。
以卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural networks, CNN)為代表的深度學(xué)習(xí)網(wǎng)絡(luò)可以直接從原始輸入數(shù)據(jù)中挖掘抽象的內(nèi)在特征,避免了人為主觀因素的影響,具有良好的泛化能力。CNN是一類包含卷積計(jì)算的深度前饋神經(jīng)網(wǎng)絡(luò),其所具有的局部連接、權(quán)值共享及池化操作等特性可以有效地降低網(wǎng)絡(luò)的復(fù)雜度,減少訓(xùn)練參數(shù)的數(shù)目,從而使模型具有強(qiáng)魯棒性和容錯(cuò)能力,已經(jīng)在計(jì)算機(jī)視覺(jué)、語(yǔ)音識(shí)別等領(lǐng)域得到了廣泛應(yīng)用[6]。在結(jié)構(gòu)損傷識(shí)別領(lǐng)域,近年來(lái)CNN也得到了較多的研究。羅雨舟等[7]通過(guò)構(gòu)建CNN模型對(duì)有限元數(shù)值模擬生成的結(jié)構(gòu)多點(diǎn)加速度信號(hào)進(jìn)行特征提取,實(shí)現(xiàn)損傷診斷,并研究了結(jié)構(gòu)在不同激勵(lì)類型作用下和不同噪聲強(qiáng)度下的損傷診斷精度。李雪松等[8]以IASC-ASCE SHM Benchmark結(jié)構(gòu)的數(shù)值模擬數(shù)據(jù)為研究對(duì)象,用CNN直接從加速度信號(hào)中自動(dòng)提取特征,并提出混合噪聲訓(xùn)練模式,加強(qiáng)特征抗噪能力,取得了良好的識(shí)別效果。李書(shū)進(jìn)等[9]以多層框架結(jié)構(gòu)節(jié)點(diǎn)損傷位置的識(shí)別問(wèn)題為研究對(duì)象,構(gòu)建了基于原始信號(hào)和傅里葉頻域信息的一維CNN模型和基于小波變換數(shù)據(jù)的二維CNN模型。Khodabandehlou等[10]以一座鋼筋混凝土公路橋縮尺模型振動(dòng)臺(tái)試驗(yàn)測(cè)得的加速度信號(hào)作為輸入數(shù)據(jù),采用二維CNN對(duì)結(jié)構(gòu)損傷進(jìn)行識(shí)別,取得了很好的識(shí)別效果,并檢驗(yàn)了網(wǎng)絡(luò)對(duì)微小損傷的魯棒性和敏感性。Lin等[11]采用CNN從簡(jiǎn)支梁有限元模擬生成的加速度數(shù)據(jù)中提取損傷特征,在有噪聲情況和多損傷情況下取得了很高的損傷識(shí)別精度,同時(shí)通過(guò)隱層可視化對(duì)所提取的特征進(jìn)行了物理解釋。Liu等[12]將傳遞函數(shù)和一維CNN相結(jié)合對(duì)結(jié)構(gòu)損傷識(shí)別方法進(jìn)行了研究,并以ASCE Benchmark結(jié)構(gòu)動(dòng)力響應(yīng)的傳遞函數(shù)作為CNN的輸入數(shù)據(jù),對(duì)方法的有效性進(jìn)行了驗(yàn)證,通過(guò)與時(shí)間序列和FFT (fast Fourier transform)數(shù)據(jù)相比較,顯示了傳遞函數(shù)數(shù)據(jù)中獲取的特征具有更高的損傷敏感性。楊建喜等[13]提出一種聯(lián)合CNN和長(zhǎng)短期記憶網(wǎng)絡(luò)(long-short term memory, LSTM)的橋梁結(jié)構(gòu)損傷識(shí)別方法,以結(jié)構(gòu)振動(dòng)加速度響應(yīng)為輸入,通過(guò) CNN 模型提取多時(shí)間窗口內(nèi)傳感器拓?fù)湎嚓P(guān)性特征,通過(guò)LSTM 模型進(jìn)一步提取時(shí)間維度特征,并以某連續(xù)剛構(gòu)橋縮尺模型的試驗(yàn)數(shù)據(jù)對(duì)方法進(jìn)行了檢驗(yàn),取得了良好的效果。Yang等[14]將結(jié)構(gòu)振動(dòng)加速度信號(hào)作為多變量時(shí)間序列,并行輸入CNN和雙向門控循環(huán)單元提取數(shù)據(jù)特征,然后將這兩種網(wǎng)絡(luò)獲得的特征進(jìn)行組合后用于結(jié)構(gòu)損傷識(shí)別,并通過(guò)數(shù)值試驗(yàn)和連續(xù)剛構(gòu)橋縮尺模型試驗(yàn)驗(yàn)證了方法相較于CNN和LSTM等方法的優(yōu)越性。
注意力機(jī)制本質(zhì)上和人類視覺(jué)機(jī)制類似,其核心目標(biāo)是從眾多信息中選擇出對(duì)當(dāng)前任務(wù)目標(biāo)更關(guān)鍵的信息,使得模型在訓(xùn)練過(guò)程中關(guān)注重點(diǎn)特征,避免非敏感特征的影響。自注意力機(jī)制是注意力機(jī)制的一種變體,用于捕捉數(shù)據(jù)或特征自身內(nèi)部的相關(guān)性。多頭自注意力機(jī)制最初被用于機(jī)器翻譯,它通過(guò)對(duì)多次計(jì)算得到的自注意力特征的組合,實(shí)現(xiàn)不同位置處的數(shù)據(jù)在不同子空間中的表征,從而使得模型可以在多個(gè)不同表征子空間中學(xué)習(xí)到相關(guān)的信息[15]。
本文以結(jié)構(gòu)振動(dòng)加速度信號(hào)作為輸入數(shù)據(jù),聯(lián)合多頭自注意力機(jī)制和CNN,提出了一種基于多頭自注意力的CNN模型(multi-head self-attention based CNN,CNN-MA),通過(guò)CNN提取加速度信號(hào)中的局部特征,通過(guò)引入多頭自注意力機(jī)制,在多個(gè)不同表征子空間中抽取出信號(hào)中重要的全局信息,提高結(jié)構(gòu)損傷識(shí)別的效果。
本文構(gòu)建的基于多頭自注意力的CNN模型依次由輸入層、若干個(gè)卷積和池化層、多頭自注意力層、全局池化層和Softmax分類層堆疊組成,如圖1所示。模型中輸入層輸入結(jié)構(gòu)受到動(dòng)力作用后各個(gè)測(cè)點(diǎn)上產(chǎn)生的加速度信號(hào);卷積層和池化層提取輸入加速度信號(hào)中的短期局部特征并實(shí)現(xiàn)降維;多頭自注意力層通過(guò)關(guān)注池化層輸出序列在不同位置、不同表征子空間中的關(guān)鍵信息,學(xué)習(xí)長(zhǎng)期全局特征;全局池化層對(duì)序列各個(gè)位置的信息進(jìn)行匯總并壓縮;最后將全局池化層的輸出經(jīng)過(guò)全連接層后再通過(guò)Softmax進(jìn)行分類,類別數(shù)對(duì)應(yīng)損傷模式的個(gè)數(shù),每個(gè)神經(jīng)元輸出對(duì)應(yīng)不同損傷模式的發(fā)生概率,最大發(fā)生概率對(duì)應(yīng)的損傷模式即為預(yù)測(cè)的損傷模式。為了分析CNN-MA的性能,本文與CNN、CNN-LSTM和CNN-BiLSTM(bidirectional LSTM)等模型進(jìn)行了比較,各模型結(jié)構(gòu)見(jiàn)圖1。
圖1 模型結(jié)構(gòu)Fig.1 Structure of the models
本文直接以結(jié)構(gòu)在外界動(dòng)力荷載作用下的測(cè)點(diǎn)加速度信號(hào)作為輸入數(shù)據(jù),由于是多測(cè)點(diǎn)問(wèn)題,因此輸入數(shù)據(jù)可以看作向量時(shí)間序列fi(i=1,2,…,N)。其中fi=(fi,1,fi,2,…,fi,L)為L(zhǎng)個(gè)測(cè)點(diǎn)在時(shí)刻i的加速度值組成的向量,序列長(zhǎng)度N=測(cè)試時(shí)長(zhǎng)×采樣頻率。在輸入模型之前,輸入的加速度信號(hào)需要進(jìn)行樣本化和標(biāo)準(zhǔn)化處理。樣本化就是將測(cè)點(diǎn)加速度信號(hào)序列分割成長(zhǎng)度為T的若干段子序列si(i=1,2,…,T),作為模型的訓(xùn)練和測(cè)試樣本,T的取值一般至少使得樣本包含一個(gè)結(jié)構(gòu)特征自振周期的加速度采樣值。生成樣本后,本文對(duì)樣本進(jìn)行Z-Score標(biāo)準(zhǔn)化,其計(jì)算如式(1)所示。
(1)
式中:μ為時(shí)間序列si(i=1,2,…,T)的均值;σ為標(biāo)準(zhǔn)方差。
(2)
(3)
典型的激活函數(shù)有sigmoid、tanh和ReLU等,本文采用ReLU激活函數(shù)。
(4)
式中,Ri為第i個(gè)位置處數(shù)值周邊的鄰近區(qū)域,常見(jiàn)的池化操作有取平均值和取最大值,本文采用最大池化。
通過(guò)卷積和池化計(jì)算得到的CNN輸出序列數(shù)據(jù)為xi(i=1,2,…,M),其中xi=(xi,1,xi,2,…,xi,P),P為最后一層卷積層的特征圖個(gè)數(shù),輸出序列的長(zhǎng)度M由卷積核尺寸、池化尺寸和步長(zhǎng)等參數(shù)具體確定。
LSTM是循環(huán)神經(jīng)網(wǎng)絡(luò)(recurrent neural networks, RNN)的一種變體,主要用于處理序列數(shù)據(jù),能夠保持?jǐn)?shù)據(jù)中的時(shí)序依賴關(guān)系。它通過(guò)引入了門控單元,解決了普通RNN長(zhǎng)程依賴、梯度消失或梯度爆炸等問(wèn)題,已經(jīng)在自然語(yǔ)言處理等領(lǐng)域得到成功應(yīng)用。LSTM使用記憶細(xì)胞來(lái)代替一般網(wǎng)絡(luò)中的隱藏層細(xì)胞,記憶細(xì)胞的輸入和輸出都由一些門控單元來(lái)控制,這些門控單元控制流向隱藏層單元的信息。其中:遺忘門決定從上一個(gè)細(xì)胞狀態(tài)中遺忘什么信息,輸入門將新的信息選擇性的記錄至細(xì)胞狀態(tài)中,輸出門將信息傳遞出去。本文采用的LSTM網(wǎng)絡(luò)細(xì)胞結(jié)構(gòu),如圖2所示。
圖2 LSTM細(xì)胞結(jié)構(gòu)Fig.2 Structure of LSTM cell
圖2中的i,f,c,o,h分別為輸入門、遺忘門、細(xì)胞狀態(tài)、輸出門以及隱藏層的輸出向量,其計(jì)算方法如式(5)~式(9)所示。
it=σ(Wxixt+Whiht-1+Wcict-1+bi)
(5)
ft=σ(Wxfxt+Whfht-1+Wcfct-1+bf)
(6)
ct=ftct-1+ittanh(Wxcxt+Whcht-1+bc)
(7)
ot=σ(Wxoxt+Whoht-1+Wcoct+bo)
(8)
ht=ottanh(ct)
(9)
式中:下標(biāo)x,i,f,c,o,h分別為輸入層、輸入門、遺忘門、細(xì)胞狀態(tài)、輸出門以及隱藏層;W和b分別為對(duì)應(yīng)的權(quán)重矩陣以及偏置;t為時(shí)刻。
通過(guò)LSTM層計(jì)算得到的輸出序列數(shù)據(jù)為oi(i=1,2,…,M),其中oi=(oi,1,oi,2,…,oi,D),D為輸出門維度。
在有些問(wèn)題中,當(dāng)前時(shí)刻的輸出不僅和之前的狀態(tài)有關(guān),還可能和未來(lái)的狀態(tài)有關(guān)系。此時(shí)可以采用雙向LSTM(bidirectional LSTM, BiLSTM),將輸入序列按照正序和反序分別輸入LSTM,然后將正向和反向LSTM的輸出相結(jié)合作為最終的輸出,常用的結(jié)合方式有求和、求積、平均和拼接等,本文采用拼接的結(jié)合方式,此時(shí)的輸出向量維度為2D。
注意力可以描述為查詢向量和一系列鍵-值向量對(duì)與輸出向量之間的映射,其中:輸出向量通過(guò)值向量的加權(quán)求和得到,每個(gè)值向量的加權(quán)系數(shù)通過(guò)計(jì)算查詢向量與對(duì)應(yīng)的鍵向量之間的匹配度而得到,本文中的加權(quán)系數(shù)通過(guò)計(jì)算查詢向量和鍵向量之間的尺度化點(diǎn)積得到。當(dāng)查詢向量、鍵向量和值向量屬于相同的序列時(shí)稱為自注意力。對(duì)于一系列查詢向量的注意力計(jì)算,通常為了提高計(jì)算效率將查詢向量、鍵向量和值向量組合成查詢矩陣、鍵矩陣和值矩陣進(jìn)行運(yùn)算,如式(10)和圖3所示。多頭自注意力層首先采用不同的線性投影矩陣將維度為M×d的輸入矩陣映射為h組矩陣,每組矩陣包含3個(gè)不同的矩陣:查詢矩陣Q、鍵矩陣K和值矩陣V,矩陣Q和K的維度為M×dk,矩陣V的維度為M×dv。然后對(duì)這h組矩陣分別按照式(10)進(jìn)行自注意力運(yùn)算,最后將自注意力運(yùn)算得到的h個(gè)輸出矩陣拼接后投影為一個(gè)維度為M×d的輸出矩陣R,如式(11)和圖4所示。
(10)
R=Multihead(Q,K,V)=
Concat(head1,head2,…,headh)Whr
(11)
式中,線性投影矩陣Whr∈hdv×d。
多頭自注意力層輸出數(shù)據(jù)為ri(i=1,2,…,M),其中向量ri=(ri,1,ri,2,…,ri,d)。
圖3 尺度化點(diǎn)積注意力Fig.3 Scaled dot-product attention
圖4 多頭注意力Fig.4 Multi-head Attention
全局池化一般分為全局最大池化和全局平均池化,全局池化可以起到減少參數(shù)、防止過(guò)擬合的作用。本文采用全局平均池化,即計(jì)算向量時(shí)間序列中向量各個(gè)元素在時(shí)間域上的平均值,如式(12)所示,得到輸出向量g=(g1,g2,…,gD)。
(12)
最后將全局池化層的輸出向量輸入全連接層后再通過(guò)Softmax進(jìn)行分類,類別的數(shù)量等于損傷模式的個(gè)數(shù)nd。Softmax分類層將輸入數(shù)據(jù)轉(zhuǎn)化為一個(gè)概率分布,其計(jì)算如式(14)所示,然后根據(jù)概率最大的原則進(jìn)行模式識(shí)別。
g′=Wgg′g
(13)
(14)
式中,全連接層的權(quán)重系數(shù)矩陣Wgg′∈nd×D。
本文提出的基于CNN-MA的結(jié)構(gòu)損傷識(shí)別方法首先采集結(jié)構(gòu)上各個(gè)測(cè)點(diǎn)的振動(dòng)加速度信號(hào);然后將這些加速度信號(hào)進(jìn)行預(yù)處理,即對(duì)其進(jìn)行標(biāo)準(zhǔn)化后分割成一系列具有一定長(zhǎng)度的子信號(hào);再將這些子信號(hào)及其對(duì)應(yīng)的損傷狀態(tài)按照一定的比例劃分成訓(xùn)練集、驗(yàn)證集和測(cè)試集;采用訓(xùn)練集進(jìn)行模型的訓(xùn)練,采用驗(yàn)證集進(jìn)行模型的驗(yàn)證,根據(jù)驗(yàn)證結(jié)果進(jìn)行模型結(jié)構(gòu)和超參數(shù)的優(yōu)化;最后將測(cè)試集輸入訓(xùn)練好的模型進(jìn)行損傷識(shí)別,測(cè)試模型泛化性能。整個(gè)結(jié)構(gòu)損傷識(shí)別的流程如圖5所示。本文基于其他模型的結(jié)構(gòu)損傷識(shí)別流程與CNN-MA相同。
圖5 結(jié)構(gòu)損傷識(shí)別流程圖Fig.5 Flow chart of structural damage identification
由式(2)可知,CNN隱藏層中每一個(gè)神經(jīng)元只與相鄰層局部區(qū)域的神經(jīng)元相連,這個(gè)局部區(qū)域被稱為局部感受野,也就是某一個(gè)隱藏層中神經(jīng)元只學(xué)習(xí)了其局部感受野范圍內(nèi)的特征,而要學(xué)習(xí)整個(gè)序列的全部特征,需要堆疊多個(gè)隱藏層,從而使得CNN模型變得復(fù)雜,訓(xùn)練難度變大。將CNN與LSTM(BiLSTM)相結(jié)合的目的就是通過(guò)LSTM(BiLSTM)將當(dāng)前時(shí)刻之前(之后)的信息壓縮后傳遞給當(dāng)前時(shí)刻,從而能夠獲取全局特征,但是這種信息壓縮會(huì)一定程度上導(dǎo)致有用信息的丟失。而CNN-MA將卷積池化層輸出序列中每一個(gè)向量與序列中的全部向量進(jìn)行自注意力運(yùn)算,從而使得每個(gè)向量中除了包含局部特征也包含全局特征。
2.1.1 數(shù)據(jù)生成與預(yù)處理
為了測(cè)試CNN-MA模型的性能,本文首先建立了一個(gè)懸臂梁有限元模型進(jìn)行數(shù)值試驗(yàn),懸臂梁材質(zhì)為鋼材,長(zhǎng)1 200 mm,方形截面尺寸為20 mm×20 mm,底部為固定端,頂部為自由端。在懸臂梁一側(cè)不同高程處設(shè)置深2 mm的水平裂縫(記為C1~C6)模擬不同位置的損傷,另一側(cè)設(shè)置7個(gè)測(cè)點(diǎn)(記為m1~m7)記錄懸臂梁水平向加速度,懸臂梁裂縫位置和測(cè)點(diǎn)位置如圖6所示。每種損傷模式為不同位置處的單個(gè)裂縫,如表1所示。
圖6 懸臂梁裂縫位置和測(cè)點(diǎn)圖(mm)Fig.6 Positions of the cracks and accelerometers on the cantilever beam (mm)
表1 數(shù)值試驗(yàn)中懸臂梁的損傷模式Tab.1 Damage patterns of the cantilever beam in numerical test
通過(guò)在懸臂梁底部施加水平向白噪聲加速度模擬環(huán)境激勵(lì),按照表2所示的損傷情況,生成7種不同損傷模式下7個(gè)測(cè)點(diǎn)上時(shí)長(zhǎng)為30 s的加速度響應(yīng)信號(hào),有限元計(jì)算時(shí)間步長(zhǎng)取為0.000 1 s,采用Rayleigh阻尼,則每種損傷模式可得到一個(gè)長(zhǎng)度為300 000、維度為7的加速度信號(hào)序列。然后從每個(gè)信號(hào)序列中隨機(jī)抽取1 000個(gè)長(zhǎng)度為1 024、維度為7的子序列作為模型的輸入樣本序列,共得到7×1 000=7 000個(gè)樣本序列。
表2 各個(gè)模型超參數(shù)取值范圍Tab.2 Range of the hyper-parameters of the models
在實(shí)測(cè)信號(hào)中,噪聲總是存在的,這些噪聲一般可以假設(shè)為符合高斯分布的白噪聲[16]。本文在有限元計(jì)算得到的加速度信號(hào)中加入白噪聲數(shù)據(jù)來(lái)模擬實(shí)測(cè)信號(hào),即
(15)
2.1.2 模型結(jié)構(gòu)和參數(shù)
神經(jīng)網(wǎng)絡(luò)模型的結(jié)構(gòu)和超參數(shù)對(duì)其性能具有很大的影響,為了獲取較優(yōu)的網(wǎng)絡(luò)結(jié)構(gòu)和超參數(shù),本文在beam-n00數(shù)據(jù)集上采用網(wǎng)格搜索的方法比較了各個(gè)模型在不同網(wǎng)絡(luò)結(jié)構(gòu)下多種超參數(shù)組合的性能,各模型的超參數(shù)取值范圍,見(jiàn)表2。模型超參數(shù)優(yōu)選時(shí)的性能指標(biāo)采用5-折交叉驗(yàn)證確定,即將數(shù)據(jù)集平均分成5組,其中每一組子集數(shù)據(jù)分別作為驗(yàn)證集,其余的4組子集數(shù)據(jù)作為訓(xùn)練集,以得到的5組驗(yàn)證集上的損傷識(shí)別準(zhǔn)確率的平均值作為模型性能評(píng)價(jià)的指標(biāo)。
對(duì)于CNN模型,比較了包含2個(gè)卷積池化層的網(wǎng)絡(luò)結(jié)構(gòu)(2層結(jié)構(gòu))和包含3個(gè)卷積池化層的網(wǎng)絡(luò)結(jié)構(gòu)(3層結(jié)構(gòu))在卷積核數(shù)量、卷積核尺寸和池化尺寸3個(gè)超參數(shù)的不同組合下的損傷識(shí)別性能,每種結(jié)構(gòu)共計(jì)18種超參數(shù)組合,比較結(jié)果如表3所示??梢钥闯觯涸诒纠胁煌某瑓?shù)組合對(duì)識(shí)別準(zhǔn)確率的影響較大,過(guò)大的卷積核尺寸會(huì)導(dǎo)致識(shí)別失敗,增加卷積池化層數(shù)量反而會(huì)降低識(shí)別準(zhǔn)確率;當(dāng)CNN模型采用2層結(jié)構(gòu),卷積核數(shù)、卷積尺寸和池化尺寸分別取30,32和4時(shí)損傷識(shí)別準(zhǔn)確率最高。
表3 CNN在不同結(jié)構(gòu)和超參數(shù)組合下的識(shí)別準(zhǔn)確率Tab.3 Accuracy of CNN with different structures and hyper-parameters 單位:%
對(duì)于CNN-LSTM和CNN-BiLSTM模型,比較了包含一個(gè)卷積池化層的網(wǎng)絡(luò)結(jié)構(gòu)(1層結(jié)構(gòu))和包含2個(gè)卷積池化層的網(wǎng)絡(luò)結(jié)構(gòu)(2層結(jié)構(gòu)),每一種結(jié)構(gòu)比較了卷積核數(shù)量、卷積核尺寸、池化尺寸和LSTM(BiLSTM)輸出維度4個(gè)超參數(shù)不同組合下的損傷識(shí)別性能,共計(jì)54種超參數(shù)組合,比較結(jié)果如表4和表5所示??梢钥闯觯?層結(jié)構(gòu)和2層結(jié)構(gòu)在本例中的識(shí)別準(zhǔn)確率總體上差別不大,但是同種結(jié)構(gòu)在不同超參數(shù)組合下差異較大;CNN-LSTM模型采用1層結(jié)構(gòu),卷積核數(shù)量、卷積核尺寸、池化尺寸和輸出維度分別取30,64,8和40時(shí)識(shí)別準(zhǔn)確率達(dá)到最大;CNN-BiLSTM模型采用1層結(jié)構(gòu),卷積核數(shù)量、卷積核尺寸、池化尺寸和輸出維度分別取50,32,8和40時(shí)識(shí)別準(zhǔn)確率達(dá)到100%。
表4 CNN-LSTM在不同結(jié)構(gòu)和超參數(shù)組合下的識(shí)別準(zhǔn)確率Tab.4 Accuracy of CNN-LSTM with different structures and hyper-parameters 單位:%
表5 CNN-BiLSTM在不同結(jié)構(gòu)和超參數(shù)組合下的識(shí)別準(zhǔn)確率Tab.5 Accuracy of CNN-BiLSTM with different structures and hyper-parameters 單位:%
對(duì)于CNN-MA模型,比較了包含1層卷積池化層的網(wǎng)絡(luò)結(jié)構(gòu)(1層結(jié)構(gòu))和包含2層卷積池化層的網(wǎng)絡(luò)結(jié)構(gòu)(2層結(jié)構(gòu))在卷積核數(shù)量、卷積核尺寸和池化尺寸3個(gè)超參數(shù)不同組合下的損傷識(shí)別性能,共計(jì)18種超參數(shù)組合,比較結(jié)果如表6所示。隨后以較優(yōu)的網(wǎng)絡(luò)結(jié)構(gòu)和超參數(shù)為基礎(chǔ),比較了模型自注意力計(jì)算次數(shù)分別取1,2,3,5和10時(shí)的損傷識(shí)別性能,比較結(jié)果如表7所示。可以看出:增加卷積池化層在本例中不能提高識(shí)別準(zhǔn)確率,不同超參數(shù)組合對(duì)模型性能有較大影響,模型采用1層結(jié)構(gòu)時(shí)多個(gè)超參數(shù)組合的識(shí)別準(zhǔn)確率達(dá)到100%,其中卷積核數(shù)量、卷積核尺寸和池化尺寸3個(gè)超參數(shù)分別取30,32,4時(shí)不僅識(shí)別準(zhǔn)確率達(dá)到最大,而且模型最為簡(jiǎn)單,在此基礎(chǔ)上自注意力計(jì)算次數(shù)取3和5時(shí)識(shí)別準(zhǔn)確率均達(dá)到100%。
表6 CNN-MA在不同結(jié)構(gòu)和超參數(shù)組合下的識(shí)別準(zhǔn)確率Tab.6 Accuracy of CNN-MA with different structures and hyper-parameters 單位:%
表7 不同自注意力計(jì)算次數(shù)下的識(shí)別準(zhǔn)確率Tab.7 Identification accuracy using different number of heads 單位:%
根據(jù)以上各個(gè)模型結(jié)構(gòu)和超參數(shù)的比選結(jié)果,綜合考慮識(shí)別準(zhǔn)確率和計(jì)算效率選定各個(gè)模型較優(yōu)的結(jié)構(gòu)和超參數(shù)。CNN-MA模型的第1層是輸入層,對(duì)數(shù)據(jù)進(jìn)行預(yù)處理后輸入模型;第2層是一維卷積和池化層,包含30個(gè)尺寸為32的卷積核和尺寸為4的最大池化層;第3層是多頭自注意力層,其中查詢向量、鍵向量和值向量的維度均為10,自注意力計(jì)算次數(shù)為3;第4層是全局平均池化層;第5層是Softmax分類層,類別數(shù)對(duì)應(yīng)損傷模式的個(gè)數(shù),每個(gè)輸出對(duì)應(yīng)不同損傷模式的發(fā)生概率。除了與CNN-MA模型相同的輸入層、全局池化層和Softmax分類層外,CNN模型包含2層一維卷積和池化層,每一層包含30個(gè)尺寸為32的卷積核和尺寸為4的最大池化層;CNN-LSTM模型包含一層由30個(gè)尺寸為64的卷積核和尺寸為8的最大池化層組成的一維卷積池化層以及輸出維度為40的LSTM層;CNN-BiLSTM模型包含一層由50個(gè)尺寸為32的卷積核和尺寸為8的最大池化層組成的一維卷積池化層以及正反向輸出維度為40、拼接后的最終輸出維度為80的BiLSTM層。
各模型訓(xùn)練時(shí)批尺寸設(shè)為64,訓(xùn)練次數(shù)設(shè)為50次,訓(xùn)練時(shí)保存訓(xùn)練過(guò)程中的最優(yōu)模型用于損傷識(shí)別。各模型在本例中的需要學(xué)習(xí)的參數(shù)個(gè)數(shù),如表8所示,其中MA-CNN模型參數(shù)最少。由于模型越復(fù)雜、參數(shù)越多,越容易過(guò)擬合,因此對(duì)于復(fù)雜的模型需要更多的訓(xùn)練數(shù)據(jù)或者采用正則化等技術(shù)抑制過(guò)擬合的發(fā)生,本文提出的MA-CNN模型由于參數(shù)更少,因此更加容易訓(xùn)練、泛化性能更好。
表8 各模型參數(shù)數(shù)量Tab.8 Number of the parameters of the models
2.1.3 試驗(yàn)結(jié)果
將樣本按照8∶1∶1的比例劃分,分別作為模型的訓(xùn)練集、驗(yàn)證集和測(cè)試集,訓(xùn)練集和驗(yàn)證集用于模型的訓(xùn)練,測(cè)試集用于測(cè)試模型的泛化性能。各個(gè)模型在訓(xùn)練集和驗(yàn)證集上的訓(xùn)練曲線,如圖7~圖9所示,圖7~圖9中:橫坐標(biāo)epoch為訓(xùn)練次數(shù),縱坐標(biāo)accuracy為訓(xùn)練準(zhǔn)確率??梢钥闯觯焊鱾€(gè)模型在訓(xùn)練集和驗(yàn)證集上的訓(xùn)練曲線基本吻合,未出現(xiàn)過(guò)擬合現(xiàn)象;在無(wú)噪聲數(shù)據(jù)上各模型的訓(xùn)練準(zhǔn)確率都達(dá)到100%,隨著噪聲的增大,各個(gè)模型準(zhǔn)確率在訓(xùn)練集、驗(yàn)證集和測(cè)試集上仍能保持較高水平,但均有所下降;CNN-MA模型的收斂速度最快,其余模型收斂較慢,各模型都出現(xiàn)了不同程度的震蕩現(xiàn)象,但是CNN-MA最穩(wěn)定,這是因?yàn)镃NN-MA模型復(fù)雜度最小,易于訓(xùn)練。各個(gè)模型在不同噪聲水平數(shù)據(jù)集上的準(zhǔn)確率,如表9所示。由表9可知:隨著噪聲水平的提高,CNN-MA的準(zhǔn)確率最高,其次是CNN-LSTM和CNN-BiLSTM,CNN的準(zhǔn)確率最低。為了進(jìn)一步檢驗(yàn)各模型的泛化性能,本文在測(cè)試集的每一種損傷模式下隨機(jī)抽取了100個(gè)樣本,用于測(cè)試各個(gè)模型的損傷識(shí)別性能。各個(gè)模型在測(cè)試集各種損傷模式下的識(shí)別性能,如表10所示。由表10可知:根據(jù)概率最大損傷判別法則,各個(gè)模型在本例數(shù)據(jù)集上均能準(zhǔn)確識(shí)別出7種不同的損傷模式,說(shuō)明各模型均具有較好的抗噪性;隨著噪聲水平的提高,各個(gè)模型的損傷識(shí)別精度存在不同程度的下降,CNN-MA模型受噪聲影響程度最小,抗噪性最好,其次是CNN-LSTM和CNN-BiLSTM,CNN的識(shí)別準(zhǔn)確率受到噪聲影響最大。
圖7 各模型在無(wú)噪聲數(shù)值試驗(yàn)數(shù)據(jù)上的訓(xùn)練曲線FIg.7 Training curves of the models on numerical test data without noise
圖8 各模型在含2%噪聲數(shù)值試驗(yàn)數(shù)據(jù)上的訓(xùn)練曲線FIg.8 Training curves of the models on numerical test data with 2% noise
圖9 各模型在含5%噪聲數(shù)值試驗(yàn)數(shù)據(jù)上的訓(xùn)練曲線FIg.9 Training curves of the models on numerical test data with 5% noise
表9 各模型在懸臂梁數(shù)值試驗(yàn)數(shù)據(jù)上的準(zhǔn)確率Tab.9 Accuracy of the Models on numerical test data of cantilever beam 單位:%
表10 各模型在懸臂梁數(shù)值試驗(yàn)測(cè)試集上的損傷識(shí)別概率Tab.10 Damage identifying probability of the models on numerical test data of cantilever beam
為了進(jìn)一步驗(yàn)證方法的有效性,本文利用實(shí)驗(yàn)室中的懸臂梁振動(dòng)臺(tái)試驗(yàn)數(shù)據(jù)對(duì)模型進(jìn)行測(cè)試和比較。試驗(yàn)所選用的懸臂梁材料和幾何參數(shù)以及邊界約束條件同第2.1節(jié),損傷采用人工切割縫模擬,包括不同裂縫數(shù)量和不同裂縫深度等5種損傷模式,如表11所示。試驗(yàn)采用電動(dòng)振動(dòng)臺(tái)產(chǎn)生的隨機(jī)激勵(lì)模擬有限帶寬白噪聲振動(dòng),激勵(lì)的功率譜密度取0.1(m/s2)2/Hz,激振頻率帶寬為5~1 000 Hz。懸臂梁從自由端到固定端布置7個(gè)加速度傳感器采集懸臂梁水平加速度,測(cè)點(diǎn)布置見(jiàn)圖6,試驗(yàn)裝置如圖10所示。
表11 振動(dòng)臺(tái)試驗(yàn)懸臂梁損傷模式Tab.11 Damage patterns of cantilever beam in shaking table test
圖10 懸臂梁振動(dòng)臺(tái)試驗(yàn)裝置圖Fig.10 Device for shaking table test of cantilever beam
懸臂梁各個(gè)測(cè)點(diǎn)的加速度信號(hào)采樣頻率為5 000 Hz,每一種損傷模式下采集時(shí)長(zhǎng)為30 s的加速度信號(hào),即每個(gè)測(cè)點(diǎn)記錄150 000個(gè)時(shí)刻點(diǎn)的數(shù)據(jù),從而每種損傷模式可得到一個(gè)長(zhǎng)度為150 000、維度為7的加速度信號(hào)序列。然后從每個(gè)序列中隨機(jī)抽取1 000個(gè)長(zhǎng)度為1 024、維度為7的子序列作為樣本,共得到5×1 000=5 000個(gè)樣本,按照8∶1∶1的比例劃分成訓(xùn)練集、驗(yàn)證集以及測(cè)試集。
各個(gè)模型在訓(xùn)練集和驗(yàn)證集上的訓(xùn)練曲線,如圖11所示。由圖11可知:各個(gè)模型在經(jīng)過(guò)一定次數(shù)的訓(xùn)練后均能達(dá)到較高的訓(xùn)練準(zhǔn)確率,訓(xùn)練集和驗(yàn)證集的訓(xùn)練曲線基本一致,沒(méi)有過(guò)擬合現(xiàn)象;CNN-MA收斂速度最快、穩(wěn)定性好,CNN的收斂速度最慢但是較為穩(wěn)定,CNN-LSTM和CNN-BiLSTM的穩(wěn)定性較差,震蕩比較嚴(yán)重。各個(gè)模型在訓(xùn)練集、驗(yàn)證集和測(cè)試集上的準(zhǔn)確率,如表12所示。由表12可知:各個(gè)模型在本例的試驗(yàn)數(shù)據(jù)上均取得了較好的訓(xùn)練效果,準(zhǔn)確率在90%以上;CNN-MA模型在訓(xùn)練集、驗(yàn)證集和測(cè)試集上都達(dá)到了100%,CNN-LSTM和CNN-BiLSTM在測(cè)試集上的識(shí)別準(zhǔn)確率均在95%以上,CNN的識(shí)別準(zhǔn)確率最低。
圖11 各模型在懸臂梁振動(dòng)臺(tái)試驗(yàn)數(shù)據(jù)上的訓(xùn)練曲線FIg.11 Training curves of the models on shaking table test data of cantilever beam
表12 各模型在懸臂梁振動(dòng)臺(tái)試驗(yàn)數(shù)據(jù)上的準(zhǔn)確率Tab.12 Accuracy of the models on shaking table test data of cantilever beam 單位:%
訓(xùn)練好的各種模型在測(cè)試集上對(duì)各種損傷模式的識(shí)別精度,如表13所示。由表13可知:CNN-MA和CNN-LSTM模型對(duì)于各個(gè)損傷模式的識(shí)別均達(dá)到很高的精度,CNN和CNN-BiLSTM模型識(shí)別模式2和模式3時(shí)精度相對(duì)偏低。各種模型識(shí)別各種損傷模式的混淆矩陣,如圖12所示。由圖12可知:CNN-MA和CNN-LSTM能夠不受干擾、非常準(zhǔn)確地識(shí)別所有的損傷模式,可以準(zhǔn)確捕捉到相近模式之間的差別,具有很好的損傷識(shí)別性能;其他模型在識(shí)別損傷模式2和模式3時(shí)會(huì)出現(xiàn)一定程度的相互干擾:CNN在識(shí)別模式2時(shí),100個(gè)樣本中90個(gè)識(shí)別正確,10個(gè)被誤判成模式3,在識(shí)別模式3時(shí)69個(gè)識(shí)別正確,31個(gè)誤判為模式2;CNN-BiLSTM識(shí)別模式2時(shí),100個(gè)樣本中87個(gè)樣本識(shí)別正確,13個(gè)樣本誤判成模式3,識(shí)別模式3時(shí)88個(gè)識(shí)別正確,12個(gè)誤判為模式2。
表13 各模型在振動(dòng)臺(tái)試驗(yàn)數(shù)據(jù)測(cè)試集上的損傷識(shí)別概率Tab.13 Damage identifying probability of the models on test data set from shaking table test
圖12 振動(dòng)臺(tái)試驗(yàn)數(shù)據(jù)測(cè)試集上的損傷識(shí)別混淆矩陣Fig 12 Confusion matrix for damage identification on test data set from shaking table test
本文基于多頭自注意力機(jī)制和CNN,以結(jié)構(gòu)的振動(dòng)加速度信號(hào)為輸入,構(gòu)建了一種結(jié)構(gòu)損傷識(shí)別的CNN-MA模型,并通過(guò)網(wǎng)格搜索給出了模型結(jié)構(gòu)和超參數(shù)取值的建議。模型通過(guò)CNN提取加速度信號(hào)中的局部特征,通過(guò)多頭自注意力機(jī)制對(duì)信號(hào)中不同位置和不同表征空間中的重要信息進(jìn)行關(guān)注,學(xué)習(xí)信號(hào)中的全局特征。在懸臂梁數(shù)值試驗(yàn)和振動(dòng)臺(tái)試驗(yàn)中,CNN-MA模型由于復(fù)雜度低,更加易于訓(xùn)練;由于能夠?qū)崿F(xiàn)對(duì)重要信息的關(guān)注、減少次要因素的干擾,與CNN,CNN-LSTM和CNN-BiLSTM等其他模型相比,CNN-MA模型具有更高的損傷識(shí)別精度和抗噪性以及更強(qiáng)的辨識(shí)能力和抗混淆能力。目前,本文僅對(duì)簡(jiǎn)單結(jié)構(gòu)的損傷模式識(shí)別進(jìn)行了研究,對(duì)于復(fù)雜工程結(jié)構(gòu)的損傷識(shí)別以及損傷程度判別等問(wèn)題需要做進(jìn)一步研究。此外,CNN-MA模型與其他神經(jīng)網(wǎng)絡(luò)模型一樣存在模型優(yōu)化問(wèn)題,本文僅對(duì)有限的網(wǎng)絡(luò)結(jié)構(gòu)和超參數(shù)組合進(jìn)行了比選,需要進(jìn)一步研究高效的模型結(jié)構(gòu)和超參數(shù)的優(yōu)選方法。