亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        循環(huán)神經(jīng)網(wǎng)絡(luò)在結(jié)構(gòu)損傷識(shí)別中的應(yīng)用研究

        2021-07-07 01:32:00王子凡張健飛
        河南科學(xué) 2021年6期
        關(guān)鍵詞:結(jié)構(gòu)

        王子凡,張健飛

        (河海大學(xué)力學(xué)與材料學(xué)院,南京 211100)

        隨著經(jīng)濟(jì)社會(huì)的發(fā)展,我國(guó)興建了一大批重大工程結(jié)構(gòu),這些工程結(jié)構(gòu)在服役的過(guò)程中,由于多種因素的影響,其結(jié)構(gòu)損傷不可避免.為了不影響工程結(jié)構(gòu)的安全使用,準(zhǔn)確有效地檢測(cè)工程結(jié)構(gòu)損傷尤為重要.傳統(tǒng)的結(jié)構(gòu)損傷檢測(cè)技術(shù)有一定的局限性,而基于結(jié)構(gòu)動(dòng)態(tài)響應(yīng)的結(jié)構(gòu)損傷檢測(cè)技術(shù)是利用采集到的振動(dòng)信息,對(duì)發(fā)生在結(jié)構(gòu)上的損傷進(jìn)行檢測(cè),不僅不影響結(jié)構(gòu)的正常使用,而且成本較低,克服了傳統(tǒng)檢測(cè)技術(shù)的缺點(diǎn).結(jié)構(gòu)振動(dòng)信息包括時(shí)序信息和模態(tài)域信息,時(shí)序信息主要包括位移、加速度等,模態(tài)域信息主要包括頻率、振型、模態(tài)應(yīng)變能等.目前,使用模態(tài)域數(shù)據(jù)進(jìn)行損傷識(shí)別是一種比較常見(jiàn)的方法,該方法首先根據(jù)振動(dòng)響應(yīng)數(shù)據(jù)來(lái)識(shí)別結(jié)構(gòu)的模態(tài)參數(shù),然后比較結(jié)構(gòu)損傷前后的模態(tài)參數(shù)[1],或是利用神經(jīng)網(wǎng)絡(luò)[2]及模型修正[3]等方法進(jìn)行損傷檢測(cè),但是由于很多模態(tài)域數(shù)據(jù)對(duì)損傷不敏感,故該方法有其局限性.而大多數(shù)基于時(shí)序數(shù)據(jù)的結(jié)構(gòu)損傷識(shí)別方法是利用時(shí)間序列分析模型提取結(jié)構(gòu)振動(dòng)響應(yīng)在時(shí)間域上的特征來(lái)識(shí)別結(jié)構(gòu)損傷的[4],這些方法使用的是直接測(cè)得的時(shí)序數(shù)據(jù),不需要進(jìn)行各種轉(zhuǎn)換,結(jié)構(gòu)響應(yīng)中與損傷有關(guān)的特征不會(huì)產(chǎn)生數(shù)值誤差,所以其優(yōu)勢(shì)相對(duì)更加突出.

        近年來(lái),隨著深度學(xué)習(xí)的不斷發(fā)展,一些深度學(xué)習(xí)的模型,如卷積神經(jīng)網(wǎng)絡(luò)、循環(huán)神經(jīng)網(wǎng)絡(luò)等,也被應(yīng)用到基于時(shí)序數(shù)據(jù)的異常檢測(cè)之中.2016年,Kiranyaz等[5]首次利用一維卷積神經(jīng)網(wǎng)絡(luò)對(duì)病人特定情況下的心電圖進(jìn)行分類(lèi)檢測(cè),其結(jié)果表明卷積神經(jīng)網(wǎng)絡(luò)在心室異位搏動(dòng)和室上異位搏動(dòng)的檢測(cè)上具有很好的分類(lèi)性能,其分類(lèi)準(zhǔn)確率分別為99%、97.6%.陳偉等[6]使用隨機(jī)搜索和長(zhǎng)短期記憶(Long Short-Term Memory,LSTM)循環(huán)神經(jīng)網(wǎng)絡(luò)對(duì)滾動(dòng)軸承故障識(shí)別的研究表明,這種模型的診斷準(zhǔn)確度可以達(dá)到99.8%以上,與支持向量回歸機(jī)、粒子群算法最小二乘支持向量機(jī)等典型時(shí)間序列預(yù)測(cè)模型相比,在擬合和預(yù)測(cè)性能方面具有更高的準(zhǔn)確度.結(jié)構(gòu)損傷檢測(cè)的深度學(xué)習(xí)模型目前主要集中于卷積神經(jīng)網(wǎng)絡(luò).張盼盼等[7]建立了卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)薄板損傷識(shí)別模型,其結(jié)果表明卷積神經(jīng)網(wǎng)絡(luò)在噪聲環(huán)境下具有良好的識(shí)別能力.汪洋等[8]提出了一種基于CNN和門(mén)控循環(huán)單元(Gated Recurren Unit,GRU)神經(jīng)網(wǎng)絡(luò)的減速機(jī)軸承故障診斷方法,結(jié)果表明其故障識(shí)別率可以達(dá)到94%以上,具有較強(qiáng)的泛化能力.Abdeljaber等[9]將卷積神經(jīng)網(wǎng)絡(luò)用于看臺(tái)模擬器的損傷檢測(cè),利用卷積神經(jīng)網(wǎng)絡(luò)分析其振動(dòng)信號(hào),結(jié)果表明卷積神經(jīng)網(wǎng)絡(luò)在實(shí)時(shí)監(jiān)測(cè)計(jì)算時(shí)具有良好的效率.

        本文對(duì)循環(huán)神經(jīng)網(wǎng)絡(luò)在結(jié)構(gòu)損傷識(shí)別中的應(yīng)用進(jìn)行了研究,首先利用循環(huán)神經(jīng)網(wǎng)絡(luò)直接提取結(jié)構(gòu)加速度時(shí)序數(shù)據(jù)中的特征進(jìn)行損傷識(shí)別;然后基于某重力壩有限元模型生成的不同噪聲水平的加速度數(shù)據(jù)對(duì)循環(huán)神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練和測(cè)試;最后采用網(wǎng)格搜索和隨機(jī)搜索兩種方法對(duì)循環(huán)神經(jīng)網(wǎng)絡(luò)的超參數(shù)進(jìn)行優(yōu)化,并比較了這兩種方法的優(yōu)缺點(diǎn).

        圖1 RNN細(xì)胞結(jié)構(gòu)Fig.1 RNN cell structure

        1 循環(huán)神經(jīng)網(wǎng)絡(luò)

        循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,RNN)是一種增加了由自身的本時(shí)刻輸出指向下一時(shí)刻輸入的循環(huán)連接的人工神經(jīng)網(wǎng)絡(luò)[10],其通過(guò)新的連接方式將時(shí)間序列的概念引進(jìn)到網(wǎng)絡(luò)結(jié)構(gòu)的設(shè)計(jì)中.RNN的結(jié)構(gòu)決定了其可以利用時(shí)間序列的歷史信息對(duì)時(shí)序數(shù)據(jù)建模以進(jìn)行序列識(shí)別以及預(yù)測(cè).一個(gè)基礎(chǔ)的RNN包含輸入層、隱藏層和輸出層.圖1展示了一個(gè)RNN隱藏層細(xì)胞結(jié)構(gòu).

        圖1中:輸入至輸入層的是一段關(guān)于時(shí)間t的向量(…,xt-1,xt,xt+1,…),其中xt=(x1,x2,…,xN),t≥1;f為激活函數(shù);ht為t時(shí)刻隱藏層輸出序列;ht-1為t-1時(shí)刻指向t時(shí)刻的隱藏層輸出序列;yt為t時(shí)刻輸出層輸出序列.

        t時(shí)刻隱藏層及輸出層序列的計(jì)算方法如式(1)和式(2)所示.

        式中:fh為隱藏層激活函數(shù);Wxh為輸入數(shù)據(jù)至隱藏層的權(quán)重矩陣;Whh為當(dāng)前時(shí)刻隱藏層至下一時(shí)刻隱藏層的權(quán)重矩陣;bh為隱藏層偏置.

        式中:fy為輸出層激活函數(shù);Who為隱藏層至輸出層的權(quán)重矩陣;by為輸出層偏置.

        因?yàn)镽NN中存在梯度爆炸和梯度消失的問(wèn)題[11],所以RNN在長(zhǎng)期學(xué)習(xí)方面表現(xiàn)十分薄弱,為了解決這個(gè)問(wèn)題,Hochreiter等[11]在1977年首次提出了長(zhǎng)短期記憶(LSTM)循環(huán)神經(jīng)網(wǎng)絡(luò).LSTM循環(huán)神經(jīng)網(wǎng)絡(luò)可以有效解決梯度爆炸及梯度消失問(wèn)題,使得循環(huán)神經(jīng)網(wǎng)絡(luò)能夠真正有效地利用長(zhǎng)距離的時(shí)序數(shù)據(jù).LSTM循環(huán)神經(jīng)網(wǎng)絡(luò)已經(jīng)被大量用于序列學(xué)習(xí)相關(guān)的任務(wù)中,比如語(yǔ)音識(shí)別[12-13]、語(yǔ)言模型[14-15]等.LSTM循環(huán)神經(jīng)網(wǎng)絡(luò)使用了記憶細(xì)胞來(lái)代替一般循環(huán)神經(jīng)網(wǎng)絡(luò)中的隱藏層細(xì)胞,有效解決了梯度爆炸及梯度消失問(wèn)題,記憶細(xì)胞的輸入和輸出都由一些門(mén)控單元來(lái)控制,這些門(mén)控單元控制流向隱藏層單元的信息,遺忘門(mén)決定從上一個(gè)細(xì)胞狀態(tài)中丟棄什么信息,輸入門(mén)將新的信息選擇性的記錄至細(xì)胞狀態(tài)中,輸出門(mén)將信息傳遞出去.經(jīng)過(guò)長(zhǎng)時(shí)間的演化,目前應(yīng)用最為廣泛的LSTM循環(huán)神經(jīng)網(wǎng)絡(luò)單元結(jié)構(gòu)如圖2所示.

        圖2中:i、f、c、o、h分別代表輸入門(mén)、遺忘門(mén)、細(xì)胞狀態(tài)、輸出門(mén)以及隱藏層輸出序列;t表示時(shí)刻(舉例來(lái)說(shuō),即ct表示t時(shí)刻的細(xì)胞狀態(tài)輸出序列,ct-1即為t-1時(shí)刻的細(xì)胞狀態(tài)輸出序列,xt為t時(shí)刻的輸入層輸入序列,yt為t時(shí)刻輸出層輸出序列);σ為sigmoid函數(shù);tanh為雙曲正切激活函數(shù).

        t時(shí)刻輸入門(mén)輸出序列的計(jì)算方法如式(3)所示:

        圖2 LSTM循環(huán)神經(jīng)網(wǎng)絡(luò)細(xì)胞結(jié)構(gòu)Fig.2 Cell structure of LSTM recurrent neural network

        式(3)中:Wxi表示輸入數(shù)據(jù)到輸入門(mén)的權(quán)重矩陣;Whi表示上一時(shí)刻隱藏層至本時(shí)刻輸入門(mén)的權(quán)重矩陣;Wci表示上一時(shí)刻細(xì)胞狀態(tài)至本時(shí)刻輸入門(mén)的權(quán)重矩陣;bi為輸入門(mén)的偏置.

        t時(shí)刻遺忘門(mén)輸出序列的計(jì)算方法如式(4)所示:

        式(4)中:Wxf表示輸入數(shù)據(jù)到遺忘門(mén)的權(quán)重矩陣;Whf表示上一時(shí)刻隱藏層至本時(shí)刻遺忘門(mén)的權(quán)重矩陣;Wcf表示上一時(shí)刻細(xì)胞狀態(tài)至本時(shí)刻遺忘門(mén)的權(quán)重矩陣;bf為遺忘門(mén)的偏置.

        t時(shí)刻細(xì)胞狀態(tài)輸出序列的計(jì)算方法如式(5)所示:

        式(5)中:Wxc表示輸入數(shù)據(jù)至細(xì)胞狀態(tài)的權(quán)重矩陣;Whc表示上一時(shí)刻隱藏層至本時(shí)刻細(xì)胞狀態(tài)的權(quán)重矩陣;bc為細(xì)胞狀態(tài)的偏置.

        t時(shí)刻輸出門(mén)輸出序列的計(jì)算方法如式(6)所示:

        式(6)中:Wxo表示輸入數(shù)據(jù)至輸出門(mén)的權(quán)重矩陣;Who表示上一時(shí)刻隱藏層至本時(shí)刻輸出門(mén)的權(quán)重矩陣;Wco表示上一時(shí)刻細(xì)胞狀態(tài)至本時(shí)刻輸出門(mén)的權(quán)重矩陣;bo為輸出門(mén)的偏置.

        最終t時(shí)刻隱藏層輸出序列的計(jì)算方法如式(7)所示:

        sigmoid函數(shù)σ(x)與雙曲正切激活函數(shù)tanh(x)如式(8)與式(9)所示,x表示待激活的序列:

        圖3 GRU神經(jīng)網(wǎng)絡(luò)細(xì)胞結(jié)構(gòu)Fig.3 Cell structure of GRU neural network

        除此之外,LSTM循環(huán)神經(jīng)網(wǎng)絡(luò)也有很多改進(jìn)網(wǎng)絡(luò),門(mén)控循環(huán)單元(Gated Recurrent Unit,GRU)神經(jīng)網(wǎng)絡(luò)是其中比較成功的一種[16].GRU神經(jīng)網(wǎng)絡(luò)在保持LSTM循環(huán)神經(jīng)網(wǎng)絡(luò)效果的基礎(chǔ)上精簡(jiǎn)了結(jié)構(gòu),減少了超參數(shù)的數(shù)量.相比LSTM循環(huán)神經(jīng)網(wǎng)絡(luò)的三種門(mén)控單元,GRU神經(jīng)網(wǎng)絡(luò)使用更新門(mén)和重置門(mén)來(lái)達(dá)到相似的效果,更新門(mén)用于控制前一個(gè)時(shí)間步的信息被帶入當(dāng)前狀態(tài)的程度,重置門(mén)用于控制舍棄前一個(gè)時(shí)間步信息的程度.GRU神經(jīng)網(wǎng)絡(luò)單元結(jié)構(gòu)如圖3所示.

        圖3中:r、z、hˉ、h分別代表重置門(mén)輸出序列、更新門(mén)輸出序列、隱藏層預(yù)備輸出序列以及隱藏層輸出序列;xt為t時(shí)刻輸入層輸入序列;yt為t時(shí)刻輸出層輸出序列;t表示時(shí)刻;σ為sigmoid函數(shù);tanh為雙曲正切激活函數(shù).

        t時(shí)刻重置門(mén)輸出序的列計(jì)算方法如式(10)所示:

        式(10)中:Wxr表示輸入數(shù)據(jù)至重置門(mén)的權(quán)重矩陣;Whr表示上一時(shí)刻隱藏層至本時(shí)刻重置門(mén)的權(quán)重矩陣.

        t時(shí)刻更新門(mén)輸出序列的計(jì)算方法如式(11)所示:

        式(11)中:Wxz表示輸入數(shù)據(jù)至更新門(mén)的權(quán)重矩陣;Whz表示上一時(shí)刻隱藏層至本時(shí)刻更新門(mén)的權(quán)重矩陣.

        t時(shí)刻隱藏層預(yù)備輸出序列的計(jì)算方法如式(12)所示:

        式(12)中:Wrh表示重置門(mén)至更新門(mén)的權(quán)重矩陣;Wxh為輸入數(shù)據(jù)至隱藏層的權(quán)重矩陣.

        最終t時(shí)刻隱藏層輸出序列的計(jì)算方法如式(13)所示:

        樣本序列在輸入至三種循環(huán)神經(jīng)網(wǎng)絡(luò)隱藏層細(xì)胞后,經(jīng)過(guò)對(duì)數(shù)據(jù)特征的提取和傳遞,通過(guò)最后一個(gè)細(xì)胞將結(jié)果輸出至輸出層.輸出層后加入全連接層,用以損傷工況的識(shí)別分類(lèi).在本文中,全連接層使用激活函數(shù)Softmax函數(shù),這個(gè)函數(shù)的作用就是將每個(gè)損傷類(lèi)別所對(duì)應(yīng)的輸出序列歸一化,其計(jì)算如式(14)所示.

        式(14)中:yi、yj分別為神經(jīng)網(wǎng)絡(luò)的全連接層輸出序列{y1,y2,…,yi,…,yj,…,yn}這n個(gè)分量中的一個(gè),它們分別對(duì)應(yīng)一種損傷工況,n≥2.

        本文的損失函數(shù)選擇用于多分類(lèi)的交叉熵?fù)p失函數(shù)[17],即在Softmax函數(shù)將神經(jīng)網(wǎng)絡(luò)的輸出序列變成一個(gè)概率分布后,通過(guò)交叉熵?fù)p失函數(shù)來(lái)計(jì)算預(yù)測(cè)的概率分布和實(shí)際的概率分布之間的距離,其值為無(wú)量綱.計(jì)算方法如式(15)所示,其所計(jì)算出來(lái)的損失值J越低越好.

        式中:K為多分類(lèi)的種類(lèi)數(shù)量,此處為損傷工況數(shù);p為真實(shí)概率,如果損傷類(lèi)別是i,則pi=1,否則為0;y′i為經(jīng)由式(14)所示的Softmax函數(shù)計(jì)算得來(lái)的輸出值,即損傷工況i的預(yù)測(cè)概率.

        2 數(shù)值實(shí)驗(yàn)

        2.1 實(shí)驗(yàn)數(shù)據(jù)

        訓(xùn)練和測(cè)試數(shù)據(jù)均采用某重力壩的二維有限元模型生成,壩底施加水平向和垂直向的白噪聲加速度以模擬環(huán)境激勵(lì)下的壩體動(dòng)力響應(yīng),計(jì)算時(shí)間步長(zhǎng)為0.005 s,采用Rayleigh阻尼.考慮到重力壩上游面深層水平裂縫比較常見(jiàn)且具有較大的危害性[18],本文在壩體上游面不同高程處設(shè)置一條深2 m的水平裂縫以模擬不同位置的損傷,下游面設(shè)置10個(gè)測(cè)點(diǎn)測(cè)量壩體水平向加速度,壩體有限元網(wǎng)格、測(cè)點(diǎn)位置和裂縫位置如圖4所示,不同工況如表1所示.壩體加速度信號(hào)采樣頻率為200 Hz,共生成時(shí)長(zhǎng)為250 s的9組不同損傷位置(含無(wú)損傷)的訓(xùn)練集數(shù)據(jù),將其中20%劃分為驗(yàn)證集,每條數(shù)據(jù)由10個(gè)測(cè)點(diǎn)數(shù)據(jù)以及標(biāo)簽組成,每組工況共生成5萬(wàn)條數(shù)據(jù),以及時(shí)長(zhǎng)為20 s的測(cè)試集數(shù)據(jù).

        圖4 有限元網(wǎng)絡(luò)、測(cè)點(diǎn)位置和裂縫位置Fig.4 Finite element grid,measuring point location and crack location

        表1 不同工況設(shè)置Tab.1 The setting of different working conditions

        2.2 不同循環(huán)神經(jīng)網(wǎng)絡(luò)的比較

        為了對(duì)比三種不同循環(huán)神經(jīng)網(wǎng)絡(luò)的性能,在相同數(shù)據(jù)集以及相同超參數(shù)組合下,將三種循環(huán)神經(jīng)網(wǎng)絡(luò)迭代200次進(jìn)行比較,實(shí)驗(yàn)結(jié)果如圖5及表2所示,表中準(zhǔn)確率保留一位小數(shù),損失值保留兩位小數(shù).由表2可以看出,與其他兩種循環(huán)神經(jīng)網(wǎng)絡(luò)相比,LSTM循環(huán)神經(jīng)網(wǎng)絡(luò)對(duì)所有工況的識(shí)別準(zhǔn)確率均比RNN以及GRU神經(jīng)網(wǎng)絡(luò)高,其中對(duì)工況1、工況2和工況3的識(shí)別準(zhǔn)確率均達(dá)到了100%.LSTM循環(huán)神經(jīng)網(wǎng)絡(luò)對(duì)于工況0的識(shí)別準(zhǔn)確率比GRU神經(jīng)網(wǎng)絡(luò)高14.4%,比RNN高46.5%;LSTM循環(huán)神經(jīng)網(wǎng)絡(luò)的驗(yàn)證集識(shí)別準(zhǔn)確率比GRU神經(jīng)網(wǎng)絡(luò)高2.2%,比RNN高36.1%.根據(jù)圖5可知,GRU神經(jīng)網(wǎng)絡(luò)和LSTM循環(huán)神經(jīng)網(wǎng)絡(luò)的損失曲線趨勢(shì)較為相似,LSTM循環(huán)神經(jīng)網(wǎng)絡(luò)損失值最低下探至0.29,GRU神經(jīng)網(wǎng)絡(luò)的損失值最低下探至0.21,RNN的損失值最低下探至0.77.LSTM循環(huán)神經(jīng)網(wǎng)絡(luò)的耗時(shí)均多于另外兩種循環(huán)神經(jīng)網(wǎng)絡(luò),主要是由于LSTM循環(huán)神經(jīng)網(wǎng)絡(luò)所需要訓(xùn)練的超參數(shù)數(shù)量更多,網(wǎng)絡(luò)結(jié)構(gòu)更為復(fù)雜.綜合來(lái)看,在三種循環(huán)神經(jīng)網(wǎng)絡(luò)中,LSTM循環(huán)神經(jīng)網(wǎng)絡(luò)的綜合性能與RNN相比提升很大,與GRU神經(jīng)網(wǎng)絡(luò)相比略有提升.

        表2 三種循環(huán)神經(jīng)網(wǎng)絡(luò)的準(zhǔn)確率和損失值對(duì)比Tab.2 Comparison of accuracy rates and loss values of three kinds of recurrent neural networks

        圖5 相同參數(shù)下三種循環(huán)神經(jīng)網(wǎng)絡(luò)的驗(yàn)證集識(shí)別準(zhǔn)確率和損失值對(duì)比Fig.5 Comparison of verification set identification accuracy rates and loss values of three kinds of recurrent neural networks under the same parameters

        2.3 超參數(shù)優(yōu)選

        在本文2.2小節(jié)中,循環(huán)神經(jīng)網(wǎng)絡(luò)訓(xùn)練所涉及的超參數(shù)是根據(jù)經(jīng)驗(yàn)選取的,為了達(dá)到更好的效果,本文選擇綜合性能更優(yōu)的LSTM循環(huán)神經(jīng)網(wǎng)絡(luò)作為優(yōu)化對(duì)象,采取優(yōu)化算法對(duì)超參數(shù)進(jìn)行優(yōu)選.LSTM循環(huán)神經(jīng)網(wǎng)絡(luò)的超參數(shù)優(yōu)選主要集中于3個(gè)超參數(shù):樣本長(zhǎng)度L,前饋網(wǎng)絡(luò)層隱藏神經(jīng)元數(shù)量,又稱狀態(tài)向量大小Sstate以及控制網(wǎng)絡(luò)調(diào)參幅度的學(xué)習(xí)率η.使用網(wǎng)格搜索及隨機(jī)搜索對(duì)其進(jìn)行優(yōu)化.網(wǎng)格搜索根據(jù)超參數(shù)的個(gè)數(shù)來(lái)確定網(wǎng)格搜索的空間維度,在每個(gè)維度上劃分網(wǎng)格,然后遍歷所有的網(wǎng)格交叉點(diǎn),根據(jù)網(wǎng)格交叉點(diǎn)所給出的結(jié)果來(lái)確定最佳超參數(shù).相比于其他的超參數(shù)優(yōu)化方法(比如粒子群算法、蟻群算法等),這種方法更簡(jiǎn)單實(shí)用[19].網(wǎng)格搜索的搜索過(guò)程主要分為三步:首先將重要性較低的超參數(shù)固定,比如網(wǎng)絡(luò)迭代的次數(shù)epochs,在本文的搜索過(guò)程中,迭代次數(shù)取值100;接著設(shè)定3個(gè)超參數(shù)的取值范圍,學(xué)習(xí)率η∈{0.000 1,0.001,0.01},樣本長(zhǎng)度L∈{200,150,100,50,20},狀態(tài)向量大小Sstate∈{16,32,48,64};最后,將目標(biāo)函數(shù)LSTM循環(huán)神經(jīng)網(wǎng)絡(luò)測(cè)試集的識(shí)別準(zhǔn)確率設(shè)置為最高.表3給出了每一個(gè)網(wǎng)格交叉點(diǎn)對(duì)應(yīng)的超參數(shù)組合構(gòu)建的LSTM循環(huán)神經(jīng)網(wǎng)絡(luò)在測(cè)試集上的識(shí)別準(zhǔn)確率,結(jié)果保留一位小數(shù).

        由表3可以看出,在相同的學(xué)習(xí)率及樣本長(zhǎng)度下,狀態(tài)向量大小為48或64時(shí),LSTM循環(huán)神經(jīng)網(wǎng)絡(luò)更容易獲得較高的識(shí)別準(zhǔn)確率;樣本長(zhǎng)度在100或是150時(shí),LSTM循環(huán)神經(jīng)網(wǎng)絡(luò)的測(cè)試集識(shí)別準(zhǔn)確率最高,表明分類(lèi)的效果相對(duì)最好.學(xué)習(xí)率為0.001時(shí),所獲得的LSTM循環(huán)神經(jīng)網(wǎng)絡(luò)分類(lèi)的效果最好;學(xué)習(xí)率為0.000 1時(shí),LSTM循環(huán)神經(jīng)網(wǎng)絡(luò)的測(cè)試集識(shí)別準(zhǔn)確率較低,這是由于過(guò)小的學(xué)習(xí)率導(dǎo)致?lián)p失函數(shù)的變化很慢,使得LSTM循環(huán)神經(jīng)網(wǎng)絡(luò)很容易困在局部最小值點(diǎn).

        在選定了優(yōu)化超參數(shù)后,選擇排名第一的最優(yōu)超參數(shù),使其充分迭代200次,200次迭代后LSTM循環(huán)神經(jīng)網(wǎng)絡(luò)測(cè)試集的識(shí)別準(zhǔn)確率最高可達(dá)到98.1%,損失值最低下探至0.114 7,與根據(jù)經(jīng)驗(yàn)選擇的超參數(shù)組合相比,準(zhǔn)確率大大提升.

        網(wǎng)格搜索帶來(lái)的一個(gè)明顯問(wèn)題是,計(jì)算代價(jià)會(huì)隨著超參數(shù)數(shù)量的增多而成指數(shù)倍增長(zhǎng),很浪費(fèi)計(jì)算資源,因此,隨機(jī)搜索應(yīng)運(yùn)而生.隨機(jī)搜索與網(wǎng)格搜索不同,搜索空間可以不是離散的,這就允許隨機(jī)搜索在同樣的計(jì)算資源下嘗試更多的超參數(shù)組合[20],如圖6所示.

        表3 網(wǎng)格搜索結(jié)果Tab.3 The results of grid search

        圖6直觀地闡述了網(wǎng)格搜索和隨機(jī)搜索的不同.圖中橫軸代表對(duì)網(wǎng)絡(luò)性能影響更大的重要超參數(shù),縱軸為影響較小的不重要超參數(shù).由圖6可以看出在搜索相同次數(shù)的情況下,網(wǎng)格搜索將大量的計(jì)算資源浪費(fèi)在了對(duì)網(wǎng)絡(luò)性能影響不大的超參數(shù)中,而隨機(jī)搜索幾乎每一次都測(cè)試了對(duì)結(jié)果有影響的每個(gè)超參數(shù)獨(dú)一無(wú)二的值,也就是說(shuō),隨機(jī)搜索嘗試了更多有益的超參數(shù)組合.

        使用隨機(jī)搜索對(duì)相同的三個(gè)超參數(shù)進(jìn)行搜索,三個(gè)超參數(shù)的取值范圍為:η∈(0.000 1,0.01),L∈(20,200),Sstate∈(16,64).搜索完成后使用搜索出的超參數(shù)構(gòu)建LSTM循環(huán)神經(jīng)網(wǎng)絡(luò),迭代200次.將使用隨機(jī)搜索得出的迭代結(jié)果與使用網(wǎng)格搜索得出的迭代結(jié)果進(jìn)行對(duì)比,如表4所示.

        圖6 網(wǎng)格搜索與隨機(jī)搜索的比較Fig.6 Comparison between grid search and random search

        表4 兩種搜索方法迭代結(jié)果的比較Tab.4 Comparison of interation results of two search methods

        由表4可以看出,在犧牲了少許驗(yàn)證集識(shí)別準(zhǔn)確率及單個(gè)工況識(shí)別準(zhǔn)確率后,隨機(jī)搜索比網(wǎng)格搜索用時(shí)縮短了85.2%,表明隨機(jī)搜索可以在保證一定準(zhǔn)確率的基礎(chǔ)上大大提升計(jì)算效率,同時(shí)也說(shuō)明LSTM循環(huán)神經(jīng)網(wǎng)絡(luò)對(duì)結(jié)構(gòu)損傷識(shí)別的效果良好,幾乎能精準(zhǔn)識(shí)別出每一個(gè)樣本的工況狀況.

        3 結(jié)論

        分別將傳統(tǒng)循環(huán)神經(jīng)網(wǎng)絡(luò)、LSTM循環(huán)神經(jīng)網(wǎng)絡(luò)和門(mén)控循環(huán)單元神經(jīng)網(wǎng)絡(luò)應(yīng)用于基于振動(dòng)的結(jié)構(gòu)損傷識(shí)別,基于重力壩有限元數(shù)值模擬動(dòng)力數(shù)據(jù)比較了這三種循環(huán)神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)損傷識(shí)別性能,并采用網(wǎng)格搜索及隨機(jī)搜索對(duì)LSTM循環(huán)神經(jīng)網(wǎng)絡(luò)的超參數(shù)進(jìn)行優(yōu)選,得出的結(jié)論如下:

        1)基于循環(huán)神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)損傷檢測(cè)方法能夠有效地識(shí)別結(jié)構(gòu)的損傷,相比傳統(tǒng)的循環(huán)神經(jīng)網(wǎng)絡(luò)以及門(mén)控循環(huán)單元神經(jīng)網(wǎng)絡(luò),LSTM循環(huán)神經(jīng)網(wǎng)絡(luò)的識(shí)別準(zhǔn)確率更高.

        2)LSTM循環(huán)神經(jīng)網(wǎng)絡(luò)在訓(xùn)練時(shí)對(duì)超參數(shù)選取比較敏感,基于網(wǎng)格搜索的超參數(shù)優(yōu)化方法效果較好,但是效率不高,而隨機(jī)搜索可在保證一定準(zhǔn)確率的前提下,大幅縮短搜索時(shí)間,提高計(jì)算效率.在選定了優(yōu)化超參數(shù)后,LSTM循環(huán)神經(jīng)網(wǎng)絡(luò)的識(shí)別準(zhǔn)確率大幅提高.

        目前本文對(duì)基于循環(huán)神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)損傷識(shí)別技術(shù)只是進(jìn)行了初步研究,而對(duì)多裂縫損傷識(shí)別、混合噪聲抗噪性等問(wèn)題的研究還需要加強(qiáng),需要進(jìn)一步通過(guò)試驗(yàn)和實(shí)際工程對(duì)識(shí)別方法進(jìn)行驗(yàn)證和改進(jìn).

        猜你喜歡
        結(jié)構(gòu)
        DNA結(jié)構(gòu)的發(fā)現(xiàn)
        《形而上學(xué)》△卷的結(jié)構(gòu)和位置
        論結(jié)構(gòu)
        新型平衡塊結(jié)構(gòu)的應(yīng)用
        模具制造(2019年3期)2019-06-06 02:10:54
        循環(huán)結(jié)構(gòu)謹(jǐn)防“死循環(huán)”
        論《日出》的結(jié)構(gòu)
        縱向結(jié)構(gòu)
        縱向結(jié)構(gòu)
        我國(guó)社會(huì)結(jié)構(gòu)的重建
        人間(2015年21期)2015-03-11 15:23:21
        創(chuàng)新治理結(jié)構(gòu)促進(jìn)中小企業(yè)持續(xù)成長(zhǎng)
        亚洲女人被黑人巨大进入| 全亚洲高清视频在线观看| 全免费a级毛片免费看无码 | 亚洲av纯肉无码精品动漫| 欧美日韩一区二区三区色综合| 国产精品一级黄色大片| 97cp在线视频免费观看 | 日本免费人成视频播放| 日韩在线不卡一区在线观看| 日韩精品午夜视频在线| 欧美xxxxx在线观看| 亚洲欧洲无码av不卡在线| 久久久久一| 国产91在线播放九色快色| 夜夜爽妓女8888888视频| 99久久免费看少妇高潮a片特黄| 亚洲色四在线视频观看| 亚洲女同系列在线观看| 色欲综合一区二区三区| 国产精品露脸视频观看| 久久久亚洲精品一区二区| 日本在线一区二区三区视频观看 | 中文字幕人妻互换激情| 亚洲av乱码一区二区三区按摩 | 无套内谢的新婚少妇国语播放| 日韩中文字幕精品免费一区| 国产一级内射一片视频免费 | 国产精品无码无片在线观看3d| 国产一及毛片| 国语自产啪在线观看对白| 亚洲欧洲日产国码av系列天堂| 国产精品jizz视频| 国产v精品成人免费视频400条| 人妻精品久久一区二区三区| 蜜臀av午夜一区二区三区| 亚洲欧洲日本精品| 国产精品高清一区二区三区人妖 | 精品婷婷国产综合久久| 日本大骚b视频在线| 香蕉色香蕉在线视频| 国产成人久久精品二区三区|