亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于卷積神經(jīng)網(wǎng)絡(luò)和遷移學(xué)習(xí)的結(jié)構(gòu)損傷識別

        2022-07-13 07:52:46駱劍彬劉越生姜紹飛麻勝蘭
        關(guān)鍵詞:識別率加速度卷積

        駱劍彬,劉越生,姜紹飛, 麻勝蘭

        (1. 福州大學(xué)土木工程學(xué)院,福建 福州 350108; 2. 福建華航建設(shè)集團(tuán)有限公司,福建 福州 350001; 3. 福建工程學(xué)院土木工程學(xué)院,福建 福州 350118)

        0 引言

        隨著社會經(jīng)濟(jì)的發(fā)展與科技進(jìn)步,越來越多的大型工程結(jié)構(gòu)安裝了結(jié)構(gòu)健康監(jiān)測系統(tǒng)[1]. 為了對這些結(jié)構(gòu)健康監(jiān)測系統(tǒng)產(chǎn)生的海量數(shù)據(jù)進(jìn)行實(shí)時(shí)損傷識別,國內(nèi)外學(xué)者做出了很多研究,但實(shí)際應(yīng)用還不是很理想[2]. 傳統(tǒng)的全局損傷識別方法,特別是基于振動的損傷識別方法,一般地可以分為參數(shù)(基于模態(tài))方法和非參數(shù)方法(基于信號). 在參數(shù)方法中,系統(tǒng)辨識算法通過對模態(tài)參數(shù)變化的辨識來識別結(jié)構(gòu)損傷; 另一方面,非參數(shù)方法采用統(tǒng)計(jì)方法直接通過測量信號識別結(jié)構(gòu)損傷[3]. 近年來,國內(nèi)外學(xué)者廣泛使用由特征提取和特征分類組成的機(jī)器學(xué)習(xí)方法發(fā)展了一系列的損傷識別技術(shù). 該技術(shù)主要包括在基于參數(shù)方法的特征分類技術(shù),如多層人工神經(jīng)網(wǎng)絡(luò)[3]、概率神經(jīng)網(wǎng)絡(luò)[4]、模糊神經(jīng)網(wǎng)絡(luò)[5]和支持向量機(jī)[6]等,以及基于非參數(shù)方法的特征提取技術(shù),如統(tǒng)計(jì)方法、主成分分析、小波變換、希-黃變換、自回歸模型和貝葉斯模型等[7-11]. 在進(jìn)行該方法的特征提取時(shí),一般只保留少數(shù)的特征信息,其他大量的信息被擯棄,直接導(dǎo)致結(jié)構(gòu)損傷識別率低. 同時(shí),特征提取準(zhǔn)確性制約著損傷識別率,如果特征的準(zhǔn)確性難以保證,尤其在有噪聲干擾的情況下,監(jiān)測數(shù)據(jù)的特征提取將會受到很大的影響. 此外,如果特征提取的數(shù)據(jù)太多會導(dǎo)致計(jì)算十分耗時(shí),阻礙這些技術(shù)在實(shí)時(shí)健康監(jiān)測方面的應(yīng)用. 因此,若能夠?qū)⑻卣魈崛『头诸惼骶o密融合為一體,自適應(yīng)提取特征,同時(shí)將多監(jiān)測節(jié)點(diǎn)的海量數(shù)據(jù)進(jìn)行融合識別,將極大程度的提升該問題的穩(wěn)定性.

        大數(shù)據(jù)挖掘、深度學(xué)習(xí)等AI技術(shù)的發(fā)展及其在損傷檢測中的應(yīng)用,為上述難題的解決提供了思路. 作為AI中應(yīng)用比較廣泛的卷積神經(jīng)網(wǎng)絡(luò)已經(jīng)在光學(xué)圖像的目標(biāo)識別、檢測及基于振動的結(jié)構(gòu)損傷識別方面有廣泛的應(yīng)用,并用于建筑、路面、橋梁的病害檢測中[12-14]. 如Abdeljaber等[12]最早將卷積網(wǎng)絡(luò)應(yīng)用于基于振動的結(jié)構(gòu)損傷識別中,采用一維卷積網(wǎng)絡(luò)直接利用加速度時(shí)域信號判斷當(dāng)前位置的損傷狀況; Xu等[13]提出改進(jìn)快速區(qū)域卷積神經(jīng)網(wǎng)絡(luò),用于對地震后多層鋼筋混凝土柱的損傷識別和定位; 何浩祥等[14]將結(jié)構(gòu)響應(yīng)信號進(jìn)行小波包濾波和重構(gòu),提出基于卷積神經(jīng)網(wǎng)絡(luò)的橋梁損傷識別方法; Choe等[15]使用長短期記憶和門控循環(huán)單元神經(jīng)網(wǎng)絡(luò)對浮動式海上風(fēng)力渦輪機(jī)葉片進(jìn)行結(jié)構(gòu)損壞檢測. 這些開拓性的工作有力地促進(jìn)了深度學(xué)習(xí)在損傷識別方面的應(yīng)用. 但是深度學(xué)習(xí)模型的隱含層數(shù)和參數(shù)過多,從零開始訓(xùn)練深度神經(jīng)網(wǎng)絡(luò)模型需要大量數(shù)據(jù)、高計(jì)算成本和時(shí)間成本. 而實(shí)際損傷識別案例中損傷數(shù)據(jù)較少,難以訓(xùn)練出有效的深度學(xué)習(xí)模型. 趙燁[16]在數(shù)據(jù)集數(shù)據(jù)較少的情況下進(jìn)行兩次遷移學(xué)習(xí),提高了卷積神經(jīng)網(wǎng)絡(luò)的葉片損傷識別精度; Lin等[17]開發(fā)深度遷移學(xué)習(xí)方法企圖數(shù)值跨域結(jié)構(gòu)損傷檢測問題; 劉肖等[18]通過TL方法將源模型的權(quán)重和參數(shù)轉(zhuǎn)移到目標(biāo)模型上,提升模型損傷識別精度. 這些工作表明對網(wǎng)絡(luò)模型進(jìn)行遷移學(xué)習(xí),可以減小實(shí)際網(wǎng)絡(luò)模型訓(xùn)練所需的樣本數(shù)量,提高模型識別精度.

        本研究提出一種基于多通道一維卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural network, CNN)和遷移學(xué)習(xí)的新穎、快速結(jié)構(gòu)損傷識別方法. 首先根據(jù)損傷特征向量特點(diǎn),對不同安裝位置的原始加速度信號進(jìn)行分幀處理; 其次考慮多傳感器數(shù)據(jù)融合要求,將包含損傷特征的分幀數(shù)據(jù)作為卷積神經(jīng)網(wǎng)絡(luò)的輸入數(shù)據(jù),充分利用卷積神經(jīng)網(wǎng)絡(luò)的自動特征提取能力對分幀數(shù)據(jù)進(jìn)行分類,實(shí)現(xiàn)損傷識別; 然后分別采用不同通道和噪聲水平下的加速度數(shù)據(jù)對15層框架數(shù)值模型進(jìn)行損傷識別; 最后在此基礎(chǔ)上,將該方法進(jìn)行遷移學(xué)習(xí),移植到試驗(yàn)?zāi)P蜕?,對一個(gè)7層框架試驗(yàn)?zāi)P瓦M(jìn)行損傷識別,驗(yàn)證該方法在結(jié)構(gòu)損傷識別、定位方面的可行性和準(zhǔn)確性.

        1 方法介紹

        圖1 算法整體流程圖Fig.1 Flow chart of the overall algorithm

        以卷積神經(jīng)網(wǎng)絡(luò)為代表的深度學(xué)習(xí)模型,利用優(yōu)良的損傷特征向量進(jìn)行訓(xùn)練和建模顯著提高了損傷識別的能力[14]. 為此本文首先針對數(shù)值模型的加速度數(shù)據(jù)進(jìn)行預(yù)處理,生成帶損傷標(biāo)簽的加速幀作為訓(xùn)練數(shù)據(jù); 其次針對訓(xùn)練數(shù)據(jù)設(shè)計(jì)深度卷積神經(jīng)網(wǎng)絡(luò)模型CNN并訓(xùn)練CNN; 然后使用經(jīng)預(yù)處理生成的待測試加速度幀測試CNN. 接著對網(wǎng)絡(luò)的輸出進(jìn)行判斷,獲得數(shù)值模型的評估結(jié)果. 最后通過遷移學(xué)習(xí),將卷積神經(jīng)網(wǎng)絡(luò)模型移植到框架試驗(yàn)?zāi)P?,評估框架試驗(yàn)?zāi)P偷膿p傷識別結(jié)果. 算法整體流程如圖1所示.

        1.1 數(shù)據(jù)預(yù)處理

        1.2 卷積神經(jīng)網(wǎng)絡(luò)構(gòu)建

        因此,本文網(wǎng)絡(luò)結(jié)構(gòu)的卷積層可以表示為:

        (1)

        式中:l為層數(shù);k為卷積核;Mj為輸入層的感受野;b為偏置.

        在池化層中,池化操作的作用是使用某一位置相鄰輸出的總體統(tǒng)計(jì)特征來代替該位置的輸出.池化分為最大池化、平均池化、L2范數(shù)和基于中心的加權(quán)平均.池化層可以表示為:

        (2)

        式中:down()為池化函數(shù);β為權(quán)重系數(shù).

        卷積神經(jīng)網(wǎng)絡(luò)作為多層深度網(wǎng)絡(luò),層數(shù)、網(wǎng)絡(luò)結(jié)構(gòu)參數(shù)的選擇并不固定,一般應(yīng)用上選擇對經(jīng)典的卷積神經(jīng)網(wǎng)絡(luò)模型如LeNet、AlexNet、VGG和GoogleNet等進(jìn)行改進(jìn). 本研究針對框架模型問題的具體特點(diǎn),基于LeNet網(wǎng)絡(luò)模型重新設(shè)計(jì)網(wǎng)絡(luò)的通道數(shù)、卷積核數(shù)、維數(shù)和結(jié)構(gòu). 1) 卷積通道. 增加多通道的加速度數(shù)據(jù)進(jìn)行融合. 2) 卷積核. 卷積核的大小影響局部特征的提出,并影響網(wǎng)絡(luò)的收斂速度. 卷積核太大,提取的特征無法表達(dá),卷積核太小,無法提取局部特征. 3) 池化步長. 使用重疊的最大化池,讓步長比池化核尺寸小,提升特征的豐富性. 4) 特征維數(shù). 特征維數(shù)影響網(wǎng)絡(luò)收斂和收斂速度,并對最終結(jié)果有影響. 太高的特征維數(shù)產(chǎn)生冗余,過低則無法表達(dá)特征[20].

        基于上述分析,結(jié)合損傷類型數(shù)量和加速度數(shù)據(jù)通道數(shù)量,通過實(shí)驗(yàn)對網(wǎng)絡(luò)結(jié)構(gòu)參數(shù)進(jìn)行驗(yàn)證. 最終確定采用的卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)共分6層,包括2個(gè)卷積層,2個(gè)下采樣層,2個(gè)全連接層,網(wǎng)絡(luò)結(jié)構(gòu)如圖2所示,參數(shù)如表1所示. 表1中:k為卷積核;s為步長。所用的激活函數(shù)為ReLu函數(shù),學(xué)習(xí)率0.005. 池化層為有重疊的最大池化.

        圖2 網(wǎng)絡(luò)結(jié)構(gòu)示意圖Fig.2 Diagram of the networks architecture

        表1 網(wǎng)絡(luò)結(jié)構(gòu)參數(shù)表

        1.3 數(shù)值模型到框架模型的遷移學(xué)習(xí)

        考慮深度學(xué)習(xí)模型隱含層數(shù)和參數(shù)較多,從零開始訓(xùn)練需要大量標(biāo)簽數(shù)據(jù)、相當(dāng)大的計(jì)算成本和時(shí)間成本,而實(shí)際框架結(jié)構(gòu)模型的損傷數(shù)據(jù)較少,應(yīng)用少量數(shù)據(jù)很難訓(xùn)練出有效的深度模型. 遷移學(xué)習(xí)能消除深度學(xué)習(xí)模型的局限,很大程度上推動了深度模型訓(xùn)練的進(jìn)程,降低了對數(shù)據(jù)量的要求. 因此,本文通過數(shù)值模型生成的結(jié)構(gòu)響應(yīng)數(shù)據(jù),對CNN進(jìn)行預(yù)訓(xùn)練,然后通過遷移學(xué)習(xí)將預(yù)訓(xùn)練模型的網(wǎng)絡(luò)結(jié)構(gòu)、模型參數(shù)及超參數(shù)據(jù)轉(zhuǎn)移到框架結(jié)構(gòu)模型上,從而實(shí)現(xiàn)對框架結(jié)構(gòu)的損傷識別.

        在遷移學(xué)習(xí)過程中,首先保持模型卷積層的結(jié)構(gòu)不變,再向卷積層載入數(shù)值模型訓(xùn)練好的權(quán)重與參數(shù); 其次設(shè)計(jì)適用于框架結(jié)構(gòu)模型上的全連接層; 然后用新設(shè)計(jì)的全連接層代替原本的全連接層,并與先前的卷積層組成新的卷積網(wǎng)絡(luò)模型; 最后用框架結(jié)構(gòu)模型采集到的結(jié)構(gòu)響應(yīng)數(shù)據(jù)訓(xùn)練新模型.

        2 數(shù)值算例

        2.1 結(jié)構(gòu)模型

        圖3 15層框架結(jié)構(gòu)簡化模型Fig.3 15-story frame structure simplified model

        本研究以一個(gè)15層剪切型線性框架結(jié)構(gòu)數(shù)值模型為例,驗(yàn)證該方法,簡化模型如圖3所示. 假設(shè)模型各層質(zhì)量為m1=m2=…=m14=3.78 kg,m15=3.31 kg,層間剛度值為k1=k2=…=k15=375 kN·m-1,前兩階阻尼比ζ1和ζ2均為2%. 損傷模式通過降低各層的剛度來模擬:分別為兩種大小損傷(小損傷指剛度下降4.1%,大損傷指剛度下降16.7%)程度和4種損傷位置,見表2. 隨機(jī)激勵(lì)F作用在結(jié)構(gòu)的頂層,采樣頻率取1 024 Hz,每個(gè)損傷模式采樣時(shí)間取256 s,每層采集加速度信號,每個(gè)信號包含nT個(gè)樣本. 然后使用Matlab代碼用于劃分幀,幀長度ns取128個(gè)樣本,總共獲得12 282(2 048×6)個(gè)帶損傷標(biāo)簽的幀. 這些幀的50%用于訓(xùn)練,其他幀用于測試. 迭代次數(shù)取400或者訓(xùn)練誤差達(dá)到1%立即停止.

        表2 損傷程度和位置

        2.2 識別結(jié)果

        2.2.1不同加速度通道卷積網(wǎng)絡(luò)識別結(jié)果

        15層剪切型線性框架結(jié)構(gòu)數(shù)值模型在各損傷模式下進(jìn)行識別,獲得15組加速度數(shù)據(jù). 在沒有加入噪聲的情況下,本文分別使用單通道、雙通道、三通道及十五通道傳感器信號進(jìn)行測試,分別測得對6種損傷模式分類識別結(jié)果,如表3所示. 由表3可知,在加速度信號沒有加入噪聲時(shí),單通道傳感器信號對于損傷模式基本沒有辦法識別; 隨著通道數(shù)的增多,識別率不斷提高; 四通道(1, 13, 14, 15)的識別率已經(jīng)達(dá)到90.64%,接近于十五通道的識別率; 十五通道的識別率能夠達(dá)到99.84%; 但有些通道識別率低,主要原因是通道的傳感器對損傷不敏感.

        表3 不同傳感器通道的卷積神經(jīng)網(wǎng)絡(luò)識別精度

        2.2.2不同噪聲水平下識別結(jié)果

        考慮到測量噪聲的影響,對各層加速度信號加上一個(gè)隨機(jī)序列,即

        (3)

        表4 不同噪聲水平下識別結(jié)果

        由表4可知,15通道卷積神經(jīng)網(wǎng)絡(luò)在無噪聲時(shí)識別精度達(dá)到99.84%,15%噪聲時(shí)識別精度還有99.40%,甚至50%噪聲時(shí)識別精度還能達(dá)到90.09%,說明該方法具有非常好的抗噪能力.

        2.3 計(jì)算復(fù)雜性分析

        在配置為2個(gè)Intel E5-260 v2 2.10 GHz的處理器和64 G內(nèi)存的服務(wù)器上進(jìn)行實(shí)驗(yàn),并安裝了Ubuntun操作系統(tǒng). 常見的深度學(xué)習(xí)框架有TensorFlow、Keras、PyTorch、Caffe、Deeplearning4j等,本研究使用深度學(xué)習(xí)框架Deeplearn4j對網(wǎng)絡(luò)進(jìn)行構(gòu)建和優(yōu)化,并使用Matlab軟件建立數(shù)值模型并生成數(shù)據(jù)集. 采集6種損傷模式十五通道的加速度信號各256 s,信號劃分為2 048幀,每幀有128個(gè)樣本,其中1 024幀用于訓(xùn)練,其余1 024幀用于測試,在訓(xùn)練過程中進(jìn)行400次迭代. 測試結(jié)果表明,卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練需要87 min,經(jīng)過訓(xùn)練后用于識別1 s的加速度信號只需要3.9 ms.

        3 遷移學(xué)習(xí)后模型試驗(yàn)驗(yàn)證

        3.1 結(jié)構(gòu)模型

        試驗(yàn)框架模型為一個(gè)7層、2跨×1的鋼框架縮尺模型,該模型平面尺寸為0.4 m×0.2 m,高1.412 5 m. 框架構(gòu)件采用熱軋300W級鋼材(fy=300 MPa). 梁、柱尺寸規(guī)格分別為25 mm×25 mm×3 mm和25 mm×4.6 mm,截面面積分別為264和115 mm2,慣性矩分別為2.17×10-8和2.03×10-10m4,楊氏模量為206 GPa,體密度為7 850 kg·m-3. 在模型頂層跨處進(jìn)行激振,每層記錄加速度響應(yīng),結(jié)構(gòu)損傷通過切割柱子來模擬,通過在柱子上下端切割4個(gè)7.5 mm×2.5 mm大小的缺口來模擬小損傷; 通過將柱子從中間完全切斷來模擬大損傷. 根據(jù)不同損傷程度和損傷位置,設(shè)置無損傷工況和三種損傷工況進(jìn)行損傷模式識別,如表5所示. 試驗(yàn)過程中采樣頻率設(shè)置為5 000 Hz,獲取每層共7個(gè)通道的加速度信號. 隨機(jī)激勵(lì)F作用在結(jié)構(gòu)的頂層,每個(gè)工況截取5 s,共25 000個(gè)采樣數(shù)據(jù),劃分成194幀,每幀128個(gè)樣本,總共獲得776(194×4)個(gè)帶損傷標(biāo)簽的幀. 這些幀的80%用于訓(xùn)練,其他幀用于測試. 迭代次數(shù)取260或者訓(xùn)練誤差達(dá)到1%立即停止.

        表5 試驗(yàn)工況的損傷模式

        3.2 識別結(jié)果

        按照節(jié)1.3所述,載入節(jié)2數(shù)值模型網(wǎng)絡(luò)結(jié)構(gòu)的訓(xùn)練好的權(quán)重與參數(shù),按照表6三種損傷和無損傷狀態(tài)類型設(shè)計(jì)全連接層,并與先前的卷積層組成新的卷積網(wǎng)絡(luò)模型. 最后用框架模型采集到的加速度響應(yīng)數(shù)據(jù)訓(xùn)練新模型,對損傷樣本數(shù)據(jù)進(jìn)行了識別研究,識別結(jié)果如表6所示.

        表6 卷積神經(jīng)網(wǎng)絡(luò)識別結(jié)果

        由表6可知,遷移學(xué)習(xí)后的七通道卷積神經(jīng)網(wǎng)絡(luò)在小數(shù)據(jù)量的識別率會比大數(shù)據(jù)量的識別率差,特別是樣本模式2,有5個(gè)樣本錯(cuò)誤識別為模式1或3,但總識別率也能達(dá)到77.0%.

        4 結(jié)語

        1) 采用不同通道的加速度數(shù)據(jù)對15層框架數(shù)值模型進(jìn)行損傷識別,通道數(shù)越多,識別效果越好,十五通道共同識別結(jié)果達(dá)到為99.84%. 加入15%噪聲后十五通道識別精度還有99.40%,甚至加入50%噪聲后識別精度還能達(dá)到90.09%,表明該方法具有較好的抗噪性. 網(wǎng)絡(luò)模型用于識別1 s的加速度信號只需要3.9 ms,表明該方法具有突出的計(jì)算效率.

        2) 將該卷積神經(jīng)網(wǎng)絡(luò)模型遷移學(xué)習(xí)到7層框架試驗(yàn)?zāi)P蜕希s短了訓(xùn)練時(shí)間. 由于實(shí)測數(shù)據(jù)量較少,遷移學(xué)習(xí)后卷積神經(jīng)網(wǎng)絡(luò)在小數(shù)據(jù)量的識別率會比大數(shù)據(jù)量的識別率差,但總識別率也能達(dá)到77.0%.

        3) 卷積神經(jīng)網(wǎng)絡(luò)的遷移學(xué)習(xí)對結(jié)構(gòu)損傷識別具有較好的應(yīng)用前景.

        猜你喜歡
        識別率加速度卷積
        “鱉”不住了!從26元/斤飆至38元/斤,2022年甲魚能否再跑出“加速度”?
        基于3D-Winograd的快速卷積算法設(shè)計(jì)及FPGA實(shí)現(xiàn)
        基于類圖像處理與向量化的大數(shù)據(jù)腳本攻擊智能檢測
        從濾波器理解卷積
        電子制作(2019年11期)2019-07-04 00:34:38
        基于真耳分析的助聽器配戴者言語可懂度指數(shù)與言語識別率的關(guān)系
        天際加速度
        汽車觀察(2018年12期)2018-12-26 01:05:42
        創(chuàng)新,動能轉(zhuǎn)換的“加速度”
        金橋(2018年4期)2018-09-26 02:24:46
        死亡加速度
        提升高速公路MTC二次抓拍車牌識別率方案研究
        基于傅里葉域卷積表示的目標(biāo)跟蹤算法
        国产免费看网站v片不遮挡| 久久久www成人免费无遮挡大片| 久久婷婷五月综合97色一本一本 | 国产精品免费大片| 久久这里只精品国产2| 亚洲一区二区三区码精品色| 精品国产av一区二区三区四区| 特级无码毛片免费视频尤物| 含羞草亚洲AV无码久久精品| 加勒比久草免费在线观看| 国产av激情舒服刺激| 97久久精品亚洲中文字幕无码| 人妻无码一区二区在线影院| japanese色国产在线看视频| 国内精品国产三级国产avx| 伊人久久这里只有精品| 人人爽久久涩噜噜噜av| 欧美亚洲国产人妖系列视| 视频一区二区免费在线观看| 日本最新一区二区三区在线| 国产一区二区三区久久精品| 亚洲国产无套无码av电影| 啪啪网站免费观看| 国产三级av大全在线爽| 中文字幕日韩精品一区二区三区| 久久国产成人精品国产成人亚洲 | 午夜精品一区二区久久做老熟女| 蜜桃视频网站在线观看一区| 国产精品毛片无遮挡| 久久久久亚洲av无码观看| www.尤物视频.com| 亚洲美女毛多水多免费视频| 特黄aaaaaaaaa毛片免费视频 | 2020无码专区人妻系列日韩| 97无码人妻Va一区二区三区| 亚洲无AV码一区二区三区| 日本岛国一区二区三区四区| 国产免费牲交视频| 亚洲啪啪综合av一区| 无码专区无码专区视频网址| 国产免费观看久久黄av麻豆|