亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        反向傳播神經(jīng)網(wǎng)絡(luò)聯(lián)合遺傳算法對(duì)復(fù)合材料模量的預(yù)測(cè)

        2022-11-01 04:01:34王卓鑫趙海濤謝月涵任翰韜袁明清張博明陳吉安
        關(guān)鍵詞:泊松比模量復(fù)合材料

        王卓鑫, 趙海濤, 謝月涵, 任翰韜, 袁明清, 張博明, 陳吉安

        (1. 上海交通大學(xué) 航空航天學(xué)院,上海 200240; 2. 中國商用飛機(jī)有限責(zé)任公司 復(fù)合材料中心,上海 201210; 3. 北京航空航天大學(xué) 材料科學(xué)與工程學(xué)院, 北京 100191)

        先進(jìn)樹脂基復(fù)合材料除了綠色環(huán)保、便于取得之外,其余優(yōu)異性能不勝枚舉.例如它在高溫下不易變形、抗磨、防銹性能好,具有較高的比強(qiáng)度與比模量、出色的綜合力學(xué)性能、可撓曲成形等[1].因而,此類復(fù)合材料愈來愈受到宇航制造業(yè)的重視,甚至在各種客機(jī)的制造過程中被普遍應(yīng)用.例如T800/環(huán)氧高溫固化復(fù)合材料是民用飛機(jī)主受力結(jié)構(gòu)、發(fā)動(dòng)機(jī)葉輪結(jié)構(gòu)等用于抵抗沖擊力的常用材料.而現(xiàn)階段面臨的主要問題是如何提高樹脂基復(fù)合材料的模量和強(qiáng)度、降低生產(chǎn)以及測(cè)試成本和減少設(shè)計(jì)周期等.

        到目前為止,工業(yè)實(shí)驗(yàn)仍是樹脂基復(fù)合材料模量數(shù)據(jù)獲取的主要方式,而此種方式昂貴且耗時(shí),需要對(duì)復(fù)合材料的所有參數(shù)都進(jìn)行反復(fù)試驗(yàn),大大提高了造價(jià)和放緩了進(jìn)程.鑒于此,在大規(guī)模生產(chǎn)之前,以合理的精度預(yù)測(cè)材料的模量數(shù)據(jù)有助于制造企業(yè)和設(shè)計(jì)人員縮短周期同時(shí)降低成本.現(xiàn)今,機(jī)器學(xué)習(xí)已經(jīng)可以為復(fù)雜的工業(yè)設(shè)計(jì)過程提供實(shí)時(shí)、快速和較高質(zhì)量的預(yù)測(cè).特別是在復(fù)合材料領(lǐng)域,機(jī)器學(xué)習(xí)已經(jīng)成為分析材料屬性的重要工具.Gelayol等[2]曾針對(duì)碳纖維結(jié)構(gòu)的力學(xué)性能采用支持向量回歸(SVR)和人工神經(jīng)網(wǎng)絡(luò)(ANN)的方法進(jìn)行預(yù)測(cè),誤差均低于5%.Zhang等[3]曾用4種機(jī)器學(xué)習(xí)方法,即ANN、支持向量機(jī)(SVM)、決策樹(DT)和K最鄰近(KNN)研究石墨烯的3種力學(xué)性能,即彈性模量、斷裂強(qiáng)度與應(yīng)變,這項(xiàng)研究為發(fā)現(xiàn)和使用最新的計(jì)算方法探究機(jī)械性能提供了獨(dú)特視角.Chen等[4]為預(yù)測(cè)顆粒增強(qiáng)金屬基復(fù)合材料的強(qiáng)度,分別用直接法和人工神經(jīng)網(wǎng)絡(luò)兩種方式進(jìn)行對(duì)比試驗(yàn),發(fā)現(xiàn)人工神經(jīng)網(wǎng)絡(luò)能對(duì)材料的極限強(qiáng)度和耐久性極限作出比較準(zhǔn)確的預(yù)測(cè).Qi等[5]在機(jī)器學(xué)習(xí)中使用回歸樹的方法建立了碳纖維單絲的性能變量和復(fù)合材料宏觀參數(shù)之間的關(guān)系,分析了碳纖維的4種彈性性能,獲得了具有較好泛化性能的模型. 楊紅等[6]采用反向傳播(BP)、徑向基函數(shù)神經(jīng)網(wǎng)絡(luò)(RBF)和SVR方法預(yù)測(cè)分析了木材的性能,通過比較得出SVR的泛化能力和準(zhǔn)確率更高. 白曉明[7]將張量分解的數(shù)據(jù)挖掘方法用于分析復(fù)合材料的宏觀和微觀性能,該方式在宏觀性能上能夠更貼切直接數(shù)值擬合. 張博[8]采用梯度提升回歸樹(GBRT)的方法對(duì)稀土基化合物的磁熵變進(jìn)行了機(jī)器學(xué)習(xí)預(yù)測(cè)分析,也得到了較準(zhǔn)的預(yù)測(cè)結(jié)果.Qi等[9]針對(duì)碳纖維單絲和復(fù)合材料的宏觀參數(shù)使用分類回歸樹(CART)的方法對(duì)二者的關(guān)系展開預(yù)測(cè),所得方法改進(jìn)了測(cè)試誤差,可以被借鑒應(yīng)用到其他領(lǐng)域.

        以上研究表明,近年來機(jī)器學(xué)習(xí)已遍及材料學(xué)應(yīng)用的方方面面,并在材料性能預(yù)測(cè)分析方向具有非常大的潛力.BP神經(jīng)網(wǎng)絡(luò)(BP-ANN)被人們熟知且應(yīng)用在各個(gè)領(lǐng)域.考慮到常規(guī)BP神經(jīng)網(wǎng)絡(luò)算法存在諸如不易找到全體中最佳解、準(zhǔn)確度不高、收斂時(shí)間長等問題,本文采用一種全新的預(yù)測(cè)模量的方法——神經(jīng)網(wǎng)絡(luò)聯(lián)合遺傳算法(GA-ANN),該方法基于遺傳算法(GA)修正BP神經(jīng)網(wǎng)絡(luò)的參數(shù)值,采用這種改進(jìn)BP神經(jīng)網(wǎng)絡(luò)的方法對(duì)樹脂基復(fù)合材料的拉伸模量和壓縮模量同時(shí)預(yù)報(bào)和分析.比較各種性能指標(biāo)之后發(fā)現(xiàn),用GA改良后的BP神經(jīng)網(wǎng)絡(luò)的精度有了一定程度提高.

        1 數(shù)據(jù)集與神經(jīng)網(wǎng)絡(luò)

        1.1 數(shù)據(jù)集

        本文所采用數(shù)據(jù)庫中樹脂基復(fù)合材料[0]6鋪層的強(qiáng)度、泊松比、失效應(yīng)變以及拉伸模量的數(shù)據(jù)基于ASTM D 3039試驗(yàn)獲得,壓縮模量數(shù)據(jù)基于SACMA SRM 1R方式獲取.其中,將數(shù)據(jù)庫樣本分為兩類:一類是利用數(shù)據(jù)庫形成模型,另一類是將數(shù)據(jù)庫作為檢驗(yàn)?zāi)P褪欠窈细竦摹皽y(cè)試者”.利用sklearn將數(shù)據(jù)庫隨機(jī)分類為上述兩種功能的樣本,首先把164組數(shù)據(jù)庫樣本隨機(jī)打亂,再分別按照75%、25%的比率劃分出樣本集,分別是訓(xùn)練、測(cè)試樣本,即123個(gè)用于試驗(yàn)開發(fā)適于本文的模型,41個(gè)則用于測(cè)試已形成模型的性能.表1中列出了一些樣本歸一化作為示例,這些樣本示例均來源于經(jīng)過歸一化處理后的試驗(yàn)數(shù)據(jù)庫.表中:x為材料強(qiáng)度;y為失效應(yīng)變;ν為泊松比;z1為拉伸模量;z2為壓縮模量.其中將材料強(qiáng)度、泊松比和失效應(yīng)變作為輸入變量,兩個(gè)輸出變量為拉伸模量和壓縮模量.同時(shí),由于參與練習(xí)的數(shù)據(jù)屬性較多且不同屬性數(shù)據(jù)間大小迥異,為保證網(wǎng)絡(luò)在訓(xùn)練過程中維持在一定范圍且不溢出,并為能得到較為準(zhǔn)確模量數(shù)值,在合適的模型確定前期,對(duì)輸入變量和輸出變量都執(zhí)行數(shù)據(jù)預(yù)處理成為規(guī)則,以便處理后的值處在0~1之內(nèi)[10],并且輸入變量的歸一化值由下式確定:

        Xn=(Xi-Xi,min)/(Xi,max-Xi,min)

        (1)

        式中:Xi為未歸一化的輸入值;Xi,min為未進(jìn)行歸一化處理的最小輸入值;Xi,max為未歸一化的輸入變量的最大輸出值.

        對(duì)輸出變量歸一化值進(jìn)行類似預(yù)處理:

        Ym=(Yi-Yi,min)/(Yi,max-Yi,min)

        (2)

        式中:Yi為未歸一化處理的輸出值;Yi,min為初始最小輸出值;Yi,max為初始變量的最大輸出值.對(duì)于測(cè)試網(wǎng)絡(luò)訓(xùn)練性能的結(jié)果也要經(jīng)過式(1)和(2)加工后才能應(yīng)用.經(jīng)過規(guī)則化之后的局部數(shù)據(jù)樣本如表1所示.

        表1 數(shù)據(jù)集中的部分樣本(歸一化處理)Tab.1 Some samples in the data set (normalized)

        1.2 BP神經(jīng)網(wǎng)絡(luò)

        現(xiàn)如今,數(shù)據(jù)壓縮、分類、函數(shù)逼近等問題都離不開BP-ANN,可以說,BP-ANN已成為最常用的機(jī)器學(xué)習(xí)方法之一,是ANN內(nèi)包含的典型[11].本文利用PyTorch構(gòu)建上述BP-ANN模型.所用到的PyTorch是一種功能強(qiáng)大的Python庫,類似于NumPy,利用它來構(gòu)建深度學(xué)習(xí)模型容易理解、易于上手、靈活高效.本文采用PyTorch中模塊化的方法構(gòu)建BP神經(jīng)網(wǎng)絡(luò),即在PyTorch中使用順序容器torch.nn.Sequential迅速搭建網(wǎng)絡(luò).使用此方法時(shí)會(huì)自動(dòng)將激勵(lì)函數(shù)調(diào)入其中,并且在此模型中將激勵(lì)表達(dá)式定義為relU.所構(gòu)建的BP-ANN結(jié)構(gòu)包括輸入層、輸出層和隱藏層[12],隱藏層應(yīng)由單個(gè)亦可以是若干層組成,有且僅有一個(gè)隱藏層的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示.圖中:wij為隱藏層與輸入層之間的權(quán)值;wjk為隱藏層與輸出層之間的權(quán)值.在網(wǎng)絡(luò)訓(xùn)練過程中,網(wǎng)絡(luò)結(jié)構(gòu)對(duì)預(yù)測(cè)效果有十分重要的影響,例如不同的隱藏層層數(shù),或者是單層中不同的神經(jīng)元數(shù)都會(huì)影響神經(jīng)網(wǎng)絡(luò)模型的性能.試用不同的隱藏層,根據(jù)平均相對(duì)誤差來選擇適合本研究的模型.針對(duì)每種隱藏層結(jié)構(gòu),程序需要重復(fù)10次,這是因?yàn)閷?duì)于具有隨機(jī)初始點(diǎn)的模型,重復(fù)進(jìn)行10次以上之后,誤差就會(huì)基于某值上下浮動(dòng),很難再進(jìn)一步減小[2].為了提高預(yù)測(cè)效率,本文中設(shè)計(jì)的程序可以同時(shí)對(duì)材料的拉伸模量和壓縮模量進(jìn)行預(yù)報(bào),因此兩個(gè)輸出模量共用一個(gè)神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu).該神經(jīng)網(wǎng)絡(luò)有強(qiáng)度、泊松比和破壞應(yīng)變這3個(gè)輸入量,拉伸模量和壓縮模量這兩個(gè)輸出量.

        圖1 BP神經(jīng)網(wǎng)絡(luò)Fig.1 BP neural network

        組成隱藏層的神經(jīng)元從2開始依次變到6、10、14,結(jié)構(gòu)從3-θ-2到3-θ-θ-2(θ為隱藏層神經(jīng)元個(gè)數(shù)).對(duì)于選擇的每種隱藏層,計(jì)算相應(yīng)訓(xùn)練數(shù)據(jù)和測(cè)試數(shù)據(jù)的平均相對(duì)誤差(e1,e2),得到的數(shù)據(jù)結(jié)果如表2和3所示.比較兩個(gè)表,發(fā)現(xiàn)在3-10-2結(jié)構(gòu)時(shí)所得模量的平均相對(duì)誤差相對(duì)更小一些,因此選擇一層具有10個(gè)神經(jīng)元的隱藏層,并最終將3-10-2定義為網(wǎng)絡(luò)的拓?fù)?同時(shí)在隱藏層引入relU激活函數(shù)來減少模型運(yùn)行過程中的計(jì)算量,起到避免過擬合的作用.所選BP-ANN要進(jìn)行 1 000 次重復(fù)反饋.圖2中顯示了訓(xùn)練過程中誤差值和學(xué)習(xí)速率的變化曲線.圖中:h為迭代次數(shù);e為相對(duì)誤差.由圖可見,隨著迭代次數(shù)的逐漸遞增,相對(duì)誤差最終收斂到一個(gè)較小的值,即證明所選擇的網(wǎng)絡(luò)結(jié)構(gòu)可以正確地預(yù)測(cè)模量問題.

        表2 一層隱藏層訓(xùn)練數(shù)據(jù)與測(cè)試數(shù)據(jù)平均相對(duì)誤差

        表3 兩層隱藏層訓(xùn)練數(shù)據(jù)與測(cè)試數(shù)據(jù)平均相對(duì)誤差

        圖2 神經(jīng)網(wǎng)絡(luò)(3-10-2)學(xué)習(xí)曲線Fig.2 Neural network (3-10-2) learning curves

        2 神經(jīng)網(wǎng)絡(luò)優(yōu)化算法

        2.1 GA優(yōu)化算法

        BP-ANN的信號(hào)傳遞可以類比生物神經(jīng)網(wǎng)絡(luò),它將模型信息存儲(chǔ)在權(quán)重和閾值以及各個(gè)神經(jīng)元中,根據(jù)誤差減小的原理反向更進(jìn)權(quán)值和閾值.BP-ANN的權(quán)重首次賦值和第一次確定的閾值對(duì)結(jié)果準(zhǔn)確性影響較大,如果采取常規(guī)方式對(duì)BP-ANN模型參數(shù)隨便進(jìn)行賦值,那么在實(shí)行模型演練時(shí)陷入小部分最解中的現(xiàn)象時(shí)常發(fā)生[13].而GA算法屬于啟發(fā)式算法,它基于概率方法完成連貫工作,包括選擇(Select)、交叉(Cross)、變異(Mutate).歷經(jīng)幾次迭代后,在種群后代中選擇優(yōu)秀的個(gè)體,從而高效地搜選總體中的最優(yōu)解[14].遺傳算法不僅不用考慮誤差函數(shù)的梯度信息就可以解決冗雜、大型、多峰分布和不可微問題,而且也不要求誤差函數(shù)可微,因而可以顯著地?cái)U(kuò)展誤差函數(shù)選擇規(guī)模,以降低BP-ANN的復(fù)雜度,提高其普遍應(yīng)用價(jià)值.本文根據(jù)GA算法重新創(chuàng)建BP-ANN模型,其每一層權(quán)重初值與閾初值被重新修定,進(jìn)一步在測(cè)得模量數(shù)據(jù)集時(shí)更接近于正確值.

        GA-ANN模型進(jìn)行優(yōu)化時(shí)首先需要大致構(gòu)建網(wǎng)絡(luò)框架,然后利用GA方法將參數(shù)修正改良,最后將更新后的BP-ANN替代原始結(jié)構(gòu)開始預(yù)測(cè)[15].網(wǎng)絡(luò)結(jié)構(gòu)部分是先按照模擬功能的輸入、輸出參數(shù)的數(shù)量來構(gòu)建網(wǎng)絡(luò)部分框架,通過提取材料的強(qiáng)度、泊松比和破壞應(yīng)變特征值,采用之前預(yù)設(shè)8種隱藏層建立網(wǎng)絡(luò)框架.將BP神經(jīng)網(wǎng)絡(luò)的參數(shù)信息編碼于個(gè)體中,用遺傳操作對(duì)各個(gè)參數(shù)進(jìn)行選擇、變異以及交叉,得到適應(yīng)值最大的個(gè)體對(duì)應(yīng)于網(wǎng)絡(luò)的最佳參數(shù).然后將參數(shù)初始數(shù)賦給相應(yīng)權(quán)重和閥值,之后計(jì)算出8組ANN預(yù)測(cè)結(jié)果的平均誤差,將差別最小組選成隱藏層,一旦設(shè)立了BP-ANN結(jié)構(gòu),對(duì)應(yīng)需要被優(yōu)化神經(jīng)網(wǎng)絡(luò)參數(shù)數(shù)量也隨即得出,由此獲得GA方法編碼長度并確定需要的染色體具體數(shù)量.BP-ANN全部的權(quán)重和閥值都被編碼在每一個(gè)個(gè)體,并且每個(gè)個(gè)體的適應(yīng)度值(Fitness)都按照提前設(shè)定的Fitness表達(dá)式得出,種群經(jīng)過Select、Cross、Mutate等一連串的運(yùn)算過程,比較個(gè)體的Fitness并找到Fitness最大的個(gè)體,即適應(yīng)度最好對(duì)應(yīng)的個(gè)體[16].表現(xiàn)最好的個(gè)體可用于確定BP-ANN每層權(quán)重和閥值的初始賦值,而后即可通過成形的樣本的輸出來完成BP神經(jīng)網(wǎng)絡(luò)的工作,從而推測(cè)材料兩個(gè)模量值.

        GA-ANN的示意圖如圖3所示,算法的修正過程如下.

        步驟1任意賦值給BP網(wǎng)絡(luò)的全部初始參數(shù),完成對(duì)BP-ANN的第一次構(gòu)建.

        步驟2根據(jù)GA需要改良的參數(shù)設(shè)定初始種群,利用一連串遺傳操作(Select、Cross、Mutate)使BP網(wǎng)絡(luò)每一層的權(quán)重以及閥值得以充足優(yōu)化.

        步驟3更新BP-ANN,首先用123組數(shù)據(jù)集塑造模型,接著用余下41組預(yù)測(cè)集證明模型的可行性.

        圖3 GA-ANN流程圖Fig.3 GA-ANN flow chart

        初始化種群.選取0和1組成的計(jì)算機(jī)編碼方式,所設(shè)種群總體里有200個(gè)個(gè)體,這些個(gè)體都有自己的獨(dú)特編碼,每個(gè)數(shù)值串都對(duì)應(yīng)著網(wǎng)絡(luò)參數(shù)的一套初始數(shù)值.初始數(shù)值由輸入層與隱藏層之間的權(quán)重、隱藏層與輸出層之間的權(quán)重以及隱藏層和輸出層的閾值組成.

        染色體設(shè)置.3-10-2結(jié)構(gòu)的神經(jīng)網(wǎng)絡(luò)具有兩組權(quán)重(Weights),輸入層到隱藏層(30),隱藏層到輸出層(20);兩組閾值,輸入層到隱藏層(10),隱藏層到輸出層(2).由此共計(jì)有62個(gè)參數(shù),每個(gè)參數(shù)自定義有18個(gè)基因位,初始化為由KaiMing確定的參數(shù)范圍內(nèi)的隨機(jī)值.

        適應(yīng)度值計(jì)算.為使BP網(wǎng)絡(luò)預(yù)測(cè)盡可能接近真實(shí)值,取誤差的倒數(shù)為適應(yīng)度,自定義種群總體規(guī)模為200,迭加300次,將經(jīng)GA訓(xùn)練出的最佳參數(shù)代入到網(wǎng)絡(luò)中運(yùn)行.任意個(gè)體的適應(yīng)值可以表示為

        f(Xi)=loss(Xi)-1

        (3)

        (4)

        選擇運(yùn)算.使用輪盤賭的方式,按照概率分配原則選擇適應(yīng)度性能強(qiáng)的個(gè)體組成新的種群,選擇算子的計(jì)算方式如下:

        (5)

        式中:N為種群大??;k為個(gè)體數(shù)目.接著對(duì)每個(gè)個(gè)體累積選取概率Qi按照下式進(jìn)行計(jì)算:

        (6)

        隨機(jī)生成一個(gè)均勻分布的數(shù)字r,r∈[0, 1].如果r≤Q1,則選擇個(gè)體1,如果Qk-1

        交叉.從種群里任意篩出兩組親本染色體Cross,選擇Single-point-cross,隨機(jī)選擇Cross處,交換兩個(gè)染色體該點(diǎn)后面的全部基因.考慮到個(gè)體Fitness前后差異不大,因此選擇默認(rèn)固定交叉率為0.7.

        變異.Mutate是種群多樣性存在的一個(gè)最主要的方式.試驗(yàn)選擇基本位Mutate策略.在這種遺傳算法中,染色體較長(基因數(shù)為18×64=1 152),為此Mutate應(yīng)選取多個(gè)基因位.在種群中隨機(jī)選取個(gè)體之后,選擇變異基因的任意位置進(jìn)行Mutate操作,將概率設(shè)成0.1.

        2.2 Adam優(yōu)化算法

        Adam在當(dāng)今機(jī)器學(xué)習(xí)優(yōu)化器中占有非常重要的地位,是目前應(yīng)用最廣泛且功能最強(qiáng)大的優(yōu)化器之一.尤其在近年來已被應(yīng)用到利用人工智能解決問題的各個(gè)領(lǐng)域中.它對(duì)傳統(tǒng)單一的學(xué)習(xí)率進(jìn)行了改進(jìn),能夠自行更新調(diào)節(jié),十分靈活高效.越是復(fù)雜的神經(jīng)網(wǎng)絡(luò)中越能夠體現(xiàn)它的優(yōu)越性能.在實(shí)際應(yīng)用中,Adam方法延續(xù)了Adagrad和RMSprop兩者的長處,即在非密集梯度問題和振蕩浮動(dòng)較大的數(shù)據(jù)中維持高能的預(yù)測(cè)效果.此外,除了達(dá)到收斂所用的時(shí)間更少,它還可以改善諸如學(xué)習(xí)率不穩(wěn)定或是高方差參數(shù)幅度過大導(dǎo)致?lián)p失函數(shù)值波動(dòng)等欠缺.總之,Adam已然成為最受歡迎的優(yōu)化器[17].另外,傳統(tǒng)的機(jī)器學(xué)習(xí)算法如SVR是處理中小數(shù)據(jù)集監(jiān)督訓(xùn)練的預(yù)測(cè)數(shù)據(jù)中比較典型的方式,但是在本論文研究內(nèi)容下的平均預(yù)測(cè)誤差卻較大于神經(jīng)網(wǎng)絡(luò),因此最終采用Adam優(yōu)化神經(jīng)網(wǎng)絡(luò)的方法(Adam-ANN)與GA-ANN的性能進(jìn)行對(duì)照.

        (7)

        (8)

        3 結(jié)果與討論

        采用Anaconda平臺(tái)下的軟件Spyder編寫Python(3.7)語言程序,分別對(duì)GA-ANN和Adam-ANN兩種算法展開驗(yàn)證.為了防止模型過度擬合,任意劃分模本集,其中75%為訓(xùn)練數(shù)據(jù),25%為測(cè)試數(shù)據(jù).本試驗(yàn)對(duì)訓(xùn)練數(shù)據(jù)和測(cè)試數(shù)據(jù)都進(jìn)行了模量預(yù)報(bào),由于測(cè)試數(shù)據(jù)組不參與模型訓(xùn)練,所以重點(diǎn)使用41組測(cè)試數(shù)據(jù)點(diǎn)進(jìn)行分析和驗(yàn)證.表4是在GA和Adam優(yōu)化網(wǎng)絡(luò)模型下訓(xùn)練數(shù)據(jù)集的模量預(yù)測(cè)關(guān)于結(jié)果的比較情況.對(duì)于拉伸模量,Adam-ANN所得平均相對(duì)誤差、RMS和SEP都略小于GA-ANN,值得注意的是,Adam-ANN和GA-ANN的平均相對(duì)誤差分別為1.64%、1.66%.而壓縮模量中,GA-ANN模型效果略優(yōu),Adam-ANN和GA-ANN的平均相對(duì)誤差分別為2.50%、2.47%.由此可得,用這兩類方式得到的訓(xùn)練模型均良好且差別甚小.表5對(duì)比GA和Adam所得訓(xùn)練模式下的測(cè)試數(shù)據(jù)預(yù)測(cè)情況.測(cè)試集的預(yù)測(cè)情況是考量最終模型泛化能力的標(biāo)準(zhǔn),可以得出結(jié)論,GA-ANN模型預(yù)測(cè)性能好于Adam-ANN,GA-ANN的平均相對(duì)誤差分別為1.83%、3.22%,Adam-ANN的平均相對(duì)誤差為1.94%、3.71%.對(duì)于拉伸和壓縮這兩種模量,GA-ANN所得RMS、SEP都略小于Adam-ANN.為了更直觀地說明,這些結(jié)論在圖4中以三維圖形的形式表示.由于圖中僅有兩個(gè)自變量,所以所作曲面應(yīng)只對(duì)應(yīng)一個(gè)泊松比的數(shù)值.本文選取一個(gè)預(yù)測(cè)效果比較好的測(cè)試數(shù)據(jù),將其泊松比的數(shù)值固定為該測(cè)試數(shù)據(jù)對(duì)應(yīng)的泊松比的定值,即0.318,然后畫曲面.由圖4可以得出,GA-ANN介于拉伸模量上下誤差限制之間.同樣,對(duì)于壓縮模量也有相似的結(jié)論.這些結(jié)論證實(shí)了表5的結(jié)果.

        表4 GA-ANN和Adam-ANN訓(xùn)練集預(yù)測(cè)表Tab.4 Comparison of GA-ANN and Adam-ANN training set prediction results

        表5 GA-ANN和Adam-ANN測(cè)試集預(yù)測(cè)表Tab.5 Comparison of prediction results of GA-ANN and Adam-ANN test sets

        圖4 GA-ANN和Adam-ANN對(duì)拉伸模量和壓縮模量的測(cè)試結(jié)果Fig.4 Prediction results of GA-ANN and Adam-ANN models on tensile modulus and compressive modulus

        圖5 GA-ANN和Adam-ANN對(duì)拉伸模量的測(cè)試結(jié)果Fig.5 Prediction results of GA-ANN and Adam-ANN models on tensile modulus

        圖6 GA-ANN和Adam-ANN對(duì)壓縮模量的測(cè)試結(jié)果Fig.6 Prediction results of GA-ANN and Adam-ANN models on compressive modulus

        4 結(jié)語

        BP神經(jīng)網(wǎng)絡(luò)已經(jīng)被廣泛地應(yīng)用到各個(gè)領(lǐng)域,特別是對(duì)于模糊模型的復(fù)雜問題,BP神經(jīng)網(wǎng)絡(luò)一般都能夠很好地解決.但是關(guān)于參數(shù)初始值的選取環(huán)節(jié),一般都是按照經(jīng)驗(yàn)或者隨機(jī)選取,目前并沒有統(tǒng)一的定論來規(guī)范該操作.而GA可以改善BP關(guān)鍵參數(shù)于初始值獲取的不足.相比而言,遺傳算法擅長從總體上展開搜索,而BP算法通常在小范圍搜索中更加有效,因此也常常被困在局部最小值中,經(jīng)過測(cè)試發(fā)現(xiàn),混合方式訓(xùn)練神經(jīng)網(wǎng)絡(luò)的效果比僅使用BP訓(xùn)練的方法更好.

        本文通過傳統(tǒng)試驗(yàn)的方式獲得樹脂基復(fù)合材料[0]6鋪層各個(gè)試驗(yàn)件的強(qiáng)度、泊松比、破壞應(yīng)變、壓縮模量和拉伸模量的真實(shí)數(shù)值.并利用強(qiáng)度、泊松比和破壞應(yīng)變這3個(gè)特征值,采用GA優(yōu)化BP神經(jīng)網(wǎng)絡(luò),實(shí)現(xiàn)了對(duì)材料拉伸模量和壓縮模量的回歸預(yù)測(cè),既避免了選取網(wǎng)絡(luò)權(quán)重和閾值的不確定性,又提升了傳統(tǒng)BP網(wǎng)絡(luò)的預(yù)測(cè)功能.用GA優(yōu)化之后的BP神經(jīng)網(wǎng)絡(luò)在測(cè)試集上進(jìn)行驗(yàn)證檢測(cè),其平均相對(duì)誤差不足3%,證明該算法性能良好.在與Adam-ANN的對(duì)比試驗(yàn)中,GA的平均相對(duì)誤差、RMS、SEP值均較小,說明GA-ANN更具普適性、測(cè)試精度效果優(yōu),可以通過訓(xùn)練模型得到誤差較小的復(fù)合材料模量值.本項(xiàng)工作為使用機(jī)器學(xué)習(xí)優(yōu)化方法探索材料的模量特性提供了一些啟示,可以應(yīng)用到除了樹脂基復(fù)合材料以外的各種材料中.

        為了進(jìn)一步增強(qiáng)預(yù)測(cè)模型的適應(yīng)性和提高其預(yù)測(cè)數(shù)據(jù)的準(zhǔn)確度,在未來的研究中,將采用機(jī)器學(xué)習(xí)與有限元相結(jié)合的方法擴(kuò)充數(shù)據(jù)庫,更大量的數(shù)據(jù)集將被用作模型的輸入.再者,將思考使用更復(fù)雜機(jī)器學(xué)習(xí)模型與特征選擇方式.最后,由于本研究是基于[0]6試驗(yàn)件鋪層對(duì)模量數(shù)據(jù)進(jìn)行預(yù)測(cè),所以不包括其他鋪層情形,例如[90]12、[45/-45]4S、[45/0/-45/90]2S等,后續(xù)研究將重點(diǎn)探索各種鋪層的交錯(cuò)預(yù)測(cè).

        致謝感謝第三屆中國商飛國際科技創(chuàng)新周對(duì)本項(xiàng)目的資金資助.

        猜你喜歡
        泊松比模量復(fù)合材料
        具有負(fù)泊松比效應(yīng)的紗線研發(fā)
        負(fù)泊松比功能的結(jié)構(gòu)復(fù)合紡紗技術(shù)進(jìn)展
        毛紡科技(2020年6期)2021-01-06 03:41:48
        高勁度模量瀝青混合料在京臺(tái)高速車轍維修段的應(yīng)用
        室內(nèi)回彈模量和回彈再壓縮模量試驗(yàn)參數(shù)探討
        山西建筑(2020年11期)2020-06-04 00:09:48
        考慮粘彈性泊松比的固體推進(jìn)劑蠕變型本構(gòu)模型①
        固體推進(jìn)劑粘彈性泊松比應(yīng)變率-溫度等效關(guān)系
        民機(jī)復(fù)合材料的適航鑒定
        關(guān)于現(xiàn)行規(guī)范路基頂面回彈模量的理解和應(yīng)用
        上海公路(2018年4期)2018-03-21 05:57:24
        復(fù)合材料無損檢測(cè)探討
        TiO2/ACF復(fù)合材料的制備及表征
        国产va在线播放| 亚洲精品无码永久在线观看| 国产精品视频免费播放| 精品人妻无码一区二区色欲产成人| 毛片无遮挡高清免费久久| 亚洲av网站首页在线观看| 久草视频这里只有精品| 国产乱妇无码大片在线观看| 性一交一乱一伦a片| 国产欧美日韩在线观看一区二区三区| 极品视频一区二区三区在线观看| 日韩av一区二区不卡| 日本另类αv欧美另类aⅴ| 欧美亚洲日韩国产人成在线播放 | 亚洲精品国产电影| 日本三级欧美三级人妇视频黑白配 | 亚洲黄色一级在线观看| 先锋五月婷婷丁香草草| 中文字幕精品久久久久人妻红杏1| 精品久久久久久午夜| 国产黄片一区二区三区| 亚洲熟女精品中文字幕| 中国老熟妇自拍hd发布| 国产成人av综合亚洲色欲| 精品一区二区亚洲一二三区| 国产手机在线观看一区二区三区| 亚洲a∨国产av综合av下载| 久久香蕉国产线看观看网| 青青草针对华人超碰在线| 色播视频在线观看麻豆| 国精品人妻无码一区免费视频电影| 亚洲成a人片在线观看天堂无码 | 成人精品一区二区三区中文字幕| 91久久福利国产成人精品| 男生自撸视频在线观看| 特黄aaaaaaaaa毛片免费视频| 77777亚洲午夜久久多人| 亚洲国产日韩综一区二区在性色| 91精品全国免费观看青青| 日韩国产一区二区三区在线观看| 国色天香中文字幕在线视频|