孫瑞陽,姜 毅,牛鈺森,張曼曼,強(qiáng)新偉
(1.北京理工大學(xué) 宇航學(xué)院,北京 100081;2.中國船舶集團(tuán)公司713所,鄭州 450015)
考慮到經(jīng)濟(jì)、環(huán)保等因素,判斷長期貯存的固體推進(jìn)劑各項(xiàng)參數(shù)是否滿足發(fā)動(dòng)機(jī)使用要求具有重要意義。由于實(shí)驗(yàn)測(cè)量過程較為繁瑣、資源消耗較大,常用數(shù)值模擬方法進(jìn)行固體火箭發(fā)動(dòng)機(jī)內(nèi)彈道參數(shù)辨識(shí)。莊建華等基于拉丁超立方設(shè)計(jì)(LHD)的方法對(duì)內(nèi)彈道模型中的燃速系數(shù)、壓強(qiáng)指數(shù)及侵蝕燃燒模型參數(shù)進(jìn)行辨識(shí);郭風(fēng)華等使用有限元軟件進(jìn)行仿真計(jì)算,同時(shí)與實(shí)驗(yàn)結(jié)果對(duì)比;魏瀚、范健等采用CAD實(shí)體造型法,通過訪問幾何造型平臺(tái)內(nèi)核來計(jì)算燃面-肉厚關(guān)系,帶入內(nèi)彈道驗(yàn)證計(jì)算;張小平、王曉鋒等利用神經(jīng)網(wǎng)絡(luò)預(yù)示推進(jìn)劑燃燒性能變化規(guī)律;樊超等基于遺傳算法,利用固體火箭發(fā)動(dòng)機(jī)燃速模型和喉徑變化模型進(jìn)行參數(shù)辨識(shí);褚佑彪等用殘值函數(shù)法模擬出了變?nèi)妓偎幹娜济嫱埔七^程,分析了高低燃速推進(jìn)劑交界面的位置對(duì)藥柱燃面演化過程和內(nèi)彈道的影響。然而,針對(duì)長期貯存的固體推進(jìn)劑,眾多學(xué)者大都依靠數(shù)學(xué)公式或隱藏層較少的神經(jīng)網(wǎng)絡(luò)進(jìn)行推導(dǎo)求解,這些方法的本質(zhì)均是將壓強(qiáng)隨時(shí)間變化的離散數(shù)值點(diǎn)進(jìn)行迭代,存在效率低、計(jì)算成本高、模型不易收斂、準(zhǔn)確率低等缺陷。因此,依然需要一種適合工程應(yīng)用、資源消耗小,同時(shí)準(zhǔn)確率高的方法來求解固體推進(jìn)劑重要參數(shù)。
根據(jù)現(xiàn)有內(nèi)彈道參數(shù)辨識(shí)技術(shù)結(jié)合卷積神經(jīng)網(wǎng)絡(luò),本文提出一種基于卷積神經(jīng)網(wǎng)絡(luò)的固體火箭推進(jìn)劑參數(shù)辨識(shí)方法。首先,將燃速系數(shù)和壓強(qiáng)指數(shù)帶入固體火箭發(fā)動(dòng)機(jī)內(nèi)彈道程序中,根據(jù)變化參數(shù)的數(shù)量,對(duì)應(yīng)生成若干張壓強(qiáng)-時(shí)間曲線圖像,以此作為卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練樣本集;然后,通過卷積神經(jīng)網(wǎng)絡(luò)對(duì)樣本集訓(xùn)練,獲得卷積神經(jīng)網(wǎng)絡(luò)模型;最后,將此模型帶入卷積神經(jīng)網(wǎng)絡(luò)辨識(shí)程序,獲得內(nèi)彈道燃速系數(shù)和壓強(qiáng)指數(shù),從而計(jì)算得到對(duì)應(yīng)壓強(qiáng)下的辨識(shí)燃速。該方法可以較為準(zhǔn)確地獲得燃速結(jié)果,不存在迭代算法中發(fā)散的問題,且誤差控制在1%以內(nèi)。
基于經(jīng)典AlexNet網(wǎng)絡(luò),設(shè)計(jì)針對(duì)固體火箭發(fā)動(dòng)機(jī)內(nèi)彈道參數(shù)辨識(shí)卷積神經(jīng)網(wǎng)絡(luò),本章節(jié)詳細(xì)介紹完成該任務(wù)的辨識(shí)流程及采用的網(wǎng)絡(luò)框架結(jié)構(gòu)。
參數(shù)辨識(shí)流程如圖1所示。
圖1 內(nèi)彈道參數(shù)辨識(shí)流程Fig.1 Identification process of internal ballistic parameters
主要流程:
(1)基于卷積神經(jīng)網(wǎng)絡(luò)中經(jīng)典的AlexNet訓(xùn)練模型的連接層及參數(shù),將推進(jìn)劑的對(duì)應(yīng)參數(shù)輸入固體火箭發(fā)動(dòng)機(jī)內(nèi)彈道程序中,程序基于固體火箭發(fā)動(dòng)機(jī)零維內(nèi)彈道,其計(jì)算公式如下:
(1)
式中為燃?xì)饷芏?;為時(shí)間;為燃燒室容積;為推進(jìn)劑密度;為燃面面積;為燃速;為噴管喉部的質(zhì)量流量;為燃燒室內(nèi)溫度;為燃燒室內(nèi)生成氣體的總質(zhì)量;為推進(jìn)劑絕熱燃燒溫度;為燃燒室內(nèi)壓強(qiáng);為氣體常數(shù);為燃速系數(shù);為燃速壓強(qiáng)指數(shù)。
通過計(jì)算得到的離散點(diǎn)集,判斷該內(nèi)彈道模型是否與實(shí)驗(yàn)內(nèi)彈道模型一致。
(2)待模型校對(duì)一致后,通過改變固體火箭發(fā)動(dòng)機(jī)內(nèi)彈道的兩參數(shù)——燃速系數(shù)和壓強(qiáng)指數(shù),生成若干組壓強(qiáng)-時(shí)間的離散點(diǎn)集,并繪制曲線,生成圖像集(生成的圖像采用位圖文件存儲(chǔ)格式,其具體存儲(chǔ)形式為每一個(gè)像素點(diǎn)存儲(chǔ)3個(gè)8位十六進(jìn)制數(shù))。
(3)將圖像集輸入卷積神經(jīng)網(wǎng)絡(luò)中進(jìn)行訓(xùn)練,生成卷積神經(jīng)網(wǎng)絡(luò)。
(4)將實(shí)驗(yàn)圖像帶入訓(xùn)練模型中,獲得燃速系數(shù)和壓強(qiáng)指數(shù)。
(5)根據(jù)辨識(shí)得到的燃速系數(shù)和壓強(qiáng)指數(shù)值帶入固體火箭發(fā)動(dòng)機(jī)內(nèi)彈道程序中進(jìn)行正向計(jì)算,判斷誤差是否滿足要求:若誤差不滿足要求,則根據(jù)圖像特征修改卷積神經(jīng)網(wǎng)絡(luò)模型中的參數(shù),再次進(jìn)行神經(jīng)網(wǎng)絡(luò)的訓(xùn)練;若誤差滿足要求,則可確定卷積神經(jīng)網(wǎng)絡(luò)的參數(shù),由此生成了有針對(duì)性的固體火箭發(fā)動(dòng)機(jī)內(nèi)彈道參數(shù)辨識(shí)卷積神經(jīng)網(wǎng)絡(luò)及訓(xùn)練模型。
1.2.1 輸入層
整個(gè)網(wǎng)絡(luò)的輸入,一般代表了一張圖片的像素矩陣。圖2中最左側(cè)三維矩陣代表一張輸入的圖片,三維矩陣的長、寬代表了圖像的大小,而三維矩陣的深度代表了圖像的色彩通道(channel)。在本模型中,輸入層(input)是選定辨識(shí)參數(shù)后,通過內(nèi)彈道計(jì)算得到的若干張內(nèi)彈道壓強(qiáng)-時(shí)間曲線圖像(每張圖像的燃速系數(shù)和壓強(qiáng)指數(shù)不相同),每張均為227×227像素、RGB 色彩模式,在該模式下圖像的辨識(shí)深度為3。
圖2 AlexNet構(gòu)架Fig.2 The AlexNet architecture
1.2.2 卷積層
卷積層(convolutional layer,Conv)是所有類型的卷積神經(jīng)網(wǎng)絡(luò)中最為重要的部分。與全連接層不同,這一層由可學(xué)習(xí)的過濾器組成。卷積層中每一個(gè)節(jié)點(diǎn)的輸入只是上一層神經(jīng)網(wǎng)絡(luò)中的一小塊,通過卷積層處理過的節(jié)點(diǎn)矩陣會(huì)變得更深。
卷積層中一個(gè)神經(jīng)元的輸出可以通過如下公式計(jì)算:
(2)
式中,,為當(dāng)前卷積層第個(gè)特征圖中行列的神經(jīng)元的輸出;和為垂直和水平步長;和為接收域的寬和高;′為前一層特征圖的數(shù)目;′,′,′為下一層第′個(gè)特征圖或通道中′行′列神經(jīng)元的輸出;為一層中第個(gè)特征圖的偏移項(xiàng),可以調(diào)整特征圖的亮度;,,′,為一層第個(gè)特征圖中任意一個(gè)與其輸入層第′個(gè)特征圖中位于行列的神經(jīng)元(依賴于一層神經(jīng)元的接收域)之間的連接權(quán)重。
1.2.3 歸一化層
歸一化層(batch normalization,BN)是對(duì)一個(gè)小批處理中的每個(gè)輸入通道進(jìn)行規(guī)范化。為了加快卷積神經(jīng)網(wǎng)絡(luò)的訓(xùn)練速度,降低對(duì)網(wǎng)絡(luò)初始化的敏感性,主要在卷積層和非線性層之間使用。
(3)
(4)
其中,偏移量和尺度因子是可學(xué)習(xí)的參數(shù),在網(wǎng)絡(luò)訓(xùn)練過程中不斷更新。
1.2.4 激活函數(shù)
激活函數(shù)(ReLU)的作用是增加了神經(jīng)網(wǎng)絡(luò)各層之間的非線性關(guān)系。在本文辨識(shí)模型中,使用ReLU激活函數(shù),其主要優(yōu)勢(shì)為:對(duì)于線性函數(shù)而言,ReLU的表達(dá)能力更強(qiáng),尤其體現(xiàn)在深度網(wǎng)絡(luò)中;而對(duì)于非線性函數(shù)而言,ReLU由于非負(fù)區(qū)間的梯度為常數(shù),因此不存在梯度消失問題(Vanishing Gradient Problem),使得模型的收斂速度維持在一個(gè)穩(wěn)定狀態(tài)。
ReLU層對(duì)輸入的每個(gè)元素執(zhí)行閾值操作,其中任何小于零的值都被設(shè)為零:
(5)
圖3 ReLU函數(shù)作用示意圖Fig.3 Diagram of ReLU function
1.2.5 池化層
池化層(maxpool layer)通常跟隨在卷積層后,通過池化層,可以進(jìn)一步縮小最后一個(gè)全連接層中節(jié)點(diǎn)的個(gè)數(shù),從而到達(dá)減少整個(gè)神經(jīng)網(wǎng)絡(luò)參數(shù)的目的。
池化層可以非常有效地縮小矩陣的尺寸(主要減少矩陣的長和寬,一般不會(huì)去減少矩陣深度),從而減少最后全連接層中的參數(shù)。使用池化層既可以加快計(jì)算速度,也可以有效防止過擬合問題。
1.2.6 全連接層
全連接層(fully connected layers,F(xiàn)C)是對(duì)前層是全連接的全連接層轉(zhuǎn)化為卷積核為1×1的卷積,前層是卷積層的全連接層可以轉(zhuǎn)化為卷積核為×的全局卷積,和分別為前層卷積結(jié)果的高和寬。在經(jīng)典的卷積神經(jīng)網(wǎng)絡(luò)中,F(xiàn)C層的參數(shù)占總參數(shù)的絕大部分,因?yàn)槿B接層的每一個(gè)結(jié)點(diǎn)都與上一層的所有結(jié)點(diǎn)相連,需要把前邊提取到的特征綜合起來。本次參數(shù)辨識(shí)需要獲得輸入圖片對(duì)應(yīng)的輸出參數(shù),因此最后一個(gè)全連接層僅需要2層參數(shù),這大大減小了全連接層參數(shù)的數(shù)量,提高了整個(gè)神經(jīng)網(wǎng)絡(luò)訓(xùn)練效率。
1.2.7 防止過擬合層(dropout layer)
在全連接層訓(xùn)練過程中,由于全連接層的每一個(gè)結(jié)點(diǎn)都與上一層的所有結(jié)點(diǎn)相連,一方面會(huì)導(dǎo)致神經(jīng)網(wǎng)絡(luò)訓(xùn)練費(fèi)時(shí),另一方面也會(huì)使訓(xùn)練結(jié)果過擬合。為解決上述問題,在訓(xùn)練過程中用“Dropout”(棄權(quán))方法改善過擬合情況,有效地避免了因訓(xùn)練樣本不足而導(dǎo)致的網(wǎng)絡(luò)過擬合現(xiàn)象。
(a)Standard neural net (b)After applying dropout圖4 Dropout層作用示意圖Fig.4 Schematic of the Dropout layer
1.2.8 損失函數(shù)
為確定卷積神經(jīng)網(wǎng)絡(luò)模型性能,需設(shè)置損失函數(shù)進(jìn)行評(píng)判。任何機(jī)器學(xué)習(xí)模型的目標(biāo)都是通過訓(xùn)練使損失函數(shù)的值最小化,尤其是在預(yù)測(cè)模型更接近已知數(shù)據(jù)集的時(shí)候。該辨識(shí)模型所考慮的損失函數(shù)是如下所示的均方誤差,這是典型的回歸問題:
(6)
式中和()分別為第個(gè)樣本的真實(shí)值和預(yù)測(cè)值;為樣本個(gè)數(shù)。
本文使用的卷積神經(jīng)網(wǎng)絡(luò)模型共設(shè)置1000個(gè)迭代步,即損失函數(shù)對(duì)辨識(shí)模型進(jìn)行1000次整體修正。
為檢驗(yàn)AlexNet網(wǎng)絡(luò)性能是否改進(jìn),結(jié)合實(shí)驗(yàn)結(jié)果,將壓強(qiáng)-時(shí)間曲線圖像通過改進(jìn)AlexNet網(wǎng)絡(luò)進(jìn)行訓(xùn)練,并根據(jù)結(jié)果準(zhǔn)確率進(jìn)行分析。
通過建立的固體火箭發(fā)動(dòng)機(jī)內(nèi)彈道程序,設(shè)置不同的燃速系數(shù)和壓強(qiáng)指數(shù),得到若干張如圖5所示的壓強(qiáng)-時(shí)間曲線圖像(該內(nèi)彈道為測(cè)試單根藥柱的燃燒性能而設(shè)計(jì),故最大壓強(qiáng)和最小壓強(qiáng)差值較大)。燃速系數(shù)和壓強(qiáng)指數(shù)取值范圍根據(jù)推進(jìn)劑出廠時(shí)提供的參數(shù)范圍確定。
樣本點(diǎn)的范圍確定后,即明確燃速系數(shù)和壓強(qiáng)指數(shù)的取值范圍之后,需將燃速系數(shù)和壓強(qiáng)指數(shù)值通過拉丁超立方隨機(jī)采樣的方法進(jìn)行隨機(jī)組合,從而確定生成圖像的樣本點(diǎn)。由于該樣本區(qū)間較大,導(dǎo)致生成的壓強(qiáng)-時(shí)間曲線圖像的時(shí)間范圍和壓強(qiáng)范圍較大,從而影響辨識(shí)結(jié)果精度。為解決該問題,在采樣區(qū)間選擇一定燃速范圍內(nèi)的樣本點(diǎn)對(duì)應(yīng)的燃速系數(shù)和壓強(qiáng)指數(shù)生成壓強(qiáng)-時(shí)間曲線圖像,其采樣結(jié)果如圖6所示。
圖5 壓強(qiáng)-時(shí)間曲線Fig.5 Pressure-time curve graph
圖6 拉丁超立方采樣結(jié)果Fig.6 Latin hypercube sampling results
由于實(shí)際燃燒過程中初始階段可能存在侵蝕燃燒,結(jié)尾段裝藥不均可能導(dǎo)致燃燒速率低于理論值等隨機(jī)情況,均無法通過理論分析準(zhǔn)確預(yù)估。為保證結(jié)果的準(zhǔn)確性,決定選取穩(wěn)定上升段的壓強(qiáng)-時(shí)間曲線圖像進(jìn)行辨識(shí),從而消除實(shí)驗(yàn)的壓強(qiáng)-時(shí)間曲線圖像中上升段和拖尾段的圖像與理論不符從而影響運(yùn)算誤差的情況。在本實(shí)驗(yàn)中,選取0.1~0.4 s,4~11 MPa的圖像生成樣本集,如圖7所示。
在卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練之前,需要對(duì)生成的曲線進(jìn)行圖像增強(qiáng),以獲得神經(jīng)網(wǎng)絡(luò)可識(shí)別明顯特征的圖像信息。本實(shí)驗(yàn)中,對(duì)圖像進(jìn)行隨機(jī)旋轉(zhuǎn)和隨機(jī)平移,有目的地強(qiáng)調(diào)圖像的整體或局部特性,將原來不清晰的圖像變得清晰或強(qiáng)調(diào)某些感興趣的特征,擴(kuò)大圖像中不同物體特征間的差別,抑制不感興趣的特征,從而改善圖像質(zhì)量、豐富信息量,加強(qiáng)圖像判讀和識(shí)別效果。
計(jì)算模型所設(shè)置的參數(shù)為圖像隨機(jī)旋轉(zhuǎn)-20°~20°之間,沿軸及軸方向均隨機(jī)平移0~6像素。圖像增強(qiáng)處理后,輸出圖像的尺寸依然設(shè)置為227×227,與輸入尺寸一致。
圖7 卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練樣本集圖像Fig.7 Training sample set image of convolutional neural network
卷積神經(jīng)網(wǎng)絡(luò)以一種可擴(kuò)展的方式從復(fù)雜的真實(shí)數(shù)據(jù)中捕捉不變性,這是由于其具有局部接受域子結(jié)構(gòu),該結(jié)構(gòu)具有權(quán)值共享并隨后通過子采樣層進(jìn)行映射的能力。AlexNet是在經(jīng)典卷積神經(jīng)網(wǎng)絡(luò)LeNet5和傳統(tǒng)BP神經(jīng)網(wǎng)絡(luò)基礎(chǔ)上進(jìn)一步發(fā)展和改進(jìn)的深度卷積神經(jīng)網(wǎng)絡(luò)。其中,使用的ReLU激活函數(shù)加快了網(wǎng)絡(luò)的收斂速度,并且有效防止梯度消失等問題;在全連接層使用“Dropout”技術(shù),避免了過擬合現(xiàn)象;在第二卷積層和第三卷積層之前,對(duì)輸入數(shù)據(jù)進(jìn)行LRN操作,避免了網(wǎng)絡(luò)模型參數(shù)在訓(xùn)練過程中不斷更新導(dǎo)致每個(gè)后續(xù)層的輸入數(shù)據(jù)分布發(fā)生變化。
本模型基于AlexNet搭建連接層并確定其相關(guān)參數(shù),網(wǎng)絡(luò)框架圖與參數(shù)設(shè)置如圖8所示。在模型訓(xùn)練過程中運(yùn)用數(shù)據(jù)增強(qiáng)、隨機(jī)失活、ReLU激活函數(shù)和局部響應(yīng)規(guī)范化(LRP)的訓(xùn)練技巧,使用了5個(gè)卷積層、3個(gè)池化層和3個(gè)全連接層對(duì)圖片參數(shù)進(jìn)行處理。
表1顯示了經(jīng)典AlexNet不同層的特征尺寸和參數(shù)數(shù)量,總參數(shù)量為6096多萬。本文所提出的辨識(shí)模型參數(shù)設(shè)置如表2所示,其中共需要參數(shù)總量為5605多萬,是經(jīng)典AlexNet總參數(shù)的91.95%。
表1中網(wǎng)絡(luò)參數(shù)量的計(jì)算公式為
=××
(7)
式中為卷積核的大?。粸榫矸e核通道數(shù);為輸出特征圖的通道數(shù)。
圖8 內(nèi)彈道參數(shù)辨識(shí)卷積神經(jīng)網(wǎng)絡(luò)框架Fig.8 Convolutional neural network framework for internal ballistic parameters identification
表1 AlexNet網(wǎng)絡(luò)參數(shù)設(shè)置
表2 辨識(shí)模型網(wǎng)絡(luò)參數(shù)設(shè)置
從表1可見,網(wǎng)絡(luò)的參數(shù)主要集中在全連接層,其中全連接層的參數(shù)占總參數(shù)的96.17%,容易造成過擬合現(xiàn)象,這是由于傳統(tǒng)的AlexNet算法大都進(jìn)行圖像識(shí)別,因此第三層全連接層的輸出參數(shù)較大,其目的是為保證圖像辨識(shí)結(jié)果的判斷參數(shù)足夠大,從而保證結(jié)果的準(zhǔn)確性。而該辨識(shí)模型需要解決的參數(shù)回歸問題,最終需要將圖像與參數(shù)匹配的結(jié)果作為訓(xùn)練結(jié)果,且壓強(qiáng)-時(shí)間曲線所生成的圖像所含特征較少,參數(shù)過多容易導(dǎo)致過擬合。因此,如表2所示,計(jì)算模型所使用的網(wǎng)絡(luò)中全連接層參數(shù)為5108.2萬個(gè),占總參數(shù)的91.12%,相比于經(jīng)典AlexNet,全連接層參數(shù)總量減少了5.05%,從而更好地解決網(wǎng)絡(luò)的過擬合現(xiàn)象。
該辨識(shí)任務(wù)的主要難度在于圖像特征少于普通圖像,導(dǎo)致結(jié)果易出現(xiàn)過擬合問題,且曲線圖像中包含的特征與普通情況的圖片識(shí)別相比特征值少,相比于普通的圖像識(shí)別問題,參數(shù)辨識(shí)問題要求的辨識(shí)精度更高。對(duì)于該情況,選定高精度參數(shù)值是很重要的。表3所示為設(shè)定不同數(shù)據(jù)集樣本量、訓(xùn)練集數(shù)據(jù)占比及驗(yàn)證集數(shù)據(jù)占比,獲得訓(xùn)練所得的燃速系數(shù)辨識(shí)準(zhǔn)確率及壓強(qiáng)指數(shù)辨識(shí)準(zhǔn)確率。
表3 卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練結(jié)果
根據(jù)表3中結(jié)果,得到相同數(shù)量樣本集、不同比例訓(xùn)練集的燃速系數(shù)和壓強(qiáng)指數(shù)辨識(shí)準(zhǔn)確率結(jié)果,如圖9所示。根據(jù)卷積神經(jīng)網(wǎng)絡(luò)結(jié)果準(zhǔn)確率對(duì)比圖中可以得出以下結(jié)論:
(1)當(dāng)訓(xùn)練集占比為15%時(shí),準(zhǔn)確率最小,樣本集為500張和1500張時(shí)準(zhǔn)確率均為85%左右,樣本集為2500張時(shí),準(zhǔn)確率超過了90%,隨著訓(xùn)練集占比數(shù)量增大,準(zhǔn)確率持續(xù)增長,當(dāng)訓(xùn)練集占比為80%時(shí),樣本集為500張和2500張時(shí),準(zhǔn)確率均為92%左右,樣本集為1500張時(shí),準(zhǔn)確率為96%左右。
(2)當(dāng)訓(xùn)練集占比數(shù)量相同時(shí),樣本集數(shù)量為500和2500時(shí),其準(zhǔn)確率均小于樣本集為1500時(shí),這表明樣本集數(shù)量為當(dāng)訓(xùn)練集數(shù)量為500張時(shí),圖像樣本集數(shù)量可繼續(xù)增加,使卷積神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)更多特征,當(dāng)樣本集數(shù)量達(dá)到2500張時(shí),已經(jīng)出現(xiàn)了過擬合的趨勢(shì);
(3)當(dāng)樣本集數(shù)量一定時(shí),訓(xùn)練集比值越大,訓(xùn)練的準(zhǔn)確率越高,但這種情況也有可能是由于測(cè)試集數(shù)量減少導(dǎo)致的準(zhǔn)確率提高,有可能使訓(xùn)練得到的神經(jīng)網(wǎng)絡(luò)普適性較低。
訓(xùn)練結(jié)束后,將待辨識(shí)的實(shí)驗(yàn)壓強(qiáng)-時(shí)間曲線圖像放入訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò)得到的訓(xùn)練模型中,圖像如圖10所示。為保證坐標(biāo)系不干擾重要特征的提取,將實(shí)驗(yàn)曲線的圖像設(shè)置其橫縱坐標(biāo)與理論內(nèi)彈道生成的壓強(qiáng)-時(shí)間曲線圖像一致。得到實(shí)驗(yàn)曲線圖像的燃速系數(shù)和壓強(qiáng)指數(shù)的辨識(shí)結(jié)果,將結(jié)果帶入內(nèi)彈道后,將實(shí)驗(yàn)結(jié)果與理論結(jié)果進(jìn)行對(duì)比,其結(jié)果如圖11所示。由實(shí)驗(yàn)數(shù)據(jù)可以看出,0.127~0.413 s為上升工作段,在該段實(shí)驗(yàn)值與理論值數(shù)據(jù)集誤差最大值為0.203 MPa,平均誤差值為0.101 MPa,是峰值誤差的0.9%。為驗(yàn)證辨識(shí)結(jié)果的準(zhǔn)確性,根據(jù)實(shí)驗(yàn)測(cè)試,截取藥柱進(jìn)行返廠燃速測(cè)試,測(cè)得在20 ℃、9.81 MPa下的燃速為22.5 mm/s,根據(jù)辨識(shí)結(jié)果,藥柱燃速為22.28 mm/s,與測(cè)得的實(shí)驗(yàn)結(jié)果比,其誤差為0.98%。
由推進(jìn)劑出廠數(shù)據(jù)顯示知,在20 ℃、9.81 MPa下推進(jìn)劑的燃速為22.6 mm/s,貯存15 a后,其燃速下降了1%,但依然滿足該推進(jìn)劑出廠時(shí)規(guī)定的使用要求。其中,推進(jìn)劑燃速下降與推進(jìn)劑貯存環(huán)境以及自身材料特性有關(guān)。
(a)The sample size of 500
(b)The sample size of 1500
(c)The sample size of 2500圖9 卷積神經(jīng)網(wǎng)絡(luò)結(jié)果準(zhǔn)確率對(duì)比Fig.9 Accuracy comparison of convolution neural network result
圖10 實(shí)驗(yàn)壓強(qiáng)-時(shí)間曲線截取圖像Fig.10 Part of the experimental pressure-time curve image
圖11 實(shí)驗(yàn)結(jié)果與辨識(shí)結(jié)果對(duì)比圖像Fig.11 Image of the experimental result comparing with the identification result
本文提出了一種基于卷積神經(jīng)網(wǎng)絡(luò)的固體火箭發(fā)動(dòng)機(jī)內(nèi)彈道參數(shù)辨識(shí)方法,此方法基于經(jīng)典AlexNet網(wǎng)絡(luò)模型,將固體火箭發(fā)動(dòng)機(jī)內(nèi)彈道的燃速系數(shù)和壓強(qiáng)指數(shù)兩重要參數(shù)通過理論壓強(qiáng)-時(shí)間曲線建立樣本集,訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò)模型后,辨識(shí)實(shí)驗(yàn)壓強(qiáng)-時(shí)間曲線圖像中的燃速系數(shù)和壓強(qiáng)指數(shù)值,其結(jié)果與實(shí)驗(yàn)值的誤差在可接受范圍內(nèi)。
該辨識(shí)模型的研究價(jià)值主要基于以下三點(diǎn):
(1)針對(duì)性地對(duì)AlexNet網(wǎng)絡(luò)設(shè)計(jì),與經(jīng)典AlexNet方法相比,本文提出的方法針對(duì)參數(shù)辨識(shí)主要有兩點(diǎn)優(yōu)勢(shì):一是設(shè)計(jì)一種特殊的卷積神經(jīng)網(wǎng)絡(luò)用于內(nèi)彈道參數(shù)辨識(shí)任務(wù),即更改相關(guān)參數(shù),尤其是全連接層的參數(shù),在減小計(jì)算量的同時(shí)使卷積神經(jīng)網(wǎng)絡(luò)在完成參數(shù)識(shí)別任務(wù)時(shí)達(dá)到最佳準(zhǔn)確率;二是使用BN層代替經(jīng)典網(wǎng)絡(luò)中的LRN層,加快了網(wǎng)絡(luò)的收斂速度,并在一定程度上防止了過擬合現(xiàn)象。
(2)對(duì)于長期貯存的固體推進(jìn)劑的參數(shù)辨識(shí),可節(jié)省成本。本實(shí)驗(yàn)中所建立的辨識(shí)數(shù)據(jù)集是針對(duì)理論內(nèi)彈道,修改其燃速系數(shù)和壓強(qiáng)指數(shù)獲得的壓強(qiáng)-時(shí)間參數(shù)值來進(jìn)行樣本集的訓(xùn)練,此過程不需要大量的實(shí)驗(yàn)數(shù)據(jù)和結(jié)果,只需要若干驗(yàn)證數(shù)據(jù)集,因此可節(jié)省大量的時(shí)間和經(jīng)濟(jì)成本。
(3)根據(jù)相關(guān)內(nèi)彈道模型可以設(shè)置多個(gè)變量進(jìn)行參數(shù)辨識(shí)。在實(shí)驗(yàn)過程中,基于燃速系數(shù)和壓強(qiáng)指數(shù)兩個(gè)變化參數(shù),增加噴管喉部直徑這一變化參數(shù)后,計(jì)算求解時(shí)間和資源成本幾乎沒有增加,即內(nèi)彈道變化參數(shù)增多,更能凸顯使用卷積神經(jīng)網(wǎng)絡(luò)的優(yōu)越性。本文所使用的內(nèi)彈道模型忽略了發(fā)動(dòng)機(jī)侵蝕燃燒現(xiàn)象,使實(shí)驗(yàn)結(jié)果與辨識(shí)結(jié)果在0.1 s附近產(chǎn)生一定誤差偏離;截取燃燒穩(wěn)態(tài)段(0.1~0.4 s)進(jìn)行卷積神經(jīng)網(wǎng)絡(luò)辨識(shí),這可能會(huì)導(dǎo)致辨識(shí)精度降低。因此,在后續(xù)的研究工作中,將針對(duì)上述不足進(jìn)行完善,從而提高模型的辨識(shí)準(zhǔn)確度。