李 鵬,馮存前,許旭光,唐子翔
(空軍工程大學(xué) 防空反導(dǎo)學(xué)院,陜西 西安 710051)
隨著多彈頭分導(dǎo)以及誘餌技術(shù)大量應(yīng)用在彈道導(dǎo)彈上,如何識別出彈頭和誘餌成為各個國家反導(dǎo)系統(tǒng)研究的重點(diǎn)。微多普勒特征作為彈道目標(biāo)的一個重要特性,廣泛應(yīng)用在彈道目標(biāo)的識別上。早在1998年,美國海軍研究實驗室就對行人的雷達(dá)微多普勒特征開展了研究,一種基于微動特征的有效新途徑開始在雷達(dá)識別領(lǐng)域得到應(yīng)用[1]。彈道目標(biāo)中常見的微動形式主要是旋轉(zhuǎn)、進(jìn)動、章動等。在彈道目標(biāo)的中段飛行時,彈頭一般會采用自旋的方式來進(jìn)行姿態(tài)控制,由于在彈頭和推進(jìn)器分離時會受到?jīng)_擊力距的作用,彈頭總體會表現(xiàn)出進(jìn)動的運(yùn)動形式。而對于誘餌和其他的碎片,一般沒有采取姿態(tài)控制,目標(biāo)會呈現(xiàn)出章動的運(yùn)動形式[2]。因此目標(biāo)的微動特性作為彈道目標(biāo)識別的有效依據(jù),有必要對彈道目標(biāo)的微動分類進(jìn)行深入研究[3]。
為了對彈道目標(biāo)的微動特征進(jìn)行分類,很多學(xué)者對其進(jìn)行了深入研究。文獻(xiàn)[4]根據(jù)不同的微動形式時頻圖的周期性的強(qiáng)弱程度,提出用熵以及循環(huán)自相關(guān)函數(shù)與循環(huán)平均幅度差函數(shù)相結(jié)合的方法來判定其周期強(qiáng)弱程度,然后利用支持向量機(jī)分類器對其進(jìn)行分類。文獻(xiàn)[5]應(yīng)用諧波和的形式描述回波信號,然后采用特征值分解提取特征譜作為識別分類的特征,提出用k近鄰分類器進(jìn)行分類。文獻(xiàn)[6]首先提取微多普勒譜脊線,設(shè)定閾值來區(qū)分出自旋與進(jìn)動章動的微動形式,然后根據(jù)微多普勒譜峰值是否等間距分布來對進(jìn)動和章動兩種微動形式進(jìn)行分類。然而,彈道目標(biāo)的微動特性周期規(guī)律性不明顯,存在檢測、提取和識別困難的問題,因此上述方法普遍存在識別精度不高,魯棒性不強(qiáng)的問題。近些年隨著人工智能的發(fā)展,深度學(xué)習(xí)被廣泛應(yīng)用在模式識別上。與傳統(tǒng)的分類方法相比,基于深度學(xué)習(xí)方法的模式識別具有較好的泛化能力和識別精度,其在面部表情識別[7]、姿態(tài)感知[8]、圖像識別[9-10]等領(lǐng)域均有大量應(yīng)用并取得良好的識別效果。深度學(xué)習(xí)也被應(yīng)用在彈道目標(biāo)的特征識別上,文獻(xiàn)[11]首先將彈道目標(biāo)的高分辨距離像進(jìn)行圖像化,然后基于深度卷積神經(jīng)網(wǎng)絡(luò)對目標(biāo)進(jìn)行識別判定。文獻(xiàn)[12]采用預(yù)訓(xùn)練的網(wǎng)絡(luò),利用遷移學(xué)習(xí)的技術(shù)更改AlexNet網(wǎng)絡(luò)的全連接層和輸出層,用來對彈道目標(biāo)的微動特征進(jìn)行分類。文獻(xiàn)[13]根據(jù)分形理論把一維并行結(jié)構(gòu)放到神經(jīng)網(wǎng)絡(luò)內(nèi),把不同深度的卷積層提取到的特征結(jié)合到一起以提高對彈道目標(biāo)微動特征的提取和識別能力。上述的基于神經(jīng)網(wǎng)路的方法在微動特征的識別精度上有顯著的提升,然而在對神經(jīng)網(wǎng)絡(luò)的超參數(shù)和卷積深度的選擇上往往靠過去的經(jīng)驗和大量的人工調(diào)試,很難得到最優(yōu)的網(wǎng)絡(luò)結(jié)構(gòu)和參數(shù),而利用遷移學(xué)習(xí)的網(wǎng)絡(luò)其學(xué)習(xí)層還保留大量與源域有關(guān)的特征,對新任務(wù)的學(xué)習(xí)層次不深。
為了克服上述的網(wǎng)絡(luò)的缺點(diǎn),需要找到能夠快速有效地得到適合于微動特征分類的網(wǎng)絡(luò)參數(shù)和結(jié)構(gòu)。筆者采用從頭訓(xùn)練的方法訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò)(CNN),并用貝葉斯優(yōu)化算法尋找最優(yōu)的卷積神經(jīng)網(wǎng)絡(luò)的卷積層層數(shù)、初始學(xué)習(xí)率、隨機(jī)梯度下降的動量以及正則化強(qiáng)度的數(shù)值。貝葉斯優(yōu)化算法可在目標(biāo)函數(shù)未知的情況下利用歷史評估結(jié)果去建立目標(biāo)函數(shù)的概率代理模型,能夠在較少的優(yōu)化次數(shù)中找到最優(yōu)的優(yōu)化參數(shù)。
采用文獻(xiàn)[4]的等效散射點(diǎn)模型,對彈道導(dǎo)彈進(jìn)行建模分析。選擇圓錐作為彈頭的幾何模型。如圖1所示,A,B,C為錐體彈頭的3個強(qiáng)散射點(diǎn),O點(diǎn)為質(zhì)心,錐旋軸為Z軸,雷達(dá)視線為η,在雷達(dá)視線η與Z軸的平面上作OY軸垂直于Z軸,過O點(diǎn)作OX軸垂直于YOZ平面。記Z軸與雷達(dá)視線η的夾角為雷達(dá)視線角α,Z軸與錐體對稱軸OA的夾角為章動角θ,OA在面XOY的投影OA′與OX軸的夾角為錐旋角φ。假設(shè)彈道目標(biāo)已進(jìn)行過平動補(bǔ)償。
圖1 彈道導(dǎo)彈彈頭模型
雷達(dá)視線角η可以表示為
η=[0,sinα,cosα] 。
(1)
錐頂A在η上的投影為
rOA=lOA·η,
(2)
則錐頂A的微多普勒頻率為
(3)
式(3)中,λ為雷達(dá)的波長。
下面推導(dǎo)滑動等效散射點(diǎn)B,C的微多普勒頻移表達(dá)式。設(shè)雷達(dá)視線η和錐體極軸OA所在的平面為π1,錐體底面所在的平面為π2,B,C兩點(diǎn)位于平面π1與π2的交線上。平面π1的單位法矢量為
(4)
那么錐體底面中心O1到等效散射點(diǎn)B的單位方向矢量為
(5)
則錐底等效散射點(diǎn)B,C對應(yīng)的矢量為
rB(C)=lO O1±n2r,
(6)
其中,r為錐體底面半徑。等效散射點(diǎn)B,C在雷達(dá)視線上的投影為
lB(C)=rB(C)·η,
(7)
則B,C兩點(diǎn)對應(yīng)的微多普勒頻率為
(8)
根據(jù)錐體目標(biāo)在不同運(yùn)動狀態(tài)的錐旋角φ和章動角θ的變化規(guī)律,可得到錐體目標(biāo)在旋轉(zhuǎn)、進(jìn)動、章動時的微多普勒頻率表達(dá)式。具體推導(dǎo)過程及結(jié)果可參考文獻(xiàn)[4]。
以節(jié)1的平底錐體為模型,分別模擬彈道導(dǎo)彈自旋、進(jìn)動、章動3種不同微動形式寬帶雷達(dá)回波。假設(shè)寬帶雷達(dá)發(fā)射線性調(diào)頻(LFM)信號,帶寬為2 GHz,載頻為10 GHz,脈沖重復(fù)頻率(PRF)為1 024 Hz。設(shè)平底錐的高O1A為3 m,質(zhì)心到底面的距離OO1為0.75 m,底面半徑為0.64 m。微動參數(shù)為:自旋時,雷達(dá)視線角α為95°~150°,章動角θ0為12°~20°,初始錐旋角φ0為18°~360°;進(jìn)動時,雷達(dá)視線角α為95°~150°,章動角θ0為12°~20°,初始錐旋角φ0為0°,錐旋角頻率fφ為0.84~1.20 Hz;章動時,雷達(dá)視線角α為95°~150°,章動角θ0為12°~20°,初始錐旋角φ0為0°,章動角擺動角度θ1為10°,錐旋角頻率fφ為0.84~1.20 Hz,章動角擺動頻率fθ為1.0~1.5 Hz。設(shè)置參數(shù)如表1所示。
表1 微動參數(shù)設(shè)置
除了上述的變量外,在仿真的過程中數(shù)據(jù)集還分別加入了信噪比為-15 dB∶5 dB∶15 dB的高斯白噪聲。由此方法一共得到7×3×1 300張不同的時頻圖。同一信噪比情況下,每類微動形式產(chǎn)生1 300張不同的圖像以用作訓(xùn)練測試網(wǎng)絡(luò)的數(shù)據(jù)集,圖像的分辨率大小為227×227×3,得到的部分圖像如圖2和圖3所示。
圖2 無噪聲條件下的時頻圖
圖3 信噪比為-10 dB的時頻圖
在機(jī)器學(xué)習(xí)中,幾乎所有的優(yōu)化問題都是黑箱優(yōu)化問題,其需要找到最小絕對值的目標(biāo)函數(shù),但沒有一個確定的表達(dá)形式,其導(dǎo)數(shù)也無法求出[14]。對于卷積神經(jīng)網(wǎng)絡(luò)模型超參數(shù)的優(yōu)化,也是將卷積神經(jīng)網(wǎng)絡(luò)模型整體視為一個黑箱。超參數(shù)優(yōu)化問題可以假設(shè)為:在一組超參數(shù)組合中X={x1,x2,…,xn}(xn表示第n個超參數(shù)的值),對每一個超參數(shù)進(jìn)行評估,評估的結(jié)果可以表示為f(xn)。在優(yōu)化的過程中,需要找到最優(yōu)的超參數(shù)x*:
(9)
其中,x*表示為使目標(biāo)函數(shù)最小的參數(shù)值,x∈X。
人工選擇相關(guān)的超參數(shù)進(jìn)行調(diào)優(yōu)非常困難,并且需要花費(fèi)大量的時間。這就需要一個算法能夠自動地找到最優(yōu)的超參數(shù)。筆者基于貝葉斯優(yōu)化算法,對卷積神經(jīng)網(wǎng)絡(luò)模型的超參數(shù)進(jìn)行優(yōu)化。貝葉斯優(yōu)化算法是基于目標(biāo)函數(shù)的歷史評估結(jié)果去建立目標(biāo)函數(shù)的概率代理模型,在選擇下一組超參數(shù)的時候充分利用了之前的評價信息,減少了超參數(shù)的搜索次數(shù),得到的超參數(shù)也最有可能是最優(yōu)的,從而可以提高模型的估計精度和泛化能力。
貝葉斯優(yōu)化是由貝葉斯定理導(dǎo)出的一種方法,用于搜索目標(biāo)函數(shù)的最小值。根據(jù)貝葉斯定理,給定觀測點(diǎn)E,模型M的后驗概率P(M|E)與觀測點(diǎn)E的似然比概率P(E|M)乘以模型M的先驗概率P(M)成正比,即
P(M|E)∝P(E|M)P(M) 。
(10)
貝葉斯優(yōu)化背后的思想是利用目標(biāo)函數(shù)f(x)的先驗分布以及之前訓(xùn)練模型的試驗得到的觀測點(diǎn),來獲得模型的后驗分布。然后利用后驗信息選擇下一個樣本點(diǎn),使f(x)減小到最小[15]。
貝葉斯優(yōu)化算法有兩個核心的部分,概率代理模型和采集函數(shù)[16]。概率代理模型是指用來表示未知目標(biāo)函數(shù)的概率模型,通過增加試驗次數(shù),不斷地對目標(biāo)函數(shù)的先驗概率進(jìn)行修正,從而使得表示未知目標(biāo)函數(shù)的代理模型更加準(zhǔn)確。采樣函數(shù)根據(jù)后驗概率分布,在最可能出現(xiàn)全局最優(yōu)解的區(qū)域和還未采樣的區(qū)域進(jìn)行采樣,從候選集中選擇出最優(yōu)的樣本點(diǎn),使得目標(biāo)函數(shù)值最小。
在概率代理模型的選擇中,高斯過程是一個很好的選擇。高斯過程(Gaussian Processes,GP)是一種常見的非參數(shù)概率代理模型。高斯過程可以生成高維的高斯分布,能夠模擬任何形式的目標(biāo)函數(shù)[17]。在求出概率分布后,需要采樣函數(shù)尋找下一個樣本點(diǎn)進(jìn)行樣本計算。目前主要的采集函數(shù)有3種:Probability of Improvement(PI),Excepted Improvement(EI),GP Upper Confidence Bound(GP-UCB)[18]。筆者選擇高斯過程和EI函數(shù)作為概率代理模型和采集函數(shù)。
一個典型的卷積神經(jīng)網(wǎng)絡(luò)模型包括輸入層、分類輸出層和隱藏層。隱藏層包括一系列的卷積層,然后是批處理歸一化層和ReLU層,最后是池化層。為了使卷積神經(jīng)網(wǎng)絡(luò)模型能夠充分地學(xué)習(xí)到圖像的特征,將隱藏層分為3部分:第1部分隱藏層學(xué)習(xí)底層特征,接下來的部分依次學(xué)習(xí)中層和高層特征。每一部分由相等的塊數(shù)組成,定義塊數(shù)(部分深度)為n,其中每一塊由一個卷積層、一個批處理歸一化層和一個ReLU層組成。在每一部分后連接一個最大池化層,將空間維度下采樣至一半。在隱藏層后依次連接全連接層和分類層組成的輸出層,把學(xué)習(xí)的特征從高維降到低維,進(jìn)行分類的顯性表達(dá)。卷積神經(jīng)網(wǎng)絡(luò)的架構(gòu)如圖4所示。
圖4 卷積神經(jīng)網(wǎng)絡(luò)架構(gòu)
在網(wǎng)絡(luò)參數(shù)的選擇上,因為仿真產(chǎn)生的時頻圖的大小是227×227×3大小的圖片,因此輸入層為二維圖像輸入層,輸入層的圖像參數(shù)設(shè)置為227×227×3。每個部分的卷積核(濾波器)的數(shù)量設(shè)置為與部分深度的平方根成反比。對于每次迭代,無論貝葉斯優(yōu)化評估的網(wǎng)絡(luò)模型之間的部分深度是否相同,參數(shù)數(shù)量和計算時間幾乎是相等的。每次根據(jù)最大池化層將空間縮小1/2時,卷積層濾波器的數(shù)量就會增加1倍。這確保了每個卷積層的計算量幾乎相等,因為卷積層越深,網(wǎng)絡(luò)需要學(xué)習(xí)的特征就越多。網(wǎng)絡(luò)各部分的卷積層濾波器的數(shù)量N可以表述為
(11)
其中,β為任意值,設(shè)置為10;n代表部分網(wǎng)絡(luò)深度;ε為部分網(wǎng)絡(luò)的排列順序,依次為1,2,3。
本次實驗的微動形式為3種,因此把全連接層的卷積核數(shù)量設(shè)置為3,輸出可以將時頻圖劃分為自旋、進(jìn)動、章動3種不同的類別。
卷積神經(jīng)網(wǎng)絡(luò)的基本架構(gòu)以及訓(xùn)練的選項需要在訓(xùn)練之前進(jìn)行設(shè)計,找出這些超參數(shù)以最小化匹配誤差和避免過擬合不是一項簡單的任務(wù),如果在獲得滿意的匹配結(jié)果之前決定使用人工的方法搜索,則它會消耗大量的計算時間。筆者通過貝葉斯優(yōu)化來自動調(diào)整超參數(shù),在有限的搜索次數(shù)內(nèi)達(dá)到最優(yōu)值,從而保證得到最好的卷積神經(jīng)網(wǎng)絡(luò)模型。結(jié)合上一章中介紹的貝葉斯優(yōu)化算法,利用貝葉斯算法優(yōu)化訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò)的流程如下:
步驟1 把得到的時頻圖數(shù)據(jù)集分為訓(xùn)練集、驗證集和測試集,圖像數(shù)量比例為0.7∶0.15∶0.15,即訓(xùn)練集、驗證集和測試集的圖像數(shù)量分別為910張,195張和195張。
步驟2 指定要優(yōu)化的變量,優(yōu)化的變量為卷積神經(jīng)網(wǎng)絡(luò)的超參數(shù)和網(wǎng)絡(luò)結(jié)構(gòu)本身的參數(shù)。
步驟3 定義目標(biāo)函數(shù)FJ,將優(yōu)化變量的值作為輸入,利用數(shù)據(jù)集訓(xùn)練指定的網(wǎng)絡(luò),并用驗證集進(jìn)行驗證。為了使此模型能夠在不同的信噪比條件下具有較強(qiáng)的泛化能力,選擇不同信噪比的數(shù)據(jù)集分別訓(xùn)練網(wǎng)絡(luò)。同時以驗證集上的錯誤概率作為目標(biāo)函數(shù)FJ,然后保存訓(xùn)練后的網(wǎng)絡(luò)。本次實驗以0 dB的數(shù)據(jù)集為例說明網(wǎng)絡(luò)的優(yōu)化過程。
步驟4 通過將驗證集上的錯誤概率最小化來執(zhí)行貝葉斯優(yōu)化。
步驟5 將得到的最優(yōu)的網(wǎng)絡(luò)參數(shù)加載到網(wǎng)絡(luò)中,利用測試集上的數(shù)據(jù)對網(wǎng)絡(luò)進(jìn)行評估。
在步驟2中,選擇優(yōu)化變量時,需要指定變量的搜索范圍和數(shù)據(jù)類型。在卷積神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)和超參數(shù)中,筆者選擇對網(wǎng)絡(luò)影響比較大的4個變量進(jìn)行優(yōu)化。
(1)網(wǎng)絡(luò)的部分深度n。每個部分具有n個相同的卷積層,卷積層的總數(shù)為3×n。神經(jīng)網(wǎng)絡(luò)的深度影響對輸入特征的抽象程度,然而神經(jīng)網(wǎng)絡(luò)的深度并不是越深越好,針對不同的任務(wù)需要找到合適的深度。
(2)網(wǎng)絡(luò)的初始學(xué)習(xí)率LR。神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)率指的是神經(jīng)網(wǎng)絡(luò)對數(shù)據(jù)進(jìn)行學(xué)習(xí)的速率。如果學(xué)習(xí)率過小,則可能會導(dǎo)致局部最優(yōu);如果學(xué)習(xí)率過大,則可能導(dǎo)致無法收斂到最優(yōu)。最佳的學(xué)習(xí)率由使用的數(shù)據(jù)集和網(wǎng)絡(luò)模型共同決定。
(3)隨機(jī)梯度下降的動量MT。動量通過使用當(dāng)前更新包含與上一次迭代中的更新成比例的貢獻(xiàn),來為參數(shù)更新增加慣性。這樣可以使參數(shù)更新更加平滑,并減少隨機(jī)梯度下降所固有的噪聲。
(4)L2正則化強(qiáng)度RS。正則化可以防止神經(jīng)網(wǎng)絡(luò)過擬合現(xiàn)象的發(fā)生,通過搜索正則化強(qiáng)度的設(shè)置區(qū)間以找到一個合適的值。
上述的4個優(yōu)化變量相互影響,任意一個參數(shù)的變動都會導(dǎo)致其他參數(shù)的效果發(fā)生變化,因此需要找到全局最優(yōu)的參數(shù)設(shè)置。
在參數(shù)范圍的設(shè)置上,根據(jù)以往的經(jīng)驗確定優(yōu)化變量的搜索區(qū)間,如表2所示。
表2 優(yōu)化變量的搜索區(qū)間
確定完優(yōu)化變量及搜索區(qū)間之后,為了充分利用貝葉斯優(yōu)化的能力,設(shè)置對目標(biāo)函數(shù)進(jìn)行30次評估。在每一次訓(xùn)練過程中設(shè)置驗證頻率為10,最小訓(xùn)練批次為64,求解法為隨機(jī)梯度下降法,并把每次評估的結(jié)果顯示出來。在貝葉斯優(yōu)化過程中,每次觀測到的函數(shù)值、計算時間、最小目標(biāo)值如圖5所示。實驗條件:軟件MATLAB 2020b,計算機(jī)配置i7-10750H,GTX1650 4 GB顯卡。
圖5 貝葉斯優(yōu)化過程
在對目標(biāo)函數(shù)進(jìn)行30次的貝葉斯優(yōu)化評估中,得到了最優(yōu)的可行點(diǎn),最優(yōu)的參數(shù)數(shù)值如表3所示。在此參數(shù)下,目標(biāo)函數(shù)的值為0,即此參數(shù)下的卷積神經(jīng)網(wǎng)絡(luò)模型對微動特征的識別性能在驗證集上的錯誤概率為0。
表3 最佳的卷積神經(jīng)網(wǎng)絡(luò)參數(shù)
根據(jù)上一節(jié)中得到的優(yōu)化結(jié)果,得到卷積神經(jīng)網(wǎng)絡(luò)模型的最終結(jié)構(gòu)如圖6所示。其中第1層為圖像數(shù)據(jù)的輸入層,其輸入的圖像數(shù)據(jù)大小為227×227×3,用來讀取數(shù)據(jù)集中的時頻圖;在網(wǎng)絡(luò)的最后為全連接層和分類輸出層,用來將網(wǎng)絡(luò)的計算結(jié)果轉(zhuǎn)化成每一種類的概率,并將最大概率的結(jié)果當(dāng)作識別結(jié)果作為網(wǎng)絡(luò)的輸出。在每一個網(wǎng)絡(luò)層上顯示了這一層網(wǎng)絡(luò)的輸出大小以及在卷積層和池化層的濾波器的大小。
圖6 貝葉斯優(yōu)化得到的網(wǎng)絡(luò)結(jié)構(gòu)
接下來,將貝葉斯優(yōu)化過程中找到的卷積神經(jīng)網(wǎng)絡(luò)模型在測試集上進(jìn)行測試。由于貝葉斯優(yōu)化是利用驗證集得到的錯誤概率,從而確定最優(yōu)的網(wǎng)絡(luò)。然而測試集并沒有暴露給網(wǎng)絡(luò),所以在測試集上的錯誤概率可能會大于驗證集。如圖7所示的測試集混淆矩陣,從圖中可以看出,得到的最優(yōu)化卷積神經(jīng)網(wǎng)絡(luò)模型在識別旋轉(zhuǎn)、進(jìn)動、章動3種微動形式時,正確率分別為100%、95.9%、95.9%。由于自旋形式的微動特征的比較明顯,所以識別率最高,對微動形式的平均識別率為97.3%。
圖7 測試集混淆矩陣
前面得到的卷積神經(jīng)網(wǎng)絡(luò)模型能夠正確分類絕大多數(shù)的樣本,但圖像的哪些特征導(dǎo)致該網(wǎng)絡(luò)做出的這種判斷需要深度研究。卷積神經(jīng)網(wǎng)絡(luò)及許多其他深度學(xué)習(xí)模型常被認(rèn)為是一種難以解釋的“黑箱模型”,即無法了解卷積層提取的特征的本質(zhì)。筆者采用t分布隨機(jī)鄰域嵌入(t-Distributed Stochastic Neighbor Embedding,t-SNE)算法[19]來可視化卷積神經(jīng)網(wǎng)絡(luò)的激活情況,從而分析卷積神經(jīng)網(wǎng)絡(luò)的響應(yīng)方式。t-SNE技術(shù)可以將高維數(shù)據(jù)(例如某層的網(wǎng)絡(luò)激活)映射到二維,它本質(zhì)上是一種非線性降維方法。圖8所示為用t-SNE技術(shù)展示的卷積神經(jīng)網(wǎng)絡(luò)模型中的第2個最大池化層,最后一個卷積層和最后的Softmax層的t-SNE數(shù)據(jù)。其中黑色、深色和淺色的點(diǎn)分別代表了旋轉(zhuǎn)、進(jìn)動和章動的二維特征。卷積神經(jīng)網(wǎng)絡(luò)模型中靠前的層傾向于對邊緣和顏色等低級特征進(jìn)行操作,而更深的層已經(jīng)學(xué)會了包含更多語義信息的高級特征。從圖8中可以看出,隨著網(wǎng)絡(luò)深度的增加,更深層的激活趨向于將來自同一類的點(diǎn)聚集在一起。
圖8 t-SNE分析結(jié)果
在Softmax層的激活空間中,圖像越相似其距離就越近,則不同類別的相似圖像就容易導(dǎo)致誤分類。在圖7中,根據(jù)t-SNE展示的結(jié)果,其中旋轉(zhuǎn)的二維特征和進(jìn)動、章動的特征有很明顯的區(qū)分,然而進(jìn)動、章動的二維特征由極少量的數(shù)據(jù)混在一起,這也就解釋了為什么識別旋轉(zhuǎn)微動形式時正確率為100%,而識別進(jìn)動與章動兩種微動形式時,正確率為95.9%與95.9%。
為了驗證貝葉斯優(yōu)化算法對卷積神經(jīng)網(wǎng)絡(luò)模型的影響,將有無貝葉斯參數(shù)優(yōu)化作為變量。在無貝葉斯優(yōu)化的網(wǎng)絡(luò),其結(jié)構(gòu)與有貝葉斯優(yōu)化的網(wǎng)絡(luò)的結(jié)構(gòu)保持相同,網(wǎng)絡(luò)參數(shù)選擇默認(rèn)參數(shù),即LR=0.01,MT=0.8,RS=0.000 1。在不同的信噪比下用數(shù)據(jù)集訓(xùn)練網(wǎng)絡(luò),得到的綜合識別率對比如表4所示。從表中可以看出,在不同的信噪比下,與無貝葉斯優(yōu)化的卷積神經(jīng)網(wǎng)絡(luò)相比,經(jīng)過貝葉斯優(yōu)化的卷積神經(jīng)網(wǎng)絡(luò)具有更高的識別精度。
表4 有無貝葉斯優(yōu)化的網(wǎng)絡(luò)識別性能對比 %
為了進(jìn)一步驗證文中網(wǎng)絡(luò)在不同信噪比情況下的有效性和實時性,利用經(jīng)典的Alexnet、GoogleNet和SqueezeNet網(wǎng)絡(luò)模型,運(yùn)用遷移學(xué)習(xí)的方法對微多普勒特征在不同的信噪比下進(jìn)行訓(xùn)練,同時設(shè)置3種網(wǎng)絡(luò)的超參數(shù)為默認(rèn)參數(shù)。將不同信噪比下得到的數(shù)據(jù)集按照70%、15%和15%的比例隨機(jī)分為訓(xùn)練集、驗證集和測試集。同時,為了測試網(wǎng)絡(luò)的數(shù)據(jù)處理能力,將4種訓(xùn)練好的網(wǎng)絡(luò)在同一電腦環(huán)境下識別1 000張數(shù)據(jù)集中的時頻圖,記錄下每種網(wǎng)絡(luò)所花費(fèi)的時間,然后就可以得到網(wǎng)絡(luò)每秒的圖像處理幀數(shù)。圖9和表5分別給出了Alexnet、GoogleNet、SqueezeNet和文中網(wǎng)絡(luò)對不同形式的微多普勒時頻圖的識別性能和識別 1 000 張圖像所需要的時間。
圖9 不同網(wǎng)絡(luò)微動特征識別性能
表5 不同網(wǎng)絡(luò)的數(shù)據(jù)處理能力對比
分析圖9和表5中的數(shù)據(jù)可知:
(1)在不同網(wǎng)絡(luò)識別3種微動特征時,旋轉(zhuǎn)形式的微動特征的識別率最高,這是因為旋轉(zhuǎn)形式的微動特征與其他兩種的微動形式具有較大的差異,特征較明顯。
(2)在信噪比較大的情況下,4種網(wǎng)絡(luò)都有很好的識別性能,識別率可以達(dá)到100%。隨著信噪比下降,導(dǎo)致目標(biāo)的微動特征減弱。基于遷移學(xué)習(xí)的網(wǎng)絡(luò)由于其學(xué)習(xí)層的特征大多數(shù)為源域的特征,而基于貝葉斯優(yōu)化的卷積神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)層特征為微動數(shù)據(jù)集上的特征,因此在低信噪比的情況下,基于貝葉斯優(yōu)化的卷積神經(jīng)網(wǎng)絡(luò)具有更好的識別性能。在信噪比為-15 dB的情況下,綜合識別率比Alexnet、GoogleNet和SqueezeNet網(wǎng)絡(luò)模型分別高出9.8%、7.3%和5.6%。
(3)在綜合識別率的對比上,文中網(wǎng)絡(luò)在不同的信噪比情況下的識別率都是最高的??梢缘贸鼋Y(jié)論,這種網(wǎng)絡(luò)由于深入學(xué)習(xí)了不同微動形式的時頻特征,因此與其他遷移學(xué)習(xí)的卷積神經(jīng)網(wǎng)絡(luò)相比具有較強(qiáng)的魯棒特性。
(4)文中的網(wǎng)絡(luò)在識別效率上高于GoogleNet,略低于Alexnet和SqueezeNet網(wǎng)絡(luò)。
從上述對比中可以得出結(jié)論,文中網(wǎng)絡(luò)與傳統(tǒng)的方法相比,具有更高的精度和魯棒性,對于識別精度和魯棒性要求比較高的應(yīng)用環(huán)境,卷積神經(jīng)網(wǎng)絡(luò)比較適合。
筆者研究了基于深度學(xué)習(xí)的彈道目標(biāo)微動分類的方法。為了避免人工方法尋找網(wǎng)絡(luò)的結(jié)構(gòu)和超參數(shù),提出利用貝葉斯優(yōu)化的方法自動尋找最優(yōu)的結(jié)構(gòu)和超參數(shù)的方法。利用貝葉斯優(yōu)化算法在30次迭代中成功地找到了最優(yōu)的網(wǎng)絡(luò)結(jié)構(gòu)和訓(xùn)練方案?;谪惾~斯優(yōu)化算法得到的卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)相比于支持向量機(jī)和微多普勒脊線方法具有更高的識別精度。在不同信噪比條件下,相比于基于遷移學(xué)習(xí)的Alexnet、GoogleNet和SqueezeNet網(wǎng)絡(luò)模型具有更好的魯棒性,其綜合識別率均高于上述3種網(wǎng)絡(luò)模型。仿真結(jié)果表明,筆者提出的方法為彈道目標(biāo)的智能化識別提供了一種綜合性能更好的卷積神經(jīng)網(wǎng)絡(luò)和網(wǎng)絡(luò)設(shè)計思路。