向前,王曉丹,宋亞飛,李睿,來杰,張國令
(空軍工程大學 防空反導學院,西安 710051)
高分辨距離像(High-Resolution Range Profile,HRRP)是寬帶雷達的回波在對應散射距離單元上的疊加,包含了散射源豐富的結構信息,且具有獲取容易、處理速度快等優(yōu)勢,可作為彈道目標識別的有效信息[1-2]。
作為深度學習的經(jīng)典算法之一,卷積神經(jīng)網(wǎng)絡(Convolutional Neural Network,CNN)[3]具有較強的特征提取能力,在基于HRRP的雷達目標識別領域中具有較多的研究與應用。例如,Chen等[4]將極值理論引入到CNN中,并使用openmax層代替Softmax分類器用于估計HRRP樣本屬于已知類別和未知類別的概率,解決了HRRP的開集識別問題;Guo等[5]使用多尺度卷積核提取HRRP的不同精細度特征,并構造中心損失函數(shù)對網(wǎng)絡進行訓練,有效克服了目標平移敏感性和姿態(tài)敏感性問題;Wan等[6]將原始的一維HRRP數(shù)據(jù)轉化為二維的光譜圖,并利用深度CNN對HRRP光譜圖進行識別,同時引入了基于反卷積的解碼器結構克服了離群值的影響,相比基于原始HRRP的識別方法具有更高的識別正確率;Wen等[7]結合遷移學習技術,先利用視角完備的HRRP輔助數(shù)據(jù)集對一維CNN(One-Dimensional CNN,1D-CNN)進行預訓練,再使用真實數(shù)據(jù)對預訓練的模型進行微調(diào),提高了視角不完備條件下的HRRP識別效果。
雖然以上基于CNN的方法解決了特定條件下的雷達目標識別問題,但對于彈道導彈目標HRRP識別而言,仍然存在以下2個方面的不足:
1)以目標的整體識別正確率為目標,忽略了各類目標的誤識別代價。對于彈道目標識別,把彈頭誤識別為誘餌比把誘餌誤識別為彈頭所產(chǎn)生的代價大得多[2],因此,考慮誤識別代價的影響至關重要。
2)CNN在網(wǎng)絡的構造過程中需要人工調(diào)參,因此,很難在有限的時間內(nèi)找到誤識別代價較小的網(wǎng)絡結構,同時往往造成模型過參數(shù)化,導致其具有較高的運算復雜度。
針對以上問題,本文提出了一種基于代價敏感剪枝(Cost-Sensitively Pruning,CSP)1D-CNN的彈道目標HRRP識別方法,其創(chuàng)新點如下:
1)將1D-CNN的代價敏感識別問題和模型壓縮問題統(tǒng)一為尋找誤識別代價較小的子網(wǎng)絡(即代價敏感子網(wǎng)絡)問題,建立了以此為目標的數(shù)學規(guī)劃模型。
2)針對1D-CNN代價敏感子網(wǎng)絡的搜索問題,提出了基于人工蜂群算法[8]的CSP算法,實現(xiàn)了網(wǎng)絡結構的自動搜索,得到的代價敏感子網(wǎng)絡具有相對較低的計算復雜度和整體誤識別代價。
3)針對傳統(tǒng)剪枝算法在微調(diào)過程中未考慮誤識別代價的問題,提出了代價敏感交叉熵(Cost-Sensitive Cross Entropy,CSCE)損失函數(shù),使代價敏感子網(wǎng)絡以最小化誤識別代價為目標進行訓練。
CNN是一類包含卷積計算的深度前饋神經(jīng)網(wǎng)絡,1D-CNN主要處理的是一維數(shù)據(jù)。與處理圖像等二維數(shù)據(jù)的CNN類似,1D-CNN核心模塊一般包括一維卷積層、池化層、全連接層和Softmax分類器。其中,一維卷積層和池化層一般以成對的形式存在,通過對卷積-池化層進行多次疊加形成深度1D-CNN。
對于包含L 個卷積層的深度1D-CNN,設X(l)∈RD(l)×C(l)為第l層的多通道輸入,D(l)和C(l)分別為特征長度和通道個數(shù),且每個通道對應一個卷積核。X(l)與該層的第k∈{1,2,…,C(l)}個長度為H(l)的卷積核W(k,l)∈RC(l)×H(l)進行運算,產(chǎn)生的一維特征圖為
式中:b(k,l)為第k個卷積核的偏置參數(shù);δ(·)為非線性激活函數(shù),目的是為模型增加非線性因素。
批歸一化通過對每個批次的輸入數(shù)據(jù)進行歸一化處理,增加了損失函數(shù)的Lipschitz連續(xù)性,即降低了損失函數(shù)的變化速率和梯度的幅度,使得網(wǎng)絡訓練對超參數(shù)不敏感,從而快速收斂[9-10]。因此,使用其對卷積層的輸出歸一化到均值為0、標準差為1的分布。設卷積層的輸出為x=[x(1),x(2),…,x(d)],每一維的輸出歸一化為
式中:期望E[·]和標準差Var[·]在訓練數(shù)據(jù)集的每個小批次中進行計算;ε為接近0的數(shù),用以防止分母為0。
引入超參數(shù)γ(k)和β(k)對歸一化值進行縮放和平移:
池化層可以對特征圖進行下采樣,起到減少數(shù)據(jù)量的同時保留有用信息的作用。如果采用最大池化的方法,對于第l個池化層的第k個輸入特征圖,最大池化后輸出特征圖位置i處的值由式(4)給出:
式中:r(l)和s(l)分別為第l個池化層的池化窗口大小和池化操作步幅。
對于末尾的一維卷積層,各個通道的特征圖長度如果為1,則可直接連接分類器進行分類,如果不為1,則需將各個通道的特征圖進行拉平操作,形成一個長度為Lu的向量u,其后連接全連接層或者Softmax分類器。如果是全連接層,設u經(jīng)過全連接層的輸出為u′,則u′在位置i處的值為
式中:Lu′為全連接層的神經(jīng)元個數(shù);w為全連接層的權重參數(shù);b′為全連接層的偏置參數(shù)。
Softmax分類器可視作特殊的全連接層,其神經(jīng)元個數(shù)與待分類目標的類別總數(shù)相等,并且使用Softmax激活函數(shù)。設目標的類別總數(shù)為K,Softmax分類器的參數(shù)表示為θsm={Wsm,bsm},Wsm和bsm分別為Softmax分類器的權重和偏置參數(shù),對于每個輸入樣本(xn,yn),xn和yn分別為樣本數(shù)據(jù)和對應的真實標簽,分類器所在全連接層第j個神經(jīng)元的輸出表示的是將樣本x判斷為第j個類別的概率,即
基于1D-CNN的彈道目標HRRP識別模型結構具體如圖1所示。網(wǎng)絡的輸入為含有256個距離單元的HRRP樣本,輸出為彈頭、高仿誘餌、簡單誘餌、母艙和球形誘餌等5個目標的后驗概率,因此K=5。模型含有4個一維卷積層,各層的卷積核數(shù)目分別為100、200、400和800,各層輸入不進行零填充,卷積核大小和步幅皆分別為5和1,同時將輸出進行批歸一化之后再使用Mish[11]函數(shù)激活。最大池化層的窗口大小和步幅皆為3。由于輸入的含有256個距離單元的HRRP數(shù)據(jù)經(jīng)過整個網(wǎng)絡進行處理之后各個通道輸出的特征長度為1,無需拉平操作,直接連接Softmax分類器。
圖11D-CNN整體結構Fig.1 Architecture of 1D-CNN
為了評價模型對測試數(shù)據(jù)集的整體誤識別代價,首先定義一個K×K的矩陣M 用以描述K個類別相互之間的誤識別代價:
按照如圖2所示的典型網(wǎng)絡剪枝流程[14],先對較大的原始網(wǎng)絡進行預訓練,再對網(wǎng)絡進行剪枝獲得一個代價敏感的子網(wǎng)絡,最終構建代價敏感損失函數(shù)對其進行微調(diào),進一步降低整體誤識別代價。
圖2 三階段網(wǎng)絡剪枝流程Fig.2 Three-stage network pruning procedure
式中:cost(·)表示模型的整體誤識別代價,由式(10)進行計算得到;α∈(0,100%]為給定的通道個數(shù)保留百分比上限超參數(shù),表示在剪枝的過程中子網(wǎng)絡每個卷積層最多只保留原始網(wǎng)絡N中對應卷積層百分比為α的通道個數(shù),起到了限定子網(wǎng)絡通道個數(shù)的上界,以達到剪枝效果和縮小搜索空間的作用。
3)跟隨蜂階段。跟隨蜂利用式(14)通過輪盤賭選擇法選擇一個蜜源,并將選擇的蜜源使用式(12)產(chǎn)生新的蜜源,再根據(jù)其各自的適應度值對新舊蜜源進行貪婪選擇。
算法1 基于人工蜂群的CSP算法。
輸入:經(jīng)預訓練的初始網(wǎng)絡N;搜索周期T;蜜源數(shù)量Ω;通道個數(shù)保留百分比上限超參數(shù)α;蜜源等待更新次數(shù)上限Ψ;訓練數(shù)據(jù)集Dtrain;測試數(shù)據(jù)集Dtrain;計算適度值時子網(wǎng)絡訓練周期數(shù)Φ;輪盤賭選擇法參數(shù)β。
在算法1所示的人工蜂群算法中的4個階段,都會因計算新生成的子網(wǎng)絡適應度而增加額外的訓練周期。對于初始化階段,Ω個子網(wǎng)絡計算適應度增加的額外訓練周期總數(shù)為Ω×Φ。雇傭蜂階段每個搜索周期內(nèi)亦有Ω個子網(wǎng)絡需計算適應度,該階段增加的額外訓練周期總數(shù)為T ×Ω×Φ。跟隨蜂階段和偵察蜂階段具有較大的隨機性,額外增加的訓練周期數(shù)的范圍分別在0~2×T ×Ω×Φ 范圍內(nèi),則剪枝過程中增加的額外訓練周期總數(shù)至少為(T +1)×Ω×Φ,最多為(3T +1)×Ω×Φ。因此,算法1引入相對增加了模型在訓練過程中的計算量,但對于彈道目標識別而言,有效降低模型在識別過程的計算量比降低模型在訓練過程中的計算量相對更為重要,而控制通道數(shù)量超參數(shù)α的引入可以使算法1在搜索過程中尋找通道數(shù)更少而誤識別代價更小的子網(wǎng)絡,進而減少識別過程中的計算量。
傳統(tǒng)的剪枝算法在微調(diào)過程中對代價敏感子網(wǎng)絡的訓練策略和預訓練過程相同,即通過最小化分類損失進一步使代價敏感子網(wǎng)絡分類錯誤率最小化,不能保證微調(diào)后的代價敏感子網(wǎng)絡具有較低的誤識別代價。為了使代價敏感子網(wǎng)絡在微調(diào)過程中仍以最小化誤識別代價為目標,可構造代價敏感損失函數(shù),使其側重對誤識別代價較高的類別正確分類[15]。
為了實現(xiàn)上述目標,首先對式(8)表示的CE損失函數(shù)按照各個類別展開,得
由式(15)可以看出,整體損失函數(shù)關于各個類別的分項具有平等的重要性,在訓練過程中不能起到側重對誤識別代價較高的類別正確分類的作用。因此,對損失函數(shù)中關于每個類別的分項分配不同的權重λi,即
在式(17)中,對于誤識別代價較高的類別,可以賦予相對較大的權重,從而使得網(wǎng)絡的訓練更加傾向于對該類別的樣本正確分類,由此得到了CSCE損失函數(shù)。對于彈道目標識別而言,彈頭識別正確率的重要性是遠大于誘餌等其他目標的,模型應該盡量擬合彈頭這類目標的樣本。假設J1(θ)為J(θ)關于彈頭這類目標的分項,可將式(17)簡化為
式中:超參數(shù)λ>0,用于控制模型對彈頭類目標樣本和其他類目標樣本的相對擬合程度。
為檢驗本文算法的性能,建立了彈頭、高仿誘餌、簡單誘餌、球形誘餌和母艙等5類典型彈道目標的仿真模型,其具體物理參數(shù)如圖3所示,同時使用FEKO軟件中的物理光學算法對這5類目標進行高頻散射計算來獲取其HRRP數(shù)據(jù)[16]。仿真采用水平極化方式,雷達中心頻率設置為10 GHz,鑒于各個目標的對稱性,仿真的方位角范圍設置為0°~180°,仿真精度為0.05°。
圖3 仿真目標物理特征Fig.3 Physical characteristics of simulated targets
每類目標分別仿真得到了3601個不同方位角下的HRRP樣本,其距離單元個數(shù)E=256。隨機從每類目標的HRRP樣本中選取其中的20%組成測試數(shù)據(jù)集,將剩余的樣本按照表1所示的樣本個數(shù)組成訓練數(shù)據(jù)集,其中Im0為平衡數(shù)據(jù)集,Im1、Im2和Im3為相對不平衡的數(shù)據(jù)集,且Im1的彈頭樣本數(shù)量>Im2的彈頭樣本數(shù)量>Im3的彈頭樣本數(shù)量。假定彈頭的誤識別代價>高仿誘餌的誤識別代價>簡單誘餌的誤識別代價>母艙的誤識別代價>球形誘餌的誤識別代價,并且在不平衡數(shù)據(jù)集中誤識別代價高的類別分配的樣本數(shù)量相對較少,用以檢驗算法在不同數(shù)據(jù)分布條件下的識別性能。
表1 數(shù)據(jù)集樣本數(shù)量Table 1 Sample number of datasets
為了檢驗提出的CSP算法和CSCE損失函數(shù)對傳統(tǒng)1D-CNN的改進效果,分別將單獨使用CE損失函數(shù)訓練的1D-CNN——CNN1D(CE)、同時結合CSP和CE損失函數(shù)訓練的1D-CNN——CNN1D(CSP+CE)、單獨使用CSCE損失函數(shù)訓練的1D-CNN——CNN1D(CSCE)和同時結合CSP 和 CSCE 損失函數(shù)訓練的 1D-CNN——CNN1D(CSP+CSCE)進行對比。
模型訓練采用diffGrad算法[17],并使用文獻[17]中的默認參數(shù)設置,訓練的批大小統(tǒng)一設置為64。上述4個模型中,需剪枝的模型在微調(diào)過程中的訓練周期數(shù)設置為200,無需剪枝的模型在訓練過程中周期數(shù)設置為200。算法1的參數(shù)設置為:搜索周期T =10,蜜源數(shù)量Ω=10,蜜源等待更新次數(shù)上限Ψ=5,計算適度值時子網(wǎng)絡訓練周期數(shù)Φ =2,輪盤賭選擇法參數(shù)β=0.1。按照誤識別代價由高到低的順序,將識別正確的代價設為0,同時假定將彈頭誤識別為誘餌的代價遠高于將誘餌誤識別為彈頭的代價[2],給出了如下3個代價矩陣進行實驗:
3個代價矩陣從上到下、從左到右分別表示的真實類別和預測類別次序為球形誘餌、母艙、簡單誘餌、高仿誘餌、彈頭。實驗中,按照式(10)計算各算法在不同的代價矩陣下測試數(shù)據(jù)集的整體誤識別代價。
分別使用CNN1D(CE)、CNN1D(CSP+CE)、CNN1D(CSCE)和CNN1D(CSP+CSCE)等4種方法對不同的數(shù)據(jù)集進行實驗,得到測試數(shù)據(jù)集整體誤識別代價和識別正確率如表2所示。在相同代價矩陣和數(shù)據(jù)集條件下,測試數(shù)據(jù)集整體誤識別代價的最優(yōu)結果已在表2中加粗表示。
從表2可以得出以下結論:
表2 四種方法的識別結果Table 2 Recognition results of four methods
1)CNN1D(CE)與CNN1D(CSP+CE)對比實驗可以看出,大多數(shù)情況下,經(jīng)過剪枝后的模型相對于未剪枝的模型整體識別正確率有所提高,但是剪枝后的模型卻具有較高的整體誤識別代價,說明剪枝后的模型主要是提高了誤識別代價較小類別的識別正確率。這一結果的主要原因是:剪枝后的模型在微調(diào)過程中使用的傳統(tǒng)CE損失函數(shù)主要以提高整體識別正確率為目標,未側重使誤識別代價較高的類別正確分類。
2)將基于傳統(tǒng)CE損失函數(shù)訓練的模型與基于CSCE損失函數(shù)訓練的模型對比,即CNN1D(CE)與CNN1D(CSCE)對比、CNN1D(CSP+CE)與CNN1D(CSP+CSCE)對比,可以看出基于CSCE損失函數(shù)訓練的模型具有較小的整體識別正確率,但是整體誤識別代價有所降低,說明誤識別代價較高類別的識別正確率有所提升,因此證明了所提出的CSCE損失函數(shù)可以通過改變傳統(tǒng)CE損失函數(shù)對不同誤識別代價類別樣本的擬合程度來提高模型的代價敏感性。
3)CNN1D(CSCE)和CNN1D(CSP+CSCE)對比可以看出,經(jīng)過代價敏感剪枝后的模型比未剪枝的模型具有較低的整體誤識別代價,且保證了與未剪枝的模型具有相近的整體識別正確率(剪枝后的模型和未剪枝的模型識別正確率分別在93%和92%以上),說明所提出的代價敏感剪枝算法可以有效地找到原始網(wǎng)絡的代價敏感子網(wǎng)絡。
4)4種方法在不同數(shù)據(jù)集和不同代價矩陣下的對比實驗可以看出,CNN1D(CSP+CSCE)在保證較高的識別正確率前提下具有更小的整體誤識別代價,進一步證明了提出的CSP和CSCE損失函數(shù)相結合的方法對于降低整體誤識別代價的有效性。
圖4為代價矩陣為M1時4種模型在不同數(shù)據(jù)集上訓練時測試數(shù)據(jù)集整體誤識別代價的變化曲線??梢钥闯?,經(jīng)過剪枝后的模型具有較低的整體誤識別代價起始值且收斂速度比隨機初始化的未剪枝網(wǎng)絡更快,這是因為剪枝后的模型繼承了原始模型的部分參數(shù),而且這部分參數(shù)組成了經(jīng)過人工蜂群算法挑選出的代價敏感子網(wǎng)絡。同時也可以看出,CNN1D(CSP+CSCE)具有更低的整體誤識別代價水平漸進線,并且隨著訓練次數(shù)的增加整體誤識別代價趨于更加持續(xù)的穩(wěn)定狀態(tài)。
圖4 代價矩陣為M 1 時4種模型在不同數(shù)據(jù)集上的訓練曲線Fig.4 Training curves of four models in different datasets when cost matrix is M 1
為了定量分析CSP算法對模型的壓縮效果,分別統(tǒng)計剪去的浮點運算量、模型參數(shù)總數(shù)和通道總數(shù)占原始模型相關量的百分比,結果如表3所示。由實驗設置可知,剪枝過程中增加的額外訓練周期總數(shù)至少為(T +1)×Ω×Φ=(10+1)×10×2=220,最多為(3T +1)×Ω×Φ=(30+1)×10×2=620,顯然使得訓練過程中的計算量增加。但由表3可以看出,在圖1原始模型的參數(shù)配置條件下,采用CSP算法在保證降低整體誤識別代價和較高識別率的前提下,可分別減少原始網(wǎng)絡50%以上的浮點運算量、40%以上的模型參數(shù)和20%以上的通道總數(shù),有效降低了模型在識別階段的計算量。模型在不同的數(shù)據(jù)集和代價矩陣下具有不同的參數(shù)總數(shù)和通道總數(shù),說明在剪枝的過程中算法會自動地搜索到代價敏感的子網(wǎng)絡,避免了在設計具有代價敏感的網(wǎng)絡結構時人工調(diào)參。
表3 三種指標下模型剪枝量百分比Table 3 Pruned percentages of model under three metrics
由于彈道中段目標在空間環(huán)境中仍會存在一定噪聲影響,為了進一步比較模型在不同信噪比(Signal-to-Noise Ratio,SNR)下的整體誤識別代價,將上述4個數(shù)據(jù)集中的樣本加入高斯白噪聲并采用與上文相同的實驗設置進行實驗。SNR的定義[5-6,8]如下:
式中:E=256為HRRP的距離單元個數(shù);Pl為第l個距離單元的原始信號強度;PNoise為噪聲的信號強度。
SNR的取值范圍為{-10,-5,0,5,10,15,20,25,30,35,40}d B,當代價矩陣為M1時,4種模型在不同SNR數(shù)據(jù)集上的整體誤識別代價變化情況如圖5所示。可分析得到如下結論:
圖5 代價矩陣為M 1 時4種模型在不同SNR數(shù)據(jù)集上的整體誤識別代價Fig.5 Total misrecognition cost of four models in different datasets with different SNR when cost matrix is M 1
1)CNN1D(CSP+CE)雖然引入了CSP算法,但其誤識別代價某些情況下比CNN1D(CE)的誤識別代價高,這是因為其在剪枝后的微調(diào)過程以整體識別正確率為目標,忽略了各個類別目標之間的誤識別代價,致使整體誤識別代價在不同SNR條件下變化較大。說明在噪聲條件下,1D-CNN中單獨使用CSP算法不能有效降低整體誤識別代價。
2)當-10 dB≤SNR≤30 dB時,隨著SNR逐漸增大,4種模型在4個數(shù)據(jù)集上的整體誤識別代價逐漸減小,大多數(shù)情況下,CNN1D(CSCE)和CNN1D(CSP+CSCE)比CNN1D(CE)和CNN1D(CSP+CE)的整體誤識別代價低,說明CSCE損失函數(shù)在不同程度的噪聲條件下亦可以有效降低整體誤識別代價。當30 d B<SNR≤40 d B時,隨著SNR增大,4種模型在相同的數(shù)據(jù)集上的誤識別代價基本相似,且基本不再減少。
3)CNN1D(CSP+CSCE)與CNN1D(CSCE)的整體誤識別代價在不同的SNR條件下的差異相對較小,但CNN1D(CSP+CSCE)是對CNN1D(CSCE)剪枝后得到的子網(wǎng)絡,其模型計算復雜度更小。
總之,在上述SNR的取值范圍內(nèi),與傳統(tǒng)的1D-CNN相比,將CSP算法和CSCE損失函數(shù)相結合優(yōu)化1D-CNN的方法大多數(shù)情況下仍然同時實現(xiàn)了降低模型復雜度和降低整體誤識別代價2項任務,且在-10 dB≤SNR≤30 dB時效果相對比較明顯,進一步證明了所提方法在不同程度的噪聲數(shù)據(jù)集上具有一定的有效性和通用性。
首先對CNN1D(CSCE)中CSCE損失函數(shù)的超參數(shù)λ取不同的值進行實驗,從而確定相對較優(yōu)的λ取值λ*。在討論剪枝算法的超參數(shù)α對模型的影響時,先取λ=λ*,再選取不同的α值對模型CNN1D(CSP+CSCE)進行實驗。代價矩陣為M1時2個超參數(shù)在4個數(shù)據(jù)集上對模型的影響效果分別如圖6和圖7所示,圖中“Non”表示未剪枝的原始網(wǎng)絡。
圖7 代價矩陣為M 1 時超參數(shù)α對實驗結果的影響Fig.7 Effects of hyper-parameterαon experimental results when cost matrix is M 1
由圖6(a)可以看出,隨著CSCE損失函數(shù)的超參數(shù)λ從101減小到10-4,CNN1D(CSCE)在4個數(shù)據(jù)集上的平均整體誤識別代價呈現(xiàn)出先減后增的變化趨勢,同時從圖6(b)可以看出其他目標與彈頭識別正確率之比呈現(xiàn)出遞減趨勢,說明適當?shù)販p少λ的值可以增加模型對彈頭這類誤識別代價相對較高目標的擬合程度,進而減少整體誤識別代價,當λ過小時會導致其他類別樣本的擬合程度顯著降低,進而導致整體誤識別代價的增高。λ∈[10-2,10-1]時,模型在各個數(shù)據(jù)集上都取得了較小的整體誤識別代價,因此在分析超參數(shù)α對模型的影響時令λ*=0.05。
圖6 代價矩陣為M 1 時超參數(shù)λ對實驗結果的影響Fig.6 Effects of hyper-parameterλon experimental results when cost matrix is M 1
由圖7(a)可以看出,在圖中的取值范圍內(nèi)都會一定程度上減少原始未剪枝模型的通道數(shù),但隨著α的增加,剪枝后模型的通道總數(shù)整體上呈現(xiàn)上升的趨勢,同時通道總數(shù)的上升也意味著模型的參數(shù)總量和計算復雜度的上升。圖7(b)表明模型在不同的數(shù)據(jù)集上的最優(yōu)的α取值不盡相同,為了實現(xiàn)降低整體誤識別代價和降低模型計算復雜度的折中,α在Im0、Im1、Im2和Im3上相對較優(yōu)的取值分別在[60%,80%]、[60%,80%]、[70%,90%]和[30%,50%]之間。
從圖6(a)和圖7(b)還可以看出,訓練集中誤識別代價較高類別的樣本數(shù)越少,大多數(shù)情況下測試集的平均整體誤識別代價越高,說明在現(xiàn)實情況下增加誤識別代價高類別的樣本數(shù)量的必要性。
1)在不同的數(shù)據(jù)集和代價矩陣下的對比實驗表明,提出的基于CSP的1D-CNN與傳統(tǒng)的1D-CNN在各個數(shù)據(jù)集上的識別正確率分別在93%和92%以上,提出的方法保證了與傳統(tǒng)的1D-CNN具有相近的識別正確率前提下有效降低了整體誤識別代價。
2)所提方法一定程度上增加了學習過程中的計算量,但經(jīng)過CSP后的1D-CNN與未剪枝的原始模型相比,可分別減少50%以上的浮點運算量、40%以上的模型參數(shù)和20%以上的通道總數(shù),有效降低了模型識別過程中的計算量。
3)在不同SNR數(shù)據(jù)集上,與傳統(tǒng)的1D-CNN相比,將CSP算法和CSCE損失函數(shù)相結合優(yōu)化1D-CNN的方法,大多數(shù)情況下仍然同時實現(xiàn)了降低模型復雜度和降低整體誤識別代價2項任務,且當-10 dB≤SNR≤30 dB時效果相對比較明顯,進一步證明了所提方法在不同程度的噪聲數(shù)據(jù)集上具有一定的有效性和通用性。
4)隨著CSCE損失函數(shù)的超參數(shù)λ從101減小到10-4,模型在4個數(shù)據(jù)集上的平均整體誤識別代價呈現(xiàn)出先減后增的變化趨勢,綜合來看,λ的最優(yōu)取值范圍是[10-2,10-1]。
5)隨著CSP的超參數(shù)α的增大,剪枝后的模型在不同數(shù)據(jù)集上計算復雜度整體呈現(xiàn)上升趨勢,而其整體誤識別代價變化差異較大,綜合考慮計算復雜度和誤識別代價的折中,α在Im0、Im1、Im2和Im3上相對較優(yōu)的取值分別在[60%,80%]、[60%,80%]、[70%,90%]和[30%,50%]之間。