簡 濤 王哲昊 王海鵬 劉 瑜 魏廣芬
(1.海軍航空大學(xué)信息融合研究所,山東煙臺 264001;2.山東工商學(xué)院信息與電子工程學(xué)院,山東煙臺 264005)
高分辨距離像(High Resolution Range Profile,HRRP)是目標(biāo)主要散射點在雷達(dá)照射方向上的投影,反映了目標(biāo)散射點的相對位置信息,一定程度上體現(xiàn)了目標(biāo)的部分結(jié)構(gòu)信息[1]。在實際對抗環(huán)境中,雷達(dá)所針對的目標(biāo)往往是非合作目標(biāo),由于艦船機動性以及作戰(zhàn)環(huán)境等因素的影響,獲取數(shù)量足夠的非合作目標(biāo)HRRP 數(shù)據(jù)的難度較大。因此,小樣本條件[2]下艦船目標(biāo)HRRP 分類識別成為了雷達(dá)目標(biāo)識別領(lǐng)域的研究熱點之一。
早期小樣本識別技術(shù)主要以HRRP的統(tǒng)計建模方法為主,如線性動態(tài)模型、因子分析模型以及自適應(yīng)高斯分類器模型[3]等,隨后學(xué)者們利用多任務(wù)學(xué)習(xí)理念和類別標(biāo)簽信息進行改進,相繼提出了多任務(wù)因子分析模型[4]、標(biāo)簽輔助因子分析模型[5]以及多任務(wù)標(biāo)簽約束卷積因子分析模型[6]等,但統(tǒng)計建模方法需要對模型的變量進行先驗假設(shè)。
近年來,深度學(xué)習(xí)方法在雷達(dá)目標(biāo)識別領(lǐng)域得到了越來越多的重視[7]。在實際對抗環(huán)境中,目標(biāo)往往是非合作的,能獲取的實測數(shù)據(jù)量極為有限,而對于小樣本數(shù)據(jù),深度學(xué)習(xí)過深的網(wǎng)絡(luò)結(jié)構(gòu)會導(dǎo)致模型過擬合[8]。針對這一問題,相關(guān)學(xué)者一方面從數(shù)據(jù)的角度出發(fā),通過生成對抗網(wǎng)絡(luò)[9]等方法進行數(shù)據(jù)增強;另一方面則開展基于模型遷移的學(xué)習(xí)方法研究[10],將源域?qū)W習(xí)到的模型參數(shù)遷移至目標(biāo)域中,但當(dāng)源域與目標(biāo)域差異較大時,所建立的模型難以適用于不同的識別問題。作為遷移學(xué)習(xí)方法的拓展,元學(xué)習(xí)是一種針對不同任務(wù)設(shè)計不同特性學(xué)習(xí)器的機制[11],可利用以往不同任務(wù)上的經(jīng)驗,來指導(dǎo)新任務(wù)的學(xué)習(xí)。FINN等人提出了一種模型不可知的元學(xué)習(xí)算法[12],但在不同類別的小樣本分類中,由于不同任務(wù)間的偏差影響,分類精度受限。TIAN 等人利用元學(xué)習(xí)網(wǎng)絡(luò)[13],基于目標(biāo)已有方位的識別經(jīng)驗,來指導(dǎo)方位信息缺失時同一目標(biāo)的識別。值得注意的是,現(xiàn)有元學(xué)習(xí)方法往往對所有任務(wù)的學(xué)習(xí)經(jīng)驗進行無差別借鑒,忽視了不同任務(wù)經(jīng)驗對新任務(wù)的差異性影響,易造成對低相關(guān)度經(jīng)驗的過度借鑒,從而影響后續(xù)分類識別精度。如何對不同任務(wù)學(xué)習(xí)經(jīng)驗進行針對性借鑒,指導(dǎo)新類別目標(biāo)進行小樣本識別,進而提高后續(xù)目標(biāo)識別精度,是艦船目標(biāo)小樣本識別領(lǐng)域的難點之一。
為此,本文提出了一種基于損失加權(quán)修正的艦船目標(biāo)HRRP 小樣本元學(xué)習(xí)識別方法,其預(yù)訓(xùn)練模型設(shè)計為基礎(chǔ)學(xué)習(xí)器與元學(xué)習(xí)器的組合形式。所提方法利用仿真目標(biāo)識別任務(wù)的學(xué)習(xí)經(jīng)驗,來指導(dǎo)實測目標(biāo)的分類識別。首先針對不同任務(wù)的特性,利用卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,CNN),建立了一個基礎(chǔ)學(xué)習(xí)器。其次,針對不同任務(wù)間的特性差異,以均方差損失函數(shù)為基礎(chǔ)構(gòu)建元學(xué)習(xí)器,利用不同任務(wù)特性損失的倒數(shù)對均方誤差損失函數(shù)進行加權(quán),減輕不同任務(wù)間偏差的影響。最后,將元學(xué)習(xí)器的學(xué)習(xí)經(jīng)驗遷移到新任務(wù)上,實現(xiàn)小樣本條件的艦船目標(biāo)實測HRRP識別。實驗結(jié)果表明,該方法與從頭訓(xùn)練的CNN 模型、現(xiàn)有卷積神經(jīng)網(wǎng)絡(luò)遷移學(xué)習(xí)模型相比,可在更少樣本條件下提升艦船目標(biāo)HRRP的識別正確率。
元學(xué)習(xí)的方法具體包含神經(jīng)網(wǎng)絡(luò)適應(yīng)法、度量學(xué)習(xí)適應(yīng)法、基礎(chǔ)學(xué)習(xí)器和元學(xué)習(xí)器適應(yīng)法以及貝葉斯元學(xué)習(xí)適應(yīng)法等。其中,基礎(chǔ)學(xué)習(xí)器和元學(xué)習(xí)器相結(jié)合可將任務(wù)特性建模與任務(wù)間共性建模進行解耦,通過二者間的互相交流,使得模型在任務(wù)特性和共性兩方面均可達(dá)到最優(yōu),從而在保持模型精度的基礎(chǔ)上,提升模型的泛化能力。傳統(tǒng)機器學(xué)習(xí)的數(shù)據(jù)結(jié)構(gòu)一般分為訓(xùn)練集和測試集,無論是訓(xùn)練集還是測試集,均需包含大量樣本數(shù)據(jù)[14]。元學(xué)習(xí)模型的數(shù)據(jù)結(jié)構(gòu)如圖1 所示,與傳統(tǒng)機器學(xué)習(xí)相類似,同樣分為元訓(xùn)練集和元測試集,不同之處在于元訓(xùn)練集和元測試集中不是樣本數(shù)據(jù),而是各個任務(wù)的集合,而在各個任務(wù)中又分為訓(xùn)練集和測試集。
圖1 元學(xué)習(xí)的數(shù)據(jù)結(jié)構(gòu)示意圖Fig.1 Data structure diagram of meta-learning
本文模型在結(jié)構(gòu)上包含一個基礎(chǔ)學(xué)習(xí)器和一個元學(xué)習(xí)器,模型的輸入為任務(wù)集合,輸出為更新后的模型參數(shù),總體結(jié)構(gòu)如圖2所示。
圖2 本文模型的總體結(jié)構(gòu)示意圖Fig.2 The overall structure diagram of the model in this paper
其中,任務(wù)集是元訓(xùn)練集,每個任務(wù)均包含一個數(shù)據(jù)訓(xùn)練集和一個數(shù)據(jù)測試集?;A(chǔ)學(xué)習(xí)器是一個學(xué)習(xí)訓(xùn)練模型,每個任務(wù)的訓(xùn)練集在基礎(chǔ)學(xué)習(xí)器上進行訓(xùn)練,經(jīng)過多次迭代更新后,利用每個任務(wù)的測試集進行驗證,并將蘊含任務(wù)特性的參數(shù)或損失函數(shù)的梯度正向傳遞給元學(xué)習(xí)器。元學(xué)習(xí)器則綜合所有任務(wù)在基礎(chǔ)學(xué)習(xí)器上的訓(xùn)練結(jié)果,通過總結(jié)歸納尋求任務(wù)間的共性,具體表現(xiàn)形式為對基礎(chǔ)學(xué)習(xí)器傳遞的梯度或者參數(shù)進行元更新,然后將更新后的參數(shù)反饋給基礎(chǔ)學(xué)習(xí)器,使基礎(chǔ)學(xué)習(xí)器在新的模型參數(shù)上重新進行每個任務(wù)的訓(xùn)練。如此循環(huán)往復(fù),直至完成迭代次數(shù),最終獲得迭代更新后的模型參數(shù),用于元測試集的訓(xùn)練和測試。
基礎(chǔ)學(xué)習(xí)器對任務(wù)特性進行建模,要求基礎(chǔ)學(xué)習(xí)器能夠發(fā)現(xiàn)每個任務(wù)數(shù)據(jù)集的內(nèi)在規(guī)律。深度學(xué)習(xí)模型依賴于強大的表示能力,可以提取目標(biāo)深層次的特征,且對數(shù)據(jù)的擬合程度較好。因此,依據(jù)HRRP 的維度特性,本節(jié)設(shè)計一維卷積神經(jīng)網(wǎng)絡(luò)作為基礎(chǔ)學(xué)習(xí)器的學(xué)習(xí)訓(xùn)練模型,具體結(jié)構(gòu)如圖3所示。
圖3 基礎(chǔ)學(xué)習(xí)器的結(jié)構(gòu)示意圖Fig.3 Schematic diagram of the basic learner
基礎(chǔ)學(xué)習(xí)器包含一個輸入層、三個卷積層(Conv)、三個池化層(POOL)、一個批歸一化層(BN)、兩個全連接層(FC)以及一個輸出層。其中,輸入層導(dǎo)入的是每個任務(wù)的訓(xùn)練集中一小批次的HRRP數(shù)據(jù);第三個卷積層為標(biāo)準(zhǔn)化卷積層,在卷積層的基礎(chǔ)上添加了一個批歸一化層,用于加強損失函數(shù)的梯度變化,三個卷積層均采用一維卷積核,大小均為9×1,個數(shù)分別為8、16 和32,步長為1,填充方式均為相同填充。池化層為平均池化層,步長為2;第一層全連接層的神經(jīng)元個數(shù)為100,第二層全連接層的神經(jīng)元個數(shù)與目標(biāo)類別數(shù)一致。輸出層利用softmax函數(shù)計算每個樣本的類別概率,根據(jù)計算結(jié)果計算每個任務(wù)的損失函數(shù)值Lk,其中,Lk為第k個任務(wù)的特性損失值。因為基礎(chǔ)學(xué)習(xí)器進行的是目標(biāo)識別分類任務(wù),故選用交叉熵?fù)p失函數(shù),然后利用Adam 優(yōu)化器對基礎(chǔ)學(xué)習(xí)器的初始化參數(shù)θB進行優(yōu)化更新,得到更新后的參數(shù)集={θB1,θB2,…,θBk,…,θBK},其中,θBk為第k個任務(wù)的特性參數(shù),最終將每個任務(wù)的特性參數(shù)θBk和損失值Lk都傳遞給元學(xué)習(xí)器。
元學(xué)習(xí)器實現(xiàn)對任務(wù)間共性的建模,功能是在每次基礎(chǔ)學(xué)習(xí)器訓(xùn)練完成之后,對所有任務(wù)上的訓(xùn)練經(jīng)驗進行總結(jié)歸納,綜合出新的經(jīng)驗,反饋給基礎(chǔ)學(xué)習(xí)器。元學(xué)習(xí)器的形式多樣,可以是任意一種基于隨機梯度下降的模型[15],也可以是一種參數(shù)更新算法[16]。為簡化運算過程,減輕不同任務(wù)偏差的影響,本節(jié)設(shè)計了一種基于損失加權(quán)修正的參數(shù)更新算法,使元學(xué)習(xí)器的初始化模型參數(shù)θM向所有任務(wù)的共性方向更新靠近。
元學(xué)習(xí)的最終目的是尋找所有任務(wù)的共性方向,使得元學(xué)習(xí)器的初始化模型參數(shù)θM可以向基礎(chǔ)學(xué)習(xí)器每個任務(wù)的特性參數(shù)θBk靠近,即使得參數(shù)θM與特性參數(shù)θBk之間的距離越來越小。因此,可利用均方誤差損失函數(shù)作為元學(xué)習(xí)器的損失函數(shù):
其中,Dk為特性參數(shù)與元學(xué)習(xí)器參數(shù)θM之間的均方誤差,具體表示如下:
其中,‖?‖表示歐氏范數(shù);為了方便后續(xù)求導(dǎo),上式系數(shù)取1/2。元學(xué)習(xí)器的學(xué)習(xí)目標(biāo)變?yōu)樽钚』瘍蓚€學(xué)習(xí)器參數(shù)間的均方誤差。根據(jù)拉格朗日定理,可計算Dk在參數(shù)θM處的梯度來最小化Dk,因此對距離Dk進行求導(dǎo)可得:
其中,參數(shù)θM的更新方向就是目標(biāo)函數(shù)梯度下降的方向,即?k=。假設(shè)每個任務(wù)對元學(xué)習(xí)器參數(shù)θM的影響程度相同,將各項任務(wù)對元學(xué)習(xí)器參數(shù)θM的影響進行疊加,可得最終所有任務(wù)的共性方向?M為:
然而,考慮到不同任務(wù)經(jīng)驗對新任務(wù)的差異性影響,任務(wù)損失值Lk可在一定程度上反映出學(xué)習(xí)經(jīng)驗的差異程度,損失值越低,訓(xùn)練效果越好,說明該任務(wù)的學(xué)習(xí)經(jīng)驗更值得借鑒。因此,為避免對低相關(guān)度經(jīng)驗的過度借鑒,減輕任務(wù)間偏差對元學(xué)習(xí)器參數(shù)更新的影響,本文利用基礎(chǔ)學(xué)習(xí)器所得的任務(wù)損失值Lk的倒數(shù),對元學(xué)習(xí)器進行加權(quán)修正處理。損失值Lk越小,其倒數(shù)越大,表示該任務(wù)的學(xué)習(xí)效果越好,學(xué)習(xí)經(jīng)驗更值得借鑒;反之則表示該任務(wù)的學(xué)習(xí)效果越差,學(xué)習(xí)經(jīng)驗可借鑒度低。因此,利用Lk的倒數(shù)對元學(xué)習(xí)器更新過程進行修正,可使得元學(xué)習(xí)器有針對性地借鑒每個任務(wù)的經(jīng)驗,減輕任務(wù)間偏差的不利影響。元學(xué)習(xí)器的參數(shù)更新方程可表示如下:
其中,ε為元學(xué)習(xí)器的更新步長,ιk為損失的加權(quán)系數(shù)。最終將元學(xué)習(xí)器更新后的參數(shù)反饋給基礎(chǔ)學(xué)習(xí)器,并以此作為基礎(chǔ)學(xué)習(xí)器的新初始化模型參數(shù),進行各項任務(wù)新一輪的優(yōu)化訓(xùn)練,即設(shè)置θB=。
基于損失加權(quán)修正的HRRP元學(xué)習(xí)識別方法的流程,主要分為訓(xùn)練階段和測試階段。訓(xùn)練階段主要利用元訓(xùn)練集進行循環(huán)更新,獲得最優(yōu)的模型參數(shù),結(jié)構(gòu)上分為內(nèi)、外兩個循環(huán),內(nèi)循環(huán)是指基礎(chǔ)學(xué)習(xí)器和元學(xué)習(xí)器之間參數(shù)的循環(huán)更新,外循環(huán)則是指內(nèi)循環(huán)的訓(xùn)練輪次;測試階段是利用訓(xùn)練階段的模型訓(xùn)練參數(shù)對元測試集進行分類識別,驗證方法的性能。識別流程圖如圖4所示。
圖4 識別流程圖Fig.4 Diagram of recognition
具體的模型識別方法流程如算法1所示。
訓(xùn)練階段所用數(shù)據(jù)為10類艦船目標(biāo)仿真HRRP數(shù)據(jù),仿真參數(shù)設(shè)置如下:雷達(dá)中心頻率10 GHz,帶寬80 MHz,方位角范圍為0~360度,間隔1度。每類艦船目標(biāo)360 個方位角的HRRP 數(shù)據(jù),每個方位角的HRRP數(shù)據(jù)長度為200。針對小樣本識別,從10類仿真目標(biāo)中抽取5 類目標(biāo)組成一個分類識別任務(wù);針對每個任務(wù)的5 類目標(biāo),對每類目標(biāo)分別隨機抽取5 個、10 個、20 個、50 個和100 個HRRP 樣本組成五組元訓(xùn)練數(shù)據(jù)集。
測試階段所用數(shù)據(jù)為某X 波段雷達(dá)的5類艦船目標(biāo)實測HRRP 數(shù)據(jù),雷達(dá)中心頻率為10 GHz,帶寬為100 MHz,受試驗條件限制,目標(biāo)HRRP 的方位角范圍較小。在元學(xué)習(xí)理論中,其所指導(dǎo)新任務(wù)的元測試數(shù)據(jù)集,本文利用實測數(shù)據(jù)構(gòu)建。其中元測試數(shù)據(jù)集中的訓(xùn)練集,針對5 類艦船目標(biāo)中的每類目標(biāo),分別隨機抽取5個、10個、20個、50個和100個HRRP 樣本,構(gòu)成樣本總數(shù)分別為25、50、100、250和500的小樣本集。由每類目標(biāo)隨機抽取不同于訓(xùn)練集的500 個HRRP 樣本,構(gòu)成2500 個實測數(shù)據(jù)HRRP測試樣本集。
本節(jié)共進行了四種識別模型的對比實驗,分別為卷積神經(jīng)網(wǎng)絡(luò)模型(CNN)、深度遷移學(xué)習(xí)模型(DTL)[10]、無偏元學(xué)習(xí)模型(UBML)[12]以及基于損失修正的元學(xué)習(xí)模型(LCML)。其中,CNN模型利用數(shù)據(jù)集從頭開始訓(xùn)練模型;DTL 模型先利用一個識別任務(wù)的仿真數(shù)據(jù)集,訓(xùn)練一個開源網(wǎng)絡(luò)模型,再將實測的測試數(shù)據(jù)集在該遷移網(wǎng)絡(luò)上進行訓(xùn)練;UBML模型和LCML模型則利用多個艦船目標(biāo)任務(wù)的仿真數(shù)據(jù)集進行訓(xùn)練,然后遷移多個任務(wù)的學(xué)習(xí)經(jīng)驗,指導(dǎo)新任務(wù)訓(xùn)練。四個模型均采用基本的卷積神經(jīng)網(wǎng)絡(luò)進行分類識別,網(wǎng)絡(luò)層結(jié)構(gòu)相同,如圖3所示。
各模型的相關(guān)參數(shù)設(shè)置如表1 所示。由于DTL、UBML和本文的LCML模型均利用學(xué)習(xí)經(jīng)驗的遷移,需要利用以往的知識重新訓(xùn)練進行測試,所以其分為訓(xùn)練集的訓(xùn)練輪次和測試集的訓(xùn)練輪次,兩次訓(xùn)練所用的HRRP 樣本數(shù)據(jù)并不相同,而CNN模型則是從頭到尾直接進行訓(xùn)練測試,測試時并不需要重新訓(xùn)練,因此其僅有訓(xùn)練輪次。
表1 模型實驗的相關(guān)參數(shù)設(shè)置Tab.1 Parameter Settings of model experiment
CNN 模型直接導(dǎo)入元測試集進行實驗;DTL 模型則從元訓(xùn)練集中隨機抽取某一個任務(wù)作為模型的源域,目標(biāo)域為元測試集中的任務(wù);UBML模型和本文的LCML模型則導(dǎo)入元訓(xùn)練集和元測試集進行實驗。在五組樣本總數(shù)不同的小樣本條件下的元訓(xùn)練集和元測試集上,對各模型進行仿真實驗分析。
在不同小樣本條件下,圖5 展示了四種模型在實測數(shù)據(jù)訓(xùn)練過程中損失函數(shù)(loss)的變化曲線??梢钥闯觯姆N模型的損失函數(shù)值均隨迭代輪次的增加呈下降趨勢,說明模型適用于分類識別任務(wù),驗證了模型的有效性。由于經(jīng)驗遷移的作用,DTL、UBML 和本文的LCML 模型的損失函數(shù)值均低于CNN 模型,且隨著樣本數(shù)目的逐漸增多,其最終收斂的loss 值更低,而與CNN 模型之間的差距也逐漸減少。損失函數(shù)值越低說明模型的識別準(zhǔn)確度越高,表示模型的識別性能隨樣本數(shù)目的增多而逐漸攀升,但模型性能之間的差異性也隨之逐漸減小。
圖5 不同小樣本條件下?lián)p失函數(shù)loss的變化曲線Fig.5 The loss function curves for different small sample cases
在樣本總數(shù)為25 和50 的典型小樣本情況下,圖6 和圖7 分別展示了DTL 模型、UBML 模型和LCML 模型的分類混淆矩陣。由圖可知,隨著樣本總數(shù)的增加,DTL 模型的分類效果逐漸提升。在樣本總數(shù)為25的小樣本條件下,DTL 模型的分類效果欠佳,幾乎無法對第三類目標(biāo)進行識別。在樣本總數(shù)為50的小樣本條件下,DTL 模型總體識別效果雖然有所提升,但對第三類目標(biāo)的識別效果仍欠佳。圖6 中,UBML 模型雖然對第三類目標(biāo)仍然無法進行準(zhǔn)確的分類識別,但總體識別效果仍優(yōu)于同等條件下的DTL 模型。隨著樣本數(shù)目的增多,UBML 模型的識別效果也逐步提升,當(dāng)樣本總數(shù)為50 時,UBML 模型利用對任務(wù)共性經(jīng)驗的遷移,已可進行較準(zhǔn)確的分類識別,識別效果明顯優(yōu)于DTL模型。
圖6 樣本總數(shù)為25時不同模型的分類混淆矩陣Fig.6 When the total sample number is 25,the classification confusion matrixes of different models
圖7 樣本總數(shù)為50時,不同模型的分類混淆矩陣Fig.7 When the total sample number is 50,the classification confusion matrixes of different models
從圖6和圖7綜合來看,本文設(shè)計的LCML模型通過損失加權(quán)修正,改善了小樣本下的識別性能。在樣本總數(shù)為25 條件下,LCML 模型可對第三類目標(biāo)進行準(zhǔn)確的分類識別,且隨著樣本數(shù)目的增多,LCML 模型的識別效果也逐步提升。當(dāng)樣本總數(shù)為50 時,LCML 模型的識別效果明顯優(yōu)于DTL 模型和UBML模型。
圖8進一步展示了各模型的分類識別率隨樣本總數(shù)的變化情況,由圖可知,隨著樣本數(shù)的增多,四個模型的識別性能均有所提高。其中,本文設(shè)計的LCML 模型識別性能整體最佳,可保持平均90%以上的分類識別率,CNN 模型的識別性能整體最差,DTL 模型較UBML 模型稍有不足,但仍然優(yōu)于CNN模型。此外,在較少樣本條件下,UBML 模型和LCML 模型通過對任務(wù)共性經(jīng)驗的遷移利用,可提升小樣本條件下的識別性能,且遠(yuǎn)遠(yuǎn)優(yōu)于CNN 模型。但隨著樣本數(shù)目的逐漸增多,這種提升效果越來越小,四個模型在識別性能上的差異越來越小,并逐漸趨同。
圖8 不同模型的分類識別率隨樣本總數(shù)的變化曲線Fig.8 The curves of classification recognition rates versus total sample numbers for different models
表2 給出了不同樣本總數(shù)下各模型識別率值。從表中可以看出,在單類樣本數(shù)為100、樣本總數(shù)為500 的較大樣本數(shù)條件下,四個模型的分類識別率幾乎相等,識別性能之間無明顯差異。原因在于,四個模型均基于卷積神經(jīng)網(wǎng)絡(luò)構(gòu)建分類識別模型,且模型網(wǎng)絡(luò)結(jié)構(gòu)保持一致,當(dāng)樣本數(shù)足夠大時,不同模型在識別性能方面差異不大。但隨著樣本數(shù)的減少,在樣本總數(shù)分別25、50、100 和250 的條件下,不同模型間的識別性能出現(xiàn)較明顯差異。在樣本總數(shù)為25 和50 的小樣本條件下,CNN 模型由于數(shù)據(jù)的減少,網(wǎng)絡(luò)出現(xiàn)過擬合,模型的識別準(zhǔn)確度僅為20%,幾乎無法對目標(biāo)進行有效識別,而UBML和LCML 模型通過對任務(wù)共性經(jīng)驗的遷移,可有效提升小樣本條件下的識別準(zhǔn)確度,相比CNN 的提升效果分別約為47%、57%和66%、74%。
表2 不同小樣本條件下各模型的分類識別率Tab.2 The classification and recognition rate of each model under different small sample conditions
綜上所述,對于小樣本情況,利用以往經(jīng)驗進行分類識別,其識別效果明顯優(yōu)于從頭到尾直接進行分類識別的模型。本文設(shè)計的LCML方法將任務(wù)特性和任務(wù)間共性相結(jié)合,在小樣本條件下的識別率明顯優(yōu)于基于單任務(wù)特性遷移的DTL 方法,同時通過損失的加權(quán)修正,避免了對低相關(guān)度經(jīng)驗的過度借鑒,降低了不同任務(wù)間偏差的不利影響。
本文針對小樣本條件下艦船目標(biāo)的分類識別,提出了基于損失加權(quán)修正的艦船目標(biāo)HRRP小樣本元學(xué)習(xí)識別方法。借鑒元學(xué)習(xí)的思想,將基礎(chǔ)學(xué)習(xí)器與元學(xué)習(xí)器相結(jié)合,分別對單個任務(wù)特性與任務(wù)間共性進行解耦并建模,設(shè)計了基于卷積神經(jīng)網(wǎng)絡(luò)的深度元學(xué)習(xí)模型。利用不同元訓(xùn)練任務(wù)特性損失的差異性,對元學(xué)習(xí)器損失進行加權(quán)修正,減輕了不同任務(wù)間偏差的不利影響。實驗結(jié)果表明,本文所提方法在樣本總數(shù)小于250 的條件下,與從頭訓(xùn)練的模型相比,可以有效提升多類海面目標(biāo)的分類識別率。與現(xiàn)有遷移學(xué)習(xí)方法相比,當(dāng)樣本總數(shù)小于100 時,本文所設(shè)計的LCML 模型可有效提升分類識別率,即其在更少的樣本條件下可獲得較好的識別效果。為了全面驗證本文模型的性能,下一步將在不同分辨率數(shù)據(jù)和極端小樣本等條件下,開展目標(biāo)識別方法研究,注重實測數(shù)據(jù)的角度完善性及方法實測驗證。