摘 要:針對(duì)目前空戰(zhàn)對(duì)抗中空戰(zhàn)目標(biāo)的行為意圖識(shí)別存在著數(shù)據(jù)來(lái)源多、數(shù)據(jù)模態(tài)多、數(shù)據(jù)的維度高冗余大、樣本量小和不均衡以及訓(xùn)練所需的大量標(biāo)注數(shù)據(jù)獲取困難等問(wèn)題,構(gòu)建了一種基于深度雙向門(mén)控循環(huán)單元(deep bidirectional gated recurrent unit,DBGRU)的空戰(zhàn)目標(biāo)行為意圖識(shí)別模型,通過(guò)在雙向門(mén)控循環(huán)單元(bidirectional gated recurrent unit,BiGRU)中融合注意力機(jī)制來(lái)提升模型的特征學(xué)習(xí)能力,自適應(yīng)地分配不同空戰(zhàn)特征信息的權(quán)重。并以DBGRU為骨干網(wǎng)絡(luò),提出了一種基于數(shù)據(jù)擴(kuò)充的小樣本對(duì)比學(xué)習(xí)算法,利用基于Wasserstein距離的生成對(duì)抗網(wǎng)絡(luò)(wasserstein generative adversarial network,WGAN)擴(kuò)充原始數(shù)據(jù),并利用對(duì)比學(xué)習(xí)框架挖掘多模態(tài)數(shù)據(jù)中的豐富的模式信息彌補(bǔ)小樣本數(shù)據(jù)規(guī)模不足的缺陷,從而準(zhǔn)確預(yù)測(cè)空戰(zhàn)目標(biāo)行為意圖。實(shí)驗(yàn)仿真結(jié)果表明,基于數(shù)據(jù)擴(kuò)充的小樣本對(duì)比學(xué)習(xí)算法預(yù)測(cè)小樣本空戰(zhàn)目標(biāo)行為意圖的準(zhǔn)確率為91.13%。
關(guān)鍵詞:意圖識(shí)別;注意力機(jī)制;門(mén)控循環(huán)單元;生成對(duì)抗網(wǎng)絡(luò);對(duì)比學(xué)習(xí)
DOI:10.15938/j.jhust.2024.04.006
中圖分類(lèi)號(hào): TP391.4
文獻(xiàn)標(biāo)志碼: A
文章編號(hào): 1007-2683(2024)04-0050-09
A Few-shot Learning Method for Intent Analysis
of Air Combat Confrontation Behaviors
PAN Ming1, ZHENG Jingsong1, LI Jinliang1, FANG Long2, YANG Yang2, ZHAO Shijie2
(1.Southwest China Research Institute of Electronic Equipment, Chengdu 610036, China;
2.School of Automation, Northwestern Polytechnic University, Xi′an 710129, China)
Abstract:Aiming at the problems of multiple data sources, multiple data modes, high data dimensions, large redundancy, small and unbalanced sample size, and difficulty in obtaining a large number of labeled data required for training, a deep bidirectional gated recurrent unit (DBGRU) electromagnetic behavior intent recognition model is constructed. By integrating the attention mechanism in the Bidirectional Gated Recurrent Unit (BiGRU), the feature learning ability of the model is improved, and adaptively assign the weight of different air combat feature information. With DBGRU as the backbone network, a few-shot contrastive learning algorithm based on data augmentation is proposed, which uses the Wasserstein Generative Adversarial Network (WGAN) based on Wasserstein distance to enrich the original data, and uses the contrastive learning framework to mine the rich pattern information in the multimodal data to make up for the lack of few-shot data, so as to accurately predict the behavior intention of electromagnetic targets. The experimental simulation results show that the accuracy of the few-shot contrastive learning algorithm based on data augmentation in predicting the behavior intention of few-shot air combat targets is 91.13%.
Keywords:intent recognition; attention mechanisms; gated recurrent unit; generative adversarial networks; contrastive learning
0 引 言
行為意圖識(shí)別是認(rèn)知作戰(zhàn)和空戰(zhàn)對(duì)抗輔助決策的關(guān)鍵因素。它基于機(jī)載綜合信息系統(tǒng)獲取的多維態(tài)勢(shì)信息,識(shí)別敵方行為意圖,有效評(píng)估敵我雙方的對(duì)抗優(yōu)劣勢(shì),預(yù)判敵方的行為,并做出合理的對(duì)抗決策、規(guī)劃行動(dòng),從而引導(dǎo)對(duì)抗態(tài)勢(shì)向我方有利方向發(fā)展[1]。在當(dāng)前人工智能高度發(fā)達(dá)的時(shí)代背景下,智能空戰(zhàn)對(duì)抗意圖識(shí)別受到越來(lái)越多軍事專(zhuān)家的關(guān)注[2]。
現(xiàn)有的意圖識(shí)別方法主要包括貝葉斯網(wǎng)絡(luò)[3-4]、D-S證據(jù)理論[5]、灰色關(guān)聯(lián)方法[6]、模板匹配[7]、模糊推理[8]、深度學(xué)習(xí)[9]等。文[10]針對(duì)復(fù)雜戰(zhàn)場(chǎng)環(huán)境中敵目標(biāo)戰(zhàn)術(shù)意圖存在的動(dòng)態(tài)性、序列性等問(wèn)題,構(gòu)建能夠描述目標(biāo)戰(zhàn)術(shù)意圖表達(dá)和推理的動(dòng)態(tài)序列貝葉斯網(wǎng)絡(luò)模型,并分析多實(shí)體貝葉斯網(wǎng)絡(luò)在表達(dá)規(guī)則知識(shí)概率(根據(jù)規(guī)則和概率來(lái)推斷結(jié)果或進(jìn)行預(yù)測(cè))遷移關(guān)系和序列關(guān)系方面的不足,提出基于擴(kuò)展多實(shí)體貝葉斯網(wǎng)絡(luò)的動(dòng)態(tài)序列貝葉斯網(wǎng)絡(luò)模型構(gòu)建方法進(jìn)行戰(zhàn)術(shù)意圖識(shí)別。文[11]基于模糊推理方法,將觀測(cè)和計(jì)算得到的目標(biāo)狀態(tài)和行為特征(包括目標(biāo)的距離、速度和高度等狀態(tài)信息)通過(guò)隸屬度函數(shù)進(jìn)行表示,再根據(jù)特定的模糊規(guī)則建立推理模型,推測(cè)空中目標(biāo)意圖。文[12]在基于 LSTM 網(wǎng)絡(luò)的基礎(chǔ)上引入雙向循環(huán)機(jī)制和注意力機(jī)制,提出基于 BiLSTM-Attention 空中目標(biāo)戰(zhàn)術(shù)意圖智能識(shí)別模型,有效地提高了空戰(zhàn)目標(biāo)意圖識(shí)別的準(zhǔn)確率。
以上研究均是在訓(xùn)練數(shù)據(jù)集中各個(gè)類(lèi)別的樣本數(shù)量充足且相對(duì)平衡的情況下開(kāi)展研究的,然而真實(shí)空戰(zhàn)場(chǎng)環(huán)境復(fù)雜萬(wàn)變,很難捕獲敵方目標(biāo)大量的空戰(zhàn)目標(biāo)對(duì)抗數(shù)據(jù)用于模型訓(xùn)練。此外,實(shí)際情況下所捕獲的敵方目標(biāo)的數(shù)據(jù)大多數(shù)時(shí)間都是處于巡航飛行階段,真正處于對(duì)抗階段的飛行參數(shù)、空戰(zhàn)目標(biāo)參數(shù)等非常稀少,導(dǎo)致訓(xùn)練數(shù)據(jù)集存在著嚴(yán)重的樣本間類(lèi)別不均衡問(wèn)題。而訓(xùn)練樣本量少和類(lèi)間不均衡會(huì)導(dǎo)致模型很難從少量且少數(shù)的樣本中挖掘有用的信息,導(dǎo)致嚴(yán)重的過(guò)擬合問(wèn)題。目前針對(duì)訓(xùn)練樣本量少且不均衡條件下的意圖識(shí)別研究還較少,開(kāi)展針對(duì)類(lèi)別不均衡問(wèn)題[13]、小樣本問(wèn)題[14]的意圖識(shí)別具有極其重要的實(shí)際意義。
1 概述
為了解決在樣本量少且不均衡條件下的意圖識(shí)別問(wèn)題,本文提出了一種基于數(shù)據(jù)擴(kuò)充的小樣本對(duì)比學(xué)習(xí)算法,總體方案如圖1所示。第一步,通過(guò)行為序列的生成、數(shù)據(jù)標(biāo)準(zhǔn)化、意圖空間描述生成空中目標(biāo)的行為模式序列;第二步,將基于深度雙向門(mén)控循環(huán)單元(DBGRU)模型作為骨干網(wǎng)絡(luò),提出了小樣本對(duì)比學(xué)習(xí)框架,緩解類(lèi)別不均衡的小樣本學(xué)習(xí)中的網(wǎng)絡(luò)模型參數(shù)過(guò)擬合問(wèn)題。具體地,首先利用WGAN擴(kuò)充行為模式序列,并將擴(kuò)充數(shù)據(jù)作為小樣本對(duì)比學(xué)習(xí)框架的訓(xùn)練數(shù)據(jù)。然后,將與輸入樣本屬于同一類(lèi)別的樣本定義為正樣本,屬于不同類(lèi)別的樣本定義為負(fù)樣本,讓模型通過(guò)判別輸入樣本對(duì)中的正樣本和負(fù)樣本的類(lèi)別來(lái)學(xué)習(xí)不同類(lèi)別樣本之間的差異性,使模型從擴(kuò)充數(shù)據(jù)中學(xué)習(xí)到與意圖判別相關(guān)的特征模式。第三步,將第二步中的模型權(quán)重利用遷移學(xué)習(xí)的方法,遷移到DBGRU中,再用原始的行為模式序列對(duì)模型進(jìn)行微調(diào),實(shí)現(xiàn)對(duì)目標(biāo)意圖的準(zhǔn)確識(shí)別。實(shí)驗(yàn)結(jié)果證明了本文提出的基于小樣本學(xué)習(xí)的空戰(zhàn)對(duì)抗行為意圖識(shí)別方法有效性。
2 生成行為模式序列
考慮到空戰(zhàn)中的敵我目標(biāo)的行為是一個(gè)動(dòng)態(tài)、復(fù)雜的連續(xù)過(guò)程,其意圖的實(shí)現(xiàn)很可能與目標(biāo)的速度、高度、加速度、雷達(dá)狀態(tài)等特征有關(guān),這些模式特征的相互組合,形成了相應(yīng)的作戰(zhàn)行為。因此在本文中,將空戰(zhàn)目標(biāo)模式特征分成連續(xù)值類(lèi)型的18維向量{方位角,高度,緯度,經(jīng)度,接近速度,速度,俯仰角,重頻,脈寬,相對(duì)高度,相對(duì)我機(jī)的方位角,相對(duì)敵機(jī)的方位角,相對(duì)距離,相對(duì)我機(jī)的俯仰角,相對(duì)敵機(jī)的俯仰角,翻滾角,敵機(jī)接近速度,敵機(jī)速度}和離散、非數(shù)值類(lèi)型的10維向量{ 我機(jī)是否被干擾,敵機(jī)是否被干擾,我機(jī)干擾類(lèi)型,敵機(jī)干擾類(lèi)型,重頻類(lèi)型,脈寬類(lèi)型,敵對(duì)我雷達(dá)狀態(tài),我對(duì)敵雷達(dá)狀態(tài),工作模式,工作狀態(tài)},構(gòu)成28維的敵我雙方戰(zhàn)機(jī)空中態(tài)勢(shì)特征集。
然后,采用滑動(dòng)窗口的方法對(duì)空中目標(biāo)戰(zhàn)術(shù)意圖識(shí)別特征集進(jìn)行裁剪,得到若干時(shí)間長(zhǎng)度為30s的行為序列,
將代表不同空戰(zhàn)場(chǎng)優(yōu)劣勢(shì)的行為序列沿時(shí)間維度進(jìn)行拼接,并采用均值方差標(biāo)準(zhǔn)化對(duì)數(shù)據(jù)進(jìn)行處理。
最后,將經(jīng)過(guò)專(zhuān)家標(biāo)注的代表相同空戰(zhàn)場(chǎng)優(yōu)劣勢(shì)的行為序列劃到一類(lèi),構(gòu)成包含攻擊、脫離、占位、規(guī)避、接敵5個(gè)類(lèi)別的電磁目標(biāo)戰(zhàn)術(shù)意圖空間。并建立戰(zhàn)術(shù)意圖空間與模式標(biāo)簽的對(duì)應(yīng)關(guān)系,將意圖模式封裝成網(wǎng)絡(luò)的輸出模式標(biāo)簽,便于網(wǎng)絡(luò)輸出目標(biāo)的行為意圖分類(lèi)結(jié)果。本文將經(jīng)過(guò)標(biāo)準(zhǔn)化的行為序列和包含標(biāo)簽信息的模式標(biāo)簽稱(chēng)為行為模式序列。
考慮到不同的意圖的行為持續(xù)時(shí)間差異明顯,例如無(wú)意識(shí)的飛行時(shí)間遠(yuǎn)大于攻擊行為的持續(xù)時(shí)間,這樣會(huì)導(dǎo)致嚴(yán)重的過(guò)擬合問(wèn)題。此時(shí),網(wǎng)絡(luò)模型只會(huì)學(xué)習(xí)數(shù)據(jù)中的長(zhǎng)時(shí)間行為,而不會(huì)學(xué)習(xí)行為模式序列中的動(dòng)態(tài)時(shí)間依賴(lài)。為了解決這些問(wèn)題,本項(xiàng)目引入了一種多尺度隨機(jī)片段策略,在該策略中,隨機(jī)長(zhǎng)度的片段在整個(gè)輸入時(shí)間序列的隨機(jī)位置被切割出,并且在每次迭代中進(jìn)行多次分割隨機(jī)片段,根據(jù)每個(gè)隨機(jī)片段分別更新模型的訓(xùn)練權(quán)重。這不僅減少了不同的意圖行為持續(xù)時(shí)間的差異,并且增加了訓(xùn)練數(shù)據(jù)的數(shù)量,加快了模型的收斂速度。隨機(jī)切片過(guò)程如圖2所示。在仿真試驗(yàn)過(guò)程中,我們隨機(jī)選擇整個(gè)序列30%~60%的數(shù)據(jù)作為隨機(jī)片段。
3 基于深度雙向門(mén)控循環(huán)單元的意圖識(shí)別網(wǎng)絡(luò)
為了更好的捕捉時(shí)序數(shù)據(jù)之間的全局關(guān)聯(lián)性,本文提出了深度雙向門(mén)控循環(huán)單元的意圖識(shí)別網(wǎng)絡(luò),包括特征嵌入層、基于注意力的雙向GRU模塊和基于注意力的模式輸出層。其中注意力機(jī)制的使用使得網(wǎng)絡(luò)模型能夠自動(dòng)分配隱層信息的權(quán)重,以提高模型捕捉更具判別性特征的能力。
DBGRU的算法結(jié)構(gòu)如圖3所示。
3.1 特征嵌入層
本文使用全連接層來(lái)實(shí)現(xiàn)時(shí)序信息到特征空間的嵌入。給定一段空戰(zhàn)目標(biāo)的行為模式序列XT={x1,x2,…,xT},將第i時(shí)刻的敵方目標(biāo)態(tài)勢(shì)信息xi轉(zhuǎn)換成低維特征嵌入空間ET中的向量ei,該過(guò)程可以由一個(gè)三層全連接網(wǎng)絡(luò)來(lái)實(shí)現(xiàn):
ET=fθ(XT)(1)
其中fθ(·)表示全連接網(wǎng)絡(luò),用于提取每個(gè)時(shí)刻敵方目標(biāo)行為模式序列的特征。
3.2 基于注意力機(jī)制的雙向GRU模塊
對(duì)于空戰(zhàn)對(duì)抗中的空戰(zhàn)目標(biāo)行為意圖識(shí)別問(wèn)題,快速準(zhǔn)確的識(shí)別敵方的行為意圖是我方制勝的關(guān)鍵?,F(xiàn)有的循環(huán)神經(jīng)網(wǎng)絡(luò)(recurrent neural network,RNN)存在著嚴(yán)重的梯度消失問(wèn)題,而RNN的變種長(zhǎng)短期循環(huán)神經(jīng)(long short term memory,LSTM)網(wǎng)絡(luò)雖然能克服訓(xùn)練過(guò)程中的梯度消失問(wèn)題,但是其結(jié)構(gòu)復(fù)雜,參數(shù)量大,容易過(guò)擬合,因此本文選擇比LSTM更簡(jiǎn)單有效的GRU。
GRU網(wǎng)絡(luò)結(jié)構(gòu)如圖4所示。GRU單元包含了2個(gè)主要組成部分:一個(gè)重置rt,其對(duì)應(yīng)的參數(shù)是Wxi,Whi,bi;一個(gè)更新門(mén)zt ,其對(duì)應(yīng)的參數(shù)為Wxf,Whf,bf;重置門(mén)rt用于控制忽略前一時(shí)刻的狀態(tài)信息的程度,決定如何將新的輸入信息與前面的記憶相結(jié)合。更新門(mén)zt控制前一時(shí)刻的狀態(tài)信息被帶入到當(dāng)前狀態(tài)中的程度,決定前面記憶保存到當(dāng)前時(shí)間步的量。使用當(dāng)前的輸入xt與前一步生成的狀態(tài)h~t決定是否以往之前的存儲(chǔ),并且輸出當(dāng)前的狀態(tài)。在時(shí)刻t的GRU的輸出可以表示為:
rt=σ(Wxixt+Whiht-1+bi)
zt=σ(Wxfxt+Whfht-1+bf)
h~t=tanh(Whr(rtht-1)+Wxrxt+br)
ht=(1-zt)ht-1+zth~t(2)
由于GRU只能學(xué)習(xí)當(dāng)前時(shí)刻之前的信息,無(wú)法學(xué)習(xí)當(dāng)前時(shí)刻之后的信息。而對(duì)于許多基于時(shí)間序列數(shù)據(jù)的建模任務(wù)來(lái)說(shuō),訪(fǎng)問(wèn)未來(lái)和過(guò)去的上下文能夠提升算法性能。為了讓網(wǎng)絡(luò)學(xué)習(xí)空戰(zhàn)對(duì)抗中更深層次的上下文信息,本文在GRU的基礎(chǔ)上,引入雙向循環(huán)機(jī)制,將兩個(gè)鏈?zhǔn)芥溄拥腉RU按照相反的方向遞歸,增加后續(xù)輸入對(duì)當(dāng)前時(shí)間點(diǎn)輸入信息的依賴(lài)性和相關(guān)性,提高了模型的上下文信息特征提取與表達(dá)能力。
雙向GRU層由兩個(gè)雙向GRU和一個(gè)特征增強(qiáng)層組成,行為模式序列經(jīng)過(guò)全連接層之后第一層雙向GRU學(xué)習(xí)信號(hào)級(jí)的時(shí)序上下文信息,第二層雙向GRU學(xué)習(xí)語(yǔ)義級(jí)的上下文信息。雙向GRU別在時(shí)間維以順序和逆序,即前向和后向依次處理輸入序列,并將每個(gè)時(shí)間步GRU的輸出拼接成為最終的輸出層。這樣每個(gè)時(shí)間步的輸出節(jié)點(diǎn),都包含了輸入序列中當(dāng)前時(shí)刻完整的過(guò)去和未來(lái)的上下文信息。
考慮到敵方目標(biāo)的時(shí)間行為模式的行為可能存在混亂,即在行為模式序列的某個(gè)時(shí)刻t所包含的一些行為成分(速度、加速度等)可能具有欺騙性[15-16],使得GRU模型難以識(shí)別其行為背后的真實(shí)意圖。為了解決這個(gè)問(wèn)題, 本文在兩個(gè)雙向GRU中間引入了基于注意力機(jī)制的特征增強(qiáng)層來(lái)學(xué)習(xí)特征的全局時(shí)序相關(guān)性,提取行為模式序列中任意時(shí)刻最重要的行為特征表達(dá),從而增強(qiáng)GRU所學(xué)特征的判別能力。
具體地,給定目標(biāo)的行為模式序列信息為OT={o1,o2,…,oT},空戰(zhàn)目標(biāo)狀態(tài)引導(dǎo)信息為DT={d1,d2,…,dT},其中,行為模式序列信息代表第一層雙向GRU學(xué)習(xí)到的信號(hào)級(jí)的時(shí)序上下文信息,空戰(zhàn)目標(biāo)狀態(tài)引導(dǎo)信息表示敵我雙方戰(zhàn)機(jī)空中態(tài)勢(shì)特征集中的離散值、非數(shù)值類(lèi)型的特征向量,T表示時(shí)序行為模式序列的長(zhǎng)度。首先,利用多層感知機(jī)(multiyer perceptron,MLP)挖掘空戰(zhàn)目標(biāo)狀態(tài)引導(dǎo)信息DT中的特征信息:
G=fM(DT)(3)
其中fM(·)表示多層感知機(jī)層,用于提取每個(gè)時(shí)刻空戰(zhàn)目標(biāo)狀態(tài)引導(dǎo)信息的特征。然后經(jīng)過(guò)一個(gè)Softmax層獲得空戰(zhàn)目標(biāo)狀態(tài)引導(dǎo)信息的注意力顯著:
D*=fsoftmax(G)(4)
最后,將行為模式序列信息與 拼接的得到注意力增強(qiáng)的混合特征信息,輸入到第二層雙向GRU的輸入:
S=Cconcat(OT,D*)(5)
其中:Cconcat(·,·)表示拼接操作;S表示注意力增強(qiáng)的混合特征信息。
3.3 基于注意力的模式輸出層
定義H表示由雙向GRU層輸出的向量{h1,h2,…,hT}所構(gòu)成的矩陣,其中T表示時(shí)序行為模式序列的長(zhǎng)度。該行為模式序列的表達(dá)M由H通過(guò)一個(gè)線(xiàn)性層獲得:
M=WhH+bh(6)
其中:M∈Rdw×T,dw表示行為模式序列的維度;Wh、bh表示可學(xué)習(xí)的權(quán)重和偏置。最終,由注意力機(jī)制得到的增強(qiáng)特征H*為
H*=fsoftmax(M)(7)
4 基于數(shù)據(jù)擴(kuò)充的小樣本對(duì)比學(xué)習(xí)
為了緩解小樣本數(shù)據(jù)在模型訓(xùn)練中的過(guò)擬合問(wèn)題,本文提出了基于數(shù)據(jù)擴(kuò)充的小樣本對(duì)比學(xué)習(xí)算法,其算法流程如圖 5所示。與以往的特征表示學(xué)習(xí)方法不同,本文基于數(shù)據(jù)擴(kuò)充的對(duì)比學(xué)習(xí)將WGAN生成的偽樣本和真實(shí)數(shù)據(jù)的訓(xùn)練樣本作為輸入,利用共享參數(shù)的DBGRU作為特征提取網(wǎng)絡(luò)來(lái)學(xué)習(xí)樣本間特征,從而使特征提取網(wǎng)絡(luò)學(xué)習(xí)樣本的判別特征,并利用對(duì)比學(xué)習(xí)損失為訓(xùn)練過(guò)程提供監(jiān)督信息,最后再對(duì)模型進(jìn)行微調(diào),實(shí)現(xiàn)對(duì)空戰(zhàn)目標(biāo)的行為意圖的準(zhǔn)確識(shí)別。
4.1 基于WGAN的樣本擴(kuò)充策略
在真實(shí)空戰(zhàn)場(chǎng)中,可供分析的敵方目標(biāo)對(duì)抗數(shù)據(jù)可用樣本數(shù)據(jù)較少,而且樣本存在很大類(lèi)間不均衡。例如,敵機(jī)A在我們監(jiān)測(cè)到它的軌跡后,
長(zhǎng)期處于“脫離”和“接觸”狀態(tài),與“脫離”和“接觸”狀態(tài)的樣本數(shù)相比,“攻擊”狀態(tài)下的行為樣本數(shù)非常少。這樣的樣本集是不均衡的,這就意味著很難準(zhǔn)確預(yù)測(cè)樣本數(shù)量少的類(lèi)別。
為了克服上述問(wèn)題,本文提出了基于WGAN的樣本擴(kuò)充策略[17],擴(kuò)充類(lèi)間不均衡的樣本,提高行為意圖識(shí)別的準(zhǔn)確性。作為一個(gè)生成模型,WGAN具有捕捉高維數(shù)據(jù)分布的固有能力,適合于不需要任何標(biāo)簽的無(wú)監(jiān)督模型。WGAN由一個(gè)生成器G和一個(gè)判別器D組成。生成器利用隨機(jī)噪聲生成假的時(shí)序行為模式,判別器識(shí)別真實(shí)數(shù)據(jù)和假數(shù)據(jù)的差異。生成器和判別器是由全連接層和循環(huán)層堆疊。如果對(duì)模型進(jìn)行良好的訓(xùn)練,生成器可以生成與真實(shí)數(shù)據(jù)分布相同的高質(zhì)量假數(shù)據(jù),判別器無(wú)法區(qū)分輸入的真假數(shù)據(jù),因?yàn)樗鼜恼婕贁?shù)據(jù)中提取了相似的廣義特征。
WGAN的訓(xùn)練過(guò)程如圖6所示。輸入一個(gè)初始隨機(jī)噪聲z,然后通過(guò)生成器得到一個(gè)假數(shù)據(jù)G(z),然后將真實(shí)數(shù)據(jù)和假數(shù)據(jù)混合,輸入到鑒別器中。鑒別器將這些輸入數(shù)據(jù)進(jìn)行真假兩種分類(lèi),然后得到概率D(x),最后計(jì)算出損失并返回,自動(dòng)調(diào)整發(fā)生器和鑒別器的參數(shù)。在訓(xùn)練過(guò)程中,生成器和鑒別器利用值函數(shù)V(G,D)進(jìn)行了極大極小博弈,并使用 Wasserstein距離來(lái)提高GAN訓(xùn)練的穩(wěn)定性?;赪GAN的價(jià)值函數(shù)如下:
minGmaxDV(G,D)=Ex~pr[D(x)]-Ez~pg[D(G(z))](8)
其中:pr為真實(shí)數(shù)據(jù)x的分布;pg為隨機(jī)噪聲z的分布;G和D分別為發(fā)生器和鑒別器的多層感知器表示的函數(shù)。生成器和鑒別器的損失函數(shù)如下:
Gloss=-Ez~pg[D(G(z))]
Dloss=-Ex~pr[D(x)]+Ez~pg[D(G(z))]+
λEx~Ω[|D(x)|p]2(9)
其中:Ω為鑒別器的輸入空間;|SymbolQC@D(x)|p為鑒別器梯度的p范數(shù);λ為懲罰參數(shù),將鑒別器的梯度限制在一個(gè)適當(dāng)?shù)姆秶鷥?nèi)。
4.2 基于動(dòng)量對(duì)比的對(duì)比學(xué)習(xí)框架[18]
由于本文所使用的空戰(zhàn)目標(biāo)的多維態(tài)勢(shì)信息具有樣本量小和樣本類(lèi)間不均衡的特點(diǎn),為了緩解訓(xùn)練過(guò)程中的過(guò)擬合問(wèn)題,本文采用了動(dòng)量對(duì)比學(xué)習(xí)框架,首先利用對(duì)比學(xué)習(xí)方法通過(guò)判別輸入樣本對(duì)中的正樣本和負(fù)樣本來(lái)學(xué)習(xí)樣本之間的差異,使得網(wǎng)絡(luò)學(xué)習(xí)到樣本的判別特征,然后將網(wǎng)絡(luò)訓(xùn)練的參數(shù)傳遞到DBGRU中進(jìn)行微調(diào),以達(dá)到更好的分類(lèi)效果。
基于動(dòng)量對(duì)比的對(duì)比學(xué)習(xí)框架如圖7所示。正樣本(即,查詢(xún)樣本xquery)經(jīng)過(guò)編碼器得到特征q,負(fù)樣本(即,字典樣本xkey)經(jīng)過(guò)動(dòng)量編碼器得到負(fù)樣本{k1,k2,k3,…},對(duì)比損失通過(guò)計(jì)算正、負(fù)樣本特征的相似度得到,繼而產(chǎn)生更新網(wǎng)絡(luò)的梯度,更新網(wǎng)絡(luò)的參數(shù)。其中,負(fù)樣本特征{k1,k2,k3,…}由一組數(shù)據(jù)樣本動(dòng)態(tài)定義。本文方法需要同時(shí)更新動(dòng)量編碼器參數(shù)和特征編碼器參數(shù),為了便于訓(xùn)練,動(dòng)量編碼器和特征編碼器具有相同的網(wǎng)絡(luò)結(jié)構(gòu),并在訓(xùn)練前隨機(jī)初始化編碼器的參數(shù)。其中動(dòng)量編碼器利用動(dòng)量更新策略更新網(wǎng)絡(luò)參數(shù),特征編碼器利用對(duì)比損失梯度更新網(wǎng)絡(luò)參數(shù)。
動(dòng)量更新策略如下,將動(dòng)量編碼器fk的參數(shù)記為θk,將正樣本編碼器fq的參數(shù)記為θq,θk的更新過(guò)程可描述為
θk←mθk+(1-m)θq(10)
其中:m為動(dòng)量更新參數(shù);θq和θk分別為當(dāng)前訓(xùn)練階段特征編碼器和動(dòng)量編碼器的網(wǎng)絡(luò)參數(shù)。特征編碼器的網(wǎng)絡(luò)更新梯度由對(duì)比損失函數(shù)得到,給定一個(gè)任意的正樣本xi的特征qi,則網(wǎng)絡(luò)的損失函數(shù)為
Lq=-logexp(qi·k+τ)∑Ki=1exp(qi·k+τ)+exp(qi·kiτ)(11)
其中:τ為溫度超參數(shù);k+為正樣本的索引;ki為K個(gè)負(fù)樣本的索引。
5 實(shí)驗(yàn)分析
5.1 實(shí)驗(yàn)數(shù)據(jù)集
原始空戰(zhàn)對(duì)抗數(shù)據(jù)包含攻擊、規(guī)避、接敵、脫離和占位5個(gè)行為類(lèi)別共6513幀多要素時(shí)序數(shù)據(jù),并按8∶2劃分訓(xùn)練集與測(cè)試集。所有數(shù)據(jù)的標(biāo)簽都是經(jīng)過(guò)專(zhuān)家標(biāo)注的,各行為類(lèi)別的數(shù)據(jù)維度高、樣本小且分布不均衡,對(duì)充分挖掘數(shù)據(jù)中的有效信息提出了挑戰(zhàn),數(shù)據(jù)中各行為類(lèi)別占比情況如圖 8所示。
5.2 實(shí)驗(yàn)環(huán)境及參數(shù)設(shè)置
本實(shí)驗(yàn)采用Python語(yǔ)言,使Pytorch框架, 運(yùn)行環(huán)境為CPU為Ubuntu14(LINUX)系統(tǒng)、pycharm2021軟件,GPU為Nvidia GTX 1080Ti,12G顯存,以及cuda 8.0用于GPU顯卡加速。模型評(píng)估指標(biāo)選用機(jī)器學(xué)習(xí)常用的精確率、召回率、F1-score(模型精確率和召回率的調(diào)和平均)。實(shí)驗(yàn)中需要設(shè)置并調(diào)整超參數(shù),因此根據(jù)模型的準(zhǔn)確率值,經(jīng)過(guò)多次運(yùn)行迭代,得到最優(yōu)的模型參數(shù),設(shè)置實(shí)驗(yàn)超參數(shù)如表1所示。
5.3 DBGRU意圖識(shí)別結(jié)果分析
DBGRU利用原始數(shù)據(jù)訓(xùn)練集直接進(jìn)行訓(xùn)練,再在測(cè)試集上進(jìn)行測(cè)試,實(shí)驗(yàn)表明DBGRU的準(zhǔn)確率可以達(dá)到86%,為進(jìn)一步觀測(cè)各識(shí)別意圖之間的關(guān)系,制作數(shù)據(jù)集的混淆矩陣,對(duì)角線(xiàn)表示識(shí)別正確的樣本個(gè)數(shù),如表2所示。
通過(guò)計(jì)算可以得出,DBGRU在預(yù)測(cè)過(guò)程中取得了良好的效果,整體分類(lèi)準(zhǔn)確率為86%,模型對(duì)于5種意圖識(shí)別皆具有較高識(shí)別準(zhǔn)確率,特別是接敵意圖的識(shí)別準(zhǔn)確率可達(dá)到92.67% ,攻擊和規(guī)避意圖的識(shí)別準(zhǔn)確率較低,僅有80%和78%,經(jīng)分析是由于攻擊和規(guī)避用于訓(xùn)練的樣本量較少,訓(xùn)練過(guò)程中可能產(chǎn)生了過(guò)擬合現(xiàn)象,從而導(dǎo)致有少部分意圖相互識(shí)別錯(cuò)誤情況出現(xiàn),符合實(shí)際情況。
5.4 對(duì)比實(shí)驗(yàn)
本實(shí)驗(yàn)選取200 次迭代過(guò)程中,測(cè)試集上最高的準(zhǔn)確率作為該模型的準(zhǔn)確率,相對(duì)應(yīng)的損失值即為該模型的損失值。為驗(yàn)證本文模型的優(yōu)越性,將本文基于數(shù)據(jù)擴(kuò)充的小樣本對(duì)比學(xué)習(xí)算法與文[12]中空中目標(biāo)戰(zhàn)術(shù)意圖智能識(shí)別模型(BiLSTM-Attention)、文[19]中基于深度神經(jīng)網(wǎng)絡(luò)的作戰(zhàn)意圖識(shí)別模型(DNN)和文[9]提出的棧式自編碼器(SAE) 戰(zhàn)術(shù)意圖智能識(shí)別模型、傳統(tǒng)的多分類(lèi)模型支持向量機(jī)(SVM)、文[20]提出的基于LSTM的戰(zhàn)場(chǎng)對(duì)敵目標(biāo)戰(zhàn)術(shù)意圖識(shí)別模型和Transformer[21]進(jìn)行對(duì)比實(shí)驗(yàn)。對(duì)比驗(yàn)參數(shù)設(shè)置與實(shí)驗(yàn)具體結(jié)果如表3所示。
由表3可知,本文基于數(shù)據(jù)擴(kuò)充的小樣本對(duì)比學(xué)習(xí)算法的空戰(zhàn)目標(biāo)行為意圖識(shí)別準(zhǔn)確率均高于其它模型,具有更高的分類(lèi)準(zhǔn)確率,驗(yàn)證了算法在小樣本條件下的優(yōu)越性,而Transformer模型雖然在大模型等各個(gè)領(lǐng)域都取得了很好的表現(xiàn),但是在本文樣本量極少的情況下卻表現(xiàn)不佳。
5.5 消融實(shí)驗(yàn)
上節(jié)實(shí)驗(yàn)證明了相比BiLSTM-Attention、DNN、SAE等網(wǎng)絡(luò),基于數(shù)據(jù)擴(kuò)充的小樣本對(duì)比學(xué)習(xí)算法的分類(lèi)效果更優(yōu)越,但這些網(wǎng)絡(luò)不屬于同一類(lèi)型且參數(shù)設(shè)置也不盡相同,導(dǎo)致實(shí)驗(yàn)缺乏一定的說(shuō)服力。因此將在基于數(shù)據(jù)擴(kuò)充的小樣本對(duì)比學(xué)習(xí)算法中是否采用多尺度隨機(jī)片段策略、DBGRU、BiGRU中引入對(duì)比學(xué)習(xí)框架、BiGRU模型進(jìn)行消融實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果如表4所示。其中①表示在DBGRU中引入對(duì)比學(xué)習(xí)框架;②表示DBGRU模型;③表示在BiGRU中引入對(duì)比學(xué)習(xí);④表示BiGRU模型;⑤表示①中不采用多尺度隨機(jī)片段策略。由表4可知,本文所提出的基于數(shù)據(jù)擴(kuò)充的小樣本對(duì)比學(xué)習(xí)算法在大部分樣本上的精確率、召回率、F1-score上均高于其余模型,證明了本文模型能有效提升意圖識(shí)別效果,驗(yàn)證了模型在意圖識(shí)別效果上的優(yōu)越性。而DBGRU與在雙向GRU中引入對(duì)比學(xué)習(xí)框架的驗(yàn)證集準(zhǔn)確率均高于雙向GRU模型,經(jīng)分析后認(rèn)為是模型中的注意力機(jī)制和對(duì)比學(xué)習(xí)框架能有效提升訓(xùn)練效果與學(xué)習(xí)效率。
6 結(jié) 論
本文針對(duì)目前空戰(zhàn)對(duì)抗中的樣本量少和類(lèi)別不均衡問(wèn)題,提出了一種基于數(shù)據(jù)擴(kuò)充的小樣本對(duì)比學(xué)習(xí)算法,利用生成對(duì)抗網(wǎng)絡(luò)生成與原始數(shù)據(jù)具有相同分布特征的偽樣本,并利用對(duì)比學(xué)習(xí)框架挖掘偽樣本中不同類(lèi)別樣本間的特征差異,再利用原始數(shù)據(jù)對(duì)網(wǎng)絡(luò)參數(shù)進(jìn)行微調(diào),實(shí)現(xiàn)了對(duì)空戰(zhàn)目標(biāo)行為意圖的準(zhǔn)確預(yù)測(cè)。最終通過(guò)仿真實(shí)驗(yàn),驗(yàn)證基于數(shù)據(jù)擴(kuò)充的小樣本對(duì)比學(xué)習(xí)算法可以有效的提升不均衡小樣本空戰(zhàn)數(shù)據(jù)的意圖識(shí)別準(zhǔn)確率,且具有更高的識(shí)別率。
參 考 文 獻(xiàn):
[1] 王端龍, 吳曉鋒, 冷畫(huà)屏.對(duì)敵戰(zhàn)場(chǎng)意圖識(shí)別的若干問(wèn)題[J].艦船電子工程,2004(6):4.
WANG Duanlong, WU Xiafeng, LENG Huaping. Some Problems of Identification of Enemy Battlefield Intentions[J].Ship Electronic Engineering,2004(6):4.
[2] 王昊冉, 老松楊, 白亮, 等.基于MEBN的戰(zhàn)術(shù)級(jí)空中目標(biāo)意圖識(shí)別[J].火力與指揮控制,2012,37(10):133.
WANG Haoran, LAO SongYang, BAI Liang, et al. Tactical Air Target Intention Recognition Based on MEBN[J]. Fire Power and Command Control, 2012,37(10):133.
[3] 王海旺, 史紅權(quán), 李曉丹.基于直覺(jué)模糊集和貝葉斯推理的意圖識(shí)別方法[J].艦船電子工程,2019,39(6):42.
WANG Haiwang, SHI Hongquan, LI Xiaodan. Intent Recognition Method Based on Intuitionistic Fuzzy Set and Bayesian Inference[J].Ship Electronic Engineering,2019,39(6):42.
[4] 范瀚陽(yáng), 高睿源, 金興華.基于模糊隨機(jī)貝葉斯網(wǎng)絡(luò)的意圖估計(jì)方法[J].火力與指揮控制,2019,44(7):100.
FAN Hanyang, GAO Ruiyuan, JIN Xinhua. Intent Estimation Method Based on Fuzzy Stochastic Bayesian Network[J].Fire Power and Command Control,2019,44(7):100.
[5] 孫越林, 包磊.基于D-S證據(jù)理論的海戰(zhàn)場(chǎng)目標(biāo)戰(zhàn)術(shù)意圖識(shí)別技術(shù)研究[J].艦船電子工程,2012,32(5):48.
SUN Yuelin, BAO Lei. Research on Tactical Intent Identification Technology of Naval Battlefield Targets Based on D-S Evidence Theory[J].Ship Electronic Engineering,2012,32(5):48.
[6] 張肅, 程啟月, 解瑤, 等.不確定空情信息條件下的意圖識(shí)別方法[J].空軍工程大學(xué)學(xué)報(bào),2008(3):50.
ZHANG Su, CHENG Qiyue, XIE Yao, et al. Journal of Air Force Engineering University,2008(3): 50.
[7] 夏曦. 基于模板匹配的目標(biāo)意圖識(shí)別方法研究[D].長(zhǎng)沙:國(guó)防科學(xué)技術(shù)大學(xué),2006.
[8] 伍之前, 李登峰.基于推理和多屬性決策的空中目標(biāo)攻擊意圖判斷模型[J].電光與控制,2010,17(5):10.
WU Zhiqian, LI Dengfeng. Judgment Model of Air Target Attack Intent Based on Reasoning and Multi-attribute Decision-making[J].Electro-Optics and Control,2010,17(5):10.
[9] 歐微, 柳少軍, 賀筱媛, 等.基于時(shí)序特征編碼的目標(biāo)戰(zhàn)術(shù)意圖識(shí)別算法[J].指揮控制與仿真,2016,38(6):3641.
OU Wei, LIU Shaojun, HE Xiaoyuan, et al. Target Tactical Intent Recognition Algorithm Based on Time Series Feature Coding[J].Command Control amp; Simulation,2016,38(6):36.
[10]楊雨田, 楊杰, 李建國(guó).基于EMEBN的空中目標(biāo)戰(zhàn)術(shù)意圖識(shí)別方法[J].火力與指揮控制,2022,47(5):163.
YANG Yutian, YANG Jie, LI Jianguo. Tactical Intent Identification Method of Air Target Based on EMEBN[J].Fire amp; Command and Control,2022,47(5):163.
[11]徐建平, 張立凡, 韓德強(qiáng).基于模糊推理的空中目標(biāo)意圖識(shí)別[J].指揮信息系統(tǒng)與技術(shù),2020,11(3):44.
XU Jianping, ZHANG Lifang, HAN Deqiang. Air Target Intention Recognition Based on Fuzzy Reasoning[J].Command Information System and Technology,2020,11(3):44.
[12]滕飛, 劉曙, 宋亞飛.BiLSTM-Attention:一種空中目標(biāo)戰(zhàn)術(shù)意圖識(shí)別模型[J].航空兵器,2021,28(5):24.
TENG Fei, LIU Shu, SONG Yafei. BiLSTM-Attention: A Model for Tactical Intent Recognition of Air Targets[J].Aviation Weapons,2021,28(5):24.
[13]馬鈺棠, 孫鵬, 張杰勇, 等.樣本不平衡下的空中群組意圖識(shí)別方法[J].系統(tǒng)工程與電子技術(shù),2022,44(12):3747.
MA Yutang, SUN Peng, ZHANG Jieyong, et al. Systems Engineering and Electronics,2022,44(12):3747.
[14]趙凱琳, 靳小龍, 王元卓.小樣本學(xué)習(xí)研究綜述[J].軟件學(xué)報(bào),2021,32(2):349.
ZHAO Kailin, JIN Xiaolong, WANG Yuanzhuo. Review of Small Sample Learning[J].Journal of Software,2021,32(2):349.
[15]胡劍光, 吳曉鋒, 冷畫(huà)屏.海戰(zhàn)場(chǎng)對(duì)敵戰(zhàn)術(shù)意圖序貫識(shí)別技術(shù)研究[J].艦船電子工程,2007(3):8.
HU Jianguang, WU Xiaofeng, LENG Huapin. Research on Sequential Identification Technology of Enemy Tactical Intention in Naval Battlefield[J].Ship Electronic Engineering,2007(3):8.
[16]冷畫(huà)屏, 吳曉鋒, 胡劍光, 等.海上目標(biāo)戰(zhàn)術(shù)意圖序貫識(shí)別技術(shù)研究[J].系統(tǒng)工程與電子技術(shù),2008(3):462.
LENG Huaping, WU Xiaofeng, HU Jianguang, et al. Research on Sequential Identification Technology of Tactical Intention of Sea Targets[J].Systems Engineering and Electronic Technology,2008(3):462.
[17]ARJOVSKY M,CHINTALA S,BOTTOU L.Wasserstein Generative Adversarial Norks[C]//International Conference on Machine Learning. PMLR,2017: 214.
[18]HE K,F(xiàn)AN H, WU Y, et al. Momentum Contrast for Unsupervised Visual Representation Learning[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2020: 9729.
[19]周旺旺, 姚佩陽(yáng), 張杰勇, 等.基于深度神經(jīng)網(wǎng)絡(luò)的空中目標(biāo)作戰(zhàn)意圖識(shí)別[J].航空學(xué)報(bào),2018,39(11):200.
ZHOU Wangwang, YAO Peiyaoi, ZHANG Jieyong, et al. Combat Intent Recognition of Air Targets Based on Deep Neural Network[J].Journal of Aeronautics,2018,39(11):200.
[20]歐微, 柳少軍, 賀筱媛, 等.戰(zhàn)場(chǎng)對(duì)敵目標(biāo)戰(zhàn)術(shù)意圖智能識(shí)別模型研究[J].計(jì)算機(jī)仿真,2017,34(9):10.
OU Wei, LIU Shaojun, HE Xiaoyuan, et al. Research on Intelligent Recognition Model for Tactical Intention of Battlefield Against Enemy Targets[J].Computer Simulation,2017,34(9):10.
[21]VASWANI, ASHISH, et al. Attention is All You Need. Advances in Neural Information Processing Systems, 2017: 30.
(編輯:溫澤宇)
哈爾濱理工大學(xué)學(xué)報(bào)2024年4期