張良 李少毅 楊曦 田曉倩
摘 要:目標(biāo)識別與抗干擾技術(shù)已經(jīng)成為決定精確制導(dǎo)武器性能優(yōu)劣的關(guān)鍵技術(shù)。 本文針對復(fù)雜對抗場景下紅外空空導(dǎo)彈作戰(zhàn)特點,分析了其目標(biāo)識別與抗干擾發(fā)展需求,提出了融合傳統(tǒng)算法與深度學(xué)習(xí)的混合智能抗干擾算法。 該算法充分利用傳統(tǒng)算法在確定場景下的高可靠性優(yōu)勢與深度學(xué)習(xí)算法在復(fù)雜場景下的高維特征提取能力,最大化挖掘了導(dǎo)彈探測的場景信息,對于提高系統(tǒng)抗干擾能力具有重要意義。 在此基礎(chǔ)上,構(gòu)造了算法測試訓(xùn)練的空戰(zhàn)數(shù)據(jù)集,覆蓋了典型的空戰(zhàn)作戰(zhàn)場景。 實驗結(jié)果表明,相同特征融合條件下,典型場景混合智能抗干擾算法的全程抗干擾概率達(dá)到了71.56%,比傳統(tǒng)算法提高了15.77%,驗證了算法的有效性。
關(guān)鍵詞:紅外空空導(dǎo)彈;智能抗干擾;空戰(zhàn)數(shù)據(jù)集;特征提取;目標(biāo)識別;深度學(xué)習(xí)
中圖分類號:TJ760.2; V271.4 文獻(xiàn)標(biāo)識碼:?? A 文章編號:1673-5048(2022)01-0022-07[SQ0]
0 引? 言
現(xiàn)代戰(zhàn)爭中,沒有人工干擾的凈空作戰(zhàn)條件已經(jīng)不復(fù)存在,新型干擾不斷出現(xiàn)、戰(zhàn)場環(huán)境瞬息萬變,使傳統(tǒng)基于人工定義特征和邏輯的算法難以應(yīng)對。 近年來在導(dǎo)彈型號研制和部隊訓(xùn)練中頻繁暴露出的問題表明,空空導(dǎo)彈的抗干擾能力已經(jīng)成為能否達(dá)成其作戰(zhàn)意圖的首要性能。 圖1所示為國外軍機(jī)拋射紅外誘餌彈示意圖。
導(dǎo)引頭抗自然背景和人工誘餌干擾能力的提升主要依賴于目標(biāo)檢測識別算法的性能[1]。 目前,導(dǎo)彈抗干擾方法主要通過強(qiáng)化空中目標(biāo)和誘餌紅外特性認(rèn)識,充分挖掘熱成像視覺特征,基于特征相似性匹配實現(xiàn)自動目標(biāo)識別。 傳統(tǒng)基于邏輯規(guī)則的算法由于閾值設(shè)置缺乏靈活性、規(guī)則表達(dá)存在局限性,難以應(yīng)對瞬息萬變的戰(zhàn)場環(huán)境[2-3]。 人工智能技術(shù)的推理、學(xué)習(xí)等能力恰恰能豐富和完善抗干擾過程中的目標(biāo)與場景定義、特征提取等功能,不僅能提高對目標(biāo)的檢測識別能力,而且能通過對環(huán)境及攻防對抗態(tài)勢的融合分析生成最佳博弈策略,對于提高導(dǎo)彈在復(fù)雜環(huán)境下的作戰(zhàn)能力具有重要意義。
自2006年以來,深度學(xué)習(xí)方面的文獻(xiàn)層出不窮[4-6]。 深度學(xué)習(xí)技術(shù)帶來的進(jìn)步主要體現(xiàn)在能夠從數(shù)據(jù)中學(xué)習(xí)提取出目標(biāo)特征,這些特征無論從數(shù)量上,還是維度或復(fù)雜度上,都遠(yuǎn)超設(shè)計人員手工設(shè)計的特征。 但深度學(xué)習(xí)存在不可解釋的特點,這對于復(fù)雜對抗、真實數(shù)據(jù)缺乏的空戰(zhàn)場景應(yīng)用帶來了較大的不確定性[7-8]。
針對該問題,本文充分利用傳統(tǒng)算法在確定場景下的高可靠性優(yōu)勢與深度學(xué)習(xí)算法在復(fù)雜場景下的高維特征提取能力,提出一種復(fù)雜對抗場景下的對空目標(biāo)混合智能抗干擾算法,最大化挖掘?qū)б^圖像蘊含信息,極大提高紅外空空導(dǎo)彈在復(fù)雜場景下的感知對抗能力。
1 混合智能抗干擾算法
混合智能抗干擾算法是在傳統(tǒng)抗干擾算法框架基礎(chǔ)上,將深度學(xué)習(xí)算法和傳統(tǒng)特征融合算法在彈道階段、特征維度、功能層面結(jié)合的一種智能算法,既保證算法的高準(zhǔn)確率,同時一定程度上提升了算法的可解釋性。
傳統(tǒng)多特征融合算法以統(tǒng)計模式識別算法中的最小距離分類法為核心,使用輸入特征矢量與特征空間中模板的點之間的距離作為分類的準(zhǔn)則。 利用最高灰度、灰度均值、能量、長寬比、周長、面積等特征作為分類的依據(jù)。
設(shè)m類中有m個參考向量R1,R2,…,Rm,分別屬于ω1,ω2,…,ωm。 若輸入特征矢量X與參考向量Ri的距離最小,則認(rèn)為X∈ωi。 X與Ri的距離為
Di(X, Ri)=X-Ri=(X-Ri)T(X-Ri)(1)
式中:當(dāng)Di(X, Ri)<Dj(X, Rj) (j=1, 2, …, m, j≠i)時,X∈ωi。
目前,空空導(dǎo)彈紅外成像導(dǎo)引頭的目標(biāo)探測識別與抗干擾策略主要是借助專家知識進(jìn)行設(shè)計[9-11],其典型流程是:(1)圖像預(yù)處理,提升信雜比;(2)分割,區(qū)分前景與背景;(3)提取前景區(qū)塊的特征,通常包括灰度、面積、周長等;(4)根據(jù)特征確定目標(biāo)。 每個步驟都有多種實現(xiàn)方法,根據(jù)多個條件判斷在不同方法之間進(jìn)行切換,實現(xiàn)多種目標(biāo)檢測與抗干擾措施之間有規(guī)律的轉(zhuǎn)換。 雖然對特定類型的場景具有較好的檢測識別和抗干擾性能,但很難靈活地適應(yīng)實戰(zhàn)環(huán)境下瞬息萬變的戰(zhàn)場態(tài)勢。
如圖2所示,不同于傳統(tǒng)算法設(shè)計的核心思想是將人的認(rèn)識轉(zhuǎn)化為導(dǎo)彈能夠執(zhí)行的邏輯與規(guī)則集合,融合深度學(xué)習(xí)的混合智能抗干擾算法在此基礎(chǔ)上能夠自動從數(shù)據(jù)中學(xué)習(xí)難以直接利用規(guī)則描述的復(fù)雜特征,大大擴(kuò)展可利用的信息維度。
混合智能抗干擾模型原理為
f(Xi)=h{T[Xi, R1i(Xi)], L[Xi, R2i(Xi)],
si(Xi)}(2)
式中:Xi為當(dāng)前圖像;f(Xi)為當(dāng)前算法的輸出結(jié)果;R1i(Xi)為傳統(tǒng)算法特征值;T[Xi, R1i(Xi)]為傳統(tǒng)算法的輸出結(jié)果;L[Xi, R2i(Xi)]為深度學(xué)習(xí)算法的輸出結(jié)果;R2i(Xi)為深度學(xué)習(xí)算法特征值; si(Xi)為當(dāng)前場景分類的結(jié)果。
根據(jù)場景分類si(Xi)的結(jié)果,可以將式(2)變?yōu)橐韵聝煞N形式:
(1) 滿足特征融合要求的形式:
f(Xi)=T[Xi, R1i(Xi)+R2i(Xi)](3)
將傳統(tǒng)特征與深度學(xué)習(xí)特征融合,在傳統(tǒng)多特征融合算法的框架下進(jìn)行目標(biāo)識別。
(2) 滿足結(jié)果融合要求的形式:
f(Xi)=α·T[Xi, R1i(Xi)]+β·L[Xi, R2i(Xi)](4)
將傳統(tǒng)特征與深度學(xué)習(xí)結(jié)果融合,其中α, β是根據(jù)si(Xi)結(jié)果變化的系數(shù),且α+β=1。
1.1 深度學(xué)習(xí)算法模塊設(shè)計
深度學(xué)習(xí)本質(zhì)上是構(gòu)建含有多隱層的神經(jīng)網(wǎng)絡(luò),通過大規(guī)模數(shù)據(jù)進(jìn)行訓(xùn)練,得到大量更具代表性的特征信息。 從而對樣本進(jìn)行分類和預(yù)測,提高分類和預(yù)測的精度。 這個過程是通過深度學(xué)習(xí)模型的手段達(dá)到特征學(xué)習(xí)的目的。 深度學(xué)習(xí)模型和傳統(tǒng)淺層學(xué)習(xí)模型的區(qū)別在于:首先,深度學(xué)習(xí)模型結(jié)構(gòu)含有更多的層次,包含隱層節(jié)點的層數(shù)通常在5層以上;其次,明確強(qiáng)調(diào)了特征學(xué)習(xí)對于深度模型的重要性,即通過逐層特征提取,將數(shù)據(jù)樣本在原空間的特征變換到一個新的特征空間來表示初始數(shù)據(jù),使得分類或預(yù)測更加容易實現(xiàn)。
一些人類事先根本沒注意到的復(fù)雜特征,也能夠被卷積神經(jīng)網(wǎng)絡(luò)提取出來。 利用卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行目標(biāo)檢測和識別,不僅大幅提高了圖像識別的精度,同時也避免了需要消耗大量時間進(jìn)行人工特征提取的工作,使得運算效率大大提升。
圖3所示為當(dāng)前主要的目標(biāo)檢測算法。 目前主流的基于深度學(xué)習(xí)的目標(biāo)檢測算法,大致可以分為兩大類別:(1)Two-Stage目標(biāo)檢測算法。 這類檢測算法將檢測問題劃分為兩個階段,第一個階段產(chǎn)生候選區(qū)域(Region Proposals),包含目標(biāo)大概的位置信息,第二階段對候選區(qū)域進(jìn)行分類和位置精修。 這類算法的典型代表[12-14]有R-CNN,F(xiàn)ast? R-CNN, Faster? R-CNN等。? (2)One-
Stage目標(biāo)檢測算法。 這類檢測算法不需要Region Proposal階段,可以通過一個Stage直接產(chǎn)生物體的類別概率和位置坐標(biāo)值。 代表性的算法[15-16]有YOLO,SSD和CornerNet。
目標(biāo)檢測模型的性能指標(biāo)是檢測準(zhǔn)確度和速度,其中準(zhǔn)確度主要考慮物體的定位及分類精度。 一般情況下,Two-Stage算法在精度上有優(yōu)勢,而One-Stage算法在速度上有優(yōu)勢。 不過,隨著研究的發(fā)展,兩類算法都做了改進(jìn),均能在準(zhǔn)確度以及速度上取得較好的結(jié)果。
由于彈載應(yīng)用對算法實時性要求很高。 Two-Stage檢測算法中,經(jīng)典的檢測方法生成候選區(qū)域都非常耗時,如R-CNN使用SS(Selective Search)方法生成檢測框,在Nvidia Titan X上只有0.02 fps的檢測速度。 即便宣稱極大地提升了檢測框生成速度的Faster R-CNN在同等條件下也只有7 fps的檢測速度。 而One-Stage類中的代表算法SSD300,在同等硬件條件下,能夠達(dá)到46 fps,且擁有和Faster R-CNN相當(dāng)?shù)臋z測精度。 因此,考慮對空目標(biāo)探測識別的高實時性要求,本文采用單階段檢測算法開展算法設(shè)計。
本文的應(yīng)用場合需要考慮弱小目標(biāo)檢測,選取一個弱小目標(biāo)檢測能力強(qiáng)的目標(biāo)分類器是十分必要的,因此,選取了YOLOV3目標(biāo)檢測算法的尾部分類器[17]。 YOLOV3由華盛頓大學(xué)的Joseph Redmon和Ali Farhadi于2018年提出,旨在提升目標(biāo)檢測的檢測效率,試圖使目標(biāo)檢測達(dá)到實時檢測的程度。 特別在經(jīng)過改進(jìn)后,YOLOV3能在提升目標(biāo)檢測效率的同時保持檢測精度,是雙贏的算法。
YOLOV3使用的是Darknet-53的網(wǎng)絡(luò)結(jié)構(gòu)(含有53個卷積層),其借鑒了殘差網(wǎng)絡(luò)的做法,在一些層之間設(shè)置了快捷鏈路(shortcut connections),從而加深了網(wǎng)絡(luò)的深度,使網(wǎng)絡(luò)提取特征的能力更進(jìn)一步加強(qiáng),如圖4所示。
MobileNet是Google提出的一種輕量級網(wǎng)絡(luò),體積小,計算量少,適用于移動設(shè)備,MobileNetV2[18]在一代基礎(chǔ)上提升了訓(xùn)練速度并有效解決了梯度彌散的問題。 雖然MobileNetV2的精度(74.9%)略低于Darknet-53,但由于彈上資源有限,Darknet-53等其他大型網(wǎng)絡(luò)部署起來會有困難,權(quán)衡之下,選用MobileNetV2作為YOLOV3的特征提取器。 MobileNetV2網(wǎng)絡(luò)結(jié)構(gòu)如表1所示。
1.2 混合智能抗干擾算法設(shè)計
從特征級和決策級兩個層面開展傳統(tǒng)目標(biāo)識別算法與深度學(xué)習(xí)算法的融合設(shè)計。 決策級:一方面,利用深度學(xué)習(xí)算法輸出結(jié)果輔助傳統(tǒng)算法進(jìn)行執(zhí)行路徑選擇;另一方面,根據(jù)場景對深度學(xué)習(xí)算法和傳統(tǒng)算法的識別結(jié)果進(jìn)行融合,在提高目標(biāo)識別正確概率的同時保證跟蹤點的穩(wěn)定性。 特征級:通過深度學(xué)習(xí)算法得到場景所有對象的態(tài)勢分布,將該分布態(tài)勢信息矢量化表示形成特征信息后與傳統(tǒng)算法成像特征進(jìn)行融合。
1.2.1 場景分類
傳統(tǒng)算法在可定義確定場景下能夠取得較好的識別效果,且具有高可靠性的優(yōu)勢。 由于場景類別的判斷本身具有一定的難度,而深度學(xué)習(xí)算法可以通過對場景中各對象類型的輸出,綜合得出場景類別[19-21],因此,將深度學(xué)習(xí)算法的場景分類結(jié)果輸出給傳統(tǒng)算法,傳統(tǒng)算法根據(jù)場景類別選擇規(guī)定好的執(zhí)行路徑,提高算法對于復(fù)雜場景的適應(yīng)能力。
根據(jù)訓(xùn)練好的模型,識別該時刻場景所處的分類情況,進(jìn)而選擇更適合的參數(shù)或算法對圖像進(jìn)行處理,提升處理精度及效率。 如圖5所示,通過場景分類算法得出目前所處的階段及目標(biāo)態(tài)勢,選擇目標(biāo)態(tài)勢最適用的算法處理目標(biāo)信息。 如遠(yuǎn)距應(yīng)選擇小目標(biāo)檢測識別算法;目標(biāo)若處于復(fù)雜機(jī)動條件下,應(yīng)選擇對應(yīng)的復(fù)雜機(jī)動條件下的識別和跟蹤方法,以確保處理不同場景所依賴的算法及參數(shù)處于最優(yōu)狀態(tài)。
1.2.2 特征融合
目標(biāo)識別主要基于紅外干擾與真實空中目標(biāo)在紅外成像上的差異性,充分提取并利用相關(guān)成像特征,構(gòu)建目標(biāo)模型并進(jìn)行識別判定,抗干擾過程中存在目標(biāo)特征連續(xù)性被破壞、干擾與目標(biāo)特征相似帶來的目標(biāo)難以識別問題,而深度學(xué)習(xí)具有極強(qiáng)的特征表示能力,因此,可將卷積神經(jīng)網(wǎng)絡(luò)提取的深度特征與傳統(tǒng)人工特征融合進(jìn)行目標(biāo)識別。
人工特征的提取主要依賴先驗知識,通過對圖像分割后的候選區(qū)域進(jìn)行處理,最大程度找出能反映不同樣本間差異的特征變量,通常以能反映能量強(qiáng)度、外形輪廓等的物理量為主。 本文所選的特征有長寬比、周長、面積、能量、灰度均值、熵、傅里葉描述子。
深度學(xué)習(xí)網(wǎng)絡(luò)輸出的特征圖反映了像面的對象分布態(tài)勢,將該分布態(tài)勢信息矢量化表示形成特征信息后,可以與傳統(tǒng)算法提取的像面成像特征融合,得到更加完整和全面的特征表示。 如發(fā)生目標(biāo)被新的誘餌遮擋情況,利用深度學(xué)習(xí)輸出的分布矢量特征,與傳統(tǒng)算法的成像特征融合,完成當(dāng)前時刻目標(biāo)與干擾相對位置矢量的觀測與估計。
圖6所示為目標(biāo)與干擾的深度特征圖。 通過這些抽象程度不高的特征圖可以看出,目標(biāo)與干擾的特征提取較為準(zhǔn)確,其主要輪廓特征可以清晰分辨,特征差別較為明顯,特征描述較為準(zhǔn)確。 不難推斷,高維深度特征也具有此類特性。 所以,對于目標(biāo)與干擾深度卷積特征,可以用目標(biāo)分類識別的一項約束,與傳統(tǒng)特征進(jìn)行融合。
圖像經(jīng)過多次卷積后得到的深度卷積特征維度一般高于傳統(tǒng)特征的維度,通常需將高維卷積特征降維至與傳統(tǒng)特征相同的維度進(jìn)行融合:
Xn=f(Cd, i, j)(5)
式中:Cd, i, j為高維卷積特征;Xn為降維后特征,與傳統(tǒng)特征維度一致;f(x)為降維算法,如主成分分析法(PCA)、線性判別分析法(LDA)等。
1.2.3 識別結(jié)果融合
導(dǎo)彈作戰(zhàn)需要在識別出目標(biāo)的同時,測量目標(biāo)的跟蹤點用于制導(dǎo)系統(tǒng)閉合。 深度學(xué)習(xí)算法可極大提高系統(tǒng)對于目標(biāo)的識別分類能力,但對于跟蹤點的提取并不穩(wěn)定。 故將深度學(xué)習(xí)算法的分類識別結(jié)果與傳統(tǒng)算法的識別結(jié)果相結(jié)合,在傳統(tǒng)算法可定義的場景下以傳統(tǒng)算法的識別結(jié)果為主,輸出跟蹤點供制導(dǎo)系統(tǒng)閉合。
在傳統(tǒng)算法難以識別出目標(biāo)的場景下,以深度學(xué)習(xí)算法的分類識別結(jié)果輔助傳統(tǒng)算法進(jìn)行目標(biāo)識別,并通過傳統(tǒng)算法輸出目標(biāo)跟蹤點,在提高系統(tǒng)目標(biāo)識別與抗干擾能力的同時,保證跟蹤點的穩(wěn)定性:
xi, j=ti,j, di, j=0α·di, j+β·ti, j, di, j≠0且α+β=1 (6)
式中:xi, j為輸出的目標(biāo)跟蹤點;di, j為深度學(xué)習(xí)算法結(jié)果;ti, j為傳統(tǒng)算法識別結(jié)果;α和β為權(quán)重系數(shù)。
同時,利用深度學(xué)習(xí)算法結(jié)果在目標(biāo)與干擾粘連狀態(tài)下所表現(xiàn)出的對部分特征依然能精準(zhǔn)鎖定的特性,結(jié)合傳統(tǒng)算法結(jié)果可判定目標(biāo)與干擾的相對運動關(guān)系,利用得到的方向特征增強(qiáng)空間約束,提升跟蹤穩(wěn)定性。
混合智能抗干擾算法具體流程如圖7所示。 首先對輸入的圖像進(jìn)行預(yù)處理,對處理后的圖像進(jìn)行場景分類識別,根據(jù)得到的不同階段選用不同的融合算法,最后得到跟蹤目標(biāo)的位置,更新跟蹤框。
1.3 數(shù)據(jù)集構(gòu)造與標(biāo)注
本文采用仿真數(shù)據(jù)集中的復(fù)雜對抗場景是由導(dǎo)彈發(fā)射初始態(tài)勢、 載機(jī)機(jī)動策略、 誘餌對抗策略共同耦合生成的。 通過建立載機(jī)、點源誘餌的運動、幾何、紅外輻射
模型,導(dǎo)彈的運動、動力學(xué)、制導(dǎo)控制模型及導(dǎo)彈紅外導(dǎo)引頭模型,結(jié)合OSG+GPU實現(xiàn)紅外場景實時動態(tài)渲染,構(gòu)成了導(dǎo)彈導(dǎo)引頭彈道數(shù)據(jù)仿真軟件,逼近實際空戰(zhàn)對抗環(huán)境的不同彈道數(shù)據(jù)。
構(gòu)建樣本空間,首先進(jìn)行戰(zhàn)場態(tài)勢想定,彈道中目標(biāo)高度為6 km, 目標(biāo)飛行馬赫數(shù)為0.8;導(dǎo)彈發(fā)射距離為7 km;干擾彈投射距離在2~7 km以500 m為間隔平均劃分為11種投射距離。 樣本集彈道態(tài)勢如表2所示。
根據(jù)表2,共仿真1 132條彈道,將彈道全過程輸出格式為256×256的單通道16位灰度圖序列。 提取導(dǎo)引頭圖像序列,分別進(jìn)行目標(biāo)和干擾區(qū)域標(biāo)注,以此作為正、負(fù)樣本構(gòu)造數(shù)據(jù)集,如圖8所示。
2 仿真分析
2.1 實驗條件
仿真測試數(shù)據(jù)集包括初始發(fā)射條件、目標(biāo)機(jī)動、干擾投射策略3個維度的對抗條件參數(shù),本實驗所用圖像數(shù)據(jù)集的對抗條件參數(shù)的量化共包含16個。
(1) 對抗態(tài)勢有7個參數(shù):目標(biāo)高度、載機(jī)高度、目標(biāo)速度、載機(jī)速度、水平進(jìn)入角、發(fā)射距離、綜合離軸角(可分解為水平離軸角、垂直離軸角);
(2) 目標(biāo)機(jī)動有5種類型:無機(jī)動、左機(jī)動、右機(jī)動、躍升、俯沖;
(3) 紅外干擾投放策略有4個參數(shù):總彈數(shù)、組數(shù)、彈間隔、組間隔。
本文設(shè)置的測試集彈道態(tài)勢如表3所示。 基于表3數(shù)據(jù),使用紅外仿真平臺產(chǎn)生逼近實際空戰(zhàn)對抗環(huán)境的仿真圖像,共生成彈道2 416條。
2.2 實驗結(jié)果
用混合智能抗干擾算法對多種態(tài)勢下的飛機(jī)進(jìn)行追蹤,部分結(jié)果如圖9所示。 將飛機(jī)用紅色矩形框標(biāo)出,追蹤點用紅色十字表示。
表4為傳統(tǒng)特征融合算法與混合智能抗干擾融合算法部分詳細(xì)測試結(jié)果。 測試方式為相同初始條件下同一條彈道運行仿真10次的命中率對比,脫靶量為20 m。 表5為傳統(tǒng)特征融合算法與混合智能抗干擾融合算法概率指標(biāo)測試結(jié)果。 實驗結(jié)果表明,在以上測試條件下,混合智能抗干擾算法具備良好的抗干擾能力,導(dǎo)彈的全程抗干擾概率達(dá)到71.56%,相比傳統(tǒng)算法提高15.77%,驗證了算法的有效性與正確性。
3 結(jié)? 論
本文提出了一種復(fù)雜對抗場景下的對空目標(biāo)混合智能抗干擾算法, 通過復(fù)雜對抗場景構(gòu)成要素分析構(gòu)造了算法的訓(xùn)練和測試的空戰(zhàn)場景數(shù)據(jù)集,并基于該數(shù)據(jù)集完成了算法的訓(xùn)練和測試驗證。 實驗結(jié)果表明,典型數(shù)據(jù)集下混合智能抗干擾算法的全程抗干擾概率達(dá)到了71.56%,相比傳統(tǒng)算法提高了15.77%,驗證了算法的正確性和有效性,對于提高紅外空空導(dǎo)彈復(fù)雜對抗場景下的作戰(zhàn)能力具有重要意義。
參考文獻(xiàn):
[1] 樊會濤, 張蓬蓬. 空空導(dǎo)彈面臨的挑戰(zhàn)[J]. 航空兵器, 2017(2): 3-7.
Fan Huitao, Zhang Pengpeng. The Challenges for Air-to-Air Missile[J]. Aero Weaponry, 2017(2): 3-7.(in Chinese)
[2] 樊會濤, 閆俊. 自主化: 機(jī)載導(dǎo)彈重要的發(fā)展方向[J]. 航空兵器, 2019, 26(1): 1-10.
Fan Huitao, Yan Jun. The Important Development Direction of Airborne Missile: Autonomization[J]. Aero Weaponry, 2019, 26(1): 1-10.(in Chinese)
[3] 范晉祥,劉嘉.? 精確制導(dǎo)自動目標(biāo)識別智能化的挑戰(zhàn)與思考[J]. 航空兵器,2019,26(1): 30-38.
Fan Jinxiang,Liu Jia. Challenges and Thinking for the Precision Guidance ATR Intelligentization[J].? Aero Weaponry,2019,26(1): 30-38.(in Chinese)
[4] Krizhevsky A,? Sutskever I,? Hinton G E. ImageNet Classification with Deep Convolutional Neural Networks[J].Communications of the ACM,? 2017,? 60(6): 84-90.
[5] Goodfellow I J, Pouget-Abadie J, Mirza M, et al. Generative Adversarial Nets[C]∥Advances in Neural Information Processing Systems, 2014: 2672-2680.
[6] Simonyan K,? Zisserman A. Very Deep Convolutional Networks for Large-Scale Image Recognition[EB/OL].(2014-09-18)[2021-09-12].https:∥arxiv.org/pdf/1409.1556.pdf 2014.
[7] 周飛燕,? 金林鵬,? 董軍. 卷積神經(jīng)網(wǎng)絡(luò)研究綜述[J]. 計算機(jī)學(xué)報,? 2017,? 40(6): 1229-1251.
Zhou Feiyan,? Jin Linpeng,? Dong Jun. Review of Convolutional Neural Network[J].Chinese Journal of Computers,? 2017,? 40(6): 1229-1251.(in Chinese)
[8] 盧曉,? 梁曉庚,? 賈曉洪. 紅外成像空空導(dǎo)彈智能化抗干擾研究[J]. 紅外與激光工程,? 2021,? 50(4): 29-37.
Lu Xiao,? Liang Xiaogeng,? Jia Xiaohong. Study on Intelligent Counter-Countermeasures of Infrared Imaging Air-to-Air Missiles[J].Infrared and Laser Engineering,? 2021,? 50(4): 29-37.(in Chinese)
[9] Marsiglia G,? Fortunato L,? Ondini A,? et al. Template Matching Techniques for Automatic IR Target Recognition in Real and Simulated Scenarios: Tests and Evaluations[C]∥Automatic Target Re-cognition XIII, 2003, 5094: 159-169.
[10] Berg A C,? Berg T L,? Malik J. Shape Matching and Object Recognition Using Low Distortion Correspondences[C]∥IEEE Compu-ter Society Conference on Computer Vision and Pattern Recognition,? 2005: 26-33.
[11] Ullman S. Object Recognition and Segmentation by a Fragment-Based Hierarchy[J].Trends in Cognitive Sciences,? 2007,? 11(2): 58-64.
[12] Girshick R,? Donahue J,? Darrell T,? et al. Rich Feature Hierarchies for Accurate Object Detection and Semantic Segmentation[C]∥IEEE Conference on Computer Vision and Pattern Recognition, 2014: 580-587.
[13] Girshick R. Fast R-CNN[C]∥IEEE International Conference on Computer Vision, 2015: 1440-1448.
[14] Ren S Q,? He K M,? Girshick R,? et al. Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,? 2017,? 39(6): 1137-1149.
[15] Redmon J,? Divvala S,? Girshick R,? et al. You Only Look Once: Unified,? Real-Time Object Detection[C]∥ IEEE Conference on Computer Vision and Pattern Recognition,? 2016: 779-788.
[16] Liu W,? Anguelov D,? Erhan D,? et al. SSD: Single Shot MultiBox Detector[M]. Cham: Springer International Publishing,? 2016: 21-37.
[17] Redmon J, Farhadi A.YOLOv3:An Incremental Improvement[EB/OL].(2018-04-08)[2021-09-12].https:∥arxiv.org/pdf/1804.02767.pdf.
[18] Sandler M,? Howard A,? Zhu M L,? et al. Inverted Residuals and Linear Bottlenecks: Mobile Networks for Classification,? Detection and Segmentation[EB/OL]. (2019-03-21)[2021-09-12].https:∥arxiv.org/pdf/1801.04381.pdf.
[19] 郭東恩,? 夏英,? 羅小波,? 等. 基于有監(jiān)督對比學(xué)習(xí)的遙感圖像場景分類[J]. 光子學(xué)報,? 2021,? 50(7): 87-98.
Guo Dong’en,? Xia Ying,? Luo Xiaobo,? et al. Remote Sensing Image Scene Classification Based on Supervised Contrastive Learning[J]. Acta Photonica Sinica,? 2021,? 50(7): 87-98.(in Chinese)
[20] Mosella-Montoro A,? Ruiz-Hidalgo J. 2D-3D Geometric Fusion Network Using Multi-Neighbourhood Graph Convolution for RGB-D Indoor Scene Classification[J]. Information Fusion,? 2021,? 76: 46-54.
[21] Xu K J,? Huang H,? Deng P F,? et al. Deep Feature Aggregation Framework Driven by Graph Convolutional Network for Scene Classification in Remote Sensing[J]. IEEE Transactions on Neural Networks and Learning Systems,? 1369(99): 1-15.
Research on Hybrid Intelligent Anti-Interference against
Air
Targets in Complex Confrontation Scene
Zhang Liang1, 2,Li Shaoyi3*,Yang Xi3,Tian Xiaoqian3
(1. China Airborne Missile Academy,Luoyang 471009,China;
2. Aviation Key Laboratory of Science and Technology on Airborne Guided Weapons,Luoyang 471009,China;
3. School of Astronautics,? Northwestern Polytechnical University,? Xi’an 710072,? China)
Abstract: Target recognition and anti-interference technology have become key technologies that determine the performance of precision guided weapons. Aiming at the combat characteristics of infrared air-to-air missiles in complex confrontation scene,? this paper analyzes its target recognition and anti-interference development needs,? and proposes a hybrid intelligent anti-interference algorithm that combines traditional algorithms and deep learning. This algorithm makes full use of the high reliability advantages of traditional algorithms in certain scene and the high-dimensional feature extraction capabilities of deep learning algorithms in complex scene,? maximizing the mining of missile detection scene information,? which is of great significance for improving the system’s anti-interference capability. On this basis,? an air combat data set for algorithm testing and training is constructed,? covering typical air combat scene. The experimental results show that under the same feature fusion conditions,? the full anti-interference probability of the hybrid intelligent anti-jamming algorithm in typical scene reaches 71.56%,? which is 15.77% higher than? the traditional algorithm,? which verifies the effectiveness of the algorithm.
Key words:? infrared air-to-air missile; intelligent anti-interference; air combat data set; feature extraction; target recognition; deep learning
收稿日期: 2021-09-14
基金項目: 國家自然科學(xué)基金項目(61703337);航空科學(xué)基金項目(ASFC20191053002)
作者簡介:張良(1987-),男,河南洛陽人,高級工程師。
通訊作者:李少毅(1986-),男,陜西西安人,副研究員。