陳濤 李君 汪向陽 黃湘松
摘 要:針對(duì)復(fù)雜背景下, 無法有效識(shí)別雷達(dá)有源干擾信號(hào)的問題, 提出一種基于注意力機(jī)制的雷達(dá)有源干擾信號(hào)識(shí)別算法。 首先將干擾信號(hào)的時(shí)頻圖輸入到特征提取網(wǎng)絡(luò)中, 得到時(shí)頻圖的深度特征; 然后引入注意力機(jī)制, 通過RPN網(wǎng)絡(luò), 定位干擾信號(hào)的位置, 得到受關(guān)注區(qū)域; 最后對(duì)受關(guān)注的區(qū)域進(jìn)行干擾信號(hào)類型識(shí)別。 仿真結(jié)果表明, 該算法可在復(fù)雜背景下完成對(duì)干擾信號(hào)的定位、 識(shí)別以及分離。 相比于卷積神經(jīng)網(wǎng)絡(luò), 減少了一半的訓(xùn)練樣本, 提高了訓(xùn)練效率, 同時(shí)總體識(shí)別正確率提高了10%, 可以達(dá)到95%。
關(guān)鍵詞: 注意力機(jī)制; 特征提取; 干擾識(shí)別; 有源干擾; RPN; 雷達(dá)信號(hào)
中圖分類號(hào): TJ765; TN972+.1 文獻(xiàn)標(biāo)識(shí)碼:??? A 文章編號(hào): 1673-5048(2021)05-0086-06
0 引? 言
空間中的干擾信號(hào)和雷達(dá)信號(hào)是并存的,? 雷達(dá)想要適應(yīng)干擾信號(hào), 首先要了解干擾信號(hào)的類別, 根據(jù)類別調(diào)整發(fā)射信號(hào), 因此對(duì)干擾信號(hào)識(shí)別的研究具有重要意義。 雷達(dá)干擾信號(hào)分為有源干擾和無源干擾, 本文主要對(duì)雷達(dá)有源干擾信號(hào)進(jìn)行識(shí)別。
目前, 國(guó)內(nèi)外學(xué)者對(duì)雷達(dá)有源干擾識(shí)別開展了大量研究。 王桂勝等[1]針對(duì)變換域干擾識(shí)別的問題, 提出從信號(hào)空間理論角度對(duì)干擾信號(hào)進(jìn)行特征提取, 采用支持向量機(jī)對(duì)干擾信號(hào)進(jìn)行識(shí)別的算法, 但該算法運(yùn)算量較大, 而且在高干噪比下才有較高的識(shí)別正確率。 方芳等[2]針對(duì)基于高階累積量和信號(hào)特征空間提取特征參數(shù)的識(shí)別算法復(fù)雜繁瑣的問題, 提出從時(shí)域、 頻域、 變換域等多維域提取特征參數(shù), 采用決策樹進(jìn)行識(shí)別,? 該算法簡(jiǎn)單, 但是在低干噪比下識(shí)別正確率較低。 隨著深度學(xué)習(xí)的發(fā)展, 深度學(xué)習(xí)網(wǎng)絡(luò)在干擾識(shí)別的應(yīng)用越來越多, 相比于經(jīng)典的支持向量機(jī)和決策樹機(jī)器學(xué)習(xí)算法, 深度學(xué)習(xí)網(wǎng)絡(luò)降低了手工提取信號(hào)特征參數(shù)的復(fù)雜性, 并且有更高的識(shí)別正確率。 Wang[3]等針對(duì)傳統(tǒng)識(shí)別方法效率低和精度低的問題, 通過采用卷積神經(jīng)網(wǎng)絡(luò)的方法對(duì)雷達(dá)有源干擾信號(hào)進(jìn)行了識(shí)別, 雖然該算法有較高的識(shí)別正確率, 但是針對(duì)的只是單個(gè)干擾信號(hào)的識(shí)別, 在雷達(dá)環(huán)境日益復(fù)雜的背景下, 一個(gè)雷達(dá)脈沖中可能夾雜著多個(gè)干擾信號(hào), 僅對(duì)單個(gè)干擾信號(hào)識(shí)別缺乏實(shí)際意義。 池添放[4]將線性調(diào)頻干擾和噪聲調(diào)頻干擾疊加在一起的時(shí)頻圖用來訓(xùn)練, 利用訓(xùn)練好的網(wǎng)絡(luò)模型完成對(duì)疊加干擾信號(hào)的識(shí)別, 但是信號(hào)的組合類型非常多, 采用這種識(shí)別方式的訓(xùn)練樣本過大, 識(shí)別效率低。
基于卷積神經(jīng)網(wǎng)絡(luò)的干擾識(shí)別算法是對(duì)整張時(shí)頻圖的識(shí)別, 對(duì)圖片的全部特征是等價(jià)處理的, 然而圖片中目標(biāo)信號(hào)部分是重要信息, 其他部分是無關(guān)信息。 無關(guān)信息不僅會(huì)影響識(shí)別的效率, 還會(huì)影響識(shí)別的結(jié)果。 當(dāng)圖片中頻譜彌散干擾與噪聲調(diào)頻干擾同時(shí)存在, 且頻譜彌散干擾部分占更大的比例時(shí), 卷積神經(jīng)網(wǎng)絡(luò)會(huì)將圖片識(shí)別成頻譜彌散干擾, 而無法識(shí)別噪聲調(diào)頻干擾。
針對(duì)以上問題, 引入注意力機(jī)制, 使網(wǎng)絡(luò)只關(guān)注重點(diǎn)信息, 忽略無關(guān)信息。 通過軟注意力類型的RPN網(wǎng)絡(luò)得到受關(guān)注的區(qū)域, 將受關(guān)注區(qū)域輸入到分類網(wǎng)絡(luò)里進(jìn)行干擾信號(hào)類型識(shí)別。
本文采用帶有RPN網(wǎng)絡(luò)的Faster R-CNN網(wǎng)絡(luò)模型對(duì)干擾信號(hào)進(jìn)行識(shí)別。 Faster R-CNN作為經(jīng)典的目標(biāo)檢測(cè)網(wǎng)絡(luò), 用來檢測(cè)圖片中要識(shí)別的目標(biāo),首先得到目標(biāo)的位置,? 再進(jìn)行識(shí)別,? 相比于YOLO和SSD具有更高的檢測(cè)精度; 整個(gè)檢測(cè)網(wǎng)絡(luò)共享全圖的卷積特征, 相比于R-CNN和Fast R-CNN具有更快的檢測(cè)速度[5-7]。 針對(duì)Faster R-CNN模型里RPN網(wǎng)絡(luò)對(duì)干擾信號(hào)定位不準(zhǔn)確的問題, 對(duì)候選框進(jìn)行修改, 使候選框的大小比例與目標(biāo)信號(hào)更加契合, 得到更加精確的受關(guān)注區(qū)域。 在干擾信號(hào)定位精確的前提下, 采用單信號(hào)的時(shí)頻圖訓(xùn)練, 利用訓(xùn)練好的模型可完成對(duì)時(shí)頻圖中多個(gè)干擾信號(hào)的識(shí)別及分離, 提高訓(xùn)練效率的同時(shí)保證了識(shí)別的正確率。
1 識(shí)別過程
基于注意力機(jī)制的雷達(dá)有源干擾信號(hào)識(shí)別過程如圖1所示, 將輸入的有源干擾信號(hào)的時(shí)頻圖進(jìn)行尺寸歸一化, 并輸入至Faster R-CNN網(wǎng)絡(luò)中, 通過CNN特征圖提取網(wǎng)絡(luò)得到特征圖, 通過RPN網(wǎng)絡(luò)定位干擾信號(hào)的位置, 最后輸入到分類網(wǎng)絡(luò)中, 對(duì)干擾信號(hào)的類型進(jìn)行識(shí)別[8-9]。
1.1 CNN特征提取網(wǎng)絡(luò)
本文訓(xùn)練時(shí)輸入的時(shí)頻圖像尺寸為677×535, 首先將尺寸調(diào)整為800×600輸入到CNN特征提取網(wǎng)絡(luò)中。
CNN特征提取網(wǎng)絡(luò)包含13個(gè)卷積層, 13個(gè)激活層和4個(gè)池化層, 所有的卷積層的卷積核大小為3×3, 步長(zhǎng)為1, pad為1, 卷積層不改變圖片的大小。 所有池化層的卷積核大小為2×2, 步長(zhǎng)為2, pad為0, 每經(jīng)過一次池化, 圖片的長(zhǎng)寬都會(huì)變成池化之前圖片長(zhǎng)寬的1/2。 一個(gè) M×N 大小的圖片經(jīng)過CNN特征提取網(wǎng)絡(luò)得到 (M/16)×(N/16) 大小的特征圖。
1.2 RPN網(wǎng)絡(luò)
RPN網(wǎng)絡(luò)分為三個(gè)部分, 第一部分是候選框回歸層, 用于計(jì)算候選框的位置回歸偏移量; 第二部分是分類層, 通過softmax分類獲得候選框是正樣本還是負(fù)樣本, 是一個(gè)二分類; 第三部分負(fù)責(zé)綜合正樣本和對(duì)應(yīng)的位置回歸偏移量獲取目標(biāo)建議框, 得到受關(guān)注的區(qū)域。
1.2.1 候選框
滑動(dòng)窗口實(shí)質(zhì)上是一個(gè)3×3的卷積核, 以特征圖上每個(gè)點(diǎn)為中心, 以步長(zhǎng)為1在特征圖上進(jìn)行滑動(dòng)。 將滑動(dòng)窗口的中心點(diǎn)映射到原圖片上, 由于特征圖是經(jīng)過原圖片16倍放大得來的, 所以特征圖上的每個(gè)點(diǎn)對(duì)應(yīng)原圖片上的16×16區(qū)域, 以該區(qū)域?yàn)榛A(chǔ)框, 對(duì)其進(jìn)行長(zhǎng)寬分別2∶1, 1∶1和1∶2的變換, 得到23×12,? 16×16和11×22共3種框。 這3種框相比于目標(biāo)信號(hào)的區(qū)域太小, 分別將其放大8倍、 16倍和32倍, 得到184×96, 128×128, 88×176, 368×192, 256×256, 176×352, 736×384, 512×512和352×704共9種框, 作為候選[10]。
滑動(dòng)窗口會(huì)遍歷特征圖上的每個(gè)點(diǎn), 滑動(dòng)窗口每滑過一個(gè)點(diǎn), 對(duì)應(yīng)原圖片上的區(qū)域移動(dòng)16個(gè)點(diǎn), 其對(duì)應(yīng)候選框的中心點(diǎn)移動(dòng)了16個(gè)點(diǎn)。 原圖片經(jīng)過CNN網(wǎng)絡(luò)生成特征圖的大小為50×38, 滑動(dòng)窗口遍歷完所有的點(diǎn), 一共生成17 100個(gè)候選框。 候選框的數(shù)量過多, 通過非極大值抑制的方法分別選取128個(gè)正樣本和128個(gè)負(fù)樣本, 與真實(shí)目標(biāo)框(人為標(biāo)記的矩形框)有最大Iou(候選框與真實(shí)目標(biāo)框的并集與交集的比例)的128個(gè)候選框作為正樣本, 與真實(shí)目標(biāo)框有最小Iou的128個(gè)候選框作為負(fù)樣本。 對(duì)正樣本和負(fù)樣本計(jì)算分類損失, 對(duì)正樣本計(jì)算回歸損失, 并進(jìn)行位置回歸[11]。
1.2.2 候選框回歸
圖2為候選框與真實(shí)目標(biāo)框圖, 圖中綠色框?yàn)榫€性掃頻干擾的真實(shí)目標(biāo)框(手工標(biāo)注), 紅色為提取的候選框, 需采取一種方法對(duì)紅色框進(jìn)行微調(diào), 使得候選框與真實(shí)目標(biāo)框更加接近。
將一個(gè)窗口用四維向量 (x,? y,? w,? h) 表示, 尋找一種關(guān)系, 使得候選框經(jīng)過映射得到一個(gè)與真實(shí)目標(biāo)框更加接近的回歸窗口,? 如圖3所示。 圖中, A為候選框窗口, G為真實(shí)目標(biāo)框, H為回歸窗口。
由候選窗口到回歸窗口, 一種簡(jiǎn)單的變換是先進(jìn)行平移, 后進(jìn)行縮放。
平移時(shí), 候選窗口的中心坐標(biāo) (Ax, Ay) 分別加上平移量(Δ x, ?Δ y) , 得到回歸窗口的中心坐標(biāo) (Hx, Hy) :
Hx= Δ x+AxHy= Δ y+Ay (1)
式中:? Δ x=Aw·dx(A); ?Δ y=Ah·dy(A) 。
縮放時(shí), 將候選窗口的長(zhǎng)寬 (Aw, Ah) 進(jìn)行相應(yīng)倍數(shù)縮放得到候選窗口的長(zhǎng)寬 (Hw, Hh) :
Hw=Aw· exp dw(A)Hh=Ah· exp dh(A)) ?(2)
4個(gè)系數(shù)做回歸的候選框離真實(shí)目標(biāo)框很近, 可以看作是一種線性變換, 可以采用線性回歸獲得 dx(A) , ?dy(A) , ?dw(A) , ?dh(A) 這4個(gè)比例系數(shù)。
線性回歸是給定輸入的特征向量, 學(xué)習(xí)一組參數(shù), 使得線性回歸后的值和真實(shí)值非常接近。 對(duì)于該問題, 經(jīng)過特征提取網(wǎng)絡(luò)輸出的特征圖是 50×38×512 , 特征圖上每個(gè)像素點(diǎn)是512維的, 輸入為每個(gè)像素點(diǎn)對(duì)應(yīng)的512維特征向量, 因?yàn)樵谝粋€(gè)點(diǎn)上生成9個(gè)候選框, 輸出的是這9個(gè)候選框分別對(duì)應(yīng)的預(yù)測(cè)值( dx(A) , ?dy(A) , ?dw(A) , ?dh(A) ), 即輸出是36維的。 目標(biāo)函數(shù)定義為
d(A)=WX (3)
式中: X為特征圖上一個(gè)點(diǎn)對(duì)應(yīng)的特征向量; W為需要學(xué)習(xí)的參數(shù); ?d(A) 為得到的預(yù)測(cè)值。
得到的預(yù)測(cè)值與真實(shí)值的變換系數(shù)之間仍然有差距, 需要讓其差距更小, 定義損失函數(shù)[12-13]:
Loss=∑i∈x, y, w, h smoothL1(ti-di(A)) (4)
式中: ?ti 為候選框到真實(shí)目標(biāo)框之間的變換系數(shù);? ?smoothL1 損失函數(shù)為
smoothL1=0.5x2 ?if x<1
x-0.5 ???otherwise (5)
候選框到真實(shí)目標(biāo)框之間的變換如下:
tx=Gx-AxAwty=Gy-AyAh
tw= lg (Gw/Aw)
th= lg (Gh/Ah) ?(6)
1.2.3 候選框的修改
本文訓(xùn)練使用的時(shí)頻圖中, 信號(hào)所占區(qū)域的長(zhǎng)寬比例在3∶1以上, 原始網(wǎng)絡(luò)中生成的9種候選框與目標(biāo)信號(hào)差距過大, 不利于候選框做回歸, 會(huì)造成目標(biāo)建議框定位不準(zhǔn)確。 對(duì)9種候選框的長(zhǎng)寬比例做修改, 改為2∶1, 4∶1和8∶1, 放大比例改為8倍、 16倍和20倍, 不會(huì)造成倍數(shù)過大產(chǎn)生所有比例的框超出邊界, 也不會(huì)造成倍數(shù)小產(chǎn)生候選框與目標(biāo)差距過大。 經(jīng)過尺寸調(diào)整后, 得到184×96, 256×64, 384×48, 368×176, 512×128, 768×96, 460×120, 640×160和960×120共9種框。
1.3 分類網(wǎng)絡(luò)
通過RPN網(wǎng)絡(luò)得到的目標(biāo)建議框是生成在原圖片上的, 需要將其映射到特征圖上。 不同大小的目標(biāo)建議框?qū)?yīng)特征圖的大小也不同, 在輸入到全連接層之前需要將其變換至固定大小。 感興趣區(qū)域池化實(shí)現(xiàn)了這兩個(gè)過程。 池化原理: 將大小不同的特征圖的長(zhǎng)寬分別分為7份, 對(duì)每一份進(jìn)行最大值池化, 輸出7×7的大小。
將感興趣區(qū)域池化后的特征圖輸入到兩個(gè)全連接層里, 之后分別送入到分類層和邊框回歸層, 分類層輸出干擾信號(hào)的類別, 邊框回歸層對(duì)建議框進(jìn)行位置精修, 輸出更加精確的目標(biāo)框。
2 實(shí)驗(yàn)流程及仿真結(jié)果
2.1 實(shí)驗(yàn)環(huán)境
實(shí)驗(yàn)過程在Windows 10系統(tǒng)下調(diào)試運(yùn)行, 深度學(xué)習(xí)框架使用的是tensorflow 1.13.1, 編程語言是python, 深度學(xué)習(xí)網(wǎng)絡(luò)的訓(xùn)練過程是在CPU的環(huán)境下。
2.2 干擾信號(hào)數(shù)據(jù)集的建立
本文所用到的干擾信號(hào)類型有單音干擾、 線性掃頻干擾、 頻譜彌散干擾、 切片干擾、 噪聲調(diào)幅干擾和噪聲調(diào)頻干擾[14-15]。 所有干擾信號(hào)的采樣頻率為1 GHz, 采樣點(diǎn)數(shù)為5 000, 中心頻率在85~250 MHz隨機(jī)取值, 信號(hào)帶寬在65~125 MHz隨機(jī)取值, 參數(shù)設(shè)置見表1。
在干噪比為-6~8 dB,? 每間隔2 dB產(chǎn)生一組樣本, 每類干擾在每種干噪比下產(chǎn)生100幅時(shí)頻圖, 時(shí)頻分析方法采用SPWVD分布[16]。 每個(gè)干擾總共產(chǎn)生100×8=800幅時(shí)頻圖, 6種干擾總共產(chǎn)生4 800幅時(shí)頻圖。
按照VOC2007數(shù)據(jù)集的格式對(duì)干擾信號(hào)的時(shí)頻圖進(jìn)行手工標(biāo)注目標(biāo)框和標(biāo)簽。 制作完成數(shù)據(jù)集, 并用此數(shù)據(jù)集進(jìn)行訓(xùn)練。
2.3 仿真結(jié)果
2.3.1 噪聲背景下仿真結(jié)果
建立測(cè)試集, 每類干擾在每種干噪比下生成100個(gè)樣本, 共5 600組樣本用來測(cè)試, 測(cè)試結(jié)果如圖4所示。? 由圖可知, 時(shí)頻圖經(jīng)過Faster R-CNN網(wǎng)絡(luò), 完成了干擾信號(hào)的定位以及識(shí)別, 紅色框表示干擾信號(hào)的位置, 紅色框左上角顯示了干擾信號(hào)的類別以及概率。
單信號(hào)的識(shí)別正確率和總體識(shí)別正確率對(duì)比如圖5所示。
由圖5(b)可知, 當(dāng)干噪比在-4 dB以上時(shí), 本文算法對(duì)每類干擾的識(shí)別正確率達(dá)到100%; 基于信號(hào)空間理論提取干擾信號(hào)的空間頻譜帶寬、 空間時(shí)域峰均比和空間功率譜平坦度等特征參數(shù), 采用支持向量機(jī)的干擾識(shí)別算法在干噪比為-2 dB時(shí), 對(duì)每類干擾的識(shí)別正確率達(dá)到100%; 基于時(shí)域、 頻域以及變換域提取干擾信號(hào)的幅度峰均比、 歸一化帶寬和單頻因子系數(shù)等特征參數(shù), 采用決策樹的識(shí)別算法在干噪比為6 dB時(shí), 對(duì)每類干擾的識(shí)別正確率才達(dá)到100%, 而且該算法在低干噪比下識(shí)別正確率很低。 由此可見, 與經(jīng)典的支持向量機(jī)和決策樹算法相比, 本文的總體識(shí)別正確率更高。
2.3.2 復(fù)雜背景下仿真結(jié)果
在單音干擾、 線性掃頻干擾、 頻譜彌散干擾和切片干擾中摻入其他信號(hào), 兩兩進(jìn)行復(fù)合, 時(shí)域交疊而頻域不重合。 在每種干噪比下建立200組混合信號(hào)的測(cè)試集, 進(jìn)行測(cè)試。 識(shí)別結(jié)果如圖6~8所示。
復(fù)雜背景下每種干噪比的識(shí)別正確率如圖9所示。? 由圖9(a)可以看出, 本文算法對(duì)線性掃頻干擾的識(shí)別效果不佳, 對(duì)切片干擾和頻譜彌散干擾的識(shí)別效果更好。
由圖9(b)可以看出, 本文算法在同時(shí)出現(xiàn)兩個(gè)干擾的情況下, 在每種干噪比下的識(shí)別正確率都達(dá)到93%以上。 采用卷積神經(jīng)網(wǎng)絡(luò)識(shí)別的算法正確率在干噪比大于0 dB時(shí), 不高于90%, 且隨著干噪比增加, 識(shí)別正確率逐漸降低。 由此可以看出, 相比于卷積神經(jīng)網(wǎng)絡(luò), 本文算法的性能更好。
2.3.3 候選框修改前后識(shí)別結(jié)果對(duì)比
Faster R-CNN網(wǎng)絡(luò)中原本生成的候選框的大小與真實(shí)目標(biāo)信號(hào)的差距過大, 會(huì)造成當(dāng)兩個(gè)信號(hào)距離近的時(shí)候, 無法定位目標(biāo)信號(hào)的問題。 經(jīng)過候選框修改后的網(wǎng)絡(luò)解決了這個(gè)問題, 如圖10所示。
3 結(jié)? 論
本文提出了基于注意力機(jī)制的雷達(dá)有源干擾信號(hào)識(shí)別算法。 引入注意力機(jī)制, 修改候選框, 定位干擾信號(hào)的位置, 當(dāng)出現(xiàn)其他信號(hào)影響待識(shí)別的干擾信號(hào)時(shí), 實(shí)現(xiàn)了干擾信號(hào)的定位以及識(shí)別; 使用單信號(hào)的樣本進(jìn)行訓(xùn)練, 提高了訓(xùn)練效率又保證了識(shí)別的準(zhǔn)確率。 仿真實(shí)驗(yàn)表明, 在復(fù)雜背景下, 該算法對(duì)單信號(hào)的識(shí)別正確率較高, 對(duì)多個(gè)干擾信號(hào)同時(shí)識(shí)別也有著不錯(cuò)的正確率。
參考文獻(xiàn):
[1] 王桂勝,? 任清華,? 姜志剛,? 等. 基于信號(hào)特征空間的TDCS干擾分類識(shí)別[J]. 系統(tǒng)工程與電子技術(shù),? 2017,? 39(9): 1950-1958.
Wang Guisheng,? Ren Qinghua,? Jiang Zhigang,? et al. Jamming Classification and Recognition in Transform Domain Communication System Based on Signal Feature Space[J]. Systems Engineering and Electronics,? 2017,? 39(9): 1950-1958.(in Chinese)
[2] 方芳,? 李永貴,? 牛英滔,? 等. 基于決策樹算法的干擾信號(hào)識(shí)別[J]. 通信技術(shù),? 2019,? 52(11): 2617-2623.
Fang Fang,? Li Yonggui,? Niu Yingtao,? et al. Jamming Signal Reco-gnition Based on Decision Tree Algorithm[J]. Communications Technology,? 2019,? 52(11): 2617-2623.(in Chinese)
[3] Wang Y F,? Sun B Y,? Wang N. Recognition of Radar Active-Jamming through Convolutional Neural Networks[J]. The Journal of Engineering,? 2019,? 2019(21): 7695-7697.
[4] 池添放. 基于CNN的四類干擾信號(hào)識(shí)別算法[D]. 武漢: 華中科技大學(xué),? 2019.
Chi Tianfang. Recognition Algorithm for the Four Kinds of Interference Signals[D]. Wuhan: Huazhong University of Science and Technology,? 2019. (in Chinese)
[5] Ren S Q,? He K M,? Girshick R,? et al. Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,? 2017,? 39(6): 1137-1149.
[6] Liu B,? Zhao W C,? Sun Q Q. Study of Object Detection Based on Faster R-CNN[C]∥Chinese Automation Congress (CAC),?? 2017: 6233-6236.
[7] 鄭渝,? 沈永健,? 周云生. Faster R-CNN實(shí)現(xiàn)交疊雷達(dá)信號(hào)的調(diào)制識(shí)別與參數(shù)提取[J]. 遙測(cè)遙控,? 2019,? 40(3): 32-40.
Zheng Yu,? Shen Yongjian,? Zhou Yunsheng. Radar Signal Modulation Identification Based on Multilayer Bidirectional LSTM[J]. Journal of Telemetry, Tracking and Command,? 2019,? 40(3): 32-40.(in Chinese)
[8] Basri H,? Syarif I,? Sukaridhoto S. Faster R-CNN Implementation Method for Multi-Fruit Detection Using Tensorflow Platform[C]∥2018 International Electronics Symposium on Knowledge Creation and Intelligent Computing (IES-KCIC),? 2018: 337-340.
[9] Abbas S M,? Singh D S N. Region-Based Object Detection and Classification Using Faster R-CNN[C]∥4th International Conference on Computational Intelligence & Communication Technology (CICT),? 2018: 1-6.
[10] Cai W D,? Li J D,? Xie Z Z,? et al. Street Object Detection Based on Faster R-CNN[C]∥37th Chinese Control Conference (CCC),? 2018: 9500-9503.
[11] Zhu B B,? Wu X Y,? Yang L,? et al. Automatic Detection of Books Based on Faster R-CNN[C]∥Third International Conference on Digital Information Processing,? Data Mining,? and Wireless Communications (DIPDMWC), 2016: 8-12.
[12] Tang J H,? Mao Y C,? Wang J,? et al. Multi-Task Enhanced Dam Crack Image Detection Based on Faster R-CNN[C]∥ IEEE 4th International Conference on Image,? Vision and Computing (ICIVC), 2019: 336-340.
[13] Yang J Q,? Ren P,? Kong X X. Handwriting Text Recognition Based on Faster R-CNN[C]∥Chinese Automation Congress (CAC),? 2019: 2450-2454.
[14] 陳玉絨,? 閆澤林,? 吳若妤,? 等. 雷達(dá)有源壓制式干擾信號(hào)建模與仿真[J]. 智能計(jì)算機(jī)與應(yīng)用,? 2019,? 9(5): 220-222.
Chen Yurong,? Yan Zelin,? Wu Ruoyu,? et al. Modeling and Simulation of Radar Active Suppression Jamming Signal[J]. Intelligent Computer and Applications,? 2019,? 9(5): 220-222.(in Chinese)
[15] 羅彬珅,? 劉利民,? 劉璟麒,? 等. 噪聲調(diào)制類有源干擾信號(hào)識(shí)別技術(shù)研究[J]. 雷達(dá)科學(xué)與技術(shù),? 2019,? 17(6): 597-602.
Luo Binshen,? Liu Limin,? Liu Jingqi,? et al. Research on Noise Modulated Active Jamming Signal Recognition Technology[J]. Radar Science and Technology,? 2019,? 17(6): 597-602.(in Chinese)
[16] 李秀梅,? 楊國(guó)青. 幾種時(shí)頻分析方法的性能比較[J]. 計(jì)算機(jī)仿真,? 2015,? 32(3): 220-224.
Li Xiumei,? Yang Guoqing. Performance Comparisons among Time-Frequency Representations[J]. Computer Simulation,? 2015,? 32(3): 220-224.(in Chinese)
Recognition of Radar Active Jamming Signal
Based on Attention Mechanism
Chen Tao1, 2, Li Jun1, 2*, Wang Xiangyang3, Huang Xiangsong1, 2
(1.College of Information and Communication Engineering,? Harbin Engineering University, Harbin 15001, China;
2.Key Laboratory of Advanced Marine Communication and Information Technology, Ministry of Industry and Information
Technology, Harbin 150001, China; 3.Unit 63861 of PLA, Jilin 137001, China)
Abstract: Aiming at the problem that radar active jamming signal cannot be recognized effectively in complex background,? a recognition algorithm of radar active jamming signal based on attention mechanism is proposed. Firstly,? the time-frequency map of the interference signal is input into the feature extraction network to obtain the depth feature.? Then,? the attention mechanism is introduced to locate the location of? interference signal through RPN network to get the region of interest. Finally,? the type of interference signal is identified for the region of interest. The simulation results show that the algorithm can locate,? recognize and separate jamming signals in complex background. Compared with convolution neural network,? the training sample is reduced by half,? and the training efficiency is improved. At the same time,? the overall recognition accuracy is? improved by 10%,? which can reach 95%.
Key words: attention mechanism; feature extraction; recognition of jamming;? active jamming; RPN; radar signal