張旭威,徐鵬濤,管振輝
(中國船舶集團(tuán)有限公司第七二三研究所,江蘇 揚(yáng)州 225101)
雷達(dá)信號分選作為雷達(dá)偵察系統(tǒng)的關(guān)鍵技術(shù)之一,其目的是從接收到的隨機(jī)混疊脈沖流中分離出每一部雷達(dá)所產(chǎn)生的脈沖列[1]。分選結(jié)果的正確與否直接影響后續(xù)的信號處理工作,繼而影響戰(zhàn)場態(tài)勢感知能力、情報(bào)獲取能力和決策判斷力。
信號分選的典型方法是將脈沖描述字(PDW)通過預(yù)分選稀釋脈沖流,然后再對脈沖重復(fù)間隔(PRI)進(jìn)行處理以完成主分選。
由于現(xiàn)代戰(zhàn)場環(huán)境中雷達(dá)輻射源數(shù)量的激增、雷達(dá)信號調(diào)制的復(fù)雜多變等因素影響,戰(zhàn)場電磁環(huán)境較之以往更加復(fù)雜,這給信號分選的實(shí)時(shí)性和準(zhǔn)確性都帶來了極大的挑戰(zhàn)。傳統(tǒng)的基于脈沖重復(fù)間隔(PRI)這一單參數(shù)進(jìn)行分選的算法,如積累差直方圖(CDIF)[2]、時(shí)序差直方圖(SDIF)[3]、PRI變換法[4]等對固定、參差和正常抖動范圍的低電磁環(huán)境復(fù)雜度下的雷達(dá)信號有較好的分選效果,然而分選過程需要人為設(shè)置多個(gè)參數(shù)以滿足分選需要,靈活性差,越來越難以適應(yīng)現(xiàn)代戰(zhàn)場的需要。
機(jī)器學(xué)習(xí)[5]有著從樣本數(shù)據(jù)中獲取規(guī)律并利用此規(guī)律對未知數(shù)據(jù)進(jìn)行預(yù)測的特點(diǎn),而雷達(dá)信號分選從本質(zhì)上來看,也是從一堆雜亂的樣本信號數(shù)據(jù)中找出信號的規(guī)律并進(jìn)行后續(xù)處理的過程。因此,將機(jī)器學(xué)習(xí)算法應(yīng)用于雷達(dá)信號分選也是一種新的發(fā)展趨勢。
本文提出一種基于Transformer[6]的雷達(dá)信號分選方法,該方法較傳統(tǒng)雷達(dá)信號分選技術(shù)而言更為靈活,且對復(fù)雜調(diào)制雷達(dá)信號適應(yīng)性較好。實(shí)驗(yàn)證明該方法對復(fù)雜電磁環(huán)境下的雷達(dá)信號仍然能夠進(jìn)行有效分選,且分選準(zhǔn)確率較高。
從脈沖序列的到達(dá)時(shí)間(TOA)角度來看,PDW數(shù)據(jù)就是一連串的序列型數(shù)據(jù),信號分選就是對這個(gè)序列中的數(shù)據(jù)進(jìn)行分類。單一地對每個(gè)輸入數(shù)據(jù)進(jìn)行處理,而不考慮序列中數(shù)據(jù)之間的關(guān)系是不能很好地對數(shù)據(jù)特征進(jìn)行學(xué)習(xí)的。循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)[7]和長短期記憶網(wǎng)絡(luò)(LSTM)[8]是處理序列問題的2個(gè)經(jīng)典模型,但是又各有缺點(diǎn)(RNN存在長期依賴所導(dǎo)致的梯度消失問題,LSTM存在并行處理較弱的問題)。
注意力機(jī)制(Attention)[9]的發(fā)展有效避免了上述2種經(jīng)典模型的缺點(diǎn),已成為神經(jīng)網(wǎng)絡(luò)領(lǐng)域的一個(gè)重要概念。注意力機(jī)制選擇性地關(guān)注部分區(qū)域的特征,從而提高觀察精細(xì)度。
自注意力(Self-Attention)機(jī)制是注意力機(jī)制的改進(jìn),其通過將序列中數(shù)據(jù)間的所有成對交互關(guān)系進(jìn)行建模,從而捕獲數(shù)據(jù)內(nèi)部特征的相關(guān)性,減少對外部信息的依賴。這種機(jī)制適用于挖掘雷達(dá)脈沖序列中PDW數(shù)據(jù)之間特征的相關(guān)性從而進(jìn)行信號分選的問題。Self-Attention的結(jié)構(gòu)圖如圖1所示,通過3個(gè)可學(xué)習(xí)權(quán)重的矩陣{WQ,WK,WV},將輸入序列X做線性變換得到Q=XWQ,K=XWK,V=XWV。自注意力機(jī)制的計(jì)算公式如下:
圖1 Self-Attention(自注意力)結(jié)構(gòu)圖
(1)
式中:dk為矩陣K的向量維度。
多頭注意力(Multi-Head Attention)機(jī)制通過增加Self-Attention的數(shù)量來避免單個(gè)Self-Attention對序列數(shù)據(jù)學(xué)習(xí)能力不足的問題。Multi-Head Attention結(jié)構(gòu)圖如圖2所示。從圖中可以看到Multi-Head Attention包含多個(gè)Self-Attention層。
圖2 多頭注意力結(jié)構(gòu)圖
由于Transformer的Attention模塊無法捕獲輸入序列數(shù)據(jù)的順序,因此將位置編碼添加到模型中以獲得序列中數(shù)據(jù)的位置信息。位置編碼公式如下:
Ep(pos,2i)=sin(pos/10 0002i/d)
(2)
Ep(pos,2i+1)=cos(pos/10 0002i/d)
(3)
式中:pos表示序列中數(shù)據(jù)的位置;d表示向量編碼的維度;2i表示偶數(shù)維度;2i+1表示奇數(shù)維度。
將計(jì)算出的Ep與源數(shù)據(jù)向量相加就得到了含有位置信息的輸入向量。
Transformer模型主要由編碼器(Encoder)和解碼器(Decoder)2個(gè)部分組成,而Encoder和Decoder又由若干個(gè)模塊組成,模塊中的典型多頭注意力結(jié)構(gòu)如上所述,Transformer的整體結(jié)構(gòu)如圖3所示。
圖3 Transformer整體結(jié)構(gòu)
Decoder模塊中的Masked Multi-Head Attention是在Multi-Head Attention的基礎(chǔ)上多了一步遮擋操作,目的是為了防止數(shù)據(jù)向量依賴于當(dāng)前時(shí)刻之后的信息。
本文實(shí)驗(yàn)數(shù)據(jù)為模擬器生成的雷達(dá)信號,其中包含一些高重頻、大抖動、同方位的復(fù)雜調(diào)制信號。為了便于網(wǎng)絡(luò)模型訓(xùn)練、驗(yàn)證和測試,對接收到的信號進(jìn)行標(biāo)注處理。
本文所使用的網(wǎng)絡(luò)結(jié)構(gòu)保留了原始Transformer模型的編碼器部分,編碼器模塊的數(shù)量為4,在編碼器后接一個(gè)全連接的線性層,由于使用的Pytorch中的交叉熵?fù)p失函數(shù)帶有歸一化指數(shù)函數(shù)(Softmax),故最后無需再進(jìn)行Softmax操作。由于數(shù)據(jù)集中的輻射源數(shù)量為40余種,為了讓模型注重于數(shù)據(jù)特征的學(xué)習(xí),將網(wǎng)絡(luò)的輸出種類設(shè)置為50。具體的網(wǎng)絡(luò)模型如圖4所示。
圖4 本文雷達(dá)信號分選的整體網(wǎng)絡(luò)結(jié)構(gòu)
本文實(shí)驗(yàn)所采用的深度網(wǎng)絡(luò)框架工具為Pytorch,運(yùn)算平臺為CUDA11.4,python版本為3.8。硬件環(huán)境:CPU為Intel Core i7-8700,內(nèi)存容量為64 GB,顯卡型號為NVIDIA GTX1080Ti,顯存容量為11 GB。將采集到的PDW數(shù)據(jù)經(jīng)過處理標(biāo)注后作為訓(xùn)練集送入到網(wǎng)絡(luò)模型中進(jìn)行訓(xùn)練,剩下的作為驗(yàn)證集和測試集。其中總的數(shù)據(jù)量大小為580 MB,訓(xùn)練集、驗(yàn)證集、測試集的劃分比例為6∶2∶2。訓(xùn)練數(shù)據(jù)集反復(fù)迭代遍歷30次,小批量尺寸設(shè)為16,采用Adam優(yōu)化器,學(xué)習(xí)率設(shè)為0.000 1,損失函數(shù)為交叉熵,模型的評價(jià)準(zhǔn)則為:
(4)
式中:npp表示預(yù)測和標(biāo)簽都是類別p的數(shù)量;tp表示類別p的真實(shí)數(shù)量。
實(shí)驗(yàn)結(jié)果如圖5、圖6所示。
圖5 模型在訓(xùn)練集和驗(yàn)證集上的損失曲線
圖6 模型在測試集上的準(zhǔn)確度曲線
圖9 基于擴(kuò)展目標(biāo)布點(diǎn)的目標(biāo)成像結(jié)果
對實(shí)驗(yàn)結(jié)果進(jìn)行分析可知,隨著迭代次數(shù)的增加,訓(xùn)練集和驗(yàn)證集上的損失值不斷降低,表明模型在不斷學(xué)習(xí)數(shù)據(jù)的特征。將30輪次訓(xùn)練的模型參數(shù)保存后在測試集上對模型進(jìn)行驗(yàn)證,可以看出模型在迭代輪次下標(biāo)為28時(shí)對測試數(shù)據(jù)的表現(xiàn)最好,分選準(zhǔn)確率達(dá)到93%以上。
本文提出了一種基于Transformer的雷達(dá)信號分選方法,該方法將完整的Transformer網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行了適應(yīng)性的修改以滿足雷達(dá)信號分選的需要,利用模型中的位置編碼和多頭注意力機(jī)制加強(qiáng)對PDW的數(shù)據(jù)特征進(jìn)行訓(xùn)練學(xué)習(xí),從而達(dá)到雷達(dá)信號分選的目的。實(shí)驗(yàn)證明,本文提出的方法可以對復(fù)雜電磁環(huán)境下的信號進(jìn)行有效分選,對于復(fù)雜調(diào)制的雷達(dá)信號仍然具有適應(yīng)性,在整個(gè)測試集上的分選正確率達(dá)到93%以上。