摘 要:針對(duì)具有時(shí)頻特性的雷達(dá)信號(hào),傳統(tǒng)的雷達(dá)信號(hào)識(shí)別方法已經(jīng)無法滿足對(duì)信號(hào)類型精準(zhǔn)識(shí)別的需求,因此需要通過采集并分析雷達(dá)信號(hào)脈內(nèi)的時(shí)頻特征實(shí)現(xiàn)對(duì)目標(biāo)雷達(dá)的具體信息進(jìn)行有效評(píng)估。設(shè)計(jì)了一種卷積-雙向長短時(shí)記憶(Convolution-Bidirectional Long Short-Term Memory,CNN-BiLSTM) 混合神經(jīng)網(wǎng)絡(luò)模型,主要通過BiLSTM 的時(shí)序記憶特性深度挖掘雷達(dá)信號(hào)的時(shí)域特征,結(jié)合權(quán)值共享特性和CNN 層捕獲雷達(dá)信號(hào)的時(shí)頻特征,再利用二者信號(hào)特征聯(lián)合完成對(duì)雷達(dá)信號(hào)調(diào)制方式的識(shí)別。通過對(duì)比實(shí)驗(yàn)驗(yàn)證,所提方法對(duì)若干種雷達(dá)信號(hào)的識(shí)別具有較高的準(zhǔn)確度,平均值達(dá)到95. 349% ;優(yōu)于只使用單一特征的網(wǎng)絡(luò)和傳統(tǒng)算法,具有良好的抗噪聲能力。
關(guān)鍵詞:深度學(xué)習(xí);卷積-雙向長短時(shí)記憶混合神經(jīng)網(wǎng)絡(luò);雷達(dá)信號(hào)調(diào)制識(shí)別
中圖分類號(hào):TN971. 1 文獻(xiàn)標(biāo)志碼:A 開放科學(xué)(資源服務(wù))標(biāo)識(shí)碼(OSID):
文章編號(hào):1003-3106(2024)06-1440-06
0 引言
雷達(dá)信號(hào)調(diào)制方式識(shí)別技術(shù)作為情報(bào)偵察系統(tǒng)[1-2]和現(xiàn)代電子對(duì)抗[3-4]的關(guān)鍵部分,其功能是對(duì)觀測截獲的雷達(dá)信號(hào)進(jìn)行定位、分析和識(shí)別處理[5],以獲取對(duì)方的戰(zhàn)術(shù)電子情報(bào)和雷偵手段,從而為作戰(zhàn)指揮員提供戰(zhàn)場態(tài)勢(shì)信息和戰(zhàn)術(shù)決策行動(dòng)[6-7]。因此,研究一種能適應(yīng)復(fù)雜電磁環(huán)境并識(shí)別多種雷達(dá)信號(hào)調(diào)制方式的方法,對(duì)于提升國防電子偵察能力具有十分重要的意義。
由于雷達(dá)信號(hào)調(diào)制方式與雷達(dá)的用途和功能息息相關(guān),但隨著戰(zhàn)場電磁環(huán)境日益多元化,新型復(fù)雜體制雷達(dá)地不斷涌現(xiàn),傳統(tǒng)的基于脈間五大參數(shù)[8]的雷達(dá)信號(hào)識(shí)別方法已經(jīng)無法滿足對(duì)信號(hào)類型精準(zhǔn)識(shí)別的需求,因此需要通過采集并分析雷達(dá)信號(hào)脈內(nèi)的時(shí)頻特征實(shí)現(xiàn)對(duì)目標(biāo)雷達(dá)的具體信息進(jìn)行有效評(píng)估[9]。在此情形下,亟需一種能夠在雷達(dá)信號(hào)中提取出更為精細(xì)和穩(wěn)定的時(shí)頻特征的措施,從而達(dá)到對(duì)雷達(dá)信號(hào)調(diào)制方式高準(zhǔn)確度識(shí)別的要求。近年來,依靠著電子信息技術(shù)和深度學(xué)習(xí)技術(shù)的快速發(fā)展與結(jié)合,神經(jīng)網(wǎng)絡(luò)憑借著良好的特征學(xué)習(xí)能力被廣泛地應(yīng)用于雷達(dá)信號(hào)調(diào)制方式識(shí)別領(lǐng)域[10],主要通過對(duì)雷達(dá)信號(hào)脈內(nèi)信息進(jìn)行時(shí)頻分析[11],從而深度挖掘提取信號(hào)頻率隨時(shí)間變化的規(guī)律。本文設(shè)計(jì)了一種基于卷積-雙向長短時(shí)記憶(Convolution-Bidi-rectional Long Short-Term Memory,CNN-BiLSTM)混合神經(jīng)網(wǎng)絡(luò)的雷達(dá)信號(hào)聯(lián)合特征提取方法,實(shí)現(xiàn)了對(duì)雷達(dá)信號(hào)調(diào)制方式較為準(zhǔn)確的識(shí)別。首先通過BiL-STM 網(wǎng)絡(luò)[12]提取雷達(dá)信號(hào)的時(shí)域特征,再對(duì)信號(hào)進(jìn)行時(shí)頻變換[13],得到信號(hào)的時(shí)頻特征,利用CNN 層網(wǎng)絡(luò)[14]對(duì)信號(hào)的時(shí)頻特征進(jìn)行分析,最終將二者組合成信號(hào)的聯(lián)合特征[15-16]進(jìn)行識(shí)別。通過對(duì)比實(shí)驗(yàn)證明:相較于單一特征的傳統(tǒng)識(shí)別方法,本方法提升了雷達(dá)信號(hào)調(diào)制方式識(shí)別的準(zhǔn)確率,并具有較強(qiáng)的魯棒性。
1 模型框架
CNN-BiLSTM 混合神經(jīng)網(wǎng)絡(luò)模型如圖1 所示,其中包含了輸入層、BiLSTM 層、全連接層、CNN 層、Dropout 層和輸出層。該網(wǎng)絡(luò)模型進(jìn)行雷達(dá)信號(hào)的特征提取和聯(lián)合識(shí)別的過程如下:首先輸入雷達(dá)信號(hào)數(shù)據(jù)集,通過BiLSTM 神經(jīng)網(wǎng)絡(luò)進(jìn)行雙向傳播對(duì)雷達(dá)信號(hào)的時(shí)序特征進(jìn)行選擇性篩選;然后傳入全連接層后利用時(shí)頻變換獲得一個(gè)新的雷達(dá)信號(hào)時(shí)頻矩陣,當(dāng)時(shí)頻矩陣經(jīng)過由多個(gè)卷積層與最大池化層交替堆疊組成的CNN 層后,對(duì)雷達(dá)信號(hào)進(jìn)行深層特征提取,得到多組時(shí)頻特征向量后經(jīng)Dropout 層進(jìn)行隨機(jī)丟棄,繼而提高模型識(shí)別效果的穩(wěn)定性;最后完成雷達(dá)信號(hào)特征的聯(lián)合并識(shí)別。
2 CNN-BiLSTM 混合神經(jīng)網(wǎng)絡(luò)
2. 1 時(shí)域特征處理模塊(BiLSTM 層)
CNN-BiLSTM 混合神經(jīng)網(wǎng)絡(luò)中的時(shí)域特征處理模塊主要提取的是雷達(dá)信號(hào)中的時(shí)域相關(guān)性,其核心是利用記憶塊對(duì)輸入的雷達(dá)信號(hào)脈沖進(jìn)行長期或短期的記憶,通過門機(jī)制進(jìn)行管理行成一種多層次的特征選擇方法[17]。時(shí)域特征處理模塊由BiLSTM層完成,BiLSTM 層以C(t)為長記憶時(shí)間軸,h(t)為短記憶時(shí)間軸,通過長短時(shí)記憶功能將時(shí)序雷達(dá)信號(hào)脈沖信息進(jìn)行選擇性的遺忘,從而保留有效特征,剔除無效或重復(fù)信息。相較于LSTM,BiLSTM 網(wǎng)絡(luò)具有前向傳播和后向傳播的結(jié)構(gòu)特性,在雙向結(jié)構(gòu)處理時(shí)序雷達(dá)信號(hào)的基礎(chǔ)上提高了網(wǎng)絡(luò)的穩(wěn)定性[18],BiLSTM 層的模型如圖2 所示。
如果在t 時(shí)刻BiLSTM 前向傳播輸出的隱藏狀態(tài)為a,而反向的輸出隱藏狀態(tài)為b,則BiLSTM 總輸出的隱藏狀態(tài)如式(1)所示,輸出是前向網(wǎng)絡(luò)與后向網(wǎng)絡(luò)在每個(gè)時(shí)刻的綜合輸出。
ht = ha + hb , (1)
式中:+為全連接操作。
2. 2 時(shí)頻特征處理模塊(CNN 層)
在CNN 層提取雷達(dá)信號(hào)的時(shí)頻特征時(shí)[19],通過CWD 變換獲得雷達(dá)信號(hào)時(shí)頻特征矩陣F,其中包含具有時(shí)頻特征的雷達(dá)信號(hào)數(shù)組X{x1 ,x2 ,…,xm }和每組所對(duì)應(yīng)的特征標(biāo)簽Y{y1 ,y2 ,…,ym },雷達(dá)信號(hào)數(shù)組xi 由n 個(gè)雷達(dá)信號(hào)脈沖元素組成,在此表示為{xi1 ,xi2 ,…,xin},目標(biāo)函數(shù)如下:
P(Y| X) = argmax f(Y| X;θ)。(2)
當(dāng)單通道雷達(dá)信號(hào)時(shí)頻矩陣作為輸入時(shí),具有時(shí)頻特征的雷達(dá)信號(hào)數(shù)組里元素向量為xi,xi ∈Rn×d,其中n 是雷達(dá)信號(hào)元素?cái)?shù)量,d 是矢量維度。通過設(shè)置的過濾器提取輸入雷達(dá)信號(hào)的時(shí)頻特征,計(jì)算如下:
Ji = f(ω × xi:i+g -1 + b), (3)
式中:ω 為卷積核,g 為卷積核的大小,xi:i+g-1 為由i ~ i+g-1 個(gè)雷達(dá)信號(hào)脈沖元素組成的數(shù)組向量,b為偏差項(xiàng)。
在經(jīng)過卷積層處理后,特征矩陣J 可由式(4)表示:
J = [c1 c2 … cn -g +1 ]。(4)
將其通過池化層對(duì)雷達(dá)信號(hào)的局部特征矩陣C進(jìn)行下采樣處理,生成局部值的最佳解。此處使用最大池化技術(shù),如式(5)所示:
M = max(c1 ,c2 ,…,cn -g +1 ) = max{J}。(5)
經(jīng)過池化操作后,每個(gè)卷積核提取的特征向量在一定程度上有所減少,但仍保留了雷達(dá)信號(hào)核心的時(shí)頻特征相關(guān)信息。
2. 3 Dropout 運(yùn)算
由于CNN-BiLSTM 混合神經(jīng)網(wǎng)絡(luò)從雷達(dá)信號(hào)時(shí)頻矩陣中獲取時(shí)頻特征時(shí),CNN 層的輸出結(jié)果易出現(xiàn)過擬合,在CNN 層后增加Dropout 運(yùn)算[20],從每個(gè)訓(xùn)練批次中隨機(jī)忽略少部分的特征神經(jīng)元,可以減少其中產(chǎn)生的相互作用,使得混合神經(jīng)網(wǎng)絡(luò)不會(huì)形成依賴狀況,最終有效地降低網(wǎng)絡(luò)識(shí)別結(jié)果的過擬合現(xiàn)象,提高網(wǎng)絡(luò)模型的泛化能力。標(biāo)準(zhǔn)神經(jīng)網(wǎng)絡(luò)模型結(jié)構(gòu)與包含Dropout 運(yùn)算的神經(jīng)網(wǎng)絡(luò)模型結(jié)構(gòu)的對(duì)比如圖3 所示。
Dropout 運(yùn)算使得當(dāng)前層的神經(jīng)元不必遍歷下一層所有的神經(jīng)元即可構(gòu)成連接,形成一種局部連接的結(jié)構(gòu),降低了網(wǎng)絡(luò)的復(fù)雜度,因此Dropout 運(yùn)算不僅解決了識(shí)別結(jié)果的過擬合現(xiàn)象,而且大幅減少了網(wǎng)絡(luò)運(yùn)算的時(shí)間。在考慮CNN-BiLSTM 混合神經(jīng)網(wǎng)絡(luò)模型結(jié)構(gòu)與深度后,使用Dropout 運(yùn)算忽略的特征神經(jīng)元比例設(shè)置為20% 左右時(shí),網(wǎng)絡(luò)運(yùn)算效果達(dá)到最優(yōu)。
3 實(shí)驗(yàn)與討論
本次實(shí)驗(yàn)采用長度為512 的調(diào)制雷達(dá)信號(hào)作為數(shù)據(jù)集,時(shí)頻矩陣的架構(gòu)設(shè)定為512×512,循環(huán)層數(shù)為16 層,以交叉熵?fù)p失函數(shù)作為分類計(jì)算方法,實(shí)驗(yàn)設(shè)計(jì)的BiLSTM 網(wǎng)絡(luò)、CNN 網(wǎng)絡(luò)與分類網(wǎng)絡(luò)結(jié)構(gòu)如表1 ~ 表3 所示。
本次實(shí)驗(yàn)使用的雷達(dá)信號(hào)調(diào)制方式包含7 種,分別為單載頻、線性調(diào)頻、非線性調(diào)頻、二相編碼、四相編碼、二頻編碼和四頻編碼[21]。調(diào)制雷達(dá)信號(hào)采用歸一化處理后的頻率和帶寬表示,包含512 個(gè)采樣點(diǎn)。在-10 ~ 10 dB 信噪比變化范圍內(nèi),對(duì)于每一種調(diào)制類型的雷達(dá)信號(hào)以2 dB 為間隔生成5 000 個(gè)樣本,并賦予特征類型的標(biāo)簽[22],調(diào)制的雷達(dá)信號(hào)數(shù)據(jù)集以7 ∶ 2 ∶ 1 的比例隨機(jī)分配為訓(xùn)練集、驗(yàn)證集與測試集。網(wǎng)絡(luò)訓(xùn)練設(shè)置的參數(shù)如下:迭代次數(shù)為100,其中每一次迭代包含32 個(gè)調(diào)制雷達(dá)信號(hào),學(xué)習(xí)率為0. 001,采用的優(yōu)化器為SGD[23]。在訓(xùn)練過程中CNN-BiLSTM 混合神經(jīng)網(wǎng)絡(luò)的損失值和識(shí)別率的變化情況如圖4 和圖5 所示。
從圖4 與圖5 的變化情況可以看出,隨著訓(xùn)練輪次的疊加,CNN-BiLSTM 混合神經(jīng)網(wǎng)絡(luò)的損失值逐漸降低,而識(shí)別率則會(huì)逐漸提高;當(dāng)訓(xùn)練輪次達(dá)到30后,損失值與識(shí)別率均會(huì)臨近于一個(gè)穩(wěn)定值,而后繼續(xù)增加訓(xùn)練輪次對(duì)2 個(gè)指標(biāo)的影響逐漸減小,網(wǎng)絡(luò)運(yùn)行速度下降;當(dāng)訓(xùn)練輪次達(dá)到100 時(shí),CNN-BiLSTM 混合神經(jīng)網(wǎng)絡(luò)的損失值為0. 118,識(shí)別率為95. 349 1% 。從訓(xùn)練集與驗(yàn)證集的對(duì)比情況可以看出,本模型的擬合情況良好,避免了出現(xiàn)過擬合現(xiàn)象。
從CNN-BiLSTM 混合神經(jīng)網(wǎng)絡(luò)對(duì)測試集的訓(xùn)練過程中分析,提取7 種雷達(dá)信號(hào)調(diào)制方式的識(shí)別度結(jié)果如表4 所示??梢钥闯觯茫危?BiLSTM 混合神經(jīng)網(wǎng)絡(luò)對(duì)于形式簡單的雷達(dá)信號(hào)調(diào)制方式(例如單載頻、線性調(diào)頻和非線性調(diào)頻)在網(wǎng)絡(luò)訓(xùn)練穩(wěn)定后識(shí)別結(jié)果十分理想,在訓(xùn)練20 次后即達(dá)到了95% 左右的識(shí)別率,在訓(xùn)練100 次時(shí)達(dá)到了99% 左右的識(shí)別率。而對(duì)于時(shí)頻特性相對(duì)復(fù)雜的相位編碼和頻率編碼,在網(wǎng)絡(luò)訓(xùn)練次數(shù)較少時(shí)很難達(dá)到合格的識(shí)別率,但當(dāng)網(wǎng)絡(luò)訓(xùn)練后趨近于穩(wěn)定時(shí),識(shí)別率也有較大的提升;當(dāng)訓(xùn)練次數(shù)達(dá)到100 時(shí),識(shí)別率提高到了90% 以上。其中由于加入了Dropout 運(yùn)算,使得網(wǎng)絡(luò)在訓(xùn)練30 次左右時(shí)就達(dá)到較為穩(wěn)定的狀態(tài),但由于部分神經(jīng)元的隨機(jī)性丟失,網(wǎng)絡(luò)對(duì)識(shí)別率在40 ~70 次有輕微的波動(dòng)。當(dāng)網(wǎng)絡(luò)穩(wěn)定后由平均值可見,CNN-BiLSTM 混合神經(jīng)網(wǎng)絡(luò)對(duì)于若干種雷達(dá)信號(hào)調(diào)制方式的識(shí)別率在訓(xùn)練100 次后提高至95. 3491% ,已經(jīng)基本滿足了對(duì)雷達(dá)信號(hào)調(diào)制方式的識(shí)別要求。
將CNN-BiLSTM 混合神經(jīng)網(wǎng)絡(luò)與使用單一特征的網(wǎng)絡(luò)進(jìn)行對(duì)比,在使用同樣的雷達(dá)信號(hào)數(shù)據(jù)集和設(shè)置同等參數(shù)的情況下,分別對(duì)CNN 模型、LSTM 模型和BiLSTM 模型進(jìn)行訓(xùn)練并測試,比較4 種模型在不同信噪比下的識(shí)別準(zhǔn)確率與運(yùn)行時(shí)間,對(duì)比結(jié)果如圖6 和表5 所示。
由圖6 可知,在- 10 ~ 10 dB 信噪比范圍內(nèi),CNN-BiLSTM 混合神經(jīng)網(wǎng)絡(luò)模型對(duì)于雷達(dá)信號(hào)調(diào)制識(shí)別的準(zhǔn)確率高于BiLSTM 網(wǎng)絡(luò)、LSTM 網(wǎng)絡(luò)和CNN網(wǎng)絡(luò)。而因信噪對(duì)于雷達(dá)信號(hào)的頻域特征影響要小于時(shí)域特征,導(dǎo)致在信噪比較高的情況下,捕獲更多時(shí)域特征的BiLSTM 模型識(shí)別準(zhǔn)確率高于CNN 模型;相反在信噪比較低的情況下,捕獲更多頻域特征的CNN 模型識(shí)別準(zhǔn)確率要高于BiLSTM 模型。再者,由于BiLSTM 模型具有雙向結(jié)構(gòu)的穩(wěn)定性,在整個(gè)信噪比范圍內(nèi)對(duì)于信號(hào)識(shí)別的準(zhǔn)確率均高于LSTM 模型。由表5 可知,CNN-BiLSTM 模型在4 種模型中的結(jié)構(gòu)最為復(fù)雜,運(yùn)算時(shí)間最長。
4 結(jié)束語
本文設(shè)計(jì)了一種基于CNN-BiLSTM 混合神經(jīng)網(wǎng)絡(luò)的雷達(dá)信號(hào)聯(lián)合特征提取方法,在獲取與分析雷達(dá)信號(hào)的時(shí)域特征與時(shí)頻特征的同時(shí),形成了具有多元化信息的聯(lián)合特征,并添加Dropout 運(yùn)算與分類網(wǎng)絡(luò)對(duì)信號(hào)進(jìn)行識(shí)別。經(jīng)過實(shí)驗(yàn)的對(duì)比研究,CNN-BiLSTM 混合神經(jīng)網(wǎng)絡(luò)在-10 ~ 10 dB 信噪比范圍內(nèi)(每2 dB 為一個(gè)步進(jìn))的雷達(dá)信號(hào)識(shí)別準(zhǔn)確度上比強(qiáng)調(diào)時(shí)域特征的BiLSTM 網(wǎng)絡(luò)平均提高了15. 9% ,比僅有單向時(shí)域特征處理的LSTM 網(wǎng)絡(luò)提高了19. 6% ,比未進(jìn)行時(shí)域特征強(qiáng)化處理的CNN 網(wǎng)絡(luò)提高了13. 1% ,綜合雷達(dá)信號(hào)調(diào)制方式識(shí)別率達(dá)到95. 349% ;并且CNN-BiLSTM 混合神經(jīng)網(wǎng)絡(luò)具有良好的抗噪聲能力,最終能夠充分并精確地識(shí)別出雷達(dá)信號(hào)的調(diào)制方式。本文對(duì)設(shè)計(jì)的網(wǎng)絡(luò)結(jié)構(gòu)參數(shù)設(shè)置沒有進(jìn)行過多的對(duì)比研究,在模型的最優(yōu)化選擇和提升處理數(shù)據(jù)的耗時(shí)上值得進(jìn)一步探討。
參考文獻(xiàn)
[1] XU Y L,ZHANG M,JIN B Y. Pursuing Benefits or Avoiding Threats:Realizing Regional Multitarget ElectronicReconnaissance with Deep Reinforcement Learning [J].IEEE Access,2023,11:63972-63984.
[2] 胡建旺,李月武,吉兵. 雷達(dá)情報(bào)質(zhì)量評(píng)價(jià)指標(biāo)體系研究[J]. 現(xiàn)代雷達(dá),2019,41(9):26-30.
[3] SHARMA P,SARMA K K,MASTORAKIS N E. ArtificialIntelligence Aided Electronic Warfare SystemsrecentTrends and Evolving Applications [J ]. IEEE Access,2023,8:224761-224780.
[4] WANG Y X,HUANG G C,LI W. Waveform Design forRadar and Extended Target in the Environment of Electronic Warfare[J]. Systems Engineering and Electronics,2018,29(1):48-57.
[5] 吳迪,徐瀅,汪倍寧,等. 深度學(xué)習(xí)雷達(dá)信號(hào)處理應(yīng)用綜述———機(jī)遇與挑戰(zhàn)[J]. 現(xiàn)代雷達(dá),2022,44(12):1-7.
[6] 張懷國. 雷達(dá)信號(hào)識(shí)別關(guān)鍵技術(shù)研究[J]. 電子技術(shù)與軟件工程,2020(10):85-87.
[7] 羅應(yīng). 相控陣?yán)走_(dá)信號(hào)偵察及快速識(shí)別[J]. 艦船電子對(duì)抗,2010,33(3):43-46.
[8] 屈直,黃高明,程遠(yuǎn)國,等. 基于脈內(nèi)特征參數(shù)的雷達(dá)信號(hào)調(diào)制方式識(shí)別方法[J]. 電子信息對(duì)抗技術(shù),2012,27(2):6-9.
[9] 董志杰,王曉峰,田潤瀾. 雷達(dá)信號(hào)脈內(nèi)調(diào)制識(shí)別新方法[J]. 航天電子對(duì)抗,2018,34(2):33-37.
[10] LIU C,ANTYPENKO R,SUSHKO I,et al. Marine Distributed Radar Signal Identification and ClassificationBased on Deep Learning[J]. Traitement du Signal,2021,38(5):1541-1548.
[11] XIAO Z L,YAN Z Y. Radar Emitter Identification Basedon Novel Timefrequency Spectrum and ConvolutionalNeural Network[J]. IEEE Communications Letters,2021,25(8):2634-2638.
[12] 鄭渝,沈永健,周云生. 基于多層雙向LSTM 的雷達(dá)信號(hào)脈內(nèi)調(diào)制識(shí)別[J]. 遙測遙控,2019,40(1):33-41.
[13] 胡趙成,余思雨,王建濤,等. 基于改進(jìn)時(shí)頻變換的雷達(dá)二相編碼信號(hào)脈內(nèi)特征分析方法[J]. 信息工程大學(xué)學(xué)報(bào),2022,23(6):656-665.
[14] YU Z Y,TANG J L,WANG Z. GCPS:A CNN PerformanceEvaluation Criterion for Radar Signal IntrapulseModulation Recognition [J ]. IEEE CommunicationsLetters,2021,25(7):2290-2294.
[15] 童真,姚群,高墨韻,等. 基于短時(shí)頻譜與自相關(guān)特征的雷達(dá)脈內(nèi)調(diào)制識(shí)別[J]. 艦船電子對(duì)抗,2021,44(4):70-74.
[16] SUN H,LI M,ZUO L,et al. Joint Radar Scheduling andBeampattern Design for Multitarget Tracking in Netted Colocated MIMO Radar Systems[J]. IEEE Signal ProcessingLetters,2021,28:1863-1867.
[17] 孟磊,曲衛(wèi),馬爽,等. 基于LSTM 的雷達(dá)脈沖重復(fù)間隔調(diào)制模式識(shí)別[J]. 現(xiàn)代雷達(dá),2021,43(1):50-57.
[18] WEI S J,QU Q Z,ZENG X F,et al. Selfattention BiLSTM Networks for Radar Signal Modulation Recognition[J]. IEEE Transactions on Microwave Theory and Techniques,2021,69(11):5160-5172.
[19] 姚瑤,王戰(zhàn)紅. 基于時(shí)頻預(yù)處理下卷積網(wǎng)絡(luò)的雷達(dá)信號(hào)識(shí)別[J]. 探測與控制學(xué)報(bào),2018,40(6):99-105.
[20] 程俊華,曾國輝,魯敦科,等. 基于Dropout 的改進(jìn)卷積神經(jīng)網(wǎng)絡(luò)模型平均方法[J]. 計(jì)算機(jī)應(yīng)用,2019,39(6):1601-1606.
[21] 劉魯濤,戴亮軍,陳濤. 基于頻譜復(fù)雜度的雷達(dá)信號(hào)調(diào)制方式識(shí)別[J]. 哈爾濱工程大學(xué)學(xué)報(bào),2018,39(6):1081-1086.
[22] PAN Z S,WANG S F,ZHU M T,et al. Automatic Waveform Recognition of Overlapping LPI Radar Signals Basedon Multiinstance Multilabel Learning [J]. IEEE SignalProcessing Letters,2020,27:1275-1279.
[23] KOBAYASHI T. SCWSGD:Stochastically Confidenceweighted SGD[C]∥2020 IEEE International Conferenceon Image Processing (ICIP ). Abu Dhabi:IEEE,2020:1746-1750.
作者簡介
房崇鑫 男,(1995—),碩士,助理工程師。主要研究方向:信息處理技術(shù)、無線傳感器網(wǎng)絡(luò)。
盛震宇 男,(1989—),碩士,高級(jí)工程師。主要研究方向:顯示控制、軟件框架。
夏 明 男,(1978—),碩士,研究員。主要研究方向:物聯(lián)網(wǎng)安全技術(shù)。
周慧成 男,(1989—),碩士,工程師。主要研究方向:綜合顯示與控制。