曹鵬宇, 楊承志, 陳澤盛, 王 露, 石禮盟
(1. 空軍航空大學(xué)航空作戰(zhàn)勤務(wù)學(xué)院, 吉林 長春 130022; 2. 空軍航空大學(xué)航空基礎(chǔ)學(xué)院, 吉林 長春 130022; 3. 中國人民解放軍93671部隊, 河南 南陽 474350)
隨著電磁環(huán)境日益復(fù)雜,雷達偵察感知敵方態(tài)勢的能力也愈發(fā)凸顯[1-2]。傳統(tǒng)基于脈沖描述字的分選識別方法難以適應(yīng)現(xiàn)代軍事的發(fā)展,脈內(nèi)數(shù)據(jù)包含的特征更為豐富,因此,以脈內(nèi)數(shù)據(jù)作為研究對象是現(xiàn)如今雷達偵察領(lǐng)域研究的重點之一[3-7]。
深度學(xué)習(xí)由數(shù)據(jù)驅(qū)動,不需要人工設(shè)計特征,具備強大的特征學(xué)習(xí)能力[8-13]。不少專家將其應(yīng)用于雷達偵察領(lǐng)域,并取得了極大的成功。文獻[14]針對低信噪比條件下特征提取困難的問題,提出一種基于時頻分析和擴張殘差網(wǎng)絡(luò)的雷達信號識別方法。文獻[15]首先采用稀疏自編碼器提取特征進行離線訓(xùn)練,訓(xùn)練好的模型后將特征輸入到Softmax分類器進行分類,實現(xiàn)低信噪比條件下雷達信號的分類識別。文獻[16]提出了一種基于卷積神經(jīng)網(wǎng)絡(luò)和深度Q學(xué)習(xí)的雷達信號識別方法。在實際戰(zhàn)場環(huán)境中,往往伴隨著大量的噪聲或者干擾信息,針對低信噪比環(huán)境下的雷達信號分類識別就顯得格外重要,也對網(wǎng)絡(luò)能否提取到魯棒性好、可區(qū)分程度高的特征提出了更高的挑戰(zhàn)。并且,以上研究都是在訓(xùn)練集與測試集是閉集的前提下開展的,也就是說,網(wǎng)絡(luò)模型訓(xùn)練好之后所能識別的信號種類就已固定。當(dāng)新信號擴充到樣本庫后,使用這些新信號對模型進行測試時,模型仍會將新信號錯誤識別成擴充前樣本庫中的某一種信號,不但不具備擴展性,反而提供錯誤的識別信息,這就促使研究人員尋找策略來解決這個問題。
經(jīng)過本課題組的研究,應(yīng)用于行人重識別、人臉識別等領(lǐng)域的度量學(xué)習(xí)可以解決上述的問題。文獻[17]提出將人臉識別領(lǐng)域的三元組損失函數(shù)應(yīng)用于雷達信號識別,使其具有一定的擴展性,但其網(wǎng)絡(luò)提取信號特征的能力以及損失函數(shù)等方面仍具有很大的提升空間。近年來,借鑒人類接收處理信息的過程發(fā)展起來的注意力機制,能夠作為一種通用的輕量級模塊,可以集成到任何網(wǎng)絡(luò)中實現(xiàn)端到端的訓(xùn)練。文獻[18]將軟閾值化與注意力機制相結(jié)合,構(gòu)建深度殘差收縮網(wǎng)絡(luò)用于振動信號故障檢測,對噪聲具有一定的魯棒性。文獻[19]構(gòu)建融合前饋掃描和反饋的掩碼分支作為側(cè)分支加入到主干中,充當(dāng)主干分支的特征選擇器,增強有用特征,抑制無用特征。文獻[20]提出壓縮-激勵網(wǎng)絡(luò)(squeeze and excitation networks, SENet)進行圖像識別,獲得每個特征通道的重要程度,據(jù)此對特征進行加權(quán),對網(wǎng)絡(luò)性能的提升有明顯的效果?;谝陨涎芯?本文提出了一種深度殘差收縮注意力網(wǎng)絡(luò)用于雷達信號識別方法,主要工作如下:
(1) 以深度殘差網(wǎng)絡(luò)為基礎(chǔ),構(gòu)建掩碼支路充當(dāng)主干支路的“特征選擇器”,同時為了消除過程中的冗余信息或者噪聲,將軟閾值化的操作融入其中。注意力機制不僅幫助調(diào)整特征的權(quán)重,同時也能自適應(yīng)地為網(wǎng)絡(luò)選取合適的閾值。除此之外,將主干支路以短連接的方式加入到網(wǎng)絡(luò)中,既能夠發(fā)揮出注意力機制的優(yōu)勢,也不會出現(xiàn)因網(wǎng)絡(luò)特征響應(yīng)值變?nèi)醵鴮?dǎo)致性能下降的問題。
(2) 將度量學(xué)習(xí)的排序表損失(ranked list loss, RLL)引入雷達信號識別領(lǐng)域,使得識別方法具有擴展性,并且RLL損失函數(shù)在最大程度保留了信號的類內(nèi)特征的同時,彌補了其他度量損失函數(shù)只采用部分樣本進行相似性度量的缺陷。
(3) 為了使不同類別信號的“分界面”更加明確,提高信號識別準確率,聯(lián)合分類損失函數(shù)與RLL損失函數(shù)共同指導(dǎo)網(wǎng)絡(luò)訓(xùn)練。
在深度學(xué)習(xí)中,為提高網(wǎng)絡(luò)性能,往往通過增加網(wǎng)絡(luò)層數(shù)來提高網(wǎng)絡(luò)提取特征的能力。然而,當(dāng)層數(shù)過多時,梯度消失、梯度爆炸等問題的出現(xiàn)會導(dǎo)致網(wǎng)絡(luò)難以訓(xùn)練。He等[21]在卷積層和后面對不上中引入跳躍連接搭建了深度殘差網(wǎng)絡(luò),能夠很好地解決層數(shù)過深與性能下降之間的矛盾。因此,殘差網(wǎng)絡(luò)的提出在深度學(xué)習(xí)領(lǐng)域產(chǎn)生深遠的影響,不少專家學(xué)者以此為基礎(chǔ)進行架構(gòu)優(yōu)化。
深度學(xué)習(xí)中的注意力機制是通過借鑒人類接收處理信息的過程發(fā)展起來的[19]。當(dāng)人類接收信息時,不會同時處理所有信息,而是有傾向性地處理更感興趣或者與當(dāng)前任務(wù)關(guān)聯(lián)程度更高的一些信息,濾除不重要或者冗余的特征,能夠有效提高信號處理的準確率及速度。同理,在深度學(xué)習(xí)領(lǐng)域,通過對重要特征進行加權(quán)處理,能夠獲得更高的“注意力”,來近似人類接收處理信息的過程。
現(xiàn)實生活中,噪聲信息或者與標簽無關(guān)的信息的存在,嚴重降低了信號識別等工作的準確率。軟閾值化,是很多信號去噪算法中的關(guān)鍵步驟。一般需要先將原始信號變換到某個域中,這個域需要滿足特征值越接近0代表特征越不重要的要求,之后“收縮”信號特征?!笆湛s”信號特征的具體操作是先設(shè)置一個閾值,之后比較特征的絕對值與閾值的大小,低于閾值則將特征值設(shè)為0,高于閾值則向0方向調(diào)整[18]。具體公式如下所示:
(1)
式中:x為信號特征;T為閾值;soft(x,T)為軟閾值化輸出的結(jié)果。
另外,閾值的設(shè)立需要滿足以下3個條件:① 必須為正值;② 設(shè)置需合理,閾值過大會導(dǎo)致有用特征被濾除掉,過小則難以消除噪聲特征;③ 每個樣本所含噪聲分量不同,需要分別設(shè)置不同的閾值。在經(jīng)典的信號去噪算法中,閾值需要人工提前設(shè)置,要求具備信號處理領(lǐng)域的專業(yè)知識。即便如此,通常也很難找到合適的值, 并且不同場景下的最優(yōu)閾值一般不同。注意力機制的發(fā)展為閾值的設(shè)立提供了新的思路。
度量學(xué)習(xí)是對樣本進行相似度度量,在分類、檢索、認證等場景中應(yīng)用廣泛。度量學(xué)習(xí)重點關(guān)注樣本類間與類內(nèi)的樣本分布,旨在設(shè)計一個合理有效的相似度度量方法,在訓(xùn)練過程中拉大不同類別樣本之間的距離(降低相似度),減小相同類別下樣本的距離(增大相似度),最終使得樣本在類內(nèi)緊密在類間分離。這與分類問題在本質(zhì)上有所差別,差別示意圖如圖1所示。
圖1 分類問題與度量學(xué)習(xí)差別示意圖Fig.1 Schematic diagram of the difference between classification problem and metric learning
每個圖形代表不同的樣本,形狀不同代表樣本的類別不同,圖中共有兩類不同的樣本。度量學(xué)習(xí)旨在讓樣本類內(nèi)相似度(橙色箭頭所示)小于樣本類間相似度(紅色箭頭所示)。而分類問題更關(guān)注樣本的類別信息,旨在找到不同類別之間的分界面(綠色虛線所示)。從圖1中也能看出,應(yīng)用于分類場景下時,單純采用度量學(xué)習(xí)對樣本的類別間隔關(guān)注程度不夠。更重要的是,當(dāng)測試數(shù)據(jù)的類別在訓(xùn)練的樣本庫中并未出現(xiàn)時,傳統(tǒng)的分類模型會從樣本庫中選擇其中一種作為識別出的種類,此時傳統(tǒng)分類模型失效。而度量學(xué)習(xí)衡量的是樣本間的相似度,當(dāng)測試數(shù)據(jù)與樣本庫數(shù)據(jù)相似度差異較大時,能夠判別出測試數(shù)據(jù)的類別在樣本庫中沒有存檔,能夠正確識別。
在度量學(xué)習(xí)中,損失函數(shù)的選擇決定網(wǎng)絡(luò)優(yōu)化的方向,是至關(guān)重要的環(huán)節(jié)。文獻[22]提出三元組損失函數(shù)并將其應(yīng)用于人臉識別領(lǐng)域。之后有學(xué)者又相繼提出改進的三元組、四元組損失函數(shù)等。但上述所提損失函數(shù)都存在以下兩個問題:第一,雖然都提出了通過增加負樣本獲取更多的信息,但使用的負樣本僅是其中一小部分;第二,都追求于將同一類樣本集中到一個點上,忽略了樣本的類內(nèi)分布。RLL損失函數(shù)對上述損失函數(shù)存在的局限性進行了改進。
本文網(wǎng)絡(luò)以殘差網(wǎng)絡(luò)為基礎(chǔ),融合注意力機制、軟閾值化的思想于其中,搭建了殘差收縮注意力模塊,以堆疊模塊的形式實現(xiàn)特征提取。這些模塊產(chǎn)生注意力感知特征。來自不同模塊的注意力感知特征隨著層的加深而適應(yīng)性地改變。最終,將輸入信號映射到一個32維的向量空間,得到一個特征向量。本文的識別方法在訓(xùn)練階段和測試階段有所差異,在訓(xùn)練階段,將樣本庫中信號輸入到深度殘差收縮注意力網(wǎng)絡(luò)中進行訓(xùn)練,在分類損失函數(shù)和度量學(xué)習(xí)中的RLL損失函數(shù)共同指導(dǎo)下控制網(wǎng)絡(luò)優(yōu)化的方向。使得網(wǎng)絡(luò)模型向著同種信號相似度增大異種信號相似度減小的方向調(diào)參。訓(xùn)練完成后在測試階段,將樣本庫信號和待識別信號同時輸入到網(wǎng)絡(luò)得到各自的特征向量,通過對樣本庫信號與待識別信號的特征向量采用基于閾值的判斷算法進行相似度識別,低于閾值的認為是原樣本庫中的已知信號,并輸出其信號標簽,高于閾值的則被認為是樣本庫中不存在的未知信號。
深度殘差收縮注意力網(wǎng)絡(luò)由模塊堆疊而成,每個模塊主要由主干支路和掩碼支路兩部分組成。網(wǎng)絡(luò)總體網(wǎng)絡(luò)及模塊2中掩碼分支的結(jié)構(gòu)如圖2所示。
圖2 深度殘差收縮注意力網(wǎng)絡(luò)結(jié)構(gòu)Fig.2 Deep residual shrinkage attention network structure
2.2.1 殘差收縮單元
在實際戰(zhàn)場環(huán)境下,噪聲或者冗余信息大量存在,為了消除這些信息,構(gòu)建殘差收縮單元,融合恒等映射、軟閾值化和注意力機制的思想于其中。首先,利用注意力機制的思想搭建了一個子網(wǎng)絡(luò)自適應(yīng)地找到閾值,之后進行軟閾值化的操作。網(wǎng)絡(luò)結(jié)構(gòu)如圖3所示。
圖3 殘差收縮單元結(jié)構(gòu)Fig.3 Residual shrinkage unit structure
由圖3可知,與殘差單元相比,殘差收縮單元增加了選取閾值的子網(wǎng)絡(luò)和進行軟閾值化的操作。兩個卷積單元提取特征后,通過一個子網(wǎng)絡(luò)自動選擇合適的閾值。具體來說,子網(wǎng)絡(luò)首先獲得特征圖絕對值的平均值,之后獲得一個縮放系數(shù),二者相乘的結(jié)果就是子網(wǎng)絡(luò)選擇出來的閾值,之后進行軟閾值化的操作。取絕對值的操作保證找到的閾值為正數(shù),縮放系數(shù)的獲取保證值不會太大,同時每個閾值都是依據(jù)自己的特征圖所得到的。這種獲得閾值的方式既保證了閾值的唯一性和適用性,也滿足閾值設(shè)立的3個條件。
2.2.2 主干支路和掩碼支路
主干支路以殘差收縮單元作為基本單元,實現(xiàn)對特征的提取和對過程中的噪聲分量進行抑制。掩碼支路采用聚焦式注意力與顯著性注意力相結(jié)合的方式,包括了自下而上的前饋掃描和自上而下的反饋操作。前饋掃描用于快速收集輸入信號的全局信息,反饋操作用于將原始特征圖與全局信息相結(jié)合。同時,在前饋掃描和反饋操作中添加了跳躍連接,來捕獲不同階段不同比例的信息。在掩碼支路中,首先通過殘差收縮單元減少過程中的噪聲,之后通過兩個最大池化層操作快速增大感受野,獲得全局信息。達到最低分辨率以后,通過對稱的殘差收縮單元和雙線性插值操作將特征放大回去。其中,雙線性插值的數(shù)量與最大池化層的數(shù)量一致,本文是兩個,以確保此時輸出與掩碼支路輸入大小一致。之后,通過兩個1×1的卷積層之后,使用Sigmoid層將輸出進行歸一化,作為主干支路的權(quán)重值。
假設(shè)輸入為x,主干支路輸出結(jié)果記為Ti,c(x)。掩碼支路輸出結(jié)果為Mi,c(x),形狀與Ti,c(x)相同。將掩碼分支輸出的結(jié)果Mi,c(x)作為主干支路輸出特征圖的權(quán)重,點乘后輸出Hi,c=Mi,c(x)*Ti,c(x)。如果直接將這個結(jié)果作為輸出,會導(dǎo)致網(wǎng)絡(luò)性能明顯下降。原因是主干支路的權(quán)重經(jīng)過了歸一化,點乘后直接輸出會導(dǎo)致網(wǎng)絡(luò)整體的特征響應(yīng)值變?nèi)酢?/p>
因此,將主干支路作為短連接加入,輸出變?yōu)镠i,c=(1+Mi,c(x))*Ti,c(x)。這樣,既能保留了原有的特征提取的優(yōu)勢,經(jīng)過多層傳輸之后,感興趣的信號特征被增強,不重要的特征相對來說占比減少,又解決了輸出特征值整體下降的問題。此外,也給了主干網(wǎng)絡(luò)繞過掩碼支路直接前進到頂層的能力,削弱了掩碼支路特征選擇的能力。同時,還具有優(yōu)異的梯度回傳特性。
2.3.1 RLL
給定一個錨點,對樣本空間剩余的所有樣本進行相似度排序后得到一個列表。理想狀態(tài)下,所有的正樣本都應(yīng)在所有的負樣本之前。RLL優(yōu)化的目標不僅要滿足這個條件,在正負樣本之間還至少要存在一個距離余量m,同時為了避免像其他損失函數(shù)一樣將錨點與正樣本無限接近,嚴重破壞樣本類內(nèi)的樣本分布,RLL將錨點與正樣本約束在樣本空間的一個超球面內(nèi),能夠最大程度保留了樣本的類內(nèi)特征。具體來說,RLL優(yōu)化的最終結(jié)果是:以錨點(待查詢樣本)為圓心,所有的正樣本分布在小于α-m的超球面內(nèi),所有的負樣本分布在大于α的超球面之外。優(yōu)化目標如圖4所示。
圖4 RLL優(yōu)化結(jié)果示意圖Fig.4 Schematic diagram of RLL optimization results
以成對余量損失作為基本成對約束來構(gòu)建基于集合的相似性結(jié)構(gòu),表達式如下所示:
Lm(xi,xj;f)=(1-yij)[α-dij]++yij[dij-(α-m)]+
(2)
式中:α為設(shè)置的距離參數(shù)。若yi=yj,則yij=1;否則yij=0。dij=‖f(xi)-f(xj)‖2表示兩樣本在特征空間的歐式距離差。
在度量學(xué)習(xí)損失函數(shù)中,選取到合適的樣本能夠加快模型的收斂速度和提高模型性能。分析優(yōu)化目標,確定采樣策略是選取損失函數(shù)不為0的樣本。正樣本的損失函數(shù)表達式如下所示:
(3)
由于選取的負樣本一般數(shù)量較大,并且損失值幅度變化區(qū)間也很大,為了提高利用效率,對負樣本采取加權(quán)的策略。加權(quán)的權(quán)重取決于樣本距離錨點的距離。表達式如下所示:
(4)
因此,負樣本的損失函數(shù)如下所示:
(5)
整體的損失函數(shù)如下所示:
(6)
2.3.2 分類損失函數(shù)
分類損失函數(shù)采用基于Softmax的交叉熵損失函數(shù)來訓(xùn)練。交叉熵損失函數(shù)是衡量實際概率與期望概率之間的距離,損失函數(shù)值越小表示預(yù)測與期望越接近。表達式為
(7)
2.3.3 聯(lián)合損失函數(shù)
在訓(xùn)練過程中通過分類損失函數(shù)與RLL損失函數(shù)共同指導(dǎo)訓(xùn)練來提高模型識別的準確率。
(8)
式中:w表示分類損失函數(shù)的權(quán)重,經(jīng)測試w=0.25時效果最好。
訓(xùn)練階段具體流程如下。
步驟 1樣本庫構(gòu)建:在訓(xùn)練樣本中從每種雷達信號中挑選數(shù)量為n=32的樣本組成雷達信號樣本庫,并找到對應(yīng)的標簽。
步驟 2樣本庫信號預(yù)處理:樣本庫信號輸入網(wǎng)絡(luò)前進行最值歸一化預(yù)處理。
步驟 3獲取訓(xùn)練前信號特征向量:將樣本庫信號輸入到深度殘差收縮注意力網(wǎng)絡(luò)中,獲取訓(xùn)練前的32維空間特征向量。
步驟 4網(wǎng)絡(luò)訓(xùn)練:在訓(xùn)練過程中,首先將標簽轉(zhuǎn)為獨熱碼的形式,之后進行平滑處理,提高模型的泛化能力。聯(lián)合RLL損失函數(shù)和分類損失函數(shù)共同優(yōu)化網(wǎng)絡(luò)訓(xùn)練的方向,使得同類信號特征向量距離減小,不同類信號特征向量距離增大。待訓(xùn)練完成后保存模型。
測試階段具體流程如下。
步驟 1待識別信號預(yù)處理:將待識別信號進行預(yù)處理,一維信號長度統(tǒng)一設(shè)置為1 024。
步驟 2提取保存好的模型,將預(yù)處理后的信號輸入到此模型中,獲得特征向量fx。
步驟 3將樣本庫信號輸入到訓(xùn)練好的模型中,獲取訓(xùn)練優(yōu)化后的32維特征向量fs。
步驟 4相似度衡量:計算fx與fs之間N個向量的距離,并將其存放到相似度數(shù)組中。
步驟 5計算識別數(shù)組:在相似度數(shù)組中找到最小的3個值,從樣本庫中找到對應(yīng)的標簽后存放到識別數(shù)組。
步驟 6與閾值比較大小:計算相似度數(shù)組的均值后將其與設(shè)定好的閾值進行比較,若均值大于閾值,則判定其為樣本庫中不存在的信號,執(zhí)行步驟7。反之,執(zhí)行步驟8。
步驟 7將待識別信號的判別為未知信號,將其類別設(shè)置為-1(代表樣本庫中并未存儲過此信號類型),并存入未知雷達信號庫。
步驟 8當(dāng)均值小于閾值,以識別數(shù)組出現(xiàn)次數(shù)最多的標簽作為待識別信號的識別結(jié)果。
使用Matlab生成數(shù)據(jù),采樣頻率為600 MHz,脈寬為2 μs,信噪比為-20~10 dB,每隔2 dB產(chǎn)生1 000個樣本,其余參數(shù)設(shè)置如表1所示。調(diào)制方式有連續(xù)波(continuous wave, CW)、線性調(diào)頻(linear frequency modulation,LFM)、二進制相移鍵控(binary phase shift keying,BPSK)、正支相移鍵控(quadrature phase shift keying,QPSK)。生成已知雷達信號數(shù)據(jù)以后,每個樣本信號長度設(shè)置為1 024(過長的信號進行截斷處理,過短的信號在末尾補零),之后對應(yīng)標簽組成數(shù)據(jù)集,以8∶2的比例分為訓(xùn)練集和測試集。
由于本識別方法除測試對已知雷達信號識別的準確率以外,也需要測試當(dāng)出現(xiàn)樣本庫中不存在的信號類型時模型能否識別出其為未知信號。因此,需要生成原數(shù)據(jù)集中不存在的新信號作為未知雷達信號,同測試集一同對網(wǎng)絡(luò)性能進行測試。為了與樣本庫中的已知信號區(qū)分開,未知信號的標簽統(tǒng)一設(shè)置為-1,未知雷達下信號數(shù)據(jù)其余參數(shù)設(shè)置如表2所示。
表1 已知雷達信號參數(shù)設(shè)置
表2 未知雷達信號參數(shù)設(shè)置
仿真配置如下:CPU為Inter(R)Core(TM) i7-10750H,GPU為NVIDIA GeForce RTX 2060;內(nèi)存為32G;深度學(xué)習(xí)框架為tensorflow2.1.0。訓(xùn)練初始設(shè)置為:epochs為1 000,batchsize為64。選用RMSProp優(yōu)化器,衰減為0.9,動量為0.9;批量規(guī)范動量參數(shù)為0.99;初始學(xué)習(xí)率設(shè)置為0.256,每10個epoch下降0.97倍。
本文采用基于閾值的判斷方法來判斷待識別信號是否存在于樣本庫中。本節(jié)旨在選出合適的閾值參數(shù)δ。由于需要同時測試網(wǎng)絡(luò)模型對已知雷達信號和未知雷達信號識別的能力,因此本節(jié)使用已知雷達信號測試集和未知雷達信號數(shù)據(jù)共同進行測試,并且,本節(jié)識別的準確率稱為綜合準確率P,由已知雷達(標簽非負)的準確率Pkno和未知雷達(標簽為-1)的準確率Punk兩部分組成,具體計算如下:
P=0.5·Pkno+0.5·Punk
(9)
δ范圍為0.005~0.05,步進0.005。信噪比為0 dB時,不同閾值下準確率對比如圖5所示。
圖5 不同閾值設(shè)置下準確率對比Fig.5 Comparison of accuracy rates under different threshold settings
由圖5可知,當(dāng)δ值較小時,Punk較高,Pkno較低,并且隨著δ值逐漸增大,Punk有明顯的下降趨勢,Pkno有明顯的上升趨勢。原因在于當(dāng)δ較小時,相似度數(shù)組的均值一般都高于閾值δ,模型會將其直接歸為不屬于樣本庫的未知雷達信號,同理,當(dāng)δ較大時,相似度數(shù)組的均值一般都低于閾值δ,模型會將其認為是屬于樣本庫的已知雷達信號。本文將Pkno和Punk視為同等重要,在此基礎(chǔ)上分析綜合準確率P,δ=0.015最為合適,因此基于閾值的識別方法中閾值設(shè)置為0.015。需要說明的是,在不同的場景下,需要重新討論閾值設(shè)置的最優(yōu)解。
消融實驗是為了研究各部分對性能的影響,因此本節(jié)進行的實驗都是使用訓(xùn)練集數(shù)據(jù)進行訓(xùn)練,穩(wěn)定后保存模型,統(tǒng)一以識別準確率作為評價指標對網(wǎng)絡(luò)特征提取能力進行對比分析,使用已知雷達信號測試數(shù)據(jù)進行網(wǎng)絡(luò)性能的測試。
實驗 1為了測試軟閾值化、掩碼分支的加入對網(wǎng)絡(luò)識別率的影響,統(tǒng)一采用分類損失函數(shù)。將本文網(wǎng)絡(luò)去除掩碼分支,并把殘差收縮單元全部替換為殘差單元之后的網(wǎng)絡(luò)作為基礎(chǔ)網(wǎng)絡(luò)記為網(wǎng)絡(luò)1,基礎(chǔ)網(wǎng)絡(luò)添加掩碼分支后記為網(wǎng)絡(luò)2,將基礎(chǔ)網(wǎng)絡(luò)中的殘差單元替換為殘差收縮單元后記為網(wǎng)絡(luò)3,本文網(wǎng)絡(luò)記為網(wǎng)絡(luò)4。不同信噪比條件下識別準確率如圖6所示。由圖6可知,與網(wǎng)絡(luò)1相比,其他網(wǎng)絡(luò)在性能上都有明顯提高。具體來說,與網(wǎng)絡(luò)1相比,網(wǎng)絡(luò)2在-20~-10 dB范圍內(nèi)準確率提高約13.9%,說明掩碼支路的添加調(diào)整了主干支路的權(quán)重,使得網(wǎng)絡(luò)能夠更關(guān)注與任務(wù)相關(guān)的特征信息,在低信噪比條件下能提取到有用的信息。網(wǎng)絡(luò)3在-20~-8 dB準確率也提高了近10.3%。由于殘差收縮單元構(gòu)建了一個子網(wǎng)絡(luò)自適應(yīng)地尋找到合適的閾值進行軟閾值化,減少了與任務(wù)無關(guān)的特征分量。網(wǎng)絡(luò)4既添加了掩碼分支又采用了殘差收縮單元進行軟閾值化的操作,整體性能最佳,在-20~-10 dB范圍內(nèi)準確率提高約16.8%。并且,本文網(wǎng)絡(luò)在-4 dB時準確率就已經(jīng)達到了99.9%以上。
圖6 不同網(wǎng)絡(luò)的準確率對比Fig.6 Accuracy comparison of different networks
實驗 2為了分析損失函數(shù)對網(wǎng)絡(luò)性能的影響,以深度殘差收縮注意力網(wǎng)絡(luò)為基礎(chǔ),使用分類損失函數(shù)的網(wǎng)絡(luò)記為分類網(wǎng)絡(luò),采用RLL損失函數(shù)的網(wǎng)絡(luò)記為度量網(wǎng)絡(luò),使用聯(lián)合損失函數(shù)的網(wǎng)絡(luò)記為聯(lián)合網(wǎng)絡(luò)。不同信噪比條件下識別準確率如圖7所示。
圖7 3種網(wǎng)絡(luò)的準確率對比Fig.7 Accuracy comparison of the three networks
由圖7可知,高于-8 dB分類網(wǎng)絡(luò)和度量網(wǎng)絡(luò)性能相近,都在98%以上。而低于-6 dB時分類網(wǎng)絡(luò)的識別準確率總體略高于度量網(wǎng)絡(luò),準確率平均提升幅度約1%。這是由于分類網(wǎng)絡(luò)更關(guān)注數(shù)據(jù)中的類別信息,而度量網(wǎng)絡(luò)著眼的是數(shù)據(jù)的相似度衡量,對數(shù)據(jù)中的分界面關(guān)注度不如分類網(wǎng)絡(luò),因此在分類任務(wù)中度量網(wǎng)絡(luò)的識別準確率略低于分類網(wǎng)絡(luò)。聯(lián)合網(wǎng)絡(luò)中分類損失函數(shù)與RLL損失函數(shù)共同指導(dǎo)網(wǎng)絡(luò)訓(xùn)練,在-20~-12 dB信噪比范圍內(nèi)識別準確率較分類網(wǎng)絡(luò)和度量網(wǎng)絡(luò)的平均提升幅度在5%左右。說明共同指導(dǎo)能夠提高網(wǎng)絡(luò)的性能。
本節(jié)測試本文方法與其他網(wǎng)絡(luò)在準確率和擴展性上的差異。選取文獻[14]、文獻[15]和文獻[16]與本文方法進行對比分析。
3.4.1 準確率測試
使用已知雷達型號測試集數(shù)據(jù)進行準確率的測試,在不同信噪比環(huán)境下各個模型的識別準確率如圖8所示。
圖8 使用已知雷達型號測試數(shù)據(jù)的準確率對比Fig.8 Accuracy comparison of test set data using known radar models
由圖8可知,文獻[17]整體性能最差,原因是文獻[17]重點關(guān)注識別方法的擴展性,搭建的網(wǎng)絡(luò)較為簡單,網(wǎng)絡(luò)層數(shù)較少,特征提取能力比較弱。其余網(wǎng)絡(luò)相較于文獻[17]準確率都有明顯提高,在-20~-8 dB準確率都提高了近13%。文獻[15]和文獻[16]在-20~-10 dB低信噪比條件下識別能力相近,文獻[14]在二者的基礎(chǔ)上又提高了約5.9%,本文方法識別能力最強,-20~-8 dB信噪比條件下較文獻[14]的準備率提高了近6.2%。并且,本文識別方法在-6 dB時準確率就已經(jīng)達到了99%以上,體現(xiàn)出本文具備很強的特征提取能力。
3.4.2 擴展性測試
使用未知雷達信號數(shù)據(jù)測試各識別方法的擴展性,從每種雷達信號數(shù)據(jù)中選取32個樣本擴充雷達信號樣本庫,在樣本庫中新添加雷達信號的標簽對應(yīng)情況如下所示:雷達10對應(yīng)樣本庫標簽9,雷達11對應(yīng)樣本庫標簽10,雷達12對對應(yīng)一樣本庫標簽11,雷達13對應(yīng)樣本庫標簽12,雷達14對應(yīng)樣本庫標簽13。
之后,選取1~5種未知雷達信號對模型進行測試。當(dāng)信噪比為0 dB時,模型識別準確率與加入新信號的種類數(shù)之間的關(guān)系如圖9所示。其中,當(dāng)選取雷達10和雷達12的信號進行測試時,五種模型的部分混淆矩陣如圖10所示。從圖9和圖10看出,文獻[14]、文獻[15]和文獻[16]這3種傳統(tǒng)的分類網(wǎng)絡(luò)對新加入到樣本庫的信號完全沒有識別能力,識別的準確率一直為0。由于之前沒有訓(xùn)練過這兩種新信號,并且受輸出層神經(jīng)元個數(shù)固定的限制,會將未知信號誤判為原來樣本庫中存在的信號,表明分類網(wǎng)絡(luò)不具備識別新信號的能力。而文獻[17]與本文方法通過相似度對信號進行衡量,即便之前的訓(xùn)練中從未“見過”新信號,也具備將新信號與樣本庫原始信號區(qū)分的能力。雖然文獻[17]與本文方法都具備對新加入到樣本庫中信號的識別能力,但能夠看出本文的識別能力明顯優(yōu)于文獻[17],原因在于本文使用的網(wǎng)絡(luò)對特征的提取能力更強,聯(lián)合損失函數(shù)共同指導(dǎo)下對信號特征向量調(diào)整的能力更強,更能滿足任務(wù)需求。
圖9 模型準確率隨種類數(shù)增加的變化情況Fig.9 Model accuracy with the increase of the number of species changes
圖10 不同模型的混淆矩陣Fig.10 Confusion matrix of different models
本文提出了一種基于深度殘差收縮注意力網(wǎng)絡(luò)的雷達信號識別方法。實驗表明,識別方法具備優(yōu)異的準確率的同時,可識別雷達信號的數(shù)量不受模型輸出神經(jīng)元個數(shù)的限制,具備分類網(wǎng)絡(luò)不具備的擴展性。不過,當(dāng)待識別雷達信號在樣本庫中并未記錄時,本文的識別方法識別出其不屬于樣本庫的未知信號,將其標簽設(shè)置為-1并存放于未知雷達庫后,需要人工從未知雷達庫提取出可信樣本擴充到雷達信號樣本庫中,重新分配標簽。當(dāng)網(wǎng)絡(luò)模型下次再遇到這種型號雷達時,就可以按照已知信號的識別方法進行識別。