馮 磊,蔣 磊,許 華,茍澤中
(空軍工程大學(xué)信息與導(dǎo)航學(xué)院,西安 710077)
自從2012 年Hinton 團(tuán)隊(duì)的深度卷積神經(jīng)網(wǎng)絡(luò)AlexNet 在ImageNet 挑戰(zhàn)賽上獲得冠軍后[1],深度學(xué)習(xí)技術(shù)得到快速發(fā)展,各種針對(duì)語(yǔ)音識(shí)別和圖像分類(lèi)任務(wù)的新型深度網(wǎng)絡(luò)被不斷提出并取得了很好的處理效果,而基于深度學(xué)習(xí)技術(shù)的通信信號(hào)調(diào)制識(shí)別方法也成為當(dāng)前國(guó)內(nèi)外的研究熱點(diǎn)。文獻(xiàn)[2]對(duì)基于手工特征與卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)提取特征的通信信號(hào)調(diào)制識(shí)別方法進(jìn)行比較,實(shí)驗(yàn)結(jié)果證明了CNN 對(duì)于信號(hào)特征有較強(qiáng)的表征能力。文獻(xiàn)[3]對(duì)通信信號(hào)進(jìn)行預(yù)處理后將時(shí)頻圖作為CNN 的樣本輸入,該方法取得了較好的識(shí)別效果。文獻(xiàn)[4]將手工特征與CNN 提取特征相融合,提高了低信噪比條件下的信號(hào)識(shí)別準(zhǔn)確率。然而傳統(tǒng)基于CNN 的深度學(xué)習(xí)方法存在對(duì)訓(xùn)練樣本需求量大的問(wèn)題,在很多無(wú)法提供足夠豐富樣本量的應(yīng)用場(chǎng)景下,深度學(xué)習(xí)網(wǎng)絡(luò)無(wú)法進(jìn)行有效收斂,導(dǎo)致其在小樣本條件下的通信信號(hào)調(diào)制樣式識(shí)別中受到了一定的限制。
目前,研究人員通常使用數(shù)據(jù)增強(qiáng)、基于遷移學(xué)習(xí)的元學(xué)習(xí)以及度量學(xué)習(xí)等方法解決小樣本學(xué)習(xí)[5]問(wèn)題。數(shù)據(jù)增強(qiáng)方法通過(guò)擴(kuò)充訓(xùn)練樣本集[6]和構(gòu)造特征[7-8]來(lái)有效緩解過(guò)擬合現(xiàn)象,但由于生成的樣本或構(gòu)造的特征相似度較高無(wú)法完全解決過(guò)擬合問(wèn)題?;谶w移學(xué)習(xí)的元學(xué)習(xí)方法[9-11]通過(guò)遷移其他任務(wù)上的權(quán)值網(wǎng)絡(luò)實(shí)現(xiàn)小樣本條件下新任務(wù)的快速學(xué)習(xí),常用方法包括學(xué)習(xí)最優(yōu)的初始化條件、遷移梯度更新策略或通過(guò)循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,RNN)構(gòu)建外部存儲(chǔ)器。這些基于遷移學(xué)習(xí)的元學(xué)習(xí)方法方法雖取得了較為理想的分類(lèi)效果,但也存在一定的局限性,如使用RNN 記憶單元導(dǎo)致算法復(fù)雜度高。度量學(xué)習(xí)方法[12-14]通過(guò)特征提取模塊將樣本映射至低維特征空間中,在特征空間中對(duì)特征進(jìn)行度量并利用最近鄰分類(lèi)器實(shí)現(xiàn)分類(lèi)識(shí)別[15-17],其中最具代表性的度量學(xué)習(xí)方法為VINYALS提出的基于匹配網(wǎng)絡(luò)的度量學(xué)習(xí)方法[13],該方法利用注意力機(jī)制在支持集上通過(guò)嵌入網(wǎng)絡(luò)預(yù)測(cè)測(cè)試集類(lèi)別,在訓(xùn)練過(guò)程中使用加權(quán)平均法對(duì)支持集的小樣本數(shù)據(jù)進(jìn)行分段抽樣以模擬測(cè)試任務(wù),整體識(shí)別效果較好,但是其復(fù)雜度隨著樣本類(lèi)別的增多而增大。SNELL 利用歸納偏置思想提出原型網(wǎng)絡(luò)[14],在特征空間中以類(lèi)內(nèi)的樣本均值作為該類(lèi)的原型表達(dá),通過(guò)計(jì)算待測(cè)樣本與類(lèi)原型之間的距離進(jìn)行分類(lèi)。原型網(wǎng)絡(luò)相比匹配網(wǎng)絡(luò)算法復(fù)雜度有所降低,但由于未考慮類(lèi)內(nèi)樣本存在偏差時(shí)學(xué)習(xí)到的類(lèi)原型不夠準(zhǔn)確,因此導(dǎo)致識(shí)別誤差較高。本文根據(jù)度量學(xué)習(xí)方法,借鑒原型網(wǎng)絡(luò)思想,提出一種基于深度級(jí)聯(lián)孿生神經(jīng)網(wǎng)絡(luò)的小樣本調(diào)制識(shí)別算法。
孿生神經(jīng)網(wǎng)絡(luò)系統(tǒng)[17-18]由一對(duì)孿生的子神經(jīng)網(wǎng)絡(luò)構(gòu)成,這兩個(gè)子神經(jīng)網(wǎng)絡(luò)之間共享權(quán)值與偏置等參數(shù),輸入為一對(duì)樣本。通過(guò)神經(jīng)網(wǎng)絡(luò)提取該對(duì)樣本的特征向量,即將輸入映射至目標(biāo)空間,在孿生神經(jīng)網(wǎng)絡(luò)后端計(jì)算提取到的特征向量的距離度量,通過(guò)該距離來(lái)度量輸入的一對(duì)樣本之間的相似度。孿生神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)如圖1 所示,其中,X1和X2表示訓(xùn)練樣本對(duì)輸入,GW(X)表示神經(jīng)網(wǎng)絡(luò)針對(duì)輸入樣本學(xué)習(xí)到的特征,W表示兩神經(jīng)網(wǎng)絡(luò)共享的權(quán)值參數(shù),‖GW(X1)-GW(X2)‖表示提取的樣本特征之間的距離。
圖1 孿生神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)Fig.1 Structure of Siamese neural network
在訓(xùn)練階段,通過(guò)將訓(xùn)練樣本對(duì)輸入至兩個(gè)權(quán)值共享的子神經(jīng)網(wǎng)絡(luò)中,利用反向傳播算法調(diào)節(jié)網(wǎng)絡(luò)權(quán)值W,使用最小化損失函數(shù)值學(xué)習(xí)優(yōu)化模型的所有參數(shù),即當(dāng)X1和X2屬于相同類(lèi)別時(shí),相似度度量EW=‖GW(X1)-GW(X2)‖為一個(gè)較小的值;對(duì)于來(lái)自不同類(lèi)別的樣本對(duì)的最大化損失函數(shù)值,即當(dāng)X1和X2屬于不同類(lèi)別時(shí),相似度度量EW=‖GW(X1)-GW(X2)‖為一個(gè)較大的值。
為最小化相同類(lèi)別之間的距離度量且最大化不同類(lèi)別之間的距離度量,定義損失函數(shù)如式(1)所示:
其中:d為閾值約束,用于選取適合網(wǎng)絡(luò)訓(xùn)練的異類(lèi)樣本對(duì);y為類(lèi)別因子,定義為。
為使損失函數(shù)最小化,使用隨機(jī)梯度下降算法優(yōu)化神經(jīng)網(wǎng)絡(luò)參數(shù){Wk,bk}。當(dāng)孿生神經(jīng)網(wǎng)絡(luò)的輸入為同類(lèi)樣本對(duì),即樣本對(duì)標(biāo)簽y=0 時(shí),損失函數(shù)為:
參數(shù)優(yōu)化更新過(guò)程為:
其中,μ表示學(xué)習(xí)因子。當(dāng)孿生神經(jīng)網(wǎng)絡(luò)的輸入為不同類(lèi)別樣本對(duì),即樣本對(duì)標(biāo)簽y=1 時(shí),損失函數(shù)為:
當(dāng)輸入的不同類(lèi)別樣本對(duì)的距離EW(X1,X2)在該半徑范圍內(nèi)時(shí),只有輸入不同類(lèi)別的樣本對(duì),才會(huì)對(duì)損失函數(shù)L(W,y)產(chǎn)生影響,從而調(diào)整權(quán)重參數(shù)。當(dāng)EW>d時(shí),max(0,d-EW)=0,損失函數(shù)梯度為0,參數(shù)不需要更新。當(dāng)EW<d時(shí),參數(shù)更新過(guò)程為:
孿生神經(jīng)網(wǎng)絡(luò)的優(yōu)化目標(biāo)是通過(guò)對(duì)權(quán)重矩陣與偏置的不斷更新,在最小化損失函數(shù)L(W,y)的同時(shí),使得同類(lèi)樣本對(duì)之間距離更近而異類(lèi)樣本對(duì)之間距離更遠(yuǎn)。
若利用小樣本數(shù)據(jù)訓(xùn)練基于cross-entropy 的神經(jīng)網(wǎng)絡(luò)分類(lèi)器,則會(huì)由于神經(jīng)網(wǎng)絡(luò)分類(lèi)器中參數(shù)量過(guò)大導(dǎo)致分類(lèi)結(jié)果過(guò)擬合或者由于訓(xùn)練樣本過(guò)少導(dǎo)致訓(xùn)練欠擬合,而K-近鄰、K-means 等非參數(shù)化識(shí)別方法無(wú)需優(yōu)化參數(shù),通過(guò)對(duì)樣本間的分布距離進(jìn)行建模,使得同類(lèi)樣本之間的距離更近,而異類(lèi)樣本之間的距離更遠(yuǎn),其中典型的非參數(shù)化識(shí)別方法為度量學(xué)習(xí)方法,其通過(guò)特征提取模塊將原始信號(hào)特征映射至特征空間,然后在特征空間中通過(guò)最近鄰分類(lèi)器進(jìn)行小樣本分類(lèi)識(shí)別。
現(xiàn)有度量學(xué)習(xí)方法的特征提取模塊設(shè)置相對(duì)簡(jiǎn)單,通常由卷積層堆疊而成,導(dǎo)致特征提取不夠完善。本文針對(duì)通信信號(hào)IQ 路時(shí)序圖的圖像空間特性與信號(hào)時(shí)序特性,設(shè)計(jì)由CNN 和長(zhǎng)短時(shí)記憶(Long Short Term Memory,LSTM)網(wǎng)絡(luò)級(jí)聯(lián)的特征提取模塊CLS,提取更具代表性的特征并在孿生網(wǎng)絡(luò)架構(gòu)下對(duì)提取的特征進(jìn)行距離度量,以相似性約束訓(xùn)練網(wǎng)絡(luò)并使特征提取網(wǎng)絡(luò)收斂。本文算法實(shí)現(xiàn)過(guò)程分為訓(xùn)練過(guò)程和測(cè)試過(guò)程,算法框架如圖2 所示,其中:Xi和Xj為訓(xùn)練樣本對(duì)輸入;Xk為測(cè)試樣本;R1、R2和Rn為測(cè)試樣本與不同訓(xùn)練樣本類(lèi)別之間的相似度。在測(cè)試過(guò)程中將訓(xùn)練樣本通過(guò)特征提取模塊提取的特征向量生成各個(gè)類(lèi)別的類(lèi)中心,然后將通過(guò)特征提取網(wǎng)絡(luò)的待測(cè)樣本分別與各個(gè)類(lèi)別的類(lèi)中心輸入至距離度量模塊生成相似度,最終選取相似度最高的類(lèi)別作為待測(cè)樣本的類(lèi)別。
圖2 本文算法框架Fig.2 Framework of the proposed algorithm
本文在DeepSig 公開(kāi)調(diào)制數(shù)據(jù)集[19]上進(jìn)行實(shí)驗(yàn),該數(shù)據(jù)集是通過(guò)對(duì)信號(hào)進(jìn)行預(yù)處理后得到的2×128同相分量I 路和正交分量Q 路時(shí)序圖,將其作為特征提取網(wǎng)絡(luò)的輸入,特征提取模塊由CNN 與LSTM 級(jí)聯(lián)而成,具體結(jié)構(gòu)如圖3 所示。
圖3 特征提取模塊Fig.3 Feature extraction module
由于本文算法在小樣本條件下實(shí)現(xiàn),網(wǎng)絡(luò)結(jié)構(gòu)設(shè)置不宜過(guò)深,因此卷積神經(jīng)網(wǎng)絡(luò)由4 個(gè)卷積層(conv)、3 個(gè)最大池化層(max pooling)和1 個(gè)全連接層(FC)組成。根據(jù)通信調(diào)制信號(hào)IQ 時(shí)序圖的稀疏特性,同時(shí)為避免卷積核選取過(guò)大而增加計(jì)算復(fù)雜度,選擇2×9、2×7、2×4、2×3 尺寸的卷積核;在卷積層后添加1 個(gè)最大池化層,對(duì)卷積結(jié)果進(jìn)行非線性下采樣,可有效解決卷積層參數(shù)誤差而引起的均值偏移問(wèn)題;每層卷積神經(jīng)網(wǎng)絡(luò)的輸出均采用ReLU 激活函數(shù),能有效增加模型的非線性特性,有助于網(wǎng)絡(luò)模型更好地挖掘樣本數(shù)據(jù)特征。由于每通過(guò)1 個(gè)最大池化層,下一層卷積核數(shù)量就會(huì)出現(xiàn)倍增,因此將卷積濾波器數(shù)量設(shè)置為16 的倍數(shù)。當(dāng)卷積層輸出后,利用flatten 層將卷積神經(jīng)網(wǎng)絡(luò)提取到的特征輸出至具有256 個(gè)神經(jīng)元的全連接層,并通過(guò)LSTM 輸出特征。為避免網(wǎng)絡(luò)訓(xùn)練過(guò)程中出現(xiàn)過(guò)擬合現(xiàn)象,在每個(gè)最大池化層后設(shè)置1 個(gè)dropout 層。
距離度量模塊可通過(guò)訓(xùn)練使相同類(lèi)別之間的距離更近而不同類(lèi)別之間的距離更遠(yuǎn),常用的距離度量函數(shù)主要包括歐氏距離、馬氏距離和余弦相似度度量函數(shù),但此類(lèi)固定距離度量函數(shù)需要嵌入特征提取模塊并將樣本特征準(zhǔn)確地提取至目標(biāo)子空間。本文通過(guò)深度神經(jīng)網(wǎng)絡(luò)與特征提取模塊聯(lián)合訓(xùn)練非線性度量函數(shù)度量樣本之間的相似度。
將特征提取模塊輸出的特征向量并聯(lián)后輸入至由兩個(gè)卷積層和兩個(gè)全連接層組成的距離度量模塊(如圖4 所示),每個(gè)卷積模塊后通過(guò)最大池化層進(jìn)行下采樣,網(wǎng)絡(luò)訓(xùn)練同樣采用ReLU 激活函數(shù)激活和dropout層防止網(wǎng)絡(luò)訓(xùn)練過(guò)擬合,最終通過(guò)Sigmoid 函數(shù)將相似度映射至(0,1),計(jì)算得到相似度為:
其中,Ri,j表示輸入兩樣本Xi和Xj的相似度,g()表示距離度量模塊的輸出,f()表示特征提取模塊的輸出,c表示樣本輸出特征的拼接。
圖4 距離度量模塊Fig.4 Distance measurement module
為同時(shí)滿(mǎn)足孿生網(wǎng)絡(luò)中特征提取模塊和距離度量模塊的約束條件,定義損失函數(shù)為:
由式(9)可知,約束超過(guò)相似度閾值的樣本對(duì)在訓(xùn)練過(guò)程中不進(jìn)行梯度更新,使得網(wǎng)絡(luò)收斂速度更快。
本文算法采取測(cè)試與訓(xùn)練分離的方法,在訓(xùn)練過(guò)程中,通過(guò)將相同類(lèi)別與不同類(lèi)別的訓(xùn)練樣本IQ時(shí)序圖隨機(jī)進(jìn)行兩兩配對(duì)并打上“1”和“0”標(biāo)簽,使相同類(lèi)別的樣本之間更近而不同類(lèi)別樣本之間的距離更遠(yuǎn)。在測(cè)試過(guò)程中,借鑒原型網(wǎng)絡(luò)[14]思想,對(duì)于每種調(diào)制類(lèi)別,在特征映射空間中選取最集中的100 個(gè)訓(xùn)練樣本的特征均值作為該類(lèi)的類(lèi)別中心,然后使用距離度量模塊度量待測(cè)樣本與類(lèi)中心之間的相似度,選取具有相似度最高的類(lèi)中心的類(lèi)別作為識(shí)別類(lèi)別。本文算法步驟具體為:
步驟1標(biāo)簽制作。將通信信號(hào)IQ 路時(shí)序圖按照相同類(lèi)別與不同類(lèi)別進(jìn)行重新組合,將相同類(lèi)別的一組圖片標(biāo)簽設(shè)置為“1”,不同類(lèi)別的一組圖片標(biāo)簽設(shè)置為“0”。
步驟2訓(xùn)練樣本對(duì)的特征映射。將制作好標(biāo)簽的信號(hào)樣本對(duì)輸入至特征提取模塊,提取最后一層的LSTM 輸出作為樣本的特征映射。
步驟3相似度度量。將輸出的樣本對(duì)特征并聯(lián)后輸入至距離度量模塊進(jìn)行相似度度量,并根據(jù)損失函數(shù)對(duì)算法模塊進(jìn)行訓(xùn)練。
步驟4在測(cè)試集中進(jìn)行類(lèi)別識(shí)別驗(yàn)證。網(wǎng)絡(luò)訓(xùn)練完成后將待測(cè)樣本輸入到網(wǎng)絡(luò)中提取特征,并將其與各個(gè)類(lèi)中心的特征通過(guò)距離度量模塊進(jìn)行相似度度量,選擇相似度最高的類(lèi)別作為待測(cè)樣本類(lèi)別。
實(shí)驗(yàn)采用DeepSig 調(diào)制識(shí)別公開(kāi)數(shù)據(jù)集,該數(shù)據(jù)集中包含8PSK、AM-SSB、BPSK、CPFSK、GFSK、PAM4、QAM16、QAM64、QPSK、WBFM 10 種調(diào)制樣式。在信噪比為?4 dB~18 dB 的條件下,每種調(diào)制樣式的訓(xùn)練樣本數(shù)量分別為240、360、480、600、720、840、1 200 和1 800,測(cè)試樣本數(shù)量為100。實(shí)驗(yàn)硬件平臺(tái)為基于Windows7、32 GB 內(nèi)存和NVDIA P4000顯卡的計(jì)算機(jī),并通過(guò)Python 中的Keras 開(kāi)源人工神經(jīng)網(wǎng)絡(luò)庫(kù)完成網(wǎng)絡(luò)的搭建、訓(xùn)練與測(cè)試。
在模型優(yōu)化過(guò)程中選取Adam[20]優(yōu)化算法,其相較隨機(jī)梯度下降算法具有更快的收斂速度和更高的算法穩(wěn)定性。實(shí)驗(yàn)中的優(yōu)化算法采用超參數(shù)默認(rèn)設(shè)置,并設(shè)置初始學(xué)習(xí)率和最小學(xué)習(xí)率分別為10-3和10-5,當(dāng)驗(yàn)證損失值增加到10%以上時(shí)學(xué)習(xí)率減少一半,此時(shí)選取驗(yàn)證集損失值最低的模型作為最終訓(xùn)練模型。對(duì)于實(shí)驗(yàn)中損失函數(shù)閾值的設(shè)置,首先選取初始值為0.1,每次遞增0.1,以此遞增至0.9,分別記錄每個(gè)閾值條件下的識(shí)別性能,當(dāng)閾值為0.4 時(shí)識(shí)別效果最佳,因此實(shí)驗(yàn)均在損失函數(shù)閾值為0.4 的條件下進(jìn)行。在訓(xùn)練過(guò)程中為避免出現(xiàn)過(guò)擬合現(xiàn)象,本文采用提前終止迭代(Early Stop Iteration,ESI)算法[21]使模型收斂至驗(yàn)證集損失值最低點(diǎn)。
3.3.1 孿生神經(jīng)網(wǎng)絡(luò)對(duì)識(shí)別性能的影響
為驗(yàn)證在小樣本條件下孿生神經(jīng)網(wǎng)絡(luò)的作用及其對(duì)訓(xùn)練樣本數(shù)量的需求,訓(xùn)練樣本數(shù)量分別設(shè)置為240、360、480、600、720、840、1 200 和1 800,在CLS 和孿生CLS(簡(jiǎn)稱(chēng)SCLS)網(wǎng)絡(luò)結(jié)構(gòu)下對(duì)比信噪比取-2 dB、0 dB 和10 dB 時(shí)調(diào)制信號(hào),測(cè)試其識(shí)別準(zhǔn)確率,實(shí)驗(yàn)結(jié)果如圖5 所示??梢钥闯?,SCLS 網(wǎng)絡(luò)結(jié)構(gòu)在訓(xùn)練過(guò)程中所需的樣本量明顯降低,在小樣本條件下的識(shí)別性能更好,并且當(dāng)每類(lèi)調(diào)制信號(hào)的樣本數(shù)量為720 時(shí),基于SCLS 網(wǎng)絡(luò)結(jié)構(gòu)的調(diào)制識(shí)別算法的識(shí)別準(zhǔn)確率基本達(dá)到最優(yōu)。
圖5 孿生網(wǎng)絡(luò)結(jié)構(gòu)在小樣本條件下的識(shí)別性能Fig.5 Recognition performance of Siamese network structure under small sample conditions
3.3.2 不同特征提取模塊的性能分析
在每類(lèi)調(diào)制信號(hào)的樣本數(shù)量為720 的條件下,將基于本文SCLS 網(wǎng)絡(luò)結(jié)構(gòu)的特征提取模塊(簡(jiǎn)稱(chēng)SCLS 模塊)與基于SCNN 網(wǎng)絡(luò)結(jié)構(gòu)的特征提取模塊(簡(jiǎn)稱(chēng)SCNN 模塊)和基于SLSTM 網(wǎng)絡(luò)結(jié)構(gòu)的特征提取模塊(簡(jiǎn)稱(chēng)SLSTM 模塊)進(jìn)行對(duì)比分析,其中,SCNN 網(wǎng)絡(luò)結(jié)構(gòu)為文獻(xiàn)[2]中原CNN 網(wǎng)絡(luò)結(jié)構(gòu)與孿生網(wǎng)絡(luò)相結(jié)合的網(wǎng)絡(luò)結(jié)構(gòu),SLSTM 網(wǎng)絡(luò)結(jié)構(gòu)為文獻(xiàn)[22]中原LSTM 網(wǎng)絡(luò)結(jié)構(gòu)與孿生網(wǎng)絡(luò)結(jié)構(gòu)相結(jié)合的網(wǎng)絡(luò)結(jié)構(gòu)。3 種特征提取模塊對(duì)10 種調(diào)制信號(hào)的識(shí)別準(zhǔn)確率如圖6 所示??梢钥闯觯趯\生網(wǎng)絡(luò)結(jié)構(gòu)下基于CNN 與LSTM 的特征提取模塊識(shí)別性能最好,其次是基于CNN 的特征提取模塊,基于LSTM的特征提取模塊識(shí)別性能最差。當(dāng)SNR 為-4 dB時(shí),SCLS、SCNN 和SLSTM 特征提取模塊的識(shí)別準(zhǔn)確率分別為82%、79% 和75%;隨著SNR 的增大,SCLS、SCNN 和SLSTM 特征提取模塊的識(shí)別準(zhǔn)確率分別穩(wěn)定在98%、96%和90%。在整個(gè)測(cè)試集中3 種特征提取模塊的平均識(shí)別準(zhǔn)確率如表1 所示,其算法實(shí)現(xiàn)所需的訓(xùn)練參數(shù)與訓(xùn)練時(shí)間如表2 所示。由表1 可以看出,SCLS 特征提取模塊對(duì)調(diào)制信號(hào)的平均識(shí)別率最高,比SCNN 和SLSTM 特征提取模塊高2.24 和9.04 個(gè)百分點(diǎn),這是由于不同調(diào)制信號(hào)具有不同的空間特征和時(shí)序特征,串聯(lián)的CNN 和LSTM可同時(shí)提取空間特征和時(shí)序特征。由表2 可以看出,SCLS 特征提取模塊相較其他兩種特征提取模塊訓(xùn)練參數(shù)更多,訓(xùn)練時(shí)間更長(zhǎng),算法復(fù)雜度更高,這是該模塊需要改進(jìn)之處。
圖6 3 種特征提取模塊的識(shí)別性能比較Fig.6 Comparison of recognition performance of three feature extraction modules
表1 3 種特征提取模塊的平均識(shí)別準(zhǔn)確率比較Table 1 Comparison of average recognition accuracy of three feature extraction modules %
表2 3 種特征提取模塊所需訓(xùn)練參數(shù)量與時(shí)間比較Table 2 Comparison of the amount of training parameters and time required for three feature extraction modules
3.3.3 網(wǎng)絡(luò)相似度度量方法對(duì)識(shí)別性能的影響
為驗(yàn)證網(wǎng)絡(luò)相似度度量方法對(duì)算法性能的影響,將本文非線性相似度度量方法與歐氏距離和余弦相似度度量方法進(jìn)行對(duì)比分析,結(jié)果如表3 所示。由表3可以看出,與固定的歐式距離度量和余弦相似度度量方法相比,本文非線性相似度度量方法的識(shí)別準(zhǔn)確率分別提升2.59 和3.05 個(gè)百分點(diǎn),但是算法復(fù)雜度也相應(yīng)有所增加,其主要原因?yàn)楸疚耐ㄟ^(guò)神經(jīng)網(wǎng)絡(luò)進(jìn)行相似度度量,度量網(wǎng)絡(luò)可與特征提取網(wǎng)絡(luò)聯(lián)合訓(xùn)練,所提取的樣本特征同時(shí)滿(mǎn)足度量網(wǎng)絡(luò)的約束,而固定的歐式距離度量和余弦相似度度量方法則較依賴(lài)特征提取模塊所提取的特征。
表3 3 種度量方法的識(shí)別性能對(duì)比Table 3 Comparison of the recognition performance of three measurement methods
3.3.4 訓(xùn)練樣本標(biāo)簽對(duì)識(shí)別性能的影響
在每類(lèi)調(diào)制信號(hào)的樣本數(shù)量為720 的條件下,將隨機(jī)制作與優(yōu)先制作類(lèi)別相近的訓(xùn)練樣本標(biāo)簽在低信噪比條件下進(jìn)行識(shí)別性能對(duì)比,結(jié)果如圖7、圖8 所示??梢钥闯觯疚乃惴ㄔ诘托旁氡葧r(shí)仍具有較好的識(shí)別性能,但是其對(duì)于8PSK 和QPSK 的識(shí)別容易混淆,主要原因?yàn)檫@兩種調(diào)制樣式在IQ時(shí)序圖表示上相似性較大,在低信噪比的噪聲影響下使得兩者更加難以區(qū)分,并且在訓(xùn)練過(guò)程中由于隨機(jī)制作標(biāo)簽的影響導(dǎo)致這兩種調(diào)制方式的類(lèi)間組合相對(duì)較少,提取的特征不能較好地區(qū)分這兩種調(diào)制方式。
圖7 隨機(jī)標(biāo)簽在信噪比為-2 dB 和0 dB 時(shí)的混淆矩陣Fig.7 Confusion matrix of random label when SNR is-2 dB and 0 dB
圖8 優(yōu)先標(biāo)簽在信噪比為-2 dB 和0 dB 時(shí)的混淆矩陣Fig.8 Confusion matrix of priority label when SNR is-2 dB and 0 dB
通過(guò)對(duì)較相似的調(diào)制方式進(jìn)行優(yōu)先制作相似類(lèi)間標(biāo)簽可在訓(xùn)練過(guò)程中提取出更好區(qū)分兩者的特征向量,并且在低信噪比條件下相較隨機(jī)制作標(biāo)簽具有更好的識(shí)別性能。基于以上實(shí)驗(yàn)的對(duì)比與分析得出,本文算法相比傳統(tǒng)基于深度學(xué)習(xí)的調(diào)制識(shí)別算法在訓(xùn)練過(guò)程中可有效降低所需樣本量,并且本文采用的級(jí)聯(lián)特征提取模塊與距離度量模塊可進(jìn)一步提升算法的識(shí)別性能。
本文結(jié)合通信信號(hào)時(shí)序圖的時(shí)空特性,提出一種基于深度孿生網(wǎng)絡(luò)的小樣本調(diào)制識(shí)別算法,利用由CNN 和LSTM 級(jí)聯(lián)的特征提取模塊提取特征,并在孿生網(wǎng)絡(luò)架構(gòu)上通過(guò)距離度量模塊對(duì)提取特征進(jìn)行相似度度量,實(shí)現(xiàn)小樣本條件下的調(diào)制識(shí)別。實(shí)驗(yàn)結(jié)果表明,該算法在訓(xùn)練過(guò)程中所需樣本量明顯減少,并且相較單一特征提取網(wǎng)絡(luò)識(shí)別準(zhǔn)確率更高。后續(xù)將通過(guò)半監(jiān)督學(xué)習(xí)技術(shù)對(duì)大量無(wú)標(biāo)簽的訓(xùn)練樣本進(jìn)行網(wǎng)絡(luò)預(yù)訓(xùn)練,進(jìn)一步降低網(wǎng)絡(luò)訓(xùn)練過(guò)程中所需的樣本量并提高算法運(yùn)行速度。