郝立鑫,崔永俊
(中北大學(xué)儀器科學(xué)與動(dòng)態(tài)測(cè)試教育部重點(diǎn)實(shí)驗(yàn)室,山西太原 030051)
信號(hào)進(jìn)行調(diào)制之后,在無(wú)線信道中可以進(jìn)行更加穩(wěn)定高效地傳輸,而接收到信號(hào)之后,解調(diào)信號(hào)的前提條件就是確定信號(hào)的調(diào)制方式。調(diào)制識(shí)別[1]方法基本分為三類,第一類是早期的人工識(shí)別,現(xiàn)已經(jīng)基本被淘汰;第二類是基于決策理論[2]的最大似然法識(shí)別,該種方法運(yùn)用概率學(xué)等相關(guān)數(shù)學(xué)知識(shí)進(jìn)行信號(hào)識(shí)別,該方法較為復(fù)雜;第三類是基于特征提取的統(tǒng)計(jì)模式識(shí)別,根據(jù)信號(hào)的不同特征進(jìn)行識(shí)別。
調(diào)制信號(hào)識(shí)別技術(shù)在不斷發(fā)展,文獻(xiàn)[3]中將卷積雙向長(zhǎng)短期神經(jīng)網(wǎng)絡(luò)應(yīng)用于信號(hào)識(shí)別領(lǐng)域,沒(méi)有先驗(yàn)信息干擾時(shí)提高了識(shí)別性能,文獻(xiàn)[4]中將高階統(tǒng)計(jì)量與決策樹相結(jié)合,以此進(jìn)行信號(hào)識(shí)別,模型魯棒性較強(qiáng),文獻(xiàn)[5]中將時(shí)頻特征信號(hào)特征作識(shí)別信號(hào),信號(hào)的時(shí)頻分析更能反應(yīng)信號(hào)在時(shí)間與頻率上的變化,且具有普適性。
近年來(lái),深度學(xué)習(xí)在眾多領(lǐng)域都取得了不錯(cuò)的進(jìn)展,其中卷積神經(jīng)網(wǎng)絡(luò)[6]可以自動(dòng)化地提取特征,在分類問(wèn)題上有著卓越的性能,該文將其與調(diào)制信號(hào)識(shí)別相結(jié)合,并在模型的結(jié)構(gòu)上做出了一定的改進(jìn),將信號(hào)的頻譜圖作為信號(hào)識(shí)別的重要特征。文中進(jìn)行設(shè)計(jì)并實(shí)驗(yàn),證明了該文方法在普適性與準(zhǔn)確率上均優(yōu)于現(xiàn)有方法,在信號(hào)識(shí)別領(lǐng)域有一定意義。
簡(jiǎn)單的通信系統(tǒng)如圖1 所示。其中s(t)表示要從發(fā)射機(jī)發(fā)送到接收器的傳輸符號(hào),調(diào)制函數(shù)F將s(t)轉(zhuǎn)換為發(fā)送信號(hào),信號(hào)經(jīng)過(guò)h(t)到達(dá)接收機(jī)。y(t)為接收機(jī)接收到的信號(hào),且表達(dá)式如下所示:
圖1 通信系統(tǒng)
式中,s(t)、h(t)、n(t)分別表示傳輸符號(hào)、脈沖響應(yīng)和加性高斯白噪聲,F(xiàn)是對(duì)信號(hào)進(jìn)行調(diào)制的函數(shù)。該文的主要工作就是識(shí)別F的調(diào)制類型。
調(diào)制信號(hào)的調(diào)制類型不同,時(shí)頻變化也不同,因此可以將信號(hào)的時(shí)頻變化作為判斷調(diào)制類型的依據(jù)。頻譜圖可以表示豐富的信號(hào)時(shí)頻,所以將頻譜圖作為觀察信號(hào)時(shí)頻變化的視覺(jué)表示。信號(hào)轉(zhuǎn)換為頻譜圖[7]的方式,該文選用的是STFT(短時(shí)離散傅里葉變換),將y(t)表示成采樣頻率fs的離散時(shí)間信號(hào)y(n),通過(guò)STFT 對(duì)其進(jìn)行加窗變?yōu)轭l域,即:
式中,m和k分別表示時(shí)間框架跟頻率單元指數(shù),w(n)表示窗口函數(shù),L和K分別表示幀長(zhǎng)度和移幀,頻譜圖Y=|Y(m,k)|2,其中,每個(gè)像素對(duì)應(yīng)于頻率和時(shí)間點(diǎn)。
該文采用了RadioML2016.10a 數(shù)據(jù)集[8],該數(shù)據(jù)集中有八種數(shù)字調(diào)制方式[9],分別是CPFSK,GFSK,PAM4,16QAM,64QAM,BPSK,QPSK,8PSK;有三種模擬調(diào)制方式,分別是WBFM,AM-SSB,AM-DSB;共有11 種信號(hào)調(diào)制方式,每種調(diào)制方式都有20 000 個(gè)調(diào)制信號(hào),共有220 000 個(gè)調(diào)制信號(hào)。調(diào)制信號(hào)共有20種信噪比,分別是-20 dB、-18 dB、…、16 dB、18 dB。每一種信噪比都有1 000 個(gè)調(diào)制信號(hào)。將一維信號(hào)轉(zhuǎn)換為二維頻譜圖,需要使用低通濾波器對(duì)信號(hào)進(jìn)行降噪[10]處理,然后通過(guò)Matlab 2018b 中的spectrogram函數(shù)將調(diào)制信號(hào)轉(zhuǎn)換為頻譜圖,圖片大小設(shè)置為100×100×3。
所有調(diào)制信號(hào)在相同的調(diào)制類型不同的信噪比下按照7∶1∶2 的比例劃分為a 組、b 組、c 組,所有的a組數(shù)據(jù)組合起來(lái)作為訓(xùn)練數(shù)據(jù)集,同理,b 組、c 組分別作為驗(yàn)證數(shù)據(jù)集和測(cè)試數(shù)據(jù)集。
卷積神經(jīng)網(wǎng)絡(luò)[11-12]的結(jié)構(gòu)及參數(shù)如圖2 所示。
圖2 卷積神經(jīng)網(wǎng)絡(luò)
CNN(Convolutional Neural Networks)中有四層卷積層、三層池化層。卷積核尺寸為3×3,卷積工作過(guò)程如圖3 所示。
圖3 卷積核工作過(guò)程
卷積層的二維卷積計(jì)算公式如式(3)所示:
式中,?代表二維互相關(guān)算子,N代表batch size,即每次輸入圖片集合的大小,C代表圖片的通道,H與W分別代表圖片的高與寬。經(jīng)過(guò)卷積之后,圖片的輸出尺寸如公式(4)、(5)所示:
式中,padding 代表對(duì)輸入圖片四邊邊緣的填充,kernel 代表卷積核的大小,stride 代表卷積的步長(zhǎng)。
在卷積層之后引入了一層注意機(jī)制,以便更快、更好地進(jìn)行模型分類,注意機(jī)制之后是池化層,池化層的主要作用是簡(jiǎn)化特征,在一定尺寸的濾波器內(nèi)取特征向量的最大值或者平均值,池化層中選擇的是最大池化,取值過(guò)程如圖4 所示。
圖4 最大池化取值過(guò)程
使用SoftMax 函數(shù)進(jìn)行分類[13]。模型訓(xùn)練時(shí)的優(yōu)化器采用Adam 優(yōu)化器,網(wǎng)絡(luò)層的激活函數(shù)均采用ReLU 激活函數(shù),函數(shù)公式如公式(6)所示:
模型中引入注意機(jī)制[14],可以賦予模型分類過(guò)程中重要特征更高的權(quán)重,以此實(shí)現(xiàn)更快、更好地進(jìn)行分類。綜合了Senet、CBAM、AA-Net 等注意力模型,該文選擇將CBAM[15](Convolutional Block Attention Module)添加到CNN 網(wǎng)絡(luò)中,CBAM 的結(jié)構(gòu)示意圖如圖5 所示。
圖5 CBAM結(jié)構(gòu)示意圖
其中,通道注意力模塊的結(jié)構(gòu)如圖6 所示。
圖6 通道注意力模塊
將大小為C×W×H的特征圖F并行進(jìn)行最大池化與平均池化,大小變?yōu)镃×1×1,經(jīng)過(guò)一個(gè)共享MLP(Multi-Layer Perception),對(duì)輸出的特征進(jìn)行加和,最后經(jīng)過(guò)一個(gè)Sigmoid[16]激活函數(shù)得到M1,M1與F相乘得到大小為C×W×H的F1,計(jì)算公式如下:
式中,⊙表示矩陣元素積,將對(duì)應(yīng)元素進(jìn)行點(diǎn)乘??臻g注意力模塊結(jié)構(gòu)如圖7 所示。
圖7 空間注意力模塊
對(duì)F1分別進(jìn)行兩種池化操作,然后將得到的張量組合在一起再進(jìn)行卷積,最后經(jīng)過(guò)一個(gè)Sigmoid 激活函數(shù)得到M2,M2與F相乘得到大小為C×W×H的F2。用新的特征圖F2代替原先的特征圖進(jìn)入模型中的下一層網(wǎng)絡(luò)。
模型的訓(xùn)練測(cè)試流程如圖8 所示,用訓(xùn)練數(shù)據(jù)集訓(xùn)練CNN,如果訓(xùn)練結(jié)果理想,保存模型;如果不理想,則調(diào)整參數(shù)或者模型結(jié)構(gòu),然后重新訓(xùn)練直到理想為止,保存模型。最后輸入測(cè)試數(shù)據(jù)集,記錄結(jié)果,完成測(cè)試。
圖8 模型訓(xùn)練測(cè)試流程
該文設(shè)計(jì)了三個(gè)實(shí)驗(yàn)進(jìn)行對(duì)比,以便更好地評(píng)估該文模型的性能:
1)將信號(hào)的IQ 兩路采樣信息直接作為模型的輸入,識(shí)別模型為沒(méi)有注意機(jī)制的卷積神經(jīng)網(wǎng)絡(luò),為了更好地進(jìn)行對(duì)比實(shí)驗(yàn),識(shí)別模型的其余結(jié)構(gòu)與參數(shù)均與該文所提出的一樣,設(shè)該識(shí)別模型為CNN1;
2)將信號(hào)轉(zhuǎn)換而來(lái)的頻譜圖作為模型的輸入,識(shí)別模型的結(jié)構(gòu)與1)中相同,設(shè)該識(shí)別模型為CNN2;
3)將信號(hào)轉(zhuǎn)換而來(lái)的頻譜圖作為模型的輸入,識(shí)別模型為該文提出的模型,設(shè)該模型為CNN3。
所有實(shí)驗(yàn)都使用相同的數(shù)據(jù)集,模型都基于TensorFlow 框架進(jìn)行搭建,所有實(shí)驗(yàn)都在Nvidia RTX 2060 GPU 中實(shí)現(xiàn),在訓(xùn)練趨于穩(wěn)定時(shí)結(jié)束訓(xùn)練并進(jìn)行驗(yàn)證與測(cè)試。
根據(jù)控制變量法對(duì)CNN1 與CNN2 的識(shí)別結(jié)果進(jìn)行對(duì)比,可以得到信號(hào)的頻譜圖作為輸入時(shí)對(duì)識(shí)別模型性能的影響。
將CNN2 與CNN3 的識(shí)別結(jié)果進(jìn)行對(duì)比,可以得到增加注意機(jī)制對(duì)識(shí)別模型的影響。
根據(jù)實(shí)驗(yàn)設(shè)置進(jìn)行實(shí)驗(yàn),得到三種情況下的識(shí)別結(jié)果,由于篇幅有限,該文只給出部分?jǐn)?shù)據(jù),如表1所示。
表1 準(zhǔn)確率識(shí)別結(jié)果
將實(shí)驗(yàn)得到的準(zhǔn)確率結(jié)果繪制為曲線圖,將三種實(shí)驗(yàn)結(jié)果都畫到一張曲線圖中,并用不同的曲線進(jìn)行標(biāo)注,有利于進(jìn)行對(duì)比觀察,實(shí)驗(yàn)結(jié)果如圖9所示。
圖9 實(shí)驗(yàn)結(jié)果
從圖9 中可以看出,在信噪比為-16~-6 dB 時(shí)CNN2 的準(zhǔn)確率相較于CNN1 提高了0%~3%,在信噪比為0~18 dB 時(shí)CNN2 的準(zhǔn)確率相較于CNN1 提高了0%~20%,因此,將信號(hào)轉(zhuǎn)換為頻譜圖更有利于模型的識(shí)別。在信噪比為-10~14 dB 時(shí),CNN3 的準(zhǔn)確率相較于CNN2 的提高了0%~10%,在0 dB 時(shí),CNN2的準(zhǔn)確率相較于CNN1 提高的最多,提高了10%。其在低信噪比情況下準(zhǔn)確率沒(méi)有明顯差別,這是因?yàn)楫?dāng)信號(hào)失真比較嚴(yán)重時(shí),降噪算法改善信噪比的能力有限。因此CNN3 的性能優(yōu)越于CNN2。
因CNN1 與CNN2 在結(jié)構(gòu)上沒(méi)有差別,所以不作比較。CNN2 與CNN3 均在訓(xùn)練30 輪左右區(qū)域穩(wěn)定,訓(xùn)練準(zhǔn)確率如圖10 所示。在訓(xùn)練時(shí)間上,CNN2 每輪訓(xùn)練時(shí)間為105 min,CNN3每輪訓(xùn)練時(shí)間為122 min,訓(xùn)練時(shí)間如表2 所示。
圖10 訓(xùn)練準(zhǔn)確率
表2 訓(xùn)練時(shí)間
CNN3 的訓(xùn)練效率相比于CNN2 降低了16%,CNN3 訓(xùn)練所需時(shí)間更多是因?yàn)镃NN3 中引入了注意力機(jī)制,在結(jié)構(gòu)上更為復(fù)雜??傮w來(lái)說(shuō),訓(xùn)練效率在可接受范圍之內(nèi)。
該文提出了一種基于CNN 的自動(dòng)調(diào)制識(shí)別模型,并在CNN 中加入了CBAM,該模型與現(xiàn)有方法相比,在信噪比為-10~14 dB時(shí),準(zhǔn)確率提高了0%~10%,且在0 dB 時(shí),準(zhǔn)確率提高最多,訓(xùn)練效率降低了16%,但總體在可接受范圍之內(nèi),由實(shí)驗(yàn)可知,該文提出模型優(yōu)于現(xiàn)有方法。