亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        矩陣變換特征與碼序列聯(lián)合學(xué)習(xí)的卷積碼識別方法*

        2023-09-28 07:49:34尤紅雨劉偉松黃知濤
        國防科技大學(xué)學(xué)報 2023年5期
        關(guān)鍵詞:卷積碼碼率碼字

        王 垚,滿 欣,尤紅雨,明 亮,劉偉松,黃知濤,4

        (1. 國防科技大學(xué) 電子科學(xué)學(xué)院, 湖南 長沙 410073; 2. 海軍工程大學(xué) 電子工程學(xué)院, 湖北 武漢 430033; 3. 中國人民解放軍92001部隊, 山東 青島 266005; 4. 國防科技大學(xué) 電子對抗學(xué)院, 安徽 合肥 230037)

        為了提高信息傳輸?shù)目煽啃?信道編碼被廣泛應(yīng)用于各類數(shù)字通信系統(tǒng)中。在實際通信中,收發(fā)雙方需要事先約定所使用的編碼參數(shù),以實現(xiàn)通信接收端的正確譯碼。但在認(rèn)知通信、非合作通信等領(lǐng)域,接收方往往缺乏譯碼所需的必要信息。此時,就需要通過信道編碼盲識別技術(shù),利用接收到的信息序列,對發(fā)送端所采用的編碼參數(shù)進(jìn)行分析識別。信道編碼盲識別技術(shù)因其重要的理論和應(yīng)用價值,受到了眾多研究者的關(guān)注。

        在信道編碼中,卷積碼具有結(jié)構(gòu)簡單、糾錯性能優(yōu)異等特點,是應(yīng)用最為廣泛的編碼類型之一。卷積碼盲識別技術(shù)的發(fā)展,對于當(dāng)前眾多通信鏈路逆向分析都具有重要的作用。針對卷積碼盲識別問題,現(xiàn)有方法主要可分為卷積碼參數(shù)分析和卷積碼閉集識別,簡稱為卷積碼識別。其中,針對卷積碼參數(shù)分析問題,文獻(xiàn)[1-3]基于秩虧(rank deficiency)性質(zhì)對卷積碼的參數(shù)進(jìn)行提取,此類方法原理簡單,但誤碼適應(yīng)能力較差。文獻(xiàn)[4]利用歐幾里得算法,實現(xiàn)了對碼率為1/n的卷積碼的識別,該方法計算量小,但幾乎不具備容錯能力。文獻(xiàn)[5-6]則引入了Walsh-Hadamard變換,該方法本質(zhì)上計算了碼字矩陣與所有二進(jìn)制序列校驗關(guān)系成立的可能性,因此具有較好的誤碼適應(yīng)能力,但計算復(fù)雜度隨卷積碼記憶長度呈指數(shù)倍增加。

        針對卷積碼識別問題,傳統(tǒng)方法主要基于卷積碼校驗關(guān)系,逐一驗證候選集合中的編碼參數(shù)。為了提高算法的誤碼適應(yīng)能力,文獻(xiàn)[7-8]分別引入對數(shù)似然比(log-likelihood ratio,LLR)和似然差(likelihood difference,LD),將二元域運算轉(zhuǎn)為實數(shù)域運算,計算卷積碼碼字與校驗矩陣之間正交關(guān)系成立的概率,算法的容錯性能較好,但算法復(fù)雜度高。隨著深度學(xué)習(xí)在機器視覺[9]、自然語言處理[10]等領(lǐng)域取得的突破性成果,學(xué)者們也開始將深度學(xué)習(xí)應(yīng)用于信道編碼識別領(lǐng)域[11-14]。文獻(xiàn)[11]利用深度學(xué)習(xí)技術(shù)對信道編碼類型及參數(shù)進(jìn)行了識別,對比了殘差網(wǎng)絡(luò)(residual neural network,Resnet)、循環(huán)神經(jīng)網(wǎng)絡(luò)(recurrent neural network,RNN)、注意力機制在信道編碼識別上的性能。文獻(xiàn)[12]則利用1維注意力機制對信道編碼類型進(jìn)行識別,實現(xiàn)了多種不同類型、不同參數(shù)的信道編碼序的識別。針對卷積碼識別問題,文獻(xiàn)[13]提出了一種基于時序卷積網(wǎng)絡(luò)的識別方法,對低碼率卷積碼取得了較好的識別效果。文獻(xiàn)[14]利用Resnet,實現(xiàn)了對17種不同參數(shù)卷積碼的識別,并分析了網(wǎng)絡(luò)深度、輸入序列長度等參數(shù)對識別性能的影響,與傳統(tǒng)方法相比,該方法計算速度更快,識別能力更強。

        但是,現(xiàn)有的基于深度學(xué)習(xí)的卷積碼識別方法通常直接將編碼序列作為網(wǎng)絡(luò)輸入,試圖利用網(wǎng)絡(luò)的特征提取和分辨能力對編碼器進(jìn)行識別。這類思路導(dǎo)致神經(jīng)網(wǎng)絡(luò)規(guī)模不斷增大,但識別性能提升并不明顯,仍無法有效識別碼率大于1/2的高碼率卷積碼。

        本文針對現(xiàn)有基于深度學(xué)習(xí)的方法所存在的不足,對卷積碼碼字矩陣的相關(guān)性質(zhì)展開研究,利用一個新的矩陣變換算法實現(xiàn)卷積碼序列特征的提取,并在此基礎(chǔ)上提出了一種基于多模態(tài)聯(lián)合學(xué)習(xí)的卷積碼識別方法。該方法將接收序列排列成矩陣形式,并利用解調(diào)軟信息剔除可靠性較低的碼字,通過新的矩陣變換方法對碼字矩陣進(jìn)行預(yù)處理得到特征矩陣。在識別時,將原始碼字矩陣和特征矩陣分別輸入網(wǎng)絡(luò)中,通過網(wǎng)絡(luò)完成特征融合及卷積碼的分類識別。

        1 卷積碼基本原理

        通??梢杂肅(n,k,m)來表示一個卷積碼,其中n為輸出通道數(shù),k為輸入通道數(shù),m為編碼約束長度,即生成多項式中最高冪次數(shù)。同時,卷積碼的生成矩陣可表示為一個k行n列的多項式矩陣:

        (1)

        (2)

        U(D)=[u1(D)u2(D) …uk(D)]

        (3)

        則編碼過程可表示為:

        C(D)=U(D)·G(D)

        (4)

        卷積碼同時存在與生成多項式矩陣對應(yīng)的校驗多項式矩陣H(D),且滿足:

        G(D)·H(D)T=0

        (5)

        在實際應(yīng)用中,接收到的序列通常為二進(jìn)制向量,因此可以用二進(jìn)制形式對生成多項式矩陣和校驗多項式矩陣進(jìn)行重寫,分別記為生成矩陣G和校驗矩陣H,二者均為半無限的二元域矩陣,分別可表示為:

        (6)

        (7)

        其中

        (8)

        (9)

        此時,卷積碼輸入信息與輸出碼字的關(guān)系可用下式表示:

        c=uG

        (10)

        其中:u表示編碼器輸入的信息序列;c表示編碼器輸出的碼字序列,且滿足cHT=0。

        2 基于深度學(xué)習(xí)的卷積碼識別模型

        在識別過程中,基于深度學(xué)習(xí)的卷積碼識別方法與傳統(tǒng)方法相比,具有數(shù)據(jù)量需求少、速度快等優(yōu)勢[11],現(xiàn)有方法的基本流程如圖1所示[11-14]。

        圖1 現(xiàn)有基于深度學(xué)習(xí)的卷積碼識別流程Fig.1 Existing convolutional code recognition process based on deep learning

        從圖1中可以看出,現(xiàn)有基于深度學(xué)習(xí)的方法通常將接收到的碼字序列直接作為神經(jīng)網(wǎng)絡(luò)輸入,未對接收序列進(jìn)行預(yù)處理,完全依賴于神經(jīng)網(wǎng)絡(luò)的特征提取與識別能力。低碼率的卷積碼具有較為簡單的編碼結(jié)構(gòu),對應(yīng)的碼字空間較小,碼字序列中包含的隨機信息比例較低。因此,神經(jīng)網(wǎng)絡(luò)易于直接從碼字序列中發(fā)現(xiàn)規(guī)律性的特征。但在高碼率卷積碼的碼字序列中,信息比特占的比例較高,碼字序列具有較強的隨機性,此時只依靠神經(jīng)網(wǎng)絡(luò)難以提取不同卷積碼之間的差異。因此,現(xiàn)有的基于神經(jīng)網(wǎng)絡(luò)的識別方法對高碼率卷積碼的識別性能往往較差。

        為了提高對于卷積碼的識別性能,本文提出了一種基于矩陣變換特征與碼序列數(shù)據(jù)多模態(tài)聯(lián)合學(xué)習(xí)的卷積碼智能識別模型,其流程如圖2所示。首先,將接收到的碼字序列按照一定規(guī)則排列成矩陣形式,然后對該碼字矩陣通過矩陣變換進(jìn)行預(yù)處理,完成碼字序列的特征提取。之后,將碼字矩陣及提取出的特征矩陣分別輸入神經(jīng)網(wǎng)絡(luò)中進(jìn)行聯(lián)合學(xué)習(xí)。該神經(jīng)網(wǎng)絡(luò)具有兩個并行的特征提取模塊和一個特征融合模塊,能夠完成兩種模態(tài)數(shù)據(jù)的特征提取與融合,使所提方法最終具有良好的識別性能。具體的預(yù)處理方法與網(wǎng)絡(luò)參數(shù)將在后文中給出。

        圖2 本文方法的卷積碼識別流程Fig.2 Framework of the proposed method

        3 基于聯(lián)合學(xué)習(xí)的識別方法

        3.1 碼字序列預(yù)處理及特征提取

        假設(shè)發(fā)送端發(fā)送的碼字序列為c=[c1,…,cL],該碼字為編碼器C(n,k,m)的輸出序列??梢岳孟率鲆?guī)則構(gòu)建包含l個元素的子序列:

        (11)

        同時,通過觀察可知,矩陣G的構(gòu)造具有一定的規(guī)律性。如果以n個列向量為一組,則從第m+1組開始,向量組均由前一組列向量補零獲得。因此,可以在矩陣G上方,按此規(guī)律補充一定數(shù)量的行向量得到矩陣:

        (12)

        當(dāng)t≡0(modn)時,進(jìn)一步可得:

        (13)

        (14)

        同時,根據(jù)最簡行階梯矩陣的唯一性可知,當(dāng)t≡0(modn)時,對所有采用相同編碼參數(shù)的C(l)進(jìn)行消元化簡,最終所得的最簡行階梯矩陣必定是相同的。但是,最簡行階梯矩陣中所有線性無關(guān)的行向量被集中于矩陣的前rl行,不利于網(wǎng)絡(luò)進(jìn)行特征的提取與識別。為了使碼字矩陣變換后的結(jié)果更適合神經(jīng)網(wǎng)絡(luò)進(jìn)行識別,本文利用了一種新的保留對角線元素的矩陣變換算法,即算法1。該算法將非零行的首個非零元素置于對角線上,這些非零元素的分布反映了碼字矩陣秩的變化。文獻(xiàn)[3]給出了,l=pn(p∈Z+)時,碼字矩陣的秩rl隨l變化的規(guī)律:

        (15)

        基于式(15)中矩陣秩的變化規(guī)律可知,算法1輸出矩陣對角線上非零元素的分布同樣與卷積碼參數(shù)之間存在明確的約束關(guān)系。因此,算法1相較于GE算法,其結(jié)果能夠直觀地反映出更多的編碼參數(shù)信息,不同卷積碼對應(yīng)的變換結(jié)果差異更加明顯,因此更適于作為神經(jīng)網(wǎng)絡(luò)的輸入。

        算法1 保留對角線元素的矩陣變換算法Alg.1 Matrix transformation preserving diagonal elements

        經(jīng)過算法1變換后得到的矩陣M具有以下特點:

        1)當(dāng)對角線上的某個元素為1時,該元素所在列的其他元素均為0;

        2)當(dāng)對角線上的某個元素為0時,該元素所在行的其他元素均為0。

        在無誤碼條件下,經(jīng)過算法1變換后,不同卷積碼序列所對應(yīng)的輸出矩陣具有不同的0/1分布。圖3給出了當(dāng)t≡0(modn)時,在無誤碼條件下,C(2,1,3)、C(4,1,3)和C(4,3,3)2卷積碼碼字矩陣在經(jīng)算法1變換得到的矩陣取值示意圖(卷積碼具體參數(shù)見表1)。

        (a) C(2,1,3)碼字矩陣變換結(jié)果(a) Output for C(2,1,3)

        (b) C(4,1,3)碼字矩陣變換結(jié)果(b) Output for C(4,1,3)

        (c) C(4,3,3)2碼字矩陣變換結(jié)果(c) Output for C(4,3,3)2圖3 算法1輸出矩陣取值示意圖Fig.3 Output of the algorithm 1

        圖3中黑色點表示相應(yīng)位置的值為“1”,空白表示相應(yīng)位置的值為“0”。從圖中可以看出,經(jīng)過算法1變換后,不同參數(shù)的碼字矩陣具有明顯的差異,與前文分析一致,因此可利用算法1的輸出作為卷積碼的特征對卷積碼進(jìn)行識別。

        3.2 基于軟判決可靠性的數(shù)據(jù)篩選

        由前文分析可知,當(dāng)t≡0(modn)時,利用算法1對碼字矩陣C(l)進(jìn)行變換,所得上三角矩陣能夠作為特征矩陣用于編碼器的識別。但在實際應(yīng)用中,由于受信道環(huán)境的影響,解調(diào)序列中不可避免地包含一定數(shù)量的誤碼。這些誤碼將在矩陣行變換的過程中擴散到其他沒有誤碼的位置,使得算法1輸出矩陣也將出現(xiàn)錯誤。

        從信道編碼參數(shù)分析的原理和發(fā)展過程出發(fā),可以發(fā)現(xiàn)編碼分析容錯能力的提升往往得益于解調(diào)軟信息的有效利用。下面,給出一種基于解調(diào)軟信息的數(shù)據(jù)篩選方法。

        為不失一般性,假設(shè)調(diào)制方式為二進(jìn)制相移鍵控(binary phase shift keying, BPSK)調(diào)制,傳輸信道為加性高斯白噪聲信道(additive white Gaussian noise channel,AWGNC)。記y和W分別為c對應(yīng)的軟判決和硬判決序列,滿足:

        yi=si+ni

        (16)

        其中:ni是均值為零,方差為σ2的高斯白噪聲序列;si是BPSK調(diào)制符號,與原始碼字ci之間滿足

        si=2ci-1

        (17)

        則對于某一個符號ci,其LLR可表示為:

        L(ci)=L(ci|yi)=-2yi/σ2

        (18)

        (19)

        3.3 網(wǎng)絡(luò)模型

        本文所設(shè)計的網(wǎng)絡(luò)模型如圖4所示。與現(xiàn)有方法不同,本文的網(wǎng)絡(luò)模型采用了特征融合的設(shè)計思路,分別將原始序列構(gòu)成的碼字矩陣Y(l)和算法1輸出的特征矩陣M作為網(wǎng)絡(luò)的輸入1和輸入2。在全連接層之前,連接兩個網(wǎng)絡(luò)分支輸出的特征向量,并通過后續(xù)網(wǎng)絡(luò)層實現(xiàn)特征融合。這種設(shè)計能夠從兩種模態(tài)的數(shù)據(jù)中提取有效信息,使網(wǎng)絡(luò)具有更強的特征提取和識別能力。

        圖4 網(wǎng)絡(luò)模型Fig.4 Network model

        具體而言,圖4中“卷積層 64×7,3 ReLU”表示該卷積層采用的通道數(shù)為64,卷積核大小為7,步長為3,激活函數(shù)為ReLU。類似地,“平均池化層2,2”表示平均池化層,窗函數(shù)大小為2,步進(jìn)為2。本文網(wǎng)絡(luò)采用了與文獻(xiàn)[14]類似的基于Resnet的骨干網(wǎng)絡(luò)。不同的是,本文方法采用的是2維卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural network,CNN),而文獻(xiàn)[14]采用的則是1維CNN。網(wǎng)絡(luò)的每個分支包含了2個卷積層、4個殘差模塊。4個殘差模塊中的具體類型見圖5,其中輸入1對應(yīng)的激活函數(shù)為Leaky ReLU,輸入2對應(yīng)的激活函數(shù)為ReLU。最后,將兩個分支輸出的特征向量進(jìn)行連接,再送入全連接層,完成特征融合。在全連接層之后,采用Softmax函數(shù)得到網(wǎng)絡(luò)的最終輸出。此外,網(wǎng)絡(luò)采用Adam優(yōu)化器,學(xué)習(xí)速率設(shè)置為0.001仿真中,批量大小(Batch size)為64。

        (a) 基本殘差模塊(a) Identity block(b) 卷積殘差模塊(b) Convolutional residual block圖5 殘差模塊Fig.5 Resnet block

        3.4 算法步驟

        根據(jù)前文可知,構(gòu)造的碼字矩陣C(l)只有在滿足t≡0(modn)時,算法1對其進(jìn)行變換才能夠獲得期望的變換結(jié)果。因此,t可以取參數(shù)n所有可能取值的最小公倍數(shù)。綜合考慮性能和資源需求,l取t的4~5倍即可?,F(xiàn)將本文識別方法總結(jié)如下:

        步驟1:生成采用C(n,k,m)卷積碼編碼的軟解調(diào)輸出及其硬判決序列。

        步驟2:設(shè)定t=12,l=60,對碼字序列進(jìn)行分段,并利用軟解調(diào)信息篩選數(shù)據(jù),得到碼字矩陣Y(l)和特征矩陣M。

        步驟3:構(gòu)建多模態(tài)聯(lián)合學(xué)習(xí)神經(jīng)網(wǎng)絡(luò),設(shè)置各超參數(shù),利用數(shù)據(jù)樣本對網(wǎng)絡(luò)進(jìn)行訓(xùn)練。

        步驟4:完成網(wǎng)絡(luò)訓(xùn)練后,利用測試集對模型性能進(jìn)行評估。

        本節(jié)分析比較參數(shù)α對本文算法檢索性能的影響.在α有效范圍內(nèi),50個查詢在3個數(shù)據(jù)集m0、m1和k1中進(jìn)行本文算法實驗,其檢索結(jié)果MAP值如圖2至圖4所示.其中,實驗參數(shù):ms=0.2,mc=0.8,Litem =2,minPR=0.1,minNR= 0.01.圖例中, “t” 和“d”分別表示TITLE和DESC查詢,“e”代表Relax值,表Rigid值,“A”代表PTAE_AWPNP算法,“C”代表PTCE_AWPNP算法.

        4 實驗與結(jié)果分析

        4.1 數(shù)據(jù)集生成

        為了驗證本文對于卷積碼的識別性能,本文在文獻(xiàn)[14]所選擇的17種不同參數(shù)的卷積碼之外,增加了碼率為2/3和3/4的卷積碼,共計25種具有不同編碼約束長度、生成矩陣的卷積碼。表1給出了不同編碼器生成多項式的八進(jìn)制表示。

        表1 卷積碼編碼參數(shù)列表Tab.1 Parameters of convolutional codes

        表2 不同算法的平均識別率Tab.2 Average recognition rate of different algorithms %

        數(shù)據(jù)集的生成主要經(jīng)過以下幾個步驟,首先使用表1中的卷積碼參數(shù)進(jìn)行編碼,然后對編碼后的序列進(jìn)行BPSK 調(diào)制,并經(jīng)過AWGNC進(jìn)行傳輸。最后,使用BPSK解調(diào)器對接收到的信號進(jìn)行解調(diào)。設(shè)置t=12,l=60,完成數(shù)據(jù)篩選和碼字矩陣的構(gòu)建,并利用算法1對碼字矩陣進(jìn)行變換,得到碼字矩陣Y(l)和特征矩陣M作為數(shù)據(jù)樣本。

        深度學(xué)習(xí)是一種數(shù)據(jù)驅(qū)動型方法,需要利用數(shù)據(jù)集完成模型參數(shù)的訓(xùn)練,受數(shù)據(jù)集的影響較大。通過實驗,對比了本文方法在數(shù)據(jù)集初始信噪比為-1 dB、-5 dB、-10 dB時的識別性能,發(fā)現(xiàn)當(dāng)數(shù)據(jù)集的初始信噪比為-1 dB時,所提方法的識別性能明顯較弱。當(dāng)數(shù)據(jù)集的初始信噪比為-5 dB時,所提方法的識別性能略低于-10 dB時水平。因此,在生成數(shù)據(jù)集時,設(shè)置AWGNC的信噪比(signal-to-noise ratio,SNR)取值范圍為-10 dB至10 dB,間隔1 dB。

        每個不同的參數(shù)生成1 000個樣本,取其中80%的樣本組成訓(xùn)練集,剩余的作為驗證集。最終,共有420 000個訓(xùn)練樣本,105 000個驗證樣本。

        4.2 仿真分析

        通過仿真,對本文方法的識別性能進(jìn)行驗證,同時考察輸入序列長度、矩陣變換算法等因素對算法性能的影響,最后與現(xiàn)有的方法進(jìn)行對比。實驗環(huán)境為Windows10操作系統(tǒng),CPU為Intel Core i7-9700K, GPU為英偉達(dá)GeForce GTX 2080Ti,運行內(nèi)存32 GB,程序開發(fā)基于Pytorch框架。

        4.2.1 編碼約束長度和碼率對識別性能的影響

        接收序列長度L=16 384,信噪比范圍為-10~10 dB,間隔1 dB。本文方法對于不同卷積碼的識別效果如圖6、圖7所示。

        圖6 算法對1/3碼率卷積碼的識別性能Fig.6 Recognition performance of algorithm for 1/3-rate convolutional codes

        圖7 算法對1/4碼率卷積碼的識別性能Fig.7 Recognition performance of algorithm for 1/4-rate convolutional codes

        從圖6可以看出,對于碼率為1/3的卷積碼,編碼約束長度越短,識別性能越好。在信噪比為-6 dB時,對于編碼約束長度為2的卷積碼,識別率已經(jīng)能夠達(dá)到100%。而對編碼約束長度為3的卷積碼,此時的識別率僅有約40%,其他編碼約束長度更長的卷積碼的識別率則更低。從圖7中也可以看出相同的規(guī)律。識別性能會隨著編碼約束長度的增加變差,這主要是因為編碼約束長度越長的卷積碼,前后時刻碼字之間的關(guān)聯(lián)性越強,其對應(yīng)的碼字空間的維度也就更大、結(jié)構(gòu)更加復(fù)雜。相較于約束長度較短的卷積碼碼字,約束長度較長的編碼器輸出的碼字序列表現(xiàn)出的隨機性更強,增加了網(wǎng)絡(luò)從中提取有效特征、完成識別的難度。

        與此同時,從圖6和圖7的對比也可以發(fā)現(xiàn),在相同編碼約束長度的條件下,碼率較低的1/4碼率卷積碼的識別率更高。這主要是因為,對于低碼率的卷積碼,碼字中包含的校驗比特更多,相應(yīng)包含的隨機信息也就越少。這種情況下,碼字序列所表現(xiàn)出的隨機性也就較低,識別難度降低,識別性能隨之提高。

        圖8給出了本文方法在信噪比大于0 dB時,對所有25種不同參數(shù)的卷積碼進(jìn)行識別所得到的混淆矩陣。從圖中可以看出,算法對1/3和1/4碼率的卷積碼所得的識別準(zhǔn)確率最高。而對于碼率較高的1/2、2/3和3/4卷積碼,算法識別性能出現(xiàn)了下降。這和前文的分析是一致的,較高的碼率和較長的記憶長度,都將提高卷積碼結(jié)構(gòu)的復(fù)雜性,編碼后的碼字序列也將表現(xiàn)出更強的隨機性,顯著提高了卷積碼識別的難度。

        圖8 25種卷積碼識別結(jié)果的混淆矩陣Fig.8 Confusion matrix of the recognition accuracy of 25 convolutional codes

        4.2.2 數(shù)據(jù)長度對識別性能的影響

        接收序列長度L的取值包括:4 096、8 192、16 384,信噪比為-10~10 dB,間隔為1 dB。

        考慮到對于閉集識別算法而言,單獨某一個目標(biāo)的識別性能并不能說明算法的整體性能。因此,本節(jié)采用同一碼率下的平均識別率作為性能指標(biāo),考察不同接收序列長度對識別性能的影響(見圖9)。例如,對于1/2碼率卷積碼,本文以表1中C(2,1,3)、C(2,1,4)、…、C(2,1,9)等7種1/2碼率卷積碼識別率的平均值作為性能指標(biāo)。

        從圖9中可以看出,信噪比小于1 dB時,接收序列長度L對識別性能幾乎沒有影響。信噪比在1~5 dB時,隨著L的增大,識別性能顯著提高。具體而言,L每增長1倍,識別性能增加約10%~15%。而當(dāng)信噪比較高時,不同L的識別性能均能達(dá)到100%。這主要是因為,在信噪比小于1 dB時,序列中包含的錯誤信息較多,無法篩選出受誤碼影響較小的碼字矩陣,因此無法得到可用于識別的有效特征矩陣。而隨著信噪比的提升,數(shù)據(jù)篩選的作用開始體現(xiàn),此時隨著接收序列長度的增大,得到受噪聲影響較小的碼字的概率也就越高。在本文方法中,接收數(shù)據(jù)長度的變化并不影響最終輸入網(wǎng)絡(luò)的數(shù)據(jù)大小,因此在實際應(yīng)用中,應(yīng)利用盡可能多的數(shù)據(jù),從中篩選出可靠性最高的序列構(gòu)建碼字矩陣,從而提高識別的準(zhǔn)確率。

        4.2.3 矩陣變換方法對識別性能的影響

        通過仿真實驗,同樣采用同一碼率卷積碼的平均識別率作為性能指標(biāo),對比了GE算法和文中算法1分別作為特征提取手段時模型的識別性能。接收序列長度L的取值為16 384,信噪比為-10~10 dB,間隔為1 dB,結(jié)果如圖10所示。

        圖10 不同矩陣變換方法下的算法識別性能Fig.10 Recognition performance of algorithm under different matrix transformation methods

        從圖10中可以看出,不論采用哪種變換算法,均能夠在信噪比達(dá)到5 dB時,識別率上升至100%。同時,若采用高斯消元法對碼字矩陣進(jìn)行變換,最終的識別性能稍弱于算法1。這說明本文所提的識別框架能夠較好地解決高碼率卷積碼識別的問題;算法1相較于傳統(tǒng)的GE算法,更適合作為碼字矩陣的預(yù)處理方法。

        4.2.4 性能對比

        對比了本文方法與現(xiàn)有方法的識別性能,如圖11和圖12所示。所采用的對比算法為當(dāng)前識別性能最優(yōu)的深度學(xué)習(xí)算法深度殘差網(wǎng)絡(luò)(deep residual network, DRN)[14],以及傳統(tǒng)方法中具有代表性的基于平均LLR方法(簡稱LLR方法)[15]。接收序列長度L的取值為16 384,信噪比為-10~10 dB,間隔為1 dB。本節(jié)同樣采用同一碼率卷積碼的平均識別率作為性能指標(biāo)。

        圖11 不同算法對低碼率卷積碼的識別性能Fig.11 Recognition performance of different algorithms for low rate convolutional codes

        圖12 不同算法對高碼率卷積碼的識別性能Fig.12 Recognition performance of different algorithms for high rate convolutional codes

        圖11和圖12給出了三種方法對不同碼率卷積碼的性能對比。表2則給出了三種方法對不同碼率卷積碼的整體平均識別率。從上述圖表中可以看出,本文方法較同樣基于深度學(xué)習(xí)的DRN方法有較大的提升。而與LLR方法相比,本文方法對低碼率卷積碼的識別性能較好。但隨著卷積碼碼率的增加,本文方法與DRN方法的性能下降要快于LLR方法。對于高碼率卷積碼,本文方法的性能略低于LLR方法。

        這主要是深度學(xué)習(xí)方法和傳統(tǒng)方法的原理差異造成的。對于深度學(xué)習(xí)方法,提取的是碼字序列變化、數(shù)據(jù)分布的規(guī)律。當(dāng)碼率較低時,碼字空間中隨機的信息比特較少,神經(jīng)網(wǎng)絡(luò)能夠?qū)Υa字序列中存在的規(guī)律進(jìn)行提取。即使是在低信噪比條件下,輸入數(shù)據(jù)中仍以一定概率存在能夠反映碼字特征的片段。而此時,LLR方法的統(tǒng)計量受噪聲影響嚴(yán)重,已經(jīng)無法反映不同卷積碼之間的差異。因此,本文方法能夠在低信噪比條件下取得優(yōu)于LLR方法的識別效果。

        但隨著碼率的提高,編碼器變得更加復(fù)雜,碼字空間不斷擴大,碼字中各比特之間的約束關(guān)系增強,網(wǎng)絡(luò)模型難以直接從碼字序列中提取有效的特征。這也是現(xiàn)有基于深度學(xué)習(xí)的方法不能適應(yīng)高碼率卷積碼的主要原因。與DRN方法相比,本文方法通過對碼字矩陣的預(yù)處理,實現(xiàn)了編碼序列特征的提取,并采用特征融合的思路,有效提高了對高碼率卷積碼的識別性能。此時,通過矩陣變換得到的特征在識別中起著主導(dǎo)作用。此外,矩陣變換過程中不可避免地會產(chǎn)生誤碼擴散的問題,與LLR方法相比更易受到誤碼影響,這導(dǎo)致本文方法對高碼率卷積碼的識別性能較LLR方法仍有1dB的差距。

        5 結(jié)論

        文章從卷積碼的編碼過程出發(fā),對卷積碼碼字矩陣的性質(zhì)進(jìn)行了研究,利用一種新的矩陣變換算法對碼字序列進(jìn)行變換,使變換后的矩陣更適合作為神經(jīng)網(wǎng)絡(luò)的輸入。在此基礎(chǔ)上,提出了一個新的基于多模態(tài)數(shù)據(jù)聯(lián)合學(xué)習(xí)的卷積碼智能識別模型。模型首先利用解調(diào)軟信息對數(shù)據(jù)進(jìn)行篩選,再對篩選后得到的碼字矩陣進(jìn)行變換得到特征矩陣。然后,將特征矩陣和原始碼字矩陣分別作為網(wǎng)絡(luò)兩個支路的輸入,利用網(wǎng)絡(luò)完成特征的融合與識別。從仿真結(jié)果來看,本文方法的識別性能相比于已有基于深度學(xué)習(xí)的方法有較大的提升,彌補了當(dāng)前基于深度學(xué)習(xí)的識別方法無法適應(yīng)高碼率卷積碼的不足。與傳統(tǒng)方法相比,本文方法對低碼率卷積碼的識別性能更強,但對高碼率卷積碼的識別仍需要在后續(xù)工作中繼續(xù)進(jìn)行研究。

        猜你喜歡
        卷積碼碼率碼字
        卷積編碼的識別技術(shù)研究
        有限域上兩類卷積碼的構(gòu)造
        放 下
        揚子江詩刊(2018年1期)2018-11-13 12:23:04
        數(shù)據(jù)鏈系統(tǒng)中軟擴頻碼的優(yōu)選及應(yīng)用
        基于狀態(tài)機的視頻碼率自適應(yīng)算法
        放下
        揚子江(2018年1期)2018-01-26 02:04:06
        擴展卷積碼生成矩陣的統(tǒng)一表述*
        一種改進(jìn)的時不變LDPC卷積碼構(gòu)造方法*
        基于場景突變的碼率控制算法
        X264多線程下碼率控制算法的優(yōu)化
        計算機工程(2015年8期)2015-07-03 12:19:56
        亚洲综合在线观看一区二区三区 | 乱子轮熟睡1区| 国产精品18久久久久久麻辣| 久久婷婷五月综合97色一本一本| 中文字幕爆乳julia女教师| 人人妻人人添人人爽日韩欧美 | 亚洲成AV人片在一线观看| 手机在线播放成人av| 欧美丰满老熟妇aaaa片| 亚洲av无码不卡| 亚欧乱色束缚一区二区三区| 丰满巨臀人妻中文字幕| 日本熟妇美熟bbw| 欧美一区二区三区红桃小说| 97久久精品人人妻人人| 亚洲影院在线观看av| 日韩精品中文一区二区三区在线| 欧美xxxx色视频在线观看| 午夜亚洲AV成人无码国产| 激情免费视频一区二区三区| 日本三级片在线观看| 久久99久久99精品免观看 | 亚洲综合网中文字幕在线| 亚洲天堂av三区四区不卡| 亚洲av永久无码精品一区二区| 亚洲欧美国产日产综合不卡| 国产三级不卡在线观看视频| 欧美肥婆性猛交xxxx| 欧美三级乱人伦电影| 久久国产高潮流白浆免费观看 | 亚洲精品白浆高清久久久久久| 免费大片黄在线观看| 伊人亚洲综合影院首页| 亚洲精品1区2区在线观看| 欧洲一卡2卡三卡4卡免费网站| 精品久久久久久电影院| 国产黄色一区二区在线看| 亚洲av永久无码精品三区在线 | 国产成人精品人人做人人爽97 | 久久婷婷国产剧情内射白浆| 亚洲中文字幕av一区二区三区人 |