亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        改進(jìn)的循環(huán)神經(jīng)網(wǎng)絡(luò)極化碼BP譯碼算法

        2022-08-08 10:28:08鄧學(xué)璐彭大芹
        光通信研究 2022年4期
        關(guān)鍵詞:信息

        鄧學(xué)璐,彭大芹

        (重慶郵電大學(xué),通信與信息工程學(xué)院,重慶 400065)

        0 引 言

        極化碼是最開始由Arikan在文獻(xiàn)[1]中提出的一種能夠?qū)崿F(xiàn)接近信道容量的分組碼,是第五代移動(dòng)通信技術(shù)(5th Generation Mobile Communication Technology,5G)信道編碼方案。串行抵消(Successive Cancellation, SC)和置信傳播(Belief Propagation, BP)譯碼是極化碼中較普遍的兩種譯碼算法。BP譯碼因其并行譯碼過程,比SC[2-3]譯碼具有更高的吞吐量和更低的譯碼時(shí)延,但采用偏移最小和(Offset Min-Sum,OMS)近似[4]與早期停止準(zhǔn)則[5]來降低冗余迭代次數(shù)和運(yùn)算復(fù)雜度的BP譯碼算法在誤碼率(Bit Error Ratio, BER)性能上不如SC譯碼算法。

        文獻(xiàn)[6-9]中,BP譯碼性能優(yōu)化的一種方法是引入神經(jīng)網(wǎng)絡(luò)輔助BP譯碼過程。但上述文獻(xiàn)中提出的方法大部分隨著極化碼碼長和迭代次數(shù)的增加,左右信息更新運(yùn)算復(fù)雜度也大量增加,這阻礙了神經(jīng)網(wǎng)絡(luò)在實(shí)際通信系統(tǒng)中的應(yīng)用。因此,針對(duì)以上神經(jīng)網(wǎng)絡(luò)譯碼器存在的不足,受文獻(xiàn)[8]針對(duì)循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network, RNN)BP譯碼算法的優(yōu)化及文獻(xiàn)[10]針對(duì)極化碼軟信息連續(xù)消除 (Soft Successive Cancellation, SCAN) 譯碼算法所采用的simplified-SCAN算法的啟發(fā),本文提出了一種改進(jìn)左信息更新的RNN OMS近似BP (RNN-OMS-BP-Left,RNN-OMS-BP-L) 譯碼算法,采用新的左信息更新方式,減少一部分節(jié)點(diǎn)更新時(shí)的計(jì)算量和存儲(chǔ)開銷,并替換初始的RNN譯碼器,降低了BP算法的運(yùn)算復(fù)雜度和內(nèi)存占用,減少了迭代次數(shù)。

        1 極化碼編碼與BP譯碼

        1.1 極化碼

        圖1 極化碼信道合并與分裂

        極化碼編碼原理為:把N=2n(n=任意正整數(shù))極化碼中的K位信息比特放置在信息比特索引集合A的比特信道中,N-K位凍結(jié)比特則放置于集合Ac索引中,組成輸入信息序列uN={uA,uAc},式中:uA為信息比特;uAc為凍結(jié)比特。所以碼率為K/N的(N,K)極化碼xN可通過生成矩陣GN得到:

        1.2 極化碼的BP譯碼算法

        Arican在文獻(xiàn)[11]中提出,BP譯碼也可作為極化碼譯碼算法,并且可采用類似SC譯碼算法的連續(xù)消除規(guī)則[12]。極化碼的編碼結(jié)構(gòu)可直接轉(zhuǎn)換成因子圖。由n=log2N個(gè)階段及N×(n+1)個(gè)節(jié)點(diǎn)組成一個(gè)(8,4)極化碼的BP譯碼因子圖如圖2所示。

        圖2 極化碼BP譯碼算法因子圖

        由圖2(b)可得:

        式中,

        2 神經(jīng)網(wǎng)絡(luò)BP譯碼算法

        文獻(xiàn)[6]提出了基于深度神經(jīng)網(wǎng)絡(luò)(Deep Neural Network,DNN)的BP(DNN-BP)譯碼算法,在譯碼迭代過程中的消息更新因子圖中設(shè)置了可學(xué)習(xí)的參數(shù),即把式(2)替換為

        文獻(xiàn)[8]提出了基于RNN權(quán)重量化機(jī)制的OMS近似BP(RNN-OMS-BP)譯碼算法用于極化碼譯碼。受此啟發(fā),本文所提算法使用OMS近似算法[13]替代縮放因子最小和近似算法,式(3)被替換為

        式中,β為偏移量。

        式(7)迭代更新變?yōu)?/p>

        3 改進(jìn)的左信息更新RNN-OMS-BP譯碼算法

        文獻(xiàn)[8]中算法通過權(quán)重量化機(jī)制實(shí)現(xiàn)不同迭代次數(shù)之前的權(quán)值共享,解決了文獻(xiàn)[6]中算法乘法運(yùn)算和縮放因子存儲(chǔ)的問題。但該算法仍存在大量的加法和乘法運(yùn)算,且BER性能相較于DNN-BP算法有所降低。

        因此,本文提出了一種第2節(jié)描述的OMS替代乘法縮放因子的譯碼方法解決了乘法運(yùn)算問題,再根據(jù)改進(jìn)左信息更新的方法和RNN架構(gòu)提出改進(jìn)的RNN-OMS-BP-L譯碼算法,與文獻(xiàn)[8]相比,算法運(yùn)算復(fù)雜度和迭代次數(shù)均有所降低。

        3.1 改進(jìn)的左信息更新方法

        本文所提RNN-OMS-BP-L譯碼算法左信息更新的初始單位因子圖如圖3(a)所示。

        圖3 單位因子圖

        3.2 改進(jìn)左信息更新的RNN譯碼器

        本文基于3.1節(jié)改進(jìn)左信息更新方法進(jìn)而提出了改進(jìn)的RNN架構(gòu)代替了文獻(xiàn)[8]所采用的原始RNN架構(gòu)。圖4(a)所示為 (8,4)極化碼在神經(jīng)網(wǎng)絡(luò)中第t次迭代的完整信息迭代更新譯碼過程,其可看作圖2(a)極化碼BP譯碼展開形式的因子圖,共含3層:輸入層、隱藏層和輸出層。8個(gè)神經(jīng)計(jì)算單元組成輸入層;隱藏層對(duì)應(yīng)從左到右的右信息迭代更新過程和反方向的左信息迭代更新過程,分別占據(jù)5層隱藏層中的第2和3層神經(jīng)網(wǎng)絡(luò);最后的輸出層使用sigmoid激活函數(shù)來處理當(dāng)前層的上層更新信息,從而使神經(jīng)網(wǎng)絡(luò)譯碼器迭代更新得到的碼字估值歸一化。對(duì)于(N,K)極化碼,極化碼BP因子圖展開可得到每層都包含N個(gè)神經(jīng)計(jì)算單元的RNN譯碼器,其中右迭代信息和左迭代信息更新過程對(duì)應(yīng)第n-1層和n層隱藏層。

        圖4 改進(jìn)的RNN譯碼器

        圖4(b)所示為本文所提改進(jìn)的RNN相較于文獻(xiàn)[9]中原始RNN架構(gòu)的主要改進(jìn)。本文把原始的左信息更新神經(jīng)元分成兩部分,當(dāng)RNN架構(gòu)層數(shù)l≤2時(shí),使用神經(jīng)元a進(jìn)行信息更新計(jì)算;當(dāng)RNN架構(gòu)層數(shù)l>2時(shí),使用神經(jīng)元b進(jìn)行信息更新計(jì)算,此時(shí)式(11)可更新為

        3.3 RNN-OMS-BP-L譯碼算法流程

        神經(jīng)網(wǎng)絡(luò)譯碼器完成預(yù)置的T次迭代更新譯碼之后,使用圖4(a)輸出層的sigmoid神經(jīng)單元對(duì)LLR進(jìn)行比較判決,最后再使用交叉熵?fù)p失函數(shù)衡量改進(jìn)的RNN譯碼器實(shí)際輸出值和期望值的差距,并通過該差距判斷譯碼器的優(yōu)劣。交叉熵?fù)p失函數(shù)L(u,o)為

        式中:N為碼字長度;uj和oj分別為改進(jìn)左信息更新神經(jīng)網(wǎng)絡(luò)譯碼器的理想輸出值和實(shí)際輸出值?;谏鲜鲂」?jié)提出的改進(jìn)的左信息更新方法和RNN譯碼器得出的極化碼RNN-OMS-BP-L算法的具體流程如下:

        (1) 設(shè)置仿真參數(shù)(包括碼長N、碼率Rc、信噪比(Signal Noise Ratio,SNR)范圍、訓(xùn)練樣本數(shù)量batch_size和學(xué)習(xí)率η等),由式(12)生成在隨機(jī)生成高斯白噪聲加擾環(huán)境下已知的輸入輸出映射訓(xùn)練集和驗(yàn)證集。

        (2) 由式(4)和式(5)初始化LLR信息,所有非凍結(jié)比特的先驗(yàn)LLR信息設(shè)置為0,使用改進(jìn)RNN架構(gòu)通過式(12)進(jìn)行BP譯碼,神經(jīng)計(jì)算單元首先從右至左迭代更新每一列左信息,直到第1列,再從左至右迭代更新到最后一列,達(dá)到預(yù)置的迭代更新次數(shù)T。

        (3) 設(shè)置損失函數(shù)和優(yōu)化器,進(jìn)行訓(xùn)練和驗(yàn)證,選擇損失最小的最優(yōu)參數(shù)集。

        (4) 使用最優(yōu)參數(shù)集的譯碼器進(jìn)行測(cè)試,輸出生成的實(shí)際碼字序列,并與步驟(1)驗(yàn)證集中期望碼字序列對(duì)比得到損失函數(shù)值,最后計(jì)算出BER。

        4 仿真結(jié)果與分析

        在本節(jié)中,本文所提改進(jìn)的RNN譯碼器是在TensorFolw測(cè)試平臺(tái)上通過學(xué)習(xí)率為0.001的Adagrad優(yōu)化算法訓(xùn)練的。訓(xùn)練數(shù)據(jù)是在高斯白噪聲信道傳輸后的全零碼字,SNR范圍為1~5 dB。測(cè)試數(shù)據(jù)是隨機(jī)二進(jìn)制信息,該數(shù)據(jù)是通過極化編碼、二進(jìn)制相移鍵控(Binary Phase Shift Keying,BPSK)調(diào)制后在高斯白噪聲信道上傳輸?shù)玫降?。具體參數(shù)如表1所示。

        表1 仿真參數(shù)設(shè)置

        為了評(píng)估本文所提算法的性能,對(duì)該算法在不同迭代次數(shù)和不同碼長的情況下進(jìn)行了仿真模擬。首先模擬在碼長相同和碼率都為1/2時(shí),不同迭代次數(shù)下BP、RNN-OMS-BP和RNN-OMS-BP-L譯碼算法的BER性能,如圖5所示。

        圖5 不同迭代次數(shù)下3種譯碼算法BER性能對(duì)比(以(64,32)極化碼為例)

        由圖可知,傳統(tǒng)BP譯碼算法迭代40次可收斂,而RNN-OMS-BP-L和RNN-OMS-BP譯碼算法只需迭代5~8次即可收斂,且BER性能遠(yuǎn)優(yōu)于傳統(tǒng)BP譯碼算法。相較于原始RNN-OMS-BP譯碼算法,在相同BER性能條件下,本文所提RNN-OMS-BP-L譯碼算法減少了3次迭代次數(shù)。

        圖6 不同碼長下的3種算法BER性能對(duì)比

        第2個(gè)實(shí)驗(yàn)是對(duì)極化碼(64,32)、(128,64)和(256,128)3種不同碼長的DNN-BP、RNN-OMS-BP和RNN-OMS-BP-L譯碼算法BER性能進(jìn)行仿真對(duì)比,迭代次數(shù)均為5次。實(shí)驗(yàn)結(jié)果如圖6所示。由圖可知,RNN-OMS-BP-L譯碼算法在3種不同的碼長中,相較于RNN-OMS-BP和DNN-BP譯碼算法,BER幾乎不變,甚至隨著碼長的增加,碼長為256時(shí)在高SNR區(qū)域中極化碼BER有接近0.1 dB的增益。

        表2所示為以(64,32)極化碼為例的復(fù)雜度分析,列舉了在傳統(tǒng)BP譯碼算法迭代TBP=40次,DNN-BP、RNN-OMS-BP譯碼算法及本文所提RNN-OMS-BP-L譯碼算法迭代T=5次時(shí),分別在加法運(yùn)算及存儲(chǔ)空間占用兩個(gè)方面的運(yùn)算復(fù)雜度。

        表2 復(fù)雜度分析(以(64,32)極化碼為例)

        由表可知,相比于傳統(tǒng)BP譯碼算法,改進(jìn)的RNN-OMS-BP-L譯碼算法將加法運(yùn)算減少了81%以上;相比于DNN-BP譯碼算法,在相同迭代次數(shù)條件下,RNN-OMS-BP-L算法僅以6.25%的加法運(yùn)算為代價(jià)替換了全部乘法運(yùn)算,減少了76.9%的存儲(chǔ)空間;相比于RNN-OMS-BP譯碼算法,RNN-OMS-BP-L譯碼算法在相同BER性能條件下,不僅減少了3次迭代次數(shù),還減少了25%的加法運(yùn)算和1%的存儲(chǔ)空間。

        5 結(jié)束語

        本文所提RNN-OMS-BP-L譯碼算法主要是對(duì)信息更新方式的改進(jìn),提出了改進(jìn)的左信息方法和RNN架構(gòu)。通過改變左信息神經(jīng)計(jì)算單元來構(gòu)建新的RNN譯碼器。由仿真分析可知,改進(jìn)的左信息更新RNN譯碼方法在幾乎無性能損失的條件下,有著運(yùn)算復(fù)雜度和迭代次數(shù)的優(yōu)化,對(duì)于BP譯碼算法的硬件實(shí)現(xiàn)和實(shí)際應(yīng)用更加友好。接下來將以RNN-OMS-BP-L譯碼算法為基礎(chǔ)重點(diǎn)結(jié)合神經(jīng)網(wǎng)絡(luò)在翻轉(zhuǎn)集的應(yīng)用[14-15]方面進(jìn)行下一步研究。

        猜你喜歡
        信息
        訂閱信息
        中華手工(2017年2期)2017-06-06 23:00:31
        展會(huì)信息
        信息超市
        展會(huì)信息
        展會(huì)信息
        展會(huì)信息
        展會(huì)信息
        展會(huì)信息
        信息
        健康信息
        祝您健康(1987年3期)1987-12-30 09:52:32
        日韩在线精品免费观看| 亚洲国产毛片| 久久国产精品免费一区六九堂| 国产自拍精品在线视频| 蜜桃传媒免费在线播放| 成人综合网站| 99久久久久国产| 国产一级一片内射在线| 亚洲中文字幕在线综合| 日韩人妻无码精品久久| 无码熟妇人妻AV影音先锋| 日韩色久悠悠婷婷综合| 在线观看免费日韩精品| 久久人人爽人人爽人人片av东京热 | 精品一区二区亚洲一二三区| 国产午夜视频在线观看免费| 久久精品免费观看国产| 亚洲国产精品嫩草影院久久| 色婷婷亚洲一区二区在线| 国产成人精品无码免费看| 图片区小说区激情区偷拍区| 亚洲国产精品线观看不卡| 久久中文字幕国产精品| 国产丝袜美女| 亚洲av有码在线天堂| 亚洲一区二区三区中文视频| 在线观看中文字幕二区| av无码人妻中文字幕| 亚洲女同精品一区二区久久| 日韩国产自拍视频在线观看| 亚洲精品无码专区在线在线播放| 亚洲精品久久久久久| 精品久久免费一区二区三区四区| 亚洲一区精品在线中文字幕| 小荡货奶真大水真多紧视频| 久久免费视亚洲无码视频| 日本免费一区二区在线| 亚洲av永久无码天堂网小说区| 激情综合欧美| 亚洲一区二区一区二区免费视频| 色噜噜亚洲男人的天堂|