亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        OFDM系統(tǒng)中基于生成對(duì)抗網(wǎng)絡(luò)的信道估計(jì)方法

        2025-03-18 00:00:00康佳黃紫涵王學(xué)良王棟城陳瑞
        物聯(lián)網(wǎng)技術(shù) 2025年6期
        關(guān)鍵詞:深度學(xué)習(xí)

        摘 要:傳統(tǒng)基于導(dǎo)頻的信道估計(jì)精度提高需要插入更多導(dǎo)頻,而基于數(shù)據(jù)驅(qū)動(dòng)的估計(jì)方法需要學(xué)習(xí)大量的參數(shù)導(dǎo)致訓(xùn)練時(shí)間過(guò)長(zhǎng),提出一種基于超分辨率生成對(duì)抗網(wǎng)絡(luò)的信道估計(jì)方法,將衰落信道的時(shí)間頻率響應(yīng)映射到圖像二維空間,在正交頻分復(fù)用(OFDM)系統(tǒng)下使用最小二乘法估計(jì)導(dǎo)頻信息,再基于超分辨率生成對(duì)抗網(wǎng)絡(luò)構(gòu)造內(nèi)插器,將傳統(tǒng)的插值過(guò)程轉(zhuǎn)化為超分辨率重建,利用圖像的超分辨率重建方法解決信道估計(jì)問(wèn)題。OFDM系統(tǒng)中的仿真結(jié)果表明,提出的方法與傳統(tǒng)的插值算法和典型的超分辨率深度學(xué)習(xí)方法相比,估計(jì)精度有所提升。

        關(guān)鍵詞:生成對(duì)抗網(wǎng)絡(luò);超分辨率;信道估計(jì);無(wú)線(xiàn)通信;正交頻分復(fù)用;深度學(xué)習(xí)

        中圖分類(lèi)號(hào):TP393;TN929.53 文獻(xiàn)標(biāo)識(shí)碼:A 文章編號(hào):2095-1302(2025)06-00-06

        DOI:10.16667/j.issn.2095-1302.2025.06.014

        0 引 言

        隨著現(xiàn)代社會(huì)與科技的發(fā)展,無(wú)線(xiàn)通信在現(xiàn)代通信中占據(jù)更高的比例。與傳統(tǒng)的有線(xiàn)通信相比,無(wú)線(xiàn)通信以電磁波為介質(zhì),可直接在空間內(nèi)進(jìn)行傳輸,正因?yàn)檫@一特點(diǎn),無(wú)線(xiàn)信道更加復(fù)雜,其多徑傳輸會(huì)造成頻率選擇性衰落,多普勒頻移會(huì)造成時(shí)間選擇性衰落,故無(wú)線(xiàn)信道同時(shí)具有頻率和時(shí)間選擇性衰落。因此,無(wú)線(xiàn)信道的信道估計(jì)顯得尤為重要,其準(zhǔn)確程度將影響整個(gè)通信系統(tǒng)的傳輸質(zhì)量[1]。

        傳統(tǒng)的信道估計(jì)方法根據(jù)是否需要發(fā)送導(dǎo)頻信號(hào)可以分為三類(lèi),即盲、半盲和非盲信道估計(jì)方法[2],其中盲信道估計(jì)方法無(wú)需導(dǎo)頻信號(hào),非盲信道估計(jì)方法即基于導(dǎo)頻或訓(xùn)練序列的信道估計(jì),半盲信道估計(jì)方法則混合了以上兩種方法。盲和半盲信道估計(jì)方法計(jì)算復(fù)雜度較高,本文關(guān)注復(fù)雜度最低、應(yīng)用最廣泛的非盲信道估計(jì)方法,即基于導(dǎo)頻的信道估計(jì)算法[3]?;趯?dǎo)頻的信道估計(jì)算法有最小二乘(Least Squares, LS)、最小均方誤差(Minimum Mean Square Error, MMSE)等。LS算法雖然計(jì)算簡(jiǎn)單,但對(duì)衰落信道中的噪聲干擾卻無(wú)能為力;MMSE算法需要信道的先驗(yàn)信息,存在計(jì)算復(fù)雜度高、硬件難以實(shí)現(xiàn)等缺點(diǎn)[4]。此外,有研究者提出信道估計(jì)的精度受益于導(dǎo)頻數(shù)量的增加[5],當(dāng)信道狀況變得復(fù)雜時(shí),LS和MMSE均需要插入更多的導(dǎo)頻以確保估計(jì)精度,這使得傳統(tǒng)無(wú)線(xiàn)通信系統(tǒng)的信道估計(jì)在通信需求高速增長(zhǎng)的今日面臨新的挑戰(zhàn)。

        隨著深度學(xué)習(xí)理論的廣泛應(yīng)用,研究者們將深度學(xué)習(xí)與無(wú)線(xiàn)通信系統(tǒng)相結(jié)合,發(fā)展了智能無(wú)線(xiàn)通信系統(tǒng)[6]。根據(jù)深度學(xué)習(xí)應(yīng)用的方式,智能無(wú)線(xiàn)通信系統(tǒng)分為模型驅(qū)動(dòng)與數(shù)據(jù)驅(qū)動(dòng)兩種。其中,模型驅(qū)動(dòng)將傳統(tǒng)通信算法與深度學(xué)習(xí)方法相結(jié)合,對(duì)原有模型中的子模塊進(jìn)行優(yōu)化升級(jí)。如文獻(xiàn)[7]提出使用自動(dòng)編碼器網(wǎng)絡(luò)學(xué)習(xí)信道特征,還原LS估計(jì)后的信道狀態(tài)信息(Channel State Information, CSI),以提高估計(jì)精度。文獻(xiàn)[8]在傳統(tǒng)通信算法的基礎(chǔ)上提出了一種新的接收機(jī)結(jié)構(gòu)ComNet,此接收機(jī)應(yīng)用深度神經(jīng)網(wǎng)絡(luò)(Deep Neural Network, DNN)取代了傳統(tǒng)的正交頻分復(fù)用(Orthogonal Frequency-Division Multiplexing, OFDM)系統(tǒng)的接收機(jī),使得信道估計(jì)更加準(zhǔn)確。與模型驅(qū)動(dòng)不同,數(shù)據(jù)驅(qū)動(dòng)是完全基于現(xiàn)有的大量數(shù)據(jù)生成新的最佳模型,即利用神經(jīng)網(wǎng)絡(luò)代替整個(gè)通信系統(tǒng)。文獻(xiàn)[9]提出了一種在OFDM系統(tǒng)中聯(lián)合信道估計(jì)與信號(hào)檢測(cè)的方法,其采用了五層全連接的深度神經(jīng)網(wǎng)絡(luò)(DNN),與傳統(tǒng)信道估計(jì)方法相比,此方法將整個(gè)信道看作“黑盒”,使用DNN隱式推斷信道信息而無(wú)需顯式地估計(jì)CSI。在文獻(xiàn)[10]中,作者基于深度學(xué)習(xí)算法提出了滑動(dòng)雙向門(mén)控循環(huán)單元信道估計(jì)器來(lái)學(xué)習(xí)時(shí)變?nèi)鹄プ冃诺?,將滑?dòng)窗口添加到循環(huán)神經(jīng)網(wǎng)絡(luò)中,進(jìn)一步提高系統(tǒng)信道估計(jì)的性能。總的來(lái)說(shuō),將深度學(xué)習(xí)方法應(yīng)用于無(wú)線(xiàn)通信系統(tǒng)具有一定的優(yōu)勢(shì),且與數(shù)據(jù)驅(qū)動(dòng)方式相比,模型驅(qū)動(dòng)保留了通信系統(tǒng)的基本框架,減少了深度學(xué)習(xí)過(guò)程中要學(xué)習(xí)的參數(shù)數(shù)量,降低了網(wǎng)絡(luò)訓(xùn)練的時(shí)間需求。

        近年來(lái),鑒于超分辨率技術(shù)在計(jì)算機(jī)視覺(jué)領(lǐng)域展現(xiàn)出了極大優(yōu)勢(shì),許多研究者將信道估計(jì)問(wèn)題轉(zhuǎn)化為超分辨率恢復(fù)的問(wèn)題。文獻(xiàn)[11]于2019年首先引入超分辨率網(wǎng)絡(luò)來(lái)解決信道估計(jì)問(wèn)題,提出了一種基于超分辨率深度學(xué)習(xí)的信道估計(jì)方法。將衰落信道的時(shí)頻響應(yīng)視為二維圖像,將圖像處理與無(wú)線(xiàn)通信的信道估計(jì)相聯(lián)系,實(shí)現(xiàn)了優(yōu)于傳統(tǒng)信道估計(jì)算法的估計(jì)性能。生成對(duì)抗網(wǎng)絡(luò)(Generative Adversarial Network, GAN)是近年來(lái)新興的具有良好發(fā)展前景的深度學(xué)習(xí)算法,其已經(jīng)在多個(gè)領(lǐng)域展現(xiàn)出強(qiáng)大的數(shù)據(jù)學(xué)習(xí)能力。因此,本文基于超分辨率生成對(duì)抗網(wǎng)絡(luò)(Super-Resolution Generative Adversarial Networks, SRGAN),提出了SRGAN模型驅(qū)動(dòng)的信道估計(jì)模型,在OFDM系統(tǒng)下使用LS估計(jì)導(dǎo)頻信息,再基于SRGAN構(gòu)造內(nèi)插器,將傳統(tǒng)的插值過(guò)程轉(zhuǎn)化為超分辨率重建,最終進(jìn)行仿真實(shí)驗(yàn)以驗(yàn)證結(jié)果。

        1 系統(tǒng)框架

        1.1 OFDM系統(tǒng)

        OFDM由頻分復(fù)用發(fā)展而來(lái),是一種多載波調(diào)制技術(shù),基于子載波復(fù)用的思想,將待傳輸?shù)母咚俅袛?shù)據(jù)流經(jīng)過(guò)串并轉(zhuǎn)換后分解為多個(gè)低速并行子數(shù)據(jù)流,各個(gè)子載波之間相互正交,子信道頻譜互相重疊,極大提高了頻譜利用率。

        1.1.1 OFDM系統(tǒng)框架

        OFDM系統(tǒng)的基本框架如圖1所示。

        發(fā)送端的比特流經(jīng)過(guò)正交幅度調(diào)制(Quadrature Amplitude Modulation, QAM)或相移鍵控(Phase Shift Keying, PSK)之后,將高速串行流轉(zhuǎn)換為低速并行流以便數(shù)據(jù)總線(xiàn)的后續(xù)傳輸,接著插入導(dǎo)頻信號(hào)以便接收機(jī)提取相應(yīng)導(dǎo)頻信息進(jìn)行信道估計(jì)與信道均衡。通過(guò)逆快速傅里葉變換生成具有正交特性的子載波,同時(shí)將頻域信號(hào)轉(zhuǎn)化為時(shí)域信號(hào)。接著對(duì)時(shí)域信號(hào)(OFDM符號(hào))添加循環(huán)前綴(Cyclic Prefix, CP)以減少子載波間干擾(Inter Carrier Interference, ICI)和符號(hào)間干擾(Inter Symbol Interference, ISI),加窗后再進(jìn)行并串轉(zhuǎn)換,最終經(jīng)過(guò)數(shù)模轉(zhuǎn)換和射頻發(fā)射進(jìn)入無(wú)線(xiàn)信道。在接收端,經(jīng)過(guò)快速傅里葉變換之后,提取導(dǎo)頻信息進(jìn)行信道估計(jì),獲取完整的信道響應(yīng),再根據(jù)估計(jì)結(jié)果進(jìn)行信道均衡工作,提高通信系統(tǒng)的傳輸性能,消除碼間串?dāng)_進(jìn)而提高接收信號(hào)的質(zhì)量。最終經(jīng)過(guò)并串轉(zhuǎn)換和解調(diào)得到原始的比特流。

        在該系統(tǒng)下,第i個(gè)OFDM符號(hào)的復(fù)等效基帶信號(hào)xi(t)的表達(dá)式為:

        式中:NS為子載波的長(zhǎng)度;fm為第m個(gè)子載波的頻率;Tsym是一個(gè)符號(hào)的長(zhǎng)度。

        接收到的OFDM符號(hào)yi(t)可表示為:

        式中:xi(t)為輸入比特流;hi(t)為信道脈沖響應(yīng);wi(t)為加性高斯白噪聲(Additive White Gaussian Noise, AWGN)。

        1.1.2 導(dǎo)頻的選擇

        在基于導(dǎo)頻的信道估計(jì)算法中,在傳輸?shù)臄?shù)據(jù)符號(hào)中插入導(dǎo)頻符號(hào)輔助估計(jì),導(dǎo)頻的插入會(huì)影響信道估計(jì)的性能,但具體取決于導(dǎo)頻符號(hào)的位置、功率和數(shù)量[12]。導(dǎo)頻數(shù)量的增加會(huì)提升信道估計(jì)的性能,但由于導(dǎo)頻并不傳輸真正的通信數(shù)據(jù),所以應(yīng)該在盡可能少的導(dǎo)頻數(shù)量下提升信道性能,避免信道資源的浪費(fèi)[13]。根據(jù)不同導(dǎo)頻的排列方式,導(dǎo)頻排列有塊狀、梳狀和格狀三種,如圖2所示。

        塊狀導(dǎo)頻結(jié)構(gòu)是導(dǎo)頻在時(shí)間上周期性地分配給整個(gè)OFDM符號(hào),即這個(gè)符號(hào)的所有子載波都承載了導(dǎo)頻信號(hào)。在這種導(dǎo)頻分布結(jié)構(gòu)下,頻率體現(xiàn)出連續(xù)性,可以有效對(duì)抗信道的頻率選擇性衰落,適用于慢衰落信道。梳狀導(dǎo)頻結(jié)構(gòu)在頻率上周期性地分配給每個(gè)OFDM符號(hào)個(gè)別子載波,其他用于承載數(shù)據(jù)的子載波需要通過(guò)插值算法在頻域插值得到相應(yīng)的信道響應(yīng)。在此分布模式下,系統(tǒng)對(duì)頻率選擇性衰落較敏感,適用于快衰落信道。格狀導(dǎo)頻結(jié)構(gòu)的導(dǎo)頻在時(shí)域和頻域上均是離散的,整體上在時(shí)頻網(wǎng)絡(luò)中呈交錯(cuò)分布,其優(yōu)勢(shì)在于導(dǎo)頻數(shù)量少,提升了有效數(shù)據(jù)的傳輸率。

        在頻域中,導(dǎo)頻位置處的接收信號(hào)可以表示為:

        式中:Wp為信道噪聲;Yp為導(dǎo)頻處的接收信道矩陣;Xp為導(dǎo)頻處的發(fā)射信道矩陣;Hp為信道頻率響應(yīng)。

        若不考慮噪聲影響,則信道頻率響應(yīng)可表示為:

        本文選擇格狀導(dǎo)頻結(jié)構(gòu)進(jìn)行信道估計(jì)分析,導(dǎo)頻符號(hào)的排列需要同時(shí)滿(mǎn)足式(5)和式(6):

        式中:fDoppler為多普勒擴(kuò)展;σmax為最大時(shí)延擴(kuò)展。

        1.2 基于SRGAN的信道估計(jì)框架

        傳統(tǒng)的基于導(dǎo)頻的信道估計(jì)方法,先估計(jì)出導(dǎo)頻處的信道信息后,再利用各種插值算法恢復(fù)原始的信道狀態(tài)信息,完成信道估計(jì)。這一插值過(guò)程與計(jì)算機(jī)視覺(jué)領(lǐng)域中的超分辨率重建過(guò)程有著相似之處。假設(shè)將導(dǎo)頻位置經(jīng)LS信道估計(jì)得到的信道響應(yīng)看作攜帶噪聲的低分辨率信道響應(yīng)圖像,所有位置的信道響應(yīng)看作高分辨率的完整信道響應(yīng)圖像,則信道估計(jì)過(guò)程便可類(lèi)比為超分辨率重建過(guò)程?,F(xiàn)有的圖像超分辨率根據(jù)算法的原理可以分為三類(lèi),分別是基于插值的方法、基于重構(gòu)的方法以及基于深度學(xué)習(xí)的方法。深度學(xué)習(xí)方法可以恢復(fù)出細(xì)致的圖片信息,重建質(zhì)量高,是目前三種方法中效果最好的[14],因此本文選擇生成對(duì)抗網(wǎng)絡(luò)的深度學(xué)習(xí)方法進(jìn)行超分辨率重建,具體框架如圖3所示。

        利用SRGAN網(wǎng)絡(luò)進(jìn)行信道估計(jì)時(shí)可分為離線(xiàn)訓(xùn)練和在線(xiàn)估計(jì)2個(gè)環(huán)節(jié)。

        (1)離線(xiàn)訓(xùn)練環(huán)節(jié)中,首先利用LS估計(jì)算法獲取導(dǎo)頻處的信道增益矩陣,對(duì)其進(jìn)行數(shù)據(jù)預(yù)處理后,送入生成器中進(jìn)行超分辨率重建過(guò)程,得到與理想信道增益矩陣H相同大小和維度的高分辨率矩陣HSR。再將理想信道增益矩陣H與高分辨率矩陣HSR送入判別器中進(jìn)行判斷,判斷輸入高分辨率圖像的真?zhèn)?,同時(shí)通過(guò)反饋過(guò)程更新生成器和判別器,直至最后判別器無(wú)法區(qū)分H和HSR,最終完成整個(gè)訓(xùn)練過(guò)程。

        (2)在線(xiàn)估計(jì)環(huán)節(jié)中,將訓(xùn)練完成后的生成器權(quán)重載入生成器模型,同樣先利用LS估計(jì)獲取導(dǎo)頻處的信道增益矩陣,再將導(dǎo)頻處信道增益矩陣輸入加載權(quán)重后的生成器G*中,便得到完整的信道增益矩陣,即可完成對(duì)OFDM信號(hào)的信道估計(jì),再經(jīng)過(guò)信道均衡和解調(diào)后,便能恢復(fù)出輸入的數(shù)據(jù)。

        2 SRGAN信道估計(jì)方法

        2.1 生成網(wǎng)絡(luò)

        由于生成對(duì)抗網(wǎng)絡(luò)無(wú)法處理復(fù)數(shù),所以在數(shù)據(jù)預(yù)處理時(shí)將經(jīng)過(guò)LS初步估計(jì)的信道矩陣進(jìn)行實(shí)虛分離,得到雙通道數(shù)據(jù)[15]。分離得到虛部矩陣Q()和實(shí)部矩陣I(),將兩者分別送入網(wǎng)絡(luò)進(jìn)行超分辨率重建。生成網(wǎng)絡(luò)的具體結(jié)構(gòu)如圖4所示。

        從圖4可以看出,生成器的結(jié)構(gòu)分為低特征提取層、高特征提取層(殘差網(wǎng)絡(luò)層)、反卷積層和最后的卷積重建層。在低特征提取層,使用k9n64s1(64個(gè)9×9,步長(zhǎng)為1的卷積核)的卷積層對(duì)實(shí)虛分離后的導(dǎo)頻估計(jì)值進(jìn)行卷積運(yùn)算,接著通過(guò)激活函數(shù)參數(shù)化線(xiàn)性整流單元(Parametric ReLU, PReLU)。在高特征提取層中,經(jīng)過(guò)16個(gè)卷積層為k3n64s1的殘差塊,殘差網(wǎng)絡(luò)中的跳躍連接可以緩解網(wǎng)絡(luò)深度不斷增加而引起的網(wǎng)絡(luò)模型退化,在降低訓(xùn)練難度的同時(shí)提高了整體網(wǎng)絡(luò)的學(xué)習(xí)能力。每個(gè)殘差塊由卷積層、批量歸一化層(Batch Normalization, BN)、激活函數(shù)層、卷積層、BN層組成。

        在反卷積層中,經(jīng)過(guò)大小為k3n256s1的卷積層和亞像素卷積層(Subpixel Convolution Layers)實(shí)現(xiàn)分辨率的提升。最終通過(guò)一個(gè)k9n1s1卷積層將特征圖重建為2維矩陣形式,即輸出信道響應(yīng)重建結(jié)果。

        2.2 判別網(wǎng)絡(luò)

        判別網(wǎng)絡(luò)主要由7層普通的卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks, CNN)構(gòu)成,其卷積核大小為3×3,步長(zhǎng)為1,個(gè)數(shù)分別為64、128、128、256、256、512、512。激活函數(shù)使用了帶泄露的ReLU(Leaky ReLU)以防止負(fù)性輸出的壞死。判別網(wǎng)絡(luò)結(jié)構(gòu)如圖5所示。

        2.3 損失函數(shù)

        在神經(jīng)網(wǎng)絡(luò)的訓(xùn)練過(guò)程中,不同的損失函數(shù)會(huì)對(duì)參數(shù)的訓(xùn)練結(jié)果產(chǎn)生影響,因此,損失函數(shù)的選擇至關(guān)重要。本文所提的超分辨率生成對(duì)抗網(wǎng)絡(luò)的總體損失函數(shù)由均方誤差損失LSRMSE、對(duì)抗損失LSRGen和全變分損失LTV三者共同表示,具體公式如下:

        文獻(xiàn)[16]中使用的內(nèi)容損失是將生成器生成的高分辨率圖像和真實(shí)的高分辨率圖像先送入VGG19中進(jìn)行特征提取,再對(duì)提取到的特征使用MSE判定損失,即綜合了VGG與MSE。VGG模型是一種被廣泛應(yīng)用的圖像識(shí)別網(wǎng)絡(luò),可以從大量圖像中完成特征提取并準(zhǔn)確分類(lèi),但由于信道矩陣與自然圖像存在較大差異,本文僅采用均方誤差損失LSRMSE作為內(nèi)容損失,內(nèi)容損失函數(shù)為:

        式中:Nf和Ns分別表示沿子載波軸和OFDM符號(hào)軸的符號(hào)數(shù);表示理想信道矩陣H和生成的信道矩陣HSR間的像素?fù)p失。

        對(duì)抗損失函數(shù)為:

        式中:ILR為低分辨率圖像,即經(jīng)過(guò)LS初步估計(jì)得到的導(dǎo)頻信道響應(yīng)矩陣;N為訓(xùn)練集中信道矩陣的數(shù)量。

        傳統(tǒng)的LS信道估計(jì)算法實(shí)現(xiàn)較簡(jiǎn)單,計(jì)算復(fù)雜度低,但其在信道估計(jì)中忽略了信道噪聲的影響,文獻(xiàn)[16]中加入了基于全變分范數(shù)的正則化損失以抑制生成圖像的噪聲,防止圖像過(guò)于像素化。本文引入全變分損失LTV以減少信道估計(jì)過(guò)程中噪聲的影響,全變分損失函數(shù)為:

        式中:i和j分別表示OFDM幀中行和列的序號(hào)。

        3 模型訓(xùn)練與仿真分析

        3.1 網(wǎng)絡(luò)訓(xùn)練

        采用上文所介紹的感知損失函數(shù)來(lái)訓(xùn)練生成對(duì)抗網(wǎng)絡(luò)中的生成網(wǎng)絡(luò),最終獲得一個(gè)以低分辨率信道響應(yīng)矩陣作為輸入,可恢復(fù)重建的高分辨率信道響應(yīng)矩陣HSR:

        判別器通過(guò)解決以下對(duì)抗性問(wèn)題被訓(xùn)練為盡可能區(qū)分真假信道響應(yīng)的模型:

        式中:GθG是由θG參數(shù)化的前饋卷積神經(jīng)網(wǎng)絡(luò);DθD是由θD參數(shù)化的判別器;θG和θD分別表示生成網(wǎng)絡(luò)和對(duì)抗網(wǎng)絡(luò)中的網(wǎng)絡(luò)參數(shù)。

        3.2 仿真分析

        為了驗(yàn)證SRGAN信道估計(jì)方法的有效性,采用MATLAB與Python進(jìn)行仿真實(shí)驗(yàn)分析。其中,OFDM信道的訓(xùn)練數(shù)據(jù)與測(cè)試數(shù)據(jù)在MATLAB2020a中產(chǎn)生,SRGAN網(wǎng)絡(luò)訓(xùn)練在Pycharm平臺(tái)上完成。

        OFDM系統(tǒng)的參數(shù)設(shè)置見(jiàn)表1。信噪比范圍為0~30 dB,步長(zhǎng)為5 dB。利用MATLAB產(chǎn)生3 000個(gè)信道樣本,其中2 000個(gè)樣本用于訓(xùn)練,500個(gè)樣本用于驗(yàn)證,剩余的500個(gè)樣本用于測(cè)試。生成網(wǎng)絡(luò)訓(xùn)練的批量大小為32,每個(gè)信噪比下訓(xùn)練次數(shù)epoch為2 000,初始學(xué)習(xí)率為10-5,每更新epoch/2次后,學(xué)習(xí)率設(shè)置為初始學(xué)習(xí)率的1/10,并選擇Adam作為優(yōu)化器。全變分損失函數(shù)的系數(shù)LTV設(shè)置為10-9。

        采用均方誤差(Mean Square Error, MSE)作為評(píng)價(jià)指標(biāo)。MSE用于衡量重構(gòu)值與真實(shí)值之間的差距,MSE的值越小,說(shuō)明重構(gòu)性越好。將本文所提算法與兩類(lèi)常見(jiàn)的插值算法以及典型的SR深度學(xué)習(xí)網(wǎng)絡(luò)SRCNN進(jìn)行均方差的對(duì)比分析。MSE的表達(dá)式如下:

        圖6給出了當(dāng)導(dǎo)頻間隔為4時(shí),不同信道估計(jì)算法的MSE在不同信噪比下的結(jié)果。

        由圖6可知,隨著信噪比的增加,四種信道估計(jì)方法的估計(jì)精度均有所提升。當(dāng)信噪比達(dá)到20 dB以上時(shí),線(xiàn)性插值算法與高斯插值算法的估計(jì)精度不再有明顯提升,下降趨勢(shì)趨于平緩??傮w來(lái)看,線(xiàn)性插值的估計(jì)準(zhǔn)確性最差,高斯插值算法降低了算法復(fù)雜度提高了估計(jì)精度;基于超分辨率的信道估計(jì)方法優(yōu)于傳統(tǒng)的插值算法,本文提出的基于超分辨率生成對(duì)抗網(wǎng)絡(luò)的信道估計(jì)方法性能最優(yōu)。

        4 結(jié) 語(yǔ)

        未來(lái),無(wú)線(xiàn)通信將進(jìn)入6G時(shí)代,深度學(xué)習(xí)也將繼續(xù)發(fā)展。生成對(duì)抗網(wǎng)絡(luò)作為深度學(xué)習(xí)中的一股新勢(shì)力必然會(huì)蓬勃發(fā)展。無(wú)線(xiàn)通信與深度學(xué)習(xí)的結(jié)合將促進(jìn)6G智能化的發(fā)展,使人類(lèi)社會(huì)的發(fā)展更上一層樓。本文以深度學(xué)習(xí)中的生成對(duì)抗網(wǎng)絡(luò)為主要手段,為無(wú)線(xiàn)通信系統(tǒng)的信道估計(jì)提供了一種新的方案,最終通過(guò)仿真實(shí)驗(yàn)驗(yàn)證了其可行性。

        注:本文通訊作者為陳瑞。

        參考文獻(xiàn)

        [1] ZHAO L L, ZHANG P, DONG Q C, et al. Research of the channel estimation in wireless communication systems [J]. ITM web of conferences, 2019, 25: 01002.

        [2]李子,蔡躍明,徐友云. OFDM 系統(tǒng)中盲、半盲以及非盲信道估計(jì)方法的 Cramér-Rao界[J].通信學(xué)報(bào),2005(7):27-32.

        [3]趙嗣強(qiáng).基于超分辨網(wǎng)絡(luò)的OFDM系統(tǒng)信道估計(jì)算法研究[D].合肥:中國(guó)科學(xué)技術(shù)大學(xué),2022.

        [4]金龍.基于深度學(xué)習(xí)的OFDM系統(tǒng)信道估計(jì)方法研究[D].鎮(zhèn)江:江蘇科技大學(xué),2021.

        [5] SENGIJPTA S K. Fuundamentals of statistical signal processing: estimation theory [J]. Technometrics, 1995, 37(4): 465-466.

        [6] THAKKAR K, GOYAL A, BHATTACHARYYA B. Deep learning and channel estimation [A]// 2020 6th International Conference on Advanced Computing and Communication Systems (ICACCS) [C].Piscataway, NJ: IEEE, 2020: 745-751.

        [7] HAN S, OH Y, SONG C. A deep learning based channel estimation scheme for IEEE 802.11p systems [C]// ICC 2019-2019 IEEE International Conference on Communications (ICC). [S.l.]: IEEE, 2019: 1-6.

        [8] GAO X X, JIN S, WEN C K, et al. ComNet: combination of deep learning and expert knowledge in OFDM receivers [J]. IEEE communications letters, 2018, 22(12): 2627-2630.

        [9] YE H, LI G Y, JUANG B H. Power of deep learning for channel estimation and signal detection in OFDM systems [J]. IEEE wireless communications letters, 2018, 7(1): 114-117.

        [10] BAI Q, WANG J, ZHANG Y, et al, Deep learning-based channel estimation algorithm over time selective fading channels [J]. IEEE transactions on cognitive communications and networking, 2020, 6(1): 125-134.

        [11] SOLTANI M, POURAHMADI V, MIRZAEI A, et al. Deep learning-based channel estimation [J]. IEEE communications letters, 2019, 99: 1.

        [12] TAHERI Z, ARDEBILIPOUR M, MOHAMMADI M A. Channel estimation in time and frequency domain in OFDM systems [C]// 2009 International Conference on Wireless Networks and Information Systems. [S.l.]: IEEE, 2009: 209-212.

        [13]阮慧源.基于深度學(xué)習(xí)的信道估計(jì)研究[D].北京:北京郵電大學(xué),2023.

        [14]茹欣.基于深度學(xué)習(xí)的OFDM信道估計(jì)技術(shù)研究[D].南京:南京郵電大學(xué),2021.

        [15]蔣奕采.太赫茲M(mǎn)IMO系統(tǒng)中基于生成對(duì)抗網(wǎng)絡(luò)的信道估計(jì)方案研究與設(shè)計(jì)[D].南京:南京郵電大學(xué),2023.

        [16] LEDIG C, THEIS L, HUSZAR F, et al. Photo-realistic single image super-resolution using a generative adversarial network [J]. IEEE computer society, 2016: 105-114.

        作者簡(jiǎn)介:康 佳(2003—),女,研究方向?yàn)闊o(wú)線(xiàn)通信。

        黃紫涵(2001—),女,研究方向?yàn)樯疃葘W(xué)習(xí)。

        王學(xué)良(2003—),男,研究方向?yàn)樾诺拦烙?jì)。

        王棟城(2002—),男,研究方向?yàn)橛?jì)算機(jī)視覺(jué)。

        陳 瑞(1972—),女,博士,教授,研究方向?yàn)闊o(wú)線(xiàn)通信、視頻信號(hào)處理、多媒體通信。

        收稿日期:2024-04-08 修回日期:2024-05-14

        基金項(xiàng)目:江蘇省大學(xué)生實(shí)踐創(chuàng)新訓(xùn)練計(jì)劃項(xiàng)目(2023112760 52Y);江蘇省產(chǎn)學(xué)研合作項(xiàng)目(BY2021070);江蘇省未來(lái)網(wǎng)絡(luò)科研基金項(xiàng)目(FNSRF2021YB26);南京工程學(xué)院博士基金(ZKJ202002)

        猜你喜歡
        深度學(xué)習(xí)
        從合坐走向合學(xué):淺議新學(xué)習(xí)模式的構(gòu)建
        面向大數(shù)據(jù)遠(yuǎn)程開(kāi)放實(shí)驗(yàn)平臺(tái)構(gòu)建研究
        基于自動(dòng)智能分類(lèi)器的圖書(shū)館亂架圖書(shū)檢測(cè)
        搭建深度學(xué)習(xí)的三級(jí)階梯
        有體驗(yàn)的學(xué)習(xí)才是有意義的學(xué)習(xí)
        電子商務(wù)中基于深度學(xué)習(xí)的虛假交易識(shí)別研究
        利用網(wǎng)絡(luò)技術(shù)促進(jìn)學(xué)生深度學(xué)習(xí)的幾大策略
        考試周刊(2016年94期)2016-12-12 12:15:04
        MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場(chǎng)域建構(gòu)
        大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
        深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
        亚洲一区二区三区新视频| 久久精品国产亚洲av蜜点| 婷婷色综合视频在线观看| 欧美一区二区三区激情| 国产高清无码在线| 久久精品国产亚洲av高清蜜臀| 国产一区二区黄色网页| 超碰国产精品久久国产精品99 | 女优av一区二区在线观看| 欧美性猛交xxxx免费看蜜桃| 色偷偷av亚洲男人的天堂| 亚洲欧美日韩高清一区二区三区| 亚洲AV秘 无码一区二区久久| 日本一区二区三区丰满熟女| 91在线视频在线视频| 免费无码又黄又爽又刺激| 最新亚洲人成网站在线| 国产伦理自拍视频在线观看| 粉嫩av最新在线高清观看| 久久久久人妻一区二区三区| 亚洲中文字幕久在线| 亚洲一级黄色毛片| 久久久亚洲精品蜜臀av| 爽爽影院免费观看| 亚洲热线99精品视频| 99久久精品费精品国产一区二区| 久久这里只精品国产2| 偷窥偷拍一区二区三区| 国产熟妇疯狂4p交在线播放| 国产成人久久777777| 99日本亚洲黄色三级高清网站| 国产精品国产自产拍高清| 免费观看mv大片高清| 亚洲欧美日韩一区二区三区在线| 爱我久久国产精品| 中文字幕中文字幕人妻黑丝| 精品欧美一区二区三区久久久| 亚洲av无码不卡久久| 亚洲自拍另类欧美综合| 中文字幕人妻在线少妇完整版| 国产精品久久久久久人妻无|