曾舒磊,李學(xué)華,潘春雨,王亞飛,趙中原
1.北京信息科技大學(xué) 信息與通信工程學(xué)院,北京100101
2.北京郵電大學(xué) 信息與通信工程學(xué)院,北京100876
近年來,隨著5G 移動通信業(yè)務(wù)的全面展開,B5G(Beyond 5G,B5G)將進(jìn)一步擴(kuò)展支持的通信場景與性能。面對B5G更多樣化與更高的性能需求,霧無線接入網(wǎng)正在受到業(yè)界的廣泛關(guān)注[1]。為充分挖掘霧無線接入網(wǎng)的性能潛力,需要對光譜等資源進(jìn)行適當(dāng)?shù)墓芾砗头峙?。資源分配方法,如發(fā)射功率控制,波束賦形(Beamforming)設(shè)計(jì),邊緣緩存控制等,對5G 的推廣應(yīng)用及B5G的進(jìn)一步演進(jìn)極為重要。
在傳統(tǒng)資源分配方法中,數(shù)值優(yōu)化在解決無線資源管理問題中發(fā)揮了重要作用。文獻(xiàn)[2]提出一種迭代注水算法;文獻(xiàn)[3]采用加權(quán)最小均方誤差算法(Weighted Minimum Mean Square Error,WMMSE)來設(shè)計(jì)波束賦形器;文獻(xiàn)[4]考慮前傳鏈路(fronthaul)成本,提出一種基于迭代的波束形成設(shè)計(jì)方案;文獻(xiàn)[5-6]考慮聯(lián)合邊緣緩存,提出一種自適應(yīng)傳輸選擇算法。在此類方案中,算法收斂前必須進(jìn)行多次迭代,無法適配于實(shí)際應(yīng)用中的實(shí)時操作需求。并且,隨著用戶數(shù)量的增加,算法需要更多次數(shù)的迭代[7]。
基于深度神經(jīng)網(wǎng)絡(luò)的深度學(xué)習(xí)技術(shù)已在許多領(lǐng)域得到應(yīng)用,如圖像分類等,并且已有部分研究證明該方案與傳統(tǒng)方案相比性能更優(yōu)[8-9]。DNN可以通過簡單的反向傳播算法來解決復(fù)雜的非線性問題,而無需推導(dǎo)復(fù)雜的數(shù)學(xué)模型。文獻(xiàn)[7]采用深度神經(jīng)網(wǎng)絡(luò)來擬合文獻(xiàn)[3]中提出的WMMSE 的發(fā)射功率控制策略,從而解決了基于WMMSE方案的主要缺點(diǎn),也就是大量迭代導(dǎo)致的計(jì)算時間過長。然而,考慮到這種情況下的主要目標(biāo)是基于WMMSE 的方案的擬合,基于DNN 方案的可實(shí)現(xiàn)容量受限于WMMSE 方案。為突破傳統(tǒng)WMMSE方法的性能限制,文獻(xiàn)[10]提出基于CNN的功率分配方案。文獻(xiàn)[11]考慮全局最優(yōu)的EE,提出基于DNN 的功率分配方案,文獻(xiàn)[12]提出一種基于BP神經(jīng)網(wǎng)絡(luò)的移動網(wǎng)絡(luò)物理層安全方法,然而文獻(xiàn)[10-11]所提方案都是基于單對單收發(fā)器模型的簡單網(wǎng)絡(luò),隨著5G 移動網(wǎng)絡(luò)商用,早已無法適配復(fù)雜網(wǎng)絡(luò)及新興的5G 網(wǎng)絡(luò)架構(gòu)所帶來的需求與挑戰(zhàn)。
為了解決上述算法中暴露出的傳統(tǒng)數(shù)值優(yōu)化算法耗時過長、機(jī)器學(xué)習(xí)算法中網(wǎng)絡(luò)結(jié)構(gòu)無法適配5G 系統(tǒng)等問題,本文提出基于DNN 的F-RAN 資源分配方法。本文的主要貢獻(xiàn)概括如下:
(1)運(yùn)行凸優(yōu)化迭代算法得到算法輸入的波束賦形向量,并提出基于DNN 的F-RAN 資源分配方案。在所提出方案中,通過深度學(xué)習(xí)技術(shù),以最大化經(jīng)濟(jì)頻譜效率(ESE)為目標(biāo)進(jìn)行自主學(xué)習(xí),有效地確定波束賦形方案。本文中的研究是將DNN 應(yīng)用于F-RAN 中波束賦形設(shè)計(jì)的初步嘗試。
(2)本文創(chuàng)新性地分別使用基于監(jiān)督學(xué)習(xí)的歸一化均方誤差(Normalized Mean Square Error,NMSE)和基于非監(jiān)督學(xué)習(xí)的ESE作為損失函數(shù)進(jìn)行訓(xùn)練。
(3)本文在計(jì)算機(jī)仿真的基礎(chǔ)上對所提出方案的性能進(jìn)行評估。結(jié)果表明,相比傳統(tǒng)的迭代算法,該方案在實(shí)現(xiàn)計(jì)算時間大幅度縮短的前提下,SE 和ESE 也能夠得到一定的性能增益,此外,本文提出的方案比傳統(tǒng)的迭代方案具有更低的時間復(fù)雜度。
(4)本文對不同機(jī)器學(xué)習(xí)方案的性能進(jìn)行評估。結(jié)果表明,相比基于監(jiān)督學(xué)習(xí)的CNN,本方案的SE和ESE能夠得到一定的性能增益。
(5)本文將NMSE和基于非監(jiān)督學(xué)習(xí)的ESE作為損失函數(shù)應(yīng)用于CNN,結(jié)果表明,本方案與使用相同損失函數(shù)的CNN方案具有相似的性能。
考慮如圖1 所示的下行(downlink)F-RAN 場景,該場景包含N個F-AP(Fog Access Point,F(xiàn)-AP)、K個單天線終端(User Equipment,UE)和一個虛擬化基帶單元(Building Base band Unite,BBU)池,其中,每個F-AP包含M個天線。所有調(diào)度與波束形成都在BBU 池中處理。每個F-AP通過有線或者無線的前傳鏈路連接到BBU池。N個F-AP均勻覆蓋在D×D的范圍中,并分別使用有線和無線兩種典型的前傳載波技術(shù)[13],K個單天線終端隨機(jī)分布在該小區(qū)內(nèi)。將終端與F-AP的集合分別記為K={1,2,…,K}和N={1,2,…,N},本文假設(shè)下行F-AP 通過有線前傳鏈路連接于BBU 池的信道集合為N1={1,2,…,N1},而通過無線前傳鏈路連接于BBU 池的信道集合記為N2={N1+1,N1+2,…,N} 。假設(shè)BBU 池已訪問所有終端的數(shù)據(jù),并通過前傳鏈路將終端數(shù)據(jù)分發(fā)給F-AP集群。
圖1 霧無線接入網(wǎng)架構(gòu)
將F-APn到終端k的波束形成定義為wkn∈?1×M,終端k的波束形成向量可以表示為wk=[wk1,wk2,…,wkn]∈?M×N。則終端k的理論數(shù)據(jù)速率為:
其中,hk∈?M×N為終端k與所有F-AP 天線之間的信道信息(Channel State Information,CSI)矩陣[14-16],σ2為噪聲能量。
模型中F-AP的總?cè)萘渴艿絾蝹€鏈路瓶頸容量的限制[13],且BBU 池與F-AP 間有線與無線傳輸方式有不同的限制容量,分別記為R1n(?n∈N1)與R2n(?n∈N2)。因此,F(xiàn)-AP需滿足的前傳鏈路容量限制可表示為:
頻譜效率與能量效率(Energy Efficiency,EE)分別定義為[4,7]:
其中,ak為終端k的權(quán)重向量,ξ為功率放大器效率常量,Pc表示F-AP 的靜態(tài)功率損耗。本文中使用‖ x ‖0表示x 的l0范數(shù),‖ x ‖2表示x 的l2范數(shù),則‖可記為F-APn到終端k的發(fā)射功率。
考慮到有線和無線前傳鏈路有不同的成本,將F-APn到BBU 池記為成本系數(shù)cn,在此基礎(chǔ)上,本文將經(jīng)濟(jì)光譜效率定義為[4]:
本文考慮資源分配的經(jīng)濟(jì)頻譜效率最大化問題,即ESE最大化。為了實(shí)現(xiàn)上述目標(biāo),須解決以下優(yōu)化問題:
其中,約束條件C1為F-AP的最大發(fā)射功率約束,C2表示BBU池與F-AP間有線傳輸方式的容量限制,C3表示BBU 池與F-AP 間無線傳輸方式的容量限制。但是,由于問題(8)的Rk中包含形如等非凸項(xiàng),為非凸問題,難以直接求得全局最優(yōu)解。因此,本文采用深度神經(jīng)網(wǎng)絡(luò)方法通過數(shù)值擬合與優(yōu)化對問題(8)進(jìn)行求解。
為方便閱讀,本文中使用的仿真參數(shù)符號說明表示在表1中。
表1 仿真參數(shù)符號說明
采用傳統(tǒng)優(yōu)化算法(如WMMSE和凸優(yōu)化迭代算法等)[3-4,17],時間復(fù)雜度高、給系統(tǒng)帶來的計(jì)算壓力大,因此,本文提出使用深度神經(jīng)網(wǎng)絡(luò)解決問題(8)中的優(yōu)化問題。深度神經(jīng)網(wǎng)絡(luò)可以針對任意信道條件訓(xùn)練得到一個通用的波束賦形器策略,從而大幅度降低時間成本。在本章中,首先考慮使用DNN 網(wǎng)絡(luò)擬合文獻(xiàn)[4]提出的凸優(yōu)化迭代算法。這里并不需要對算法每次迭代過程進(jìn)行擬合。DNN 具備多層隱含層,因此可以以任意精度擬合任意復(fù)雜度的函數(shù)。
這里使用的DNN 結(jié)構(gòu)包含一個輸入層、一個輸出層和Q個隱藏層,算法結(jié)構(gòu)如圖2所示。由于使用多個隱藏層可以顯著減少隱藏單元的總數(shù),在保持?jǐn)M合精度的同時提高計(jì)算效率,因此,本文所提的算法中使用多個隱藏層(相比于單隱藏層),同時,將第q個隱藏層記為Dq。在每個隱藏層的輸出使用非線性校正函數(shù)ReLU(Rectified Linear Unit,ReLU)作為激活層:
這里x,y分別表示ReLU 激活層的輸入、輸出。此外,為了使DNN 的輸出歸一化,將輸出層的激活函數(shù)設(shè)為截斷的ReLU:
圖2 DNN架構(gòu)
本文中使用的數(shù)據(jù)按以下方式生成:首先,生成信道矩陣{hk}(i)(遵循第2、4章所提到的信道條件);然后,運(yùn)行凸優(yōu)化迭代算法[4],導(dǎo)入信道矩陣{hk}(i),得到算法輸出的波束賦形向量{wk}(i)。由于終端的位置和多徑衰落不同,因此每個信道樣本的信道矩陣和最佳波束賦形向量也不一樣。
為方便神經(jīng)網(wǎng)絡(luò)計(jì)算,將信道矩陣hk進(jìn)行標(biāo)準(zhǔn)化(normalization),將表示為標(biāo)準(zhǔn)化輸出,則有=同時,將波束賦形向量wk進(jìn)行歸一化,將表示為歸一化輸出,即:
準(zhǔn)備好訓(xùn)練樣本后,使用NMSE作為損失函數(shù)進(jìn)行訓(xùn)練。將神經(jīng)網(wǎng)絡(luò)的輸出記為yk,此時損失函數(shù)為:
因此,擬合訓(xùn)練后的結(jié)果是凸優(yōu)化迭代方案的近似值。隨后,神經(jīng)網(wǎng)絡(luò)可以使用優(yōu)化目標(biāo)作為損失函數(shù)做進(jìn)一步訓(xùn)練。把最大化ESE 作為優(yōu)化目標(biāo)時,損失函數(shù)為:
值得注意的是,使用ESE 作為損失函數(shù)訓(xùn)練時,沒有監(jiān)督項(xiàng),此時的神經(jīng)網(wǎng)絡(luò)是非監(jiān)督學(xué)習(xí)。
本論文使用的優(yōu)化算法為RMSProp。其中,衰變率為0.9,通過交叉驗(yàn)證選擇合適的batch 大小和學(xué)習(xí)率。DNN 模型是按照順序分別使用Lfit和LESE進(jìn)行訓(xùn)練的,這樣DNN模型首先使用Lfit進(jìn)行訓(xùn)練,并且在訓(xùn)練后使用LESE進(jìn)行訓(xùn)練。為了進(jìn)一步提高訓(xùn)練性能,首先使用截斷正態(tài)分布初始化權(quán)值,然后將每個神經(jīng)元的權(quán)值除以其輸入個數(shù)的平方根,使每個神經(jīng)元輸出的方差歸一化。
根據(jù)當(dāng)前的信道條件,采用訓(xùn)練后的DNN 來確定波束形成向量,將DNN的輸出記為{ yk}(i)。用作標(biāo)簽的數(shù)據(jù)是被做歸一化處理后的數(shù)據(jù),因此,要將輸出的{ yk}(i)進(jìn)行還原,將還原后的數(shù)據(jù)記為,則
圖3 輸出算法流程圖
經(jīng)過處理后的數(shù)據(jù)雖然無法保證訓(xùn)練對所考慮的優(yōu)化問題的最優(yōu)解的收斂性,但與傳統(tǒng)的優(yōu)化方案相比,此處提出的優(yōu)化方案在F-AP的最大發(fā)射功率值Pmax較大可以獲得更好的解,仿真結(jié)果可以證實(shí)這一點(diǎn)。
圖4 CNN結(jié)構(gòu)
CNN 算法同樣可用于解決式(8)中提出的優(yōu)化問題,從而根據(jù)信道條件決定波束賦形。
這里使用的CNN 結(jié)構(gòu)包含一個卷積部分,一個全連接層(Fully Connected,F(xiàn)C)和一個激活層(Activation Function),詳情可見圖4。
卷積部分由串聯(lián)的Nc子塊組成,每個子塊包含一個卷積層和一個ReLU層。卷積核(filter)的大小設(shè)置為2×2,步長(stride)設(shè)置為1,并使用0填充,以便輸出的大小與輸入的大小保持一致。第i個子塊的卷積核數(shù)量設(shè)置為Ci。每個卷積層的輸出被送入ReLU層,以防止負(fù)值。
在FC 層,卷積部分的輸出被合并減少至K×N×M,用于確定波束賦形。隨后,將FC層的輸出導(dǎo)入激活層,這里使用截斷的非線性函數(shù)ReLU(10)作為激活函數(shù),使CNN的輸出歸一化。
與DNN相似,這里將標(biāo)準(zhǔn)化信道矩陣hk作為CNN的輸入,將CNN 輸出記為yCk。首先使用NMSE 作為CNN的損失函數(shù)進(jìn)行訓(xùn)練:
CNN訓(xùn)練將使用與DNN相同的優(yōu)化方法和權(quán)重初始化方法,并在隨后的仿真結(jié)果中分別展示損失函數(shù)為L(C)fit與L(C)ESE時的算法性能。
本章比較了深度神經(jīng)網(wǎng)絡(luò)與凸優(yōu)化迭代算法、WMMSE 方法等方案的性能。在仿真中,考慮一個F-RAN 小區(qū),F(xiàn)-AP 數(shù)量N=3,小區(qū)范圍D=0.5 km 。這里需要指出的是,更多的F-AP 只將帶來更高的計(jì)算復(fù)雜度,而所提出的解決方案仍然可以在保持類似的性能趨勢下工作。在三個F-APs中,假設(shè)其中一個通過無線前傳鏈路連接至BBU 池,另外兩個使用有線前傳鏈路。每個F-AP天線數(shù)M=2。假設(shè)該F-RAN小區(qū)包含的 終 端 數(shù) 為K=9 ,噪 聲 功 率 譜 密 度σ2=-174 dBm/Hz[18]。從F-AP 到終端的路徑損耗指數(shù)為4,衰弱系數(shù)為單位方差的同分布瑞利隨機(jī)變量(Rayleigh random variables)。假設(shè)所有F-AP具有相同的最大發(fā)射功率,即max,?n。對于前傳連接,有線與無線前傳連接容量約束值分別為10(bit ?s-1)/Hz與5(bit ?s-1)/Hz 。F-AP 的靜態(tài)能量損耗Pc=30 dBm,功率放大器的功率效率為ξ=2。由于有線前傳傳輸比無線前傳傳輸帶來更高的開銷,因此前傳鏈路成本系數(shù)被設(shè)置為滿足cwl<cw<1,在本文中,cw=0.5 ,cwl=0.25。
為考慮計(jì)算機(jī)效率,神經(jīng)元數(shù)量最好為輸入的2n倍[19],因此,在本文所用的DNN 中,隱藏層數(shù)量Q=3,D1=216,D2=432,D3=432。此外,為訓(xùn)練(訓(xùn)練集,training dataset)和驗(yàn)證(驗(yàn)證集,validation dataset)分別生成20 000 個通道樣本,初始學(xué)習(xí)率設(shè)置為0.000 1,訓(xùn)練batch 大小設(shè)置為50。另外,在本文所用的CNN中,卷積層數(shù)量Nc=7,卷積核數(shù)量Ci=8。
圖5 訓(xùn)練集和驗(yàn)證集的損失率變化
圖5 展示了損失函數(shù)為Lfit時DNN 的性能。用Ltrain與Lval分別表示Pmax=15 dBm 時訓(xùn)練集和驗(yàn)證集隨著訓(xùn)練循環(huán)次數(shù)(epoch)的增加所對應(yīng)的Lfit值。可以觀察到,Ltrain與Lval很快接近于0.2。此外,隨著訓(xùn)練循環(huán)次數(shù)(epoch)繼續(xù)增加,Ltrain與Lval都沒有增加,從而可以得出結(jié)論,即訓(xùn)練程序可以很好地適應(yīng)訓(xùn)練集,而不存在過擬合(overfitting)或者欠擬合(underfitting)的情況。
考慮優(yōu)化目標(biāo)為最大化ESE的神經(jīng)網(wǎng)絡(luò),在圖6中表示為DNN,并分別與WMMSE方案、凸優(yōu)化迭代方案和兩種CNN方案進(jìn)行比較。圖中CNN(fit)表示損失函數(shù)為L(C)fit時的SE 和ESE 性能,CNN(ESE)表示損失函數(shù)為L(C)ESE時的SE和ESE性能。
圖6(a)和(b)分別展示了不同F(xiàn)-AP 最大發(fā)射功率下五種算法的SE 與ESE 性能??梢钥闯?,使用LESE作為損失函數(shù)下的DNN 網(wǎng)絡(luò)都能獲得接近于或者超出凸優(yōu)化迭代算法的性能;損失函數(shù)為L(C)fit時,CNN性能差于DNN 和凸優(yōu)化迭代算法,而損失函數(shù)為L(C)ESE時,CNN 性能與DNN 相似。需要指出的是,在實(shí)際仿真過程中,由于有時間復(fù)雜度限制,凸優(yōu)化迭代算法會設(shè)置有限的迭代次數(shù)上限與一定的迭代精度,并且將非凸問題變換為迭代的凸問題求解,使得凸優(yōu)化迭代算法只能求得局部解,而本文采用的神經(jīng)網(wǎng)絡(luò)擬合方法在F-AP 最大發(fā)射功率Pmax較大時性能可以超出凸優(yōu)化迭代算法,在Pmax=20 dBm 點(diǎn)時ESE 的增益為20%。
圖6(a)不同前傳鏈路設(shè)置下SE對比
圖6(b)不同前傳鏈路設(shè)置下ESE對比
圖7 表明了不同終端數(shù)量下各種算法所需的計(jì)算時間。從圖中可以看出,DNN 的計(jì)算時間要遠(yuǎn)遠(yuǎn)短于WMMSE 方法與凸優(yōu)化迭代算法,并且DNN 的計(jì)算時間與WMMSE、凸優(yōu)化迭代算法的計(jì)算時間之間的差距隨著終端數(shù)量的增加而增大,而CNN 的計(jì)算時間與DNN相似。
圖7 不同算法計(jì)算時間對比
本文提出了基于神經(jīng)網(wǎng)絡(luò)的優(yōu)化方案,主要解決F-RAN下的ESE性能優(yōu)化問題。通過訓(xùn)練,本文提出的神經(jīng)網(wǎng)絡(luò)方案能夠自主學(xué)習(xí)任意信道條件下的資源分配策略,訓(xùn)練后的神經(jīng)網(wǎng)絡(luò)相比傳統(tǒng)采用凸優(yōu)化的迭代方案來說,具備更小的時間復(fù)雜度。為驗(yàn)證算法性能本文還提出一種具備相同損失函數(shù)的基于CNN的優(yōu)化方案。仿真結(jié)果表明,神經(jīng)網(wǎng)絡(luò)與傳統(tǒng)的凸優(yōu)化方案具有更好的ESE 性能,并且,本文提出的算法具備更低的時間復(fù)雜度,與此同時,使用相同損失函數(shù)的CNN方案具備與DNN相似的性能與時間復(fù)雜度。