丘覲瑋,余天堯,戴偉強(qiáng),王寶全,陸 音
(南京郵電大學(xué) 電子科學(xué)與工程學(xué)院,江蘇 南京 210023)
基于遺傳算法的LTE網(wǎng)絡(luò)定位服務(wù)時延估計
丘覲瑋,余天堯,戴偉強(qiáng),王寶全,陸 音
(南京郵電大學(xué) 電子科學(xué)與工程學(xué)院,江蘇 南京 210023)
為降低NLOS環(huán)境對無線定位系統(tǒng)的干擾,文中提出了一種基于遺傳算法的定位服務(wù)時延估計方案。該方案利用遺傳算法啟發(fā)性隨機(jī)搜索的能力,求出NLOS環(huán)境下基站與移動臺間的直視徑時延。以各路徑的到達(dá)時延以及到達(dá)角作為遺傳算法的初始化信息,構(gòu)建具有自適應(yīng)性的適應(yīng)度函數(shù),通對目標(biāo)函數(shù)求解得到直視徑時延。仿真結(jié)果表明,該方案與傳統(tǒng)的基于廣義互相關(guān)的時延估計方案相比,可以有效降低NLOS環(huán)境下的環(huán)境噪聲。在目標(biāo)函數(shù)基本能夠描述環(huán)境的前提下,遺傳算法具有快速求解復(fù)雜環(huán)境下優(yōu)勢解的能力,可以滿足各類依賴定位服務(wù)的應(yīng)用對定位服務(wù)響應(yīng)速度以及定位精度的要求。
遺傳算法;定位服務(wù);時延估計;LTE;NLOS
隨著LTE網(wǎng)絡(luò)的發(fā)展,人們對網(wǎng)絡(luò)定位服務(wù)精確度的要求越來越高。雖然可以通過提高時延估計精度來提升定位精度,但卻面臨著遠(yuǎn)近效應(yīng)、多徑干擾以及NLOS干擾等難題[1]。當(dāng)前,廣義互相關(guān)算法多作為時延估計的核心算法,該算法雖然具有很多優(yōu)點(diǎn),但是對于NLOS干擾的抗擾能力比較差。為了降低NLOS環(huán)境帶來的影響,文中將遺傳算法作為直視徑時延估計的主算法,并使用信號到達(dá)角作為誤差修正因子,從優(yōu)化求解流程、主動修正誤差兩方面著手來降低NLOS的影響。
3GPP組織定義增強(qiáng)型小區(qū)ID(E-Cell ID)定位方法、檢測到達(dá)時間差(OTDOA)定位方法和全球衛(wèi)星導(dǎo)航系統(tǒng)輔助(A-GNSS)定位方法為三種標(biāo)準(zhǔn)化的定位解決方案[2]。運(yùn)營商可根據(jù)小區(qū)半徑、自適應(yīng)天線技術(shù)、路損和定時估計精度等實(shí)際情況,來決定采用其中一種或幾種定位方式[3]。我國當(dāng)前的LTE基站覆蓋大多存在著弱覆蓋的問題[4],OTDOA定位方式較其他兩種更為適合當(dāng)前情況。文中仿真中使用OTDOA定位方法,其主要的定位方式有到達(dá)時間(TOA)、到達(dá)時間差(TDOA)、到達(dá)時間和(TSOA)、到達(dá)角(AOA)以及前三者與后者的混合定位方式(TOA—AOA,TDOA—AOA,TSOA—AOA)。文中選取到達(dá)時間與到達(dá)角(TOA—AOA)的混合定位方式,并在仿真時使用定位參考信號作為時延估計的參考信號。
1.1 定位參考信號
定位參考信號是由LTE R9規(guī)范[5]定義,針對OFDM系統(tǒng)而設(shè)計,配置于LTE下行鏈路的無線幀中。定位參考信號的物理層過程是:首先產(chǎn)生31位Gold偽隨機(jī)序列,再映射到子幀資源塊中,然后添加循環(huán)前綴(CP),最后按照規(guī)范通過數(shù)模轉(zhuǎn)換由天線的6號端口發(fā)射。LTE下行鏈路采用以O(shè)FDM技術(shù)為核心的動態(tài)頻譜資源規(guī)劃,子載波帶寬為15 kHz,系統(tǒng)帶寬可由子載波數(shù)控制。OFDM技術(shù)在時延估計方面具有以下優(yōu)勢:將串行數(shù)據(jù)分配到N條并行子信道上,可以有效抗多徑擴(kuò)展[6];在幀之間設(shè)置保護(hù)間隔(GI),利用保護(hù)間隔填充循環(huán)前綴,有效地抑制了由于多徑造成的符號間干擾。定位參考信號的消息序列為Gold偽隨機(jī)序列,具有非常良好的自相關(guān)性,可以抑制信道白噪聲的影響[7]。國內(nèi)有研究者利用定位參考信號的上述特點(diǎn),對接收信號進(jìn)行干擾消除處理,最終得到高精度的估計值[8]。
1.2 仿真模型
文中仿真分為兩部分:第一部分為信號及信道仿真,第二部分為時延估計算法仿真。第一部分的功能是:按照定位參考信號的定義產(chǎn)生定位參考信號時延信息[9],再把信號時延值以及各信號的到達(dá)角作為第二部分仿真的輸入信息。第二部仿真為遺傳算法的時延估計,其輸出為直視徑時延的估計值。
文中使用遺傳算法來進(jìn)行數(shù)據(jù)分析,通過構(gòu)建對環(huán)境模型具有自適應(yīng)性的適應(yīng)度函數(shù)來搜索被隱含在各類噪聲中的直視路徑。遺傳算法由適應(yīng)度函數(shù)、遺傳算子(包括選擇算子以及交叉、變異算子)兩大部分組成[10],算法的流程圖如圖1所示。
適應(yīng)度函數(shù)需要體現(xiàn)所求解在當(dāng)前環(huán)境下的特征,種群交替則是通過遺傳算子使種群產(chǎn)生差異,在兩者的共同作用下,不斷產(chǎn)生向優(yōu)勢“進(jìn)化”的個體。文中描述個體使用的遺傳編碼方式為二進(jìn)制編碼[11],其生物學(xué)意義為:求解對象是時延的大小,是一個標(biāo)量,使用二進(jìn)制可以剝離遺傳編碼中的其他元素,使進(jìn)化的方向不偏離時延大小這一軌道。下文將敘述遺傳算法在時延估計中的其他關(guān)鍵組成。
圖1 遺傳算法流程圖
2.1 NLOS抑制自適應(yīng)適應(yīng)度函數(shù)及初始化
圖2 單次反射橢圓NLOS模型示意圖
文中所構(gòu)造的適應(yīng)度函數(shù)與傳統(tǒng)的適應(yīng)度函數(shù)相比,擁有由各路徑時延以及到達(dá)角提供的先驗(yàn)信息,在搜索方向上具有更強(qiáng)的穩(wěn)定性,可以避免出現(xiàn)算法不收斂的情況,同時也保證了最優(yōu)解是可取的。種群初始化時所設(shè)定的種群表現(xiàn)型范圍保證了最優(yōu)個體存在于表現(xiàn)型的范圍中,從根本上保證了最優(yōu)解的存在。
2.2 選擇算子
為了更加貼近遺傳過程,文中采取加權(quán)輪盤的選擇算法[14],先建立生存與滅亡概率均為50%的輪盤,將生存概率與個體歸一化適應(yīng)度進(jìn)行運(yùn)算處理,將運(yùn)算結(jié)果作為個體最終的輪盤刻度。此算法不僅保證了最優(yōu)個體一定存活,還保留了次優(yōu)解消失的概率,一定程度上抑制了次優(yōu)解。算法設(shè)置父本數(shù)量的大小為不大于種群總數(shù)的一半。從極端情況考慮:父本數(shù)量的最多情況為種群數(shù)量的一半,即所有優(yōu)勢個體都存活;最少情況為僅剩當(dāng)前最適應(yīng)個體,即除了局部最優(yōu)解之外的所有次優(yōu)解都消失。選擇算子的流程圖如圖3所示。
圖3 選擇算子流程圖
2.3 交叉、變異算子
交叉、變異算子的生物學(xué)意義為:交叉使個體內(nèi)在的優(yōu)勢基因富集,變異產(chǎn)生新的基因型。文中所定義的基因?yàn)闃?biāo)量基因,交叉與變異可以等價為不同機(jī)理產(chǎn)生新編碼的方式、提供新的個體表現(xiàn)型的過程。這種復(fù)合新編碼的產(chǎn)生機(jī)制雖然增強(qiáng)了算法的搜索能力,但是會導(dǎo)致遺傳算法的收斂曲線不平滑。文中使用的交叉、變異算子的模型都是模擬低等原核生物,模型較為簡單。使用此模型的原因有三個:
(1)定位服務(wù)要求算法具有高效的特點(diǎn),此模型目的明確、操作簡單,可以大規(guī)模并行運(yùn)算,符合定位服務(wù)的需求;
(2)在遺傳算法中所需要評估的個體只有時延的大小,不需要變異操作提供新的性狀,變異操作僅作為交叉操作的補(bǔ)充;
(3)文中仿真模型使用的編碼方式為二進(jìn)制編碼,編碼與具體適應(yīng)度之間不存在一一映射的關(guān)系,因此交叉操作提供變化趨勢穩(wěn)定的隨意個體。
遺傳算法中預(yù)期收斂性可以用Vose-Liepins模型、Markov鏈模型或公理化模型來預(yù)測[9]。文中采取的交叉因子Pc=0.25,變異因子Pm=0.01,通常情況下在40代內(nèi)收斂。為了更好地進(jìn)行觀察,每次運(yùn)行的仿真代數(shù)設(shè)為100。
文中的分析對象為時延大小,使用均方根誤差(RMSE)為誤差分析指標(biāo)。首先比較不同NLOS徑功率比(NLOS及其他路徑的功率和與LOS徑功率之比,下文簡稱為“功率比”)情況下,文中算法與廣義互相關(guān)算法(GCC)的性能,如圖4所示。
圖4 文中算法與廣義互相關(guān)算法的性能比較
由圖4可見,GCC算法在NLOS與多徑環(huán)境下性能較差。由于多徑信號以及NLOS干擾會使接收信號的功率譜出現(xiàn)大量的旁瓣,且在功率比超過0 dB時,出現(xiàn)非LOS徑功率大于LOS徑功率的情況,此時互相關(guān)求解得到的時延只有可能是NLOS徑的。文中算法之所以能有效改善NLOS環(huán)境下時延估計的性能,是因?yàn)闀r延估計方案不再以信號功率時延為唯一參考對象。文中選取各路徑的時延以及到達(dá)角為先驗(yàn)信息,初始化適應(yīng)度函數(shù),通過遺傳算法將多徑信號以及NLOS干擾中包含的環(huán)境信息提取出來,用于修正適應(yīng)度函數(shù),再通過選擇算子在種群迭代中篩選出局部最優(yōu)解。雖然文中算法可以利用多徑信號以及NLOS干擾來降低它們帶來的影響,但是并不意味著可以徹底消除這些影響。
為了研究傳播路徑中是否存在直視徑對算法的影響,文中分別對直視徑存在與不存在這兩種情況進(jìn)行了仿真。圖5為-20 dB功率比以及25 dB信噪比條件下接收機(jī)所接收信號存在直視徑時的時延估計,圖6為在圖5條件下去除直視徑信息的時延估計。
圖5 存在直視徑時的時延估計
圖6 同狀態(tài)去除直視徑的時延估計
仿真結(jié)果表明:存在直視徑時的算法性能比不存在直視徑時優(yōu)秀,可以推斷先驗(yàn)信息的準(zhǔn)確性與算法的性能之間存在著相關(guān)性。存在一個先驗(yàn)信息準(zhǔn)確性閾值,超過該閾值后算法性能迅速劣化,并將導(dǎo)致算法不收斂。
在LTE網(wǎng)絡(luò)中,定位參考信號具有自相關(guān)性強(qiáng)的特點(diǎn),對串?dāng)_以及信道中的白噪聲具有較強(qiáng)的抑制能力。因此,只要抑制無線信道附加的多徑干擾以及NLOS噪聲干擾,就可以通過OTDOA定位方式獲得高精度的位置信息。文中方法在仿真上具有較好的性能,但是在使用時卻具有一定的局限,它要求先驗(yàn)信息具有嚴(yán)格的準(zhǔn)確性,而目前大部分模型所提供的先驗(yàn)信息不具有嚴(yán)格的準(zhǔn)確性。作者后續(xù)將對先驗(yàn)信息的準(zhǔn)確性與算法性能的優(yōu)化開展進(jìn)一步研究,期望為算法提供一個先驗(yàn)信息的誤差檢測以及誤差反饋機(jī)制,使算法在實(shí)際應(yīng)用中有良好的性能表現(xiàn)。
[1] 沈 嘉,索士強(qiáng),全海洋.3GPP長期演進(jìn)(LTE)技術(shù)原理與系統(tǒng)設(shè)計[M].北京:人民郵電出版社,2008.
[2] 3GPP TS 36.355 v9.0.0,3rd generation partnership project;technical specification group radio access network;E-UTRA;LTE positioning protocol[S].[s.l.]:[s.n.],2009.
[3] 徐瑩瑩,延鳳平.TD—LTER9定位技術(shù)研究[J].移動通信,2012,36(19):11-14.
[4] 王 博.LTE覆蓋的評估、定位和優(yōu)化[J].移動通信,2014,38(17):33-33.
[5] 3GPP TS 36.211 v9.0.0.LTE.Evolved Universal Terrestrial Radio Access (E-UTRA);Physical channels and modulation[S].[s.l.]:[s.n.],2010.
[6] 尹長川,羅 濤,樂光新.多載波寬帶無線通信技術(shù)[M].北京:北京郵電大學(xué)出版社,2004.
[7] 于洪波.無線節(jié)點(diǎn)定位算法研究[D].濟(jì)南:山東大學(xué),2013.
[8] 王宏禹,邱天爽.自適應(yīng)噪聲抵消與時間延遲估計[M].大連:大連理工大學(xué)出版社,1999.
[9] 陳 園.LTE系統(tǒng)仿真平臺搭建及其定位技術(shù)研究[D].北京:北京郵電大學(xué),2013.
[10] Choenni S.Design and implementation of a genetic based algorithm for data mining[C]//Proc of the 26th international conference on very large databases.San Francisco:Morgan Kaufmann Publishers,2000:33-42.
[11] Holland J H.Adaptation in natural and artificial systems[M].Ann Arbor:University of Michigan Press,1975.
[12] 楊豐瑞,徐 超.LTE系統(tǒng)中的多徑時延估計算法[J].廣東通信技術(shù),2011,31(10):62-65.
[13] Venkatraman S.Location Using LOS range estimation in NLOS environment[C]//Proc of IEEE VTC.[s.l.]:IEEE,2002:856-860.
[14] 徐宗本,張講社,鄭亞林.計算智能中的仿生學(xué):理論與算法[M].北京:科學(xué)出版社,2003.
Time-delay Estimation of Positioning Service in LTE Networks Based on Genetic Algorithm
QIU Jin-wei,YU Tian-yao,DAI Wei-qiang,WANG Bao-quan,LU Yin
(College of Electronic Science and Engineering,Nanjing University of Posts and Telecommunications,Nanjing 210023,China)
In order to reduce the interference of the NLOS environment to the wireless location system,a time-delay estimation scheme based on genetic algorithm is proposed.This scheme utilizes the characteristics of heuristic stochastic search ability of genetic algorithm,and the delay of LOS-path under NLOS environment can be obtained.Firstly,it uses the time of arrival and the angle of arrival as the original information in genetic algorithm.Secondly,according to the original information,it constructs an adaptive fitness function.Finally,the solution of the objective function is calculated,and the delay of LOS-path is obtained.The simulation shows that compared with the traditional time-delay estimation based on generalized cross correlation,the proposed scheme can effectively reduce the ambient noise under NLOS environment.On the premise of the objective function being able to describe the environment,genetic algorithm has the ability of fast solving the dominant solution under the complex environment,and it can meet the requirements of positioning service response speed and positioning accuracy for various kinds of position-service-based applications.
genetic algorithm;positioning service;time-delay estimation;LTE;NLOS
2014-12-06
2015-04-08
時間:2016-05-05
國家自然科學(xué)基金資助項(xiàng)目(61271236);南京郵電大學(xué)大學(xué)生創(chuàng)新訓(xùn)練計劃省級重點(diǎn)項(xiàng)目(SZDG2013012)
丘覲瑋(1993-),男,研究方向?yàn)殡姶艌雠c無線技術(shù);陸 音,博士,副研究員,研究方向?yàn)闊o線通信。
http://www.cnki.net/kcms/detail/61.1450.TP.20160505.0814.016.html
TP301.6
A
1673-629X(2016)05-0149-04
10.3969/j.issn.1673-629X.2016.05.032