亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于堆疊雙向LSTM的雷達(dá)目標(biāo)識(shí)別方法

        2021-12-22 13:18:38曹展家師本慧
        計(jì)算機(jī)測(cè)量與控制 2021年12期
        關(guān)鍵詞:雷達(dá)卷積神經(jīng)網(wǎng)絡(luò)

        曹展家,師本慧

        (中國(guó)電子科技集團(tuán)公司 第五十四研究所,石家莊 050081)

        0 引言

        雷達(dá)作為一種預(yù)警探測(cè)手段,利用電磁波來(lái)獲取目標(biāo)的距離、方位、速度等信息,在戰(zhàn)場(chǎng)偵察、航空管制、敵我目標(biāo)識(shí)別等方面發(fā)揮著不可替代的作用[1-2]。現(xiàn)階段主流的雷達(dá)目標(biāo)檢測(cè)技術(shù)多采用能量檢測(cè)的方式,即統(tǒng)計(jì)雜波和回波噪聲的能量來(lái)確定出一個(gè)門(mén)限值從而檢測(cè)出雷達(dá)回波中的目標(biāo)[3-6]。但在城市等復(fù)雜環(huán)境下,以無(wú)人機(jī)為例,這種低可觀測(cè)性目標(biāo)的回波通常會(huì)淹沒(méi)在強(qiáng)噪聲背景中,由于目標(biāo)回波信噪比較低,即便采用恒虛警檢測(cè)(CFAR, constant false alarm rate)技術(shù)依然會(huì)有較強(qiáng)的噪聲干擾,從而影響對(duì)目標(biāo)的檢測(cè)率[7-8]。支持向量機(jī)[9](SVM, support vector machine)是一種經(jīng)典的機(jī)器學(xué)習(xí)算法,近年來(lái)也被應(yīng)用到雷達(dá)目標(biāo)識(shí)別中,可以實(shí)現(xiàn)高緯度特征空間的分類(lèi),難點(diǎn)在于人工提取特征的復(fù)雜度以及對(duì)特征的選擇難度。

        深度學(xué)習(xí)是機(jī)器學(xué)習(xí)的一個(gè)分支領(lǐng)域,以神經(jīng)網(wǎng)絡(luò)為主要模型,通過(guò)構(gòu)建一系列連續(xù)的表示層從訓(xùn)練數(shù)據(jù)中自動(dòng)學(xué)習(xí)到特征表示,實(shí)現(xiàn)從輸入到目標(biāo)的映射[10-11]。鑒于目前深度學(xué)習(xí)在計(jì)算機(jī)視覺(jué)、機(jī)器翻譯等方向獲得了突出的成就,研究人員們也開(kāi)始在雷達(dá)目標(biāo)檢測(cè)識(shí)別中嘗試引入深度學(xué)習(xí)[12-15]。文獻(xiàn)[12]利用卷積神經(jīng)網(wǎng)絡(luò)(CNN,convolutional neural network)設(shè)計(jì)了一種CNN檢測(cè)器,以距離-多普勒?qǐng)D像切片作為網(wǎng)絡(luò)的輸入,確定頻譜中是否包含目標(biāo)回波或僅噪聲,可以替代CFAR檢測(cè)器。文獻(xiàn)[13]采用一種多尺度卷積模塊增加了卷積神經(jīng)網(wǎng)絡(luò)的深度,在SAR圖像集上實(shí)現(xiàn)了高準(zhǔn)確度的目標(biāo)分類(lèi)。文獻(xiàn)[14]采用通過(guò)添加噪聲等方式增強(qiáng)數(shù)據(jù)集后的樣本來(lái)訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò),增強(qiáng)了網(wǎng)絡(luò)模型的抗干擾性。文獻(xiàn)[15]采用卷積神經(jīng)網(wǎng)絡(luò)對(duì)雷達(dá)一維序列信號(hào)進(jìn)行處理說(shuō)明CNN-LeNet網(wǎng)絡(luò)對(duì)雷達(dá)雜波和噪聲的一維序列數(shù)據(jù)進(jìn)行分類(lèi)的可行性。

        上述的方法中所使用的卷積神經(jīng)網(wǎng)絡(luò)提取到的數(shù)據(jù)的特征表示具有平移不變性,可以提取出不同位置的目標(biāo)的特征,但是卷積神經(jīng)網(wǎng)絡(luò)對(duì)時(shí)間步的順序不敏感,忽略了數(shù)據(jù)之間的相關(guān)性,網(wǎng)絡(luò)模型的輸出僅與該時(shí)刻模型的輸入有關(guān)[16]。考慮到雷達(dá)的回波數(shù)據(jù)是時(shí)間序列,具有時(shí)序相關(guān)性,為了處理時(shí)序數(shù)據(jù),建立長(zhǎng)時(shí)間的時(shí)序依賴(lài)關(guān)系,本文提出一種基于堆疊雙向LSTM模型來(lái)進(jìn)行雷達(dá)目標(biāo)識(shí)別。

        1 LSTM模型

        1.1 循環(huán)神經(jīng)網(wǎng)絡(luò)

        在深層前饋神經(jīng)網(wǎng)絡(luò)中,比如常見(jiàn)的卷積神經(jīng)網(wǎng)絡(luò),只在相鄰的層與層之間建立了連接,每一層神經(jīng)元節(jié)點(diǎn)的輸入只和上一層與該節(jié)點(diǎn)局部連接的神經(jīng)元的輸出有關(guān),信息的傳遞只能是單向無(wú)循環(huán)的。卷積神經(jīng)網(wǎng)絡(luò)只能孤立的處理當(dāng)前的數(shù)據(jù),無(wú)法將上一時(shí)刻輸入數(shù)據(jù)的信息傳遞給下一時(shí)刻,整個(gè)網(wǎng)絡(luò)無(wú)反饋信息。另外,卷積神經(jīng)網(wǎng)絡(luò)只能處理固定長(zhǎng)度的數(shù)據(jù),即輸入和輸出的維度都是固定長(zhǎng)度。

        對(duì)于一些場(chǎng)景下的任務(wù),比如給出一段文字描述,讓神經(jīng)網(wǎng)絡(luò)對(duì)這段話去做定性的情感分類(lèi)。因?yàn)橐欢挝淖质切蛄谢臄?shù)據(jù),從人類(lèi)的角度分析,一段文字是從前往后的逐詞閱讀,并能記憶之前的詞的信息,這樣可以動(dòng)態(tài)的理解上下文的含義。針對(duì)這樣的任務(wù),建立的模型需要能夠接收過(guò)去的輸入信息,使得網(wǎng)絡(luò)下一個(gè)時(shí)刻的輸出可以基于當(dāng)前輸入和上一時(shí)刻的輸入做計(jì)算。可以看出,卷積神經(jīng)網(wǎng)絡(luò)很難應(yīng)對(duì)序列化的數(shù)據(jù),無(wú)法提取到輸入數(shù)據(jù)之間的時(shí)序關(guān)聯(lián)信息[17-18]。

        循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)是一類(lèi)具有保存過(guò)去的信息的能力的網(wǎng)絡(luò)模型,可以處理序列數(shù)據(jù)[19]。RNN的隱藏層的狀態(tài)ht增加了一個(gè)自反饋回路,其輸出由當(dāng)前的輸入和上一時(shí)刻的隱藏層狀態(tài)ht-1計(jì)算得出。RNN的基本結(jié)構(gòu)如圖1所示。

        圖1 RNN單元結(jié)構(gòu)圖

        RNN在t時(shí)刻的隱藏層狀態(tài)ht的計(jì)算公式為:

        ht= tanh(b+Wht-1+Uxt)

        (1)

        其中:U為輸入層到隱藏層的權(quán)重矩陣,W為上一時(shí)刻隱藏層的狀態(tài)ht-1作為本次輸入的權(quán)重矩陣,b為偏置向量,x為輸入。Tanh為非線性激活函數(shù),其定義為:

        (2)

        由式(1)可以看出,隱藏層的狀態(tài)ht不僅與包含了輸入x的信息,還包含了前一時(shí)刻的ht-1的信息,而ht-1又和ht-2有關(guān),以此遞推,每個(gè)時(shí)刻的隱藏層狀態(tài)ht代表了輸入序列中0~t時(shí)間步的輸入信息。這是循環(huán)神經(jīng)網(wǎng)絡(luò)與靜態(tài)的卷積神經(jīng)網(wǎng)絡(luò)的主要不同,通過(guò)具有循環(huán)連接的自反饋回路,使得循環(huán)神經(jīng)網(wǎng)絡(luò)能夠利用其過(guò)去輸入的信息來(lái)處理時(shí)間序列的數(shù)據(jù),相比于卷積神經(jīng)網(wǎng)絡(luò)表示能力更強(qiáng)。

        循環(huán)神經(jīng)網(wǎng)絡(luò)的參數(shù)迭代更新由隨時(shí)間反向傳播的鏈?zhǔn)椒▌t來(lái)計(jì)算梯度,即通過(guò)偏導(dǎo)數(shù)遞歸自上而下的計(jì)算每層的誤差。給定一個(gè)數(shù)據(jù)集(x,y),其中x=(x1,…,xN)為輸入數(shù)據(jù),長(zhǎng)度為N,如文本序列。y=(y1,…,yN)為期望輸出的真實(shí)標(biāo)簽,長(zhǎng)度為N。在時(shí)間步t,定義神經(jīng)網(wǎng)絡(luò)的損失函數(shù)為:

        Lt=L(yt,f(ht))

        (3)

        其中:f(ht)為t時(shí)刻網(wǎng)絡(luò)的輸出,f(·)為Sigmoid型非線性函數(shù)[20]。損失函數(shù)L是可微的。則遍歷整個(gè)序列數(shù)據(jù)的損失函數(shù)之和對(duì)參數(shù)W的梯度為:

        (4)

        因?yàn)橐话悴捎肧igmoid型非線性函數(shù)作為網(wǎng)絡(luò)模型的激活函數(shù)來(lái)增強(qiáng)循環(huán)神經(jīng)網(wǎng)絡(luò)的表示能力,其導(dǎo)數(shù)值都小于1,因此如果輸入序列比較長(zhǎng),長(zhǎng)距離間隔的隱藏層狀態(tài)hk的梯度會(huì)趨向于0,也稱(chēng)為長(zhǎng)程依賴(lài)問(wèn)題,參數(shù)更新實(shí)際上只依賴(lài)相鄰的幾個(gè)隱藏層狀態(tài)hk,難以學(xué)習(xí)到長(zhǎng)時(shí)間間隔狀態(tài)的信息。

        1.2 長(zhǎng)短期記憶網(wǎng)絡(luò)

        長(zhǎng)短期記憶網(wǎng)絡(luò)是循環(huán)神經(jīng)網(wǎng)絡(luò)的一種改進(jìn)模型,引入了門(mén)控機(jī)制,避免了當(dāng)輸入序列較長(zhǎng)時(shí),網(wǎng)絡(luò)模型存在的梯度消失問(wèn)題[21-22]。LSTM結(jié)構(gòu)單元如圖2所示,這些內(nèi)部的門(mén)控單元是LSTM的重要組成部分。

        圖2 LSTM單元結(jié)構(gòu)圖

        LSTM增加了一種新的內(nèi)部狀態(tài)st,攜帶著之前時(shí)間步的歷史信息,可以跨越多個(gè)時(shí)間步將信息傳送到后面的時(shí)刻,同時(shí)非線性的更新外部的隱藏層狀態(tài)ht。

        (5)

        式中,xt為輸入值,ht為隱藏層的值,bf、Uf和Wf分別為偏置向量、輸入權(quán)值矩陣和遺忘門(mén)循環(huán)權(quán)值矩陣。

        (6)

        (7)

        (8)

        (9)

        其中:bo、Uo和Wo分別為偏置向量、輸入權(quán)值矩陣和輸出門(mén)循環(huán)權(quán)值矩陣。

        遺忘門(mén)決定內(nèi)部狀態(tài)將前一時(shí)刻的不相關(guān)信息丟棄,輸入門(mén)決定當(dāng)前時(shí)刻保存多少新輸入的信息,輸出門(mén)決定內(nèi)部狀態(tài)有多少信息傳遞給隱藏層狀態(tài)。正因?yàn)殚T(mén)控機(jī)制的存在,LSTM能夠?qū)W習(xí)到跨越多個(gè)時(shí)間步的信息。

        1.3 堆疊雙向LSTM

        單層的神經(jīng)網(wǎng)絡(luò)提取數(shù)據(jù)特征的能力弱,表示能力不足。深度學(xué)習(xí)是指從連續(xù)的表示層中學(xué)習(xí)輸入數(shù)據(jù)的高級(jí)特征表示,讓輸出數(shù)據(jù)更加接近預(yù)期的結(jié)果。本文設(shè)計(jì)了堆疊LSTM,前一層網(wǎng)絡(luò)的輸出作為本層網(wǎng)絡(luò)的輸入數(shù)據(jù),增加了LSTM網(wǎng)絡(luò)的深度,從而增強(qiáng)了神經(jīng)網(wǎng)絡(luò)模型的特征表示能力,使網(wǎng)絡(luò)的預(yù)測(cè)更為準(zhǔn)確。

        循環(huán)神經(jīng)網(wǎng)絡(luò)按順序處理輸入數(shù)據(jù)的時(shí)間序列,單向的LSTM只輸入了數(shù)據(jù)的正序,輸出只取決于之前時(shí)刻的時(shí)序信息。然而,在某些場(chǎng)景下,當(dāng)前時(shí)刻的輸出不僅取決于之前時(shí)刻的信息,還和后續(xù)時(shí)刻的信息有關(guān),比如一個(gè)詞匯的意思需要根據(jù)其上下文的信息來(lái)判斷。雙向的LSTM包含兩個(gè)LSTM網(wǎng)絡(luò)層,分別按照時(shí)間順序和逆序提取數(shù)據(jù)特征,然后將兩個(gè)LSTM網(wǎng)絡(luò)層的輸出拼接起來(lái),雙向的LSTM能夠提取到被單向LSTM忽略的特征??紤]到雷達(dá)回波的相鄰數(shù)據(jù)具有一定的相關(guān)性,目標(biāo)回波的特征包含了前后數(shù)據(jù)的信息,本文采用雙向LSTM對(duì)數(shù)據(jù)進(jìn)行建模,增強(qiáng)網(wǎng)絡(luò)的能力,得到更加豐富的特征表示。

        現(xiàn)有的深度學(xué)習(xí)框架可以搭建任意的神經(jīng)網(wǎng)絡(luò)模型,將上述的兩種LSTM網(wǎng)絡(luò)模型相結(jié)合,在第一層雙向LSTM上堆疊搭建第二層雙向LSTM,得到本文的堆疊雙向LSTM網(wǎng)絡(luò)模型,綜合提高網(wǎng)絡(luò)的表示能力。

        1.4 序列到類(lèi)別的學(xué)習(xí)模式

        有一個(gè)長(zhǎng)度為N的數(shù)據(jù)集x=(x1,…,xN)。將輸入數(shù)據(jù)x按照時(shí)間順序輸入到LSTM網(wǎng)絡(luò)中,可以得到N個(gè)時(shí)刻的隱藏層輸出ht。對(duì)于多層堆疊的LSTM,要求中間層返回每個(gè)時(shí)間步的輸出傳遞給下一層計(jì)算,最后一層LSTM只取最后一個(gè)時(shí)間步的輸出hN作為最終整個(gè)序列的特征表示,因?yàn)閔t包含之前所有時(shí)間步的信息。最后將hN輸入給分類(lèi)模型f(·)預(yù)測(cè)樣本類(lèi)別。

        (10)

        其中:f(·)在二分類(lèi)問(wèn)題常用Logistic回歸。

        本文的網(wǎng)絡(luò)模型輸入的數(shù)據(jù)為雷達(dá)目標(biāo)回波序列,輸出為無(wú)人機(jī)和噪聲的二分類(lèi),即設(shè)計(jì)的LSTM的輸入輸出結(jié)構(gòu)為N→1。

        2 模型與方法

        2.1 模型結(jié)構(gòu)

        本文搭建的模型為堆疊雙向LSTM網(wǎng)絡(luò)。模型結(jié)構(gòu)如圖3所示。網(wǎng)絡(luò)使用Python編程,在TensorFlow框架下搭建模型。

        圖3 模型結(jié)構(gòu)

        在TensorFlow中使用Bidirectional層將一個(gè)雙向LSTM實(shí)例化,創(chuàng)建了兩個(gè)LSTM層實(shí)例,然后使用其中一個(gè)LSTM層按正向序列處理輸入數(shù)據(jù),另一個(gè)LSTM層按逆向序列處理輸入數(shù)據(jù)。

        網(wǎng)絡(luò)共三層,包含兩層LSTM層和一層Dense層,第一層的LSTM分為前向LSTM和后向LSTM,每個(gè)LSTM隱藏單元的個(gè)數(shù)為32,將輸入的二維數(shù)據(jù)映射到32維的表示空間中,使神經(jīng)網(wǎng)絡(luò)能夠提取到更為深層的特征,然后將每個(gè)時(shí)間步的前向和后向LSTM隱藏層輸出拼接起來(lái),得到長(zhǎng)度為64的特征序列輸入下一個(gè)LSTM層。第二層的LSTM隱藏單元的個(gè)數(shù)為16,接收前一個(gè)LSTM層每個(gè)時(shí)間步的輸出,最后一層的Dense層只接收前一個(gè)LSTM層最后一個(gè)時(shí)間步的輸出,即接收到的序列長(zhǎng)度為32。Dense層,即全連接層,對(duì)應(yīng)的運(yùn)算為:

        (11)

        其中:wT為N維的權(quán)重向量,x為神經(jīng)元的輸入序列,b是偏置向量。

        Dense層的激活函數(shù)選取非線性函數(shù)Logistic,最終得到一個(gè)[0,1]之間的概率輸出。函數(shù)定義為:

        (12)

        目標(biāo)分類(lèi)的判斷原則為:如果輸出概率小于0.5,則認(rèn)為當(dāng)前樣本為無(wú)人機(jī);如果輸出概率大于0.5,則認(rèn)為當(dāng)前樣本為噪聲。

        2.2 損失函數(shù)與優(yōu)化器

        損失函數(shù)是度量網(wǎng)絡(luò)模型輸出的預(yù)測(cè)結(jié)果與樣本類(lèi)別標(biāo)簽的誤差的一種映射,損失函數(shù)的值越小,說(shuō)明網(wǎng)絡(luò)模型對(duì)數(shù)據(jù)擬合度越好。訓(xùn)練神經(jīng)網(wǎng)絡(luò)過(guò)程中通過(guò)優(yōu)化網(wǎng)絡(luò)參數(shù)使損失函數(shù)盡可能最小化。對(duì)于本文中的二分類(lèi)問(wèn)題,選用交叉熵?fù)p失函數(shù):

        L=-[yilogfi(x)+(1-yi)log(1-fi(x))]

        (13)

        其中:yi表示樣本的標(biāo)簽,無(wú)人機(jī)的樣本標(biāo)簽為“0”,接收機(jī)噪聲的樣本標(biāo)簽為“1”。fi(x)表示模型對(duì)樣本的預(yù)測(cè)值。

        優(yōu)化器是根據(jù)損失函數(shù)的值對(duì)網(wǎng)絡(luò)參數(shù)進(jìn)行梯度下降更新的具體方式,實(shí)現(xiàn)了反向傳播算法。當(dāng)使用梯度下降法時(shí),所有權(quán)重參數(shù)的學(xué)習(xí)率是固定的。考慮到每個(gè)參數(shù)的損失函數(shù)偏導(dǎo)值都不相同,本文選用RMSprop優(yōu)化器,每次迭代基于網(wǎng)絡(luò)模型在該批量數(shù)據(jù)上的損失值自適應(yīng)地更新每個(gè)網(wǎng)絡(luò)參數(shù)的學(xué)習(xí)率,RMSprop算法設(shè)置了一個(gè)衰減率β來(lái)計(jì)算每次迭代梯度平方的指數(shù)移動(dòng)平均。

        Gt=βGt-1+(1-β)gt⊙gt

        (14)

        其中:gt為迭代梯度,β的值一般取0.9。

        RMSprop算法的參數(shù)更新公式為:

        (15)

        其中:α為全局學(xué)習(xí)率,本文默認(rèn)為0.001。ε為很小的正數(shù),取值為10-6,用來(lái)保持計(jì)算公式的數(shù)值穩(wěn)定。從上式可以看出,RMSprop算法中學(xué)習(xí)率與參數(shù)的偏導(dǎo)數(shù)累積量成反比,可以減緩梯度下降中的震蕩,加快網(wǎng)絡(luò)收斂速度。

        2.3 參數(shù)初始化與網(wǎng)絡(luò)正則化

        神經(jīng)網(wǎng)絡(luò)的損失函數(shù)為非凸函數(shù),并且模型的結(jié)構(gòu)龐大,參數(shù)量多,導(dǎo)致深度神經(jīng)網(wǎng)絡(luò)在訓(xùn)練大批量的數(shù)據(jù)集時(shí),較難收斂到一個(gè)全局最優(yōu)解。

        當(dāng)使用梯度下降法更新神經(jīng)網(wǎng)絡(luò)各個(gè)節(jié)點(diǎn)的權(quán)重參數(shù)時(shí),參數(shù)的初始化方案影響著網(wǎng)絡(luò)的收斂速度。

        訓(xùn)練神經(jīng)網(wǎng)絡(luò)時(shí),為了避免過(guò)擬合問(wèn)題,增強(qiáng)模型的泛化能力,本文采用隨機(jī)丟棄每一層神經(jīng)元的連接的方式來(lái)限制模型復(fù)雜度。對(duì)于LSTM網(wǎng)絡(luò)而言,為了保證LSTM在時(shí)間序列上的記憶能力,只針對(duì)輸入層的神經(jīng)元連接進(jìn)行丟棄,并且為了使輸入變化波動(dòng)不會(huì)太大,神經(jīng)元連接的保留率設(shè)定為0.9。

        3 實(shí)驗(yàn)結(jié)果與分析

        本文搭建的網(wǎng)絡(luò)模型訓(xùn)練所采用的數(shù)據(jù)集來(lái)自于線性調(diào)頻連續(xù)波雷達(dá)的實(shí)測(cè)數(shù)據(jù),典型的線性調(diào)頻連續(xù)波雷達(dá)對(duì)目標(biāo)回波和發(fā)射信號(hào)的差拍信號(hào)進(jìn)行快速傅里葉變換(FFT),即可得到目標(biāo)的距離信息。這里選擇將雷達(dá)信號(hào)處理流程中的距離向加窗FFT后的距離維解調(diào)數(shù)據(jù),以距離門(mén)為單個(gè)樣本單元并標(biāo)注信號(hào)類(lèi)別標(biāo)簽構(gòu)建數(shù)據(jù)集。本文采集了無(wú)人機(jī)和接收機(jī)噪聲兩種類(lèi)型的數(shù)據(jù)共13 000個(gè),兩類(lèi)樣本各占6 500個(gè),其中,無(wú)人機(jī)的樣本標(biāo)簽記為“0”,接收機(jī)噪聲的樣本標(biāo)簽記為“1”。樣本樣例如圖4、圖5所示。

        圖4 無(wú)人機(jī)雷達(dá)回波樣本樣例

        圖5 接收機(jī)噪聲樣本樣例

        為了便于評(píng)估模型性能,將數(shù)據(jù)集劃分為訓(xùn)練集、驗(yàn)證集和測(cè)試集,相互之間無(wú)重復(fù)。在訓(xùn)練集上調(diào)用模型進(jìn)行訓(xùn)練,在驗(yàn)證集上評(píng)估模型的性能并優(yōu)化超參數(shù)。一旦模型的參數(shù)調(diào)到最優(yōu),則用測(cè)試集數(shù)據(jù)測(cè)試一下模型的最終效果。留出一定比例的數(shù)據(jù)作為測(cè)試集是為了防止信息泄露,測(cè)試模型的泛化能力。劃分后的樣本數(shù)據(jù)量如表1所示。

        表1 數(shù)據(jù)集劃分

        本文采集的樣本數(shù)據(jù)來(lái)自雷達(dá)接收機(jī)的正交IQ信號(hào),輸入單個(gè)樣本的尺寸為(290,2),特征為2維,樣本總數(shù)為13 000。

        神經(jīng)網(wǎng)絡(luò)的參數(shù)初始化權(quán)重一般較小,若輸入數(shù)據(jù)不同維度的取值波動(dòng)較大,不利于神經(jīng)網(wǎng)絡(luò)的迭代訓(xùn)練。首先需要對(duì)輸入神經(jīng)網(wǎng)絡(luò)的樣本數(shù)據(jù)的2個(gè)維度的特征分別做標(biāo)準(zhǔn)化,使其滿足均值為0,方差為1,取值范圍保持在(0,1)之間。這樣可以讓不同維度的特征分布接近,避免極端異常值干擾模型訓(xùn)練,提升模型的收斂速度和精度。計(jì)算公式如下:

        (16)

        調(diào)用模型在訓(xùn)練數(shù)據(jù)上進(jìn)行迭代時(shí),批量大小設(shè)定為64,即每次迭代是用64個(gè)樣本計(jì)算批量損失對(duì)參數(shù)進(jìn)行更新,增加訓(xùn)練的穩(wěn)定性,加快收斂。訓(xùn)練樣本總量為9 600個(gè),每一輪訓(xùn)練進(jìn)行150次梯度更新,將模型在訓(xùn)練數(shù)據(jù)上迭代50個(gè)輪次。

        設(shè)置訓(xùn)練過(guò)程中模型性能的評(píng)價(jià)指標(biāo)為精度,即樣本識(shí)別的正確率。記錄每次迭代之后訓(xùn)練集和驗(yàn)證集的損失函數(shù)值和精度。網(wǎng)絡(luò)訓(xùn)練結(jié)果如圖6和圖7所示。

        圖6 訓(xùn)練精度和驗(yàn)證精度

        圖7 訓(xùn)練損失和驗(yàn)證損失

        如圖所示,訓(xùn)練精度和驗(yàn)證精度在50輪次訓(xùn)練后趨于穩(wěn)定,達(dá)到收斂。該模型的性能幾乎達(dá)到最優(yōu),同時(shí)在驗(yàn)證集也沒(méi)有產(chǎn)生過(guò)擬合,泛化能力良好。

        使用訓(xùn)練好的網(wǎng)絡(luò)模型在測(cè)試集上評(píng)估模型性能。測(cè)試集共包括1 000個(gè)樣本,無(wú)人機(jī)和噪聲的樣本各500個(gè),使用混淆矩陣來(lái)展示預(yù)測(cè)準(zhǔn)確率。其中橫軸代表預(yù)測(cè)類(lèi)別,縱軸表示真實(shí)類(lèi)別,如圖8所示。

        圖8 測(cè)試集結(jié)果的混淆矩陣

        由圖8可以看出,無(wú)人機(jī)樣本全部被正確識(shí)別為無(wú)人機(jī),98%的噪聲樣本被正確識(shí)別為噪聲。

        本文所搭建的堆疊雙向LSTM網(wǎng)絡(luò)與傳統(tǒng)SVM分類(lèi)方法和卷積神經(jīng)網(wǎng)絡(luò)識(shí)別方法的識(shí)別精度對(duì)比如表2所示。

        表2 識(shí)別算法結(jié)果對(duì)比 %

        通過(guò)對(duì)比可以得出,基于堆疊雙向LSTM的雷達(dá)目標(biāo)識(shí)別方法相比傳統(tǒng)的SVM分類(lèi)算法和基于卷積神經(jīng)網(wǎng)絡(luò)的目標(biāo)識(shí)別方法,在識(shí)別精度上有所提升,說(shuō)明本文構(gòu)建的堆疊雙向LSTM網(wǎng)絡(luò)在節(jié)省了人工提取目標(biāo)特征的同時(shí),還充分利用了雷達(dá)回波時(shí)序數(shù)據(jù)的前后相關(guān)性,使得模型提高了識(shí)別精度。

        4 結(jié)束語(yǔ)

        傳統(tǒng)的恒虛警檢測(cè)算法和基于SVM的目標(biāo)分類(lèi)技術(shù)存在自適應(yīng)能力差,人工量大的問(wèn)題。本文提出的基于堆疊雙向LSTM的雷達(dá)目標(biāo)識(shí)別方法,采用了雙向LSTM提取雷達(dá)回波數(shù)據(jù)的時(shí)序特征,同時(shí)通過(guò)堆疊多層LSTM增強(qiáng)了網(wǎng)絡(luò)的表示能力。實(shí)驗(yàn)表明,對(duì)于無(wú)人機(jī)目標(biāo)的識(shí)別分類(lèi),基于堆疊雙向LSTM的雷達(dá)目標(biāo)識(shí)別方法優(yōu)于傳統(tǒng)的SVM分類(lèi)算法和基于卷積神經(jīng)網(wǎng)絡(luò)的目標(biāo)識(shí)別方法。但該網(wǎng)絡(luò)模型若要應(yīng)用到實(shí)際場(chǎng)景中,需要采集更多的數(shù)據(jù)集來(lái)訓(xùn)練網(wǎng)絡(luò)模型,并通過(guò)模型壓縮等方式提高神經(jīng)網(wǎng)絡(luò)的實(shí)時(shí)性。另外,錄取貼合實(shí)際應(yīng)用需求的復(fù)雜場(chǎng)景下的雷達(dá)回波數(shù)據(jù),通過(guò)后續(xù)的研究驗(yàn)證神經(jīng)網(wǎng)絡(luò)模型對(duì)動(dòng)態(tài)變化的強(qiáng)雜波的處理的穩(wěn)定性。

        猜你喜歡
        雷達(dá)卷積神經(jīng)網(wǎng)絡(luò)
        有雷達(dá)
        大自然探索(2023年7期)2023-08-15 00:48:21
        基于3D-Winograd的快速卷積算法設(shè)計(jì)及FPGA實(shí)現(xiàn)
        神經(jīng)網(wǎng)絡(luò)抑制無(wú)線通信干擾探究
        電子制作(2019年19期)2019-11-23 08:42:00
        從濾波器理解卷積
        電子制作(2019年11期)2019-07-04 00:34:38
        雷達(dá)
        基于傅里葉域卷積表示的目標(biāo)跟蹤算法
        基于神經(jīng)網(wǎng)絡(luò)的拉矯機(jī)控制模型建立
        基于空時(shí)二維隨機(jī)輻射場(chǎng)的彈載雷達(dá)前視成像
        復(fù)數(shù)神經(jīng)網(wǎng)絡(luò)在基于WiFi的室內(nèi)LBS應(yīng)用
        現(xiàn)代“千里眼”——雷達(dá)
        亚洲精品久久久久成人2007| 久久精品国产www456c0m| 无遮无挡三级动态图| 亚洲成AV人久久| 99在线无码精品秘 人口| 国产爽快片一区二区三区| 亚洲精品一区三区三区在线| 国产精品久久久久久久| 99久久伊人精品综合观看| 一出一进一爽一粗一大视频免费的| 亚洲情精品中文字幕有码在线| 中文字幕人妻日韩精品 | 日本一区二区三区免费精品| 免费毛片a线观看| 亚洲男同志网站| 国产精品中文第一字幕| 国产亚洲日本精品二区| 99久久精品免费看国产| 国产在线精品一区二区三区不卡| 久久久久成人精品免费播放| av免费一区二区久久| 亚洲视频在线观看| 国产日韩网站| 精品国产一区二区三区毛片| 在线精品国产亚洲av蜜桃| 男女啪啪无遮挡免费网站| 亚洲精品成人av观看| av成人综合在线资源站| 高潮内射双龙视频| 亚洲欧美国产日韩天堂在线视| 亚洲福利av一区二区| 久久久极品少妇刺激呻吟网站| 高清偷自拍第1页| 亚洲国产精品尤物yw在线观看| 日本一区二区三区在线播放| 亚洲午夜精品一区二区麻豆av| 成人毛片一区二区| 人妻无码中文人妻有码| 日本在线中文字幕一区二区| 日本一区二区三区视频在线观看 | 按摩师玩弄少妇到高潮av|