亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于深度學習的移動目標智能識別

        2019-12-12 07:51:46楊佳敏史成卓
        航天電子對抗 2019年5期
        關(guān)鍵詞:識別率字典信噪比

        楊 蔚,楊佳敏,徐 青,史成卓

        (中國航天科工集團8511研究所,江蘇 南京 210007)

        0 引言

        雷達自動目標識別(RATR)是雷達當前發(fā)展狀況下的一種應(yīng)用,也是在民用和軍用領(lǐng)域引起廣泛興趣的一門研究課題。通常有三種遙感信息可以用于目標識別,即高分辨率距離像(HRRP)、合成孔徑雷達(SAR)圖像、逆合成孔徑雷達(ISAR)圖像。寬帶雷達的出現(xiàn),使得獲取目標的HRRP變得容易,使得基于HRRP的雷達自動對象識別更具吸引力。HRRP可以表示為由目標在各個距離單元上散射信號的合成幅值組成的實向量,由此可以得到一些幾何結(jié)構(gòu)信息,比如散射分布和目標大小,而這些信息都可以用于識別目標。因此,基于HRRP的雷達目標識別在雷達目標識別領(lǐng)域獲得了高度關(guān)注。

        圖2 移動目標識別系統(tǒng)框架

        移動目標識別是RATR領(lǐng)域的關(guān)鍵問題。正如文獻[1~3]中所討論的,目前研究的大多數(shù)移動目標是非合作的。目標的運動信息,尤其是姿態(tài)角,很難精確測量,這給運動補償帶來了巨大困難。同時,還有一種移動目標識別的方法是在 ISAR 圖像域劃分等級?;赗ATR的HRRP方法的顯著優(yōu)勢為:在訓練和分級過程中,無需為形成圖像而做數(shù)據(jù)處理[3]。然而,目標姿態(tài)角變化同樣也帶來了一些挑戰(zhàn)。為解決這一問題,近期許多研究者進行了研究。文獻[1]提出了一種應(yīng)用動態(tài)系統(tǒng)和主要分量分析(PCA)的方法,該方法可以有效識別不同姿態(tài)角上的目標。文獻[3~4]將序列中HRRP之間的時間依賴和隱藏馬爾可夫模型應(yīng)用于RATR。其中文獻[3]提出一種使用多任務(wù)學習框架的移動目標識別方法同樣取得了有潛力的成果。最近,文獻[2]提出了一種雷達HRRP目標識別方法,將經(jīng)驗?zāi)B(tài)分解(EMD)方法與稀疏重建算法的非負梯度投影(NGPSR)相結(jié)合。這些方法均取得了一些成就,但都無法消除姿態(tài)角變化對識別造成的影響。

        針對這一問題,本文提出了一種基于三維過完備字典的移動目標識別方法,該方法提出一種時間-空間-能量三維過完備字典來描述移動目標,并使用遷移學習來尋找不同姿態(tài)角目標數(shù)據(jù)之間的共同點,可以識別移動目標并抑制其動作造成的影響。

        1 系統(tǒng)描述

        HRRP是一個在雷達目標識別領(lǐng)域被廣泛利用的實向量,它由目標散射在各個距離單元上的反射回來的合成幅值的相關(guān)總和組成。HRRP的增益過程如圖1所示。然而,HRRP 目標識別并不能用于移動目標識別。目標移動引起的姿態(tài)角變化將大幅改變目標的統(tǒng)計特性。因此,本文探討了一種基于三維過完備字典和遷移學習的移動目標識別方法。移動目標識別系統(tǒng)框架如圖2所示。

        圖1 飛機目標樣本及散射的舉例

        該識別系統(tǒng)可以分為訓練與識別2個部分。訓練共分為三個階段:第一階段,產(chǎn)生移動目標信息與基于已知對象HRRP序列的時間-空間-能量三維分布之間的映射;第二階段,基于已知對象更新三維過完備字典,以適應(yīng)移動目標的識別;最后階段,利用遷移學習找出不同目標姿態(tài)角之間關(guān)鍵的共同點。在識別過程中,將基于稀疏表示模型對未知姿態(tài)角的目標樣本進行分解并加以識別。

        2 特征學習與識別2.1 基于高階自相關(guān)函數(shù)的三維過完備字典

        在本文中,用HRRP序列的三維分布空間來描述移動目標,并在三維過完備字典之上進行分解,然后從三維過完備字典中提取抑制目標姿態(tài)角變化影響的特征。

        令g(r)為立體參考空間DT:T×F×E上的三維立體空間單元,且r=(t,f,e)T,其中F和E分別表示目標樣本的頻率和能量,T是時間長度。令aie、aif、ait分別作為能量、頻率、時間上的位移,且限制aie、aif、ait∈{±Δr,0},這樣一來,高階自相關(guān)函數(shù)的范圍被限制在一個N∈{0,1,…,26}的立方空間上,如圖3所示。

        圖3 參數(shù)空間模型

        此時定義第N階自相關(guān)函數(shù)為:

        (1)

        DS={r|r+ai∈DT?i}

        (2)

        式中,r=(t,f,e)T為參考點,ai(i=1,2,…,N)表示相對參考點r的位移向量。高階局部自相關(guān)向量由以a1,a2…,aN為局部變量的RN(a1,a2…,aN)組成。

        特別地,式(1)可以推出類似的離散形式:

        (3)

        在二進制分布的情況下(f(r)=1或0),參考點(t,f,e)的范圍可以限制在1,即g(r)=1。向量組(a1,a2…,aN)可由在DT中的一個局部三維分布表示,即信號空間單元。那么,二進制分布的第N階自相關(guān)函數(shù)可以等價為計算滿足邏輯條件點的數(shù)目,即:

        g(r)∧g(r+a1)∧…∧g(r+aN)=1

        (4)

        高階自相關(guān)函數(shù)可以變形成以上關(guān)于g的邏輯條件所定義的模式的計數(shù)。對著參考點r的變化,X可通過CHLAC字典中的空間單元來進行分解。

        2.2 字典學習

        字典學習是為了找到能最佳表示訓練信號的子字典,通過字典學習,可以訓練各字典適應(yīng)訓練數(shù)據(jù)。對于已知的字典D,令Y作為訓練數(shù)據(jù),最佳學習子字典D*∈Rm×d,應(yīng)該是式(5)的最小值:

        (5)

        式中,‖·‖表示弗羅貝尼烏斯范數(shù),X為精簡系數(shù)矩陣。

        通常字典學習是用以解決聯(lián)合優(yōu)化問題,過程中會引入更高的計算復雜度。為減小計算復雜度,本文提出了一種簡潔的三維字典學習方法。在此方法中,字典學習通過解析方式實現(xiàn),而不是直接去解決聯(lián)合優(yōu)化問題。通過分析訓練數(shù)據(jù)的三維分布內(nèi)容,找出訓練數(shù)據(jù)中有效的空間單元,并刪除不相關(guān)空間單元并得到可學習的字典。

        首先,構(gòu)建參考空間M,如圖3所示。在M中,在t軸上取3個相鄰空間單元記為(M-1,M0,M+1),每一層為一個獨立的(e,f)平面。將每一個(t,x)平面劃分為3×3的模塊,分別標記對應(yīng)位置為a,b,c,d,e,f,g,h,i,因此在M中總共有27 個空間單元。把M0層的單元e看作參考點。給每一個單元(從M-1中的a到M-1中的i)加2n的權(quán)重((n∈ [0, 1, …, 26])。因此,組成單元的每個空間單元都可以用一個權(quán)重來表示,這個權(quán)重是空間單元中所有單元權(quán)重的累加和。將M與訓練樣本做離散卷積,即:

        (6)

        式中,r(t,f,e)表示訓練樣本的三維分布,Wb(·)為目標信號的二值分布函數(shù)。

        當參考點穿過訓練數(shù)據(jù)的三維分布。卷積結(jié)果將記錄在訓練數(shù)據(jù)分布中。因此,在訓練數(shù)據(jù)中可以計算出每個空間單元的出現(xiàn)頻率,同時去除無關(guān)的空間單元,大大減少字典所需的計算量。

        2.3 基于遷移學習的特征學習

        遷移學習的提出是為了解決如何將從數(shù)據(jù)或特征獲得的知識進行再次利用[5-6],其實質(zhì)是發(fā)掘不同學習任務(wù)之間的共性,實現(xiàn)跨界的知識傳送[7-8]。

        共享隱藏層自編碼(SHLA)是一種高效遷移學習方法,本文使用該方法來獲得字典D*中共同點的特征集合[9]。SHLA的結(jié)構(gòu)如圖4所示。

        圖4 單層共享隱層式自動編碼機

        如圖4所示,它設(shè)置的目標值與輸入一致,以便在無監(jiān)督模式下自動找到訓練數(shù)據(jù)與測試數(shù)據(jù)的共同特征表達式。在輸入x的響應(yīng)中,隱藏表達式h(x)表示為:

        h(x)=f(W1x+b1)

        (7)

        式中,f(z)是一個非線性激勵函數(shù),W1是權(quán)重矩陣且b1是一個偏差向量。

        (8)

        式中,W2是權(quán)重矩陣且b2是偏差向量。

        注意SHLA對從輸入層到影藏層的映射分享相同的參數(shù),但是重建過程中使用的是獨立參數(shù)。設(shè)Xtr的訓練樣本,Xte的測試樣本。這兩個樣本的重構(gòu)誤差表示如下:

        (9)

        (10)

        最后,通過連接2個集合間的距離可以得到總體目標函數(shù):

        JSA(θSA)=Jtr(θtr)+λJte(θte)

        (11)

        3 仿真結(jié)果與討論3.1 仿真數(shù)據(jù)

        在仿真中,將考察本文提出方法的移動目標識別率,另外,將研究本方法抑制信噪比改變的強度。為了測試該方法的普遍性,訓練數(shù)據(jù)僅包含測試數(shù)據(jù)的一個姿態(tài)角,而測試數(shù)據(jù)將包含全部的姿態(tài)角。

        用2部分數(shù)據(jù)來研究上文提出框架的性能。一部分是飛機的仿真HRRP數(shù)據(jù),包括B-52、TU-16和F-15。另一部分是從三架真實飛機上測量的HRRP數(shù)據(jù),分別為Yark-42、Cessna Citatio S/Ⅱ和An-26。飛行目標的信息如表1所示。

        表1 飛行目標的信息

        由于目標移動,目標的姿態(tài)角會發(fā)生變化。因此,Yark-42、Cessna Citatio S/Ⅱ和An-26的姿態(tài)角測量數(shù)據(jù)分別為5個、7個和7個,且目標姿態(tài)角的仿真數(shù)據(jù)位6個。

        3.2 仿真結(jié)果

        首先,根據(jù)不同特征集合(即m)大小時的識別率評估了本方案的性能。實際上,m也是SHLA上的隱藏節(jié)點數(shù)量,它能影響移動對象不同姿態(tài)角之間的普遍性。

        如圖5所示,當m從10增長到100時,平均識別率從大約63%增加到93%。這表明本文提出的方法可以用少量的特征來識別不同姿態(tài)角上的雷達目標并達到了滿意的結(jié)果。此外,從m=10到m=60時,有一個快速增長的過程。特別地,當m=60時,平均識別接收率達到大約92%。這個結(jié)果可以很好地證明本文提出的方法的有效性。這也意味著可以使用一個姿態(tài)角上的目標信息來識別其他姿態(tài)角上的目標。

        為了在識別率和計算復雜度之間權(quán)衡,在下面的仿真中取m=60。

        在圖6中,用仿真數(shù)據(jù)集合評估本方案在不同姿態(tài)角上的平均識別率(ARR)性能??梢钥闯觯疚奶岢龅姆椒ㄔ谌孔藨B(tài)角上都達到了很高的AAR。由于只采用一組姿態(tài)角數(shù)據(jù)是用于訓練的,在全部測試數(shù)據(jù)集合上的AAR大約從90%變化到98%。在姿態(tài)角45°的區(qū)域上,ARR達到了高性能,即98%左右。此外,在每個域上,三種目標的ARR性能都非常接近。可以證明,通過遷移學習可以找到不同姿態(tài)角之間的共同知識。

        圖6 不同姿態(tài)角時的平均識別率

        圖7顯示了本方案當仿真數(shù)據(jù)集合在不同信噪比時的性能??梢杂^察到,隨著信噪比增加,本方案的識別率呈現(xiàn)出明顯的增長。在高信噪比環(huán)境下,本文提出的方案能達到很好的性能。信噪比20 dB時,ARR高于90%。特別地,當信噪比增長至40 dB時,識別率近似達到95%。在第信噪比環(huán)境下,本文方案也能呈現(xiàn)好的性能。更具體地說,方案能在10 dB信噪比時,達到超過80%的識別率且在信噪比20 dB時達到超過90%的識別率,這表明了本方案具有很好的抗噪性。

        圖7 不同信噪比時的平均識別率

        在圖8中,估計了本方案在不同訓練集合大小時平均識別率(ARR)性能??梢酝ㄟ^比較各種方法得出隨著訓練集合大小增加,各種方法的ARR增長情況。當訓練集合大小超過2000時,所有方法都得到了超過90%的識別率;且當訓練集合大小達到8000以上時,所有方法都得到了超過92%的識別率。多任務(wù)學習方法和遷移學習方法這兩種深度學習方法,在此階段具有很好的性能。它們比其它方法具有更高的平均識別率。與現(xiàn)有的方法相比,本文提出的方法在比較之下具有更好的性能。更具體地說,它在2048個訓練樣本評估中達到了93%以上的ARR,且在4096個訓練樣本的評估中達到了超過95%的ARR,這反映了本方法的有效性。

        圖8 平均識別率(ARR)性能

        在移動目標識別領(lǐng)域,一種與遷移學習類似的方法是基于多任務(wù)學習的框架,它同時也是一種深度學習方法。因此,將文獻[3]中提出的基于多任務(wù)學習的方案與本文方案進行比較。表2給出了有2048個訓練樣本的混淆矩陣??梢缘贸鼋Y(jié)論,在ARR性能上,提出的方案比基于多任務(wù)學習的方案性能更好。在給出的測試數(shù)據(jù)集中可以看到,本文方法比多任務(wù)學習框架的ARR高出約1.5%。

        表2 混淆矩陣比較

        圖9 不同信噪比時的ARR性能

        在圖9中,評估了本方案在不同信噪比時的ARR性能。在一個低信噪比條件下(5 dB),所有方案均表現(xiàn)出合格的識別率性能(接近或高于70%),其中OKMMPS-ARTR方案具有最高的ARR。當信噪比增長時,所有方案的平均識別率都明顯增長。尤其是本文提出的方案,當信噪比大于10 dB時比其它方案性能更好。在高信噪比條件下(高于30 dB),大多數(shù)方案的平均識別率超過了90%。SP-ARTR和MT-ARTR的識別率最小,并且當信噪比達到35 dB時趨于一致。比較之下,本文提出的方案顯然具有最好的性能。更具體地說,它在信噪比為10 dB、20 dB和40 dB的條件下,分別達到了80%、90%和95%的平均識別率。因此可以得出結(jié)論,無論在低信噪比還是高信噪比條件下,本文提出的方案都是有效的。

        4 結(jié)束語

        本文提出了一種基于三維字典的移動目標識別方法。首先,構(gòu)建了基于立方高階自相關(guān)函數(shù)的三維過完備字典表示移動目標;然后利用SHLA來提取目標特征,其中包含不同姿態(tài)角之間的共同知識;接著,使用來自一個姿態(tài)角的有限個目標樣本來訓練這個移動目標識別系統(tǒng)并識別出不同姿態(tài)角上的目標;最后,呈現(xiàn)仿真結(jié)果來證明本文提出方案的性能。從仿真結(jié)果可以看出,本文方法的正確性、效率以及抗噪性都優(yōu)于其它方法。

        猜你喜歡
        識別率字典信噪比
        開心字典
        家教世界(2023年28期)2023-11-14 10:13:50
        開心字典
        家教世界(2023年25期)2023-10-09 02:11:56
        基于類圖像處理與向量化的大數(shù)據(jù)腳本攻擊智能檢測
        計算機工程(2020年3期)2020-03-19 12:24:50
        基于深度學習的無人機數(shù)據(jù)鏈信噪比估計算法
        基于真耳分析的助聽器配戴者言語可懂度指數(shù)與言語識別率的關(guān)系
        低信噪比下LFMCW信號調(diào)頻參數(shù)估計
        電子測試(2018年11期)2018-06-26 05:56:02
        提升高速公路MTC二次抓拍車牌識別率方案研究
        低信噪比下基于Hough變換的前視陣列SAR稀疏三維成像
        雷達學報(2017年3期)2018-01-19 02:01:27
        我是小字典
        正版字典
        讀者(2016年14期)2016-06-29 17:25:50
        最近2019年好看中文字幕视频| 亚洲精品中文字幕乱码3| 亚洲不卡在线免费视频| 99无码熟妇丰满人妻啪啪| 99久久亚洲精品无码毛片| 精品久久综合一区二区| 日韩精品视频中文字幕播放| 久久天天躁夜夜躁狠狠85麻豆| 久久久久女人精品毛片| AV教师一区高清| 精品国产精品久久一区免费| 久久无码高潮喷水抽搐| 永久免费观看国产裸体美女| 亚洲无码a∨在线视频| 亚洲中文字幕乱码免费看| 老熟女的中文字幕欲望| 亚洲欧美激情在线一区| 亚洲日韩中文字幕在线播放| 久久精品国产亚洲av专区| 人妻中文字幕在线网站| 欧美人与动牲交a欧美精品| 久久精品国产屋| 一本久道久久丁香狠狠躁| 四川丰满妇女毛片四川话| 亚洲在AV极品无码天堂手机版| 国产免费人成视频在线观看播放 | 中文字幕+乱码+中文字幕一区| 四虎国产精品视频免费看| 亚洲av毛片一区二区久久| 日韩日韩日韩日韩日韩日韩日韩| 亚洲熟少妇在线播放999| 精品国产乱码一区二区三区在线 | 亚洲欧美日本人成在线观看| 国产高清视频在线不卡一区| 少妇人妻在线无码天堂视频网| 成人国产午夜在线视频| 日韩av中文字幕一卡二卡| 香蕉久久一区二区不卡无毒影院| 久久亚洲私人国产精品| A亚洲VA欧美VA国产综合| 久久日韩精品一区二区|