亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于棧式降噪稀疏自動(dòng)編碼器的雷達(dá)目標(biāo)識(shí)別方法

        2017-05-25 00:37:25趙飛翔劉永祥霍
        雷達(dá)學(xué)報(bào) 2017年2期
        關(guān)鍵詞:編碼器特征提取雷達(dá)

        趙飛翔 劉永祥霍 凱

        (國(guó)防科學(xué)技術(shù)大學(xué)電子科學(xué)與工程學(xué)院 長(zhǎng)沙 410073)

        基于棧式降噪稀疏自動(dòng)編碼器的雷達(dá)目標(biāo)識(shí)別方法

        趙飛翔 劉永祥*霍 凱

        (國(guó)防科學(xué)技術(shù)大學(xué)電子科學(xué)與工程學(xué)院 長(zhǎng)沙 410073)

        雷達(dá)目標(biāo)識(shí)別中特征提取是關(guān)鍵步驟,所提取特征的好壞決定著識(shí)別效果的優(yōu)劣,但傳統(tǒng)特征提取方法很難發(fā)掘目標(biāo)數(shù)據(jù)深層次本質(zhì)特征。深度學(xué)習(xí)理論中的自動(dòng)編碼器模型能夠用數(shù)據(jù)去學(xué)習(xí)特征,獲得數(shù)據(jù)不同層次的特征表達(dá)。同時(shí)為消除噪聲影響,該文提出一種基于棧式降噪稀疏自動(dòng)編碼器的雷達(dá)目標(biāo)識(shí)別方法,通過設(shè)置不同隱藏層數(shù)和迭代次數(shù),從雷達(dá)數(shù)據(jù)中直接高效地提取識(shí)別所需的各層次特征。暗室仿真數(shù)據(jù)實(shí)驗(yàn)結(jié)果驗(yàn)證了該方法較K近鄰分類方法及傳統(tǒng)棧式自編碼器有更好的識(shí)別效果。

        目標(biāo)識(shí)別;深度學(xué)習(xí);棧式降噪稀疏自動(dòng)編碼器

        1 引言

        雷達(dá)目標(biāo)識(shí)別是導(dǎo)彈防御系統(tǒng)的關(guān)鍵技術(shù)。雖然很多研究學(xué)者對(duì)此問題都進(jìn)行了大量的探索,但其依然是一項(xiàng)具有很高難度和挑戰(zhàn)性的工作。目前得到廣泛研究和應(yīng)用的雷達(dá)目標(biāo)識(shí)別方法主要基于以下幾種:目標(biāo)運(yùn)動(dòng)回波、極點(diǎn)分布、高分辨雷達(dá)成像以及極化特征[1]。這些方法都是先對(duì)目標(biāo)進(jìn)行特征提取,然后采用貝葉斯分類、決策樹分類、DS證據(jù)理論等方法對(duì)目標(biāo)進(jìn)行分類識(shí)別[2]。而作為關(guān)鍵步驟的特征提取過程則需要花費(fèi)大量時(shí)間精力,且特征多為人工設(shè)計(jì),從而造成很難獲得目標(biāo)數(shù)據(jù)深層本質(zhì)特征。文獻(xiàn)[3]將BP網(wǎng)絡(luò)應(yīng)用到目標(biāo)識(shí)別中,雖取得了不錯(cuò)的效果,但BP網(wǎng)絡(luò)是淺層網(wǎng)絡(luò),很難獲得數(shù)據(jù)深層次特征信息。因此如何自動(dòng)的從數(shù)據(jù)中提取有利于目標(biāo)識(shí)別的深層特征成了一個(gè)重要的問題。

        Hinton[4]等人于2006年提出的深度學(xué)習(xí)(Deep learning)理論可以有效解決這個(gè)問題。深度學(xué)習(xí)其本質(zhì)是通過搭建含有多層隱藏層的神經(jīng)網(wǎng)絡(luò),將數(shù)據(jù)進(jìn)行特征映射,獲取數(shù)據(jù)深層本質(zhì)信息。在識(shí)別分類中它將特征提取與分類器結(jié)合到一個(gè)框架中,用數(shù)據(jù)去學(xué)習(xí)特征,在使用中減少了人工特征提取的巨大工作量,提高了特征提取的效率[5,6]。目前公開發(fā)表的將深度學(xué)習(xí)理論應(yīng)用到雷達(dá)目標(biāo)識(shí)別中的文獻(xiàn)主要是對(duì)SAR圖像的目標(biāo)識(shí)別:文獻(xiàn)[7]將相似性約束的深度置信網(wǎng)絡(luò)應(yīng)用在SAR圖像目標(biāo)識(shí)別中,文獻(xiàn)[8]利用卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行SAR圖像目標(biāo)識(shí)別,而對(duì)于空間目標(biāo)的識(shí)別分類研究相對(duì)較少。

        自動(dòng)編碼器(AutoEncoder,AE)作為深度學(xué)習(xí)結(jié)構(gòu)的重要組成部分,在無監(jiān)督學(xué)習(xí)及非線性特征提取過程中扮演著重要角色,也被應(yīng)用到多種領(lǐng)域[9]。堆疊多個(gè)自動(dòng)編碼器可形成棧式自動(dòng)編碼器(stacked AutoEncoder,sAE)。棧式自動(dòng)編碼器能夠提取目標(biāo)數(shù)據(jù)更深層次的特征,挖掘數(shù)據(jù)本質(zhì)信息。文獻(xiàn)[10]將改進(jìn)的棧式自編碼器應(yīng)用于雷達(dá)HRRP識(shí)別中,取得了不錯(cuò)的效果,但其針對(duì)的是飛機(jī)目標(biāo),另外也未考慮到噪聲的影響。文獻(xiàn)[11]提出一種稀疏降噪自編碼神經(jīng)網(wǎng)絡(luò),但該網(wǎng)絡(luò)未考慮權(quán)重衰減,在訓(xùn)練過程中易造成過擬合;文獻(xiàn)[12]對(duì)稀疏降噪自編碼網(wǎng)絡(luò)進(jìn)行了研究,并分析了稀疏限制和隱藏層節(jié)點(diǎn)數(shù)對(duì)數(shù)據(jù)重構(gòu)和特征提取的影響,但其應(yīng)用領(lǐng)域只是在手寫體的分類上;文獻(xiàn)[13]將其應(yīng)用到靜態(tài)手勢(shì)識(shí)別中,文獻(xiàn)[14]將降噪稀疏自編碼器用于指紋的特征提取與識(shí)別,都證明了該方法的有效性。

        為了解決雷達(dá)目標(biāo)識(shí)別中特征提取面臨的問題,獲取目標(biāo)深層本質(zhì)特征信息,提高識(shí)別精度,本文提出基于棧式降噪稀疏自動(dòng)編碼器的雷達(dá)目標(biāo)識(shí)別方法,通過設(shè)置不同的隱藏層數(shù)和迭代次數(shù),獲取數(shù)據(jù)各層次的特征表達(dá),然后和K近鄰方法相結(jié)合,對(duì)目標(biāo)進(jìn)行識(shí)別。同時(shí)不同于前文所述文獻(xiàn)均采用平方差代價(jià)函數(shù),本文采用交叉熵代價(jià)函數(shù),能夠取得更優(yōu)的識(shí)別效果。

        2 基于棧式降噪稀疏自動(dòng)編碼器的雷達(dá)目標(biāo)識(shí)別方法

        2.1 自動(dòng)編碼器

        自動(dòng)編碼器是一種無監(jiān)督的學(xué)習(xí)算法,它通過讓目標(biāo)值與輸入值相等,即可以獲取數(shù)據(jù)中最重要信息[15]。一個(gè)自動(dòng)編碼器是一個(gè)2層的神經(jīng)網(wǎng)絡(luò),用來學(xué)習(xí)能夠恢復(fù)自身的非線性編碼。圖1為自動(dòng)編碼器的一個(gè)簡(jiǎn)單模型結(jié)構(gòu)。

        其中,m為樣本個(gè)數(shù),L為代價(jià)函數(shù)。文獻(xiàn)[16]證明了交叉熵代價(jià)函數(shù)要優(yōu)于平方差代價(jià)函數(shù),因此本文采用交叉熵代價(jià)函數(shù),其表達(dá)式為:

        其中,n為樣本維數(shù)。

        則在整個(gè)數(shù)據(jù)集條件下代價(jià)函數(shù)為:

        同時(shí)為了防止出現(xiàn)過擬合,需要添加一個(gè)正則化項(xiàng),則改進(jìn)后的代價(jià)函數(shù)為:

        2.2 稀疏自編碼器

        稀疏自編碼器(Sparse AutoEncoder,SAE)是由Bengio于2007年提出,它是在自編碼器基礎(chǔ)上添加約束條件,要求大部分節(jié)點(diǎn)為0,少部分不為0,從而具有更優(yōu)的學(xué)習(xí)數(shù)據(jù)特征的能力[17]。稀疏自動(dòng)編碼器代價(jià)函數(shù)為:

        2.3 降噪稀疏自編碼器

        降噪稀疏自編碼器(Denoising Sparse Auto Encoder,DSAE)是在稀疏自編碼器基礎(chǔ)上,對(duì)輸入數(shù)據(jù)進(jìn)行加噪處理,使得稀疏自編碼器學(xué)習(xí)去除這種噪聲,從而提高稀疏自編碼器對(duì)輸入數(shù)據(jù)的泛化能力,提高模型魯棒性[18]。降噪稀疏自編碼器結(jié)構(gòu)如圖2所示。

        圖2中,x為原始輸入數(shù)據(jù),為經(jīng)過加噪處理的數(shù)據(jù),通常加噪處理有兩種方法:一種是添加高斯噪聲;另一種是以二項(xiàng)分布隨機(jī)處理數(shù)據(jù),將輸入數(shù)據(jù)以一定概率置0。降噪稀疏自編碼器網(wǎng)絡(luò)代價(jià)函數(shù)為:

        2.4 棧式降噪稀疏自編碼器

        棧式降噪稀疏自編碼器(stacked Denoising Sparse Auto Encoder,sDSAE)是由多個(gè)DSAE堆疊形成。它可以獲得輸入數(shù)據(jù)更深層次特征。在訓(xùn)練時(shí),前一層網(wǎng)絡(luò)的輸出作為后一層網(wǎng)絡(luò)的輸入,逐層進(jìn)行訓(xùn)練。首先用經(jīng)過加噪處理的原始輸入數(shù)據(jù)訓(xùn)練第1個(gè)降噪稀疏自編碼器,得到輸入數(shù)據(jù)的1階特征表示然后將該特征表示作為下一個(gè)降噪稀疏自編碼器的輸入,得到2階特征表示依次類推,將第(n-1)階特征表示作為第n個(gè)降噪稀疏自編碼器的輸入,得到n階特征表示本文采用K近鄰分類方法,棧式降噪稀疏自編碼器網(wǎng)絡(luò)含有4層隱含層,其算法步驟總結(jié)如下:

        (1) 采用大量無標(biāo)簽數(shù)據(jù)作為網(wǎng)絡(luò)輸入,訓(xùn)練第1層降噪稀疏自編碼器,得到第1層隱藏層的輸出也即特征表示h

        (2) 把步驟1的輸出作為第2層網(wǎng)絡(luò)的輸入,訓(xùn)練得到第2層隱藏層的特征表示

        (3) 類比步驟2,可分別得到第3層和第4層隱藏層的特征表示

        (4) 將步驟1–步驟3的輸出和原始數(shù)據(jù)標(biāo)簽作為分類模板數(shù)據(jù);

        (5) 將測(cè)試數(shù)據(jù)輸入訓(xùn)練好的網(wǎng)絡(luò),得到測(cè)試數(shù)據(jù)的網(wǎng)絡(luò)表示;

        (6) 將用網(wǎng)絡(luò)產(chǎn)生的分類模板和測(cè)試數(shù)據(jù)的網(wǎng)絡(luò)表示輸入給分類算法,完成識(shí)別分類。使用棧式降噪稀疏自編碼器進(jìn)行識(shí)別分類的完整過程如圖3所示。

        3 實(shí)驗(yàn)結(jié)果與討論

        實(shí)驗(yàn)采用錐形目標(biāo)、仿錐形目標(biāo)、球形目標(biāo)的仿真數(shù)據(jù),其目標(biāo)結(jié)構(gòu)示意圖如圖4所示。測(cè)試波段為X波段,極化方式為水平極化,頻率范圍為8~12 GHz,頻率步長(zhǎng)為20 MHz,目標(biāo)方位角為0°~180°、步長(zhǎng)為0.2°,目標(biāo)俯仰角為0°,其RCS 3維效果圖如圖5(a)-圖5(c)所示。將目標(biāo)在每一個(gè)方位角下的RCS值作為輸入數(shù)據(jù),則每一個(gè)目標(biāo)有901個(gè)樣本,每一個(gè)樣本為201維,從每一個(gè)目標(biāo)樣本中取奇數(shù)位的451個(gè)樣本組成訓(xùn)練樣本,其余的偶數(shù)位樣本組成測(cè)試樣本,采用傳統(tǒng)識(shí)別方法,即先對(duì)目標(biāo)進(jìn)行特征提取,選用具有明確物理意義又兼有較好可分性的目標(biāo)特征:RCS均值、RCS方差以及RCS梅林變換均值、RCS梅林變換方差4類特征進(jìn)行仿真實(shí)驗(yàn),識(shí)別結(jié)果如表1所示;然后采用本文方法,對(duì)數(shù)據(jù)做歸一化處理,同時(shí)網(wǎng)絡(luò)參數(shù)設(shè)置為:因?yàn)闃颖揪S數(shù)為201,故將可見層單元數(shù)設(shè)置為201,由于模型深度和迭代次數(shù)的選擇并沒有統(tǒng)一的規(guī)定,通常是由實(shí)驗(yàn)數(shù)據(jù)和任務(wù)要求所決定,本文根據(jù)多次實(shí)驗(yàn)結(jié)果,設(shè)置隱藏層數(shù)為4層,隱藏層單元數(shù)為150-100-50-10,ρ取0.66,訓(xùn)練迭代次數(shù)依次為10次、30次和50次。通常加噪處理有兩種方法,一種是以二項(xiàng)分布隨機(jī)處理數(shù)據(jù),將輸入數(shù)據(jù)以一定概率置0,另一種是添加高斯噪聲。首先按第1種方法添加噪聲,其識(shí)別結(jié)果如表2所示;然后按第2種方法添加噪聲,其識(shí)別結(jié)果如表3所示。

        由表1可知,K近鄰方法具有較好的識(shí)別效果,能較為準(zhǔn)確地識(shí)別出目標(biāo),但從表中亦可看出,均值的效果最好,但增加了特征之后識(shí)別效果反而變差了,這是由于K近鄰分類方法常用于單特征目標(biāo)識(shí)別,文中多特征識(shí)別結(jié)果是在單特征識(shí)別結(jié)果基礎(chǔ)上求和取平均,這對(duì)每一個(gè)特征識(shí)別結(jié)果都有很高的要求,如果其中一個(gè)特征識(shí)別結(jié)果不理想,就會(huì)造成多特征識(shí)別結(jié)果相比單特征反而變差了。說明該方法對(duì)特征選擇依賴較高,所提取特征的好壞,以及不同的特征選擇,將直接影響到最終的識(shí)別效果,因此該方法的運(yùn)用需要豐富的經(jīng)驗(yàn)和相關(guān)專業(yè)知識(shí);而本文所提的棧式降噪稀疏自編碼器則可以較好地解決此問題。由表2實(shí)驗(yàn)結(jié)果可以看出,利用棧式降噪稀疏自編碼器進(jìn)行識(shí)別,不需要事先定義特征,只需將數(shù)據(jù)輸入網(wǎng)絡(luò),網(wǎng)絡(luò)將自動(dòng)地進(jìn)行學(xué)習(xí),獲得輸入數(shù)據(jù)各層次表示,也即特征表達(dá),將此特征表達(dá)利用K近鄰分類算法可取得不錯(cuò)的結(jié)果。此外隨著網(wǎng)絡(luò)深度的增加,將得到輸入數(shù)據(jù)更本質(zhì)的表示,最終分類識(shí)別結(jié)果更準(zhǔn)確;同時(shí)隨著迭代次數(shù)的增加,網(wǎng)絡(luò)優(yōu)化效果更好,也即達(dá)到更好的訓(xùn)練效果,分類識(shí)別結(jié)果也會(huì)更好。當(dāng)然并不是網(wǎng)絡(luò)深度越深越好、迭代次數(shù)越多越好,網(wǎng)絡(luò)的深度及迭代次數(shù)取決于網(wǎng)絡(luò)模型及輸入數(shù)據(jù)的規(guī)模,若數(shù)據(jù)規(guī)模并不大,盲目地增加網(wǎng)絡(luò)深度,最終效果并不會(huì)更好,只會(huì)徒增運(yùn)算耗時(shí);此外,不綜合考慮算法及數(shù)據(jù),增加迭代次數(shù),反而會(huì)使網(wǎng)絡(luò)訓(xùn)練過擬合,影響最終的識(shí)別效果。網(wǎng)絡(luò)模型深度及迭代次數(shù)的研究將是下一步的工作重點(diǎn),此處不加贅述。

        表1 選用不同特征K近鄰分類方法結(jié)果Tab. 1 Recognition results based on K-nearest neighbor method

        表2 采用sDSAE識(shí)別結(jié)果Tab. 2 Recognition results based on sDSAE

        表3 不同信噪比下采用sDSAE識(shí)別結(jié)果Tab. 3 Recognition results based on sDSAE under different SNR conditions

        為了進(jìn)一步說明本文方法的有效性,進(jìn)行了sAE與sDSAE的對(duì)比實(shí)驗(yàn),其中隱藏層數(shù)為4層,迭代次數(shù)依次設(shè)置為10次、30次、50次,其分類識(shí)別效果如圖6所示。

        由圖6可知,兩種網(wǎng)絡(luò)模型對(duì)于雷達(dá)目標(biāo)RCS數(shù)據(jù)的分類識(shí)別均有效,均不需要人工提取特征,網(wǎng)絡(luò)均能自動(dòng)學(xué)習(xí),但本文所提方法,因考慮了噪聲的影響,使得網(wǎng)絡(luò)模型更具魯棒性,并隨著迭代次數(shù)的增加,識(shí)別效果優(yōu)于傳統(tǒng)的棧式自編碼器。

        圖7考慮不同代價(jià)函數(shù)對(duì)最終識(shí)別效果的影響。由圖7可知,對(duì)于本文所用雷達(dá)數(shù)據(jù),采用兩種代價(jià)函數(shù)的網(wǎng)絡(luò)模型均能取得不錯(cuò)的識(shí)別效果,但隨著隱藏層數(shù)的增加,采用交叉熵代價(jià)函數(shù)的模型識(shí)別效果要優(yōu)于采用平方差代價(jià)函數(shù)的模型。

        通常加噪的方式有兩種,現(xiàn)按照添加高斯噪聲的方法對(duì)數(shù)據(jù)進(jìn)行加噪處理,其信噪比分別為20 dB,10 dB,5 dB。

        為了進(jìn)一步說明本文方法的有效性,進(jìn)行不同信噪比條件下sAE與sDSAE的對(duì)比實(shí)驗(yàn),其中隱藏層數(shù)為4層,迭代次數(shù)依次設(shè)置為10次、30次、50次,其分類識(shí)別效果如圖8所示。

        由表3和圖8可以看出,經(jīng)過添加高斯噪聲后,本文所提的棧式降噪稀疏自編碼器依然能取得較好的識(shí)別效果,雖然隨著信噪比的降低,識(shí)別準(zhǔn)確率有所下降,但當(dāng)隱藏層數(shù)為4時(shí),其準(zhǔn)確率仍能達(dá)到80%以上,相比sAE有較大提升。

        4 結(jié)束語

        雷達(dá)目標(biāo)識(shí)別在軍事和民用領(lǐng)域中都有重要意義,傳統(tǒng)目標(biāo)識(shí)別算法都需要先進(jìn)行特征提取,而該工作是耗時(shí)費(fèi)力且需要相關(guān)專業(yè)知識(shí)的。本文提出將棧式降噪稀疏自編碼器應(yīng)用于雷達(dá)目標(biāo)識(shí)別,可以解決傳統(tǒng)目標(biāo)識(shí)別中,將大量時(shí)間精力花費(fèi)在特征提取上,導(dǎo)致不能實(shí)時(shí)處理數(shù)據(jù)的問題。本文方法不需事先定義特征,模型能夠自動(dòng)地學(xué)習(xí)數(shù)據(jù),獲得數(shù)據(jù)各層次特征表達(dá)。通過設(shè)置不同隱藏層和迭代次數(shù)進(jìn)行仿真實(shí)驗(yàn),結(jié)果表明本文方法具有較好的識(shí)別效果。雖然隨著信噪比的降低,算法識(shí)別準(zhǔn)確率有所下降,但相比sAE算法仍有較大提升。但由于算法性能受模型深度和迭代次數(shù)的影響,而模型深度和迭代次數(shù)的選擇并沒有統(tǒng)一的規(guī)定,通常是由實(shí)驗(yàn)數(shù)據(jù)和任務(wù)要求所決定,因此算法的抗噪性能尚不能定量描述,針對(duì)此問題尚需進(jìn)一步的研究。

        [1]吳劍旗,田西蘭. 一種基于半監(jiān)督學(xué)習(xí)的窄帶雷達(dá)目標(biāo)識(shí)別系統(tǒng)[J]. 中國(guó)電子科學(xué)研究院學(xué)報(bào),2015,10(1): 49–53. Wu Jian-qi and Tian Xi-lan. A narrow-band radar target recognition system based on semi-supervised learning[J].Journal of CAEIT,2015,10(1): 49–53.

        [2]張平定,孫佳佳,童創(chuàng)明,等. 彈道中段目標(biāo)雷達(dá)綜合識(shí)別研究[J]. 微波學(xué)報(bào),2015,31(2): 20–23. Zhang Ping-ding,Sun Jia-jia,Tong Chuang-ming,et al.. Integrated target recognition of ballistic midcourse target[J].Journal of Microwaves,2015,31(2): 20–23.

        [3]曹偉,周智敏,周輝,等. 基于多維特征及BP網(wǎng)絡(luò)的高分辨雷達(dá)目標(biāo)識(shí)別[J]. 計(jì)算機(jī)工程與應(yīng)用,2013,49(8): 213–216. Cao Wei,Zhou Zhi-min,Zhou Hui,et al.. High resolution radar target recognition based on multi-dimensional feature vector and BP network[J].Computer Engineering and Applications,2013,49(8): 213–216.

        [4]Hinton G E and Salakhutdinov R R. Reducing the dimensionality of data with neural networks[J].Science,2006,313(5786): 504–507.

        [5]Lecun Y,Bengio Y,and Hinton G. Deep learning[J].Nature,2015,521(7553): 436–444.

        [6]尹寶才,王文通,王立春. 深度學(xué)習(xí)研究綜述[J]. 北京工業(yè)大學(xué)學(xué)報(bào),2015,41(1): 48–57. Yin Bao-cai,Wang Wen-tong,and Wang Li-chun. Review of deep learning[J].Journal of Beijing University of Technology,2015,41(1): 48–57.

        [7]丁軍,劉宏偉,陳渤,等. 相似性約束的深度置信網(wǎng)絡(luò)在SAR圖像目標(biāo)識(shí)別的應(yīng)用[J]. 電子與信息學(xué)報(bào),2016,38(1): 97–103. Ding Jun,Liu Hong-wei,Chen Bo,et al.. Similarity constrained deep belief networks with application to SAR image target recognition[J].Journal of Electronics&Information Technology,2016,38(1): 97–103.

        [8]田壯壯,占榮輝,胡杰民,等. 基于卷積神經(jīng)網(wǎng)絡(luò)的SAR圖像目標(biāo)識(shí)別研究[J]. 雷達(dá)學(xué)報(bào),2016,5(3): 320–325. Tian Zhuang-zhuang,Zhan Rong-hui,Hu Jie-min,et al.. SAR ATR based on convolutional neural network[J].Journal of Radars,2016,5(3): 320–325.

        [9]Jiang Xiao-juan,Zhang Ying-hua,Zhang Wen-sheng,et al.. A novel sparse auto-encoder for deep unsupervised learning[C]. 2013 Sixth International Conference on Advanced Computational Intelligence,Hangzhou,2013: 256–261.

        [10]Feng Bo,Chen Bo,and Liu Hong-wei. Radar HRRP target recognition with deep networks[J].Pattern Recognition,2017,61: 379–393.

        [11]張成剛,姜靜清. 一種稀疏降噪自編碼神經(jīng)網(wǎng)絡(luò)研究[J]. 內(nèi)蒙古民族大學(xué)學(xué)報(bào)(自然科學(xué)版),2016,31(1): 21–25. Zhang Cheng-gang and Jiang Jing-qing. Study on sparse De-noising Auto-Encoder neural network[J].Journal of Inner Mongolia University for Nationalities,2016,31(1): 21–25.

        [12]Meng Ling-heng,Ding Shi-fei,and Xue Yu. Research on denoising sparse autoencoder[J].International Journal of Machine Learning and Cybernetics,2016. DOI: 10.1007/s13042-016-0550-y.

        [13]Kumar V,Nandi G C,and Kala R. Static hand gesture recognition using stacked denoising sparse autoencoders[C]. 2014 Seventh International Conference on Contemporary Computing,Noida,2014: 99–104.

        [14]Sankaran A,Pandey P,Vatsa M,et al.. On latent fingerprint minutiae extraction using stacked denoising sparse AutoEncoders[C]. IEEE International Joint Conference on Biometrics,Clearwater,FL,2014: 1–7.

        [15]Jose Dolz,Nacim Betrouni,Mathilde Quidet,et al.. Stacking denoising auto-encoders in a deep network to segment the brainstem on MRI in brain cancer patients: A clinical study[J].Computerized Medical Imaging and Graphics,2016,52: 8–18.

        [16]Michael A Nielsen. Neural Networks and Deep Learning[M]. Determination Press,2015.

        [17]Sun Wen-jun,Shao Si-yu,Zhao Rui,et al.. A sparse autoencoder-based deep neural network approach for induction motor faults classification[J].Measurement,2016,89: 171–178.

        [18]Xing Chen,Ma Li,and Yang Xiao-quan. Stacked denoise autoencoder based feature extraction and classification for hyperspectral images[J].Journal of Sensors,2016. DOI: 10.1155/2016/3632943.

        趙飛翔(1989–),男,河南洛陽人,國(guó)防科學(xué)技術(shù)大學(xué)電子科學(xué)與工程學(xué)院在讀博士生,研究方向?yàn)槔走_(dá)目標(biāo)識(shí)別。

        E-mail: zfxkj123@sina.cn

        劉永祥(1976–),男,河北唐山人,博士,國(guó)防科學(xué)技術(shù)大學(xué)電子科學(xué)與工程學(xué)院教授,博士生導(dǎo)師,主要研究方向?yàn)槟繕?biāo)微動(dòng)特性分析與識(shí)別。

        E-mail: lyx_bible@sina.com

        霍 凱(1983–),男,湖北黃岡人,博士,國(guó)防科學(xué)技術(shù)大學(xué)電子科學(xué)與工程學(xué)院講師,主要研究方向?yàn)槔走_(dá)信號(hào)處理與目標(biāo)識(shí)別。

        E-mail: huokai2001@163.com

        Radar Target Recognition Based on Stacked Denoising Sparse Autoencoder

        Zhao Feixiang Liu Yongxiang Huo Kai
        (College of Electronic Science and Engineering,National University of Defense Technology,Changsha410073,China)

        Feature extraction is a key step in radar target recognition. The quality of the extracted features determines the performance of target recognition. However,obtaining the deep nature of the data is difficult using the traditional method. The autoencoder can learn features by making use of data and can obtain feature expressions at different levels of data. To eliminate the influence of noise,the method of radar target recognition based on stacked denoising sparse autoencoder is proposed in this paper. This method can extract features directly and efficiently by setting different hidden layers and numbers of iterations. Experimental results show that the proposed method is superior to the K-nearest neighbor method and the traditional stacked autoencoder.

        Target recognition; Deep learning; Stacked denoising sparse autoencoder

        TN957.51

        A

        2095-283X(2017)02-0149-08

        10.12000/JR16151

        趙飛翔,劉永祥,霍凱. 基于棧式降噪稀疏自動(dòng)編碼器的雷達(dá)目標(biāo)識(shí)別方法[J]. 雷達(dá)學(xué)報(bào),2017,6(2): 149–156.

        10.12000/JR16151.

        Reference format:Zhao Feixiang,Liu Yongxiang,and Huo Kai. Radar target recognition based on stacked denoising sparse autoencoder[J].Journal of Radars,2017,6(2): 149–156. DOI: 10.12000/JR16151.

        2016-12-22;改回日期:2017-01-10;

        2017-03-13

        *通信作者: 劉永祥 lyx_bible@sina.com

        國(guó)家自然科學(xué)基金優(yōu)秀青年基金(61422114),湖南省杰出青年科學(xué)基金(2015JJ1003)

        Foundation Items: The National Natural Science Foundation of China (61422114),The Natural Science Fund for Distinguished Young Scholars of Hunan Province (2015JJ1003)

        猜你喜歡
        編碼器特征提取雷達(dá)
        有雷達(dá)
        大自然探索(2023年7期)2023-08-15 00:48:21
        雷達(dá)
        基于Daubechies(dbN)的飛行器音頻特征提取
        電子制作(2018年19期)2018-11-14 02:37:08
        基于FPGA的同步機(jī)軸角編碼器
        Bagging RCSP腦電特征提取算法
        基于PRBS檢測(cè)的8B/IOB編碼器設(shè)計(jì)
        基于空時(shí)二維隨機(jī)輻射場(chǎng)的彈載雷達(dá)前視成像
        JESD204B接口協(xié)議中的8B10B編碼器設(shè)計(jì)
        電子器件(2015年5期)2015-12-29 08:42:24
        現(xiàn)代“千里眼”——雷達(dá)
        基于MED和循環(huán)域解調(diào)的多故障特征提取
        3d动漫精品啪啪一区二区下载| 精品人妖一区二区三区四区| 国产精品久久久久高潮| 男人一插就想射的原因| 中文字幕日韩精品中文字幕| 日产乱码一二三区别免费l| 国产黄在线观看免费观看不卡| 国产极品美女高潮抽搐免费网站| 超短裙老师在线观看一区| 国产视频自拍一区在线观看| 亚洲色在线v中文字幕| 日韩精品国产自在欧美| 亚洲国产大胸一区二区三区| 人人妻人人澡人人爽人人精品av| 人妻影音先锋啪啪av资源 | 特级毛片全部免费播放a一级| 全部亚洲国产一区二区| 色综合av综合无码综合网站 | av资源在线免费观看| 又湿又紧又大又爽a视频国产| 狠狠色狠狠色综合日日不卡| 亚州五十路伊人网| 在线观看午夜视频国产| 久久国产亚洲高清观看| 国产2021精品视频免费播放| 日本女优中文字幕四季视频网站 | 国产亚洲av一线观看| 亚洲综合网站久久久| 1000部精品久久久久久久久| 国产目拍亚洲精品区一区| 国内久久婷婷六月综合欲色啪| 鲁鲁鲁爽爽爽在线视频观看| 久久国产精99精产国高潮| 国内偷拍精品一区二区| 在线精品无码字幕无码av| 亚洲精品中文字幕无乱码麻豆| 青青青草视频手机在线| 小雪好紧好滑好湿好爽视频| 成人免费网站视频www| 国产高潮精品一区二区三区av | 亚洲av无码一区二区三区系列|