亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        深度學(xué)習(xí)在雷達中的研究綜述

        2018-09-14 10:44:56魏少明
        雷達學(xué)報 2018年4期
        關(guān)鍵詞:分類深度方法

        王 俊 鄭 彤 雷 鵬 魏少明

        (北京航空航天大學(xué)電子信息工程學(xué)院 北京 100191)

        1 引言

        雷達是一種通過電磁波探測物體的電子設(shè)備。其主要包括:發(fā)射機、發(fā)射天線、接收機、接收天線以及信號處理部分。發(fā)射機通過發(fā)射天線,將電磁波向外發(fā)射,在某方向上與物體發(fā)生碰撞,電磁波發(fā)生反射,反射回波則被接收天線和接收設(shè)備接收,傳至信號處理部分進行分析。該過程能夠有效提取物體距雷達的距離、物體徑向運動速度等信息。并且這些信息能夠滿足許多應(yīng)用場景的需求。例如,在軍事方面,其根據(jù)雷達所實現(xiàn)的功能不同,可分為預(yù)警雷達[1–3]、搜索警戒雷達[4–6]、導(dǎo)航雷達[7–9]以及防撞和敵我識別雷達等等。在社會科學(xué)發(fā)展方面,雷達可應(yīng)用于氣象預(yù)報[10–12]、資源探測[13–15]、環(huán)境監(jiān)測[16–18]等。鑒于雷達的廣泛應(yīng)用場景,對雷達信號處理的研究就顯得至關(guān)重要。

        近些年,深度學(xué)習(xí)成為各個領(lǐng)域的研究熱點,且在雷達領(lǐng)域同樣如此。本文主要介紹通過深度學(xué)習(xí)方法對不同形式雷達數(shù)據(jù)進行處理的研究情況,整體框架如圖1所示。經(jīng)過調(diào)研發(fā)現(xiàn),針對不同雷達成像原理以及信號處理方法,可獲得不同形式的雷達數(shù)據(jù)。例如,合成孔徑雷達(Synthetic Aperture Radar, SAR)圖像[19–24]、高分辨距離像(High Range Resolution Profiles, HRRP)[25–28]、微多普勒(Micro-Doppler)譜圖[29–32]以及距離多普勒(Range-Doppler, R-D)[33–36]譜圖等。本文則主要針對上述可獲取的雷達數(shù)據(jù)進行深度學(xué)習(xí)方法處理。其中,深度學(xué)習(xí)在SAR圖像處理領(lǐng)域已得到廣泛應(yīng)用,典型應(yīng)用的網(wǎng)絡(luò)包括卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN)[37]、稀疏自編碼器(Sparse AutoEncoder, SAE)[38]以及深度置信網(wǎng)絡(luò)(Deep Belief Network, DBN)[39]等等。其中,由于CNN在圖像處理中具有明顯優(yōu)勢,因此,基于CNN的SAR圖像處理應(yīng)用最為廣泛。本文同時介紹了通過上述3類網(wǎng)絡(luò)以及其他深度學(xué)習(xí)方法對HRRP, Micro-Doppler特征, R-D譜圖等雷達數(shù)據(jù)進行處理的研究近況。

        圖1 本文介紹流程Fig.1 Flow chart of this paper

        2 典型深度學(xué)習(xí)網(wǎng)絡(luò)基本原理

        2.1 CNN基本原理

        20世紀60年代,Hubel和Wiese研究貓腦皮層發(fā)現(xiàn)用于局部敏感和方向選擇的神經(jīng)元具有獨特的網(wǎng)絡(luò)結(jié)構(gòu),該結(jié)構(gòu)可以降低反饋神經(jīng)網(wǎng)絡(luò)的復(fù)雜性,針對此研究提出了CNN。近些年,針對CNN具有避免圖像的復(fù)雜前期預(yù)處理的優(yōu)勢,該網(wǎng)絡(luò)被廣泛應(yīng)用于圖像的模式分類領(lǐng)域。其基本架構(gòu)如圖2所示,經(jīng)典的CNN一般包括卷積層、池化層、全連接層和分類器。

        圖2 CNN結(jié)構(gòu)示意圖Fig.2 Typical CNN structure

        在卷積層中,其目的是對圖像進行特征提取。即通過對上一層輸出的特征圖進行卷積,并在加入偏置后通過一個激活函數(shù)激活,得到當(dāng)前層的輸出特征圖,即得到當(dāng)前層對應(yīng)特征情況,如式(1)所示:

        其中,x表示特征圖,Mj表示輸入特征圖的集合,k為卷積核,b為偏置,l是層序號,i是卷積核序號,j是特征圖通道序號。對于池化層而言,該層設(shè)置的目的是對圖像進行下采樣處理,而經(jīng)典的池化方法包括:最大池化、均值池化等。在全連接層中可將上一層得到的特征圖進行按順序排列,得到1維向量,對其進行典型神經(jīng)網(wǎng)絡(luò)連接。最后,對于不同神經(jīng)元的輸出進行分類器分類,一般采用softmax或支持向量機(Support Vector Machine,SVM)分類器,得到分類標(biāo)簽。

        在學(xué)習(xí)過程中,其主要針對網(wǎng)絡(luò)中的卷積核、偏置情況進行學(xué)習(xí),即需要通過反向迭代更新網(wǎng)絡(luò)參數(shù),進而使網(wǎng)絡(luò)獲得穩(wěn)定的識別效果,網(wǎng)絡(luò)訓(xùn)練結(jié)束。其中,反向迭代更新過程是通過對訓(xùn)練誤差進行隨機梯度下降處理。在典型的CNN中,訓(xùn)練誤差由式(2)表示:

        2.2 SAE基本原理

        自編碼器(AutoEncoder, AE)是一種盡可能復(fù)現(xiàn)輸入信號的神經(jīng)網(wǎng)絡(luò),可以代表輸入數(shù)據(jù)的最重要的因素,并且其類似主成分分析方法,能夠代表原信息的主要成分。其結(jié)構(gòu)如圖3所示。在AE的基礎(chǔ)上加上L1正則化限制,就可以得到一個SAE。該限制使每次的編碼表達盡量稀疏,更為有效。

        AE嘗試學(xué)習(xí)一個盡量滿足hw,b(x)≈x條件的網(wǎng)絡(luò)。即當(dāng)網(wǎng)絡(luò)輸出接近于輸入時,說明隱層神經(jīng)元可以表示為輸入元素的特征。在討論SAE的代價函數(shù)表示時,首先需要引入激活度的概念。用表示給定輸入為x的情況下,AE的隱層神經(jīng)元j的激活度,則將隱層神經(jīng)元j的平均激活度記為:

        圖3 AE結(jié)構(gòu)示意圖Fig.3 Typical AE structure

        其中,m為 神經(jīng)元個數(shù)。SAE是在AE的基礎(chǔ)上加入稀疏性限制,而該限制的目的是使隱藏神經(jīng)元的平均激活度特別小。為了滿足該條件,需要在原始神經(jīng)網(wǎng)絡(luò)約束條件下加入稀疏性限制這一項,作為額外的懲罰因子,也稱為相對熵,如式(4)所示:

        其中,s2是 隱層神經(jīng)元數(shù)量,ρ是稀疏性參數(shù)??梢园l(fā)現(xiàn),當(dāng)滿足條件時相對熵獲得最小值。

        SAE的總體代價函數(shù)可表示為:

        其中,J(w,b)為對應(yīng)自編碼器代價函數(shù),為控制系數(shù)性懲罰因子權(quán)重。

        2.3 DBN基本原理

        DBN是一個概率生成模型,其建立一個觀測數(shù)據(jù)與標(biāo)簽之間的聯(lián)合分布。并且DBN由多個受限玻爾茲曼機(Restricted Boltzmann Machine,RBM)組成,典型的DBN結(jié)構(gòu)如圖4所示。該網(wǎng)絡(luò)由隱層和可視層組成,且層間存在連接,層內(nèi)單元不存在連接。

        在典型的RBM中,其能量可表示為:

        其中,b,c,w分別為對應(yīng)可視層、隱層和可視層與隱層之間連接的權(quán)重,Nv為 可視層節(jié)點數(shù),為隱層節(jié)點數(shù),v為可視層輸出,h為隱層輸出。則進一步表示出隱層神經(jīng)元hj被激活的概率為:

        圖4 DBN結(jié)構(gòu)示意圖Fig.4 Typical DBN structure

        在訓(xùn)練過程中,當(dāng)一條數(shù)據(jù)賦給可視層時,計算出每個隱層的開啟概率,P(hj|x),j=1,2,···,Nh,進而比較其與閾值關(guān)系,大于閾值則激活,否則不激活。實現(xiàn)通過隱層計算出了可視層,之后通過對比散度算法對網(wǎng)絡(luò)參數(shù)進行學(xué)習(xí)。具體地,首先,將x賦給可視v1, 得到隱層的激活概率為P(h1|v1),在該概率密度函數(shù)中采取Gibbs抽樣抽取一個樣本h1~P(h1|v1);之后,通過h1重 構(gòu)可視層,計算可視層中每個神經(jīng)元被激活的概率P(v2|h1),同樣,從計算得到的概率分布中采取Gibbs抽樣抽取一個樣本v2~P(v2|h1);最后,通過v2計 算隱層中每個神經(jīng)元被激活的概率h2~P(h2|v2),以此類推。權(quán)值更新為:

        若干次訓(xùn)練后,隱層不僅能準確地表示可視層特征,而且還能還原可視層。

        3 基于深度學(xué)習(xí)的SAR圖像處理研究

        通過上一節(jié)的介紹,可對典型的CNN, SAE,DBN算法基本處理過程具備一定了解。在此基礎(chǔ)上,對雷達數(shù)據(jù)進行相應(yīng)的處理成為該領(lǐng)域的研究熱點。通過上述深度學(xué)習(xí)算法完成相應(yīng)的雷達數(shù)據(jù)處理任務(wù),并與傳統(tǒng)方法進行對比。進一步驗證了深度學(xué)習(xí)方法在進行自適應(yīng)特征提取中存在的顯著優(yōu)勢。

        在雷達領(lǐng)域中,SAR是一種兼具距離向和方位向高分辨能力的成像雷達。其一方面作勻速直線運行,一面以一定的脈沖重復(fù)頻率發(fā)射并接收信號。在距離向方面,它利用發(fā)射大時間帶寬積的線性調(diào)頻信號,采用脈沖壓縮技術(shù)來獲取高分辨率;在方位向,它利用目標(biāo)和雷達相對運動形成的軌跡構(gòu)成一個合成孔徑,以取代龐大的陣列實孔徑,獲得方位向高分辨率。此外,SAR成像技術(shù)相對于光學(xué)遙感技術(shù),主要具有以下優(yōu)點:SAR利用地表反射的主動式電磁波成像,不需要傳統(tǒng)光學(xué)成像的發(fā)光源,能夠?qū)崿F(xiàn)全天時、全天候的對地觀測;當(dāng)雷達波長選擇恰當(dāng)時,SAR能夠穿透云霧、植被等覆蓋物,觀測到被隱藏的地物;SAR可以是多極化、多頻段的,使圖像具有豐富的相位等極化信息,有助于SAR圖像的地物分類。鑒于SAR的眾多優(yōu)點,其在軍事和民用領(lǐng)域得到廣泛應(yīng)用。

        近些年,隨著深度學(xué)習(xí)的研究熱度逐漸增加,將深度學(xué)習(xí)方法運用到SAR圖像處理成為新的研究熱點。本節(jié)主要介紹深度學(xué)習(xí)算法在SAR圖像處理中的研究情況。在該領(lǐng)域中,上一節(jié)主要介紹的CNN, DBN及SAE均在該領(lǐng)域均取得一定的研究成果。

        3.1 基于CNN的SAR圖像處理研究

        基于CNN的SAR圖像處理最廣泛的應(yīng)用主要集中在目標(biāo)識別中,且典型的算法驗證數(shù)據(jù)庫為MSTAR數(shù)據(jù),通過對該數(shù)據(jù)進行識別處理,從而對比不同方法的識別效果。該數(shù)據(jù)庫包含10類目標(biāo),其示意圖如圖5所示。通過調(diào)研發(fā)現(xiàn),基于CNN對SAR圖像進行目標(biāo)類型識別基本保證獲得相比于傳統(tǒng)目標(biāo)識別方法更高的識別率。例如,南京理工大學(xué)的袁秋壯等人將CNN應(yīng)用于SAR目標(biāo)識別[40],該CNN網(wǎng)絡(luò)包括2層卷積層,2層下采樣層,3層dropout,2層全連接層。最終對MSTAR數(shù)據(jù)進行分類,平均識別率達到96.29%。此外,文獻[41]選擇對艦船數(shù)據(jù)進行訓(xùn)練及測試,其對4個場景下的SAR數(shù)據(jù)進行包含2層卷積層、2層全連接層的CNN訓(xùn)練,保證該網(wǎng)絡(luò)對4個場景艦船SAR圖像均具有穩(wěn)定的識別能力,進而對一個場景下艦船進行識別測試。結(jié)果顯示,該網(wǎng)絡(luò)能從非貨船目標(biāo)和海雜波中提取貨船目標(biāo)。在上述文獻中,由于缺少在不同艦船姿態(tài)情況下的艦船數(shù)據(jù),因此訓(xùn)練得到的CNN對不同艦船姿態(tài)SAR圖像適應(yīng)性較差,導(dǎo)致對于不同姿態(tài)的艦船識別率還有待提高。為了解決該問題,需要通過對訓(xùn)練數(shù)據(jù)進行完善,增加不同艦船姿態(tài)SAR圖像情況。

        圖5 MSTAR數(shù)據(jù)示意圖Fig.5 Illustration of MSTAR data

        為了解決訓(xùn)練數(shù)據(jù)量不足的問題,有學(xué)者提出通過一系列處理提升用于測試和訓(xùn)練的SAR質(zhì)量,使訓(xùn)練圖像能夠盡量完備地代表實際待分類的圖像情況。例如,西安電子科技大學(xué)的陳波團隊[42]對MSATAR圖像分別進行了目標(biāo)位置的平移,加入隨機斑點噪聲的操作,之后再進行識別測試。在原始數(shù)據(jù)、目標(biāo)位置平移、加入斑點噪聲3種情況下,通過CNN得到的識別率與傳統(tǒng)SVM等方法進行比較。CNN方法識別率分別為93.16%,82.40%以及91.89%。而傳統(tǒng)SVM方法下,識別率僅為75.68%,17.05%以及70.58%。其中,由于對目標(biāo)位置進行了平移變換,傳統(tǒng)SVM方法識別率下降劇烈,而CNN方法識別率相對于原始數(shù)據(jù),識別率僅下降10%左右,即說明CNN方法相對傳統(tǒng)方法具有更優(yōu)的魯棒性。哈爾濱工業(yè)大學(xué)的朱同宇[43]在經(jīng)典CNN模型基礎(chǔ)上引入ReLU激活函數(shù)、L2正則化、批量歸一化以及Dropout等現(xiàn)代深度學(xué)習(xí)技術(shù),并使用目標(biāo)鏡像、目標(biāo)位移、目標(biāo)旋轉(zhuǎn)以及加入噪聲這4種SAR圖像的數(shù)據(jù)增強方法,有效地抑制了過擬合問題。此外,其分別通過MSTAR實測數(shù)據(jù)集和OKTAL仿真數(shù)據(jù)集數(shù)據(jù)進行網(wǎng)絡(luò)性能測試。其中,在運用MSTAR數(shù)據(jù),且在原始測試集識別率達到98.22%的情況下,經(jīng)過4種擴充測試集,保證準確率仍在90%以上。同樣在對OKTAL仿真數(shù)據(jù)集進行測試時,平均識別率達到94.51%??梢姡瑢τ贑NN方法而言,在一定程度下魯棒性優(yōu)于傳統(tǒng)識別方法,且當(dāng)訓(xùn)練樣本與測試樣本更加接近時,所訓(xùn)練網(wǎng)絡(luò)特征提取越準確,識別率優(yōu)勢明顯。此外,文獻[44]提出通過兩級CNN識別虛假目標(biāo)。第1級CNN輸入數(shù)據(jù)為原始SAR圖像,且包含4類目標(biāo),每類分別由真實和虛假目標(biāo)組成;第2級CNN輸入數(shù)據(jù)為對陰影進行增強的處理后圖像,每類目標(biāo)的真實和虛假目標(biāo)分別為兩類,即完成8類目標(biāo)的識別。文獻[45,46]均對包含光學(xué)圖像和SAR圖像兩模態(tài)數(shù)據(jù)進行CNN目標(biāo)識別。其中,文獻[45]通過對云的光學(xué)圖像、SAR圖像進行CNN分類,獲得天氣情況。文獻[46]對兩模態(tài)數(shù)據(jù)分別進行不同通道的CNN特征提取,之后將獲取的兩通道特征圖進行全連接處理,進行分類器分類,即實現(xiàn)多模態(tài)數(shù)據(jù)分類識別。文獻[47]通過CNN對TerraSAR-X高分辨圖像進行分類,實現(xiàn)貨船、游輪、直升機、平臺以及港口的分類。在分類前,對感興趣區(qū)域需進行檢測預(yù)處理。

        另外,極化SAR數(shù)據(jù)相比于單通道SAR,更能體現(xiàn)雷達的入射角、SAR圖像噪聲等信息,因此,應(yīng)用場景更加廣泛。文獻[48–52]則對于極化SAR數(shù)據(jù)進行CNN處理,實現(xiàn)識別效果。其中,文獻[48]通過對雙極化SAR數(shù)據(jù)進行3D-CNN處理,實現(xiàn)對海水濃度進行判斷,從而對由于冰川造成航船行駛的危害進行預(yù)警。文獻[49]通過對多通道SAR數(shù)據(jù)進行6維實向量提取,然后對該6維實向量進行CNN分類。其中,對于極化SAR而言,其可表示為3×3的相干復(fù)矩陣:

        其中,對應(yīng)的6維實向量分別為:

        其中,A為 所有極化通道的總散射功率,SPAN=T11+T22+T33,B和C分別為T22和T33的歸一化功率比,D,E和F分別為相關(guān)系數(shù)。對于該6維實向量進行包含2層卷積層,2層最大池化層,1層全連接層和softmax分類器的CNN架構(gòu)建立。并且分別對典型的San Francisco和Flevoland多極化SAR數(shù)據(jù)庫中的數(shù)據(jù)進行分類處理,San Francisco數(shù)據(jù)在訓(xùn)練和識別部分分別獲得的識別率為99.43%和90.23%,F(xiàn)levoland數(shù)據(jù)的訓(xùn)練和識別準確率分別為99.20%和97.66%。此外,復(fù)旦大學(xué)的徐豐、王海鵬、金亞秋提出對極化SAR數(shù)據(jù)進行復(fù)數(shù)CNN(Complex Value-CNN, CV-CNN)識別,文獻[50]對同樣的Flevoland數(shù)據(jù)進行包含2層卷積層,1層池化層以及1層全連接層的CV-CNN進行地物目標(biāo)分類,平均識別率達到95.97%。文獻[51]則分別將實數(shù)CNN (Real Value-CNN, RV-CNN)與CV-CNN進行識別性能上的對比。兩模型均包含2層卷積層,1層池化層,1層全連接層,且均對Flevoland數(shù)據(jù)進行分類,準確率分別為97.3%和99.0%??梢?,針對極化SAR數(shù)據(jù)直接在復(fù)數(shù)域進行CNN處理效果稍優(yōu)于實數(shù)域情況。

        此外,由于傳統(tǒng)CNN模型針對SAR目標(biāo)識別處理問題仍存在提升空間,尤其是網(wǎng)絡(luò)訓(xùn)練存在一定的資源浪費,訓(xùn)練效率較低。其中,文獻[52]提出一種全卷積神經(jīng)網(wǎng)絡(luò)(All-Convolutional Neural Network, ACNN),即在傳統(tǒng)CNN模型下,將全連接層替換為稀疏連接層,從而針對MSTAR數(shù)據(jù)進行10類目標(biāo)分類,識別率達到99.13%。該文獻方法主要用于應(yīng)對網(wǎng)絡(luò)資源浪費的問題。在實際訓(xùn)練結(jié)果中可能存在部分權(quán)值、偏置參數(shù)接近0的情況,該部分對目標(biāo)識別未起到任何作用,造成資源一定程度的浪費。此外,SAR圖像質(zhì)量本身受相干斑噪聲、幾何畸變和結(jié)構(gòu)缺失等因素的嚴重影響,該因素導(dǎo)致人工標(biāo)注困難,這使CNN的泛化能力急劇下降。針對這個問題,上海交通大學(xué)的趙娟萍等人[53]提出基于概率轉(zhuǎn)移模型的CNN (Probability Transition CNN, PTCNN)方法,建立對帶噪聲的圖像標(biāo)記與無噪聲情況之間的概率轉(zhuǎn)移模型,建立噪聲標(biāo)記轉(zhuǎn)移層,該網(wǎng)絡(luò)能夠增強帶噪聲標(biāo)記情況下分類的魯棒性。文獻[54,55]通過CNN對SAR圖像進行去斑點噪聲處理,經(jīng)過該處理后,圖像質(zhì)量明顯提升,減小噪聲對SAR圖像的干擾,便于后續(xù)分類識別問題研究。其中,文獻[54]將原始帶噪聲的SAR圖像轉(zhuǎn)換到log域,并由于斑點噪聲屬于乘性噪聲,在log域減去通過深度網(wǎng)路學(xué)習(xí)到的噪聲,并最終通過exp處理獲得去斑后SAR圖像。其中,斑點噪聲為網(wǎng)絡(luò)的學(xué)習(xí)目標(biāo),通過對去噪后圖像的圖像質(zhì)量進行視覺觀察和參數(shù)評價,可以發(fā)現(xiàn)圖像質(zhì)量提升明顯。但是,該文獻方法進行的對數(shù)-指數(shù)轉(zhuǎn)換處于網(wǎng)絡(luò)外的處理,為了進一步減少網(wǎng)絡(luò)學(xué)習(xí)外的處理過程,文獻[55]直接進行端對端的斑點噪聲學(xué)習(xí)。其借鑒殘差網(wǎng)絡(luò)建立方法,將帶噪聲SAR圖像與學(xué)習(xí)噪聲相除,得到去噪后圖像,且通過去噪后圖像與無噪聲圖像之間差距作為網(wǎng)絡(luò)損失函數(shù),迭代更新網(wǎng)絡(luò)參數(shù)。通過該方法進行的SAR圖像去噪效果更優(yōu)。

        在基于CNN的類型識別方面,仍存在大量衍生網(wǎng)絡(luò)的研究。文獻[56]實現(xiàn)基于SAR圖像的災(zāi)后地質(zhì)損失情況快速評估網(wǎng)絡(luò)結(jié)構(gòu)。其分為區(qū)域選擇和損失類型識別兩部分。在區(qū)域選擇部分,其通過CNN衍生得到的SqueezeNet方法[57]提取受災(zāi)區(qū)域。該網(wǎng)絡(luò)的創(chuàng)新點為將網(wǎng)絡(luò)分為squeeze層與expand層。其中squeeze層通過一個1×1卷積核進行卷積,expand層是通過1×1和3×3卷積核進行卷積,expand層中,把1×1和3×3得到的feature map進行連接。其整體思想是圖像的分辨率是不變的,僅改變特征圖的維數(shù),即通道數(shù)。對于區(qū)域篩選結(jié)果進行基于WRN (Wide Residual Network,WRN)[58]的損失類型識別。該網(wǎng)絡(luò)是以CNN為基礎(chǔ),衍生出的ResNet的改進網(wǎng)絡(luò)。針對在訓(xùn)練過程中,僅很少的殘差模塊能學(xué)到有用的表達,而大部分殘差模塊并不對最終網(wǎng)絡(luò)分類構(gòu)成影響,對網(wǎng)絡(luò)進行寬度提升,深度減小的處理。

        此外,在SAR圖像目標(biāo)分割領(lǐng)域,雖然其研究不如目標(biāo)識別那樣廣泛,但仍有學(xué)者借鑒CNN方法實現(xiàn)目標(biāo)分割。其中,西安電子科技大學(xué)的于文倩[59]對CNN算法的結(jié)構(gòu)進行粒子群優(yōu)化(Particle Swarm Optimization, PSO)改進,調(diào)整網(wǎng)絡(luò)結(jié)構(gòu),形成一種基于超像素和正交PSO修正深度學(xué)習(xí)的圖像分割方法。實驗表明,該方法不僅能夠?qū)崿F(xiàn)SAR圖像的目標(biāo)分割,同時能夠加快網(wǎng)絡(luò)學(xué)習(xí)速度。

        3.2 基于SAE的SAR圖像處理研究

        SAE的特點是可自動從無標(biāo)記數(shù)據(jù)中學(xué)習(xí)特征,并且給出比原始數(shù)據(jù)更好的特征描述,進一步通過該學(xué)習(xí)到的特征得到更好的分類效果。有學(xué)者將其應(yīng)用于地物目標(biāo)分類、艦船分類以及城市變化檢測等場景。并且通過SAE對SAR圖像進行分析,其與傳統(tǒng)方法相比,展現(xiàn)SAE具有自動學(xué)習(xí)高層特征的特性。

        首先,在地物目標(biāo)分類中,文獻[60–64]分別通過SAE對極化SAR數(shù)據(jù)進行了目標(biāo)類型的識別。例如,西安電子科技大學(xué)的高蓉[60]針對極化SAR數(shù)據(jù)具有斑點噪聲以及數(shù)據(jù)量龐大等問題,對其進行SAE處理,同時結(jié)合了極化SAR原始特征與鄰域極化特征實現(xiàn)了對地物數(shù)據(jù)的有效分類。在實驗測試過程中,針對Flevoland數(shù)據(jù)的識別獲得了85.1%的準確率,對Germany數(shù)據(jù)獲得了85.3%的準確率。文獻[61,62]分別將SAE對極化SAR的識別效果與傳統(tǒng)方法進行比較。其中,文獻[61]同樣對Flevoland數(shù)據(jù)進行測試,運用其中10%的數(shù)據(jù)進行訓(xùn)練,90%的數(shù)據(jù)進行測試,識別率達到93.58%,而運用傳統(tǒng)的SVM方法所獲得的識別率僅為89.86%。此外,文獻[62]對Flevoland數(shù)據(jù)進行測試,SAE方法識別率達到98.61%,而傳統(tǒng)的隨機森林方法對應(yīng)識別率僅為97.67%,基于SVM的識別方法為97.50%。并且多層自編碼器方法僅為94.27%,可以看出對網(wǎng)絡(luò)加入稀疏編碼過程的必要性。在此基礎(chǔ)上,西安電子科技大學(xué)的石俊飛等人[62]還提出,雖然SAE方法能夠?qū)W習(xí)高層特征,有效地表示城市、森林等復(fù)雜的地物結(jié)構(gòu),卻難以保留圖像的邊界和細節(jié)信息。因此,可將SAE與極化層次語義模型相結(jié)合。實驗表明,針對San Francisco數(shù)據(jù),相比于單獨運用SAE方法進行識別,該方法將準確率提升了0.87%[63,64]。

        此外,國防科學(xué)技術(shù)大學(xué)的涂松[65]提出通過SAE深度網(wǎng)絡(luò)對SAR圖像進行目標(biāo)提取。在大尺寸SAR圖像中,首先進行多尺寸顯著區(qū)域檢測,之后對顯著圖進行SAE深度網(wǎng)絡(luò)分類,實現(xiàn)大尺寸SAR圖像目標(biāo)快速提取。其中,分別選擇600個目標(biāo)樣本和600個背景雜波樣本用于訓(xùn)練SAE網(wǎng)絡(luò)。并且為了提高效率,將所有的訓(xùn)練樣本降采樣為64×64,然后將所有像素排成一個列向量,進行SAE訓(xùn)練。在該SAE網(wǎng)絡(luò)中,輸入為4096維,隱層數(shù)量為3層,每個隱層神經(jīng)元個數(shù)為20,輸出為2維。該網(wǎng)絡(luò)能實現(xiàn)車輛目標(biāo)和雜波背景兩類樣本的分類。文獻[66]在進行目標(biāo)分類時首先進行特征提取,進而通過歸一化和白化的預(yù)處理。針對提取到的相互獨立的特征進行SAE網(wǎng)絡(luò)提取編碼結(jié)果,最終獲得分類標(biāo)簽。該方法充分體現(xiàn)了SAE方法的無監(jiān)督性,且針對不同特征進行分類的能力。

        SAE應(yīng)用廣泛,可對城市變化情況進行檢測。由于該領(lǐng)域下帶標(biāo)簽的已有數(shù)據(jù)量較小,因此很難通過傳統(tǒng)的監(jiān)督學(xué)習(xí)方法實現(xiàn)分類。文獻[67]通過SAE進行檢測,在數(shù)據(jù)量較小的情況下,檢測概率達到92.34%,并且相比于傳統(tǒng)方法虛警率減小了2.64%。此外,考慮到SAR圖像具有斑點噪聲的特點,且去噪自編碼器對該噪聲具有一定程度的魯棒性。因此,中國科學(xué)技術(shù)大學(xué)的阮懷玉[68]考慮將多尺度稀疏表示與去噪自編碼器網(wǎng)絡(luò)相結(jié)合形成新的學(xué)習(xí)架構(gòu),實現(xiàn)了艦船的分類。分別對MSTAR地面目標(biāo)數(shù)據(jù)集與TerraSAR-X艦船數(shù)據(jù)集進行分類,并且得到了98.83%和92.67%的識別率。

        3.3 基于DBN的SAR圖像處理研究

        DBN應(yīng)用靈活、廣泛。其即可作為一種非監(jiān)督學(xué)習(xí)模型,類似于AE,可盡可能保留原始特征,同時降低特征維數(shù);又可以用于監(jiān)督學(xué)習(xí),類似于分類器,可盡可能減小分類錯誤率。因此,DBN可對不同SAR圖像進行識別及其他操作處理。

        在極化SAR目標(biāo)識別領(lǐng)域,前文已經(jīng)介紹了CNN以及SAE方法的研究成果。而本部分主要介紹基于DBN的極化SAR目標(biāo)識別處理。其中,西安電子科技大學(xué)的羅小歡[69]結(jié)合極化SAR圖像散射特征和數(shù)字圖像特征以及顏色直方圖特征訓(xùn)練一個有多個RBM組成的DBN模型。具體地,首先,將極化SAR數(shù)據(jù)的相干矩陣轉(zhuǎn)化成一個9維極化SAR數(shù)據(jù);之后,在每個維度上抽取大量模塊,并對列向量進行RBM訓(xùn)練,從而獲得每個維度的結(jié)構(gòu)特征;最后,將該特征與原始相干矩陣元素相結(jié)合,訓(xùn)練DBN,實現(xiàn)極化SAR數(shù)據(jù)的分類。文獻[70]則將DBN識別結(jié)果與傳統(tǒng)方法識別結(jié)果進行對比,其中,DBN的識別準確率為87%,而基于SVM方法的識別率僅為44%。此外,西安電子科技大學(xué)的趙昌峰[71]將Wishart分布引入RBM,使極化SAR特征表達更加明顯,提出了Wishart RBM (WRBM)。在對Flevoland和San Francisco數(shù)據(jù)進行測試時,識別率分別達到90.06%和91.49%。

        此外,文獻[72]提出由于DBN能夠充分發(fā)掘主輔強度圖和相干圖在空間域和時間域上的相關(guān)性,因此可運用該方法進行干涉SAR圖像分類處理。并且在對San Francisco進行實驗分析時,分別討論DBN層數(shù)、隱層節(jié)點數(shù)、學(xué)習(xí)率對網(wǎng)絡(luò)識別率的影響。最終,在4層DBN、50個隱層節(jié)點以及0.1的學(xué)習(xí)率情況下,將DBN方法與傳統(tǒng)方法進行對比。其中,K近鄰(K-Nearest Neighbor, KNN)、SVM、SAE與DBN識別結(jié)果分別為:89.13%,90.92%,90.89%以及91.03%,可見DBN方法識別優(yōu)勢較為明顯。此外,該文獻將DBN用于SAR圖像配準,且其能獲得魯棒性特征以及實現(xiàn)準確地配準。具體地,分別將兩幅待匹配的SAR圖像輸入,并提取圖像塊,將其輸入DBN,輸出即為匹配標(biāo)簽。

        4 基于深度學(xué)習(xí)的多種雷達數(shù)據(jù)處理研究

        在上一節(jié)重點總結(jié)了基于深度學(xué)習(xí)的SAR圖像處理研究,而在實際情況下,有學(xué)者分別對HRRP、Micro-Doppler譜圖以及R-D譜圖進行研究,并對其進行深度學(xué)習(xí)方法處理。同樣能獲得較優(yōu)的結(jié)果,并與傳統(tǒng)方法相比,深度學(xué)習(xí)算法能夠有效地提取對應(yīng)圖像的深度特征,便于后續(xù)處理。

        4.1 基于深度學(xué)習(xí)的HRRP處理研究

        HRRP能反映目標(biāo)散射點沿距離方向的分布信息,且獲取方法更為簡單。其特點是通過發(fā)出某一波長的高頻信號,通過反射成像,從而獲得HRRP。圖6為4種目標(biāo)的HRRP示意圖。在此基礎(chǔ)上,有學(xué)者選擇通過不同的深度學(xué)習(xí)方法對HRRP進行目標(biāo)的識別,其主要包括CNN, SAE, DBN以及RNN等。

        文獻[73]提出,對HRRP進行基于CNN的目標(biāo)種類識別。具體地,該網(wǎng)絡(luò)包含2層5×1大小的卷積層,以及2層3×1的最大池化層,1層包含1000節(jié)點的全連接層,最后運用softmax進行分類。通過對8類仿真HRRP數(shù)據(jù)進行網(wǎng)絡(luò)訓(xùn)練及測試發(fā)現(xiàn),深度CNN識別準確率大于深度感知機,約10%左右。在此基礎(chǔ)上,對該數(shù)據(jù)加入高斯白噪聲,使得處理后數(shù)據(jù)信噪比范圍為–20~40 dB。并且每類數(shù)據(jù)進行1000次蒙特卡洛實驗,對3類目標(biāo)進行識別,平均準確率達到91.4%。說明CNN對HRRP進行識別時魯棒性較強。

        南京航空大學(xué)的張歡[74]對Su27, J6, M2K 3種仿真戰(zhàn)斗機的HRRP數(shù)據(jù)分別采用SVM、深度神經(jīng)網(wǎng)絡(luò)(Neural Network, NN)、SAE方法進行分類。在固定輸入數(shù)據(jù)為128維情況下,分別討論了深度學(xué)習(xí)方法中層數(shù)、隱層節(jié)點數(shù)、數(shù)據(jù)信噪比以及目標(biāo)姿態(tài)對識別效果的影響。其中,當(dāng)對25 dB數(shù)據(jù)進行2層且隱層節(jié)點數(shù)為50的網(wǎng)絡(luò)進行訓(xùn)練及識別時,NN和SAE平均識別率分別為79.63%和85.00%,明顯高于傳統(tǒng)SVM的74.26%。文獻[75]運用SAE方法提取HRRP特征,之后對其進行極限學(xué)習(xí)機的分類。該方法通過SAE獲取有效分類特征,并且極限學(xué)習(xí)機的結(jié)構(gòu)簡單,網(wǎng)絡(luò)訓(xùn)練速度相對較快。并且經(jīng)過測試,發(fā)現(xiàn)在識別率相近的情況下,該方法訓(xùn)練時長是經(jīng)典SAE方法分類的1/6,效率提升明顯。此外,文獻[76]對SAE進行改進,對無標(biāo)簽數(shù)據(jù)進行目標(biāo)相關(guān)性學(xué)習(xí),提出SCAE (Stacked Corrective AutoEncoder)方法,進一步提升對HRRP的分類效果。

        文獻[77,78]均采用DBN對HRRP數(shù)據(jù)進行目標(biāo)類型識別。其中,文獻[77]提出對于RBM部分進行可視層和隱層之間的模糊(fuzzy)連接,即FRBM。通過實驗發(fā)現(xiàn),該模型能夠有效削減取值為0的參數(shù)的個數(shù),從而防止過擬合。同時,針對含噪數(shù)據(jù),其魯棒性更強。在該文章中,首先對3種飛機模型的HRRP仿真數(shù)據(jù)分別進行KNN、支持向量數(shù)據(jù)描述(Support Vector Domain Description,SVDD)、RBM和FRBM方法識別,平均識別率分別為82.3%,85.7%,88.9%和94.3%。其次,分別對原始數(shù)據(jù)加入高斯白噪聲得到的不同信噪比(20 dB,10 dB, 5 dB)數(shù)據(jù),以及加入椒鹽噪聲的數(shù)據(jù)分別進行RBM和FRBM分類處理,發(fā)現(xiàn)所有情況下FRBM識別率均高于RBM情況,且超出的識別率在10%以上。此外,文獻[78]考慮了不同類別數(shù)據(jù)量不平衡的問題,并且實驗證明,當(dāng)不同類型HRRP數(shù)據(jù)量差異明顯的情況下,通過DBN進行分類,不同類型的識別率差距明顯。因此,該文獻提出在進行DBN分類前,對樣本進行t分布隨機鄰域插入處理,并對插入后的數(shù)據(jù)進行隨機采樣,擴充了相應(yīng)類型的樣本量,從而使不同種類樣本量得到平衡。之后,再進行DBN的訓(xùn)練與識別。在該情況下,3類數(shù)據(jù)的平均識別率為92.8%,而在原始數(shù)據(jù)不平衡的情況下,平均識別率僅為56.3%,識別率提升明顯。

        圖6 4種目標(biāo)HRRP示意圖Fig.6 HRRPs of four targets

        文獻[79]考慮到傳統(tǒng)的CNN模型不能提取相鄰時間輸入的樣本之間的相關(guān)性,而循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network, RNN)恰能提取該特征,從而提出對HRRP進行RNN處理。該文獻采用RNN中的長短時記憶循環(huán)神經(jīng)網(wǎng)絡(luò)(Long-Short Term Memory recurrent neural network, LSTM)對HRRP進行分類。LSTM模型的輸入節(jié)點為128,輸出節(jié)點數(shù)為3,隱層節(jié)點數(shù)為50。對175幅3類HRRP進行LSTM訓(xùn)練,并對100幅HRRP進行測試,全部識別正確。

        4.2 基于深度學(xué)習(xí)的Micro-Doppler譜圖處理研究

        微多普勒效應(yīng)是由物體及其構(gòu)建的微動產(chǎn)生的物理現(xiàn)象。雷達目標(biāo)的Micro-Doppler譜圖對于目標(biāo)的檢測識別具有重要意義。一般情況下,通過信號處理方法從雷達回波信號中提取表征目標(biāo)微動部件情況的時頻譜圖,而對于單一維度的雷達回波無法獲取該信息。圖7為兩個仿真目標(biāo)的時頻譜圖。對于Micro-Doppler譜圖,已有學(xué)者采用深度學(xué)習(xí)方法對其進行分析,提取深度信息,實現(xiàn)目標(biāo)識別任務(wù)。其中,鑒于CNN方法對處理圖像的優(yōu)越性,最受人們青睞。此外,SAE方法能夠在無監(jiān)督情況下提取深層特征,也成為人們研究的重點。并且有學(xué)者將兩者結(jié)合,或選擇卷積自編碼器(Convolutional Automatic Encoder, CAE)對Micro-Doppler譜圖進行分析,獲得明顯的分類效果。

        文獻[80–85]均選擇深層CNN方法對Micro-Doppler譜圖進行類型識別。其中,文獻[80]對7種人為動作進行包含3層卷積層,3層最大池化層、1層全連接層以及softmax的CNN分類處理。該方法與傳統(tǒng)PCA, SVM方法識別率進行比較,分別為95.2%, 84.0%以及89.2%。此外,文獻[81]通過Micro-Doppler譜圖的識別進行手勢識別處理。其中,90%的數(shù)據(jù)進行5層DCNN訓(xùn)練,并對10%的數(shù)據(jù)進行測試,得到的7種手勢在4個場景下的平均識別率為93.1%。文獻[82]則通過包含2層卷積層、2層池化層以及1層全連接層的CNN,先后進行人的檢測與人動作的識別。在檢測部分,通過該網(wǎng)絡(luò)對人、狗、馬、車4種目標(biāo)進行分類,從而檢測人是否存在,其檢測概率達到97.6%;在識別部分,對人的跑、走、臥等7種動作進行分類,平均識別概率為90.9%。在文獻[83]中,研究對人類步態(tài)的分類問題,其選用了14層CNN模型,其中包含8層卷積層,3層最大池化層和2層全連接層以及softmax分類器。相比于傳統(tǒng)神經(jīng)網(wǎng)絡(luò)和SVM分類方法的68.3%和60.3%的識別率,運用CNN方法的情況下識別率有明顯提升,達到86.9%。在此基礎(chǔ)上,文獻[84]通過基于CNN的遷移學(xué)習(xí)對人類水下動作進行識別。

        圖7 兩仿真目標(biāo)時頻譜圖Fig.7 Time-frequency map pf two simulation targets

        此外,有學(xué)者將SAE架構(gòu)應(yīng)用于Micro-Doppler譜圖的分類問題中。例如,文獻[85]運用SAE方法對人的運動情況進行分類,得到87%的平均識別率,同樣數(shù)據(jù)進行SVM分類器分類,得到識別率僅為58%。文獻[86]運用3層SAE進行微動數(shù)據(jù)分類,獲得89%的平均識別率,而對127個特征進行SVM分類,識別率僅為72%。在此基礎(chǔ)上,文獻[87,88]將SAE與CNN相結(jié)合進行Micro-Doppler譜圖分類處理。其中,西安電子科技大學(xué)的張國祥[44]提出,首先運用SAE進行無監(jiān)督的特征提取,得到特征譜圖,之后對特征譜圖進行CNN的分類,最終得到95.62%的平均識別率。文獻[89]則運用CAE方法進行分類。其中,在編碼器部分,由3層卷積層,3層池化層組成;在譯碼器部分,由3層反卷積層和3層逆池化層組成。最終,將提取到的特征進行分類器分類。在此基礎(chǔ)上,提出運用遷移學(xué)習(xí)方法對網(wǎng)絡(luò)初始化參數(shù)進行設(shè)置,從而對CAE模型的識別率提升了10%。

        4.3 基于深度學(xué)習(xí)的R-D譜圖處理研究

        當(dāng)對動作進行分類時,除了進行時頻分析,距離向信息同樣至關(guān)重要,即R-D譜圖可作為分類研究對象。在線性調(diào)制連續(xù)波(Linear Frequency Modulated Continuous Wave, LFMCW)雷達中,首先對回波進行去斜處理,之后在快時間域進行快速傅里葉變換(Fast Fourier Transform, FFT),獲得目標(biāo)的實時徑向距離信息;進而對各個距離單元內(nèi)的基帶信號的慢時間域FFT處理,獲得回波信號在距離-多普勒域的能量分布情況,即R-D譜圖。由多幀R-D譜圖組成,即R-D譜圖序列描述一個持續(xù)一段時間的行為動作。其中,基于雷達的動態(tài)手勢識別處理為典型的應(yīng)用場景。

        針對動態(tài)手勢的R-D譜圖序列,文獻[90]提出對Google的Soli傳感器采集的10個人的11類手勢動作進行R-D譜圖序列分類。首先,對于每幀R-D譜圖進行卷積及全連接處理,之后針對整個動作的不同時間點特征圖之間進行LSTM連接,最終獲得87.6%的平均識別率。本課題組對基于R-D譜圖的手勢數(shù)據(jù)進行了CNN的識別,對向前、向后、旋轉(zhuǎn)、靜止4種手勢進行分類,示意圖如圖8所示。其中,CNN方法的平均識別率達到87.8%,同組數(shù)據(jù)進行傳統(tǒng)動態(tài)規(guī)劃方法識別,平均識別率僅為74.0%,即證明通過CNN方法對該手勢進行識別,識別率提升明顯。

        此外,文獻[91]進行人體運動檢測,同樣可視為兩類運動的識別問題。首先,針對不同動作的距離-多普勒譜圖序列,分別提取時間-頻率譜圖以及時間-距離譜圖,然后分別進行SAE特征提取,并對兩部分特征進行融合,最后完成分類器分類。該文獻分別提出如圖9的兩個分類架構(gòu)。圖9(a)為串聯(lián)結(jié)構(gòu),即先對兩譜圖分別進行SAE特征提??;之后進行特征融合,融合后再進行SAE提取特征;最后進行分類器分類。圖9(b)為并聯(lián)結(jié)構(gòu),即先對兩譜圖分別進行兩層SAE特征提取;之后,將兩部分特征進行融合;最后,通過分類器分類。經(jīng)實驗顯示,該兩網(wǎng)絡(luò)對相同數(shù)據(jù)進行處理時,獲得的檢測概率分別為89.4%和84.1%。

        圖8 4種手勢R-D譜圖Fig.8 R-D map of four gestures

        圖9 兩種檢測網(wǎng)絡(luò)架構(gòu)Fig.9 Two detection structure

        5 深度學(xué)習(xí)研究面臨的挑戰(zhàn)

        由前文所述可知,深度學(xué)習(xí)在雷達信號處理領(lǐng)域得到了廣泛的應(yīng)用,同時取得了不俗的成績。雖然如此,但其深度學(xué)習(xí)研究仍存在諸多不足。其中,過擬合和網(wǎng)絡(luò)可解譯性為亟待解決的問題。

        首先,對于過擬合問題而言,即當(dāng)測試數(shù)據(jù)與訓(xùn)練數(shù)據(jù)有一定差異,而測試誤差明顯高于訓(xùn)練誤差時,即說明網(wǎng)絡(luò)泛化能力較差,出現(xiàn)過擬合問題。并且當(dāng)網(wǎng)路模型是復(fù)雜的,包括大量參數(shù),且訓(xùn)練數(shù)據(jù)不足的情況下,過擬合問題明顯。針對該問題,文獻[92]提出可通過擴大訓(xùn)練數(shù)據(jù)集、減少網(wǎng)絡(luò)參數(shù)和降低網(wǎng)絡(luò)迭代算法復(fù)雜度來減小過擬合情況。文獻[93]利用DBN代替淺層神經(jīng)網(wǎng)絡(luò),對隱層節(jié)點數(shù)的選取進行迭代設(shè)計,并且構(gòu)建網(wǎng)絡(luò)狀態(tài)觀測器,解決過擬合問題。文獻[94]則對多層自編碼器進行數(shù)據(jù)生成預(yù)訓(xùn)練,并進行正則化方法設(shè)計,用于防止過擬合。文獻[95]在深度神經(jīng)網(wǎng)絡(luò)的全連接層后加入放棄層,可有效降低過擬合數(shù)據(jù)對預(yù)測的影響。此外,文獻[96]設(shè)計一種定量檢測過擬合的變量,即過擬合率。在此基礎(chǔ)上,提出一種新的AdaBELM過擬合降低方法。文獻[97]在CNN中最后一層進行全局平均池化,從而減小網(wǎng)絡(luò)參數(shù),有效緩解過擬合問題。

        此外,由于網(wǎng)絡(luò)設(shè)置原理具有“黑箱”特點,且為了避免網(wǎng)絡(luò)設(shè)置的盲目性,可解譯性成為研究熱點。文獻[98]提出基于小波核學(xué)習(xí)的深度濾波器組網(wǎng)絡(luò),該網(wǎng)絡(luò)具有較強性能,且根據(jù)信號處理方法具有理論上的確定性和可重構(gòu)性,對網(wǎng)絡(luò)進行優(yōu)化。該文獻還對CNN可解譯性的相關(guān)研究工作進行了總結(jié)。典型方法為2010年由Zeiler提出反卷積網(wǎng)絡(luò)方法[99,100],該方法為卷積的反向處理過程。其為通過對學(xué)習(xí)得到的特征圖進行卷積求和,得到接近輸入圖像的過程。文獻[101]通過反卷積網(wǎng)絡(luò)對特征圖進行可視化,通過卷積網(wǎng)絡(luò)中層特征可以恢復(fù)對應(yīng)的原圖中的一些信息,利用這樣的關(guān)系,了解通過CNN提取到的特征的情況。2017年,文獻[102]提出可解釋CNN。該網(wǎng)絡(luò)與經(jīng)典CNN類似,均為端到端的學(xué)習(xí)架構(gòu)。通過對卷積層卷積核的約束,使該卷積核有利于提取物體某些部件的特征。例如,對于動物的分類問題,其主要通過卷積核提取其頭部特征。具體的,其正向?qū)W習(xí)過程與CNN基本無差異,但在反向迭代過程中,加入新的損失函數(shù)項,即經(jīng)過卷積處理后的特征圖與某部件理想分部之間的互信息量的相反數(shù)。

        6 總結(jié)

        本文主要總結(jié)了已有的基于深度學(xué)習(xí)的雷達數(shù)據(jù)處理研究方法。針對SAR, HRRP, Micro-Doppler譜圖和R-D譜圖均獲得了一定的研究成果。其中,基于深度學(xué)習(xí)的SAR圖像處理為研究的熱點問題。針對SAR圖像,前人分別使用了CNN, SAE和DBN等深度學(xué)習(xí)方法進行目標(biāo)分類。雖然所采用的數(shù)據(jù)不同,但與傳統(tǒng)識別方法相比,深度學(xué)習(xí)方法能獲得較高識別率。此外,深度學(xué)習(xí)在HRRP, Micro-Doppler譜圖和R-D譜圖中的應(yīng)用雖然不如在SAR圖像中那樣廣泛,但仍有一定研究成果,能夠?qū)崿F(xiàn)目標(biāo)分類。其中,基于深度學(xué)習(xí)的動態(tài)手勢識別為典型的研究領(lǐng)域。在RNN中的LSTM能夠有效地學(xué)習(xí)相鄰時間上數(shù)據(jù)的聯(lián)系,從而獲取更加有效地提取不同手勢的深度特征。

        雖然,深度學(xué)習(xí)方法在雷達領(lǐng)域已有研究成果,但仍存在值得后續(xù)研究的典型問題:

        (1) 需避免學(xué)習(xí)網(wǎng)絡(luò)的過擬合。過擬合是深度學(xué)習(xí)的一個典型問題,已有的對CNN加入dropout操作的目的是降低網(wǎng)絡(luò)過擬合,但該問題仍然為阻礙深度學(xué)習(xí)發(fā)展的一大難點;

        (2) 增強特征提取的解譯性。本文介紹的大量研究是將雷達數(shù)據(jù)直接輸入設(shè)計好的深度學(xué)習(xí)網(wǎng)絡(luò)進行訓(xùn)練,之后將訓(xùn)練好的網(wǎng)絡(luò)用于同類型數(shù)據(jù)的測試。長期以來,深度學(xué)習(xí)部分被視為黑盒操作,每層輸出特征也不具有明確的物理意義,即網(wǎng)絡(luò)解譯性較弱,這為改進網(wǎng)絡(luò)架構(gòu)設(shè)計形成一定的阻礙。

        猜你喜歡
        分類深度方法
        分類算一算
        深度理解一元一次方程
        分類討論求坐標(biāo)
        深度觀察
        深度觀察
        深度觀察
        數(shù)據(jù)分析中的分類討論
        教你一招:數(shù)的分類
        可能是方法不對
        用對方法才能瘦
        Coco薇(2016年2期)2016-03-22 02:42:52
        麻豆视频黄片在线免费观看| 亚洲综合色丁香婷婷六月图片 | 一本一道vs无码中文字幕| 夜晚黄色福利国产精品| 亚洲男同gay在线观看| 亚洲男人第一av网站| 丰满少妇人妻无码超清 | 又湿又黄裸乳漫画无遮挡网站 | 亚洲日韩精品欧美一区二区 | 天堂av无码大芭蕉伊人av孕妇黑人 | 少妇极品熟妇人妻无码| 国产精品久久一区性色a| 久久精品久99精品免费| 国产成+人+综合+亚洲欧美丁香花| 久久艹影院| 日韩丝袜人妻中文字幕| 精品国产一区二区三区三| 夜先锋av资源网站| 欧美乱人伦中文字幕在线不卡| 久久青青草原一区网站| 四虎影视久久久免费观看| vr成人片在线播放网站| 极品人妻少妇一区二区| 一区二区三区日韩亚洲中文视频| 男ji大巴进入女人的视频小说| 91老司机精品视频| 人妻少妇激情久久综合| 久久精品夜色噜噜亚洲a∨| a级国产乱理论片在线观看 | 日韩毛片在线| 韩国女主播一区二区三区在线观看 | 上海熟女av黑人在线播放| 色偷偷噜噜噜亚洲男人| 日本免费一区二区三区在线看| 亚洲一本二区偷拍精品| 成人午夜福利视频| 男人无码视频在线观看| 亚洲视频在线视频在线视频| 国产精品久久久福利| 日日噜噜夜夜狠狠久久无码区 | 后入内射欧美99二区视频|