亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于卷積神經(jīng)網(wǎng)絡(luò)的高分辨率雷達(dá)目標(biāo)識別

        2019-10-18 04:35:45何松華張潤民歐建平張軍
        關(guān)鍵詞:支持向量機(jī)卷積神經(jīng)網(wǎng)絡(luò)

        何松華 張潤民 歐建平 張軍

        摘? ?要:提出一種基于卷積神經(jīng)網(wǎng)絡(luò)(Convolution Neural Network,CNN)的高分辨率雷達(dá)目標(biāo)識別方法.首先針對小樣本應(yīng)用于深度CNN時訓(xùn)練過程中損失函數(shù)值收斂速度慢的問題,利用結(jié)合批歸一化算法的改進(jìn)CNN網(wǎng)絡(luò)對高分辨距離像(High Resolution Range Profile,HRRP)進(jìn)行自動特征提取;再利用支持向量機(jī)(Support Vector Machine,SVM)對距離像特征進(jìn)行分類.使用軍事車輛高保真電磁仿真數(shù)據(jù)對提出的方法進(jìn)行驗(yàn)證,識別結(jié)果證明了該方法的有效性.

        關(guān)鍵詞:高分辨距離像;雷達(dá)目標(biāo)識別;卷積神經(jīng)網(wǎng)絡(luò);批歸一化;支持向量機(jī)

        中圖分類號:TN957.51? ? ? ? ? ? ? ? ? ?文獻(xiàn)標(biāo)志碼:A

        High Resolution Radar Target Recognition Based

        on Convolution Neural Network

        HE Songhua1,ZHANG Runmin1?覮,OU Jianping2,ZHANG Jun2

        (1.College of Computer Science and Electronic Engineering,Hunan University,Changsha 410082,China;

        2.ATR Laboratory,National University of Defense Technology,Changsha 410073,China )

        Abstract:A new method of high resolution radar target recognition based on Convolution Neural Network (CNN) was presented. To solve the problem of slow convergence of loss function values during the training process when small samples are applied to the deep CNN, High Resolution Range Profile (HRRP) features were firstly extracted by using the improved CNN combined with the Batch Normalization (BN) algorithm, and then classified by using a Support Vector Machine (SVM). The experimental results using high-fidelity electromagnetic simulation data of military vehicles validate the effectiveness of the proposed method.

        Key words:High Resolution Range Profile(HRRP);radar target recognition;Convolution Neural Network (CNN);Batch Normalization(BN);Support Vector Machine(SVM)

        高分辨距離像(HRRP)是用寬帶雷達(dá)信號獲取的目標(biāo)散射點(diǎn)子回波在雷達(dá)射線上投影的向量和,它提供了目標(biāo)散射點(diǎn)沿距離方向的分布情況,是目標(biāo)重要的結(jié)構(gòu)特征.HRRP具有分辨率穩(wěn)定、易于獲取與實(shí)現(xiàn)和成像周期短等特點(diǎn),因而基于HRRP的目標(biāo)識別成為國內(nèi)外的研究熱點(diǎn)[1-2].

        傳統(tǒng)的HRRP目標(biāo)識別方法有基于距離像特征抽取的識別、基于距離像模板的匹配識別和基于三維散射中心模型的識別等.特征抽取是從距離像上提取反映不同目標(biāo)差異的、并在一定姿態(tài)角范圍內(nèi)具有穩(wěn)定特征,目標(biāo)識別所需的存儲量和匹配運(yùn)算量較少,單穩(wěn)定特征提取較難,特征抽取后的分類器設(shè)計復(fù)雜.模板匹配法是將實(shí)時獲取的目標(biāo)距離像或其特征與預(yù)先獲取并存儲的已知目標(biāo)的不同姿態(tài)的距離像或其特征模板進(jìn)行匹配,通過合理范圍內(nèi)的全姿態(tài)匹配以適應(yīng)一維距離像對目標(biāo)姿態(tài)的敏感性,優(yōu)點(diǎn)是識別率較高,但模板存儲量以及姿態(tài)匹配運(yùn)算量大.第三種方法是通過高保真電磁仿真計算、超分辨譜估計和三維散射中心提取等方法事先建立并存儲目標(biāo)的全姿態(tài)三維散射中心分布模型,并通過模型來預(yù)測目標(biāo)在合理姿態(tài)范圍內(nèi)的目標(biāo)距離像或其特征,與實(shí)時獲取的目標(biāo)距離像或其特征進(jìn)行匹配,由于不需存儲不同姿態(tài)的距離像或特征模板,存儲量顯著降低,但需要的姿態(tài)搜索、特征預(yù)測和匹配識別所需的運(yùn)算量依然較大.

        文獻(xiàn)中經(jīng)常使用的特征提取方法有平移不變特征、變換特征和結(jié)構(gòu)特征等.上述算法都需要基于相關(guān)領(lǐng)域的深層知識經(jīng)驗(yàn)來提取特征,因而導(dǎo)致了較大的不確定性.近年來深度神經(jīng)網(wǎng)絡(luò)方法在圖像識別領(lǐng)域取得了很大成功[3-4]. 主要模型有深度置信網(wǎng)絡(luò)(Deep Belief Network,DBN)[5]、棧式降噪自動編碼器(Stacked Denoising Autoencoders,SDA)[6]和卷積神經(jīng)網(wǎng)絡(luò)(CNN)[7]等.

        CNN作為一種監(jiān)督學(xué)習(xí)算法,去除了傳統(tǒng)目標(biāo)識別中復(fù)雜的特征提取和數(shù)據(jù)重建過程,利用多個非線性隱含層,將輸入的復(fù)雜分層特征表示出來.卷積層的權(quán)值共享減少了網(wǎng)絡(luò)的訓(xùn)練參數(shù)、降低了模型的復(fù)雜度.池化操作大大減少了網(wǎng)絡(luò)的神經(jīng)元數(shù),使得網(wǎng)絡(luò)對平移、旋轉(zhuǎn)等變換具有魯棒性.

        CNN架構(gòu)的研究不斷取得突破性進(jìn)展.Karen Simonyan提出的VGGNet模型包含了16~19個權(quán)重值,整個網(wǎng)絡(luò)一致使用了3*3的卷積核和2*2的匯聚層,顯示出網(wǎng)絡(luò)深度對算法性能的提高具有關(guān)鍵作用[8]. He提出的殘差網(wǎng)絡(luò)(ResNet)結(jié)構(gòu)采用了獨(dú)特的跳躍鏈接,多次使用批歸一化,在ImageNet數(shù)據(jù)集上構(gòu)建了152層網(wǎng)絡(luò),雖然其深度是VGGNet深度的8倍,但仍具有較低的復(fù)雜度[9].CNN在高距離分辨雷達(dá)目標(biāo)識別領(lǐng)域已經(jīng)有了很多成功應(yīng)用.Jarmo基于多基地雷達(dá)系統(tǒng),將CNN應(yīng)用于飛機(jī)目標(biāo)識別[10]. Osman設(shè)計了有效的CNN模型,自動提取了艦船目標(biāo)距離像特征,實(shí)現(xiàn)了軍事和民用車輛的識別[11].

        就目前國內(nèi)外研究現(xiàn)狀而言,地面車輛目標(biāo)的HRRP識別研究不多.因此本文將CNN應(yīng)用于軍事車輛的HRRP目標(biāo)識別領(lǐng)域,減少了特征選擇的人工步驟.CNN以往在處理小數(shù)據(jù)集時,往往由于網(wǎng)絡(luò)模型復(fù)雜、數(shù)據(jù)源所提供的特征有限等因素,會導(dǎo)致訓(xùn)練過程損失函數(shù)收斂過慢問題.本文針對該情況,借鑒了VGGNet網(wǎng)絡(luò)特點(diǎn),將批歸一化算法[12]引入改進(jìn)的CNN網(wǎng)絡(luò),從而對距離像進(jìn)行特征提取.為進(jìn)一步提高目標(biāo)分類能力,將Softmax分類器替換為支持向量機(jī)[13].基于車輛目標(biāo)高保真電磁仿真數(shù)據(jù)的識別實(shí)驗(yàn)表明,本文方法具有更高的識別率,驗(yàn)證了其有效性.

        1? ?信號模型

        理論分析表明,光學(xué)區(qū)雷達(dá)目標(biāo)的電磁散射可以用目標(biāo)的局部散射源表示,稱這些局部散射源為散射中心.散射中心是光學(xué)區(qū)雷達(dá)目標(biāo)的重要特征,可利用散射中心模型對光學(xué)區(qū)雷達(dá)目標(biāo)的散射特性進(jìn)行準(zhǔn)確建模.在不發(fā)生散射中心超距離單元走動(Motion Through Range Cells,MTRC)的轉(zhuǎn)角區(qū)間內(nèi),距離單元內(nèi)散射中心數(shù)目保持不變,反射強(qiáng)度也幾乎恒定.設(shè)距離單元分辨率為Δr,目標(biāo)橫向長度設(shè)為Lx,則散射中心不產(chǎn)生MTRC的轉(zhuǎn)角區(qū)間為

        當(dāng)采用亞米級分辨率雷達(dá)對地面目標(biāo)觀測時,根據(jù)經(jīng)驗(yàn),Δθ一般為3°~5°左右,假設(shè)雷達(dá)在目標(biāo)運(yùn)動過程中接收到N次回波、且不產(chǎn)生MTRC.設(shè)第m個距離單元內(nèi)第t個散射中心在第n(n = 1,2,…,N)次回波相對于目標(biāo)質(zhì)心的徑向位移差為Δrmt(n)

        式中:Tm為第m(m = 1,2,…,M)個距離單元內(nèi)散射中心總個數(shù);amt是距離單元電磁回波中常數(shù)項(xiàng)的乘積,即為第m個距離單元內(nèi)第t個散射中心回波的反射系數(shù);?準(zhǔn)mt表示初始相位;λ表示波長.因復(fù)數(shù)距離像的相位對目標(biāo)姿態(tài)和距離變動很敏感,且不確定性較大,在匹配識別中難以利用,所以在實(shí)驗(yàn)中通常采用實(shí)數(shù)HRRP,則第n次回波幅度定義為:

        X = x1(n),x2(n),…,xM(n)T? ? (3)

        由于雷達(dá)到目標(biāo)距離、天線增益、雷達(dá)接收機(jī)增益等雷達(dá)系統(tǒng)參數(shù)的差異,不同目標(biāo)與雷達(dá)的距離像具有不同的幅度尺度標(biāo)準(zhǔn),即便是同一目標(biāo)的HRRP,觀測條件不同,其幅度也存在很大差異,稱為HRRP的強(qiáng)度敏感性. 解決此類敏感性,通常采用舍棄距離像的強(qiáng)度信息而只利用形狀信息.具體處理方法為在一定測度準(zhǔn)則下對X做強(qiáng)度歸一化處理,然后輸入到CNN模型分類器,本文采用L2范數(shù)歸一化.訓(xùn)練時采用距離像序列,測試時采用單幅距離像,使得識別模型不僅適應(yīng)目標(biāo)姿態(tài)變化,而且適應(yīng)目標(biāo)距離像在非嚴(yán)格遠(yuǎn)場條件且相對運(yùn)動過程中的起伏.

        2? 卷積神經(jīng)網(wǎng)絡(luò)

        CNN通常由輸入層、卷積層、匯聚層、全連接層和輸出層組成.其中卷積層和匯聚層稱為隱含層.CNN的權(quán)值共享結(jié)構(gòu)使其更接近生物神經(jīng)網(wǎng)絡(luò),網(wǎng)絡(luò)性能可以通過改變網(wǎng)絡(luò)的深度和廣度來調(diào)整.CNN能有效減少網(wǎng)絡(luò)連接和權(quán)值參數(shù),因而有效降低了網(wǎng)絡(luò)模型的學(xué)習(xí)復(fù)雜度,相比于大規(guī)模神經(jīng)元連接的全連接網(wǎng)絡(luò)更容易訓(xùn)練.

        原始數(shù)據(jù)在CNN中的計算過程是前向傳播的,即前一層的輸出是當(dāng)前層的輸入.設(shè)CNN模型輸入的原始數(shù)據(jù)為X,本文用Ki表示網(wǎng)絡(luò)的第i層特征圖,且K0 = X. 此處先假設(shè)Ki是卷積層,則第i層輸出特征圖為:

        Ki = f(Ki-1*Wi + bi)? ? (4)

        式中:Wi表示第i層卷積核的權(quán)值向量;“*”表示卷積核與第i-1層特征圖的卷積操作,其輸出結(jié)果與第i層的偏置項(xiàng)bi相加,最后通過非線性激活函數(shù)f的映射得到第i層特征圖Ki.卷積層計算了所有神經(jīng)元的輸出.卷積層中的每一個神經(jīng)元都與輸入層中的局部區(qū)域連接,每個神經(jīng)元都計算本身與輸入層相連的區(qū)域與自身權(quán)重的內(nèi)積.卷積層用于提取輸入特征,對于圖像數(shù)據(jù)而言,如第一層卷積能提取邊緣、線條等低級特征,越深的卷積層越能提取更深層次的特征.

        一般情況下,在連續(xù)的卷積層之間插入一個匯聚層. 假設(shè)Ki是匯聚層,則有:

        Ki = downsampling(Ki-1)? ? (5)

        匯聚層的功能就是按照一定規(guī)則對特征圖進(jìn)行下采樣,逐步降低數(shù)據(jù)的空間尺寸,減少網(wǎng)絡(luò)參數(shù)數(shù)量和計算資源的耗費(fèi),有效控制過擬合.

        經(jīng)過多個卷積層和匯聚層的交替?zhèn)鞑?,最后通過全連接層對提取的特征進(jìn)行分類.全連接層作用是將學(xué)到的分布式特征表示映射到標(biāo)記空間,得到輸入K0隸屬于不同類別的概率矢量Y,即:

        Y(i) = P(L = li|K0;(W,b))? ? (6)

        式中:li表示第i個標(biāo)簽類別.CNN模型實(shí)質(zhì)上是將原始矩陣K0經(jīng)過多層數(shù)據(jù)變換或降維,映射到一個新的特征表達(dá)Y的過程.

        3? ?卷積神經(jīng)網(wǎng)絡(luò)的改進(jìn)

        3.1? ?引入批歸一化

        本文借鑒了VGGNet架構(gòu)的特點(diǎn),又根據(jù)所用小數(shù)據(jù)訓(xùn)練樣本的特點(diǎn),提出一種新的CNN模型架構(gòu).由于本文模型借鑒了VGGNet網(wǎng)絡(luò)的大深度模型,當(dāng)靠前的層參數(shù)變化時,每層的輸入分布在訓(xùn)練過程也會變化.這只有通過較低的學(xué)習(xí)率和繁瑣的參數(shù)初始化來減慢訓(xùn)練速度,導(dǎo)致了訓(xùn)練具有飽和非線性的模型變得異常困難.此現(xiàn)象稱為內(nèi)部協(xié)變量移位.

        在訓(xùn)練過程中,隨著網(wǎng)絡(luò)加深,深度神經(jīng)網(wǎng)絡(luò)中的激活輸入值在做非線性變換前,其分布會逐漸發(fā)生偏移,即其整體分布逐漸往非線性函數(shù)取值區(qū)間的上下端點(diǎn)逼近,從而導(dǎo)致后向傳播時底層神經(jīng)網(wǎng)絡(luò)的梯度消失,進(jìn)而造成網(wǎng)絡(luò)訓(xùn)練速度變慢.為了解決此類問題,本文將Ioffe提出的批歸一化(Batch Normalization,BN)算法引入到改進(jìn)的CNN中,通過一定的規(guī)范化算法,把每層神經(jīng)網(wǎng)絡(luò)的任意神經(jīng)元激活輸入值強(qiáng)制拉回標(biāo)準(zhǔn)正態(tài)分布,使輸入值落入非線性函數(shù)的敏感區(qū),使輸入值小的變動就會導(dǎo)致?lián)p失函數(shù)較大變化,即增大梯度,加速收斂.

        假設(shè)CNN網(wǎng)絡(luò)中某一層輸入數(shù)據(jù)集合為{x1,…,xs},該批小樣本數(shù)據(jù)的數(shù)量為s,引入BN算法對輸入樣本數(shù)據(jù)進(jìn)行批歸一化,輸出數(shù)據(jù)集合設(shè)為{y1,…,ys},算法主要步驟如下:

        Step1.計算輸入激活數(shù)據(jù)集的期望:

        式(9)中的ε加在分母上是為了防止除零錯誤,目的是確保重構(gòu)變換的數(shù)值穩(wěn)定性,一般取接近0的正數(shù).式(9)只相當(dāng)于把非線性函數(shù)變成了線性函數(shù),即把每層的數(shù)據(jù)分布標(biāo)準(zhǔn)化,但這種強(qiáng)制歸一化會破壞網(wǎng)格中間層的固有分布,為了解決由此帶來的網(wǎng)絡(luò)表達(dá)能力下降的問題,保證非線性狀態(tài)的學(xué)習(xí),引入了式(10)的重構(gòu)變換對歸一化值進(jìn)行縮放和移位.通過這個操作調(diào)整歸一化值的標(biāo)準(zhǔn)正態(tài)分布,在每個數(shù)據(jù)集上調(diào)整程度不同,作用是把非線性函數(shù)值從中心的線性區(qū)往非線性區(qū)移動,在具有較強(qiáng)的非線性表達(dá)能力的同時,又避免太靠近線性區(qū)兩端,導(dǎo)致網(wǎng)絡(luò)收斂速度太慢.

        3.2? ?引入支持向量機(jī)分類

        CNN架構(gòu)從本質(zhì)上說,卷積層、匯聚層和激活函數(shù)層的作用是將原始數(shù)據(jù)映射到隱層特征空間,其中卷積層用以提取輸入數(shù)據(jù)的局部特征,它生成的每個特征圖都是對輸入數(shù)據(jù)的局部特征的某個角度的描述.而全連接層負(fù)責(zé)將學(xué)到的分布式特征表示映射到標(biāo)記樣本空間,關(guān)鍵功能是維度變換,把高維數(shù)據(jù)降到低維,全連接層的每個和特征圖相同尺寸的卷積核從一個特定角度對這些特征圖進(jìn)行組合,用以后續(xù)的分類.CNN最后的輸出層一般采用Softmax函數(shù),其通過全連接方式將多個神經(jīng)元的輸出,映射到(0,1)區(qū)間的概率,輸出每一個分類的概率.該方法能與反向傳播過程有效結(jié)合.邏輯回歸的損失函數(shù)源于全局?jǐn)?shù)據(jù)的概率模型,Softmax又基于回歸原則,為邏輯回歸的多分類特例.因此,Softmax分類考慮全局樣本的同時,其分類超平面將會受到每個樣本的干擾,導(dǎo)致非線性分類效果一般.

        而支持向量機(jī)(SVM)基于結(jié)構(gòu)代價最小化準(zhǔn)則,核心思想為通過預(yù)先指定的非線性變換將輸入矢量映射至另外的高維特征空間,在此空間構(gòu)造最優(yōu)分類超平面.SVM的性能主要受支持向量的影響,當(dāng)支持向量機(jī)改變非支持向量樣本時,并不會引起決策面的變化,因而其非線性分類性能優(yōu)良.已經(jīng)有研究表明在人工神經(jīng)網(wǎng)絡(luò)架構(gòu)中,使用SVM做分類能獲得比Softmax更優(yōu)異的性能[14-15]. 由于本實(shí)驗(yàn)數(shù)據(jù)源屬于小樣本,在原始數(shù)據(jù)經(jīng)過歸一化預(yù)處理且CNN基本模型相對復(fù)雜的情況下,采用SVM代替Softmax做分類,預(yù)期可以提高最終識別準(zhǔn)確率[16].因此本文采用SVM代替Softmax用作CNN模型的分類器,隱含層輸出的高維特征,經(jīng)過全連接層后,被平鋪成一維數(shù)據(jù),再輸入SVM分類器進(jìn)行類別判定.

        4? ?實(shí)驗(yàn)結(jié)果

        4.1? ?實(shí)驗(yàn)數(shù)據(jù)源

        為了驗(yàn)證本文所提出的目標(biāo)識別系統(tǒng)的有效性,采用了高頻電磁計算軟件獲取的4類車輛目標(biāo)的寬帶電磁散射數(shù)據(jù),對這些數(shù)據(jù)做逆傅里葉變換(IFFT)處理,可得到目標(biāo)的距離像.該4類雷達(dá)目標(biāo)電磁仿真數(shù)據(jù)是基于東南大學(xué)毫米波國家重點(diǎn)實(shí)驗(yàn)室研發(fā)的NESC高頻電磁散射仿真軟件計算而

        得[17-18].仿真數(shù)據(jù)庫中的4類地面車輛目標(biāo)分別為裝甲運(yùn)輸車、重型運(yùn)輸車、重型卡車和廂式卡車,目標(biāo)CAD模型及其在典型姿態(tài)下的距離像如圖1所示.

        基于CAD模型,將表1中預(yù)設(shè)的電磁參數(shù)輸入上述電磁計算系統(tǒng)得到4類目標(biāo)全方位觀測角度下的多極化電磁散射數(shù)據(jù).圖1中各類目標(biāo)模型右邊圖像為各個目標(biāo)在同一觀測角度、HH極化方式下的歸一化高分辨距離像示意圖,為簡潔起見圖中HRRP只展示出64個非零距離單元.由圖可見,各目標(biāo)距離像的幅度、峰值位置等差異較大,此類差異信息就構(gòu)成了基于HRRP進(jìn)行目標(biāo)分類的基礎(chǔ).

        對目標(biāo)的同一個觀測角度下的步進(jìn)頻率回波信號進(jìn)行IFFT合成一維距離像. 為了消除距離像的強(qiáng)度敏感性[19],在訓(xùn)練前可對每幅距離像獨(dú)立進(jìn)行l(wèi)2歸一化. 由于電磁仿真數(shù)據(jù)是類轉(zhuǎn)臺數(shù)據(jù),不必平移對準(zhǔn).

        實(shí)驗(yàn)中選取在HH極化方式下的目標(biāo)電磁散射回波作為基礎(chǔ)數(shù)據(jù)集,在不同俯仰角下進(jìn)行電磁計算,27°俯仰角下的觀測數(shù)據(jù)作為訓(xùn)練集,30°下的作為測試集,每個目標(biāo)的訓(xùn)練和測試集各有14 400個樣本.

        4.2? ?網(wǎng)絡(luò)模型

        實(shí)驗(yàn)中用于4類仿真目標(biāo)HRRP識別的系統(tǒng)模型如圖2所示,該模型借鑒了VGGNet架構(gòu),根據(jù)所采用數(shù)據(jù)集的特點(diǎn),提出并采用了一種新的CNN模型架構(gòu).該網(wǎng)絡(luò)包含了8個卷積層,所有卷積層都采用步長為1進(jìn)行3*1的卷積.匯聚層都采用步長為2進(jìn)行2*1的最大值匯聚.本實(shí)驗(yàn)采用Keras深度學(xué)習(xí)的框架,采用Theano作為后端進(jìn)行張量操作.

        整個網(wǎng)絡(luò)有4大隱含層,每段內(nèi)有2個卷積層,且每層卷積核數(shù)量一樣,BN操作置于激活函數(shù)ReLu之前.網(wǎng)絡(luò)隨層數(shù)遞增過程中,匯聚操作逐步忽略局部信息,特征圖的維度隨著每個匯聚操作縮小一半,特征圖維度依次變化為:128,64,32,16,8.但是深度隨著4個隱含層依次遞增:16,24,32,64.最小批尺寸為32,訓(xùn)練次數(shù)為150次,初始學(xué)習(xí)率為0.000 1,動量為0.9.

        HE S H,XIAO H T,SUN W F,et al. A study of high range resolution polarization radar target recognition by using matched correlators[J]. Acta Electronica Sinica,1999,27(3):110—112.(In Chinese)

        [3]? ? 田壯壯,占榮輝,胡杰民,等. 基于卷積神經(jīng)網(wǎng)絡(luò)的SAR圖像目標(biāo)識別研究[J]. 雷達(dá)學(xué)報,2016,5(3):320—325.

        TIAN Z Z,ZHAN R H,HU J M,et al. SAR ATR based on convolutional neural network[J]. Journal of Radars,2016,5(3):320—325.(In Chinese)

        [4]? ? 宋青松,張超,田正鑫,等. 基于多尺度卷積神經(jīng)網(wǎng)絡(luò)的交通標(biāo)志識別[J]. 湖南大學(xué)學(xué)報(自然科學(xué)版),2018,45(8):131—137.

        SONG Q S,ZHANG C,TIAN Z X,et al. Traffic sign recognition based on multi-scale convolutional neural network[J].Journal of Hunan University (Natural Sciences),2018,45(8):131—137.(In Chinese)

        [5]? ? HINTON G E,OSINDER S,THE Y W. A fast learning algorithm for deep belief nets[J]. Neural Computation,2006,18(7):1527—1554.

        [6]? ? VINCENT P,LAROCHELLE H,LAJOIE I,et al. Stacked denoising autoencoders:learning useful representations in a deep network with a local denoising criterion[J].The Journal of Machine Learning Research,2010,11:3371—3408.

        [7]? ? LECUN Y,BOTTOU L,BENGIO Y,et al. Gradient-based learning applied to document recognition[J].Proceedings of the IEEE,1998,86(11):2278—2324.

        [8]? ? KAREN S,ANDREW Z. Very deep convolution net-works for large-scale image recognition[C]//International Conference on Learning Representations(ICLR). San Diego,2015,arXiv:1409. 1556.

        [9]? ? HE K,ZHANG X,REN S,et al. Deep residual learning for image recognition[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Las Vegas:IEEE,2016:770—778.

        [10]? JARMO L,VISA K. Deep learning for HRRP-based target recognition in multistatic radar systems[C]//IEEE Radar Conference. Philadelphia:IEEE,2016:1—6.

        [11]? OSMAN K,OKAN M Y,MEHMET Z K,et al. Convolutional neural networks-based ship target recognition using high resolution range profiles[C]//18th International Radar Symposium.Prague:IEEE,2017:1—6.

        [12]? SERGEY I,CHRISTIAN S. Batchnormalization:accelerating deep network training by reducing internal covariate shift[C]//Proceedings of the 32nd International Conference on Machine Learning(ICML).Lille,2015:448—456. arXiv:1502.03167.

        [13]? CORTES C,VAPNIK V. Support-vector networks[J].Machine Learning,1995,20(3):273—297.

        [14]? DARMATASIA,MOHAMAD I F. Handwriting recognition on form document using convolutional neural network and support vector machines (CNN-SVM)[C]//5th International Conference on Information and Communication Technology(ICoIC7). Melaka:IEEE,2017:1—6.

        [15]? ALALSHEKMUBARAK A,SMITH L S. A novel approachcombining recurrent neural network and support vector machines for time series classification[C]//9th International Conference on Innovations in Information Technology. Abu Dhabi:IEEE,2013:42—47.

        [16]? ABIEN F A. An architecture combining convolutional neural network(CNN) and support vector machine(SVM) for image classification[astro-ph.CO] Adamson University,Manila,2017. arXiv preprint arXiv:1712.03541.

        [17]? 呂志清,安翔,洪偉. 電磁散射的拉格朗日乘子區(qū)域分解算法[J]. 電子學(xué)報,2007,35(6):1069—1073.

        L?譈 Z Q,AN X,HONG W. Domain decomposition method with Lagrange multipliers for the analysis of electromagnetic scattering[J]. Acta Electronica Sinica,2007,35(6):1069—1073.(In Chinese)

        [18]? 殷曉星,王群,洪偉. 目標(biāo)雷達(dá)散射截面的高頻適用條件[J]. 現(xiàn)代雷達(dá),2007,29(1):6-8.

        YIN X X,WANG Q,HONG W. Restriction condition of radar cross section of objects in high frequency[J]. Modern Radar,2007,29(1):6—8.(In Chinese)

        [19]? 袁莉. 基于高分辨距離像的雷達(dá)目標(biāo)識別方法研究[D]. 西安:西安電子科技大學(xué)電子工程學(xué)院,2007:7—8.

        YUAN L. Research on radar target recognition method based on high resolution range profile[D]. Xi′an:School of Electronic Engineering,Xidian University,2007:7—8.(In Chinese)

        [20]? ZYWECK A,BOGNER R E. Radar target classification of commercial aircraft[J]. IEEE Transactionson Aerospace and Electronic Systems,1996,32(2):598—606.

        [21]? JI S,YA X,CARIN L. Bayesian compressive sen-sing[J]. IEEE Transactions on Signal Processing,2008,56(6):2346—2356.

        [22]? SHEKHAR S,VISHAL M P,NASSER M N,et al. Joint sparse representation for robust multimodal biometrics recognition[J]. IEEE Transaction on Pattern Analysis and Machine Intelligence,2013,35:1—14.

        [23]? 劉盛啟. 基于高分辨距離像的特征提取與識別增強(qiáng)技術(shù)[D]. 長沙:國防科技大學(xué)ATR實(shí)驗(yàn)室,2016:33—44.

        LIU S Q. Research on feature extraction and recognition performance enhancement algorithms based on high range resolution profile[D]. Changsha:ATR Laboratory,National University of Defense Technology,2016:33—44.(In Chinese)

        [24]? LIU S Q,ZHAN R H,ZHAI Q L,et al. Multi-view radar target recognition based on Bayesian compressive sensing[J]. Journal of Electro-magnetic Waves and Applications,2015,687(14):3704—3708.

        [25]? LIU S Q,ZHAN R H,ZHAI Q L,et al. Full-polarization HRRP recognition based on joint sparse representation[C]//IEEE Radar Conference. Johannesburg:IEEE,2015:333—338.

        猜你喜歡
        支持向量機(jī)卷積神經(jīng)網(wǎng)絡(luò)
        基于卷積神經(jīng)網(wǎng)絡(luò)溫室智能大棚監(jiān)控系統(tǒng)的研究
        基于深度卷積神經(jīng)網(wǎng)絡(luò)的物體識別算法
        基于改進(jìn)支持向量機(jī)的船舶縱搖預(yù)報模型
        基于SVM的煙草銷售量預(yù)測
        動態(tài)場景中的視覺目標(biāo)識別方法分析
        論提高裝備故障預(yù)測準(zhǔn)確度的方法途徑
        價值工程(2016年32期)2016-12-20 20:36:43
        基于熵技術(shù)的公共事業(yè)費(fèi)最優(yōu)組合預(yù)測
        價值工程(2016年29期)2016-11-14 00:13:35
        深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
        基于深度卷積網(wǎng)絡(luò)的人臉年齡分析算法與實(shí)現(xiàn)
        軟件工程(2016年8期)2016-10-25 15:47:34
        基于支持向量機(jī)的金融數(shù)據(jù)分析研究
        国产精品一区二区三密桃| 欧美精品中文字幕亚洲专区| 日本夜爽爽一区二区三区| 色综合999| 日韩av一区二区不卡在线| 亚洲熟女综合色一区二区三区| 中文字幕爆乳julia女教师| 日韩av一区二区三区四区av| 亚洲免费一区二区av| 欧美成人猛片aaaaaaa| 精品国内自产拍在线观看| 无码人妻丝袜在线视频| 男女打扑克视频在线看| 在线亚洲高清揄拍自拍一品区| 婷婷五月综合缴情在线视频 | 久久国产精品99精品国产| 中文字幕在线亚洲一区二区三区| 亚洲毛片av一区二区三区| 一本色道久久88—综合亚洲精品 | 天天躁日日躁狠狠躁| 久久国产A√无码专区亚洲| 99久久亚洲精品加勒比| 日韩精品视频久久一区二区| 在线观看免费人成视频| 亚洲国产成人手机在线电影| 亚洲av高清一区三区三区| 无码中文字幕人妻在线一区| 久久无码高潮喷水| 亚洲国产成人aⅴ毛片大全| 日本二区在线视频观看| 凹凸在线无码免费视频| 亚洲AV无码一区二区三区ba| 亚洲综合伊人久久综合| 丰满少妇弄高潮了www| 久久天天躁狠狠躁夜夜爽| 加勒比东京热综合久久| 91日韩东京热中文字幕| 精品深夜av无码一区二区| 亚洲国产精品500在线观看| 久久精品国产自产对白一区| 欧美大屁股xxxx高跟欧美黑人 |