亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        一維卷積神經(jīng)網(wǎng)絡(luò)用于雷達(dá)高分辨率距離像識(shí)別

        2018-10-24 02:27:52
        電訊技術(shù) 2018年10期
        關(guān)鍵詞:特征

        (山東大學(xué)(威海) 機(jī)電與信息工程學(xué)院,山東 威海 264209)

        1 引 言

        在雷達(dá)自動(dòng)目標(biāo)識(shí)別領(lǐng)域,高分辨率距離像(High Range Resolution Profile,HRRP)因具有實(shí)時(shí)性強(qiáng)、運(yùn)算量小、容易獲取與存儲(chǔ)等優(yōu)點(diǎn)而受到了廣泛的研究。目前基于HRRP的目標(biāo)識(shí)別大致分為兩個(gè)階段:對(duì)HRRP進(jìn)行特征提取,如FFT幅度譜、功率譜、差分譜、中心矩特征、雙譜特征和高階譜特征等;對(duì)特征進(jìn)行分類識(shí)別,如模版匹配法、基于統(tǒng)計(jì)學(xué)模型的分類算法、支持向量機(jī)(Support Vector Machine,SVM)和神經(jīng)網(wǎng)絡(luò)等[1]。

        在HRRP目標(biāo)識(shí)別研究中,如何提取性能更優(yōu)良的特征一直是研究的難點(diǎn)。近十年來,隨著深度學(xué)習(xí)在圖像分類、目標(biāo)檢測(cè)、自然語言處理、語音識(shí)別及語義分析等領(lǐng)域取得了巨大成功[2],許多研究者嘗試使用深度學(xué)習(xí)算法來解決HRRP目標(biāo)識(shí)別問題。文獻(xiàn)[3]把基于長(zhǎng)短期記憶單元的循環(huán)神經(jīng)網(wǎng)絡(luò)應(yīng)用于HRRP識(shí)別任務(wù)中,文獻(xiàn)[4]使用深度置信網(wǎng)絡(luò)解決HRRP的分類問題,文獻(xiàn)[5]提出了基于堆棧自編碼器的深層網(wǎng)絡(luò)識(shí)別方法,它們都取得了很好的識(shí)別結(jié)果。卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)作為深度學(xué)習(xí)模型的一種,通過局部連接和權(quán)值共享機(jī)制不僅可以降低網(wǎng)絡(luò)的復(fù)雜度,還抑制了網(wǎng)絡(luò)訓(xùn)練過程中的過擬合,通過池化操作使CNN具有一定程度的平移不變性[2]。CNN在雷達(dá)目標(biāo)識(shí)別領(lǐng)域的研究工作方面,文獻(xiàn)[6]構(gòu)建了一個(gè)基于CNN的SAR圖像目標(biāo)檢測(cè)算法架構(gòu),文獻(xiàn)[7]提出一種基于CNN的深度學(xué)習(xí)算法用于多基站雷達(dá)的HRRP目標(biāo)識(shí)別。

        由于CNN具有分層學(xué)習(xí)特征的能力,可以訓(xùn)練CNN自動(dòng)地從HRRP中學(xué)習(xí)有用特征并分類。為了解決手工提取高質(zhì)量特征困難的問題,本文把深度學(xué)習(xí)領(lǐng)域中的CNN應(yīng)用于HRRP識(shí)別,通過仿真實(shí)驗(yàn)確定網(wǎng)絡(luò)的配置與重要參數(shù),研究CNN的目標(biāo)識(shí)別性能。

        2 CNN的基本結(jié)構(gòu)

        CNN的網(wǎng)絡(luò)結(jié)構(gòu)通常由一系列可重復(fù)的卷積層、池化層和全連接層組成,卷積層通過局部連接和權(quán)值共享機(jī)制減少網(wǎng)絡(luò)參數(shù),降低網(wǎng)絡(luò)復(fù)雜度。池化層可以降低特征圖的分辨率,使CNN對(duì)輸入在一定程度上具有平移不變性,提高了CNN的魯棒性。全連接層可以把卷積層學(xué)習(xí)到的特征匯聚起來用于分類。圖1給出了一維CNN的基本結(jié)構(gòu)圖。

        圖1 一維卷積神經(jīng)網(wǎng)絡(luò)Fig.1 One-dimensional convolutional neural network

        3 CNN網(wǎng)絡(luò)配置和參數(shù)調(diào)整

        本文重點(diǎn)研究CNN網(wǎng)絡(luò)不同的激活函數(shù)、卷積核、學(xué)習(xí)率、權(quán)值衰減系數(shù)以及網(wǎng)絡(luò)結(jié)構(gòu)對(duì)HRRP識(shí)別性能的影響。在深度學(xué)習(xí)算法研究中,參數(shù)調(diào)優(yōu)是一件沉重而繁瑣的事情,迄今為止還沒有固定的方法來選擇合適的參數(shù),需要通過重復(fù)實(shí)驗(yàn)積累經(jīng)驗(yàn)進(jìn)行調(diào)整。

        首先初始化一個(gè)如圖2所示的網(wǎng)絡(luò)結(jié)構(gòu),然后逐個(gè)優(yōu)化相關(guān)參數(shù)。該網(wǎng)絡(luò)結(jié)構(gòu)包括3個(gè)卷積層、3個(gè)池化層和2個(gè)全連接層,3個(gè)卷積層的特征圖個(gè)數(shù)分別為16、32和64,2個(gè)全連接層的神經(jīng)元個(gè)數(shù)分別為50和4。

        圖2 用于雷達(dá)距離像識(shí)別的卷積神經(jīng)網(wǎng)絡(luò)Fig.2 Convolutional neural network for radar HRRP recognition

        通過仿真實(shí)驗(yàn),確定網(wǎng)絡(luò)的相關(guān)參數(shù):卷積核大小為3,移動(dòng)步長(zhǎng)為1;池化域的大小為2,移動(dòng)步長(zhǎng)為2,池化方法采用最大值法;學(xué)習(xí)率為0.01,權(quán)值衰減系數(shù)為0.000 5,網(wǎng)絡(luò)的訓(xùn)練方法采用批量梯度下降法,批量大小為64,最大迭代次數(shù)為2 000;權(quán)值初始化采用文獻(xiàn)[8]中的Xavier初始化方法,權(quán)值更新的動(dòng)量項(xiàng)因子為0.9,學(xué)習(xí)率的更新機(jī)制采用公式(1)計(jì)算。

        r=rb·(1+γ·c)-β。

        (1)

        式中:r表示更新后的學(xué)習(xí)率;rb表示初始學(xué)習(xí)率;c表示迭代次數(shù);γ與β為學(xué)習(xí)率的控制參數(shù),分別取值為0.000 5和0.75。

        網(wǎng)絡(luò)的損失函數(shù)為SoftmaxWithLoss函數(shù):

        (2)

        4 仿真實(shí)驗(yàn)

        本文借助深度學(xué)習(xí)庫(kù)caffe實(shí)現(xiàn)CNN搭建、訓(xùn)練與測(cè)試[9],硬件上使用單塊NVIDIA GeForce GT620M GPU和Intel Core i5 CPU。HRRP數(shù)據(jù)來自飛機(jī)縮比模型的暗室成像,4種飛機(jī)分別為B2(1:35)、F117(1:13)、J6(1:8)和YF22(1:12)。從數(shù)據(jù)集中抽取200個(gè)作為訓(xùn)練樣本,剩余1 000個(gè)作為測(cè)試樣本。

        4.1 激活函數(shù)選擇

        Sigmoid函數(shù)、Tanh函數(shù)和ReLU函數(shù)是人工神經(jīng)網(wǎng)絡(luò)常用的激活函數(shù),如公式(3)~(5)所示:

        (3)

        (4)

        ReLU(x)=max(0,x) 。

        (5)

        對(duì)3種激活函數(shù)進(jìn)行仿真,測(cè)試不同激活函數(shù)的性能,實(shí)驗(yàn)結(jié)果如圖3所示。從圖3可以看出,Sigmoid函數(shù)的性能最差,誤差曲線沒有下降,整個(gè)網(wǎng)絡(luò)幾乎沒有被訓(xùn)練;與ReLU函數(shù)相比,使用Tanh函數(shù)的CNN的誤差曲線快速收斂到0且非常穩(wěn)定。因?yàn)楸疚氖褂玫木W(wǎng)絡(luò)結(jié)構(gòu)相對(duì)較淺且Tanh函數(shù)比ReLU函數(shù)具有更好的非線性,所以選擇Tanh函數(shù)作為激活函數(shù)。

        圖3 不同激活函數(shù)的訓(xùn)練誤差Fig.3 Training errors for different activation functions

        4.2 參數(shù)的優(yōu)化

        通過仿真實(shí)驗(yàn)依次優(yōu)化卷積核、初始學(xué)習(xí)率和權(quán)值衰減系數(shù)3個(gè)重要參數(shù)。在仿真實(shí)驗(yàn)中設(shè)定3個(gè)卷積層的卷積核大小相等,變化區(qū)間為[3,11],學(xué)習(xí)率的變化區(qū)間為[0.1,0.001],權(quán)值衰減系數(shù)的變化區(qū)間為[0.5,0.000 05]。表1~3分別給出了不同的卷積核、學(xué)習(xí)率和權(quán)值衰減系數(shù)的識(shí)別率。

        表1 不同卷積核的識(shí)別率 Tab.1 Recognition rates for different kernel sizes

        從表1可以看出,隨著卷積核的增加,網(wǎng)絡(luò)的識(shí)別性能在總體上呈現(xiàn)下降趨勢(shì),當(dāng)卷積核大小為3時(shí)網(wǎng)絡(luò)性能最佳。該結(jié)果與文獻(xiàn)[10]使用小卷積核替代大卷積核的思想不謀而合。當(dāng)卷積核增大時(shí),導(dǎo)致網(wǎng)絡(luò)中的權(quán)值數(shù)目增多,訓(xùn)練CNN所花費(fèi)的時(shí)間也不斷增加。

        表2 不同學(xué)習(xí)率的識(shí)別率Tab.2 Recognition rates for different learning rates

        從表2可以看出,當(dāng)學(xué)習(xí)率為0.01時(shí)識(shí)別性能最好。學(xué)習(xí)率過大或過小時(shí)識(shí)別率都會(huì)變差,因?yàn)閷W(xué)習(xí)率過大會(huì)導(dǎo)致網(wǎng)絡(luò)不收斂,而學(xué)習(xí)率過小會(huì)導(dǎo)致權(quán)值更新慢,網(wǎng)絡(luò)訓(xùn)練效果差。

        表3 不同權(quán)值衰減系數(shù)的識(shí)別率Tab.3 Recognition rates for different decay coefficients

        從表3可以看出,當(dāng)權(quán)值衰減系數(shù)為0.000 5時(shí)識(shí)別性能最好。衰減系數(shù)過大或過小會(huì)使網(wǎng)絡(luò)性能變差,因?yàn)樗p系數(shù)過大導(dǎo)致權(quán)值衰減嚴(yán)重,網(wǎng)絡(luò)不能被訓(xùn)練,衰減系數(shù)過小又起不到防止過擬合的作用。

        4.3 不同網(wǎng)絡(luò)結(jié)構(gòu)的識(shí)別率

        參考文獻(xiàn)[10],在設(shè)計(jì)網(wǎng)絡(luò)結(jié)構(gòu)時(shí),為了避免數(shù)據(jù)在網(wǎng)絡(luò)前向傳播過程中的急劇壓縮,遵守經(jīng)過pooling層時(shí)特征圖的數(shù)目增加2倍的原則。另外,由于本文使用的HRRP訓(xùn)練樣本的數(shù)目與種類較少,CNN的規(guī)模不必設(shè)計(jì)太大,文中最深為4層。通過調(diào)整網(wǎng)絡(luò)的層數(shù)與特征圖的數(shù)目來控制CNN的深度與廣度,在調(diào)整過程中,保持全連接層不變。表4給出了不同網(wǎng)絡(luò)結(jié)構(gòu)下4種飛機(jī)目標(biāo)的識(shí)別率。

        表4 不同網(wǎng)絡(luò)結(jié)構(gòu)的識(shí)別率Tab.4 Recognition rates for different network structures

        由表4可以看出:

        (1)從總體上看,隨著網(wǎng)絡(luò)層數(shù)的增加,目標(biāo)識(shí)別率開始上升,當(dāng)網(wǎng)絡(luò)達(dá)到3層時(shí)識(shí)別性能最好。但隨著網(wǎng)絡(luò)層數(shù)的繼續(xù)上升,目標(biāo)的識(shí)別性能會(huì)出現(xiàn)下降趨勢(shì)。

        (2)當(dāng)網(wǎng)絡(luò)層數(shù)相同時(shí),合理地控制網(wǎng)絡(luò)的廣度可以提高網(wǎng)絡(luò)的識(shí)別性能,如G、H與I所示的識(shí)別率。

        (3)隨著網(wǎng)絡(luò)規(guī)模的增大,訓(xùn)練網(wǎng)絡(luò)花費(fèi)的時(shí)間逐步增加。

        因此,設(shè)計(jì)網(wǎng)絡(luò)結(jié)構(gòu)時(shí),它的復(fù)雜度應(yīng)該與數(shù)據(jù)集的大小相匹配,網(wǎng)絡(luò)規(guī)模過大或太小都達(dá)不到最好的識(shí)別性能。另外,還要考慮到訓(xùn)練網(wǎng)絡(luò)所花費(fèi)的時(shí)間成本,網(wǎng)絡(luò)越復(fù)雜,花費(fèi)的時(shí)間越多。在以上各網(wǎng)絡(luò)結(jié)構(gòu)中,網(wǎng)絡(luò)H表現(xiàn)最好。

        4.4 不同分類器的識(shí)別率

        為了驗(yàn)證CNN應(yīng)用于HRRP特征提取和分類的有效性,用BP(Backpropagation)網(wǎng)絡(luò)、SVM分類器和K-最近鄰(K-Nearest Neighbor,KNN)分類器與CNN進(jìn)行比較。BP網(wǎng)絡(luò)采用256×50×50×4的網(wǎng)絡(luò)結(jié)構(gòu),訓(xùn)練方法為批量梯度下降法,最大迭代次數(shù)為6 000。SVM分類器使用LIBSVM開源工具箱[11],核函數(shù)采用徑向基函數(shù),懲罰系數(shù)c和徑向基函數(shù)中參數(shù)γ基于網(wǎng)格搜索法進(jìn)行尋優(yōu);KNN分類器中的度量采用歐氏距離,K值取3。實(shí)驗(yàn)結(jié)果如表5所示。

        表5 不同分類器的識(shí)別率 Tab.5 Recognition rates for different classifiers

        從表5可以看出,由于KNN分類器要求訓(xùn)練樣本具有典型性,且不能處理樣本的平移問題,識(shí)別率最低;BP網(wǎng)絡(luò)通過調(diào)整網(wǎng)絡(luò)權(quán)值與偏置實(shí)現(xiàn)輸入到輸出的映射,識(shí)別率比KNN分類器大幅度提高;SVM分類器利用核函數(shù)把原始數(shù)據(jù)從不可分的低維空間映射到高維空間實(shí)現(xiàn)分類,識(shí)別率與BP網(wǎng)絡(luò)的識(shí)別率接近;CNN利用卷積層提取有用的特征用于分類,識(shí)別率最高。從耗時(shí)上看,由于SVM分類器的模型只與樣本中少量的支持向量有關(guān),訓(xùn)練時(shí)間最少;KNN分類器雖然不需要經(jīng)過預(yù)訓(xùn)練,但測(cè)試樣本需要與每一個(gè)訓(xùn)練樣本作比較,花費(fèi)時(shí)間與樣本集大小有關(guān),當(dāng)訓(xùn)練樣本數(shù)目與維度增加時(shí),運(yùn)算量會(huì)急劇增大;CNN和BP網(wǎng)絡(luò)分類器把大量時(shí)間花費(fèi)在網(wǎng)絡(luò)的訓(xùn)練上,因?yàn)镃NN比BP分類器的網(wǎng)絡(luò)結(jié)構(gòu)更復(fù)雜,所以消耗時(shí)間最多。

        4.5 CNN識(shí)別性能的可視化分析

        為了直觀地說明CNN具有良好識(shí)別性能的原因,從測(cè)試集中選取了3個(gè)相似的HRRP像,如圖4所示。當(dāng)使用CNN來識(shí)別這3類目標(biāo)時(shí),可以通過卷積層自動(dòng)學(xué)習(xí)到多種有用的特征,最后匯集到全連接層進(jìn)行分類。將CNN第二個(gè)卷積層中的前7個(gè)特征圖可視化,結(jié)果如圖5所示。

        (a)F117距離像

        (b)JB距離像

        (c)YF22距離像圖4 3種飛機(jī)目標(biāo)的距離像Fig.4 HRRPs of three aircraft targets

        圖5 3種飛機(jī)目標(biāo)的特征圖Fig.5 The feature maps of three aircraft targets

        從圖5可以看出,對(duì)于同一個(gè)HRRP,7個(gè)特征圖學(xué)習(xí)到的特征互不相同。同一類特征圖從3種不同HRRP中學(xué)習(xí)到的特征有的相似,有的會(huì)存在明顯差別。盡管原始輸入的3種HRRP的差異性不大,但是通過多層的卷積操作,組合多種不同特征,可以把每種特征的差異性逐層積累,學(xué)習(xí)到易于分辨的特征,最后送給全連接層進(jìn)行分類,實(shí)現(xiàn)良好的識(shí)別效果。

        5 結(jié)束語

        本文把深度學(xué)習(xí)領(lǐng)域中的CNN應(yīng)用于HRRP的目標(biāo)識(shí)別中,首先介紹了一維CNN的網(wǎng)絡(luò)結(jié)構(gòu),重點(diǎn)研究了不同激活函數(shù)、不同參數(shù)、不同網(wǎng)絡(luò)結(jié)構(gòu)對(duì)CNN識(shí)別性能的影響,比較了CNN與BP網(wǎng)絡(luò)、SVM和KNN分類器的識(shí)別性能,通過可視化特征圖說明了CNN通過卷積層能學(xué)習(xí)到易于分辨的特征。實(shí)驗(yàn)結(jié)果表明,CNN能夠有效地從原始HRRP中學(xué)習(xí)到有用的特征并分類,具有很好的識(shí)別性能。本文對(duì)CNN在HRRP目標(biāo)識(shí)別中的應(yīng)用進(jìn)行了初步探索,可為實(shí)際工程應(yīng)用提供參考。今后的研究工作重點(diǎn)是對(duì)CNN訓(xùn)練算法與網(wǎng)絡(luò)結(jié)構(gòu)的改進(jìn),加強(qiáng)CNN的特征學(xué)習(xí)能力,進(jìn)一步提高目標(biāo)識(shí)別率。

        猜你喜歡
        特征
        抓住特征巧觀察
        離散型隨機(jī)變量的分布列與數(shù)字特征
        具有兩個(gè)P’維非線性不可約特征標(biāo)的非可解群
        月震特征及與地震的對(duì)比
        如何表達(dá)“特征”
        被k(2≤k≤16)整除的正整數(shù)的特征
        不忠誠(chéng)的四個(gè)特征
        詈語的文化蘊(yùn)含與現(xiàn)代特征
        新聞傳播(2018年11期)2018-08-29 08:15:24
        抓住特征巧觀察
        基于特征篩選的模型選擇
        一区二区三区日本久久| 98久9在线 | 免费| 亚洲欧洲高潮| 国产AV无码无遮挡毛片| 91精品手机国产在线能| 无码午夜剧场| 国产极品嫩模大尺度在线播放| 成人国产激情自拍视频| 女人被弄到高潮的免费视频| 成人国产精品999视频| 久久精品国产亚洲av热明星| 偷拍一区二区三区高清视频| 亚洲a∨无码男人的天堂| 久久久窝窝午夜精品| 视频一区二区三区中文字幕狠狠| 手机在线看片国产人妻| 亚洲国产日韩精品一区二区三区| 91av小视频| 日韩精品少妇专区人妻系列| 最新中文字幕人妻少妇| 狠狠色成人综合网| 美女一级毛片免费观看97| 亚洲精品久久麻豆蜜桃| 亚洲国产精品无码久久一区二区 | 2021国产最新无码视频| 国产亚洲一区二区精品| 久久亚洲av午夜福利精品一区| 国产午夜影视大全免费观看| 蜜桃视频免费在线视频| 亚洲香蕉av一区二区三区| 激情影院内射美女| 极品 在线 视频 大陆 国产| 日本不卡一区二区三区在线观看| 国产69久久精品成人看| 丁香五月缴情综合网| 在线观看国产精品自拍| 久久精品国产91精品亚洲| 无码精品人妻一区二区三区人妻斩| 青春草在线视频精品| 91九色视频在线国产| 巨茎中出肉欲人妻在线视频|