亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于卷積神經(jīng)網(wǎng)絡(luò)的SAR圖像目標(biāo)識別研究

        2016-10-09 11:03:40田壯壯占榮輝胡杰民
        雷達學(xué)報 2016年3期
        關(guān)鍵詞:識別率卷積神經(jīng)網(wǎng)絡(luò)

        田壯壯 占榮輝 胡杰民 張 軍

        (國防科學(xué)技術(shù)大學(xué)自動目標(biāo)識別重點實驗室 長沙 410073)

        基于卷積神經(jīng)網(wǎng)絡(luò)的SAR圖像目標(biāo)識別研究

        田壯壯*占榮輝胡杰民張軍

        (國防科學(xué)技術(shù)大學(xué)自動目標(biāo)識別重點實驗室長沙410073)

        針對合成孔徑雷達(Synthetic Aperture Radar,SAR)的圖像目標(biāo)識別應(yīng)用,該文提出了一種基于卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)的SAR圖像目標(biāo)識別方法。首先通過在誤差代價函數(shù)中引入類別可分性度量,提高了卷積神經(jīng)網(wǎng)絡(luò)的類別區(qū)分能力;然后利用改進后的卷積神經(jīng)網(wǎng)絡(luò)對SAR圖像進行特征提取;最后利用支持向量機(Support Vector Machine,SVM)對特征進行分類。使用美國運動和靜止目標(biāo)獲取與識別(Moving and Stationary Target Acquisition and Recognition,MSTAR)SAR圖像數(shù)據(jù)進行實驗,識別結(jié)果證明了所提方法的有效性。

        合成孔徑雷達;自動目標(biāo)識別;卷積神經(jīng)網(wǎng)絡(luò);支持向量機;BP算法

        引用格式:田壯壯,占榮輝,胡杰民,等.基于卷積神經(jīng)網(wǎng)絡(luò)的SAR圖像目標(biāo)識別研究[J].雷達學(xué)報,2016,5(3):320-325.DOI:10.12000/JR16037.

        Reference format:Tian Zhuangzhuang,Zhan Ronghui,Hu Jiemin,et al..SAR ATR based on convolutional neural network[J].Journal of Radars,2016,5(3):320-325.DOI:10.12000/JR16037.

        1 引言

        合成孔徑雷達(Synthetic Aperture Radar,SAR)是當(dāng)前對地觀測的重要手段之一。由于具有全天候、全天時和一定的穿透成像能力,SAR已經(jīng)被廣泛應(yīng)用于戰(zhàn)場偵查和情報獲取等領(lǐng)域。SAR圖像自動目標(biāo)識別(Automatic Target Recognition,ATR)技術(shù)可以有效獲取目標(biāo)信息,提高軍隊自動化水平。目前識別技術(shù)上常用的方法包括模板匹配法[1],支持向量機(Support Vector Machine,SVM)法[2],文獻[3]中提出的基于Gabor濾波器和局部紋理特征提取的方法,文獻[4]中提出的多信息字典學(xué)習(xí)和稀疏表示相結(jié)合的方法等等。但是這些方法都需要人工憑借經(jīng)驗進行特征提取,具有一定的盲目性和不確定性。

        近年來,深度學(xué)習(xí)(Deep Learning)理論在模式識別領(lǐng)域掀起了一股浪潮,相關(guān)的理論和實驗成果不斷出現(xiàn)。2006年,Hinton等人[5]提出了非監(jiān)督的逐層貪婪訓(xùn)練方法,解決了深度增加所帶來的“梯度耗散”問題,使神經(jīng)網(wǎng)絡(luò)能夠朝著更深的方向進行發(fā)展。隨后許多學(xué)者根據(jù)不同的應(yīng)用背景提出了多種DL模型,如深度置信網(wǎng)絡(luò)(Deep Belief Network,DBN)[6]、棧式消噪自動編碼機(Stacked Denoising Autoencoders,SDA)[7]和卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)[8]等。由于可以直接處理2維圖像,卷積神經(jīng)網(wǎng)絡(luò)在圖像識別領(lǐng)域取得了較多的應(yīng)用,如人臉識別[9],人體行為識別[10],醫(yī)學(xué)圖像識別[11]等。

        CNN主要有以下特點:采用原始圖像作為網(wǎng)絡(luò)輸入,避免了復(fù)雜的特征提取過程;局部感受域獲取的特征與圖像的平移、縮放和旋轉(zhuǎn)無關(guān);權(quán)值共享結(jié)構(gòu)降低了網(wǎng)絡(luò)模型的復(fù)雜度;下采樣利用局部相關(guān)性原理,在有效減少數(shù)據(jù)處理量的同時保留了結(jié)構(gòu)信息[12]。CNN作為一種特征學(xué)習(xí)方法,通過非線性的簡單模型將原始數(shù)據(jù)轉(zhuǎn)化為更為抽象的表達,在特征學(xué)習(xí)過程中不需要過多的人工參與[13]。

        本文主要研究將CNN應(yīng)用于SAR圖像目標(biāo)識別領(lǐng)域,減少特征選取中的人工操作。為了進一步增強CNN所提取特征的可分性,本文嘗試將類別可分性度量引入代價函數(shù)之中。為了提高CNN對特征的分類能力,利用支持向量機對CNN模型中的Softmax分類器進行替換。實驗結(jié)果表明,該方法具有良好的識別分類效果,證明了其有效性。

        2 卷積神經(jīng)網(wǎng)絡(luò)

        卷積神經(jīng)網(wǎng)絡(luò)是一種多層神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),主要由輸入層、卷積層、下采樣層、輸出層等組成,其中卷積層和下采樣層為隱含層。在卷積神經(jīng)網(wǎng)絡(luò)中,輸入層用于接收原始圖像;卷積層用于提取圖像特征,并降低噪聲的影響;下采樣層利用圖像局部相關(guān)性原理,減少需要處理的數(shù)據(jù)量;輸出層將提取特征映射為最終所得到的標(biāo)簽。

        圖像在CNN中的映射過程是一個前向傳播過程,上一層的輸出作為當(dāng)前層的輸入。為了避免線性模型表達能力不夠的問題,各層在傳遞時需要加入非線性的激活函數(shù)。第l層的輸出可以表示為:

        式中,l表示層數(shù),x為特征圖,W為當(dāng)前網(wǎng)絡(luò)層的映射權(quán)值矩陣,b為當(dāng)前網(wǎng)絡(luò)的加性偏置項,f為激活函數(shù)。

        CNN模型常用后向傳播(Back Propagation,BP)算法[14]來對參數(shù)進行迭代更新。BP算法是一種常見的監(jiān)督式學(xué)習(xí)方法。該算法首先利用樣本的實際輸出與期望輸出求得代價函數(shù),然后將代價函數(shù)反向傳播至各層,最后利用梯度下降法(Gradient Descent,GD)沿著代價函數(shù)的負梯度方向調(diào)整網(wǎng)絡(luò)中的權(quán)值和偏置等參數(shù)。

        首先假設(shè)輸出的目標(biāo)類別維數(shù)為B,即共有B類樣本,網(wǎng)絡(luò)以均方誤差作為代價函數(shù)。第n個樣本的代價函數(shù)E0為:

        在反向傳播過程中,可由第l+1層的靈敏度δl+1和式(1)得到第l層的靈敏度為:

        分別求E0對Wl和bl的偏導(dǎo),由式(1)可得:

        根據(jù)梯度下降法,可以得出第l層神經(jīng)元權(quán)值的更新變化量為:

        式中,η為學(xué)習(xí)率。

        3 卷積神經(jīng)網(wǎng)絡(luò)的改進

        3.1引入類別可分性度量

        為了使CNN模型所提取的特征具有更好的類別可分性,代價函數(shù)在式(2)的基礎(chǔ)上,增加了樣本的類別可分性度量[15],即類內(nèi)距離與類間距離:

        式中,α與β為權(quán)值參數(shù)。

        對代價函數(shù)進行修正的目的是在調(diào)整權(quán)值參數(shù)時,使網(wǎng)絡(luò)向著有利于分類的方向進行調(diào)整,提高最終訓(xùn)練結(jié)果的可分性。為了使代價函數(shù)能夠反向傳播,需要求得修正后代價函數(shù)的靈敏度。

        對于類內(nèi)距離函數(shù)E1,其輸出層的靈敏度為:

        式中,nc表示屬于c類的樣本個數(shù)。

        對于類間距離函數(shù)E2,其輸出層的靈敏度為:

        根據(jù)式(3)、式(9)、式(10)和式(11)可以得到修正后的輸出層靈敏度為:

        得到了輸出層的靈敏度之后,根據(jù)式(4)即可迭代得到各層的靈敏度,再根據(jù)式(5)和式(6),可以得到各層參數(shù)的更新量。

        3.2支持向量機的使用

        在CNN模型中,通常利用Softmax回歸模型作為分類器。該分類器通過全連接方式將CNN模型所提取特征映射為最終輸出標(biāo)簽。這種分類方法在訓(xùn)練時可以有效地與反向傳播過程結(jié)合,方便模型中參數(shù)的更新,但是Softmax單層全連接的方式并不能很好地解決非線性分類問題。

        支持向量機[16]是Vapnik等人于1995年首先提出的,主要利用核函數(shù)將原始特征空間中的非線性分類界面隱式地映射到更高維的變換特征空間中產(chǎn)生線性分類界面,達到更好的分類效果[17]。SVM在解決非線性分類問題上表現(xiàn)優(yōu)良。為解決Softmax對非線性樣本特征的支持問題,本文利用SVM代替Softmax作為CNN模型的分類器,對樣本通過所有隱含層后所得特征進行分類。

        4 實驗結(jié)果

        4.1實驗數(shù)據(jù)集

        為了驗證本文方法的有效性,采用美國國防研究規(guī)劃局(DARPA)和空軍研究實驗室(AFRL)聯(lián)合資助的運動和靜止目標(biāo)獲取與識別(Moving and Stationary Target Acquisition and Recognition,MSTAR)數(shù)據(jù)庫進行實驗。數(shù)據(jù)庫中的SAR圖像分辨率為0.3 m×0.3 m,目標(biāo)圖像大小為128×128像素。MSTAR數(shù)據(jù)庫中包含了BMP2、BRDM2、BTR60、BTR70、D7、T62、T72、ZIL131、ZSU234、2S1等10類目標(biāo)的SAR圖像數(shù)據(jù)。實驗采用17°俯仰角下的圖像作為訓(xùn)練樣本,15°俯仰角下的圖像作為測試樣本。

        4.2實驗?zāi)P?/p>

        圖1 本文卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)示意圖Fig.1 CNN structural plan of the method

        4.33 類目標(biāo)的識別結(jié)果與分析

        實驗中,訓(xùn)練樣本為17°俯仰角下BMP2_SN 9563、BTR70_C71、T72_SN132的SAR圖像數(shù)據(jù),測試數(shù)據(jù)為15°俯仰角下BMP2_SNC21、BMP2_SN9563、BMP2_SN9566、BTR70、T72_SN132、T72_SN812和T72_SNS7的SAR圖像數(shù)據(jù)。3類目標(biāo)的識別結(jié)果如表1所示。

        表1 3類MSTAR目標(biāo)識別結(jié)果Tab.1 The recognition results of three types of MSTAR targets

        從表1可以看出,對于相同型號目標(biāo)的SAR圖像,本文方法的正確識別率達到了98.97%以上。對于相同類別不同型號的變體,正確識別率也都在91.62%以上。本文方法整體的平均識別率達到了95.90%。表2中可以看出本文方法識別率優(yōu)于SVM、ELM以及稀疏表示等方法。實驗中,在相同條件下利用相同結(jié)構(gòu)但未經(jīng)改進的CNN模型進行了識別測試,得到的平均識別率為93.63%,說明本方法相較于改進前CNN模型也有一定提高。

        表2 與其他方法的效果對比Tab.2 The recognition performance compare with other methods

        4.410類目標(biāo)的識別結(jié)果與分析

        在10類目標(biāo)的識別實驗中,目標(biāo)包括BRDM2、BMP2(BMP2_SNC21、BMP2_SN9563、BMP2_SN9566)、BTR60、BTR70、D7、ZIL131、ZSU234、T62、T72(T72_SN132、T72_SN812、T72_SNS7)、2S1等10類。訓(xùn)練樣本為17°俯仰角下不包括變體(即不包括BMP2_SNC21、BMP2_SN9566、T72_SN812、T72_SNS7等型號)的SAR圖像數(shù)據(jù),測試樣本為15°俯仰角下的包含變體的各目標(biāo)SAR圖像數(shù)據(jù)。識別結(jié)果如表3。

        表3 10類MSTAR目標(biāo)識別結(jié)果Tab.3 The recognition results of ten types of MSTAR targets

        從表3的分類結(jié)果可以看出,本文方法10類目標(biāo)分類結(jié)果仍然較好,平均識別率仍能達到93.76%。

        5 結(jié)論

        針對SAR圖像目標(biāo)識別問題,本文提出了一種基于卷積神經(jīng)網(wǎng)絡(luò)的目標(biāo)識別方法。通過在代價函數(shù)中引入類別可分性度量以及使用支持向量機代替Softmax分類器,對卷積神經(jīng)網(wǎng)絡(luò)進行了改進。利用MSTAR圖像數(shù)據(jù)對該方法進行驗證。結(jié)果表明,在不需要人工進行特征提取的情況下,該方法在3類目標(biāo)分類實驗中,達到了95.90%的識別率,在10類目標(biāo)分類實驗中,平均識別率仍然能達到93.76%。實驗結(jié)果說明本文方法的有效性以及卷積神經(jīng)網(wǎng)絡(luò)在SAR圖像目標(biāo)識別上具有一定的應(yīng)用潛力。

        [1]Ross T D,Worrell S W,Velten V J,et al..Standard SAR ATR evaluation experiments using the MSTAR public release data set[C].Aerospace/Defense Sensing and Controls,International Society for Optics and Photonics,1998:566-573.

        [2]Tao W,Xi C,Xiangwei R,et al..Study on SAR target recognition based on support vector machine[C].2009 2nd Asian-Pacific Conference on Synthetic Aperture Radar,2009:856-859.

        [3]王璐,張帆,李偉,等.基于 Gabor 濾波器和局部紋理特征提取的 SAR 目標(biāo)識別算法[J].雷達學(xué)報,2015,4(6):658-665.DOI:10.12000/JR15076.Wang Lu,Zhang Fan,Li Wei,et al..A method of SAR target recognition based on Gabor filter and local texture feature extraction[J].Journal of Radars,2015,4(6);658-665.DOI:10.12000/JR15076.

        [4]齊會嬌,王英華,丁軍,等.基于多信息字典學(xué)習(xí)及稀疏表示的SAR目標(biāo)識別[J].系統(tǒng)工程與電子技術(shù),2015,37(6):1280-1287.Qi Huijiao,Wang Yinghua,Ding Jun,et al..SAR target recognition based on multi-information dictionary learning and sparse representation[J].Systems Engineering and Electronics,2015,37(6):1280-1287.

        [5]Hinton G E and Salakhutdinov R R.Reducing the dimensionality of data with neural networks[J].Science,2006,313(5786):504-507.

        [6]Hinton G E,Osindero S,and Teh Y W.A fast learning algorithm for deep belief nets[J].Neural Computation,2006,18(7):1527-1554.

        [7]Vincent P,Larochelle H,Lajoie I,et al..Stacked denoisingautoencoders:learning useful representations in a deep network with a local denoisingcriterion[J].The Journal of Machine Learning Research,2010,11:3371-3408.

        [8]Lecun Y,Bottou L,Bengio Y,et al..Gradient-based learning applied to document recognition[J].Proceedings of the IEEE,1998,86(11):2278-2324.

        [9]Ma Y,He J,Wu L,et al..An effective face verification algorithm to fuse complete features in convolutional neural network[C].MultiMedia Modeling.Springer International Publishing,2016:39-46.

        [10]Ijjina E P and Mohan C K.Human action recognition based on motion capture information using fuzzy convolution neural networks[C].2015 Eighth International Conference on Advances in Pattern Recognition(ICAPR),Kalkata,2015:1-6.

        [11]Ciompi F,de Hoop B,van Riel S J,et al..Automatic classification of pulmonary peri-fissural nodules in computed tomography using an ensemble of 2D views and a convolutional neural network out-of-the-box[J].Medical Image Analysis,2015,26(1):195-202.

        [12]尹寶才,王文通,王立春.深度學(xué)習(xí)研究綜述[J].北京工業(yè)大學(xué)學(xué)報,2015,41(1):48-59.Yin Bao-cai,Wang Wen-tong,and Wang Li-chun.Review of deep learning[J].Journal of Beijing University of Technology,2015,41(1):48-59.

        [13]Lecun Y,Bengio Y,and Hinton G.Deep learning[J].Nature,2015,521(7553):436-444.

        [14]Rumelhart D E,Hinton G E,and Williams R J.Learning representations by back-propagating errors[J].Nature,1986,323(6088):533-536.

        [15]孫艷豐,齊光磊,胡永利,等.基于改進 Fisher 準則的深度卷積神經(jīng)網(wǎng)絡(luò)識別算法[J].北京工業(yè)大學(xué)學(xué)報,2015,41(6):835-841.Sun Yanfeng,Qi Guanglei,Hu Yongli,et al..Deep convolution neural network recognition algorithm based on improved fisher criterion[J].Journal of Beijing University of Technology,2015,41(6):835-841.

        [16]Cortes C and Vapnik V.Support-vector networks[J].Machine Learning,1995,20(3):273-297.

        [17]孫即祥,等.現(xiàn)代模式識別[M].北京:高等教育出版社,2008:624-625.Sun Jixiang,et al..Pattern Recognition[M].Beijing:Higher Education Press,2008:624-625.

        [18]Glorot X and Bengio Y.Understanding the difficulty of training deep feedforward neural networks[J].Journal of Machine Learning Research,2010,9:249-256.

        SAR ATR Based on Convolutional Neural Network

        Tian ZhuangzhuangZhan RonghuiHu JieminZhang Jun
        (ATR Key Laboratory,National University of Defense Technology,Changsha 410073,China)

        This study presents a new method of Synthetic Aperture Radar(SAR)image target recognition based on a convolutional neural network.First,we introduce a class separability measure into the cost function to improve this network's ability to distinguish between categories.Then,we extract SAR image features using the improved convolutional neural network and classify these features using a support vector machine.Experimental results using moving and stationary target acquisition and recognition SAR datasets prove the validity of this method.

        Synthetic Aperture Radar(SAR); Automatic Target Recognition(ATR); Convolutional Neural Network(CNN); Support Vector Machine(SVM); Back Propagation(BP)

        The National Natural Science Foundation of China(61471370)

        TN957.52

        A

        2095-283X(2016)03-0320-06

        10.12000/JR16037

        田壯壯(1993-),男,碩士生,研究方向為雷達目標(biāo)識別。

        E-mail:tzz14@nudt.edu.cn

        占榮輝(1978-),男,講師,博士,研究方向為雷達目標(biāo)識別、雷達信息處理。

        胡杰民(1983-),男,講師,博士,研究方向為空間目標(biāo)識別、雷達成像。

        張 軍(1973-),男,研究員,博士,研究方向為雷達智能信號處理、制導(dǎo)雷達應(yīng)用技術(shù)。

        2016-02-03;改回日期:2016-03-15;網(wǎng)絡(luò)出版:2016-05-09

        田壯壯 tzz14@nudt.edu.cn

        國家自然科學(xué)基金(61471370)

        猜你喜歡
        識別率卷積神經(jīng)網(wǎng)絡(luò)
        基于3D-Winograd的快速卷積算法設(shè)計及FPGA實現(xiàn)
        基于類圖像處理與向量化的大數(shù)據(jù)腳本攻擊智能檢測
        計算機工程(2020年3期)2020-03-19 12:24:50
        神經(jīng)網(wǎng)絡(luò)抑制無線通信干擾探究
        電子制作(2019年19期)2019-11-23 08:42:00
        從濾波器理解卷積
        電子制作(2019年11期)2019-07-04 00:34:38
        基于真耳分析的助聽器配戴者言語可懂度指數(shù)與言語識別率的關(guān)系
        提升高速公路MTC二次抓拍車牌識別率方案研究
        基于傅里葉域卷積表示的目標(biāo)跟蹤算法
        高速公路機電日常維護中車牌識別率分析系統(tǒng)的應(yīng)用
        基于神經(jīng)網(wǎng)絡(luò)的拉矯機控制模型建立
        重型機械(2016年1期)2016-03-01 03:42:04
        復(fù)數(shù)神經(jīng)網(wǎng)絡(luò)在基于WiFi的室內(nèi)LBS應(yīng)用
        国产一区二区精品久久| 成av人大片免费看的网站| 丰满女人猛烈进入视频免费网站 | 久久亚洲综合亚洲综合| 日本一区二区三区视频在线观看| 免费大黄网站| 欧美老熟妇又粗又大| 亚洲综合免费在线视频| 成人偷拍自拍视频在线观看 | 国产精品久久久久国产a级| avtt一区| 国产内射一级一片高清内射视频| 男女猛烈无遮挡免费视频| 无码专区久久综合久中文字幕| 校花高潮一区日韩| 国产自拍91精品视频| 亚洲最大av网站在线观看| 欧美一片二片午夜福利在线快| 美女扒开内裤露黑毛无遮挡| 富婆猛男一区二区三区| 欧美黑人xxxx又粗又长| 国产精品美女白浆喷水| 一级a免费高清免在线| 亚洲 欧美 综合 在线 精品| 天堂一区人妻无码| 国产视频嗯啊啊啊| 久久精品一区二区熟女| 精品无码国产一区二区三区av| 国产成年无码V片在线| 国产免费99久久精品| 最美女人体内射精一区二区| 日本无遮挡吸乳呻吟视频| 国产亚洲无码1024| 日韩精品在线一二三四区| 亚洲va无码手机在线电影| 成人不卡国产福利电影在线看| 精品视频手机在线免费观看| 又粗又大又硬毛片免费看| 国产精品美女| 一级二级三一片内射视频| 极品老师腿张开粉嫩小泬 |