亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于卷積神經(jīng)網(wǎng)絡(luò)的SAR圖像目標(biāo)檢測算法

        2016-10-13 06:29:52劉宏偉
        電子與信息學(xué)報 2016年12期
        關(guān)鍵詞:個數(shù)卷積區(qū)域

        杜 蘭 劉 彬 王 燕 劉宏偉 代 慧

        ?

        基于卷積神經(jīng)網(wǎng)絡(luò)的SAR圖像目標(biāo)檢測算法

        杜 蘭*劉 彬 王 燕 劉宏偉 代 慧

        (西安電子科技大學(xué)雷達信號處理國家重點實驗室 西安 710071)(西安電子科技大學(xué)信息感知技術(shù)協(xié)同創(chuàng)新中心 西安 710071)

        該文研究了訓(xùn)練樣本不足的情況下利用卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN)對合成孔徑雷達(SAR)圖像實現(xiàn)目標(biāo)檢測的問題。利用已有的完備數(shù)據(jù)集來輔助場景復(fù)雜且訓(xùn)練樣本不足的數(shù)據(jù)集進行檢測。首先用已有的完備數(shù)據(jù)集訓(xùn)練得到CNN分類模型,用于對候選區(qū)域提取網(wǎng)絡(luò)和目標(biāo)檢測網(wǎng)絡(luò)做參數(shù)初始化;然后利用完備數(shù)據(jù)集對訓(xùn)練數(shù)據(jù)集做擴充;最后通過“四步訓(xùn)練法”得到候選區(qū)域提取模型和目標(biāo)檢測模型。實測數(shù)據(jù)的實驗結(jié)果證明,所提方法在SAR圖像目標(biāo)檢測中可以獲得較好的檢測效果。

        合成孔徑雷達;目標(biāo)檢測;卷積神經(jīng)網(wǎng)絡(luò);訓(xùn)練數(shù)據(jù)擴充

        1 引言

        隨著合成孔徑雷達(SAR)系統(tǒng)應(yīng)用越來越廣泛,需要處理的SAR圖像數(shù)量越來越多,對SAR圖像處理技術(shù)提出了更高的要求,從SAR圖像中快速并準(zhǔn)確地檢測目標(biāo),是目前的一個技術(shù)研究熱點?,F(xiàn)有的SAR圖像目標(biāo)檢測方法中,雙參數(shù)恒虛警(Constant False Alarm Rate, CFAR)檢測算法應(yīng)用最為廣泛。該方法要求SAR圖像中目標(biāo)與背景雜波具有較高的對比度,并且假設(shè)背景雜波的統(tǒng)計分布模型是高斯分布,同時需要根據(jù)目標(biāo)大小設(shè)置參考窗尺寸,在場景簡單的情況下,檢測效果較好,但是在復(fù)雜場景下檢測性能較差。

        卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN)是人工神經(jīng)網(wǎng)絡(luò)的一種,它的權(quán)值共享網(wǎng)絡(luò)結(jié)構(gòu)降低了網(wǎng)絡(luò)模型的復(fù)雜度,減少了權(quán)值的數(shù)量,該優(yōu)點在網(wǎng)絡(luò)的輸入是多維圖像時表現(xiàn)得尤為明顯。在CNN中,圖像作為層級結(jié)構(gòu)最底層的輸入,信息再依次傳輸?shù)讲煌膶?,通過這種多層的學(xué)習(xí)可以自動發(fā)現(xiàn)數(shù)據(jù)中的復(fù)雜結(jié)構(gòu),避免了傳統(tǒng)算法中復(fù)雜的特征提取過程。

        2 算法介紹

        本節(jié)對算法做具體介紹,2.1節(jié)介紹預(yù)訓(xùn)練CNN分類模型,2.2節(jié)介紹數(shù)據(jù)擴充方法,2.3節(jié)介紹候選區(qū)域提取網(wǎng)絡(luò)和目標(biāo)檢測網(wǎng)絡(luò)。

        2.1 預(yù)訓(xùn)練CNN分類模型

        CNN是一種多層網(wǎng)絡(luò)結(jié)構(gòu),包含大量的待學(xué)習(xí)參數(shù)。這些待學(xué)習(xí)參數(shù)通常采用隨機的初始化方式,這是一個很低的訓(xùn)練起點,因此需要大量的標(biāo)記訓(xùn)練樣本來使該網(wǎng)絡(luò)很好地收斂,但是,獲得如此多的標(biāo)記訓(xùn)練樣本在實際應(yīng)用中是非常困難的。而使用訓(xùn)練好的CNN模型對一個新網(wǎng)絡(luò)中的待學(xué)習(xí)參數(shù)初始化,是一個相對較高的訓(xùn)練起點,可以在訓(xùn)練樣本比較少的情況下,使得新網(wǎng)絡(luò)更快地收斂[9,12]。

        本文的主要目的是訓(xùn)練得到一個基于CNN的目標(biāo)檢測模型,但是只有少量訓(xùn)練樣本,所以,可以先利用與目標(biāo)檢測任務(wù)無關(guān)的完備數(shù)據(jù)集訓(xùn)練得到分類模型,并用該模型來對目標(biāo)檢測模型做參數(shù)初始化,然后完成目標(biāo)檢測模型的訓(xùn)練。

        本文設(shè)計的分類模型結(jié)構(gòu)如圖1所示,包括3個卷積層,卷積核大小依次為11, 7, 3,卷積核滑動步長依次為2, 1, 1,卷積核個數(shù)依次為64, 128, 256。在前兩個卷積層后緊接著最大池化(max pooling)層,池化窗大小為3,池化窗滑動步長為2。在最后一個卷積層后跟著兩個全連接層,第1個全連接層的維度為256,第2個全連接層維度為3,最后是Softmax層。所有的中間層都使用修正線性單元(Rectified Linear Unit, ReLU)做為激活函數(shù),并且在ReLU層后執(zhí)行批歸一化(Batch Normalization, BN)[15],網(wǎng)絡(luò)的損失函數(shù)為負對數(shù)似然損失函數(shù)(log-loss)。

        圖1 分類模型

        2.2 數(shù)據(jù)擴充

        使用2.1節(jié)中的分類模型對檢測模型做參數(shù)初始化,可以使得CNN網(wǎng)絡(luò)在少量訓(xùn)練樣本的情況下更快地收斂,但是該模型的檢測效果相對較差,本文提出一種有效的數(shù)據(jù)擴充方法,與2.1節(jié)中的預(yù)訓(xùn)練方法同時使用,可以訓(xùn)練得到一個更好的目標(biāo)檢測模型。

        通常需要執(zhí)行目標(biāo)檢測的SAR圖像場景很復(fù)雜,包含多種干擾信息,如樹木,草坪,建筑物等等,并且在一幅SAR圖像中會包含多種姿態(tài)的感興趣目標(biāo),如在本文后續(xù)實驗中我們的感興趣目標(biāo)是多種姿態(tài)的車輛。想要在這樣場景復(fù)雜的圖像中,利用目標(biāo)檢測模型準(zhǔn)確地檢測到目標(biāo),對于訓(xùn)練數(shù)據(jù)的質(zhì)量以及數(shù)量要求較高。現(xiàn)有的訓(xùn)練圖像很少并且圖像質(zhì)量較差,只使用這些圖像訓(xùn)練得到的目標(biāo)檢測模型很難達到檢測任務(wù)的要求。

        一些用于分類的數(shù)據(jù)集,其圖像場景簡單、雜波單一,且每幅圖像只有單個目標(biāo),可以將這些圖像處理后加入原有的訓(xùn)練集中,來共同訓(xùn)練目標(biāo)檢測模型。

        擴充數(shù)據(jù)時需要注意的問題有:(1)兩種數(shù)據(jù)集中目標(biāo)尺寸存在差別,需要將新加入的圖像做尺寸變換,使其目標(biāo)尺寸與原有訓(xùn)練集中目標(biāo)尺寸基本一致。新加入的訓(xùn)練樣本如果不做尺寸變換,會對原訓(xùn)練集中提供的目標(biāo)尺寸信息帶來一定干擾,使得模型訓(xùn)練出現(xiàn)偏差,影響檢測精度;(2)在進行數(shù)據(jù)擴充時,需要控制擴充數(shù)據(jù)的數(shù)量,使得模型訓(xùn)練可以從擴充數(shù)據(jù)中獲得需要的信息,但是又不會因為擴充數(shù)據(jù)量太大,導(dǎo)致模型更加偏向于新加入的擴充數(shù)據(jù),使得原有訓(xùn)練集中的信息被弱化。一般控制擴充訓(xùn)練樣本數(shù)為原訓(xùn)練數(shù)據(jù)的2倍左右。

        2.3 候選區(qū)域提取網(wǎng)絡(luò)和目標(biāo)檢測網(wǎng)絡(luò)

        基于CNN的目標(biāo)檢測算法主要包括兩個步驟:(1)從輸入圖像中提取候選區(qū)域;(2)使用目標(biāo)檢測網(wǎng)絡(luò)對候選區(qū)域進行分類和邊框回歸,得到最終的檢測結(jié)果。本文中,候選區(qū)域提取使用區(qū)域建議網(wǎng)絡(luò)(Region Proposal Network, RPN)[14],目標(biāo)檢測使用Fast R-CNN檢測器[13]。下面,分別介紹RPN和Fast R-CNN檢測器的具體實現(xiàn)。

        2.3.1 RPN RPN的核心思想是利用CNN從輸入圖像中直接提取候選區(qū)域,并且給每個候選區(qū)域一個判斷為目標(biāo)的得分?;诜诸惸P偷幕究蚣軄碓O(shè)計RPN[14],特征提取層與分類模型的特征提取層保持一致,在最后一個卷積層輸出的卷積特征圖上滑動小網(wǎng)絡(luò),小網(wǎng)絡(luò)全連接到卷積特征圖的區(qū)域上,然后將該區(qū)域映射為一個低維的特征向量,再將這個特征向量作為兩個同級卷積層(邊框回歸層和分類層)的輸入。由于小網(wǎng)絡(luò)是滑動窗口的形式,且滑動窗口的參數(shù)對于卷積特征圖的所有位置都是相同的,這種結(jié)構(gòu)可以通過卷積核尺寸為的卷積層實現(xiàn),邊框回歸層和分類層使用卷積核尺寸為的卷積層實現(xiàn),ReLU應(yīng)用于卷積層的輸出,模型結(jié)構(gòu)如圖2所示。

        圖2 RPN網(wǎng)絡(luò)

        (1)RPN模型訓(xùn)練: 為了訓(xùn)練RPN,需要給每個參考區(qū)域分配一個標(biāo)簽(是/不是目標(biāo)),分配正標(biāo)簽給兩類參考區(qū)域:(a)與某個真值(ground truth)區(qū)域有最高的交集并集之比(Intersection over Union, IoU)的參考區(qū)域;(b)與任意真值ground truth區(qū)域有大于0.7的IoU交疊的參考區(qū)域;分配負標(biāo)簽給與所有真值區(qū)域的IoU交疊都低于0.3的參考區(qū)域,非正非負的參考區(qū)域不參與RPN模型訓(xùn)練。

        RPN模型使用多任務(wù)損失函數(shù),包括分類損失函數(shù)和邊框回歸損失函數(shù)兩部分,定義為

        (4)

        (2)RPN模型訓(xùn)練細節(jié): 由圖2可知,RPN是一個全卷積網(wǎng)絡(luò)(Fully Convolutional Network, FCN)[16],可以通過反向傳播算法和隨機梯度下降法端到端訓(xùn)練。訓(xùn)練階段,隨機地抽取256個參考區(qū)域,構(gòu)成一個mini-batch作為輸入,其中采樣的正負參考區(qū)域的比例是1:1,如果正參考區(qū)域個數(shù)小于128,就用負參考區(qū)域填補這個mini-batch。

        網(wǎng)絡(luò)中所有新層的參數(shù)都從均值為0標(biāo)準(zhǔn)差為0.01的高斯分布中隨機采樣得到,特征提取層的參數(shù)利用分類模型中特征提取層的參數(shù)來初始化。訓(xùn)練模型的初始學(xué)習(xí)率為0.001,每10000次迭代把當(dāng)前的學(xué)習(xí)率除以10,最大迭代次數(shù)為40000。

        通過RPN提取到的候選區(qū)域之間會有大量的重復(fù),基于候選區(qū)域的分類得分,對其采用非極大值抑制(Non-Maximum Suppression, NMS)去除重復(fù)的候選區(qū)域。我們在執(zhí)行過NMS之后的候選區(qū)域集合中選取得分最高的前個候選區(qū)域作為Fast R-CNN檢測器的輸入。

        2.3.2 Fast R-CNN檢測器: 基于2.1節(jié)中的分類模型設(shè)計Fast R-CNN檢測器[13],包括3個步驟:(1)在最后一個卷積層輸出的卷積特征圖后加入RoI 池化層,設(shè)置參數(shù)‘H’和‘W’與分類模型中第1個全連接層維度兼容;(2)將最后一個全連接層替換為類的分類層,并增加一個邊框回歸層與分類層并聯(lián);(3)修改輸入數(shù)據(jù),輸入數(shù)據(jù)包括兩個部分,第1部分是個圖像,第2部分是由這個圖像通過RPN生成的候選區(qū)域集合。Fast R-CNN檢測器模型如圖3所示。

        把圖像以及該圖像通過RPN得到的候選區(qū)域輸入到Fast R-CNN檢測器中,首先得到該圖像的在最后一個卷積層的卷積特征圖,然后求得每個候選區(qū)域在該卷積特征圖上的映射區(qū)域,并用RoI 池化層將這些映射區(qū)域統(tǒng)一到相同的大小,映射區(qū)域經(jīng)過全連接層得到特征向量,特征向量分別經(jīng)由兩個并列的層(分類層和邊框回歸層),得到兩個輸出向量:第1個是分類結(jié)果,對每個候選區(qū)域輸出離散概率分布,代表總的類別個數(shù);第2個是每類目標(biāo)的參數(shù)化坐標(biāo),同式(4)中說明。

        為了訓(xùn)練Fast R-CNN檢測器,需要給候選區(qū)域添加類別標(biāo)簽,指定與真值交疊不少于0.5的候選區(qū)域為該類的正樣本,剩下的作為背景,模型損失函數(shù)也為多任務(wù)損失函數(shù),與式(1)一致。

        網(wǎng)絡(luò)中特征提取層的參數(shù)利用分類模型中特征提取層的參數(shù)來初始化,訓(xùn)練模型的初始學(xué)習(xí)率為0.001,每10000次迭代把當(dāng)前的學(xué)習(xí)率除以10,最大迭代次數(shù)為60000。

        圖3 Fast R-CNN檢測器

        2.3.3 RPN與Fast R-CNN檢測器共享特征提取層

        到目前為止,RPN和Fast R-CNN檢測器都是獨立訓(xùn)練的,根據(jù)各自任務(wù)來調(diào)整特征提取層參數(shù),可以通過交替訓(xùn)練來使兩個網(wǎng)絡(luò)共享特征提取層,具體步驟如下:

        第1步 使用預(yù)訓(xùn)練的分類模型對RPN做參數(shù)初始化,微調(diào)網(wǎng)絡(luò)參數(shù),得到候選區(qū)域提取模型。

        第2步 利用第1步中的訓(xùn)練得到RPN對訓(xùn)練數(shù)據(jù)集提取候選區(qū)域,作為Fast R-CNN檢測器的輸入,使用分類模型對Fast R-CNN檢測器做參數(shù)初始化,微調(diào)網(wǎng)絡(luò)參數(shù),得到Fast R-CNN檢測器。

        第3步 用第2步得到的Fast R-CNN檢測器對RPN做參數(shù)初始化,并且固定特征提取層參數(shù)不變,只微調(diào)小網(wǎng)絡(luò)中卷積層參數(shù),得到一個更優(yōu)的候選區(qū)域提取模型。

        第4步 利用第3步中訓(xùn)練得到RPN對訓(xùn)練數(shù)據(jù)集提取候選區(qū)域,作為Fast R-CNN檢測器的輸入,并且固定特征提取層參數(shù)固定,微調(diào)Fast R-CNN檢測器中全連接層的參數(shù)。這樣,兩個網(wǎng)絡(luò)共享特征提取層,構(gòu)成一個統(tǒng)一的檢測網(wǎng)絡(luò)。

        3 實驗結(jié)果與分析

        3.1 數(shù)據(jù)及實驗設(shè)置介紹

        為了驗證本文方法的有效性,在實驗中使用了MSTAR數(shù)據(jù)集和MiniSAR數(shù)據(jù)集。

        由于MiniSAR訓(xùn)練集與MSTAR數(shù)據(jù)集中的圖像尺寸和目標(biāo)尺寸都不同。若直接將MSTAR圖像拉伸至MiniSAR圖像的尺寸,兩組圖像的目標(biāo)尺寸仍然存在差異,不符合2.2節(jié)中對擴充數(shù)據(jù)的要求。因此,我們首先在MSTAR圖像周圍填充像素,改變圖像的尺寸;然后再將其拉伸,使得擴充數(shù)據(jù)集中目標(biāo)尺寸與MiniSAR訓(xùn)練集中目標(biāo)尺寸基本一致,圖5給出了兩個擴充圖像的示例。

        3.2 擴充數(shù)據(jù)對檢測性能的影響

        本節(jié)通過多組實驗來驗證擴充數(shù)據(jù)對檢測性能的影響,為了比較的公平性,所有的檢測模型訓(xùn)練都選用2.1節(jié)中的分類模型作為訓(xùn)練起點。檢測階段,固定NMS值為0.3,將得分值大于0.7的切片判定為目標(biāo),采用滑窗的方式對測試圖像逐塊進行檢測。設(shè)置5組實驗來驗證本文提出的數(shù)據(jù)擴充方法對檢測性能的影響,具體如下:

        實驗1 只使用MiniSAR訓(xùn)練集作為訓(xùn)練樣本,訓(xùn)練樣本個數(shù)為40;

        實驗2 使用MSTAR數(shù)據(jù)集做擴充,MiniSAR與MSTAR的數(shù)據(jù)比例為1:1;

        實驗3 使用MSTAR數(shù)據(jù)集做擴充,MiniSAR與MSTAR的數(shù)據(jù)比例為1:2.5;

        實驗4 使用MSTAR數(shù)據(jù)集做擴充,MiniSAR與MSTAR的數(shù)據(jù)比例為1:4;

        實驗5 使用MSTAR數(shù)據(jù)集做擴充,MiniSAR與MSTAR的數(shù)據(jù)比例為1:6;

        其中,測試圖像如圖6所示,圖中的矩形框是人工標(biāo)注的真值。

        從表1中5組實驗的對比結(jié)果可以看出,在未加入擴充數(shù)據(jù)時,訓(xùn)練樣本中某些姿態(tài)的目標(biāo)有缺失,因此會有較多的目標(biāo)漏檢。加入擴充數(shù)據(jù)后,模型對于目標(biāo)的識別性能會增強,隨著擴充數(shù)據(jù)的增多,檢測到的目標(biāo)個數(shù)顯著增加,但是,由于擴充數(shù)據(jù)引入的雜波信息,會帶來一定數(shù)量的虛警,在MiniSAR與MSTAR的數(shù)據(jù)比例為1:2.5時,檢測性能到達最優(yōu)。當(dāng)擴充數(shù)據(jù)繼續(xù)增加,虛警數(shù)量快速增加,使得模型的檢測性能開始下降。

        所以,添加適當(dāng)比例的擴充數(shù)據(jù)可以顯著提高檢測性能。

        針對表1中的檢測指標(biāo)做如下說明:

        (7)

        由于篇幅限制,只給出實驗3的檢測結(jié)果。如圖7所示。

        圖4 MiniSAR訓(xùn)練集?????圖5 MSTAR擴充訓(xùn)練集?????圖6 測試圖像

        表1 擴充數(shù)據(jù)對檢測性能的影響

        測試圖像及指標(biāo)圖A圖B精度召回率F1-Score 目標(biāo)個數(shù)(NP)5264/// 實驗1檢測到的目標(biāo)個數(shù)(TP)43450.80730.75860.7822 虛警目標(biāo)個數(shù)(FP)1011 實驗2檢測到的目標(biāo)個數(shù)(TP)44520.81360.82760.8157 虛警目標(biāo)個數(shù)(FP)814 實驗3檢測到的目標(biāo)個數(shù)(TP)46550.80160.87070.8348 虛警目標(biāo)個數(shù)(FP)817 實驗4檢測到的目標(biāo)個數(shù)(TP)48560.74290.89660.8126 虛警目標(biāo)個數(shù)(FP)1620 實驗5檢測到的目標(biāo)個數(shù)(TP)45560.71130.87070.7830 虛警目標(biāo)個數(shù)(FP)1823

        3.3 與雙參數(shù)CFAR的檢測性能比較

        本節(jié)通過與雙參數(shù)CFAR做比較來驗證算法的有效性。其中,雙參數(shù)CFAR參數(shù)設(shè)置為:保護窗長為26,背景窗長為28,虛警概率為;

        表2給出了兩種方法的實驗結(jié)果,雙參數(shù)CFAR檢測算法性能相對較差。從圖8的檢測結(jié)果可以看出,雙參數(shù)CFAR檢測結(jié)果中包含虛警數(shù)目更多,并且對于相鄰目標(biāo)的區(qū)分性較差,不能對每個目標(biāo)得到準(zhǔn)確的目標(biāo)檢測框。主要有兩個方面的原因:第一,雙參數(shù)CFAR檢測算法僅僅利用了像素的強度信息,而沒有利用目標(biāo)的結(jié)構(gòu)信息等。單純的像素強度能提供的信息是比較有限的,而且會對噪聲比較敏感,造成了很多的虛警。第二,在進行聚類時,聚類算法將相鄰目標(biāo)上的區(qū)域聚為一類,使得對鄰近目標(biāo)的區(qū)分表現(xiàn)較差。

        表2 與雙參數(shù)CFAR檢測性能對比

        測試圖像及指標(biāo)圖A圖B精度召回率F1-Score 目標(biāo)個數(shù)(NP)6464/// 本文方法檢測到的目標(biāo)個數(shù)(TP)46550.80160.87070.8348 虛警目標(biāo)個數(shù)(FP)817 CFAR檢測到的目標(biāo)個數(shù)(TP)45550.63690.86210.7326 虛警目標(biāo)個數(shù)(FP)2532

        本文方法的檢測性能優(yōu)于傳統(tǒng)方法,原因主要在于本方法不僅僅利用了像素強度信息,還利用了目標(biāo)的結(jié)構(gòu)信息,可以在很大程度上減少虛警目標(biāo)數(shù)。在檢測過程中,RPN可以得到高質(zhì)量的候選區(qū)域,通過邊框回歸層可以對檢測得到的候選區(qū)域進行尺寸調(diào)整,可以對鄰近目標(biāo)有更精準(zhǔn)的定位。

        對兩種算法的計算量說明如下:

        根據(jù)本文設(shè)置的實驗參數(shù)分析可知,本文方法的運算量遠大于雙參數(shù)CFAR。我們對雙參數(shù)CFAR利用Matlab編程,對圖6中大小的測試圖像的平均運算耗時為13.88 s。為了提高處理速度,對本文方法使用C++編程,在CPU模式下執(zhí)行,根據(jù)實驗測定,平均運算耗時為23.63 s。為了進一步提高處理速度,我們使用CUDA編程,在GPU模式下并行處理,平均運算耗時減少至4.36 s??梢姴⑿羞\算大幅提升了運算效率,使其處理速度可以接受。

        實驗使用的硬件平臺,CPU: Intel Xeon E5- 2620 v3 @2.4 GHz, GPU: GTX TITAN X。

        4 結(jié)論

        本文研究了訓(xùn)練樣本不足的情況下,利用已有的完備數(shù)據(jù)集輔助檢測模型的訓(xùn)練,借助CNN模型的強大特征提取能力,充分利用訓(xùn)練數(shù)據(jù)集提供的多種特征信息,使得基于CNN的檢測模型可以對目標(biāo)有更強的檢測識別性能?;趯崪y數(shù)據(jù)的實驗結(jié)果證明了本文方法在SAR圖像目標(biāo)檢測中可以獲得較好的檢測效果。

        參考文獻

        [1] XING X W, CHEN Z L, ZOU H X,A fast algorithm based on two-stage CFAR for detecting ships in SAR images [C]. The 2nd Asian-Pacific Conference on Synthetic Aperture Radar, Xi’an, China, 2009: 506-509.

        [2] LENG X, JI K, YANG K,A bilateral CFAR algorithm for ship detection in SAR images[J]., 2015, 12(7): 1536-1540. doi: 10.1109 /LGRS.2015.2412174.

        [3] JI Y, ZHANG J, MENG J,A new CFAR ship target detection method in SAR imagery[J]., 2010, 29(1): 12-16.

        [4] ELDHUSET K. An automatic ship and ship wake detection system for spaceborne SAR images in coastal regions[J]., 1996, 34(4): 1010-1019.doi: 10.1109/36.508418.

        [5] KRIZHEVSKY A, SUTSKEVER I, and HINTON G E. Imagenet classification with deep convolutional neural networks[C]. Advances in Neural Information Processing Systems, Lake Tahoe, Nevada, USA, 2012: 1097-1105.

        [6] SZEGEDY C, LIU W, JIA Y,Going deeper with convolutions[C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, Boston, Massachusetts, USA, 2015: 1-9.

        [7] ZHANG X, ZOU J, MING X,Efficient and accurate approximations of nonlinear convolutional networks[C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Boston, Massachusetts, USA, 2015: 1984-1992.

        [8] HE K, ZHANG X, REN S,Deep residual learning for image recognition[C]. Computer Vision and Pattern Recognition, Las Vegas, Nevada, USA, 2016: 770-778.

        [9] ZEILER M D and FERGUS R. Visualizing and understanding convolutional networks[C]. European Conference on Computer Vision. Springer International Publishing, Zurich, Swizterland, 2014: 818-833.

        [10] GOODFELLOW I J, WARDE Farley D, MIRZA M,Maxout networks[J]., 2013, 28(3): 1319-1327.

        [11] HE K, ZHANG X, REN S,Delving deep into rectifiers: Surpassing human-level performance on imagenet classification[C]. International Conference on Computer Vision, Santiago, Chile, 2015: 1026-1034.

        [12] GIRSHICK R, DONAHUE J, DARRELL T,Rich feature hierarchies for accurate object detection and semantic segmentation[C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, Columbus, Ohio, USA, 2014: 580-587.

        [13] GIRSHICK R. Fast R-CNN[C]. Proceedings of the IEEE International Conference on Computer Vision, Santiago, Chile, 2015: 1440-1448.

        [14] REN S, HE K, GIRSHICK R,Faster R-CNN: Towards real-time object detection with region proposal networks[C]. Advances in Neural Information Processing Systems, Montréal, Canada, 2015: 91-99.

        [15] IOFFE S and SZEGEDY C. Batch normalization: accelerating deep network training by reducing internal covariate shift[C]. International Conference on Machine Learning, Lille, France,2015: 448-456.

        [16] LONG J, SHELHAMER E, and DARRELL T. Fully convolutional networks for semantic segmentation[C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, Boston, Massachusetts, USA, 2015: 3431-3440.

        [17] GAO G, LIU L, ZHAO L,An adaptive and fast CFAR algorithm based on automatic censoring for target detection in high-resolution SAR images[J]., 2009, 47(6): 1685-1697. doi: 10.1109/TGRS.2008.2006504.

        杜 蘭: 女,1980年生,教授,博士生導(dǎo)師,研究方向為統(tǒng)計信號處理、雷達信號處理、機器學(xué)習(xí)及其在雷達目標(biāo)檢測與識別方面的應(yīng)用.

        劉 彬: 男,1992年生,碩士生,研究方向為雷達目標(biāo)識別.

        王 燕: 女,1990年生,博士生,研究方向為SAR圖像變化檢測與目標(biāo)鑒別.

        劉宏偉: 男,1971年生,教授,博士生導(dǎo)師,研究方向為雷達信號處理、MIMO雷達、雷達目標(biāo)識別、自適應(yīng)信號處理、認知雷達等.

        代 慧: 女,1990年生,碩士生,研究方向為雷達目標(biāo)識別.

        Target Detection Method Based on Convolutional Neural Network for SAR Image

        DU Lan LIU Bin WANG Yan LIU Hongwei DAI Hui

        (,,’710071,) (,’710071,)

        This paper studies the issue of SAR target detection with CNN when the training samples are insufficient. The existing complete dataset is employed to assist accomplishing target detection task, where the training samples are not enough and the scene is complicated. Firstly, the existing complete dataset with image-level annotations is used to pre-train a CNN classification model, which is utilized to initialize the region proposal network and detection network. Then, the training dataset is enlarged with the existing complete dataset. Finally, the region proposal model and detection model are obtained through the pragmatic “4-step training algorithm” with the augmented training dataset. The experimental results on the measured data demonstrate that the proposed method can improve the detection performance compared with the traditional detection methods.

        SAR; Target detection;Convolutional Neural Network (CNN); Training data augmentation

        TN957.51

        A

        1009-5896(2016)12-3018-08

        10.11999/JEIT161032

        2016-10-08;改回日期:2016-11-24;

        2016-12-14

        杜蘭 dulan@mail.xidian.edu.cn

        國家自然科學(xué)基金(61271024, 61322103, 61525105),高等學(xué)校博士學(xué)科點專項科研基金博導(dǎo)類基金(20130203110013),陜西省自然科學(xué)基金(2015JZ016)

        The National Natural Science Foundation of China (61271024, 61322103, 61525105), The Foundation for Doctoral Supervisor of China (20130203110013), The Natural Science Foundation of Shaanxi Province (2015JZ016)

        猜你喜歡
        個數(shù)卷積區(qū)域
        基于3D-Winograd的快速卷積算法設(shè)計及FPGA實現(xiàn)
        怎樣數(shù)出小正方體的個數(shù)
        等腰三角形個數(shù)探索
        怎樣數(shù)出小木塊的個數(shù)
        從濾波器理解卷積
        電子制作(2019年11期)2019-07-04 00:34:38
        怎樣數(shù)出小正方體的個數(shù)
        基于傅里葉域卷積表示的目標(biāo)跟蹤算法
        關(guān)于四色猜想
        分區(qū)域
        基于嚴重區(qū)域的多PCC點暫降頻次估計
        電測與儀表(2015年5期)2015-04-09 11:30:52
        精品人妻久久一区二区三区| 无码一区东京热| 一区二区三区四区在线观看视频| 日本视频一区二区三区在线| 久久人妻av一区二区软件| 国产av人人夜夜澡人人爽| 国产精品每日更新在线观看 | 国产特级毛片aaaaaa视频| 美丽人妻被按摩中出中文字幕| 亚洲精品国产不卡在线观看| 麻豆成人久久精品一区| 夜夜躁狠狠躁日日躁视频| 最近中文字幕在线mv视频在线| 亚洲AⅤ樱花无码| 少妇被粗大猛进进出出男女片 | 国产丝袜在线精品丝袜不卡| 美女被插到高潮嗷嗷叫| 青青草狠吊色在线视频| 天码人妻一区二区三区| 动漫在线无码一区| 青青草精品在线免费观看| 欧美嫩交一区二区三区| 无码少妇一区二区三区| 成年视频网站在线观看777| 午夜免费观看国产视频| 国产又色又爽又黄的| 91福利视频免费| av免费在线观看网站大全| 色综合天天综合欧美综合| 久久久久亚洲av无码专区导航| 美女窝人体色www网站| 三级日韩视频在线观看| 玩50岁四川熟女大白屁股直播| 久久人妻AV无码一区二区| 久久久国产精品首页免费| 成人麻豆日韩在无码视频| 少妇太爽了在线观看| 国内精品人人妻少妇视频| 国产白浆一区二区三区性色| 国产午夜福利在线播放| 狼色在线精品影视免费播放|