王思雨高 鑫孫 皓鄭歆慰孫 顯
①(中國科學(xué)院電子學(xué)研究所 北京 100190)
②(中國科學(xué)院大學(xué) 北京 100049)
基于卷積神經(jīng)網(wǎng)絡(luò)的高分辨率SAR圖像飛機(jī)目標(biāo)檢測方法
王思雨①②高 鑫*①孫 皓①鄭歆慰①孫 顯①
①(中國科學(xué)院電子學(xué)研究所 北京 100190)
②(中國科學(xué)院大學(xué) 北京 100049)
傳統(tǒng)的合成孔徑雷達(dá)(Synthetic Aperture Radar,SAR)圖像飛機(jī)檢測方法一般利用像素對比度信息進(jìn)行圖像分割,從而提取待定目標(biāo)。然而這些方法只考慮了像素亮度信息而忽視了目標(biāo)的結(jié)構(gòu)特征,進(jìn)而導(dǎo)致目標(biāo)的不精確定位和大量虛警的產(chǎn)生?;谏鲜鰡栴},該文構(gòu)建了一個(gè)全新的SAR圖像飛機(jī)目標(biāo)檢測算法框架。首先,針對大場景SAR圖像應(yīng)用需求,提出了改進(jìn)的顯著性預(yù)檢測方法,從而實(shí)現(xiàn)SAR圖像候選飛機(jī)目標(biāo)多尺度快速粗定位;然后,設(shè)計(jì)并調(diào)優(yōu)了含4個(gè)權(quán)重層的卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN),實(shí)現(xiàn)對候選目標(biāo)的精確檢測和鑒別;最后,因?yàn)镾AR數(shù)據(jù)量有限、易導(dǎo)致過擬合,提出4種適用于SAR圖像的數(shù)據(jù)增強(qiáng)方法,具體包括平移、斑點(diǎn)加噪、對比度增強(qiáng)和小角度旋轉(zhuǎn)。實(shí)驗(yàn)證實(shí)該飛機(jī)檢測算法在高分辨率TerraSAR-X數(shù)據(jù)集上效果顯著,與傳統(tǒng)的SAR飛機(jī)檢測方法相比,該方法檢測效率更高,泛化能力更強(qiáng)。
合成孔徑雷達(dá)(SAR);飛機(jī)檢測;卷積神經(jīng)網(wǎng)絡(luò)(CNN);數(shù)據(jù)增強(qiáng);視覺顯著性
合成孔徑雷達(dá)(Synthetic Aperture Radar,SAR)可以不受氣候、天氣、光照等條件影響,獲得高分辨率雷達(dá)圖像。與光學(xué)傳感器相比,SAR在偵察、監(jiān)視和跟蹤等軍事領(lǐng)域更具優(yōu)勢。然而SAR圖像成像機(jī)理較為復(fù)雜,目標(biāo)由較少的散射點(diǎn)組成而沒有清晰輪廓,圖像存在斑點(diǎn)噪聲,這使得SAR飛機(jī)檢測困難重重。
傳統(tǒng)的SAR圖像目標(biāo)檢測方法可以分為3類[1]。第1種基于單特征的方法通常利用雷達(dá)散射截面積(Radar Cross Section,RCS)信息挑選對比度較亮的部分作為候選目標(biāo)。其中大多數(shù)檢測方法使用恒虛警率(Constant False Alarm Rate,CFAR)算法做圖像分割和候選目標(biāo)定位。CFAR包含多種衍生算法,包括CA-CFAR (Cell-average CFAR)[2],SO-CFAR (Smallest of CFAR),GO-CFAR (Greatest of CFAR)[3],OS-CFAR (Order-statistic CFAR)[4]和VI-CFAR(Variability Index CFAR)[5]。CFAR具有恒虛警率和自適應(yīng)閾值的特性[6–8]。然而CFAR檢測器只考慮像素對比度而忽略了目標(biāo)的結(jié)構(gòu)信息,從而導(dǎo)致了目標(biāo)的不精確定位。第2種是基于多特征的方法。多種特征如幾何結(jié)構(gòu)[9],擴(kuò)展分形(Extended Fractal,EF)[10],小波系數(shù)[11]等可以融合起來檢測目標(biāo)。文獻(xiàn)[12]中作者將梯度紋理顯著圖與CFAR相結(jié)合來檢測停機(jī)坪上的飛機(jī)目標(biāo)。綜合而言,設(shè)計(jì)特征是復(fù)雜且耗時(shí)的,并且同種特征組合不一定適用于所有的場景。第3種是基于先驗(yàn)的方法,先驗(yàn)知識如成像參數(shù)、經(jīng)緯度信息等需要協(xié)同加入檢測流程[13]。這類方法較復(fù)雜且實(shí)際中應(yīng)用較少。
隨著人工智能的發(fā)展,機(jī)器學(xué)習(xí)被引入了SAR目標(biāo)檢測領(lǐng)域。支持向量機(jī)(Support Vector Machine,SVM)[14]和AdaBoost(Adaptive Boosting)[15]等常用方法在MSTAR(Moving and Stationary Target Acquisition and Recognition)[16]數(shù)據(jù)集上表現(xiàn)良好。雖然這些方法比傳統(tǒng)方法性能有所提升,但它們僅適用于小樣本情況,設(shè)計(jì)具有高泛化能力的特征難度較高。卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)[17]可以自動學(xué)習(xí)結(jié)構(gòu)化特征并取得較好的性能。文獻(xiàn)[18,19]中作者使用CNN對MSTAR數(shù)據(jù)集進(jìn)行分類并取得較好的效果。
本文構(gòu)建了一個(gè)完整的SAR圖像飛機(jī)目標(biāo)檢測框架??傮w流程如圖1所示,本文的主要工作如下。首先,提出了一種改進(jìn)的顯著性預(yù)檢測方法,實(shí)現(xiàn)在大場景中多尺度粗略快速地搜索候選目標(biāo)。與滑動窗方法相比,該方法有效提升了檢測效率并實(shí)現(xiàn)了多尺度定位。然后,設(shè)計(jì)并調(diào)校了適用于SAR圖像的CNN模型,實(shí)現(xiàn)對預(yù)檢測候選目標(biāo)的精確檢測,實(shí)驗(yàn)證實(shí)本文的CNN檢測精度高于其他常用的檢測方法。此外,為了應(yīng)對SAR數(shù)據(jù)量有限的問題,提出了4種適用于SAR圖像的數(shù)據(jù)增強(qiáng)方法,包括平移、加噪、對比度增強(qiáng)和小角度旋轉(zhuǎn)。實(shí)驗(yàn)結(jié)果表明,該檢測框架在TerraSAR-X數(shù)據(jù)集上有效減小了過擬合現(xiàn)象的影響,顯著提升了飛機(jī)目標(biāo)的檢測率。
在預(yù)檢測階段,滑動窗方法通常用于獲取可能的候選目標(biāo)。該方法機(jī)械地在待檢測圖像上,按預(yù)設(shè)步長和窗口大小,從左向右、從上向下滑動并裁切候選樣本。然而,滑動窗法計(jì)算量很大,在大場景遙感圖像中預(yù)檢測效率較低。
為了解決上述問題,分別在訓(xùn)練和測試階段前引入了一種基于顯著性的預(yù)檢測方法[20],以便快速粗略地定位候選目標(biāo)。文獻(xiàn)[20]中作者首先計(jì)算每個(gè)像素的顯著值并得到整幅圖像的顯著圖,飛機(jī)切片的顯著圖如圖2所示。相同大小的初始方形窗口被不重不漏地覆蓋在顯著圖上。然后,迭代計(jì)算每個(gè)窗口的幾何中心pc并將窗口中心移動到新的直到pc和之 間的距離小于預(yù)設(shè)值δ。迭代結(jié)束后,所有飛機(jī)目標(biāo)都被窗口框定,圖中還存在一些不包含真實(shí)目標(biāo)的虛警。
該方法的缺點(diǎn)是用固定尺寸的窗口檢測不同尺寸的飛機(jī)??紤]到停機(jī)坪區(qū)域停放不同尺寸飛機(jī)的情況,本文在原有算法的基礎(chǔ)上加入多尺度預(yù)檢測模塊。首先不同大小窗口的單尺度預(yù)檢測分別進(jìn)行,然后是第1次窗口融合。融合采用非極大值抑制算法(Non-Maximum Suppression,NMS),將包含同一目標(biāo)的不同窗口融合為一個(gè)。當(dāng)所有單尺度預(yù)檢測結(jié)束后,將進(jìn)行第2次窗口融合。
改進(jìn)的顯著性預(yù)檢測方法的簡要流程圖如圖3所示。所有選中的切片將被保存為候選目標(biāo)圖像以備后續(xù)CNN的精確檢測。與滑動窗方法相比,該方法在大尺度SAR圖像檢測中更為高效。此外,改進(jìn)后的方法因二次窗口融合,虛警率顯著降低,且可以精確地定位不同尺寸的飛機(jī)目標(biāo)。
深度學(xué)習(xí)在訓(xùn)練集較大時(shí)能夠取得較好效果,但與光學(xué)圖像相比SAR圖像相對較少,易導(dǎo)致嚴(yán)重的過擬合。不同于常用的數(shù)據(jù)增強(qiáng)方法,由于SAR圖像與光學(xué)圖像成像原理差別較大,需要引入新的數(shù)據(jù)增強(qiáng)方法。本文提出適用于SAR圖像的4種數(shù)據(jù)增強(qiáng)方法來擴(kuò)充已標(biāo)注數(shù)據(jù)集。4種數(shù)據(jù)增強(qiáng)方法如下所示。
3.1 平移
在目標(biāo)不超過圖像邊界的條件下,對原始圖像執(zhí)行平移操作。假設(shè)原始圖像大小為m×n,則平移后的圖像可以表示為:
其中,(x,y)是位移尺度,(i,j)是平移后坐標(biāo)。圖4(a),圖4(b)給出了平移前后的目標(biāo)示例。
3.2 加噪
由于特殊的成像特性,SAR圖像總是帶有斑點(diǎn)噪聲。斑點(diǎn)噪聲是白色散斑狀的乘性噪聲。加噪后的圖像可以被表示為:
其中,P表示原始圖像,N表示斑點(diǎn)噪聲。N為均值為0方差為v的均勻分布的隨機(jī)噪聲。由于加噪越嚴(yán)重圖像越模糊,必須確保噪聲的強(qiáng)度低于預(yù)設(shè)值。圖4給出了基于原始圖像圖4(a)的加噪示例圖4(c)。
3.3 對比度增強(qiáng)
同一地點(diǎn)拍攝的SAR圖像可能有不同的亮度。因此本文利用像素對比度信息進(jìn)行數(shù)據(jù)增強(qiáng)。對比度增強(qiáng)可以通過非線性變換來實(shí)現(xiàn),具體變換可以表示如下:
其中,P表示原始圖像,P′表示對比度增強(qiáng)后的圖像。k是用戶預(yù)定義的可調(diào)節(jié)因子,其值在0和1之間。I是與P具有相同維數(shù)的單位矩陣。此外,P和P′ 范 圍均為(0,1)。圖4(a),圖4(d)給出了對比度增強(qiáng)的示例。
3.4 小角度旋轉(zhuǎn)
雷達(dá)散射特性隨著物體和傳感器之間相對姿態(tài)的變化而變化。然而文獻(xiàn)[21]中作者證明了飛機(jī)目標(biāo)后向散射特性的位置和強(qiáng)度在至少5°內(nèi)是旋轉(zhuǎn)不變的。旋轉(zhuǎn)坐標(biāo)與原始坐標(biāo)的映射關(guān)系可以表示為:
基于LeNet-5網(wǎng)絡(luò),改進(jìn)后的網(wǎng)絡(luò)更適用于SAR圖像飛機(jī)檢測。由于SAR數(shù)據(jù)較少,大量的實(shí)驗(yàn)表明網(wǎng)絡(luò)超過6層會發(fā)生過擬合。如圖5所示,本文的CNN網(wǎng)絡(luò)由4個(gè)可訓(xùn)練參數(shù)層組成。為了減小過擬合的影響,引入了dropout方法[22]。此外,用修正線性單元(Rectified Linear Units,ReLU)在實(shí)踐中能很好地應(yīng)對飽和問題[23],將其代替sigmoid函數(shù)。本文基于典型的隨機(jī)梯度下降法,引入改進(jìn)算法如動量法[24]以最小化損失函數(shù)。具體實(shí)現(xiàn)細(xì)節(jié)如下。
4.1 卷積層
在卷積層中,將輸入X和一組濾波器W進(jìn)行卷積,然后與偏置b相加。W表示可訓(xùn)練濾波器,b表示可訓(xùn)練偏差。最后,將上述結(jié)果傳遞給非線性激活函數(shù)f。公式如下:
其中,f(.)是修正線性單元(ReLU),函數(shù)由式(6)給出:
ReLU縮短了訓(xùn)練時(shí)間,并且在沒有無監(jiān)督預(yù)訓(xùn)練時(shí)效果較好[23]。
4.2 Max-pooling
Max-pooling在卷積層之后執(zhí)行降采樣操作。Max-pooling層計(jì)算出m×n局部切片內(nèi)區(qū)域的最大值,公式如下:
其中,(m,n)表示局部區(qū)域的大小,Y表示pooling操作的輸出。
4.3 Softmax
Softmax分類器在輸出層后對切片進(jìn)行二分類。它求出每類的判別概率并選擇最大值作為最終輸出。Softmax函數(shù)公式如下:
其中,Xi表示最后隱藏層的輸出,k表示類的數(shù)量,Yi表示類i的判別概率。
4.4 實(shí)現(xiàn)細(xì)節(jié)
本文CNN的結(jié)構(gòu)如圖5所示,它由3個(gè)卷積層和3個(gè)pooling層組成。第1個(gè)卷積層的卷積核大小為5×5,并有32個(gè)輸出圖。相似地,第2個(gè)卷積層的卷積核尺寸也是5×5且有64個(gè)輸出圖。最后一個(gè)卷積層有128個(gè)輸出圖,卷積核大小為6×6。每個(gè)卷積層后連著2×2的Max-pooling層。輸入圖像切片的大小為120×120。它們在第1個(gè)卷積層后變?yōu)?16×116,在第1個(gè)pooling層之后變?yōu)?8×58。循環(huán)往復(fù),Softmax層前輸出兩個(gè)大小為11×11的特征圖。表1列出了CNN的具體結(jié)構(gòu)數(shù)據(jù)。網(wǎng)絡(luò)訓(xùn)練時(shí)間約30 min,測試時(shí)間約幾秒鐘。
表1 CNN參數(shù)Tab. 1 Parameters of our CNN
5.1 0.5 m分辨率TerraSAR-X數(shù)據(jù)集
本文使用的數(shù)據(jù)集是高分辨率TerraSAR-X衛(wèi)星數(shù)據(jù)。所有數(shù)據(jù)含30張?jiān)紙D像,大小約20000× 20000,覆蓋幾個(gè)常見機(jī)場,分辨率為0.5 m×0.5 m。本文數(shù)據(jù)集包含多種類型、多種朝向的飛機(jī)。首先,基于原始圖像手動標(biāo)記飛機(jī)目標(biāo)并保存真值文件。在手工標(biāo)注中我們參考了SAR解譯人員的意見,以保證樣本真值的可靠性。然后將切片分為兩類:1000個(gè)目標(biāo)和16000個(gè)非目標(biāo)。之后,隨機(jī)地將樣本按照4:1的比例分為訓(xùn)練集和測試集。圖6給出了訓(xùn)練集的示例??梢钥吹?,正樣本包含了各種形態(tài)的飛機(jī),負(fù)樣本包含了各種復(fù)雜場景。
5.2 改進(jìn)的顯著性預(yù)檢測方法參數(shù)設(shè)置及結(jié)果分析
在大尺度遙感圖像中,滑動窗方法一般用于候選目標(biāo)預(yù)檢測。顯著性預(yù)檢測方法的性能比滑動窗方法更好。顯著性預(yù)檢測方法可以快速定位候選目標(biāo)并顯著減少虛警。通過比較兩種方法后發(fā)現(xiàn),給定一個(gè)大小為8000×8000的SAR圖像,顯著性預(yù)檢測方法在42.95 s內(nèi)選出1489個(gè)候選目標(biāo)。相同情況下,滑動窗口方法在80.06 s內(nèi)篩選出611524個(gè)候選目標(biāo)。
在原始顯著性預(yù)檢測方法的基礎(chǔ)上,本文提出了多尺度算法來檢測不同尺寸的飛機(jī)目標(biāo)。為了適應(yīng)在未知場景中不同尺寸飛機(jī)的情況,對原始算法進(jìn)行了基于多尺度的改進(jìn)。表2表示了不同預(yù)檢測方法在大小為3708×3951的SAR圖像上的性能比較。Selective Search方法采用圖像分割和層次算法,雖能適應(yīng)不同尺度,但處理流程復(fù)雜、運(yùn)算速度較慢,虛警較多,為535個(gè),框定的飛機(jī)目標(biāo)不夠完整,檢測框尺寸波動過于明顯;顯著性預(yù)檢測方法計(jì)算快速,但漏檢2架飛機(jī),虛警266個(gè);改進(jìn)后的顯著性預(yù)檢測方法可以搜索出所有真實(shí)目標(biāo),虛警相對原始顯著性方法減少58個(gè),檢測框長寬比合適,范圍可以人工設(shè)置,不會出現(xiàn)極小或極大的窗口。Selective search方法、原始顯著性預(yù)檢測方法和改進(jìn)后的預(yù)檢測方法的實(shí)驗(yàn)效果示例如圖7所示,可以看到改進(jìn)后的顯著性方法預(yù)檢測性能更好。
表2 不同預(yù)檢測方法性能比較Tab. 2 The performance of different pre-detection methods
5.3 數(shù)據(jù)增強(qiáng)參數(shù)設(shè)置及結(jié)果分析
在數(shù)據(jù)增強(qiáng)階段,800個(gè)原始訓(xùn)練正樣本首先按照0.01的方差斑點(diǎn)加噪,然后順時(shí)針旋轉(zhuǎn)5°,再向上平移5個(gè)像素,最后以k=0.5對比度增強(qiáng)。按這種方式,原始的訓(xùn)練正樣本擴(kuò)展16倍至12800個(gè),同樣地,原始訓(xùn)練負(fù)樣本由200個(gè)擴(kuò)展到3200個(gè)。
為了比較不同數(shù)據(jù)增強(qiáng)方法,本文對每一種增強(qiáng)方法做了單獨(dú)實(shí)驗(yàn),同時(shí)與4種增強(qiáng)方法合用進(jìn)行對比,實(shí)驗(yàn)結(jié)果如表3所示。
表3 不同數(shù)據(jù)增強(qiáng)方法的檢測正確率Tab. 3 Accuracy rates of CNN with different augmentation methods
沒有施加任何數(shù)據(jù)增強(qiáng)方法時(shí),CNN的檢測正確率為86.33%。分析可得:每種數(shù)據(jù)增強(qiáng)方法對最后檢測正確率的提升都有作用,斑點(diǎn)加噪的提升作用更大。當(dāng)把4種增強(qiáng)方法結(jié)合起來時(shí),檢測正確率達(dá)到了96.36%,超過了單獨(dú)使用每種數(shù)據(jù)增強(qiáng)方法的性能。
5.4 卷積神經(jīng)網(wǎng)絡(luò)參數(shù)設(shè)置及結(jié)果分析
在訓(xùn)練前,將具有不同尺寸的候選目標(biāo)調(diào)整為統(tǒng)一尺寸120×120。本文做了大量實(shí)驗(yàn)以獲取最佳參數(shù)。當(dāng)基本學(xué)習(xí)率為0.01,momentum為0.9,batchsize大小為50,迭代次數(shù)為5000時(shí)檢測性能最佳。訓(xùn)練集包含25600個(gè)樣本,測試集包含6400個(gè)樣本。CNN部分的實(shí)驗(yàn)在具有Tesla k40M GPU和251 GB存儲器的CAFFE框架上實(shí)現(xiàn)。實(shí)驗(yàn)的其余部分在具有32 GB存儲器的3.1 GHz CPU上實(shí)現(xiàn)。
表4、表5、表6分別探究了不同網(wǎng)絡(luò)結(jié)構(gòu)、不同卷積核個(gè)數(shù)和不同卷積核大小對檢測性能的影響。實(shí)驗(yàn)發(fā)現(xiàn),分別改變網(wǎng)絡(luò)層數(shù)、卷積核個(gè)數(shù)、卷積核大小后檢測正確率均低于本文方法的性能指標(biāo)。
為了驗(yàn)證方法的高效性,將本文的CNN網(wǎng)絡(luò)與在SAR圖像處理中廣泛使用的其它機(jī)器學(xué)習(xí)方法(例如SVM和AdaBoost)作了對比。SVM使用徑向基函數(shù)(Radial Basis Function,RBF)作為核函數(shù),AdaBoost使用決策樹作為弱分類器。方向梯度直方圖(Histogram of Oriented Gradient,HOG)加SVM方法也加入了比較。表7列出了各種常用方法的檢測正確率。實(shí)驗(yàn)證實(shí),本文CNN的檢測正確率達(dá)到96.36%,并且優(yōu)于其他常用的SAR飛機(jī)檢測方法。
表4 不同網(wǎng)絡(luò)層數(shù)的檢測正確率比較Tab. 4 Accuracy rates of CNN with different number of layers
表5 不同卷積核個(gè)數(shù)的檢測正確率比較Tab. 5 Accuracy rates of CNN with different number of kernels
表6 不同卷積核大小的檢測正確率比較Tab. 6 Accuracy rates of CNN with different size of kernels
表7 不同方法在同一數(shù)據(jù)集上的平均檢測率Tab. 7 Average detection rates of different methods on the same dataset
不同方法的ROC曲線如圖8所示,可以看到我們的CNN方法與橫軸所圍面積最大,檢測性能最好,其余由高到底依次是HOG+SVM,SVM和AdaBoost方法。
當(dāng)把上述所有算法合為一體時(shí),最終得到SAR圖像飛機(jī)目標(biāo)的完整檢測算法框架。圖9表示了該檢測方法在某停機(jī)坪區(qū)域的檢測結(jié)果。在這樣的復(fù)雜場景下,雖然存在少量虛警但并無漏警。總之,本文的飛機(jī)檢測框架在大場景SAR圖像中可以取得較為理想的效果。
本文構(gòu)建了一個(gè)完整的SAR飛機(jī)目標(biāo)檢測算法框架。首先,提出了一種改進(jìn)的顯著性預(yù)檢測方法,實(shí)現(xiàn)在大規(guī)模SAR場景中粗略快速地定位候選飛機(jī)目標(biāo)。實(shí)驗(yàn)證實(shí)該方法與滑動窗方法相比更為高效,改進(jìn)后多尺度的加入提升了對待測場景的適應(yīng)性。然后,設(shè)計(jì)并調(diào)優(yōu)了含4個(gè)權(quán)重層的CNN網(wǎng)絡(luò),實(shí)現(xiàn)對候選目標(biāo)的精確檢測并得到最終的檢測結(jié)果。此外,為了豐富訓(xùn)練集并防止過擬合,提出了4種數(shù)據(jù)增強(qiáng)方法。具體包括平移、斑點(diǎn)加噪、對比度增強(qiáng)和小角度旋轉(zhuǎn)。實(shí)驗(yàn)結(jié)果證實(shí),本文的飛機(jī)檢測算法框架取得了96.36%的檢測正確率,并優(yōu)于其他常用的SAR飛機(jī)檢測方法。
[1]El-Darymli K,McGuire P,Power D,et al.. Target detection in synthetic aperture radar imagery: A state-of-the-art survey[J].Journal of Applied Remote Sensing,2013,7(1): 071598.
[2]Steenson B O. Detection performance of a mean-level threshold[J].IEEE Transactions on Aerospace and Electronic Systems,1968,4(4): 529–534.
[3]Gandhi P P and Kassam S A. Analysis of CFAR processors in homogeneous background[J].IEEE Transactions on Aerospace and Electronic Systems,1988,24(4): 427–445.
[4]Novak L M and Hesse S R. On the performance of orderstatistics CFAR detectors[C]. IEEE 25th Asilomar Conference on Signals,Systems and Computers,Pacific Grove,California,USA,Nov. 1991: 835–840.
[5]Smith M E and Varshney P K. VI-CFAR: A novel CFAR algorithm based on data variability[C]. IEEE National Radar Conference,Syracuse,NY,May 1997: 263–268.
[6]Ai Jia-qiu,Qi Xiang-yang,Yu Wei-dong,et al.. A new CFAR ship detection algorithm based on 2-D joint lognormal distribution in SAR images[J].IEEE Geoscience and Remote Sensing Letters,2010,7(4): 806–810.
[7]di Bisceglie M and Galdi C. CFAR detection of extended objects in high-resolution SAR images[J].IEEE Transactions on Geoscience and Remote Sensing,2005,43(4): 833–843.
[8]Jung C H,Kwag Y K,and Song W Y. CFAR detection algorithm for ground target in heterogeneous clutter using high resolution SAR image[C]. 3rd International Asia-Pacific Conference on Synthetic Aperture Radar (APSAR),Seoul,South Korea,Sep. 2011: 1–4.
[9]Olson C F and Huttenlocher D P. Automatic target recognition by matching oriented edge pixels[J].IEEE Transactions on Image Processing,1997,6(1): 103–113.
[10]Kaplan L M. Improved SAR target detection via extended fractal features[J].IEEE Transactions on Aerospace and Electronic Systems,2001,37(2): 436–451.
[11]Sandirasegaram N M. Spot SAR ATR using wavelet features and neural network classifier[R]. Defence Research and Development Canada Ottawa (Ontario),2005.
[12]Tan Yi-hua,Li Qing-yun,Li Yan-sheng,et al.. Aircraft detection in high-resolution SAR images based on a gradient textural saliency map[J].Sensors,2015,15(9): 23071–23094.
[13]Jao J K,Lee C E,and Ayasli S. Coherent spatial filtering for SAR detection of stationary targets[J].IEEETransactions on Aerospace and Electronic Systems,1999,35(2): 614–626.
[14]Zhao Q and Principe J C. Support vector machines for SAR automatic target recognition[J].IEEE Transactions on Aerospace and Electronic Systems,2001,37(2): 643–654.
[15]Sun Yi-jun,Liu Zhi-peng,Todorovic S,et al.. Adaptive boosting for SAR automatic target recognition[J].IEEE Transactions on Aerospace and Electronic Systems,2007,43(1): 112–125.
[16]Keydel E R,Lee S W,and Moore J T. MSTAR extended operating conditions: A tutorial[C]. Proc. SPIE 2757,Algorithms for Synthetic Aperture Radar Imagery III,Orlando,FL,Apr. 1996: 228–242.
[17]Krizhevsky A,Sutskever I,and Hinton G E. ImageNet classification with deep convolutional neural networks[C]. International Conference on Neural Information Processing Systems,South Lake Tahoe,Nevada,USA,Dec. 2012: 1097–1105.
[18]Ding Jun,Chen Bo,Liu Hong-wei,et al.. Convolutional neural network with data augmentation for SAR target recognition[J].IEEE Geoscience and Remote Sensing Letters,2016,13(3): 364–368.
[19]Chen Si-zhe,Wang Hai-peng,Xu Feng,et al.. Target classification using the deep convolutional networks for SAR images[J].IEEE Transactions on Geoscience and Remote Sensing,2016,54(8): 4806–4817.
[20]Diao Wen-hui,Sun Xian,Zheng Xin-wei,et al.. Efficient saliency-based object detection in remote sensing images using deep belief networks[J].IEEE Geoscience and Remote Sensing Letters,2016,13(2): 137–141.
[21]Chen Jie-hong,Zhang Bo,and Wang Chao. Backscattering feature analysis and recognition of civilian aircraft in TerraSAR-X images[J].IEEE Geoscience and Remote Sensing Letters,2015,12(4): 796–800.
[22]Srivastava N,Hinton G,Krizhevsky A,et al.. Dropout: A simple way to prevent neural networks from overfitting[J].The Journal of Machine Learning Research,2014,15(1): 1929–1958.
[23]Glorot X,Bordes A,and Bengio Y. Deep sparse rectifier neural networks[C]. 14th International Conference on Artificial Intelligence and Statistics,Fort Lauderdale,FL,USA,2011: 315–323.
[24]Qian Ning. On the momentum term in gradient descent learning algorithms[J].Neural Networks,1999,12(1): 145–151.
王思雨(1992–),女,山西人,中國科學(xué)院電子學(xué)研究所碩士研究生,研究方向?yàn)镾AR圖像飛機(jī)目標(biāo)檢測識別。
E-mail: siyuwang92@163.com
成銳今年43歲,河北邯鄲人。很多年前,他就從事金屬加工業(yè)務(wù),對于電焊、鈑金等工作比較熟悉。2011年6月6日,他應(yīng)聘到本市一家過濾器制造公司,專業(yè)從事鉚工作業(yè)。
高 鑫(1966–),男,遼寧人,北京師范大學(xué)理學(xué)博士,現(xiàn)任中國科學(xué)院電子學(xué)研究所研究員,研究方向?yàn)镾AR場景分類、目標(biāo)檢測識別、解譯標(biāo)注。
E-mail: gaxi@mail.ie.ac.cn
孫 皓(1984–),男,山東人,中國科學(xué)院大學(xué)工學(xué)博士,現(xiàn)任中國科學(xué)院電子學(xué)研究所副研究員,研究方向?yàn)檫b感圖像理解。
E-mail: sun.010@163.com
鄭歆慰(1987–),男,福建人,中國科學(xué)院大學(xué)工學(xué)博士,現(xiàn)任中國科學(xué)院電子學(xué)研究所助理研究員,研究方向?yàn)榇笠?guī)模遙感圖像解譯。
E-mail: zxw_1020@163.com
孫 顯(1981–),男,浙江人,中國科學(xué)院大學(xué)工學(xué)博士,現(xiàn)任中國科學(xué)院電子學(xué)研究所副研究員,研究方向?yàn)橛?jì)算機(jī)視覺與遙感圖像理解、地理空間大數(shù)據(jù)解譯。
E-mail: sunxian@mail.ie.ac.cn
An Aircraft Detection Method Based on Convolutional Neural Networks in High-Resolution SAR Images
Wang Siyu①②Gao Xin①Sun Hao①Zheng Xinwei①Sun Xian①
①(Institute of Electronics,Chinese Academy of Sciences,Beijing100190,China)
②(University of Chinese Academy of Science,Beijing100049,China)
In the field of image processing using Synthetic Aperture Radar (SAR),aircraft detection is a challenging task. Conventional approaches always extract targets from the background of an image using image segmentation methods. Nevertheless,these methods mainly focus on pixel contrast and neglect the integrity of the target,which leads to locating the object inaccurately. In this study,we build a novel SAR aircraft detection framework. Compared to traditional methods,an improved saliency-based method is proposed to locate candidates coarsely and quickly in large scenes. This proposed method is verified to be more efficient compared with the sliding window method. Next,we design a convolutional neural network fitting in SAR images to accurately identify the candidates and obtain the final detection result. Moreover,to overcome the problem of limited available SAR data,we propose four data augmentation methods comprising translation,speckle noising,contrast enhancement,and small-angle rotation. Experimental results show that our framework achieves excellent performance on the high-resolution TerraSAR-X dataset.
Synthetic Aperture Radar (SAR); Aircraft detection; Convolutional Neural Networks (CNNs); Data augmentation; Visual saliency
TP753
A
2095-283X(2017)02-0195-09
10.12000/JR17009
王思雨,高鑫,孫皓,等. 基于卷積神經(jīng)網(wǎng)絡(luò)的高分辨率SAR圖像飛機(jī)目標(biāo)檢測方法[J]. 雷達(dá)學(xué)報(bào),2017,6(2): 195–203.
10.12000/JR17009.
Reference format:Wang Siyu,Gao Xin,Sun Hao,et al.. An aircraft detection method based on convolutional neural networks in high-resolution SAR images[J].Journal of Radars,2017,6(2): 195–203. DOI: 10.12000/JR17009.
2017-01-20;改回日期:2017-03-05;
2017-05-02
*通信作者: 高鑫 gaxi@mail.ie.ac.cn
國家自然科學(xué)基金青年基金(41501485)
Foundation Item: The National Natural Science Foundation of China (41501485)