魏松杰 張澤棟 徐臻 劉梅林 陳偉
摘 ? 要:針對(duì)SAR圖像中艦船目標(biāo)的檢測(cè)問題,單純基于深度學(xué)習(xí)的圖像處理技術(shù)難以達(dá)到檢測(cè)準(zhǔn)確性和實(shí)時(shí)性要求. SAR圖像中目標(biāo)尺寸較小,且易受噪聲、光斑干擾,傳統(tǒng)方法難以提取精細(xì)特征并克服復(fù)雜條件下的背景干擾. 針對(duì)以上問題,設(shè)計(jì)基于YOLOv3檢測(cè)框架的端到端檢測(cè)模型,借鑒了殘差模塊結(jié)構(gòu)來避免網(wǎng)絡(luò)退化問題. 同時(shí)結(jié)合深層與淺層的不同尺寸特征圖檢測(cè),使用目標(biāo)基礎(chǔ)特征提取網(wǎng)絡(luò)參數(shù)來避免重復(fù)訓(xùn)練初始化過程. 針對(duì)SAR 圖像中海上艦船成像小目標(biāo)的特點(diǎn)改進(jìn)優(yōu)化了神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),實(shí)現(xiàn)SAR海面廣域艦船目標(biāo)識(shí)別分類算法,并對(duì)檢測(cè)模型進(jìn)行輕量化壓縮處理. 構(gòu)建SAR圖像艦船目標(biāo)數(shù)據(jù)集并進(jìn)行了多次目標(biāo)檢測(cè)識(shí)別分類實(shí)驗(yàn),體現(xiàn)了提出的檢測(cè)方法在復(fù)雜場(chǎng)景下有可靠的抗干擾能力和準(zhǔn)確的目標(biāo)檢測(cè)識(shí)別性能.
關(guān)鍵詞:SAR圖像;目標(biāo)檢測(cè);多尺度特征;深度神經(jīng)網(wǎng)絡(luò)
中圖分類號(hào):TN 957.52 ? ? ? ? ? ? ? ? ? ? ? ? ?文獻(xiàn)標(biāo)志碼:A
Method of Vessel Target Detection in SAR Images Based
on Multi-scale Feature Superposition
WEI Songjie1,ZHANG Zedong1,XU Zhen1,LIU Meilin2,3,CHEN Wei1
(1. School of Computer Science and Engineering,Nanjing University of Science and Technology,Nanjing 210094,China;
2. School of Aeronautics and Astronautics,Shanghai Jiao Tong University,Shanghai 200240,China;
3. Shanghai Institute of Satellite Engineering,Shanghai 200240,China)
Abstract:For marine vessel target detection in SAR images,deep learning technology alone usually has difficulty in satisfying the detection requirements in accuracy and timeliness. Vessel targets in SAR image are of small sizes and resolutions,which are easily interfered by noise and spot interruption. It is challenging to extract subtle features and eliminate background interference under complex conditions. To overcome the above problems,we propose an end-to-end new detection model based on YOLOv3 framework. The residual module structure is used to avoid network degradation. Combined with deep and shallow feature detection of different target sizes,we extract network parameters for basic features to avoid training from scratch. At the same time,according to the characteristics of small vessel targets in SAR image,the neural network structure is further optimized to achieve fast target detection and categorization in wide-area SAR images,and the detection model is compressed and light-weighted. We construct and utilize a SAR image dataset with different vessel targets for target detection and classification test. The experimental results show that the proposed detection method shows significant anti-jamming ability and detection performance in complex scenes.
Key words:SAR image;target detection;multi-scale features;deep neural network
艦船目標(biāo)檢測(cè)在海洋監(jiān)測(cè)和國土安全領(lǐng)域的作用愈發(fā)重要,包括海事安全、海上交通、海洋污染防治和邊境管制方面具有較為廣泛的應(yīng)用[1]. 合成孔徑雷達(dá)(Synthetic Aperture Radar,SAR)通過保證相參性的脈沖發(fā)射信號(hào),具有較高的分辨率,可以全天時(shí)、全天候工作,自問世以來,就在民用遙感、測(cè)繪和軍事目標(biāo)探測(cè)領(lǐng)域展現(xiàn)出優(yōu)秀的能力[2],隨著海洋船舶技術(shù)的發(fā)展,Sentinel-1、ERS系列和高分系列等衛(wèi)星相繼出現(xiàn),基于SAR圖像的艦船目標(biāo)檢測(cè)應(yīng)用場(chǎng)景和應(yīng)用效果不斷擴(kuò)展提高.
恒虛警處理(CFAR)可以對(duì)潛在的艦船區(qū)域進(jìn)行提取,通過既定的檢測(cè)方法確定閾值,輸入信號(hào)中根據(jù)閾值確定像素是否為目標(biāo)像素,為保持虛警的概率,閾值會(huì)根據(jù)輸入中的噪聲以適當(dāng)?shù)囊?guī)則保持恒定,并降低噪聲、雜波等干擾對(duì)虛警率的影響. 針對(duì)目標(biāo)運(yùn)動(dòng)時(shí)的距離分量導(dǎo)致方位偏移問題,文獻(xiàn)[3]通過線性積分和長(zhǎng)度歸一化技術(shù),將線性特征轉(zhuǎn)化為點(diǎn)特征來構(gòu)建概率模型實(shí)現(xiàn)CFAR檢測(cè). 文獻(xiàn)[4]提出了一種基于非對(duì)稱映射和選擇性濾波方法的自適應(yīng)閾值單元平均恒虛警率船舶檢測(cè)算法,實(shí)驗(yàn)證明使用所提出的過濾步驟可以降低虛警率,且不降低檢測(cè)率.
計(jì)算機(jī)視覺領(lǐng)域的優(yōu)秀目標(biāo)檢測(cè)與框架不斷推陳出新,基于深度學(xué)習(xí)的目標(biāo)檢測(cè)技術(shù)已經(jīng)逐漸代替?zhèn)鹘y(tǒng)的方法,成為目標(biāo)檢測(cè)領(lǐng)域的主流技術(shù),而卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,CNN)[5]憑借其良好的特征自提取能力,共享卷積參數(shù)等天然優(yōu)勢(shì),已經(jīng)廣泛地應(yīng)用在目標(biāo)檢測(cè)領(lǐng)域. 基于卷積神經(jīng)網(wǎng)絡(luò)的檢測(cè)方法主要分為基于候選區(qū)域的雙階段目標(biāo)檢測(cè)方法與單次目標(biāo)檢測(cè)方法. 其中以R-CNN[6]、Fast R-CNN[7]、Faster R-CNN[8]、R-FCN[9]和Mask R-CNN[10]為代表的基于候選區(qū)域的雙階段目標(biāo)檢測(cè)方法通過特征圖提取候選區(qū)域,判斷錨點(diǎn)屬于前景或背景,利用邊框回歸與分類器修正得到檢測(cè)目標(biāo)分類信息和位置坐標(biāo). 而YOLO[11]就是基于回歸策略的單階段檢測(cè)方法,直接使用一個(gè)卷積神經(jīng)網(wǎng)絡(luò)同時(shí)預(yù)測(cè)邊界框的位置和類別. SSD[12]以YOLO 基于回歸的思想為基礎(chǔ),使用小卷積濾波器預(yù)測(cè)目標(biāo)類別和偏移,并通過將其應(yīng)用于多個(gè)特征映射可以達(dá)到多尺度檢測(cè). 之后在YOLO和SSD的基礎(chǔ)上又衍生出了YOLOv2[13]、YOLOv3[14]、RetinaNet[15]、RefineDet[16]、M2Det[17]等算法,在檢測(cè)精度和效率上更加優(yōu)秀.
以上述多個(gè)目標(biāo)檢測(cè)算法為基礎(chǔ),文獻(xiàn)[18]以RetinaNet為基礎(chǔ)結(jié)構(gòu),對(duì)特征金字塔網(wǎng)絡(luò)進(jìn)行改進(jìn),提升特征的提取效果,使用遷移學(xué)習(xí)等方法,相比原算法有更高的準(zhǔn)確率. 文獻(xiàn)[19]針對(duì)小目標(biāo)密集難以檢測(cè)問題,針對(duì)艦船目標(biāo)設(shè)計(jì)不同尺度的轉(zhuǎn)換功能,連接到多個(gè)特征地圖以獲取多比例尺特征,加入上下文特征以輔助復(fù)雜目標(biāo)的檢測(cè),達(dá)到了較好的檢測(cè)性能. 文獻(xiàn)[20]設(shè)計(jì)包括兩層結(jié)構(gòu)的級(jí)聯(lián)卷積框架,首先對(duì)目標(biāo)初步的快速篩選,然后借鑒遷移學(xué)習(xí)方法初始化特征提取網(wǎng)絡(luò),結(jié)合矩形旋轉(zhuǎn)框等技術(shù)可以保證達(dá)到較好的檢測(cè)精度的條件下優(yōu)化了檢測(cè)效率. 文獻(xiàn)[21]提出一種多輸入分辨率CNN模型,模型中不同輸入分辨率的組合提高了提取特征的能力,在多類別通用數(shù)據(jù)集上交叉評(píng)估,分類精度得以提高. 文獻(xiàn)[22]在Faster-RCNN網(wǎng)絡(luò)的基礎(chǔ)上針對(duì)SAR圖像艦船目標(biāo)調(diào)整錨框大小以及損失函數(shù),檢測(cè)精度和效率有相應(yīng)的提高,并制作了艦船檢測(cè)領(lǐng)域的數(shù)據(jù)集,包含上千圖片和不同形態(tài)、特點(diǎn)的目標(biāo),為艦船目標(biāo)檢測(cè)領(lǐng)域提供了良好的檢測(cè)樣本. 文獻(xiàn)[23]提出一種基于多尺度特征融合的卷積神經(jīng)網(wǎng)絡(luò)來生成更加豐富的語義信息,在SAR圖像艦船目標(biāo)識(shí)別體現(xiàn)出較好的效果. 本文同樣以多尺度特征融合為主要思想,在特征融合過程中應(yīng)用更深層次的特征圖,增加一次融合操作,此外特別針對(duì)艦船目標(biāo)獨(dú)有特征設(shè)計(jì)篩選過程,完成SAR圖像艦船目標(biāo)的識(shí)別,同時(shí)完成艦船目標(biāo)的分類功能.
針對(duì)SAR艦船目標(biāo)中不同尺度目標(biāo)對(duì)檢測(cè)結(jié)果的影響,本文借鑒YOLOv3檢測(cè)算法中可變尺度特征圖和回歸策略,設(shè)計(jì)了多層次特征檢測(cè)的卷積神經(jīng)網(wǎng)絡(luò),通過改進(jìn)YOLOv3模型增強(qiáng)網(wǎng)絡(luò)對(duì)不同尺度艦船目標(biāo)的適應(yīng)能力,對(duì)多種尺度的檢測(cè)目標(biāo)使用相適應(yīng)特征圖進(jìn)行提取,對(duì)檢測(cè)損失函數(shù)進(jìn)行相應(yīng)的改進(jìn),模型通過共享參數(shù)和剪枝壓縮進(jìn)行輕量化處理,同時(shí)建立了包含四種類別的艦船檢測(cè)數(shù)據(jù)集,使用預(yù)訓(xùn)練權(quán)重等方法,進(jìn)行了多組對(duì)比分析實(shí)驗(yàn)進(jìn)行驗(yàn)證.
1 ? 模型方法
模型的整體流程如圖1所示,圖中數(shù)字對(duì)應(yīng)文中相應(yīng)章節(jié). 首先對(duì)原始的SAR圖像進(jìn)行圖像的預(yù)處理操作,然后將圖像裁剪成適合神經(jīng)網(wǎng)絡(luò)接受的大小,通過特征疊加網(wǎng)絡(luò)得到不同尺寸的特征圖,對(duì)每種特征圖的預(yù)測(cè)結(jié)果進(jìn)行篩選,區(qū)分正負(fù)樣本,然后通過計(jì)算損失函數(shù)的大小來確定最終檢測(cè)結(jié)果.
1.1 ? 模型設(shè)計(jì)流程
1.1.1 ? 殘差網(wǎng)絡(luò)模塊
基于前饋神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu),隨著隱藏層數(shù)的增加,對(duì)輸入特征抽象層次越來越高,可提取不同層次特征越豐富,由此增加網(wǎng)絡(luò)的寬度和深度可以對(duì)網(wǎng)絡(luò)的性能有相應(yīng)的提升,但隨著網(wǎng)絡(luò)層數(shù)的不斷增加,由于樣本中噪聲干擾或模型復(fù)雜度過高,在反向傳播過程中網(wǎng)絡(luò)權(quán)值參數(shù)的連乘產(chǎn)生梯度彌散或爆炸問題.
殘差網(wǎng)絡(luò)(Residual Network) 的出現(xiàn)很好地解決了這些問題,對(duì)于網(wǎng)絡(luò)層數(shù)的增加而出現(xiàn)的退化問題,使得在中間某一層已經(jīng)達(dá)到了較好的參數(shù)調(diào)整,所以更深層次的網(wǎng)絡(luò)至少保證了不低于低層次的網(wǎng)絡(luò),恒等快捷連接(shortcut connection)可以使映射對(duì)輸出的變化更靈敏,由于其學(xué)習(xí)的是兩層參數(shù)之間的差值,比直接擬合效果的作用占比更大,所以在訓(xùn)練更深網(wǎng)絡(luò)的同時(shí),可以保證性能不會(huì)退化,殘差網(wǎng)絡(luò)中的殘差模塊結(jié)構(gòu)如圖2所示. 這樣的結(jié)構(gòu)對(duì)于恒等映射,上一層的輸出x到更深一層的輸出H(x),參數(shù)的學(xué)習(xí)調(diào)整函數(shù)F(x)會(huì)不斷擬合兩者相等的關(guān)系,而殘差結(jié)構(gòu)會(huì)學(xué)習(xí)F(x)=H(x)-x這個(gè)差值,因?yàn)橄啾韧ㄟ^非線性層來擬合,將殘差推到0會(huì)更加容易. 使用這種殘差學(xué)習(xí)方法沒有減小回傳損失,但差值的學(xué)習(xí)對(duì)比原來線性學(xué)習(xí)的參數(shù)量更小,相當(dāng)于增加了對(duì)損失誤差的靈敏度,在不斷增加網(wǎng)絡(luò)層數(shù)后也可以保持精度的平穩(wěn)率.
1.1.2 ? 網(wǎng)絡(luò)結(jié)構(gòu)
特征融合結(jié)構(gòu)如圖3所示,其基本原理借鑒YOLOv3目標(biāo)檢測(cè)算法,通常卷積操作會(huì)獲得更高層次的語義信息,但隨著多次下采樣操作,對(duì)于艦船等低分辨率小目標(biāo)提取的信息不足,增加特征融合結(jié)構(gòu),利用特征金字塔中不同尺寸特征圖結(jié)合檢測(cè)有利于提取不同分辨率、多尺寸目標(biāo)的語義信息.
特征提取網(wǎng)絡(luò)如圖4所示,由兩種步長(zhǎng)3×3和1×1的卷積層疊加而成.
檢測(cè)的基本過程是產(chǎn)生不同尺寸的先驗(yàn)框,通過損失函數(shù)不斷調(diào)節(jié)位置,使用非極大值抑制算法根據(jù)目標(biāo)分類得到的邊界框概率排序后,去掉概率得分較低的邊框得到結(jié)果,篩選出預(yù)設(shè)閾值以上的集合.
對(duì)于尺寸為416×416的原始圖片會(huì)生成4種不同尺寸的特征圖,如圖5所示,對(duì)應(yīng)提取不同分辨率的語義信息,因?yàn)橹苯邮褂枚喑叨忍卣鲌D分別進(jìn)行不同的檢測(cè)生成的參數(shù)量過大,為此多尺度特征圖通過上采樣與淺層特征融合可以使小目標(biāo)可以同時(shí)關(guān)注低分辨率的部分特征與全局信息.
如原始圖片尺寸為416×416,經(jīng)過5次卷積操作和后隨的2步長(zhǎng)的池化操作,其中一個(gè)輸出的張量為13×13×255,為了使用深層特征,經(jīng)過步長(zhǎng)為2的上采樣后,將特征層維度與26×26的特征圖保持一致進(jìn)行后續(xù)的處理.
同樣26×26的張量也經(jīng)過步長(zhǎng)為2的上采樣與第一次下采樣后的特征圖維度相同,同樣深淺層特征融合分別為61層和85層,36層和97層,此外經(jīng)過對(duì)YOLOv3特征融合網(wǎng)絡(luò)的增改,進(jìn)一步將11層與步長(zhǎng)為2 上采樣后的109層特征融合,從而更加充分地發(fā)揮層次結(jié)合的優(yōu)勢(shì). 不同尺寸的特征圖的感受野映射原始圖片區(qū)域大小不同,將語義更強(qiáng)但尺寸更小的特征圖增加分辨率,融合更多語義信息達(dá)到多尺度檢測(cè)的目的. SAR圖像中艦船目標(biāo)相比其他目標(biāo)有其獨(dú)有的特點(diǎn),本文考慮表1中多種特征設(shè)計(jì)網(wǎng)絡(luò)結(jié)構(gòu).
SAR圖像中的艦船若處在運(yùn)動(dòng)狀態(tài)中通常會(huì)展現(xiàn)尾跡,在圖像中體現(xiàn)為船尾后的白色像素軌跡,這也是識(shí)別為艦船目標(biāo)的重要特征,通過在特征融合之前增加卷積層數(shù),更有效地提取目標(biāo)的局部特征.
此外,實(shí)驗(yàn)中使用的為10 m分辨率的SAR圖像,根據(jù)查閱常用民用艦船的最大最小尺寸約為10 m到460 m,考慮船身的長(zhǎng)寬比及高度等特點(diǎn),映射到圖像中像素約占10到200像素點(diǎn),在檢測(cè)框篩選階段設(shè)置相應(yīng)的閾值篩選掉不符合尺度的目標(biāo),同時(shí)設(shè)置船身長(zhǎng)寬比例臨界值為1到10,目標(biāo)長(zhǎng)寬比例越界的篩選掉. 同樣,除非在港口停泊處,在海面艦船航向中,方向基本水平一致,通過計(jì)算初步篩選目標(biāo)艦船的斜率考慮艦船集群的大致航行方向計(jì)算平均斜率,在檢測(cè)框篩選階段篩選目標(biāo)斜率與平均斜率差值大于0.5的目標(biāo),船身與水平方向的斜率可以由目標(biāo)像素的坐標(biāo)位置(Xmin,Ymin),(Xmax,Ymax)推算得出,見圖6.
1.1.3 ? 損失函數(shù)設(shè)置
網(wǎng)絡(luò)將輸入圖像劃分成S×S個(gè)網(wǎng)格,每個(gè)網(wǎng)格會(huì)預(yù)先產(chǎn)生3種尺寸的邊界框,若網(wǎng)格中心點(diǎn)置于目標(biāo)則會(huì)由其負(fù)責(zé)檢測(cè). 每個(gè)網(wǎng)格預(yù)測(cè)出檢測(cè)物體邊界框的4個(gè)偏移坐標(biāo)、以及置信度得分,但因?yàn)閅OLOv3采用了多個(gè)尺度的特征融合,邊界框的實(shí)際數(shù)量較大. 因?yàn)槊糠N規(guī)模特征圖對(duì)應(yīng)4個(gè)邊界框,所以得到的張量是S×S×[3×(4+1+80)]即255的張量深度,其中包含邊框左上角的橫縱坐標(biāo)和邊框的長(zhǎng)寬、邊框置信度以及默認(rèn)80種分類預(yù)測(cè).
損失函數(shù)為網(wǎng)絡(luò)預(yù)測(cè)結(jié)果與真實(shí)結(jié)果之間的偏差,這里損失函數(shù)由邊框的位置誤差、邊框的置信度誤差和對(duì)象分類的誤差三部分組成.
通過設(shè)置預(yù)測(cè)邊界框與真實(shí)邊界框的交并比來評(píng)估位置誤差(見圖7),在使用非極大抑制法篩選時(shí)考慮真實(shí)目標(biāo)框與預(yù)測(cè)框之間的重疊面積和邊框中心點(diǎn)位置,加速回歸效率,使用DIoU(Distance-IoU)邊框回歸機(jī)制(見圖8).
IoU的測(cè)量標(biāo)準(zhǔn)只有bounding box與ground truth的面積重疊比率,考慮加入兩個(gè)框之間相對(duì)距離與并集所在最小矩形的相對(duì)大小,如下式:
式中:c表示bounding box的中心,c*表示ground truth的中心,E為對(duì)兩點(diǎn)計(jì)算歐幾里得度量,在二維圖像上即兩點(diǎn)間距離,d表示兩者并集所在最小矩形的對(duì)角線長(zhǎng)度,通過這種IoU損失可在預(yù)測(cè)框與真實(shí)框分離或中心點(diǎn)處于同一水平線時(shí),由于閉包約束可以更快地降低損失,加快收斂.
式中:w和h分別是ground truth的寬和高,x和y為左上角坐標(biāo)點(diǎn),α和β為權(quán)重平衡因子,共S × S個(gè)柵格,B為當(dāng)前柵格中預(yù)測(cè)框總數(shù),Kobji ? ?為i號(hào)柵格中檢測(cè)到的目標(biāo),Kobjij ? ?為i號(hào)柵格中編號(hào)為j的預(yù)測(cè)框檢測(cè)到的目標(biāo),Knoobjij ? ? ?為i號(hào)柵格中編號(hào)為j的預(yù)測(cè)框未檢測(cè)到的目標(biāo). Cji為預(yù)測(cè)框是否負(fù)責(zé)某個(gè)對(duì)象的參數(shù)置信度分?jǐn)?shù),P ji為分類概率,對(duì)應(yīng)的真實(shí)框參數(shù)信息分別為.
1)預(yù)測(cè)框的位置誤差:
Kobjij ? ?會(huì)將DIoU比較大的那個(gè)預(yù)測(cè)框加入誤差計(jì)算. 對(duì)于尺寸較大對(duì)象框的長(zhǎng)寬,通過取平方根,以避免靈敏度降低,同時(shí)降低誤差敏感性較大的小尺寸對(duì)象的作用,所以使用平方根平衡兩種尺寸預(yù)測(cè)框?qū)ξ恢谜`差產(chǎn)生的影響.
2)預(yù)測(cè)框的置信度誤差:
根據(jù)交叉熵來表示置信度誤差,包括邊界框是否為前后景及是否包含目標(biāo)的置信分?jǐn)?shù),為避免非目標(biāo)置信分?jǐn)?shù)對(duì)整體置信誤差的負(fù)面影響過大,產(chǎn)生混淆,通過乘以權(quán)重因子β減少不含檢測(cè)目標(biāo)的預(yù)測(cè)框?qū)p失函數(shù)的作用占比,這里設(shè)置β ?= -0.3.
3)對(duì)象分類的誤差:
若i號(hào)柵格編號(hào)為j的預(yù)測(cè)框中不包含目標(biāo),此項(xiàng)誤差損失不會(huì)參與計(jì)算,對(duì)象分類的損失誤差同樣使用交叉熵?fù)p失函數(shù)進(jìn)行收斂.
1.2 ? 模型壓縮
通常情況下經(jīng)過卷積神經(jīng)網(wǎng)絡(luò)多輪訓(xùn)練所得的模型中會(huì)存在冗余信息,隨著模型復(fù)雜度的增加,所得的模型需要計(jì)算的浮點(diǎn)數(shù)操作會(huì)越來越大,模型體積也會(huì)過大,這樣不利于模型在存儲(chǔ)空間、運(yùn)算資源受限的平臺(tái)上部署使用,因此需要針對(duì)網(wǎng)絡(luò)模型特點(diǎn)對(duì)其進(jìn)行壓縮操作,本文用于深度壓縮的方法有權(quán)值參數(shù)共享和剪枝兩種.
1.2.1 ? 權(quán)值參數(shù)共享
權(quán)重參數(shù)共享可以顯著減少網(wǎng)絡(luò)所使用的參數(shù)量,圖片經(jīng)過卷積操作后,與特征圖之間的映射關(guān)系存儲(chǔ)了大量參數(shù),通過隨機(jī)散列函數(shù)將參數(shù)重分配,使得部分重復(fù)參數(shù)可以共同使用,網(wǎng)絡(luò)參數(shù)矩陣經(jīng)過聚類等方式重新存儲(chǔ),使用較少的參數(shù)可以替換原參數(shù)矩陣.
權(quán)重參數(shù)共享存儲(chǔ)如圖9所示,假設(shè)兩層神經(jīng)元之間的參數(shù)由矩陣V表示,經(jīng)過散列存儲(chǔ)的參數(shù)集由R表示,重新分配的參數(shù)經(jīng)過不同散列函數(shù)映射,由原來28個(gè)參數(shù)降低到6個(gè),壓縮了4倍,由于原來重復(fù)的參數(shù)信息都在集合R中,基本上保持泛化性能的同時(shí),大大減少了神經(jīng)網(wǎng)絡(luò)的存儲(chǔ)需求.
1.2.2 ? 剪枝
神經(jīng)網(wǎng)絡(luò)的各層連接通常如圖10所示,相鄰兩層的的神經(jīng)元連接數(shù)目較多,其中有很多冗余單元,如果不對(duì)密集網(wǎng)絡(luò)進(jìn)行裁剪操作會(huì)產(chǎn)生大量浮點(diǎn)乘法計(jì)算. 兩層之間每條連接線都有相應(yīng)的權(quán)值,通過去除權(quán)值貢獻(xiàn)較低的連接,即將較小的權(quán)重置零來去除神經(jīng)鍵,若某一神經(jīng)元與上下兩層的連接權(quán)重都為零則去除次神經(jīng)元,這樣在基本保證模型準(zhǔn)確率的前提下大大減少了參數(shù)量,將原權(quán)值矩陣稀疏化,從而降低網(wǎng)絡(luò)的復(fù)雜度.
裁剪部分主要針對(duì)BN層進(jìn)行,BN層引入了γ和β兩個(gè)可學(xué)習(xí)重構(gòu)參數(shù). 針對(duì)每次反向傳播過程,對(duì)L1正則梯度和BN層的梯度進(jìn)行結(jié)合,設(shè)置一個(gè)有序列表存儲(chǔ)裁剪BN層中γ參數(shù),設(shè)置裁剪閾值為0.9進(jìn)行裁剪. 未經(jīng)過閾值篩選的γ 通道去掉其權(quán)值大小,重新得到本層的結(jié)構(gòu)并將β參數(shù)與后續(xù)的卷積模塊中BN的運(yùn)行方差參數(shù)結(jié)合計(jì)算.
2 ? 實(shí)驗(yàn)結(jié)果與分析
2.1 ? 實(shí)驗(yàn)平臺(tái)與數(shù)據(jù)集
實(shí)驗(yàn)所使用的計(jì)算機(jī)硬件平臺(tái)是64位Windows10操作系統(tǒng),中央處理器為Intel(R) Core(TM) i5-8300H CPU@ 2.3GHz,獨(dú)立顯卡型號(hào)為NVIDIA GTX 1080,16 GB內(nèi)存,CUDA加速環(huán)境為CUDA 8.0和cudnn 6.0,采用的網(wǎng)絡(luò)開發(fā)框架為Darknet.
實(shí)驗(yàn)數(shù)據(jù)集采集自歐洲航天局哥白尼計(jì)劃(GMES)中的地球觀測(cè)衛(wèi)星哨兵一號(hào)(Sentinel-1)衛(wèi)星所拍攝的雷達(dá)影像,采集時(shí)間為2017-06-26 T 23:03:40.552573到2017-06-26 T 23:04:05.551041,數(shù)據(jù)類型為IW GRD(干涉寬幅模式的地距多視產(chǎn)品),對(duì)諾??烁邸⑹サ貋喐绺?、迪拜港等大型港口附近的艦船圖像目標(biāo)進(jìn)行處理,制作了PASCAL-VOC格式艦船目標(biāo)遙感數(shù)據(jù)集,人工標(biāo)注了4種不同種類的民用艦船. SAR圖像分為方位和距離分辨率,方位分辨率為不同波束的方位向所能辨別的兩目標(biāo)之間最小距離,距離分辨率為同一方位角距離雷達(dá)不同被區(qū)分的最小距離.
該數(shù)據(jù)集包含不同距離分辨率(5 ~ 20 m)以及不同背景下(近岸、近海)不同尺寸的艦船目標(biāo),樣本場(chǎng)景的多樣性保證了訓(xùn)練出來的模型有更強(qiáng)的泛化能力,同時(shí)采用旋轉(zhuǎn)和反轉(zhuǎn)兩種方式對(duì)數(shù)據(jù)集進(jìn)行樣本擴(kuò)充,共計(jì)1 241個(gè)目標(biāo),以4 ∶ 1劃分為訓(xùn)練集和測(cè)試集. 本文使用開源工具 LabelImg 對(duì)數(shù)據(jù)集中的遙感圖像進(jìn)行了人工標(biāo)注,圖片標(biāo)注后,都會(huì)對(duì)應(yīng)生成相同文件名且后綴為.xml 的文件,該文件依次記錄了對(duì)應(yīng)圖片中所有標(biāo)注框的位置和目標(biāo)類別等信息.
2.2 ? 網(wǎng)絡(luò)訓(xùn)練
使用在ImageNet數(shù)據(jù)集上預(yù)先訓(xùn)練好的特征提取網(wǎng)絡(luò)模型,對(duì)訓(xùn)練參數(shù)進(jìn)行調(diào)整.
模型優(yōu)化算法的方法采用隨機(jī)梯度下降法(SGD),批量大小取64更新控制訓(xùn)練樣本量,學(xué)習(xí)速率在訓(xùn)練開始為0.001,設(shè)置學(xué)習(xí)率衰減系數(shù)0.000 5防止過擬合,為使批處理訓(xùn)練時(shí)權(quán)值參數(shù)震蕩加速收斂,使用帶有動(dòng)量因子梯度代替原梯度進(jìn)行參數(shù)更新,默認(rèn)設(shè)為 0.9. 訓(xùn)練過程中損失函數(shù)的變化情況如圖11所示,經(jīng)過20 000步迭代后網(wǎng)絡(luò)基本收斂.
2.3 ? 實(shí)驗(yàn)結(jié)果評(píng)估
為評(píng)估算法的檢測(cè)效果,采用如下式所示標(biāo)準(zhǔn)對(duì)檢測(cè)器的性能進(jìn)行定量化描述:
式中:Ntp表示正確檢測(cè)的樣本數(shù),Nfp表示錯(cuò)誤檢測(cè)的樣本數(shù),Nfn表示漏檢目標(biāo)的樣本數(shù),準(zhǔn)確率(precision)表示在所有被預(yù)測(cè)的目標(biāo)樣本中,預(yù)測(cè)正確的比例,召回率(recall)表示預(yù)測(cè)正確的樣本數(shù)在所有真實(shí)樣本數(shù)中的比例. 同時(shí),使用如下式所示的F1值來表示算法的綜合性能.
首先對(duì)測(cè)試集的實(shí)驗(yàn)結(jié)果進(jìn)行分析,測(cè)試結(jié)果如表2所示.
圖12給出一些典型的測(cè)試結(jié)果例圖,其中檢測(cè)出的各類目標(biāo)分別用不同的方框標(biāo)記出來. 不同場(chǎng)景下算法的檢測(cè)結(jié)果如圖13所示. 其中圖13的第一行、第二行為海面艦船目標(biāo)檢測(cè)結(jié)果,該場(chǎng)景下艦船的特點(diǎn)是目標(biāo)相對(duì)背景較小,容易造成漏檢以及定位不準(zhǔn)的問題,部分目標(biāo)有較嚴(yán)重的拖尾痕跡,算法可以較為準(zhǔn)確地完成對(duì)海面艦船目標(biāo)的檢測(cè). 圖13的第三行為復(fù)雜背景下的近岸艦船目標(biāo)檢測(cè),該類艦船目標(biāo)特點(diǎn)是背景復(fù)雜,艦船目標(biāo)與岸邊建筑難以區(qū)分,有若干港口處模糊小目標(biāo)漏檢. 可以看出,算法對(duì)河道、港口等多種背景下不同尺寸的艦船目標(biāo)均有較好的檢測(cè)效果.其次,為測(cè)試算法的泛化能力,同時(shí)準(zhǔn)備了馬六甲海峽、安特衛(wèi)普港和長(zhǎng)三角等大型港口的若干原始大幅面SAR圖像進(jìn)行測(cè)試,測(cè)試圖片幅面平均為25501×16731像素,對(duì)比另外兩種檢測(cè)算法部分檢測(cè)結(jié)果如圖13所示,實(shí)驗(yàn)表明,本文方法完成端到端的檢測(cè),平均準(zhǔn)確率為91.39%,召回率為93.03%,F(xiàn)1值為92.20%,可以達(dá)到對(duì)SAR圖像艦船目標(biāo)的有效處理.
表3以幀/s(Frame per second)給出了檢測(cè)程序運(yùn)行的效率,有助于評(píng)估本文方法的實(shí)時(shí)數(shù)據(jù)處理和目標(biāo)檢測(cè)的性能.
表3同時(shí)給出了本文方法與其它目標(biāo)檢測(cè)算法在艦船數(shù)據(jù)集上的測(cè)試性能對(duì)比,本文方法的準(zhǔn)確率為91.39%,比SSD和Faster-RCNN分別提高了4.03%和2.13%,得益于網(wǎng)絡(luò)結(jié)合深層特征的多尺度檢測(cè),采用特征映射模塊和殘差網(wǎng)絡(luò)模塊,獲得了更豐富的語義信息.
本文對(duì)實(shí)驗(yàn)用的模型進(jìn)行了壓縮,并測(cè)試了壓縮后模型的識(shí)別能力. 良好的模型壓縮方法在保證不損害檢測(cè)效率的前提下追求更大的空間節(jié)省和更快的運(yùn)行效率. 表4描述了模型壓縮前后的識(shí)別正確率、壓縮率以及效率. 由表可知,本文提出的權(quán)值參數(shù)共享+剪枝的方法將模型從272 MB壓縮到了34 MB,壓縮了8倍,并且精度僅損失1.23%,證實(shí)了壓縮方法的有效性.
3 ? 結(jié) ? 論
本文設(shè)計(jì)了一種基于YOLOv3框架的水面SAR遙感圖像中艦船目標(biāo)快速識(shí)別和分類方法,通過采集并標(biāo)注SAR圖像艦船目標(biāo)樣本,制作相應(yīng)的數(shù)據(jù)集用于模型訓(xùn)練,結(jié)合殘差單元與多尺度訓(xùn)練,增強(qiáng)網(wǎng)絡(luò)對(duì)不同尺寸目標(biāo)尤其小目標(biāo)的良好適應(yīng)性,針對(duì)艦船目標(biāo)特點(diǎn)設(shè)計(jì)網(wǎng)絡(luò)檢測(cè)、篩選過程. 采用基于相對(duì)距離的邊框交并比策略與權(quán)重因子的損失函數(shù),提高收斂速度與檢測(cè)效果,使用權(quán)值參數(shù)共享和剪枝方法對(duì)模型進(jìn)行輕量化處理. 端到端的訓(xùn)練簡(jiǎn)化了訓(xùn)練流程,無需人為進(jìn)行子問題的劃分,且通過實(shí)驗(yàn)表明模型對(duì)新數(shù)據(jù)集有較好的適應(yīng)能力. 同時(shí)本文研究也為星載SAR等目標(biāo)識(shí)別系統(tǒng)的設(shè)施提出了新的思路,基于卷積神經(jīng)網(wǎng)絡(luò)等深度學(xué)習(xí)方法的SAR圖像艦船目標(biāo)檢測(cè)預(yù)計(jì)將面向?qū)崟r(shí)、廣域、高速、精準(zhǔn)的應(yīng)用需求不斷發(fā)展完善.
參考文獻(xiàn)
[1] ? ?尹雅,黃海,張志祥. 基于光學(xué)遙感圖像的艦船目標(biāo)檢測(cè)技術(shù)研究[J]. 計(jì)算機(jī)科學(xué),2019,46(3):82—87.
YIN Y,HUANG H,ZHANG Z X. Research on ship detection technology based on optical remote sensing image [J]. Computer Science,2019,46(3):82—87. (In Chinese)
[2] ? ?汪元美. 合成孔徑雷達(dá)參量對(duì)圖象質(zhì)量的影響[J]. 湖南大學(xué)學(xué)報(bào)(自然科學(xué)版),1983(1):28—49.
WANG Y M. Influence of SAR parameters on image quality[J]. Journal of Hunan University(Natural Sciences),1983(1):28—49.(In Chinese)
[3] ? ?NAN J,WANG C,ZHANG B,et al. Ship wake CFAR detection algorithm in SAR images based on length normalized scan[C]//2013 IEEE International Geoscience & Remote Sensing Symposium Igarss. July 21-26,2013,Melbourne,VIC,Australia,IEEE,2013:3562—3565.
[4] ? ?AVOLIO C,COSTANTINI M,MARTINO G D,et al. A method for the reduction of ship-detection false alarms due to SAR azimuth ambiguity[C]//2014 IEEE Geoscience & Remote Sensing Symposium. July 13-18,2014,Quebec city,QC,Canada,IEEE,2014:3694—3697.
[5] ? ?KRIZHEVSKY A,SUTSKEVER I,HINTON G E. Imagenet classification with deep convolutional neural networks[J]. Communication of the ACM,2017,60(6):84—90.
[6] ? ?GIRSHICK R,DONAHUE J,DARRELL T,et al. Rich feature hierarchies for accurate object detection and semantic segmentation[C]//2014 IEEE conference on computer vision and pattern recognition,June 23-28,2014,Columbus,OH,USA:IEEE,2014:580—587.
[7] ? ?GIRSHICK R. Fast R-CNN[C]//2015 IEEE International Conference on Computer Vision,Dec.7-13,2015,Santiago,Chile,IEEE,2015: 1440—1448.
[8] ? ?REN S,HE K,GIRSHICK R,et al. Faster R-CNN: Towards real-time object detection with region proposal networks [J]. IEEE Transactions on Pattern Analysis & Machine Intelligence,2015,39(6): 1137—1149.
[9] ? ?DAI J F,LI Y,HE K M,el at. R-FCN: object detection via region-based fully convolutional networks [EB/OL]. 2016:arXiv:1605.06409[cs.cv]. https://arXiv.org/abs/1605.06409.
[10] ?HE K,GKIOXARI G,DOLLAR P,et al. Mask R-CNN[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,2020, 42(2):386—397.
[11] ?REDMON J,DIVVALA S,GIRSHICK R,et al. You only look once: Unified,real-time object detection[C]//2016 IEEE Conference on Computer Vision and Pattern Recognition,June 27-30,2016,Las Vegas,NV,USA,2016: 779—788.
[12] ?LIU W,ANGUELOV D,ERHAN D,et al. SSD: Single shot multibox detector[M]//Computer vision-ECCV 2016,Cham:Springer International Publishing,2016,21—37.
[13] ?REDMON J,F(xiàn)ARHADI A. YOLO9000: Better,faster,stronger[C]//2017 IEEE Conference on Computer Vision and Pattern Recognition,July 21-26,2017,Honolulu,HI,USA,IEEE,2017:6517—6525.
[14] ?REDMON J,F(xiàn)ARHADI A. Yolov3: An incremental improvement [J]. ArXiv Preprint ArXiv:1804.02767,2018.
[15] ?LIN T Y ,GOYAL P ,GIRSHICK R ,et al. Focal loss for dense object detection[J]. IEEE Transactions on Pattern Analysis & Machine Intelligence,2020,42(2):318—327.
[16] ?ZHANG S,WEN L,BIAN X,et al. Single-shot refinement neural network for object detection[C]// Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition,Jun. 19-21,2018,Salt Lake City,Utah,USA,IEEE. 2018: 4203—4212.
[17] ?ZHAO Q,SHENG T,WANG Y,et al. M2Det: A single-shot object detector based on multi-level feature pyramid network[J]. Proceedings of the AAAI Conference on Artificial Intelligence,2019,33:9259—9266.
[18] ?劉潔瑜,趙彤,劉敏. 基于RetinaNet的SAR圖像艦船目標(biāo)檢測(cè)[J]. 湖南大學(xué)學(xué)報(bào)(自然科學(xué)版),2020,47(2):85—91.
LIU J Y,ZHAO T,LIU M. Ship target detection in SAR image based on RetinaNet[J]. Journal of Hunan University(Natural Sciences),2020,47(2):85—91.(In Chinese)
[19] ?GUI Y C,LI X H,XUE L,et al. A scale transfer convolution network for small ship detection in SAR images[C]//2019 IEEE 8th Joint International Information Technology and Artificial Intelligence Conference (ITAIC). Chongqing,China,IEEE,2019:1845—1849.
[20] ?陳慧元,劉澤宇,郭煒煒,等. 基于級(jí)聯(lián)卷積神經(jīng)網(wǎng)絡(luò)的大場(chǎng)景遙感圖像艦船目標(biāo)快速檢測(cè)方法[J]. 雷達(dá)學(xué)報(bào),2019,8(3):413—424.
CHEN H Y,LIU Z Y,GUO W W,et al. Fast detection method of ship target in large scene remote sensing image based on cascaded convolutional neural network[J] . Journal of Radars,2019,8(3):413—424. (In Chinese)
[21] ?BENTES C,VELOTTO D,TINGS B. Ship classification in TerraSAR-X images with convolutional neural networks[J]. IEEE Journal of Oceanic Engineering,2017,43(1):258—266.
[22] ?李健偉,曲長(zhǎng)文,彭書娟,等. 基于卷積神經(jīng)網(wǎng)絡(luò)的SAR圖像艦船目標(biāo)檢測(cè)[J]. 系統(tǒng)工程與電子技術(shù),2018,40(9):1953—1959.
LI J W,QU C W,PENG S J,et al. Ship target detection in SAR image based on convolutional neural network[J]. Journal of Systems Engineering and Electronics,2018,40(9):1953—1959. (In Chinese)
[23] ?楊龍,蘇娟,黃華,等. 一種基于深層次多尺度特征融合CNN的SAR圖像艦船目標(biāo)檢測(cè)算法[J]. 光學(xué)學(xué)報(bào),2020,40(2):132—140.
YANG L,SU J,HUANG H,et al. SAR Ship detection based on convolutional neural network with deep multiscale feature fusion[J]. Acta Optica Sinica,2020,40(2):132—140. (In Chinese)
收稿日期:2020-07-22
基金項(xiàng)目:國家自然科學(xué)基金資助項(xiàng)目(61802186, 61472189),National Natural Science Foundation of China(61802186, 61472189);上海航天科技創(chuàng)新基金(SAST2019-033),SAST Innovation Fund(SAST2019-033)
作者簡(jiǎn)介:魏松杰(1977—),男,天津人,南京理工大學(xué)副教授,博士
通信聯(lián)系人,E-mail:zandyz@njust.edu.cn