亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于CNN的SAR車輛目標(biāo)檢測

        2019-05-18 07:13:32李玉景
        關(guān)鍵詞:檢測模型

        夏 勇 李玉景 吳 濤

        (1.中國電子科技集團(tuán)公司第三十八研究所, 安徽合肥 230088;2.孔徑陣列與空間探測安徽省重點(diǎn)實(shí)驗(yàn)室, 安徽合肥 230088)

        0 引言

        由于合成孔徑雷達(dá)(Synthetic Aperture Radar,SAR)具有遠(yuǎn)距離、穿透云霧植被、全天候?qū)Φ赜^測的特點(diǎn)[1],近些年來其在軍事和民用領(lǐng)域的應(yīng)用也越來越廣泛。但是SAR圖像的圖像特性會(huì)隨著不同的成像參數(shù)、成像姿態(tài)、地物環(huán)境等發(fā)生較大的變化,使得SAR圖像的目標(biāo)檢測和識別變得非常困難[2]。

        傳統(tǒng)的SAR圖像目標(biāo)檢測方法以恒虛警率(Constant False Alarm Rate,CFAR)檢測算法及其衍生算法的應(yīng)用最為廣泛[3]。但是該方法需要目標(biāo)與背景雜波具有較高的對比度,且假設(shè)背景雜波是滿足某種統(tǒng)計(jì)模型的分布,具有較大的局限性。卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)是人工神經(jīng)網(wǎng)絡(luò)(Artificial Neural Network,ANN)的一種,由于其采用權(quán)值共享的策略來減少參數(shù),對圖像的平移、縮放、傾斜或其他形式的變形具有高度的不變性,因此被廣泛用于二維圖像目標(biāo)的檢測和識別中。CNN在不同階段的學(xué)習(xí)中可以抽象出不同層次的特征,避免了傳統(tǒng)機(jī)器學(xué)習(xí)算法中人工設(shè)計(jì)特征和分類器的過程。

        CNN以其衍生算法在圖像識別領(lǐng)域發(fā)展迅速[4-9]。 Faster-RCNN框架是從R-CNN[10]和 Fast-RCNN[11]迭代發(fā)展而來,把目標(biāo)檢測識別的步驟(特征區(qū)域生成、特征提取、分類和候選區(qū)域回歸)統(tǒng)一到一個(gè)深度網(wǎng)絡(luò)的框架之內(nèi),可以取得更快的檢測速度和更好的檢測精度[12]。其提出區(qū)域生成網(wǎng)絡(luò)(Region Proposal Network,RPN)來代替Selective Search的方法預(yù)測建議框,不僅可以生成質(zhì)量高、數(shù)量少的建議框,而且由于RPN的預(yù)測可以在GPU中完成,且卷積網(wǎng)和Fast-RCNN可以部分共享,所以大幅提升了目標(biāo)檢測的速度。

        本文以Faster-RCNN為基本框架,利用深度學(xué)習(xí)客戶端對預(yù)處理后的樣本進(jìn)行擴(kuò)充和訓(xùn)練,分別使用ZF和VGG-16網(wǎng)絡(luò)進(jìn)行端到端的車輛目標(biāo)檢測實(shí)驗(yàn)。

        1 樣本數(shù)據(jù)集

        目前在SAR圖像檢測和識別領(lǐng)域,由于數(shù)據(jù)源的限制,使用較多的公開數(shù)據(jù)集是MSTAR數(shù)據(jù)集和MiniSAR數(shù)據(jù)集。MSTAR數(shù)據(jù)集中每一幅圖像的尺寸為128×128,包含3大類7種型號的目標(biāo),數(shù)據(jù)集中對一種型號的目標(biāo)都采集了不同方位角和俯仰角的圖像。該數(shù)據(jù)集由于圖像尺寸較小且背景雜波的干擾很小,一般用于目標(biāo)識別研究,不適用于大場景圖像的目標(biāo)檢測。MiniSAR數(shù)據(jù)集的圖像尺寸為2 510×1 638,圖像中包含多種姿態(tài)的目標(biāo),且包含多種干擾信號(建筑物,樹木等),但是數(shù)據(jù)量很少,無法對模型進(jìn)行充分訓(xùn)練,只能作為驗(yàn)證集檢驗(yàn)?zāi)P皖A(yù)測的精度。

        在本文中使用的數(shù)據(jù)是在某地區(qū)布設(shè)不同類型(包括大巴、吊車和卡車)、不同擺放角度的車輛目標(biāo)后,利用機(jī)載的全極化X波段雷達(dá)對該布設(shè)場景進(jìn)行多個(gè)航次的成像后獲取的。對成像后的slc數(shù)據(jù)進(jìn)行數(shù)據(jù)預(yù)處理,得到方位向和距離向分辨率為0.3 m的地距幅度圖像。以約3 000× 3 000的大小對這些地距幅度圖像進(jìn)行裁剪后,得到17幅包含車輛目標(biāo)和復(fù)雜背景全極化圖像的數(shù)據(jù)庫。該數(shù)據(jù)庫的示例如圖1所示。

        圖1 全極化數(shù)據(jù)示意圖

        人工對68(17×4,17個(gè)架次4個(gè)不同極化方式)幅圖像中的車輛目標(biāo)進(jìn)行標(biāo)注,參考VOC2007數(shù)據(jù)格式生成對應(yīng)的xml文件。利用python +pyQT5編寫的深度學(xué)習(xí)訓(xùn)練客戶端,對模型進(jìn)行訓(xùn)練和測試。該客戶端如圖2所示,其相比于原始搭建的py-faster-rcnn工程有以下幾點(diǎn)優(yōu)勢:

        圖2 深度學(xué)習(xí)客戶端截圖

        1) 原始的py-faster-rcnn工程數(shù)據(jù)集的準(zhǔn)備必須按照固定的格式放在固定的路徑下,例如訓(xùn)練和測試的數(shù)據(jù)、標(biāo)注xml文件以及訓(xùn)練和測試數(shù)據(jù)的列表必須放在py-faster-rcnndataVOCdevkit2007 VOC2007路徑下的JPEGImages,Annotations和ImageSets文件夾下;而使用客戶端進(jìn)行訓(xùn)練時(shí),只需要提供一個(gè)包含數(shù)據(jù)和xml文件絕對路徑的文件列表即可。

        2) 客戶端集成了數(shù)據(jù)裁剪和旋轉(zhuǎn)的功能,可以把輸入的圖像數(shù)據(jù)裁剪為長寬固定為1 000× 1 000的圖像(Faster-RCNN模型不適用于長寬太大的SAR圖像),設(shè)置圖像旋轉(zhuǎn)的角度間隔對裁剪后的圖像進(jìn)行旋轉(zhuǎn),用來擴(kuò)充數(shù)據(jù)集。

        3) 原始的py-faster-rcnn工程在訓(xùn)練和測試時(shí),想要添加或者刪除目標(biāo)檢測識別的種類時(shí),需要修改相應(yīng)的python代碼;而客戶端則只需要提供目標(biāo)分類文件,用戶可以自定義識別的種類。

        2 Faster-RCNN框架

        該網(wǎng)絡(luò)模型的設(shè)計(jì)參考Faster-RCNN的基本框架,其網(wǎng)絡(luò)結(jié)構(gòu)如圖3所示,主要由特征提取層、RPN層、ROI池化層和分類提取層組成。

        圖3 網(wǎng)絡(luò)結(jié)構(gòu)示意圖

        1) 特征提取層主要包含多個(gè)卷積層、激活層和池化層等,其通過提取圖像的特征圖來作為候選提取層和分類識別層的輸入。特征提取層根據(jù)網(wǎng)絡(luò)的深度,可以分為VGG-16網(wǎng)絡(luò)和ZF網(wǎng)絡(luò)兩種,VGG-16網(wǎng)絡(luò)包含13個(gè)卷積層、13個(gè)激活函數(shù)層和4個(gè)池化層,而ZF網(wǎng)絡(luò)則包含5個(gè)卷積層、5個(gè)激活函數(shù)層和2個(gè)池化層,兩個(gè)模型輸出的特征圖大小都為原圖的1/16。由于卷積層的數(shù)目更少,因此ZF模型相對于VGG-16模型訓(xùn)練和測試的速度更快。在本文的實(shí)驗(yàn)中,對ZF和VGG模型都進(jìn)行了實(shí)驗(yàn),實(shí)驗(yàn)效果的對比展示在第4節(jié)。

        2) 區(qū)域生成網(wǎng)絡(luò)通過在特征提取層輸入的最后一層特征圖中滑窗提取候選框,對特征圖中的每一個(gè)像素點(diǎn)設(shè)置9個(gè)大小和長寬比不同的錨點(diǎn)(anchor),并結(jié)合邊框回歸初步得到目標(biāo)的候選框。因?yàn)閷?shí)驗(yàn)中車輛目標(biāo)相對于輸入的1 000× 1 000的圖像而言較小,因此增加了3個(gè)小尺寸的錨點(diǎn),設(shè)置了12個(gè)大小和長寬比不同的錨點(diǎn)。

        3) ROI池化層收集輸入的特征圖和候選框,綜合這些信息后提取候選框特征圖,送入后續(xù)的分類識別層判定目標(biāo)類別。

        4) 分類識別層對候選框進(jìn)行分類識別,并進(jìn)行更精確的邊框回歸,最終實(shí)現(xiàn)對復(fù)雜背景SAR圖像的目標(biāo)檢測。

        3 模型訓(xùn)練

        訓(xùn)練的客戶端把64幅大約3 000×3 000的輸入圖像裁剪為固定大小的1 000×1 000的圖像,并對每個(gè)裁剪后的樣本以30°的旋轉(zhuǎn)間隔進(jìn)行數(shù)據(jù)的擴(kuò)充,最后得到訓(xùn)練集有5 676個(gè)樣本,驗(yàn)證集有2 772個(gè)樣本,剩下的4幅原始圖像以同樣的方式制作成660個(gè)樣本作為測試集。為了測試訓(xùn)練得到的模型是否適應(yīng)不同場景下的目標(biāo)檢測,因此在MiniSAR數(shù)據(jù)集中選取部分?jǐn)?shù)據(jù)制作成968個(gè)測試樣本作為補(bǔ)充,增加到測試集中。

        本文使用ZF和VGG-16網(wǎng)絡(luò)在樣本數(shù)據(jù)集上進(jìn)行訓(xùn)練驗(yàn)證和測試,訓(xùn)練時(shí)兩種模型的參數(shù)文件配置如下:基礎(chǔ)學(xué)習(xí)率1×10-4,權(quán)值衰減率 5×10-4,迭代次數(shù)分別選取1 000, 5 000和10 000次,可以得到總共6個(gè)模型輸出文件。

        訓(xùn)練時(shí)采用全監(jiān)督訓(xùn)練模式,整個(gè)訓(xùn)練過程分為兩部分,第一部分利用遷移學(xué)習(xí)對網(wǎng)絡(luò)模型的部分參數(shù)進(jìn)行預(yù)訓(xùn)練;第二部分是利用樣本數(shù)據(jù)集對模型進(jìn)行再訓(xùn)練,完成端到端的車輛目標(biāo)檢測。由于SAR圖像的數(shù)據(jù)相對較少,無法充分從零開始訓(xùn)練網(wǎng)絡(luò),故引入遷移學(xué)習(xí)。在本試驗(yàn)中遷移學(xué)習(xí)使用的具體步驟是:

        1) 針對ZF和VGG-16網(wǎng)絡(luò)分別利用大型數(shù)據(jù)集ILSVRC-2012對網(wǎng)絡(luò)中的隨機(jī)初始化參數(shù)進(jìn)行預(yù)訓(xùn)練。

        2) 保留訓(xùn)練好的模型的特征提取層參數(shù),利用擴(kuò)充的SAR數(shù)據(jù)集對候選提取層和分類識別層進(jìn)行再訓(xùn)練。

        3) 利用再訓(xùn)練好模型完成目標(biāo)檢測和識別。

        雖然預(yù)訓(xùn)練數(shù)據(jù)集是光學(xué)圖像,與SAR圖像有一定出入,但通過大量訓(xùn)練使得模型參數(shù)擬合到可以檢測識別目標(biāo),其效果遠(yuǎn)遠(yuǎn)優(yōu)于初始化參數(shù),并能大幅減少網(wǎng)絡(luò)的訓(xùn)練開銷。如圖4所示,采用遷移學(xué)習(xí)的方法(綠色)與直接訓(xùn)練的方法(藍(lán)色)相比明顯加快了網(wǎng)絡(luò)的收斂速度,而且收斂后的損失值要小于直接訓(xùn)練值。其次,該方法可以有效降低訓(xùn)練網(wǎng)絡(luò)對大量樣本的需求。

        圖4 損失曲線對比圖

        4 實(shí)驗(yàn)結(jié)果和分析

        基于Faster-RCNN框架端到端的模型訓(xùn)練和測試流程如圖5所示。

        圖5 復(fù)雜背景SAR目標(biāo)檢測流程

        4.1 平臺(tái)配置和評價(jià)標(biāo)準(zhǔn)

        本文實(shí)驗(yàn)使用平臺(tái)的配置為Win7系統(tǒng),處理器為Intel Xeon CPU E5-2637 v2 @3.5 GHz,RAM為16 GB,GPU選擇的是NVIDIA Tesla K40m,其顯存為12 GB,計(jì)算能力為3.5。

        兩種模型均采用平均準(zhǔn)確率(mean Average Precision, mAP)作為檢測效果評價(jià)標(biāo)準(zhǔn)。mAP是根據(jù)查全率和查準(zhǔn)率所繪制曲線的積分,解決了傳統(tǒng)評估標(biāo)準(zhǔn)查全率(R)、查準(zhǔn)率(P)和F-Score的單點(diǎn)值局限性。因此,mAP可以更有效地綜合評估算法的有效性和準(zhǔn)確性。其計(jì)算公式為

        4.2 實(shí)驗(yàn)結(jié)果與分析

        如表1所示,展示了兩種模型在660個(gè)測試集和1 628個(gè)測試集(包含MiniSAR數(shù)據(jù))中的檢測結(jié)果的指標(biāo)統(tǒng)計(jì)。

        表1 指標(biāo)統(tǒng)計(jì)表

        通過對比T1~T6的實(shí)驗(yàn)可以發(fā)現(xiàn)以下幾點(diǎn)結(jié)論:1)由于VGG-16網(wǎng)絡(luò)的層數(shù)更深,所以單張圖像的檢測耗時(shí)也高于ZF網(wǎng)絡(luò);2)隨著迭代次數(shù)的增加,ZF和VGG-16網(wǎng)絡(luò)在兩種測試集中的mAP也相應(yīng)提高;3)ZF網(wǎng)絡(luò)和VGG-16網(wǎng)絡(luò)在兩種測試集中的mAP十分接近,這說明對于本文實(shí)驗(yàn)的場景,ZF網(wǎng)絡(luò)4個(gè)卷積層所提取的特征已經(jīng)足夠進(jìn)行車輛目標(biāo)的檢測,再增加網(wǎng)絡(luò)的深度并不會(huì)提升車輛目標(biāo)的檢測效果;4)對比兩個(gè)測試集中的檢測結(jié)果,兩種網(wǎng)絡(luò)mAP也十分接近,這說明即使訓(xùn)練迭代次數(shù)設(shè)置為10 000,兩種網(wǎng)絡(luò)也沒有過擬合的現(xiàn)象出現(xiàn)。綜合以上4點(diǎn)分析,下面展示實(shí)驗(yàn)T3在MiniSAR測試集的部分檢測結(jié)果和訓(xùn)練損失曲線,如圖6和圖7所示。

        圖6 ZF網(wǎng)絡(luò)迭代10 000次的檢測結(jié)果

        圖6(b)中圖片為MiniSAR截取的場景之一,其余3張為原始測試集中的場景。對目標(biāo)檢測結(jié)果和真實(shí)的標(biāo)注結(jié)果進(jìn)行統(tǒng)計(jì)如表2所示。可以發(fā)現(xiàn)4張圖片的查準(zhǔn)率達(dá)到90.5%,查全率達(dá)到97.4%,F(xiàn)1-Score達(dá)到93.8%。

        表2 部分場景指標(biāo)統(tǒng)計(jì)表

        圖7中有5類損失值,其中4類為每次訓(xùn)練迭代時(shí)的瞬時(shí)損失值,包括回歸框損失(bbox_loss)、分類層損失(cls_loss)、RPN層分類損失(rpn_cls_ loss)、RPN層回歸框損失(rpn_bbox_loss)。而總的損失(train_total_loss)則是平均損失值,觀察train_total_loss的曲線可以發(fā)現(xiàn),隨著迭代次數(shù)的增加,train_total_loss趨于收斂。

        圖7 損失曲線圖

        5 結(jié)束語

        本文提出了一個(gè)基于Faster-RCNN框架的、端對端的、具備在復(fù)雜背景下進(jìn)行SAR車輛目標(biāo)檢測的方案。對原始樣本進(jìn)行標(biāo)注后,使用深度學(xué)習(xí)客戶端對樣本裁剪并旋轉(zhuǎn)來擴(kuò)充樣本,并設(shè)置相同的訓(xùn)練參數(shù)對ZF和VGG-16網(wǎng)絡(luò)分別進(jìn)行訓(xùn)練。訓(xùn)練完成后的模型分別使用兩種測試集進(jìn)行評價(jià),評價(jià)的結(jié)果表明:在本文實(shí)驗(yàn)場景下,隨著迭代次數(shù)的增加,兩種網(wǎng)絡(luò)的檢測效果都隨著提升;ZF具備更快的檢測時(shí)間以及和VGG-16網(wǎng)絡(luò)相同的檢測效果。選取ZF網(wǎng)絡(luò)迭代10 000次的模型,在1 628幅測試樣本中的mAP達(dá)到0.68,在4幅不同場景的樣本中F1-Score達(dá)到93.8%。雖然基于ZF網(wǎng)絡(luò)訓(xùn)練得到的模型在實(shí)驗(yàn)數(shù)據(jù)集中取得了較好的檢測效果,但是與之相比網(wǎng)絡(luò)層數(shù)更深的VGG-16網(wǎng)絡(luò)并沒有取得預(yù)想中更好的檢測效果,有可能是因?yàn)殡S著網(wǎng)絡(luò)層數(shù)的增加導(dǎo)致網(wǎng)絡(luò)性能下降。因此下一步工作準(zhǔn)備將深度殘差網(wǎng)絡(luò)ResNet和Faster-RCNN框架結(jié)合,實(shí)驗(yàn)?zāi)芊窭肦esNet順序累加殘差塊的特性[13],來解決深度卷積網(wǎng)絡(luò)性能退化的問題。

        猜你喜歡
        檢測模型
        一半模型
        “不等式”檢測題
        “一元一次不等式”檢測題
        “一元一次不等式組”檢測題
        “幾何圖形”檢測題
        “角”檢測題
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
        3D打印中的模型分割與打包
        小波變換在PCB缺陷檢測中的應(yīng)用
        99国产精品丝袜久久久久| 欧美做受又硬又粗又大视频| 女人被弄到高潮的免费视频| 粗一硬一长一进一爽一a级| 国产丝袜精品丝袜一区二区| 日本免费精品免费视频| 脱了老师内裤猛烈进入| 野花社区视频www官网| 久久精品国产6699国产精| 人妻露脸国语对白字幕| 成年av动漫网站18禁| 精品亚洲成a人7777在线观看 | 国产精品女丝袜白丝袜美腿| 九九影院理论片私人影院| 99久久久无码国产精品试看| 久久中文字幕久久久久| 麻豆成人久久精品二区三区免费| 一本久道综合色婷婷五月| 中文字幕日本最新乱码视频| avtt一区| 成av人大片免费看的网站| 国内精品久久久久影院薰衣草| 国产午夜影视大全免费观看 | 999久久久精品国产消防器材| 蜜桃一区二区免费视频观看| 东京热日本av在线观看| 99久久国产综合精品女图图等你| 亚州精品无码人妻久久| 国内精品少妇久久精品| 99精品国产成人一区二区| 亚洲精品国产精品国自产观看| 国产美女av一区二区三区| 国产日产一区二区三区四区五区| 一区二区三区人妻无码| 91视频爱爱| 成人av一区二区三区四区| 久久久久人妻一区精品| 国产成人午夜福利在线观看者 | 亚洲视频一区二区免费看| 中文字幕久久熟女蜜桃| 精品久久久久一区二区国产|