亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于特征融合卷積神經(jīng)網(wǎng)絡(luò)的SAR 圖像目標(biāo)檢測(cè)方法*

        2020-05-11 09:02:16劉志宏李玉峰
        微處理機(jī) 2020年2期
        關(guān)鍵詞:特征提取特征區(qū)域

        劉志宏,李玉峰

        (1.吉林航空維修有限責(zé)任公司吉航民機(jī)公司,吉林132102;2.沈陽(yáng)航空航天大學(xué)電子信息工程學(xué)院,沈陽(yáng)110136)

        1 引 言

        合成孔徑雷達(dá)(Synthetic Aperture Radar, SAR)具有全天時(shí)、全天候及一定穿透能力的特點(diǎn),隨著SAR 技術(shù)的快速發(fā)展,其在偵查,遙感等軍事和民用領(lǐng)域應(yīng)用越來(lái)越廣泛,對(duì)SAR 圖像處理技術(shù)也提出了更高的要求,如何快速準(zhǔn)確地檢測(cè)出SAR 圖像目標(biāo),成為SAR 圖像目標(biāo)檢測(cè)領(lǐng)域需要研究的重要問(wèn)題。

        在傳統(tǒng)的SAR 圖像目標(biāo)檢測(cè)方法中,需要恒虛警率(Constant False Alarm Rate, CFAR)檢測(cè)算法[1-3]應(yīng)用廣泛,絕大多數(shù)CFAR 算法基于局部滑動(dòng)窗口對(duì)SAR 圖像進(jìn)行逐像素檢測(cè),判斷是否超過(guò)某個(gè)門(mén)限,需要目標(biāo)和背景有一定的對(duì)比度,且背景雜波有一定的統(tǒng)計(jì)特性,然而復(fù)雜大場(chǎng)景下,背景雜波較多,其統(tǒng)計(jì)特性難以獲得,檢測(cè)效果也較差。

        卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,CNN)是深度學(xué)習(xí)中的一種人工神經(jīng)網(wǎng)絡(luò),近些年發(fā)展迅速,并引起廣泛重視。其輸入可以是原始圖像,通過(guò)多層信息處理進(jìn)行特征學(xué)習(xí),具有極強(qiáng)的適應(yīng)性,同時(shí)它的權(quán)值共享結(jié)構(gòu)大大減少了網(wǎng)絡(luò)權(quán)值數(shù)目,降低了計(jì)算復(fù)雜程度。

        CNN 具有強(qiáng)大的特征提取能力,Krizhevsky[4]提出深度卷積神經(jīng)網(wǎng)絡(luò)的圖像分類算法,在ILSVR C2010 比賽中取得了很好的成績(jī),大幅提高了圖像分類的準(zhǔn)確性,同時(shí)也提升了目標(biāo)檢測(cè)的準(zhǔn)確率。在圖像目標(biāo)檢測(cè)的問(wèn)題中,Girshick[5]等人提出了RCNN 方法,采用選擇性搜索策略(Selective Search,SS)選擇候選區(qū)域,用CNN 對(duì)候選區(qū)域提取特征,通過(guò)SVM(Support Vector Machine, SVM)分類器對(duì)目標(biāo)類別識(shí)別,并對(duì)候選區(qū)域進(jìn)行邊框回歸,提高檢測(cè)效率。He Kaiming 等人[6]提出一種SPP-net 可以生成固定長(zhǎng)度的表示,解決了CNN 輸入需固定尺寸的問(wèn)題,改善了基于CNN 的圖像檢測(cè)方法。Girshick 等人[7]再次改進(jìn)提出了Fast-RCNN 的方法,將整張圖片通過(guò)CNN 之后再生成候選區(qū)域特征圖,使得檢測(cè)效率大幅提高,Ren Shaoqing 等人[8]再一次提出改進(jìn)生成候選區(qū)域的Faster-RCNN 方法,使得檢測(cè)效率又進(jìn)一步提高。

        CNN 應(yīng)用于多種不同類型圖像[9-12]都有優(yōu)秀的特征提取性能,但大都基于深層卷積網(wǎng)絡(luò)模型[13-14]?;诖?,在此利用層數(shù)較少的CNN 對(duì)SAR 目標(biāo)進(jìn)行檢測(cè),并且在Faster-RCNN 算法的基本思想上,設(shè)計(jì)多層次卷積特征融合網(wǎng)絡(luò),補(bǔ)充復(fù)雜大場(chǎng)景下的SAR 目標(biāo)樣本,增強(qiáng)了傳統(tǒng)Faster-RCNN 對(duì)于小目標(biāo)檢測(cè)能力。

        2 特征提取網(wǎng)絡(luò)

        2.1 基礎(chǔ)卷積特征提取網(wǎng)絡(luò)的設(shè)計(jì)

        圖1 CNN 特征提取網(wǎng)絡(luò)

        不同于ImageNet,PASCAL VOC 等大樣本數(shù)據(jù)集,SAR 圖像數(shù)據(jù)集較小,根據(jù)實(shí)際需求與數(shù)據(jù)特點(diǎn),此處采用較少層數(shù)的特征提取卷積神經(jīng)網(wǎng)絡(luò)模型,具體結(jié)構(gòu)如圖1 所示。該模型包括輸入層、5 個(gè)卷積層、4 個(gè)池化層、輸出層,在輸入數(shù)據(jù)層對(duì)輸入的數(shù)據(jù)進(jìn)行歸一化處理后,第一個(gè)卷積層放棄了多數(shù)網(wǎng)絡(luò)在第一個(gè)卷積層使用的大卷積核,采取5×5大小的卷積核,具有更小的感受野(receptive field),其余卷積層用3×3 大小的卷積核,卷積核個(gè)數(shù)分別為64、128、256、512、512,所有的卷積核滑動(dòng)步長(zhǎng)皆為1,前4 個(gè)卷積層后每個(gè)都接一個(gè)最大池化層(max pooling)局部感受區(qū)域?yàn)?×2,步長(zhǎng)為2,在最后一個(gè)卷積層后連接兩個(gè)全連接層。每個(gè)卷積層以及第一個(gè)全連接層后都使用線性修正單元(Rectified Linear Unit, ReLU)[15]函數(shù)作為激活函數(shù),在實(shí)驗(yàn)中可有效解決飽和問(wèn)題。分類層用于驗(yàn)證設(shè)計(jì)的CNN 模型特征提取效果,當(dāng)分類結(jié)果達(dá)到一定精度時(shí),提取到的特征圖才可用于后續(xù)網(wǎng)絡(luò)。

        2.2 特征融合網(wǎng)絡(luò)設(shè)計(jì)與數(shù)據(jù)完善

        傳統(tǒng)的Faster-RCNN 只選擇了最后一個(gè)卷積層的特征圖,忽略了其他低層次的卷積特征圖,損失了一部分目標(biāo)信息。而深層的卷積特征對(duì)于圖像語(yǔ)義特征有更抽象的表達(dá),利于對(duì)目標(biāo)分類,不利于目標(biāo)定位;低層的卷積特征考慮目標(biāo)局部細(xì)節(jié)紋理等,有利于定位。此處選取檢測(cè)SAR 目標(biāo)較小,需要在復(fù)雜場(chǎng)景下檢測(cè)出目標(biāo)。設(shè)計(jì)一種多層次卷積特征融合網(wǎng)絡(luò),如圖2 所示,因考慮到不同層次的特征,具有更好的特征表達(dá)。

        圖2 多層特征融合網(wǎng)絡(luò)

        在選取第一個(gè)卷積層和第三個(gè)卷積層的特征圖后,存在不同層次的特征圖尺寸不一致的問(wèn)題,因此對(duì)其進(jìn)行最大池化層操作,得到和第五個(gè)卷積層特征圖一樣的尺寸。進(jìn)行多層次特征融合后,不同層次的特征圖的特征分辨率(feature resolution)不同,需要進(jìn)行局部響應(yīng)歸一化(Local Response Normalization, LRN)操作。后續(xù)實(shí)驗(yàn)想要在復(fù)雜大場(chǎng)景下,如包含較多樹(shù)木,草叢,麥田,建筑等較多的干擾信息檢測(cè)出多種姿態(tài)的SAR 目標(biāo)車輛,若要完成此任務(wù),數(shù)據(jù)集一定要包含多種信息,且對(duì)于數(shù)量質(zhì)量要求較高,因此將大場(chǎng)景下包含較多干擾背景的目標(biāo)圖像數(shù)據(jù)擴(kuò)充到原來(lái)用于驗(yàn)證網(wǎng)絡(luò)特征提取效果的數(shù)據(jù)集,加強(qiáng)網(wǎng)絡(luò)在面對(duì)復(fù)雜大場(chǎng)景下對(duì)于目標(biāo)的檢測(cè)能力,同時(shí)采取數(shù)據(jù)增強(qiáng)(data augmentation)方法,對(duì)復(fù)雜背景下的目標(biāo)圖像進(jìn)行平移,旋轉(zhuǎn)等處理擴(kuò)充樣本。

        3 目標(biāo)檢測(cè)網(wǎng)絡(luò)

        目標(biāo)檢測(cè)部分采用區(qū)域建議網(wǎng)絡(luò)[8](Region Proposal Networks, RPN)的思想從輸入的多層次融合特征圖中得到目標(biāo)所在位置的候選區(qū)域,之后用Fast-RCNN 中目標(biāo)檢測(cè)部分的網(wǎng)絡(luò)對(duì)建議區(qū)域進(jìn)分類和邊框回歸,檢測(cè)出目標(biāo),并得到更加真實(shí)的目標(biāo)區(qū)域,其中兩個(gè)網(wǎng)絡(luò)共享CNN 卷積層特征。

        3.1 目標(biāo)候選區(qū)域的生成

        RPN 是用來(lái)直接得到所包含目標(biāo)的候選區(qū)域,具體結(jié)構(gòu)模型如圖3 所示。其輸入是圖片經(jīng)過(guò)2.2節(jié)多層次特征融合后的特征圖,經(jīng)過(guò)一個(gè)滑動(dòng)窗口小網(wǎng)絡(luò),小網(wǎng)絡(luò)以n×n 大小的窗口在輸入的特征圖上滑動(dòng),此步驟是以卷積核大小為n×n(此處選取n=3)的卷積層實(shí)現(xiàn)的,并映射為一個(gè)更低緯度維度特征向量,之后將此特征向量輸入到兩個(gè)同級(jí)的卷積層,卷積核尺寸為1×1,分別用于cls 和reg(分類和邊框回歸)實(shí)現(xiàn)對(duì)原始的目標(biāo)建議區(qū)域精修。

        利用RPN 生成區(qū)域建議相較于傳統(tǒng)的selective search[5]尋找目標(biāo)區(qū)域大大縮短了時(shí)間,提高了效率。在每個(gè)小滑動(dòng)窗口的中心,我們通過(guò)設(shè)定3 個(gè)尺度(scales)和3 個(gè)縱橫比(aspect ratios)生成9 個(gè)原始的區(qū)域,稱之為anchor,鑒于此處需要檢測(cè)的SAR 目標(biāo)較小,舍棄原本的128/256/512 這三種尺度,將尺度重設(shè)為64/128/256,縱橫比依舊為1:1/1:2/2:1。通過(guò)設(shè)定參考區(qū)域與目標(biāo)真實(shí)區(qū)域的重疊部分(Intersection over Union, IOU),大于0.7 稱為正標(biāo)簽,小于0.3 稱為負(fù)標(biāo)簽,1:1 選取正負(fù)標(biāo)簽,共256 個(gè)anchor 作為一個(gè)mini-batch 拿去訓(xùn)練。

        圖3 候選區(qū)域生成網(wǎng)絡(luò)

        選擇多任務(wù)(multi-task)損失函數(shù)如下式,進(jìn)行RPN 網(wǎng)絡(luò)的超參數(shù)優(yōu)化:

        其中i 是一個(gè)mini-batch 中的目標(biāo)參考區(qū)域的索引;Ncls表示其中包含的樣本數(shù),即mini-batch 的大??;Nreg表示輸入網(wǎng)絡(luò)的所有參考區(qū)域anchor 的數(shù)目;λ 則是平衡系數(shù),用來(lái)控制兩個(gè)損失函數(shù)權(quán)重;Lcls為分類損失函數(shù),用于判斷區(qū)域是否有目標(biāo),在實(shí)驗(yàn)中使用優(yōu)化后的交叉熵?fù)p失函數(shù),即:

        它適用于每個(gè)類別相互獨(dú)立且排斥的情況;pi表示經(jīng)過(guò)softmax 之后第i 個(gè)anchor 預(yù)測(cè)為目標(biāo)區(qū)域的概率;pi*為參考目標(biāo)區(qū)域的真實(shí)標(biāo)簽;Lreg為邊框損失函數(shù),即:

        式中,x、y 表示預(yù)測(cè)區(qū)域中心點(diǎn)的橫縱坐標(biāo),w、h 則表示寬和高,xa表示初始參考的anchor 的橫坐標(biāo), x*表示真實(shí)橫坐標(biāo)??v坐標(biāo)、寬、高與此定義方式相同。

        RPN 網(wǎng)絡(luò)生成的建議區(qū)域存在大量重疊,對(duì)此采取非極大值抑制(Non-Maximum Suppression,NMS),篩除掉部分區(qū)域,并選取通過(guò)分類層后判斷為目標(biāo)區(qū)域概率最高的前N 個(gè)作為最終建議區(qū)域輸出。

        3.2 目標(biāo)檢測(cè)網(wǎng)絡(luò)的說(shuō)明

        目標(biāo)檢測(cè)網(wǎng)絡(luò)具體如圖4 所示。經(jīng)過(guò)RPN 網(wǎng)絡(luò)生成的候選目標(biāo)區(qū)域,再通過(guò)提前設(shè)置好的feat_stride 參數(shù)映射回2.1 節(jié)網(wǎng)絡(luò)生成的卷積特征圖feature map。由于anchor 的多尺度特性,得到的建議區(qū)域特征圖(proposal feature maps)尺寸是不固定的,需經(jīng)過(guò)ROI pooling 層實(shí)現(xiàn)固定尺寸輸入。之后經(jīng)過(guò)全連接層,映射為特征向量,此處采用高維特征向量。得到的特征向量用于之后兩個(gè)并列的平級(jí)分類層(n+1 類目標(biāo))和邊框回歸層,前者用于目標(biāo)分類,得到建議區(qū)域目標(biāo)分類結(jié)果的離散概率P,分類結(jié)果相互獨(dú)立排斥。后者得到目標(biāo)區(qū)域四個(gè)參數(shù)化坐標(biāo),同(5)式,用于目標(biāo)定位。

        圖4 目標(biāo)檢測(cè)網(wǎng)絡(luò)

        4 實(shí)驗(yàn)及結(jié)果分析

        4.1 數(shù)據(jù)準(zhǔn)備與說(shuō)明

        為驗(yàn)證本方法有效性,實(shí)驗(yàn)使用運(yùn)動(dòng)和靜止目標(biāo)獲取與識(shí)別(Moving and Stationary Target Acquisitionand Recognition, MSTAR)數(shù)據(jù)集中的128×128大小的靜止目標(biāo)切片圖像,包含有7 個(gè)小類,3 個(gè)大類的不同方位角下的車輛目標(biāo)圖像。MSTAR 同樣包含有部分大小為1748×1478 的復(fù)雜大場(chǎng)景圖像,包括麥田、草地、樹(shù)木、胡泊、建筑物等,但這些圖像不包含目標(biāo),因此,嵌入許多大小為128×128 的目標(biāo)圖像到整個(gè)場(chǎng)景圖像中[10],這種操作是合理的,因?yàn)槟繕?biāo)圖像和場(chǎng)景圖像都由同一的SAR 傳感器獲取,分辨率統(tǒng)一為0.3M。用此方法構(gòu)建出本實(shí)驗(yàn),需要m_MSTAR 數(shù)據(jù)集,并與MSTAR 數(shù)據(jù)集合并構(gòu)成所用的完整數(shù)據(jù)集。經(jīng)過(guò)數(shù)據(jù)增強(qiáng)技術(shù)后,m_MSTAR和MSTAR 數(shù)據(jù)集比例達(dá)到1:1.5,共800 張數(shù)據(jù)集圖像。圖5 分別給出這兩個(gè)數(shù)據(jù)集的樣本示例。

        圖5 樣本數(shù)據(jù)實(shí)例

        4.2 多任務(wù)網(wǎng)絡(luò)的訓(xùn)練

        實(shí)驗(yàn)時(shí),使用近似聯(lián)合訓(xùn)練多任務(wù)網(wǎng)絡(luò)、共享融合后的卷積特征圖、RPN 網(wǎng)絡(luò)和Fast-RCNN 目標(biāo)檢測(cè)網(wǎng)絡(luò)合并到一個(gè)訓(xùn)練網(wǎng)絡(luò),因?yàn)楹雎粤朔聪騻鞑ミ^(guò)程中ROI pooling 層關(guān)于區(qū)域坐標(biāo)建議的導(dǎo)數(shù),導(dǎo)致此部分權(quán)重?zé)o法更新,所以稱為近似聯(lián)合訓(xùn)練,這種方式可以節(jié)約時(shí)間成本,提高效率。

        在對(duì)近似聯(lián)合訓(xùn)練網(wǎng)絡(luò)訓(xùn)練時(shí),初始學(xué)習(xí)率設(shè)定為0.01,等損失值變化較小時(shí)再更新學(xué)習(xí)率,將學(xué)習(xí)率除以10。對(duì)于網(wǎng)絡(luò)損失函數(shù)優(yōu)化,選用帶有動(dòng)量(momentum)的隨機(jī)梯度下降算法,在訓(xùn)練網(wǎng)絡(luò)時(shí)按照高斯分布進(jìn)行初始化,并不能保證使得網(wǎng)絡(luò)的初始權(quán)值處在一個(gè)合適的狀態(tài),有可能在訓(xùn)練過(guò)程中陷入局部最小值,無(wú)法達(dá)到全局最優(yōu)。對(duì)于高維非凸函數(shù)來(lái),還可能出現(xiàn)很多鞍點(diǎn),在引入動(dòng)量后可以使SGD 逃離局部鞍點(diǎn)震蕩或者不陷入局部最小值,同時(shí)起到一定的加速作用。加入動(dòng)量后的SGD 權(quán)值更新為:

        4.3 實(shí)驗(yàn)效果分析

        4.3.1 特征提取效果分析

        CNN 對(duì)于目標(biāo)特征提取效果的好壞將直接影響后續(xù)網(wǎng)絡(luò)模型的最終檢測(cè)效果。為驗(yàn)證本設(shè)計(jì)的基礎(chǔ)CNN 對(duì)于SAR 圖像目標(biāo)特征提取的有效性,單獨(dú)訓(xùn)練此部分網(wǎng)絡(luò),并將訓(xùn)練好的網(wǎng)絡(luò)模型結(jié)構(gòu)用來(lái)分類識(shí)別,此結(jié)果能夠很大程度上驗(yàn)證設(shè)計(jì)的網(wǎng)絡(luò)對(duì)目標(biāo)特征提取的效果。

        此步驟中,訓(xùn)練數(shù)據(jù)樣本采用的是17°俯仰角下大小為128×128 的BMP2_SN9566、BTR70_C71、T72_SN132、T72_SN812、T72_SNS7 車輛SAR 圖像數(shù)據(jù);用于測(cè)試分類效果的數(shù)據(jù)為15°俯仰角下的BMP2_SN9566、BMP2_SN9563、BMP2_C71、BTR70_C71、T72_SN132、T72_SN812、T72_SNS7。最終結(jié)果分為BMP2、BTR70、T72 三個(gè)大類。

        在原圖像中,目標(biāo)在圖像向中央位置,為了加快網(wǎng)絡(luò)計(jì)算速度,將原圖像從中心裁剪成64×64 大小,減少輸入維數(shù)。模型訓(xùn)練足夠多次迭代,調(diào)節(jié)學(xué)習(xí)率直到loss 值不再明顯變化,收斂于一個(gè)較窄的范圍。這一基礎(chǔ)CNN 特征提取網(wǎng)絡(luò)訓(xùn)練模型中一個(gè)輸入圖像以及其每層卷積特征響應(yīng)圖如圖6 所示,對(duì)于測(cè)試數(shù)據(jù)具體分類結(jié)果如表1 所示。

        圖6 輸入圖像、Conv1-conv5 特征響應(yīng)圖

        表1 基礎(chǔ)CNN 分類結(jié)果

        從表1 中實(shí)驗(yàn)結(jié)果可以看出,就本數(shù)據(jù)集而言,此基礎(chǔ)CNN 在面對(duì)新測(cè)試數(shù)據(jù)時(shí),特征提取效果較好,所得的目標(biāo)分類結(jié)果準(zhǔn)確率較高,同時(shí)沒(méi)有出現(xiàn)過(guò)擬合的情況,具有較強(qiáng)的泛化效果,提取的特征圖可較好地用于后續(xù)在復(fù)雜場(chǎng)景中的目標(biāo)檢測(cè)實(shí)驗(yàn)。

        4.3.2 復(fù)雜大場(chǎng)景下對(duì)SAR 目標(biāo)檢測(cè)

        本實(shí)驗(yàn)在Ubuntu16.04 系統(tǒng)環(huán)境下,基于深度學(xué)習(xí)tensorflow 框架,使用GPU 加速計(jì)算。使用新的數(shù)據(jù)驗(yàn)證本算法訓(xùn)練所得網(wǎng)絡(luò)模型對(duì)于SAR 目標(biāo)檢測(cè)的效果。在目標(biāo)得分閾值設(shè)置為0.8 時(shí),選取驗(yàn)證數(shù)據(jù)集中如圖7 所示三種復(fù)雜環(huán)境下的效果,包含不同姿態(tài)的多個(gè)待檢測(cè)目標(biāo)。該模型對(duì)場(chǎng)景1、場(chǎng)景3 很好地實(shí)現(xiàn)了不同姿態(tài)SAR 目標(biāo)的自動(dòng)檢測(cè),目標(biāo)位置定位較為準(zhǔn)確;場(chǎng)景2 有大量的樹(shù)木,田地等干擾背景,雖然出現(xiàn)了虛檢,將樹(shù)木或其他干擾檢測(cè)為目標(biāo),但是并沒(méi)有出現(xiàn)漏檢。后續(xù)研究中可對(duì)于虛檢的目標(biāo)經(jīng)人工處理或進(jìn)一步調(diào)整網(wǎng)絡(luò)和優(yōu)化超參數(shù),以降低虛檢率。

        圖7 不同場(chǎng)景下SAR 圖像目標(biāo)檢測(cè)效果

        VGGnet[16]是一種與它類似的特征提取網(wǎng)絡(luò),由牛津大學(xué)的視覺(jué)幾何組(Visual Geometry Group)提出,包含16~19 層。區(qū)別在于,VGGnet 有著更深的網(wǎng)絡(luò)結(jié)構(gòu)。另一種ZFnet[17]則有5 個(gè)卷積層,3 個(gè)池化層,與此基礎(chǔ)CNN 結(jié)構(gòu)層數(shù)相近,訓(xùn)練難度大致相等。圖8 給出相同場(chǎng)景下,不特征提取網(wǎng)絡(luò)在得分閾值設(shè)置為0.8 時(shí)的目標(biāo)檢測(cè)效果對(duì)比。

        圖8 不同特征提取結(jié)構(gòu)檢測(cè)效果

        與本方法相比,另外兩種結(jié)構(gòu)在作為基礎(chǔ)特征提取網(wǎng)絡(luò)時(shí)出現(xiàn)過(guò)多漏檢,虛檢現(xiàn)象。表2 給出了驗(yàn)證數(shù)據(jù)集中的檢測(cè)結(jié)果,在本地實(shí)驗(yàn)環(huán)境下,對(duì)于同一張1476×1748 大小的SAR 圖像,本方法檢測(cè)需要用時(shí)0.324s,VGGnet 結(jié)構(gòu)則需要耗時(shí)0.465s,顯見(jiàn)檢測(cè)效率相對(duì)較低。

        表2 不同特征提取層CNN 檢測(cè)結(jié)果

        其中TP 表示正確檢測(cè)到的目標(biāo)數(shù),F(xiàn)P 表示虛檢數(shù),驗(yàn)證數(shù)據(jù)集需要檢測(cè)的目標(biāo)數(shù)目N=120。使用召回率(R)和精準(zhǔn)率(P)來(lái)評(píng)價(jià)SAR 目標(biāo)檢測(cè)效果,指標(biāo)具體表達(dá)式為:

        從圖8 和表2 的檢測(cè)結(jié)果來(lái)看,對(duì)于所使用的數(shù)據(jù)集,過(guò)于深層的VGGnet 模型結(jié)構(gòu)越復(fù)雜,超參數(shù)的優(yōu)化越難,越易將噪聲誤作為有效特征,出現(xiàn)較多虛檢,在面對(duì)新數(shù)據(jù)時(shí)泛化能力較差。而ZFnet 檢測(cè)的精準(zhǔn)率雖然較高,出現(xiàn)虛檢的情況較少,但是召回率不足。

        魯棒性是目標(biāo)檢測(cè)需要考慮的重要因素之一,驗(yàn)證數(shù)據(jù)集中對(duì)部分圖像加入噪聲密度為0.1 的椒鹽噪聲和均值為0、方差為65 的高斯噪聲。圖9 繪制了幾種方法在驗(yàn)證數(shù)據(jù)集的的P-R 曲線。表3 給出不同方法的AP 值(Average Precision)。

        圖9 各方法對(duì)比P-R 曲線

        表3 不同方法的AP 值

        在實(shí)驗(yàn)中VGGnet 在面對(duì)噪聲時(shí)檢測(cè)能力明顯較弱,會(huì)出現(xiàn)在整個(gè)大場(chǎng)景下完全檢測(cè)不到目標(biāo)的情況,也會(huì)把樹(shù)木等干擾雜波檢測(cè)為目標(biāo),召回率比較差;ZFnet 對(duì)于目標(biāo)的特征表達(dá)也不足,召回率也不太理想。本方法中基礎(chǔ)CNN 層數(shù)適中,卷積特征提取效果較好,同時(shí)加入多層次卷積特征融合,具有更加豐富的特征表達(dá),經(jīng)過(guò)后續(xù)先得到候選目標(biāo)區(qū)域再對(duì)目標(biāo)進(jìn)行檢測(cè)這樣“兩步走”的網(wǎng)絡(luò),最終達(dá)到對(duì)大場(chǎng)景下較小SAR 目標(biāo)的較好的檢測(cè)效果。

        5 結(jié) 束 語(yǔ)

        使用較完備的SAR 數(shù)據(jù)集,同時(shí)補(bǔ)充復(fù)雜大場(chǎng)景下訓(xùn)練樣本信息,利用CNN 優(yōu)秀的特征提取能力,舍棄層數(shù)太多的CNN 結(jié)構(gòu),使用一種層數(shù)較少的基礎(chǔ)CNN,通過(guò)多層次卷積特征融合網(wǎng)絡(luò),得到更加豐富的目標(biāo)特征信息。經(jīng)過(guò)目標(biāo)檢測(cè)網(wǎng)絡(luò),用GPU 加速優(yōu)化訓(xùn)練后得到完整的SAR 圖像目標(biāo)檢測(cè)模型。實(shí)驗(yàn)數(shù)據(jù)及結(jié)果表明所提方法具有較好的魯棒性和泛化能力,可以實(shí)現(xiàn)在復(fù)雜大場(chǎng)景下對(duì)較小SAR 圖像目標(biāo)的的檢測(cè),檢測(cè)效果更好。

        猜你喜歡
        特征提取特征區(qū)域
        如何表達(dá)“特征”
        基于Gazebo仿真環(huán)境的ORB特征提取與比對(duì)的研究
        電子制作(2019年15期)2019-08-27 01:12:00
        不忠誠(chéng)的四個(gè)特征
        抓住特征巧觀察
        一種基于LBP 特征提取和稀疏表示的肝病識(shí)別算法
        關(guān)于四色猜想
        分區(qū)域
        基于嚴(yán)重區(qū)域的多PCC點(diǎn)暫降頻次估計(jì)
        基于MED和循環(huán)域解調(diào)的多故障特征提取
        線性代數(shù)的應(yīng)用特征
        河南科技(2014年23期)2014-02-27 14:19:15
        欧美日韩色另类综合| 亚洲成人av一区免费看| 大陆老熟女自拍自偷露脸| 777米奇色8888狠狠俺去啦| 精品国产黑色丝袜高跟鞋| 免费无遮挡毛片中文字幕| 国产一区二区在线中文字幕 | 中文字幕乱码免费视频| 亚洲精品123区在线观看| 性视频毛茸茸女性一区二区| 手机在线免费av资源网| 欧美放荡的少妇| 天天综合久久| 中文字幕精品乱码一区| 蜜桃一区二区在线视频| 久久久g0g0午夜无码精品| 亚洲产在线精品亚洲第一站一| av资源在线永久免费观看| 国产一区二区三区在线观看完整版| 亚洲综合色区另类av| 制服丝袜视频国产一区| 青青草视频在线免费观看91| 青青草原综合久久大伊人精品| 色八区人妻在线视频免费| 久久精品国产亚洲婷婷| 免费av在线 国产精品| 亚洲日韩精品a∨片无码加勒比| 性色av无码不卡中文字幕| 色婷婷精品综合久久狠狠| 成av人片一区二区久久| 中文字幕乱码熟妇五十中出| 丰满岳乱妇在线观看中字无码| 初尝人妻少妇中文字幕在线| 真实夫妻露脸爱视频九色网| 亚洲伊人色欲综合网| 久热香蕉精品视频在线播放| 91国产熟女自拍视频| 麻豆免费观看高清完整视频| 亚洲AV无码一区二区三区人| 精品国产一品二品三品| 国产极品少妇一区二区|