亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于注意力機(jī)制特征重建網(wǎng)絡(luò)的艦船目標(biāo)檢測(cè)

        2021-09-11 01:38:42陳小前季明江郭鵬宇冉德超
        上海航天 2021年4期
        關(guān)鍵詞:錨框艦船精度

        牛 戈,陳小前,季明江,郭鵬宇,劉 勇,冉德超

        (軍事科學(xué)院 國(guó)防科技創(chuàng)新研究院,北京 100071)

        0 引言

        信息化時(shí)代使深度學(xué)習(xí)技術(shù)突飛猛進(jìn),遙感領(lǐng)域相關(guān)工作也因深度學(xué)習(xí)的接入融合而不斷發(fā)展。近年來(lái),遙感目標(biāo)檢測(cè)由基于人工提取特征的傳統(tǒng)方法,發(fā)展到以神經(jīng)網(wǎng)絡(luò)模型為驅(qū)動(dòng),對(duì)特征進(jìn)行提取、學(xué)習(xí)并產(chǎn)生檢測(cè)結(jié)果的方法,算法的檢測(cè)精度以及運(yùn)行速度都有大幅提升[1]。針對(duì)光學(xué)遙感圖像的艦船目標(biāo)檢測(cè)作為海運(yùn)交通、國(guó)防預(yù)警等領(lǐng)域的重要應(yīng)用技術(shù),有著不可替代的戰(zhàn)略意義。特別是隨著嵌入式智能圖像處理平臺(tái)的快速更新,艦船目標(biāo)檢測(cè)算法的在軌應(yīng)用迎來(lái)了新的發(fā)展,也給嵌入式遙感圖像艦船目標(biāo)智能檢測(cè)研究帶來(lái)了新的挑戰(zhàn)。

        回顧目標(biāo)檢測(cè)發(fā)展歷史,在AlexNet 完善了神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)[1]后,2014 年以區(qū)域建議為核心技術(shù)的R-CNN[2]的誕生,標(biāo)志著目標(biāo)檢測(cè)全面進(jìn)入深度學(xué)習(xí)時(shí)代。經(jīng)典的目標(biāo)檢測(cè)算法可劃分為Anchorbased、Anchor-free 兩類。Anchor-based 類目標(biāo)檢測(cè)算法通過(guò)Anchor 機(jī)制對(duì)圖像中設(shè)定的各個(gè)錨點(diǎn)生成密集的錨框,使得網(wǎng)絡(luò)可以針對(duì)這些錨框進(jìn)行邊界框回歸和目標(biāo)分類,主流的Anchor-based 類算法有Faster R-CNN[3]、FPN[4]、YOLO[5-6]、SSD[7]、Retina-Net[8]等。Anchor-based 類算法需 要設(shè)定一些超參數(shù),例如錨框長(zhǎng)寬比、尺度和交并比(Intersection-over-Union,IoU)閾值等,參數(shù)的設(shè)定一定程度依賴先驗(yàn)知識(shí),并且由于生成錨框數(shù)量過(guò)多,可能產(chǎn)生很多不包含目標(biāo)的冗余框,從而造成正負(fù)樣本比例嚴(yán)重失衡。Anchor-free 類算法將檢測(cè)分為確定物體中心和4 條邊框這2 個(gè)子問(wèn)題,擁有更大更靈活的解空間和更少的Anchor 計(jì)算量,主流的Anchor-free 類算法有DenseBox[10]、YOLO[11]、Corner-Net[12]、Center-Net[13]等。Anchor-free 檢測(cè)算法雖然優(yōu)點(diǎn)很多,但當(dāng)前算法的正負(fù)樣本不均衡的問(wèn)題嚴(yán)重,并且當(dāng)圖像中2 個(gè)目標(biāo)中心點(diǎn)重疊時(shí),可能會(huì)產(chǎn)生語(yǔ)義模糊問(wèn)題,從而導(dǎo)致檢測(cè)結(jié)果不穩(wěn)定。

        遙感圖像中的目標(biāo)具有背景復(fù)雜、旋轉(zhuǎn)排列緊密、尺度變化大且呈長(zhǎng)尾分布等特點(diǎn),這些特點(diǎn)也是遙感圖像目標(biāo)檢測(cè)的難點(diǎn),經(jīng)典目標(biāo)檢測(cè)算法在遙感數(shù)據(jù)集中的檢測(cè)效果較差。最近,基于深度學(xué)習(xí)的遙感目標(biāo)檢測(cè)算法已經(jīng)取得了一定進(jìn)展:Gliding Vertex 采用Faster R-CNN 結(jié)構(gòu)[14],通過(guò)改變傳統(tǒng)邊界框的表示方式避免了四邊形角點(diǎn)排序,實(shí)現(xiàn)了遙感目標(biāo)密集排列下的旋轉(zhuǎn)框檢測(cè);文獻(xiàn)[15]針對(duì)未來(lái)衛(wèi)星在軌遙感目標(biāo)檢測(cè)問(wèn)題,改進(jìn)YOLOv3網(wǎng)絡(luò),使用輕量化特征提取網(wǎng)絡(luò)結(jié)合基于IoU 的改進(jìn)版聚類算法,在加快算法運(yùn)行速度的同時(shí)提升了檢測(cè)精度;SCRDet 通過(guò)引入注意力機(jī)制弱化背景特征[16],結(jié)合通道注意力和像素注意力網(wǎng)絡(luò)增強(qiáng)了對(duì)小目標(biāo)的檢測(cè)效果;R3Det 為保持特征一致性[17],設(shè)計(jì)出FRM 模塊產(chǎn)生新的特征圖,通過(guò)改善特征不對(duì)齊問(wèn)題,達(dá)到較高的遙感目標(biāo)檢測(cè)精度。在遙感圖像艦船檢測(cè)方面,2017 年的RR-CNN[18]基于兩階段目標(biāo)檢測(cè)算設(shè)計(jì)了RRoI 池化層提取旋轉(zhuǎn)目標(biāo)特征,實(shí)現(xiàn)了艦船目標(biāo)的旋轉(zhuǎn)邊框回歸;RoI Transformer[19]作為3 階段檢測(cè)算法,通過(guò)RRoI Learner 和RRoI Warping 兩部分模塊將區(qū)域生成網(wǎng)絡(luò)(Region Proposal Network,RPN)輸出的水平檢測(cè)框變換為旋轉(zhuǎn)檢測(cè)框,在不增加錨點(diǎn)數(shù)量的前提下實(shí)現(xiàn)更精確的旋轉(zhuǎn)-感興趣區(qū)域(Region of Interest,RoI)的獲??;文獻(xiàn)[20]通過(guò)改進(jìn)Faster R-CNN 網(wǎng)絡(luò),采用雙路特征提取骨干網(wǎng)結(jié)合MFPN 網(wǎng)絡(luò)進(jìn)行檢測(cè),在第2 階段提出自適應(yīng)旋轉(zhuǎn)區(qū)域生成網(wǎng)絡(luò)產(chǎn)生旋轉(zhuǎn)框;RRPN[21]在Faster R-CNN 基礎(chǔ)上將旋轉(zhuǎn)框融入?yún)^(qū)域提取網(wǎng)絡(luò)RPN 中,將RoI Pooling 改進(jìn)為Rotation RoI Pooling 并在優(yōu)化過(guò)程中加入角度回歸實(shí)現(xiàn)旋轉(zhuǎn)目標(biāo)檢測(cè)。這些方法在HRSC2016 數(shù)據(jù)集[22]或DOTA 數(shù)據(jù)集[23]上都取得了較好的檢測(cè)結(jié)果,但針對(duì)艦船目標(biāo)檢測(cè)任務(wù)仍有改進(jìn)空間。

        為了更精確定位和分類遙感圖像艦船目標(biāo),本文以Anchor-based 方法中的Retina-Net 為基礎(chǔ)框架,改進(jìn)特征提取骨干網(wǎng)絡(luò),加入基于通道注意力機(jī)制的壓縮-激勵(lì)(Squeeze and Excitation,SE)模塊[24],提升算法對(duì)感受野的自適應(yīng)能力。通過(guò)特征重建模塊在精煉階段重建特征圖緩解特征不對(duì)齊問(wèn)題,融合水平錨框與旋轉(zhuǎn)錨框檢測(cè)策略,專注提升遙感數(shù)據(jù)集中艦船類別的檢測(cè)精度,并評(píng)估了算法在模擬星載嵌入式智能圖像處理平臺(tái)上應(yīng)用的檢測(cè)精度和速度。

        1 算法設(shè)計(jì)

        本文選用一階段Anchor-based 的Retina-Net 為算法框架,在不犧牲檢測(cè)速度的前提下實(shí)現(xiàn)更高精度的艦船目標(biāo)檢測(cè),通過(guò)Focal Loss 損失函數(shù)緩解目標(biāo)類不平衡的情況,從根本上改善了一階段檢測(cè)器準(zhǔn)確率低的問(wèn)題,并且通過(guò)多尺度特征融合網(wǎng)絡(luò)FPN 提高了多尺度目標(biāo)的檢測(cè)效果。遙感圖像中的目標(biāo)尺寸普遍較小,并且呈任意旋轉(zhuǎn)、密集排列,給檢測(cè)算法帶來(lái)了極大的挑戰(zhàn)。本文設(shè)計(jì)實(shí)現(xiàn)的檢測(cè)算法結(jié)構(gòu)如圖1 所示。先將預(yù)處理后的圖像數(shù)據(jù)送入加入SE 模塊的骨干網(wǎng)絡(luò)來(lái)提取特征,將得到的P3~P7 特征圖來(lái)構(gòu)建特征金字塔,自上而下結(jié)合橫向連接的結(jié)構(gòu),對(duì)含有更強(qiáng)語(yǔ)義信息的深層特征的表達(dá)進(jìn)行了加強(qiáng)。每層特征金字塔分別連接分類子網(wǎng)絡(luò)和回歸子網(wǎng)絡(luò),將2 個(gè)子網(wǎng)的組合輸出進(jìn)行特征重建,重建后的新特征圖再次經(jīng)過(guò)分類和回歸子網(wǎng),即完成一次精煉階段,級(jí)聯(lián)部分設(shè)定2 個(gè)不同閾值的精煉階段,最終輸出得到旋轉(zhuǎn)目標(biāo)的檢測(cè)結(jié)果。

        圖1 算法結(jié)構(gòu)框圖Fig.1 Block diagram of algorithm structure

        1.1 加入通道注意力機(jī)制的骨干網(wǎng)絡(luò)

        深度學(xué)習(xí)時(shí)代的目標(biāo)檢測(cè)算法通常構(gòu)建在CNN 分類網(wǎng)絡(luò)之上。近年來(lái),注意力機(jī)制技術(shù)成為了目標(biāo)檢測(cè)的熱點(diǎn),SENet 從通道層面入手,設(shè)計(jì)了通道注意力機(jī)制的CNN 分類網(wǎng)絡(luò),使網(wǎng)絡(luò)學(xué)習(xí)不同通道特征的重要程度,能夠自適應(yīng)地調(diào)整各通道的特征響應(yīng)值。SENet 提出SE 模塊,先將圖像通過(guò)卷積層后產(chǎn)生的特征圖壓縮(Squeeze),把特征圖各個(gè)通道包含的所有信息編碼為全局特征,具體采用全局平均池化(Global Average Pooling);之后通過(guò)激勵(lì)(Excitation)操作學(xué)習(xí)并調(diào)整各個(gè)通道的權(quán)重,具體由1×1 點(diǎn)卷積實(shí)現(xiàn)Bottleneck 結(jié)構(gòu),即2 個(gè)全連接層(Fully Connected Layers,F(xiàn)C),其中,第1 個(gè)FC 使維度降低,然后通過(guò)激活函數(shù)ReLU,再由第2個(gè)FC 恢復(fù)至原始通道維度并使用Sigmoid 函數(shù)激活,最后SE 模塊的輸出與原特征圖作乘積更新原始特征圖。

        如 圖1所示,將SE 模塊嵌入ResNeXt 或ResNet 殘差學(xué)習(xí)分支中,算法模型增加了不到10%的參數(shù)量,而計(jì)算量?jī)H增加不到1%。整個(gè)過(guò)程能夠讓算法更加關(guān)注信息量大的通道特征,一定程度抑制了不重要的信息,賦予了算法更強(qiáng)的辨別能力,這對(duì)于背景復(fù)雜的遙感圖像檢測(cè)而言尤為重要。

        1.2 融合水平錨框和旋轉(zhuǎn)錨框的檢測(cè)方法

        目標(biāo)長(zhǎng)寬比大以及任意旋轉(zhuǎn)的特性是艦船目標(biāo)檢測(cè)的難點(diǎn),任意角度傾斜的艦船會(huì)導(dǎo)致其水平邊界框中可能含有大量的冗余區(qū)域以及復(fù)雜的背景噪聲。如圖2 所示,水平邊界框內(nèi)的艦船目標(biāo)因?yàn)榇嬖诖罅吭肼暸c重疊區(qū)域,在非極大值抑制(Non-Maximum Suppression,NMS)處理后可能會(huì)被丟棄,極大影響了艦船檢測(cè)算法的性能。為了緩解上述問(wèn)題,本文采用旋轉(zhuǎn)檢測(cè)方法,通過(guò)旋轉(zhuǎn)邊界框減少冗余區(qū)域的產(chǎn)生,加強(qiáng)遙感圖像中密集艦船目標(biāo)的檢測(cè)。

        圖2 水平邊界框與旋轉(zhuǎn)邊界框示例Fig.2 Illustration of horizontal bounding boxes and oriented bounding boxes

        為了實(shí)現(xiàn)基于Retina-Net 的旋轉(zhuǎn)目標(biāo)檢測(cè),本文使用五參數(shù)法(x、y、w、h、θ)表示任意方向邊界框,并在回歸子網(wǎng)中加入角度預(yù)測(cè),算法中回歸旋轉(zhuǎn)邊界框的表示為

        式中:x、y、w、h、θ分別為矩形框的中心坐標(biāo)、寬、高和旋轉(zhuǎn)角度;w為與圖像水平方向x軸成銳角θ的一邊,θ的范圍在[-π/2,0);x、xa、x′分別為邊界框、原始錨框、預(yù)測(cè)框,y、w、h、-θ以此類推。

        多任務(wù)損失定義如下:

        式 中:N為原始錨框數(shù)量;t′n為目標(biāo)和 背景且分 別取 值1 或0;v′nj為預(yù)測(cè)的 偏移向量;vnj為真實(shí)框 的向量;tn為目標(biāo)種類的標(biāo)簽;pn為不同種類經(jīng)過(guò)Sigmoid 函數(shù)計(jì)算出的概率分布;超參數(shù)λ1、λ2為用于平衡兩類損失值,默認(rèn)設(shè)置為1;Lreg、Lcls分別為SSmoothL1損失和焦點(diǎn)損失(FFocalloss)函 數(shù);αn設(shè)為0.25;γ設(shè)為2。

        Anchor-based 類算法中,錨框的設(shè)定決定著檢測(cè)算法的性能。在Retina-Net 中預(yù)設(shè)水平錨框和旋轉(zhuǎn)錨框都可以實(shí)現(xiàn)旋轉(zhuǎn)框檢測(cè),2 種方法的區(qū)別在于水平框可以用較少的錨框匹配更多的目標(biāo),但也會(huì)導(dǎo)致錨框引入背景噪聲而影響精度;預(yù)設(shè)旋轉(zhuǎn)框需要對(duì)每個(gè)錨點(diǎn)設(shè)置更多的初始錨框旋轉(zhuǎn)角度,雖然減少了邊界框內(nèi)的背景噪聲,但是大大增加了算法的計(jì)算量。為了平衡算法的速度和精度,本文選擇兩類錨框結(jié)合的策略,即先使用水平錨框以確保高召回率地選中目標(biāo)區(qū)域,而后使用旋轉(zhuǎn)精煉錨框緩解密集排列目標(biāo)引起的噪聲問(wèn)題。

        1.3 特征重建模塊

        Retina-Net屬于Anchor-based 類方法,多錨框的設(shè)置保證了一階段算法的精度。雖然加入旋轉(zhuǎn)錨框有助于遙感目標(biāo)檢測(cè),但由于計(jì)算傾斜交并比分?jǐn)?shù)對(duì)角度變化十分敏感,輕微的角度變化就會(huì)造成IoU 分?jǐn)?shù)驟降從而可能丟棄目標(biāo),所以檢測(cè)框的回歸效果對(duì)旋轉(zhuǎn)目標(biāo)檢測(cè)精度影響很大。已有研究表明,級(jí)聯(lián)檢測(cè)器能夠大大提高單階段算法的分類和定位精度[25-26]。

        為實(shí)現(xiàn)高精度遙感目標(biāo)檢測(cè),本文加入級(jí)聯(lián)的精煉階段旨在提高旋轉(zhuǎn)目標(biāo)檢測(cè)的召回率。通過(guò)在網(wǎng)絡(luò)中不同位置設(shè)置多個(gè)IoU 閾值,在原始Retina-Net 算法中設(shè)置目標(biāo)和背景的IoU 分別為0.5 和0.4,在首次精煉階段設(shè)置IoU 的2 個(gè)門限為0.6 和0.4,第2 次精煉階段設(shè)置IoU 的2 個(gè)門限為0.7 和0.6。精煉階段的損失定義如下:

        式中:αi為不同精煉階段的平衡系數(shù),默認(rèn)設(shè)為1;Li為第i個(gè)精煉階段的損失。

        Retina-Net 作為單階段算法因?yàn)闆](méi)有使用兩階段算法中的RoI-Pooling 或RoI-Align 特征提取方法,忽略了特征一致性,導(dǎo)致檢測(cè)精度相對(duì)較低。加入級(jí)聯(lián)的精煉階段后,雖然精度有所提升,但精煉階段的檢測(cè)器仍使用著與前一階段相同的特征映射,忽略了通過(guò)學(xué)習(xí)得到的邊界框位置變化。

        如圖3 所示,綠色線段框是邊界框,橙色點(diǎn)線框是原始錨框,紅色實(shí)線框是通過(guò)在特征圖黑色特征點(diǎn)對(duì)應(yīng)的錨框所學(xué)習(xí)得到的錨框(Learned Anchor,LA),而黑色特征點(diǎn)是使用右側(cè)灰色卷積核在其相鄰的區(qū)域卷積得到的。這些相鄰區(qū)域映射到原圖即為左側(cè)淡黃色陰影區(qū)域,而淡黃色陰影區(qū)域并未包含整個(gè)艦船目標(biāo),尤其對(duì)于長(zhǎng)寬比大或者尺寸小的目標(biāo),上述特征不對(duì)齊問(wèn)題使得算法用這個(gè)區(qū)域預(yù)測(cè)并不準(zhǔn)確。

        圖3 特征不對(duì)齊示意圖Fig.3 Diagram of feature misalignment issue

        受R3Det 啟發(fā),為保證速度這一方面,本文將前一階段回歸得到的錨框的中心位置信息通過(guò)插值重新編碼映射回特征圖的特征點(diǎn),疊加在原特征圖上改變特征點(diǎn)的像素值,從而重建特征圖,如圖4所示。具體在算法第1 階段產(chǎn)生水平框檢測(cè)結(jié)果后按照如下式的特征插值方法設(shè)置2 個(gè)級(jí)聯(lián)精煉模塊:

        圖4 特征重建示意圖Fig.4 Diagram of feature reconstruction

        式中:vvallt、vvalrt、vvalrb、vvallb分別為左上、右上、左下、右下特征點(diǎn)對(duì)應(yīng)的像素值;aarearb、aarealb、aarealt、aareart分別為左上、右上、左下、右下區(qū)域的面積。

        精煉階段為平衡效率,每個(gè)特征點(diǎn)僅選取置信度最高的邊界框進(jìn)行處理,每個(gè)特征圖經(jīng)過(guò)特征重建模塊,都會(huì)生成新的特征圖,從而在下一階段的分類和回歸子網(wǎng)改善特征不對(duì)齊問(wèn)題。不同于Faster R-CNN 中的RoIAlign 需要對(duì)每個(gè)RoI 框采樣7×7×4 個(gè)點(diǎn)進(jìn)行插值,本文僅在精煉階段對(duì)每個(gè)經(jīng)過(guò)NMS 后保留下的錨框中心點(diǎn)進(jìn)行插值,相比RoIAlign 具有較大的速度優(yōu)勢(shì)。

        2 實(shí)驗(yàn)內(nèi)容及結(jié)果分析

        本文選擇高性能圖像工作站和模擬星載嵌入式智能圖像處理平臺(tái)作為實(shí)驗(yàn)環(huán)境。其中,高性能圖像工作站配置2 塊NVIDIA RTX 3080 GPU,Inteli9 10920X 處理器,32 GB內(nèi)存,軟件環(huán)境 為Python 3.7.9、PyTorch 1.7.1。模擬星載嵌入式智能圖像處理平臺(tái)使用NVIDIA Jetson TX2 板載計(jì)算機(jī),配置一塊NVIDIA Pascal GPU,64 位ARMv8 處理器,8 GB 內(nèi)存,軟件環(huán)境為Python 3.7.9、PyTorch1.3.0。測(cè)試數(shù)據(jù)集選擇遙感檢測(cè)領(lǐng)域廣泛使用的HRSC2016 數(shù)據(jù)集和DOTA 數(shù)據(jù)集,評(píng)估指標(biāo)選用VOC2007平均精度(Average Precision,AP)。在訓(xùn)練過(guò)程中,對(duì)輸入圖像進(jìn)行隨機(jī)翻轉(zhuǎn)、旋轉(zhuǎn)、色彩變換等數(shù)據(jù)增強(qiáng)操作,使用動(dòng)量?jī)?yōu)化器(Momentum Optimizer),權(quán)重衰減率設(shè)置為0.000 1,動(dòng)量設(shè)置為0.9,在每個(gè)特征金字塔層預(yù)設(shè)9種錨框長(zhǎng)寬比分別為1、1/2、2、1/3、3、1/5、5、1/7、7。

        2.1 HRSC2016 數(shù)據(jù)集實(shí)驗(yàn)結(jié)果分析

        HRSC2016 是專門針對(duì)艦船目標(biāo)檢測(cè)的光學(xué)遙感圖像數(shù)據(jù)集,數(shù)據(jù)主要來(lái)自Google Earth,收集的艦船主要來(lái)自摩爾曼斯克、埃弗里特、新羅德島港口以及梅波特、諾??恕⑹サ貋喐绾\娀?,共計(jì)1 680 張圖像。經(jīng)過(guò)劃分后的數(shù)據(jù)集包含訓(xùn)練集436張圖像,共1 207 個(gè)實(shí)例;驗(yàn)證集181 張圖像,共541個(gè)實(shí)例;測(cè)試集444 張圖像,共1 228 個(gè)實(shí)例。每張圖像包含1~3 只艦船,圖像分辨率在(300×300)~(1 500×900)之間。數(shù)據(jù)集位置標(biāo)注信息既有用左上角點(diǎn)(xmin,ymin)和右下角點(diǎn)(xmax,ymax)標(biāo)注的水平矩形框,也有通過(guò)中心點(diǎn)(xc,yc)、寬w、高h(yuǎn)和角度θ表示的旋轉(zhuǎn)矩形框。訓(xùn)練過(guò)程中將原圖尺度變換為800×800,設(shè)置72 個(gè)時(shí)期,使用隨機(jī)梯度下降SGD 策略,基礎(chǔ)學(xué)習(xí)率(base_lr)為0.01,根據(jù)不同骨干網(wǎng)絡(luò)調(diào)整每次訓(xùn)練的樣本數(shù)目(batch_size),學(xué)習(xí)率為base_lr/16×batch_size,在第48 和66 個(gè)時(shí)期通過(guò)線性預(yù)熱方法調(diào)整學(xué)習(xí)率。

        本文針對(duì)艦船目標(biāo)檢測(cè)進(jìn)行優(yōu)化,應(yīng)用通道注意力機(jī)制的骨干網(wǎng)絡(luò)使算法更加關(guān)注遙感圖像中的目標(biāo),特征重建使得對(duì)長(zhǎng)寬比大的艦船目標(biāo)檢測(cè)有了更好的效果,平均精度達(dá)到90.20,相比其他算法平均精度更高,且在相似精度下算法檢測(cè)速度更快,檢測(cè)結(jié)果如圖5 所示。ROI-Transformer、RRPN、Gliding Vertex 等針對(duì)遙感目標(biāo)檢測(cè)任務(wù)改進(jìn)的兩階段算法的檢測(cè)精度普遍較高,因?yàn)檫@些算法更有效利用了輸入圖像的底層特征映射,對(duì)小目標(biāo)檢測(cè)更加友好,但相對(duì)單階段算法更復(fù)雜,見(jiàn)表1。

        表1 HRSC2016 數(shù)據(jù)集測(cè)試結(jié)果Tab.1 Test results on HRSC2016 data set

        圖5 HRSC2016 數(shù)據(jù)集部分測(cè)試結(jié)果Fig.5 Part of the test results on HRSC2016 data set

        2.2 DOTA 數(shù)據(jù)集實(shí)驗(yàn)結(jié)果分析

        DOTA 數(shù)據(jù)集從Google Earth、中國(guó)衛(wèi)星數(shù)據(jù)應(yīng)用中心、衛(wèi)星JL-1 和GF-2 等來(lái)源收集了共2 806張航拍圖像,圖像尺寸分布在(800×800)~(4 000×4 000)之間,標(biāo)注的實(shí)例含15 個(gè)類別:飛機(jī)、棒球場(chǎng)、橋梁、田徑場(chǎng)、大型汽車、小型汽車、艦船、網(wǎng)球場(chǎng)、籃球場(chǎng)、油罐、足球場(chǎng)、交通環(huán)島、海港、游泳池、直升飛機(jī),共188 282 個(gè)人工標(biāo)注實(shí)例。實(shí)例的邊界框使用4 個(gè)角點(diǎn)標(biāo)注以水平矩形或任意四邊形的方式呈現(xiàn),任意四邊形的4 個(gè)角點(diǎn)按順時(shí)針?lè)较蚺判颍裕▁1、y1、x2、y2、x3、y3、x4、y4)形式標(biāo)注并儲(chǔ)存在圖像對(duì)應(yīng)的文本文件中,各類目標(biāo)的旋轉(zhuǎn)角度分布均衡,但存在目標(biāo)類別不平衡、目標(biāo)尺寸極小的問(wèn)題。

        使用數(shù)據(jù)集中原始圖像的1/2 作為訓(xùn)練集,1/6作為驗(yàn)證集,1/3 作為測(cè)試集,評(píng)估方式采用VOC2007 平均精度計(jì)算方法。因DOTA 數(shù)據(jù)集原始圖像尺寸過(guò)大,直接訓(xùn)練會(huì)導(dǎo)致檢測(cè)效果很差,故將DOTA 數(shù)據(jù)集裁切為600×600 的子圖,設(shè)置重疊為100 個(gè)像素,裁切好的DOTA 數(shù)據(jù)集共20 672 張圖像。訓(xùn)練時(shí)再將圖像放大到800×800,設(shè)置24 個(gè)時(shí)期,學(xué)習(xí)率設(shè)置與HRSC2016 數(shù)據(jù)集相同,且在第12、16 和20 個(gè)時(shí)期通過(guò)線性預(yù)熱方法調(diào)整學(xué)習(xí)率。

        通過(guò)對(duì)比表2 的實(shí)驗(yàn)結(jié)果,對(duì)DOTA 測(cè)試集中的937 張圖像進(jìn)行測(cè)試并上傳到DOTA 數(shù)據(jù)集官方服務(wù)器評(píng)估,最后,得到艦船目標(biāo)類別檢測(cè)平均精度為87.52,部分檢測(cè)結(jié)果如圖6 所示。

        表2 DOTA 數(shù)據(jù)集測(cè)試結(jié)果Tab.2 Test results on DOTA data set

        圖6 DOTA 數(shù)據(jù)集部分測(cè)試結(jié)果Fig.6 Part of the test results on DOTA data set

        2.3 嵌入式智能圖像處理平臺(tái)實(shí)驗(yàn)結(jié)果分析

        將算法模型部署在模擬星載嵌入式智能圖像處理平臺(tái)并測(cè)試HRSC2016 數(shù)據(jù)集,表3 的實(shí)驗(yàn)結(jié)果表明:本文方法在模擬星載嵌入式智能圖像處理平臺(tái)上檢測(cè)HRSC2016 數(shù)據(jù)集速度最快高可達(dá)到1.3 幀/s,對(duì)應(yīng)模型容量為405 MB,另外,檢測(cè)平均精度最高可達(dá)到90.20,能夠有效檢測(cè)艦船目標(biāo)。

        表3 NVIDIA Jetson TX2 平臺(tái)測(cè)試結(jié)果Tab.3 Test results on NVIDIA Jetson TX2 platform

        3 結(jié)束語(yǔ)

        本文針對(duì)遙感圖像艦船旋轉(zhuǎn)目標(biāo)檢測(cè)方法進(jìn)行研究,通過(guò)引入注意力機(jī)制SE 模塊增強(qiáng)網(wǎng)絡(luò)提取遙感圖像特征圖信息,針對(duì)艦船長(zhǎng)寬比大、易受特征不對(duì)齊問(wèn)題的影響,使用級(jí)聯(lián)特征重建模塊緩解該問(wèn)題,在保證檢測(cè)速度的前提下有效提高了檢測(cè)精度。在模擬星載嵌入式智能處理平臺(tái)部署本算法檢測(cè)艦船目標(biāo),使用405 MB 模型可每秒處理1.3 幀圖像,對(duì)應(yīng)平均精度可達(dá)89.01,具備在軌應(yīng)用的可能。后續(xù)將圍繞算法模型容量壓縮等方面,在保證平均精度的同時(shí)進(jìn)一步提高檢測(cè)速度。此外,該算法在航天系統(tǒng)部裝備部主辦的第2 屆全國(guó)“天智杯”科目“小樣本條件下寬幅光學(xué)衛(wèi)星圖像艦船目標(biāo)智能快速篩選”中獲得第3 名,同樣驗(yàn)證了本文所提方法的有效性。

        猜你喜歡
        錨框艦船精度
        基于YOLOv3錨框優(yōu)化的側(cè)掃聲吶圖像目標(biāo)檢測(cè)
        艦船通信中的噪聲消除研究
        錨框策略匹配的SSD飛機(jī)遙感圖像目標(biāo)檢測(cè)
        基于SSD算法的輕量化儀器表盤檢測(cè)算法*
        基于GA-RoI Transformer的遙感圖像任意方向目標(biāo)檢測(cè)
        艦船測(cè)風(fēng)傳感器安裝位置數(shù)值仿真
        基于DSPIC33F微處理器的采集精度的提高
        電子制作(2018年11期)2018-08-04 03:25:38
        GPS/GLONASS/BDS組合PPP精度分析
        艦船腐蝕預(yù)防與控制系統(tǒng)工程
        改進(jìn)的Goldschmidt雙精度浮點(diǎn)除法器
        国产精品黄网站免费观看| av在线观看一区二区三区| 粗大的内捧猛烈进出少妇| 国内a∨免费播放| 丰满人妻无套中出中文字幕| 久久精品国产亚洲不卡| 人妻久久久一区二区三区蜜臀 | 色妞ww精品视频7777| 久久99欧美| 亚洲中国美女精品久久久| 手机在线观看免费av网站| 97精品一区二区视频在线观看| 欧美亚洲午夜| 国产精品又黄又爽又色| 91九色老熟女免费资源| 日韩精品一区二区三区免费视频| 草草影院国产| 国产视频一区2区三区| 日本一二三区视频在线| 少妇熟女视频一区二区三区| 亚洲一级无码AV毛片久久| 久久一区二区三区少妇人妻| 久久久久久国产精品免费免费 | 日本免费一区二区在线看片| 婷婷色香五月综合激激情| 爽妇网国产精品| 国产日韩精品视频一区二区三区| 变态调教一区二区三区女同| 国产尤物精品福利视频| 亚洲综合色婷婷久久| 国产熟女白浆精品视频二| 国产激情无码一区二区三区| 国际无码精品| 日本成人三级视频网站| 一二三四五区av蜜桃| 伊人色综合视频一区二区三区| 草莓视频在线观看无码免费| 亚洲一区二区三区偷拍视频 | 欧美亚洲精品一区二区| 一区二区特别黄色大片| 日本人妻免费在线播放|