亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        多尺度與復(fù)雜背景條件下的SAR圖像船舶檢測

        2021-07-15 07:58:32劉暢朱衛(wèi)綱
        遙感信息 2021年3期
        關(guān)鍵詞:錨框尺度樣本

        劉暢,朱衛(wèi)綱

        (航天工程大學(xué),北京 101416)

        0 引言

        我國是海洋大國,具有遼闊的海域與豐富的海洋資源,及時準(zhǔn)確地掌握船只目標(biāo)的位置分布,對管理海洋交通、維護海洋權(quán)益等方面都具有重要意義。星載合成孔徑雷達(synthetic aperture radar,SAR)是一種主動式微波成像雷達,具有全天時、全天候工作的能力,在軍事偵察、海洋管理、地形勘測等眾多領(lǐng)域都有廣泛的應(yīng)用。如何利用SAR圖像快速準(zhǔn)確地檢測海洋船舶目標(biāo)也成為了備受關(guān)注的研究課題。恒虛警率(constant false alarm rate,CFAR)算法[1]是檢測SAR圖像船舶目標(biāo)的傳統(tǒng)算法,通過建立海雜波的統(tǒng)計模型并確定虛警概率與閾值進行檢測。但是由于SAR圖像往往具有復(fù)雜的海雜波分布,難以用單一的統(tǒng)計模型來描述,因此CFAR算法的魯棒性較差。

        近年來,隨著計算機技術(shù)與深度學(xué)習(xí)方法的迅速發(fā)展,基于卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural network,CNN)的目標(biāo)檢測算法在精度與速度上取得了重大突破,開啟了基于CNN的目標(biāo)檢測的熱潮,并陸續(xù)出現(xiàn)了R-CNN[2]、Fast R-CNN[3]、Faster R-CNN[4]、R-FCN[5]、YOLO[6-7]、SSD[8]、RetinaNet[9]、EfficientDet[10]等眾多檢測算法。由于CNN的檢測算法在光學(xué)圖像目標(biāo)檢測中取得了卓越的效果,研究人員開始將CNN目標(biāo)檢測算法應(yīng)用到SAR遙感圖像的目標(biāo)檢測當(dāng)中。然而SAR圖像與光學(xué)圖像相比,在包含信息、分辨率、成像機制方面都有較大區(qū)別。SAR圖像數(shù)據(jù)通常為單通道復(fù)數(shù)據(jù),分辨率較低,且存在較多的斑點噪聲,其成像幾何為斜距投影,容易產(chǎn)生疊掩、透視收縮、多路徑假目標(biāo)等幾何畸變,因此相比于光學(xué)圖像檢測難度更大。

        目前的檢測算法主要解決多尺度檢測問題與復(fù)雜場景下的虛警問題。對于多尺度檢測問題,主要的解決方法是對不同尺度的特征進行融合,文獻[11-13]在網(wǎng)絡(luò)中引入特征金字塔(feature pyramid networks)結(jié)構(gòu)融合不同尺度的特征,Jiao等[14]使用密集連接的方式進行多尺度融合。其他的多尺度融合結(jié)構(gòu)還有PANet[15]、NAS-FPN[16]等。對于復(fù)雜場景下的檢測問題,Kang等[17]提出結(jié)合上下文信息的方法,利用目標(biāo)周圍的背景信息提高檢測結(jié)果,An等[18]采用傾斜的矩形框標(biāo)記目標(biāo),能夠更準(zhǔn)確地標(biāo)記復(fù)雜環(huán)境下分布密集的目標(biāo)。

        本文為了提高多尺度檢測的能力,使用可訓(xùn)練的權(quán)重對不同尺度的特征圖進行加權(quán)融合;為了減少在復(fù)雜環(huán)境下的虛警,利用提取的特征指導(dǎo)錨框的生成,減少了負樣本錨框的數(shù)量,進而降低了虛警概率。本文使用三個SAR圖像船舶目標(biāo)公開數(shù)據(jù)集對網(wǎng)絡(luò)進行訓(xùn)練與測試。分析結(jié)果表明,此算法相比其他檢測方法具有更好的檢測效果。

        1 網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計

        1.1 特征提取網(wǎng)絡(luò)

        一般來說,特征提取網(wǎng)絡(luò)的層數(shù)越深,能夠提取的信息越多,特征也越豐富,但是隨著網(wǎng)絡(luò)的加深,容易產(chǎn)生梯度爆炸和梯度消失的問題。通過正則化初始化以及中間加入正則化層可以一定程度上解決這一問題,但也僅僅可以訓(xùn)練幾十層的網(wǎng)絡(luò),如果訓(xùn)練更深的網(wǎng)絡(luò)將產(chǎn)生退化問題,隨著網(wǎng)絡(luò)層數(shù)的增加,在訓(xùn)練集上的準(zhǔn)確率將會趨于飽和甚至下降[19]。深度殘差網(wǎng)絡(luò)是一種特殊的卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),通過在淺層網(wǎng)絡(luò)的基礎(chǔ)上疊加恒等映射層,構(gòu)成殘差塊,可以有效地避免深度增加而導(dǎo)致的退化問題。ResNet101是一種深度殘差網(wǎng)絡(luò),網(wǎng)絡(luò)共包含33個殘差塊,每一個殘差塊包含3個卷積層,具有較強的特征提取能力。如圖1所示,本文在ResNet101網(wǎng)絡(luò)的基礎(chǔ)上增加了Conv6和Conv7 2層卷積層,以進一步提取語義信息,最后將Conv3到Conv7層的特征圖作為提取網(wǎng)絡(luò)的輸出,以便進一步進行特征融合。

        圖1 特征提取網(wǎng)絡(luò)與殘差結(jié)構(gòu)

        1.2 加權(quán)特征融合結(jié)構(gòu)

        由于海洋船舶的實際尺寸差異較大,SAR在不同工作模式下的分辨率也各不相同,因此檢測網(wǎng)絡(luò)需要滿足多尺度檢測的需求。

        多尺度特征融合旨在聚合不同分辨率的特征,增強多尺度檢測的能力。圖2是幾種不同的多尺度特征融合結(jié)構(gòu)對比。

        圖2 不同的多尺度融合網(wǎng)絡(luò)結(jié)構(gòu)

        圖2(a)的FPN結(jié)構(gòu)[20]以自上而下的方式將高層特征上采樣與低層特征直接相加。這種方法存在的問題是:自頂向下的方式只傳遞了高層的語義特征,而對于低層定位信息沒有傳遞;另一方面,將不同尺度的特征按照相同的比重直接相加,會造成低層特征的位置信息損失。

        圖2(b)的PANet(path aggregation network)結(jié)構(gòu)在FPN的基礎(chǔ)上增加了自下而上的路徑,縮短了低層定位信息與頂層特征之間的信息路徑。

        圖2(c)是NAS-FPN結(jié)構(gòu),使用神經(jīng)架構(gòu)搜索找出不規(guī)則特征的網(wǎng)絡(luò)拓撲,使用強化學(xué)習(xí)訓(xùn)練控制器在給定的搜索空間中選擇最佳的模型結(jié)構(gòu)。

        圖2(d)是全連接融合的方式,這種方式雖然檢測效果較好,但是極大地增加了網(wǎng)絡(luò)的復(fù)雜度,由于過多地增加了訓(xùn)練參數(shù),計算速度較慢。

        為了在提高特征融合網(wǎng)絡(luò)性能的同時盡可能地降低網(wǎng)絡(luò)的復(fù)雜度,本文利用一種簡單高效的加權(quán)雙向特征金字塔網(wǎng)絡(luò)BiFPN。如圖3所示,BiFPN網(wǎng)絡(luò)在PANet的基礎(chǔ)上移除單輸入節(jié)點,簡化模型結(jié)構(gòu),并添加了橫向捷徑,是一種簡單高效的特征融合結(jié)構(gòu)。通過在模型中引入可學(xué)習(xí)的權(quán)重對輸入特征加權(quán)融合,以學(xué)習(xí)不同輸入特征的重要性,分配不同尺度特征的信息比重。

        圖3 本文的特征融合網(wǎng)絡(luò)結(jié)構(gòu)

        本文使用快速正則化方法對節(jié)點的輸入特征圖進行加權(quán),各特征融合節(jié)點的加權(quán)公式如式(1)所示。

        (1)

        式中:ωi≥0;ε是為了計算穩(wěn)定性而設(shè)置的極小值,本文取值為1×10-4。

        以圖3中的Conv4層為例。

        (2)

        (3)

        1.3 利用GA-RPN結(jié)構(gòu)生成錨框

        在基于CNN的目標(biāo)檢測中,錨框(anchor box)通常是根據(jù)檢測任務(wù)的需求人為設(shè)計的一組框,用來作為分類與邊框回歸的基準(zhǔn)。這種人為設(shè)定錨框的方式主要存在兩點問題。一是檢測效率太低。對于一張圖像,往往需要生成幾千個錨框,而圖像中的正樣本往往很少,過多的負樣本錨框則會導(dǎo)致檢測速度較慢。二是不合理的先驗假設(shè)。生成錨框時,往往會依據(jù)先驗知識人為設(shè)定錨框的寬高,而對于SAR圖像船舶目標(biāo)來說,目標(biāo)的真實尺寸通常不固定且有較大差異,SAR在不同成像模式下的距離向和方位向分辨率也各不相同,因此人工設(shè)定錨框難以適應(yīng)圖像樣本的尺寸分布。

        基于上述兩點問題,本文利用融合后的特征去指導(dǎo)錨框中心以及寬高的生成,這樣可以大大減少負樣本錨框的產(chǎn)生,且能夠適應(yīng)極端尺寸的目標(biāo)。

        本文在BiFPN的每一層輸出特征圖后都嵌入了GA-RPN(guided anchoring-RPN)結(jié)構(gòu)[21]用于預(yù)測錨框,具體結(jié)構(gòu)如圖4所示。

        圖4 GA-RPN網(wǎng)絡(luò)結(jié)構(gòu)

        GA-RPN可以分為兩個子模塊,分別是錨框生成模塊和特征調(diào)整模塊。

        在錨框生成模塊中,從兩個分支分別預(yù)測特征圖上每個像素所對應(yīng)的圖像感受野是目標(biāo)的置信度,以及對應(yīng)的寬和高(用2通道的特征圖來表示)。當(dāng)目標(biāo)置信度大于特定的閾值時,則保留對應(yīng)位置的寬高作為預(yù)測的錨框。顯然,這種產(chǎn)生錨框的方式相比于滑窗的方法能夠減少大量的負樣本。

        特征調(diào)整模塊借鑒了可變形卷積(deformable convolution)[22]的思想,使用錨框生成模塊產(chǎn)生的2通道寬高特征圖預(yù)測可變形卷積的偏移量,然后利用預(yù)測的偏移量對原特征圖進行3×3的可變形卷積,通過對特征圖的修正,使之與生成的錨框精確匹配。

        1.4 分類回歸網(wǎng)絡(luò)與損失函數(shù)

        Bi-FPN的每一層特征分別經(jīng)過GA模塊后,產(chǎn)生不同尺度的錨框與修正后的特征圖,并分別進行邊界框回歸與分類。

        以其中一層特征圖為例,分類與回歸網(wǎng)絡(luò)的結(jié)構(gòu)如圖5所示,其中W、H表示寬、高。

        圖5 分類與回歸網(wǎng)絡(luò)結(jié)構(gòu)

        由于檢測網(wǎng)絡(luò)與GA-RPN聯(lián)合訓(xùn)練,損失函數(shù)中添加了生成錨框的損失函數(shù),聯(lián)合訓(xùn)練損失函數(shù)如式(4)所示。

        L=λ1Lloc+λ2Lshape+Lcls+Lreg

        (4)

        式中:Lloc是錨框定位損失函數(shù);Lshape為錨框形狀損失函數(shù);Lcls為檢測分類損失函數(shù),本文采用focal loss衡量分類損失;Lreg為檢測的邊框回歸損失函數(shù),本文采用CIoU衡量邊框回歸損失;λ1和λ2為平衡項,本文λ1=1,λ2=0.1。

        對于錨框定位損失函數(shù)Lloc,將目標(biāo)真實邊界框G=(xg,yg,Wg,Hg)映射到特征圖的尺度,特征圖上的邊界框為G′=(x′g,y′g,W′g,H′g)。對于中心落在G′中心區(qū)域的錨框,將其記為正樣本;對于中心落在G′區(qū)域外的錨框,將其記為負樣本;對其余中心落在G′區(qū)域邊緣的錨框進行忽略。最后,利用focal loss損失函數(shù)訓(xùn)練錨框定位分支。

        對于錨框形狀損失函數(shù)Lshape,將錨框與真實邊界框ground truth進行匹配,計算最大化IoU,作為衡量錨框形狀預(yù)測效果的標(biāo)準(zhǔn)。其計算方法如式(5)所示。

        (5)

        式中:w和h表示預(yù)測的寬度和高度;wg和hg表示標(biāo)簽中真實框的寬度和高度;L1(·)表示平滑L1損失。

        2 數(shù)據(jù)集構(gòu)建與模型訓(xùn)練

        基于上述的網(wǎng)絡(luò)設(shè)計,本文通過實驗比較了各項改進優(yōu)化對檢測準(zhǔn)確率的提升效果。

        2.1 實驗數(shù)據(jù)集

        本文使用的訓(xùn)練圖像來自于表1中的三個SAR船舶目標(biāo)數(shù)據(jù)集。

        表1 本文使用的訓(xùn)練數(shù)據(jù)集

        將數(shù)據(jù)集SSDD和SAR-Ship-Dataset中80%的樣本作為本文實驗的訓(xùn)練集與驗證集,剩余20%的樣本與數(shù)據(jù)集AIRSAR-Ship-2.0作為測試集。

        圖6 實驗所用的數(shù)據(jù)集樣本

        由于數(shù)據(jù)集SAR-Ship-Dataset中的切片尺寸過小,為了在尺寸上與數(shù)據(jù)集SSDD保持基本的一致,在訓(xùn)練過程中,隨機抽取四張數(shù)據(jù)集中256像素×256像素的圖像進行拼接,拼接后的圖像尺寸為512像素×512像素。在使數(shù)據(jù)集尺寸基本一致的同時,這種方法可以提高訓(xùn)練效率,并且能夠使目標(biāo)在圖像中的位置更具有隨機性。

        2.2 實驗平臺與訓(xùn)練參數(shù)

        實驗在Windows10系統(tǒng)下,基于深度學(xué)習(xí)框架pytorch-1.6.0進行,并使用CUDA-10.1與CUDNN-7.6.5加速訓(xùn)練。計算機CPU為Intel Core i9-9820X,GPU為NVIDIA Titan V,顯存大小為12 GB。

        訓(xùn)練過程中,使用ResNet-101在ImageNet上的預(yù)訓(xùn)練模型對ResNet參數(shù)進行初始化,使網(wǎng)絡(luò)能夠較快地收斂,縮短訓(xùn)練時間。使用Adam作為訓(xùn)練的優(yōu)化器,初始學(xué)習(xí)率設(shè)置為0.000 1,若訓(xùn)練三個epoch之后網(wǎng)絡(luò)性能無法提升,則自動將學(xué)習(xí)率衰減為原來的一半。

        3 檢測結(jié)果與分析

        3.1 算法評價準(zhǔn)則

        本文采用的算法衡量指標(biāo)為精確率(precision)、召回率(recall)、F1值與mAP。若將得分閾值設(shè)為0.5,將區(qū)分正負樣本的IoU閾值設(shè)為0.5,用TP表示正確預(yù)測的正樣本數(shù)量、FP表示負樣本被錯誤預(yù)測為正樣本的數(shù)量、FN表示未檢測出的正樣本數(shù)量,則精確率如式(6)所示。

        (6)

        召回率如式(7)所示。

        (7)

        為了綜合上述兩種指標(biāo)對檢測結(jié)果進行評價,使用F1值作為檢測的綜合評價指標(biāo),其計算方法如式(8)所示。

        (8)

        對于mAP的計算,本文對網(wǎng)絡(luò)的所有預(yù)測結(jié)果計算P-R曲線,以便更好地觀察曲線的變化趨勢,評價網(wǎng)絡(luò)的檢測效果。同時,以0.5為預(yù)測得分的閾值,僅對高于閾值的最終檢測結(jié)果計算mAP,反映算法最終的檢測效果。

        3.2 特征融合網(wǎng)絡(luò)的效果對比實驗

        為了檢驗本文提出的加權(quán)BiFPN特征融合網(wǎng)絡(luò)的有效性,以RetinaNet檢測算法為基礎(chǔ),以ResNet-101結(jié)構(gòu)為特征提取網(wǎng)絡(luò),分別使用FPN、PANet以及加權(quán)BiFPN結(jié)構(gòu)作為特征融合網(wǎng)絡(luò),在本文數(shù)據(jù)集中進行測試。實驗結(jié)果如表2所示。本文方法在保持精確率基本不變的情況下,能夠顯著地提高檢測召回率,相比于FPN結(jié)構(gòu)召回率提高了4%。

        表2 特征融合網(wǎng)絡(luò)檢測效果對比 %

        3.3 錨框生成方法實驗對比

        通過比較BiFPN+預(yù)設(shè)密集錨框的方法與BiFPN+GA-RPN方法的實驗結(jié)果,檢驗本文特征指導(dǎo)錨框生成方法的有效性。實驗結(jié)果如表3所示??梢钥闯?,本文方法相比于預(yù)設(shè)密集錨框的方法能夠明顯提高檢測精確率,即降低了虛警率,同時檢測的召回率也有一定限度的提高。圖7是部分實驗結(jié)果,其中第一行圖像為傳統(tǒng)預(yù)設(shè)密集錨框方法的檢測結(jié)果,第二行為本文方法的實驗結(jié)果,對比來看,在復(fù)雜場景下,本文方法產(chǎn)生的虛警更少。

        表3 兩種錨框生成方法效果對比 %

        注:藍色框表示漏檢目標(biāo);黃色框表示虛警。圖7 不同錨框生成方法的結(jié)構(gòu)對比

        3.4 整體網(wǎng)絡(luò)結(jié)構(gòu)改進效果

        綜合使用加權(quán)BiFPN結(jié)構(gòu)與GA-RPN結(jié)構(gòu)構(gòu)建本文提出的算法。實驗對比Faster R-CNN、SSD、YOLOv4以及本文算法在本文數(shù)據(jù)集上的檢測效果,通過精確率、召回率、F1值以及mAP評估各檢測算法的性能,如表4所示。最后,測試集在不同算法上的檢測結(jié)果繪制P-R曲線,如圖8所示??梢钥闯?,本文算法的曲線下方面積最大,效果最好。圖9是不同算法的檢測圖像對比,其中左側(cè)第一列是對密集分布的小目標(biāo)的檢測結(jié)果。可以看出,本文方法擁有更低的漏檢率。后三列是在復(fù)雜場景下的檢測結(jié)果,可以看出,YOLOv4、SSD這類單階段算法虛警率較高,且邊框回歸不準(zhǔn)確,而本文采用的GA-RPN結(jié)構(gòu)能夠排除較多的負樣本錨框,在港口等復(fù)雜場景下能夠有效地排除干擾。

        表4 本文算法與其他檢測算法對比

        圖8 不同算法的P-R曲線對比

        圖9 不同算法的檢測結(jié)果對比

        4 結(jié)束語

        傳統(tǒng)的多尺度特征融合結(jié)構(gòu)沒有考慮融合比重以及底層位置信息流動的問題,本文針對這兩點不足,利用基于加權(quán)融合的BiFPN結(jié)構(gòu)作為特征融合網(wǎng)絡(luò)。針對傳統(tǒng)CNN檢測方法預(yù)設(shè)密集分布的錨框從而影響檢測效果的問題,本文使用提取的特征來指導(dǎo)錨框的生成,減少了較多的負樣本錨框,在提高效率的同時具有更低的虛警率。目前的訓(xùn)練與檢測實驗都是在SAR圖像切片上完成,擁有較好的檢測效果,而對于一景完整的SAR圖像,往往需要先對圖像進行裁剪,之后逐一檢測再拼接,這樣的方法容易將目標(biāo)裁剪到不同的圖像上引起檢測困難。因此,在未來的工作中,在進一步優(yōu)化網(wǎng)絡(luò)結(jié)構(gòu)的同時應(yīng)考慮對于整幅SAR圖像的檢測方法,以滿足SAR圖像目標(biāo)的實際需求。

        猜你喜歡
        錨框尺度樣本
        基于YOLOv3錨框優(yōu)化的側(cè)掃聲吶圖像目標(biāo)檢測
        信號處理(2022年11期)2022-12-26 13:22:06
        錨框策略匹配的SSD飛機遙感圖像目標(biāo)檢測
        基于SSD算法的輕量化儀器表盤檢測算法*
        基于GA-RoI Transformer的遙感圖像任意方向目標(biāo)檢測
        用樣本估計總體復(fù)習(xí)點撥
        財產(chǎn)的五大尺度和五重應(yīng)對
        推動醫(yī)改的“直銷樣本”
        隨機微分方程的樣本Lyapunov二次型估計
        宇宙的尺度
        太空探索(2016年5期)2016-07-12 15:17:55
        村企共贏的樣本
        亚洲国产精品综合久久20 | 18黑白丝水手服自慰喷水网站| 天堂影院一区二区三区四区| 妺妺窝人体色www聚色窝韩国| 91桃色在线播放国产| 亚洲啪啪视频一区二区| 女人被男人躁得好爽免费视频| 国产精品一区二区在线观看完整版| 美女一区二区三区在线观看视频| 国产高清精品一区二区| 未满十八勿入av网免费| 四月婷婷丁香七月色综合高清国产裸聊在线 | 这里只有久久精品| 亚洲av高清资源在线观看三区 | 久久精品人妻嫩草av蜜桃| 真实夫妻露脸爱视频九色网| 国产精品 人妻互换| 亚洲天堂中文| 国产精品午夜福利天堂| 无码精品国产一区二区三区免费| 午夜福利92国语| 亚洲男人天堂av在线| 国产毛片视频一区二区三区在线| 97se亚洲国产综合在线| 成在人线av无码免费| 日韩精品中文字幕 一区| 就爱射视频在线视频在线| 国产深夜男女无套内射| 无码之国产精品网址蜜芽| 青青草视频免费在线播放| 老师开裆丝袜喷水视频| 人成午夜免费大片| 免费人成视频网站在线观看不卡| 丰满的少妇av一区二区三区| 日本免费a级毛一片| 加勒比精品久久一区二区三区| 亚洲粉嫩视频在线观看| 艳妇臀荡乳欲伦69调教视频| 日本高清www午色夜高清视频| 国产区高清在线一区二区三区| 亚洲人成在久久综合网站|