亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        多尺度特征融合與特征通道關(guān)系校準(zhǔn)的SAR圖像船舶檢測(cè)

        2021-09-02 09:17:00周雪珂
        雷達(dá)學(xué)報(bào) 2021年4期
        關(guān)鍵詞:船舶特征檢測(cè)

        周雪珂 劉 暢 周 濱①

        ①(中國(guó)科學(xué)院大學(xué) 北京 100049)

        ②(中國(guó)科學(xué)院空天信息創(chuàng)新研究院 北京 100190)

        1 引言

        合成孔徑雷達(dá) (Synthetic Aperture Radar,SAR) 作為一種主動(dòng)式微波成像傳感器,利用脈沖壓縮技術(shù)改善距離分辨率,利用合成孔徑原理改善方位分辨率,具有全天時(shí)、全天候進(jìn)行高分辨率雷達(dá)成像觀測(cè)能力[1,2]。SAR成像技術(shù)的日益成熟,對(duì)SAR圖像中船舶目標(biāo)檢測(cè)的實(shí)時(shí)性和準(zhǔn)確性也有了更高的要求[3]。

        傳統(tǒng)的SAR船舶檢測(cè)方法一般采用多個(gè)步驟,從圖像預(yù)處理,海陸分割,再到候選區(qū)域提取,最后進(jìn)行目標(biāo)檢測(cè)和鑒別[4]。然而這種方法往往針對(duì)不同的場(chǎng)景問(wèn)題就需要設(shè)計(jì)具體的解決方案,具有泛化性差的問(wèn)題,檢測(cè)精度也較差。

        近些年,深度學(xué)習(xí)技術(shù)以其強(qiáng)大的特征表達(dá)能力和自主的學(xué)習(xí)能力在各個(gè)領(lǐng)域都得到了廣泛的應(yīng)用。基于深度學(xué)習(xí)的目標(biāo)檢測(cè)方法具有很多的優(yōu)點(diǎn)[5]。深度學(xué)習(xí)算法充分體現(xiàn)了端到端的檢測(cè)思想,整個(gè)過(guò)程幾乎不需要人為干預(yù)和人為假設(shè)。因其適應(yīng)性好,基于深度學(xué)習(xí)的目標(biāo)檢測(cè)算法針對(duì)光學(xué)圖像、SAR圖像,或者針對(duì)飛機(jī)、車輛、船舶等不同目標(biāo)只通過(guò)變更樣本重新訓(xùn)練即可,不需要修改網(wǎng)絡(luò)結(jié)構(gòu)和構(gòu)建新特征。而且其適應(yīng)性強(qiáng),深度學(xué)習(xí)技術(shù)在進(jìn)行船舶檢測(cè)時(shí)不用區(qū)分遠(yuǎn)海近岸目標(biāo),網(wǎng)絡(luò)可以自主學(xué)習(xí)目標(biāo)的深度特征。

        2014年,Girshick等人[6]開(kāi)創(chuàng)性地提出一種基于區(qū)域的卷積神經(jīng)網(wǎng)絡(luò)方法(Region-based CNN features,R-CNN),實(shí)現(xiàn)了在對(duì)目標(biāo)檢測(cè)的同時(shí)進(jìn)行識(shí)別。此算法在該領(lǐng)域引起了廣泛的關(guān)注,也涌現(xiàn)了很多有效的改進(jìn)算法,比如Fast R-CNN[7],Faster R-CNN[8],YOLO (You Only Look Once)[9],SSD (Single Shot multibox Detector)[10]。Fast RCNN在R-CNN的基礎(chǔ)上通過(guò)固定單一尺寸的卷積特征圖進(jìn)行網(wǎng)格劃分和池化,提高了計(jì)算速度。Faster R-CNN進(jìn)一步引入?yún)^(qū)域建議網(wǎng)絡(luò)(Region Proposal Network,RPN),通過(guò)RPN與Fast R-CNN共享特征提取網(wǎng)絡(luò),并進(jìn)行位置回歸,以提高目標(biāo)檢測(cè)的精度與速率。與R-CNN這些雙階段檢測(cè)器不同,Redmon等人[9]提出了一種單階段目標(biāo)檢測(cè)算法,稱為YOLO,該算法將檢測(cè)問(wèn)題簡(jiǎn)化為分類回歸,提升了檢測(cè)速度,但也降低了檢測(cè)的精準(zhǔn)性。在此基礎(chǔ)上,Liu等人[10]結(jié)合了Faster R-CNN的錨點(diǎn)機(jī)制與YOLO的回歸思想,提出了SSD目標(biāo)檢測(cè)算法,雖然在準(zhǔn)確度上有所提升,但對(duì)小目標(biāo)的檢測(cè)效果仍然較差。

        鑒于Faster R-CNN的高檢測(cè)準(zhǔn)確度,不少學(xué)者已將其應(yīng)用到SAR圖像船舶檢測(cè)中。李健偉等人[11]基于Faster R-CNN,結(jié)合將候選區(qū)域提取的二值化賦范梯度方法,采用級(jí)聯(lián)卷積神經(jīng)網(wǎng)絡(luò)以增加模型復(fù)雜度換取檢測(cè)精度的提升。2021年,李廣帥等人[12]基于Faster R-CNN通過(guò)設(shè)計(jì)不同尺寸卷積核增強(qiáng)對(duì)淺層特征的提取,但依舊是從增加特征提取網(wǎng)絡(luò)的卷積層數(shù)量出發(fā),增加模型復(fù)雜度。Wang等人[13]通過(guò)在網(wǎng)絡(luò)中引入軟閾值注意模塊抑制SAR船舶圖像中的海雜波噪聲與陸地背景,實(shí)驗(yàn)驗(yàn)證了其有效性與可行性。同時(shí),基于檢測(cè)速度的提升,Zhang等人[14]進(jìn)行了深入的研究。2019年,Zhang等人[15]提出基于深度可分離卷積神經(jīng)網(wǎng)絡(luò)的檢測(cè)算法,有效提升了檢測(cè)速度,但檢測(cè)精度有所損耗。之后,該團(tuán)隊(duì)又提出了一些輕量型網(wǎng)絡(luò)[16,17],能夠較好地權(quán)衡檢測(cè)精度與檢測(cè)速度,并且具有良好的遷移能力。

        復(fù)雜場(chǎng)景下的SAR圖像目標(biāo)檢測(cè),提升檢測(cè)精度和檢測(cè)速度,降低模型訓(xùn)練代價(jià),仍是目前大多數(shù)算法亟需解決的問(wèn)題。本文基于Faster R-CNN算法進(jìn)行優(yōu)化。首先,在卷積神經(jīng)網(wǎng)絡(luò)部分引入通道注意力模型(Channel Attention,CA)進(jìn)行通道間特征的關(guān)系校準(zhǔn),使網(wǎng)絡(luò)更加關(guān)注有效信息,抑制無(wú)關(guān)信息,提升檢測(cè)精度。其次,結(jié)合基于神經(jīng)架構(gòu)搜索(Neural Architecture Search,NAS)[18]算法的特征金字塔(Feature Pyramid Networks,FPN)[19]模塊,在FPN生成的不同組合特征空間實(shí)現(xiàn)特征圖的自動(dòng)跨層連接,獲取具有更豐富語(yǔ)義信息的特征圖,以提升檢測(cè)性能,同時(shí)在結(jié)合FPN后,適當(dāng)減少了特征維度,從而減少前后向傳播的運(yùn)算量,以降低訓(xùn)練時(shí)間,保證實(shí)時(shí)檢測(cè)。另外,在Faster R-CNN中,為了獲取固定尺寸的特征向量,感興趣區(qū)域池化層進(jìn)行了兩次量化操作,導(dǎo)致獲取的候選框位置發(fā)生了偏移,對(duì)小目標(biāo)檢測(cè)影響極大。本文借鑒2017年He等人[20]提出的Mask R-CNN中通過(guò)雙線性差值填充回歸得到的浮點(diǎn)數(shù)位置像素的方法,使得低層特征圖向上映射時(shí)沒(méi)有位置誤差,從而提升小目標(biāo)檢測(cè)效果。在檢測(cè)時(shí)利用非極大值軟抑制(Soft-Non Maximum Suppression,soft-NMS)[21]算法以改善非極大值抑制(NMS)的性能,提高復(fù)雜背景下停靠在一起的密集船舶檢測(cè)精度。

        2 Faster R-CNN算法原理

        Faster R-CNN算法檢測(cè)流程如圖1所示,首先基于特征提取網(wǎng)絡(luò)獲取輸入圖像的特征圖,然后通過(guò)RPN生成候選區(qū)域框,再使用感興趣區(qū)域池化(Region of Interest Pooling,RoI Pooling),從特征圖中獲得固定長(zhǎng)度的各個(gè)候選區(qū)域的特征向量,最后對(duì)固定尺寸的特征向量進(jìn)行分類得分與邊界框位置回歸。

        圖1 Faster R-CNN結(jié)構(gòu)圖Fig.1 The frame structure of Faster R-CNN

        2.1 特征提取網(wǎng)絡(luò)

        Faster R-CNN的特征提取網(wǎng)絡(luò)通常采用卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN),常見(jiàn)的特征網(wǎng)絡(luò)有LeNet,AlexNet,VGG,Google-Net,ResNet,DenseNet等。其中ResNet通過(guò)引入3層殘差模塊(如圖2所示),解決了神經(jīng)網(wǎng)絡(luò)中一味增加網(wǎng)絡(luò)層數(shù)導(dǎo)致的“退化問(wèn)題”。其中,Resnet50具有較好的特征提取能力,并且網(wǎng)絡(luò)層數(shù)與參數(shù)量也較少。因此,本文采用Resnet50作為Faster R-CNN的主干網(wǎng)絡(luò)。

        圖2 Resnet50的殘差結(jié)構(gòu)Fig.2 The residual structure of Resnet50

        2.2 區(qū)域建議網(wǎng)絡(luò)

        RPN主要是通過(guò)滑窗操作、中間層映射和兩個(gè)全連接層進(jìn)行分類回歸來(lái)實(shí)現(xiàn)候選區(qū)域生成的。

        如圖3所示,首先選擇3×3的滑動(dòng)窗口在共享特征的最后一層特征圖上進(jìn)行滑動(dòng),每個(gè)滑動(dòng)窗口區(qū)域通過(guò)中間層映射成一個(gè)特征向量,為每個(gè)滑窗區(qū)域的中心點(diǎn)生成k個(gè)不同尺寸和邊長(zhǎng)的錨框。該特征向量經(jīng)過(guò)分類和回歸分別輸出每個(gè)滑動(dòng)窗口的前背景概率值和回歸后的錨框位置坐標(biāo)信息。在RPN中,每個(gè)滑窗產(chǎn)生k個(gè)候選區(qū)域,回歸層則會(huì)生成4k個(gè)位置坐標(biāo)信息,分類層會(huì)生成2k個(gè)前背景得分信息。最后,RPN根據(jù)回歸計(jì)算出的修正值對(duì)每個(gè)錨框的長(zhǎng)、寬和中心進(jìn)行修正,修正后的候選區(qū)域再經(jīng)過(guò)非極大值抑制篩選出輸出得分靠前的前N個(gè)區(qū)域作為目標(biāo)檢測(cè)網(wǎng)絡(luò)的輸入。

        圖3 區(qū)域建議網(wǎng)絡(luò)結(jié)構(gòu)Fig.3 The structure of region proposal network

        2.3 RPN損失函數(shù)

        RPN網(wǎng)絡(luò)在生成候選區(qū)域框的時(shí)候有兩個(gè)任務(wù),一個(gè)是判斷錨點(diǎn)產(chǎn)生的候選框是否為目標(biāo)的二分類任務(wù),另一個(gè)是對(duì)該候選框進(jìn)行邊框回歸的回歸任務(wù)。故RPN訓(xùn)練時(shí)的總體損失函數(shù)是分類損失Lcls和回歸損失Lreg的加權(quán)和,表達(dá)式為

        分類損失函數(shù)為

        其中,i表示第i個(gè)錨點(diǎn),當(dāng)錨點(diǎn)為正樣本時(shí),表示錨框被預(yù)測(cè)為目標(biāo)的概率。

        回歸損失函數(shù)為

        其中,

        ti=ftx,ty,tw,thg表示預(yù)測(cè)的邊界框的4個(gè)位置參數(shù)坐標(biāo);ti表示正樣本對(duì)應(yīng)的真值邊界框的坐標(biāo)向量。其中,(x,y,w,h)為邊界框的中心坐標(biāo),寬,高。變量x,xa和x*分別用于預(yù)測(cè)框、錨框和真值邊界框。

        3 改進(jìn)的Faster R-CNN模型

        在解決復(fù)雜背景下的SAR圖像船舶目標(biāo)檢測(cè)任務(wù)時(shí),上述Faster R-CNN模型存在檢測(cè)精度較低且算法復(fù)雜度高、訓(xùn)練代價(jià)大的問(wèn)題,導(dǎo)致其模型應(yīng)用能力受限,針對(duì)此問(wèn)題,本文提出了一種改進(jìn)的Faster R-CNN模型。其網(wǎng)絡(luò)結(jié)構(gòu)如圖4所示,主要在以下3方面改進(jìn):

        圖4 本文算法網(wǎng)絡(luò)結(jié)構(gòu)Fig.4 The network structure of the algorithm in this paper

        (1) 為了提高小目標(biāo)檢測(cè)性能,解決Faster R-CNN在感興趣區(qū)域池化過(guò)程中兩次量化帶來(lái)的候選框位置偏差問(wèn)題,借鑒Mask R-CNN[20]中的RoI Align方法,使用雙線性內(nèi)插的方法獲得坐標(biāo)為浮點(diǎn)數(shù)的像素點(diǎn)上的圖像數(shù)值。

        (2) 為了提高檢測(cè)的準(zhǔn)確度,在卷積神經(jīng)網(wǎng)絡(luò)中加入通道注意力模塊,對(duì)不同通道間的特征關(guān)系進(jìn)行校準(zhǔn),提升網(wǎng)絡(luò)的特征提取能力。

        (3) 為了高效地利用不同尺度的特征圖,基于神經(jīng)架構(gòu)搜索算法,改進(jìn)特征金字塔結(jié)構(gòu),使網(wǎng)絡(luò)可以自動(dòng)跨不同特征層進(jìn)行特征融合。

        3.1 感興趣區(qū)域池化層

        Faster R-CNN通過(guò)RoI Pooling將RPN生成的候選區(qū)域統(tǒng)一到固定尺寸,然后經(jīng)過(guò)一個(gè)全連接層得到RoI特征向量。通過(guò)模型回歸得到的候選區(qū)域的位置往往是一個(gè)非整數(shù)像素值,為了得到池化后尺寸固定的特征圖,在RoI Pooling中存在兩次量化的過(guò)程,經(jīng)過(guò)這兩次量化,產(chǎn)生的候選框就會(huì)和開(kāi)始回歸出來(lái)的位置坐標(biāo)產(chǎn)生一定的誤差,這個(gè)誤差值會(huì)影響檢測(cè)的準(zhǔn)確度,尤其是在進(jìn)行小目標(biāo)檢測(cè)時(shí)。

        本文在感興趣區(qū)域池化部分引入Mask R-CNN中提出的RoI Align方法,具體操作如圖5所示。首先保持候選區(qū)域的浮點(diǎn)數(shù)位置坐標(biāo),然后將其劃分為k×k個(gè)單元,單元邊界也不做量化處理,最后對(duì)每個(gè)單元進(jìn)行四等分找到其中心點(diǎn),通過(guò)雙線性內(nèi)插計(jì)算出這4個(gè)位置的坐標(biāo),再進(jìn)行最大池化。該方法通過(guò)將RoI Pooling中兩次量化轉(zhuǎn)換成一個(gè)連續(xù)的過(guò)程,解決了Faster R-CNN中的位置偏差問(wèn)題。

        圖5 RoI Align的實(shí)現(xiàn)原理Fig.5 Implementation principle of RoI Align

        3.2 通道注意力模塊

        為了使模型更關(guān)注具有有效信息的通道特征,抑制無(wú)關(guān)特征,實(shí)現(xiàn)通道間特征關(guān)系的校準(zhǔn),本文在Faster R-CNN的特征提取網(wǎng)絡(luò)部分引入了CA機(jī)制。

        CA算法借鑒SENet模型[22]的網(wǎng)絡(luò)結(jié)構(gòu),如圖6(a)所示,假設(shè)輸入為通道數(shù)為C的H W的特征圖,首先對(duì)特征圖進(jìn)行壓縮(Squeeze)操作,將特征圖作為輸入,對(duì)應(yīng)圖6(b)中的全局平均池化(Global Pooling)操作,將不同通道上整個(gè)空間特征編碼聚合,得到一個(gè)經(jīng)過(guò)全局壓縮的C11的特征向量;然后對(duì)全局特征進(jìn)行激發(fā)(Excitation)操作,對(duì)應(yīng)圖6(b)可以看到,通過(guò)兩個(gè)全連接層對(duì)通道間的相關(guān)性進(jìn)行簡(jiǎn)單建模,提取各個(gè)通道間的關(guān)系,再經(jīng)過(guò)Sigmoid激活函數(shù)獲得歸一化權(quán)重值;最后在原始特征圖的基礎(chǔ)上進(jìn)行重加權(quán)(Scale)操作,也就是圖6(b)中的Scale操作,通過(guò)對(duì)原始特征圖乘以對(duì)應(yīng)通道的權(quán)重值,得到新的特征圖。SE_Resnet將原始特征圖與新特征圖進(jìn)行疊加,得到最終的特征信息,即在Resnet中的殘差模塊引入圖6(b)所示的CA結(jié)構(gòu)。

        圖6 通道注意力模塊結(jié)構(gòu)Fig.6 The structure of channel attention module

        本文選擇結(jié)合通道注意力的Resnet50作為特征提取網(wǎng)絡(luò)的主干網(wǎng)絡(luò),表1列出了特征提取網(wǎng)絡(luò)的相關(guān)參數(shù)。

        表1 以Resnet50作為主干網(wǎng)絡(luò)的特征提取網(wǎng)絡(luò)參數(shù)Tab.1 The network parameters extraction with Resnet50 as the backbone network feature

        3.3 特征金字塔模塊

        Faster R-CNN進(jìn)行目標(biāo)檢測(cè),利用頂層特征圖進(jìn)行后續(xù)目標(biāo)分類與回歸處理。頂層特征是卷積神經(jīng)網(wǎng)絡(luò)多次下采樣得到的,具有比較豐富的語(yǔ)義信息,但是對(duì)細(xì)節(jié)的損失較大,而由于SAR圖像成像范圍較大,船舶目標(biāo)相對(duì)較小,具有的像素信息也較少,在下采樣的過(guò)程中極易丟失,從而導(dǎo)致漏檢。為了解決這一問(wèn)題,本文引入特征金字塔模塊。為能準(zhǔn)確快速地找到一種跨尺度連接的最優(yōu)特征組合結(jié)構(gòu),本文使用了一種改進(jìn)的特征金字塔結(jié)構(gòu)(NAS-FPN)。NAS-FPN借助神經(jīng)架構(gòu)搜索算法的優(yōu)勢(shì),在FPN生成的不同組合特征空間中,發(fā)現(xiàn)一種高性能架構(gòu),實(shí)現(xiàn)特征的自動(dòng)跨層連接。

        NAS-FPN主要利用強(qiáng)化學(xué)習(xí)的思想,使用循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,RNN)作為控制器,利用網(wǎng)絡(luò)模型在特征搜索空間中的準(zhǔn)確度作為獎(jiǎng)勵(lì)進(jìn)行交互,產(chǎn)生特征的組合行為,得到最優(yōu)的模型架構(gòu)。如圖7所示,控制器對(duì)具有不同架構(gòu)的子網(wǎng)絡(luò)進(jìn)行采樣獲取概率P,子網(wǎng)絡(luò)模型將訓(xùn)練過(guò)程中的檢測(cè)準(zhǔn)確度R作為獎(jiǎng)勵(lì)信號(hào)反向傳播更新控制器,通過(guò)不斷迭代實(shí)驗(yàn),控制器學(xué)習(xí)如何獲取更好的組合架構(gòu),隨著訓(xùn)練模型的逐漸收斂,得到最終的實(shí)驗(yàn)參數(shù),也就是最優(yōu)的組合方式。

        圖7 NAS-FPN強(qiáng)化學(xué)習(xí)算法Fig.7 Reinforcement learning for NAS-FPN

        NAS-FPN通過(guò)上述的預(yù)處理任務(wù)訓(xùn)練一個(gè)簡(jiǎn)單的子網(wǎng)絡(luò)模型,只需選擇10個(gè)epoch,并且使用10層Resnet網(wǎng)絡(luò)進(jìn)行訓(xùn)練。經(jīng)過(guò)預(yù)訓(xùn)練任務(wù)得到的組合結(jié)構(gòu)如圖8所示,從圖中可以看到,此時(shí)的特征組合包括紅色自底向上和藍(lán)色自頂向下的特征組合方式,充分融合了不同尺度的特征圖信息。

        圖8 FPN組合結(jié)構(gòu)Fig.8 The combination structure of FPN

        當(dāng)通過(guò)上述方式選定特征組合后,本文采用Resnet50作為主干網(wǎng)絡(luò),提取了{(lán)C1,C2,C3,C4,C5} 5層特征,由于C1,C2占用內(nèi)存較大,故將其移除,然后對(duì)C5進(jìn)行下采樣得到C6和C7層,選取{C3,C4,C5,C6,C7}構(gòu)成特征金字塔。然后經(jīng)過(guò)NAS-FPN得到{P3,P4,P5,P6,P7}。NASFPN通過(guò)特征融合單元(Feature Mergeing Cell,FMC)對(duì)網(wǎng)絡(luò)提取的特征圖進(jìn)行重新融合,得到新的不同尺度的特征圖,然后作為目標(biāo)檢測(cè)子網(wǎng)絡(luò)的輸入。如圖9,首先從特征圖集合中選取兩幅特征圖C3,C5作為FMC的輸入,同時(shí)選取特征圖C4作為FMC輸出特征圖的分辨率,這里的C3,C4,C5都是通過(guò)預(yù)處理任務(wù)選定的;然后針對(duì)輸入的兩幅特征圖從Binary中選擇所需的融合操作。這里Binary操作主要有兩種選擇,第1種如圖10(a)所示,當(dāng)輸入的兩特征圖分辨率一致時(shí),直接進(jìn)行求和操作;第2種如圖10(b)所示,當(dāng)輸入的兩特征圖分辨率不一致時(shí),低層特征進(jìn)行最大池化,并通過(guò)sigmoid激活函數(shù),與高層特征元素乘,結(jié)果再與低層特征相加得到最終的輸出;最后將新的融合特征圖增加到開(kāi)始的特征圖集合中。

        圖9 NAS-FPN結(jié)構(gòu)圖Fig.9 The frame structure of NAS-FPN

        圖10 融合操作Fig.10 Binary operation

        圖11(a)–圖11(e)是NAS-FPN中不同層輸出特征圖的熱力圖,這里選取了P3–P7層的特征。圖11(f)–圖11(g)為熱力圖疊加在原圖上的效果圖,從圖11(f)可以看出,最終送入RPN中的特征圖在保留原始信息的基礎(chǔ)上,已經(jīng)充分融合了各個(gè)尺度的特征信息,實(shí)現(xiàn)了對(duì)目標(biāo)的精確定位。

        圖11 NAS-FPN熱力圖結(jié)果Fig.11 The heatmaps of NAS-FPN

        4 實(shí)驗(yàn)驗(yàn)證

        4.1 實(shí)驗(yàn)環(huán)境與數(shù)據(jù)集介紹

        本次實(shí)驗(yàn)使用的是SAR船舶檢測(cè)數(shù)據(jù)集(SAR Ship Detection Dataset,SSDD)[5],該數(shù)據(jù)集是國(guó)內(nèi)外公開(kāi)的首個(gè)專門(mén)用于SAR圖像船舶目標(biāo)檢測(cè)的數(shù)據(jù)集,共有1160個(gè)圖像和2456個(gè)船舶。該數(shù)據(jù)集參考PASCAL VOC數(shù)據(jù)集的制作方式,數(shù)據(jù)包括RadarSat-2、TerraSAR-X和Sentinel-1傳感器,HH,HV,VV和VH4種極化方式,分辨率為1~15 m,在大片海域和近岸地區(qū)都有船舶目標(biāo)。

        基于深度學(xué)習(xí)的SAR船舶檢測(cè)算法的日漸成熟,近些年多位學(xué)者提出用于模型訓(xùn)練的高分辨率SAR船舶檢測(cè)數(shù)據(jù)集[23,24,25]。為了驗(yàn)證本文所提出的網(wǎng)絡(luò)結(jié)構(gòu)泛化性,增加高分辨率SAR圖像數(shù)據(jù)集(High-Resolution SAR Images Dataset,HRSID)[24]進(jìn)行實(shí)驗(yàn)驗(yàn)證,該數(shù)據(jù)集共包含5064張高分辨率SAR圖像和16951個(gè)船舶目標(biāo),參考COCO數(shù)據(jù)集的構(gòu)建過(guò)程,包括不同極化方式和不同背景的船舶目標(biāo),分辨率為0.5 m,1.0 m,3.0 m。

        實(shí)驗(yàn)的硬件配置采用Intel Core i7處理器,6 G B 內(nèi)部存儲(chǔ)器,GPU處理器為NVIDIA GTX1660Ti;實(shí)驗(yàn)平臺(tái)為Ubuntu16.04;軟件環(huán)境是Python 3.6,Anaconda 3,CUDA10.0,Cudnn7.6。實(shí)驗(yàn)基于pytorch1.3實(shí)現(xiàn)卷積神經(jīng)網(wǎng)絡(luò)模型,其中模型的特征提取網(wǎng)絡(luò)都是在Resnet50上進(jìn)行預(yù)訓(xùn)練的,主要參數(shù)包括最大迭代次數(shù)、候選區(qū)域錨框尺寸與數(shù)量、學(xué)習(xí)率、優(yōu)化器和soft-NMS的閾值。

        4.2 評(píng)價(jià)指標(biāo)

        本文采用精度均值(Average Precision,AP)、訓(xùn)練時(shí)間(Time)、每秒幀數(shù)(Frame Per Second,FPS)、運(yùn)算浮點(diǎn)數(shù)(FLOPs)和參數(shù)量(parameters)作為算法的評(píng)價(jià)指標(biāo)。

        (1) 精度均值

        AP為準(zhǔn)確率P和召回率R在[0,1]范圍內(nèi)繪制的曲線pr與坐標(biāo)軸所圍成的面積。其表達(dá)式為

        其中,準(zhǔn)確率(Precision,P)是指在所有正樣本中,被正確識(shí)別為正樣本的比例。表達(dá)式為

        召回率(Recall,R)是預(yù)測(cè)的樣本數(shù)中,被正確識(shí)別為正樣本的?比例。表達(dá)式為

        其中,TP代表真正例,F(xiàn)N代表假反例,F(xiàn)P代表假正例。

        (2) 訓(xùn)練時(shí)間

        Time代表模型訓(xùn)練過(guò)程中,平均每一次迭代所需的時(shí)間,可以表示為

        其中,n為模型訓(xùn)練至收斂的迭代次數(shù),ti代表訓(xùn)練第i次迭代所需要的時(shí)間。

        (3) 每秒幀數(shù)

        FPS代表檢測(cè)速度的快慢,可以表示為

        其中,N為對(duì)測(cè)試集的樣本數(shù)量,T為對(duì)測(cè)試集進(jìn)行檢測(cè)所需要的時(shí)間。

        (4) 浮點(diǎn)運(yùn)算次數(shù)

        FLOPs用來(lái)評(píng)估前向運(yùn)算時(shí)的計(jì)算量,計(jì)算量越大,說(shuō)明網(wǎng)絡(luò)越復(fù)雜。

        (5) 參數(shù)量

        Parameters代表網(wǎng)絡(luò)中的參數(shù)數(shù)量,在神經(jīng)網(wǎng)絡(luò)中一般指訓(xùn)練模型時(shí)需要學(xué)習(xí)的權(quán)重和偏置值。

        4.3 算法性能評(píng)估

        首先在基礎(chǔ)實(shí)驗(yàn)上進(jìn)行多次調(diào)參,以獲得最佳實(shí)驗(yàn)結(jié)果。最終的實(shí)驗(yàn)參數(shù)設(shè)置如下:最大迭代次數(shù)為8000,錨框尺度設(shè)置為{4,8,16,32,64},比例為{0.5 :1 :2},學(xué)習(xí)率采用線性增加策略,初始的500次迭代中學(xué)習(xí)率逐漸增加,初始學(xué)習(xí)率設(shè)置為0.005,優(yōu)化器選擇的是隨機(jī)梯度下降法,soft-NMS的交并比閾值為0.5,最小得分閾值為0.05。當(dāng)模型訓(xùn)練逐漸收斂時(shí),會(huì)提前終止迭代。

        為了更好地評(píng)估本文所提出的改進(jìn)算法在SAR圖像船舶目標(biāo)的檢測(cè)性能,實(shí)驗(yàn)基于SSDD數(shù)據(jù)集定量分析了該優(yōu)化算法。從表2可以發(fā)現(xiàn),從檢測(cè)精度上看,F(xiàn)aster R-CNN在SSDD上的AP值為85.4%,首先模型在感興趣區(qū)域池化模塊使用RoI Align時(shí),AP提升了1.8%,通過(guò)添加CA模塊,獲取不同通道間特征圖的相關(guān)性,使得AP在Faster R-CNN基礎(chǔ)上提升了2.8%,通過(guò)添加NAS-FPN模塊獲取不同尺度的特征圖信息,使得AP在Faster R-CNN的基礎(chǔ)上提升了2.6%,本文算法結(jié)合CA與NAS-FPN模型,將AP相較基礎(chǔ)模型提升了4.0%,取得了較好的檢測(cè)結(jié)果;從訓(xùn)練時(shí)間上看,F(xiàn)aster R-CNN在SSDD上達(dá)到0.667 s/iter,本文算法在Faster R-CNN的基礎(chǔ)上添加了通道注意力模塊,增加了訓(xùn)練時(shí)間,但是通過(guò)結(jié)合NAS-FPN模塊,移除了占內(nèi)存較大的C1和C2層特征,并且將之前送入RPN的1024維的通道數(shù)減少到256維,降低了模型的復(fù)雜度與訓(xùn)練時(shí)間。故本文算法相較基礎(chǔ)Faster R-CNN仍具有極大的檢測(cè)精度優(yōu)勢(shì),同時(shí)檢測(cè)速度提升了7.9 FPS,達(dá)到10.7 FPS,完全能夠滿足海上船舶實(shí)時(shí)檢測(cè)的應(yīng)用需求。

        表2 基于Faster R-CNN的優(yōu)化算法對(duì)比Tab.2 Comparison of optimization algorithms based on Faster R-CNN

        4.4 實(shí)驗(yàn)結(jié)果對(duì)比

        為了進(jìn)一步驗(yàn)證本文算法的目標(biāo)檢測(cè)能力,基于SSDD與HRSID數(shù)據(jù)集,表3將本文算法與SSD[10],Cascade R-CNN[26]和PANet[27]等算法進(jìn)行了性能對(duì)比。圖12展示了不同算法在兩數(shù)據(jù)集上的P-R曲線圖。實(shí)驗(yàn)證明,本文算法雖然在檢測(cè)速度上和模型參數(shù)上存在一些劣勢(shì)。但不論在SSDD還是在HRSID數(shù)據(jù)集上,本文算法的檢測(cè)精度都是最高的。

        圖12 不同算法的P-R曲線對(duì)比Fig.12 The P-R curve of different methods

        表3 不同檢測(cè)算法的性能對(duì)比Tab.3 Comparison of different detection algorithms

        除上述在檢測(cè)精度方面的優(yōu)勢(shì)外,本文算法對(duì)各種復(fù)雜場(chǎng)景下船舶目標(biāo)的檢測(cè)適應(yīng)能力更強(qiáng)。圖13–圖15分別從SSDD中選擇了3種不同場(chǎng)景下的SAR船舶圖像進(jìn)行對(duì)比,包括小目標(biāo)船舶、近岸船舶和密集??看埃@里設(shè)置得分閾值為0.8,即認(rèn)為在測(cè)試中,如果檢測(cè)到的船舶目標(biāo)和標(biāo)記的矩形框的重疊部分達(dá)到標(biāo)記矩形框的80% 以上,則認(rèn)為是成功檢測(cè)。

        對(duì)比圖13可以發(fā)現(xiàn)本文算法在小目標(biāo)檢測(cè)中的檢測(cè)效果明顯更優(yōu),在Faster R-CNN中,由于模型檢測(cè)精度低,對(duì)船舶目標(biāo)的得分不夠準(zhǔn)確,在固定得分閾值下,當(dāng)?shù)梅纸Y(jié)果不夠精確時(shí),針對(duì)一例船舶目標(biāo)就會(huì)存在多個(gè)矩形標(biāo)記框,如圖13(c)中的虛警情況;當(dāng)船舶目標(biāo)的邊緣輪廓較弱時(shí),模型打分結(jié)果過(guò)低,就會(huì)導(dǎo)致漏檢。相同的參數(shù)設(shè)置下,本文算法因?yàn)槠錂z測(cè)精度的提升,完全消除了虛警現(xiàn)象,漏警也得到了明顯的改善,遺漏目標(biāo)也主要是因?yàn)榇澳繕?biāo)的邊緣較弱,提取的特征進(jìn)行回歸時(shí)的得分低于閾值,未成功檢測(cè),對(duì)于這一類弱目標(biāo)的檢測(cè),也會(huì)在今后的研究中重點(diǎn)關(guān)注;與SSD算法相比,SSD算法對(duì)小目標(biāo)檢測(cè)效果極差,在圖13中未檢測(cè)出一例船舶目標(biāo);通過(guò)對(duì)比PANet與Cascade R-CNN發(fā)現(xiàn),Cascade R-CNN在小目標(biāo)檢測(cè)上的效果較差,在Cascade R-CNN中,特征金字塔主要包括自上而下的單向融合,PANet中增加了自下而上的二次融合結(jié)構(gòu),而本文算法使用了NAS-FPN,增加了更復(fù)雜的雙向特征融合,能夠有效抑制噪聲提取目標(biāo),目前的檢測(cè)結(jié)果是最好的,檢測(cè)率為100%,召回率為88.2%,虛警率為0。這說(shuō)明本文算法對(duì)小目標(biāo)檢測(cè)相較當(dāng)前大多數(shù)網(wǎng)絡(luò)來(lái)說(shuō)效果更優(yōu)。

        圖13 小目標(biāo)船舶圖像的檢測(cè)算法對(duì)比Fig.13 Comparison of detection algorithms for small target

        對(duì)比圖14中復(fù)雜背景下的近岸船舶目標(biāo)檢測(cè)結(jié)果,本文算法由于多尺度特征融合,增強(qiáng)了不同尺度船舶特征的提取,同時(shí)結(jié)合了通道注意力模型對(duì)不同通道間特征關(guān)系進(jìn)行校準(zhǔn),使得近岸船舶不需要海陸分割等手段,就可以準(zhǔn)確提取目標(biāo)特征并成功檢測(cè)目標(biāo),在圖14中本文算法的檢測(cè)率達(dá)到100%,召回率為100%,虛警率為0。對(duì)比PANet和Cascade R-CNN網(wǎng)絡(luò),檢測(cè)結(jié)果保持一致,但Faster R-CNN和SSD算法由于檢測(cè)精度較低,均漏檢了圖中的小目標(biāo)船舶。這說(shuō)明了本文算法對(duì)復(fù)雜背景下近岸的SAR圖像船舶檢測(cè)效果也更好。

        圖14 近岸船舶圖像的檢測(cè)算法對(duì)比Fig.14 Comparison of detection algorithms for inshore ship

        對(duì)比圖15中復(fù)雜背景下的密集??看澳繕?biāo)檢測(cè)結(jié)果,對(duì)比算法均出現(xiàn)多個(gè)漏警,而本文算法則高效地檢測(cè)出了其中大部分的漏警,檢測(cè)率達(dá)到100%,召回率為85.7%,虛警率為0。從漏警目標(biāo)可以看出對(duì)于近鄰?fù)?康拇?,?dāng)其停靠角度有差異時(shí),就可以正確檢測(cè),但是,當(dāng)??吭谝黄鸬拇巴耆叫袝r(shí),就會(huì)將其檢測(cè)成一例目標(biāo),針對(duì)這一情況在后續(xù)研究中考慮使用平衡場(chǎng)景學(xué)習(xí)機(jī)制(Balance Scene Learning Mechanism,BSLM)[28]提升近岸復(fù)雜場(chǎng)景下的船舶檢測(cè)精度。目前實(shí)驗(yàn)結(jié)果對(duì)比表明本文算法對(duì)于密集停靠的船舶目標(biāo)檢測(cè)準(zhǔn)確度仍然更高。

        圖15 密集??康拇皥D像檢測(cè)算法對(duì)比Fig.15 Comparison of detection algorithms for adjacent targets

        表4基于SSDD數(shù)據(jù)集,將測(cè)試數(shù)據(jù)的船舶目標(biāo)按照近岸與離岸船舶分為兩類,分別統(tǒng)計(jì)其檢測(cè)精度與召回率。

        表4 不同檢測(cè)算法基于SSDD在近岸與離岸場(chǎng)景下的性能對(duì)比Tab.4 Comparison of different detection algorithms in inshore and offshore scenes of SSDD

        實(shí)驗(yàn)結(jié)果表明,不論是針對(duì)近岸船舶還是離岸船舶,本文的檢測(cè)精度都是最高的。與SSD算法相比較,本文算法的提升主要體現(xiàn)在離岸船舶目標(biāo)的檢測(cè),由于這類目標(biāo)多數(shù)為小目標(biāo)船舶導(dǎo)致SSD檢測(cè)效果較差。與Cascade R-CNN,PANet相比,本文算法因結(jié)合更復(fù)雜的多尺度特征融合與通道關(guān)系校準(zhǔn)模塊,在近岸和離岸船舶檢測(cè)中檢測(cè)精度均得到有效地提升。

        最后,本文選取了AIR-SARShip 1.0數(shù)據(jù)集[25]的圖像進(jìn)行模型結(jié)果測(cè)試。如圖16所示,AIRSARShip 1.0數(shù)據(jù)為3000×3000的高分辨SAR圖像,其中,使用藍(lán)色矩形框在檢測(cè)結(jié)果中標(biāo)注目標(biāo)位置。本文算法能夠較好地檢測(cè)出船舶目標(biāo),檢測(cè)率為100%。這說(shuō)明該模型對(duì)大場(chǎng)景下星載SAR圖像的船舶檢測(cè)也是有效的。

        圖16 本文算法在AIR-SARShip 1.0數(shù)據(jù)上的檢測(cè)結(jié)果Fig.16 Detection result of this algorithm on AIR-SARShip 1.0

        5 結(jié)語(yǔ)

        本文提出一種基于多尺度特征融合與通道關(guān)系校準(zhǔn)的Faster R-CNN目標(biāo)檢測(cè)算法,將其用于SAR圖像的船舶檢測(cè)研究中。在兩種船舶檢測(cè)數(shù)據(jù)集上的檢測(cè)結(jié)果均表明,相較原始Faster R-CNN,SSD,Cascade R-CNN與PANet,本文算法不論是針對(duì)不同尺度下的小目標(biāo)船舶,復(fù)雜背景下的近岸船舶,還是近鄰?fù)?康亩啻澳繕?biāo)都具有更好的檢測(cè)精度,各種復(fù)雜場(chǎng)景下的船舶目標(biāo)檢測(cè)適應(yīng)性更強(qiáng)。在檢測(cè)時(shí)間上,與原始Faster R-CNN相比,檢測(cè)速度得到了大幅度提升,能夠適應(yīng)對(duì)各種檢測(cè)實(shí)時(shí)性要求高的檢測(cè)任務(wù)需求,例如實(shí)時(shí)海面監(jiān)控、緊急海上救援以及軍事部署任務(wù)等。

        猜你喜歡
        船舶特征檢測(cè)
        計(jì)算流體力學(xué)在船舶操縱運(yùn)動(dòng)仿真中的應(yīng)用
        “不等式”檢測(cè)題
        “一元一次不等式”檢測(cè)題
        “一元一次不等式組”檢測(cè)題
        《船舶》2022 年度征訂啟事
        船舶(2021年4期)2021-09-07 17:32:22
        船舶!請(qǐng)加速
        如何表達(dá)“特征”
        不忠誠(chéng)的四個(gè)特征
        抓住特征巧觀察
        小波變換在PCB缺陷檢測(cè)中的應(yīng)用
        亚洲欧洲AV综合色无码| 天天碰免费上传视频| 人妻精品动漫h无码网站| 国产精品亚洲欧美天海翼| 在线观看中文字幕一区二区三区| 亚洲sm另类一区二区三区| 亚洲成aⅴ人片久青草影院| 精品久久久久久久中文字幕| 人妻少妇看A偷人无码电影| 男女啪啪啪的高清视频| 熟女无套高潮内谢吼叫免费| 国产真人无码作爱视频免费| 婷婷一区二区三区在线| 国产三级不卡在线观看视频| 在厨房被c到高潮a毛片奶水| 欧美日本国产va高清cabal| 欧美成人a视频免费专区| 国产亚洲精品一区在线| 日本一本之道高清不卡免费| 精品久久久久久久久久久aⅴ| 中文字幕日本女优在线观看| 国产一区二区长腿丝袜高跟鞋| 天堂а√在线最新版中文在线| 伊人色网站| 国产精品久久婷婷六月| 久久久99精品成人片| 欧美丰满熟妇aaaaa片| 狼色在线精品影视免费播放 | 日韩成人无码v清免费| 在线观看一区二区三区国产| 天天躁日日躁狠狠躁欧美老妇小说 | 久久精品国产久精国产果冻传媒| 麻豆AⅤ无码不卡| 人妻尤物娇呻雪白丰挺| 国产高清成人在线观看视频| 精品人妻人人做人人爽夜夜爽| 四虎影视国产884a精品亚洲| 不卡视频在线观看网站| 亚洲av永久无码精品三区在线| 456亚洲老头视频| 午夜视频在线观看国产|