亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        改進(jìn)RFBnet網(wǎng)絡(luò)的船只目標(biāo)檢測(cè)方法

        2022-06-23 06:24:44健,劉
        關(guān)鍵詞:先驗(yàn)標(biāo)簽卷積

        方 健,劉 坤

        上海海事大學(xué) 信息工程學(xué)院,上海 201306

        艦船是海上活動(dòng)的重要載體,基于計(jì)算機(jī)視覺(jué)的艦船目標(biāo)檢測(cè)已經(jīng)應(yīng)用到實(shí)際的船舶管理系統(tǒng)中,因此靠岸和離岸艦船的檢測(cè)在軍事和民用領(lǐng)域都有著廣泛的應(yīng)用。目前,艦船目標(biāo)檢測(cè)采用的平視視角的自然圖像具有數(shù)據(jù)量小、分辨率高、含有豐富的顏色和紋理信息、數(shù)據(jù)容易獲取等特點(diǎn),已成為目標(biāo)檢測(cè)領(lǐng)域重要的來(lái)源。但此類圖像中多目標(biāo)情況下的艦船目標(biāo)很容易被多目標(biāo)給遮擋,造成小目標(biāo)漏檢、分類錯(cuò)誤等問(wèn)題,如何提高檢測(cè)的精度和速度,滿足實(shí)際應(yīng)用中海洋安防的需求是急需解決的問(wèn)題。

        傳統(tǒng)的艦船目標(biāo)檢測(cè)算法分為三類,如基于統(tǒng)計(jì)的目標(biāo)檢測(cè)[1]、基于知識(shí)的目標(biāo)檢測(cè)[2]、基于模型的目標(biāo)檢測(cè)[3],這類算法需要人工提取目標(biāo)特征,如SIFT(尺度不變特征變換匹配算法)、HOG(方向梯度直方圖特征)、SURF(加速穩(wěn)健特征)等。隨著深度學(xué)習(xí)理論的日趨成熟,基于深度學(xué)習(xí)的算法都比傳統(tǒng)的目標(biāo)檢測(cè)算法有著更大的優(yōu)勢(shì)。目前基于深度學(xué)習(xí)的目標(biāo)檢測(cè)方法主要分為兩種模式,一種是以Fast-RCNN[4]、Faster-RCNN[5]為代表的兩級(jí)檢測(cè)器,基本特征首先由主干網(wǎng)提取,其次區(qū)域建議網(wǎng)絡(luò)(RPN)[6]根據(jù)預(yù)先定義的錨定值生成感興趣區(qū)域(ROI)提案,然后將這些方案的特征調(diào)整為固定大小,并由分類和回歸網(wǎng)絡(luò)的兩個(gè)分支進(jìn)行處理,最后檢測(cè)結(jié)果由非極大抑制獲得;另一種是以YOLO[7]和SSD[8]為代表的單級(jí)檢測(cè)器,網(wǎng)絡(luò)直接預(yù)測(cè)潛在對(duì)象在多個(gè)特征圖上的位置和類別標(biāo)簽,而不需要裁剪和調(diào)整ROI建議,處理方案更簡(jiǎn)單,并且比兩級(jí)檢測(cè)器能夠更快地檢測(cè)目標(biāo)。隨著目標(biāo)檢測(cè)框架的改進(jìn),單級(jí)檢測(cè)器的檢測(cè)精度也可媲美兩級(jí)檢測(cè)器,因此更多學(xué)者研究單級(jí)檢測(cè)器,甚至將單級(jí)和兩級(jí)檢測(cè)器相結(jié)合,這些算法已應(yīng)用于船舶檢測(cè)與識(shí)別領(lǐng)域。岳邦宇等[9]提出一種基于改進(jìn)的Faster-RCNN的艦船檢測(cè)方法將空洞卷積和VGG相結(jié)合,設(shè)計(jì)了一個(gè)特征提取網(wǎng)絡(luò),并將其應(yīng)用于SAR艦船目標(biāo)檢測(cè),提高了對(duì)小型艦船目標(biāo)的檢測(cè)能力。劉相云等[10]針對(duì)高分辨率遙感影像場(chǎng)景復(fù)雜,提出了一種改進(jìn)的RFB Net遙感影像目標(biāo)識(shí)別算法,在RFB Net模型的基礎(chǔ)上構(gòu)建特征金字塔網(wǎng)絡(luò),融合高層語(yǔ)義信息和低層特征信息,提高了網(wǎng)絡(luò)識(shí)別能力。Yu等[11]對(duì)傳統(tǒng)的YOLO算法進(jìn)行改進(jìn),采用網(wǎng)絡(luò)結(jié)構(gòu)改進(jìn)、輸入圖像多尺度變換、目標(biāo)幀維數(shù)聚類等方法,提高了小目標(biāo)的檢測(cè)速度。Liu介紹了一種a receptive fields block net detector(RFB Net),基于SSD的主干,結(jié)合了Inception[12]、空洞卷積的思想,來(lái)模擬人類的視覺(jué)感知,在保證檢測(cè)速度的同時(shí),檢測(cè)的效果進(jìn)一步提升。

        基于此,本文在RFBnet檢測(cè)算法的基礎(chǔ)上,提出了一種改進(jìn)RFBnet網(wǎng)絡(luò)的目標(biāo)檢測(cè)方法。首先,為了利用淺層和深層特征圖的優(yōu)勢(shì),分別設(shè)計(jì)池化特征融合模塊和反卷積特征融合模塊進(jìn)行特征融合形成新的六個(gè)有效特征層;其次,對(duì)于以VGG為基礎(chǔ)網(wǎng)絡(luò)的RFBnet算法,針對(duì)其淺層提取能力不足導(dǎo)致小目標(biāo)檢測(cè)效果不好的缺點(diǎn),對(duì)新的前三個(gè)有效特征層分別設(shè)置了對(duì)應(yīng)尺度的DB1、DB2、DB3卷積塊,用于增強(qiáng)該3層的特征信息;然后,為了提高感受野信息提取的效率,本文還融入注意力機(jī)制,讓卷積更加關(guān)心目標(biāo)中心區(qū)域的信息;最后引入聚焦分類損失來(lái)改進(jìn)原來(lái)的損失,以提高網(wǎng)絡(luò)的檢測(cè)性能。實(shí)驗(yàn)結(jié)果表明,改進(jìn)的RFBnet方法可以改善多目標(biāo)情況下的艦船目標(biāo)檢測(cè),該方法可應(yīng)用于實(shí)際的海洋安防工作中。

        1 RFBnet網(wǎng)絡(luò)模型及其改進(jìn)

        1.1 數(shù)據(jù)集的介紹

        本文針對(duì)可見(jiàn)光成像的船只檢測(cè)開(kāi)展研究,本文選取了一個(gè)包含7 000張1 920×1 080分辨率的船只數(shù)據(jù)集SeaShips[13],該數(shù)據(jù)集包含六類船只類型,所定義的六類船只基本上可以覆蓋近海區(qū)域內(nèi)出現(xiàn)的所有船只并充分考慮到背景、光照、視角、可見(jiàn)船體占比、尺度以及遮擋情況,部分圖像如圖1所示。該數(shù)據(jù)集采用標(biāo)準(zhǔn)的PASCAL VOC標(biāo)注格式,每一張圖片都精確標(biāo)注了目標(biāo)的標(biāo)簽和邊界框,在訓(xùn)練前進(jìn)行預(yù)處理,將圖像大小調(diào)整為300×300像素。其中ore carrier類有1 141張,bulk cargo carrier類有1 129張,container ship類有814張,general cargo ship類有1 188張,fishing boat類有1 258張,passenger ship類有705張,六類混合類別(圖像中有船只相互遮擋)的有765張,訓(xùn)練集、驗(yàn)證集和測(cè)試集按照7∶2∶1的比例隨機(jī)劃分。

        圖1 數(shù)據(jù)集部分樣本示例Fig.1 Partial sample of data set

        1.2 RFBnet及其改進(jìn)的網(wǎng)絡(luò)模型

        RFBnet算法[14]采用類似Faster-RCNN中的Multibox原理[15],網(wǎng)絡(luò)的輸入為3通道RGB圖像,特征圖共有6層,分別為BasicRFB_a P3、BasicRFB P3、BasicRFB P5、BasicRFB P6、Conv2d P7、Conv2d P8,尺寸分別為38×38、19×19、10×10、5×5、3×3、1×1,通道數(shù)分別為512、1 024、512、256、256、256。RFBnet算法采用主干網(wǎng)絡(luò)VGG-16提取特征,每一個(gè)特征單元分別用于學(xué)習(xí)其在原圖中感受野區(qū)域內(nèi)的信息,標(biāo)簽框的信息存在于該標(biāo)簽框中心點(diǎn)對(duì)應(yīng)的特征單元在原圖上的感受野區(qū)域中,該網(wǎng)絡(luò)特征中的每一個(gè)特征單元分別用于學(xué)習(xí)以其對(duì)應(yīng)原圖像素的信息,最后將該特征分別送入分類網(wǎng)絡(luò)與定位網(wǎng)絡(luò)用于學(xué)習(xí)各單元感受野中標(biāo)簽框的信息。

        本文保留了RFBnet基本模型框架,傳統(tǒng)的RFBnet算法對(duì)小目標(biāo)物體檢測(cè)效果較差。因此做了以下改進(jìn):(1)為了利用淺層和深層特征圖的優(yōu)勢(shì),分別設(shè)計(jì)池化特征融合模塊和反卷積特征融合模塊來(lái)提高各層之間的聯(lián)系;(2)設(shè)計(jì)了融入注意力機(jī)制的膨脹卷積模塊作用于原始圖像的特征提??;(3)引入聚焦分類損失來(lái)改進(jìn)原來(lái)的損失,以提高網(wǎng)絡(luò)的檢測(cè)性能。

        本文首先是BasicRFB_a P3、BasicRFB P3和P6、P7、P8分別與P5進(jìn)行特征融合并做L2 norm歸一化操作,同理,其他特征層做相同的操作,得到六個(gè)新的特征層;然后是DB1、DB2、DB3模塊分別與新的BasicRFB_a P3、BasicRFB P3、BasicRFB P5進(jìn)行特征融合[16],之后添加了一個(gè)3×3卷積層用于增加網(wǎng)絡(luò)的學(xué)習(xí)能力同時(shí)降低特征維度并獲得最終前三個(gè)有效特征層,這樣一共形成11 620個(gè)先驗(yàn)框,預(yù)測(cè)結(jié)果就會(huì)對(duì)這11 620個(gè)框分別進(jìn)行調(diào)整,最后判斷調(diào)整后的框是否包含所需要的物體,如果有的話就把他標(biāo)出來(lái),當(dāng)然利用先驗(yàn)框得到的框有一些會(huì)重合,所以還需對(duì)得分和重合情況進(jìn)行判斷,利用非極大抑制的辦法找到所需要的框并且標(biāo)出所屬的種類。如圖2所示為改進(jìn)的RFBnet模型框架。

        圖2 改進(jìn)的RFBnet模型框架Fig.2 Improved RFBnet model framework

        2 基于改進(jìn)RFBnet的檢測(cè)算法

        2.1 融入注意力機(jī)制的膨脹卷積塊DB

        RFBnet主干網(wǎng)絡(luò)提取特征的每個(gè)單元分別用于學(xué)習(xí)其在原圖中感受野區(qū)域內(nèi)的信息,而較淺網(wǎng)絡(luò)層的特征所學(xué)習(xí)的標(biāo)簽框尺度較小,那么想要提高學(xué)習(xí)標(biāo)簽框信息的準(zhǔn)確率需要讓網(wǎng)絡(luò)在學(xué)習(xí)的過(guò)程中不斷縮小各特征單元的感受野區(qū)域,同時(shí)也要保證該感受野區(qū)域內(nèi)的信息包含特征單元對(duì)應(yīng)位置的標(biāo)簽框信息。相較于深層特征,淺層特征的感受野區(qū)域更小,數(shù)量也更多,導(dǎo)致淺層學(xué)習(xí)起來(lái)難度更大,因此可以將重心放在前三層特征中,在設(shè)計(jì)膨脹卷積的卷積核尺寸時(shí)參考了RFBnet的先驗(yàn)框(priorbox)尺寸,RFBnet算法中先驗(yàn)框中心坐標(biāo)為:((offset+n-1)×step,(offset+m-1)×step),step是特征圖相對(duì)于原圖的比值,offset是一個(gè)比值,一般取0.5,特征圖第(n,m)個(gè)特征單元對(duì)應(yīng)的先驗(yàn)框中心坐標(biāo)為:((offset+n-1)×step,(offset+m-1)×step),即每相鄰的兩個(gè)先驗(yàn)框中心坐標(biāo)總是相差(step,step)。

        本文提出一種步長(zhǎng)為step的卷積網(wǎng)絡(luò)用于提取特征單元感受野區(qū)域內(nèi)的信息,卷積塊中卷積核的步長(zhǎng)均為其所對(duì)應(yīng)的step,卷積核的尺寸均大于標(biāo)簽框的尺寸,這樣讓信息提取得更加充分,每進(jìn)行一次卷積,都是其主干網(wǎng)絡(luò)層中特征單元感受野區(qū)域內(nèi)的信息進(jìn)行的一次采集,由于卷積的步長(zhǎng)為step,那么經(jīng)過(guò)一輪卷積,DB提取特征的寬與高正好是原圖寬與高的step分之一。同時(shí)需要讓每個(gè)卷積核充分的覆蓋每次卷積所學(xué)習(xí)的標(biāo)簽框,參考先驗(yàn)框的生成方法,BasicRFB_a P3、BasicRFB P3、BasicRFB P5層特征單元對(duì)應(yīng)的多個(gè)先驗(yàn)框最長(zhǎng)的邊分別為42、104、192,于是想到3種尺寸分別為60×60、120×120、240×240的卷積核去學(xué)習(xí)每個(gè)標(biāo)簽框的信息,這里卷積尺寸要比先驗(yàn)框稍大的一個(gè)重要原因是,在RFBnet算法中標(biāo)簽框是先驗(yàn)框經(jīng)過(guò)真實(shí)框調(diào)整后的框,往往正例的先驗(yàn)框與真實(shí)框會(huì)存在一定的偏差。

        對(duì)于一個(gè)需要檢測(cè)的目標(biāo),當(dāng)卷積核掃過(guò)靠近目標(biāo)中心區(qū)域內(nèi)的像素時(shí),卷積核會(huì)將注意力放在中心點(diǎn)附近。對(duì)于一個(gè)遠(yuǎn)小于60×60分辨率的目標(biāo),往往目標(biāo)周圍很大一塊區(qū)域的像素是無(wú)效的特征,所以單純使用一種尺寸的卷積核去學(xué)習(xí)特征單元感受野區(qū)域內(nèi)的信息,效率并不高,于是提出一種給卷積添加注意力機(jī)制的卷積塊結(jié)構(gòu),DB1結(jié)構(gòu)如圖3所示,通過(guò)給60×60的卷積并行添加了30×30和15×15尺寸的卷積分支。

        圖3 融入注意力機(jī)制的DB1Fig.3 DB1 into attention mechanism

        DB1對(duì)應(yīng)核的尺寸達(dá)到了240×240的分辨率,雖然步長(zhǎng)設(shè)為s tep(DB3卷積核的步長(zhǎng)為32)可以減少巨大的計(jì)算量,但是對(duì)于3通道的原圖,完成單通道輸出就需要240×240×3的參數(shù)量,若是匹配特征圖的通道數(shù),DB3卷積參數(shù)量就高達(dá)240×240×3×512,顯然給RFBnet增加這么多參數(shù)量是不值得的,于是引入了膨脹卷積,在膨脹率大于1時(shí),相同參數(shù)量的卷積核可以有更大的感受野,給3個(gè)不同分辨率的核分別設(shè)置了8、5、3的膨脹率,這樣相同感受野的情況下,參數(shù)量會(huì)降低,膨脹率的引入使得這么大尺寸的卷積核完全行得通,對(duì)于60×60的卷積核,可以使用8×8,膨脹率為8的卷積核進(jìn)行替代,兩者在原圖中有相同的覆蓋率,將步長(zhǎng)設(shè)為step,這將大大減少卷積的計(jì)算量。DB1中3層卷積核尺寸分辨率分別為60×60、30×30、15×15,通過(guò)R分別為8、5、3的膨脹率轉(zhuǎn)化后分辨率分別為8×8、6×6、5×5。DB2、DB3經(jīng)過(guò)同樣的轉(zhuǎn)化,結(jié)構(gòu)如圖4所示。

        圖4 DB1、DB2、DB3結(jié)構(gòu)圖Fig.4 DB1,DB2,DB3 structure diagram

        2.2 特征融合

        I-RFBnet共提取出6組不同大小的有效特征圖,圖5為I-RFBnet中的DFF模塊、PFF模塊對(duì)RFBnet主干網(wǎng)絡(luò)中BasicRFB P5進(jìn)行特征融合操作的流程示意圖,首先使用PFF模塊中的最大池化層2×2、3×3卷積和Relu激活函數(shù)對(duì)相對(duì)較淺的BasicRFB_a P3和BasicRFB P3特征進(jìn)行處理,在保留淺層網(wǎng)絡(luò)顯著的細(xì)節(jié)特征、降低特征維度的同時(shí),使淺層網(wǎng)絡(luò)特征學(xué)習(xí)到更多的非線性關(guān)系,與BasicRFB P5融合后使得BasicRFB P5獲取更多的BasicRFB_a P3和BasicRFB P3的邊緣細(xì)節(jié)信息,然后使用DFF模塊中的Deconv 2×2、3×3卷積和ReLU激活函數(shù)對(duì)相對(duì)較深的BasicRFB P6、Conv2d P7、Conv2d P8進(jìn)行處理,在填充特征內(nèi)容、提取敏感特征信息的同時(shí)使深層網(wǎng)絡(luò)特征學(xué)習(xí)到更多的非線性關(guān)系,與BasicRFB P5融合后,使得BasicRFB P5具備更多的BasicRFB P6、Conv2d P7、Conv2d P8的特征信息,圖5中的×2和×3分別代表將相應(yīng)的操作進(jìn)行兩次和三次,最后將上述提取的特征進(jìn)行融合并做L2 norm歸一化操作,組成新的BasicRFB P5特征,同理,對(duì)主干網(wǎng)絡(luò)中的其他層做相同操作,具體可表示為:

        圖5 對(duì)Basic RFB P5特征融合流程圖Fig.5 Flow chart of feature fusion for Basic RFB P5

        其中,xi為主干網(wǎng)絡(luò)第i層特征,ω(?)表示進(jìn)行3×3卷積和ReLU激活操作,σ(?)表示進(jìn)行下采樣操作,采用的是最大池化操作,表示進(jìn)行(i-p)次下采樣操作,[Xp]表示下采樣特征集合,δ(?)表示上采樣操作,采用的是最近鄰插值法,表示進(jìn)行(d-i)次上采樣操作,[Xd]表示上采樣特征集合,CBasicRFB(?)表示進(jìn)行特征融合操作,L2(?)表示進(jìn)行L2norm歸一化操作,Yi表示對(duì)原始網(wǎng)絡(luò)中xi層特征進(jìn)行上下文特征融合后生成的特征圖。

        2.3 候選框匹配和損失函數(shù)設(shè)計(jì)

        為實(shí)現(xiàn)對(duì)圖像中不同尺度的船只目標(biāo)進(jìn)行檢測(cè),設(shè)計(jì)不同縱橫比的候選框進(jìn)行匹配以適應(yīng)不同尺度大小的圖像目標(biāo),根據(jù)RFBnet損失函數(shù),可以得到候選框D={d1,d2,…,dn},其中di由(cx,cy,w,h)4個(gè)坐標(biāo)值組成,(cx,cy)為中心點(diǎn)坐標(biāo),w、h分別為候選框的寬和高,將候選框與真實(shí)標(biāo)簽框進(jìn)行匹配,得到候選框的坐標(biāo)及其對(duì)應(yīng)的目標(biāo)類別,具體可表示為Y?∈Rn×(l+4),l表示類別種類,為簡(jiǎn)單標(biāo)記可以令Y?=[Z?,B?],其中Z?=Rn×l表示預(yù)測(cè)類別向量集合,其中B?=Rn×4表示預(yù)測(cè)坐標(biāo)向量集合,當(dāng)候選框與真實(shí)的標(biāo)簽匹配大于閾值時(shí)將其記為正例樣本Pos表示,當(dāng)候選框與真實(shí)的標(biāo)簽框匹配小于閾值時(shí)將其記為負(fù)例樣本用Neg表示。

        此外,RFBnet算法在6個(gè)預(yù)測(cè)尺度上一共要預(yù)測(cè)11 620個(gè)預(yù)測(cè)框,其中只有少部分預(yù)測(cè)框中包含有目標(biāo),而大多數(shù)預(yù)測(cè)框中只包含有圖像背景信息,網(wǎng)絡(luò)更多地聚焦在容易分類的背景框,造成對(duì)目標(biāo)的分類能力下降。為避免這種情況導(dǎo)致模型訓(xùn)練退化的問(wèn)題,本文引入聚焦分類損失[17]對(duì)模型訓(xùn)練進(jìn)行監(jiān)督,可表示為:

        式中,N為與真實(shí)框的候選框個(gè)數(shù),定位損失函數(shù)可表示為:

        式中,Lclass_f1(Z?,Z)為分類損失函數(shù),采用交叉熵計(jì)算損失,可表示為:

        式中,Z?j,c表示正確且類別為背景預(yù)測(cè)框的概率,at和r為超參數(shù),且at∈[0,1],r∈[0,5],當(dāng)r>0時(shí)意味著正樣本的損失相對(duì)減少,模型將更加聚焦于負(fù)樣本的訓(xùn)練,因此加入聚焦分類損失函數(shù)有效地解決了正負(fù)樣本分布不均衡的問(wèn)題,提高了模型的優(yōu)化效率。

        3 實(shí)驗(yàn)結(jié)果分析

        本文實(shí)驗(yàn)是基于64位的Windows10操作系統(tǒng),Inter?CoreTMi7-7800XCPU-@3.5 GHz處理器,16 GB內(nèi)存,NVIDIA GeForce GTX1080Ti 11 GB顯卡,采用深度學(xué)習(xí)框架為TensorFlow,主要使用軟件工具為Pycharm,Python3.6。

        在整個(gè)訓(xùn)練過(guò)程中,為了快速優(yōu)化訓(xùn)練,將與真實(shí)框的IoU值大于0.5的先驗(yàn)框設(shè)定為正例框,采用難以學(xué)習(xí)的負(fù)例框參與訓(xùn)練,正負(fù)樣本的比例設(shè)為3∶1。每4張圖片設(shè)為一個(gè)batch,優(yōu)化器為Adam,學(xué)習(xí)率使用回調(diào)方式,當(dāng)兩個(gè)epoch完成時(shí),損失不下降,學(xué)習(xí)率減小為原來(lái)一半,訓(xùn)練分三次進(jìn)行,模型首先在ILSVRC CLS-LOC數(shù)據(jù)集上預(yù)訓(xùn)練;第二次訓(xùn)練,設(shè)置網(wǎng)絡(luò)前20層參數(shù)不參與訓(xùn)練,初始學(xué)習(xí)率為0.000 5,epoch設(shè)為50,第三次網(wǎng)絡(luò)所有層參數(shù)都參與訓(xùn)練,初始學(xué)習(xí)率為0.000 1,epoch設(shè)為100,為了減小訓(xùn)練時(shí)間,加入早停(early-stopping),每次訓(xùn)練4個(gè)epoch損失值不下降就結(jié)束本次訓(xùn)練。

        圖6展示了三種不同的主流算法的mAP曲線圖,AP計(jì)算的閾值均設(shè)為0.5,當(dāng)使用I-RFBnet算法時(shí),mAP值可以達(dá)到96.26%,比FSSD高0.99個(gè)百分點(diǎn),比RFBnet高出4.74個(gè)百分點(diǎn)。對(duì)于每一個(gè)類別,小目標(biāo)fishing boat的AP值明顯有大幅提升,主要是相對(duì)RFBnet而言,高出9.94個(gè)百分點(diǎn),比FSSD也高出0.45個(gè)百分點(diǎn),說(shuō)明通過(guò)把淺層的細(xì)節(jié)特征和高層的語(yǔ)義特征融合起來(lái)能夠提高算法對(duì)小目標(biāo)的檢測(cè)。還有一個(gè)有明顯變化是ore carrier,通過(guò)觀察數(shù)據(jù)集可以發(fā)現(xiàn)包含有ore carrier的圖片目標(biāo)與背景的混肴率都很大,背景的干擾性很大。而I-RFBnet比FSSD[18]和RFBnet的AP值分別高出0.95個(gè)百分點(diǎn)和5.88個(gè)百分點(diǎn),主要原因是本文使用了聚焦分類損失,有效地解決了正負(fù)樣本分布不均衡的問(wèn)題,提高了模型的優(yōu)化效率。

        圖6 I-RFBnet、FSSD、RFBnet三種不同算法的mAP曲線對(duì)比Fig.6 Comparison of mAP curves of I-RFBnet,FSSD and RFBnet

        圖7展示了不同算法使用同樣訓(xùn)練策略下的檢測(cè)結(jié)果圖,從檢測(cè)效果可以看出I-RFBnet相對(duì)其他兩種算法有明顯的提升,I-RFBnet檢測(cè)出來(lái)的目標(biāo)類別數(shù)要多于其他兩種,尤其是對(duì)小目標(biāo)的檢測(cè)效果提升明顯,而且對(duì)遮擋目標(biāo)的識(shí)別率也較高,而FSSD和RFBnet有較多的漏檢和錯(cuò)檢情況,在第三行的三幅圖比較中,可以發(fā)現(xiàn)FSSD和RFBnet發(fā)生了誤檢而且對(duì)小目標(biāo)的檢測(cè)精度也不高,而I-RFBnet不但正確區(qū)分出了船的類別,而且目標(biāo)的置信度也遠(yuǎn)高于其他兩種,原因在于I-RFBnet采用了特征融合和膨脹卷積,對(duì)淺層特征層進(jìn)行了特征增強(qiáng),因此對(duì)多尺度目標(biāo)特別是小目標(biāo)的檢測(cè)能力更強(qiáng)。

        圖7 三種不同算法在SeaShips測(cè)試集上的檢測(cè)結(jié)果Fig.7 Detection results of three different algorithms on SeaShips test set

        為了進(jìn)一步驗(yàn)證,本模型消融實(shí)驗(yàn)幾組實(shí)驗(yàn)都采用相同的訓(xùn)練配置、學(xué)習(xí)率衰減方法以及批量。為了讓實(shí)驗(yàn)充分訓(xùn)練,本文進(jìn)行100個(gè)epoch充分訓(xùn)練,實(shí)驗(yàn)結(jié)果如表1所示。前兩列DB2和DB3表示作用不同數(shù)量的淺層,如DB2表示僅增強(qiáng)前兩層特征圖,Attention表示DB使用注意力結(jié)構(gòu),F(xiàn)usion表示特征融合。第一行表示傳統(tǒng)RFBnet的mAP為91.52%;第三行可以看出,不對(duì)原來(lái)六個(gè)特征層進(jìn)行特征融合而直接對(duì)前三層添加帶注意力結(jié)構(gòu)的DB卷積塊可以提升0.46個(gè)百分點(diǎn)的精度;第四行可以看出,對(duì)原來(lái)六個(gè)特征層進(jìn)行特征融合后再給前三層添加DB模塊,mAP相比RFBnet提高了1.9個(gè)百分點(diǎn);第五行可以看出,I-RFBnet比RFBnet的mAP提高了4.74個(gè)百分點(diǎn),表明本文提出的先使用特征融合形成六個(gè)有效特征層再對(duì)前三層加入注意力機(jī)制的膨脹卷積塊的方法對(duì)檢測(cè)精度的提高是有效的,而且需要同時(shí)使用效果才可達(dá)到最佳。

        表1 消融實(shí)驗(yàn)Table 1 Ablation experiments

        在表2中嘗試了3種結(jié)構(gòu)的膨脹卷積結(jié)構(gòu),除了前面提到的卷積塊結(jié)構(gòu)外,本文還嘗試了步長(zhǎng)為0.5 step的卷積加上2×2尺寸、2×2步幅的最大池化(Maxpooling)以及步長(zhǎng)為0.25 step的卷積加上4×4尺寸、4×4步幅的最大池化代替步幅為step的卷積。表中可以看出三種結(jié)構(gòu)的膨脹卷積塊對(duì)特征單元信息增強(qiáng)均有效,使用步長(zhǎng)為step卷積效果最好。

        表2 在I-RFB中使用不同結(jié)構(gòu)的膨脹卷積Table 2 Expansion convolution of different structures is used in I-RFB

        為了進(jìn)一步驗(yàn)證本文方法的有效性,將本文方法與當(dāng)前主流的一些目標(biāo)檢測(cè)算法進(jìn)行對(duì)比。所有實(shí)驗(yàn)均在SeaShips數(shù)據(jù)集上進(jìn)行的,除SSD-512、YOLOv2(532×532)以外,圖像的輸入尺寸均為300×300,參數(shù)的選擇和之前一樣,YOLOv2算法以Darknet-19作為基礎(chǔ)網(wǎng)絡(luò),RetinaNet[19]、DSSD[20]算法分別以ResNet50、ResNet101作為基礎(chǔ)網(wǎng)絡(luò),其他都以VGG16作為基礎(chǔ)網(wǎng)絡(luò),AP計(jì)算的閾值設(shè)為0.5和0.7。實(shí)驗(yàn)結(jié)果如表3所示,從表中可以看出,本文提出的算法在精度上都高于其他算法。在檢測(cè)速度上,由于本文對(duì)RFBnet算法的網(wǎng)絡(luò)結(jié)構(gòu)做了一些改進(jìn),導(dǎo)致檢測(cè)速度有所下降,但是仍然優(yōu)于兩級(jí)檢測(cè)器,能夠滿足實(shí)時(shí)檢測(cè)的需求。

        表3 與其他算法在SeaShips數(shù)據(jù)集上的性能對(duì)比Table 3 Performance comparison with other algorithms on SeaShips data set

        4 結(jié)論

        本文針對(duì)多目標(biāo)遮擋情況下小目標(biāo)檢測(cè)問(wèn)題,設(shè)計(jì)了一種基于改進(jìn)RFBnet的算法。算法設(shè)計(jì)了池化特征融合模塊和反卷積特征融合模塊并提出了一種融入注意力機(jī)制的膨脹卷積塊DB,增強(qiáng)了靠近目標(biāo)中心點(diǎn)區(qū)域特征的學(xué)習(xí),將算法在SeaShips數(shù)據(jù)集上進(jìn)行測(cè)試,實(shí)驗(yàn)結(jié)果表明:(1)與當(dāng)前多種深度學(xué)習(xí)算法相比,本文所提出的改進(jìn)算法結(jié)構(gòu)合理,檢測(cè)精度最高,雖然檢測(cè)時(shí)間上有所下降,但可以滿足實(shí)時(shí)檢測(cè)的需求。(2)從檢測(cè)精度上看,當(dāng)IoU閾值設(shè)置為0.5時(shí),改進(jìn)后的算法較SSD、RFBnet、FSSD算法分別提高10.51、4.74、1.87個(gè)百分點(diǎn);當(dāng)IoU閾值設(shè)置為0.7時(shí),改進(jìn)后的算法較SSD、RFBnet、FSSD算法分別提高13.27、5.12、3.28個(gè)百分點(diǎn)。

        通過(guò)預(yù)測(cè)結(jié)果圖看出,改進(jìn)后的方法檢測(cè)效果得到了較大的提高,尤其提高了對(duì)小目標(biāo)的檢測(cè)精度,盡管改進(jìn)后的方法能夠達(dá)到實(shí)時(shí)檢測(cè)的應(yīng)用需求,但相較于原始RFBnet算法耗時(shí)依然過(guò)多,未來(lái)將進(jìn)一步優(yōu)化算法,擴(kuò)充自然圖像船只數(shù)據(jù)集,以提升對(duì)復(fù)雜場(chǎng)景下的小目標(biāo)檢測(cè)。

        猜你喜歡
        先驗(yàn)標(biāo)簽卷積
        基于3D-Winograd的快速卷積算法設(shè)計(jì)及FPGA實(shí)現(xiàn)
        基于無(wú)噪圖像塊先驗(yàn)的MRI低秩分解去噪算法研究
        從濾波器理解卷積
        電子制作(2019年11期)2019-07-04 00:34:38
        無(wú)懼標(biāo)簽 Alfa Romeo Giulia 200HP
        車迷(2018年11期)2018-08-30 03:20:32
        不害怕撕掉標(biāo)簽的人,都活出了真正的漂亮
        海峽姐妹(2018年3期)2018-05-09 08:21:02
        基于傅里葉域卷積表示的目標(biāo)跟蹤算法
        基于自適應(yīng)塊組割先驗(yàn)的噪聲圖像超分辨率重建
        標(biāo)簽化傷害了誰(shuí)
        基于平滑先驗(yàn)法的被動(dòng)聲信號(hào)趨勢(shì)項(xiàng)消除
        基于多進(jìn)制查詢樹(shù)的多標(biāo)簽識(shí)別方法
        伊人久久亚洲综合av影院| 一本色道久久综合亚洲精品不卡| 国产一区二区三区青青草 | 免费va国产高清不卡大片| 在线观看日本一区二区三区| 好看的中文字幕中文在线| 国产精品一区二区性色| 亚洲国产另类精品| 亚洲熟妇色xxxxx欧美老妇| 午夜香蕉av一区二区三区| 在线观看二区视频网站二区| 亚无码乱人伦一区二区| 亚洲国产精品久久久久婷婷老年| 免费夜色污私人影院在线观看| 不卡无毒免费毛片视频观看| 中文字幕视频一区懂色| 热99re久久精品这里都是精品免费| 国产性生交xxxxx免费| 国产一区二区丰满熟女人妻| 国产免费的视频一区二区| 久久国产精品一区av瑜伽| 亚洲av无码乱码在线观看裸奔 | 三级黄色片一区二区三区| 青青草国产手机观看视频| 欧美性猛交99久久久久99按摩 | 日韩av中文字幕亚洲天| 97精品一区二区三区| 50岁熟妇大白屁股真爽| 一本久到久久亚洲综合| 成人性生交大片免费看激情玛丽莎 | 97精品人人妻人人| 中文字幕人妻中文av不卡专区| 亚洲人成绝费网站色www| 国产亚洲精品精品综合伦理| 日韩一区国产二区欧美三区 | 手机在线国产福利av| 狠狠躁18三区二区一区| 亚洲gv白嫩小受在线观看| 精品午夜一区二区三区| 日本av在线一区二区| 伊人色综合视频一区二区三区 |