亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于改進(jìn)SSD的魯棒小目標(biāo)檢測(cè)算法

        2023-12-21 06:14:38李學(xué)偉劉宏哲
        關(guān)鍵詞:特征融合檢測(cè)

        秦 振,李學(xué)偉,劉宏哲

        (1.北京聯(lián)合大學(xué)北京市信息服務(wù)工程重點(diǎn)實(shí)驗(yàn)室,北京 100101;2.北京聯(lián)合大學(xué)機(jī)器人學(xué)院,北京 100101)

        0 引言

        目標(biāo)檢測(cè)是計(jì)算機(jī)視覺(jué)領(lǐng)域中一項(xiàng)基礎(chǔ)的任務(wù),被廣泛應(yīng)用于車輛檢測(cè)、行人檢測(cè)、交通燈檢測(cè)等系統(tǒng)中.隨著深度學(xué)習(xí)技術(shù)的快速發(fā)展,基于傳統(tǒng)手工特征的目標(biāo)檢測(cè)算法逐漸被淘汰,基于深度學(xué)習(xí)的方法由于能夠同時(shí)處理特征提取和分類,以其優(yōu)越的性能而被廣泛使用.基于深度學(xué)習(xí)的目標(biāo)檢測(cè)方法可以分為一階段和兩階段方法.以R-CNN系列[1-3]為代表的兩階段方法首先在圖像上生成候選區(qū)域,然后對(duì)每一個(gè)候選區(qū)域依次進(jìn)行分類與邊界回歸.而單階段方法能夠在單個(gè)步驟中完成目標(biāo)的定位和分類,其檢測(cè)精度有所損失,但運(yùn)行速度快,滿足自動(dòng)駕駛系統(tǒng)等現(xiàn)實(shí)應(yīng)用對(duì)目標(biāo)檢測(cè)算法的實(shí)時(shí)性要求[4].

        YOLO[5]和SSD[6]是目前最流行的單階段目標(biāo)檢測(cè)算法.YOLO將輸入圖像分成S×S個(gè)方格,物體中心點(diǎn)落在某個(gè)方格內(nèi),就由該方格負(fù)責(zé)預(yù)測(cè)物體.YOLOv2[7]從原始YOLO中刪除了全連接層,并應(yīng)用錨框來(lái)提升算法的檢測(cè)精度.YOLO和YOLOv2對(duì)于小對(duì)象的檢測(cè)效果不理想,為了解決這個(gè)問(wèn)題,YOLOv3[8]采用多尺度特征圖進(jìn)行檢測(cè),提高算法對(duì)小目標(biāo)的檢測(cè)準(zhǔn)確率.YOLOv4[9]并未進(jìn)行理論創(chuàng)新,而是在原始YOLO的基礎(chǔ)上采用優(yōu)化策略來(lái)提升檢測(cè)準(zhǔn)確率.

        SSD算法的速度與YOLO相當(dāng),它的檢測(cè)精度與Faster R-CNN相當(dāng).SSD算法通過(guò)卷積神經(jīng)網(wǎng)絡(luò)提取多尺度特征,可以預(yù)測(cè)多尺度目標(biāo)對(duì)象.基于SSD的各種研究的特征金字塔結(jié)構(gòu)對(duì)多尺度對(duì)象的魯棒性不強(qiáng),為了提高SSD算法對(duì)多尺度對(duì)象的魯棒性,對(duì)特征金字塔進(jìn)行了重構(gòu).SD-SSD[10]通過(guò)分段反卷積重新設(shè)計(jì)了融合結(jié)構(gòu),豐富底層特征圖語(yǔ)義信息,提高小目標(biāo)檢測(cè)精度.FD-SSD[11]采用空洞卷積獲得特征的多尺度上下文信息,同時(shí)在通道方向上將深層特征與淺層特征進(jìn)行連接,增強(qiáng)底層特征的語(yǔ)義信息來(lái)提高小目標(biāo)的檢測(cè)精度.文獻(xiàn)[12]提出新的特征融合模塊來(lái)豐富細(xì)節(jié)信息,同時(shí)引入注意力機(jī)制突出特征圖中的關(guān)鍵信息.DF-SSD[13]使用DenseNet作為特征提取主干,同時(shí)引入了多尺度特征層的融合機(jī)制,將網(wǎng)絡(luò)結(jié)構(gòu)中的淺層視覺(jué)特征和深層語(yǔ)義特征有機(jī)地結(jié)合起來(lái).最后,在目標(biāo)預(yù)測(cè)之前建立一個(gè)殘差塊,以進(jìn)一步提高模型性能.文獻(xiàn)[14]采用基于可變形卷積的ResNet50作為特征提取網(wǎng)絡(luò),通過(guò)特征融合與引入注意力機(jī)制來(lái)提高檢測(cè)性能.TTB-SSD[15]提出一種結(jié)合PANet多尺度特征融合網(wǎng)絡(luò)和自上向下特征融合路徑的改進(jìn)算法,使得深層特征能夠準(zhǔn)確地對(duì)小目標(biāo)進(jìn)行定位,強(qiáng)化淺層特征對(duì)小目標(biāo)檢測(cè)的準(zhǔn)確率.但在自動(dòng)駕駛等現(xiàn)實(shí)應(yīng)用場(chǎng)景中,受到雨雪、光照、遮擋等情況的影響,現(xiàn)有算法對(duì)小目標(biāo)的檢測(cè)精度明顯降低,魯棒性不強(qiáng).

        因此,本文提出一種基于改進(jìn)SSD的魯棒小目標(biāo)檢測(cè)算法.提出了一種新穎的特征金字塔結(jié)構(gòu),該結(jié)構(gòu)通過(guò)連接SSD的相鄰特征層來(lái)生成,有效地利用上下文信息提高小目標(biāo)檢測(cè)精度.設(shè)計(jì)了非局部特征增強(qiáng)模塊,用于提取不同大小的非局部特征之間的關(guān)系,增強(qiáng)特征映射.在公開數(shù)據(jù)集PASCAL VOC和KITTI上的實(shí)驗(yàn)結(jié)果表明,本文方法提升了SSD算法的小目標(biāo)檢測(cè)準(zhǔn)確率,且比現(xiàn)有方法具有更好的小目標(biāo)檢測(cè)性能.

        1 改進(jìn)SSD算法

        通過(guò)融合SSD相鄰的特征圖,同時(shí)設(shè)計(jì)非局部特征增強(qiáng)模塊,提高網(wǎng)絡(luò)對(duì)小目標(biāo)的魯棒性,圖1為基于改進(jìn)SSD的整體模型圖.

        圖1 改進(jìn)SSD的整體結(jié)構(gòu)

        1.1 整體結(jié)構(gòu)

        本文方法的基本框架基于SSD算法,采用VGG16作為骨干網(wǎng)絡(luò)進(jìn)行特征提取,將VGG16中的全連接層FC6和FC7通過(guò)權(quán)重采樣變成卷積層Conv6和Conv7.SSD中卷積層Conv4、Conv7、Conv8、Conv9、Conv10與Conv11生成不同分辨率的特征圖,通過(guò)所提出的特征融合模塊將這些特征進(jìn)行融合.選擇將相鄰的特征圖進(jìn)行融合,對(duì)上下文具有魯棒性,而不會(huì)丟失細(xì)節(jié)信息.表1為融合后特征層的詳細(xì)信息.

        表1 融合特征的詳細(xì)信息

        從表1中可以看出,本文方法將原始SSD的Conv4層每個(gè)單元錨框的數(shù)量由4個(gè)增加到6個(gè),允許更多的錨框作為小目標(biāo)的輸出,提高小目標(biāo)的檢測(cè)性能.同時(shí)這些特征圖具有連續(xù)遞減的空間分辨率和遞增的感受野,更低層的特征層由于感受野較小,可以關(guān)聯(lián)小尺度的錨框,用于檢測(cè)小目標(biāo).因此,本文方法在最底層的兩個(gè)特征層中應(yīng)用提出的非局部特征增強(qiáng)模塊,更專注于小目標(biāo)檢測(cè).

        本文方法的中間特征層Conv8和Conv9是由RFB生成的.如圖2所示,RFB通過(guò)將給定的特征圖分為3個(gè)具有不同感受野的特征圖,并將它們?cè)俅魏喜?形成了與人類視覺(jué)相似的感受野模型,提高了特征圖的辨識(shí)度和魯棒性.而最頂層的特征圖由于分辨率太低,無(wú)法應(yīng)用特征增強(qiáng)模塊,即Conv10和Conv11層的特征圖并沒(méi)有使用特征增強(qiáng).

        圖2 RFB模塊結(jié)構(gòu)

        本文方法共輸出11 620錨框,比原始SSD的8 732個(gè)錨框多出2 888個(gè).其中,Conv4和Conv7的兩個(gè)特征圖主要用于小目標(biāo)檢測(cè),分別產(chǎn)生8 664和2 166個(gè)錨框.將不同特征圖獲得的錨框結(jié)合起來(lái),經(jīng)過(guò)非極大值抑制方法來(lái)抑制掉一部分重疊或者不正確的錨框,得到最終的檢測(cè)結(jié)果.

        1.2 特征融合模塊

        提出的特征融合模塊通過(guò)一次反卷積、一次批歸一化、一次ReLU和兩次卷積運(yùn)算設(shè)計(jì)了特征融合模塊,如圖3所示.該模塊相較于其他融合方法結(jié)構(gòu)簡(jiǎn)單,但能夠?qū)⑸舷挛男畔鬟f到融合特征中.

        圖3 特征融合模塊

        反卷積用于提升特征圖的大小,使低分辨率特征圖和高分辨率特征圖的大小保持一致.每個(gè)卷積層都對(duì)輸入特征圖進(jìn)行變換,使融合后的特征圖既有上下文信息又有詳細(xì)的融合特征信息.批歸一化層是對(duì)特征進(jìn)行歸一化.在逐元素求和與ReLU操作之后,生成輸出特征.

        1.3 非局部特征增強(qiáng)模塊

        在融合后的Conv4和Conv7層的特征圖中應(yīng)用非局部特征增強(qiáng),以提高對(duì)小目標(biāo)的檢測(cè)性能.NLNN提取通過(guò)1×1卷積從特征圖分支生成新的特征圖之間的非局部關(guān)系來(lái)增強(qiáng)特征,但NLNN只能計(jì)算相同尺寸的特征關(guān)系,不能推導(dǎo)出不同尺寸的特征之間的關(guān)系.RFB通過(guò)融合具有不同感受野的特征圖來(lái)考慮不同大小的語(yǔ)義特征,但它只是一種局部方法.因此,本文提出的非局部特征增強(qiáng)模塊使用了具有不同感受野的特征圖的非局部關(guān)系,其結(jié)構(gòu)如圖4所示.

        圖4 多尺度非局部特征增強(qiáng)模塊

        根據(jù)卷積核的大小和空洞卷積的擴(kuò)張率,將一個(gè)輸入特征圖分支為3個(gè)感受野不同的特征圖.這3個(gè)特征圖具有相同的空間大小,但它們的網(wǎng)格單元具有不同大小的感受野,所以它們的語(yǔ)義大小也不同.

        3個(gè)不同大小的卷積核被用來(lái)產(chǎn)生不同大小的感受野.圖4中最左邊的分支,通過(guò)1×1卷積,輸入通道被降低到1/4.為了有效降低其他兩個(gè)分支的計(jì)算復(fù)雜度,通過(guò)前面的1×1卷積,將輸入通道降低到1/8,通過(guò)應(yīng)用3×3和5×5卷積,將輸入通道大小降為1/4的特征圖作為輸出.然后將空洞卷積應(yīng)用到每個(gè)分支特征圖中.空洞卷積可以在不增加計(jì)算成本的情況下,通過(guò)調(diào)整核內(nèi)的間隔來(lái)擴(kuò)展感受野.在3個(gè)分支的特征圖上分別應(yīng)用擴(kuò)張率為1,3和5的空洞卷積.

        使用不同大小的卷積核和空洞卷積,生成3個(gè)不同感受野的特征圖,然后將它們同時(shí)輸入到多尺度非局部塊中,提取不同分支特征之間的非局部關(guān)系,并反映在最終的特征圖上.圖5為多尺度非局部塊的結(jié)構(gòu).多尺度非局部塊可以獲得具有不同感受野的多個(gè)特征圖的非局部關(guān)系.在圖5中,x1,x2和x3是3個(gè)具有不同感受野的特征圖,x1是用于特征增強(qiáng)的目標(biāo)特征圖.

        圖5 多尺度非局部塊結(jié)構(gòu)

        首先通過(guò)1×1卷積(θ1,θ2,θ3,φ)將可學(xué)習(xí)參數(shù)嵌入到每個(gè)特征圖中,并將通道降低到1/2以減少計(jì)算量.對(duì)寬度W、高度H和通道C的特征圖進(jìn)行φ卷積的結(jié)果重新排列為C/2×WH,對(duì)θ卷積的結(jié)果重新排列為WH×C/2,并將φ卷積的特征圖與3個(gè)θ卷積的特征圖進(jìn)行內(nèi)積運(yùn)算,得到所有可能的配對(duì)關(guān)系,即3張WH×WH大小的關(guān)系圖.然后將Softmax函數(shù)應(yīng)用于關(guān)系圖的和,產(chǎn)生一個(gè)概率圖p,它代表了目標(biāo)特征圖x1和其他特征圖x2和x3之間的非局部關(guān)系.

        概率圖p通過(guò)與目標(biāo)特征圖x1進(jìn)行1×1卷積(φ)的結(jié)果進(jìn)行內(nèi)積運(yùn)算反映在目標(biāo)特征圖x1上.因此,通過(guò)概率圖p可以得到包含非局部關(guān)系的特征圖y,公式為

        (1)

        其中,F表示CNN的權(quán)重參數(shù),使用歸一化指數(shù)函數(shù)Softmax將輸入轉(zhuǎn)換為概率分布.非局部特征增強(qiáng)模塊的最終輸出z是由x1和y融合產(chǎn)生的.對(duì)于自適應(yīng)融合,如式(2)所示,對(duì)y進(jìn)行1×1卷積(Fz),并將其結(jié)果加到x1中.

        z=Fzy+x1.

        (2)

        (2)式的特征圖增強(qiáng)作用是通過(guò)可學(xué)習(xí)的參數(shù)來(lái)平衡兩個(gè)特征圖,從而獲得一個(gè)更有效的特征圖用于目標(biāo)檢測(cè).

        具有不同感受野的目標(biāo)特征圖x1,x2和x3通過(guò)非局部特征模塊得到非局部特征增強(qiáng)的特征圖z1,z2和z3,將z1,z2和z3在通道方向通過(guò)級(jí)聯(lián)疊加并融合成單個(gè)分支特征圖,如圖4所示.然后將融合的分支特征圖添加到包含可學(xué)習(xí)參數(shù)的原始特征圖中.為了自適應(yīng)整合,對(duì)原始特征圖進(jìn)行了1×1卷積并使用其結(jié)果.最后,通過(guò)ReLU激活函數(shù)生成非局部特征增強(qiáng)模塊的輸出,最終輸出的大小與原始特征圖相同.非局部特征增強(qiáng)模塊產(chǎn)生的多尺度非局部特征之間的關(guān)系提供了與小目標(biāo)相關(guān)的各種尺寸的上下文信息,從而增強(qiáng)了對(duì)小目標(biāo)的檢測(cè)能力.

        2 實(shí)驗(yàn)結(jié)果與分析

        2.1 實(shí)驗(yàn)數(shù)據(jù)集

        使用了2個(gè)具有代表性的目標(biāo)檢測(cè)數(shù)據(jù)集PASCAL VOC和KITTI.其中,VOC2007由9 963張RGB圖和每個(gè)圖的標(biāo)注信息組成,分為包含5 011幅圖的訓(xùn)練數(shù)據(jù)集和包含4 952幅圖的測(cè)試數(shù)據(jù)集.VOC2012的訓(xùn)練和驗(yàn)證數(shù)據(jù)集包含11 540幅圖,共包含20個(gè)檢測(cè)類別,如圖6(a)所示.

        圖6 數(shù)據(jù)集示例

        KITTI是一個(gè)用于道路駕駛中物體檢測(cè)的數(shù)據(jù)集,如圖6(b)所示,包含7 481張訓(xùn)練圖和7 518張測(cè)試圖,其中僅有訓(xùn)練圖包含標(biāo)注信息.為了對(duì)本文方法進(jìn)行定量分析,從KITTI訓(xùn)練數(shù)據(jù)集中選取748幅帶有標(biāo)注信息的圖作為測(cè)試數(shù)據(jù)集,訓(xùn)練數(shù)據(jù)集中剩余的6 733幅圖用于訓(xùn)練.KITTI數(shù)據(jù)集比VOC數(shù)據(jù)集少了9個(gè)檢測(cè)類別,但是額外提供了僅有邊界框信息的其他類.本文實(shí)驗(yàn)中使用KITTI數(shù)據(jù)集,是因?yàn)樵诘缆翻h(huán)境中,小目標(biāo)的檢測(cè)性能非常重要,其準(zhǔn)確性直接關(guān)系到駕駛的安全性.

        2.2 評(píng)價(jià)指標(biāo)

        本文采用所有類別的平均精度(mean Average Precision,mAP)作為目標(biāo)檢測(cè)模型性能的衡量標(biāo)準(zhǔn).對(duì)于單個(gè)類別準(zhǔn)確率(P)和召回率(R)的計(jì)算公式為:

        (3)

        (4)

        其中:TTP為分類正確的正樣本,TFP為分類錯(cuò)誤的正樣本,TFN為分類錯(cuò)誤的負(fù)樣本.單類別的平均精度(AAP)即為單類別P-R曲線下的面積,其計(jì)算公式為

        (5)

        本文所采用的所有類別平均精度AmAP則是計(jì)算所有類別P-R曲線下面積的平均值.

        2.3 實(shí)驗(yàn)配置

        實(shí)驗(yàn)操作系統(tǒng)使用Ubuntu16.04,編程語(yǔ)言為Python,深度學(xué)習(xí)框架為Pytorch0.4.1,關(guān)鍵計(jì)算硬件為GeForce GTX Titan X顯卡進(jìn)行加速運(yùn)算.

        骨干網(wǎng)絡(luò)使用ImageNet進(jìn)行預(yù)訓(xùn)練,并根據(jù)實(shí)驗(yàn)數(shù)據(jù)集進(jìn)行微調(diào).網(wǎng)絡(luò)輸入圖像大小固定為300×300像素,數(shù)據(jù)增強(qiáng)策略與SSD相同.批大小(Batch Size)設(shè)置為32.初始學(xué)習(xí)率和L2正則化的權(quán)重衰減值分別被設(shè)定為4×10-3和5×10-4.優(yōu)化器為SGD,動(dòng)量為0.9,學(xué)習(xí)周期總數(shù)為300.

        2.4 對(duì)比實(shí)驗(yàn)結(jié)果

        將本文方法與SSD[6]和文獻(xiàn)[12-15]進(jìn)行比較.將PASCAL VOC 2007和2012的訓(xùn)練和驗(yàn)證數(shù)據(jù)集合并為VOC數(shù)據(jù)集,所有方法使用一個(gè)通用的訓(xùn)練數(shù)據(jù)集.其中DF-SSD和文獻(xiàn)[14]分別使用DenseNet和ResNet50作為特征提取骨干網(wǎng)絡(luò),其他方法均使用VGG-16作為骨干網(wǎng)絡(luò).表2列出了在VOC數(shù)據(jù)集上各方法的AmAP值.

        表2 VOC數(shù)據(jù)集上各方法AmAP值

        通常,輸入圖像的大小會(huì)直接影響檢測(cè)性能,輸入圖像越大,圖像中物體像素越多,越有利于小目標(biāo)的檢測(cè).從表2可以看出,本文方法與其他方法一樣,具有最小的輸入圖像大小,但本文方法的AmAP值最高,達(dá)到了81.3%,證明了本文方法在小目標(biāo)檢測(cè)中具有較好的魯棒性.

        由于本文方法是基于SSD框架,且特征融合模塊與非局部特征增強(qiáng)模塊分別參照DSSD的DM模塊與RFB-Net的RFB模塊設(shè)計(jì),因此,在KITTI數(shù)據(jù)集上對(duì)SSD、DSSD、RFB-Net與本文方法進(jìn)行比較.表3為在KITTI數(shù)據(jù)集上各方法的AmAP值.

        表3 KITTI數(shù)據(jù)集上各方法的AmAP值

        由表3可見,本文方法的AmAP最高,達(dá)到了80.6%,證明本文設(shè)計(jì)的特征融合模塊與非局部特征增強(qiáng)模塊相較于DM模塊與RFB模塊能夠有效提升目標(biāo)檢測(cè)性能.

        本文參照COCO數(shù)據(jù)集進(jìn)行目標(biāo)尺寸分類,在該數(shù)據(jù)集中,將小于32×32像素的物體定義為小目標(biāo),將大于32×32像素小于96×96像素的物體定義為中目標(biāo),將大于96×96像素的物體定義為大目標(biāo).本文同樣根據(jù)邊界框的大小對(duì)物體進(jìn)行分類,如表4所示.由于邊界框比目標(biāo)對(duì)象本身大,因此判別參考值略有增加.根據(jù)表4中的標(biāo)準(zhǔn),KITTI數(shù)據(jù)集有1 055個(gè)小目標(biāo)、2 004個(gè)中目標(biāo)和882個(gè)大目標(biāo).

        表4 目標(biāo)尺寸分類

        在KITTI數(shù)據(jù)集上對(duì)本文方法和其他方法進(jìn)行定量比較,實(shí)驗(yàn)結(jié)果如表5所示.從表5中看出在大目標(biāo)上,本文方法僅略微領(lǐng)先于其他方法,大目標(biāo)檢測(cè)性能提高了1.3%.但是本文方法在中、小目標(biāo)檢測(cè)性能上相較于其他方法有著明顯的提升,AmAP值分別達(dá)到了80.1%與61.8%,分別提升了2%和4.2%.由于KITTI數(shù)據(jù)集中小目標(biāo)占比高達(dá)26.8%,其檢測(cè)結(jié)果的提升更能說(shuō)明本文方法在小目標(biāo)檢測(cè)上的有效性.

        表5 KITTI數(shù)據(jù)集不同尺寸目標(biāo)AmAP的檢測(cè)結(jié)果 %

        2.5 消融研究

        為驗(yàn)證本文方法中各模塊對(duì)提高小目標(biāo)檢測(cè)性能的有效性,在KITTI數(shù)據(jù)集上對(duì)本文方法的各個(gè)模塊進(jìn)行消融實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果如表6所示.

        表6 每個(gè)模塊對(duì)檢測(cè)結(jié)果的增益效果的AmAP值 %

        從表6中可以看出,本文所提的特征融合方法與非局部特征增強(qiáng)模塊對(duì)于小目標(biāo)檢測(cè)的提高有著明顯的效果,有效提高小目標(biāo)檢測(cè)的魯棒性,從而有效提高整體的目標(biāo)檢測(cè)性能.

        2.6 結(jié)果可視化

        為了直觀地展示本文方法在小目標(biāo)檢測(cè)上相較于傳統(tǒng)SSD的性能優(yōu)越性,對(duì)部分結(jié)果進(jìn)行可視化對(duì)比.PASCAL VOC 2007數(shù)據(jù)集上本文方法與傳統(tǒng)SSD的檢測(cè)結(jié)果可視化對(duì)比見圖7.從圖7中可以明顯看出,本文所提的方法在小目標(biāo)檢測(cè)上效果要明顯好于傳統(tǒng)SSD,其中,第一行中傳統(tǒng)SSD方法將兩個(gè)sheep類對(duì)象錯(cuò)檢為dog類與cow類,且漏檢了上方像素較少的sheep類對(duì)象,而本文方法則沒(méi)有出現(xiàn)漏檢錯(cuò)檢的情況;第二行中傳統(tǒng)SSD則完全忽略了上方的cow類小目標(biāo),本文方法則成功檢測(cè)出cow類的小目標(biāo);第三行中本文方法相較于傳統(tǒng)SSD成功檢測(cè)出每一個(gè)person類小目標(biāo);第四行中本文方法成功檢測(cè)出左側(cè)的car類小目標(biāo),而傳統(tǒng)SSD方法則未檢測(cè)出小目標(biāo).

        圖7 VOC數(shù)據(jù)集檢測(cè)結(jié)果可視化對(duì)比

        圖8為KITTI數(shù)據(jù)集上本文方法與傳統(tǒng)SSD的檢測(cè)結(jié)果可視化對(duì)比,其中左側(cè)為傳統(tǒng)SSD的檢測(cè)結(jié)果,右側(cè)為本文方法的檢測(cè)結(jié)果.從圖8中可以明顯看出,無(wú)論是在道路還是窄巷的交通場(chǎng)景中,本文方法在小目標(biāo)檢測(cè)上明顯優(yōu)于傳統(tǒng)SSD.如圖8(a)所示,在道路的場(chǎng)景中,傳統(tǒng)SSD對(duì)于遠(yuǎn)處的汽車以及交通信號(hào)燈等小目標(biāo)出現(xiàn)了明顯的漏檢情況,而本文方法則成功的檢測(cè)出遠(yuǎn)處的車輛以及交通信號(hào)燈,可以更好地保證自動(dòng)駕駛的安全性.在窄巷的場(chǎng)景中,傳統(tǒng)SSD同樣對(duì)于遠(yuǎn)處停放的小目標(biāo)車輛出現(xiàn)了漏檢的情況,而本文方法則成功檢測(cè)出遠(yuǎn)處的小目標(biāo)車輛,如圖8(b)所示.

        圖8 KITTI數(shù)據(jù)集檢測(cè)結(jié)果可視化對(duì)比

        圖9和圖10給出了本文方法對(duì)VOC數(shù)據(jù)集和KITTI數(shù)據(jù)集的檢測(cè)結(jié)果示例,每張圖片都包含一個(gè)或多個(gè)小目標(biāo),可以明顯看出,本文方法能夠有效地檢測(cè)出不同場(chǎng)景圖像中各種類型的小目標(biāo).

        3 結(jié)論

        本文提出一種基于新的特征融合方法與特征增強(qiáng)模塊的改進(jìn)SSD小目標(biāo)檢測(cè)算法,通過(guò)將SSD中的相鄰特征融合來(lái)有效利用上下文信息,然后通過(guò)不同尺寸特征之間的非局部關(guān)系來(lái)增強(qiáng)特征映射,從而提高對(duì)小目標(biāo)的檢測(cè)精度.實(shí)驗(yàn)結(jié)果表明,本文算法提升了SSD算法的小目標(biāo)檢測(cè)準(zhǔn)確率,且比現(xiàn)有方法具有更好的小目標(biāo)檢測(cè)性能,對(duì)于自動(dòng)駕駛等應(yīng)用有著現(xiàn)實(shí)意義.本文所提的算法在小目標(biāo)檢測(cè)精度上還有進(jìn)一步提升空間,下一步工作將針對(duì)真實(shí)駕駛場(chǎng)景對(duì)算法做進(jìn)一步的優(yōu)化,以提升真實(shí)駕駛環(huán)境中算法對(duì)小目標(biāo)的檢測(cè)性能.

        猜你喜歡
        特征融合檢測(cè)
        村企黨建聯(lián)建融合共贏
        “不等式”檢測(cè)題
        “一元一次不等式”檢測(cè)題
        “一元一次不等式組”檢測(cè)題
        融合菜
        從創(chuàng)新出發(fā),與高考數(shù)列相遇、融合
        《融合》
        如何表達(dá)“特征”
        不忠誠(chéng)的四個(gè)特征
        抓住特征巧觀察
        日韩免费一区二区三区在线| 精品久久久久久亚洲综合网| 亚洲av无码一区二区三区人| 国产精品熟妇视频国产偷人| 男人天堂AV在线麻豆| 99精品人妻少妇一区二区三区| 摸丰满大乳奶水www免费| 久久精品人人爽人人爽| 精品国产亚欧无码久久久| 老熟女毛茸茸浓毛| 国产在线高清无码不卡| 久久久婷婷综合亚洲av| 91偷拍与自偷拍亚洲精品86| 日韩精品无码一本二本三本色| 精品深夜av无码一区二区| 黄色毛片视频免费| 日本熟妇视频在线中出| 国产精品亚洲一二三区| 伊人久久精品无码二区麻豆| 超碰97人人做人人爱少妇| av手机在线天堂网| 精品国产车一区二区三区| 国产白浆一区二区三区性色| 四虎影视4hu4虎成人| 妺妺窝人体色www聚色窝韩国| 亚洲av综合色区久久精品| 日本最新一区二区三区在线| 精品少妇无码av无码专区| 四虎精品影视| 亚洲一区二区三区天堂av| av人摸人人人澡人人超碰下载| 真实国产乱啪福利露脸| 国产精品亚洲专区无码不卡| 亚洲国产系列一区二区| 大陆国产乱人伦| 精品www日韩熟女人妻| 国产精品麻豆成人AV电影艾秋| 亚洲女同性恋在线播放专区| 精品久久久久久亚洲综合网| 欧美极品少妇性运交| 一区二区三区中文字幕有码 |