亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于改進(jìn)密集網(wǎng)絡(luò)與二次回歸的小目標(biāo)檢測(cè)算法

        2021-04-29 03:21:36張正道
        計(jì)算機(jī)工程 2021年4期
        關(guān)鍵詞:特征檢測(cè)

        奚 琦,張正道,彭 力

        (江南大學(xué)物聯(lián)網(wǎng)工程學(xué)院,江蘇無(wú)錫 214122)

        0 概述

        小目標(biāo)檢測(cè)技術(shù)在人們?nèi)粘I钪惺褂幂^廣泛[1-3],被應(yīng)用于多個(gè)場(chǎng)景。例如,無(wú)人駕駛場(chǎng)景下利用檢測(cè)攝像頭捕獲圖像中較遠(yuǎn)和較小的目標(biāo),醫(yī)學(xué)圖像場(chǎng)景下檢測(cè)較小尺度的病灶,工業(yè)制造場(chǎng)景下檢測(cè)材料中微小瑕疵等。目前在計(jì)算機(jī)視覺(jué)領(lǐng)域,小目標(biāo)并未被嚴(yán)格定義為分辨率或者像素點(diǎn)總量小于某尺度的物體,其通常根據(jù)研究對(duì)象或?qū)嶋H應(yīng)用場(chǎng)景來(lái)定義。本文根據(jù)文獻(xiàn)[4-5]對(duì)小目標(biāo)的定義,將圖像中尺寸小于20 像素×20 像素的物體定義為小目標(biāo)。相較圖像中常規(guī)尺度目標(biāo),小目標(biāo)尺度占比更小、像素更少且外形特征不明顯,因此,小目標(biāo)檢測(cè)成為目標(biāo)檢測(cè)亟待解決的難題之一。

        近年來(lái),傳統(tǒng)Haar[6]、HOG[7]和SHIFT[8]等基于手工設(shè)計(jì)特征的目標(biāo)檢測(cè)算法因檢測(cè)效率低、檢測(cè)目標(biāo)單一、魯棒性差且速度慢逐漸被淘汰。隨著人工智能技術(shù)的深入發(fā)展,基于卷積神經(jīng)網(wǎng)絡(luò)自動(dòng)學(xué)習(xí)特征的目標(biāo)檢測(cè)算法因具有較高的檢測(cè)速率和檢測(cè)精度,被廣泛應(yīng)用于目標(biāo)檢測(cè)中的各個(gè)領(lǐng)域。現(xiàn)有基于卷積神經(jīng)網(wǎng)絡(luò)的目標(biāo)檢測(cè)算法主要包括Fast R-CNN[9]、Faster R-CNN[10]等基于候選區(qū)域的算法以及YOLO[11]、單激發(fā)探測(cè)器(Single Shot Detector,SSD)[12]等基于回歸的算法。其中,SSD 算法檢測(cè)性能相對(duì)更好,但由于其僅依靠分辨率較高的Conv4_3(尺寸為38×38)淺層特征圖進(jìn)行小目標(biāo)檢測(cè),而Conv4_3 淺層特征圖在模型中位置靠前,其特征提取能力不足,且上下文語(yǔ)義信息不夠豐富,導(dǎo)致SSD 算法對(duì)小目標(biāo)檢測(cè)效果較差。

        研究人員在改進(jìn)SSD 算法的基礎(chǔ)上對(duì)小目標(biāo)檢測(cè)性能進(jìn)行研究并取得眾多成果。文獻(xiàn)[13]基于殘差網(wǎng)絡(luò)提出一種反卷積單激發(fā)探測(cè)器(Deconvolutional SSD,DSSD),將SSD 的基礎(chǔ)網(wǎng)絡(luò)部分由VGG[14]網(wǎng)絡(luò)替換為特征提取能力更強(qiáng)的ResNet[15]網(wǎng)絡(luò),并在金字塔網(wǎng)絡(luò)后設(shè)置反卷積模塊增加上下文信息,但這種由上到下逐層生成特征金字塔的方式計(jì)算量較大且增加多次融合操作,其在英偉達(dá)TITAN X 顯卡上每秒僅能檢測(cè)9張圖像,無(wú)法進(jìn)行實(shí)時(shí)性目標(biāo)檢測(cè)。文獻(xiàn)[16]提出一種多特征圖融合的Rainbow單激發(fā)探測(cè)器(Rainbow SSD,RSSD),采用反復(fù)堆疊最大池化和反卷積的方法來(lái)融合不同尺度的卷積層特征圖,但其計(jì)算量較大且特征圖融合方向單一,檢測(cè)性能較DSSD 提升不明顯。文獻(xiàn)[17]設(shè)計(jì)一種功能融合單激發(fā)探測(cè)器(Function Fusion SSD,F(xiàn)SSD),通過(guò)雙線性插值進(jìn)行上采樣來(lái)建立輕量級(jí)特征融合模塊,提高了淺層特征圖的特征提取能力,其檢測(cè)精度和檢測(cè)速度較DSSD 和RSSD 有較大提升,且檢測(cè)速度接近SSD。文獻(xiàn)[18]提出一種多尺度反卷積單激發(fā)探測(cè)器(Multi-Scale Deconvolutional SSD,MDSSD),分別對(duì)Conv3_3 和Conv8_2、Conv4_3 和Conv9_2、Conv7 和Conv10_2 的特征圖進(jìn)行融合操作,形成3 個(gè)新特征圖與原特征圖共同進(jìn)行預(yù)測(cè),然而其雖然能滿足實(shí)時(shí)檢測(cè)的要求,但對(duì)檢測(cè)精度的提升有限。文獻(xiàn)[19]參考人類視覺(jué)的感受野設(shè)計(jì)出一種含有感受野模塊的感受野單激發(fā)探測(cè)器(Receptive Field Block SSD,RFB-SSD),并借鑒GoogleNet 構(gòu)建多分支卷積層來(lái)提高網(wǎng)絡(luò)的特征提取能力。

        本文在SSD 算法的基礎(chǔ)上,提出一種采用改進(jìn)密集網(wǎng)絡(luò)和二次回歸的小目標(biāo)檢測(cè)算法。以密集連接的DenseNet[20]替換VGG16 作為基礎(chǔ)網(wǎng)絡(luò),通過(guò)優(yōu)化DenseNet 結(jié)構(gòu)提升特征提取能力和計(jì)算速度,利用基于區(qū)域候選的檢測(cè)算法中默認(rèn)框由粗到細(xì)篩選的回歸思想,將目標(biāo)與背景做簡(jiǎn)單區(qū)分后對(duì)其進(jìn)行分類與位置回歸以獲取精確的默認(rèn)框信息,設(shè)計(jì)特征圖融合模塊提取特征信息,同時(shí)采用特征圖尺度變換方法進(jìn)行特征圖融合,并利用K-means 聚類方法獲取初始默認(rèn)框的最佳長(zhǎng)寬比。

        1 SSD 算法

        1.1 網(wǎng)絡(luò)結(jié)構(gòu)

        SSD 網(wǎng)絡(luò)作為基于回歸的目標(biāo)檢測(cè)算法的典型網(wǎng)絡(luò),其利用單個(gè)深度卷積神經(jīng)網(wǎng)絡(luò)結(jié)合6 個(gè)不同尺度的特征圖進(jìn)行預(yù)測(cè)獲得目標(biāo)的類別和位置信息。SSD 網(wǎng)絡(luò)由基礎(chǔ)網(wǎng)絡(luò)和額外增加網(wǎng)絡(luò)構(gòu)成,其結(jié)構(gòu)如圖1 所示。

        圖1 SSD 網(wǎng)絡(luò)結(jié)構(gòu)Fig.1 Structure of SSD network

        在SSD 網(wǎng)絡(luò)中,基礎(chǔ)網(wǎng)絡(luò)由VGG16 網(wǎng)絡(luò)去掉最后兩個(gè)全連接(FC)層并新增兩個(gè)卷積(Conv)層而形成,額外增加網(wǎng)絡(luò)將Conv4-3 特征圖經(jīng)過(guò)不斷下采樣操作形成尺度逐漸變小的特征圖。

        1.2 存在的問(wèn)題

        SSD 算法對(duì)常規(guī)尺寸目標(biāo)檢測(cè)精度較高且檢測(cè)速度較快,雖然其通過(guò)特征金字塔網(wǎng)絡(luò)可提取不同尺度的特征圖進(jìn)行目標(biāo)檢測(cè),但對(duì)小尺寸目標(biāo)檢測(cè)效果較差。

        1.2.1 特征提取不足

        對(duì)于小尺度的目標(biāo),SSD 算法主要采用分辨率較高的Conv4_3 淺層特征圖進(jìn)行檢測(cè),但Conv4_3 淺層特征圖在模型中位置靠前,其特征提取能力不足,且上下文語(yǔ)義信息不夠豐富。深層特征圖的語(yǔ)義信息較多,但其經(jīng)過(guò)多次卷積、池化與下采樣后其尺度很小,會(huì)丟失部分位置信息和重要的細(xì)節(jié)特征,且其默認(rèn)框尺度較大,不適合小目標(biāo)檢測(cè)。

        1.2.2 正負(fù)樣本失衡

        SSD 算法在6 個(gè)不同尺度的特征圖上共生成8 735 個(gè)默認(rèn)框,具體生成過(guò)程如圖2 所示。

        圖2 默認(rèn)框生成過(guò)程Fig.2 Process of default boxes generating

        在模型訓(xùn)練時(shí)對(duì)匹配成功的默認(rèn)框進(jìn)行類別判斷和位置回歸處理,由于待檢測(cè)圖像中背景占比較大,而檢測(cè)目標(biāo)占比較小,因此大部分默認(rèn)框在匹配后會(huì)被標(biāo)記為負(fù)樣本,大量負(fù)樣本損失占模型總損失的絕大部分,從而削弱正樣本損失對(duì)總損失的影響,導(dǎo)致檢測(cè)模型訓(xùn)練效率嚴(yán)重下降,模型優(yōu)化方向也會(huì)受不同程度的干擾,造成模型參數(shù)無(wú)法更新到最佳值。

        2 本文改進(jìn)算法

        2.1 基礎(chǔ)網(wǎng)絡(luò)

        目標(biāo)檢測(cè)算法通常選擇在分類任務(wù)中表現(xiàn)較好的網(wǎng)絡(luò)作為基礎(chǔ)網(wǎng)絡(luò)?;A(chǔ)網(wǎng)絡(luò)是將分類網(wǎng)絡(luò)模型去除全連接層后得到的網(wǎng)絡(luò),其負(fù)責(zé)提取圖像特征,對(duì)目標(biāo)檢測(cè)算法性能影響較大。SSD 算法使用VggNet作為基礎(chǔ)網(wǎng)絡(luò),YOLO 算法以GoogleNet 作為基礎(chǔ)網(wǎng)絡(luò),DSSD 算法利用ResNet 作為基礎(chǔ)網(wǎng)絡(luò)。

        不同分類網(wǎng)絡(luò)的大小不同,該差異會(huì)影響到目標(biāo)檢測(cè)算法速度,因此,需選擇合適的分類網(wǎng)絡(luò)提高算法的檢測(cè)準(zhǔn)確率和速度。增加分類網(wǎng)絡(luò)層數(shù)或加寬網(wǎng)絡(luò)結(jié)構(gòu)可提升基礎(chǔ)網(wǎng)絡(luò)的性能,但會(huì)造成網(wǎng)絡(luò)參數(shù)量增大進(jìn)而降低檢測(cè)速度。DenseNet 從特征的角度出發(fā),通過(guò)重復(fù)利用特征和設(shè)置旁路,大幅降低網(wǎng)絡(luò)參數(shù)量并緩解了梯度消失的現(xiàn)象,可取得較好的檢測(cè)效果,其網(wǎng)絡(luò)結(jié)構(gòu)如圖3 所示。本文使用Pytorch 框架對(duì)VggNet、ResNet、GoogleNet 以及DenseNet 4 種網(wǎng)絡(luò)的分類性能進(jìn)行對(duì)比分析,以Top-5 錯(cuò)誤率和每秒浮點(diǎn)運(yùn)算次數(shù)(Flops)作為評(píng)價(jià)指標(biāo),分析結(jié)果如表1 所示。由表1 可知,DenseNet的Top-5 錯(cuò)誤率僅為2.25%,每秒浮點(diǎn)運(yùn)算次數(shù)為19 億次,其具有最低分類錯(cuò)誤率和較低的分類速度,因此本文將其作為基礎(chǔ)網(wǎng)絡(luò)來(lái)替換SSD 算法中的VGG16 網(wǎng)絡(luò)。

        圖3 原始DenseNet 網(wǎng)絡(luò)結(jié)構(gòu)Fig.3 Structure of original DenseNet network

        表1 不同網(wǎng)絡(luò)的分類性能Table 1 Classification performance of different networks

        DenseNet 第1 個(gè)卷積核的大小為7×7,步長(zhǎng)為2,輸入圖像在經(jīng)過(guò)第一層卷積和池化下采樣后,其特征信息還未被充分提取就已部分丟失,從而影響到后續(xù)特征提取,因此,本文對(duì)DenseNet 進(jìn)行改進(jìn)。采用3 個(gè)連續(xù)的3×3 卷積核代替原始DenseNet 中的7×7卷積核。3 個(gè)連續(xù)的3×3 卷積相較7×7 卷積在同樣尺度感受野下能更有效地減少網(wǎng)絡(luò)參數(shù)量,并降低輸入圖像特征信息的損耗,最大程度地保留目標(biāo)的相關(guān)細(xì)節(jié)信息,從而有效提取特征信息。改進(jìn)DenseNet網(wǎng)絡(luò)層參數(shù)如表2 所示。通過(guò)改進(jìn)DenseNet 得到尺度為19 像素×19 像素的特征圖后,再經(jīng)過(guò)下采樣得到尺度分別為10 像素×10 像素和5 像素×5 像素的特征圖用于下一步檢測(cè)。

        表2 改進(jìn)DenseNet 網(wǎng)絡(luò)層參數(shù)Table 2 Network layer parameters of improved DenseNet

        2.2 二次回歸

        Faster-RCNN 等基于候選區(qū)域的目標(biāo)檢測(cè)算法需對(duì)候選區(qū)域進(jìn)行預(yù)處理,雖然此類算法檢測(cè)精度較高,但由于存在全連接層和大量網(wǎng)絡(luò)參數(shù),因此檢測(cè)速度較慢,無(wú)法進(jìn)行實(shí)時(shí)檢測(cè)。SSD、YOLO 等基于回歸的目標(biāo)檢測(cè)算法為提高檢測(cè)速度從一定程度上犧牲了檢測(cè)精度,同時(shí)基于默認(rèn)框、預(yù)測(cè)框和物體真實(shí)框之間的關(guān)系對(duì)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,并對(duì)默認(rèn)框進(jìn)行回歸處理。

        類別嚴(yán)重不平衡是導(dǎo)致基于候選區(qū)域的目標(biāo)檢測(cè)算法精度低于基于回歸的目標(biāo)檢測(cè)算法的主要原因。在SSD 等一階段端對(duì)端的檢測(cè)算法中,原始圖像經(jīng)過(guò)卷積神經(jīng)網(wǎng)絡(luò)后會(huì)生成近萬(wàn)個(gè)默認(rèn)框,但其中目標(biāo)默認(rèn)框數(shù)量占比很小,負(fù)樣本與正樣本的數(shù)量比例高達(dá)1 000∶1,造成正負(fù)樣本比例嚴(yán)重失調(diào)。為解決類別不平衡的問(wèn)題,文獻(xiàn)[21]提出在線進(jìn)行難例挖掘,利用bootstrapping 技術(shù)對(duì)簡(jiǎn)單的負(fù)樣本進(jìn)行抑制,從而提高模型訓(xùn)練效率,然而該方法僅適用于批次數(shù)量較少的模型。文獻(xiàn)[22]對(duì)交叉熵?fù)p失函數(shù)進(jìn)行重新定義,通過(guò)在標(biāo)準(zhǔn)交叉熵?fù)p失函數(shù)中添加控制權(quán)重使模型在訓(xùn)練時(shí)更注重占比較少的困難正樣本,但其并未從本質(zhì)上解決類別不平衡的問(wèn)題。

        本文提出一種Ours-SSD 算法(以下稱為本文算法),其網(wǎng)絡(luò)結(jié)構(gòu)如圖4 所示。利用二階段非端對(duì)端目標(biāo)檢測(cè)算法中默認(rèn)框由粗到細(xì)篩選的回歸思想,設(shè)計(jì)串級(jí)SSD 目標(biāo)檢測(cè)網(wǎng)絡(luò)結(jié)構(gòu)。第一部分SSD(ARM)對(duì)物體和背景進(jìn)行簡(jiǎn)單二分類與粗略定位,第二部分SSD(ODM)根據(jù)第一部分的二分類結(jié)果過(guò)濾大部分簡(jiǎn)單負(fù)樣本,然后進(jìn)行目標(biāo)類別的判斷與位置回歸。串級(jí)多次回歸的網(wǎng)絡(luò)結(jié)構(gòu)具有更高的檢測(cè)精度。本文為增加淺層特征圖的語(yǔ)義特征和深層特征圖的細(xì)節(jié)信息,在兩個(gè)串級(jí)部分之間加入特征融合模塊。

        圖4 本文算法網(wǎng)絡(luò)結(jié)構(gòu)Fig.4 Network structure of the proposed algorithm

        2.3 特征圖尺度變換

        原始輸入圖像在經(jīng)過(guò)多次卷積、池化和下采樣后會(huì)得到尺寸逐步減小的特征圖,為增加淺層特征圖的語(yǔ)義特征和深層特征圖的細(xì)節(jié)信息,需將不同尺度的特征圖進(jìn)行融合。在特征圖融合之前,由低分率的底層特征圖生成高分率的特征圖,具體步驟為:1)在DSSD算法中使用反卷積方法先對(duì)特征圖及其四周填充0,再對(duì)其進(jìn)行卷積和裁剪,去除右側(cè)最后一列和下方最后一行后即得到高分率特征圖;2)在FSSD 算法中使用雙線性插值上采樣方法,對(duì)特征圖中無(wú)像素值的空位進(jìn)行插值,將特征圖放大到預(yù)設(shè)尺寸。然而反卷積方法和雙線性插值上采樣方法均會(huì)增加網(wǎng)絡(luò)參數(shù)量,從而延長(zhǎng)計(jì)算時(shí)間,降低算法實(shí)時(shí)性。為避免降低算法檢測(cè)速度,本文提出一種特征圖尺度變換方法,在不增加參數(shù)量的情況下擴(kuò)大特征圖尺寸,特征圖尺度變換過(guò)程如圖5 所示。先將輸入特征圖在通道維度上劃分為C個(gè)通道長(zhǎng)度為r2的特征圖,然后將每個(gè)通道數(shù)為r2、尺寸為H×W的特征圖轉(zhuǎn)換成通道數(shù)為1、尺寸為rH×rW的特征圖。

        圖5 特征圖尺度變換過(guò)程Fig.5 Process of scale transformation of feature map

        2.4 Default boxes 聚類分析

        SSD 算法的檢測(cè)精度和速度受網(wǎng)絡(luò)中默認(rèn)框數(shù)量的影響,數(shù)量較少的默認(rèn)框能提高檢測(cè)速度但會(huì)降低檢測(cè)精度,數(shù)量較多的默認(rèn)框雖能提升檢測(cè)精度卻會(huì)降低檢測(cè)速度。此外,SSD 算法默認(rèn)框的長(zhǎng)寬比是根據(jù)檢測(cè)人員經(jīng)驗(yàn)手工設(shè)置,雖然其長(zhǎng)寬比會(huì)在模型訓(xùn)練過(guò)程中自動(dòng)調(diào)整,但如果初始默認(rèn)框的數(shù)量和長(zhǎng)寬比更符合數(shù)據(jù)集中標(biāo)注目標(biāo)的特性,則能加快模型收斂并提升檢測(cè)精度和速度。

        本文通過(guò)對(duì)訓(xùn)練集中所有標(biāo)注目標(biāo)框的尺寸進(jìn)行K-means 聚類計(jì)算得到默認(rèn)框最佳長(zhǎng)寬比。在K-means 聚類算法中,選擇距離作為目標(biāo)相似度的評(píng)價(jià)指標(biāo),若目標(biāo)距離越小則相似度越大。經(jīng)過(guò)K-means 聚類計(jì)算可獲得距離接近且獨(dú)立的類簇結(jié)果,其具體步驟如下:

        1)確定一個(gè)k值作為算法聚類分析后所得集合的個(gè)數(shù)。

        2)隨機(jī)選擇訓(xùn)練集中k個(gè)數(shù)據(jù)點(diǎn)作為初始質(zhì)心。

        3)計(jì)算訓(xùn)練集中各個(gè)點(diǎn)與k個(gè)質(zhì)心的距離,將其劃分到距離最近的質(zhì)心所在集合。

        4)訓(xùn)練集中所有目標(biāo)形成k個(gè)集合,重新計(jì)算各集合的質(zhì)心。

        5)若新計(jì)算的質(zhì)心和原質(zhì)心的距離小于預(yù)設(shè)標(biāo)準(zhǔn),則算法完成。

        6)若新計(jì)算的質(zhì)心和原質(zhì)心的距離大于預(yù)設(shè)標(biāo)準(zhǔn),則需重復(fù)進(jìn)行步驟3~步驟5。

        本文為實(shí)現(xiàn)檢測(cè)精度和檢測(cè)速度的平衡,先選擇先驗(yàn)框個(gè)數(shù)為5(k=5),保證算法檢測(cè)速度所受影響較小,然后利用K-means 算法對(duì)數(shù)據(jù)集中所有標(biāo)注框進(jìn)行聚類分析。

        3 實(shí)驗(yàn)與結(jié)果分析

        3.1 實(shí)驗(yàn)數(shù)據(jù)集

        本文實(shí)驗(yàn)采用PASCAL VOC2007 公共數(shù)據(jù)集(以下稱為VOC 數(shù)據(jù)集)和自制航拍小目標(biāo)數(shù)據(jù)集(以下稱為AP 數(shù)據(jù)集)。VOC 數(shù)據(jù)集包含交通工具、動(dòng)物、人物以及生活用品等20類常見(jiàn)目標(biāo),共21 503張圖像。AP 數(shù)據(jù)集含有22 761 張?jiān)醋圆煌瑐鞲衅骱筒杉脚_(tái)的航拍樣本圖像,包含飛機(jī)、車輛、船舶以及建筑物等13 類小尺度目標(biāo)。AP 數(shù)據(jù)集中各場(chǎng)景圖像的背景較復(fù)雜,且目標(biāo)具有更多尺度變化。采用平移、旋轉(zhuǎn)和灰度變換等方法擴(kuò)充數(shù)據(jù)集,以防止模型訓(xùn)練時(shí)出現(xiàn)過(guò)擬合現(xiàn)象。通過(guò)K-means 聚類計(jì)算,選定VOC 數(shù)據(jù)集默認(rèn)框長(zhǎng)寬比例分別為{1.0,0.5,2.6,0.7,1.3},航拍數(shù)據(jù)集默認(rèn)框長(zhǎng)寬比設(shè)定為{1.00,0.80,2.70,0.59,1.73}。VOC 數(shù)據(jù)集的K-means 聚類結(jié)果如圖6所示(彩色效果參見(jiàn)《計(jì)算機(jī)工程》官網(wǎng)HTML版)。

        圖6 VOC 數(shù)據(jù)集上K-means 聚類結(jié)果Fig.6 K-means clustering results on VOC dataset

        3.2 訓(xùn)練步驟與參數(shù)配置

        在模型訓(xùn)練初始化過(guò)程中,采用ImageNet 數(shù)據(jù)集對(duì)本文算法中基礎(chǔ)網(wǎng)絡(luò)DenseNet 進(jìn)行預(yù)訓(xùn)練,具體步驟為:1)將所有圖像數(shù)據(jù)轉(zhuǎn)換為VOC 數(shù)據(jù)集的格式;2)根據(jù)訓(xùn)練樣本數(shù)量擴(kuò)充數(shù)據(jù)集數(shù)據(jù);3)利用隨機(jī)梯度下降法優(yōu)化損失函數(shù)以獲取最優(yōu)網(wǎng)絡(luò)模型參數(shù)。

        由于在小目標(biāo)檢測(cè)場(chǎng)景下尺度為0.2的最淺層特征圖較大,無(wú)法檢測(cè)出較小尺寸的目標(biāo),因此將最底層縮放比例Smin調(diào)整為0.08,并使用隨機(jī)梯度下降SGD算法對(duì)參數(shù)更新如下:初始學(xué)習(xí)率為0.001,權(quán)值衰減項(xiàng)為0.000 5,動(dòng)量項(xiàng)為0.9,批大小為32。此外,學(xué)習(xí)率設(shè)置為0.001,迭代次數(shù)為300。本文算法在Spyder編譯器上編寫,并基于Pytorch框架進(jìn)行模型訓(xùn)練。實(shí)驗(yàn)環(huán)境為64位的Ubuntu16.04系統(tǒng),Intel?CoreTMi5-8500@3.00 GHz 6 核處理器,英偉達(dá)GTX 1080 Ti 顯卡,11 GB 顯存以及16 GB 內(nèi)存。

        3.3 結(jié)果分析

        在VOC 數(shù)據(jù)集和AP 數(shù)據(jù)集上將本文算法與Faster-RCNN、R-FCN、SSD、RSSD、DSSD 以及YOLO V3 等主流目標(biāo)檢測(cè)算法進(jìn)行對(duì)比分析。采用檢測(cè)平均精度(Average Precision,AP)和平均精度均值(mean Average Precision,mAP)作為算法檢測(cè)性能的評(píng)價(jià)指標(biāo)。

        3.3.1 VOC 數(shù)據(jù)集上的實(shí)驗(yàn)

        上述算法在VOC數(shù)據(jù)集上的檢測(cè)結(jié)果如表3所示。

        表3 不同算法在VOC 數(shù)據(jù)集上的檢測(cè)結(jié)果Table 3 Detection results of different algorithms on VOC dataset

        可以看出,本文算法的mAP 值高于其他算法,其中,較Faster-RCNN 算法提高9.1 個(gè)百分點(diǎn),較SSD 算法提高5.1個(gè)百分點(diǎn),較DSSD算法提高3.7個(gè)百分點(diǎn),較YOLO V3算法提高1.7個(gè)百分點(diǎn),YOLO V3算法與本文算法的檢測(cè)性能最接近。當(dāng)檢測(cè)目標(biāo)為椅子和鳥(niǎo)類時(shí),YOLO V3 的AP 值較本文算法分別低5.5 個(gè)百分點(diǎn)與0.6個(gè)百分點(diǎn)。此外,本文算法在檢測(cè)盆栽等尺度較小的目標(biāo)時(shí),檢測(cè)效果明顯優(yōu)于其他算法。

        3.3.2 AP 數(shù)據(jù)集上的實(shí)驗(yàn)

        不同算法在AP 數(shù)據(jù)集上的檢測(cè)效果和檢測(cè)結(jié)果分別如圖7 和表4 所示。由圖7 可以看出,本文算法的檢測(cè)效果優(yōu)于其他目標(biāo)檢測(cè)算法。由表4 可見(jiàn),本文算法的檢測(cè)指標(biāo)值均高于其他目標(biāo)檢測(cè)算法。當(dāng)檢測(cè)目標(biāo)為船舶和儲(chǔ)罐時(shí),本文算法的AP值較YOLO V3算法分別高4.1個(gè)百分點(diǎn)與8.4 個(gè)百分點(diǎn)。

        圖7 不同算法的檢測(cè)效果圖Fig.7 Detection effect images of different algorithms

        表4 不同算法在AP 數(shù)據(jù)集上的檢測(cè)結(jié)果Table 4 Detection results of different algorithms on AP dataset

        為更好地比較不同算法對(duì)小目標(biāo)的檢測(cè)效果,本文采用精度-召回率(Precision-Recall,PR)曲線評(píng)估算法的檢測(cè)性能。在PR 曲線中,若算法的精度和召回率均最大,則表明算法的檢測(cè)性能最好。圖8為當(dāng)檢測(cè)目標(biāo)為飛機(jī)和船舶時(shí)上述算法在不同召回率下的PR 曲線。可以看出,本文算法的精度和召回率均優(yōu)于其他算法。由上述分析結(jié)果可知,本文算法對(duì)小目標(biāo)檢測(cè)的精度和召回率更高,在不同場(chǎng)景下均能有效進(jìn)行檢測(cè)。

        圖8 不同算法的PR 曲線Fig.8 PR cruves of different algorithms

        4 結(jié)束語(yǔ)

        本文針對(duì)SSD 算法對(duì)小目標(biāo)特征提取能力不強(qiáng)的問(wèn)題,提出一種改進(jìn)的SSD 小目標(biāo)檢測(cè)算法。將SSD 算法中骨干網(wǎng)絡(luò)由VGG16 替換為密集連接的DenseNet 提高檢測(cè)精度,設(shè)計(jì)二次回歸的網(wǎng)絡(luò)結(jié)構(gòu)解決候選區(qū)域默認(rèn)框正負(fù)樣本不平衡的問(wèn)題,采用特征圖尺度變換方法在不引入額外參數(shù)量情況下融合特征圖,并通過(guò)K-means 聚類分析獲得默認(rèn)框的個(gè)數(shù)和最佳長(zhǎng)寬比。在PASCAL VOC2007 公共數(shù)據(jù)集和自制航拍小目標(biāo)數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果表明,該算法的檢測(cè)平均精度均值較改進(jìn)前SSD 算法分別提升5.1 個(gè)百分點(diǎn)和9.5 個(gè)百分點(diǎn),較RSSD、DSSD 等目標(biāo)檢測(cè)算法檢測(cè)精度更高,檢測(cè)速度達(dá)到58 frames/s,具有良好的實(shí)時(shí)檢測(cè)性能。后續(xù)將優(yōu)化模型結(jié)構(gòu),進(jìn)一步提高計(jì)算效率。

        猜你喜歡
        特征檢測(cè)
        抓住特征巧觀察
        “不等式”檢測(cè)題
        “一元一次不等式”檢測(cè)題
        “一元一次不等式組”檢測(cè)題
        “幾何圖形”檢測(cè)題
        “角”檢測(cè)題
        新型冠狀病毒及其流行病學(xué)特征認(rèn)識(shí)
        如何表達(dá)“特征”
        不忠誠(chéng)的四個(gè)特征
        抓住特征巧觀察
        日本熟妇色xxxxx欧美老妇| 日本在线免费不卡一区二区三区| 亚洲一区二区国产一区| 日本一区二区在线资源| 精品私密av一区二区三区| 日韩av午夜在线观看| 丰满少妇在线观看网站| 国产精品成人va| 午夜av内射一区二区三区红桃视| 韩国日本在线观看一区二区| 青青草视频在线播放观看| 亚洲国产果冻传媒av在线观看 | 男男车车的车车网站w98免费| 18无码粉嫩小泬无套在线观看 | 一本无码中文字幕在线观| 国产乱色精品成人免费视频| 国产欧美乱夫不卡无乱码| 久久久国产精品免费无卡顿| 日本在线观看一区二区三区视频| 精品天堂色吊丝一区二区| 无码人妻精品丰满熟妇区| 人禽无码视频在线观看| 久久久调教亚洲| 日本97色视频日本熟妇视频| 中文字幕精品一区二区的区别| 精品偷拍被偷拍在线观看| 久久久精品456亚洲影院| 亚洲AV无码秘 蜜桃1区| 人妻少妇精品系列一区二区| 亚洲熟少妇一区二区三区| 变态调教一区二区三区女同| 精品国产这么小也不放过| 久久久久久人妻毛片a片| 国产一区二区三区4区| 成人激情视频一区二区三区 | 亚洲一码二码在线观看| 国产91人妻一区二区三区| 欧美成人午夜精品久久久| 国产亚洲精品综合一区| 精品精品国产三级av在线| 色综合久久久久久久久久|