奚 琦,張正道,彭 力
(江南大學(xué)物聯(lián)網(wǎng)工程學(xué)院,江蘇無錫 214122)
小目標(biāo)檢測技術(shù)在人們?nèi)粘I钪惺褂幂^廣泛[1-3],被應(yīng)用于多個場景。例如,無人駕駛場景下利用檢測攝像頭捕獲圖像中較遠(yuǎn)和較小的目標(biāo),醫(yī)學(xué)圖像場景下檢測較小尺度的病灶,工業(yè)制造場景下檢測材料中微小瑕疵等。目前在計算機(jī)視覺領(lǐng)域,小目標(biāo)并未被嚴(yán)格定義為分辨率或者像素點總量小于某尺度的物體,其通常根據(jù)研究對象或?qū)嶋H應(yīng)用場景來定義。本文根據(jù)文獻(xiàn)[4-5]對小目標(biāo)的定義,將圖像中尺寸小于20 像素×20 像素的物體定義為小目標(biāo)。相較圖像中常規(guī)尺度目標(biāo),小目標(biāo)尺度占比更小、像素更少且外形特征不明顯,因此,小目標(biāo)檢測成為目標(biāo)檢測亟待解決的難題之一。
近年來,傳統(tǒng)Haar[6]、HOG[7]和SHIFT[8]等基于手工設(shè)計特征的目標(biāo)檢測算法因檢測效率低、檢測目標(biāo)單一、魯棒性差且速度慢逐漸被淘汰。隨著人工智能技術(shù)的深入發(fā)展,基于卷積神經(jīng)網(wǎng)絡(luò)自動學(xué)習(xí)特征的目標(biāo)檢測算法因具有較高的檢測速率和檢測精度,被廣泛應(yīng)用于目標(biāo)檢測中的各個領(lǐng)域。現(xiàn)有基于卷積神經(jīng)網(wǎng)絡(luò)的目標(biāo)檢測算法主要包括Fast R-CNN[9]、Faster R-CNN[10]等基于候選區(qū)域的算法以及YOLO[11]、單激發(fā)探測器(Single Shot Detector,SSD)[12]等基于回歸的算法。其中,SSD 算法檢測性能相對更好,但由于其僅依靠分辨率較高的Conv4_3(尺寸為38×38)淺層特征圖進(jìn)行小目標(biāo)檢測,而Conv4_3 淺層特征圖在模型中位置靠前,其特征提取能力不足,且上下文語義信息不夠豐富,導(dǎo)致SSD 算法對小目標(biāo)檢測效果較差。
研究人員在改進(jìn)SSD 算法的基礎(chǔ)上對小目標(biāo)檢測性能進(jìn)行研究并取得眾多成果。文獻(xiàn)[13]基于殘差網(wǎng)絡(luò)提出一種反卷積單激發(fā)探測器(Deconvolutional SSD,DSSD),將SSD 的基礎(chǔ)網(wǎng)絡(luò)部分由VGG[14]網(wǎng)絡(luò)替換為特征提取能力更強(qiáng)的ResNet[15]網(wǎng)絡(luò),并在金字塔網(wǎng)絡(luò)后設(shè)置反卷積模塊增加上下文信息,但這種由上到下逐層生成特征金字塔的方式計算量較大且增加多次融合操作,其在英偉達(dá)TITAN X 顯卡上每秒僅能檢測9張圖像,無法進(jìn)行實時性目標(biāo)檢測。文獻(xiàn)[16]提出一種多特征圖融合的Rainbow單激發(fā)探測器(Rainbow SSD,RSSD),采用反復(fù)堆疊最大池化和反卷積的方法來融合不同尺度的卷積層特征圖,但其計算量較大且特征圖融合方向單一,檢測性能較DSSD 提升不明顯。文獻(xiàn)[17]設(shè)計一種功能融合單激發(fā)探測器(Function Fusion SSD,F(xiàn)SSD),通過雙線性插值進(jìn)行上采樣來建立輕量級特征融合模塊,提高了淺層特征圖的特征提取能力,其檢測精度和檢測速度較DSSD 和RSSD 有較大提升,且檢測速度接近SSD。文獻(xiàn)[18]提出一種多尺度反卷積單激發(fā)探測器(Multi-Scale Deconvolutional SSD,MDSSD),分別對Conv3_3 和Conv8_2、Conv4_3 和Conv9_2、Conv7 和Conv10_2 的特征圖進(jìn)行融合操作,形成3 個新特征圖與原特征圖共同進(jìn)行預(yù)測,然而其雖然能滿足實時檢測的要求,但對檢測精度的提升有限。文獻(xiàn)[19]參考人類視覺的感受野設(shè)計出一種含有感受野模塊的感受野單激發(fā)探測器(Receptive Field Block SSD,RFB-SSD),并借鑒GoogleNet 構(gòu)建多分支卷積層來提高網(wǎng)絡(luò)的特征提取能力。
本文在SSD 算法的基礎(chǔ)上,提出一種采用改進(jìn)密集網(wǎng)絡(luò)和二次回歸的小目標(biāo)檢測算法。以密集連接的DenseNet[20]替換VGG16 作為基礎(chǔ)網(wǎng)絡(luò),通過優(yōu)化DenseNet 結(jié)構(gòu)提升特征提取能力和計算速度,利用基于區(qū)域候選的檢測算法中默認(rèn)框由粗到細(xì)篩選的回歸思想,將目標(biāo)與背景做簡單區(qū)分后對其進(jìn)行分類與位置回歸以獲取精確的默認(rèn)框信息,設(shè)計特征圖融合模塊提取特征信息,同時采用特征圖尺度變換方法進(jìn)行特征圖融合,并利用K-means 聚類方法獲取初始默認(rèn)框的最佳長寬比。
SSD 網(wǎng)絡(luò)作為基于回歸的目標(biāo)檢測算法的典型網(wǎng)絡(luò),其利用單個深度卷積神經(jīng)網(wǎng)絡(luò)結(jié)合6 個不同尺度的特征圖進(jìn)行預(yù)測獲得目標(biāo)的類別和位置信息。SSD 網(wǎng)絡(luò)由基礎(chǔ)網(wǎng)絡(luò)和額外增加網(wǎng)絡(luò)構(gòu)成,其結(jié)構(gòu)如圖1 所示。
圖1 SSD 網(wǎng)絡(luò)結(jié)構(gòu)Fig.1 Structure of SSD network
在SSD 網(wǎng)絡(luò)中,基礎(chǔ)網(wǎng)絡(luò)由VGG16 網(wǎng)絡(luò)去掉最后兩個全連接(FC)層并新增兩個卷積(Conv)層而形成,額外增加網(wǎng)絡(luò)將Conv4-3 特征圖經(jīng)過不斷下采樣操作形成尺度逐漸變小的特征圖。
SSD 算法對常規(guī)尺寸目標(biāo)檢測精度較高且檢測速度較快,雖然其通過特征金字塔網(wǎng)絡(luò)可提取不同尺度的特征圖進(jìn)行目標(biāo)檢測,但對小尺寸目標(biāo)檢測效果較差。
1.2.1 特征提取不足
對于小尺度的目標(biāo),SSD 算法主要采用分辨率較高的Conv4_3 淺層特征圖進(jìn)行檢測,但Conv4_3 淺層特征圖在模型中位置靠前,其特征提取能力不足,且上下文語義信息不夠豐富。深層特征圖的語義信息較多,但其經(jīng)過多次卷積、池化與下采樣后其尺度很小,會丟失部分位置信息和重要的細(xì)節(jié)特征,且其默認(rèn)框尺度較大,不適合小目標(biāo)檢測。
1.2.2 正負(fù)樣本失衡
SSD 算法在6 個不同尺度的特征圖上共生成8 735 個默認(rèn)框,具體生成過程如圖2 所示。
圖2 默認(rèn)框生成過程Fig.2 Process of default boxes generating
在模型訓(xùn)練時對匹配成功的默認(rèn)框進(jìn)行類別判斷和位置回歸處理,由于待檢測圖像中背景占比較大,而檢測目標(biāo)占比較小,因此大部分默認(rèn)框在匹配后會被標(biāo)記為負(fù)樣本,大量負(fù)樣本損失占模型總損失的絕大部分,從而削弱正樣本損失對總損失的影響,導(dǎo)致檢測模型訓(xùn)練效率嚴(yán)重下降,模型優(yōu)化方向也會受不同程度的干擾,造成模型參數(shù)無法更新到最佳值。
目標(biāo)檢測算法通常選擇在分類任務(wù)中表現(xiàn)較好的網(wǎng)絡(luò)作為基礎(chǔ)網(wǎng)絡(luò)?;A(chǔ)網(wǎng)絡(luò)是將分類網(wǎng)絡(luò)模型去除全連接層后得到的網(wǎng)絡(luò),其負(fù)責(zé)提取圖像特征,對目標(biāo)檢測算法性能影響較大。SSD 算法使用VggNet作為基礎(chǔ)網(wǎng)絡(luò),YOLO 算法以GoogleNet 作為基礎(chǔ)網(wǎng)絡(luò),DSSD 算法利用ResNet 作為基礎(chǔ)網(wǎng)絡(luò)。
不同分類網(wǎng)絡(luò)的大小不同,該差異會影響到目標(biāo)檢測算法速度,因此,需選擇合適的分類網(wǎng)絡(luò)提高算法的檢測準(zhǔn)確率和速度。增加分類網(wǎng)絡(luò)層數(shù)或加寬網(wǎng)絡(luò)結(jié)構(gòu)可提升基礎(chǔ)網(wǎng)絡(luò)的性能,但會造成網(wǎng)絡(luò)參數(shù)量增大進(jìn)而降低檢測速度。DenseNet 從特征的角度出發(fā),通過重復(fù)利用特征和設(shè)置旁路,大幅降低網(wǎng)絡(luò)參數(shù)量并緩解了梯度消失的現(xiàn)象,可取得較好的檢測效果,其網(wǎng)絡(luò)結(jié)構(gòu)如圖3 所示。本文使用Pytorch 框架對VggNet、ResNet、GoogleNet 以及DenseNet 4 種網(wǎng)絡(luò)的分類性能進(jìn)行對比分析,以Top-5 錯誤率和每秒浮點運(yùn)算次數(shù)(Flops)作為評價指標(biāo),分析結(jié)果如表1 所示。由表1 可知,DenseNet的Top-5 錯誤率僅為2.25%,每秒浮點運(yùn)算次數(shù)為19 億次,其具有最低分類錯誤率和較低的分類速度,因此本文將其作為基礎(chǔ)網(wǎng)絡(luò)來替換SSD 算法中的VGG16 網(wǎng)絡(luò)。
圖3 原始DenseNet 網(wǎng)絡(luò)結(jié)構(gòu)Fig.3 Structure of original DenseNet network
表1 不同網(wǎng)絡(luò)的分類性能Table 1 Classification performance of different networks
DenseNet 第1 個卷積核的大小為7×7,步長為2,輸入圖像在經(jīng)過第一層卷積和池化下采樣后,其特征信息還未被充分提取就已部分丟失,從而影響到后續(xù)特征提取,因此,本文對DenseNet 進(jìn)行改進(jìn)。采用3 個連續(xù)的3×3 卷積核代替原始DenseNet 中的7×7卷積核。3 個連續(xù)的3×3 卷積相較7×7 卷積在同樣尺度感受野下能更有效地減少網(wǎng)絡(luò)參數(shù)量,并降低輸入圖像特征信息的損耗,最大程度地保留目標(biāo)的相關(guān)細(xì)節(jié)信息,從而有效提取特征信息。改進(jìn)DenseNet網(wǎng)絡(luò)層參數(shù)如表2 所示。通過改進(jìn)DenseNet 得到尺度為19 像素×19 像素的特征圖后,再經(jīng)過下采樣得到尺度分別為10 像素×10 像素和5 像素×5 像素的特征圖用于下一步檢測。
表2 改進(jìn)DenseNet 網(wǎng)絡(luò)層參數(shù)Table 2 Network layer parameters of improved DenseNet
Faster-RCNN 等基于候選區(qū)域的目標(biāo)檢測算法需對候選區(qū)域進(jìn)行預(yù)處理,雖然此類算法檢測精度較高,但由于存在全連接層和大量網(wǎng)絡(luò)參數(shù),因此檢測速度較慢,無法進(jìn)行實時檢測。SSD、YOLO 等基于回歸的目標(biāo)檢測算法為提高檢測速度從一定程度上犧牲了檢測精度,同時基于默認(rèn)框、預(yù)測框和物體真實框之間的關(guān)系對網(wǎng)絡(luò)進(jìn)行訓(xùn)練,并對默認(rèn)框進(jìn)行回歸處理。
類別嚴(yán)重不平衡是導(dǎo)致基于候選區(qū)域的目標(biāo)檢測算法精度低于基于回歸的目標(biāo)檢測算法的主要原因。在SSD 等一階段端對端的檢測算法中,原始圖像經(jīng)過卷積神經(jīng)網(wǎng)絡(luò)后會生成近萬個默認(rèn)框,但其中目標(biāo)默認(rèn)框數(shù)量占比很小,負(fù)樣本與正樣本的數(shù)量比例高達(dá)1 000∶1,造成正負(fù)樣本比例嚴(yán)重失調(diào)。為解決類別不平衡的問題,文獻(xiàn)[21]提出在線進(jìn)行難例挖掘,利用bootstrapping 技術(shù)對簡單的負(fù)樣本進(jìn)行抑制,從而提高模型訓(xùn)練效率,然而該方法僅適用于批次數(shù)量較少的模型。文獻(xiàn)[22]對交叉熵?fù)p失函數(shù)進(jìn)行重新定義,通過在標(biāo)準(zhǔn)交叉熵?fù)p失函數(shù)中添加控制權(quán)重使模型在訓(xùn)練時更注重占比較少的困難正樣本,但其并未從本質(zhì)上解決類別不平衡的問題。
本文提出一種Ours-SSD 算法(以下稱為本文算法),其網(wǎng)絡(luò)結(jié)構(gòu)如圖4 所示。利用二階段非端對端目標(biāo)檢測算法中默認(rèn)框由粗到細(xì)篩選的回歸思想,設(shè)計串級SSD 目標(biāo)檢測網(wǎng)絡(luò)結(jié)構(gòu)。第一部分SSD(ARM)對物體和背景進(jìn)行簡單二分類與粗略定位,第二部分SSD(ODM)根據(jù)第一部分的二分類結(jié)果過濾大部分簡單負(fù)樣本,然后進(jìn)行目標(biāo)類別的判斷與位置回歸。串級多次回歸的網(wǎng)絡(luò)結(jié)構(gòu)具有更高的檢測精度。本文為增加淺層特征圖的語義特征和深層特征圖的細(xì)節(jié)信息,在兩個串級部分之間加入特征融合模塊。
圖4 本文算法網(wǎng)絡(luò)結(jié)構(gòu)Fig.4 Network structure of the proposed algorithm
原始輸入圖像在經(jīng)過多次卷積、池化和下采樣后會得到尺寸逐步減小的特征圖,為增加淺層特征圖的語義特征和深層特征圖的細(xì)節(jié)信息,需將不同尺度的特征圖進(jìn)行融合。在特征圖融合之前,由低分率的底層特征圖生成高分率的特征圖,具體步驟為:1)在DSSD算法中使用反卷積方法先對特征圖及其四周填充0,再對其進(jìn)行卷積和裁剪,去除右側(cè)最后一列和下方最后一行后即得到高分率特征圖;2)在FSSD 算法中使用雙線性插值上采樣方法,對特征圖中無像素值的空位進(jìn)行插值,將特征圖放大到預(yù)設(shè)尺寸。然而反卷積方法和雙線性插值上采樣方法均會增加網(wǎng)絡(luò)參數(shù)量,從而延長計算時間,降低算法實時性。為避免降低算法檢測速度,本文提出一種特征圖尺度變換方法,在不增加參數(shù)量的情況下擴(kuò)大特征圖尺寸,特征圖尺度變換過程如圖5 所示。先將輸入特征圖在通道維度上劃分為C個通道長度為r2的特征圖,然后將每個通道數(shù)為r2、尺寸為H×W的特征圖轉(zhuǎn)換成通道數(shù)為1、尺寸為rH×rW的特征圖。
圖5 特征圖尺度變換過程Fig.5 Process of scale transformation of feature map
SSD 算法的檢測精度和速度受網(wǎng)絡(luò)中默認(rèn)框數(shù)量的影響,數(shù)量較少的默認(rèn)框能提高檢測速度但會降低檢測精度,數(shù)量較多的默認(rèn)框雖能提升檢測精度卻會降低檢測速度。此外,SSD 算法默認(rèn)框的長寬比是根據(jù)檢測人員經(jīng)驗手工設(shè)置,雖然其長寬比會在模型訓(xùn)練過程中自動調(diào)整,但如果初始默認(rèn)框的數(shù)量和長寬比更符合數(shù)據(jù)集中標(biāo)注目標(biāo)的特性,則能加快模型收斂并提升檢測精度和速度。
本文通過對訓(xùn)練集中所有標(biāo)注目標(biāo)框的尺寸進(jìn)行K-means 聚類計算得到默認(rèn)框最佳長寬比。在K-means 聚類算法中,選擇距離作為目標(biāo)相似度的評價指標(biāo),若目標(biāo)距離越小則相似度越大。經(jīng)過K-means 聚類計算可獲得距離接近且獨立的類簇結(jié)果,其具體步驟如下:
1)確定一個k值作為算法聚類分析后所得集合的個數(shù)。
2)隨機(jī)選擇訓(xùn)練集中k個數(shù)據(jù)點作為初始質(zhì)心。
3)計算訓(xùn)練集中各個點與k個質(zhì)心的距離,將其劃分到距離最近的質(zhì)心所在集合。
4)訓(xùn)練集中所有目標(biāo)形成k個集合,重新計算各集合的質(zhì)心。
5)若新計算的質(zhì)心和原質(zhì)心的距離小于預(yù)設(shè)標(biāo)準(zhǔn),則算法完成。
6)若新計算的質(zhì)心和原質(zhì)心的距離大于預(yù)設(shè)標(biāo)準(zhǔn),則需重復(fù)進(jìn)行步驟3~步驟5。
本文為實現(xiàn)檢測精度和檢測速度的平衡,先選擇先驗框個數(shù)為5(k=5),保證算法檢測速度所受影響較小,然后利用K-means 算法對數(shù)據(jù)集中所有標(biāo)注框進(jìn)行聚類分析。
本文實驗采用PASCAL VOC2007 公共數(shù)據(jù)集(以下稱為VOC 數(shù)據(jù)集)和自制航拍小目標(biāo)數(shù)據(jù)集(以下稱為AP 數(shù)據(jù)集)。VOC 數(shù)據(jù)集包含交通工具、動物、人物以及生活用品等20類常見目標(biāo),共21 503張圖像。AP 數(shù)據(jù)集含有22 761 張源自不同傳感器和采集平臺的航拍樣本圖像,包含飛機(jī)、車輛、船舶以及建筑物等13 類小尺度目標(biāo)。AP 數(shù)據(jù)集中各場景圖像的背景較復(fù)雜,且目標(biāo)具有更多尺度變化。采用平移、旋轉(zhuǎn)和灰度變換等方法擴(kuò)充數(shù)據(jù)集,以防止模型訓(xùn)練時出現(xiàn)過擬合現(xiàn)象。通過K-means 聚類計算,選定VOC 數(shù)據(jù)集默認(rèn)框長寬比例分別為{1.0,0.5,2.6,0.7,1.3},航拍數(shù)據(jù)集默認(rèn)框長寬比設(shè)定為{1.00,0.80,2.70,0.59,1.73}。VOC 數(shù)據(jù)集的K-means 聚類結(jié)果如圖6所示(彩色效果參見《計算機(jī)工程》官網(wǎng)HTML版)。
圖6 VOC 數(shù)據(jù)集上K-means 聚類結(jié)果Fig.6 K-means clustering results on VOC dataset
在模型訓(xùn)練初始化過程中,采用ImageNet 數(shù)據(jù)集對本文算法中基礎(chǔ)網(wǎng)絡(luò)DenseNet 進(jìn)行預(yù)訓(xùn)練,具體步驟為:1)將所有圖像數(shù)據(jù)轉(zhuǎn)換為VOC 數(shù)據(jù)集的格式;2)根據(jù)訓(xùn)練樣本數(shù)量擴(kuò)充數(shù)據(jù)集數(shù)據(jù);3)利用隨機(jī)梯度下降法優(yōu)化損失函數(shù)以獲取最優(yōu)網(wǎng)絡(luò)模型參數(shù)。
由于在小目標(biāo)檢測場景下尺度為0.2的最淺層特征圖較大,無法檢測出較小尺寸的目標(biāo),因此將最底層縮放比例Smin調(diào)整為0.08,并使用隨機(jī)梯度下降SGD算法對參數(shù)更新如下:初始學(xué)習(xí)率為0.001,權(quán)值衰減項為0.000 5,動量項為0.9,批大小為32。此外,學(xué)習(xí)率設(shè)置為0.001,迭代次數(shù)為300。本文算法在Spyder編譯器上編寫,并基于Pytorch框架進(jìn)行模型訓(xùn)練。實驗環(huán)境為64位的Ubuntu16.04系統(tǒng),Intel?CoreTMi5-8500@3.00 GHz 6 核處理器,英偉達(dá)GTX 1080 Ti 顯卡,11 GB 顯存以及16 GB 內(nèi)存。
在VOC 數(shù)據(jù)集和AP 數(shù)據(jù)集上將本文算法與Faster-RCNN、R-FCN、SSD、RSSD、DSSD 以及YOLO V3 等主流目標(biāo)檢測算法進(jìn)行對比分析。采用檢測平均精度(Average Precision,AP)和平均精度均值(mean Average Precision,mAP)作為算法檢測性能的評價指標(biāo)。
3.3.1 VOC 數(shù)據(jù)集上的實驗
上述算法在VOC數(shù)據(jù)集上的檢測結(jié)果如表3所示。
表3 不同算法在VOC 數(shù)據(jù)集上的檢測結(jié)果Table 3 Detection results of different algorithms on VOC dataset
可以看出,本文算法的mAP 值高于其他算法,其中,較Faster-RCNN 算法提高9.1 個百分點,較SSD 算法提高5.1個百分點,較DSSD算法提高3.7個百分點,較YOLO V3算法提高1.7個百分點,YOLO V3算法與本文算法的檢測性能最接近。當(dāng)檢測目標(biāo)為椅子和鳥類時,YOLO V3 的AP 值較本文算法分別低5.5 個百分點與0.6個百分點。此外,本文算法在檢測盆栽等尺度較小的目標(biāo)時,檢測效果明顯優(yōu)于其他算法。
3.3.2 AP 數(shù)據(jù)集上的實驗
不同算法在AP 數(shù)據(jù)集上的檢測效果和檢測結(jié)果分別如圖7 和表4 所示。由圖7 可以看出,本文算法的檢測效果優(yōu)于其他目標(biāo)檢測算法。由表4 可見,本文算法的檢測指標(biāo)值均高于其他目標(biāo)檢測算法。當(dāng)檢測目標(biāo)為船舶和儲罐時,本文算法的AP值較YOLO V3算法分別高4.1個百分點與8.4 個百分點。
圖7 不同算法的檢測效果圖Fig.7 Detection effect images of different algorithms
表4 不同算法在AP 數(shù)據(jù)集上的檢測結(jié)果Table 4 Detection results of different algorithms on AP dataset
為更好地比較不同算法對小目標(biāo)的檢測效果,本文采用精度-召回率(Precision-Recall,PR)曲線評估算法的檢測性能。在PR 曲線中,若算法的精度和召回率均最大,則表明算法的檢測性能最好。圖8為當(dāng)檢測目標(biāo)為飛機(jī)和船舶時上述算法在不同召回率下的PR 曲線??梢钥闯?,本文算法的精度和召回率均優(yōu)于其他算法。由上述分析結(jié)果可知,本文算法對小目標(biāo)檢測的精度和召回率更高,在不同場景下均能有效進(jìn)行檢測。
圖8 不同算法的PR 曲線Fig.8 PR cruves of different algorithms
本文針對SSD 算法對小目標(biāo)特征提取能力不強(qiáng)的問題,提出一種改進(jìn)的SSD 小目標(biāo)檢測算法。將SSD 算法中骨干網(wǎng)絡(luò)由VGG16 替換為密集連接的DenseNet 提高檢測精度,設(shè)計二次回歸的網(wǎng)絡(luò)結(jié)構(gòu)解決候選區(qū)域默認(rèn)框正負(fù)樣本不平衡的問題,采用特征圖尺度變換方法在不引入額外參數(shù)量情況下融合特征圖,并通過K-means 聚類分析獲得默認(rèn)框的個數(shù)和最佳長寬比。在PASCAL VOC2007 公共數(shù)據(jù)集和自制航拍小目標(biāo)數(shù)據(jù)集上的實驗結(jié)果表明,該算法的檢測平均精度均值較改進(jìn)前SSD 算法分別提升5.1 個百分點和9.5 個百分點,較RSSD、DSSD 等目標(biāo)檢測算法檢測精度更高,檢測速度達(dá)到58 frames/s,具有良好的實時檢測性能。后續(xù)將優(yōu)化模型結(jié)構(gòu),進(jìn)一步提高計算效率。