韓雁鵬 侯 進(jìn) 譚光鴻 羅 朔
(西南交通大學(xué)信息科學(xué)與技術(shù)學(xué)院 四川 成都 611756)
近年來(lái),隨著深度學(xué)習(xí)技術(shù)的出現(xiàn)與不斷發(fā)展,目標(biāo)檢測(cè)模式也由傳統(tǒng)的手工提取特征的方式轉(zhuǎn)變?yōu)樯窠?jīng)網(wǎng)絡(luò)自主學(xué)習(xí)以提取目標(biāo)圖像特征。與傳統(tǒng)的目標(biāo)檢測(cè)算法相比,神經(jīng)網(wǎng)絡(luò)提取的特征更加抽象與復(fù)雜,特征有更好的表達(dá)能力,這也是深度學(xué)習(xí)與目標(biāo)檢測(cè)結(jié)合的主要原因之一。而對(duì)于無(wú)人駕駛來(lái)說(shuō),目標(biāo)檢測(cè)技術(shù)的發(fā)展也進(jìn)一步提高了無(wú)人駕駛環(huán)境感知能力,使得無(wú)人駕駛車輛可以更加快速安全地對(duì)道路環(huán)境做出實(shí)時(shí)反應(yīng)。
Girshick等[1]提出了基于卷積神經(jīng)網(wǎng)絡(luò)的目標(biāo)檢測(cè)模型R-CNN,使用CNN(Convolutional Neural Network)對(duì)候選區(qū)域進(jìn)行分類,這也是深度學(xué)習(xí)方法在目標(biāo)檢測(cè)領(lǐng)域中的首次系統(tǒng)應(yīng)用。目前,基于深度學(xué)習(xí)的目標(biāo)檢測(cè)方法主要分為兩類:雙步(two-stage)目標(biāo)檢測(cè)算法,這些算法將目標(biāo)檢測(cè)分為兩個(gè)階段,首先使用RPN(Region Proposal Network)來(lái)生成待檢測(cè)目標(biāo)信息,然后再使用一個(gè)神經(jīng)網(wǎng)絡(luò)檢測(cè)模型對(duì)待檢測(cè)目標(biāo)的位置信息和類別信息進(jìn)行檢測(cè),典型代表為: Faster R-CNN[2]、FPN[3]、Mask R-CNN[4]等;單步(one-stage)目標(biāo)檢測(cè)算法,與雙步模型相比,單步算法不使用 RPN網(wǎng)絡(luò),只使用單個(gè)目標(biāo)檢測(cè)網(wǎng)絡(luò)模型來(lái)直接預(yù)測(cè)目標(biāo)的位置和類別信息,因此,單步目標(biāo)檢測(cè)算法通常具有更高的檢測(cè)速度,并且可以實(shí)現(xiàn)端到端的目標(biāo)檢測(cè)。典型代表算法為:SSD[5-6]、YOLO系列[7-9]等。SSD算法運(yùn)行在單塊Nvidia GTX 1080Ti顯卡上檢測(cè)速度可達(dá)到53幀每秒(輸入圖像尺寸為300×300像素)。但是對(duì)于無(wú)人駕駛汽車來(lái)說(shuō),由于功耗、空間以及成本等原因,目標(biāo)檢測(cè)等環(huán)境感知算法需要搭載在一些內(nèi)存受限的嵌入式設(shè)備上,并在檢測(cè)結(jié)果可接受的情況下達(dá)到實(shí)時(shí)檢測(cè)的效果,所以本文進(jìn)一步優(yōu)化算法以提高目標(biāo)檢測(cè)算法的檢測(cè)效率。
本文提出了一種改進(jìn)的SSD目標(biāo)檢測(cè)算法,以實(shí)現(xiàn)更高效率的車輛目標(biāo)檢測(cè),方便以后搭載至無(wú)人駕駛車輛設(shè)備。本文使用Udacity道路環(huán)境數(shù)據(jù)集中的車輛信息作為訓(xùn)練和檢測(cè)的目標(biāo),并且對(duì)SSD的模型結(jié)構(gòu)進(jìn)行改進(jìn)。SSD算法使用VGG[10]網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行特征提取,該模型結(jié)構(gòu)雖然有較好的表現(xiàn),但是結(jié)構(gòu)臃腫、參數(shù)量較大,導(dǎo)致模型檢測(cè)速度不高。本文算法設(shè)計(jì)了一個(gè)目標(biāo)檢測(cè)網(wǎng)絡(luò)結(jié)構(gòu),對(duì)高層特征圖不進(jìn)行降采樣,以保留待檢測(cè)物體的位置信息,同時(shí)加入空洞卷積提高模型高層卷積層的感受野,提高對(duì)于小目標(biāo)的檢測(cè)能力,并且使用深度可分離卷積層來(lái)替換原始標(biāo)準(zhǔn)卷積層降低參數(shù)量并提高檢測(cè)速率。利用K-means[11]聚類算法對(duì)目標(biāo)候選框的寬高比維度進(jìn)行聚類分析。實(shí)驗(yàn)結(jié)果表明,本文算法對(duì)車輛目標(biāo)檢測(cè)的平均精準(zhǔn)度達(dá)到了58.01%,檢測(cè)速度達(dá)到了86.26幀每秒,相比原始SSD算法均有較大提升。
SSD算法同時(shí)結(jié)合了單步檢測(cè)算法和雙步檢測(cè)算法一些機(jī)制。首先采用了YOLO回歸的思想,簡(jiǎn)化神經(jīng)網(wǎng)絡(luò)模型的設(shè)計(jì),減少模型計(jì)算復(fù)雜度,來(lái)提高算法的實(shí)時(shí)性; 然后采用了Faster R-CNN中錨點(diǎn)(anchors)機(jī)制,通過(guò)設(shè)計(jì)不同縱橫比預(yù)選框,對(duì)不同尺寸的目標(biāo)進(jìn)行回歸預(yù)測(cè)。與其他單步目標(biāo)檢測(cè)算法相比,SSD這種局部特征提取的方法在目標(biāo)檢測(cè)方面有更好的表現(xiàn)。除此之外,SSD算法針對(duì)不同尺度的目標(biāo)檢測(cè)問(wèn)題,采取了多尺度目標(biāo)特征提取的方法,即對(duì)低層和高層的多尺度特征信息均進(jìn)行檢測(cè),該設(shè)計(jì)提高了SSD算法對(duì)小目標(biāo)的檢測(cè)效果。
SSD的模型結(jié)構(gòu)如圖1所示,主要分為兩部分。第一部分是位于前端的深度學(xué)習(xí)網(wǎng)絡(luò)模型,主要作用是提取目標(biāo)的初始特征,同時(shí)提高網(wǎng)絡(luò)對(duì)目標(biāo)的感知能力。這部分網(wǎng)絡(luò)結(jié)構(gòu)使用一些去除了分類層的分類網(wǎng)絡(luò)模型,分類模型一方面可以有效進(jìn)行特征提取,有利于后續(xù)模型的檢測(cè)任務(wù),另一方面可以利用遷移學(xué)習(xí)減少模型訓(xùn)練時(shí)間[12]。第二部分是位于后端的多尺度特征檢測(cè)網(wǎng)絡(luò),通過(guò)級(jí)聯(lián)的神經(jīng)網(wǎng)絡(luò)將不同尺度的特征進(jìn)行分類得到了初步檢測(cè)結(jié)果(類別與位置信息),并且加入低層卷積層(Conv4_3)的特征來(lái)提高SSD算法對(duì)小目標(biāo)的檢測(cè)效果,最后使用非極大抑制NMS(Non-Maximum Suppression)得到最終檢測(cè)結(jié)果。
圖1 SSD網(wǎng)絡(luò)結(jié)構(gòu)示意圖
SSD算法引入了Faster R-CNN中所使用的錨點(diǎn)框思想,通過(guò)對(duì)初始錨點(diǎn)框的設(shè)置,可以提高網(wǎng)絡(luò)對(duì)目標(biāo)的檢測(cè)精度和速度。而本文主要檢測(cè)類別為車輛,其預(yù)測(cè)框的長(zhǎng)寬比與通用的目標(biāo)檢測(cè)數(shù)據(jù)集有較大區(qū)別,所以本文使用K-means聚類算法對(duì)Udacity無(wú)人駕駛數(shù)據(jù)集中的目標(biāo)框的寬高比進(jìn)行聚類,并以此來(lái)進(jìn)行模型參數(shù)設(shè)置。根據(jù)模型結(jié)構(gòu),選取k=3,即選取三個(gè)聚類中心,對(duì)數(shù)據(jù)集標(biāo)簽數(shù)據(jù)的寬高比聚類結(jié)果如表1所示。
表1 標(biāo)簽數(shù)據(jù)寬高比K-means聚類結(jié)果
根據(jù)此聚類結(jié)果可將SSD算法中的長(zhǎng)寬比參數(shù)(aspect_ratios)對(duì)應(yīng)設(shè)置為[1.03,1.58,2.67]。
原始SSD算法使用VGG網(wǎng)絡(luò)模型結(jié)構(gòu)來(lái)提取圖像特征,通過(guò)多層特征來(lái)進(jìn)行分類和位置檢測(cè)。但是VGG模型卷積層過(guò)深,參數(shù)量巨大,雖然在大型GPU上有較高的檢測(cè)速度,但是對(duì)于無(wú)人駕駛汽車來(lái)說(shuō)顯然計(jì)算代價(jià)過(guò)大。因此本文改進(jìn)了特征提取部分,使用了MobileNet[13]的深度可分離卷積結(jié)構(gòu),降低參數(shù)量,并減少了卷積層數(shù),大大減少了計(jì)算量。深度可分離卷積結(jié)構(gòu)的思想就是將一個(gè)標(biāo)準(zhǔn)卷積層分解為深度可分離卷積(depthwise conv)和1×1的卷積,這樣可以有效減少卷積運(yùn)算時(shí)的參數(shù)量。深度可分離卷積的結(jié)構(gòu)如圖2所示。
圖2 標(biāo)準(zhǔn)卷積與深度可分離卷積結(jié)構(gòu)
可以看到,卷積核大小為D,卷積核數(shù)量為M,輸出特征圖數(shù)量為N,則使用標(biāo)準(zhǔn)卷積的計(jì)算開(kāi)銷為:
D×D×M×N
(1)
而使用深度可分離卷積的計(jì)算開(kāi)銷為:
D×D×M×1+1×1×M×N
(2)
兩者比值為:
(3)
本文使用的卷積核邊長(zhǎng)為3,而一般模型特征圖數(shù)量N較大(本文為32、64、128等),相比可以省略。所以與標(biāo)準(zhǔn)卷積相比,深度可分離卷積可以將計(jì)算開(kāi)銷減少至1/9左右,較大程度提升模型檢測(cè)效率。
目前主流的單步目標(biāo)檢測(cè)算法都直接使用一些常見(jiàn)分類算法的網(wǎng)絡(luò)模型,如VGG[10]、ResNet[14]、DenseNet[15]等,這些分類算法模型為了獲得更多的類別信息,往往使用深層的神經(jīng)網(wǎng)絡(luò),這也會(huì)導(dǎo)致模型需要不斷地進(jìn)行降采樣。但是目標(biāo)檢測(cè)任務(wù)與分類任務(wù)不同,目標(biāo)檢測(cè)還需要提供待檢測(cè)物體的位置信息,而隨著不斷的降采樣,網(wǎng)絡(luò)模型的感受野不斷擴(kuò)大,高層特征圖會(huì)缺失目標(biāo)的部分位置信息。雖然原始SSD算法提取低層的特征信息,但是依舊無(wú)法徹底解決小目標(biāo)檢測(cè)難問(wèn)題。
本文算法設(shè)計(jì)了一種目標(biāo)檢測(cè)的網(wǎng)絡(luò)模型,對(duì)高層特征圖不進(jìn)行降采樣,增加網(wǎng)絡(luò)高層輸出特征的分辨率,保留低層特征圖的位置信息,來(lái)提高對(duì)小目標(biāo)的檢測(cè)效果,如圖3所示。
圖3 模型結(jié)構(gòu)對(duì)比圖
由圖3(b)可知,本文算法在高層不進(jìn)行降采樣,由此高層特征圖保留了大量的目標(biāo)位置信息,提高了檢測(cè)精度。但這同時(shí)也會(huì)導(dǎo)致兩個(gè)問(wèn)題:1) 由于減少降采樣,導(dǎo)致高層特征圖分辨率過(guò)高,模型參數(shù)量大量增加,模型檢測(cè)速度降低;2) 高層感受野下降,導(dǎo)致模型對(duì)一些大型目標(biāo)物體檢測(cè)精度下降。所以本文算法減小網(wǎng)絡(luò)高層的寬度,減少因增大分辨率帶來(lái)的額外計(jì)算量。并且引入空洞(dilated)卷積[14]增加網(wǎng)絡(luò)高層的感受野,空洞卷積示意圖如圖4所示。
圖4 空洞卷積結(jié)構(gòu)示意圖
空洞卷積可以在不增加計(jì)算量的同時(shí)擴(kuò)大模型感受野,同樣采用3×3的卷積核,圖4(b)空洞卷積的感受野擴(kuò)大到了5×5,而選取更大的rate,可以獲得更大的感受野,如圖4(c)所示,感受野達(dá)到了7×7??斩淳矸e可以有效地提高高層卷積層的感受野大小,但由于其在檢測(cè)中會(huì)省略掉一些圖像連續(xù)信息,對(duì)一些小目標(biāo)的檢測(cè)產(chǎn)生影響,所以本文算法模型僅在高層加入了部分空洞卷積層。
本文算法卷積網(wǎng)絡(luò)模型采用類似MobileNet的網(wǎng)絡(luò)結(jié)構(gòu),模型第一層為步長(zhǎng)為2的常規(guī)卷積層,對(duì)輸入圖像進(jìn)行降采樣處理,并且增加初始特征圖通道;然后使用6層深度可分離卷積,提取初始圖像特征,其中將第六層的特征圖作為低層信息輸入至模型預(yù)測(cè)部分,以此增加模型對(duì)小目標(biāo)的檢測(cè)效果,并使用兩層池化層進(jìn)行降采樣;最后使用6層深度可分離卷積,進(jìn)一步提取圖像信息,其中最后四層不進(jìn)行降采樣,以保留物體位置信息,并且加入兩層空洞卷積來(lái)提高高層卷積層的感受野。模型結(jié)構(gòu)如圖5所示,圖中未注明的模塊均為深度可分離卷積模塊。
圖5 本文算法模型結(jié)構(gòu)圖
本文模型在所有卷積層后均使用批量歸一化(Batch Normalization)和ELU激活函數(shù),并且加入了L2正則化。本文網(wǎng)絡(luò)模型具體參數(shù)如表2所示,其中Size指卷積核尺寸×輸出通道數(shù),Stride指步長(zhǎng),本文模型使用了步長(zhǎng)為2的卷積層來(lái)代替池化層。
表2 網(wǎng)絡(luò)模型結(jié)構(gòu)參數(shù)表
本文主要研究目標(biāo)是道路車輛,所以常規(guī)的多類別目標(biāo)檢測(cè)數(shù)據(jù)集無(wú)法達(dá)到使用要求。因此本文搜集了Udacity無(wú)人駕駛道路環(huán)境數(shù)據(jù)集,并對(duì)數(shù)據(jù)進(jìn)行了相關(guān)處理,使其更好地應(yīng)用于無(wú)人駕駛算法訓(xùn)練及驗(yàn)證。Udacity無(wú)人駕駛數(shù)據(jù)集對(duì)連續(xù)視頻圖片進(jìn)行了仔細(xì)的標(biāo)注,主要有汽車、行人、信號(hào)燈等類別。整個(gè)數(shù)據(jù)集分為兩個(gè)子數(shù)據(jù)集,分別有9 423和15 000幅圖片,分辨率都是1 920×1 200像素,兩個(gè)子數(shù)據(jù)集的標(biāo)注文件稍有不同。由于本文訓(xùn)練需求,將圖像調(diào)整為480×300像素大小,并將數(shù)據(jù)集中的不同類別的車輛標(biāo)簽如car(汽車)、track(卡車)等類別歸類為同一車輛類別,最終數(shù)據(jù)標(biāo)簽只保留車輛類別。因?yàn)閁dacity數(shù)據(jù)集標(biāo)注不夠嚴(yán)謹(jǐn),出現(xiàn)大量的重復(fù)標(biāo)簽,所以對(duì)標(biāo)簽信息進(jìn)行處理,抑制掉重復(fù)標(biāo)簽,最終刪除了約15%的標(biāo)簽且只保留車輛類別。抑制條件為檢測(cè)所有的數(shù)據(jù)標(biāo)簽,根據(jù)各個(gè)標(biāo)簽框與其他標(biāo)簽框的IoU值來(lái)進(jìn)行篩選。IoU定義如下:
IoU=(a∪b)÷(a∩b)
(4)
式中:a、b為同一圖片的不同標(biāo)簽框,IoU即為兩標(biāo)簽框的交并集比值,當(dāng)其大于某一閾值則認(rèn)為兩個(gè)框是同一個(gè)物體的標(biāo)簽(本文閾值設(shè)置為0.9)。處理前與處理后對(duì)比如圖6所示,最終數(shù)據(jù)集標(biāo)簽保留了車輛類別標(biāo)簽,并且去除了大量重復(fù)標(biāo)簽,平均每幅圖片有6.6個(gè)車輛目標(biāo)。
(a) 處理前
(b) 處理后圖6 數(shù)據(jù)集圖片處理結(jié)果圖
目標(biāo)檢測(cè)常用評(píng)價(jià)指標(biāo)準(zhǔn)確率(P)和召回率(R)來(lái)衡量模型檢測(cè)能力,其計(jì)算公式為:
(5)
(6)
式中:TP(True Positive)表示正確檢測(cè)的目標(biāo)個(gè)數(shù);FP(False Positive)表示錯(cuò)誤檢測(cè)的目標(biāo)個(gè)數(shù);FN(False Negative)表示未檢測(cè)的目標(biāo)個(gè)數(shù)。
準(zhǔn)確率即查準(zhǔn)率,衡量目標(biāo)檢測(cè)模型對(duì)待檢測(cè)物體的分類能力,準(zhǔn)確率越高,表示模型對(duì)于目標(biāo)的分類能力越強(qiáng)。召回率即查全率,衡量模型對(duì)目標(biāo)的檢測(cè)能力,召回率越高,表示模型對(duì)目標(biāo)的分辨能力越強(qiáng)。
同時(shí)目標(biāo)檢測(cè)還使用平均準(zhǔn)確度AP值(Average precision)反映模型對(duì)某一類別的識(shí)別能力。平均準(zhǔn)確率從準(zhǔn)確率和召回率兩個(gè)方向同時(shí)衡量算法性能,是目標(biāo)檢測(cè)模型的主要評(píng)價(jià)指標(biāo)。
對(duì)改進(jìn)后的SSD算法進(jìn)行訓(xùn)練,初始學(xué)習(xí)率設(shè)置為0.001,衰減系數(shù)為0.000 5,同時(shí)Keras框架可以根據(jù)訓(xùn)練情況來(lái)動(dòng)態(tài)減小學(xué)習(xí)率,本文在訓(xùn)練模型中監(jiān)控val_loss(驗(yàn)證損失)參數(shù),當(dāng)其經(jīng)歷10個(gè)epoch(訓(xùn)練輪次)不下降后學(xué)習(xí)速率減半。同時(shí)利用數(shù)據(jù)增強(qiáng),如隨機(jī)對(duì)圖像進(jìn)行旋轉(zhuǎn)、翻轉(zhuǎn)、亮度等操作對(duì)數(shù)據(jù)集中的圖像進(jìn)行增強(qiáng)。
本文實(shí)驗(yàn)硬件環(huán)境:CPU為Intel I7- 6800K,內(nèi)存32 GB,顯卡為NVIDIA GeForce GTX1080Ti。軟件環(huán)境:操作系統(tǒng)ubuntu16.04,python 3.5,Keras框架。
最終算法訓(xùn)練過(guò)程中損失值的收斂曲線如圖7所示,大約經(jīng)過(guò)230個(gè)epoch后,損失值基本穩(wěn)定。從此參數(shù)的收斂情況分析可知,改進(jìn)的模型訓(xùn)練結(jié)果比較理想。
圖7 訓(xùn)練結(jié)果圖
為了更好地體現(xiàn)改進(jìn)部分的效果,本文通過(guò)控制變量的方法,對(duì)于初始模型不改變模型結(jié)構(gòu),逐步加入改進(jìn)內(nèi)容,并計(jì)算模型AP值。其中,IoU閾值設(shè)置為0.5,即只有置信度大于0.5檢測(cè)結(jié)果被認(rèn)為是正確的。
實(shí)驗(yàn)結(jié)果可知,使用基礎(chǔ)模型結(jié)構(gòu)的算法AP值僅為26.07%,而使用K-means算法對(duì)模型預(yù)設(shè)參數(shù)進(jìn)行優(yōu)化可以有效提升模型對(duì)車輛目標(biāo)的檢測(cè)效果,AP值提升至36.27%。繼續(xù)加入空洞卷積以及高層不降維結(jié)構(gòu)均可以有效提高模型檢測(cè)效果,最終模型的AP值達(dá)到58.01%。由此實(shí)驗(yàn)可以有效證明本文的改進(jìn)部分可以有效提高模型檢測(cè)效果。
首先分別使用原始SSD算法與改進(jìn)算法對(duì)Udacity數(shù)據(jù)集進(jìn)行訓(xùn)練與驗(yàn)證,計(jì)算其對(duì)目標(biāo)的準(zhǔn)確率和召回率。
實(shí)驗(yàn)測(cè)試集一共有4 750幅道路環(huán)境圖片,共有30 992個(gè)待檢測(cè)目標(biāo),使用兩種目標(biāo)檢測(cè)算法在該測(cè)試集進(jìn)行測(cè)試,實(shí)驗(yàn)結(jié)果如表3所示。
表3 不同算法目標(biāo)檢測(cè)結(jié)果的對(duì)比
與原始SSD算法相比,本文改進(jìn)算法對(duì)于車輛目標(biāo)的檢測(cè)準(zhǔn)確率由76.86%提高到81.19%,召回率由50.28%提高到61.56%。從這兩項(xiàng)指標(biāo)來(lái)看,本文算法的檢測(cè)結(jié)果均優(yōu)于原始SSD算法。
在Udacity數(shù)據(jù)測(cè)試集上分別使用原始SSD算法與本文改進(jìn)算法比較車輛目標(biāo)的平均準(zhǔn)確度。計(jì)算結(jié)果如圖8所示。
(a) SSD算法[5]
(b) 本文算法圖8 不同算法AP曲線對(duì)比圖
由圖8的AP曲線可以看出,本文算法在召回率達(dá)到0.6之后準(zhǔn)確率才有明顯下降,而原始SSD算法在召回率達(dá)到0.5之后就開(kāi)始有明顯下降趨勢(shì),這說(shuō)明本文算法相比于原始SSD算法在達(dá)到相同準(zhǔn)確率條件下召回率更高,也就意味具有更強(qiáng)的檢測(cè)能力。最終本文算法對(duì)車輛目標(biāo)檢測(cè)的平均準(zhǔn)確度為58.01%,原始SSD算法僅為46.65%。
選取Udacity數(shù)據(jù)測(cè)試集中的部分場(chǎng)景圖片,分別使用本文算法與SSD算法進(jìn)行對(duì)比實(shí)驗(yàn),對(duì)比檢測(cè)結(jié)果如圖9所示。
(a) 真實(shí)標(biāo)簽 (b) 本文結(jié)果 (c) SSD結(jié)果圖9 Udacity數(shù)據(jù)集測(cè)試實(shí)驗(yàn)結(jié)果對(duì)比圖
可以看到,本文算法在強(qiáng)光條件以及陰影條件下都可以有效地完成車輛檢測(cè)。第三列中的虛線框表示SSD算法漏檢的目標(biāo),由此可以看出本文算法對(duì)于一些特殊橫縱比的車輛目標(biāo)的檢測(cè)結(jié)果明顯優(yōu)于原始SSD算法。
最后本文對(duì)比了兩種算法的實(shí)時(shí)性,實(shí)驗(yàn)條件為GPU:GTX1080ti,通過(guò)Python腳本來(lái)對(duì)整個(gè)測(cè)試集的圖片進(jìn)行檢測(cè),最終求出單幅圖片平均耗時(shí)和每秒傳輸幀數(shù)。實(shí)驗(yàn)結(jié)果如表4所示,本文算法在檢測(cè)速度上要優(yōu)于SSD算法。
表4 不同算法目標(biāo)檢測(cè)性能的對(duì)比
目前主流的目標(biāo)檢測(cè)算法大都需要高性能顯卡來(lái)輔助計(jì)算,難以部署至無(wú)人駕駛車輛。本文提出的改進(jìn)算法使用高層特征圖不進(jìn)行降采樣的模型結(jié)構(gòu),保留待檢測(cè)物體的位置信息,加入空洞卷積提高模型感受野,提高了本文算法對(duì)于小目標(biāo)的檢測(cè)和定位能力。同時(shí)使用輕量化模型結(jié)構(gòu),削減了模型卷積層數(shù),并使用深度可分離卷積層來(lái)替換原始標(biāo)準(zhǔn)卷積層降低參數(shù)量,使得檢測(cè)速率大大提高。最終實(shí)驗(yàn)結(jié)果表明,本文算法對(duì)車輛目標(biāo)檢測(cè)的平均精準(zhǔn)度達(dá)到了58.01%,檢測(cè)速度達(dá)到了86.26幀每秒,相比原SSD算法有較大提升。本文算法也可以方便部署在無(wú)人駕駛車輛的低功耗設(shè)備上。但是本文僅實(shí)現(xiàn)了道路車輛的實(shí)時(shí)目標(biāo)檢測(cè),下一步工作將實(shí)現(xiàn)多類別的道路環(huán)境目標(biāo)檢測(cè),進(jìn)一步提高模型的檢測(cè)能力。