李 航,朱 明
(1.中國科學(xué)院長春光學(xué)精密機(jī)械與物理研究所,吉林 長春 130033;2.中國科學(xué)院大學(xué),北京 100049)
隨著計算機(jī)技術(shù)的迅速發(fā)展,計算機(jī)視覺技術(shù)已經(jīng)廣泛應(yīng)用于各行各業(yè),在智能視頻監(jiān)控、人機(jī)交互、機(jī)器人視覺導(dǎo)航、醫(yī)學(xué)診斷和圖像分類等領(lǐng)域有著十分廣闊的應(yīng)用前景[1 - 3]。目標(biāo)檢測是指從一幅原始的圖像中分離出背景和感興趣的目標(biāo),確定這一目標(biāo)的類別和位置。目標(biāo)檢測技術(shù)是計算機(jī)視覺中十分重要的組成部分,為計算機(jī)感知世界、認(rèn)知世界提供基礎(chǔ)。
傳統(tǒng)的目標(biāo)檢測算法主要基于圖像梯度直方圖的局部特征(SIFT)和全局特征(HOG)提取方法[4,5],利用滑動窗口找出目標(biāo)的潛在區(qū)域,提取出特征信息,再利用支持向量機(jī)(SVM)和自適應(yīng)提升(Adaboost)等分類器對目標(biāo)特征進(jìn)行分類。還有一些算法使用全局注意力機(jī)制在整個檢測場景中選擇突出的候選區(qū)域。雖然這些算法檢測效果較好,但魯棒性較差,無法用于不同的應(yīng)用場景中。而且由于滑動窗口策略會導(dǎo)致大量重復(fù)計算,算法的執(zhí)行速度較慢。
近年來,基于深度卷積神經(jīng)網(wǎng)絡(luò)[6 - 8]的目標(biāo)檢測技術(shù)以其局部感知和權(quán)值共享的特點(diǎn),在目標(biāo)檢測領(lǐng)域取得了飛速的發(fā)展。與傳統(tǒng)的目標(biāo)檢測算法相比,基于深度卷積神經(jīng)網(wǎng)絡(luò)的目標(biāo)檢測算法通過卷積神經(jīng)網(wǎng)絡(luò)對訓(xùn)練數(shù)據(jù)集的學(xué)習(xí),可以自動地從圖像中提取特征,獲得目標(biāo)的位置和類別,學(xué)習(xí)能力強(qiáng)、精度高、魯棒性強(qiáng)。當(dāng)前基于卷積神經(jīng)網(wǎng)絡(luò)的目標(biāo)檢測算法主要分為2類:一類是基于區(qū)域的目標(biāo)檢測算法,如Faster RCNN[2]和CornerNet[9]。這類算法將特征提取、區(qū)域建議和邊界框分類與回歸整合到1個網(wǎng)絡(luò)中,提高了小目標(biāo)的檢測率,但是在嵌入式平臺上無法滿足實(shí)時檢測的要求。另一類是基于回歸的目標(biāo)檢測算法,如YOLO(You Only Look Once)[10 - 12]和SSD(Single Shot multibox Detector)[13],只需經(jīng)過1次卷積運(yùn)算,便可直接在原始圖像上完成目標(biāo)檢測工作。這類算法檢測速度較快,滿足實(shí)時性的要求,但是對小目標(biāo)的檢測效果不盡人意。
為了在嵌入式平臺上實(shí)現(xiàn)小目標(biāo)檢測精度和檢測速度方面的良好平衡,本文借鑒YOLO算法,設(shè)計了一種新的dense_YOLO目標(biāo)檢測算法。在特征提取階段,通過將DenseNet[14]網(wǎng)絡(luò)的思想和深度可分離卷積[15,16]思想相結(jié)合,設(shè)計出基于深度可分離卷積的slim-densenet特征提取網(wǎng)絡(luò),增強(qiáng)了小目標(biāo)的特征傳遞,也加快了算法的檢測速度。在檢測階段,采用自適應(yīng)多尺度融合檢測的思想,在不同的特征尺度上進(jìn)行目標(biāo)的分類和回歸,提高了小目標(biāo)的檢測精度。dense_YOLO目標(biāo)檢測算法可以為深度學(xué)習(xí)[17]目標(biāo)檢測技術(shù)應(yīng)用于嵌入式平臺提供可能。
YOLO算法將物體檢測問題處理成回歸問題,用1個神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)就可以從圖像中直接預(yù)測目標(biāo)的位置和類別。在網(wǎng)絡(luò)結(jié)構(gòu)上,首先采用ReLU(Rectified Linear Unit)[6]激活函數(shù)和卷積操作來提取特征,之后采用全連接層進(jìn)行目標(biāo)位置和類別的預(yù)測,從而得出最終的檢測結(jié)果。
YOLO算法采用分塊思想,將輸入圖像分成S×S個小塊(grid cell),若目標(biāo)的中心點(diǎn)落入到某一個小格中,那么這個小格便負(fù)責(zé)這個目標(biāo)的預(yù)測任務(wù),通過網(wǎng)絡(luò)的訓(xùn)練學(xué)習(xí)數(shù)據(jù)分布,預(yù)測出這個目標(biāo)的中心坐標(biāo)、長寬和類別;再經(jīng)過非極大值抑制NMS(Non-Maximum Suppression)算法[18],將置信度高的候選框作為最終的目標(biāo)位置輸出,如圖1所示。雖然YOLO算法檢測速度較快,但全連接層丟失了較多的空間信息,使得算法對小目標(biāo)的檢測效果不好。
Figure 1 YOLO detection principle圖1 YOLO檢測原理
本文針對YOLO算法在檢測小目標(biāo)時精度低的問題,設(shè)計了新的dense_YOLO目標(biāo)檢測算法,算法由2部分組成:特征提取模塊和多尺度目標(biāo)檢測模塊。dense_YOLO目標(biāo)檢測算法舍棄了原始YOLO算法中的全連接層,改為采用全卷積網(wǎng)絡(luò)(Fully Convolutional Networks)[19]的結(jié)構(gòu),使得網(wǎng)絡(luò)可以適應(yīng)不同大小的輸入圖像。然后使用新的基于深度可分離卷積的slim-densenet特征提取網(wǎng)絡(luò)來提取特征,新的網(wǎng)絡(luò)結(jié)構(gòu)參數(shù)量更少,特征在網(wǎng)絡(luò)中的傳遞速度更快。最后采用自適應(yīng)多尺度融合算法進(jìn)行目標(biāo)檢測,在不同的特征尺度上進(jìn)行目標(biāo)的分類和回歸,得到目標(biāo)的具體位置和類別信息,提高了算法對小目標(biāo)的檢測準(zhǔn)確率。
2.2.1 slim-densenet特征提取模塊
本文借鑒DenseNet網(wǎng)絡(luò)結(jié)構(gòu),設(shè)計了slim-densenet特征提取網(wǎng)絡(luò)結(jié)構(gòu)。原始的YOLO網(wǎng)絡(luò)結(jié)構(gòu)中,特征的傳遞方式為逐層傳遞,每層的輸入只來自和它相連的前一層。而本文的slim-densenet特征提取網(wǎng)絡(luò)結(jié)構(gòu)改變了特征在網(wǎng)絡(luò)層之間的傳遞方式,使得特征可以跳過部分網(wǎng)絡(luò)層直接傳遞到后面的網(wǎng)絡(luò)層中,不僅減輕了梯度消失的問題,而且還加快了特征在網(wǎng)絡(luò)中的傳遞。本文的slim-densenet特征提取網(wǎng)絡(luò)結(jié)構(gòu)如圖2所示。其中Dense block模塊是slim-densenet網(wǎng)絡(luò)中加速特征傳遞的部分。從圖3可以看出,特征經(jīng)過Dense block可以跳過其中的部分網(wǎng)絡(luò)直接傳遞到后端網(wǎng)絡(luò),因而加快了特征在網(wǎng)絡(luò)中的傳遞。
Figure 2 Network structure of slim-densenet圖2 slim-densenet特征提取網(wǎng)絡(luò)結(jié)構(gòu)
為了進(jìn)一步提高特征在網(wǎng)絡(luò)中的傳遞速度,本文將特征提取模塊中的7×7,5×5和3×3卷積替換為深度可分離卷積。深度可分離卷積區(qū)別于傳統(tǒng)的卷積:傳統(tǒng)的卷積利用卷積核對輸入的多通道圖像進(jìn)行卷積操作,隨著卷積核的增大,計算量成指數(shù)增長。而深度卷積神經(jīng)網(wǎng)絡(luò)將卷積操作分為Depthwise Convolution和Pointwise Convolution 2部分,如圖4所示,Depthwise Convolution對輸入的多通道向量進(jìn)行分層卷積,即對每一層通道都進(jìn)行卷積運(yùn)算;之后Pointwise Convolution使用大小為1×1的卷積核對Depthwise Convolution得到的中間結(jié)果在通道維度進(jìn)行擴(kuò)充,最終得到和傳統(tǒng)卷積操作相同的結(jié)果。與傳統(tǒng)的卷積操作相比,深度可分離卷積在減少參數(shù)量的同時加快了特征的傳遞。
Figure 3 Dense block module圖3 Dense block模塊
Figure 4 Depthwise separable convolution圖4 深度可分離卷積
2.2.2 自適應(yīng)多尺度融合檢測模塊
針對小目標(biāo)檢測這一難點(diǎn),本文提出了多尺度融合檢測的思想?;谏疃葘W(xué)習(xí)的YOLO目標(biāo)檢測算法需要經(jīng)過多個下采樣層來提取特征,在最后一層特征圖上進(jìn)行目標(biāo)的分類和回歸,而每經(jīng)過1個下采樣層,網(wǎng)絡(luò)的分辨率就會被壓縮1次,從而損失不同分辨率的特征圖的信息,這樣使得網(wǎng)絡(luò)在最后很難提取到針對小目標(biāo)的特征,因此YOLO算法對小目標(biāo)的檢測效果不盡人意。針對這一情況,本文在3個特征尺度上進(jìn)行目標(biāo)檢測,每1個特征尺度都融合了其他特征尺度的信息,網(wǎng)絡(luò)淺層提取目標(biāo)邊緣和紋理等細(xì)節(jié)特征,網(wǎng)絡(luò)深層提取物體輪廓的特征,將它們相互融合之后進(jìn)行卷積運(yùn)算,提取出目標(biāo)的位置類別信息。本文的自適應(yīng)多尺度融合檢測流程如圖5所示。
Figure 5 Adaptive multi-scale fusion detection圖5 自適應(yīng)多尺度融合檢測
首先通過最后3個Dense block模塊提取出3個尺度不同的feature map。接著進(jìn)行特征融合,將小尺度的feature map包含的特征傳入前面一層大尺度的feature map中,這樣每一層預(yù)測所用的feature map都融合了不同分辨率、不同語義強(qiáng)度的特征,大尺度feature map由于其分辨率較高,保留了較多的細(xì)節(jié)特征,更容易預(yù)測小的預(yù)測框。小尺度feature map由于其分辨率較低,保留的是物體的輪廓等信息,更容易預(yù)測大的預(yù)測框。然后在特征融合之后的3個feature map上進(jìn)行卷積運(yùn)算,提取出目標(biāo)的坐標(biāo)信息和類別信息。最后將3個特征尺度上提取到的目標(biāo)信息相結(jié)合,采用非極大值抑制NMS算法得到最終的檢測結(jié)果。
dense_YOLO目標(biāo)檢測算法分為3部分。算法首先通過基于深度可分離卷積的slim-densenet模塊進(jìn)行特征的提取,之后將提取到的特征在不同尺度上進(jìn)行融合和檢測,最后采用非極大值抑制NMS算法將不同尺度上提取到的目標(biāo)位置和類別信息進(jìn)行結(jié)合,得到最終的檢測結(jié)果。算法的基本流程如下:
(1) 圖像初始化。將輸入圖像進(jìn)行初始化,轉(zhuǎn)換成大小為608×608的彩色圖像送入網(wǎng)絡(luò)。
(2) 特征提取。使用slim-densenet特征提取模塊對送入的圖像進(jìn)行特征提取,將結(jié)果送入后續(xù)的目標(biāo)檢測模塊。
(3) 自適應(yīng)多尺度融合檢測。使用多尺度融合檢測算法對特征進(jìn)行目標(biāo)的位置和類別預(yù)測。
(4) 檢測結(jié)果輸出。通過NMS算法計算出不同尺度特征中目標(biāo)的具體位置和類別,并在原始圖像上進(jìn)行標(biāo)注,最終輸出結(jié)果。
算法的流程圖如圖6所示。
Figure 6 Flow chart of dense_YOLO algorithm圖6 dense_YOLO算法流程
本文在MS COCO(Microsoft COCO:Common Objects in Context)[20]通用數(shù)據(jù)集上進(jìn)行了測試,也在本文制作的小目標(biāo)數(shù)據(jù)集上和原算法做了對比實(shí)驗(yàn)。
目標(biāo)檢測領(lǐng)域主要有2大通用數(shù)據(jù)集,一個是PASCAL VOC數(shù)據(jù)集,另一個是MS COCO數(shù)據(jù)集。MS COCO數(shù)據(jù)集是微軟構(gòu)建的一個數(shù)據(jù)集,其包含detection、segmentation和keypoints等任務(wù)。在檢測方面,MS COCO包含80種類別,相對于PASCAL VOC數(shù)據(jù)集的20種類別,MS COCO數(shù)據(jù)集類別豐富,包含了自然圖像和生活中常見的目標(biāo)圖像,背景比較復(fù)雜,目標(biāo)數(shù)量比較多,目標(biāo)尺寸更小,因此在MS COCO數(shù)據(jù)集上的實(shí)驗(yàn)更難。
本文制作數(shù)據(jù)集的方法是使用無人機(jī)平臺,對三亞海灘附近場景進(jìn)行視頻拍攝,著重選取一些陸地上和海灘上的行人進(jìn)行拍攝,拍攝時光線充足,無雨霧雪,溫度27℃。對得到的視頻每隔1 s提取1幀,最終得到270幅尺寸為1920×1080的彩色圖像。采用開源的Labelimage軟件對采集到的270幅圖像進(jìn)行標(biāo)記,對應(yīng)得到270個.xml文件。對其中的210幅圖像進(jìn)行數(shù)據(jù)增強(qiáng),通過各種變換增加訓(xùn)練的數(shù)據(jù)量,增加噪聲數(shù)據(jù),防止網(wǎng)絡(luò)模型過擬合情況的出現(xiàn),以得到能力更強(qiáng)的網(wǎng)絡(luò),更好地適應(yīng)應(yīng)用場景。本文主要使用的數(shù)據(jù)增強(qiáng)方法有:旋轉(zhuǎn)、縮放、裁剪,得到近2 100幅圖像,大小為1000×600。這2 100幅圖像轉(zhuǎn)換成voc數(shù)據(jù)集的格式作為訓(xùn)練樣本。剩余的60幅圖像作為驗(yàn)證集。
本文采用的主要評價指標(biāo)是AP,因?yàn)槟繕?biāo)檢測領(lǐng)域中Precision和Recall是一對對立關(guān)系的指標(biāo),一個指標(biāo)升高伴隨著另一個指標(biāo)下降,故人們采用PR曲線,即Precision和Recall曲線的線下面積來作為評價一個算法性能的指標(biāo)AP,對于多個類別,AP的平均值稱為mAP。AP@0.5的含義為:將交并比IoU(Intersection over Union)閾值設(shè)置為0.5,與真值框的IoU大于0.5的檢測框判定為檢測正確,通過在召回率坐標(biāo)軸上每隔0.1計算出對應(yīng)的準(zhǔn)確率值,繪制出PR曲線,最終得到檢測指標(biāo)AP。其中IoU指預(yù)測結(jié)果框和真值框重合區(qū)域的面積與總面積的比值。同時還有針對小目標(biāo)、中目標(biāo)和大目標(biāo)的mAP以及在IoU改變時各個Recall的值。另一個評價指標(biāo)為TOP-1,即置信度最高的檢測結(jié)果的準(zhǔn)確率。
本文使用的訓(xùn)練參數(shù)及其值如下所示:
batch:每次迭代訓(xùn)練的圖像數(shù)目,本文設(shè)置為32。
subdivisions:將batch進(jìn)行分組后送入網(wǎng)絡(luò),本文設(shè)置為16。
網(wǎng)絡(luò)輸入尺寸:本文設(shè)置為608×608。
angle:圖像角度變化,單位為度,以增加訓(xùn)練樣本數(shù),本文設(shè)置為7°。
weightdecay:權(quán)值衰減正則項(xiàng)系數(shù),防止過擬合,本文設(shè)置為0.000 5。
saturation:飽和度,以增加訓(xùn)練樣本數(shù),本文設(shè)置為0.75。
exposure:曝光度,以增加訓(xùn)練樣本數(shù),本文設(shè)置為0.75。
hue:色調(diào)變化范圍,以增加訓(xùn)練樣本,本文設(shè)置為0.1。
learningrate:學(xué)習(xí)率,本文設(shè)置為0.001。
max_batches:最大迭代次數(shù),本文設(shè)置為500 000。
policy:學(xué)習(xí)率調(diào)整策略,本文選擇poly策略。poly的表達(dá)式為new_Ir=base_Ir*(1-iter/maxiter)power,可以看出學(xué)習(xí)率主要由power參數(shù)控制,power<1,學(xué)習(xí)率為凸?fàn)?,power>1,學(xué)習(xí)率為凹狀。
anchors:預(yù)測框大小的預(yù)設(shè)值,具體如下:
(10×13),(16×30),(33×23),(30×61),(62×45),(59×119),(116×90),(156×198),(373×326)。
k:anchor的數(shù)目,本文設(shè)置為9。
本文采用kmeans_YOLO聚類來處理數(shù)據(jù)集,不同k值對應(yīng)的損失如圖7所示。
Figure 7 Clustering results on dateset圖7 數(shù)據(jù)集聚類結(jié)果
實(shí)驗(yàn)環(huán)境硬件配置為:訓(xùn)練時采用計算機(jī)服務(wù)器,配置core i7處理器,2塊Titan xp顯卡。檢測時采用NVIDIA JETSON XAVIER[21]嵌入式平臺,為NVIDIA公司為深度學(xué)習(xí)專門設(shè)計的嵌入式系統(tǒng),內(nèi)置CPU和GPU模塊,默認(rèn)安裝ubuntu系統(tǒng)。
網(wǎng)絡(luò)在每個卷積層前都加入了BN(Batch Normalization)層,將每一層的神經(jīng)網(wǎng)絡(luò)中的任一個神經(jīng)元的輸入進(jìn)行歸一化,分布為均值為0、方差為1的標(biāo)準(zhǔn)正態(tài)分布,解決了訓(xùn)練過程中,隨著網(wǎng)絡(luò)層數(shù)的加深,輸入數(shù)據(jù)的分布逐漸發(fā)生偏移,從而導(dǎo)致的訓(xùn)練收斂慢和梯度消失問題。
本文使用交叉熵?fù)p失函數(shù)替換YOLO算法使用的Softmax函數(shù)。YOLO算法中的損失函數(shù)將1個實(shí)數(shù)的k維向量壓縮成另1個k維向量,使得所有分量的范圍在(0,1),并且分量的和為1。但是,在實(shí)際的分類任務(wù)中,檢測到的目標(biāo)可能會屬于多個類別,比如在Open Images Dataset中,1個目標(biāo)有多個標(biāo)簽(例如人和女人),故本文使用交叉熵?fù)p失函數(shù)來替代Softmax函數(shù),使得網(wǎng)絡(luò)預(yù)測的目標(biāo)可以有多個不同的類別與之對應(yīng)。
訓(xùn)練時采用的是深度學(xué)習(xí)經(jīng)常使用的隨機(jī)梯度下降算法,從所有訓(xùn)練數(shù)據(jù)里隨機(jī)選擇1個batch作為樣本,送入網(wǎng)絡(luò)學(xué)習(xí),接著再隨機(jī)選擇樣本來進(jìn)行學(xué)習(xí),最終達(dá)到最優(yōu)點(diǎn)。
和大部分的目標(biāo)檢測算法一樣,本文首先使用slim-densenet分類網(wǎng)絡(luò)在ImagNet競賽數(shù)據(jù)集上進(jìn)行預(yù)訓(xùn)練,得到預(yù)訓(xùn)練權(quán)重。使得初始的網(wǎng)絡(luò)學(xué)習(xí)到類別的大致特征,為之后的檢測提供基礎(chǔ)。接著在backbone網(wǎng)絡(luò)上添加自己的檢測網(wǎng)絡(luò),在通用的MS COCO數(shù)據(jù)集上進(jìn)行訓(xùn)練,經(jīng)過10天500 000次迭代之后,損失穩(wěn)定在3.5左右不再變化,結(jié)束訓(xùn)練。損失值與迭代次數(shù)的關(guān)系如圖8所示。
Figure 8 Loss function visualization圖8 損失函數(shù)可視化
本文基于slim-densenet的網(wǎng)絡(luò)模型在ImageNet分類數(shù)據(jù)集上的表現(xiàn)如表1所示。
Table 1 Network classification result表1 網(wǎng)絡(luò)分類結(jié)果
從表1中可以看出,在TOP-1準(zhǔn)確率方面,本文基于slim-densenet的網(wǎng)絡(luò)模型比VGG-16和Darknet19提高了7%,和經(jīng)典的ResNet 101相差無幾,但是在速度方面有著明顯的優(yōu)勢。
在通用的目標(biāo)檢測數(shù)據(jù)集MS COCO上,硬件平臺為NVIDIA JETSON XAVIER,將dense_YOLO-416算法和YOLO-608、SSD512等經(jīng)典算法進(jìn)行了比較,其中dense_YOLO-416、YOLO-608、SSD512中的416,608,512分別代表網(wǎng)絡(luò)的輸入尺寸大小。具體的檢測性能和檢測結(jié)果如表2和圖9所示,其中APS表示對小目標(biāo)(像素小于32×32)檢測的AP指標(biāo);AP50即AP@0.5是3.1節(jié)中的AP@0.5的簡寫形式;AP為將IoU閾值從0.5~0.95中每隔0.5進(jìn)行取值,計算出的10個AP值求取平均所得;Weights為網(wǎng)絡(luò)模型的權(quán)重大小;GPU Time表示算法檢測單幅圖像所用時間。
Table 2 Detection results on MS COCO表2 MS COCO上的檢測結(jié)果
在本文創(chuàng)建的目標(biāo)檢測數(shù)據(jù)集上,硬件平臺為NVIDIA JETSON XAVIER,本文設(shè)計的dense_YOLO算法檢測性能如表3所示,檢測結(jié)果如圖10所示。
在NVIDIA JETSON XAVIER嵌入式平臺上,本文的dense_YOLO目標(biāo)檢測算法相較于原YOLO算法,檢測時間縮短了15 ms左右,可以達(dá)到20 fps以上的實(shí)時性,也優(yōu)于其他的算法。在檢測準(zhǔn)確率方面,針對MS COCO數(shù)據(jù)集中的小目標(biāo),本文設(shè)計的dense_YOLO算法相較于YOLO算法在APS指標(biāo)上提高了7%,而在AP0.5指標(biāo)上, dense_YOLO算法超過了YOLO、SSD和Faster RCNN算法,都至少提高了10%,并且網(wǎng)絡(luò)模型大小為原YOLO算法的66%。針對本文創(chuàng)建的數(shù)據(jù)集,dense_YOLO算法也比原YOLO算法的AP0.5提高了8%。
Figure 9 YOLO algorithm and dense_YOLO algorithm detection results on MS COCO dataset圖9 原算法(左)和改進(jìn)算法(右) 在MS COCO數(shù)據(jù)集上檢測結(jié)果
Figure 10 YOLO algorithm and dense_YOLO algorithm detection results on own dataset圖10 原算法(左)和改進(jìn)算法(右)在本文創(chuàng)建數(shù)據(jù)集上的檢測結(jié)果
本文提出了一種新的基于深度卷積神經(jīng)網(wǎng)絡(luò)的dense_YOLO目標(biāo)檢測算法,在嵌入式平臺上可以實(shí)現(xiàn)高準(zhǔn)確率的實(shí)時目標(biāo)檢測。dense_YOLO算法首先利用新提出的slim-densenet特征提取模塊對圖像提取特征,減少了參數(shù)量,加快了網(wǎng)絡(luò)的訓(xùn)練和預(yù)測。然后采用自適應(yīng)多尺度融合檢測方法豐富了小尺度特征圖的信息,提高了小目標(biāo)的檢出率。最后通過非極大值抑制算法得到最終檢測結(jié)果。實(shí)驗(yàn)表明,在通用的MS COCO數(shù)據(jù)集上,dense_YOLO算法在小目標(biāo)檢測方面,較原YOLO算法mAP指標(biāo)提高了7%,檢測時間縮短了15 ms,網(wǎng)絡(luò)模型大小為原算法的66%。此外,在本文采集并手工標(biāo)注的數(shù)據(jù)集上,該算法檢測準(zhǔn)確率和速度也明顯優(yōu)于原算法,滿足嵌入式平臺對算法速度和精度的要求,可為深度學(xué)習(xí)在嵌入式平臺上的應(yīng)用提供借鑒。本文提出的算法還有很多地方需要改進(jìn),比如slim-densenet還可以通過剪枝操作,減少通道的冗余,加快推斷速度,在本文的模型上進(jìn)行壓縮仍然需要更進(jìn)一步的研究。
Table 3 Detection results on dataset created in this paper表3 在本文創(chuàng)建數(shù)據(jù)集上的檢測結(jié)果