亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于深度卷積神經(jīng)網(wǎng)絡(luò)的小目標(biāo)檢測算法*

        2020-05-04 06:53:58航,朱
        計算機(jī)工程與科學(xué) 2020年4期
        關(guān)鍵詞:特征提取尺度卷積

        李 航,朱 明

        (1.中國科學(xué)院長春光學(xué)精密機(jī)械與物理研究所,吉林 長春 130033;2.中國科學(xué)院大學(xué),北京 100049)

        1 引言

        隨著計算機(jī)技術(shù)的迅速發(fā)展,計算機(jī)視覺技術(shù)已經(jīng)廣泛應(yīng)用于各行各業(yè),在智能視頻監(jiān)控、人機(jī)交互、機(jī)器人視覺導(dǎo)航、醫(yī)學(xué)診斷和圖像分類等領(lǐng)域有著十分廣闊的應(yīng)用前景[1 - 3]。目標(biāo)檢測是指從一幅原始的圖像中分離出背景和感興趣的目標(biāo),確定這一目標(biāo)的類別和位置。目標(biāo)檢測技術(shù)是計算機(jī)視覺中十分重要的組成部分,為計算機(jī)感知世界、認(rèn)知世界提供基礎(chǔ)。

        傳統(tǒng)的目標(biāo)檢測算法主要基于圖像梯度直方圖的局部特征(SIFT)和全局特征(HOG)提取方法[4,5],利用滑動窗口找出目標(biāo)的潛在區(qū)域,提取出特征信息,再利用支持向量機(jī)(SVM)和自適應(yīng)提升(Adaboost)等分類器對目標(biāo)特征進(jìn)行分類。還有一些算法使用全局注意力機(jī)制在整個檢測場景中選擇突出的候選區(qū)域。雖然這些算法檢測效果較好,但魯棒性較差,無法用于不同的應(yīng)用場景中。而且由于滑動窗口策略會導(dǎo)致大量重復(fù)計算,算法的執(zhí)行速度較慢。

        近年來,基于深度卷積神經(jīng)網(wǎng)絡(luò)[6 - 8]的目標(biāo)檢測技術(shù)以其局部感知和權(quán)值共享的特點(diǎn),在目標(biāo)檢測領(lǐng)域取得了飛速的發(fā)展。與傳統(tǒng)的目標(biāo)檢測算法相比,基于深度卷積神經(jīng)網(wǎng)絡(luò)的目標(biāo)檢測算法通過卷積神經(jīng)網(wǎng)絡(luò)對訓(xùn)練數(shù)據(jù)集的學(xué)習(xí),可以自動地從圖像中提取特征,獲得目標(biāo)的位置和類別,學(xué)習(xí)能力強(qiáng)、精度高、魯棒性強(qiáng)。當(dāng)前基于卷積神經(jīng)網(wǎng)絡(luò)的目標(biāo)檢測算法主要分為2類:一類是基于區(qū)域的目標(biāo)檢測算法,如Faster RCNN[2]和CornerNet[9]。這類算法將特征提取、區(qū)域建議和邊界框分類與回歸整合到1個網(wǎng)絡(luò)中,提高了小目標(biāo)的檢測率,但是在嵌入式平臺上無法滿足實(shí)時檢測的要求。另一類是基于回歸的目標(biāo)檢測算法,如YOLO(You Only Look Once)[10 - 12]和SSD(Single Shot multibox Detector)[13],只需經(jīng)過1次卷積運(yùn)算,便可直接在原始圖像上完成目標(biāo)檢測工作。這類算法檢測速度較快,滿足實(shí)時性的要求,但是對小目標(biāo)的檢測效果不盡人意。

        為了在嵌入式平臺上實(shí)現(xiàn)小目標(biāo)檢測精度和檢測速度方面的良好平衡,本文借鑒YOLO算法,設(shè)計了一種新的dense_YOLO目標(biāo)檢測算法。在特征提取階段,通過將DenseNet[14]網(wǎng)絡(luò)的思想和深度可分離卷積[15,16]思想相結(jié)合,設(shè)計出基于深度可分離卷積的slim-densenet特征提取網(wǎng)絡(luò),增強(qiáng)了小目標(biāo)的特征傳遞,也加快了算法的檢測速度。在檢測階段,采用自適應(yīng)多尺度融合檢測的思想,在不同的特征尺度上進(jìn)行目標(biāo)的分類和回歸,提高了小目標(biāo)的檢測精度。dense_YOLO目標(biāo)檢測算法可以為深度學(xué)習(xí)[17]目標(biāo)檢測技術(shù)應(yīng)用于嵌入式平臺提供可能。

        2 dense_YOLO目標(biāo)檢測算法

        2.1 原始YOLO算法

        YOLO算法將物體檢測問題處理成回歸問題,用1個神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)就可以從圖像中直接預(yù)測目標(biāo)的位置和類別。在網(wǎng)絡(luò)結(jié)構(gòu)上,首先采用ReLU(Rectified Linear Unit)[6]激活函數(shù)和卷積操作來提取特征,之后采用全連接層進(jìn)行目標(biāo)位置和類別的預(yù)測,從而得出最終的檢測結(jié)果。

        YOLO算法采用分塊思想,將輸入圖像分成S×S個小塊(grid cell),若目標(biāo)的中心點(diǎn)落入到某一個小格中,那么這個小格便負(fù)責(zé)這個目標(biāo)的預(yù)測任務(wù),通過網(wǎng)絡(luò)的訓(xùn)練學(xué)習(xí)數(shù)據(jù)分布,預(yù)測出這個目標(biāo)的中心坐標(biāo)、長寬和類別;再經(jīng)過非極大值抑制NMS(Non-Maximum Suppression)算法[18],將置信度高的候選框作為最終的目標(biāo)位置輸出,如圖1所示。雖然YOLO算法檢測速度較快,但全連接層丟失了較多的空間信息,使得算法對小目標(biāo)的檢測效果不好。

        Figure 1 YOLO detection principle圖1 YOLO檢測原理

        2.2 dense_YOLO目標(biāo)檢測原理

        本文針對YOLO算法在檢測小目標(biāo)時精度低的問題,設(shè)計了新的dense_YOLO目標(biāo)檢測算法,算法由2部分組成:特征提取模塊和多尺度目標(biāo)檢測模塊。dense_YOLO目標(biāo)檢測算法舍棄了原始YOLO算法中的全連接層,改為采用全卷積網(wǎng)絡(luò)(Fully Convolutional Networks)[19]的結(jié)構(gòu),使得網(wǎng)絡(luò)可以適應(yīng)不同大小的輸入圖像。然后使用新的基于深度可分離卷積的slim-densenet特征提取網(wǎng)絡(luò)來提取特征,新的網(wǎng)絡(luò)結(jié)構(gòu)參數(shù)量更少,特征在網(wǎng)絡(luò)中的傳遞速度更快。最后采用自適應(yīng)多尺度融合算法進(jìn)行目標(biāo)檢測,在不同的特征尺度上進(jìn)行目標(biāo)的分類和回歸,得到目標(biāo)的具體位置和類別信息,提高了算法對小目標(biāo)的檢測準(zhǔn)確率。

        2.2.1 slim-densenet特征提取模塊

        本文借鑒DenseNet網(wǎng)絡(luò)結(jié)構(gòu),設(shè)計了slim-densenet特征提取網(wǎng)絡(luò)結(jié)構(gòu)。原始的YOLO網(wǎng)絡(luò)結(jié)構(gòu)中,特征的傳遞方式為逐層傳遞,每層的輸入只來自和它相連的前一層。而本文的slim-densenet特征提取網(wǎng)絡(luò)結(jié)構(gòu)改變了特征在網(wǎng)絡(luò)層之間的傳遞方式,使得特征可以跳過部分網(wǎng)絡(luò)層直接傳遞到后面的網(wǎng)絡(luò)層中,不僅減輕了梯度消失的問題,而且還加快了特征在網(wǎng)絡(luò)中的傳遞。本文的slim-densenet特征提取網(wǎng)絡(luò)結(jié)構(gòu)如圖2所示。其中Dense block模塊是slim-densenet網(wǎng)絡(luò)中加速特征傳遞的部分。從圖3可以看出,特征經(jīng)過Dense block可以跳過其中的部分網(wǎng)絡(luò)直接傳遞到后端網(wǎng)絡(luò),因而加快了特征在網(wǎng)絡(luò)中的傳遞。

        Figure 2 Network structure of slim-densenet圖2 slim-densenet特征提取網(wǎng)絡(luò)結(jié)構(gòu)

        為了進(jìn)一步提高特征在網(wǎng)絡(luò)中的傳遞速度,本文將特征提取模塊中的7×7,5×5和3×3卷積替換為深度可分離卷積。深度可分離卷積區(qū)別于傳統(tǒng)的卷積:傳統(tǒng)的卷積利用卷積核對輸入的多通道圖像進(jìn)行卷積操作,隨著卷積核的增大,計算量成指數(shù)增長。而深度卷積神經(jīng)網(wǎng)絡(luò)將卷積操作分為Depthwise Convolution和Pointwise Convolution 2部分,如圖4所示,Depthwise Convolution對輸入的多通道向量進(jìn)行分層卷積,即對每一層通道都進(jìn)行卷積運(yùn)算;之后Pointwise Convolution使用大小為1×1的卷積核對Depthwise Convolution得到的中間結(jié)果在通道維度進(jìn)行擴(kuò)充,最終得到和傳統(tǒng)卷積操作相同的結(jié)果。與傳統(tǒng)的卷積操作相比,深度可分離卷積在減少參數(shù)量的同時加快了特征的傳遞。

        Figure 3 Dense block module圖3 Dense block模塊

        Figure 4 Depthwise separable convolution圖4 深度可分離卷積

        2.2.2 自適應(yīng)多尺度融合檢測模塊

        針對小目標(biāo)檢測這一難點(diǎn),本文提出了多尺度融合檢測的思想?;谏疃葘W(xué)習(xí)的YOLO目標(biāo)檢測算法需要經(jīng)過多個下采樣層來提取特征,在最后一層特征圖上進(jìn)行目標(biāo)的分類和回歸,而每經(jīng)過1個下采樣層,網(wǎng)絡(luò)的分辨率就會被壓縮1次,從而損失不同分辨率的特征圖的信息,這樣使得網(wǎng)絡(luò)在最后很難提取到針對小目標(biāo)的特征,因此YOLO算法對小目標(biāo)的檢測效果不盡人意。針對這一情況,本文在3個特征尺度上進(jìn)行目標(biāo)檢測,每1個特征尺度都融合了其他特征尺度的信息,網(wǎng)絡(luò)淺層提取目標(biāo)邊緣和紋理等細(xì)節(jié)特征,網(wǎng)絡(luò)深層提取物體輪廓的特征,將它們相互融合之后進(jìn)行卷積運(yùn)算,提取出目標(biāo)的位置類別信息。本文的自適應(yīng)多尺度融合檢測流程如圖5所示。

        Figure 5 Adaptive multi-scale fusion detection圖5 自適應(yīng)多尺度融合檢測

        首先通過最后3個Dense block模塊提取出3個尺度不同的feature map。接著進(jìn)行特征融合,將小尺度的feature map包含的特征傳入前面一層大尺度的feature map中,這樣每一層預(yù)測所用的feature map都融合了不同分辨率、不同語義強(qiáng)度的特征,大尺度feature map由于其分辨率較高,保留了較多的細(xì)節(jié)特征,更容易預(yù)測小的預(yù)測框。小尺度feature map由于其分辨率較低,保留的是物體的輪廓等信息,更容易預(yù)測大的預(yù)測框。然后在特征融合之后的3個feature map上進(jìn)行卷積運(yùn)算,提取出目標(biāo)的坐標(biāo)信息和類別信息。最后將3個特征尺度上提取到的目標(biāo)信息相結(jié)合,采用非極大值抑制NMS算法得到最終的檢測結(jié)果。

        2.3 dense_YOLO目標(biāo)檢測流程

        dense_YOLO目標(biāo)檢測算法分為3部分。算法首先通過基于深度可分離卷積的slim-densenet模塊進(jìn)行特征的提取,之后將提取到的特征在不同尺度上進(jìn)行融合和檢測,最后采用非極大值抑制NMS算法將不同尺度上提取到的目標(biāo)位置和類別信息進(jìn)行結(jié)合,得到最終的檢測結(jié)果。算法的基本流程如下:

        (1) 圖像初始化。將輸入圖像進(jìn)行初始化,轉(zhuǎn)換成大小為608×608的彩色圖像送入網(wǎng)絡(luò)。

        (2) 特征提取。使用slim-densenet特征提取模塊對送入的圖像進(jìn)行特征提取,將結(jié)果送入后續(xù)的目標(biāo)檢測模塊。

        (3) 自適應(yīng)多尺度融合檢測。使用多尺度融合檢測算法對特征進(jìn)行目標(biāo)的位置和類別預(yù)測。

        (4) 檢測結(jié)果輸出。通過NMS算法計算出不同尺度特征中目標(biāo)的具體位置和類別,并在原始圖像上進(jìn)行標(biāo)注,最終輸出結(jié)果。

        算法的流程圖如圖6所示。

        Figure 6 Flow chart of dense_YOLO algorithm圖6 dense_YOLO算法流程

        3 數(shù)據(jù)集與實(shí)驗(yàn)設(shè)計

        3.1 數(shù)據(jù)集和評價指標(biāo)

        本文在MS COCO(Microsoft COCO:Common Objects in Context)[20]通用數(shù)據(jù)集上進(jìn)行了測試,也在本文制作的小目標(biāo)數(shù)據(jù)集上和原算法做了對比實(shí)驗(yàn)。

        目標(biāo)檢測領(lǐng)域主要有2大通用數(shù)據(jù)集,一個是PASCAL VOC數(shù)據(jù)集,另一個是MS COCO數(shù)據(jù)集。MS COCO數(shù)據(jù)集是微軟構(gòu)建的一個數(shù)據(jù)集,其包含detection、segmentation和keypoints等任務(wù)。在檢測方面,MS COCO包含80種類別,相對于PASCAL VOC數(shù)據(jù)集的20種類別,MS COCO數(shù)據(jù)集類別豐富,包含了自然圖像和生活中常見的目標(biāo)圖像,背景比較復(fù)雜,目標(biāo)數(shù)量比較多,目標(biāo)尺寸更小,因此在MS COCO數(shù)據(jù)集上的實(shí)驗(yàn)更難。

        本文制作數(shù)據(jù)集的方法是使用無人機(jī)平臺,對三亞海灘附近場景進(jìn)行視頻拍攝,著重選取一些陸地上和海灘上的行人進(jìn)行拍攝,拍攝時光線充足,無雨霧雪,溫度27℃。對得到的視頻每隔1 s提取1幀,最終得到270幅尺寸為1920×1080的彩色圖像。采用開源的Labelimage軟件對采集到的270幅圖像進(jìn)行標(biāo)記,對應(yīng)得到270個.xml文件。對其中的210幅圖像進(jìn)行數(shù)據(jù)增強(qiáng),通過各種變換增加訓(xùn)練的數(shù)據(jù)量,增加噪聲數(shù)據(jù),防止網(wǎng)絡(luò)模型過擬合情況的出現(xiàn),以得到能力更強(qiáng)的網(wǎng)絡(luò),更好地適應(yīng)應(yīng)用場景。本文主要使用的數(shù)據(jù)增強(qiáng)方法有:旋轉(zhuǎn)、縮放、裁剪,得到近2 100幅圖像,大小為1000×600。這2 100幅圖像轉(zhuǎn)換成voc數(shù)據(jù)集的格式作為訓(xùn)練樣本。剩余的60幅圖像作為驗(yàn)證集。

        本文采用的主要評價指標(biāo)是AP,因?yàn)槟繕?biāo)檢測領(lǐng)域中Precision和Recall是一對對立關(guān)系的指標(biāo),一個指標(biāo)升高伴隨著另一個指標(biāo)下降,故人們采用PR曲線,即Precision和Recall曲線的線下面積來作為評價一個算法性能的指標(biāo)AP,對于多個類別,AP的平均值稱為mAP。AP@0.5的含義為:將交并比IoU(Intersection over Union)閾值設(shè)置為0.5,與真值框的IoU大于0.5的檢測框判定為檢測正確,通過在召回率坐標(biāo)軸上每隔0.1計算出對應(yīng)的準(zhǔn)確率值,繪制出PR曲線,最終得到檢測指標(biāo)AP。其中IoU指預(yù)測結(jié)果框和真值框重合區(qū)域的面積與總面積的比值。同時還有針對小目標(biāo)、中目標(biāo)和大目標(biāo)的mAP以及在IoU改變時各個Recall的值。另一個評價指標(biāo)為TOP-1,即置信度最高的檢測結(jié)果的準(zhǔn)確率。

        3.2 訓(xùn)練參數(shù)的設(shè)置

        本文使用的訓(xùn)練參數(shù)及其值如下所示:

        batch:每次迭代訓(xùn)練的圖像數(shù)目,本文設(shè)置為32。

        subdivisions:將batch進(jìn)行分組后送入網(wǎng)絡(luò),本文設(shè)置為16。

        網(wǎng)絡(luò)輸入尺寸:本文設(shè)置為608×608。

        angle:圖像角度變化,單位為度,以增加訓(xùn)練樣本數(shù),本文設(shè)置為7°。

        weightdecay:權(quán)值衰減正則項(xiàng)系數(shù),防止過擬合,本文設(shè)置為0.000 5。

        saturation:飽和度,以增加訓(xùn)練樣本數(shù),本文設(shè)置為0.75。

        exposure:曝光度,以增加訓(xùn)練樣本數(shù),本文設(shè)置為0.75。

        hue:色調(diào)變化范圍,以增加訓(xùn)練樣本,本文設(shè)置為0.1。

        learningrate:學(xué)習(xí)率,本文設(shè)置為0.001。

        max_batches:最大迭代次數(shù),本文設(shè)置為500 000。

        policy:學(xué)習(xí)率調(diào)整策略,本文選擇poly策略。poly的表達(dá)式為new_Ir=base_Ir*(1-iter/maxiter)power,可以看出學(xué)習(xí)率主要由power參數(shù)控制,power<1,學(xué)習(xí)率為凸?fàn)?,power>1,學(xué)習(xí)率為凹狀。

        anchors:預(yù)測框大小的預(yù)設(shè)值,具體如下:

        (10×13),(16×30),(33×23),(30×61),(62×45),(59×119),(116×90),(156×198),(373×326)。

        k:anchor的數(shù)目,本文設(shè)置為9。

        本文采用kmeans_YOLO聚類來處理數(shù)據(jù)集,不同k值對應(yīng)的損失如圖7所示。

        Figure 7 Clustering results on dateset圖7 數(shù)據(jù)集聚類結(jié)果

        3.3 實(shí)驗(yàn)環(huán)境和訓(xùn)練方法

        實(shí)驗(yàn)環(huán)境硬件配置為:訓(xùn)練時采用計算機(jī)服務(wù)器,配置core i7處理器,2塊Titan xp顯卡。檢測時采用NVIDIA JETSON XAVIER[21]嵌入式平臺,為NVIDIA公司為深度學(xué)習(xí)專門設(shè)計的嵌入式系統(tǒng),內(nèi)置CPU和GPU模塊,默認(rèn)安裝ubuntu系統(tǒng)。

        網(wǎng)絡(luò)在每個卷積層前都加入了BN(Batch Normalization)層,將每一層的神經(jīng)網(wǎng)絡(luò)中的任一個神經(jīng)元的輸入進(jìn)行歸一化,分布為均值為0、方差為1的標(biāo)準(zhǔn)正態(tài)分布,解決了訓(xùn)練過程中,隨著網(wǎng)絡(luò)層數(shù)的加深,輸入數(shù)據(jù)的分布逐漸發(fā)生偏移,從而導(dǎo)致的訓(xùn)練收斂慢和梯度消失問題。

        本文使用交叉熵?fù)p失函數(shù)替換YOLO算法使用的Softmax函數(shù)。YOLO算法中的損失函數(shù)將1個實(shí)數(shù)的k維向量壓縮成另1個k維向量,使得所有分量的范圍在(0,1),并且分量的和為1。但是,在實(shí)際的分類任務(wù)中,檢測到的目標(biāo)可能會屬于多個類別,比如在Open Images Dataset中,1個目標(biāo)有多個標(biāo)簽(例如人和女人),故本文使用交叉熵?fù)p失函數(shù)來替代Softmax函數(shù),使得網(wǎng)絡(luò)預(yù)測的目標(biāo)可以有多個不同的類別與之對應(yīng)。

        訓(xùn)練時采用的是深度學(xué)習(xí)經(jīng)常使用的隨機(jī)梯度下降算法,從所有訓(xùn)練數(shù)據(jù)里隨機(jī)選擇1個batch作為樣本,送入網(wǎng)絡(luò)學(xué)習(xí),接著再隨機(jī)選擇樣本來進(jìn)行學(xué)習(xí),最終達(dá)到最優(yōu)點(diǎn)。

        和大部分的目標(biāo)檢測算法一樣,本文首先使用slim-densenet分類網(wǎng)絡(luò)在ImagNet競賽數(shù)據(jù)集上進(jìn)行預(yù)訓(xùn)練,得到預(yù)訓(xùn)練權(quán)重。使得初始的網(wǎng)絡(luò)學(xué)習(xí)到類別的大致特征,為之后的檢測提供基礎(chǔ)。接著在backbone網(wǎng)絡(luò)上添加自己的檢測網(wǎng)絡(luò),在通用的MS COCO數(shù)據(jù)集上進(jìn)行訓(xùn)練,經(jīng)過10天500 000次迭代之后,損失穩(wěn)定在3.5左右不再變化,結(jié)束訓(xùn)練。損失值與迭代次數(shù)的關(guān)系如圖8所示。

        Figure 8 Loss function visualization圖8 損失函數(shù)可視化

        4 實(shí)驗(yàn)結(jié)果對比與分析

        本文基于slim-densenet的網(wǎng)絡(luò)模型在ImageNet分類數(shù)據(jù)集上的表現(xiàn)如表1所示。

        Table 1 Network classification result表1 網(wǎng)絡(luò)分類結(jié)果

        從表1中可以看出,在TOP-1準(zhǔn)確率方面,本文基于slim-densenet的網(wǎng)絡(luò)模型比VGG-16和Darknet19提高了7%,和經(jīng)典的ResNet 101相差無幾,但是在速度方面有著明顯的優(yōu)勢。

        在通用的目標(biāo)檢測數(shù)據(jù)集MS COCO上,硬件平臺為NVIDIA JETSON XAVIER,將dense_YOLO-416算法和YOLO-608、SSD512等經(jīng)典算法進(jìn)行了比較,其中dense_YOLO-416、YOLO-608、SSD512中的416,608,512分別代表網(wǎng)絡(luò)的輸入尺寸大小。具體的檢測性能和檢測結(jié)果如表2和圖9所示,其中APS表示對小目標(biāo)(像素小于32×32)檢測的AP指標(biāo);AP50即AP@0.5是3.1節(jié)中的AP@0.5的簡寫形式;AP為將IoU閾值從0.5~0.95中每隔0.5進(jìn)行取值,計算出的10個AP值求取平均所得;Weights為網(wǎng)絡(luò)模型的權(quán)重大小;GPU Time表示算法檢測單幅圖像所用時間。

        Table 2 Detection results on MS COCO表2 MS COCO上的檢測結(jié)果

        在本文創(chuàng)建的目標(biāo)檢測數(shù)據(jù)集上,硬件平臺為NVIDIA JETSON XAVIER,本文設(shè)計的dense_YOLO算法檢測性能如表3所示,檢測結(jié)果如圖10所示。

        在NVIDIA JETSON XAVIER嵌入式平臺上,本文的dense_YOLO目標(biāo)檢測算法相較于原YOLO算法,檢測時間縮短了15 ms左右,可以達(dá)到20 fps以上的實(shí)時性,也優(yōu)于其他的算法。在檢測準(zhǔn)確率方面,針對MS COCO數(shù)據(jù)集中的小目標(biāo),本文設(shè)計的dense_YOLO算法相較于YOLO算法在APS指標(biāo)上提高了7%,而在AP0.5指標(biāo)上, dense_YOLO算法超過了YOLO、SSD和Faster RCNN算法,都至少提高了10%,并且網(wǎng)絡(luò)模型大小為原YOLO算法的66%。針對本文創(chuàng)建的數(shù)據(jù)集,dense_YOLO算法也比原YOLO算法的AP0.5提高了8%。

        Figure 9 YOLO algorithm and dense_YOLO algorithm detection results on MS COCO dataset圖9 原算法(左)和改進(jìn)算法(右) 在MS COCO數(shù)據(jù)集上檢測結(jié)果

        Figure 10 YOLO algorithm and dense_YOLO algorithm detection results on own dataset圖10 原算法(左)和改進(jìn)算法(右)在本文創(chuàng)建數(shù)據(jù)集上的檢測結(jié)果

        5 結(jié)束語

        本文提出了一種新的基于深度卷積神經(jīng)網(wǎng)絡(luò)的dense_YOLO目標(biāo)檢測算法,在嵌入式平臺上可以實(shí)現(xiàn)高準(zhǔn)確率的實(shí)時目標(biāo)檢測。dense_YOLO算法首先利用新提出的slim-densenet特征提取模塊對圖像提取特征,減少了參數(shù)量,加快了網(wǎng)絡(luò)的訓(xùn)練和預(yù)測。然后采用自適應(yīng)多尺度融合檢測方法豐富了小尺度特征圖的信息,提高了小目標(biāo)的檢出率。最后通過非極大值抑制算法得到最終檢測結(jié)果。實(shí)驗(yàn)表明,在通用的MS COCO數(shù)據(jù)集上,dense_YOLO算法在小目標(biāo)檢測方面,較原YOLO算法mAP指標(biāo)提高了7%,檢測時間縮短了15 ms,網(wǎng)絡(luò)模型大小為原算法的66%。此外,在本文采集并手工標(biāo)注的數(shù)據(jù)集上,該算法檢測準(zhǔn)確率和速度也明顯優(yōu)于原算法,滿足嵌入式平臺對算法速度和精度的要求,可為深度學(xué)習(xí)在嵌入式平臺上的應(yīng)用提供借鑒。本文提出的算法還有很多地方需要改進(jìn),比如slim-densenet還可以通過剪枝操作,減少通道的冗余,加快推斷速度,在本文的模型上進(jìn)行壓縮仍然需要更進(jìn)一步的研究。

        Table 3 Detection results on dataset created in this paper表3 在本文創(chuàng)建數(shù)據(jù)集上的檢測結(jié)果

        猜你喜歡
        特征提取尺度卷積
        基于3D-Winograd的快速卷積算法設(shè)計及FPGA實(shí)現(xiàn)
        財產(chǎn)的五大尺度和五重應(yīng)對
        從濾波器理解卷積
        電子制作(2019年11期)2019-07-04 00:34:38
        基于Daubechies(dbN)的飛行器音頻特征提取
        電子制作(2018年19期)2018-11-14 02:37:08
        基于傅里葉域卷積表示的目標(biāo)跟蹤算法
        Bagging RCSP腦電特征提取算法
        宇宙的尺度
        太空探索(2016年5期)2016-07-12 15:17:55
        基于MED和循環(huán)域解調(diào)的多故障特征提取
        9
        一種基于卷積神經(jīng)網(wǎng)絡(luò)的性別識別方法
        国产三级在线观看完整版| 日韩精品一区二区三区四区五区六 | 日本在线一区二区在线| 不卡的av网站在线观看| 久激情内射婷内射蜜桃人妖| 被黑人做的白浆直流在线播放| 最新国产av网址大全| 婷婷久久精品国产色蜜蜜麻豆| 特级毛片a级毛片100免费播放| 在线视频99| 女优av福利在线观看| 偷拍一区二区三区四区| 亚洲国产天堂一区二区三区| 国产网站视频| 色视频日本一区二区三区 | 永久黄网站色视频免费| 一区二区三无码| 国产三级精品av在线| 亚洲精品国偷拍自产在线观看| 亚洲国产毛片| 亚洲视频中文字幕更新| 国产一区二区三区在线观看完整版| 无码国模国产在线观看| YW亚洲AV无码乱码在线观看| 美腿丝袜网址亚洲av| 丰满熟妇乱又伦精品| 亚洲va在线∨a天堂va欧美va| 精品久久久久久99人妻| 青青草好吊色在线观看| 亚洲伊人一本大道中文字幕| 久久国产精品不只是精品 | aⅴ精品无码无卡在线观看| 99久久婷婷国产综合亚洲91| 精品国产乱码久久免费看| 久久久极品少妇刺激呻吟网站| 日韩高清在线观看永久| 青春草在线视频精品| 久久人妻中文字幕精品一区二区| 午夜理论片yy44880影院| 国产香蕉尹人综合在线观| 久久精品国产亚洲av沈先生|