亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于深度可分離卷積的交通標(biāo)志識(shí)別算法

        2020-01-15 07:18:10楊晉生楊雁南李天驕
        液晶與顯示 2019年12期
        關(guān)鍵詞:交通標(biāo)志運(yùn)算卷積

        楊晉生,楊雁南,李天驕

        (天津大學(xué) 微電子學(xué)院,天津030072)

        1 引 言

        隨著信息時(shí)代的到來(lái),在科學(xué)研究、互聯(lián)網(wǎng)應(yīng)用、電子商務(wù)、自由駕駛等諸多應(yīng)用領(lǐng)域?qū)τ谌斯ぶ悄艿男枨笕找嫫惹衃1]。在這種情況下,基于機(jī)器學(xué)習(xí)和人工智能的研究必將成為今后計(jì)算機(jī)和通信技術(shù)發(fā)展中最重要的一部分[2]。

        交通標(biāo)志是現(xiàn)代公路交通環(huán)境中最重要的組成部分,隨著社會(huì)的進(jìn)步,路面交通變得多樣化、立體化,交通標(biāo)志也因此變得多種多樣。自動(dòng)駕駛作為時(shí)下最熱門的內(nèi)容,包括路面感知、路徑規(guī)劃、決策等技術(shù)。其中,作為車輛行駛的指揮者,交通標(biāo)志的識(shí)別是自動(dòng)駕駛和車輛輔助駕駛技術(shù)中最核心的技術(shù)之一。受天氣狀況、光照變化和硬件設(shè)施的限制,在車輛行駛過(guò)程中所捕獲到的圖像常常受到圖像模糊、路標(biāo)褪色、背景掩蓋等問(wèn)題的影響,如何快速準(zhǔn)確地識(shí)別交通標(biāo)志成為了當(dāng)前研究的一個(gè)重要方向。

        目前對(duì)于交通標(biāo)志的識(shí)別主要可分為傳統(tǒng)圖像處理方法和基于卷積神經(jīng)網(wǎng)絡(luò)兩個(gè)大的研究方向。采用傳統(tǒng)圖像處理方法進(jìn)行目標(biāo)識(shí)別多采用經(jīng)典的基于HOG-SVM[3]的方法進(jìn)行目標(biāo)識(shí)別。卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,CNN)的出現(xiàn)為目標(biāo)識(shí)別提供了一種全新的處理方法。采用深度學(xué)習(xí)進(jìn)行目標(biāo)識(shí)別大致分為兩類:基于候選區(qū)域目標(biāo)檢測(cè)器的網(wǎng)絡(luò)如AlexNet[4]、R-CNN[5]、Fast R-CNN[6]、Faster R-CNN[7]、R-FCN[8]、FPN[9]等;基于端到端的不需要提供候選區(qū)域的網(wǎng)絡(luò)如SSD[10]、YOLO[11]等?;诤蜻x區(qū)域目標(biāo)檢測(cè)采用選擇性搜索算法進(jìn)行評(píng)估相鄰圖像間的相似度,將相似度高的合并,進(jìn)而選出合適的子圖進(jìn)行特征提取?;诤蜻x區(qū)域目標(biāo)檢測(cè)的算法具有較高的精度,但同時(shí)由于其龐大的計(jì)算量,其檢測(cè)速度并不能滿足交通標(biāo)志識(shí)別所需要的時(shí)效性。如Ren等人提出的Faster R-CNN,其在VOC2012[12]數(shù)據(jù)集上的檢測(cè)速度只有5 f/s。由于基于候選區(qū)域的檢測(cè)算法普遍存在運(yùn)算速度慢、訓(xùn)練復(fù)雜的特點(diǎn),YOLO創(chuàng)造性地提出了將物體定位和物體分類合二為一的算法,大大提高了對(duì)物體識(shí)別速度的要求,使識(shí)別速度提升到了45 f/s,滿足了對(duì)檢測(cè)實(shí)效性的要求。但同時(shí)YOLO系列算法也存在識(shí)別精度較差的缺陷,在對(duì)COCO數(shù)據(jù)集中20類物體的檢測(cè)中僅獲得平均精度(mAP)63%的結(jié)果,其在小目標(biāo)檢測(cè)上更有著明顯的缺陷。盡管如此,其在檢測(cè)速度上的優(yōu)勢(shì),使其在移動(dòng)端部署有著得天獨(dú)厚的優(yōu)勢(shì)。

        近年來(lái),在保證檢測(cè)速度的同時(shí)提升檢測(cè)精度已經(jīng)成為了當(dāng)下目標(biāo)檢測(cè)算法中最熱門的研究領(lǐng)域。SSD綜合了檢測(cè)精度最高的Faster-RCNN和檢測(cè)速度最快的YOLO的優(yōu)勢(shì),在識(shí)別精度和速度上進(jìn)行了平衡。2017年,Redmon[13]在YOLO的基礎(chǔ)上進(jìn)行了優(yōu)化形成了YOLOv2,全新的YOLOv2在VOC2017數(shù)據(jù)集上獲得了76.8 mAP,優(yōu)于使用ResNet的SSD和Faster-RCNN,2018年Redmon在YOLOv2的基礎(chǔ)上引入了多尺度預(yù)測(cè)產(chǎn)生了YOLOv3,對(duì)小目標(biāo)的檢測(cè)進(jìn)行了優(yōu)化,同時(shí)基于YOLOv3也設(shè)計(jì)了更簡(jiǎn)化的版本YOLOv3-tiny,有利于其在移動(dòng)端上的應(yīng)用。

        本文所做的貢獻(xiàn)有:

        (1)針對(duì)YOLv3-tiny檢測(cè)精度低的問(wèn)題,采用深度可分離卷積(Depthwise Separable Convolution[14])搭建主干網(wǎng)絡(luò),相較于普通的卷積運(yùn)算,大量減少計(jì)算量,從而在相同的計(jì)算量條件下搭建更多層次的網(wǎng)絡(luò),提取更高層次的語(yǔ)義特征。

        (2)優(yōu)化深度可分離卷積計(jì)算模塊,采用swish[15]函數(shù)的簡(jiǎn)化版本h-swish做為激活函數(shù),在保證激活函數(shù)計(jì)算量小的同時(shí)保留更多的特征,減少因網(wǎng)絡(luò)層數(shù)增加而造成的隨機(jī)梯度消失,進(jìn)而提高檢測(cè)的精度。

        (3)在YOLOv3-tiny的多尺度特征融合網(wǎng)絡(luò)基礎(chǔ)上,增加8倍下采樣融合,構(gòu)建更多尺度的特征融合網(wǎng)絡(luò),提高對(duì)小目標(biāo)的檢測(cè)精度。

        2 目標(biāo)檢測(cè)原理

        2.1 YOLO目標(biāo)檢測(cè)原理

        YOLO(You Only Look Once)是目前最先進(jìn)的端對(duì)端目標(biāo)檢測(cè)的算法之一。YOLO將多目標(biāo)檢測(cè)轉(zhuǎn)換成一個(gè)回歸問(wèn)題,去除了以往結(jié)構(gòu)中提取待檢測(cè)區(qū)域(Proposal)的步驟,通過(guò)一次回歸運(yùn)算完成目標(biāo)位置、目標(biāo)種類及其目標(biāo)置信度的工作。通過(guò)調(diào)整網(wǎng)絡(luò)最終輸出種類的數(shù)量控制最后輸出的檢測(cè)矢量大小,進(jìn)而實(shí)現(xiàn)對(duì)多類物體的檢測(cè)。

        YOLOv3作為目前YOLO系列最新的一代算法,是在吸取了Faster R-CNN采用預(yù)測(cè)Anchor box偏移值代替直接預(yù)測(cè)目標(biāo)框中心位置坐標(biāo)值、借鑒Resnet加入殘差模塊、增加FPN[16](Feature pyramid networks)等方法后提出的最新的網(wǎng)絡(luò)結(jié)構(gòu)。YOLOv3網(wǎng)絡(luò)由骨干的Darknet-53網(wǎng)絡(luò)和基于FPN的多尺度融合的檢測(cè)網(wǎng)絡(luò)構(gòu)成。通過(guò)在13×13、26×26、52×52三種不同尺度的YOLO層上進(jìn)行預(yù)測(cè),極大的改善了對(duì)不同尺度大小問(wèn)題和被遮擋物體的效果。在針對(duì)多目標(biāo)檢測(cè)問(wèn)題上,使用Logistic分類器取代了Softmax分類器,采用多尺度隨機(jī)訓(xùn)練來(lái)增強(qiáng)網(wǎng)絡(luò)的魯棒性。

        (1)

        YOLO系列從YOLOv2開始使用Anchor box的思想進(jìn)行預(yù)測(cè)框的迭代逼近,對(duì)預(yù)測(cè)框的逼近算法進(jìn)行了更新,每一個(gè)預(yù)測(cè)框返回值參數(shù)為(bx,by,bw,bh),其具體計(jì)算方式如公式(2)所示:

        (2)

        YOLOv3的損失函數(shù)如公式(3)所示:

        (3)

        YOLOv3-Tiny作為YOLOv3的簡(jiǎn)化版本,在犧牲了一部分檢測(cè)精度的情況下將檢測(cè)速度的優(yōu)勢(shì)進(jìn)一步發(fā)揮。YOLOv3-Tiny的主干網(wǎng)絡(luò)由7層的類Darknet-19網(wǎng)絡(luò)構(gòu)成,輸出13×13和26×26兩種不同尺度的特征進(jìn)行檢測(cè)特征回歸,預(yù)測(cè)出多個(gè)預(yù)測(cè)框和其相應(yīng)的置信度得分,通過(guò)使用非極大抑制(Non-maximum suppression,NMS)算法剔除掉低置信度的預(yù)測(cè)結(jié)果,保留高置信度的預(yù)測(cè)框輸出。

        2.2 深度可分離網(wǎng)絡(luò)

        對(duì)于傳統(tǒng)的卷積計(jì)算,在進(jìn)行卷積運(yùn)算時(shí)需要同時(shí)將對(duì)應(yīng)圖像區(qū)域中的所有通道進(jìn)行考慮。深度可分離卷積提出了一種將圖像的對(duì)應(yīng)區(qū)域和通道分開進(jìn)行處理,先考慮區(qū)域特征,然后再考慮通道特征,將傳統(tǒng)的卷積運(yùn)算分解成Depthwise 和Pointwise兩個(gè)過(guò)程。

        對(duì)于傳統(tǒng)的卷積運(yùn)算,有N×H×W×C的輸入與k個(gè)n×n的卷積核進(jìn)行卷積運(yùn)算,在pad=1和stride=1的情況下輸出為N×H×W×k。

        對(duì)于深度可分離卷積,在Depthwise過(guò)程中,將輸入的N×H×W×C劃分成C組,對(duì)于每一組做n×n的卷積運(yùn)算,收集卷積運(yùn)算中的每個(gè)channel的空間特征。

        圖2 Depthwise卷積過(guò)程Fig.2 Depthwise convolution process

        在Pointwise過(guò)程中,對(duì)Depthwise中的結(jié)果進(jìn)行k個(gè)1×1的卷積運(yùn)算,收集每個(gè)point上的特征,也就是卷積運(yùn)算中的位置特征,經(jīng)過(guò)Pointwise和Depthwise兩個(gè)步驟,最終輸出的結(jié)果也是N×H×W×k。

        圖3 Pointwise卷積過(guò)程Fig.3 Pointwise convolution process

        對(duì)于N×H×W×C和k×n×n的卷積運(yùn)算,普通的卷積運(yùn)算運(yùn)算量為H×W×C×k×n×n,對(duì)于深度可分離卷積運(yùn)算,在Depthwise階段計(jì)算量為H×W×C×n×n;在Pointwise階段計(jì)算量為H×W×C×k,總的計(jì)算量為H×W×C×(k+n×n)。

        相較于普通的卷積計(jì)算,其計(jì)算量壓縮P如公式(4)所示:

        (4)

        3 改進(jìn)的網(wǎng)絡(luò)模型

        3.1 優(yōu)化的深度可分離卷積的特征提取主體網(wǎng)絡(luò)

        為了實(shí)現(xiàn)對(duì)交通標(biāo)志的動(dòng)態(tài)識(shí)別,解決現(xiàn)在YOLOv3-tiny等YOLO系列輕型網(wǎng)絡(luò)檢測(cè)精度低的問(wèn)題,采用可分離深度卷積重新構(gòu)建了特征提取網(wǎng)絡(luò),代替YOLOv3-tiny中的類Darknet-19網(wǎng)絡(luò),提取更高層次的圖像特征信息。

        相較于普通的卷積運(yùn)算模塊,基礎(chǔ)的深度可分離卷積模塊如圖4所示。

        圖4 標(biāo)準(zhǔn)卷積與深度可分離卷積模塊Fig.4 Standard convolution and depth separable convolution module

        與普通的卷積模塊相似,深度可分離卷積模塊在Depthwise和Pointwise層后增加BN層和激活函數(shù)層。但是采用ReLU作為激活函數(shù),因?yàn)槠鋵?duì)負(fù)值取0的特性,會(huì)丟失掉部分的特征信息的問(wèn)題,所以在Depthwise Conv模塊后選擇Leaky ReLU代替ReLU作為激活函數(shù)。同時(shí)在1×1的Conv層中,選擇使用h-swish函數(shù)來(lái)代替Relu作為激活函數(shù),來(lái)減少由于網(wǎng)絡(luò)層數(shù)增加造成的網(wǎng)絡(luò)梯度消失的影響。

        h-swish函數(shù)是swish激活函數(shù)的簡(jiǎn)化版,swish的計(jì)算方法如公式(5)所示:

        (5)

        其中:β是個(gè)常數(shù)或可訓(xùn)練的參數(shù)。swish 具備無(wú)上界有下界、平滑、非單調(diào)的特性。

        相較于ReLU激活函數(shù)及其衍生激活函數(shù),在深層網(wǎng)絡(luò)中,swish激活函數(shù)可以很好的提高神經(jīng)網(wǎng)絡(luò)的準(zhǔn)確性。h-swish函數(shù)的計(jì)算方式如公式(6)所示:

        (6)

        兩種激活函數(shù)圖像對(duì)比如圖5所示。相較于swish函數(shù)需要計(jì)算Sigmoid從而計(jì)算時(shí)間長(zhǎng)的特點(diǎn),在圖像上h-swish函數(shù)在保持swish激活函數(shù)具備無(wú)上界有下界、平滑、非單調(diào)的特點(diǎn)外,其函數(shù)只由ReLU函數(shù)構(gòu)成外,極大的減少了swish函數(shù)的運(yùn)算時(shí)間,實(shí)現(xiàn)了精度和運(yùn)算速度上的兼容。

        圖5 h-swish函數(shù)與swish函數(shù)對(duì)比圖Fig.5 Comparison of h-swish function and swish function

        優(yōu)化后的基礎(chǔ)深度可分離卷積模塊結(jié)構(gòu)如下圖6所示。

        圖6 優(yōu)化的深度可分離卷積模塊Fig.6 Optimized deep separable convolution module

        3.2 優(yōu)化的多尺度融合網(wǎng)絡(luò)

        采用優(yōu)化后的深度可分離卷積模塊搭建主體網(wǎng)絡(luò)提取圖像特征。對(duì)于實(shí)時(shí)的交通路標(biāo)檢測(cè),其重點(diǎn)是對(duì)于中遠(yuǎn)距離交通路標(biāo)的檢測(cè),也就是對(duì)圖像中中小目標(biāo)的檢測(cè),為了提高對(duì)中遠(yuǎn)距離交通標(biāo)志的檢測(cè),給予駕駛員足夠的反應(yīng)時(shí)間。為減少中小尺度的目標(biāo)語(yǔ)義損失、更好的提取中小目標(biāo)的特征,同時(shí)避免高分辨率特征提取增加較大的計(jì)算量。在網(wǎng)絡(luò)設(shè)置中減少對(duì)32倍下采樣的特征提取層設(shè)置,在8倍下采樣和16倍下采樣設(shè)置更多層次網(wǎng)絡(luò)進(jìn)行的特征提取。特征提取主體網(wǎng)絡(luò)結(jié)構(gòu)如表1所示。

        表1 特征提取主體網(wǎng)絡(luò)Tab.1 Feature extraction subject network

        續(xù) 表

        YOLOv3-tiny采用16倍下采樣和32倍下采樣的兩個(gè)尺度的特征融合,這意味著當(dāng)輸入的檢測(cè)目標(biāo)小于16 pixel×16 pixel時(shí),就喪失了對(duì)該目標(biāo)的檢測(cè)能力。為提高網(wǎng)絡(luò)對(duì)小目標(biāo)的檢測(cè)精度,提高對(duì)目標(biāo)位置信息的判斷,使得網(wǎng)絡(luò)獲得更多小目標(biāo)的特征信息。在YOLOv3-tiny的基礎(chǔ)上增加對(duì)網(wǎng)絡(luò)8倍下采樣的尺度融合,將原本16倍下采樣融合后的輸出結(jié)果進(jìn)行上采樣,與主體網(wǎng)絡(luò)中輸出的8倍下采樣結(jié)果進(jìn)行融合,建立8倍下采樣的融合特征檢測(cè)層,收集8 pixel×8 pixel尺度的特征,提高對(duì)小目標(biāo)的檢測(cè)和位置信息判斷。

        網(wǎng)絡(luò)結(jié)構(gòu)示意圖如圖7所示。

        圖7 網(wǎng)絡(luò)結(jié)構(gòu)示意圖Fig.7 Schematic diagram of the network structure

        4 結(jié)果分析

        本文采用中國(guó)交通標(biāo)志檢測(cè)數(shù)據(jù)集(CCTSDB[17])作為實(shí)驗(yàn)數(shù)據(jù)集,實(shí)驗(yàn)使用Ubuntu 16.04 操作系統(tǒng)、Darknet深度學(xué)習(xí)框架、CUDA9.0進(jìn)行加速,硬件配置為:CPU Intel Core i7-9750H、GPU Nvidia GTX 1080。本次實(shí)驗(yàn)中,我們將從網(wǎng)絡(luò)計(jì)算量大小、模型檢測(cè)速度、檢測(cè)準(zhǔn)確度和召回率等多個(gè)指標(biāo)與將本文算法與目前最主流的輕型網(wǎng)絡(luò)YOLOv3-tiny、YOLOv2-tiny以及YOLO系列的最新版本YOLOv3進(jìn)行對(duì)比。

        4.1 數(shù)據(jù)集

        中國(guó)交通標(biāo)志檢測(cè)數(shù)據(jù)集(CCTSDB)是在原中國(guó)中國(guó)交通標(biāo)志數(shù)據(jù)集(CTSD)數(shù)據(jù)集的基礎(chǔ)上擴(kuò)充得到的。數(shù)據(jù)集包含15 734張由攝像機(jī)拍攝而成的現(xiàn)實(shí)路況圖片。數(shù)據(jù)集由正樣本和負(fù)樣本構(gòu)成,正樣本中包含一個(gè)或多個(gè)交通標(biāo)志,負(fù)樣本不包含交通標(biāo)志,所有圖像橫縱尺寸均大于416 pixel。數(shù)據(jù)集采用PASCAL VOC格式進(jìn)行標(biāo)注,標(biāo)注數(shù)據(jù)依據(jù)交通標(biāo)志的作用分為警告標(biāo)志(Warining)指示標(biāo)志(Mandatory)、禁止標(biāo)志(Prohibitory)3類。本次訓(xùn)練選取前2 000張為驗(yàn)證集,剩余圖片作為訓(xùn)練集對(duì)數(shù)據(jù)集中標(biāo)注的3類交通標(biāo)志進(jìn)行檢測(cè),訓(xùn)練集與驗(yàn)證集比例約為7∶1。

        4.2 訓(xùn)練參數(shù)設(shè)置

        本次實(shí)驗(yàn)訓(xùn)練階段初始學(xué)習(xí)率為 0.001,衰減系數(shù)為0.000 5,在訓(xùn)練迭代次數(shù)為40 000次和 45 000次時(shí),分別將學(xué)習(xí)率降低為0.000 1和 0.000 01。使損失函數(shù)進(jìn)一步收斂,在訓(xùn)練階段利用增加對(duì)比度、調(diào)整曝光量和旋轉(zhuǎn)圖像方法對(duì)訓(xùn)練集中圖像進(jìn)行擴(kuò)充。

        從YOLOv2開始引入anchor box的思想,YOLO系列中設(shè)置的初始anchor box是作者使用K-means聚類方法在COCO數(shù)據(jù)集上聚類的結(jié)果,對(duì)本次訓(xùn)練所檢測(cè)的交通標(biāo)志并不適用,因此需要重新設(shè)置anchor box。在本次實(shí)驗(yàn)中使用平均重疊度(Avg IOU)這一指標(biāo)作為初始anchor box的聚類指標(biāo),其計(jì)算公式如公式(7)所示:

        (7)

        其中:B表示 ground truth 中標(biāo)注好的目標(biāo)框位置。C表示設(shè)置anchor的中心,nk表示第k個(gè)anchor box樣本的個(gè)數(shù),n表示樣本的總個(gè)數(shù),k表示anchor box的個(gè)數(shù),IIOU(B,C)表示簇的中心框和聚類框的交并比。

        對(duì)本文中數(shù)據(jù)進(jìn)行Avg IOU聚類,綜合網(wǎng)絡(luò)結(jié)構(gòu)和Avg IOU后,選擇k=6,設(shè)置6個(gè)初始anchor box,各個(gè)anchor對(duì)應(yīng)長(zhǎng)寬分別為:(7,9),(14,18),(23,30),(26,41),(41,62),(74,106)。

        本文算法模型及各對(duì)比算法模型的損失函數(shù)下降圖如圖8所示。

        圖8 損失函數(shù)下降圖Fig.8 Loss function decline graph

        由損失函數(shù)曲線可以看出,對(duì)比4種算法,YOLOv3-tiny收斂最快,在40 000次迭代后趨于穩(wěn)定,但損失函數(shù)下降波動(dòng)相較本文算法波動(dòng)較大,本文算法損失函數(shù)由于采用深度可分離卷積搭建特征提取網(wǎng)絡(luò),因此收斂速度較普通卷積相比較慢在70 000次左右損失函數(shù)趨于平穩(wěn),但由于增加了更多層次的特征提取網(wǎng)絡(luò)和三尺度的特征融合,訓(xùn)練平穩(wěn)后的損失函數(shù)更小,精度更高。YOLOv3作為大型網(wǎng)絡(luò),其下降趨勢(shì)平穩(wěn)且波動(dòng)最小,但由于YOLOv3網(wǎng)絡(luò)層數(shù)多且訓(xùn)練參數(shù)復(fù)雜,因此迭代收斂速度較慢,在80 000次迭代后才趨于平穩(wěn),但訓(xùn)練平穩(wěn)后損失函數(shù)最小,精度也最高。YOLOv2-tiny雖然網(wǎng)絡(luò)結(jié)構(gòu)最簡(jiǎn)單,訓(xùn)練速度快,但其收斂最慢,在100 000次訓(xùn)練之后才趨于穩(wěn)定,且穩(wěn)定后的收斂函數(shù)數(shù)值最大,精度最低。

        4.3 實(shí)驗(yàn)結(jié)果與分析

        為進(jìn)一步驗(yàn)證本模型能有效的降低了卷積運(yùn)算中的計(jì)算量和參數(shù)數(shù)量,本文采用浮點(diǎn)數(shù)計(jì)算量BFLOPs(Billion Floating Point Operations)對(duì)傳統(tǒng)的卷積模型和本文所提出的基于深度可分離卷積的計(jì)算量分析。在本文中52×52,26×26,13×13三個(gè)尺度上的基于傳統(tǒng)卷積和基于深度可分離卷積的運(yùn)算次數(shù)對(duì)比如表2所示。

        表2 浮點(diǎn)數(shù)計(jì)算量對(duì)比表Tab.2 Comparison of floating point calculation amount

        由此可見,對(duì)于3個(gè)尺度上的計(jì)算,相較于傳統(tǒng)的卷積運(yùn)算,基于深度可分離卷積的運(yùn)算模塊均有效的減少了運(yùn)算的計(jì)算量。

        為進(jìn)一步評(píng)價(jià)本算法效果,類別檢測(cè)平均精準(zhǔn)度(Average Precision,AP)、平均精度(Mean Average Precision,mAP)、每秒幀數(shù)(Frames Per Second,fps)作為評(píng)價(jià)標(biāo)準(zhǔn),將本文網(wǎng)絡(luò)結(jié)構(gòu)與YOLOv3-tiny、YOLOv2-tiny和YOLOv3進(jìn)行對(duì)比。

        平均精準(zhǔn)度及平均精度計(jì)算方式如公式(8)所示:

        (8)

        其中:APc采用VOC2007[18]的計(jì)算方式進(jìn)行計(jì)算,將召回率曲線中劃分共11個(gè)等距點(diǎn)(0,0.1,0.2,…,0.9,1)后,求其最大精度的平均值可獲得平均精度AP,即各類物體的平均準(zhǔn)確率。N為網(wǎng)絡(luò)中物體類別的數(shù)量,mAP為各類物體AP的平均數(shù)。

        本文使用法每秒處理的圖像數(shù)量f/s作為評(píng)價(jià)網(wǎng)絡(luò)檢測(cè)速度的指標(biāo)。

        將本文算法與YOLOv3-tiny、YOLOv2-tiny、YOLOv3的結(jié)果進(jìn)行對(duì)比,所有算法均采用上文設(shè)置的anchor box,將其在2000張驗(yàn)證集上檢測(cè),其各項(xiàng)性能對(duì)比如表3所示。

        從表3可以看出,本文提出的算法在驗(yàn)證集上獲得mAP為97.54%、Warining類準(zhǔn)確率98.57%、Mandatory類準(zhǔn)確率96.03%、Prohibitory類準(zhǔn)確率98.17%、檢測(cè)速度為201.5 f/s,相較于YOLOv3-tiny分別提高了14.01%,9.74%,12.43%、19.86%,相較于YOLOv2-tiny分別提高了39.15%,30.62%,36.99%,49.84%,檢測(cè)速度指標(biāo)上3種算法基本持平,均穩(wěn)定在200 f/s以上。其主要原因是本文方法和YOLOv3-tiny均采用特征圖像金字塔搭建多尺度特征融合,將多個(gè)尺度的特征融合進(jìn)行檢測(cè),因此在檢測(cè)精度上較YOLOv2-tiny有了較大提升。本文算法較YOLOv3-tiny使用優(yōu)化后的深度可分離卷積搭建了27層特征提取網(wǎng)絡(luò),較YOLOv3-tiny原本的7層的特征提取網(wǎng)絡(luò)有了明顯的提升,同時(shí)加入了8倍的下采樣,便于采集中小型目標(biāo)的特征,使用h-swish函數(shù)作為激活函數(shù)有利于保留更多的特征信息,提高了檢測(cè)精度。本文算法作為輕型網(wǎng)絡(luò),在mAP值較YOLOv3上較YOLOv3這樣的大型網(wǎng)絡(luò)下降了1.33%,但在檢測(cè)速度上提高了167.7 f/s。同時(shí)相較YOLOv3在檢測(cè)過(guò)程中參數(shù)多、泛化能力弱的缺點(diǎn)有了長(zhǎng)足的進(jìn)步。

        表3 不同算法性能對(duì)比表Tab.3 Performance comparison of different algorithms

        續(xù) 表

        圖9 各種算法的檢測(cè)效果圖Fig.9 Detection effect chart of various algorithms

        圖9為本文算法與YOLOv3、YOLOv3-tiny、YOLOv2-tiny對(duì)交通標(biāo)志的檢測(cè)效果對(duì)比圖。其中圖(a)、(b)、(c)、(d)中,本文算法、YOLOv3、和YOLOv3-tiny均可有效對(duì)交通標(biāo)志進(jìn)行檢測(cè),但YOLOv2因?yàn)闆]有采用多尺度檢測(cè),所以檢測(cè)精度最差,對(duì)部分交通標(biāo)志沒有辦法進(jìn)行識(shí)別。圖(e)、(f)、(g)、(h)中,面對(duì)交通標(biāo)志褪色的現(xiàn)象,本文算法、YOLOv3均可正確識(shí)別交通標(biāo)志,但YOLOv3-tiny因?yàn)橹挥袃蓚€(gè)層次的檢測(cè),沒有進(jìn)行小目標(biāo)的融合,因此沒有辦法很好地識(shí)別交通標(biāo)志,YOLOv2-tiny除了沒有辦法識(shí)別交通標(biāo)志外還出現(xiàn)了明顯的預(yù)測(cè)位置偏移。圖(h)、(i)、(j)、(k)中當(dāng)面對(duì)天氣變暗的條件下,本文算法、YOLOv3和YOLOv3-tiny均能準(zhǔn)確識(shí)別交通標(biāo)志,YOLOv2-tiny并不能準(zhǔn)確檢測(cè)。

        5 結(jié) 論

        本文根據(jù)目前針對(duì)交通標(biāo)志識(shí)別的算法難以兼顧檢測(cè)速度和檢測(cè)精度的問(wèn)題,提出了一種基于深度可分離卷積的輕量級(jí)交通標(biāo)志識(shí)別網(wǎng)絡(luò)。分析了目標(biāo)識(shí)別算法的發(fā)展過(guò)程,對(duì)YOLO系列算法和深度可分離卷積思想進(jìn)行了介紹。使用深度可分離卷積搭建了特征提取網(wǎng)絡(luò)代替YOLOv3-tiny的特征提取網(wǎng)絡(luò),同時(shí)為更好地識(shí)別中小目標(biāo),增加了8倍下采樣的尺度融合,在搭建網(wǎng)絡(luò)過(guò)程中使用h-swish激活函數(shù)代替ReLU激活函數(shù),保留了更多的特征信息。實(shí)驗(yàn)結(jié)果表明,本文提出的算法相較于YOLOv3-tiny有了較大的提升,交通標(biāo)志的識(shí)別平均精度由83.53%提高到了97.54%,檢測(cè)速度達(dá)到了201.5 f/s,同時(shí)相較YOLO系列網(wǎng)絡(luò)具有更好的泛化能力,有效滿足了自動(dòng)駕駛中對(duì)于交通標(biāo)志檢測(cè)準(zhǔn)確性和時(shí)效性的需求。

        猜你喜歡
        交通標(biāo)志運(yùn)算卷積
        交通標(biāo)志認(rèn)得清
        基于雙向特征融合的交通標(biāo)志識(shí)別
        重視運(yùn)算與推理,解決數(shù)列求和題
        基于3D-Winograd的快速卷積算法設(shè)計(jì)及FPGA實(shí)現(xiàn)
        有趣的運(yùn)算
        從濾波器理解卷積
        電子制作(2019年11期)2019-07-04 00:34:38
        基于傅里葉域卷積表示的目標(biāo)跟蹤算法
        “整式的乘法與因式分解”知識(shí)歸納
        撥云去“誤”學(xué)乘除運(yùn)算
        交通標(biāo)志小課堂
        午夜视频在线观看国产| 亚洲熟妇色xxxxx欧美老妇y| 亚洲五月激情综合图片区| 成人激情视频一区二区三区| 美女视频在线观看亚洲色图| 免费无遮挡禁18污污网站| 日本午夜福利| 99精品又硬又爽又粗少妇毛片| 亚洲精品一品区二品区三区| 国产精品毛片一区二区| 亚洲欧美日韩专区一| 黄色国产一区在线观看| 一区二区三区字幕中文| 50岁熟妇大白屁股真爽| 久久频精品99香蕉国产| 精品人妻日韩中文字幕| 免费又黄又爽又色的视频| 一个人在线观看免费视频www| 成人免费无码a毛片| 久久久亚洲av午夜精品| 2019日韩中文字幕mv| 久久久国产精品ⅤA麻豆| 亚洲av黄片一区二区| 末成年人av一区二区| 中文亚洲成a人片在线观看| 亚洲性69影视| 亚洲福利二区三区四区| 人妻无码一区二区不卡无码av| 激情五月婷婷综合| 亚洲自偷自拍另类第一页| 久久精品丝袜高跟鞋| 亚洲va中文字幕无码久久不卡| 国产不卡视频一区二区在线观看| 四季极品偷拍一区二区三区视频| 久久亚洲av无码西西人体| 久久精品国产亚洲AV成人公司| 国产三级一区二区三区在线观看| 东北少妇不戴套对白第一次| 国产精品天天狠天天看| 91亚洲色图在线观看| 极品尤物人妻堕落沉沦|