亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于輕量型卷積神經(jīng)網(wǎng)絡(luò)的交通標(biāo)志識(shí)別

        2020-01-05 05:37:53龍曼儀李茂軍張輝劉芾
        關(guān)鍵詞:卷積神經(jīng)網(wǎng)絡(luò)圖像增強(qiáng)

        龍曼儀 李茂軍 張輝 劉芾

        摘? ?要:針對(duì)卷積神經(jīng)網(wǎng)絡(luò)在交通標(biāo)志識(shí)別實(shí)時(shí)性不好,對(duì)設(shè)備硬件要求過高的缺點(diǎn),提出了一種具有實(shí)時(shí)性,高精度的基于輕量型卷積神經(jīng)網(wǎng)絡(luò)的改進(jìn)網(wǎng)絡(luò)。一方面引入深度可分離卷積和激活函數(shù)Mish,加快網(wǎng)絡(luò)的訓(xùn)練和識(shí)別速度,降低對(duì)硬件設(shè)備的要求;另一方面通過對(duì)網(wǎng)絡(luò)架構(gòu)及層次的改進(jìn),同時(shí)合理改變卷積核的大小和數(shù)目,加強(qiáng)圖片特征的表達(dá)與傳遞。在BelgiumTSC交通標(biāo)志數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果表明,改進(jìn)后網(wǎng)絡(luò)明顯提高了網(wǎng)絡(luò)訓(xùn)練速度,同時(shí)識(shí)別精度也略高于原網(wǎng)絡(luò),驗(yàn)證了改進(jìn)方法的有效性。通過與其他模型相比,該模型能夠更快速準(zhǔn)確完成交通標(biāo)志識(shí)別任務(wù),驗(yàn)證了該方法的可行性。

        關(guān)鍵詞:卷積神經(jīng)網(wǎng)絡(luò);交通標(biāo)識(shí);圖像增強(qiáng);深度可分離卷積;激活函數(shù)

        中圖分類號(hào):TP183? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ?文獻(xiàn)標(biāo)識(shí)碼A

        Traffic Sign Recognition Based on Lightweight

        Convolutional Neural Network

        LONG Man-yi1,LI Mao-jun1 ,ZhANG Hui2,LIU Fu1

        (1. College of Electrical and Information Engineering,Changsha University

        of Science and Technology,Changsha,Hunan 410114,China

        2. College of Robotics,Hunan University,Changsha,Hunan 410114,China)

        Abstract:Aiming at the shortcomings of convolutional neural network in the recognition of traffic signs that the real-time performance is not good,and the equipment hardware requirements are too high,a real-time and high-precision improved network based on lightweight convolutional neural network is proposed. Separate convolution and activation function Mish,speed up the network training and recognition speed,reduce the requirements for hardware equipment;on the other hand,through the improvement of the network architecture and level,while reasonably changing the size and number of convolution kernels,the expression of image features and transfer. The experimental results on the BelgiumTSC traffic sign dataset show that the improved network significantly increases the network training speed,and the recognition accuracy is slightly higher than the original network,which verifies the effectiveness of the method in this paper. Compared with other models,this model can complete the task of traffic sign recognition more quickly and accurately,which verifies the feasibility of this method.

        Key words:convolutional neural network;traffic sign;image processing;depth separable convolution;activation function

        交通標(biāo)志識(shí)別是自動(dòng)駕駛汽車高級(jí)駕駛員輔助系統(tǒng)的重要功能,它能夠從圖像中識(shí)別交通標(biāo)志,預(yù)計(jì)類別,來(lái)給車輛提供道路上的交通信息,以防違章及出現(xiàn)事故[1-2]。早期交通標(biāo)志識(shí)別是通過其顏色空間對(duì)圖像劃分閾值進(jìn)行分類,主要是通過特征提取以及分類器選擇兩步作為研究[3-4],但隨著2012年AlexNet在圖像識(shí)別上嶄露頭角,部分學(xué)者漸漸開始將研究重點(diǎn)轉(zhuǎn)移到神經(jīng)網(wǎng)絡(luò)[5]。Sermanet等人提出多尺度CNN應(yīng)用于交通標(biāo)志識(shí)別任務(wù),得到了很高的準(zhǔn)確率[6]。Ciresan等人使用多列深度卷積神經(jīng)網(wǎng)絡(luò)MCDNN(Multi-Column Deep Neural Network)在GTSRB(German Traffic Sign Benchmark)數(shù)據(jù)集上獲得99%的準(zhǔn)確率,但是運(yùn)算量大,網(wǎng)絡(luò)計(jì)算速度較慢[7]。盡管前兩者準(zhǔn)確率較高,但其實(shí)際可應(yīng)用性不強(qiáng),要求較好的硬件設(shè)備。傳統(tǒng)卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)復(fù)雜,識(shí)別較慢,會(huì)導(dǎo)致無(wú)法應(yīng)用到實(shí)際場(chǎng)景中檢測(cè)交通標(biāo)志。因此網(wǎng)絡(luò)模型選取了層數(shù)較少的輕量型網(wǎng)絡(luò)LeNet-5[8]作為基層網(wǎng)絡(luò)進(jìn)行改進(jìn),并利用了Mobile Net[9]中提出的深度可分離卷積,減少了參數(shù)量和計(jì)算量,為了提高信息傳遞效率,加強(qiáng)特征的傳遞,將原降采樣層替換為卷積層,加深網(wǎng)絡(luò),并將卷積核尺寸修改為3×3。通過自對(duì)比實(shí)驗(yàn),驗(yàn)證了改進(jìn)網(wǎng)絡(luò)改進(jìn)的有效性,通過在BelgiumTSC數(shù)據(jù)集上訓(xùn)練和測(cè)試,得到了比較好的結(jié)果。

        1? ?基于輕量級(jí)的卷積神經(jīng)網(wǎng)絡(luò)模型

        1.1? ?改進(jìn)深度可分離卷積

        在傳統(tǒng)的卷積計(jì)算過程中,每一步的計(jì)算都會(huì)考慮所有通道對(duì)應(yīng)區(qū)域的計(jì)算,產(chǎn)生大量的參數(shù)并且加大計(jì)算量。而Mobile Net網(wǎng)絡(luò)提出了深度可分離卷積,將常規(guī)卷積分成逐通道卷積(Depthwise Convolution,DC)和逐點(diǎn)卷積(Pointwise Convolution,PC),先對(duì)每一通道的區(qū)域進(jìn)行卷積計(jì)算,然后進(jìn)行通道間的信息交互,實(shí)現(xiàn)了將通道內(nèi)卷積和通道間卷積完全分離。

        常規(guī)卷積計(jì)算,輸入圖像大小為DF × DF的M通道圖像,用DK × DK大小的卷積核進(jìn)行卷積,得到輸出的特征圖為DI × DI的N通道圖像,那么標(biāo)準(zhǔn)的卷積核的計(jì)算量為DF × DF × DK × DK × M × N。

        對(duì)于深度可分離卷積,是將逐通道卷積和逐點(diǎn)卷積兩步中的計(jì)算量相加。深度卷積部分使用的是一個(gè)大小為DK × DK × 1的卷積核進(jìn)行特征提取,計(jì)算量為DF × DF × DK × DK × M。逐點(diǎn)卷積部分是利用N個(gè)1 × 1的點(diǎn)卷積對(duì)通道間的信息進(jìn)行融合,實(shí)現(xiàn)通道間的信息傳遞并且控制了通道數(shù)量,計(jì)算量為DF × DF × M × N,因此深度可分離卷積的計(jì)算量為DF × DF × DK × DK × M + DF × DF × M × N。

        深度可分離卷積與傳統(tǒng)卷積的計(jì)算量之比為:

        ■=

        ■ + ■? ? ?(1)

        N≥1且DK≥1,深度可分離卷積極大的減少了參數(shù)量,加快了計(jì)算過程。改進(jìn)網(wǎng)絡(luò)中采用的卷積核大小為5 × 5,因此卷積部分的參數(shù)量和計(jì)算量可以減小到原來(lái)的1/25。例圖1為改進(jìn)后卷積神經(jīng)網(wǎng)絡(luò)C3卷積層的改進(jìn)過程。

        在深度可分離卷積中,為了更好的提取特征,減少參數(shù)間依存關(guān)系,緩解由于卷積層數(shù)加深可能引起的過擬合發(fā)生。在每經(jīng)過一個(gè)Depthwise Convolution和Pointwise Convolution的輸出都會(huì)經(jīng)過ReLU非線性激活函數(shù)的處理,以加強(qiáng)非線性表達(dá)能力。同時(shí)為了加快網(wǎng)絡(luò)的收斂速度,防止梯度爆炸,提高模型的精度,會(huì)在激活函數(shù)前加BN層(Batch Normalization)。但是考慮到ReLU可能會(huì)使神經(jīng)網(wǎng)絡(luò)的一部分處于“死亡”狀態(tài),會(huì)使神經(jīng)元信息丟失。MobileNet中深度可分離卷積部分在Depthwise Conv模塊后選擇Leaky ReLU代替ReLU作為激活函數(shù),當(dāng)輸入 時(shí),保持一個(gè)很小的梯度,使神經(jīng)元能夠在非激活狀態(tài)下也能夠有一個(gè)非零梯度更新參數(shù),避免“死亡”,在Pointwise Conv后選擇利用h-swish函數(shù)作為激活函數(shù),來(lái)解決網(wǎng)絡(luò)層數(shù)增加造成梯度消失及過擬合等問題[11]。改進(jìn)網(wǎng)絡(luò)選擇DigantaMisra提出的Mish函數(shù)替代ReLU函數(shù),與ReLU函數(shù)和swish函數(shù)相比,Mish激活函數(shù)每一點(diǎn)更加平滑,允許更好的信息深入神經(jīng)網(wǎng)絡(luò),負(fù)值的時(shí)候允許較小的負(fù)梯度流入,保證信息不會(huì)中斷,從而得到更好的準(zhǔn)確性和泛化能力。實(shí)驗(yàn)結(jié)果表明,當(dāng)網(wǎng)絡(luò)層次加深時(shí),Mish激活函數(shù)能夠保持更好的訓(xùn)練穩(wěn)定性,在平均準(zhǔn)確率和峰值準(zhǔn)確率方面也有了全面的提高[10]。

        Mish激活函數(shù)的表達(dá)式如式(2):

        f(x) = x·tanh(ζ(x))? ? ? ?(2)

        ζ(x) = ln(1 + ex)? ? ? ?(3)

        能夠?qū)崿F(xiàn)運(yùn)算精度和運(yùn)算速度的兼容。優(yōu)化后的深度可分離卷積如圖2所示:

        1.2? ?改進(jìn)的卷積神經(jīng)網(wǎng)絡(luò)

        交通標(biāo)志識(shí)別在行駛過程種會(huì)受很多方面的影響,如泥漬,樹枝遮擋,車速過快導(dǎo)致標(biāo)志采取模糊,霧霾天氣導(dǎo)致標(biāo)志不能完整顯示,盡管一般的交通標(biāo)志已經(jīng)采用了抗氧化反折射的材料,但還是隨著時(shí)間的推移不可避免的出現(xiàn)顏色變化的現(xiàn)象,這使得基于顏色分割的識(shí)別方式并不可靠。因此如何快速高質(zhì)量的對(duì)交通標(biāo)志進(jìn)行識(shí)別,是研究的重點(diǎn)。其改進(jìn)后的網(wǎng)絡(luò)結(jié)構(gòu)圖如圖3所示,符號(hào) 前數(shù)字為特征圖大小,符號(hào) 后為特征圖個(gè)數(shù)。

        原神經(jīng)網(wǎng)絡(luò)輸入圖像是32 × 32單通道的灰度圖,但是交通標(biāo)志在32 × 32的尺度下難以分辨,因此這里將網(wǎng)絡(luò)改成了64 × 64的輸入。同時(shí)考慮到交通標(biāo)志的背景以及構(gòu)成會(huì)比手寫數(shù)字要復(fù)雜得多,因此增加了每層卷積核的個(gè)數(shù),原本的網(wǎng)絡(luò)卷積層數(shù)較淺,特征提取比較粗糙,若運(yùn)用在結(jié)構(gòu)復(fù)雜的交通標(biāo)志識(shí)別上,準(zhǔn)確率不高。因此將原來(lái)第二層和第四層卷積核為2 × 2,步長(zhǎng)為2的降采樣層改為卷積核大小為2 × 2,步長(zhǎng)為2 的卷積層。卷積層能夠提取的特征越精細(xì),那么輸入圖片能夠被識(shí)別的可能性就越大,識(shí)別精度越高。改進(jìn)后的網(wǎng)絡(luò)不包括輸入層一共有八層,包括五個(gè)卷積層,一個(gè)池化層,一個(gè)全連接層以及最后的輸出層,其中輸入為64×64大小的灰度圖像。為了提取更多的信息,這里適當(dāng)?shù)脑黾恿司矸e核的個(gè)數(shù)。最后通過softmax分類器,輸出62個(gè)交通標(biāo)志類別的概率。

        表1為改進(jìn)后卷積神經(jīng)網(wǎng)絡(luò)每層對(duì)應(yīng)的卷積核大?。↘ernel Size),步長(zhǎng)(Stride),和特征圖大小(Feature map size)及個(gè)數(shù)(Feature map number)。

        卷積層與池化層輸出特征圖維度的計(jì)算公式為:

        Y = ■ + 1? ? ? (4)

        X:輸入的維度,W:卷積核大小,stride:步長(zhǎng),pad:擴(kuò)充邊緣。

        關(guān)于第i層卷積層的計(jì)算,設(shè)xlj代表的是第l層中存在的第j個(gè)特征圖,其表達(dá)式如下:

        xlj = f■xl-1j? ? *klij + blj? ? (5)

        其中xl-1j? ? 為第l-1層存在的第 個(gè)特征圖,Mj為輸入特征圖集合,k為卷積核,b為偏置參數(shù),f()為選擇的激活函數(shù),*代表卷積運(yùn)算。

        其中池化層采用最大池化,假如輸入特征映射組為x∈RM × N × D,對(duì)于其中每個(gè)特征映射Xd,將其劃分為很多區(qū)域Yd? ? m,n,1≤m≤M′,1≤n≤N′這些區(qū)域可重疊可不重疊。采用最大池化則取一個(gè)區(qū)域內(nèi)所有神經(jīng)元的最大值,公式如式(6):

        Yd? ? m,n = ■xi? ? ? ? (6)

        其中xi為區(qū)域內(nèi)Rdk內(nèi)每個(gè)神經(jīng)元的激活值。

        對(duì)每一個(gè)輸入特征映射Xd的M′ × N′個(gè)區(qū)域進(jìn)行子采樣,得到池化層的輸出特征映射Yd = {Yd? ? m,n},1≤m≤M′,1≤n≤N′。

        2? ?實(shí)驗(yàn)過程及結(jié)果

        2.1? ?數(shù)據(jù)集準(zhǔn)備

        BelgiumTSC交通標(biāo)志數(shù)據(jù)集的圖像已經(jīng)截取好且清晰度較好,數(shù)據(jù)集包括了各個(gè)方位的圖片,在實(shí)驗(yàn)初期更適合網(wǎng)絡(luò)的訓(xùn)練。因此選用BelgiumTSC交通標(biāo)志數(shù)據(jù)集作為實(shí)驗(yàn)數(shù)據(jù)進(jìn)行對(duì)比實(shí)驗(yàn)。

        BelgiumTSC是比利時(shí)一個(gè)公開的交通標(biāo)志數(shù)據(jù)集,共有62種不同類型的交通標(biāo)志,包含3773個(gè)訓(xùn)練樣本和2032個(gè)測(cè)試樣本,圖片大小為 64 × 64。數(shù)據(jù)集中的62類圖片均為行駛車輛從真道路場(chǎng)景拍攝到所得,涵蓋了不同天氣、背景、污損程度、光照條件的交通標(biāo)志。圖4為BelgiumTSC交通標(biāo)志數(shù)據(jù)集分布直方圖。

        但是從BelgiumTSC交通數(shù)據(jù)集各類交通標(biāo)志的分布直方圖來(lái)看,它的各類交通標(biāo)志分布并不均勻。增強(qiáng)機(jī)器學(xué)習(xí)魯棒性的最直觀的一個(gè)策略就是使用更多的數(shù)據(jù)來(lái)訓(xùn)練模型,即數(shù)據(jù)集增強(qiáng)。因此本次實(shí)驗(yàn)對(duì)訓(xùn)練集中數(shù)據(jù)量較少的類別進(jìn)行數(shù)據(jù)擴(kuò)充,隨機(jī)采用了加入隨機(jī)高斯噪聲、亮度調(diào)整、平移三種數(shù)據(jù)增強(qiáng)策略,經(jīng)裁剪和擴(kuò)充后,訓(xùn)練數(shù)據(jù)集達(dá)到21076張,新的數(shù)據(jù)集在擴(kuò)充之后均衡性得到了提升,擴(kuò)增后的BelgiumTSC數(shù)據(jù)集分布直方圖如圖5所示。實(shí)驗(yàn)采用擴(kuò)增后的BelgiumTSC數(shù)據(jù)集進(jìn)行訓(xùn)練,其中隨機(jī)抽取80%為訓(xùn)練集,20%為測(cè)試集。

        交通標(biāo)志數(shù)分布情況

        2.2? ?實(shí)驗(yàn)過程及結(jié)果

        實(shí)驗(yàn)平臺(tái)為Windows(64 bit)操作系統(tǒng),12GB內(nèi)存,采用tensorflow深度學(xué)習(xí)框架,軟件環(huán)境為pycharm。

        訓(xùn)練期間參數(shù)的設(shè)置:本模型采用Adam優(yōu)化器,學(xué)習(xí)率采用衰減的方式,初始學(xué)習(xí)率設(shè)置為學(xué)習(xí)率為10-3;每一千次降低一次學(xué)習(xí)率,降低比例為原來(lái)的0.1倍。

        為了防止訓(xùn)練過程中過擬合,權(quán)重衰減項(xiàng)為0.0005,動(dòng)量為0.9。由于LeNet-5網(wǎng)絡(luò)在迭代5500已經(jīng)趨于穩(wěn)定,因此這里將迭代次數(shù)設(shè)置為5500。與softmax激活函數(shù)相對(duì)應(yīng)的loss函數(shù)(損失函數(shù)),在此為交叉熵?fù)p失函數(shù):

        L = ■■-■yic log(pic)? ? (7)

        其中:N為樣本的總數(shù),M為類別的數(shù)量,yic為指示變量(0或1),如果該類別和樣本 的類別相同就是1,否則是0,pic為觀測(cè)樣本i屬于類別c的預(yù)測(cè)概率。圖6為交通標(biāo)志識(shí)別流程。

        如圖7為傳統(tǒng)LeNet-5網(wǎng)絡(luò)與改進(jìn)后的卷積神經(jīng)網(wǎng)絡(luò)的準(zhǔn)確率曲線以及損失曲線圖。由圖7中準(zhǔn)確率曲線可以看到,兩個(gè)網(wǎng)絡(luò)在迭代3000次左右都趨于穩(wěn)定,之后逐漸趨于1,沒有出現(xiàn)過擬合現(xiàn)象,說明網(wǎng)絡(luò)得到了充分的訓(xùn)練,改進(jìn)后的卷積神經(jīng)網(wǎng)絡(luò)準(zhǔn)確度有了明顯的提升。從損失曲線圖來(lái)看,網(wǎng)絡(luò)在訓(xùn)練了150次左右,逐漸收斂,訓(xùn)練平穩(wěn)后改進(jìn)后網(wǎng)絡(luò)損失值更小,準(zhǔn)確度更高。說明基于卷積神經(jīng)網(wǎng)絡(luò)的改進(jìn)是快速而有效的。

        關(guān)于改進(jìn)后的卷積神經(jīng)網(wǎng)絡(luò)部分交通標(biāo)志識(shí)別結(jié)果如圖8,其中圖8選取了準(zhǔn)確率比較低的幾種情況。BelgiumTSC交通數(shù)據(jù)集一共有62個(gè)小類。從圖8的檢測(cè)結(jié)果來(lái)看,在特殊環(huán)境下,標(biāo)志牌表面模糊,部分遮擋,曝光過度等對(duì)模型識(shí)別準(zhǔn)確率有一定的影響,但并未造成圖片誤識(shí)。圖片a由于標(biāo)志遮擋,造成圖片準(zhǔn)確率比較低,測(cè)試圖片準(zhǔn)

        確率為86.73%。圖片b由于強(qiáng)光反射造成曝光過度,但由于其標(biāo)志線條并沒有因?yàn)楸粡?qiáng)光改變,沒有造成識(shí)別錯(cuò)誤,準(zhǔn)確率較低,為89.05%。圖片c由于原始圖片采集速度過快,造成了圖片模糊,準(zhǔn)確率為83.47%。大部分類別圖片在清晰度,曝光度都正常的情況下,其準(zhǔn)確率都在95%以上。通過觀察數(shù)據(jù)集發(fā)現(xiàn),準(zhǔn)確率比較低的類別可能存在以下不同的情況。原數(shù)據(jù)集圖片比較少且圖片光線較暗的類別如類11,類60等,數(shù)據(jù)集中圖片類型角度比較單一,網(wǎng)絡(luò)能夠?qū)W習(xí)的特征較少,造成測(cè)試集準(zhǔn)確率比較低。類別51,其所含的交通標(biāo)志結(jié)構(gòu)特征比較復(fù)雜,學(xué)習(xí)難度相對(duì)大,類別47,類別48,類別49的相似度極大也可能造成圖片誤識(shí)。實(shí)驗(yàn)過程中錯(cuò)誤分類的圖片,大都是曝光過度,過于模糊等肉眼比較難以分辨的圖片。在正常情況下,少量噪聲和光照污染不會(huì)影響圖片的識(shí)別結(jié)果。總結(jié)來(lái)說,改進(jìn)后的卷積神經(jīng)網(wǎng)絡(luò)在準(zhǔn)確度和性能上來(lái)說都有了一定程度的提升。

        2.3? ?自對(duì)比實(shí)驗(yàn)

        為了驗(yàn)證深度可分離卷積和卷積層與全連接層的連接對(duì)實(shí)驗(yàn)結(jié)果的有效性,因此進(jìn)行了自對(duì)比實(shí)驗(yàn)。為了驗(yàn)證深度可分離卷積只對(duì)改進(jìn)網(wǎng)絡(luò)的速度有效,并不會(huì)影網(wǎng)絡(luò)模型的準(zhǔn)確度,因此將深度可卷積分離與常規(guī)卷積進(jìn)行對(duì)比,即設(shè)定改進(jìn)條件一,即保持在改進(jìn)卷積神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)上,將卷積層改為常規(guī)卷積,設(shè)定只采用改進(jìn)條件一為對(duì)比模型一。設(shè)定改進(jìn)條件二為在改進(jìn)卷積神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)上,將卷積層C2和C4還原為降采樣層,驗(yàn)證其特征傳遞的有效性,此為對(duì)比模型二。實(shí)驗(yàn)中關(guān)于其他的超參數(shù)設(shè)定一致。

        關(guān)于對(duì)比實(shí)驗(yàn)結(jié)果如表2,從實(shí)驗(yàn)結(jié)果來(lái)看,引入深度可分離卷積降低了網(wǎng)絡(luò)訓(xùn)練負(fù)擔(dān),訓(xùn)練時(shí)間由50 min減少到了35 min,測(cè)試耗時(shí)也相對(duì)應(yīng)的減少了,同時(shí)也驗(yàn)證了其改進(jìn)并不會(huì)影響到準(zhǔn)確率,而增加的卷積層對(duì)準(zhǔn)確度有一定的提升作用。網(wǎng)絡(luò)識(shí)別精度由97.5%提升到了98.7%,盡管網(wǎng)絡(luò)的加深會(huì)導(dǎo)致計(jì)算量的增加,但從對(duì)比實(shí)驗(yàn)來(lái)看,在未引入深度可分離卷積時(shí),訓(xùn)練時(shí)間為50分鐘,同時(shí)加深網(wǎng)絡(luò)和深度可分離卷積,網(wǎng)絡(luò)的訓(xùn)練時(shí)間明顯降低,因此驗(yàn)證了本網(wǎng)絡(luò)的相關(guān)改進(jìn)是有效的。

        2.4? ?算法實(shí)驗(yàn)結(jié)果比較

        為了客觀的驗(yàn)證改進(jìn)網(wǎng)絡(luò)的有效性,因此基于相同的數(shù)據(jù)集將改進(jìn)網(wǎng)絡(luò)模型與其他交通標(biāo)志識(shí)別算法的結(jié)果進(jìn)行比較,表3列舉了不同算法在BelgiumTSC數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn)的準(zhǔn)確率及訓(xùn)練耗時(shí),隨機(jī)抽取八十張圖片進(jìn)行測(cè)試的耗時(shí),以及模型大小的對(duì)比。

        表3包含七種相關(guān)交通標(biāo)志識(shí)別模型的運(yùn)行時(shí)間和所占內(nèi)存大小。從表中數(shù)據(jù)可以看出,改進(jìn)的卷積神經(jīng)網(wǎng)絡(luò),在識(shí)別準(zhǔn)確率上高達(dá)98.72%,僅略低于VGG16網(wǎng)絡(luò)的98.93%和MCDNN網(wǎng)絡(luò)的99.52%;網(wǎng)絡(luò)模型訓(xùn)練時(shí)長(zhǎng)為35分鐘,高于MobileNetV3網(wǎng)絡(luò)的20分鐘和ShuffNet網(wǎng)絡(luò)的30分鐘,這是因?yàn)榫W(wǎng)絡(luò)層數(shù)的不斷加深,雖然網(wǎng)絡(luò)精度會(huì)逐漸提高,但是對(duì)應(yīng)的網(wǎng)絡(luò)訓(xùn)練時(shí)長(zhǎng)也會(huì)增加;在數(shù)據(jù)集上的測(cè)試速度為3秒,明顯優(yōu)于表中LeNet-5網(wǎng)絡(luò)的10秒,VGG16網(wǎng)絡(luò)的12秒,MCDNN網(wǎng)絡(luò)的15秒,表明了深度可分離卷積有效的加快了識(shí)別速率;在內(nèi)存占用比上為7.6/MB,相比于表中VGG16網(wǎng)絡(luò)的129/MB,MCDNN網(wǎng)絡(luò)的153/MB減小了十倍左右。從整體性能來(lái)說,改進(jìn)網(wǎng)絡(luò)的性能高于表中其他網(wǎng)絡(luò),實(shí)時(shí)性和準(zhǔn)確率滿足輔助駕駛系統(tǒng)交通識(shí)別的要求,同時(shí)降低了算法對(duì)運(yùn)行平臺(tái)設(shè)備的硬性要求。

        3? ?結(jié)? ?論

        提出了一種輕量型交通標(biāo)志識(shí)別模型,對(duì)卷積神經(jīng)網(wǎng)絡(luò)的識(shí)別精度和速度性能從兩個(gè)方面提出改進(jìn)。一方面通過改進(jìn)網(wǎng)絡(luò)結(jié)構(gòu),加深網(wǎng)絡(luò)層,利用卷積層替換降采樣層,另一方面結(jié)合深度可分離卷積,大大減小網(wǎng)絡(luò)計(jì)算量,提高網(wǎng)絡(luò)的識(shí)別速度。在擴(kuò)充后的BelgiumTSC交通數(shù)據(jù)集實(shí)驗(yàn)結(jié)果表明,改進(jìn)后的網(wǎng)絡(luò)相對(duì)于原網(wǎng)絡(luò)在識(shí)別精度和速度性能上都有所提升,同時(shí)還降低了設(shè)備的占用內(nèi)存,各項(xiàng)性能均優(yōu)于原網(wǎng)絡(luò)。應(yīng)用在實(shí)際的自動(dòng)駕駛中,為滿足實(shí)際的道路交通情況,要求網(wǎng)絡(luò)對(duì)小目標(biāo)的交通標(biāo)志有更強(qiáng)的識(shí)別性,后期可以考慮引入Faster-RCNN中anchor的思想,以及重新設(shè)置IOU的閾值來(lái)增大對(duì)小目標(biāo)的交通標(biāo)識(shí)檢測(cè)率。

        參考文獻(xiàn)

        [1]? ? 童英,楊會(huì)成. 基于改進(jìn)卷積神經(jīng)網(wǎng)絡(luò)的實(shí)時(shí)交通標(biāo)志檢測(cè)方法[J]. 激光與光電子學(xué)進(jìn)展,2019,56(07)123-129.

        [2]? ? 馬永杰,李雪燕,宋曉鳳. 基于改進(jìn)深度卷積神經(jīng)網(wǎng)絡(luò)的交通標(biāo)志識(shí)別[J]. 激光與光電子學(xué)進(jìn)展,2018,55(12):250-257.

        [3]? ? 徐巖,韋鎮(zhèn)余. 一種改進(jìn)的交通標(biāo)志圖像識(shí)別算法[J]. 激光與光電子學(xué)進(jìn)展,2017,54(02):124-131.

        [4]? ? 汪貴平,盛廣峰,黃鶴,等. 基于改進(jìn)LeNet-5網(wǎng)絡(luò)的交通標(biāo)志識(shí)別方法[J]. 科學(xué)技術(shù)與工程,2018,18(34):78-84.

        [5]? ? KRIZHEVSKY A,SUTSKEVER I,HINTON G E. Imagenet classification with deep convolutional neuralnetworks [C]//Advances in Neural Information Processing Systems,2012:1097-1105.

        [6]? ? SERMANET P,LECUN Y. Traffic sign recognition with multiscale convolutional networks [C]//International Joint Conference ference on Neural Networks,2011:2809-2813.

        [7]? ? CIRESAN D,MEIER U,MASCI J. Multi-column deep neural network for traffic sign classification[J].? Neural Networks,2012,32:333-338.

        [8]? ? LECUN Y,BOTTOU L. Gradient-based learning applied to document recognition[J].? Proceedings of the IEEE,1998,86(11):2278-2324.

        [9]? ? HOWARD A. Searching for mobile NetV3[C].2019 IEEE/CVF International Conference on Computer Vision(ICCV),Seoul,Korea(South),2019:1314-1324.

        [10]? MISR A D. Mish:a self regularized non monotonic neural activation Function[J]. arXiv preprint arXiv:1908.08681,2019.

        [11]? 魯寒凝. 基于HOG特征的交通標(biāo)志檢測(cè)與識(shí)別算法研究[D].西安:長(zhǎng)安大學(xué),2015.

        [12]? 于雅潔. 基于DNN技術(shù)的交通標(biāo)志識(shí)別方法研究[D].沈陽(yáng)工業(yè)大學(xué),2016.

        [13]? SIMONYAN K,ZISSERMAN A.Very deep convolutional networks for large-scale image recognition[J].? arXivpreprint arXiv:1409.15562014.

        [14]? ZHANG X,ZHOU X,LIN M,et al. An extremely efficient convolutional neural network for mobile devices[J].? arXiv preprint arXiv:1707.01083.

        [15] SANDLER M,HOWARDA,ZHU M. MobileNetv2:inverted residuals and linear bottlenecks. [C]// IEEE Conference on Computer Vision and Pattern Recognition,2018:4510-4520.

        [16]? HUANG G,LIU Z,MAATEN LVD. Densely connected convolutional networks. [C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition,2017:2261-2269.

        [17]? VEIT A,WILBER M J,BELONGIES. Residual networks behave like ensembles of relatively shallow networks.[C]// Neural Information Processing Systems,2016,10(2):550-558.

        [18]? LI Jia,WANG Zeng-fu. Real-time traffic sign recognition based on efficient CNNs in the wild[J]. IEEE Transactions on Intelligent Transportation Systems,2019,20(3):975-984.

        [19]? NATARAJAN S,ANNAMRAJUA K,BARADKAR C S. Traffic sign recognition using weighted multi- convolutional neural network[J]. IET Intelligent Transport Systems,2018,12(10):1396-1405.

        [20]? STALLKAMP J,SCHLIPSINGM,SALMEN J. The German traffic sign recognition benchmark:a multi-class classification competition[C]//2011 International Joint Conference on Neural Networks,2011:1453-1460.

        猜你喜歡
        卷積神經(jīng)網(wǎng)絡(luò)圖像增強(qiáng)
        基于卷積神經(jīng)網(wǎng)絡(luò)的船舶圖像增強(qiáng)研究
        圖像增強(qiáng)技術(shù)在超跨聲葉柵紋影試驗(yàn)中的應(yīng)用
        水下視覺SLAM圖像增強(qiáng)研究
        虛擬內(nèi)窺鏡圖像增強(qiáng)膝關(guān)節(jié)鏡手術(shù)導(dǎo)航系統(tǒng)
        基于圖像增強(qiáng)的無(wú)人機(jī)偵察圖像去霧方法
        基于卷積神經(jīng)網(wǎng)絡(luò)溫室智能大棚監(jiān)控系統(tǒng)的研究
        基于深度卷積神經(jīng)網(wǎng)絡(luò)的物體識(shí)別算法
        深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
        基于深度卷積網(wǎng)絡(luò)的人臉年齡分析算法與實(shí)現(xiàn)
        軟件工程(2016年8期)2016-10-25 15:47:34
        基于卷積神經(jīng)網(wǎng)絡(luò)的樹葉識(shí)別的算法的研究
        亚洲 欧美 唯美 国产 伦 综合| 2021亚洲国产精品无码| 婷婷色香五月综合激激情| 成人天堂资源www在线| 国产亚洲精选美女久久久久| 国产性色av一区二区| 中文字幕有码在线亚洲 | 日本一二三区在线观看视频| 国产69精品久久久久app下载| 性xxxx视频播放免费| 国产乱子伦视频一区二区三区| 日本黑人人妻一区二区水多多| 最好看的亚洲中文字幕| 亚洲欧美牲交| 男女边吃奶边做边爱视频 | 华人在线视频精品在线| 国产日产精品一区二区三区四区的特点 | 国产av精品一区二区三| 好吊色欧美一区二区三区四区| 9久久精品视香蕉蕉| 国产精品人成在线观看不卡| 一区二区三区高清在线观看视频| 性色欲情网站| 亚洲熟妇无码av不卡在线播放| 中文字幕日本人妻一区| 中文字幕乱码一区在线观看| 成年性生交大片免费看| 中国凸偷窥xxxx自由视频| 秋霞影院亚洲国产精品| 亚洲成a人片77777kkkkk| 日本av天堂一区二区三区| 国产va免费精品观看精品| 国产主播一区二区三区在线观看 | 青青草精品在线免费观看| 国产成人精品久久亚洲高清不卡 | 国产成a人亚洲精品无码樱花| 3344永久在线观看视频| 日韩久久久黄色一级av| 一区二区三区人妻在线| 中文字幕无码成人片| 三上悠亚av影院在线看|