亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        自動駕駛中基于卷積神經(jīng)網(wǎng)絡(luò)的行人檢測研究

        2020-11-02 02:34:32楊康陳麗
        電腦知識與技術(shù) 2020年25期
        關(guān)鍵詞:卷積神經(jīng)網(wǎng)絡(luò)

        楊康 陳麗

        摘要:針對行人檢測中檢測精度低和速度慢的問題,文章提出了一種改進的U-NET網(wǎng)絡(luò)架構(gòu)。為了提高系統(tǒng)的檢測精度,采用了多尺度融合技術(shù)來構(gòu)建多層卷積神經(jīng)網(wǎng)絡(luò)(CNN)。為了提高檢測速度,改善了網(wǎng)絡(luò)結(jié)構(gòu)的特征通道數(shù)量,減少了大量的計算時間,以滿足自動駕駛領(lǐng)域數(shù)據(jù)處理的實時性。在訓(xùn)練階段,使用批歸一化(BN)算法對每一層的輸入數(shù)據(jù)進行歸一化,以加快模型的收斂速度。實驗結(jié)果表明,改進的網(wǎng)絡(luò)模型可以在保證一定的檢測精度的前提下,提高系統(tǒng)的檢測速度,并滿足實時性要求。

        關(guān)鍵詞:行人檢測;多尺度融合;卷積神經(jīng)網(wǎng)絡(luò);批量歸一化

        中圖分類號:TP18 ? ? ? ?文獻標識碼:A

        文章編號:1009-3044(2020)25-0022-03

        Abstract: In this paper, an improved U-NET network architecture is proposed to solve the problems of low detection accuracy and slow detection speed in pedestrian detection. To improve the detection accuracy of the system, a multi-scale fusion technology is used to build a multi-layer convolutional neural network (CNN). To improve the detection speed, the number of feature channels in the network framework was modified, and a large amount of calculation time was reduced to meet the real-time nature of processing data in the field of autonomous driving. In the training phase, a batch normalization (BN) algorithm is used to normalize the input data of each layer to accelerate the model's convergence speed. The experimental results show that the improved network model can improve the detection speed of the system under the premise of ensuring a certain detection accuracy, and meet the real-time requirements.

        Key words: Pedestrian detection; Multi-scale fusion; Convolutional neural network; Batch normalization

        1 引言

        隨著深度學(xué)習(xí)的發(fā)展[1],作為計算機視覺的重要分支[2],行人檢測受到了學(xué)術(shù)界和工業(yè)界的廣泛關(guān)注。在汽車智能駕駛領(lǐng)域具有廣闊的應(yīng)用前景。目前,常用的行人檢測算法模型有R-CNN、Fast R-CNN和Faster R-CNN[3],隨著網(wǎng)絡(luò)結(jié)構(gòu)的優(yōu)化和調(diào)整,其檢測精度在逐漸增高,但是網(wǎng)絡(luò)結(jié)構(gòu)隨之變得復(fù)雜,導(dǎo)致計算量大幅增大,因而其檢測速度變慢,無法滿足自動駕駛領(lǐng)域的實時性要求[4]。

        傳統(tǒng)的卷積神經(jīng)網(wǎng)絡(luò)由卷積層、池化層[5]、全連接層和分類層組成,網(wǎng)絡(luò)經(jīng)過一系列的卷積和池化操作后,輸入圖像被映射為固定大小的特征向量。最后,分類器基于輸入特征向量執(zhí)行圖像的分類。全卷積神經(jīng)網(wǎng)絡(luò)(FCN)是在卷積層的特征圖上執(zhí)行上采樣操作,可以有效地保留圖像的空間尺寸信息,并對圖像進行精確分割[6]。

        而本文提出的改進的U-NET網(wǎng)絡(luò)則是在U-NET網(wǎng)絡(luò)的基礎(chǔ)上,對網(wǎng)絡(luò)的結(jié)構(gòu)和參數(shù)進行適當(dāng)?shù)母倪M,利用多尺度融合技術(shù)和批量歸一化算法,對COCO數(shù)據(jù)集進行訓(xùn)練,從而實現(xiàn)行人的快速檢測與分割。

        2 相關(guān)工作

        2.1 U-NET網(wǎng)絡(luò)結(jié)構(gòu)

        U-NET網(wǎng)絡(luò)是一個全卷積的網(wǎng)絡(luò),由于結(jié)構(gòu)類似于U形,因此稱為U-NET網(wǎng)絡(luò),該網(wǎng)絡(luò)由左側(cè)的編碼單元和右側(cè)的解碼單元組成,U-NET網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示。

        在編碼單元,使用2個3×3的卷積層,在卷積層后面再加上一個ReLU非線性層,進行下采樣過程中,使用2×2的最大池化層,每次下采樣后,特征通道數(shù)會增加2倍;在解碼單元,每一次上采樣過程用2×2的反卷積層來實現(xiàn)尺寸的倍增,并且伴隨著當(dāng)前層的特征通道數(shù)的減少,然后將編碼單元的特征復(fù)制到相應(yīng)的解碼單元上,繼續(xù)用2個3×3的卷積核進行特征的提取,最后一層用一個1×1的卷積核將特征層映射到輸出層。

        U-NET網(wǎng)絡(luò)結(jié)構(gòu)中,由于沒有全連接層,可以減少網(wǎng)絡(luò)的參數(shù),網(wǎng)絡(luò)的輸入可以是任意尺寸的RGB圖像。網(wǎng)絡(luò)結(jié)構(gòu)通過橫向連接,融合編碼部分的特征來輔助解碼部分恢復(fù)分辨率,橫向結(jié)構(gòu)將具有相同特征分辨率的具有豐富空間位置信息的淺層特征與語義信息豐富的高層特征融合。由于該算法在特征提取的時候,將高層的特征與底層的特征融合在一起了,有效地避免了部分特征信息的丟失,所以相較于一些普通的檢測算法,檢測精度會更好。

        3 改進的U-NET網(wǎng)絡(luò)

        改進1:以U-NET初始網(wǎng)絡(luò),在其基礎(chǔ)上進行通道數(shù)目的修改,來減少計算負擔(dān),以提高系統(tǒng)的檢測速度。具體的操作為:初始的圖片裁剪為416*416*3,卷積層的C1、C2、C3、C4和C5層通道數(shù)目設(shè)置為64,之后與相對應(yīng)的卷積層進行特征融合,最后經(jīng)過Sigmoid激活函數(shù)輸出結(jié)果。

        改進2:為了增加訓(xùn)練速度,由于修改了網(wǎng)絡(luò)結(jié)構(gòu)以及參數(shù),可能導(dǎo)致無法收斂,需要在每層網(wǎng)絡(luò)中加入BN層,使學(xué)習(xí)的收斂速度加快,以提高訓(xùn)練速度。

        改進3:改進后的U-NET網(wǎng)絡(luò)模型,能實時分割出視頻序列的行人,將分割靜態(tài)圖片上升到分割動態(tài)視頻序列的高度,達到實時性的目的。

        4 實驗設(shè)計

        4.1 實驗平臺的配置

        深度學(xué)習(xí)算法在圖像處理上,一般涉及大量的計算,對電腦的軟硬件要求較高,該實驗環(huán)境的配置內(nèi)容如表1所示。

        4.2 實驗數(shù)據(jù)集的選擇

        目前提供的行人檢測數(shù)據(jù)集由很多種,如MIT、INRIA、Caltech、ETH等數(shù)據(jù)集,文章選用的是由微軟提供的COCO數(shù)據(jù)集[9],該數(shù)數(shù)據(jù)集是能夠滿足行人檢測的要求,有大量的樣本供模型進行訓(xùn)練以及測試。而實驗用到的數(shù)據(jù)集,考慮到只是針對行人,所以在數(shù)據(jù)集預(yù)處理之前,檢索并提取了數(shù)據(jù)集中的64115張待訓(xùn)練的行人圖片,以供模型訓(xùn)練。

        4.3 網(wǎng)絡(luò)訓(xùn)練的流程圖

        改進的U-NET網(wǎng)絡(luò)訓(xùn)練流程圖,如圖4所示。在模型訓(xùn)練中,首先,網(wǎng)絡(luò)需要加載訓(xùn)練集中的數(shù)據(jù),然后執(zhí)行數(shù)據(jù)預(yù)處理,隨后將處理后的數(shù)據(jù)發(fā)送到網(wǎng)絡(luò)進行訓(xùn)練。當(dāng)預(yù)測值和實際值之間的Dice系數(shù)大于設(shè)置的閾值N時,保存模型的數(shù)據(jù);當(dāng)Dice系數(shù)小于設(shè)定的閾值N時,重新進行訓(xùn)練。當(dāng)Epoch大于20時,重新加載模型并調(diào)整網(wǎng)絡(luò)的超參數(shù),然后重新加載模型并訓(xùn)練數(shù)據(jù),直到完成所有數(shù)據(jù)訓(xùn)練完成為止。

        4.4 算法的評價指標

        算法的好壞需要用合適的評價標準去判斷,好的評估標準不僅能客觀地評價算法性能,還能夠進一步指導(dǎo)算法的改進方向。

        由于采用的是改進的U-NET網(wǎng)絡(luò),來分割待檢測圖片中的行人,所以在評價該檢測算法指標的時候用Dice系數(shù)。

        4.5 優(yōu)化函數(shù)的選取

        深度卷積神經(jīng)網(wǎng)絡(luò)的訓(xùn)練算法有很多種,其優(yōu)化函數(shù)常用的有經(jīng)典的隨機梯度下降法(Stochastic Gradient Descent,SGD)、自適應(yīng)梯度算法(Adaptive Gradient,AdaGrad)和自適應(yīng)矩估計算法(Adaptive Moment Estimation)。

        在卷積神經(jīng)網(wǎng)絡(luò)中,而對于深度學(xué)習(xí)來說,需要的訓(xùn)練集較大才能訓(xùn)練出優(yōu)秀的網(wǎng)絡(luò)模型。實驗采用的COCO數(shù)據(jù)集屬于龐大的行人數(shù)據(jù)集,對于龐大的數(shù)據(jù)量,一次迭代過程來加載整個訓(xùn)練集,會加大顯卡的計算負荷,其次,計算需要很長的時間,降低了網(wǎng)絡(luò)的收斂速度。

        為了解決這個問題,提出了基于動量的優(yōu)化算法,最終采用Adam優(yōu)化函數(shù)[10],Adam是一種可以替代傳統(tǒng)隨機梯度下降(SGD)過程的一階優(yōu)化算法,它能基于訓(xùn)練數(shù)據(jù)迭代地更新神經(jīng)網(wǎng)絡(luò)的權(quán)重。

        Adam算法有如下幾個優(yōu)點:(1)有高效的計算,所需的內(nèi)存少,適合解決大規(guī)模數(shù)據(jù)和參數(shù)的優(yōu)化問題。(2)超參數(shù)能直觀的解釋,因為Adam是給每個參數(shù)計算不同的更新速率的方法,經(jīng)過偏置校正后,每次迭代的學(xué)習(xí)率都有一個確定的范圍,使得參數(shù)比較平穩(wěn)。(3)有慣性保持的效果,因為該算法記錄了梯度的一階矩,即以前的所有梯度與當(dāng)前梯度的平均,使每一次更新時,上一次更新的梯度與當(dāng)前更新的梯度不會相差過大,因而梯度會平滑且穩(wěn)定的過渡,可以廣泛應(yīng)用于不穩(wěn)定的目標函數(shù)的優(yōu)化。

        5 結(jié)論

        改進后的U-NET網(wǎng)絡(luò),在訓(xùn)練完從訓(xùn)練集提取出來全部的64115張行人照片后,在訓(xùn)練過程中,損失以及訓(xùn)練的準確率曲線如圖5所示。

        圖中曲線反映了在訓(xùn)練集和測試集中損失的變化和準確率的變化。由訓(xùn)練以及測試結(jié)果可得:在訓(xùn)練集中,該網(wǎng)絡(luò)模型經(jīng)過訓(xùn)練后,準確率達到0.953,在測試集中,準確率也可以到達0.928;在訓(xùn)練集中,損失函數(shù)無限接近于0,但是在測試集中,損失函數(shù)在0.1附近。

        下圖為改進的模型訓(xùn)練后檢測行人并分割的幾組照片,檢測結(jié)果如圖6所示。

        實驗結(jié)果表明:改進后的模型檢測單張照片的時間約為0.38秒,有時檢測速度會突破到0.1秒以內(nèi),與普通的U-NET網(wǎng)絡(luò)相比,檢測單張照片的時間縮短了很多(普通U-NET模型檢測時間約為1秒),所以改進后的網(wǎng)絡(luò)結(jié)構(gòu)保證了檢測精度的情況下,確實提高了系統(tǒng)的檢測速度。

        參考文獻:

        [1] LeCun Y,Bengio Y,Hinton G.Deep learning[J].Nature, 2015,521(7553):436-444.

        [2] Viola P,Jones M J.Robust real-time face detection[J].International Journal of Computer Vision, 2004,57(2):137-154.

        [3] Ren SQ,HeKM,Girshick R,etal.Faster R-CNN:towards real-time object detection with region proposal networks[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2017,39(6):1137-1149.

        [4] 王若辰.基于深度學(xué)習(xí)的目標檢測與分割算法研究[D].北京:北京工業(yè)大學(xué),2016.

        [5] 李旭冬,葉茂,李濤.基于卷積神經(jīng)網(wǎng)絡(luò)的目標檢測研究綜述[J].計算機應(yīng)用研究,2017,34(10):2881-2886,2891.

        [6] Wang W G,Shen J B,Shao L.Video salient object detection via fully convolutional networks[J].IEEE Transactions on Image Processing,2018,27(1):38-49.

        [7] 王紅霞,周家奇,辜承昊,等.用于圖像分類的卷積神經(jīng)網(wǎng)絡(luò)中激活函數(shù)的設(shè)計[J].浙江大學(xué)學(xué)報(工學(xué)版),2019,53(7):1363-1373.

        [8] 劉長征,張磊.語音識別中卷積神經(jīng)網(wǎng)絡(luò)優(yōu)化算法[J].哈爾濱理工大學(xué)學(xué)報,2016,21(3):34-38.

        [9] 余勝,陳敬東,王新余.基于深度學(xué)習(xí)的復(fù)雜場景下車輛識別方法[J].計算機與數(shù)字工程,2018,46(9):1871-1875,1915.

        [10] 董洲洋,徐衛(wèi)明,莊昊,等.深度學(xué)習(xí)的BP神經(jīng)網(wǎng)絡(luò)在GNSS水準擬合中的應(yīng)用[J].海洋測繪,2019,39(5):26-29.

        【通聯(lián)編輯:唐一東】

        猜你喜歡
        卷積神經(jīng)網(wǎng)絡(luò)
        基于深度神經(jīng)網(wǎng)絡(luò)的微表情識別
        卷積神經(jīng)網(wǎng)絡(luò)中減少訓(xùn)練樣本時間方法研究
        卷積神經(jīng)網(wǎng)絡(luò)語言模型研究
        基于卷積神經(jīng)網(wǎng)絡(luò)的車輛檢索方法研究
        基于卷積神經(jīng)網(wǎng)絡(luò)溫室智能大棚監(jiān)控系統(tǒng)的研究
        基于深度卷積神經(jīng)網(wǎng)絡(luò)的物體識別算法
        深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
        基于深度卷積網(wǎng)絡(luò)的人臉年齡分析算法與實現(xiàn)
        軟件工程(2016年8期)2016-10-25 15:47:34
        深度學(xué)習(xí)技術(shù)下的中文微博情感的分析與研究
        軟件(2016年5期)2016-08-30 06:27:49
        基于卷積神經(jīng)網(wǎng)絡(luò)的樹葉識別的算法的研究
        国产免费人成视频在线| 一本久到久久亚洲综合| 无码啪啪人妻| 国产夫妻精品自拍视频| 国产av无码专区亚洲版综合| 先锋影音av最新资源| 免费看一级a女人自慰免费| 亚洲综合网中文字幕在线| 久久九九精品国产av| 国产午夜精品一区二区三区嫩草| 国产麻豆精品一区二区三区v视界| 国产三级国产精品三级在专区| 开心五月骚婷婷综合网| av免费不卡国产观看| 亚洲av色先锋资源电影网站| 欧美在线观看www| 国产中文字幕免费视频一区 | 精品一区二区三区无码视频| 爆乳午夜福利视频精品| 亚洲丰满熟女乱一区二区三区| 男人女人做爽爽18禁网站| 亚洲碰碰人人av熟女天堂| 国产男女乱婬真视频免费| 久久精品亚洲熟女av麻豆| 国产成人精品午夜二三区波多野| 日本免费不卡一区| 亚洲一区二区女优视频| 国产精品亚洲专区无码不卡| 国产精品久久久久av福利动漫| 日本少妇被爽到高潮的免费| 亚洲综合精品一区二区 | 欧美日本国产三级在线| 少妇人妻字幕一区二区| 成人免费播放视频777777 | 国产激情无码视频在线播放性色| 久久精品国产自清天天线 | 久久久久亚洲av无码尤物| 精品午夜一区二区三区| 精品日韩一级免费视频| 午夜成人无码福利免费视频| 啊v在线视频|