亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        YOLOv4算法改進(jìn)及其在霧天交通事故識(shí)別中的應(yīng)用

        2021-06-29 02:08:54楊晨
        科學(xué)技術(shù)創(chuàng)新 2021年17期
        關(guān)鍵詞:霧天卷積精度

        楊晨

        (太原師范學(xué)院,山西 晉中030619)

        1 概述

        十字路口是交通事故高發(fā)區(qū),一旦發(fā)生事故,出警處理不及時(shí)會(huì)造成路口擁堵,從而降低通行效率。交通事故識(shí)別主要依賴于車輛異常行為的檢測與判定。車輛異常行為可以通過物體檢測和目標(biāo)跟蹤算法,對畫面中存在的每個(gè)物體的運(yùn)動(dòng)軌跡進(jìn)行檢測,從而實(shí)現(xiàn)細(xì)化到目標(biāo)和具體行為的檢測。以往的目標(biāo)檢測主要依賴人工手段,如車輛巡邏、目擊者報(bào)警或人為觀測。這些方法雖然簡單直接,但需要占用大量的時(shí)間、人力和物力。此外,霧天環(huán)境下,空氣中懸浮粒子對光線的散射,會(huì)導(dǎo)致監(jiān)控視頻畫面模糊,色彩失真以及影像后期處理難的問題。因此,在霧天環(huán)境下,對車輛實(shí)現(xiàn)準(zhǔn)確且快速檢測具有重要的實(shí)踐意義。

        2012年,AlexNet[1]在ImageNet視覺挑戰(zhàn)賽中一舉奪冠,卷積神經(jīng)網(wǎng)絡(luò)重回大眾視野。在大量的車輛檢測算法中,基于深度學(xué)習(xí)的方法被廣泛使用。深度卷積神經(jīng)網(wǎng)絡(luò)能自主完成對目標(biāo)特征的學(xué)習(xí),提取關(guān)鍵信息,從而具有更強(qiáng)的判別能力和泛化能力。深度卷積神經(jīng)網(wǎng)絡(luò)目前主要存在兩類主流算法:一類是將region proposal與CNN網(wǎng)絡(luò)結(jié)合起來所構(gòu)建的基于分類的R-CNN[2]系列目標(biāo)檢測框架(two stage);另一類是將目標(biāo)檢測轉(zhuǎn)換為回歸問題的算法(one stage),如YOLO(You Only Look Once)[3]系列和SSD(Single Shot Multibox Detector)[4]算法。文獻(xiàn)[13]提出一種基于YOLOv3的深度學(xué)習(xí)目標(biāo)檢測算法YOLOv3-fass,該方法相較于YOLOv3更高效,更準(zhǔn)確。文獻(xiàn)[14]引入soft-NMS,提出一種解決車輛重疊導(dǎo)致識(shí)別精度低的改進(jìn)YOLOv3算法,能夠比較好的解決霧天車輛識(shí)別精度低的問題,但檢測網(wǎng)絡(luò)速度較慢;文獻(xiàn)[15]對有30層卷積神經(jīng)網(wǎng)絡(luò)的Darknet53骨架網(wǎng)絡(luò)構(gòu)架進(jìn)行改進(jìn),在減少網(wǎng)絡(luò)成本的同時(shí)提高了檢測精度,但該網(wǎng)絡(luò)現(xiàn)階段的速度還不能滿足需求;文獻(xiàn)[16]構(gòu)建了一種輕量級(jí)的YOLOv3-Mobilenetv2檢測網(wǎng)絡(luò),不僅減少了模型參數(shù)量,而且速度也得到明顯提升,但檢測精度相較于YOLOv4依舊偏低。

        因此,為提高對霧天環(huán)境下車輛識(shí)別的檢測性能,本文對YOLOv4算法進(jìn)行改進(jìn),并基于改進(jìn)算法對霧天環(huán)境下的車輛檢測進(jìn)行研究。首先,運(yùn)用圖像去霧算法對采集到的視頻畫面進(jìn)行去霧預(yù)處理;其次,在原始YOLOv4基礎(chǔ)上,減少模型卷積層數(shù)使模型輕量化,加快模型預(yù)測速度。最后,通過實(shí)驗(yàn)驗(yàn)證改進(jìn)后的YOLOv4算法的檢測效果,并將不同圖像去霧算法與YOLOv4和本文改進(jìn)的YOLOv4進(jìn)行組合,并對其性能進(jìn)行對比。

        2 去霧算法分析

        圖2 SSR去霧算法效果圖

        圖3 MSR去霧算法效果圖

        圖4 MSRCR去霧算法效果圖

        圖像去霧一直是計(jì)算機(jī)視覺的熱點(diǎn)問題,現(xiàn)有的去霧算法主要分為兩類,一類是以Kaiming He[5]在2009年CVPR提出的基于暗通道處理的方法為代表的物理模型復(fù)原方法;另一類是基于圖像處理的增強(qiáng)方法。物理模型復(fù)原方法比圖像增強(qiáng)方法處理的時(shí)間要長,所以本文選擇使用圖像增強(qiáng)方法進(jìn)行去霧處理。

        在圖像增強(qiáng)算法中,常用的去霧算法包括:SSR(單尺度Retinex)算法、MSR(多尺度Retinex)算法以及MSRCR(彩色恢復(fù)多尺度)算法。利用SSR算法、MSR算法以及MSRCR算法分別對RESIDE數(shù)據(jù)集中包含交通場景的300張圖片進(jìn)行去霧處理的實(shí)驗(yàn)效果如圖1~4所示,結(jié)果顯示,去霧效果MSRCR算法最佳。

        圖1 數(shù)據(jù)集原圖

        3 YOLOv4 算法

        YOLOv4算法原理:

        YOLOv4屬于目標(biāo)檢測one stage算法。它由俄羅斯獨(dú)立研究員Alexey Bochkovskiy[6]在YOLO[3]、YOLOv2[7]、YOLOv3[8]的 基礎(chǔ)上,通過對數(shù)據(jù)處理、主干網(wǎng)絡(luò)、激活函數(shù)以及損失函數(shù)改進(jìn)優(yōu)化而來。其基本思想是把圖片劃分成S*S的網(wǎng)格,每個(gè)網(wǎng)格針對不同的區(qū)域獨(dú)立進(jìn)行檢測。如果待檢測目標(biāo)中心落入某個(gè)網(wǎng)格,則由該網(wǎng)格負(fù)責(zé)檢測該目標(biāo)。

        YOLOv4網(wǎng)絡(luò)結(jié)構(gòu)主要由四部分組成,分別是Input(輸入端)、BackBone(主干網(wǎng)絡(luò))、Neck以及Prediction(預(yù)測部分)。YOLOv4網(wǎng)絡(luò)結(jié)構(gòu)如圖5所示。

        圖5顯示,YOLOv4算法的主干網(wǎng)絡(luò)由CSPDarknet53、Mish激活函數(shù)以及Dropblock組成三部分組成。下采樣從R1-R5,一共經(jīng)歷5次。在目標(biāo)檢測階段,為了更好的提取融合特征,在BackBone和預(yù)測部分之間通常需要插入一些結(jié)構(gòu),這些結(jié)構(gòu)被稱為Neck。Neck包括SPP(空間金字塔池化)和FPN(特征金字塔)+PANet(路徑聚合網(wǎng)絡(luò))兩種結(jié)構(gòu)。SPP結(jié)構(gòu)使用1*1、5*5、9*9以及13*13四種不同尺度大小的池化核對特征層R5進(jìn)行三次卷積后的結(jié)果進(jìn)行最大池化,可以有效增加主干特征的接收范圍,分離出顯著的上下文特征。FPN是特征金字塔,增加極小的計(jì)算量,處理好物體檢測中的多尺度變化問題。

        圖5 YOLOv4網(wǎng)絡(luò)結(jié)構(gòu)圖

        PANet結(jié)構(gòu)是源于2018年CVPR圖像分割領(lǐng)域PANet[9]的創(chuàng)新點(diǎn),因?yàn)樗軠?zhǔn)確地保存空間信息,有助于正確定位像素點(diǎn),形成mask。它通過保留空間信息來增強(qiáng)實(shí)例分割過程。經(jīng)過PANet結(jié)構(gòu)后,YOLOv4網(wǎng)絡(luò)將進(jìn)行大小為3*3和1*1的兩次卷積操作,判別三個(gè)特征層的先驗(yàn)框,判斷框內(nèi)是否有目標(biāo)和目標(biāo)分類結(jié)果,之后進(jìn)行非極大值抑制,對先驗(yàn)框調(diào)整得出最終結(jié)果。

        4 YOLOv4 算法改進(jìn)

        4.1 輸入端自適應(yīng)圖片縮放

        YOLOv4中提出了Bag of freebies的概念[10],用于構(gòu)建只改變訓(xùn)練策略或只增加訓(xùn)練成本使檢測器并獲得更高精度但不增加推理成本的方法。YOLOv4的輸入端通常采用608*608尺寸,但在實(shí)際使用時(shí),由于很多數(shù)據(jù)集中的圖片寬高不一,所以通常需要把原始圖片統(tǒng)一縮放到一個(gè)標(biāo)準(zhǔn)尺寸,然后再送入檢測網(wǎng)絡(luò)中。之前對圖片進(jìn)行縮放時(shí)會(huì)填充部分黑邊,使之達(dá)到檢測網(wǎng)絡(luò)輸入尺寸。如果黑邊填充過多,會(huì)造成信息冗余,影響網(wǎng)絡(luò)推理速度。

        為增強(qiáng)YOLOv4算法的魯棒性以及面對復(fù)雜數(shù)據(jù)集處理的能力,本文在YOLOv4算法基礎(chǔ)上,引入了自適應(yīng)圖片縮放方法。

        首先,用預(yù)計(jì)縮放尺寸分別除以原始圖片長寬得到兩個(gè)縮放比例系數(shù),如式(1)所示:

        其中,n表示預(yù)計(jì)縮放尺寸的長和寬,L,W表示原始圖片的長度;ρL,ρW表示預(yù)計(jì)縮放長度除以原始長度、寬度得到的縮放比例系數(shù)。

        其次,選擇較小的比例系數(shù)分別和原始圖片的長、寬相乘得到縮放后的尺寸,如式(2)所示:

        其中ρ表示較小的比例系數(shù),L1,W1分別為縮放后的尺寸。

        用圖片原始長寬同上一步得到的縮放尺寸作差,得出需要填充黑邊數(shù)值,如式(3)所示:

        其中,X表示預(yù)計(jì)尺寸減去式(3)中得到縮放后尺寸,Y表示兩端需要填充的黑邊數(shù)量,32表示2的5次方,因?yàn)閅OLOv4共有5次下采樣。

        4.2 網(wǎng)絡(luò)結(jié)構(gòu)改進(jìn)

        Alexey Bochkovskiy等人在YOLOv4中提出了CSPDarknet53結(jié)構(gòu),該結(jié)構(gòu)是在YOLOv3主干網(wǎng)絡(luò)Darknet53的基礎(chǔ)上,借鑒2019年CSPNet[11]的經(jīng)驗(yàn)產(chǎn)生的一種主干網(wǎng)絡(luò)結(jié)構(gòu)。它能夠輸出三個(gè)不同大小的特征層,即,特征層R3和R4分別經(jīng)過一次1*1的卷積操作后進(jìn)入PANet結(jié)構(gòu),然后進(jìn)行特征融合;特征層R5則經(jīng)過1*1、3*3以及1*1三次卷積后進(jìn)入SPP結(jié)構(gòu)進(jìn)行最大池化。這些操作可以提取到更豐富的特征,但是對于道路車輛檢測,CSPDarknet53網(wǎng)絡(luò)便顯得有些過于復(fù)雜,因?yàn)檫^多的參數(shù)會(huì)導(dǎo)致訓(xùn)練時(shí)間變長,進(jìn)而減慢檢測速度,甚至導(dǎo)致模型過擬合。

        為了提高道路車輛目標(biāo)檢測速度,從保持現(xiàn)有精度、簡化網(wǎng)絡(luò)結(jié)構(gòu)角度出發(fā),本文借鑒CSPDarknet53,提出一種參數(shù)數(shù)量較少、運(yùn)算復(fù)雜度較低的特征提取網(wǎng)絡(luò)。

        首先,第一個(gè)卷積層用32個(gè)大小為3*3的濾波器對608*608的輸入圖像進(jìn)行操作,其次將先前卷積層的輸出作為輸入使用64個(gè)1*1的濾波器對其進(jìn)行操作,并實(shí)施下采樣;之后簡化網(wǎng)絡(luò)結(jié)構(gòu),將主干網(wǎng)絡(luò)中原有CSP結(jié)構(gòu)中位于2,4,6,8,16下采樣后的殘差結(jié)構(gòu)從原來的1,2,8,8,4個(gè)簡化為1,2,5,5,2個(gè),并把所有卷積層通道數(shù)變?yōu)樵瓉淼囊话?。網(wǎng)絡(luò)復(fù)雜度的降低,減少了模型的參數(shù)量,在提高檢測速度的同時(shí),還可以避免算法過擬合問題。

        CSPDarknet53網(wǎng)絡(luò)結(jié)構(gòu)采用下采樣結(jié)構(gòu)進(jìn)行下采樣,這種采樣在特征圖向后傳播的途徑中會(huì)損失大量的特征信息。為此,本文在原有主干網(wǎng)絡(luò)基礎(chǔ)上添加了一條下采樣支路,該支路上的下采樣模塊和網(wǎng)絡(luò)中相同尺度模塊具有相同的通道數(shù)量。改進(jìn)后的網(wǎng)絡(luò)如圖6所示。

        圖6 改進(jìn)后的網(wǎng)絡(luò)結(jié)構(gòu)圖

        5 實(shí)驗(yàn)結(jié)果與分析

        5.1 實(shí)驗(yàn)平臺(tái)

        實(shí)驗(yàn)使用UA-DETRAC車輛識(shí)別數(shù)據(jù)集對YOLOv4改進(jìn)算法的精度和速度進(jìn)行評(píng)估。實(shí)驗(yàn)基于CSPDarknet53神經(jīng)網(wǎng)絡(luò)框架實(shí)現(xiàn)。實(shí)驗(yàn)平臺(tái)配置為:操作系統(tǒng):Windows 10;CPU:AMD Ryzen 7 3700X@3.59 GHz八核處理器;32G內(nèi)存;GPU:NVIDIA GeForce RTX 3080 11G顯存;深度學(xué)習(xí)框架:PyTorch;編程語言:Python。

        5.2 數(shù)據(jù)集描述

        UA-DETRAC車輛識(shí)別數(shù)據(jù)集[12]是一個(gè)具有挑戰(zhàn)性的現(xiàn)實(shí)世界多目標(biāo)檢測和多目標(biāo)跟蹤的基準(zhǔn)數(shù)據(jù)集。UA-DETRAC數(shù)據(jù)集在北京和天津的24個(gè)不同地點(diǎn)拍攝,視頻內(nèi)容涵蓋各種交通模式和條件,包括城市公路、交通十字路口和t型路口。每段視頻以每秒25幀的速度錄制,分辨率為960*540像素。在UA-DETRAC數(shù)據(jù)集中,有超過14萬幀和8250輛車被人工標(biāo)注,總記121萬物體的邊界框被標(biāo)記。

        實(shí)驗(yàn)從UA-DETRAC數(shù)據(jù)集中挑出雨霧天場景圖片16000張,按照8:2比例劃分訓(xùn)練集和驗(yàn)證集。

        5.3 執(zhí)行細(xì)節(jié)

        訓(xùn)練過程中,在選擇VOC預(yù)訓(xùn)練權(quán)重的基礎(chǔ)上對YOLOv4算法進(jìn)行超參數(shù)設(shè)定,并使用隨機(jī)梯度下降法對損失函數(shù)進(jìn)行。實(shí)驗(yàn)將初始學(xué)習(xí)率設(shè)定為0.001 ,動(dòng)量參數(shù)為0.9 ,權(quán)重衰減因子為0.005 ,Batchsize設(shè)定為32,每個(gè)epoch迭代334次,總迭代次數(shù)16700次,并在每一輪epoch訓(xùn)練開始時(shí)開啟Mosaic數(shù)據(jù)增強(qiáng)。整個(gè)訓(xùn)練過程中的損失函數(shù)經(jīng)過50個(gè)epoch訓(xùn)練后網(wǎng)絡(luò)已經(jīng)收斂,收斂時(shí)的訓(xùn)練損失值為6.7144 。

        5.4 算法性能測試

        5.4.1 評(píng)價(jià)指標(biāo)

        在目標(biāo)檢測中,使用IoU的值衡量目標(biāo)真實(shí)邊界框和預(yù)測邊界框的重合程度,計(jì)算方式為兩個(gè)區(qū)域的交并比。一般情況下,當(dāng)IoU的值大于0.5 時(shí)認(rèn)為成功預(yù)測到目標(biāo)。平均精度(AP,Average Precision)通過精確度(P,Precision)和召回率(R,Recall)計(jì)算,并以平均精度AP(mAP)值作為算法檢測精度的綜合評(píng)價(jià)指標(biāo)。一般來說,mAP值越高說明模型檢測精度越高,檢測效果越好。

        P、R、AP、mAP計(jì)算公式如下:

        式中,TP表示正確劃分為正樣本的個(gè)數(shù);FP表示錯(cuò)誤劃分為正樣本的個(gè)數(shù);FN為錯(cuò)誤劃分為負(fù)樣本的個(gè)數(shù)。

        式中,∑APclasses表示所有類別AP值總和,Nclasses表示所有類別總數(shù)。

        此外,算法檢測速度也是衡量算法性能好壞的重要指標(biāo)。本文檢測速度計(jì)算公式如下:

        5.4.2 實(shí)驗(yàn)結(jié)果與分析

        為驗(yàn)證YOLOv4改進(jìn)算法的性能,首先,將YOLOv4改進(jìn)算法同原始YOLOv4算法在從UA-DETRAC數(shù)據(jù)集中挑出的由16000張雨霧天場景圖片組成的數(shù)據(jù)集上進(jìn)行了實(shí)驗(yàn)對比。其次,將不同的去霧算法,即SSR算法、MSR算法以及MSRCR算法同原始YOLOv4算法以及YOLOv4改進(jìn)算法隨機(jī)組合之后,對各種算法的性能再次進(jìn)行了對比。實(shí)驗(yàn)結(jié)果如表1所示。

        表1 不同算法檢測性能對比

        實(shí)驗(yàn)結(jié)果表明,相比于YOLOv4算法,YOLOv4改進(jìn)算法在霧天車輛識(shí)別精度和速度上均有提升;但效果最好的是結(jié)合MSRCR的YOLOv4改進(jìn)算法。其在所選數(shù)據(jù)集上,相較于直接使用YOLOv4,mAP提升了1.23 %,檢測速度提升到33.6 fps。

        如圖7所示,7(a)為YOLOv4算法效果圖,7(b)為改進(jìn)的YOLOv4+SSR算法效果圖,7(c)為改進(jìn)的YOLOv4+MSR算法效果圖,7(d)為改進(jìn)的YOLOv4+MSRCR算法效果圖。

        圖7 各種算法實(shí)驗(yàn)結(jié)果對比圖

        6 結(jié)論

        本文結(jié)合去霧算法MSRCR對YOLOv4算法進(jìn)行改進(jìn),在一定程度上能改善霧天車輛識(shí)別精度低、速度慢的問題。通過對輸入端圖片進(jìn)行自適應(yīng)縮放,加快網(wǎng)絡(luò)速度;其次,減少下采樣后的殘差結(jié)構(gòu)減少網(wǎng)絡(luò)的參數(shù)量,在主干網(wǎng)絡(luò)上添加下采樣支路提升網(wǎng)絡(luò)表達(dá)能力。改進(jìn)后的YOLOv4和去霧算法結(jié)合,使霧天車輛檢測精度依舊有不同程度提升,效果最好的去霧算法是MSRCR。但是,本文算法仍存在一定缺陷,在復(fù)雜場景下會(huì)出現(xiàn)少量漏檢,錯(cuò)檢情況。在之后工作中,會(huì)繼續(xù)針對發(fā)現(xiàn)的問題研究改進(jìn)本算法,進(jìn)一步提高車輛的檢測性能。

        猜你喜歡
        霧天卷積精度
        基于3D-Winograd的快速卷積算法設(shè)計(jì)及FPGA實(shí)現(xiàn)
        為什么在霧天不適宜進(jìn)行晨練
        從濾波器理解卷積
        電子制作(2019年11期)2019-07-04 00:34:38
        基于DSPIC33F微處理器的采集精度的提高
        電子制作(2018年11期)2018-08-04 03:25:38
        微波輻射計(jì)對昆明霧天的監(jiān)測及應(yīng)用
        基于傅里葉域卷積表示的目標(biāo)跟蹤算法
        GPS/GLONASS/BDS組合PPP精度分析
        霧天高速公路交通安全風(fēng)險(xiǎn)評(píng)估
        改進(jìn)的Goldschmidt雙精度浮點(diǎn)除法器
        一種基于卷積神經(jīng)網(wǎng)絡(luò)的性別識(shí)別方法
        无码字幕av一区二区三区| 男女男生精精品视频网站| 中文字幕有码在线亚洲| 厨房人妻hd中文字幕| 国产精品嫩草影院av| 欧美 亚洲 国产 日韩 综AⅤ | 妺妺窝人体色www婷婷| 成全高清在线播放电视剧| 亚洲 无码 制服 丝袜 自拍| 亚洲情久久久精品黄色| 亚洲国产亚综合在线区| 国产伦精品一区二区三区免费| 久久福利青草精品资源| 日本视频一区二区这里只有精品| 国产亚洲精品综合一区| 少妇高清精品毛片在线视频| 97中文字幕在线观看| 精品国产av一区二区三四区| 天天做天天添av国产亚洲| 欧美巨大性爽| 性无码国产一区在线观看| 国产精品一区二区韩国av| 国产亚洲精品美女久久久| 日韩欧美一区二区三区中文精品| 日本一级淫片免费啪啪| 亚洲天堂av在线网站| 性色av无码中文av有码vr| 麻豆国产巨作AV剧情老师| 亚洲av区一区二区三区| 日本爽快片100色毛片| 丰满少妇被猛烈进入无码| 扒开双腿操女人逼的免费视频| 亚洲国产精品av在线| 国产国拍精品av在线观看按摩 | 97久久人人超碰超碰窝窝| 欧洲一区在线观看| 大陆少妇一区二区三区| 精品国产av一区二区三区| 亚洲影院丰满少妇中文字幕无码| 色se在线中文字幕视频| 欧美肥妇毛多水多bbxx水蜜桃 |