亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于輕量化YOLOv4的交通信息實(shí)時(shí)檢測方法

        2023-02-03 03:01:32郭克友
        計(jì)算機(jī)應(yīng)用 2023年1期
        關(guān)鍵詞:深度檢測模型

        郭克友,李 雪,楊 民

        (北京工商大學(xué) 人工智能學(xué)院,北京 100048)

        0 引言

        隨著相關(guān)技術(shù)的發(fā)展,人們對交通監(jiān)控系統(tǒng)的需求不斷增加,安全輔助駕駛系統(tǒng)的技術(shù)也逐漸走進(jìn)大眾的視野。車輛目標(biāo)檢測是安全輔助駕駛領(lǐng)域極具挑戰(zhàn)的問題,該領(lǐng)域主要分為傳統(tǒng)目標(biāo)檢測算法和基于深度學(xué)習(xí)的檢測算法。

        傳統(tǒng)目標(biāo)檢測方法主要分為三類:以高斯混合模型(Mixture Of Gaussians,MOG)[1]、MOG2[2]和幾何多重網(wǎng)格(Geometric MultiGid,GMG)[3]為代表的背景差分法;以兩幀差法[4]、三幀差法[5]為代表的幀差分法;以及利用相鄰兩幀中對應(yīng)的灰度保持不變原理評估二維圖像變化的光流場法[6]。然而,傳統(tǒng)目標(biāo)檢測算法存在魯棒性差、適應(yīng)性弱等缺陷[7]。

        近年來,深度學(xué)習(xí)技術(shù)在目標(biāo)檢測等任務(wù)中取得了巨大的成就?;谏疃葘W(xué)習(xí)的目標(biāo)檢測主要分為兩大類[8]:1)基于區(qū)域建議的方法,這類算法的典型代表是R-CNN(Region Convolutional Neural Network)[9]、SPP-net(Spatial Pyramid Pooling network)[10]、Fast R-CNN[11]、Faster R-CNN[12]等;2)基于無區(qū)域建議的方法,這類方法主要采用回歸的思想,比較典型的算法如YOLO(You Only Look Once)、SSD(Single Shot multi-box Detector)[13]?;趨^(qū)域建議的方法精度高但速度慢,訓(xùn)練時(shí)間較長;基于無區(qū)域建議的方法準(zhǔn)確度低,對小物體的檢測效果較差,但速度快。

        目前,應(yīng)用最廣泛的是YOLO 系列檢測算法。YOLOv1[14]的檢測速度非??欤w移能力強(qiáng),但是對很小的群體檢測效果不好;YOLOv2[15]經(jīng)多種改進(jìn)方法后,檢測速度得到大幅提升,但檢測精度提升效果并不明顯;YOLOv3[16]中提供了Darknet-53 以及輕量級的Tiny-Darknet 骨干網(wǎng)絡(luò),使用者可根據(jù)需求選擇不同的骨干網(wǎng)絡(luò),其靈活性使得它在實(shí)際的工程中受到了大家的青睞;YOLOv4[17]在傳統(tǒng)YOLO 的基礎(chǔ)上添加了許多實(shí)用技巧,實(shí)現(xiàn)了檢測速度和檢測精度的最佳權(quán)衡;YOLOv5 在性能上略弱于YOLOv4,但在靈活性以及速度上都遠(yuǎn)優(yōu)于YOLOv4。

        為應(yīng)對復(fù)雜路況下車輛多目標(biāo)實(shí)時(shí)檢測的挑戰(zhàn),本文選擇檢測精度和檢測速度較為平衡的YOLOv4 作為研究對象。為進(jìn)一步提高模型的檢測精度,并且使其能夠部署在移動端,提出一種輕量化的YOLOv4 交通信息實(shí)時(shí)檢測方法。由于現(xiàn)有的大型公開數(shù)據(jù)集對道路復(fù)雜場景的適用性不強(qiáng),本文針對真實(shí)交通場景構(gòu)建了與之對應(yīng)的數(shù)據(jù)集,并在測試前對數(shù)據(jù)集進(jìn)行K-means++[18]聚類處理;除此之外,為提高檢測性能,對YOLOv4 網(wǎng)絡(luò)進(jìn)行修改,大幅提高車輛目標(biāo)的檢測速率。

        1 改進(jìn)的YOLOv4

        YOLOv4 網(wǎng)絡(luò)模型結(jié)構(gòu)如圖1 所示,它保留了YOLOv3 的Head 部分,將主干網(wǎng)絡(luò)修改為CSPDarkent53(Cross Stage Partial Darknet53),同時(shí)采用空間金字塔池化(Spatial Pyramid Pooling,SSP)擴(kuò)大感受野,PANet(Path Aggregation Network)作為Neck 部分,并使用了多種訓(xùn)練技巧,對激活函數(shù)和損失函數(shù)進(jìn)行了優(yōu)化,使YOLOv4 在檢測精度和檢測的速度方面均有所提升[19-20]。

        圖1 YOLOv4網(wǎng)絡(luò)結(jié)構(gòu)Fig.1 Network structure of YOLOv4

        CSPDarknet 作為YOLOv4 算法的主干網(wǎng)絡(luò),經(jīng)特征融合后,輸出層的尺寸分別變?yōu)檩斎氤叽绲?/8、1/16、1/32。CSPDarknet53 將原有的Darkent53 中的殘差塊改為CSP 網(wǎng)絡(luò)結(jié)構(gòu)。CSP-DarkNet 在每組Residual block 加上一個(gè)Cross Stage Partial 結(jié)構(gòu);并且,CSP-DarkNet 中還取消了Bottleneck的結(jié)構(gòu),減少了參數(shù)使其更容易訓(xùn)練。

        SPP 以及PANet 將主干網(wǎng)絡(luò)提取的特征圖進(jìn)行融合,SPP對全連接層前的卷積層進(jìn)行不同池化大小的池化,然后拼接,由此增加網(wǎng)絡(luò)感受野。PANet提出了一種bottom-up的信息傳播路徑增強(qiáng)方式,通過對特征的反復(fù)提取實(shí)現(xiàn)了了不同特征圖之間的特征交互。PANet 可以準(zhǔn)確地保存空間信息,有助于正確定位像素點(diǎn),增強(qiáng)實(shí)例分割的過程。

        最后,YOLOv4 Head 進(jìn)行大小為3×3 和1×1 兩次卷積,對特征層的3 個(gè)先驗(yàn)框進(jìn)行目標(biāo)及目標(biāo)種類的判別,并進(jìn)行非極大抑制處理和先驗(yàn)框調(diào)整,最后得到預(yù)測框。

        為了進(jìn)一步提高模型的檢測速率,減少模型的參數(shù)量,本文對YOLOv4 檢測算法做如下改進(jìn):由MobileNet-v3 構(gòu)成主干特征提取模塊,經(jīng)過特征提取后可以得到52×52、26×26、13×13 共3 個(gè)尺度的特征層,減少模型參數(shù)量;使用帶泄露修正線性單元(Leaky Rectified Linear Unit,LeakyReLU)激活函數(shù)代替MobileNet-v3 淺層網(wǎng)絡(luò)中的ReLU 激活函數(shù),提高檢測精度;利用深度卷積網(wǎng)絡(luò)代替?zhèn)鹘y(tǒng)卷積網(wǎng)絡(luò)。下面對網(wǎng)絡(luò)結(jié)構(gòu)的設(shè)計(jì)和參數(shù)設(shè)置進(jìn)行闡述。

        1.1 主干特征提取網(wǎng)絡(luò)

        2019 年,Google 公司在MobileNet 的基礎(chǔ)上提出了MobileNet-v3 網(wǎng)絡(luò),在保持輕量化的同時(shí),MobileNet-v3 模型進(jìn)行了部分優(yōu)化,經(jīng)優(yōu)化后的MobileNet 模型衍生出MobileNet-v3-Large 和MobileNet-v3-Small 兩個(gè)版本。在ILSVRC(ImageNet Large Scale Visual Recognition Challenge)分類任務(wù)中:MobileNet-v3-Large 的準(zhǔn)確率與檢測速度相較于MobileNet-v2 模型分別提高了3.2% 和15%,MobileNetv3-Small 模型相較于MobileNet-v2 模型則分別提高了4.6%和5%;在COCO 數(shù)據(jù)集的檢測過程中,在滿足精度的同時(shí),與使用MobileNet-v2 模型相比,MoboileNet-v3-Large 的檢測速率提升了25%[21]。MobileNet-v3 的整體結(jié)構(gòu)如圖2 所示。

        圖2 MobileNet-v3結(jié)構(gòu)Fig.2 Structure of MobileNet-v3

        MobileNet-v3 在核心構(gòu)架中引入了名為Squeeze-and-Excitation 的神經(jīng)網(wǎng)絡(luò)(SeNet),該網(wǎng)絡(luò)的核心思想是通過顯式建模網(wǎng)絡(luò)卷積特征通道之間的相互依賴關(guān)系來提高網(wǎng)絡(luò)的質(zhì)量,即通過學(xué)習(xí)來自動獲取每個(gè)特征通道的重要程度,并以此為依據(jù)提升有用的特征,抑制用處較小的特征。本文將MobileNet-v3 代替?zhèn)鹘y(tǒng)YOLOv4 的主干的網(wǎng)絡(luò),以減少參數(shù)量,使模型更加輕量化。

        1.2 深度可分離卷積

        在深度可分離卷積出現(xiàn)之前,神經(jīng)網(wǎng)絡(luò)基本由不同尺度的卷積核堆疊而成,伴隨技術(shù)的發(fā)展,人們對網(wǎng)絡(luò)模型的精度要求不斷提高[22]。面對不斷增加的深度核模型參數(shù)量,為了在保證模型精度的情況減少參數(shù)量,2017 年谷歌公司提出了基于深度可分離卷積的MobileNet[23],隨后提出了MobileNet-v2[24]、MobileNet-v3[25]系列網(wǎng)絡(luò)。

        MobileNet-v3 使用深度可分離卷積代替標(biāo)準(zhǔn)卷積塊,深度可分離卷積(DepthWise Conv)由深度卷積和逐點(diǎn)卷積(PointWise Conv)組成,由此可大幅減少模型的理論參數(shù)(Params)和每秒峰值速度(FLoating-point Operations Per Second,F(xiàn)LOPs)。

        設(shè)輸入數(shù)據(jù)為M×M×N,卷積核大小為K×K×P,設(shè)置步長為1,標(biāo)準(zhǔn)卷積操作利用卷積內(nèi)核提取特征,隨后將特征進(jìn)行組合產(chǎn)生新的表示效果[26]。如圖3(a)所示,此時(shí),標(biāo)準(zhǔn)卷積的參數(shù)量為:

        計(jì)算量為:

        深度可分離卷積是將提取特征和結(jié)合特征分為深度卷積和逐點(diǎn)卷積兩步,如圖3(b)所示:在深度卷積過程中,主要對每一個(gè)輸入通道進(jìn)行一個(gè)卷積核的操作,然后利用1 ×1 的卷積將深度卷積的輸出結(jié)果結(jié)合到特征中;隨后通過1 × 1 卷積計(jì)算深度卷積的輸出線性特征組合為新的特征。深度卷積和1 × 1 卷積(逐點(diǎn)卷積)組成了深度可分離卷積[27],其參數(shù)量為:

        圖3 標(biāo)準(zhǔn)卷積與深度可分離卷積Fig.3 Standard convolution and depth separable convolution

        計(jì)算量為:

        兩種卷積對應(yīng)參數(shù)比為:

        通過對比可知,深度可分離卷積與標(biāo)準(zhǔn)卷積相比更加高效,故本文用深度可分離卷積代替原始YOLOv4 網(wǎng)絡(luò)中的標(biāo)準(zhǔn)卷積,以提高檢測效率。

        1.3 損失函數(shù)

        MobileNet-v3 淺層部分利用線性整流單元(Rectified Linear Unit,ReLU)作為激活函數(shù),該函數(shù)主要分為兩部分:在小于0 的部分,激活函數(shù)輸出為0;在大于0 的部分,激活函數(shù)的輸出為輸入,計(jì)算方法如式(7)。

        該函數(shù)的收斂速度快,不存在飽和區(qū)間,在大于0 的部分梯度固定為1,能有效解決Sigmoid 中存在的梯度消失問題;但是當(dāng)一個(gè)巨大的梯度經(jīng)過ReLU 神經(jīng)元時(shí),ReLU 函數(shù)將不具有激活功能,產(chǎn)生“Dead Neuron”現(xiàn)象。

        為避免“Dead Neuron”現(xiàn)象發(fā)生,本文中MobileNet-v3 特征提取網(wǎng)絡(luò)采用帶泄露修正線性單元(Leaky Rectified Linear Unit,LeakyReLU)代替?zhèn)鹘y(tǒng)的ReLU 函數(shù),該函數(shù)可有效地避免上述現(xiàn)象發(fā)生。其計(jì)算方式如下:

        實(shí)際中,LeakyReLU 的α取值一般是0.01。在使用過程中,對于LeakyReLU 激活函數(shù)輸入小于零的部分,也可以計(jì)算得到梯度,而不是像ReLU 一樣值為0,由此可避免ReLU函數(shù)存在的梯度方向鋸齒問題。

        2 數(shù)據(jù)集構(gòu)建

        2.1 數(shù)據(jù)集的制作

        本實(shí)驗(yàn)采用的數(shù)據(jù)集由搭載HP-F515 行車記錄儀的實(shí)驗(yàn)平臺在北京市內(nèi)真實(shí)道路場景下進(jìn)行采集,包括城市主干道、橋梁公路、信號岔口等。采集流程為:為模擬駕駛員真實(shí)駕駛情況,將行車記錄儀搭載于后視鏡處,行車路線全長11 km,行駛時(shí)間分別為15:00—17:00 和19:00—21:00,該時(shí)間段內(nèi),測試路線車流量較大,存在部分擁堵路段。

        對錄制的視頻進(jìn)行分幀,設(shè)置大小為1 920×1 080,并依據(jù)正常公路場景下的車輛目標(biāo)類型將車輛目標(biāo)分為3 種,分別是大型車(large vehicle)、中型車(medium)和小型車(compact car)。實(shí)驗(yàn)共計(jì)12 614 張圖片,并將標(biāo)簽分別設(shè)置為2、3、4,具體情況如表1 所示。

        表1 三種目標(biāo)及其標(biāo)簽Tab.1 Three types of objects and their labels

        2.2 性能測評指標(biāo)

        目標(biāo)檢測中,常通過準(zhǔn)確率P(Precision)、召回率R(Recall),計(jì)算平均精度(Average Precision,AP),平均精度均值(mean Average Precision,mAP)作為目標(biāo)檢測的評價(jià)指標(biāo),如式(9)~(11)所示:

        其中:TP為檢測正確的目標(biāo)數(shù)量;FP為檢測錯誤的目標(biāo)數(shù)量;FN表示漏檢數(shù)量表示所有缺陷類別的AP 值總和;Nclass表示缺陷總類別數(shù)。

        本文另選檢測速度作為模型性能的評價(jià)指標(biāo)之一,利用每秒可處理圖像幀數(shù)量(Frames Per Second,F(xiàn)PS)作為檢測速度的評價(jià)指標(biāo)。FPS 計(jì)算公式如下:

        其中:Numfigure表述樣本檢測數(shù)量;TIME表示檢測耗費(fèi)的時(shí)間。

        2.3 錨框優(yōu)化

        K-means 算法隨機(jī)產(chǎn)生聚類中心,使得每次聚類效果不盡相同,進(jìn)而影響模型的檢測效果。為解決初始聚類中心不斷變化等問題,本文采用K-means++算法進(jìn)行先驗(yàn)框的計(jì)算。設(shè)本文數(shù)據(jù)集內(nèi)包含N個(gè)樣本,數(shù)據(jù)集表示為α={xi|xi=(xi1,xi2,xi3,L,xim),i=1,2,…,N},取集合α中k個(gè)數(shù)據(jù)作為初始的聚類中心點(diǎn)P={pj|pj=(pj1,pj2,pj3,L,pjm),j=1,2,…,k}。通過式(13)可得樣本點(diǎn)xi到質(zhì)心pj在m維空間的歐氏距離d,隨后依據(jù)式(14)遍歷每個(gè)樣本數(shù)據(jù)被選為下一個(gè)聚類中心的概率C[28]。

        重復(fù)上述步驟,直到選出k個(gè)聚類中心。分別計(jì)算樣本點(diǎn)數(shù)據(jù)xi到k個(gè)聚類中心的歐氏距離d,按照鄰近原則將樣本點(diǎn)歸類到距離其最近的聚類中心簇中,取聚類中心簇內(nèi)的樣本點(diǎn),計(jì)算均值用來表示聚類中心,經(jīng)過迭代,計(jì)算誤差平方和,直到ISSE取最小值。其中ISSE又稱為畸變程度,ISSE越小,表明畸變程度越低,簇內(nèi)樣本點(diǎn)的關(guān)系越緊密?;兂潭葧鶕?jù)類別的增加而降低。

        Si為樣本點(diǎn)xi的輪廓系數(shù),b(xi)是xi到聚類中心簇的平均距離,a(xi)是b(xi)中的最小值。

        St是樣本點(diǎn)輪廓系數(shù)的平均值,它反映了聚類的密集度和離散度,由式(17)可知,St介于0~1,St越大,表明類內(nèi)樣本的密集度越高,各類樣本的離散度越高,聚類效果越好。

        K-Means++算法通過輪廓系數(shù)和ISSE的值得出分類效果最好的最佳簇類數(shù)量。對自制數(shù)據(jù)集重新聚類后得到9 組先驗(yàn)框?yàn)椋?0.84,43.92),(90.80,61.82),(26,87.25),(24.26,49.68),(51.35,189.15),(81.4,57.78),(38.16,38.13),(19.64,21.95),(90.7,124.8)。

        3 實(shí)驗(yàn)與結(jié)果分析

        3.1 實(shí)驗(yàn)環(huán)境配置

        硬件配置為Intel Core i7-7700CPU @3.60 GHz,內(nèi)存為16 GB,GPU 為NVIDIA GeForce GTX1080Ti,深度學(xué)習(xí)框架為Pytorch1.2.0 版本;CUDA 版本為11.3;Python 版本為3.8.10。

        本實(shí)驗(yàn)基于Pytorch 深度學(xué)習(xí)框架,數(shù)據(jù)集基于第2 章的數(shù)據(jù)預(yù)處理,訓(xùn)練過程為350 epoch,前50個(gè)epoch利用凍結(jié)網(wǎng)絡(luò)方式進(jìn)行訓(xùn)練,學(xué)習(xí)率為0.001;之后的300個(gè)epoch學(xué)習(xí)率為0.000 1,訓(xùn)練過程采用了退火余弦算法以及標(biāo)簽平滑。

        3.2 改進(jìn)模型有效性評價(jià)

        為驗(yàn)證改進(jìn)方法對YOLOv4 模型的性能影響,對上述4種改進(jìn)方法進(jìn)行消融實(shí)驗(yàn),結(jié)果如表2 所示。其中:“√”表示在網(wǎng)絡(luò)實(shí)驗(yàn)中使用了該改進(jìn)策略,“—”表示未使用該策略。由表2 可知,將主干網(wǎng)絡(luò)替換為MobileNet-v3 后,權(quán)值文件大小由161 MB 變?yōu)榱?3.7 MB;通過利用深度可分離卷積代替原始YOLOv4 網(wǎng)絡(luò)中的標(biāo)準(zhǔn)卷積,大幅減少了網(wǎng)絡(luò)結(jié)構(gòu)中的參數(shù)量;輕量化后的模型與原模型相比,本文所提出輕量YOLOv4 算法的mAP 下降并不明顯,仍可以保持較好的性能。

        表2 消融實(shí)驗(yàn)結(jié)果對比Tab.2 Comparison of ablation experimental results

        3.3 性能評價(jià)

        AP、Recall、Precision 和F1 結(jié)果如表3 所示。YOLOv4 算法獲得了90.64%的準(zhǔn)確率均值,91.6%的召回率均值,91.33%的F1 均值;輕量化的YOLOv4 算法獲得了92.9%準(zhǔn)確率均值,90.71%的召回率均值,92%的F1 均值。

        表3 輕量化YOLOv4與其他YOLO算法對比Tab.3 Comparison of lightweight YOLOv4 and other YOLO algorithms

        mAP 與FPS 結(jié)果如表4 所示,可以看出,當(dāng)輸入分辨率一致時(shí),輕量化的YOLOv4 檢測算法在實(shí)時(shí)性上有所上升,雖然mAP 下降了0.76 個(gè)百分點(diǎn),但是檢測速率提升了79%,不僅可以減少誤檢、漏檢還能保證檢測精度,提高檢測速度。

        表4 網(wǎng)絡(luò)模型檢測速度及均值平均精度對比Tab.4 Comparison of detection speed and mAP

        本文使用MobileNet-v3 和深度可分離卷積代替YOLOv4的主干網(wǎng)絡(luò)和標(biāo)準(zhǔn)卷積使計(jì)算量下降到1.1 × 107,檢測速度由原始47.74 FPS 升高至85.60 FPS。從以上分析可知,輕量化的YOLOv4 檢測算法相較于YOLOv4 檢測算法在保證檢測精度的同時(shí),提高了檢測效率;但與同樣為輕量化系列的Tiny YOLOv4 以及YOLOx 相比在檢測速度方面仍有較大差距。

        3.4 效果測試

        為了進(jìn)一步直觀地展示本文算法的有效性,圖4、5 展示了原始YOLO 系列檢測算法和輕量化的YOLOv4 檢測算法在車輛目標(biāo)數(shù)據(jù)集的檢測結(jié)果。

        圖4 是道路情況較為簡單(道路中的車輛不存在遮擋情況)時(shí)的檢測結(jié)果,可以看出三類檢測器對車輛目標(biāo)的檢測效果均良好:當(dāng)?shù)缆分谐霈F(xiàn)較多車輛,且車輛間不存在大量重疊和遮擋的情況下,檢測器的檢測效果相當(dāng),均可檢測出道路中的中型車以及小型車;當(dāng)?shù)缆分谐霈F(xiàn)不完整車輛目標(biāo)、遮擋目標(biāo)和小目標(biāo)時(shí),原始YOLOv4 檢測模型、Tiny YOLOv4 以及YOLOx模型對遠(yuǎn)處目標(biāo)的檢測效果比輕量化YOLOv4略差。

        圖4 不存在重疊目標(biāo)時(shí)的檢測結(jié)果對比Fig.4 Comparison of detection results without overlapping targets

        存在重疊目標(biāo)時(shí)的檢測結(jié)果如圖5 所示。通過圖5 的對比,面對道路車輛較多,且存在明顯遮擋現(xiàn)象的情況:原始YOLOv4 檢測算法可以檢測出1 個(gè)大型車,無法識別遠(yuǎn)處的車輛小目標(biāo);Tiny YOLOv4 無法檢測出遠(yuǎn)處車輛小目標(biāo);輕量化的YOLOv4檢測算法共測出2個(gè)車輛目標(biāo),包含遠(yuǎn)處的小目標(biāo)車輛;YOLOx檢測器也可檢測出2個(gè)車輛目標(biāo),但其檢測精確度不如輕量化的YOLOv4。當(dāng)車輛目標(biāo)數(shù)量增多,但車輛之間的重疊情況較少時(shí),遠(yuǎn)處的小目標(biāo)可以在輕量化的YOLOv4 檢測模型中被測得,但是原始YOLOv4、Tiny YOLOv4以及YOLOx 都存在遠(yuǎn)處的重疊目標(biāo)的漏檢現(xiàn)象,其中Tiny YOLOv4檢測器漏檢情況較原始YOLOv4檢測器較為嚴(yán)重;當(dāng)?shù)缆分谐霈F(xiàn)柵欄等遮擋物且車輛目標(biāo)較多的情況下,原始YOLOv4 檢測器檢測出了2 個(gè)車輛小目標(biāo),Tiny YOLOv4 檢測器僅檢測出1 個(gè)車輛小目標(biāo),YOLOx 檢測出了3 個(gè)車輛目標(biāo),面對遮擋目標(biāo)存在一定的漏檢情況,輕量化的YOLOv4 檢測器檢測出了3個(gè)近處目標(biāo)以及1個(gè)遠(yuǎn)處小目標(biāo)。

        圖5 存在重疊目標(biāo)時(shí)的檢測結(jié)果對比Fig.5 Comparison of detection results with overlapping targets

        為了對比三種模型算法針對不完整目標(biāo)和小目標(biāo)的檢測能力,選擇100 張含有大量重疊車輛目標(biāo)以及小目標(biāo)的圖片作為測試數(shù)據(jù)集,其檢測性能的對比如表5 所示,通過對比Recall、AP、F1 和Precision 值可看出,輕量化的YOLOv4 算法效果好于原始YOLOv4 和Tiny YOLOv4,略差于YOLOx。

        表5 針對不完整目標(biāo)和小目標(biāo)的檢測效果對比Tab.5 Detection results comparison for incomplete targets and small targets

        綜合上述分析可知,輕量化的 YOLOv4 模型和其他模型都可以準(zhǔn)確識別出近處的未被遮擋的完整目標(biāo),但是在部分復(fù)雜路況下:原始YOLOv4 無法識別出近處的被遮擋目標(biāo);Tiny YOLOv4 對近處的不完整目標(biāo)存在一定的漏檢,對于不完整的目標(biāo)、重疊目標(biāo)以及遠(yuǎn)處的小目標(biāo)的漏檢情況較為嚴(yán)重;YOLOx 面對遠(yuǎn)處遮擋小目標(biāo)存在一定的漏檢現(xiàn)象;但輕量化的YOLOv4 算法能準(zhǔn)確地識別出不完整目標(biāo)、重疊目標(biāo)以及遠(yuǎn)處的小目標(biāo)。

        4 結(jié)語

        本文提出了一種輕量化的YOLOv4 交通信息實(shí)時(shí)檢測算法,為模擬真實(shí)道路路況信息,利用行車記錄儀錄制不同時(shí)段的北京道路場景信息并制作相應(yīng)數(shù)據(jù)集,隨后利用K-Means++算法對錨框進(jìn)行聚類。使用MobileNet-v3 網(wǎng)絡(luò)代替YOLOv4 主干網(wǎng)絡(luò),并將MobileNet-v3 網(wǎng)絡(luò)中的淺層激活函數(shù)替換為LeakyReLU 激活函數(shù),最后將YOLOv4 中的標(biāo)準(zhǔn)卷積替換為深度可分離卷積降低運(yùn)算量。實(shí)驗(yàn)結(jié)果表明:輕量化的YOLOv4 檢測算法與原始YOLOv4 檢測算法相比,在檢測速率為85.6 FPS 時(shí),mAP 值為94.24%,本文模型可以為原始YOLOv4 檢測算法進(jìn)行針對復(fù)雜場景下的重疊目標(biāo)、不完整目標(biāo)和小目標(biāo)提供輔助檢測;但本模型仍有改進(jìn)空間,如何提高檢測速率,并使用與更豐富的檢測場景是接下來待解決的問題。

        猜你喜歡
        深度檢測模型
        一半模型
        “不等式”檢測題
        “一元一次不等式”檢測題
        “一元一次不等式組”檢測題
        深度理解一元一次方程
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
        深度觀察
        深度觀察
        深度觀察
        欧美又大又色又爽aaaa片 | 中文亚洲成a人片在线观看| 欧美在线日韩| 人妻精品人妻一区二区三区四五| 亚洲av成人av三上悠亚| av 日韩 人妻 黑人 综合 无码| 日韩精品大片在线观看| 国产一区二区三区杨幂| 阴唇两边有点白是怎么回事| 337p人体粉嫩胞高清视频| 黄 色 人 成 网 站 免 费| 国产一区二区精品网站看黄| 婷婷久久av综合一区二区三区| 久久久久久亚洲av成人无码国产| 粗大的内捧猛烈进出在线视频| 少妇av免费在线播放| 国产女同舌吻1区2区| 色爱无码av综合区| 夜夜综合网| 白丝美女扒开内露出内裤视频| 久久久精品久久久久久96| 品色永久免费| 男人阁久久| 自拍视频在线观看国产| 蜜桃一区二区三区| 亚洲综合婷婷久久| 日本激情久久精品人妻热| 久久久99精品成人片| 国产超碰人人做人人爱ⅴa| 成人免费无码视频在线网站| 免费一区二区在线观看视频在线| 国产乱码一区二区三区爽爽爽| 无码国产精品一区二区免| 国产视频一区二区三区在线看| 少妇无码av无码专线区大牛影院| 日日躁夜夜躁狠狠久久av| 国产经典免费视频在线观看| 亚洲一区二区三区精品| 国产真人性做爰久久网站| 久久中文字幕久久久久| 精品国产亚洲一区二区三区四区|