亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        改進(jìn)YOLOv5s的車(chē)輛目標(biāo)檢測(cè)研究

        2024-03-22 14:17:52李甜林貴敏余燁楷
        時(shí)代汽車(chē) 2024年1期

        李甜 林貴敏 余燁楷

        摘 要:為改善在車(chē)輛目標(biāo)檢測(cè)中實(shí)時(shí)性和精確度低的問(wèn)題,提出一種改進(jìn)的YOLOv5s算法。引入CBAM(Channel Attention Module)注意力模塊,以增強(qiáng)網(wǎng)絡(luò)對(duì)特征的關(guān)注度;將CIoU Loss替換為EIoU Loss提高目標(biāo)邊界框的回歸速度和定位精度;新增一個(gè)小目標(biāo)檢測(cè)頭,提高模型對(duì)小目標(biāo)的檢測(cè)能力。實(shí)驗(yàn)結(jié)果顯示:改進(jìn)后的 YOLOv5s算法相較原始算法mAP0.5提高11.4%,mAP0.5:0.95提高了7.3%。在滿(mǎn)足實(shí)時(shí)性的同時(shí),模型檢測(cè)精度大幅提升。

        關(guān)鍵詞:YOLOv5s 目標(biāo)檢測(cè) 車(chē)輛檢測(cè) 注意力機(jī)制 EIoU

        1 引言

        面對(duì)道路擁堵問(wèn)題,交通管理部門(mén)需要有效緩解交通擁堵、提高交通系統(tǒng)的安全性和通行效率。其中,車(chē)輛目標(biāo)檢測(cè)技術(shù)在交通管理中扮演著重要的角色。這一技術(shù)能夠?qū)崟r(shí)檢測(cè)交通場(chǎng)景中的車(chē)輛,為交通管理提供更準(zhǔn)確和高效的數(shù)據(jù)支持。特別是,高精度和快速的車(chē)輛目標(biāo)檢測(cè)具有關(guān)鍵意義。因此,設(shè)計(jì)實(shí)時(shí)性和魯棒性強(qiáng)的車(chē)輛目標(biāo)檢測(cè)算法對(duì)于推動(dòng)智慧交通、智能駕駛、行人檢測(cè)、數(shù)字化和網(wǎng)絡(luò)化建設(shè)具有重要價(jià)值。

        目標(biāo)檢測(cè)算法在計(jì)算機(jī)視覺(jué)領(lǐng)域扮演著關(guān)鍵角色,主要用于在圖像或視頻中識(shí)別和定位特定目標(biāo)。隨著深度學(xué)習(xí)和GPU技術(shù)的發(fā)展,深度學(xué)習(xí)目標(biāo)檢測(cè)方法日益流行,可以被劃分為兩種主要結(jié)構(gòu):一階段(One-Stage)和兩階段(Two-Stage)[1]。兩階段算法首先生成候選區(qū)域,然后對(duì)這些區(qū)域進(jìn)行分類(lèi)和校準(zhǔn),通常帶來(lái)更高的準(zhǔn)確度。代表模型有 R-CNN 系列[2]。相反,一階段算法在檢測(cè)過(guò)程中無(wú)需生成候選區(qū)域。它們直接預(yù)測(cè)目標(biāo)的類(lèi)別和邊界框,因此具有更快的檢測(cè)速度。著名模型有 SSD [3]、RetinaNet[4]以及 YOLO 系列[5]。YOLOv5是YOLO系列中的一種模型,兼具快速推理速度和高準(zhǔn)確率的優(yōu)勢(shì)。

        深度學(xué)習(xí)車(chē)輛檢測(cè)表現(xiàn)出高速度和卓越的準(zhǔn)確性,適用于多種環(huán)境和設(shè)備。一些研究已嘗試改進(jìn)不同方面的車(chē)輛檢測(cè)和跟蹤方法,但存在一些限制。黃開(kāi)啟等[6]改進(jìn)了YOLOv3算法以增加在霧霾天氣下的車(chē)輛定位精度,盡管如此,仍需要借助傳統(tǒng)圖像處理方法,難以實(shí)現(xiàn)完全端到端的檢測(cè)。鞠默然等[7]專(zhuān)注于小目標(biāo)檢測(cè)問(wèn)題,對(duì)YOLOv3的輸出進(jìn)行上采樣和特征融合,通過(guò)K-means聚類(lèi)分析改進(jìn)網(wǎng)絡(luò)以有效檢測(cè)小目標(biāo),但研究數(shù)據(jù)集的多樣性有限。李國(guó)進(jìn)等[8]提出了改進(jìn)的Inception模塊和特征融合結(jié)構(gòu),以提升車(chē)輛檢測(cè)的準(zhǔn)確性和速度,然而,他們?nèi)晕唇鉀Q模型權(quán)重過(guò)大,無(wú)法在邊緣設(shè)備上部署的問(wèn)題。在監(jiān)控視頻中進(jìn)行車(chē)輛跟蹤時(shí),面臨多目標(biāo)跟蹤任務(wù)的挑戰(zhàn),包括遮擋、動(dòng)態(tài)模糊和尺度變化等問(wèn)題。李俊彥等[9]提出了將YOLOv3與KCF相結(jié)合的方法,但KCF算法對(duì)尺度變化和快速變形不夠適用。劉磊等[9]提出了結(jié)合YOLO識(shí)別和Mean shift跟蹤的方法來(lái)改善車(chē)流量統(tǒng)計(jì)問(wèn)題,但Mean shift算法對(duì)相似顏色目標(biāo)的干擾不夠魯棒。

        在綜合前述研究的基礎(chǔ)上,本文使用輕量級(jí)目標(biāo)檢測(cè)模型YOLOv5s 作為基礎(chǔ),針對(duì)車(chē)輛識(shí)別率低問(wèn)題進(jìn)行改進(jìn),新增一個(gè)小目標(biāo)檢測(cè)頭,使模型可以處理目標(biāo)的多尺度變換,提高小目標(biāo)的檢測(cè)精度;引入CBAM注意力機(jī)制增強(qiáng)了模型的特征提取能力,側(cè)重于被檢測(cè)目標(biāo);同時(shí),使用EIoU Loss替代原始檢測(cè)框回歸損失函數(shù),以改善低定位精度和訓(xùn)練速度慢的問(wèn)題。對(duì)原算法進(jìn)行改進(jìn)并在VisDrone2019數(shù)據(jù)集上實(shí)驗(yàn)。

        2 改進(jìn)YOLOv5s的車(chē)輛目標(biāo)檢測(cè)

        2.1 YOLOv5s算法

        YOLOv5s的結(jié)構(gòu)包括四個(gè)關(guān)鍵組成部分:Input輸入端、Backbone主干網(wǎng)絡(luò)、Neck網(wǎng)絡(luò)以及Head輸出端。在Input輸入端,進(jìn)行數(shù)據(jù)預(yù)處理,包括Mosaic數(shù)據(jù)增強(qiáng)和自適應(yīng)圖像填充。此外,為了適應(yīng)不同數(shù)據(jù)集,YOLOv5s還集成了自適應(yīng)錨框計(jì)算,能夠根據(jù)數(shù)據(jù)集自動(dòng)設(shè)定初始錨框大小。Backbone部分是主要的特征提取組件,包括Focus、CBS、CSP和SPP結(jié)構(gòu),用于提取目標(biāo)特征。CSP(Cross Stage Partial Network)用于局部跨通道融合,以解決網(wǎng)絡(luò)梯度信息重復(fù)的問(wèn)題。Neck將高層和底層信息融合,并輸出預(yù)測(cè)圖像,用于不同尺度物體的檢測(cè)。輸出端生成三種不同尺度的圖像,用于目標(biāo)類(lèi)別和置信度的預(yù)測(cè)。YOLOv5版本的優(yōu)勢(shì)在于使用自適應(yīng)錨框和引入Focus結(jié)構(gòu),從而顯著提高了檢測(cè)精度和速度,相較于以前的版本有重大改進(jìn)。因此本文選取輕量級(jí)YOLOv5s模型進(jìn)行針對(duì)性改進(jìn)。

        2.2 改進(jìn)YOLOv5s算法

        2.2.1 CBAM注意力機(jī)制

        為了強(qiáng)化模型對(duì)道路監(jiān)控視頻中的車(chē)輛目標(biāo)特征的關(guān)注,我們采用了輕量級(jí)CBAM注意力機(jī)制。它能夠加強(qiáng)網(wǎng)絡(luò)對(duì)空間和通道信息的聚焦,提高目標(biāo)特征的提取性能。尤其對(duì)于處理大區(qū)域圖像時(shí),有助于精準(zhǔn)地定位感興趣的區(qū)域。CBAM模塊的嵌入位置沒(méi)有一個(gè)固定的標(biāo)準(zhǔn)答案,因?yàn)樽罴训那度敕绞叫枰蕾?lài)于具體的場(chǎng)景和任務(wù)。在我們的研究中,我們進(jìn)行了一系列實(shí)驗(yàn)和調(diào)整,結(jié)果表明只有將CBAM注意力層置于每個(gè)檢測(cè)頭之前,才能顯著提升檢測(cè)準(zhǔn)確性。這一方法的關(guān)鍵在于,通過(guò)在每個(gè)檢測(cè)頭前面引入CBAM模塊,網(wǎng)絡(luò)能夠更好地關(guān)注和強(qiáng)化目標(biāo)特征,從而提高了目標(biāo)檢測(cè)的性能。這種策略是根據(jù)我們的實(shí)驗(yàn)結(jié)果和任務(wù)需求得出的,以確保最佳性能。

        2.2.2 損失函數(shù)的改進(jìn)

        損失函數(shù)在機(jī)器學(xué)習(xí)中起到了重要的作用,它用于度量模型的預(yù)測(cè)與實(shí)際數(shù)據(jù)之間的差距,以便評(píng)估模型的性能并指導(dǎo)訓(xùn)練過(guò)程,選擇合適的損失函數(shù)可以加速模型的收斂。YOLOv5的損失函數(shù)包含三個(gè)要素:邊框回歸損失、置信度損失以及分類(lèi)概率損失。在邊框回歸損失中,采用了完全交并比損失函數(shù),該損失函數(shù)的公式如下:

        其中,b表示預(yù)測(cè)框的中心點(diǎn),bgt表示真實(shí)框的中心點(diǎn),ρ表示兩個(gè)中心點(diǎn)之間的歐式距離,c表示包含預(yù)測(cè)框和真實(shí)框的最小閉包區(qū)域的對(duì)角線(xiàn)距離,w和wgt分別代表預(yù)測(cè)框和真實(shí)框的寬度,h和hgt分別代表預(yù)測(cè)框和真實(shí)框的寬度,IOU是預(yù)測(cè)框和真實(shí)框之間的交集和并集之比。

        CIoU loss是一種用于邊界框回歸的損失函數(shù),綜合了重疊面積、橫縱比以及中心點(diǎn)距離等因素,但它在考慮寬高與置信度之間的真實(shí)差異方面存在不足,可能對(duì)模型的優(yōu)化產(chǎn)生不利影響。EIoU Loss在CIoU Loss基礎(chǔ)上引入了Focal機(jī)制,專(zhuān)注于提高高質(zhì)量錨框的準(zhǔn)確性。

        EIoU Loss解決了邊界框回歸中的問(wèn)題,特別是在處理不均衡的訓(xùn)練樣本時(shí),它有助于更好地區(qū)分高質(zhì)量和低質(zhì)量的錨框。以下是EIoU Loss的公式:

        其中,γ表示控制異常值的抑制程度,Cw和Ch分別表示兩個(gè)框的最小外接框的寬度和高度,這個(gè)公式的關(guān)鍵思想是:當(dāng)兩個(gè)邊界框的交并比(IoU)越高時(shí),損失值越大。簡(jiǎn)言之,引入了一種權(quán)重機(jī)制在損失計(jì)算中,使得對(duì)于擬合效果更好的回歸目標(biāo),損失值更為突出,從而有助于提高回歸精度。

        2.2.3 新增檢測(cè)頭

        為增強(qiáng)小目標(biāo)檢測(cè)能力,我們?cè)赮OLOv5s模型中引入了小目標(biāo)檢測(cè)頭。這模塊專(zhuān)注于處理尺寸較小的目標(biāo),如在車(chē)流量檢測(cè)中常見(jiàn)的小物體。小目標(biāo)檢測(cè)頭采用更小的錨框設(shè)計(jì),適配小目標(biāo)的尺寸范圍,以確保高效檢測(cè)。其主要目的是提升小目標(biāo)檢測(cè)性能,通過(guò)操作特定的特征圖來(lái)更好地捕獲小目標(biāo)信息,通常包括選擇高分辨率的特征圖以精細(xì)定位小目標(biāo)。改進(jìn)后的模型結(jié)構(gòu)圖如圖1所示。

        3 實(shí)驗(yàn)結(jié)果與分析

        3.1 實(shí)驗(yàn)環(huán)境準(zhǔn)備

        本文的實(shí)驗(yàn)是在一臺(tái)配置為Ubuntu 18.04操作系統(tǒng),搭載了Intel Xeon Gold 5218 CPU、512GB 內(nèi)存和Tesla V100 32G GPU顯卡的機(jī)器上進(jìn)行。網(wǎng)絡(luò)框架基于 pytorch1.8.1, CUDA10.2。模型的訓(xùn)練參數(shù)設(shè)置為100個(gè)迭代次數(shù)(epoch),批次大小為32,并采用Adam優(yōu)化器,其余參數(shù)均為默認(rèn)值。

        3.2 評(píng)價(jià)指標(biāo)

        本文評(píng)估改進(jìn)模型的性能主要使用了精確度(precision)、召回率(recall)、平均準(zhǔn)確率均值(mAP)、以及平均準(zhǔn)確率(AP)這些指標(biāo)。

        我們使用了以下評(píng)估指標(biāo)用于衡量目標(biāo)檢測(cè)模型的性能,包括TP(True Positives,正確識(shí)別的正樣本目標(biāo)數(shù))、FN(False Negatives,未正確識(shí)別的正樣本目標(biāo)數(shù))和FP(False Positives,誤識(shí)別的非正樣本目標(biāo)數(shù))。其中TP表示成功檢測(cè)的目標(biāo),F(xiàn)N表示被遺漏的目標(biāo),而FP則表示被錯(cuò)誤地識(shí)別為目標(biāo)的非目標(biāo)。

        平均準(zhǔn)確率(AP,Average Precision)和平均準(zhǔn)確率均值(mAP,mean Average Precision)是用來(lái)評(píng)估網(wǎng)絡(luò)模型性能的重要指標(biāo)。它們的計(jì)算需要使用模型的精確度和召回率。

        3.3 實(shí)驗(yàn)及結(jié)果分析

        為驗(yàn)證P2小目標(biāo)檢測(cè)層的添加、EIoU損失函數(shù)的改進(jìn)以及CBAM卷積注意力機(jī)制的有效性,本文研究了以YOLOv5s為基準(zhǔn)模型,進(jìn)行了一系列消融實(shí)驗(yàn),評(píng)估不同模塊和方法組合對(duì)目標(biāo)檢測(cè)性能的影響,均在相同的實(shí)驗(yàn)條件下進(jìn)行。消融實(shí)驗(yàn)的結(jié)果詳見(jiàn)表1。

        消融實(shí)驗(yàn)結(jié)果表明,本文提出的模塊和方法明顯提高了小目標(biāo)檢測(cè)的準(zhǔn)確性。單獨(dú)添加某一模塊方面來(lái)看,B實(shí)驗(yàn)將小目標(biāo)檢測(cè)層與特征融合和預(yù)測(cè)結(jié)合,mAP0.5提高了10.5%,mAP0.5:0.95提高了6.7%。盡管增加了模型復(fù)雜性和參數(shù)量,但顯著提升了檢測(cè)準(zhǔn)確性,因此添加小目標(biāo)檢測(cè)頭是合理的選擇。C實(shí)驗(yàn)表明,改進(jìn)后的EIoU損失函數(shù)提高了mAP0.5和mAP0.5:0.95各1.3%和0.6%,平衡了不同目標(biāo)尺度的損失,增強(qiáng)了小目標(biāo)的位置預(yù)測(cè)。D實(shí)驗(yàn)引入CBAM注意力機(jī)制,mAP0.5和mAP0.5:0.95分別提高了2.6%和1.2%,增強(qiáng)了網(wǎng)絡(luò)對(duì)小目標(biāo)的全局感知,有助于更準(zhǔn)確地檢測(cè)小目標(biāo)。

        不同模塊的組合方面來(lái)看,E、F、G實(shí)驗(yàn)顯示,將三種模塊結(jié)合顯著提升了模型精度,盡管EIoU與CBAM模塊組合時(shí)mAP0.5相對(duì)于單獨(dú)添加EIoU模塊和CBAM模塊降低了0.5%和0.8%,但當(dāng)三種模塊一起添加時(shí),模型的檢測(cè)精度達(dá)到最高。最后,通過(guò)實(shí)驗(yàn)H,將三個(gè)模塊組合形成的新算法表現(xiàn)最出色,mAP0.5和mAP0.5:0.95分別提高了11.4%和7.3%。盡管檢測(cè)速度相對(duì)原始算法略有下降,但在滿(mǎn)足實(shí)時(shí)性需求的情況下,該算法顯著提高了檢測(cè)精度,充分證明了其在車(chē)輛信息檢測(cè)方面的有效性。

        另外,本文在VisDrone2019數(shù)據(jù)集上進(jìn)行了可視化對(duì)比實(shí)驗(yàn),結(jié)果如圖2所示。黃色實(shí)線(xiàn)框表示改進(jìn)后算法檢測(cè)到更多的小目標(biāo)。從圖中可以看出本文改進(jìn)后的算法能夠檢測(cè)到更多的小目標(biāo)車(chē)輛信息,對(duì)車(chē)流量檢測(cè)任務(wù)提供了很好的改進(jìn)依據(jù)。

        4 結(jié)束語(yǔ)

        為了解決實(shí)際道路中車(chē)輛準(zhǔn)確精度低的問(wèn)題,本文基于YOLOv5s算法,通過(guò)引入CBAM注意力機(jī)制,改進(jìn)損失函數(shù)以及新增小目標(biāo)檢測(cè)頭的方法,提出了一種適用于車(chē)輛目標(biāo)檢測(cè)的改進(jìn)YOLOv5s算法。與原始算法相比,改進(jìn)后的算法性能得到了顯著的提升,在滿(mǎn)足實(shí)時(shí)性檢測(cè)要求的前提下,能夠更準(zhǔn)確的檢測(cè)到車(chē)輛目標(biāo)。

        項(xiàng)目基金:福建省自然科學(xué)基金項(xiàng)目(2019J01761,2023J011401),福建省本科高校教育教學(xué)研究項(xiàng)目(FBJY20230095)。

        參考文獻(xiàn):

        [1]ZOU Z,SHI Z,GUO Y,et al.Object detection in 20 years:a survey[J].arXiv:1905.05055,2019.

        [2]REN S,HE K,GIRSHICK R,et al.Faster R-CNN:Towards real-time object detection with region proposal networks[C]// Advances in Neural Information Processing Systems,2015:91-99.

        [3]LIU W,ANGUELOV D,ERHAN D,et al.SSD:Single shot multibox detector[C]//European Conference on Computer Vision,2016:21-37.

        [4]LIN T Y,GOYAL P,GIRSHICK R,et al.Focal loss for dense object detection[C]//Proceedings of the IEEE International Conference on Computer Vision,2017:2980-2988.

        [5]ZHU X,LYU S,WANG X,et al.TPH-YOLOv5:Improved YOLOv5 based on transformer prediction head for object detection on drone-captured scenarios[C]//2021 IEEE/CVF International Conference on Computer Vision Workshops (ICCVW),Montreal,BC,Canada,2021:2778-2788.

        [6]黃開(kāi)啟,劉小榮,錢(qián)艷群,等.霧霾天氣車(chē)輛檢測(cè)的改進(jìn) YOLOv3算法[J].重慶大學(xué)學(xué)報(bào),2021,45(12):95-102.

        [7]鞠默然,羅海波,王仲博,等.改進(jìn)的 YOLOV3 算法及其在小目標(biāo)檢測(cè)中的應(yīng)用[J]. 光學(xué)學(xué)報(bào),2019,39(7):253-260.

        [8]李國(guó)進(jìn),胡潔,艾矯燕.基于改進(jìn)SSD算法的車(chē)輛檢測(cè)[J].計(jì)算機(jī)工程,2022,48(1):266-274.

        [9]李俊彥,宋煥生,張朝陽(yáng),等.基于視頻的多目標(biāo)車(chē)輛跟蹤及軌跡優(yōu)化[J].計(jì)算機(jī)工程與應(yīng)用,2020,56(5):194-199.

        日本加勒比一区二区在线观看| 国产精品国产精品国产专区不卡| 性人久久久久| 国产av天堂亚洲国产av天堂| 国产成人综合久久亚洲精品| 色爱区综合五月激情| 欧美成人小视频| 日韩精品中文字幕人妻系列| 看大陆男女真人草逼视频| 亚洲成a人一区二区三区久久| 最新日本人妻中文字幕| 成 人色 网 站 欧美大片在线观看| 国产激情久久久久久熟女老人av| 色欲麻豆国产福利精品| 国产真实露脸4p视频| 精精国产xxxx视频在线播放器| 一区二区三区四区国产亚洲| 久久av粉嫩一区二区| 久久久久久久极品内射| 最近中文av字幕在线中文| 国产精品久久久久…| 亚洲成AV人久久| 最新国产一区二区三区| 亚洲一区在线观看中文字幕| 久久午夜无码鲁丝片午夜精品| 一本一道久久综合狠狠老| 日韩AV不卡一区二区三区无码| 国产一区,二区,三区免费视频| 在线观看中文字幕二区| 久久久亚洲欧洲日产国码aⅴ| 国产精品无码专区av在线播放| 制服丝袜视频国产一区| 国产精品一区二区三区成人| 亚洲中文av中文字幕艳妇| 久久精品无码av| 久久99国产伦精品免费| 日本黄色特级一区二区三区| 国产一二三四2021精字窝| 成人做爰高潮尖叫声免费观看| 亚洲a∨好看av高清在线观看| 日本中文字幕官网亚洲|