亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于改進(jìn)YOLOv5的復(fù)雜場景電動(dòng)車頭盔檢測(cè)方法

        2025-01-06 00:00:00韓東辰張方暉王詩洋段克盼李寧星王凱
        現(xiàn)代電子技術(shù) 2025年1期
        關(guān)鍵詞:空間信息頭盔電動(dòng)車

        摘" 要: 佩戴電動(dòng)車頭盔是安全騎行的重要保障,對(duì)電動(dòng)車駕乘人員佩戴頭盔進(jìn)行有效檢測(cè)在保障駕乘人員安全方面具有重要意義。電動(dòng)車頭盔檢測(cè)中存在目標(biāo)之間相互遮擋、復(fù)雜背景干擾、頭盔目標(biāo)小等問題,現(xiàn)有方法尚不能滿足復(fù)雜場景下電動(dòng)車頭盔檢測(cè)的要求,因此,提出一種改進(jìn)YOLOv5的復(fù)雜場景電動(dòng)車頭盔識(shí)別方法。首先,提出一種新的主干網(wǎng)絡(luò)結(jié)構(gòu)ML?CSPDarknet53,增強(qiáng)網(wǎng)絡(luò)的特征提取能力,引入輕量級(jí)上采樣算子CARAFE,利用特征圖語義信息擴(kuò)大感受野;其次,搭建坐標(biāo)卷積CoordConv模塊,增強(qiáng)網(wǎng)絡(luò)對(duì)空間信息的感知能力,并將WIoU v3作為邊界框損失函數(shù),降低低質(zhì)量樣本對(duì)模型性能的不利影響;最后,構(gòu)建了內(nèi)容豐富的頭盔檢測(cè)數(shù)據(jù)集對(duì)改進(jìn)算法進(jìn)行驗(yàn)證。實(shí)驗(yàn)結(jié)果表明,改進(jìn)后算法相較于原算法在精確度、召回率、mAP@0.5、mAP@0.5:0.95上分別提升了2.9%、3.0%、3.4%和2.2%,并且性能優(yōu)于其他主流檢測(cè)算法,滿足復(fù)雜道路交通場景下電動(dòng)車駕乘人員頭盔檢測(cè)的任務(wù)要求。

        關(guān)鍵詞: 頭盔檢測(cè); 改進(jìn)YOLOv5; 復(fù)雜場景; 目標(biāo)遮擋; 特征提??; 上采樣; 坐標(biāo)卷積; 損失函數(shù)

        中圖分類號(hào): TN911.73?34; TP391.41" " " " " " " " "文獻(xiàn)標(biāo)識(shí)碼: A" " " " " " " " "文章編號(hào): 1004?373X(2025)01?0123?07

        Improved YOLOv5 based electric bicycle helmet detection method in complex scenes

        HAN Dongchen, ZHANG Fanghui, WANG Shiyang, DUAN Kepan, LI Ningxing, WANG Kai

        (School of Electronic Information and Artificial Intelligence, Shaanxi University of Science and Technology, Xi’an 710021, China)

        Abstract: Wearing an electric bicycle helmet is an important guarantee for safe riding, and it is of great significance to ensure the personnel safety by effectively detecting the helmet wearing of drivers and passengers of electric bicycles. Due to the factors of mutual occlusion of objects, complex background interferences, and excessive small size of the helmets (the objects) in the detection, the existing methods fail to meet the requirements of helmet detection in complex scenes, so this paper proposes an improved YOLOv5 based electric bicycle helmet recognition method in complex scenes. A new backbone network structure ML?CSPDarknet53 is proposed to enhance the feature extraction capability of the network. The lightweight up?sampling operator CARAFE is introduced. The semantic information of the feature map is used to expand the receptive field. A coordinate convolution CoordConv module is built to enhance the network′s perception of spatial information, and the WIoU (wise?IoU) v3 is taken as the bounding box loss function to reduce the adverse impact of low?quality samples on model performance. A rich helmet detection dataset is constructed to verify the improved algorithm. The experimental results show that the accuracy, recall rate, mAP@0.5 and mAP@0.5:0.95 of the proposed algorithm is improved by 2.9%, 3.0%, 3.4% and 2.2%, respectively, in comparison with that of the original algorithm, and the performance of the proposed algorithm is better than that of the other mainstream detection algorithms. Therefore, the proposed algorithm can meet the requirements of helmet detection of drivers and passengers of electric bicycles in complex scenes of road traffic.

        Keywords: helmet detection; improved YOLOv5; complex scene; object occlusion; feature extraction; up?sampling; CoordConv; loss function

        0" 引" 言

        隨著我國電動(dòng)車社會(huì)保有量逐年增加,電動(dòng)車交通事故的發(fā)生日漸頻繁。電動(dòng)車事故中駕乘人員多是頭部首先受到撞擊,電動(dòng)車頭盔是保護(hù)駕乘人員頭部安全的關(guān)鍵裝備。摩托車頭盔可以降低72%的頭部損傷風(fēng)險(xiǎn)和39%的致死風(fēng)險(xiǎn)[1]。佩戴頭盔可以有效提高生還幾率。2020年公安部和交通管理局聯(lián)合部署了“一盔一帶”安全守護(hù)行動(dòng)[2],旨在全面整治電動(dòng)車用戶不戴頭盔等違法行為。但采用人工臨檢方式費(fèi)時(shí)費(fèi)力,因此設(shè)計(jì)一種用于檢測(cè)駕乘人員是否佩戴頭盔的智能交通算法至關(guān)重要。

        近些年來人工智能技術(shù)快速發(fā)展,基于深度學(xué)習(xí)的目標(biāo)檢測(cè)技術(shù)在道路交通和安全防護(hù)等領(lǐng)域取得了令人矚目的成就。目前已經(jīng)有學(xué)者開展了有關(guān)電動(dòng)車駕乘人佩戴頭盔檢測(cè)的研究。文獻(xiàn)[3]在SSD網(wǎng)絡(luò)中引入了注意力機(jī)制和類似人類視覺偏心率機(jī)制的模塊。文獻(xiàn)[4]在YOLOv4網(wǎng)絡(luò)中用K?means算法進(jìn)行聚類,在主干網(wǎng)絡(luò)中引入卷積層和PANet網(wǎng)絡(luò),并添加SPP空間池化金字塔。文獻(xiàn)[5]在YOLOv5網(wǎng)絡(luò)中引入ECA?Net通道注意力機(jī)制、Bi?FPN加權(quán)雙向特征金字塔和[α]?CIoU損失函數(shù)。文獻(xiàn)[6]中結(jié)合ShuffleNetv2和GhostNet,對(duì)YOLOv5骨干網(wǎng)絡(luò)和Neck部分進(jìn)行輕量化,提出基于Add的特征融合方法,有效降低了模型參數(shù)量和運(yùn)算量。文獻(xiàn)[7]基于SSD算法設(shè)計(jì)了一種駕乘人員所在區(qū)域的頭盔檢測(cè)分類網(wǎng)絡(luò)。文獻(xiàn)[8]提出一種通過車手檢測(cè)和頭肩檢測(cè)共同完成的檢測(cè)算法,具有較好的魯棒性。文獻(xiàn)[9]在YOLOv5網(wǎng)絡(luò)中融合了三重注意力,結(jié)合Soft?NMS提出了一種摩托車車手頭盔檢測(cè)方法。文獻(xiàn)[10]設(shè)計(jì)了一個(gè)可同時(shí)識(shí)別幀間相似性和完成頭盔分類的網(wǎng)絡(luò)模型,并且與采用Retinanet作為二輪車檢測(cè)器的網(wǎng)絡(luò)共同完成了二輪車檢測(cè)、跟蹤和頭盔佩戴分類的實(shí)現(xiàn)。

        綜上所述,現(xiàn)有的網(wǎng)絡(luò)模型在電動(dòng)車頭盔檢測(cè)問題上已取得了一定的進(jìn)展,但在交通繁忙路段下的檢測(cè)性能相對(duì)較差。具體表現(xiàn)為道路擁擠時(shí)會(huì)導(dǎo)致多目標(biāo)之間相互遮擋的情況出現(xiàn),這嚴(yán)重影響了網(wǎng)絡(luò)模型的特征提取過程。此外,目前公開的電動(dòng)車頭盔檢測(cè)數(shù)據(jù)集較少,且場景內(nèi)容較為簡單,同樣會(huì)導(dǎo)致網(wǎng)絡(luò)模型在道路擁擠時(shí)檢測(cè)性能大幅降低。

        為解決上述問題,本文提出一種基于改進(jìn)YOLOv5s的電動(dòng)車駕乘人員頭盔佩戴檢測(cè)算法,主要?jiǎng)?chuàng)新點(diǎn)有:提出一種新的主干網(wǎng)絡(luò)結(jié)構(gòu)ML?CSPDarknet53;引入CARAFE上采樣算子;搭建坐標(biāo)卷積模塊;用WiseIoU Loss代替原損失函數(shù)。

        1" 改進(jìn)算法

        本文對(duì)原網(wǎng)絡(luò)進(jìn)行了如下改進(jìn):針對(duì)復(fù)雜背景中小目標(biāo)間相互遮擋的問題,提出一種新的主干網(wǎng)絡(luò)結(jié)構(gòu)ML?CSPDarknet53,在原主干網(wǎng)絡(luò)的基礎(chǔ)上添加MLCA注意力機(jī)制,可以同時(shí)關(guān)注通道信息、空間信息、局部信息和全局信息,增強(qiáng)特征提取能力;引入輕量級(jí)上采樣算子CARAFE,利用特征圖語義信息獲得更大感受野和較強(qiáng)的內(nèi)容感知;在FPN和Head部分設(shè)計(jì)添加坐標(biāo)卷積模塊,增強(qiáng)網(wǎng)絡(luò)對(duì)空間信息的感知能力。針對(duì)自制數(shù)據(jù)集中存在的低質(zhì)量樣本問題,將原網(wǎng)絡(luò)中的CIoU Loss損失函數(shù)更改為具有動(dòng)態(tài)非單調(diào)聚焦機(jī)制的WiseIoU Loss,降低低質(zhì)量樣本對(duì)模型性能的不利影響。改進(jìn)后的網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示。

        1.1" ML?CSPDarknet53結(jié)構(gòu)

        YOLOv5s網(wǎng)絡(luò)中采用CSPDarknet53結(jié)構(gòu),該結(jié)構(gòu)借鑒了CSPNet的思想[11]。但在面對(duì)真實(shí)道路交通場景時(shí)會(huì)受復(fù)雜背景影響從而影響主干網(wǎng)絡(luò)的特征提取能力。因此本文在原主干網(wǎng)絡(luò)的基礎(chǔ)上,提出一種新的主干網(wǎng)絡(luò)結(jié)構(gòu)ML?CSPDarknet53。具體方法為:在原結(jié)構(gòu)中加入混合局部通道注意力(MLCA)機(jī)制[12],結(jié)構(gòu)如圖2所示。

        注意力機(jī)制可使得神經(jīng)網(wǎng)絡(luò)強(qiáng)調(diào)重要區(qū)域并且抑制不相關(guān)的區(qū)域,但大多數(shù)注意力方法通常都忽視了構(gòu)建空間注意力圖至關(guān)重要的空間特征信息。對(duì)于包含空間信息的注意力方法,由于計(jì)算和參數(shù)要求過大,在添加該方法時(shí)往往需要縮減其通道維度,極易導(dǎo)致精度下降。

        為了引入更為細(xì)致的空間信息,將輸入分割成多個(gè)小塊,Local SE注意力相當(dāng)于多個(gè)局部SE的疊加,然而大量的小塊疊加會(huì)導(dǎo)致參數(shù)量過多的問題。MLCA注意力機(jī)制通過采取單維度卷積加速方法有效降低了計(jì)算復(fù)雜度和參數(shù)量。

        MLCA對(duì)輸入的特征向量進(jìn)行兩次池化操作,先通過局部池化將輸入轉(zhuǎn)換為[1×C×ks×ks]的向量,以提取局部空間信息。在初始階段的基礎(chǔ)上,通過兩個(gè)分支將輸入轉(zhuǎn)換為一維向量,其中第一個(gè)分支包含全局信息,第二個(gè)分支包含局部空間信息。隨后,經(jīng)過一維卷積,利用反池化操作恢復(fù)兩個(gè)向量的原始分辨率,輔以信息融合實(shí)現(xiàn)混合注意力。MLCA結(jié)構(gòu)圖如圖3所示。

        本文通過在原主干網(wǎng)絡(luò)基礎(chǔ)上添加MLCA結(jié)構(gòu),使網(wǎng)絡(luò)能夠在不犧牲計(jì)算效率的前提下同時(shí)融合通道信息、空間信息、局部信息以及全局信息,增強(qiáng)主干網(wǎng)絡(luò)在復(fù)雜道路場景下的特征提取能力。

        1.2" 引入輕量級(jí)通用上采樣算子CARAFE

        在目標(biāo)檢測(cè)任務(wù)中,為了能夠更好地定位和檢測(cè)更小的目標(biāo),通常使用上采樣操作將低分辨率的特征圖映射到高分辨率。YOLOv5s網(wǎng)絡(luò)中Neck部分負(fù)責(zé)融合不同層次的特征,使用的是最近鄰上采樣的方法,該方法操作簡單、速度較快,有助于特征信息在不同尺度的特征圖之間傳遞。但是最近鄰上采樣方法在決定上采樣核時(shí)沒有利用到特征圖的語義信息,并且感受野較小。

        針對(duì)上述問題,本文引入了輕量級(jí)通用上采樣算子CARAFE[13]。該方法分為兩個(gè)部分,分別是上采樣核預(yù)測(cè)模塊和特征重組模塊。在上采樣核預(yù)測(cè)階段,對(duì)于形狀為[H×W×C]的輸入特征圖,首先用一個(gè)[1×1]卷積將通道數(shù)壓縮至[H×W×Cm]。假設(shè)上采樣核尺寸為[kup×kup],若希望對(duì)輸出特征圖的不同位置使用不同的上采樣核,那么需要預(yù)測(cè)的上采樣核形狀為[σH×σW×kup×kup]。對(duì)于壓縮后的輸入特征圖,利用一個(gè)[kencoder×kencoder]大小的卷積層預(yù)測(cè)上采樣核,輸入通道數(shù)為[Cm],輸出通道數(shù)為[σ2k2up],將其在空間維度展開,得到形狀為[σH×σW×k2up]的上采樣核。再將上采樣核利用softmax進(jìn)行歸一化,使得卷積核權(quán)重和為1。在特征重組模塊中,對(duì)于輸出特征圖中的不同位置,將其映射回輸入特征圖,取出其中心的[kup×kup]區(qū)域,與該位置上采樣核作點(diǎn)積,輸出為該位置的上采樣特征。通過特征重組,局部區(qū)域相關(guān)特征點(diǎn)的信息會(huì)獲得更多的關(guān)注,以提升特征圖語義信息的強(qiáng)度。CARAFE框架如圖4所示。

        1.3" 坐標(biāo)卷積CoordConv模塊

        傳統(tǒng)卷積在檢測(cè)、分類等任務(wù)中因其參數(shù)量少、計(jì)算高效并且具有平移不變性等優(yōu)勢(shì)得到了廣泛的應(yīng)用。但平移不變性的特點(diǎn)在需要考慮空間信息和位置關(guān)系的任務(wù)時(shí),就是一個(gè)不利因素。在本文任務(wù)場景中,常常會(huì)遇到交通環(huán)境復(fù)雜、駕乘人之間互相遮擋的情況,傳統(tǒng)卷積因無法充分考慮像素具體位置坐標(biāo)信息而導(dǎo)致檢測(cè)性能下降。為解決這一問題,本文引入了CoordConv[14]坐標(biāo)卷積模塊。

        CoordConv可以允許網(wǎng)絡(luò)保留或丟棄平移不變性的特性以適應(yīng)不同任務(wù)的需求,它是傳統(tǒng)卷積的擴(kuò)展,通過在輸入通道連接兩個(gè)額外的通道[i]和[j]后再進(jìn)行傳統(tǒng)卷積來完成。傳統(tǒng)卷積如圖5所示,形狀[h×w×c]卷積后映射為[h'×w'×c']。CoordConv示意圖將兩個(gè)額外的[i]和[j]通道連接到輸入通道來完成,將輸入數(shù)據(jù)的坐標(biāo)信息融入網(wǎng)絡(luò)的學(xué)習(xí)過程中。該設(shè)計(jì)可保障CoordConv更加敏感于不同位置的特征,有助于提高網(wǎng)絡(luò)對(duì)空間關(guān)系的理解能力。CoordConv示意圖如圖6所示。

        由于CoordConv在傳統(tǒng)卷積中添加了兩個(gè)輸入通道,在一定程度上增加了參數(shù)量和計(jì)算量,為盡可能地降低影響,實(shí)現(xiàn)網(wǎng)絡(luò)結(jié)構(gòu)輕量化,本文在Neck部分替換FPN結(jié)構(gòu)中的傳統(tǒng)卷積,并且在每個(gè)Head頭部添加一層CoordConv,以此來更多地獲取坐標(biāo)信息,從而更好地應(yīng)對(duì)目標(biāo)整體或部分被遮擋的情況。

        1.4" 邊界框損失函數(shù)改進(jìn)

        YOLOv5中使用CIoU_Loss[15]計(jì)算邊界框損失,CIoU_Loss表達(dá)式為:

        [LCIoU=1-IoU+ρ2(b,bgt)c2+αv] (1)

        [α=v(1-IoU)+v] (2)

        [v=4π2arctanwgthgt-arctanwh2] (3)

        式中:IoU為交并比;[b]、[bgt]為預(yù)測(cè)框和真實(shí)框的中心點(diǎn);[ρ2(b,bgt)]是兩個(gè)中心點(diǎn)之間的歐氏距離;[w]、[h]、[wgt]、[hgt]分別是預(yù)測(cè)框和真實(shí)框的寬高;[c]是包含預(yù)測(cè)框和真實(shí)框最小矩形的對(duì)角線長度。

        CIoU考慮了預(yù)測(cè)框與真實(shí)框中心點(diǎn)距離長寬比的影響,但未考慮到優(yōu)劣樣本平衡的問題。目前有關(guān)電動(dòng)車駕乘人員佩戴頭盔的數(shù)據(jù)集較少,本文實(shí)驗(yàn)數(shù)據(jù)均為自主采集制作而成,故不可避免的有人為因素的影響而含有部分低質(zhì)量的標(biāo)注信息。此時(shí)使用CIoU_Loss便會(huì)因低質(zhì)量邊框信息而加強(qiáng)邊界回歸從而降低模型性能。因此本文引入Wise?IoU(WIoU)[16]作為邊界框損失函數(shù)。

        WIoU具有v1、v2、v3三個(gè)版本。根據(jù)距離度量構(gòu)建距離注意力,最后得到了具有兩層注意力機(jī)制的WIoUv1。

        [LWIoUv1=RWIoULIoU] (4)

        [RWIoU=exp(x-xgt)2+(y-ygt)2(w2g+h2g)2] (5)

        式中[RWIoU∈[1,e)],將顯著放大普通質(zhì)量預(yù)測(cè)框的[LIoU]。[LIoU∈[0,1]],將顯著降低高質(zhì)量預(yù)測(cè)框的[RWIoU],并在預(yù)測(cè)框與真實(shí)框重合較好的情況下顯著降低其對(duì)中心點(diǎn)距離的關(guān)注。

        在WIoU v2中,構(gòu)造了[LWIoU v1]的單調(diào)聚焦系數(shù)[Lγ*IoU],有效降低了簡單樣本對(duì)損失值的貢獻(xiàn),使得模型能夠聚焦復(fù)雜樣本,分類性能獲得提升。

        [LWIoU v2=Lγ*IoULWIoU v1," " γgt;0] (6)

        為了解決后期收斂速度變慢的問題,引入[LIoU]的均值作為歸一化因子:

        [LWIoU v2=L*IoULIoUγLWIoU v1] (7)

        式中[LIoU]表示動(dòng)量為[m]的滑動(dòng)平均值,動(dòng)態(tài)更新歸一化因子使得梯度增益[L*IoULIoUγ]保持較高水平。

        在WIoUv3中,定義離群度[β]用以描述預(yù)測(cè)框質(zhì)量。

        [β=L*IoULIoU∈[0,+∞)] (8)

        式中,[β]較小表示預(yù)測(cè)框質(zhì)量高,為其分配小的梯度增益,以便于邊界框回歸聚焦到普通質(zhì)量的預(yù)測(cè)框上,[β]較大的預(yù)測(cè)框分配小的梯度增益將有效防止低質(zhì)量樣本產(chǎn)生較大的有害梯度。利用[β]構(gòu)造一個(gè)非單調(diào)聚焦系數(shù),將其應(yīng)用于WIoU v1。

        [LWIoU v3=βδαβ-δLWIoU v1] (9)

        因?yàn)閇LIoU]是動(dòng)態(tài)的,所以預(yù)測(cè)框質(zhì)量劃分標(biāo)準(zhǔn)也是動(dòng)態(tài)的,所以WIoU v3可在任意時(shí)刻做出合理的梯度增益分配策略。

        2" 實(shí)驗(yàn)與結(jié)果分析

        2.1" 實(shí)驗(yàn)環(huán)境配置與參數(shù)設(shè)置

        本文所有實(shí)驗(yàn)環(huán)境基于PyTorch 2.1.1框架,Python版本為3.8,CUDA版本為12.2。所有模型均部署在CPU為Intel Xeon[?] Silver 4214R,GPU為NVIDIA GeForce RTX 3080 Ti(12 GB),操作系統(tǒng)為Ubuntu 18.04,內(nèi)存為90 GB的設(shè)備上進(jìn)行訓(xùn)練測(cè)試。本文在模型訓(xùn)練時(shí)采用余弦退火策略調(diào)整學(xué)習(xí)率,不加載COCO數(shù)據(jù)集的預(yù)訓(xùn)練權(quán)重,訓(xùn)練過程中的網(wǎng)絡(luò)參數(shù)設(shè)置如表1所示。

        2.2" 數(shù)據(jù)集

        為了制作數(shù)據(jù)類型豐富的電動(dòng)車頭盔檢測(cè)數(shù)據(jù)集,本文在陜西省咸陽市、陜西省西安市、河南省鄭州市、北京市等不同路段不同時(shí)間采集非機(jī)動(dòng)車道的實(shí)時(shí)交通影像數(shù)據(jù),將視頻文件每隔500 ms進(jìn)行截取。為了保證數(shù)據(jù)集質(zhì)量,對(duì)所有圖片進(jìn)行多次篩選,最終共篩選出3 390張可作為電動(dòng)車頭盔檢測(cè)數(shù)據(jù)集的圖片,數(shù)據(jù)集部分樣本如圖7所示。

        利用LabelImg工具對(duì)數(shù)據(jù)集進(jìn)行標(biāo)注。根據(jù)本文任務(wù)要求,設(shè)置三類標(biāo)簽:其中“helmet”指佩戴頭盔,“without_helmet”指未佩戴頭盔,“two_wheeler”指電動(dòng)車。最后將標(biāo)記后的圖片按照8∶2的比例隨機(jī)劃分為訓(xùn)練集(2 712張)和測(cè)試集(678張)。

        2.3" 評(píng)價(jià)指標(biāo)

        在定量分析模型檢測(cè)效果方面,本文選擇檢測(cè)精確度(Precicion)、召回率(Reccall)和平均精確度(mAP)作為訓(xùn)練模型的性能評(píng)價(jià)指標(biāo)。精確度評(píng)價(jià)模型通過物體檢測(cè)的準(zhǔn)確性、召回率指標(biāo)評(píng)估模型對(duì)物體檢測(cè)的全面性。精確度和召回率的計(jì)算公式如下:

        [P=TPFP+TP] (10)

        [R=TPTP+FN] (11)

        式中:TP為真正例;FP為假正例;FN為假反例。

        mAP表示數(shù)據(jù)集中各類別的平均精度的均值,本文以IoU為0.5時(shí)取mAP。

        [mAP=i=1nAPin] (12)

        式中:[n]為目標(biāo)類別數(shù);AP為某一目標(biāo)類別平均精度。

        2.4" 消融實(shí)驗(yàn)

        由表2可知,YOLOv5s模型分別使用CIoU、EIoU、SIoU作為損失函數(shù)時(shí),mAP分別為85.9%、87.8%和87.5%,CIoU增加了預(yù)測(cè)框與真實(shí)框之間長寬比的一致性考量,EIoU在CIoU基礎(chǔ)上將寬高比拆開,分別計(jì)算寬高的差值,SIoU則考慮到了重疊面積、中心距離和長寬比等幾何參數(shù),以上三種損失函數(shù)都沒能考慮到數(shù)據(jù)集中低質(zhì)量樣本標(biāo)注信息的影響。將YOLOv5s模型的邊界框損失函數(shù)替換為WIoU時(shí),mAP得到了明顯的增長,使用WIoU v1、WIoU v2、WIoU v3的mAP分別為87.4%、87.6%和88.1%。得益于動(dòng)態(tài)非單調(diào)的聚焦機(jī)制,使用WIoU v3有效屏蔽了訓(xùn)練過程的負(fù)面影響,mAP相較于CIoU提升了2.2%。

        表3研究了[kencoder]和[kup]的影響,[kup]越大往往對(duì)應(yīng)著較大的[kencoder]。因?yàn)閮?nèi)容編碼器需要足夠大的感受野,才能預(yù)測(cè)更大的重組內(nèi)核。因此需要同時(shí)增加[kencoder]和[kup]的大小,但[kencoder]、[kup]增大將會(huì)導(dǎo)致計(jì)算復(fù)雜度的增加。由實(shí)驗(yàn)數(shù)據(jù)可知,當(dāng)[kencoder=5]、[kup=7]時(shí),模型獲得最佳的mAP,達(dá)到了88.4%。

        為了驗(yàn)證本文在YOLOv5s基礎(chǔ)上替換CARAFE輕量級(jí)上采樣算子、搭建坐標(biāo)卷積模塊、替換WIoU損失模塊分別對(duì)模型檢測(cè)性能的影響,設(shè)計(jì)消融實(shí)驗(yàn)。記A為搭建新的ML?CSPDarknet53結(jié)構(gòu)、U為引入CARAFE上采樣算子、G為搭建CoordConv坐標(biāo)卷積結(jié)構(gòu)、W為替換CIoU為WIoU v3。本文將分別對(duì)YOLOv5s、YOLOv5s?A、YOLOv5s?U、YOLOv5s?G、YOLOv5s?W、YOLOv5s?AUGW六個(gè)模型進(jìn)行訓(xùn)練,實(shí)驗(yàn)結(jié)果如表4所示。

        由表4可知原YOLOv5s算法精確度和召回率分別為85%和80.0%,mAP@0.5和mAP@0.5:0.95分別為85.9%和56.7%。在更換主干網(wǎng)絡(luò)結(jié)構(gòu)為ML?CSPDarknet53后,在特征提取階段同時(shí)融合了通道信息、空間信息、局部信息和全局信息來提高網(wǎng)絡(luò)性能,mAP@0.5和mAP@0.5:0.95分別提升了2.2%和1.2%。引入輕量級(jí)上采樣算子CARAFE后,考慮到特征融合時(shí)特征圖的語義信息,并且增大了感受野,mAP@0.5和mAP@0.5:0.95分別提升了2.5%和1.8%。為了加強(qiáng)網(wǎng)絡(luò)模型對(duì)圖像空間關(guān)系的理解能力,改善目標(biāo)遮擋時(shí)的檢測(cè)效果,引入CoordConv坐標(biāo)卷積改善Neck和Head部分網(wǎng)絡(luò)結(jié)構(gòu)后,mAP@0.5和mAP@0.5:0.95分別提升了2.3%和2.1%。為了避免數(shù)據(jù)集中低質(zhì)量樣本對(duì)模型性能的影響,將損失函數(shù)替換為WIoU v3后,mAP@0.5和mAP@0.5:0.95分別提升了2.2%和1.2%。YOLOv5s?AUGW模型綜合了YOLOv5s?A、YOLOv5s?U、YOLOv5s?G、YOLOv5s?W模型的特點(diǎn),相較于原模型精確度提升了2.9%,召回率提升了3.0%,mAP@0.5提升了3.4%,mAP@0.5:0.95提升了2.2%,證明了本文改進(jìn)方法的有效性。

        為了直觀展示改進(jìn)后模型的優(yōu)異性能,采用本文算法與原YOLOv5s網(wǎng)絡(luò)模型進(jìn)行道路交通影像檢測(cè)結(jié)果對(duì)比,如圖8所示。

        第一行是原YOLOv5s算法的檢測(cè)結(jié)果,第二行是改進(jìn)算法的檢測(cè)結(jié)果。第一張圖片駕駛員載有兩人,并且駕駛員對(duì)前排有遮擋情況,原算法檢測(cè)效果很不理想,改進(jìn)后算法能夠成功檢測(cè)三個(gè)目標(biāo)。第二張圖屬于上下班高峰期復(fù)雜道路環(huán)境,可以看出,改進(jìn)后的算法能夠更大程度地檢測(cè)所有目標(biāo)情況,而原算法則有較多漏檢錯(cuò)檢情況。在夜晚場景中,改進(jìn)算法也能成功地進(jìn)行檢測(cè)。整體來看,由于改進(jìn)的檢測(cè)算法有著較強(qiáng)的特征提取能力,能夠關(guān)注到特征圖上下文語義信息,并且對(duì)空間信息有著較強(qiáng)的感知能力,所以能夠更好地在復(fù)雜且有遮擋的環(huán)境下進(jìn)行檢測(cè)任務(wù)。

        為了驗(yàn)證本文算法相對(duì)于其他算法的優(yōu)勢(shì),進(jìn)行了與各種主流算法的比較,結(jié)果如表5所示。

        本文將在相同數(shù)據(jù)集上,對(duì)包括YOLOv3?tiny、 YOLOv5n、YOLOv7?tiny等通用目標(biāo)檢測(cè)算法進(jìn)行了對(duì)比實(shí)驗(yàn)。

        可見,本文所提出算法相較于其他幾種算法在mAP@0.5上分別提高了12.0%、7.9%、0.7%,在mAP@0.5:0.95上分別提高了11.4%、7.7%、2.7%。實(shí)驗(yàn)結(jié)果顯示,相比于其他通用目標(biāo)檢測(cè)算法,本文提出的算法模型在整體檢測(cè)性能方面取得了顯著優(yōu)勢(shì),能夠滿足在復(fù)雜道路場景下對(duì)電動(dòng)車騎乘人員佩戴頭盔的檢測(cè)任務(wù)需求。

        3" 結(jié)" 論

        針對(duì)現(xiàn)有算法不能滿足復(fù)雜背景干擾下電動(dòng)車頭盔小目標(biāo)存在相互遮擋的情況,以及自制數(shù)據(jù)集中存在的低質(zhì)量樣本的影響,本文提出了一種多目標(biāo)遮擋背景下基于YOLOv5的電動(dòng)車頭盔檢測(cè)算法。具體包括:提出一種新的主干網(wǎng)絡(luò)結(jié)構(gòu)ML?CSPDarknet53,增強(qiáng)主干網(wǎng)絡(luò)在復(fù)雜道路場景下的特征提取能力;引入輕量級(jí)上采樣算子CARAFE,利用特征圖語義信息擴(kuò)大感受野,檢測(cè)更小的目標(biāo);搭建坐標(biāo)卷積CoordConv模塊,更多地獲取坐標(biāo)信息,增強(qiáng)網(wǎng)絡(luò)對(duì)目標(biāo)整體或部分被遮擋情況下的感知能力;通過在國內(nèi)多個(gè)城市、不同時(shí)間采集真實(shí)道路交通場景影像制作了內(nèi)容豐富的電動(dòng)車駕乘人員數(shù)據(jù)集;將WIoU v3作為邊界框損失函數(shù),降低數(shù)據(jù)集中低質(zhì)量樣本對(duì)模型性能的不利影響。

        實(shí)驗(yàn)結(jié)果表明,改進(jìn)后的檢測(cè)算法相較于原算法在精確度、召回率、mAP@0.5、mAP@0.5:0.95上分別提升了2.9%、3.0%、3.4%和2.2%,并且性能優(yōu)于其他主流檢測(cè)算法。實(shí)際測(cè)試結(jié)果表明,改進(jìn)后的網(wǎng)絡(luò)模型有效地解決了電動(dòng)車頭盔檢測(cè)算法在車流量較大的環(huán)境下目標(biāo)之間相互遮擋、復(fù)雜背景干擾、頭盔目標(biāo)小等問題。后續(xù)工作的重點(diǎn)將放在模型的輕量化以及嵌入式設(shè)備的部署方面,推進(jìn)檢測(cè)算法的具體應(yīng)用。

        注:本文通訊作者為韓東辰。

        參考文獻(xiàn)

        [1] 程前,邵毅明,董兆福.汽車與電動(dòng)自行車正面碰撞事故重建研究[J].公路與汽運(yùn),2019(1):6?10.

        [2] 覃朗,鄭婉姝,寧佩珊,等.中國公眾“一盔一帶”安全守護(hù)行動(dòng)知曉情況及實(shí)施效果[J].中國公共衛(wèi)生,2023,39(9):1197?1200.

        [3] 劉琛,王江濤,王明陽.引入視覺機(jī)制的SSD網(wǎng)絡(luò)在摩托車頭盔佩戴檢測(cè)中的應(yīng)用[J].電子測(cè)量與儀器學(xué)報(bào),2021,35(3):144?151.

        [4] 吳冬梅,尹以鵬,宋婉瑩,等.改進(jìn)YOLO v4算法的電動(dòng)車駕駛員頭盔佩戴檢測(cè)[J].計(jì)算機(jī)仿真,2023,40(3):508?513.

        [5] 謝溥軒,崔金榮,趙敏.基于改進(jìn)YOLOv5的電動(dòng)車頭盔佩戴檢測(cè)算法[J].計(jì)算機(jī)科學(xué),2023,50(z1):420?425.

        [6] WEI C Y, TAN Z, QING Q X, et al. Fast helmet and license plate detection based on lightweight YOLOv5 [J]. Sensors, 2023, 23(9): 4335.

        [7] ALFONSO R, DAHER C, ARZAMENDIA M, et al. A motorcyclist helmet detection system through a two?stage CNN approach [C]// 2021 IEEE CHILEAN Conference on Electrical, Electronics Engineering, Information and Communication Technologies (CHILECON). New York: IEEE, 2021: 1?6.

        [8] LI C H, HUANG D. Detecting helmets on motorcyclists by deep neural networks with a dual?detection scheme [C]// International Conference on Neural Information Processing. Heidelberg: Springer, 2021: 417?427.

        [9] JIA W, XU S Q, LIANG Z, et al. Real?time automatic helmet detection of motorcyclists in urban traffic using improved YOLOv5 detector [J]. IET image processing, 2021, 15(14): 3623?3637.

        [10] LIN H H, DENG J D, ALBERS D, et al. Helmet use detection of tracked motorcycles using CNN?based multitask learning [J]. IEEE access, 2020, 8: 162073?162084.

        [11] 解宇敏,張浪文,余孝源,等.可見光?紅外特征交互與融合的YOLOv5目標(biāo)檢測(cè)算法[J].控制理論與應(yīng)用,2024,41(5):914?922.

        [12] WAN D H, LU R S, SHEN S Y, et al. Mixed local channel attention for object detection [J]. Engineering applications of artificial intelligence, 2023, 123: 106442.

        [13] WANG J Q, CHEN K, XU R, et al. CARAFE: Content?aware ReAssembly of FEatures [C]// Proceedings of the IEEE/CVF International Conference on Computer Vision (ICCV). New York: IEEE, 2019: 3007?3016.

        [14] LIU R, LEHMAN J, MOLINO P, et al. An intriguing failing of convolutional neural networks and the CoordConv solution [C]// Advances in Neural Information Processing Systems 31: Annual Conference on Neural Information Processing Systems 2018. [S.l.: s.n.], 2018: 9628?9639.

        [15] ZHENG Z H, WANG P, LIU W, et al. Distance?IoU loss: Faster and better learning for bounding box regression [C]// Proceedings of the AAAI Conference on Artificial Intelligence. [S.l.]: AAAI, 2020: 12993?13000.

        [16] TONG Z J, CHEN Y H, XU Z W, et al. Wise?IoU: Bounding box regression loss with dynamic focusing mechanism [EB/OL]. [2023?01?26]. https://doi.org/10.48550/arXiv.2301.10051.

        基金項(xiàng)目:陜西省重點(diǎn)研發(fā)計(jì)劃三項(xiàng)改革綜合試點(diǎn)(2023GXLH?076);咸陽市重大科技創(chuàng)新專項(xiàng)(L2023?ZDKJ?QCY?SXGG?GY?009)

        作者簡介:韓東辰(2001—),男,陜西西安人,碩士研究生,研究方向?yàn)槟繕?biāo)檢測(cè)。

        張方暉(1966—),男,山西臨汾人,博士研究生,三級(jí)教授,研究方向?yàn)槲㈦娮蛹夹g(shù)、智能電路與應(yīng)用系統(tǒng)。

        段克盼(1998—),女,河北定州人,碩士研究生,研究方向?yàn)闄C(jī)器學(xué)習(xí)。

        李寧星(2000—),女,陜西寶雞人,碩士研究生,研究方向?yàn)槲㈦娮蛹夹g(shù)。

        猜你喜歡
        空間信息頭盔電動(dòng)車
        電動(dòng)車有可能沒有高檔和豪華車
        結(jié)合多層特征及空間信息蒸餾的醫(yī)學(xué)影像分割
        犬用戰(zhàn)術(shù)頭盔
        電動(dòng)車新貴
        小頭盔,大防護(hù)
        當(dāng)頭盔遇上高科技
        我不坐你的電動(dòng)車了
        大灰狼(2018年3期)2018-06-11 15:28:50
        電動(dòng)車來了 充電樁還會(huì)遠(yuǎn)嗎
        中國公路(2017年5期)2017-06-01 12:10:10
        《地理空間信息》協(xié)辦單位
        漢字戴頭盔
        中文字幕影片免费人妻少妇| 亚洲VA中文字幕欧美VA丝袜| 亚洲av福利天堂在线观看 | 中文字幕人妻少妇伦伦| 中文无码一区二区不卡av| 亚洲中文字幕无码中字| 黑人巨大亚洲一区二区久| 久久久精品国产免费看| 色视频综合无码一区二区三区| 丝袜足控一区二区三区| 亚洲最大av免费观看| 国产高清精品一区二区| 成在线人免费视频| 一本一本久久a久久精品| 按摩女内射少妇一二三区| 国产精品美女久久久网站三级| 丰满少妇a级毛片野外| 国产乱子伦露脸在线| 国产精品一区二区久久毛片| 日韩三级一区二区三区| 无码精品久久久久久人妻中字| 国产99久久无码精品| 国产精品亚洲在钱视频| 亚洲欧洲日产国码av系列天堂| 大陆极品少妇内射aaaaa| 在线丝袜欧美日韩制服| 视频一区视频二区自拍偷拍| 亚洲av香蕉一区区二区三区| 爽爽午夜影视窝窝看片| 漂亮的小少妇诱惑内射系列| 国产流白浆视频在线观看| 在线看片免费人成视频久网下载| 一本一道波多野结衣av中文| 黄色大片国产精品久久| 免费人成在线观看| 好大好硬好爽免费视频| 色老汉亚洲av影院天天精品| 日韩有码中文字幕在线观看 | 国产在线观看精品一区二区三区 | 国产一区亚洲二区三区| 品色永久免费|