亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于改進YOLOv5的復雜場景電動車頭盔檢測方法

        2025-01-06 00:00:00韓東辰張方暉王詩洋段克盼李寧星王凱
        現代電子技術 2025年1期
        關鍵詞:空間信息頭盔電動車

        摘" 要: 佩戴電動車頭盔是安全騎行的重要保障,對電動車駕乘人員佩戴頭盔進行有效檢測在保障駕乘人員安全方面具有重要意義。電動車頭盔檢測中存在目標之間相互遮擋、復雜背景干擾、頭盔目標小等問題,現有方法尚不能滿足復雜場景下電動車頭盔檢測的要求,因此,提出一種改進YOLOv5的復雜場景電動車頭盔識別方法。首先,提出一種新的主干網絡結構ML?CSPDarknet53,增強網絡的特征提取能力,引入輕量級上采樣算子CARAFE,利用特征圖語義信息擴大感受野;其次,搭建坐標卷積CoordConv模塊,增強網絡對空間信息的感知能力,并將WIoU v3作為邊界框損失函數,降低低質量樣本對模型性能的不利影響;最后,構建了內容豐富的頭盔檢測數據集對改進算法進行驗證。實驗結果表明,改進后算法相較于原算法在精確度、召回率、mAP@0.5、mAP@0.5:0.95上分別提升了2.9%、3.0%、3.4%和2.2%,并且性能優(yōu)于其他主流檢測算法,滿足復雜道路交通場景下電動車駕乘人員頭盔檢測的任務要求。

        關鍵詞: 頭盔檢測; 改進YOLOv5; 復雜場景; 目標遮擋; 特征提??; 上采樣; 坐標卷積; 損失函數

        中圖分類號: TN911.73?34; TP391.41" " " " " " " " "文獻標識碼: A" " " " " " " " "文章編號: 1004?373X(2025)01?0123?07

        Improved YOLOv5 based electric bicycle helmet detection method in complex scenes

        HAN Dongchen, ZHANG Fanghui, WANG Shiyang, DUAN Kepan, LI Ningxing, WANG Kai

        (School of Electronic Information and Artificial Intelligence, Shaanxi University of Science and Technology, Xi’an 710021, China)

        Abstract: Wearing an electric bicycle helmet is an important guarantee for safe riding, and it is of great significance to ensure the personnel safety by effectively detecting the helmet wearing of drivers and passengers of electric bicycles. Due to the factors of mutual occlusion of objects, complex background interferences, and excessive small size of the helmets (the objects) in the detection, the existing methods fail to meet the requirements of helmet detection in complex scenes, so this paper proposes an improved YOLOv5 based electric bicycle helmet recognition method in complex scenes. A new backbone network structure ML?CSPDarknet53 is proposed to enhance the feature extraction capability of the network. The lightweight up?sampling operator CARAFE is introduced. The semantic information of the feature map is used to expand the receptive field. A coordinate convolution CoordConv module is built to enhance the network′s perception of spatial information, and the WIoU (wise?IoU) v3 is taken as the bounding box loss function to reduce the adverse impact of low?quality samples on model performance. A rich helmet detection dataset is constructed to verify the improved algorithm. The experimental results show that the accuracy, recall rate, mAP@0.5 and mAP@0.5:0.95 of the proposed algorithm is improved by 2.9%, 3.0%, 3.4% and 2.2%, respectively, in comparison with that of the original algorithm, and the performance of the proposed algorithm is better than that of the other mainstream detection algorithms. Therefore, the proposed algorithm can meet the requirements of helmet detection of drivers and passengers of electric bicycles in complex scenes of road traffic.

        Keywords: helmet detection; improved YOLOv5; complex scene; object occlusion; feature extraction; up?sampling; CoordConv; loss function

        0" 引" 言

        隨著我國電動車社會保有量逐年增加,電動車交通事故的發(fā)生日漸頻繁。電動車事故中駕乘人員多是頭部首先受到撞擊,電動車頭盔是保護駕乘人員頭部安全的關鍵裝備。摩托車頭盔可以降低72%的頭部損傷風險和39%的致死風險[1]。佩戴頭盔可以有效提高生還幾率。2020年公安部和交通管理局聯合部署了“一盔一帶”安全守護行動[2],旨在全面整治電動車用戶不戴頭盔等違法行為。但采用人工臨檢方式費時費力,因此設計一種用于檢測駕乘人員是否佩戴頭盔的智能交通算法至關重要。

        近些年來人工智能技術快速發(fā)展,基于深度學習的目標檢測技術在道路交通和安全防護等領域取得了令人矚目的成就。目前已經有學者開展了有關電動車駕乘人佩戴頭盔檢測的研究。文獻[3]在SSD網絡中引入了注意力機制和類似人類視覺偏心率機制的模塊。文獻[4]在YOLOv4網絡中用K?means算法進行聚類,在主干網絡中引入卷積層和PANet網絡,并添加SPP空間池化金字塔。文獻[5]在YOLOv5網絡中引入ECA?Net通道注意力機制、Bi?FPN加權雙向特征金字塔和[α]?CIoU損失函數。文獻[6]中結合ShuffleNetv2和GhostNet,對YOLOv5骨干網絡和Neck部分進行輕量化,提出基于Add的特征融合方法,有效降低了模型參數量和運算量。文獻[7]基于SSD算法設計了一種駕乘人員所在區(qū)域的頭盔檢測分類網絡。文獻[8]提出一種通過車手檢測和頭肩檢測共同完成的檢測算法,具有較好的魯棒性。文獻[9]在YOLOv5網絡中融合了三重注意力,結合Soft?NMS提出了一種摩托車車手頭盔檢測方法。文獻[10]設計了一個可同時識別幀間相似性和完成頭盔分類的網絡模型,并且與采用Retinanet作為二輪車檢測器的網絡共同完成了二輪車檢測、跟蹤和頭盔佩戴分類的實現。

        綜上所述,現有的網絡模型在電動車頭盔檢測問題上已取得了一定的進展,但在交通繁忙路段下的檢測性能相對較差。具體表現為道路擁擠時會導致多目標之間相互遮擋的情況出現,這嚴重影響了網絡模型的特征提取過程。此外,目前公開的電動車頭盔檢測數據集較少,且場景內容較為簡單,同樣會導致網絡模型在道路擁擠時檢測性能大幅降低。

        為解決上述問題,本文提出一種基于改進YOLOv5s的電動車駕乘人員頭盔佩戴檢測算法,主要創(chuàng)新點有:提出一種新的主干網絡結構ML?CSPDarknet53;引入CARAFE上采樣算子;搭建坐標卷積模塊;用WiseIoU Loss代替原損失函數。

        1" 改進算法

        本文對原網絡進行了如下改進:針對復雜背景中小目標間相互遮擋的問題,提出一種新的主干網絡結構ML?CSPDarknet53,在原主干網絡的基礎上添加MLCA注意力機制,可以同時關注通道信息、空間信息、局部信息和全局信息,增強特征提取能力;引入輕量級上采樣算子CARAFE,利用特征圖語義信息獲得更大感受野和較強的內容感知;在FPN和Head部分設計添加坐標卷積模塊,增強網絡對空間信息的感知能力。針對自制數據集中存在的低質量樣本問題,將原網絡中的CIoU Loss損失函數更改為具有動態(tài)非單調聚焦機制的WiseIoU Loss,降低低質量樣本對模型性能的不利影響。改進后的網絡結構如圖1所示。

        1.1" ML?CSPDarknet53結構

        YOLOv5s網絡中采用CSPDarknet53結構,該結構借鑒了CSPNet的思想[11]。但在面對真實道路交通場景時會受復雜背景影響從而影響主干網絡的特征提取能力。因此本文在原主干網絡的基礎上,提出一種新的主干網絡結構ML?CSPDarknet53。具體方法為:在原結構中加入混合局部通道注意力(MLCA)機制[12],結構如圖2所示。

        注意力機制可使得神經網絡強調重要區(qū)域并且抑制不相關的區(qū)域,但大多數注意力方法通常都忽視了構建空間注意力圖至關重要的空間特征信息。對于包含空間信息的注意力方法,由于計算和參數要求過大,在添加該方法時往往需要縮減其通道維度,極易導致精度下降。

        為了引入更為細致的空間信息,將輸入分割成多個小塊,Local SE注意力相當于多個局部SE的疊加,然而大量的小塊疊加會導致參數量過多的問題。MLCA注意力機制通過采取單維度卷積加速方法有效降低了計算復雜度和參數量。

        MLCA對輸入的特征向量進行兩次池化操作,先通過局部池化將輸入轉換為[1×C×ks×ks]的向量,以提取局部空間信息。在初始階段的基礎上,通過兩個分支將輸入轉換為一維向量,其中第一個分支包含全局信息,第二個分支包含局部空間信息。隨后,經過一維卷積,利用反池化操作恢復兩個向量的原始分辨率,輔以信息融合實現混合注意力。MLCA結構圖如圖3所示。

        本文通過在原主干網絡基礎上添加MLCA結構,使網絡能夠在不犧牲計算效率的前提下同時融合通道信息、空間信息、局部信息以及全局信息,增強主干網絡在復雜道路場景下的特征提取能力。

        1.2" 引入輕量級通用上采樣算子CARAFE

        在目標檢測任務中,為了能夠更好地定位和檢測更小的目標,通常使用上采樣操作將低分辨率的特征圖映射到高分辨率。YOLOv5s網絡中Neck部分負責融合不同層次的特征,使用的是最近鄰上采樣的方法,該方法操作簡單、速度較快,有助于特征信息在不同尺度的特征圖之間傳遞。但是最近鄰上采樣方法在決定上采樣核時沒有利用到特征圖的語義信息,并且感受野較小。

        針對上述問題,本文引入了輕量級通用上采樣算子CARAFE[13]。該方法分為兩個部分,分別是上采樣核預測模塊和特征重組模塊。在上采樣核預測階段,對于形狀為[H×W×C]的輸入特征圖,首先用一個[1×1]卷積將通道數壓縮至[H×W×Cm]。假設上采樣核尺寸為[kup×kup],若希望對輸出特征圖的不同位置使用不同的上采樣核,那么需要預測的上采樣核形狀為[σH×σW×kup×kup]。對于壓縮后的輸入特征圖,利用一個[kencoder×kencoder]大小的卷積層預測上采樣核,輸入通道數為[Cm],輸出通道數為[σ2k2up],將其在空間維度展開,得到形狀為[σH×σW×k2up]的上采樣核。再將上采樣核利用softmax進行歸一化,使得卷積核權重和為1。在特征重組模塊中,對于輸出特征圖中的不同位置,將其映射回輸入特征圖,取出其中心的[kup×kup]區(qū)域,與該位置上采樣核作點積,輸出為該位置的上采樣特征。通過特征重組,局部區(qū)域相關特征點的信息會獲得更多的關注,以提升特征圖語義信息的強度。CARAFE框架如圖4所示。

        1.3" 坐標卷積CoordConv模塊

        傳統卷積在檢測、分類等任務中因其參數量少、計算高效并且具有平移不變性等優(yōu)勢得到了廣泛的應用。但平移不變性的特點在需要考慮空間信息和位置關系的任務時,就是一個不利因素。在本文任務場景中,常常會遇到交通環(huán)境復雜、駕乘人之間互相遮擋的情況,傳統卷積因無法充分考慮像素具體位置坐標信息而導致檢測性能下降。為解決這一問題,本文引入了CoordConv[14]坐標卷積模塊。

        CoordConv可以允許網絡保留或丟棄平移不變性的特性以適應不同任務的需求,它是傳統卷積的擴展,通過在輸入通道連接兩個額外的通道[i]和[j]后再進行傳統卷積來完成。傳統卷積如圖5所示,形狀[h×w×c]卷積后映射為[h'×w'×c']。CoordConv示意圖將兩個額外的[i]和[j]通道連接到輸入通道來完成,將輸入數據的坐標信息融入網絡的學習過程中。該設計可保障CoordConv更加敏感于不同位置的特征,有助于提高網絡對空間關系的理解能力。CoordConv示意圖如圖6所示。

        由于CoordConv在傳統卷積中添加了兩個輸入通道,在一定程度上增加了參數量和計算量,為盡可能地降低影響,實現網絡結構輕量化,本文在Neck部分替換FPN結構中的傳統卷積,并且在每個Head頭部添加一層CoordConv,以此來更多地獲取坐標信息,從而更好地應對目標整體或部分被遮擋的情況。

        1.4" 邊界框損失函數改進

        YOLOv5中使用CIoU_Loss[15]計算邊界框損失,CIoU_Loss表達式為:

        [LCIoU=1-IoU+ρ2(b,bgt)c2+αv] (1)

        [α=v(1-IoU)+v] (2)

        [v=4π2arctanwgthgt-arctanwh2] (3)

        式中:IoU為交并比;[b]、[bgt]為預測框和真實框的中心點;[ρ2(b,bgt)]是兩個中心點之間的歐氏距離;[w]、[h]、[wgt]、[hgt]分別是預測框和真實框的寬高;[c]是包含預測框和真實框最小矩形的對角線長度。

        CIoU考慮了預測框與真實框中心點距離長寬比的影響,但未考慮到優(yōu)劣樣本平衡的問題。目前有關電動車駕乘人員佩戴頭盔的數據集較少,本文實驗數據均為自主采集制作而成,故不可避免的有人為因素的影響而含有部分低質量的標注信息。此時使用CIoU_Loss便會因低質量邊框信息而加強邊界回歸從而降低模型性能。因此本文引入Wise?IoU(WIoU)[16]作為邊界框損失函數。

        WIoU具有v1、v2、v3三個版本。根據距離度量構建距離注意力,最后得到了具有兩層注意力機制的WIoUv1。

        [LWIoUv1=RWIoULIoU] (4)

        [RWIoU=exp(x-xgt)2+(y-ygt)2(w2g+h2g)2] (5)

        式中[RWIoU∈[1,e)],將顯著放大普通質量預測框的[LIoU]。[LIoU∈[0,1]],將顯著降低高質量預測框的[RWIoU],并在預測框與真實框重合較好的情況下顯著降低其對中心點距離的關注。

        在WIoU v2中,構造了[LWIoU v1]的單調聚焦系數[Lγ*IoU],有效降低了簡單樣本對損失值的貢獻,使得模型能夠聚焦復雜樣本,分類性能獲得提升。

        [LWIoU v2=Lγ*IoULWIoU v1," " γgt;0] (6)

        為了解決后期收斂速度變慢的問題,引入[LIoU]的均值作為歸一化因子:

        [LWIoU v2=L*IoULIoUγLWIoU v1] (7)

        式中[LIoU]表示動量為[m]的滑動平均值,動態(tài)更新歸一化因子使得梯度增益[L*IoULIoUγ]保持較高水平。

        在WIoUv3中,定義離群度[β]用以描述預測框質量。

        [β=L*IoULIoU∈[0,+∞)] (8)

        式中,[β]較小表示預測框質量高,為其分配小的梯度增益,以便于邊界框回歸聚焦到普通質量的預測框上,[β]較大的預測框分配小的梯度增益將有效防止低質量樣本產生較大的有害梯度。利用[β]構造一個非單調聚焦系數,將其應用于WIoU v1。

        [LWIoU v3=βδαβ-δLWIoU v1] (9)

        因為[LIoU]是動態(tài)的,所以預測框質量劃分標準也是動態(tài)的,所以WIoU v3可在任意時刻做出合理的梯度增益分配策略。

        2" 實驗與結果分析

        2.1" 實驗環(huán)境配置與參數設置

        本文所有實驗環(huán)境基于PyTorch 2.1.1框架,Python版本為3.8,CUDA版本為12.2。所有模型均部署在CPU為Intel Xeon[?] Silver 4214R,GPU為NVIDIA GeForce RTX 3080 Ti(12 GB),操作系統為Ubuntu 18.04,內存為90 GB的設備上進行訓練測試。本文在模型訓練時采用余弦退火策略調整學習率,不加載COCO數據集的預訓練權重,訓練過程中的網絡參數設置如表1所示。

        2.2" 數據集

        為了制作數據類型豐富的電動車頭盔檢測數據集,本文在陜西省咸陽市、陜西省西安市、河南省鄭州市、北京市等不同路段不同時間采集非機動車道的實時交通影像數據,將視頻文件每隔500 ms進行截取。為了保證數據集質量,對所有圖片進行多次篩選,最終共篩選出3 390張可作為電動車頭盔檢測數據集的圖片,數據集部分樣本如圖7所示。

        利用LabelImg工具對數據集進行標注。根據本文任務要求,設置三類標簽:其中“helmet”指佩戴頭盔,“without_helmet”指未佩戴頭盔,“two_wheeler”指電動車。最后將標記后的圖片按照8∶2的比例隨機劃分為訓練集(2 712張)和測試集(678張)。

        2.3" 評價指標

        在定量分析模型檢測效果方面,本文選擇檢測精確度(Precicion)、召回率(Reccall)和平均精確度(mAP)作為訓練模型的性能評價指標。精確度評價模型通過物體檢測的準確性、召回率指標評估模型對物體檢測的全面性。精確度和召回率的計算公式如下:

        [P=TPFP+TP] (10)

        [R=TPTP+FN] (11)

        式中:TP為真正例;FP為假正例;FN為假反例。

        mAP表示數據集中各類別的平均精度的均值,本文以IoU為0.5時取mAP。

        [mAP=i=1nAPin] (12)

        式中:[n]為目標類別數;AP為某一目標類別平均精度。

        2.4" 消融實驗

        由表2可知,YOLOv5s模型分別使用CIoU、EIoU、SIoU作為損失函數時,mAP分別為85.9%、87.8%和87.5%,CIoU增加了預測框與真實框之間長寬比的一致性考量,EIoU在CIoU基礎上將寬高比拆開,分別計算寬高的差值,SIoU則考慮到了重疊面積、中心距離和長寬比等幾何參數,以上三種損失函數都沒能考慮到數據集中低質量樣本標注信息的影響。將YOLOv5s模型的邊界框損失函數替換為WIoU時,mAP得到了明顯的增長,使用WIoU v1、WIoU v2、WIoU v3的mAP分別為87.4%、87.6%和88.1%。得益于動態(tài)非單調的聚焦機制,使用WIoU v3有效屏蔽了訓練過程的負面影響,mAP相較于CIoU提升了2.2%。

        表3研究了[kencoder]和[kup]的影響,[kup]越大往往對應著較大的[kencoder]。因為內容編碼器需要足夠大的感受野,才能預測更大的重組內核。因此需要同時增加[kencoder]和[kup]的大小,但[kencoder]、[kup]增大將會導致計算復雜度的增加。由實驗數據可知,當[kencoder=5]、[kup=7]時,模型獲得最佳的mAP,達到了88.4%。

        為了驗證本文在YOLOv5s基礎上替換CARAFE輕量級上采樣算子、搭建坐標卷積模塊、替換WIoU損失模塊分別對模型檢測性能的影響,設計消融實驗。記A為搭建新的ML?CSPDarknet53結構、U為引入CARAFE上采樣算子、G為搭建CoordConv坐標卷積結構、W為替換CIoU為WIoU v3。本文將分別對YOLOv5s、YOLOv5s?A、YOLOv5s?U、YOLOv5s?G、YOLOv5s?W、YOLOv5s?AUGW六個模型進行訓練,實驗結果如表4所示。

        由表4可知原YOLOv5s算法精確度和召回率分別為85%和80.0%,mAP@0.5和mAP@0.5:0.95分別為85.9%和56.7%。在更換主干網絡結構為ML?CSPDarknet53后,在特征提取階段同時融合了通道信息、空間信息、局部信息和全局信息來提高網絡性能,mAP@0.5和mAP@0.5:0.95分別提升了2.2%和1.2%。引入輕量級上采樣算子CARAFE后,考慮到特征融合時特征圖的語義信息,并且增大了感受野,mAP@0.5和mAP@0.5:0.95分別提升了2.5%和1.8%。為了加強網絡模型對圖像空間關系的理解能力,改善目標遮擋時的檢測效果,引入CoordConv坐標卷積改善Neck和Head部分網絡結構后,mAP@0.5和mAP@0.5:0.95分別提升了2.3%和2.1%。為了避免數據集中低質量樣本對模型性能的影響,將損失函數替換為WIoU v3后,mAP@0.5和mAP@0.5:0.95分別提升了2.2%和1.2%。YOLOv5s?AUGW模型綜合了YOLOv5s?A、YOLOv5s?U、YOLOv5s?G、YOLOv5s?W模型的特點,相較于原模型精確度提升了2.9%,召回率提升了3.0%,mAP@0.5提升了3.4%,mAP@0.5:0.95提升了2.2%,證明了本文改進方法的有效性。

        為了直觀展示改進后模型的優(yōu)異性能,采用本文算法與原YOLOv5s網絡模型進行道路交通影像檢測結果對比,如圖8所示。

        第一行是原YOLOv5s算法的檢測結果,第二行是改進算法的檢測結果。第一張圖片駕駛員載有兩人,并且駕駛員對前排有遮擋情況,原算法檢測效果很不理想,改進后算法能夠成功檢測三個目標。第二張圖屬于上下班高峰期復雜道路環(huán)境,可以看出,改進后的算法能夠更大程度地檢測所有目標情況,而原算法則有較多漏檢錯檢情況。在夜晚場景中,改進算法也能成功地進行檢測。整體來看,由于改進的檢測算法有著較強的特征提取能力,能夠關注到特征圖上下文語義信息,并且對空間信息有著較強的感知能力,所以能夠更好地在復雜且有遮擋的環(huán)境下進行檢測任務。

        為了驗證本文算法相對于其他算法的優(yōu)勢,進行了與各種主流算法的比較,結果如表5所示。

        本文將在相同數據集上,對包括YOLOv3?tiny、 YOLOv5n、YOLOv7?tiny等通用目標檢測算法進行了對比實驗。

        可見,本文所提出算法相較于其他幾種算法在mAP@0.5上分別提高了12.0%、7.9%、0.7%,在mAP@0.5:0.95上分別提高了11.4%、7.7%、2.7%。實驗結果顯示,相比于其他通用目標檢測算法,本文提出的算法模型在整體檢測性能方面取得了顯著優(yōu)勢,能夠滿足在復雜道路場景下對電動車騎乘人員佩戴頭盔的檢測任務需求。

        3" 結" 論

        針對現有算法不能滿足復雜背景干擾下電動車頭盔小目標存在相互遮擋的情況,以及自制數據集中存在的低質量樣本的影響,本文提出了一種多目標遮擋背景下基于YOLOv5的電動車頭盔檢測算法。具體包括:提出一種新的主干網絡結構ML?CSPDarknet53,增強主干網絡在復雜道路場景下的特征提取能力;引入輕量級上采樣算子CARAFE,利用特征圖語義信息擴大感受野,檢測更小的目標;搭建坐標卷積CoordConv模塊,更多地獲取坐標信息,增強網絡對目標整體或部分被遮擋情況下的感知能力;通過在國內多個城市、不同時間采集真實道路交通場景影像制作了內容豐富的電動車駕乘人員數據集;將WIoU v3作為邊界框損失函數,降低數據集中低質量樣本對模型性能的不利影響。

        實驗結果表明,改進后的檢測算法相較于原算法在精確度、召回率、mAP@0.5、mAP@0.5:0.95上分別提升了2.9%、3.0%、3.4%和2.2%,并且性能優(yōu)于其他主流檢測算法。實際測試結果表明,改進后的網絡模型有效地解決了電動車頭盔檢測算法在車流量較大的環(huán)境下目標之間相互遮擋、復雜背景干擾、頭盔目標小等問題。后續(xù)工作的重點將放在模型的輕量化以及嵌入式設備的部署方面,推進檢測算法的具體應用。

        注:本文通訊作者為韓東辰。

        參考文獻

        [1] 程前,邵毅明,董兆福.汽車與電動自行車正面碰撞事故重建研究[J].公路與汽運,2019(1):6?10.

        [2] 覃朗,鄭婉姝,寧佩珊,等.中國公眾“一盔一帶”安全守護行動知曉情況及實施效果[J].中國公共衛(wèi)生,2023,39(9):1197?1200.

        [3] 劉琛,王江濤,王明陽.引入視覺機制的SSD網絡在摩托車頭盔佩戴檢測中的應用[J].電子測量與儀器學報,2021,35(3):144?151.

        [4] 吳冬梅,尹以鵬,宋婉瑩,等.改進YOLO v4算法的電動車駕駛員頭盔佩戴檢測[J].計算機仿真,2023,40(3):508?513.

        [5] 謝溥軒,崔金榮,趙敏.基于改進YOLOv5的電動車頭盔佩戴檢測算法[J].計算機科學,2023,50(z1):420?425.

        [6] WEI C Y, TAN Z, QING Q X, et al. Fast helmet and license plate detection based on lightweight YOLOv5 [J]. Sensors, 2023, 23(9): 4335.

        [7] ALFONSO R, DAHER C, ARZAMENDIA M, et al. A motorcyclist helmet detection system through a two?stage CNN approach [C]// 2021 IEEE CHILEAN Conference on Electrical, Electronics Engineering, Information and Communication Technologies (CHILECON). New York: IEEE, 2021: 1?6.

        [8] LI C H, HUANG D. Detecting helmets on motorcyclists by deep neural networks with a dual?detection scheme [C]// International Conference on Neural Information Processing. Heidelberg: Springer, 2021: 417?427.

        [9] JIA W, XU S Q, LIANG Z, et al. Real?time automatic helmet detection of motorcyclists in urban traffic using improved YOLOv5 detector [J]. IET image processing, 2021, 15(14): 3623?3637.

        [10] LIN H H, DENG J D, ALBERS D, et al. Helmet use detection of tracked motorcycles using CNN?based multitask learning [J]. IEEE access, 2020, 8: 162073?162084.

        [11] 解宇敏,張浪文,余孝源,等.可見光?紅外特征交互與融合的YOLOv5目標檢測算法[J].控制理論與應用,2024,41(5):914?922.

        [12] WAN D H, LU R S, SHEN S Y, et al. Mixed local channel attention for object detection [J]. Engineering applications of artificial intelligence, 2023, 123: 106442.

        [13] WANG J Q, CHEN K, XU R, et al. CARAFE: Content?aware ReAssembly of FEatures [C]// Proceedings of the IEEE/CVF International Conference on Computer Vision (ICCV). New York: IEEE, 2019: 3007?3016.

        [14] LIU R, LEHMAN J, MOLINO P, et al. An intriguing failing of convolutional neural networks and the CoordConv solution [C]// Advances in Neural Information Processing Systems 31: Annual Conference on Neural Information Processing Systems 2018. [S.l.: s.n.], 2018: 9628?9639.

        [15] ZHENG Z H, WANG P, LIU W, et al. Distance?IoU loss: Faster and better learning for bounding box regression [C]// Proceedings of the AAAI Conference on Artificial Intelligence. [S.l.]: AAAI, 2020: 12993?13000.

        [16] TONG Z J, CHEN Y H, XU Z W, et al. Wise?IoU: Bounding box regression loss with dynamic focusing mechanism [EB/OL]. [2023?01?26]. https://doi.org/10.48550/arXiv.2301.10051.

        基金項目:陜西省重點研發(fā)計劃三項改革綜合試點(2023GXLH?076);咸陽市重大科技創(chuàng)新專項(L2023?ZDKJ?QCY?SXGG?GY?009)

        作者簡介:韓東辰(2001—),男,陜西西安人,碩士研究生,研究方向為目標檢測。

        張方暉(1966—),男,山西臨汾人,博士研究生,三級教授,研究方向為微電子技術、智能電路與應用系統。

        段克盼(1998—),女,河北定州人,碩士研究生,研究方向為機器學習。

        李寧星(2000—),女,陜西寶雞人,碩士研究生,研究方向為微電子技術。

        猜你喜歡
        空間信息頭盔電動車
        電動車有可能沒有高檔和豪華車
        消費電子(2022年7期)2022-10-31 06:16:42
        結合多層特征及空間信息蒸餾的醫(yī)學影像分割
        犬用戰(zhàn)術頭盔
        電動車新貴
        小頭盔,大防護
        當頭盔遇上高科技
        我不坐你的電動車了
        大灰狼(2018年3期)2018-06-11 15:28:50
        電動車來了 充電樁還會遠嗎
        中國公路(2017年5期)2017-06-01 12:10:10
        《地理空間信息》協辦單位
        漢字戴頭盔
        久久久精品波多野结衣| av中文字幕一区不卡| 日本又色又爽又黄的a片18禁| 99久久国产露脸精品竹菊传媒| 亚洲三区二区一区视频| 久久精品国产亚洲av夜夜| 国产乱码人妻一区二区三区| 人妻av乱片av出轨| 国产精品久久综合桃花网| 日本一区二区日韩在线| 99久久免费视频色老| 亚洲av永久无码天堂网毛片| 99热成人精品国产免国语的| 色综合久久人妻精品日韩| 亚洲av无码偷拍在线观看| 国产欧美日韩一区二区三区在线 | 亚洲精品无码久久毛片| 日韩av在线不卡一区二区三区| 精品一级一片内射播放| 亚洲va无码va在线va天堂| 538在线啪在线观看| 人妻风韵犹存av中文字幕| 不卡的av网站在线观看| 欧妇女乱妇女乱视频| 亚洲九九九| 综合亚洲二区三区四区在线| 国产精品无码无在线观看| 亚洲人成综合网站在线| 中文字幕你懂的一区二区| 97丨九色丨国产人妻熟女| 一二三四在线视频观看社区| 亚洲乱在线播放| 精品人妻69一区二区三区蜜桃| 国产一区二区三区免费av| 午夜精品久久久久久久99热| 欧美日本日韩aⅴ在线视频| 日韩精品极品视频在线观看蜜桃| 精品国产一区二区三区不卡在线| 精品国产一区二区三区免费| 女同中的p是什么意思| 久久亚洲网站中文字幕|