摘要:文章綜述了當(dāng)前頭盔佩戴檢測技術(shù)的發(fā)展現(xiàn)狀與挑戰(zhàn),重點(diǎn)探討了基于深度學(xué)習(xí)方法尤其是YOLO系列算法在頭盔佩戴識別領(lǐng)域的應(yīng)用潛力。文章將YOLOv8算法應(yīng)用于頭盔佩戴檢測領(lǐng)域,此方法克服了傳統(tǒng)監(jiān)控手段的局限性,實現(xiàn)了高效率、高準(zhǔn)確率的自動檢測,對于推動“一盔一帶”安全守護(hù)行動的實施和提升公共安全管理水平具有重要價值。
關(guān)鍵詞:深度學(xué)習(xí);頭盔檢測;YOLOv8算法
中圖分類號:TP311 文獻(xiàn)標(biāo)志碼:A
0 引言
頭盔是國民經(jīng)濟(jì)建設(shè)或出行不可或缺的防護(hù)用具,在涉及電動自行車的道路交通事故中,頭部受傷致死的比例占交通事故死亡總數(shù)的75%及以上,而正確佩戴安全頭盔可有效降低頭部受傷風(fēng)險達(dá)60%~70%,是保護(hù)騎乘者頭部安全的關(guān)鍵措施。“一盔一帶”安全守護(hù)行動的推行,對提升公眾道路安全意識及預(yù)防交通事故傷亡具有深遠(yuǎn)意義。當(dāng)前,交通管理系統(tǒng)人工觀察未佩戴頭盔的電動自行車騎行人,存在效率低下等問題,因此需要一種以圖像為輸入、使用算法自動判定未佩戴頭盔并給出預(yù)警的計算機(jī)視覺技術(shù)和系統(tǒng),以提供高效的頭盔佩戴識別解決方案[1]。
目前,國內(nèi)關(guān)于安全頭盔佩戴檢測方面的研究還不夠普遍,陳揚(yáng)等[2]提出HWD-YOLOv5s算法,以深度學(xué)習(xí)框架YOLOv5s為基礎(chǔ),改進(jìn)原始模型特征提取部分的下采樣方法和特征融合方法,并修改邊框損失函數(shù)GIOU的計算方法。朱碩等[3]利用機(jī)器視覺傳感器收集大量電動車及駕駛?cè)四繕?biāo)數(shù)據(jù),制作相應(yīng)的數(shù)據(jù)集,將處理后的數(shù)據(jù)集在Pytorch框架上利用改進(jìn)的YOLOv5神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,獲得最優(yōu)權(quán)重參數(shù)。湯天培等[4]提出一種基于深度學(xué)習(xí)的安全頭盔佩戴行為檢測方法,基于EfficientNet目標(biāo)檢測框架,重新設(shè)計了主干網(wǎng)中特征圖的特征選取層,并提出像素級縮放模塊,構(gòu)建了一種新的用于電動自行車騎乘人員安全頭盔佩戴行為檢測的PLS-Det模型。
國外的研究人員對安全頭盔佩戴檢測問題展開了深入的研究。Felix等[5]綜合比較RetinaNet與殘差神經(jīng)網(wǎng)絡(luò)50層主體結(jié)合的方案,該方案以其基于錨點(diǎn)的機(jī)制和用于多尺度對象檢測的特征金字塔網(wǎng)絡(luò)而聞名。此外,還探究了DEtection TRansformer(DETR)架構(gòu),這是一種基于變換器架構(gòu)的端到端對象檢測模型,融入了ResNet50特征提取功能及YOLO架構(gòu),對騎車人及其頭盔使用情況進(jìn)行檢測和訓(xùn)練,經(jīng)實驗,所開發(fā)的模型在檢測活躍騎車人佩戴頭盔方面具有良好的準(zhǔn)確性。Li等[6]提出了一種基于深度學(xué)習(xí)的多任務(wù)框架,不僅能夠檢測頭盔佩戴狀態(tài),還能同時識別騎行者的其他安全行為(如是否穿反光衣),為交通安全監(jiān)管提供了更為全面的解決方案。
1 YOLOv8網(wǎng)絡(luò)
YOLO(You Only Look Once)是基于深度學(xué)習(xí)的目標(biāo)檢測算法,其核心在于將傳統(tǒng)的目標(biāo)檢測框架轉(zhuǎn)為單一階段的回歸任務(wù),通過單個的神經(jīng)網(wǎng)絡(luò)直接預(yù)測輸出物體的位置、類別。該方法在神經(jīng)網(wǎng)絡(luò)中將輸入圖像劃分為S×S個網(wǎng)格,各網(wǎng)格負(fù)責(zé)識別圖像中的物體,每個單元進(jìn)而預(yù)測包含物體的類別信息、邊界框坐標(biāo)及物體存在的置信度[7]。
YOLO算法只需單一神經(jīng)網(wǎng)絡(luò)實現(xiàn)檢測流程的高效整合,實現(xiàn)了極高的處理速度,滿足實時目標(biāo)檢測的需求,特別是在對響應(yīng)時間有嚴(yán)格要求的場景。如在視頻監(jiān)控領(lǐng)域,特別是智能交通系統(tǒng)與公共安全監(jiān)控中,其高速處理能力為實時事件監(jiān)測與響應(yīng)提供了可能。在自動駕駛技術(shù)中,該算法能夠滿足對環(huán)境動態(tài)物體進(jìn)行即時檢測與追蹤的需求。而且,YOLO算法采用一階段檢測方法,簡化了模型架構(gòu)與訓(xùn)練流程,促進(jìn)了算法的可實施性。在工業(yè)4.0背景下的自動化生產(chǎn)流水線,YOLO能有效應(yīng)用于產(chǎn)品質(zhì)量控制與分類,加速生產(chǎn)效率與智能化水平。綜上所述,YOLO系列算法不僅革新了目標(biāo)檢測的實現(xiàn)方式,也拓寬了計算機(jī)視覺技術(shù)在實際應(yīng)用中的邊界。
YOLOv8模型是在YOLOv5模型的基礎(chǔ)上提出的,針對不同計算資源需求分為YOLOv8m、YOLOv8s、YOLOv8l和YOLOv8n 4個模型。其中YOLOv8n以其優(yōu)化的復(fù)雜度、保有的高檢測準(zhǔn)確性和加速的推理速度,符合交通場景中對頭盔佩戴檢測應(yīng)用的輕量化與高精度雙重要求,因此本文選用YOLOv8n作為基準(zhǔn)模型應(yīng)用于盔佩戴檢測場景。
YOLOv8網(wǎng)絡(luò)架構(gòu)由Input層、Backbone、Neck和Prediction 4部分組成。其中,Backbone模塊在CSP思想進(jìn)行特征傳遞基礎(chǔ)上,引入C2f模塊替代YOLOv5模型中的C3模塊,旨在增強(qiáng)特征表達(dá)力與優(yōu)化計算效率。該算法引入SPPF(Spatial Pyramid Pooling Fast)模塊以豐富特征層次,促進(jìn)梯度流動。YOLOv8添加了Bi-PAN-FPN結(jié)構(gòu),它引入了雙向連接和加權(quán)融合的L制,通過構(gòu)造雙向通道實現(xiàn)跨尺度連接,并將特征提取網(wǎng)絡(luò)中的特征與自下而上路徑中的相對大小特征融合,從而保留了更淺的語義信。通過添加Bi-PAN-FPN結(jié)構(gòu),YOLOv8可提高目標(biāo)檢測的準(zhǔn)確,并提高訓(xùn)練速度。算法的Prediction部分采取Decoupled Head設(shè)計,將分類與回歸任務(wù)解耦為獨(dú)立的子結(jié)構(gòu),提高了模型收斂能力。
2 實驗分析
2.1 實驗環(huán)境
實驗平臺處理器為12th Gen Intel(R) Core(TM) i7-12700,32 GB運(yùn)行內(nèi)存,顯卡型號為NVIDIA GeForce MX450,操作系統(tǒng)為Win10 x64。編程語言是Python3.8.0,開發(fā)環(huán)境為Anaconda。
2.2 數(shù)據(jù)集和評價指標(biāo)
本文通過攝像機(jī)拍攝的方法進(jìn)行數(shù)據(jù)的收集,運(yùn)用LabelImg工具執(zhí)行精細(xì)化手動標(biāo)注過程,標(biāo)注內(nèi)容分為佩戴頭盔、未佩戴頭盔、騎行人員3個類別。為增強(qiáng)模型的泛化性能,本文對采集的數(shù)據(jù)通過平移、水平翻轉(zhuǎn)、垂直旋轉(zhuǎn)、自適應(yīng)直方圖均衡化4種方法隨機(jī)組合的方式進(jìn)行數(shù)據(jù)增強(qiáng),最終生成了一個包含4382張多樣化且有效的圖像數(shù)據(jù)集。此數(shù)據(jù)集科學(xué)地分割為訓(xùn)練集、驗證集和測試集,比例為8∶1∶1,旨在平衡模型的學(xué)習(xí)、調(diào)整與評估模型的有效性。
本文主要使用精度(Precision)、召回率(Recall)、平均精度均值(mAP)、mAP50和mAP50-95作為模型評估指標(biāo)。精度(Precision)指標(biāo)用來評估模型預(yù)測正確的正樣本的比例。在目標(biāo)檢測中,若模型預(yù)測的邊界框與真實的邊界框重合,則認(rèn)為預(yù)測正確。召回率(Recall)是評估模型能夠找出所有真實正樣本的比例。當(dāng)真實的邊界框與預(yù)測的邊界框重合,則該樣本被正確召回。mAP50表示在50%的loU閾值下的mAP值。mAP50-95指標(biāo)計算的loU閾值范圍在50%~95%內(nèi)的mAP均值,該指標(biāo)能夠更準(zhǔn)確地評估模型在不同loU閾值下的性能。Precision、Recall、mAP計算公示如下:
2.3 模型訓(xùn)練
本文設(shè)置輸入圖像大小為640×480 pixel,批量訓(xùn)練樣本數(shù)量(batchsize)分別為16,整個數(shù)據(jù)集訓(xùn)練次數(shù)(epochs)為100,初始學(xué)習(xí)率(learningrate)為0.001,采用余弦退火算法對學(xué)習(xí)率進(jìn)行動態(tài)調(diào)整。訓(xùn)練過程中的模型性能和損失曲線如圖1所示。當(dāng)訓(xùn)練達(dá)到100輪次時,性能和損失曲線均達(dá)到平衡,此時模型已收斂,最終模型的mAP為90.3%。
2.4 對比實驗與分析
為了驗證YOLOv8模型對頭盔檢測的有效性,與YOLOv5s進(jìn)行對比實驗。YOLOv5算法對輸入的目標(biāo)圖像進(jìn)行預(yù)處理,以提取有用的信息。通過主干網(wǎng)絡(luò)進(jìn)行深度卷積操作,以獲取圖像的特征信息,多層次的預(yù)測策略可以適應(yīng)不同尺寸的目標(biāo),并提高目標(biāo)檢測的效果。選取精度(Precision)、召回率(Recall)、mAP50、mAP50-95作為各模型的評價指標(biāo),實驗結(jié)果如表1所示。
YOLOv5模型輕量且資源高效,支持多種規(guī)模以適配不同硬件需求,加之代碼的易用性且結(jié)合多目標(biāo)跟蹤技術(shù),可精準(zhǔn)追蹤頭盔佩戴狀態(tài),尤其通過針對性微調(diào),能高度適應(yīng)各類具體應(yīng)用場景,在之前研究中是較為理想的解決方案。由YOLOv8模型與YOLOv5模型的對比實驗結(jié)果可見,在對騎行人員頭盔數(shù)據(jù)集進(jìn)行訓(xùn)練時,YOLOv8模型的mAP@0.5比YOLOv5s模型更高,性能提升4.6%。mAP@0.5∶0.9表示在不同IoU閾值上的平均mAP,從0.5到0.95,步長0.05。該評價指標(biāo)能更準(zhǔn)確地評估模型在不同loU閾值下的性能,通過對比實驗結(jié)果可以看出,YOLOv8提升了5.7%,說明該模型在目標(biāo)檢測中,檢測精度更高,同時在多種難度條件下也具備更高的穩(wěn)定性和可靠性。
3 結(jié)語
本文提出了一種基于YOLOv8算法的頭盔佩戴檢測模型。針對實時性和高精度要求較高的頭盔佩戴檢測場景,存在算法參數(shù)量大、復(fù)雜度高和實時性差等問題。YOLOv8n以其優(yōu)化的網(wǎng)絡(luò)結(jié)構(gòu)和輕量化設(shè)計,通過改進(jìn)的CSP和C2f模塊加強(qiáng)特征提取,結(jié)合FPN+PAN結(jié)構(gòu)實現(xiàn)多尺度特征融合,并采用解耦頭設(shè)計提升模型收斂,以及AnchorFree機(jī)制優(yōu)化樣本分配,全面增強(qiáng)了檢測能力。實驗結(jié)果顯示,與YOLOv5s相比,YOLOv8在頭盔檢測任務(wù)上不僅提升了mAP達(dá)4.6%,還在寬范圍IoU閾值下穩(wěn)定性提高了5.7%,驗證了其在提高檢測精度和泛化能力方面的顯著效果。綜上,YOLOv8模型以其高效的檢測速度、簡化的結(jié)構(gòu)設(shè)計及增強(qiáng)的檢測精度,可實時精準(zhǔn)識別駕駛者頭盔佩戴情況,強(qiáng)化了智慧交通的監(jiān)管效能。
參考文獻(xiàn)
[1]謝昊,賈小軍,喻擎蒼,等.基于改進(jìn)YOLOv5的騎行人員頭盔及車牌檢測[J].光電子·激光,2024(4):396-404.
[2]陳揚(yáng),呂艷輝.基于改進(jìn)YOLOv5s的頭盔佩戴檢測算法[J].沈陽理工大學(xué)學(xué)報,2023(5):11-17.
[3]朱碩,黃劍翔,汪宗洋,等.基于深度學(xué)習(xí)的非機(jī)動車頭盔佩戴檢測方法研究[J].電子測量技術(shù),2022(22):120-127.
[4]湯天培,龔昊,李洪亮,等.電動自行車騎乘人員安全頭盔佩戴行為檢測[J].南通大學(xué)學(xué)報(自然科學(xué)版),2023(2):12-19.
[5]FELIX W S,CHRISTOFFER R.Automated detection of bicycle helmets using deep learning[J].Journal of Cycling and Micromobility Research,2024(2):1-10.
[6]LI M,WANG D.Multi-task deep learning for rider safety behavior analysis including helmet usage[J].Pattern Recognition Letters,2023(159):91-99.
[7]謝嘉飛.目標(biāo)檢測算法優(yōu)化及在頭盔檢測系統(tǒng)中關(guān)鍵技術(shù)研究[D].太原:太原師范學(xué)院,2024.
Research on helmet-wearing detection methods based on deep learning
Abstract: This paper provides an overview of the current state and challenges in helmet-wearing detection technology, with a particular focus on the application potential of deep learning methodologies, notably the YOLO (You Only Look Once) series of algorithms, in the realm of helmet recognition. By implementing the YOLOv8 algorithm for helmet-wearing detection, this approach not only overcomes the limitations of conventional surveillance methods but also achieves highly efficient and accurate automated detection. It thereby significantly contributes to the implementation of the “One Helmet, One Belt” safety campaign and enhances public safety management capabilities.
Key words: deep learning; helmet detection; YOLOv8 algorithm