◆朱夏 晗瀟
基于YOLO v4的校園環(huán)境安全帽檢測系統(tǒng)的研究
◆朱夏 晗瀟
(大連海事大學 信息科學技術學院 遼寧 116026)
在當代校園環(huán)境下,某些實踐課的進行必須佩戴安全帽來保證安全。為實現(xiàn)檢測,提出一種基于YOLO v4的安全帽應用檢測方法。通過機器人采集數(shù)據(jù)集,判斷頭部區(qū)域與安全帽區(qū)域的相交來判定佩戴情況,并通過對比實驗來說明采用YOLO v4的原因。最后,提出遮擋方面的不足,并對研究方向進行展望。
計算機視覺;YOLO v4;安全帽識別
隨著高等教育水平以及高校環(huán)境的發(fā)展,越來越多的高校將實踐課程列為必修的內容之一。而在此過程中,安全問題也備受大家的關注。其中,安全帽是在某些場合下必須佩戴的物品,然而,很多學生不遵守規(guī)定,不能按照要求佩戴安全帽。本文需要一個實施監(jiān)督作用的技術來改善這種現(xiàn)象。
本文整個應用檢測的流程如圖1所示,首先通過設計的機器人進行視頻數(shù)據(jù)采集,再經(jīng)過訓練好的YOLO v4[1]模型判斷頭部和安全帽的位置,之后判斷出行為人是否佩戴安全帽。管理員可以通過后臺對識別的結果進行管理。
圖1 安全帽應用檢測流程
本文選擇了SpotMini機械狗,結合現(xiàn)實地形以及社會因素的設計,加以改進,通過Solidworks進行建模,設計出以波士頓動力為基礎的一款機械狗。本文使用單片機C語言編寫控制其行動的程序,采用MG90S金屬舵機作為驅動。本文將無線攝像頭固定在其頭部,進行數(shù)據(jù)回傳。
YOLOv4在原先的Darknet53每一個殘差單元加入了Cross-Stage-Partial-connections(CSP),采用CSP[2]先將基礎層的特征映射劃為兩部分,之后通過跨階段的層次結構將其合并,既減少了計算量,又可以保證準確率。YOLOv4修改SPP以保證輸出為空間維度。最大池化的核大小為1*1,5*5,9*9,13*13不等,將來自不同核大小池化后的特征圖串聯(lián)在一起作為輸出。SPP 對于 YOLO v3 來說能夠極大地增加感受野,分離出最顯著的上下文特征,網(wǎng)絡運行速度幾乎不受影響。YOLO v4的SPP與PANet[3]的特征預測網(wǎng)絡在之前YOLOv3基礎之上加深了多尺度優(yōu)化,通過自底向上和自頂向下縮短了底頂層特征之間的路徑,最終提高小目標的檢測結果。YOLO v4的損失計算公式如下:
其中,是計算兩個中心點之間的歐氏距離,為最小包圍框的對角線距離。
圖2 安全帽佩戴檢測流程
本文將前方機器人采集到的數(shù)據(jù)每隔一段時間傳回一張圖片,保存到特定的緩存目錄中,系統(tǒng)將會使用采取人臉識別技術,提取不規(guī)范行為人的信息,進行留存。本文人臉識別方法基于卷積神經(jīng)網(wǎng)絡[4],針對小樣本的識別能夠達到一個理想的效果。管理平臺前端使用react技術開發(fā),后端使用Java開發(fā),整個系統(tǒng)采用傳統(tǒng)的MVC架構,堅持“高內聚,低耦合”原則,具有良好的實用性和可維護性。
實驗的操作系統(tǒng)為Windows 10,Python版本為3.7.0,處理器為Intel Core i7-9750H,GPU為NVIDIA GeForceGTX1660 Ti,內存7.9G。本文的數(shù)據(jù)集均為自主采集,本文在校園內自主拍攝在公共場合下佩戴安全帽與未佩戴安全帽各種情況下的圖片以及視頻。運用可視化圖像標注工具,對人的頭部以及安全帽進行標注。80%的圖片作為訓練集,20%的圖片作為測試集。訓練當中,epoch設置為300,batch_size設置為64,其他參數(shù)為默認。
圖3 識別結果部分圖
從表1可以得出結論,對于本文挑選的數(shù)據(jù),YOLO v4網(wǎng)絡無論從精度還是從檢測的時間上都要明顯好于其他兩種。YOLO v4 作為一階目標檢測網(wǎng)絡好于 Faster R-CNN,這方面本文可以從AP和mAP看出,YOLO v4 作為 YOLO 系列的最新檢測網(wǎng)絡,在此方面表現(xiàn)得較為優(yōu)異,這也是本文選擇其為檢測網(wǎng)絡的原因。
表1 實驗效果對比
本文首先通過機器人采集數(shù)據(jù),之后利用YOLOv4網(wǎng)絡進行識別,本文通過訓練好的模型來判斷頭部和安全帽的位置,并且判斷兩者是否相交來判斷行為人是否佩戴安全帽。另外,本文通過對比實驗發(fā)現(xiàn)對于安全帽識別這一方向,YOLOv4表現(xiàn)得更為優(yōu)秀。然而,在某些遮擋的情況之下,該行為人會被漏檢。在今后的研究當中,將會在這一方向進行深入探討,以便于提升最終的效果。
[1] Chien-Yao Wang,Hong-Yuan Mark Liao. YOLO v4: Optimal Speed and Accuracy of Object Detection[C]// arXiv:2004.10934v1 [cs.CV] 23 Apr 2020.
[2] Chien-Yao Wang,Hong-Yuan Mark Liao,I-Hau Yeh,Yueh-Hua Wu,Ping-Yang Chen,Jun-Wei Hsieh. CSPNET:A NEW BACKBONE THAT CAN ENHANCE LEARNING CAPABILITY OF CNN[C]// arXiv:1911.11929v1 [cs.CV] 27 Nov 2019.
[3] Shu Liu,Lu Qi,Haifang Qin,Jianping Shi,Jiaya Jia. Path Aggregation Network for Instance Segmentation[C]// arXiv:1803.01534v4 [cs.CV] 18 Sep. 2018.
[4]陳耀丹,王連明.基于卷積神經(jīng)網(wǎng)絡的人臉識別方法[J].東北師大學報(自然科學版),2016,48(02):70-76.