游錦偉,薛 濤,于俊清*
(1.國(guó)能長(zhǎng)源漢川發(fā)電有限公司,湖北 漢川 431614;2.華中科技大學(xué)計(jì)算機(jī)科學(xué)與技術(shù)學(xué)院,湖北 武漢 430074)
安全帽作為工業(yè)生產(chǎn)過(guò)程中必不可少的人身安全防護(hù)裝備,可以有效保障生產(chǎn)人員的安全。當(dāng)前安全監(jiān)管部門在火電廠區(qū)內(nèi)部安裝監(jiān)控?cái)z像頭,通過(guò)人眼觀看監(jiān)控視頻的方式巡視工業(yè)生產(chǎn)運(yùn)行過(guò)程中是否存在安全隱患。但是通過(guò)人眼查看監(jiān)控視頻的方式存在諸多缺陷,比如長(zhǎng)時(shí)間疲勞工作的監(jiān)管人員容易遺漏監(jiān)控視頻畫面中工作人員沒(méi)有穿戴安全帽的危險(xiǎn)情況,由于監(jiān)管人員自身的麻痹大意無(wú)法做到及時(shí)預(yù)警。利用計(jì)算機(jī)視覺(jué)領(lǐng)域中的相關(guān)技術(shù),替代監(jiān)管人員查看監(jiān)控的方式完成安全帽檢測(cè)任務(wù)。開展基于工業(yè)監(jiān)控視頻的安全帽檢測(cè)算法研究,可以起到保障工業(yè)安全生產(chǎn)、維護(hù)工作人員生命安全、提高工業(yè)生產(chǎn)管理效率的作用。
在計(jì)算機(jī)視覺(jué)領(lǐng)域中,目標(biāo)檢測(cè)是非常重要且基礎(chǔ)的一項(xiàng)任務(wù),其中相關(guān)的目標(biāo)檢測(cè)算法可以根據(jù)實(shí)現(xiàn)原理分為傳統(tǒng)目標(biāo)檢測(cè)算法和基于深度學(xué)習(xí)的目標(biāo)檢測(cè)算法[1]。傳統(tǒng)目標(biāo)檢測(cè)算法主要是通過(guò)手工的方式提取目標(biāo)的特征,例如安全帽的形狀顏色等特征,主要有維奧拉-瓊斯目標(biāo)檢測(cè)框架(Viola-Jones Object Detection Framework,VJ-Det)[2]、可 變 型 部 件 模 型(Deformable Part-based Model,DPM)[3]、選擇性搜索(Selective Search,SS)[4]等。隨著深度學(xué)習(xí)的發(fā)展,基于深度學(xué)習(xí)的目標(biāo)檢測(cè)算法因其優(yōu)越的魯棒性逐漸取代了傳統(tǒng)算法,成為工業(yè)領(lǐng)域安全帽檢測(cè)算法的主流技術(shù)[5]。Krizhevsky 等人在2012 年提出AlexNet[6],該算法獲得了ILSVRC-2012 圖像識(shí)別比賽的冠軍,之后更多更深的深度學(xué)習(xí)目標(biāo)檢測(cè)算法被提出。2014 年,Girshick 等人發(fā)現(xiàn)了基于卷積神經(jīng)網(wǎng)絡(luò)特征提取的區(qū)域檢測(cè)模型(Regions with CNN features,R-CNN)[7]。后來(lái)者們?cè)赗-CNN的基礎(chǔ)上對(duì)模型繼續(xù)優(yōu)化,例如在網(wǎng)絡(luò)中加入空間金字塔池化層(Spatial Pyramid Pooling,SPP)[8]或特征金字塔網(wǎng)絡(luò)(Feature Pyramid Networks,F(xiàn)PN)[9]等,用來(lái)提高模型的檢測(cè)準(zhǔn)確率,又提出了Fast R-CNN[10]、Faster R-CNN[11]、Mask R-CNN[12]等優(yōu)秀的算法。2016年,Liu W等人提出了SSD算法[13],并在此基礎(chǔ)上改進(jìn)得到了DSSD算法[14],同年,Redmon J等人提出YOLO[15],該算法憑借較高的檢測(cè)精度與簡(jiǎn)單易用的特性被廣泛運(yùn)用于工業(yè)環(huán)境中各項(xiàng)目標(biāo)檢測(cè)任務(wù),之后經(jīng)過(guò)迭代衍生出了一系列的YOLO算法[16-18],本文對(duì)安全帽進(jìn)行目標(biāo)檢測(cè)任務(wù)是基于YOLOv5完成的。在工業(yè)生產(chǎn)環(huán)境中,目標(biāo)檢測(cè)算法除了能夠識(shí)別安全帽的形狀和顏色外,還需要考慮復(fù)雜的背景、光照變化、遮擋以及攝像頭過(guò)遠(yuǎn)導(dǎo)致目標(biāo)過(guò)小等復(fù)雜問(wèn)題,原有的YOLOv5算法并不足以應(yīng)付這些場(chǎng)景,實(shí)際應(yīng)用場(chǎng)景中容易出現(xiàn)誤檢、錯(cuò)檢等問(wèn)題。
為了能夠在復(fù)雜場(chǎng)景中實(shí)現(xiàn)更好的魯棒性和小目標(biāo)的檢測(cè)精度,本文提出了改進(jìn)的YOLOv5 算法,對(duì)YOLOv5 的Head 模塊進(jìn)行了重構(gòu),通過(guò)基于k-means聚類算法對(duì)Anchor數(shù)目大小調(diào)整,增加網(wǎng)絡(luò)自頂向下特征提取過(guò)程中的上采樣,進(jìn)一步擴(kuò)大特征圖,并與淺層特征信息充分融合,增強(qiáng)了多尺度特征提取能力,并將改進(jìn)后的算法應(yīng)用到工業(yè)監(jiān)控視頻的安全帽佩戴行為檢測(cè)中,實(shí)際應(yīng)用結(jié)果表明,改進(jìn)后的算法對(duì)安全帽的檢測(cè)效果得到了有效提升,能夠滿足工業(yè)場(chǎng)景中的檢測(cè)需求。
本文選取YOLOv5算法作為基礎(chǔ)目標(biāo)檢測(cè)模型框架。如圖1所示,YOLOv5的網(wǎng)絡(luò)模型結(jié)構(gòu)由4部分組成,包括圖像輸入(Images)、骨干網(wǎng)絡(luò)(Backbone)、頸部(Neck)與檢測(cè)頭(Head)。
Anchor 是目標(biāo)檢測(cè)算法中常用的一種技術(shù)手段,通常目標(biāo)檢測(cè)算法會(huì)對(duì)預(yù)測(cè)的對(duì)象范圍進(jìn)行約束,避免模型在訓(xùn)練時(shí)盲目地尋找,如圖2。
圖2 Anchor Fig.2 Anchor
如圖1,YOLOv5中的Head模塊中的主體部分為3個(gè)Detect 檢測(cè)器,利用基于網(wǎng)格的anchor 在不同尺度的特征圖上進(jìn)行目標(biāo)檢測(cè),不同的算法計(jì)算anchor 的位置都有所不同,YOLOv5算法中是使用k-means聚類算法來(lái)對(duì)數(shù)據(jù)集中目標(biāo)的邊界框進(jìn)行計(jì)算,得到大小不同的矩形框,并根據(jù)待檢測(cè)目標(biāo)對(duì)象的尺寸進(jìn)行匹配,從而識(shí)別出不同大小的物體。圖像輸入模塊會(huì)對(duì)輸入圖片進(jìn)行自適應(yīng)縮放,YOLOv5 算法的圖像輸入定義為640×640,當(dāng)輸入為640×640 時(shí),3 個(gè)尺度上的特征圖分別為:80×80、40×40、20×20。
圖1 YOLOv5 網(wǎng)絡(luò)結(jié)構(gòu)Fig.1 YOLOv5 network structure
YOLOv5 算法基于k-means 聚類算法得到的9 個(gè)Anchor 進(jìn)行預(yù)測(cè),在YOLOv5 的網(wǎng)絡(luò)配置文件中可以看到初始的Anchor 維度參數(shù)為:(-[10,13,16,30,33,23]#P3/8;-[30,61,62,45,59,119]#P4/16;-[116,90,156,198,373,326]#P5/32)。如圖3 所示,YOLOv5 預(yù)測(cè)輸出端由3 個(gè)檢測(cè)頭組成,每個(gè)檢測(cè)頭對(duì)應(yīng)一組Anchor 參數(shù)。YOLOv5算法會(huì)對(duì)輸入圖片進(jìn)行自適應(yīng)縮放操作,將網(wǎng)絡(luò)的圖像輸入尺寸統(tǒng)一調(diào)整為640×640。而#P3/8 網(wǎng)絡(luò)層檢測(cè)頭尺度為80×80,所以用于檢測(cè)尺度為8×8 的小目標(biāo)。同理,#P4/16 網(wǎng)絡(luò)層檢測(cè)頭尺度為40×40,用于檢測(cè)尺度為16×16 的目標(biāo)。而#P5/32 網(wǎng)絡(luò)層檢測(cè)頭尺度為20×20,用于檢測(cè)尺寸為32×32 的 較 大 目 標(biāo)。YOLOv5 的3 組Anchor 是 基 于COCO 數(shù)據(jù)集聚類得到,并不適用于本文所構(gòu)建的安全帽目標(biāo)檢測(cè)數(shù)據(jù)集。由于YOLOv5具有在模型訓(xùn)練過(guò)程中自適應(yīng)重新計(jì)算并調(diào)整Anchor大小的能力,故本文使用k-means聚類算法對(duì)安全帽數(shù)據(jù)集重新進(jìn)行聚類分析,在YOLOv5 的Head 模塊網(wǎng)絡(luò)結(jié)構(gòu)的AnchorBoxes中增加一組專門針對(duì)于小目標(biāo)的Anchor:(-[5,6,8,14,15,11]#4)。
圖3 YOLOv5 檢測(cè)頭Fig.3 YOLOv5 head module
深度學(xué)習(xí)中,感受野指的是網(wǎng)絡(luò)模型提取的特征圖在原始輸入圖片中對(duì)應(yīng)區(qū)域的大小。如圖3 所示,本文構(gòu)建的安全帽數(shù)據(jù)集中圖片尺寸為1 920×1 080,以圖片矩形長(zhǎng)邊1 920作為放縮標(biāo)注,針對(duì)較小目標(biāo)的檢測(cè)頭在安全帽圖片上的感受野邊長(zhǎng)為1 920/640×8=24。也就是說(shuō),如果安全帽數(shù)據(jù)集圖片中的目標(biāo)區(qū)域面積小于242像素,YOLOv5網(wǎng)絡(luò)進(jìn)行相應(yīng)的特征提取與學(xué)習(xí)就會(huì)非常困難。
卷積神經(jīng)網(wǎng)絡(luò)對(duì)圖像進(jìn)行特征提取的方式主要是上采樣與下采樣。如圖4 所示,通過(guò)多次卷積上采樣操作,卷積網(wǎng)絡(luò)將提取到的特征圖尺寸不斷放大,生成逐漸抽象的特征。通過(guò)多次卷積下采樣操作,對(duì)圖像特征信息進(jìn)行池化降維,避免過(guò)擬合。隨著卷積神經(jīng)網(wǎng)絡(luò)層數(shù)的加深,所得到的感受野面積也在逐漸擴(kuò)大。其中淺層網(wǎng)絡(luò)卷積操作較少,映射于原圖像的感受野面積較小,可以提取到更細(xì)粒度的特征信息,比如安全帽的形狀、顏色等特征。而深層網(wǎng)絡(luò)經(jīng)過(guò)多次卷積下采樣,映射于原圖像的感受野面積越來(lái)越大,丟棄了許多細(xì)節(jié)特征,所提取到的特征信息也更加抽象。
圖4 YOLOv5感受野Fig.4 YOLOv5 receptive field
基于YOLOv5的小目標(biāo)檢測(cè)網(wǎng)絡(luò)改進(jìn)思路就是在輸入圖像中較小的目標(biāo)對(duì)象區(qū)域盡可能多地提取到更完整的特征信息。本文考慮增加YOLOv5 的Head 模塊中的上采樣操作次數(shù),擴(kuò)大網(wǎng)絡(luò)中的特征圖尺寸,增加特征提取網(wǎng)絡(luò)對(duì)輸入圖像進(jìn)行多尺度的特征提取,并增加網(wǎng)絡(luò)結(jié)構(gòu)中的連接層,充分融合淺層特征信息與深層特征信息。改進(jìn)前YOLOv5 的Head 模塊網(wǎng)絡(luò)結(jié)構(gòu)層如圖5所示。
圖5 改進(jìn)前Head模塊網(wǎng)絡(luò)結(jié)構(gòu)Fig.5 Head module network structure before improvement
改進(jìn)后的YOLOv5的Head模塊網(wǎng)絡(luò)結(jié)構(gòu)層如圖6所示。在Head網(wǎng)絡(luò)第17層BottleneckCSP 網(wǎng)絡(luò)提取特征完成卷積操作之后,對(duì)提取到的特征圖增加上采樣操作,可以進(jìn)一步擴(kuò)大特征圖的尺寸。在Head網(wǎng)絡(luò)第20層將得到的包含淺層網(wǎng)絡(luò)信息的特征圖與YOLOv5的Backbone 模塊中深層網(wǎng)絡(luò)信息特征圖進(jìn)一步融合,以此獲取更多的特征信息。在Head 網(wǎng)絡(luò)的第31 層,即網(wǎng)絡(luò)的預(yù)測(cè)輸出層,為了與新增一組Anchor進(jìn)行匹配,增加小目標(biāo)檢測(cè)層,共使用[21,24,27,30]4 組檢測(cè)層進(jìn)行計(jì)算。改進(jìn)后的網(wǎng)絡(luò)模型結(jié)構(gòu)更加復(fù)雜,F(xiàn)LOPs計(jì)算量增加,受到GPU計(jì)算資源的限制,在模型訓(xùn)練過(guò)程中需要調(diào)整網(wǎng)絡(luò)的batch-size,將YOLOv5 原始batch-size默認(rèn)值做減半處理。
圖6 改進(jìn)后Head 模塊網(wǎng)絡(luò)結(jié)構(gòu)Fig.6 Head module network structure after improvement
本文構(gòu)建數(shù)據(jù)集的視頻來(lái)源于??低曋悄鼙O(jiān)控視頻管理平臺(tái),感興趣區(qū)域(Region of Interest,ROI)內(nèi)的待檢測(cè)目標(biāo)對(duì)象為監(jiān)控視頻畫面中的工作人員。為保證所構(gòu)建的工業(yè)數(shù)據(jù)集能夠最大程度真實(shí)反映實(shí)際生產(chǎn)作業(yè)情況,多次實(shí)地走訪與現(xiàn)場(chǎng)調(diào)研,選取接近一年時(shí)間跨度獲取監(jiān)控視頻,篩除畫面模糊不清的模擬攝像頭監(jiān)控視頻片段,選取數(shù)字?jǐn)z像頭監(jiān)控視頻流中畫面清晰的視頻片段,得到視頻分辨率為1 080P(1 920×1 080)的原始視頻。獲取原始視頻之后,本文設(shè)計(jì)了一種針對(duì)工業(yè)監(jiān)控視頻的關(guān)鍵幀提取算法的方式,篩選關(guān)鍵ROI 片段,完成視頻切幀與關(guān)鍵幀保存,對(duì)得到的圖片幀使用LabelImg 標(biāo)注工具采用PASCAL VOC 格式進(jìn)行標(biāo)注。構(gòu)建的數(shù)據(jù)集命名為安全帽目標(biāo)檢測(cè)數(shù)據(jù)集(HUST Safety Helmet Object Detection Dataset,HUST-SHOD),其中根據(jù)檢測(cè)任務(wù),HUSTSHOD 可細(xì)分為安全帽佩戴狀態(tài)檢測(cè)數(shù)據(jù)集(HUST Safety Helmet Wear Dataset,HUST-SHWD)與安全帽佩戴顏色檢測(cè)數(shù)據(jù)集(HUST Safety Helmet Wear Dataset of Color,HUST-SHWD_Color)。
對(duì)安全帽目標(biāo)檢測(cè)數(shù)據(jù)集進(jìn)行劃分,訓(xùn)練集:驗(yàn)證集:測(cè)試集比例設(shè)定為8∶1∶1。對(duì)數(shù)據(jù)集中的15 774個(gè)實(shí)例進(jìn)行劃分,HUST-SHWD 中訓(xùn)練集包含6 225個(gè)正樣本實(shí)例,4 419 個(gè)負(fù)樣本實(shí)例,驗(yàn)證集與測(cè)試集數(shù)據(jù)量相同,都包含784 個(gè)正樣本實(shí)例與493 個(gè)負(fù)樣本實(shí)例。HUST-SHWD_Color中訓(xùn)練集包含3 395個(gè)佩戴藍(lán)色安全帽實(shí)例,1 443個(gè)佩戴黃色安全帽實(shí)例,1 001個(gè)佩戴紅色安全帽實(shí)例,436個(gè)佩戴白色安全帽實(shí)例,以及4 279 個(gè)負(fù)樣本實(shí)例。驗(yàn)證集與測(cè)試集數(shù)據(jù)量相同,都包含430 個(gè)佩戴藍(lán)色安全帽實(shí)例,178 個(gè)佩戴黃色安全帽實(shí)例,100個(gè)佩戴紅色安全帽實(shí)例,51個(gè)佩戴白色安全帽實(shí)例,以及563個(gè)負(fù)樣本實(shí)例。
人體頭部區(qū)域面積較小,不易被遮擋,故采用Mosaic 和MixUp 數(shù)據(jù)增強(qiáng)技術(shù)對(duì)訓(xùn)練過(guò)程中一個(gè)Batch圖片進(jìn)行不同程度的混合,增強(qiáng)模型的魯棒性。
1)Mosaic:文獻(xiàn)[17]提出在模型訓(xùn)練過(guò)程中對(duì)于獲取到的同一個(gè)Batch 中的4 張不同圖片按照一定比例混合成為一個(gè)全新的圖片幀。如圖7 所示,在訓(xùn)練過(guò)程中使用Mosaic 數(shù)據(jù)增強(qiáng),可以使得模型學(xué)習(xí)如何在非正常情況下識(shí)別更小比例的目標(biāo),同時(shí)它還可以使模型在合成圖片幀的不同區(qū)域分別識(shí)別定位不同類別的目標(biāo)。
圖7 Mosaic數(shù)據(jù)增強(qiáng)示意圖Fig.7 Schematic diagram of Mosaic data enhancement
2)Mixup:文獻(xiàn)[19]提出,在模型訓(xùn)練過(guò)程中生成虛擬實(shí)例。隨機(jī)挑選兩張圖片并按照一定比例(α:β)進(jìn)行混合得到全新圖片,模型對(duì)新圖片分類結(jié)果的概率遵循α:β的混合比例,改變模型在訓(xùn)練過(guò)程中對(duì)于單個(gè)實(shí)例的線性分類結(jié)果,決策邊界更為平滑,泛化能力更強(qiáng)。基于MixUp 的虛擬實(shí)例構(gòu)建公式,其中xi,xj是原始圖片輸入得到的向量,yi,yj是經(jīng)過(guò)一次標(biāo)簽重新混合編碼得到的輸出向量。
Mosaic 與Mixup 數(shù)據(jù)增強(qiáng)方式優(yōu)點(diǎn)明顯,其本質(zhì)思想都是通過(guò)在模型訓(xùn)練過(guò)程中通過(guò)混合不同的圖片或?qū)嵗扇聵颖緛?lái)提高模型的分類與泛化能力。并且混合后不會(huì)生成與原始數(shù)據(jù)無(wú)關(guān)的干擾信息,模型在學(xué)習(xí)到更多的實(shí)例分類結(jié)果,極大地提高訓(xùn)練效率。
安全帽目標(biāo)檢測(cè)實(shí)驗(yàn)基于HUST-SHWD 與HUST-SHWD_Color 數(shù) 據(jù) 集,選 取 文 獻(xiàn)[20]中XuanyuWang 等人改進(jìn)后的YOLOv3算法、文獻(xiàn)[21]中LeeCH 等人所使用的YOLOv4 算法、原始YOLOv5 算法、優(yōu)化后的YOLOv5 模型融合算法與改進(jìn)后的YOLOv5-SOD算法對(duì)比實(shí)驗(yàn)。
安全帽佩戴檢測(cè)實(shí)驗(yàn)基于HUST-SHWD,對(duì)工作人員頭部是否佩戴安全帽的情況進(jìn)行檢測(cè)。表1列出使用不同目標(biāo)檢測(cè)算法對(duì)安全帽佩戴狀態(tài)的檢測(cè)結(jié)果,采用準(zhǔn)確率(P)、召回率(Recall)、mAP@.5 與mAP@.5:.95 4 種指標(biāo)對(duì)算法進(jìn)行評(píng)估。本文提出的YOLOv5 模型融合算法,使用深度神經(jīng)網(wǎng)絡(luò)模型替換YOLOv5的Backbone 網(wǎng)絡(luò),以ResNet-50與EfficientNet作為其Backbone 網(wǎng)絡(luò)的模型mAP@.5 值均得到提升,但前者mAP@.5:.95 值低于原YOLOv5 算法。使用輕量化網(wǎng)絡(luò)模型替換,與優(yōu)化前的mAP@.5 值相比沒(méi)有得到顯著提升。YOLOv5+EfficientNet 模型融合算法mAP@. 5=0.985,本文改進(jìn)后的YOLOv5 算法mAP@.5:.95=0.766,本文改進(jìn)優(yōu)化的兩種算法取得最優(yōu)效果。
表1 安全帽佩戴檢測(cè)對(duì)比實(shí)驗(yàn)結(jié)果Table1 Results of comparative tests of helmet wearing detection
安全帽佩戴顏色檢測(cè)實(shí)驗(yàn)基于HUST-SHWD_Color,對(duì)工作人員頭部佩戴安全帽顏色的情況進(jìn)行檢測(cè)。表2列出使用不同目標(biāo)檢測(cè)算法對(duì)安全帽佩戴狀態(tài)的檢測(cè)結(jié)果。本文提出的YOLOv5模型融合算法,使用深度神經(jīng)網(wǎng)絡(luò)模型替換YOLOv5的Backbone網(wǎng)絡(luò),以EfficientNet 作為其Backbone 網(wǎng)絡(luò)模型mAP@.5 值與mAP@.5:.95 均 得 到 提 升,但 以ResNet-50 作 為 其Backbone 的mAP@.5 值 與mAP@.5:.95 值 均 低 于 原YOLOv5算法。使用輕量化網(wǎng)絡(luò)模型替換,與優(yōu)化前的mAP@.5值與mAP@.5:.95值相比均有不同程度的下降。改進(jìn)后的YOLOv5 算法mAP@.5=0.981,mAP@.5:.95=0.775。本文改進(jìn)算法檢測(cè)準(zhǔn)確率取得提升。
表2 安全帽顏色檢測(cè)對(duì)比實(shí)驗(yàn)結(jié)果Table2 Results of comparative tests of helmet color detection
對(duì)比改進(jìn)前后的算法對(duì)于實(shí)際樣例的檢測(cè)效果,如圖8所示,改進(jìn)前的YOLOv5算法無(wú)法檢測(cè)到工業(yè)生產(chǎn)作業(yè)區(qū)域復(fù)雜背景中被遮擋的困難目標(biāo)與受到光照變化影響的困難目標(biāo),以及遠(yuǎn)景圖像中的小目標(biāo)。本文改進(jìn)的YOLOv5算法在工業(yè)環(huán)境復(fù)雜背景中具有小目標(biāo)魯棒性、遮擋魯棒性、光照魯棒性等諸多優(yōu)點(diǎn),優(yōu)于原始的YOLOv5算法。
本文選用基于YOLOv5的目標(biāo)檢測(cè)算法完成安全帽佩戴檢測(cè)任務(wù),并構(gòu)建了安全帽目標(biāo)檢測(cè)數(shù)據(jù)集。安全帽目標(biāo)檢測(cè)數(shù)據(jù)集由HUST-SHWD 與HUSTSHWD_Color 兩類構(gòu)成。本文構(gòu)建的5 類數(shù)據(jù)集涵蓋了工業(yè)實(shí)際生產(chǎn)中各種情況??倲?shù)據(jù)標(biāo)注量為圖片29 865張,實(shí)例54 603個(gè)。在原有網(wǎng)絡(luò)結(jié)構(gòu)基礎(chǔ)上,通過(guò)基于k-means聚類算法對(duì)安全帽數(shù)據(jù)集聚類得到的Anchor 數(shù)目與大小進(jìn)行了調(diào)整,增加了自頂向下過(guò)程中的上采樣,對(duì)提取到的特征圖進(jìn)一步擴(kuò)大并與淺層特征信息充分融合,增強(qiáng)了模型多尺度特征提取能力,提高了YOLOv5算法對(duì)于小目標(biāo)等困難目標(biāo)的檢測(cè)準(zhǔn)確率。與改進(jìn)前的YOLOv5 算法進(jìn)行對(duì)比實(shí)驗(yàn),從檢測(cè)準(zhǔn)確率、速度、模型體量等多方面綜合考慮,選擇改進(jìn)后的YOLOv5 算法作為安全帽檢測(cè)算法,實(shí)現(xiàn)算法的工程落地。