楊 貞,朱強強,彭小寶,殷志堅,溫海橋,黃春華
(1.江西科技師范大學通信與電子學院,江西 南昌 330013; 2.防城港市氣象局,廣西 防城港 538001)
隨著工業(yè)化進程的日益加劇,在日常生產中,如工廠車間、建筑工地等復雜環(huán)境,存在著威脅人身安全隱患因素,而安全帽作為一種重要防護工具,在施工場景中必須正確佩戴。統(tǒng)計表明,在作業(yè)現(xiàn)場發(fā)生的傷亡事故中(尤其是物體打擊和高處墜落)正確佩戴安全帽,可以有效減輕事故造成的后果,因此,檢測施工現(xiàn)場工人是否正確佩戴安全帽具有重大意義[1]。然而,由于施工現(xiàn)場場景復雜,工人姿態(tài)變化性大,安全檢查人員難以觀察且易疲憊等因素,無法實時監(jiān)測施工人員是否正確佩戴安全帽。考慮如今工地現(xiàn)場大多已安裝監(jiān)控攝像頭,因此,利用計算機視覺方法,尤其是目標檢測技術,實時分析施工場景視頻,可以有效發(fā)現(xiàn)未戴安全帽工人。
目標檢測技術是計算機視覺和機器學習重要研究方向,廣泛應用于智能化交通系統(tǒng)[2]、智能視頻監(jiān)控[3]、工業(yè)檢測[4]、航空航天[5]等諸多領域,能有效減少對人力資本的消耗,具有重要的現(xiàn)實意義。因此,目標檢測成為了近年來計算機視覺理論和應用的研究熱點,也是智能監(jiān)控系統(tǒng)的核心技術。而安全帽檢測又是目標檢測技術應用的一個具體方向,因此,利用計算機視覺和機器學習方法檢測工業(yè)場景施工人員是否佩戴安全帽具有重要應用價值。
當今安全帽檢測技術劃分為2類:1)基于傳統(tǒng)圖像特征的安全帽檢測;2)基于深度特征的安全帽檢測。在傳統(tǒng)特征方法中,馮國臣等[6]首先采用混合高斯模型進行前景檢測,其次利用像素聯(lián)通區(qū)域屬性檢測出人體輪廓,最后對檢測矩形框進行像素級的統(tǒng)計分析以實現(xiàn)安全帽的自動識別功能。但是上述方法容易受到光線變化和背景混雜等因素的干擾,基于此,劉曉慧等[7]采取膚色檢測的方法定位人臉位置,再利用支持向量機(Support Vector Machines, SVM)模型實現(xiàn)安全帽的識別,此方法一定程度上提高了安全帽檢測精度,然而仍沒有解決光線變化對模型的影響。為此,周艷青等[8]利用局部二值模式(Local Binary Patterns, LBP)直方圖統(tǒng)計的方法來提取圖像的特征,然后使用反向傳播(Back Propagation, BP)人工神經(jīng)網(wǎng)絡進行分類以判別是否佩戴安全帽。由于LBP是紋理特征,可以一定程度降低光線的干擾,但是該特征僅是獲取了像素的鄰域信息,無法有效描述安全帽的結構特征,因此,安全帽檢測的準確率偏低??傊?,通過傳統(tǒng)特征提取方法很難獲取安全帽目標的高層次特征,因此也很難高效地檢測工業(yè)場景中施工人員是否佩戴安全帽。
在深度特征提取方法中,林俊等[9]通過修改深度網(wǎng)絡結構進一步優(yōu)化YOLO(You Only Look Once)模型[10]以實現(xiàn)安全帽檢測,然而,此方法在場景復雜和目標密集的情況下準確率較低?;诖?,施輝等[11]利用圖像金字塔的多尺度特征和K-means聚類算法以改進YOLOv3網(wǎng)絡[12]實現(xiàn)安全帽識別。然而,利用YOLOv3模型直接對安全帽目標進行劃分會導致定位信息粗糙、模型難以訓練和收斂、泛化能力差等問題。與YOLO模型系列算法不同,吳冬梅等[13]在Faster RCNN基礎上,采取特征融合與多尺度檢測策略,一定程度上可以取得較好的安全帽檢測效果,但Faster RCNN計算量大,實時性不佳,且遮擋和光線變化會導致模型性能較差。
以上基于深度特征的方法雖然可以提取圖像高層次特征,但是由于安全帽在大場景圖片中所占比例較小,其漏檢率和誤檢率依舊較高。因此,上述方法均無法有效應用于實際任務中。
依據(jù)工業(yè)現(xiàn)場調查研究表明[14],現(xiàn)如今工業(yè)現(xiàn)場的監(jiān)控圖像分辨率為1920×1080甚至更高。由于監(jiān)控設備的位置和角度等因素,安全帽這一目標在視頻中所占比例比較小。因此,對于小目標檢測,傳統(tǒng)特征和深度特征的提取方法都有較高的局限性?;诖耍疚奶岢鲆环N基于級聯(lián)網(wǎng)絡模型的安全帽檢測方法以解決復雜工業(yè)場景安全帽精準檢測識別的問題。在本文提出的方法中,首先采用YOLOv4[15]檢測網(wǎng)絡對疑似佩戴安全帽的工作人員進行檢測;然后對上階段檢測網(wǎng)絡的輸出目標圖像進一步通過顯著性特征進行區(qū)分;最后利用分類器判斷工作人員是否佩戴安全帽。實驗結果表明,與基于深度特征的安全帽檢測方法相比,本文提出的級聯(lián)網(wǎng)絡模型,進一步提高了安全帽的檢測效果。
目標檢測核心任務是查找圖像中是否包含需要檢測的物體,并確定物體的位置和類別。但是,通過傳統(tǒng)檢測算法獲取的目標特征對于目標形態(tài)變化、光照變化以及背景多樣化等因素缺乏魯棒性,易導致目標檢測準確率低和模型泛化能力差,因而難以應用在真實的復雜工業(yè)場景中。
基于深度學習One-Stage的目標檢測算法主要思想為直接計算物體的類別概率和位置坐標值,不需要獲得目標候選框區(qū)域,通過網(wǎng)絡端到端訓練模型就可以得到最終的目標檢測結果且速度更快?,F(xiàn)如今,One-Stage典型的算法有SSD(Single Shot MultiBox Detector)[16]、YOLO系列和Retina-Net[17]系列等;SSD在特征圖上采用卷積核來預測一系列目標框的類型和坐標信息,并使用多尺度特征進行回歸以提高目標檢測準確率。YOLO系列目標檢測算法是基于卷積神經(jīng)網(wǎng)絡的回歸方法,目前公認有4個版本:YOLO、YOLOv2[18]、YOLOv3和YOLOv4。
對比了YOLO系列的網(wǎng)絡模型,其中YOLOv1檢測網(wǎng)絡模型包含24個卷積層(用來提取特征)和2個全連接層(用來預測圖像位置和類別置信度);同時將輸入圖像分成網(wǎng)格,每個網(wǎng)格塊輸出不同的bounding box(包含物體的矩形區(qū)域)、每個box的置信度以及物體屬于某個類別的概率信息。YOLOv1網(wǎng)絡模型有著以下缺陷:1)YOLOv1采用多個下采樣層結構,網(wǎng)絡模型學習到的目標特征不精細,因此導致目標檢測準確率低;2)YOLOv1網(wǎng)絡模型訓練依賴物體標注數(shù)據(jù),因此,對于非常規(guī)的物體和比例,YOLOv1檢測效果并不理想;3)當物體所占畫面比例較小,每個網(wǎng)格將包含多個物體的bounding box輸出,而YOLOv1只選擇IoU(Intersection over Union)[19]分數(shù)最高的bounding box作為物體檢測輸出,因此YOLOv1很難檢測出圖像中的小目標。為了解決此問題,YOLOv2檢測網(wǎng)絡模型使用了批處理、變化圖像分辨率和簡化網(wǎng)絡結構策略解決YOLOv1網(wǎng)絡的局限性:1)通過在卷積層后添加batch normalization,以提高網(wǎng)絡模型收斂性,同時消除對正則化的依賴;2)改變特征網(wǎng)絡的輸入分辨率,使得網(wǎng)絡適應高分辨率的輸入,來緩解YOLOv1特征提取網(wǎng)絡的局限性;3)通過卷積層降采樣、刪除最后池化層以簡化網(wǎng)絡結構,并在卷積特征圖上進行滑窗操作,使得每一個中心可以預測9種不同大小的建議框,以此彌補YOLOv1丟失較多的空間信息。盡管YOLOv2改進了很多YOLOv1結構,使得目標檢測速度和準確率也得到了提高,但是其對于部分遮擋的目標依舊存在很高的漏檢率。為了解決上述問題,YOLOv3使用邏輯回歸(Logistic Regression)的方法給每個bounding box預測一個類別得分,并使用獨立的Logistics分類器與二值交叉熵損失函數(shù)進行計算,同時YOLOv3還運用多尺度策略將深層特征上采樣后與淺層特征融合,得到多個尺度的目標特征。每個尺度對應3種不同大小的anchor,負責預測不同大小的目標:1)尺度1在基礎特征網(wǎng)絡結構中添加多個卷積層,輸出box信息以預測較大目標;2)尺度2在尺度1網(wǎng)絡基礎上與特征圖相加,并通過幾層卷積層后輸出box信息,負責預測中等大小的目標;3)尺度3與尺度2類似,使用32×32大小的feature map作為輸出,負責預測較小目標??傊?,YOLOv3在很多檢測場景上比YOLOv1和YOLOv2具有優(yōu)越性,但在施工人員密集場景中,準確檢測安全帽還有很大的局限性??傊?,基于One-Stage的目標檢測算法相比于傳統(tǒng)特征能取得更好的目標檢測效果,但是對于大場景視頻圖像中占幅比較低的小目標(如安全帽)檢測依舊存在局限性。
大場景視頻監(jiān)控由于場景復雜、圖像分辨率高和安全帽目標較小等特點,僅僅將YOLO或RCNN系列網(wǎng)絡模型直接訓練安全帽目標檢測模型,很難獲得理想的效果。因此,為了解決上述問題,本文考慮工業(yè)場景的復雜性,提出一種深度級聯(lián)安全帽檢測識別網(wǎng)絡模型,主要是將目標檢測模塊和分類模塊相結合,以期獲得更好的安全帽目標定位效果。
安全帽檢測的主要任務是確定圖像中是否有安全帽并定位其位置。目前,由于施工場景復雜、視頻圖像分辨率較高、安全帽目標尺寸較小等特點,基于深度特征的安全帽檢測算法也易導致較高的誤檢率和漏檢率。針對上述問題,本文提出基于深度級聯(lián)網(wǎng)絡模型的安全帽檢測算法,此網(wǎng)絡模型由2個模塊組成:檢測網(wǎng)絡模塊和分類網(wǎng)絡模塊,在檢測網(wǎng)絡模塊階段主要實現(xiàn)施工人員的精確定位,有助于下一步安全帽的識別;在分類網(wǎng)絡模塊階段主要進行安全帽目標的精細定位,并進一步提取圖像中的安全帽輪廓信息,最終判斷施工人員是否佩戴安全帽。
工業(yè)場景中安全帽檢測技術主要預測施工人員是否正確佩戴安全帽,從而進行預警和提醒。施工人員相比于安全帽的圖像占比較大,因此更容易提取整幅圖像的行人信息特征。依據(jù)上下文信息,本文把安全帽檢測問題轉換為施工人員檢測問題。
在進行疑似佩戴安全帽人員的檢測中,本方法對比了YOLO系列的網(wǎng)絡模型,其中YOLOv4在YOLOv3目標檢測網(wǎng)絡框架基礎上,采用了不同的優(yōu)化策略,如:主干網(wǎng)絡、數(shù)據(jù)處理、網(wǎng)絡訓練策略、損失函數(shù)等方面,使其更具有較快的檢測精度。與YOLOv3網(wǎng)絡結構相比,YOLOv4具有以下特點:1)YOLOv4網(wǎng)絡結構使用CSPDarknet53[20]作為主干網(wǎng)絡,保留了YOLOv3的前端網(wǎng)絡部分,同時利用空間金字塔池化(Spatial Pyramid Pooling, SPP)作為Neck的附加模塊來擴大網(wǎng)絡感受野,因此,能有效分離出重要的目標上下文特征;同時YOLOv4還借鑒了PANet(Path Aggregation Network)[21]中的路徑聚合模塊,將其由加法改為乘法作為特征提取模塊的計算策略,從而提高了模型目標檢測準確性;其中YOLOv4主干網(wǎng)絡在每一個大殘差塊上均添加了CSP模塊(Cross Stage Partial),從而將底層的特征映射成2個部分:一部分經(jīng)過密集塊和過渡層,另一部分與傳統(tǒng)特征映射結合到下一個階段;除此之外,CSP能夠在減少計算量的同時增強網(wǎng)絡模型的學習能力,尤其對于小目標物體,YOLOv4網(wǎng)絡使用PANet代替FPN(Feature Pyramid Networks)進行參數(shù)聚合可以更好地從圖像中檢測出目標:2)YOLOv4通過引入Mosaic數(shù)據(jù)增強算法將讀取的4張圖片隨機翻轉、縮放和排布等操作拼接成一幅圖片,從而可以豐富圖像的上下文信息,增強模型的魯棒性;3)YOLOv4使用Adversarial Training自對抗訓練方法,對輸入圖像進行操作以擴充訓練數(shù)據(jù)集;4)YOLOv4使用Mish函數(shù)作為模型的激活函數(shù),并采用DropBlock[22]抑制網(wǎng)絡過擬合。
級聯(lián)網(wǎng)絡中檢測網(wǎng)絡模塊的輸出是施工人員的ROI(Region of Interest)區(qū)域,經(jīng)過尺度變換操作后,將此區(qū)域送入分類網(wǎng)絡判斷工人是否佩戴安全帽。
第二階段的分類網(wǎng)絡模塊采用基于SE-ResNet的主干架構以解決深度網(wǎng)絡會出現(xiàn)梯度消失和梯度爆炸等問題。本文的殘差學習單元示意圖如圖1所示:ResNet通過恒等連接和殘差連接將上下2層連接以加深淺層網(wǎng)絡,同時采用跳躍結構以增強淺層網(wǎng)絡的影響力從而避免精度衰減。
圖1 殘差學習單元
此外,為了快速準確地判斷識別安全帽,本文在深度殘差網(wǎng)絡中添加了SE(Squeeze-and-Excitation)[23]注意力機制模塊。SE模塊包括壓縮(Squeeze)和激發(fā)(Excitation)2個步驟:1)壓縮步驟通過在Feature Map層上執(zhí)行全局平均池化(Global Average Pooling)得到當前全局壓縮特征向量;2)激發(fā)步驟通過2層全連接的bottleneck結構得到Feature Map中每個通道的權值,并將加權后的Feature Map作為下一層網(wǎng)絡的輸入。安全帽識別模型中SE注意力機制模塊主要學習通道之間的相關性,自動學習不同通道特征的重要程度,并篩選出針對目標通道的注意力特征以提高安全帽分類的準確率。本文分類網(wǎng)絡模型如圖2所示。
圖2 SE-ResNet分類網(wǎng)絡
本文提出的級聯(lián)網(wǎng)絡模型由2部分組成:YOLOv4檢測網(wǎng)絡模塊和SE-ResNet分類網(wǎng)絡模塊,檢測網(wǎng)絡模型的輸出作為分類網(wǎng)絡模型的輸入。1)檢測網(wǎng)絡和分類網(wǎng)絡模塊分別實現(xiàn)施工人員檢測和安全帽目標識別,安全帽檢測網(wǎng)絡對輸入圖像進行特征提取以剔除大量背景信息,對提取到的施工人員特征進行降維,輸出施工人員ROI區(qū)域;2)將施工人員ROI區(qū)域作為SE-ResNet分類網(wǎng)絡模型的輸入提取安全帽特征,判斷其是否佩戴安全帽;3)進一步使用迭代訓練策略以優(yōu)化深度級聯(lián)網(wǎng)絡模型,通過分類網(wǎng)絡輸出安全帽類別和坐標信息以得到原始圖像安全帽的精確信息。
本文提出的安全帽深度級聯(lián)網(wǎng)絡結構如圖3所示。檢測網(wǎng)絡模塊:1)使用分層結構,使檢測模型可探測不同通道分辨率的特征向量;2)采用SPP模塊,能夠增加感受野,獲取顯著的上下文信息;3)挑選不同層的PANet做參數(shù)聚合以保證檢測模型準確率。分類網(wǎng)絡模塊采用殘差注意力網(wǎng)絡:1)使用跳躍式連接傳遞以保證上下文信息的完整性并簡化模型參數(shù);2)添加SE注意力模塊以關注圖像中頭部輪廓信息,通過提取頭部信息的特征來優(yōu)化安全帽分類的精度。通過實驗對比,基于深度級聯(lián)網(wǎng)絡模型的安全帽檢測方法能夠在人員密集和光線陰暗等復雜環(huán)境下有著較高的檢測率,同時具有較好的魯棒性和泛化能力。
圖3 基于安全帽深度級聯(lián)網(wǎng)絡結構圖
本文提出的級聯(lián)網(wǎng)絡模型的損失函數(shù)由檢測損失函數(shù)和分類損失函數(shù)2部分組成。由于CIoU在IoU的基礎上解決邊界框不重合時的問題,同時添加了邊界框中心點距離和寬高比的尺度信息,因此,在構造檢測網(wǎng)絡模型時選取CIoU_Loss[24]作為檢測損失函數(shù),其公式如下:
(1)
(2)
(3)
公式(1)中,A和B分別代表預測框和真實框,Actr和Bctr則分別表示預測框和真實框的中心點坐標,p(·)是計算歐氏距離,c為A、B最小包圍框的對角線長度,a·v表示長度比的懲罰項,a為一個正數(shù),v則是用來測量長寬比的一致性的參數(shù);公式(2)中,wgt和hgt分別表示真實框的寬和高,w和h則分別代表預測框的寬和高。若真實框和預測框的寬高相似,那么懲罰項v為0,由此可見,懲罰項的目的就是控制預測框的寬高盡可能地與真實框接近。
分類損失函數(shù)采取中心損失函數(shù)Center-Loss與交叉熵損失函數(shù)相結合的方法。中心損失函數(shù)可以解決類內間距問題,其公式定義如下:
(4)
公式(4)中:cyi表示第yi個類別的特征中心,xi表示輸入全連接層的特征,m表示最小批量的大小。交叉熵損失函數(shù)可以表示實際輸出與期望輸出概率的相近程度,交叉熵損失函數(shù)表達式為:
(5)
Lf=Lj+λLc
(6)
L=LCIoU+Lf+φ
(7)
實驗采用Pytorch深度學習框架,在Ubuntu18.04操作系統(tǒng),CUDA Tookit10.1版本,32 GB內存、顯卡為1080Ti、NVIDIA GeForce驅動程序440.100版本的設備環(huán)境下訓練安全帽級聯(lián)網(wǎng)絡模型。
3.1.1 施工人員數(shù)據(jù)集制作
實驗數(shù)據(jù)集是來自工廠不同位置4個視頻監(jiān)控攝像頭拍攝的視頻數(shù)據(jù)。通過采集不同方位、不同角度現(xiàn)場施工人員的圖像以豐富數(shù)據(jù)的多樣性,提高模型的泛化能力,從而更好地檢測復雜施工現(xiàn)場施工人員目標。制作施工人員數(shù)據(jù)集由以下3個步驟組成:1)采取每秒一幀的思路對視頻數(shù)據(jù)進行截圖保存;2)人工篩選過濾一些沒有目標的圖片,共收集8400張圖片;3)依據(jù)Pascal VOC數(shù)據(jù)集的圖像標注標準,將8400張圖片使用LabelImg工具進行標注,產生訓練所需的xml文件,其中80%為訓練集,20%作為測試集。
3.1.2 安全帽數(shù)據(jù)集制作
安全帽檢測數(shù)據(jù)集通過網(wǎng)絡爬蟲技術爬取滿足工業(yè)現(xiàn)場的安全帽圖片。為了更好地精準識別安全帽目標,本文通過以下操作制作安全帽數(shù)據(jù)集:1)人工過濾篩選出不符合分類要求的圖片,共收集4000張圖像;2)依據(jù)Kaggle cat_dog分類數(shù)據(jù)集格式,將4000張圖像進一步細分為yes和no;3)按照8∶2的比例將圖片劃分為訓練和測試數(shù)據(jù)集;4)通過旋轉訓練數(shù)據(jù)集的方法以增強數(shù)據(jù),從而更好地識別安全帽目標,提高模型的泛化能力。
為了對比本文提出的深度級聯(lián)網(wǎng)絡方法,本實驗分別利用YOLOv3、YOLOv4、SSD檢測網(wǎng)絡架構實現(xiàn)了安全帽目標檢測功能,實驗結果表明,本文提出的深度級聯(lián)網(wǎng)絡模型能取得較高的安全帽檢測準確度。
3.2.1 安全帽級聯(lián)網(wǎng)絡模型訓練策略
訓練本文提出的級聯(lián)網(wǎng)絡模型需要2個階段:1)檢測施工人員網(wǎng)絡模型;2)安全帽分類模型。在訓練施工人員檢測網(wǎng)絡模型時,動量(momentum)設置為0.9,batch_size為32,初始學習率設置為0.001,而經(jīng)過10000次迭代后將學習率設置為0.0001,最大迭代次數(shù)為15000;除此之外,訓練過程中不斷對圖像進行隨機旋轉、翻轉和尺度變換以擴充數(shù)據(jù)集。在訓練安全帽目標分類網(wǎng)絡模型時,batch_size為8,學習率初始化為0.001,本文采取指數(shù)衰減的方式對學習率進行迭代遞減,衰減系數(shù)(decay)設置為0.95,經(jīng)過500個epoch,訓練次數(shù)為30000次,最終訓練得到安全帽分類網(wǎng)絡模型。
為了更公平地對比實驗結果,在同樣的實驗環(huán)境配置下,本文通過YOLOv3、YOLOv4、SSD檢測網(wǎng)絡架構實現(xiàn)了安全帽檢測任務,從而定性與定量地與本文提出的級聯(lián)網(wǎng)絡模型進行對比。
3.2.2 實驗結果定性和定量分析
實驗選取不同場景如:正常、背光、遠景和人員密集,分別使用SSD、YOLOv3、YOLOv4網(wǎng)絡架構和本文提出的級聯(lián)網(wǎng)絡模型進行安全帽檢測實驗,實驗結果如圖4所示。
如圖4所示,SSD在正常場景中可以檢測到安全帽,但在背光、遠景和人員密集條件下誤檢率極高。而YOLOv3在正常和背光場景中可以正確檢測安全帽目標,但是遠景和人員密集條件下漏檢率依舊很高。相比于YOLOv3,YOLOv4準確率稍高些,但在圖4的第一幅圖片中,將旁邊的工業(yè)零件誤檢為安全帽。與上述安全帽檢測網(wǎng)絡架構相比,本文提出的安全帽深度級聯(lián)網(wǎng)絡模型有著較高的準確率,尤其在人員密集復雜場景中。因此,深度級聯(lián)網(wǎng)絡模型具備較好的魯棒性,并能實現(xiàn)在工業(yè)復雜場景下安全帽佩戴實時檢測。
圖4 不同模型在不同環(huán)境下的測試結果
本文通過計算安全帽檢測識別的準確率來評價不同網(wǎng)絡模型的效果,在安全帽數(shù)據(jù)集分別進行實驗評價,定量分析結果如表1所示。其中,級聯(lián)網(wǎng)絡的準確率為86.9%,比YOLOv4提高了2個百分點。
表1 安全帽檢測結果
3.2.3 檢測網(wǎng)絡模塊選擇實驗
本文還進行了另一組對比實驗:深度級聯(lián)網(wǎng)絡模型中不同檢測模塊對安全帽檢測效果的影響。其中,實驗通過定性分析YOLOv3與YOLOv4檢測模塊以選取合適的檢測網(wǎng)絡模塊,實驗結果如圖5所示。
如圖5所示,在正常、遠景和背光場景下,深度級聯(lián)網(wǎng)絡采用YOLOv3和YOLOv4檢測模塊都能準確檢測到安全帽目標,但是在人員密集復雜場景下,使用YOLOv3檢測模塊比YOLOv4檢測模塊的漏檢率高。因此,本文提出的安全帽深度級聯(lián)網(wǎng)絡模型采用YOLOv4主干模型作為檢測網(wǎng)絡模塊。
圖5 深度級聯(lián)網(wǎng)絡模型中不同檢測模塊的實驗結果
本文針對工業(yè)場景下的安全帽難以檢測的問題,提出了基于深度級聯(lián)網(wǎng)絡模型的安全帽檢測識別方法,克服了單一網(wǎng)絡模型在高分辨率監(jiān)控圖像的局限性。具體來說,本文首先采用檢測網(wǎng)絡模塊對施工人員ROI區(qū)域進行提取,進一步將上一模塊的輸出ROI區(qū)域經(jīng)尺度變換后輸入分類網(wǎng)絡進行判斷以識別其是否佩戴安全帽,最后映射原始圖像。實驗結果表明,基于深度級聯(lián)網(wǎng)絡安全帽檢測模型準確率比YOLOv4網(wǎng)絡模型提高了2個百分點,同時也能夠解決工業(yè)復雜場景下安全帽實時檢測的問題,但在人員密集情況下也會出現(xiàn)漏檢的情況,如何更加有效解決這一問題,也是本文下一步研究的重點。