亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于深度級聯(lián)模型工業(yè)安全帽檢測算法

        2022-02-12 02:49:04朱強強彭小寶殷志堅溫海橋黃春華
        計算機與現(xiàn)代化 2022年1期
        關鍵詞:安全帽級聯(lián)施工人員

        楊 貞,朱強強,彭小寶,殷志堅,溫海橋,黃春華

        (1.江西科技師范大學通信與電子學院,江西 南昌 330013; 2.防城港市氣象局,廣西 防城港 538001)

        0 引 言

        隨著工業(yè)化進程的日益加劇,在日常生產中,如工廠車間、建筑工地等復雜環(huán)境,存在著威脅人身安全隱患因素,而安全帽作為一種重要防護工具,在施工場景中必須正確佩戴。統(tǒng)計表明,在作業(yè)現(xiàn)場發(fā)生的傷亡事故中(尤其是物體打擊和高處墜落)正確佩戴安全帽,可以有效減輕事故造成的后果,因此,檢測施工現(xiàn)場工人是否正確佩戴安全帽具有重大意義[1]。然而,由于施工現(xiàn)場場景復雜,工人姿態(tài)變化性大,安全檢查人員難以觀察且易疲憊等因素,無法實時監(jiān)測施工人員是否正確佩戴安全帽。考慮如今工地現(xiàn)場大多已安裝監(jiān)控攝像頭,因此,利用計算機視覺方法,尤其是目標檢測技術,實時分析施工場景視頻,可以有效發(fā)現(xiàn)未戴安全帽工人。

        目標檢測技術是計算機視覺和機器學習重要研究方向,廣泛應用于智能化交通系統(tǒng)[2]、智能視頻監(jiān)控[3]、工業(yè)檢測[4]、航空航天[5]等諸多領域,能有效減少對人力資本的消耗,具有重要的現(xiàn)實意義。因此,目標檢測成為了近年來計算機視覺理論和應用的研究熱點,也是智能監(jiān)控系統(tǒng)的核心技術。而安全帽檢測又是目標檢測技術應用的一個具體方向,因此,利用計算機視覺和機器學習方法檢測工業(yè)場景施工人員是否佩戴安全帽具有重要應用價值。

        當今安全帽檢測技術劃分為2類:1)基于傳統(tǒng)圖像特征的安全帽檢測;2)基于深度特征的安全帽檢測。在傳統(tǒng)特征方法中,馮國臣等[6]首先采用混合高斯模型進行前景檢測,其次利用像素聯(lián)通區(qū)域屬性檢測出人體輪廓,最后對檢測矩形框進行像素級的統(tǒng)計分析以實現(xiàn)安全帽的自動識別功能。但是上述方法容易受到光線變化和背景混雜等因素的干擾,基于此,劉曉慧等[7]采取膚色檢測的方法定位人臉位置,再利用支持向量機(Support Vector Machines, SVM)模型實現(xiàn)安全帽的識別,此方法一定程度上提高了安全帽檢測精度,然而仍沒有解決光線變化對模型的影響。為此,周艷青等[8]利用局部二值模式(Local Binary Patterns, LBP)直方圖統(tǒng)計的方法來提取圖像的特征,然后使用反向傳播(Back Propagation, BP)人工神經(jīng)網(wǎng)絡進行分類以判別是否佩戴安全帽。由于LBP是紋理特征,可以一定程度降低光線的干擾,但是該特征僅是獲取了像素的鄰域信息,無法有效描述安全帽的結構特征,因此,安全帽檢測的準確率偏低??傊?,通過傳統(tǒng)特征提取方法很難獲取安全帽目標的高層次特征,因此也很難高效地檢測工業(yè)場景中施工人員是否佩戴安全帽。

        在深度特征提取方法中,林俊等[9]通過修改深度網(wǎng)絡結構進一步優(yōu)化YOLO(You Only Look Once)模型[10]以實現(xiàn)安全帽檢測,然而,此方法在場景復雜和目標密集的情況下準確率較低?;诖?,施輝等[11]利用圖像金字塔的多尺度特征和K-means聚類算法以改進YOLOv3網(wǎng)絡[12]實現(xiàn)安全帽識別。然而,利用YOLOv3模型直接對安全帽目標進行劃分會導致定位信息粗糙、模型難以訓練和收斂、泛化能力差等問題。與YOLO模型系列算法不同,吳冬梅等[13]在Faster RCNN基礎上,采取特征融合與多尺度檢測策略,一定程度上可以取得較好的安全帽檢測效果,但Faster RCNN計算量大,實時性不佳,且遮擋和光線變化會導致模型性能較差。

        以上基于深度特征的方法雖然可以提取圖像高層次特征,但是由于安全帽在大場景圖片中所占比例較小,其漏檢率和誤檢率依舊較高。因此,上述方法均無法有效應用于實際任務中。

        依據(jù)工業(yè)現(xiàn)場調查研究表明[14],現(xiàn)如今工業(yè)現(xiàn)場的監(jiān)控圖像分辨率為1920×1080甚至更高。由于監(jiān)控設備的位置和角度等因素,安全帽這一目標在視頻中所占比例比較小。因此,對于小目標檢測,傳統(tǒng)特征和深度特征的提取方法都有較高的局限性?;诖耍疚奶岢鲆环N基于級聯(lián)網(wǎng)絡模型的安全帽檢測方法以解決復雜工業(yè)場景安全帽精準檢測識別的問題。在本文提出的方法中,首先采用YOLOv4[15]檢測網(wǎng)絡對疑似佩戴安全帽的工作人員進行檢測;然后對上階段檢測網(wǎng)絡的輸出目標圖像進一步通過顯著性特征進行區(qū)分;最后利用分類器判斷工作人員是否佩戴安全帽。實驗結果表明,與基于深度特征的安全帽檢測方法相比,本文提出的級聯(lián)網(wǎng)絡模型,進一步提高了安全帽的檢測效果。

        1 相關工作

        目標檢測核心任務是查找圖像中是否包含需要檢測的物體,并確定物體的位置和類別。但是,通過傳統(tǒng)檢測算法獲取的目標特征對于目標形態(tài)變化、光照變化以及背景多樣化等因素缺乏魯棒性,易導致目標檢測準確率低和模型泛化能力差,因而難以應用在真實的復雜工業(yè)場景中。

        基于深度學習One-Stage的目標檢測算法主要思想為直接計算物體的類別概率和位置坐標值,不需要獲得目標候選框區(qū)域,通過網(wǎng)絡端到端訓練模型就可以得到最終的目標檢測結果且速度更快?,F(xiàn)如今,One-Stage典型的算法有SSD(Single Shot MultiBox Detector)[16]、YOLO系列和Retina-Net[17]系列等;SSD在特征圖上采用卷積核來預測一系列目標框的類型和坐標信息,并使用多尺度特征進行回歸以提高目標檢測準確率。YOLO系列目標檢測算法是基于卷積神經(jīng)網(wǎng)絡的回歸方法,目前公認有4個版本:YOLO、YOLOv2[18]、YOLOv3和YOLOv4。

        對比了YOLO系列的網(wǎng)絡模型,其中YOLOv1檢測網(wǎng)絡模型包含24個卷積層(用來提取特征)和2個全連接層(用來預測圖像位置和類別置信度);同時將輸入圖像分成網(wǎng)格,每個網(wǎng)格塊輸出不同的bounding box(包含物體的矩形區(qū)域)、每個box的置信度以及物體屬于某個類別的概率信息。YOLOv1網(wǎng)絡模型有著以下缺陷:1)YOLOv1采用多個下采樣層結構,網(wǎng)絡模型學習到的目標特征不精細,因此導致目標檢測準確率低;2)YOLOv1網(wǎng)絡模型訓練依賴物體標注數(shù)據(jù),因此,對于非常規(guī)的物體和比例,YOLOv1檢測效果并不理想;3)當物體所占畫面比例較小,每個網(wǎng)格將包含多個物體的bounding box輸出,而YOLOv1只選擇IoU(Intersection over Union)[19]分數(shù)最高的bounding box作為物體檢測輸出,因此YOLOv1很難檢測出圖像中的小目標。為了解決此問題,YOLOv2檢測網(wǎng)絡模型使用了批處理、變化圖像分辨率和簡化網(wǎng)絡結構策略解決YOLOv1網(wǎng)絡的局限性:1)通過在卷積層后添加batch normalization,以提高網(wǎng)絡模型收斂性,同時消除對正則化的依賴;2)改變特征網(wǎng)絡的輸入分辨率,使得網(wǎng)絡適應高分辨率的輸入,來緩解YOLOv1特征提取網(wǎng)絡的局限性;3)通過卷積層降采樣、刪除最后池化層以簡化網(wǎng)絡結構,并在卷積特征圖上進行滑窗操作,使得每一個中心可以預測9種不同大小的建議框,以此彌補YOLOv1丟失較多的空間信息。盡管YOLOv2改進了很多YOLOv1結構,使得目標檢測速度和準確率也得到了提高,但是其對于部分遮擋的目標依舊存在很高的漏檢率。為了解決上述問題,YOLOv3使用邏輯回歸(Logistic Regression)的方法給每個bounding box預測一個類別得分,并使用獨立的Logistics分類器與二值交叉熵損失函數(shù)進行計算,同時YOLOv3還運用多尺度策略將深層特征上采樣后與淺層特征融合,得到多個尺度的目標特征。每個尺度對應3種不同大小的anchor,負責預測不同大小的目標:1)尺度1在基礎特征網(wǎng)絡結構中添加多個卷積層,輸出box信息以預測較大目標;2)尺度2在尺度1網(wǎng)絡基礎上與特征圖相加,并通過幾層卷積層后輸出box信息,負責預測中等大小的目標;3)尺度3與尺度2類似,使用32×32大小的feature map作為輸出,負責預測較小目標??傊?,YOLOv3在很多檢測場景上比YOLOv1和YOLOv2具有優(yōu)越性,但在施工人員密集場景中,準確檢測安全帽還有很大的局限性??傊?,基于One-Stage的目標檢測算法相比于傳統(tǒng)特征能取得更好的目標檢測效果,但是對于大場景視頻圖像中占幅比較低的小目標(如安全帽)檢測依舊存在局限性。

        大場景視頻監(jiān)控由于場景復雜、圖像分辨率高和安全帽目標較小等特點,僅僅將YOLO或RCNN系列網(wǎng)絡模型直接訓練安全帽目標檢測模型,很難獲得理想的效果。因此,為了解決上述問題,本文考慮工業(yè)場景的復雜性,提出一種深度級聯(lián)安全帽檢測識別網(wǎng)絡模型,主要是將目標檢測模塊和分類模塊相結合,以期獲得更好的安全帽目標定位效果。

        2 級聯(lián)網(wǎng)絡

        安全帽檢測的主要任務是確定圖像中是否有安全帽并定位其位置。目前,由于施工場景復雜、視頻圖像分辨率較高、安全帽目標尺寸較小等特點,基于深度特征的安全帽檢測算法也易導致較高的誤檢率和漏檢率。針對上述問題,本文提出基于深度級聯(lián)網(wǎng)絡模型的安全帽檢測算法,此網(wǎng)絡模型由2個模塊組成:檢測網(wǎng)絡模塊和分類網(wǎng)絡模塊,在檢測網(wǎng)絡模塊階段主要實現(xiàn)施工人員的精確定位,有助于下一步安全帽的識別;在分類網(wǎng)絡模塊階段主要進行安全帽目標的精細定位,并進一步提取圖像中的安全帽輪廓信息,最終判斷施工人員是否佩戴安全帽。

        2.1 檢測網(wǎng)絡

        工業(yè)場景中安全帽檢測技術主要預測施工人員是否正確佩戴安全帽,從而進行預警和提醒。施工人員相比于安全帽的圖像占比較大,因此更容易提取整幅圖像的行人信息特征。依據(jù)上下文信息,本文把安全帽檢測問題轉換為施工人員檢測問題。

        在進行疑似佩戴安全帽人員的檢測中,本方法對比了YOLO系列的網(wǎng)絡模型,其中YOLOv4在YOLOv3目標檢測網(wǎng)絡框架基礎上,采用了不同的優(yōu)化策略,如:主干網(wǎng)絡、數(shù)據(jù)處理、網(wǎng)絡訓練策略、損失函數(shù)等方面,使其更具有較快的檢測精度。與YOLOv3網(wǎng)絡結構相比,YOLOv4具有以下特點:1)YOLOv4網(wǎng)絡結構使用CSPDarknet53[20]作為主干網(wǎng)絡,保留了YOLOv3的前端網(wǎng)絡部分,同時利用空間金字塔池化(Spatial Pyramid Pooling, SPP)作為Neck的附加模塊來擴大網(wǎng)絡感受野,因此,能有效分離出重要的目標上下文特征;同時YOLOv4還借鑒了PANet(Path Aggregation Network)[21]中的路徑聚合模塊,將其由加法改為乘法作為特征提取模塊的計算策略,從而提高了模型目標檢測準確性;其中YOLOv4主干網(wǎng)絡在每一個大殘差塊上均添加了CSP模塊(Cross Stage Partial),從而將底層的特征映射成2個部分:一部分經(jīng)過密集塊和過渡層,另一部分與傳統(tǒng)特征映射結合到下一個階段;除此之外,CSP能夠在減少計算量的同時增強網(wǎng)絡模型的學習能力,尤其對于小目標物體,YOLOv4網(wǎng)絡使用PANet代替FPN(Feature Pyramid Networks)進行參數(shù)聚合可以更好地從圖像中檢測出目標:2)YOLOv4通過引入Mosaic數(shù)據(jù)增強算法將讀取的4張圖片隨機翻轉、縮放和排布等操作拼接成一幅圖片,從而可以豐富圖像的上下文信息,增強模型的魯棒性;3)YOLOv4使用Adversarial Training自對抗訓練方法,對輸入圖像進行操作以擴充訓練數(shù)據(jù)集;4)YOLOv4使用Mish函數(shù)作為模型的激活函數(shù),并采用DropBlock[22]抑制網(wǎng)絡過擬合。

        2.2 級聯(lián)網(wǎng)絡SE-ResNet分類網(wǎng)絡

        級聯(lián)網(wǎng)絡中檢測網(wǎng)絡模塊的輸出是施工人員的ROI(Region of Interest)區(qū)域,經(jīng)過尺度變換操作后,將此區(qū)域送入分類網(wǎng)絡判斷工人是否佩戴安全帽。

        第二階段的分類網(wǎng)絡模塊采用基于SE-ResNet的主干架構以解決深度網(wǎng)絡會出現(xiàn)梯度消失和梯度爆炸等問題。本文的殘差學習單元示意圖如圖1所示:ResNet通過恒等連接和殘差連接將上下2層連接以加深淺層網(wǎng)絡,同時采用跳躍結構以增強淺層網(wǎng)絡的影響力從而避免精度衰減。

        圖1 殘差學習單元

        此外,為了快速準確地判斷識別安全帽,本文在深度殘差網(wǎng)絡中添加了SE(Squeeze-and-Excitation)[23]注意力機制模塊。SE模塊包括壓縮(Squeeze)和激發(fā)(Excitation)2個步驟:1)壓縮步驟通過在Feature Map層上執(zhí)行全局平均池化(Global Average Pooling)得到當前全局壓縮特征向量;2)激發(fā)步驟通過2層全連接的bottleneck結構得到Feature Map中每個通道的權值,并將加權后的Feature Map作為下一層網(wǎng)絡的輸入。安全帽識別模型中SE注意力機制模塊主要學習通道之間的相關性,自動學習不同通道特征的重要程度,并篩選出針對目標通道的注意力特征以提高安全帽分類的準確率。本文分類網(wǎng)絡模型如圖2所示。

        圖2 SE-ResNet分類網(wǎng)絡

        2.3 深度級聯(lián)網(wǎng)絡安全帽檢測算法

        本文提出的級聯(lián)網(wǎng)絡模型由2部分組成:YOLOv4檢測網(wǎng)絡模塊和SE-ResNet分類網(wǎng)絡模塊,檢測網(wǎng)絡模型的輸出作為分類網(wǎng)絡模型的輸入。1)檢測網(wǎng)絡和分類網(wǎng)絡模塊分別實現(xiàn)施工人員檢測和安全帽目標識別,安全帽檢測網(wǎng)絡對輸入圖像進行特征提取以剔除大量背景信息,對提取到的施工人員特征進行降維,輸出施工人員ROI區(qū)域;2)將施工人員ROI區(qū)域作為SE-ResNet分類網(wǎng)絡模型的輸入提取安全帽特征,判斷其是否佩戴安全帽;3)進一步使用迭代訓練策略以優(yōu)化深度級聯(lián)網(wǎng)絡模型,通過分類網(wǎng)絡輸出安全帽類別和坐標信息以得到原始圖像安全帽的精確信息。

        本文提出的安全帽深度級聯(lián)網(wǎng)絡結構如圖3所示。檢測網(wǎng)絡模塊:1)使用分層結構,使檢測模型可探測不同通道分辨率的特征向量;2)采用SPP模塊,能夠增加感受野,獲取顯著的上下文信息;3)挑選不同層的PANet做參數(shù)聚合以保證檢測模型準確率。分類網(wǎng)絡模塊采用殘差注意力網(wǎng)絡:1)使用跳躍式連接傳遞以保證上下文信息的完整性并簡化模型參數(shù);2)添加SE注意力模塊以關注圖像中頭部輪廓信息,通過提取頭部信息的特征來優(yōu)化安全帽分類的精度。通過實驗對比,基于深度級聯(lián)網(wǎng)絡模型的安全帽檢測方法能夠在人員密集和光線陰暗等復雜環(huán)境下有著較高的檢測率,同時具有較好的魯棒性和泛化能力。

        圖3 基于安全帽深度級聯(lián)網(wǎng)絡結構圖

        2.4 深度級聯(lián)網(wǎng)絡損失函數(shù)

        本文提出的級聯(lián)網(wǎng)絡模型的損失函數(shù)由檢測損失函數(shù)和分類損失函數(shù)2部分組成。由于CIoU在IoU的基礎上解決邊界框不重合時的問題,同時添加了邊界框中心點距離和寬高比的尺度信息,因此,在構造檢測網(wǎng)絡模型時選取CIoU_Loss[24]作為檢測損失函數(shù),其公式如下:

        (1)

        (2)

        (3)

        公式(1)中,A和B分別代表預測框和真實框,Actr和Bctr則分別表示預測框和真實框的中心點坐標,p(·)是計算歐氏距離,c為A、B最小包圍框的對角線長度,a·v表示長度比的懲罰項,a為一個正數(shù),v則是用來測量長寬比的一致性的參數(shù);公式(2)中,wgt和hgt分別表示真實框的寬和高,w和h則分別代表預測框的寬和高。若真實框和預測框的寬高相似,那么懲罰項v為0,由此可見,懲罰項的目的就是控制預測框的寬高盡可能地與真實框接近。

        分類損失函數(shù)采取中心損失函數(shù)Center-Loss與交叉熵損失函數(shù)相結合的方法。中心損失函數(shù)可以解決類內間距問題,其公式定義如下:

        (4)

        公式(4)中:cyi表示第yi個類別的特征中心,xi表示輸入全連接層的特征,m表示最小批量的大小。交叉熵損失函數(shù)可以表示實際輸出與期望輸出概率的相近程度,交叉熵損失函數(shù)表達式為:

        (5)

        Lf=Lj+λLc

        (6)

        L=LCIoU+Lf+φ

        (7)

        3 實驗分析

        實驗采用Pytorch深度學習框架,在Ubuntu18.04操作系統(tǒng),CUDA Tookit10.1版本,32 GB內存、顯卡為1080Ti、NVIDIA GeForce驅動程序440.100版本的設備環(huán)境下訓練安全帽級聯(lián)網(wǎng)絡模型。

        3.1 數(shù)據(jù)集

        3.1.1 施工人員數(shù)據(jù)集制作

        實驗數(shù)據(jù)集是來自工廠不同位置4個視頻監(jiān)控攝像頭拍攝的視頻數(shù)據(jù)。通過采集不同方位、不同角度現(xiàn)場施工人員的圖像以豐富數(shù)據(jù)的多樣性,提高模型的泛化能力,從而更好地檢測復雜施工現(xiàn)場施工人員目標。制作施工人員數(shù)據(jù)集由以下3個步驟組成:1)采取每秒一幀的思路對視頻數(shù)據(jù)進行截圖保存;2)人工篩選過濾一些沒有目標的圖片,共收集8400張圖片;3)依據(jù)Pascal VOC數(shù)據(jù)集的圖像標注標準,將8400張圖片使用LabelImg工具進行標注,產生訓練所需的xml文件,其中80%為訓練集,20%作為測試集。

        3.1.2 安全帽數(shù)據(jù)集制作

        安全帽檢測數(shù)據(jù)集通過網(wǎng)絡爬蟲技術爬取滿足工業(yè)現(xiàn)場的安全帽圖片。為了更好地精準識別安全帽目標,本文通過以下操作制作安全帽數(shù)據(jù)集:1)人工過濾篩選出不符合分類要求的圖片,共收集4000張圖像;2)依據(jù)Kaggle cat_dog分類數(shù)據(jù)集格式,將4000張圖像進一步細分為yes和no;3)按照8∶2的比例將圖片劃分為訓練和測試數(shù)據(jù)集;4)通過旋轉訓練數(shù)據(jù)集的方法以增強數(shù)據(jù),從而更好地識別安全帽目標,提高模型的泛化能力。

        3.2 實驗結果與分析

        為了對比本文提出的深度級聯(lián)網(wǎng)絡方法,本實驗分別利用YOLOv3、YOLOv4、SSD檢測網(wǎng)絡架構實現(xiàn)了安全帽目標檢測功能,實驗結果表明,本文提出的深度級聯(lián)網(wǎng)絡模型能取得較高的安全帽檢測準確度。

        3.2.1 安全帽級聯(lián)網(wǎng)絡模型訓練策略

        訓練本文提出的級聯(lián)網(wǎng)絡模型需要2個階段:1)檢測施工人員網(wǎng)絡模型;2)安全帽分類模型。在訓練施工人員檢測網(wǎng)絡模型時,動量(momentum)設置為0.9,batch_size為32,初始學習率設置為0.001,而經(jīng)過10000次迭代后將學習率設置為0.0001,最大迭代次數(shù)為15000;除此之外,訓練過程中不斷對圖像進行隨機旋轉、翻轉和尺度變換以擴充數(shù)據(jù)集。在訓練安全帽目標分類網(wǎng)絡模型時,batch_size為8,學習率初始化為0.001,本文采取指數(shù)衰減的方式對學習率進行迭代遞減,衰減系數(shù)(decay)設置為0.95,經(jīng)過500個epoch,訓練次數(shù)為30000次,最終訓練得到安全帽分類網(wǎng)絡模型。

        為了更公平地對比實驗結果,在同樣的實驗環(huán)境配置下,本文通過YOLOv3、YOLOv4、SSD檢測網(wǎng)絡架構實現(xiàn)了安全帽檢測任務,從而定性與定量地與本文提出的級聯(lián)網(wǎng)絡模型進行對比。

        3.2.2 實驗結果定性和定量分析

        實驗選取不同場景如:正常、背光、遠景和人員密集,分別使用SSD、YOLOv3、YOLOv4網(wǎng)絡架構和本文提出的級聯(lián)網(wǎng)絡模型進行安全帽檢測實驗,實驗結果如圖4所示。

        如圖4所示,SSD在正常場景中可以檢測到安全帽,但在背光、遠景和人員密集條件下誤檢率極高。而YOLOv3在正常和背光場景中可以正確檢測安全帽目標,但是遠景和人員密集條件下漏檢率依舊很高。相比于YOLOv3,YOLOv4準確率稍高些,但在圖4的第一幅圖片中,將旁邊的工業(yè)零件誤檢為安全帽。與上述安全帽檢測網(wǎng)絡架構相比,本文提出的安全帽深度級聯(lián)網(wǎng)絡模型有著較高的準確率,尤其在人員密集復雜場景中。因此,深度級聯(lián)網(wǎng)絡模型具備較好的魯棒性,并能實現(xiàn)在工業(yè)復雜場景下安全帽佩戴實時檢測。

        圖4 不同模型在不同環(huán)境下的測試結果

        本文通過計算安全帽檢測識別的準確率來評價不同網(wǎng)絡模型的效果,在安全帽數(shù)據(jù)集分別進行實驗評價,定量分析結果如表1所示。其中,級聯(lián)網(wǎng)絡的準確率為86.9%,比YOLOv4提高了2個百分點。

        表1 安全帽檢測結果

        3.2.3 檢測網(wǎng)絡模塊選擇實驗

        本文還進行了另一組對比實驗:深度級聯(lián)網(wǎng)絡模型中不同檢測模塊對安全帽檢測效果的影響。其中,實驗通過定性分析YOLOv3與YOLOv4檢測模塊以選取合適的檢測網(wǎng)絡模塊,實驗結果如圖5所示。

        如圖5所示,在正常、遠景和背光場景下,深度級聯(lián)網(wǎng)絡采用YOLOv3和YOLOv4檢測模塊都能準確檢測到安全帽目標,但是在人員密集復雜場景下,使用YOLOv3檢測模塊比YOLOv4檢測模塊的漏檢率高。因此,本文提出的安全帽深度級聯(lián)網(wǎng)絡模型采用YOLOv4主干模型作為檢測網(wǎng)絡模塊。

        圖5 深度級聯(lián)網(wǎng)絡模型中不同檢測模塊的實驗結果

        4 結束語

        本文針對工業(yè)場景下的安全帽難以檢測的問題,提出了基于深度級聯(lián)網(wǎng)絡模型的安全帽檢測識別方法,克服了單一網(wǎng)絡模型在高分辨率監(jiān)控圖像的局限性。具體來說,本文首先采用檢測網(wǎng)絡模塊對施工人員ROI區(qū)域進行提取,進一步將上一模塊的輸出ROI區(qū)域經(jīng)尺度變換后輸入分類網(wǎng)絡進行判斷以識別其是否佩戴安全帽,最后映射原始圖像。實驗結果表明,基于深度級聯(lián)網(wǎng)絡安全帽檢測模型準確率比YOLOv4網(wǎng)絡模型提高了2個百分點,同時也能夠解決工業(yè)復雜場景下安全帽實時檢測的問題,但在人員密集情況下也會出現(xiàn)漏檢的情況,如何更加有效解決這一問題,也是本文下一步研究的重點。

        猜你喜歡
        安全帽級聯(lián)施工人員
        刺猬戴上安全帽
        礦工有無數(shù)頂安全帽
        建筑現(xiàn)場施工人員的工匠精神培育
        小小安全帽,生命保護傘
        機電安全(2022年4期)2022-08-27 01:59:42
        級聯(lián)LDPC碼的STBC-OFDM系統(tǒng)
        電子制作(2016年15期)2017-01-15 13:39:09
        基于級聯(lián)MUSIC的面陣中的二維DOA估計算法
        基于GPS技術的施工人員區(qū)域調車機管理系統(tǒng)的研究
        寧波港公安局對鎮(zhèn)?;^(qū)施工人員進行消防安全培訓
        水上消防(2014年2期)2014-12-17 05:20:22
        LCL濾波器在6kV級聯(lián)STATCOM中的應用
        電測與儀表(2014年1期)2014-04-04 12:00:34
        H橋級聯(lián)型STATCOM的控制策略研究
        電測與儀表(2014年1期)2014-04-04 12:00:28
        99久久夜色精品国产网站| 变态调教一区二区三区女同| 中国午夜伦理片| 精品人妻无码一区二区色欲产成人| 日本特黄a级高清免费大片| 国产午夜精品综合久久久| 亚洲啪啪视频一区二区| 久久久久久亚洲精品中文字幕 | 免费av在线 国产精品| 亚洲一区二区女搞男| 国产日韩精品中文字无码| 99久久国内精品成人免费| 国产午夜三级精品久久久| 亚洲精品乱码久久久久久不卡| 亚洲视频一区| 乱人伦人妻中文字幕不卡| 精品人妻av一区二区三区四区 | 亚色中文字幕| 亚洲中文字幕一区精品| 久久亚洲欧美国产精品| 亚洲国产成人精品女人久久久| 一区二区三区午夜视频在线观看| 日韩av一区二区观看| 帮老师解开蕾丝奶罩吸乳视频| 免费人成在线观看播放国产| 亚洲国产精品成人一区二区三区| 亚洲综合网国产精品一区| 国产成人久久精品77777综合| 国产综合精品久久久久成人| 中文字幕亚洲精品在线免费| 无码任你躁久久久久久久| 国产亚洲AV无码一区二区二三区| 中文字幕人妻激情在线视频| 中国妇女做爰视频| 亚洲久热无码av中文字幕| 久久激情人妻中文字幕| 婷婷久久国产综合精品| 性生交大片免费看淑女出招| 中文无码日韩欧免费视频 | 少妇高潮潮喷到猛进猛出小说| 久久久亚洲精品蜜桃臀|