亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        改進(jìn)YOLOv4的安全帽佩戴檢測(cè)方法

        2023-03-15 08:47:06李浩方李孟洲馬軍強(qiáng)
        關(guān)鍵詞:候選框安全帽注意力

        張 震 李浩方 李孟洲 馬軍強(qiáng)

        (鄭州大學(xué)電氣工程學(xué)院 河南 鄭州 450001)

        0 引 言

        “十三五”時(shí)期,我國(guó)仍處于新型工業(yè)化、城鎮(zhèn)化持續(xù)推進(jìn)的過(guò)程中,安全生產(chǎn)工作面臨許多挑戰(zhàn)。特別是在建筑、電力、礦山等行業(yè)的施工過(guò)程中,因?yàn)檫`章施工而導(dǎo)致事故頻發(fā)。一方面存在企業(yè)主體責(zé)任不落實(shí)、監(jiān)管環(huán)節(jié)有漏洞、執(zhí)法監(jiān)督不到位、規(guī)范施工安全體系不完善等;另一方面存在施工一線的操作人員安全意識(shí)和操作技能較差等因素。安全帽是個(gè)體防護(hù)裝備中的頭部防護(hù)裝備,在施工過(guò)程中佩戴安全帽是有效保護(hù)一線施工人員頭部的有效防護(hù)性措施,可以減少因意外事故導(dǎo)致的頭部損傷。因此,在需要佩戴安全帽的施工現(xiàn)場(chǎng)中,采用視頻監(jiān)控手段替代人工檢測(cè)是否佩戴安全帽,不僅可以減少人工成本,同時(shí)在一定程度上保證一線施工人員的生命安全。

        隨著深度學(xué)習(xí)的廣泛運(yùn)用,目標(biāo)檢測(cè)在智能監(jiān)控系統(tǒng)中的快速發(fā)展,通過(guò)計(jì)算機(jī)視覺(jué)減少人力資本的消耗在安全施工中有著較好的發(fā)展前景。目前,不需要使用區(qū)域選取直接獲取物體的類別概率和物體坐標(biāo)位置方法有著快速的發(fā)展,典型檢測(cè)算法有YOLO[1]、SSD[2]和CornerNet[3]等,這類算法優(yōu)點(diǎn)在于在保證精度的前提下,有著較高的檢測(cè)速度,可以滿足視頻監(jiān)控檢測(cè)實(shí)時(shí)性的要求。

        綜合考慮,本文針對(duì)安全帽佩戴提出如下檢測(cè)算法:首先采用K-means聚類算法針對(duì)本文自制佩戴安全帽數(shù)據(jù)集獲取適合本文算法的先驗(yàn)框;然后在YOLOv4[4]網(wǎng)絡(luò)增加通道注意力和空間注意力整合的Attention Block模塊,增強(qiáng)網(wǎng)絡(luò)內(nèi)的信息流動(dòng);接著采用CIoU[4]邊界回歸損失函數(shù)作為新的邊界回歸損失函數(shù);最后采用多候選框?qū)W習(xí)策略減少漏檢的概率。實(shí)驗(yàn)表明,改進(jìn)后的方法在視頻監(jiān)控下滿足安全帽佩戴檢測(cè)的準(zhǔn)確性和實(shí)時(shí)性。

        1 YOLOv4原理

        1.1 特征提取網(wǎng)絡(luò)CSPDarkNet53

        YOLOv4使用新的特征提取網(wǎng)絡(luò)CSPDarkNet53代替YOLOv3[5]中采用的darknet53特征提取網(wǎng)絡(luò)。新的特征提取網(wǎng)絡(luò)首先借鑒CSPNet[6](Cross Stage Partial Network)網(wǎng)絡(luò)結(jié)構(gòu),將梯度變化整合到特征圖中,增強(qiáng)卷積網(wǎng)絡(luò)的學(xué)習(xí)能力,在保證檢測(cè)準(zhǔn)確率的同時(shí)降低計(jì)算量,減少運(yùn)算過(guò)程中內(nèi)存消耗。其次,特征提取網(wǎng)絡(luò)結(jié)構(gòu)中采用平滑的Mish[7]激活函數(shù)替換原有l(wèi)eaky-ReLU[8]激活函數(shù),提高信息在網(wǎng)絡(luò)中傳播的準(zhǔn)確性。最后,特征提取網(wǎng)絡(luò)采用了DropBlock[9]正則化方法,該方法在訓(xùn)練的不同階段靈活修改刪減特征圖中連續(xù)區(qū)域的概率,加強(qiáng)網(wǎng)絡(luò)對(duì)重要特征的學(xué)習(xí)能力。特征提取網(wǎng)絡(luò)CSPDarkNet53網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示。

        圖1 CSPDarkNet53網(wǎng)絡(luò)結(jié)構(gòu)

        1.2 YOLOv4網(wǎng)絡(luò)結(jié)構(gòu)改進(jìn)

        在網(wǎng)絡(luò)結(jié)構(gòu)改進(jìn)方面,YOLOv4網(wǎng)絡(luò)結(jié)構(gòu)首先在骨干網(wǎng)絡(luò)和輸出層中引入了SPP[10](Spatial Pyramid Pooling)模塊。該模塊可以將輸入不同尺寸大小的圖像轉(zhuǎn)化為固定大小輸出,且與特定的網(wǎng)絡(luò)結(jié)構(gòu)相對(duì)獨(dú)立,因此采用SPP模塊既能提升感受視野,提高尺度不變形,還可以降低過(guò)擬合現(xiàn)象。其次,借鑒路徑聚合網(wǎng)絡(luò)PANet[11](Path Aggregation Network)中采用從下向上的路徑增強(qiáng)策略,縮短信息傳播的路徑,充分利用底層特征的位置信息,實(shí)現(xiàn)與FPN[12](Feature Pyramid Networks)自上而下的特征信息聚合,提升小目標(biāo)的檢測(cè)效果。

        在數(shù)據(jù)處理方面,YOLOv4引入馬賽克[4]與自對(duì)抗訓(xùn)練SAT(Self-adversarial-training)方式對(duì)數(shù)據(jù)集進(jìn)行擴(kuò)展。馬賽克數(shù)據(jù)增強(qiáng)采用增加一定訓(xùn)練時(shí)間,將四幅圖片合為一幅,通過(guò)長(zhǎng)寬隨機(jī)變化產(chǎn)生新的數(shù)據(jù),其優(yōu)點(diǎn)在于增加檢測(cè)物體的背景。自對(duì)抗訓(xùn)練在反向傳播中改變圖像中的信息但不改變網(wǎng)絡(luò)中參數(shù),并且改變后的圖片可以正常進(jìn)行目標(biāo)檢測(cè)。兩種方式結(jié)合能有效提升模型泛化能力。

        2 改進(jìn)分析

        對(duì)于安全帽佩戴檢測(cè),本文結(jié)合現(xiàn)有YOLOv4網(wǎng)絡(luò)模型,通過(guò)增加通道注意力和空間注意力整合的Attention Block模塊,選擇CIoU邊界回歸損失函數(shù),采用多候選框?qū)W習(xí)策略[13]和先驗(yàn)框K-means聚類算法,提升安全帽佩戴檢測(cè)效果。

        2.1 引入注意力機(jī)制

        目標(biāo)檢測(cè)中引入注意力機(jī)制可以聚焦安全帽的重要特征,同時(shí)抑制和忽略同行背景中不必要的其他特征信息。由于Woo等[14]提出同時(shí)采用通道注意力和空間注意力卷積模塊方法CBAM(Convolutional Block Attention Modul)能有效提升網(wǎng)絡(luò)性能,所以本文將通道注意力和空間注意力整合后的Attention Block模塊增加到Y(jié)OLOv4網(wǎng)絡(luò)中,提升安全帽佩戴檢測(cè)的準(zhǔn)確率。

        注意力模塊主要由通道注意力模塊和空間注意力模塊構(gòu)成。通道注意力模塊對(duì)輸入維度為C×1×1的特征圖,C為通道數(shù),通過(guò)使用全局平均池化和全局最大池化對(duì)輸入特征圖像的所有特征值進(jìn)行計(jì)算壓縮。然后使用1×1的卷積降低網(wǎng)絡(luò)維度,利用ReLU激活函數(shù)學(xué)習(xí)特征之間的非線性關(guān)系,再用1×1的卷積重新構(gòu)建計(jì)算壓縮前的維度。最后輸出的維度與前面全局平均池化和全局最大池化計(jì)算的權(quán)值通過(guò)Sigmoid運(yùn)算得到歸一化的權(quán)值,生成新特征圖像的特征值。通道注意力模塊得到的特征圖能有效地向下傳播,其模塊構(gòu)成如圖2(a)所示。

        (a) 通道注意力構(gòu)成(b) 空間注意力構(gòu)成圖2 注意力機(jī)構(gòu)結(jié)構(gòu)

        空間注意力模塊主要是獲取特征圖中特征信息的位置信息??臻g注意力模塊首先將輸入尺寸為W×H×C的特征圖通過(guò)通道平均池化和通道最大池化突出新的特征信息得到新的特征圖,W×H為原始圖像壓縮后的尺寸。然后經(jīng)過(guò)一個(gè)卷積層后得到一個(gè)通道為1的特征圖,卷積層中卷積核大小為7×7,padding為3。最后通過(guò)Sigmoid函數(shù)將加權(quán)后的空間注意力特征與輸入特征圖相乘,得到增加空間注意力的特征圖。其模塊構(gòu)成如圖2(b)所示,其中:F代表輸入特征圖;F-new為更新特征圖。

        本文將通道注意力和空間注意力整合為一個(gè)Attention Block模塊,并與CSPDarknet53特征提取網(wǎng)絡(luò)中卷積層第54層、85層和104層相連接,其中卷積54冊(cè)、85層和104層分別對(duì)應(yīng)圖1中①、②、③三個(gè)位置,增加Attention Block模塊后對(duì)應(yīng)大、中、小三個(gè)尺寸的融合特征圖。三個(gè)不同尺寸的特征圖通過(guò)FPN和PANet網(wǎng)絡(luò)結(jié)構(gòu)實(shí)現(xiàn)對(duì)特征圖的上采樣和下采樣的縮放操作,使尺寸相同的特征圖相互融合。融合后的三個(gè)尺寸特征圖通過(guò)大、中、小三個(gè)YOLO層,進(jìn)行安全帽佩戴檢測(cè)的識(shí)別。增加Attention Block模塊后的網(wǎng)絡(luò)如圖3所示。

        圖3 改進(jìn)網(wǎng)絡(luò)結(jié)構(gòu)

        2.2 邊界框回歸損失函數(shù)選擇

        目前,邊界框回歸損失函數(shù)經(jīng)常采用交并比IoU[15](Intersection-over-Union)來(lái)評(píng)價(jià)目標(biāo)檢測(cè)算法的檢測(cè)效果。其計(jì)算公式如式(1)所示。

        (1)

        式中:A表示真實(shí)標(biāo)定框;B表示預(yù)測(cè)候選框。

        但在實(shí)際訓(xùn)練中發(fā)現(xiàn),當(dāng)遇到預(yù)測(cè)框與真實(shí)框不相交時(shí),根據(jù)IoU定義此時(shí)損失為零,無(wú)法進(jìn)行訓(xùn)練,因此為解決邊界框不重合時(shí)的問(wèn)題,而Rezatofighi等在IoU的基礎(chǔ)上提出的GIoU損失函數(shù)不僅能解決重合區(qū)和非重合區(qū)域的重合度信息,還能維持IoU的尺度不敏感特性。GIoU[16]計(jì)算公式如式(2)所示。

        (2)

        式中:C為包含A與B的最小框。但是IoU和GIoU沒(méi)有考慮到真實(shí)標(biāo)定框與預(yù)測(cè)候選框中心的距離信息和長(zhǎng)寬比信息,因此Zheng等[17]提出了兩種邊界框損失函數(shù)DIoU和CIoU。其中:DIoU損失函數(shù)考慮邊界框的重疊面積和中心點(diǎn)距離;而CIOU損失函數(shù)在DIoU損失函數(shù)的基礎(chǔ)上增加真實(shí)標(biāo)定框和預(yù)測(cè)候選框的長(zhǎng)寬比一致性的衡量。DIoU與CIoU的計(jì)算公式如式(3)-式(5)所示。

        (3)

        (4)

        (5)

        式中:ρ表示為預(yù)測(cè)框中心與真實(shí)框中心點(diǎn)的歐氏距離;c表示預(yù)測(cè)框與真實(shí)框中的最小包區(qū)域的對(duì)角線距離;b和bgt表示預(yù)測(cè)框與真實(shí)框的中心點(diǎn);wgt和hgt表示真實(shí)框的寬和高;w和h表示預(yù)測(cè)框的寬和高。

        綜合以上邊框回歸損失函數(shù)優(yōu)點(diǎn)和缺點(diǎn),本文根據(jù)自制的安全帽檢測(cè)數(shù)據(jù)集的特點(diǎn),選用CIoU邊界回歸損失函數(shù),不僅能在目標(biāo)框相互包裹重疊情況下快速收斂,還能進(jìn)一步提升安全帽檢測(cè)模型的性能。

        2.3 采用多候選框?qū)W習(xí)策略

        在直接獲取安全帽檢測(cè)物體與安全帽位置時(shí),由于是否佩戴安全帽與圖中安全帽的位置信息不存在直接聯(lián)系,因此在改進(jìn)網(wǎng)絡(luò)使用DIoU-NMS[17]時(shí),存在安全帽的位置確定而是否佩戴分類檢測(cè)結(jié)果低的情況,這會(huì)在使用DIoU-NMS時(shí)過(guò)濾掉候選框而導(dǎo)致漏檢。因此為解決是否佩戴安全帽和安全帽定位置信度之間不匹配問(wèn)題,本文借鑒多候選框?qū)W習(xí)策略MAL(Multiple Anchor Learning)改善這個(gè)問(wèn)題。

        多候選框?qū)W習(xí)策略先將待檢測(cè)目標(biāo)候選框的位置信息與分類置信度信息進(jìn)行整合優(yōu)化,計(jì)算得到新的候選框位置與分類置信度,然后將計(jì)算后的候選框參數(shù)在迭代過(guò)程中優(yōu)化訓(xùn)練損失,最終選出置信度和位置最高的候選框,進(jìn)而提升目標(biāo)檢測(cè)效果。本文采用多候選框?qū)W習(xí)策略的過(guò)程為:先將某個(gè)是否佩戴安全帽目標(biāo)的i個(gè)候選框構(gòu)成一個(gè)數(shù)組Ai。再采用式(6),評(píng)估數(shù)組中每個(gè)候選框的分類置信度與位置信息,選取待檢測(cè)目標(biāo)分類置信度和位置得分最高的候選框更新模型參數(shù)。然后使用更新后的模型,重新評(píng)估是否佩戴安全帽目標(biāo)候選框的分類置信度與位置。最后經(jīng)過(guò)多次迭代,得到安全帽佩戴檢測(cè)最優(yōu)的候選框信息。最優(yōu)候選框可以有效減少因使用DIoU-NMS過(guò)濾掉位置確定而分類置信度低的情況發(fā)生。目標(biāo)函數(shù)計(jì)算公式如式(6)所示。

        (6)

        從數(shù)組Ai中找到分?jǐn)?shù)較高的候選框需要采用選擇深化方法。選擇方法是在學(xué)習(xí)過(guò)程中線性地降低Ai中候選框的數(shù)量直到為1。深化方法是使未被選擇的候選框參加訓(xùn)練,降低得分較高的候選框得分。其選擇計(jì)算公式如式(7)所示。

        (7)

        式中:t為當(dāng)前迭代次數(shù);T為總迭代次數(shù);λ=t/T;Φ(λ)為候選框的索引。

        通過(guò)選擇深化方法選取最優(yōu)解是一個(gè)對(duì)抗過(guò)程。選擇方法選出分類置信度與位置分?jǐn)?shù)較高的候選框降低檢測(cè)損失得到局部最優(yōu)解。然后通過(guò)深化方法學(xué)習(xí)未被選中候選框中的特征,減低候選框的得分使損失上升脫離局部最優(yōu)解。最后,重復(fù)選擇深化過(guò)程,在收斂時(shí)得到最優(yōu)解。其選擇深化過(guò)程如圖4所示。

        圖4 選擇深化過(guò)程示意圖

        2.4 先驗(yàn)框聚類

        YOLOv4延續(xù)了YOLOv2[18]和YOLOv3中采用K-means聚類算法得到先驗(yàn)框的尺寸。由于YOLOv4算法中的9個(gè)先驗(yàn)框是從COCO[19]數(shù)據(jù)集中聚類產(chǎn)生的,不能應(yīng)用于本文的數(shù)據(jù)集,因此需要對(duì)自制數(shù)據(jù)集中的先驗(yàn)框進(jìn)行重新聚類,聚類效果如圖5所示。

        圖5 K-means聚類分析圖

        如圖5所示,聚類效果的評(píng)價(jià)指標(biāo)采用誤差平方和SSE。當(dāng)選取K=12時(shí)誤差平方和最小,可以考慮選取K=12作為聚類數(shù)量。但依據(jù)肘部法,圖像在K=9時(shí)曲線畸變程度得到極大改善,因此本文選取聚類數(shù)為9。對(duì)自制數(shù)據(jù)集重新聚類依次獲取的9組先驗(yàn)框是:(15×23)、(18×27)、(22×31)、(35×42)、(47×51)、(64×78)、(79×82)、(92×109)和(108×116)。

        3 實(shí) 驗(yàn)

        3.1 數(shù)據(jù)集和實(shí)驗(yàn)平臺(tái)

        安全帽實(shí)驗(yàn)數(shù)據(jù)集一部分采用開(kāi)源的安全帽數(shù)據(jù)集SHWD(SafetyHelmetWearing-Dataset)。該數(shù)據(jù)集一共包含了7 581幅圖片,其中:標(biāo)注佩戴安全帽的正樣本有9 044個(gè);未佩戴的負(fù)樣本有111 514個(gè)。由于開(kāi)源數(shù)據(jù)集中正負(fù)樣本數(shù)量差距明顯,在預(yù)測(cè)過(guò)程中容易出現(xiàn)預(yù)測(cè)偏向負(fù)樣本的分類,降低模型的泛化能力??紤]以上因素,本文通過(guò)網(wǎng)絡(luò)爬蟲(chóng)和視頻截取安全帽圖像,借助LabeLImg標(biāo)注工具,在原有數(shù)據(jù)集中新增4 000幅圖像,手動(dòng)擴(kuò)充數(shù)據(jù)集中的佩戴安全帽中佩戴安全帽的數(shù)量18 326個(gè)。增加標(biāo)注數(shù)據(jù)后的數(shù)據(jù)集,是否佩戴安全帽的正負(fù)樣本數(shù)量比接近1 ∶4,一定程度上提升模型的泛化能力。

        本文實(shí)驗(yàn)在PC端進(jìn)行。實(shí)驗(yàn)平臺(tái)采用i7- 8700K處理器,顯卡采用NVIDAIA GeForce 2080Ti,操作系統(tǒng)為Ubuntu 18.04。訓(xùn)練過(guò)程中對(duì)每次輸入的圖片采取隨機(jī)翻轉(zhuǎn)、添加噪聲、調(diào)整飽和度和曝光度方法,一共訓(xùn)練100個(gè)epoch。其中訓(xùn)練過(guò)程中的學(xué)習(xí)率為0.016,采取等間隔調(diào)整學(xué)習(xí)率StepLR,調(diào)整間隔(step_size)為25,動(dòng)量參數(shù)(momentum)為0.832。

        3.2 算法性能對(duì)比實(shí)驗(yàn)

        為驗(yàn)證YOLOv4算法引入注意力后的網(wǎng)絡(luò)性能,本文對(duì)YOLOv2、YOLOv3、YOLOv4和YOLOv4引入注意力機(jī)制在自制安全帽數(shù)據(jù)集上,都采用訓(xùn)練100個(gè)epoch后的訓(xùn)練結(jié)果進(jìn)行對(duì)比分析。其中輸入尺寸都使用尺寸為608×608的圖像,對(duì)比結(jié)果以mAP數(shù)值、計(jì)算量次和每秒識(shí)別幀速率為算法性能指標(biāo),其性能參數(shù)對(duì)比結(jié)果如表1所示。

        表1 網(wǎng)絡(luò)性能對(duì)比表

        由表1可知,雖然YOLOv4算法在引入注意力機(jī)制后算法增加了一定的計(jì)算量,但是檢測(cè)mAP數(shù)值相比較YOLOv2、YOLOv3、YOLOv4分別提升了15.98百分點(diǎn)、8.73百分點(diǎn)、4.06百分點(diǎn)。雖然YOLOv4在增加注意力機(jī)制后的幀速率不及前面三種算法,但是在滿足視頻監(jiān)控實(shí)時(shí)檢測(cè)幀率大于25幀/s的實(shí)際需求下,采用引入注意力機(jī)制適當(dāng)增大一定計(jì)算量,可以提升安全帽佩戴的檢測(cè)效果。

        3.3 損失函數(shù)對(duì)比實(shí)驗(yàn)

        為驗(yàn)證不同損失函數(shù)對(duì)目標(biāo)檢測(cè)算法的影響,本文采用YOLOv4網(wǎng)絡(luò)分別使用IoU、GIoU、DIoU和CIoU四種損失函數(shù)使用自制安全帽數(shù)據(jù)集在100個(gè)epoch后的結(jié)果進(jìn)行對(duì)比分析,其對(duì)比結(jié)果以mAP數(shù)值作為評(píng)價(jià)指標(biāo),對(duì)比結(jié)果如表2所示。其不同邊界損失函數(shù)在50個(gè)epoch后訓(xùn)練過(guò)程結(jié)果如圖6所示。

        表2 不同邊界框回歸損失函數(shù)對(duì)比表

        圖6 不同邊界框回歸損失函數(shù)訓(xùn)練圖

        由表2可知,在使用四種不同的損失函數(shù)時(shí),都能在一定程度上提升YOLOv4的檢測(cè)性能。本文選擇CIoU邊界回歸損失函數(shù),相比較IoU、GIoU和CIoU在性能上分別提升了7.18百分點(diǎn)、4.81百分點(diǎn)、2.12百分點(diǎn)。并且由圖6可知,本文選擇的CIoU邊界框回歸損失函數(shù)在訓(xùn)練時(shí)相比其他損失函數(shù)更容易快速收斂并達(dá)到穩(wěn)定。因此,選擇CIoU作為損失函數(shù)可以在一定程度上提升安全帽佩戴檢測(cè)性能。

        3.4 檢測(cè)效果對(duì)比實(shí)驗(yàn)

        為驗(yàn)證采用多候選框策略對(duì)安全帽檢測(cè)算法的影響,實(shí)驗(yàn)將YOLOv4算法結(jié)合引入注意力機(jī)制,使用CIoU邊界框損失函數(shù),分別對(duì)是否采用多候選框策略進(jìn)行對(duì)比實(shí)驗(yàn)。實(shí)驗(yàn)結(jié)果以mAP數(shù)值為評(píng)價(jià)指標(biāo),檢測(cè)對(duì)比結(jié)果如表3所示,檢測(cè)效果如圖7所示。

        表3 采用MAL策略性能對(duì)比表

        (a) 未引入MAL策略 (b) 引入MAL策略圖7 采用多候選框策略對(duì)比圖

        由表3可知,采用多候選框策略在安全帽佩戴檢測(cè)的mAP數(shù)值上提升了2.85百分點(diǎn)。由圖7可知,在安全帽佩戴檢測(cè)存在目標(biāo)遮擋時(shí),由于YOLOv4采用DIoU-NMS存在過(guò)濾掉有位置信息但目標(biāo)得分置信度不高的候選框,從而導(dǎo)致漏檢現(xiàn)象的出現(xiàn)。綜合考慮,本文采用多候選框?qū)W習(xí)策略既可以提升佩戴安全帽檢測(cè)性能,還能減少漏檢現(xiàn)象的出現(xiàn)。

        3.5 不同網(wǎng)絡(luò)對(duì)比實(shí)驗(yàn)

        本文將優(yōu)化后的檢測(cè)算法與Faster RCNN[20]、SSD和YOLOv3[5]在自制數(shù)據(jù)集上進(jìn)行安全帽佩戴檢測(cè)的對(duì)比實(shí)驗(yàn),以mAP以及每秒識(shí)別幀率作為檢測(cè)評(píng)價(jià)的性能指標(biāo),其對(duì)比結(jié)果如表4所示。

        表4 不同算法的性能對(duì)比表

        由表4可知,本文安全帽佩戴檢測(cè)算法不僅mAP數(shù)值比Faster RCNN和YOLOv3算法分別高11.57百分點(diǎn)和14.7百分點(diǎn),并且檢測(cè)速率上是Faster RCNN的7倍。雖然本文算法的檢測(cè)安全帽佩戴的幀速率相比較SSD算法低,但是檢測(cè)幀率也滿足視頻監(jiān)控檢測(cè)實(shí)時(shí)性要求。通過(guò)不同網(wǎng)絡(luò)的性能對(duì)比,本文算法在準(zhǔn)確率和實(shí)時(shí)性上可以較好地完成安全帽佩戴檢測(cè)的要求。本文優(yōu)化后的安全帽檢測(cè)效果如圖8所示。

        圖8 本文算法檢測(cè)效果

        4 結(jié) 語(yǔ)

        本文提出一種改進(jìn)YOLOv4網(wǎng)絡(luò)和視頻監(jiān)控相結(jié)合檢測(cè)佩戴安全帽的方法。通過(guò)對(duì)自制的安全帽佩戴檢測(cè)數(shù)據(jù)集,采用K-means聚類算法獲取適用于安全帽數(shù)據(jù)集的先驗(yàn)框,在YOLOv4網(wǎng)絡(luò)增加注意力機(jī)制模塊聚焦安全帽特征,接著選用新的邊界框回歸損失函數(shù)CIoU提高檢測(cè)精度,最后使用多候選框?qū)W習(xí)策略減少漏檢概率。本文方法能夠快速、準(zhǔn)確地檢測(cè)是否佩戴安全帽,并可以通過(guò)監(jiān)控視頻手段減少因未佩戴安全帽造成的意外安全事故。

        猜你喜歡
        候選框安全帽注意力
        刺猬戴上安全帽
        礦工有無(wú)數(shù)頂安全帽
        小小安全帽,生命保護(hù)傘
        重定位非極大值抑制算法
        讓注意力“飛”回來(lái)
        面向自然場(chǎng)景文本檢測(cè)的改進(jìn)NMS算法
        基于Soft-NMS的候選框去冗余加速器設(shè)計(jì)*
        一種針對(duì)特定目標(biāo)的提議算法
        “揚(yáng)眼”APP:讓注意力“變現(xiàn)”
        A Beautiful Way Of Looking At Things
        国产免费人成视频在线观看播放| 亚洲熟少妇在线播放999| 初尝黑人巨砲波多野结衣| 日韩在线观看网址| 不卡av一区二区在线| 久久国产人妻一区二区| 丰满熟女人妻中文字幕免费| 亚洲最大无码AV网站观看| 久久精品国产亚洲av夜夜| 亚洲 日本 欧美 中文幕| 爱情岛永久地址www成人| 亚洲欧洲综合有码无码| 国产视频在线观看一区二区三区| 久久久久人妻一区二区三区| 欧美综合自拍亚洲综合图片区| 成人国产精品免费网站| 新久久国产色av免费看| 高h纯肉无码视频在线观看| 狠狠噜天天噜日日噜| 被驯服人妻中文字幕日本| 免费的小黄片在线观看视频| 凹凸在线无码免费视频| 国产亚洲精品成人无码精品网站| 中文字幕日本五十路熟女| 五月色丁香婷婷网蜜臀av| 精品无码国产自产野外拍在线| 官网A级毛片| 日韩精品视频高清在线| 亚洲国产av精品一区二区蜜芽| 国产丝袜在线精品丝袜不卡| 中文字幕色婷婷在线视频| 色天使久久综合网天天| 国精产品一品二品国在线| 亚洲在线一区二区三区四区 | 国产禁区一区二区三区| 人人妻人人澡人人爽久久av| 99riav精品国产| 男女射精视频在线观看网站| 日韩精品区一区二区三vr| 久久精品国产亚洲AV无码不| 手机在线免费观看的av|