亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于YOLOv5s改進的口罩佩戴檢測算法

        2023-07-21 01:15:22葛延良李德鑫王冬梅董太極
        黑龍江大學自然科學學報 2023年3期
        關(guān)鍵詞:機制檢測模型

        葛延良, 李德鑫, 王冬梅, 董太極, 賀 敏

        (1.東北石油大學 電氣信息工程學院, 大慶 163000; 2.中國移動通信集團黑龍江有限公司 大慶分公司, 大慶 163000)

        0 引 言

        根據(jù)世界衛(wèi)生組織的通告,戴口罩是預防新型冠狀病毒等空氣傳播傳染病最有效的措施之一。疫情期間,為了有效減少新型冠狀病毒的傳播,在公共場所或室內(nèi)工作時,應當佩戴口罩。采用人工監(jiān)督和檢測方法不僅耗費人力,還會存在與被檢查人員接觸從而感染病毒的風險。因此,對于企業(yè)和商場等公共場所來說,能夠?qū)崟r的進行口罩佩戴檢測是非常有必要的。

        隨著深度學習技術(shù)的飛速發(fā)展,使得計算機視覺領(lǐng)域取得巨大進展。目標檢測屬于計算機視覺中非常重要的研究方向,目前主要有基于雙階段的目標檢測算法和基于單階段的目標檢測算法兩類。其中,基于雙階段的目標檢測算法的典型代表主要有區(qū)域卷積神經(jīng)網(wǎng)絡(Region-convolutional neural network, R-CNN)[1]、快速的區(qū)域卷積神經(jīng)網(wǎng)絡(Fast Region-convolutional neural network, Fast R-CNN)[2]、更快的區(qū)域卷積神經(jīng)網(wǎng)絡(Faster Region-convolutional neural network, Faster R-CNN)[3]、基于掩碼分割的區(qū)域卷積神經(jīng)網(wǎng)絡(Mask Region-convolutional neural network, Mask R-CNN)[4]、特征金字塔網(wǎng)絡(Feature pyramid network, FPN)[5]等,此類算法對目標進行檢測時分為兩個步驟:首先生成一系列候選框,再用卷積神經(jīng)網(wǎng)絡進行分類和邊框回歸?;趩坞A段的目標檢測算法把生成候選框和分類回歸這兩個步驟合并在一個網(wǎng)絡中進行,常見的基于單階段目標檢測算法有OverFeat[6]、單階段多錨框目標檢測器(Single shot multibox detector, SSMD)[7]、你只需看一次(You only look once, YOLO)[8-11]系列等??紤]到在實際監(jiān)控任務中需要達到實時檢測的目的,而單階段的目標檢測算法在檢測速度上可以達到實時的效果。

        近年來,為了解決口罩佩戴檢測的精度與速度問題,許多學者都已經(jīng)將YOLO系列目標檢測算法應用到了口罩佩戴檢測應用中。張烈平等使用MobileNetV2作為特征提取網(wǎng)絡與YOLOv2相結(jié)合構(gòu)成口罩佩戴檢測網(wǎng)絡模型,使其均值平均精度(mean average precision,mAP)達到91.3%[12]。張鑫等將在特征提取網(wǎng)絡中引入空間金字塔池化,并結(jié)合GIoU損失函數(shù),在其使用的數(shù)據(jù)集上對比原始YOLOv3將mAP提高到90.1%[13]。王藝皓等提出在YOLOv3算法中引入改進的空間金字塔池化結(jié)構(gòu),從而實現(xiàn)特征增強,在其使用的數(shù)據(jù)集上mAP達到90.2%[14]。談世磊等基于YOLOv5網(wǎng)絡模型,在原數(shù)據(jù)集基礎(chǔ)上進行擴充,采用翻轉(zhuǎn)和旋轉(zhuǎn)兩種方式得到30 000張圖片來用于訓練,使mAP達到92.4%[15]。Yang等采用將GIoU與Center Loss相結(jié)合的方式來提升口罩識別精度,在其數(shù)據(jù)集上mAP達到97.9%[16]。Popescu等通過將YOLOv5與ResNet相結(jié)合,使得在其數(shù)據(jù)集上mAP達到87%[17-18]。因此,本文選擇YOLOv5s算法為基礎(chǔ)進行口罩佩戴檢測。

        為了解決錯檢和漏檢等問題,Hou等提出協(xié)調(diào)注意力機制(Coordinate attention, CA)模塊來提高檢測性能[19]。本文通過在YOLOv5s網(wǎng)絡模型中融入改進的CA注意力機制模塊CA-A來增強網(wǎng)絡的特征提取能力,并引入改進的CIoU損失函數(shù)AD-CIoU來提高邊界框的定位準確度。實驗表明所提出的口罩佩戴檢測算法精度相較于YOLOv5s有所提升。

        1 口罩佩戴檢測模型設(shè)計

        1.1 改進的YOLOv5s模型設(shè)計

        YOLOv5s的網(wǎng)絡結(jié)構(gòu)由四部分組成,分別為輸入端、主干網(wǎng)絡Backbone、Neck和輸出端,其網(wǎng)絡結(jié)構(gòu)如圖1所示。YOLOv5s所使用的主干特征提取網(wǎng)絡為跨階段局部網(wǎng)絡(Cross stage partial dark network, CSPDarknet),其中包含了CBS模塊、C3模塊[20]和空間金字塔池化模塊(Spatial pyramid pooling, SPP)[21]。CBS模塊可以在圖像進行下采樣,其中第一個CBS模塊的卷積核尺寸為6×6用于替換Focus結(jié)構(gòu),以達到提高運算速度、減少內(nèi)存開銷的目的。C3模塊主要功能為圖像特征的提取,SPP模塊主要解決了卷積神經(jīng)網(wǎng)絡對圖像進行重復特征提取的問題,既提高了產(chǎn)生候選框的速度又節(jié)約了計算成本。但是小目標特征信息在C3模塊多次作用下,容易造成丟失現(xiàn)象,從而引起錯檢與漏檢問題。為了提高檢測的精確度,在C3模塊后引入改進的CA-A注意力機制模塊來增強網(wǎng)絡特征提取能力,達到提升檢測精度的目的。改進后的Backbone 如圖2所示。

        圖1 YOLOv5s網(wǎng)絡

        圖2 改進的主干網(wǎng)絡

        1.2 注意力機制的創(chuàng)新

        CA注意力機制模塊使用的是Sigmoid歸一化,但是Sigmoid函數(shù)會存在梯度飽和現(xiàn)象,即在當X>>0或X<<0時,梯度接近于0,導致訓練緩慢和梯度消失。因此,提出了一個改進注意力機制模塊CA-A,將ACON激活函數(shù)與CA注意力機制模塊相融合的方法。與通過二維全局池化將特征張量轉(zhuǎn)換為單個特征向量的通道注意力不同,CA-A注意力模塊可以看作一個計算單元,其目的是增強網(wǎng)絡模型的特征表達能力。CA-A注意力機制通過坐標信息嵌入和坐標注意力生成兩個步驟來進行編碼,這種編碼過程可以提升坐標注意力的準確度,從而幫助模型更好識別特征信息。ACON激活函數(shù)可以學習并決定是否要激活神經(jīng)元,從而提高檢測精度。CA-A注意力機制模塊的水平與垂直的特征信息由XAvg Pool和YAvg Pool沿著x與y軸做平均池化提取,隨后進行特征信息的聚合并使用 ACON 激活函數(shù)進行歸一化,具體如圖3所示。

        圖3 CA-A注意力機制模塊

        1.3 損失函數(shù)的改進

        原YOLOv5s網(wǎng)絡模型中采用了CIoU作為Bounding Box的損失函數(shù),其公式定義為:

        (1)

        由于CIoU采用的是預測框與真實框的寬和高的比值,所以會存在一定的模糊性,即一旦收斂到預測框與真實框的寬和高的比值呈線性比例狀態(tài)時,會導致預測框回歸時寬和高不可以同時增加或減少。為解決上述問題,提出了AD-CIoU,將CIoU結(jié)合角度損失與距離損失來提升邊界框定位的精確度。角度損失公式定義為:

        (2)

        (3)

        (4)

        (5)

        距離損失的定義和具體參數(shù)公式為:

        (6)

        (7)

        (8)

        γ=2-Λ

        (9)

        改進后的YOLOv5s網(wǎng)絡模型的回歸損失函數(shù)AD-CIoU公式為:

        (10)

        2 實驗過程及結(jié)果分析

        2.1 模型訓練

        采用Kaggle的Face mask detection數(shù)據(jù)集進行訓練,此數(shù)據(jù)集一共5 049張圖片,其中訓練集含有3 390張圖片,驗證集與測試集分別為699張和960張圖片。

        具體的測試環(huán)境:CPU采用12核 Intel(R) Xeon(R) Silver 4110 CPU @ 2.10GHz,GPU為Nvidia GeForce RTX 2080ti。深度學習框架為PyTorch1.8.1,編譯語言Python3.8,Cuda版本為11.1。

        在目標檢測領(lǐng)域,性能評價指標常用精準率P(Precision)、召回率R(Recall)和均值平均精度mAP(mean average precision)來進行衡量檢測效果。其具體計算公式為:

        (11)

        (12)

        (13)

        采用官方預訓練權(quán)重,輸入圖像的尺寸大小為640×640,訓練的批量大小Batchsize為16,迭代次數(shù)Epoch為300次。

        2.2 實驗結(jié)果

        原YOLOv5s與改進的YOLOv5s的mAP數(shù)據(jù)對比如圖4所示。圖中YOLOv5s的map@0.5達到了0.944,改進后的YOLOv5s的map@0.5達到了0.961,提升了1.7%。

        圖4 數(shù)據(jù)對比圖

        2.3 YOLOv5s消融實驗

        為驗證本研究提出的改進方案,在相同的實驗環(huán)境與數(shù)據(jù)集下,進行消融實驗。實驗結(jié)果如表1所示??梢钥闯?在引入CA注意力機制時,檢測均值平均精度mAP達到了0.957。CA注意力融合AD-CIoU損失函數(shù)時,召回率Recall提升到0.929。僅使用CA-A注意力機制時,mAP提升到了0.959。CA-A結(jié)合AD-CIoU損失函數(shù)在精度Precision和均值平均精度mAP上均有提升,可見改進的方案相比原YOLOv5s有明顯優(yōu)勢。

        表1 YOLOv5s消融實驗

        2.4 對比實驗

        為了驗證本研究提出的改進算法具有更好的檢測效果,選擇YOLOv3-tiny、YOLOv4-tiny、YOLOv5s以及YOLOv5s結(jié)合SENet和CBAM注意力機制在相同配置下進行對比實驗,結(jié)果如表2所示。

        表2 不同網(wǎng)絡對比數(shù)據(jù)

        為了展示改進的YOLOv5s網(wǎng)絡模型的檢測效果,從測試集中隨機選取圖片進行測試,原YOLOv5s網(wǎng)絡模型與改進后的YOLOv5s網(wǎng)絡模型的對比數(shù)據(jù)如圖5和圖6所示。原始YOLOv5s在圖中的平均檢測精度達到了0.85和0.83,改進的YOLOv5s在圖中的平均檢測精度可以達到0.95和0.91,可見在多人密集的情況下,改進后的YOLOv5s網(wǎng)絡模型具有更高的檢測精度。

        圖5 YOLOv5s檢測效果

        圖6 改進的YOLOv5s檢測效果

        3 結(jié) 論

        為了提升口罩佩戴檢測的精度,提出了一種基于YOLOv5s改進的口罩佩戴檢測算法。原CA注意力機制模塊使用Sigmoid歸一化會存在梯度消失和訓練緩慢等問題,所以將ACON激活函數(shù)融合CA注意力機制模塊構(gòu)成新的CA-A注意力機制模塊,并結(jié)合在原始YOLOv5s的主干網(wǎng)絡部分,通過坐標信息嵌入和坐標注意力生成兩個步驟來提升坐標注意力的準確度,從而達到增強網(wǎng)絡的特征提取能力;CIoU損失函數(shù)一旦收斂到預測框與真實框的寬和高的比值呈線性比例狀態(tài)時,會導致預測框回歸時寬和高不可以同時增加或減少,為了改善其定位的模糊性,將CIoU通過結(jié)合角度損失和距離損失來構(gòu)建新的AD-CIoU損失函數(shù),以達到提升回歸精度的目的。經(jīng)過實驗結(jié)果證明,改進后的算法相比原始YOLOv5s網(wǎng)絡模型mAP提升了1.7%,達到了96.1%,同時與其他算法對比明顯具有更高的精確度。

        猜你喜歡
        機制檢測模型
        一半模型
        “不等式”檢測題
        “一元一次不等式”檢測題
        “一元一次不等式組”檢測題
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權(quán)M-估計的漸近分布
        自制力是一種很好的篩選機制
        文苑(2018年21期)2018-11-09 01:23:06
        3D打印中的模型分割與打包
        小波變換在PCB缺陷檢測中的應用
        破除舊機制要分步推進
        最新露脸自拍视频在线观看| 亚洲线精品一区二区三区八戒| 日韩毛片久久91| 色婷婷久久综合中文久久一本| 99久久99久久精品国产片| 日产无人区一线二线三线乱码蘑菇| 三上悠亚精品一区二区久久| 台湾佬中文偷拍亚洲综合| 人妻有码av中文幕久久| 无码人妻丰满熟妇区bbbbxxxx| 日本丰满人妻xxxxxhd| 高清国产美女一级a毛片在线| 国产精品自拍视频免费看| 欧美xxxxx高潮喷水麻豆| 94久久国产乱子伦精品免费| 久久青青草原亚洲AV无码麻豆| av网站在线观看二区| 久久亚洲道色综合久久| 九九精品国产亚洲av日韩| 久久99久久久无码国产精品色戒| 国产av精品久久一区二区| 日本道色综合久久影院| 少妇无码一区二区三区免费| 中文字幕巨乱亚洲| 久久久精品少妇—二区| 国产成人综合美国十次| 最近免费中文字幕| 久久亚洲精品成人综合| 亚洲女同同性一区二区| 亚洲精品无码国产| 国产精品青草视频免费播放| 国产91大片在线观看| 精品无码国产自产在线观看水浒传 | 久久精品国产亚洲av麻豆图片| 亚洲碰碰人人av熟女天堂| 超高清丝袜美腿视频在线| 丰满的少妇av一区二区三区| 又大又粗又爽18禁免费看| 亚洲AV一二三四区四色婷婷| 青青视频在线播放免费的| 国产太嫩了在线观看|