亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于YOLOv4-tiny改進(jìn)的輕量級口罩檢測算法

        2021-11-12 00:47:16王建立
        液晶與顯示 2021年11期
        關(guān)鍵詞:口罩卷積精度

        朱 杰,王建立,王 斌

        (1. 中國科學(xué)院 長春光學(xué)精密機(jī)械與物理研究所,吉林 長春 130033;2. 中國科學(xué)院大學(xué),北京 100049)

        1 引 言

        新冠病毒席卷全球的當(dāng)下,在機(jī)場、車站等公共場所佩戴口罩可以有效降低病毒的傳播概率,防止疫情的擴(kuò)散。目前國內(nèi)外的公共場所對人流的口罩佩戴情況的監(jiān)測手段主要以人工監(jiān)督為主,廣播呼吁為輔,這種手段效率低下的同時(shí)也浪費(fèi)了大量公共資源。而近幾年人工智能技術(shù)日新月異,尤其是目標(biāo)檢測領(lǐng)域大量優(yōu)秀算法的涌現(xiàn),例如YOLO[1-5]系列為代表的單階段算法以及RCNN[6-8]系列為代表的兩階段算法,讓我們可以通過計(jì)算機(jī)搭配監(jiān)控?cái)z像頭就能實(shí)現(xiàn)人流口罩佩戴情況的自動化監(jiān)測。

        目前,專門應(yīng)用于口罩檢測的數(shù)據(jù)集和算法都相對較少。Cabani等人[9]提出了一個(gè)包含13萬張圖像的大規(guī)模口罩檢測數(shù)據(jù)集,但是該數(shù)據(jù)集的圖像目標(biāo)和人物背景都相對單一,對現(xiàn)實(shí)場景的覆蓋面嚴(yán)重不足。Wang等人[10]提出了一個(gè)口罩人臉數(shù)據(jù)集 (Real-World Masked Face Dataset,RMFD),不過該數(shù)據(jù)集的場景覆蓋面依舊不充分,更重要的是公開的數(shù)據(jù)標(biāo)注并不完善,難以直接應(yīng)用于口罩檢測任務(wù)。牛作東等人[11]在人臉檢測算法RetinaFace中引入注意力進(jìn)行機(jī)制優(yōu)化,然后應(yīng)用于口罩檢測任務(wù),取得了不錯(cuò)的平均精度均值 (mean Average Precision,mAP),但是算法的每秒傳輸幀數(shù) (Frames Per Second,F(xiàn)PS)相對較低,很難滿足口罩檢測任務(wù)的實(shí)時(shí)性要求。王藝皓等人[12]在YOLOv3[3]算法中引入空間金字塔結(jié)構(gòu)改進(jìn)后用于口罩檢測任務(wù),實(shí)現(xiàn)了mAP和FPS指標(biāo)的小幅提升,不過算法數(shù)據(jù)集的背景相對單一,難以擴(kuò)展到復(fù)雜的多場景口罩檢測任務(wù)中去,而且實(shí)時(shí)檢測速度依舊不理想。

        YOLOv4-tiny由Wang等人于2020年6月發(fā)布,在COCO[13]數(shù)據(jù)集上以443 FPS(on GeForce RTX 2080Ti)的實(shí)時(shí)檢測速度實(shí)現(xiàn)了42.0%的檢測精度[5]。本文對YOLOv4-tiny進(jìn)行改進(jìn)和優(yōu)化,以應(yīng)用于復(fù)雜場景下的口罩檢測任務(wù)。保持YOLOv4-tiny的骨干網(wǎng)絡(luò)不變,在其后引入空間金字塔池化[14](Spatial Pyramid Pooling,SPP)模塊,對輸入特征層進(jìn)行多尺度池化并融合,同時(shí)大幅增強(qiáng)網(wǎng)絡(luò)的感受野。利用路徑聚合網(wǎng)絡(luò)[15](Path Aggregation Network,PAN)取代YOLOv4-tiny的特征金字塔網(wǎng)絡(luò)[16](Feature Pyramid Networks,F(xiàn)PN),分兩條路徑將輸入特征層上采樣和下采樣而來的信息相互融合,以增強(qiáng)特征層對目標(biāo)的表達(dá)能力。使用標(biāo)簽平滑[17](Label smoothing)策略優(yōu)化了網(wǎng)絡(luò)損失函數(shù),結(jié)合Mosaic數(shù)據(jù)增強(qiáng)[4]和學(xué)習(xí)率余弦衰退思路,提高了模型的訓(xùn)練效率。實(shí)驗(yàn)結(jié)果表明,本文算法在普通性能的硬件(GeForce GTX 1050Ti)上達(dá)到了76.8 FPS的實(shí)時(shí)檢測速度,在口罩目標(biāo)和人臉目標(biāo)上的檢測精度分別達(dá)到了94.7%和85.7%,相比YOLOv4-tiny分別提高了4.3%和7.1%,滿足了多種復(fù)雜場景下口罩檢測任務(wù)的檢測精度與實(shí)時(shí)性要求。

        2 YOLOv4-tiny算法原理

        YOLOv4-tiny[5]由YOLOv4[4]進(jìn)行尺度縮放而來。相比于YOLOv4,YOLOv4-tiny犧牲了一定的檢測精度,但是它的參數(shù)量不到前者的10%,推理速度則是前者的6~8倍。

        2.1 YOLOv4-tiny的骨干網(wǎng)絡(luò)

        圖1 YOLOv4-tiny網(wǎng)絡(luò)結(jié)構(gòu)Fig.1 YOLOv4-tiny network structure

        圖2 Resblock_body結(jié)構(gòu)Fig.2 Resblock_body structure

        如圖1所示,骨干網(wǎng)絡(luò)CSPDarknet53-tiny主要由DarknetConv2D_BN_Leaky模塊和Resblock_body模塊堆疊而成。DarknetConv2D_BN_Leaky模塊結(jié)合了二維卷積層、歸一化處理層和激活函數(shù)Leaky ReLU。Resblock_body模塊引入了如圖2所示的CSPNet結(jié)構(gòu)[18]:模塊主干部分依舊是殘差塊的常規(guī)堆疊,但在分支部分引入了一條大跨度的殘差邊,該殘差邊經(jīng)少量卷積處理之后直接連接到模塊的最后,與主干部分的輸出在通道維度進(jìn)行堆疊,最后經(jīng)2×2的最大池化層處理得到模塊的輸出。CSPNet結(jié)構(gòu)在減少10%~30%的網(wǎng)絡(luò)參數(shù)量的同時(shí),能夠保證模型準(zhǔn)確率基本不變或者稍有提高。圖2中的Feat1和Feat2為Resblock_body模塊輸出的初始特征層。骨干網(wǎng)絡(luò)CSPDarknet53-tiny中的前兩個(gè)Resblock_body模塊輸出的初始特征層Feat1會被直接丟棄,F(xiàn)eat2則作為后一個(gè)Resblock_body模塊的輸入。對于第三個(gè)Resblock_body模塊的輸出Feat1和Feat2:Feat1直接作為特征增強(qiáng)網(wǎng)絡(luò)FPN的第一個(gè)輸入,F(xiàn)eat2經(jīng)DarknetConv2D_BN_Leaky模塊處理后作為FPN的第二個(gè)輸入。第三個(gè)Resblock_body模塊的輸出Feat1和Feat2的尺寸分別是(256,38,38)和(512,19,19),其中,第一維的256或512代表的是特征層的通道數(shù),后面兩個(gè)維度38×38或19×19代表的是特征層的高和寬。

        2.2 YOLOv4-tiny的特征增強(qiáng)網(wǎng)絡(luò)

        如圖1所示,YOLOv4-tiny使用FPN作為特征增強(qiáng)網(wǎng)絡(luò)。FPN的兩個(gè)輸入Feat1和Feat2的尺寸分別為(256,38,38)和(512,19,19)。FPN分兩個(gè)步驟構(gòu)建特征金字塔:

        1. Feat2經(jīng)1×1卷積(Conv)處理之后得到FPN的第一個(gè)輸出P1(256,19,19);

        2. P1再經(jīng)1×1的卷積處理和上采樣處理之后與Feat1在通道維度進(jìn)行堆疊,得到FPN的第二個(gè)輸出P2(384,38,38)。

        最后,F(xiàn)PN模塊的兩個(gè)輸出P1和P2再經(jīng)少量卷積處理即可得到用于邊界框預(yù)測的兩個(gè)預(yù)測特征層Yolo Head1(21,38,38)和Yolo Head2(21,19,19)。YOLOv4-tiny的FPN模塊構(gòu)造非常簡單,甚至過于簡單,特征層的融合僅僅體現(xiàn)在單一的上采樣之后的特征層堆疊,這為YOLOv4-tiny帶來了非常優(yōu)秀的實(shí)時(shí)檢測速度(COCO:443 FPS on RTX 2080Ti),但也為YOLOv4-tiny帶來了網(wǎng)絡(luò)整體感受野過弱、特征融合不充分以及對骨干網(wǎng)絡(luò)提取到的特征信息利用率過低等缺點(diǎn),使其難以適應(yīng)復(fù)雜場景下包含小目標(biāo)或者遮擋目標(biāo)的檢測任務(wù)。

        3 改進(jìn)的YOLOv4-tiny算法

        本文對YOLOv4-tiny進(jìn)行了一系列改進(jìn):在骨干網(wǎng)絡(luò)之后引入了SPP模塊,利用PAN結(jié)構(gòu)代替FPN作為特征增強(qiáng)網(wǎng)絡(luò),使用標(biāo)簽平滑策略對網(wǎng)絡(luò)損失函數(shù)進(jìn)行了優(yōu)化,并結(jié)合Mosaic數(shù)據(jù)增強(qiáng)和學(xué)習(xí)率余弦衰退策略進(jìn)行模型訓(xùn)練。

        3.1 空間金字塔池化

        一般來說,可以使用剪裁或扭曲等方法改變輸入圖像的尺寸以滿足卷積神經(jīng)網(wǎng)絡(luò)中分類器層(全連接層)的固定尺寸輸入要求,但是這也會帶來剪裁區(qū)域未覆蓋完整目標(biāo)或者圖像畸變等問題。為了應(yīng)對上述問題,He等人[14]提出了空間金字塔池化(SPP)網(wǎng)絡(luò),可以對多尺度提取的特征層進(jìn)行池化和融合,并得到固定尺寸的輸出。本文在YOLOv4-tiny的骨干網(wǎng)絡(luò)之后引入SPP模塊以實(shí)現(xiàn)從細(xì)粒度到粗粒度的多尺度特征融合,增強(qiáng)特征層對目標(biāo)的表達(dá)能力。本文改進(jìn)后的算法網(wǎng)絡(luò)結(jié)構(gòu)如圖3所示,可以看到,骨干網(wǎng)絡(luò)CSPDarknet53-tiny的第二個(gè)輸出特征層會先經(jīng)SPP模塊處理后再輸入改進(jìn)的特征增強(qiáng)網(wǎng)絡(luò)PAN。

        如圖3所示,SPP模塊處理步驟為:首先,輸入特征層經(jīng)過3次卷積處理(卷積核大小分別為1×1、3×3和1×1)后通道數(shù)由512降至256;然后,使用3個(gè)池化層(核大小分別為3×3、7×7和11×11)進(jìn)行最大池化處理,每個(gè)池化層的輸出通道數(shù)均為256;再將上一步的輸入與3個(gè)池化層處理后的輸出在通道維度進(jìn)行堆疊,通道數(shù)變?yōu)? 024;最后,經(jīng)過又一次3次卷積處理,SPP模塊輸出的通道數(shù)由1 024恢復(fù)至256。SPP模塊在對輸入特征層進(jìn)行多尺度池化并融合的同時(shí),也大幅增強(qiáng)了網(wǎng)絡(luò)的感受野,對輸入特征層的信息提取更為充分。

        圖3 改進(jìn)的YOLOv4-tiny網(wǎng)絡(luò)結(jié)構(gòu)Fig.3 Improved YOLOv4-tiny network structure

        3.2 特征增強(qiáng)網(wǎng)絡(luò)PAN

        如圖1所示,CSPDarknet53-tiny的兩個(gè)輸出特征層在轉(zhuǎn)化為預(yù)測特征層YOLO Head之前,會先經(jīng)過FPN結(jié)構(gòu)進(jìn)行特征信息的融合。FPN結(jié)構(gòu)對語義信息更豐富的高層次特征層進(jìn)行上采樣之后,與細(xì)節(jié)信息更為豐富的低層次特征層在通道維度進(jìn)行堆疊,以達(dá)成特征融合的目的。但是YOLOv4-tiny的FPN結(jié)構(gòu)過于“簡陋”,導(dǎo)致網(wǎng)絡(luò)整體感受野過弱,對細(xì)節(jié)信息的利用率過低,在面對復(fù)雜場景下的小目標(biāo)或遮擋目標(biāo)時(shí)的表現(xiàn)并不理想。

        為了應(yīng)對上述問題,本文算法使用路徑聚合網(wǎng)絡(luò)(PAN)作為特征增強(qiáng)網(wǎng)絡(luò)。如圖3所示,相比FPN,PAN的特征反復(fù)提取、相互融合的策略更加復(fù)雜,包含了自下而上和自上而下兩條特征融合的路徑??梢钥吹?,PAN一樣有兩個(gè)輸入特征層,F(xiàn)1來自骨干網(wǎng)絡(luò)CSPDarknet53-tiny的第三個(gè)Resblock_body模塊,F(xiàn)2則來自SPP模塊。在自下而上的融合路徑里,輸入F2經(jīng)1*1的卷積處理和上采樣處理之后,與同樣經(jīng)過卷積處理的輸入F1在通道維度進(jìn)行堆疊,特征層的通道數(shù)由128上升至256;該特征層經(jīng)過3次卷積處理(卷積核大小分別為1×1、3×3和1×1)之后,得到PAN的第一個(gè)輸出。類似地,在自上而下的路徑里,第一條路徑的輸出在經(jīng)過下采樣完成高和寬的壓縮之后與輸入F2在通道維度進(jìn)行堆疊,再經(jīng)過3次卷積處理之后得到PAN的第二個(gè)輸出。預(yù)測特征層YOLO Head由一個(gè)卷積核大小為3×3的DarknetConv2D_BN_Leaky模塊和一個(gè)卷積核大小為1×1的普通二維卷積層相連而成,其輸出數(shù)據(jù)主要用于先驗(yàn)框的參數(shù)調(diào)整。PAN的特征融合策略里,來自不同尺度的特征相互融合、反復(fù)增強(qiáng),充分利用骨干網(wǎng)絡(luò)提取到的細(xì)節(jié)信息,大幅提升了預(yù)測特征層對目標(biāo)的表達(dá)能力。

        3.3 算法的損失函數(shù)

        目標(biāo)檢測的損失函數(shù)一般包括3個(gè)部分,邊界框定位損失Lloc、預(yù)測類別損失Lcls和置信度損失Lconf。整體的網(wǎng)絡(luò)損失L的計(jì)算公式如下:

        L=Lloc+Lcls+Lconf,

        (1)

        邊界框定位損失Lloc用于衡量預(yù)測框與真實(shí)框的位置(包括高、寬和中心坐標(biāo)等)誤差,交并比(Intersection over Union,IoU)是目前最常用的評估指標(biāo),計(jì)算公式如下:

        (2)

        其中,B=(x,y,w,h)表示預(yù)測框的位置,Bgt=(xgt,ygt,wgt,hgt)表示真實(shí)框的位置。但是IoU損失僅在兩邊界框之間有重疊部分時(shí)生效,而對于非重疊的情形,IoU損失不會提供任何可供傳遞的梯度。Zheng等人[19]提出了Complete IoU(CIoU)損失函數(shù),綜合考慮邊界框之間的重疊面積、中心點(diǎn)距離以及長寬比等幾何因素,使邊界框的回歸相比IoU更加穩(wěn)定。本文算法將CIoU引入邊框回歸的損失函數(shù)Lloc,計(jì)算公式如下:

        (3)

        其中,ρ2(B,Bgt)表示預(yù)測框和真實(shí)框的中心點(diǎn)之間的歐氏距離,d表示包含預(yù)測框和真實(shí)框的最小閉包區(qū)域的對角線距離,α是權(quán)重參數(shù),v是衡量長寬比一致性的參數(shù),α和v的計(jì)算公式如下:

        (4)

        (5)

        則邊界框定位損失函數(shù)Lloc為:

        (6)

        預(yù)測類別損失Lcls用于衡量預(yù)測框與真實(shí)框的類別誤差,采用交叉熵?fù)p失函數(shù)進(jìn)行衡量:

        (7)

        (8)

        其中,δ為標(biāo)簽平滑超參數(shù),取0.05。

        置信度損失Lconf同樣采用交叉熵?fù)p失函數(shù)進(jìn)行衡量,計(jì)算公式如下:

        (9)

        4 實(shí)驗(yàn)結(jié)果與分析

        4.1 數(shù)據(jù)集

        目前專門應(yīng)用于口罩檢測的公開數(shù)據(jù)集相對較少。本文從CMFD[9]和RMFD[10]中分別選取了3 800和4 200張圖像,并結(jié)合互聯(lián)網(wǎng)圖像爬取,建立了包含13 324張多場景圖像及標(biāo)注的口罩檢測數(shù)據(jù)集??紤]到口罩目標(biāo)的特殊性,數(shù)據(jù)集中還特意加入了約250張佩戴面巾、頭巾等遮擋物或者手部捂臉的圖像,以增強(qiáng)模型的泛化能力與實(shí)用性。模型訓(xùn)練之前,隨機(jī)選取20%的數(shù)據(jù)(2 665張圖像)作為測試集;訓(xùn)練過程中,以9∶1的比例劃分訓(xùn)練集與驗(yàn)證集,并采用隨機(jī)的剪裁、圖像翻轉(zhuǎn)、色域變換和Mosaic等數(shù)據(jù)增強(qiáng)方式增加訓(xùn)練樣本的多樣性,提高模型的魯棒性。如圖4(d)所示,Mosaic拼接方式隨機(jī)選取4張圖片進(jìn)行拼接,然后輸入網(wǎng)絡(luò)進(jìn)行訓(xùn)練,可以有效豐富檢測目標(biāo)的背景。

        4.2 評價(jià)指標(biāo)

        本文采用平均精度均值(mAP)和每秒傳輸幀數(shù)(FPS)分別作為算法檢測精度和檢測速度的評價(jià)指標(biāo)。

        在口罩檢測任務(wù)中,mAP即為口罩目標(biāo)和人臉目標(biāo)的平均精度(AP)的均值,如式(10)所示:

        (10)

        其中,N為類別數(shù),i表示某一類別。某一類別i的AP計(jì)算公式如下:

        (11)

        其中,P(R)是精確率(Precision,P)與召回率(Recall,R)之間的映射關(guān)系,常用P-R曲線表示,曲線下方的區(qū)域面積即為該類別AP值。精確率和召回率的計(jì)算方式如下:

        (12)

        (13)

        其中,TP表示檢測類別與真實(shí)標(biāo)簽均為i的樣本數(shù)量,F(xiàn)P表示檢測類別為i與真實(shí)標(biāo)簽不為i的樣本數(shù)量,F(xiàn)N表示檢測類別不為i但真實(shí)標(biāo)簽為i的樣本數(shù)量。

        圖4 數(shù)據(jù)增強(qiáng)示例Fig.4 Examples of data augmentation

        FPS指的是網(wǎng)絡(luò)模型每秒能夠檢測的圖像幀數(shù),常用于衡量模型的推理速度。FPS的計(jì)算過程主要考慮了模型前向計(jì)算、閾值篩選和非極大值抑制幾個(gè)步驟。

        4.3 實(shí)驗(yàn)設(shè)置

        本文算法在基于Python 3.7的Ubuntu 18.04環(huán)境下使用PyTorch1.7.0框架實(shí)現(xiàn),在桌面工作站(AMD Ryzen 3600x CPU @ 3.60 GHz,GeForce RTX 2080Ti)上進(jìn)行訓(xùn)練,并在個(gè)人電腦(Intel Core i5-8300H CPU @ 2.30 GHz,GeForce GTX 1050Ti)上進(jìn)行測試。訓(xùn)練時(shí),使用COCO數(shù)據(jù)集上預(yù)訓(xùn)練的YOLOv4-tiny模型對骨干網(wǎng)絡(luò)的參數(shù)進(jìn)行初始化,以獲得更好的模型初始性能。網(wǎng)絡(luò)輸入尺寸為608×608,優(yōu)化器選擇Adam,訓(xùn)練過程分兩個(gè)階段:第一階段凍結(jié)骨干網(wǎng)絡(luò),訓(xùn)練剩余網(wǎng)絡(luò)參數(shù),初始學(xué)習(xí)率為1e-3,批量大小為128,學(xué)習(xí)率調(diào)整策略為余弦衰退策略CosineAnnealingLR(T_max=5, eta_min=1e-5),其中T_max表示余弦函數(shù)的周期,eta_min表示學(xué)習(xí)率的最小值,訓(xùn)練50輪次;第二階段解凍骨干網(wǎng)絡(luò),訓(xùn)練所有網(wǎng)絡(luò)參數(shù),初始學(xué)習(xí)率為1e-4,批量大小為32,學(xué)習(xí)率調(diào)整策略與第一階段一致,訓(xùn)練100輪次。

        4.4 結(jié)果分析

        本文算法和YOLOv4-tiny(在相同環(huán)境下以相同方式訓(xùn)練)對口罩目標(biāo)和人臉目標(biāo)檢測結(jié)果的P-R曲線如圖5所示??梢钥吹剑还苁菍谡帜繕?biāo)還是人臉目標(biāo),本文算法的檢測性能均優(yōu)于YOLOv4-tiny(P-R曲線越靠右,代表檢測效果越好)。

        圖6則列出了YOLOv4-tiny和本文算法的檢測結(jié)果對比,可以看到,YOLOv4-tiny對于小目標(biāo)或者遮擋目標(biāo)存在一定的漏檢或錯(cuò)檢情況,尤其是對遮擋目標(biāo),YOLOv4-tiny的適應(yīng)性明顯較弱,而本文算法不管是檢測準(zhǔn)確率還是檢測結(jié)果的置信度都明顯高于YOLOv4-tiny。

        (a) 口罩檢測P-R曲線(a) P-R curves of mask detection

        (b) 人臉檢測P-R曲線(b) P-R curves of face detection圖5 YOLOv4-tiny和本文算法的P-R曲線對比Fig.5 Comparison of P-R curves between YOLOv4-tiny and the proposed algorithm

        (a) YOLOv4-tiny 算法1(a) YOLOv4-tiny algorithm 1

        (b) 本文算法1(b) Proposed algorithm in this paper 1

        (c) YOLOv4-tiny算法2(c) YOLOv4-tiny algorithm 2

        (d) 本文算法2(d) Proposed algorithm in this paper 2

        (e) 本文算法3(e) YOLOv4-tiny algorithm 3

        (f) 本文算法3(f) Proposed algorithm in this paper 3

        表1列出了本文算法和包括YOLOv4-tiny在內(nèi)的其他幾種主流目標(biāo)檢測算法的mAP和FPS指標(biāo)對比。對于口罩目標(biāo)和人臉目標(biāo),本文算法的檢測AP值分別達(dá)到了94.7%和85.7%,相比YOLOv4-tiny分別提高了4.3%和7.1%,具備更高的檢測精度。在檢測速度上,由于本文算法引入了SPP模塊并且使用了更復(fù)雜的特征融合策略PAN,增加了網(wǎng)絡(luò)的參數(shù)量,所以檢測速度略低于YOLOv4-tiny,不過仍然取得了76.8 FPS的實(shí)時(shí)檢測速度(on GeForce GTX 1050Ti)。相比YOLOv3-tiny,本文算法的mAP則有著11.5%的大幅提升,不管是口罩目標(biāo)還是人臉目標(biāo),本文算法的檢測性能都明顯更優(yōu)。至于其他非輕量級的單階段目標(biāo)檢測算法,例如YOLOv3、YOLOv4和SSD[20],YOLOv3和YOLOv4的檢測精度與本文算法相當(dāng)或稍有提升,SSD(輸入尺寸為512×512)的檢測精度低于本文算法,不過三者的檢測速度均低于18 FPS,不到本文算法的25%,難以滿足口罩檢測任務(wù)的實(shí)時(shí)性要求。而兩階段目標(biāo)檢測算法的檢測速度則更低:FasterR-CNN[8](以VGG16[21]為骨干網(wǎng)絡(luò))的檢測速度不到5 FPS,檢測精度也低于本文算法4.7%。綜上所述,本文算法以76.8 FPS的實(shí)時(shí)檢測速度取得了90.2%的平均檢測精度,很好地滿足了口罩檢測任務(wù)的精度與實(shí)時(shí)性要求。

        表1 不同檢測算法性能比較Tab.1 Performance comparison of different detection algorithms

        4.5 消融實(shí)驗(yàn)

        為了研究各個(gè)模塊或者訓(xùn)練策略對模型帶來的影響,設(shè)計(jì)了如下幾組消融實(shí)驗(yàn),實(shí)驗(yàn)設(shè)置如表2所示。實(shí)驗(yàn)中骨干網(wǎng)絡(luò)均為CSPDartnet53-tiny,表中的“√”代表包含該結(jié)構(gòu)或者使用該策略,“×”代表未包含該結(jié)構(gòu)或未使用該策略??梢钥吹?,第1組實(shí)驗(yàn)設(shè)置代表了YOLOv4-tiny,mAP值為84.5%;第2組實(shí)驗(yàn)在第1組實(shí)驗(yàn)的基礎(chǔ)上引入了SPP模塊,增強(qiáng)了網(wǎng)絡(luò)的感受野,提取多尺度特征并進(jìn)行融合,對輸入特征層的信息利用更充分,mAP相比第1組實(shí)驗(yàn)提高了2.2%;第3組實(shí)驗(yàn)使用PAN模塊代替第1組(YOLOv4-tiny)中的FPN模塊作為特征增強(qiáng)網(wǎng)絡(luò),分兩條路徑將不同尺度的特征層相互融合、反復(fù)增強(qiáng),mAP相比第1組實(shí)驗(yàn)提高了2.6%;第4組實(shí)驗(yàn)在第3組實(shí)驗(yàn)的基礎(chǔ)上結(jié)合了SPP模塊和PAN模塊,mAP相比第3組實(shí)驗(yàn)提高了2.4%,相比第1組實(shí)驗(yàn)提高了5.0%;第5組實(shí)驗(yàn)在第4組實(shí)驗(yàn)的基礎(chǔ)上使用了標(biāo)簽平滑策略對網(wǎng)絡(luò)損失函數(shù)進(jìn)行優(yōu)化,該策略同樣提高了模型的檢測精度,mAP相比第4組實(shí)驗(yàn)提高了0.7%,相比第1組實(shí)驗(yàn)提高了5.7%。綜上所述,本文算法對YOLOv4-tiny的改進(jìn)和優(yōu)化具備合理性和有效性,在口罩檢測任務(wù)中提升了原算法的檢測性能。

        表2 消融實(shí)驗(yàn)結(jié)果比較Tab.2 Comparison of ablation experiment results

        5 結(jié) 論

        為了在公共場所高效監(jiān)測人流的口罩佩戴情況,本文提出了一種基于YOLOv4-tiny改進(jìn)的輕量級口罩檢測算法。通過SPP模塊和PAN模塊的引入,以及標(biāo)簽平滑和Mosaic數(shù)據(jù)增強(qiáng)等策略的應(yīng)用,提高了算法在復(fù)雜場景下對小目標(biāo)和遮擋目標(biāo)的適應(yīng)能力,在口罩目標(biāo)和人臉目標(biāo)上的檢測精度分別達(dá)到了94.7%和85.7%,相比YOLOv4-tiny分別提高了4.3%和7.1%,實(shí)時(shí)檢測速度達(dá)到了76.8 FPS(on GeForce GTX 1050Ti),滿足了多種復(fù)雜場景下口罩檢測任務(wù)的檢測精度與實(shí)時(shí)性要求。本文算法對人臉目標(biāo)的檢測精度(85.7%)低于口罩目標(biāo)的檢測精度(94.7%),主要原因是人臉目標(biāo)檢測面臨的場景更為復(fù)雜多變,需要提取更多的細(xì)節(jié)信息,而YOLOv4-tiny作為通用目標(biāo)檢測算法,它的骨干網(wǎng)絡(luò)對復(fù)雜場景下的人臉目標(biāo)的適應(yīng)能力略顯不足,在未來的研究中可以引入注意力機(jī)制或者結(jié)合專門的人臉檢測算法進(jìn)行針對性優(yōu)化。

        猜你喜歡
        口罩卷積精度
        基于3D-Winograd的快速卷積算法設(shè)計(jì)及FPGA實(shí)現(xiàn)
        戴口罩的苦與樂
        意林(2020年9期)2020-06-01 07:26:22
        因?yàn)橐粋€(gè)口罩,我決定離婚了
        海峽姐妹(2020年4期)2020-05-30 13:00:08
        從濾波器理解卷積
        電子制作(2019年11期)2019-07-04 00:34:38
        霧霾口罩
        基于DSPIC33F微處理器的采集精度的提高
        電子制作(2018年11期)2018-08-04 03:25:38
        基于傅里葉域卷積表示的目標(biāo)跟蹤算法
        要戴口罩的霧霾天
        GPS/GLONASS/BDS組合PPP精度分析
        改進(jìn)的Goldschmidt雙精度浮點(diǎn)除法器
        亚洲av狠狠爱一区二区三区| 中文亚洲日韩欧美| 不卡无毒免费毛片视频观看| 亚洲高清精品一区二区| 国产精品国产三级国产a| 国产精品无码久久久久| 中文人妻无码一区二区三区信息| 粉嫩的18在线观看极品精品| 久久精品色福利熟妇丰满人妻91| 午夜福利理论片高清在线观看| 国产nv精品你懂得| 亚洲精品一区二区三区国产| 久久精品国产色蜜蜜麻豆国语版| 成人美女黄网站色大免费的| 国产精品11p| 91青青草免费在线视频| av中文字幕一区不卡| 久久综合九色综合欧美狠狠| 亚洲成a人片在线播放观看国产| 亚洲少妇一区二区三区老| 一边捏奶头一边高潮视频| 国产一区二区三区影院| 国产欧美亚洲另类第一页| 一区二区三区日韩蜜桃| 香蕉免费一区二区三区| 熟妇与小伙子matur老熟妇e| 一区二区三区四区在线观看视频| 日本中文字幕婷婷在线| 一区二区三区在线 | 欧| 婷婷色国产精品视频一区| 亚洲一区二区av天堂| 国产无夜激无码av毛片| 北条麻妃毛片在线视频| 成人影院免费视频观看| 亚洲精品久久久久一区二区| 欧美最猛黑人xxxx黑人表情| 深夜福利国产| av网站大全免费在线观看| 久久久久人妻一区精品色欧美 | 午夜香蕉av一区二区三区| 日本一区二区三区免费精品|