亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于YOLOv4-tiny改進的輕量級口罩檢測算法

        2021-11-12 00:47:16王建立
        液晶與顯示 2021年11期
        關(guān)鍵詞:特征實驗檢測

        朱 杰,王建立,王 斌

        (1. 中國科學(xué)院 長春光學(xué)精密機械與物理研究所,吉林 長春 130033;2. 中國科學(xué)院大學(xué),北京 100049)

        1 引 言

        新冠病毒席卷全球的當下,在機場、車站等公共場所佩戴口罩可以有效降低病毒的傳播概率,防止疫情的擴散。目前國內(nèi)外的公共場所對人流的口罩佩戴情況的監(jiān)測手段主要以人工監(jiān)督為主,廣播呼吁為輔,這種手段效率低下的同時也浪費了大量公共資源。而近幾年人工智能技術(shù)日新月異,尤其是目標檢測領(lǐng)域大量優(yōu)秀算法的涌現(xiàn),例如YOLO[1-5]系列為代表的單階段算法以及RCNN[6-8]系列為代表的兩階段算法,讓我們可以通過計算機搭配監(jiān)控攝像頭就能實現(xiàn)人流口罩佩戴情況的自動化監(jiān)測。

        目前,專門應(yīng)用于口罩檢測的數(shù)據(jù)集和算法都相對較少。Cabani等人[9]提出了一個包含13萬張圖像的大規(guī)??谡謾z測數(shù)據(jù)集,但是該數(shù)據(jù)集的圖像目標和人物背景都相對單一,對現(xiàn)實場景的覆蓋面嚴重不足。Wang等人[10]提出了一個口罩人臉數(shù)據(jù)集 (Real-World Masked Face Dataset,RMFD),不過該數(shù)據(jù)集的場景覆蓋面依舊不充分,更重要的是公開的數(shù)據(jù)標注并不完善,難以直接應(yīng)用于口罩檢測任務(wù)。牛作東等人[11]在人臉檢測算法RetinaFace中引入注意力進行機制優(yōu)化,然后應(yīng)用于口罩檢測任務(wù),取得了不錯的平均精度均值 (mean Average Precision,mAP),但是算法的每秒傳輸幀數(shù) (Frames Per Second,F(xiàn)PS)相對較低,很難滿足口罩檢測任務(wù)的實時性要求。王藝皓等人[12]在YOLOv3[3]算法中引入空間金字塔結(jié)構(gòu)改進后用于口罩檢測任務(wù),實現(xiàn)了mAP和FPS指標的小幅提升,不過算法數(shù)據(jù)集的背景相對單一,難以擴展到復(fù)雜的多場景口罩檢測任務(wù)中去,而且實時檢測速度依舊不理想。

        YOLOv4-tiny由Wang等人于2020年6月發(fā)布,在COCO[13]數(shù)據(jù)集上以443 FPS(on GeForce RTX 2080Ti)的實時檢測速度實現(xiàn)了42.0%的檢測精度[5]。本文對YOLOv4-tiny進行改進和優(yōu)化,以應(yīng)用于復(fù)雜場景下的口罩檢測任務(wù)。保持YOLOv4-tiny的骨干網(wǎng)絡(luò)不變,在其后引入空間金字塔池化[14](Spatial Pyramid Pooling,SPP)模塊,對輸入特征層進行多尺度池化并融合,同時大幅增強網(wǎng)絡(luò)的感受野。利用路徑聚合網(wǎng)絡(luò)[15](Path Aggregation Network,PAN)取代YOLOv4-tiny的特征金字塔網(wǎng)絡(luò)[16](Feature Pyramid Networks,F(xiàn)PN),分兩條路徑將輸入特征層上采樣和下采樣而來的信息相互融合,以增強特征層對目標的表達能力。使用標簽平滑[17](Label smoothing)策略優(yōu)化了網(wǎng)絡(luò)損失函數(shù),結(jié)合Mosaic數(shù)據(jù)增強[4]和學(xué)習(xí)率余弦衰退思路,提高了模型的訓(xùn)練效率。實驗結(jié)果表明,本文算法在普通性能的硬件(GeForce GTX 1050Ti)上達到了76.8 FPS的實時檢測速度,在口罩目標和人臉目標上的檢測精度分別達到了94.7%和85.7%,相比YOLOv4-tiny分別提高了4.3%和7.1%,滿足了多種復(fù)雜場景下口罩檢測任務(wù)的檢測精度與實時性要求。

        2 YOLOv4-tiny算法原理

        YOLOv4-tiny[5]由YOLOv4[4]進行尺度縮放而來。相比于YOLOv4,YOLOv4-tiny犧牲了一定的檢測精度,但是它的參數(shù)量不到前者的10%,推理速度則是前者的6~8倍。

        2.1 YOLOv4-tiny的骨干網(wǎng)絡(luò)

        圖1 YOLOv4-tiny網(wǎng)絡(luò)結(jié)構(gòu)Fig.1 YOLOv4-tiny network structure

        圖2 Resblock_body結(jié)構(gòu)Fig.2 Resblock_body structure

        如圖1所示,骨干網(wǎng)絡(luò)CSPDarknet53-tiny主要由DarknetConv2D_BN_Leaky模塊和Resblock_body模塊堆疊而成。DarknetConv2D_BN_Leaky模塊結(jié)合了二維卷積層、歸一化處理層和激活函數(shù)Leaky ReLU。Resblock_body模塊引入了如圖2所示的CSPNet結(jié)構(gòu)[18]:模塊主干部分依舊是殘差塊的常規(guī)堆疊,但在分支部分引入了一條大跨度的殘差邊,該殘差邊經(jīng)少量卷積處理之后直接連接到模塊的最后,與主干部分的輸出在通道維度進行堆疊,最后經(jīng)2×2的最大池化層處理得到模塊的輸出。CSPNet結(jié)構(gòu)在減少10%~30%的網(wǎng)絡(luò)參數(shù)量的同時,能夠保證模型準確率基本不變或者稍有提高。圖2中的Feat1和Feat2為Resblock_body模塊輸出的初始特征層。骨干網(wǎng)絡(luò)CSPDarknet53-tiny中的前兩個Resblock_body模塊輸出的初始特征層Feat1會被直接丟棄,F(xiàn)eat2則作為后一個Resblock_body模塊的輸入。對于第三個Resblock_body模塊的輸出Feat1和Feat2:Feat1直接作為特征增強網(wǎng)絡(luò)FPN的第一個輸入,F(xiàn)eat2經(jīng)DarknetConv2D_BN_Leaky模塊處理后作為FPN的第二個輸入。第三個Resblock_body模塊的輸出Feat1和Feat2的尺寸分別是(256,38,38)和(512,19,19),其中,第一維的256或512代表的是特征層的通道數(shù),后面兩個維度38×38或19×19代表的是特征層的高和寬。

        2.2 YOLOv4-tiny的特征增強網(wǎng)絡(luò)

        如圖1所示,YOLOv4-tiny使用FPN作為特征增強網(wǎng)絡(luò)。FPN的兩個輸入Feat1和Feat2的尺寸分別為(256,38,38)和(512,19,19)。FPN分兩個步驟構(gòu)建特征金字塔:

        1. Feat2經(jīng)1×1卷積(Conv)處理之后得到FPN的第一個輸出P1(256,19,19);

        2. P1再經(jīng)1×1的卷積處理和上采樣處理之后與Feat1在通道維度進行堆疊,得到FPN的第二個輸出P2(384,38,38)。

        最后,F(xiàn)PN模塊的兩個輸出P1和P2再經(jīng)少量卷積處理即可得到用于邊界框預(yù)測的兩個預(yù)測特征層Yolo Head1(21,38,38)和Yolo Head2(21,19,19)。YOLOv4-tiny的FPN模塊構(gòu)造非常簡單,甚至過于簡單,特征層的融合僅僅體現(xiàn)在單一的上采樣之后的特征層堆疊,這為YOLOv4-tiny帶來了非常優(yōu)秀的實時檢測速度(COCO:443 FPS on RTX 2080Ti),但也為YOLOv4-tiny帶來了網(wǎng)絡(luò)整體感受野過弱、特征融合不充分以及對骨干網(wǎng)絡(luò)提取到的特征信息利用率過低等缺點,使其難以適應(yīng)復(fù)雜場景下包含小目標或者遮擋目標的檢測任務(wù)。

        3 改進的YOLOv4-tiny算法

        本文對YOLOv4-tiny進行了一系列改進:在骨干網(wǎng)絡(luò)之后引入了SPP模塊,利用PAN結(jié)構(gòu)代替FPN作為特征增強網(wǎng)絡(luò),使用標簽平滑策略對網(wǎng)絡(luò)損失函數(shù)進行了優(yōu)化,并結(jié)合Mosaic數(shù)據(jù)增強和學(xué)習(xí)率余弦衰退策略進行模型訓(xùn)練。

        3.1 空間金字塔池化

        一般來說,可以使用剪裁或扭曲等方法改變輸入圖像的尺寸以滿足卷積神經(jīng)網(wǎng)絡(luò)中分類器層(全連接層)的固定尺寸輸入要求,但是這也會帶來剪裁區(qū)域未覆蓋完整目標或者圖像畸變等問題。為了應(yīng)對上述問題,He等人[14]提出了空間金字塔池化(SPP)網(wǎng)絡(luò),可以對多尺度提取的特征層進行池化和融合,并得到固定尺寸的輸出。本文在YOLOv4-tiny的骨干網(wǎng)絡(luò)之后引入SPP模塊以實現(xiàn)從細粒度到粗粒度的多尺度特征融合,增強特征層對目標的表達能力。本文改進后的算法網(wǎng)絡(luò)結(jié)構(gòu)如圖3所示,可以看到,骨干網(wǎng)絡(luò)CSPDarknet53-tiny的第二個輸出特征層會先經(jīng)SPP模塊處理后再輸入改進的特征增強網(wǎng)絡(luò)PAN。

        如圖3所示,SPP模塊處理步驟為:首先,輸入特征層經(jīng)過3次卷積處理(卷積核大小分別為1×1、3×3和1×1)后通道數(shù)由512降至256;然后,使用3個池化層(核大小分別為3×3、7×7和11×11)進行最大池化處理,每個池化層的輸出通道數(shù)均為256;再將上一步的輸入與3個池化層處理后的輸出在通道維度進行堆疊,通道數(shù)變?yōu)? 024;最后,經(jīng)過又一次3次卷積處理,SPP模塊輸出的通道數(shù)由1 024恢復(fù)至256。SPP模塊在對輸入特征層進行多尺度池化并融合的同時,也大幅增強了網(wǎng)絡(luò)的感受野,對輸入特征層的信息提取更為充分。

        圖3 改進的YOLOv4-tiny網(wǎng)絡(luò)結(jié)構(gòu)Fig.3 Improved YOLOv4-tiny network structure

        3.2 特征增強網(wǎng)絡(luò)PAN

        如圖1所示,CSPDarknet53-tiny的兩個輸出特征層在轉(zhuǎn)化為預(yù)測特征層YOLO Head之前,會先經(jīng)過FPN結(jié)構(gòu)進行特征信息的融合。FPN結(jié)構(gòu)對語義信息更豐富的高層次特征層進行上采樣之后,與細節(jié)信息更為豐富的低層次特征層在通道維度進行堆疊,以達成特征融合的目的。但是YOLOv4-tiny的FPN結(jié)構(gòu)過于“簡陋”,導(dǎo)致網(wǎng)絡(luò)整體感受野過弱,對細節(jié)信息的利用率過低,在面對復(fù)雜場景下的小目標或遮擋目標時的表現(xiàn)并不理想。

        為了應(yīng)對上述問題,本文算法使用路徑聚合網(wǎng)絡(luò)(PAN)作為特征增強網(wǎng)絡(luò)。如圖3所示,相比FPN,PAN的特征反復(fù)提取、相互融合的策略更加復(fù)雜,包含了自下而上和自上而下兩條特征融合的路徑??梢钥吹?,PAN一樣有兩個輸入特征層,F(xiàn)1來自骨干網(wǎng)絡(luò)CSPDarknet53-tiny的第三個Resblock_body模塊,F(xiàn)2則來自SPP模塊。在自下而上的融合路徑里,輸入F2經(jīng)1*1的卷積處理和上采樣處理之后,與同樣經(jīng)過卷積處理的輸入F1在通道維度進行堆疊,特征層的通道數(shù)由128上升至256;該特征層經(jīng)過3次卷積處理(卷積核大小分別為1×1、3×3和1×1)之后,得到PAN的第一個輸出。類似地,在自上而下的路徑里,第一條路徑的輸出在經(jīng)過下采樣完成高和寬的壓縮之后與輸入F2在通道維度進行堆疊,再經(jīng)過3次卷積處理之后得到PAN的第二個輸出。預(yù)測特征層YOLO Head由一個卷積核大小為3×3的DarknetConv2D_BN_Leaky模塊和一個卷積核大小為1×1的普通二維卷積層相連而成,其輸出數(shù)據(jù)主要用于先驗框的參數(shù)調(diào)整。PAN的特征融合策略里,來自不同尺度的特征相互融合、反復(fù)增強,充分利用骨干網(wǎng)絡(luò)提取到的細節(jié)信息,大幅提升了預(yù)測特征層對目標的表達能力。

        3.3 算法的損失函數(shù)

        目標檢測的損失函數(shù)一般包括3個部分,邊界框定位損失Lloc、預(yù)測類別損失Lcls和置信度損失Lconf。整體的網(wǎng)絡(luò)損失L的計算公式如下:

        L=Lloc+Lcls+Lconf,

        (1)

        邊界框定位損失Lloc用于衡量預(yù)測框與真實框的位置(包括高、寬和中心坐標等)誤差,交并比(Intersection over Union,IoU)是目前最常用的評估指標,計算公式如下:

        (2)

        其中,B=(x,y,w,h)表示預(yù)測框的位置,Bgt=(xgt,ygt,wgt,hgt)表示真實框的位置。但是IoU損失僅在兩邊界框之間有重疊部分時生效,而對于非重疊的情形,IoU損失不會提供任何可供傳遞的梯度。Zheng等人[19]提出了Complete IoU(CIoU)損失函數(shù),綜合考慮邊界框之間的重疊面積、中心點距離以及長寬比等幾何因素,使邊界框的回歸相比IoU更加穩(wěn)定。本文算法將CIoU引入邊框回歸的損失函數(shù)Lloc,計算公式如下:

        (3)

        其中,ρ2(B,Bgt)表示預(yù)測框和真實框的中心點之間的歐氏距離,d表示包含預(yù)測框和真實框的最小閉包區(qū)域的對角線距離,α是權(quán)重參數(shù),v是衡量長寬比一致性的參數(shù),α和v的計算公式如下:

        (4)

        (5)

        則邊界框定位損失函數(shù)Lloc為:

        (6)

        預(yù)測類別損失Lcls用于衡量預(yù)測框與真實框的類別誤差,采用交叉熵損失函數(shù)進行衡量:

        (7)

        (8)

        其中,δ為標簽平滑超參數(shù),取0.05。

        置信度損失Lconf同樣采用交叉熵損失函數(shù)進行衡量,計算公式如下:

        (9)

        4 實驗結(jié)果與分析

        4.1 數(shù)據(jù)集

        目前專門應(yīng)用于口罩檢測的公開數(shù)據(jù)集相對較少。本文從CMFD[9]和RMFD[10]中分別選取了3 800和4 200張圖像,并結(jié)合互聯(lián)網(wǎng)圖像爬取,建立了包含13 324張多場景圖像及標注的口罩檢測數(shù)據(jù)集??紤]到口罩目標的特殊性,數(shù)據(jù)集中還特意加入了約250張佩戴面巾、頭巾等遮擋物或者手部捂臉的圖像,以增強模型的泛化能力與實用性。模型訓(xùn)練之前,隨機選取20%的數(shù)據(jù)(2 665張圖像)作為測試集;訓(xùn)練過程中,以9∶1的比例劃分訓(xùn)練集與驗證集,并采用隨機的剪裁、圖像翻轉(zhuǎn)、色域變換和Mosaic等數(shù)據(jù)增強方式增加訓(xùn)練樣本的多樣性,提高模型的魯棒性。如圖4(d)所示,Mosaic拼接方式隨機選取4張圖片進行拼接,然后輸入網(wǎng)絡(luò)進行訓(xùn)練,可以有效豐富檢測目標的背景。

        4.2 評價指標

        本文采用平均精度均值(mAP)和每秒傳輸幀數(shù)(FPS)分別作為算法檢測精度和檢測速度的評價指標。

        在口罩檢測任務(wù)中,mAP即為口罩目標和人臉目標的平均精度(AP)的均值,如式(10)所示:

        (10)

        其中,N為類別數(shù),i表示某一類別。某一類別i的AP計算公式如下:

        (11)

        其中,P(R)是精確率(Precision,P)與召回率(Recall,R)之間的映射關(guān)系,常用P-R曲線表示,曲線下方的區(qū)域面積即為該類別AP值。精確率和召回率的計算方式如下:

        (12)

        (13)

        其中,TP表示檢測類別與真實標簽均為i的樣本數(shù)量,F(xiàn)P表示檢測類別為i與真實標簽不為i的樣本數(shù)量,F(xiàn)N表示檢測類別不為i但真實標簽為i的樣本數(shù)量。

        圖4 數(shù)據(jù)增強示例Fig.4 Examples of data augmentation

        FPS指的是網(wǎng)絡(luò)模型每秒能夠檢測的圖像幀數(shù),常用于衡量模型的推理速度。FPS的計算過程主要考慮了模型前向計算、閾值篩選和非極大值抑制幾個步驟。

        4.3 實驗設(shè)置

        本文算法在基于Python 3.7的Ubuntu 18.04環(huán)境下使用PyTorch1.7.0框架實現(xiàn),在桌面工作站(AMD Ryzen 3600x CPU @ 3.60 GHz,GeForce RTX 2080Ti)上進行訓(xùn)練,并在個人電腦(Intel Core i5-8300H CPU @ 2.30 GHz,GeForce GTX 1050Ti)上進行測試。訓(xùn)練時,使用COCO數(shù)據(jù)集上預(yù)訓(xùn)練的YOLOv4-tiny模型對骨干網(wǎng)絡(luò)的參數(shù)進行初始化,以獲得更好的模型初始性能。網(wǎng)絡(luò)輸入尺寸為608×608,優(yōu)化器選擇Adam,訓(xùn)練過程分兩個階段:第一階段凍結(jié)骨干網(wǎng)絡(luò),訓(xùn)練剩余網(wǎng)絡(luò)參數(shù),初始學(xué)習(xí)率為1e-3,批量大小為128,學(xué)習(xí)率調(diào)整策略為余弦衰退策略CosineAnnealingLR(T_max=5, eta_min=1e-5),其中T_max表示余弦函數(shù)的周期,eta_min表示學(xué)習(xí)率的最小值,訓(xùn)練50輪次;第二階段解凍骨干網(wǎng)絡(luò),訓(xùn)練所有網(wǎng)絡(luò)參數(shù),初始學(xué)習(xí)率為1e-4,批量大小為32,學(xué)習(xí)率調(diào)整策略與第一階段一致,訓(xùn)練100輪次。

        4.4 結(jié)果分析

        本文算法和YOLOv4-tiny(在相同環(huán)境下以相同方式訓(xùn)練)對口罩目標和人臉目標檢測結(jié)果的P-R曲線如圖5所示。可以看到,不管是對口罩目標還是人臉目標,本文算法的檢測性能均優(yōu)于YOLOv4-tiny(P-R曲線越靠右,代表檢測效果越好)。

        圖6則列出了YOLOv4-tiny和本文算法的檢測結(jié)果對比,可以看到,YOLOv4-tiny對于小目標或者遮擋目標存在一定的漏檢或錯檢情況,尤其是對遮擋目標,YOLOv4-tiny的適應(yīng)性明顯較弱,而本文算法不管是檢測準確率還是檢測結(jié)果的置信度都明顯高于YOLOv4-tiny。

        (a) 口罩檢測P-R曲線(a) P-R curves of mask detection

        (b) 人臉檢測P-R曲線(b) P-R curves of face detection圖5 YOLOv4-tiny和本文算法的P-R曲線對比Fig.5 Comparison of P-R curves between YOLOv4-tiny and the proposed algorithm

        (a) YOLOv4-tiny 算法1(a) YOLOv4-tiny algorithm 1

        (b) 本文算法1(b) Proposed algorithm in this paper 1

        (c) YOLOv4-tiny算法2(c) YOLOv4-tiny algorithm 2

        (d) 本文算法2(d) Proposed algorithm in this paper 2

        (e) 本文算法3(e) YOLOv4-tiny algorithm 3

        (f) 本文算法3(f) Proposed algorithm in this paper 3

        表1列出了本文算法和包括YOLOv4-tiny在內(nèi)的其他幾種主流目標檢測算法的mAP和FPS指標對比。對于口罩目標和人臉目標,本文算法的檢測AP值分別達到了94.7%和85.7%,相比YOLOv4-tiny分別提高了4.3%和7.1%,具備更高的檢測精度。在檢測速度上,由于本文算法引入了SPP模塊并且使用了更復(fù)雜的特征融合策略PAN,增加了網(wǎng)絡(luò)的參數(shù)量,所以檢測速度略低于YOLOv4-tiny,不過仍然取得了76.8 FPS的實時檢測速度(on GeForce GTX 1050Ti)。相比YOLOv3-tiny,本文算法的mAP則有著11.5%的大幅提升,不管是口罩目標還是人臉目標,本文算法的檢測性能都明顯更優(yōu)。至于其他非輕量級的單階段目標檢測算法,例如YOLOv3、YOLOv4和SSD[20],YOLOv3和YOLOv4的檢測精度與本文算法相當或稍有提升,SSD(輸入尺寸為512×512)的檢測精度低于本文算法,不過三者的檢測速度均低于18 FPS,不到本文算法的25%,難以滿足口罩檢測任務(wù)的實時性要求。而兩階段目標檢測算法的檢測速度則更低:FasterR-CNN[8](以VGG16[21]為骨干網(wǎng)絡(luò))的檢測速度不到5 FPS,檢測精度也低于本文算法4.7%。綜上所述,本文算法以76.8 FPS的實時檢測速度取得了90.2%的平均檢測精度,很好地滿足了口罩檢測任務(wù)的精度與實時性要求。

        表1 不同檢測算法性能比較Tab.1 Performance comparison of different detection algorithms

        4.5 消融實驗

        為了研究各個模塊或者訓(xùn)練策略對模型帶來的影響,設(shè)計了如下幾組消融實驗,實驗設(shè)置如表2所示。實驗中骨干網(wǎng)絡(luò)均為CSPDartnet53-tiny,表中的“√”代表包含該結(jié)構(gòu)或者使用該策略,“×”代表未包含該結(jié)構(gòu)或未使用該策略。可以看到,第1組實驗設(shè)置代表了YOLOv4-tiny,mAP值為84.5%;第2組實驗在第1組實驗的基礎(chǔ)上引入了SPP模塊,增強了網(wǎng)絡(luò)的感受野,提取多尺度特征并進行融合,對輸入特征層的信息利用更充分,mAP相比第1組實驗提高了2.2%;第3組實驗使用PAN模塊代替第1組(YOLOv4-tiny)中的FPN模塊作為特征增強網(wǎng)絡(luò),分兩條路徑將不同尺度的特征層相互融合、反復(fù)增強,mAP相比第1組實驗提高了2.6%;第4組實驗在第3組實驗的基礎(chǔ)上結(jié)合了SPP模塊和PAN模塊,mAP相比第3組實驗提高了2.4%,相比第1組實驗提高了5.0%;第5組實驗在第4組實驗的基礎(chǔ)上使用了標簽平滑策略對網(wǎng)絡(luò)損失函數(shù)進行優(yōu)化,該策略同樣提高了模型的檢測精度,mAP相比第4組實驗提高了0.7%,相比第1組實驗提高了5.7%。綜上所述,本文算法對YOLOv4-tiny的改進和優(yōu)化具備合理性和有效性,在口罩檢測任務(wù)中提升了原算法的檢測性能。

        表2 消融實驗結(jié)果比較Tab.2 Comparison of ablation experiment results

        5 結(jié) 論

        為了在公共場所高效監(jiān)測人流的口罩佩戴情況,本文提出了一種基于YOLOv4-tiny改進的輕量級口罩檢測算法。通過SPP模塊和PAN模塊的引入,以及標簽平滑和Mosaic數(shù)據(jù)增強等策略的應(yīng)用,提高了算法在復(fù)雜場景下對小目標和遮擋目標的適應(yīng)能力,在口罩目標和人臉目標上的檢測精度分別達到了94.7%和85.7%,相比YOLOv4-tiny分別提高了4.3%和7.1%,實時檢測速度達到了76.8 FPS(on GeForce GTX 1050Ti),滿足了多種復(fù)雜場景下口罩檢測任務(wù)的檢測精度與實時性要求。本文算法對人臉目標的檢測精度(85.7%)低于口罩目標的檢測精度(94.7%),主要原因是人臉目標檢測面臨的場景更為復(fù)雜多變,需要提取更多的細節(jié)信息,而YOLOv4-tiny作為通用目標檢測算法,它的骨干網(wǎng)絡(luò)對復(fù)雜場景下的人臉目標的適應(yīng)能力略顯不足,在未來的研究中可以引入注意力機制或者結(jié)合專門的人臉檢測算法進行針對性優(yōu)化。

        猜你喜歡
        特征實驗檢測
        記一次有趣的實驗
        “不等式”檢測題
        “一元一次不等式”檢測題
        “一元一次不等式組”檢測題
        如何表達“特征”
        做個怪怪長實驗
        不忠誠的四個特征
        當代陜西(2019年10期)2019-06-03 10:12:04
        抓住特征巧觀察
        NO與NO2相互轉(zhuǎn)化實驗的改進
        實踐十號上的19項實驗
        太空探索(2016年5期)2016-07-12 15:17:55
        精品老熟女一区二区三区在线| 视频一区二区在线播放| 东京热加勒比在线观看| 国产性感主播一区二区| 国产一级一级内射视频| 国内精品卡一卡二卡三| 欧美自拍区| 男女性搞视频网站免费| 精品国产自在现线看久久| 97日日碰人人模人人澡| 黄 色 人 成 网 站 免 费 | 中文字幕麻豆一区二区| 国产精品黑丝美腿美臀| 337p人体粉嫩胞高清视频| 久久精品国产9久久综合| 五码人妻少妇久久五码| 在线播放国产自拍av| 亚洲国产精品成人综合色| 青青视频一区| 中文字幕一区二区三在线| 所有视频在线观看免费| 精品国产一区av天美传媒| 国产午夜伦鲁鲁| 亚洲中久无码永久在线观看软件| 亚洲又黄又大又爽毛片| av免费在线播放视频| 国产成人无码免费视频在线 | av无码av天天av天天爽| 99精品国产在热久久国产乱| 免费人成黄页网站在线观看国产| 亚洲av不卡免费在线| 欧美肥胖老妇做爰videos| 亚洲阿v天堂2018在线观看| 亚洲精品中文字幕91| 久久久噜噜噜久久| 无码不卡高清毛片免费| 国产精品av网站在线| 日本不卡高字幕在线2019| 欧美性开放bbw| 亚洲成AV人片无码不卡| 精品露脸熟女区一粉嫩av|