亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        復雜場景下基于改進YOLOv3的口罩佩戴檢測算法

        2020-11-14 04:00:12王藝皓丁洪偉楊志軍楊俊東
        計算機工程 2020年11期
        關鍵詞:人臉口罩尺度

        王藝皓,丁洪偉,李 波,楊志軍,2,楊俊東

        (1.云南大學 信息學院,昆明 650500; 2.云南省教育廳科學教育研究院,昆明 650223)

        0 概述

        2019年12月以來,新型冠狀病毒肺炎(COVID-19)疫情[1]已經陸續(xù)蔓延到我國多個省份及境外多個國家,對人類健康和社會安全帶來了巨大威脅。國家衛(wèi)生健康委員會2020年6月29日發(fā)布新型冠狀病毒肺炎疫情最新情況[2]:31個省(自治區(qū)、直轄市)和新疆生產建設兵團共累計報告了確診病例83 531例,死亡病例4 634例,治愈出院病例78 469例,現有確診病例428例(無重癥病例)。最新研究發(fā)現,雖然新型冠狀病毒的病死率低于SARS等病毒,但是其具有更強的傳染性和更長的潛伏期[3]。新型冠狀病毒主要通過呼吸道飛沫、密切接觸等方式進行傳播[4],目前認為人群普遍易感[5],并且隨時存在大規(guī)模聚集性傳染爆發(fā)的可能性[6]。當前,在采取了強有力的防疫措施后,我國抗擊新冠肺炎已取得了空前成功,疫情態(tài)勢趨好,多省實現“零增長”。在全國復工復學大勢下,人們更應科學地對抗疫情,從疾病初期的以臨床治療為主到進一步強化、重視公共衛(wèi)生工作[7],而公共場所正確佩戴口罩作為嚴防疫情反彈的最有效措施之一,不僅是對每個人日常行為的考驗,也對相關技術的監(jiān)督和管理提出了一定要求。

        目前,專門應用于人臉口罩佩戴檢測的相關算法[8]較少。多數的通用目標檢測算法都適用于人臉口罩佩戴檢測任務,但是由于復雜場景中存在目標遮擋、密集人群、小尺度目標檢測等問題,導致通用目標檢測算法直接應用于人臉口罩佩戴檢測任務時效果不理想。為解決上述問題,學者們進行了大量的研究并取得了一定成果。SINDAGI等人[9]提出了一種上下文金字塔卷積神經網絡(Contextual Pyramid CNN,CP-CNN)方法,其通過提取深度卷積特征得到了高質量的人群密度圖。PANG等人[10]利用標注中的遮擋信息設計基于掩碼的空間注意力機制模塊,使得模型更加關注行人未被遮擋部分的特征,從而有效緩解了周圍其他特征對行人檢測的干擾。LIU等人[11]借鑒FCN與DCN的思想,采用位置敏感的可變形卷積[12]池化來提高模型特征編碼的靈活性,使模型更多地從行人可見部分中學習相應特征,避免其他物體的遮擋干擾。QIN等人[13]對ShufleNet進行改進,通過增大淺層特征的通道數和感受野,以獲得更有效的目標特征,并加入上下文信息增強模塊和空間注意力模塊來進一步促進多特征融合,從而在保證高速推理的同時提升模型的檢測精度。

        目前,基于深度學習的主流目標檢測算法主要分為2種,一種是以RCNN[14-16]系列為代表的兩階段算法,另一種是以SSD[17]系列和YOLO[18-20]系列為代表的單階段算法。其中,YOLOv3[20]是YOLO系列中應用最廣泛的目標檢測算法,其結合了殘差網絡、特征金字塔以及多特征融合網絡等多種方法,具有較好的識別速度和檢測精度。本文對YOLOv3算法進行改進和優(yōu)化,以解決復雜場景下人臉口罩佩戴檢測任務中存在的遮擋、密集人群、小尺度目標等問題。對YOLOv3中的DarkNet53骨干網絡進行改進,結合跨階段局部網絡構造一種CSP DarkNet53網絡,以降低內存消耗并提高訓練速度。在YOLOv3網絡中引入改進的空間金字塔池化結構,同時結合自上而下和自下而上的特征融合策略對多尺度預測網絡進行改進,以實現特征增強。在此基礎上,使用性能更好的CIoU損失函數替換原IoU損失函數,考慮目標與檢測框之間的中心點距離、重疊率以及長寬比信息,以提高目標檢測的準確性。

        1 YOLOv3算法原理

        YOLOv3是REDMON等人[20]于2018年提出的一種單階段目標檢測算法,網絡結構如圖1所示。YOLOv3的第一個優(yōu)點是借鑒了ResNet[21]中的殘差思想,提出全新的DarkNet53網絡作為主干特征提取網絡,DarkNet53網絡中的殘差結構如圖2所示。首先經過一次大小為3×3、步長為2的卷積,將其記為特征層x,接著進行一次1×1的卷積將通道數壓縮為原來的1/2,然后再進行一次3×3的卷積加強特征提取并將通道數擴張回原來的大小,得到F(x),最后通過殘差結構將x和F(x)進行堆疊。該結構的最大優(yōu)勢就是能夠通過增加網絡深度來提高準確率,同時其內部的殘差塊使用跳躍連接,緩解了在深度神經網絡中增加深度帶來的梯度消失問題。DarkNet53網絡中的每一個卷積部分均使用了特有的結構DarknetConv2D,每次卷積時使用L2正則化,在完成卷積后,進行標準化處理(Batch Normalization,BN)并使用Leaky ReLU激活函數。相比ReLU函數中將所有負值均設為零,Leaky ReLU激活函數則是賦予所有負值一個非零斜率,如式(1)所示:

        (1)

        圖1 YOLOv3網絡結構

        圖2 DarkNet53網絡中的殘差結構

        YOLOv3的第二個優(yōu)點是使用了多尺度特征進行預測,即從DarkNet53網絡中一共提取3個不同的特征層實現預測,shape分別為(52,52,256)、(26,26,512)和(13,13,1 024)。在這3個特征層均進行5次卷積處理,處理后的結果一部分用于輸出該特征層對應的預測結果,另一部分用于上采樣(UpSampling2D)操作后分別與對應的上一特征層進行融合。

        此外,YOLOv3采用YOLOv2[19]中的方法來預測邊界框的坐標位置,利用K-means聚類生成3種尺寸不同的先驗框,每個預測邊框會生成4個值,即左上角的坐標位置以及邊框的寬、高。相比其他多數目標檢測模型而言,YOLOv3雖然具有檢測速度快、精度高的優(yōu)勢,但是其直接應用于復雜場景下的口罩佩戴檢測任務時還存在一定不足。一是YOLOv3采用多尺度預測網絡,雖然其充分利用感受野,有效緩解了卷積神經網絡缺少尺度不變性的問題,但同時也提高了計算量,這對硬件設備和模型訓練提出了更高的要求;二是YOLOv3雖然提高了對小目標的檢測精度,但也出現了淺層特征提取不充分的問題;三是YOLOv3的預測準確性過分依賴IoU,隨著IoU的增大,其對于目標位置的預測精度會有所下降;四是對于復雜場景下存在的遮擋、密集人群以及尺度變化等問題,YOLOv3表現出一定的性能下降。針對以上問題,本文對YOLOv3進行改進和優(yōu)化。

        2 改進的YOLOv3算法

        本文主要從DarkNet53骨干網絡、特征增強網絡和損失函數3個方面對YOLOv3進行改進。

        2.1 改進的骨干網絡

        為進一步改善YOLOv3的特征提取網絡,本文引入跨階段局部網絡(Cross-Stage Partial Network,CSPNet)。CSPNet是WANG等人[22]提出的一種可增強CNN學習能力的新型骨干網絡,其能夠消除算力中損耗較高的計算結構,降低內存成本。本文將CSPNet結構應用于DarkNet53網絡,進而構造一種CSP DarkNet53網絡[23],DarkNet53網絡和CSP DarkNet53網絡結構如圖3所示。

        圖3 DarkNet53和CSP DarkNet53網絡結構

        與DarkNet53網絡相比,CSP DarkNet53網絡將原來殘差塊的堆疊拆分成Shortconv和Mainconv 2個部分。Shortconv部分即為生成的一個大的殘差邊,經過1次卷積處理后直接連接到最后。Mainconv作為主干部分繼續(xù)進行n(n的取值為1、2、8、8、4)次殘差塊堆疊,即先經過一次1×1的卷積對通道數進行調整,再通過一次3×3的卷積加強特征提取,接著將其輸出和小的殘差邊進行堆疊,再經過一次1×1的卷積將通道數調整為與Shortconv部分相同。最后,CSP DarkNet53將Shortconv和Mainconv進行堆疊。本文對卷積塊所用的激活函數進行優(yōu)化,將DarknetConv2D中的激活函數由Leaky ReLU換成Mish,即卷積塊由DarknetConv2D_BN_Leaky變成DarknetConv2D_BN_Mish。

        Mish是由DIGANTA M[24]提出的一種新穎的自正則非單調的神經網絡激活函數,其主要特點是無上界、有下界、平滑和非單調。其中,“無上界”有效避免了梯度消失問題,“有下界”增強了網絡正則化效果,“平滑”有利于神經網絡提取更高級的潛在特征,從而獲得更好的泛化能力,“非單調”可以保留更小的負輸入從而提升網絡的可解釋能力和梯度流。Mish激活函數如式(2)所示:

        Mish=x×tanh(ln(1+ex))

        (2)

        在對DarkNet53網絡進行改進后,本文引入特征增強網絡模塊,從而進一步強化網絡特征表示。

        2.2 特征增強網絡

        空間金字塔池化(Spatial Pyramid Pooling,SPP)是HE等人[25]提出的一種解決輸入神經網絡不同圖像尺寸問題的方法,其主要思想是將任意大小的特征圖通過多尺度的池化操作,拼接成一個固定長度的特征向量。SPP能夠產生固定大小的特征表示,無需限定輸入圖像的尺寸或比例,因此,其對于圖像形變具有較好的魯棒性。本文引入SPP結構以獲取多尺度局部特征信息,并將其與全局特征信息進行融合得到更豐富的特征表示,進而提升預測精度。由于CSP DarkNet53網絡已經進行了一系列的卷積和下采樣,其全局語義信息十分豐富,因此為了進一步獲取更多的局部特征,本文在CSP DarkNet53網絡最后一個特征層的卷積中加入SPP結構,改進的SPP網絡結構如圖4所示。

        圖4 改進的空間金字塔池化網絡結構

        從圖4可以看出,改進的SPP網絡具體步驟為:首先,對13×13的1 024通道特征層進行3次卷積(DarknetConv2D_BN_Mish)操作;然后,利用3個不同尺度的池化層進行最大池化處理,池化核大小分別為13×13、9×9和5×5,步長均為1;最后,將輸入的全局特征圖和3個經池化處理后得到的局部特征圖進行堆疊,并繼續(xù)進行3次卷積操作。SPP結構可以大幅增加最后一個特征層的感受野,分離出最顯著的上下文特征,從而獲得更加豐富的局部特征信息。低層級特征層的細節(jié)和定位信息一般較為豐富,但隨著特征層的逐漸深入,其細節(jié)信息不斷減少,而語義信息不斷增加,即越高層級特征層所包含的語義信息就越豐富。因此,在加入空間金字塔池化結構后,本文又結合特征融合策略對多尺度預測網絡進行改進,通過自上而下和自下而上的融合策略[26]增強特征表示,進一步實現特征復用。改進的多尺度預測網絡結構如圖5所示。

        圖5 改進的多尺度預測網絡結構

        從圖5可以看出,本文對多尺度預測網絡的具體改進為:首先,通過CSP DarkNet53骨干網絡提取得到3個有效特征層(52,52,256)、(26,26,512)和(13,13,1 024),并分別記為大尺度特征層(Large Feature Layer,LFL)、中尺度特征層(Medium Feature Layer,MFL)和小尺度特征層(Small Feature Layer,SFL);其次,先對SFL0進行3次卷積(Conv_3)、空間金字塔池化(SPP)后再進行3次卷積(Conv_3)得到SFL1,將SFL1進行一次卷積(Conv_1)和上采樣(UpSampling)得到的結果與MFL0進行一次卷積(Conv_1)得到的結果進行融合得到MFL1,接著再將MFL1進行一次卷積(Conv_1)和上采樣(UpSampling)得到的結果與LFL0進行一次卷積(Conv_1)得到的結果進行融合得到LFL1,進而完成自下而上的特征融合;然后,先對LFL1進行5次卷積(Conv_5)得到LFL2,將對LFL2進行下采樣得到的結果與MFL1進行5次卷積(Conv_5)得到的結果進行融合得到MFL2,接著將MFL2繼續(xù)進行下采樣得到的結果直接與SFL1進行融合得到SFL2,進而完成自上而下的特征融合;最后,將3個初始有效特征層LFL0、MFL0和SFL0利用自下而上和自上而下的融合方式得到的LFL2、MFL2和SFL2分別進行5次卷積(Conv_5),然后輸入YOLO Head中進行預測。其中,Conv_1表示進行一次大小為1×1的卷積處理,Conv_3和Conv_5的網絡結構如圖6所示。

        圖6 Conv_3和Conv_5網絡結構

        從圖5、圖6可以看出,本文利用自上而下和自下而上的特征融合策略對多尺度預測網絡進行改進,雖然在一定程度上提高了運算復雜度,但是其預測精度得到顯著提升。

        2.3 改進的損失函數

        預測框與真實框的交并比(IoU)[27]是當前最常用的目標檢測算法性能評估標準之一,其計算公式為:

        (3)

        其中,M=(x,y,w,h)表示預測框,N=(xgt,ygt,wgt,hgt)表示真實框。IoU雖然可以反映預測檢測框和真實檢測框的檢測效果,但其僅能在邊界框重疊時發(fā)揮作用,而對于非重疊部分,IoU不會提供任何調整梯度,即常用的先驗框回歸損失優(yōu)化和IoU優(yōu)化并非完全等價。針對該問題,本文引入CIoU[28]作為損失函數。CIoU考慮目標與檢測框之間的中心點距離、重疊率以及長寬比信息,使得目標框回歸更加穩(wěn)定,解決了IoU在訓練過程中出現的發(fā)散等問題。CIoU計算公式如下:

        (4)

        其中,m和n分別表示M(預測框)和N(真實框)的中心點,ρ2(m,n)表示預測框和真實框中心點的歐式距離,d表示能夠同時包含預測框和真實框的最小閉包區(qū)域的對角線距離,α為權衡參數,β反映了長寬比的一致性。α和β的計算公式分別如下:

        (5)

        (6)

        相應的損失函數為:

        (7)

        本文對骨干網絡、特征增強網絡、多尺度預測網絡以及損失函數進行優(yōu)化后,改進的YOLOv3整體結構如圖7所示。

        圖7 改進的YOLOv3網絡結構

        3 實驗結果與分析

        3.1 數據集

        由于目前沒有公開的復雜場景人臉口罩佩戴數據集,本文從WIDER FACE、MAFA(Masked Faces)[29]和RMFD(Real-World Masked Face Dataset)[30]3種數據集中篩選提取6 000張人臉照片和4 000張人臉佩戴口罩照片,共包含416 968張人臉目標和103 576張人臉佩戴口罩目標,并對數據集進行手工標注。數據集示例如圖8所示,RMFD是武漢大學于2020年3月免費開放的全球首個口罩遮擋人臉數據集,下載網址為https://github.com/X-zhangyang/Real-World-Masked-Face-Dataset。在圖8(b)中,表示標簽信息,表示bounding box的位置信息。

        圖8 數據集標注示例

        3.2 評價指標

        本文通過以下指標[31]評價人臉佩戴口罩檢測算法的性能:

        1)查準率(Precision)和召回率(Recall):

        (8)

        (9)

        其中,TP表示檢測到的目標類別與真實目標類別一致的樣本數量,FP表示檢測到的目標類別與真實目標類別不一致的樣本數量,FN表示真實目標存在但未被檢測出的樣本數量。

        2)平均準確率(Average Precision,AP)和平均準確率均值(mean Average Precision,mAP):

        (10)

        (11)

        其中,N表示所有目標類別的數量。在一般情況下,召回率的提升往往伴隨著查準率的下降,為了更好地權衡兩者,本文引入P-R曲線,P-R曲線下方的面積即為某類別的AP值。

        3)檢測速度:

        檢測速度是指目標檢測網絡每秒能夠檢測的圖片數量(幀數),用FPS(Frames Per Second)表示。

        3.3 結果分析

        在Pycharm中編程實現本文算法,編程語言為Python3.6,深度學習框架為PyTorch1.2.0,實驗硬件平臺包括Intel?XeonTMW-2102 CPU@2.90 GHz處理器,以及GeForce RTX 2080ti GPU用于加速模型訓練。在訓練模型時,本文按照1∶9的比例劃分測試集和訓練集。模型訓練方式采用Adam優(yōu)化器對網絡進行優(yōu)化,共分為2個階段:第1階段將前249層凍結,僅對第250層~第369層進行訓練,初始學習率設為0.001,batch_size為4,共訓練50個輪次(epoch);第2階段將前249層解凍后對所有層進行訓練,batch_size為2,訓練從第60個輪次開始,到第120個輪次結束。另外,在相同的實驗環(huán)境下,使用相同的訓練方式訓練一個原始的YOLOv3網絡模型用于分析比較。

        3.3.1 YOLOv3與本文算法實驗結果比較

        YOLOv3和本文算法分別針對人臉目標和人臉佩戴口罩目標檢測的P-R曲線如圖9所示。

        圖9 YOLOv3和本文算法的P-R曲線對比

        從圖9可以看出,本文算法在人臉目標和人臉佩戴口罩目標檢測中均取得了較好的性能。在人臉佩戴口罩目標檢測中,YOLOv3只取得了80.5%的AP值,而本文算法的AP值高達95.4%,相比YOLOv3算法提高了約15個百分點。在人臉目標檢測中,YOLOv3和本文算法的AP值分別為77.6%和84.9%,雖然本文算法的AP值與YOLOv3相比有一定程度的提升,但其仍低于人臉佩戴口罩目標檢測時的AP值,這可能是由于YOLOv3本身作為一種通用目標檢測算法,并非針對人臉提出的目標檢測算法,人臉上的關鍵點特征信息較多,人臉佩戴口罩目標中人臉的一部分被口罩遮擋,相對完整的人臉而言,所需檢測的特征信息明顯減少,因此人臉佩戴口罩目標檢測的識別精確度高于人臉目標檢測。總體而言,本文改進的YOLOv3與原始YOLOv3相比檢測精度更高。

        為了進一步對檢測效果進行分析比較,本文將檢測目標分為大尺度目標(Large)、中尺度目標(Medium)和小尺度目標(Small),YOLOv3和本文算法對于3種尺度目標的檢測結果如圖10所示。從圖10可以看出,YOLOv3對于大尺度目標、中尺度目標和小尺度目標檢測的mAP值分別為85.7%、79.2%和72.4%,而本文算法在大尺度目標、中尺度目標和小尺度目標檢測上的mAP值分別為96.4%、88.7%和85.5%,與YOLOv3相比,本文算法的mAP值分別提升了10.7個、9.5個和13.1個百分點。

        圖10 YOLOv3和本文算法對于3種尺度目標的實驗結果對比

        本文對復雜場景下的正常檢測、遮擋檢測、側臉檢測、密集人群檢測和小尺度人臉檢測5種情況,分別進行具體的檢測效果示例展示,如圖11~圖15所示。

        圖11 正常人臉檢測結果

        圖12 遮擋人臉檢測結果

        圖13 側臉檢測結果

        圖14 密集人群檢測結果

        圖15 小尺度人臉檢測結果

        從圖11可以看出,對于正常人臉的檢測識別,本文算法和YOLOv3均取得了較好的檢測效果,兩者都可以正確地識別出配戴口罩人臉和未佩戴口罩人臉,但在識別準確率上,特別是對于佩戴口罩人臉的識別準確率,本文算法相比YOLOv3有顯著的性能提升。因此,后續(xù)本文主要對復雜場景中的佩戴口罩人臉檢測效果進行分析,主要考慮復雜場景中遮擋、側臉、密集人群以及小尺度人臉檢測的情況。

        從圖12(a)可以看出,YOLOv3共檢測出8個佩戴口罩人臉目標,最高預測準確率僅為93%,從圖12(b)可以看出,本文算法共檢測出13個佩戴口罩人臉目標,有6個檢測框的預測準確率達到99%以上。

        在圖13的側臉檢測場景中,本文算法和YOLOv3同樣取得了較好的檢測效果,從圖13(a)可以看出,YOLOv3共檢測出10個佩戴口罩人臉目標,從圖13(b)可以看出,本文算法共檢測出15個佩戴口罩人臉目標,本文算法預測準確率也有顯著提升。

        從圖14(a)可以看出,YOLOv3共識別出9個配戴口罩人臉目標,從圖14(b)可以看出,本文算法共識別出16個佩戴口罩人臉目標,同時其預測準確率也有大幅提升,有半數以上檢測框的預測準確率達到了95%以上。

        從圖15(a)可以看出,YOLOv3共檢測出7個佩戴口罩人臉目標,從圖15(b)可以看出,本文算法共檢測出8個佩戴口罩人臉目標,同時預測準確率也有一定程度的上升。

        綜上,本文算法對于復雜場景下人臉佩戴口罩的檢測效果明顯優(yōu)于YOLOv3算法。

        3.3.2 本文算法與其他算法比較

        為了進一步驗證本文算法的有效性,將該算法與其他算法的性能進行比較,結果如表1所示。

        表1 4種算法的性能比較結果

        在表1中,Face指人臉目標檢測的平均準確率,Face_Mask指人臉佩戴口罩目標檢測的平均準確率。

        從表1可以看出,對于人臉佩戴口罩目標檢測而言,本文算法取得了較好的檢測效果,與RetinaFace算法和Attention-RetinaFace算法相比,其AP值分別提升了18.9%和10.7%,mAP值分別提升了8.3%和2.5%。但是,對于人臉目標檢測而言,RetinaFace算法和Attention-RetinaFace算法的AP值明顯更高,原因是這2種算法均是專門用于人臉定位的單階段檢測算法,基于人臉對齊、像素級人臉分析和人臉密集關鍵點三維分析來實現多尺度人臉檢測,因此,它們的檢測精度更高。而同為單階段檢測算法,YOLOv3雖然對于通用目標有較高的檢測精度和效率,但對于人臉這種特征信息豐富且復雜的目標而言,其性能低于專業(yè)的人臉檢測算法。本文算法是基于YOLOv3的算法,雖然其人臉目標檢測的AP值略低于RetinaFace算法和Attention-RetinaFace算法,但高于原始YOLOv3算法,而且本文算法的FPS相比RetinaFace算法和Attention-RetinaFace算法分別提升了20.1和19.7??傮w而言,本文算法能在一定程度上提升復雜場景下人臉佩戴口罩的目標檢測效果。

        3.3.3 消融實驗結果及分析

        消融實驗是深度學習領域中常用的實驗方法,主要用來分析不同的網絡分支對整個模型的影響[16]。為了進一步分析改進算法對于YOLOv3模型的影響,將本文算法裁剪成5組分別進行訓練,第1組為原始的YOLOv3,第2組為特征提取網絡結構改為CSP DarkNet53的YOLOv3,第3組在第2組的基礎上加入改進的空間金字塔池化,第4組在第3組的基礎上加入路徑聚合網絡,第5組在第4組的基礎上使用損失函數CIoU,即第5組為本文算法。5組消融實驗結果如表2所示,其中,“√”表示包括該結構,“×”表示未包括該結構。

        表2 消融實驗結果對比

        從表2可以看出:對于第1組實驗,原始YOLOv3在人臉目標檢測和人臉佩戴口罩目標檢測上的AP值分別為77.6%和80.5%,其mAP值為79.1%,FPS為32;對于第2組實驗,由于引入了跨階段局部網絡,人臉目標檢測和人臉佩戴口罩目標檢測的AP值相對第1組分別提高了1.2%和3.2%,mAP值提高了2.2%,同時檢測速度增加了3FPS,原因是跨階段局部網絡增強了卷積網絡的學習能力,消除了大部分的計算瓶頸結構并降低了內存消耗,從而提高了推理速度和準確性;對于第3組實驗,由于其在第2組的基礎上加入了改進的空間金字塔池化結構,雖然FPS相比第2組降低了1,但各類AP值均有提升,特別是人臉佩戴口罩目標檢測的AP值提升了約4個百分點,mAP值比第2組高出近3個百分點,這說明改進的空間金字塔池化結構能夠提升模型性能;對于第4組實驗,由于其在第3組的基礎上加入了路徑聚合網絡,各類AP值以及mAP值又取得了一定程度的提升,這是因為該組在3個有效特征層中加入了自下而上的融合路徑,從而進一步提升了預測網絡的檢測效果;第5組實驗即本文算法,其在第4組的基礎上改進了損失函數,選取CIoU替換IoU,mAP值相對于第4組提升了1.3%,特別是與原始YOLOv3相比,本文算法整體性能均有顯著提升,同時也取得了更好的實時效果,其檢測速度增加了6FPS。綜上,本文針對YOLOv3的改進策略能夠提升復雜場景下的人臉佩戴口罩檢測效果。

        4 結束語

        為解決復雜場景下人臉口罩佩戴檢測任務中存在的遮擋、密集人群和小尺度目標等問題,本文提出一種改進的YOLOv3算法。為減少網絡計算消耗并提高訓練速度,引入跨階段局部網絡,對DarkNet53進行改進以構造CSP DarkNet53網絡。引入改進的空間金字塔池化結構,通過自上而下和自下而上的特征融合策略優(yōu)化多尺度預測網絡,從而實現特征增強。將IoU損失函數替換為CIoU損失函數,充分考慮目標與檢測框之間的中心點距離、重疊率以及長寬比等信息。實驗結果表明,該算法可以有效提升復雜場景下口罩佩戴檢測的精度和速度,平均準確率達到90.2%,檢測速度達到38FPS。由于本文所選數據集均來自理想光照環(huán)境,因此下一步將考慮光照變化等因素以擴充數據集,同時對網絡結構進行優(yōu)化和改進,以構造性能更優(yōu)的輕量級網絡結構用于模型訓練,從而提升檢測模型的準確性和實時性。

        猜你喜歡
        人臉口罩尺度
        有特點的人臉
        財產的五大尺度和五重應對
        戴口罩的苦與樂
        意林(2020年9期)2020-06-01 07:26:22
        因為一個口罩,我決定離婚了
        海峽姐妹(2020年4期)2020-05-30 13:00:08
        霧霾口罩
        三國漫——人臉解鎖
        動漫星空(2018年9期)2018-10-26 01:17:14
        要戴口罩的霧霾天
        宇宙的尺度
        太空探索(2016年5期)2016-07-12 15:17:55
        馬面部與人臉相似度驚人
        9
        一本色道加勒比精品一区二区 | 老少配老妇老熟女中文普通话| 国产麻无矿码直接观看| 亚洲成a人片在线观看导航| 亚洲av中文字字幕乱码软件 | 中文字幕一区二区网址| 在线一区二区三区国产精品| 亚洲免费网站观看视频| 亚洲AⅤ无码日韩AV中文AV伦| 大屁股流白浆一区二区| 中文字幕日韩有码在线| 精品久久香蕉国产线看观看亚洲| 最新国产一区二区精品久久| av中文字幕在线资源网| 亚洲av区,一区二区三区色婷婷 | 精品人妻一区三区蜜桃| 2020年国产精品| 无码毛片高潮一级一免费| 全程国语对白资源在线观看| 亚洲国产精品无码久久一线| 午夜dj在线观看免费视频| 国产视频在线一区二区三区四区| 免费在线不卡黄色大片| 亚洲av无码码潮喷在线观看| 日本免费人成视频播放| 亚洲AV无码乱码精品国产草莓| 一区二区三区日本高清| 国产精品无码无在线观看| 免费可以在线看A∨网站| 五月停停开心中文字幕| 黄色av一区二区在线观看| 久热综合在线亚洲精品| 亚洲片在线视频| 麻豆精品一区二区三区| 国产男女免费完整视频| 2021国产成人精品国产| 亚洲综合偷拍一区二区| 亚洲欧美综合精品成人网站| 亚洲精品无码久久久久sm| 国产精品性一区二区三区| 亚洲精品中文字幕乱码二区|