亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于改進(jìn)YOLOv5 的口罩佩戴檢測算法研究

        2024-01-19 07:03:54布安旭陳月乃
        惠州學(xué)院學(xué)報 2023年6期
        關(guān)鍵詞:口罩準(zhǔn)確率目標(biāo)

        布安旭,馬 馳,胡 輝,陳月乃,楊 樂

        (1.遼寧科技大學(xué) 計算機(jī)與軟件工程學(xué)院,遼寧 鞍山 114051;2.惠州學(xué)院 計算機(jī)科學(xué)與工程學(xué)院,廣東 惠州 516007)

        自疫情暴發(fā)以來,我國受到了一輪又一輪的疫情沖擊,為了抑制疫情的蔓延,降低疫情對經(jīng)濟(jì)發(fā)展的影響,各地政府頒布了相應(yīng)的疫情防范政策,要求大家在人多的地方做好防范措施戴好口罩,這些政策能有效抑制疫情的蔓延。在此環(huán)境下如果總是讓防控人員去提醒大家的話,這不僅會加大各方面的開支,且近距離接觸待檢測人員也存在一定的傳播風(fēng)險。因此,構(gòu)建口罩佩戴檢測系統(tǒng)對日常防護(hù)具有重要的現(xiàn)實意義。

        口罩佩戴檢測實際上也是目標(biāo)檢測[1],屬于計算機(jī)視覺領(lǐng)域中的一個分支,主要分為2類,分別是基于傳統(tǒng)的方法和基于深度學(xué)習(xí)的方法。深度學(xué)習(xí)在計算機(jī)視覺領(lǐng)域表現(xiàn)出了良好的性能,當(dāng)前主流的目標(biāo)檢測算法進(jìn)行特征提?。?]主要是通過卷積神經(jīng)網(wǎng)絡(luò)來實現(xiàn),例如VGGNet[3]、ResNet[4]、DenseNet[5]等。這些目標(biāo)檢測算法主要分為單級式和兩級式;單級式(onestage)包括SSD[6]、YOLO[7-8]等,它們的優(yōu)勢是檢測速度快,缺點是精度略差。兩級式(two-stage)包括RCNN[9]等算法,這種算法的優(yōu)點是精度較高,缺點是可能出現(xiàn)延遲的情況。而隨著YOLOv5 的出現(xiàn),由于其良好的性能,很快成為了研究熱點。談世磊等[10]在YOLOv5的基礎(chǔ)上,對原始數(shù)據(jù)集進(jìn)行拓展,通過圖像預(yù)處理得到3 萬張圖像用來進(jìn)行訓(xùn)練,從而提升了檢測的準(zhǔn)確率。彭成等[11]在YOLOv5 的基礎(chǔ)上進(jìn)行改進(jìn),提出了輕量化算法,降低了網(wǎng)絡(luò)結(jié)構(gòu)中的參數(shù),進(jìn)而減少了計算量,并且和原網(wǎng)絡(luò)模型相比精度基本沒有損失。胡均平等[12]通過對YOLOv5骨干網(wǎng)絡(luò)最后一層的空間金字塔池化結(jié)構(gòu)進(jìn)行改進(jìn)來提高模型對目標(biāo)的特征提取能力,同時提出了自適應(yīng)特征融合方法來提高網(wǎng)絡(luò)對不同層級特征的融合能力。

        在相關(guān)研究的基礎(chǔ)上,以當(dāng)前流行的目標(biāo)檢測模型YOLOv5 作為基礎(chǔ),選擇CIoU[16]作為損失函數(shù),然后進(jìn)行改進(jìn)。本文改進(jìn)的方法會隨機(jī)抽取人臉數(shù)據(jù),然后對人臉數(shù)據(jù)進(jìn)行校對、標(biāo)注,模型在訓(xùn)練之后,不僅具有更高的準(zhǔn)確率,還有較好地實時性。

        1 YOLOv5算法簡介

        圖1 展示了YOLOv5 的整體網(wǎng)絡(luò)結(jié)構(gòu)。一般目標(biāo)檢測算法分為:輸入端、基準(zhǔn)網(wǎng)絡(luò)、Neck 網(wǎng)絡(luò)、Head 輸出端4 個部分。YOLOv5 分為4 種類型,分別是:YOLOv5s、YOLOv5m、YOLOv5l、YOLOv5x,這里主要研究YOLOv5s。

        圖1 YOLOv5整體網(wǎng)絡(luò)結(jié)構(gòu)

        YOLOv5 屬于單階段目標(biāo)檢測算法,它在YOLOv4的基礎(chǔ)上進(jìn)行了優(yōu)化,優(yōu)化后算法的性能得到了較大提高。主要的優(yōu)化部分如下:

        (1)輸入端:在對模型進(jìn)行訓(xùn)練的時候,先對數(shù)據(jù)處理做了優(yōu)化,比如進(jìn)行Mosaic 數(shù)據(jù)增強(qiáng)以增強(qiáng)識別能力;

        (2)基準(zhǔn)網(wǎng)絡(luò):結(jié)合了別的檢測模型中的思想,例如Focus 網(wǎng)絡(luò)中的下采樣與CSP 網(wǎng)絡(luò)中降低大量的推理計算;

        (3)Neck 網(wǎng)絡(luò):目標(biāo)檢測網(wǎng)絡(luò)在BackBone 與最后的Head 輸出層一般會添加一些層,Yolov5 中添加了FPN+PAN結(jié)構(gòu);

        在把輸入圖像輸送到模型中的時候,一般會對輸入圖像進(jìn)行圖像預(yù)處理操作,預(yù)處理的目的是將輸入的圖像大小變換成模型的輸入大小,同時對輸入的圖像做歸一化處理。在訓(xùn)練模型的時候應(yīng)用Mosaic數(shù)據(jù)增強(qiáng)來加快網(wǎng)絡(luò)收斂以及提高算法的精度。另外CSP結(jié)構(gòu)可以在一定程度上決定網(wǎng)絡(luò)的深度,在YOLOv5網(wǎng)絡(luò)中有2 個CSP 結(jié)構(gòu),分別記為CSP_1 和CSP_2,其中CSP_1 應(yīng)用了2 個殘差網(wǎng)絡(luò)結(jié)構(gòu),所以被標(biāo)記為CSP_1_2ReNet;另外的CSP_2則采用了2個卷積,所以標(biāo)記為CSP_2_2Conv,此時模型的深度會逐漸增加,而模型的特征提取和特征融合性能也會逐漸得到加強(qiáng)。

        2 基于YOLOv5的改進(jìn)算法

        對YOLOv5的改進(jìn)主要包括3個方面,分別是對數(shù)據(jù)處理、特征增強(qiáng)網(wǎng)絡(luò)和損失函數(shù)的改進(jìn)。

        2.1 數(shù)據(jù)增強(qiáng)

        本算法在輸入的時候采用Mosaic 數(shù)據(jù)增強(qiáng)、自適應(yīng)錨框計算、自適應(yīng)圖片縮放等數(shù)據(jù)處理操作。一般在對模型進(jìn)行訓(xùn)練之前會提前設(shè)置好基礎(chǔ)錨框,在此錨框基礎(chǔ)上,模型在經(jīng)過訓(xùn)練后會得到一個預(yù)測框,然后將其和真實框?qū)Ρ?,之后通過計算兩者的差值對網(wǎng)絡(luò)中的參數(shù)進(jìn)行迭代,并進(jìn)行反向更新。Mosaic 數(shù)據(jù)增強(qiáng)是一種比較經(jīng)典的數(shù)據(jù)增強(qiáng)方法,包括了隨機(jī)排布、隨機(jī)縮放、隨機(jī)裁減等常見的通用數(shù)據(jù)處理方式,圖2 展示了處理過程。本模型在訓(xùn)練時,采用將自適應(yīng)圖片縮放與Mosaic 數(shù)據(jù)增強(qiáng)進(jìn)行融合的方法,通過融合處理不僅可以給圖片增添一些灰邊,還可以對初始圖片進(jìn)行拼接操作,之后把經(jīng)過處理后的圖片送進(jìn)網(wǎng)絡(luò)中開始訓(xùn)練。

        圖2 Mosaic處理流程

        2.2 特征增強(qiáng)網(wǎng)絡(luò)改進(jìn)

        原始的YOLOv5 模型采用了3 種大小的Feature Diagram 對大小各異的目標(biāo)進(jìn)行檢測,如圖3。在把圖像輸送到網(wǎng)絡(luò)的時候,會對其進(jìn)行8、16、32倍下采樣,然后得到3種尺寸各異的Feature Diagram,接著把它傳入到特征融合網(wǎng)絡(luò)中。根據(jù)FPN[13]的網(wǎng)絡(luò)特點,特征圖在通過多次卷積操作以后會包含更多的語義信息,但是經(jīng)過了多次卷積之后可能會導(dǎo)致目標(biāo)中關(guān)鍵信息的缺失,從而影響目標(biāo)檢測的準(zhǔn)確率;而通過多次淺層卷積后得到的特征圖盡管具有較少的語義信息,不過獲取到的目標(biāo)位置信息會更加準(zhǔn)確。

        圖3 YOLOv5特征提取模型

        本算法在YOLOv5的基礎(chǔ)上,額外添加了一個4倍下采樣,圖4 為改進(jìn)后的特征提取模型。輸入圖像通過4倍下采樣處理后,會融合到特征融合網(wǎng)絡(luò)中,從而更新特征圖的大小,而該感受野較小的特征圖則包含了較為豐富的信息,能夠提升目標(biāo)檢測的準(zhǔn)確率。

        圖4 改進(jìn)的特征提取模型

        2.3 損失函數(shù)改進(jìn)

        IoU[14]主要用來評價目標(biāo)檢測的性能,它通過計算真實框和預(yù)測框之間的交集和并集的值來對目標(biāo)檢測模型的檢測效果進(jìn)行評估。GIoU[15]在IoU 的基礎(chǔ)上添加了懲罰項,然后可以精確地衡量兩者之間的相交情況。它們的計算如式(1)、(2):

        公式中A代表檢測框,B代表真實框,C代表最小的外接矩形框。GIoU 和最初的IoU 有所差異,它不僅注重兩者之間的重疊部分,還注重其他非重疊部分,所以GIoU相較于IoU可以真實反映出預(yù)測框和真實框之間的重合度,然而GIoU的缺點是它僅僅考慮了二者之間的重疊區(qū)域,而沒有考慮別的因素,因此對于目標(biāo)框的回歸問題則無法較好地描述。

        本算法在通過實驗測試后,最后采用效果較好的CIOU Loss[16],把CIOU Loss 用作回歸的損失函數(shù),這樣預(yù)測框?qū)⒏险鎸嵖?,CIOU Loss計算公式如下:

        上式在計算梯度的時候α并不參與,只作為平衡參數(shù)。在圖5中,c代表最小外接矩形的對角線距離,d=ρ(b,bgt)代表了真實框中心點和預(yù)測框中心點之間的距離,其中b代表了真實框的中心點,bgt代表了預(yù)測框的中心點。CIoU[16]從整體上考慮了二者之間的重疊區(qū)域等因素,從而使模型的訓(xùn)練過程更加穩(wěn)定。

        圖5 預(yù)測框與真實框

        3 實驗結(jié)果及分析

        3.1 實驗環(huán)境

        本實驗的環(huán)境配置如下:Intel i5-10400F 處理器,GeForce RTX2080 GPU,cuda10.1,cudnn7.6.3,16G 內(nèi)存,CentOS 7.0操作系統(tǒng),pytorch1.8,python3.7。

        3.2 數(shù)據(jù)集

        本文所用的數(shù)據(jù)集為MAFA 和WIDER Face 以及網(wǎng)絡(luò)上搜集的圖片在經(jīng)過篩選后組成的數(shù)據(jù)集,其中MAFA 是一個面部遮擋數(shù)據(jù)集,WIDER Face 是一個人臉檢測數(shù)據(jù)集;然后從數(shù)據(jù)集中篩選出沒佩戴口罩和已佩戴口罩的圖片,為了更好地模擬實際生活場景。最后篩選出的這些圖片包括了許多實際生活中的口罩佩戴情況;然后將篩選出來的圖片分為face-mask 和face 2類,前者代表戴了口罩,后者代表沒戴口罩;篩選得到的圖片共有7 640 張,其中80%作為訓(xùn)練集,20%作為測試集。

        本實驗采用的數(shù)據(jù)集需要預(yù)處理,經(jīng)過預(yù)處理后的數(shù)據(jù)集需要用標(biāo)注工具對其進(jìn)行類別標(biāo)注,包括face-mask和face 2種類別,標(biāo)注示例如圖6。

        圖6 LabelImg標(biāo)注圖片示例

        3.3 結(jié)果分析

        在模型訓(xùn)練的過程中,評估口罩佩戴檢測算法的好壞通常要用到相應(yīng)的評價指標(biāo)。其中許多評價指標(biāo)都由混淆矩陣(confusion matrix)計算得到。本實驗對模型評估所用的評價指標(biāo)包括:準(zhǔn)確率(precision)、召回率(recall)、平均精度均值(mAP)以及幀率(每秒檢測圖片幀數(shù))。

        準(zhǔn)確率指的是預(yù)測為正的樣本所占的比例,它主要用來判斷預(yù)測結(jié)果的準(zhǔn)確性,公式(6)為準(zhǔn)確率的具體計算方式:

        召回率指的是所有樣本中正例被準(zhǔn)確預(yù)測的比例,公式(7)為具體的計算方式:

        mAP 由AP 求均值得到,用來衡量檢測精度,mAP值越大準(zhǔn)確率越高,公式(8)、(9)分別為AP和mAP的具體計算方式:

        幀率:表示模型每秒檢測的圖片數(shù)量,主要用來衡量模型的檢測速率,用FPS表示。

        經(jīng)過實驗后,本文基于YOLOv5 改進(jìn)的口罩佩戴實時檢測結(jié)果的P-R 曲線圖如圖7,其中縱軸代表準(zhǔn)確率,橫軸代表召回率。

        圖7 改進(jìn)后算法的P-R曲線圖

        訓(xùn)練過程中各項指標(biāo)的變化如圖8。

        圖8 模型評價指標(biāo)變化曲線圖

        從圖8 的(c)、(d)中可以看出precision 可達(dá)到0.986,recall 可達(dá)到0.989。圖9 展示了檢測效果,可以看到本算法對人員口罩佩戴情況能做出準(zhǔn)確的檢測。

        圖9 改進(jìn)后的算法檢測效果

        接著再次驗證基于YOLOv5 改進(jìn)算法的有效性,將改進(jìn)的算法與其他算法進(jìn)行比較,結(jié)果如表1。

        表1 本文改進(jìn)算法與其他算法性能比較

        從表1可以看出,基于YOLOv5改進(jìn)的口罩佩戴檢測算法,相較于通用檢測算法SSD,face_mask 提高了25.43%;對于專門用來進(jìn)行人臉定位的單階段檢測算法RetinaFace,face_mask 提高了18.62%;在YOLOv5 的基礎(chǔ)上,本算法face_mask 提高了9.79%,face 提高了9.22%,mAP提高了8.33%,本算法的FPS和YOLOv5差不多,但仍能滿足實時檢測速率的要求。

        4 結(jié)語

        本文在YOLOv5 的基礎(chǔ)上進(jìn)行改進(jìn),完成了對口罩佩戴實時檢測的任務(wù),本文從第二章節(jié)中的3 個方面進(jìn)行了改進(jìn),改進(jìn)后的算法在經(jīng)過預(yù)處理的數(shù)據(jù)集上進(jìn)行驗證,實驗表明,相比其他算法本文的改進(jìn)算法有著明顯優(yōu)勢,充分驗證了本算法的有效性,同時也可應(yīng)用在實際的生活場景中。

        猜你喜歡
        口罩準(zhǔn)確率目標(biāo)
        乳腺超聲檢查診斷乳腺腫瘤的特異度及準(zhǔn)確率分析
        健康之家(2021年19期)2021-05-23 11:17:39
        不同序列磁共振成像診斷脊柱損傷的臨床準(zhǔn)確率比較探討
        2015—2017 年寧夏各天氣預(yù)報參考產(chǎn)品質(zhì)量檢驗分析
        戴口罩的苦與樂
        意林(2020年9期)2020-06-01 07:26:22
        因為一個口罩,我決定離婚了
        海峽姐妹(2020年4期)2020-05-30 13:00:08
        霧霾口罩
        高速公路車牌識別標(biāo)識站準(zhǔn)確率驗證法
        要戴口罩的霧霾天
        我們的目標(biāo)
        新目標(biāo)七年級(下)Unit 3練習(xí)(一)
        亚洲永久精品ww47永久入口| 永久免费看黄在线观看| av免费资源在线观看| 丰满少妇弄高潮了www| 丰满人妻被中出中文字幕| 韩国女主播一区二区在线观看| 欧美亚洲另类国产18p| 成人自拍偷拍视频在线观看| 亚洲a∨无码精品色午夜| 97se亚洲国产综合自在线| 精品国产品欧美日产在线| 国产自拍成人在线免费视频| 久久久久久自慰出白浆| 爱情岛永久地址www成人| 亚洲成精品动漫久久精久| 婷婷开心五月亚洲综合| 中国精品18videosex性中国| 韩日美无码精品无码| 中文字幕日韩精品美一区二区三区| 中文字幕在线乱码亚洲| 亚洲精品v欧洲精品v日韩精品| 久久久久久人妻毛片a片| 国产精品视频一区日韩丝袜| 女同另类专区精品女同| 日韩久久无码免费毛片软件| 亚洲综合色自拍一区| 国产思思久99久精品| 国产精品一区二区三区av在线| 少妇愉情理伦片| 国产亚洲蜜芽精品久久| 久久久国产精品五月天伊人| 亚洲国产精品高清一区| 日本xxxx色视频在线播放| 日本高清不在线一区二区色| 国产精品女同av在线观看| 亚洲日韩国产一区二区三区| 亚洲天堂在线播放| 在线精品亚洲一区二区三区 | 懂色av一区二区三区网久久| 国产又大又黑又粗免费视频| 国产真人无遮挡作爱免费视频 |