亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        YOLOv5算法的人臉識(shí)別檢測方法研究

        2023-07-17 05:54:30宋傳旗
        計(jì)算機(jī)時(shí)代 2023年7期
        關(guān)鍵詞:網(wǎng)絡(luò)結(jié)構(gòu)人臉特征

        宋傳旗

        關(guān)鍵詞:人臉識(shí)別;雙向特征金字塔網(wǎng)絡(luò)BiFPN;YOLOv5;檢測精度

        0 引言

        深度學(xué)習(xí)在人工智能領(lǐng)域獲得發(fā)展與廣泛應(yīng)用,如自動(dòng)翻譯、人臉識(shí)別等智能化技術(shù)都離不開深度學(xué)習(xí)。基于深度學(xué)習(xí)的目標(biāo)檢測劃分為單階段目標(biāo)檢測和兩階段目標(biāo)檢測。兩階段目標(biāo)檢測步驟通過特征提取與目標(biāo)檢測兩個(gè)部分來完成;而單階段目標(biāo)檢測則是將上述步驟合二為一來完成。兩階段目標(biāo)檢測算法以R-CNN[1]、FastR-CNN[2]為代表,需要先進(jìn)行區(qū)域選擇,再進(jìn)行分類;單階段目標(biāo)檢以YOLO[3]、SSD[4]算法為代表,是將區(qū)域選擇和分類合并到同一個(gè)網(wǎng)絡(luò)結(jié)構(gòu)中,共同構(gòu)建出以“分類+回歸”為基礎(chǔ)框架的多任務(wù)模型。

        本文利用開源人臉數(shù)據(jù)集WiderFace[5]作為訓(xùn)練數(shù)據(jù)集,通過改進(jìn)YOLOv5 網(wǎng)絡(luò)結(jié)構(gòu)中的Neck 部分,彌補(bǔ)原始YOLOv5 算法中特征金字塔網(wǎng)絡(luò)(featurepyramid networks)FPN+PAN[6]特征融合結(jié)構(gòu)缺少原始信息的缺點(diǎn),利用BiFPN[7]的特征融合思想,減少卷積過程中特征信息的丟失,提升算法的檢測精度。

        1 YOLOv5 目標(biāo)檢測算法

        1.1 YOLOv5 系列算法概述

        YOLO 系列算法是應(yīng)用于目標(biāo)檢測的深度神經(jīng)網(wǎng)絡(luò)模型。該系列算法模型可劃分為兩個(gè)任務(wù)部分:一是對(duì)檢測目標(biāo)分類,二是對(duì)檢測目標(biāo)的位置確認(rèn)。

        YOLOv5 的高性能且易于使用的特點(diǎn),使其在目標(biāo)檢測領(lǐng)域運(yùn)用更加廣泛。本文以YOLOv5s 模型來展開人臉檢測算法研究,圖1 為YOLOv5 的網(wǎng)絡(luò)結(jié)構(gòu)示意圖。從圖1 可以看出YOLOv5 的網(wǎng)絡(luò)結(jié)構(gòu)主要由四部分組成,分別是Input(輸入端)、Backbone(基準(zhǔn)網(wǎng)絡(luò))、Neck、Prediction(輸出網(wǎng)絡(luò))。

        1.2 YOLOv5 算法的網(wǎng)絡(luò)結(jié)構(gòu)

        首先Inpu(t 輸入端)是輸入原始數(shù)據(jù)圖像,圖像大小為608*608,在該階段使用Mosaic 數(shù)據(jù)增強(qiáng)的方式以及自適應(yīng)錨框、自適應(yīng)的圖片縮放對(duì)原始圖像進(jìn)行預(yù)處理,這種方式豐富了數(shù)據(jù),提升了對(duì)小目標(biāo)檢測能力。

        Backbone(基準(zhǔn)網(wǎng)絡(luò))使用Focus 模塊實(shí)現(xiàn)了快速下采樣,該模塊能夠在沒有信息丟失的情況下將信息集中到通道上,使接下來的特征提取更加充分。SPP模塊的使用則提高了圖像的尺度不變性,有效增加了主干特征的接收范圍,更容易使網(wǎng)絡(luò)收斂,提高了準(zhǔn)確率。

        Neck 網(wǎng)絡(luò)結(jié)構(gòu)采用FPN+PAN 結(jié)構(gòu),F(xiàn)PN 層向下采樣,不斷縮小圖像,通過融合高低層特征提升目標(biāo)檢測的效果,后面添加PAN 結(jié)構(gòu)向上采樣,充分利用網(wǎng)絡(luò)淺層特征進(jìn)行分割,頂層也可以接收底層帶來的豐富位置信息。

        Prediction(輸出網(wǎng)絡(luò))用于完成目標(biāo)檢測結(jié)果的輸出,為評(píng)價(jià)對(duì)象定位算法是否精準(zhǔn),YOLOv5 采用損失函數(shù)GIOU[8]計(jì)算,以及采用非最大抑制算法把GIOU_Loss貢獻(xiàn)值不是最大的其他預(yù)測結(jié)果去掉,輸出概率最大的分類結(jié)果通過分析YOLOv5 算法模型的原理以及網(wǎng)絡(luò)結(jié)構(gòu),發(fā)現(xiàn)在針對(duì)人臉檢測識(shí)別過程中,對(duì)小模型和超小模型的數(shù)據(jù)檢測結(jié)果不精確。因此我們將BiFPN(Bidirectional Feature Pyramid Network,雙向加權(quán)特征金字塔網(wǎng)絡(luò))特征融合結(jié)構(gòu)引入YOLOv5 算法,在特征提取網(wǎng)絡(luò)中加入小目標(biāo)檢測層,提取淺層的物理信息來加強(qiáng)對(duì)小目標(biāo)的檢測能力。

        2 YOLOv5 改進(jìn)

        2.1 BiFPN 頭部特征融合網(wǎng)絡(luò)

        YOLOv3 采用的如圖2(a) 所示,F(xiàn)PN 特征融合結(jié)構(gòu)本質(zhì)上受到單向信息流的限制。從上到下傳輸特征信息,并通過上采樣和低級(jí)別特征融合高級(jí)別特征,以獲得用于預(yù)測的特征圖。YOLOv4 和YOLOv5采用的如圖2(b)所示結(jié)構(gòu),PAN 特征融合結(jié)構(gòu)增加了一個(gè)額外的自下而上的路徑聚合網(wǎng)絡(luò),它將淺層定位信息傳輸?shù)缴顚?,并在多個(gè)尺度上增強(qiáng)定位能力。谷歌大腦團(tuán)隊(duì)提出的BiFPN 特征融合結(jié)構(gòu)如圖2(c)所示。他們將雙向(自下而上和自上而下)路徑視為特征網(wǎng)絡(luò)層,并多次重復(fù)同一層以實(shí)現(xiàn)更高級(jí)別的特征融合。他們在此結(jié)構(gòu)的基礎(chǔ)上提出了名為EfficientDet 的目標(biāo)檢測算法,和同時(shí)期的其他目標(biāo)檢測算法如YOLOv3、MaskRCNN、NAS-FPN 等相比,在準(zhǔn)確率、檢測速度和運(yùn)算量上EfficientDet 均是一枝獨(dú)秀,從圖3 可以看到詳細(xì)的實(shí)驗(yàn)數(shù)據(jù)對(duì)比圖。

        2.2 Neck 部分的改進(jìn)

        隨著YOLO 算法的發(fā)展,EfficientDet 算法的性能已經(jīng)比不上YOLOv4 和YOLOv5,但是它提出的BiFPN 特征融合結(jié)構(gòu)卻值得我們參考,所以我們將BiFPN 特征融合結(jié)構(gòu)融入到Y(jié)OLOv5 算法,改進(jìn)后的YOLOv5 結(jié)構(gòu)中的Neck 層的網(wǎng)絡(luò)結(jié)構(gòu)如圖5 所示。

        YOLOv5 中的PANet 通過自頂向下和自底向上的路徑聚合實(shí)現(xiàn)了較好的多尺度特征融合結(jié)果, 但計(jì)算量較大,且自底向上特征融合階段的輸入特征中并沒有主干網(wǎng)絡(luò)生成的原始輸出特征,如圖4 所示。BiFPN 采用跨連接去除PANet 中對(duì)特征融合貢獻(xiàn)度較小的節(jié)點(diǎn),在同一尺度的輸入節(jié)點(diǎn)和輸出節(jié)點(diǎn)間增加一個(gè)跳躍連接,在不增加較多成本的同時(shí),融合了更多的特征。在同一特征尺度上,把每一個(gè)雙向路徑看作一個(gè)特征網(wǎng)絡(luò)層, 并多次反復(fù)利用同一層,以實(shí)現(xiàn)更高層次的特征融合。

        算法改進(jìn)后,PAN 結(jié)構(gòu)每個(gè)結(jié)點(diǎn)的輸入邊都有一條是來自主干特征提取網(wǎng)絡(luò)部分的原始特征層,訓(xùn)練過程有了原始特征信息的持續(xù)參與,就可以有效避免訓(xùn)練學(xué)習(xí)過程偏離人們的期望,特征融合也更加合理有效,從而使得檢測精度有所提升。

        3 實(shí)驗(yàn)與結(jié)果分析

        3.1 實(shí)驗(yàn)環(huán)境

        為了驗(yàn)證YOLOv5Face算法在人臉檢測和識(shí)別中的效果,本次實(shí)驗(yàn)在Ubuntu16.04 操作系統(tǒng)下完成軟件平臺(tái)搭建和實(shí)驗(yàn),GPU選用NVIDIAGeForceGTX1660Ti ,軟件工具:prcharm2022.1社區(qū)版、Anaconda3、python3.7、Pytorch1.11.0、tensorflow-gpu1.8.1、cuda10.2。

        3.2 實(shí)驗(yàn)數(shù)據(jù)集

        本文的實(shí)驗(yàn)研究數(shù)據(jù)選用了WiderFace 的公開人臉數(shù)據(jù)集,其中包含了393703 個(gè)人臉圖像,為了更好的檢測識(shí)別功能,有利于對(duì)模型準(zhǔn)確率的檢測,其數(shù)據(jù)集中的所有圖像均具備明顯的差別。本次實(shí)驗(yàn)選用的WiderFace 的公開人臉數(shù)據(jù)集由61 個(gè)事件進(jìn)行類別劃分,其中每組事件選取其中80% 圖像為訓(xùn)練集,剩余20% 為測試集。算法網(wǎng)絡(luò)進(jìn)行了30 次迭代訓(xùn)練,為了加快訓(xùn)練速度并防止過擬合,初始學(xué)習(xí)率設(shè)置為0.001,學(xué)習(xí)率衰減系數(shù)設(shè)置為0.0001,權(quán)值衰減系數(shù)設(shè)置為0.0005。

        3.3 實(shí)驗(yàn)評(píng)判標(biāo)準(zhǔn)

        在目標(biāo)檢測當(dāng)中,通常使用精確率(precision)、召回率(recall)、PR 曲線、平均精度(average precision,AP)和多個(gè)類平均精度(mean average precision,mAP)來作為評(píng)價(jià)指標(biāo),平均精度與精確率和召回率有關(guān)。式⑴為精確率公式,式⑵為召回率計(jì)算公式。

        其中,TP 代表被正確檢測出來的目標(biāo)數(shù)量;FP 代表檢測錯(cuò)誤的目標(biāo)數(shù)。TP 和FP 作為分母說明準(zhǔn)確度在主觀上評(píng)判預(yù)測的效果好壞。FN 則代表未被檢測出來的目標(biāo)數(shù)。TP 和FN 作為分母說明召回率在客觀程度評(píng)判預(yù)測效果好壞[9]。Precision 代表預(yù)測正確的正樣本個(gè)數(shù)與預(yù)測為正樣本個(gè)數(shù)的比值,Recall 則代表獲得判定樣本占總樣本數(shù)的比重。

        3.4 實(shí)驗(yàn)結(jié)果與分析

        本文首先使用改進(jìn)前的YOLOv5 對(duì)WiderFace 數(shù)據(jù)集的訓(xùn)練集和驗(yàn)證集上進(jìn)行30 個(gè)迭代周期的訓(xùn)練和驗(yàn)證,訓(xùn)練結(jié)果曲線圖中可見,其中橫向坐標(biāo)的迭代次數(shù)為30,則表示其中有30 個(gè)訓(xùn)練迭代周期,縱坐標(biāo)其中Box 是BoundingBox 的GIoU 損失函數(shù)均值,值越小邊界框就越準(zhǔn);Precision 代表分類器所衡量的正類;Recall 則是正類中被正確預(yù)測的正確率;Objectness是目標(biāo)檢測loss 均值,越小代表目標(biāo)檢測的正確率越高。一般主要觀察Recall 和Precision 的波動(dòng)情況判斷網(wǎng)絡(luò)的訓(xùn)練效果,通過改進(jìn)后與改進(jìn)前的Recall 和Precision 的數(shù)值通過圖6 與圖7 對(duì)比,可知改進(jìn)后檢測準(zhǔn)確度更高,網(wǎng)絡(luò)的訓(xùn)練效果更好。圖8 與圖9 是WiderFace 數(shù)據(jù)集的訓(xùn)練結(jié)果對(duì)比。

        為了驗(yàn)證Neck部分改進(jìn)的有效性,將原始YOLOv5算法中的FPN+PAN 結(jié)構(gòu)改為本文提出的權(quán)重的BiFPN 結(jié)構(gòu),其余部分保持不變,然后將其與原始YOLOv5 算法在WiderFace 數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn)對(duì)比,實(shí)驗(yàn)結(jié)果統(tǒng)計(jì)如表1 所示。

        基于上述圖9 中可以看出,通過改進(jìn)Neck 部分,使得算法在少量增加計(jì)算量和參數(shù)量的情況下,YOLOv5 訓(xùn)練算法的人臉識(shí)別精準(zhǔn)度達(dá)到91.2%,比改進(jìn)前增加1.2 個(gè)百分點(diǎn),召回率達(dá)到83.5%,比改進(jìn)前增加0.9 個(gè)百分點(diǎn),檢測速度也有所加快,所進(jìn)行的訓(xùn)練集試驗(yàn)中均可實(shí)現(xiàn)目標(biāo)的有效識(shí)別,說明該改進(jìn)在一定程度上加強(qiáng)了Neck 部分的特征融合,證明了該改進(jìn)方法的有效性。

        4 結(jié)束語

        本文通過改進(jìn)YOLOv5 的Neck 部分網(wǎng)絡(luò)結(jié)構(gòu),將BiFPN 特征融合結(jié)構(gòu)引入YOLOv5 算法,采用使PAN結(jié)構(gòu)每個(gè)結(jié)點(diǎn)的輸入邊都有一條是來自主干特征提取網(wǎng)絡(luò)部分的原始特征層,訓(xùn)練過程有了原始特征信息的持續(xù)參與特征融合也更加合理有效,從而使得檢測精度有所提升?;谖闹械膶?shí)驗(yàn)檢測分析結(jié)果來看,改進(jìn)后的YOLOv5 能夠增強(qiáng)小尺度人臉的快速精準(zhǔn)識(shí)別的準(zhǔn)確度,也因此判定在司機(jī)疲勞檢測中該算法具有極高的可行性。后續(xù)將結(jié)合車載攝像頭進(jìn)行人臉疲勞檢測,更精確的識(shí)別人臉面部器官的變化來實(shí)現(xiàn)對(duì)列車司機(jī)的疲勞監(jiān)控。

        猜你喜歡
        網(wǎng)絡(luò)結(jié)構(gòu)人臉特征
        有特點(diǎn)的人臉
        如何表達(dá)“特征”
        不忠誠的四個(gè)特征
        三國漫——人臉解鎖
        抓住特征巧觀察
        基于互信息的貝葉斯網(wǎng)絡(luò)結(jié)構(gòu)學(xué)習(xí)
        知識(shí)網(wǎng)絡(luò)結(jié)構(gòu)維對(duì)于創(chuàng)新績效的作用機(jī)制——遠(yuǎn)程創(chuàng)新搜尋的中介作用
        滬港通下A+ H股票網(wǎng)絡(luò)結(jié)構(gòu)演化的實(shí)證分析
        復(fù)雜網(wǎng)絡(luò)結(jié)構(gòu)比對(duì)算法研究進(jìn)展
        馬面部與人臉相似度驚人
        久久青草国产精品一区| 欧美最猛黑人xxxx黑人猛交| 97人人模人人爽人人喊电影| 国产成人一区二区三区| 亚洲精品久久久久高潮| 日本午夜国产精彩| 欧美中出在线| 国产视频一区2区三区| 久久精品国产99国产精品亚洲 | 中文字幕一区二区三区人妻少妇| 久久国产热精品波多野结衣av| 人妻少妇偷人精品久久人妻| 精品国产一区二区三区不卡在线| 亚洲avav天堂av在线网爱情| 天天综合天天色| 亚洲视一区二区三区四区| 熟女人妻中文字幕av| 熟女少妇在线视频播放| 国产成人国产在线观看| 国产一区二区三区探花| 男女肉粗暴进来动态图| 国内a∨免费播放| 国产成人综合久久精品推荐免费| 亚洲国产国语对白在线观看| 欧美人与禽z0zo牲伦交| 又爽又黄禁片视频1000免费| 亚洲午夜久久久精品国产| 一区二区黄色在线观看| 在线高清理伦片a| 岛国大片在线免费观看| 亚洲中文字幕精品久久久| 国模冰莲自慰肥美胞极品人体图| 欧美情侣性视频| 视频精品亚洲一区二区| 男女无遮挡高清性视频| 国产精品久久久久av福利动漫| 成人无码网www在线观看| 国产一区二区av在线免费观看 | 国产av无码专区亚洲草草| 国产一区二区三区成人| 久久青青草原亚洲av无码麻豆|