亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于特征加權(quán)融合的輕量級(jí)人臉識(shí)別方法

        2024-10-19 00:00:00龔汝洪周燕
        物聯(lián)網(wǎng)技術(shù) 2024年10期
        關(guān)鍵詞:人臉識(shí)別特征融合

        摘 要:針對(duì)復(fù)雜自然場(chǎng)景中人臉識(shí)別的難題,提出一種基于特征加權(quán)融合的輕量級(jí)人臉識(shí)別方法,通過(guò)對(duì)MobileFaceNet進(jìn)行改進(jìn),實(shí)現(xiàn)自然場(chǎng)景下的實(shí)時(shí)人臉識(shí)別。SEMobileFaceNet對(duì)原MobileFaceNet的BottleBlock模塊及邊緣損失ArcFace進(jìn)行了優(yōu)化,在BottleBlock模塊中加入了SE,利用通道注意力機(jī)制對(duì)不同通道的特征進(jìn)行加權(quán)融合,提高對(duì)關(guān)鍵特征的利用。對(duì)邊緣損失ArcFace的改進(jìn)在于將角度裕量改為動(dòng)態(tài)調(diào)整,根據(jù)梯度值的大小忽略或裁剪部分梯度。改進(jìn)后的SEMobileFaceNet在自然場(chǎng)景人臉識(shí)別中準(zhǔn)確率和召回率更高,泛化能力更好,能夠有效完成復(fù)雜環(huán)境中的人臉識(shí)別。

        關(guān)鍵詞:特征加權(quán)融合;輕量級(jí)人臉識(shí)別;數(shù)據(jù)預(yù)處理; SEMobileFaceNet;BottleBlock模塊;邊緣損失ArcFace

        中圖分類(lèi)號(hào):TP391.4 文獻(xiàn)標(biāo)識(shí)碼:A 文章編號(hào):2095-1302(2024)10-000-03

        0 引 言

        近年來(lái),隨著互聯(lián)網(wǎng)技術(shù)的發(fā)展和計(jì)算能力的提升,人臉識(shí)別技術(shù)被廣泛應(yīng)用于日常生活以及安全領(lǐng)域,為人們提供了一種高效、準(zhǔn)確和便捷的身份識(shí)別和驗(yàn)證方式。然而,由于硬件、信號(hào)傳輸、姿態(tài)表情、光照強(qiáng)度、透視失真、遮擋等干擾因素影響,使自然場(chǎng)景下人臉識(shí)別的難度劇增。隨著深度神經(jīng)網(wǎng)絡(luò)的快速發(fā)展,有學(xué)者將深度神經(jīng)網(wǎng)絡(luò)作為特征提取器應(yīng)用到自然場(chǎng)景中的人臉識(shí)別領(lǐng)域,并且取得了較好的效果。然而,人臉識(shí)別模型往往是對(duì)人臉數(shù)據(jù)圖片的全圖進(jìn)行特征提取,而圖片中的背景會(huì)對(duì)識(shí)別精度造成一定影響;同時(shí)深度學(xué)習(xí)需要大量的標(biāo)注數(shù)據(jù)進(jìn)行訓(xùn)練,而收集的大規(guī)模人臉數(shù)據(jù)集的數(shù)據(jù)質(zhì)量往往難以保證,其中的錯(cuò)誤數(shù)據(jù)不僅會(huì)導(dǎo)致人臉識(shí)別模型在訓(xùn)練過(guò)程中出現(xiàn)振蕩,也會(huì)對(duì)人臉識(shí)別模型的識(shí)別精度造成影響;當(dāng)人臉數(shù)據(jù)集中包含大量錯(cuò)誤數(shù)據(jù)時(shí),甚至有可能導(dǎo)致人臉識(shí)別訓(xùn)練失敗。

        針對(duì)現(xiàn)有的MobileFaceNet特點(diǎn)[1-4],考慮到錯(cuò)誤數(shù)據(jù)對(duì)人臉識(shí)別模型的訓(xùn)練存在較大影響,加上自然場(chǎng)景中由于環(huán)境復(fù)雜導(dǎo)致人臉識(shí)別困難等問(wèn)題,提出了一種基于特征加權(quán)融合的輕量級(jí)人臉識(shí)別方法。該方法對(duì)MobileFaceNet進(jìn)行了改進(jìn),改進(jìn)后的SEMobileFaceNet在自然場(chǎng)景下的人臉識(shí)別準(zhǔn)確率和召回率更高,泛化能力更好,能夠有效解決復(fù)雜環(huán)境中的人臉識(shí)別問(wèn)題。通過(guò)訓(xùn)練可以不斷優(yōu)化網(wǎng)絡(luò),使訓(xùn)練過(guò)程更為高效穩(wěn)定,從而提高網(wǎng)絡(luò)的識(shí)別性能[5]。

        1 系統(tǒng)構(gòu)成

        輕量級(jí)人臉識(shí)別系統(tǒng)的模塊構(gòu)成如圖1所示。

        數(shù)據(jù)預(yù)處理模塊用于收集人臉數(shù)據(jù),并對(duì)人臉數(shù)據(jù)進(jìn)行預(yù)處理,包括對(duì)人臉圖像數(shù)據(jù)進(jìn)行隨機(jī)水平翻轉(zhuǎn)、圖像正則化以及隨機(jī)飽和度色調(diào)變化,將增強(qiáng)后的圖像通過(guò)裁剪和縮放的方式進(jìn)行調(diào)整。通過(guò)該數(shù)據(jù)增強(qiáng)方式,能夠有效提高SEMobileFaceNet的性能,且對(duì)自然場(chǎng)景下的人臉識(shí)別也具有更好的魯棒性和有效性[6]。

        人臉識(shí)別模塊基于SEMobileFaceNet實(shí)現(xiàn)自然場(chǎng)景下的實(shí)時(shí)人臉識(shí)別。首先將需要識(shí)別的人臉圖像輸入到訓(xùn)練好的SEMobileFaceNet中,得到人臉特征,將人臉特征和用戶信息存入人臉數(shù)據(jù)庫(kù)中。在使用時(shí),將設(shè)備抓拍到的人臉圖像輸入到SEMobileFaceNet中,得到實(shí)時(shí)人臉特征,將實(shí)時(shí)人臉特征與人臉數(shù)據(jù)庫(kù)中的人臉特征進(jìn)行余弦相似度比對(duì),依據(jù)比對(duì)結(jié)果,判斷抓拍圖像是否為人臉數(shù)據(jù)庫(kù)中的用戶[7]。

        2 SEMobileFaceNet

        改進(jìn)MobileFaceNet(SEMobileFaceNet)的流程如圖2所示。其中,C方塊為卷積操作,Cdw為深度可分離卷積操作,Cd方塊為下采樣卷積操作。

        SEMobileFaceNet包含stream模塊、backbone模塊和head模塊。將預(yù)處理后的人臉圖像數(shù)據(jù)輸入到SEMobileFaceNet中,先讀取輸入的圖像信息,經(jīng)過(guò)stream模塊快速下采樣得到前期特征CC2dw,稱(chēng)為SEMobileFaceNet第2層的輸出特征。經(jīng)過(guò)stream模塊得到的前期特征CC2dw會(huì)輸入到backbone模塊,backbone模塊由多個(gè)包含SE的BottleBlock模塊堆疊構(gòu)成。backbone模塊總共有3個(gè)堆疊塊,每個(gè)堆疊塊的最后一層都進(jìn)行2倍下采樣,將特征圖尺寸縮小為原來(lái)的1/2。前期特征CC2dw通過(guò)3個(gè)backbone模塊后得到原始特征CC5。

        3 BottleBlock模塊改進(jìn)流程

        添加了SE的BottleBlock模塊工作流程如圖3所示。其中,Conv_g_block為分組卷積操作,Conv_dw_block為通道卷積操作,Conv_p_block為通道融合卷積操作,AvgPool方塊為平均池化操作,MLP為先壓縮后擴(kuò)張通道數(shù)的雙層卷積操作,為像素對(duì)應(yīng)相乘操作,為像素對(duì)應(yīng)相加操作。

        在帶SE的BottleBlock模塊中,將上一層輸出的特征Ci-1輸入到深度可分離卷積塊,得到輸出特征Ci,深度可分離卷積塊由3個(gè)卷積模塊FC、Fdw、FP構(gòu)成,計(jì)算過(guò)程如式(1)所示:

        前期特征CC2dw經(jīng)過(guò)backbone模塊,得到原始特征信息CC5,將CC5輸入head模塊,得到人臉嵌入特征,經(jīng)過(guò)BatchNormal函數(shù),最后得到輸出的人臉特征C0。

        加入SE可以加強(qiáng)對(duì)關(guān)鍵特征的利用,提高SEMobileFaceNet的精度以及魯棒性。使用改進(jìn)后的ArcFace輔助SEMobileFaceNet進(jìn)行訓(xùn)練,將輸出的人臉特征C0與人臉數(shù)據(jù)中的標(biāo)簽輸入到改進(jìn)后的ArcFace,可以得到SEMobileFaceNet的損失。使用梯度下降算法優(yōu)化SEMobileFaceNet,使SEMobileFaceNet輸出相同人臉I(yè)D的人臉特征距離不斷拉近[8]。

        4 ArcFace改進(jìn)

        通過(guò)改進(jìn)ArcFace,可以提高模型訓(xùn)練過(guò)程中的穩(wěn)定性,同時(shí)通過(guò)丟棄異常數(shù)據(jù),一定程度上可以提高模型的精度。在經(jīng)過(guò)預(yù)設(shè)次數(shù)的初始訓(xùn)練后,在后續(xù)訓(xùn)練過(guò)程中,會(huì)對(duì)訓(xùn)練過(guò)程中產(chǎn)生的大梯度值進(jìn)行裁減或丟棄。

        5 實(shí)現(xiàn)過(guò)程

        將人臉圖像數(shù)據(jù)輸入到SEMobileFaceNet中,對(duì)SEMobileFaceNet進(jìn)行訓(xùn)練,得到訓(xùn)練好的SEMobileFaceNet。人臉圖像數(shù)據(jù)在經(jīng)過(guò)SE前,會(huì)先經(jīng)過(guò)SEMobileFaceNet中的其他前置模塊轉(zhuǎn)變?yōu)橹虚g特征,中間特征進(jìn)入SE后,會(huì)依次進(jìn)入自適應(yīng)平均池化及卷積模塊,得到通道權(quán)重,將通道權(quán)重乘以輸入的中間特征,并與輸入的中間特征相加,得到加權(quán)融合后的人臉特征[9]。將人臉特征信息與人臉數(shù)據(jù)中的標(biāo)簽經(jīng)過(guò)改進(jìn)后的ArcFace,得到SEMobileFaceNet的損失。依據(jù)SEMobileFaceNet的損失計(jì)算出SEMobileFaceNet的梯度,使用梯度下降算法對(duì)SEMobileFaceNet權(quán)重進(jìn)行更新。改進(jìn)的ArcFace的角度裕量從動(dòng)態(tài)正態(tài)分布中進(jìn)行隨機(jī)采樣,其均值會(huì)隨著訓(xùn)練次數(shù)的增加,直到達(dá)到最后的目標(biāo)值。經(jīng)過(guò)一定次數(shù)的初始訓(xùn)練后,對(duì)訓(xùn)練過(guò)程中產(chǎn)生的較大梯度值進(jìn)行裁減或丟棄。

        將需要識(shí)別的人臉圖像輸入到訓(xùn)練好的SEMobileFaceNet中,得到用戶的人臉特征。將人臉特征和用戶信息存入人臉數(shù)據(jù)庫(kù)中,完成人臉注冊(cè)。人臉注冊(cè)時(shí),每個(gè)用戶的人臉特征及人臉信息中的ID信息唯一且相互對(duì)應(yīng)。在進(jìn)行人臉比對(duì)時(shí),會(huì)設(shè)定一個(gè)相似度閾值,當(dāng)抓拍到的人臉圖像的實(shí)時(shí)特征與人臉數(shù)據(jù)庫(kù)中所有人臉特征相似度都低于閾值時(shí),認(rèn)定該抓拍的人臉圖像為陌生人。當(dāng)抓拍到的人臉圖像的實(shí)時(shí)特征與人臉數(shù)據(jù)庫(kù)中的人臉特征存在一個(gè)或多個(gè)相似度大于閾值時(shí),取相似度最高的人臉特征作為本次抓拍人臉的識(shí)別結(jié)果[10]。

        6 結(jié) 語(yǔ)

        針對(duì)自然場(chǎng)景人臉識(shí)別中的難點(diǎn),本文提出基于特征加權(quán)融合的輕量級(jí)人臉識(shí)別方法,在MobileFaceNet的基礎(chǔ)上進(jìn)行改進(jìn),改進(jìn)后的MobileFaceNet在自然場(chǎng)景下的人臉識(shí)別準(zhǔn)確率和召回率更高,泛化能力也更好。本方法能夠有效利用圖像中的關(guān)鍵特征減少漏檢、誤檢的情況,有效提高復(fù)雜環(huán)境下人臉識(shí)別的準(zhǔn)確度。

        注:本文通訊作者為龔汝洪。

        參考文獻(xiàn)

        [1]盧嫚,鄧浩敏.一種基于MTCNN和MobileFaceNet人臉檢測(cè)及識(shí)別方法[J].自動(dòng)化與儀表,2023,38(2):76-80.

        [2]李燕蘋(píng),李一凡.基于MobileFaceNet改進(jìn)的人臉識(shí)別課堂簽到系統(tǒng)[J].工業(yè)控制計(jì)算機(jī),2022,35(11):107-108.

        [3]胡佳榮,孟文,趙晶晶.基于改進(jìn)MobileFaceNet的人臉識(shí)別方法[J].半導(dǎo)體光電,2022,43(1): 164-168.

        [4]張子昊,王蓉.基于MobileFaceNet網(wǎng)絡(luò)改進(jìn)的人臉識(shí)別方法[J].北京航空航天大學(xué)學(xué)報(bào),2020,46(9):1756-1762.

        [5]薛繼偉,孫宇銳,辛紀(jì)元.基于ArcFace算法的人臉識(shí)別應(yīng)用研究[J]. 電子設(shè)計(jì)工程,2022,30(11):168-172.

        [6]洪宇軒.基于ArcFace框架的課堂環(huán)境下人臉識(shí)別算法設(shè)計(jì)[J].計(jì)算機(jī)技術(shù)與發(fā)展,2021,31(8):57-62.

        [7]胡月文,李丹.基于ArcFace損失函數(shù)的監(jiān)護(hù)安全人臉識(shí)別[J].現(xiàn)代信息科技,2020,4(17):132-135.

        [8]賈偉,楊勝和,田萌萌,等.基于ArcFace的自然場(chǎng)景人臉識(shí)別系統(tǒng)設(shè)計(jì)及改進(jìn)[J].物聯(lián)網(wǎng)技術(shù),2020,10(5):9-11.

        [9]孫勁光,吳明巖.基于多尺度加權(quán)特征融合的行人重識(shí)別方法研究[J].信號(hào)處理,2022,38(10):2201-2210.

        [10]孫勁光,孟凡宇.基于深度神經(jīng)網(wǎng)絡(luò)的特征加權(quán)融合人臉識(shí)別方法[J].計(jì)算機(jī)應(yīng)用,2016,36(2):437-443.

        猜你喜歡
        人臉識(shí)別特征融合
        人臉識(shí)別 等
        村企黨建聯(lián)建融合共贏
        融合菜
        從創(chuàng)新出發(fā),與高考數(shù)列相遇、融合
        《融合》
        揭開(kāi)人臉識(shí)別的神秘面紗
        如何表達(dá)“特征”
        不忠誠(chéng)的四個(gè)特征
        抓住特征巧觀察
        基于類(lèi)獨(dú)立核稀疏表示的魯棒人臉識(shí)別
        亚洲乱码无人区卡1卡2卡3| 国产成人av 综合 亚洲| 中文字幕在线亚洲一区二区三区| 欧美成人高清手机在线视频| 日韩精品极品免费在线视频| 亚洲精品国产精品乱码视色| 丁香五月亚洲综合在线| 曝光无码有码视频专区| 色窝窝无码一区二区三区2022| 一区二区三区国产大片| 激情五月婷婷一区二区| 精品国产乱码久久久久久影片| 久草午夜视频| 熟女人妻一区二区中文字幕| 国产精品18久久久白浆| 东京无码熟妇人妻av在线网址| 亚洲av永久无码精品秋霞电影影院| 综合久久久久6亚洲综合| 亚洲熟妇一区二区蜜桃在线观看 | 欧美老妇人与禽交| 人妻少妇中文字幕久久69堂| 亚洲av产在线精品亚洲第三站| 品色堂永远免费| 少妇无码太爽了不卡视频在线看| 国产成人亚洲综合无码精品| 亚洲国产精品久久久久婷婷软件| 不卡视频在线观看网站| 无套无码孕妇啪啪| 人妻少妇精品专区性色av| 久久亚洲日本免费高清一区| 久久婷婷综合色一区二区| 亚洲综合极品美女av| 亚洲av永久无码精品网站在线观看| 双腿张开被9个黑人调教影片| 国产午夜激情视频自拍| 亚洲成熟中老妇女视频 | 亚洲熟妇av一区二区在线观看 | 国产剧情麻豆女教师在线观看 | 国产偷国产偷亚洲高清| 欧洲女人与公拘交酡视频| 日韩精品无码一区二区三区免费|