亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于SSD深度學(xué)習(xí)算法的人臉識(shí)別系統(tǒng)設(shè)計(jì)

        2024-12-06 00:00:00駱又麟
        關(guān)鍵詞:人臉識(shí)別深度學(xué)習(xí)

        摘 要:針對(duì)傳統(tǒng)人臉識(shí)別存在識(shí)別速度慢、準(zhǔn)確度低等問(wèn)題,本文設(shè)計(jì)了一種基于SSD深度學(xué)習(xí)算法的自動(dòng)化人臉識(shí)別系統(tǒng)。首先,該系統(tǒng)采用基于深度學(xué)習(xí)算法的人臉識(shí)別方法檢測(cè)人臉圖像,并對(duì)關(guān)鍵點(diǎn)進(jìn)行預(yù)測(cè)。其次,利用SSD模型提取特征信息后構(gòu)建本地特征庫(kù),完成人臉識(shí)別。最后,比較待檢測(cè)人臉圖像向量與本地特征向量間的歐氏距離,判斷結(jié)果并輸出。試驗(yàn)表明,SSD模型在檢測(cè)與識(shí)別上具有較好表現(xiàn),系統(tǒng)的識(shí)別速度超過(guò)25f/s,當(dāng)特征向量間的歐氏距離設(shè)定為0.5時(shí),識(shí)別準(zhǔn)確率高達(dá)99.3%。本文設(shè)計(jì)系統(tǒng)能夠提高人臉識(shí)別的魯棒性,具有較高的實(shí)時(shí)性與識(shí)別精度。

        關(guān)鍵詞:SSD模型;深度學(xué)習(xí);人臉識(shí)別;特征向量

        中圖分類號(hào):TP 39" " " 文獻(xiàn)標(biāo)志碼:A

        人臉識(shí)別是利用攝像機(jī)收集人臉圖像,進(jìn)而驗(yàn)證身份信息的技術(shù)。與生物識(shí)別相比,人臉識(shí)別能夠通過(guò)視頻設(shè)備更直觀地識(shí)別人員信息,具有高效、易推廣等優(yōu)勢(shì)[1]。目前的人臉識(shí)別研究主要集中在面部特征檢測(cè),例如王傳傳等將人臉圖像進(jìn)行歸一化處理,通過(guò)訓(xùn)練模型取得了良好的識(shí)別效果[2];劉敏將人臉圖片作為輸入信息計(jì)算3次樣條權(quán)函數(shù),經(jīng)試驗(yàn)證明系統(tǒng)的識(shí)別率較高[3]。綜上所述,這些方法易受內(nèi)、外因素干擾,算法魯棒性較低。傳統(tǒng)識(shí)別算法在發(fā)展中已逐步被深度學(xué)習(xí)算法代替,深度學(xué)習(xí)算法能夠利用數(shù)據(jù)集進(jìn)行特征訓(xùn)練,使模型具有較強(qiáng)的魯棒性[4]。本文在利用注意力機(jī)制改進(jìn)歐氏距離函數(shù)的基礎(chǔ)上,設(shè)計(jì)了一種基于SSD深度學(xué)習(xí)算法的自動(dòng)化人臉識(shí)別系統(tǒng),首先,利用深度學(xué)習(xí)算法檢測(cè)人臉圖像,并對(duì)關(guān)鍵點(diǎn)進(jìn)行預(yù)測(cè)。其次,利用SSD模型提取特征信息后構(gòu)建本地特征庫(kù),完成人臉識(shí)別。最后,比較待檢測(cè)人臉圖像向量與本地特征向量間的歐氏距離,判斷結(jié)果并輸出。試驗(yàn)結(jié)果可知,該系統(tǒng)在滿足識(shí)別效率的同時(shí)也具有較高的識(shí)別精度,適應(yīng)性更廣泛。

        1 基礎(chǔ)工作

        1.1 算法原理

        深度學(xué)習(xí)算法是將人臉圖像映射至歐氏空間,設(shè)定最優(yōu)閾值,計(jì)算不同人臉特征向量間的歐氏距離。如果歐氏距離低于設(shè)定閾值,就判定為同類;如果歐氏距離高于設(shè)定閾值,就判定為不同類。在框架中,根據(jù)既定尺寸輸入待識(shí)別樣本圖像,將其輸送至深度學(xué)習(xí)網(wǎng)絡(luò)中,提取輸入圖像的特征向量。其中,特征向量具有多維屬性,進(jìn)行歸一處理后,通過(guò)映射得到特征向量均值,待二元損失函數(shù)回歸后得出最終的識(shí)別結(jié)果。

        1.2 模型構(gòu)建

        深度學(xué)習(xí)算法是從一端到另一端的目標(biāo)檢測(cè)算法。與雙階段的檢測(cè)模型相比,SSD模型不需要生成先驗(yàn)候選框,能夠提升檢測(cè)準(zhǔn)確率。為強(qiáng)化泛化能力,SSD模型將Inception-v4作為骨干網(wǎng)絡(luò)塊進(jìn)行人臉特征提取,并將連接層轉(zhuǎn)變?yōu)榫矸e層,可在保證圖像檢測(cè)準(zhǔn)確的過(guò)程中逐步改進(jìn)漏檢與誤檢問(wèn)題。SSD模型構(gòu)建流程如圖1所示。

        SSD模型采用方向梯度直方圖特征,使預(yù)測(cè)的人臉部位回歸現(xiàn)實(shí),主要步驟如下:決策樹(shù)子節(jié)點(diǎn)存儲(chǔ)殘差回歸量,將輸入與殘差回顧量相加可得預(yù)測(cè)人臉形狀,如公式(1)所示。

        q=(k1,k2,……,kn)

        q(z+1)=qz+ε(epsilon)z (1)

        式中:q表示n個(gè)關(guān)鍵點(diǎn)坐標(biāo)的人臉形狀集合;kt表示圖像k的第t個(gè)關(guān)鍵點(diǎn)坐標(biāo)(t=1,2……,n);qz表示第z次預(yù)測(cè)出的人臉形狀;ε(epsilon)z表示第z次測(cè)算出的殘差回歸量。

        1.3 函數(shù)的改進(jìn)

        歐氏距離函數(shù)是深度學(xué)習(xí)的核心構(gòu)成,應(yīng)用時(shí)一般通過(guò)在數(shù)據(jù)集上構(gòu)建合適的距離來(lái)解決相應(yīng)問(wèn)題。在初始深度學(xué)習(xí)網(wǎng)絡(luò)中,模型通過(guò)深度學(xué)習(xí)網(wǎng)絡(luò)提取的特征距離來(lái)判定相似度。設(shè)輸入圖像樣本為x1、x2、y1和y2,通過(guò)歐氏距離求解距離|X|,如公式(2)所示。

        (2)

        從公式(2)可看出,歐氏距離表示各元素差的平方和,對(duì)奇異值來(lái)說(shuō)沒(méi)有魯棒性。同時(shí),歐氏距離不同維度尺度存在差異,進(jìn)行相似人臉圖像訓(xùn)練時(shí)可能會(huì)出現(xiàn)識(shí)別誤差。為了解決該問(wèn)題,部分學(xué)者應(yīng)用馬氏距離對(duì)歐氏距離進(jìn)行修正,其本質(zhì)是將樣本點(diǎn)線性轉(zhuǎn)換后計(jì)算距離,如公式(3)所示。

        (3)

        式中:ω表示正定矩陣,對(duì)輸入樣本點(diǎn)進(jìn)行線性轉(zhuǎn)換。

        替換歐氏距離函數(shù)后,計(jì)算度量距離中所需的參數(shù)γ,參數(shù)結(jié)果通過(guò)最小化函數(shù)獲得。設(shè)l(f)為損失函數(shù),將對(duì)比損失作為損失函數(shù),原因是深度學(xué)習(xí)網(wǎng)絡(luò)無(wú)法執(zhí)行分類任務(wù),但能執(zhí)行不同樣本間的相似學(xué)習(xí)任務(wù),如公式(4)所示。

        (4)

        當(dāng)模型學(xué)習(xí)完不同樣本間的相似性后,在深度學(xué)習(xí)網(wǎng)絡(luò)結(jié)構(gòu)中添加分類器進(jìn)行分類,如公式(5)所示。

        (5)

        在公式(5)中,m為1時(shí)表示同類別,反之為不同類別。分類器設(shè)計(jì)好后,根據(jù)深度學(xué)習(xí)網(wǎng)絡(luò)特有圖像進(jìn)行圖像訓(xùn)練。設(shè)數(shù)據(jù)集中有a類樣本,各類中有b個(gè)樣本,根據(jù)傳統(tǒng)訓(xùn)練模式,模型需要a×b個(gè)數(shù)據(jù)。使用深度學(xué)習(xí)網(wǎng)絡(luò)時(shí),可自由定義數(shù)據(jù)點(diǎn),該數(shù)據(jù)點(diǎn)就是深度學(xué)習(xí)網(wǎng)絡(luò)需要訓(xùn)練的數(shù)據(jù)數(shù)量,其中半數(shù)為同類別,其余則為不同類別。按照排序組合,可將最大樣本數(shù)s表示為公式(6)。

        (6)

        由公式(6)可知,在完整的人臉圖像數(shù)據(jù)庫(kù)中,利用較少的訓(xùn)練樣本可得一定數(shù)量的訓(xùn)練數(shù)據(jù),與生成式的對(duì)抗網(wǎng)絡(luò)生成的圖像相比,深度學(xué)習(xí)網(wǎng)絡(luò)降低了噪聲干擾,進(jìn)而增加了模型的魯棒性。

        2 系統(tǒng)設(shè)計(jì)

        2.1 整體框架

        系統(tǒng)實(shí)現(xiàn)框架如圖2所示,包括人臉信息收集與人臉圖像識(shí)別2個(gè)模塊。首先,利用攝像機(jī)收集人員信息,通過(guò)信息提取與特征提取構(gòu)建人臉信息特征庫(kù)。其次,攝像機(jī)收集人臉圖像,并根據(jù)所得圖像信息提取人臉特征,從而獲得待識(shí)別特征。最后,將這些待檢測(cè)特征與特征庫(kù)信息進(jìn)行比較,并輸出最終結(jié)果。

        2.2 信息收集

        信息收集的作用是收集待識(shí)別人臉特征,并將其添加至本地特征庫(kù)中。信息收集流程如圖3所示。1)收集整體圖像。調(diào)用Oracle深度學(xué)習(xí)數(shù)據(jù)庫(kù)中的歐氏距離函數(shù),使用攝像機(jī)讀取人員視頻流,從中截取部分視頻幀,構(gòu)成數(shù)據(jù)集,并標(biāo)記好各類信息名稱。2)提取圖像。使用SSD模型檢測(cè)已標(biāo)記的圖像信息,利用回歸分析法分析圖像信息后將數(shù)據(jù)傳輸?shù)綀D像庫(kù)。3)提取特征。根據(jù)圖像庫(kù)存儲(chǔ)信息,利用SSD模型提取特征向量,不同圖像均可通過(guò)深度學(xué)習(xí)網(wǎng)絡(luò)提取出多維特征向量。4)搭建特征庫(kù)。存儲(chǔ)提取的特征向量和對(duì)應(yīng)信息,將存儲(chǔ)格式設(shè)置為T(mén)XT,用字符串記錄標(biāo)簽并存儲(chǔ)特征向量。

        2.3 人臉識(shí)別

        人臉識(shí)別的作用是完成人臉識(shí)別,即通過(guò)攝像機(jī)獲取待識(shí)別人臉信息。人臉識(shí)別流程如圖4所示。1)載入圖像特征庫(kù)。信息收集模塊與特征庫(kù)相連,將上述存儲(chǔ)的特征向量及其對(duì)應(yīng)信息作為識(shí)別結(jié)果進(jìn)行輸出,其中特征向量通過(guò)矩陣載入,對(duì)應(yīng)信息以Json載入。2)向量匹配。合理匹配提取出的特征向量和特征庫(kù)向量,從而獲取待檢測(cè)信息,并通過(guò)測(cè)算歐氏距離判斷匹配是否成功。3)輸出結(jié)果。比較待檢測(cè)特征向量、本地特征向量的歐氏距離|X|和已設(shè)閾值,如果已設(shè)閾值低于|X|,可知匹配失??;如果已設(shè)閾值高于|X|,可知匹配成功。最后輸出與特征向量對(duì)應(yīng)的信息。

        3 系統(tǒng)試驗(yàn)

        3.1 試驗(yàn)配置

        為了驗(yàn)證系統(tǒng)性能,本文進(jìn)行了人臉識(shí)別試驗(yàn)。試驗(yàn)數(shù)據(jù)來(lái)自常用的WiderFace數(shù)據(jù)集。該數(shù)據(jù)集包括大量不同種類、尺寸、姿態(tài)和遮擋程度的人臉圖像,因此被廣泛應(yīng)用于人臉檢測(cè)算法的訓(xùn)練和性能評(píng)估。本試驗(yàn)運(yùn)行軟硬件環(huán)境見(jiàn)表1。

        3.2 模型訓(xùn)練

        SSD模型采用梯度下降進(jìn)行相應(yīng)訓(xùn)練,設(shè)定學(xué)習(xí)率初始值為0.01,當(dāng)多次驗(yàn)證模型準(zhǔn)確率迭代次數(shù)不出現(xiàn)變化時(shí),學(xué)習(xí)率就會(huì)降低50%。因?yàn)閿?shù)據(jù)樣本量較大,所以選取數(shù)據(jù)集中的一部分進(jìn)行試驗(yàn),其余數(shù)據(jù)用于訓(xùn)練模型。在訓(xùn)練過(guò)程中,當(dāng)?shù)螖?shù)為120時(shí),模型準(zhǔn)確率開(kāi)始逐步穩(wěn)定,同時(shí)相應(yīng)損失率為1.3%。為驗(yàn)證檢測(cè)準(zhǔn)確率的上限,將最大迭代次數(shù)設(shè)置為210。當(dāng)?shù)螖?shù)達(dá)到150時(shí),準(zhǔn)確率已無(wú)較大變化,因此綜合訓(xùn)練時(shí)長(zhǎng)與損耗率等因素已無(wú)較多參考價(jià)值,不再進(jìn)一步增加迭代次數(shù)。強(qiáng)化前、后SSD模型訓(xùn)練的準(zhǔn)確率與損失率如圖5所示。從試驗(yàn)結(jié)果可知,強(qiáng)化前的準(zhǔn)確率為95.3%左右,強(qiáng)化后的準(zhǔn)確率高達(dá)98.5%,相應(yīng)的訓(xùn)練損失率可以忽略不計(jì)。

        3.3 速度檢測(cè)

        基于SSD深度學(xué)習(xí)算法的自動(dòng)化人臉識(shí)別系統(tǒng)主要利用ISV-V02M013S-N高級(jí)視頻分析攝像機(jī)對(duì)識(shí)別結(jié)果進(jìn)行速度檢測(cè)。進(jìn)行系統(tǒng)試驗(yàn)后可知,本系統(tǒng)的識(shí)別速度均值>25f/s,已遠(yuǎn)超所需的23f/s標(biāo)準(zhǔn),因此本系統(tǒng)在人臉識(shí)別速度上符合現(xiàn)實(shí)工作需要。

        3.4 精度檢測(cè)

        為進(jìn)一步驗(yàn)證系統(tǒng)識(shí)別精度,從數(shù)據(jù)集中隨機(jī)抽取300人(600張圖像)進(jìn)行檢測(cè)。每個(gè)人有2幅圖像,選擇其中一幅作為待檢測(cè)圖像,另一幅放于特征庫(kù)。設(shè)定特征向量間的歐氏距離和閾值,如果閾值小于歐氏距離,可知特征庫(kù)中不存在圖像數(shù)據(jù),反之則需要重新判斷準(zhǔn)確率。精度檢測(cè)具體情況見(jiàn)表2。當(dāng)閾值為0.5時(shí),識(shí)別準(zhǔn)確率最高,為99.5%。由試驗(yàn)可知,本系統(tǒng)在識(shí)別準(zhǔn)確率方面能夠滿足現(xiàn)實(shí)所需。

        4 結(jié)語(yǔ)

        綜上所述,本文在利用注意力機(jī)制改進(jìn)歐氏距離函數(shù)的基礎(chǔ)上,設(shè)計(jì)了一種基于SSD深度學(xué)習(xí)算法的自動(dòng)化人臉識(shí)別系統(tǒng)。在仿真測(cè)試中,SSD模型在檢測(cè)與識(shí)別上具有較好表現(xiàn),系統(tǒng)的識(shí)別速度超過(guò)25f/s。當(dāng)特征向量間的歐氏距離為0.5時(shí),識(shí)別準(zhǔn)確率高達(dá)99.3%,人臉識(shí)別的魯棒性有所提高。該系統(tǒng)具有顯著的識(shí)別效果,能夠應(yīng)用于不同的人臉識(shí)別領(lǐng)域。

        參考文獻(xiàn)

        [1]賀宇桐,盧泓熹.基于單目RGB活體檢測(cè)技術(shù)人臉識(shí)別系統(tǒng)的研究與實(shí)現(xiàn)[J].內(nèi)蒙古科技與經(jīng)濟(jì),2023(24):120-124.

        [2]王傳傳,高婕.基于改進(jìn)FaceNet算法的人臉智能識(shí)別方法[J].工業(yè)控制計(jì)算機(jī),2024,37(2):126-128.

        [3]劉敏.基于樣條權(quán)函數(shù)神經(jīng)網(wǎng)絡(luò)的人臉識(shí)別研究[J].現(xiàn)代信息科技,2024,8(4):109-112.

        [4]焦陽(yáng)陽(yáng),黃潤(rùn)才,萬(wàn)文桐,等.基于圖像融合與深度學(xué)習(xí)的人臉表情識(shí)別[J].傳感器與微系統(tǒng),2024,43(3):148-151.

        猜你喜歡
        人臉識(shí)別深度學(xué)習(xí)
        人臉識(shí)別 等
        揭開(kāi)人臉識(shí)別的神秘面紗
        基于(2D)2PCA-LBP 的人臉識(shí)別方法的研究
        電子制作(2017年17期)2017-12-18 06:40:55
        人臉識(shí)別在高校安全防范中的應(yīng)用
        電子制作(2017年1期)2017-05-17 03:54:46
        有體驗(yàn)的學(xué)習(xí)才是有意義的學(xué)習(xí)
        電子商務(wù)中基于深度學(xué)習(xí)的虛假交易識(shí)別研究
        MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場(chǎng)域建構(gòu)
        大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
        深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
        基于深度卷積網(wǎng)絡(luò)的人臉年齡分析算法與實(shí)現(xiàn)
        軟件工程(2016年8期)2016-10-25 15:47:34
        国产乱子乱人伦电影在线观看| 国产一区二区三区在线蜜桃| 国产精品无码素人福利不卡| 中国a级毛片免费观看| 久久青青草原亚洲AV无码麻豆| 一区二区三区精品婷婷| 丝袜美腿一区二区国产| 亚洲av永久无码精品| 国产精品亚洲一区二区杨幂| 日韩一区二区三区天堂| 中文字幕一区二区人妻秘书| 欧美亚洲色综久久精品国产| 日韩AVAV天堂AV在线| 国产av一区二区三区国产福利 | 亚洲av无码一区二区三区人妖| 久久久伊人影院| av一区二区三区高清在线看 | 97碰碰碰人妻无码视频| 老太脱裤让老头玩ⅹxxxx| 嗯啊 不要 啊啊在线日韩a| 沐浴偷拍一区二区视频| 亚洲色成人www永久在线观看| 免费啪啪视频一区| 久久久亚洲日本精品一区| 亚洲悠悠色综合中文字幕| 无码一区二区三区在线| 亚洲黄色在线看| 亚洲天码一区二区三区| 乱码av麻豆丝袜熟女系列| 人人妻人人澡人人爽精品欧美 | 男人天堂插插综合搜索| 久久99国产精品久久99果冻传媒| 欧美午夜精品久久久久免费视| 区一区一日本高清视频在线观看| 蜜桃一区二区三区视频| 国产精品无码av一区二区三区| 成在线人视频免费视频| 国产成人av三级在线观看韩国| 国产 麻豆 日韩 欧美 久久| 一区二区日韩国产精品| 日韩av一区二区三区在线观看|