亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于SSD與FaceNet的人臉識(shí)別系統(tǒng)設(shè)計(jì)

        2024-05-08 00:00:00李政林吳志運(yùn)熊禹尹希慶
        關(guān)鍵詞:人臉識(shí)別

        摘 要:人臉識(shí)別技術(shù)廣泛應(yīng)用于考勤管理、移動(dòng)支付等智慧建設(shè)中。伴隨著常態(tài)化的口罩干擾,傳統(tǒng)人臉識(shí)別算法已無法滿足實(shí)際應(yīng)用需求,為此,本文利用深度學(xué)習(xí)模型SSD以及FaceNet模型對人臉識(shí)別系統(tǒng)展開設(shè)計(jì)。首先,為消除現(xiàn)有數(shù)據(jù)集中亞洲人臉占比小造成的類內(nèi)間距變化差距不明顯的問題,在CAS-IA Web Face公開數(shù)據(jù)集的基礎(chǔ)上對亞洲人臉數(shù)據(jù)進(jìn)行擴(kuò)充;其次,為解決不同口罩樣式對特征提取的干擾,使用SSD人臉檢測模型與DLIB人臉關(guān)鍵點(diǎn)檢測模型提取人臉關(guān)鍵點(diǎn),并利用人臉關(guān)鍵點(diǎn)與口罩的空間位置關(guān)系,額外隨機(jī)生成不同的口罩人臉,組成混合數(shù)據(jù)集;最后,在混合數(shù)據(jù)集上進(jìn)行模型訓(xùn)練并將訓(xùn)練好的模型移植到人臉識(shí)別系統(tǒng)中,進(jìn)行檢測速度與識(shí)別精度驗(yàn)證。實(shí)驗(yàn)結(jié)果表明,系統(tǒng)的實(shí)時(shí)識(shí)別速度達(dá)20 fps以上,人臉識(shí)別模型準(zhǔn)確率在構(gòu)建的混合數(shù)據(jù)集中達(dá)到97.1%,在隨機(jī)抽取的部分LFW數(shù)據(jù)集驗(yàn)證的準(zhǔn)確率達(dá)99.7%,故而該系統(tǒng)可滿足實(shí)際應(yīng)用需求,在一定程度上提高人臉識(shí)別的魯棒性與準(zhǔn)確性。

        關(guān)鍵詞:類內(nèi)間距;人臉檢測;人臉識(shí)別

        中圖分類號(hào):TP317.4 DOI:10.16375/j.cnki.cn45-1395/t.2024.01.013

        0 引言

        人臉識(shí)別是一種生物特征識(shí)別技術(shù),可通過分析比較人臉圖像特征信息達(dá)到身份鑒別的目的。其憑借便捷、高效以及非接觸等優(yōu)點(diǎn),廣泛應(yīng)用于考勤打卡、刷臉支付、場地進(jìn)出管理等場合[1-2]。受新冠肺炎等呼吸道傳染病的影響,日常佩戴口罩逐漸成為人們出行的習(xí)慣,但豐富的口罩樣式給人臉特征提取帶來了極大的干擾。

        自1965年Bledsoe構(gòu)建了一個(gè)半自動(dòng)人臉識(shí)別系統(tǒng)以來[3],人臉識(shí)別技術(shù)發(fā)展了若干方法:基于幾何特征的方法[4]、基于模版匹配的方法[5]、特征臉Eigenface[6]、子空間的識(shí)別方法Fisherfaces[7]、基于局部特征[8]的Gabor、LBP、HOG,以及基于深度學(xué)習(xí)的DCNN、ResNet[9]、FaceNet[10]等。盡管人臉識(shí)別相關(guān)研究已實(shí)現(xiàn)由最初的傳統(tǒng)的幾何特征算法向卷積神經(jīng)網(wǎng)絡(luò)的高層語義特征信息轉(zhuǎn)變,但實(shí)際的人臉識(shí)別系統(tǒng)在面對難以預(yù)測的環(huán)境時(shí)仍然存在嚴(yán)重的數(shù)據(jù)偏移[11]。究其原因,一方面,人臉結(jié)構(gòu)相似性導(dǎo)致不同個(gè)體之間差異不顯著;另一方面,同一個(gè)體對遮擋、光線以及姿態(tài)等外部干擾因素敏感[12]。

        減少個(gè)體內(nèi)的差異、擴(kuò)大個(gè)體間的差異是人臉識(shí)別的關(guān)鍵,基于此,本文首先在公開數(shù)據(jù)集CASIA Web Face上額外擴(kuò)充亞洲人臉數(shù)據(jù),以解決因FaceNet模型訓(xùn)練數(shù)據(jù)集缺乏亞洲人臉數(shù)據(jù)所造成的類間變化不明顯的問題;其次,為了減少類內(nèi)差距,降低口罩遮擋對人臉識(shí)別的干擾,利用SSD人臉檢測器與DLIB人臉關(guān)鍵點(diǎn)檢測器生成戴口罩的人臉數(shù)據(jù);最終通過FaceNet進(jìn)行模型訓(xùn)練,旨在訓(xùn)練出一個(gè)模型,可以解決因口罩遮擋以及現(xiàn)有公開數(shù)據(jù)集對亞洲人臉不友好造成的識(shí)別準(zhǔn)確率低的問題,進(jìn)而提高人臉識(shí)別系統(tǒng)的魯棒性。

        1 基礎(chǔ)工作

        1.1 人臉識(shí)別系統(tǒng)框架

        人臉識(shí)別,實(shí)際上是一個(gè)一對多的與特征匹配的問題。整個(gè)人臉識(shí)別框架主要包括人臉信息采集與人臉識(shí)別兩個(gè)部分。人臉信息采集主要通過攝像設(shè)備將所采集的所有人臉圖像經(jīng)過圖像預(yù)處理后,分別放入訓(xùn)練好的FaceNet人臉識(shí)別模型中,提取128維的人臉空間特征向量數(shù)據(jù)集。人臉識(shí)別則是將待識(shí)別的人臉?biāo)@得的128維特征向量與預(yù)先存儲(chǔ)在數(shù)據(jù)庫中的人臉空間特征向量集的空間歐式距離進(jìn)行逐一比較,根據(jù)同一個(gè)人的空間歐式距離較小、不同人的空間歐式距離較大這一特性,得出待識(shí)別人臉與數(shù)據(jù)庫中的人臉的空間歐式距離集。若兩者空間歐氏距離小于設(shè)定閾值時(shí),則兩者為同一個(gè)人;反之,則代表數(shù)據(jù)庫里并無此人。具體流程如圖1所示。

        1.2 SSD目標(biāo)檢測模型

        SSD目標(biāo)檢測算法是一個(gè)端到端的目標(biāo)檢測方法,相較于兩階段的目標(biāo)檢測模型,其不需要額外生成先驗(yàn)候選框,可有效降低網(wǎng)絡(luò)訓(xùn)練成本,提高檢測速度。為了提高模型對小目標(biāo)檢測的泛化能力,SSD采用VGG-16作為主干網(wǎng)絡(luò)對圖像進(jìn)行特征提取,同時(shí)將VGG-16的最后2個(gè)全連接層改成卷,并額外添加了4個(gè)特征圖尺寸逐漸減小的輔助性卷積層,進(jìn)而實(shí)現(xiàn)多尺度特征提取,使得在大目標(biāo)檢測的準(zhǔn)確率得到保證的同時(shí),對小目標(biāo)檢測的漏檢、誤檢得到一定的改善,其模型框架如圖2所示。

        1.3 DLIB人臉檢測器

        DLIB是一個(gè)功能豐富的開源工具箱,在人臉分類、關(guān)鍵點(diǎn)檢測等領(lǐng)域廣泛應(yīng)用。DLIB庫中的人臉檢測算法采用HOG特征以及ERT級(jí)聯(lián)回歸算法,使得預(yù)測的人臉關(guān)鍵點(diǎn)不斷回歸到真實(shí)位置[13-14]。其基本思想是:每一個(gè)級(jí)聯(lián)的梯度提升決策樹(GBDT)的葉子節(jié)點(diǎn)均儲(chǔ)存著殘差回歸量,將輸入和葉子節(jié)點(diǎn)儲(chǔ)存的殘差回歸量相加,即可獲得預(yù)測的人臉形狀。ERT算法核心表達(dá)式為

        [S=(xT1, xT2, …, xTp)T∈R2], (1)

        [S(t+1)=S(t)+γt(I, S(t))], (2)

        式中:S是由p個(gè)關(guān)鍵點(diǎn)坐標(biāo)組成的人臉真實(shí)形狀;[xTi∈R2]([i=1, 2,…, p])為面部圖像[I]的第[i]個(gè)關(guān)鍵點(diǎn)的坐標(biāo);[S(t)]為第[t]次的人臉估計(jì)形狀;[γt(I,S(t))]為第[t]次計(jì)算得到的殘差回歸量。

        1.4 基于FaceNet的特征提取

        FaceNet識(shí)別的本質(zhì)是將圖像分類問題轉(zhuǎn)變?yōu)榭臻g特征距離遠(yuǎn)近的分類問題,其具體識(shí)別流程如圖3所示。首先,利用卷積神經(jīng)網(wǎng)絡(luò)對輸入圖像進(jìn)行特征提??;其次,利用L2范式對圖像特征進(jìn)行歸一化并基于三元組的Triplet Loss損失函數(shù)對得到的人臉特征向量進(jìn)行微調(diào),得到128維的人臉空間特征向量;最后鑒于人臉圖像之間的歐氏空間同近異遠(yuǎn)的距離特性,可通過對人臉圖像特征向量之間的歐氏空間距離設(shè)置閾值,進(jìn)而達(dá)到區(qū)分人臉的效果。

        FaceNet采用的三元組損失(Triplet Loss)函數(shù),可解決傳統(tǒng)的交叉熵?fù)p失函數(shù)因無法從人臉特征的差異性中獲得識(shí)別信息而導(dǎo)致的模型泛化能力不足的問題。FaceNet模型的學(xué)習(xí)過程如圖4所示。

        訓(xùn)練數(shù)據(jù)包括從訓(xùn)練集隨機(jī)選取的樣本數(shù)據(jù)錨示例(Anchor)、隨機(jī)選取的樣本和Anchor屬于同類的正示例(Positive)或者不同類的負(fù)示例(Negative),Anchor、Positive和Negative構(gòu)成一個(gè)三元組。Triplet Loss函數(shù)通過拉近Anchor與Positive之間的歐式距離以及疏遠(yuǎn)Anchor與Negative之間的距離,實(shí)現(xiàn)樣本的相似性計(jì)算。Triplet Loss函數(shù)的表達(dá)式為

        [L=iN[|| f(xai)-f(xpi)||22-|| f(xai)-f(xni)||22]+α,?[(xai), f(xpi), f(xni)]∈T, ]

        (3)

        式中:[N]為集合中元素?cái)?shù)量;x[ai]為錨樣本的特征向量;x[pi]為正樣本的特征向量;x[ni]為負(fù)樣本的特征向量;[α]為正負(fù)樣本的邊界值;T為數(shù)據(jù)集中可能的三元組集合。

        通過FaceNet可將代表人臉全部特征信息的128維人臉特征向量映射到歐幾里得空間上,計(jì)算公式為

        [D=(x1i-x1j)+(x2i-x2j)+…+(xdi-xdj)], (4)

        式中:[i]、[j]表示參與訓(xùn)練的樣本標(biāo)識(shí);d表示維度。

        2 數(shù)據(jù)預(yù)處理

        2.1 CASIA Web Face數(shù)據(jù)集

        深度學(xué)習(xí)是以數(shù)據(jù)作為驅(qū)動(dòng)來提取高層語義特征的方法,高質(zhì)量的數(shù)據(jù)集能提高模型的魯棒性和識(shí)別的準(zhǔn)確率。使用CASIA Web Face數(shù)據(jù)集訓(xùn)練、在LFW數(shù)據(jù)集上進(jìn)行測試是一個(gè)較好的人臉識(shí)別方案[15],故本文以CASIA Web Face數(shù)據(jù)集為基礎(chǔ)數(shù)據(jù)集,額外擴(kuò)充了4 000個(gè)亞洲人的人臉數(shù)據(jù),并在混合的人臉數(shù)據(jù)的基礎(chǔ)上,與14種常見口罩圖片相結(jié)合,隨機(jī)生成不同的戴口罩人臉數(shù)據(jù),解決因CASIA Web Face人臉數(shù)據(jù)庫對亞洲人臉識(shí)別不友好以及缺乏帶口罩的人臉數(shù)據(jù)所造成的對訓(xùn)練模型魯棒性的影響。本文所用的具體人臉數(shù)據(jù)集信息見表1。

        2.2 圖像預(yù)處理

        圖像預(yù)處理主要包括人臉檢測、人臉對齊、圖像數(shù)據(jù)增強(qiáng),其中的人臉檢測技術(shù)是人臉識(shí)別不可或缺的重要環(huán)節(jié)。常見的人臉檢測包括Harr[16]、Hog[17]、Fast R-CNN[18]、級(jí)聯(lián)CNN系列以及SSD[19]等,傳統(tǒng)的人臉檢測如Harr、Hog,識(shí)別準(zhǔn)確率相對較低,無旋轉(zhuǎn)不變性;Fast R-CNN系列方法以犧牲檢測速度來保證低誤檢率;級(jí)聯(lián)CNN如MTCNN[20]使檢測速度得到一定的改善,但實(shí)際應(yīng)用時(shí)的速度仍然無法達(dá)到要求;SSD不僅能達(dá)到Fast R-CNN系列方法的誤檢率,而且能保證檢測速度,通常能夠獲得較低的誤檢率。圖5是幾種常見的人臉檢測器的檢測效果。

        2.3 人臉對齊及數(shù)據(jù)增強(qiáng)

        人臉對齊是指檢測人臉的眉毛、眼睛、鼻子及嘴角等輪廓的特征點(diǎn)。DLIB庫中的人臉檢測算法采用HOG特征以及級(jí)聯(lián)形狀回歸的方法找到并返回臉部組件的68個(gè)特征點(diǎn),可實(shí)現(xiàn)人臉對齊[13],同時(shí)根據(jù)人臉關(guān)鍵特征點(diǎn)坐標(biāo)以及口罩的空間位置信息進(jìn)行組合,可生成口罩人臉數(shù)據(jù),具體流程如圖6所示。

        同時(shí),為進(jìn)一步增強(qiáng)模型的魯棒性,提高模型的泛化能力,可在模型訓(xùn)練之前,通過裁剪、鏡像翻轉(zhuǎn)以及改變飽和度等方式對圖像數(shù)據(jù)進(jìn)行增強(qiáng),如圖7所示。

        3 實(shí)驗(yàn)與結(jié)果分析

        3.1 實(shí)驗(yàn)環(huán)境與參數(shù)設(shè)置

        本次實(shí)驗(yàn)的硬件環(huán)境與軟件環(huán)境的配置信息如表2所示。

        3.2 模型訓(xùn)練與測試

        首先,訓(xùn)練模型時(shí)采用隨機(jī)梯度下降算法進(jìn)行優(yōu)化,即初始學(xué)習(xí)率設(shè)為0.001,當(dāng)驗(yàn)證準(zhǔn)確率連續(xù)10個(gè)迭代輪次都不再變化時(shí),學(xué)習(xí)率就會(huì)減小為對應(yīng)的1/2;其次,考慮到數(shù)據(jù)樣本較多,故而只取數(shù)據(jù)集的1/5作為測試驗(yàn)證,其余的4/5的數(shù)據(jù)用作模型訓(xùn)練。在實(shí)際訓(xùn)練過程中由于迭代輪次到達(dá)150左右時(shí),模型的準(zhǔn)確率便能趨于穩(wěn)定,且訓(xùn)練的損失值已經(jīng)達(dá)到[10-4]量級(jí)。為進(jìn)一步驗(yàn)證模型準(zhǔn)確率的上限,將最大迭代次數(shù)額外增加到190后,準(zhǔn)確率仍無明顯變化,因此,綜合考慮訓(xùn)練時(shí)間、耗費(fèi)資源等其他成本因素,不再額外增加輪詢次數(shù)。圖8(a)和圖8(b)分別展示了數(shù)據(jù)增強(qiáng)前后訓(xùn)練模型的準(zhǔn)確率與損失值,由圖8可知,在混合數(shù)據(jù)集上訓(xùn)練的準(zhǔn)確率高達(dá)96.2%,數(shù)據(jù)增強(qiáng)后的準(zhǔn)確率高達(dá)97.1%,對應(yīng)的訓(xùn)練損失值均趨近于0。

        3.3 檢測速度驗(yàn)證

        本系統(tǒng)主要以利用攝像頭對視頻流中的人臉識(shí)別結(jié)果作為速度檢測指標(biāo)。圖9為系統(tǒng)采集的部分人員圖像,圖10為經(jīng)SSD人臉檢測處理后的圖像,圖11為系統(tǒng)實(shí)時(shí)識(shí)別結(jié)果。經(jīng)系統(tǒng)測試,系統(tǒng)的實(shí)時(shí)識(shí)別速度最高可達(dá)20 fps以上,檢測速度均達(dá)到應(yīng)用程序檢測所需的20 fps[21],因此,本文設(shè)計(jì)的基于SSD和FaceNet的人臉識(shí)別系統(tǒng)人臉檢測速度符合實(shí)時(shí)性要求。

        3.4 識(shí)別精度驗(yàn)證

        為進(jìn)一步驗(yàn)證模型的識(shí)別精度,實(shí)驗(yàn)從數(shù)據(jù)集LFW中隨機(jī)選取610人共2 080幅人臉圖片進(jìn)行驗(yàn)證,其中,每個(gè)人至少包含2幅人臉圖像,且每人選取一張照片作為待測圖片,其余照片用作特征數(shù)據(jù)庫。對特征向量間的歐氏距離設(shè)定閾值,當(dāng)空間歐式距離大于該閾值則認(rèn)為數(shù)據(jù)庫中不存在人臉數(shù)據(jù),小于該閾值時(shí)進(jìn)一步判斷、識(shí)別準(zhǔn)確率。由表3可知,在閾值設(shè)定為0.60時(shí),識(shí)別準(zhǔn)確率達(dá)到99.7%的峰值。因此,本文設(shè)計(jì)的基于人臉檢測模型SSD以及人臉識(shí)別模型FaceNet的人臉識(shí)別系統(tǒng),其識(shí)別的準(zhǔn)確率可滿足實(shí)際需求。

        4 結(jié)論

        為減少佩戴口罩對人臉識(shí)別系統(tǒng)準(zhǔn)確率的影響,本文在現(xiàn)有的CASIA Web Face人臉數(shù)據(jù)庫的基礎(chǔ)上,額外擴(kuò)充口罩人臉數(shù)據(jù),提高亞洲人臉的數(shù)據(jù)占比,并利用SSD與FaceNet遷移,訓(xùn)練人臉識(shí)別模型并搭建人臉識(shí)別系統(tǒng)。實(shí)驗(yàn)結(jié)果表明,在構(gòu)建的戴口罩的人臉數(shù)據(jù)上,訓(xùn)練迭代時(shí)的準(zhǔn)確率高達(dá)97.1%,在隨機(jī)抽取的2 080張LFW無口罩的數(shù)據(jù)集中,驗(yàn)證的準(zhǔn)確率達(dá)99.7%,證實(shí)了本文系統(tǒng)具有顯著的識(shí)別效果。

        參考文獻(xiàn)

        [1] 王慧星,黃勃,高永彬,等.部分遮擋人臉識(shí)別的方法綜述[J].武漢大學(xué)學(xué)報(bào)(理學(xué)版),2020,66(5):451-461.

        [2] 安曉寧,王智文,張燦龍,等.基于隱馬爾可夫模型的人臉特征標(biāo)注和識(shí)別[J].廣西科技大學(xué)學(xué)報(bào),2020,31(2):118-125.

        [3] BLEDSOE W W.Man-machine face recognition[R].Rep.PRI 22,Palo Alto,CA:Panoramic Research Inc,1966.

        [4] 景晨凱,宋濤,莊雷,等.基于深度卷積神經(jīng)網(wǎng)絡(luò)的人臉識(shí)別技術(shù)綜述[J].計(jì)算機(jī)應(yīng)用與軟件,2018,35(1):223-231.

        [5] BRUNELLI R,POGGIO T.Face recognition:features versus templates[J].IEEE Transactions on Pattern Analysis Machine Intelligence,1993,15(10):1042-1052.

        [6] TURK M,PENTLAND A.Eigenfaces for recognition[J].Journal of Cognitive Neuroscience,1991,3(1):71-86.

        [7] BELHUMEUR P N,HESPANHA J P,KRIEGMAN D J. Eigenfaces vs. Fisherfaces:recognition using class specific linear projection[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,1997,19(7):711-720.

        [8] GORBAN A N,TYUKIN I Y.Blessing of dimensiona-lity:mathematical foundations of the statistical physics of data[J].Philosophical Transactions of the Royal Society A:Mathematical,Physical and Engineering Sciences,2018,376(2118):1-18.

        [9] HE K M,ZHANG X Y,REN S Q,et al.Deep residual learning for image recognition[C]//2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR),Las Vegas,NV,USA,2016.

        [10] SCHROFF F,KALENICHENKO D,PHILBIN J.FaceNet:a unified embedding for face recognition and clustering[C]//2015 IEEE Conference on Computer Vision and Pattern Recognition(CVPR),Boston,MA,USA,2015.

        [11] 徐遐齡,劉濤,田國輝,等.有遮擋環(huán)境下的人臉識(shí)別方法綜述[J].計(jì)算機(jī)工程與應(yīng)用,2021,57(17):46-60.

        [12] 余璀璨,李慧斌.基于深度學(xué)習(xí)的人臉識(shí)別方法綜述[J].工程數(shù)學(xué)學(xué)報(bào),2021,38(4):451-469.

        [13] 吳雪穎,吳才碩,黃文聰,等.基于Viola-Jones框架人臉檢測算法的汽車疲勞駕駛檢測[J].廣西科技大學(xué)學(xué)報(bào),2021,32(1):49-54.

        [14] 王迪.基于人眼狀態(tài)的疲勞檢測算法研究與應(yīng)用[D].成都:電子科技大學(xué),2020.

        [15] YI D,LEI Z,LIAO S C,et al. Learning face representation from scratch[EB/OL].(2014)[2023-01-19]. 2014:arXiv:1411.7923.https://www.docin.com/p-1396383220. html.

        [16] VIOLA P,JONES M.Rapid object detection using a boosted cascade of simple features[C]//Proceedings of the 2001 IEEE Computer Society Conference on Computer Vision and Pattern Recognition,Kauai,HI,USA,2001.

        [17] DALAL N,TRIGGS B.Histograms of oriented gradients for human detection[C]//2005 IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR'05),San Diego,CA,USA,2005.

        [18] REN S Q,HE K M,GIRSHICK R,et al.Faster R-CNN:towards real-time object detection with region proposal networks[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2017,39(6):1137-1149.

        [19] LIU W,ANGUELOV D,ERHAN D,et al.SSD:single shot multibox detector[C]//Proceedings of 14th European Conference on Computer Vision(ECCV),2016:21-37.

        [20] ZHANG K P,ZHANG Z P,LI Z F,et al. Joint face detection and alignment using multitask cascaded convolutional networks[J].IEEE Signal Processing Letters,2016,23(10):1499-1503.

        [21] 李林峰,李春青,田博源,等.基于MTCNN的FaceNet架構(gòu)的人臉識(shí)別考勤系統(tǒng)設(shè)計(jì)與實(shí)現(xiàn)[J].電腦知識(shí)與技術(shù),2020,16(27):181-183.

        Design of face recognition system based on SSD and FaceNet

        LI Zhenglin1,2, WU Zhiyun1, XIONG Yu1,3, YIN Xiqing1

        (1.School of Automation, Guangxi University of Science and Technology, Liuzhou 545616, China; 2. Guangxi Key Laboratory of Automobile Component and Vehicle Technology(Guangxi University of Science and

        Technology), Liuzhou 545616, China; 3. Dongfeng Liuzhou Motor Co., Ltd., Liuzhou 545005, China)

        Abstract: Face recognition technology is widely used in attendance management, mobile payment and other intelligent construction. With the normal mask interference, traditional face recognition algorithm can no longer meet the practical application requirements. Therefore, this paper uses deep learning model SSD and FaceNet model to design face recognition system. Firstly, in order to eliminate the problem of the small proportion of Asian faces in the existing data set, the change gap of intra-class spacing is not obvious. Based on CASIA Web Face common data set, the Asian face data is expanded. Secondly, in order to solve the interference of various mask styles on feature extraction,using the SSD face detection model and DLIB face key points detection model to extract face key points, and using the spatial position relationship between face key points and masks to generate additional randomly different face masks, forming a mixed data set. Finally, using the mixed data set to train model and transplant the trained model into the face recognition system and verify the detection speed and recognition accuracy. The experimental results show that the real-time recognition speed of the system is at least 20 fps, the accuracy of the face recognition model is up to 97.1% in the mixed data set, and the accuracy of the validation of the random selected part of the LFW data set is up to 99.7%. Therefore, the system can meet the requirements of practical applications, and improve the robustness and accuracy of face recognition to a certain extent.

        Keywords: intra-class spacing; face detection; face recognition

        (責(zé)任編輯:黎 婭)

        猜你喜歡
        人臉識(shí)別
        人臉識(shí)別 等
        揭開人臉識(shí)別的神秘面紗
        人臉識(shí)別技術(shù)的基本原理與應(yīng)用
        電子制作(2019年14期)2019-08-20 05:43:34
        人臉識(shí)別技術(shù)在高速公路打逃中的應(yīng)用探討
        基于(2D)2PCA-LBP 的人臉識(shí)別方法的研究
        電子制作(2017年17期)2017-12-18 06:40:55
        淺談人臉識(shí)別技術(shù)
        人臉識(shí)別在高校安全防范中的應(yīng)用
        電子制作(2017年1期)2017-05-17 03:54:46
        巡演完美收官 英飛拓引領(lǐng)人臉識(shí)別新潮流
        人臉識(shí)別在Android平臺(tái)下的研究與實(shí)現(xiàn)
        基于Metaface字典學(xué)習(xí)與核稀疏表示的人臉識(shí)別方法
        日本久久精品福利视频| 91久久福利国产成人精品| 日韩极品视频在线观看免费| 亚洲欧美日韩精品中文乱码| 极品视频一区二区三区在线观看| 男女主共患难日久生情的古言 | 深夜黄色刺激影片在线免费观看| 亚洲精品第一国产综合精品| 国产精品无套内射迪丽热巴| 日韩亚洲欧美精品| 成人水蜜桃视频在线观看| 女人高潮久久久叫人喷水| 天天干夜夜操| 91精品国产91久久综合桃花| av网站不卡的av在线| 草草地址线路①屁屁影院成人| 亚洲男人天堂| 亚洲无码美韩综合| 亚洲av香蕉一区二区三区av| 亚欧色一区w666天堂| 日韩爱爱网站| 91九色国产在线观看| 香蕉视频在线观看亚洲| 久久人人爽人人爽人人av | 婷婷色在线视频中文字幕| 亚洲女优中文字幕在线观看| 国产免国产免费| 久久99国产亚洲高清| 日本一区二区三区一级片| 精品国产乱码久久久久久郑州公司 | 亚洲综合第一页中文字幕| 区二区三区玖玖玖| 中文字幕Aⅴ人妻一区二区苍井空 亚洲中文字幕久久精品蜜桃 | 极品美女调教喷水网站| 亚洲熟妇少妇任你躁在线观看无码| 国内精品大秀视频日韩精品| 中文字幕国产精品专区| 亚洲国产精品无码一线岛国| 色妞www精品视频| 亚洲欧洲无码精品ⅤA| 在线观看 国产一区二区三区 |