亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于神經(jīng)網(wǎng)絡(luò)改進(jìn)人臉識別算法

        2021-12-21 10:24:26胡美姣王諳宇
        關(guān)鍵詞:人臉識別模型

        胡美姣,尚 銳,王諳宇

        基于神經(jīng)網(wǎng)絡(luò)改進(jìn)人臉識別算法

        胡美姣,尚 銳,王諳宇

        (遼寧理工學(xué)院 智能工程學(xué)院,遼寧 錦州 121001)

        傳統(tǒng)人臉識別技術(shù)需要處理大量的人臉圖片,訓(xùn)練時間過長。針對上述問題,設(shè)計了一種卷積神經(jīng)網(wǎng)絡(luò)算法并采用pix2pix模型實現(xiàn)超分辨率重建。最后在ORL數(shù)據(jù)庫上進(jìn)行了測試,與傳統(tǒng)方法比較,該方法具有更好的識別效果,所需的訓(xùn)練時間減少,在識別準(zhǔn)確率和訓(xùn)練時間方面優(yōu)于大多數(shù)傳統(tǒng)識別算法。

        人臉識別;卷積神經(jīng)網(wǎng)絡(luò);pix2pix模型

        人臉識別作為一種生物特征識別技術(shù),具有獲取方便、不需要主動配合、精度高等特點。人臉識別技術(shù)應(yīng)用廣泛,如安保系統(tǒng)和身份驗證系統(tǒng)等領(lǐng)域[1]。傳統(tǒng)的人臉識別方法主要有基于主成分分析方法[2]、特征臉方法[3]、基于線性分析方法[4]和基于局部二值模式方法[5]等。

        上述方法在提取特征時,往往需要人工去獲取較好的特征,具有很大的主觀性。目前人臉識別技術(shù)的主流方向是卷積神經(jīng)網(wǎng)絡(luò),其可以很好地將數(shù)據(jù)特征表示出來,減少人為因素影響,提高識別率,并且因其超參數(shù)通過傳統(tǒng)的梯度下降法和自帶的網(wǎng)絡(luò)模型進(jìn)行學(xué)習(xí),識別率較高,在人臉識別領(lǐng)域得到普遍應(yīng)用。但是,在小樣本應(yīng)用中識別準(zhǔn)確性較差且訓(xùn)練時間較長,如DeepID系列模型[6]和FaceNet模型[7],DeepID系列模型采用了身份信號和鑒定信號相結(jié)合的方式作為最終的損失函數(shù),其缺點是識別速度慢且準(zhǔn)確率低,而FaceNet模型采用空間距離長度表示人臉相似性,其識別效果較好,但是適用性較差,僅適用于LFW數(shù)據(jù)庫。

        針對上述問題,本文以傳統(tǒng)的卷積神經(jīng)網(wǎng)絡(luò)算法為基礎(chǔ),設(shè)計了一種基于神經(jīng)網(wǎng)絡(luò)的改進(jìn)人臉識別算法,并采用pix2pix模型實現(xiàn)超分辨率重建,在提高小樣本的人臉數(shù)據(jù)庫識別率的同時減少了訓(xùn)練所需時間。

        1 卷積神經(jīng)網(wǎng)絡(luò)

        本文人臉識別算法流程如圖1所示,首先對人臉圖像進(jìn)行采集,然后進(jìn)行超分辨率重建,將處理后的人臉圖像通過卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行身份識別。

        圖1 人臉識別子系統(tǒng)算法流程圖

        1.1 卷積神經(jīng)網(wǎng)絡(luò)的設(shè)計

        (1)選擇卷積核的數(shù)量

        通過比較不同的卷積核數(shù)量,確定卷積神經(jīng)網(wǎng)絡(luò)的卷積核來獲取更多特征信息[8]。

        (2)使用較小卷積核

        本算法采用多個較小卷積核代替較大的卷積核,減少計算量,在一定程度上提升模型效果。

        (3)防止卷積神經(jīng)網(wǎng)絡(luò)出現(xiàn)過擬合

        為避免在卷積神經(jīng)網(wǎng)絡(luò)的全連接層出現(xiàn)過擬合,本文采用Dropout技術(shù)和L2正則化進(jìn)行處理。

        (4)提升卷積神經(jīng)網(wǎng)絡(luò)的泛化能力

        選擇Relu函數(shù)為激活函數(shù),來提高卷積神經(jīng)網(wǎng)絡(luò)的泛化能力。

        (5)提高模型判別能力

        為提高設(shè)計的卷積神經(jīng)網(wǎng)絡(luò)模型對特征的判別能力,選用Softmax Loss+Center Loss監(jiān)督訓(xùn)練模型,使得輸出的人臉特征類內(nèi)聚合,類間分散。本文卷積神經(jīng)網(wǎng)絡(luò)層次結(jié)構(gòu)如表1所示。

        表1 卷積神經(jīng)網(wǎng)絡(luò)層次結(jié)構(gòu)

        結(jié)構(gòu)數(shù)量參數(shù) 輸入層1個圖片尺寸為28*28*1。 卷積層2個C1大小3*3,深度為6,padding為same,步長為1。C2大小5*5,深度為12,padding為same,步長為1。 池化層1個選擇平均池化,池化核為2,步長為2。 全連接層(特征提取層)1個輸出節(jié)點個數(shù)160。 輸出層1個選擇Softmax+Center Loss,輸出節(jié)點個數(shù)為40。

        本文卷積神經(jīng)網(wǎng)絡(luò)優(yōu)化函數(shù)選擇交叉熵函數(shù),其結(jié)構(gòu)圖如圖2所示。

        圖2 卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)圖

        1.2 超分辨率重建

        本文采用pix2pix網(wǎng)絡(luò)實現(xiàn)圖像超分辨率重建,過程如下。

        (1)將圖像裁剪到統(tǒng)一大小。

        (2)制作對應(yīng)要求的圖片對,將模糊的圖片(先將圖片變?yōu)樵叽绲?/4,再將圖像的尺寸放大回來)和原來清晰的圖片構(gòu)成一個圖片對。

        (3)將原始圖片和模糊后的圖片合并起來,進(jìn)一步劃分為訓(xùn)練集和測試集。

        (4)用驗證集數(shù)據(jù)和訓(xùn)練好的模型進(jìn)行驗證。

        圖像超分辨率效果圖如圖3所示,從左至右依次為模糊的圖像、模型超分辨率生成的圖像和原圖。雖然沒有還原所有細(xì)節(jié),但是模型抓住了圖像中的主要信息對圖像進(jìn)行了重建,相比直接對圖像縮放(將圖片變?yōu)樵叽绲?/4,再將圖像的尺寸放大回來)的方法,圖片效果得到了提升。

        2 分析與驗證

        2.1 實驗數(shù)據(jù)集

        本文選用ORL人臉庫,其包含40個不同年齡、性別與種族的人臉圖像,每個人臉圖像有10張灰度圖,尺寸為92﹡112,背景為黑色或灰色,表情、細(xì)節(jié)和人臉姿態(tài)都有變化,人臉深度與平面旋轉(zhuǎn)可達(dá)到近20°,尺寸也有近10%的變化。ORL人臉庫中部分人臉圖像如圖4所示。

        2.2 改變學(xué)習(xí)率(learning rate)對網(wǎng)絡(luò)的影響

        學(xué)習(xí)率是一個最常設(shè)定的超參數(shù)。學(xué)習(xí)率設(shè)置得越大,訓(xùn)練時間越短,速度越快;而學(xué)習(xí)率設(shè)置得越小,訓(xùn)練的準(zhǔn)確度越高,但需要更多的時間收斂。本文選擇指數(shù)衰減法來自動調(diào)整學(xué)習(xí)率,隨著迭代次數(shù)的增加,學(xué)習(xí)率根據(jù)式(1)自動調(diào)整。

        圖4 ORL人臉庫中部分人臉圖像

        2.3 改變C1層、C2層卷積核數(shù)量、全連接層特征維數(shù)對網(wǎng)絡(luò)識別率的影響

        本文通過改變各卷積層卷積核數(shù)量來選擇合適的卷積核數(shù)量與全連接層的特征維數(shù),以探究卷積核數(shù)量和全連接層特征維數(shù)對卷積神經(jīng)網(wǎng)絡(luò)識別率的影響。本文訓(xùn)練迭代次數(shù)為10 000次,采用測試集對識別率進(jìn)行驗證。改變C1層卷積核數(shù)量時,識別率的變化如表2所示。

        表2 C1層卷積核數(shù)量對網(wǎng)絡(luò)識別率的影響

        卷積核個數(shù)246810 測試集準(zhǔn)確率/%93.7595.2196.7593.6888.23 訓(xùn)練集準(zhǔn)確率/%97.1496.2597.4796.2593.14

        由表2可知C1層卷積核的個數(shù)為6時,可以達(dá)到較好的識別率。

        改變C2層卷積核數(shù)量對網(wǎng)絡(luò)識別率的影響如表3所示。

        表3 C2層卷積核數(shù)量對網(wǎng)絡(luò)識別率的影響

        卷積核個數(shù)68101214 測試集準(zhǔn)確率/%91.3793.4396.7898.4396.88 訓(xùn)練集準(zhǔn)確率/%94.2393.7498.2598.4497.87

        由表3可知C2層卷積核的個數(shù)為12時,可以達(dá)到較好的識別結(jié)果。

        改變?nèi)B接層特征維數(shù)對網(wǎng)絡(luò)識別率的影響如表4所示。

        表4 全連接層特征維數(shù)對網(wǎng)絡(luò)識別率的影響

        卷積核個數(shù)100120140160180 測試集準(zhǔn)確率/%95.8796.8898.4498.7597.23 訓(xùn)練集準(zhǔn)確率/%96.3198.4398.7399.4498.12

        由表3可知全連接層特征維數(shù)為160時,可以達(dá)到較好的識別結(jié)果。

        故本文選擇6-12-160為卷積神經(jīng)網(wǎng)絡(luò)的最終結(jié)構(gòu),達(dá)到該網(wǎng)絡(luò)結(jié)構(gòu)的最優(yōu)識別率,樣本的成本函數(shù)損失圖如圖5所示,該網(wǎng)絡(luò)在ORL數(shù)據(jù)庫識別的準(zhǔn)確率如圖6所示。由圖5、圖6可以看出,在經(jīng)過1000輪的訓(xùn)練之后即可達(dá)到穩(wěn)定狀態(tài),降低了訓(xùn)練時間,且達(dá)到最優(yōu)識別率。

        圖5 成本函數(shù)損失圖

        圖6 ORL數(shù)據(jù)庫識別準(zhǔn)確率圖

        2.4 與其他算法比較

        為驗證識別效果,選擇PCA[9]、LBPH[10]、PCA+SVM[11]和CNN[12]這4個人臉識別算法與本文設(shè)計的卷積神經(jīng)網(wǎng)絡(luò)算法在ORL人臉數(shù)據(jù)庫中進(jìn)行對比,人臉識別準(zhǔn)確率對比如表4所示。

        表4 各識別算法在ORL數(shù)據(jù)庫準(zhǔn)確率

        識別算法準(zhǔn)確率/% PCA86.53 LBPH91.25 PCA+SVM95.63 CNN94.4 本文算法98.75

        由表4可知本文設(shè)計的算法在同等條件下識別準(zhǔn)確率更高。

        3 結(jié)論

        本文設(shè)計了基于神經(jīng)網(wǎng)絡(luò)的改進(jìn)人臉識別算法,通過ORL人臉數(shù)據(jù)庫測試,得到了較好的識別率。此外,根據(jù)實際場景遠(yuǎn)距離采集人臉,因為低分辨率的人臉圖像會導(dǎo)致識別率較差,所以針對該問題,本文采用了pix2pix模型實現(xiàn)了超分辨率重建,使得待識別的人臉圖片有較高分辨率,進(jìn)一步提高了人臉的識別率并減少了訓(xùn)練時間。

        [1] 張翠平, 蘇光大. 人臉識別技術(shù)綜述[J]. 中國圖象圖形學(xué)報, 2000(11): 7-16.

        [2] Sirovich L, Kirby M. Low-dimensional procedure for the characterization of human faces[J]. Journal of the Optical Society of America. A, Optics and image science, 1987, 4(3): 519-524.

        [3] Yang M H. Kernel Eigenfaces vs. Kernel Fisherfaces: Face recognition using kernel methods[C] IEEE International Conference on Automatic Face and Gesture Recognition. IEEE, 2002: 215-220.

        [4] Belhumeur P N, Hespanha J P, Kriegman D J. Eigenfaces vs. Fisherfaces: Recognition Using Class Specific Linear Projection[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 1997, 19(7): 711-720.

        [5] Elliptical Local Binary Patterns for Face Recognition[C] Asian Conference on Computer Vision. Springer-Verlag, 2012: 85-96.

        [6] FU Z Q. Deep learning in target detection[C]. Proceedings of 1st International Conference on Education and Educational Development, Wuhan, 2020: 35-40.

        [7] 劉長偉. 基于MTCNN和Facenet的人臉識別[J]. 郵電設(shè)計技術(shù), 2020(2): 32-38.

        [8] 董洛丞, 陳張平. 基于改進(jìn)的卷積神經(jīng)網(wǎng)絡(luò)的人臉識別算法[J]. 杭州電子科技大學(xué)學(xué)報:自然科學(xué)版, 2018, 38(05): 55-59, 97.

        [9] Deng W, Hu J, Lu J, et al. Transform-Invariant PCA: A Unified Approach to Fully Automatic FaceAlignment, Representation, and Recognition[J]. IEEE Transactions on Pattern Analysis & Machine Intelligence, 2014, 36(6): 1275-1284.

        [10] 趙遠(yuǎn)東, 劉振宇, 柯麗, 等. 人臉識別中AlexNet網(wǎng)絡(luò)設(shè)計和改進(jìn)方法研究[J]. 通信技術(shù), 2019, 52(3): 592-598.

        [11] 楊梅芳, 石義龍. 基于2DPCA+PCA與SVM的人臉識別[J]. 信息技術(shù), 2018(2): 32-36.

        [12] 顧江鵬, 袁和金. 基于HOG與卷積神經(jīng)網(wǎng)絡(luò)的人臉識別研究[J]. 軟件導(dǎo)刊, 2019, 18(3): 20-24.

        Improved Face Recognition Algorithm Based on Neural Network

        HU Mei-jiao, SHANG Rui, WANG An-yu

        (School of Intelligent Engineering, Liaoning Institute of Technology, Jinzhou 121001, China)

        Traditional face recognition technologies need to process a large number of face images resulting in long training time. To address the problem, a convolutional neural network algorithm is designed and a Pix2Pix model is used to achieve super-resolution reconstruction, and finally experiments are conducted on the ORL database. Compared with traditional methods, the scheme proposed provides better recognition results, requires less training time, and outperforms most traditional recognition algorithms in terms of recognition accuracy and training time.

        face recognition; convolutional neural network; pix2pix model

        10.15916/j.issn1674-3261.2021.06.010

        TM76

        A

        1674-3261(2021)06-0396-04

        2021-02-24

        胡美姣(1994-),女,遼寧朝陽人,助教,碩士。

        責(zé)任編輯:陳 明

        猜你喜歡
        人臉識別模型
        一半模型
        人臉識別 等
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權(quán)M-估計的漸近分布
        揭開人臉識別的神秘面紗
        基于(2D)2PCA-LBP 的人臉識別方法的研究
        電子制作(2017年17期)2017-12-18 06:40:55
        人臉識別在高校安全防范中的應(yīng)用
        電子制作(2017年1期)2017-05-17 03:54:46
        3D打印中的模型分割與打包
        FLUKA幾何模型到CAD幾何模型轉(zhuǎn)換方法初步研究
        基于類獨立核稀疏表示的魯棒人臉識別
        計算機工程(2015年8期)2015-07-03 12:19:07
        免费大片黄国产在线观看| 黑丝美女喷水在线观看| 美女丝袜诱惑在线播放蜜桃| 精品无码av一区二区三区不卡| 中文字幕在线亚洲日韩6页| 久久无码人妻一区=区三区| 日本精品久久中文字幕| 男女真人后进式猛烈视频网站 | 推油少妇久久99久久99久久| 99热高清亚洲无码| 精彩视频在线观看一区二区三区| 免费a级毛片18禁网站app| 亚洲 欧美 国产 日韩 精品 | 中文字幕亚洲高清精品一区在线| 精品亚洲a∨无码一区二区三区| 久久人人玩人妻潮喷内射人人| 亚洲精品美女自拍偷拍| 青青草在线免费观看视频| 大ji巴好深好爽又大又粗视频| 国产剧情av麻豆香蕉精品| 天堂av无码大芭蕉伊人av孕妇黑人| 国产91会所女技师在线观看| 色视频综合无码一区二区三区| 人人狠狠综合久久亚洲婷婷| 亚洲国产精品亚洲高清| av在线播放男人天堂| 亚洲av无码av制服另类专区| 亚洲欧美性另类春色| 亚洲性av少妇中文字幕| 国自产拍偷拍精品啪啪一区二区| 久草热8精品视频在线观看| 人人爽人人爱| 久久国产成人免费网站| 男女搞基视频免费网站| 无码人妻aⅴ一区二区三区| 久久国产36精品色熟妇| 人成视频在线观看免费播放| 加勒比东京热中文字幕| 亚洲小说区图片区另类春色| 亚洲精品亚洲人成在线播放| 亚洲中文字幕精品久久a|