亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于深度神經(jīng)網(wǎng)絡(luò)的眼周識(shí)別方法研究

        2021-06-15 17:55:51秦濤
        企業(yè)科技與發(fā)展 2021年3期
        關(guān)鍵詞:卷積神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)

        秦濤

        【摘 要】近年來(lái),少限制環(huán)境下的生物特征識(shí)別技術(shù)成為研究熱點(diǎn),眼周識(shí)別作為新興的生物特征識(shí)別技術(shù)越來(lái)越受人們關(guān)注?;谏疃壬窠?jīng)網(wǎng)絡(luò)的眼周識(shí)別方法相較于傳統(tǒng)方法能更好地提高眼周識(shí)別性能。通過(guò)提出一個(gè)基于ResNet20和softmax的眼周識(shí)別方法,在兩個(gè)公開的眼周數(shù)據(jù)集上實(shí)驗(yàn)驗(yàn)證得到在UBIPr數(shù)據(jù)集上的EER值為8.19%,在UBIRIS.V2數(shù)據(jù)集上的EER值為13.18%。與傳統(tǒng)的眼周識(shí)別方法相比,文章提出的眼周識(shí)別方法取得了較好的眼周識(shí)別效果,為深度神經(jīng)網(wǎng)絡(luò)的眼周識(shí)別方法發(fā)展提供持續(xù)動(dòng)力。

        【關(guān)鍵詞】生物特征識(shí)別;眼周識(shí)別;深度學(xué)習(xí);卷積神經(jīng)網(wǎng)絡(luò);殘差學(xué)習(xí)網(wǎng)絡(luò)

        【中圖分類號(hào)】TP391.41 【文獻(xiàn)標(biāo)識(shí)碼】A 【文章編號(hào)】1674-0688(2021)03-0043-03

        0 引言

        生物特征識(shí)別是指依靠人體固有的生理或者行為特征,通過(guò)計(jì)算機(jī)識(shí)別人的身份的一種技術(shù),具有操作簡(jiǎn)單、安全可靠、唯一的身份特性等特點(diǎn)。近年來(lái),少限制情況下的生物特征識(shí)別技術(shù)已經(jīng)成為研究熱點(diǎn)。之前的生物特征身份識(shí)別技術(shù)都是在受控的場(chǎng)景中使用,這樣會(huì)極大地限制使用范圍和使用條件。在此情況下,少限制環(huán)境中的眼周識(shí)別技術(shù)可以發(fā)揮更好的識(shí)別性能,得到越來(lái)越多的關(guān)注。

        在常用的生物特征識(shí)別技術(shù)中,虹膜識(shí)別[1]具有可靠性、準(zhǔn)確性特征,人臉識(shí)別[2]也在各個(gè)場(chǎng)景得到廣泛應(yīng)用,但是在少限制情況下,人臉識(shí)別和虹膜識(shí)別技術(shù)均存在許多問題,如圖1所示的適用場(chǎng)景。虹膜圖像需要靠近紅外相機(jī)獲得,在長(zhǎng)距離、低分辨的情況下,虹膜圖像模糊且無(wú)法精確識(shí)別身份。受新冠肺炎疫情影響,人們出行需要佩戴口罩,人臉大部分區(qū)域被覆蓋,對(duì)人臉識(shí)別造成影響。眼周區(qū)域通常指眼睛周圍包括皮膚和眉毛的區(qū)域。在少限制情況下,虹膜識(shí)別和人臉識(shí)別不可用時(shí),眼周識(shí)別可以發(fā)揮更好的作用。此外,眼周生物特征也可以與人臉或虹膜融合,提高身份識(shí)別性能。研究表明,眼周區(qū)域受年齡[3]和表情變化[4]影響較小。但是匹配眼周圖像仍然是一個(gè)具有挑戰(zhàn)性的問題,尤其是在約束較少的環(huán)境下,因?yàn)樵搮^(qū)域本身包含的信息比整個(gè)面部更少,并經(jīng)常伴隨著高類內(nèi)變化,以及來(lái)自眼鏡、頭發(fā)等遮擋。

        最近幾年,在計(jì)算機(jī)視覺任務(wù)中,CNN已經(jīng)成為一種魯棒性、準(zhǔn)確性的提取特征工具,在生物特征識(shí)別中得到廣泛應(yīng)用。CNN相較于傳統(tǒng)的手工提取特征或者其他基于學(xué)習(xí)的方法表現(xiàn)出更好的識(shí)別性能。因此,希望使用CNN眼周識(shí)別方法,以取得更好的性能,解決具有挑戰(zhàn)性的眼周識(shí)別問題。

        1 相關(guān)工作

        不同環(huán)境下的眼周識(shí)別算法研究持續(xù)進(jìn)行,2009年,Park等[5]研究了在各種條件下利用眼周區(qū)域進(jìn)行人類身份識(shí)別的可行性。Bharadwaj等[6]研究發(fā)現(xiàn)在虹膜識(shí)別失敗時(shí)眼周識(shí)別可使用,他們還有一些交叉光譜的眼周識(shí)別工作。這些探索性的工作激發(fā)了研究人員深入研究的動(dòng)力,以不斷提高眼周識(shí)別的準(zhǔn)確性。2013年,研究人員提出了一種先進(jìn)的方法,使用眼周圖像的DSIFT特征,利用K-means聚類進(jìn)行字典學(xué)習(xí)和表示。這項(xiàng)工作還探索了虹膜和眼周識(shí)別的評(píng)分級(jí)融合,并得到較好的識(shí)別結(jié)果。然而,這種方法沒有研究特定于眼周的特征表示,并且使用DSIFT特征對(duì)計(jì)算資源消耗很大。2015年,Smereka等[4]提出了眼周概率變形模型(PPDM),這個(gè)方法提供一個(gè)存在于眼周圖像之間潛在形變的噪聲模型。利用相關(guān)濾波器對(duì)捕獲的變形進(jìn)行推斷來(lái)匹配眼周對(duì)。之后,同一組研究人員改進(jìn)了他們的基本模型,通過(guò)選擇有區(qū)別的分塊區(qū)域來(lái)進(jìn)行更可靠的匹配。這兩種方法在多數(shù)據(jù)集上取得了良好性能。然而,這兩種方法都依賴于基于補(bǔ)丁的匹配方案,因此經(jīng)常違反補(bǔ)丁對(duì)應(yīng)關(guān)系,但在實(shí)際部署中可能發(fā)生規(guī)模變化或不對(duì)齊的抵抗力較低。2017年,Zhao等[7]提出了一個(gè)語(yǔ)義輔助的眼周識(shí)別框架,這一方法通過(guò)增加一個(gè)訓(xùn)練語(yǔ)義標(biāo)簽數(shù)據(jù)的網(wǎng)絡(luò)分支,提高眼周識(shí)別性能。2018年,這一團(tuán)隊(duì)又提出了對(duì)眼周關(guān)鍵區(qū)域賦予更多權(quán)重,提高眼周識(shí)別性能的方法[8]。

        深度學(xué)習(xí)技術(shù)和CNN在計(jì)算機(jī)視覺和模式識(shí)別任務(wù)中的應(yīng)用越來(lái)越多?;贑NN的方法在目標(biāo)檢測(cè)、圖像分類、人臉識(shí)別、分割等任務(wù)中得到成功應(yīng)用。但是調(diào)查發(fā)現(xiàn),在眼周識(shí)別任務(wù)中只有少量的眼周識(shí)別方法采用深度學(xué)習(xí)技術(shù)提高眼周識(shí)別準(zhǔn)確度。眼周識(shí)別性能需要一直不斷提升,只有這樣,才能滿足真實(shí)應(yīng)用的需要。本文設(shè)計(jì)了一個(gè)基于深度神經(jīng)網(wǎng)絡(luò)的眼周識(shí)別方法,在兩個(gè)公開的眼周數(shù)據(jù)集上驗(yàn)證取得較好的眼周識(shí)別效果。

        2 基于ResNet的眼周識(shí)別方法

        2.1 眼周識(shí)別方法框架

        在此介紹基于ResNet20和softmax損失函數(shù)的眼周識(shí)別框架。通過(guò)研究可知,在深度神經(jīng)網(wǎng)絡(luò)中,隨著網(wǎng)絡(luò)深度的增加可以獲得更多魯棒性、有辨別力的特征,提高網(wǎng)絡(luò)性能。但是隨著網(wǎng)絡(luò)層數(shù)的增加會(huì)帶來(lái)梯度爆炸或者消失,為了解決這個(gè)問題提出了殘差學(xué)習(xí)網(wǎng)絡(luò)。在殘差學(xué)習(xí)網(wǎng)絡(luò)中,復(fù)制一個(gè)淺層網(wǎng)絡(luò)的輸出加給深層的輸出,當(dāng)網(wǎng)絡(luò)特征達(dá)到最優(yōu)時(shí),更深層恒等映射任務(wù)就從原來(lái)堆疊的層中釋放到新建的恒等映射關(guān)系中,而原來(lái)層中的任務(wù)就從恒等映射轉(zhuǎn)為全0。在殘差網(wǎng)絡(luò)中,殘差模塊會(huì)在前向過(guò)程中幫助網(wǎng)絡(luò)中的特征進(jìn)行恒等映射,在反向過(guò)程中幫助傳導(dǎo)梯度,讓更深的模型能夠成功訓(xùn)練。

        為了得到魯棒性、有辨別力的眼周特征,本網(wǎng)絡(luò)框架中使用了基于ResNet20的深度神經(jīng)網(wǎng)絡(luò)提取眼周特征。網(wǎng)絡(luò)中最后FC層得到的特征向量選擇合適的損失函數(shù)對(duì)特征向量匹配得到度量匹配分?jǐn)?shù),選擇合適的損失函數(shù)能夠提高眼周識(shí)別性能??紤]到眼周區(qū)域是人臉的重要部分,提取到的向量特征有很大的相似性,選擇在人臉識(shí)別任務(wù)中廣泛使用的softmax loss作為本文中眼周識(shí)別方法的損失函數(shù),通過(guò)實(shí)驗(yàn)驗(yàn)證取得了較優(yōu)的眼周識(shí)別性能。

        2.2 訓(xùn)練和測(cè)試數(shù)據(jù)增強(qiáng)方法

        為了提高網(wǎng)絡(luò)的通用性和特征有效性,我們?cè)谟?xùn)練過(guò)程中采用了以下常用的數(shù)據(jù)增強(qiáng)技術(shù)。

        (1)訓(xùn)練數(shù)據(jù)增強(qiáng)。全部訓(xùn)練圖像的大小都被調(diào)整為224像素×224像素,使用PyTorch中的圖像處理方法隨機(jī)調(diào)整圖像亮度、對(duì)比度、色調(diào)、飽和度,使用OpenCV中的圖像處理方法把眼周BGR圖像轉(zhuǎn)換成HSV圖像等,從而增加訓(xùn)練時(shí)的眼周數(shù)據(jù)量。

        (2)測(cè)試數(shù)據(jù)增強(qiáng)。本文網(wǎng)絡(luò)框架中可以接受的輸入圖像的大小為224像素×224像素,所以全部的測(cè)試圖像被調(diào)整為224像素×224像素。

        3 實(shí)驗(yàn)配置和結(jié)果分析

        3.1 實(shí)驗(yàn)訓(xùn)練和測(cè)試配置

        本文的眼周實(shí)驗(yàn)我們使用UBIPr[9]、UBIRIS.V2[10]兩個(gè)公開的眼周數(shù)據(jù)集。為了得到更好的眼周識(shí)別性能,在這兩個(gè)數(shù)據(jù)集中把數(shù)據(jù)集按照3∶7的比例分為訓(xùn)練集和測(cè)試集,在訓(xùn)練集和測(cè)試集中人的性別與年齡信息分布合理,這樣可以達(dá)到最接近真實(shí)場(chǎng)景的眼周識(shí)別性能。實(shí)驗(yàn)使用PyTorch開源框架實(shí)現(xiàn)本文中的眼周識(shí)別網(wǎng)絡(luò)框架,本文中網(wǎng)絡(luò)的超參數(shù)有權(quán)重0.000 5,學(xué)習(xí)率為0.01,動(dòng)量為0.5,訓(xùn)練時(shí)的批次大小為128,整個(gè)訓(xùn)練有500個(gè)epochs。整個(gè)實(shí)驗(yàn)在單塊12 GB的TITAN Xp GPU上進(jìn)行。

        3.2 性能度量和實(shí)驗(yàn)結(jié)果分析

        為了驗(yàn)證本文提出的基于深度神經(jīng)網(wǎng)絡(luò)的眼周識(shí)別方法,我們?cè)趯?shí)驗(yàn)中使用TensorBoard工具對(duì)得到的眼周性能指標(biāo)進(jìn)行可視化實(shí)驗(yàn),對(duì)定量和定性的眼周識(shí)別性能進(jìn)行分析。本文使用EER、ROC曲線、F? ?1值對(duì)在本網(wǎng)絡(luò)框架中使用的兩個(gè)眼周數(shù)據(jù)集得到的實(shí)驗(yàn)結(jié)果度量眼周識(shí)別性能。實(shí)驗(yàn)中,眼周識(shí)別錯(cuò)誤率指標(biāo)用EER表示,EER值可以定量評(píng)價(jià)眼周識(shí)別性能,EER數(shù)值越小,則眼周識(shí)別的準(zhǔn)確率就越高,代表眼周識(shí)別性能越好。

        在UBIPr、UBIRIS.V2眼周數(shù)據(jù)集上實(shí)驗(yàn)得到的EER(如圖2所示)。從圖2可知,UBIPr經(jīng)過(guò)實(shí)驗(yàn)訓(xùn)練的EER值為8.19%,UBIRIS.V2的EER值為13.18%。在眼周識(shí)別實(shí)驗(yàn)中,F(xiàn)1值越大代表眼周識(shí)別性能越好,通過(guò)實(shí)驗(yàn)得到UBIPr、UBIRIS.V2眼周數(shù)據(jù)集的F1值如圖3所示。ROC曲線指受試者工作特征曲線、接收器操作特性曲線(Receiver Operating Characteristic Curve),是反映敏感性和特異性連續(xù)變量的綜合指標(biāo),是用構(gòu)圖法揭示敏感性和特異性的相互關(guān)系。實(shí)驗(yàn)中,ROC曲線下的面積AUC越大則識(shí)別的準(zhǔn)確性就越高。在實(shí)驗(yàn)的ROC曲線圖中,F(xiàn)PR值為圖中X坐標(biāo),TPR值為圖中Y坐標(biāo),繪制出ROC曲線。其中,F(xiàn)PR值為代表將負(fù)樣本錯(cuò)誤分為正樣本的概率,TPR值是將正樣本正確分為正樣本的概率。

        FPR越大,預(yù)測(cè)正樣本中實(shí)際負(fù)樣本越多;TPR越大,預(yù)測(cè)正樣本中實(shí)際正樣本越多,理想情況是TPR=1,F(xiàn)PR=0。通過(guò)實(shí)驗(yàn)得到UBIPr、UBIRIS.V2眼周數(shù)據(jù)集的ROC曲線如圖4所示。

        通過(guò)實(shí)驗(yàn)結(jié)果評(píng)價(jià)眼周識(shí)別性能的EER、F? 1-SCORE和ROC曲線圖可知,相較于傳統(tǒng)的提取特征的眼周識(shí)別方法,本文基于ResNet20和softmax損失函數(shù)的眼周識(shí)別框架這一深度神經(jīng)網(wǎng)絡(luò)的眼周識(shí)別方法取得較好的眼周識(shí)別效果。

        4 結(jié)語(yǔ)

        本文提出了一個(gè)基于深度神經(jīng)網(wǎng)絡(luò)ResNet20和softmax的眼周識(shí)別框架,通過(guò)在兩個(gè)公開的眼周數(shù)據(jù)集UBIPr、UBIRIS.V2,實(shí)驗(yàn)得到較好的眼周識(shí)別性能,在以后的研究中致力于通過(guò)研究深度神經(jīng)網(wǎng)絡(luò),不斷提高眼周識(shí)別性能。

        參 考 文 獻(xiàn)

        [1]Ma L,Tan T,Wang Y,et al.Efficient iris recognition by characterizing key local variations[J].Tra-nsactions on Image processing,2004,13(6):739-750.

        [2]Taigman Y,Yang M,Ranzato M A,et al.Deepface:Closing the gap to human-level performance in face verification[C]//Proceedings of the conference on computer vision and pattern recognition,2014:1701-1708.

        [3]Juefei-Xu F,Luu K,Savvides M,et al.Investigating age invariant face recognition based on periocular biometrics[C]//2011 International Joint Conference on Biometrics(IJCB),2011:1-7.

        [4]Smereka J M,Boddeti V N,Kumar B V K V.Probabilistic deformation models for challenging periocular image verification[J].Transactions on Information Forensics and Security,2015,10(9):1875-1890.

        [5]Park U,Ross A,Jain A K.Periocular biometrics in the visible spectrum:A feasibility study[C]//2009 IEEE 3rd international conference on biometrics:theory,applications,and systems,2009:1-6.

        [6]Bharadwaj S,Bhatt H S,Vatsa M,et al.Periocular biometrics:When iris recognition fails[C]//2010 fourth IEEE international conference on Biometrics:Theory,Applications and Systems(BTAS),2010:1-6.

        [7]Zhao Z,Kumar A.Accurate periocular recognition under less constrained environment using semantics-assisted convolutional neural network[J].Tran-sactions on Information Forensics and Security,2016,12(5):1017-1030.

        [8]Zhao Z,Kumar A.Improving periocular recognition by explicit attention to critical regions in deep neural network[J].Transactions on Information Forensics and Security,2018,13(12):2937-2952.

        [9]Padole C N,Proenca H.Periocular recognition:An-alysis of performance degradation factors[C]//2012 5th IAPR international conference on biometrics(ICB),2012:439-445.

        [10]Proenca H,F(xiàn)ilipe S,Santos R,et al.The UBIRIS.v2:A database of visible wavelength iris images captured on-the-move and at-a-distance[J].Tra-nsactions on Pattern Analysis and Machine Intelligence,2009,32(8):1529-1535.

        猜你喜歡
        卷積神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)
        基于卷積神經(jīng)網(wǎng)絡(luò)溫室智能大棚監(jiān)控系統(tǒng)的研究
        基于深度卷積神經(jīng)網(wǎng)絡(luò)的物體識(shí)別算法
        有體驗(yàn)的學(xué)習(xí)才是有意義的學(xué)習(xí)
        電子商務(wù)中基于深度學(xué)習(xí)的虛假交易識(shí)別研究
        MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場(chǎng)域建構(gòu)
        大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
        深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
        基于深度卷積網(wǎng)絡(luò)的人臉年齡分析算法與實(shí)現(xiàn)
        軟件工程(2016年8期)2016-10-25 15:47:34
        基于卷積神經(jīng)網(wǎng)絡(luò)的樹葉識(shí)別的算法的研究
        免费人成视频在线| 99久久婷婷国产精品综合网站 | WWW拍拍拍| 久久精品av在线视频| 国产精品女同久久久久电影院| 国产亚洲av综合人人澡精品| 国产乱子伦精品免费女| 亚洲第一页在线观看视频网站| 中文字幕在线乱码一区| 欧美成人免费全部| 纯肉无遮挡H肉动漫在线观看国产 国产精品自产拍在线观看免费 | 国产乱子轮xxx农村| 亚洲av成人无码网天堂| 99久久久久久亚洲精品| 蜜桃视频一区二区三区四| 午夜射精日本三级| 妺妺窝人体色www在线图片 | 色婷婷一区二区三区四区| 亚洲精品第四页中文字幕| 亚洲精品www久久久久久 | 免费毛片a线观看| 日韩爱爱网站| 亚洲视一区二区三区四区| 精品天堂色吊丝一区二区| 国产va在线观看免费| 国产视频网站一区二区三区| 91久久精品一区二区三区大全| 美女内射毛片在线看免费人动物| 熟妇人妻中文av无码| 视频女同久久久一区二区三区| 国产在线91精品观看| 天天天天躁天天爱天天碰2018| 中文字幕大屁股熟女乱| 亚洲精品熟女av影院| 欧美成人秋霞久久aa片| 99亚洲精品久久久99| 秋霞国产av一区二区三区| 亚洲人妻调教中文字幕| 男男性恋免费视频网站| 国产一区二区三区爆白浆| 亚洲国产一区二区网站|