亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        一種對(duì)年齡變化魯棒的人臉識(shí)別方法

        2022-10-22 03:36:30張春永徐一得
        電子器件 2022年4期
        關(guān)鍵詞:人臉識(shí)別特征方法

        張春永徐一得

        (1.鹽城工學(xué)院信息工程學(xué)院,江蘇 鹽城 224051;2.東南大學(xué)信息科學(xué)與工程學(xué)院,江蘇 南京 210096)

        人臉識(shí)別從上世紀(jì)60 年代被提出,經(jīng)過(guò)半個(gè)多世紀(jì)的發(fā)展與迭代,其相關(guān)技術(shù)和性能指標(biāo)也開(kāi)始投入市場(chǎng),并且產(chǎn)生了很大的經(jīng)濟(jì)效益。相對(duì)于傳統(tǒng)的方法[1,5],最近的基于深度學(xué)習(xí)的算法[2]例如Google 的faceNet 都使用深度學(xué)習(xí)網(wǎng)絡(luò)如深度卷積神經(jīng)網(wǎng)絡(luò)[3],取得了優(yōu)異的性能。在一般場(chǎng)景下,這些模型對(duì)圖像的判別甚至比人類更精確。然而,在年齡不變?nèi)四樧R(shí)別(Age Invariant face Recognition,AIFR)場(chǎng)景下,這些方法通常缺乏人臉識(shí)別的判別能力。查閱可知,人體隨著年齡的增長(zhǎng),身體機(jī)能和指標(biāo)都會(huì)發(fā)生很大的改變,這一點(diǎn)在人的面部特征上有著明顯的表現(xiàn)。一般情況下,老年人的臉上都會(huì)有一些抬頭紋,眼角會(huì)下垂,口角脂肪松垂,具體就是嘴角兩邊的皮膚和脂肪會(huì)出現(xiàn)松弛的情況,臉部的蘋(píng)果肌區(qū)域會(huì)出現(xiàn)明顯的凹凸,鼻唇溝和下頜邊緣都會(huì)喪失彈性,大量的脂肪流失。還有就是絕大多數(shù)老年人的皮膚失去了原有的彈性,色素開(kāi)始堆積在皮膚底層,毛細(xì)孔變大,皺紋增加。AIFR 面臨的關(guān)鍵挑戰(zhàn)是由于年齡老化過(guò)程造成的面部特征顯著差異。這一問(wèn)題在當(dāng)前還不是突出問(wèn)題,主要是因?yàn)楫?dāng)前人臉識(shí)別在市場(chǎng)上得到運(yùn)用的時(shí)間還很短,數(shù)據(jù)庫(kù)并沒(méi)有過(guò)于龐大,但是隨著人臉識(shí)別的廣泛使用和使用時(shí)間的加長(zhǎng),這將成為一個(gè)制約人臉識(shí)別可持續(xù)發(fā)展的關(guān)鍵因素。如若無(wú)法解決年齡不變?nèi)四樧R(shí)別問(wèn)題,那么就會(huì)需要供應(yīng)商或者第三方機(jī)構(gòu)定期地重新去獲取當(dāng)前的人臉圖片,以確保算法的高準(zhǔn)確性,這會(huì)增加大量的額外成本,也不利于人臉識(shí)別的推廣。

        1 年齡變化魯棒人臉識(shí)別的特征分析與建模

        1.1 年齡變化魯棒的人臉特征學(xué)習(xí)

        在之前的相關(guān)研究中,研究人員[8-9,11-12,17-20]采用啟發(fā)式的方法提取手工特征。例如,林玲等人[18]開(kāi)發(fā)了一種帶有局部特征描述的多特征判別分析方法。Gong D 等[9]提出了隱藏因子分析(HFA)來(lái)建模特征因子分解,減少身份相關(guān)特征的年齡變化。林玲等[15]為AIFR 引入了有效的最大熵特征描述符和魯棒性的身份匹配框架。最近的幾種方法[7,13-14]主要基于深度神經(jīng)網(wǎng)絡(luò)。Wen Y 等[13]開(kāi)發(fā)了潛因子引導(dǎo)卷積神經(jīng)網(wǎng)絡(luò)(LF-CNN)來(lái)改進(jìn)HFA。鄭濤等[14]介紹了AIFR 的年齡估計(jì)引導(dǎo)CNN(AE-CNN)方法。Wang Y 等人[7]提出正交嵌入分解,將身份信息編碼在角空間,年齡信息在徑向表示。我們提出了一種帶有線性殘差分解的DAL 算法。

        1.2 人臉對(duì)抗網(wǎng)絡(luò)的建模方針

        生成對(duì)抗網(wǎng)絡(luò)(GAN)[21]在不同的生成任務(wù)中顯示了卓越的性能,如人臉老化、人臉超分辨等。此外,當(dāng)前的研究還探討了對(duì)抗性網(wǎng)絡(luò)對(duì)判別模型的改進(jìn)。Wen Y 等人[9]利用GAN 生成高分辨率的小人臉,以提高人臉檢測(cè)。Lanitis A 等人[23]開(kāi)發(fā)了一個(gè)對(duì)抗UV 完井框架(UV-GAN)來(lái)解決姿態(tài)不變?nèi)四樧R(shí)別問(wèn)題。Liu Y 等人提出在一個(gè)對(duì)抗的自編碼器框架中學(xué)習(xí)身份提取特征和身份消除特征。Zhao Y 等人[24]提出了一種對(duì)抗網(wǎng)絡(luò)來(lái)生成硬三元組特征示例。在本研究中,我們提出了一種去相關(guān)對(duì)抗學(xué)習(xí)方法,以顯著減少身份和年齡之間的相關(guān)性,從而使得身份依賴的特征是年齡不變的。

        2 年齡變化魯棒人臉識(shí)別方法

        在本文中,我們引入了一個(gè)深度特征分解學(xué)習(xí)框架,將混合人臉特征分解為兩個(gè)不相關(guān)的部分:身份相關(guān)部分(Xid)和年齡相關(guān)部分(Xage)。圖2 展示了我們的特征分解模式。我們采用文獻(xiàn)[4]中的殘差映射模塊實(shí)現(xiàn)這種分解。這意味著,年齡相關(guān)的嵌入是通過(guò)殘差映射函數(shù)Xage=R(x)編碼的。我們有下面的公式:X=Xid+R(x),其中X是初始人臉特征,Xid是身份相關(guān)特征。

        圖1 我們以AIFR 為例,由于年齡差異較大,身份內(nèi)的距離大于身份間距離。因此,許多當(dāng)前的人臉識(shí)別系統(tǒng)無(wú)法識(shí)別年齡差距較大的人臉。

        圖2 將人臉特征分解為身份依賴分量和年齡依賴分量。只有身份特征參與人臉識(shí)別的測(cè)試。

        為了減少分解成分之間的相互差異,我們提出了一種新的去相關(guān)對(duì)抗學(xué)習(xí)(Decorrelated Adversarial Learning,DAL)算法,該算法可以最大程度地減少身份和年齡之間的相關(guān)性。具體來(lái)說(shuō),引入典型映射模塊來(lái)尋找身份和年齡之間的最大相關(guān)性,而主干網(wǎng)絡(luò)和分解模塊旨在降低相關(guān)性。身份和年齡分類信號(hào)進(jìn)行學(xué)習(xí)。通過(guò)對(duì)抗訓(xùn)練,我們希望身份和年齡能夠充分的不相關(guān),并且在身份特征空間中的年齡信息可以大大減少。

        2.1 特征分解

        由于人臉包含內(nèi)在的身份信息和年齡信息,所以它們可以由身份相關(guān)特征和年齡相關(guān)特征共同表示。受此啟發(fā),我們?cè)O(shè)計(jì)了一個(gè)線性分解模塊,將初始特征分解成身份相關(guān)特征和年齡相關(guān)特征這兩個(gè)不相關(guān)的部分。形式上,給定由主干CNNF(即,x=F(p))從輸入圖像p中提取的初始特征向量x∈Rd,我們將線性因子分解定義如下:

        我們?cè)O(shè)計(jì)了一個(gè)類似于文獻(xiàn)[4]的深度殘差映射模塊來(lái)實(shí)現(xiàn)這一點(diǎn)。具體來(lái)說(shuō),我們通過(guò)一個(gè)映射函數(shù)R獲得年齡相關(guān)的特征,剩余部分作為身份相關(guān)的特征。我們稱之為殘差因子分解模塊(Residual Factorization Module,RFM),其公式如下,Xid表示身份依賴成分,Xage表示年齡依賴成分:

        在測(cè)試階段,只有身份相關(guān)特征用于人臉識(shí)別。希望Xid編碼身份信息,而Xage繪制年齡變化。我們同時(shí)將身份識(shí)別信號(hào)和年齡識(shí)別信號(hào)放在這兩個(gè)解耦的特征上,分別監(jiān)督這兩個(gè)部分的多任務(wù)學(xué)習(xí)。圖3 顯示了我們工作的總體框架。網(wǎng)狀主干提取初始特征,并在此基礎(chǔ)上建立殘差模塊進(jìn)行特征分解?;谶@種因式分解,我們提出了去相關(guān)對(duì)抗學(xué)習(xí),將在下一節(jié)中介紹。

        圖3 提出的方法的概述

        2.2 去相關(guān)對(duì)抗學(xué)習(xí)

        通過(guò)特征因式分解,對(duì)于年齡不變?nèi)四樧R(shí)別(Age Invariant face Recognition,AIFR)場(chǎng)景來(lái)說(shuō),Xid應(yīng)該是只保留了身份信息,并且與年齡信息不相干的,這一點(diǎn)是至關(guān)重要的。不幸的是,Xid和Xage在實(shí)際上還是有深層的相關(guān)性,無(wú)法實(shí)現(xiàn)兩者完全不相干。例如,Xid和Xage彼此具有高線性相關(guān)性,導(dǎo)致Xid可能會(huì)影響Xage,這一現(xiàn)實(shí)會(huì)對(duì)年齡不變?nèi)四樧R(shí)別產(chǎn)生負(fù)面影響。為此,我們?cè)O(shè)計(jì)了一種有助于降低分解特征之間相關(guān)性的正則化算法,即去相關(guān)對(duì)抗學(xué)習(xí)(Decorrelated Adversarial Learning,DAL)。DAL 基本上計(jì)算分解分量的成對(duì)特征之間的典型相關(guān)。

        首先通過(guò)骨干網(wǎng)提取初始特征,然后進(jìn)行殘差分解。然后利用兩個(gè)已經(jīng)分解的Xid和Xage進(jìn)行分類和DAL 正則化。

        形式上,給定成對(duì)的特征Xid,Xage,我們?cè)O(shè)計(jì)映射的線性規(guī)范映射模塊(Canonical Mapping Module,CMM)Xid,Xage到規(guī)范變量vid,vage:

        式中:Wid、Wage是正則映射的學(xué)習(xí)參數(shù)。之后,我們將經(jīng)典相關(guān)性定義為:

        基于這樣的定義,首先通過(guò)更新CMM 中模型參數(shù)Wid,Wage來(lái)求得|ρ|的最大值然后去減少Vid和Vage的相關(guān)性,主要是通過(guò)訓(xùn)練模型殘差因子分解模塊(Residual Factorization Module,RFM)。從公式角度來(lái)看,一方面,在求取|ρ|的最大值中,我們要固定模型F,R,來(lái)訓(xùn)練C。另一方面,在減少Vid和Vage相關(guān)性的訓(xùn)練中,我們要固定C,來(lái)訓(xùn)練F,R。這兩個(gè)需求是相互矛盾的,相互對(duì)抗的,這對(duì)抗的最終結(jié)果是Xid與Xage的相關(guān)性不斷減小,最終實(shí)現(xiàn)不相干。

        總體而言,DAL 的目標(biāo)函數(shù)表述為:

        我們相信DAL 增強(qiáng)的強(qiáng)去相關(guān)性將鼓勵(lì)Xid和Xage彼此足夠不變。重要的是,這將提高Xid對(duì)年齡不變的人臉識(shí)別的魯棒性。

        2.3 批量典型相關(guān)分析

        與典型相關(guān)分析(Canonical Correlation Analysis,CCA)方法相比,我們的工作引入了基于隨機(jī)梯度下降優(yōu)化的典型相關(guān)分析(Batch Canonical Correlation Analysis,BCCA)。由于對(duì)整個(gè)數(shù)據(jù)集的相關(guān)統(tǒng)計(jì)實(shí)際上是不可能的,我們遵循類似的批量標(biāo)準(zhǔn)化策略[6]來(lái)計(jì)算基于小批量的相關(guān)統(tǒng)計(jì)。因此,它自然適合深度學(xué)習(xí)框架。

        在這里,μid和分別是vid的均值和方差,對(duì)于μage和也是一樣的。ξ是數(shù)值穩(wěn)定性的恒定參數(shù)。

        公式(6)作為BCCA 的目標(biāo)函數(shù),我們利用基于SGD 的算法來(lái)優(yōu)化它。注意,規(guī)范相關(guān)數(shù)|ρ|在更新ξ時(shí),要求必須最大化,同時(shí)在訓(xùn)練F,R時(shí)最小化。漸變的推導(dǎo)如下:

        因此,優(yōu)化由輸出ρ值的前向傳播和計(jì)算更新梯度的后向傳播組成。算法1 描述了BCCA 的詳細(xì)學(xué)習(xí)算法。

        2.4 多任務(wù)訓(xùn)練

        在這一部分,我們描述了多任務(wù)訓(xùn)練策略來(lái)監(jiān)督分解特征的學(xué)習(xí)。如圖3 所示,主要是有三個(gè)基本的監(jiān)督模塊:年齡鑒別器、身份鑒別器和DAL 正則化器。

        年齡/身份判斷:為了學(xué)習(xí)年齡信息,我們將Xage輸入到一個(gè)投影字典對(duì)中,以便進(jìn)行快速而準(zhǔn)確的分類。顧書(shū)航[25]提出了投影字典對(duì)學(xué)習(xí)(Dictionary Pair Learning,DPL)框架。在他們的方法中,分析和合成詞典的聯(lián)合學(xué)習(xí)以通過(guò)線性投影的方式來(lái)學(xué)習(xí)表示形式,而無(wú)需使用非線性稀疏編碼。他們的模型如下:

        式中:S表示用于重構(gòu)X的合成字典;A代表用于對(duì)X進(jìn)行編碼的分析字典;Ak和Sk代表對(duì)應(yīng)于類別k的子字典對(duì)代表訓(xùn)練集中Xk的補(bǔ)充數(shù)據(jù)矩陣;β>0 是一個(gè)標(biāo)量常數(shù),表示控制A的判別性質(zhì)的正則化參數(shù),以及di表示合成字典S的第i個(gè)元素。

        分析字典A在區(qū)分過(guò)程中發(fā)揮作用,在這過(guò)程中子字典 可以投射i類的樣本(i不等于k)到空的空間去。合成字典S的作用是使重構(gòu)誤差最小。使用先前獲取的Xid和Xage來(lái)分別學(xué)習(xí)兩個(gè)單獨(dú)的成對(duì)字典Did={Sid,Aid}和Dage={Sage,Aage}。然后將這些詞典用于分類。這個(gè)DPL 框架的優(yōu)點(diǎn)在于其計(jì)算時(shí)間,因?yàn)樵摽蚣茉谂袛鄳?yīng)用中只含有若干個(gè)字典對(duì),沒(méi)有太多的模型參數(shù)。所以這種方法是快速計(jì)算和適用于實(shí)際應(yīng)用的。

        使用字典Did來(lái)判斷人臉圖像的標(biāo)簽。令y為測(cè)試圖像,Yid和Yage分別指字典Did和Dage的類別預(yù)測(cè)標(biāo)簽??梢允褂靡韵路诸惙桨竵?lái)計(jì)算非相關(guān)身份年齡面孔的檢測(cè):

        DAL 正則化器:本文所提出的DAL 正則化還參與聯(lián)合監(jiān)督來(lái)指導(dǎo)特征學(xué)習(xí),使得成對(duì)分解特征之間的相關(guān)性可以顯著降低。通過(guò)聯(lián)合監(jiān)督,模型同時(shí)學(xué)習(xí)鼓勵(lì)Xid、Xage的區(qū)分能力和這兩個(gè)分解成分之間的去相關(guān)信息??傊?,在訓(xùn)練過(guò)程中,目標(biāo)函數(shù)受以下組合多任務(wù)損失的監(jiān)督:

        式中:LID是Cos-Face 損失函數(shù),LSM帶有交叉熵?fù)p失的softmax,λ1與λ2是用來(lái)平衡這三種損失的超參數(shù)。在測(cè)試階段,我們?yōu)锳IFR 評(píng)估提取身份相關(guān)特征Xid。

        2.5 分析討論

        該方法具有以下優(yōu)點(diǎn)。首先,特征的DAL 正則化有助于鼓勵(lì)分解后的分量之間的不相關(guān)和共不變信息。其次,BCCA 提供了CCA 的擴(kuò)展插入到深度學(xué)習(xí)框架中,以便整個(gè)模型可以在端到端的過(guò)程中進(jìn)行訓(xùn)練。最后,我們的方法可以很容易地推廣到其他組件分解模型,如姿態(tài),光照,情感等。

        3 實(shí)驗(yàn)

        3.1 實(shí)驗(yàn)方法與實(shí)驗(yàn)條件

        網(wǎng)絡(luò)架構(gòu):(1)主干網(wǎng):我們的主干網(wǎng)是類似于[11]的64 層卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,CNN)。它由4 個(gè)階段組成,分別有3 個(gè)、4個(gè)、10 個(gè)和3 個(gè)堆疊的殘余塊。每個(gè)剩余塊有3 個(gè)“3×3 conv+BN+ReLu”的堆疊單元。最后,F(xiàn)C 層輸出512 維的初始人臉特征。(2)殘差因子分解模塊(Residual Factorization Module,RFM):通 過(guò)2 個(gè)“FC+ReLu”將初始人臉特征映射形成年齡相關(guān)特征,其中殘差部分作為身份相關(guān)特征。(3)年齡鑒別器/身份鑒別器:使用DPL 框架快速計(jì)算分類。(4)DAL 正則化器:我們將Xage和Xid分別饋入FC 層,并輸出它們的線性組合,然后用于BCCA 計(jì)算和優(yōu)化。

        數(shù)據(jù)預(yù)處理:我們根據(jù)5 個(gè)面部關(guān)鍵點(diǎn)(兩個(gè)眼睛、兩個(gè)鼻子和兩個(gè)嘴角)進(jìn)行相似性變換,以將人臉面片裁剪為112×96。最后,裁剪后的面片的每個(gè)像素([0,255])通過(guò)減去127.5 然后除以128 進(jìn)行歸一化。

        測(cè)試細(xì)節(jié):我們?cè)谥墓睞IFR 人臉數(shù)據(jù)集FG-NET、MORPH Album 2 上進(jìn)行了評(píng)價(jià)實(shí)驗(yàn)。在測(cè)試過(guò)程中,我們提取了身份相關(guān)的特征,并將原始圖像和翻轉(zhuǎn)圖像的特征串聯(lián)起來(lái),形成最終的表示。然后利用這些表示的余弦相似度進(jìn)行人臉驗(yàn)證和識(shí)別。

        3.2 消耦研究

        在本小節(jié)中,我們研究了模型的不同變體,以顯示我們的方法的有效性。

        3.2.1 余弦相似度的可視化

        為了更好地理解DAL 及其改善身份保存信息的能力,我們進(jìn)行了一個(gè)實(shí)驗(yàn)來(lái)可視化不同年齡組的余弦相似性。對(duì)于已學(xué)習(xí)的身份特征Xid,我們首先通過(guò)群集身份特征空間中的每個(gè)標(biāo)識(shí)來(lái)計(jì)算其類中心,然后計(jì)算每個(gè)樣本和其類中心之間的余弦相似性。之后,我們繪制了不同年齡組間余弦相似度的分布。在本研究中,我們對(duì)小型訓(xùn)練數(shù)據(jù)集進(jìn)行這種可視化分析,該數(shù)據(jù)集包含覆蓋各種年齡差異的50 萬(wàn)個(gè)面部圖像。圖4 顯示了該數(shù)據(jù)集的年齡分布。

        圖4 小型數(shù)據(jù)集的年齡分布。該數(shù)據(jù)集包含了50 萬(wàn)個(gè)數(shù)據(jù)覆蓋大部分年齡的人臉圖像

        3.2.2 定量評(píng)價(jià)

        為了展示聯(lián)合學(xué)習(xí)框架與DAL 方法相結(jié)合的優(yōu)秀性能,我們對(duì)包括FG-NET、MORPH Album 2 在內(nèi)的幾個(gè)公共AIFR 數(shù)據(jù)集進(jìn)行了消耦評(píng)估。此外,我們還在遵循MF1 和MF2 協(xié)議下的FG-NET 上對(duì)模型進(jìn)行了測(cè)試。無(wú)論是MF1 和MF2 都有一個(gè)包含100 萬(wàn)個(gè)面部干擾物的額外干擾物集,使基準(zhǔn)測(cè)試變得更加困難。MF2 提供了一個(gè)訓(xùn)練數(shù)據(jù)集,所有的評(píng)估方法都應(yīng)該在相同的數(shù)據(jù)集上進(jìn)行訓(xùn)練,而不需要任何額外的訓(xùn)練數(shù)據(jù)。在本研究中,我們考慮以下消耦比較模型:(1)基線模型:基線模型僅通過(guò)識(shí)別損失進(jìn)行訓(xùn)練,沒(méi)有任何額外的年齡監(jiān)督。(2)+年齡:該模型由識(shí)別信號(hào)和年齡分類信號(hào)聯(lián)合監(jiān)督訓(xùn)練。(3)+Age+DAL:我們提出的模型,通過(guò)DAL 正則化和聯(lián)合監(jiān)督信號(hào)同時(shí)進(jìn)行訓(xùn)練。

        如表1 所示,在沒(méi)有DAL 的情況下,聯(lián)合監(jiān)督模型獲得了與基線模型可比較的結(jié)果。相反,我們的“+Age+DAL”模型提高了FG-NET 在所有方案上的性能。與MF1 方案相比,MF2 方案對(duì)FG-NET 的改進(jìn)相對(duì)有限,主要原因是MF2 訓(xùn)練數(shù)據(jù)集的老化變化較小。然而,性能的持續(xù)改進(jìn)證明了我們的方法的有效性。外,我們的方法在MORPH Album 2 上改進(jìn)了0.7%以上的基線模型,使得在98%和99%以上的高精度水平上有顯著提高。

        表1 我們的方法與基準(zhǔn)方法進(jìn)行比較,在MF1,MF2 協(xié)議下,評(píng)價(jià)結(jié)果是FG_NET 上的rank_1 人臉的識(shí)別率。

        3.3 在MORPH Album 2 數(shù)據(jù)集進(jìn)行實(shí)驗(yàn)

        MORPH Album 2 數(shù)據(jù)集包含了20 000 個(gè)不同年齡的人的7.8 萬(wàn)張人臉圖像。為了進(jìn)行公平比較,我們遵循[7]并在兩個(gè)基準(zhǔn)方案下進(jìn)行評(píng)估,其中測(cè)試集分別由10 000 名受試者和3 000 名受試者組成。在測(cè)試集中,每個(gè)受測(cè)人員的年齡差距最大的兩張人臉圖像被選擇組成探針集和圖庫(kù)集。我們使用我們提出的DAL 在大的訓(xùn)練數(shù)據(jù)集(1.7M 圖像)上訓(xùn)練模型。請(qǐng)注意,我們沒(méi)有對(duì)原有數(shù)據(jù)集進(jìn)行任何微調(diào)。

        在這個(gè)實(shí)驗(yàn)中,我們將我們的DAL 模型與文獻(xiàn)中最新的AIFR 算法進(jìn)行了比較。如表2 所示,本文所提方法有效提高了rank-1 識(shí)別性能。特別是,我們的方法比當(dāng)前表現(xiàn)最好的AIFR 方法明顯優(yōu)勝,在MORPH Album 2 數(shù)據(jù)庫(kù)上變成了最先進(jìn)的方法。

        表2 MORPH Album 2 數(shù)據(jù)集評(píng)價(jià)結(jié)果

        3.4 在通用的人臉識(shí)別數(shù)據(jù)集進(jìn)行實(shí)驗(yàn)

        為了與通用人臉識(shí)別(General Face Recognition,GFR)中的最新方法進(jìn)行比較,我們進(jìn)一步在LFW數(shù)據(jù)集上進(jìn)行了實(shí)驗(yàn)評(píng)估。LFW[18]是GFR 的一個(gè)公共基準(zhǔn),有來(lái)自5 749 名受試者的13 233 張人臉圖像。我們嚴(yán)格遵循與OE-CNNs[7]相同的培訓(xùn)和評(píng)估程序。也就是說(shuō),我們的訓(xùn)練數(shù)據(jù)包含了與OE-CNNS[7]相同的0.5M 圖像。表3 報(bào)告了LFW 的驗(yàn)證率。在LFW 數(shù)據(jù)集上,我們的模型都優(yōu)于文獻(xiàn)[7]的模型和最先進(jìn)的通用人臉識(shí)別(GFR)模型[15-16],這表明我們提出的方法具有很強(qiáng)的泛化能力。

        表3 LFW 數(shù)據(jù)評(píng)估結(jié)果。報(bào)告結(jié)果為L(zhǎng)FW 的驗(yàn)證率

        4 結(jié)論

        本文提出了AIFR 的去相關(guān)對(duì)抗學(xué)習(xí)方法。我們的模型學(xué)會(huì)在對(duì)抗過(guò)程中最小化身份和年齡的成對(duì)分解特征之間的相關(guān)性。我們提出了批量典型相關(guān)分析算法,作為深度學(xué)習(xí)中典型相關(guān)分析的擴(kuò)展。除了DAL 之外,我們同時(shí)在身份識(shí)別和年齡分類的聯(lián)合監(jiān)督下訓(xùn)練模型。在測(cè)試中,只有身份特征用于人臉識(shí)別。在AIFR 基準(zhǔn)上進(jìn)行的評(píng)估證明了我們提出的方法的優(yōu)越性。我們的主要貢獻(xiàn)總結(jié)如下:(1)為了規(guī)范分解特征的學(xué)習(xí),提出了一種新的基于線性特征分解的去相關(guān)對(duì)抗學(xué)習(xí)算法。通過(guò)這種方式我們希望捕獲在場(chǎng)景(Age Invariant Face Recognition,AIFR)下的人臉圖像的身份的特征,這種特征不會(huì)隨著年齡的改變而有所變化。(2)我們提出了批量典型相關(guān)分析(BCCA),一個(gè)隨機(jī)梯度下降優(yōu)化方式的擴(kuò)展。本文所提出的BCCA 可以集成到深度神經(jīng)網(wǎng)絡(luò)中用于相關(guān)正則化。

        猜你喜歡
        人臉識(shí)別特征方法
        人臉識(shí)別 等
        揭開(kāi)人臉識(shí)別的神秘面紗
        如何表達(dá)“特征”
        不忠誠(chéng)的四個(gè)特征
        抓住特征巧觀察
        可能是方法不對(duì)
        用對(duì)方法才能瘦
        Coco薇(2016年2期)2016-03-22 02:42:52
        四大方法 教你不再“坐以待病”!
        Coco薇(2015年1期)2015-08-13 02:47:34
        基于類獨(dú)立核稀疏表示的魯棒人臉識(shí)別
        捕魚(yú)
        人妻无码AⅤ不卡中文字幕| 男人和女人做爽爽视频| 久久人人爽人人爽人人片av东京热 | 日本精品视频二区三区| 久久香蕉国产线看观看精品yw | 四虎成人精品无码永久在线| 国产不卡一区在线视频| 亚洲天堂久久午夜福利| 麻豆精品久久久久久中文字幕无码| 性一交一乱一伦| 国产亚洲女人久久久久久| 久久一区二区av毛片国产| 久久久久人妻精品一区三寸| 国产精品内射后入合集| 久久青青草视频免费观看| 亚洲精品在线视频一区二区| 亚洲小说图区综合在线| 精品三级久久久久久久电影| 亚洲美女性生活一级片| 日本系列中文字幕99| 小鲜肉自慰网站| 免费看奶头视频的网站| 国产成人av一区二区三| 欧美xxxx做受欧美88| 欧美激情内射喷水高潮| 日本韩国三级aⅴ在线观看 | 亚洲2022国产成人精品无码区| 老熟妇乱子伦av| 国产一区亚洲欧美成人| 亚洲成人一区二区av| 国产乡下三级全黄三级| 天天天综合网| 日本一区二区在线看看| 日本精品女优一区二区三区| 东北寡妇特级毛片免费| 精品国产高清a毛片| 亚洲av色av成人噜噜噜| 国产精品无码aⅴ嫩草| 一本大道东京热无码中字| 日本av第一区第二区| 韩国三级在线观看久|