徐 昕,梁久禎
(常州大學(xué) 信息科學(xué)與工程學(xué)院,江蘇 常州 213164)(*通信作者電子郵箱jzliang@cczu.edu.cn)
雖然在部分公開的人臉數(shù)據(jù)集上,很多人臉識(shí)別算法已經(jīng)取得了非常優(yōu)秀的成績(jī),但這些成績(jī)一部分是建立在嚴(yán)苛的實(shí)驗(yàn)環(huán)境基礎(chǔ)之上的?,F(xiàn)實(shí)中的人臉識(shí)別驗(yàn)證往往面臨著訓(xùn)練數(shù)據(jù)有限、面部特征被遮擋、姿態(tài)變化、復(fù)雜的場(chǎng)景變化、光照變化等多方面的難題,很多傳統(tǒng)的人臉識(shí)別驗(yàn)證算法在這種情況下表現(xiàn)得不是很好,因此現(xiàn)在越來(lái)越多的學(xué)者將研究的注意力轉(zhuǎn)向了無(wú)約束條件下的人臉識(shí)別。
針對(duì)無(wú)約束人臉識(shí)別驗(yàn)證中的人臉姿態(tài)變化問(wèn)題,文獻(xiàn)[1-4]利用大量的訓(xùn)練樣本來(lái)學(xué)習(xí)尋找姿勢(shì)不變特征,并通過(guò)提取這些姿勢(shì)不變特征來(lái)進(jìn)行人臉識(shí)別,然而在人臉旋轉(zhuǎn)角度較大的情況下,人臉圖像在很大程度上被改變,很難尋找到姿勢(shì)不變特征,因此人臉矯正方法被許多研究學(xué)者提出。人臉矯正是將圖像中有姿態(tài)變化的非正面人臉矯正為正面人臉的過(guò)程,主要有兩種方法:一種是基于二維視角的方法,另一種是基于三維人臉的人臉重建方法。
在基于二維視角的方法中,文獻(xiàn)[5]中提出了一種將統(tǒng)計(jì)學(xué)習(xí)的思想引入到圖像合成中的方法,該方法把稠密特征進(jìn)行對(duì)應(yīng)后再把研究對(duì)象表示成某一個(gè)線性空間的一個(gè)樣本。在此基礎(chǔ)之上,文獻(xiàn)[6]中提出了關(guān)于線性物體類的概念,并將線性空間進(jìn)行了具體化。
在三維人臉重建方法中,文獻(xiàn)[7]使用一個(gè)標(biāo)準(zhǔn)的人臉模型和一個(gè)光照模型,首先利用主成分分析(Principal Component Analysis, PCA)的方法來(lái)進(jìn)行人臉圖像的特征提取,再通過(guò)貝葉斯函數(shù)確定模型中的參數(shù),最后獲得該人臉圖像的三維模型,完成人臉矯正。文獻(xiàn)[8]中利用圖像中物體表面的明暗變化來(lái)恢復(fù)其表面各點(diǎn)的相對(duì)高度,完成物體的三維重構(gòu)。盡管該方法可行,但它對(duì)于遮擋問(wèn)題以及鏡面的反射問(wèn)題(眼鏡)十分敏感,并且常常需要事先將面部區(qū)域從背景中分離出來(lái)。
與二維視角的方法相比,三維重建的方法精度更高,因此本文主要研究三維空間下的人臉姿態(tài)矯正問(wèn)題。本文采用的三維矯正方法是一個(gè)固定不變的三維人臉模型,無(wú)需為每張圖像中的人臉計(jì)算出對(duì)應(yīng)的三維人臉模型,可以大幅降低算法的復(fù)雜度。
度量學(xué)習(xí)也就是常說(shuō)的相似度學(xué)習(xí),如果需要計(jì)算兩張圖像的相似度,如何度量圖像之間的相似度使得不同類別的圖像相似度小,而相同類別的圖像相似度大就是度量學(xué)習(xí)的目標(biāo)。近年來(lái),針對(duì)人臉識(shí)別問(wèn)題,研究人員也提出了一些基于度量學(xué)習(xí)的算法。文獻(xiàn)[9]中提出了一種學(xué)習(xí)關(guān)聯(lián)度量的方法,該算法在對(duì)樣本特征進(jìn)行了降維后,仍可以保留樣本之間的近鄰關(guān)系;還針對(duì)關(guān)聯(lián)度量提出了相關(guān)嵌入分析(Correlation Embedding Analysis, CEA)模型和相關(guān)PCA(Correlation PCA, CPCA)模型。文獻(xiàn)[10]中提出了余弦相似度度量學(xué)習(xí)(Cosine Similarity Metric Learning, CSML)模型,該模型利用樣本間的余弦距離來(lái)進(jìn)行相似度度量,能夠有效地進(jìn)行識(shí)別分類。文獻(xiàn)[11]中提出了廣義稀疏度量學(xué)習(xí)(Generalized Sparse Metric Learning, GSML)模型,該方法為許多有代表性的稀疏度量學(xué)習(xí)模型提供了一個(gè)統(tǒng)一的角度,并且可以將現(xiàn)有的許多非稀疏度量學(xué)習(xí)模型擴(kuò)展到稀疏度量學(xué)習(xí)形式。文獻(xiàn)[12]提出了一個(gè)相似性度量學(xué)習(xí)方法sub-SML(Simialrity Metric Learning over Subspace),該方法結(jié)合了馬氏距離與相似性學(xué)習(xí),旨在學(xué)習(xí)出更有利于分類的距離變換矩陣,該方法在無(wú)約束人臉驗(yàn)證上取得了不錯(cuò)的成績(jī)。
本文將三維人臉矯正與相似性學(xué)習(xí)方法相結(jié)合,提出了基于三維矯正與相似性學(xué)習(xí)的人臉驗(yàn)證方法sub-SL(Similarity Learning over subspace),并通過(guò)實(shí)驗(yàn)驗(yàn)證了本文方法的有效性。本文的主要工作有:
1)通過(guò)三維人臉矯正將無(wú)約束圖像中的多姿態(tài)人臉矯正為標(biāo)準(zhǔn)的正面人臉。完成矯正的圖像中的人臉部分均處在圖像的中心區(qū)域,利用這一特性對(duì)圖像進(jìn)行裁剪,可以將人臉從背景中分離出來(lái)。
2)通過(guò)個(gè)體內(nèi)部子空間的投影,使得特征類內(nèi)變化小而類間變化大,再結(jié)合相似性學(xué)習(xí)算法,能夠更有效地度量?jī)蓮垐D像之間的相似度。
對(duì)樣本特征進(jìn)行基于個(gè)體內(nèi)部子空間的投影可以減小樣本類內(nèi)變化,擴(kuò)大樣本類間變化,從而更有利于區(qū)分相似圖像對(duì)與不相似圖像對(duì)。首先,定義個(gè)體內(nèi)部協(xié)方差矩陣為:
(1)
令Λ={λ1,λ2,…,λk}和V=(v1,v2,…,vk)為CS的最大的k個(gè)特征值及對(duì)應(yīng)的特征向量。特征到k維的個(gè)體內(nèi)部子空間的映射過(guò)程定義:
(2)
需要注意的是,這些特征是通過(guò)特征值的倒數(shù)來(lái)進(jìn)行加權(quán)的,這些特征值對(duì)大特征值的特征向量進(jìn)行懲罰,從而減小特征的變化,即個(gè)體內(nèi)變化。
(3)
對(duì)該f(M,G)函數(shù)進(jìn)行化優(yōu)化之后可以得到sub-SML的目標(biāo)函數(shù):
(4)
ξt≥0;?t=(i,j)∈U
文獻(xiàn)[13]中提出了一個(gè)利用單一、不變的3D人臉模型[14]來(lái)進(jìn)行人臉矯正的方法,其核心思想是利用3D人臉模型作為中介,將輸入的人臉圖像中的人臉區(qū)域投影到一個(gè)由3D人臉模型生成的標(biāo)準(zhǔn)坐標(biāo)系(3D模型的合成的正面臉)中后,再利用像素采樣生成一個(gè)矯正后的正面人臉。在矯正過(guò)程中,需要尋找到輸入圖像與3D模型表面點(diǎn)之間的一個(gè)對(duì)應(yīng)關(guān)系,也就是需要找到輸入圖像與3D模型的正面2D人臉圖像各像素點(diǎn)之間的對(duì)應(yīng)關(guān)系,因此需要借用人臉特征點(diǎn)來(lái)完成這個(gè)對(duì)應(yīng)關(guān)系的預(yù)測(cè)。
近年來(lái),國(guó)內(nèi)外的學(xué)者提出了很多高效精確的特征點(diǎn)檢測(cè)方法,例如主動(dòng)表觀模型(Active Appearance Model, AAM)[15-16]、監(jiān)督梯度下降法(Supervised Descent Method, SDM)[17]、dlib庫(kù)[18]等。本文測(cè)試了幾種當(dāng)前比較流行的人臉檢測(cè)方法,在權(quán)衡了檢測(cè)速度與準(zhǔn)確率后選擇dlib庫(kù)來(lái)進(jìn)行人臉的特征點(diǎn)檢測(cè)。dlib庫(kù)會(huì)在框定人臉位置的同時(shí)定位出人臉的特征點(diǎn),由dlib庫(kù)檢測(cè)出的人臉特征點(diǎn)共有68個(gè),如圖1所示,分別分布在眼睛、眉毛、鼻子嘴巴以及下顎輪廓上。
針對(duì)無(wú)約束圖像中可能出現(xiàn)的一張圖像上出現(xiàn)多張人臉的問(wèn)題,需要一個(gè)預(yù)處理操作來(lái)完成目標(biāo)人臉的篩選工作。通常情況下,作為拍攝者目標(biāo)人物的人臉在圖像中應(yīng)該占據(jù)著比較大的空間,因此在一張圖像有多張人臉的情況下,目標(biāo)人物的人臉相對(duì)于照片中其他人臉來(lái)說(shuō)占的空間應(yīng)該更大。但是dlib庫(kù)用以定位人臉的人臉框并沒(méi)有考慮到人臉圖像中的人臉大小問(wèn)題,不適合進(jìn)行目標(biāo)人臉的篩選工作,如圖2所示,所以本文對(duì)人臉圖像用VJ(Viola and Jones)算法[19]再次進(jìn)行人臉定位,對(duì)定位出的人臉框的大小進(jìn)行排序,選取最大的人臉框作為該圖像的目標(biāo)人物,并保存該人物的68個(gè)特征點(diǎn)。
圖1 由dlib檢測(cè)出的68個(gè)特征點(diǎn)的分布Fig. 1 Distribution of 68 feature points detected by dlib
圖2 dlib算法和VJ算法所檢測(cè)并標(biāo)注出的人臉框Fig. 2 Face frames detected and marked by dlib and VJ algorithms
對(duì)于一個(gè)給定了面部紋理的3D模型,利用相機(jī)標(biāo)定原理,通過(guò)指定一個(gè)投影矩陣CM=AM[RMtM],可以生成該3D模型在不同姿態(tài)下的2D人臉合成圖,其中:[RMtM]是由旋轉(zhuǎn)矩陣RM和平移向量tM組成的外部矩陣,AM為內(nèi)部矩陣。文獻(xiàn)[13]通過(guò)一個(gè)指定的投影矩陣CM生成了該3D模型的正面人臉視圖, 本文將該合成的正面人臉作為參考坐標(biāo)系使用,該正面人臉同時(shí)也作為參考圖像IR使用,該參考圖像及其特征點(diǎn)分布如圖3所示。
圖3 參考圖像及由dlib檢測(cè)出的68個(gè)特征點(diǎn)的分布Fig. 3 Reference image and its distribution of 68 feature points detected by dlib
在生成參考圖像IR時(shí),為圖像中的每個(gè)像素點(diǎn)p′存儲(chǔ)其對(duì)應(yīng)的三維坐標(biāo)P=(X,Y,Z)T,這兩點(diǎn)之間的對(duì)應(yīng)關(guān)系可由式(5)得到:
p′~CMP
(5)
對(duì)于輸入的測(cè)試圖像IQ,記pi=(mi,ni)T為測(cè)試圖像的特征點(diǎn)的二維坐標(biāo),對(duì)參考圖像IR同樣也使用dlib進(jìn)行特征點(diǎn)檢測(cè),并記其特征點(diǎn)坐標(biāo)為pi′=(mi′,ni′)T,通過(guò)式(5)可以得到參考圖像特征點(diǎn)pi′所對(duì)應(yīng)的在3D人臉模型上特征點(diǎn)的3D坐標(biāo)Pi=(Xi,Yi,Zi)T。
由于部分圖像的人臉姿態(tài)變化較大,因此矯正后的人臉圖像的鼻翼部分以及側(cè)面臉部分會(huì)存在像素缺失的問(wèn)題。針對(duì)這一問(wèn)題,文獻(xiàn)[13]對(duì)矯正后的人臉圖像進(jìn)行了條件性人臉對(duì)稱來(lái)彌補(bǔ)像素缺失的問(wèn)題,如圖4所示。所謂條件性人臉對(duì)稱,就是有選擇性地進(jìn)行人臉對(duì)稱操作,這樣可以避免在進(jìn)行人臉對(duì)稱時(shí),將一些不該進(jìn)行對(duì)稱的部分進(jìn)行對(duì)稱(例如眼鏡,只出現(xiàn)在半邊圖像中的人手或一些其他的遮擋物)。為了避免不自然的面部表情,眼部區(qū)域在對(duì)稱過(guò)程中同樣也是被排除在外的。
圖4 人臉對(duì)稱操作Fig. 4 Face symmetry operation
雖然人臉對(duì)稱操作可以在一定程度上解決矯正后像素缺失的問(wèn)題,但它也在一定程度上破壞了人臉本身的面部結(jié)構(gòu),會(huì)對(duì)人臉的識(shí)別造成一定的影響,所以本文不對(duì)矯正后的圖像進(jìn)行人臉對(duì)稱操作。
在人臉驗(yàn)證中,保持算法對(duì)噪聲以及個(gè)體內(nèi)部變化的魯棒性是一個(gè)非常具有挑戰(zhàn)性的問(wèn)題。為了使得提取出的圖像特征對(duì)于噪聲魯棒,最普遍的是采用主成分分析(PCA)法進(jìn)行降噪,將圖像特征降到d維。為了減小個(gè)體內(nèi)部變化對(duì)識(shí)別認(rèn)證結(jié)果帶來(lái)的影響,采用子空間投影法,進(jìn)一步將d維特征臉映射到個(gè)體內(nèi)部子空間。d特征臉到k維內(nèi)部個(gè)人子空間(k≤d)的映射過(guò)程已在1.1節(jié)進(jìn)行了詳細(xì)介紹,本文只考慮k=d的特殊情況。
根據(jù)文獻(xiàn)[12]以及最近的研究,可發(fā)現(xiàn)相似度函數(shù)
sG(x,y)=xTGy
(6)
(7)
最小化上述關(guān)于G的經(jīng)驗(yàn)誤差將有利于相似圖像對(duì)與不相似圖像對(duì)的區(qū)分。加入正則化框架來(lái)避免過(guò)擬合,學(xué)習(xí)一個(gè)魯棒的、并且有區(qū)分性的相似度量函數(shù),約束要優(yōu)化的參數(shù):
(8)
其中:γ為正則化系數(shù);I為單位矩陣。為了便于在更大的可行域內(nèi)求解,通過(guò)引入松弛變量,式(8)可重新定義為:
(9)
ξt≥0; ?t=(i,j)∈U
式(9)即為本文算法sub-SL的目標(biāo)函數(shù)的完整形式。
目標(biāo)函數(shù)(9)是一個(gè)凸優(yōu)化問(wèn)題,下面對(duì)其進(jìn)行優(yōu)化。利用拉格朗日對(duì)偶性,引入乘子α和β,目標(biāo)函數(shù)(9)可以改寫為:
(10)
通過(guò)對(duì)G和ξ求偏導(dǎo),可以得到:
(11)
αt+βt=1
(12)
(13)
式(13)是一個(gè)標(biāo)準(zhǔn)的二次規(guī)劃(Quadratic Programming, QP)問(wèn)題。
LFW(Labeled Faces in the Wild)人臉數(shù)據(jù)庫(kù)[20]是為了研究無(wú)約束環(huán)境下的人臉識(shí)別問(wèn)題而建立的數(shù)據(jù)庫(kù),該數(shù)據(jù)庫(kù)中包含5 749人的13 323張圖像,其中有1 680人擁有兩張以上的人臉圖像。該數(shù)據(jù)庫(kù)中的所有圖像都是網(wǎng)絡(luò)搜集而來(lái)的。該數(shù)據(jù)庫(kù)中的人臉圖像姿勢(shì)、光照變化很大,包含了不同年齡段的人群,面部遮擋問(wèn)題大并且場(chǎng)景復(fù)雜多變,是人臉識(shí)別領(lǐng)域中非常具有挑戰(zhàn)性的一個(gè)數(shù)據(jù)庫(kù)。
本文選擇LFW數(shù)據(jù)庫(kù)為實(shí)驗(yàn)對(duì)象,實(shí)驗(yàn)平臺(tái)是Intel Core i5-6300HQ CPU 2.30 GHz, RAM 8 GB的PC,64位Windows 10系統(tǒng)和Matlab 2016b以及Ubuntu 16.04和pyhton 2.7。
首先是針對(duì)人臉矯正進(jìn)行的實(shí)驗(yàn),在2.2節(jié)中提到,文獻(xiàn)[13]有一個(gè)步驟是人臉對(duì)稱,而本文選擇省略這一步驟。為了驗(yàn)證人臉矯正以及人臉對(duì)稱操作是否有效,本文在LFW數(shù)據(jù)庫(kù)的基礎(chǔ)上另外準(zhǔn)備了4組數(shù)據(jù)集,分別是:1)7080-raw數(shù)據(jù)集,在這個(gè)數(shù)據(jù)集中的圖像只進(jìn)行了人臉矯正而沒(méi)有進(jìn)行人臉對(duì)稱,圖像大小為70×80;2)7080-sym數(shù)據(jù)集,在這個(gè)數(shù)據(jù)集中的所有圖像在進(jìn)行人臉矯正后還進(jìn)行了人臉對(duì)稱操作,圖像大小為70×80;3)9090-org數(shù)據(jù)集,這個(gè)數(shù)據(jù)集是由文獻(xiàn)[13]的作者提供的,數(shù)據(jù)集中所有圖像都經(jīng)過(guò)了人臉矯正以及條件性人臉對(duì)稱,圖像大小為90×90;4)LFW-a(Labeled Faces in the Wild-a)數(shù)據(jù)集[21],該數(shù)據(jù)集中的所有圖像都由商用對(duì)齊軟件進(jìn)行了人臉對(duì)齊,圖像大小為250×250;5)LFW數(shù)據(jù)庫(kù),即最原始的LFW數(shù)據(jù)庫(kù),數(shù)據(jù)庫(kù)中的所有圖像都未作任何改動(dòng),圖像大小為250×250。圖5展示了同一個(gè)人的同一張?jiān)瓐D在這5組數(shù)據(jù)集的差異。
實(shí)驗(yàn)選擇局部二值模式(Local Binary Pattern, LBP)描述子對(duì)這5組數(shù)據(jù)集分別進(jìn)行特征提取,并且選取了目前比較流行的分類算法如最近鄰(Nearest Neighbor, NN)算法[22]、支持向量機(jī)(Support Vector Machine, SVM)[23]、SVDL(Sparse Variation Dictionary Learning)[24]以及sub-SML算法[12]和本文算法sub-SL對(duì)這5個(gè)數(shù)據(jù)集進(jìn)行識(shí)別分類,以此作為三維人臉矯正算法的一個(gè)評(píng)價(jià)標(biāo)準(zhǔn)。實(shí)驗(yàn)選取100人,每人6張圖進(jìn)行訓(xùn)練,4張圖進(jìn)行測(cè)試,并將提取的特征統(tǒng)一降到200維(隨機(jī)選取的維度),實(shí)驗(yàn)結(jié)果如表1所示。
表1 特征維度為200時(shí)5組數(shù)據(jù)集在不同算法上的識(shí)別率 %Tab. 1 Recognition rates of 5 datasets under different algorithms with 200 feature dimension %
從表1可以看出:1)在6種不同的算法上,進(jìn)行了人臉矯正的數(shù)據(jù)集(例如9090-org、7080-sym和7080-raw)都要比沒(méi)有進(jìn)行人臉矯正的數(shù)據(jù)集(例如LFW,LFW-a)的表現(xiàn)好得多,這一結(jié)果表明人臉矯正可以很大程度地提高識(shí)別率。2)數(shù)據(jù)集7080-raw在大部分情況下比7080-sym的表現(xiàn)更好,這一結(jié)果驗(yàn)證了人臉對(duì)稱的做法會(huì)在一定程度上破壞人臉的面部結(jié)構(gòu),從而影響到識(shí)別結(jié)果,因此本文在人臉矯正后不進(jìn)行人臉對(duì)稱的做法是合理的。
圖5 同一原圖在五組數(shù)據(jù)集中的差別Fig. 5 Differences of same original picture in five data sets
本文采用的是基于個(gè)體子空間的相似性學(xué)習(xí)算法(sub-SL)。為了驗(yàn)證本文的sub-SL方法的效果比sub-SML方法[19]以及單獨(dú)的度量學(xué)習(xí)方法更好,本節(jié)將針對(duì)該方面進(jìn)行實(shí)驗(yàn)。
下面先簡(jiǎn)單介紹基于個(gè)體子空間的度量學(xué)習(xí)方法(sub-ML)的目標(biāo)函數(shù):
(14)
ξt≥0; ?t=(i,j)∈U
實(shí)驗(yàn)選取LBP以及基于局部三值模式(Local Ternary Pattern, LTP)描述子分別對(duì)數(shù)據(jù)集7080-raw中的圖像進(jìn)行特征提取,為了研究特征維度對(duì)算法的影響,本文用PCA對(duì)特征進(jìn)行降維,并選取了150、200、250、300、350、400這6個(gè)維度。同時(shí),為了研究訓(xùn)練樣本數(shù)量對(duì)于測(cè)試結(jié)果的影響,本節(jié)設(shè)計(jì)了兩個(gè)實(shí)驗(yàn):
1) 在該實(shí)驗(yàn)中,選取250對(duì)相似圖像與250對(duì)不相似圖像組成訓(xùn)練集進(jìn)行訓(xùn)練,并選取125對(duì)相似圖像以及125對(duì)不相似圖像組成測(cè)試圖像集進(jìn)行測(cè)試。利用LBP進(jìn)行特征提取的實(shí)驗(yàn)結(jié)果如表2所示,利用LTP進(jìn)行特征提取的實(shí)驗(yàn)結(jié)果如表3所示。
表2 基于LBP的不同特征維度下數(shù)據(jù)集7080-raw在不同算法上的識(shí)別率(訓(xùn)練樣本少)Tab. 2 Recognition rates of different algorithms on dataset 7080-raw with different feature dimensions based on LBP (small training samples)
表3 基于LTP的不同特征維度下數(shù)據(jù)集7080-raw在不同算法上的識(shí)別率(訓(xùn)練樣本少)Tab. 3 Recognition rates of different algorithms on dataset 7080-raw with different feature dimensions based on LTP (small training samples)
從表2~3可看出:a)對(duì)算法sub-SML與sub-SL而言,用LTP進(jìn)行特征提取后的最高識(shí)別率比用LBP進(jìn)行特征提取的最高識(shí)別率稍微好一點(diǎn)。b)在特征提取方法為L(zhǎng)BP時(shí),算法sub-SL的最高識(shí)別率為79.6%(特征維度為100),要高于sub-SML的最高識(shí)別率73.6%(特征維度為300)和sub-ML的最高識(shí)別率74.8%(特征維度為100);在特征提取方法為L(zhǎng)TP時(shí),算法sub-SL的最高識(shí)別率為80%(特征維度為100),同樣高于sub-SML的最高識(shí)別率75.6%(特征維度為200)和sub-ML的最高識(shí)別率72.4%(特征維度為200)。c)特征維度的變化對(duì)實(shí)驗(yàn)結(jié)果也是存在一定影響的,一般情況下隨著維度的增加,準(zhǔn)確率也有所增加,但在到達(dá)一定程度后,維度的增加也會(huì)造成噪聲的增加,因此算法準(zhǔn)確率也會(huì)受到影響。
2)在該實(shí)驗(yàn)中,選取625對(duì)相似圖像與625對(duì)不相似圖像組成訓(xùn)練集進(jìn)行訓(xùn)練,并選取125對(duì)相似圖像以及125對(duì)不相似圖像組成測(cè)試圖像集進(jìn)行測(cè)試。利用LBP進(jìn)行特征提取的實(shí)驗(yàn)結(jié)果如表4所示,利用LTP進(jìn)行特征提取的實(shí)驗(yàn)結(jié)果如表5所示。
從表4~5可看出:a)用LTP進(jìn)行特征提取后的最好的實(shí)驗(yàn)結(jié)果比用LBP進(jìn)行特征提取的最高驗(yàn)證準(zhǔn)確率要好。用LBP進(jìn)行特征提取的實(shí)驗(yàn)結(jié)果中,三種算法的最高驗(yàn)證準(zhǔn)確率相同,但用LTP進(jìn)行特征提取的實(shí)驗(yàn)中可以看出算法sub-SL的表現(xiàn)要比sub-SML和sub-ML好得多。b)特征維度的變化對(duì)實(shí)驗(yàn)結(jié)果也是存在一定影響的,一般情況下隨著維度的增加,準(zhǔn)確率也有所增加,但在到達(dá)一定程度后,維度的增加也會(huì)造成噪聲的增加,因此算法準(zhǔn)確率也會(huì)受到影響。
綜合以上兩個(gè)實(shí)驗(yàn)可以看出:訓(xùn)練圖像對(duì)的數(shù)量對(duì)于最終的測(cè)試結(jié)果還有一定的影響,訓(xùn)練樣本數(shù)量多的情況下,測(cè)試結(jié)果會(huì)更好一點(diǎn);在大部分情況下,用LTP進(jìn)行特征提取要比LBP進(jìn)行特征提取時(shí)的實(shí)驗(yàn)結(jié)果更好一些,而算法sub-SL的表現(xiàn)比sub-SML與sub-ML的表現(xiàn)更好。
表4 基于LBP的不同特征維度下數(shù)據(jù)集7080-raw在不同算法上的識(shí)別率(訓(xùn)練樣本多)Tab. 4 Recognition rates of different algorithms on dataset 7080-raw with different feature dimensions based on LBP (large training samples)
表5 基于LTP的不同特征維度下數(shù)據(jù)集7080-raw在不同算法上的識(shí)別率(訓(xùn)練樣本多)Tab. 5 Recognition rates of different algorithms on dataset 7080-raw with different feature dimensions based on LTP (large training samples)
本文針對(duì)無(wú)約束圖像的人臉驗(yàn)證問(wèn)題,結(jié)合三維人臉矯正以及基于個(gè)體子空間的相似性學(xué)習(xí)方法,提出了基于三維矯正與相似性學(xué)習(xí)的人臉驗(yàn)證方法。該方法中的三維矯正能夠有效地應(yīng)對(duì)無(wú)約束圖像中人臉姿態(tài)變化大以及背景復(fù)雜的問(wèn)題。通過(guò)本文的實(shí)驗(yàn)結(jié)果可以看出,相對(duì)于以往度量學(xué)習(xí)中常用的歐氏距離,相似度函數(shù)能夠更有效地度量?jī)蓮垐D像之間的相似度,因此本文方法能夠有效地應(yīng)對(duì)無(wú)約束圖像的人臉驗(yàn)證問(wèn)題,獲得良好的驗(yàn)證結(jié)果。本文只使用了相似度函數(shù),如何讓相似度函數(shù)與其他距離度量函數(shù)相結(jié)合,更有效地進(jìn)行距離度量,從而獲得更優(yōu)秀的識(shí)別結(jié)果,將是今后的研究方向。