王友釗,潘芬蘭,黃 靜
(1.浙江大學(xué)數(shù)字技術(shù)及儀器研究所,杭州310027;2.浙江理工大學(xué)信息學(xué)院,杭州310018)
基于2D-PCA的兩級LDA人臉識別方法
王友釗1,潘芬蘭1,黃 靜2
(1.浙江大學(xué)數(shù)字技術(shù)及儀器研究所,杭州310027;2.浙江理工大學(xué)信息學(xué)院,杭州310018)
線性鑒別分析(LDA)小樣本問題的已有解決方法在構(gòu)造最優(yōu)投影子空間時未完整利用LDA的4個信息空間,為此,提出一種基于二維主成分分析(2D-PCA)的兩級LDA人臉識別方法。采用減法運算對樣本類內(nèi)散度矩陣和類間散度矩陣的特征值矩陣求逆,以解決小樣本問題,并連續(xù)應(yīng)用Fisher準(zhǔn)則和修改后的Fisher準(zhǔn)則連接2個投影子空間,獲取包含LDA的4個信息空間的最優(yōu)投影方向,利用2D-PCA對輸入樣本做預(yù)處理,以減少計算復(fù)雜度。在ORL和YALE人臉庫上的實驗結(jié)果表明,該方法雖然訓(xùn)練時間略有增加,但識別率分別為92.5%和95.8%,優(yōu)于其他常用LDA算法。
線性鑒別分析;直接線性鑒別分析;二維主成分分析;小樣本問題;人臉識別;特征提取
線性鑒別分析(Linear Discriminant Analysis, LDA)是一種重要的特征提取方法,在人臉識別領(lǐng)域得到了廣泛的應(yīng)用[1-2]。它基于Fisher準(zhǔn)則,目的是尋找一組將高維樣本投影到低維空間的最佳投影向量,使所有投影樣本的類內(nèi)散度最小且類間散度最大。然而,在人臉圖像識別領(lǐng)域,訓(xùn)練樣本的數(shù)量通常小于每一個樣本的維數(shù),且樣本的類內(nèi)散度矩陣奇異,難以直接應(yīng)用Fisher準(zhǔn)則。
針對小樣本問題,文獻(xiàn)[3]利用主成分分析(Principal Component Analysis,PCA)將高維空間的樣本投影到低維空間以保證樣本類內(nèi)散度矩陣非奇異,然而該方法的問題在于利用PCA降維的同時也丟失了較多的鑒別信息。文獻(xiàn)[4]提出的直接LDA(Direct LDA,DLDA)方法雖不需要通過PCA降維來解決小樣本問題,卻丟棄了類間散度矩陣的零空間,且其對類間散度矩陣特征值的求逆導(dǎo)致沒有充分利用它的列空間信息[5]。對稱零空間LDA方法通過構(gòu)造類內(nèi)和類間散度矩陣的2個零子空間及其互補子空間,改善了人臉特征的鑒別力[6],基于集成學(xué)習(xí)的規(guī)范化LDA方法通過迭代過程提高了信息的可分離性[7]。正則LDA(Regularized LDA,RLDA)方法通過給類內(nèi)散度矩陣的特征值加上一個正則參數(shù)[8]或通過指數(shù)擬合[9]使類內(nèi)散度矩陣非奇異,再使用Fisher準(zhǔn)則求解。RLDA雖然克服了DLDA的不足,充分利用了類內(nèi)散度矩陣的零空間和類間散度矩陣的列空間,卻由于類內(nèi)散度矩陣的求逆使它的列空間信息沒有充分利用。而在LDA算法的4個信息空間中,雖然類間散度矩陣的零空間和類內(nèi)散度矩陣的列空間信息的鑒別力不如其他2個,卻依然包含著對分類有用的信息[10-11]。
極大化式(2)且滿足標(biāo)準(zhǔn)正交條件的一組向量,也就是St的較大特征值所對應(yīng)的特征向量X1,X2,…, Xd,即2D-PCA[12]的最優(yōu)投影方向Wopt。則對任一已知的圖像樣本Ai,它在最優(yōu)投影方向Wopt上的特征矩陣為:
3.1 傳統(tǒng)Fisher準(zhǔn)則的應(yīng)用
經(jīng)過2D-PCA降維處理,m×l維的圖像Ai變成m×d維矩陣A′i,將A′i轉(zhuǎn)換成r維列向量ai,其中, r=m×d,則訓(xùn)練集U={A1,A2,…,An}變?yōu)閁′= {a1,a2,…,an}。由于模式類別為c,U′也可被分為c個子集U′1,U′2,…,U′c。
令μj為U′i的樣本均值,μ為U′的樣本均值,則U′的類間散度矩陣SB為:
U′的類內(nèi)散度矩陣SW為c個子集的散度矩陣的和:
傳統(tǒng)LDA方法尋找線性變換G∈Rk×r,使變換后的k維空間的類間散度與類內(nèi)散度之比最大,即解答下面?zhèn)鹘y(tǒng)Fisher準(zhǔn)則的最優(yōu)問題:
在小樣本情況下,r>n,因此,散度矩陣SB,SW奇異,且它們的秩分別為rb=c-1,rw=n-c。分別對SB和SW做特征值分解可得:
對SW特征值的平方根矩陣DW求逆后,小的特征值將變大,而大的特征值會變小,因此,本文算法通過對DW進行減法運算以估計DW的逆矩陣:
其中,λ為任意正數(shù);α是SW的最大特征值;I是與SW相同維數(shù)的單位矩陣。由于SW為半正定矩陣,因此它的特征值大于等于0。如果λ<1,則Dα中至少會有一個值小于0,違反了SW是半正定矩陣的性質(zhì),因此,λ≥1。由于DW中的非零較小特征值為噪聲信息,直接對DW求逆會加大噪聲對特征提取結(jié)果的影響,使識別率降低。而Dα是通過減法運算獲得的,減少了這些噪聲大幅增大的機會。因此,可以認(rèn)為Dα是比更穩(wěn)定的估計。則可將SW的逆矩陣可表示為:
其中,Dα=λαI-Dw∈Rr×r為D-1W的估計矩陣。
根據(jù)式(7),可以將SB表示為:
結(jié)合式(10)和式(11),可以得到:
3.2 改進Fisher準(zhǔn)則的應(yīng)用
雖然3.1節(jié)的方法完整地包含了SW的列空間和零空間,但由于SW的求逆運算使它的較大特征值所對應(yīng)的特征向量權(quán)重降到很低,因此沒有充分利用SW的列空間信息,且丟棄了SB的零空間。為了更好地利用SW的列空間且包含SB的零空間信息,修改傳統(tǒng)Fisher準(zhǔn)則為:
其中:
其中,λ≥1;β為SB的最大特征值;I為與DB相同維數(shù)的單位矩陣。
3.3 算法流程
該兩級LDA方法的詳細(xì)步驟如圖1所示。
圖1 兩級LDA方法流程
本文實驗的硬件環(huán)境為型號為Pentium E5300的CPU,主頻2.6 GHz,軟件環(huán)境為Visual Studio2010,采用OpenCV 2.3.4作為二次開發(fā)工具。實驗對象取自O(shè)RL人臉數(shù)據(jù)庫與YALE人臉數(shù)據(jù)庫。ORL人臉庫由40個人,每人10幅圖像組成,圖像的分辨率均為112×92像素,如圖2(a)所示。YALE人臉庫包含15個人,每人11幅人臉圖像,為了便于處理,將圖片大小剪裁成100×100像素,如圖2(b)所示。本文從ORL人臉庫中每人隨機選取5幅,一共200幅人臉圖像作為訓(xùn)練集,其余的圖像作為測試集,從YALE人臉庫中每人隨機選取5幅,一共55幅人臉圖像作為訓(xùn)練集,其余的圖像作為測試集,分別在ORL和YALE人臉庫上進行實驗,同時與Fisherface、DLDA、RLDA算法進行識別率比較。
圖2 一組人臉圖像樣本
4.1 參數(shù)對人臉識別率的影響
為了減少計算復(fù)雜度,采用2D-PCA方法對人臉圖像進行預(yù)處理,以降低圖像矩陣的維度。在2DPCA方法中,最佳投影軸數(shù)目(即Wopt中向量的個數(shù)d)與后期計算復(fù)雜度和人臉識別的準(zhǔn)確率緊密相關(guān)。同時,在對樣本的類內(nèi)散度矩陣SW和類間散度矩陣SB的逆矩陣的計算過程中,需采用Dα=λαIDw和Dβ=λβI-DB分別估算D-1W和D-1B,通過3.1節(jié)的分析可得,參數(shù)λ應(yīng)滿足λ≥1。
為了探討參數(shù)d和λ對人臉識別率的影響,令λ分別為1.0,1.5,2.0,5.0和9.0,分析投影軸數(shù)目d的變化時,本文算法對ORL、YALE人臉庫中測試樣本的識別率變化情況如圖3所示。由圖3可知,當(dāng)d較小時,識別率較低,隨著d的增大,識別率也在提高,但是d到達(dá)一定的值后,識別率便保持于一穩(wěn)定狀態(tài)。這表明圖像的大部分鑒別信息集中于2D-PCA方法中較大特征值所對應(yīng)特征向量的投影方向上,進一步增加投影軸數(shù)目不能提升識別率,且會導(dǎo)致計算復(fù)雜度大幅上升。對ORL人臉庫,d=8時算法的性能最優(yōu);對YALE人臉庫,d=6時算法的性能最優(yōu)。
圖3 投影軸數(shù)目d與參數(shù)λ對識別率的影響
當(dāng)λ從1.0~9.0遞增時,本文算法在ORL人臉庫中的識別率均保持為92.5%,在YALE人臉庫中的識別率均保持為95.8%。因此,只要保證Dα和Dβ中的元素根據(jù)DW和DB中的值保持升序排列,λ的取值對本文算法的識別率并無影響。所以,在之后的討論中,均令λ=1。
4.2 特征維數(shù)對識別率的影響
W1主要包含了SB的列空間、SW的零空間信息,W2主要包含了SW的列空間、SB的零空間信息,因此,本文算法的最終投影軸W∈Rr×2rb包含了LDA的所有4個信息空間。理論上,所包含的鑒別性信息越多,人臉識別率就越高。因此,分析W的列向量個數(shù)D(即特征維數(shù))變化時本文算法對ORL、YALE人臉庫中測試樣本的識別率變化情況。
對ORL人臉庫,2rb=78,令D從6遞增到78,識別率的變化情況如圖4(a)所示,對YALE人臉庫,2rb=28,令D從5遞增到28,識別率變化情況如圖4(b)所示。從圖4中可以看出,隨著特征維數(shù)的增加,人臉識別率也在提高,直到在一個定值上穩(wěn)定下來。當(dāng)D=rb時,ORL人臉庫的識別率為91.2%, YALE人臉庫的識別率為94.2%。D繼續(xù)增加到2rb時,ORL人臉庫的識別率增加到92.5%,YALE人臉庫的識別率增加到95.8%。這說明了在LDA算法中,人臉的鑒別信息主要集中在SB的列空間和SW的零空間中,但SW的列空間和SB的零空間依然包含了對分類有用的信息,將它們包含進來確實可以提高識別率。
圖4 特征維數(shù)對人臉識別率的影響
4.3 本文算法與常用LDA算法的性能對比
本文算法還與其他 3種常用 LDA算法Fisherface[6]、DLDA[7]和RLDA[9]進行比較。表1為上述算法與本文算法在ORL和YALE人臉庫上的識別率對比結(jié)果,表2為上述算法與本文算法在ORL和YALE人臉庫上的訓(xùn)練時間與識別時間對比結(jié)果,表中所列結(jié)果均在各算法的最優(yōu)參數(shù)下所得。
表1 不同特征提取算法的識別率對比
表2 不同特征提取算法的訓(xùn)練時間與識別時間對比 ms
Fisherface采用PCA降維使類內(nèi)散度矩陣非奇異,因而丟失了很多重要的鑒別信息。DLDA不但沒有利用SW的列空間和SB的零空間,而且由于第一次降維之后空間維數(shù)太小,從而限制了其進一步獲得具有更強判別力的投影方向。相似的,RLDA丟棄了SB的零空間,且沒有充分利用SW的列空間,因而識別率也不理想。本文算法完整地利用了LDA的4個信息空間,因此與其他3種算法相比,具有最好的識別率的同時具有最長的訓(xùn)練時間,但每幅圖像的識別時間只在2 ms的差距內(nèi)浮動。
本文對人臉識別中常用的LDA特征提取算法進行了研究,提出一種基于2D-PCA的兩級LDA人臉識別方法,解決了小樣本問題,以及常用LDA算法沒有完整利用LDA中4個信息空間而識別率不高的問題。在ORL和YALE兩大人臉庫進行實驗,證明本文算法在提高識別率上的優(yōu)越性。由于本文算法需要連續(xù)應(yīng)用Fisher準(zhǔn)則和修改后的Fisher準(zhǔn)則來獲取最優(yōu)投影空間,在提高人臉識別率的同時也帶來了額外的計算開銷,因此在提高人臉識別率的基礎(chǔ)上,降低算法的時間消耗,將是進一步的研究重點。
[1] Sharma A,Paliwal K K.A New Perspective to Null Linear DiscriminantAnalysisMethod and ItsFast Implementation Using Random Matrix Multiplication with Scatter Matrices[J].Pattern Recognition,2012,45 (6):2205-2213.
[2] Sharma A,Paliwal K K.A Two-stage Linear Discriminant Analysis for Face-recognition[J].Pattern Recognition Letters,2012,33(9):1157-1162.
[3] Belhumeur P N,Hespanha J P,Kriegman D J.Eigenfaces vs.Fisherfaces:Recognition Using Class Specific Linear Projection[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,1997,19(7):711-720.
[4] Yu Hua,Yang Jie.A Direct LDA Algorithm for Highdimensional Data with Application to Face Recognition [J].Pattern Recognition,2001,34(10):2067-2070.
[5] 俞 冰,金連甫,陳 平.利用標(biāo)準(zhǔn)化LDA進行人臉識別[J].計算機輔助設(shè)計與圖形學(xué)報,2003,15(3): 302-306.
[6] 宋曉寧,鄭宇杰,楊靜宇,等.對稱零空間準(zhǔn)則下的LDA特征抽取方法[J].計算機輔助設(shè)計與圖形學(xué)學(xué)報,2009,21(3):400-405,411.
[7] 張燕平,竇蓉蓉,趙 姝,等.基于集成學(xué)習(xí)的規(guī)范化LDA人臉識別[J].計算機工程,2010,36(14):144-146.
[8] Guo Yaqian,Hastie T,Tibshirani R.Regularized Linear Discriminant Analysis and Its Application in Microarrays [J].Biostatistics,2007,8(1):86-100.
[9] Sharma A,Paliwal K K.Regularisation of Eigenfeatures by Extrapolation of Scatter-matrix in Face-recognition Problem[J].Electronics Letters,2010,46(10):682-683.
[10] Gao Hui,Davis J W.Why Direct LDA is not Equivalent to LDA[J].Pattern Recognition,2006,39(5):1002-1006.
[11] Paliwal K K,Sharma A.Approximate LDA Technique for Dimensionality Reduction in Small Sample Size Case [J].Pattern Recognition Research,2011,6(2):298-306.
[12] Yang Jian,Zhang D,Frangi A F.Two-dimensional PCA:A New ApproachtoAppearance-basedFace Representation and Recognition[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2004, 26(1):131-137.
編輯 任吉慧
Two-stage Face Recognition Method Based on Two Dimension Principle Component Analysis
WANG You-zhao1,PAN Fen-lan1,HUANG Jing2
(1.Institute of Digital Technology and Instrument,Zhejiang University,Hangzhou 310027,China;
2.School of Informatics and Electronics,Zhejiang Sci-Tech University,Hangzhou 310018,China)
Aiming at the existing algorithms which do not use the whole four information space of Linear Discriminant Analysis(LDA)in solving the small sample size problem,a two-stage LDA face recognition algorithm based on Two Dimension Principle Component Analyses(2D-PCA)is proposed.The small sample size problem is solved by a subtraction to estimate the inverse matrix of the eigenvalues matrix of the singular with-class scatter matrix and betweenclass scatter matrix.Thus,the projection subspaces resulting from continuously using the traditional Fisher criterion and a modified Fisher criterion,are concatenated to obtain the optimal projection space including whole four information space of LDA.To reduce the computational complexity,the 2D-PCA is used to preprocess on input samples.The recognize rates of the proposed algorithm on ORL and YALE database are 92.5% and 95.8% which are higher than other LDA algorithms despite the slightly increase of training time.
Linear Discriminant Analysis(LDA);Direct LDA(DLDA);Two Dimension Principle Component Analysis(2D-PCA);small sample size problem;face recognition;feature extraction
1000-3428(2014)09-0243-05
A
TP18
10.3969/j.issn.1000-3428.2014.09.049
王友釗(1963-),男,副教授,主研方向:圖像識別,機器視覺,噪聲主動控制,智能電網(wǎng)技術(shù);潘芬蘭,碩士研究生;黃 靜,教授。
2013-08-22
2013-09-29E-mail:wangyouzhao@zju.edu.cn