王梅花,班 錦
(1.西南交通大學(xué) 信號與系統(tǒng)四川省重點(diǎn)實(shí)驗(yàn)室,四川 成都610031;2.新鄉(xiāng)醫(yī)學(xué)院 三全學(xué)院,河南 新鄉(xiāng)453700)
自20世紀(jì)90年代以來,人臉識別技術(shù)已成為計(jì)算機(jī)視覺、模式識別和信息技術(shù)等領(lǐng)域研究的熱點(diǎn)課題之一,并且在此基礎(chǔ)上提出了主成分分析PCA(Principal Component Analysis)[1,2]、 二維主成分分析 2DPCA (Two-Dimensional Principal Component Analysis)[3]、雙方向的二維主成分分析[4]和線性鑒別分析LDA(Linear Discriminant Analysis)[5]等有效的識別方法。但是,現(xiàn)有的正面人臉圖像的識別方法,僅當(dāng)有充分?jǐn)?shù)量的有代表性的人臉圖像樣本時(shí)才能取得較好的識別效果。然而在一些特殊場合,如法律實(shí)施、海關(guān)護(hù)照驗(yàn)證和身份證驗(yàn)證等,每類(人)只能得到一幅圖像,此時(shí)就只能用這些數(shù)目有限的圖像去訓(xùn)練人臉識別系統(tǒng)。若用前面提到的那些方法處理這種訓(xùn)練樣本數(shù)目有限的人臉識別系統(tǒng),識別率會(huì)明顯下降,甚至變得不再適用。參考文獻(xiàn)[6]首先對原始人臉圖像利用奇異值分解,然后運(yùn)用分解得到的較大的幾個(gè)奇異值對原始人臉圖像近似重構(gòu),并且將重構(gòu)人臉圖像和原始圖像一起作為訓(xùn)練樣本,從而對原訓(xùn)練樣本個(gè)數(shù)進(jìn)行擴(kuò)展,再對增加了訓(xùn)練樣本后的樣本集運(yùn)用2DPCA方法進(jìn)行特征抽取,該方法可取得較好的識別效果。但是由于人臉圖像存在姿態(tài)、表情等變化,而且這個(gè)變化越大,算法的識別誤差也越大?;诖?,本文提出了一種基于圖像鏡像和奇異值分解的鏡像奇異值分解方法。該方法首先對人臉圖像做鏡像變換,然后對原始人臉圖像和鏡像圖像分別做奇異值分解,接著用較大的幾個(gè)奇異值分別對原人臉圖像重構(gòu),將這些重構(gòu)圖像、原圖像以及鏡像圖像一起作為訓(xùn)練樣本運(yùn)用 (2D)2PCA方法對其進(jìn)行特征抽取,最后使用基于最小歐氏距離的分類方法對樣本集進(jìn)行分類識別。由于考慮了人臉圖像的旋轉(zhuǎn)等姿態(tài)變化,在ORL人臉數(shù)據(jù)庫上的實(shí)驗(yàn)結(jié)果表明,該方法比參考文獻(xiàn)[6]中的方法有更好的識別性能。
增加鏡像圖像可以部分消除由于頭部的旋轉(zhuǎn)對人臉識別造成的影響,而且人臉圖像是基本對稱的[7],則此時(shí)可以考慮將原始人臉圖像A以其垂直中心軸由式(1)作鏡像變換,從而對原始訓(xùn)練人臉圖像的個(gè)數(shù)進(jìn)行擴(kuò)展。
其中,M為反對角線元素為1、其余元素為0的方陣。
對于一張大小為m×n的人臉圖像A進(jìn)行奇異值分解[8]可得到:[U,D,V]=SVD(A),其中 U、D、V 分別是大小為 m×m、m×n、n×n的矩陣,并且對角矩陣 U、V 都是歸一化的矩陣,對角矩陣D的對角元素非負(fù)且其大小是按降序排列的。 A=U×D×VT=Um×m×Dm×n×VTn×n,從而可以依據(jù)下列組合對原始人臉圖像A進(jìn)行近似重構(gòu):
其中,ui、viT、λi分別表示 U 的第 i列、V 的第 i列的轉(zhuǎn)置以及對角矩陣D的第i個(gè)元素,通過這種方式,可以從一幅人臉圖像中得到多幅不同的圖像。但是,實(shí)驗(yàn)中并不需要使用所有的奇異值對原始人臉圖像進(jìn)行重構(gòu),而是只需取前幾個(gè)最能表達(dá)人臉特征的奇異值。實(shí)驗(yàn)表明,當(dāng)取前四個(gè)奇異值時(shí),能使所用方法的識別效果達(dá)到最佳,所以在沒有特殊說明的情況下,本文所使用的奇異值均為四個(gè)。
對于一幅大小為m×n的二維灰度 人 臉 圖 像 A,Z∈Rm×q,X∈Rn×d分別為由2DPCA方法產(chǎn)生的特征矩陣,此時(shí)n≥d。將A分別投影到Z和X上可以得到q×d的向量C。
此時(shí),向量C即為人臉圖像A的投影特征向量,同時(shí)可以由C對原始人臉圖像A進(jìn)行重構(gòu):
訓(xùn)練時(shí),將每張訓(xùn)練人臉圖像Ak(k=1,2,…,M)分別向 Z和 X投影,得到訓(xùn)練樣本的投影特征矩陣Ck(k=1,2,…,M);同時(shí),在測試時(shí),對于任一測試人臉圖像A,首先使用式(5)得到特征矩陣 C,然后使用基于最小歐氏距離的最近鄰分類器對測試人臉圖像進(jìn)行分類識別。本文算法的結(jié)構(gòu)流程圖如圖1所示。
本實(shí)驗(yàn)所用人臉數(shù)據(jù)庫為ORL人臉庫,該人臉數(shù)據(jù)庫由40人、每人分別由10幅大小均為 112×92的256灰度級的正面人臉圖像組成,這些圖像是在不同時(shí)間、不同光照、不同表情和不同姿態(tài)下拍攝的。圖2給出了ORL人臉數(shù)據(jù)庫中的部分標(biāo)準(zhǔn)人臉圖像及其鏡像圖像。
為了對各方法的識別效果進(jìn)行對比,本文分別對單樣本 PCA算法、SVD+PCA算法、參考文獻(xiàn)[6]中提出的SVD+2DPCA算法、SVD+(2D)2PCA以及本文提出的方法在ORL人臉數(shù)據(jù)庫上進(jìn)行10組實(shí)驗(yàn),即分別將每個(gè)人的第1,2,3,...,10幅共40幅人臉圖像作為訓(xùn)練樣本,而其余的360幅圖像作為測試樣本進(jìn)行分類識別,然后取其平均識別率,測試結(jié)果如表1所示。以下(2D)2PCA方法中行方向降維維數(shù)為10,即只對其列方向維數(shù)做變化。
不同的特征提取方法的確會(huì)對系統(tǒng)識別率的提高有一定的影響,為了驗(yàn)證本文方法識別率的提高不僅僅依賴于(2D)2PCA特征提取方法的選擇,而是由于鏡像人臉圖像樣本的增加,實(shí)驗(yàn)中分別對單樣本PCA算法、SVD+PCA算法、SVD+2DPCA算法、SVD+(2D)2PCA算法以及本文算法在ORL人臉庫上,同樣分別將每個(gè)人的第1,2,3,...,10幅圖像作為訓(xùn)練人臉圖像,而將其余的360幅作為測試樣本,取同一特征向量維數(shù)下的10組實(shí)驗(yàn)的平均識別率作為其最終識別率,測試結(jié)果如圖3所示。
同時(shí),為了比較各參考文獻(xiàn)方法和本文方法在不同測試樣本數(shù)目情況下的穩(wěn)定性[9],做如下的測試實(shí)驗(yàn):在 ORL人臉庫上分別取每個(gè)人的第 1,2,3,...,10張圖像作為訓(xùn)練樣本,分10組實(shí)驗(yàn),同時(shí)在每組實(shí)驗(yàn)中分別以除訓(xùn)練樣本以外的前2,3,4,...,9張圖像作為測試樣本,計(jì)算每組實(shí)驗(yàn)的平均識別率,實(shí)驗(yàn)結(jié)果如圖4所示。
?
由表1可以看出,在不同的訓(xùn)練樣本條件下,本文提出的方法的識別效果明顯高于參考文獻(xiàn)中提出的其他幾種方法,這主要是由于加入鏡像信息后可以減小由于姿態(tài)變化對人臉識別的影響。從圖3中的實(shí)驗(yàn)數(shù)據(jù)也可以看出SVD+2DPCA和SVD+(2D)2PCA方法在特征維數(shù)增大時(shí),兩種方法的識別效果差不多,但是都不如本文所提方法,而且由SVD+(2D)2PCA方法和本文方法的比較曲線可以得知,本文方法識別率的提高主要是依賴于人臉圖像鏡像信息的加入,而不是僅僅由于(2D)2PCA特征提取方法的選擇。由圖4可知,隨著測試樣本個(gè)數(shù)的增加,特別是PCA方法的識別率較低而且其穩(wěn)定性較弱,與SVD+2DPCA以及SVD+(2D)2PCA方法相比,本文所提方法在保證識別率高于其他方法的同時(shí),也表現(xiàn)出了較強(qiáng)的穩(wěn)定性。
通過對原始人臉圖像增加鏡像圖像來擴(kuò)充訓(xùn)練人臉樣本數(shù),提出了一種基于鏡像奇異值分解的新方法。實(shí)驗(yàn)表明,與其他單樣本人臉識別方法相比,本文所提出的方法具有較高的識別率,在一定程度上克服了由于人臉姿態(tài)的變化對識別結(jié)果的影響,并取得了較好的識別效果。但是,現(xiàn)有的基于單樣本人臉識別的方法其識別率一般都不高,有效算法的提出還有待進(jìn)一步的研究。
[1]ZHAO W,CHELLAPPA R,ROSENFELD A,et al.Face recgnition:a literature survey[J].ACM Computing Surveys,2003,35(4):399-458.
[1]TURK M,PENTLAND A.Eigenfaces for recognition[J].Journal of Cognitive Neuroscience,1991,3(1):71-86.
[2]TURK M,PENTLAND A.Face recognition using eigenfaces[A].Proceedings of IEEE Computer Vision and Pattern Recognition[C].Hawaii,USA:IEEE CS Press,1991:586-591.
[3]YANG J,ZHANG D.Two_dimensional PCA:a new approach to appearance-based face representation and Recognition[J].IEEE Transaction on Pattern Analysis and Machine Intelligence,2004,26(1):131-137.
[4]ZHANG Dao Qiang,ZHOU Zhi Hua.(2D)2PCA:Twodirectional two-dimensional PCA for efficient face representation and recognition[J].Neurocomputing,2005(69):224-231.
[5]BELHUMEUR V,HESPANHA J,KRIEGMAN D.Eigenfaces vs fisherfaces:recognition using class specific linear projection[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,1997,19(7):711-720.
[6]LU Chong,LIU Wan Quan,SEN Jian.An face recogni-tion with only one training sample[J].Proceedings of the 25th Chinese Control Conference 7-11 August,2006
[7]楊瓊,丁曉青.對稱主分量分析及其在人臉識別中的應(yīng)用[J].計(jì) 算 機(jī) 學(xué) 報(bào) ,2003,26(9):1146-1151.
[8]ZHANG D,CHEN S,ZHOU Z H.A new face recognition method based on SVD perturbation for single example image per person[J].Applied Mathematics and computation,2005,163(2):895-907.
[9]吳朋.基于虛擬信息的單樣本分塊人臉識別[J].計(jì)算機(jī)工 程 與 應(yīng) 用,2009,45(19):146-149.