王 瑤,王正勇,何小海,雷 翔
(四川大學(xué) 電子信息學(xué)院 圖像信息研究所,四川 成都 610064)
基于多尺度訓(xùn)練庫與多特征融合的人臉識(shí)別
王 瑤,王正勇,何小海,雷 翔
(四川大學(xué) 電子信息學(xué)院 圖像信息研究所,四川 成都 610064)
針對(duì)光照差異、表情變化、遮擋等因素造成人臉識(shí)別率低的問題,提出一種基于多尺度訓(xùn)練庫和加權(quán)特征的魯棒性人臉識(shí)別算法。首先根據(jù)不同大小的圖片具有不同信息量的特點(diǎn)定義并建立多尺度訓(xùn)練庫,然后采用RPCA方法對(duì)人臉圖像進(jìn)行分解,之后進(jìn)行HMLBP特征和Eigenface特征提取,最后引入一個(gè)權(quán)重因子將兩種特征進(jìn)行加權(quán)融合,并采用基于稀疏表達(dá)的方法對(duì)人臉圖像進(jìn)行識(shí)別。實(shí)驗(yàn)結(jié)果表明,相比其他人臉識(shí)別算法,本文提出的算法對(duì)標(biāo)準(zhǔn)人臉庫保持較高識(shí)別率,最高可達(dá)99%,同時(shí)對(duì)遮擋人臉庫也具有較好的識(shí)別效果,魯棒性較高。
多尺度訓(xùn)練庫;加權(quán)特征融合;RPCA;人臉識(shí)別
人臉識(shí)別作為計(jì)算機(jī)技術(shù)領(lǐng)域的熱點(diǎn)研究問題,以其自身的優(yōu)越性廣泛應(yīng)用在圖像處理、機(jī)器智能與模式識(shí)別、智能監(jiān)控、身份鑒定等領(lǐng)域。在人臉識(shí)別過程中,由于光照條件、拍攝距離以及圖像采集設(shè)備等差異影響了人臉識(shí)別的效果,導(dǎo)致識(shí)別率降低,給人臉識(shí)別技術(shù)帶來了一定的挑戰(zhàn)。
在人臉識(shí)別的發(fā)展中,學(xué)者們提出了許多算法。Matthew Turk和Alex Pentland[1]將主成分分析方法(Principal Component Analysis,PCA)引入人臉識(shí)別領(lǐng)域,提出了一種基于Eigenface的人臉識(shí)別方法[2]。Belhumeur[3]等人將PCA和線性判別分析(Linear Discrimination Analysis,LDA)相結(jié)合提出了一種基于Fisherface的人臉識(shí)別方法[4]。這些方法取得了一定的成果,但均建立在樣本服從多元正態(tài)分布的假設(shè)前提下。而研究表明,人臉空間更可能存在于低維非線性流形子空間中,為了解決這個(gè)問題,研究者提出了對(duì)圖像進(jìn)行分類的支持向量機(jī)(SVM)方法[5],隨著分類算法的不斷發(fā)展,還涌現(xiàn)了其他許多改進(jìn)算法,如增量主成分分析(IPCA)、增量線性鑒別分析(ILDA)、增量支持向量機(jī)(ISVM)、獨(dú)立主成分分析(ICA)等[6-9]。這些方法有效地解決了樣本非線性的問題,但是在人臉圖片光照、姿態(tài)、表情變化較大時(shí)識(shí)別性能并不十分理想。針對(duì)這一點(diǎn),研究人員提出了基于壓縮感知的分類方法,如Wright等人提出的基于稀疏表示分類器人臉識(shí)別(SRC)[10]。SRC方法將所有訓(xùn)練圖像進(jìn)行稀疏表示,依據(jù)壓縮感知理論求出最稀疏表示,對(duì)人臉圖像進(jìn)行分類。SRC方法雖然很好地改善了人臉分類效果,但只是簡單地將經(jīng)過PCA降維獲得的數(shù)據(jù)作為單一特征用作識(shí)別,且對(duì)遮擋人臉識(shí)別效果不理想。Meng Yang等人在文獻(xiàn)[11]中提出了一種魯棒的稀疏編碼算法,該算法對(duì)遮擋人臉識(shí)別率有很大的提高,但由于權(quán)重需要經(jīng)過不斷的迭代計(jì)算,導(dǎo)致程序運(yùn)行時(shí)間較長。J B Huang等人在稀疏編碼時(shí)間上進(jìn)行改進(jìn),在文獻(xiàn)[12]中提出了基于原型表示的快速稀疏表示算法(FSR),F(xiàn)SR方法采用K-SVD算法選取出具有代表性的樣本來構(gòu)造人臉超完備字典,精簡了訓(xùn)練字典,大大提高了算法運(yùn)行速度,然而識(shí)別率較原始的稀疏方法有所降低。
針對(duì)上述問題,本文提出了一種基于多尺度訓(xùn)練庫與多特征融合的魯棒性人臉識(shí)別算法。算法定義和建立了多尺度訓(xùn)練庫,對(duì)不同大小的測(cè)試人臉圖片進(jìn)行多尺度歸一化;并引入一個(gè)權(quán)重因子將分層多尺度LBP(HMLBP)[13]特征和Eigenface特征進(jìn)行加權(quán)融合,有效地結(jié)合了兩種特征的優(yōu)勢(shì)。本文對(duì)多尺度人臉圖片組成的測(cè)試庫以及人臉有遮擋和無遮擋情況分別進(jìn)行了實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果表明,無論人臉尺度大小、有無遮擋,本文算法相比于其他人臉識(shí)別算法都具有較好的識(shí)別率,能應(yīng)用于各種情況的人臉識(shí)別,具有較高的魯棒性。
本文算法首先針對(duì)不同大小圖片具有不同信息量的問題定義了多尺度訓(xùn)練庫的概念,并基于多尺度訓(xùn)練庫對(duì)不同大小的測(cè)試人臉圖片進(jìn)行多尺度歸一化,然后采用魯棒性主成分(RPCA)對(duì)人臉圖像進(jìn)行分解[14],將得到的低秩部分進(jìn)行HMLBP特征和Eigenface特征提取,再引入一個(gè)權(quán)重因子將特征進(jìn)行加權(quán)融合,最后用基于稀疏表示的方法進(jìn)行人臉識(shí)別。算法具體的實(shí)現(xiàn)流程如圖1所示。
圖1 本文算法流程
1.1 基于多尺度訓(xùn)練庫的人臉歸一化
在實(shí)際的應(yīng)用中,有時(shí)會(huì)涉及到對(duì)不同大小的人臉圖片進(jìn)行識(shí)別,如基于視頻的人臉識(shí)別。由于拍攝過程中個(gè)體與攝像頭距離遠(yuǎn)近的差異,導(dǎo)致采集到的視頻中人臉圖像大小存在差異。對(duì)于不同大小的圖片,圖片的信息量不同,經(jīng)特征提取、數(shù)據(jù)降維后保留的圖片主要信息也不同。若輸入的測(cè)試圖片與訓(xùn)練庫的大小不匹配,簡單地將各種尺度的測(cè)試圖片歸一化成單一尺度,將會(huì)影響識(shí)別的準(zhǔn)確性,這也是人臉識(shí)別研究過程中容易被忽視的一點(diǎn)。因此本文提出了一種多尺度訓(xùn)練庫的概念,在多尺度訓(xùn)練庫下對(duì)不同大小的測(cè)試圖片進(jìn)行多尺度歸一化,對(duì)于不同大小的輸入人臉圖片都能獲得較好的識(shí)別率。人臉訓(xùn)練庫的匹配與多尺度歸一化過程主要分為如下幾個(gè)步驟:
1)預(yù)先對(duì)大小為X1×Y1,X2×Y2,…,Xn×Yn的訓(xùn)練人臉圖片建立n種大小的圖片訓(xùn)練庫T1,T2,…,Tn。
2)將多尺度人臉訓(xùn)練庫按從大到小的順序排列,假設(shè)為T1>T2>…>Tn。
3)讀取測(cè)試人臉圖片y,設(shè)其大小為N×M。
4)設(shè)計(jì)如下規(guī)則將測(cè)試人臉圖片與訓(xùn)練人臉庫進(jìn)行匹配
(1)
式中:k=N×M表示測(cè)試人臉圖片大?。籯1=X1×Y1,k2=X2×Y2,…,kn=Xn×Yn表示n種不同的訓(xùn)練人臉圖片大?。籊為最終匹配的人臉訓(xùn)練庫。
5)將測(cè)試人臉y按匹配的人臉訓(xùn)練庫G中的人臉圖片大小用雙線性插值算法進(jìn)行歸一化。
實(shí)驗(yàn)表明,本文提出的基于多尺度訓(xùn)練庫的人臉歸一化方法有效提高了人臉識(shí)別率,具體實(shí)現(xiàn)和效果將在本文的實(shí)驗(yàn)結(jié)果部分給出。
1.2 基于低秩分解的人臉圖像預(yù)處理
在實(shí)際應(yīng)用中,人臉圖像往往包含光照變化、陰影、遮擋等影響,這些影響給人臉識(shí)別帶來了挑戰(zhàn),在這些環(huán)境的影響下獲得的人臉圖像得到的像素矩陣往往呈現(xiàn)出高秩的特點(diǎn)。本文采用RPCA方法對(duì)人臉圖像進(jìn)行分解,得到反映人臉本質(zhì)特征(如頭發(fā)、五官等)的低秩部分和反映人臉差異(遮擋物體,如墨鏡、圍巾或污染等)的稀疏誤差部分。
假設(shè)有K張人臉圖,每一張人臉圖像的大小為N×M,本文算法將每一張人臉圖像的像素值按列取出,即每一張圖像為一列,構(gòu)成了一個(gè)(N×M)×K的矩陣D,將其表示為低秩矩陣A以及稀疏誤差矩陣E兩部分
D=A+E
(2)
式(2)可轉(zhuǎn)化為式(3)來描述
(3)
式中:λ為權(quán)重參數(shù),是一個(gè)正數(shù);‖·‖*為求矩陣的核范數(shù);‖·‖1為求矩陣的1范數(shù)。本文將式(3)描述的問題轉(zhuǎn)化為求解增廣的拉格朗日乘法問題[15],如式(4)所示
l(A,E,Y)= ‖A‖*+λ‖E‖1+
(4)
式中:Y為拉格朗日乘子;μ是一個(gè)正參數(shù);為求取矩陣a、b內(nèi)積;‖·‖F(xiàn)為求取矩陣的F范數(shù)。圖2給出了有遮擋和無遮擋人臉預(yù)處理前后的效果圖,圖中D為原始的人臉圖片,A為經(jīng)過低秩分解預(yù)處理得到的人臉圖片,E為稀疏誤差部分,從圖中可看出經(jīng)過預(yù)處理,有效去除了陰影、遮擋等影響。
圖2 基于低秩分解的人臉預(yù)處理效果圖
1.3 加權(quán)特征融合決策
在人臉識(shí)別領(lǐng)域很多研究學(xué)者提出多個(gè)分類器的組合可以更有效進(jìn)行人臉分類,如Salimi-Khorshidi G等人提出多分類器識(shí)別框架[16]。通過這些領(lǐng)域的研究,人們發(fā)現(xiàn)多特征組合有望降低對(duì)分類器的復(fù)雜性要求,并提高識(shí)別率。在人臉識(shí)別領(lǐng)域通常采取基于全局特征和基于局部特征兩種方法來進(jìn)行識(shí)別,兩種方法各有優(yōu)劣。全局特征主要表示人臉的主要信息,對(duì)細(xì)微的變化不敏感。局部特征主要表示人臉的細(xì)節(jié)信息,對(duì)光照具有較強(qiáng)的魯棒性。源于此思想,本文提出一種將HMLBP特征和Eigenface特征加權(quán)融合的方法,結(jié)合了局部特征和全局特征的優(yōu)點(diǎn)。
1.3.1 HMLBP特征提取
傳統(tǒng)的單尺度局部二值模式(Local Binary Patterns,LBP)[17]難以捕捉圖像的細(xì)節(jié)信息特征,結(jié)合雙線性插值運(yùn)算圓形領(lǐng)域的LBP算子可以選擇任意半徑任意數(shù)目的鄰域像素點(diǎn)進(jìn)行編碼,比單尺度的LBP特征更能表示一幅圖像的信息。其編碼計(jì)算公式如下
(5)
式中:gc是中心像素點(diǎn)的灰度值;gP是其周圍相鄰像素點(diǎn)的灰度值;P為相鄰點(diǎn)的總個(gè)數(shù);R為圓形鄰域的半徑。
為了進(jìn)一步提取具有代表性的圖像特征,研究者提出了“統(tǒng)一化模式”的概念,LBP二進(jìn)制編碼中包含從0到1,或從1到0轉(zhuǎn)變不多于兩個(gè)的模式稱為統(tǒng)一化模式,否則為非統(tǒng)一化模式。本文首先對(duì)每張輸入的人臉圖片建立每個(gè)像素的最大半徑的LBP映射,然后將像素點(diǎn)根據(jù)統(tǒng)一化和非統(tǒng)一化兩種模式劃分為兩組,對(duì)統(tǒng)一化模式的像素點(diǎn)建立第一層LBP直方圖,剩下的非統(tǒng)一化模式的像素點(diǎn)將鄰域半徑逐次減小,獲取下一層統(tǒng)一化模式的LBP直方圖。直到半徑減小為1時(shí),將所有生成的直方圖混合得到HMLBP特征,其原理如圖3所示。對(duì)低秩分解得到的矩陣A進(jìn)行HMLBP特征提取后得到一個(gè)D1×K的特征矩陣CMHLBP,其中D1為HMLBP特征維數(shù)。
圖3 HMLBP特征提取原理圖
1.3.2Eigenface特征提取
本文將低秩分解得到的矩陣A用式(6)進(jìn)行K-L變換
(6)
BBT×νi=λi×νi
(7)
對(duì)式(7)作如下變換
BBT×(B×νi)=λi×(B×νi)
(8)
S的特征向量B×vi即為一個(gè)Eigenface特征,對(duì)矩陣A進(jìn)行Eigenface特征提取后得到一個(gè)D2×K維的特征矩陣CEigenface,D2為Eigenface特征維數(shù)。
1.3.3 加權(quán)特征融合方法
由于不同特征提取算法的優(yōu)勢(shì)不同,使用單一的特征進(jìn)行識(shí)別無法適用于多種情況下采集得到的人臉圖片,多特征間的線性加權(quán)組合通常比單特征帶來更好的人臉識(shí)別效果,并且相比于其他運(yùn)算規(guī)則(例如積、平均、最大、最小)能取得更好的融合效果。因此,本文設(shè)定一個(gè)權(quán)重因子ω,采用線性加權(quán)的方式來融合HMLBP特征和Eigenface特征。組合方式如式(9)所示
C=ωCHMLBP+(1-ω)CEigenface, 0≤ω≤1
(9)
式中:ω用來控制HMLBP和的Eigenface相對(duì)比重。當(dāng)ω=0時(shí),它等同于使用單一的Eigenface特征,同理當(dāng)ω=1時(shí),等同于使用HMLBP特征。加權(quán)特征融合的方法結(jié)合不同特征的優(yōu)勢(shì),有效選擇并保留了更具代表性的特征,取得了更好的識(shí)別效果。圖4為本文多特征融合示意圖,加權(quán)特征的優(yōu)勢(shì)將在本文實(shí)驗(yàn)結(jié)果部分給出證明。
圖4 多特征融合示意圖
測(cè)試人臉圖片進(jìn)行加權(quán)特征融合后采用基于稀疏表示的方法進(jìn)行人臉識(shí)別,為了對(duì)本文算法的有效性進(jìn)行評(píng)估,在本節(jié)給出了單一尺度與多尺度訓(xùn)練庫、不同特征以及遮擋人臉方面的實(shí)驗(yàn)測(cè)試,最后將本文算法與其他幾種常見人臉識(shí)別算法進(jìn)行了比較,驗(yàn)證了本文算法的有效性。
2.1 多尺度訓(xùn)練庫的識(shí)別率測(cè)試
本文在多尺度訓(xùn)練庫識(shí)別率測(cè)試實(shí)驗(yàn)中選取了ORL人臉圖像庫。ORL人臉圖像庫包括了40個(gè)不同的人的400幅圖像,每人10幅不同表情、不同角度和不同臉部細(xì)節(jié)的人臉圖像。在實(shí)驗(yàn)部分,由于不同的特征維數(shù)會(huì)導(dǎo)致不同的識(shí)別率,在經(jīng)過大量實(shí)驗(yàn)測(cè)試并出于兼顧識(shí)別率和時(shí)間效率方面的考慮,將加權(quán)特征維數(shù)定為132維。ORL人臉庫實(shí)驗(yàn)過程中隨機(jī)選取每人5張圖片生成訓(xùn)練庫,預(yù)先搭建訓(xùn)練圖片大小為89×73、67×55、44×36、22×18的4種訓(xùn)練庫。表1給出了含有不同大小人臉圖片的ORL測(cè)試人臉庫在同時(shí)歸一化到幾種單一尺度的訓(xùn)練庫以及按本文設(shè)計(jì)的規(guī)則歸一化到多尺度訓(xùn)練庫時(shí)的識(shí)別率。測(cè)試庫1隨機(jī)選取ORL人臉圖片大小為89×73、67×55、44×36、22×18這4種尺度,每種5張,共800張人臉圖片。測(cè)試庫2隨機(jī)選取ORL人臉圖片大小為100×82、78×64、56×46、33×27這4種尺度,每種5張,共800張人臉圖片。實(shí)驗(yàn)結(jié)果表明,不同大小的測(cè)試人臉圖片,在多尺度訓(xùn)練庫的匹配下,識(shí)別率最高,算法的實(shí)用性更強(qiáng)。
表1 不同訓(xùn)練庫對(duì)人臉識(shí)別率的影響 %
2.2 特征權(quán)重的選取實(shí)驗(yàn)
不同特征權(quán)重的選取將會(huì)帶來不同的人臉識(shí)別效果,圖5以O(shè)RL人臉HMLBP特征維數(shù)D1=100,Eigenface特征維數(shù)D2=32為例,對(duì)特征融合的權(quán)重ω進(jìn)行了討論,對(duì)權(quán)重進(jìn)行了分析,發(fā)現(xiàn)當(dāng)HMLBP特征權(quán)重取ω=0.1且Eigenface取1-ω=0.9時(shí)識(shí)別效果最好,ORL人臉庫識(shí)別率最高可達(dá)97.50%。
圖5 權(quán)重ω對(duì)識(shí)別率的影響
2.3 不同特征的識(shí)別率測(cè)試
本文測(cè)試了不同的特征對(duì)人臉識(shí)別率 的影響,為了證明加權(quán)特征提取方法識(shí)別率的優(yōu)勢(shì),本文對(duì)不同特征,包括下采樣(采用雙線性方法將圖片縮放為12×11像素,即特征維數(shù)d=132)、特征臉特征、HMLBP特征以及本文提出的加權(quán)特征,對(duì)不同人臉庫識(shí)別率的影響做了實(shí)驗(yàn)。人臉庫選擇ORL、AR、ExtendedYaleB、自制庫(見圖6)等人臉庫。AR人臉庫包含100個(gè)人的1 400張正面人臉圖像,人均14張不同人臉表情和光照環(huán)境變化人臉圖片。Extended YaleB人臉庫包含了38個(gè)人在64種光照條件下的人臉圖片,其中正臉圖片2 414張。自制庫是由四川大學(xué)圖像信息研究所拍攝并用作人臉識(shí)別測(cè)試的人臉圖像庫,其中包含了44個(gè)人,人均10張不同表情、不同角度和不同臉部細(xì)節(jié)的人臉圖片。
圖6 自制圖像庫中部分人臉圖像
表2給出了本文算法在不同的特征下對(duì)人臉識(shí)別率影響的實(shí)驗(yàn)測(cè)試,圖7給出了ExtendedYaleB庫中部分圖片使用單獨(dú)HMLBP、Eigenface特征以及本文提出的加權(quán)特征的識(shí)別結(jié)果,每一行為每種特征的識(shí)別結(jié)果,其中虛線框出的圖片表示能正確識(shí)別。結(jié)果表明本文提出的加權(quán)特征融合方法對(duì)比于單一特征方法對(duì)人臉識(shí)別率有一定的提高。
表2 本文算法在不同特征下的識(shí)別率 %
圖7 不同特征的人臉識(shí)別結(jié)果
2.4 人臉遮擋時(shí)的識(shí)別率測(cè)試
在識(shí)別遮擋人臉的實(shí)驗(yàn)部分,選取AR遮擋人臉庫(見圖8)進(jìn)行測(cè)試。AR遮擋人臉庫包含了100個(gè)人的1 200張正面遮擋人臉圖像,人均12張人臉圖片,其中包含了每人6張?zhí)栫R遮擋和6張圍巾遮擋。
圖8 AR遮擋人臉圖像庫中部分人臉圖像
在測(cè)試遮擋人臉的識(shí)別率實(shí)驗(yàn)中,隨機(jī)選取AR無遮擋庫中每人各8張人臉圖片作為訓(xùn)練,選取AR無遮擋庫中每人剩下的6張人臉圖片和AR遮擋庫中每人各4張遮擋人臉圖片(太陽鏡、圍巾遮擋各2張),即每人10張圖片作為測(cè)試。從表3可以看出,與原始的稀疏人臉識(shí)別方法(SRC)和快速稀疏人臉識(shí)別方法(FSR)相比,本文提出的算法對(duì)遮擋人臉同樣具有較高的識(shí)別率,算法魯棒性更強(qiáng)。
表3 不同算法對(duì)AR遮擋人臉庫識(shí)別結(jié)果
2.5 采用不同識(shí)別算法的識(shí)別率測(cè)試
圖9中展示了本文提出的算法與PCA,LDA,IPCA,ILDA,SVM,ISVM,ICA,SRC,F(xiàn)SR這9種常見的人臉識(shí)別算法在不同人臉庫上識(shí)別率的對(duì)比,實(shí)驗(yàn)結(jié)果表明,相比于其他算法,本文算法在不同人臉庫上均能保持較好的識(shí)別率,體現(xiàn)了本文算法的優(yōu)越性。
圖9 不種算法對(duì)人臉識(shí)別率的影響
人臉識(shí)別作為當(dāng)今熱門的身份識(shí)別技術(shù)之一,利用生物特性進(jìn)行身份識(shí)別,以其較為快速、方便、準(zhǔn)確的優(yōu)點(diǎn)被用于許多領(lǐng)域,特征提取對(duì)于提高人臉識(shí)別的準(zhǔn)確率和速率具有很大的貢獻(xiàn)。本文根據(jù)不同大小的測(cè)試圖片建立多尺度人臉圖片訓(xùn)練庫,用RPCA方法對(duì)人臉圖片分解得到的低秩部分進(jìn)行加權(quán)特征提取,最后采用基于稀疏表達(dá)的方法進(jìn)行識(shí)別。實(shí)驗(yàn)結(jié)果表明,本文提出的算法相比于其他人臉?biāo)惴ň哂休^高的識(shí)別率,魯棒性更強(qiáng)。本文研究雖然取得了一定成果,但是也存在一些問題需要進(jìn)一步探討研究。對(duì)于多尺度庫的搭建、尺度的選取以及對(duì)于多特征融合問題,采用的具體特征以及特征的具體個(gè)數(shù)仍然需要進(jìn)一步討論。目前光照變化、夸張表情和人臉對(duì)齊等仍然是人臉識(shí)別面臨的幾大難題,通過預(yù)處理或是尋找更加魯棒的分類算法是下一步研究的方向。
[1]ABDI H,WILLIAMS L J. Principal component analysis[J]. Wiley Interdisciplinary Reviews:Computational Statistics,2010,2(4):433-459.
[2]AGARWAL M,AGRAWAL H,JAIN N,et al. Face recognition using principle component analysis, eigenface and neural network[C]//Proc. 2010 International Conference on Signal Acquisition and Processing. Bangalore,India:[s.n.],2010:310-314.
[3]FAN Z,XU Y,ZHANG D. Local linear discriminant analysis framework using sample neighbors[J].IEEE Trans. Neu. Net.,2011,22(7):1119-1132.
[4]MARTINEZ A.Fisherfaces[J].Scholarpedia,2011,6(2):4282.
[5]CHANG C C,LIN C J. LIBSVM:a library for support vector machines[J].ACM Transactions on Intelligent Systems and Technology(TIST),2011,2(3):27.
[6]WENG J,ZHANG Y,HWANG W S. Candid covariance-free incremental principal component analysis[J].IEEE Trans. Patt. Anal. Mach. Intell.,2003,25(8):1034-1040.
[7]KIM T K,WONG S F,STENGER B,et al. Incremental linear discriminant analysis using sufficient spanning set approximations[J].International Journal of Computer Vision,2007,91(2):216-232.
[8]CAUWENBERGHS G,POGGIO T. Incremental and decremental support vector machine learning[J].Advances in Neural Information Processing Systems,2001(11):409-415.
[9]BARTLETT M S,MOVELLAN J R,SEJNOWSKI T J. Face recognition by independent component analysis[J].IEEE Trans. Neu. Net.,2002,13(6):1450-1464.
[10]WRIGHT J,YANG A Y,GANESH A,et al. Robust face recognition via sparse representation[J].IEEE Trans. Patt. Anal. Mach. Intell.,2009,31(2):210-227.
[11]YANG M,ZHANG L,YANG J,et al. Robust sparse coding for face recognition[EB/OL].[2014-04-10].http://wenku.baidu.com/view/1eff46bdf121dd36a32d82db.html.
[12]HUANG J B,YANG M H. Fast sparse representation with prototypes[EB/OL].[2014-04-10].http://faculty.ucmerced.edu/mhyang/cvpr10_fsr.html.
[13]GUO Z,ZHANG L,ZHANG D,et al. Hierarchical multiscale LBP for face and palmprint recognition[C]//Proc. 2010 17th IEEE International Conference on Image Processing (ICIP). [S.l.]:IEEE Press,2010:4521-4524.
[14]WRIGHT J,GANESH A,RAO S,et al. Robust principal component analysis:exact recovery of corrupted low-rank matrices via convex optimization[EB/OL].[2014-04-10].http://www.researchgate.net/publication/45849410_Robust_Principal_Component_Analysis_Exact_Recovery_of_Corrupted_Low-Rank_Matrices.
[15]LIN Z,CHEN M,MA Y. The augmented lagrange multiplier method for exact recovery of corrupted low-rank matrices[EB/OL].[2014-04-10].http://www.researchgate.net/publication/46587364_The_Augmented_Lagrange_Multiplier_Method_for_Exact_Recovery_of_Corrupted_Low-Rank_Matrices.
[16]SALIMI K G,DOUAUD G,BECKMANN C F,et al. Automatic denoising of functional MRI data: combining independent component analysis and hierarchical fusion of classifiers[EB/OL].[2014-04-10].http://www.researchgate.net/publication/259587259_Automatic_Denoising_of_Functional_MRI_Data_Combining_Independent_Component_Analysis_and_Hierarchical_Fusion_of_Classifiers?ev=prf_cit.
[17]ZHANG G,HUANG X,LI S Z,et al. Boosting local binary pattern(LBP)-based face recognition[EB/OL].[2014-04-10].http://www.researchgate.net/publication/220849851_Boosting_Local_Binary_Pattern_(LBP)-Based_Face_Recognition.
王 瑤(1990— ),女,碩士生,主研圖像處理與圖像識(shí)別;
王正勇(1969— ),女,副教授,主研圖像處理與模式識(shí)別、信息與信號(hào)處理;
何小海(1964— ),教授,博士生導(dǎo)師,主研圖像處理與信息系統(tǒng)、機(jī)器視覺與智能系統(tǒng);
雷 翔(1987— ),博士生,主研模式識(shí)別、圖像處理。
責(zé)任編輯:任健男
Face Recognition by Features Fusion Based on Multiscale Training Set
WANG Yao, WANG Zhengyong, HE Xiaohai, LEI Xiang
(ImageInformationInstitute,CollegeofElectronicsandInformationEngineering,SichuanUniversity,Chengdu610064,China)
For the low face recognition rate caused by frontal views with varying expression, illumination and occlusion, an face recognition algorithm with good robustness based on multiscale training set and weighted features is proposed. Firstly, the algorithm establishes a multiscale training set according to different size of images which contains different information. Next, images are decomposed by using RPCA. Finally, the HMLBP features and the Eigenface features are weighted combined for face recognition based on sparse representation. Experiments show that, compared with other algorithms, the proposed algorithm has a high recognition rate which can be 99% and has high robustness whatever it is based on common face database or occluded faces.
multiscale training set; weighted features combination; RPCA; face recognition
國家自然科學(xué)基金委員會(huì)和中國工程物理研究院聯(lián)合基金資助項(xiàng)目(11176018);國家自然科學(xué)基金項(xiàng)目(61071161)
TP391
A
10.16280/j.videoe.2015.01.031
2014-06-20
【本文獻(xiàn)信息】王瑤,王正勇,何小海,等.基于多尺度訓(xùn)練庫與多特征融合的人臉識(shí)別[J].電視技術(shù),2015,39(1).