劉作軍,高尚兵
(淮陰工學(xué)院計(jì)算機(jī)工程學(xué)院,江蘇 淮安223003)
人臉識(shí)別一直是計(jì)算機(jī)視覺及模式識(shí)別等領(lǐng)域研究的熱點(diǎn)課題,它有很多實(shí)際的應(yīng)用,比如視頻監(jiān)控、智能門禁、人機(jī)交互技術(shù)等。人臉圖像有很高的維數(shù),所以在識(shí)別前常常需要對(duì)圖像進(jìn)行降維。子空間學(xué)習(xí)方法,比如主成分分析[1]、線性判別分析[2]、局部保持投影[3]、邊界Fisher分析[4]等成為人臉識(shí)別領(lǐng)域經(jīng)典的方法。盡管子空間方法得到成功的應(yīng)用,但它們對(duì)于圖像污損(遮擋、偽裝等)不具有魯棒性。
近年來,基于稀疏表示分類SRC(Sparse Representation Classification)[5]的方法得到廣泛研究。SRC方法的主要思想是將所有訓(xùn)練樣本作為字典,得到測(cè)試樣本在字典矩陣上的編碼系數(shù),然后通過最小殘差法分類。SRC處理遮擋或隨機(jī)像素破壞時(shí)在原始字典上添加了單位矩陣作為遮擋字典,這樣可以很好地處理測(cè)試樣本中存在的遮擋和像素破壞。然而,當(dāng)樣本維數(shù)比較高時(shí),SRC的時(shí)間復(fù)雜度隨之升高。為了解決這個(gè)問題,Yang等人[6]提取圖像的Gabor特征,然后對(duì)遮擋部分進(jìn)行字典學(xué)習(xí),這樣遮擋字典的規(guī)模會(huì)降低,加快了稀疏編碼的速度。Ou等人[7]提出了遮擋字典學(xué)習(xí)方法,使得測(cè)試樣本在原始訓(xùn)練樣本矩陣和遮擋字典上的編碼均是稀疏的,這樣可以提升SRC方法的性能。Shi等人[8]提出使用L2范數(shù)來對(duì)表示系數(shù)進(jìn)行約束,這樣可以有效地處理高維數(shù)據(jù)(超過10 000維)。同樣地,Zhang等人[9]提出協(xié)同表示分類CRC(Collaborative Representation based Classification),指出是樣本間的協(xié)同表示而不是L1范數(shù)約束提升了人臉識(shí)別的性能。CRC可以得到解析解,因此計(jì)算復(fù)雜度大大降低,并且可以取得和SRC相當(dāng)?shù)淖R(shí)別結(jié)果。
SRC及其改進(jìn)方法的一個(gè)問題是它們要求訓(xùn)練數(shù)據(jù)是干凈的,即不存在遮擋等情形,因此限制了它們?cè)趯?shí)際中的應(yīng)用。最近的研究表明,視覺數(shù)據(jù)具有低秩結(jié)構(gòu),低秩矩陣恢復(fù)技術(shù)成為研究熱點(diǎn)問題。Candès 等人[10]提出的魯棒主成分分析RPCA(Robust Principal Component Analysis)可以從受噪聲污染的觀測(cè)數(shù)據(jù)中恢復(fù)出原始數(shù)據(jù)的低秩矩陣;隨后Liu等人[11]提出了低秩表示LRR(Low Rank Representation)方法,RPCA可以看作是LRR的一種特殊形式。基于RPCA和LRR,研究者提出了很多方法來處理訓(xùn)練數(shù)據(jù)中存在的污損情形。胡正平等人[12]將RPCA恢復(fù)后的低秩矩陣和誤差矩陣分別作為樣本字典和遮擋字典。Wei等人[13]使用RPCA對(duì)原始訓(xùn)練樣本進(jìn)行低秩分解,得到干凈的數(shù)據(jù)矩陣。另外,在RPCA的基礎(chǔ)上引入了不相關(guān)項(xiàng)。Nguyen等人[14]將低秩表示用于人臉識(shí)別。受Fisher準(zhǔn)則啟發(fā),張海新等人[15]提出了帶有Fisher判別準(zhǔn)則的低秩矩陣恢復(fù)算法,在有監(jiān)督學(xué)習(xí)模式下對(duì)低秩矩陣進(jìn)行恢復(fù)。Du等人[16]提出圖正則化低秩稀疏表示恢復(fù)GLRSRR(Graph regularized Low Rank Sparse Representation Recovery)方法,GLRSRR在訓(xùn)練樣本的表示系數(shù)上同時(shí)添加了低秩和稀疏約束,另外為了保持訓(xùn)練樣本間的局部結(jié)構(gòu),GLRSRR引入了圖正則項(xiàng)(最近鄰圖),使得恢復(fù)后的訓(xùn)練樣本具有很好的判別能力。Chen等人[17]提出了一種鑒別低秩表示方法,提升類間散布矩陣的不相關(guān)性,使得恢復(fù)后的不同類別的訓(xùn)練樣本盡可能獨(dú)立,因此測(cè)試樣本可以用更多同類別的訓(xùn)練樣本來表示。為了加快低秩分解后測(cè)試樣本的分類,何林知等人[18]提出了基于RPCA和CRC的方法。
上述基于低秩矩陣恢復(fù)的人臉識(shí)別方法沒有很好利用訓(xùn)練樣本的類別信息,此外在得到原始訓(xùn)練樣本的低秩矩陣后,通常會(huì)使用降維方法(如PCA或隨機(jī)投影)對(duì)訓(xùn)練樣本和測(cè)試樣本進(jìn)行降維。如果測(cè)試樣本圖像中存在遮擋,經(jīng)過投影后這些因素也不能很好地消除。受歸納式RPCA IRPCA(Inductive RPCA)[19]的啟發(fā),本文在得到訓(xùn)練樣本的恢復(fù)樣本后,根據(jù)恢復(fù)樣本和原始訓(xùn)練數(shù)據(jù),得到低秩投影矩陣,提出了一種基于結(jié)構(gòu)化低秩表示和低秩投影的人臉識(shí)別算法。首先通過結(jié)構(gòu)化低秩表示得到恢復(fù)后的訓(xùn)練樣本,根據(jù)恢復(fù)出的訓(xùn)練樣本和原始訓(xùn)練樣本得到低秩投影矩陣;然后利用低秩投影矩陣消除測(cè)試樣本中可能存在的遮擋;最后使用SRC對(duì)恢復(fù)后的測(cè)試樣本進(jìn)行分類。在AR和Extended Yale B人臉庫上的實(shí)驗(yàn)結(jié)果驗(yàn)證了本文方法的有效性和魯棒性。
假設(shè)X=[x1,x2,…,xn]∈Rm×n表示C類訓(xùn)練樣本圖像,共n幅,X的每列為一個(gè)樣本圖像,在本文中,也記為X=[X1,X2,…,XC],其中Xi表示第i類訓(xùn)練樣本,測(cè)試樣本y∈Rm。SRC的目標(biāo)函數(shù)為:
(1)
當(dāng)?shù)玫较禂?shù)α后,測(cè)試樣本y可以通過最小殘差法分類,即:
(2)
其中,αi是第i類對(duì)應(yīng)的系數(shù)。
當(dāng)訓(xùn)練樣本中存在遮擋和像素破壞等情形時(shí),SRC的性能急劇下降。為了解決這一問題,Liu等人[11]提出了低秩表示,可以有效地將異常像素和遮擋等從訓(xùn)練樣本中剝離,LRR的目標(biāo)函數(shù)如下:
s.t.X=AZ+E
(3)
其中,A為字典矩陣,Z為表示系數(shù)。式(3)可以通過不精確的增廣拉格朗日乘子法求解。
SRC對(duì)表示系數(shù)添加了稀疏約束,但它沒有考慮數(shù)據(jù)的子空間結(jié)構(gòu),而結(jié)構(gòu)信息對(duì)于分類是必要的。LRR的理論表明,低秩可以揭示數(shù)據(jù)的子空間結(jié)構(gòu)。因此,低秩稀疏表示[20]對(duì)表示系數(shù)同時(shí)添加低秩和稀疏約束,目標(biāo)函數(shù)為:
s.t.X=AZ+E
(4)
假設(shè)Q=[q1,q2,…,qn]∈RK×n為樣本的理想表示系數(shù),其中樣本xi的編碼qi具有[0,…,1,1,1,…]T∈RK的形式,K為字典中原子個(gè)數(shù),n為待表示樣本個(gè)數(shù)。假設(shè)樣本xi屬于類別L,那么qi在DL上的編碼均為1,其余全部為0。圖1給出了Q的形式,這兒給出了來自3個(gè)類別的10個(gè)樣本,其中x1,x2,x3屬于類別1,x4,x5,x6,x7屬于類別2,x8,x9,x10屬于類別3,字典矩陣A有6個(gè)原子,每個(gè)類別分別有2個(gè)。
Figure 1 An example for Q圖1 Q矩陣的示例
根據(jù)訓(xùn)練樣本的類別信息,可以構(gòu)造出具有塊對(duì)角結(jié)構(gòu)的矩陣Q,在低秩表示的過程中,將Q引入進(jìn)來,得到如下的目標(biāo)函數(shù):
s.t.X=AZ+E
(5)
本文將訓(xùn)練樣本作為字典矩陣,因此式(5)即為:
s.t.X=XZ+E
(6)
為了求解優(yōu)化問題(6),引入輔助變量W,則式(6)可以寫成:
s.t.X=XZ+E,Z=W
(7)
式(7)對(duì)應(yīng)的增廣拉格朗日函數(shù)為:
L(Z,E,W,T1,T2,μ)=
‖Z‖*+β‖W‖1+λ‖E‖1+
(8)
其中,〈A,B〉=tr(ATB),T1,T2為拉格朗日乘子,μ>0為懲罰參數(shù)。
本文利用含有自適應(yīng)懲罰項(xiàng)的線性交替方向法LADMAP(Linearized Alternating Direction Method with Adaptive Penalty)[21]來優(yōu)化式(8),為描述方便,式(8)可以寫成:
L(Z,E,W,T1,T2,μ)=
‖Z‖*+β‖W‖1+λ‖E‖1+
(9)
(10)
式(10)的解可以通過下式求解,即:
Zj+1=USVT=UTε[S]VT
(11)
其中,USVT是Ak的奇異值分解,Tε[S]是軟閾值算子[22]。
變量W的更新過程如下:
(12)
變量E的更新過程為:
(13)
算法1總結(jié)了結(jié)構(gòu)化低秩表示的求解過程。
算法1結(jié)構(gòu)化低秩表示
輸入:訓(xùn)練數(shù)據(jù)樣本X=[X1,X2,…,XC]∈Rm×n,參數(shù)λ,β,α。
輸出:(Z,W,E)。
若不滿足終止條件,循環(huán):
(1)根據(jù)式(10)更新Z;
(2)根據(jù)式(12)更新W;
(3)根據(jù)式(13)更新E;
(4)更新拉格朗日乘子:
(5)更新參數(shù)μ:μj+1=min(ρμj,μmax);
(6)檢查收斂條件:
‖X-XZj+1-Fj+1‖∞ ‖Zj+1-Wj+1‖∞ 輸出(Z,W,E)。 雖然通過低秩矩陣恢復(fù)可以從原始訓(xùn)練樣本中恢復(fù)出干凈數(shù)據(jù),但是如何處理測(cè)試樣本中存在的遮擋仍是需要解決的問題。受文獻(xiàn)[19]的啟發(fā),可以通過學(xué)習(xí)一個(gè)低秩投影矩陣,將受污染的測(cè)試圖像投影到相應(yīng)的低秩子空間。 從原始訓(xùn)練樣本X=[x1,x2,…,xn]∈Rm×n獲得一組主分量Y=[y1,y2,…,yn]∈Rm×n,其中稀疏噪聲部分已被有效地去除。可以通過求解以下問題得到低秩投影矩陣。 s.t.Y=PX (14) 假設(shè)P*為上述優(yōu)化問題的最優(yōu)解,則上述優(yōu)化問題的最優(yōu)解為P*=YX+,X+為X的偽逆矩陣,可以通過X+=VΣ-1UT求解,UΣVT為X的瘦奇異值分解。 輸入:C類訓(xùn)練樣本X=[X1,X2,…,XC]∈Rm×n,測(cè)試樣本y∈Rm,正則化參數(shù)λ、β和α,稀疏表示的參數(shù)srcλ。 (1)對(duì)所有訓(xùn)練樣本通過算法1進(jìn)行結(jié)構(gòu)化低秩表示,即求解如下問題: s.t.X=XZ+E (2)得到訓(xùn)練樣本的恢復(fù)數(shù)據(jù)Y=XZ*; (3)計(jì)算低秩投影矩陣P*=YX+,其中X+為X的偽逆矩陣; (4)測(cè)試樣本y投影到相應(yīng)子空間yr=P*y; (5)計(jì)算Y的主分量W,W=PCA(Y); (6)訓(xùn)練樣本恢復(fù)后的數(shù)據(jù)Y和測(cè)試樣本恢復(fù)后的數(shù)據(jù)yr分別投影到W,即D=W(Y),yp=W(yr); 本文在AR人臉庫[23]和Extended Yale B人臉庫[24]上進(jìn)行人臉識(shí)別實(shí)驗(yàn),以驗(yàn)證本文方法的有效性。為了更直觀地表示本文算法的識(shí)別率情況,本文做了一些對(duì)比實(shí)驗(yàn),包括NN(Nearest Neighbor)、LRC[25]、SRC[5]、CRC[9]、LRR_SRC[26]、LRSI[13]算法。訓(xùn)練樣本和測(cè)試樣本中均有遮擋或像素破壞,PCA用來對(duì)樣本進(jìn)行降維,SRC使用SolveDALM函數(shù)求解表示系數(shù),正則化參數(shù)設(shè)為0.001。本文方法的參數(shù)β=15,λ=16,α=560。 AR人臉庫包括126個(gè)人超過4 000幅人臉圖像。對(duì)于每一類人臉,26幅圖像被分成了兩個(gè)階段。在每一階段,每類有13幅人臉圖像,其中3幅被墨鏡遮擋的圖像,3幅被圍巾遮擋的圖像,其余7幅為受到表情和光照變化的人臉圖像。本文實(shí)驗(yàn)部分選取了50名男性和 50名女性共100類人臉圖像??紤]以下三種情形來測(cè)試本文方法性能: (1)Sunglasses:在該情形下,考慮訓(xùn)練樣本和測(cè)試樣本都受到墨鏡遮擋的情形。墨鏡大概遮擋了人臉圖像的20%。本文選用第一階段7幅無遮擋圖像和1幅墨鏡遮擋圖像(隨機(jī)選擇)作為訓(xùn)練樣本,第二階段的7幅無遮擋圖像和余下的墨鏡遮擋圖像(第一階段的2幅和第二階段的3幅)為測(cè)試樣本,因此每類有8個(gè)訓(xùn)練圖像和12個(gè)測(cè)試圖像。 (2)Scarf:在該情形下,考慮訓(xùn)練樣本和測(cè)試樣本都受到圍巾遮擋的情形。圍巾大概遮擋了人臉圖像的40%。本文選用第一階段7幅無遮擋圖像和1幅圍巾遮擋圖像(隨機(jī)選擇)作為訓(xùn)練樣本,第二階段的7幅無遮擋圖像和余下的圍巾遮擋圖像(第一階段的2幅加上第二階段的3幅)為測(cè)試樣本,因此每類有8個(gè)訓(xùn)練圖像和12個(gè)測(cè)試圖像。 (3)Mixed:在該情形下,考慮訓(xùn)練樣本和測(cè)試樣本都受到墨鏡遮擋和圍巾遮擋的情形。本文選用第一部分7幅沒有遮擋圖像,1幅墨鏡遮擋圖像(隨機(jī)選擇)以及1幅圍巾遮擋圖像(隨機(jī)選擇)作為訓(xùn)練樣本,第二階段的所有圖像(7幅無遮擋圖像,3幅墨鏡遮擋圖像,3幅圍巾遮擋圖像)和第一階段余下的4幅遮擋圖像(2幅墨鏡遮擋圖像和2幅圍巾遮擋圖像)為測(cè)試樣本,因此每類有9個(gè)訓(xùn)練圖像和17個(gè)測(cè)試圖像。 在本實(shí)驗(yàn)部分,對(duì)比了各算法在維數(shù)為25、50、100、200和300時(shí)的識(shí)別性能,由于階段1中含有3幅戴墨鏡和3幅戴圍巾圖像,所以每種情形下各個(gè)算法重復(fù)3次,記錄3次實(shí)驗(yàn)的平均值,如表1~表3所示。 Table 1 Recognition rate of differentmethods under sunglasses occlusion 從表1可以看到,本文算法在大多數(shù)維數(shù)下識(shí)別性能均優(yōu)于其他算法(僅300維時(shí)稍低于CRC);表2表明本文算法在維數(shù)較低時(shí)(25,50,100)性能明顯優(yōu)于其他對(duì)比算法;表3表明隨著遮擋比例的增大,本文算法仍能取得較好的識(shí)別率。在上述三種遮擋情形下的實(shí)驗(yàn)結(jié)果驗(yàn)證了本文算 Table 2 Recognition rate ofdifferent methods under scarf occlusion Table 3 Recognition rate of different methodsunder sunglasses and scarf occlusion 法的魯棒性。 為了更直觀地說明本文算法的有效性,圖2和圖3分別給出了部分原始訓(xùn)練樣本圖像和對(duì)應(yīng)的低秩恢復(fù)圖像,可以看出經(jīng)過SLR分解后,表情變化、光照變化、遮擋等不利因素得到很好的去除,得到的干凈數(shù)據(jù)字典有利于后面的稀疏表示分類。同時(shí),圖4和圖5給出了部分原始測(cè)試樣本圖像和對(duì)應(yīng)的經(jīng)過低秩投影矩陣恢復(fù)后的圖像,同樣可以看到,通過將測(cè)試樣本投影到對(duì)應(yīng)的低秩子空間,測(cè)試圖像中的表情變化、遮擋等因素得到較好的去除,這有利于后面的分類識(shí)別。 Figure 2 Some training images圖2 部分訓(xùn)練樣本圖像 Figure 3 Recovered training images by SLR圖3 結(jié)構(gòu)化低秩表示恢復(fù)圖像 Figure 4 Some test images圖4 部分測(cè)試樣本圖像 Figure 5 Recovered test images by low rank projection matrix圖5 低秩投影矩陣恢復(fù)圖像 本實(shí)驗(yàn)使用Extended Yale B數(shù)據(jù)集,這個(gè)數(shù)據(jù)集包含38個(gè)人的2 414幅人臉圖像,每人有59~64幅不同光照下的圖像,圖像大小為192×168。實(shí)驗(yàn)選擇10%和20%的樣本進(jìn)行隨機(jī)像素破壞,對(duì)于待破壞樣本,隨機(jī)選擇10%的像素點(diǎn),然后用均勻分布的值替換原始像素值,部分像素破壞后的樣本圖像如圖6所示。然后每個(gè)類別隨機(jī)選擇一半作為訓(xùn)練樣本,其余為測(cè)試樣本,PCA維數(shù)為50、100和300。各個(gè)算法重復(fù)運(yùn)行10次,記錄其均值,如表4所示。 Figure 6 Some sample images after pixel corruption圖6 部分像素破壞后的樣本圖像 算法維數(shù)(10%樣本像素破壞)50 100 300維數(shù)(20%樣本像素破壞)50 100 300NN58.7669.1276.7159.1868.4575.88LRC91.1593.7494.9991.8294.2495.24SRC88.0692.5795.6686.6491.0794.74CRC85.3194.9997.8386.9893.4197.66LRR_SRC83.5692.7497.5883.1492.0796.41LRSI76.5490.5796.7476.7986.5694.32SLR_LRP98.0098.0098.0095.9196.1696.24 從表4可以看出,本文算法在大多數(shù)情況下優(yōu)于其他算法,這說明基于結(jié)構(gòu)化低秩表示和低秩投影的方法對(duì)隨機(jī)像素破壞具有一定的魯棒性。 本實(shí)驗(yàn)在Extended Yale B數(shù)據(jù)集上進(jìn)行,實(shí)驗(yàn)選擇10%和20%的樣本進(jìn)行隨機(jī)塊遮擋,對(duì)于待遮擋樣本,隨機(jī)選擇遮擋位置,然后用占原始圖像10%大小的不相關(guān)圖像對(duì)原始圖像進(jìn)行遮擋,部分塊遮擋后的圖像如圖7所示。然后每個(gè)類別隨機(jī)選擇一半作為訓(xùn)練樣本,其余為測(cè)試樣本,PCA維數(shù)為50、100和300。各個(gè)算法重復(fù)運(yùn)行10次,記錄其均值,如表5所示。 Figure 7 Some sample images after random block occlusion圖7 部分隨機(jī)塊遮擋后的樣本圖像 算法維數(shù)(10%樣本像素破壞)50 100 300維數(shù)(20%樣本像素破壞)50 100 300NN56.8467.5374.2156.5164.9471.62LRC88.7391.5792.8285.3189.3291.24SRC85.9890.6593.9183.6489.9893.57CRC83.5691.2496.6680.2291.6596.66LRR_SRC80.5589.5796.1679.8091.1596.99LRSI74.6287.8197.1670.0387.3196.58SLR_LRP98.0098.0898.0098.0898.3398.33 從表5可以看出,在維數(shù)比較低時(shí),本文算法明顯優(yōu)于其他對(duì)比算法,隨著遮擋樣本比例的增加,本文算法一直能取得最高的識(shí)別率。比如在維數(shù)為50時(shí),本文算法的識(shí)別率分別為98.00%和98.08%,比SRC算法分別提高了12.02%和14.44%;當(dāng)維數(shù)為300維時(shí),本文算法比LRSI算法分別提高了0.84%和1.75%,這表明本文算法對(duì)隨機(jī)塊遮擋具有較好的魯棒性。 雖然SRC在測(cè)試樣本存在遮擋和像素破壞的情況下取得了優(yōu)異的識(shí)別性能,然而當(dāng)給定的訓(xùn)練樣本中存在遮擋和像素破壞時(shí),SRC的性能會(huì)下降。為了解決這個(gè)問題,近年來低秩矩陣恢復(fù)方法得到了廣泛研究,通過對(duì)樣本進(jìn)行低秩分解,可以得到樣本的低秩矩陣。大多數(shù)低秩表示方法并沒有有效利用訓(xùn)練樣本的類別信息,同時(shí),在對(duì)測(cè)試樣本進(jìn)行分類前,沒有考慮測(cè)試樣本中存在的遮擋和像素破壞。為了充分利用訓(xùn)練樣本的類別信息和去除測(cè)試樣本中存在的遮擋和像素破壞,本文提出了基于結(jié)構(gòu)化低秩表示和低秩投影的人臉識(shí)別算法。結(jié)構(gòu)化低秩表示通過引入樣本的理想編碼正則項(xiàng),使得同類別樣本的表示盡可能相似,這樣很好地保留了樣本的結(jié)構(gòu)信息。同時(shí)根據(jù)原始訓(xùn)練樣本和恢復(fù)后的訓(xùn)練樣本得到低秩投影矩陣,通過將測(cè)試樣本投影到該低秩投影矩陣,可以很好地去除測(cè)試樣本中存在的遮擋和像素破壞,實(shí)驗(yàn)結(jié)果表明本文算法具有很好的魯棒性。 本文算法在訓(xùn)練樣本充足的情況下可以取得較好的識(shí)別結(jié)果,然而單訓(xùn)練樣本在實(shí)際應(yīng)用中經(jīng)常遇到,如何將本文算法擴(kuò)展到單訓(xùn)練樣本人臉識(shí)別,將在后續(xù)的工作中進(jìn)行研究。 [1] Turk M, Pentland A.Eigenfaces for recognition[J].Journal of Cognitive Neuroscience,1991,3(1):71-86. [2] Belhumeur P N,Hespanha J P,Kriegman D.Eigenfaces vs.fisherfaces:Recognition using class specific linear projection[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,1997,19(7):711-720. [3] He X,Yan S,Hu Y,et al.Face recognition using Laplacianfaces[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2005,27(3):328-340. [4] Yan S,Xu D,Zhang B,et al.Graph embedding and extensions:A general framework for dimensionality reduction[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2007,29(1):40-51. [5] Wright J,Yang A Y,Ganesh A,et al.Robust face recognition via sparse representation[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2009,31(2):210-227. [6] Yang M,Zhang L,Shiu S,et al.Gabor feature based robust representation and classification for face recognition with Gabor occlusion dictionary[J].Pattern Recognition,2013,46(7):1865-1878. [7] Ou W,You X,Tao D,et al.Robust face recognition via occlusion dictionary learning[J].Pattern Recognition,2014,47(4):1559-1572. [8] Shi Q,Eriksson A,Van Den Hengel A,et al.Is face recognition really a compressive sensing problem?[C]∥Proc of IEEE Conference on Computer Vision and Pattern Recognition,2011:553-560. [9] Zhang L,Yang M,Feng X.Sparse representation or collaborative representation:Which helps face recognition?[C]∥Proc of the IEEE 13th International Conference on Computer Vision,2011:471-478. [10] Candès E J,Li X,Ma Y,et al.Robust principal component analysis?[J].Journal of the ACM,2011,58(3):11. [11] Liu G, Lin Z, Yan S,et al.Robust recovery of subspace structures by low-rank representation[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2013,35(1):171-184. [12] Hu Zheng-ping,Li Jing.Face recognition of joint sparse representation based on low-rank subspace recovery[J].Acta Electronica Sinica,2013,41(5):987-991.(in Chinese) [13] Wei C,Chen C,Wang Y.Robust face recognition with structurally incoherent low-rank matrix decomposition[J].IEEE Transactions on Image Processing,2014,23(8):3294-3307. [14] Nguyen H V, Huang R,Yang W,et al.Face recognition based on low-rank matrix representation[C]∥Proc of the 33rd Chinese Control Conference,2014:4647-4652. [15] Zhang Hai-xin, Zheng Zhong-long, Jia Jiong,et al.Low-rank matrix recovery based on Fisher discriminant criterion[J].Pattern Recognition and Artificial Intelligence,2015,28(7):651-656.(in Chinese) [16] Du H,Zhang X,Hu Q,et al.Sparse representation-based robust face recognition by graph regularized low-rank sparse representation recovery[J].Neurocomputing,2015,164(C):220-229. [17] Chen J,Yi Z.Sparse representation for face recognition by discriminative low-rank matrix recovery[J].Journal of Visual Communication and Image Representation,2014,25(5):763-773. [18] He Lin-zhi,Zhao Jian-min,Zhu Xin-zhong,et al.Face recognition algorithm based on low-rank matrix recovery and collaborative representation[J].Journal of Computer Applications,2015,35(3):779-782.(in Chinese) [19] Bao B K,Liu G,Xu C,et al.Inductive robust principal component analysis[J].IEEE Transactions on Image Processing,2012,21(8):3794-3800. [20] Du H,Hu Q,Qiao D,et al.Robust face recognition via low-rank sparse representation-based classification[J].International Journal of Automation and Computing,2015,12(6),579-587. [21] Lin Z,Liu R,Su Z.Linearized alternating direction method with adaptive penalty for low-rank representation[C]∥Proc of the 2011 Neural Information Processing Systems Conference,2011:612-620. [22] Lin Z,Chen M,Ma Y.The augmented Lagrange multiplier method for exact recovery of corrupted low-rank matrices[J].arXiv preprint arXiv:1009.5055,2010. [23] Martinez A M.The AR face database[R].Cerdanyola del Valles:Autonomous University of Barcelona,1998. [24] Georghiades A S,Belhumeur P N,Kriegman D J.From few to many:Illumination cone models for face recognition under variable lighting and pose[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2001,23(6):643-660. [25] Naseem I,Togneri R,Bennamoun M.Linear regression for face recognition[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2010,32(11):2106-2112. [26] Du Hai-shun, Zhang Xu-dong, et al, Hou Yan-dong.Face recognition method based on low-rank recovery sparse representation classifier[J].Computer Science,2014,41(4):309-313.(in Chinese) 附中文參考文獻(xiàn): [12] 胡正平,李靜.基于低秩子空間恢復(fù)的聯(lián)合稀疏表示人臉識(shí)別算法[J].電子學(xué)報(bào),2013,41(5):987-991. [15] 張海新,鄭忠龍,賈泂,等.基于Fisher判別準(zhǔn)則的低秩矩陣恢復(fù)[J].模式識(shí)別與人工智能,2015,28(7):651-656. [18] 何林知,趙建民,朱信忠,等.基于低秩矩陣恢復(fù)與協(xié)同表征的人臉識(shí)別算法[J].計(jì)算機(jī)應(yīng)用,2015,35(3):779-782. [26] 杜海順,張旭東,侯彥東,等.一種基于低秩恢復(fù)稀疏表示分 類器的人臉識(shí)別方法[J].計(jì)算機(jī)科學(xué),2014,41(4):309-313.3.2 低秩投影矩陣
3.3 本文算法流程
4 實(shí)驗(yàn)結(jié)果與分析
4.1 AR人臉庫上的性能分析
4.2 隨機(jī)像素破壞下的識(shí)別性能
4.3 隨機(jī)塊遮擋下的識(shí)別性能
5 結(jié)束語