田亞娜,童 瑩,曹雪虹
(1.南京郵電大學(xué) 通信與信息工程學(xué)院,江蘇 南京 210003;2.南京工程學(xué)院 通信工程學(xué)院,江蘇 南京 211167)
隨著信息技術(shù)的發(fā)展,高維數(shù)據(jù)的問(wèn)題普遍存在,尤其是在許多模式識(shí)別和數(shù)據(jù)挖掘運(yùn)用中,比如人臉圖像識(shí)別和生物基因數(shù)據(jù)分析等。在高維數(shù)據(jù)的分析和學(xué)習(xí)中,數(shù)據(jù)降維有著非常重要的作用。數(shù)據(jù)降維不僅使得數(shù)據(jù)便于存儲(chǔ)和計(jì)算,而且能夠去除數(shù)據(jù)冗余信息,找到高維數(shù)據(jù)的低維表示以利于分析。目前,已有許多種數(shù)據(jù)降維方法成功運(yùn)用到模式識(shí)別、圖像處理等領(lǐng)域。
在現(xiàn)有的數(shù)據(jù)降維方法中,主成分分析(PCA)[1]和線性判別分析(LDA)[2]都是在圖像數(shù)據(jù)滿足高斯分布的假設(shè)條件下,計(jì)算圖像的全局歐式結(jié)構(gòu)來(lái)進(jìn)行降維分析,沒(méi)有分析局部結(jié)構(gòu)特征。在實(shí)際運(yùn)用中,很多人臉數(shù)據(jù)并不滿足高斯分布,而且高維數(shù)據(jù)的局部結(jié)構(gòu)特征對(duì)表示圖像和圖像分類判別是非常重要的。后來(lái),流形學(xué)習(xí)成了研究熱點(diǎn),通過(guò)學(xué)習(xí)高維空間中樣本的局部鄰域結(jié)構(gòu),從高維空間中找到低維流形以實(shí)現(xiàn)維數(shù)約簡(jiǎn)。最有代表性的流形學(xué)習(xí)算法有拉普拉斯特征映射(LE)[3]、局部線性映射(LLE)[4]和局部保持投影(LPP)[5]等。LE是用一個(gè)無(wú)向加權(quán)圖來(lái)描述一個(gè)流形圖,在保持圖的局部鄰接關(guān)系的情況下,從高維空間降到低維表示空間;LLE是尋找每個(gè)樣本的局部近鄰點(diǎn)并計(jì)算樣本的重建權(quán)值矩陣,通過(guò)保留嵌入在高維原始數(shù)據(jù)中的低維局部線性結(jié)構(gòu)關(guān)系進(jìn)行降維;LPP是構(gòu)建高維空間中各樣本的遠(yuǎn)近親疏關(guān)系圖,在降維投影時(shí)保持這種關(guān)系圖不變來(lái)分析數(shù)據(jù)的局部結(jié)構(gòu)特征。盡管這些算法的實(shí)現(xiàn)方法不一樣,但它們的實(shí)現(xiàn)原理都可以統(tǒng)一到圖形嵌入框架[6]。也就是說(shuō),它們的區(qū)別在于圖結(jié)構(gòu)的構(gòu)造不同和邊權(quán)重的計(jì)算不同。圖結(jié)構(gòu)的不同構(gòu)造方法是不同降維算法的重點(diǎn)。LPP鄰接圖通過(guò)映射使得高維空間中鄰域范圍內(nèi)的點(diǎn)在低維空間中盡可能近,同時(shí)使得其他不在鄰域內(nèi)的點(diǎn)通過(guò)映射在低維空間中盡可能遠(yuǎn)。而這些算法都非常依賴于參數(shù)的選擇,需要人工選擇鄰域大小參數(shù)和邊權(quán)重參數(shù)。
近年來(lái),基于稀疏表示的方法在人臉識(shí)別中得到廣泛應(yīng)用。Wright等[7]提出將稀疏表示用在圖像分類中,并且得到了很好的分類結(jié)果。文獻(xiàn)[8-9]中認(rèn)為稀疏表示能夠很好地表征數(shù)據(jù)的局部結(jié)構(gòu)關(guān)系。基于稀疏表示的概念,喬立山運(yùn)用稀疏表示系數(shù)構(gòu)建一種新的圖結(jié)構(gòu),提出稀疏保留投影(SPP)算法[10]。算法實(shí)現(xiàn)過(guò)程中,稀疏表示系數(shù)是通過(guò)最小化L1范數(shù)求得,因此這種鄰接圖又叫L1圖,L1圖的構(gòu)建過(guò)程繼承了稀疏重構(gòu)的優(yōu)點(diǎn),同時(shí)解決了人工參數(shù)選擇的問(wèn)題。文獻(xiàn)[11-13]也相繼提出基于稀疏表示方法構(gòu)建L1圖進(jìn)行人臉識(shí)別。文獻(xiàn)[14]在最小化L1正則化目標(biāo)函數(shù)中引入了類別信息再結(jié)合稀疏重構(gòu)誤差來(lái)分析投影矩陣。文獻(xiàn)[15]提出了一種判別稀疏鄰域保持嵌入算法,通過(guò)結(jié)合SPP和最大邊緣準(zhǔn)則進(jìn)行投影,提高了人臉識(shí)別率。
在稀疏保留投影算法獲得重構(gòu)關(guān)系時(shí),既沒(méi)有利用不同類樣本的類別信息,也沒(méi)有充分考慮同類樣本間的相似問(wèn)題。文中提出一種新的有監(jiān)督的判別稀疏保留投影方法(DSPP)。首先利用樣本系數(shù)與類內(nèi)樣本的平均系數(shù)之差來(lái)重新定義類內(nèi)離散度,在獲得稀疏重構(gòu)關(guān)系時(shí),對(duì)每個(gè)訓(xùn)練樣本僅利用和樣本同類別的其余樣本來(lái)線性表示,同時(shí)添加類內(nèi)散度約束項(xiàng)以減小每個(gè)類的表示系數(shù)的變化。這樣得到的稀疏表示系數(shù)具有更好的判別能力,能夠保留不同類樣本之間具有判別性的結(jié)構(gòu)信息,然后再通過(guò)最小化重構(gòu)誤差準(zhǔn)則,保留投影獲取有效的人臉特征信息來(lái)提高分類識(shí)別能力。
在人臉識(shí)別過(guò)程中,對(duì)原圖像直接分類判別能夠得到一定的識(shí)別率,可是受光照、表情、姿態(tài)等的變化會(huì)對(duì)人臉圖像的識(shí)別造成不利影響。為克服這些因素的影響,提取有效的表征人臉信息的特征也是至關(guān)重要的。梯度方向直方圖(histograms of oriented gradients,HOG)算子[16-17]是通過(guò)局部梯度大小和邊緣信息將圖像局部特征化,是一種局部信息描述算子。HOG特征具有很好的魯棒性,能夠很好地表征人臉的特征。文中在HOG算子提取圖像特征的基礎(chǔ)上,用DSPP方法降維處理再進(jìn)行分類判別,并通過(guò)實(shí)驗(yàn)對(duì)其進(jìn)行驗(yàn)證。
HOG算子[17]通過(guò)計(jì)算圖像局部區(qū)域的梯度,并統(tǒng)計(jì)分布在不同方向的梯度幅值,得到梯度方向直方圖來(lái)構(gòu)成HOG特征。圖像的局部外觀和形狀通過(guò)局部梯度和邊緣信息得到很好的表征和描述。HOG特征具有對(duì)方向、尺度、光照的不敏感性,對(duì)圖像區(qū)域的小變化保持不變性。HOG算子提取圖像特征的過(guò)程如下:
(1)遍歷圖像的所有像素點(diǎn),并計(jì)算各個(gè)像素點(diǎn)的梯度幅值和梯度方向,捕獲圖像邊緣信息,弱化光照的干擾。
(2)將圖像均勻劃分為2×2像素的單元(cell)并對(duì)每個(gè)單元的梯度方向進(jìn)行統(tǒng)計(jì)。將[0,π]分為9個(gè)區(qū)間,平均每20°為一個(gè)區(qū)間(bin),這樣每個(gè)單元獲得一個(gè)9維的梯度方向直方圖。
(3)把相鄰的2×2個(gè)不重疊的cell組合成一個(gè)網(wǎng)格(block),將每個(gè)block塊內(nèi)的4個(gè)cell的直方圖拼接,經(jīng)過(guò)L2-norm標(biāo)準(zhǔn)化處理,得到一個(gè)block塊的梯度直方圖。
(4)將一張圖像劃分的所有block塊的梯度直方圖進(jìn)行拼接,統(tǒng)計(jì)得到整個(gè)圖像的HOG特征。
對(duì)于大小為32×32的一幅圖像,可劃分為64(8×8)個(gè)block塊,得到的HOG特征維數(shù)為2 304(8×8×4×9)。HOG算子有良好的局部特性,對(duì)于光照等變化的影響具有魯棒性,是提取圖像特征的有效算子。
不同于LLE[4]、LPP[5]等流形學(xué)習(xí)方法,SPP[10]是利用稀疏表示的原理構(gòu)建樣本之間的重構(gòu)關(guān)系圖,再通過(guò)最小化重構(gòu)誤差準(zhǔn)則進(jìn)行最優(yōu)化投影,使得高維空間中樣本之間的重構(gòu)關(guān)系在低維空間中保持不變。
受稀疏表示的啟發(fā),每個(gè)圖像樣本可以由其余樣本稀疏表示,樣本之間的關(guān)系可以通過(guò)稀疏系數(shù)來(lái)表示。許多研究[18-19]表明,通過(guò)求解L1范數(shù)最小化可以得到最優(yōu)稀疏表示系數(shù)。圖結(jié)構(gòu)有效地表征數(shù)據(jù)之間的相互關(guān)系,用得到的稀疏系數(shù)構(gòu)建的鄰接圖叫做L1圖,用L1圖結(jié)構(gòu)來(lái)表示樣本圖像之間的關(guān)系。假設(shè)有n個(gè)訓(xùn)練樣本,樣本集記為X=[x1,x2,…,xn],X∈Rm×n,通過(guò)求L1范數(shù)最小化問(wèn)題構(gòu)建鄰接圖ζ={X,W}來(lái)表示樣本之間的相互關(guān)系。對(duì)任一訓(xùn)練樣本xi:
(1)
其中,Xi=[x1,…,xi-1,xi+1,…,xn]∈Rm×(n-1)表示除xi以外的其余訓(xùn)練樣本構(gòu)成的矩陣;wi=[wi1,…,wij,…,win]T∈Rn-1表示系數(shù)向量;wij表示訓(xùn)練樣本xj對(duì)重構(gòu)xi的稀疏表示系數(shù)值,系數(shù)值越大表示對(duì)應(yīng)樣本和重構(gòu)樣本越相似。再依次求得每個(gè)訓(xùn)練樣本的稀疏表示系數(shù)向量,得到W=[w1,…,wi,…,wn],也就構(gòu)建完成L1鄰接圖。
由得到的L1鄰接圖,根據(jù)最小化重構(gòu)誤差準(zhǔn)則,通過(guò)最優(yōu)化目標(biāo)函數(shù)得到一個(gè)線性投影,使得樣本之間的重構(gòu)關(guān)系在降維前后保持不變,其目標(biāo)函數(shù)是:
(2)
X(W+WT-WTW)XTp=λXXTp
(3)
將訓(xùn)練樣本和測(cè)試樣本分別在投影矩陣上進(jìn)行投影降維,然后再進(jìn)行分類識(shí)別。SPP算法利用L1范數(shù)最小化問(wèn)題分析樣本之間的稀疏重構(gòu)關(guān)系,既沒(méi)有人工參數(shù)選擇,也具有很好的魯棒性和適應(yīng)性,在人臉識(shí)別中得到明確的驗(yàn)證和運(yùn)用。
稀疏保留投影算法在構(gòu)建圖結(jié)構(gòu)時(shí)用其余所有的訓(xùn)練樣本線性表示某一個(gè)樣本,保留高維空間中數(shù)據(jù)的稀疏重構(gòu)關(guān)系,沒(méi)有利用不同樣本的類別信息,也沒(méi)有充分考慮同類樣本之間的相似性。為了提高SPP算法的分類識(shí)別性,文中提出了一種判別稀疏保留投影算法(DSPP)。該算法利用樣本的標(biāo)簽信息同時(shí)添加類內(nèi)散度約束項(xiàng),獲得樣本的稀疏重構(gòu)關(guān)系,通過(guò)構(gòu)建新的具有判別性的鄰接圖結(jié)構(gòu)來(lái)保留樣本之間的相互關(guān)系,再由最小化重構(gòu)誤差得到最優(yōu)線性投影,從而提取更有效的人臉信息進(jìn)行分類識(shí)別。
(4)
其中,xi為任意一個(gè)訓(xùn)練樣本;X為由除xi以外并且和xi有相同類別的訓(xùn)練樣本組成的矩陣;si為X訓(xùn)練樣本集對(duì)樣本xi的線性表示系數(shù);λ為大于零的參數(shù)。
有研究[20]表明,L1范數(shù)的稀疏約束在基于稀疏表示的人臉識(shí)別中沒(méi)有起到至關(guān)重要的作用,這里用F范數(shù)替代L1范數(shù)對(duì)系數(shù)進(jìn)行正則化約束。Γ是與xi有相同類別的所有樣本的平均表示系數(shù),最小化目的是使相同類別的樣本的表示系數(shù)接近它們的平均值,以減小每類的系數(shù)向量的變化,使每類類內(nèi)散度最小化。
式(4)變形化簡(jiǎn)得到:
(5)
式(5)對(duì)si求偏導(dǎo),并令偏導(dǎo)式右邊等于0,整理可得到最優(yōu)si:
si=XTX+(λ+1)-1(XTxi+Γ)
(6)
由計(jì)算得到si=[si1,…,sij,…,sini],j∈X,構(gòu)建新的樣本之間的鄰接圖關(guān)系ζ={X,W},其中W=[w1,…,wi,…,wn]∈Rn×n,wi=[wi1,…,wij,…,win]T,wij定義為:
(7)
上述鄰接關(guān)系圖的構(gòu)建過(guò)程中,不僅利用不同類樣本的類別信息,而且充分考慮了同類樣本集的相似性,通過(guò)計(jì)算稀疏表示系數(shù)很好地表示了樣本之間的關(guān)系。
圖結(jié)構(gòu)矩陣W表示了高維空間中各樣本之間的內(nèi)在關(guān)系,為了在低維空間中最大限度地保留這種關(guān)系,類似SPP算法,通過(guò)最小化重構(gòu)誤差函數(shù)得到最優(yōu)投影:
(8)
其中,P為投影矩陣;wi為樣本xi的稀疏重構(gòu)系數(shù);約束項(xiàng)是為了防止退化解。
通過(guò)數(shù)學(xué)公式推導(dǎo),可轉(zhuǎn)化得到如下最優(yōu)化問(wèn)題:
s.t.PTXXTP=I
(9)
令Wβ=W+WT-WTW,為計(jì)算嚴(yán)謹(jǐn),轉(zhuǎn)換最小化問(wèn)題為求解一個(gè)最大化問(wèn)題。
(10)
求解最優(yōu)解P即轉(zhuǎn)化為求解廣義特征值問(wèn)題,XWβXTp=λXXTp,選取前d個(gè)最大特征值對(duì)應(yīng)的特征向量構(gòu)成投影矩陣,記為WDSPP=[p1,p2,…,pd]。將訓(xùn)練樣本X在WDSPP上進(jìn)行投影,得到一個(gè)d×n維矩陣,同樣也將測(cè)試樣本在WDSPP上進(jìn)行投影,得到具有判別性的人臉信息后再進(jìn)行分類識(shí)別。
為了驗(yàn)證算法的有效性,與其他算法(PCA[1]、LDA[2]、LPP[5]、LSDA[21]、SPP[10])進(jìn)行比較。DSPP算法中,參數(shù)λ設(shè)置為0.05。文中采用Extended Yale B人臉庫(kù)[22]和LFW人臉庫(kù)[23]進(jìn)行實(shí)驗(yàn)。所有實(shí)驗(yàn)采用稀疏表示分類方法進(jìn)行分類識(shí)別,通過(guò)用訓(xùn)練樣本集對(duì)測(cè)試樣本進(jìn)行稀疏表示,求出稀疏系數(shù)向量,根據(jù)系數(shù)向量對(duì)測(cè)試樣本在每個(gè)類上進(jìn)行重構(gòu),分別計(jì)算測(cè)試樣本和每類的重構(gòu)樣本之間的殘差,將測(cè)試樣本判別為殘差最小的類。
Extended Yale B庫(kù)包含38類人在光照條件變化的情況下獲得的人臉照片,圖像大小為192×168,每類人有大約64張,共2 414張正面對(duì)齊圖像。選取有64張圖像的人臉作為實(shí)驗(yàn)數(shù)據(jù),共31類,共1 984張圖像,并且每張圖像大小裁剪調(diào)整為32×32大小,并進(jìn)行歸一化處理。圖1為Extended Yale B人臉庫(kù)中某類人的一些樣本圖像。
圖1 Extended Yale B庫(kù)的樣本圖像
實(shí)驗(yàn)包括兩部分,分別是對(duì)人臉原圖像的分類識(shí)別和基于原圖像HOG特征的分類識(shí)別。在每類人的圖像中隨機(jī)選取10個(gè)樣本進(jìn)行訓(xùn)練,其余樣本用于測(cè)試,重復(fù)進(jìn)行10次,最后計(jì)算得到平均值和標(biāo)準(zhǔn)偏差。表1是對(duì)Extended Yale B庫(kù)的人臉原圖像在不同方法下的平均識(shí)別率和標(biāo)準(zhǔn)偏差;表2是在Extended Yale B庫(kù)人臉圖像HOG特征的基礎(chǔ)上再利用不同方法降維的平均識(shí)別率和標(biāo)準(zhǔn)偏差。
表1 Extended Yale B庫(kù)原圖像的實(shí)驗(yàn)結(jié)果
表2 Extended Yale B庫(kù)圖像HOG特征的實(shí)驗(yàn)結(jié)果
從表1可以看出,文中提出的DSPP算法的識(shí)別率相比其他算法有很大提升,提高到89.10%,主要原因是DSPP算法實(shí)現(xiàn)過(guò)程中同時(shí)考慮了不同類的類別信息和相同類的離散度信息,在降維過(guò)程中更充分地保持了數(shù)據(jù)的內(nèi)在結(jié)構(gòu)和便于分類的結(jié)構(gòu)信息,從而更好地提高了識(shí)別率。結(jié)合表1和表2可以看出,相比原圖像的分類判別,基于人臉圖像HOG特征的分類判別結(jié)果有明顯提高,主要原因是HOG算子是具有魯棒性的局部特征描述子,HOG特征很好地表征了圖像的局部特征,提取了有效的人臉特征信息,從而取得了較高的識(shí)別率。
LFW庫(kù)包含5 749類人的13 233張人臉圖像,圖片大小為250×250,其中1 680類人有兩張以上的圖片,剩余的4 069類人只有一張圖片。實(shí)驗(yàn)中,選取有20張以上(包括20張)圖像的人臉作為實(shí)驗(yàn)數(shù)據(jù),共62類,共3 023張圖像?;趫D論的視覺(jué)顯著性算法對(duì)圖像檢測(cè)人臉區(qū)域,并調(diào)整圖像大小為128×128,再進(jìn)行歸一化處理。圖2為L(zhǎng)FW人臉庫(kù)中某類人的一些樣本圖像。
圖2 LFW庫(kù)的樣本圖像
實(shí)驗(yàn)包括兩部分,分別是對(duì)人臉原圖像的分類識(shí)別和基于原圖像HOG特征的分類識(shí)別。實(shí)驗(yàn)過(guò)程中,對(duì)每類人的圖片分別隨機(jī)選取10個(gè)樣本進(jìn)行訓(xùn)練,其余樣本用于測(cè)試,即有620個(gè)訓(xùn)練樣本,2 403個(gè)測(cè)試樣本,重復(fù)進(jìn)行10次,最后以計(jì)算得到的平均值和標(biāo)準(zhǔn)偏差作為最后的識(shí)別結(jié)果進(jìn)行分析。結(jié)果如表3和表4所示。
表3 LFW庫(kù)的原圖像的實(shí)驗(yàn)結(jié)果
表4 LFW庫(kù)的圖像HOG特征的實(shí)驗(yàn)結(jié)果
從表3可以看出,對(duì)LFW人臉庫(kù)原圖像分類判別,DSPP算法取得57.06%的識(shí)別率,比PCA、LDA、LPP、LSDA、SPP的識(shí)別結(jié)果分別提高22.74%、7.13%、8.31%、11.55%、18.82%,識(shí)別效果提高明顯。
從表4可以看出,在LFW庫(kù)人臉圖像HOG特征的基礎(chǔ)上,DSPP算法的識(shí)別率達(dá)到77.93%,比對(duì)人臉原圖像識(shí)別結(jié)果提高20.87%,充分驗(yàn)證了該算法的可行性和有效性。
提出一種新的判別性稀疏保留投影算法,在構(gòu)建數(shù)據(jù)間的稀疏重構(gòu)關(guān)系時(shí),同時(shí)考慮樣本不同類的類別信息和相同類的類內(nèi)散度信息,保持了數(shù)據(jù)具有判別性的內(nèi)在結(jié)構(gòu)信息,提高了人臉圖像的識(shí)別率。鑒于HOG算子能夠描述圖像的局部特征,克服了圖像對(duì)光照、姿態(tài)等變化的影響,具有很強(qiáng)的魯棒性。所以該算法能夠提取得到更有效的人臉特征信息,使得人臉識(shí)別效率有了進(jìn)一步的提高。
[1] ABDI H,WILLIAMS L J.Principal component analysis[J].Wiley Interdisciplinary Reviews:Computational Statistics,2010,2(4):433-459.
[2] IZENMAN A J. Linear discriminant analysis[M]//Modern multivariate statistical techniques.New York:Springer,2013:237-280.
[3] BELKIN M,NIYOGI P.Laplacian eigenmaps for dimensionality reduction and data representation[J].Neural Computation,2003,15(6):1373-1396.
[4] ROWEIS S T,SAUL L K.Nonlinear dimensionality reduction by locally linear embedding[J].Science,2000,290(5500):2323-2326.
[5] HE X,YAN S,HU Y,et al.Face recognition using Laplacianfaces[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2005,27(3):328-340.
[6] YAN S,XU D,ZHANG B,et al.Graph embedding and extensions:a general framework for dimensionality reduction[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2007,29(1):40-51.
[7] WRIGHT J,YANG A Y,GANESH A,et al.Robust face recognition via sparse representation[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2009,31(2):210-227.
[8] WRIGHT J,MA Y,MAIRAL J,et al.Sparse representation for computer vision and pattern recognition[J].Proceedings of the IEEE,2010,98(6):1031-1044.
[9] ELHAMIFAR E,VIDAL R.Sparse subspace clustering:algorithm,theory,and applications[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2013,35(11):2765-2781.
[10] QIAO L,CHEN S,TAN X.Sparsity preserving projections with applications to face recognition[J].Pattern Recognition,2010,43(1):331-341.
[11] YANG J,CHU D,ZHANG L,et al.Sparse representation classifier steered discriminative projection with applications to face recognition[J].IEEE Transactions on Neural Networks and Learning Systems,2013,24(7):1023-1035.
[12] 杜 春,孫即祥,周石琳,等.基于稀疏表示和非參數(shù)判別分析的降維算法[J].國(guó)防科技大學(xué)學(xué)報(bào),2013,35(2):143-147.
[13] GAO Q,HUANG Y,ZHANG H,et al.Discriminative sparsity preserving projections for image recognition[J].Pattern Recognition,2015,48(8):2543-2553.
[14] ZANG F,ZHANG J.Discriminative learning by sparse representation for classification[J].Neurocomputing,2011,74(12):2176-2183.
[15] GUI J,SUN Z,JIA W,et al.Discriminant sparse neighborhood preserving embedding for face recognition[J].Pattern Recognition,2012,45(8):2884-2893.
[16] DALAL N,TRIGGS B.Histograms of oriented gradients for human detection[C]//IEEE computer society conference on computer vision and pattern recognition.[s.l.]:IEEE,2005:886-893.
[18] CHENG B,YANG J,YAN S,et al.Learning with l1-graph for image analysis[J].IEEE Transactions on Image Processing,2010,19(4):858-866.
[19] YANG Y,WANG Z,YANG J,et al.Data clustering by Laplacian regularized L1-graph[C]//Twenty-eighth AAAI conference on artificial intelligence.[s.l.]:[s.n.],2014:3148-3149.
[20] ZHANG L,YANG M,FENG X.Sparse representation or collaborative representation:which helps face recognition?[C]//2011 International conference on computer vision.[s.l.]:IEEE,2011:471-478.
[21] GAO Q,LIU J,CUI K,et al.Stable locality sensitive discriminant analysis for image recognition[J].Neural Networks,2014,54:49-56.
[22] LEE K C,HO J,KRIEGMAN D J.Acquiring linear subspaces for face recognition under variable lighting[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2005,27(5):684-698.
[23] HUANG G B,RAMESH M,BERG T,et al.Labeled faces in the wild:a database for studying face recognition in unconstrained environments[R].Amherst:University of Massachusetts,2007.