(浙江中煙工業(yè)有限責(zé)任公司,浙江 杭州310009)
近年來,在壓縮感知(Compressing Sensing,CS)理論的基礎(chǔ)上[1-3],文獻(xiàn)[4]不同于傳統(tǒng)的人臉識(shí)別方法,提出了一種基于稀疏表示的分類方法(Sparse Representation-based Classification,SRC)。SRC 在實(shí)驗(yàn)環(huán)境中具有較好的識(shí)別率,但由于光照變化會(huì)嚴(yán)重影響人臉特征的提取,而且高維人臉圖像數(shù)據(jù)也會(huì)影響算法的運(yùn)算時(shí)間。因此本文在SRC的基礎(chǔ)上,提出一種自商圖與壓縮感知相結(jié)合的人臉識(shí)別算法Q_SRC。首先對(duì)人臉圖像用自商圖像(Self Quotient Image,SQI)進(jìn)行預(yù)處理,然后用主成分分析法(Principal Component Analysis,PCA)降維,最后用SRC 進(jìn)行人臉識(shí)別。
SRC算法的主要思想是將所有人臉圖像組成訓(xùn)練樣本集,并用訓(xùn)練樣本集線性表示某一測(cè)試圖。理論上,測(cè)試圖在樣本集的線性表示中,僅對(duì)同一類別的系數(shù)較大,其他類別的系數(shù)較小,所以可以認(rèn)為這一線性表示是測(cè)試圖的稀疏表示。根據(jù)這一稀疏表示,可以推斷出測(cè)試圖所屬的類別,達(dá)到識(shí)別的效果。
假設(shè)有待識(shí)別圖像y 有k類樣本,每個(gè)樣本分別有n 張圖像,即用vi,j(i≤k,j≤n)表示第i類樣本的第j 張圖像,得到人臉樣本集為A=[A1,A2,…,Ak],其中Ai=[vi,1,vi,2,…,vi,n]。那么,待識(shí)別圖像y表示為:通過L1 范數(shù)最小化解式(1),得到
在SRC算法中,核心問題是L1 范數(shù)的求解。常見的求解算法有:內(nèi)點(diǎn)法、梯度投影法(GPSR)[5]、OMP算法等。每類算法都有其各自的優(yōu)缺點(diǎn),如內(nèi)點(diǎn)法所需的觀測(cè)次數(shù)較少,時(shí)間復(fù)雜度較小,但是L1范數(shù)的解不如OMP算法精確。但是,OMP算法時(shí)間復(fù)雜度較大,而且隨著信號(hào)稀疏度的下降,其性能也受很大的影響。所以,本文采用GPSR 作為L(zhǎng)1 范數(shù)求解的算法。
經(jīng)典圖像光照處理方法有直方圖均衡化、伽馬亮度校正等。這類算法使圖像的灰度值均勻分布,在一定程度上可以削弱光照對(duì)人臉的影響。但是,對(duì)消除人臉側(cè)光影響的效果不是很明顯,而且還會(huì)削弱人臉特征。因此,本文采用自商圖SQI 作為消光照的方法[6]。SQI 將圖像與高斯低通濾波器相卷積,從而得到自商圖Q=I/(F* I),其中F表示高斯低通模板,*表示卷積。實(shí)驗(yàn)證明,SQI可以較好地實(shí)現(xiàn)人臉圖像的消光照效果,增強(qiáng)算法對(duì)光照的魯棒性,同時(shí)SQI 不需要對(duì)圖像進(jìn)行訓(xùn)練,也沒有附加假設(shè)條件,可以用來作為圖像的光照預(yù)處理。
各類消光照方法處理后的人臉圖像如圖1所示。
圖1 消光照處理的效果圖
在壓縮感知理論中,信號(hào)稀疏變換表達(dá)式為式(1)。但是在實(shí)際情況中,y表示的圖像一般都是高維的,也就是說在求解式(1)時(shí),需要求解多個(gè)線性方程組,這在很大程度上影響了運(yùn)算速度和時(shí)間復(fù)雜度。因此需要在對(duì)人臉圖像識(shí)別前,先對(duì)圖像進(jìn)行降維處理。在SRC中的降維處理是通過隨機(jī)矩陣將人臉圖像數(shù)據(jù)投影到d 維子空間,從而達(dá)到降維目的。但是這一方法并不能保證降維后的數(shù)據(jù)能保留原始人臉圖像的特征,所以本文采用PCA 作為降維方法。
本文算法Q_SRC的具體過程如下:
1)將各張人臉圖像vi,j(i≤k,j≤n)進(jìn)行SQI 處理,得到vi,j';
2)得到人臉樣本集A'=[A1',A2',…,Ak'],其中Ai' =[vi,1',vi,2',…,vi,n'];
3)將A'用PCA 進(jìn)行降維,得到降維后的人臉樣本集合Ω=[Ω1,Ω2,…,Ωk];
4)將測(cè)試圖y 用PCA 降維到相同維數(shù),得到y(tǒng)';
7)Identity(y)=min(γi),即判斷殘差最小的情況為測(cè)試圖的類。
實(shí)驗(yàn)所用的人臉庫為ORL人臉庫和YALE人臉庫。其中,ORL人臉庫的圖像大小為112×92 像素,共有40人,每人10 張圖像。YALE人臉庫中圖像大小為100×100 像素,共有15人,每人11張人臉圖像。人臉庫中的圖像包括了一定的光照、表情、姿勢(shì)的變化。實(shí)驗(yàn)中,隨機(jī)選取一張人臉圖像作為測(cè)試圖,其余人臉圖像作為訓(xùn)練樣本,重復(fù)實(shí)驗(yàn)100次,200次,300次,400次,500次之后,最后求其平均值。3種算法(PCA、SRC、Q_SRC)在ORL人臉庫和YALE人臉庫的識(shí)別率如表1所示。
表1 算法的識(shí)別率比較
根據(jù)兩個(gè)人臉庫的識(shí)別率情況來看,雖然PCA 在ORL人臉庫中有較好的識(shí)別率,但在YALE人臉庫中識(shí)別率不理想。而Q_SRC 無論在ORL人臉庫還是YALE人臉庫都有近90%以上的識(shí)別率,說明了Q_SRC算法更具有穩(wěn)定性。
實(shí)驗(yàn)條件與3.1 節(jié)一樣,算法所用時(shí)間的測(cè)量是在已經(jīng)讀取人臉樣本集數(shù)據(jù)后進(jìn)行計(jì)時(shí)測(cè)量,并以測(cè)試100次為基準(zhǔn)。3種算法在ORL人臉庫和YALE人臉庫的實(shí)驗(yàn)結(jié)果如表2所示。
表2 算法測(cè)試100次所用的平均時(shí)間比較
實(shí)驗(yàn)結(jié)果表明,Q_SRC的所用時(shí)間都比較少,而且隨著維數(shù)的提高,Q_SRC和SRC所用時(shí)間相近,甚至在YALE人臉庫中比SRC 更快速。
在2.1 節(jié)中提到了光照對(duì)人臉識(shí)別的影響,因此為了證明SQI的性能優(yōu)越性,進(jìn)行以下實(shí)驗(yàn):將ORL 人臉圖像用不同消光照的方法處理后,再用PCA 降維到相同維數(shù),最后用SRC 進(jìn)行識(shí)別。實(shí)驗(yàn)結(jié)果如表3所示。
表3 不同光照處理方法的識(shí)別率比較
表3中,采用SQI 不僅可以消光照,而且還可以在一定程度上提高SRC的性能,提高識(shí)別率。
本文提出一種自商圖與壓縮感知相結(jié)合的人臉識(shí)別算法Q_SRC,首先對(duì)人臉圖像用自商圖方法進(jìn)行預(yù)處理,然后用PCA 降維,最后用SRC 進(jìn)行識(shí)別。實(shí)驗(yàn)證明,在ORL人臉庫和YALE人臉庫中,Q_SRC都得到了較好的識(shí)別效果及時(shí)間復(fù)雜度。同時(shí)也存在有待研究和改進(jìn)的地方,比如如何進(jìn)一步提高人臉識(shí)別率,是否有更好的消光照處理方法等,在維數(shù)和識(shí)別率關(guān)系的問題上也有待進(jìn)行更深層次的研究。
[1]Donoho D L.Compressed sensing[J].IEEE Transactions on Information Theory,2006,52(4):1 289-1 306.
[2]石光明,劉丹華,高大化,等.壓縮感知理論及其研究進(jìn)展[J].電子學(xué)報(bào),2009,37(5):1 070-1 081.
[3]平強(qiáng).壓縮感知人臉識(shí)別算法研究[D].合肥:中國科學(xué)技術(shù)大學(xué),2011.
[4]Wright J,Yang A Y,Ganesh A,et al.Robust face recognition via sparse representation[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2009,31(2):210-227.
[5]Figueiredo M A T,Nowak R D,Wright S J.Gradient projection for sparse reconstruction:Application to compressed sensing and other inverse problems[J].IEEE Journal of Selected Topics in Signal Processing,2007,1(4):586-597.
[6]Wang H,Li S Z,Wang Y.Face recognition under varying lighting conditions using self quotient image[C].Washington:IEEE International Conference on Automatic Face and Gesture Recognition,2004:819-824.