程廣濤,宋占杰,陳 雪(1. 天津大學(xué)電子信息工程學(xué)院,天津 0007;. 北華航天工業(yè)學(xué)院基礎(chǔ)部,廊坊065000;. 天津大學(xué)理學(xué)院,天津 0007;. 北京中醫(yī)藥大學(xué)東方學(xué)院基礎(chǔ)部,廊坊 065000)
基于二維圖像矩陣的稀疏表示分類方法
程廣濤1,2,宋占杰3,陳 雪4
(1. 天津大學(xué)電子信息工程學(xué)院,天津 300072;2. 北華航天工業(yè)學(xué)院基礎(chǔ)部,廊坊065000;3. 天津大學(xué)理學(xué)院,天津 300072;4. 北京中醫(yī)藥大學(xué)東方學(xué)院基礎(chǔ)部,廊坊 065000)
利用稀疏表示對(duì)圖像分類時(shí),需要將二維圖像轉(zhuǎn)換為一維特征向量,這大大增加了計(jì)算復(fù)雜度和忽略了圖像矩陣中固有的局部結(jié)構(gòu)信息. 為了解決上述問(wèn)題,設(shè)計(jì)了完全基于二維特征矩陣的稀疏表示人臉?lè)诸惙椒?首先將二維圖像轉(zhuǎn)為2D Fisherface矩陣,然后直接利用二維矩陣求解稀疏表示和進(jìn)行分類. 整個(gè)識(shí)別過(guò)程中,不需要將二維圖像轉(zhuǎn)換為一維向量. 實(shí)驗(yàn)結(jié)果表明,二維特征矩陣在稀疏表示分類中是十分有效的,設(shè)計(jì)的方法可以更快的運(yùn)算速度達(dá)到更高的識(shí)別率. 在ORL人臉數(shù)據(jù)庫(kù)和Extended Yale B人臉數(shù)據(jù)庫(kù)上的識(shí)別率分別達(dá)到97.5%和99.3%.
人臉識(shí)別;稀疏表示;目標(biāo)分類;二維特征矩陣
信號(hào)的稀疏表示是分析信號(hào)的一個(gè)極其有效的工具.稀疏表示的成功應(yīng)用包括圖像恢復(fù)[1-2]、壓縮感知[3-5]、圖像超分辨率[6]等.最近,稀疏表示又成功應(yīng)用在人臉識(shí)別領(lǐng)域[7].如果每類訓(xùn)練樣本足夠多,測(cè)試樣本可以考慮為與它同類訓(xùn)練樣本的線性組合,這樣用所有訓(xùn)練樣本表示測(cè)試樣本時(shí),表示系數(shù)中的非零系數(shù)只對(duì)應(yīng)于與測(cè)試樣本同類的訓(xùn)練樣本,顯然表示系數(shù)是稀疏的.這樣就可以通過(guò)估計(jì)最小重建誤差來(lái)決定測(cè)試樣本的類別.稀疏性限制使表示系數(shù)的區(qū)分能力加強(qiáng),改善了人臉識(shí)別的準(zhǔn)確性和魯棒性.
基于稀疏表示的分類方法(sparse representation based classification,SRC)一經(jīng)提出,就得到了廣泛的關(guān)注.沿著SRC的框架,提出了一種新的基于聯(lián)合動(dòng)態(tài)稀疏表示的多角度人臉識(shí)別方法[8].這種方法把多角度人臉識(shí)別看作為聯(lián)合稀疏表示模型,利用多角度的內(nèi)相關(guān)性來(lái)解決姿勢(shì)不限的自動(dòng)人臉識(shí)別問(wèn)題.文獻(xiàn)[9]設(shè)立了一個(gè)基于稀疏表示的實(shí)際的人臉識(shí)別系統(tǒng),它能夠在大范圍的光照條件、姿勢(shì)變化和噪聲干擾的條件下達(dá)到極其穩(wěn)定的性能.另外,有效的字典學(xué)習(xí)方法也被應(yīng)用到基于稀疏表示的模式識(shí)別中[10-12].
但是這些算法首先都是將二維圖像矩陣轉(zhuǎn)換為一維圖像向量,這就需要花費(fèi)更多的時(shí)間去計(jì)算1?最優(yōu)化問(wèn)題,并且也忽略了原有二維圖像矩陣中的一些局部結(jié)構(gòu)信息.因此,提出了一個(gè)基于二維圖像像素矩陣的稀疏表示分類方法(2D SRC)[13].這種方法與SRC相比更加快速,尤其當(dāng)圖像分辨率很高時(shí),速度優(yōu)勢(shì)更加明顯,但是識(shí)別率的改進(jìn)效果沒(méi)有達(dá)到期望值.
現(xiàn)有的SRC框架中,都是用一維特征向量進(jìn)行稀疏表示,二維特征矩陣在SRC算法中的應(yīng)用還鮮見(jiàn)報(bào)道.本文首先驗(yàn)證了二維特征矩陣在SRC框架中的有效性,然后設(shè)計(jì)了一個(gè)完全基于圖像矩陣的稀疏表示分類方法,在整個(gè)方法中都沒(méi)有將二維圖像轉(zhuǎn)換為一維向量.筆者在常見(jiàn)的ORL人臉數(shù)據(jù)庫(kù)和Extended Yale B人臉數(shù)據(jù)庫(kù)上進(jìn)行實(shí)驗(yàn)并驗(yàn)證了該算法的有效性和優(yōu)越性.實(shí)驗(yàn)結(jié)果表明,所設(shè)計(jì)算法可以更快的計(jì)算速度達(dá)到更高的識(shí)別率.
以下討論二維特征矩陣(2D PCA[14],2D Fisherface[15])應(yīng)用在SRC框架中產(chǎn)生的效果.
給定來(lái)自c類的N個(gè)訓(xùn)練圖像組成的訓(xùn)練圖像矩陣A=[A,A,…,A],A∈Rm×n(i=1,2,…,N),表示
12N i第i個(gè)訓(xùn)練圖像.圖像協(xié)方差矩陣可定義為
12dii(i=1,2,…,N)表示第i個(gè)訓(xùn)練圖像的2D PCA投影.利用所有圖像的2DPCA投影構(gòu)建2D PCA特征矩陣P=[P1,P2,…,PN].
P的類間散布矩陣Gb和類內(nèi)散布矩陣Gw可定義為
式中:Mi為P中的第i類圖像的均值矩陣;為P的均值矩陣.利用G的最大s個(gè)特征值對(duì)應(yīng)的特b征向量b1,b2,…,bs構(gòu)建投影矩陣B=[b1,b2,…,bs],第i個(gè)圖像的2D Fisherface特征矩陣可表示為Fi= BTP=BTAG∈Rs×d,這樣2D PCA矩陣P轉(zhuǎn)換為2Di Fisherface矩陣F=[F1,F2,…,FN].把Fi轉(zhuǎn)換為列向量f∈Rl×1(l為2D Fisherface空間的特征維數(shù),l=s×d,i i=1,2,…,N)這樣所有訓(xùn)練圖像的2D Fisherface向量特征構(gòu)成矩陣R=[f1,f2,…,fN].
測(cè)試圖像Y經(jīng)2D Fisherface投影并且轉(zhuǎn)換S為列向量y,然后通過(guò)?1最優(yōu)化計(jì)算y在字典R下的稀疏表示系數(shù),即
最后通過(guò)估計(jì)最小重構(gòu)誤差完成分類,即
基于2D Fisherface的SRC算法可以有效地改進(jìn)基于一維圖像特征的SRC算法的性能.筆者從ORL人臉數(shù)據(jù)庫(kù)中每類選擇5個(gè)圖像作為訓(xùn)練樣本,另外5個(gè)圖像作為測(cè)試樣本.圖1(a)的測(cè)試圖像來(lái)自O(shè)RL人臉數(shù)據(jù)庫(kù)的屬于第19類的一張圖像,圖1(b)是利用基于一維Fisherface的SRC算法得到的稀疏表示系數(shù)和重構(gòu)誤差,圖1(c)是利用基于2D Fisherface的SRC算法得到的稀疏表示系數(shù)和重構(gòu)誤差.可見(jiàn),二維特征矩陣在SRC框架下更加有效,它能夠?qū)谝痪S特征的SRC造成的錯(cuò)誤分類進(jìn)行校正.
此外,原來(lái)的SRC的計(jì)算復(fù)雜度為O(LN)(L= m×n),而基于2D Fisherface 的SRC的計(jì)算復(fù)雜度為O(lN),l?L(L為圖像像素),因此基于2D Fisherface 特征的SRC算法將會(huì)很大程度地提高人臉識(shí)別速度.
圖1 實(shí)驗(yàn)效果比較Fig.1 Comparison of experimental results
筆者設(shè)計(jì)了一個(gè)完全基于二維圖像矩陣的稀疏表示分類方法(2D SRC-2D Fisherface).2D Fisherface的有效性已經(jīng)被驗(yàn)證,所以首先將圖像通過(guò)2D Fisherface轉(zhuǎn)換為二維特征矩陣,然后不將2D Fisherface矩陣轉(zhuǎn)換為列向量,而是直接在2D Fisherface矩陣F下求解測(cè)試樣本的稀疏表示系數(shù)
將式(6)展開(kāi),有
因?yàn)榫仃嘠是對(duì)稱半正定矩陣,Q的SVD分解為
定義W=(UΛ1/2)T,z=Λ?Wb,保留W中對(duì)應(yīng)r個(gè)較大奇異值的列,這樣矩陣W的大小為r×N,其中r<min(l,N).式(7)能夠轉(zhuǎn)換為等價(jià)的一維壓縮感知問(wèn)題,即
通過(guò)上述處理,能夠進(jìn)一步減少1?最優(yōu)化問(wèn)題的計(jì)算復(fù)雜度.表1給出了上述方法中1?最優(yōu)化問(wèn)題的計(jì)算復(fù)雜度,其中rlL<?.
表1 計(jì)算復(fù)雜度比較Tab.1 Complexity comparison of algorithms
最后的分類能夠通過(guò)估計(jì)式(9)的最小重構(gòu)誤差而完成.
基于2D SRC[13]方法和基于2D SRC-2D Fisherface的人臉識(shí)別效果如圖1(d)和圖1(e)所示,可以明顯地看到2D SRC-2D Fisherface方法除了具有速度優(yōu)勢(shì)外,還可以很好地改善識(shí)別率.
筆者利用常見(jiàn)的ORL人臉數(shù)據(jù)庫(kù)和ExtendedYale B人臉數(shù)據(jù)庫(kù)[16]來(lái)驗(yàn)證設(shè)計(jì)算法的性能.在3.20,GHz CPU和2,GB內(nèi)存的PC上利用Matlab軟件完成所有實(shí)驗(yàn).SRC框架中?1最優(yōu)化的計(jì)算比較耗時(shí),一些快速算法可加速?1最優(yōu)化的求解,如文獻(xiàn)[17]所述,采用Homotopy方法可以達(dá)到最高的識(shí)別率,并且其計(jì)算成本與其他快速?1最優(yōu)化求解方法相差無(wú)幾.所以,本實(shí)驗(yàn)所有的?1最優(yōu)化問(wèn)題都采用Homotopy方法求解.
3.1 ORL人臉數(shù)據(jù)庫(kù)
ORL數(shù)據(jù)庫(kù)包含40個(gè)人的400張人臉圖像,這些圖像中包含不同的臉部表情、人臉細(xì)節(jié)及其旋轉(zhuǎn)和尺度變化.所有圖像的分辨率歸一化為112×92.比較基于一維特征向量(PCA,F(xiàn)isheface,Random projection)的SRC[7]、基于2D Fisherface的SRC、2D SRC[13]和基于2D Fisherface的2D SRC的人臉識(shí)別性能.
從每類圖像中選擇5張圖像作為訓(xùn)練樣本,另外5張圖像作為測(cè)試樣本.對(duì)于SRC框架,首先將圖像轉(zhuǎn)換為維數(shù)分別20、42、72和168的一維特征向量.由于測(cè)試樣本有40類,對(duì)于Fisherface,特征維數(shù)最多為39,因此只能計(jì)算當(dāng)維數(shù)為20的識(shí)別率.同時(shí),為了和一維特征進(jìn)行比較,2D Fisherface的維數(shù)選擇為5×4、7×6、9×8和14×12.對(duì)于2D SRC框架,估計(jì)基于圖像像素的2D SRC方法[13]和基于維數(shù)分別為5×4、7×6、9×8和14×12的2D Fisherface的2D SRC方法的性能.各種方法的識(shí)別率比較見(jiàn)表2.
表2 在ORL數(shù)據(jù)庫(kù)上的算法識(shí)別率比較Tab.2 Recognition rate comparison of algorithms on the ORL database %
由表2可見(jiàn),2D Fisherface在SRC框架中非常有效,基于2D Fisherface的方法達(dá)到了最高的識(shí)別率.
在上述所有算法中,都需要求解1?最優(yōu)化問(wèn)題,因此有必要估計(jì)各種算法中1?最優(yōu)化問(wèn)題的計(jì)算性能.各種算法達(dá)到最高識(shí)別率時(shí)求解1?最優(yōu)化所需的計(jì)算時(shí)間結(jié)果如表3所示.
表3 在ORL數(shù)據(jù)庫(kù)上的算法運(yùn)算時(shí)間比較Tab.3Run time comparison of algorithms on theORL database
從表3可見(jiàn),雖然基于2D Fisherface的SRC和基于2D Fisherface的2D SRC識(shí)別率都達(dá)到了97.5%,但是2D SRC-2D Fisherface的計(jì)算速度要比SRC-2D Fisherface的計(jì)算速度快2~3倍.
3.2 Extended Yale B人臉數(shù)據(jù)庫(kù)
Extended Yale B人臉數(shù)據(jù)庫(kù)包括來(lái)自38個(gè)人的2,414張人臉圖像.圖像的分辨率歸一化為192168×.筆者從每類中選擇1/2圖像作為訓(xùn)練樣本(每類約32張圖像),另外1/2作為測(cè)試樣本.與在ORL數(shù)據(jù)庫(kù)上的實(shí)驗(yàn)相似,比較基于一維特征向量(PCA,F(xiàn)isheface,Random projection)的SRC、基于2D Fisherface的SRC、2D SRC和基于2D Fisherface的2D SRC的人臉識(shí)別性能.
對(duì)于SRC框架,將圖像轉(zhuǎn)換為維數(shù)分別30、56、120和504的一維特征向量.由于測(cè)試樣本有38類,對(duì)于Fisherface,只計(jì)算當(dāng)維數(shù)為30時(shí)的識(shí)別率.同時(shí),估計(jì)維數(shù)分別為65×、87×、1210×和2421×的基于2D Fisherface的SRC方法的性能.對(duì)于2D SRC框架,估計(jì)基于圖像像素的2D SRC方法[13]和基于維數(shù)分別為65×、87×、1210×和2421×的2D Fisherface的2D SRC方法的性能.表4給出了各種方法的識(shí)別率.
各種方法達(dá)到最高識(shí)別率時(shí)的1?最優(yōu)化問(wèn)題的計(jì)算時(shí)間見(jiàn)表5.
表4 Extended Yale B數(shù)據(jù)庫(kù)上的算法識(shí)別率比較Tab.4Recognition rate comparison of algorithms on theExtended Yale B database %
表5 Extended Yale B數(shù)據(jù)庫(kù)上的運(yùn)算時(shí)間比較Tab.5 Run time comparison of methods on the Extended Yale B database
實(shí)驗(yàn)結(jié)果再次顯示了2D Fisherface的有效性,基于2D Fisherface的分類方法達(dá)到了99.3%的識(shí)別率.同時(shí),實(shí)驗(yàn)結(jié)果也顯示2D SRC-2D Fisherface的計(jì)算速度比SRC-2D Fisherface的計(jì)算速度快約10倍,說(shuō)明基于二維圖像矩陣的稀疏表示分類方法對(duì)于較大的數(shù)據(jù)庫(kù)有更明顯的速度優(yōu)勢(shì).
本文針對(duì)現(xiàn)有稀疏表示分類方法的不足,設(shè)計(jì)了基于二維圖像特征矩陣的稀疏表示分類方法,識(shí)別過(guò)程不需將二維圖像轉(zhuǎn)換為一維特征向量,提高了識(shí)別準(zhǔn)確率,同時(shí)大大減少了求解1?最優(yōu)化問(wèn)題的計(jì)算時(shí)間.在常見(jiàn)的人臉數(shù)據(jù)庫(kù)上的實(shí)驗(yàn)結(jié)果表明,基于2D Fisherface的2D SRC優(yōu)于所有參與比較的其他算法,以更快的速度達(dá)到了更高的識(shí)別率,基本可以滿足要求.
[1] Aharon M,Elad M,Bruckstein A. The K-SVD:An algorithm for designing of overcomplete dictionaries for sparse representation[J]. IEEE Transactions on Signal Processing,2006,51(11):4311-4322.
[2] Mairal J,Elad M,Sapiro G. Sparse representation for color image restoration[J]. IEEE Transactions on Image Processing,2008,17(1):53-69.
[3] Candes E J,Romberg J,Tao T. Robust uncertainty principles:Exact signal reconstruction from highly incomplete frequency information[J]. IEEE Transactions on Information Theory,2006,52(2):489-509.
[4] Donoho D L. Compressed sensing[J]. IEEE Transactions on Information Theory,2006,52(4):1289-1306.
[5] Candes E J,Romberg J,Tao T. Stable signal recovery from incomplete and inaccurate measurements[J]. Communications on Pure and Applied Mathematics,2006,59(8):1207-1223.
[6] Zhang D,Shi Guangming,Wu Xiaolin. Image deblur
ring and super-resolution by adaptive sparse domain selection and adaptive regularization[J]. IEEE Transactions on Image Processing,2011,20(7):1838-1857.
[7] Wright J,Yang A Y,Ganesh A,et al. Robust face recognition via sparse representation [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,2009,31(2):210-227.
[8] Zhang Haichao,Nasrabadi N M,Zhang Yanning,et al. Joint dynamic sparse representation for multi-view face recognition[J]. Pattern Recognition,2012,45(4):2884-2893.
[9] Wagner A,Wright J,Ganesh A,et al. Toward a practical face recognition system:Robust alignment and illumination by sparse representation[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,2012,34(2):372-386.
[10] Zhang Qiang,Li Baoxin. Discriminative K-SVD for dictionary learning in face recognition[C] // IEEE Conference on Computer Vision and Pattern Recognition. San Francisco,CA,2010:2691-2698.
[11] Yang Meng,Zhang Lei,F(xiàn)eng Xiangchu,et al. Fisher discrimination dictionary learning for sparse representation[C] // IEEE International Conference on Computer Vision. Barcelona,Spain,2011:543-550.
[12] Mairal J,Bach F,Ponce J. Task-driven dictionary learning[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,2012,34(4):791-804.
[13] Qiu Huining,Pham D S,Venkatesh S,et al. A fast extension for sparse representation on robust face recognition[C]// International Conference on Pattern Recognition. Istanbul,Turkey,2010:1023-1026.
[14] Yang Jian,Zhang D,F(xiàn)rangi A F,et al. Twodimensional PCA:A new approach to appearance-based face representation and recognition[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,2004,26(1):131-137.
[15] Jing Xiaoyuan,Wong H S,Zhang D. Face recognition based on 2D Fisherface approach[J]. Pattern Recognition,2006,39(4):707-710.
[16] Georghiades A S,Belhumeur P N,Kiegman D. From few to many:Illumination cone models for face recognition under variable lighting and pose[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,2001,23(6):643-660.
[17] Yang A Y,Sastry S S,Ganesh A,et al. Fast1?minimization algorithms and an application in robust face recognition:A review[C] // IEEE International Conference on Image Processing. Hong Kong,China,2010:1849-1852.
(責(zé)任編輯:金順愛(ài))
Classification Based on Sparse Representation with Two Dimensional Image Matrix
Cheng Guangtao1,2,Song Zhanjie3,Chen Xue4
(1. School of Electronic Information Engineering,Tianjin University,Tianjin 300072,China;2. Department of Foundation,North China Institute of Aerospace Engineering,Langfang 065000,China;3. School of Sciences,Tianjin University,Tianjin 300072,China;4. Department of Foundation,Beijing University of Chinese Medicine Dongfang College,Langfang 065000,China)
When sparse representation was used to pattern classification,two dimensional image matrix was previously transformed into one dimensional feature vector,which increased the computational complexity and neglected the local structural information in the original two dimensional image. In order to solve the above problems,a new face recognition algorithm exclusively using two dimensional image matrix was developed in this paper. Original image matrix was firstly transformed into two dimensional feature matrix by 2D Fisherface,then the sparse representation coefficient of testing sample with the feature matrix was solved,and classification based on the smallest reconstruction residuals was finished at last. In the whole classification process,the two dimensional image matrix was not transformed into one dimensional vector. Experimental results show that two dimensional feature matrix is effective in classification framework based on sparse representation. The designed method achieves higher recognition rate at a faster speed. The recognition rate of the designed algorithm is as high as to 97.5% and 99.3% respectively on ORL database and Extended Yale B database.
face recognition;sparse representation;object classification;two dimensional feature matrix
TP391.41
A
0493-2137(2014)06-0541-05
10.11784/tdxbz201301001
2013-01-03;
2013-04-16.
國(guó)家自然科學(xué)基金資助項(xiàng)目(61379014,60932007);廊坊市科技支撐資助項(xiàng)目(2012011004).
程廣濤(1983— ),男,博士研究生,gtcheng@tju.edu.cn.
宋占杰,zhanjiesong@tju.edu.cn.
時(shí)間:2013-09-22.
http://www.cnki.net/kcms/detail/12.1127.N.20130922.1030.001.html.