邵冬華,施志剛,史軍杰
(1.南通航運(yùn)職業(yè)技術(shù)學(xué)院 教育信息化管理中心,江蘇 南通 226010;2.南通航運(yùn)職業(yè)技術(shù)學(xué)院 管理信息系,江蘇 南通 226010)
二次近鄰稀疏重構(gòu)法及人臉識別
邵冬華1,施志剛2,史軍杰2
(1.南通航運(yùn)職業(yè)技術(shù)學(xué)院 教育信息化管理中心,江蘇 南通 226010;2.南通航運(yùn)職業(yè)技術(shù)學(xué)院 管理信息系,江蘇 南通 226010)
基于整個數(shù)據(jù)集的稀疏表示(sparse representation classification, SRC)用于人臉識別在很大程度上影響了運(yùn)行效率。如何利用較少樣本稀疏表示在保證計算效率的同時,識別率也有一定提升,尤其是面對光照、角度、姿態(tài)等非受控環(huán)境,目前仍是一個問題??紤]到協(xié)同表示(collaborative representation classification, CRC)基于l2范數(shù)稀疏求解的優(yōu)勢,為進(jìn)一步提升CRC的整體分類性能,引入類內(nèi)近鄰,提出一種二次近鄰稀疏重構(gòu)表示法。該方法首先在原始訓(xùn)練集上選擇各類訓(xùn)練樣本中與待測樣本距離相近的若干樣本組成近鄰樣本集,并協(xié)同表示,接著分別用各類近鄰樣本重構(gòu)待測樣本,再次選擇與待測樣本相近的若干重構(gòu)樣本協(xié)同表示,最終實(shí)現(xiàn)模式分類。在ORL和FERET數(shù)據(jù)庫上的仿真實(shí)驗(yàn)表明,相比現(xiàn)有的一些CRC算法,該方法在一定程度上縮短了運(yùn)行時間,并使識別更精確。
稀疏表示;人臉識別;協(xié)同表示;二次近鄰;稀疏重構(gòu)
魯棒性人臉識別是目前生物特征識別領(lǐng)域的熱點(diǎn)和難點(diǎn)。這其中基于特征提取的方法[1-4],旨在尋找目標(biāo)圖像的低維特征與分類的相關(guān)性。雖然在一定程度上提升了人臉識別的性能,但至今還沒有權(quán)威的高維圖像到低維空間的變換準(zhǔn)則。近年來,基于壓縮感知編碼理論的稀疏表示(sparse representation classification ,SRC) 因?qū)D像噪聲不敏感而引起廣泛關(guān)注。此模型最先由WRIGHT等[5]提出,它通過在高維空間對人臉圖像的表示來完成模式分類。進(jìn)一步的,一些研究人員通過在稀疏求解中嵌入迭代加權(quán)系數(shù),提出了魯棒性更強(qiáng)的方法[6-7]??紤]到SRC過于強(qiáng)調(diào)范數(shù)的稀疏性,計算中需要迭代,致使復(fù)雜度較高。為此,YANG和ZHANG[8]提出基于Gabor變換提取圖像局部方向性特征用于SRC,降低了算法的復(fù)雜度,且識別效果更佳。
SRC要求樣本的完備性,但在實(shí)際應(yīng)用中,往往并非如此。這樣即使目標(biāo)樣本確定歸屬,有限的屬類樣本也很難線性表示。于是,ZHANG等[9]人通過分析指出類間樣本的相似性對于稀疏表示的作用,提出協(xié)同表示分類(collaborative representation classification, CRC),此算法基于l2-范數(shù)的稀疏求解在大幅縮短運(yùn)行時間的同時,依然保持和SRC相當(dāng)?shù)淖R別效果。文獻(xiàn)[10]將圖像通過Shearlet多尺度變換后進(jìn)行融合,結(jié)合分塊用均勻局部二值模式(uniform local binary pattern, ULBP)提取特征以協(xié)同表示,改善了識別效果,但算法的復(fù)雜度較高。WEI[11]提出將灰度圖像8個位平面的有效識別信息進(jìn)行加權(quán),通過構(gòu)造虛擬圖像協(xié)同表示,有效提升了識別性能。文獻(xiàn)[12]提出魯棒協(xié)同表示(robust collaborative representation, RCR),相比文獻(xiàn)[6-7]方法,此算法計算復(fù)雜度大大降低。另外,LU[13]和FAN[14]指出樣本的有效局部信息對稀疏表示的重要性,分別提出加權(quán)稀疏表示(weighted sparse representation classification, WSRC),有效增強(qiáng)了分類性能。但此方法通過權(quán)衡各訓(xùn)練樣本與目標(biāo)樣本的相似性構(gòu)建加權(quán)矩陣,嵌入在基于整個數(shù)據(jù)集協(xié)同表示的系數(shù)求解中,很大程度上會降低運(yùn)行效率。受此啟發(fā),并針對存在遮擋等非受控環(huán)境,文獻(xiàn)[15]引入分塊思想,通過提取各訓(xùn)練樣本與測試樣本對應(yīng)子圖像的最大相似信息嵌入在稀疏表示中,無論識別率還是運(yùn)行效率都有不同程度的提升。鑒于樣本中的光照、角度、姿態(tài)等信息不能有效利用對分類的干擾,文獻(xiàn)[16]通過不同場景構(gòu)造虛擬樣本協(xié)同表示(virtual samples collaborative representation classification, VSCRC),雖然有較好的識別效果,但擴(kuò)張的訓(xùn)練樣本無疑會消耗系數(shù)求解的時間。文獻(xiàn)[17]通過階段性縮小目標(biāo)類別的二級分類法(coarse to fine face recognition, CFFR)使識別更精確,但同樣基于整個數(shù)據(jù)集的協(xié)同表示在運(yùn)行時間上沒有太大優(yōu)勢。
綜合近年來流行的基于CRC算法的分析,均是基于整個數(shù)據(jù)集協(xié)同表示,這樣在系數(shù)求解中勢必會降低計算效率。此外,一些與目標(biāo)樣本相關(guān)性較小的訓(xùn)練樣本參與稀疏表示,在一定程度上反而會影響到分類的實(shí)效。文獻(xiàn)[18-20] 驗(yàn)證了適合數(shù)量且相似的樣本協(xié)同表示不僅能獲得更高的識別率,而且可以降低算法的復(fù)雜度。基于上述考慮,文章提出二次近鄰稀疏重構(gòu)表示法。通過在原始訓(xùn)練集中選擇和目標(biāo)樣本更相似的各類樣本協(xié)同表示,不僅可以降低運(yùn)行時間,而且通過對目標(biāo)樣本的一次重構(gòu),從與原始樣本類別數(shù)相同的重構(gòu)樣本中再次選擇和目標(biāo)樣本相近的樣本協(xié)同表示,可以進(jìn)一步縮小分類目標(biāo),使識別更精確。在ORL及FERET數(shù)據(jù)庫上的實(shí)驗(yàn)證明了本文方法的有效性。
如果測試樣本矢量y∈Rm×1屬于某類,則有
y=Xα
(1)
‖α‖1,s.t.‖y-Xα‖2≤ε
(2)
ZHANG等在此基礎(chǔ)上提出所有樣本的CRC,以l2代替l1范數(shù)簡化計算。引入正則化參數(shù)λ穩(wěn)定重構(gòu)誤差和稀疏性,系數(shù)α的最優(yōu)求解定義為
(3)
(3)式中,系數(shù)α可通過對(3)式求導(dǎo)得出,即
α=(XTX+λI)-1XTy
(4)
通過(5)式計算各類訓(xùn)練樣本重構(gòu)與測試樣本y的殘差ei,即
ei=‖y-Xiαi‖2
(5)
最后依據(jù)ei的最小值判斷y的類別
(6)
首先選取每類訓(xùn)練樣本中與待測樣本近鄰的樣本協(xié)同表示;獲取稀疏系數(shù)后,利用各類近鄰樣本分別重構(gòu)待測樣本,從而組成與原始訓(xùn)練樣本類別數(shù)相同的重構(gòu)樣本集;然后再次選擇與測試樣本距離最近的若干重構(gòu)樣本協(xié)同表示,并進(jìn)行二次重構(gòu);最終實(shí)現(xiàn)模式分類。具體算法步驟如下。
Step1原始訓(xùn)練樣本集定義已在前文描述,對于任意待測樣本y∈Rm×1,分別求其在第i類訓(xùn)練樣本的K個近鄰,組成新的近鄰樣本集。
i=1,2,…,C;j=1,2,…,ni
(7)
i=1,2,…,C,
j=1,2,…,ni,K≤ni
(8)
(9)
(10)
(11)
i=1,2,…,C,l=1,2,…,K′。
(12)
(13)
(14)
(15)
實(shí)驗(yàn)硬件環(huán)境為Intel Core i5-4210M處理器,2.60 GHz主頻,4 GB內(nèi)存, 用Matlab7仿真,在ORL和FERET人臉庫上驗(yàn)證本文方法的有效性。本文實(shí)驗(yàn)中λ=0.01。
ORL數(shù)據(jù)庫有40人,每人包含10幅不同表情、姿態(tài)、角度、光照等差異的人臉圖片,大小均為112×92像素。圖1為ORL庫中某人圖像實(shí)例。
本實(shí)驗(yàn)分4組進(jìn)行,分別取每類訓(xùn)練樣本前ni=4,5,6,7幅為訓(xùn)練樣本,余下的用來測試。通過一次近鄰K和二次近鄰K′的選擇來比較本文方法在ORL庫上的識別效果。如圖2所示。
圖1 ORL庫某人圖像實(shí)例Fig.1 Examples of someone’s images in ORL database
圖2 ORL庫上ni不同時在K近鄰下取不同K′的識別率Fig.2 Recognition rate of different K′ under the nearest K neighbors while ni is different on ORL database
從圖2可見,當(dāng)ni不同時,選擇與測試樣本更相似的若干樣本協(xié)同表示,分別在K=2,3,3,4,即K=ceil(ni/2)時,近鄰效果最優(yōu)。這種通過在各類樣本中選取K近鄰的協(xié)同表示,可得到與類別數(shù)(C=40)相同的重構(gòu)樣本,再選擇K′個近鄰重構(gòu)樣本協(xié)同分類,可獲得更高的識別率,分別在K′=6,9,3,13時,達(dá)到最高,依次是91.25%,91.50%,94.37%和95.83%。相比文獻(xiàn)[20],在重構(gòu)樣本中選擇近鄰稀疏重構(gòu)可以進(jìn)一步縮小分類目標(biāo),使識別更精確。表1為ni=6時,各方法識別性能比較。表1中,CFFR方法第2階段類別數(shù)取6,局部稀疏表示(local sparse representation classification, LSRC)和改進(jìn)的局部稀疏表示(improved local sparse representation classification, ILSRC)方法基于所有訓(xùn)練樣本的近鄰數(shù)取40。
從表1中看出,本文方法在ORL庫上,識別率相比WSRC和VSCRC分別提高了6.87%和6.25%。雖然本文方法與CFFR識別率相同,但在識別效率上有較大優(yōu)勢,平均識別時間提高了2倍多。原因在于CFFR和本文方法雖然均采用二級分類以縮小目標(biāo)類別為目的,識別率相當(dāng),但是2個階段系數(shù)求解效率不同,取決于總樣本數(shù)。在第1階段CFFR基于整個訓(xùn)練集,而本文方法則基于局部樣本,數(shù)量僅為CFFR的1/2;到了第2階段,CFFR用于計算系數(shù)的樣本數(shù)為36,而本文方法為3。表2為ORL庫上各方法系數(shù)求解時間對比。雖然本文方法在2次近鄰選擇中通過計算各訓(xùn)練樣本及重構(gòu)樣本與測試樣本的距離會消耗一定的運(yùn)行時間,但在實(shí)驗(yàn)中發(fā)現(xiàn)其在整個識別時間中只有0.020 3 s,可見,系數(shù)計算效率在很大程度上決定了運(yùn)行時間的長短。很明顯,本文方法通過較少樣本的稀疏表示在保持高識別率的同時算法效率進(jìn)一步提升。WSRC通過構(gòu)造加權(quán)矩陣嵌入到基于整個訓(xùn)練集的系數(shù)求解,運(yùn)行效率與CFFR相當(dāng)。還有VSCRC通過不同場景擴(kuò)張每類樣本數(shù)的做法,雖然能有效利用樣本中的光照、表情等信息,識別率要好于WSRC,但樣本數(shù)明顯增多無疑使系數(shù)求解的效率下降,導(dǎo)致識別時間增加,顯然不符合視覺系統(tǒng)中對人臉識別的實(shí)時性需求。另外,LSRC和ILSRC方法同樣基于局部樣本稀疏表示,其中,LSRC基于所有訓(xùn)練樣本選擇近鄰,只需求解系數(shù)一次,相比本文方法計算復(fù)雜度稍低,并且由于ORL庫圖像質(zhì)量較好,圖片中幾乎沒有光照、人臉角度等差異,因此基于整個數(shù)據(jù)集選擇近鄰的效果相對較好。ILSRC由于近鄰樣本稀疏表示前需基于整個數(shù)據(jù)集計算每個訓(xùn)練樣本的系數(shù),若訓(xùn)練樣本增多,運(yùn)算復(fù)雜度就會提高,雖然識別率和本文方法相當(dāng),但運(yùn)行效率沒有任何優(yōu)勢。由此可以證明本文方法和LSRC方法整體性能更好。
表1 ORL庫上各方法識別性能比較Tab.1 Recognition performance comparison of different methods on ORL database
表2 ORL庫上各方法系數(shù)計算時間比較Tab.2 Time comparison of coefficient computation of different methods on ORL database
為降低運(yùn)算的復(fù)雜度,通過主成份分析(principal component analysis, PCA)對圖像降維比較不同維數(shù)各方法識別率,此時,ni=5,如圖3所示。從圖3看出,在不同維數(shù)下,本文方法識別效果明顯好于VSCRC,CFFR和ILSRC,相比WSRC,隨著維數(shù)增多,識別率也有所提高。因此,本文方法用于人臉識別有一定的實(shí)效。
圖3 ORL庫上不同特征維數(shù)各方法識別率Fig.3 Recognition rate of different method under different feature dimensions on ORL database
FERET數(shù)據(jù)庫比較龐大,實(shí)驗(yàn)選擇50人,每人僅取7幅不同差異的人臉圖像,這7幅圖像的名稱帶有“ba”“bd”“be”“bf”“bg”“bj”“bk”字樣。該數(shù)據(jù)庫在姿態(tài)、角度、光照等方面差異明顯,圖片大小均為256×384像素,實(shí)驗(yàn)裁剪為80×80像素。圖4為FERET庫中某人圖像實(shí)例。
圖4 FERET庫某人圖像實(shí)例Fig.4 Examples of someone’s images in FERET database
本實(shí)驗(yàn)分3組進(jìn)行,分別取每類訓(xùn)練樣本前ni=3,4,5幅為訓(xùn)練樣本,余下的用來測試。通過一次近鄰K和二次近鄰K′的選擇來比較本文方法在FERET庫上的識別效果,結(jié)果如圖5所示。
從圖5可見,當(dāng)ni不同時,選擇與測試樣本更相似的若干樣本協(xié)同表示,分別在K=2,2,3,即K=ceil(ni/2)時,近鄰效果明顯,這種通過在各類樣本中選取K近鄰的協(xié)同表示,可得到與類別數(shù)(C=50)相同的重構(gòu)樣本,再選擇K′個近鄰重構(gòu)樣本協(xié)同分類,識別性能更佳,分別在K′=6,39,37時,識別率最高,依次是87.00%,92.00%,94.00%。雖然在ni=4,5時,二次近鄰K′值偏高,但從圖5中看出,K′=2,6時,識別率也可分別達(dá)到91.33%和93.00%,和最高識別率相差無幾。相比文獻(xiàn)[20],在重構(gòu)樣本中選擇近鄰稀疏重構(gòu)可以進(jìn)一步縮小分類目標(biāo),使識別更精確。表3為ni=4時,各方法識別性能比較。表3中,CFFR方法第2階段類別數(shù)取8,LSRC和ILSRC方法基于所有訓(xùn)練樣本的近鄰數(shù)取50。
圖5 FERET庫上ni不同時在K近鄰下 取不同K′的識別率Fig.5 Recognition rate of different K′ under the nearest K neighbors while ni is different on ORL database
從表3中看出,本文方法在FERET庫上,相比其他方法,識別率和CFFR相當(dāng),但平均識別時間僅是其一半,為0.176 6 s。相比LSRC方法,識別率提高了近5個百分點(diǎn),雖然基于整個數(shù)據(jù)集選擇近鄰稀疏表示法在運(yùn)行效率方面有一定優(yōu)勢,倘若圖像中人臉的角度、姿態(tài)等差異較大,LSRC的近鄰性能就下降了。與WSRC,VSCRC及ILSRC方法比較,識別時間優(yōu)勢明顯,原因在于系數(shù)計算的復(fù)雜度,相比VSCRC,提高了近10倍,另外識別率還提高了近5個百分點(diǎn)。ILSRC和本文方法識別率相當(dāng),但基于每個訓(xùn)練樣本和測試樣本系數(shù)的相似性選擇近鄰,一旦訓(xùn)練樣本數(shù)增多,系數(shù)計算的復(fù)雜度就會提高,因此識別時間是本文方法的近2倍。表4為FERET庫上各方法系數(shù)計算時間對比。綜合來看,在人臉角度、姿態(tài)甚至光照等變化更大的FERET庫上,本文方法同樣表現(xiàn)出較好的性能。
表3 FERET庫上各方法識別性能比較Tab.3 Recognition performance comparison of different methods on FERET database
表4 FERET庫上各方法系數(shù)計算時間比較Tab.4 Time comparison of coefficient computation of different methods on ORL database
為降低運(yùn)算的復(fù)雜度,在FERET庫上通過PCA對圖像降維比較不同維數(shù)各方法識別率,此時,ni=4,結(jié)果如圖6所示。可以看出,在不同維數(shù)下,本文方法識別效果明顯好于VSCRC,WSRC和LSRC,但相比CFFR,隨著維數(shù)增多,識別率不穩(wěn)定。WSRC同樣表現(xiàn)出隨著維數(shù)增多,識別率下降明顯。分析原因在于使用PCA降維雖然能較好提取圖像的全局特征,但是人臉倘若在角度、姿態(tài)等方面變化明顯,使用PCA就不能有效提取這些局部非線性成分。而本文方法和WSRC協(xié)同方法在表示前均要計算訓(xùn)練樣本與測試樣本的距離,這樣在FERET庫上基于PCA提取特征,由于破壞了圖像的結(jié)構(gòu)性信息,致使在選擇近鄰或構(gòu)建加權(quán)系數(shù)矩陣時,會產(chǎn)生更多相似樣本,進(jìn)而對分類識別造成一定的干擾。但本文方法在某些特征維數(shù)下也可達(dá)到和CFFR同等的高識別率。因此,根據(jù)FERET庫上的實(shí)驗(yàn)結(jié)果,本文提出的二次近鄰稀疏重構(gòu)法和CFFR方法用在人臉識別中有一定的效果,且各具優(yōu)勢。
圖6 FERET庫上不同特征維數(shù)各方法識別率Fig.6 Recognition rate of different method under different feature dimensions on FERET database
基于整個數(shù)據(jù)集的稀疏表示在實(shí)際應(yīng)用中存在一定的缺陷,為進(jìn)一步提升CRC在人臉識別中的性能,本文提出基于二次近鄰的稀疏重構(gòu)法。該方法首先在原始樣本集上尋找待測樣本的近鄰,即僅選擇適合數(shù)量且有效的樣本協(xié)同表示,在一定程度上提高了系數(shù)求解的效率;然后分別用各類近鄰樣本稀疏重構(gòu)待測樣本,得到與原始樣本類別數(shù)相同的重構(gòu)樣本;接著基于重構(gòu)樣本集再次尋找待測樣本的近鄰,并協(xié)同表示,完成二次重構(gòu),最終實(shí)現(xiàn)模式分類。這種通過二次近鄰選擇更有效樣本的稀疏重構(gòu)法縮小了類別范圍,使分類更精確。在ORL和FERET數(shù)據(jù)庫上的實(shí)驗(yàn)驗(yàn)證了本文方法的有效性。
[1] TURK M, PENTLAND A. Eigenfaces for recognition[J].Cognitive Neuroscience,1991,3(1):71-86.
[2] BELHUMEUR V, HESPANHA J, KRIEGMAN D. Eigenfaces vs fisherfaces: recognition using class specific linear projection[J].IEEE Transactions on Pattern Analysis and Machine Intelligence, 1997,19(7):711-720.
[3] 施志剛.一種基于分塊差圖像的2DPCA人臉識別方法[J].內(nèi)蒙古師范大學(xué)學(xué)報:自然科學(xué)漢文版,2015,44(3):380-384.
SHI Zhigang. A Human Face Recognition Method of 2DPCA Based on Modular Residual Image[J]. Journal of Inner Mongolia Normal University : Natural Science Edition, 2015,44(3):380-384.
[4] 周麗芳,房斌,李偉生,等.一種自適應(yīng)的EDTLBP人臉識別方法[J].重慶郵電大學(xué)學(xué)報:自然科學(xué)版,2013,25(2):192-196.
ZHOU Lifang, FANG Bin, LI Weisheng, et al. Adaptive EDTLBP Face Recognition Method[J]. Journal of Chongqing University of Posts and Telecommunications: Natural Science Edition , 2013,25(2):192-196.
[5] WRIGH T, YANG A Y, GANESH A, et al. Robust face recognition via sparse representation[J]. IEEE Trans on Pattern Analysis and Machine Intelligence, 2009, 31(2):210-227.
[6] YANG Meng, ZHANG Lei, YANG Jian, et al. Robust sparse coding for face recognition[C] // Proc of IEEE Conference on Computer Vision and Pattern Recognition. Washington DC: IEEE, 2011:625-632.
[7] YANG Meng, ZHANG Lei, YANG Jian, et al. Regularized robust coding for face recognition[J]. IEEE Trans on Image Processing, 2013, 22( 5):1753-1766.
[8] YANG Meng, ZHANG Lei. Gabor feature based sparse representation for face recognition with Gabor occlusion dictionary[C]//Proc of the 11th European Conference on Computer Vision. Berlin Heidelberg, Germany: Springer, 2010:448-461.
[9] ZHANG Lei, YANG Meng, XIANG Chufeng. Sparse representation or collaborative Representation: which helps face recognition[C]//Proc of the IEEE International Conference on Computer Vision. Washington DC: IEEE, 2011:471-478.
[10] 謝佩,吳小俊.基于Shearlet變換和均勻局部二值模式特征的協(xié)作表示人臉識別算法[J].計算機(jī)應(yīng)用,2015,35(7):2056-2061.
XIE Pei, WU Xiaojun. Face Recognition Algorithm of Collaborative Representation Based on Shearlet Transform and Uniform Local Binary Pattern[J]. Journal of Computer Application, 2015, 35(7):2056-2061.
[11] 魏冬梅,周衛(wèi)冬.基于位平面和協(xié)作表示的人臉識別算法[J].北京理工大學(xué)學(xué)報,2014,34(9):966-971.
WEI Dongmei, ZHOU Weidong. Face Recognition Using Bit-Plane Images and Collaborative Representation[J]. Transactions of Beijing Institute of Technology, 2014, 34(9):966-971.
[12] 林國軍,解梅.一種魯棒協(xié)作表示的人臉識別算法[J].計算機(jī)應(yīng)用研究,2014,31(8):2520-2522.
LIN Guojun, XIE Mei. Face Recognition Algorithm of Robust Collaborative Representation[J]. Application Research of Computers, 2014, 31(8): 2520-2522.
[13] LU Canyi,MIN Hai,GUI Jie,et al.Face recognition via weighted sparse representation[J].Journal of Visual Communication & Image Representation,2013,24(2):111-116.
[14] FAN Zizhu, NI Ming, ZHU Qi, et al. Weighted sparse representation for face recognition[J]. Neurocomputing, 2015, 151(1):304-309.
[15] 汪淑賢,熊承義,高志榮,等.分塊最大相似性嵌入稀疏編碼的人臉識別[J].模式識別與人工智能,2014,27(10):954-960.
WANG Shuxian, XIONG Chengyi, GAO Zhirong, et al. Face Recognition Using Sparse Coding by Embedding Maximum Block Similarity[J]. PR & AI, 2014, 27(10):954-960.
[16] 張哲來,馬小虎.基于虛擬樣本的協(xié)同表示人臉識別算法[J].計算機(jī)應(yīng)用研究,2015,32(11):3518-3520.
ZHANG Zhelai,MA Xiaohu.Face Recognition of Collaborative Representation Based on Virtual Samples[J].Application Research of Computers,2015,32(11):3518-3520.
[17] XU Yong, ZHU Qi, FAN Zizhu, et al. Using the idea of the sparse representation to perform coarse-to-fine face recognition[J]. Information Sciences, 2013, 238(7):138-148.
[18] LI Chuguang, GUO Jun, ZHANG Honggang. Local sparse representation based classification[C] // International Conference on Pattern Recognition. Istanbul Turkey: IEEE, 2010:649-652.
[19] 尹賀峰,吳小俊,陳素根.改進(jìn)的局部稀疏表示分類算法及其在人臉識別中的應(yīng)用[J].計算機(jī)科學(xué),2015,42(8):48-51.
YIN Hefeng, WU Xiaojun, CHEN Sugen. Improved LSRC and Its Application in Face Recognition[J]. Computer Science, 2015, 42(8):48-51.
[20] 施志剛,蔣玲.一種基于近鄰稀疏表示的人臉識別新方法[J].重慶師范大學(xué)學(xué)報:自然科學(xué)版,2016,33(6):143-150.
SHI Zhigang, JIANG Ling. A New Method Based on the Nearest Neighbor Sparse Representation in Face Recognition[J]. Journal of Chongqing Normal University: Natural Science, 2016, 33(6):143-150.
The Key Project of Science and Technology Foundation of Nantong Shipping College(HYKJ/2016A02)
Sparsereconstructionalgorithmbasedonsecondarynearestneighborandfacerecognition
SHAO Donghua1, SHI Zhigang2, SHI Junjie2
1. Educational Information Management Center, Nantong Vocational & Technical Shipping College, Nantong 226010, P.R.China;2. Department of Management and Information, Nantong Vocational & Technical Shipping College, Nantong 226010, P.R. China)
Sparse representation classification (SRC) based on the entire data set for face recognition largely affect the running efficiency. How to use the few samples for sparse representation while ensuring the computing efficiency, the recognition rate also has a certain improvement, especially in the light, angle, attitude and other uncontrolled environment, it is still a problem. Taking into account the advantage of sparse solution based onl2norm in collaborative representation classification (CRC), on this basis, in order to further improve the overall classification performance of CRC, this article introduces the nearest neighbor of the inner class, a sparse reconstruction method based on secondary nearest neighbor is proposed. Firstly among the original training sample set, several samples of the inner class which are similar to the testing sample were chosen to construct the nearest neighbor sample set, and they collaboratively represent the testing sample, and the nearest neighbor samples in each class were used to reconstruct testing sample respectively, then some reconstructed samples which are similar to the testing sample were chosen to collaboratively represent again, finally pattern classification was realized. Experiments on the ORL and FERET database indicate that compared with some exitsing CRC algorithms, the proposed method partly makes the running time short, and the recognition rate more accurate.
sparse representation classification; face recognition; collaborative representation classification; secondary nearest neighbor; sparse reconstruction
10.3979/j.issn.1673-825X.2017.06.020
2016-08-06
2017-09-20
施志剛 benstiven@163.com
南通航運(yùn)學(xué)院科技基金重點(diǎn)資助項(xiàng)目(HYKJ/2016A02)
TP391.41
A
1673-825X(2017)06-0844-07
邵冬華(1977 -),男,江蘇宜興人,副教授,碩士,主要研究方向?yàn)橹悄芑畔⑻幚淼?。E-mail:donghua@ntsc.edu.cn。
施志剛(1980 -),男,江蘇南通人,講師,碩士,主要研究方向?yàn)閳D像處理、模式識別等。E-mail:benstiven@163.com。
史軍杰(1980 -),女,河南洛陽人,副教授,碩士,主要研究方向?yàn)樾畔⑷诤?、機(jī)器學(xué)習(xí)等。
(編輯:張 誠)