王甜甜,郭太良,姚劍敏,周龍沙
(1.福州大學(xué)物理與信息工程學(xué)院,福建 福州 350000;2.TCL工業(yè)研究院,廣東 深圳 518000)
責(zé)任編輯:任健男
近年來(lái),人臉識(shí)別受到多方面的廣泛關(guān)注。它在國(guó)民經(jīng)濟(jì)和人民生活等領(lǐng)域具有十分廣闊的應(yīng)用前景。人臉識(shí)別的一個(gè)關(guān)鍵問(wèn)題是人臉表征,即采取某種表示方法來(lái)表示檢測(cè)出的人臉和數(shù)據(jù)庫(kù)中的已知人臉。常用的表征方法有幾何特征、主分量分析、線性判別分析、獨(dú)立分量分析、Gabor小波變換等。Gabor小波變換最早由D.Gabor在1946 年提出的[1],后來(lái) Daugman[2]發(fā)現(xiàn)二維 Gabor函數(shù)在空域和空頻域都具有解析性。
Buhmann和Lades等人[3]把Gabor特征應(yīng)用在人臉識(shí)別中,將圖像上一點(diǎn)處的局部特征利用相應(yīng)的小波系數(shù)表示,在一定程度上解決了人臉識(shí)別。傳統(tǒng)的Gabor小波變換從多尺度多方向提取圖像局部信息,方向選取是離散的,且計(jì)算量大。本文采取環(huán)形對(duì)稱Gabor變換,得到5幅人臉圖像,相對(duì)比40幅人臉圖像,計(jì)算量小,對(duì)人臉圖像各方向具有相同的作用和效果,也能提取人臉主要特征。
圖像經(jīng)過(guò)環(huán)形Gabor變換后,維數(shù)過(guò)高,因此需要將數(shù)據(jù)維數(shù)降低,提取出主要紋理信息。本文中采用PCA降維。特征值較大的特征向量反映人臉最大差異性[4]。對(duì)濾波后的圖像進(jìn)行整體降維得到整副圖像主要紋理信息,會(huì)丟失一些重要的局部信息,這些局部信息對(duì)于人臉識(shí)別有著重要的作用。為了解決上述問(wèn)題,本文利用多尺度多方向獲取合適的Gabor核函數(shù)來(lái)提取出紋理特征,采用改進(jìn)的分塊PCA方法,提取出人臉在每塊中的主要特征,這樣能對(duì)實(shí)際人臉的各分塊進(jìn)行很好的特征描述。
環(huán)形對(duì)稱Gabor變換(Circular Symmetrical Gabor Transformation,CSGT)[5]主要用在特征分割和分類方面。CSGT有兩方面優(yōu)于傳統(tǒng)Gabor變換(Gabor Transformation,GT[6])。首先,降低了算法復(fù)雜度。GT 每個(gè)像素映射40個(gè)變換系數(shù),而CSGT是5尺度變化,因此只有5個(gè)變換系數(shù);其次,CSGT在單個(gè)參數(shù)條件下濾波的方向是360°,它能夠刻畫圖像在不同方向下的特性,在人臉圖像進(jìn)行濾波之后,能夠保持圖像不同方向特征而不會(huì)發(fā)生圖像紋理丟失,即旋轉(zhuǎn)不變性,傳統(tǒng)的GT變換需要多個(gè)參數(shù)才能描繪多個(gè)方向下的濾波效果。CSGT變換需尺度上的變換就能刻畫出人臉的特征,比GT變換更豐富,所需要的參數(shù)和計(jì)算量更少,這也是本文選擇CSGT變換的原因。Gabor小波核函數(shù)可描述為
將其中與方向有關(guān)的參數(shù)加以修改,并忽略式(1)中的最后一項(xiàng),則得到的環(huán)形對(duì)稱Gabor小波核函數(shù),可描述為
原圖像I(x,y)與式(2)進(jìn)行卷積的公式為
式中:* 表示卷積運(yùn)算;Gu,v(z)為不同的參數(shù)u,v下對(duì)應(yīng)的CSGT核函數(shù);Ou,v(z)為CSGT得到的特征。通過(guò)CSGT核函數(shù)可以得到5幅CSGT實(shí)部和5幅CSGT虛部矩陣。圖像經(jīng)過(guò)5個(gè)頻率上的CSGT核函數(shù)后,獲取信息量過(guò)多,這些信息在人臉識(shí)別過(guò)程中造成冗余,降低人臉區(qū)分度,不利于識(shí)別,因此本文采用一種新方法(Gabor核能量)來(lái)獲取合適的濾波窗口大小,得到紋理信息描述更好的圖像特征,該方法步驟為:
1)設(shè)置步長(zhǎng)t為1到(圖像長(zhǎng)度/2+圖像寬度/2)/2變化;
2)將第k(k=1~5)個(gè)實(shí)部矩陣的所有像素值大小相加,得到r1;
3)提取第k個(gè)實(shí)部矩陣,并以該矩陣中心為中心,把(中心點(diǎn)x-圖像長(zhǎng)度/2+t≤矩陣x坐標(biāo)≤中心點(diǎn)x+圖像長(zhǎng)度/2+t,中心點(diǎn)y-圖像寬度/2+t≤矩陣y坐標(biāo)≤中心點(diǎn)y+圖像長(zhǎng)度/2+t)所覆蓋的矩陣區(qū)域的像素值相加,得到r2;
4)獲取第k個(gè)虛部矩陣,重復(fù)步驟2)得到i1,重復(fù)步驟3)得到i2;
5)能量為(r1/r2)+(i1/i2)值累加5次;
6)通過(guò)設(shè)定一定閾值,判斷步驟5)得到的能量值是否達(dá)到所設(shè)定的要求,若達(dá)到則該t為適合的窗口大小的參數(shù),利用該參數(shù)對(duì)圖像進(jìn)行CSGT濾波。
將上述方法所提取的CSGT基函數(shù)的實(shí)部、虛部與原圖像進(jìn)行卷積,把卷積之后的幅值作為人臉識(shí)別特征。如圖1所示為圖像采用上述方法和未采用上述方法進(jìn)行CSGT濾波后實(shí)部和虛部的效果圖。
圖1 CSGT濾波后實(shí)部和虛部的效果圖
從圖1可看出,采用新方法得到合適環(huán)形對(duì)稱Gabor核窗口比用原來(lái)的濾波窗口進(jìn)行濾波后的圖像在紋理上分布更清晰,特征更明顯,更能體現(xiàn)出人臉自身的特征,因?yàn)橛眯路椒ǖ玫降腉abor核窗口能集中體現(xiàn)圖像本身主要特征。
圖像經(jīng)CSGT變換提取的紋理信息是高維向量,為了利于人臉識(shí)別,需將高維空間向量轉(zhuǎn)為低維空間向量。常用的維數(shù)降低方法有主成分分析PCA(Principal Component Analysis)、線性判別式分析LDA(Linear Discriminant Analysis)[7]等。
PCA方法是由Turk和Pentlad提出的,它的基礎(chǔ)是Karhunen-Loeve變換(K-L 變換[8])。PCA 是通過(guò)高維圖像空間經(jīng)K-L變換得到一組新的正交基,對(duì)該正交基提取主要部分生成低維空間,即人臉特征臉空間。LDA的作用是減小樣本的類內(nèi)區(qū)分度,增大樣本的類間區(qū)分度。通過(guò)一定方式處理后,得到N×N樣本矩陣(N為樣本數(shù)量),該方法只通過(guò)不斷增加樣本數(shù)量來(lái)增加LDA樣本間區(qū)分度。從工程角度出發(fā),本文只采用1張人臉圖片,樣本不多,相對(duì)于LDA而言存在小樣本問(wèn)題。而PCA處理圖像過(guò)程中不存在該問(wèn)題,能提取出主要特征。所以在本文中利用PCA對(duì)圖像進(jìn)行降維。
通過(guò)PCA整體降維能獲取整幅圖像最顯著紋理特征,但忽略了圖像一些細(xì)節(jié)紋理,這些特征對(duì)于區(qū)分不同人臉是很重要的。本文利用分塊PCA進(jìn)行人臉識(shí)別,保證人臉主要紋理信息提取。圖2所示對(duì)一幅圖像進(jìn)行分塊PCA降維過(guò)程。
首先圖像平均分塊,再將每一小塊拉直成1×N矩陣,如總共分成M小塊,則拉直成為M×N矩陣,其中N表示一個(gè)小塊總的像素?cái)?shù),再利用PCA方法對(duì)M×N矩陣進(jìn)行降維,形成M×K(K<N)矩陣,其中K表示M×N矩陣通過(guò)PCA降維后變成M×K矩陣。
圖2 分塊PCA降維過(guò)程
本文中,首先將CSGT濾波之后的樣本子圖像分成不同組,再將分組后的圖像分成大小相同的多個(gè)子塊圖像,提取圖像每一塊紋理信息。與單獨(dú)對(duì)圖像整體采用PCA獲取主要信息相比,更能抽取出圖像局部紋理特征(詳細(xì)參看第3節(jié))。在人臉識(shí)別時(shí),測(cè)試圖像對(duì)樣本圖像每一塊紋理信息進(jìn)行對(duì)比,不會(huì)忽略圖像細(xì)節(jié)信息,對(duì)于人臉識(shí)別有著顯著作用。通過(guò)判斷測(cè)試圖像是否與樣本圖像的每一塊紋理信息匹配來(lái)進(jìn)行人臉識(shí)別。這樣能較精確地識(shí)別出每一塊紋理,實(shí)現(xiàn)人臉識(shí)別。
人臉圖像CSGT變換是5個(gè)尺度上的變換,對(duì)于小范圍的圖像偏轉(zhuǎn)能較好地識(shí)別出圖像。在進(jìn)行識(shí)別時(shí),較遠(yuǎn)或較近的人臉圖像會(huì)被拉伸或縮小。在適當(dāng)距離內(nèi)進(jìn)行圖像拉伸和縮小對(duì)人臉的特征影響不是很大,因此,在實(shí)驗(yàn)中,當(dāng)人臉在1.5~2.5 m距離內(nèi)時(shí)采用樣本圖像為2.5 m的人臉,當(dāng)在3~4 m時(shí)采用樣本圖像為3 m的圖像。這樣可提高識(shí)別率,提高人臉特征紋理識(shí)別魯棒性。算法流程圖如圖3所示。
圖3 算法總流程圖
對(duì)應(yīng)算法步驟為:
1)一幅樣本圖像經(jīng)CSGT變換生成5幅環(huán)形Gabor濾波子圖像,相應(yīng)的序號(hào)分別為1,2,3,4,5,N 幅樣本圖像生成5×N幅環(huán)形Gabor濾波子圖像,每幅排列序號(hào)也為1,2,3,4,5。如圖4 所示濾波子圖像,S1和 S2分別表示 2幅樣本圖像濾波后的子圖像。
圖4 濾波子圖像
2)將N幅樣本圖像生成的相同序號(hào)的樣本子圖像分為一組,如圖5所示,分別將S1的第一幅圖和S2的第一幅圖取出。這樣5×N幅環(huán)形Gabor濾波子圖像分為5組,每組個(gè)數(shù)為N。
圖5 提取第1幅圖
3)將每組環(huán)形Gabor濾波子圖像的每一幅圖像進(jìn)行平均分塊,分塊后的圖像如圖6所示,再將分塊后的每組圖像進(jìn)行PCA變換獲得對(duì)應(yīng)的樣本特征臉空間Sv2,Sv3,Sv4,Sv5。
圖6 子圖像分塊
4)一幅測(cè)試圖像經(jīng)過(guò)CSGT變換生成5幅環(huán)形Gabor濾波子圖像。
5)分別將5幅測(cè)試環(huán)形Gabor濾波子圖像進(jìn)行分塊獲得對(duì)應(yīng)測(cè)試子圖像矩陣,分別將樣本第1組圖像和測(cè)試第1幅子圖像投影到Sv1,生成樣本人臉特征空間矩陣A1和測(cè)試人臉特征空間矩陣T1,重復(fù)進(jìn)行則生成樣本人臉特征空間矩陣A2,A3,A4,A5以及測(cè)試人臉特征空間矩陣T2,T3,T4,T5。
6)分別計(jì)算測(cè)試人臉特征空間與N個(gè)樣本人臉特征空間的歐幾里得距離,哪個(gè)距離最短,則判斷相似于對(duì)應(yīng)樣本人臉特征空間。
CSGT變換后圖像進(jìn)行分塊PCA變換,在本實(shí)驗(yàn)中采用樣本圖像大小為54×54,對(duì)每幅圖像進(jìn)行平均分塊,每塊大小為9×9,分成6×6塊。
實(shí)驗(yàn)配置:Quad CPU,Q8200,2.33 GHz,內(nèi)存2 Gbyte,Ghost XP操作系統(tǒng)等。
實(shí)驗(yàn)結(jié)果:實(shí)驗(yàn)采用FERET人臉庫(kù)中的人臉圖像進(jìn)行驗(yàn)證,同時(shí)采用1 280×480的攝像機(jī)采集不同距離的人臉圖像進(jìn)行不同距離的識(shí)別,共采集10張樣本人臉。如圖7所示為攝像機(jī)采集的10個(gè)樣本。
圖7 樣本示例
實(shí)驗(yàn)中采用的測(cè)試圖像為測(cè)試人在每段距離時(shí)拍攝的圖像,共采集 100 張測(cè)試距離為 1.5 m,2.0 m,2.5 m,3.0 m以及大于3.0 m的人臉圖像。
如圖8所示,編號(hào)A1、編號(hào)A2分別為A在1.5 m,2.0 m處不同光照下的測(cè)試圖像,但光照變化不大,編號(hào)B1為B在3.0 m時(shí)的測(cè)試圖像,該圖像嘴巴張開,有表情變化。通過(guò)對(duì)測(cè)試圖像進(jìn)行灰度變換、直方圖均衡化和中值濾波等方法預(yù)處理,很好地消除光照影響。表1中的A是測(cè)試圖像在1.5 m和2.0 m下識(shí)別結(jié)果,可以看出,當(dāng)光照條件變化在一定范圍內(nèi)仍能識(shí)別。圖8中B1為3.0 m的圖像,并有一張人臉表情變化的圖像,由結(jié)果可知,當(dāng)表情變化不大時(shí)依然能識(shí)別。圖8中的編號(hào)C1為大于3.0 m的測(cè)試圖像,由表1中C在大于3.0 m的識(shí)別率可以看出依然能夠較好的識(shí)別。圖8中的編號(hào)D1不是樣本庫(kù)中的人臉圖像,在實(shí)驗(yàn)中,通過(guò)把檢測(cè)到D的面部特征與庫(kù)中對(duì)應(yīng)人臉的面部特征進(jìn)行比對(duì),從而判斷出D不為人臉庫(kù)中的人臉,因此識(shí)別結(jié)果為0。
圖8 測(cè)試圖像在不同距離、不同光照、不同表情和非樣本人臉的圖片
表1 圖8的測(cè)試圖像實(shí)驗(yàn)識(shí)別率
如圖9中的識(shí)別率的結(jié)果看出,GT與PCA進(jìn)行人臉識(shí)別的效果最低。當(dāng)測(cè)試圖像在1.5 m到2.5 m時(shí),CSGT與PCA和CSGT與分塊PCA識(shí)別出人臉效果相當(dāng)。當(dāng)測(cè)試圖像在3 m以及大于3 m時(shí),CSGT與分塊PCA結(jié)合識(shí)別的效果較好。說(shuō)明將CSGT生成的環(huán)形Gabor濾波子圖像進(jìn)行分塊再進(jìn)行降維處理,可提取出圖像更細(xì)節(jié)的紋理,達(dá)到更好的識(shí)別率。在實(shí)驗(yàn)中利用GT算法計(jì)算5尺度、8方向、40個(gè)變換系數(shù)的時(shí)間為0.025 425 s,CSGT計(jì)算5尺度方向的變換系數(shù)時(shí)間為0.009 331 s。兩者在提取特征算法上,CSGT相對(duì)而言算法復(fù)雜度更低,算法時(shí)間運(yùn)行時(shí)間更短。
圖9 3種識(shí)別方法整體識(shí)別率的比較
傳統(tǒng)GT提取的是多方向多尺度人臉特征的冗余,傳統(tǒng)PCA降維方法只考慮圖像整體的特性,忽略圖像細(xì)節(jié)方面特征。因此,采用一種新方法獲取合適的CSGT核函數(shù)窗口對(duì)人臉特征進(jìn)行提取,減少提取特征的冗余度,對(duì)經(jīng)CSGT變換后的高維圖像先分組再用分塊PCA算法進(jìn)行降維,這樣可保存空間特征點(diǎn)信息,有利于提取圖像一些細(xì)節(jié)信息,對(duì)識(shí)別具有不可忽略的作用。結(jié)果表明,用本文提出基于CSGT和分塊PCA的人臉識(shí)別算法,對(duì)光照、表情、姿態(tài)等變化具有一定魯棒性,識(shí)別效果有了很大提高。
[1]GABOR D.Theory of communication[J].Journal of the Institution of E-lectrical Engineers- Part III:Radio and Communication Engineering,1946,93(26):429-459.
[2]DAUGMAN J G.Two-dimensional spectral analysis of cortical receptive field of profile[J].Vision Research,1980,20(10):847-856.
[3]BUHMANN J,LANG J,MALSBURG C.Distortion invariant object recognition by matching hierar-chically labeled graphs[EB/OL].[2012-10-20].http://www.researchgate.net/publication/224740138_Distortion_invariant_object_recognition_by_matching_hierarchically_labeled_graphs?ev=prf_cit.
[4]王巖紅,李登輝,孫希延.視頻監(jiān)控系統(tǒng)中基PCA算法的人臉識(shí)別[J].電視技術(shù),2012,36(1):111-113.
[5]LIU Chengjun,WECHSLER H.Gabor feature based classification using the enhanced fisher linear discriminant model for face recognition[J].IEEE Transactions on Image Processing,2002,11(4):467-472.
[6]ZHANG Jianguo,TAN Tieniu,MA Li.Invariant texture segmentation via circular Gabor filters[EB/OL].[2012-10-20].http://ieeexplore.ieee.org/xpl/articleDetails.jsp?tp= &arnumber=1048450&queryText%3DInvariant+texture+segmentation+via+circular+Gabor+filters.
[7]YU Hua,YANG Jie.2D direct LDA algorithm for high-dimensional data with application to face recognition[C]//Proc.Fourth IEEE International Conference on Software Engineering Research,Management and Applications.Seattle,WA,USA:IEEE Press,2006:245-248.
[8]TURK M,PENTLAND A.Eigenfaces for recognition[J].Cognitive Neuro science,1991,3(1):71-86.