從繼成, 張韌志(黃淮學(xué)院,河南 駐馬店 463000)
?
基于Fisher判別分析的加權(quán)估計(jì)紋理分析
從繼成, 張韌志
(黃淮學(xué)院,河南 駐馬店 463000)
傳統(tǒng)的紋理分析方法僅以每個(gè)臉部區(qū)域的相對(duì)貢獻(xiàn)來(lái)標(biāo)記全局相似度。針對(duì)這種以局部表示全局而導(dǎo)致不能很好地進(jìn)行特征提取的問(wèn)題,提出了基于Fisher判別分析的加權(quán)估計(jì)紋理分析方法。首先使用局部二值模式或者局部相位量化對(duì)圖像進(jìn)行紋理編碼,然后將其劃分成各個(gè)大小相等且不重疊的局部小塊,從相似空間中提取出最具識(shí)別力的坐標(biāo)軸,利用Fisher線性判別分析方法對(duì)其進(jìn)行紋理分析,通過(guò)權(quán)值優(yōu)化給出了最佳解決方案。最后,在FERET和FEI兩大通用人臉數(shù)據(jù)庫(kù)上的實(shí)驗(yàn)驗(yàn)證了所提方法的有效性。實(shí)驗(yàn)結(jié)果表明,相比其他文獻(xiàn)中提出的紋理方法,所提方法取得了更好的識(shí)別性能。
人臉識(shí)別; Fisher判別分析; 加權(quán)估計(jì); 紋理編碼
由于人臉識(shí)別技術(shù)具有低干擾性和高精確性[1],在很多場(chǎng)合下的應(yīng)用都高于其他生物識(shí)別方法,包括一些大范圍的應(yīng)用,比如護(hù)照、駕駛執(zhí)照鑒別、海關(guān)檢查等[2]。隨著人臉識(shí)別技術(shù)的發(fā)展,基于紋理分析的方法得到了越來(lái)越多的應(yīng)用。研究表明,紋理分析方法的應(yīng)用能夠超過(guò)其他人臉識(shí)別方法主要是因?yàn)槠鋵?duì)正面照臉部表情的細(xì)節(jié)變化進(jìn)行了處理[3]。紋理特征提取是成功進(jìn)行圖像紋理描述、分類與分割的關(guān)鍵環(huán)節(jié),紋理特征的提取直接影響后續(xù)處理的質(zhì)量。提取的紋理特征維數(shù)不大、鑒別能力強(qiáng)、穩(wěn)健性好,且提取過(guò)程計(jì)算量小。在過(guò)去的20多年間,很多紋理特征提取的方法被發(fā)展。這些紋理特征可以被大致分為基于統(tǒng)計(jì)特征、基于模板卷積特征、基于頻域特征和基于模型特征這4類[4-7]。
楊關(guān)等曾提出在紋理分析中構(gòu)建高斯圖模型(Gaussian Graphical Models, GGM)[8],根據(jù)紋理特征的局部馬爾可夫性和高斯變量的條件回歸之間的關(guān)系,將復(fù)雜的模型選擇轉(zhuǎn)變?yōu)檩^為簡(jiǎn)單的變量選擇,應(yīng)用懲罰正則化技巧同步選擇鄰域和估計(jì)參數(shù),實(shí)驗(yàn)顯示了基于高斯圖模型的紋理特征對(duì)紋理分析的有效性。但是,復(fù)雜的計(jì)算開(kāi)銷使其在應(yīng)用中受到了限制。結(jié)合紋理編碼,文獻(xiàn)[9]中提出了一種基于統(tǒng)一權(quán)值的紋理分析(Texture Analysis based on Union Weighting, UWTA)方法,采用一組實(shí)驗(yàn)步驟獲得一個(gè)基于識(shí)別率的權(quán)值的固定形式,意識(shí)到了這些權(quán)值并不是最佳的,但是通過(guò)比較統(tǒng)一的權(quán)值,可以提高識(shí)別的能力。從那以后,大多數(shù)基于紋理的人臉自動(dòng)識(shí)別的方法(Automatic Face Recognition, AFR)[10]都開(kāi)始使用固定權(quán)值來(lái)進(jìn)行人臉識(shí)別。文獻(xiàn)[11]中提出運(yùn)用最小二乘法得出齊次非線性方程組,一定程度上提高了基于紋理編碼的人臉識(shí)別率,并且通過(guò)實(shí)驗(yàn)表明,運(yùn)用最小二乘法要比使用固定權(quán)值方法要好。然而,最小二乘法涉及到一個(gè)相當(dāng)復(fù)雜的方程組,而且還要計(jì)算出大量樣本圖像的每一個(gè)被估計(jì)的權(quán)值。
根據(jù)上述分析,傳統(tǒng)的紋理分析方法僅以每個(gè)臉部區(qū)域的相對(duì)貢獻(xiàn)來(lái)標(biāo)記全局相似度,針對(duì)這種以局部表示全局而導(dǎo)致不能很好地進(jìn)行特征提取的問(wèn)題,本文提出了基于Fisher判別分析(Fisher Discriminative Analysis, FDA)[12]的加權(quán)估計(jì)紋理分析 (Weighting Estimation for Texture Analysis, WETA) 方法,采用Fisher線性判別分析方法對(duì)相似空間中最具識(shí)別力的坐標(biāo)軸進(jìn)行紋理分析,通過(guò)權(quán)值優(yōu)化給出最佳解決方案。與最小二乘法相比,該方法中每個(gè)權(quán)值需要訓(xùn)練樣本的數(shù)量更少,運(yùn)算更高效,最后的實(shí)驗(yàn)對(duì)兩組紋理編碼進(jìn)行了詳細(xì)的分析,驗(yàn)證了所提方法的有效性。
1.1 基于局部二值模式(LBP)的紋理編碼
利用LBP[13-14]來(lái)進(jìn)行臉部描述,是通過(guò)分配給x=(x,y)坐標(biāo)的每個(gè)像素一個(gè)編碼后計(jì)算出來(lái)的,在半徑R的范圍內(nèi),中心像素強(qiáng)度與離中心m等距像素強(qiáng)度之間的差別,決定如何分配編碼。如圖1所示,根據(jù)像素強(qiáng)度正負(fù)值之間的差別,分配二進(jìn)制“0”和“1”。當(dāng)采樣點(diǎn)不符合中心像素時(shí)使用雙線內(nèi)插法。LBP紋理編碼以一種無(wú)序而又固定的二進(jìn)制串聯(lián)方式組成,用“0”和“1”表示m等距內(nèi)的像素強(qiáng)度。圖2包括了4張LBP的影像樣本,從中可以看出,像素強(qiáng)度與每個(gè)像素的LBP編碼之間的關(guān)系。
圖1 LBP圖像編碼中不同m和R值的周邊像素
圖2 FERET、FEI中的樣圖及相應(yīng)的LBP、LPQ表示法
1.2 基于局部相位量化的紋理編碼
應(yīng)用中,局部相位量化(Local Phase Quantization, LPQ)[15-16]方法要比LBP更好,因?yàn)長(zhǎng)BQ圖像更模糊,均勻亮度變化更大。與LBP相似,LPQ通過(guò)計(jì)算x=(x,y)坐標(biāo)的每個(gè)像素編碼,用編碼代表以x為中心的M×M鄰域內(nèi)(Nx)的像素。
在4個(gè)低頻區(qū)的Nx中觀察傅里葉變換Fx(u),u=(u,v)中的實(shí)值,虛值實(shí)現(xiàn)相位量化,圖1中所示的白色圓圈。在這里產(chǎn)生了8位二進(jìn)制數(shù),“0”和“1”的選擇取決于每個(gè)值是正還是負(fù)。這些二進(jìn)制數(shù)隨意而又固定地串聯(lián)成了一個(gè)8位二進(jìn)制數(shù),以此描繪Nx中的紋理,圖像中所有的像素都利用這種方法得出相應(yīng)的LPQ圖像表示。
此方法包括一個(gè)簡(jiǎn)單的過(guò)程:在量化步驟前解除傅里葉系數(shù)的關(guān)聯(lián),最大限度地保存紋理代碼的信息。
2.1 人臉匹配
假設(shè)人臉數(shù)據(jù)庫(kù)中包含很多兩眼清晰的圖像,而且圖像中眼睛的像素坐標(biāo)也相同,數(shù)據(jù)庫(kù)中用Sir表示第i個(gè)對(duì)象的第r個(gè)圖像。識(shí)別過(guò)程中紋理圖像將被劃分成大小相等且不重疊的從1~B的區(qū)域,其中,第b塊區(qū)域紋理編碼的直方圖統(tǒng)計(jì)中,b=1,2,…,B。
第b塊區(qū)域中,bHir和bHjt這2個(gè)直方圖的差別在于圖像Sir和圖像Sjt用不同的距離函數(shù)bdirjt(bHir,bHjt)計(jì)算,文中簡(jiǎn)述為bdirjt。
利用計(jì)算直方圖間距的線性組合來(lái)測(cè)量臉部的全局相異度,從而推斷出兩張人臉是否來(lái)自同一個(gè)人,式中,系數(shù)wb為權(quán)值,表示第b塊區(qū)域與最終識(shí)別一致的相對(duì)相關(guān)性。
(1)
2.2 方法提出
dirjt=[1dirjt,2dirjt,…,Bdirjt]
Dirjt=dirjtwT
(2)
因此,全局相異度測(cè)量的方法是利用系數(shù)向量w來(lái)定義相同空間內(nèi)一個(gè)方向的距離向量dirjt。假定最佳加權(quán)與相同空間的方向相符合,那么就可以盡可能地把相同對(duì)象的配對(duì)圖像從不同對(duì)象的配對(duì)圖像中分離出來(lái)。
假定這兩種類型圖像對(duì)的協(xié)方差矩陣是相等的,則可以直接使用Fisher判別方法來(lái)找出最佳加權(quán),給出的式如下:
(3)
通過(guò)式(3)快速地計(jì)算權(quán)值是非常重要的,一般情況下,它并不遵循從左到右的臉部對(duì)稱性。然而,通過(guò)二等分系數(shù)的量值去估計(jì),則可以用來(lái)執(zhí)行權(quán)值對(duì)稱,降低問(wèn)題的復(fù)雜程度。假設(shè)區(qū)域b、(b+B)/2甚至B與對(duì)稱的臉部區(qū)域相符合,則可以令bw=b+B/2w使得權(quán)值對(duì)稱,如此,式(1)就可以改寫為
(4)
所提方法的主要步驟如下:
(1) 利用LBP或LPQ對(duì)人臉圖像進(jìn)行紋理編碼;
(2) 將紋理圖像劃分成B個(gè)大小相等且不重疊的區(qū)域;
(3) 利用Fisher判別分析方法估算出權(quán)值系數(shù)wb,b=1,2,…,B;
(4) 利用式w=b+B/2w對(duì)稱權(quán)值;
(5) 利用直方圖間距的線性組合進(jìn)行全局相異度測(cè)量,并完成識(shí)別。
實(shí)驗(yàn)使用了FERET及FEI 2個(gè)通用人臉數(shù)據(jù)庫(kù)。FERET數(shù)據(jù)庫(kù)包含了820個(gè)對(duì)象的1 640張正面照,fa和fb分組里的每個(gè)對(duì)象擁有兩張圖像,圖像在臉部表情上略有不同。第二個(gè)數(shù)據(jù)庫(kù)通過(guò)FEI構(gòu)建而成,選取了50個(gè)人的每人兩張照片,分別為自然的及面帶微笑的正面照。圖3所示為實(shí)驗(yàn)過(guò)程中所使用的2個(gè)數(shù)據(jù)庫(kù)的圖像樣本。
FERETFEI
圖3 人臉數(shù)據(jù)庫(kù)示例
3.1 參數(shù)設(shè)置
實(shí)驗(yàn)中,圖像均被轉(zhuǎn)換為80×64像素分辨率,右側(cè)和左側(cè)眼睛的像素坐標(biāo)值分別為(20,14)和(20,51)。采用統(tǒng)一的LBP變量圖像,圖像含有8個(gè)采樣點(diǎn)(m=8),半徑長(zhǎng)為2個(gè)像素點(diǎn)(R=2)。計(jì)算每個(gè)7×7的像素鄰域(M=7),且在頻率值a=1/7時(shí)執(zhí)行相位量化,通過(guò)計(jì)算大小為8×8像素中超過(guò)10×8個(gè)非重疊區(qū)域,得到2個(gè)數(shù)據(jù)庫(kù)的直方圖。
所有實(shí)驗(yàn)的單體均被隨機(jī)分散開(kāi)來(lái),一半用來(lái)訓(xùn)練,另一半用來(lái)測(cè)試。通過(guò)選取一張實(shí)驗(yàn)圖像來(lái)測(cè)量比率,這張圖像應(yīng)該通過(guò)臉部匹配在參與實(shí)驗(yàn)的所有圖像中被鑒別出來(lái)。在所有的實(shí)驗(yàn)圖像中持續(xù)重復(fù)這個(gè)步驟之后,計(jì)算出相應(yīng)的平均識(shí)別率。設(shè)置每個(gè)數(shù)據(jù)庫(kù)與紋理編碼平均運(yùn)行5次以上,每次運(yùn)行1個(gè)訓(xùn)練和測(cè)試中隨機(jī)分配的個(gè)體。
3.2 權(quán)值估計(jì)
值得注意的是,定義判別軸的向量經(jīng)常會(huì)產(chǎn)生一些負(fù)面的影響,這些負(fù)面影響可能是不合理的,因?yàn)樵谀槻繀^(qū)域識(shí)別過(guò)程中習(xí)慣將權(quán)值看得過(guò)為重要。然而,所提方法向量w是一個(gè)投影方向,如此,w中負(fù)值體現(xiàn)了識(shí)別過(guò)程中相關(guān)臉部區(qū)域直方圖間距的差異。
表1列出了數(shù)據(jù)庫(kù)與編碼技術(shù)組合后得到的4種不同的結(jié)果。為了易于觀察,所有的數(shù)值都被進(jìn)位,使得所有的權(quán)向量量級(jí)相等,再四舍五入為整數(shù)值。盡管有明顯的差異,但從表1中可以清晰地看到,4個(gè)權(quán)值存在一定的共同結(jié)構(gòu)。為了測(cè)量這些結(jié)果的一致性,需要計(jì)算表1中每一組加權(quán)之間的相關(guān)性,計(jì)算的結(jié)果如表2所示。由表2可見(jiàn),同在一個(gè)數(shù)據(jù)庫(kù)中,加權(quán)之間的相關(guān)性是比較高的,而在不同的紋理編碼方法中估算出的權(quán)值可能都差不多,但改變數(shù)據(jù)庫(kù),紋理編碼帶來(lái)的差異是不可忽略的。由此可見(jiàn),每個(gè)固定的模板都不可能應(yīng)用在所有的數(shù)據(jù)庫(kù)中,而只能在特定的數(shù)據(jù)庫(kù)中進(jìn)行計(jì)算。
3.3 加權(quán)變量對(duì)識(shí)別率的影響
實(shí)驗(yàn)主要是估測(cè)加權(quán)變量對(duì)識(shí)別率的影響。前面估算了每一個(gè)加權(quán),這里利用數(shù)據(jù)庫(kù)與編碼的所有組合加權(quán)(共16種)為測(cè)試圖像計(jì)算出了識(shí)別率。經(jīng)過(guò)大量實(shí)驗(yàn),圖4列出了各種組合加權(quán)取得的最好的5個(gè)識(shí)別率,其中,小圖中每個(gè)標(biāo)題顯示了編碼與數(shù)據(jù)庫(kù)的組合。
表1 LBP、LPQ與FERET、FEI的4種不同組合編碼
表2 不同數(shù)據(jù)庫(kù)與編碼技術(shù)的加權(quán)估計(jì)關(guān)聯(lián)性
從圖4可以發(fā)現(xiàn),在相同的人臉數(shù)據(jù)庫(kù)上使用相同的紋理編碼可以獲得最好的表現(xiàn)效果。不管是訓(xùn)練還是測(cè)試,LBP與LPQ兩種編碼技術(shù)在同一數(shù)據(jù)庫(kù)互相轉(zhuǎn)換,對(duì)實(shí)驗(yàn)效果的影響都很小。與此相反,當(dāng)加權(quán)在一個(gè)數(shù)據(jù)庫(kù)中估算而又在另一個(gè)數(shù)據(jù)庫(kù)上實(shí)驗(yàn)時(shí),表現(xiàn)效果明顯下降。這一結(jié)果完全與上一節(jié)中提出的加權(quán)關(guān)聯(lián)性分析相符合。
(a) LBP編碼在FERET上
(b) LPQ編碼在FERET上
(c) LBP編碼在FEI上
(d) LPQ編碼在FEI上
圖4 不同數(shù)據(jù)庫(kù)和編碼技術(shù)配置得出的識(shí)別率
3.4 比較與分析
針對(duì)人臉識(shí)別的性能,實(shí)驗(yàn)比較所提方法與其他文獻(xiàn)中的方法,包括高斯圖模型(GGM)[8]、基于統(tǒng)一權(quán)值的紋理分析方法(UWTA)[9]及基于最小二乘法(Least Squares)[11],分別在FERET和FEI數(shù)據(jù)庫(kù)中用LBP和LPQ紋理編碼對(duì)識(shí)別率進(jìn)行了測(cè)試,各個(gè)比較方法的參數(shù)設(shè)置均與各自的文獻(xiàn)相同,實(shí)驗(yàn)結(jié)果取各方法的最優(yōu)的10個(gè)識(shí)別率(升序排列),詳細(xì)結(jié)果如圖5所示。
(a) LBP編碼與FERET組合
(b) LPQ編碼與FERET組合
(c) LBP編碼與FEI組合
(d) LPQ編碼與FEI組合
圖5 各個(gè)方法在不同的組合上得出的最優(yōu)識(shí)別率比較
從圖5可以看出,在各種組合情況下,所提的基于加權(quán)估計(jì)紋理分析的FLDA方法的識(shí)別率均為最高,在LPQ與FERET組合上的最高識(shí)別率高達(dá)96%,為4種組合中的最低,在LPQ編碼與FEI人臉數(shù)據(jù)組合上的識(shí)別率甚至接近100%,當(dāng)然,在此組合下,最小二乘法的識(shí)別率也接近100%,但是,在其他3種組合上,所提方法的識(shí)別率均明顯超過(guò)了最小二乘法。比高斯圖模型方法、基于統(tǒng)一權(quán)值的紋理分析方法,更是超出了很多,所提方法的優(yōu)越性由此可見(jiàn)。
本文提出了基于Fisher判別分析的加權(quán)估計(jì)紋理分析方法來(lái)估算最佳面部區(qū)域的權(quán)值,并且在FERET及FEI兩大人臉數(shù)據(jù)庫(kù)上進(jìn)行了實(shí)驗(yàn)。利用兩種不同的紋理編碼技術(shù),通過(guò)對(duì)本文方法與文獻(xiàn)中其他的加權(quán)方法進(jìn)行比較,表明了本文方法在識(shí)別性能方面的優(yōu)越性。所有的實(shí)驗(yàn)都假設(shè)權(quán)值是對(duì)稱的,符合左臉到右臉的對(duì)稱性。這種假設(shè)利用二等分系數(shù)的數(shù)目去估算權(quán)值,簡(jiǎn)化了問(wèn)題。結(jié)果表明,在一個(gè)給定的應(yīng)用中,所提方法能夠捕捉到人臉圖像中可能出現(xiàn)的分類的不對(duì)稱性,例如,非對(duì)稱的視差發(fā)光格柵。
對(duì)LBP及LPQ進(jìn)行紋理編碼后,進(jìn)行紋理圖像劃分、權(quán)值推斷、權(quán)值對(duì)稱,明顯提高了人臉識(shí)別率,但同時(shí)也增加了額外的開(kāi)銷,所以,如何在提高識(shí)別率的前提下,提高算法的效率,將是進(jìn)一步研究的重點(diǎn)。
[1] 孫吉貴, 劉 杰, 趙連宇. 聚類算法研究 [J]. 軟件學(xué)報(bào), 2008, 19(1): 48-61.
[2] 喬立山, 陳松燦, 王 敏. 基于相關(guān)向量機(jī)的圖像閾值技術(shù) [J]. 計(jì)算機(jī)研究與發(fā)展, 2010, 47(8): 1329-1337.
[3] Kolda T G, Bader B W. Tensor decompositions and applications [J]. SIAM Review, 2009, 51(3):455-500.
[4] 王佳奕, 葛玉榮. 基于Contourlet及支持向量機(jī)的紋理識(shí)別方法 [J]. 計(jì)算機(jī)應(yīng)用, 2013, 33(3): 677-679.
[5] Zhao Q, Zhang D, Zhang L,etal. High resolution partial fingerprint alignment using pore-valley descriptors [J]. Pattern Recognition, 2010, 43(3): 1050-1061.
[6] Zhao Q, Zhang D, Zhang L,etal. Adaptive fingerprint pore modeling and extraction [J]. Pattern Recognition, 2010, 43(8): 2833-2844.
[7] Su Y, Shan S, Chen X,etal. Adaptive Generic Learning for Face Recognition from a Single Sample per Person[C]//In IEEE International Conference on Computer Vision and Pattern Recognition, 2010: 2699-2706.
[8] Hu H. Orthogonal Neighborhood Preserving Discriminant Analysis for Face Recognition [J]. Pattern Recognition, 2008, 41(6):2045-2054.
[9] 楊 關(guān), 馮國(guó)燦, 陳偉福, 等. 紋理分析中的圖模型 [J]. 中國(guó)圖像圖形學(xué)報(bào), 2011, 16(10): 1818-1825.
[10] Xie Z, Liu G, Fang Z. Face Recognition Based on Combination of Human Perception and Local Binary Pattern [J]. Lecture Notes in Computer Science, 2012, 72(2): 365-373.
[11] Connolly J F, Granger E, Sabourin R. An adaptive classification system for video-based face recognition[J]. Information Sciences, 2012, 192(1): 50-70.
[12] 文喬龍, 萬(wàn)遂人, 徐 雙. Fisher準(zhǔn)則和正則化水平集方法分割噪聲圖像 [J]. 計(jì)算機(jī)研究與發(fā)展, 2012, 49(6): 1339-1347.
[14] Zhang Z, Wang J, Zha H. Adaptive Manifold Learning [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2012, 34(1): 131-137.
[15] Hafiz F, Shafie A A, Mustafah Y M. Face Recognition From Single Sample Per Person by Learning of Generic Discriminant Vectors [J]. Procedia Engineering, 2012, 45: 465-472.
[16] Lowe D. Distinctive image features from scale-invariant key points [J]. Int J Comput Vis, 2004, 60(1): 91-110.
Weighting Estimation for Texture Analysis Based onFisher Discriminative Analysis
CONGJi-cheng,ZHANGRen-zhi
(Huanghuai University, Zhumadian 463000, China)
Traditional texture analysis methods mark global similarity only by related attribution of each face area. For the issue that global information is represented by local information which causes bad feature extracting, weighting estimation for texture analysis (WETA) based on Fisher discriminative analysis (FDA) is proposed. Firstly, face images are divided into some non-overlapping local patches with same sizes after texture coding by using local binary patterns (LBP) or local phase quantization (LPQ). The solution is given by the most discriminative axis within a similarity space using Fisher discriminative analysis and weight optimization after extracting coordinate axes with the most discrimination. Finally, the efficiency of proposed method is verified by experiments conducted on the FERET and on the FEI face databases. The experiments indicate that the proposed method brings a better recognition performance in comparison to other weighting methods proposed in the literature.
face recognition; Fisher discriminative analysis; weighting estimation; texture coding
2014-04-03
河南省教育廳科學(xué)技術(shù)研究重點(diǎn)項(xiàng)目(13A520786)
從繼成(1979-),男,河南駐馬店人,實(shí)驗(yàn)師,現(xiàn)主要從事計(jì)算機(jī)應(yīng)用研究。Tel.:13938365075;E-mail:congjicheng@sohu.com
張韌志(1980-),男,河南駐馬店人,講師,現(xiàn)主要從事計(jì)算機(jī)網(wǎng)絡(luò)和數(shù)據(jù)庫(kù)研究。
Tel.:13507640981;E-mail:13507640981@163.com
TP 311
A
1006-7167(2015)02-0024-05