李云飛, 盧朝陽, 李 靜, 姚 超
(西安電子科技大學(xué) 綜合業(yè)務(wù)網(wǎng)理論及關(guān)鍵技術(shù)國家重點實驗室,陜西 西安 710071)
隨著信息化技術(shù)的發(fā)展,生物特征識別技術(shù)已成為保障公共和個人安全的核心技術(shù),在金融、安全、網(wǎng)絡(luò)和電子商務(wù)等領(lǐng)域都有著非常廣闊的應(yīng)用前景.人臉圖像是每個人固有的生物特征,與指紋、虹膜等其他生物特征圖像相比具有采集方式友好、采集設(shè)備隱蔽性高等優(yōu)點,所以人臉識別在身份識別、檢索、安全監(jiān)控等方面已被廣泛應(yīng)用,一直是模式識別領(lǐng)域的一個研究熱點.
但人臉圖像在獲取時存在一些不穩(wěn)定因素,如表情、胡須、發(fā)型、光照、姿態(tài)、胖瘦、年齡等變化始終影響著人臉識別的準(zhǔn)確性.和人臉識別相比,虹膜識別、指紋識別、DNA識別等雖然精度高,但其數(shù)據(jù)采集比較麻煩,且需要被測試對象密切配合.而鼻子是人臉中最主要、最顯著的器官之一,不易遮擋和隱藏,在人的一生中形狀比較固定,受表情、胡須、發(fā)型、胖瘦影響小.
最近有學(xué)者提出將鼻子區(qū)域作為生物特征進行個體身份識別[1-6],但文獻中都是針對三維人臉數(shù)據(jù)進行分析,筆者旨在分析二維人臉數(shù)據(jù)中鼻子區(qū)域的識別性能.首先對鼻子的生物特征進行了分析,并對Gabor核Fisher判別分析(Gabor Kernel Fisher Discriminant Analysis,GKFA)算法進行了優(yōu)化;然后選擇了正面中性表情人臉數(shù)據(jù)庫ORL、正面表情人臉數(shù)據(jù)庫JAFFE和側(cè)面旋轉(zhuǎn)角度比較大的人臉數(shù)據(jù)庫FEI,分別裁剪組成相應(yīng)的鼻子數(shù)據(jù)庫;最后用優(yōu)化后的GKFA算法對所截取的鼻子數(shù)據(jù)庫和相應(yīng)的人臉數(shù)據(jù)庫進行了識別比較.實驗結(jié)果表明,利用鼻子區(qū)域進行生物特征識別可以避免人臉識別中表情和姿態(tài)的影響,完全可以作為單獨的生物特征進行個體身份鑒別.
圖1 鼻子結(jié)構(gòu)圖
通常,一個正常人的鼻子由外鼻、鼻腔和鼻竇3部分組成,而鼻型則由外鼻決定.外鼻分為鼻根、鼻梁、鼻尖和鼻翼4部分,如圖1所示.
整個鼻子主要由骨質(zhì)組織構(gòu)成,共有6塊骨骼,左右對稱,形成一個突出的三棱錐體.覆蓋鼻上部 2/3 的皮膚松弛,富于彈性,皮膚伸展、擴張容易,而覆蓋鼻下部 1/3 的皮膚則緊附著在下面的皮下組織,皮膚不容易伸展、擴張[7].醫(yī)學(xué)研究結(jié)果表明,人骨是成比例生長且整體結(jié)構(gòu)比例基本保持不變,一般在18歲左右比例就穩(wěn)定而不會再長了,以后僅僅是骨質(zhì)內(nèi)有機物質(zhì)發(fā)生變化,而其外觀仍能保持原有的形狀[8].
由于鼻子主要由骨質(zhì)組織構(gòu)成,沒有肌肉組織覆蓋,因骨骼的生理特性決定,鼻子在人的一生中具有穩(wěn)定的形狀,與眾多的生物特征相比,人的鼻子作為一種生物特征具有獨特的優(yōu)勢:
(1) 鼻子是每個正常人都具有并且惟一的生物特征.每個人的鼻子具有相對獨特的形狀和比例,可以用其作為生物特征進行個體身份鑒別[1-2,4-5].
(2) 鼻子受表情變化影響比較?。嗣娌勘砬橹饕梢唤M表情肌產(chǎn)生,而表情肌主要分布在眼睛、嘴巴周圍和額頭、臉頰區(qū)域,表情的變化對鼻子形狀的變化影響較小[9].
(3) 鼻子受年齡和胖瘦變化影響比較?。趮胗變旱匠扇穗A段,人臉各個部位成比例生長,大概從35歲以后,人臉開始出現(xiàn)衰老跡象,主要變化是肌膚開始松弛,出現(xiàn)皺紋.面部最容易衰老的部位是眼袋、額頭、頸部、法令紋,而鼻子影響最小[10];人的胖瘦表現(xiàn)在面部主要是臉頰、下巴和頸部肌肉的增減,由于鼻子主要由骨質(zhì)組織構(gòu)成,沒有肌肉組織覆蓋,所以鼻子不會受胖瘦變化的影響.
圖2 AR和UMB-DB人臉數(shù)據(jù)庫中的遮擋人臉示例圖
(4) 鼻子部分不易遮擋.在人臉識別中,最易受遮擋影響的因素主要有墨鏡、圍巾、帽子、口罩、胡須、手勢等,如圖2所示.相對人臉其他部位,鼻子不容易被遮擋.
(5) 鼻子具有獨特的姿態(tài)辨別優(yōu)勢.人臉識別受姿態(tài)影響比較大,在人臉姿態(tài)變化比較大的情況下識別效果明顯變差.而鼻子即使在正面人臉轉(zhuǎn)動90°時,仍能提取其顯著的輪廓信息[4].
目前,國內(nèi)外還沒有專門的鼻子圖像數(shù)據(jù)庫,為了比較驗證鼻子區(qū)域的識別性能,實驗選取正面中性表情人臉數(shù)據(jù)庫ORL、正面表情人臉數(shù)據(jù)庫JAFFE和側(cè)面旋轉(zhuǎn)角度比較大的人臉數(shù)據(jù)庫FEI,分別裁剪出鼻子區(qū)域構(gòu)成鼻子數(shù)據(jù)庫.裁剪時以鼻子為中心,裁成一個上至眉間點,下至鼻下點,左右包括兩側(cè)鼻翼點的矩形區(qū)域.
ORL人臉數(shù)據(jù)庫是基于表情和姿態(tài)變化的人臉數(shù)據(jù)庫,但表情和姿態(tài)變化幅度都很?。摂?shù)據(jù)庫有40個人,每人10張不同姿態(tài)和表情的人臉圖像,共400張,這些圖像在不同時間獲取,具有不同的表情和面部細節(jié),而且稍許傾斜(不超過20°),每張圖片的大小是 112×92 像素,灰度級為256.實驗中,對每幅人臉圖像進行了裁剪,同時裁剪出鼻子區(qū)域構(gòu)成鼻子樣本庫,如圖3所示.
圖3 ORL數(shù)據(jù)庫中人臉與其對應(yīng)鼻子圖像示例
JAFFE 數(shù)據(jù)庫包含10個人的213張圖片,要求采集者分別做出7 種表情(中性、高興、難過、驚奇、生氣、惡心、害怕),每人每種表情采集2~4張,每張圖片的大小是 256×256 像素.實驗對每幅人臉圖像進行了裁剪,同時裁剪出鼻子區(qū)域構(gòu)成鼻子樣本庫,如圖4所示.
圖4 JAFFE數(shù)據(jù)庫中人臉與其對應(yīng)鼻子圖像示例
FEI是一個巴西人臉數(shù)據(jù)庫,取自FEI實驗室的200名19歲到40歲的學(xué)生和員工,每個人有14張包括表情和光照變化的彩色圖像,面部表情包含中性和微笑,大小為 640×480 像素,每張圖像都具有相同的白色背景,人臉從側(cè)面最左到最右旋轉(zhuǎn)角度接近180°.實驗選取數(shù)據(jù)庫中的后50個人作為測試對象,對每幅人臉圖像進行了裁剪,同時裁剪出鼻子區(qū)域構(gòu)成鼻子樣本庫,如圖5所示.
圖5 FEI數(shù)據(jù)庫中人臉與其對應(yīng)鼻子圖像示例
所截取的鼻子區(qū)域不可避免地包括了左右眼內(nèi)角,而眼角和鼻子的位置距離相對比較固定,受表情、遮擋影響比較小,是人臉中的重要特征信息.因而所截取的鼻子圖像保留了人臉中相對比較穩(wěn)定的特征信息.
生物學(xué)研究發(fā)現(xiàn),Gabor小波可較好地模擬大腦皮層中簡單細胞感受野的輪廓,能夠捕捉空間定位、尺度變化、方向選擇等視覺屬性,特別是Gabor小波可像放大鏡一樣放大灰度的變化,可以將圖像局部細節(jié)特征強化.人臉圖像雖然屬于弱紋理圖像,但經(jīng)Gabor小波變換后會包含豐富的紋理信息,能從不同方向和尺度有效表示人臉圖像的局部特征,有利于區(qū)分不同的人臉圖像,Gabor小波特征在人臉識別領(lǐng)域得到了廣泛的應(yīng)用并取得了較好的效果.而Kernel Fisher Discriminant Analysis (KFDA)方法中核函數(shù)的映射使得樣本即使在特征線性不可分的情況下仍能進行較好的分類[11].筆者結(jié)合Gabor和KFDA算法的優(yōu)點,用Gabor Kernel Fisher Discriminant Analysis(GKFA)算法對鼻子區(qū)域的識別效果進行了實驗分析;首先對Gabor特征提取過程進行了優(yōu)化,并用其對鼻子區(qū)域進行特征提取,然后采用KFDA方法進行特征分類.
Gabor濾波器的頻率和方向表示接近人類視覺系統(tǒng)對頻率和方向的表示,常被用于紋理表示和描述;另外,二維Gabor小波變換對位置的響應(yīng)特性允許圖像特征的輕微幾何變形,能減小圖像噪聲的影響.二維Gabor小波變換的這些響應(yīng)特性十分有利于人臉圖像局部特征的魯棒表示[12].
二維Gabor濾波器是帶通濾波器,在空間域和頻率域均有較好的分辨能力,它在空間域有良好的方向選擇性,在頻率域有良好的頻率選擇性,能提取圖像不同的頻率尺度和紋理方向信息.二維Gabor小波濾波器組的參數(shù)體現(xiàn)了它在空間域和頻率域的采樣方式,決定了它對信號的表達能力.
KFDA算法是核函數(shù)與線性Fisher判別分析(Fisher Discriminant Analysis,F(xiàn)DA)相結(jié)合的一種技術(shù),即先通過一個非線性映射φ將輸入空間的訓(xùn)練樣本映射到一個高維線性可分的特征空間φ:x∈RN→φ(x)∈F,然后在特征空間F中進行線性FDA,找出使類間散度最大而類內(nèi)散度最小的投影方向進行分類,這樣在輸入空間中就隱含地產(chǎn)生了很強的非線性判別式,從而實現(xiàn)相對于原空間的非線性判別分析[13].KFDA能有效提取非線性判別特征,已成為模式識別領(lǐng)域的研究熱點[14].
Gabor小波函數(shù)中的參數(shù)選擇仍然是一個開放性問題,根據(jù)經(jīng)驗,一般采用5個尺度8個方向的Gabor濾波器組來提取人臉不同尺度和方向的特征信息構(gòu)成特征向量[15].實際上,如果僅用8個固定的方向?qū)Σ煌谋亲舆M行特征提取時,會存在很多冗余信息.為了能選取適合不同鼻子樣本的Gabor方向進行特征提取,有效地降低Gabor特征的維數(shù),對8個Gabor濾波方向的特征性能做了統(tǒng)計分析,最后選取部分特征比較強的方向信息.
圖6 方向算子模板Sk(k=1,2,…, 8)
結(jié)合Gabor濾波器的對稱特性,選用了圖6所示的8個方向算子模板對應(yīng)8個Gabor濾波方向,分別對每一個鼻子樣本進行卷積計算
(1)
其中,f(i,j)表示圖像的像素值,Sk(a,b)表示模板Sk的元素值.根據(jù)方向算子的方向特性,當(dāng)對整個圖像做如上操作之后,原圖像的像素值就轉(zhuǎn)換成了表示每個像素和其相鄰像素之間位置關(guān)系的強度值,然后將所有強度值按
(2)
相加就會得到樣本的一個方向強度(Os)[16].
對數(shù)據(jù)庫中每個人的n個樣本分別用8個方向算子按式(1)進行計算,每個樣本就會轉(zhuǎn)換成8個表示相鄰像素之間位置關(guān)系的強度信息圖,如圖7所示(圖7(a)、圖7(c)和圖7(e)分別為從數(shù)據(jù)庫FEI、ORL和JAFFE中截取的鼻子原圖;圖7(b)、圖7(d)和圖7(f)分別為用方向算子計算后得到的對應(yīng)強度信息);然后對每個方向信息圖按式(2)計算就會得到每個方向算子所對應(yīng)的方向強度值Os,這樣,每個樣本就會產(chǎn)生8個由方向算子模板計算得到的方向強度值Os1,Os2,…,Os8.方向強度值越大,表明該強度信息圖中像素之間的位置關(guān)系特征越明顯,用于計算該方向強度值所用的Gabor濾波方向性能就越優(yōu)越.
圖7 相鄰像素之間位置關(guān)系的強度信息圖
如果對數(shù)據(jù)庫中所有人的全部鼻子樣本分別計算其8個方向強度值并從小到大排序,則最后統(tǒng)計結(jié)果如圖8所示.圖中橫坐標(biāo)表示8個方向強度值,縱坐標(biāo)表示方向算子模板,圖中點的坐標(biāo)表示得到該方向強度值與所用方向算子之間的對應(yīng)關(guān)系.
圖8 計算方向強度所用方向算子模板統(tǒng)計圖
從圖8中可以看出,3個數(shù)據(jù)庫中樣本方向強度值最大的Os8和Os7分別都是由方向算子s5和s1計算得到的.JAFFE庫中每個人的樣本只有表情變化,姿態(tài)幾乎保持一致,裁剪得到的鼻子區(qū)域截去了表情變化豐富的嘴部信息,紋理方向比較一致,由樣本計算得到最大的4個方向強度值所用的方向算子比較固定,如圖8(a)所示,從大到小依次為s5、s1、s4和s6;ORL庫中樣本之間存在稍許旋轉(zhuǎn)和傾斜(不超過20°),由樣本計算得到方向強度值Os5和Os6所用的方向算子為s4或s6,如圖8(b)所示,這表明其中一部分樣本用方向算子s4計算得到比較大的方向強度值,而另一部分樣本則要用方向算子s6計算求得;而FEI庫中由于樣本之間姿態(tài)變化比較大(左右旋轉(zhuǎn)角度接近180°),紋理方向變化也比較大,因此紋理之間的位置關(guān)系變化也比較復(fù)雜,如圖8(c)所示,方向強度值Os5對應(yīng)多個方向算子,即不同的樣本需要從不同的方向獲得比較大的方向強度值.
根據(jù)以上分析,分別選取能獲得最大的4個方向強度值所用的方向算子所對應(yīng)的Gabor濾波方向去提取對應(yīng)的Gabor方向特征,即在JAFFE庫和ORL庫上選取方向算子s5、s1、s4和s6所對應(yīng)的4個Gabor濾波方向(0、π/8、4π/8、5π/8),而在FEI庫上則選取方向算子s5、s1、s4、s6、s2和s8所對應(yīng)的6個Gabor濾波方向(0、π/8、3π/8、4π/8、5π/8、6π/8).Gabor尺度仍然采用廣泛使用的5個尺度.比較發(fā)現(xiàn),所選取的Gabor濾波方向保留了人臉圖像中像素之間比較顯著的變化信息,忽略了變換非常小的冗余信息,對識別效果沒有明顯影響,但由于數(shù)據(jù)維數(shù)的減少,平均識別時間明顯減?。?/p>
對每個輸入原始訓(xùn)練樣本,按選定的Gabor濾波方向和5個尺度分別提取Gabor小波特征,用分數(shù)次冪多項式核函數(shù)k(x,y)= sign(xy)(abs(x·y))d,將其非線性映射到核空間,然后計算類間離散度矩陣SB和類內(nèi)離散度矩陣SW,求解Fisher基向量,再將訓(xùn)練樣本的Gabor小波特征投影到Fisher基向量;同樣計算測試樣本的Gabor特征并非線性映射到核空間,將測試特征投影到Fisher基向量,然后計算訓(xùn)練特征和測試特征的距離并按最鄰近距離進行分類判決.
用上述算法分別在ORL、JAFFE和FEI庫對人臉和鼻子區(qū)域的識別效果進行了比較分析,首先利用Gabor濾波器組對輸入樣本進行處理,將濾波后的值作為Gabor特征量;然后利用KFDA方法分別對裁剪后的人臉圖像樣本和鼻子圖像樣本進行模式的分類判決.
在ORL人臉數(shù)據(jù)庫中,對每個人的10個人臉和鼻子樣本分別隨機選取i(i=4,5,6,7,8)個圖像作為訓(xùn)練集,剩下的作為測試集,重復(fù)進行10次,最后的實驗結(jié)果取10次實驗結(jié)果的平均值,實驗結(jié)果如圖9(a)所示;在JAFFE人臉數(shù)據(jù)庫中,對每個人的人臉和鼻子樣本分別隨機選取i(i=12,13,14,15,16)個圖像作為訓(xùn)練集,剩下的作為測試集,重復(fù)進行10次,最后的實驗結(jié)果取10次實驗結(jié)果的平均值,實驗結(jié)果如圖9(b)所示;在FEI人臉數(shù)據(jù)庫中,對每個人的人臉和鼻子樣本分別隨機選取i(i=6,7,8,9,10,11,12)個圖像作為訓(xùn)練集,剩下的作為測試集,重復(fù)進行10次,最后的實驗結(jié)果取10次實驗結(jié)果的平均值,實驗結(jié)果如圖9(c)所示.圖9中橫坐標(biāo)表示從數(shù)據(jù)庫中選取的訓(xùn)練樣本個數(shù),縱坐標(biāo)表示用剩下的樣本作為測試集時得到的識別率.
圖9 鼻子區(qū)域與相應(yīng)人臉識別效果比較圖
實驗用GKFA算法分別在ORL、JAFFE和FEI數(shù)據(jù)庫上進行了測試,將人臉和對應(yīng)鼻子區(qū)域的識別率作了比較.所選數(shù)據(jù)庫分別側(cè)重考慮常見的人臉3種狀態(tài):中性、表情變化和姿態(tài)變化.ORL是一個正面中性人臉數(shù)據(jù)庫,姿態(tài)變化非常小,傾斜度不超過20°,表情也只限于微笑和正常兩種,眼睛也只限于輕微閉合和正常兩種;JAFFE是一個正面表情人臉數(shù)據(jù)庫,面部表情豐富且變化幅度較大;FEI是一個姿態(tài)變化比較大的數(shù)據(jù)庫,左右旋轉(zhuǎn)接近180°,但表情只有微笑和正常2種,眼睛都是正常睜開的.
從實驗結(jié)果可以看出,由于受表情和姿態(tài)變化的影響,當(dāng)單獨將鼻子區(qū)域作為生物特征進行識別時,其識別率不會比相應(yīng)的人臉識別率差.但由于ORL數(shù)據(jù)庫的姿態(tài)和表情變化比較微小,單獨將鼻子區(qū)域作為特征進行識別時,和對應(yīng)的人臉識別相比優(yōu)勢并不是很明顯,如圖9(a)所示;而JAFFE數(shù)據(jù)庫是個正面表情數(shù)據(jù)庫,當(dāng)單獨將鼻子區(qū)域作為特征進行識別時,由于截取了嘴部表情變化信息的影響,和對應(yīng)的人臉識別相比較,鼻子區(qū)域的識別效果有所提升,如圖9(b)所示;而FEI數(shù)據(jù)庫由于姿態(tài)變化比較大,當(dāng)將整個人臉作為特征進行識別時識別率比較低,但當(dāng)將鼻子區(qū)域單獨作為特征進行識別時,其識別率要明顯高于相應(yīng)的人臉識別,如圖9(c)所示.同時,由于鼻子區(qū)域圖像的數(shù)據(jù)量遠少于人臉圖像的數(shù)據(jù)量,所以在進行識別時,其平均識別時間都會遠少于人臉識別所用的時間.
將鼻子區(qū)域這種生物特征應(yīng)用于個體身份鑒別是一種新的嘗試,目前仍處于研究的初級階段.通過分析發(fā)現(xiàn),利用鼻子區(qū)域進行識別,可以避免表情、發(fā)型、胡須、姿態(tài)等因素的影響,特征比較穩(wěn)定,將鼻子區(qū)域單獨作為生物特征進行身份識別確實可行,具有一定的研究價值和應(yīng)用前景.實驗仿真結(jié)果表明,在面部表情比較豐富或人臉側(cè)面旋轉(zhuǎn)角度比較大的情況下,用鼻子區(qū)域進行身份識別優(yōu)勢比較明顯.
目前,國內(nèi)外還沒有專門的鼻子圖像數(shù)據(jù)庫,也沒有專門針對鼻子特征的描述、表示和識別方法.如何提取鼻子的有效特征,尤其在人臉圖像質(zhì)量較差、表情和姿態(tài)變化較大,或者由于遮擋造成人臉圖像信息缺損的時候,如何確定可識別的最小特征集,以及對整形后的鼻子識別效果如何,都是有待進一步研究的內(nèi)容.
[1] Drira H, Amor B B, Srivastava A, et al. A Riemannian analysis of 3D nose shapes for partial human biometrics[C]//Proceedings of the 12th IEEE International Conference on Computer Vision. Piscataway: IEEE, 2009: 2050-2057.
[2] 韓松, 潘綱, 王躍明, 等. 三維鼻形:一種新的生物特征識別模式[J]. 計算機輔助設(shè)計與圖形學(xué)學(xué)報, 2008, 20(1): 38-42.
Han Song, Pan Gang, Wang Yueming, et al. 3D Nose: a Novel Biometrics[J]. Journal of Computer-Aided Design & Computer Graphics, 2008, 20(1): 38-42.
[3] Chang K I, Ortiz E, Bowyer K W. Multiple Nose Region Matching for 3D Face Recognition under Varying Facial Expression[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2006, 28(10): 1695-1700.
[4] Moorhouse, A, Evans A N, Atkinson G A, et al. The Nose on Your Face May Not Be So Plain: Using the Nose As a Biometric[C]//Proceedings of 3rd International Conference on Imaging for Crime Detection and Prevention. Stevenage: IET, 2009: 1-6.
[5] Drira H, Amor B B, Daoudi M, et al. Nasal Region Contribution in 3D Face Biometrics Using Shape Analysis Framework[C]//Lecture Notes in Computer Science. Heidelberg: Springer Verlag, 2009: 357-366.
[6] Emambakhsh M, Evans A N. Self-dependent 3D Face Rotational Alignment Using the Nose Region[C]//Proceedings of 4th International Conference on Imaging for Crime Detection and Prevention. Stevenage: IET, 2011: 1-6.
[7] 郝凱飛, 張紹祥, 王斌全, 等. 中國數(shù)字化人體鼻部結(jié)構(gòu)的三維重建和可視化[J]. 山東大學(xué)耳鼻喉眼學(xué)報, 2008, 22(2): 144-147.
Hao Kaifei, Zhang Shaoxiang, Wang Binquan, et al. 3D Reconstruction and Visualization of Nasal Anatomical Structures of the Chinese Digitized human[J]. Journal of Otolaryngology and Ophthalmology of Shandong University, 2008, 22(2): 144-147.
[8] Mann A, Robert W. Use of Bone Trabeculae to Establish Positive Identification [J]. Forensic Science International, 1998, 74: 91-99.
[9] Fasel B, Luettin J. Automatic Facial Expression Analysis: a Survey[J]. Pattern Recognition, 2003, 36(1): 259-275.
[10] Kwon, Young Ho, Lobo N D V, et al. Age Classification from Facial Images[J]. Computer Vision and Image Understanding, 1999, 74(1): 1-21.
[11] Wang J, Li Q, You J, et al. Fast kernel Fisher Discriminant Analysis Via Approximating the Kernel Principal Component Analysis[J]. Neurocomputing, 2011, 74(17): 3313-3322.
[12] 王科俊, 鄒國鋒. 基于子模式的Gabor特征融合的單樣本人臉識別[J]. 模式識別與人工智能, 2013, 26(1): 50-56.
Wang Kejun, Zou Guofeng. A Sub-Pattern Gabor Features Fusion Method for Single Sample Face Recognition[J]. Pattern Recognition and Artificial Intelligence, 2013, 26(1): 50-56.
[13] 李映, 焦李成. 基于核Fisher判別分析的目標(biāo)識別[J]. 西安電子科技大學(xué)學(xué)報, 2003, 30(2): 179-182.
Li Ying, Jiao Licheng. Target Recognition Based on Kernel Fisher Discriminant [J]. Journal of Xidian University, 2003, 30(2): 179-182.
[14] Yang J, Frangi A F, Yang J. A New Kernel Fisher Discriminant Algorithm with Application to Face Recognition [J]. Neurocomputing, 2004, 56(1-4): 415-421.
[15] Yu L, He Z, Cao Q. Fisher Discriminant Analysis of Gabor Texture Features for Face Recognition [J]. Journal of Computational Information Systems, 2009, 5(1): 153-162.
[16] Han W, Lee J. Palm Vein Recognition Using Adaptive Gabor Filter [J]. Expert Systems with Applications, 2012, 39(18): 13225-13234.