尚 麗,陳 杰,張 愉
(蘇州市職業(yè)大學 電子信息工程系,江蘇 蘇州 215104)
傳統(tǒng)的識別方式已不能滿足目前人們對身份進行有效辨識的需要,生物識別技術成為社會生活中身份認證的重要手段[1-6].生物特征識別技術以生物技術為基礎,以信息技術為手段,將生物和信息兩大技術交匯融合成為一體.生物特征識別技術涉及到模式識別、計算機圖形學、圖像處理、計算機視覺以及人機交互等多個信息技術領域,這些相關領域的發(fā)展又為生物特征識別技術的進步創(chuàng)造了條件.目前出現(xiàn)的生物識別技術產(chǎn)品都以其高科技和自動化而得以廣為應用,使得人們對于生物識別技術的研究越來越廣泛和深入,較為成熟的有基于人臉、指紋、手部幾何學、虹膜、視網(wǎng)膜等的識別技術.
人臉是人類視覺中最常見的模式,人臉識別由于其自然、直觀、非接觸、安全、快捷等特點而倍受關注,已經(jīng)成為最具發(fā)展?jié)摿Φ纳锾卣髯R別技術之一,也是當前模式識別和人工智能領域的一個研究熱點.但是,由于人臉結構的復雜性、人臉表情的多樣性以及人臉成像過程的多變性等原因,人臉機器自動識別至今仍然被公認是一個具有挑戰(zhàn)性的研究領域.
人臉識別按照信息的來源可以分為兩大類[3-4]:基于靜態(tài)人臉圖像的識別和基于包含人臉的動態(tài)視頻信息的識別.因為動態(tài)視頻信息并不能明顯提高人臉識別的性能,因此本文僅涉及到靜態(tài)人臉圖像的識別.
廣義地講,人臉自動識別技術包括人臉檢測和人臉身份認證技術.在商業(yè)系統(tǒng)和專利中,人臉識別是將人臉檢測作為系統(tǒng)的一個組成部分.在已發(fā)表的多數(shù)文獻中,人臉識別技術是指在一些假設的條件下與個人身份驗證相關的技術(如假設輸入圖像沒有復雜的背景).概括地講,計算機人臉自動識別技術主要包括以下幾個方面的內容[3,5-6]:
(1) 人臉檢測,系統(tǒng)判斷輸入圖像中是否存在人臉圖像,如果存在,則同時給出存在人臉圖像的數(shù)量和位置.這個檢測過程主要受光照、面部角度、環(huán)境噪聲及各種遮擋物的影響.
(2) 人臉的規(guī)范化,校正人臉在尺度、光照和旋轉等方面的變化.
(3) 人臉表征,通常這一過程是對人臉的特征提取過程,是人臉識別技術中最重要的研究內容之一,在人臉識別中,特征的分類能力、算法復雜度和可實現(xiàn)性是確定特征提取法需要考慮的因素,所提取特征對最終分類結果有著決定性的影響,而分類器所能實現(xiàn)的分辨率上限就是各類特征間最大可區(qū)分度.
(4) 人臉識別,通過人臉特征的匹配識別完成對個人身份信息的確認和查找,人臉識別算法屬于典型的模式識別問題,主要有在線匹配和離線學習兩個過程組成,人臉識別的實現(xiàn)需要綜合考慮特征選擇、特征提取和分類器設計等問題.
(5) 人臉表情、姿態(tài)分析,通過對人臉情緒和形態(tài)對應關系的建模,對人臉表情進行分析、分類處理.
(6) 生理分類,通過對人類生理信息和人臉形態(tài)對應關系的研究和建模,完成對人臉年齡和性別等生理信息的推斷.
(7) 人臉編碼,對人臉表征獲得的特征進行編碼分析.
從分類的角度來說,人臉驗證是一個兩類問題,它驗證的內容是某張臉同其所“聲稱”身份(IdeDlity)對應的臉是否一致,因而最終給出的是一個真或假的答案.人臉辨識則是一個多類問題.它辨識的內容是某張臉同數(shù)據(jù)庫中的哪一個身份相一致.因而最終給出的是一個身份標號.
人臉識別的研究已經(jīng)有相當長的歷史,甚至可以追溯到19世紀末20世紀初[3,6],在當時Galton分別于1888年和1910年在《Nature》雜志上發(fā)表了兩篇關于利用人臉進行身份識別的文章[6],對人類人臉識別的能力進行了分析.人臉識別的輸入圖像通常為正面、斜面、側面三種情況.由于人臉正面圖像包含了人臉更明顯的特征,所以大多數(shù)文獻對靜態(tài)人臉正面圖像的研究較多.人臉識別技術的發(fā)展過程大致可以概況為以下四個階段[4-10]:
第一階段:20世紀50年代在心理學方面的研究和60年代在工程學方面的研究.典型的文獻如J.S.Bruner在1954年發(fā)表的關于心理學的The perception of people;Bledsoe在1964年就工程學發(fā)表的Facial Recognition Project Report.國外高校也涌現(xiàn)了眾多研究人臉識別的研究小組[7].這些研究小組分別從不同的角度開展該課題的研究,例如美國Texas at Dallas大學的Abdi和Tool小組[1,5,7]、英國Stirling大學的Bruce教授和Glasgow大學的Burton教授合作領導的小組主要從感知和心理學角度探索人類識別人臉機理[3,11-12];英國的Graw小組[13-14]和荷蘭Groningen大學的Petkov小組[15]則從視覺機理角度進行研究.
第二階段:關于人臉的機器識別研究開始于20世紀70年代.以Allen和Parke為代表,主要研究人臉識別所需要的面部特征.研究者用計算機實現(xiàn)了較高質量的人臉灰度圖模型.但是,這一階段工作的特點是識別過程全部依賴于操作人員,不是一種可以完成自動識別的系統(tǒng).
第三階段:人機交互式識別階段.代表性的工作如Goldstion、Harmaon和Lesk用幾何特征參數(shù)來表示人臉正面圖案,他們采用了21維特征矢量表示人臉面部特征[6,16];Kaya和Kobayashi[6,17]采用了統(tǒng)計識別方法,用歐氏距離來表征人臉特征,如嘴唇與鼻子之間的距離、兩眼之間的距離、嘴唇的厚度等;T.Kanad[6,18]設計了一個高速而且有一定知識引導的半自動回溯識別系統(tǒng),運用積分投影法從單幅圖像上計算出一組臉部特征參數(shù),再利用模式分類技術與標準人臉相匹配,該系統(tǒng)實現(xiàn)了快速、實時的處理,是一個非常大的進步.但這類方法需要利用操作員的某些先驗知識,仍然擺脫不了人的干預.
第四階段:20世紀90年代以來,隨著高性能計算機的出現(xiàn),人臉識別方法有了重大突破,進入了真正的機器自動識別階段.近年來,隨著高速度、高性能計算機的發(fā)展,人臉模式識別方法有了較大突破,出現(xiàn)了多種機器自動識別系統(tǒng)[6-7,10].
目前的人臉識別方法主要有三種:基于幾何特征的人臉識別方法、基于代數(shù)特征的人臉識別方法、基于連接機制的識別方法.雖然它們都取得了一定的成功,但是仍是各有其缺點.基于幾何特征的識別方法困難在于沒有形成統(tǒng)一、優(yōu)秀的特征提取標準,由于成人面部模式千變萬化,即使是同一個人的面部圖像,由于時間、光照、攝像角度等的不同,也很難用一個統(tǒng)一的模式來表達,造成特征提取的困難;基于代數(shù)特征的識別在本質上依賴訓練幾何測試及圖像的灰度相關性,而且要求測試集和訓練集比較理想,所以有很大的局限性;基于連接機制的識別方法采用神經(jīng)網(wǎng)絡,結構上類似于人腦,在編碼壓縮和信息處理方面有一定的優(yōu)勢,但由于原圖像數(shù)據(jù)量大,因此神經(jīng)網(wǎng)絡元很多,訓練時間很長.因此,尋找有效的人臉識別算法仍是目前研究的熱點之一.近年來,除了基于K-L變換的特征臉方法與以奇異值特征為代表的代數(shù)特征方法取得了新進展外,人工神經(jīng)網(wǎng)絡、小波變換在人臉識別研究中都取得了很廣泛的應用,而且出現(xiàn)了不少新方法[6,19].
人臉檢測的早期文獻大約起始于20世紀60年代末[19-20],90年代末達到高潮.90年代初,Graham等主要采取了圖像分塊(Block)方法和向量量化(Vector Quantisation)技術[21].其后十幾年的發(fā)展過程中涌現(xiàn)出大量的人臉檢測方法[19].
2.2.1 基于知識的方法
基于知識的方法是將典型的人臉形成規(guī)則庫對人臉進行編碼,通過面部特征之間的關系進行人臉定位.基于知識的方法是基于規(guī)則的人臉檢測方法,規(guī)則來源于研究者關于人臉的先驗知識.一般比較容易提出簡單的規(guī)則來描述人臉特征和它們的相互關系,比如,一幅人臉圖像中,通常包含具有對稱性的兩只眼睛,一個鼻子和一個嘴巴.他們之間的關系可以用相對距離和位置等規(guī)則來表示,在輸入圖像中首先提取面部特征,確定基于編碼規(guī)則的人臉候選區(qū)域.當人臉候選區(qū)域選擇出來之后,人臉面部特征常用來作為驗證手段以去除虛假的人臉區(qū)域.問題在于如何制定規(guī)則:太過“寬松”和太過“嚴謹”的規(guī)則將導致“虛檢”和“漏檢”.典型的基于規(guī)則的人臉檢測方法有:Chetverikov用斑點(blob)和縫隙(streak)成功地表示了面部的特征[22];Yang和Huang[23]利用分層的思想實現(xiàn)基于知識的人臉檢測方法[24];Graf[25]將形態(tài)濾波方法應用到面部特征定位中;Sirohey[26]使用Canlly算子對人臉圖像進行預處理,然后用橢圓實現(xiàn)了臉部區(qū)域的擬合;Kotropoulos 和Pitas[27]利用投影方法確定了面部特征,并應用于ACTs M2VTS庫,取得了86.5%的檢測率;盧春雨等人[28]提出的基于馬賽克的改進鑲嵌圖方法;李華勝等人[29]提出通過區(qū)域增長從人臉圖像中分割出人臉,再利用邊緣檢測、Hough 變換、模板匹配和方差投影技術快速有效地提取出人臉面部器官;姜軍等人在楊光正提出的符合人臉生理結構特征的人臉鑲嵌圖模型的基礎上,提出了一種基于知識的快速人臉檢測方法[30]等.
基于規(guī)則的方法存在的問題是很難將人類知識轉換為明確定義的規(guī)則,另外,很難將這種方法擴展到在不同的位置下檢測人臉,因為列舉所有的情況是一項很困難的工作.
2.2.2 特征不變方法
該算法的目的是在姿態(tài)、視角或光照條件改變的情況下找到存在的結構特征,然后使用這些特征確定人臉.這些特征包括人臉輪廓特征、灰度分布特征、器官特征、模板特征等.典型的研究工作有:楊光正提出的鑲嵌圖方法[24];Sirohey[31]使用邊緣圖和啟發(fā)式算法來去除和組織邊緣,而只保存一個邊緣輪廓,然后用一個橢圓擬合頭部區(qū)域和背景間的邊界;Graf[25]等人提出定位灰度圖像的面部特征和人臉的檢測方法;Leung等人[32]提出基于局部特征檢測器和任意圖匹配的概率方法;Yow和Cipolla提出了一種基于二階段特征檢測的方法[33];Han 等人提出的基于形態(tài)學的技術進行眼部分割進而實現(xiàn)人臉檢測的方法[34];彭進業(yè)等人提出的利用反對稱雙正交小波分解實現(xiàn)多尺度對稱變換的臉部主要特征點定位方法[35];王延江等人提出的快速彩色圖像中復雜背景下人臉檢測方法[36].在模板特征匹配方面,Sakai等人最早把模板的思想用于人臉檢測[19];Craw等人建立了主要由Sobel算子的邊緣信息刻畫的正面人臉的形狀模板[19],并進一步提出了多模板匹配策略來定位人臉[19];Veukatraman提出了基于小波域邊緣信息建立的模板算法[19];Samal等則主要用PCA的方法提取主輪廓來建立模板[19];Miao等人采用了由Laplacian算子在面部主要特征上的邊緣信息來刻畫多級模板[19];Yuille等人提出了變形模板的思想[19];Lanitis等提出了PDM模型,PDM由訓練樣本的位置信息和灰度信息確定,通過ASM搜索確定人臉的位置[19].
基于特征的方法適于簡單背景下的正面單人人臉檢測,在復雜環(huán)境下或者面部有遮擋的情況下很難獲得理想的檢測效果.
2.2.3 基于膚色的方法
膚色特征是人臉檢測中最常用的一種特征.己有研究表明,不同人之間的膚色差異主要體現(xiàn)在色度上而不是強度上[24].因而,尋找穩(wěn)健的色度空間進行有效的膚色區(qū)域分割是關鍵所在.常用的色度空間包括RGB空間、規(guī)范化RGB空間、HSV空間、YerCb空間、YIQ空間、YES空間、CIEXYZ和CIELtJV空間[24].常用的膚色模型有:高斯模型、混合高斯模型和直方圖模型.Terrillon等考察了九種色度空間,發(fā)現(xiàn)一般情況下,需要使用混合高斯模型才能較好地描述膚色分布區(qū)域,并同時指出,最終限制檢測性能的因素是不同色度空間中膚色和非膚色區(qū)域的重疊程度特征[24];Rein等首先對光照進行補償和色度非線性變換,膚色分割后產(chǎn)生人臉候選區(qū)域.并利用面部特征的映射圖(眼睛、嘴巴、以及邊緣信息)來進行有效地驗證[19].
基于膚色模型的人臉檢測方法應用廣泛,對姿態(tài)不敏感,在單調背景下檢測率高,但是其在光照和復雜背景下效果不理想,故其經(jīng)常與其他方法相結合使用.
2.2.4 基于統(tǒng)計理論的方法
存儲幾種標準的人臉模式,用來分別描述整個人臉和面部特征;計算輸入圖像和存儲的模式間的相互關系并用于檢測.基于統(tǒng)計理論的人臉檢測方法是利用統(tǒng)計分析與機器學習的方法來尋找人臉樣本與非臉樣本各自的統(tǒng)計特征,再用各自的特征構建分類器,用分類器完成人臉檢測.基于統(tǒng)計理論的人臉檢測方法主要有:
(1) 神經(jīng)網(wǎng)絡方法.Propp最早提出了用神經(jīng)網(wǎng)絡進行人臉檢測[19,37];Burel利用Kohonen's SMO算法訓練多層感知器學習正樣本和負樣本,檢測過程中對樣本在多分辨率上進行掃描以確定是否為人臉圖像[38];Vailant提出了多級網(wǎng)絡人臉檢測方法[39];Rowlcy等在這方面的工作具有重要的意義[40-41],并提出通過對輸入窗口圖像進行旋轉等操作,可以檢測到旋轉人臉[41].其它用于人臉檢測的神經(jīng)網(wǎng)絡結構還有很多,比如卷積神經(jīng)網(wǎng)絡、基于概率決策的神經(jīng)網(wǎng)絡、自相關神經(jīng)網(wǎng)絡等等[19].
(2) 支持向量機方法.Osuna等人首次把支持向量機(SVM)算法引入到人臉檢測領域[42].與神經(jīng)網(wǎng)絡不同的是,SVM側重于結構風險最小化(Structura1 Risk Minimization),其最優(yōu)超平面由支持向量來確定,而神經(jīng)網(wǎng)絡側重于訓練誤差最小化.SVM用來訓練人臉和非人臉兩種模式.算法在標準測試集上的檢測率達到了90%以上[19].SVM的訓練樣本特征也已經(jīng)由最初的圖像灰度特征發(fā)展為小波特征、獨立主元特征等等[19].
(3) 線性子空間方法.線性子空間方法主要包括主成分分析方法(PCA)、線性判別分析方法(LD)和因式分析方法(FA)等.PCA法是K-L變換的別稱,該方法根據(jù)圖像的統(tǒng)計特性進行正交K-L變換,以消除原有向量與分量間的相關性,變換得到對應特征值依次遞減的特征向量,即特征臉[19,43].線性判別分析方法通過某非線性變換把人臉圖像區(qū)域屬性空間的屬性向量映射到高維的特征空間,計算被測圖像區(qū)域與該特征空間的距離是否小于某一閾值來判斷其是否包含人臉.典型的方法為Yang等提出的Fisher線性判別方法[19].FA因素分析方法類似于PCA方法,但不同點是:FA雖然也是從原變量中提取信息,以使多元問題降維,但它是從一定的模型出發(fā),找出幾個反映原有變量的公共因子,并力求使它們有較為合理的專業(yè)解釋.FA方法可以克服PCA方法對噪聲的敏感性.
(4) 隱馬爾可夫模型.HMM(Hidden Markov Model)隱馬爾可夫模型假定模式由一隨機過程的參數(shù)來表征,且參數(shù)是可以精確估計的.在建模之前,首先要確定隱狀態(tài)的數(shù)目.轉移概率函數(shù)可通過HMM學習代表觀測狀態(tài)的樣本而得到.而HMM的輸出概率值則決定了樣本的類別屬性.Nefian等首先采用HMM 方法進行人臉檢測[24],此后,他還將嵌入式HMM引入人臉檢測和識別中,以進一步提高檢測和識別精度.該方法使用了二維HMM,并且采用了二維DCT變換系數(shù)作為觀測向量.
(5) Boosting方法.Bosting在機器學習領域指的是通過對粗糙的、不精確的規(guī)則進行學習、組合而產(chǎn)生出精確規(guī)則的學習方法.Adabost由Freund等人于1995年首次提出并解決了早期Bosting方法所遇到的一些實際困難而使得這一算法逐漸走向實用[44].Viola和Jones的貢獻在于提出了新的圖像特征表征模式—積分圖像(Integral image),使得快速的特征選取成為可能[45];基于Adabost的學習方法,將大量的弱分類器進行加權組合而成為強分類器;通過級聯(lián)的方式快速去除非目標區(qū)域而大幅提高檢測速度;2004年,Stan(李子青)等[46]結合特征選擇中的Floatsearch進一步提出了FloatBoost方法用于人臉檢測,并建立了新的弱分類器學習的統(tǒng)計模型,使得強分類器的構建所需弱分類器的數(shù)目更少[47].到目前為止,基于Bosting的Adabos內FIoatBost方法是集精度、速度于一體的最優(yōu)人臉檢測方法之一[19].
人臉檢測的方法相當繁多,鑒于篇幅,不再一一論述.
早期人臉識別研究主要有兩大方向:基于人臉集合特征的提取方法;模板匹配的方法.Betro在1993年對這兩類方法作了全面的介紹和比較后認為模板匹配的方法優(yōu)于幾何特征的方法[2].目前的研究也主要有兩個方向:基于整體的研究方法,它考慮了模式的整體屬性,包括特征臉方法、SVD分解方法、人臉等密度線分析匹配方法、彈性圖匹配(elastic graph matching)方法、隱馬爾科夫模型方法以及神經(jīng)網(wǎng)絡方法等;基于特征分析的方法,也就是將人臉基準點的相對比率和其它描述人臉臉部特征的形狀參數(shù)或類別參數(shù)等一起構成識別特征向量.從20世紀90年代開始,人臉識別的研究可以說進入了高潮期,本文將人臉識別方法歸納為以下幾種:(1) 基于幾何特征的人臉識別方法;(2) 基于模型的人臉識別方法;(3)基于統(tǒng)計的人臉識別方法;(4) 基于神經(jīng)網(wǎng)絡的識別方法;(5) 多分類器集成方法.
2.3.1 基于幾何特征的方法
最早的這類識別法將人臉用一個幾何特征矢量表示,用模式識別中層次聚類的思想設計分類器達到識別目的.采用的幾何特征主要有[4]:(1) 眉毛厚度及眉毛與眼睛中心的垂直距離;(2) 眉毛弧度的11個描述數(shù)據(jù);(3) 鼻寬及鼻的垂直位置;(4) 嘴寬、上下唇厚度及嘴的垂直位置;(5) 下巴形狀的描述數(shù)據(jù);(6) 鼻孔位置的臉寬;(7) 半臉寬(鼻孔與眼睛中間位置的臉寬)人臉器官的關鍵點分別對應于不同的積分投影方式產(chǎn)生出的波峰波谷,根據(jù)人臉結構的先驗知識,可以得出人臉各器官之間的幾何位置關系.
最早的基于幾何特征的算法是由Bledsoe在1966年提出的[2,48];Kanade首先通過測量眼角、鼻孔、嘴巴、下巴等面部特征之間的距離和它們之間角度以及其它幾何關系實現(xiàn)了人臉識別工作,但識別率較低,在一個20人的數(shù)據(jù)庫上識別率為45%~75%[2];Brunelli和Poggio通過測量鼻子的寬度和長度、嘴巴位置和下巴形狀等進行識別,在47人的數(shù)據(jù)庫上識別率為90%[2];Samal等人提出的側影方法也是較早的基于幾何特征的方法,該方法從人臉的側影輪廓線上提取特征點,將側影轉化為輪廓曲線,從中提取基準點,根據(jù)這些點之間的幾何特征來進行識別[2,7].由于側影方法較簡單且應用面小,對該方法的研究較少.
基于幾何特征的方法簡單、直觀、識別速度較快、容易理解,但沒有形成統(tǒng)一的特征提取標準;從圖像中抽取穩(wěn)定的特征較困難,特別是特征受到遮擋時;對較大的表情變化或姿態(tài)變化的魯棒性較差,識別率較低.
2.3.2 基于模型的方法
早期發(fā)表的基于模型的人臉識別方法的文獻中,使用的模型主要為HMM隱馬爾可夫模型、主動形狀模型ASM(Active Shape Model)[49]、主動外觀模型(Active Appearance Model)[50].HMM模型用于人臉識別時的魯棒性較好,對表情、姿態(tài)變化不太敏感,識別率高.該模型在人臉檢測的研究歷史與現(xiàn)狀中已有論述,這里不再累述.主動形狀模型ASM[49]方法由Cootes等人提出,這種模型也被稱之為可變形模型.ASM主要根據(jù)形狀信息和局部灰度信息進行建模,并能夠根據(jù)訓練數(shù)據(jù)對于參數(shù)的調整使得形狀的改變在一個合理的范圍內.主動外觀模型AAM在ASM的基礎上加入了紋理信息,因而,除具有ASM特性之外,還可以用于圖像的重建.在ASM和AAM的建模過程中,都用到了PCA技術.目前,已經(jīng)出現(xiàn)了很多ASM、AAM的改進模型[51-52].
3D模型在十多年前被引入到人臉識別領域,最近幾年有了較大的發(fā)展,是人臉識別中較有效的方法之一.Blanz等人提出的三維形態(tài)模板(3DMorphableMode)在基于三維的人臉識別方法中可以說是一項開創(chuàng)性的工作[53-54].在該方法中,圖像數(shù)據(jù)是通過一特殊的三維掃描儀(3D Laser Scaner)獲取的.因而可以采用圖形學模擬的方法對圖像采集過程的透視投影和光照模型進行建模,使得人臉形狀和紋理等內部屬性與攝像機配置和光照等外部參數(shù)分開來,有利于人臉圖像的分析與識別[19].該方法對三維空間成像過程進行模擬,通過用一個3D可變型的人臉模型對圖像進行擬合,從圖像中估計出人臉的三維形狀和紋理信息.模型將非正面人臉圖像校正為正面人臉圖像,然后在正面人臉圖像中進行匹配.實驗表明在同時存在任意光照和姿態(tài)變化的情況下,該方法取得了較好的識別效果.
2.3.3 基于統(tǒng)計的方法
基于統(tǒng)計的人臉識別方法將人臉圖像視為隨機向量,從而用一些統(tǒng)計方法來分析人臉模式.典型的研究工作如下:
(1) 特征臉(EigenFace)方法最早由Turk和Pentland提出[13],開創(chuàng)了人臉識別領域的新局面.
(2) FisherFace方法是這一時期的另一重要成果[19].Belhumeur等把Swets的方法發(fā)展為FisherFace方法,并在光照變化、表情變化以及有無戴眼鏡的情況下與EigenFace作了對比試驗.在圖像條件變化較小時,二者的性能不分優(yōu)劣;但是在光照、表情變化較大時,F(xiàn)isherFace的性能更棒[19].Belhumeur還發(fā)現(xiàn),EignFace中前三個最大的特征值對應的主元對光照的變化比較敏感.目前,該方法依然是主流的人臉識別方法之一,并在此基礎上擴展了很多方法,如零空間法[55]、增強判別模型[56]、直接LDA方法[57]等.
(3) Bartlett等人首次把獨立分量分析(Independent Component Analysis,ICA)方法引入到人臉識別領域[58],區(qū)別于EigenFace和FisherFace,ICA認為高階的統(tǒng)計信息對識別也是有用的.ICA的思想就是通過線性變換,從而找到一組相互獨立的基,即獨立主元,以此來描述樣本數(shù)據(jù).EigenFace方法是在二階統(tǒng)計意義下的去相關,而ICA方法則是在所有統(tǒng)計意義下的去相關,這也導致了ICA的求解相對復雜一些,目前主要有三種方法:基于信息論的方法;固定點算法;聯(lián)合近似對角化特征矩陣方法.對于如何自動選取有效的獨立主元,目前還沒有一個很好的標準,通常都是根據(jù)經(jīng)驗來選取.
(4) 非負矩陣分解(Non-negative Matrix Factorization,NMF)方法最早由Lee等人提出[57],其思想就是要找到一組基,基的各個分量都是非負的,并且當用這些基來線性表征圖像的時候,其線性系數(shù)也都是非負的.需要注意的是,NMF方法是基于局部特征的描述方法,而EigenFace和FisherFace方法都是一種全局描述的方法.雖然在自然場景中,ICA具有邊緣濾波器的作用,但是當用獨立主元的線性組合來表征圖像的時候,不可避免地會存在減性關系,這一點也存在于EigenFace和FisherFace方法中.在Lee提出的NMF算法的基礎上,研究人員已提出一些新的方法,并取得了較好的實驗效果[19].
(5) 基于核(Kernel-based)的方法.所謂“核”,其基本思想是利用非線性映射,把原始空間的數(shù)據(jù)映射到“核”空間中,然后在“核”空間中對數(shù)據(jù)進行分析,但是在計算上,可以通過核函數(shù)的計算來替代這一非線性變換[19].基于核的方法期望將原始空間中的非線性問題在“核”空間中通過線性分類器得以解決.“核”的思想在支持向量機上得到了較為成功的應用[42],研究人員陸續(xù)研究了核主成分分析[59-60]、核判別分析[61]、核獨立主元分析[62]等一系列方法.
(6) Moghaddam等人提出了基于Bayes的人臉識別方法[2,63].應用Bayes決策理論進行模式分類,首先要知道各類的先驗概率和概率密度函數(shù)[2].Moghaddam等人提出的是一種基于概率的圖像相似度度量方法,將人臉圖像之間的差異分為類間差異和類內差異,而實際圖像之間的差異為兩者之和.由于Bayes相似度的計算涉及復雜的非線性計算,Moghaddam等人提出了一種線性的快速計算方法,這種人臉識別方法在1996年美國DAPAR組織的FERET人臉測試中取得了較好的效果[2].
(7) 基于奇異值分解(Singular Value Decomposition,SVD)的方法是一種有效的代數(shù)特征提取方法.奇異值特征具有良好的穩(wěn)定性、轉置不變性、旋轉不變性、位移不變性以及鏡像變換不變性等重要性質.因此,奇異值分解技術也被應用到人臉識別領域.
(8) 基于頻域的方法.圖像的空域信息即象素的成像信息較容易受到外在因素的影響,研究人員試圖從圖像的頻域尋找更為穩(wěn)健的圖像特征.傳統(tǒng)的傅里葉變換、離散余弦變換曾被用于人臉分析與識別;后來發(fā)展起來的小波變換、Gabor小波變換也被引入到這一領域.在以上方法中,Gabor小波因其具有良好的空間局部性和方向選擇性能而引起了廣泛的關注.Gabor變換所采用的核與人類視覺皮層細胞的ZD感受特性非常的相似,能夠抓住圖像局部區(qū)域內多個尺度和局部性結構特征,從而使得保留總體信息的同時增強了局部特征.Gabor小波在圖像分析、人臉識別等方面已經(jīng)得到了廣泛的應用[2].
(9) 基于流形學習(Manifold leaming)的方法.流形是一種非歐式幾何空間,不滿足傳統(tǒng)意義下的全局線性結構.然而,在局部意義下可以獲得近似的全局線性結構,并通過各種流形學習方法發(fā)現(xiàn)其全局意義下的結構[2].流形學習的目的是在數(shù)據(jù)集所在空間表現(xiàn)為流形結構時,要從存在于這種空間結構的數(shù)據(jù)集中提取出其對應的內蘊結構(hitrlnsicstructllre)及其規(guī)律[63].當今的流形學習方法中,幾個熱點方法有Principal Curves[64],Locally Linear embedding[65],Laplacian Eigenmap[66]等.
2.3.4 基于神經(jīng)網(wǎng)絡的方法
基于神經(jīng)網(wǎng)絡的人臉識別方法其實也是基于統(tǒng)計人臉識別方法的一種,為了突出這類方法,故單獨作為小節(jié)進行描述.前面已敘述過,基于神經(jīng)網(wǎng)絡的方法在人臉檢測領域中得到廣泛應用,同樣地,該法也廣泛應用于人臉識別領域.這類識別法將人臉直接用灰度圖表征,利用了神經(jīng)網(wǎng)絡的學習及分類能力.其優(yōu)勢在于保存了人臉圖像中的材質信息及細微的形狀信息,同時避免了較為復雜的特征提取工作.而且,由于圖像被整體輸入,符合格氏塔心理學中對人類識別能力的解釋.
(1) 基于自組織映射(Self Organizing Map,SOM)的方法.1988年,Kohonen[67]最早將自組織映射SOM神經(jīng)網(wǎng)絡用于人臉識別研究,主要利用SOM的聯(lián)想能力“回憶”人臉.當輸入圖像具有較大噪音干擾或者部分圖像丟失時,也能恢復出完整的人臉.
(2) 基于彈性圖匹配的方法.1992年,Lades M等人將動態(tài)鏈接結構(Dynamic Link Architecture,DLA)方法[68]用于人臉識別取得了較好的效果.DLA方法利用突觸的可塑性將神經(jīng)元集合劃分成若干圖結構,同時保留神經(jīng)網(wǎng)絡的優(yōu)點.該法將人臉用格狀的稀疏圖表示,圖中的節(jié)點用圖像位置的Gabor小波分解得到的特征向量標記;圖的邊用連接節(jié)點的距離向量標記.Wiskott等人使用彈性圖匹配法在FERET數(shù)據(jù)庫上得到97.3%的準確率,進一步地,Wiskott在原有方法的基礎上提出聚束圖匹配方法[2].
(3) 基于SOM和卷積神經(jīng)網(wǎng)絡相結合的混合神經(jīng)網(wǎng)絡方法.在SOM算法的基礎上,Lawrence和Giles等人[69]提出了基于SOM和卷積神經(jīng)網(wǎng)絡的混合神經(jīng)網(wǎng)絡方法.在ORL人臉庫進行仿真實驗的結果與用K-L變換代替SOM或者用多層感知器MLP代替卷積神經(jīng)網(wǎng)絡相比,該方法取得了較低的錯誤率[2];與特征臉方法相比,當待識別對象的訓練樣本數(shù)1到5變化時,該方法取得了較好的識別性能[2].
(4) Lin和Kung[70]提出了一種基于概率決策的神經(jīng)網(wǎng)絡(Probabilistic Decision Based Neural Network,PDBNN)方法.該法主要利用虛擬樣本進行強化和反強化學習,并采用模塊化的網(wǎng)絡結構加快網(wǎng)絡學習過程.
(5) 除了上述具有代表性的人臉識別方法以外,還有許多基于神經(jīng)網(wǎng)絡的人臉識別方法,如時滯神經(jīng)網(wǎng)絡[71](Time Delay Neural Networks,TDNN)方法、徑向基函數(shù)網(wǎng)絡(Radial Basis Function Neural Network,RBFNN)[72]、Hopfield網(wǎng)絡[73]等人臉識別方法,能夠實現(xiàn)低分辨率人臉的聯(lián)想和識別.
對于人臉這類復雜的、難以顯式描述的模型,基于神經(jīng)網(wǎng)絡的方法比其他類型的方法有其獨到的優(yōu)勢:便于建模,魯棒性好,避免了復雜的特征提取工作,把模型的統(tǒng)計特征隱含于神經(jīng)網(wǎng)絡的結構和參數(shù)中;此外,神經(jīng)網(wǎng)絡以并行方式處理信息,如果能用硬件實現(xiàn),就能顯著提高速度.但是,神經(jīng)網(wǎng)絡方法運算時間都較長,并可能陷入局部最優(yōu).
2.3.5 多分類器集成方法
在特定約束條件下,人臉識別可以取得較好的性能.在現(xiàn)實應用中,人臉的表象會因為光照方向、姿態(tài)、表情變化而產(chǎn)生較大的變化,每種特點的識別器只對其中一部分變化敏感.因此,使用多個分類器集成可以整合互補信息,提高系統(tǒng)的分類準確率.
Gutta等人提出將集成的RBF與決策樹(Decision Tree)結合起來進行人臉識別[74],該法結合了全局的模板匹配和離散特征的優(yōu)點,在350人的人臉數(shù)據(jù)庫上測試結果較好.Huang等人[75]在多特征臉空間的基礎上采用神經(jīng)網(wǎng)絡集成(Neural Network Ensemble)的方法實現(xiàn)了對多視角人臉的識別.該法首先將人臉深度方向的偏轉角度分為幾組(多個視角),然后為每組(每個視角)訓練一個神經(jīng)網(wǎng)絡,最后對所有組對應的多個神經(jīng)網(wǎng)絡的輸出進行集成.實驗表明,該法不必預先估計偏轉角度就可以取得較好的識別性能,而且能實現(xiàn)人臉偏轉角度的自動判斷[2].Lü等人通過將PCA、ICA、LDA進行集成人臉識別.首先分別用這三種方法對同一張人臉進行識別,每種方法的識別分為測試人臉與數(shù)據(jù)庫中人臉的投影向量之間夾角的余弦值,然后用簡單求和方式或RBF網(wǎng)絡對三個得分進行集成,在一個包含有206個人,每人10張照片的人臉庫上進行實驗,集成方法的識別性能最好[2].
與指紋識別、視網(wǎng)膜識別、虹膜識別等技術相比,人臉識別技術有其獨特的優(yōu)勢:(1) 數(shù)據(jù)采集設備簡單、快捷,不像指紋和虹膜識別那樣需要專用的特殊設備.一般來說,常見的攝像頭就可以用來進行人臉圖像的采集,采集一般可在數(shù)秒內完成.(2) 無侵擾性.只要被識別者在攝像機前停留片刻,其身份就會被正確識別,因此人臉識別無需干擾人的正常行為,無需擔心被識別者是否愿意把手指放在指紋采集設備上、被識別者的眼睛是否能夠對準虹膜掃描裝置,被識別對象很容易接受.(3) 自然性、可視化.人類自身也是通過人臉來鑒別人的身份,因此人臉識別是最自然的可視化身份確認方式.鑒于上述優(yōu)點,人臉識別已在許多領域中得到廣泛應用,而且也是極具潛力的一種生物特征身份識別方式.
目前,計算機人臉識別的應用領域主要包括:(1) 個人身份識別.在信用卡、駕駛證、護照、身份證等個人身份證明中,進行自動個人身份辨識.(2) 公安系統(tǒng).在刑偵中的尸體辨認、罪犯辨認,搜救中尋找失蹤人員以及公共安全保障等方面有重要應用.(3) 政府部門.在檔案管理、海關、機場和交通部門對身份證或駕駛執(zhí)照等證件查驗方面有廣泛應用.(4) 商業(yè)領域.ATM機、智能卡、電子商務、門禁系統(tǒng)、監(jiān)控系統(tǒng)、互聯(lián)網(wǎng)接入驗證、用戶終端接入、視頻會議、計算機動畫等方面對人臉識別技術有大量需求[1-6,19,24,29-30].
據(jù)統(tǒng)計,截止到2007年,人臉識別產(chǎn)品的國際市場份額由原來的微不足道迅速上升到12.9%,僅小于指紋識別,而且比重還在不斷增加,打破了國際生物識別市場上“指紋”一統(tǒng)天下的局面.而在中國,國產(chǎn)人臉識別產(chǎn)品的國際市場份額仍然還較小,大多數(shù)公司采用國外提供的核心技術進行后加工,產(chǎn)品多集中在門禁和考勤機上.這些公司沒有自主知識產(chǎn)權,自主研發(fā)能力差,同時,由各種渠道獲得的核心技術水平參差不齊,其產(chǎn)品可靠性得不到保障.2007年以后,國內的人臉識別技術迅速地發(fā)展,該領域內的科研人員也取得了較大的進展;2008年,隨著政府推動的“平安城市”建設、城市報警與監(jiān)控系統(tǒng)(“3111”工程)的深入展開,加之奧運會、世博會等大型活動的帶動,全國進入了安防設施建設的高潮期,安防行業(yè)持續(xù)保持了快速的增長.而且,除了傳統(tǒng)的考勤、門禁等應用外,各種新的應用需求的不斷涌現(xiàn),也極大地推動了這一市場的發(fā)展.
目前,國內已經(jīng)具有完全自主知識產(chǎn)權的人臉識別系統(tǒng).例如中科院自動化所的中科奧森(AuthenMetric)近紅外人臉識別系統(tǒng)和國際識別領域巨頭漢王科技的“漢王人臉通”人臉識別產(chǎn)品.中科奧森近紅外人臉識別系統(tǒng)獨樹一幟,徹底解決了困擾人臉識別領域的環(huán)境光照影響問題.在實際應用環(huán)境下,中科奧森近紅外人臉識別系統(tǒng)在準確率和速度上在國際上絕對領先.該系統(tǒng)有機結合了電子標簽和射頻識別技術,為2008年北京奧運定制人臉識別快速身份驗證系統(tǒng),可以對所有持票者進行實名制人臉身份驗證.使用該系統(tǒng)時,事先對入場券持有者提交的人臉身份照片進行掃描,提取人臉特征,并錄入信息數(shù)據(jù)庫.在進入現(xiàn)場時,利用視頻攝像頭對入場券持有者進行人臉圖像采集,并與數(shù)據(jù)庫中的數(shù)據(jù)進行對比,從而實現(xiàn)人臉身份識別.“漢王人臉通”是全球首款嵌入式雙攝像頭人臉識別機,它的上市標志著人臉智能時代的到來.2008年12月,在北京國際展覽中心舉行的中國國際社會公共安全產(chǎn)品博覽會上,“漢王人臉通”喜獲2008北京安博會“創(chuàng)新產(chǎn)品獎”,也是門禁領域唯一獲獎產(chǎn)品.
人臉識別包含人臉檢測與定位、人臉特征提取與分類器等技術的綜合運用,整個識別過程是非常困難的.這種困難一方面源于計算機本身學習能力的局限,另一方面則是由于人臉識別技術所具有的復雜性造成的.人臉具有相對穩(wěn)定的特征和結構,這為人臉識別技術帶來了實現(xiàn)的可能,但人臉具體形態(tài)的多樣性和所處環(huán)境的復雜性又造成了識別的巨大困難.人臉識別本質上是三維塑性物體向二維投影圖像的匹配問題,具體的困難表現(xiàn)在:人臉結構的復雜性;人臉的數(shù)目;不同人臉的差異;人臉隨年齡的變化;表情的變化;發(fā)型、胡須、眼鏡等對人臉的干擾;光照對人臉圖像的影響;成像角度和距離;成像背景的復雜度等等.此外,人臉是立體的,但在識別時的成像卻是平面的,所以從二維圖像重建三維人臉是個病態(tài)過程,目前尚沒有比較理想的描述人臉的三維模型.至于對人的肢體器官的識別,常常還受到背景環(huán)境的影響.
客觀來講,目前已經(jīng)報道的各類方法都有其特定的實驗背景,因而不可能解決人臉檢測、定位、特征提取與識別等的所有問題.另外,以上所提到的諸多方法基本上都是建立在正視圖的基礎上的.當人臉的姿態(tài)發(fā)生三維深度旋轉特別是旋轉角度超過45°時,面部特征的結構信息的完整性會發(fā)生較大的破壞.在這種情況下,絕大多數(shù)的方法都會失效.
人臉識別技術的研究同時涉及到計算機視覺、模式識別、人工智能、心理學、生理學等諸多學科,這些使得人臉識別技術成為一項極富挑戰(zhàn)性的研究課題.
人臉識別技術是一個極富挑戰(zhàn)性的問題,盡管目前存在許多的人臉檢測和人臉識別算法,但是每種算法都是在特定的實驗環(huán)境中得到驗證的,評價標準不統(tǒng)一,而且目前還沒有一種算法適用各種不同的實驗環(huán)境.目前在特定的條件下人臉識別的研究算法已取得了顯著的進展,但是,一個穩(wěn)定性和魯棒性強的人臉識別系統(tǒng)需要在不同的環(huán)境,如光照、人臉旋轉角度、姿勢和部分遮擋、面部表情以及外部飾物等干擾下,也具有很好的有效性和穩(wěn)定性.因此,在未來幾年中,特征獲取問題、人臉非線性建模問題、3D建模問題、人臉模式的流形學習、多特征融合策略以及分類器的泛化能力研究將是具有代表性的幾個發(fā)展方向.
[1] 張翠萍,蘇光大.人臉識別技術綜述[J].中國圖像圖形學報,2000,5(11):885-894.
[2] 李武軍,王崇駿,張 煒,等.人臉識別研究綜述[J].模式識別與人工智能,2006,19(1):58-66.
[3] 周激流,張 曄.人臉識別理論研究進展[J].計算機輔助設計與圖形學學報,1999,11(2):180-184.
[4] 趙桂敏.基于綜合集成的人臉識別[D].長沙:中南大學,2004.
[5]祝秀萍,吳學毅,劉 文.人臉識別綜述與展望[EB/OL].(2008-05-02)[2009-08-15] http://www.studa.net/pc-theory/080502/ 10591461.html.
[6] 趙 玲.基于獨立分量分析和非負矩陣分解的人臉識別研究[D].蘭州:蘭州大學,2006.
[7] SAMAL A,IYENGAR P A.Automatic recognition and analysis of human faces and facial expressions: a survey[J].Pattern Recognition,1992,25(1):65-77.
[8] CHELLAPPA R,WILSON C L,SIRONEY S,et al.Human and machine recognition of faces: a survey[J].Proceedings of the IEEE,1995,83(5):705-740.
[9] BRUNELLI R,POGGIO T.Face recognition: features versus templates[J].IEEE Trans.on Pattern Analysis and Machine Intelligence,1993,15(10):1042-1052.
[10] VALENTIN D,ABDI H,O'TOOLE A J,et al.Connectionist models of face processing: a survey[J].Patttern Recognition,1994,27(9):1209-1230.
[11] O'TOOLE A J,ABDI H,DEFFENBACHER K A,et al.Low-dimensional representation of faces in higher dimensions of the face space[J].Journal of the Optical Society of America A,1993,10(3):405-411.
[12] 萬 輝.人臉識別技術研究與實現(xiàn)[D].廣州:華南理工大學,2004.
[13] TURK M,PENTLAND A.Eigenfaces for recognition[J].Journal of Cognitive Neuroscience,1991,3(1):71-86.
[14] BARTLETT M S,MOVELLAN J R,SEJNOWSKI T J,et al.Face recognition by independent component analysis[J].IEEE Trans.on Neural Networks,2002,13(6):1450-1464.
[15] MANJUNATH B S,SHEKHAR C,CHELLAPPA R,et al.A new approach to image feature detection with applications[J].Pattern Recognition,1996,29(4):627-640.
[16] GOLDSTION R J,HARMAON L D,LESK A B.Man-machine interaction in human face identification[J].Bell System Tech.,1972,51(2):399-427.
[17] KAYA Y,KOBAYASHI K.A basic study on human recognition[J].Frontiers of Pattern Recognition,1972:265-289.
[18] KANAD T.Picture processing system by computer complex and recognition of human faces[D].Kyoto:Kyoto University,1973.
[19] 鄧忠龍.人臉識別中新算法的實現(xiàn)與改進[D].上海:上海交通大學,2005.
[20] SAKAI T,NAGAO M,F(xiàn)UJIBAYASHI S,et al.Line extraction and pattern detection in a photograph[J].Pattern Recognition,1969,1(3):233-248.
[21] SEXTON G,NEWCASTLE P.Automatic face detection for video conferencing[J].IEEE Colloquium on Low Bit Rate Image Coding,1990(2):27-30.
[22] CHELVERIKOV D,LERCH A.Multiresolution face detection[J].Theoretical Foundations of Computer Vision,1993,69:131-140.
[23] YANG Guangzheng,HUANG T S.Human face detection in a complex background[J].Pattern Recognition,1994,27(1):53-63.
[24] 趙麗紅,劉紀紅,徐心和,等.人臉檢測方法綜述[J].計算機應用研究,2004,21(9):1-4.
[25] GRAF H P,CHEN T,PENTAJAN E,et al.Locating faces and facial parts:proc.First Int.Workshop Automatic Face and Gesture Recognition,Zurich,June 26-28,1995[C].Zurich:WAFGR,c1995.
[26] SIROHEY S A,PITAS I.Human face segmentation and identification[D].Massachusetts:MIT,1995.
[27] KOTROPOULOS C,PITAS I.Rule-based face detection in frontal views:ICA SSP97:proc.Of IEEE Int.Conf.On Acoustics,Speech and Signal Processing,Munich,April,1997[C].New York:IEEE Press,c1997.
[28] 盧春雨,張長水,聞 芳,等.基于區(qū)域特征的快速人臉檢測法[J].清華大學學報:自然科學版,1999,39(1):101-105.
[29] 李華勝,楊 樺,袁保宗,等.人臉識別系統(tǒng)中的特征提取[J].北京交通大學學報,2001,25(2):47-50.
[30] 姜 軍,張桂林.一種基于知識的快速人臉檢測方法[J].中國圖像圖形學報,2002,7(1):6-10.
[31] SIROHEY S A.Human face segmentation and identification,Technical report CS-TR-3176[R].Maryland:Univ.of Maryland,1993.
[32] LEUNG T K,BURL M C,PERONA P,et al.Finding faces in cluttered scenes using labeled random graph matching:ICCV95:proc.5th IEEE Int.Conf.Computer Vision,Boston,June,1995[C].Washington:IEEE Computer Society,c1995.
[33] YOW K C,CIPOLLA1 R.Feature-based human face detection[J].Image and Vision Computing,1997,15(9):713-735.
[34] HAN Chinchuan,YU Kuochung,CHEN Lianghua,et al.Fast face detection via morphology-based Pre-Processing[J].Pattern Recognition,2000,33(10):1701-1712.
[35] 彭進業(yè),俞卞章,王大凱,等.多尺度對稱變換及其應用于定位人臉特征點[J].電子學報,2002,30(3):363-366.
[36] 王延江,袁保宗,唐晚芳.一種快速彩色圖像中復雜背景下人臉檢測方法[J].電子學報,2002,30(10):1566-1569.
[37] PROPP M,SAMAL A.Artificial neural network for human face detection[J].Intelligent Eng.Systems through Artificial Neural Network,1992,2:535-540.
[38] BUREL G,CAREL D.Detection and localization of faces on digital images[J].Pattern Recognition Letters,1994,15(10):963-967.
[39] VAILLANT R,MONROCQ C,CUN Y L,et al.Original approach for the localization of objects in images[J].IEEE proc.Vision,Image and Signal Processing,1994,141(4):245-250.
[40] ROWLEY H A,BALUJA S,KANADE T,et al.Human face detection in visual scenes,Carnegie Mellon Computer Science Technical Report CMU-CS-95-158[R].Pittsburghers:Carnegie Mellon University,1995.
[41] ROWLEY H A,BALUJA S,KANADE T,et al.Rotation invariant neural network-based face detection:CVPR1998:proceedings of IEEE Conf.Computer Vision and Pattern Recognition,Santa Barbara,June,1998[C].New York:IEEE Computer Society,c1998.
[42] OSUNA E,F(xiàn)REUND R,GIROSI F.Support vector machines: training and applications[R].Massachusetts:AI Lab.,MIT,1997.
[43] TURK M,PENTLAND A.Eigenfaces for Recognition[J].Jounal of Cognitive Neuroscience,1991,3(1):71-86.
[44] FREUND Y,SCHAPIRE R E.A decision-theoretic generalization of on-line learning and an application to boosting[J].Journal of Computer and System Sciences,1997,55(1):119-139.
[45] VIOLA P,JONCES M.Rapid object detection using a boosted cascade of simple[J].IEEE Trans.on CVPR,2001,1(2):511-518.
[46] LI STAN Z,ZHANG Zhenqiu.Floatboost learning and statistical face detection[J].IEEE Trans.on PAMI,2004,26(9):1112-1123.
[47] PUDIL P.Floating search methods in feature selection[J].Pattern Recognition Letters,1994,15(11):1119-1125.
[48] BLEDSOE W.Man-machine facial recognition,PRI:22[R],Palo Alto:Panoramic Research Inc.,1966.
[49] COOTES T F,TAYLOR C J,COOPER D H,et al.Active shape models-their training and application[J].Computer Vision and Image Understanding,1995,61(1):38-59.
[50] COOTES T F,EDWARDS G J,TAYLOR C J,et al.Active appearance models[J].IEEE Trans.on Pattern Analysis and Machine Intelligence,2001,23(6):681-685.
[51] YAN Shuicheng,LIU Ce.Face alignment using texture-constrained active shape model[J].Image and Vision Computing,2003,21(1):69-75.
[52] SHAN Shiguang,GAO Wen.Enhanced active shape models with global texture constraints for face image analysis:ISMIS2003:proceedings of the Fourteenth International Symposium on Methodologies for Intelligent Systems,Maebashi,October,2003[C].Hamburg:Springer,c2003.
[53] BLANZ V,VETTER T.Face recognition based on fitting a 3D morphable model[J].IEEE Trans.on PAMI,2003,25(9):1063-1075.
[54] BLANZ V,ROMDHANI S,VETTER T,et al.Face identification across different poses and illuminations with a 3D morphable model:proc.of the 5th Int.Conference on Automatic Face and Gesture Recognition,Washington D.C.,May 20-21,2002[C].NewYork:IEEE Press,c2002.
[55] CHEN Lifen,LIAO Hongyuan,LIN Jiachen,et al.A new LDA-based face recognition system which can solve the small sample size problem[J].Pattern Recognition,2000,33(10):1713-1726.
[56] LIU Chengjun,WECHSLER H.Gabor feature based classification using the enhanced fisher linear discriminant model for face recognition[J].IEEE Trans.On Image Processing,2002,11(4):467-476.
[57] YU Hua,YANG Jie.A direct LDA algorithm for high-dimensional data with application to face recognition[J].Pattern Recognition,2001,34(10):2067-2070.
[58] BARTLETT M S.Independent component representations for face recognition:proceedings of SPIE Symposium on Electronic Imaging:Science and Technology Conference on Human Vision and Electronic Imaging III,San Jose,January 24-30,1998[C].San Jose:SPIE,c1998.
[59] 尚 麗.稀疏編碼算法及其應用研究[D].合肥:中國科學技術大學,2006.
[60] KIM K I,JUNG K,KIM H J,et al.Face recognition using kernel principal component analysis[J].IEEE Signal Processing Letters,2002,9(2):40-42.
[61] BAUDAT G,ANOUAR F.Generalized discriminant analysis using a kernel approach[J].Neural Computation,2000,12:2385-2404.
[62] 張燕昆.基于核方法的人臉識別技術研究[D].上海:上海交通大學,2004.
[63] MOGHADDAM B,JEBARA T,PENTLAND A,et al.Bayesian face recogniton[J].Pattern Recognition,2000,33(11):1771-1782.
[64] ZHANG Junping,WANG Jue.An overview of principal curves[J].Chinese Journal of Computers,2003,26(2):1-18.
[65] TENENBAUM J B,SILVA V D,LANGFORD J C,et al.A global geometric framework for nonlinear dimensionality reduction[J].Science,2000,260:2319-2323.
[66] BELKIN M,NIYOGI P.Using manifold structure for partially labeled classification:NIPS2002:proceedings of Neural Information Processing System,Vancouver,December 9-14,2002[C].Vancouver:NIPS,c2002.
[67] KOHONEN T.Self-organization and associative memory[M].3rd ed.Berlin: Springer,1988.
[68] LADES M,VORBROGGEN J C,BUBMANN J,et al.Distortion Invariant object recognition in the dynamic link architecture[J].IEEE Trans.on Computers,1992,42(3):300-311.
[69] LAWRENCE S,GILES C L,TSOI A C,et al.Face recognition: a convolutional neural network approach[J].IEEE Trans.on Neural Networks,1997,8(1):98-113.
[70] LIN Shanghung,KUNG Sunyuan,LIN Longji,et al.Face recognition/detection by probabilistic decision based neural network[J].IEEE Trans.on Neural Networks,1997,8(1):114-132.
[71] SAMARIA F S,HARTER A C.Parameterization of a stochastic model for human face identification:WACV1994:proc.of 2nd IEEE Workshop on Applications of Computer Vision,Saraota,January,1994[C].New York:IEEE Press,c1994.
[72] RANGANATH S,ARUN K.Face recognition using transform features and neural network[J].Pattern Recognition,1997,30(10):1615-1622.
[73] HAYWOOD K,LEBBY G L,RICANEK K J,et al.Hopfield like networks for pattern recognition with applications to face recognition:ICNN1999:proc.of the International Joint Conference on Neural Networks,Washington,July,1999[C].Washington:ICNN,c1999.
[74] GUTTA S,WECHSLER H.Face recognition using hybrid classifier systems:ICNN1996:proc.of the International Conference on Neural Networks,Washington,June,1996[C].Virginia:George Mason University,c1996.
[75] HUANG Fujie,ZHANG Hongjiang,ZHOU Zhihua,et al.Pose invariant face recognition:proc.of the 4th IEEE International Conference on Automatic Face and Gesture Recognition,Grenoble,March,2000[C].New York:Institute of Electrical and Electronics Engineer,Inc.,c2000.