安高翔
摘要:人臉特征點定位技術(shù)為人臉圖像處理與分析提供重要幾何信息,是計算機視覺、圖像分析和模式識別領(lǐng)域經(jīng)典課題之一。以主動外觀模型(AAM)為代表的傳統(tǒng)面部特征定位算法易受人臉姿態(tài)和表情變化等影響,很難得到理想效果。以傳統(tǒng)特征點定位模型為出發(fā)點,引入稀疏矩陣表示人臉特征基底,將K-SVD算法更新稀疏矩陣應(yīng)用于高斯-牛頓形變部件模型(GN-DPM)的基底表示中,對傳統(tǒng)形變部件模型進行改進。在此基礎(chǔ)上,更新新模型的擬合優(yōu)化算法,以提高傳統(tǒng)形變部件模型的精確度。實驗結(jié)果表明,采用該方法進行人臉特征點定位比現(xiàn)有的快速主動外觀模型(Fast-AAM)具有更低的誤差率。
關(guān)鍵詞:人臉特征點定位;K-SVD;形變部件模型;稀疏表示
DOI:10.11907/rjdk.173132
中圖分類號:TP312
文獻標(biāo)識碼:A文章編號:1672-7800(2018)007-0103-05
Abstract:Facialfeaturepointlocalizationtechnologyprovidesimportantgeometricinformationfortheprocessingandanalysisoffacialimages,anditisoneoftheclassictopicsincomputervision,imageanalysisandpatternrecognition.Thetraditionalfacialfeaturelocalizationalgorithm,representedbytheactiveappearancemodel(AAM),iseasilyaffectedbythechangesoffaceposturesandfacialexpressions,anditisdifficulttoobtaintheidealeffects.Inthispaper,thetraditionalfeaturepointlocalizationmodelistakenasthestartingpoint,andsparsematrixisintroducedtorepresentthefeaturebaseoftheface.ThesparsematrixofK-SVDalgorithmisappliedtothebaserepresentationofGaussNewtondeformablecomponentmodel(GN-DPM),andthetraditionaldeformablecomponentmodelisimproved.Onthisbasis,thefittingoptimizationalgorithmofthenewmodelisupdatedtoimprovetheaccuracyofthetraditionaldeformablecomponentmodel.Theexperimentalresultsshowthatthemethodhaslowererrorratethantheexistingfastactiveappearancemodel(Fast-AAM)forfacialfeaturepointlocation.
KeyWords:facialfeaturepointlocation;K-SVD;deformablecomponentmodel;sparserepresentation
0引言
人臉特征點檢測技術(shù)是計算機視覺、圖像分析和模式識別領(lǐng)域經(jīng)典課題之一,在公共安全、信息安全等領(lǐng)域具有很好的應(yīng)用前景,同時也是人臉?biāo)孛?、人臉美化等?yīng)用方向的基礎(chǔ)性技術(shù)。傳統(tǒng)基于彩色圖像的人臉特征點檢測方法包括主動形狀模型(ActiveShapeModel,ASM)[1]、主動外觀模型(ActiveAppearanceModel,AAM)[2]、約束局部模型(ConstrainedLocalModel,CLM)[3]。這3個模型可以統(tǒng)稱為形變模型(deformablemodels),形變模型是一種通過力(或能量)驅(qū)動輪廓曲線進行形變的方法,利用形變模型實現(xiàn)人臉特征點檢測一直受到廣泛關(guān)注和研究。主動形狀模型將對齊后的訓(xùn)練圖像的人臉特征點坐標(biāo)進行線性組合,通過主成分分析算法(PrincipalComponentAnalysis,PCA)學(xué)習(xí)得到統(tǒng)計形狀模型,使用局部紋理特征對測試圖像進行搜索確定特征點位置,結(jié)合統(tǒng)計形狀模型進行約束,逐步迭代更新以期匹配到測試圖像的人臉特征點位置。而主動外觀模型則在主動形狀模型的基礎(chǔ)上引進全局紋理模型,對測試圖像的紋理變化進行約束。約束局部模型通過在特征點附近搜索確定每個特征點的位置,并結(jié)合形狀擬合對位置進行校正,約束局部模型與主動形狀模型的不同在于局部模型在特征點附近搜索獲得的響應(yīng)曲面會用于總體形狀模型優(yōu)化。傳統(tǒng)的人臉特征點檢測模型易受人臉姿態(tài)和表情變化等影響,尤其在光照條件不同、姿態(tài)變化大的環(huán)境中,其檢測精度大大降低。因此本文采用稀疏表示和字典學(xué)習(xí)方法,與傳統(tǒng)的人臉特征點檢測模型結(jié)合,提出改進的彩色圖像人臉特征點檢測方法,以提高復(fù)雜環(huán)境下人臉特征點檢測精度。
1研究現(xiàn)狀
人臉特征定位方法依據(jù)特征的類型可以分為基于灰度信息的方法[4-5]、基于幾何形狀的方法、基于小波和小波包的方法等。基于幾何形狀的方法包含基于主動曲線的方法、基于可變形模板匹配的方法等。基于可變形模板的人臉特征點定位是最常用的方法,近年來,基于可變形模板進行特征點定位的改進模型、優(yōu)化算法不斷被提出,本文把基于可變形模板的方法分離出來,進行系統(tǒng)描述。
Cootes等[1]于1995年提出主動形狀模型(ActiveShapeModel,ASM)。它是在參數(shù)活動輪廓模型,又稱蛇模型(Snake模型)[6]基礎(chǔ)上充分利用目標(biāo)類圖像的先驗知識和全局形狀統(tǒng)計模型來約束局部紋理的匹配,從而既快又好地確定標(biāo)志點。主動形狀模型對訓(xùn)練集中大量所描述的外形實例進行統(tǒng)計,建立反映目標(biāo)外形變化規(guī)律的外形統(tǒng)計模型和反映灰度分布規(guī)律的局部灰度模型。在搜索過程中,首先利用訓(xùn)練得到的局部灰度模型進行搜索,之后利用形狀模型對搜索到的形狀進行近似表達,同時判斷其合理性,對不合理的形狀進行調(diào)整以保證外形在統(tǒng)計意義上的合理性。通過循環(huán)迭代,得到理想的匹配結(jié)果。但是該模型僅利用了對象的邊緣信息,而不考慮形狀內(nèi)部的復(fù)雜紋理,容易陷入局部最優(yōu)解,因此準(zhǔn)確性不高,而且內(nèi)部解釋對象的參數(shù)眾多,復(fù)雜且低效。
Cootes等[2]于1998年提出主動外觀模型(或主動表現(xiàn)模型ActiveAppearanceModel,AAM),該模型在主動形狀模型的基礎(chǔ)上,放棄了特征點的局部紋理,使用圖像的內(nèi)部灰度紋理信息驅(qū)動形狀變量的移動改變,加入全局紋理信息,利用形狀和紋理聯(lián)合統(tǒng)計(表觀)模型參數(shù)進行優(yōu)化使得模型與輸入達到最佳匹配。其不僅建立了反映外形變化的形狀統(tǒng)計模型,同時建立了反映全局紋理變化的模型,以充分利用全局的紋理信息。結(jié)合形狀模型及紋理模型建立外觀模型。外觀模型去除了形狀和紋理之間的相關(guān)性,可以準(zhǔn)確地生成外形及紋理變化的目標(biāo)圖像。在主動外觀模型搜索過程中,利用訓(xùn)練得到的圖像灰度差值與表觀參數(shù)變化的線性關(guān)系,不斷變化表觀模型參數(shù)、二維幾何位置和尺度等參數(shù),直至得到理想的匹配效果。主動外觀模型是用于人臉特征點定位的典型模型。
近年來,關(guān)于主動外觀模型的改進模型非常多。主動外觀模型擬合方法假定誤差圖像與模型參數(shù)的增量之間滿足一種簡單的線性關(guān)系,該線性關(guān)系可以通過回歸的方法或其它數(shù)值方法計算得到,但實際上這種假設(shè)并不準(zhǔn)確,Matthews等[7]舉出反例,而且利用這種差值線性不斷更新模型參數(shù),每次迭代都產(chǎn)生新的紋理,使算法計算速度大大降低。針對這些缺點,Matthews等[8]提出基于Lucas-Kanade算法的主動外觀模型反向合成匹配算法,其參數(shù)更新方法也在原有簡單疊加的基礎(chǔ)上使用了新的更新策略,具有更高的計算精度和效率。針對主動外觀模型擬合問題,Tzimiropoulos[9]提出Gauss-Newton優(yōu)化方法進行擬合。在紋理描述方面,Jiao等[10]用Gabor小波代替灰度模型;Zhang[11]在紋理學(xué)習(xí)中引入基于RealAdaboosr分類器的鑒別學(xué)習(xí)并且取得了很好的成果;Asthana[12]將模型中的以像素值為基礎(chǔ)的紋理信息改為以局部分類器訓(xùn)練出的響應(yīng)圖為基礎(chǔ)的紋理信息模型。
2基于稀疏字典學(xué)習(xí)形變部件模型的人臉特征點定位
本文采用的基于稀疏字典學(xué)習(xí)的形變部件模型整體框架如圖1所示。模型分為訓(xùn)練和擬合兩部分。
2.1基于稀疏字典學(xué)習(xí)的形變部件模型訓(xùn)練
形變模型是一種由形狀和外觀構(gòu)成的用以描述人臉的穩(wěn)定模型,它的模型參數(shù)分別控制形狀和外觀的變化。高斯-牛頓形變部件模型(GN-DPM)是形變部件模型的一種,與常見形變模型約束局部模型不同的是,它是通過使用高效、穩(wěn)定的高斯-牛頓優(yōu)化算法,聯(lián)合訓(xùn)練基于部件的外觀模型和全局形狀模型。在高斯-牛頓形變部件模型中,將每個訓(xùn)練圖像Ii的u個標(biāo)記點坐標(biāo)Ii=[xi,1,yi,1,...,xi,u,yi,u]提取出來,構(gòu)成一個矩陣,再對矩陣進行普氏對齊分析,搭建全局形狀模型。
將每個訓(xùn)練圖像Ii扭曲到參考坐標(biāo)系中,然后在每個標(biāo)記點周圍提取Np=Ns×Ns像素大小的圖像塊,最后將所有塊連接成一個N=uNp的向量,完成外觀模型的搭建。
由于人臉圖像的形狀模型和外觀模型具有高度相似和冗余特性,且都分布在高維空間中的低維稀疏子空間中,因此,不同于傳統(tǒng)的高斯-牛頓形變部件模型將形狀和外觀矩陣進行主成份分析分解,本文采用字典學(xué)習(xí)來分別表示形狀模型和外觀模型。字典學(xué)習(xí)可以表示為以下式子:
3實驗結(jié)果與分析
為了更好地說明基于稀疏字典學(xué)習(xí)的形變部件模型的人臉特征點定位效果,與現(xiàn)有的人臉特征點定位算法在LFPW和Helen數(shù)據(jù)集上進行實驗對比,通過計算測試結(jié)果與真實結(jié)果的點對點誤差及人臉特征點定位效果圖說明算法的可行性與魯棒性。點對點誤差計算公式如式(12)所示:
LFPW數(shù)據(jù)集的整體特征點定位誤差率比較如圖2所示,基于稀疏字典學(xué)習(xí)的形變部件模型的整體特征點定位誤差在1%~7%,基于Fast-AAM[13]的整體特征點定位誤差在2%~9%,基于GN-DPM[9]的整體特征點定位誤差大部分在1%~8%,基于Par-CLR[14]的整體特征點定位誤差大部分在1%~5%。但是,GN-DPM和Par-CLR方法僅是檢測人臉49個五官特征點,并未檢測人臉外部輪廓點,且對于個別圖像,GN-DPM方法和Par-CLR方法的特征點誤差極大,可能發(fā)生完全偏離人臉的情況。因此,本方法在同時檢測人臉外部輪廓和內(nèi)部五官特征點的情況下,仍具有一定優(yōu)勢。
此外,本算法在帶有姿態(tài)、表情、光照、遮擋等因素變化的人臉圖像上也能較好地實現(xiàn)面部特征定位,如圖3、圖4、圖5,說明基于稀疏字典學(xué)習(xí)的形變部件模型在人臉特征點定位上具有很好的魯棒性和準(zhǔn)確性。
4結(jié)語
形變模型用于人臉特征點定位的研究長期以來一直受到廣泛關(guān)注。本文引入稀疏矩陣表示人臉特征基底,改進傳統(tǒng)形變部件模型的基底表示。此外,更新模型的匹配優(yōu)化算法,以提高傳統(tǒng)形變部件模型的精確度。通過在LFPW和Helen數(shù)據(jù)集上的實驗表明,采用該方法進行人臉特征點定位具有很好的魯棒性和準(zhǔn)確性。
參考文獻:
[1]COOTESTF,TAYLORCJ.Activeshapemodels[C].ProceedingofBritishMachineVisionConference,1995:266-275.
[2]COOTESTF,EDWARDSGJ,TAYLORCJ.Activeappearancemodels[M].ComputerVision—ECCV′98.Berlin:SpringerBerlinHeidelberg,1998:484-498.
[3]CRISTINACCED,COOTESTF.Featuredetectionandtrackingwithconstrainedlocalmodels[C].BritishMachineVisionConference,2006,41:929-938.
[4]KANADET.Computerrecognitionofhumanfaces[M].Basel:BirkhuserPress,1977.
[5]BRUNELLIR,POGGIOT.Facerecognition:featuresversustemplates[J].IEEETransaction.PatternAnalysisandMachineIntelligence,1993,15(10):1042-1052.
[6]LEET.Activecontourmodels[D].Corvallis:OregonStateUniversity,2005.
[7]BAKERS,MATTHEWSI.Lucas-kanade20yearson:aunifiyingframework[J].InternationalJournalofComputerVision,2004,56(3):221-255.
[8]MATTHEWSI,BAKERS.Activeappearancemodelsrevisited[M].Maryland:KluwerAcademicPublishers,2004.
[9]TZIMIROPOULOSG,PANTICM.Gauss-Newtondeformablepartmodelsforfacealignmentin-the-wild[C].IEEEConferenceonComputerVisionandPatternRecognition,2014:1851-1858.
[10]JIAOF,LISZ,SHUMHY,etal.Facealignmentusingstatisticalmodelsandwaveletfeatures[C].ProceedingsofIEEEComputerSocietyConferenceonComputerVisionandPatternRecognition.Minneapolis,2007:1-8.
[11]ZHANGL,AIH.Multi-viewactiveshapemodelwithrobustparameterestimation[C].18thInternationalConferenceonPatternRecognition,2006:469-468.
[12]ASTHANAA,ZAFEIRIOUSS,TZIMIROPOULOSG,etal.Frompixelstoresponsemaps:discriminativeimagefilteringforfacealignmentinthewild[J].IEEETransactionsonPatternAnalysis&MachineIntelligence;,2015,37(6):1312-1320.
[13]TZIMIROPOULOSG,PANTICM.OptimizationproblemsforfastAAMfittingin-the-Wild[C].IEEEInternationalConferenceonComputerVision,2014:593-600.
[14]ASTHANAA,ZAFEIRIOUSS,CHENGS,etal.Incrementalfacealignmentinthewild[C].IEEEComputerVisionandPatternRecognition,2014:1859-1866.
(責(zé)任編輯:江艷)