王曉斌,馮魯橋,楊媛靜
(電子科技大學(xué)計(jì)算機(jī)科學(xué)與工程學(xué)院 成都 611731)
基于模擬退火算法的三維人臉匹配方法
王曉斌,馮魯橋,楊媛靜
(電子科技大學(xué)計(jì)算機(jī)科學(xué)與工程學(xué)院 成都 611731)
基于模擬退火算法,利用深度信息對(duì)三維人臉進(jìn)行匹配和識(shí)別。通過(guò)具有全局優(yōu)化能力的模擬退火算法搜索獲取全局極值,選擇合適的適應(yīng)度函數(shù)MLESAC和SIM控制匹配過(guò)程獲得識(shí)別結(jié)果?;凇坝纱值郊?xì)”的思想,分3步匹配三維人臉,并對(duì)精準(zhǔn)匹配階段進(jìn)行改進(jìn),通過(guò)選擇合適的區(qū)域和分類(lèi)器能夠更好地應(yīng)對(duì)表情的影響。實(shí)驗(yàn)結(jié)果表明,模擬退火算法跳出了局部最優(yōu)解而獲得了全局優(yōu)化解,同時(shí)通過(guò)選擇MLESAC和SIM作為不同匹配階段的適應(yīng)度函數(shù)能夠有效控制匹配過(guò)程,提高了識(shí)別精準(zhǔn)率。
三維人臉匹配; 隨機(jī)抽樣最大似然; 模擬退火算法; 曲面滲透測(cè)度
隨著信息技術(shù)的飛速發(fā)展,人們對(duì)身份認(rèn)證的可靠度和方式提出了新的要求,傳統(tǒng)的身份認(rèn)證技術(shù)已經(jīng)不能滿足人們的需求[1]。作為生物特征識(shí)別技術(shù)的一種,人臉識(shí)別因其符合人類(lèi)自身的生理視覺(jué)習(xí)慣,是用戶接受度最高的生物識(shí)別方式。
二維人臉識(shí)別經(jīng)過(guò)多年的發(fā)展已經(jīng)能夠獲得高識(shí)別率,但是單純依靠二維圖像信息的人臉識(shí)別存在諸多難題(如表情、姿勢(shì)和光照等),在應(yīng)用各方面遭受到了巨大的挑戰(zhàn)。而三維人臉識(shí)別比二維人臉識(shí)別有著顯著的優(yōu)勢(shì),首先三維人臉富含海量信息;其次,有研究證明三維人臉識(shí)別技術(shù)使用的形狀信息能夠更好地應(yīng)對(duì)光照和姿勢(shì)的挑戰(zhàn)。同時(shí)隨著硬件(存儲(chǔ)、計(jì)算等設(shè)備)的飛速發(fā)展以及三維數(shù)據(jù)采集技術(shù)的迅猛發(fā)展,越來(lái)越多的學(xué)者將目光投向了三維人臉識(shí)別的研究。完整的三維人臉識(shí)別系統(tǒng)主要包括數(shù)據(jù)采集、預(yù)處理、特征提取和匹配,根據(jù)匹配結(jié)果得出識(shí)別結(jié)果。三維人臉匹配是最關(guān)鍵的步驟,直觀地說(shuō)就是目標(biāo)人臉與模型人臉的匹配,根據(jù)匹配結(jié)果判斷是否所需人臉。常用的三維人臉匹配方法有基于整體特征[2-4]、基于局部特征[5-7]、基于空域信息[8]、基于深度圖[9-10]和雙模態(tài)融合[11],其中基于深度圖的匹配是應(yīng)用最廣泛的方法。深度圖是三維人臉的主要表達(dá)方式,能夠有效避免光照的影響,表示的是深度信息z。常見(jiàn)的方法如ICP、遺傳算法和模擬退火算法等。本文基于模擬退火算法,選取合適的適應(yīng)度函數(shù)——MLESAC和SIM,利用三維人臉的深度信息進(jìn)行匹配,經(jīng)過(guò)測(cè)試驗(yàn)證,展現(xiàn)了高識(shí)別率。
1.1 模擬退火算法
模擬退火算法(SA)[12]是一種常用的優(yōu)化算法,通過(guò)給予整個(gè)搜索過(guò)程一個(gè)時(shí)變且最后趨向零的概率突變性,跳出了局部最優(yōu)解而具有了全局最優(yōu)解。SA包括兩重循環(huán):參數(shù)的隨機(jī)擾動(dòng)和溫度降低。在初始時(shí)給出一個(gè)試探解,然后在領(lǐng)域中隨機(jī)產(chǎn)生另一個(gè)解,該新解要滿足Metropolis所提出的規(guī)則限制,而整個(gè)變化過(guò)程都由控制參數(shù)t所決定。對(duì)于t的每一次取值,SA都不斷進(jìn)行“產(chǎn)生?判斷?接受(或舍去)”的多次迭代,當(dāng)t逐漸減小并逐漸趨向于0時(shí)的系統(tǒng)狀態(tài)對(duì)應(yīng)優(yōu)化問(wèn)題的全局最優(yōu)解。
1.2 MLESAC算法
隨機(jī)抽樣最大似然(MLESAC)算法由文獻(xiàn)[13]提出,被廣泛地應(yīng)用于估計(jì)三維圖像匹配過(guò)程中產(chǎn)生的內(nèi)外點(diǎn),從而得到最優(yōu)匹配點(diǎn)。
通過(guò)基于MLESAC的孤立點(diǎn)分類(lèi)方法定義適應(yīng)度函數(shù)為:
式中,N是待匹配圖像A中的點(diǎn)數(shù)量;ρ(ri)為:
式中,d是閾值,被稱為距離閾值,它限定了點(diǎn)與點(diǎn)之間距離的最大值。一旦點(diǎn)與點(diǎn)之間的距離高于該閾值,則待匹配點(diǎn)將被視為外點(diǎn)(outlier);否則視為內(nèi)點(diǎn)(inlier)。人們所希望的結(jié)果是適應(yīng)度函數(shù)F的值最小,即適應(yīng)度函數(shù)的值最小且能夠包含數(shù)量最多的內(nèi)點(diǎn)。
1.3 SIM算法
曲面滲透測(cè)度(SIM)[14]基于每個(gè)點(diǎn)的曲面法向量定量匹配結(jié)果,計(jì)算出兩幅圖像的對(duì)應(yīng)點(diǎn)集C(A,B)后,通過(guò)計(jì)算控制匹配流程和識(shí)別結(jié)果。SIM的具體步驟如下:
1) 對(duì)于A中的點(diǎn)p定義一個(gè)n×n的鄰域點(diǎn)集;
2) 尋找p在B中的匹配點(diǎn)c;
3) 計(jì)算點(diǎn)p和點(diǎn)c處的法向量np和nc;
4) 計(jì)算np和nc的夾角θ;
5) 如果θ 6) 重復(fù)步驟1)~步驟5),直到A中所有點(diǎn)都計(jì)算完畢。 一個(gè)好的匹配擁有較高的SIM值,而誤差匹配則產(chǎn)生較低的SIM值。誤差匹配時(shí)SIM值與值之間的差異相較于MSE更大,即SIM更敏感。但是,SIM只有在已經(jīng)進(jìn)行了粗略匹配時(shí)才能夠展現(xiàn)其優(yōu)勢(shì)。 在三維人臉匹配中,由于圖像維數(shù)較高,數(shù)據(jù)信息量大而導(dǎo)致計(jì)算量巨大,從而引發(fā)識(shí)別速度慢。為此,采用了“由粗到細(xì)”(coarse to fine)的策略,分兩步或多步匹配圖像。 如圖1所示,利用模擬退火算法進(jìn)行匹配主要分3步:1) 基于重心的初始匹配;2) 基于MLESAC的SA粗略匹配;3) 基于SIM的SA精準(zhǔn)匹配。具體來(lái)說(shuō),首先利用重心對(duì)齊,把兩幅人臉轉(zhuǎn)換到相同的坐標(biāo)系;再利用MLESAC作為適應(yīng)度函數(shù)進(jìn)行粗略匹配,找出對(duì)應(yīng)點(diǎn);最后通過(guò)更精細(xì)的方法,采用SIM作為適應(yīng)度函數(shù)選取更準(zhǔn)確的對(duì)應(yīng)點(diǎn),并以SIM值作為識(shí)別依據(jù)對(duì)人臉進(jìn)行判定。三維人臉識(shí)別的判斷基于兩個(gè)閾值:1) 識(shí)別閾值;2) 拒絕閾值。如果計(jì)算結(jié)果高于識(shí)別閾值,人臉被認(rèn)定是相互匹配的;如果結(jié)果低于拒絕閾值,則被認(rèn)定是不相互匹配的。 圖1 基于模擬退火算法的三維人臉匹配流程 3.1 匹配區(qū)域改進(jìn) 三維人臉識(shí)別的一個(gè)難點(diǎn)就是表情的存在。當(dāng)進(jìn)行帶表情人臉VS不帶表情人臉的匹配時(shí),無(wú)論匹配與否得到的SIM值都較低,于是很難得到一個(gè)精準(zhǔn)的匹配結(jié)果。針對(duì)這個(gè)難點(diǎn),提出一個(gè)改進(jìn)的精準(zhǔn)匹配過(guò)程。 圖2中,圖2a是沒(méi)有改進(jìn)時(shí)所使用的整張人臉區(qū)域;圖2b是通過(guò)眼角、鼻翼、鼻尖特征點(diǎn)劃分的9塊人臉區(qū)域;圖2c中亮區(qū)域表示改進(jìn)后所使用的剛性區(qū)域。在沒(méi)有改進(jìn)的精準(zhǔn)匹配過(guò)程中,SIM的值通過(guò)計(jì)算所有的匹配點(diǎn)得到。在本文改進(jìn)的精準(zhǔn)匹配過(guò)程中,通過(guò)權(quán)值對(duì)剛性區(qū)域投以更多的關(guān)注,對(duì)于不變區(qū)域的匹配點(diǎn)給定高權(quán)值(如,w=500);對(duì)于變化區(qū)域的匹配點(diǎn)給定低權(quán)值(如,w=0)。當(dāng)然,最后計(jì)算SIM值時(shí),所有匹配點(diǎn)的權(quán)值均為w=1。 圖2 三維人臉區(qū)域劃分 3.2 分類(lèi)器改進(jìn) 大部分三維人臉識(shí)別都是使用整張人臉進(jìn)行識(shí)別判定,或者為了避免表情的影響僅僅使用剛性區(qū)域進(jìn)行識(shí)別判定。有些學(xué)者也通過(guò)選擇不同分類(lèi)器整合不同的區(qū)域進(jìn)行識(shí)別判定,如乘積規(guī)則、求和規(guī)則等,但文獻(xiàn)[15]證明求和規(guī)則比其他的組合分類(lèi)器更優(yōu)秀。 為了得到最佳識(shí)別結(jié)果,本文使用求和規(guī)則組合所有區(qū)域的SIM值,即C+E+U+F+M得到最后的SIM值來(lái)進(jìn)行識(shí)別。在實(shí)驗(yàn)中,通過(guò)求和規(guī)則整合所有區(qū)域得到的識(shí)別率達(dá)到了99.2%,而其他的整合區(qū)域,如C+E+U+F只達(dá)到了98.9%,甚至有U+M僅僅達(dá)到了86.7%的識(shí)別率。 3.3 改進(jìn)精準(zhǔn)匹配流程 在整個(gè)精準(zhǔn)匹配的過(guò)程中,利用模擬退火算法作為搜索對(duì)應(yīng)點(diǎn)的迭代算法;同時(shí)利用SIM作為適應(yīng)度函數(shù)來(lái)得到最終的對(duì)應(yīng)點(diǎn)集;最后計(jì)算最終對(duì)應(yīng)點(diǎn)集的SIM值作為三維人臉識(shí)別的依據(jù)。根據(jù)SIM算法流程、模擬退火算法流程以及本文提出的改進(jìn),實(shí)現(xiàn)該階段整個(gè)匹配過(guò)程的具體步驟如下: 1) 獲取目標(biāo)和模型人臉各個(gè)人臉區(qū)域粗略匹配后的點(diǎn)集,包括5個(gè)區(qū)域:鼻子圓形區(qū)域C、鼻子橢圓區(qū)域E、面部區(qū)域上半部分U、整個(gè)面部區(qū)域F、基于改進(jìn)SA的面部區(qū)域M; 2) 初始化參數(shù); 3) 產(chǎn)生新解; 4) 計(jì)算新舊參數(shù)下,目標(biāo)人臉與模型人臉的對(duì)應(yīng)點(diǎn)集; 5) 根據(jù)對(duì)應(yīng)點(diǎn)集計(jì)算函數(shù)差值; 6) 根據(jù)模擬退火的各種收斂條件判斷是否接受新解; 7) 同一溫度下,重復(fù)執(zhí)行兩次步驟3)~步驟6);8) 緩慢降低溫度t,直至達(dá)到收斂條件為止,即步驟3)~步驟7); 9) 得出各個(gè)人臉區(qū)域的最終坐標(biāo)變換,并根據(jù)SIM得到相應(yīng)的對(duì)應(yīng)點(diǎn)集,計(jì)算各個(gè)人臉區(qū)域的SIM值; 10) 利用求和規(guī)則總和各個(gè)區(qū)域C+E+U+F+M的值,并以此為依據(jù)與閾值相比較得出識(shí)別結(jié)果。 精準(zhǔn)匹配階段,利用SIM作為適應(yīng)度函數(shù)進(jìn)行更精準(zhǔn)的匹配,通過(guò)匹配后得到的SIM值來(lái)判斷獲得最后的識(shí)別結(jié)果:如果兩幅圖像均來(lái)自同一個(gè)人,匹配后會(huì)得到較高的SIM值;否則,將會(huì)得到一個(gè)較低的SIM值。 為了驗(yàn)證算法的健壯性和精準(zhǔn)性,分別進(jìn)行verification實(shí)驗(yàn)、identification實(shí)驗(yàn)和增加迭代次數(shù)的實(shí)驗(yàn)。首先進(jìn)行數(shù)據(jù)集的分類(lèi)。 4.1 數(shù)據(jù)集分類(lèi) 本文實(shí)驗(yàn)采用3D_RMA數(shù)據(jù)庫(kù),共計(jì)120副人臉,每個(gè)人臉有6副圖像,這些人臉都有正面人臉圖像并且具有不同的表情。最常見(jiàn)的表情是:無(wú)表情、笑、悲傷、討厭、驚訝。根據(jù)圖像是否帶噪聲或者表情把三維人臉數(shù)據(jù)庫(kù)分成4個(gè)數(shù)據(jù)集,數(shù)據(jù)集的識(shí)別難度逐步遞增,具體分類(lèi)如表1所示。 表1 數(shù)據(jù)集分類(lèi) 4.2 verification實(shí)驗(yàn) 參照表1所展示的各數(shù)據(jù)集,定義其中的一個(gè)數(shù)據(jù)集為gallery數(shù)據(jù)集,那么其他的數(shù)據(jù)集就作為probe數(shù)據(jù)集,實(shí)驗(yàn)通過(guò)匹配gallery和probe數(shù)據(jù)集進(jìn)行,實(shí)驗(yàn)結(jié)果如表2所示。表2的前兩列分別表示相應(yīng)的gallery和probe數(shù)據(jù)集,后一列展示了各個(gè)數(shù)據(jù)集的識(shí)別率。而圖3和圖4則是三維人臉匹配的兩個(gè)示例。其中,圖a表示模型人臉,即位于gallery數(shù)據(jù)集中的人臉數(shù)據(jù);圖b表示待匹配人臉,即位于probe數(shù)據(jù)集中的人臉數(shù)據(jù);圖c表示兩幅人臉匹配后的效果圖,表現(xiàn)為一個(gè)“相互滲透”的效果。 圖3是來(lái)自相同三維人臉的匹配示例圖,其中,圖3a是中性表情人臉,而圖3b是帶了微笑的表情;圖4是來(lái)自不同三維人臉的匹配示例圖,兩幅人臉都是中性表情人臉。 表2 verification識(shí)別率 圖3 相同三維人臉匹配示例 圖4 不同三維人臉匹配示例 從定性角度可以看到圖3的“相互滲透”比較多,尤其在下半部人臉,圖4中幾乎沒(méi)有表現(xiàn)出“相互滲透”的區(qū)域。而從定量角度的SIM值來(lái)看,實(shí)驗(yàn)所得的圖3的SIM值比圖4的高。從這里也可以看到本文的方法對(duì)中性表情VS帶表情人臉時(shí),具有較好的識(shí)別效果。 表2的實(shí)驗(yàn)結(jié)果表明,當(dāng)人臉帶有表情和噪聲時(shí),人臉數(shù)據(jù)會(huì)發(fā)生相應(yīng)的變化,從而增加識(shí)別的難度。而從表中的實(shí)驗(yàn)數(shù)據(jù)也可以看到本文的識(shí)別率也不高,尤其是最后的All VS All實(shí)驗(yàn),只達(dá)到了70.8%的結(jié)果。 但是在實(shí)驗(yàn)中可以發(fā)現(xiàn),在進(jìn)行帶表情人臉VS中性人臉的匹配時(shí),改進(jìn)方法比原始方法更優(yōu)秀,高了幾乎15%的識(shí)別率。 4.3 identification實(shí)驗(yàn) 不同于verification實(shí)驗(yàn),在identification實(shí)驗(yàn)中,定義4個(gè)gallery數(shù)據(jù)集: 1) Level0:28副人臉;2) Level1:65副人臉;3) First:挑選數(shù)據(jù)庫(kù)中每個(gè)人的第一幅人臉,共計(jì)20副人臉;4) All:120副人臉。 其中Level0和Level1是verification實(shí)驗(yàn)中的Level0和Level1。對(duì)應(yīng)每個(gè)gallery數(shù)據(jù)集的probe數(shù)據(jù)集則是包含了該gallery數(shù)據(jù)集剩下后的所有人臉。 通過(guò)觀察表3的實(shí)驗(yàn)結(jié)果,本文使用的方法在rank-1的識(shí)別下仍然取得了較高的識(shí)別率。而表3中的最后一行,與verification實(shí)驗(yàn)一樣,同樣是進(jìn)行了All VS All的實(shí)驗(yàn),probe中的每幅人臉都同剩余人臉相匹配,確認(rèn)每幅人臉的身份,獲得了高達(dá)98.3%的識(shí)別率。在所有數(shù)據(jù)集的識(shí)別中,All VS All的實(shí)驗(yàn)獲得最高的識(shí)別率,是因?yàn)橐粋€(gè)人可能有多幅人臉被歸類(lèi)在gallery數(shù)據(jù)集中,增大了確認(rèn)身份的機(jī)會(huì)。 表3 identification實(shí)驗(yàn):rank-1的識(shí)別率 4.4 增加迭代次數(shù) 在SA匹配過(guò)程中,通過(guò)限制迭代次數(shù)K減少執(zhí)行時(shí)間,提高執(zhí)行效率。規(guī)定當(dāng)某一解迭代了K=200次后都沒(méi)發(fā)生變化時(shí),結(jié)束匹配過(guò)程,稱該解為最優(yōu)解。但是,究竟迭代次數(shù)對(duì)識(shí)別率有沒(méi)有影響?本文通過(guò)增加迭代次數(shù)K進(jìn)行了相關(guān)實(shí)驗(yàn),希望能夠找出迭代次數(shù)對(duì)識(shí)別率是否有沒(méi)有影響,或者有多大的影響,能夠提高多大幅度的識(shí)別率。在實(shí)驗(yàn)中,為了檢驗(yàn)增加迭代次數(shù)是否能夠提高識(shí)別率,同時(shí)也為了提高效率,并沒(méi)有對(duì)所有的SA識(shí)別過(guò)程都增加K值,而是只有當(dāng)人臉被錯(cuò)誤接受或者錯(cuò)誤拒絕時(shí),才增加K為2 000。 表4展示了增加迭代次數(shù)后,verification實(shí)驗(yàn)和rank-1下identification實(shí)驗(yàn)的識(shí)別率。通過(guò)觀察發(fā)現(xiàn),在SA的搜索過(guò)程中,通過(guò)增加迭代次數(shù)K可以提高識(shí)別率。但是相應(yīng)的,會(huì)增加匹配所需的時(shí)間成本。 表4 增加迭代次數(shù)實(shí)驗(yàn) 以上所有的實(shí)驗(yàn)結(jié)果表明,SIM在三維人臉識(shí)別中是一個(gè)很好的適應(yīng)度函數(shù),不僅對(duì)識(shí)別結(jié)果敏感,還能對(duì)整個(gè)識(shí)別過(guò)程進(jìn)行控制。同時(shí),也驗(yàn)證了分階段進(jìn)行匹配和改進(jìn)方法的健壯性和精準(zhǔn)性。 通過(guò)上面的分析以及實(shí)驗(yàn)結(jié)果可以得出以下結(jié)論:1) SA開(kāi)辟了求解組合優(yōu)化問(wèn)題的新途徑,與其他局部搜索算法(如爬山算法)的最大區(qū)別在于,SA能夠在迭代過(guò)程中接受更糟的解決方案。就是因?yàn)檫@個(gè)不同點(diǎn),SA并不趨向于局部最小,而能夠無(wú)限接近于全局最優(yōu)解。2) 通過(guò)選擇正確的人臉區(qū)域能夠有效克服表情帶來(lái)的影響,提高識(shí)別率。3) 通過(guò)選擇正確的分類(lèi)器能夠提高識(shí)別率。4) 提出的改進(jìn)方法對(duì)帶表情人臉VS不帶表情人臉的匹配獲得高識(shí)別率,但是對(duì)帶表情人臉VS帶表情人臉的匹配無(wú)法獲得良好的效果,仍需進(jìn)一步加強(qiáng)對(duì)人臉表情處理方法的研究。 [1] 琚生根, 周激流, 何坤, 等. 頻域光照歸一化的人臉識(shí)別[J]. 電子科技大學(xué)學(xué)報(bào), 2009, 38(6): 1021-1026. JU Sheng-gen, ZHOU Ji-liu, HE Kun, et al. Face recognition based on illumination normalization in frequency-domain[J]. Journal of University of Electronic Science and Technology of China, 2009, 38(6): 1021-1026. [2] GUNLU G, BILGE H S. 3D face decomposition and region selection against expression variations[J]. Internation Conference on Pattern Recognition, 2010, 323: 2-3. [3] BRONSTEIN A M, BRONSTEIN M M, KIMMEL R. Expression invariant 3D face recognition[C]//Proc Int’l Conf Audio-and Video-Based Biometric Person Authentication. Berlin Heidelberg: Springer, 2003: 62-70. [4] HESHER C, SRIVASTAVA A, ERLEBACHER G. A novel technique for face recognition using range imaging[J]. Proc Int’l Symp Signal Processing and Its Applications. [S.l.]: IEEE, 2003: 201-204. [5] BERRETTI S. 3D face recognition using iso-geodesic stripes[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2010, 32(12): 4-10. [6] WANG Yue-ming, LIU Jian-zhuang. Robust 3D face recognition by local shape difference boosting[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2010, 32(10): 7-9. [7] 王躍明. 表情不變的三維人臉識(shí)別[D]. 杭州: 浙江大學(xué), 2007. WANG Yue-ming. Research on 3D face recognition across expression[D]. Hangzhou: Zhejiang University, 2007. [8] WANG Y, PAN G, WU Z. Exploring facial expression effects in 3D face recognition using partial ICP[C]//Proc Asian Conf Computer Vision. Berlin Heidelberg: Springer, 2006, 3851: 581-590. [9] GIVENS G, BEVERIDEG R, DRAPER B. A statistical assessment of subject factors in the PCA recognition of human faces[C]//Proceedings of the 2003 Conference on Computer Vision Pattern Recognition Workshop (CVPRW’03). [S.l.]: IEEE, 2003. [10] CHANG K I, BOWYER K W. Multiple nose region matching for 3D face recognition under varying facial expression[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2006, 28(10): 3-5. [11] 李永安. 基于幾何信息的三維人臉識(shí)別研究[D]. 蘭州:蘭州大學(xué), 2010。LI Yong-an. 3D face recognition using geometric information[D]. Lanzhou: Lanzhou University, 2010. [12] KIRKPATRICK S, GELATT C D, VECCHI M P. Optimization by simulated annealing science[J]. Science, 1983, 220(4598): 671-680. [13] TORR P, ZISSERMAN A. MLESAC: a new robust estimator with application to estimating image geometry[J]. Computer Vision and Image Understanding, 2000, 78: 138-156. [14] SILVA L, BELLON O R P, BOYER K L. Precision range image registration using a robust surface interpenetration measure and enhanced genetic algorithms[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2005, 27(5): 2-10. [15] KITTLER J, HATEF M, DUIN R, et al. On combining classifiers[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 1998, 20(3): 226-239. 編輯漆 蓉 3D Face Registration on Simulated Annealing Algorithm WANG Xiao-bin, FENG Lu-qiao, and YANG Yuan-jing Based on simulated annealing algorithm, this paper uses depth information to register and recognize 3D faces. The simulated annealing algorithm (SA) with global optimization capability is applied to search the global extremes, the appropriate fitness-maximum likelihood estimation sample consensus (MLESAC) and surface interpenetration measure (SIM) are selected to control the registering process for obtaining the recognition results. Based on ‘coarse to fine’, we use three steps to register the 3D faces and improve the fine alignment stage. By choosing appropriate regions and classifier, we can better respond to the expression. Simulation results show that simulated annealing algorithm can escape from local optimal solution, and converge to the global optimal solution quickly. Furthermore, MLESAC and SIM would help to effectively control the registering process, thus can improve the recognition accuracy. 3D face registration; MLESAC; SA; SIM TP391.4 A doi:10.3969/j.issn.1001-0548.2015.04.018 2013 ? 12 ? 29; 2015 ? 04 ? 28 國(guó)家自然科學(xué)基金(61273308) 王曉斌(1964 ? ),男,博士,教授,主要從事計(jì)算智能方面的研究.2 基于SA的三維人臉匹配
3 精準(zhǔn)匹配的改進(jìn)實(shí)現(xiàn)
4 算法的實(shí)現(xiàn)與測(cè)試
5 結(jié) 論
(School of Computer Science and Engineering, University of Electronic Science and Technology of China Chengdu 611731)