徐勝超
(廣州華商學院數據科學學院 廣州 511300)
目前應用較為廣泛的生物識別技術通常是語音識別技術和人臉識別技術,尤其是人臉識別技術,最近幾年以來成為專家討論的熱點話題?,F階段人臉識別技術中,多姿態(tài)人臉識別技術仍處于研究初始階段,是一項極其復雜的技術。多姿態(tài)人臉識別是指對人臉特定的多種生理特征進行辨別的一種技術[1~2],廣泛應用在各個領域。其目的是保護隱私,去除人臉特征中肉眼可辨認的固定的信息,由于它具有隱私保護功能,所以要對其進行識別的因素較多。多姿態(tài)人臉識別過程中需要去除能確定前景身份的信息,根據剩余信息判斷前景動作,進而進行身份識別。
對于多姿態(tài)人臉識別,相關學者進行大量研究。例如文獻[3]考慮深度學習,利用輕量級和多姿態(tài)聯(lián)合,在MTCNN 算法(Multitask cascaded convolutional neural network,多任務級聯(lián)卷積神經算法)下進行人臉檢測,最終實現人臉識別。文獻[4]通過長短期記憶網絡尋找人臉關鍵點,并且將其設定為人臉朝向描述子,動態(tài)更新描述子的變化情況。使用增加聚類方法對人體頭部信息進行聚類處理,完成人臉識別。文獻[5]研究優(yōu)化相關人臉識別方法,考慮依戀取向,提出識別人臉面部情緒的優(yōu)化方法,記錄了焦慮組和回避組的事件相關電位?;乇苄鸵缿俚娜嗽趹嵟瓬y試中更準確,而焦慮型依戀的人在快樂測試中更準確。文獻[6]提出基于遺傳特征結合的算術編碼局部二值模式人臉識別,局部二值模式是利用人臉識別算法收集局部特征的嘗試之一。提出的方法是算法編碼LBP(Local Binary Pattern,局部二進制模式),在LBP計算過程中使用算術編碼過程,而不是使用原始閾值。文獻[7]提出面向人臉識別的歸一化Gabor 特征的局部側面流形。由于多尺度卷積和小波的方向性,投影特征在維數上是實質性的。當在實際人臉識別中使用這些特征時,將需要相對較長的分類過程。通過使用稱為局部線性嵌入的流形學習方法,同時橫向和局部地減小Gabor 特征的大小來解決這個問題。因此,該方法被表示為局部橫向歸一化局部Gabor特征向量。
由于上述方法未能對人臉圖像進行去噪處理,導致出現多姿態(tài)人臉結果不準確,識別時間增加的問題。為了解決上述問題,本文提出一種新的多姿態(tài)人臉圖像識別方法,我們的方法創(chuàng)新性是根據結合局部奇異值特性的相關原理作為思路,獲取約束條件的閾值,最后通過實驗驗證了本文方法的實際應用效果。
因為受人體自身以及外界干擾等因素的影響,使多姿態(tài)人臉特征提取具有很大的隨機性,識別方法需要具備合理的控制評估能力,人臉圖像去噪處理能夠對人臉特征進行刻意隱藏和控制評估,而傳統(tǒng)的控制系統(tǒng)通常依靠專家經驗的方法來完成人臉特征識別,不能有效地處理掉身份后不斷變化的不確定性干擾因素,因此無法完成該功能。對于人臉圖像去噪處理過程的隨機變化,通常不能用精確的數據模型來描述。該問題通過小波變換技術解決,通過對去除身份后的人臉圖像特征和改變面部特征進行區(qū)分,然后判斷彼此的關聯(lián)性,并根據上述兩項輸入獲得網絡的輸出,即人臉圖像去噪處理后的變化程度,對于相應的中間轉化部分以及特征遷移部分分析,從而獲得去噪處理的輸出結果。
小波變換能夠精準描述不同目標對象的全部細節(jié)信息,對人臉圖像進行小波交換,再由小波變換得到小波系數,通過小波系數綜合反映出人臉圖像的特征。二進制小波變換是人臉圖像預處理中常用的方法,是指連續(xù)小波變換半離散化狀態(tài)的一種結果,對不同的冪級數具有優(yōu)先性特征[8]。由分析處理結果可知,當冪指數持續(xù)增加時,會引發(fā)比較明顯的變化,因此對二進制小波變換的分析可以起到較好的效果。
當人臉圖像信號如果需要進行二維小波變換時,就必須對不同方向的濾波器進行處理,分別獲取不同子帶圖像。其中人臉圖像進行一層小波變換的結果,如圖1所示。
圖1 人臉圖像一層小波變換示意圖
由圖1 可知,LL、HL、LH、HH 均代表小波交換參數。通過小波包能夠對人臉圖像的高頻部分進行詳細的描述和分析[9~10],人臉圖像一層小波變換具有較強的信息分析能力。
以下詳細給出通過小波包對人臉圖像進行去噪的具體操作步驟[11~12],如圖2所示。
圖2 基于小波包的人臉圖像去噪流程圖
1)人臉圖像的小波分解:輸入人臉圖像,在圖像中隨機選取小波包特征值,確認分解層[13~14]。
2)計算人臉圖像識別最佳樹,根據計算結構得到最佳小波基:結合已經給定的熵準則進行計算,獲取最佳樹。
3)小波分解系數的閾值量化:在最佳樹的基礎上,選擇已經滿足結合局部奇異值特性約束條件的閾值,同時量化處理人臉圖像的高頻系數。
4)小波包重構:重構多姿態(tài)人臉圖像的高低頻系數,得到全新的閾值,實現人臉圖像去噪。在此基礎上,結合局部奇異值特性,繼續(xù)多姿態(tài)人臉識別的后續(xù)步驟。
因為多姿態(tài)人臉圖像通常都是是動態(tài)的[15~16],所以在原始位置上計算出位移的變化,然后將采集的人臉動態(tài)位移作為后續(xù)位置特征輸出的初始值,通過反復的計算,得到準確的人臉自適應閾值。由于人臉自適應閾值受到時間序列的影響,多姿態(tài)人臉的特征點會發(fā)生相應的位移,此時需要依據多姿態(tài)人臉圖像中任意像素點的像素值向量Hab,建立時間序列模型MXC:
式(1)中,Dur(·) 表示曲線擬合函數,完成多姿態(tài)人臉圖像幀數歸一化處理。將根據結合局部奇異值特性的相關原理作為指導思想,獲取人臉自適應閾值。采用下列的表達形式,確定自適應閾值向量的取值范圍,使得:
式(2)中,Rfdf表示動態(tài)序列中未識別的人臉姿態(tài)特征點,Bdd表示在預設人臉圖像中對應特征點[17],然后在待檢測圖像中確定表情定位點的位置,通過公式可表示為
式(3)中,Xjf表示確定多姿態(tài)人臉識別定位點橫坐標,Ydf表示確定多姿態(tài)人臉識別定位點縱坐標,T表示轉置。根據獲取到的多姿態(tài)人臉定位點信息[18],利用結合局部奇異值特性進行多次運算得到多姿態(tài)人臉的梯度矩陣FGB,確定多姿態(tài)人臉圖像中的自適應閾值[19~20],具體公式如下:
式(4)中,λ表示多姿態(tài)人臉圖像中的不匹配向量,同時使用式(3)與式(4)進行反復運算,得到最終的自適應閾值。使用上述計算過程對采集到的位移特征點展開計算,確定多姿態(tài)人臉的動態(tài)特征,完成多姿態(tài)人臉識別。
為了驗證本文所方法的效果及綜合有效性,根據所提出方法進行實驗,實驗所需圖像主要從CMU Multi-PIE人臉數據庫選?。?1]。
以下實驗測試對比三種不同方法的誤識率,在人臉識別的過程中,需要將測試使用的人臉圖像和訓練樣本相同的部分進行統(tǒng)一處理,提取局部和整體的特征向量,誤識率具體的計算公式如下:
式(5)中,‖x‖1代表混合向量的絕對值。利用三種不同方法通過上述公式進行誤碼率對比,結果如表1所示。
表1 誤識率測試結果分析
分析表1 中的實驗數據可知,本文方法的誤識率在三種方法中為最低,其原因是本文方法在未進行人臉識別前,采用小波包對人臉圖像進行去噪處理,一定程度上可以提高識別結果的準確性。
實驗選取3 幅不同的人臉圖像作為測試對象,原圖像如圖3所示。
圖3 算法測試原始圖像
分別采用本文方法、文獻[3]方法、文獻[4]方法進行性能識別,具體的實驗測試步驟如下:
步驟一:首先預處理人臉圖像,主要使用分類器獲取所需人臉圖像信息,建立人臉-姿態(tài)目標矩陣。
步驟二:計算目標矩陣鄰域間最佳識別目標的相似性,且依據目標對多姿態(tài)人臉圖像的契合程度規(guī)劃相近的鄰域集。
步驟三:建立多姿態(tài)人臉圖像識別信息模型,實現識別性能選取,不同方法性能對比結果如圖4所示。
圖4 不同方法的多姿態(tài)人臉識別性能測試結果
分析圖4 中實驗數據可知,本文方法能夠精準識別出人臉的不同姿態(tài)信息,而另外兩種方法只能夠識別局部信息,充分證明本文方法能夠獲取高準確性的識別結果。
人臉圖像被遮擋也會影響人臉識別結果的準確性,以下實驗測試重點分析在人臉遮擋面積不斷上升情況下各個方法的人臉識別率,具體實驗結果如圖5所示。
圖5 不同遮擋率下人臉識別率測試結果
分析圖5 中的實驗數據可知,隨著人臉被遮擋部分持續(xù)增加,各個方法的人臉識別率也開始發(fā)生變化。與文獻[3]方法和文獻[4]相比,本文方法能夠精準識別不同的人臉姿態(tài)信息,充分證明所提方法的優(yōu)越性。
由于不同方法的操作流程不同,導致各個方法進行人臉識別的時間也存在比較明顯的差異,以下實驗測試將人臉識別時間作為測試指標,詳細的實驗對比結果如6所示。
由圖6 中的實驗數據分析,相比文獻[3]方法和文獻[4],本文的人臉識別用時較短,速度明顯更快,同時更證實所提方法能夠以更快的速度完成人臉識別,相同數據識別量情況下的不同方法所用的不同識別時間可準確反映識別效率的高低,識別效率是概括人看識別可靠性的重要指標之一。
圖6 人臉識別時間序列測試結果
通過上述研究得到如下結論:1)本文多姿態(tài)人臉識別方法的誤識率平均為0.015;2)能夠精準識別出不同姿態(tài)信息,且識別率較高;3)本文提出方法識別時間較短,具有較好的效果。
由于研究時間有限,本文方法仍然存在不足,后續(xù)將對其展開更加深入地研究:1)未來可以加強多姿態(tài)人臉圖像預處理工作,為獲取更好的識別結果做準備。2)需要深入研究人臉圖像微表情識,避免微表情識別混淆問題,下一步工作重點可以就加強對人臉表情進行深入研究。