丁園園 鄭 巖 崔倩倩 張翼然
(1.國家知識產權局專利局專利審查協作河南中心,河南 鄭州 450000;2.中國人民解放軍 94353部隊,河南 商丘 476000)
本文所述的基于子圖像方法和稀疏表示的人臉識別算法中測試圖像與訓練圖像匹配的具體過程,以一個人的人臉圖像,2×2劃分圖像的方式,隨機采樣 1次為例,說明了匹配的整個過程。首先,訓練圖像和測試圖像經過LBP預處理轉換為LBP直方圖圖像。然后,對LBP直方圖圖像進行子圖像劃分得到相應的子圖像集,再對這些子圖像集進行隨機采樣得到新的特征子集作為基分類器的輸入。最后,以并聯的方式集成4個SRC分類器,測試圖像最終的分類結果由這4個基分類器多數投票決定。當然,上述過程只是一個簡單的舉例,在實際操作中本文算法對于不同人臉庫中的圖像有不同的子圖像劃分的方式,并且對子圖像集進行了多次的隨機采樣,從而構造出更加具有差異性的基分類器。
為了驗證基于子圖像方法和稀疏表示的人臉識別算法的有效性,本文首先在ORL和Yale兩個規(guī)模較小的人臉數據庫上進行了相關實驗,并對該算法涉及到的各項參數進行了探究;然后在此基礎上與當前的一些人臉識別方法在規(guī)模較大的Extended Yale B和CMU PIE人臉數據庫上進行了對比實驗。
本文僅選取了每個人在5種近似正面姿態(tài)下(C05、C07、C09、C27、C29)的 170 張圖像(除去 存在損 壞的一些圖像)共11554張圖像進行實驗。本文實驗使用的四個人臉數據庫圖像均來自于Cai處理后的數據(www.cad.zju.edu.cn/home/dengcai/)。
對于ORL人臉庫,共包含來自40個人的400張灰度圖像,每人10張不同的圖像,圖像大小為 64×64,經過預處理,得60×60預處理圖像。 對于Yale人臉庫,共包含165張來自15個人的灰度圖像,每人11張不同的圖像,圖像大小為64×64,經過預處理,得 60×60預處理圖像。
圖1 不同采樣率下的識別效果
Ho在實驗中發(fā)現,RSM在特征子集的大小為原始特征集的大小的一半,即采樣率為0.5時集成性能最高[2]。本文也做了相關實驗進行驗證,實驗中,子圖像以6×6的方式進行劃分,共分了36塊,每塊子圖像的尺寸為10×10;隨機選取每個人的5張圖像作為測試圖像,其余作為訓練圖像,采樣率分別設為0.17和0.5,重復10次實驗取識別率的平均值,在ORL人臉庫中的對比結果如圖1(a)所示;隨機選取每個人的7張圖像作為測試圖像,其余作為訓練圖像,采樣率分別設為0.14和0.5,重復10次實驗取識別率的平均值,在Yale人臉庫中的對比結果如圖1(b)所示。從圖中可以看出,大部分采樣次數下,尤其是采樣次數較少只有5次、10次的時候,采樣率為0.5時的識別結果要優(yōu)于其他采樣率的結果。并且隨著采樣次數的增加,識別率會有一個最優(yōu)值,之后會有所下降,并趨于平穩(wěn)。雖然當采樣次數在20次以上時,其他采樣率也能有不錯的效果,但是采樣次數過多會降低系統(tǒng)的性能,尤其是對于圖像比較多的人臉庫,如Extended Yale B人臉庫和CMU PIE人臉庫。因此本文算法中的采樣率被設定為0.5。
針對子圖像塊數的設定問題,本文做了如下實驗,對于ORL和Yale人臉庫,LBP直方圖圖像的子圖像尺寸分別設為 30×30,20×20,12×12,10×10,6×6, 對應的子圖像的塊數分別為 4,9,25,36,100; 采樣次數均為15,采樣率均為 0.5;實驗中,ORL人臉庫中隨機選取每個人的5張圖像作為測試圖像,其余作為訓練圖像,重復10次實驗取識別率的平均值;Yale人臉庫中隨機選取每個人的7張圖像作為測試圖像,其余作為訓練圖像,重復10次實驗取識別率的平均值;實驗結果如圖2所示,不同子圖像塊數下識別率曲線的總體趨勢相同,都是隨著子圖像塊數的增加先上升后下降。這是因為當子圖像塊數較少時對應的子圖像尺寸比較大,隨機采樣提取的特征容易受到局部變化地影響;而當子圖像塊數較多時對應的子圖像尺寸比較小,多次隨機采樣提取的特征容易產生冗余。因此本文對不同的人臉庫的子圖像劃分方式有所不同,具體的可見表 2。
圖2 不同子圖像塊數對應的識別效果
表2 不同數據集的參數設置
表3給出了在ORL和Yale兩個數據集上,POriginal-RS-SRC取得的最好結果,并與文獻[3]中的Semi-RS(包括 PSemi-RS和 HSemi-RS),和文獻[4]中的RS(Random Subspace)、R-QT(Random Quad-Tree)給 出 的結果進行了對比。表3中展示的結果均為重復10次實驗所取得的識別率的平均值。
表3 本文算法與其他方法在ORL和Yale上的識別率對比
從表3中可以看出,本文方法能取得不弱于同類的RS和Semi-RS的效果,針對ORL數據集,本文算法略優(yōu)于其他算法;針對Yale數據集,本文算法能取得的最好的識別效果。
由于Extended Yale B數據集規(guī)模較大,因此實驗過程中使用的采樣次數較小(K=15)。每次實驗隨機選擇一個人的p(p=5,10,20)張圖像作為訓練,剩余的作為測試,重復進行10次實驗,取10次實驗的識別率的平均值作為最后的結果。實驗結果如表4所示,表中給出了POriginal-RS-SRC取得的最好結果,并與文獻[4]中的 RS、R-QT的結果和文獻[5]中各種方法的結果進行了對比。
表4 本文算法與其他方法在Extended Yale B上的識別率對比
從表4中可以看出,傳統(tǒng)的全局特征方法Eigenfaces、Fisherfaces容易受光照等變化的影響,所以在光照變化較大的Extended Yale B上取得的識別效果比較差;而本文算法在p=5,10時的識別率略低于文獻[5]中的Volterrafaces方法,其他情況下都能取得最好的識別效果,說明本文方法對光照變化具有較強的魯棒性。
CMU PIE數據集中的人臉圖像的光照變化幅度要小于Extended Yale B,但同時還存在一定的表情變化。同Extended Yale B數據集一樣,針對CMU PIE,采樣次數。每次實驗隨機選擇一個人的張圖像作為訓練,剩余的作為測試,重復進行10次,取10次實驗識別率的平均值作為最后的結果。實驗結果如表5所示。
從表5中可以看出,由于數據集中的圖像受到光照、表情變化的影響,傳統(tǒng)的全局特征方法Eigenfaces、Fisherfaces取得的識別效果較差;在p=5時由于訓練樣本較少,本文算法的識別效果并不好,識別率低于RQT和Volterrafaces方法。但是在訓練樣本增多p=10時,本文算法可以取得優(yōu)于其他方法的識別率,這說明本文算法對光照和表情變化都有較好的魯棒性。
表5 本文算法與其他方法在CUM PIE上的識別率對比
LBP算子因為模型簡單且能消除光照變化對人臉圖像的影響,因此被用作光照預處理。子圖像方法一方面縮小了特征提取的范圍,降低了圖像局部變化帶來的影響,另一方面從樣本特征角度構建了多分類器系統(tǒng),再結合RSM,增強了基分類器之間的差異性。在特征采樣過程中,使用原始隨機采樣方法對子圖像集進行采樣。在最后的分類器系統(tǒng)設計過程中,由于并聯組合能充分利用基分類器之間的互補性,同時可以通過并行實現提高系統(tǒng)速度,有利于系統(tǒng)的集成,因此本文中分類器采用并聯形式進行組合。
實驗中,在 ORL、Yale、Extended Yale B 和 CMU PIE四個標準人臉數據庫上對本文設計的算法進行了驗證。首先對使用的數據庫所包含的數據進行了說明。然后對實驗參數的設定進行了探討,通過實驗的方式對采樣率的選擇和子圖像劃分方式進行詳細的討論。最后,本文算法與當前的一些人臉識別方法在四個標準人臉數據庫上取得的識別率進行了對比,結果表明本文算法不僅能取得較好的識別效果,而且對于光照、表情變化具有一定的魯棒性。