矯慧文,狄 嵐,梁久禎
1(江南大學(xué) 人工智能與計(jì)算機(jī)學(xué)院,無錫 214122)
2(常州大學(xué) 信息科學(xué)與工程學(xué)院,常州 213164)
E-mail :18861824997@163.com
隨著計(jì)算機(jī)硬件技術(shù)革新以及軟件技術(shù)的發(fā)展,人臉鑒別逐漸應(yīng)用在經(jīng)濟(jì)工程、社會安全等不同領(lǐng)域.基于深度學(xué)習(xí)的人臉鑒別算法[1-3]雖然識別率高,但它依賴于需要大量的數(shù)據(jù)樣本、高昂的硬件設(shè)備以及長達(dá)數(shù)天的訓(xùn)練時(shí)間.與其相比,基于稀疏表示的人臉鑒別訓(xùn)練簡單、對于噪聲有較強(qiáng)魯棒性,近年來引起國內(nèi)外學(xué)者廣泛關(guān)注.
2009年,J.Wrigh等人[4]提出基于稀疏表示的分類(Sparse Representation Based Classification,SRC).該算法基于光照模型,假設(shè)任一測試樣本都可由該類訓(xùn)練樣本集重構(gòu)表示,通過選取最小重構(gòu)誤差進(jìn)行分類,第一次將稀疏表示算法引入到人臉鑒別領(lǐng)域.而后,眾多學(xué)者在SRC基礎(chǔ)上提出改進(jìn)算法.Zhang等人[5]將SRC算法中l(wèi)1-norm約束項(xiàng)改為l2-norm,提出CRC算法,在保證識別率的同時(shí)降低了求解稀疏編碼的復(fù)雜度,使算法運(yùn)行速度明顯提升.Aharon等人[6]依據(jù)誤差最小原則,泛化 K-means 聚類,提出 K-SVD 算法,對誤差項(xiàng)進(jìn)行 SVD 分解.
以上幾種算法中的字典均由訓(xùn)練數(shù)據(jù)直接構(gòu)成,具有字典辨別性不足且對噪聲較為敏感的缺點(diǎn).針對字典辨別性,Sprechmann等人[7]提出鑒別子字典思想,利用稀疏編碼為每類數(shù)據(jù)構(gòu)造對應(yīng)的子字典.Jiang 等人[8]將標(biāo)簽一致性約束添加到 K-SVD 算法中,提升字典的辨別力.
針對編碼辨別性,Yang等人[9]以Fisher準(zhǔn)則為模型,提出FDDL算法,增強(qiáng)字典原子與訓(xùn)練標(biāo)簽之間的關(guān)聯(lián)性,約束稀疏編碼類間方差大、類內(nèi)方差小.2014年,Cai等人[10]提出SVGDL算法,自適應(yīng)地確定每個(gè)編碼向量對的權(quán)重,在訓(xùn)練樣本不充分時(shí)可以取得較好的分類效果.2018年,Zhou等人[11]提出新樣本擴(kuò)充方法,Li等人[12]將核方法引入?yún)f(xié)同近鄰算法,增強(qiáng)稀疏編碼的分類能力.
鑒別子字典雖然能有效提取類別之間的特殊性和差異性,但未考慮到不同類別之間的共性.2018年,Wang等人[13]提出顯著特征提取并構(gòu)造共享字典,Li等人[14]提出CSICVDL算法,利用輔助數(shù)據(jù)構(gòu)造類內(nèi)字典,捕捉不同類別間的相同特征.
考慮到少樣本訓(xùn)練情況,本文借鑒子字典思想和共享字典思想,提出一種新的混合字典學(xué)習(xí)模型,提取類別差異特征和類內(nèi)共性特征.算法共分為兩部分:
1)提出基于拉普拉斯矩陣與費(fèi)舍爾判別準(zhǔn)則的類別字典學(xué)習(xí)算法,保留稀疏編碼數(shù)據(jù)相似性的同時(shí)減小類內(nèi)編碼離散度,增大類間編碼離散度,擴(kuò)大不同類別的信息差異,提高字典和稀疏編碼的辨別性.
2)提出類內(nèi)差異字典算法,捕捉不同類別的相同特征,在保留數(shù)據(jù)共性特征的基礎(chǔ)上增強(qiáng)算法對測試樣本存在光照、遮擋變化等情況時(shí)的鑒別能力.最后,為驗(yàn)證模型各部分的有效性,將本文模型分為4個(gè)方案,分別在AR、CMU-PIE、LFW等人臉庫上進(jìn)行實(shí)驗(yàn).
給定訓(xùn)練樣本集A:
A={A1,A2,…,AK}∈Rm×N
測試樣本集Y:
Y={Y1,Y2,…,YK}∈Rm×N1
對于測試集Y,稀疏表示的目的是通過一個(gè)合適的字典D尋找能表達(dá)Y的稀疏編碼X,算法模型如下:
模型分為重構(gòu)誤差項(xiàng)與正則項(xiàng)兩部分,優(yōu)化正則項(xiàng)可參照LASSO[15]問題.正則化參數(shù)λ>0平衡兩項(xiàng)之間關(guān)系.大量研究人員針對求解稀疏編碼X提出許多快速求解算法,主要分為貪婪算法(如正交匹配追蹤[16]、子空間追蹤[17])和凸松弛算法(如梯度投影稀疏重構(gòu)法[18])兩類.
拉普拉斯矩陣[19]是基于圖論的矩陣,為了更好的把稀疏表示轉(zhuǎn)換為圖論問題,假定無向圖G={V,E},頂點(diǎn)集V表示各個(gè)樣本,帶權(quán)的邊表示樣本編碼之間的相似度.
wqr表示頂點(diǎn)q、r之間的權(quán)值,根據(jù)相互k近鄰原則[20],權(quán)值公式如下:
其中,xq∈Nk(xr)表示xq是xr的k近鄰,σ是內(nèi)核的帶寬參數(shù).
定義鄰接矩陣W=(wqr),與某頂點(diǎn)鄰接的所有邊的權(quán)值和uq表示為:
多個(gè)u形成度矩陣:
U=diag(∑q≠rwqr)
最終拉普拉斯矩陣Δ定義如下:Δ=U-W
費(fèi)舍爾判別準(zhǔn)則的思想是將樣本投影到合適的投影軸,使同類樣本投影點(diǎn)的距離盡可能小,異類樣本投影點(diǎn)的距離盡可能大.
對于稀疏編碼X,定義u0表示所有稀疏系數(shù)的中心.ui表示各類稀疏編碼均值向量:
類內(nèi)散度矩陣Sw(X)、類間散度矩陣SB(X)可定義為:
本文提出一種新的稀疏混合字典學(xué)習(xí)分類方法,利用訓(xùn)練數(shù)據(jù)構(gòu)造類別特色字典,利用輔助數(shù)據(jù)構(gòu)造類內(nèi)差異字典,采用分步優(yōu)化方法求解.
3.1.1 類別特色字典模型
對于訓(xùn)練集A和測試集Y,習(xí)得由K個(gè)子字典組成的字典D:D={D1,D2,…,DK}.
根據(jù)拉普拉斯矩陣與費(fèi)舍爾判別準(zhǔn)則,提出類別特色字典模型如下:
(1)
模型分為重構(gòu)誤差項(xiàng)、稀疏保證項(xiàng)和判別系數(shù)項(xiàng)三部分.下面依次論述模型每一項(xiàng)原理.
g(A,D,X)表示重構(gòu)誤差項(xiàng),該項(xiàng)保證字典的識別力.本文以SRC重構(gòu)誤差項(xiàng)為基礎(chǔ),借鑒子字典思想,加入子字典重構(gòu)項(xiàng),最終公式如下:
其中Xi是Ai被D重構(gòu)的稀疏編碼,Xii是Ai被Di重構(gòu)的稀疏編碼.
‖X‖21表示稀疏保證項(xiàng),該項(xiàng)確保編碼的稀疏性,‖.‖21表示l1/2-norm.
f(X,D)表示判別系數(shù)項(xiàng),該項(xiàng)確保編碼的識別力.
以拉普拉斯矩陣和費(fèi)舍爾準(zhǔn)則為思想基礎(chǔ),在為稀疏編碼添加兩項(xiàng)約束,使稀疏編碼在保留數(shù)據(jù)相似度信息的同時(shí),擴(kuò)大類間離散度,縮小類內(nèi)離散度,增強(qiáng)稀疏編碼的辨別性.
f(X,D)最終公式如下:
方案1,單添加字典約束項(xiàng)擴(kuò)大子空間多樣性,作為基礎(chǔ)對照項(xiàng):
方案2,添加費(fèi)舍爾準(zhǔn)則約束與字典約束項(xiàng).將稀疏編碼映射到到子空間,使稀疏編碼在此空間的投影類間離散度盡可能大,類內(nèi)離散度盡可能?。?/p>
方案3,添加拉普拉斯矩陣約束與字典約束項(xiàng).結(jié)合圖論思想,將稀疏編碼構(gòu)造成圖G,每一個(gè)節(jié)點(diǎn)對應(yīng)一個(gè)編碼數(shù)據(jù)點(diǎn),將各個(gè)點(diǎn)連接起來,利用邊的權(quán)重表示稀疏編碼之間的相似性.將圖以鄰接矩陣W的形式表示,構(gòu)造度矩陣U,拉普拉斯矩陣Δ=U-W,為稀疏編碼添加拉普拉斯約束項(xiàng),保留數(shù)據(jù)相似度信息:
方案4,結(jié)合方案2和方案3,添加費(fèi)舍爾準(zhǔn)則約束、拉普拉斯矩陣約束與字典約束項(xiàng):
優(yōu)化時(shí)默認(rèn)采用方案4,目標(biāo)函數(shù)(1)的完整形式為:
(2)
3.1.2 類別特色字典優(yōu)化
公式(2)為非凸函數(shù),優(yōu)化步驟如下:
第1步,初始化字典D;
將訓(xùn)練數(shù)據(jù)A={A1,A2,…,AK}的特征向量初始化為字典的原子,對字典D的每一類歸一化,使其l2范數(shù)為1.
第2步,固定字典D,更新稀疏系數(shù)X;
目標(biāo)函數(shù)轉(zhuǎn)化為:
(3)
其中Xi∈RN×ni的求解通過文獻(xiàn)[21]中的方法,γ=λ1/2.
第3步,固定稀疏系數(shù)X,更新字典D;
本文采用逐個(gè)更新的方法更新字典D,即當(dāng)更新第j個(gè)子字典時(shí),默認(rèn)其他子字典Dj(i≠j)已更新完畢.
目標(biāo)函數(shù)可轉(zhuǎn)化為:
(4)
第4步,重復(fù)步驟2和步驟3,直到前后兩次的函數(shù)Q的值達(dá)到閾值或者達(dá)到最大迭代次數(shù)為止.
類別特色字典算法總體實(shí)現(xiàn)步驟如下:
算法1.類別特色字典優(yōu)化算法
輸入:訓(xùn)練樣本N,規(guī)范化參數(shù)γ
輸出:字典D和稀疏系數(shù)X及相應(yīng)的標(biāo)簽
Step1.初始化字典D
Step2.固定字典D,更新稀疏系數(shù)X
初始化字典后,利用公式(3)依次求解
Step3.固定稀疏系數(shù),更新字典:
利用公式(4)依次更新
Step4.重復(fù)Step2和Step3,直到前后兩次的函數(shù)的值達(dá)到閾值或者達(dá)到最大迭代次數(shù)為止.
3.2.1 類內(nèi)差異字典模型
在人臉鑒別中,傳統(tǒng)方法往往致力于在提取特征時(shí)擴(kuò)大類別之間的差異,摒棄類別之間相同的特征.但在同一表情變化或同一遮擋、光照等情況下,不同類別之間往往存在相似的變化特征.如表情識別中的表情特征,提取此類變化特征隱含的相關(guān)性信息,有助于提高復(fù)雜環(huán)境下的鑒別精度.換句話說,類內(nèi)差異字典模型基于不同類別間的特征變化存在相關(guān)性這一假設(shè),構(gòu)建類內(nèi)字典以捕獲訓(xùn)練和測試數(shù)據(jù)之間的可能變化.
圖1 類內(nèi)差異字典訓(xùn)練數(shù)據(jù)
如圖1所示,假設(shè)共有k類數(shù)據(jù)訓(xùn)練類內(nèi)差異字典,標(biāo)準(zhǔn)數(shù)據(jù)為:
N={N1,N2,…,Nk},Ni∈Rm×li
變化數(shù)據(jù)為:
X={X1,X2,…,Xk},Xi[xi1,xi2,…,xini]
標(biāo)準(zhǔn)數(shù)據(jù)與變化數(shù)據(jù)共稱為輔助數(shù)據(jù)C.定義目標(biāo)函數(shù)如下:
(5)
其中DS∈Rm×r為類內(nèi)差異字典,αi∈Rni×1為標(biāo)準(zhǔn)無變化數(shù)據(jù)的稀疏系數(shù),βi∈Rr×1為被DS重構(gòu)的稀疏系數(shù).
3.2.2 類內(nèi)差異字典優(yōu)化
公式(5)為非凸函數(shù),優(yōu)化步驟如下:
第1步,初始化字典DS
其中,Mi為第i類標(biāo)準(zhǔn)數(shù)據(jù)的中心,本文取該類數(shù)據(jù)的平均向量,Ini=[1,1,…,1]∈R1×ni.
第2步,固定字典DS,更新稀疏系數(shù)αi,βi
目標(biāo)函數(shù)轉(zhuǎn)換為:
(6)
其中Di=[Ni,DS],ri=[αi,βi],本文采用文獻(xiàn)[22]方法求解上述公式.
第3步,固定稀疏系數(shù)αi,βi,字典DS
目標(biāo)函數(shù)轉(zhuǎn)換為:
假設(shè):
目標(biāo)函數(shù)轉(zhuǎn)換為:
當(dāng)更新字典原子dj時(shí),假設(shè)其余的原子已更新完畢,因此有:
設(shè)Y=R-∑i≠jdiβ(i,:),采用拉格朗日乘子法,目標(biāo)函數(shù)轉(zhuǎn)換為:
di=Yβ(j,:)T(β(j,:)β(j,:)T-γ)-1
(7)
將得到的dj規(guī)范化:
dj=Yβ(j,:)T/‖Yβ(j,:)T‖2
第4步,重復(fù)步驟2和步驟3,直到前后兩次的函數(shù)Q的值達(dá)到閾值或者達(dá)到最大迭代次數(shù)為止.
類內(nèi)差異字典算法總體實(shí)現(xiàn)步驟如下:
算法2.類別特征字典優(yōu)化算法
輸入:標(biāo)準(zhǔn)數(shù)據(jù)N,變化數(shù)據(jù)X,規(guī)范化參數(shù)γ
輸出:字典DS
Step1.初始化字典DS
Step2.固定字典DS,更新稀疏系數(shù)αi,βi:
初始化字典DS后,利用公式(6)依次求解αi,βi,i=1,2,…,N
Step3.固定稀疏系數(shù)αi,βi,更新字典DS:
利用公式(7)依次更新dj,j=1,2,…,r
Step4.重復(fù)Step2和Step3,直到前后兩次的函數(shù)Q的值達(dá)到閾值或者達(dá)到最大迭代次數(shù)為止.
本文提出全局分類策略如下:
y由第i類字典Di重構(gòu)的誤差為:
(8)
于是y的標(biāo)簽為:
identify(y)=argmini{ei}
(9)
算法3.稀疏混合字典學(xué)習(xí)的分類
輸入:訓(xùn)練數(shù)據(jù)A,輔助數(shù)據(jù)C,測試數(shù)據(jù)Y,參數(shù)λ1,λ2,w
輸出:分類標(biāo)簽
Step1.利用訓(xùn)練數(shù)據(jù)A及算法1習(xí)得類別特色字典D、稀疏編碼X
Step2.利用輔助數(shù)據(jù)C及算法2習(xí)得類內(nèi)差異字典DS
Step3.利用公式(8)、公式(9)得到樣本標(biāo)簽
本文算法流程圖如圖2所示,利用訓(xùn)練數(shù)據(jù)構(gòu)造類別特色字典,獲得類別特色字典D、稀疏編碼X;利用輔助數(shù)據(jù)構(gòu)造類內(nèi)差異字典,獲得類內(nèi)差異字典DS.對于測試樣本y,將字典D、編碼X、字典DS送入分類器,得出樣本標(biāo)簽.
圖2 算法流程圖
本文實(shí)驗(yàn)環(huán)境為64位Window 10操作系統(tǒng),內(nèi)存32GB,Intel(R) Xeon(R) CPU E5-2620 v4 @ 2.10GHz,并用MatlabR2016b軟件編程實(shí)現(xiàn).
實(shí)驗(yàn)圖像都經(jīng)過標(biāo)準(zhǔn)化處理,共選取CMU-PIE[23]人臉數(shù)據(jù)庫、AR人臉數(shù)據(jù)庫[24]、LFW人臉數(shù)據(jù)庫進(jìn)行實(shí)驗(yàn),比較算法包括:SRC ,F(xiàn)DDL,CRC,SVGDL和CSICVDL.
本文隨機(jī)選取AR人臉數(shù)據(jù)庫100人進(jìn)行實(shí)驗(yàn),每人圖片分為5個(gè)集合,如圖3所示,將其中沒有光照表情變化的兩張人臉作為訓(xùn)練圖片,其余的分為4個(gè)集合分別作為測試圖片.
圖3 AR人臉數(shù)據(jù)庫樣本
集合S1為包含表情變化的測試數(shù)據(jù);集合S2為包含光照變化的測試數(shù)據(jù);集合S3眼鏡遮擋的測試數(shù)據(jù);集合S4為圍巾遮擋的測試數(shù)據(jù).
實(shí)驗(yàn)選取80個(gè)人作為訓(xùn)練集和測試集,其余20個(gè)人用于訓(xùn)練類內(nèi)差異字典,每張圖片下采樣為60×80,并采用PCA[18]將樣本數(shù)據(jù)降為160維.各算法在AR數(shù)據(jù)庫的識別率如表1所示.
表1 算法在AR庫上的實(shí)驗(yàn)結(jié)果(%)
Table 1 Accuracy(%) of different methods on Experiment1 of AR database
算法S1S2S3S4CRC78.9691.8672.5054.38SRC84.3861.466.2541.88FDDL85.2180.6530.3250.31SVGDL82.9092.5025.0051.80CSSVDL92.9099.3883.7593.75方案193.7598.7588.7590.63方案295.0098.7591.2591.25方案394.3899.3889.3893.75方案495.0099.3891.8894.38
從表1可知,在不同集合下方案4取得最好的分類結(jié)果.方案3適宜測試樣本存在光照變化、墨鏡遮擋的情況,方案2性能較穩(wěn)定,且在測試樣本存在表情變化、圍巾遮擋時(shí)表現(xiàn)良好.CSICVDL、本文算法識別率高于FDDL,說明了學(xué)習(xí)類內(nèi)差異字典的必要性.
實(shí)驗(yàn)選取CMU-PIE數(shù)據(jù)庫68個(gè)人,每人70張圖片共4760張圖片進(jìn)行實(shí)驗(yàn).將每人的70張圖片分為4個(gè)集合,訓(xùn)練樣本為2張姿態(tài)正面、光照正常圖片,測試樣本分為4個(gè)集合.
圖4 CMU-PIE人臉數(shù)據(jù)庫樣本
如圖4所示,S1為10張轉(zhuǎn)向圖片,S2為38張正面包含部分光照和遮擋變化圖片,S3為10張低頭圖片,S4為10張?zhí)ь^圖片.實(shí)驗(yàn)選取18個(gè)人作為輔助數(shù)據(jù),剩余的50人用于訓(xùn)練和測試,圖片采用PCA降維,實(shí)驗(yàn)結(jié)果如表2所示.
表2 算法在CMU-PIE庫上的實(shí)驗(yàn)結(jié)果(%)
Table 2 Accuracy(%) of different methods on experiment1 of CMU-PIE database
算法S1S2S3S4CRC46.8390.4068.0060.54SRC16.6994.3343.7534.48FDDL68.8095.2542.1034.21SVGDL59.2093.8563.8057.40CSSVDL73.8694.9585.3374.14方案172.2094.3587.8583.75方案271.8095.5889.4084.60方案372.2595.5088.8084.15方案478.2095.6089.4084.60
從表2可知,在各集合下方案四皆取得最優(yōu)分類效果.對集合S2~S4,本文算法分類準(zhǔn)確率較高,對于集合S1,各算法分類準(zhǔn)確率較低,初步推測是由于轉(zhuǎn)向圖片丟失重要信息導(dǎo)致.
本文選取非受限人臉數(shù)據(jù)庫LFW進(jìn)行實(shí)驗(yàn),利用3d校正補(bǔ)齊因轉(zhuǎn)向、遮擋而缺失的特征信息.選取單人圖片數(shù)量大于10張的139人作為實(shí)驗(yàn)數(shù)據(jù).每人10張圖片進(jìn)行實(shí)驗(yàn),5張圖片作為訓(xùn)練樣本,其余為測試樣本.
圖5表示其中一人的訓(xùn)練樣本和測試樣本.為驗(yàn)證類內(nèi)差異字典對算法影響,實(shí)驗(yàn)隨機(jī)挑選19、39、59、79個(gè)人作為輔助數(shù)據(jù),分別作為S1、S2、S3、S4四種集合,其余用于訓(xùn)練和測試,與基礎(chǔ)FDDL算法、包含輔助字典的CSSVDL算法進(jìn)行對比,各算法在各集合上的識別率如表3所示.
表3 算法在LFW庫上的實(shí)驗(yàn)結(jié)果(%)
Table 3 Accuracy(%) of different methods on Experiment1 of LFW database
算法S1S2S3S4FDDL83.6083.8368.7585.00CSSVDL84.5085.3384.1485.67方案184.6385.2057.3386.67方案284.6785.4086.2587.33方案384.6785.8084.6786.33方案484.8385.4086.7587.33
從表3可知,隨著構(gòu)筑類內(nèi)差異字典的輔助數(shù)據(jù)增加,算法的識別率增加.在非受限人臉數(shù)據(jù)庫上,方案四分類效果最優(yōu),而方案1對數(shù)據(jù)依賴性強(qiáng),性能不穩(wěn)定.
4.5.1 參數(shù)分析
經(jīng)實(shí)驗(yàn)可知,在四個(gè)方案中,方案四穩(wěn)定性和識別率皆優(yōu)于其余方案,故以方案四作為本文算法.為進(jìn)一步驗(yàn)證算法的魯棒性,在此章節(jié)中分析各參數(shù)對于分類準(zhǔn)確性的影響.
實(shí)驗(yàn)選取AR人臉數(shù)據(jù)庫中100人作為實(shí)驗(yàn)數(shù)據(jù),隨機(jī)選取80個(gè)人用于訓(xùn)練和測試,20個(gè)人用于構(gòu)筑輔助數(shù)據(jù).如圖6所示,訓(xùn)練樣本選取每人2張正常光照和表情圖片,測試樣本選取每人5張包含表情、光照變化圖片.
圖6 參數(shù)分析樣本
1)維數(shù)對準(zhǔn)確率的影響.
為探究數(shù)據(jù)維數(shù)對準(zhǔn)確率的影響性,我們?nèi)≡?20×165圖片和下采樣60×80、30×40圖片進(jìn)行實(shí)驗(yàn),分別將用降維至100、150、200、250、300、350、400、450、500.實(shí)驗(yàn)結(jié)果如圖7所示.
圖7 維數(shù)對AR數(shù)據(jù)庫的影響
從圖7可以看出,隨著采樣分辨率的提高,本文算法對于人臉圖片的整體辨別準(zhǔn)確性增強(qiáng).隨著PCA降維維數(shù)的增加,各分辨率情況下算法的分類準(zhǔn)確性先增加再減少.在30×40、60×80兩種分辨率的情況下,本文算法在降維維數(shù)為300維時(shí)識別準(zhǔn)確率最高,而在120×165的分辨率的情況下,本文算法在降維維數(shù)為250維時(shí)識別準(zhǔn)確率最高.
2)權(quán)重對準(zhǔn)確率的影響
對于2.3節(jié)分類策略中的公式(8),為探究權(quán)重w對準(zhǔn)確率的影響性,取下采樣30×40圖片進(jìn)行實(shí)驗(yàn),分別使用PCA降維至100、200、300、400、500維,權(quán)重w分別取0.1、0.2、0.3、0.4、0.5、0.6、0.7、0.8、0.9,實(shí)驗(yàn)結(jié)果如圖8所示.
從圖8可以看出,隨著PCA降維維數(shù)的增加,本文算法的識別準(zhǔn)確率增強(qiáng).不同維數(shù)情況下本文算法的識別率隨權(quán)重變化的大體趨勢相同,在權(quán)重取值為0.1~0.5時(shí),準(zhǔn)確率隨權(quán)重的增加而增加,取值為0.5~0.9時(shí),本文算法的準(zhǔn)確率趨于穩(wěn)定.
3)參數(shù)λ1、λ2對準(zhǔn)確率的影響
本文提出的稀疏混合字典學(xué)習(xí)的人臉鑒別方法共需設(shè)置兩個(gè)約束參數(shù),根據(jù)文獻(xiàn)[14]通過5倍驗(yàn)證評估參數(shù)λ1、λ2.根據(jù)前人經(jīng)驗(yàn),設(shè)定驗(yàn)證小集為{0.1,0.05,0.01,0.005,0.001}.
圖8 權(quán)重對AR數(shù)據(jù)庫的影響
為探究參數(shù)λ1、λ2對準(zhǔn)確率的影響性,我們?nèi)∠虏蓸?0×40圖片進(jìn)行實(shí)驗(yàn),分別使用PCA降維至100、200、300、400、500維.圖9和圖10為λ1、λ2、取0.001、0.005、0.01、0.05、0.1時(shí)對實(shí)驗(yàn)準(zhǔn)確率的影響.
圖9 λ1對AR數(shù)據(jù)庫的影響
從圖9和圖10可以看出,不同維數(shù)情況下本文算法的識別率隨λ1、λ2取值變化而變化的大體趨勢相同,其中λ1、λ2取值為0.05時(shí)準(zhǔn)確率最高.
圖10 λ2對AR數(shù)據(jù)庫的影響
4.5.2 算法評價(jià)
1)復(fù)雜度分析
本文算法復(fù)雜度分為更新稀疏編碼和更新字典兩方面計(jì)算.
設(shè)訓(xùn)練樣本個(gè)數(shù)為n,樣本特征維數(shù)為q,根據(jù)文獻(xiàn)[25],更新稀疏系數(shù)的時(shí)間復(fù)雜度為nΟ(q2nr),其中,r≥1.2為常數(shù).
更新字典的時(shí)間復(fù)雜度為∑jnjΟ(2nq),其中,nj表示Di的原子個(gè)數(shù).
因此,本文算法總復(fù)雜度為:
nΟ(q2nr)+∑jnjΟ(2nq)
2)多元分類評估
在實(shí)際二元分類問題中,預(yù)測值和實(shí)際值會出現(xiàn)四種情況:真正例(True Positive,TP)、假正例(False Positive,F(xiàn)P)、假負(fù)例(False Negative,F(xiàn)N)、真負(fù)例(True Negative,TN).除準(zhǔn)確率(accuracy)外,常見分類評估指標(biāo)還有精確率(Precision,P)、召回率(Recall,R)以及綜合評價(jià)指標(biāo)(F1 measure,F(xiàn))等.
在多元分類評估中,宏平均(Macro-averaging)計(jì)算公式如下:
隨機(jī)選取經(jīng)3d校正后的LFW人臉數(shù)據(jù)庫120人進(jìn)行實(shí)驗(yàn),每人10張圖片,5張圖片作為訓(xùn)練樣本,其余為測試樣本.
表4 算法在LFW庫上的實(shí)驗(yàn)結(jié)果(%)
Table 4 Experimental results(%) of the algorithm on LFW database
算法macro_Pmacro_Rmacro_FCRC71.9668.6767.05SRC83.0781.0080.51FDDL87.1885.1784.73SVGDL82.8979.0077.59CSSVDL84.6785.8084.67本文84.8385.4086.75
從表4、圖11看出,本文算法在宏平均下精確率、F1指標(biāo)優(yōu)于其他算法,本文ROC曲線左凸于其他曲線,分類效果更好.
圖11 ROC曲線
綜合子字典思想和共享字典思想,本文提出稀疏混合字典模型,并綜合拉普拉斯矩陣與費(fèi)舍爾判別準(zhǔn)則,提出基于拉普拉斯矩陣與費(fèi)舍爾判別準(zhǔn)則的類別字典學(xué)習(xí)算法.將公式分為四個(gè)方案分別在AR、CMU-PIE、LFW等人臉庫上進(jìn)行實(shí)驗(yàn).實(shí)驗(yàn)表明,在小樣本訓(xùn)練情境下,即使測試樣本與訓(xùn)練樣本存在較大差異如表情變化、遮擋等,本文仍能保持較好的性能.在實(shí)際應(yīng)用中還需進(jìn)一步探討算法對訓(xùn)練樣本的依賴性以及算法的穩(wěn)定性.