文/張伊喬 黃麗蓮 周賞
人臉識(shí)別技術(shù)具有非接觸性和不易復(fù)制性,使其廣泛應(yīng)用于身份鑒定和人機(jī)交互方面。其中人臉特征描述與像素級(jí)人臉特征提取的方法成為人臉識(shí)別算法的兩項(xiàng)重要內(nèi)容。人臉特征描述的方法主要有局部二值模式(Local Binary Pattern,LBP)、Gabor 變換、方向梯度直方圖法(Histogram of Oriented Gradient,HOG)。LBP 所具有旋轉(zhuǎn)不變性使其在人臉圖像的表達(dá)中復(fù)雜度較高,因而此模式識(shí)別速度受到較大影響。Gabor 變換在分析人臉圖像時(shí)會(huì)使特征向量具有很高的維度,影響分類(lèi)效率。在人臉圖像中,HOG 能夠描述其輪廓信息。子空間方法用于提取基于像素的人臉特征。其主要方法包括主成分分析法(Principal Component Analysis,PCA)、獨(dú)立成分分析法(Independent Component Analysis,ICA)、線(xiàn) 性判別法(Linear Discriminant Analysis,LDA)等。PCA 可以將高維圖像通過(guò)主要特征進(jìn)行有效降維,減弱了圖像像素與特征維度之間的關(guān)聯(lián)程度。但是由于非均勻光照、表情姿態(tài)及局部遮擋等干擾因素,其算法性能?chē)?yán)重下降。ICA認(rèn)為觀測(cè)信號(hào)是被線(xiàn)性耦合到若干個(gè)解混過(guò)程復(fù)雜的獨(dú)立分量上,且識(shí)別速度較慢。通過(guò)利用Fisher 鑒別準(zhǔn)則函數(shù),LDA 求解得到一組空間變換關(guān)系,其類(lèi)內(nèi)與類(lèi)間散布比值最大,但采用LDA 處理人臉高維信息時(shí)的識(shí)別率偏低。
很多情況下因?yàn)楣庹兆兓鸬膱D像變化要比因?yàn)椴煌矸菀鸬膱D像變化更為顯著,因此光照變化問(wèn)題是基于灰度圖像的三維目標(biāo)識(shí)別中難度最大的問(wèn)題。目前非均勻光照處理方法主要照明錐法、球諧函數(shù)子空間法和自商圖像法(Self Quotient Image,SQI)。照 明錐法通過(guò)改變光源方向生成任意光源下的虛擬圖像,但重建人臉圖像特征性不強(qiáng),不利于廣范圍的人臉識(shí)別。球諧函數(shù)法是利用9 個(gè)球面諧波基圖像張成的子空間表示任意光照下勃朗凹表面的圖像,光照處理效果較好。但在識(shí)別過(guò)程中增加識(shí)別對(duì)象,延長(zhǎng)識(shí)別時(shí)間。自商圖像法利用原圖像與高斯濾波圖像的逐點(diǎn)除法運(yùn)算,能夠有效勾勒出圖像的邊緣信息,并且統(tǒng)一圖像明暗程度。
以上傳統(tǒng)的特征提取技術(shù)所提取的人臉圖像特征判別性不強(qiáng),且特征的表達(dá)方式中介入了較多主觀因素,特征提取的結(jié)果更多的是依賴(lài)于人工選擇。2006年深度學(xué)習(xí)(Deep Learning)的概念被Hinton 首次提出,它模擬大腦的學(xué)習(xí)過(guò)程,組合低層特征以形成更為有效的高層表示。作為一種典型的深度學(xué)習(xí)方法,深度信念網(wǎng)絡(luò)(Deep Belief Network,DBN)采用自下而上的方法來(lái)自動(dòng)學(xué)習(xí)不同層次的抽象特征,進(jìn)一步得到特征的非線(xiàn)性描述,是一種自動(dòng)提取不依賴(lài)于人為的特征的過(guò)程。但是以像素級(jí)的人臉特征作為深度信念網(wǎng)絡(luò)的輸入,深度信念網(wǎng)絡(luò)會(huì)因光照、姿態(tài)及遮擋等因素,學(xué)習(xí)到不利的特征表達(dá),并且識(shí)別速度緩慢。
本文使用主成分分析法將自商圖處理的人臉圖像降維至低維子空間,并且作為深度信念網(wǎng)絡(luò)的輸入,自下而上,層層學(xué)習(xí)更抽象的人臉特征,并在頂層進(jìn)行分類(lèi)。經(jīng)驗(yàn)證,本文算法比傳統(tǒng)算法PCA 和LBP 等更能提取與表征判別性高的人臉圖像特征信息。在具有遮擋性人臉庫(kù)進(jìn)行識(shí)別的時(shí)候,采用遮擋分割法識(shí)別出每個(gè)子塊的所屬類(lèi)別,根據(jù)遮擋權(quán)值得到最終識(shí)別率。本文設(shè)計(jì)算法不僅在ORL、Yale、Yale-B、及AR 人臉庫(kù)具有較高的識(shí)別率,也顯著的縮短了識(shí)別時(shí)間。
自商圖像定義為輸入圖像與其平滑圖像之比。自商圖像定義為:
為了保存反射率信息,并且降低在階梯性邊緣附近的光暈效應(yīng),使用閾值τ 將卷積區(qū)域分為兩個(gè)子區(qū)域M1和M2,并對(duì)權(quán)值Q 賦值。計(jì)算公式為:
若在卷積區(qū)域內(nèi)存在邊緣,那么閾值將沿著邊緣將局部圖像分成M1和M2兩個(gè)部分,其中區(qū)域M1有更多像素點(diǎn),濾波核將僅對(duì)M1求卷積,能夠減輕光暈效應(yīng)。各向異性濾波器只平滑卷積區(qū)域的主要部分也就是邊緣區(qū)域的一側(cè)。最后使用非線(xiàn)性變換函數(shù)將R 變換到D,進(jìn)而降低因逐點(diǎn)除法運(yùn)算而被放大的高頻噪聲。在式D=T(R)中,T 是非線(xiàn)性變換。
在原圖像經(jīng)過(guò)自商圖處理后使用PCA 算法進(jìn)行降維處理。樣本的主成分是指對(duì)于n 維樣本集,其協(xié)方差矩陣的前n'個(gè)較大特征值對(duì)應(yīng)的特征向量矩陣。n'的值遠(yuǎn)小于n,即將原高維圖像的主要特征使用低維特征向量矩陣表示。
將樣本集圖像按照像素首尾相連組成n 維數(shù)據(jù),將含有m 個(gè)類(lèi)別的樣本集D=(x(1),x(2),...,x(m))進(jìn)行中心化:
對(duì)樣本的協(xié)方差矩陣進(jìn)行特征值分解,取出n'個(gè)相對(duì)應(yīng)的特征向量對(duì)所有特征向量進(jìn)行標(biāo)準(zhǔn)化,組成特征向量矩陣W。對(duì)樣本集中每個(gè)樣本x(i),用式轉(zhuǎn)化到低維子空間,得到降維后的樣本集根據(jù)全部成分的n 個(gè)特征向值和主成分的n'個(gè)特征向量值通過(guò)式(4)計(jì)算主成分比重t:
圖1:RBM 模型
圖2:SPD 算法流程圖
圖3:自商圖處理結(jié)果
圖4:遮擋分割結(jié)果
對(duì)于圖像來(lái)說(shuō),一幅圖像的協(xié)方差矩陣的特征向量表示的是圖像的整體信息,并且圖像的大部分信息都集中在特征值較大的前K個(gè)特征向量中。主成分分析法僅需以方差對(duì)信息量進(jìn)行權(quán)衡,不被數(shù)據(jù)集采集之外的成分影響,且各主成分之間相互正交,原始數(shù)據(jù)成分之間的互相影響的因素能夠被很好的抵消。但是主成分分析法的數(shù)據(jù)壓縮會(huì)使數(shù)據(jù)信息少量缺失,因此自商圖處理后再進(jìn)行降維可以增強(qiáng)樣本特征的解釋性。
深度信念網(wǎng)絡(luò)(DBN)是深度學(xué)習(xí)的一類(lèi)方法,屬于一種概率生成模型。DBN 是由多個(gè)受限波爾茲曼機(jī)(RBM)組成,每個(gè)RBM模型是一個(gè)二部圖,其可視層(v)和隱含層(h)外層互相相連,內(nèi)層無(wú)相連關(guān)系,并且可視層輸入節(jié)點(diǎn)的相關(guān)性可由隱含層節(jié)點(diǎn)取得。其RBM 模型如圖1所示。
DBN 含有L 層隱藏單元,其可視單元與隱藏單元的聯(lián)合分布公式如下:
其中,v=h(0)為DBN可視單元,為第k 層隱藏單元,而第k 層和第k+1 層隱藏單元滿(mǎn)足:
同時(shí),若已知隱含層h,可視層節(jié)點(diǎn)的條件獨(dú)立公式如式(9):
因此,當(dāng)輸入v 時(shí),可以通過(guò)p(h|v)計(jì)算出隱含層,而得到隱含層后通過(guò)p(v|h)重構(gòu)可視層。調(diào)整參數(shù)使可見(jiàn)層v 和由重構(gòu)得到的可視層v1相同,從而隱含層作為可視層的另一種表達(dá)方式,也可被認(rèn)為是可視層輸入數(shù)據(jù)的特征。DBN 的學(xué)習(xí)過(guò)程主要是預(yù)訓(xùn)練和微調(diào)。
1.2.1 預(yù)訓(xùn)練
預(yù)訓(xùn)練的過(guò)程是從底層到高層的非監(jiān)督學(xué)習(xí)過(guò)程。由于RBM 無(wú)法對(duì)最初特性建模,必須借助更高層次的網(wǎng)絡(luò)對(duì)圖像特征實(shí)行二維建模工作,所以利用非監(jiān)督貪婪逐層訓(xùn)練,并且這種逐層學(xué)習(xí)模式能有效提升其訓(xùn)練參數(shù)。由于波爾茲曼機(jī)是一種能量表達(dá)模式,因此其可視層與隱含層之間能夠使用能量函數(shù)式來(lái)表示。
式中,可視層節(jié)點(diǎn)的模式由vi表示,隱含層節(jié)點(diǎn)的模式由hj表示,它們所表示的參數(shù)值為0 或1;aj和bi代表其相應(yīng)的偏置,wij表達(dá)了相連權(quán)重。生成可視層模型二維矢量的聯(lián)合概率為:
可視層和隱含層的條件計(jì)算概率如式(12):
為了獲取更穩(wěn)定的RBM 模型權(quán)重?cái)?shù)據(jù)的升級(jí)更新,利用對(duì)數(shù)概率來(lái)求偏導(dǎo):
1.2.2 微調(diào)
微調(diào)是經(jīng)過(guò)預(yù)訓(xùn)練之后的關(guān)鍵環(huán)節(jié),也就是把所有受限波爾茲曼按先前訓(xùn)練好的順序串聯(lián)起來(lái)經(jīng)過(guò)初始化之后,就會(huì)形成一個(gè)深層信念網(wǎng)絡(luò)的模型。依其輸入的參數(shù)數(shù)據(jù)和重構(gòu)的參數(shù)數(shù)據(jù)來(lái)調(diào)節(jié)訓(xùn)練過(guò)程,利用反向算法求得各個(gè)層次的偏差信號(hào),進(jìn)行重新整合網(wǎng)絡(luò)的參數(shù)數(shù)據(jù)和重構(gòu)參數(shù)的損耗函數(shù)。
DBN 原型依據(jù)人腦組織結(jié)構(gòu),能夠由由低級(jí)到高級(jí)地提取輸入數(shù)據(jù)特征,以便于利用頂層的Softmax 分類(lèi)函數(shù)獲得輸入數(shù)據(jù)的類(lèi)標(biāo)值從而得到輸入數(shù)據(jù)與其對(duì)應(yīng)的類(lèi)標(biāo)值的非線(xiàn)性映射關(guān)系。借助DBN 這種方法,計(jì)算機(jī)可以自動(dòng)地從輸入數(shù)據(jù)中學(xué)習(xí)抽象特征,而不需要手動(dòng)選擇。
將像素級(jí)人臉的特征輸入到DBN 中,可以學(xué)習(xí)隱藏在DBN 圖像中的抽象特征。但是DBN 無(wú)法學(xué)習(xí)人臉圖像的局部結(jié)構(gòu)特征的向量。并且原圖像較為稀疏,使深度網(wǎng)絡(luò)在學(xué)習(xí)中處理較大計(jì)算量,降低了實(shí)時(shí)性。因此利用SQI 處理人臉圖像,對(duì)非均勻光照等干擾成分具有良好的抗干擾能力,使圖像的暗點(diǎn)、亮點(diǎn)、邊緣等微模式更具結(jié)構(gòu)性和層次性。再使用主成分分析法將人臉的高維圖像降維到低維子空間中,減小算法的復(fù)雜程度。最后將低維子空間的數(shù)據(jù)特征作為DBN 的可視層輸入數(shù)據(jù),能夠讓深度信念網(wǎng)絡(luò)更加直接的獲取人臉圖像的局部特征信息。深度信念網(wǎng)絡(luò)的聯(lián)合概率分布為:
式中H 為人臉圖像經(jīng)過(guò)SQI 處理并經(jīng)過(guò)PCA 降維后的低維數(shù)據(jù),為深度信念網(wǎng)絡(luò)對(duì)其輸入特征H 學(xué)習(xí)到的不同層次的高級(jí)特征。
網(wǎng)絡(luò)訓(xùn)練的質(zhì)量好壞決定了DBN 學(xué)習(xí)SQI-PCA 紋理特征的準(zhǔn)確性。在人臉圖像分類(lèi)時(shí),只有得到DBN 全局最佳參數(shù)才能與淺層網(wǎng)絡(luò)的分類(lèi)性能相似。訓(xùn)練DBN 過(guò)程如下:
(1)SQI-PCA 紋理特征輸入第一層RBM 以進(jìn)行無(wú)監(jiān)督訓(xùn)練,獲得最佳參數(shù);
(2)高層RBM 以低一層RBM 輸出數(shù)據(jù)為輸入,獲得RBM 網(wǎng)絡(luò)最佳參數(shù);
(3)最后利用全局訓(xùn)練的方法對(duì)各層參數(shù)進(jìn)行微調(diào),使得DBN 收斂到全局最佳。
此訓(xùn)練方式避免了全局訓(xùn)練的復(fù)雜性,利用快速散度算法(CD,Contrastive Divergence)訓(xùn)練RBM 得到DBN 各層的最佳參數(shù),加強(qiáng)了網(wǎng)絡(luò)數(shù)據(jù)預(yù)測(cè)能力。當(dāng)人臉圖像中出現(xiàn)墨鏡、圍巾等局部遮擋因素,會(huì)使DBN 學(xué)習(xí)到不利的特征而使識(shí)別率下降。因此先識(shí)別出人臉圖像的遮擋部分,并且按遮擋部分對(duì)原圖像進(jìn)行分塊。對(duì)各個(gè)子塊進(jìn)行SQI-PCA 處理,并且作為DBN 的輸入,再按照各個(gè)子塊的識(shí)別權(quán)重,得到最終的識(shí)別率。本文提出的SPD 人臉識(shí)別算法流程圖如圖2所示。
本文通過(guò)SQI-PCA 和DBN 研究人臉識(shí)別,算法過(guò)程如下:
(1)識(shí)別圖像是否具有遮擋,并對(duì)有遮擋人臉圖像進(jìn)行分塊。
(2)將測(cè)試樣本和訓(xùn)練樣本通過(guò)SQI 處理。
(3)對(duì)測(cè)試樣本和訓(xùn)練樣本使用PCA 降維至30 到100 維之間。
(4)在DBN 可視層輸入訓(xùn)練樣本的SQI-PCA 紋理特征,逐層訓(xùn)練深度網(wǎng)絡(luò)以獲取最佳的網(wǎng)絡(luò)參數(shù)。文中DBN 層數(shù)為2 層,學(xué)習(xí)效率為0.00001,迭代次數(shù)為30。
(5)完成深度網(wǎng)絡(luò)訓(xùn)練后,在DBN 的可視層輸入測(cè)試樣本的SQI-PCA 紋理特征,利用本算法優(yōu)化后的網(wǎng)絡(luò)自下而上的多層次地學(xué)習(xí)測(cè)試樣本的抽樣特征,在頂層網(wǎng)絡(luò)使用Softmax 回歸分類(lèi),獲得樣本的類(lèi)標(biāo)識(shí)后計(jì)算識(shí)別率。
為了驗(yàn)證本文算法的實(shí)用性,將其在ORL、Yale、Yale-B 及AR 人臉數(shù)據(jù)庫(kù)進(jìn)行識(shí)別實(shí)驗(yàn)。選用的ORL、Yale 和Yale-B 人臉庫(kù)為無(wú)遮擋類(lèi)型,AR 人臉庫(kù)具有圍巾和墨鏡遮擋。各個(gè)人臉庫(kù)圖像背景為非彩色,其中人臉有部分細(xì)節(jié)改變,如光照、表情等。由于Yale-B 人臉庫(kù)中每人64 幅圖像中有49 幅人臉圖像光源的方位角小于 ,垂直角小于 ,剩余的15 幅人臉圖像研究?jī)r(jià)值不高,舍棄這些人臉圖像。各人臉庫(kù)人數(shù)、每人圖片數(shù)、人臉圖像像素和外部條件影響程度等都存在一定的差異。所選用的人臉庫(kù)信息如表1所示。
在ORL 和Yale 人臉庫(kù)中每個(gè)類(lèi)別人臉圖像隨機(jī)抽取5 張作為訓(xùn)練樣本集,其余作為測(cè)試樣本集。在Yale-B 人臉庫(kù)中隨機(jī)抽取15 張圖像作為訓(xùn)練集,剩余作為測(cè)試集。在AR 人臉庫(kù)中每人選取14 張無(wú)遮擋人臉圖像作為訓(xùn)練集,將具有局部遮擋的12 張人臉圖像作為測(cè)試集。
表1:選用人臉庫(kù)信息
表2:各人臉庫(kù)識(shí)別結(jié)果
表3:各人臉庫(kù)不同算法識(shí)別率及總時(shí)間
表4:AR 人臉庫(kù)遮擋性識(shí)別結(jié)果
為了解決非均勻光照對(duì)人臉識(shí)別的影響,采用自商圖像法處理人臉圖像。在ORL、Yale及Yale-B 人臉數(shù)據(jù)中均不具有遮擋,且前兩個(gè)人臉庫(kù)受光照影響較小,Yale-B 人臉庫(kù)受光照影響程度比較大。AR 人臉庫(kù)具有遮擋且人臉圖像受光照影響較大。SQI 處理結(jié)果如圖3所示。
圖3第一幅圖像來(lái)自于Yale-B 人臉庫(kù),圖像大部分處于陰影之中,使用SQI 處理后能夠清楚的對(duì)人臉進(jìn)行分辨。第二幅和第三幅人臉圖像均來(lái)自于AR 人臉庫(kù),其原圖像亮暗程度截然不同,經(jīng)過(guò)自商圖像處理后能夠統(tǒng)一亮暗程度。自商圖像法采用閾值分區(qū)平滑,使得能夠勾勒出邊緣區(qū)域,并且使圖像的協(xié)方差矩陣的特征向量更能表示圖像的局部信息。因此,在人臉圖像受光照嚴(yán)重影響的時(shí)候,采用自商圖像法能夠提高圖像的識(shí)別率。并且使得人臉圖像輪廓清晰,提高主成分表達(dá)能力。
AR 人臉庫(kù)中人臉圖像具有墨鏡、圍巾等局部遮擋,為了使深度信念網(wǎng)絡(luò)學(xué)習(xí)到人臉特征而不受遮擋的影響,采取分塊識(shí)別方法。圖4為自動(dòng)識(shí)別遮擋并分割的結(jié)果。
由于AR 人臉庫(kù)為灰度圖像,其遮擋部分和未遮擋部分的像素值差異較大,根據(jù)圖片所有行像素值的均值差異,可以劃分出遮擋部分。如圖4所示,將墨鏡遮擋分割為3 個(gè)部分,圍巾遮擋分割為2 個(gè)部分。遮擋性識(shí)別實(shí)驗(yàn)中測(cè)試集全為遮擋,訓(xùn)練集全為無(wú)遮擋。按照測(cè)試集中遮擋分割結(jié)果,將訓(xùn)練集也按照其分割方式進(jìn)行分割。然后在各個(gè)子塊中進(jìn)行識(shí)別,得到各個(gè)子塊的識(shí)別結(jié)果。最后根據(jù)各個(gè)子塊的遮擋性權(quán)值和特征性權(quán)值,得到最終的識(shí)別率。遮擋性權(quán)值是指各個(gè)子塊中遮擋部分所占比例,特征性權(quán)值是指各個(gè)子塊對(duì)整個(gè)人臉特征描述的貢獻(xiàn)比率。比如墨鏡遮擋的1 子塊特征性權(quán)值較小,2 子塊遮擋性權(quán)值較大。
在進(jìn)行無(wú)遮擋人臉識(shí)別實(shí)驗(yàn)的時(shí)候,對(duì)ORL、Yale及Yale-B人臉庫(kù)采用兩種方法實(shí)驗(yàn),第一種方法是將原圖像降維至低維子空間作為深度信念網(wǎng)絡(luò)的輸入數(shù)據(jù)(PCA-DBN),得到識(shí)別結(jié)果。第二種方法是將原圖像經(jīng)過(guò)自商圖處理后降維至低維子空間并作為深度信念網(wǎng)絡(luò)的輸入數(shù)據(jù)(SPD),得到識(shí)別率。識(shí)別結(jié)果如表2所示。
由于ORL 和Yale 人臉庫(kù)圖像受光照影響程度小,SPD 和PCA-DBN 相比識(shí)別率只提高3%左右,效果并不明顯。但由于Yale-B 人臉庫(kù)圖像受光照影響程度大,使得光照處理后識(shí)別率提高10%左右,顯著提高識(shí)別率。說(shuō)明對(duì)于光照變化,本算法的頑健性較強(qiáng)。
本文對(duì)各種算法進(jìn)行對(duì)比。DBN 為將原圖像組成列向量作為深度信念網(wǎng)絡(luò)的輸入數(shù)據(jù),其維數(shù)為圖像的行列像素乘積。LBPDBN 是將原圖像經(jīng)過(guò)均勻LBP 處理后作為深度信念網(wǎng)絡(luò)的輸入數(shù)據(jù),其中LBP 選擇分塊為 ,每塊特征維度為59,圖像特征維數(shù)為944。PCA-DBN 和SPD 均降維至100 維。
如表3所示,總時(shí)間為訓(xùn)練時(shí)間與識(shí)別時(shí)間相加,單位為秒。深度學(xué)習(xí)訓(xùn)練過(guò)程可提前完成,其識(shí)別時(shí)間小于0.5秒。在各個(gè)人臉庫(kù)中,將人臉圖像以像素級(jí)作為DBN 的輸入,無(wú)法學(xué)習(xí)到人臉圖像的局部結(jié)構(gòu)特征。由于原圖像維度太高,比如ORL 人臉庫(kù)維度為10304 維,Yale 人臉庫(kù)維度為10000 維,Yale-B 人臉庫(kù)維度為32256 維,使得訓(xùn)練時(shí)間過(guò)長(zhǎng),且識(shí)別率較低。采用均勻LBP紋理特征處理原人臉圖像,會(huì)將原人臉圖像降維至944 維,提高識(shí)別率并且顯著減少訓(xùn)練時(shí)間。將人臉圖像的協(xié)方差矩陣的特征值按大小排序并取前100 維,識(shí)別率有所降低,是因?yàn)橹鞒煞址治龇〞?huì)將少量人臉圖像的信息丟棄,但是通過(guò)自商圖處理后,顯著勾勒人臉輪廓,使人臉的重要信息在前100維特征向量中得以保存,得到較高的識(shí)別率并且縮短訓(xùn)練時(shí)間。
在進(jìn)行有遮擋人臉識(shí)別實(shí)驗(yàn)的時(shí)候,對(duì)AR 人臉庫(kù)采用三種方法進(jìn)行對(duì)比實(shí)驗(yàn)。第一種方法是將原圖像降維至低維子空間并作為深度信念網(wǎng)絡(luò)的輸入數(shù)據(jù)(PCA-DBN)。第二種方法是將原圖像經(jīng)過(guò)自商圖處理后降維至低維子空間并作為深度信念網(wǎng)絡(luò)的輸入數(shù)據(jù)(SPD)。第三種方法是將原圖像經(jīng)自商圖處理后分塊降維至低維子空間并作為深度信念網(wǎng)絡(luò)的輸入數(shù)據(jù)(SE-SPD),得到識(shí)別率。
從表4的結(jié)果中可以得到,PCA-DBN 算法所描繪的人臉特征容易受到非均勻光照和遮擋兩種因素的影響,以至于識(shí)別率較低。SPD算法相比于PCA-DBN 算法能夠消除光照的影響,但無(wú)法消除局部遮擋影響,因此SPD 算法的識(shí)別率所提升。SE-SPD 算法采用分塊處理可以減弱遮擋特征對(duì)深度信念網(wǎng)絡(luò)的影響,使識(shí)別率大幅提升。每個(gè)子塊分別進(jìn)行深度學(xué)習(xí),使訓(xùn)練時(shí)間增加,而識(shí)別時(shí)間為0.08 秒,滿(mǎn)足人臉識(shí)別的實(shí)時(shí)性要求。
本文提出一種自商圖、主成分分析法和深度學(xué)習(xí)相結(jié)合的SPD 人臉識(shí)別算法,首先對(duì)人臉圖像進(jìn)行SQI 預(yù)處理,然后使用PCA 降維,最后使用DBN 進(jìn)行識(shí)別。實(shí)驗(yàn)證明,在ORL、Yale 和Yale-B 使用SPD 算法進(jìn)行無(wú)遮擋性識(shí)別得到較好的識(shí)別效果及時(shí)間復(fù)雜度。在AR 人臉庫(kù)中進(jìn)行有遮擋人臉識(shí)別,采用遮擋分割的方法,先識(shí)別出子塊所屬類(lèi)別,再根據(jù)各子塊識(shí)別結(jié)果、遮擋性權(quán)值和特征性權(quán)值,得到整體識(shí)別結(jié)果。實(shí)驗(yàn)證明,在AR 人臉庫(kù)中使用SE-SPD 算法進(jìn)行有遮擋人臉識(shí)別得到較好的識(shí)別率,并且識(shí)別時(shí)間滿(mǎn)足實(shí)時(shí)性要求。