亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于判別低秩矩陣恢復(fù)和協(xié)同表示的遮擋人臉識(shí)別*

        2021-01-05 09:20:46孫雨浩
        關(guān)鍵詞:訓(xùn)練樣本范數(shù)識(shí)別率

        孫雨浩,陶 洋,胡 昊

        (重慶郵電大學(xué)通信與信息工程學(xué)院,重慶 400065)

        1 引言

        目前,雖然遮擋人臉識(shí)別技術(shù)已經(jīng)取得了長(zhǎng)足的進(jìn)展,但是在現(xiàn)實(shí)應(yīng)用中仍然面臨著巨大的挑戰(zhàn)。一般人臉識(shí)別都要求訓(xùn)練樣本不受噪聲污染,即前提條件是這些識(shí)別方法都是基于單一樣本的單一個(gè)體的圖像位于同一低秩子空間[1],但在現(xiàn)實(shí)場(chǎng)景中,圖像通常都會(huì)受到比如姿勢(shì)、光照、表情變化以及遮擋的各種影響。

        在測(cè)試和訓(xùn)練樣本沒(méi)有受到影響的情況下,稀疏表示的分類SRC(Sparse Representation Classification)方法的識(shí)別性能較好,否則識(shí)別性能就會(huì)明顯降低。為了提高SRC的性能,Wright等人[2]提出了魯棒SRC RSRC(Robust SRC)模型,然而,由于L1范數(shù)最小化和單位遮擋字典中存在大量的原子,SRC方法計(jì)算代價(jià)很高?;诖耍珼eng等人[3]提出一種擴(kuò)展稀疏表示ESRC(Extended Sparse Representation Classification) 算法,用訓(xùn)練樣本減去其對(duì)應(yīng)的類均值得到誤差字典,取得了較好的稀疏表示結(jié)果,但還是存在遮擋字典也不能很好描述圖像的污損以及需要針對(duì)L1范數(shù)進(jìn)行相應(yīng)的優(yōu)化等問(wèn)題。

        針對(duì)此問(wèn)題,眾多學(xué)者都在關(guān)注如何提高L1范數(shù)的計(jì)算速度,卻忽略了表示的協(xié)同性。協(xié)同性即由于不同人的面部圖像具有相似性,若第i個(gè)人與第j個(gè)人的圖像很相似,那么第j類的訓(xùn)練樣本可以用于表示來(lái)自第i類的測(cè)試樣本。Zhang等人[4]根據(jù)上述思想,提出了協(xié)同表示分類CRC(Collaborative Representation Classification)的方法。CRC在計(jì)算協(xié)同表示系數(shù)時(shí),放松了對(duì)稀疏性的要求,重點(diǎn)關(guān)注表示樣本的協(xié)同性,用L2范數(shù)代替L1范數(shù),提高了人臉識(shí)別的魯棒性,而且大大降低了復(fù)雜度。

        如果所有的訓(xùn)練樣本都得到很好的控制,即在合理的姿態(tài)和光照下,沒(méi)有噪聲污染和遮擋,CRC對(duì)有污損和遮擋的測(cè)試樣本具有很強(qiáng)的魯棒性,能夠?qū)崿F(xiàn)較高的人臉識(shí)別精度。但是,當(dāng)測(cè)試樣本和訓(xùn)練樣本都被遮擋或者污損時(shí),CRC的性能也會(huì)下降。Candès等人[5]提出的魯棒主成分分析RPCA(Robust Principal Component Analysis),假設(shè)所有數(shù)據(jù)都在一個(gè)子空間中,然后從被污損的數(shù)據(jù)矩陣中恢復(fù)一個(gè)低秩數(shù)據(jù)矩陣。但是,當(dāng)數(shù)據(jù)樣本來(lái)自多個(gè)子空間時(shí),此方法性能也達(dá)不到理想的效果。Liu等人[6]提出了低秩表示LRR(Low-rank Representation)算法,不僅可以在測(cè)試樣本和訓(xùn)練樣本均受到污染的情況下有效恢復(fù)出 “干凈”的人臉圖像和誤差圖像,還在一定程度上解決了訓(xùn)練樣本來(lái)自不同子空間的問(wèn)題。

        最近的研究成果表明,低秩矩陣恢復(fù)的方法被廣泛運(yùn)用在圖像分類領(lǐng)域。杜海順等人[7]利用LRR對(duì)訓(xùn)練數(shù)據(jù)進(jìn)行恢復(fù),提出了基于低秩恢復(fù)稀疏表示分類算法。何林知等人[8]利用RPCA 方法對(duì)訓(xùn)練樣本進(jìn)行低秩恢復(fù)后,使用協(xié)同表示分類方法對(duì)測(cè)試樣本進(jìn)行識(shí)別。以上基于低秩矩陣恢復(fù)的人臉識(shí)別方法,雖然可以很好地去除訓(xùn)練數(shù)據(jù)中的噪聲,但是忽略了數(shù)據(jù)的局部結(jié)構(gòu)可能會(huì)降低圖像恢復(fù)的性能,而且由于沒(méi)有充分挖掘訓(xùn)練樣本的判別信息,這些方法并不適用于分類。

        本文針對(duì)訓(xùn)練樣本和測(cè)試樣本同時(shí)受到遮擋的問(wèn)題,提出了一種基于判別低秩矩陣恢復(fù)和協(xié)同表示與分類的遮擋人臉識(shí)別DLMR-CRC(Discriminant Low-rank Matrix Recovery and Collaborative Representation Classification)方法。該方法首先通過(guò)在低秩矩陣恢復(fù)中引入結(jié)構(gòu)非相關(guān)性約束,有效地從被污損的訓(xùn)練樣本中恢復(fù)出干凈的訓(xùn)練樣本,這些干凈的人臉圖像不但具有更強(qiáng)的判別信息,而且還可以保持原始數(shù)據(jù)的局部幾何結(jié)構(gòu)。在得到干凈的人臉圖像后,通過(guò)學(xué)習(xí)原始污損數(shù)據(jù)與干凈的低秩數(shù)據(jù)之間的低秩投影矩陣,將受污損的測(cè)試樣本投影到相應(yīng)的低維子空間進(jìn)行測(cè)試樣本的修正。最后,利用協(xié)同表示與分類的方法對(duì)修正后的測(cè)試樣本進(jìn)行分類,獲取最終的識(shí)別結(jié)果。該方法流程如圖1所示。本文所提方法不僅在保持原始數(shù)據(jù)的局部幾何結(jié)構(gòu)的同時(shí)增強(qiáng)了恢復(fù)的低秩數(shù)據(jù)的判別能力,而且還對(duì)受污損的測(cè)試樣本進(jìn)行了修正,在協(xié)同表示與分類的作用下,大大提高了遮擋人臉識(shí)別的有效性。

        Figure 1 Flow chart of DLMR-CRC 圖1 DLMR-CRC流程

        2 相關(guān)工作

        2.1 低秩矩陣恢復(fù)

        由于本文提出的方法涉及低秩矩陣恢復(fù)技術(shù),本節(jié)先簡(jiǎn)單回顧一下相關(guān)的工作。RPCA試圖將數(shù)據(jù)矩陣X分為A+E,其中A為干凈的數(shù)據(jù)矩陣,E為相關(guān)的稀疏誤差矩陣。RPCA最小化矩陣A的秩的同時(shí)減小了‖E‖0,得到X的低秩表示。RPCA模型表示為:

        s.t.X=A+E

        (1)

        其中λ是一個(gè)正則化參數(shù),用來(lái)約束稀疏誤差矩陣。

        由于上述優(yōu)化問(wèn)題是NP難且高度非凸的,最常見(jiàn)的解決方法就是用L1范數(shù)來(lái)代替L0范數(shù),以及用核范數(shù)代替秩函數(shù),這種方法被證實(shí)是有效的。因此,式(1)就可以轉(zhuǎn)化為如下優(yōu)化問(wèn)題:

        s.t.X=A+E

        (2)

        式(2)中的核范數(shù)是指向量矩陣A的奇異值的和,主要用來(lái)約束A的低秩屬性,L1范數(shù)用來(lái)約束誤差圖像矩陣E的稀疏性,根據(jù)文獻(xiàn)[9]可知L1范數(shù)并不能很好地對(duì)E的稀疏性進(jìn)行約束,因此本文使用L2,1范數(shù)代替L1范數(shù),X的L2,1范數(shù)定義如式(3)所示:

        (3)

        其中,m和n分別代表數(shù)據(jù)矩陣的行數(shù)和列數(shù)。

        不同于L1范數(shù)的稀疏要求,從L2,1范數(shù)的定義可以看出,根號(hào)下平方是對(duì)X的列進(jìn)行求和,由從L2范數(shù)的定義可以得出,根號(hào)部分相當(dāng)于一個(gè)L2范數(shù),可知L2,1范數(shù)即為X每一行的L2范數(shù)之和,L2,1范數(shù)還要求行稀疏,從而可以更好地對(duì)誤差矩陣E的稀疏性進(jìn)行約束。同時(shí),RPCA假設(shè)數(shù)據(jù)X來(lái)自同一子空間,然而Liu等人[6]提出的LRR算法,在一定程度上解決了訓(xùn)練樣本來(lái)自不同子空間的問(wèn)題。綜上所述,改進(jìn)后的模型可以表示為:

        s.t.X=DZ+E

        (4)

        其中,D是選擇的對(duì)應(yīng)字典,Z是低秩矩陣。

        式(4)所示的優(yōu)化問(wèn)題可以通過(guò)非精確增廣拉格朗日乘子ALM(Augmented Lagrange Multipliers)算法[10]求解,得到最優(yōu)解Z*,利用DZ*可以從數(shù)據(jù)矩陣X中恢復(fù)出干凈的數(shù)據(jù)矩陣。

        通過(guò)選擇合適的字典D,利用LRR可以尋找出低秩的表示矩陣。在一般應(yīng)用中,因?yàn)槊總€(gè)數(shù)據(jù)向量都可以用原始數(shù)據(jù)向量表示,所以LRR使用數(shù)據(jù)X作為字典,在數(shù)據(jù)恢復(fù)期間還可以自動(dòng)糾正錯(cuò)誤。

        2.2 協(xié)同表示分類

        假設(shè)有n個(gè)原始訓(xùn)練樣本X屬于N類,X=[x1,x2,…,xn]∈Rm×n,為了簡(jiǎn)單起見(jiàn)定義X=[X1,X2,…,XN],其中Xi的列是由第i類訓(xùn)練樣本構(gòu)成。給定一個(gè)測(cè)試樣本y∈Rm,SRC方法使用訓(xùn)練樣本X的稀疏線性組合來(lái)表示y,即y=Xα,其中α∈Rn是表示系數(shù),用L1范數(shù)最小化求解稀疏表示系數(shù),因此SRC的目標(biāo)函數(shù)如式(5)所示:

        (5)

        (6)

        進(jìn)行分類,分類規(guī)則為:

        identity(y)=argmini{ei}

        (7)

        其中identity(y)表示測(cè)試樣本y的類別。

        式(7)通過(guò)評(píng)估構(gòu)建的每個(gè)類的重構(gòu)誤差,分析哪一類訓(xùn)練樣本能夠使稀疏編碼系數(shù)相關(guān)的輸入測(cè)試圖像的重構(gòu)誤差最小,最終實(shí)現(xiàn)對(duì)人臉圖像基于稀疏表示的分類。

        雖然SRC對(duì)遮擋和污染具有良好的魯棒性,但仍然存在一些問(wèn)題。隨著訓(xùn)練樣本字典行數(shù)或列數(shù)的增加,SRC方法的運(yùn)行速度急速下降。

        為提高算法運(yùn)行效率,Zhang等人[4]提出了CRC方法。CRC方法的一般模型可表示為:

        (8)

        其中λ是正則化參數(shù),p,q為1或2,p和q的不同取值導(dǎo)致CRC模型的不同實(shí)例化,CRC模型具體為:

        (9)

        利用正則化最小二乘法求解式(9)的解為:

        (10)

        其中,I為單位矩陣,P和測(cè)試圖像沒(méi)有直接關(guān)系,可以提前進(jìn)行計(jì)算,以節(jié)約運(yùn)行時(shí)間。CRC將測(cè)試圖像投影到P下,再判別測(cè)試圖像類別,最小二乘協(xié)作表示算法[4]的算法流程如下:

        步驟1將X的列標(biāo)準(zhǔn)化為單位L2范數(shù);

        步驟4獲得y的類別:identity(y)=argmini{ei}。

        3 DLMR-CRC方法設(shè)計(jì)

        3.1 基于判別低秩表示的矩陣恢復(fù)

        min‖Zi‖*+λ‖Ei‖2,1+

        s.t.Xi=AiZi+Ei

        (11)

        其中,λ是正則化參數(shù);Ei是第i類的誤差矩陣;懲罰參數(shù)η用來(lái)平衡低秩矩陣近似和不連貫的問(wèn)題;最后一項(xiàng)是每一對(duì)低秩矩陣Di和Dj的F范數(shù)之和,不同類別之間恢復(fù)矩陣的F范數(shù)越小,意為著其獨(dú)立性越強(qiáng)。這一項(xiàng)促進(jìn)了不同近似類之間的結(jié)構(gòu)不一致性,這個(gè)附加項(xiàng)為新的LRR問(wèn)題提供了更多的判別能力。

        3.2 判別低秩矩陣的優(yōu)化

        本節(jié)使用ALM[10]來(lái)求解式(11)所示的優(yōu)化問(wèn)題。首先通過(guò)引入輔助變量Ji將式(11)轉(zhuǎn)化為下面的等價(jià)優(yōu)化問(wèn)題:

        s.t.Xi=AiZi+Ei,Zi=Ji

        (12)

        構(gòu)造增廣拉格朗日函數(shù)如式(13)所示:

        L(Zi,Ei,Ji,Y1,Y2)=

        〈Xi-AiZi-Ei,Y1〉+〈Zi-Ji,Y2〉+

        (13)

        其中,Y1和Y2是拉格朗日乘數(shù),μ>0是一個(gè)懲罰參數(shù)。

        將上述增廣拉格朗日函數(shù)改寫(xiě)成如下形式:

        L(Zi,Ei,Ji,Y1,Y2)=

        f(Zi,Ji,Ei,Y1,Y2,μ)

        (14)

        其中,

        f(Zi,Ji,Ei,Y1,Y2,μ)=

        (15)

        求解式(14)所示的優(yōu)化問(wèn)題的完整算法如算法1所示。

        算法1

        輸入N類訓(xùn)練數(shù)據(jù)矩陣X,參數(shù)λ>0,η>0。

        輸出:恢復(fù)干凈的數(shù)據(jù)矩陣D=XZ*。

        fori=1;i

        初始化Zi=Ji=Ei=Y1=Y2=0,Zj=I,μ=10-6,ρ=1.1,μmax=1010,ε=10-3,k=0。

        未收斂時(shí),重復(fù)以下步驟:

        步驟1求解式(16)以更新Zi;

        步驟2求解式(17)以更新Ji;

        步驟3求解式(18)以更新Ei;

        步驟4更新拉格朗日常數(shù):

        步驟5μk+1=min(ρμk,μmax)

        步驟6檢查收斂條件

        步驟7更新k:k←k+1;

        直到收斂;

        endfor

        步驟 8求出一個(gè)最優(yōu)解Z*;

        為了交替地更新變量Zi、Ji和Ei,本文采用交替更新的方法,在對(duì)應(yīng)變量的求解中固定了其他2個(gè)變量。更新步驟如下所示:

        步驟1更新Zi

        其中,

        則具有如下封閉式的解:

        (16)

        步驟2更新Ji。

        為了更新第i類的誤差矩陣Ji,固定式(14)中的Zi、Ei、Y1和Y2,并相應(yīng)地解決以下問(wèn)題:

        通過(guò)計(jì)算L相對(duì)于Ji的偏導(dǎo)數(shù)并將其設(shè)置為0,可得上述問(wèn)題的解為:

        (17)

        步驟3更新Ei。

        為了更新第i類的誤差矩陣Ei,固定式(14)中的Zi,Ji,Y1和Y2,得到如下形式:

        (18)

        3.3 低秩投影矩陣

        為了提高CRC的性能,本文考慮去除測(cè)試樣本中可能的損壞。在Cao等人[11]工作的啟發(fā)下,一個(gè)低秩投影矩陣可以被應(yīng)用于將損壞的樣本投影到它們相應(yīng)的低維子空間中。

        我們假設(shè)原始訓(xùn)練樣本X和判別低秩恢復(fù)結(jié)果D之間存在潛在的投影矩陣P,然后通過(guò)學(xué)習(xí)線性低秩投影矩陣P,將任意數(shù)據(jù)點(diǎn)x投影到它的子空間上得到精確的恢復(fù)結(jié)果Px。優(yōu)化問(wèn)題表述如下:

        s.t.D=PX

        (19)

        由于式(19)計(jì)算量大,可以通過(guò)用核范數(shù)代替秩函數(shù)來(lái)放寬該優(yōu)化問(wèn)題。新的凸優(yōu)化問(wèn)題表示為:

        s.t.D=PX

        (20)

        假設(shè)P≠0,D=PX有可行解。式(20)的唯一解可以表示為P*=YX+,其中,X+是X的偽逆矩陣,X+=V∑-1UT,V∑-1UT是X的瘦SVD,即保留X的正奇異值。最優(yōu)解P*即為原始污染數(shù)據(jù)X與恢復(fù)的低秩數(shù)據(jù)D之間的低秩投影矩陣,可用于處理新的被污染測(cè)試樣本數(shù)據(jù)y,將測(cè)試樣本數(shù)據(jù)y映射到其對(duì)應(yīng)的潛在子空間中,移除其中的誤差成分得到“干凈”的測(cè)試樣本P*y,達(dá)到對(duì)測(cè)試數(shù)據(jù)誤差矯正的目的。算法2詳細(xì)描述了基于判別低秩矩陣恢復(fù)和協(xié)同表示與分類的過(guò)程。

        算法2DLMR-CRC Algorithm

        輸入:訓(xùn)練樣本數(shù)據(jù)矩陣X=[x1,x2,…,xn]∈Rm×n,測(cè)試樣本y∈Rm,參數(shù)λ>0,η>0,β>0。

        輸出:分類識(shí)別結(jié)果。

        fori=1;i

        步驟1利用算法1求解下列優(yōu)化問(wèn)題最優(yōu)解(Z*):

        s.t.Xi=AiZi+Ei

        endfor

        步驟2得到訓(xùn)練樣本的恢復(fù)結(jié)果:

        D=[X1Z1,…,XkZk];

        步驟3計(jì)算低秩投影矩陣:P*=DX+;

        步驟4校正測(cè)試樣本y:yP=P*y;

        步驟5通過(guò)CRC對(duì)yP進(jìn)行分類:

        fori=1;i

        步驟6計(jì)算表示殘差:

        ei=‖yP-Diαi‖2/‖αi‖2;

        步驟7進(jìn)行分類:

        identity(y)=argmini{ei}

        endfor

        4 實(shí)驗(yàn)驗(yàn)證分析

        實(shí)驗(yàn)中所有方法均在CPU為Intel Core i5-7200 U @2.50 GHz 2.70 GHz,內(nèi)存為8 GB,操作系統(tǒng)為64位Windows操作系統(tǒng),Matlab版本為Matlab2016a環(huán)境下進(jìn)行。

        為了驗(yàn)證本文所提DLMR-CRC方法的有效性,本節(jié)在AR和Extended Yale B數(shù)據(jù)庫(kù)上進(jìn)行了大量的實(shí)驗(yàn),比較了SRC[2]、LRC(線性回歸分類)[12]、CRC[4]和NN等方法。本文通過(guò)移除式(11)中的附加項(xiàng)來(lái)實(shí)現(xiàn)LMR-CRC。本文還實(shí)現(xiàn)了基于SRC的DLMR的方法DLMR-SRC,使用SRC方法的分類器進(jìn)行分類。在本文的實(shí)驗(yàn)中,所有的比較方法都使用了標(biāo)準(zhǔn)的特征臉特征,由于人臉圖像通常是高維度的,所以在訓(xùn)練和測(cè)試之前,為了對(duì)實(shí)驗(yàn)結(jié)果進(jìn)行公平比較,使用PCA來(lái)降低原始圖像的維數(shù)。選擇人臉圖像的特征維數(shù)分別為25,50,75,100,200和300。采用ALM算法求解L1范數(shù)問(wèn)題,并將ALM中的正則化參數(shù)設(shè)置為0.001。

        4.1 AR數(shù)據(jù)庫(kù)

        AR數(shù)據(jù)庫(kù)包括126個(gè)人的4 000多幅正面圖像。每個(gè)人有26幅臉部圖像,分別采集于2個(gè)不同的階段,這些圖像是在不同的光照、表情和面部遮擋/偽裝條件下拍攝的,每個(gè)階段拍攝13幅圖像,其中3幅是戴著墨鏡的,另外3幅是戴著圍巾的,剩下的7幅具有明顯的照明和表情變化。將人臉圖像裁剪為165×120像素,并轉(zhuǎn)換為灰度圖像。AR數(shù)據(jù)庫(kù)中戴墨鏡和圍巾的圖像如圖2所示。

        Figure 2 Images with sunglasses and scarf in AR database 圖2 AR數(shù)據(jù)庫(kù)中戴墨鏡和圍巾的圖像

        實(shí)驗(yàn)選擇AR數(shù)據(jù)庫(kù)中的一個(gè)子集,其中包括50名男性受試者和50名女性受試者的圖像,在第1階段拍攝的中性和損壞的圖像均用于訓(xùn)練。為了與其他方法進(jìn)行公平比較,將人臉圖像的特征維數(shù)都設(shè)置為25,50,75,100,200和300。本文方法的正則化參數(shù)設(shè)置為β= 1.1,η= 0.001和λ= 0.02。本節(jié)考慮文獻(xiàn)[13]中的3個(gè)場(chǎng)景來(lái)評(píng)估本文所提方法的性能。

        (1)墨鏡遮擋:本文從每個(gè)人第1階段的人臉圖像中選取7幅無(wú)遮擋的圖像和1幅戴墨鏡的圖像作為訓(xùn)練集樣本圖像,選取第2階段中無(wú)遮擋的人臉圖像和2個(gè)階段中剩余的所有戴墨鏡的圖像作為測(cè)試集圖像。每個(gè)人均選取了8幅訓(xùn)練圖像和12幅測(cè)試圖像。墨鏡的遮擋面積約為人臉圖像的20%。圖3給出了各方法隨特征維數(shù)變化的識(shí)別率曲線。

        Figure 3 Recognition rate of each method changing with feature dimension in the case of sunglasses occlusion圖3 墨鏡遮擋情況下各方法隨特征維數(shù)變化的識(shí)別率

        (2) 圍巾遮擋:在AR數(shù)據(jù)庫(kù)中被圍巾遮擋的圖像,圍巾的遮擋面積約為人臉圖像的40%。和墨鏡遮擋情況類似,從第1階段的人臉圖像中選取7幅無(wú)遮擋的圖像和1幅圍巾遮擋的圖像作為訓(xùn)練集樣本;選擇第2階段無(wú)遮擋的圖像和2個(gè)階段中剩余的所有帶有圍巾遮擋的圖像組成測(cè)試集,也是每個(gè)人一共8幅訓(xùn)練樣本和12幅測(cè)試樣本。圖4給出了各方法隨特征維數(shù)變化的識(shí)別率曲線。

        Figure 4 Recognition rate of each method changing with feature dimension in the case of scarf occlusion圖4 圍巾遮擋情況下各方法隨特征維數(shù)變化的識(shí)別率

        Figure 5 Recognition rate of each method changing with feature dimension in the case of sunglasses and scarf occlusion圖5 墨鏡+圍巾遮擋情況下各方法隨特征維數(shù)變化的識(shí)別率

        (3)墨鏡+圍巾遮擋:選擇9幅來(lái)自第1階段的圖像作為訓(xùn)練集樣本,其中包括7幅無(wú)遮擋的人臉圖像、1幅戴著墨鏡、另1幅戴著圍巾的人臉圖像進(jìn)行訓(xùn)練。選擇第2階段的無(wú)遮擋圖像加上來(lái)自2個(gè)階段剩余的所有帶遮擋的圖像作為測(cè)試集用于測(cè)試。圖5給出了各方法隨特征維數(shù)變化的識(shí)別率曲線。表1給出了3種場(chǎng)景下幾種方法最高的人臉識(shí)別結(jié)果。

        Table 1 Comparison of the highest face recognition rate between the DLMR-CRC method and several other methods on the AR database表1 在AR數(shù)據(jù)庫(kù)上,DLMR-CRC方法與其它幾種方法的最高人臉識(shí)別率對(duì)比 %

        由表1和圖3~圖5可以看出,在3種場(chǎng)景中,DLMR-CRC方法在各個(gè)維度上的識(shí)別率在大多數(shù)情況下都高于其他方法的。通過(guò)與DLMR-SRC方法的對(duì)比,3種情況下都是略高于該方法,說(shuō)明DLMR-CRC使用CRC的方法更能準(zhǔn)確地描述人臉圖像的誤差遮擋。與LMR-CRC方法的對(duì)比結(jié)果表明,DLMR-CRC方法通過(guò)引入結(jié)構(gòu)非相關(guān)性的約束能更好地增強(qiáng)低秩恢復(fù)數(shù)據(jù)的判別能力。另外還可以看出,DLMR-CRC的識(shí)別率遠(yuǎn)高于LRC和NN的,說(shuō)明在訓(xùn)練樣本和測(cè)試樣本均受到遮擋時(shí),本文方法的識(shí)別性能遠(yuǎn)遠(yuǎn)優(yōu)于經(jīng)典的線性回歸分類器和最近鄰分類器。

        4.2 Extended Yale B 數(shù)據(jù)庫(kù)

        本節(jié)在Extended Yale B數(shù)據(jù)庫(kù)上通過(guò)隨機(jī)添加遮擋塊,模擬不同程度的遮擋進(jìn)行實(shí)驗(yàn),驗(yàn)證所提方法在不同光照強(qiáng)度下對(duì)遮擋的識(shí)別性能。Extended Yale B數(shù)據(jù)庫(kù)主要包括來(lái)自38個(gè)人的2 414幅人臉的正面圖像,根據(jù)光照程度,分為5個(gè)子集,包括子集Ⅰ、子集Ⅱ、子集Ⅲ、子集Ⅳ和子集Ⅴ,這5個(gè)子集光照強(qiáng)度依次增加。本節(jié)實(shí)驗(yàn)選取集Ⅰ、子集Ⅱ和子集Ⅲ中一共1 170幅人臉圖像作為測(cè)試集,為了使人臉識(shí)別更具挑戰(zhàn)性,訓(xùn)練集選取具有極端光照的子集Ⅲ和子集Ⅳ并進(jìn)行如下設(shè)置:

        實(shí)驗(yàn)1選取子集Ⅲ中所有的人臉圖像作為訓(xùn)練集1,針對(duì)每幅人臉圖像分別添加0%~70%的不相關(guān)隨機(jī)塊遮擋共453×8=3264幅圖像,部分實(shí)驗(yàn)樣本如圖6a所示。

        實(shí)驗(yàn)2選取子集Ⅳ中所有的人臉圖像作為訓(xùn)練集2,針對(duì)每幅人臉圖像分別添加0%~70%的不相關(guān)隨機(jī)塊遮擋共524×8=4192幅圖像,部分實(shí)驗(yàn)樣本如圖6b所示。

        Figure 6 Part of the experimental samples in Extended Yale B database圖6 Extended Yale B數(shù)據(jù)庫(kù)中的部分實(shí)驗(yàn)樣本

        實(shí)驗(yàn)1和實(shí)驗(yàn)2中向每個(gè)測(cè)試圖像中隨機(jī)添加一個(gè)不相關(guān)的圖像,其大小由遮擋率決定,每幅測(cè)試圖像的遮擋位置是隨機(jī)選擇的,所有圖像裁剪為96×84像素。選擇DLMR-CRC正則化參數(shù)β=1.1,η= 0.001,λ=0.005。圖7分別給出了在不同比例塊遮擋情況下,各方法的平均識(shí)別率隨著遮擋比例的變化情況。

        Figure 7 Recognition rate of each method on training set 1 and training set 2 varies with the occlusion rate圖7 訓(xùn)練集1和訓(xùn)練集2上各方法識(shí)別率隨遮擋比例變化

        通過(guò)圖7a和圖7b可看出,在無(wú)遮擋或遮擋面積較小時(shí),本文所提DLMR-CRC方法和其他方法一樣都具有較高的識(shí)別率。隨著隨機(jī)塊遮擋面積的增大,在實(shí)驗(yàn)1中光照條件相對(duì)較好時(shí),DLMR-CRC方法和其他對(duì)比方法一樣,整體識(shí)別性能都有所下降,但DLMR-CRC仍然具有明顯優(yōu)勢(shì),識(shí)別率最高可達(dá)64%左右,比DLMR-SRC和LMR-CRC性能分別提升了3%和9%左右,值得注意的是,比經(jīng)典的NN和SRC方法性能分別提升了33%和21%。通過(guò)圖7b分析可以看出,在極端光照的訓(xùn)練集2上,雖然隨著隨機(jī)遮擋塊比例的逐漸增加,所有的識(shí)別方法性能都急劇下降,其中本文所提方法和DLMR-SRC、LMR-CRC略占優(yōu)勢(shì),盡管最高識(shí)別率僅有38%,但是也比其他對(duì)比方法有明顯的提升,說(shuō)明結(jié)構(gòu)非相關(guān)性的約束能更好地增強(qiáng)低秩恢復(fù)數(shù)據(jù)的判別特性,并且結(jié)合協(xié)同表示的分類方法降低了算法運(yùn)行的復(fù)雜度,在一定程度上緩解了因光照變化和遮擋為人臉識(shí)別帶來(lái)的干擾。

        5 結(jié)束語(yǔ)

        本文針對(duì)訓(xùn)練樣本和測(cè)試樣本均受到噪聲污染的情況,為解決樣本數(shù)據(jù)來(lái)自不同子空間時(shí),低秩矩陣恢復(fù)算法不能很好地保持原始數(shù)據(jù)的局部幾何結(jié)構(gòu),進(jìn)而不能有效地恢復(fù)出干凈的低秩人臉圖像和誤差矩陣圖像的問(wèn)題,提出了一種基于判別低秩矩陣恢復(fù)的協(xié)同表示遮擋人臉識(shí)別方法,并在2個(gè)常見(jiàn)的人臉數(shù)據(jù)庫(kù)上進(jìn)行人臉識(shí)別實(shí)驗(yàn)的驗(yàn)證。該方法該通過(guò)結(jié)構(gòu)非相關(guān)性約束項(xiàng)的引入,不僅在保持原始數(shù)據(jù)的局部幾何結(jié)構(gòu)的同時(shí)增強(qiáng)了恢復(fù)的低秩數(shù)據(jù)的判別能力,而且還通過(guò)學(xué)習(xí)低秩投影矩陣對(duì)受污損的測(cè)試樣本進(jìn)行了修正,最后結(jié)合CRC較高識(shí)別精度與低運(yùn)算復(fù)雜度的優(yōu)勢(shì),提升了DLMR-CRC方法對(duì)嚴(yán)重的污損或光照變化的破壞的魯棒性,具有更好的識(shí)別性能,提高了遮擋人臉的識(shí)別率,使其在現(xiàn)實(shí)世界應(yīng)用中的遮擋人臉識(shí)別更實(shí)用。

        猜你喜歡
        訓(xùn)練樣本范數(shù)識(shí)別率
        基于類圖像處理與向量化的大數(shù)據(jù)腳本攻擊智能檢測(cè)
        人工智能
        基于真耳分析的助聽(tīng)器配戴者言語(yǔ)可懂度指數(shù)與言語(yǔ)識(shí)別率的關(guān)系
        提升高速公路MTC二次抓拍車牌識(shí)別率方案研究
        基于加權(quán)核范數(shù)與范數(shù)的魯棒主成分分析
        矩陣酉不變范數(shù)H?lder不等式及其應(yīng)用
        寬帶光譜成像系統(tǒng)最優(yōu)訓(xùn)練樣本選擇方法研究
        融合原始樣本和虛擬樣本的人臉識(shí)別算法
        基于稀疏重構(gòu)的機(jī)載雷達(dá)訓(xùn)練樣本挑選方法
        高速公路機(jī)電日常維護(hù)中車牌識(shí)別率分析系統(tǒng)的應(yīng)用
        日韩精品 在线 国产 丝袜| 久久精品国产亚洲AV高清wy| 亚洲精品综合久久国产二区| 人妻久久久一区二区三区蜜臀| 最新亚洲人成网站在线观看| 人妻无码一区二区| 亚洲av人片在线观看调教| 日本国产精品久久一线| 国产啪亚洲国产精品无码| yeyecao亚洲性夜夜综合久久| 绿帽人妻被插出白浆免费观看| 国产精品白浆一区二区免费看 | 国产成人自拍视频在线观看网站| 我要看免费久久99片黄色| 国产尤物av尤物在线观看| 99视频在线国产| 亚洲天堂av在线免费看| 久久久久人妻精品一区二区三区 | 水蜜桃精品一二三| 亚洲男人的天堂精品一区二区| 亚洲女同性恋在线播放专区| 国产成人av无码精品| 欧美性狂猛xxxxx深喉| 人妻少妇人人丰满视频网站| 亚洲av色av成人噜噜噜| 丰满少妇呻吟高潮经历| 波多野结衣国产一区二区三区| 亚洲国产成人av第一二三区| 亚洲国产精品无码一线岛国| 亚洲国产韩国欧美在线| 亚洲AV无码一区二区一二区色戒 | 人妻人妇av一区二区三区四区| 国产精品无码av无码| 小12萝8禁在线喷水观看| 麻豆AV无码久久精品蜜桃久久| 日本亚洲系列中文字幕| 免费人成视频x8x8入口| 亚洲精品综合第一国产综合| 久久午夜一区二区三区| 人妻丰满av无码中文字幕| AV无码最在线播放|