亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于加權(quán)協(xié)同表示的人臉識(shí)別方法

        2022-06-23 11:12:08楊章靜王鏡宇張凡龍
        關(guān)鍵詞:訓(xùn)練樣本識(shí)別率人臉

        楊章靜,王鏡宇,黃 璞,張凡龍

        (1.南京審計(jì)大學(xué) 信息工程學(xué)院,江蘇 南京 211815;2.南京審計(jì)大學(xué) 江蘇省審計(jì)信息工程重點(diǎn)實(shí)驗(yàn)室,江蘇 南京 211815)

        0 引 言

        過(guò)去幾十年,研究者提出了諸多的人臉識(shí)別方法[1],其中基于表示學(xué)習(xí)的分類(lèi)方法被提出并廣泛應(yīng)用于人臉識(shí)別。常見(jiàn)的分類(lèi)器有稀疏表示分類(lèi)器(sparse representation based classification,SRC)、線(xiàn)性回歸分類(lèi)器(linear regression based classification,LRC)、協(xié)同表示分類(lèi)器(collaborative representation classification,CRC)。近些年,基于上述方法,研究者提出多種改進(jìn)方法,并廣泛應(yīng)用于圖像分類(lèi)。如KCRC[2]、TCRC[3]、CCRC[4]、WDCCR[5]、Pro-CRC[6]、Bags CRC[7]均在圖像分類(lèi)時(shí)取得較好的效果。

        通過(guò)研究上述基礎(chǔ)分類(lèi)和改進(jìn)算法后,發(fā)現(xiàn)SRC在求解最優(yōu)化問(wèn)題時(shí),需要基于L1范數(shù),求解過(guò)程較為復(fù)雜,所耗費(fèi)時(shí)間較長(zhǎng)。LRC是假定待識(shí)別圖像可由某類(lèi)樣本線(xiàn)性表示而成,其特征表達(dá)能力與每類(lèi)樣本的數(shù)目相關(guān)。CRC在利用全體訓(xùn)練圖像線(xiàn)性表示待識(shí)別圖像時(shí),也沒(méi)有考慮不同類(lèi)別樣本之間的差異性,導(dǎo)致特征表達(dá)能力較弱,識(shí)別能力同樣受到影響。

        針對(duì)以上問(wèn)題,本文將待識(shí)別圖像線(xiàn)性表示成全體訓(xùn)練圖像的線(xiàn)性組合,同時(shí)將待識(shí)別圖像與每類(lèi)樣本的距離信息作為先驗(yàn)信息引入到特征表示函數(shù)中,提出了加權(quán)協(xié)同表示(weighted collaborative representation classification,WCRC),在Yale B、CMU PIE及AR人臉庫(kù)上的實(shí)驗(yàn)結(jié)果表明,WCRC較其它算法取得了更好的識(shí)別效果。

        1 協(xié)同表示分類(lèi)器

        首先假設(shè)每幅圖像的大小為w×h, 訓(xùn)練樣本來(lái)自c個(gè)圖像類(lèi),每類(lèi)的樣本數(shù)量為n0, 訓(xùn)練樣本表示為xi∈D, 其中D=w×h, 訓(xùn)練集樣本表示為X=[x1,x2……xn], 將待識(shí)別樣本表示為y, 其中n表示人臉圖像訓(xùn)練樣本數(shù)n=n0×c。

        根據(jù)協(xié)同表示分類(lèi)器的思想,待識(shí)別樣本可以表示為全體樣本的線(xiàn)性組合

        (1)

        目標(biāo)函數(shù)如下

        (2)

        式中:w=[w11,w12,…,w21,…wcn0]T∈n×1為線(xiàn)性重構(gòu)系數(shù),wab表示第a類(lèi)的第b個(gè)樣本的表示系數(shù)。使用最小二乘法來(lái)求解w,其中λ為正則項(xiàng)參數(shù)

        (3)

        利用拉格朗日乘子法求解并化簡(jiǎn)目標(biāo)函數(shù)如下

        (4)

        式中:P=(XTX+λ·I)XT, 每個(gè)樣本的重構(gòu)系數(shù)殘差為

        (5)

        待測(cè)試樣本歸類(lèi)為第k類(lèi)

        γk=argminiγk

        (6)

        2 加權(quán)協(xié)同表示分類(lèi)器

        CRC使用全體訓(xùn)練樣本作為字典集協(xié)同表示待識(shí)別樣本,將所有訓(xùn)練樣本不加區(qū)別地利用,該算法沒(méi)有考慮到樣本間的區(qū)別性,同時(shí)算法引入了正則項(xiàng)系數(shù),使得識(shí)別率不穩(wěn)定,對(duì)含有遮擋的數(shù)據(jù)缺乏魯棒性。受CRC啟發(fā),將待測(cè)試樣本與訓(xùn)練樣本間的距離作為權(quán)重引入到協(xié)同表示過(guò)程中,提出了基于加權(quán)的協(xié)同表示方法。

        2.1 算法思想

        通過(guò)研究協(xié)同表示的多個(gè)改進(jìn)算法[3-7]和稀疏表示原理[8,9]后,發(fā)現(xiàn)對(duì)協(xié)作表示系數(shù)的約束和加權(quán)是增強(qiáng)模型表示能力的簡(jiǎn)單而有效的方法,通過(guò)引入權(quán)重增強(qiáng)樣本間區(qū)別性[10-13]。為克服正則項(xiàng)參數(shù)敏感問(wèn)題,使用Bootstrap抽樣生成不同的樣本集,采用多分類(lèi)器投票產(chǎn)生結(jié)果[14],文獻(xiàn)[6,7]從增強(qiáng)樣本間的競(jìng)爭(zhēng)角度出發(fā),利用樣本的區(qū)別性提高識(shí)別率。為了增加樣本間差異性,同時(shí)減少正則項(xiàng)參數(shù)對(duì)結(jié)果的影響,加強(qiáng)模型對(duì)各種數(shù)據(jù)的魯棒性,提出基于加權(quán)的協(xié)同表示算法。算法首先對(duì)數(shù)據(jù)進(jìn)行特征提取(PCA、LDA、LPP);然后利用最小二乘法求解表示系數(shù),并基于L2范數(shù)求解最優(yōu)化問(wèn)題,將距離作為先驗(yàn)信息引入到目標(biāo)函數(shù)構(gòu)造中,使得模型表征能力增強(qiáng);最后根據(jù)待識(shí)別圖像與每類(lèi)訓(xùn)練圖像的重構(gòu)殘差大小判斷待識(shí)別圖像的類(lèi)別。

        考慮到類(lèi)別間的區(qū)別度,通過(guò)引入距離作為權(quán)重的有效性驗(yàn)證,根據(jù)樣本與類(lèi)別間的距離遠(yuǎn)近來(lái)弱化或增強(qiáng)對(duì)應(yīng)類(lèi)別在協(xié)同表示中的權(quán)重,假設(shè)待測(cè)試樣本y∈Xi, 其它樣本Xo, 目標(biāo)函數(shù)可寫(xiě)成

        (7)

        當(dāng)di增加,do減小時(shí),Xi在回歸中所占比重增加,Xo所占比重減小,導(dǎo)致Wi能以更小的變化,Wo需要更大的變化對(duì)協(xié)同表示結(jié)果產(chǎn)生影響,使得最后協(xié)同表示的結(jié)果更偏向于在距離上較近的分類(lèi)。以Yale B數(shù)據(jù)庫(kù)為例,對(duì)比WCRC與CRC在同一類(lèi)待識(shí)別樣本隨訓(xùn)練樣本數(shù)目遞增情況下的平均重構(gòu)殘差,計(jì)算公式如下

        (8)

        式中:y為待識(shí)別樣本,X為訓(xùn)練樣本,W為重構(gòu)系數(shù),如圖1所示。

        圖1 待測(cè)試樣本在CRC和WCRC算法下的重構(gòu)殘差

        由圖1可知,WCRC重構(gòu)殘差整體保持在CRC的下方,隨著訓(xùn)練樣本數(shù)增加,其對(duì)圖像的表示能力逐漸接近。因此引入距離作為加權(quán)可以明顯增強(qiáng)模型的表示能力,使得重構(gòu)后的圖像與待測(cè)試圖像之間的殘差更小,可見(jiàn)將距離作為先驗(yàn)信息可以增強(qiáng)模型的表示能力。

        為了進(jìn)一步驗(yàn)證引入距離信息作為權(quán)重對(duì)分類(lèi)結(jié)果有效,根據(jù)文獻(xiàn)[5]引入相似系數(shù)

        Similar Corr(y,XiWi)=yTXiWi

        (9)

        式中:y為待識(shí)別圖像,Xi為第i類(lèi)的訓(xùn)練圖像,Wi為第i類(lèi)的表示系數(shù),待測(cè)試圖像與某一類(lèi)線(xiàn)性表示結(jié)果越相似,則相似系數(shù)越大。以Yale B數(shù)據(jù)庫(kù)為例,圖2(a)、圖2(b)展示了CRC與WCRC對(duì)某類(lèi)樣本的平均重構(gòu)殘差和相似系數(shù),其中實(shí)線(xiàn)代表重構(gòu)殘差,虛線(xiàn)代表相似系數(shù)。

        圖2 樣本在CRC和WCRC算法下的重構(gòu)殘差和相似系數(shù)

        從圖2中可以看出相似系數(shù)和重構(gòu)殘差成反比關(guān)系,Gou等指出錯(cuò)誤分類(lèi)往往是由于錯(cuò)誤類(lèi)與正確類(lèi)存在較大相關(guān)性所致[5],對(duì)于這種問(wèn)題解決辦法是增強(qiáng)類(lèi)別間的競(jìng)爭(zhēng)性,因此可通過(guò)引入樣本間的先驗(yàn)信息,進(jìn)而增強(qiáng)類(lèi)別間的競(jìng)爭(zhēng)性,從而使得正確類(lèi)別能在協(xié)同表示中更具優(yōu)勢(shì)。圖2(c)展示了CRC與WCRC對(duì)某類(lèi)樣本的重構(gòu)殘差對(duì)比情況,其中正三角代表CRC中錯(cuò)誤的類(lèi)別重構(gòu)殘差,倒三角代表正確類(lèi)別的重構(gòu)殘差,圓形代表WCRC中錯(cuò)誤類(lèi)別的重構(gòu)殘差,方形代表正確類(lèi)別的重構(gòu)殘差,從圖2(a)~圖2(c)可以看出WCRC算法在略微增加正確類(lèi)別重構(gòu)殘差的情況下,大幅增加錯(cuò)誤類(lèi)別的重構(gòu)殘差,同時(shí)使正確類(lèi)別的相似系數(shù)更大,增強(qiáng)了類(lèi)別間的競(jìng)爭(zhēng)性。圖2(d)展示了將不同類(lèi)按距離從近到遠(yuǎn)排序后,對(duì)某樣本不同類(lèi)所占的重構(gòu)系數(shù)比重。星形代表CRC的重構(gòu)系數(shù)權(quán)重,圓形代表WCRC的重構(gòu)系數(shù)權(quán)重,由圖2可知,引入距離作為先驗(yàn)信息可以顯著增強(qiáng)協(xié)同表示下不同類(lèi)的差異性,使距離較近的類(lèi)樣本在重構(gòu)系數(shù)中的權(quán)重增強(qiáng),提高模型的協(xié)同表示能力,提高了最終識(shí)別率。

        2.2 算法描述

        設(shè)每幅圖像的大小為w×h, 訓(xùn)練樣本來(lái)自c個(gè)圖像類(lèi),每類(lèi)的樣本數(shù)量為n0,將訓(xùn)練樣本表示為xi∈D, 其中D=w×h, 將訓(xùn)練集樣本表示為X=[x1,x2,…,xn], 將待識(shí)別樣本表示為y,其中n表示人臉圖像訓(xùn)練樣本數(shù)n=n0×c。

        (1)令di表示待識(shí)別樣本y與第i類(lèi)樣本距離,則di計(jì)算式為

        (10)

        (2)令W=[w1,w2,…,w3]T∈Rn×1表示線(xiàn)性組合系數(shù)向量,其中wi表示訓(xùn)練樣本xi對(duì)重構(gòu)y的表示系數(shù)。根據(jù)樣本類(lèi)別,可將W表示為W=[W1,W2,…,Wc]T∈Rn×1。 結(jié)合待識(shí)別樣本與每類(lèi)樣本之間的距離信息,對(duì)于待識(shí)別樣本y可由全體訓(xùn)練樣本協(xié)同表示為

        (11)

        式中:Λ為對(duì)角矩陣,對(duì)角線(xiàn)上的元素Xi(i=1,2,…,c) 為第i類(lèi)樣本的集合且Xi=[X1,X2,…,Xc]。

        (3)根據(jù)最小二乘法,線(xiàn)性重構(gòu)向量W可通過(guò)求解以下目標(biāo)函數(shù)獲得

        (12)

        式中:ε>0表示重構(gòu)殘差。

        (13)

        求W偏導(dǎo)數(shù),并將其設(shè)置為0,進(jìn)一步化簡(jiǎn)可得

        (14)

        式中:I∈Rn×n為單位矩陣。

        (5)構(gòu)造待識(shí)別樣本的類(lèi)標(biāo)判別規(guī)則,判斷待識(shí)別樣本類(lèi)別,待識(shí)別樣本y與第i類(lèi)樣本的重構(gòu)殘差為

        (15)

        γk=argminiγi(i=1,2,…,c)

        (16)

        則可將待識(shí)別樣本y歸為第k類(lèi)。

        3 實(shí)驗(yàn)結(jié)果與分析

        本章節(jié)通過(guò)實(shí)驗(yàn)驗(yàn)證WCRC算法的有效性和可靠性,主要采用識(shí)別率作為評(píng)判標(biāo)準(zhǔn)驗(yàn)證算法性能,對(duì)比算法有NNC、SRC、MDC、LRC、CRC。在Yale B、CMU PIE人臉庫(kù)上分別設(shè)置5組和3組實(shí)驗(yàn),用于檢驗(yàn)WCRC對(duì)于不同光照條件和表情變化的分類(lèi)性能;在CMU PIE人臉庫(kù)上設(shè)置1組運(yùn)行時(shí)間對(duì)照實(shí)驗(yàn);在AR人臉庫(kù)上設(shè)置4組實(shí)驗(yàn),用于檢驗(yàn)WCRC對(duì)于大幅表情變化的分類(lèi)性能;同時(shí)設(shè)置2組關(guān)于正則項(xiàng)參數(shù)的實(shí)驗(yàn)來(lái)檢驗(yàn)正則項(xiàng)對(duì)WCRC識(shí)別率的影響。所有實(shí)驗(yàn)均在MATLAB(2020a)環(huán)境下運(yùn)行。

        3.1 Yale B數(shù)據(jù)庫(kù)實(shí)驗(yàn)

        Yale B人臉庫(kù)包含38人的64種不同姿態(tài)和光照條件下的2432幅圖像,其中的姿態(tài)和光照變化圖像都在嚴(yán)格控制條件下采集的,Yale B數(shù)據(jù)庫(kù)上的部分人臉圖像如圖3所示。

        圖3 Yale B數(shù)據(jù)庫(kù)上的部分人臉圖像

        實(shí)驗(yàn)時(shí)按順序選取前l(fā)(=8,12,16,20,24) 個(gè)樣本作為訓(xùn)練樣本,剩余的作為測(cè)試樣本。所有樣本歸一化處理后,統(tǒng)一經(jīng)過(guò)PCA降維處理,特征維數(shù)取值從80到150間隔為10,SRC、CRC和WCRC中的參數(shù)λ=0.01。實(shí)驗(yàn)結(jié)果如圖4(a)~圖4(e)所示,表1為Yale B數(shù)據(jù)庫(kù)上幾種方法取得的最高準(zhǔn)確率。

        由表1可知,在大部分情況下,WCRC識(shí)別率都高于其它算法,且在訓(xùn)練樣本較少時(shí),相較于SRC與LRC,算法優(yōu)勢(shì)明顯,證明了協(xié)同表示的有效性;相較于CRC,識(shí)別率也有一定幅度的提升。WCRC引入距離作為先驗(yàn)信息增強(qiáng)模型的特征表示能力,有效地提高了識(shí)別率,算法識(shí)別性能隨樣本數(shù)和維數(shù)提升穩(wěn)定,說(shuō)明WCRC對(duì)于不同光照條件下的人臉具有較好的分類(lèi)和表示能力。

        3.2 CMU PIE數(shù)據(jù)庫(kù)實(shí)驗(yàn)

        CMU PIE人臉庫(kù)C29部分包含68人,每人24幅,共1632幅圖像,均為像素的灰度圖片,CMU PIE數(shù)據(jù)庫(kù)上的部分人臉圖像如圖5所示。

        實(shí)驗(yàn)選取前l(fā)(=4,6,8) 個(gè)樣本作為訓(xùn)練集,剩余的訓(xùn)練樣本作為測(cè)試集。所有樣本歸一化處理后,統(tǒng)一經(jīng)過(guò)PCA降維處理,特征維數(shù)取值從80到150間隔為10,SRC、CRC和WCRC中的參數(shù)λ=0.01。實(shí)驗(yàn)結(jié)果如圖6(a)~圖6(c)所示,表2、表3分別顯示CMU PIE數(shù)據(jù)庫(kù)上各算法的最高識(shí)別率及耗時(shí)。

        CMU PIE數(shù)據(jù)庫(kù)的人臉圖像有強(qiáng)烈的明暗對(duì)比,且有一定的偏轉(zhuǎn)角度,WCRC在以上各種情況下都取得了較高的識(shí)別率,在l=8時(shí)識(shí)別率相較于CRC算法顯著增加。由表2可知,LRC和SRC的識(shí)別率依賴(lài)于樣本數(shù)量,這進(jìn)一步說(shuō)明在訓(xùn)練數(shù)據(jù)較少情況下協(xié)同表示的有效性,以及WCRC在不同光照條件下的魯棒性。由表3可知,由于WCRC基于L2范數(shù)求解,相較于SRC,其運(yùn)行時(shí)間大幅減少,但由于增加了測(cè)試樣本與訓(xùn)練樣本的距離運(yùn)算,所以相較于CRC運(yùn)算稍慢。

        3.3 AR數(shù)據(jù)庫(kù)實(shí)驗(yàn)

        AR人臉庫(kù)有3276幅圖像,包含126人,包含不同表情、光照、角度、遮擋等情況,每人26張,分兩部分,前后各13張,間隔14天采集。實(shí)驗(yàn)中的圖像經(jīng)過(guò)預(yù)處理采用不含遮擋的數(shù)據(jù)庫(kù),一共120個(gè)類(lèi)別,每個(gè)類(lèi)別14幅圖像,一共1680個(gè)樣本,AR數(shù)據(jù)庫(kù)上的部分人臉圖像如圖7 所示。

        實(shí)驗(yàn)時(shí)選取前l(fā)(=3,5,7,9) 幅圖像作為訓(xùn)練樣本,剩余的作為測(cè)試樣本,所有樣本經(jīng)過(guò)歸一化處理后,特征維數(shù)取值從80到150間隔為10,SRC、CRC和WCRC中的參數(shù)λ=0.01,實(shí)驗(yàn)結(jié)果如圖8(a)~圖8(d)所示,表4為AR數(shù)據(jù)庫(kù)上幾種方法的實(shí)驗(yàn)對(duì)比結(jié)果。

        由表4可知,WCRC表現(xiàn)出較好的分類(lèi)性能,在各個(gè)訓(xùn)練樣本數(shù)下,均取得最高識(shí)別率;并且在維數(shù)和樣本數(shù)較低時(shí),相較于其它分類(lèi)算法優(yōu)勢(shì)明顯,且在l=5時(shí),識(shí)別率相較于CRC算法顯著增加,可見(jiàn)WCRC算法對(duì)于表情變化具有較強(qiáng)的魯棒性。

        3.4 圖像遮擋實(shí)驗(yàn)

        本節(jié)主要探究WCRC算法在圖像存在遮擋時(shí)的有效性以及含有遮擋數(shù)據(jù)的魯棒性。實(shí)驗(yàn)以AR人臉數(shù)據(jù)庫(kù)中無(wú)遮

        圖4 Yale B數(shù)據(jù)庫(kù)上各算法在不同訓(xùn)練樣本數(shù)下識(shí)別率變化情況

        表1 Yale B數(shù)據(jù)庫(kù)上WCRC與其它算法識(shí)別率比較/%

        圖5 CMU PIE數(shù)據(jù)庫(kù)上的部分人臉圖像

        圖6 CMU PIE數(shù)據(jù)庫(kù)上各算法在不同訓(xùn)練樣本數(shù)下識(shí)別率變化情況

        表2 CMU PIE數(shù)據(jù)庫(kù)上WCRC與其它算法 識(shí)別率比較/%

        表3 CMU PIE數(shù)據(jù)庫(kù)上各算法耗時(shí)比較/s

        圖7 AR數(shù)據(jù)庫(kù)上的部分人臉圖像

        表4 AR數(shù)據(jù)庫(kù)上WCRC與其它算法識(shí)別率比較/%

        圖8 AR數(shù)據(jù)庫(kù)上各算法在不同訓(xùn)練樣本數(shù)下識(shí)別率變化情況

        圖9 AR數(shù)據(jù)集上的遮擋圖像

        擋的前l(fā)(=14)幅圖像作為訓(xùn)練樣本,將含遮擋的圖像按遮擋類(lèi)型分兩部分,作為兩組測(cè)試樣本。所有圖像均經(jīng)過(guò)歸一化后使用PCA提取特征并保留特征維數(shù)到150,數(shù)據(jù)集上的遮擋圖像如圖9所示,包含墨鏡和圍巾兩部分,實(shí)驗(yàn)結(jié)果如圖10所示。

        由圖10(a)可知,在墨鏡遮擋情況下所有算法均取得了相似的識(shí)別效果,且都保持在90%以上;由圖10(b)可知,在圍巾遮擋情況下體現(xiàn)了協(xié)同表示算法的有效性,SRC、LRC、NNC的識(shí)別率均在40%以下,協(xié)同表示算法的識(shí)別率均在45%以上。其中WCRC算法相較于CRC算法表現(xiàn)出更魯棒和有效的結(jié)果。究其原因,墨鏡對(duì)人臉保留了絕大部分特征,所以識(shí)別率沒(méi)有受到太大影響。對(duì)于圍巾遮擋情況,由于嘴部及臉部的灰度輪廓是重要的識(shí)別特征[15],被遮擋后導(dǎo)致大部分特征丟失,無(wú)法有效辨別正確的類(lèi),所以識(shí)別率較低。WCRC引入了距離作為權(quán)重系數(shù),增強(qiáng)了類(lèi)別間的區(qū)別度,一定程度上強(qiáng)化了部分特征,所以取得了更好的分類(lèi)性能,使得算法對(duì)含有存在遮擋的數(shù)據(jù)更具有魯棒性。

        3.5 正則項(xiàng)參數(shù)實(shí)驗(yàn)

        本節(jié)主要探究所提算法選取不同的正則項(xiàng)參數(shù)對(duì)于識(shí)別率的影響,實(shí)驗(yàn)以AR數(shù)據(jù)庫(kù)在訓(xùn)練樣本數(shù)為9時(shí)舉例,具體設(shè)置兩組實(shí)驗(yàn),第1組按順序選取樣本,正則項(xiàng)參數(shù)λ從0到10之間等間距取50個(gè)值;第2組實(shí)驗(yàn)隨機(jī)選取訓(xùn)練樣本,剩余的樣本作為測(cè)試樣本,正則項(xiàng)參數(shù)λ從0到1之間等間距取20個(gè)值,實(shí)驗(yàn)結(jié)果如圖11所示。

        由圖11(a)可知,隨著正則項(xiàng)增加,識(shí)別率先升后降,在λ=0時(shí)CRC與WCRC均失效。CRC與WCRC均在λ=0.02附近取得最高識(shí)別率。相較于CRC,WCRC隨著正則項(xiàng)增加,識(shí)別率衰減較緩慢;由圖11(b)可知在隨機(jī)選擇訓(xùn)練樣本和測(cè)試樣本情況下,λ取值在10-5到1之間時(shí),WCRC識(shí)別率保持穩(wěn)定,且識(shí)別率在不同樣本下具有相同的變化趨勢(shì),這表明WCRC對(duì)于不同數(shù)據(jù)的選擇具有魯棒性。

        3.6 實(shí)驗(yàn)結(jié)果分析

        根據(jù)實(shí)驗(yàn)結(jié)果,可得結(jié)論如下:

        (1)在訓(xùn)練數(shù)據(jù)較少時(shí),協(xié)同表示算法利用全部訓(xùn)練樣本作為字典集表示待識(shí)別樣本,算法識(shí)別率較高。WCRC引入距離信息作為權(quán)重構(gòu)造目標(biāo)函數(shù),增加了類(lèi)別間的區(qū)分度,提高了正確分類(lèi)的概率,使得引入距離作為先驗(yàn)信息,有效提高了算法的準(zhǔn)確率。在CMU PIE數(shù)據(jù)庫(kù)上的訓(xùn)練樣本從l=6到l=8和在AR數(shù)據(jù)庫(kù)上的訓(xùn)練樣本從l=3到l=5,相比CRC,WCRC識(shí)別率有了大幅提高,隨后與CRC相近,這是由于WCRC隨著訓(xùn)練樣本數(shù)增加,樣本內(nèi)均值更具代表性,引入距離作為權(quán)重,使得WCRC在較少樣本數(shù)時(shí)便能取得高識(shí)別率,隨后樣本繼續(xù)增加,樣本的內(nèi)均值趨于穩(wěn)定,識(shí)別率變化相對(duì)較小。

        圖10 圖像遮擋情況下識(shí)別率變化情況

        圖11 識(shí)別率隨正則項(xiàng)參數(shù)變化情況

        (2)WCRC進(jìn)一步優(yōu)化SRC的L1范數(shù)求解,采用L2范數(shù)作為約束條件,所以相較于SRC,算法復(fù)雜度大幅降低,求解過(guò)程簡(jiǎn)單,計(jì)算速度較快。由于增加了對(duì)于樣本間距離信息的處理,需要計(jì)算待識(shí)別樣本與其它測(cè)試樣本間的距離,所以相較于CRC,有一定的復(fù)雜度提升,耗時(shí)稍長(zhǎng)。

        (3)對(duì)比其它算法,WCRC對(duì)含有遮擋的數(shù)據(jù)具有更強(qiáng)的辨別能力。由于考慮到樣本間的距離信息,使得算法對(duì)于結(jié)果更傾向于選擇距離較近圖像的特征,從而增強(qiáng)了算法對(duì)含有遮擋數(shù)據(jù)集的識(shí)別率。

        (4)對(duì)于算法中可調(diào)節(jié)正則項(xiàng)參數(shù)λ,其取值對(duì)算法識(shí)別率有一定的影響。但WCRC引入距離作為權(quán)重信息參與目標(biāo)函數(shù)的構(gòu)建,使得目標(biāo)函數(shù)中λ作用相對(duì)減弱,WCRC對(duì)正則項(xiàng)參數(shù)的取值相對(duì)不那么敏感。

        (5)WCRC在CRC基礎(chǔ)上提出,由上述實(shí)驗(yàn)結(jié)果可知,在3種人臉庫(kù)上,相較于CRC,WCRC取得較好的識(shí)別效果,這主要是由于WCRC考慮了樣本間的距離信息。

        (6)由表1、表2、表4可知,WCRC在3種人臉庫(kù)上,相較于其它算法,均取得了較好的識(shí)別效果,這進(jìn)一步驗(yàn)證了所提算法的有效性。

        4 結(jié)束語(yǔ)

        針對(duì)SRC和CRC在處理人臉識(shí)別時(shí)存在的缺陷,提出基于加權(quán)協(xié)同表示的人臉識(shí)別方法(WCRC)。WCRC利用樣本間的距離作為先驗(yàn)信息引入到目標(biāo)函數(shù)中,突出了樣本之間的區(qū)別度,使得模型的協(xié)同表示能力和識(shí)別能力增強(qiáng),同時(shí)算法采用L2范數(shù)作為稀疏解的約束條件,放寬了重構(gòu)系數(shù)的稀疏性要求,在面對(duì)人臉圖像的光照、表情、姿態(tài)等變化時(shí),算法特征表達(dá)能力較強(qiáng),在降低算法復(fù)雜度同時(shí),均可取得較好的人臉識(shí)別效果。

        在實(shí)驗(yàn)時(shí)發(fā)現(xiàn)不同的預(yù)處理方法會(huì)影響最終識(shí)別的結(jié)果,究其原因是不同處理方法會(huì)導(dǎo)致類(lèi)別間的距離發(fā)生一定程度上的改變,因此如何進(jìn)一步優(yōu)化預(yù)處理,尋找一種穩(wěn)定、有效的類(lèi)別間距離表示方式是接下來(lái)研究和優(yōu)化的主要工作。

        猜你喜歡
        訓(xùn)練樣本識(shí)別率人臉
        有特點(diǎn)的人臉
        基于類(lèi)圖像處理與向量化的大數(shù)據(jù)腳本攻擊智能檢測(cè)
        人工智能
        基于真耳分析的助聽(tīng)器配戴者言語(yǔ)可懂度指數(shù)與言語(yǔ)識(shí)別率的關(guān)系
        三國(guó)漫——人臉解鎖
        提升高速公路MTC二次抓拍車(chē)牌識(shí)別率方案研究
        寬帶光譜成像系統(tǒng)最優(yōu)訓(xùn)練樣本選擇方法研究
        融合原始樣本和虛擬樣本的人臉識(shí)別算法
        基于稀疏重構(gòu)的機(jī)載雷達(dá)訓(xùn)練樣本挑選方法
        高速公路機(jī)電日常維護(hù)中車(chē)牌識(shí)別率分析系統(tǒng)的應(yīng)用
        亚洲中文av一区二区三区| 国产激情一区二区三区| 免费1级做爰片1000部视频| 又爽又黄无遮挡高潮视频网站| 日本在线观看| 白丝美女被狂躁免费视频网站| 国产经典免费视频在线观看| 蜜臀av一区二区三区| 无码无套少妇毛多18p | 午夜天堂精品久久久久| 欧美性开放bbw| 一区二区三区不卡在线| 国产女主播大秀在线观看 | 国产午夜精品无码| 18成人片黄网站www| 一区二区三区国产在线网站视频| 久久99精品免费国产| 精品在线视频在线视频在线视频 | 国产乱人伦偷精品视频还看的| 国产亚洲精品国产精品| 亚洲中文字幕成人无码| 中文字幕免费观看视频| 精品亚洲视频免费观看网站| 少妇一区二区三区久久| 无码免费一区二区三区| 久久精品国产亚洲不av麻豆| 国产免费一区二区三区在线视频| 日韩肥臀人妻中文字幕一区| 国产成人a在线观看视频免费 | 国产成人精品cao在线| 久久久人妻精品一区bav| 国产福利永久在线视频无毒不卡| 日日猛噜噜狠狠扒开双腿小说| 亚洲天堂中文| 亚洲天堂av中文字幕| 免费看美女被靠到爽的视频| 少妇内射高潮福利炮| 日日噜噜夜夜狠狠久久av| 中文字幕av永久免费在线| 亚洲无亚洲人成网站77777| 成年女人A级毛片免|