亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        局部通用加權(quán)協(xié)同表示人臉識(shí)別*

        2022-11-10 06:39:56游春芝
        計(jì)算機(jī)時(shí)代 2022年11期
        關(guān)鍵詞:訓(xùn)練樣本范數(shù)識(shí)別率

        崔 建,游春芝

        (山西醫(yī)科大學(xué)汾陽學(xué)院基礎(chǔ)醫(yī)學(xué)部,山西 呂梁 032200)

        0 引言

        隨著人工智能的飛速發(fā)展,人臉識(shí)別被廣泛的應(yīng)用于各個(gè)領(lǐng)域當(dāng)中,如刷臉支付、身份認(rèn)證、目標(biāo)定位等。近些年來,稀疏表示[1-2]在人臉識(shí)別、深度學(xué)習(xí)等領(lǐng)域深受研究者的青睞,而基于稀疏表示的人臉識(shí)別往往在面臨著表情、光照、遮擋等復(fù)雜的變化環(huán)境時(shí)識(shí)別效果不大理想。如何在這種復(fù)雜變化環(huán)境中取得更好的效果,成為現(xiàn)階段人臉識(shí)別研究的熱點(diǎn)。稀疏表示理論最早是由Wright[3]等人提出并用于人臉識(shí)別領(lǐng)域,在理想環(huán)境下取得了較好的效果。稀疏表示的核心在于:將測(cè)試人臉圖像在L1范數(shù)約束下通過訓(xùn)練樣本進(jìn)行線性表出,理想狀態(tài)下同一類人臉樣本線性表示后對(duì)應(yīng)的組合系數(shù)非零,而其他系數(shù)全為零。稀疏表示中系數(shù)求解需要構(gòu)建一個(gè)過完備的訓(xùn)練字典,而且在L1 范數(shù)約束下計(jì)算量比較大。Zhang[4]等人提出基于L2范數(shù)約束的正則化協(xié)同表示算法,討論并說明樣本整體之間的協(xié)同作用在線性表示過程中起到至關(guān)重要的作用,而且對(duì)應(yīng)系數(shù)的解是封閉的,相比稀疏表示計(jì)算要快的多。文獻(xiàn)[5-6]中一些基于加權(quán)的稀疏表示算法相繼被提出,作者將測(cè)試樣本與訓(xùn)練樣本之間的局部距離作為系數(shù)權(quán)重約束,增強(qiáng)稀疏表示或協(xié)同表示的線性可分性,進(jìn)而增強(qiáng)算法的識(shí)別效果。但是如果待測(cè)人臉存在遮擋或者表情發(fā)生巨大變化時(shí)這些算法就很難取得理想的識(shí)別效果。為了增強(qiáng)鑒別性特征的稀疏表示性能,基于構(gòu)建通用訓(xùn)練樣本的算法相繼被提出。如Deng等人[7]提出一種擴(kuò)展的稀疏表示算法ESRC 方法,通過訓(xùn)練樣本構(gòu)建人臉類內(nèi)變化字典,克服樣本信息的缺失,增強(qiáng)稀疏表示性能;Yang 等人[8]提出一種基于局部通用表示的協(xié)同表示人臉識(shí)別算法,首先將每個(gè)人臉圖像進(jìn)行分塊化處理,然后構(gòu)建類內(nèi)變化字典,從而提高算法的性能。

        受構(gòu)建通用訓(xùn)練集加權(quán)約束思想的啟發(fā),本文提出了一種基于局部通用的加權(quán)協(xié)同表示人臉識(shí)別算法。為了增強(qiáng)協(xié)同表示的性能,我們一方面根據(jù)訓(xùn)練樣本構(gòu)建通用的類內(nèi)變化字典,增強(qiáng)因光照、表情遮擋等變化訓(xùn)練樣本對(duì)測(cè)試樣本的線性表示性能;另一方面為了提高協(xié)同表示中樣本之間的競(jìng)爭(zhēng)性,以及同一類樣本的線性表示性能,我們引入加權(quán)判別項(xiàng)別,以便從正確的類別中獲得優(yōu)勢(shì)的線性表出,從而更高效地對(duì)人臉進(jìn)行協(xié)同表示,提高表情、遮擋等環(huán)境變化下人臉識(shí)別的準(zhǔn)確率和魯棒性。

        1 相關(guān)工作

        稀疏表示的核心在于將測(cè)試樣本通過訓(xùn)練樣本線性表示,并且對(duì)系數(shù)增加稀疏性條件約束。對(duì)于給定的訓(xùn)練樣本A=[A1,A2…AR],測(cè)試樣本y ∈Rm×1,其中訓(xùn)練樣本A 是由R 個(gè)用戶組成,Ar=[v1,v2…vm]表示第r個(gè)用戶的m張人臉數(shù)據(jù)組成的矩陣。存在線性表示使得y=Aα,如果對(duì)系數(shù)α 添加稀疏性約束后,理想狀態(tài)下稀疏系數(shù)就可以表示為x=只有同類樣本對(duì)應(yīng)的系數(shù)非零,而其他系數(shù)為零。對(duì)應(yīng)的目標(biāo)函數(shù)就可以表示為:

        其中‖ ‖0表示L0 范數(shù),即對(duì)應(yīng)系數(shù)中非零元素的個(gè)數(shù),式⑴是一個(gè)NP 問題,不能直接進(jìn)行求解。為此Wright 等人提出將目標(biāo)函數(shù)進(jìn)行縮放,轉(zhuǎn)化成可求解的基于L1范數(shù)約束的可求解優(yōu)化問題。即:

        最后根據(jù)誤差對(duì)樣本進(jìn)行分類。

        為了克服基于L1 范數(shù)約束導(dǎo)致的計(jì)算復(fù)雜度,Zhang 等人提了一種基于L2 范數(shù)約束的正則化協(xié)同表示算法(CRC),與L1 范數(shù)約束不同,L2 范數(shù)約束強(qiáng)調(diào)的是樣本整體的協(xié)同作用,而非稀疏性。對(duì)應(yīng)的目標(biāo)函數(shù)為:

        而且,式⑶的解是封閉的,根據(jù)最小二乘法,對(duì)應(yīng)的系數(shù)α可表示為:

        2 局部通用加權(quán)協(xié)同表示(LGWCR)

        為了增強(qiáng)樣本的表示性能在[3-5]中研究者們提出構(gòu)建局部通用變化訓(xùn)練集的方法(Local Generic Weighted Collaborative Representation,LGWCR),即測(cè)試樣本y可以表示為:

        與式⑴不同,式⑸增加了一項(xiàng)Bβ,其中B表示新構(gòu)建的通用訓(xùn)練樣本,B=[-Gr,…,-Gr,…,-Gr],Gr一般表示標(biāo)準(zhǔn)化人臉,Gv表示包括光照、表情、遮擋變化的一組訓(xùn)練人臉。假設(shè)訓(xùn)練集Gv由M 種表情變化人臉組成Gv=[,…,,…,],那么基于通用表情變化字典就可以通過Gv、Gr構(gòu)造,即B=[-Gr,…,-Gr,…,-Gr],與稀疏表示不同,協(xié)同表示著重強(qiáng)調(diào)樣本整體之間的協(xié)作表示,而不是系數(shù)的稀疏性,基于L2范數(shù)約束的目標(biāo)函數(shù)⑸就可以表示為:

        記X=[A,B],S=[α β]T,根據(jù)最小二乘法系數(shù)S 就可表示為:

        為了增強(qiáng)協(xié)同表示中樣本之間的競(jìng)爭(zhēng)性,提高同一類樣本的線性表示性能。我們引入加權(quán)判別項(xiàng)別,以便從正確的類別中獲得優(yōu)勢(shì)表示。其中Ui表示第i 類訓(xùn)練樣本的均值,wi表示對(duì)應(yīng)類別的權(quán)重,一般來說訓(xùn)練樣本的均值能夠很好地反應(yīng)樣本數(shù)據(jù)的結(jié)構(gòu)特征,同類樣本與其均值樣本更相似。增加該約束項(xiàng)可以確保來自同一類別的線性表示能夠更接近樣本的均值。基于局部通用加權(quán)稀疏表示模型的定義為:

        其中γ1,γ2表示正則化參數(shù),Ui表示第i 類樣本均值,定義為:

        最后根據(jù)樣本誤差最小來判斷所屬類別:

        3 實(shí)驗(yàn)結(jié)果與分析

        為了驗(yàn)證改進(jìn)算法在人臉識(shí)別當(dāng)中的有效性,我們?nèi)」_的Extended Yale B、AR 人臉數(shù)據(jù)庫(kù)進(jìn)行仿真實(shí)驗(yàn),實(shí)驗(yàn)對(duì)照組算法為:CRC、SRC、RPCA、LGCRC、ESRC。將所有圖像調(diào)整為大小30×30 像素的灰度圖像,并對(duì)其標(biāo)準(zhǔn)化。在SRC,CRC 中我們選擇最優(yōu)正則化參數(shù)l分別為0.0005、0.001。選用的機(jī)器是Accer筆記本電腦,Windows 10 系統(tǒng),Matlab2014a,作為仿真平臺(tái)。

        3.1 Extended Yale B人臉庫(kù)

        實(shí)驗(yàn)一:Extended Yale B 人臉庫(kù)是由38 個(gè)人的2414 張人臉數(shù)據(jù)組成,按照光照角度變化又分成5 個(gè)子集。選取子集1 和2 的每個(gè)人前4 張圖像作為訓(xùn)練樣本,取子集1每個(gè)對(duì)象第一張正面人臉作為標(biāo)準(zhǔn)臉,子集2、3、4、5上選取每個(gè)人臉的前兩幅圖像用于構(gòu)建通用訓(xùn)練集的變化人臉,其余作為測(cè)試樣本,部分實(shí)驗(yàn)樣本如圖1所示。

        圖1 Extended Yale B人臉數(shù)據(jù)部分樣本

        在Extended Yale B 人臉庫(kù)的5 個(gè)子集上進(jìn)行仿真實(shí)驗(yàn),我們將改進(jìn)算法與CRC、SRC、RPCA、LGCRC、ESRC 算法進(jìn)行對(duì)比,對(duì)比結(jié)果如表1 所示。整體來看,從子集1 到子集5 識(shí)別率隨著光照變化逐步識(shí)別率逐漸降低,尤其是在子集5 上識(shí)別率最高才72.7%,但是在這幾種對(duì)照試驗(yàn)中我們的改進(jìn)算法相比較取得很好的效果。在子集1 上改進(jìn)的算法和ESRC 達(dá)到最高,改進(jìn)的算法比LGCRC 略高,LGCRC 與本文算法的不同之處就在于改進(jìn)的算法增加了加權(quán)條件約束項(xiàng)‖,用于增強(qiáng)協(xié)同表示中同類樣本的競(jìng)爭(zhēng)表示。在這幾組數(shù)據(jù)集上基于通用表示算法如:ESRC、LGCRC、LGWCR 要比傳統(tǒng)的CRC、SRC 算法平均要高出將近10 個(gè)百分點(diǎn),而且即便在子集5 上識(shí)別率基本上都能達(dá)到68.3%。隨著光照強(qiáng)度的變化這些傳統(tǒng)的基于表示的算法要比ESR、LGCRC以及本文的算法識(shí)別率要下降的快,尤其是CRC 識(shí)別率下降了40個(gè)百分點(diǎn),失去了協(xié)同表示的優(yōu)勢(shì)。改進(jìn)的局部通用加權(quán)協(xié)同表示算法在Extended Yale B 數(shù)據(jù)集上都比LGCRC 識(shí)別率普遍要高,平均要高出2 個(gè)百分點(diǎn),說明增加加權(quán)條件約束項(xiàng)在通用協(xié)同表示算法中起到了一定作用,這有助于提高光照變化下協(xié)同表示的識(shí)別率,增強(qiáng)算法的魯棒性。

        表1 Extended Yale B上的正確識(shí)別率(%)

        3.2 AR人臉數(shù)據(jù)庫(kù)

        實(shí)驗(yàn)二:AR 人臉數(shù)據(jù)庫(kù)是由126 個(gè)人4000 多張彩色圖像組成,該人臉主要包括光照變化、表情變化、偽裝(眼鏡和圍脖遮擋),AR 人臉數(shù)據(jù)部分樣本如圖2所示。實(shí)驗(yàn)中我們選取男女各50 個(gè)樣本作為實(shí)驗(yàn)對(duì)象其余作為構(gòu)建通用集。選取每個(gè)人前8張圖像作為訓(xùn)練樣本,其余作為測(cè)試樣本。構(gòu)建通用訓(xùn)練樣本時(shí)選取每個(gè)對(duì)象第一張正面無表情變化人臉作為標(biāo)準(zhǔn)臉,其余作為變化人臉。在AR 人臉數(shù)據(jù)中基于圍脖、和眼鏡遮擋比例大約為整幅圖像的20%-40%,部分圖像帶有光照、表情的變化。

        圖2 AR人臉數(shù)據(jù)部分樣本圖像

        在AR 人臉數(shù)據(jù)上我們分別對(duì)基于表情、墨鏡、圍脖遮擋的復(fù)雜環(huán)境下進(jìn)行實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果如表2所示。不難發(fā)現(xiàn)LGWCR性能明顯比其他算法在各種環(huán)境變化下效果要更理想。在這些復(fù)雜環(huán)境變化下LGWCR比傳統(tǒng)的CRC 平均高出11 個(gè)百分比,比基于通用表示的LGCRC 平均高出3 個(gè)百分比,比RPCA 平均高出4 個(gè)百分點(diǎn),比ESRC 高出2 個(gè)百分點(diǎn)?;谕ㄓ眉乃惴‥SRC比傳統(tǒng)的SRC平均高出7個(gè)百分點(diǎn)。

        表2 AR人臉數(shù)據(jù)庫(kù)識(shí)別率

        3.3 結(jié)果分析

        為了驗(yàn)證構(gòu)建的通用訓(xùn)練集和加權(quán)約束項(xiàng)在復(fù)雜環(huán)境變化下協(xié)同表示效果,取傳統(tǒng)的實(shí)驗(yàn)方法CRC、SRC、RPCA、ESRC 等作為對(duì)照,在Extended Yale B 和AR 人臉數(shù)據(jù)庫(kù)上構(gòu)建局部通用訓(xùn)練樣本,結(jié)果表明,不管是ESRC、LGCRC 以及本文的新算法都比傳統(tǒng)的稀疏表示和協(xié)同表示識(shí)別效果有很大的提高,這說明構(gòu)建通用的訓(xùn)練樣本有助于加強(qiáng)人臉的線性表示性能,提高識(shí)別效果。

        通過LGCRC 和本文算法對(duì)比,增加加權(quán)約束后,改進(jìn)算法識(shí)別率也都有不同程度的提高,表明加權(quán)約束增強(qiáng)同類樣本的協(xié)同表示性能。而且改進(jìn)的算法也是基于協(xié)同表示,其解是封閉的,要比基于稀疏表示、RPCA算法運(yùn)算要快的多。

        4 總結(jié)

        針對(duì)人臉臉識(shí)別存在的表情、遮擋等問題,提出了一種局部通用的加權(quán)協(xié)同表示算法。算法汲取了通用訓(xùn)練集在遮擋等復(fù)雜環(huán)境下優(yōu)勢(shì),而且為了增強(qiáng)協(xié)同表示中樣本之間的競(jìng)爭(zhēng)性,提高同一類樣本的線性表示性能,我們?cè)趨f(xié)同表示中構(gòu)建加權(quán)約束項(xiàng),從而更高效地對(duì)人臉進(jìn)行協(xié)同表示,提高表情、遮擋等環(huán)境變化下人臉識(shí)別的準(zhǔn)確率和魯棒性。在公開的Extended Yale B、AR 人臉數(shù)據(jù)庫(kù)進(jìn)行仿真實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果表明算法的有效性。但是對(duì)于構(gòu)建通用訓(xùn)練集的算法其對(duì)訓(xùn)練樣本要求比較高,容易導(dǎo)致協(xié)同表示信息的沉于,因此如何高效的篩選通用訓(xùn)練集還有待進(jìn)一步的研究。

        猜你喜歡
        訓(xùn)練樣本范數(shù)識(shí)別率
        基于類圖像處理與向量化的大數(shù)據(jù)腳本攻擊智能檢測(cè)
        人工智能
        基于真耳分析的助聽器配戴者言語可懂度指數(shù)與言語識(shí)別率的關(guān)系
        提升高速公路MTC二次抓拍車牌識(shí)別率方案研究
        基于加權(quán)核范數(shù)與范數(shù)的魯棒主成分分析
        矩陣酉不變范數(shù)H?lder不等式及其應(yīng)用
        寬帶光譜成像系統(tǒng)最優(yōu)訓(xùn)練樣本選擇方法研究
        融合原始樣本和虛擬樣本的人臉識(shí)別算法
        基于稀疏重構(gòu)的機(jī)載雷達(dá)訓(xùn)練樣本挑選方法
        高速公路機(jī)電日常維護(hù)中車牌識(shí)別率分析系統(tǒng)的應(yīng)用
        精品久久久久久无码国产| 久久免费看的少妇一级特黄片| 欧美精品色婷婷五月综合| 狠狠色婷婷久久一区二区三区| 中文字幕av中文字无码亚| 欧美日韩色另类综合| 久久久久久亚洲AV成人无码国产| 久久99精品免费国产| 国产精品午夜夜伦鲁鲁| 国产精品多p对白交换绿帽 | 欧美成aⅴ人高清免费| 久久视频在线视频精品 | 99久久精品无码一区二区毛片| 国产性生交xxxxx免费| 国产在线视欧美亚综合| 国产又湿又爽又猛的视频 | 熟女人妻一区二区在线观看| 自拍视频在线观看首页国产| 久久无码av一区二区三区| 伊人精品在线观看| 国产一区亚洲一区二区| 亚洲av熟女少妇久久| 天天天天躁天天爱天天碰| 国产艳妇av在线出轨| 久久精品国产精品亚洲艾| 久久精品国产亚洲av麻豆色欲| 中文字幕日韩一区二区不卡| 香蕉视频在线观看国产| 午夜精品一区二区三区av免费| 在线视频观看国产色网| 国产suv精品一区二区6| 亚洲中文字幕乱码免费| 水蜜桃视频在线观看入口| 2019日韩中文字幕mv| 亚欧国产女人天堂Av在线播放| av永远在线免费观看| 国产毛片av最新视频| 色婷婷综合久久久久中文| 亚洲成AV人片在一线观看| 国产在线观看午夜视频| 无码人妻精品一区二区三区夜夜嗨 |