亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于常數(shù)矩陣改進(jìn)的SRC算法

        2018-03-15 08:25:54鄭俊偉
        現(xiàn)代計算機 2018年3期
        關(guān)鍵詞:數(shù)據(jù)庫實驗

        鄭俊偉

        (四川大學(xué)計算機學(xué)院,成都 610065)

        0 引言

        人臉識別技術(shù)是近年來被廣泛研究的熱點之一,人臉識別技術(shù)利用從人臉圖像提取有效的特征,然后將這些特征信息與數(shù)據(jù)庫中的人臉信息進(jìn)行搜索比對,從而判斷這個人的身份信息。近幾年稀疏表示受到越來越多的關(guān)注,并且被應(yīng)用于計算機視覺領(lǐng)域中。尤其是在Wright等人提出的稀疏表示分類方法[1]在人臉識別的應(yīng)用中取得了很好的識別效果后。稀疏表示分類算法(SRC算法)是近年來新出現(xiàn)的一種人臉識別算法。它的基本思想是給定一個測試樣本,然后得到該樣本在所有訓(xùn)練樣本構(gòu)成的字典上的稀疏系數(shù),之后利用稀疏系數(shù)與訓(xùn)練樣本重構(gòu)測試樣本,最后將測試樣本分配給重構(gòu)誤差最小的類別。SRC算法可以直接利用原始像素進(jìn)行人臉識別,從而避免了預(yù)處理的過程。除此之外,SRC算法對表情變化、圖像遮擋具有一定程度的魯棒性。但是,在將稀疏表示人臉識別算法應(yīng)用于實際中,常常需要在兩個方面進(jìn)行改進(jìn)。首先,是要突破人臉圖像對齊的假設(shè),因為在實際環(huán)境中人臉的圖像是不對齊。但是更重要的是,在實際環(huán)境中,常常會發(fā)現(xiàn)可用的訓(xùn)練樣本非常稀少。為此,大量的學(xué)者進(jìn)行了各種各樣的嘗試,并提出了許多產(chǎn)生虛擬樣本的方案[2-15]。其中一種方案是利用原始訓(xùn)練樣本和鏡像樣本來進(jìn)行人臉識別。首先利用原始訓(xùn)練樣本生成相應(yīng)的鏡像樣本。然后將原始訓(xùn)練樣本和相應(yīng)的鏡像樣本結(jié)合產(chǎn)生一個新的訓(xùn)練樣本,用于人臉識別。該方法讓可用的訓(xùn)練樣本數(shù)變?yōu)樵瓉淼膬杀?。實驗結(jié)果表明,該方法不僅克服樣本稀少的問題,而且克服了人臉圖像的不對齊問題,并且在一定程度上消除了人臉圖像的姿態(tài)變化和光照變化的不利影響。另一種方案是先將人臉分成兩個大小相同的兩半。然后利用每一半分別產(chǎn)生一張“對稱”的虛擬臉。從而讓訓(xùn)練樣本的數(shù)目變成原來的三倍。本文主要針對SRC算法在實際應(yīng)用中,可用的訓(xùn)練樣本少導(dǎo)致識別率低而提出的解決方案。文獻(xiàn)[16]提出一種基于多重表示的圖像分類新方法,該方法能夠為原始訓(xùn)練樣本產(chǎn)生新的表示。并且能用圖片新的表示提高圖像分類的精度。

        1 稀疏表示分類算法

        SRC算法的基本思想如下[1]:

        假設(shè)第i類有足夠的訓(xùn)練樣本,樣本圖像大小為w×h,第i類有ni個訓(xùn)練樣本,把這ni個訓(xùn)練樣本數(shù)據(jù)變 成 列 向 量 ,組 成 矩 陣 Ai, 即 Ai=[υi,1,υi,2,…,υi,n]∈Rm×ni,m=w×h。給定一幅新的第 i類的圖像y∈Rm,則y可以由第i類的所有訓(xùn)練樣本近似線性表示:

        其中,ai,j為標(biāo)量,j=1,2,…,ni。

        由于在識別之前y的類別未知,所以定義一個由所有類別的訓(xùn)練樣本組成的矩陣A,假設(shè)訓(xùn)練樣本有C個類,一共 n個,即則:

        如果用A來表示y,那么式(1)可以重寫為:

        x0=[0,…,0,ai,1,ai,2,…,ai,n,…,0,…,0]T∈ Rm×ni為系數(shù)向量,即與第i類對應(yīng)的系數(shù)非零,而其他系數(shù)均為零。

        在稀疏表示中,通常求解最小化ι1范數(shù)問題:

        在圖像受到小的噪聲影響時,上式可以修改為:

        其中,ε>0是誤差容忍度。

        式(5)可以轉(zhuǎn)化為帶ι1數(shù)約束的最小二乘問題:

        其中,λ>0是正則化參數(shù),用來平衡重構(gòu)誤差和稀疏性。當(dāng)通過求解式(5)或式(6)得到稀疏系數(shù)時,基于重構(gòu)樣本和測試樣本之間的殘差來對測試樣本進(jìn)行分類。對于第i類樣本,假設(shè) βi:Rm→Rm為特征函數(shù),它選擇與第i類相關(guān)的系數(shù),即對于x∈Rm,δi(x)∈Rm是一個新的向量,這個向量中的非零元素對應(yīng)x中與第i類相關(guān)的元素,而對應(yīng)其它類的系數(shù)為0。使用δi()和訓(xùn)練樣本組成的矩陣A,可以得到重構(gòu)樣本。然后就可以把測試樣本分在最小重構(gòu)誤差對應(yīng)的類別中:

        稀疏表示分類(SRC)算法的流程如下:

        (1)輸入:由C類訓(xùn)練樣本組成的矩陣A=[A1,A2,…,AC] ∈Rm×n,測試樣本 y∈Rm(可選參數(shù):容忍誤差ε>0);

        (2)將y和A的列向量單位化;

        (3)求解(5)或(6);

        輸出:測試樣本的類別identity(y)=argmiinri(y)。

        2 改進(jìn)的SRC算法

        在文獻(xiàn)[16]中提出了一種基于多重表示的圖像分類新方法。該方法能夠為原始訓(xùn)練樣本產(chǎn)生新的圖像表示。當(dāng)將圖片的新表示與原始訓(xùn)練樣本相結(jié)合用于圖像分類時,能夠有效提高圖像分類的精度。其定義如下

        其中m=255,Iij表示圖像I在第i行、第j列的像素的灰度值,而Jij表示圖像J在第i行、第j列的像素的灰度值。受到以上模型的啟發(fā),本文提出了一種通過使用常數(shù)矩陣來獲得圖像新表示的方法。算法的模型如下:

        假設(shè)存在C個類,每個類有n個樣本,樣本圖像的大小為w×h。則算法的具體流程如下:

        (1)輸入:由C個類別的訓(xùn)練樣本組成的矩陣A=[A1,A2,…,AC] ∈Rm×n,常量系數(shù) a;

        (2)通過常量a與式子(9)計算得到常數(shù)矩陣B,其中常數(shù)矩陣為w行h列的矩陣;

        (3)將常數(shù)矩陣B與每個訓(xùn)練樣本A(ii=1,2,…,C)相加,獲得新的樣本,將新樣本組成矩陣,其中用表示增強后的樣本;

        (4)將A與A'整合成一個新的訓(xùn)練樣本,然后將其應(yīng)用于SRC算法中;

        (5)輸出:測試樣本的類別:identity(y)=argmiin ri(y)。

        3 實驗驗證與分析

        3.1 改進(jìn)方法有效性驗證

        由前面關(guān)于SRC算法的介紹可知,SRC算法會將測試樣本分到最小重構(gòu)誤差對應(yīng)的類別。因此,重構(gòu)誤差反映了測試樣本與類別的相關(guān)程度。即誤差越小,相關(guān)程度越高。

        在這一小節(jié)將使用ORL人臉數(shù)據(jù)庫和COIL人臉數(shù)據(jù)庫進(jìn)行實驗,用于驗證本文所提出的改進(jìn)方法能提高算法的識別率。在實驗中,取數(shù)據(jù)庫第一個人的某張圖片做為測試樣本,然后分別使用SRC算法與改進(jìn)后的SRC算法,計算該圖片與數(shù)據(jù)庫中各個人的誤差值。圖1展現(xiàn)了基于ORL人臉數(shù)據(jù)庫進(jìn)行實驗的結(jié)果。圖2展現(xiàn)了基于COIL人臉數(shù)據(jù)庫進(jìn)行實驗的結(jié)果。

        圖1 使用ORL人臉數(shù)據(jù)庫進(jìn)行實驗的結(jié)果

        圖2 使用COIL人臉數(shù)據(jù)庫進(jìn)行實驗的結(jié)果

        3.2 改進(jìn)方案通用性驗證

        本小節(jié)通過實驗來驗證本文所提出方法的通用性。在實驗中,除了通過SRC算法進(jìn)行對比實驗之外,還使用 CRC 算法[17-20]、LRC 算法[21-24]、CFKNNC 算法[25]和INNC算法[26]進(jìn)行對比實驗。使用的人臉數(shù)據(jù)庫有ORL人臉庫、FERET人臉庫、AR人臉庫和COIL人臉庫。

        (1)ORL人臉庫

        ORL是一個基于表情和姿態(tài)變化的人臉數(shù)據(jù)庫,該數(shù)據(jù)庫擁有400張人臉圖片,它們由40個人,每個人10張不同姿態(tài)和表情的人臉圖像組成。在實驗中,選擇每個人的前4張圖片作為訓(xùn)練樣本,而其余的作為測試樣本。這里所選擇的常數(shù)系數(shù)為a=10。圖3展現(xiàn)了ORL人臉數(shù)據(jù)庫的部分訓(xùn)練樣本與測試樣本。表1展現(xiàn)了本文所提方法在不同算法上進(jìn)行對比實驗所得到的識別率。

        (2)FERET人臉庫

        FERET人臉數(shù)據(jù)庫總共擁有1400張人臉圖像,包括200個人的數(shù)據(jù),由每個人的7張不同光照和姿態(tài)的圖像構(gòu)成。在實驗中,選擇每個人的前4張圖片作為訓(xùn)練樣本,而將其余的作為測試樣本。這里所選擇的常數(shù)系數(shù)為a=10。圖4展現(xiàn)了FERET人臉數(shù)據(jù)庫的部分訓(xùn)練樣本與測試樣本。表2展現(xiàn)了本文所提方法在不同算法上進(jìn)行對比實驗所得到的識別率。

        圖3 ORL人臉數(shù)據(jù)庫的部分訓(xùn)練樣本

        表1 基于ORL人臉數(shù)據(jù)庫的實驗結(jié)果

        圖4 基于FERET人臉數(shù)據(jù)庫的部分訓(xùn)練樣本

        表2 基于FERET人臉數(shù)據(jù)庫的實驗結(jié)果

        (3)AR人臉庫

        AR人臉數(shù)據(jù)庫擁有超過4000張的人臉圖像,包括126個人的數(shù)據(jù),由每個人的不同光照、尺度和姿態(tài)的圖像構(gòu)成。在實驗中,選擇每個人的前4張圖片作為訓(xùn)練樣本,而將其余的作為測試樣本。這里所選擇的常數(shù)系數(shù)為a=10。圖5展現(xiàn)了AR人臉數(shù)據(jù)庫的部分訓(xùn)練樣本與測試樣本。表格3展現(xiàn)了本文所提方法在不同算法上進(jìn)行對比實驗所得到的識別率。

        圖5 基于AR人臉數(shù)據(jù)庫的部分訓(xùn)練樣本

        表3 基于AR人臉數(shù)據(jù)庫的實驗結(jié)果

        (4)COIL人臉庫

        本實驗所使用的COIL數(shù)據(jù)庫總共包括1440張圖像,它由來自20個類別的72張圖像組成。在實驗中,選擇每個人的前4張圖片作為訓(xùn)練樣本,而將其余的作為測試樣本。這里所選擇的常數(shù)系數(shù)為a=10。圖6展現(xiàn)了COIL人臉數(shù)據(jù)庫的部分訓(xùn)練樣本與測試樣本。表4展現(xiàn)了本文所提方法在不同算法上進(jìn)行對比實驗所得到的識別率。

        3.3 實驗結(jié)果分析

        1)從圖1可以看到SRC算法對測試樣本的分類有誤,因為最小重構(gòu)誤差出現(xiàn)在第16個類別的位置。但改進(jìn)后的SRC算法能將測試樣本分配到正確的類別。同樣的,通過圖2可以看到SRC算法對測試樣本的分類有誤,但改進(jìn)后的SRC算法則將測試樣本分配到正確的類別中。通過以上實驗可以發(fā)現(xiàn)改進(jìn)后的SRC算法能減少原本的SRC算法的錯誤匹配率,從而提高正確識別率。

        2)將本文所提出的改進(jìn)方法應(yīng)用在除SRC算法以外的算法進(jìn)行對比實驗,可以發(fā)現(xiàn)基于本文所提出的方法對其他算法進(jìn)行改進(jìn),也能使其他算法的識別率有所提高,從而證明本文所提出的改進(jìn)方法具有一定的通用性。

        圖6 基于COIL數(shù)據(jù)庫的部分訓(xùn)練樣本

        表4 基于COIL人臉數(shù)據(jù)庫的實驗結(jié)果

        4 結(jié)語

        本文主要針對SRC算法在實際應(yīng)用中,可用的訓(xùn)練樣本少導(dǎo)致識別率低而提出一種新的方法。該方法通過使用一個特定的常數(shù)矩陣與訓(xùn)練樣本相加獲得新的訓(xùn)練樣本,然后將新的訓(xùn)練樣本與原始訓(xùn)練樣本相結(jié)合產(chǎn)生一個新的數(shù)據(jù)集,從而解決在實際應(yīng)用中,可用訓(xùn)練樣本少而導(dǎo)致識別率低的問題。通過實驗表明,該方法不僅能增加可用的訓(xùn)練樣本,而且可以提高識別率,除此之外,還證明了該方法具有一定的通用性。

        [1]J Wright,AY Yang,A Ganesh,et a1.Robust Face Recognition Via Sparse Representation[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2009,31(2):210-227.

        [2]Y Xu,X Zhu,Z Li,G Liu,Y Lu and H Liu.Using the Original and‘Symmetricalface’Training Samples to Perform Representation Based two-step Face Recognition.Pattern Recognition,2013,46:1151-1158.

        [3]Yong Xu,Zheng Zhang,Guang ming Lu and Jian Yang.Approximately Symmetrical Face Images For Image Preprocessing In Face Recognition and Sparse Representation Based Classification.Pattern Recognition,2016,54:68–82.

        [4]Y Xu,X Fang,X Li,J Yang,J You,H Liu,S Teng.Data Uncertainty in Face Recognition.Transactions on Cybernetics,2014,44(10).

        [5]P Ekman,J.C.Hager,W.V.Friesen.The Symmetry of Emotional and Deliberate Facial Actions.Psychophysiology,1981,18(2):101-106.

        [6]B Tang,S Luo and H Huang.High Performance Face Recognition System by Creating Virtual Sample.In Proc.Int.Conf.Neur.Netw.Signal Process.2003:972-975.

        [7]P.Niyogi,F(xiàn).Girosi,T.Poggio.Incorporating Prior Information in Machine Learning by Creating Virtual Examples.Proc.IEEE.1998,86(11):2196-2209.

        [8]D.Jiang,Y.Hu,S.Yan,L.Zhang,H.Zhang,W.Gao.Efficient 3D Reconstruction for Face Recognition.Pattern Recognition,2005,38(6):787-798.

        [9]S.N.Kautkar,G.A.Atkinson,M.L.Smith.Face Recognition in 2D and 2.5D Using Ridgelets and Photometric Stereo,Pattern Recognition,2012,45(9):3317-3327.

        [10]N.P.H.Thian,S.Marcel,S.Bengio.Improving Face Authentication Using Virtual Samples.IEEE International Conference on Acoustics,Speech,and Signal Processing,2003:6-10.

        [11]R Y.-S,O S.-Y.Simple Hybrid Classifier for Face Recognition with Adaptively Generated Virtual Data.Pattern Recognition Letters,2002,23(7):833-841.

        [12]T.Vetter.Synthesis of Novel Views from a Single Face Image.International Journal of Computer Vision,1998,28(2):102-116.

        [13]X.-T.Yuan,S.Yan.Visual Classification with Multi-Task Joint Sparse Repre-Sentation.IEEE Conference on Computer Vision and Pattern Recognition,2010:3493-3500.

        [14]A.Sharma,A.Dubey,P.Tripathi,V.Kumar.Pose Invariant Virtual Classifiers from Single Training Image Using Novel Hybrid-Eigenfaces.Neurocomputing.2010,73(10–12):1868-1880.

        [15]Y.Hu,D.Jiang,S.Yan,L.Zhang,H.Zhang.Automatic 3D Reconstruction for Face Recognition,2004:843-850.

        [16]Y Xu,B Zhang,Z Zhong.Multiple Representations and Sparse Representation for Image Classification.Pattern Recognition Letters,2015:9-14.

        [17]BA Olshausen,DJ Field.Sparse Coding with an Overcomplete Basis Set:a Strategy Employed by V1?Vision Research.1997,37(23):3311.

        [18]W.E.Vinje,J.L.Gallant.Sparse Coding and Decorrelation in Primary Visual Cortex During Natural Vision.SCIENCE.2000,287(5456):1273-1276.

        [19]M.Elad,M.Aharon.Image Denoising Via Sparse and Redundant Representations Over Learned Dictionaries.IEEE Trans.Image Processing.2006,15(12):3736-3745.

        [20]S.H.Gao,I.W-H.Tsang,L-T.Chia.Kernel Sparse Representation for Image Classification and Face Recognition.Proc.European Conf.Computer Vision,2010.

        [21]I.Naseem,R.Togneri,M.Bennamoun.Linear Regression for Face Recognition.Transactions on Pattern Analysis and Machine Intelligence.2010,32(11).

        [22]P.N.Belhumeur,J.P.Hespanha,D.J.Kriegman.Eigenfaces vs.Fisherfaces:Recognition Using Class Specific Linear Projection.IEEE Trans.Pattern Analysis and Machine Intelligence,1997,19(7):711-720.

        [23]R.Barsi,D.Jacobs.Lambertian Reflection and Linear Subspaces.IEEE Trans.Pattern Analysis and Machine Intelligence,2003,25(2):218-233.

        [24]X.Chai,S.Shan,X.Chen,W.Gao.Locally Linear Regression for Pose Invariant Face Recognition.IEEE Trans.Image Processing.2007,16(7):1716-1725.

        [25]Y.Xu,Q.Zhu,Z.Fan,D.Zhang,J.Mi,Z.Lai.Using the Idea of the Sparse Representation to Perform Coarse-to-Fine Face Recognition.Information Sciences,2013,238:138-148.

        [26]Y.Xu,Q.Zhu,Y.Chen J.Pan.An Improvement to the Nearset Neighbor Classifier and Face Recogniton Experiments,2013:543-545.

        猜你喜歡
        數(shù)據(jù)庫實驗
        記一次有趣的實驗
        微型實驗里看“燃燒”
        做個怪怪長實驗
        數(shù)據(jù)庫
        財經(jīng)(2017年15期)2017-07-03 22:40:49
        數(shù)據(jù)庫
        財經(jīng)(2017年2期)2017-03-10 14:35:35
        NO與NO2相互轉(zhuǎn)化實驗的改進(jìn)
        實踐十號上的19項實驗
        太空探索(2016年5期)2016-07-12 15:17:55
        數(shù)據(jù)庫
        財經(jīng)(2016年15期)2016-06-03 07:38:02
        數(shù)據(jù)庫
        財經(jīng)(2016年3期)2016-03-07 07:44:46
        數(shù)據(jù)庫
        財經(jīng)(2016年6期)2016-02-24 07:41:51
        国产护士一区二区三区| 日本午夜精品理论片A级APP发布| 中文无码日韩欧免费视频| 亚洲综合中文一区二区| 亚洲最全av一区二区| 中出人妻中文字幕无码| 欧美日本国产三级在线| 日本人妻伦理片在线观看| 白白色发布的在线视频| 亚洲精品无码永久在线观看你懂的 | 国产av无码专区亚洲av| 日韩av无卡无码午夜观看| 日产分东风日产还有什么日产| 欧美性猛交xxxx免费看蜜桃| 国产人在线成免费视频| 亚洲国产成人无码电影| 杨幂一区二区系列在线| 国产婷婷色一区二区三区在线 | 一区二区三区一片黄理论片| 97在线视频人妻无码| 无码手机线免费观看| 最新在线观看精品国产福利片| 激情视频在线观看好大| 国产电影一区二区三区| 欧美一片二片午夜福利在线快| 岛国av一区二区三区| 亚洲国产精品av在线| a级特黄的片子| 日本久久久免费高清| 亚洲一区在线二区三区 | 久久频这里精品99香蕉| 国产不卡在线播放一区二区三区| 免费观看交性大片| 国产欧美日韩在线观看| 青青草国内视频在线观看| 亚洲久悠悠色悠在线播放| 永久免费看啪啪网址入口| 国产av一区二区三区区别| av在线不卡免费中文网| 东北老女人高潮大喊舒服死了| 国产亚洲欧美在线|