亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        不相關(guān)稀疏保留投影在人臉識別中的應(yīng)用

        2016-08-12 03:15:53馬家軍
        關(guān)鍵詞:人臉識別特征提取

        馬家軍

        (商洛學(xué)院,陜西 商洛 726000)

        ?

        不相關(guān)稀疏保留投影在人臉識別中的應(yīng)用

        馬家軍

        (商洛學(xué)院,陜西 商洛726000)

        摘要:稀疏保留投影是一種有效的特征提取算法,它雖然能很好地保留樣本間的稀疏重構(gòu)特性,但是得到的特征分量通常具有統(tǒng)計相關(guān)性,存在數(shù)據(jù)冗余。為此,引入不相關(guān)約束條件,提出了不相關(guān)稀疏保留投影特征提取方法,利用推導(dǎo)出的公式提取不相關(guān)判別特征集,進(jìn)而提高了識別率。在PIE、Extended Yale B和AR人臉庫的實驗結(jié)果表明:該方法有效且穩(wěn)定,與MLHOSDA、SPP和LPP相比具有更高的正確識別率。

        關(guān)鍵詞:特征提??;不相關(guān);稀疏保留投影;人臉識別

        隨著信息自動化和智能化程度的日益提高,信息安全受到了空前的重視,身份識別已成為人們生活中必不可少的安全保障手段。計算機(jī)技術(shù)和數(shù)碼技術(shù)的發(fā)展使得人臉識別技術(shù)漸漸取代了傳統(tǒng)的身份識別技術(shù)[1-3]?;谧涌臻g的學(xué)習(xí)算法具有理論完善、描述性強(qiáng)、計算代價小、容易實現(xiàn)及鑒別性好等特點,近年來已成為人臉識別的主流方法?;谧涌臻g的人臉識別算法常見的有主成分分析(PCA)[4]、線性判別分析(LDA)[5]、局部保距投影[6]以及非線性的核主成分分析(KPCA)[7]、核線性判別分析(KLDA)[8]等算法。PCA旨在尋找一組投影軸,使得原始的高維圖像數(shù)據(jù)在該投影軸下的投影數(shù)據(jù)的總體方差最大化,最終使得數(shù)據(jù)能很好地分開。LDA希望找到一個投影子空間,使得在該子空間中不同類的數(shù)據(jù)離得更遠(yuǎn),而同類的數(shù)據(jù)離得更近。Foley-Sammon線性鑒別分析(FSLDA)[9]通過對LDA進(jìn)行改進(jìn),使得投影向量兩兩正交,提高了識別性能。

        流形學(xué)的研究使得一些基于流形理論的識別算法被廣泛應(yīng)用。經(jīng)典的流形算法有局部保距投影(LPP)、局部線性嵌入(LLE)[10]、等距映射(Isomap)[11]、拉普拉斯特征映射(LE)[12]等。LPP通過構(gòu)建鄰接圖矩陣保留樣本間的局部流形結(jié)構(gòu)。在實際識別分類中,流形結(jié)構(gòu)相比歐氏結(jié)構(gòu)能更好地描述高維數(shù)據(jù)的拓?fù)浣Y(jié)構(gòu)。

        稀疏子空間聚類是近年來子空間聚類方法的研究熱點。稀疏聚類法利用訓(xùn)練樣本構(gòu)成字典,然后用這個字典來表示待識別的樣本,從而將待識別樣本歸到正確的類別。結(jié)合LPP,稀疏保留投影(SPP)[13]算法被提出來。該算法通過最小化重構(gòu)誤差的方式計算最佳投影子空間,使得樣本間的稀疏關(guān)系得到較好的保留,與PCA和LPP相比,識別率有所提高。稀疏保留投影算法注重樣本間的稀疏重構(gòu)關(guān)系,得到的投影變換不具有正交性。文獻(xiàn)[14]引入正交約束條件,提出了基于流形學(xué)習(xí)的整體正交稀疏保留鑒別分析(MLHOSDA)。但經(jīng)投影變換后得到的判別特征向量各分量間仍然是統(tǒng)計相關(guān)的?;诖?,本文提出了一種新的人臉圖像識別方法,即不相關(guān)稀疏保留投影(uncorrelatedsparsepreservingprojection,USPP)。在PIE、ExtendedYaleB和AR人臉庫上的實驗結(jié)果驗證了所提方法的有效性和穩(wěn)定性。

        1 稀疏保留投影

        (1)

        ‖x‖1表示x的l1范數(shù),si=[si1,si2,…,si,i-1,0,si,i+1,…,sin]T是一個n維向量,第i個元素值為零,意味著xi在數(shù)據(jù)集X中被移除,sij(i≠j)表示的是xj為了構(gòu)建xi所做的貢獻(xiàn);I∈Rn是元素全為1的向量。

        在實際識別問題中,樣本通常含有噪聲。如在人臉識別中,同一個人的樣本因表情不同(嘴巴長大、眉毛上揚等)而使xi=Xsi不成立?;诖?,引入重構(gòu)誤差ε(ε足夠小),將式(1)擴(kuò)展為:

        (2)

        (3)

        將數(shù)據(jù)按類別逐列排放,則系數(shù)矩陣P具有塊對角結(jié)構(gòu),即具有如下結(jié)構(gòu):

        其中子塊Pk=(pij)nk×nk,k=1,2,…,c。

        結(jié)合式(2)和式(3),稀疏保留投影目標(biāo)函數(shù)定義為

        (4)

        對式(4)進(jìn)行代數(shù)變換可得:

        (5)

        記ui為n維單位向量且第i個元素為1,其余為0,則式(10)等價轉(zhuǎn)化為:

        (6)

        其中pi∈Rn×1為P的第i列,記G=I-P-PT+PPT,則式(4)的求解轉(zhuǎn)化為如下廣義特征值問題的求解:

        (7)

        前d個最小的特征值對應(yīng)的特征向量構(gòu)成投影矩陣W=[w1,w2,…,wd]。

        2 不相關(guān)稀疏保留投影(USPP)

        2.1相關(guān)性分析

        由本文第2節(jié)可知,對于訓(xùn)練樣本,判別特征集可由如下變換得到:

        (8)

        定理1由式(7)所得的判別特征向量各分量間是統(tǒng)計相關(guān)的。

        證明

        (9)

        當(dāng)且僅當(dāng)式(8)等于0時,特征分量yi與yj是統(tǒng)計不相關(guān)的。

        式(7)并不能保證式(8)等于0,因此由SPP所求的特征分量間是統(tǒng)計相關(guān)的,判別特征中存在冗余信息不利于信息的提取和最終的分類。

        2.2不相關(guān)稀疏保留投影特征提取

        (10)

        其中:St=E[(X-EX)(X-EX)T];M=XGXT。

        定理2第l+1個統(tǒng)計不相關(guān)向量wl+1是式(11)最大特征值所對應(yīng)的特征向量。

        (11)

        其中:ω=[w1,w2,…,wl]T;I是單位矩陣。

        證明對于優(yōu)化問題(9)利用拉格朗日乘數(shù)法可得:

        (12)

        對 f 求偏導(dǎo),并令?f/?w=0,有

        (13)

        (14)

        將j=1,2,…,l代入式(13)可得

        (15)

        (16)

        式(12)可以寫成下面形式:

        (17)

        將式(15)代入式(16)得到:

        因此求出了前l(fā)個統(tǒng)計不相關(guān)的特征向量之后,只需求解式(10)最小的特征值對應(yīng)的特征向量wl+1即可。

        本文USPP算法的具體實現(xiàn)步驟如下:

        1) 給定樣本集X={X1,X2,…,Xc},通過式(3)和式(4)構(gòu)建含有鑒別信息的稀疏重構(gòu)矩陣P∈Rn×n。

        2) 根據(jù)式(6)得到矩陣G,從而得到矩陣M=XGXT。

        3) 取M的最小特征對應(yīng)的特征向量,作為第1個不相關(guān)投影向量w1,由式(11)計算所有不相關(guān)向量,從而得到本文的投影矩陣W=[w1,w2,…,wd]。

        4) 對于待測樣本xtest得到其不相關(guān)判別特征ytest=WTxtest,最后采用歐氏距離分類器得到xtest的類別。

        3 實驗結(jié)果與分析

        本文實驗采用卡耐基-梅隆大學(xué)的PIE、ExtendedYaleB和AR人臉庫,參數(shù)ε=0.01。為了驗證本文算法的有效性,在同一數(shù)據(jù)庫中分別對本文算法、SPP算法和LPP算法進(jìn)行仿真實驗。本文的實驗環(huán)境:Pentium4雙核3.2GHZCPU,4GB內(nèi)存。實現(xiàn)算法的軟件為Matlab2009。

        3.1PIE 實驗

        PIE人臉庫共有68人的41 368張人臉圖像,包含13種不同的姿勢、43種不同的光照條件、4種不同的表情。本文實驗選取變光照的前向圖像(C27),這樣每個人有43張人臉圖像。圖1是取自于PIE數(shù)據(jù)庫第1個人的樣本。

        圖1 PIE數(shù)據(jù)庫第1個人的樣本

        首先,分別從每類中隨機(jī)性選擇30幅圖像作為訓(xùn)練集,其余圖像作為測試集;然后,從訓(xùn)練集中每類隨機(jī)選擇一個圖像進(jìn)行標(biāo)記,形成帶類標(biāo)樣本集,其余圖像無標(biāo)記,作為無類標(biāo)樣本集。圖2為PIE人臉庫中4種算法最高識別率與特征值數(shù)目的變化關(guān)系。

        圖2 PIE人臉庫中4種算法最高識別率與特征值數(shù)目的變化關(guān)系

        3.2Extended Yale B實驗

        ExtendedYaleB人臉庫共有38個人的2 414張正面人臉圖像。每人大約有64張不同光照條件下的人臉圖像。本文將其按眼部對齊方式裁剪為32×32大小的圖像。圖3是ExtendedYaleB人臉庫中第1個人的樣本。

        圖3 Extended Yale B人臉庫中第1個人的樣本

        與PIE實驗相同,首先,分別從每類中隨機(jī)性選擇30幅圖像作為訓(xùn)練集,其余圖像作為測試集;然后,從訓(xùn)練集中每類隨機(jī)選擇一個圖像進(jìn)行標(biāo)記,形成帶類標(biāo)樣本集,其余圖像無標(biāo)記,作為無類標(biāo)樣本集。圖4為ExtendedYaleB人臉庫中4種算法最高識別率與特征值數(shù)目的變化關(guān)系。

        3.3AR實驗

        AR人臉庫含有126人的4 000張人臉圖像。每人有26張圖像,這26張圖像于不同時間拍攝,每次拍攝13張,包括不同表情、光照。本文選取AR人臉庫中無遮擋的圖像。該子集共有100個人的1 400張圖像,每人14張圖像。同樣按照人眼對齊方式將其裁剪為66×48的圖像。圖5是取自于AR數(shù)據(jù)庫中第1個人的樣本。

        圖4 Extended Yale B人臉庫中4種算法最高識別率與特征值數(shù)目的變化關(guān)系

        圖5 AR數(shù)據(jù)庫中第1個人的樣本

        在AR人臉庫試驗中,首先,從每類中隨機(jī)選擇10幅圖像形成訓(xùn)練集,其余圖像作為測試集。然后,從訓(xùn)練集的每類中隨機(jī)選擇1幅圖像進(jìn)行標(biāo)記形成帶類標(biāo)樣本集,其余圖像不作標(biāo)記構(gòu)成無類標(biāo)樣本集。圖6為AR人臉庫中4種算法最高識別率與特征值數(shù)目的變化關(guān)系。

        為了測試算法的有效性和穩(wěn)定性,對30次隨機(jī)訓(xùn)練/測試劃分的仿真實驗結(jié)果進(jìn)行平均,并記錄平均識別率和標(biāo)準(zhǔn)差。表1為4種算法分別在PIE、ExtendedYaleB、AR數(shù)據(jù)庫中的平均識別率和標(biāo)準(zhǔn)差。

        圖6 AR人臉庫中4種算法最高識別率與特征值數(shù)目的變化關(guān)系

        4 結(jié)束語

        本文提出一種不相關(guān)稀疏局部保持投影的人臉特征提取方法。在PIE、ExtendedYaleB和AR人臉數(shù)據(jù)庫上進(jìn)行表情特征提取,最后用歐氏距離分類器對人臉進(jìn)行分類識別,實驗結(jié)果驗證了本文算法的有效性和穩(wěn)定性。但是本文涉及參數(shù)的選取,下一步將研究參數(shù)的自適應(yīng)算法。

        參考文獻(xiàn):

        [1]李文琴,曾廣樸,文俊浩?;谏窠?jīng)網(wǎng)絡(luò)的人臉識別系統(tǒng)[J].激光雜志,2015(3):54-57.

        [2]胡偉平,鄧輝文.個性化人臉圖像模擬研究[J].西南大學(xué)學(xué)報(自然科學(xué)版),2014(2):178-185.

        [3]許偉,賴惠成,齊立飛,等.基于Gabor特征的人臉識別算法的對比研究與實現(xiàn)[J].激光雜志,2015(2):41-44.

        [4]TURKM,PENTLANDA.Eigenfacesforrecognition[J].JournalofCognitiveNeuroscience,1991,3(1):71-86.

        [5]BELHUMEUrPN,HESPANHAJP,KRIEGMANDJ.Eigenfacesvs.fisherfaces:recognitionusingclassspecificlinearprojection[J].IEEETransonPatternAnalysisandMachineIntelligence,1997,19(7):711-720.

        [6]HEXiaofei,YANShuicheng,HUYuxiao,etal.FacerecognitionusingLaplacianfaces[J].IEEETransonPatternAnalysisandMachineIntelligence,2005,27(3):328-340.

        [7]趙麗紅,孫宇舸,蔡玉,等.基于核主成分分析的人臉識別[J].東北大學(xué)學(xué)報(自然科學(xué)版),2006 (8):847-850.

        [8]張曉華.基于核判別分析的人臉識別算法[D].哈爾濱:哈爾濱理工大學(xué),2008.

        [9]FOLEYDH,SAMMONJW.Anoptimalsetofdiscriminantvectors[J].IEEETransonComputers,1975,C-24(3):281-289.

        [10]ROWEISST,SAULLK.Nonlineardimensionalityreductionbylocallylinearembedding[J].Science,2000,290(5500):2323-2326.

        [11]ZHANGSL,GONGZL,LIAOHB.NonlineardimensionalityreductionmethodbyfusingLLEandISOMAP[J].ApplicationResearchofComputers,2014.

        [12]CHENC,ZHANGL,BUJ,etal.ConstrainedLaplacianEigenmapfordimensionalityreduction.[J].Neurocomputing,2010,73(46):951-958.

        [13]QIAOL,CHENS,TANX.Sparsitypreservingprojectionswithapplicationstofacerecognition[J].PatternRecognition,2010,43(1):331-341.

        [14]吳飛,荊曉遠(yuǎn),李文倩,等.基于流形學(xué)習(xí)的整體正交稀疏保留鑒別分析[J].計算機(jī)技術(shù)與發(fā)展,2014(6):63-66.

        [15]HUANGY.FacialExpressionRecognitionBasedonSparsePreservingProjections[J].ComputerEngineering,2011,37(8):164-165.

        (責(zé)任編輯楊黎麗)

        收稿日期:2016-02-18

        基金項目:商洛學(xué)院科研基金資助項目(14SKY008)

        作者簡介:馬家軍(1989—),男,碩士,主要從事模式識別、圖像處理研究。

        doi:10.3969/j.issn.1674-8425(z).2016.07.022

        中圖分類號:TP391

        文獻(xiàn)標(biāo)識碼:A

        文章編號:1674-8425(2016)07-0129-06

        UncorrelatedSparsePreservingProjectionintheApplicationofFaceRecognition

        MAJia-jun

        (ShangluoUniversity,Shangluo726000,China)

        Abstract:Sparse Preserving Projection is an effective feature extraction algorithm. Although it keeps sparse refactoring features between the samples well, the discriminant feature based SPP is generally statistical correlated, which makes the discriminant feature redundant. This paper added an uncorrelated constraint, and the projection feature extraction based uncorrelation sparse preserving projection method was proposed and theoretically derives the formula of extracting the uncorrelated discriminant features, so the recognition rate was improved. Ultimately experiments on PIE, Extended Yale B and AR face database show that the method in this paper is effective and stable, and has a higher correct recognition rate compared with the MLHOSDA, SPP and LPP.

        Key words:feature extraction; uncorrelation; sparse preserving projection; face recognition

        引用格式:馬家軍.不相關(guān)稀疏保留投影在人臉識別中的應(yīng)用[J].重慶理工大學(xué)學(xué)報(自然科學(xué)),2016(7):129-134.

        Citationformat:MAJia-jun.UncorrelatedSparsePreservingProjectionintheApplicationofFaceRecognition[J].JournalofChongqingUniversityofTechnology(NaturalScience),2016(7):129-134.

        猜你喜歡
        人臉識別特征提取
        特征提取和最小二乘支持向量機(jī)的水下目標(biāo)識別
        人臉識別 等
        揭開人臉識別的神秘面紗
        基于Gazebo仿真環(huán)境的ORB特征提取與比對的研究
        電子制作(2019年15期)2019-08-27 01:12:00
        基于Daubechies(dbN)的飛行器音頻特征提取
        電子制作(2018年19期)2018-11-14 02:37:08
        基于(2D)2PCA-LBP 的人臉識別方法的研究
        電子制作(2017年17期)2017-12-18 06:40:55
        人臉識別在高校安全防范中的應(yīng)用
        電子制作(2017年1期)2017-05-17 03:54:46
        Bagging RCSP腦電特征提取算法
        基于類獨立核稀疏表示的魯棒人臉識別
        基于MED和循環(huán)域解調(diào)的多故障特征提取
        99在线视频精品费观看视| 亚洲乱码国产乱码精品精| 色一情一乱一乱一区99av| 久久综合给日咪咪精品欧一区二区三| 漂亮的小少妇诱惑内射系列| 亚洲国产精品久久久婷婷| 国产日韩精品suv| 亚洲国产另类久久久精品黑人| 国产亚洲第一精品| 国产高清在线精品一区不卡| 午夜性刺激免费看视频| 中文字幕乱伦视频| 亚洲欧美日韩国产综合久| av是男人的天堂免费| 精品无码国产一区二区三区麻豆| 人人妻人人妻人人片av| 国产精品无码无片在线观看3D| 国产一区二区av在线观看| 丰满人妻熟妇乱又仑精品| 中文亚洲成a人片在线观看| 久久婷婷国产精品香蕉| 国产二区中文字幕在线观看| 四虎国产成人永久精品免费| 精品国产18久久久久久| 亚洲一区二区情侣| 国产亚洲91精品色在线| 三年片大全在线观看免费观看大全| 538在线啪在线观看| 一本色道亚州综合久久精品| 又硬又粗进去好爽免费| 波多野结衣乳巨码无在线| 高清高速无码一区二区| 亚洲精品一区二区在线免费观看| 特黄做受又粗又长又大又硬 | 精品国产一区二区三广区| 色欲一区二区三区精品a片| 日韩a无v码在线播放| 蜜芽尤物原创AV在线播放| 亚洲精品在线免费视频| 最近中文字幕大全在线电影视频| 国产免费网站看v片元遮挡|