亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于極端學(xué)習(xí)機(jī)的人臉特征深度稀疏自編碼方法

        2018-12-14 05:26:24張歡歡袁玉波
        計(jì)算機(jī)應(yīng)用 2018年11期
        關(guān)鍵詞:維數(shù)人臉準(zhǔn)確率

        張歡歡,洪 敏,袁玉波

        (華東理工大學(xué) 信息科學(xué)與工程學(xué)院, 上海 200237)(*通信作者電子郵箱ybyuan@ecust.edu.cn)

        0 引言

        近年來(lái),隨著電子移動(dòng)設(shè)備的普及,生物特征識(shí)別技術(shù)已經(jīng)被廣泛應(yīng)用于工業(yè)各個(gè)領(lǐng)域,其中人臉識(shí)別技術(shù)[1-2]以其易于接受和采集方便的特點(diǎn)成為身份識(shí)別的重要組成部分,在視頻監(jiān)控系統(tǒng)、銀行支付驗(yàn)證、智能門(mén)禁系統(tǒng)等實(shí)際應(yīng)用中有著顯著的優(yōu)勢(shì),成為了目前身份識(shí)別的主流技術(shù)之一; 然而,人臉圖像樣本數(shù)據(jù)維度比較高并且混雜大量噪聲的特點(diǎn)極大地制約了人臉識(shí)別的準(zhǔn)確率,因此從人臉圖像中提取有效人臉特征成為了人臉識(shí)別的重要問(wèn)題。

        基于自編碼器(Auto-Encoder, AE)的深度神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)可以對(duì)人臉特征進(jìn)行高層次的抽象表示,利用重構(gòu)的思想,逐步提取樣本的低維或高維特征,具有極強(qiáng)的特征表達(dá)能力,在人臉圖像混雜噪聲或受誤差干擾的情況下可以提取到重要的人臉特征。由于傳統(tǒng)的自編碼器模型[3-4]大部分采用反向傳播(Back Propagation, BP)算法,模型的收斂速度緩慢,需要大量的參數(shù)進(jìn)行微調(diào),且易陷入局部最優(yōu)。而極端學(xué)習(xí)機(jī)(Extreme Learning Machine, ELM)算法不需要使用傳統(tǒng)的BP算法對(duì)網(wǎng)絡(luò)進(jìn)行微調(diào),只需人工設(shè)置隱含層節(jié)點(diǎn)數(shù)即可實(shí)現(xiàn)網(wǎng)絡(luò)功能,減少了訓(xùn)練網(wǎng)絡(luò)的成本。許多專(zhuān)家學(xué)者提出了很多關(guān)于ELM的變型算法[5],但其單隱層結(jié)構(gòu)具有局限性,導(dǎo)致其無(wú)法學(xué)習(xí)到有效的特征。2013年,Huang等[6]第一次將極端學(xué)習(xí)機(jī)與自動(dòng)編碼器結(jié)合,提出基于極端學(xué)習(xí)機(jī)自編碼器(Extreme Learning Machine Auto-Encoder, ELM-AE)的多層極端學(xué)習(xí)機(jī)(Multi-layer Extreme Learning Machine based Auto-encoder, MLELM)算法,它是一種無(wú)監(jiān)督學(xué)習(xí)算法,將隨機(jī)生成的隱含層輸入權(quán)值和偏置參數(shù)正交化,并將原始數(shù)據(jù)空間映射到不同維度的特征空間,從而實(shí)現(xiàn)不同維度的特征表達(dá)。此外,還有許多基于ELM-AE的多層模型[7-9]研究,通過(guò)增加隱含層數(shù)量構(gòu)成深度學(xué)習(xí)模型,提取樣本更本質(zhì)的特征。

        隨著稀疏表示[10]和壓縮感知理論[11]的發(fā)展,稀疏表示被用于人臉識(shí)別領(lǐng)域并取得了較好的識(shí)別效果,眾多研究者提出了許多基于人臉特征的稀疏表示方法[12-14],從特征層面入手,將人臉識(shí)別看作是人臉圖像的稀疏特征表示問(wèn)題。2015年,Hu等[15]提出了一種基于截?cái)嗍胶朔稊?shù)正則化(Truncated Nuclear Norm Regularization, TNNR)[16]的可擴(kuò)展的大規(guī)模多分類(lèi)算法,雖然TNNR的提出主要用于圖像修復(fù)以及低秩矩陣補(bǔ)全,但是矩陣補(bǔ)全問(wèn)題的核心在于獲取矩陣的未知低秩結(jié)構(gòu),即求解秩最小化的優(yōu)化問(wèn)題,從而得到輸入圖像的稀疏表示。此外,為了高效求解此類(lèi)凸優(yōu)化子問(wèn)題,Zhang等[16]還提出基于加速的最近鄰梯度線(xiàn)性搜索算法(Accelerated Proximal Gradient Line Search, APGL)的截?cái)嗍胶朔稊?shù)優(yōu)化算法(TNNR-APGL)。只要輸入的數(shù)據(jù)矩陣的確存在低秩結(jié)構(gòu),通過(guò)求解最小化截?cái)嗍胶朔稊?shù)問(wèn)題一定可以得到最優(yōu)的低秩解,輸入矩陣的低秩結(jié)構(gòu)就可以被更好地估計(jì)。

        對(duì)于人臉特征較少的圖像,MLELM算法相當(dāng)有效,但該算法誤差模型的計(jì)算方式存在缺陷,沒(méi)有考慮數(shù)據(jù)內(nèi)在的結(jié)構(gòu),當(dāng)人臉特征較多時(shí)會(huì)出現(xiàn)識(shí)別率降低的問(wèn)題。為了解決高維人臉圖像的識(shí)別率降低的問(wèn)題,提高模型對(duì)于噪聲數(shù)據(jù)的抗干擾能力,本文提出了一種新的方法來(lái)解決該問(wèn)題。該方法的基礎(chǔ)是加入截?cái)嗍胶朔稊?shù)正則化的誤差模型,通過(guò)最小化誤差模型得到人臉圖像映射到新空間的低秩結(jié)構(gòu);然后利用極端學(xué)習(xí)機(jī)進(jìn)行人臉特征的自編碼,獲取人臉特征的稀疏表示;最后得到人臉圖像的識(shí)別結(jié)果。從文中的給出的實(shí)驗(yàn)結(jié)果可看出,本文方法非常有效。

        1 基于極端學(xué)習(xí)機(jī)的深度稀疏自編碼器

        本章首先介紹了基于極端學(xué)習(xí)機(jī)的稀疏自編碼器模型,將截?cái)嗍胶朔稊?shù)正則化理論與ELM-AE相結(jié)合,提出了稀疏自編碼器(Sparse Auto-Encoder based on Extreme Learning Machine, ELM-SAE)的方法; 然后利用深度學(xué)習(xí)的思想,將多個(gè)稀疏自編碼器棧式疊加構(gòu)成深度稀疏自編碼器(Deep Sparse Auto-Encoder, DSAE)模型。

        1.1 稀疏自編碼器

        如圖1所示,ELM-SAE的網(wǎng)絡(luò)結(jié)構(gòu)是與ELM-AE相同的三層神經(jīng)網(wǎng)絡(luò)。它是一種無(wú)監(jiān)督學(xué)習(xí)算法,其輸出與輸入一致,具備極端學(xué)習(xí)機(jī)輸入?yún)?shù)隨機(jī)賦值、無(wú)需迭代優(yōu)化等優(yōu)點(diǎn),在盡可能復(fù)現(xiàn)輸入人臉圖像的同時(shí),對(duì)人臉特征執(zhí)行自動(dòng)編碼,從而得到人臉稀疏特征作為模型輸出。

        圖1 ELM-SAE網(wǎng)絡(luò)結(jié)構(gòu)

        假設(shè)ELM-SAE具有j個(gè)輸入層節(jié)點(diǎn)、L個(gè)隱含層節(jié)點(diǎn)和j個(gè)輸出層節(jié)點(diǎn),隱含層上的激活函數(shù)是g(x),根據(jù)輸入人臉特征的隱層輸出可以將ELM-SAE分為如下三種情況:若j>L,壓縮表示,將特征向量從高維空間映射到低維度特征空間;若j=L,等維表示,實(shí)現(xiàn)等維度特征映射;若j

        ELM-AE的損失函數(shù)如下

        (1)

        其中:X= [x1T,x2T,…,xNT]T∈RN×j,β為輸出權(quán)值向量,H= [h(x1)T,h(x2)T,…,h(xN)T]T∈RN×L,C為訓(xùn)練誤差的懲罰因子。因此ELM-AE的輸出權(quán)值向量β可由式(2)計(jì)算得到:

        (2)

        ELM-AE使用的最小化核范數(shù)問(wèn)題并不能保證輸出矩陣具有低秩結(jié)構(gòu),其弊端在于所有的奇異值被同時(shí)要求最小化,導(dǎo)致核范數(shù)奇異值懲罰不平衡的問(wèn)題,原始矩陣的秩不能很好地被估計(jì)。由于矩陣的大奇異值決定矩陣的主要性質(zhì),因此在設(shè)計(jì)低秩懲罰項(xiàng)時(shí),需要對(duì)矩陣大的奇異值懲罰力度減小,小的奇異值懲罰力度加大。ELM-SAE與ELM-AE最大的不同之處在于輸出權(quán)值的計(jì)算方式不同:ELM-AE通過(guò)最小化最小二乘估計(jì)的損失函數(shù)求得,ELM-SAE在此基礎(chǔ)上加入截?cái)嗍胶朔稊?shù)正則化項(xiàng)對(duì)損失函數(shù)進(jìn)行約束,只懲罰值較小的奇異值,避免對(duì)較大奇異值的懲罰,即當(dāng)輸入矩陣的秩為r時(shí),其最大的r個(gè)非零奇異值并不能影響矩陣的秩,影響較大的反而是較小的奇異值。

        根據(jù)文獻(xiàn)[15]分析,給定矩陣X∈RN×j,假設(shè)UΣV是X的奇異值分解,參數(shù)r≤min(m,n),Σ∈RN×j,U=(u1,u2,…,uN)∈RN×N,V=(v1,v2,…,vj)∈Rj×j,則截?cái)嗍胶朔稊?shù)與傳統(tǒng)核范數(shù)之間存在的聯(lián)系為:

        (3)

        其中:Ur=(u1,u2,…,ur)T∈Rr×N,Vr=(v1,v2,…,vr)T∈Rr×j。即等價(jià)于以下優(yōu)化問(wèn)題

        (4)

        λ(‖W‖*-Tr(UrWVrT))

        (5)

        其中第一項(xiàng)和第二項(xiàng)的含義與ELM-AE相同;然后利用編碼結(jié)果的核范數(shù)和秩截?cái)囗?xiàng)構(gòu)成了懲罰函數(shù),其中λ為懲罰因子,W為輸入矩陣X的低秩矩陣,Ur和Vr為X的奇異值向量。

        顯然式(5)是無(wú)法直接求解的凸問(wèn)題,因此需要設(shè)計(jì)有效的迭代機(jī)制對(duì)輸出權(quán)值向量進(jìn)行求解。上述最優(yōu)化問(wèn)題的最小化損失函數(shù)(5)形如:

        (6)

        其中:g(·)為封閉的、可能不可微的凸函數(shù),f(·)為可微的凸函數(shù),因此本文采用TNNR-APGL優(yōu)化算法對(duì)最小化損失函數(shù)進(jìn)行求解。令:

        (7)

        根據(jù)文獻(xiàn)[11]中定義4.1,在第k次迭代中,給定矩陣Yk+1和參數(shù)tk+1>0。式(8)推導(dǎo)出Wk+1的值。Yk+1和tk+1以相同的方式更新,見(jiàn)式(11)~(12):

        λDλtk(Yk+tk(λUrTVr+μX-μYk))

        (8)

        (9)

        (10)

        通過(guò)對(duì)式(5)的求解,則可得到輸出權(quán)值β為:

        (11)

        其中βTβ=I,W為輸入矩陣X的低秩矩陣。綜上所述,ELM-SAE首先隨機(jī)生成輸入層與隱含層之間的輸入權(quán)值和隱含層上的偏置并正交化, 將輸入人臉圖像映射到不同維度的特征空間,然后計(jì)算隱含層的輸出矩陣,最后計(jì)算隱含層與輸出層之間的輸出權(quán)值實(shí)現(xiàn)人臉特征的重新表述。

        1.2 深度稀疏自編碼器

        本節(jié)主要介紹基于極端學(xué)習(xí)機(jī)的深度稀疏自編碼器(DSAE)模型,其網(wǎng)絡(luò)結(jié)構(gòu)如圖2所示。

        圖2 DSAE模型網(wǎng)絡(luò)結(jié)構(gòu)

        DSAE利用無(wú)監(jiān)督學(xué)習(xí)算法ELM-SAE對(duì)各層參數(shù)進(jìn)行訓(xùn)練,將ELM-SAE作為基本學(xué)習(xí)單元,執(zhí)行逐層無(wú)監(jiān)督學(xué)習(xí)。首先用ELM-SAE訓(xùn)練第一層網(wǎng)絡(luò),得到第一層隱含層的輸出,再將其作為第二層輸入訓(xùn)練第二層網(wǎng)絡(luò),以此類(lèi)推,第k個(gè)隱層的輸出和第(k-1)個(gè)隱層上的輸出的數(shù)值關(guān)系由式(12)表示:

        Hk=g((βk)THk-1)

        (12)

        其中:Hk表示第k個(gè)隱含層的輸出,當(dāng)k=1時(shí),Hk-1表示輸入層的輸出,βi表示ELM-SAE對(duì)第(k-1)個(gè)隱層和第k個(gè)隱層訓(xùn)練時(shí)的權(quán)值矩陣。DSAE上的輸出權(quán)值β通過(guò)式(11)求得。

        與其他深度模型相同的是,DSAE也使用無(wú)監(jiān)督學(xué)習(xí)算法對(duì)各層參數(shù)進(jìn)行訓(xùn)練,但不同之處是DSAE不需要對(duì)網(wǎng)絡(luò)參數(shù)反復(fù)迭代調(diào)整,對(duì)網(wǎng)絡(luò)模型的訓(xùn)練速度快。

        2 算法設(shè)計(jì)

        本章首先介紹使用TNNR-APGL優(yōu)化算法對(duì)ELM-SAE模型的最小化損失函數(shù)進(jìn)行迭代求解的過(guò)程,然后介紹了人臉特征DSAE分類(lèi)算法的具體步驟。

        2.1 基于TNNR-APGL的迭代算法

        求解最小化截?cái)嗍胶朔稊?shù)問(wèn)題并不是一個(gè)凸優(yōu)化問(wèn)題,本文采用TNNR-APGL算法對(duì)其迭代求解,首先固定其中一部分變量,得到剩余變量的封閉解;然后繼續(xù)固定剩余變量,通過(guò)求解凸優(yōu)化子問(wèn)題更新之前固定的變量,交替執(zhí)行這兩個(gè)過(guò)程,就可以得到該凸優(yōu)化子問(wèn)題的解。由于TNNR-APGL算法更適合處理帶噪聲的圖像,因此本文選用此優(yōu)化算法。

        算法1 基于TNNR-APGL的迭代算法

        輸入 人臉特征矩陣X,X的奇異值向量Ur和Vr,誤差參數(shù)ε,懲罰項(xiàng)系數(shù)λ和μ;

        輸出 輸入矩陣X的低秩矩陣W。

        1) TNNR_APGL(Ur,Vr,X,λ,μ,ε);

        2) Repeat

        3) 首先固定Yk和tk,式(8)更新Wk+1;

        4) 固定Wk+1和Yk,式(10)更新tk+1;

        5) 最后固定Wk+1和tk+1,式(9)更新Yk+1;

        6) Until ‖Wk+1-Wk‖F(xiàn)≤ε

        算法1是對(duì)式(5)中最小化損失函數(shù)進(jìn)行迭代求解的過(guò)程,輸入為人臉特征數(shù)據(jù),輸出為人臉稀疏特征數(shù)據(jù),不斷循環(huán)執(zhí)行步驟3)~5),直到輸出誤差小于誤差參數(shù)則終止循環(huán)。由傳統(tǒng)APGL的收斂性質(zhì)得知,該迭代算法的收斂速度為O(1/n2),其中n是迭代的次數(shù)。

        2.2 人臉特征DSAE分類(lèi)算法

        算法2是人臉特征DSAE分類(lèi)算法的具體步驟,輸入為人臉圖像數(shù)據(jù)集,首先對(duì)原始人臉圖像進(jìn)行預(yù)處理,將所有人臉圖像樣本處理為一個(gè)人臉數(shù)據(jù)矩陣,再使用主成分分析(Principle Component Analysis, PCA)對(duì)人臉數(shù)據(jù)矩陣進(jìn)行壓縮降維處理,提取人臉數(shù)據(jù)中相對(duì)重要的特征即人臉特征數(shù)據(jù)作為DSAE模型的輸入;然后對(duì)DSAE神經(jīng)網(wǎng)絡(luò)結(jié)果進(jìn)行初始化,選取合適的隱層節(jié)點(diǎn)數(shù)、模型深度以及初始化參數(shù),將人臉特征數(shù)據(jù)按照2 ∶1的比例劃分為訓(xùn)練集和測(cè)試集。使用訓(xùn)練集對(duì)模型進(jìn)行訓(xùn)練,每層進(jìn)行訓(xùn)練的過(guò)程都是對(duì)人臉特征數(shù)據(jù)進(jìn)行不斷提取和再表示的過(guò)程,輸出人臉稀疏特征再進(jìn)行下一層的訓(xùn)練; 最后使用該模型在測(cè)試集上驗(yàn)證分類(lèi)算法的準(zhǔn)確率,并計(jì)算循環(huán)s次算法的平均準(zhǔn)確率。

        算法2 人臉特征DSAE分類(lèi)算法。

        輸入 人臉特征數(shù)據(jù)集D={xi∈Rj,yi}(i=1,2,…,N),無(wú)標(biāo)簽的訓(xùn)練次數(shù)s,激活函數(shù)g(x),隱含層個(gè)數(shù)k,懲罰項(xiàng)系數(shù)λ和μ,隱含層節(jié)點(diǎn)數(shù)nhl(l=1,2,…,k)。

        輸出 測(cè)試集s次分類(lèi)結(jié)果的平均值。

        1) 使用PCA對(duì)人臉特征數(shù)據(jù)集D進(jìn)行預(yù)處理;

        2) 初始化DSAE神經(jīng)網(wǎng)絡(luò),將樣本分為訓(xùn)練集Xtrain和測(cè)試集樣本Xtest,X1=Xtrain;

        3) forl=1:k

        4) 隨機(jī)產(chǎn)生ELM-SAE第l層的輸入權(quán)值ai和偏置bi;

        5) 計(jì)算第l層的輸出權(quán)值βl;

        6) 計(jì)算輸出Xl+1=g(XlβlT);

        7) end for

        8) 使用輸出權(quán)值β計(jì)算測(cè)試集Xtest的分類(lèi)準(zhǔn)確度,以上過(guò)程循環(huán)s次,計(jì)算分類(lèi)結(jié)果的平均值

        3 實(shí)驗(yàn)與結(jié)果

        為了證明本文算法的有效性,本文使用人臉數(shù)據(jù)集將本文提出的DSAE算法與經(jīng)典的隨機(jī)森林(Random Forest, RF)算法以及ELM、在線(xiàn)序列極端學(xué)習(xí)機(jī)(Online Squential Extreme Learning Machine, OS-ELM)和MLELM算法的分類(lèi)效果進(jìn)行比較(均采用Sigmoid激活函數(shù))。以上幾種方法都是在Intel Core i5-2450M CPU 2.5 GHz處理器、8 GB內(nèi)存、Windows10 64位操作系統(tǒng)和Matlab 2016a的環(huán)境中運(yùn)行的。

        3.1 數(shù)據(jù)集

        本文將在ORL、IMM、Yale和UMIST 4個(gè)人臉數(shù)據(jù)集上測(cè)試本文所提方法。選取人臉數(shù)據(jù)集中每人的2/3張圖片作為訓(xùn)練樣本,剩下的1/3張圖片作為測(cè)試樣本來(lái)進(jìn)行實(shí)驗(yàn),每個(gè)實(shí)驗(yàn)分別重復(fù)30次以獲取一個(gè)較為準(zhǔn)確的識(shí)別率。實(shí)驗(yàn)中使用的人臉數(shù)據(jù)集描述的詳細(xì)信息見(jiàn)表1。不同人臉庫(kù)的訓(xùn)練集如圖3所示。

        表1 實(shí)驗(yàn)中使用的人臉數(shù)據(jù)集

        圖3 人臉數(shù)據(jù)集

        3.2 實(shí)驗(yàn)和結(jié)果分析

        本節(jié)主要對(duì)比了DSAE與ELM、RF、OS-ELM、MLELM分類(lèi)算法的性能。為了實(shí)驗(yàn)的公平性,本文中的懲罰參數(shù)值大小相同,ELM、OS-ELM的隱層節(jié)點(diǎn)數(shù)與MLELM、DSAE的第一層隱層節(jié)點(diǎn)數(shù)相同,MLELM與DSAE的隱層層數(shù)相同。對(duì)每個(gè)數(shù)據(jù)集,通過(guò)比較分類(lèi)準(zhǔn)確率確定隱層節(jié)點(diǎn)個(gè)數(shù)和樣本維數(shù)。

        圖4給出了ELM、RF、OS-ELM、MLELM和DSAE在ORL、IMM、Yale和UMIST數(shù)據(jù)集上隨著樣本維數(shù)的改變,五種算法的分類(lèi)準(zhǔn)確率的變化情況, 其中X軸表示樣本維數(shù),Y軸表示30次實(shí)驗(yàn)的平均分類(lèi)準(zhǔn)確率。

        圖4(a)為五種分類(lèi)算法在ORL人臉數(shù)據(jù)集上的分類(lèi)準(zhǔn)確率曲線(xiàn)。當(dāng)樣本維數(shù)小于40時(shí),五種分類(lèi)算法的分類(lèi)準(zhǔn)確率曲線(xiàn)大致保持一致;樣本維數(shù)大于40時(shí),RF算法和ELM算法的分類(lèi)準(zhǔn)確率呈下降趨勢(shì);當(dāng)維數(shù)為60時(shí),OS-ELM算法的分類(lèi)性能達(dá)到97%,但隨著維數(shù)的升高,其分類(lèi)性能不斷降低。相比較之下,MLELM和DSAE算法受維數(shù)增加的影響較小,而當(dāng)維數(shù)大于100后,DSAE的分類(lèi)性能保持穩(wěn)定,明顯優(yōu)于對(duì)比算法。

        圖4(b)為五種分類(lèi)算法在IMM數(shù)據(jù)集上的分類(lèi)準(zhǔn)確率曲線(xiàn)。當(dāng)樣本維數(shù)小于50時(shí),ELM相關(guān)算法的分類(lèi)性能優(yōu)于隨機(jī)森林算法,當(dāng)維數(shù)大于50時(shí),RF的分類(lèi)曲線(xiàn)在OS-ELM算法之上; 隨著維數(shù)的升高ELM的準(zhǔn)確率不斷下降,當(dāng)樣本維數(shù)大于80時(shí),DSAE的分類(lèi)準(zhǔn)確率優(yōu)于其他四種算法。

        圖4(c)為五種分類(lèi)算法在Yale數(shù)據(jù)集上的分類(lèi)準(zhǔn)確率曲線(xiàn)。當(dāng)維數(shù)小于50時(shí),OS-ELM算法的分類(lèi)準(zhǔn)確率高于其他算法;但當(dāng)維數(shù)大于50后,分類(lèi)性能明顯下降并且表現(xiàn)不穩(wěn)定,RF算法在此數(shù)據(jù)集上的分類(lèi)效果較差。相比之下,MLELM與DSAE的分類(lèi)性能明顯優(yōu)于其他算法。

        圖4(d)為五種分類(lèi)算法在UMIST數(shù)據(jù)集上的分類(lèi)準(zhǔn)確率曲線(xiàn)。當(dāng)樣本維數(shù)大于10時(shí),五種算法的分類(lèi)性能都較好,OS-ELM與RF的分類(lèi)性能相差不大,相比之下,ELM、MLELM和DSAE的分類(lèi)準(zhǔn)確率更高。

        圖4 不同樣本維數(shù)的分類(lèi)準(zhǔn)確率變化

        由圖4可看出,隨著輸入人臉圖像特征的增多,ELM、RF、OS-ELM和MLELM算法的分類(lèi)準(zhǔn)確率會(huì)不斷降低,因此OS-ELM與RF算法不適合對(duì)高維數(shù)據(jù)進(jìn)行分類(lèi),多層結(jié)構(gòu)MLELM雖受維度的影響較小,但分類(lèi)準(zhǔn)確率也明顯下降; 而DSAE算法的分類(lèi)準(zhǔn)確率雖然也有所降低,但整體上的分類(lèi)效果受樣本維數(shù)的影響較小。因此DSAE算法能夠充分利用樣本的低秩信息,對(duì)于噪聲數(shù)據(jù)的抗干擾能力更強(qiáng)。

        圖5給出了ELM、OS-ELM、MLELM和DSAE在ORL、IMM、Yale和UMIST數(shù)據(jù)集上隨著隱層節(jié)點(diǎn)數(shù)的改變,四種算法的分類(lèi)準(zhǔn)確率的變化情況。其中X軸表示隱層節(jié)點(diǎn)數(shù),Y軸表示30次實(shí)驗(yàn)的平均分類(lèi)準(zhǔn)確率。

        圖5 不同隱層節(jié)點(diǎn)數(shù)的分類(lèi)準(zhǔn)確率變化

        在圖5(a)中,對(duì)于ORL數(shù)據(jù)集,當(dāng)樣本維數(shù)(dim)為140時(shí),第一個(gè)隱層節(jié)點(diǎn)數(shù)大于300時(shí),DSAE的分類(lèi)準(zhǔn)確率大于ELM、OS-ELM和MLELM算法。在圖5(b)中,對(duì)于IMM數(shù)據(jù)集,當(dāng)樣本維數(shù)為130時(shí),OS-ELM與ELM的分類(lèi)效果較差,隱層節(jié)點(diǎn)數(shù)小于400時(shí),MLELM與DSAE的分類(lèi)效果大致相同,當(dāng)節(jié)點(diǎn)數(shù)大于400時(shí),DSAE的分類(lèi)性能更好。在圖5(c)中,對(duì)于Yale數(shù)據(jù)集,當(dāng)樣本維數(shù)為140時(shí),ELM、MLELM和DASE的分類(lèi)性能較好。在圖5(d)中,對(duì)于UMIST數(shù)據(jù)集,當(dāng)樣本維數(shù)為40時(shí),五種分類(lèi)算法的分類(lèi)性能都較好,當(dāng)隱層節(jié)點(diǎn)數(shù)小于600時(shí),MLELM算法的分類(lèi)準(zhǔn)確率高于DSAE和ELM。當(dāng)節(jié)點(diǎn)數(shù)大于600時(shí),ELM、MLELM與和DSAE的分類(lèi)效果大致相同,其中,隱層節(jié)點(diǎn)數(shù)為1 000時(shí),DSAE的分類(lèi)效果最好。

        表2給出了ELM、RF、OS-ELM、MLELM、DSAE分別在四種數(shù)據(jù)集下30次實(shí)驗(yàn)的平均分類(lèi)準(zhǔn)確率和標(biāo)準(zhǔn)偏差,當(dāng)ORL、IMM和Yale數(shù)據(jù)集在維數(shù)分別為135、120、100、65的情況下,與MLELM相比,DSAE的分類(lèi)準(zhǔn)確率約提高3%,DSAE的整體分類(lèi)性能好且偏差較小。

        另外,圖6還展示了ORL人臉數(shù)據(jù)集中三張人臉圖像樣本的分類(lèi)結(jié)果,DSAE模型皆將其分類(lèi)正確,而ELM和MLELM都將其分類(lèi)錯(cuò)誤。

        表2 五種分類(lèi)算法的分類(lèi)準(zhǔn)確率對(duì)比

        圖6 三個(gè)人臉圖像的分類(lèi)結(jié)果

        與MLELM相比,DSAE對(duì)誤差模型采用截?cái)嗍胶朔稊?shù)正則化進(jìn)行約束,并采用極端學(xué)習(xí)機(jī)自編碼器的深層結(jié)構(gòu)將輸入的原始圖像數(shù)據(jù)一層一層地抽象,得到更能描述圖像本質(zhì)的稀疏特征,更好地提取輸入原始圖像中最重要的信息用于訓(xùn)練模型,從而提高模型的分類(lèi)性能。

        4 結(jié)語(yǔ)

        本文借助極端學(xué)習(xí)機(jī)和自編碼器提出一種用于人臉圖像的深度稀疏自編碼器方法。通過(guò)加入截?cái)嗍胶朔稊?shù)正則化項(xiàng)對(duì)損失函數(shù)進(jìn)行優(yōu)化,提取人臉圖像的主要信息和特征,摒棄噪聲數(shù)據(jù),將原始人臉圖像映射到一個(gè)新的稀疏特征表示空間。實(shí)驗(yàn)結(jié)果表明,本文方法對(duì)于高維人臉圖像的識(shí)別率有明顯提高。

        猜你喜歡
        維數(shù)人臉準(zhǔn)確率
        β-變換中一致丟番圖逼近問(wèn)題的維數(shù)理論
        有特點(diǎn)的人臉
        乳腺超聲檢查診斷乳腺腫瘤的特異度及準(zhǔn)確率分析
        健康之家(2021年19期)2021-05-23 11:17:39
        不同序列磁共振成像診斷脊柱損傷的臨床準(zhǔn)確率比較探討
        2015—2017 年寧夏各天氣預(yù)報(bào)參考產(chǎn)品質(zhì)量檢驗(yàn)分析
        一類(lèi)齊次Moran集的上盒維數(shù)
        三國(guó)漫——人臉解鎖
        高速公路車(chē)牌識(shí)別標(biāo)識(shí)站準(zhǔn)確率驗(yàn)證法
        關(guān)于齊次Moran集的packing維數(shù)結(jié)果
        涉及相變問(wèn)題Julia集的Hausdorff維數(shù)
        色偷偷久久久精品亚洲| 亚洲Va中文字幕无码毛片下载| 亚洲香蕉av一区二区蜜桃| 少妇高潮精品在线观看| 亚洲日韩在线中文字幕综合| 野花在线无码视频在线播放| 久久这里只精品国产2| 亚洲中文字幕乱码免费看| 麻豆精品一区二区av白丝在线| 日韩乱码人妻无码中文字幕久久| 呻吟国产av久久一区二区| 无码天堂在线视频| 午夜免费观看国产视频| 让少妇高潮无乱码高清在线观看| 国产精品丝袜黑色高跟鞋| 亚洲精品中文字幕二区| 日韩精品视频在线观看无| 被三个男人绑着躁我好爽视频| 免费一级毛片在线播放不收费| 夫妻一起自拍内射小视频| 中文字幕av永久免费在线| 久久久久久曰本av免费免费| 亚洲视频天堂| 国产一区二区三区日韩精品| 国产一区二区自拍刺激在线观看| 日韩av最新在线地址| 丝袜美腿福利一区二区| 国产成人无码免费视频在线 | 久久久www成人免费无遮挡大片| 97色综合| 成年网站在线91九色| 国产精品无码aⅴ嫩草| 丝袜国产高跟亚洲精品91| 最近中文字幕一区二区三区| 亚洲狠狠婷婷综合久久久久 | 色妺妺视频网| 在线免费观看视频播放| 色吧噜噜一区二区三区| 亚洲av无码潮喷在线观看| 久久精品成人免费观看97| 日本女优中文字幕在线播放 |