亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        無監(jiān)督局部特征學(xué)習(xí)的魯棒性人臉識別

        2017-04-20 03:38:34
        計(jì)算機(jī)應(yīng)用 2017年2期
        關(guān)鍵詞:池化子集魯棒性

        馮 姝

        (重慶大學(xué) 數(shù)學(xué)與統(tǒng)計(jì)學(xué)院,重慶 401331)

        (*通信作者電子郵箱fengshu@cqu.edu.cn)

        無監(jiān)督局部特征學(xué)習(xí)的魯棒性人臉識別

        馮 姝*

        (重慶大學(xué) 數(shù)學(xué)與統(tǒng)計(jì)學(xué)院,重慶 401331)

        (*通信作者電子郵箱fengshu@cqu.edu.cn)

        特征表示是人臉識別的關(guān)鍵問題,由于人臉圖像在拍攝過程中受光照、遮擋、姿勢等因素的影響,如何提取魯棒的圖像特征成了研究的重點(diǎn)。受卷積網(wǎng)絡(luò)框架的啟發(fā),結(jié)合K-means算法在卷積濾波器學(xué)習(xí)中所具有的效果穩(wěn)定、收斂速度快等優(yōu)點(diǎn),提出了一種簡單有效的人臉識別方法,主要包含三個(gè)部分:卷積濾波器學(xué)習(xí)、非線性處理和空間平均值池化。具體而言,首先在訓(xùn)練圖像中提取局部圖像塊,預(yù)處理后,使用K-means算法快速學(xué)習(xí)濾波器,每個(gè)濾波器與圖像進(jìn)行卷積運(yùn)算;然后通過雙曲正切函數(shù)對卷積圖像進(jìn)行非線性變換;最后利用空間平均值池化對圖像特征進(jìn)行去噪和降維。分類階段僅采用簡單的線性回歸分類器。在AR和ExtendedYaleB數(shù)據(jù)集上的評估實(shí)驗(yàn)結(jié)果表明所提方法雖然簡單卻非常有效,而且對光照和遮擋表現(xiàn)出了強(qiáng)魯棒性。

        人臉識別;卷積網(wǎng)絡(luò)框架;K均值;空間平均值池化;線性回歸

        0 引言

        人臉識別技術(shù)作為經(jīng)典的模式識別問題,擁有廣泛的用途,如人機(jī)互動、身份識別以及疑犯追蹤等。一般來說,人臉識別主要包含四部分內(nèi)容:檢測、對齊、特征提取與分類,其中特征提取與分類器設(shè)計(jì)是兩個(gè)關(guān)鍵步驟。由于圖像在拍攝過程受姿態(tài)、光照、表情、遮擋等因素的影響,會使得同類樣本的相似度降低,異類樣本的相似度反而升高,因此相比分類器的設(shè)計(jì),魯棒的特征提取在人臉識別中扮演更重要的角色,也就是說,如何設(shè)計(jì)對光照、遮擋等因素魯棒的圖像特征成為了一個(gè)重要且具有挑戰(zhàn)性的研究內(nèi)容。

        目前,各式各樣的人臉圖像特征方法被提出,其中具有代表性的特征有:子空間學(xué)習(xí)特征[1](主成分分析(Principle Component Analysis, PCA)和線性判別分析(Linear Discriminative Analysis, LDA));Gabor特征[2];局部二值模式(Local Binary Pattern, LBP)特征[3]等。在這些特征提取算法中,PCA和LDA算法通過把整幅圖像映射到一個(gè)低維子空間來提取圖像的整體特征,這類特征對遮擋、光照及姿勢變化等因素敏感;Gabor和LBP對圖像進(jìn)行局部編碼,研究指出此類局部編碼提取的特征具有更強(qiáng)的魯棒性。然而,無論整體特征還是局部特征都是啟發(fā)式的,且需要人工的設(shè)計(jì)以及豐富的經(jīng)驗(yàn)和專業(yè)知識,通常難以得到最優(yōu)的編碼方案,因此這些特征的表征能力有限。

        近年來,稀疏表示分類(Sparse Representation Classification, SRC)[4]及其變種[5-9]在人臉識別應(yīng)用中取得了巨大成功,尤其在光照和遮擋情況下表現(xiàn)出了較強(qiáng)的魯棒性?;谕悩颖疚挥谕痪€性子空間中的假設(shè),稀疏表示理論把人臉識別看成了約束條件下的多線性回歸問題。Wright等[4]指出,在稀疏表示理論框架下,特征的選擇其實(shí)并不再那么重要,重要的是特征的維數(shù)以及稀疏表示的計(jì)算。然而,研究指出,當(dāng)每類圖像的訓(xùn)練樣本數(shù)量不夠充分時(shí),稀疏表示的分類準(zhǔn)確率將會大幅度降低;同時(shí),在L1范數(shù)約束下,稀疏表示的求解計(jì)算量相當(dāng)大,這限制了它在實(shí)際場景中的應(yīng)用。

        2012年Hinton團(tuán)隊(duì)在ImageNet競賽中利用深度卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN)把識別錯誤率降低了十多個(gè)百分點(diǎn)。自此,特征學(xué)習(xí)(深度學(xué)習(xí))[10]受到廣泛關(guān)注,成為特征提取的熱門研究方向。特征學(xué)習(xí)模型通過把底層網(wǎng)絡(luò)的輸出特征作為輸入傳到高層網(wǎng)絡(luò)的這種機(jī)制,能夠自動地逐層學(xué)習(xí)從低到高的語義特征,因此它被應(yīng)用于圖像分類、自然語言處理、語音識別等眾多領(lǐng)域,且取得了突破性進(jìn)展。CNN成功的關(guān)鍵要素是其卷積網(wǎng)絡(luò)框架,該框架包含三個(gè)主要部分:卷積濾波器、非線性處理和特征池化。當(dāng)前流行的濾波器學(xué)習(xí)算法有稀疏自編碼(Sparse AutoEncoder, SAE)、受限波爾茨曼機(jī)(Restricted Boltzmann Machine, RBM)等神經(jīng)網(wǎng)絡(luò)算法,然而這些基于神經(jīng)網(wǎng)絡(luò)的濾波器學(xué)習(xí)方法需要調(diào)節(jié)大量模型參數(shù),訓(xùn)練速度極慢。

        本文受卷積網(wǎng)絡(luò)框架的啟發(fā),提出了一種簡單有效的人臉識別方法。具體而言,在卷積濾波器學(xué)習(xí)部分,使用收斂速度快且效果穩(wěn)定的K-means聚類算法,每一個(gè)聚類中心(向量)轉(zhuǎn)換為濾波器(矩陣);在非線性處理部分,使用雙曲正切函數(shù)對卷積特征進(jìn)行非線性變換;在特征池化部分,通過空間平均值池化方法對特征進(jìn)行降維和去噪。圖1展示了本文方法從原始圖像中學(xué)習(xí)特征的過程。

        圖1 本文方法從圖像中提取特征的過程

        文獻(xiàn)[11]指出,單層網(wǎng)絡(luò)在無監(jiān)督特征學(xué)習(xí)的圖像分類中依然可以取得相當(dāng)高甚至最好的準(zhǔn)確率,只要各種參數(shù)取其極限值,因此,本文所提出的人臉圖像特征學(xué)習(xí)也僅使用單層網(wǎng)絡(luò)而非深層網(wǎng)絡(luò)。但是,本文實(shí)驗(yàn)發(fā)現(xiàn),在人臉識別中,濾波器的個(gè)數(shù)并不需要取其極限值,只需30個(gè);而且注意到,文獻(xiàn)[11]不包括非線性處理過程,本文采用卷積網(wǎng)絡(luò)框架,具有非線性變換過程。

        本文方法的特點(diǎn)如下:

        1)為了克服SAE和RBM等算法在卷積濾波器學(xué)習(xí)過程中存在的計(jì)算量大、速度慢等缺點(diǎn),本文采用無需先驗(yàn)知識和監(jiān)督信息的K-means算法加速卷積濾波器的學(xué)習(xí)過程。

        2)不同于圖像分類中常用最大值池化提取顯著特征,本文采用更加穩(wěn)定有效的平均值池化,不僅對特征起到去噪和降維的作用,而且可以避免過擬合問題。

        3)本文算法對光照和遮擋等影響因素具有較強(qiáng)的魯棒性:AR數(shù)據(jù)集中,在太陽鏡和圍脖遮擋時(shí)可以取得98.8%和98.9%的識別率;ExtendedYaleB數(shù)據(jù)集中,在中度光照條件下(子集4)可以取得97.19%的識別率,而且在狒狒圖遮擋實(shí)驗(yàn)中,獲得97.01%的識別率(60%遮擋比例時(shí))。

        1 本文方法

        不失一般性,假定人臉圖像大小為a×b,以一定步長提取大小為ω×ω的圖像塊,每個(gè)圖像塊按列向量化得:p∈Rω2,然后進(jìn)行對比度歸一化處理p=(p-μ)/σ,其中μ和σ分別是p的均值與標(biāo)準(zhǔn)差。文獻(xiàn)[11]指出ZCA(Zero-phaseComponentAnalysis)白化能夠降低像素之間的相關(guān)性且使學(xué)習(xí)到的卷積濾波器具有更豐富的局部信息,因此本文對圖像塊進(jìn)行ZCA白化預(yù)處理。

        1.1 卷積濾波器學(xué)習(xí)

        假設(shè)P={p1,p2,…,pn}∈Rω2為預(yù)處理后的圖像塊,經(jīng)典的聚類算法K-means首先隨機(jī)初始化K個(gè)聚類中心:{μ1,μ2,…,μK}∈Rω2,然后按如下方式進(jìn)行循環(huán)迭代直至收斂:

        步驟1 對每一個(gè)圖像塊尋找最近的聚類中心。

        (1)

        步驟2 聚類中心更新。

        (2)

        Wj=matω,ω(μj)∈Rω×ω;j=1,2,…,K

        (3)

        其中函數(shù)matω,ω(·)把向量v∈Rω2映為矩陣m∈Rω×ω。圖2(a)展示了30個(gè)卷積濾波器,可見K-means可以學(xué)到不同位置和方向的邊緣信息。

        LeCun[12]首次提出圖像卷積運(yùn)算并成功將其應(yīng)用于手寫數(shù)字識別,研究發(fā)現(xiàn)卷積運(yùn)算可以從圖像中學(xué)習(xí)重要的結(jié)構(gòu)信息,因此本文把聚類中心看作卷積濾波器,而非詞袋模型中的字典。此外,由于人臉圖像具有平穩(wěn)性特性:圖像任一部分的統(tǒng)計(jì)性質(zhì)和其他部分的幾乎相同,所以將不同濾波器與整幅圖像的所有位置作卷積運(yùn)算可以學(xué)習(xí)出充分、有用的局部特性。圖2(b)展示了人臉圖像與不同濾波器作卷積的過程與結(jié)果,其中?為卷積運(yùn)算符。從中可知三個(gè)濾波器分別提取了水平、135°和45°方向的特征,且提取了不同尺度的特征信息,因此,使用不同濾波器對人臉圖像I∈Ra×b進(jìn)行卷積運(yùn)算的確可以提取不同的局部特征:

        Ck=I?Wk;k=1,2,…,K

        (4)

        每個(gè)卷積圖像Ck的大小為(a-ω+1)×(b-ω+1)。

        圖2 濾波器與卷積運(yùn)算

        1.2 非線性映射與空間池化

        Tk=H(Ck)=H(I?Wk);k=1,2,…,K

        (5)

        其中H是非線性函數(shù)。通過2.2節(jié)的實(shí)驗(yàn)發(fā)現(xiàn),雙曲正切函數(shù)(tanh)比其他兩種常用的激勵函數(shù)(sigmoid,relu)表現(xiàn)更好,尤其在光照條件下,tanh比sigmoid和relu都高出十多個(gè)百分點(diǎn),因此本文采用tanh作非線性特征映射。

        f=[F(T1)T,F(T2)T,…,F(TK)T]T∈RBK×1

        (6)

        1.3 線性回歸分類器

        圖3 本文算法流程

        2 實(shí)驗(yàn)結(jié)果與分析

        在兩個(gè)具有代表性的數(shù)據(jù)集上評估、驗(yàn)證本文所提方法的有效性和魯棒性。在相同訓(xùn)練樣本和測試樣本設(shè)置的基礎(chǔ)上,將本文方法與以下方法進(jìn)行對比:稀疏表示類方法SRC[4]、協(xié)同表示(CollaborativeRepresentationClassification,CRC)[5]、魯棒稀疏編碼(RobustSparseCoding,RSC)[6]、正則魯棒編碼(RegularzedRobustCoding,RRC)[7]、伽博稀疏表示(GaborSparseRepresentationClassification,GSRC)[8]、聯(lián)合模式學(xué)習(xí)(JointRepresentationPatternLearning,JRPL)[9]、魯棒主成分分析法(RobustPrincipleCoponentAnalysis,RPCA)[13]以及卷積濾波方法(Volterra)[14]。

        2.1 數(shù)據(jù)集描述

        AR數(shù)據(jù)集[15]包含4 000多張?jiān)诓煌砬?、光照、遮擋等拍攝條件下的人臉圖像。按照文獻(xiàn)[4]的設(shè)置,采用100個(gè)人的圖像,每個(gè)人包含26張圖像,分別拍攝于兩個(gè)時(shí)期,大小為165×120,如圖4(a)所示。

        ExtendedYaleB數(shù)據(jù)集[16]包含38個(gè)人的不同光照條件下的2 414張人臉圖像,其中每個(gè)人約64張,每張圖像大小為192×168。根據(jù)拍攝方位角及高度的不同,此數(shù)據(jù)集可以分成5個(gè)子集,其中子集5受到了嚴(yán)重的光照干擾,如圖4(b)所示。

        2.2 通用參數(shù)設(shè)置

        影響本文方法識別率的參數(shù)主要有圖像塊大小ω、濾波器個(gè)數(shù)K以及池化單元塊尺寸。在本節(jié)利用AR及ExtendedYaleB數(shù)據(jù)集對通用參數(shù)的最優(yōu)選擇進(jìn)行評估。正如1.1節(jié)所述,不同的濾波器可以提取不同方向、不同尺度的邊緣局部特征,所以,首先利用AR數(shù)據(jù)集中無遮擋圖像評估參數(shù)ω及K對識別準(zhǔn)確率的影響:AR01~AR07作訓(xùn)練樣本,AR14~AR20作測試樣本。從表1可以看出,當(dāng)K增大時(shí),識別率呈上升的趨勢,且K≥30時(shí)識別率趨于穩(wěn)定,因此在考慮識別率和計(jì)算量的基礎(chǔ)上,K選取為30,ω為9。

        圖4 實(shí)驗(yàn)數(shù)據(jù)集中的樣本圖像示例

        表1 不同圖像塊大小與濾波器個(gè)數(shù)對識別率的影響

        Tab.1Influenceofdifferentimagepatchsizeandfilternumberontherecognitionrate

        K識別率/%(std+dev)ω=7ω=9ω=11ω=15595.85±0.3496.39±0.7795.59±0.2495.25±0.191096.37±0.1997.17±0.1296.34±0.2296.34±0.193096.80±0.1397.77±0.1697.77±0.1997.77±0.085096.77±0.1697.63±0.2297.57±0.1497.71±0.007096.88±0.0697.28±0.1097.37±0.0897.71±0.0010096.94±0.0897.34±0.2297.42±0.0097.71±0.00

        進(jìn)一步,在ExtendedYaleB上測試本文方法是否可以選擇通用的K值:子集1作訓(xùn)練,子集2~5作測試。從圖5可以看出,子集2~5均在K=30時(shí)取得最高的識別率。而且,在2.4節(jié)將看到,K-means濾波器具有較強(qiáng)的遷移、適應(yīng)性,即一個(gè)數(shù)據(jù)集上訓(xùn)練的濾波器可用于另外的一個(gè)數(shù)據(jù)集中,也就是說,可以不對新數(shù)據(jù)集重新訓(xùn)練濾波器和選擇K值。

        圖5 ExtendedYaleB中子集2~5在不同K值時(shí)的識別率

        由于當(dāng)池化單元塊的尺寸較小時(shí),特征維數(shù)會很高,產(chǎn)生過擬合問題;而當(dāng)池化單元塊的尺寸太大時(shí),圖像的細(xì)節(jié)信息卻被忽略。因此在接下來的實(shí)驗(yàn)中,針對常用的兩種池化方法:最大值池化和平均值池化,測試它們在不同的池化單元塊尺寸條件下對識別率的影響。

        從圖6知,池化單元塊增大時(shí),兩種池化方法的識別率均呈現(xiàn)下降趨勢,而最大值池化的識別率下降幅度較大,這是因?yàn)樵诖髥卧獕K中取最大值往往會丟掉更多的細(xì)節(jié)信息,但是這些信息在平均值池化中被一定程度上保留了,所以平均值池化的識別準(zhǔn)確率更高且更加穩(wěn)定。本文選擇平均值池化,且池化單元塊的尺寸設(shè)置為9。

        最后,在AR的無遮擋圖像和ExtendedYaleB圖像中測試不同非線性函數(shù)對識別率的影響。從表2可以看出,在AR數(shù)據(jù)集中,使用tanh和sigmoid情況下的識別率基本相同且高于relu;但在ExtendedYaleB數(shù)據(jù)集中,使用函數(shù)tanh的識別率要明顯優(yōu)于sigmoid和relu,高出十多個(gè)百分點(diǎn),尤其是在光照干擾嚴(yán)重的子集5中。因此,本文選擇tanh函數(shù)作非線性特征映射。

        圖6 不同池化單元塊尺寸下兩種池化方法的識別率

        表2 不同非線性函數(shù)的識別率比較 %

        2.3 AR數(shù)據(jù)集

        在AR數(shù)據(jù)集中,本文按三種方案進(jìn)行實(shí)驗(yàn)評估。第一種是無遮擋評估:AR01~07作訓(xùn)練,AR14~20作測試;第二種和第三種分別是太陽鏡和圍脖遮擋評估,按照文獻(xiàn)[4]的設(shè)置:AR01~AR07及AR14~AR20作訓(xùn)練,太陽鏡遮擋使用AR08和AR21作測試,圍脖遮擋使用AR11和AR24作測試。

        表3列出了不同方法在AR數(shù)據(jù)集上的三種測試方案的識別率結(jié)果,可見:本文方法在無遮擋情況下取得了最高的識別率97.8%;在太陽鏡和圍脖遮擋情況下取得了98.8%和98.9%的識別率,均優(yōu)于濾波器方法Volterra;雖然低于JRPL-L1的識別率,但是本文方法計(jì)算圖像特征非常迅速,在IntelCorei5-3210MCPU, 4GBRAM的電腦上使用Matlab軟件提取700張AR圖像的特征僅需39.6s(不包括濾波器訓(xùn)練時(shí)間,因?yàn)闉V波器具有遷移、適應(yīng)性,可以預(yù)先訓(xùn)練),平均處理一張圖像只要0.056s。

        表3 AR數(shù)據(jù)集上的三種測試方案的識別率比較 %

        2.4 ExtendedYaleB數(shù)據(jù)集

        在ExtendedYaleB數(shù)據(jù)集中,本文按兩種測試方案進(jìn)行評估實(shí)驗(yàn)。第一種評估本文方法針對光照的魯棒性,使用子集1作訓(xùn)練樣本,子集2~5分別用于測試;第二種評估本文方法針對塊狀物體遮擋的魯棒性,按照文獻(xiàn)[4]的設(shè)置,使用子集1~2作訓(xùn)練樣本,子集3作測試樣本,且在子集3中的圖像按隨機(jī)位置加入不同比例(10%~60%)的狒狒圖遮擋。

        表4中給出了第一種評估方案的對比結(jié)果,其他方法的識別率結(jié)果均引自文獻(xiàn)[13]。從中可見輕度光照條件下(子集2~3),本文方法取得了100%的識別率;在中度光照條件下(子集4),本文方法優(yōu)于所有對比方法,取得了97.19%的識別率,比經(jīng)典的SRC高出近30個(gè)百分點(diǎn);在重度光照條件下(子集5),除了梯度臉(Gradientface)和本文方法外,其余方法的識別率均嚴(yán)重下降。注意到,濾波器來自AR數(shù)據(jù)集的實(shí)驗(yàn)結(jié)果接近于濾波器來自ExtendedYaleB數(shù)據(jù)集的實(shí)驗(yàn)結(jié)果,這表示K-means濾波器在本文方法中有很強(qiáng)的遷移、適應(yīng)能力,即在新數(shù)據(jù)集中可以考慮不重新訓(xùn)練濾波器。

        表4 ExtendedYaleB數(shù)據(jù)集中光照魯棒性測試的識別率比較 %

        表5展示了所有對比方法在不同遮擋比例下的識別率,從中可見本文方法在所有遮擋比例下,識別率均等于或者高于對比方法。在50%遮擋比例下,本文方法能夠完全正確識別;在60%遮擋比例下,本文方法優(yōu)勢更加明顯,取得了97.01%的識別率,比JRPL-L2高出8.7個(gè)百分點(diǎn);由此可以證明本文方法對遮擋具有較強(qiáng)的魯棒性。

        表5 ExtendedYaleB中遮擋魯棒性的識別率比較 %

        2.5 LFW數(shù)據(jù)集

        非受控條件下的LFW數(shù)據(jù)集包含姿勢、年齡、視角、表情等變化的13 233張圖像。為了測試本文方法在LFW數(shù)據(jù)集中的表現(xiàn),按照文獻(xiàn)[6]的設(shè)置,提取兩個(gè)子集,子集1、子集2分別包含143和311幅個(gè)人的圖像,每個(gè)人的圖像張數(shù)大于等于10和5。然而,本文方法在子集1和子集2的識別率僅有41.8%和56.3%,與當(dāng)前流行的深度學(xué)習(xí)方法相比,識別率上存在不小的差距。這其中有兩方面原因:一是K-means算法不能捕捉姿勢、視角、年齡等因素引起的變化;二是本文方法實(shí)質(zhì)上可以看成是一個(gè)單層的網(wǎng)絡(luò),且隱含層神經(jīng)元個(gè)數(shù)K只取30,而當(dāng)前的深度學(xué)習(xí)的層數(shù)一般都是8層以上,神經(jīng)元個(gè)數(shù)也非常多。

        3 結(jié)語

        在卷積網(wǎng)絡(luò)框架的啟發(fā)下,利用K-means收斂速度快的優(yōu)勢,本文提出了一種簡單有效的人臉識別方法,該方法主要包括:K-means卷積濾波學(xué)習(xí)、非線性變換及空間池化三部分。對圖像塊大小、濾波器個(gè)數(shù)、池化單元塊尺寸等參數(shù)通過實(shí)驗(yàn)驗(yàn)證,選擇了最優(yōu)的通用參數(shù)。在AR和ExtendedYaleB數(shù)據(jù)集上的對比實(shí)驗(yàn)結(jié)果表明,本文方法取得了可比較或更高的識別準(zhǔn)確率,且對光照、遮擋等因素表現(xiàn)出了較強(qiáng)的魯棒性。然而,值得指出的是,本文方法在包含姿勢、視角等變化因素的數(shù)據(jù)集LFW上表現(xiàn)不佳,在未來的工作中需要對本文方法進(jìn)行更深入的研究與改進(jìn)。

        References)

        [1] BELHUMEUR P N, HESPANHA J P, KRIEGMAN D J.Eigenfaces vs.fisherfaces: recognition using class specific linear projection [J].IEEE Transactions on Pattern Analysis and Machine Intelligence, 1997, 19(7): 711-720.

        [2] 何玲麗, 李文波.基于對稱Gabor特征和稀疏表示的人臉識別[J].計(jì)算機(jī)應(yīng)用,2014,34(2): 550-552.(HE L L, LI W B.Face recognition based on symmetric Gabor features and sparse representation [J].Journal of Computer Applications, 2014, 34(2): 550-552.)

        [3] 張雯, 張文偉.基于局部二值模式和深度學(xué)習(xí)的人臉識別[J].計(jì)算機(jī)應(yīng)用,2015,35(5):1474-1478.(ZHANG W, ZHANG W W.Face recognition based on local binary pattern and deep learning [J].Journal of Computer Applications, 2015, 35(5): 1474-1478.)

        [4] WRIGHT J, YANG A Y, GANESH A, et al.Robust face recognition via sparse representation [J].IEEE Transactions on Pattern Analysis and Machine Intelligence, 2009, 31(2): 210-227.

        [5] ZHANG L, YANG M, FENG X.Sparse representation or ollaborative representation: which helps face recognition? [C]// ICCV 2011: Proceedings of the 2011 International Conference on Computer Vision.Washington, DC: IEEE Computer Society 2011: 471-478.

        [6] YANG M, ZHANG L, YANG J, et al.Robust sparse coding for face recognition [C]// CVPR ’11: Proceedings of the 2011 IEEE Conference on Computer Vision and Pattern Recognition.Washington, DC: IEEE Computer Society, 2011: 625-632.

        [7] YANG M, ZHANG L, YANG J, et al.Regularized robust coding for face recognition [J].IEEE Transactions on Image Processing, 2013, 22(5): 1753-1766.

        [8] YANG M, ZHANG L.Gabor feature based sparse representation for face recognition with Gabor occlusion dictionary [C]// ECCV 2010: Proceedings in 11th European Conference on Computer Vision, LNCS 6316.Berlin: Springer-Verlag, 2010: 448-461.

        [9] YANG M, ZHU P, LIU F, et al.Joint representation and pattern learning for robust face recognition [J].Neurocomputing, 2015, 168: 70-80.

        [10] BENGIO Y, COURVILLE A, VINCENT P.Representation learning: a review and new perspectives [J].IEEE Transactions on Pattern Analysis and Machine Intelligence, 2013, 35(8): 1798-1828.

        [11] COATES A, LEE H, NG A Y.An analysis of single-layer networks in unsupervised feature learning [C]// Proceedings of the 14th International Conference on Artificial Intelligence and Statistics.Fort Lauderdale, FL: [s.n.], 2011: 215-223.

        [12] LeCUN Y, BOSER B, DENKER J S, et al.Backpropagation applied to handwritten zip code recognition [J].Neural Computation, 1989, 1(4):541-551.

        [13] LUAN X, FANG B, LIU L, et al.Extracting sparse error of robust PCA for face recognition in the presence of varying illumination and occlusion [J].Pattern Recognition, 2014, 47(2): 495-508.

        [14] KUMAR R, BANERJEE A, VEMURI B C, et al.Trainable convolution filters and their application to face recognition [J].IEEE Transactions on Pattern Analysis and Machine Intelligence, 2012, 34(7):1423-1436.

        [15] MARTINEE A, BENAVANTE R.The AR face database, CVC Technical Report 24 [R].Barcelona: Computer Vision Center, 1998.

        [16] GEORGHIADES A S, BELHUMEUR P N, KRIEGMAN D J.From few to many: Illumination cone models for face recognition under variable lighting and pose [J].IEEE Transactions on Pattern Analysis and Machine Intelligence, 2001, 23(6): 643-660.

        FENG Shu, born in 1991, M.S.candidate.Her research interests include machine learning, partial differential equation, image processing.

        Unsupervised local feature learning for robust face recognition

        FENG Shu*

        (CollegeofMathematicsandStatistics,ChongqingUniversity,Chongqing401331,China)

        Image representation is a fundamental issue in face recognition, it is desired to design a discriminative and robust feature to alleviate the effect of illumination, occlusion and pose, etc.Motivated by the convolutional architecture and the advantages (stable result and fast convergence) ofK-means algorithm in building filter bank, a very simple yet effective face recognition approach was presented.It consists of three main parts: convolutional filters leraning, nonlinear processing and spatial mean pooling.Firstly,K-means was employed based on preprocessed image patches to construct the convolution filters quickly.Each filter was convoluted with face image to extract sufficient and discriminative feature information.Secondly, the typical hyperbolic tangent function was applied for nonlinear projection on the convoluted features.Thirdly, spatial mean pooling was used to denoise and reduce the dimensions of the learned features.The classification stage only requires a novel linear regression classifier.The experimental results on two widely utlized databases such as AR and ExtendedYaleB demonstrate that the proposed method is simple and effective, and has strong robustness to illumination and occlusion.

        face recognition; convolutional network architecture;K-means; spatial mean pooling; linear regression

        2016- 08- 01;

        2016- 10- 18。

        馮姝(1991—),女,山西人,碩士研究生,主要研究方向:機(jī)器學(xué)習(xí)、偏微分方程、圖像處理。

        1001- 9081(2017)02- 0512- 05

        10.11772/j.issn.1001- 9081.2017.02.0512

        TP391.41

        A

        猜你喜歡
        池化子集魯棒性
        基于緊湊型雙線性網(wǎng)絡(luò)的野生茵識別方法研究
        無線電工程(2024年8期)2024-09-16 00:00:00
        由一道有關(guān)集合的子集個(gè)數(shù)題引發(fā)的思考
        基于Sobel算子的池化算法設(shè)計(jì)
        卷積神經(jīng)網(wǎng)絡(luò)中的自適應(yīng)加權(quán)池化
        拓?fù)淇臻g中緊致子集的性質(zhì)研究
        關(guān)于奇數(shù)階二元子集的分離序列
        荒漠綠洲區(qū)潛在生態(tài)網(wǎng)絡(luò)增邊優(yōu)化魯棒性分析
        基于確定性指標(biāo)的弦支結(jié)構(gòu)魯棒性評價(jià)
        基于卷積神經(jīng)網(wǎng)絡(luò)和池化算法的表情識別研究
        基于非支配解集的多模式裝備項(xiàng)目群調(diào)度魯棒性優(yōu)化
        男女好痛好深好爽视频一区| 又黄又刺激的网站久久| 亚洲国产精品一区二区成人片国内| 国产永久免费高清在线| 18禁无遮挡无码网站免费| 日本口爆吞精在线视频| 午夜精品一区二区三区视频免费看| 高清在线有码日韩中文字幕| 国产精品久久国产精品99 gif| 国产成人亚洲精品青草天美| 亚洲国产区男人本色| 一区二区三区不卡免费av | 日本免费一区二区精品| 娇小女人被黑人插免费视频| 啦啦啦www在线观看免费视频| 拍摄av现场失控高潮数次| 成激情人妻视频| 五月婷婷开心五月播五月| 放荡的美妇在线播放| 人妻av无码系列一区二区三区| 色与欲影视天天看综合网| 久久狼精品一区二区三区 | 国产精品久久久一本精品| 精品视频一区二区在线观看| 成人国产激情自拍视频| 亚洲成在人线av品善网好看| 国产美女遭强高潮网站| 久久婷婷免费综合色啪| 国产饥渴的富婆一凶二区| 精品久久久久久久久午夜福利| 麻豆高清免费国产一区 | 国产综合久久久久| 青青草视频华人绿色在线 | 久久中文字幕亚洲综合| 中文字字幕人妻中文| 疯狂做受xxxx高潮欧美日本| 国产韩国精品一区二区三区| 亚洲一区二区精品在线 | 国精产品一区一区三区有限公司杨 | 日本一二三区在线不卡| 99久久无色码中文字幕人妻蜜柚|