亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于卷積神經(jīng)網(wǎng)絡(luò)的人臉識(shí)別方法

        2016-06-30 03:28:35陳耀丹王連明
        關(guān)鍵詞:卷積神經(jīng)網(wǎng)絡(luò)圖像處理人臉識(shí)別

        陳耀丹,王連明

        (東北師范大學(xué)物理學(xué)院,吉林 長(zhǎng)春 130024)

        基于卷積神經(jīng)網(wǎng)絡(luò)的人臉識(shí)別方法

        陳耀丹,王連明

        (東北師范大學(xué)物理學(xué)院,吉林 長(zhǎng)春 130024)

        [摘要]研究并實(shí)現(xiàn)了一種基于卷積神經(jīng)網(wǎng)絡(luò)的人臉識(shí)別方法.該網(wǎng)絡(luò)由2個(gè)卷積層、2個(gè)池化層、1個(gè)全連接層和1個(gè)Softmax回歸層組成,它能自動(dòng)提取人臉特征并進(jìn)行分類.網(wǎng)絡(luò)通過批量梯度下降法訓(xùn)練特征提取器和分類器,各隱層應(yīng)用“dropout”方法解決了過擬合問題.應(yīng)用于ORL和AR人臉數(shù)據(jù)庫(kù)的人臉識(shí)別率分別達(dá)到99.50%和99.62%,識(shí)別單張人臉的時(shí)間均小于0.05 s,而且對(duì)光照差異、面部表情變化、有無遮擋物等干擾具有魯棒性.

        [關(guān)鍵詞]人臉識(shí)別;卷積神經(jīng)網(wǎng)絡(luò);圖像處理;人臉數(shù)據(jù)庫(kù)

        0引言

        人臉識(shí)別作為生物特征識(shí)別(虹膜識(shí)別、指紋識(shí)別、掌紋識(shí)別等)技術(shù)之一,由于具有成本低、用戶易接受、可靠性高等優(yōu)點(diǎn),在身份認(rèn)證、安防監(jiān)控、人機(jī)交互等領(lǐng)域具有廣泛的應(yīng)用前景.[1]目前人臉識(shí)別算法大致可分為兩類:

        (1)基于表象(appearance-based)的方法.基本思想是將二維的人臉輸入轉(zhuǎn)換到另一個(gè)空間,然后用統(tǒng)計(jì)方法分析人臉模式,例如eigenface[2]、fisherface[3]和SVM[4]等方法.

        (2)基于特征(feature-based)的方法.一般是提取局部或者全局特征,然后送入一個(gè)分類器進(jìn)行人臉識(shí)別,例如基于幾何特征的識(shí)別[5]和HMM[6]等方法.

        卷積神經(jīng)網(wǎng)絡(luò)是一個(gè)受生物視覺啟發(fā)、以最簡(jiǎn)化預(yù)處理操作為目的的多層感知器的變形,本質(zhì)是一個(gè)前向反饋神經(jīng)網(wǎng)絡(luò).卷積神經(jīng)網(wǎng)絡(luò)與多層感知器的最大區(qū)別是網(wǎng)絡(luò)前幾層由卷積層和池化層交替級(jí)聯(lián)組成,模擬視覺皮層中用于高層次特征提取的簡(jiǎn)單細(xì)胞和復(fù)雜細(xì)胞交替級(jí)聯(lián)結(jié)構(gòu).卷積層的神經(jīng)元對(duì)前一層輸入的一部分區(qū)域(稱為局部感受野,區(qū)域之間有重疊)有響應(yīng),提取輸入的更高層次特征;池化層的神經(jīng)元對(duì)前一層輸入的一部分區(qū)域(區(qū)域之間無重疊)求平均值或者最大值,抵抗輸入的輕微形變或者位移.卷積神經(jīng)網(wǎng)絡(luò)的后幾層一般是若干個(gè)全連接層和一個(gè)分類器構(gòu)成的輸出層.近年來,卷積神經(jīng)網(wǎng)絡(luò)已經(jīng)成功應(yīng)用于字符識(shí)別[7]、人臉識(shí)別[8]、人體姿態(tài)估計(jì)[9]和目標(biāo)檢測(cè)[10].

        卷積神經(jīng)網(wǎng)絡(luò)用于人臉識(shí)別是一種基于特征的方法.區(qū)別于傳統(tǒng)的人工特征提取和針對(duì)特征的高性能分類器設(shè)計(jì),它的優(yōu)點(diǎn)是通過逐層卷積降維進(jìn)行特征提取,然后經(jīng)過多層非線性映射,使網(wǎng)絡(luò)可以從未經(jīng)特殊預(yù)處理的訓(xùn)練樣本中,自動(dòng)學(xué)習(xí)形成適合該識(shí)別任務(wù)的特征提取器和分類器.該方法降低了對(duì)訓(xùn)練樣本的要求,而且網(wǎng)絡(luò)層數(shù)越多,學(xué)習(xí)到的特征更具有全局性.

        LeNet-5[11]是LeCun提出的一個(gè)具有高識(shí)別率的用于手寫數(shù)字識(shí)別的卷積神經(jīng)網(wǎng)絡(luò).本文借鑒LeNet-5的模型結(jié)構(gòu),提出6層卷積神經(jīng)網(wǎng)絡(luò)用于ORL人臉庫(kù)和AR人臉庫(kù)的人臉識(shí)別.網(wǎng)絡(luò)前4層由卷積層和池化層交替級(jí)聯(lián)用于特征提取,隨后接入一個(gè)全連接層,最后一層采用非線性分類能力強(qiáng)的Softmax分類器.該6層卷積神經(jīng)網(wǎng)絡(luò)采用sigmoid激活函數(shù)和固定的學(xué)習(xí)速率.

        16層卷積神經(jīng)網(wǎng)絡(luò)模型

        本文提出的6層卷積神經(jīng)網(wǎng)絡(luò)模型由2個(gè)卷積層、2個(gè)池化層、1個(gè)全連接層和1個(gè)Softmax回歸層組成,如圖1所示.卷積層和池化層由多個(gè)特征圖(即二維平面)組成,每個(gè)特征圖由多個(gè)神經(jīng)元組成,每一層的特征圖作為下一層的輸入.卷積層的特征圖可能與前一層的若干特征圖建立關(guān)系.

        圖1 6層卷積神經(jīng)網(wǎng)絡(luò)模型

        1.1卷積層

        卷積層通過局部連接和權(quán)值共享的方法,模擬具有局部感受野的簡(jiǎn)單細(xì)胞,提取一些初級(jí)視覺特征的過程.局部連接指卷積層上的每個(gè)神經(jīng)元與前一層特征圖中固定區(qū)域的神經(jīng)元建立連接;權(quán)值共享指同一特征圖中的神經(jīng)元用一組相同的連接強(qiáng)度與前一層局部連接,可以減少網(wǎng)絡(luò)訓(xùn)練參數(shù).上述一組相同的連接強(qiáng)度即為一個(gè)特征提取器,在運(yùn)算過程中表現(xiàn)為一個(gè)卷積核,卷積核數(shù)值先隨機(jī)初始化,最后由網(wǎng)絡(luò)訓(xùn)練確定.

        與LeNet-5相比,考慮到人臉識(shí)別比數(shù)字識(shí)別更復(fù)雜,卷積層為了更充分地提取人臉特征進(jìn)行了以下改進(jìn):(1)增加2個(gè)卷積層的特征提取器——卷積核的數(shù)量;(2)卷積層2的特征圖與池化層1的全部特征圖均建立關(guān)系.

        卷積層每個(gè)神經(jīng)元的輸入來自于前一層特征圖中固定區(qū)域的神經(jīng)元,區(qū)域的大小由卷積核大小Kx×Ky決定.卷積層1的m張?zhí)卣鲌D由1張輸入圖片跟m個(gè)可學(xué)習(xí)的卷積核卷積,加上偏置后,通過激活函數(shù)作用得到.卷積層2的n張?zhí)卣鲌D,由池化層1的m張?zhí)卣鲌D分別跟n×m個(gè)卷積核卷積,每m個(gè)卷積結(jié)果結(jié)合,再加上偏置,通過激活函數(shù)作用得到.卷積層操作如圖2所示.

        圖2 卷積層操作

        該層的數(shù)學(xué)表達(dá)式[8]為

        (1)

        1.2池化層

        池化層模擬復(fù)雜細(xì)胞是將初級(jí)的視覺特征篩選并結(jié)合成更高級(jí)、抽象的視覺特征的過程,在網(wǎng)絡(luò)中通過采樣實(shí)現(xiàn).經(jīng)過池化層的采樣后,輸出特征圖的數(shù)量不變,但是特征圖的尺寸會(huì)變小,有減少計(jì)算復(fù)雜度、抵抗微小位移變化的作用.本文提出的池化層采用最大值采樣,采樣大小為2×2,即把輸入的特征圖分割成不重疊的2×2大小的矩形,對(duì)每個(gè)矩形取最大值,所以輸出特征圖的長(zhǎng)和寬均是輸入特征圖的一半.本文定義池化層中的神經(jīng)元不具備學(xué)習(xí)功能,數(shù)學(xué)表達(dá)式為

        (2)

        其中down表示最大值采樣的函數(shù),該層運(yùn)算不包含可學(xué)習(xí)的權(quán)值和閾值.

        1.3全連接層

        為增強(qiáng)網(wǎng)絡(luò)的非線性映射能力,同時(shí)限制網(wǎng)絡(luò)規(guī)模的大小,網(wǎng)絡(luò)在4個(gè)特征提取層提取特征后,接入一個(gè)全連接層.該層的每一個(gè)神經(jīng)元與前一層的所有神經(jīng)元互相連接,同層神經(jīng)元之間不連接.數(shù)學(xué)表達(dá)式[8]為

        (3)

        1.4Softmax回歸層

        LeNet-5最后一層是RBF分類器,采用由ASCII碼表中的數(shù)字作為模板算出的糾錯(cuò)碼或者以等概率的方式任選-1和1作為RBF的權(quán)值,每個(gè)RBF輸出單元計(jì)算輸入特征和參數(shù)向量之間的歐式距離.但是人臉特征比數(shù)字特征更復(fù)雜,而且人臉類別多又沒有統(tǒng)一的模板,所以網(wǎng)絡(luò)最后一層采用非線性分類能力強(qiáng)的Softmax回歸作為分類器.

        假定可分為k類的m個(gè)樣本組成訓(xùn)練集{(x(L),y(L)),…,(x(m),y(m))},樣本x(i)∈Rn+1,類標(biāo)y(i)∈{1,2,…,k},n是樣本維數(shù),Softmax回歸假設(shè)函數(shù)[12]為

        (4)

        模型的代價(jià)函數(shù)為

        (5)

        其中:1{·}為示性函數(shù),若{}內(nèi)值為真的表達(dá)式,則示性函數(shù)值為1;反之,則為0.本文通過批量梯度下降法求解使代價(jià)函數(shù)J(θ)最小化時(shí)的θ.

        2網(wǎng)絡(luò)訓(xùn)練

        2.1數(shù)據(jù)預(yù)處理

        ORL人臉庫(kù)由40人的400張圖片組成,即每人10張圖片,人臉有表情、微小姿態(tài)等變化.取AR人臉庫(kù)的一個(gè)子集,由男、女各50人組成的2 600張圖片,即每人的圖片為26張,人臉有表情、遮擋、光照等變化.圖3是ORL人臉庫(kù)中人臉樣例,圖4是AR人臉庫(kù)中人臉樣例.

        圖3 ORL人臉庫(kù)人臉樣例

        圖4 AR人臉庫(kù)人臉樣例

        對(duì)2個(gè)數(shù)據(jù)庫(kù)同做以下處理:隨機(jī)抽取庫(kù)中90%的人臉作為訓(xùn)練集,剩下的10%的人臉作為測(cè)試集,然后標(biāo)準(zhǔn)化2個(gè)集合中的人臉,如圖5所示.

        圖5 人臉標(biāo)準(zhǔn)化過程

        “min-max”標(biāo)準(zhǔn)化灰度值,即對(duì)圖片中每個(gè)像素點(diǎn)的灰度值標(biāo)準(zhǔn)化為[0,1].用x和x′分別表示當(dāng)前和標(biāo)準(zhǔn)化后的灰度值,min和max分別表示圖片中的最小和最大的灰度值,標(biāo)準(zhǔn)化公式為

        (6)

        2.2網(wǎng)絡(luò)訓(xùn)練算法

        由于2個(gè)人臉庫(kù)訓(xùn)練樣本較多,本文采用的是在實(shí)踐中收斂速度較快的批量隨機(jī)梯度下降法.對(duì)于ORL人臉庫(kù)的卷積神經(jīng)網(wǎng)絡(luò)的訓(xùn)練,批處理塊大小為40,動(dòng)量為0.9,學(xué)習(xí)速率恒為0.12;對(duì)于AR人臉庫(kù)的卷積神經(jīng)網(wǎng)絡(luò)的訓(xùn)練,批處理塊大小為65,動(dòng)量為0.9,學(xué)習(xí)速率恒為0.15.每次迭代會(huì)遍歷訓(xùn)練集的所有批處理塊,遍歷完一個(gè)批處理塊更新一次網(wǎng)絡(luò)參數(shù).更新公式為

        (7)

        本文用于ORL人臉庫(kù)的某個(gè)卷積神經(jīng)網(wǎng)絡(luò)包含104.210×104個(gè)待訓(xùn)練參數(shù);用于AR人臉庫(kù)的某個(gè)卷積神經(jīng)網(wǎng)絡(luò)包含150.266×104個(gè)待訓(xùn)練參數(shù).針對(duì)參數(shù)遠(yuǎn)大于訓(xùn)練樣本數(shù)量可能導(dǎo)致的過擬合問題,Hinton提出了“dropout”[13],即在網(wǎng)絡(luò)訓(xùn)練時(shí)以一定的概率p(0≤p≤1)將輸入層或者隱層的神經(jīng)元輸出置為0,被置為0的神經(jīng)元不再參與網(wǎng)絡(luò)的前向傳播和誤差反向傳播,而在測(cè)試時(shí),將該輸入層或者隱層的神經(jīng)元輸出乘以p作為該層的輸出.由于每輸入一張圖片網(wǎng)絡(luò)中神經(jīng)元隨機(jī)被置0,所以就要求隱層神經(jīng)元必須提取圖片中最本質(zhì)的特征,因此可以用“dropout”來解決過擬合問題.

        3實(shí)驗(yàn)結(jié)果

        本文采用Windows XP下的Matlab 2010a作為實(shí)驗(yàn)環(huán)境,計(jì)算機(jī)CPU為3.3 GHz的Intel i3-3220,內(nèi)存為4 GB,2個(gè)卷積層中卷積核大小為5×5,2個(gè)采樣層采用最大值池化,采樣大小為2×2,激活函數(shù)采用sigmoid函數(shù),即

        (8)

        網(wǎng)絡(luò)權(quán)值采用高斯初始化,網(wǎng)絡(luò)閾值初始化為0,網(wǎng)絡(luò)的代價(jià)函數(shù)J(θ)見公式(5),卷積層、全連接層和Softmax回歸層均采用“dropout”方法,概率p分別設(shè)為0.5,0.2和0.5.

        6層卷積神經(jīng)網(wǎng)絡(luò)模型可簡(jiǎn)約描述為“A-b-c”,A表示卷積層1有A個(gè)卷積核,經(jīng)過該層得到A張?zhí)卣鲌D,再經(jīng)過池化層1采樣得到縮小的A張?zhí)卣鲌D;b表示卷積層2有b×A個(gè)卷積核,經(jīng)過該層得到b張?zhí)卣鲌D,再經(jīng)過池化層2采樣得到縮小的b張?zhí)卣鲌D;c表示全連接層的神經(jīng)元個(gè)數(shù).輸出層神經(jīng)元個(gè)數(shù)是人臉庫(kù)的模式類個(gè)數(shù).本文分別改變?nèi)B接層神經(jīng)元個(gè)數(shù)c和2個(gè)卷積層的特征圖數(shù)量A和b,找到最適合2人臉庫(kù)的網(wǎng)絡(luò)模型.

        3.1改變?nèi)B接層神經(jīng)元個(gè)數(shù)對(duì)網(wǎng)絡(luò)的影響

        ORL人臉庫(kù)的6層卷積神經(jīng)網(wǎng)絡(luò)用20-40-300,20-40-500,20-40-800,20-40-1 100,20-40-1 500模型測(cè)試.AR人臉庫(kù)的6層卷積神經(jīng)網(wǎng)絡(luò)用20-40-800,20-40-1 000,20-40-1 500,20-40-2 000模型測(cè)試.

        圖6描述ORL人臉庫(kù)中每次迭代對(duì)應(yīng)的代價(jià)函數(shù)J(θ)的值,圖7描述AR人臉庫(kù)中每次迭代對(duì)應(yīng)的代價(jià)函數(shù)J(θ)的值.圖6和7顯示各個(gè)網(wǎng)絡(luò)模型從迭代次數(shù)為1 900至2 000時(shí)基本訓(xùn)練.選取迭代次數(shù)為2 000時(shí),測(cè)量各個(gè)模型對(duì)于相應(yīng)人臉庫(kù)訓(xùn)練集和測(cè)試集的正確識(shí)別率,結(jié)果如表1和2所示.

        圖6 改變?nèi)B接層的ORL人臉庫(kù)的J(θ)

        圖7 改變?nèi)B接層的AR人臉庫(kù)的J(θ)

        %

        表2 改變?nèi)B接層的AR人臉庫(kù)的正確識(shí)別率 %

        對(duì)于ORL人臉庫(kù),最佳的卷積神經(jīng)網(wǎng)絡(luò)模型為20-40-1 500;對(duì)于AR人臉庫(kù),最佳的卷積神經(jīng)網(wǎng)絡(luò)模型為20-40-2 000.增加全連接層神經(jīng)元個(gè)數(shù)可以加快網(wǎng)絡(luò)的訓(xùn)練速度,在一定程度內(nèi)能提高正確識(shí)別率.

        3.2改變2個(gè)卷積層特征圖數(shù)量對(duì)網(wǎng)絡(luò)的影響

        ORL人臉庫(kù)的6層卷積神經(jīng)網(wǎng)絡(luò)用10-15-1 500,15-15-1 500,15-25-1 500, 20-30-1 500, 20-40-1 500模型測(cè)試.AR人臉庫(kù)的6層卷積神經(jīng)網(wǎng)絡(luò)用15-25-2 000,15-30-2 000,20-30-2 000,20-40-2 000模型測(cè)試.

        圖8描述ORL人臉庫(kù)中每次迭代對(duì)應(yīng)的代價(jià)函數(shù)J(θ)的值,圖9描述AR人臉庫(kù)中每次迭代對(duì)應(yīng)的代價(jià)函數(shù)J(θ)的值.同理,選取迭代次數(shù)為2 000時(shí),測(cè)量各個(gè)模型對(duì)于相應(yīng)人臉庫(kù)訓(xùn)練集和測(cè)試集的正確識(shí)別率,結(jié)果如表3和4所示.

        圖8 改變2個(gè)卷積層的ORL人臉庫(kù)的J(θ)

        圖9 改變2個(gè)卷積層的AR人臉庫(kù)的J(θ)

        %

        表4 改變2個(gè)卷積層的AR人臉庫(kù)的正確識(shí)別率 %

        對(duì)于ORL人臉庫(kù),最佳的卷積神經(jīng)網(wǎng)絡(luò)模型為20-40-1 500;對(duì)于AR人臉庫(kù),最佳的卷積神經(jīng)網(wǎng)絡(luò)模型為20-40-2 000.適當(dāng)增加卷積層特征圖數(shù)量可以提高正確識(shí)別率.

        3.320-40-1 500卷積神經(jīng)網(wǎng)絡(luò)模型與其他算法的比較

        20-40-1 500的卷積神經(jīng)網(wǎng)絡(luò)模型對(duì)ORL人臉庫(kù)全部樣本的識(shí)別率為99.50%, 20-40-2 000的卷積神經(jīng)網(wǎng)絡(luò)模型對(duì)AR人臉庫(kù)全部樣本的識(shí)別率為99.62%.表5是本文提出的網(wǎng)絡(luò)與其他算法在ORL庫(kù)識(shí)別率的比較,表6是本文提出的網(wǎng)絡(luò)與其他算法在AR庫(kù)識(shí)別率的比較.可以看出本文提出的網(wǎng)絡(luò)在2個(gè)人臉庫(kù)上的識(shí)別率較好,并且網(wǎng)絡(luò)抵抗光照差異、面部表情變化、有無遮擋物等干擾的能力較強(qiáng).

        表520-40-1 500卷積神經(jīng)網(wǎng)絡(luò)模型與用于ORL庫(kù)的其他算法比較

        識(shí)別方法正確識(shí)別率/%Eigenface[14]97.50Fisherface[14]98.50ICA[14]93.752DPCA[15]98.3020-40-1500CNN99.50

        表6 20-40-1 500卷積神經(jīng)網(wǎng)絡(luò)模型與用于AR庫(kù)的其他算法比較

        4總結(jié)

        本文提出了一個(gè)6層卷積神經(jīng)網(wǎng)絡(luò)用于ORL和AR人臉庫(kù)的人臉識(shí)別,對(duì)測(cè)試樣本的識(shí)別率分別為99.75%和96.15%,對(duì)全部樣本的識(shí)別率分別為99.50%和99.62%.用于AR人臉庫(kù)的卷積神經(jīng)網(wǎng)絡(luò)對(duì)光照差異、面部表情變化、有無遮擋物等干擾具有魯棒性.采用Matlab 2010a作為實(shí)驗(yàn)環(huán)境,在CPU為3.3 GHz的Intel i3-3220,內(nèi)存為4 GB的計(jì)算機(jī)上,ORL和AR人臉庫(kù)的單張人臉識(shí)別時(shí)間均小于0.05 s,識(shí)別實(shí)時(shí)性好,為人臉識(shí)別提供一種新思路.

        [參考文獻(xiàn)]

        [1]陳海霞,崔茜.基于Gabor小波和PCA的人臉識(shí)別[J].東北師大學(xué)報(bào)(自然科學(xué)版),2014,46(4):77-80.

        [2]孟繁靜,王連明.視頻人臉識(shí)別系統(tǒng)中的最佳人臉捕獲[J].東北師大學(xué)報(bào)(自然科學(xué)版),2015,47(3):90-95.

        [3]WANG X,TANG X.Dual-space linear discriminant analysis for face recognition[C]//CVPR 2004 Proceedings of the 2004 IEEE Computer Society Conference on Computer Vision and Pattern Recognition.Washington:IEEE,2004,2:564-569.

        [4]HEISELE B,HO P,POGGIO T.Face recognition with support vector machines:Global versus component-based approach[C]//ICCV 2001 Proceedings.Eighth IEEE International Conference on Computer Vision.Los Alamitos:IEEE,2001,2:688-694.

        [5]ABATE A F,NAPPI M,RICCIO D,et al.2D and 3D face recognition a survey[J].Pattern Recognition Letters,2007,28(14):1885-1906.

        [6]NEFIAN A V,HAYES III M H.Hidden markov models for face recognition[C]//1998 IEEE International Conference on Acoustics,Speed and Signal Processing,Washington:IEEE,1998:2721-2724.

        [7]AHRANJANY S S,RAZZAZI F,GHASSEMIAN M H.A very high accuracy handwritten character recognition system for Farsi/Arabic digits using Convolutional Neural Networks[C]//Theories and Applications (BIC-TA),2010 IEEE Fifth International Conference on Bio-Inspired Computing.Beijing:IEEE,2010:1585-1592.

        [8]SYAFEEZA A R,KHALIL-HANI M,LIEW S S,et al.Convolutional neural network for face recognition with pose and Illumination Variation[J].International Journal of Engineering & Technology,2014,6(1):44-57.

        [9]TOSHEV A,SZEGEDY C.Deeppose:Human pose estimation via deep neural networks[C]//2014 IEEE Conference on Computer Vision and Pattern Recognition (CVPR).Los Alamitos:IEEE,2014:1653-1660.

        [10]SERMANET P,EIGEN D,ZHANG X,et al.Overfeat integrated recognition,localization and detection using convolutional networks[J].Neural Networks,2003,16(5):555-559.

        [11]LECUN Y,BOTTOU L,BENGIO Y,et al.Gradient-based learning applied to document recognition[J].Proceedings of the IEEE,1998,86(11):2278-2324.

        [12]HUANG V S,SHADMEHR R,DIEDRICHSEN J.Active learning:learning a motor skill without a coach[J].Journal of neurophysiology,2008,100(2):879-887.

        [13]SRIVASTAVA S,HINTION G,KRIZHEVSKY A,et al.Droput:a simple way to prevent neural networks from overfitting[J].The Journal of Machine Learning Reserch,2014,15(1):1929-1958.

        [14]YANG M H.Kernel eigenfaces vs.kernel fisherfaces:Face recognition using kernel methods[C]//2013 10th IEEE International Conference and Workshops on Automatic Face and Gesture Recognition (FG).Washington:IEEE,2002:0215-0215.

        [15]YANG J,ZHANG D,F(xiàn)RANGI A F,et al.Two-dimensional PCA:a new approach to appearance-based face representation and recognition[J].Pattern Analysis and Machine Intelligence,IEEE Transactions on,2004,26(1):131-137.

        [16]ROLI F,MARCIALIS G L.Semi-supervised PCA-based face recognition using self-training[M].Structural,Syntactic,and Statistical Pattern Recognition.Berlin Heidelberg:Springer,2006:560-568.

        [17]YANG M,ZHANG L.Gabor feature based sparse representation for face recognition with gabor occlusion dictionary[M].Computer Vision-ECCV 2010.Berlin Heidelberg:Springer,2010:448-461.

        [18]JIANG Z,LIN Z,DAVIS L S.Learning a discriminative dictionary for sparse coding via label consistent K-SVD[C]//2011 IEEE Conference on Computer Vision and Pattern Recognition (CVPR).Washington:IEEE,2011:1697-1704.

        (責(zé)任編輯:石紹慶)

        Convolutional neural network for face recognition

        CHEN Yao-dan,WANG Lian-ming

        (School of Physics,Northeast Normal University,Changchun 130024,China)

        Abstract:Feature extraction and classification are two key steps in face recognition.A convolutional neural network composed of two convolutional layers,two pooling layers,one full-connection layer and one Softmax regression layer for face recognition is proposed.The neural network can automatically extract facial features and classify face,with trained feature extractors and the classifier using batch gradient descent.And the network adopts dropout method in hidden layers to avoid the overfitting problem.Experimental results show that proposed network achieves 99.50% recognition accuracy on ORL database and an accuracy of 99.62% on AR database,and it can complete one-time facial recognition in less than 0.05s.More importantly,the network is robust to illumination variances,facial expressions and occlusions.

        Keywords:face recognition;convolutional neural network;image processing;face database

        [文章編號(hào)]1000-1832(2016)02-0070-07

        [收稿日期]2015-05-17

        [基金項(xiàng)目]國(guó)家自然科學(xué)基金資助項(xiàng)目(21227008);吉林省科技發(fā)展計(jì)劃項(xiàng)目(20130102028JC).

        [作者簡(jiǎn)介]陳耀丹(1993—),女,碩士研究生,主要從事模式識(shí)別研究;通訊作者:王連明(1972—),男,博士,教授,主要從事智能信息處理及嵌入式系統(tǒng)領(lǐng)域研究.

        [中圖分類號(hào)]TP 391.4[學(xué)科代碼]520·2040

        [文獻(xiàn)標(biāo)志碼]A

        [DOI]10.16163/j.cnki.22-1123/n.2016.02.016

        猜你喜歡
        卷積神經(jīng)網(wǎng)絡(luò)圖像處理人臉識(shí)別
        人臉識(shí)別 等
        揭開人臉識(shí)別的神秘面紗
        機(jī)器學(xué)習(xí)在圖像處理中的應(yīng)用
        電子制作(2018年18期)2018-11-14 01:48:20
        模糊圖像處理,刑事偵查利器
        圖像處理技術(shù)的實(shí)戰(zhàn)應(yīng)用
        基于深度卷積神經(jīng)網(wǎng)絡(luò)的物體識(shí)別算法
        深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
        基于深度卷積網(wǎng)絡(luò)的人臉年齡分析算法與實(shí)現(xiàn)
        軟件工程(2016年8期)2016-10-25 15:47:34
        基于卷積神經(jīng)網(wǎng)絡(luò)的樹葉識(shí)別的算法的研究
        基于類獨(dú)立核稀疏表示的魯棒人臉識(shí)別
        国产午夜精品av一区二区三| 激情亚洲一区国产精品| 2021年最新久久久视精品爱| av网站免费在线不卡| 人妻精品视频一区二区三区| 首页 综合国产 亚洲 丝袜| 久久综合色鬼| 亚洲av永久综合网站美女| 国产农村妇女精品一区| 亚洲av无码国产精品色软件下戴| 色丁香在线观看| 国产一区二区三区涩涩| 久久精品国产亚洲av天| 熟妇丰满多毛的大隂户| 亚洲中文字幕在线一区二区三区| 国产国语一级免费黄片| а天堂中文地址在线| 那有一级内射黄片可以免费看| 国产内射爽爽大片视频社区在线| 丰满多毛少妇做爰视频| 国产精品三级av一区二区| 两人前一后地插着她丰满| 97人人模人人爽人人少妇| 日韩在线第二页| 日本一区中文字幕在线播放| 久久久久亚洲av无码专区首| 97精品依人久久久大香线蕉97| 国产欧美亚洲精品第二区首页| 国产精品亚洲一区二区三区16| 国产成人精品久久一区二区三区| 日韩一区二区肥| 久久精品伊人久久精品| 免费又黄又爽又色的视频| 国产a v无码专区亚洲av| 亚洲国产综合精品久久av| 亚洲婷婷久悠悠色悠在线播放| 亚洲第一se情网站| 国产主播无套内射一区| 激情五月天色婷婷久久| 人妻熟女一区二区三区app下载 | 亚洲精品乱码久久久久久中文字幕 |