亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于卷積神經(jīng)網(wǎng)絡(luò)的人臉識(shí)別研究

        2017-05-31 06:45:20李春利柳振東惠康華
        軟件導(dǎo)刊 2017年5期
        關(guān)鍵詞:模式識(shí)別卷積神經(jīng)網(wǎng)絡(luò)圖像識(shí)別

        李春利 柳振東 惠康華

        摘要摘要:為解決傳統(tǒng)人臉識(shí)別算法手工提取特征困難的問(wèn)題,將卷積神經(jīng)網(wǎng)絡(luò)引入人臉識(shí)別任務(wù)中。為適應(yīng)ORL數(shù)據(jù)集人臉識(shí)別任務(wù)的需要,參照經(jīng)典的卷積神經(jīng)網(wǎng)絡(luò)模型Lenet-5的結(jié)構(gòu),提出一種適用于該數(shù)據(jù)集的CNN結(jié)構(gòu)。實(shí)驗(yàn)結(jié)果表明,所提出的CNN結(jié)構(gòu)具有較少的學(xué)習(xí)參數(shù),且在ORL數(shù)據(jù)集上取得了較高的識(shí)別率。與傳統(tǒng)人臉識(shí)別算法進(jìn)行比較研究,從實(shí)驗(yàn)結(jié)果可以看出,在識(shí)別正確率上,所提出的卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)優(yōu)于大多數(shù)識(shí)別算法。

        關(guān)鍵詞關(guān)鍵詞:人臉識(shí)別;卷積神經(jīng)網(wǎng)絡(luò);圖像識(shí)別;深度學(xué)習(xí);模式識(shí)別

        DOIDOI:10.11907/rjdk.171043

        中圖分類號(hào):TP317.4

        文獻(xiàn)標(biāo)識(shí)碼:A文章編號(hào)文章編號(hào):16727800(2017)005018603

        0引言

        人臉識(shí)別是近年來(lái)模式識(shí)別、圖像處理、機(jī)器視覺(jué)、神經(jīng)網(wǎng)絡(luò)及認(rèn)知科學(xué)領(lǐng)域的研究熱點(diǎn)[12]。所謂人臉識(shí)別,是指給定一個(gè)靜態(tài)人臉圖像或動(dòng)態(tài)視頻,利用存儲(chǔ)有若干已知身份的人臉數(shù)據(jù)庫(kù)驗(yàn)證單個(gè)或多個(gè)人的身份[1]。作為生物特征識(shí)別的一個(gè)重要方面,人臉識(shí)別有著廣泛的應(yīng)用場(chǎng)景,如:檔案管理系統(tǒng)、公安系統(tǒng)的犯罪身份識(shí)別、銀行和海關(guān)的監(jiān)控、安全驗(yàn)證系統(tǒng)、信用卡驗(yàn)證等領(lǐng)域。在人臉識(shí)別巨大魅力的影響下,國(guó)內(nèi)互聯(lián)網(wǎng)公司也開(kāi)始了人臉識(shí)別應(yīng)用的探索,如百度推出的人臉考勤系統(tǒng)、阿里支付寶的刷臉登錄等功能都是人臉識(shí)別的具體應(yīng)用。目前,人臉識(shí)別的代表性方法主要有以下幾種:Turk和Pentland[3]提出的特征臉(Eigenface)方法;基于線性區(qū)別分析,Belhumeur 等[4]提出了Fisherface方法;基于統(tǒng)計(jì)理論,劍橋大學(xué)的 Samaria和Fallside[5]提出了隱馬爾科夫模型[5](HMM),Lawrence 等[6]提出的通過(guò)多級(jí)自組織映射神經(jīng)網(wǎng)絡(luò)(SOM)[6]與卷積神經(jīng)網(wǎng)絡(luò)相結(jié)合進(jìn)行人臉識(shí)別。上述方法雖然獲得了良好的識(shí)別正確率,但需要人工參與特征提取,然后將提取的特征送入分類器進(jìn)行識(shí)別,過(guò)程較為復(fù)雜。

        卷積神經(jīng)網(wǎng)絡(luò)[79]是近年發(fā)展起來(lái),并引起廣泛重視的一種高效深度學(xué)習(xí)識(shí)別算法,其已成為當(dāng)前語(yǔ)音分析和圖像處理領(lǐng)域的研究熱點(diǎn)。相比傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)而言,卷積神經(jīng)網(wǎng)絡(luò)具有權(quán)值共享、局部感知的優(yōu)點(diǎn)。局部感知的網(wǎng)絡(luò)結(jié)構(gòu)使其更接近于生物神經(jīng)網(wǎng)絡(luò),權(quán)值共享大大減少了模型學(xué)習(xí)參數(shù)的個(gè)數(shù),同時(shí)降低了神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)的復(fù)雜性。在圖像處理領(lǐng)域,卷積神經(jīng)網(wǎng)絡(luò)的優(yōu)點(diǎn)體現(xiàn)得更為突出,多維的圖像數(shù)據(jù)可以直接作為網(wǎng)絡(luò)的輸入,特征提取和分類均集成在網(wǎng)絡(luò)中,避免了傳統(tǒng)識(shí)別算法中復(fù)雜的特征提取和訓(xùn)練分類器過(guò)程。除此之外,卷積神經(jīng)網(wǎng)絡(luò)對(duì)圖像中的位移、比例縮放、旋轉(zhuǎn)、傾斜或其它形式的變形具有很好的魯棒性。為了解決傳統(tǒng)人臉識(shí)別算法特征提取和訓(xùn)練分類器困難的問(wèn)題,本文借鑒Lenet-5[10]的結(jié)構(gòu),設(shè)計(jì)一個(gè)適合ORL數(shù)據(jù)集人臉識(shí)別任務(wù)的卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)。

        1卷積神經(jīng)網(wǎng)絡(luò)

        1.1用于ORL人臉識(shí)別的CNN

        本文提出的7層卷積神經(jīng)網(wǎng)絡(luò)模型由輸入層、2個(gè)卷積層、2個(gè)降采樣層、一個(gè)全連接層和一個(gè)Sigmoid輸出層組成。卷積核的大小均為5×5,降采樣層Pooling區(qū)域的大小為2×2,采用Average Pooling(相鄰小區(qū)域之間無(wú)重疊),激活函數(shù)均采用Sigmoid函數(shù)。每一個(gè)卷積層或降采樣層由多個(gè)特征圖組成,每個(gè)特征圖有多個(gè)神經(jīng)元,上層的輸出作為下一層的輸入。此外,本文實(shí)驗(yàn)學(xué)習(xí)率的取值為常數(shù)1.5,該卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示。

        1.2卷積層

        卷積神經(jīng)網(wǎng)絡(luò)中的卷積層一般稱C層[11](特征提取層)。卷積層的輸入來(lái)源于輸入層或者采樣層。卷積層中的每一個(gè)特征圖都對(duì)應(yīng)一個(gè)大小相同的卷積核,卷積層的每一個(gè)特征圖是不同的卷積核在前一層輸入的特征圖上作卷積,然后將對(duì)應(yīng)元素累加后加一個(gè)偏置,最后通過(guò)激活函數(shù)得到。假設(shè)第l層為卷積層,則該層中第j個(gè)特征圖的計(jì)算表達(dá)式如式(1)。

        xlj=f(∑i∈Mjxl-1iklij+blj)(1)

        這里的Mj表示選擇的上一層輸出特征圖的集合。

        1.3降采樣層

        降采樣層是對(duì)上一層的特征圖進(jìn)行下采樣處理,處理方式是在每一個(gè)特征圖內(nèi)部的相鄰小區(qū)域進(jìn)行聚合統(tǒng)計(jì)。常見(jiàn)的下采樣方式有兩種:Average Pooling和Max Pooling。其中,Average Pooling是取小區(qū)域內(nèi)像素的平均值,而Max Pooling是取小區(qū)域內(nèi)像素的最大值。降采樣層只是對(duì)輸入的特征圖進(jìn)行降維處理,不改變特征圖的個(gè)數(shù)。假設(shè)down表示下采樣操作,βlj表示乘性偏置,blj表示加性偏置,則降采樣層中某個(gè)特征圖的計(jì)算表達(dá)式如下:

        xlj=f(βljdown(xl-1j)+blj)(2)

        1.4輸出層

        卷積神經(jīng)網(wǎng)絡(luò)的輸出層一般為分類器層,常用的有徑向基(RBF)函數(shù)輸出單元、Sigmoid輸出單元和Softmax回歸分類器。在ORL人臉識(shí)別任務(wù)中,采用Sigmoid函數(shù)輸出單元,輸出層的編碼采用非分布編碼“one-of-c”的方式。由于采用Sigmoid函數(shù),每一個(gè)單元輸出值是0-1范圍內(nèi)的一個(gè)正數(shù),代表該樣本屬于該單元對(duì)應(yīng)類別的概率。數(shù)值最大的那個(gè)單元即為樣本的預(yù)測(cè)類別。假設(shè)x為全連接層的輸出,則輸出層輸出結(jié)果的計(jì)算表達(dá)式如下:

        y=f(wTx+b)(3)

        其中,f表示激活函數(shù),這里采用Sigmoid函數(shù),Sigmoid函數(shù)表達(dá)式如下:

        f(x)=11+e-x(4)

        2實(shí)驗(yàn)結(jié)果與分析

        實(shí)驗(yàn)在Windows7 64位下的Matlab 2014a中進(jìn)行,采用Matlab深度學(xué)習(xí)工具箱DeepLearnToolbox。PC的內(nèi)存8G,CPU主頻為3.2GHZ。

        ORL人臉數(shù)據(jù)集是在1992年至1994年之間由AT &T Cambridge實(shí)驗(yàn)室拍攝的人臉圖像所構(gòu)成。數(shù)據(jù)集中包含40個(gè)不同人物的臉部圖像,每個(gè)人物包含10張圖像,總共400張。每個(gè)類別中的臉部圖像在不同的時(shí)間拍攝得到,存在如下差異:①光線;②面部表情,如眼睛的閉合和睜開(kāi)狀態(tài),面部是否帶有微笑的表情等;③一些面部細(xì)節(jié)上的差異,如是否佩戴眼鏡等。該數(shù)據(jù)集中所有人臉圖像均為灰度圖像,且圖像中人物面部朝向基本一致,都朝向正前方。

        圖2為ORL數(shù)據(jù)集中部分人臉圖像。數(shù)據(jù)集中每個(gè)原始圖像大小為92*112像素,本文實(shí)驗(yàn)中對(duì)這些圖像進(jìn)行預(yù)處理,使每一幅圖像的尺寸調(diào)整為28*28,并對(duì)每一副圖像進(jìn)行歸一化處理,這里采用簡(jiǎn)單的除255的方式。隨機(jī)選取每一個(gè)類別的8張圖像作為訓(xùn)練樣本,剩下的2張作為測(cè)試樣本。因此,訓(xùn)練集有320個(gè)樣本,測(cè)試集有80個(gè)樣本。

        2.1改變C3層卷積核個(gè)數(shù)對(duì)網(wǎng)絡(luò)的影響

        卷積神經(jīng)網(wǎng)絡(luò)性能的好壞與卷積層卷積核的個(gè)數(shù)密切相關(guān),但每一個(gè)卷積層應(yīng)該設(shè)置多少個(gè)卷積濾波器,目前并沒(méi)有數(shù)學(xué)理論指導(dǎo)。為了研究卷積核個(gè)數(shù)對(duì)網(wǎng)絡(luò)最終識(shí)別準(zhǔn)確率的影響,本文保持C1層卷積核個(gè)數(shù)不變,通過(guò)改變C3層卷積核的個(gè)數(shù),形成新的網(wǎng)絡(luò)結(jié)構(gòu),用訓(xùn)練集訓(xùn)練網(wǎng)絡(luò),訓(xùn)練迭代次數(shù)均為60次,然后用測(cè)試集對(duì)每一種網(wǎng)絡(luò)結(jié)構(gòu)的性能進(jìn)行測(cè)試。實(shí)驗(yàn)結(jié)果如表1所示。

        從表1可以看出,當(dāng)C3層有10個(gè)卷積核時(shí),網(wǎng)絡(luò)模型對(duì)測(cè)試集的識(shí)別正確率最高。卷積核的個(gè)數(shù)與識(shí)別準(zhǔn)確率并不成正比關(guān)系,當(dāng)卷積核個(gè)數(shù)過(guò)多時(shí),網(wǎng)絡(luò)的識(shí)別準(zhǔn)確率會(huì)下降,這是因?yàn)樵诰矸e核個(gè)數(shù)增加的同時(shí),需要學(xué)習(xí)的參數(shù)也隨之增加,而數(shù)據(jù)集中訓(xùn)練樣本的規(guī)模較小,已不能滿足學(xué)習(xí)的要求。

        2.2改變C1層卷積核個(gè)數(shù)對(duì)網(wǎng)絡(luò)的影響

        由上述實(shí)驗(yàn)結(jié)果可知,C3層卷積核個(gè)數(shù)為10時(shí),網(wǎng)絡(luò)識(shí)別效果最好。因此,為了研究卷積層C1層卷積核個(gè)數(shù)對(duì)識(shí)別準(zhǔn)確率的影響, C3層保留10個(gè)卷積核,改變C1層卷積核的個(gè)數(shù)構(gòu)造新的網(wǎng)絡(luò)結(jié)構(gòu),用測(cè)試集針對(duì)不同網(wǎng)絡(luò)結(jié)構(gòu)就測(cè)試集和訓(xùn)練集的識(shí)別準(zhǔn)確率進(jìn)行測(cè)試。實(shí)驗(yàn)結(jié)果如表2所示。

        從表2的實(shí)驗(yàn)結(jié)果可以得到相同結(jié)論:卷積層卷積核的個(gè)數(shù)并非越多越好,卷積核個(gè)數(shù)過(guò)多,網(wǎng)絡(luò)需要學(xué)習(xí)的參數(shù)也隨之增加,當(dāng)訓(xùn)練集中樣本個(gè)數(shù)無(wú)法滿足學(xué)習(xí)需要時(shí),網(wǎng)絡(luò)識(shí)別準(zhǔn)確率就會(huì)下降。

        2.3與其它算法比較

        為進(jìn)一步說(shuō)明本文所提卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)的有效性和優(yōu)越性,將該結(jié)構(gòu)(C1層6個(gè)卷積核,C3層10個(gè)卷積核,學(xué)習(xí)率1.5)的實(shí)驗(yàn)結(jié)果與其它識(shí)別方法在ORL數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果進(jìn)行對(duì)比,結(jié)果如表3所示??梢钥闯?,本文所提方法比Eigface、ICA的識(shí)別效果好,與2DPCA方法的識(shí)別準(zhǔn)確率一樣,比FisherFace方法的識(shí)別準(zhǔn)確率只低了0.20%,這進(jìn)一步證實(shí)了本文所提網(wǎng)絡(luò)結(jié)構(gòu)的有效性。

        3結(jié)語(yǔ)

        本文在理解Lenet-5結(jié)構(gòu)的基礎(chǔ)上,提出一種適用于ORL人臉數(shù)據(jù)集的卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)。實(shí)驗(yàn)結(jié)果表明,本文提出的卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),不僅避免了復(fù)雜的顯式特征提取過(guò)程,在ORL數(shù)據(jù)集上獲得98.30%的識(shí)別正確率,而且比大多數(shù)傳統(tǒng)人臉識(shí)別算法的效果都好。此外,本文還通過(guò)大量實(shí)驗(yàn)就每個(gè)卷積層卷積核個(gè)數(shù)對(duì)網(wǎng)絡(luò)識(shí)別準(zhǔn)確率的影響進(jìn)行了詳細(xì)研究與分析,這對(duì)設(shè)計(jì)CNN網(wǎng)絡(luò)結(jié)構(gòu)具有一定的參考意義。

        參考文獻(xiàn)參考文獻(xiàn):

        [1]李武軍,王崇駿,張煒,等.人臉識(shí)別研究綜述[J].模式識(shí)別與人工智能,2006,19(1):5866.

        [2]張翠平,蘇光大.人臉識(shí)別技術(shù)綜述[J].中國(guó)圖象圖形學(xué)報(bào),2000,5(11):885894.

        [3]YANG M H.Face recognition using kernel methods[J].Nips,2002(2):14571464.

        [4]祝秀萍,吳學(xué)毅,劉文峰.人臉識(shí)別綜述與展望[J].計(jì)算機(jī)與信息技術(shù),2008(4):5356.

        [5]SAMARIA F,YOUNG S.HMMbased architecture for face identification[J].Image and Vision Computing,1994,12(8):537543.

        [6]LAWRENCE S,GILES C L,TSOI A C.Convolutional neural networks for face recognition[C].Proceedings CVPR'96,1996 IEEE Computer Society Conference on Computer Vision and Pattern Recognition,1996:217222.

        [7]陳耀丹,王連明.基于卷積神經(jīng)網(wǎng)絡(luò)的人臉識(shí)別方法[J].東北師范大學(xué)學(xué)報(bào):自然科學(xué)版,2016,48(2):7076.

        [8]盧官明,何嘉利,閆靜杰,等.一種用于人臉表情識(shí)別的卷積神經(jīng)網(wǎng)絡(luò)[J].南京郵電大學(xué)學(xué)報(bào):自然科學(xué)版,2016,36(1):1622.

        [9]李彥冬,郝宗波,雷航.卷積神經(jīng)網(wǎng)絡(luò)研究綜述[J].計(jì)算機(jī)應(yīng)用,2016,36(9):25082515.

        [10]LCUN Y,BOTTOU L,BENGIO Y,et al.Gradientbased learning applied to document recognition[J].Proceedings of the IEEE,1998,86(11):22782324.

        [11]BOUVRIE J.Notes on convolutional neural networks[J].Neural Nets,2006(11):18.

        [12]YANG J,ZHANG D,F(xiàn)RANGI A F,et al.Twodimensional PCA:a new approach to appearancebased face representation and recognition.[J].IEEE Transactions on Pattern Analysis & Machine Intelligence,2004,26(1):131138.

        責(zé)任編輯(責(zé)任編輯:孫娟)

        猜你喜歡
        模式識(shí)別卷積神經(jīng)網(wǎng)絡(luò)圖像識(shí)別
        基于Resnet-50的貓狗圖像識(shí)別
        電子制作(2019年16期)2019-09-27 09:34:50
        高速公路圖像識(shí)別技術(shù)應(yīng)用探討
        圖像識(shí)別在物聯(lián)網(wǎng)上的應(yīng)用
        電子制作(2018年19期)2018-11-14 02:37:04
        圖像識(shí)別在水質(zhì)檢測(cè)中的應(yīng)用
        電子制作(2018年14期)2018-08-21 01:38:16
        淺談模式識(shí)別在圖像識(shí)別中的應(yīng)用
        第四屆亞洲模式識(shí)別會(huì)議
        基于深度卷積神經(jīng)網(wǎng)絡(luò)的物體識(shí)別算法
        深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
        基于深度卷積網(wǎng)絡(luò)的人臉年齡分析算法與實(shí)現(xiàn)
        軟件工程(2016年8期)2016-10-25 15:47:34
        基于卷積神經(jīng)網(wǎng)絡(luò)的樹(shù)葉識(shí)別的算法的研究
        jiZZ国产在线女人水多| 18禁黄污吃奶免费看网站| 无码精品人妻一区二区三区av| 中文字幕久无码免费久久| 九九九影院| 亚洲传媒av一区二区三区| 麻豆精品在线视频观看| 先锋影音人妻啪啪va资源网站| 日韩精品一区二区午夜成人版| 亚洲欧洲中文日韩久久av乱码| 国产亚洲欧美另类第一页| 人妻少妇中文字幕av| 美女主播网红视频福利一区二区| 无码一区二区三区免费视频| 夜夜欢性恔免费视频| 午夜福利影院不卡影院| 免费人成网在线观看品观网| 上海熟女av黑人在线播放| 天堂а在线中文在线新版| 欧美丰满熟妇aaaaa片| 亚洲欧美日韩在线中文一| 日韩精品久久伊人中文字幕| 美腿丝袜在线一区二区| 中文字幕久久熟女蜜桃| 国产亚洲婷婷香蕉久久精品| 放荡人妻一区二区三区| 丝袜av乱码字幕三级人妻| 国产综合色在线精品| 热re99久久精品国产99热 | 玩弄丝袜美腿超短裙校花| 青草久久婷婷亚洲精品| 人妻无码一区二区三区免费| 无码h黄动漫在线播放网站| 老肥熟女老女人野外免费区| 手机在线免费观看av不卡网站| 国产办公室秘书无码精品99| 激情内射亚州一区二区三区爱妻 | 日本一卡二卡3卡四卡免费观影2022| 草草久久久无码国产专区| 久久道精品一区二区三区| 在线观看国产激情免费视频|