亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        卷積網(wǎng)絡(luò)的無(wú)監(jiān)督特征提取對(duì)人臉識(shí)別的研究

        2018-06-20 07:50:12杜柏圣
        關(guān)鍵詞:人臉識(shí)別特征提取特征

        杜柏圣

        (河海大學(xué) 計(jì)算機(jī)與信息學(xué)院,江蘇 南京 210098)

        1 概 述

        人臉識(shí)別[1-2]是生物特征識(shí)別研究的重點(diǎn)。生物特征是人體的基本組成部分,每個(gè)個(gè)體之間的差異性很大,而且生物特征的穩(wěn)定性較好,作為身份驗(yàn)證是很好的選擇。與虹膜、指紋等其他生物特征相比較,利用人臉進(jìn)行識(shí)別,具有易于用戶接受、便于采集、友好、方便直接等優(yōu)點(diǎn)。此外,人臉識(shí)別也具有隱蔽性、自然性、永久性、成本低等其他生物特征不具備的特點(diǎn)。

        人臉識(shí)別的過(guò)程,是對(duì)規(guī)范化的人臉圖像進(jìn)行特征提取和對(duì)比辨識(shí)的過(guò)程,其目的是區(qū)分出圖像中人臉的身份。人臉識(shí)別的主流的特征提取方法可以分為三類:基于子空間方法、基于局部特征方法及基于深度學(xué)習(xí)方法。

        基于子空間方法的基本思想是通過(guò)空間變換壓縮到低維的子空間中,使得原樣本更易于分類。其代表性的方法包括線性判別分析(LDA)[3]、主成分分析(PCA)[4]、獨(dú)立分量分析(ICA)[5]等。

        基于局部特征方法一直是人臉表示領(lǐng)域的經(jīng)典方法,其基本思想是將人臉圖像分解為多個(gè)局部特征,利用不受干擾因素影響的局部特征來(lái)描述人臉的特征細(xì)節(jié)。其中較有代表性的方法包括基于Gabor小波的人臉表示方法Gabor Face[6]、基于局部二值特征的人臉表示方法LBP Face[7]、基于旋轉(zhuǎn)不變特征的人臉表示方法SIFT Face[8]等。

        基于深度學(xué)習(xí)方法主要是利用神經(jīng)網(wǎng)絡(luò)對(duì)圖像進(jìn)行識(shí)別,神經(jīng)網(wǎng)絡(luò)具有并行運(yùn)算機(jī)制以及對(duì)模式的分布式全局存儲(chǔ),并且速度快、耗時(shí)少、識(shí)別率高。用于人臉識(shí)別的神經(jīng)網(wǎng)絡(luò)比較有代表性的包括RBF網(wǎng)絡(luò)[9]、模糊BP網(wǎng)絡(luò)[10]、卷積神經(jīng)網(wǎng)絡(luò)[11],以及基于深度神經(jīng)卷積網(wǎng)絡(luò)的DeepFace[12]和DeepID2[13]。

        基于深度卷積神經(jīng)網(wǎng)絡(luò)[14-16]的人臉識(shí)別方法需要大量的有標(biāo)注的人臉數(shù)據(jù)來(lái)進(jìn)行訓(xùn)練。對(duì)于很多人臉識(shí)別場(chǎng)景而言,采集大量人臉樣本比較容易,但是精確地標(biāo)記人臉樣本中的身份標(biāo)簽是相當(dāng)困難的。如何利用這大量的無(wú)標(biāo)注的人臉數(shù)據(jù),需要研究無(wú)監(jiān)督的人臉識(shí)別方法。例如,朱陶等提出了一種基于前向無(wú)監(jiān)督卷積神經(jīng)網(wǎng)絡(luò)的人臉表示學(xué)習(xí)方法[17],其基本思想是利用人臉圖像的局部性特點(diǎn)對(duì)人臉進(jìn)行分塊,在每個(gè)人臉塊上進(jìn)行無(wú)監(jiān)督的卷積核學(xué)習(xí)。首先通過(guò)K-means聚類對(duì)人臉塊上提取的人臉小塊進(jìn)行聚類,賦予其虛擬標(biāo)簽,進(jìn)一步利用LDA學(xué)習(xí)判別投影作為卷積核,從而能夠在無(wú)標(biāo)注的人臉數(shù)據(jù)上實(shí)現(xiàn)卷積核的判別學(xué)習(xí)。

        基于朱陶等提出的方法,文中提出一種基于卷積網(wǎng)絡(luò)的無(wú)監(jiān)督特征提取方法。該方法利用局部保持投影(LPP)算法取代K-means聚類和LDA算法進(jìn)行卷積核的學(xué)習(xí)。LPP算法[18-19]在圖像特征提取方面已經(jīng)取得了顯著的效果,其類似LDA算法和PCA算法,都是對(duì)圖像進(jìn)行降維,但又不同于PCA和LDA算法,因?yàn)镻CA和LDA算法以保留圖像空間的全局結(jié)構(gòu)為目標(biāo),而LPP算法以保留圖像空間的局部結(jié)構(gòu)為目標(biāo)。文中方法利用LPP算法學(xué)習(xí)判別投影作為卷積核,從而能夠在無(wú)標(biāo)注的人臉數(shù)據(jù)上實(shí)現(xiàn)卷積核的判別學(xué)習(xí)。通過(guò)卷積得到響應(yīng)圖后,再利用經(jīng)典的卷積神經(jīng)網(wǎng)絡(luò)中的卷積及池化等一系列操作進(jìn)行識(shí)別。

        2 局部保持投影算法

        LPP是一種低維子空間表示高維數(shù)據(jù)的降維方法。LPP算法利用近鄰圖方法建立映射,擁有一般線性降維方法沒(méi)有的流形學(xué)習(xí)能力。LPP算法以保留原始樣本局部結(jié)構(gòu)為目標(biāo)。在圖像識(shí)別中,有時(shí)局部結(jié)構(gòu)能提供比全局結(jié)構(gòu)更重要的信息。LPP算法在人臉識(shí)別領(lǐng)域中已證明有較好的識(shí)別效果。

        設(shè)數(shù)據(jù)集X=[x1,x2,…,xN],每個(gè)樣本維數(shù)為D。算法的目標(biāo)是尋找投影方向矩陣W,將原樣本經(jīng)過(guò)線性變換WTxi得到的數(shù)據(jù)向量yi(i=1,2,…,N)在低維空間Rd(d

        (1)

        其中Sij的值為:

        (2)

        其中,Sij為對(duì)稱關(guān)聯(lián)矩陣,表示近鄰樣本點(diǎn)i和j之間的相似程度;參數(shù)β為總體樣本。

        最小化目標(biāo)函數(shù)(式1)是為了確保xi和yi相鄰較近的情況下,對(duì)應(yīng)的yi和yj相鄰較近。設(shè)w是一個(gè)轉(zhuǎn)置向量,通過(guò)簡(jiǎn)單的線性運(yùn)算,可以把目標(biāo)函數(shù)簡(jiǎn)化為:

        S)XTw=wTXLXTw

        (3)

        矩陣D中的元素Dii表示與第i個(gè)頂點(diǎn)有邊相連的頂點(diǎn)數(shù),Dii的大小與樣本i的重要性成正比。再作如下約束:

        (4)

        將最小化問(wèn)題轉(zhuǎn)化為:

        (5)

        使目標(biāo)函數(shù)的最小化問(wèn)題轉(zhuǎn)換為求向量w,相當(dāng)于求解下列廣義的最小特征值對(duì)應(yīng)的特征向量:

        XLXTw=λXDXTw

        (6)

        在多維映射的情況下,每個(gè)樣本數(shù)據(jù)xi被映射成向量yi,目標(biāo)是計(jì)算投影方向W=(w1,w2,…,wL)。這些向量通過(guò)式6計(jì)算廣義特征向量求得。根據(jù)特征值大小進(jìn)行排序,0≤λ1≤λ2≤…≤λL,然后通過(guò)Y=wTX,計(jì)算出Y。

        3 LPP算法結(jié)合卷積網(wǎng)絡(luò)

        基于卷積神經(jīng)網(wǎng)絡(luò)無(wú)監(jiān)督特征提取方法的主要步驟包括:樣本集的歸一化、LPP算法用于卷積核的學(xué)習(xí)、網(wǎng)絡(luò)對(duì)人臉特征的提取、相似度計(jì)算。

        3.1 樣本集的歸一化

        假設(shè)樣本集中有N張人臉圖像,將樣本集記為X=[x1,x2,…,xN],確保識(shí)別的人臉圖像具有一定的魯棒性,樣本集中的圖像應(yīng)盡可能包括姿態(tài)、光照、表情和分辨率的變化。文中選取的訓(xùn)練集是人臉識(shí)別領(lǐng)域應(yīng)用較廣泛的Yale和FERET人臉庫(kù),將圖像都?xì)w一化成大小為80*80像素。

        3.2 LPP算法用于卷積核的學(xué)習(xí)

        卷積核的學(xué)習(xí)也就是對(duì)圖像的特征進(jìn)行提取。LPP算法比較適合局部特征提取,所以考慮對(duì)圖像先進(jìn)行分割,再?gòu)姆指畹男K中利用LPP算法進(jìn)行特征提取以獲得卷積核。具體步驟如下:

        (1)將歸一化后的人臉圖像切割成4塊同等大小的width*height=40*40塊,對(duì)切割后每一個(gè)人臉小塊,先在其上提取9*9大小的小塊,步長(zhǎng)為1,記為:

        Xi=[xi,1,xi,2,…,xi,m*n]∈R9*9*mn

        (7)

        其中,m=width-9+1=32,n=height-9+1=32。

        (2)再用Xi減去所有人臉小塊的均值,得到:

        (8)

        (3)逐一處理樣本集中的圖像后,得到:

        (9)

        (4)通過(guò)LPP算法,求解投影矩陣W,即求解式10的特征值及特征向量。

        XLXTw=λXDXTw

        (10)

        選擇前d個(gè)投影矩陣作為卷積核。

        W=[w1,w2,…,wd]∈R9*9*d

        (11)

        這里每一個(gè)投影矩陣可以看作一個(gè)獨(dú)立的卷積核,取d為10,即卷積核個(gè)數(shù)為10。按上述步驟對(duì)所有分割后的40*40的人臉塊進(jìn)行卷積核學(xué)習(xí)。

        3.3 網(wǎng)絡(luò)對(duì)人臉的特征提取

        網(wǎng)絡(luò)對(duì)于輸入的人臉圖像,首先進(jìn)行卷積操作,每個(gè)輸入圖像分別經(jīng)過(guò)10個(gè)9*9的卷積核進(jìn)行卷積操作,得到4*10個(gè)響應(yīng)圖,響應(yīng)圖中的響應(yīng)值通過(guò)非線性激活函數(shù)操作進(jìn)行歸一化,其目的是引入特征的非線性特性。非線性激活函數(shù)選取sigmoid函數(shù)。其次,經(jīng)過(guò)卷積網(wǎng)絡(luò)的池化操作來(lái)降低特征維度,同時(shí)保留最重要的信息。池化操作選取的是MaxPooling。對(duì)輸入圖像xi,通過(guò)上述操作后的所有響應(yīng)圖特征拉直后得到的特征表示為fi。最后采用主成分分析法進(jìn)行特征降維處理。計(jì)算訓(xùn)練集特征的協(xié)方差矩陣:

        (12)

        其中,μ表示特征的均值。

        Wpca=argWmax|WTSTW|=[w1,w2,…,wm]

        (13)

        其中,{wi|i=1,2,…,m}表示協(xié)方差矩陣中前m個(gè)最大特征值所對(duì)應(yīng)的特征向量。

        對(duì)于輸入的特征fi,經(jīng)過(guò)WPCA降維后得到:

        (14)

        其中,E為特征值開(kāi)根號(hào)后按以下形式組成的對(duì)角矩陣。

        (15)

        所有特征降維記為Y={y1,y2,…,yN}。

        3.4 相似度的計(jì)算

        將特征Y={y1,y2,…,yN},進(jìn)行二范數(shù)歸一:

        (16)

        只需計(jì)算特征的內(nèi)積:

        sim(y1,y2)=y1*y2

        (17)

        具體步驟描述如下:

        步驟1:給定樣本訓(xùn)練集X=[x1,x2,…,xN],歸一化后,通過(guò)式7~9計(jì)算后得到處理后的圖像集。

        步驟2:對(duì)于訓(xùn)練集樣本中每一幅圖像,首先進(jìn)行分割,利用LPP算法學(xué)習(xí)判別投影,保留前d個(gè)投影矩陣作為卷積核,依次處理每個(gè)分割圖像,進(jìn)行卷積核學(xué)習(xí)。

        步驟3:構(gòu)建網(wǎng)絡(luò)。對(duì)于輸入的每一幅圖像進(jìn)行卷積操作、sigmoid操作、MaxPooling操作、WPCA降維操作及相識(shí)度計(jì)算。

        該方法應(yīng)用于人臉識(shí)別,可以利用大量的無(wú)監(jiān)督人臉數(shù)據(jù)學(xué)習(xí)出所需的特征,網(wǎng)絡(luò)結(jié)構(gòu)簡(jiǎn)單,訓(xùn)練速度優(yōu)于有監(jiān)督的深度卷積網(wǎng)絡(luò)。

        4 實(shí)驗(yàn)與分析

        考慮姿態(tài)對(duì)人臉識(shí)別結(jié)果的影響,實(shí)驗(yàn)所用的數(shù)據(jù)庫(kù)選擇了Yale和FERET。

        4.1 實(shí)驗(yàn)數(shù)據(jù)集

        (1)Yale人臉庫(kù)。

        Yale人臉庫(kù)包含了15個(gè)人的人臉圖像,每個(gè)人有11張,一共165張圖像,主要受光照、表情和姿態(tài)等因素變化的影響。實(shí)驗(yàn)中訓(xùn)練樣本隨機(jī)選取每個(gè)人的3,4,5幅圖像構(gòu)成訓(xùn)練樣本集,其他作為測(cè)試樣本集。

        (2)FERET人臉庫(kù)。

        FERET人臉庫(kù)共包含了200個(gè)人的1 400幅圖像,其中包含每個(gè)人7幅不同姿勢(shì)和光照下的圖像,人臉圖像的變化比較單一。只選取前20個(gè)人的圖像進(jìn)行實(shí)驗(yàn)。實(shí)驗(yàn)中訓(xùn)練樣依然隨機(jī)選取每個(gè)人的3,4,5幅圖像構(gòu)成訓(xùn)練樣本集,其他作為測(cè)試樣本集,多次測(cè)試取平均值。

        4.2 實(shí)驗(yàn)結(jié)果與分析

        表1和表2分別是文中方法和經(jīng)典的描述子Gabor[6]、LBP[7]、PCA-Net[20]及K-means+LDA+CNN[16]方法在數(shù)據(jù)集Yale和FERET上的實(shí)驗(yàn)結(jié)果比較。可以看出,該方法相對(duì)于其他方法取得了較好的識(shí)別率。

        表1 Yale數(shù)據(jù)集上不同訓(xùn)練樣本數(shù)下的

        表2 在FERET數(shù)據(jù)集上不同訓(xùn)練樣本數(shù)

        5 結(jié)束語(yǔ)

        就如何充分利用大量無(wú)標(biāo)簽的人臉數(shù)據(jù)這一問(wèn)題,提出了一種基于卷積網(wǎng)絡(luò)的無(wú)監(jiān)督特征提取方法。首先,利用無(wú)監(jiān)督的LPP算法對(duì)大量的無(wú)標(biāo)注的數(shù)據(jù)進(jìn)行卷積核學(xué)習(xí),提高了卷積核的判別性。其次,設(shè)計(jì)的卷積網(wǎng)絡(luò)結(jié)構(gòu)簡(jiǎn)單,訓(xùn)練速度快。與幾種經(jīng)典及主流的方法在Yale數(shù)據(jù)集和FERET數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn)比較,結(jié)果也表明,該方法的性能優(yōu)于其他方法。同時(shí)該方法也存在不足之處,如網(wǎng)絡(luò)結(jié)構(gòu)簡(jiǎn)單,降維算法可能不是最優(yōu),所以仍需要進(jìn)一步完善。

        參考文獻(xiàn):

        [1] 周 杰,盧春雨,張長(zhǎng)水,等.人臉自動(dòng)識(shí)別方法綜述[J].電子學(xué)報(bào),2000,28(4):102-106.

        [2] 周激流,張 曄.人臉識(shí)別理論研究進(jìn)展[J].計(jì)算機(jī)輔助設(shè)計(jì)與圖像學(xué)學(xué)報(bào),1999,11(2):180-184.

        [3] TURK M,PENTLAND A.Eigenfaces for recognition[J].Journal of Cognitive Neuroscience,1991,3(1):71-86.

        [4] KWON O W,LEE T W.Phoneme recognition using ICA-based feature extraction and transformation[J].Signal Processing,2004,84(6):1005-1019.

        [5] BARTLETT M S,LADES H,SEJNOWSKI T.Independent component representations of face recognition[C]//Proceedings of the SPIE symposium on electronic imaging:human vision and electronic imaging.San Jose,Califormia,USA:IEEE,1998:3299-3310.

        [6] LIU Chengjun,WECHSLER H.Gabor feature based classification using the enhanced fisher liner discriminant model for face[J].IEEE Transactions on Image Processing,2002,11(4):467-476.

        [7] AHONEN T,HADID A,PIETIKAINEN M.Face description with local binary patterns:application to face recognition[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2006,28(12):2037-2041.

        [8] BICEGO M,LAGORIO A,GROSSO E,et al.On the use of SIFT features for face authentication[C]//Computer vision and pattern recognition workshop.New York,NY,USA:IEEE,2006.

        [9] RANGANATH S,ARUN K.Face recognition using transform features and neural networks[J].Pattern Recognition,1997,30(10):1615-1622.

        [10] LEE S Y,HAM Y K,PARK R H.Recognition of human front faces using knowledge-based feature extraction and neurofuzzy algorithm[J].Pattern Recognition,1996,29(11):1863-1876.

        [11] LAWRENCE S,GILES C L,TSOI A C,et al.Face recognition:a convolutional neural network approach[J].IEEE Transactions on Neural Network,1997,8(1):98-113.

        [12] TAIGMAN Y,YANG Ming,RANZATO M A,et al.Deepface:closing the gap to human-level performance in face verification[C]//IEEE conference on computer vision and pattern recognition.Columbus,OH,USA:IEEE,2014:1701-1708.

        [13] SUN Yi,WANG Xiaogang,TANG Xiaoou.Deep learning face representation by joint identification-verification[C]//Proceedings of the advance in neural information processing systems.Cambridge:MIT Press,2014.

        [14] 陳耀丹,王連明.基于卷積神經(jīng)網(wǎng)絡(luò)的人臉識(shí)別方法[J].東北師大學(xué)報(bào):自然科學(xué)版,2016,48(2):70-76.

        [15] 劉秀青.卷積神經(jīng)網(wǎng)絡(luò)在人臉檢測(cè)中的應(yīng)用研究[D].太原:山西大學(xué),2015.

        [16] 許 可.卷積神經(jīng)網(wǎng)絡(luò)在圖像識(shí)別上的應(yīng)用的研究[D].杭州:浙江大學(xué),2012.

        [17] 朱 陶,任海軍,洪衛(wèi)軍.一種基于前向無(wú)監(jiān)督卷積神經(jīng)網(wǎng)絡(luò)的人臉表示學(xué)習(xí)方法[J].計(jì)算機(jī)科學(xué),2016,43(6):303-307.

        [18] 魯 珂,趙繼東,葉婭蘭,等.保局投影算法在圖像檢索中的應(yīng)用研究[J].計(jì)算機(jī)應(yīng)用研究,2006,23(12):56-58.

        [19] HE Xiaofei,YAN Shuicheng,HU Yuxiao,et al.Face recognition using Laplacianfaces[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2005,27(3):328-340.

        [20] CHAN T H,JIA Kui,GAO Shenghua,et al.PCANet:a simple deep learning baseline for image classification?[J].IEEE Transactions on Image Processing,2014,24(12):5017-5032.

        猜你喜歡
        人臉識(shí)別特征提取特征
        人臉識(shí)別 等
        揭開(kāi)人臉識(shí)別的神秘面紗
        如何表達(dá)“特征”
        基于Gazebo仿真環(huán)境的ORB特征提取與比對(duì)的研究
        電子制作(2019年15期)2019-08-27 01:12:00
        不忠誠(chéng)的四個(gè)特征
        抓住特征巧觀察
        一種基于LBP 特征提取和稀疏表示的肝病識(shí)別算法
        基于類獨(dú)立核稀疏表示的魯棒人臉識(shí)別
        基于MED和循環(huán)域解調(diào)的多故障特征提取
        線性代數(shù)的應(yīng)用特征
        河南科技(2014年23期)2014-02-27 14:19:15
        久精品国产欧美亚洲色aⅴ大片| 亚洲女同av在线观看| 国产午夜福利av在线麻豆| 日本少妇又色又紧又爽又刺激 | 国内精品人人妻少妇视频| 亚洲最新精品一区二区| 中文字幕一区二区三区四区五区| 国产98色在线 | 国产| 亚洲第一页综合图片自拍| 欧美激情内射喷水高潮| 亚洲欧美日韩国产一区| 精品日产一区2区三区| 亚洲国产色婷婷久久精品| 国产精品天干天干| 天躁夜夜躁狼狠躁| 久久久久成人精品免费播放网站| 国产蜜臀精品一区二区三区| 日本久久久精品免费免费理论| 精品香蕉一区二区三区| 精品久久久久久成人av| 亚洲∧v久久久无码精品 | 综合久久青青草免费观看视频| 在线观看一区二区三区国产| 精品+无码+在线观看| 欧美最大胆的西西人体44| 无码国产精品一区二区免费97| 色优网久久国产精品| 日韩一区二区三区熟女| 国产在线第一区二区三区| 久久99精品国产麻豆不卡| 中文无码制服丝袜人妻av| 亚洲阿v天堂网2021| 极品美女尤物嫩模啪啪| 凹凸世界视频a一二三| 精品国产午夜肉伦伦影院| 国产精品成人国产乱| 人妻精品久久中文字幕| 久久最黄性生活又爽又黄特级片| 日本三级香港三级人妇99| 青草国产精品久久久久久| 久久HEZYO色综合|