亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于卷積神經(jīng)網(wǎng)絡(luò)的人臉識別方法

        2016-06-30 03:28:35陳耀丹王連明
        關(guān)鍵詞:卷積神經(jīng)網(wǎng)絡(luò)圖像處理人臉識別

        陳耀丹,王連明

        (東北師范大學(xué)物理學(xué)院,吉林 長春 130024)

        基于卷積神經(jīng)網(wǎng)絡(luò)的人臉識別方法

        陳耀丹,王連明

        (東北師范大學(xué)物理學(xué)院,吉林 長春 130024)

        [摘要]研究并實現(xiàn)了一種基于卷積神經(jīng)網(wǎng)絡(luò)的人臉識別方法.該網(wǎng)絡(luò)由2個卷積層、2個池化層、1個全連接層和1個Softmax回歸層組成,它能自動提取人臉特征并進(jìn)行分類.網(wǎng)絡(luò)通過批量梯度下降法訓(xùn)練特征提取器和分類器,各隱層應(yīng)用“dropout”方法解決了過擬合問題.應(yīng)用于ORL和AR人臉數(shù)據(jù)庫的人臉識別率分別達(dá)到99.50%和99.62%,識別單張人臉的時間均小于0.05 s,而且對光照差異、面部表情變化、有無遮擋物等干擾具有魯棒性.

        [關(guān)鍵詞]人臉識別;卷積神經(jīng)網(wǎng)絡(luò);圖像處理;人臉數(shù)據(jù)庫

        0引言

        人臉識別作為生物特征識別(虹膜識別、指紋識別、掌紋識別等)技術(shù)之一,由于具有成本低、用戶易接受、可靠性高等優(yōu)點,在身份認(rèn)證、安防監(jiān)控、人機(jī)交互等領(lǐng)域具有廣泛的應(yīng)用前景.[1]目前人臉識別算法大致可分為兩類:

        (1)基于表象(appearance-based)的方法.基本思想是將二維的人臉輸入轉(zhuǎn)換到另一個空間,然后用統(tǒng)計方法分析人臉模式,例如eigenface[2]、fisherface[3]和SVM[4]等方法.

        (2)基于特征(feature-based)的方法.一般是提取局部或者全局特征,然后送入一個分類器進(jìn)行人臉識別,例如基于幾何特征的識別[5]和HMM[6]等方法.

        卷積神經(jīng)網(wǎng)絡(luò)是一個受生物視覺啟發(fā)、以最簡化預(yù)處理操作為目的的多層感知器的變形,本質(zhì)是一個前向反饋神經(jīng)網(wǎng)絡(luò).卷積神經(jīng)網(wǎng)絡(luò)與多層感知器的最大區(qū)別是網(wǎng)絡(luò)前幾層由卷積層和池化層交替級聯(lián)組成,模擬視覺皮層中用于高層次特征提取的簡單細(xì)胞和復(fù)雜細(xì)胞交替級聯(lián)結(jié)構(gòu).卷積層的神經(jīng)元對前一層輸入的一部分區(qū)域(稱為局部感受野,區(qū)域之間有重疊)有響應(yīng),提取輸入的更高層次特征;池化層的神經(jīng)元對前一層輸入的一部分區(qū)域(區(qū)域之間無重疊)求平均值或者最大值,抵抗輸入的輕微形變或者位移.卷積神經(jīng)網(wǎng)絡(luò)的后幾層一般是若干個全連接層和一個分類器構(gòu)成的輸出層.近年來,卷積神經(jīng)網(wǎng)絡(luò)已經(jīng)成功應(yīng)用于字符識別[7]、人臉識別[8]、人體姿態(tài)估計[9]和目標(biāo)檢測[10].

        卷積神經(jīng)網(wǎng)絡(luò)用于人臉識別是一種基于特征的方法.區(qū)別于傳統(tǒng)的人工特征提取和針對特征的高性能分類器設(shè)計,它的優(yōu)點是通過逐層卷積降維進(jìn)行特征提取,然后經(jīng)過多層非線性映射,使網(wǎng)絡(luò)可以從未經(jīng)特殊預(yù)處理的訓(xùn)練樣本中,自動學(xué)習(xí)形成適合該識別任務(wù)的特征提取器和分類器.該方法降低了對訓(xùn)練樣本的要求,而且網(wǎng)絡(luò)層數(shù)越多,學(xué)習(xí)到的特征更具有全局性.

        LeNet-5[11]是LeCun提出的一個具有高識別率的用于手寫數(shù)字識別的卷積神經(jīng)網(wǎng)絡(luò).本文借鑒LeNet-5的模型結(jié)構(gòu),提出6層卷積神經(jīng)網(wǎng)絡(luò)用于ORL人臉庫和AR人臉庫的人臉識別.網(wǎng)絡(luò)前4層由卷積層和池化層交替級聯(lián)用于特征提取,隨后接入一個全連接層,最后一層采用非線性分類能力強(qiáng)的Softmax分類器.該6層卷積神經(jīng)網(wǎng)絡(luò)采用sigmoid激活函數(shù)和固定的學(xué)習(xí)速率.

        16層卷積神經(jīng)網(wǎng)絡(luò)模型

        本文提出的6層卷積神經(jīng)網(wǎng)絡(luò)模型由2個卷積層、2個池化層、1個全連接層和1個Softmax回歸層組成,如圖1所示.卷積層和池化層由多個特征圖(即二維平面)組成,每個特征圖由多個神經(jīng)元組成,每一層的特征圖作為下一層的輸入.卷積層的特征圖可能與前一層的若干特征圖建立關(guān)系.

        圖1 6層卷積神經(jīng)網(wǎng)絡(luò)模型

        1.1卷積層

        卷積層通過局部連接和權(quán)值共享的方法,模擬具有局部感受野的簡單細(xì)胞,提取一些初級視覺特征的過程.局部連接指卷積層上的每個神經(jīng)元與前一層特征圖中固定區(qū)域的神經(jīng)元建立連接;權(quán)值共享指同一特征圖中的神經(jīng)元用一組相同的連接強(qiáng)度與前一層局部連接,可以減少網(wǎng)絡(luò)訓(xùn)練參數(shù).上述一組相同的連接強(qiáng)度即為一個特征提取器,在運算過程中表現(xiàn)為一個卷積核,卷積核數(shù)值先隨機(jī)初始化,最后由網(wǎng)絡(luò)訓(xùn)練確定.

        與LeNet-5相比,考慮到人臉識別比數(shù)字識別更復(fù)雜,卷積層為了更充分地提取人臉特征進(jìn)行了以下改進(jìn):(1)增加2個卷積層的特征提取器——卷積核的數(shù)量;(2)卷積層2的特征圖與池化層1的全部特征圖均建立關(guān)系.

        卷積層每個神經(jīng)元的輸入來自于前一層特征圖中固定區(qū)域的神經(jīng)元,區(qū)域的大小由卷積核大小Kx×Ky決定.卷積層1的m張?zhí)卣鲌D由1張輸入圖片跟m個可學(xué)習(xí)的卷積核卷積,加上偏置后,通過激活函數(shù)作用得到.卷積層2的n張?zhí)卣鲌D,由池化層1的m張?zhí)卣鲌D分別跟n×m個卷積核卷積,每m個卷積結(jié)果結(jié)合,再加上偏置,通過激活函數(shù)作用得到.卷積層操作如圖2所示.

        圖2 卷積層操作

        該層的數(shù)學(xué)表達(dá)式[8]為

        (1)

        1.2池化層

        池化層模擬復(fù)雜細(xì)胞是將初級的視覺特征篩選并結(jié)合成更高級、抽象的視覺特征的過程,在網(wǎng)絡(luò)中通過采樣實現(xiàn).經(jīng)過池化層的采樣后,輸出特征圖的數(shù)量不變,但是特征圖的尺寸會變小,有減少計算復(fù)雜度、抵抗微小位移變化的作用.本文提出的池化層采用最大值采樣,采樣大小為2×2,即把輸入的特征圖分割成不重疊的2×2大小的矩形,對每個矩形取最大值,所以輸出特征圖的長和寬均是輸入特征圖的一半.本文定義池化層中的神經(jīng)元不具備學(xué)習(xí)功能,數(shù)學(xué)表達(dá)式為

        (2)

        其中down表示最大值采樣的函數(shù),該層運算不包含可學(xué)習(xí)的權(quán)值和閾值.

        1.3全連接層

        為增強(qiáng)網(wǎng)絡(luò)的非線性映射能力,同時限制網(wǎng)絡(luò)規(guī)模的大小,網(wǎng)絡(luò)在4個特征提取層提取特征后,接入一個全連接層.該層的每一個神經(jīng)元與前一層的所有神經(jīng)元互相連接,同層神經(jīng)元之間不連接.數(shù)學(xué)表達(dá)式[8]為

        (3)

        1.4Softmax回歸層

        LeNet-5最后一層是RBF分類器,采用由ASCII碼表中的數(shù)字作為模板算出的糾錯碼或者以等概率的方式任選-1和1作為RBF的權(quán)值,每個RBF輸出單元計算輸入特征和參數(shù)向量之間的歐式距離.但是人臉特征比數(shù)字特征更復(fù)雜,而且人臉類別多又沒有統(tǒng)一的模板,所以網(wǎng)絡(luò)最后一層采用非線性分類能力強(qiáng)的Softmax回歸作為分類器.

        假定可分為k類的m個樣本組成訓(xùn)練集{(x(L),y(L)),…,(x(m),y(m))},樣本x(i)∈Rn+1,類標(biāo)y(i)∈{1,2,…,k},n是樣本維數(shù),Softmax回歸假設(shè)函數(shù)[12]為

        (4)

        模型的代價函數(shù)為

        (5)

        其中:1{·}為示性函數(shù),若{}內(nèi)值為真的表達(dá)式,則示性函數(shù)值為1;反之,則為0.本文通過批量梯度下降法求解使代價函數(shù)J(θ)最小化時的θ.

        2網(wǎng)絡(luò)訓(xùn)練

        2.1數(shù)據(jù)預(yù)處理

        ORL人臉庫由40人的400張圖片組成,即每人10張圖片,人臉有表情、微小姿態(tài)等變化.取AR人臉庫的一個子集,由男、女各50人組成的2 600張圖片,即每人的圖片為26張,人臉有表情、遮擋、光照等變化.圖3是ORL人臉庫中人臉樣例,圖4是AR人臉庫中人臉樣例.

        圖3 ORL人臉庫人臉樣例

        圖4 AR人臉庫人臉樣例

        對2個數(shù)據(jù)庫同做以下處理:隨機(jī)抽取庫中90%的人臉作為訓(xùn)練集,剩下的10%的人臉作為測試集,然后標(biāo)準(zhǔn)化2個集合中的人臉,如圖5所示.

        圖5 人臉標(biāo)準(zhǔn)化過程

        “min-max”標(biāo)準(zhǔn)化灰度值,即對圖片中每個像素點的灰度值標(biāo)準(zhǔn)化為[0,1].用x和x′分別表示當(dāng)前和標(biāo)準(zhǔn)化后的灰度值,min和max分別表示圖片中的最小和最大的灰度值,標(biāo)準(zhǔn)化公式為

        (6)

        2.2網(wǎng)絡(luò)訓(xùn)練算法

        由于2個人臉庫訓(xùn)練樣本較多,本文采用的是在實踐中收斂速度較快的批量隨機(jī)梯度下降法.對于ORL人臉庫的卷積神經(jīng)網(wǎng)絡(luò)的訓(xùn)練,批處理塊大小為40,動量為0.9,學(xué)習(xí)速率恒為0.12;對于AR人臉庫的卷積神經(jīng)網(wǎng)絡(luò)的訓(xùn)練,批處理塊大小為65,動量為0.9,學(xué)習(xí)速率恒為0.15.每次迭代會遍歷訓(xùn)練集的所有批處理塊,遍歷完一個批處理塊更新一次網(wǎng)絡(luò)參數(shù).更新公式為

        (7)

        本文用于ORL人臉庫的某個卷積神經(jīng)網(wǎng)絡(luò)包含104.210×104個待訓(xùn)練參數(shù);用于AR人臉庫的某個卷積神經(jīng)網(wǎng)絡(luò)包含150.266×104個待訓(xùn)練參數(shù).針對參數(shù)遠(yuǎn)大于訓(xùn)練樣本數(shù)量可能導(dǎo)致的過擬合問題,Hinton提出了“dropout”[13],即在網(wǎng)絡(luò)訓(xùn)練時以一定的概率p(0≤p≤1)將輸入層或者隱層的神經(jīng)元輸出置為0,被置為0的神經(jīng)元不再參與網(wǎng)絡(luò)的前向傳播和誤差反向傳播,而在測試時,將該輸入層或者隱層的神經(jīng)元輸出乘以p作為該層的輸出.由于每輸入一張圖片網(wǎng)絡(luò)中神經(jīng)元隨機(jī)被置0,所以就要求隱層神經(jīng)元必須提取圖片中最本質(zhì)的特征,因此可以用“dropout”來解決過擬合問題.

        3實驗結(jié)果

        本文采用Windows XP下的Matlab 2010a作為實驗環(huán)境,計算機(jī)CPU為3.3 GHz的Intel i3-3220,內(nèi)存為4 GB,2個卷積層中卷積核大小為5×5,2個采樣層采用最大值池化,采樣大小為2×2,激活函數(shù)采用sigmoid函數(shù),即

        (8)

        網(wǎng)絡(luò)權(quán)值采用高斯初始化,網(wǎng)絡(luò)閾值初始化為0,網(wǎng)絡(luò)的代價函數(shù)J(θ)見公式(5),卷積層、全連接層和Softmax回歸層均采用“dropout”方法,概率p分別設(shè)為0.5,0.2和0.5.

        6層卷積神經(jīng)網(wǎng)絡(luò)模型可簡約描述為“A-b-c”,A表示卷積層1有A個卷積核,經(jīng)過該層得到A張?zhí)卣鲌D,再經(jīng)過池化層1采樣得到縮小的A張?zhí)卣鲌D;b表示卷積層2有b×A個卷積核,經(jīng)過該層得到b張?zhí)卣鲌D,再經(jīng)過池化層2采樣得到縮小的b張?zhí)卣鲌D;c表示全連接層的神經(jīng)元個數(shù).輸出層神經(jīng)元個數(shù)是人臉庫的模式類個數(shù).本文分別改變?nèi)B接層神經(jīng)元個數(shù)c和2個卷積層的特征圖數(shù)量A和b,找到最適合2人臉庫的網(wǎng)絡(luò)模型.

        3.1改變?nèi)B接層神經(jīng)元個數(shù)對網(wǎng)絡(luò)的影響

        ORL人臉庫的6層卷積神經(jīng)網(wǎng)絡(luò)用20-40-300,20-40-500,20-40-800,20-40-1 100,20-40-1 500模型測試.AR人臉庫的6層卷積神經(jīng)網(wǎng)絡(luò)用20-40-800,20-40-1 000,20-40-1 500,20-40-2 000模型測試.

        圖6描述ORL人臉庫中每次迭代對應(yīng)的代價函數(shù)J(θ)的值,圖7描述AR人臉庫中每次迭代對應(yīng)的代價函數(shù)J(θ)的值.圖6和7顯示各個網(wǎng)絡(luò)模型從迭代次數(shù)為1 900至2 000時基本訓(xùn)練.選取迭代次數(shù)為2 000時,測量各個模型對于相應(yīng)人臉庫訓(xùn)練集和測試集的正確識別率,結(jié)果如表1和2所示.

        圖6 改變?nèi)B接層的ORL人臉庫的J(θ)

        圖7 改變?nèi)B接層的AR人臉庫的J(θ)

        %

        表2 改變?nèi)B接層的AR人臉庫的正確識別率 %

        對于ORL人臉庫,最佳的卷積神經(jīng)網(wǎng)絡(luò)模型為20-40-1 500;對于AR人臉庫,最佳的卷積神經(jīng)網(wǎng)絡(luò)模型為20-40-2 000.增加全連接層神經(jīng)元個數(shù)可以加快網(wǎng)絡(luò)的訓(xùn)練速度,在一定程度內(nèi)能提高正確識別率.

        3.2改變2個卷積層特征圖數(shù)量對網(wǎng)絡(luò)的影響

        ORL人臉庫的6層卷積神經(jīng)網(wǎng)絡(luò)用10-15-1 500,15-15-1 500,15-25-1 500, 20-30-1 500, 20-40-1 500模型測試.AR人臉庫的6層卷積神經(jīng)網(wǎng)絡(luò)用15-25-2 000,15-30-2 000,20-30-2 000,20-40-2 000模型測試.

        圖8描述ORL人臉庫中每次迭代對應(yīng)的代價函數(shù)J(θ)的值,圖9描述AR人臉庫中每次迭代對應(yīng)的代價函數(shù)J(θ)的值.同理,選取迭代次數(shù)為2 000時,測量各個模型對于相應(yīng)人臉庫訓(xùn)練集和測試集的正確識別率,結(jié)果如表3和4所示.

        圖8 改變2個卷積層的ORL人臉庫的J(θ)

        圖9 改變2個卷積層的AR人臉庫的J(θ)

        %

        表4 改變2個卷積層的AR人臉庫的正確識別率 %

        對于ORL人臉庫,最佳的卷積神經(jīng)網(wǎng)絡(luò)模型為20-40-1 500;對于AR人臉庫,最佳的卷積神經(jīng)網(wǎng)絡(luò)模型為20-40-2 000.適當(dāng)增加卷積層特征圖數(shù)量可以提高正確識別率.

        3.320-40-1 500卷積神經(jīng)網(wǎng)絡(luò)模型與其他算法的比較

        20-40-1 500的卷積神經(jīng)網(wǎng)絡(luò)模型對ORL人臉庫全部樣本的識別率為99.50%, 20-40-2 000的卷積神經(jīng)網(wǎng)絡(luò)模型對AR人臉庫全部樣本的識別率為99.62%.表5是本文提出的網(wǎng)絡(luò)與其他算法在ORL庫識別率的比較,表6是本文提出的網(wǎng)絡(luò)與其他算法在AR庫識別率的比較.可以看出本文提出的網(wǎng)絡(luò)在2個人臉庫上的識別率較好,并且網(wǎng)絡(luò)抵抗光照差異、面部表情變化、有無遮擋物等干擾的能力較強(qiáng).

        表520-40-1 500卷積神經(jīng)網(wǎng)絡(luò)模型與用于ORL庫的其他算法比較

        識別方法正確識別率/%Eigenface[14]97.50Fisherface[14]98.50ICA[14]93.752DPCA[15]98.3020-40-1500CNN99.50

        表6 20-40-1 500卷積神經(jīng)網(wǎng)絡(luò)模型與用于AR庫的其他算法比較

        4總結(jié)

        本文提出了一個6層卷積神經(jīng)網(wǎng)絡(luò)用于ORL和AR人臉庫的人臉識別,對測試樣本的識別率分別為99.75%和96.15%,對全部樣本的識別率分別為99.50%和99.62%.用于AR人臉庫的卷積神經(jīng)網(wǎng)絡(luò)對光照差異、面部表情變化、有無遮擋物等干擾具有魯棒性.采用Matlab 2010a作為實驗環(huán)境,在CPU為3.3 GHz的Intel i3-3220,內(nèi)存為4 GB的計算機(jī)上,ORL和AR人臉庫的單張人臉識別時間均小于0.05 s,識別實時性好,為人臉識別提供一種新思路.

        [參考文獻(xiàn)]

        [1]陳海霞,崔茜.基于Gabor小波和PCA的人臉識別[J].東北師大學(xué)報(自然科學(xué)版),2014,46(4):77-80.

        [2]孟繁靜,王連明.視頻人臉識別系統(tǒng)中的最佳人臉捕獲[J].東北師大學(xué)報(自然科學(xué)版),2015,47(3):90-95.

        [3]WANG X,TANG X.Dual-space linear discriminant analysis for face recognition[C]//CVPR 2004 Proceedings of the 2004 IEEE Computer Society Conference on Computer Vision and Pattern Recognition.Washington:IEEE,2004,2:564-569.

        [4]HEISELE B,HO P,POGGIO T.Face recognition with support vector machines:Global versus component-based approach[C]//ICCV 2001 Proceedings.Eighth IEEE International Conference on Computer Vision.Los Alamitos:IEEE,2001,2:688-694.

        [5]ABATE A F,NAPPI M,RICCIO D,et al.2D and 3D face recognition a survey[J].Pattern Recognition Letters,2007,28(14):1885-1906.

        [6]NEFIAN A V,HAYES III M H.Hidden markov models for face recognition[C]//1998 IEEE International Conference on Acoustics,Speed and Signal Processing,Washington:IEEE,1998:2721-2724.

        [7]AHRANJANY S S,RAZZAZI F,GHASSEMIAN M H.A very high accuracy handwritten character recognition system for Farsi/Arabic digits using Convolutional Neural Networks[C]//Theories and Applications (BIC-TA),2010 IEEE Fifth International Conference on Bio-Inspired Computing.Beijing:IEEE,2010:1585-1592.

        [8]SYAFEEZA A R,KHALIL-HANI M,LIEW S S,et al.Convolutional neural network for face recognition with pose and Illumination Variation[J].International Journal of Engineering & Technology,2014,6(1):44-57.

        [9]TOSHEV A,SZEGEDY C.Deeppose:Human pose estimation via deep neural networks[C]//2014 IEEE Conference on Computer Vision and Pattern Recognition (CVPR).Los Alamitos:IEEE,2014:1653-1660.

        [10]SERMANET P,EIGEN D,ZHANG X,et al.Overfeat integrated recognition,localization and detection using convolutional networks[J].Neural Networks,2003,16(5):555-559.

        [11]LECUN Y,BOTTOU L,BENGIO Y,et al.Gradient-based learning applied to document recognition[J].Proceedings of the IEEE,1998,86(11):2278-2324.

        [12]HUANG V S,SHADMEHR R,DIEDRICHSEN J.Active learning:learning a motor skill without a coach[J].Journal of neurophysiology,2008,100(2):879-887.

        [13]SRIVASTAVA S,HINTION G,KRIZHEVSKY A,et al.Droput:a simple way to prevent neural networks from overfitting[J].The Journal of Machine Learning Reserch,2014,15(1):1929-1958.

        [14]YANG M H.Kernel eigenfaces vs.kernel fisherfaces:Face recognition using kernel methods[C]//2013 10th IEEE International Conference and Workshops on Automatic Face and Gesture Recognition (FG).Washington:IEEE,2002:0215-0215.

        [15]YANG J,ZHANG D,F(xiàn)RANGI A F,et al.Two-dimensional PCA:a new approach to appearance-based face representation and recognition[J].Pattern Analysis and Machine Intelligence,IEEE Transactions on,2004,26(1):131-137.

        [16]ROLI F,MARCIALIS G L.Semi-supervised PCA-based face recognition using self-training[M].Structural,Syntactic,and Statistical Pattern Recognition.Berlin Heidelberg:Springer,2006:560-568.

        [17]YANG M,ZHANG L.Gabor feature based sparse representation for face recognition with gabor occlusion dictionary[M].Computer Vision-ECCV 2010.Berlin Heidelberg:Springer,2010:448-461.

        [18]JIANG Z,LIN Z,DAVIS L S.Learning a discriminative dictionary for sparse coding via label consistent K-SVD[C]//2011 IEEE Conference on Computer Vision and Pattern Recognition (CVPR).Washington:IEEE,2011:1697-1704.

        (責(zé)任編輯:石紹慶)

        Convolutional neural network for face recognition

        CHEN Yao-dan,WANG Lian-ming

        (School of Physics,Northeast Normal University,Changchun 130024,China)

        Abstract:Feature extraction and classification are two key steps in face recognition.A convolutional neural network composed of two convolutional layers,two pooling layers,one full-connection layer and one Softmax regression layer for face recognition is proposed.The neural network can automatically extract facial features and classify face,with trained feature extractors and the classifier using batch gradient descent.And the network adopts dropout method in hidden layers to avoid the overfitting problem.Experimental results show that proposed network achieves 99.50% recognition accuracy on ORL database and an accuracy of 99.62% on AR database,and it can complete one-time facial recognition in less than 0.05s.More importantly,the network is robust to illumination variances,facial expressions and occlusions.

        Keywords:face recognition;convolutional neural network;image processing;face database

        [文章編號]1000-1832(2016)02-0070-07

        [收稿日期]2015-05-17

        [基金項目]國家自然科學(xué)基金資助項目(21227008);吉林省科技發(fā)展計劃項目(20130102028JC).

        [作者簡介]陳耀丹(1993—),女,碩士研究生,主要從事模式識別研究;通訊作者:王連明(1972—),男,博士,教授,主要從事智能信息處理及嵌入式系統(tǒng)領(lǐng)域研究.

        [中圖分類號]TP 391.4[學(xué)科代碼]520·2040

        [文獻(xiàn)標(biāo)志碼]A

        [DOI]10.16163/j.cnki.22-1123/n.2016.02.016

        猜你喜歡
        卷積神經(jīng)網(wǎng)絡(luò)圖像處理人臉識別
        人臉識別 等
        揭開人臉識別的神秘面紗
        機(jī)器學(xué)習(xí)在圖像處理中的應(yīng)用
        電子制作(2018年18期)2018-11-14 01:48:20
        模糊圖像處理,刑事偵查利器
        圖像處理技術(shù)的實戰(zhàn)應(yīng)用
        基于深度卷積神經(jīng)網(wǎng)絡(luò)的物體識別算法
        深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
        基于深度卷積網(wǎng)絡(luò)的人臉年齡分析算法與實現(xiàn)
        軟件工程(2016年8期)2016-10-25 15:47:34
        基于卷積神經(jīng)網(wǎng)絡(luò)的樹葉識別的算法的研究
        基于類獨立核稀疏表示的魯棒人臉識別
        日本激情视频一区在线观看| 精品亚洲成a人7777在线观看 | 国产亚洲人成a在线v网站| 热久久这里只有| 黑丝国产精品一区二区| 丝袜美腿亚洲第一免费| 午夜毛片不卡免费观看视频| 在线观看91精品国产免费免费| 国产高潮精品一区二区三区av| 亚洲伊人av天堂有码在线| 麻豆一区二区三区蜜桃免费| 日日摸夜夜添夜夜添无码免费视频 | 国产午夜av一区二区三区| 天堂免费av在线播放| 女人被爽到高潮视频免费国产 | 青青草国产成人99久久| 国产杨幂AV在线播放| 日韩女同在线免费观看| 欧美一区二区三区视频在线观看 | 蜜桃一区二区三区在线看| 亚洲精品一区二区三区四区| 日本边添边摸边做边爱喷水| 欧美巨大xxxx做受l| 亚洲综合综合在线| 亚洲乱码中文字幕一线区 | 伊人久久大香线蕉av色婷婷色 | 亚洲综合av大全色婷婷| 无码毛片视频一区二区本码| 女的把腿张开男的猛戳出浆| 国产一区二区在线中文字幕| 无码av中文一区二区三区桃花岛| 日韩精品人妻系列无码专区免费 | 成年网站在线91九色| 中文字幕av一区二区三区人妻少妇| 亚洲精品456| 亚洲av成人久久精品| 久久人人爽人人爽人人片av高请| 国产精品麻豆欧美日韩ww| 国产精品无码mv在线观看| 精品国产自在现线看久久| 国产免费av片在线观看|