陳杰 張雷 張睿 解丹 閆耀東 葉子維 柴鈺杰
摘 ?要:隨著社會(huì)的發(fā)展,身份信息的安全問(wèn)題日益凸顯。為解決用戶(hù)身份識(shí)別過(guò)程中受環(huán)境影響較大,以及掌紋識(shí)別時(shí)提取掌紋特征復(fù)雜的問(wèn)題,本文進(jìn)行了“基于卷積神經(jīng)網(wǎng)絡(luò)(CNN)的掌紋識(shí)別”的研究。運(yùn)用該算法的優(yōu)勢(shì)在于簡(jiǎn)化了掌紋識(shí)別的前期預(yù)處理,可以直接將采集的原始圖像進(jìn)行輸入,然后識(shí)別。通過(guò)卷積操作和最大池化操作,減少了訓(xùn)練參數(shù)量,大大節(jié)約了時(shí)間。最后使用Softmax分類(lèi)器對(duì)結(jié)果進(jìn)行分類(lèi)。實(shí)驗(yàn)結(jié)果顯示,該方法對(duì)不同人的掌紋有較高的識(shí)別率,克服了傳統(tǒng)掌紋識(shí)別精度差,識(shí)別時(shí)間長(zhǎng),人工提取特征困難的缺點(diǎn)。
關(guān)鍵詞:卷積神經(jīng)網(wǎng)絡(luò);掌紋識(shí)別;深度學(xué)習(xí);非接觸式掌紋識(shí)別
中圖分類(lèi)號(hào):TP391 ? ? 文獻(xiàn)標(biāo)識(shí)碼:A
Abstract:With the progress of society,the security of identity information has become increasingly prominent.In order to solve the problem of complex environmental impact and complex extraction of palmprint features in the process of user identification,the paper studies palmprint recognition based on convolution neural network.The advantage of this algorithm is simplifying the pre-processing of palmprint recognition,by directly inputting and recognizing the collected original image.Through convolution operation and maximum pooling operation,the method reduces the amount of training parameters and saves time greatly.Finally,the results are classified by using Softmax classifier.The experimental results show that this method has high recognition rate for different palmprints,overcoming the shortcomings of traditional palmprint recognition,such as low recognition accuracy,long recognition time and difficulties in manual feature extraction.
Keywords:Convolutional Neural Network (CNN);palmprint recognition;deep learning;non-contact palmprint recognition
1 ? 引言(Introduction)
掌紋識(shí)別是起步較晚但優(yōu)勢(shì)明顯的非侵犯性生物特征識(shí)別技術(shù)[1],近幾年受到國(guó)內(nèi)外研究人員的廣泛關(guān)注。相比于其他技術(shù),掌紋識(shí)別的優(yōu)勢(shì)在于圖像采集簡(jiǎn)單且圖像信息清晰豐富;對(duì)采集設(shè)備要求不高;安全性相對(duì)較高。雖然掌紋識(shí)別技術(shù)在近幾年才慢慢成熟。但相比其他傳統(tǒng)生物識(shí)別技術(shù)來(lái)說(shuō),具有識(shí)別精度高、所需時(shí)間短,接收率高,硬件成本低等優(yōu)勢(shì)[2]。
現(xiàn)在廣泛使用的掌紋圖像采集方式分為兩種:接觸式和非接觸式[3]。接觸式采集方法存在手掌滑動(dòng)、擠壓、出汗等情況造成掌紋難以采集和失真;非接觸式采集法可以避免接觸過(guò)程中的衛(wèi)生問(wèn)題,但也會(huì)導(dǎo)致成像的不穩(wěn)定因素產(chǎn)生。然而,結(jié)合掌紋多項(xiàng)特性識(shí)別是將來(lái)的發(fā)展趨勢(shì),非接觸式掌紋采集剛好有助于采集手掌上面的多項(xiàng)信息[4],提高識(shí)別安全性和可用性。
近些年來(lái),卷積神經(jīng)網(wǎng)絡(luò)模型在車(chē)牌識(shí)別、手寫(xiě)文字識(shí)別[5]、人臉識(shí)別[6]、步態(tài)識(shí)別[7]、交通車(chē)輛[8]識(shí)別等領(lǐng)域取得了很大的成功和長(zhǎng)遠(yuǎn)的發(fā)展。因此,將掌紋識(shí)別與卷積神經(jīng)網(wǎng)絡(luò)結(jié)合將是未來(lái)研究的重點(diǎn)。
2 ?卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)(Convolution Neural Network architecture)
人腦是一種深層結(jié)構(gòu),通過(guò)逐層過(guò)濾和采樣輸入信息來(lái)認(rèn)知。深度學(xué)習(xí)[9]是一種通過(guò)模仿人類(lèi)大腦對(duì)現(xiàn)實(shí)抽象世界的感知變成可以被用來(lái)認(rèn)知具體事務(wù)的過(guò)程的模型。其發(fā)明的原因是由于傳統(tǒng)淺層學(xué)習(xí)在大量數(shù)據(jù)下不能很好地識(shí)別。深度學(xué)習(xí)又稱(chēng)為深度結(jié)構(gòu)學(xué)習(xí),其中包括許多結(jié)構(gòu)。卷積神經(jīng)網(wǎng)絡(luò)就是深度學(xué)習(xí)中比較常用的結(jié)構(gòu)。在20世紀(jì)60年代,Hubel和Wiesel兩個(gè)人在對(duì)貓的大腦皮層進(jìn)行電擊實(shí)驗(yàn)時(shí)發(fā)現(xiàn)了分層的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),在此基礎(chǔ)上提出了感受野的概念。之后,日本學(xué)者又在感受野的基礎(chǔ)上提出神經(jīng)感知機(jī)器的概念。此后,許多研究人員開(kāi)始嘗試運(yùn)用多層感知器來(lái)代替手工提取特征,并取得了成功。
2.1 ? 卷積層
卷積層的操作就如同一個(gè)多維的拼圖游戲,因?yàn)閳D像卷積操作中圖形不是一維存在的,只有卷積操作完成特征才變成線性的結(jié)構(gòu),然而,在分類(lèi)中,線性函數(shù)存在無(wú)法分類(lèi)的尷尬境地,所以引入激活函數(shù)把線性變?yōu)榉蔷€性。深層的卷積通過(guò)不斷循環(huán)的方式提取充分可靠性強(qiáng)的更復(fù)雜的特征。
在傳統(tǒng)圖像識(shí)別過(guò)程中,預(yù)處理是第一步,因?yàn)樵趫D像采集的時(shí)候采集環(huán)境和光照明暗程度不同等降低了特征提取的可靠性。第二步才可以順利地提取圖像可視化特征,最后根據(jù)所提取的特征進(jìn)行歸類(lèi)分析,并輸出分類(lèi)之后的結(jié)果。傳統(tǒng)分類(lèi)模型如圖1所示。卷積神經(jīng)網(wǎng)絡(luò)分類(lèi)模型中,不需要對(duì)采集的圖像進(jìn)行處理,直接將圖像輸入到網(wǎng)絡(luò)中,通過(guò)卷積和池化操作進(jìn)行特征提取,最終輸出分類(lèi)結(jié)果,如圖2所示。
CNN的特點(diǎn)主要由以下幾點(diǎn)體現(xiàn):第一,相鄰兩層神經(jīng)元之間的連接不是完全連接而是使用局部連接,局部連接的好處是減少參數(shù)的數(shù)目,CNN認(rèn)知如同人類(lèi)對(duì)外界的認(rèn)知,先從局部認(rèn)識(shí)了解,然后才是全局。
2.2 ? 池化層
訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò)的主要問(wèn)題是超大的數(shù)據(jù)及計(jì)算量,特別是對(duì)于分辨率較高的圖像進(jìn)行卷積操作,網(wǎng)絡(luò)的訓(xùn)練速度緩慢且耗費(fèi)大量時(shí)間。為了解決網(wǎng)絡(luò)訓(xùn)練時(shí)間過(guò)長(zhǎng),數(shù)據(jù)量過(guò)大的問(wèn)題,科學(xué)家發(fā)現(xiàn)在卷積層之后連接下采樣層壓縮圖像可以減少數(shù)據(jù)量,從而達(dá)到節(jié)約訓(xùn)練時(shí)間的目的。通常采用最大池化方法,來(lái)提取最明顯的特征,以及使數(shù)據(jù)量盡可能小。簡(jiǎn)單地說(shuō),池化就是把相鄰部分的特征信息進(jìn)行壓縮聚合提取使卷積層提取的數(shù)據(jù)特征尺寸變小。其次,網(wǎng)絡(luò)的過(guò)度擬合程度也有所降低,網(wǎng)絡(luò)性能得到提高。第三,圖像的池化不會(huì)導(dǎo)致圖形變化,即使在樣本已經(jīng)平移、等比例縮放、旋轉(zhuǎn)等處理之后。
2.3 ? 全連接層
通過(guò)卷積操作得到局部特點(diǎn),全連接層的作用就是通過(guò)權(quán)重矩陣將局部特征重新組合成完整的圖。由于全連接操作中使用了所有局部特征,因此稱(chēng)為全連接。整個(gè)網(wǎng)絡(luò)各個(gè)卷積層獲取的原始圖片的特征,在經(jīng)過(guò)各個(gè)池化層過(guò)濾后通過(guò)全連接層第一層的操作組成一個(gè)線性的特征分布列。
這個(gè)特征分布列在全連接層的各個(gè)隱藏層中不斷映射到各個(gè)隱藏層的節(jié)點(diǎn)中,即不斷地將所有特征轉(zhuǎn)換到不同的特征空間。
在全連接層中,最后一層類(lèi)似于一個(gè)分類(lèi)器的出口,使用sigmoid函數(shù)輸出節(jié)點(diǎn)的個(gè)數(shù)也就是分類(lèi)個(gè)數(shù)。每個(gè)節(jié)點(diǎn)的輸出大小在0到1,即前一層的特征空間中的各個(gè)特征對(duì)這些類(lèi)別的貢獻(xiàn)率,也就是之前提取的各個(gè)特征可能屬于各個(gè)類(lèi)別的概率。
卷積神經(jīng)網(wǎng)絡(luò)的提出及應(yīng)用極大簡(jiǎn)化了圖像識(shí)別過(guò)程,降低了訓(xùn)練參數(shù),使圖像識(shí)別問(wèn)題不再那么復(fù)雜,如同一個(gè)黑盒,只有入口的輸入,出口的輸出而不關(guān)注中間隱藏層。多個(gè)卷積層和池化層之間進(jìn)行交替連接用作網(wǎng)絡(luò)的輸入端,然后全連接層的每個(gè)節(jié)點(diǎn)與前一層的所有節(jié)點(diǎn)進(jìn)行連接,以組合從前面提取的特征。最后將多分類(lèi)器用作輸出層。
2.4 ? TensorFlow框架
2015年谷歌宣布對(duì)TensorFlow[10]計(jì)算框架進(jìn)行開(kāi)源,以便使其得到充分的發(fā)展。它的優(yōu)點(diǎn)是可操作性強(qiáng)、支持多種計(jì)算平臺(tái)、系統(tǒng)性能穩(wěn)定、計(jì)算速度快、簡(jiǎn)單通用、支持各種不同的深度學(xué)習(xí)算法,所以在開(kāi)源之后便得到了廣泛的應(yīng)用。
如今,TensorFlow受到越來(lái)越多的關(guān)注,已在Google中被廣泛使用。例如,基于TensorFlow開(kāi)發(fā)的排名系統(tǒng)RankBrain已成功啟動(dòng)和使用。相比傳統(tǒng)的排序算法,RankBrain能夠很好的滿(mǎn)足用戶(hù)的需求?;赥ensorFlow的RankBrain已經(jīng)在Google的核心網(wǎng)絡(luò)搜索業(yè)務(wù)中發(fā)揮了關(guān)鍵作用,展示了TensorFlow的強(qiáng)大功能。如今,國(guó)內(nèi)外主要科技公司已加入使用TensorFlow的行列[11]。
3 實(shí)驗(yàn)過(guò)程、結(jié)果與分析(Experimental process,
results and analysis)
3.1 ? 圖像預(yù)處理
本實(shí)驗(yàn)的掌紋圖像是由作者拍攝的圖像。掌紋數(shù)據(jù)庫(kù)分為8只手掌,分別為4只左手和4只右手,每只手?jǐn)?shù)據(jù)集有200張圖像,經(jīng)過(guò)簡(jiǎn)單的旋轉(zhuǎn)和等比例縮放,將200張圖像通過(guò)過(guò)采樣的方式擴(kuò)大為1000張圖像的數(shù)據(jù)。然后訓(xùn)練集和測(cè)試集按照4比1的比例在所有圖片中隨機(jī)選取。掌紋圖像的特征包括手掌內(nèi)側(cè)的全部紋理,由照相機(jī)在固定背景下拍攝而成,原始照片大小為2976×2976像素。因?yàn)閳D像的大小與卷積核大小的選取緊密關(guān)聯(lián),所以圖像的大小就非常重要,圖像太大會(huì)導(dǎo)致過(guò)多的計(jì)算量和時(shí)間;如果圖像太小,圖像的細(xì)節(jié)不明顯,分辨率不夠又會(huì)引起圖像關(guān)鍵細(xì)節(jié)的丟失或者采集不清晰。為了能更好地提取特征,就必須將掌紋圖像進(jìn)行等比例縮小成224×224像素大小的圖片,這樣對(duì)掌紋簡(jiǎn)單的預(yù)處理不僅可以減少在運(yùn)算中的數(shù)據(jù)量,也不至于因圖像過(guò)小導(dǎo)致采集的特征不清晰,還能夠提高整個(gè)識(shí)別系統(tǒng)的實(shí)時(shí)性以及準(zhǔn)確性。
3.2 訓(xùn)練算法
在CNN中通常運(yùn)用Adam算法[12]訓(xùn)練和優(yōu)化網(wǎng)絡(luò)。Adam算法不同于隨機(jī)梯度下降而是運(yùn)用訓(xùn)練數(shù)據(jù)進(jìn)行迭代的方式進(jìn)行神經(jīng)網(wǎng)絡(luò)的更新,通過(guò)計(jì)算梯度的第一矩估計(jì)和第二矩估計(jì)的方法為不同參數(shù)設(shè)計(jì)獨(dú)立的自適應(yīng)學(xué)習(xí)率。
具體而言,超參數(shù),β1和β2控制算法計(jì)算梯度指數(shù)移動(dòng)平均值的衰減率,移動(dòng)平均線的初始值和β1、β2值接近1,因此矩估計(jì)的偏差接近于零。通過(guò)首先計(jì)算偏差的估計(jì)然后在偏差校正之后計(jì)算估計(jì)來(lái)改善該偏差。Adam優(yōu)化算法的優(yōu)點(diǎn)包括梯度對(duì)角縮放的不變性,計(jì)算高效,所需內(nèi)存小,這是解決優(yōu)化大量數(shù)據(jù)集和參數(shù),以及非平穩(wěn)目標(biāo)問(wèn)題的理想選擇。同時(shí)也適于解決在圖像處理過(guò)程中包含極高噪聲或稀疏梯度影響的問(wèn)題,可以直觀地解釋超參數(shù),只需要很少的調(diào)參工作。
3.3 ? Dropout原理與實(shí)現(xiàn)
Hinton等人2012年提出了Dropout[13]作為防止CNN過(guò)度擬合的正則化方法。由于訓(xùn)練數(shù)據(jù)集受到卷積神經(jīng)網(wǎng)絡(luò)深度的限制,因此部分學(xué)習(xí)到的特征關(guān)系存在一定的偶然性,這些隨機(jī)特征關(guān)系只存在于訓(xùn)練數(shù)據(jù)中。很容易導(dǎo)致CNN過(guò)度擬合。
在深度卷積神經(jīng)網(wǎng)絡(luò)(DCNN)中,通過(guò)訓(xùn)練得到一些網(wǎng)絡(luò)模型相對(duì)困難,并且訓(xùn)練相對(duì)大一點(diǎn)的網(wǎng)絡(luò)計(jì)算量非常大,所以訓(xùn)練模型時(shí)找到最好的超參數(shù)異常困難。Dropout在改善機(jī)器學(xué)習(xí)方面,表現(xiàn)非常有效。此外,DCNN通常需要大量的訓(xùn)練數(shù)據(jù)訓(xùn)練不同的模型。Dropout的作用就是防止訓(xùn)練過(guò)程中的過(guò)擬合,“Dropout”是指CNN中的“丟棄”神經(jīng)元,“丟棄”是指隨機(jī)刪掉網(wǎng)絡(luò)中一半的隱藏神經(jīng)元,輸入輸出神經(jīng)元保持不變。Dropout的缺點(diǎn)是收斂速度可能減慢:因?yàn)槊看蔚兄桓乱徊糠謪?shù),而不是更新所有的參數(shù),所以可以減慢梯度。
公式中的*表示逐項(xiàng)乘法。在任意層l中,rl表示獨(dú)立的隨機(jī)變量向量,這個(gè)向量乘以當(dāng)前層的輸出Yl得到一個(gè)“稀疏”輸出,然后稀疏輸出用作下一層的輸入。通過(guò)對(duì)每個(gè)層執(zhí)行此操作,便完成原始模型中提取稀疏模型的操作。
3.4 ? 基于CNN的掌紋分類(lèi)方法
掌紋識(shí)別CNN框架如圖3所示。
有關(guān)掌紋識(shí)別CNN框架的詳細(xì)描述如下:
該實(shí)驗(yàn)使用12層的卷積神經(jīng)網(wǎng)絡(luò)框架,其網(wǎng)絡(luò)結(jié)構(gòu)由5層卷積層(C)和5層池化層(S)還有2層全連接層(FC)組成。卷積層C1使用64個(gè)大小為3×3的卷積核,步長(zhǎng)為1,邊緣填充使用默認(rèn)模式,對(duì)224×224大小的圖片進(jìn)行卷積運(yùn)算,然后得到224×224×64的特征圖。S1是第一個(gè)池化層,其通過(guò)2×2最大池化方法將C1層輸出的224×224×64的特征映射轉(zhuǎn)換為112×112×64的特征映射。然后,在卷積層C2中,S1的輸出也使用3×3的卷積核進(jìn)行卷積,使用128個(gè)卷積核,步長(zhǎng)為1,并且邊緣填充采用SANE方法,然后獲得112×112×128的特征圖。S2是第二池化層,通過(guò)2×2最大池化方法將C2層輸出的112×112×128的特征映射轉(zhuǎn)換為56×56×128的特征映射。C3卷積層由256個(gè)卷積核組成,步長(zhǎng)為1,邊緣填充使用與S2層輸出相同的112×112特征映射卷積,得到112×112×256的特征映射。接著S3層通過(guò)2×2最大池化方法,將C3層輸出的112×112×256的特征圖轉(zhuǎn)換為56×56×256的特征圖。C4、C5層原理同C3層一樣;S4、S5原理同S3層,最后得到7×7×256的特征圖。S5層之后是FC1層,為全連接層,將S5層輸出的7×7×256的特征圖轉(zhuǎn)化為一維矩陣,然后作為輸入,即輸入節(jié)點(diǎn)為7×7×256=12544個(gè),輸出節(jié)點(diǎn)設(shè)置為1024個(gè),則權(quán)重矩陣的大小為12544×1024。通過(guò)輸入矩陣和權(quán)重矩陣進(jìn)行乘積,再加上一個(gè)偏置,得到1024個(gè)結(jié)點(diǎn)的輸出。由于數(shù)據(jù)集用來(lái)訓(xùn)練的樣本并不是特別多,整個(gè)數(shù)據(jù)集一共有8000張圖片,為了防止網(wǎng)絡(luò)過(guò)擬合,在隱藏層中使用Dropout方法,之后為FC2層,運(yùn)用sigmoid分類(lèi),輸入的就是FC1輸出的1024個(gè)節(jié)點(diǎn),則輸出為8個(gè)節(jié)點(diǎn),即類(lèi)別數(shù)。使用Softmax函數(shù)作為激活函數(shù)。最后使用交叉信息熵cross_entropy計(jì)算損失,然后用Adam優(yōu)化器進(jìn)行訓(xùn)練和測(cè)試,得出結(jié)果。網(wǎng)絡(luò)設(shè)置詳見(jiàn)表1。
3.5 ? 數(shù)據(jù)集展示
本次實(shí)驗(yàn)所選用的數(shù)據(jù)集使用手機(jī)拍攝,來(lái)自四名志愿者,每名志愿者采集了左右手掌的圖像。如圖4—圖11所示。
3.6 ? 實(shí)驗(yàn)結(jié)果分析
掌紋庫(kù)中包括每個(gè)志愿者的左右手掌的掌紋。每只手掌掌紋有200張樣本,經(jīng)過(guò)簡(jiǎn)單的旋轉(zhuǎn)和等比例縮放,將200張圖像通過(guò)過(guò)采樣的方式擴(kuò)充為1000張圖像的數(shù)據(jù)。訓(xùn)練數(shù)據(jù)是從1000張圖片中隨機(jī)的選取800張,剩下的200張作為測(cè)試數(shù)據(jù),一共選取四個(gè)志愿者共8000張圖像作為實(shí)驗(yàn)數(shù)據(jù)。
本文實(shí)驗(yàn)的數(shù)據(jù)完全由自己拍攝。掌紋數(shù)據(jù)分為八類(lèi),分別拍攝的是四個(gè)人的左右手掌紋。一共8000張圖片。首先需要將圖像格式轉(zhuǎn)化成三維數(shù)組的格式,以便下一步進(jìn)行掌紋特征提取的卷積操作。卷積神經(jīng)網(wǎng)絡(luò)的實(shí)驗(yàn)需要大量的樣本支持才行,故拍攝大量的樣用來(lái)深度學(xué)習(xí)和測(cè)試。每一個(gè)類(lèi)一共有1000張的圖片用于測(cè)試集和訓(xùn)練集,訓(xùn)練和測(cè)試按4:1比例分配,其中200張作為掌紋的識(shí)別集。圖12中的橫坐標(biāo)表示實(shí)驗(yàn)測(cè)試中輸入樣本的數(shù)量,縱坐標(biāo)表示識(shí)別率,圖中顯示的最大檢測(cè)率為99.99%。
實(shí)驗(yàn)結(jié)果對(duì)比詳見(jiàn)表2。
通過(guò)實(shí)驗(yàn)結(jié)果對(duì)比可得,應(yīng)用不同的方法得到的識(shí)別正確率差別較大,卷積神經(jīng)網(wǎng)絡(luò)相比其他三種傳統(tǒng)方法的識(shí)別效果提高了很多,較于傳統(tǒng)算法更加簡(jiǎn)潔,省去了圖像預(yù)處理過(guò)程。
4 ? 結(jié)論(Conclusion)
本文是對(duì)非接觸式掌紋識(shí)別在卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)下進(jìn)行的初步研究,然后又與傳統(tǒng)的掌紋識(shí)別方法進(jìn)行了正確率和識(shí)別時(shí)間兩項(xiàng)指標(biāo)的對(duì)比。相較于傳統(tǒng)算法,卷積神經(jīng)網(wǎng)絡(luò)處理圖像的優(yōu)點(diǎn)在于,圖像不需要經(jīng)過(guò)前期的過(guò)度預(yù)處理,降低了圖像預(yù)處理的難度。使用局部連接和權(quán)值共享技術(shù)減少了參數(shù),同時(shí)減少了數(shù)據(jù)量的運(yùn)算,節(jié)省了大量的時(shí)間。使用Adam計(jì)算梯度的第一矩估計(jì)和第二矩估計(jì)來(lái)設(shè)置不同參數(shù)的獨(dú)立自適應(yīng)學(xué)習(xí)率,減輕了調(diào)試參數(shù)的負(fù)擔(dān)。因此,掌紋識(shí)別通過(guò)使用經(jīng)典的卷積神經(jīng)網(wǎng)絡(luò),很好地解決了傳統(tǒng)識(shí)別方法中存在的復(fù)雜度高,訓(xùn)練參數(shù)多,耗時(shí)長(zhǎng)的問(wèn)題,與傳統(tǒng)算法相比,準(zhǔn)確率也相對(duì)提高了。
參考文獻(xiàn)(References)
[1] 苑瑋琦,魏明月,方婷.全手掌掌紋主線提取方法[J].光電子光,2013,24(07):1399-1405.
[2] Lu J,Tan Y P.Improved discriminant locality preserving projections for face and palmprint recognition.[J]Neurocomputing,2011,4(18): 3760-3767.
[3] 叢鑫,孫勁光.一種圖像檢索中紋理特征提取的方法[J].現(xiàn)代計(jì)算機(jī),2006(9):90-91;97.
[4] 陳熙,張家樹(shù).Biometric feature extractionsing local fractal auto-correlation[J].Chinese Physics B,2014,23(9):335-340.
[5] 李新煒,殷韶坤.深度學(xué)習(xí)在文字識(shí)別領(lǐng)域的應(yīng)用[J].電子技術(shù)與軟件工程,2018(24):40.
[6] 胡亞洲,周亞麗,張奇志.基于深度學(xué)習(xí)的人臉識(shí)別算法研究[J/OL].計(jì)算機(jī)應(yīng)用研究,2019,37(5):1-7.
[7] 梁海軍.基于人臉和步態(tài)特征的生物識(shí)別系統(tǒng)的研究與實(shí)現(xiàn)[D].河北科技大學(xué),2019:1-43.
[8] 盧妍輝.智能交通系統(tǒng)中車(chē)輛路徑識(shí)別方法[J].交通世界,2018(35):15-16.
[9] 周瞳.基于深度卷積網(wǎng)絡(luò)的主掌紋提取方法[D].廣東工業(yè)大學(xué),2018:1-61.
[10] Hailong Xi.Ecognition and Optimization Algorithm of MNIST Dataset Based on LeNet5 Network Structure[A].武漢志誠(chéng)時(shí)代文化發(fā)展有限公司,2018,10:1-7.
[11] 邢艷芳,段紅秀,何光威.TensorFlow圖像識(shí)別系統(tǒng)中的應(yīng)用[J/OL].計(jì)算機(jī)技術(shù)發(fā)展,2019(05):1-5.
[12] 楊觀賜,楊靜,李少波,等.基于Dopout與ADAM優(yōu)化器的改進(jìn)CNN算法[J].華中科技大學(xué)學(xué)報(bào)(自然科學(xué)版),2018,46? ? ? ? (07):122-127.
[13] Dahl,George E,Sainath,et al.Improving deep neural networks for LVCSR using rectified linear units and dropout[P].2013:1-5.
[14] 劉玉珍,趙娜,李新春,等.基于混合濾波LBP和PCA的掌紋識(shí)別[J].測(cè)控技術(shù),2018,37(2):11-15.
[15] 趙強(qiáng),崔暢.基于多尺度LBP和SVM的掌紋識(shí)別算法研究[J].激光雜志,2015 (1):27-30.
[16] 吳婕,任江濤.基于子空間特征融合的兩級(jí)掌紋識(shí)別算法[J].計(jì)算機(jī)工程與應(yīng)用,2015(11):175-178.
作者簡(jiǎn)介:
陳 ?杰(1994-),男,本科生.研究領(lǐng)域:軟件工程.
張 ?雷(1994-),男,碩士生.研究領(lǐng)域:圖像處理與模式識(shí)別.
張 ?睿(1987-),男,博士,講師.研究領(lǐng)域:智能信息處理.本文通訊作者.
解 ?丹(1994-),女,碩士生.研究領(lǐng)域:圖像處理與模式識(shí)別.
閆耀東(1994-),男,碩士生.研究領(lǐng)域:圖像處理與模式識(shí)別.
葉子維(1998-),男,本科生.研究領(lǐng)域:軟件工程.
柴鈺杰(1999-),男,本科生.研究領(lǐng)域:軟件工程.