陳虹麗, 劉凌風(fēng), 李浩凱, 傅薈璇
(哈爾濱工程大學(xué)智能科學(xué)與工程學(xué)院,哈爾濱150001)
指關(guān)節(jié)紋識別是當(dāng)今社會一類新興的生物特征識別技術(shù)[1-2],該生物特征由個體基因所決定,存在個體差異性,可用于身份識別技術(shù)。與常見的指紋識別[3-4]相比,指關(guān)節(jié)紋特征不像指紋一樣易于磨損、出汗潮濕,且在日常生活中不像指紋一樣到處留下接觸痕跡,指關(guān)節(jié)紋生物特征識別技術(shù)表現(xiàn)出良好的發(fā)展前景。
指關(guān)節(jié)紋識別技術(shù)雖已取得很多較好的研究成果[5-7],但主要采用的是傳統(tǒng)機器學(xué)習(xí)算法,卷積神經(jīng)網(wǎng)絡(luò)對圖像紋理特征的提取,有其本身巨大的優(yōu)勢,將采用基于卷積神經(jīng)網(wǎng)絡(luò)的深度學(xué)習(xí)模型,來對指背關(guān)節(jié)紋的識別進(jìn)行研究,針對網(wǎng)絡(luò)的過擬合,首次提出參數(shù)放棄法,放棄驗證誤差增大的參數(shù),重新優(yōu)化參數(shù),直至得到泛化誤差最小點。
首先進(jìn)行指關(guān)節(jié)紋圖像預(yù)處理,包括感興趣區(qū)域(Region of Interest,ROI)[8-9]的提取、數(shù)據(jù)集的擴充[10]、直方圖均衡化[11-12]等;其次,設(shè)計并搭建卷積神經(jīng)網(wǎng)絡(luò)[13-14]模型,包括輸入層、3個卷積層C1、C2、C3層、3個池化層P1、P2、P3層、2個全連接層F1、F2層,softmax輸出層一般不計入網(wǎng)絡(luò)的深度,網(wǎng)絡(luò)深度共為9層。
本實驗采用開源的HKPU-FKP手指關(guān)節(jié)紋數(shù)據(jù)集[15-16],選取其中的100類,將每類的前10幅作為訓(xùn)練集的圖像,剩余2幅作為測試集的圖像,即訓(xùn)練集共1 000幅圖像,測試集共200幅圖像,數(shù)據(jù)集中約80%的圖片劃分為訓(xùn)練集數(shù)據(jù),約20%的圖片劃分為測試集數(shù)據(jù)。
將數(shù)據(jù)集里660類的指關(guān)節(jié)紋,取出其中100類的數(shù)據(jù)做好類別標(biāo)簽并進(jìn)行0~99順序編碼,通過水平翻轉(zhuǎn)、垂直翻轉(zhuǎn)、亮度調(diào)整、隨機旋轉(zhuǎn)等操作,將數(shù)據(jù)集擴充到12 000張,按8∶2的比例分為訓(xùn)練集、測試集,訓(xùn)練集數(shù)據(jù)的形狀為(10 000,224,224,1),測試集數(shù)據(jù)的形狀為(2 000,224,224,1),通過不同算法實驗結(jié)果對比,選用限制對比度的自適應(yīng)直方圖均衡化(Contrast-limited Adaptive Histogram Equalization,CLAHE)算法來提高指關(guān)節(jié)紋紋理的對比度,達(dá)到圖像灰度增強的目的。
實驗選擇Adam優(yōu)化器默認(rèn)的學(xué)習(xí)速率0.001,經(jīng)過1 000次迭代訓(xùn)練完成后,卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練后的實驗結(jié)果如圖1所示。圖中,橫坐標(biāo)為迭代次數(shù)(Epochs)。
測試集上的準(zhǔn)確率為
式中:n為測試集里數(shù)據(jù)的總量;m為測試集里數(shù)據(jù)被分類正確的數(shù)量。
圖1 (a)中,loss為卷積神經(jīng)網(wǎng)絡(luò)在訓(xùn)練集上的損失函數(shù),val_loss為卷積神經(jīng)網(wǎng)絡(luò)在測試集上的損失函數(shù),可見,loss隨著迭代次數(shù)的增加收斂情況較好,然而val_loss有一定上升的趨勢,與loss逐漸拉開一定的間隙,說明該網(wǎng)絡(luò)模型存在過擬合現(xiàn)象。
圖1 卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練后的實驗結(jié)果
圖1 (b)中,acc為卷積神經(jīng)網(wǎng)絡(luò)在訓(xùn)練集上的準(zhǔn)確率,val_acc為卷積神經(jīng)網(wǎng)絡(luò)在測試集上的準(zhǔn)確率,可見,隨著迭代次數(shù)的增加,acc與val_acc曲線存在一定的間隙,說明該網(wǎng)絡(luò)模型在訓(xùn)練集上有一個很好的準(zhǔn)確率;在測試集上的準(zhǔn)確率與之有一定的差距,說明該網(wǎng)絡(luò)模型在未見過的數(shù)據(jù)面前表現(xiàn)不理想,網(wǎng)絡(luò)泛化能力不強,進(jìn)一步驗證了網(wǎng)絡(luò)模型存在過擬合現(xiàn)象。
為避免過擬合,提高網(wǎng)絡(luò)泛化能力,采用L2正則化與參數(shù)放棄法結(jié)合,對網(wǎng)絡(luò)進(jìn)行優(yōu)化。參數(shù)放棄法的基本思想是訓(xùn)練網(wǎng)絡(luò)時,網(wǎng)絡(luò)訓(xùn)練與網(wǎng)絡(luò)驗證交替進(jìn)行,當(dāng)網(wǎng)絡(luò)開始進(jìn)入過擬合時,驗證誤差就會逐漸增大,此時放棄本次參數(shù),網(wǎng)絡(luò)參數(shù)返回當(dāng)驗證誤差取最小值時的參數(shù)。應(yīng)用參數(shù)放棄法時,測試集同時也作為驗證集,驗證集用于監(jiān)控網(wǎng)絡(luò)訓(xùn)練進(jìn)程。圖2所示為利用參數(shù)放棄法時程序框圖。
圖2 參數(shù)放棄法優(yōu)化網(wǎng)絡(luò)程序框圖
圖中:T為訓(xùn)練集;C為驗證集;Errornew為當(dāng)前驗證誤差;Errorold為前次驗證誤為權(quán)重參數(shù);?為閾值;X0為訓(xùn)練次數(shù)標(biāo)志位;k為訓(xùn)練次數(shù);E為訓(xùn)練誤差;ε為誤差代價函數(shù);R為循環(huán)次為初始權(quán)值參數(shù);Δwij為權(quán)值變化量,由優(yōu)化器求取。實驗前,對驗證樣本進(jìn)行了檢驗,舍棄了錯誤的驗證樣本。
在前面網(wǎng)絡(luò)模型的FC1、FC2全連接層后各自添加一個dropout層,設(shè)置丟棄比例為0.5,同時在FC1、FC2全連接層上使用L2正則化與參數(shù)放棄法融合,L2
正則化設(shè)置懲罰系數(shù)為0.001,并在每個卷積層、全連接層后添加一層批量標(biāo)準(zhǔn)化層(Batch Normalization,BN)。圖3所示為優(yōu)化后的卷積神經(jīng)網(wǎng)絡(luò)搭建的流程圖。
圖3 優(yōu)化后網(wǎng)絡(luò)模型的工作流程
各層訓(xùn)練參數(shù)的情況:輸入層輸入圖像的尺寸為224×224×1的灰度圖像,softmax分類器輸出層中的神經(jīng)元個數(shù)與所要識別類別的個數(shù)相等,各層參數(shù)的情況見表1。
表1 優(yōu)化后網(wǎng)絡(luò)各層的參數(shù)情況
根據(jù)表1所示優(yōu)化前、后網(wǎng)絡(luò)各層的參數(shù)情況比較,可以發(fā)現(xiàn)在所設(shè)計的9層卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)的基礎(chǔ)上,新添加的BN和dropout層,對于輸出特征圖的形狀尺寸與輸入尺寸相同,即批標(biāo)準(zhǔn)化層與dropout層對特征圖的處理不會改變特征圖的形狀。
圖4 所示為優(yōu)化后的網(wǎng)絡(luò)模型經(jīng)過1 000次的迭代訓(xùn)練后的實驗結(jié)果。
圖4 優(yōu)化卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練后的實驗結(jié)果
由圖4(a)可見,loss隨著迭代次數(shù)的增加收斂情況較好,val_loss與優(yōu)化前相比,上升的趨勢明顯被抑制,說明優(yōu)化后的網(wǎng)絡(luò)模型,對抑制過擬合有一定的效果。
由圖4(b)可見,隨著迭代次數(shù)的增加,acc與val_acc曲線,總的來看一直靠的比較近,之間的差距并不是很大,過擬合現(xiàn)象被明顯改善,說明優(yōu)化后的網(wǎng)絡(luò)模型對抑制過擬合有一定的效果。
優(yōu)化前、后的網(wǎng)絡(luò)模型分別在訓(xùn)練集和測試集上進(jìn)行評估,保留3位小數(shù),見表2。
表2 優(yōu)化前、后卷積神經(jīng)網(wǎng)絡(luò)模型的評估
從表2中模型評估來看,同樣也反映出抑制過擬合的效果,測試集的損失函數(shù)從優(yōu)化前的92.8%降到了79.2%,識別準(zhǔn)確率從優(yōu)化前的83.4%升到87.0%,準(zhǔn)確率提高了3.6%,提高了網(wǎng)絡(luò)模型對測試集新樣本的泛化能力。
本文采用開源的HKPU-FKP指關(guān)節(jié)紋數(shù)據(jù)集,針對設(shè)計一個深度為9層的卷積神經(jīng)網(wǎng)絡(luò)模型存在一定過擬合現(xiàn)象,優(yōu)化改進(jìn)網(wǎng)絡(luò)模型的結(jié)構(gòu),并通過編譯訓(xùn)練后,分析實驗結(jié)果。優(yōu)化后的網(wǎng)絡(luò)模型起到了抑制過擬合的效果,并提高了在測試集未知數(shù)據(jù)上的準(zhǔn)確率,增強了網(wǎng)絡(luò)模型的泛化能力。
(1)對指關(guān)節(jié)紋圖像進(jìn)行預(yù)處理,減小輸入數(shù)據(jù)的大小,縮短訓(xùn)練時間,有利于紋理特征的提取和對網(wǎng)絡(luò)過擬合的抑制作用。
(2)在原網(wǎng)絡(luò)結(jié)構(gòu)基礎(chǔ)上,全連接層后添加dropout層,抑制過擬合現(xiàn)象,提高該網(wǎng)絡(luò)模型泛化能力;全連接層上使用L2正則化與參數(shù)放棄法融合,限制FC1,F(xiàn)C2全連接層的權(quán)重參數(shù)規(guī)模的同時放棄驗證誤差增大的參數(shù),避免網(wǎng)絡(luò)神經(jīng)元過度學(xué)習(xí),達(dá)到抑制網(wǎng)絡(luò)模型過擬合的目的;在卷積層、全連接層之后添加一層批標(biāo)準(zhǔn)化層(BN),為下一層的輸入數(shù)據(jù)做好歸一化處理。
(3)提出的參數(shù)放棄法,訓(xùn)練網(wǎng)絡(luò)時,不僅有訓(xùn)練集數(shù)據(jù),還加入了測試集數(shù)據(jù),添加測試集數(shù)據(jù)之后,可以在訓(xùn)練過程中,根據(jù)網(wǎng)絡(luò)模型在測試集上的表現(xiàn),及時停止網(wǎng)絡(luò)過擬合,提高訓(xùn)練速度和泛化能力。
(4)本實驗結(jié)果可以提高該生物特征的安全性。
(5)與其他生物特征相比,指關(guān)節(jié)紋特征具有表現(xiàn)穩(wěn)定、便于采集、易與手形其他特征進(jìn)行融合,相比于人臉、聲音等生物特征涉及隱私較小,人們更易于接受。
在基礎(chǔ)研究領(lǐng)域,包括一些應(yīng)用科技領(lǐng)域,要尊重科學(xué)研究靈感瞬間性、方式隨意性、路徑不確定性的特點,允許科學(xué)家自由暢想、大膽假設(shè)、認(rèn)真求證。不要以出成果的名義干涉科學(xué)家的研究,不要用死板的制度約束科學(xué)家的研究活動。很多科學(xué)研究要著眼長遠(yuǎn),不能急功近利,欲速則不達(dá)。
——2016年5月30日,習(xí)近平在全國科技創(chuàng)新大會上的講話