李偉劍,金 建, 邸 思*
(1.廣州中國(guó)科學(xué)院先進(jìn)技術(shù)研究所, 廣東 廣州 511458;2.成都理工大學(xué)信息科學(xué)與技術(shù)學(xué)院, 四川 成都 610059)
現(xiàn)有的指靜脈識(shí)別算法大致分為基于細(xì)節(jié)及特征點(diǎn)的方法[1],基于局部模式的方法[2-3]以及基于紋理網(wǎng)絡(luò)的方法[4-5]?;诩?xì)節(jié)及特征點(diǎn)的方法首先通過(guò)對(duì)圖像的預(yù)處理,盡可能的突出靜脈紋理部分,進(jìn)而提取靜脈結(jié)構(gòu)中符合要求的特征點(diǎn),并以此為基礎(chǔ)進(jìn)行圖像匹配識(shí)別。這類方法在一定程度上綜合了后兩類方法的優(yōu)勢(shì),發(fā)展前景較好。
日本日立公司的Yusuke Matsuda團(tuán)隊(duì)將圖像強(qiáng)度輪廓的曲率用于提取特征點(diǎn),并提出了一種手指形狀模型和非剛性配準(zhǔn)方法,降低了由于手指姿勢(shì)變化引起的形變影響,增加了特征點(diǎn)的數(shù)量,提高了識(shí)別精度[6]。馬來(lái)西亞馬六甲信息科學(xué)與技術(shù)學(xué)院多媒體學(xué)院的Ardianto William團(tuán)隊(duì)提出了一種混合直方圖描述符,利用二進(jìn)制梯度輪廓(Binary Gradient Contours, BGC)提取紋理以及幅度分量,并使用局部直方圖以確定混合紋理描述符的符號(hào)和數(shù)值的權(quán)重分布,該方法有效地降低了等誤率[7]。國(guó)防科技大學(xué)的崔靜團(tuán)隊(duì)通過(guò)采用基于Barron算子的改進(jìn)Harris角點(diǎn)檢測(cè)算法對(duì)靜脈紋理中的交叉點(diǎn)進(jìn)行檢測(cè),并通過(guò)非最大值抑制以及角點(diǎn)篩選方法,有效地提高了靜脈紋理中角點(diǎn)檢測(cè)的有效性[8]。山東財(cái)經(jīng)大學(xué)的孟憲靜團(tuán)隊(duì)則根據(jù)手指靜脈圖像對(duì)比度低、模糊等特點(diǎn),利用灰度不均勻矯正增強(qiáng)靜脈細(xì)節(jié),在采用尺度不變性特征變換(Scale-invariant feature transform,SIFT)檢測(cè)特征點(diǎn)的同時(shí)還考慮了潛在的特征匹配點(diǎn),其發(fā)表的方法在香港理工大學(xué)手指靜脈庫(kù)上取得了較好的效果[9]。上述幾種方法都將圖像處理成灰度圖后作為檢測(cè)特征點(diǎn)的源圖,盡管都采取了一些去噪、圖像增強(qiáng)算法使靜脈紋理更加突出,但圖像中依然會(huì)出現(xiàn)一些不規(guī)則陰影以及非靜脈特征,對(duì)下一步特征點(diǎn)的檢測(cè)造成干擾。同時(shí),上述方法以靜脈紋理交點(diǎn)或在某一方向上具有較大曲率值的像素點(diǎn)作為特征點(diǎn),經(jīng)過(guò)刷選后,可供匹配分類的特征點(diǎn)可能不足,從而增大誤匹配的幾率。針對(duì)這些問(wèn)題,本文提出基于閾值分割后的靜脈紋理二值圖進(jìn)行特征提取,最大程度消除非靜脈因素的干擾。同時(shí)采用FAST算法檢測(cè)靜脈紋理邊緣上符合要求的像素點(diǎn)作為目標(biāo)特征點(diǎn),并將其描述成高維向量用于后續(xù)匹配。在匹配過(guò)程中,通過(guò)以特征點(diǎn)為中心構(gòu)建圓形鄰域以判斷局部最優(yōu)匹配質(zhì)量,從而減少錯(cuò)誤匹配對(duì)數(shù)目,最后通過(guò)綜合正確匹配對(duì)個(gè)數(shù)以及平均歐氏距離兩方面因素計(jì)算加權(quán)匹配距離,并以此衡量圖片之間的相似程度。本文提出的方法在山東大學(xué)公開(kāi)指靜脈數(shù)據(jù)庫(kù)(SDU-MLA)中取得了較好的識(shí)別結(jié)果,算法的有效性得到驗(yàn)證。
指靜脈數(shù)據(jù)庫(kù)中樣本的采集原理是基于靜脈血管相對(duì)于骨骼以及肌肉對(duì)于近紅外光線吸收程度的不同,從而在圖像中凸顯手指靜脈血管的紋路。但由于在實(shí)際采集過(guò)程中,光線的強(qiáng)度會(huì)對(duì)圖像造成很大的影響,光線過(guò)強(qiáng)會(huì)導(dǎo)致圖像中出現(xiàn)大塊的亮斑,光線過(guò)弱又會(huì)導(dǎo)致靜脈紋理和背景混淆。同時(shí)被采集的個(gè)體情況也有較大差異,手指的粗細(xì)程度,表層皮膚的厚度都會(huì)對(duì)采集到的圖像有著很大的影響。因此對(duì)于采集到的靜脈圖像原始圖,需要對(duì)其進(jìn)行感興趣區(qū)域(Region of interest, ROI)提取,去噪,增強(qiáng),分割等處理。
由于手指輪廓邊緣為橫向分布,因此本文使用Sobel算子[10]縱向卷積核對(duì)手指區(qū)域進(jìn)行粗提取,接著對(duì)其沿著梯度方向進(jìn)行非極大值抑制,最終通過(guò)線性擬合分別擬合出手指的上下輪廓,并以此對(duì)原圖進(jìn)行ROI提取,結(jié)果如圖1所示。從手指ROI圖中可以看到,靜脈的紋理較為模糊,與背景的對(duì)比度較低,如果直接進(jìn)行紋理的二值化,將會(huì)丟失大部分可用的靜脈信息或?qū)⒈尘板e(cuò)誤的劃分成靜脈結(jié)構(gòu),這將嚴(yán)重地影響后續(xù)的匹配識(shí)別結(jié)果,因此需要對(duì)圖像進(jìn)行增強(qiáng)處理。
圖1 ROI輪廓圖Fig.1 ROI extracted image
圖像經(jīng)過(guò)增強(qiáng)以后,較為清晰的突出了紋理特征,但為了能夠提取出整個(gè)紋理結(jié)構(gòu),進(jìn)一步消除背景以及噪點(diǎn)等因素的影響,還需要對(duì)圖像進(jìn)行閾值分割。本文采用了NiBlack算法[13],利用其動(dòng)態(tài)局部閾值的處理方法,可以有效的尋找到合適的閾值,二值化分割結(jié)果如圖2所示。至此,圖像預(yù)處理過(guò)程結(jié)束,最終獲得了靜脈紋理突出的二值圖像。
圖2 二值化分割圖Fig.2 Binary segmentation image
基于細(xì)節(jié)及特征點(diǎn)的指靜脈識(shí)別方法,其基礎(chǔ)與前提是要找到合適的特征點(diǎn)。本文采用了FAST算法[14-15]提取靜脈紋理中的特征點(diǎn)。該方法通過(guò)比較像素點(diǎn)的灰度值進(jìn)行特征點(diǎn)判定,降低了特征點(diǎn)檢測(cè)的時(shí)間,可明顯提高檢測(cè)到的特征點(diǎn)數(shù)目,尤其適于對(duì)指靜脈二值圖的特征點(diǎn)檢測(cè)。特征點(diǎn)檢測(cè)結(jié)果如圖3所示,相較于直接用灰度圖進(jìn)行特征點(diǎn)檢測(cè)(如圖4),基于二值圖像檢測(cè)到的特征點(diǎn)分布更加均勻,且都位于從背景分割出的靜脈紋理輪廓邊緣上。
圖3 基于二值圖檢測(cè)Fig.3 Detection based on binary image
圖4 基于灰度圖檢測(cè)Fig.4 Detection based on grayscale image
通過(guò)FAST算法檢測(cè)到的特征點(diǎn)只包含了位置信息,無(wú)法直接用于匹配識(shí)別,必須根據(jù)一定的規(guī)則對(duì)特征點(diǎn)進(jìn)行向量化描述。本文將計(jì)算特征點(diǎn)鄰域梯度值以及方向,并以此構(gòu)建梯度直方圖用以描述特征點(diǎn)。在特征點(diǎn)檢測(cè)過(guò)程中,我們構(gòu)建了一個(gè)直徑為7 pixel的圓形區(qū)域,為了保持一致性,在描述時(shí)依舊以直徑為7 pixel來(lái)計(jì)算鄰域像素的梯度值和方向。設(shè)像素點(diǎn)P的坐標(biāo)為(x,y),其梯度的模m(x,y)以及方向θ(x,y)的計(jì)算公式如下:
(1)
(2)
其中L表示高斯尺度空間,是由圖像和高斯函數(shù)G(x,y,σ)進(jìn)行卷積計(jì)算得到。由于高斯濾波器的主要響應(yīng)范圍在6σ內(nèi),又因?yàn)樘卣鼽c(diǎn)描述的鄰域直徑為7 pixel,因此這里的σ=1.17。
計(jì)算得到梯度方向以后,使用直方圖統(tǒng)計(jì)特征點(diǎn)鄰域內(nèi)像素對(duì)應(yīng)的梯度方向和幅值。構(gòu)建一個(gè)方向直方圖,其橫軸是梯度方向的角度大小,縱軸是梯度方向?qū)?yīng)梯度幅值的累加。方向直方圖的峰值即代表了特征點(diǎn)的主方向。為了保持描述向量的旋轉(zhuǎn)不變性,要以特征點(diǎn)為中心,在附近鄰域內(nèi)將坐標(biāo)軸旋轉(zhuǎn)θ(特征點(diǎn)的主方向)角度,即將坐標(biāo)軸旋轉(zhuǎn)為特征點(diǎn)的主方向。旋轉(zhuǎn)后以特征點(diǎn)為中心取16×16的窗口,并將其分成16個(gè)4×4的小塊,同樣構(gòu)建方向直方圖,但以每45°為一個(gè)區(qū)間,這樣每個(gè)小塊有8個(gè)方向的梯度強(qiáng)度信息。因此最終每個(gè)特征點(diǎn)可以得到128維的特征描述向量。
傳統(tǒng)的特征點(diǎn)匹配過(guò)程中,一般以歐氏距離衡量?jī)蓚€(gè)特征點(diǎn)之間的相似度,令n表示兩幅圖像之間成功匹配的特征點(diǎn)對(duì)數(shù),通常以n的大小來(lái)衡量?jī)煞鶊D像的相似度。在特征點(diǎn)匹配過(guò)程中,由于靜脈二值圖像存在相似特征點(diǎn),若特征點(diǎn)之間只以最小歐氏距離來(lái)判斷是否匹配成功,將會(huì)導(dǎo)致大量錯(cuò)誤匹配。本文將相應(yīng)的改進(jìn)匹配策略,減少錯(cuò)誤匹配對(duì)數(shù),同時(shí)綜合兩幅圖像之間的平均歐氏距離以及成功匹配的特征點(diǎn)對(duì)數(shù),構(gòu)建衡量?jī)煞鶊D像相似度的匹配距離。
用di,j表示測(cè)試圖像中的特征點(diǎn)向量i與數(shù)據(jù)庫(kù)圖像中的特征點(diǎn)向量j之間的歐氏距離,
(3)
其中:i∈[1,N1],j∈[1,N2]。
對(duì)于測(cè)試圖像中的特征點(diǎn)I(x1,y1),在數(shù)據(jù)庫(kù)圖像中構(gòu)建以相同的坐標(biāo)點(diǎn)(x1,y1)為圓心,以r為半徑的圓形鄰域OI,若數(shù)據(jù)庫(kù)圖像中在該圓形鄰域內(nèi)存在m個(gè)特征點(diǎn),分別計(jì)算測(cè)試圖像中的特征點(diǎn)向量i與數(shù)據(jù)庫(kù)圖像中這m個(gè)特征點(diǎn)向量之間的歐氏距離,若其中最小歐氏距離為dip,則dip為局部最優(yōu)匹配。接著對(duì)數(shù)據(jù)庫(kù)圖像中的所有非圓形鄰域OI內(nèi)的(N2-m)個(gè)特征點(diǎn)進(jìn)行計(jì)算,若其中最小歐氏距離為diq,則diq為全局最優(yōu)匹配。若dip=diq,則認(rèn)為測(cè)試圖像中的特征點(diǎn)I和數(shù)據(jù)庫(kù)圖像中的特征點(diǎn)P是正確匹配對(duì)。若dip≠diq,則認(rèn)為對(duì)于測(cè)試圖像的特征點(diǎn)I,數(shù)據(jù)庫(kù)圖像中沒(méi)有相對(duì)應(yīng)的匹配點(diǎn)。
由于在圖像預(yù)處理步驟中已經(jīng)精確的提取了每一幅指靜脈圖像的ROI區(qū)域,因此對(duì)于同源的指靜脈圖像,即使在圖像提取過(guò)程中存在一定程度的平移或旋轉(zhuǎn),匹配的特征點(diǎn)點(diǎn)對(duì)的坐標(biāo)位置也應(yīng)處在一個(gè)相近的區(qū)域范圍內(nèi)。而對(duì)于異源的指靜脈圖像,其局部最優(yōu)匹配通常并非是全局最優(yōu)匹配,因此基于圓形鄰域進(jìn)行匹配判定可以最大程度減少異源圖像之間的匹配對(duì)數(shù)目n。同時(shí),本文將測(cè)試圖像與訓(xùn)練圖像之間所有判定為正確匹配對(duì)的平均歐氏距離也納入相似度的評(píng)判范疇,因?yàn)閷?duì)于異源指靜脈圖像來(lái)說(shuō),即使存在某些局部最優(yōu)匹配恰好也為全局最優(yōu)匹配的情況,其對(duì)應(yīng)的平均歐氏距離也將大于同源圖像之間正確匹配對(duì)的平均歐氏距離。兩幅圖像之間的匹配距離D定義如下:
(4)
本文提出的方法將在SDU-MLA(山東大學(xué)機(jī)器學(xué)習(xí)與數(shù)據(jù)挖掘?qū)嶒?yàn)室)公開(kāi)的指靜脈數(shù)據(jù)庫(kù)上進(jìn)行評(píng)估,SDU-MLA手指靜脈數(shù)據(jù)庫(kù)是同源多模態(tài)特征(SDUMLA-HMT)的一個(gè)子集數(shù)據(jù)庫(kù)[16]。 該數(shù)據(jù)集是來(lái)自于106個(gè)受試者,每個(gè)受試者分別采集雙手的食指,中指和無(wú)名指,每個(gè)手指采集6幅圖像。因此,實(shí)驗(yàn)中使用的數(shù)據(jù)集包含636根手指,3 816幅圖像。本文采用第2節(jié)所述方法將數(shù)據(jù)庫(kù)中所有圖片處理成二值化圖像,并將圖像統(tǒng)一裁剪成180×80的尺寸再進(jìn)行后續(xù)的測(cè)試。
對(duì)于SDU-MLA數(shù)據(jù)集中的636類手指,統(tǒng)一選擇每一類的第3幅圖片作為測(cè)試樣本,每一類的其它5幅作為訓(xùn)練樣本,測(cè)試集中共有636幅圖片,訓(xùn)練集中共有3 180幅圖片。分別以圖片高度的5%(4 pixel)作為起始半徑和遞增步長(zhǎng)來(lái)設(shè)置r,同時(shí)將r的最大測(cè)試范圍設(shè)定為圖片高度的一半(40 pixel),即r=4,8,12,...,40。其不同的r值相對(duì)應(yīng)的識(shí)別率(Rank-1 Recognition Rate)如圖5所示。可以看到當(dāng)r=24時(shí)識(shí)別率達(dá)到峰值,r的值大于或者小于24時(shí),識(shí)別率都會(huì)有一定程度的下降。本文主要關(guān)注算法在數(shù)據(jù)集上的識(shí)別率等相關(guān)指標(biāo),因此后續(xù)的評(píng)估都將基于r=24進(jìn)行。
圖5 不同r對(duì)識(shí)別率的影響Fig.5 Recognition rate of different r
在識(shí)別模式下,假設(shè)一幅手指靜脈圖像的來(lái)源未知,需要利用這幅圖像識(shí)別注冊(cè)者的身份。本文將在每一類圖像中隨機(jī)抽選一幅圖像作為測(cè)試圖像,剩下的5幅圖像作為訓(xùn)練圖像。相應(yīng)地在數(shù)據(jù)庫(kù)的測(cè)試集中有636幅圖像,數(shù)據(jù)庫(kù)中的訓(xùn)練集有3 180幅圖像。具體的實(shí)驗(yàn)過(guò)程為,將測(cè)試集和訓(xùn)練集的所有圖像經(jīng)過(guò)圖像預(yù)處理和閾值分割,生成二值化圖像,并使用特征點(diǎn)提取和描述算法,將二值化圖像轉(zhuǎn)化為128維向量。取出測(cè)試集中的一個(gè)樣本,根據(jù)公式(4)計(jì)算其與測(cè)試集中每一個(gè)樣本的匹配距離,若其匹配距離最小的測(cè)試集樣本對(duì)應(yīng)的類別與該訓(xùn)練樣本的類別一致,則認(rèn)為該測(cè)試樣本識(shí)別成功。對(duì)測(cè)試集中的636個(gè)樣本進(jìn)行相同的匹配識(shí)別操作,統(tǒng)計(jì)其識(shí)別率。重復(fù)上述實(shí)驗(yàn)10次,在MLA數(shù)據(jù)集上的平均識(shí)別率以及達(dá)到100%識(shí)別率時(shí)的平均最低序[17]如表1所示。從識(shí)別模式下的實(shí)驗(yàn)結(jié)果已經(jīng)可以看出,本文提出的方法具有可靠性。
表1 識(shí)別模式下實(shí)驗(yàn)結(jié)果
圖6展示了本文方法的受試者工作特征曲線(Receiver Operating Characteristic, ROC)。通過(guò)驗(yàn)證模式的結(jié)果可以看出,通過(guò)本文提出的圖像處理及匹配算法,能夠較好地區(qū)分出同源與異源圖像。
圖6 受試者工作特征曲線Fig.6 Receiver operating characteristic
通過(guò)將識(shí)別錯(cuò)誤的測(cè)試圖像和所對(duì)應(yīng)類別的訓(xùn)練圖像以及誤分類的訓(xùn)練圖像進(jìn)行比對(duì),發(fā)現(xiàn)導(dǎo)致出現(xiàn)識(shí)別誤差的因素有:(1)個(gè)別測(cè)試圖像在采集時(shí)出現(xiàn)了較大的平移或旋轉(zhuǎn),使得在經(jīng)過(guò)圖像預(yù)處理以及閾值分割以后,生成的二值圖像與同類別的其它圖像有著較大差異,超過(guò)了匹配識(shí)別算法可以彌補(bǔ)的平移旋轉(zhuǎn)范圍,以至于出現(xiàn)了錯(cuò)誤匹配。(2)個(gè)別測(cè)試圖像采集時(shí)手指處于彎曲狀態(tài),導(dǎo)致有部分手指部位不在相機(jī)的焦距范圍內(nèi),由此采集圖像的一些位置會(huì)出現(xiàn)大范圍陰影,覆蓋了靜脈紋理網(wǎng)絡(luò),使得與正常采集的同類其他圖像產(chǎn)生較大不同,無(wú)法得到正確識(shí)別結(jié)果。通過(guò)上述分析可知,出現(xiàn)識(shí)別誤差的主要原因是由于采集時(shí)的一些錯(cuò)誤導(dǎo)致測(cè)試圖像與其對(duì)應(yīng)類別的訓(xùn)練圖像有著較大差異。
5.2小節(jié)分別從識(shí)別模式和驗(yàn)證模式下展現(xiàn)了本文提出方法的有效性,本小節(jié)通過(guò)與本文提出方法相類似的方法進(jìn)行比較,在相同的數(shù)據(jù)集上進(jìn)行相關(guān)性能參數(shù)對(duì)比。與本文進(jìn)行比較的有基于FAST+BRIEF的方法[18]以及基于傳統(tǒng)SIFT的方法[19],比較結(jié)果如表2所示。其中,識(shí)別率的比較基于相同的測(cè)試集和訓(xùn)練集,測(cè)試集和訓(xùn)練集的劃分方法如5.1小節(jié)所述。不同方法的EER按照5.2小節(jié)中驗(yàn)證模式所述方法進(jìn)行計(jì)算。圖7展示不同方法的ROC曲線。通過(guò)以上的比較可以看出,本文提出的方法在識(shí)別率和EER上都取到了更好的結(jié)果。
表2 不同方法的結(jié)果比較
Tab.2 Performance for different methods
MethodRecognition rateEERFAST+BRIEF0.8780.133SIFT0.9660.063Proposed method0.9930.019
圖7 不同方法的ROC曲線Fig.7 ROC of different methods
現(xiàn)有的指靜脈識(shí)別方法通常以包含靜脈分布的灰度圖為對(duì)象進(jìn)行算法設(shè)計(jì),但其中存在的灰度不均勻以及所包含的非靜脈紋理結(jié)構(gòu)常常對(duì)識(shí)別結(jié)果產(chǎn)生不利影響。因此,本文提出了基于包含靜脈分布的二值圖像的指靜脈識(shí)別算法。該方法采用非極大值抑制的FAST算法用以檢測(cè)特征點(diǎn),并對(duì)其進(jìn)行向量化描述。進(jìn)而提出在圓形鄰域內(nèi)進(jìn)行特征點(diǎn)匹配并考察其匹配質(zhì)量。通過(guò)綜合兩幅圖像之間的平均歐氏距離以及成功匹配的特征點(diǎn)對(duì)數(shù),構(gòu)建衡量?jī)煞鶊D像相似度的匹配距離,并據(jù)此給出匹配結(jié)果。針對(duì)SDU-MLA數(shù)據(jù)庫(kù)的測(cè)試結(jié)果表明,本文提出的指靜脈識(shí)別方法的識(shí)別率為0.993,EER為0.019 6,其識(shí)別結(jié)果優(yōu)于常見(jiàn)的特征提取與識(shí)別方法。