李厚君
摘 要:針對(duì)基于快速傅里葉變換的眉毛識(shí)別方法(FFTER)識(shí)別速度較慢的問(wèn)題,設(shè)計(jì)了一種新的基于梯度模板匹配的眉毛識(shí)別方法(GTMER).該方法識(shí)別速度更快,更能夠適合于實(shí)時(shí)應(yīng)用.首先,利用圖像梯度特征,快速匹配出純眉毛模板的最相似區(qū)域;然后,通過(guò)小范圍內(nèi)的精準(zhǔn)調(diào)整,得到一個(gè)準(zhǔn)確的匹配位置;最后,利用傅里葉頻譜距離,將待處理眉毛圖像識(shí)別出來(lái).實(shí)驗(yàn)表明:GTMER的識(shí)別速度最高比FFTER提升約38%,同時(shí)在BJUTED眉毛數(shù)據(jù)庫(kù)上的識(shí)別正確率也達(dá)到98.12%.
關(guān)鍵詞:眉毛識(shí)別;模板匹配;圖像梯度;傅里葉頻譜距離;生物特征識(shí)別
中圖分類(lèi)號(hào): TP317.4 DOI:10.16375/j.cnki.cn45-1395/t.2018.03.010
0 引言
生物特征識(shí)別作為一項(xiàng)有用的身份驗(yàn)證技術(shù),以其準(zhǔn)確性、安全性和實(shí)用性得到了廣泛的認(rèn)可,尤其是指紋識(shí)別、人臉識(shí)別和虹膜識(shí)別等都已經(jīng)大量應(yīng)用于現(xiàn)實(shí)生活中[1].隨著研究的不斷深入,人體的各個(gè)方面特征,如步態(tài)[2]、耳朵[3]、掌紋[4]、指關(guān)節(jié)[5]等,都已經(jīng)被使用并作為一種獨(dú)立的生物特征進(jìn)行研究.
在眾多的生物特征識(shí)別技術(shù)里,虹膜識(shí)別被認(rèn)為是準(zhǔn)確性和安全性較高的一種技術(shù).但是,要在開(kāi)放環(huán)境中對(duì)虹膜實(shí)現(xiàn)自然采集是困難的.因?yàn)楹缒ぬ幱谝滓苿?dòng)的物體(眼球、頭部)上,成像需要使用近紅外光;并且它的尺寸很小,要求近距離的采集[6].此外,一旦出現(xiàn)閉眼或眨眼的情況,被采集的虹膜信息的完整性將難以保證.為此,Park等[6]提出了眼周生物特征識(shí)別的概念.相比于虹膜,眼周可以通過(guò)可見(jiàn)光,在一個(gè)相對(duì)遠(yuǎn)的距離下實(shí)現(xiàn)自然的采集,它甚至可以使用已有的人臉采集設(shè)備與人臉圖像一起被采集到.眼周識(shí)別可以在人臉鼻子及以下部分被遮擋時(shí),替代人臉識(shí)別.Park等使用了568人的模板庫(kù)以及1 136幅測(cè)試圖像進(jìn)行眼周識(shí)別實(shí)驗(yàn),正確率最高達(dá)到81.60%;但是當(dāng)虹膜或眼睛被遮擋時(shí),其平均識(shí)別正確率分別下降了3.65%和15.95%[6].可見(jiàn),Park等所討論的眼周識(shí)別方法對(duì)眼睛的依賴較強(qiáng),一旦被采集者閉上眼睛,它的識(shí)別正確率將明顯降低.雖然Park等預(yù)想在進(jìn)一步研究中將眼睛輪廓作為一個(gè)特征加入眼周識(shí)別中,但眼睛的形狀變化是多種多樣的,這為特征提取帶來(lái)不少困難.而另一方面,將眉毛包含在眼周識(shí)別區(qū)域內(nèi)時(shí),平均識(shí)別正確率提高了10.66%[6].可見(jiàn)眉毛對(duì)于眼周識(shí)別的重要性.事實(shí)上,眉毛在人臉中的作用不亞于眼睛[7];而且Li等[8]已經(jīng)證明了眉毛是具有強(qiáng)可區(qū)分性的,其在801人的數(shù)據(jù)庫(kù)中眉毛識(shí)別的正確率最高為75.66%,600人時(shí)最高達(dá)到78.50%,這與Park等討論的眼周識(shí)別正確率很接近.因此,單獨(dú)使用眉毛進(jìn)行身份識(shí)別是可行和有效的.
眉毛識(shí)別作為一種獨(dú)立的生物特征識(shí)別技術(shù),仍不被廣泛接受,相關(guān)的研究也十分有限[8-13].之前的眉毛識(shí)別方法[9-13],均是在檢測(cè)識(shí)別框架下提出的,它們的識(shí)別正確率在80%~94%之間,而且需要從采集圖像中手動(dòng)圈選出眉毛區(qū)域.Li等[8]提出了一種匹配識(shí)別框架的思想,它使用快速傅里葉變換的模板匹配方法(Fast Fourier Transform,F(xiàn)FT),將匹配和識(shí)別有效結(jié)合在一起,實(shí)現(xiàn)了一種全自動(dòng)的眉毛識(shí)別方法.并且在109人的公開(kāi)眉毛數(shù)據(jù)庫(kù)BJUTED[14]中,取得了98.12%的高識(shí)別正確率.但是,使用FFT并不是最佳的模板匹配方法,而它較低的匹配速度也影響到眉毛識(shí)別的效率.因此,有必要使用更加高效的模板匹配方法來(lái)替代FFT.高效的模板匹配方法很多,如快速正交Haar變換模板匹配算法(Fast Orthogonal Haar Transform,F(xiàn)OHT)[15],它是一種全搜索等價(jià)算法,能取得與FFT一致的匹配結(jié)果,并且在多模板匹配時(shí)優(yōu)勢(shì)顯著.但是,F(xiàn)OHT在匹配篩選過(guò)程中需要預(yù)先設(shè)定閾值,這在自動(dòng)眉毛識(shí)別過(guò)程中是困難的.梯度模板匹配算法(Gradient Template Matching,GTM)[16],是另一種高效的模板匹配方法,它使用圖像梯度特征來(lái)進(jìn)行匹配處理,但是其匹配結(jié)果可能會(huì)與FFT不一致,即GTM可能得不到精確的匹配結(jié)果,從而可能導(dǎo)致識(shí)別正確率的下降.
圖像的梯度已經(jīng)被證明是一種區(qū)分性很強(qiáng)的特征表示方法[17-18],并且具有一定的抗噪聲和光照干擾能力[19].為此,本文仍使用梯度模板匹配方法,但是對(duì)匹配結(jié)果進(jìn)行微調(diào)處理,以確保能獲得很高的識(shí)別正確率.由于在使用圖像梯度進(jìn)行匹配時(shí),對(duì)梯度值進(jìn)行了過(guò)濾及量化處理,所以這種眉毛識(shí)別方法非常高效.本文將詳細(xì)討論這種基于梯度模板匹配的眉毛識(shí)別方法(GTMER).
1 梯度模板匹配方法
梯度模板匹配方法(GTM)是一種十分高效的模板匹配方法,它使用圖像梯度特征,使得匹配過(guò)程具有一定的抗光照及噪聲干擾能力.因此在模板不發(fā)生較大形變情況下,是一種理想的模板匹配方法.GTM的基本思路是:首先,將圖像表征為其梯度特征圖;然后,將圖像梯度特征圖進(jìn)行過(guò)濾、量化以及拓展處理;最后,構(gòu)建圖像的梯度響應(yīng)圖,并最終完成模板匹配任務(wù).注意到,由于在匹配過(guò)程中對(duì)圖像的梯度進(jìn)行了過(guò)濾、量化及拓展處理,因此GTM的匹配結(jié)果可能與FFT不一致,為此它也是一種非全搜索等價(jià)算法.
1.1 圖像梯度
圖像的梯度計(jì)算方法會(huì)影響到GTM的匹配效率和準(zhǔn)確度,因此找到一種好的梯度計(jì)算方法很有必要.另一方面,圖像的平滑操作也有利于產(chǎn)生更好的梯度特征,因?yàn)槠交僮髂軌褐?、弱化或消除圖像中的細(xì)節(jié)、突變、邊緣和噪聲,從而更有利于梯度準(zhǔn)確地表現(xiàn)出物體邊緣[16,20].為此,在實(shí)驗(yàn)部分測(cè)試了不同尺度模板的高斯平滑和均值平滑對(duì)圖像梯度特征的影響.事實(shí)上,對(duì)于眉毛圖像而言,使用7×7大小的均值平滑模板能得到最佳的結(jié)果.高斯平滑之所以不如均值平滑,原因可能是它是一種加權(quán)模糊方法,這對(duì)采集的眉毛圖像細(xì)節(jié)模糊不足,所以產(chǎn)生了過(guò)多的干擾梯度特征值.
對(duì)于圖像的梯度計(jì)算,為了增強(qiáng)梯度特征值的魯棒性,本文考慮了圖像的各個(gè)顏色分量,并且令圖像某一點(diǎn)位置上的梯度等于其幅值最大的顏色梯度分量.即,對(duì)于RGB圖像P,其(i,j)點(diǎn)上的梯度分別表示為:
1.2 拓展梯度特征圖
對(duì)圖像梯度特征值進(jìn)行過(guò)濾將有助于進(jìn)一步減少噪聲干擾,并提高梯度匹配的效率.過(guò)濾的原則是:設(shè)定一個(gè)較小閾值threshold,當(dāng)M(i,j) < threshold時(shí),令Px(i,j) = 0和Py(i,j)= 0;否則保持Px(i,j)和Py(i,j)的值不變.threshold值的設(shè)定會(huì)根據(jù)不同的梯度計(jì)算方法有所不同.第3節(jié)給出了針對(duì)BJUTED眉毛數(shù)據(jù)庫(kù)不同梯度計(jì)算方法的一個(gè)最優(yōu)threshold取值.
進(jìn)一步地,需要對(duì)非零梯度特征值進(jìn)行量化處理.首先,將非零梯度特征值的方向角度轉(zhuǎn)到0~180o的范圍空間內(nèi).圖像(i,j)位置的梯度方向角度θ可按式(4)計(jì)算,
其中,符號(hào)“[?]”表示向上取整運(yùn)算;Binary(k,n)表示將整數(shù)k轉(zhuǎn)換為一個(gè)n位的二進(jìn)制數(shù),并且其第k位為1,其余位為0.例如,binary(1,3) = ‘001,binary(2,3) = ‘010,binary(3,3) =‘100.由于n是預(yù)先指定的,因此為了描述簡(jiǎn)單,本文余下部分將把Binary(k,n)記為Bk.
為了進(jìn)一步增強(qiáng)量化后圖像特征的抗噪能力,圖像中每個(gè)位置上的量化值q(i,j)將被重新設(shè)定為其3×3鄰域中出現(xiàn)次數(shù)最多的量化值,即:
[qs(i, j)=argmaxk∈{1, 2, …, n}{static(Bk, D3×3)}] , (7)
其中D3×3表示圖像(i,j)位置的3×3鄰域,即D3×3 =[i-1,i+1]×[j-1,j+1];static(Bk,D3×3)表示在鄰域D3×3內(nèi),量化值Bk出現(xiàn)的次數(shù).
圖像梯度特征值的量化雖然有利于進(jìn)行快速的匹配處理,但是由于經(jīng)過(guò)了過(guò)濾處理,這使得圖像梯度特征值變得非常稀疏,從而增大了匹配錯(cuò)誤的可能性.因此需要對(duì)量化特征值進(jìn)行拓展處理,并構(gòu)造出圖像的拓展梯度特征圖.
拓展梯度特征圖通過(guò)將每一點(diǎn)的梯度量化值向它的T×T鄰域拓展而得到.拓展的另一個(gè)目的,是可以將匹配時(shí)的逐點(diǎn)移動(dòng)變成在x和y方向上分別以T為步長(zhǎng)進(jìn)行移動(dòng),這大大提高了匹配計(jì)算的效率.如果用Q表示圖像的拓展梯度特征圖,則Q中的每個(gè)元素都可以表示成其T×T鄰域所有的梯度量化值qs的或位運(yùn)算,即:
其中,符號(hào)“?|?”表示或運(yùn)算;式(8)等號(hào)的右邊則表示了圖像拓展梯度特征圖中的每個(gè)元素Q(i,j),都由其鄰域[D[i-T2, i+T2]×[j-T2, j+T2]]內(nèi)的T×T個(gè)梯度量化值進(jìn)行或運(yùn)算后得到.
1.3 圖像梯度
圖像的梯度響應(yīng)圖是為了加快圖像匹配而使用的一種技術(shù),它將相似性計(jì)算轉(zhuǎn)換為簡(jiǎn)單的檢索操作.由于梯度量化值的有限性——只有n個(gè)不同的梯度量化值,因此可以預(yù)先計(jì)算出每一個(gè)梯度量化值與圖像拓展梯度特征圖Q之間的相似性矩陣,這些相似性矩陣便被稱(chēng)為梯度響應(yīng)圖.可見(jiàn),每個(gè)輸入圖像都只對(duì)應(yīng)n個(gè)不同方向的梯度響應(yīng)圖,利用它們可以進(jìn)一步加速梯度匹配的過(guò)程.
2 基于梯度模板匹配的眉毛識(shí)別方法
匹配識(shí)別框架[8]是一種集匹配與識(shí)別為一體的生物特征識(shí)別框架,它不需要對(duì)識(shí)別目標(biāo)進(jìn)行定位,避免了由于定位不準(zhǔn)確而導(dǎo)致的識(shí)別誤差,如圖1所示.事實(shí)上,匹配識(shí)別框架可以被分為匹配和識(shí)別兩個(gè)階段,而且這兩個(gè)階段存在一一對(duì)應(yīng)關(guān)系.其中匹配階段主要使用“匹配器”匹配出模板的最佳匹配區(qū)域,然后再在識(shí)別階段利用最佳匹配區(qū)域進(jìn)行判別距離的計(jì)算,從而獲得最終識(shí)別結(jié)果.
2.1 匹配器的構(gòu)造
利用GTM可以設(shè)計(jì)出高效的模板匹配方法,但是GTM無(wú)法保證獲得與FFT一致的匹配結(jié)果.為此,有必要在(im,jm)的一個(gè)較小鄰域內(nèi),進(jìn)一步使用歸一化相關(guān)系數(shù)(Normalized Cross-Correlation,NCC)作為相似性度量,計(jì)算出精確的匹配位置.其實(shí)際就是在一個(gè)較小的范圍內(nèi),使用FFT來(lái)定位出精確的匹配位置,即:
對(duì)于眉毛圖像識(shí)別而言,匹配位置的調(diào)整很有效果,圖2展示了GTM的匹配結(jié)果,以及對(duì)它進(jìn)行微調(diào)后的結(jié)果.可以看出,微調(diào)后的匹配位置更加精確.事實(shí)上,根據(jù)實(shí)驗(yàn)發(fā)現(xiàn),經(jīng)過(guò)調(diào)整處理后,更可以將眉毛識(shí)別的正確率提高2%左右.此外,圖2的結(jié)果是在[-2T,2T]×[-2T,2T]鄰域中調(diào)整得到的,這主要是因?yàn)樵趯?shí)驗(yàn)中發(fā)現(xiàn)如果該鄰域取得較小,有些圖像得到的精確匹配位置與實(shí)際仍有偏差,這有可能是因?yàn)閳D像所受光照強(qiáng)度變化較劇烈所引起的.因此,本文在后面的實(shí)驗(yàn)中,均在[-2T,2T]×[-2T,2T]大小的鄰域內(nèi)進(jìn)行微調(diào)操作.
在識(shí)別階段,使用匹配相似度作為識(shí)別判定時(shí),識(shí)別正確率較低[8],因此需要引入健壯性更好的判別距離,以提高識(shí)別正確率.本文采用了Li等提出的處理方法,即:首先,將模板及其匹配得到的精確匹配的子區(qū)域歸一化至相同的尺寸,如256×512;然后,再分別計(jì)算它們的一維頻譜距離L1_FSD;最后,根據(jù)各個(gè)模板的L1_FSD距離值,可以識(shí)別出待識(shí)別圖像的身份[8],即:
2.2 算法描述
基于梯度模板匹配的眉毛識(shí)別方法(GTMER)是匹配識(shí)別框架下構(gòu)造的一種眉毛識(shí)別方法,其基本思想是:匹配階段使用GTM,且匹配結(jié)束后使用FFT進(jìn)行精確匹配位置微調(diào);而識(shí)別階段使用L1_FSD作為判別距離,并據(jù)此得出識(shí)別結(jié)果.具體算法描述如下:
Step 1 (匹配過(guò)程):
對(duì)于所有模板ti∈Gallery執(zhí)行如下循環(huán):
Step 1.1 使用GTM匹配出ti的匹配子區(qū)域si;
Step 1.2 使用FFT在si的一個(gè)較小領(lǐng)域中,匹配出ti的精確匹配子區(qū)域oi;
Step 2 (識(shí)別過(guò)程):
對(duì)于所有模板ti及其精確匹配子區(qū)域oi,計(jì)算它們的L1_FSD距離值.最終識(shí)別結(jié)果判別為R=argmin{L1_FSD(oi,ti)}.
雖然基于梯度匹配的眉毛識(shí)別方法在GTM的基礎(chǔ)上再次使用了FFT,如Step 1.2 所示,但是,由于FFT僅在si的一個(gè)較小鄰域內(nèi)進(jìn)行,該過(guò)程十分快速,因此,Step 1的整個(gè)計(jì)算效率并沒(méi)有下降太多.
3 實(shí)驗(yàn)結(jié)果及分析
文中的實(shí)驗(yàn)均在BJUTED眉毛數(shù)據(jù)庫(kù)[14]中進(jìn)行.數(shù)據(jù)庫(kù)包含109個(gè)樣本的1 118幅BMP格式圖像,這些圖像均是以眉毛為中心,大小為576×768,且被分為閉眼和睜眼兩類(lèi),每類(lèi)各包含圖像559幅,如圖3所示.數(shù)據(jù)庫(kù)中每個(gè)樣本均對(duì)應(yīng)有這兩類(lèi)圖像,且平均每類(lèi)的圖像不少于5幅.從閉眼圖像中每個(gè)樣本隨機(jī)抽取一幅圖像,并手動(dòng)地在圖像中圈選出其純眉毛區(qū)域以構(gòu)成模板庫(kù),記為CTG.CTG中的眉毛模板平均大小約為166×437,共109個(gè),分別對(duì)應(yīng)109個(gè)樣本.同時(shí),構(gòu)建一個(gè)更小規(guī)模的測(cè)試集,它包含109個(gè)樣本的109幅睜眼圖像,記為PS.使用CTG和PS,針對(duì)GTMER中可能存在的問(wèn)題:圖像模糊、匹配位置微調(diào)和梯度計(jì)算方法的影響,分別進(jìn)行了實(shí)驗(yàn)分析.實(shí)驗(yàn)代碼均使用C++語(yǔ)言進(jìn)行編寫(xiě),并使用一臺(tái)配有i5-2400 CPU的微機(jī),在Win7環(huán)境下使用VS2010進(jìn)行編譯和運(yùn)行.
3.1 圖像平滑操作對(duì)識(shí)別結(jié)果的影響
從1.1節(jié)的討論可以了解到,不同的圖像平滑方法直接影響到眉毛圖像的梯度計(jì)算值,從而導(dǎo)致最終識(shí)別正確率的變化.為了分析圖像平滑操作對(duì)識(shí)別正確率的影響,本文針對(duì)兩種常用的平滑方法:高斯平滑和均值平滑,進(jìn)行了不同尺度平滑卷積核的實(shí)驗(yàn).實(shí)驗(yàn)使用Schaar算子計(jì)算圖像的梯度,結(jié)果如圖4所示.
圖4中,mblur和gblur分別表示使用均值平滑和高斯平滑的方法對(duì)圖像進(jìn)行處理,mblur和gblur標(biāo)記后緊跟的“_5”和“_7”分別表示圖像平滑操作所使用的卷積核的大?。?×5或7×7;R和T分別表示識(shí)別正確率和平均每幅圖像的識(shí)別時(shí)間(時(shí)間單位:s);G-N則表示梯度化后平均每個(gè)眉毛模板的有效梯度值數(shù)量,它直接影響到識(shí)別效率的高低.結(jié)果顯示,對(duì)圖像使用均值平滑操作總要優(yōu)于高斯平滑.在相同條件下,均值平滑處理能獲得更高的識(shí)別正確率和更快的識(shí)別速度.
另外,當(dāng)使用5×5的卷積核進(jìn)行圖像平滑處理時(shí),識(shí)別正確率明顯低于使用7×7卷積核的情況,識(shí)別速度也更慢.在BJUTED眉毛數(shù)據(jù)庫(kù)中,所采集到的圖像許多都有明顯的光照強(qiáng)度變化,直接計(jì)算圖像梯度時(shí),這些光照變化強(qiáng)烈的地方往往會(huì)產(chǎn)生較大的梯度值.圖像的平滑操作剛好能模糊圖像的這些變化,減少光照的影響.但是,使用5×5的卷積核對(duì)圖像的模糊程度不足,致使圖像仍保留有過(guò)多因光照強(qiáng)度變化而產(chǎn)生的細(xì)節(jié),因此也使得圖像計(jì)算得到更多的有效梯度值,從而干擾了匹配的準(zhǔn)確性,降低了匹配效率,如圖5所示.因此,本文余下的實(shí)驗(yàn)均使用7×7的卷積核對(duì)圖像進(jìn)行均值平滑處理.
3.2 梯度計(jì)算方法對(duì)識(shí)別結(jié)果的影響
圖像梯度的計(jì)算方法有很多,它們都各有特點(diǎn),計(jì)算得到的梯度特征也各不同.為了確定哪種方法更適合于眉毛識(shí)別,本實(shí)驗(yàn)在CTG和PS下測(cè)試了多種梯度計(jì)算方法,分別是:1-D的無(wú)中心算子(Uncentred)[-1,1]、中心算子(Centred)[-1,0,1]和3次修正算子(Cubic-corrected)[1,-8,0,8,-1],2-D的2×2對(duì)角算子(Diagonal1:[0,1;-1,0]和Diagonal2:[-1,0;0,1])、3×3的Sobel算子和Scharr算子.由于不同梯度計(jì)算方法在進(jìn)行梯度篩選時(shí),需要設(shè)定不同的閾值threshold,而threshold的選取對(duì)識(shí)別正確率和識(shí)別效率都有一定的影響.為找出最佳的閾值threshold,本實(shí)驗(yàn)分別對(duì)每種梯度計(jì)算方法測(cè)試了10個(gè)不同的閾值,如表1所示.對(duì)這些梯度計(jì)算方法采取不同的閾值threshold進(jìn)行的實(shí)驗(yàn)結(jié)果如圖6所示.
從圖6可以看出,在選擇適當(dāng)?shù)膖hreshold值時(shí),除了使用Sobel算子的方法外,其余方法均能達(dá)到98.17%的識(shí)別正確率.換言之,Sobel算子計(jì)算得到的梯度匹配結(jié)果不如其他算子計(jì)算得到的梯度更準(zhǔn)確.雖然其他梯度計(jì)算方法所得到的最高眉毛識(shí)別正確率并沒(méi)有差別,但是從圖7的結(jié)果看,簡(jiǎn)單的計(jì)算方法在一定的threshold取值時(shí),具有更快的識(shí)別速度,如threshold=3.2時(shí)的Uncentred算子、threshold=3.8時(shí)的Diagonal2算子和threshold=11.0時(shí)的Cubic-corrected算子,它們平均識(shí)別每幅圖像的時(shí)間為0.48 s、0.50 s和0.50 s.因此,對(duì)于眉毛識(shí)別,在多數(shù)情況下簡(jiǎn)單而貼近于眉毛走勢(shì)的梯度算子將是更好的選擇.
3.3 BJUTED眉毛數(shù)據(jù)庫(kù)上的性能比較實(shí)驗(yàn)
本實(shí)驗(yàn)選擇目前在BJUTED數(shù)據(jù)庫(kù)上識(shí)別率較高的FFTER方法[8]進(jìn)行比較.使用CTG首先在PS測(cè)試集上進(jìn)行實(shí)驗(yàn),然后再在完整的BJUTED眉毛數(shù)據(jù)庫(kù)上進(jìn)行對(duì)比實(shí)驗(yàn).實(shí)驗(yàn)使用了3.2節(jié)中除了Sobel算子外的其余所有梯度算子,它們的篩選閾值threshold分別設(shè)為圖6中標(biāo)記的最佳值.算法FFT均采用了OpenCV 3.0所提供的函數(shù).
表2展示了在PS測(cè)試集上各方法的實(shí)驗(yàn)結(jié)果.其中,加速比(Speedup Ratio)的計(jì)算如下:
式中,TFFTER和TGTMER分別表示FFTER和GTMER的運(yùn)行時(shí)間.可見(jiàn),GTMER在使用Uncentred算子計(jì)算梯度時(shí),要比FFTER快30.43%;即使是使用Diagnonal1算子時(shí)速度最慢,但也要比FFTER快7.25%.由此可見(jiàn),GTMER的運(yùn)行效率要高于FFTER.
表2的實(shí)驗(yàn)結(jié)果同時(shí)也顯示,F(xiàn)FTER的識(shí)別正確率最高,達(dá)99.08%,高于GTMER的98.17%,多識(shí)別正確了一幅圖像.進(jìn)一步分析可知,GTMER之所以識(shí)別正確率低于FFTER,是因?yàn)镚TMER將第105號(hào)樣本圖像識(shí)別成了第77號(hào)模板,而FFTER則能正確識(shí)別出第105號(hào)樣本圖像.如圖7所示,第105號(hào)樣本圖像的眉毛顏色較淡,而圖像中額頭區(qū)域有較強(qiáng)的光照變化,因此經(jīng)過(guò)平滑處理后,眉毛區(qū)域保留的有效梯度值較少,而額頭區(qū)域保留的有效梯度值較多.在圖7中,降低threshold值將得到更加明顯的對(duì)比效果.雖然降低threshold值使得眉毛區(qū)域保留了更多有效梯度特征值,但它的匹配結(jié)果仍然不正確,這或許是梯度方向角量化方式所導(dǎo)致的結(jié)果.因?yàn)?,每個(gè)梯度方向角都被量化為n位有效的二進(jìn)制數(shù),實(shí)驗(yàn)中取n=8,這使得量化的范圍很有限,也進(jìn)一步降低了額頭區(qū)域與眉毛區(qū)域的辨識(shí)度,最終導(dǎo)致錯(cuò)誤的梯度匹配結(jié)果.這也是梯度匹配的一個(gè)不足.此外,通過(guò)對(duì)識(shí)別錯(cuò)誤的幾個(gè)樣本的分析發(fā)現(xiàn),GTMER與FFTER一樣,在圖像發(fā)生明顯的縮放時(shí),也不能對(duì)圖像做出正確的識(shí)別.這應(yīng)該是使用FFT進(jìn)行匹配位置微調(diào)所導(dǎo)致的結(jié)果,它雖然使得識(shí)別正確率提高了,但也造成了GTMER的一些局限性.
圖8展示了BJUTED眉毛數(shù)據(jù)庫(kù)中的實(shí)驗(yàn)結(jié)果.為使實(shí)驗(yàn)結(jié)果更清晰,本實(shí)驗(yàn)將BJUTED眉毛數(shù)據(jù)庫(kù)劃分為3部分:PCS、POS和PT.其中,PCS由除了生成CTG的圖像外,所有的閉眼圖像圖組成;POS由所有睜眼圖像組成;PT由PCS和POS的所有圖像組成.從實(shí)驗(yàn)結(jié)果看,所測(cè)試的GTMER幾種梯度算子,識(shí)別速度均要快于FFTER.其中使用Diagonal2算子的最快約0.48 s,相比于FFTER的0.78 s快了38%左右.另外,在PT測(cè)試集中Diagonal2的識(shí)別正確率也最高,約為98.12%,高于FFTER的97.82%.事實(shí)上,在PT測(cè)試集中,除了Diagonal1的識(shí)別正確率約97.72%低于FFTER,及Cubic-corrected的識(shí)別正確率與FFTER一樣外,其他算子的識(shí)別正確率均要高于FFTER,分別為:Uncentred約98.02%,Scharr和Centred約97.92%.由圖8看,對(duì)于PCS測(cè)試集的實(shí)驗(yàn),除Cubic-corrected外,其他方法的識(shí)別正確率均要高于FFTER的98.44%,其中Centred的最高,約98.89%;而對(duì)于POS測(cè)試集的實(shí)驗(yàn),Diagonal2和Cubic-corrected的識(shí)別正確率最高,約97.67%,而Centred和Diagonal1的則要明顯低于FFTER的97.32%.因此,可以得到這樣的結(jié)論:GTMER是一種比FFTER更快速的眉毛識(shí)別方法,并且多數(shù)情況下能獲得比FFTER更高的識(shí)別正確率,如使用Diagonal2算子作為圖像梯度計(jì)算方法時(shí).
4 結(jié)論
利用圖像梯度特征,本文在匹配識(shí)別框架下設(shè)計(jì)了一種快速的眉毛圖像匹配識(shí)別算法,即基于梯度模板匹配的眉毛識(shí)別方法.該方法首先利用圖像梯度,快速匹配出與純眉毛模板最相似的區(qū)域;然后,通過(guò)微調(diào)得到精確的模板匹配位置;最后,使用L1_FSD作為判別距,識(shí)別出所輸入眉毛圖像的身份.在BJUTED眉毛數(shù)據(jù)庫(kù)中的實(shí)驗(yàn)表明,基于梯度模板匹配的眉毛識(shí)別方法具有更快的識(shí)別速度,以及更高的識(shí)別正確率.但是實(shí)驗(yàn)也指出:基于梯度模板匹配的眉毛識(shí)別方法的不足,即圖像光照強(qiáng)度變化特別強(qiáng)烈的地方,容易被誤認(rèn)為是物體的邊緣,從而獲得較多的梯度特征值,影響最終的匹配和識(shí)別正確性.要克服這一缺點(diǎn),或許可以在圖像采集階段加以一定的約束,保證采集的圖像沒(méi)有特別強(qiáng)烈的光照變化;再或者可以通過(guò)視頻圖像進(jìn)行識(shí)別認(rèn)證,這都將有待于在未來(lái)的工作中加以研究.
參考文獻(xiàn)
[1]王鵬濤,王智文. 基于PSO-LDA的人臉識(shí)別算法[J].廣西科技大學(xué)學(xué)報(bào),2017,28(1):85-90.
[2]HAYFRONACQUAH J B,NIXON M S,CARTER J N. Automatic gait recognition by symmetry analysis[J]. Pattern Recognition Letters,2003,24(13):2175-2183.
[3]CHEN H,BHANU B. Human ear recognition in 3D[J]. IEEE Transactions on Pattern Analysis & Machine Intelligence,2007,29(4):718-737.
[4]DAI J,ZHOU J. Multifeature-based high-resolution palmprint recognition[J].IEEE Transactions on Pattern Analysis & Machine Intelligence,2011,33(5):945.
[5]KUMAR A,ZHOU Y. Human identification using Knucklecodes[C].IEEE,International Conference on Biometrics:Theory,Applications,and Systems.IEEE,2009:1-6.
[6]PARK U,JILLELA R R,ROSS A,et al. Periocular biometrics in the visible spectrum[J]. IEEE Transactions on Information Forensics & Security,2011,6(1):96-106.
[7]SINHA P,BALAS B,OSTROVSKY Y,et al. Face recognition by humans:nineteen results all computer vision researchers should know about[J].Proceedings of the IEEE,2007,94(11):1948-1962.
[8]LI Y,LI H,CAI Z. Human eyebrow recognition in the matching-recognizing framework ☆[J]. Computer Vision & Image Understanding,2013,117(2):170-181.
[9]LI Y,F(xiàn)U C. Eyebrow recognition:a new biometric technique[C].Iasted International Conference on Signal and Image Processing. ACTA Press,2007:506-510.
[10]LI Y,LI X. HMM Based Eyebrow Recognition[C]. International Conference on International Information Hiding and Multimedia Signal Processing.IEEE Computer Society,2007:135-138.
[11]LI Y,WANG L. Eyebrow recognition based on principal component analysis[J]. Computer Engineering & Science,2008,30(11):28-28.
[12]YANG X,XU X,LIU C. Eyebrow recognition based on sparsity preserving projections[C]. Conference Anthology,IEEE.IEEE,2014:1-4.
[13]XU X,YANG X,LI Y,et al. Eyebrow recognition using radon transform and sparsity preserving projections[C].International Conference on Automatic Control and Artificial Intelligence.IET,2013:1028-1033.
[14]LI Y,LI H. The BJUT eyebrow database[OL]. 2015. http://mpccl. bjut.edu.cn/EyebrowRecognition/BJUTEyebrowDatabase/BJUTED.html.
[15]LI Y,LI H,CAI Z. Fast orthogonal haar transform pattern matching via image square sum[J]. IEEE Transactions on Pattern Analysis & Machine Intelligence,2014,36(9):1748.
[16]HINTERSTOISSER S,CAGNIART C,ILIC S,et al.Gradient response maps for real-time detection of textureless objects[J]. IEEE Transactions on Pattern Analysis & Machine Intelligence,2012,34(5):876-888.
[17]LOWE D G. Distinctive image features from scale-invariant keypoints[J]. International Journal of Computer Vision,2004,60(2):91-110.
[18]楊曉云,梁郁,梁鑫.基于LiDAR點(diǎn)云的城市地區(qū)植被提取算法研究[J].廣西科技大學(xué)學(xué)報(bào),2015,26(3):73-77.
[19]HINTERSTOISSER S,LEPETIT V,ILIC S,et al. Dominant orientation templates for real-time detection of texture-less objects[C]. Computer Vision and Pattern Recognition.IEEE,2010:2257-2264.
[20]DALAL N,TRIGGS B. Histograms of oriented gradients for human detection[C]. IEEE Computer Society Conference on Computer Vision & Pattern Recognition. IEEE Computer Society,2005:886-893.