?
正交Haar變換的眉毛識別方法*
0引言
【研究意義】生物特征識別作為一項身份驗證技術,以其準確性、安全性和實用性得到了廣泛認可。眉毛作為人體的一部分,也同樣可以用于身份識別。它比虹膜更易于采集,同時也能保持較高的識別率。然而,現(xiàn)有的眉毛識別方法識別效率較低,有必要研究更加高效的眉毛識別方法?!厩叭搜芯窟M展】隨著生物特征識別技術的深入研究和發(fā)展,人體的各個特征,如指紋、人臉[1]、步態(tài)[2]、耳朵[3]、掌紋[4]、結膜血管[5]、指關節(jié)[6]等,已被使用并作為一種獨立的生物特征進行研究,而且部分特征已經(jīng)被大量應用到現(xiàn)實生活中,如指紋和人臉。在眾多的生物特征識別技術中,虹膜識別被認為是準確性和安全性較高的一種技術。但是,要在開放環(huán)境中對虹膜實現(xiàn)自然的采集有較大困難,因為虹膜處于易移動的物體(眼球、頭部)上,成像需使用近紅外光,并且它的尺寸相對人臉而言很小,因此還需近距離采集[7]。此外,一旦出現(xiàn)閉眼或眨眼的情況,被采集的虹膜信息其完整性將難以保證。為此,Park等[7]提出眼周生物特征識別的概念。相比于虹膜,眼周可以通過可見光在一個相對遠的距離下實現(xiàn)自然采集,它甚至可以使用現(xiàn)有的人臉采集設備,與人臉圖像一起被采集到。眼周識別可以在人臉鼻子及以下部分被遮擋時替代人臉識別,文獻[7]的實驗結果顯示正確率最高達81.60%;但是,文獻[7]的研究也表明當虹膜或眼睛被遮擋時,眼周識別的平均識別正確率分別會下降3.65%和15.95%,可見,眼周識別方法對眼睛的依賴較強;另一方面,假如將眉毛計算在眼周區(qū)域內(nèi),眼周識別的平均識別正確率將提高10.66%。因此,要減少對眼睛的依賴,單獨使用眉毛進行身份識別是一個很好的解決方案。事實上,眉毛在人臉中的作用不亞于眼睛[8];而且Li等[9]已經(jīng)證明眉毛具有強可區(qū)分性,因此單獨使用眉毛進行身份識別是可行和有效的?!颈狙芯壳腥朦c】眉毛識別作為一種獨立的生物特征識別技術,相關的研究仍十分有限。文獻[9]提出一種匹配識別框架的思想,它使用快速傅里葉變換(FFT)的模板匹配方法,將匹配和識別有效聯(lián)系在一起,實現(xiàn)了一種全自動的眉毛識別方法。但是,F(xiàn)FT的模板匹配方法匹配效率較低,導致整個識別效率下降,不利于實時應用。為此,本文在匹配識別框架下,使用更加快速的正交Haar變換模板匹配算法(FOHT)[10],設計一種更加快速的眉毛識別方法。【擬解決的關鍵問題】由于正交性的限制,F(xiàn)OHT算法僅能處理標準大小的模板,即長和寬相等且為2的冪次大小的模板。因此本文提出一種簡單而有效的眉毛模板尺寸標準化處理方法,即使用最大標準子模板來替代原模板。另外,F(xiàn)OHT算法的閾值設定一般需要憑經(jīng)驗手動進行設置,為此我們設計一種自適應的閾值選擇方法,以避免人為因素對識別結果的過多干擾。
1FOHT算法
1.1圖像的Haar投影值
如圖1所示,對于N=2n×2n大小的模板(n=1時,圖1),每個模板均包含有N個不同的Haar小波基函數(shù),表示為
τp(0,1),τp(1,1),…,τp(2n-1,1),
?,
τp(0,2n-1),τp(1,2n-1),…,τp(2n-1,2n-1))T,
(1)
其中,
(2)
(3)
(4)
圖12×2=4大小模板的Haar小波基函數(shù)
Fig.12×2=4 Haar basis function
1.2方形和的快速計算方法
對于大小為N=2n×2n的模板,其對應的所有Haar投影值可以由尺寸分別為2k×2k,k=0,1,…,n和2k+1×2k,k=0,1,…,n-1的兩類矩形和計算得到。這兩類矩形和統(tǒng)稱為“方形和”[10]。方形和與計算Haar投影值所使用的矩形和一一對應,因此在計算每個Haar投影值時僅需要1次減法運算。
(5)
可見,方形和的計算過程是一個由細到粗,逐層迭代的過程。這正好與Haar投影值的計算順序相反(圖2)。因此,使用方形和計算Haar投影值時,需要預先把圖像的所有方形和計算并存儲起來,這就使得方形和方法需要消耗較大的輔助內(nèi)存。
進一步對于左上角坐標位于(x,y)位置,大小為2n×2n的候選窗口,所有22n個Haar投影值可以按如下方式計算得到
(6)
其中參數(shù)k=1,2,…,n-1。
由于使用方形和計算每個Haar投影值最多只需要1次減法運算,因此對于N=2n×2n大小的模板,要計算它的所有N個Haar投影值需要N-1=22n-1次減法運算。而又由公式(5)可知,計算模板的所有方形和需要1+2+…+22n-1=22n-1次加法運算。因此,對于WP×HP的待檢測圖像,它包含有(WP-2n+1)(HP-2n+1)個候選窗口,最多需要(WP-2n+1)(HP-2n+1)(22n-1)次減法運算來計算所有候選窗口的Haar投影值。事實上,隨著候選窗口的不斷減少,Haar投影值的計算量要遠小于這一估值。
圖22×2滑動窗口內(nèi)的所有方形和及其與Haar投影值的關系示例
Fig.2Square sums of a 2×2 sliding window and their relation to Haar projection values
1.3算法分析
FOHT算法使用方形和的方法計算圖像的Haar投影值,同時采用逐層篩選的策略對候選窗口進行篩選,因此在進行圖像模板匹配處理時,能獲得很高的效率。
(7)
其中,E(l)為下屆增量函數(shù),可推導出其計算公式:
E(l)=
(8)
為了計算簡單省略了公式中的系數(shù)1/4n,因為它是一個常數(shù),并不會影響計算的結果。
假設模板大小為2n×2n,輸入大小為WP×HP的圖像;Nmaxk表示算法的最大迭代次數(shù),其值小于等于n。那么FOHT算法首先需要計算出輸入圖像的所有方形和,然后通過下屆函數(shù)flow,并利用方形和,逐層次地對每個候選窗口進行篩選;最后對于篩選剩下的候選窗口使用全搜索的方法以選出最佳匹配窗口。FOHT算法的具體描述如下:
FOHT算法在Step 1中需要計算所有的方形和,其花費的計算時間會較長。但是由于使用了方形和的方法計算Haar投影值,它在Step 2中的計算效率會很高。此外,當一幅輸入圖像需要匹配多個模板時,F(xiàn)OHT算法的優(yōu)勢將更加明顯。因為它僅需要對輸入圖像進行一次Step 1處理,并進行多次匹配,這使得FOHT算法在Step 1中處理時間較長的缺陷被彌補,這已在文獻[11]得到證明。
2正交Haar變換的眉毛識別方法
在匹配識別框架[9]下,使用FOHT算法替代FFT算法,將有利于提高眉毛識別方法的效率。但是FOHT算法只能處理標準尺寸的模板,即模板尺寸必須為2n×2n大小。然而實際中的眉毛模板均是任意大小的尺寸,所以在眉毛識別中使用FOHT算法,首先需要對眉毛模板進行標準化處理。此外,從FOHT算法的描述中可以看出,在算法Step 2進行候選窗口篩選時,總需要預先設定一個篩選閾值threshold,而在眉毛識別中這個閾值一般沒辦法預先設定的,因此也需要建立一種自適應的閾值設定方法。
2.1最大標準子模板的選取
為了適應FOHT算法,我們對眉毛模板進行簡單處理,即從眉毛模板圖像中截取出一個最大的,且具有足夠大可區(qū)分度的標準子模板,稱之為最大標準子模板,然后用它替代原模板進行匹配和識別處理。假設原模板t,其大小為WT×HT。通過以下步驟可以截取出t的最大標準子模板t′,即
Step 1取k值,使得2k+1>WT以及2k+1>HT,且2k≤WT以及2k≤HT;
Step 2重復計算rect=randSelect(t,k);
直至 std(rect)>ξ;
Step 3令t′=rect。
可以看出,Step 1實際上是要確定模板t的最大標準子模板尺寸;Step 2中的函數(shù)randSelect(t,k)表示從t中隨機選取一個2k×2k大小的區(qū)域rect。為了使得所選取的最大標準子模板具有較大的可區(qū)分度,算法使用圖像的標準差對隨機選擇的區(qū)域進行篩選,即函數(shù)std(rect),表示計算得到rect的標準差。當std(rect)大于某個設定的閾值ξ時,則認為已經(jīng)找到了所需要的最大標準子模板。實驗中都取ξ=45,截取的結果如圖2所示。
2.2閾值自適應設置
FOHT算法在篩選候選窗口時,面臨著篩選閾值threshold的設定問題。如果使用文獻[9]的方法設定篩選閾值,則要求事先知道模板的最佳匹配位置,而在實際應用中無法事先知道每個眉毛模板在輸入圖像中的最佳匹配位置,因此該方法并不適用于眉毛識別。為此,我們設計了一種自適應的閾值計算方法,即
2.3眉毛識別
在匹配識別框架[8]下,應用FOHT算法,得到如圖3所示的正交Haar變換眉毛識別方法。如前述討論,該識別方法首先需要截取眉毛模板的最大標準子模板,并以此來替代原模板;然后直接使用FOHT算法分別匹配得到模板的最佳匹配子區(qū)域;最后通過判別距離d計算出識別結果。在圖3中,判別距離d使用文獻[8]的傅里葉頻譜距離作為度量方法。此外,這種正交Haar變換眉毛識別方法還用到了2.2節(jié)討論的閾值自適應算法,這使得識別結果更加客觀和可信。
圖3正交Haar變換的眉毛識別方法
Fig.3Orthogonal Haar transform eyebrow recognition method
3仿真實驗及結果分析
實驗在BJUTED眉毛數(shù)據(jù)庫[10]上進行,它包含有109人的1118幅自然條件下采集的原始眉毛圖像。這些圖像大小均是768×576,以眉毛為中心的24位RGB彩色圖像,且每人至少對應10幅圖像。其中,有一半是睜眼狀態(tài)下采集獲得的圖像,另一半是閉眼狀態(tài)下采集獲得的圖像。
為建立眉毛模板庫,從BJUTED眉毛數(shù)據(jù)庫中為每人抽取一幅閉眼原始眉毛圖像,并使用手動方式圈選出每幅圖像的純眉毛區(qū)域作為模板,這樣便構成了包含109幅純眉毛區(qū)域圖像的模板庫。這些圈選的模板平均大小約為437×166,如圖4所示。然后,從BJUTED眉毛數(shù)據(jù)庫中,為每人隨機選取一幅睜眼原始眉毛圖像,從而構成包含109幅圖像的測試集,實驗的所有代碼均在Windows7環(huán)境下經(jīng)VS2010編譯完成,并在一臺擁有i5-2400 CPU和4GB內(nèi)存的Dell PC運行。
圖4眉毛區(qū)域模板庫示例
Fig.4Examples of pure eyebrow region images
從圖5看,正交Haar變換眉毛識別方法(圖5中用FOHT表示)效率最高,平均每幅圖像的識別速度約為0.5 s。相比之下,文獻[8]的眉毛識別方法(圖5中用FFT表示)效率較慢,約0.74 s處理完成一幅圖像??梢姡瑢OHT算法應用到眉毛識別中,能提高眉毛識別的效率。然而,從圖5的實驗結果也發(fā)現(xiàn),正交Haar變換眉毛識別方法的正確率有所下降,只有85.32%,109幅圖像識別正確了93幅。而文獻[8]的眉毛識別方法識別正確率達99.08%。分析可知,由于在正交Haar變換眉毛識別方法中,眉毛模板采用最大標準子模板替代原模板。這使得截取得到的最大標準子模板尺寸較小,其中在109幅模板圖像中,尺寸為32×32的子模板有1個,256×256的子模板有6個,64×64的子模板有21個,128×128的子模板有81個。它們在原模板中的占比最低為6.24%,最高為68.28%。差距相對較大,因此導致最終識別正確率比較低。另外,文獻[8]的眉毛識別方法能取得更高識別正確率,是因為BJUTED眉毛數(shù)據(jù)庫中采集到的圖像變化較小,所以使用FFT匹配方法能取得更高的匹配準確性。而當采集的圖像變換較大時,F(xiàn)FT算法的匹配準確性必然會下降,而FOHT算法是否能取得更高的匹配準確性,還需進一步研究。
圖5實驗結果
Fig.5Experimental results
4結束語
本文利用FOHT算法在匹配識別框架下設計了一種更快速的正交Haar變換眉毛識別方法。該方法首先對不規(guī)則模板選取出其最大標準子模板,然后利用FOHT算法匹配出各個模板的最佳匹配子區(qū)域,最后使用這些最佳匹配子區(qū)域與原模板一起進行判別計算,以取得最終的識別結果。從BJUTED眉毛數(shù)據(jù)庫中的實驗得知,本文提出的正交Haar變換眉毛識別方法效率得到了很大的提升,但是其識別正確率有所下降。這主要是受到最大標準子模板選取方法的限制所導致的。如何進一步提高這種正交Haar變換眉毛識別方法的識別正確率,將是下一步的研究方向。例如可以采用直接處理非標準模板的快速匹配方法,或者采用多個子模板同時匹配的策略等。此外,如何在采集圖像發(fā)生較大變化時仍保持較高的識別正確率和效率,也還有待進一步研究。
參考文獻:
[1]陳中勝,李春貴,蔣凱.基于分布估計算法的人臉Haar特征選擇[J].廣西科技大學學報,2015(2):47-52.
CHEN Z S,LI C G,JIANG K.Haar feature selection of face detection based on estimation of distribution algorithm[J].Journal of Guangxi University of Science and Technology,2015(2):47-52.
[2]HAYFRON-ACQUAH J B,NIXON M S,CARTER J N.Automatic gait recognition by symmetry analysis[C]//BIGVN J,SMERALDI F,eds.Proceedings of the 3th International Conference on Audio and Video-Based Biometric Person Authentication (AVBPA).Berlin:Springer,2001:272-277.
[3]CHEN H,BHANU B.Human ear recognition in 3D
[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2007,29(4):718-737.
[4]DAI J F,ZHOU J.Multifeature-based high-resolution palmprint recognition[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2011,33(5):945-957.
[5]DERAKHSHANI R,ROSS A.A texture-based neural network classifier for biometric identification using ocular surface vasculature[C]//Proceedings of International Joint Conference on Neural Networks (IJCNN2007).[S.l.]:IEEE,2007:2982-2987.
[6]KUMAR A,ZHOU Y.Human identification using kn-
ucklecodes[C]//Proccedings of the IEEE Third International Conference on Biometrics:Theory,Applications and Systems (BTAS).[S.l.]:IEEE,2009:147-152.
[7]PARK U,JILLELA R R,ROSS A,et al.Periocular biometrics in the visible spectrum[J].IEEE Transactions on Information Forensics and Security,2011,6(1):96-106.
[8]PAWAN S,BENJAMIN B,YURI O,et al.Face recognition by humans:Nineteen results all computer vision researchers should know about[J].Proceedings of the IEEE,2006,94(11):1948-1962.
[9]LI Y J,LI H J,CAI Z.Human eyebrow recognition in the matching-recognizing framework[J].Computer Vision and Image Understanding,2013,117(2):170-181.
[10]LI Y J,LI H J,CAI Z.Fast orthogonal haar transform pattern matching via image square sum[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2014,36(9):1748-1760.
[11]LI Y,LI H.The BJUT Eyebrow Database[DB/OL].[2015-05-11].http://mpccl.bjut.edu.cn/EyebrowRecognition/BJUTEyebrowDatabase/BJUTED.html.
(責任編輯:尹闖)
(責任編輯:米慧芝)
(上接第35頁Continue from page 35)
[9]段凡丁.關于最短路徑的SPFA快速算法[J].西南交通大學學報,1994,29(2):207-211.
DUAN F D.The SPFA fast algorithm of shortest path[J].Journal of Southwest Jiaotong University,1994,29(2):207-211.
[10]溫菊屏,鐘勇.圖聚類的算法及其在社會關系網(wǎng)絡中的應用[J].計算機應用與軟件,2012,29(2):161-163.
WEN J P,ZHONG Y.Graph clustering algorithm and its application in social network[J].Computer Applications and Software,2012,29(2):161-163.
[11]程遠.網(wǎng)絡最短路徑的一種更新策略[J].計算機應用與軟件,2013,30(1):172-175.
CHENG Y.An update strategy for shortest path of graph net[J].Computer Applications and Software,2013,30(1):172-175.
[12]趙慧娟,湯兵勇,張云.基于動態(tài)規(guī)劃法的物流配送路徑的隨機選擇[J].計算機應用與軟件,2013,30(4):110-113.
ZHAO H J,TANG B Y,ZHANG Y.Random selection of logistics distribution route based on dynamic programming[J].Computer Applications and Software,2013,30(4):110-113.
[13]符光梅,王紅.基于節(jié)點可達度的公交多路徑搜索算法[J].計算機應用研究,2012,29(12):4492-4494.
FU G M,WANG H.Multi-path search algorithm in public transportation based on node accessibility[J].Application Research of Computers,2012,29(12):4492-4494.
[14]HSIEH M H,MAGEE C L.A new method for finding hierarchical sub-groups from networks[J].Social Networks,2011,32(3):234-244.
[15]裴立秋.公交網(wǎng)絡最優(yōu)出行路徑模型與算法研究[J].吉林建筑工程學院學報,2012,29(4):95-98.
PEI L Q.Network optimal path model and algorithm research[J].Journal of Jilin Institute of Architecture & Civil Engineering,2012,29(4):95-98.
Orthogonal Haar Transform for Eyebrow Recognition
李厚君,王日鳳,李春貴
LI Houjun,WANG Rifeng,LI Chungui
(廣西科技大學計算機科學與通信工程學院,廣西柳州545006)
(School of Computer Science and Communication Engineering,Guangxi University of Science and Technology,Liuzhou,Guangxi,545006,China)
摘要:【目的】提高現(xiàn)有眉毛識別方法的識別效率?!痉椒ā坎捎每焖僬籋aar變換模板匹配算法(FOHT),設計一種基于正交Haar變換的眉毛識別方法;同時,使用最大標準子模板和自適應閾值解決了FOHT算法只能處理標準模板且需要手動設置閾值的缺陷?!窘Y果】所構建的眉毛識別方法比原方法效率提高約32%?!窘Y論】正交Haar變換的眉毛識別方法實時性強,具有一定的實用價值。
關鍵詞:眉毛識別正交Haar變換模板匹配最大標準子模板自適應閾值
Abstract:【Objective】To improve the efficiency of current method on the eyebrow recognition.【Methods】Orthogonal Haar Transform Eyebrow Recognition method was established by using fast orthogonal Haar Transform template matching algorithm (FOHT).The approaches of maximum standard template and adaptive threshold were used to solve the problems of FOHT,which could only process the situation of standard template and need to set the threshold manually.These methods increased the automatic degree of eyebrow recognition,and improved the recognition efficiency.【Results】Experimental results showed that the recognition efficiency of the proposed method increased about 32% than that of the original method.【Conclusion】The orthogonal Haar transform eyebrow recognition method shows better real-time performance and is practically valuable for the promotion and application of eyebrow recognition.
Key words:eyebrow recognition,orthogonal Haar transform,template matching,maximum standard template,adaptive threshold
中圖分類號:TP181
文獻標識碼:A
文章編號:1002-7378(2016)01-0036-06
作者簡介:李厚君(1985-),男,博士,講師,主要從事模式識別和機器學習方面的研究。
收稿日期:2015-12-10
網(wǎng)絡優(yōu)先數(shù)字出版時間:2016-01-27
網(wǎng)絡優(yōu)先數(shù)字出版地址:http://www.cnki.net/kcms/detail/45.1075.N.20160127.1616.012.html
*國家自然科學基金項目(61440017),廣西科技大學博士基金項目(院科博11z13)和廣西多源信息挖掘與安全重點實驗室開放基金項目(MIMS13-04)資助。