鄧文駿,邱衛(wèi)根,譚臺(tái)哲
(1.廣東工業(yè)大學(xué) 計(jì)算機(jī)學(xué)院,廣東 廣州 510006;2.河源廣工大協(xié)同創(chuàng)新研究院,廣東 河源 517000)
基于局部幅度三值模式的人臉識(shí)別
鄧文駿1,邱衛(wèi)根1,譚臺(tái)哲2
(1.廣東工業(yè)大學(xué) 計(jì)算機(jī)學(xué)院,廣東 廣州 510006;2.河源廣工大協(xié)同創(chuàng)新研究院,廣東 河源 517000)
針對(duì)局部三值模式(Local Ternary Pattern,LTP)對(duì)紋理特征描述不足的問(wèn)題,提出一種基于局部幅度三值模式(Local Magnitude Ternary Pattern,LMTP)的人臉識(shí)別算法。首先將人臉圖像進(jìn)行分塊處理。然后用LTP算子提取直方圖以描述局部紋理的結(jié)構(gòu)和LMTP算子提取直方圖以描述局部紋理中像素值間的偏離幅度。最后將不同的直方圖串聯(lián)成LTP/LMTP直方圖,將其作為人臉特征用于人臉匹配。實(shí)驗(yàn)分析表明,算法對(duì)紋理有更好的描述能力和在人臉識(shí)別中有更高的識(shí)別率,并對(duì)噪聲有較好的魯棒性。
局部幅度三值模式;LTP;人臉識(shí)別
作為機(jī)器視覺、模式識(shí)別等鄰域中最熱門的研究課題之一,人臉識(shí)別不僅在學(xué)術(shù)上具有重要價(jià)值,而且在實(shí)際生活中有著重要的應(yīng)用前景[1]。人臉特征提取可分為全局特征提取和局部特征提取。其中全局特征提取的方法有主成分分析(PCA)[2]、線性判別分析(LDA)[3]和獨(dú)立成分分析(ICA)[4]等。局部特征提取的方法有局部二值模式(LBP)[5-8]、Gabor小波[9-11]、局部量化模式(LQP)[12]等。相較于全局特征提取,局部特征提取對(duì)光照和姿勢(shì)等變化具有較好的魯棒性,因此更多人利用局部特征提取實(shí)現(xiàn)人臉識(shí)別。
LBP是一種有效的紋理描述算子,Ahonen等人將其引入人臉識(shí)別中。LTP[13]是在LBP基礎(chǔ)上增加閾值的設(shè)定,這對(duì)紋理結(jié)構(gòu)有更加細(xì)膩的描述,同時(shí)也對(duì)噪聲有較好的魯棒性。但是LBP或LTP算子都只是對(duì)紋理的結(jié)構(gòu)進(jìn)行描述,卻沒(méi)有對(duì)紋理中像素點(diǎn)之間的不同進(jìn)行有效的表達(dá)。為了對(duì)紋理中像素點(diǎn)之間的差異進(jìn)行更多的描述,進(jìn)而利用其來(lái)提高人臉識(shí)別率,本文提出局部幅度三值模式,首先對(duì)鄰域像素值與中心像素值的偏離幅度進(jìn)行編碼,描述局部紋理中像素點(diǎn)的差異,同時(shí)提取LTP特征描述紋理結(jié)構(gòu),然后把得到的LMTP的直方圖與LTP直方圖進(jìn)行串聯(lián),得到人臉特征。實(shí)驗(yàn)結(jié)果表明,該算法能有效提高人臉識(shí)別率。
1.1 局部二值模式(LBP)
LBP是對(duì)圖像中局部紋理特征進(jìn)行描述的算子。LBP算子對(duì)圖像中每個(gè)像素點(diǎn)的(P,R)鄰域進(jìn)行采樣,其中P表示采樣個(gè)數(shù),R表示鄰域的半徑。對(duì)中心像素點(diǎn)的灰度值gc與其鄰域第i個(gè)像素灰度值gi進(jìn)行比較,gi大于gc則為1,否則為0。這樣得到P位的二進(jìn)制編碼。通過(guò)十進(jìn)制轉(zhuǎn)換得到LBP值,計(jì)算如下
(1)
(2)
同時(shí)Ojala提出采用“均勻模式”對(duì)LBP算子的二進(jìn)制編碼進(jìn)行降維。使得LBP模式值由2P種減少至P(P-1)+3種?!熬鶆蚰J健笔沟媒y(tǒng)計(jì)直方圖時(shí),在不損失過(guò)多有用信息的情況下,減少統(tǒng)計(jì)的類別。
1.2 局部三值模式(LTP)
LTP算子是對(duì)LBP算子的擴(kuò)展,其對(duì)光照變化和噪聲具有更好魯棒性,并更加細(xì)膩地描述局部紋理。LTP增加自定義t,gi大于區(qū)間[gc-t,gc+t]時(shí)為1,屬于此區(qū)間時(shí)為0,小于此區(qū)間時(shí)為-1,得到三值編碼值,計(jì)算如下
(3)
(4)
式中:P、R、i和LBP算子一樣。由于LTP的模式值有3P種,為簡(jiǎn)化計(jì)算,令LTP特征分解為正、負(fù)LBP的編碼方式。即把編碼值不為1的均修改為0,得到正LBP人臉紋理特征。把編碼值為-1的修改為1,其余均變?yōu)?,從而得到負(fù)LBP人臉紋理特征。過(guò)程如圖1所示。
圖1 LTP算子過(guò)程
2.1 局部幅度三值模式(LMTP)
盡管LTP算子對(duì)LBP做出了改進(jìn),使得該算子對(duì)光照變化和噪聲更具魯棒性,并且對(duì)局部紋理有更好的描述。但本質(zhì)上與LBP算子對(duì)紋理的描述是一致的。LBP和LTP都僅僅通過(guò)比較像素值的大小來(lái)確定編碼值,忽略了像素值之間偏離幅度的描述。當(dāng)鄰域像素值與中心像素值或區(qū)間之間保持大小關(guān)系不變的前提下發(fā)生較大變化時(shí),編碼值結(jié)果保持不變。所以LTP算子無(wú)法描述此類非線性變化前后的差異,而這種差異也是紋理的重要特征之一,然而這部分重要的紋理信息沒(méi)有被有效地利用到人臉匹配中。
針對(duì)LTP對(duì)局部紋理描述的不足,本文提出LMTP算子。定義mi=gi-gc為gi與gc之間像素值的差,其中g(shù)c為中心像素值,gi(i=0,1,…,P-1)為中心像素的鄰域中第i個(gè)像素值。mi表示鄰域像素值與中心像素值的偏離幅度,LMTP算子則有如下定義,公式如下
(5)
(6)
式中:P,R,t和LTP算子一樣,u是閾值,對(duì)人臉圖像分塊處理后,把u設(shè)置為所屬分塊中所有mi的絕對(duì)值的均值。例如圖2a是一個(gè)中心像素值為25的3×3的局部鄰域。圖2b是偏離幅度向量[-17,6,7,3,17,-15,13,-5],假設(shè)該向量所處塊中所有mi的絕對(duì)值的均值為8,以此值設(shè)定閾值u,通過(guò)式(5)和式(6)得到三值編碼(-1)0001(-1)10。從得到的編碼中可以看到,鄰域的像素點(diǎn)分為三類,像素值比中心像素值小且偏離幅度較大時(shí)得到的編碼值為-1,比中心像素值大且偏離幅度較大時(shí)編碼值為1,與中心像素值偏離幅度不大時(shí)編碼值為0。
圖2 LMTP算子
LMTP中閾值t的設(shè)定目的也是為了增加對(duì)噪聲的魯棒性。閾值u則是對(duì)鄰域像素值與中心像素值的偏離幅度進(jìn)行編碼值的劃分。當(dāng)鄰域像素值都比中心像素值大時(shí),LMTP通過(guò)比較幅度值來(lái)表達(dá)鄰域像素點(diǎn)間的差異,LTP則只是簡(jiǎn)單的比較。盡管LMTP的形式與LTP相似,但其更多是描述鄰域像素值之間的不同,從而補(bǔ)充LTP算子對(duì)局部紋理描述的不足,為人臉識(shí)別提供更豐富的紋理特征。最后利用得到的人臉紋理特征進(jìn)行人臉識(shí)別,提高識(shí)別的準(zhǔn)確率。
2.2 LMTP和LTP人臉的特征提取和表示
本文提出結(jié)合LMTP和LTP的人臉紋理特征提取算法。圖3是人臉特征提取的流程。
圖3 LMTP和LTP人臉特征提取
以一張人臉圖像為例,將圖像劃分為m×n塊,其中LMTP和LTP特征提取步驟如下:
1)從人臉圖像的某一分塊中的一個(gè)像素點(diǎn)A的像素值記為gc,鄰域像素值記為gi。
2)通過(guò)式(3)、(4)計(jì)算A點(diǎn)的LTP值,并分解為正負(fù)均勻模式的LBP。
3)通過(guò)式(5)、(6)計(jì)算A點(diǎn)的LMTP值,并分解為正負(fù)均勻模式的LBP。
4)重復(fù)步驟2)、3)計(jì)算該塊中每個(gè)像素值的編碼值,然后統(tǒng)計(jì)LTP直方圖和LMTP直方圖。
5)對(duì)人臉圖像的每一塊重復(fù)以上步驟,得到m×n個(gè)LTP直方圖并串聯(lián)成為一個(gè)直方圖。同理,將m×n個(gè)LMTP直方圖串聯(lián)成一個(gè)直方圖。
6)進(jìn)一步將LTP直方圖與LMTP直方圖串聯(lián)得到整幅人臉的LTP/LMTP直方圖,將此作為人臉特征。
為了檢測(cè)該人臉識(shí)別算法的性能。本研究采用ORL、AR和FERET人臉數(shù)據(jù)庫(kù)進(jìn)行仿真實(shí)驗(yàn)。實(shí)驗(yàn)中閾值t設(shè)置為4,人臉圖像分成3×3塊,P和R取值分別為8和1,用LTP8,1和LMTP8,1計(jì)算人臉特征。然后統(tǒng)計(jì)直方圖,本文采用Chi平方統(tǒng)計(jì)對(duì)直方圖的相似性進(jìn)行度量,然后用根據(jù)最近鄰準(zhǔn)則進(jìn)行分類。
3.1 在ORL人臉數(shù)據(jù)庫(kù)上的實(shí)驗(yàn)
ORL人臉數(shù)據(jù)庫(kù)由劍橋大學(xué)AT&A實(shí)驗(yàn)室創(chuàng)立。一共有400張人臉圖像,40個(gè)人,每人10張圖片。自愿者的圖像包括了姿勢(shì)、表情和面部飾品的改變。每張圖片大小為 112×92。 人臉庫(kù)中某一人的10幅圖像如圖4所示。
圖4 ORL人臉數(shù)據(jù)庫(kù)示例
在真實(shí)場(chǎng)景下,采集人臉樣本時(shí)不可避免地受到噪聲的影響。LTP本身對(duì)噪聲有較好的魯棒性,為了測(cè)試LMTP對(duì)噪聲是否同樣具有魯棒性,對(duì)ORL增加噪聲等級(jí)λ,模擬真實(shí)場(chǎng)景下的噪聲。在此實(shí)驗(yàn)中隨機(jī)選取5張圖像作為訓(xùn)練樣本,剩余的圖像作為測(cè)試樣本,識(shí)別率的對(duì)比結(jié)果如表1所示。
表1 不同方法在ORL上的識(shí)別率%
方法原圖像不同噪聲導(dǎo)級(jí)下的識(shí)別率λ=003λ=008λ=013LBP910863792431LTP937916830525LMTP883861814417LTP/LMTP976955858592
通過(guò)表1的對(duì)比實(shí)驗(yàn)可以看到,當(dāng)噪聲等級(jí)λ增大時(shí),LBP的識(shí)別率快速下降,而LTP、LMTP和LTP/LMTP的識(shí)別率的下降幅度較小,證明對(duì)噪聲具有較好魯棒性。同時(shí)可以看到LMTP在原圖中識(shí)別率達(dá)到88%,表明其作為紋理的特征之一,能被利用到人臉識(shí)別。LTP/LMTP的識(shí)別率在原圖上達(dá)到了97%,在噪聲圖像中其識(shí)別的性能也優(yōu)于其他方法,表明了LTP/LMTP對(duì)紋理的描述能被利用到人臉匹配中,從而提高人臉識(shí)別準(zhǔn)確率的方法是可行和正確的。
3.2 在AR和FERET人臉數(shù)據(jù)庫(kù)上的實(shí)驗(yàn)
AR人臉庫(kù)包括4 000多張人臉圖像,一共有126人,70名男性和56名女性。其中包含了不同表情、光照和遮擋的正面人臉圖像。本文只選擇70名男性和50名女性,每個(gè)人選擇沒(méi)有遮擋的14張人臉圖像。對(duì)AR人臉庫(kù)中每個(gè)人隨機(jī)選擇k張圖像作為訓(xùn)練集,其余的作為測(cè)試集。k的取值設(shè)置為2,4,7。用不同的方法進(jìn)行實(shí)驗(yàn),識(shí)別率的對(duì)比結(jié)果如表2所示。
表2 不同方法在AR上的識(shí)別率%
方法不同測(cè)試集下的識(shí)別率k=2k=4k=7PCA319451607LBP558832913LTP570815909LTP/LMTP787886935
FERET人臉庫(kù)包括1 400張人臉圖像,一共有200個(gè)人。這些圖像包含了不同的表情、光照和姿勢(shì),其大小為80×80。對(duì)FERET人臉庫(kù)中每個(gè)人隨機(jī)選擇k張圖像作為訓(xùn)練集,其余的作為測(cè)試集。k的取值設(shè)置為1,3,5。用不同的方法進(jìn)行對(duì)比實(shí)驗(yàn),識(shí)別率的對(duì)比結(jié)果如表3所示。
表3 不同方法在FERET上的識(shí)別率%
方法不同測(cè)試集下的識(shí)別率k=1k=3k=5PCA518805867LBP574856931LTP548860942LTP/LMTP825912980
由表2和表3中不同人臉識(shí)別方法的對(duì)比實(shí)驗(yàn)可以看到,LTP/LMTP的人臉識(shí)別率在AR和FERET人數(shù)據(jù)臉庫(kù)中最高能達(dá)到93%和98%,均高于其他的方法,表明其對(duì)光照、姿勢(shì)和表情具有較好的魯棒性。在訓(xùn)練樣本減少的情況下,識(shí)別率均比其他方法好,并且識(shí)別率的下降幅度較小,表明LTP/LMTP的穩(wěn)定性更好,進(jìn)一步證明了本文算法的可行性和正確性。
人臉識(shí)別問(wèn)題一直是研究的熱點(diǎn),本文提出基于局部幅度三值模式的人臉識(shí)別算法,利用LTP描述紋理的結(jié)構(gòu),利用LMTP描述紋理中像素間的偏離幅度。通過(guò)結(jié)合LTP和LMTP對(duì)紋理的描述,得到一個(gè)更豐富的人臉特征,并利用此人臉特征進(jìn)行識(shí)別。實(shí)驗(yàn)結(jié)果表明,本文算法比LTP和LBP方法的識(shí)別率更高。
參考文獻(xiàn):
[1] ZHAO W, CHELLAPPA R, PHILLIPS P J,et al. Face recognition: a literature survey[J].ACM Computing Surveys, 2003,34(4):399-485.
[2] TURK M, PENTLAND A. Eigenfaces for recognition[J]. Journal of Cognitive Neuroscience, 1991,3(1):71-86.
[3] BELHUMEUR P N, HESPANHA J P, KRIEGMAN D J. Eigenfaces versus Fisherfaces: recognition using class specific linear projection[J].IEEE Trans.Pattern Analysis and Machine Intelligence, 1997,19(7):711-720.
[4] BARLETT M S, MOVELLAN J R,SEJNOWSKI T J. Face recognition by independent component analysis[J].IEEE Trans.Neural Networks, 2002,13(6):1450-1464.
[5] AHONEN T, HADID A, PIETIKAINEN M. Face description with local binary patterns: application to face recognition[J]. IEEE Trans.Pattern Analysis and Machine Intelligence, 2006,28(12):2037-2041.
[6] TAN X Y, TRIGGS B. Enhanced local texture feature sets for face recognition under difficult lighting conditions[J].IEEE Trans.Image Processing, 2010,19(6):1635-1650.
[7] ZHANG B C, GAO Y S, ZHAO S Q, et al. Local derivative pattern versus local binary pattern: face recognition with high-order local pattern descriptor[J]. IEEE Trans.Image Processing, 2010,19(2):533-544.
[8] 胡鐘月.基于局部模式的加權(quán)估計(jì)紋理分析在人臉識(shí)別中的應(yīng)用[J].電視技術(shù),2014,38(5):181-185.
[9] OJALA T, PIETIKAINEN M, MAENPAA T. Multiresolution gray-scale and rotation invariant texture classification with local binary patterns[J]. IEEE Trans.Pattern Analysis and Machine Intelligence, 2002,24(7):971-987.
[10] 薛濤,劉瀟瀟,張海兵.基于Gabor特征融合和LSSVM的人臉識(shí)別算法[J].計(jì)算機(jī)應(yīng)用與軟件,2014,31(7):191-194.
[11] 李文輝,高璐,林逸峰,等.特征選擇模糊加權(quán)多通道Gabor人臉識(shí)別[J].湖南大學(xué)學(xué)報(bào):自然科學(xué)版,2013,40(4):87-93.
[12] HUSSAIN S,TRIGGS B. Visual recognition using local quantized patterns[C]//Proc. the 11th European Conference on Computer Vision. Berlin:Springer, 2012:1-15.
[13] TAN X,TRIGGS B. Enhanced local texture feature sets for face recognition under difficult lighting conditions[J].IEEE Trans.Image Processing, 2010,19(6):1635-1650.
作者簡(jiǎn)介:
鄧文駿(1989— ),碩士生,圖像處理,模式識(shí)別;
邱衛(wèi)根(1968— ),研究生導(dǎo)師,主要研究方向?yàn)槿斯ぶ悄堋⒋植诩碚摷皯?yīng)用、計(jì)算機(jī)圖形圖像學(xué)。
責(zé)任編輯:任健男
收稿日期:2015-01-29
Face Recognition Based on Local Magnitude Ternary Pattern
DENG Wenjun1, QIU Weigen1, TAN Taizhe2
(1.SchoolofComputer,GuangdongUniversityofTechnology,Guangzhou510006,China;2.SynergyInnovationInstituteofGDUTandHeyuan,GuangdongHeyuan517000,China)
Since the Local Ternary Pattern(LTP) is not enough to describe the texture feature, a face recognition algorithm based on Local Magnitude Ternary Pattern(LMTP) is proposed. Firstly, the face image is divided into small blocks. Then, the histograms are extracted by the LTP operator which describes the structure of local texture and the LMTP operator which describes the magnitude of deviation between the different pixel in the local texture. Finally, the different histograms are linked to get LTP/LMTP histogram which is used as the face features for face matching. The experimental analysis proves that the algorithm has good ability to describe the texture and higher accuracy in the face recognition, the algorithm also has good robustness to noise.
local magnitude ternary pattern; LTP; face recognition
國(guó)家自然科學(xué)基金項(xiàng)目(61370082)
4 小結(jié)
2015-04-22
TN391.4
A
10.16280/j.videoe.2015.19.022
平板電視的頂部(此例在某品牌平板電視機(jī)的說(shuō)明書中有圖畫的方式警告);成人可能抬肘壓在平板電視頂部作為一種無(wú)意間的依靠。現(xiàn)有標(biāo)準(zhǔn)只用一個(gè)75 cm,100 N的垂直力試驗(yàn)還不全面。建議增加相應(yīng)條款,將可能的動(dòng)作全部覆蓋。
綜合以上分析,筆者認(rèn)為GB 8898/IEC60065標(biāo)準(zhǔn)中19.2條規(guī)定的垂直力翻倒試驗(yàn)不適用于平板電視機(jī);CTL 1082只是解釋了何為最不利位置的問(wèn)題,該決議圖示中用平板電視作為樣品并不適宜。對(duì)于標(biāo)準(zhǔn)規(guī)定的試驗(yàn)應(yīng)從標(biāo)準(zhǔn)起草本意、安全原理出發(fā),分析并理解標(biāo)準(zhǔn)的意圖,才能做出正確的解釋,才能保證試驗(yàn)的合理、正確、符合實(shí)際。
[1] GB 8898—2011,音頻、視頻及類似電子設(shè)備 安全要求[S].北京:中國(guó)標(biāo)準(zhǔn)出版社,2011.
[2] CTL Decision Sheet No.1082 Vertical force test [S]. 2013.
[3] IEC 60065 Edition 7.0+am1+am2:2010 Audio, video and similar electronic apparatus-Safety equirements[S]. 2010.
[4] IEC 60065 Edition 8.0:2014 Audio, video and similar electronic apparatus-Safety equirements[S]. 2014.
[5] GB 4943.1—2011,信息技術(shù)設(shè)備 安全 第1部分:通用要求[S].北京:中國(guó)標(biāo)準(zhǔn)出版社,2011.
[6] GB 4706.1—2005,家用和類似用途電器的安全 第1部分:通用要求[S].北京:中國(guó)標(biāo)準(zhǔn)出版社,2005.
張 鋼(1972— ),本科,主要從事AV、IT產(chǎn)品安全檢測(cè);
楊 猛(1977— ),本科,主要從事AV、IT產(chǎn)品安全檢測(cè)。
責(zé)任編輯:閆雯雯
【本文獻(xiàn)信息】鄧文駿,邱衛(wèi)根,譚臺(tái)哲.基于局部幅度三值模式的人臉識(shí)別[J].電視技術(shù),2015,39(19).