封 筠,董祉怡,劉甜甜,韓超群,胡晶晶
1.石家莊鐵道大學(xué) 信息科學(xué)與技術(shù)學(xué)院,石家莊 050043
2.北京理工大學(xué) 計(jì)算機(jī)科學(xué)與技術(shù)學(xué)院,北京 100081
生物特征具有每個(gè)個(gè)體所獨(dú)有信息,符合人們對(duì)于現(xiàn)代科技產(chǎn)品的高效、便捷與安全要求。人臉識(shí)別作為目前使用最為普遍的生物特征識(shí)別技術(shù)之一,被應(yīng)用于門禁安檢、在線支付、智能手機(jī)解鎖等身份認(rèn)證場(chǎng)景之中。人臉特征偽造這一安全隱患若被忽視,則會(huì)造成客戶信息的泄露和財(cái)產(chǎn)損失,從而影響整個(gè)識(shí)別驗(yàn)證系統(tǒng)的安全性。人臉活體檢測(cè)的目的是防止人臉識(shí)別系統(tǒng)受到非法人臉的攻擊,保護(hù)客戶的信息安全及財(cái)產(chǎn)安全。
目前常見的人臉欺騙攻擊方式主要為照片人臉攻擊、視頻回放攻擊和3D人臉面具攻擊。照片人臉攻擊是利用目標(biāo)對(duì)象人臉的打印照片或呈現(xiàn)在電子設(shè)備屏幕上的照片;視頻回放攻擊是利用包含目標(biāo)對(duì)象面部的視頻;3D人臉面具攻擊則指利用構(gòu)造的3D模型人臉面具,欺騙人臉識(shí)別系統(tǒng)以達(dá)到非法入侵的目的。前兩種類型攻擊相較于3D模型攻擊具有易獲取、成本低的特點(diǎn),其攻擊方式存在較多,因此對(duì)照片人臉攻擊、視頻回放攻擊的研究也更為廣泛。
現(xiàn)有的人臉活體檢測(cè)方法可以分為交互式人臉檢測(cè)和非交互式人臉檢測(cè)兩大類。交互式人臉活體檢測(cè)利用動(dòng)作指令與用戶交互,系統(tǒng)通過判斷用戶是否準(zhǔn)確完成了指定動(dòng)作來辨別攝像頭前的人臉是活體人臉還是假體人臉。早期的交互式人臉活體檢測(cè)動(dòng)作是固定的,這樣就可以通過預(yù)先錄制好的動(dòng)作指令來攻破。為了解決該問題則產(chǎn)生了隨機(jī)動(dòng)作指令算法,可以隨機(jī)對(duì)測(cè)試對(duì)象發(fā)出搖頭、點(diǎn)頭、眨眼、張嘴等命令。王先基等人從拍攝的視頻序列中檢測(cè)出面部關(guān)鍵區(qū)域并對(duì)其進(jìn)行二值化處理,通過分析二值化圖像的變化與指定閾值作比較來判斷用戶是否完成了若干次的隨機(jī)指定動(dòng)作,從而判斷是否為活體[1]。Ng等人通過計(jì)算圖像的尺度不變特征變換(scale-invariant feature transform,SIFT)能量值來判斷用戶是否完成了指定的隨機(jī)表情動(dòng)作,從而判斷是否為活體[2]。張進(jìn)等人將提取的姿態(tài)特征與支持向量機(jī)(support vector machine,SVM)分類器相結(jié)合,來判斷被檢測(cè)對(duì)象是否為真人[3]。
交互式人臉活體檢測(cè)雖然識(shí)別效果較好,但是需要用戶主動(dòng)配合,不適用于用戶處于自然行為狀態(tài)的任務(wù),應(yīng)用范圍相對(duì)要窄,所以非交互式活體檢測(cè)應(yīng)運(yùn)而生。
非交互式人臉活體檢測(cè)主要分為基于紋理的方法、基于圖像質(zhì)量的方法、基于生命信息的方法以及基于深度特征的方法等。其中,基于紋理的人臉活體檢測(cè)一直是研究的熱點(diǎn)。Matta等人從灰度圖的局部塊以及全局圖中抽取不同尺度的均勻局部二值模式(local binary patterns,LBP)算子的紋理特征直方圖,輸入SVM分類器進(jìn)行活體人臉和假體人臉分辨[4]。由于灰度圖的紋理分析在低分辨率的人臉圖像中準(zhǔn)確率不高,所以Boulkenafet等人將圖像從RGB顏色空間轉(zhuǎn)化為YCbCr(luma,chrominance blue,chrominance red)顏色空間并抽取各個(gè)通道的LBP紋理特征直方圖,結(jié)合顏色特征以及紋理特征進(jìn)行活體人臉檢測(cè)[5],同時(shí)為了提升準(zhǔn)確率和泛化能力,還利用加速穩(wěn)健特征(speeded-up robust features,SURF)從HSV(hue,saturation,value)與YCbCr顏色空間的圖像中抽取顏色紋理特征[6]。
大部分假體人臉在二次成像后圖像質(zhì)量都會(huì)有所損失,與活體人臉存在一定距離,基于圖像質(zhì)量的方法主要利用圖像失真、反射屬性方面的差異分辨真假人臉。大部分基于圖像質(zhì)量的方法關(guān)注照片類攻擊。Wen等人提取四個(gè)不同的特征(鏡面反射、模糊、色度矩和顏色多樣性)以形成特征向量,SVM分類器用于區(qū)分活體人臉和假體人臉[7]。但是對(duì)于高清彩色打印的紙張或者高清錄制視頻,質(zhì)量失真不嚴(yán)重時(shí)難以區(qū)分。Li等人將圖像以質(zhì)量維度聚類,然后基于每個(gè)聚類使用提取的圖像質(zhì)量評(píng)估功能訓(xùn)練多個(gè)質(zhì)量指導(dǎo)的分類器,通過將圖像質(zhì)量的評(píng)分映射到相應(yīng)分類器的參數(shù)來學(xué)習(xí)回歸函數(shù)進(jìn)行活體與假體人臉的檢測(cè)[8]。
基于生命信息的方法主要利用活體的生命特征,例如血液流動(dòng)、臉部肌肉微運(yùn)動(dòng)、眨眼及心跳等,而假體人臉難以完美模仿此類生物特征,該類方法主要處理視頻序列以及3D面具的攻擊。Tiago等人利用視頻序列中的人臉轉(zhuǎn)動(dòng)光流信息,但是光流分析法對(duì)光照敏感且魯棒性低[9]。Li等人利用遠(yuǎn)程光學(xué)體積描記術(shù)rPPG信號(hào)來檢測(cè)待測(cè)對(duì)象心率狀態(tài)并以此判斷是否為活體人臉[10]。此類抽取心率、血流信息的方法多用于三維面具類假體人臉的檢測(cè)上,在良好光照條件下準(zhǔn)確率較高,但是需要提供足夠長(zhǎng)的高清人臉視頻以便能夠抽取到足夠好的rPPG信號(hào),同時(shí)rPPG信號(hào)受外界環(huán)境光照、待測(cè)對(duì)象運(yùn)動(dòng)的影響大,方法魯棒性不強(qiáng)。
隨著深度學(xué)習(xí)方法的發(fā)展,研究者們開始利用深度學(xué)習(xí)技術(shù)來處理人臉活體檢測(cè)問題。Yang等人利用卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural network,CNN)從RGB人臉圖像中抽取深度特征,并使用Softmax進(jìn)行分類,由于活體檢測(cè)的數(shù)據(jù)總量較少,數(shù)據(jù)間多樣性不豐富等問題,致使所用方法的識(shí)別準(zhǔn)確性較低,跨數(shù)據(jù)庫(kù)的通用性不高[11]。Li等人將CNN與LBP相結(jié)合,利用人臉活體檢測(cè)數(shù)據(jù)微調(diào)預(yù)訓(xùn)練好的VGG-face[12]模型,從獲取的卷積特征圖中抽取LBP特征并送入SVM進(jìn)行檢測(cè)[13]。雖然目前越來越多的研究者傾向于利用深度學(xué)習(xí)的方法來解決活體人臉檢測(cè)問題,也取得了較好的效果,但是深度學(xué)習(xí)方法對(duì)數(shù)據(jù)的數(shù)量和豐富性都有較高的要求。
特征提取一直是人臉活體檢測(cè)的熱點(diǎn)內(nèi)容,許多學(xué)者不斷嘗試使用較為有效的LBP及其改進(jìn)的顏色紋理特征提取方法。由于簡(jiǎn)單的LBP特征只反映了圖像局部區(qū)域中心點(diǎn)與鄰近點(diǎn)像素值間的大小關(guān)系而忽略了細(xì)節(jié)信息,所以需要對(duì)LBP算子進(jìn)行了優(yōu)化與改進(jìn)。Nosaka等人提出了相鄰局部二值模式(co-occurrence of adjacent local binary pattern,CoALBP)算子[14],與LBP相比該算子包含了更多的空間信息,但是仍只考慮了中心點(diǎn)像素值以及與其相鄰像素值之間的大小關(guān)系,若具體差值不同時(shí),也可得到完全相同的序列,從而忽略了差值大小包含的紋理信息。束鑫等人提出了差分量化局部二進(jìn)制模式(different quantization local binary pattern,DQ_LBP)用于人臉活體檢測(cè)的研究[15]。DQ_LBP特征利用圖像局部中心點(diǎn)與周圍點(diǎn)之間的差值來細(xì)化局部二值模式的紋理信息,考慮了不同的差值包含的紋理信息,但是忽略了空間信息。本文針對(duì)以上兩個(gè)算子的存在問題提出了一種差分量化相鄰局部二值模式(different quantization co-occurrence of adjacent local binary pattern,DQ_CoALBP)算子,既包含了不同方向的信息,又量化了中心點(diǎn)與鄰近像素之間的差值信息,具有更多的空間信息和細(xì)節(jié)信息。實(shí)驗(yàn)結(jié)果表明,DQ_CoALBP與局部相位量化(local phase quantization,LPQ)算子的融合在識(shí)別性能上有較大的提升,甚至比一些已有的卷積神經(jīng)網(wǎng)絡(luò)模型更加有效,尤其是在Replay-Attack數(shù)據(jù)集上實(shí)現(xiàn)了零錯(cuò)誤率檢測(cè),可達(dá)到最佳性能。
局部紋理特征能夠有效地獲取圖像的局部細(xì)節(jié)特征。因此,在人臉活體檢測(cè)相關(guān)技術(shù)中,圖像紋理特征被廣泛使用。
LBP算子的統(tǒng)計(jì)方式往往忽略了鄰近算子的空間信息,導(dǎo)致不同的LBP算子排列形式有可能會(huì)得到相同的LBP統(tǒng)計(jì)直方圖。CoALBP作為L(zhǎng)BP改進(jìn)算子,對(duì)鄰近特征算子之間的空間關(guān)系進(jìn)行統(tǒng)計(jì),采用簡(jiǎn)化LBP算子將原本的8個(gè)鄰域點(diǎn)縮減為4個(gè),組合兩個(gè)鄰近的簡(jiǎn)化LBP算子構(gòu)成8位二進(jìn)制編碼。簡(jiǎn)化LBP算子分為L(zhǎng)BP+和LBP×兩類,其中LBP+只計(jì)算中心點(diǎn)與其直接相連的四鄰域點(diǎn),LBP×計(jì)算中心點(diǎn)與對(duì)角鄰域點(diǎn),計(jì)算方式如圖1所示。
圖1 簡(jiǎn)化LBP算子的兩種形式示例Fig.1 Two forms examples of simplified LBP descriptor
將CoALBP算子的計(jì)算方向規(guī)定為四個(gè)方向D={(0,Δa),(Δa,0),(Δa,Δa),(-Δa,Δa)},其中a為鄰域半徑,圖2為CoALBP算子對(duì)應(yīng)的向下、向右、向右下與向左下這四個(gè)方向的具體描述。對(duì)四個(gè)方向的計(jì)算結(jié)果分別進(jìn)行直方圖統(tǒng)計(jì),再將四個(gè)統(tǒng)計(jì)直方圖依次連接起來,形成最終的CoALBP特征。
DQ_LBP算子借鑒LBP的構(gòu)造過程來量化局部相鄰像素之間的差值,即將量化的差值附加在以2為底的指數(shù)中,使其在進(jìn)行編碼時(shí)能夠考慮差值信息。因此,DQ_LBP算子的特征維度與LBP一致且包含更豐富的紋理信息。在運(yùn)算前構(gòu)造與中心點(diǎn)像素歸一化值為:
圖2 CoALBP算子的空間方向Fig.2 Spatial direction of CoALBP descriptor
其中,rc和rn(n=1,2,…,P)分別表示中心點(diǎn)的像素值和位于半徑R(R>0)圓上的P個(gè)鄰域像素值。max表示該算子所能表示的最大值,其大小取決于周圍點(diǎn)的選取個(gè)數(shù)P,可用max=2P-1表示(如果P=8,則max=255)。將A∈(0,1]作為附加信息添加到指數(shù)中,構(gòu)造DQ_LBP算子:
為了使DQ_LBPP,R算子不會(huì)因?yàn)閚值的大小而過多改變當(dāng)前位的LBP信息,則構(gòu)造約束函數(shù)C:
最終得到的DQ_LBP算子為:
若D Q_LBPP,R>max,則設(shè)置DQ_LBPP,R=max。
CoALBP算子忽略了局部中心點(diǎn)與相鄰點(diǎn)像素之間的差異信息,而DQ_LBP則沒有考慮鄰近算子的空間信息。本文綜合考慮上述兩種算子,將DQ_LBP思想融入CoALBP描述算子中,提出了DQ_CoALBP描述算子,其量化了CoALBP算子的四個(gè)方向局部相鄰像素之間的差值,相較于LBP算子既考慮了鄰近算子的空間信息,又加入了中心點(diǎn)與相鄰點(diǎn)像素之間的差異信息。圖3給出了DQ_CoALBP算子的四個(gè)方向(右、下、右下、左下)計(jì)算示意,由中心點(diǎn)像素(圖中對(duì)應(yīng)標(biāo)星位置)結(jié)合其鄰位像素組成DQ_CoALBP所需要的八位像素差值。圖3中采用LBP+作為簡(jiǎn)化LBP特征。
如圖3所示,當(dāng)計(jì)算右方向時(shí),假設(shè)當(dāng)前觀測(cè)像素點(diǎn)為r(i,j),第1位像素差值由像素點(diǎn)r(i-1,j)與像素點(diǎn)r(i,j)相減得到,第5位則是由像素點(diǎn)r(i-1,j+1)與像素點(diǎn)r(i,j+1)相減得到,其余位數(shù)的差值按照?qǐng)D中框內(nèi)右上角標(biāo)號(hào)順序依次計(jì)算獲??;當(dāng)計(jì)算下方向時(shí),第5位則是由像素點(diǎn)r(i,j)與像素點(diǎn)r(i+1,j)相減得到;右下和左下方向可由此類推得到,最終獲取DQ_CoALBP計(jì)算所需的全部8位數(shù)據(jù)。
在獲取所需的八位差值數(shù)據(jù)后,按式(1)做相應(yīng)位置的差值歸一化處理,這里n∈{1,2,…,8}表示圖3中的位置標(biāo)號(hào),rc表示rn對(duì)應(yīng)位置的中心點(diǎn)像素,比如r(i-1,j)對(duì)應(yīng)的中心點(diǎn)像素為r(i,j),r(i-1,j+1)對(duì)應(yīng)的中心點(diǎn)像素為r(i,j+1)。約束因子C由式(3)計(jì)算得到,其中P=8。然后按式(5)計(jì)算得到右移的8位DQ_CoALBP值:
圖3 DQ_CoALBP算子計(jì)算示意圖Fig.3 Calculation diagram of DQ_CoALBP descriptor
同理,其余三個(gè)方向的DQ_CoALBP值可以由式(5)結(jié)合相應(yīng)位置的像素差值進(jìn)行計(jì)算,然后對(duì)四個(gè)方向的DQ_CoALBP值進(jìn)行統(tǒng)計(jì),將所獲取的四個(gè)直方圖統(tǒng)計(jì)向量拼接在一起,組成分類器所需的輸入特征向量。DQ_CoALBP算子提取人臉特征的計(jì)算流程如圖4所示。
為了提高人臉活體檢測(cè)算法的識(shí)別能力,本文將提出的DQ_CoALBP算子與LPQ算子相融合進(jìn)行人臉活體檢測(cè)研究。
LPQ算子具有對(duì)圖像模糊不敏感的特性,利用離散的短時(shí)傅里葉變換來計(jì)算像素點(diǎn)局部M×M領(lǐng)域內(nèi)的相位信息[16],其計(jì)算如式(6)所示:
其中,u表示頻率。局部傅里葉系數(shù)通過4個(gè)頻點(diǎn)u1=[a,0]T,u2=[0,a]T,u3=[a,a]T,u4=[a,-a]T來計(jì)算,a表示很小范圍,a=1/M。對(duì)于每個(gè)像素位置,通過向量表示:
傅里葉系數(shù)相位可以通過每個(gè)部分的實(shí)部和虛部的符號(hào)來表示,具體計(jì)算如式(8)所示:
其中,gj是向量G(x)=[Re(F(x)),Im(F(x))]的第j個(gè)部分,利用qj對(duì)其進(jìn)行二進(jìn)制編碼,獲得LPQ算子如式(9)所示:
色彩特征是區(qū)分活體人臉和假體人臉的重要特征,人臉在二次成像后會(huì)產(chǎn)生許多紋理差異,這種差異在色彩通道上表現(xiàn)更為明顯。HSV是一種基于色調(diào)(H)、飽和度(S)與亮度(V)的錐狀顏色空間模型;YCbCr是一種由亮度(Y)、藍(lán)色分量(Cb)與紅色分量(Cr)三種基向量組成的顏色空間模型。與RGB顏色空間相比,這兩種顏色空間不僅包含顏色信息,還包含有亮度、飽和度等信息。圖5和圖6為真實(shí)人臉和假體人臉分別在HSV和YCbCr色彩空間的分量直方圖。
本文先將圖像的色彩空間由RGB分別轉(zhuǎn)換成HSV、YCbCr色彩空間,然后分別從HSV色彩空間的H通道、S通道與V通道,以及YCbCr色彩空間的Y通道、Cb通道與Cr通道提取LPQ與DQ_CoALBP特征。
在人臉活體檢測(cè)系統(tǒng)設(shè)計(jì)時(shí),應(yīng)先對(duì)數(shù)據(jù)集中的視頻數(shù)據(jù)進(jìn)行視頻幀截取和人臉檢測(cè)的預(yù)處理。人臉檢測(cè)運(yùn)用了Dlib庫(kù)中基于方向梯度直方圖(histogram of oriented gradient,HOG)[17]的人臉檢測(cè)器。為了提高檢測(cè)效率,只選用輸入視頻中的少數(shù)幀進(jìn)行檢測(cè)。首先獲取每個(gè)視頻的所有幀并計(jì)算幀數(shù),然后根據(jù)幀數(shù)等差獲取N幀圖像。之后對(duì)單幅圖像運(yùn)用關(guān)鍵點(diǎn)檢測(cè)算法進(jìn)行人臉檢測(cè)及定位得到矩形人臉框,將每幅圖像裁剪成只包含人臉信息的圖像,忽略除人臉以外的背景信息,尺寸歸一化為64×64像素。再將人臉圖像轉(zhuǎn)換為HSV、YCbCr顏色空間并進(jìn)行色彩通道的分離,對(duì)分離后的三個(gè)通道提取DQ_CoALBP和LPQ紋理特征,將特征直方圖按照順序排列進(jìn)行特征融合,最后利用高斯核SVM分類器進(jìn)行是否活體人臉的判別。系統(tǒng)設(shè)計(jì)流程如圖7所示。
圖4 DQ_CoALBP算子計(jì)算流程圖Fig.4 Calculation flow chart of DQ_CoALBP descriptor
圖5 HSV色彩空間分量直方圖Fig.5 HSV color space component histogram
圖7 系統(tǒng)流程圖Fig.7 System flow chart
為評(píng)估本文所提出特征算子的性能,對(duì)CASIAFASD[18]、Replay-Attack[19]兩個(gè)公開人臉活體檢測(cè)數(shù)據(jù)集進(jìn)行實(shí)驗(yàn),主要工作:
(1)通過在不同顏色空間提取DQ_CoALBP和LPQ特征,將DQ_CoALBP和DQ_CoALBP+LPQ與其他特征提取方法進(jìn)行對(duì)比。
(2)將本文方法與其他前沿人臉活體檢測(cè)方法進(jìn)行比較。
CASIA-FASD數(shù)據(jù)集錄制了50個(gè)個(gè)體的活體人臉與假體人臉,共600個(gè)視頻,分別為低、中、高三種不同質(zhì)量的視頻數(shù)據(jù)。假體人臉包括完整的彩色照片假體人臉,去除眼睛部分的彩色照片假體人臉以及視頻類假體人臉。照片類假體人臉在錄制的過程中也錄制了正面平展照片以及彎曲照片的情況。圖8是CASIA-FASD數(shù)據(jù)集中的示例人臉圖像,依次是真實(shí)人臉、相應(yīng)的卷曲照片假體人臉(完整)、剪切照片假體人臉(去除眼睛),以及視頻回放攻擊假體人臉。
圖8 CASIA-FASD數(shù)據(jù)集中的示例人臉Fig.8 Face examples in CASIA-FASD dataset
Replay-Attack數(shù)據(jù)集由瑞士的IDIAP研究所發(fā)布,含有1 300個(gè)人臉視頻樣本,共有50個(gè)受試者參與數(shù)據(jù)的采集,包括訓(xùn)練集、驗(yàn)證集和測(cè)試集。Replay-Attack數(shù)據(jù)集在兩種不同的光照條件下分別錄制了手持照片、固定照片兩種不同照片攻擊模式的數(shù)據(jù),其中照片是打印在A4紙上的彩色照片。圖9是Replay-Attack數(shù)據(jù)集的示例人臉,依次是真實(shí)人臉、手持照片假體人臉以及固定照片假體人臉。
圖9 Replay-Attack數(shù)據(jù)集中的示例人臉Fig.9 Face examples in Replay-Attack dataset
本文以等錯(cuò)誤率(equal error rate,EER)和半錯(cuò)誤率(half total error rate,HTER)為評(píng)價(jià)指標(biāo)[15]。EER為錯(cuò)誤接受率(false accept rate,F(xiàn)AR)與錯(cuò)誤拒絕率(false reject rate,F(xiàn)RR)的兩條曲線相交點(diǎn)的對(duì)應(yīng)值,HTER為FAR與FRR的均值。其中,F(xiàn)AR指算法把假體人臉判斷成活體人臉的比率;FRR指算法把活體人臉判斷成假體人臉的比率,其定義分別如式(10)與(11)所示:
其中,Ns2l表示假體人臉判為活體人臉的次數(shù),Ns表示假體人臉攻擊總次數(shù),Nl2s表示活體人臉判為假體人臉的次數(shù),Nl表示活體人臉檢測(cè)總次數(shù)。
表1和表2分別給出了CASIA-FASD與Replay-Attack兩個(gè)數(shù)據(jù)集下的LBP、LPQ、CoALBP、DQ_LBP、DQ_CoALBP與DQ_CoALBP+LPQ六種特征提取算子選用高斯核SVM分類器的實(shí)驗(yàn)結(jié)果,其中加粗?jǐn)?shù)據(jù)為在同一種顏色空間下縱向比較各種算子的最佳結(jié)果,加下劃線數(shù)據(jù)為對(duì)于同一種算子橫向比較各種顏色空間的最佳結(jié)果。這兩個(gè)數(shù)據(jù)集均在給出時(shí)已劃分好訓(xùn)練集和測(cè)試集。從CASIA-FASD訓(xùn)練集的人臉視頻中選取6 532張人臉照片作訓(xùn)練集,測(cè)試集中選取9 720張人臉照片用作測(cè)試。從Replay-Attack訓(xùn)練集的人臉視頻中選取9 951張人臉照片作訓(xùn)練集,測(cè)試集中選取12 796張人臉照片用作測(cè)試。
由表1與表2可知,對(duì)于所有的算子來說,采用顏色空間特征的兩種錯(cuò)誤率均低于灰度圖像;若比較前五種算子在不同顏色空間的最佳性能,則DQ_CoALBP算子在兩個(gè)數(shù)據(jù)集上的表現(xiàn)均優(yōu)于LBP、LPQ、CoALBP與DQ_LBP四種算子。對(duì)于CASIA-FASD數(shù)據(jù)集,YCbCr顏色空間下的DQ_CoALBP算子的EER和HTER分別為3.8%和4.7%;對(duì)于Replay-Attack數(shù)據(jù)集,HSV顏色空間下的DQ_CoALBP算子的EER和HTER均為0.1%。同時(shí)對(duì)于這兩個(gè)數(shù)據(jù)集,DQ_CoALBP與LPQ特征融合的結(jié)果在相同色彩空間條件下均達(dá)到了最佳結(jié)果(如最后一行的加粗?jǐn)?shù)據(jù)所示),尤其是采用YCbCr顏色空間時(shí)在CASIA-FASD數(shù)據(jù)集上的EER和HTER分別降至2.5%和3.7%,在Replay-Attack數(shù)據(jù)集上的EER和HTER均降至0。另外,對(duì)于Replay-Attack數(shù)據(jù)集在采用DQ_CoALBP與LPQ特征融合時(shí),RGB、HSV與YCbCr三種顏色模型均獲得了最低EER和HTER,即降至0,實(shí)現(xiàn)無(wú)差錯(cuò)檢測(cè)。
圖10給出六種特征提取算子在CASIA-FASD與Replay-Attack數(shù)據(jù)集上的ROC曲線,橫坐標(biāo)為假正率(false positive rate,F(xiàn)PR),縱坐標(biāo)為真正率(true positive rate,TPR),其中每條曲線均為相應(yīng)特征下取得的最好結(jié)果。由圖10可見,對(duì)于兩個(gè)不同的數(shù)據(jù)集DQ_CoALBP算子曲線均位于其他單特征算子上方,且融合特征DQ_CoALBP+LPQ具有最佳的識(shí)別性能。
圖10 不同特征提取算子的ROC曲線Fig.10 ROC curves of different feature extraction descriptors
表1 不同特征提取算子在CASIA-FASD數(shù)據(jù)集上性能Table 1 Performance of different feature extraction descriptors on CASIA-FASD dataset %
表2 不同特征提取算子在Replay-Attack數(shù)據(jù)集上性能Table 2 Performance of different feature extraction descriptors on Replay-Attack dataset %
為了進(jìn)一步說明所提出的DQ_CoALBP+LPQ融合特征的有效性,本文采用YCbCr顏色空間下的DQ_CoALBP+LPQ融合特征,與其他先進(jìn)的人臉活體檢測(cè)方法進(jìn)行比較,實(shí)驗(yàn)結(jié)果如表3所示。由表3可知,本文所提出的方法在兩種數(shù)據(jù)集上均顯示出較為優(yōu)異的結(jié)果,尤其是在Replay-Attack數(shù)據(jù)集上實(shí)現(xiàn)了無(wú)差錯(cuò)檢測(cè),達(dá)到最佳性能;在CASIA-FASD數(shù)據(jù)集上的性能要好于其他不采用卷積神經(jīng)網(wǎng)絡(luò)的特征提取方法[6,20],較SURF特征的EER指標(biāo)降低0.3個(gè)百分點(diǎn),較LBP+DCT特征的HTER指標(biāo)降低14.36個(gè)百分點(diǎn),甚至超過了部分基于深度卷積神經(jīng)網(wǎng)絡(luò)所構(gòu)建模型的性能[22-23],較3D CNN的HTER指標(biāo)降低7.636個(gè)百分點(diǎn),較LiveNet的EER指標(biāo)降低2.09個(gè)百分點(diǎn)。同時(shí),從實(shí)驗(yàn)結(jié)果可以看出CASIA-FASD數(shù)據(jù)集的檢測(cè)難度要比Replay-Attack數(shù)據(jù)集大,這是因?yàn)镽eplay-Attack包含的欺騙攻擊類型要少一些。
表3 與其他前沿方法的性能對(duì)比Table 3 Performance comparison with other frontier methods %
本文在研究CoALBP和DQ_LBP基礎(chǔ)上提出了一種差分量化相鄰局部二值模式DQ_CoALBP算子,可綜合考慮空間信息,增加了更多的紋理信息。面向圖片與視頻攻擊下的人臉活體檢測(cè)任務(wù),本文在對(duì)人臉檢測(cè)及歸一化后,針對(duì)YCbCr顏色空間通道將DQ_CoALBP與LPQ算子所提取的直方圖特征相融合,利用SVM分類器實(shí)現(xiàn)是否活體人臉的判別。在CASIA-FASD與Replay-Attack數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果表明,本文所提出的人臉活體檢測(cè)方法具有較為優(yōu)異的識(shí)別性能。
現(xiàn)實(shí)生活中存在各種各樣的假體攻擊,這是人臉活體檢測(cè)算法無(wú)法回避的問題,而目前的人臉活體檢測(cè)算法在跨數(shù)據(jù)集檢測(cè)的精度還有待提高。如何將本文所提出的局部紋理模式算子與深度學(xué)習(xí)相結(jié)合,以提高算法的跨數(shù)據(jù)集檢測(cè)的精度是值得進(jìn)一步深入研究的。