韓 笑,韓 劍
(桂林電子科技大學(xué)信息科技學(xué)院,廣西 桂林 541004)
隨著計(jì)算機(jī)技術(shù)和人工智能技術(shù)的飛速普及,信息安全領(lǐng)域的解決方案也需要滿足越來(lái)越高的要求。傳統(tǒng)的身份鑒別方式大多借助外物或者身份標(biāo)識(shí)知識(shí)等,這種依托外物或者自身記憶力的驗(yàn)證方式,一旦證明身份的標(biāo)識(shí)物被丟失或者竊取,其身份中的信息安全將面臨十分嚴(yán)重的威脅。現(xiàn)階段不同類型的生物個(gè)體主要具有以下幾方面的特征:①穩(wěn)定性較強(qiáng);②安全性較高等。所以人體生物特征識(shí)別明顯優(yōu)于傳統(tǒng)的身份鑒別方式[1,2]。生物識(shí)別技術(shù)能夠借助計(jì)算機(jī)等各種智能技術(shù)實(shí)現(xiàn)管理和監(jiān)控等相關(guān)工作,為更好實(shí)現(xiàn)信息化、自動(dòng)化管理奠定了堅(jiān)實(shí)的基礎(chǔ)。
在大量的身份鑒定技術(shù)中,人臉識(shí)別是目前使用范圍比較廣,且最符合人類區(qū)分不同個(gè)體的有效方式,大部分的人臉識(shí)別技術(shù)主要利用攝像機(jī)完成圖像采集,為身份鑒別提供了全新的發(fā)展路徑。國(guó)內(nèi)外相關(guān)專家也針對(duì)人臉局部特征識(shí)別進(jìn)行大量的研究,例如郭蓓等人[3]通過(guò)多尺度形狀變化指數(shù)對(duì)人臉圖像的關(guān)鍵點(diǎn)進(jìn)行檢測(cè),同時(shí)提取直方圖描述子,將各個(gè)子集中的描述子進(jìn)行匹配;同時(shí)采用關(guān)鍵點(diǎn)提取協(xié)方差矩陣中的描述子,通過(guò)成功匹配的關(guān)鍵點(diǎn)數(shù)量對(duì)人臉進(jìn)行匹配,獲取最終的識(shí)別結(jié)果。余璟等人[4]優(yōu)先對(duì)人臉圖像中的旋轉(zhuǎn)向量進(jìn)行編碼,將獲取的局部旋度模式作為表情特征,通過(guò)ICNP算法和最小投影偏差算法對(duì)人臉不規(guī)則區(qū)域進(jìn)行劃分,同時(shí)將含有權(quán)重取值的旋度模式輸入到分類器中,完成人臉識(shí)別。上述兩種識(shí)別方法未能對(duì)人臉圖像進(jìn)行去噪處理,導(dǎo)致測(cè)試時(shí)間大幅度增加,識(shí)別率下降。
針對(duì)上述問(wèn)題,提出一種融合分層視覺(jué)特征感知的人臉局部特征識(shí)別方法,仿真結(jié)果表明,所提方法能夠有效提升識(shí)別率,同時(shí)還能夠有效減少測(cè)試時(shí)間。
小波變換是目前使用比較廣泛的信號(hào)分析方法[5,6],主要優(yōu)勢(shì)為多分辨率分析,具有較強(qiáng)的信號(hào)表征能力。當(dāng)信號(hào)經(jīng)過(guò)小波變換后,能夠通過(guò)小波系數(shù)進(jìn)行描述,通過(guò)小波系數(shù)全面體現(xiàn)信號(hào)的不同性質(zhì)。
(1)
如果f(x)∈L2(R)代表未進(jìn)行分析的信號(hào),設(shè)定a>0,則連續(xù)小波變換能夠表示為
(2)
式中,WTf(a,b)代表連續(xù)小波變換。
(3)
當(dāng)f(x,y)代表圖像信號(hào)時(shí),則說(shuō)明二維小波變換分別沿著x和y方向采用不同的一維濾波器進(jìn)行濾波處理,獲取高低頻子帶圖像。利用圖1給出一層小波變換示意圖。
圖1 圖像的一層小波變換示意圖
小波包分析是在小波分析的基礎(chǔ)上提出的,通過(guò)小波包能夠更加精準(zhǔn)且全面地描述圖像的高頻部分,同時(shí)還能夠有效提升算法的信號(hào)分析能力。
隨著尺度的不斷增加,空間分辨率也會(huì)隨之增加,但是頻率分辨率則呈直線下降趨勢(shì)。小波包的出現(xiàn)有效改善了正交小波變換中存在的不足。其中,小波包的去噪處理步驟如下所示[7,8]:
1)人臉圖像的小波分解:
選取一個(gè)小波,設(shè)定L為分解層數(shù),對(duì)人臉圖像進(jìn)行L層小波分解。
2)最佳小波包基的獲取:
針對(duì)已經(jīng)給定的熵標(biāo)準(zhǔn)進(jìn)行最佳數(shù)計(jì)算,實(shí)現(xiàn)最佳小波基的獲取。
3)閾值量化:
選取滿足算法需求的閾值,結(jié)合閾值對(duì)圖像各個(gè)層中的高頻系數(shù)進(jìn)行量化處理。
4)小波包重構(gòu):
通過(guò)小波分解對(duì)低高頻系數(shù)進(jìn)行小波重構(gòu),最終實(shí)現(xiàn)人臉圖像去噪。
優(yōu)先通過(guò)Adabost算法對(duì)經(jīng)過(guò)去噪處理的人臉圖像進(jìn)行五官檢測(cè),其中Adabost模型的具體組成結(jié)構(gòu)如圖2所示。
圖2 Adabost模型的組成結(jié)構(gòu)
為了有效提取人臉局部特征[9,10],需要借助SITF算法和MTLBP算法實(shí)現(xiàn)。由于LBP算子中全部模式攜帶的信息重要程度完全不同,在一幅圖像中只有少數(shù)模式代表的特征比較集中。當(dāng)使用LBP算法進(jìn)行圖像紋理處理的過(guò)程中,需要將其它類劃分到同一類中,對(duì)應(yīng)的計(jì)算式為
(4)
對(duì)各個(gè)尺度下的人臉圖像進(jìn)行分析,同時(shí)確保認(rèn)知是一致的,結(jié)合SIFT算法進(jìn)行尺度空間的建立。通過(guò)視覺(jué)系統(tǒng)對(duì)物體進(jìn)行識(shí)別和分析的過(guò)程中構(gòu)建高斯尺度空間,當(dāng)人臉圖像通過(guò)高斯函數(shù)進(jìn)行卷積操作后,會(huì)產(chǎn)生不同的模糊效果。人臉圖像I(x,y)的尺度空間是通過(guò)卷積核進(jìn)行卷積操作獲取,具體的計(jì)算式如下
L(x,y,σ)=G(x,y,σ)*I(x,y)
(5)
式中,L(x,y,σ)代表空間尺度;G(x,y,σ)代表高斯函數(shù),具體的表達(dá)形式為
(6)
式中,σ代表高斯正態(tài)分布的標(biāo)準(zhǔn)差取值,即尺度空間中的尺度因子。σ的取值越大,說(shuō)明得到的人臉圖像模糊程度越嚴(yán)重,同時(shí)圖像的尺度因子也會(huì)增加,通過(guò)尺度因子能夠更好地反映人臉圖像的模糊程度。
建立尺度空間是為了實(shí)現(xiàn)不同尺度下的特征點(diǎn)檢測(cè),其中檢測(cè)點(diǎn)性能比較好的算子為Δ2
(7)
式中,?代表圖像中全部檢測(cè)點(diǎn)的數(shù)量。
通常情況下,可以通過(guò)DOG來(lái)近似估計(jì)LOG。其中,DOG定義能夠表示為
(8)
式中,D(x,y,σ)代表高斯差分;k代表兩個(gè)鄰近尺度空間的比例因子。
根據(jù)已經(jīng)建立完成的尺度空間,在多尺度下對(duì)人臉圖像中的全部像素點(diǎn)進(jìn)行比較和分析。在DOG中,需要將圖像中的所有像素點(diǎn)和在同一尺度的鄰近像素點(diǎn)進(jìn)行對(duì)比分析,如果像素點(diǎn)小于或者大于相鄰像素點(diǎn),則說(shuō)明該像素為人臉圖像中的極值點(diǎn)。
當(dāng)通過(guò)尺度空間完成人臉圖像中各極值點(diǎn)檢測(cè)后,需要為局部圖像分配各個(gè)方位的關(guān)鍵點(diǎn),同時(shí)結(jié)合SIFI,依據(jù)特征點(diǎn)的方向信息獲取人臉圖像旋轉(zhuǎn)不變性的核心。
通過(guò)DOG金字塔確定圖像中各個(gè)極值點(diǎn)的坐標(biāo)位置,獲取對(duì)應(yīng)的尺度空間σ和尺度圖像。對(duì)于樣本圖像L(x,y)而言,需要獲取當(dāng)尺度規(guī)模為σ時(shí)圖像的梯度幅度m(x,y)和方向θ(x,y),具體計(jì)算過(guò)程如下所示
m(x,y)=
(9)
(10)
通過(guò)式(9)和式(10)能夠獲取人臉圖像的梯度幅值和方向,主要通過(guò)前值獲取圖像中各個(gè)極值點(diǎn)的方向和幅值信息。同時(shí),設(shè)定坐標(biāo)系中的橫坐標(biāo)為人臉圖像的梯度方向,而縱坐標(biāo)設(shè)定為梯度方向的幅值累加和。
在上述操作的基礎(chǔ)上,能夠精準(zhǔn)確定圖像中各個(gè)關(guān)鍵點(diǎn)的坐標(biāo)和方位信息。對(duì)關(guān)鍵點(diǎn)各個(gè)位置上優(yōu)先設(shè)定的幅值和方向進(jìn)行描述,整個(gè)過(guò)程就是描述子的形成過(guò)程。將各個(gè)關(guān)鍵點(diǎn)對(duì)應(yīng)的方向、幅值信息和鄰域內(nèi)的像素點(diǎn)極值進(jìn)行對(duì)比,使描述子中含有大量的人臉像素點(diǎn)信息。以下詳細(xì)給出描述子的形成過(guò)程,如下所示:
1)將經(jīng)過(guò)去噪處理的人臉圖像進(jìn)行旋轉(zhuǎn)調(diào)整,使其能夠保持旋轉(zhuǎn)不變性,同時(shí)還能夠?qū)⒆鴺?biāo)軸旋轉(zhuǎn)到對(duì)應(yīng)的中心點(diǎn)。其中,人臉圖像進(jìn)行旋轉(zhuǎn)的過(guò)程能夠表示為
(11)
式中,θ代表原始人臉圖像各軸和特征點(diǎn)方向之間的角度。
2)在經(jīng)過(guò)旋轉(zhuǎn)后的圖像上,將特征點(diǎn)設(shè)定為中心,將全部圖像區(qū)域進(jìn)行統(tǒng)一化處理,將圖像區(qū)域劃分至對(duì)應(yīng)的圖像子區(qū)域中,利用各個(gè)子區(qū)域圖像中像素點(diǎn)的方向進(jìn)行梯度模值計(jì)算。同時(shí)繪制各個(gè)方位的梯度直方圖,組建維數(shù)為128的SIFT特征向量。
當(dāng)使用LBP算法進(jìn)行人臉特征無(wú)差別提取時(shí),首先針對(duì)圖像各個(gè)分區(qū)內(nèi)的像素進(jìn)行遍歷處理,同時(shí)對(duì)對(duì)應(yīng)區(qū)域的頻數(shù)直方圖進(jìn)行求解,即采用權(quán)重對(duì)人臉表情較為豐富的區(qū)域進(jìn)行加強(qiáng)處理。為了有效避免特征提取過(guò)程中出現(xiàn)的外界干擾,將LBP算法和SIFT算法兩者相結(jié)合進(jìn)行人臉局部特征識(shí)別。以下給出詳細(xì)的操作流程:
1)優(yōu)先對(duì)人臉圖像進(jìn)行預(yù)處理,提取Harr特征值,將其輸入到弱分類中進(jìn)行訓(xùn)練,獲取級(jí)聯(lián)分類器,同時(shí)通過(guò)級(jí)聯(lián)分類器對(duì)人臉圖像中各個(gè)器官進(jìn)行檢測(cè)。
2)通過(guò)SIFT算法對(duì)人臉圖像已經(jīng)選定區(qū)域內(nèi)的關(guān)鍵點(diǎn)進(jìn)行檢測(cè),設(shè)定(x,y)代表關(guān)鍵點(diǎn)pi所在的坐標(biāo)位置,通過(guò)計(jì)算pi能夠得到人臉圖像特征向量。
3)選取pi作為人臉圖像的中心,獲取規(guī)格為8×8的圖像區(qū)域。
4)將SIFT和LBP中的特征向量進(jìn)行加權(quán)組合,獲取人臉圖像中關(guān)鍵點(diǎn)和對(duì)應(yīng)鄰域區(qū)域內(nèi)的特征向量。
最后,建立一個(gè)分層視覺(jué)特征感知模型,該模型分為初級(jí)、終極和高級(jí)視覺(jué)特征感知模型,各個(gè)分層模型中具體包括池化層、卷積層和全連接層,其中,運(yùn)用Q表示卷積核的大小,o表示池化步長(zhǎng),g(x)表示激活函數(shù),則分層視覺(jué)特征感知模型可以通過(guò)式(12)進(jìn)行表示
(12)
式中,Di-1代表各層輸出特征圖的大?。籇i代表各層感知模擬單元。
通過(guò)分層視覺(jué)特征感知模型對(duì)各個(gè)分層進(jìn)行感知,根據(jù)感知結(jié)果實(shí)現(xiàn)人臉局部特征識(shí)別。
為了驗(yàn)證所提融合分層視覺(jué)特征感知的人臉局部特征識(shí)別方法的有效性,在FERET人臉數(shù)據(jù)庫(kù)中選取部分樣本作為測(cè)試對(duì)象,利用圖3給出:
圖3 測(cè)試圖像
為了分析各個(gè)方法對(duì)人臉局部特征的識(shí)別效果,優(yōu)先對(duì)圖3中的6個(gè)人臉局部特征進(jìn)行識(shí)別,具體識(shí)別結(jié)果如圖4所示:
圖4 不同方法的人臉局部特征識(shí)別結(jié)果
分析圖4中的實(shí)驗(yàn)數(shù)據(jù)可知,所提方法能夠準(zhǔn)確識(shí)別人臉局部特征,但是文獻(xiàn)[3]方法和文獻(xiàn)[4]方法只能夠識(shí)別人臉中的部分特征,甚至還有些特征無(wú)法識(shí)別,充分證明了所提方法的優(yōu)越性。
以下給出14次實(shí)驗(yàn)測(cè)試各個(gè)方法的識(shí)別率和測(cè)試時(shí)間變化情況,具體實(shí)驗(yàn)結(jié)果如圖5和表1所示。
圖5 不同方法的識(shí)別率對(duì)比結(jié)果
表1 不同方法的測(cè)試時(shí)間對(duì)比結(jié)果
對(duì)圖5和表1中的實(shí)驗(yàn)數(shù)據(jù)進(jìn)行分析可知,文獻(xiàn)[3]方法和文獻(xiàn)[4]方法的識(shí)別率明顯低于所提方法,同時(shí)測(cè)試時(shí)間高于所提方法。由此可見(jiàn),所提方法能夠以較快的速度和較高的識(shí)別率完成識(shí)別。
為了更進(jìn)一步驗(yàn)證所提方法的性能,以下實(shí)驗(yàn)測(cè)試對(duì)比各個(gè)方法在表情庫(kù)和姿態(tài)庫(kù)的平均識(shí)別率變化結(jié)果,如圖6所示。
圖6 不同方法在表情庫(kù)和姿態(tài)庫(kù)的平均識(shí)別率變化情況
分析圖6中的實(shí)驗(yàn)數(shù)據(jù)可知,不論是在表情庫(kù)還是在姿態(tài)庫(kù),另外兩種方法的平均識(shí)別率都明顯低于所提方法。由于所提方法在人臉局部特征識(shí)別的過(guò)程中加入了去噪環(huán)節(jié),有效濾除圖像中的噪聲,促使整個(gè)方法在表情和姿態(tài)方面都能夠獲取比較理想的識(shí)別結(jié)果。
為了有效彌足現(xiàn)有人臉局部特征識(shí)別方法存在的不足,提出一種融合分層視覺(jué)特征感知的人臉局部特征識(shí)別方法。測(cè)試結(jié)果表明,所提方法能夠全面提升人臉局部特征識(shí)別率,同時(shí)還能夠有效減少測(cè)試時(shí)間,在表情和姿態(tài)庫(kù)均能夠獲取理想的識(shí)別結(jié)果。