鄢麗娟,張彥虎
(廣東松山職業(yè)技術(shù)學(xué)院 計(jì)算機(jī)與信息工程學(xué)院,韶關(guān) 512126)
隨著計(jì)算機(jī)圖形圖像處理能力的進(jìn)步與發(fā)展,人臉識(shí)別成為近年科研人員研究的熱點(diǎn)之一,人臉識(shí)別常用的技術(shù)方案有兩種[1],一種是基于人臉的全局特征進(jìn)行識(shí)別,能夠有效的反映臉部特征的整體概況,比較典型的方法有主成分分析(PCA)[2]、線性判別分析(LDA)[3]等.另一種是基于人臉的局部特征進(jìn)行識(shí)別,側(cè)重于體現(xiàn)臉部的細(xì)節(jié)信息,比較典型的有局部二值模式(LBP)[4]、尺度不變特征變換(SIFT)[5]、梯度方向直方圖(HOG)[6].
針對(duì)第二種方法,研究人員做了大量的探索與改進(jìn),文獻(xiàn)[7,8]針對(duì)HOG 算法進(jìn)行了不同程度的改進(jìn),在光照、旋轉(zhuǎn)等方面取得較好的效果;文獻(xiàn)[9]將分塊LBP 應(yīng)用于人臉識(shí)別中取得了良好的識(shí)別效果;文獻(xiàn)[10]提出一種通過(guò)提取MSF-VQ 特征進(jìn)行人臉識(shí)別的算法;文獻(xiàn)[11]提出一種通過(guò)改進(jìn)加權(quán)稀疏進(jìn)行人臉識(shí)別的算法;文獻(xiàn)[12]提出一種基于分塊CBP 特征和稀疏表示進(jìn)行人臉識(shí)別的算法;文獻(xiàn)[13]提出完備局部二值模式(CLBP)人臉識(shí)別算法,在LBP 原基礎(chǔ)上增加了局部差異值和中心像素灰度值的分析進(jìn)行分類(lèi)識(shí)別;文獻(xiàn)[14]提出基于最值平均人臉識(shí)別算法,利用模板方差的大小選擇不同的閾值,提取更多細(xì)節(jié)信息;文獻(xiàn)[15]提出一種加權(quán)核主成分分析(WKPCA)的人臉識(shí)別算法,通過(guò)將高、低分辨率人臉圖像進(jìn)行融合后,形成新的特征進(jìn)行識(shí)別;文獻(xiàn)[16] 提出一種基于梯度臉(Gradient Faces,GF)的特征描述方法,使用人臉的梯度信息進(jìn)行特征提取,對(duì)光照變化的人臉有較好的識(shí)別效果;文獻(xiàn)[17]提出一種基于中心對(duì)稱(chēng)梯度幅值相位模式(Center-Symmetric Gradient Magnitude and Phase patterns,CSGMP)的人臉識(shí)別算法,該算法將人臉圖像進(jìn)行梯度變換后,用CS-LDP 算法進(jìn)行特征提取,取得了較好的識(shí)別效果.
上述算法都能很好的解決人臉識(shí)別的問(wèn)題,在識(shí)別率上有較好的改進(jìn)與提升,但在不同程度上存在算法復(fù)雜、耗時(shí)長(zhǎng)等缺陷.本文提出一種使用圖像偏移產(chǎn)生多圖像梯度,對(duì)圖像梯度進(jìn)行變換產(chǎn)生若干個(gè)梯度算子,使用梯度算子對(duì)原圖像進(jìn)行補(bǔ)償融合,然后進(jìn)行特征提取的IGC (Image Gradient Compensation)算法,實(shí)驗(yàn)結(jié)果表明該算法在識(shí)別率提升的同時(shí),其運(yùn)行效率有非常卓越的表現(xiàn).
一維函數(shù)的一階微分定義為:
一張灰度圖像,將其認(rèn)為成一個(gè)二維函數(shù)f(x,y),分別對(duì)x、y求導(dǎo)即有:
因圖像是離散的二維函數(shù),?不能無(wú)限小,而圖像是按照像素進(jìn)行離散,最小的?就是1 個(gè)像素.因此,對(duì)式(2)、式(3)化簡(jiǎn),產(chǎn)生式(4)、式(5)(?=1):
式(4)、式(5)分別為圖像中g(shù)(x,y)點(diǎn)的水平梯度(x方向)和垂直梯度(y方向),從上面的表達(dá)式可以看出來(lái),當(dāng)?=1 時(shí),圖像的梯度相當(dāng)于2 個(gè)相鄰像素之間的差值[18].
對(duì)于圖像的一個(gè)像素點(diǎn),它在水平方向上有兩個(gè)不同方向的梯度,即左梯度、右梯度,令Grx為水平方向的右梯度、Glx為水平方向的左梯度,其計(jì)算公式分別為:
同理,垂直方向上也有兩個(gè)方向的梯度,即上梯度、下梯度,令Guy為垂直方向的上梯度、Gdy為垂直方向的下梯度,其計(jì)算公式分別為:
水平方向上的左梯度與右梯度之和定義為圖像A的水平合成梯度,記做:
垂直方向上的上梯度與下梯度之和定義為圖像的垂直合成梯度,記做:
水平方向上右梯度減左梯度的值定義為圖像水平方向的差額梯度,記做:
垂直方向上的上梯度減下梯度的值定義為圖像垂直方向的差額梯度,記做:
圖像A的水平合成梯度與垂直合成梯度之和定義為圖像A的合融梯度,記做:
水平方向的差額梯度與垂直方向的差額梯度之和定義為圖像A的差融梯度,記做:
為了獲得可以更好描述圖片的特征,我們通過(guò)以下步驟逐步提取圖片的特征信息:
(1)將圖片轉(zhuǎn)換為灰度圖img;
(2)計(jì)算圖片img上下左右4 個(gè)方向上的偏移矩陣,分別求出img在水平方向的左梯度、右梯度,垂直方向的上梯度、下梯度,填充對(duì)應(yīng)矩陣,使上述梯度矩陣與圖片img的維度相同;為了驗(yàn)證上述上、下、左、右梯度提取的圖像信息,對(duì)如圖1(a)所示的包含正方形等形狀的圖片進(jìn)行檢測(cè),分別對(duì)其提取4 個(gè)方向的梯度,如圖1(b)~圖1(e)所示,分析發(fā)現(xiàn),圖像垂直方向的上、下梯度可以提取圖片橫向特征信息,水平方向的左、右梯度可以提取縱向特征信息;
圖1 圖形圖像在各方向上的梯度圖像
(3)獲取圖片img的水平合成梯度、垂直合成梯度;
(4)合成圖片的合融梯度Gfusion、差融梯度Gsubfus;
(5)將合融梯度累加到圖片img,完成對(duì)img圖像的補(bǔ)償,得到強(qiáng)化了圖片輪廓信息的img2;
(6)在img2 的基礎(chǔ)上,減去若干次差融梯度Gsubfus,完成對(duì)img圖像的負(fù)補(bǔ)償,得到新的特征圖片imgNew,該圖即為本文所述用于img圖像特診提取的特征圖像.
首先通過(guò)IGC 算法提取圖片的特征,其次,參照文獻(xiàn)[14]將圖片按照3×3 的模板分解為多個(gè)子圖,再次分別統(tǒng)計(jì)各子圖的直方圖,形成特征向量,然后用PCA進(jìn)行降維,最后使用SVM 分類(lèi)法對(duì)圖片進(jìn)行分類(lèi)訓(xùn)練并做出識(shí)別,本文算法所采用的流程如圖2、圖3所示.
圖2 IGC 算法流程圖
圖3 Lena 圖像的特征向量提取流程圖
讀取圖片,并將其轉(zhuǎn)換為灰度圖,獲得圖片的m×n階矩陣A.
Step 1.生成偏移矩陣
將矩陣A的所有元素向Y 軸正方向上移1 位,產(chǎn)生矩陣Gt1,實(shí)現(xiàn)過(guò)程為:
令i 參照上述的方法,分別取得Y 軸負(fù)方向下移1 位矩陣Gt2、X 軸正方向左移1 位矩陣Gt3、X 軸負(fù)方向右移1 位矩陣Gt4,其實(shí)現(xiàn)公式分別為: Gt2的實(shí)現(xiàn)公式: Gt3的實(shí)現(xiàn)公式: Gt4的實(shí)現(xiàn)公式: Step 2.獲取圖片梯度 為了提取圖像中的輪廓信息,我們令垂直方向上梯度Guy=|A-Gt1|,此時(shí),如果矩陣A 中的像素點(diǎn)g(i,j)與其上一行同列像素的值相同或者相近,運(yùn)算后Guy(i,j)的值為0 或者一個(gè)非常小的數(shù)值,如果g(i,j)與其上一行同列像素的值存在較大差距,表明該像素點(diǎn)很有可能是圖像的輪廓,該值經(jīng)過(guò)絕對(duì)值運(yùn)算之后為正數(shù),能體現(xiàn)圖像輪廓. 用上述方法獲取Guy、Gdy、Grx、Glx幾個(gè)方位的偏移差額圖,其計(jì)算公式分別為: 對(duì)Lena 圖像提取上述4 個(gè)方向的梯度后,其圖像結(jié)果如圖4所示. Step 3.提取合融梯度 將上述水平方向的左梯度、右梯度按照式(10)所示進(jìn)行累加,得到水平合成梯度Ghor,將垂直方向的上梯度、下梯度按照式(11)所示進(jìn)行累加,得到垂直合成梯度Gver.然后將Ghor、Gver進(jìn)行累加,得到矩陣合融矩陣Gfusion,其實(shí)現(xiàn)過(guò)程如式(14)所示.對(duì)Lena頭像進(jìn)行處理后的合融梯度Gfusion圖像如圖5所示. Step 4.對(duì)Gfusion進(jìn)行降噪處理 上述過(guò)程所產(chǎn)生的Gfusion中存在較多的散點(diǎn),這些散點(diǎn)大多并非圖片輪廓相關(guān)的特征信息,為了剔除散點(diǎn)的影響,我們使用適當(dāng)算法對(duì)該矩陣進(jìn)行降噪處理;本文采用均值法,其算法的實(shí)現(xiàn)公式為: 其中,mean為矩陣Gfusion的像素點(diǎn)均值. 圖4 Lena 圖片各方向的梯度圖像 圖5 Lena 的合融矩陣圖像 為驗(yàn)證降噪的必要性,在ORL 數(shù)據(jù)庫(kù)中分別驗(yàn)證了使用降噪前的Gfusion和使用降噪后的Gfusion對(duì)圖片進(jìn)行特征補(bǔ)償,然后提取圖像的特征描述進(jìn)行識(shí)別并計(jì)算識(shí)別率,根據(jù)實(shí)驗(yàn)結(jié)果,使用降噪前的Gfusion對(duì)圖片進(jìn)行特征補(bǔ)償作為圖片特征描述的識(shí)別率為87.5%,而使用降噪后的Gfusion其識(shí)別率為88.75%,即使用降噪后識(shí)別率提升了1.25%. Step 5.提取差融梯度 1)提取水平、垂直方向的差額梯度 使用式(12),對(duì)垂直方向的上梯度Guy、下梯度Gdy進(jìn)行相減,得到矩陣Gvs,Gvs 可以較好的保留縱向(Y軸)方向上更細(xì)微的局部特征;使用式(13),對(duì)水平方向的左梯度Grx、右梯度Glx相減,得到矩陣Ghs,Ghs可以較好的保留橫向(X 軸)方向上更細(xì)微的局部特征. 2)提取圖片的差融梯度 使用式(15)將上述所獲得的兩個(gè)差額矩陣Gvs、Ghs累加,得到圖像的差融梯度Gsubfus,該矩陣可以描述圖片水平、垂直方向上的更細(xì)微的特征信息,Gsubfus相對(duì)Gfusion而言,提取的信息更加細(xì)膩,而Gfusion的特征信息更加粗獷;Lena 圖像的差融矩陣Gsubfus圖像如圖6所示. Step 6.產(chǎn)生特征向量 1)使用Gfusion矩陣對(duì)矩陣A進(jìn)行正補(bǔ)償 合融梯度Gfusion較好的提取了圖片A的輪廓等特征信息,但該圖是否適合直接用作圖片的特征值? 研究人員以圖像Lena 為例,對(duì)Gfusion矩陣分析發(fā)現(xiàn),灰度值為0 的像素點(diǎn)統(tǒng)計(jì)數(shù)為27357,占比達(dá)到68.4%,圖片中大于等于均值的像素點(diǎn)個(gè)數(shù)為12643 個(gè),因?yàn)閳D像像素值分布太不均勻,直接用做圖片特征值進(jìn)行識(shí)別的話,識(shí)別率不會(huì)很高;實(shí)驗(yàn)證明,直接使用該圖片在ORL 人臉數(shù)上的識(shí)別率為87.5%.為了進(jìn)一步提高圖像識(shí)別率,使用Gfusion矩陣對(duì)原灰度圖矩陣A進(jìn)行正補(bǔ)償(即對(duì)應(yīng)位置像素值相加),獲得新的矩陣Gm. 其圖像顯示及直方圖分別如圖7所示. 圖6 Lena 圖像的差融矩陣Gsubfus 的圖像顯示 圖7 Lena 圖像的Gm 圖像及其直方圖 矩陣Gm有以下3 個(gè)特點(diǎn):① 像素點(diǎn)相對(duì)均衡;② 強(qiáng)化了圖片中能代表圖片特性的輪廓特征;③ 255 像素點(diǎn)附近的數(shù)量增多,這是因?yàn)樵谠仃嘇上正補(bǔ)償了合融矩陣Gfusion,導(dǎo)致圖片輪廓附近的像素值達(dá)到最大值255,從圖片中的亮點(diǎn)可以看到. 因?yàn)閷?duì)圖片的訓(xùn)練、識(shí)別要用到直方圖特性,而255 像素點(diǎn)附近的像素點(diǎn)數(shù)量增多,會(huì)在一定程度上會(huì)降低圖像的識(shí)別率,為了進(jìn)一步提高圖片識(shí)別率,需要通過(guò)一定途徑進(jìn)一步降低圖像Gm中255 像素點(diǎn)的數(shù)量. 2)使用Gsubfus對(duì)Gm進(jìn)行負(fù)補(bǔ)償 對(duì)比Step 4 和Step 7 的結(jié)果Gm和Gsubfus,在Gm圖像中,有部分亮點(diǎn)的像素值超過(guò)255,使用Gsubfus對(duì)Gm圖像亮點(diǎn)部分的像素值進(jìn)行適當(dāng)?shù)呢?fù)補(bǔ)償(即對(duì)應(yīng)位置像素值的相減),以增強(qiáng)圖片的特征.因Gm是由原圖A疊加Gfusion而來(lái),Gfusion體現(xiàn)的是圖片粗狂的輪廓信息,而Gsubfus能體現(xiàn)圖片更細(xì)微的輪廓特征,用Gsubfus對(duì)應(yīng)位置的像素值來(lái)減弱Gm的亮點(diǎn),可以有效降低亮點(diǎn)的數(shù)量,增強(qiáng)圖片的可識(shí)別性.我們令 其中,r為補(bǔ)償系數(shù),實(shí)驗(yàn)證明r取4~12 范圍內(nèi)的數(shù)字時(shí),識(shí)別效果較好,圖8是r=7 時(shí)對(duì)應(yīng)的圖片效果. 圖8 本文算法特征圖 矩陣Gfig即為本算法用于代表圖片特征的最終矩陣,該矩陣保留了原圖更多的細(xì)節(jié)特征,有利于圖片的識(shí)別. 為了驗(yàn)證使用Gsubfus對(duì)Gm進(jìn)行負(fù)補(bǔ)償?shù)挠行?在ORL 數(shù)據(jù)庫(kù)中分別驗(yàn)證了使用Gsubfus對(duì)Gm進(jìn)行補(bǔ)償前和補(bǔ)償后的識(shí)別率,其他條件不變,補(bǔ)償前即直接使用Gm進(jìn)行識(shí)別,其識(shí)別率為88.75%;使用補(bǔ)償系數(shù)r=1 對(duì)Gm進(jìn)行負(fù)補(bǔ)償之后,其識(shí)別率為91.25%,r=2 時(shí),識(shí)別率為93.75%.實(shí)驗(yàn)表明,使用Gsubfus對(duì)Gm進(jìn)行負(fù)補(bǔ)償,可以有效地提高系統(tǒng)的識(shí)別率. Step 7.使用特定的模板對(duì)上述特征矩陣Gfig進(jìn)行分塊,并對(duì)每個(gè)分塊的圖片進(jìn)行直方圖統(tǒng)計(jì),然后按照一定的次序?qū)⒏鱾€(gè)分塊的直方圖進(jìn)行連接,形成特征向量,本文對(duì)特征圖的分塊采用3×3 模式. 經(jīng)過(guò)上述IGC 算法所獲取的特征向量維度較高,可以達(dá)到1000 維以上,過(guò)高的維數(shù)不利于提高圖片的識(shí)別效果,另外,特征向量的維數(shù)越高,在進(jìn)行模型訓(xùn)練及識(shí)別時(shí),需要耗費(fèi)更多的時(shí)間及存儲(chǔ)資源,為此,采用PCA 技術(shù)對(duì)特征向量進(jìn)行降維處理;PCA 主成分分析算法是最常用的降維手段之一[19],可以有效的降低高維數(shù)據(jù)并獲取最主要的特征信息,PCA 就是從原始的空間中順序地找一組相互正交的坐標(biāo)軸,以此找出與原始數(shù)據(jù)或者坐標(biāo)軸方差最大的坐標(biāo)軸,直到找出n個(gè)這樣的坐標(biāo)軸,其中前k個(gè)坐標(biāo)軸包含了大部分方差,后面的坐標(biāo)軸所含的方差幾乎為0,PCA 提取前k個(gè)坐標(biāo)軸作為特征向量,從而實(shí)現(xiàn)了對(duì)高維向量進(jìn)行降維的目的. 支持向量機(jī)方法是以統(tǒng)計(jì)學(xué)理論為基礎(chǔ),通過(guò)對(duì)有限樣本信息的提煉,從而產(chǎn)生一個(gè)可以對(duì)其他測(cè)試樣本進(jìn)行判別、分類(lèi)的工具,SVM 有很多優(yōu)點(diǎn),如基于結(jié)構(gòu)風(fēng)險(xiǎn)最小化,克服了傳統(tǒng)方法的過(guò)學(xué)習(xí)(overfitting)和陷入局部最小的問(wèn)題,具有很強(qiáng)的泛化能力[20];采用核函數(shù)方法,向高維空間映射時(shí)并不增加計(jì)算的復(fù)雜性,又有效地克服了維數(shù)災(zāi)難(curse of dimensionality)問(wèn)題.基于以上各方面的優(yōu)勢(shì),SVM 分類(lèi)算法在人臉識(shí)別領(lǐng)域獲得了非常廣泛的使用[21].本文采用的SVM模型為文獻(xiàn)[22]中的LIBSVM 軟件包,用在Matlab 2016 a 上進(jìn)行人臉識(shí)別分類(lèi)實(shí)驗(yàn). 本文試驗(yàn)操作平臺(tái)硬件配置CPU 為四核i3-2370M,主頻2.4 GHz,內(nèi)存8 GB (其中顯存分配1 GB),Win7旗艦版64 位操作系統(tǒng),開(kāi)發(fā)軟件選用Matlab 2016a,實(shí)驗(yàn)數(shù)據(jù)使用ORL 和CMU_PIE 人臉數(shù)據(jù)庫(kù)完成測(cè)試. 3.2.1 補(bǔ)償系數(shù)r 在式(26)中,補(bǔ)償系數(shù)r的取值,會(huì)在一定程度上影響算法識(shí)別的準(zhǔn)確率,為了得到更合理的取值,對(duì)r取不同數(shù)值時(shí)對(duì)測(cè)試結(jié)果的影響進(jìn)行對(duì)比,其結(jié)果如表1所示. 表1 不同補(bǔ)償系數(shù)r 在各個(gè)數(shù)據(jù)庫(kù)上的識(shí)別率(%) 分析實(shí)驗(yàn)結(jié)果表明,r的值過(guò)大或者過(guò)小,都會(huì)對(duì)識(shí)別率造成一定的影響,較合理的取值范圍在4-12 之間.這是因?yàn)椋簉值過(guò)小,強(qiáng)化了特征補(bǔ)償原圖的亮點(diǎn)數(shù)量減少的不夠,不足以形成一個(gè)新的特征;r值過(guò)大,會(huì)使得被強(qiáng)化了特部分特征點(diǎn)的值太小,甚至為0,對(duì)圖像的最終識(shí)別產(chǎn)生一定的影響. 3.2.2 其他參數(shù)設(shè)置 圖片分塊模板采用3×3 的模板,然后對(duì)各個(gè)子圖進(jìn)行直方圖統(tǒng)計(jì);分類(lèi)器使用文獻(xiàn)[22]開(kāi)發(fā)的LIBSVM分類(lèi)器,其對(duì)應(yīng)參數(shù)設(shè)置為“-s 0 -t 2 -c 1.4157 -g 0.00375”. 為了分析本文算法的效果,在不同的數(shù)據(jù)庫(kù)上,分別將經(jīng)典LBP、文獻(xiàn)[13]、文獻(xiàn)[14]、文獻(xiàn)[15]等幾個(gè)算法與本文算法進(jìn)行對(duì)比,實(shí)驗(yàn)流程為,先提取特征圖片,次對(duì)特征圖進(jìn)行分塊,再統(tǒng)計(jì)各子圖的直方圖后串聯(lián),然后進(jìn)行PCA 降維,最后使用LIBSVM 分類(lèi)器進(jìn)行識(shí)別并計(jì)算識(shí)別率;各對(duì)比算法按照引用文獻(xiàn)所提供的參數(shù)進(jìn)行設(shè)置. 3.3.1 ORL 數(shù)據(jù)庫(kù) ORL 由40 個(gè)人,每人10 張?jiān)诓煌庹?、不同角度的情況下進(jìn)行擺拍,共計(jì)400 張人臉圖組成,其圖片采用92×112 規(guī)格的灰度圖像,使用每人的前8 張圖片進(jìn)行訓(xùn)練,后2 張圖片用于測(cè)試. 由表2分析可知,在ORL 人臉數(shù)據(jù)庫(kù)中,經(jīng)典LBP算法識(shí)別率為92.5%,文獻(xiàn)[13]算法為86.25%,文獻(xiàn)[14]識(shí)別率為80%,文獻(xiàn)[15]識(shí)別率為98.75%,本文算法的識(shí)別率為98.75%,即除文獻(xiàn)[15]之外,本文算法在上述環(huán)境下的識(shí)別率均高于其他算法,與文獻(xiàn)[15]所述算法的識(shí)別率持平. 表2 ORL 數(shù)據(jù)庫(kù)實(shí)驗(yàn)結(jié)果數(shù)據(jù)結(jié)果(%) 3.3.2 CMU_PIE 數(shù)據(jù)庫(kù) CMU_PIE 數(shù)據(jù)庫(kù)由68 個(gè)人,每人24 幅不同光照、不同角度情況下進(jìn)行擺拍的圖片組成,共計(jì)1632 張人臉圖組成,其圖片采用64×64 規(guī)格的灰度圖像,使用每人的20 張圖片進(jìn)行訓(xùn)練,其余圖片用于測(cè)試樣本. 由表3分析可知,在CMU_PIE 人臉數(shù)據(jù)庫(kù)中,經(jīng)典LBP、文獻(xiàn)[13]、文獻(xiàn)[14]、文獻(xiàn)[15]的識(shí)別率分別是82.35%、97.426%、90.75%、61.40%,本文算法的識(shí)別率為91.54%,在CMU_PIE 數(shù)據(jù)庫(kù)中,文獻(xiàn)[13]表現(xiàn)出較好的識(shí)別率,其算法的識(shí)別率高于本文算法6.886 個(gè)百分點(diǎn),文獻(xiàn)[14]的表現(xiàn)也不錯(cuò),可達(dá)到90.75%,而本文算法識(shí)別率為91.54%,超過(guò)了除文獻(xiàn)[13]算法之外的其他算法. 表3 CMU_PIE 實(shí)驗(yàn)結(jié)果數(shù)據(jù)結(jié)果(%) 為了進(jìn)一步對(duì)比各個(gè)算法的綜合表現(xiàn),我們將上述算法在ORL、CMU_PIE 數(shù)據(jù)庫(kù)上的識(shí)別率求平均值,其結(jié)果如表4所示,分析表4可知,綜合兩個(gè)數(shù)據(jù)庫(kù)的表現(xiàn),雖然文獻(xiàn)[15]在ORL 數(shù)據(jù)庫(kù)中的識(shí)別率與本文所述算法持平、文獻(xiàn)[13]所述算法在CMU_PIE數(shù)據(jù)庫(kù)的人臉識(shí)別率上比本文算法表現(xiàn)更好,但是,綜合兩個(gè)數(shù)據(jù)庫(kù)的結(jié)果,本文算法的綜合表現(xiàn)要優(yōu)于上述文獻(xiàn)的算法. 表4 ORL 與CMU_PIE 人臉庫(kù)綜合對(duì)比(%) 3.3.3 時(shí)間復(fù)雜度分析 為了對(duì)比不同算法的計(jì)算效率,使用Matlab 軟件的計(jì)時(shí)功能,分別記錄了經(jīng)典LBP 算法、文獻(xiàn)[13]、文獻(xiàn)[14]、文獻(xiàn)[15]算法及本文算法從提取特征值開(kāi)始到提取結(jié)束所消耗的總時(shí)長(zhǎng),其結(jié)果如表5所示. 表5 實(shí)驗(yàn)結(jié)果耗時(shí)數(shù)據(jù)分析(單位:s) 分析表5可知,在ORL 數(shù)據(jù)庫(kù)中,文獻(xiàn)[15]提取特征值所消耗的時(shí)間最短,為7.9852 s,除文獻(xiàn)[15]之外,本文算法在運(yùn)行耗時(shí)方面低于其他算法,提取特征速度是文獻(xiàn)[13]算法的1.75 倍,是經(jīng)典LBP 算法的4.14倍,同時(shí)也遠(yuǎn)遠(yuǎn)高于其他算法的運(yùn)行速度;在CMU_PIE數(shù)據(jù)庫(kù)中,在ORL 數(shù)據(jù)庫(kù)中表現(xiàn)優(yōu)異的文獻(xiàn)[15]算法,耗時(shí)為86.853,該值為研究者多次反復(fù)求證的結(jié)果,與ORL 數(shù)據(jù)庫(kù)中提取特征信息運(yùn)行效率的表現(xiàn)差別較大.本文算法耗時(shí)僅為17.109 s,此外,在除本文算法之外的其他算法中,文獻(xiàn)[13]算法用時(shí)最短為61.679 s,是本文的3.61 倍.綜合兩個(gè)數(shù)據(jù)庫(kù)的平均耗時(shí),本文算法為13.815 s,遠(yuǎn)遠(yuǎn)高于其他算法的運(yùn)行時(shí)間. 本文提出一種基于圖像梯度變換產(chǎn)生若干梯度算子,使用梯度算子與原圖像融合進(jìn)行特征提取的人臉描述與識(shí)別算法.仿真實(shí)驗(yàn)結(jié)果表明,本文所提的IGC圖像梯度補(bǔ)償算法在ORL 和CMU_PIE 人臉數(shù)據(jù)庫(kù)上取得較高識(shí)別率,其運(yùn)行效率具有非常卓越的表現(xiàn),同時(shí)算法具有較強(qiáng)的人臉特征描述功能,對(duì)光照、人臉表情和位置的變化具有較高的魯棒性.2.3 PCA 降維
2.4 SVM 向量機(jī)
3 實(shí)驗(yàn)與結(jié)果分析
3.1 實(shí)驗(yàn)環(huán)境
3.2 相關(guān)參數(shù)設(shè)置
3.3 實(shí)驗(yàn)結(jié)果
4 結(jié)語(yǔ)