亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        改進(jìn)的單尺度Retinex和LBP結(jié)合的人臉識別

        2018-12-04 02:14:10段紅燕何文思李世杰
        計算機(jī)工程與應(yīng)用 2018年23期
        關(guān)鍵詞:子集人臉識別人臉

        段紅燕,何文思,李世杰

        蘭州理工大學(xué) 機(jī)電工程學(xué)院,蘭州 730050

        1 引言

        人臉識別是通過提取人臉圖像的特征信息從而進(jìn)行分類識別的一種生物識別技術(shù)。因其具有方便性和友好性以及隨著信息技術(shù)的發(fā)展,在安檢、航天、醫(yī)療等領(lǐng)域有著廣泛的應(yīng)用。在理想環(huán)境下,人臉識別技術(shù)取得了很大的進(jìn)步和應(yīng)用,但在多變的光照環(huán)境下人臉識別技術(shù)的性能會受到嚴(yán)重影響[1]。復(fù)雜光照下的人臉識別已經(jīng)成為計算機(jī)視覺領(lǐng)域的一個研究熱點。

        對于復(fù)雜光照的問題,國內(nèi)外的研究者提出了很多的解決方案,這些方法可分為圖像預(yù)處理、人臉建模和提取光照不變量三類[2]。圖像預(yù)處理是通過圖像處理技術(shù)對圖像進(jìn)行光照補(bǔ)償,減小光照影響,代表方法有伽馬校正(Gamma Correction,GC)[3]、直方圖均衡化(Histogram Equalization,HE)[4]、同態(tài)濾波(Homomorphic Filtering,HF)[5]等。人臉建模是構(gòu)建一個子空間表示不同光照的人臉圖像[6]。提取光照不變量是在人臉圖像中計算得出光照不變量或者不敏感的特征,以改善光照變化對人臉識別的影響。例如,梯度臉(Gradientfaces,GF)[7]、局部二值模式(Local Binary Pattern,LBP)[8]、局部方向模式(Local Directional Pattern,LDP)[9]等。20世紀(jì)70年代,美國學(xué)者Edwin Land提出了Retinex理論。經(jīng)眾多學(xué)者研究出現(xiàn)許多基于該理論的算法,如單尺度Retinex(SSR)、多尺度 Retinex(MSR)[10]以及帶色彩恢復(fù)的多尺度Retinex(MSRCR)等。但Retinex算法本身存在缺點,在處理光照劇烈變化的圖像時,易出現(xiàn)“光暈”現(xiàn)象,同時會丟失部分細(xì)節(jié)特征信息,影響分類識別效果。

        為增強(qiáng)圖像細(xì)節(jié)信息,減少光照影響,提高復(fù)雜光照人臉識別的準(zhǔn)確率,利用雙邊濾波代替Retinex的高斯濾波處理人臉圖像,減小傳統(tǒng)Retinex帶來的“光暈”現(xiàn)象,同時使用LoG算法并結(jié)合歸一化處理提取圖像的邊緣細(xì)節(jié)特征,采用標(biāo)準(zhǔn)差的加權(quán)方法將兩幅處理后的圖像進(jìn)行特征融合,在減少光照影響的同時增加圖像細(xì)節(jié)特征,然后使用LBP對融合后的圖像進(jìn)行特征提取,并通過稀疏表示(SRC)[11]算法對數(shù)據(jù)樣本進(jìn)行判別歸類。

        2 單尺度Retinex算法改進(jìn)

        2.1 Retinex理論

        Retinex是一種基于色彩恒常的計算理論,該理論指出圖像可以看成照射圖像分量和反射圖像分量的乘積[12],公式如下:

        其中,L(x ,y)表示環(huán)境光的照射分量,它影響圖像中像素能達(dá)到的動態(tài)范圍,R(x ,y)表示體現(xiàn)物體本身色彩特征的反射分量,I(x ,y)表示原始圖像信息。式(1)為乘積形式計算反射分量較為復(fù)雜,將式(1)轉(zhuǎn)化到對數(shù)域空間,得:

        根據(jù)Retinex理論,在已知原始圖像信息I(x ,y)后,通過有效地估算算法描述出照射分量L(x ,y ),然后根據(jù)公式(2)求得R(x ,y)。

        2.2 單尺度Retinex理論

        單尺度Retinex是由Jobson等提出的,它在對數(shù)域公式如下:

        其中,i代表RGB顏色模型的3個顏色通道,取值為1,2,3,?表示卷積運(yùn)算符,F(xiàn)(x ,y)表示高斯環(huán)繞函數(shù),有:

        2.3 Retinex與雙邊濾波結(jié)合

        Retinex算法使用高斯函數(shù)對輸入圖像進(jìn)行光照估計,并且假設(shè)圖像在空間上的光照變化是平滑的,而實際受光照影響較大的圖像在使用該算法時會產(chǎn)生“光暈”現(xiàn)象,雙邊濾波(Bilateral Filter)是一種非線性濾波器[13],同時考慮像素點的空域信息和值域信息,能較好處理光照突變的圖像。故選用雙邊濾波代替Retinex算法中的高斯濾波來進(jìn)行光照估計。雙邊濾波公式表示如下:

        其中f(x)為輸入圖像在x的亮度值,h(x)為輸出圖像在x的亮度值,c(ξ ,x )為ξ和x之間的距離為ξ和x之間的亮度相似度。k(x)為:

        式(8)中,d(ξ ,x)表示歐式距離。

        圖1為SSR與雙邊濾波結(jié)合的對比圖,其中圖1(a)表示原始圖像及其直方圖、圖1(b)表示SSR處理后的圖像及其直方圖、圖1(c)表示SSR結(jié)合雙邊濾波處理后的圖像及其直方圖。

        圖1 SSR與雙邊濾波結(jié)合的對比圖

        2.4 拉普拉斯高斯算子

        拉普拉斯高斯(Laplacian of Gaussian,LoG)是基于二階導(dǎo)數(shù)的邊緣檢測算子,它融合了高斯濾波和拉普拉斯算子的優(yōu)點[14]。由于一階導(dǎo)數(shù)對噪聲敏感,該算法中使用到的二階導(dǎo)數(shù)會導(dǎo)致結(jié)果更不穩(wěn)定。因此,在進(jìn)行Laplacian變換前先使用高斯濾波器對原始圖像作平滑處理,再使用Laplacian算子作卷積,可表示為:

        根據(jù)卷積是可變換、可結(jié)合的定理,先作高斯卷積,即:

        其中hl(x ,y)為輸出,g(x,y)為原始圖像,?為卷積運(yùn)算符,G(x ,y)為高斯濾波器的濾波函數(shù),?2為拉普拉斯算子。

        則LoG算子為:

        其中,σ為高斯函數(shù)的空間分布系數(shù),本文中取值為1.8,同時,得到輸出后對圖像矩陣進(jìn)行歸一化操作,以便保留更多圖像的細(xì)節(jié)信息。圖2為LoG算法對比圖,其中圖2(a)表示原始圖像、圖2(b)表示Matlab圖像處理工具箱中LoG算法(自動選擇閾值)處理的圖像、圖2(c)表示LoG算法處理后再進(jìn)行歸一化處理的圖像。

        圖2 LoG算法對比圖

        2.5 基于標(biāo)準(zhǔn)差的特征融合

        使用雙邊濾波替換單尺度Retinex算法中的高斯濾波減輕了Retinex算法處理帶來的“光暈”現(xiàn)象,但由于Retinex本身特性使處理后的圖像像素值偏高減弱了部分細(xì)節(jié)特征。LoG算法雖然在消除圖像光照影響方面效果不佳,但該算法能很好地提取圖像的邊緣信息和細(xì)節(jié)特征。為了提取圖像的光照不變量并且使圖像保留較多的細(xì)節(jié)特性,可以通過圖像融合技術(shù)對所述兩種圖像信息進(jìn)行特征融合。

        圖像融合可以將多張圖像信息融合在一張圖像中,保留融合前圖像的優(yōu)勢,提高圖像信息攜帶量。LoG算子屬于邊緣檢測算子,通過計算二階導(dǎo)數(shù)的零交叉點來尋找邊緣信息。圖像邊緣和紋理區(qū)域由于灰度值變化較大,經(jīng)LoG算法處理得到的值較大,在圖像其他位置的處理結(jié)果值較小。如圖2(c)所示,經(jīng)LoG算法處理后雖能保留邊緣及紋理特征,但在眼球、嘴唇等人臉特征提取的重要部位與原圖以及圖1(c)相比較呈現(xiàn)出較大的灰度值差異。如果直接將圖1(c)和圖2(c)進(jìn)行融合會使各自攜帶的特征信息相互抵消,降低融合優(yōu)勢。因此,先對圖2(c)進(jìn)行圖像灰度值取反,在進(jìn)行融合操作。圖像標(biāo)準(zhǔn)差體現(xiàn)了像素灰度值與平均灰度值的偏離程度,標(biāo)準(zhǔn)差越大圖像攜帶的信息量越多,故可以用兩幅圖像標(biāo)準(zhǔn)差來確定各自的融合系數(shù)。設(shè)表示圖像P點處的灰度值,圖像大小為M×N,則圖像P的標(biāo)準(zhǔn)差σ1為:

        分別計算SSR結(jié)合雙邊濾波處理后的圖像PSSRBF和LoG算法結(jié)合歸一化處理并取反的圖像PLoGIN的標(biāo)準(zhǔn)差為σS和σL,圖像PSSRBF和圖像PLoGIN融合系數(shù)分別為ωS和ωL:

        則得到融合后的特征F為:

        圖3為特征融合的對比圖。

        圖3 特征融合的對比圖

        3 LBP特征提取及稀疏表示

        局部二進(jìn)制模式(Local Binary Pattern,LBP)是一種用來描述圖像局部紋理特征的算子,由Ojala等提出。該算法通過對比圖像局部中心點與周圍鄰近像素點的灰度值來實現(xiàn),因此對光照具有不變性,可用于光照變化的圖像特征提取,同時還具有計算過程簡單、平移和旋轉(zhuǎn)不變性的優(yōu)點。LBP算法被廣泛應(yīng)用在紋理分析、圖像檢測等領(lǐng)域。

        經(jīng)典的LBP算子以3×3像素塊為檢測區(qū)域,以區(qū)域中心像素點的灰度值為閾值,分別比較區(qū)域中心鄰域的8個像素點的灰度值與閾值的大小關(guān)系,通過大小關(guān)系對圖像進(jìn)行重新編碼。LBP算子用公式表示為:

        稀疏表示分類是將測試圖像樣本表示為訓(xùn)練圖像樣本的線性組合,求解測試圖像樣本最稀疏的表示。假設(shè)實驗訓(xùn)練樣本有T類,第i類的訓(xùn)練樣本為Ai=[ai1,ai2,…,aini],第i類的訓(xùn)練樣本數(shù)為ni,則整體訓(xùn)練樣本A=[A1,A2,…,AT],依據(jù)稀疏表示原理,測試樣本y可以用A線性表示,表達(dá)式為y=Ax,x為y在整體訓(xùn)練樣本下表示的系數(shù)向量。為了使系數(shù)向量最稀疏,把求解問題轉(zhuǎn)化為l1范數(shù)最優(yōu)化問題:

        本文采用 Homotopy[15]算法,對式(22)求解,令δi(1)表示1中第i類樣本空間的系數(shù),則測試樣本,分別計算T類的殘差:

        本文算法的主要流程為:

        (1)使用雙邊濾波代替SSR算法中的高斯濾波對原始圖像進(jìn)行光照估計,得到特征圖像PSSRBF。

        (2)使用LoG算子對原圖進(jìn)行處理,并進(jìn)行歸一化處理和取反操作,得到特征圖像PLoGIN。

        (3)通過基于標(biāo)準(zhǔn)差的特征融合對兩特征圖像進(jìn)行融合,融合系數(shù)ωS和ωL按照特征圖像的標(biāo)準(zhǔn)差比例分配。

        (4)使用LBP算法對融合后的特征圖像進(jìn)行最終的特征提取,建立圖像的樣本集,并且采用稀疏表示算法進(jìn)行判別歸類。

        4 仿真實驗

        4.1 仿真實驗環(huán)境和實驗數(shù)據(jù)集

        為了驗證本文算法的有效性,在Intel Core I3,2.3 GHz CPU,8 GB RAM,Windows 7操作系統(tǒng)的計算機(jī)上,采用Matlab R2014a編程實現(xiàn)仿真測試,使用的人臉庫為AR和Yale B+人臉數(shù)據(jù)庫。

        AR[16]人臉庫包含126個人4 000多張圖像,涵蓋了不同表情、不同光照以及遮擋等要素。在本實驗中選取部分圖像作為實驗數(shù)據(jù),共100人包含50位男性和50位女性。因為本文研究的是光照變化對識別率的影響,所以每個人去掉有遮擋的12幅圖像,選取每人14幅圖像共1 400幅圖像進(jìn)行實驗。為方便實驗圖像被裁剪成像素大小為120×165,圖4為AR數(shù)據(jù)庫部分圖像。

        圖4 AR數(shù)據(jù)庫部分圖像

        Yale B+人臉數(shù)據(jù)庫由Yale B人臉庫和擴(kuò)展的Yale B人臉庫組成[17],包含38人,每個人的人臉有9種姿態(tài),每種姿態(tài)包括64幅不同光照的圖像。根據(jù)光照入射的角度不同,每種姿態(tài)下Yale B+人臉庫可分為5個子集,子集 1(0°~12°)、子集 2(13°~25°)、子集 3(26°~50°),子集4(51°~77°)和子集5(>77°)。每個人在每個子集中對應(yīng)的人臉圖像數(shù)目分別為,子集1為7、子集2為12、子集3為12,子集4為14以及子集5為19。本實驗中選用正面姿態(tài)圖像,同時因子集1和子集2在光照變化方面不明顯,所以實驗選取子集3、子集4和子集5作為實驗數(shù)據(jù)。圖像被裁剪成像素大小為168×192,圖5為Yale B+數(shù)據(jù)庫部分圖像。

        4.2 實驗結(jié)果與分析

        為驗證本文提及的特征融合算法的有效性,將其與文獻(xiàn)[18]的算法進(jìn)行對比。在光照較為復(fù)雜的Yale B+人臉庫中選取三個人臉圖像進(jìn)行對比實驗,原圖分別為圖像1、圖像2和圖像3。原圖經(jīng)過文獻(xiàn)[18]和本文特征融合算法處理效果圖如圖6所示。并分別計算各圖像的信息熵作為客觀評價標(biāo)準(zhǔn),如表1所示。

        根據(jù)表1的實驗數(shù)據(jù),原圖經(jīng)過文獻(xiàn)[18]和本文特征融合算法的處理后,信息熵的值均有所提高。對比文獻(xiàn)[18]的結(jié)果經(jīng)過本文特征融合算法處理后信息熵的值均有一定程度的增加,表明本文特征融合算法處理后的人臉圖像具有較高的信息量。

        圖5 Yale B+數(shù)據(jù)庫部分圖像

        圖6 文獻(xiàn)[18]和本文特征融合算法處理效果圖

        表1 各圖像的信息熵

        為驗證本文算法對變化光照的魯棒性,將本文算法與SSR、MSR、LBP、HE以及LDP這幾種經(jīng)典的算法進(jìn)行比較。此外,深度學(xué)習(xí)在機(jī)器視覺領(lǐng)域也得到廣泛的研究和關(guān)注。在人臉識別研究方向,一些預(yù)先訓(xùn)練好的卷積神經(jīng)網(wǎng)絡(luò)可以表現(xiàn)出較好的性能。Parkhi等人[19]提出了Vgg-Face網(wǎng)絡(luò)模型,該模型在LFW數(shù)據(jù)集上取得了較好的測試效果。本文基于matconvnet-1.0-beta19編寫Matlab測試程序,并將本文算法與基于該模型的算法(V-F)做對比實驗。以上實驗分別在AR、Yale B+的子集3、Yale B+的子集4和Yale B+的子集5中隨機(jī)選取每人1~6幅圖像作為訓(xùn)練樣本,其他圖像作為測試樣本,實驗時均采用稀疏表示算法進(jìn)行判別歸類,每項測試分別進(jìn)行5次實驗,最后求得平均值作為最終實驗數(shù)據(jù)。為了直觀了解SSR、MSR、LBP、HE、LDP以及本文算法對圖像的特征提取效果,分別在AR和Yale B+選取一人進(jìn)行不同算法的特征提取,如圖7所示。所有算法在不同訓(xùn)練樣本下的人臉識別率如表2~5所示。

        圖7 各算法處理效果

        表2 AR人臉庫各種算法的人臉識別率%

        表3 Yale B+的子集3人臉庫各種算法的人臉識別率%

        表4 Yale B+的子集4人臉庫各種算法的人臉識別率%

        表5 Yale B+的子集5人臉庫各種算法的人臉識別率%

        根據(jù)表2~5的實驗數(shù)據(jù),從整體上分析可以發(fā)現(xiàn),各種算法以及原始圖像的實驗識別率都是隨著訓(xùn)練樣本的增加而增加。對于在光照變化方面,AR人臉庫整體的光照變化程度要小于Yale B+人臉庫整體的光照變化程度。對照表1和另外三個表的數(shù)據(jù),在訓(xùn)練樣本較少的情況下AR人臉庫的整體實驗結(jié)果要高于Yale B+人臉庫。

        具體而言無論在AR還是Yale B+人臉庫,本文算法基本上在每組測試的結(jié)果都優(yōu)于其他算法。在光照變化程度不劇烈的AR人臉庫中本文算法和V-F算法數(shù)據(jù)相差不大,而在Yale B+人臉庫中本文算法的數(shù)據(jù)要優(yōu)于V-F算法的數(shù)據(jù),尤其是Yale B+人臉庫的子集5中的數(shù)據(jù)。對于光照變化十分劇烈的Yale B+人臉庫的子集4和子集5而言,本算法的識別率明顯高于其他算法,在訓(xùn)練樣本數(shù)為3時就到達(dá)90%以上的識別率。對于光照入射的角度為26°~50°的子集3,本文算法達(dá)到了98%以上的識別率。本文算法經(jīng)過前期處理后最終的特征提取是用的LBP算法,由實驗數(shù)據(jù)可知識別率比單獨使用SSR或者LBP有很大提高。由此說明本文算法對光照變化劇烈情況下的人臉圖像具有良好的特征提取能力,提高了復(fù)雜光照環(huán)境下的人臉識別率。

        5 結(jié)束語

        為了改善復(fù)雜光照下人臉識別率,本文提出了一種SSR和LBP結(jié)合的人臉識別算法。對傳統(tǒng)的單尺度Retinex算法進(jìn)行改進(jìn),通過算法優(yōu)化解決了傳統(tǒng)單尺度Retinex處理圖像出現(xiàn)“光暈”以及邊緣細(xì)節(jié)缺失的問題,通過LBP處理后能夠得到更多的人臉細(xì)節(jié)特征信息,更能表達(dá)原始圖像的光照不變量。在AR和Yale B+人臉庫對本文算法的有效性進(jìn)行了仿真對比測試,結(jié)果表明在復(fù)雜的光照環(huán)境下以及訓(xùn)練樣本數(shù)較少情況下的人臉識別率都有較大提升。

        猜你喜歡
        子集人臉識別人臉
        由一道有關(guān)集合的子集個數(shù)題引發(fā)的思考
        人臉識別 等
        拓?fù)淇臻g中緊致子集的性質(zhì)研究
        有特點的人臉
        揭開人臉識別的神秘面紗
        關(guān)于奇數(shù)階二元子集的分離序列
        三國漫——人臉解鎖
        動漫星空(2018年9期)2018-10-26 01:17:14
        基于類獨立核稀疏表示的魯棒人臉識別
        每一次愛情都只是愛情的子集
        都市麗人(2015年4期)2015-03-20 13:33:22
        馬面部與人臉相似度驚人
        免费人成在线观看| 国产人妖xxxx做受视频| 亚洲精品二区三区在线观看| 久久99国产综合精品女同| 亚洲精品久久激情国产片| 国产精品久久久久久亚洲av| 91福利国产在线观看一区二区| 中文熟女av一区二区| 亚洲天堂一区二区偷拍| 全黄性性激高免费视频| 久久99久久99精品免观看| 国产亚洲精品日韩综合网| 精品国产3p一区二区三区| 欧美日本精品一区二区三区| 久青草久青草视频在线观看| 国产男女插插一级| 少妇太爽高潮在线播放| 在厨房拨开内裤进入毛片| 国产大陆亚洲精品国产| 骚片av蜜桃精品一区| 开心五月激情五月天天五月五月天 | 久久久精品2019中文字幕之3| 国产精品人成在线观看不卡| 噜噜噜噜私人影院| 无码一区二区波多野结衣播放搜索| 亚洲精品99久久久久久| 日韩av天堂一区二区三区在线| 欧美性猛交xxxx三人| 日韩欧美一区二区三区中文精品| 久久国产精品一区二区| 日本av一区二区三区在线| 草草久久久无码国产专区| 久久精品性无码一区二区爱爱| 午夜视频在线观看日本| 精品人妻av区乱码| 精品国产午夜福利在线观看| 成年女人18毛片毛片免费| 国产精品一区二区三区自拍| 男女啪啪永久免费观看网站| 婷婷五月亚洲综合图区| 免费在线视频亚洲色图|