亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于綜合特征的單樣本人臉特征提取

        2016-06-24 05:54:23薛國(guó)偉馮興樂(lè)
        電視技術(shù) 2016年4期
        關(guān)鍵詞:人臉識(shí)別

        高 濤,薛國(guó)偉,倪 策,馮興樂(lè)

        (長(zhǎng)安大學(xué) 信息工程學(xué)院,陜西 西安 710072)

        基于綜合特征的單樣本人臉特征提取

        高濤,薛國(guó)偉,倪策,馮興樂(lè)

        (長(zhǎng)安大學(xué)信息工程學(xué)院,陜西西安710072)

        摘要:為了有效地提取單訓(xùn)練人臉樣本的特征,提出了一種新的人臉局部特征描述方法,改進(jìn)了局部二進(jìn)制模式的方向性描述單一的問(wèn)題,并且加入了像素間變化趨勢(shì)幅度的描述,稱(chēng)之為局部綜合模式(Local Comprehensive Patterns, LCP)。首先對(duì)人臉樣本圖像進(jìn)行分塊,然后每個(gè)的分塊子圖像進(jìn)行改進(jìn)LCP算子運(yùn)算;其次考慮到每個(gè)子塊的特征對(duì)整幅人臉圖像的貢獻(xiàn)度不一致,提出了貢獻(xiàn)度圖譜(Contribution Map, CM);最后根據(jù)貢獻(xiàn)度圖譜對(duì)每個(gè)子塊的改進(jìn)LCP描述進(jìn)行自適應(yīng)加權(quán)融合形成最終的人臉描述特征,最后在ORL和Yale B庫(kù)上進(jìn)行了有效性的測(cè)試,與現(xiàn)有的多種算法進(jìn)行比對(duì),所提出的算法對(duì)于非限定環(huán)境下人臉的識(shí)別有良好的效果。

        關(guān)鍵詞:人臉識(shí)別;局部二進(jìn)制模式;局部綜合模式;自適應(yīng)加權(quán)局部模式

        人臉特征提取方法已經(jīng)取得非常好的成果,綜合起來(lái)可以分為局部和全局描述方法。全局特征提取方法包括主分量法[1]、獨(dú)立分量法[2]、線性判別分析[3]等,本類(lèi)方法容易受光照和表情變化等影響,尤其對(duì)單樣本人臉的描述效果更差,針對(duì)以上問(wèn)題,局部特征提取方法開(kāi)始收到關(guān)注,其中具有代表性的有SIFT[4]、LBP[5-11]、LDP[12]和Gabor[13]等。OjalaT在2001年提出局部二進(jìn)模式LBP[5]后,LBP已廣泛應(yīng)用于紋理分類(lèi)[6]、人臉圖像分析[7-10]和醫(yī)學(xué)圖像等領(lǐng)域[12]。為了解決LBP算子不能描述較大尺度的特征以及對(duì)噪聲敏感等問(wèn)題,Ojala給出了LBP改進(jìn)算法均勻模式LBP[6],X.Tan進(jìn)一步提出了一種LBP的擴(kuò)展模型LTP[11],該模型對(duì)于每個(gè)像素的描述不局限于二進(jìn)制,而是引入了三進(jìn)制。以上的局部算法并沒(méi)有考慮到計(jì)算多進(jìn)制模式的方向性,Zhang于2010年提出了具有方向性的二進(jìn)制模式LDP[12],取得了比以往的LBP改進(jìn)算法更優(yōu)良的描述性能,但是該算法僅僅考慮到了0°、45°、90°和135°四個(gè)方向,沒(méi)有進(jìn)行全方向的描述,并且沒(méi)有考慮每個(gè)方向的變化幅度?;谝陨系姆治?,本文給出一種新的單樣本人臉特征提取方法,該方法是對(duì)LBP算法的改進(jìn),能夠更加細(xì)節(jié)的描述人臉的紋理信息,并且考慮到了每個(gè)分塊的重要程度。

        1基于自適應(yīng)加權(quán)擴(kuò)展LCP的單樣本

        人臉描述

        1.1圖像分塊

        設(shè)樣本圖像為M,維數(shù)為M×N,考慮到眼睛、鼻子、嘴巴等等對(duì)人臉識(shí)別起到重要作用的部位是橫向分布的,采用橫向分塊。設(shè)塊數(shù)為q,則

        (1)

        設(shè)Q=M/q,Xi1(i=1,2,…,q)的維數(shù)是Q×N。

        1.2LCP模式描述

        LCP模式包括方向?qū)?shù)模式(DirectionsDerivativePatterns,DDP)和方向變化幅度模式DMP,下面分別給出具體定義。

        定義1:n次方向?qū)?shù)模式(norderDDP)DDP(n)(X0):表征中心像素點(diǎn)和具各個(gè)方向相鄰像素n次方向?qū)?shù)模式,DDP(1)(X0)表示像素點(diǎn)X0的1次DDP。

        如圖2所示,設(shè)樣本圖像為X,X0是樣本圖像局部子塊的中心像素,Xa(a=1,2,3,…,8)表示中心像素點(diǎn)X0的鄰域像素。

        (2)

        θ=0°,45°,…,315°

        (3)

        DDP(1)(X0)則表示為

        (4)

        f(x,y)的定義為

        (5)

        顯而易見(jiàn),DDP(0)(X0)是基礎(chǔ)的LBP算子。

        i=1,2,…,8,θ=0°,45°,…,315°

        (6)

        (7)

        定義3:n次方向變化幅度模式(DMP)DDP(n)(X0):表征中心像素點(diǎn)和它各個(gè)方向相鄰像素n次變化幅度的趨勢(shì)。

        θ=0°,45°,…,315°

        (8)

        式中:|·|表示絕對(duì)值計(jì)算符號(hào)。

        DDP(1)(X0)定義為

        (9)

        i=1,2,…,8

        (10)

        于是就得到了DDP(n)(X0)的表示

        (11)

        定義5:n次局部綜合模式(LCP)LCP(n)(X0):n次方向?qū)?shù)模式和n次方向變化幅度模式的融合,具體的表示如下

        LCP(n)(X0)={DDP(n)(X0),DMP(n)(X0)}

        (12)

        1次LCP運(yùn)算示例如圖1所示。

        圖1 1次LCP運(yùn)算示例

        1.3基于局部紋理貢獻(xiàn)度的自適應(yīng)加權(quán)

        對(duì)于一個(gè)維數(shù)為M×N,灰度級(jí)別為m的數(shù)字圖像f(x,y),圖像的熵定義為

        (13)

        如果將圖像分塊,每個(gè)字塊圖像的信息熵不僅可以表示該字塊的信息量還可以表示該字塊細(xì)節(jié)紋理的豐富程度。基于L.Nanni[14]圖像信息熵模式,局部信息熵定義為

        LH(i,j)=H(F(i,j)w)

        (14)

        H(·)為圖像熵;w是滑動(dòng)窗口尺寸;F(i,j)是以(i,j)為中心的塊,F(xiàn)(i,j)w定義為

        F(i,j)w={f(x,y)|x∈[i-w/2,i+w/2-1],

        y∈[i-w/2,i+w/2-1]}

        (15)

        定義6:局部紋理貢獻(xiàn)度CM:表征子塊圖像對(duì)整幅的圖像的紋理貢獻(xiàn)程度。

        分塊后子圖像的紋理貢獻(xiàn)度可定義為

        (16)

        (x+(i-1)×q,y)是第i個(gè)子塊中(x,y)的值,q是總的分塊數(shù)目。

        2試驗(yàn)結(jié)果和分析

        主要將算法應(yīng)用于ORL、YALEB庫(kù),ORL主要測(cè)試表情變化和部分遮擋,YALEB庫(kù)測(cè)試對(duì)于光照的不變性。試驗(yàn)中主要對(duì)比的算法如表1所示。

        表1比較的算法及縮寫(xiě) %

        AbbreviationFullNameLBPBasicLBPfeatureLBP1LBP(8,1)featureLBP2LBP(16,2)featureLTPLTPfeatureLDP2the2orderLDPsfeatureLDP3the3orderLDPsfeatureLCP1the1orderLCPsfeatureLCP2the2orderLCPsfeatureAWLCP1theadaptivelyweighted1orderLCPsfeatureAWLCP2theadaptivelyweighted2orderLCPsfeatures

        2.1ORL庫(kù)上試驗(yàn)

        ORL人臉庫(kù)包括40個(gè)人,每個(gè)人10幅人臉,具有不同的表情、有無(wú)眼鏡等變化。從每人的10幅圖像中取1幅作為訓(xùn)練樣本測(cè)試的結(jié)果如表2和圖2所示。顯而易見(jiàn),AWELB方法的識(shí)別率要高于其他幾種方法,基本的LBP方法的識(shí)別率最低,主要原因在于基本的LBP算子不能很好地描述較大尺度的特征并且對(duì)表情的變化非常敏感;LBP1、LBP2和LTP識(shí)別率比LDP和LCP低,主要原因可以歸結(jié)為L(zhǎng)DP和LCP算子考慮到了局部特征的方向性,能夠多方位地描述局部特征;AWLCP的識(shí)別率高于兩種LDP方法,主要因?yàn)橐环矫鍸CP比LDP的方向描述更加全面,并且考慮到了方向幅度變化的趨勢(shì),另一方面每個(gè)子塊給出了重要程度的描述。分塊試驗(yàn)中16塊時(shí)識(shí)別率最高,因?yàn)榉謮K過(guò)多或者過(guò)少,都會(huì)陷于細(xì)節(jié)或者失去細(xì)節(jié)。圖2所示為1次AWLCP和2次AWLCP模式隨分塊變化的示意圖。

        表2 ORL庫(kù)表情變化狀況下識(shí)別率 %

        圖2 ORL庫(kù)表情變化下AWLCP識(shí)別率隨分塊變化圖

        2.2Yale B庫(kù)上試驗(yàn)

        測(cè)試為YaleB庫(kù)的部分?jǐn)?shù)據(jù),共10個(gè)人,每人100張照片,每人隨機(jī)取1幅圖像作為訓(xùn)練,試驗(yàn)的結(jié)果如表3和圖3所示。通過(guò)表3,AWLCP方法的識(shí)別率要高于其他幾種方法,主要原因和上述ORL庫(kù)類(lèi)似,總體識(shí)別率都比ORL庫(kù)要低,主要是復(fù)雜光照會(huì)對(duì)識(shí)別率有影響。圖3所示為1次AWLCP和2次AWLCP模式隨分塊變化的示意圖,當(dāng)塊數(shù)為16時(shí),識(shí)別率能達(dá)到最高。

        表3 YALE B庫(kù)復(fù)雜光照狀況下識(shí)別率 %

        圖3 YALE B庫(kù)復(fù)雜光照下AWELBP識(shí)別率隨分塊變化圖

        3總結(jié)

        針對(duì)目前缺乏訓(xùn)練樣本時(shí)大多數(shù)現(xiàn)有的算法無(wú)法達(dá)到很好效果的問(wèn)題,提出了自適應(yīng)局部綜合特征加權(quán)的單樣本人臉特征提取方法,該算法在ORL和YaleB人臉庫(kù)上對(duì)部分遮擋、表情變化、光照變化等環(huán)境進(jìn)行測(cè)試,并且與LBP、LBP1、LBP2、LTP、LDP1和LDP2進(jìn)行比較,結(jié)果如下:

        1)LCP在分塊為4、8、16、32和64的條件下,以O(shè)RL庫(kù)表情變化人臉為測(cè)試集,平均識(shí)別率比LBP、LTP和LDP分別提高21.39%、19.18%和8.95%;以O(shè)RL庫(kù)部分遮擋人臉為測(cè)試集,平均識(shí)別率比LBP、LTP和LDP分別提高10.2%、15.9%和5.18%。

        2)LCP在分塊為4、8、16、32和64的條件下,以YALE庫(kù)表情變化人臉為測(cè)試集,平均識(shí)別率比LBP、LTP和LDP分別提高27.07%、21.82%和15.94%;以YALE庫(kù)部分遮擋人臉為測(cè)試集,平均識(shí)別率比LBP、LTP和LDP分別提高23.23%、14.91%和10%。

        3)LCP在分塊為4、8、16、32和64的條件下,以YALEB庫(kù)復(fù)雜光照人臉為測(cè)試集,平均識(shí)別率比LBP、LTP和LDP分別提高24.48%、23.61%和0.98%。

        結(jié)果表明該算法對(duì)于單樣本人臉的描述取得了良好的效果。

        參考文獻(xiàn):

        [1]KUSUMAGP,CHUAC-S.PCA-basedimagerecombinationformultimodal2D+3Dfacesrecognition[J].Imageandvisioncomputing, 2011, 29(5): 306-316.

        [2]KUOS-C,LINC-J,LIAOJ-R. 3Dreconstructionandfacerecognitionusingkernel-basedICAandneuralnetworks[J].Expertsystemswithapplications, 2011, 38(5): 5406-5415.

        [3]KOM,BARKANAA.AnewsolutiontoonesampleprobleminfacerecognitionusingFLDA[J].Appliedmathematicsandcomputation, 2011, 217: 10368-10376.

        [4]GENGCong,JIANGXudong.Facerecognitionbasedonthemulti-scalelocalimagestructures[J].Patternrecognition, 2011, 44(11): 2565-2575.

        [5]OJALAT,PIETIKAINENM,MAENPAAT.Lecturenotesincomputerscience[M].Heidelberg:Springer, 2001.

        [6]OJALAT,PIETIKAINENM,MAENPAAT.Multiresolutiongray-scaleandrotationinvarianttextureclassificationwithlocalbinarypatterns[J].IEEEtransactionsonpatternanalysisandmachineintelligence, 2002, 24(7): 971-987.

        [7]WANGWei,HUANGFeifei.FacedescriptionandrecognitionbyLBPpyramid[J].Journalofcomputeraideddesign&computergraphics, 2009, 21(1): 94-100.

        [8]QIANXM,HUAXS,CHENP,etal.Aneffectivelocalbinarypatternstexturedescriptorwithpyramidrepresentationpatternrecognition[J].Patternrecognition,2011(44): 2502-2515.

        [9]GAOZS.FacerecognitionusingfusionofCartesiandifferentialinvariantandLBP[J].Journalofoptoelectronics·laser, 2010, 21(1): 112-115.

        [10]BONGJJ,KIMT,KIMD.Acompactlocalbinarypatternusingmaximizationofmutualinformationforfaceanalysis[J].Patternrecognition, 2011(44): 532-543.

        [11]TANX,TRIGGSB.Enhancedlocaltexturefeaturesetsforfacerecognitionunderdifficultlightingconditions[J].IEEEtransactionsonimageprocess, 2010, 19(6): 1635-1650.

        [12]ZHANGB,GAOY,ZHAOS,etal.Localderivativepatternversuslocalbinarypattern:facerecognitionwithhigher-orderlocalpatterndescriptor[J].IEEEtransactionsonimageprocess, 2010, 19(2): 533-544.

        [13]KANANHR,F(xiàn)AEZK.Recognizingfacesusingadaptivelyweightedsub-gaborarrayfromasinglesampleimageperenrolledsubject[J].Imageandvisioncomputing, 2010(28): 438-448.

        Singlesamplefacerecognitionusingadaptivelyweightedlocalcomprehensivepatterns

        GAOTao,XUEGuowei,NICe,F(xiàn)ENGXingle

        (School of Information Engineering, Chang’an University, Xi’an, 710072,China)

        Abstract:It is urgent to deal with single sample problem in the real-world application. A novel method for face description with single sample by adaptively weighted local comprehensive patterns (AWLCP) is presented. It computes the relationship between the referenced pixel and its neighbors by encoding gray-level difference based on high orders direction derivatives patterns and the direction magnitude patterns, which can extract more detailed discriminating information. The proposed algorithm utilizes local comprehensive patterns to represent faces partitioned into sub-patterns. Especially, in order to perform matching in the sense of the richness of identity information and to handle the partial occlusion problem, the proposed algorithm employs an adaptively weighting map to weight the Sub-LCP (SELCP) extracted from local areas based on the contribution of each sub-pattern to the final similarity measurement. Simulated experiments and comparisons on a subset of Yale face databases, a subset of Yale B face databases and ORL face databases under ideal condition, different illumination condition, different facial expression and partial occlusion show that the proposed algorithm is an outstanding method for single sample face recognition.

        Key words:face recognition; local binary patterns; local comprehensive patterns; adaptively weighted extended local comprehensive pattern

        基金項(xiàng)目:國(guó)家自然科學(xué)基金項(xiàng)目(61302150);中國(guó)博士后科學(xué)基金項(xiàng)目(2014M562356);陜西省協(xié)同創(chuàng)新計(jì)劃項(xiàng)目(2014XT-03)

        中圖分類(lèi)號(hào):TP391

        文獻(xiàn)標(biāo)志碼:A

        DOI:10.16280/j.videoe.2016.04.024

        作者簡(jiǎn)介:

        高濤(1980— ),副教授,碩士生導(dǎo)師,本文通訊作者,主要研究方向?yàn)閳D像處理、傳感器測(cè)試、模式識(shí)別。

        責(zé)任編輯:閆雯雯

        收稿日期:2015-07-24

        文獻(xiàn)引用格式:高濤,薛國(guó)偉,倪策,等.基于綜合特征的單樣本人臉特征提取[J].電視技術(shù),2016,40(4):115-120.

        GAOT,XUEGW,NIC,etal.Singlesamplefacerecognitionusingadaptivelyweightedlocalcomprehensivepatterns[J].Videoengineering,2016,40(4):115-120.

        猜你喜歡
        人臉識(shí)別
        人臉識(shí)別 等
        揭開(kāi)人臉識(shí)別的神秘面紗
        人臉識(shí)別技術(shù)的基本原理與應(yīng)用
        電子制作(2019年14期)2019-08-20 05:43:34
        人臉識(shí)別技術(shù)在高速公路打逃中的應(yīng)用探討
        基于(2D)2PCA-LBP 的人臉識(shí)別方法的研究
        電子制作(2017年17期)2017-12-18 06:40:55
        淺談人臉識(shí)別技術(shù)
        人臉識(shí)別在高校安全防范中的應(yīng)用
        電子制作(2017年1期)2017-05-17 03:54:46
        巡演完美收官 英飛拓引領(lǐng)人臉識(shí)別新潮流
        人臉識(shí)別在Android平臺(tái)下的研究與實(shí)現(xiàn)
        基于Metaface字典學(xué)習(xí)與核稀疏表示的人臉識(shí)別方法
        久久国产精品一国产精品金尊| 亚洲最大中文字幕无码网站 | 国产美女黄性色av网站| 精品蜜桃在线观看一区二区三区| 漂亮人妻出轨中文字幕| 人妻少妇-嫩草影院| 挺进朋友人妻雪白的身体韩国电影| 久久中文字幕人妻熟av女蜜柚m | 久久亚洲中文字幕乱码| 日韩欧美aⅴ综合网站发布| 成人三级a视频在线观看| 亚洲av美女在线播放啊| 二区三区亚洲精品国产| 日韩美女av一区二区| 国产亚洲精品美女久久久m| 人妻精品动漫h无码网站| 女性自慰网站免费看ww| 最新亚洲av日韩av二区一区| 中文字幕亚洲在线第一页| 中文字幕日韩精品有码视频| 国产精品免费精品自在线观看| 亚州AV无码乱码精品国产| 中文字幕一区二区三区在线乱码| 日韩人妻精品视频一区二区三区| 国产激情无码一区二区| 人人添人人澡人人澡人人人人| 亚洲www视频| 亚洲中文字幕一二区精品自拍| 国产亚洲成性色av人片在线观| 激情综合色综合久久综合| 亚洲AV无码久久久一区二不卡| aaaaa级少妇高潮大片免费看| 国产美女a做受大片免费| 久久精品av在线视频| 亚洲国产日韩a在线乱码| 乱人伦中文无码视频在线观看| 不卡国产视频| 在线高清亚洲精品二区| 337p日本欧洲亚洲大胆色噜噜| 国产裸拍裸体视频在线观看| 久久久国产精品免费无卡顿|