亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        動(dòng)態(tài)時(shí)間規(guī)整優(yōu)化局部分塊匹配的人臉識(shí)別

        2014-07-07 01:49:56徐屹
        關(guān)鍵詞:人臉識(shí)別方法

        徐屹

        湖南工業(yè)職業(yè)技術(shù)學(xué)院信息工程系,長(zhǎng)沙 410208

        動(dòng)態(tài)時(shí)間規(guī)整優(yōu)化局部分塊匹配的人臉識(shí)別

        徐屹

        湖南工業(yè)職業(yè)技術(shù)學(xué)院信息工程系,長(zhǎng)沙 410208

        針對(duì)現(xiàn)實(shí)人臉識(shí)別中姿勢(shì)、光照、表情變化及遮擋等嚴(yán)重影響識(shí)別性能的問(wèn)題,提出了一種基于動(dòng)態(tài)時(shí)間規(guī)整優(yōu)化局部分塊匹配的戶外人臉識(shí)別算法。將人臉圖像劃分成若干大小相等且互不重疊的局部小塊;借助于光柵掃描順序?qū)⒏鱾€(gè)小塊按照前額、眼睛、鼻子、嘴巴和下巴的順序連接成一個(gè)單一序列;計(jì)算查詢?nèi)四樑c注冊(cè)人臉之間圖像到類(lèi)的距離,利用動(dòng)態(tài)時(shí)間規(guī)整的設(shè)計(jì)思想尋找查詢序列與所有注冊(cè)序列之間的最佳對(duì)齊方式。在三個(gè)公開(kāi)人臉數(shù)據(jù)庫(kù)LFW、AR及YouTube上的實(shí)驗(yàn)驗(yàn)證了該方法的有效性及可靠性,實(shí)驗(yàn)結(jié)果表明,相比其他幾種較為先進(jìn)的人臉識(shí)別方法,該方法取得了更高的識(shí)別率,此外,該方法無(wú)需任何訓(xùn)練過(guò)程,計(jì)算成本低。

        人臉識(shí)別;動(dòng)態(tài)時(shí)間規(guī)整;局部分塊匹配;查詢?nèi)四?;探針圖像

        近年來(lái),非約束條件下的人臉識(shí)別(FR)[1]引起了學(xué)者們廣泛的興趣,許多人臉識(shí)別方法在處理約束條件人臉識(shí)別時(shí)取得了很好的識(shí)別效果,然而,由于姿勢(shì)、光照、表情變化或遮擋常有發(fā)生,這種非限制條件人臉識(shí)別已成為一項(xiàng)更具挑戰(zhàn)的任務(wù)[2]。

        戶外標(biāo)記人臉(Labeled Face of Wild,LFW)數(shù)據(jù)集[3]公開(kāi)后,學(xué)者們提出了一些新的用于提高非限制條件下人臉識(shí)別性能的方法,例如,文獻(xiàn)[4]提出利用三塊局部二值模式(Local Binary Pattern,LBP)和四塊LBP特征對(duì)中心像素周?chē)南噜張D像塊之間的相似性進(jìn)行編碼,從而采集到互補(bǔ)于LBP特征的信息,文獻(xiàn)[5]將每個(gè)人臉圖像描述成可視化的多區(qū)域概率直方圖,有效地改進(jìn)了光照變化人臉識(shí)別問(wèn)題。為了解決光照、表情、姿態(tài)變化人臉識(shí)別問(wèn)題,文獻(xiàn)[6]提出使用無(wú)監(jiān)督學(xué)習(xí)方法對(duì)每個(gè)人臉圖像的微觀結(jié)構(gòu)進(jìn)行編碼。針對(duì)在劇烈光照變化情況下無(wú)法獲得足夠的特征描述信息的問(wèn)題,基于梯度幅值自相似性,文獻(xiàn)[7]提出了稱(chēng)為梯度邊緣幅值模式(Pattern of Edge Gradient,POEM)的判別性特征描述符,取得了很好的識(shí)別效果,但是,一定程度上增加了計(jì)算開(kāi)銷(xiāo)。為了更好地改善姿態(tài)、表情變化對(duì)識(shí)別的影響,文獻(xiàn)[8]采用了生物激發(fā)視覺(jué)表示,文獻(xiàn)[9]提出使用屬性和相似分類(lèi)器輸出作為人臉識(shí)別的中層特征,文獻(xiàn)[10]使用最接近給定查詢圖像的秩作為這個(gè)查詢圖像的描述符。文獻(xiàn)[11]提出了基于距離的邏輯判別和基于距離的最近鄰度量方法,文獻(xiàn)[12]提出了余弦相似性度量學(xué)習(xí)方法,最近,文獻(xiàn)[13]提出了“關(guān)聯(lián)預(yù)測(cè)”模型,利用帶有較大個(gè)人內(nèi)部變化的附加通用數(shù)據(jù)集來(lái)測(cè)量?jī)煞鶊D像之間的相似性,緩解了場(chǎng)景變化對(duì)識(shí)別效果的影響。上述各方法均取得了良好的識(shí)別效果,但是,當(dāng)應(yīng)用于帶有較大的姿勢(shì)、光照、表情及場(chǎng)景變化的戶外人臉識(shí)別中時(shí),各方法并不能取得令人滿意的結(jié)果[14]。

        基于上述分析,為了更好地解決帶有光照、表情、姿態(tài)變化及面部遮擋的人臉識(shí)別問(wèn)題,提出了一種基于動(dòng)態(tài)時(shí)間規(guī)整(DTW)[15]的局部分塊匹配人臉識(shí)別方法。首先將圖像劃分成子塊,然后以光柵掃描順序重新形成一個(gè)序列,在這種方式下,人臉由包含臉部特征順序信息的塊序列表示,本文方法計(jì)算查詢?nèi)四樅妥?cè)人臉之間圖像到類(lèi)的距離,尋找查詢序列和所有注冊(cè)序列之間的最佳對(duì)齊方式。實(shí)驗(yàn)結(jié)果驗(yàn)證了本文方法的有效性及可靠性。該研究為FR應(yīng)用提供了一種有效的候選方法,所提模型與現(xiàn)實(shí)世界FR應(yīng)用的各種圖像描述符和特征提取方法均兼容。

        1 方法提出

        1.1 圖像表示

        將圖像劃分成M個(gè)不重疊子塊,大小為d像素× d′像素,然后依光柵掃描順序重新將這些子塊聯(lián)接成一個(gè)單一序列。人臉由前額、眼睛、鼻子、嘴巴和下巴這樣的自然順序組成,盡管有遮擋和不精確注冊(cè),這個(gè)順序是不變的。人臉圖像以塊序列表示,其中塊位置順序(即人臉特征的順序)可作為時(shí)間信息,因此,處理FR問(wèn)題可以使用時(shí)間序列分析技術(shù)。

        Fi表示第i塊,通過(guò)相鄰兩個(gè)塊對(duì)應(yīng)像素的值相減計(jì)算差異塊▽Fi,即

        其中,(x,y)是一個(gè)像素點(diǎn)的坐標(biāo)。

        這些由空間連續(xù)塊產(chǎn)生的差異塊能增強(qiáng)人臉序列內(nèi)的順序信息,這與所提模型是兼容的。此外,從宏觀角度來(lái)講,當(dāng)每個(gè)塊的大小非常小時(shí),每個(gè)塊就是一個(gè)像素點(diǎn),差異塊▽Fi實(shí)際上可以認(rèn)為是相鄰像素Fi+1與Fi的近似一階導(dǎo)數(shù),因?yàn)橐浑A導(dǎo)數(shù)操作對(duì)邊緣敏感,如眼睛、鼻子、嘴巴這些能夠表示詳細(xì)紋理區(qū)域的顯著臉部特征就會(huì)增強(qiáng)。圖1所示為本文方法的圖像表示框架。本文方法將差異塊的灰度值作為特征,相比使用原始?jí)K,相同類(lèi)的距離分布和不同類(lèi)的距離分布分離更大。

        1.2 動(dòng)態(tài)圖像類(lèi)規(guī)整

        圖1 本文方法的圖像表示

        通過(guò)定義序列之間的距離度量來(lái)實(shí)現(xiàn)人臉匹配,通常,如果兩個(gè)序列彼此類(lèi)似,則期望更小的距離。使用DTW計(jì)算兩個(gè)時(shí)間序列之間的距離,例如,對(duì)于兩個(gè)序列A=(3,1,10,5,6)和B=(3,2,1,10,5),它們之間的歐氏距離是,對(duì)于這兩個(gè)近似序列來(lái)說(shuō)這個(gè)值有些大,然而,如果忽略B中的“2”,用A中“1,10,5”匹配B中“1,10,5”,不使用按位匹配,A和B之間的距離會(huì)大幅減小。DTW基于這個(gè)思想計(jì)算兩個(gè)序列之間的距離,以最小的整體成本尋找它們之間的最優(yōu)對(duì)齊方式。匹配期間要考慮順序信息,因此,不允許有交叉匹配(如A中的“3”匹配B中的“2”,而A中的“1”匹配B中的“3”)。對(duì)于FR,這非常合理,因?yàn)槟槻刻卣鞯捻樞虿荒苣孓D(zhuǎn)。

        借助于DTW的設(shè)計(jì)思想,本文方法試圖找到人臉序列之間的最佳對(duì)齊方式,降低遮擋塊的影響,將兩個(gè)序列之間的對(duì)齊方式擴(kuò)展成一個(gè)序列和給定類(lèi)序列集之間的對(duì)齊方式。包含M個(gè)塊的探針圖像表示為P={p1,…,pm,…,pM},其中,pm是前文提到的差異塊,包含K幅圖像的給定類(lèi)的圖庫(kù)集表示為G={G1,…,Gk,…,GK},其中,每個(gè)Gk={gk1,…,gkn,…,gkN}是包含N個(gè)塊的一幅圖庫(kù)圖像,gkn指的是類(lèi)似pm的塊向量。DTW和本文方法的對(duì)齊方式如圖2所示,規(guī)整在兩個(gè)方向上執(zhí)行:(1)按照時(shí)間維度(維持順序信息)將探針序列P對(duì)齊到給定類(lèi)的圖庫(kù)序列集G;(2)在每個(gè)時(shí)間步P的每個(gè)塊沿著類(lèi)內(nèi)維度匹配到所有圖庫(kù)序列中最相似的塊。其中,箭頭指示每個(gè)塊的對(duì)齊方式,虛線標(biāo)記了圖像和圖庫(kù)圖像集之間的最佳規(guī)整路徑。

        圖2 DTW(左)和本文方法(右)的對(duì)齊方式說(shuō)明

        規(guī)整路徑W表示的是T個(gè)時(shí)間步的P和G之間的對(duì)齊方式,定義為W={w1,w2,…,wT}。第t個(gè)元素wt是一個(gè)索引三元組{mt,nt,kt},表示的是塊pmt匹配到塊gktnt,其中,mt∈{1,2,…,M},nt∈{1,2,…,N},kt∈{1,2,…,K}??紤]到FR的內(nèi)容,W滿足下列4個(gè)約束:

        邊界約束:m1=1,n1=1,mT=M,nT=N。路徑起始于匹配p1到gk11,以匹配pM到gkTN結(jié)束,從1到T,k可以是1到K之間的任意值,因?yàn)樘结槈K可與圖庫(kù)中任意K幅圖像的塊匹配。

        連續(xù)性約束:mt-mt-1≤1,nt-nt-1≤1,每執(zhí)行一步路徑的索引增加1,探針和圖庫(kù)圖像中的所有塊都會(huì)處理到。

        單調(diào)性約束:mt-1≤mt,nt-1≤nt,路徑保存時(shí)間順序,且單調(diào)增加。

        窗口約束:|mt-nt|≤l,其中,l∈N+是窗口長(zhǎng)度,探針塊不應(yīng)該與距離太遠(yuǎn)的塊匹配(如眼睛不能匹配到嘴),長(zhǎng)度為l的窗口能限制規(guī)整路徑在一個(gè)合適的范圍內(nèi)。

        創(chuàng)建一個(gè)局部距離矩陣C∈RM×N×K,其中,每個(gè)元素Cm,n,k存儲(chǔ)歐氏距離,稱(chēng)為局部成本,pm和gkn之間:Cm,n,k=||pm-gkn||2,W的整體成本定義如下:

        最優(yōu)對(duì)齊方式(即最優(yōu)規(guī)整路徑)W*是S(W)最小的路徑,P和G之間的圖像到類(lèi)之間的距離即為簡(jiǎn)化的W*整體成本:

        計(jì)算DDTW(P,G)能夠測(cè)試所有可能的規(guī)整路徑,但是計(jì)算成本很高,值得慶幸的是,動(dòng)態(tài)規(guī)劃(DP)可以有效地求解式(3)。創(chuàng)建一個(gè)三維累積矩陣C∈RM×N×K,元素Dm,n,k存儲(chǔ)子問(wèn)題的成本,即分配一個(gè)m個(gè)塊的序列到一個(gè)有n個(gè)塊的序列集,匹配第m個(gè)塊pm到第k個(gè)圖庫(kù)圖像的塊,DDTW(P,G)的計(jì)算基于一系列子問(wèn)題的結(jié)果,D可遞歸計(jì)算為:

        其中,初始化將D擴(kuò)展為一個(gè)(M+1)×(N+1)×K的矩陣,設(shè)置D0,0,k=0,D0,n,k=Dm,0,k=∞,×表示笛卡爾積操作,因此,DDTW(P,G)可由下式得到:

        然后探針圖像P分類(lèi)到距離最短的類(lèi),未對(duì)式(4)的第一項(xiàng)的k作任何約束,因?yàn)樵诿總€(gè)時(shí)間步,探針塊可與圖庫(kù)中任意K幅圖像的塊匹配。

        本文方法能從所有可能的規(guī)整組合中找到整體成本最小的對(duì)齊方式,因此,整體距離主要依賴于人臉最相似的部分,這與視覺(jué)感官也是一致的。圖3解釋了圖像到類(lèi)的規(guī)整,圖3(a)中,遮擋的人臉屬于類(lèi)2,但當(dāng)使用圖像到圖像距離時(shí)會(huì)被錯(cuò)誤分類(lèi)(最近鄰屬于類(lèi)1),盡管圖像到圖像距離比類(lèi)2的每個(gè)單個(gè)圖庫(kù)圖像大,但是圖像到類(lèi)距離小,能夠產(chǎn)生正確分類(lèi)。如圖3(b)所示,每一步中,探針圖像的每個(gè)塊與圖庫(kù)圖像最相似的塊匹配,圖像到類(lèi)距離計(jì)算主要基于這些成對(duì)的最相似的塊(匹配的塊用相同顏色表示)。

        算法1總結(jié)了計(jì)算探針圖像與類(lèi)之間距離的過(guò)程,時(shí)間復(fù)雜度為O(lmax(M,N)K),其中l(wèi)<<M(l通常設(shè)置為max(M,N)的10%)。當(dāng)每個(gè)類(lèi)的圖庫(kù)圖像數(shù)目有限時(shí),K相對(duì)較小,因此可以非常有效地獲得規(guī)整距離。MATLAB實(shí)現(xiàn)取平均0.05 s計(jì)算一幅圖像與類(lèi)之間的距離,使用大約200個(gè)塊的序列,相比基于重構(gòu)的方法,使用所有注冊(cè)圖像表示測(cè)試圖像,本文方法獨(dú)立計(jì)算探針圖像與每個(gè)注冊(cè)類(lèi)之間的距離。因此,在實(shí)際FR應(yīng)用中,可以并行地產(chǎn)生距離矩陣,還可以增加更新注冊(cè)數(shù)據(jù)庫(kù)。

        圖3 圖像到類(lèi)的規(guī)整

        2 實(shí)驗(yàn)

        為了評(píng)估本文方法的性能,在三個(gè)公開(kāi)數(shù)據(jù)庫(kù)LFW[3]、AR[10]和YouTube數(shù)據(jù)庫(kù)[15]上進(jìn)行了實(shí)驗(yàn)。所有的實(shí)驗(yàn)均在8 GB內(nèi)存Intel?CoreTM3.10 GHz Windows XP機(jī)器上完成,編程環(huán)境為MATLAB 7.0。

        2.1 子塊大小的影響

        這部分研究不同子塊大小對(duì)本文方法識(shí)別性能的影響,從LFW中取400幅未遮擋圖像作為圖像集,分別包含從0%到50%級(jí)別遮擋的6個(gè)探針集用于測(cè)試,所有圖像都裁剪為80×60大小,子塊大小從3×3到10×10,劃分后,圖像剩余的部分忽略不計(jì)。簡(jiǎn)單起見(jiàn),將探針圖像和圖庫(kù)圖像劃分成相同數(shù)目的子塊,即M=N,識(shí)別結(jié)果如圖4所示。

        圖4 塊大小函數(shù)的識(shí)別率

        從圖4可以看出,當(dāng)塊大小等于或者小于6×5時(shí),每個(gè)識(shí)別率曲線都沒(méi)有大幅波動(dòng)。盡管存在遮擋比率,本文方法在適當(dāng)范圍內(nèi)對(duì)子塊大小的魯棒性更好。相對(duì)較小的塊產(chǎn)生的識(shí)別率更好,因?yàn)樗鼈兡鼙却髩K提供更靈活的空間信息,然而,如果塊太小,計(jì)算和內(nèi)存成本都會(huì)增加。根據(jù)這一結(jié)果,建議使用塊大小在4×4至6×5之間。該實(shí)驗(yàn)中,根據(jù)圖像大小,LFW數(shù)據(jù)庫(kù)使用的塊大小為6×5,AR數(shù)據(jù)庫(kù)和YouTube人臉數(shù)據(jù)庫(kù)使用的塊大小為5×5。

        2.2 LFW數(shù)據(jù)集

        將所提基于DTW的局部分塊匹配方法與其他幾種具有代表性的匹配方法進(jìn)行了比較,包括使用特征臉作為特征的線性SVM[2](LSVM)、基于稀疏表示的重構(gòu)(SRC)[16]、基于樸素貝葉斯最近鄰的塊匹配(NBNN)[11]、基準(zhǔn)的最近鄰(NN)分類(lèi)器[4]。NBNN也是一種基于塊匹配的方法,分別使用原始?jí)K和差異塊進(jìn)行測(cè)試,給出了最佳結(jié)果。選擇LFW數(shù)據(jù)庫(kù)的100個(gè)對(duì)象,每個(gè)對(duì)象8幅圖像,對(duì)于每個(gè)對(duì)象,分別選擇K=1,2,3,4幅無(wú)遮擋圖像作為圖庫(kù)集,另外4幅有合成遮擋的圖像作為探針集。每個(gè)測(cè)試圖庫(kù)集與探針集無(wú)重復(fù)圖像,所有圖像均裁剪成90×65大小。各方法的參數(shù)設(shè)置分別參照各自所在文獻(xiàn),如圖5所示為每個(gè)人不同圖庫(kù)數(shù)目下各個(gè)方法的識(shí)別率。

        從圖5可以看出,起始階段(遮擋水平≤10%)SRC的性能略優(yōu)于本文方法,然而,當(dāng)遮擋增加時(shí),性能急劇下降?;趬K匹配的方法NBNN和本文方法整體上執(zhí)行效果優(yōu)于其他幾種方法。當(dāng)每個(gè)人僅有一幅圖庫(kù)圖像可用(K=1)時(shí),本文方法中圖像到類(lèi)的距離等于圖像到圖像的距離,仍能對(duì)所有級(jí)別的遮擋獲得最佳識(shí)別率,因?yàn)樗ㄟ^(guò)規(guī)整并考慮面部特征的順序,能找到圖庫(kù)和探針圖像之間的最優(yōu)對(duì)齊方式。綜合4幅圖可看出,不論K取何值,本文方法取得的識(shí)別效果均優(yōu)于其他各個(gè)方法。

        2.3 AR數(shù)據(jù)集

        這部分在有實(shí)際偽裝的AR數(shù)據(jù)庫(kù)上測(cè)試本文方法,使用AR數(shù)據(jù)庫(kù)的一個(gè)包含各種光照條件、表情變化和遮擋的子集(包含50位男性50位女性),使用未遮擋的帶有各種表情的正面視圖圖像作為圖庫(kù)圖像(每人8幅圖像),對(duì)于每個(gè)對(duì)象,從中分別選擇K=1,2,4,6,8幅圖像作為圖庫(kù)集,使用包含太陽(yáng)鏡(覆蓋圖像的30%)和圍巾(覆蓋圖像的50%)的兩個(gè)分離集作為測(cè)試集,所有圖像均裁剪為80×60大小,圖6所示為各方法的識(shí)別結(jié)果。

        從圖6可以看出,當(dāng)可用的圖庫(kù)圖像較少時(shí),識(shí)別率呈下降趨勢(shì),本文方法的性能穩(wěn)定且顯著優(yōu)于其他方法,甚至在K=1時(shí),本文方法在太陽(yáng)鏡集和圍巾集遮擋情況下的識(shí)別率可分別高達(dá)90%和83%。

        圖5 在FRGC數(shù)據(jù)庫(kù)上每個(gè)人不同圖庫(kù)圖像數(shù)目的識(shí)別率

        圖6 AR數(shù)據(jù)庫(kù)上的識(shí)別結(jié)果

        在同樣的實(shí)驗(yàn)設(shè)置下,還使用每人8幅圖庫(kù)圖像對(duì)本文方法與較為先進(jìn)的幾種人臉識(shí)別方法進(jìn)行了比較,所有方法僅使用灰度值特征,識(shí)別結(jié)果如表1所示,針對(duì)各個(gè)方法,自己作了實(shí)驗(yàn),各方法的參數(shù)設(shè)置均參考各自所在文獻(xiàn)。

        表1 AR數(shù)據(jù)庫(kù)上每人有8幅圖庫(kù)圖像的識(shí)別率

        從表1可以看出,相比其他幾種方法,本文方法能獲得與這些方法相當(dāng)甚至更好的識(shí)別率。而在識(shí)別效率上,本文方法的識(shí)別速率約為SRC方法的15倍。在圍巾集這種幾乎遮擋住一半人臉的數(shù)據(jù)集上,本文方法僅對(duì)2%的圖像誤分類(lèi),就目前所知,這是在圍巾集上僅使用灰度值作為特征時(shí)得到的最好的結(jié)果。

        表2中列出了各方法在平均精度、標(biāo)準(zhǔn)差、曲線下方面積(AUC)和等差率(EER)方面的數(shù)據(jù)。

        從表2可以看出,在各個(gè)方法中,本文方法的平均精度最高,最低的標(biāo)準(zhǔn)差體現(xiàn)了本文方法識(shí)別性能的穩(wěn)定性,曲線下方面積最大,等差率最小,表明本文方法更加優(yōu)越。

        表2 各方法在AR人臉數(shù)據(jù)集上的識(shí)別結(jié)果(平均精度±標(biāo)準(zhǔn)差(std)、AUC和EER)

        2.4 YouTube數(shù)據(jù)集

        在YouTube數(shù)據(jù)集上,考慮到所有人臉圖像都經(jīng)固定的檢測(cè)臉部關(guān)鍵點(diǎn)對(duì)齊過(guò),所以將從一個(gè)視頻剪輯所有幀中提取出的平均特征,圖像均剪裁為80×60大小,本文方法的分塊大小為5×5,并將本文方法與其他幾種較為先進(jìn)的方法進(jìn)行了比較,針對(duì)各個(gè)方法,自己作了實(shí)驗(yàn),各方法的參數(shù)設(shè)置均參考各自所在文獻(xiàn),表3中列出了各方法在平均精度、標(biāo)準(zhǔn)差、曲線下方面積(AUC)和等差率(EER)方面的數(shù)據(jù)。

        表3 各方法在YouTube人臉數(shù)據(jù)集上的識(shí)別結(jié)果(平均精度±標(biāo)準(zhǔn)差(std)、AUC和EER)

        從表3可以看出,相比其他幾種方法,本文方法在AUC和平均精度方面性能均為最高,且EER最低,再次驗(yàn)證了本文方法的優(yōu)越性。

        3 結(jié)論

        該文提出了一種基于DTW優(yōu)化局部分塊匹配的人臉識(shí)別方法,在三個(gè)人臉數(shù)據(jù)庫(kù)上的大量實(shí)驗(yàn)表明,本文方法能獲得比其他方法更好的性能。在每個(gè)人僅有一幅圖庫(kù)圖像可利用的極端情況下,本文方法仍能得到良好的執(zhí)行效果。本文方法能直接處理原始數(shù)據(jù),不需要任何訓(xùn)練過(guò)程,這些優(yōu)點(diǎn)使其更適用于現(xiàn)實(shí)場(chǎng)景。

        所提模型非常靈活,可采用如LBP和Gabor之類(lèi)的其他圖像描述符,未來(lái)會(huì)將所提模型與更復(fù)雜的特征提取算法結(jié)合,進(jìn)行大量的實(shí)驗(yàn),進(jìn)一步提高人臉識(shí)別率。

        [1]張楠.低秩鑒別分析與回歸分類(lèi)方法研究[D].南京:南京理工大學(xué),2012.

        [2]陳長(zhǎng)軍,詹永照,文傳軍.支持向量描述鑒別分析及在人臉識(shí)別中的應(yīng)用[J].計(jì)算機(jī)應(yīng)用研究,2010,27(2):488-490.

        [3]Huang G B,Mattar M,Berg T,et al.Labeled faces in the wild:a database for studying face recognition in unconstrained environments[C]//Workshop on Faces in'Real-Life' Images:Detection,Alignment,and Recognition,2008.

        [4]王憲,張彥,慕鑫,等.基于改進(jìn)的LBP人臉識(shí)別算法[J].光電工程,2012,39(7):109-114.

        [5]趙海英,馮月萍.應(yīng)用Gabor濾波器和局部邊緣概率直方圖的全局紋理方向性度量[J].光學(xué)精密工程,2010,18(7):1668-1674.

        [6]皋軍,孫長(zhǎng)銀,王士同.具有模糊聚類(lèi)功能的雙向二維無(wú)監(jiān)督特征提取方法[J].自動(dòng)化學(xué)報(bào),2012,38(4):549-562.

        [7]楊利平,葉洪偉.人臉識(shí)別的相對(duì)梯度方向邊緣幅值模式[J].光學(xué)精密工程,2013,21(4):1101-1109.

        [8]Cox D,Pinto N.Beyond simple features:a large-scale feature search approach to unconstrained face recognition[C]// 2011 IEEE International Conference on Automatic Face& Gesture Recognition and Workshops(FG 2011),2011:8-15.

        [9]楊傳振,朱玉全,陳耿.一種基于粗糙集屬性約簡(jiǎn)的多分類(lèi)器集成方法[J].計(jì)算機(jī)應(yīng)用研究,2012,29(5):1648-1650.

        [10]黃榮兵,郎方年,施展.基于Log-Gabor小波和二維半監(jiān)督判別分析的人臉圖像檢索[J].計(jì)算機(jī)應(yīng)用研究,2012,29(1):393-396.

        [11]Guillaumin M,Verbeek J,Schmid C.Is that you?Metric learning approaches for face identification[C]//2009 IEEE 12th International Conference on Computer Vision,2009:498-505.

        [12]高全學(xué),謝德燕,徐輝,等.融合局部結(jié)構(gòu)和差異信息的監(jiān)督特征提取算法[J].自動(dòng)化學(xué)報(bào),2010,36(8):1107-1114.

        [13]Yin Q,Tang X,Sun J.An associate-predict model for face recognition[C]//2011 IEEE Conference on Computer Vision and Pattern Recognition(CVPR),2011:497-504.

        [14]周旭東,陳曉紅,陳松燦.半配對(duì)半監(jiān)督場(chǎng)景下的低分辨率人臉識(shí)別[J].計(jì)算機(jī)研究與發(fā)展,2012,49(11):2328-2333.

        [15]劉廣征.基于視頻與文本信息的說(shuō)話者人臉標(biāo)注[D].哈爾濱:哈爾濱工業(yè)大學(xué),2010.

        [16]楊榮根,任明武,楊靜宇.基于稀疏表示的人臉識(shí)別方法[J].計(jì)算機(jī)科學(xué),2010,37(9):267-269.

        XU Yi

        Department of Information Engineering,Hunan Industry Polytechnic,Changsha 410208,China

        Large variation of pose,illustration,expression and occlusion in truly face recognition will seriously impact recognition performance,for which Local Partition Matching(LPM)algorithm optimized by Dynamic Time Warping(DTW)is proposed.Face image is divided into many non-overlapping patches with same size.All patches are combined to be a unique sequence sorting by forehead,eyes,nose,mouth and chin by using raster scan sequence.Distance from image to class between query face and register faces is calculated,and idea of DTW is used to find the best alignment between query sequence and all register sequences.The effectiveness and reliability of proposed method have been verified by experiments on the three common databases LFW,AR and YouTube.Experimental results show that proposed method has higher recognition accuracy than several advanced face recognition methods.Besides,it has lower cost without any training process.

        face recognition;dynamic time warping;local partitioned matching;query face;probe image

        A

        TP391

        10.3778/j.issn.1002-8331.1310-0293

        XU Yi.Local partition matching optimized by DTW for face recognition.Computer Engineering and Applications, 2014,50(6):165-170.

        徐屹(1980—),男,講師,主要研究領(lǐng)域?yàn)橹悄芸刂啤⒛J阶R(shí)別。

        2013-10-23

        2013-12-13

        1002-8331(2014)06-0165-06

        猜你喜歡
        人臉識(shí)別方法
        人臉識(shí)別 等
        揭開(kāi)人臉識(shí)別的神秘面紗
        學(xué)習(xí)方法
        基于(2D)2PCA-LBP 的人臉識(shí)別方法的研究
        電子制作(2017年17期)2017-12-18 06:40:55
        人臉識(shí)別在高校安全防范中的應(yīng)用
        電子制作(2017年1期)2017-05-17 03:54:46
        可能是方法不對(duì)
        用對(duì)方法才能瘦
        Coco薇(2016年2期)2016-03-22 02:42:52
        四大方法 教你不再“坐以待病”!
        Coco薇(2015年1期)2015-08-13 02:47:34
        賺錢(qián)方法
        基于類(lèi)獨(dú)立核稀疏表示的魯棒人臉識(shí)別
        老熟妇高潮喷了╳╳╳| 白白发在线视频免费观看2| 亚洲人成网线在线播放va蜜芽| 国产精品丝袜久久久久久不卡| 天天综合久久| 精品亚洲一区二区视频| 国产av天堂亚洲av刚刚碰| 免费高清av一区二区三区 | 青春草在线观看免费视频| 中文字幕有码人妻在线| 中国少妇内射xxxx狠干| 欧美老熟妇又粗又大| 国产精东一区二区三区| 亚洲一区二区三区特色视频| 野狼第一精品社区| 少妇无码av无码去区钱| 日本在线观看一区二区视频| 无码精品一区二区三区在线| 国产人与禽zoz0性伦| 亚洲先锋影院一区二区| 国产91在线播放九色快色| 亚洲人成网站色7799| 精品国产v无码大片在线观看| 青青草99久久精品国产综合| 久久成年片色大黄全免费网站| 青青青伊人色综合久久| 加勒比东京热中文字幕| 四虎国产精品免费久久| 全部免费国产潢色一级| 国产亚洲精品一区二区在线观看| 亚洲人成影院在线无码按摩店 | 国内揄拍国内精品久久| 国产对白国语对白| 精品国产黑色丝袜高跟鞋| 强d乱码中文字幕熟女1000部| 一道本久久综合久久鬼色| 欧美国产精品久久久乱码| 蜜桃在线播放免费一区二区三区| 少妇被粗大猛进进出出男女片| 无码视频在线观看| 久久免费大片|