亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于詞包模型和SURF局部特征的人臉識別

        2017-09-01 01:13:31劉翠響李敏張鳳林
        關(guān)鍵詞:描述符人臉識別人臉

        劉翠響,李敏,張鳳林

        (河北工業(yè)大學(xué) 電子信息工程學(xué)院,天津市 300401)

        基于詞包模型和SURF局部特征的人臉識別

        劉翠響,李敏,張鳳林

        (河北工業(yè)大學(xué) 電子信息工程學(xué)院,天津市 300401)

        針對傳統(tǒng)人臉識別方法實(shí)時性差的缺點(diǎn),提出了一種加速魯棒性特征(SURF,speed up robust features)和詞包模型(BOW,bag-of-word)相結(jié)合的人臉識別方法.圖像經(jīng)過預(yù)處理后,使用SURF算法自動提取圖像的關(guān)鍵點(diǎn)和相應(yīng)的特征描述符,再進(jìn)一步用BOW方法將其編成視覺單詞作為人臉的局部特征.最后,采用K最鄰近結(jié)點(diǎn)算法進(jìn)行分類識別.使用了2個數(shù)據(jù)集驗(yàn)證了提出的方法——標(biāo)準(zhǔn)CMU-PIE(卡內(nèi)基梅隆大學(xué)——姿勢、光照、表情人臉數(shù)據(jù)庫)人臉庫和采集的數(shù)據(jù)庫,分別達(dá)到了97.5%和99.3%的識別率,而且特征提取的時間少于0.108 s,識別的時間少于0.017 s.結(jié)果表明,本文提出的算法不僅精確而且快速,具有更好的穩(wěn)定性和有效性.

        人臉識別;詞包模型;SURF;局部特征;K-NN

        由于人臉會受到姿勢、面部表情或者光照等的影響,所以人臉識別是一項(xiàng)非常具有挑戰(zhàn)性的技術(shù).除此之外,人臉表示經(jīng)常要求多個維度,這就更加加劇了人臉識別的艱巨性[1].

        傳統(tǒng)的人臉識別方法對表情、光照和尺度的變化非常敏感,當(dāng)人臉圖像發(fā)生較大改變(比如旋轉(zhuǎn))后,識別率就會急劇下降.近幾年,研究者介紹了很多應(yīng)用在人臉識別領(lǐng)域的局部特征提取算法,例如,尺度不變特征變換(SIFT,scale invariant feature transform)就曾得到廣泛應(yīng)用[2].尺度不變特征變換[3]作為一種局部特征描述算法,計算簡單,識別有效,且具有尺度和旋轉(zhuǎn)不變性.2006年后,SIFT算法被用于人臉識別領(lǐng)域[3-5];然而這種算法計算復(fù)雜度高,不能在實(shí)時系統(tǒng)中得到更廣泛的應(yīng)用,且非常容易受光照變化的影響[6].為此研究者提出了很多基于SIFT算法的改進(jìn)算法,以便于該算法更能適用于實(shí)時系統(tǒng).比如,kd樹被應(yīng)用在尋找K最近鄰的領(lǐng)域,指出PCA可以減少SIFT算法提取特征的維數(shù)[7].但是,由于人臉的特殊位置尤其是人臉邊緣的關(guān)鍵點(diǎn)很難被找到,從而得不到較高的識別率,所以這類方法仍然達(dá)不到實(shí)時系統(tǒng)的要求.為了解決SIFT算法計算復(fù)雜度高的問題,2006年,Bay等[8]提出了SURF算法,并將其用于圖像匹配領(lǐng)域.該算法不僅在尺度、光照和旋轉(zhuǎn)方面具有較強(qiáng)的魯棒性,而且在速度上遠(yuǎn)遠(yuǎn)超出了SIFT算法.在對室外自然圖像的匹配結(jié)果表明,SURF算法的運(yùn)算速度比SIFT算法快將近3倍,并且整體性能有著SIFT算法不可比擬的優(yōu)越性[9-10].2009年,Du等[5]首次將SURF算法應(yīng)用在人臉識別領(lǐng)域,提出基于SURF算法的人臉特征方法.2010年,Kang等[10]利用SURF算法的旋轉(zhuǎn)不變性,將待測試的人臉圖像經(jīng)過旋轉(zhuǎn)處理后,形成了新的測試樣本,使得人臉識別的效果得到有效提高,但這僅是對SURF算法的簡單利用.總體來說,上述基于SURF提取人臉圖像特征的方法,雖然都在一定程度上提高了人臉的識別率,但提取的人臉特征關(guān)鍵點(diǎn)分布不均,并且對光照變化魯棒性較差.

        詞包模型(BOW)是最近幾年常用的圖像特征分析方法之一,最開始被應(yīng)用在處理自然語言或者檢索無序的詞語歸類以及詞序的信息[11]中.最近,詞包模型在計算機(jī)視覺中得到有效利用,比如目標(biāo)識別、圖像分類和圖像檢索[12-13].在詞包模型中,用有序的視覺單詞表來表示圖像特征,實(shí)驗(yàn)檢驗(yàn)證明,詞包模型可以很好地應(yīng)用在圖像分類中.但是詞包模型往往容易忽略圖像的整體信息,以至于會對其分類的正確率造成影響,所以要想提高詞包模型的準(zhǔn)確率和魯棒性,需要找到一個更好的特征提取方法.

        基于此,本文提出了一種準(zhǔn)確快速的人臉識別方法——基于SURF局部特征和BOW算法的人臉自動化識別研究.在對人臉圖像預(yù)處理后,將人臉圖像統(tǒng)一尺寸,用SURF提取局部特征.然后,將SURF算法提取的關(guān)鍵點(diǎn)和描述符用BOW重新編碼作為局部特征.最后,在識別人臉類別時,將SURF和BOW提取的局部特征放入K-NN算法中,將K個最近鄰構(gòu)建新的判決空間,識別人臉的類別.在CMU PIE(卡內(nèi)基梅隆大學(xué))標(biāo)準(zhǔn)人臉數(shù)據(jù)庫及在實(shí)驗(yàn)室采集的真實(shí)身份人臉庫上分別進(jìn)行了實(shí)驗(yàn).結(jié)果表明,本文采用的SURF和BOW結(jié)合的方法不僅在特征提取時速度快,而且在匹配識別時也很迅速.在CMU PIE標(biāo)準(zhǔn)人臉庫和采集的人臉庫上分別達(dá)到了97.5%和99.3%的準(zhǔn)確率,特征提取的平均時間為0.108 s,識別的平均時間為0.017 s,識別一幅圖片的平均時間僅為15 ms, 滿足實(shí)時系統(tǒng)的快速準(zhǔn)確的要求.

        1 基于SURF的人臉特征提取算法

        1.1 SURF特征點(diǎn)檢測

        SURF是一種旋轉(zhuǎn)和尺度都不變的局部特征檢測子,由于引入了積分圖像,大大提高了圖像的特征提取速度.對于一幅二維圖像,通過高斯核卷積來構(gòu)造不同的尺度空間:

        (1)

        SURF特征點(diǎn)的提取使用的是精確高的Fast-Hessian檢測子,在確定特征點(diǎn)的位置和選擇尺度時,本文選擇了相同的尺度.在圖像中的點(diǎn)X處,尺度為σ的Hessian矩陣為

        (2)

        但SURF在計算H矩陣時,用箱式濾波器代替了高斯二階導(dǎo)數(shù),這樣SURF算法在計算卷積時就可以使用積分圖像,加快了計算速度.

        對于積分圖像中某點(diǎn)X(x,y),可以用圖像中原點(diǎn)與點(diǎn)X形成的矩形區(qū)域內(nèi)所有像素值之和來表示積分面積I∑(X),如式(3)所示.

        (3)

        在如圖1所示的積分圖像中,用3個加減運(yùn)算即可求得矩形區(qū)域G的灰度值之和,即G=D-B-C+A,與矩形G的面積無關(guān).

        為了更加準(zhǔn)確地逼近高斯核函數(shù),Bay等提出以盒子濾波來近似高斯的二階微分.9×9的箱式濾波器如圖2所示.

        圖1 積分圖像Fig.1 Integral image

        圖2 y方向的箱式濾波器(灰色部分等于0)Fig.2 y direction box-type filter(the pessimistic part is equal to 0)

        用它來代替σ=1.2的高斯二階導(dǎo)數(shù),這是SURF的最小尺度和最高的空間分辨率.用Dxx,Dyy,Dxy近似表示圖像和高斯二階導(dǎo)數(shù)的卷積Lxx,Lyy,Lxy.在計算H矩陣的行列式值時,為了提高計算效率選擇了一個權(quán)值

        (4)

        |X|F表示F范數(shù).于是得到了H矩陣的行列式值的近似表達(dá)

        (5)

        為了確定圖像關(guān)鍵點(diǎn)的具體位置,在一個3×3×3大小的近鄰區(qū)域采取非最大值抑制的原則,選擇Hessian矩陣行列式的最大值所在的圖像和尺度空間的位置作為特征點(diǎn)的位置.在尋找特征點(diǎn)的位置時,為了增加關(guān)鍵點(diǎn)的抗噪聲能力,需要舍棄對比度較低的極值點(diǎn)或者邊緣不穩(wěn)定的相應(yīng)點(diǎn),然后就能得到相對穩(wěn)定的特征點(diǎn)位置.

        1.2 SURF特征點(diǎn)描述和計算

        SURF算法在提取了特征點(diǎn)后,結(jié)合特征點(diǎn)周圍的一個圓形區(qū)域內(nèi)的信息,給特征點(diǎn)添加一個方向,然后根據(jù)該方向創(chuàng)建一個方形區(qū)域,在該區(qū)域提取SURF描述符.

        為了保證SURF算法的旋轉(zhuǎn)不變性,首先以特征點(diǎn)為中心,在半徑為6s(s是特征點(diǎn)所在的尺度空間的尺度值)的圓形區(qū)域內(nèi)計算各點(diǎn)在x、y方向的Haar小波響應(yīng).在計算時,同樣使用積分圖像來加快計算的速度.小波變換計算出來后,用σ=2.5s的高斯函數(shù)進(jìn)行加權(quán),使得離特征點(diǎn)近的響應(yīng)貢獻(xiàn)大.最終小波響應(yīng)被表示成一個向量,該向量包括小波響應(yīng)的水平信息和垂直信息.主方向通過計算一個角度為π/3的滑動窗口內(nèi)的小波響應(yīng)的和得到.這時同樣需要分別計算水平和垂直方向的響應(yīng),這就產(chǎn)生一個新向量,最長向量的方向即為特征點(diǎn)的主方向.對每個特征點(diǎn)逐個進(jìn)行計算,就能得到所有特征點(diǎn)的主方向.

        為了得到SURF描述符,首先在提取的特征點(diǎn)附近建立一個20s的方形區(qū)域,將前一步計算的主方向作為其方向.建立的方形區(qū)域被劃分為4×4的子區(qū)域,對于每一個子區(qū)域,計算5t×5t(采樣步長取t)范圍內(nèi)的小波響應(yīng).為了簡化描述,將Harr在水平方向的響應(yīng)記為dx,在垂直方向的響應(yīng)稱為dy,這里“水平”、“垂直”都是相對于特征點(diǎn)的方向來說的.為了提高描述符對于幾何變換的魯棒性,首先賦予dx和dy以權(quán)值系數(shù),然后將每一個子區(qū)域內(nèi)的dx、dy相加,形成子區(qū)域特征向量的前2個組成部分.為了使特征描述符具有強(qiáng)度變化的極性信息,將dx和dy的絕對值也加入了特征描述符.因此,每一個子區(qū)域的底部,形成了一個四維分量的矢量v,v=(∑dx,∑dy,∑|dx|,∑|dy|).因此,所有的4×4個子區(qū)域的描述符,合起來形成4×(4×4)=64維的描述向量,因此,最終的SURF描述符是一個64維的向量.

        1.3 SURF提取的人臉特征描述符計算

        首先,將人臉圖像經(jīng)過歸一化處理后,將圖像變成同樣的尺寸.然后利用SURF算法提取人臉的關(guān)鍵特征點(diǎn),計算該點(diǎn)的64維特征描述符.

        圖3是一幅人臉圖像經(jīng)過預(yù)處理后得到的SURF局部特征描述符.

        圖3 人臉的局部特征描述符

        Fig.3 SURF partial characteristic description symbol

        2 Bag-of-word(BOW)算法的局部特征計算

        本文應(yīng)用經(jīng)典的Bag-of-word(BOW)算法[14]將SURF算法提取的關(guān)鍵點(diǎn)和描述符重新編碼作為局部特征.得到所有特征點(diǎn)的特征向量后,需要對特征點(diǎn)進(jìn)行分類.縱觀最佳的分類方法,K-means[15]算法在眾多研究領(lǐng)域得到廣泛應(yīng)用.該算法不僅擁有更好的分類效果,而且計算速度非???因此本文采用的分類方法是K-means聚類算法.K-means算法可以有效處理大型數(shù)據(jù)集,是硬聚類算法,終止于局部最優(yōu).K-means算法是一種基于點(diǎn)對稱的非數(shù)字距離測量方法,優(yōu)化目標(biāo)函數(shù)是數(shù)據(jù)點(diǎn)到原點(diǎn)的距離.它將觀察值劃分成K類,擁有相似特征的觀察值屬于同一類.在本文中,采用歐氏距離來表示相似度,也就是說,聚類準(zhǔn)則函數(shù)的表達(dá)采用誤差平方和.

        建立BOW模型主要分為2個步驟:第1步,將提取的所有訓(xùn)練圖片的SURF描述符和相應(yīng)的關(guān)鍵點(diǎn),利用K-means方法聚類.用漢明距離作為度量標(biāo)準(zhǔn)估計2個SURF描述符之間的距離.在K-means方法中,計算每一個聚類中心和描述符之間的距離.在BOW模型中,每一個聚類中心都代表一個bin,稱這些bin為視覺詞匯.因此,第1步的目的就是構(gòu)建視覺詞匯.得到的一系列視覺詞匯,用W={w1,w2,w3…}作為目標(biāo)表示.BOW模型就由這些視覺詞匯構(gòu)建而成.

        由K-means聚類得到的這些視覺詞匯,在第2步中,輸入的SURF描述符可以由相應(yīng)的視覺詞匯描繪出來.在所有的視覺詞匯中有一個最小漢明距離,如式(6).

        (6)

        公式(6)中的t表示SURF算法提取到的特征,通過將所有計算得到的SURF描述符繪制成相應(yīng)的視覺詞匯,最終可以得到不同的視覺詞匯直方圖.

        (7)

        其中,Di是視覺詞匯的頻率.由于圖像之間提取的SURF特征點(diǎn)的數(shù)量不同,所以由公式(7)得到的視覺詞匯直方圖標(biāo)準(zhǔn)化為

        (8)

        BOW詞典構(gòu)建的M個視覺詞匯用L=[b1b2…bM]來表示.因?yàn)锽OW模型基于提取的SURF局部特征,所以在本文中被稱為人臉局部特征.在K-means算法中,質(zhì)心初始值的選取十分關(guān)鍵.質(zhì)心初始值如果改變,聚類準(zhǔn)確率也會隨之改變.在本次研究中,初始值的位置通過多次實(shí)驗(yàn)來獲得.如果在實(shí)驗(yàn)中能得到很好的聚類效果,就記錄下這個初始值的位置.那么在下次實(shí)驗(yàn)時,就可以直接使用這個初始值.利用K-means算法分類所有的特征點(diǎn),然后用直方圖來表示圖像的詞包模型.每一類都會存在質(zhì)心,則詞包模型每一類的特征就用這個質(zhì)心的特征向量來表示,那么這些特征向量就構(gòu)成了需要的詞包模型的字典.結(jié)果,一個單位直方圖代表一幅人臉圖像,

        如圖4所示,即為得到的2組不同類型的測試人臉的BOW表示.

        圖4 2組不同類型的測試人臉的BOW表示Fig.4 Two different person face type of BOW indicated

        3 人臉分類識別算法K-NN

        在識別人臉時,使用K-NN算法.K-NN如圖5所示.圖5描述了在SURF局部空間使用K-NN判斷一幅圖片(圓形)為正方形或者三角形的過程:1)圓形在SURF局部空間采用K-NN計算K(K=2,2個三角形)個最近鄰;2)這K個最近鄰形成的判決空間中,全部為三角形,因此判定圓形所屬類型為三角形.在選擇K的具體值時,需要反復(fù)測試選擇出最佳值,使得最終判決的準(zhǔn)確率最高.

        在人臉識別時,提取輸入人臉圖像的SURF局部特征,使用K-NN從SURF局部空間計算K個最近鄰,在形成的判決空間中,使用K-NN根據(jù)距離的遠(yuǎn)近判斷輸入人臉圖像的類別.

        本文算法的整體流程圖如圖6所示.

        圖5 K-NN識別Fig.5 K-NN recognition

        圖6 人臉識別流程Fig.6 Face recognition flowchart

        4 實(shí)驗(yàn)結(jié)果及分析

        在CMU PIE標(biāo)準(zhǔn)人臉數(shù)據(jù)庫及本研究室的真實(shí)身份證人臉圖像上進(jìn)行實(shí)驗(yàn),并與經(jīng)典的SIFT、傳統(tǒng)的SURF進(jìn)行比較.實(shí)驗(yàn)首先對輸入的每一幅人臉圖像,用SURF和BOW算法提取局部特征,并用K-NN算法進(jìn)行識別.

        4.1 人臉圖像庫描述

        CMU PIE庫:該人臉庫內(nèi)含68位志愿者的人臉圖像,總共41 368張,來自不同姿態(tài)、光照和表情.所有人臉圖像的面部關(guān)鍵特征都比較規(guī)范,為標(biāo)準(zhǔn)的人臉庫.從CMU-PIE人臉數(shù)據(jù)庫中選擇了50個人(共1 500幅圖像),這些人臉圖像的光照、姿態(tài)、表情各不相同.在選擇的1 500幅圖像中1 000幅用于訓(xùn)練,500幅用于測試.圖7為CMU PIE人臉圖像庫部分樣本.

        真實(shí)身份證人臉庫:訓(xùn)練集為本實(shí)驗(yàn)室成員的真實(shí)身份證人臉圖像,共15人,圖像大小為150×200;測試集為無約束環(huán)境條件下采集的每人10幅相應(yīng)的人臉圖像.圖8為真實(shí)身份證人臉庫部分樣本.

        圖7 CMU PIE人臉圖像庫部分樣本Fig.7 Partial samples of CMU PIE human face image storehouse

        圖8 真實(shí)身份證人臉庫部分樣本Fig.8 Partial samples of real status witness face storehouse

        4.2 實(shí)驗(yàn)及參數(shù)設(shè)置

        在K-NN分類時,K值的大小需要仔細(xì)選擇,由于沒有嚴(yán)格的理論依據(jù),通過重復(fù)實(shí)驗(yàn)的方式進(jìn)行參數(shù)設(shè)置,見表1.

        表1 標(biāo)準(zhǔn)測試集不同K值的識別結(jié)果

        經(jīng)不斷實(shí)驗(yàn),選定K=2,此時使用K-NN的準(zhǔn)確率最高.最后共K=2個最近鄰放入K-NN進(jìn)行最后的分類,確定人臉的類型.由實(shí)驗(yàn)的結(jié)果判斷,提出的方法每幅圖片提取特征的平均時間為108 ms,識別的平均時間為17 ms,特征提取時間和分類所需的全部時間少于130 ms,實(shí)驗(yàn)結(jié)果表明本文提出的方法可以用于實(shí)時人臉的識別.

        4.3 實(shí)驗(yàn)結(jié)果及分析

        實(shí)驗(yàn)1: 在CMU PIE標(biāo)準(zhǔn)人臉庫下的實(shí)驗(yàn).

        對SIFT、ORB、傳統(tǒng)的SURF和本文算法分別進(jìn)行測試,實(shí)驗(yàn)結(jié)果見表2所示.通過比較時間和識別率可知,本文算法明顯由于其他算法.

        表2 在標(biāo)準(zhǔn)人臉庫上的性能

        實(shí)驗(yàn)2:真實(shí)身份證人臉庫下的實(shí)驗(yàn).

        選擇身份證人臉圖像作為訓(xùn)練樣本,實(shí)際采集的人臉圖像作為測試樣本.將采集的人臉圖像在經(jīng)灰度化處理后,轉(zhuǎn)化為200×150的圖像,然后用SURF和BOW算法提取局部特征,并用K-NN算法進(jìn)行識別.同樣,經(jīng)過測試,選定在SURF局部空間計算K=2個最近鄰,最終這2個最近鄰由K-NN做最后的判斷,判斷輸入人臉屬于哪一類.

        實(shí)驗(yàn)結(jié)果見表3.

        表3 真實(shí)人臉身份證庫下的識別結(jié)果對比

        從表3可以看出,本文算法相比其他算法,優(yōu)勢明顯,識別率最高.

        實(shí)驗(yàn)3:為了更好地判斷算法的性能,在MATLAB上進(jìn)行了仿真實(shí)驗(yàn),分別對SIFT、ORB、傳統(tǒng)的SURF與本文算法進(jìn)行了性能測試,進(jìn)一步驗(yàn)證了本文算法的優(yōu)越性.仿真結(jié)果如圖9-11所示.

        圖9 高斯模糊性能比較Fig.9 Comparison of gauss fuzzy performance

        圖10 壓縮性能比較Fig.10 Comparison of compression performance

        圖11 抗噪性能比較Fig.11 Comparison of anti-chirp performance

        該仿真實(shí)驗(yàn)是將6幅圖片進(jìn)行模糊處理、壓縮處理、噪聲處理后,再利用這4種算法分別進(jìn)行分類識別,得到相應(yīng)的識別率.由MATLAB仿真結(jié)果可知,本文算法在對圖像的模糊性、壓縮性和抗噪性能上,都具有很好的優(yōu)越性.

        5 結(jié)束語

        本文提出了一種SURF算法和詞包模型相結(jié)合的人臉識別方法.首先提取人臉的SURF和BOW局部特征,然后運(yùn)用K-NN算法識別人臉類別.從實(shí)驗(yàn)結(jié)果可以看出,無論對于標(biāo)準(zhǔn)的人臉數(shù)據(jù)庫還是自己采集的真實(shí)身份證人臉數(shù)據(jù)庫,均能取得較好的測試效果.通過實(shí)驗(yàn)可以證明新的詞包模型有較好的性能,圖像分類準(zhǔn)確率比原有模型要好.該方法不僅繼承了SURF 算法的實(shí)時性和魯棒性,而且還提高了SURF的效率,為今后在其他更加復(fù)雜的場景中利用BOW算法進(jìn)行特定的人臉識別奠定了基礎(chǔ).

        [1] SOLDERA J, CARLOS A R B, SCHARCANSKI J.Customized orthogonal locality preserving projections with soft Margin maximization for face recognition[J].IEEE Transactions on Instrumentation & Measurement, 2015, 64(9):2417-2426.DOI:10.1109/TIM.2015.2415012.

        [2] ZHANG W Y, HUA L L, DU H R, et al. SIFT: predicting amino acid changes that affect protein function[Z]. International Symposium on Computer Network and Multimedia Technology, Wuhan, 2009.

        [3] LOWE D G.Object recognition from local scale-invariant features [J].Computer Vision, 1999, 2(9):1150-1157.DOI:10.1109/ICCV.1999.790410.

        [4] LIU C, YUEN J, TORRALBA A.SIFT flow: Dense correspondence across scenes and its applications[J].IEEE Transactions on Pattern Analysis and Machine Intelligence, 2011, 33(5):978-994.DOI:10.1109/TPAMI.2010.147.

        [5] GENG C, JIANG X D.Face recognition based on the multi-scale local image structures[J].Pattern Recognition, 2011, 44(10):2565-2575.DOI:10.1016/j.patcog.2011.03.011.

        [6] 李偉紅, 陳龍, 龔衛(wèi)國.單樣本快速人臉不變特征提取方法[J].光電子·激光, 2014(3):558-564. LI W H, CHEN L, GONG W G.Fast facial descriptor extraction for single image based face recognition[J].Journal of Optoelectronics·Laser,2014(3):558-564.

        [7] DU G, SU F, CAI A.Face recognition using SURF features[J].Pattern Recognition,2009,7496(28):131-137.DOI:10.1117/12.832636.

        [8] BAY H, ESS A, TUYTELAARS T, et al.Speeded-up robust features (SURF)[J].Computer Vision and Image Understanding, 2008, 110(3):346-359.DOI:10.1016/j.cviu.2007.09.014.

        [9] DING N N, LIU Y Y, ZHANG Y, et al.Fast image registration based on SURF-DAISY algorithm and randomized kd trees[J].Journal of Optoelectronics Laser, 2012, 23(7):1395-1402.

        [10] KANG M, CHOO W, MOON S. Improved face recognition algorithm employing SURF descrpitors[Z]. Society of Instrument and Control Engineers Annual Conference, Japan,2010.

        [11] LEWIS D D.Naive (Bayes) at forty: The independence assumption in information retrieval[J].European Heart Journal, 1998, 21(15):1204-6.

        [12] LI F F, PERONA P. A Bayesian hierarchical model for learning natural scene categories[Z]. Computer Society Conference on Computer Vision & Pattern Recognition, America, 2005.

        [13] YANG J, JIANG Y G, HAUPTMANN A G, et al. Evaluating bag-of-isua-words representations in scene classification[Z].International Workshop on Workshop on Multimedia Information Retrieval, ACM, 2007. DOI:10.1145/1290082.1290111

        [14] CHU W T, HUANG C C, CHENG W F. News story clustering from both what and how aspects: using bag of word model and affinity propagation[Z]. The 2011 ACM International Workshop on Automated Media Analysis and Production for Novel TV Services, ACM, 2011.

        [15] FENG J, JIAO L C, ZHANG X, et al.Bag-of-Visual-Words based on clonal selection algorithm for SAR image cassification[J].Geoscience & Remote Sensing Letters IEEE, 2011, 8(4):691-695.DOI:10.1109/LGRS.2010.2100363.

        (責(zé)任編輯:孟素蘭)

        Face recognition based on BOW and SURF local features

        LIU Cuixiang, LI Min, ZHANG Fenglin

        (School of Electronics Information Engineering,Hebei University of Technology,Tianjin 300401,China)

        To overcome the limitations of traditional face recognition methods for real-time, a face recognition method which based on speed up robust features and bag-of-word model was proposed.Image after preprocessing, we used SURF to extract key points of images and corresponding feature descriptors automatically.Further, bag-of word model was used to code the descriptors into visual words as local features of the face.Finally,K-Nearest Neighbor algorithm was adopted to recognize the human faces.The proposed method is validated with both CMU-PIE dataset and dataset collected in the laboratory.It can achieve 97.5% and 99.3% recognition rates on these two datasets, respectively.In average, it took less than 0.108 s for feature extraction and less than 0.017 s for matching.The results indicate that the proposed method not only precise moreover fast, and had better stability and effectiveness.

        face recognition; bag-of-word model; SURF; local features;K-NN

        10.3969/j.issn.1000-1565.2017.04.013

        2016-09-29

        國家自然科學(xué)基金資助項(xiàng)目(61203245)

        劉翠響(1973—),女,河北辛集人,河北工業(yè)大學(xué)副教授,博士,主要從事信號處理與模式識別研究. E-mail:liucuix@126.com

        李敏(1990—),女,山東德州人,河北工業(yè)大學(xué)碩士研究生.主要從事圖像處理與模式識別研究. E-mail:1607708753@qq.com

        TP391

        A

        1000-1565(2017)04-0411-08

        猜你喜歡
        描述符人臉識別人臉
        人臉識別 等
        基于結(jié)構(gòu)信息的異源遙感圖像局部特征描述符研究
        有特點(diǎn)的人臉
        揭開人臉識別的神秘面紗
        三國漫——人臉解鎖
        動漫星空(2018年9期)2018-10-26 01:17:14
        Linux單線程并發(fā)服務(wù)器探索
        利用CNN的無人機(jī)遙感影像特征描述符學(xué)習(xí)
        基于類獨(dú)立核稀疏表示的魯棒人臉識別
        馬面部與人臉相似度驚人
        長得象人臉的十種動物
        奇聞怪事(2014年5期)2014-05-13 21:43:01
        亚洲人成亚洲人成在线观看| 性色视频加勒比在线观看| 精品无码国产自产在线观看水浒传 | 国产剧情av麻豆香蕉精品| 亚洲午夜久久久久中文字幕久| 国产精品国产三级国a| 国产18禁黄网站免费观看| 毛多水多www偷窥小便| 国产又黄又爽视频| 在线视频日韩精品三区| 一本大道道久久综合av| 爽爽精品dvd蜜桃成熟时电影院 | 天堂国精产品2023年| 日本污视频| 一区二区三区精品婷婷| 天堂网站一区二区三区| 无码中文字幕日韩专区视频| 久久精品免视看国产明星 | 蜜桃臀av一区二区三区| 天天躁日日躁狠狠躁| 三上悠亚免费一区二区在线| 日韩精品极品免费观看| 亚洲综合第一页中文字幕| 国产网红主播无码精品| 精品视频入口| 97久久国产精品成人观看| 四虎成人精品在永久免费| 成熟人妻av无码专区| 国产精品久久这里只有精品| 亚洲女同系列在线观看| 天天碰免费上传视频| 亚洲第一网站免费视频| 99精品又硬又爽又粗少妇毛片 | 精品无码无人网站免费视频 | 日本高清一区在线你懂得| 人妻av中文字幕久久| 亚洲成a人片在线观看天堂无码| 久草视频在线这里只有精品| 91久久综合精品久久久综合 | 99久久亚洲精品无码毛片 | 亚洲一区二区三区av天堂|