亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        詞匯樹(shù)融合SIFT的熱成像和視覺(jué)圖像人臉識(shí)別

        2014-07-02 00:30:11張國(guó)平周改云
        電視技術(shù) 2014年23期
        關(guān)鍵詞:描述符臉部人臉識(shí)別

        張國(guó)平,周改云,馬 麗

        (平頂山學(xué)院軟件學(xué)院,河南平頂山467000)

        詞匯樹(shù)融合SIFT的熱成像和視覺(jué)圖像人臉識(shí)別

        張國(guó)平,周改云,馬 麗

        (平頂山學(xué)院軟件學(xué)院,河南平頂山467000)

        針對(duì)熱成像和視覺(jué)圖像人臉識(shí)別問(wèn)題,提出了一種基于詞匯樹(shù)融合尺度不變特征變換方法。首先,對(duì)視覺(jué)和熱成像圖像分別單獨(dú)進(jìn)行提取,利用Viola-Jones層疊檢測(cè)器從自然圖像中檢測(cè)出人臉;然后,利用SIFT描述符從尺度空間提取穩(wěn)定特征;最后,使用詞匯樹(shù)進(jìn)行分類,利用評(píng)分融合和決策融合算法提高系統(tǒng)的精確性和安全性。在拍攝的41個(gè)人的臉部圖像上的實(shí)驗(yàn)表明了該方法的有效性,識(shí)別率可接近100%,相比其他幾種較為新穎的人臉識(shí)別方法,該方法取得了更高的識(shí)別精度,并且在一定程度上降低了計(jì)算耗時(shí)。

        詞匯樹(shù);尺度不變特征變換;熱成像;視覺(jué)圖像;人臉識(shí)別

        人臉識(shí)別系統(tǒng)已在軍事、政治、醫(yī)療等安全領(lǐng)域得到了越來(lái)越廣泛的應(yīng)用[1],人臉識(shí)別需要取得測(cè)試人臉與存儲(chǔ)在數(shù)據(jù)庫(kù)內(nèi)的圖像匹配的結(jié)果,即使在不考慮光照變化或外界干擾等自然變化因素的條件下,該任務(wù)完成起來(lái)也較為困難[2]。

        針對(duì)視覺(jué)和熱成像圖像,本文提出了一種雙模式人臉識(shí)別技術(shù),在實(shí)際應(yīng)用中可以方便地使用一種特定的有快速跟蹤功能的設(shè)備,且可以做到兩種模式信息的融合。此外,對(duì)信息的主要來(lái)源也進(jìn)行了研究,特別是基于文獻(xiàn)[3]運(yùn)用SIFT算法并從每張圖像中得到局部特殊描述符的方法。語(yǔ)匯樹(shù)的構(gòu)成使得這些描述符可以按層次結(jié)構(gòu)組織并可以方便地進(jìn)行對(duì)象查找。

        對(duì)于每一個(gè)測(cè)試圖像,只對(duì)新的描述符進(jìn)行計(jì)算并在整個(gè)層次結(jié)構(gòu)樹(shù)中進(jìn)行查找,從而得到一個(gè)投票矩陣,使得數(shù)據(jù)庫(kù)中最接近的圖像可以很容易地被識(shí)別出來(lái)。該方法混合了SIFT描述符的奇異值來(lái)匹配視覺(jué)與熱成像的不同人臉圖像,詞匯樹(shù)的引入提高了算法的效率。

        本文的主要?jiǎng)?chuàng)新點(diǎn)在于:1)將詞匯樹(shù)與SIFT融合解決了人臉識(shí)別問(wèn)題,并利用兩個(gè)傳感器分別給出視覺(jué)和熱成像的圖像;2)運(yùn)用SIFT描述符作為提取方法,使用k-mean的方程[4]構(gòu)成的語(yǔ)匯樹(shù)作為分類系統(tǒng)構(gòu)成識(shí)別方法,局部可識(shí)別的信息可在融合范圍與重要區(qū)域之間進(jìn)行查找。

        1 相關(guān)研究

        針對(duì)人臉識(shí)別問(wèn)題,學(xué)者們提出了許多方法,例如,文獻(xiàn)[5]提出了一種人臉識(shí)別系統(tǒng),運(yùn)用非線性映射來(lái)推斷關(guān)聯(lián)特征在識(shí)別低分辨率圖像時(shí)提高了最近鄰(NN)分級(jí)器的精度。文獻(xiàn)[6]提出利用基于二維離散小波變換(2D-DWT)的多精度特征提取算法進(jìn)行人臉識(shí)別,有效地處理了人臉圖像的局部空間變化,取得了很好的識(shí)別結(jié)果。人臉圖像的拍攝通常會(huì)有不同的姿勢(shì)和模式,比如熱成像圖像,這使得對(duì)于它們的識(shí)別呈現(xiàn)不同的難度。文獻(xiàn)[7]得到了在現(xiàn)實(shí)環(huán)境中的基于熱紅外成像和視覺(jué)成像的人臉識(shí)別結(jié)果,結(jié)果表明,基于熱成像的人臉識(shí)別效果對(duì)于室外不同環(huán)境下的情況是穩(wěn)定的,且不同模式的融合提升了系統(tǒng)的識(shí)別效果。

        文獻(xiàn)[8]提出了一種自動(dòng)熱成像系統(tǒng),可以在圖像中僅有一個(gè)人且沒(méi)有其他熱源的條件下區(qū)分正面和側(cè)面的頭像,該方法中距離圖像中心點(diǎn)的距離(DFC)表示對(duì)較低人臉輪廓對(duì)稱度的適應(yīng)性。

        文獻(xiàn)[9]使用相關(guān)性過(guò)濾器并通過(guò)熱紅外(IR)人臉圖像完成人臉識(shí)別,因?yàn)檫@種圖像對(duì)于可見(jiàn)光的變化是魯棒的。最小平均相關(guān)性能量(MACE)和最優(yōu)權(quán)衡合成判別式函數(shù)(OTSDF)方法在低分辨率(像素20× 20)圖像中的應(yīng)用證明了其對(duì)于有一定距離的人臉識(shí)別問(wèn)題的有效性[10]。

        文獻(xiàn)[11]利用SIFT提高了帶有不同姿勢(shì)的人臉表情識(shí)別率,并且通過(guò)運(yùn)用2張人臉的仿射變換不變性舍去SIFT不匹配的識(shí)別結(jié)果。

        性別識(shí)別是另一種利用SIFT方法的研究熱點(diǎn),文獻(xiàn)[12]通過(guò)密集尺度不變特征轉(zhuǎn)換(d-SIFT)和形狀表示人臉,除了對(duì)關(guān)鍵點(diǎn)附近的描述符進(jìn)行收集外,對(duì)一般圖像網(wǎng)格點(diǎn)的局部描述符也進(jìn)行收集,從而達(dá)到密集描述人臉圖像的目的。

        但是,SIFT通常會(huì)從一張圖像上采集很多特征,使得特征匹配時(shí)的計(jì)算量很大,從而限制了該方法在人臉識(shí)別上的應(yīng)用。為了解決該問(wèn)題,文獻(xiàn)[13]提出使用差異化方法,通過(guò)檢查不相關(guān)特征,平均而言計(jì)算復(fù)雜度降低了80%,且識(shí)別準(zhǔn)確率提高了1%,然而在處理熱成像和視覺(jué)圖像識(shí)別問(wèn)題時(shí),識(shí)別率仍需進(jìn)一步提高。

        2 方法提出

        2.1 系統(tǒng)框圖

        該方法由5個(gè)部分組成:預(yù)處理模塊、SIFT描述符解析器、語(yǔ)匯樹(shù)構(gòu)成、匹配模塊和融合模塊,系統(tǒng)框圖如圖1所示。

        圖1 本文方法的系統(tǒng)框圖

        人臉的區(qū)域劃分是手工操作的,匹配模塊在語(yǔ)匯樹(shù)中查找測(cè)試描述符與數(shù)據(jù)庫(kù)中描述符最匹配的結(jié)果。因此,接下來(lái)的介紹將首先集中在SIFT參數(shù)和樹(shù)分類上,再對(duì)匹配模塊做簡(jiǎn)要介紹。

        2.2 預(yù)處理

        自然(視覺(jué)范圍)和熱成像的圖像分別單獨(dú)提取,系統(tǒng)利用Viola-Jones層疊檢測(cè)器[14]從自然圖像中檢測(cè)出人臉,因?yàn)樗?jiǎn)單、快速、有效。

        2.3 特征提取

        本文方法對(duì)SIFT描述符的幾個(gè)關(guān)鍵參數(shù)進(jìn)行修改,利用一個(gè)層疊過(guò)濾器來(lái)探測(cè)關(guān)鍵點(diǎn),在所有可能的尺度空間內(nèi)搜索穩(wěn)定的特征。圖像的尺度空間L(x,y,σ)由可變化尺度的高斯式子G(x,y,σ)和輸入圖像I(x,y)的卷積構(gòu)成

        式中:*是對(duì)x和y的卷積符號(hào)。

        接著,高斯微分方程(DoG)的比例空間與圖像做卷積,D(x,y,σ)的計(jì)算由2個(gè)帶系數(shù)k的附近標(biāo)量微分得到得到經(jīng)尺度歸一化后高斯方程拉普拉斯算子(LGN)的最大值和最小值,可產(chǎn)生穩(wěn)定的圖像特征。D和σ2?2G的關(guān)系是

        在精確布置關(guān)鍵點(diǎn)并去除DoG方程的強(qiáng)邊界響應(yīng)后,要設(shè)置方向。描述符的復(fù)雜性主要受兩個(gè)參數(shù)影響:方向數(shù)和方向直方圖的向量數(shù)。本文方法使用有8個(gè)方向的4×4向量直方圖,從而產(chǎn)生128個(gè)特征向量。文獻(xiàn)[11]的結(jié)論也支持在對(duì)象識(shí)別中使用這些參數(shù),因?yàn)楦蟮拿枋龇麜?huì)對(duì)圖像扭曲敏感。

        2.4 語(yǔ)匯樹(shù)分類

        本文方法首先從圖像數(shù)據(jù)庫(kù)取出SIFT描述符,然后通過(guò)一個(gè)語(yǔ)匯樹(shù)[15]來(lái)組織它們。層次化的驗(yàn)證方案使得可以對(duì)語(yǔ)匯樹(shù)上的特定的一點(diǎn)進(jìn)行選擇性的查找,從而降低搜索時(shí)間和計(jì)算負(fù)荷。

        k-mean算法[16]用于在初始描述符點(diǎn)云中通過(guò)最小距離估計(jì)找到圖像中心,從而使用該圖心表示一簇點(diǎn)云。k-mean算法需要迭代使用,因?yàn)閳D心會(huì)因相關(guān)點(diǎn)的位置而變化。如果計(jì)算出的圖心位置不再變化,算法則收斂,語(yǔ)匯樹(shù)的每一層表示最近的更高層級(jí)節(jié)點(diǎn)的分支。

        根據(jù)大量實(shí)驗(yàn),將初始點(diǎn)集定義為10個(gè),共分為5個(gè)樹(shù)的層次,這些參數(shù)的設(shè)定在該系統(tǒng)結(jié)合實(shí)際的數(shù)據(jù)庫(kù)運(yùn)用時(shí)取得了很好的效果。

        有2層和3層的初始點(diǎn)云的語(yǔ)匯樹(shù)模型如圖2所示。

        圖2 分叉系數(shù)為3的2層語(yǔ)匯樹(shù)

        2.5 融合

        該模塊使用不同方法之間的相關(guān)誤差(頭和臉、視覺(jué)與熱成像)提供總體的識(shí)別準(zhǔn)確率。系統(tǒng)使用基于評(píng)分和決策的2種融合策略,評(píng)分融合在本文中指的是將視覺(jué)和熱成像均一化處理后的評(píng)分做加或乘的處理,得到的結(jié)果與最終的決策結(jié)果對(duì)應(yīng)。如果采用加權(quán)算法,評(píng)判的準(zhǔn)則就要基于預(yù)知的信息,本文通過(guò)運(yùn)用這些融合算法提高了系統(tǒng)的精確性和安全性。

        3 實(shí)驗(yàn)

        所有實(shí)驗(yàn)均是在一臺(tái)2.66 GHz CPU、2 Gbyte內(nèi)存的PC上實(shí)現(xiàn),編程工具為MATLAB 7.0。

        3.1 數(shù)據(jù)庫(kù)

        為了評(píng)估本文方法,筆者建立了一個(gè)數(shù)據(jù)庫(kù),該數(shù)據(jù)庫(kù)包含738張704×756像素、每像素24 bit的圖像,圖像由 SAT-S280 SATIR相機(jī)拍攝,包括2個(gè)傳感器——熱傳感器和視覺(jué)相機(jī),圖3為圖像示例。

        圖3 視覺(jué)和熱成像圖像實(shí)例

        該數(shù)據(jù)庫(kù)包含41個(gè)對(duì)象,每個(gè)對(duì)象有18張圖像,圖像在6個(gè)月內(nèi)的3個(gè)不同時(shí)間拍攝。拍攝的圖像分為2個(gè)部分:視覺(jué)圖像和熱成像圖像。這樣,最終數(shù)據(jù)庫(kù)總共包含1 476張圖像,視覺(jué)圖像和熱成像圖像分別有738張。根據(jù)每個(gè)人的特征,傳感器賦予了假熱色。所有圖像都存為PNG格式,對(duì)它們進(jìn)行進(jìn)一步的分塊處理,以選擇關(guān)鍵區(qū)域,特別是對(duì)臉和頭需要進(jìn)行分塊編組。

        總的來(lái)說(shuō),圖像根據(jù)它們提供的信息類型分為不同類別,共有2 952張圖像,包括:

        1)頭:對(duì)象整個(gè)頭的熱圖像(738張)。

        2)頭:對(duì)象整個(gè)頭的視覺(jué)圖像(738張)。

        3)臉:臉部細(xì)節(jié)的熱圖像(738張)。

        4)臉:臉部細(xì)節(jié)的視覺(jué)圖像(738張)。

        如圖4、圖5所示為頭和臉的PNG格式的熱成像和視覺(jué)圖像示例。

        圖4 數(shù)據(jù)庫(kù)中的熱成像和視覺(jué)頭部圖像示例

        圖5 某人的熱成像和視覺(jué)臉部圖像示例

        圖像都是在室內(nèi)拍攝得到的,分別帶有開(kāi)心、悲傷或生氣等不同表情、不同臉部朝向、不同發(fā)型等。頭部圖像用于識(shí)別的關(guān)鍵細(xì)節(jié)是耳朵形狀、發(fā)型和下巴,而臉部圖像給出的最基本的信息有鼻子、嘴巴和眼部區(qū)域。

        3.2 實(shí)驗(yàn)過(guò)程

        實(shí)驗(yàn)?zāi)康氖橇私庠跓岢上窈鸵曈X(jué)范圍內(nèi)人頭部形狀而不是臉部信息在人臉識(shí)別方面的作用,以及融合方法對(duì)識(shí)別的作用。本文的方法在視覺(jué)和熱成像范圍內(nèi)對(duì)頭部圖像和臉部圖像的識(shí)別結(jié)果進(jìn)行了比較。

        因此,共做了4組實(shí)驗(yàn),包括視覺(jué)和熱成像的、頭部和臉部的變化。還做了8個(gè)使用不同融合方法的實(shí)驗(yàn)(評(píng)分融合的加算法、評(píng)分融合的乘算法、決策融合或算法以及決策融合加權(quán)算法)。

        為了保證結(jié)果的獨(dú)立性,2組圖像都平均分為2個(gè)子類——測(cè)試類和訓(xùn)練類,并基于50%淘汰率的交叉實(shí)驗(yàn)方法,對(duì)于每種模式,共有369張訓(xùn)練圖像和369張測(cè)試圖像用于實(shí)驗(yàn)。

        對(duì)于每個(gè)對(duì)象,也做了一個(gè)隨機(jī)的圖像數(shù)據(jù)庫(kù)的分類,使得每個(gè)對(duì)象有9張圖像用于測(cè)試,另外9張用于訓(xùn)練(采用50%淘汰率的識(shí)別方法)。如上所述,每種模式下隨意選出369張訓(xùn)練圖像和369張測(cè)試圖像用于實(shí)驗(yàn),這樣的分組按對(duì)象進(jìn)行41次迭代。

        對(duì)人臉/頭的對(duì)象識(shí)別過(guò)程如下:首先,進(jìn)行前文所述的數(shù)據(jù)庫(kù)分組。其次,每9個(gè)測(cè)試對(duì)象的圖像將與369張訓(xùn)練圖像作比較,得到相應(yīng)的結(jié)果。這9張圖像處理后,數(shù)據(jù)庫(kù)組合起來(lái)再次進(jìn)行下一個(gè)對(duì)象的處理,指導(dǎo)所有數(shù)據(jù)庫(kù)中41個(gè)對(duì)象處理完畢。

        實(shí)驗(yàn)中涉及的實(shí)驗(yàn)參數(shù)是在生物識(shí)別中常用的錯(cuò)誤拒絕率(FRR)、錯(cuò)誤接受率(FAR)和等錯(cuò)誤率(EER)。同時(shí)也記錄了平均梳理時(shí)間,這些參數(shù)使用依賴于該變量的向量存儲(chǔ),即直方圖閾值。

        識(shí)別處理完成后,由數(shù)據(jù)庫(kù)中每一張圖像貢獻(xiàn)組成的直方圖就得到了,與測(cè)試圖像匹配度最高的圖像在柱狀圖上的值最大。下一步,直方圖中的數(shù)據(jù)根據(jù)最大值做歸一化處理,值的范圍為-1~1。然后,再設(shè)定一個(gè)閾值,使得只有大于該閾值的圖像才會(huì)進(jìn)入決策,其他圖像則不再處理,直方圖的閾值從-1到1變化,使得每次都能對(duì)不同的圖像進(jìn)行判斷。

        3.3 實(shí)驗(yàn)結(jié)果

        根據(jù)前文所述的實(shí)驗(yàn)方案,共做了12組實(shí)驗(yàn),表1所示為識(shí)別方法中hold-out方法計(jì)算的精確度。

        表1 熱成像、視覺(jué)及融合范圍的實(shí)驗(yàn)結(jié)果精度 %

        表2所示為熱成像和視覺(jué)范圍對(duì)頭部和臉部的圖像識(shí)別的平均計(jì)算時(shí)間。

        表2 熱成像和視覺(jué)范圍對(duì)頭部和臉部的圖像識(shí)別的平均計(jì)算時(shí)間 s

        從表2可以看出,頭部圖像的更新時(shí)間(模型建立時(shí)間)明顯大于臉部圖像的時(shí)間,因?yàn)樗鼈兿鄬?duì)而言包含了更多的信息,從而帶來(lái)更多的計(jì)算負(fù)荷。

        圖6所示為FRR和FAR在直方圖閾值上的關(guān)系,橫軸表示閾值的變化范圍,縱軸表示FRR和FAR的最優(yōu)值,且分別給出了視覺(jué)頭部圖像的基于評(píng)分和決策融合的ROC曲線。

        從圖6可以看出,F(xiàn)RR在-1~0范圍內(nèi)的響應(yīng)曲線變化較為明顯,而FAR的響應(yīng)曲線是平的,因?yàn)樗枰浅8叩闹挡拍苓_(dá)到典型的形狀,當(dāng)然,這種情況有利于找到一個(gè)更好的EER點(diǎn)。實(shí)際上,閾值下降意味著系統(tǒng)的要求降低,將更多的圖像加入決策,增加了FRR和FAR,因?yàn)樾录尤氲膱D像樣本并不屬于測(cè)試對(duì)象。

        圖6 FRR和FAR的直方圖閾值

        對(duì)于單獨(dú)的模式,實(shí)驗(yàn)中最好的結(jié)果是熱成像頭部圖像識(shí)別率97.60%和熱成像臉部圖像識(shí)別率88.20%,視覺(jué)頭部圖像識(shí)別率99.05%和視覺(jué)臉部圖像識(shí)別率97.65%。因此,在兩種模式中,頭部圖像的識(shí)別準(zhǔn)確率都要高于臉部圖像。此外,視覺(jué)圖像提供的可識(shí)別信息多于熱成像圖像。

        在融合算法的實(shí)驗(yàn)中,頭部圖像的識(shí)別結(jié)果仍然好于臉部圖像。通過(guò)兩種融合方法,識(shí)別精度均有所提高,決策融合方法的識(shí)別精度可接近100%,評(píng)分融合通過(guò)乘法算法達(dá)到了99.45%。

        在單獨(dú)使用算法時(shí),EER的值大于融合方法,F(xiàn)RR融合后對(duì)于負(fù)的閾值是平坦的且EER相對(duì)較小,因此可以取得很高識(shí)別精度。

        3.4 比較及分析

        為了更好地評(píng)估本文方法,將其與其他幾種較新的人臉識(shí)別方法進(jìn)行比較,包括二維離散小波變換(2DDWT)[6]、基于相關(guān)性過(guò)濾器的熱紅外(CFIR)方法[9]、密集尺度不變特征變換(密集SIFT)[12]、差異化尺度不變特征變換(差異化SIFT)方法[13],分別對(duì)頭部、腦部的識(shí)別率和計(jì)算時(shí)間進(jìn)行比較,針對(duì)各個(gè)比較方法進(jìn)行了實(shí)驗(yàn),各方法的參數(shù)設(shè)置分別參照各自所在文獻(xiàn),本文方法選取決策融合加權(quán)算法,如表3所示為各方法的比較結(jié)果。

        從表3可以看出,相比其他幾種較為新穎的人臉識(shí)別方法,本文方法取得的識(shí)別率最高,與密集SIFT、差異化SIFT的比較表明,詞匯樹(shù)與SIFT的融合方法有助于提高識(shí)別準(zhǔn)確率,意味著信息的來(lái)源(頭部,臉部,圖像范圍)與誤差并沒(méi)有直接關(guān)系,且這些圖像識(shí)別誤差可以通過(guò)評(píng)分或決策的算法進(jìn)行糾正,而且,對(duì)于這些模式的參數(shù)化方法是一樣的,加強(qiáng)了信息理論的獨(dú)立性。

        表3 各方法的識(shí)別率和計(jì)算時(shí)間比較

        從計(jì)算時(shí)間方面可以看出,本文方法的模型建立耗時(shí)略高于2D-DWT,主要是由于本文方法融合階段耗時(shí)過(guò)多,然而,在大部分情況下少于其他幾種比較方法的耗時(shí),并且本文方法識(shí)別一個(gè)樣本所用時(shí)間最少,在保持與其他新穎方法相同或更少計(jì)算時(shí)間的情況下,能夠取得較高的識(shí)別率,表明了本文方法的優(yōu)越性。

        4 結(jié)束語(yǔ)

        本文利用一種特定的設(shè)備,提供了對(duì)于單一圖像的視覺(jué)和熱成像圖像的信息,對(duì)這兩種模式的應(yīng)用做了深入的研究,并且對(duì)頭部和臉部圖像進(jìn)行了識(shí)別,所有系統(tǒng)都使用SIFT描述符和詞匯樹(shù)結(jié)合。實(shí)驗(yàn)結(jié)果表明,在視覺(jué)和熱成像范圍的頭部圖像比臉部圖像具有更多的可識(shí)別特征,視覺(jué)圖像比熱成像的可識(shí)別性更好,兩個(gè)范圍的融合方法比單個(gè)生物識(shí)別方法效果更好。相比其他幾種人臉識(shí)別方法,本文方法不僅取得了較高的識(shí)別率,同時(shí)保持了較低的計(jì)算耗時(shí)。

        未來(lái)將擴(kuò)大該數(shù)據(jù)庫(kù)的規(guī)模,包括室外圖像,并結(jié)合其他的新穎技術(shù),在其他數(shù)據(jù)庫(kù)上也進(jìn)行大量實(shí)驗(yàn),進(jìn)一步提高本文方法的識(shí)別精度。

        [1]KLARE B F,JAIN A K.Heterogeneous face recognition using kernel prototype similarities[J].IEEE Trans.Pattern Analysis and Machine Intelligence,2013,35(6):1410-1422.

        [2]周旭東,陳曉紅,陳松燦.半配對(duì)半監(jiān)督場(chǎng)景下的低分辨率人臉識(shí)別[J].計(jì)算機(jī)研究與發(fā)展,2013,49(11):2328-2333.

        [3]PARUA S,DASA,MAZUMDAR D,et al.Determination of feature hierarchy from Gabor and SIFT features for face recognition[C]//Proc.2011 Second International Conference on Emerging Applications of Information Technology(EAIT).[S.l.]:IEEE Press,2011:257-260.

        [4]CHAN C H,TAHIR M A,KITTLER J,et al.Multiscale local phase quantization for robust component-based face recognition using kernel fusion of multiple descriptors[J].IEEE Trans.Pattern Analysis and Machine Intelligence,2013,35(5):1164-1177.

        [5] ARLOT S,CELISSE A.A survey of cross-validation procedures for model selection[J].Statistics Surveys,2010,28(4):40-79.

        [6]李孔震,王炳和,婁昊,等.基于小波變換和二維非負(fù)矩陣分解的人臉識(shí)別算法[J].計(jì)算機(jī)應(yīng)用研究,2013,30(4):1275-1277.

        [7]BOURLAI T,CUKIC B.Multi-spectral face recognition:identification of people in difficult environments[C]//Proc.2012 IEEE International Conference on Intelligence and Security Informatics(ISI).[S.l.]: IEEE Press,2012:196-201.

        [8]呂思亮.基于可見(jiàn)光圖像和紅外熱像融合的自發(fā)表情識(shí)別[D].合肥:中國(guó)科學(xué)技術(shù)大學(xué),2011.

        [9]CRESPOD,TRAVIESOCM,ALONSO JB.Thermal face verification based on scale-invariant feature transform and vocabulary tree-application to biometric verification systems[EB/OL].[2014-03-28].http:// www.bibsonomy.org/bibtex/930e1dd9018637afd9c9a0fbafa3d19c.

        [10]HUANG H,HE H.Super-resolutionmethod for face recognition using nonlinearmappings on coherent features[J].IEEE Trans.Neural Networks,2011,22(1):121-130.

        [11]XIAN X B,WU H J,ZHANG M X,et al.A novelmulti-pose face recognition via robust SIFT feature[C]//Proc.2013 International Conference on Wavelet Analysis and Pattern Recognition(ICWAPR).[S.l.]:IEEE Press,2013:32-37.

        [12]ZENG X,HUANGH.Super-resolutionmethod formultiview face recognition from a single image per person using nonlinear mappings on coherent features[J].IEEE Signal Processing Letters,2012,19(4): 195-198.

        [13]IMTIAZH,F(xiàn)ATTAH S A.A wavelet-domain local feature selection scheme for face recognition[C]//Proc.2011 International Conference on Communications and Signal Processing(ICCSP).[S.l.]:IEEE Press,2011:448-451.

        [14]張志偉.基于人臉識(shí)別的媒資視頻檢索技術(shù)的研究與實(shí)踐[D].北京:北京郵電大學(xué),2013.

        [15]朱道廣,郭志剛,趙永威.基于空間上下文加權(quán)詞匯樹(shù)的圖像檢索方法[J].模式識(shí)別與人工智能,2013,26(11):1050-1056.

        [16]MOHAN R N V J,RAO K R S.Efficient K-Means fuzzy cluster reliability on angle oriented face recognition[J].International Journal of Informatics and Communication Technology(IJ-ICT),2012,2(1): 38-45.

        Fusion of Vocabulary Tree and SIFT for Face Recognition in Thermal Image and Visual Image

        ZHANG Guoping,ZHOU Gaiyun,MA Li
        (School of Software,Pingdingshan University,Henan Pingdingshan 467000,China)

        For the face recognition problem from thermal image and visual image,a fusionmethod based on vocabulary tree and scale invariant feature transform is proposed.Firstly,thermal image and visual image is exteacted respectively,Viola-Jones cascading detector is used to detect face from natural images.Then,SIFT descriptors are used to extract stability features from invariant space.Finally,classification is finished by vocabulary tree,score fusion and decision fusion algorithm is used to improve the accuracy and security of system.The effectiveness of proposedmethod has been verified by experiments on face images of 41 person gathered self,recognition accuracy of proposed method can achieve 100%,experimental results show that proposed mehtod has higher recognition accuracy and lower computing time than several other advanced algorithms.

        vocabulary tree;scale invariant feature transform;thermal image;visual image;face recognition

        TP391

        A

        ??健男

        2014-04-15

        【本文獻(xiàn)信息】張國(guó)平,周改云,馬麗.詞匯樹(shù)融合SIFT的熱成像和視覺(jué)圖像人臉識(shí)別[J].電視技術(shù),2014,38(23).

        國(guó)家自然科學(xué)基金項(xiàng)目(U1204611);河南省科技廳科技發(fā)展計(jì)劃項(xiàng)目(134300510037);平頂山學(xué)院青年科研基金項(xiàng)目(PXY-QNJJ2013010)

        張國(guó)平(1980—),碩士,講師,主要研究領(lǐng)域?yàn)閿?shù)字圖像處理、模式識(shí)別等;

        周改云(1980—),女,碩士,講師,主要研究領(lǐng)域?yàn)槎嗝襟w、數(shù)字圖像處理;

        馬 麗(1968—),女,碩士,教授,主要研究領(lǐng)域?yàn)槟J阶R(shí)別、智能控制等。

        猜你喜歡
        描述符臉部人臉識(shí)別
        人臉識(shí)別 等
        基于結(jié)構(gòu)信息的異源遙感圖像局部特征描述符研究
        揭開(kāi)人臉識(shí)別的神秘面紗
        Linux單線程并發(fā)服務(wù)器探索
        利用CNN的無(wú)人機(jī)遙感影像特征描述符學(xué)習(xí)
        基于類獨(dú)立核稀疏表示的魯棒人臉識(shí)別
        3D打印技術(shù)助英男子重獲完整臉部
        基于K-L變換和平均近鄰法的人臉識(shí)別
        “臉部塑形”的彩妝魔術(shù)
        眩暈寧片致臉部紅斑型藥疹1例
        久久久久久久亚洲av无码| 国产成人综合亚洲av| 久久精品一区二区三区夜夜| 日本一区二区三区视频免费观看| 免费成人在线电影| 亚洲精品无码久久毛片| 超清无码AV丝袜片在线观看| av网站免费观看入口| 欧美黑人又大又粗xxxxx| 亚洲国产成人久久一区www| 国产精品av在线一区二区三区 | 久久中文字幕人妻熟av女蜜柚m| 成在线人视频免费视频| 日本女同av在线播放| 国产区精品一区二区不卡中文| 欧美人与动人物牲交免费观看| 音影先锋色天堂av电影妓女久久| 日本精品人妻一区二区| 夜夜爽日日澡人人添| 亚洲 欧美 激情 小说 另类| 3亚洲日韩在线精品区| 国产精品熟女少妇不卡| 秘书边打电话边被躁bd视频| 在线视频精品免费| 久久爱91精品国产一区| 免费在线观看av不卡网站| 亚洲av无码专区首页| 国内久久婷婷精品人双人| 天堂麻豆精品在线观看| 丁香婷婷激情综合俺也去| 天天爽天天爽天天爽| 精品视频在线观看一区二区有| 美女主播福利一区二区| 亚洲av无码专区首页| 精品不卡久久久久久无码人妻| 国产免费人成视频在线观看播放播| 一本大道熟女人妻中文字幕在线 | 人人妻人人澡人人爽欧美二区| 日本高清在线播放一区二区三区| 日韩女优图播一区二区| 国产在线观看无码免费视频|