亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于MG-LTP與ELM的微表情識別

        2015-10-15 02:05:08唐紅梅石京力郭迎春韓力英
        電視技術(shù) 2015年3期
        關(guān)鍵詞:識別率特征提取分類器

        唐紅梅,石京力,郭迎春,韓力英,王 霞

        (河北工業(yè)大學(xué) 信息工程學(xué)院,天津 300401)

        基于MG-LTP與ELM的微表情識別

        唐紅梅,石京力,郭迎春,韓力英,王 霞

        (河北工業(yè)大學(xué) 信息工程學(xué)院,天津 300401)

        特征提取和表情分類是表情識別的關(guān)鍵技術(shù)。針對傳統(tǒng)方法識別率低的缺點(diǎn),首先,提出了一種基于平均灰度的局部三值模式(MG-LTP)新算法,用于提取表情特征;其次,使用極限學(xué)習(xí)機(jī)(ELM)作為分類器,用于特征分類;最后,將二者結(jié)合用于表情識別,并進(jìn)一步應(yīng)用于人臉微表情識別中。在JAFFE數(shù)據(jù)庫及CASME人臉微表情數(shù)據(jù)庫進(jìn)行試驗(yàn),與傳統(tǒng)方法對比,取得了較好的效果。

        微表情;特征提??;分類識別;局部三值模式;極限學(xué)習(xí)機(jī)

        人臉表情在人與人交流的交流過程中,起著非常重要的作用。但是,有些表情的變化速度很快,并不容易察覺到。1969年,Ekman和Friesen定義了一種新的面部表情,稱之為微表情(Micro-Expression)[1]。微表情是人類試圖壓抑或隱藏真實(shí)情感時(shí)泄露的非常短暫的、不能自主控制的面部表情,它是一種非??焖俚谋砬?,持續(xù)時(shí)間僅為1/25~1/5s。目前,美國的Ekman團(tuán)隊(duì)和Shreve團(tuán)隊(duì)、加拿大的李康團(tuán)隊(duì)和Porter團(tuán)隊(duì)、芬蘭的趙國英團(tuán)隊(duì)、日本的Polikovsky團(tuán)隊(duì)以及中國的傅小蘭團(tuán)隊(duì)等都在開展微表情相關(guān)課題的研究[2-3]。

        使用計(jì)算機(jī)對表情進(jìn)行分類識別包含很多步驟,其中主要的是特征提取和分類器識別。常用的特征提取方法主要有主成分分析(PCA)、線性判別分析(LDA)、獨(dú)立成分分(ICA)和局部二值模式(LBP)等[4-6]。LBP是一種局部紋理描述算子,能夠很好描繪圖像局部紋理特征。為了增強(qiáng)圖像局部紋理特征對噪聲和光照變化的魯棒性,在參考文獻(xiàn)[7]中,Tang和Triggs對LBP算法進(jìn)行優(yōu)化,提出了局部三值模式(LTP)算法。雖然LTP算法對LBP算法有了改善,但由于提取特征的局部化特點(diǎn),使得其缺乏對圖像整體信息的把握,在抗噪聲干擾方面依然能力不足。常用的分類器主要有K近鄰(KNN)、神經(jīng)網(wǎng)絡(luò)法(NN)、貝葉斯分類和支持向量機(jī)(SVM)等[8-10]。為了克服以上幾種算法識別率低、參數(shù)復(fù)雜和運(yùn)算速度慢的缺點(diǎn),在參考文獻(xiàn)[11]中,Huang提出了一種基于單隱層前饋神經(jīng)網(wǎng)絡(luò)的新算法,稱為極限學(xué)習(xí)機(jī)(ELM)。

        綜上所述,該文針對LTP算法進(jìn)行改進(jìn),綜合利用圖像的局部特征和整體信息,提出了MG-LTP新算法,并使用ELM作為分類器,在JAFFE數(shù)據(jù)庫上進(jìn)行表情識別,進(jìn)一步在CASME數(shù)據(jù)庫上進(jìn)行微表情識別,給出了實(shí)驗(yàn)結(jié)果和分析。通過分析微表情,目的是發(fā)現(xiàn)人試圖隱藏的真實(shí)情感,能夠廣泛應(yīng)用于臨床、司法、安全等領(lǐng)域。在日常生活中,微表情研究具有十分重要的實(shí)際意義,例如商業(yè)談判、審訊嫌疑犯等,都可以通過分析細(xì)微表情來尋求對方的真實(shí)意圖。

        1 基于MG-LTP的特征提取

        1.1 LTP算子描述

        局部三值模式(LTP)是一種局部紋理特征提取方法,由局部二值模式(LBP)發(fā)展而來。LTP的基本思想定義如下:設(shè)置閾值t,與中心像素灰度值gc構(gòu)成新的區(qū)間[gc-t,gc+t]。若像素灰度值gi在此區(qū)間內(nèi),則gi量化為0;若gi大于區(qū)間最大值,則gi量化為1;若gi小于區(qū)間最小值,則gi量化為-1。計(jì)算如下

        (1)

        (2)

        式中:i=0,1,2,…,R-1;gc為中心像素點(diǎn)灰度值;gi為中心像素點(diǎn)周圍的像素點(diǎn)灰度值;R為周圍像素點(diǎn)的個(gè)數(shù);t為閾值。當(dāng)選取R為8時(shí),閾值t為5,編碼如圖1所示(箭頭代表編碼順序)。

        圖1 標(biāo)準(zhǔn)LTP編碼示意圖

        為了計(jì)算簡單,LTP編碼可以分為正值LTP計(jì)算和負(fù)值LTP計(jì)算,兩部分分別計(jì)算編碼,如圖2所示。

        圖2 正負(fù)值LTP編碼示意圖

        LTP是LBP的擴(kuò)展算法,由二元改進(jìn)為三元,因此能夠提取更豐富的局部紋理特征,并且設(shè)置了閾值區(qū)間,使計(jì)算結(jié)果受像素灰度差異變化的影響變小[12],所以該算法較LBP更具有判別能力,而且對于統(tǒng)一區(qū)域的噪聲更不敏感。使用LBP算子,LTP算子進(jìn)行濾波,實(shí)驗(yàn)結(jié)果如圖3所示。

        圖3 LBP/LTP 濾波圖像

        1.2 MG-LTP新算法描述

        LTP作為一種局部紋理特征提取的算法,缺乏對圖像整體信息的粗粒度把握,抗噪聲干擾能力不足。因此,本文提出平均灰度局部三值模式(Mean-gray Local Ternary Patterns,MG-LTP)算法,結(jié)合圖像局部紋理特征與圖像整體信息的特點(diǎn),來改善LTP的不足之處。

        在MG-LTP的計(jì)算中,不再進(jìn)行相鄰像素之間的比較,取而代之的是相鄰像素塊之間平均灰度的比較。主要思想是,首先設(shè)置像素塊大小(不同的像素塊大小代表不同的觀察和分析粒度,通常以MGs-LTP表示像素塊大小為S×S的LTP),計(jì)算每個(gè)像素塊的平均灰度;其次設(shè)置閾值計(jì)算三元編碼;最后為了方便計(jì)算,將三元編碼轉(zhuǎn)換為二元編碼。與LTP相比,MG-LTP的優(yōu)點(diǎn)主要體現(xiàn)在計(jì)算了S×S像素塊的平均灰度,把握住了圖像的整體信息,增強(qiáng)了算法的抗噪聲干擾能力。詳細(xì)步驟如下:

        1)設(shè)置像素塊大小,并計(jì)算每個(gè)像素塊的平均灰度。若設(shè)置像素塊大小為3×3(陰影部分為1個(gè)3×3像素塊),并計(jì)算每一個(gè)像素塊的平均值,如圖4所示。

        圖4 計(jì)算S×S像素塊的平均灰度

        2)計(jì)算三元編碼。根據(jù)LTP算法,若設(shè)置閾值t為5,計(jì)算MG-LTP三元編碼,如圖5所示。

        圖5 計(jì)算三元編碼

        3)由上一步驟得到的三元編碼,根據(jù)上文中LTP計(jì)算方法,可以轉(zhuǎn)換為二元的正值MG-LTP編碼和負(fù)值MG-LTP編碼兩部分。將二者串聯(lián)起來,作為MG-LTP編碼,如圖6所示。

        圖6 三元編碼轉(zhuǎn)換為二元編碼

        2 ELM分類器

        在文獻(xiàn)[11]中,Huang和Zhu等人在單隱層前饋神經(jīng)網(wǎng)絡(luò)(SLFNs)的基礎(chǔ)上提出了一種新的算法,稱為極限學(xué)習(xí)機(jī)(ELM)。相比傳統(tǒng)前饋神經(jīng)網(wǎng)絡(luò),ELM分類器學(xué)習(xí)速度更快、精度更高、參數(shù)調(diào)整更為簡單。ELM結(jié)構(gòu)如圖7所示。

        圖7 ELM結(jié)構(gòu)圖

        (3)

        式中:ai=[ai1,ai2,…,ain]T,是連接輸入結(jié)點(diǎn)和第i個(gè)隱藏層節(jié)點(diǎn)的權(quán)值向量;bi是第i個(gè)隱藏層節(jié)點(diǎn)的偏差;βi=[βi1,βi2…,βim]T是連接第i個(gè)隱藏層結(jié)點(diǎn)與輸出結(jié)點(diǎn)的權(quán)值向量;ai·xj表示向量ai和向量xj的內(nèi)積。激勵(lì)函數(shù)g(x)的類型一般設(shè)置為“Sine”,“Sigmoid”或“RBF”。如果上述的前饋神經(jīng)網(wǎng)絡(luò)能零誤差的逼近這N個(gè)樣本,則存在ai,bi,βi使

        (4)

        式(4)可以簡化為

        Hβ=T

        (5)

        其中

        (6)

        (7)

        (8)

        誤差存在時(shí),定義εj為預(yù)測值與實(shí)際值tj之間的誤差,式(4)改寫為

        (8)

        定義E(W)為預(yù)測值與實(shí)際值的誤差平方,為了尋求最好的預(yù)測結(jié)果,問題便轉(zhuǎn)化為尋找最優(yōu)權(quán)值W=(a,b,β)來使E(W)最小,如式(9)所示

        (9)

        Huang和Chen提出一種思想,若激勵(lì)函數(shù)無窮可微,則不需要去調(diào)整全部網(wǎng)絡(luò)的參數(shù)。網(wǎng)絡(luò)訓(xùn)練前,輸入權(quán)值ai和偏差bi隨機(jī)設(shè)定,訓(xùn)練過程中保持?jǐn)?shù)值不變[13]。ELM分類識別結(jié)果的優(yōu)良取決于隱藏層節(jié)點(diǎn)輸出權(quán)值βi。通過計(jì)算公式(5)的最小二乘解來完成網(wǎng)絡(luò)的最優(yōu)訓(xùn)練,并且解是唯一的

        (10)

        式中:H*表示隱含層輸出矩陣H的Moore-penrose廣義逆[14]。

        3 實(shí)驗(yàn)結(jié)果及分析

        實(shí)驗(yàn)選擇JAFFE人臉表情數(shù)據(jù)庫以及CASME人臉微表情數(shù)據(jù)庫。其中JAFFE包含了213幅日本女性的臉相,表情庫中共有10個(gè)人,每個(gè)人有7種表情(中性、高興、驚奇、憤怒、悲傷、恐懼、厭惡)。部分JAFFE人臉表情數(shù)據(jù)庫圖片如圖8所示。

        圖8 部分JAFFE人臉表情數(shù)據(jù)庫圖片

        CASME是中科院心理研究所公開發(fā)布的微表情數(shù)據(jù)庫,該數(shù)據(jù)庫共有195個(gè)微表情,全部在實(shí)驗(yàn)室環(huán)境下誘發(fā)得到,視頻的頻率是60f/s(幀/秒)[15]。部分CASME微表情數(shù)據(jù)庫圖片如圖9所示。

        實(shí)驗(yàn)中,本文使用的訓(xùn)練樣本與識別樣本的比例為2∶1。每種表情訓(xùn)練圖片為20張,測試表情為10張。共7種表情,所以使用的訓(xùn)練樣本圖片總數(shù)為140,識別樣本圖片總數(shù)為70。在本文所提出的方法中,LTP閾值t設(shè)為5;MG-LTP設(shè)為MG4-LTP,即采用4×4像素塊來計(jì)算平均灰度;ELM的神經(jīng)節(jié)點(diǎn)個(gè)數(shù),通過交叉驗(yàn)證,設(shè)為300。

        對于JAFFE數(shù)據(jù)庫,試驗(yàn)結(jié)果如表1所示。從試驗(yàn)結(jié)果可以看出,高興、驚訝和害怕這三種表情識別完全正確,識別率達(dá)到100%。生氣的識別率最低,只有60%,由表中數(shù)據(jù)可以看到,生氣被錯(cuò)誤的識別為高興、悲傷、嫌惡和中性的概率分別為10%。其余幾種表情的識別率介于上述數(shù)值之間,為80%和90%。總體來說,70個(gè)識別樣本中,正確識別了62個(gè),識別率達(dá)到87.14%,誤判率為12.86%。

        表1 JAFFE數(shù)據(jù)庫識別結(jié)果 %

        對于CASME數(shù)據(jù)庫,試驗(yàn)結(jié)果如表2所示。從試驗(yàn)結(jié)果可以看出,害怕表情識別完全正確,識別率達(dá)到100%。生氣和厭惡的識別率最低,只有70%,由表2中數(shù)據(jù)可以看出,這兩類表情分別存在被錯(cuò)誤地識別為其他三類表情的情況。驚訝和中性的識別率為80%,高興和悲傷的識別率均為90%??傮w來說,70個(gè)識別樣本中,正確識別了58個(gè),識別率達(dá)到82.86%,誤判率為17.14%。CASME數(shù)據(jù)庫上的識別率要比JAFFE數(shù)據(jù)庫低,主要是因?yàn)槲⒈砬榈奶卣鬏^細(xì)微,對不同表情特征提取的結(jié)果要求比較高。

        表2 CASME數(shù)據(jù)庫識別結(jié)果 %

        在均使用同一種分類器ELM的前提下,在JAFFE數(shù)據(jù)庫上和CASME微表情數(shù)據(jù)庫上,使用不同的特征提取方法(PCA,LDA,LBP,LTP,MG-LTP)進(jìn)行比較,實(shí)驗(yàn)結(jié)果如圖10和表3所示。從中可以看出,傳統(tǒng)的PCA和LDA效果不是很理想,識別率最低,LBP和LTP效果較好,識別率得到了提高。本文提出的MG-LTP算法要比其余4種算法的識別率高,效果最好,由此可見把握整體圖像的粗粒度有助于減少噪聲干擾,提高圖像識別率。

        圖10 不同特征提取方法經(jīng)ELM分類器后的識別結(jié)果比較

        表3 不同特征提取方法經(jīng)ELM分類器后的識別結(jié)果比較 %

        為了準(zhǔn)確分析算法的性能,減少外部環(huán)境的差異對實(shí)驗(yàn)的影響,所有實(shí)驗(yàn)均在CPU為Intel(R) Core(TM)2 Duo,2.2 GHz主頻,4Gbyte/s內(nèi)存,Windows 7操作系統(tǒng)和MATLAB R2010b的環(huán)境下進(jìn)行。

        4 小結(jié)

        本文針對傳統(tǒng)表情識別方法的低識別率問題,首先提出平均灰度局部三值模式(MG-LTP)新算法,再與極限學(xué)習(xí)機(jī)(ELM)結(jié)合起來進(jìn)行表情及微表情的分類識別。該方法充分利用了MG-LTP算法結(jié)合圖像局部紋理特征與圖像整體信息的特性,具有判別能力強(qiáng)、對噪聲不敏感的優(yōu)點(diǎn)以及ELM識別精度高、參數(shù)調(diào)整簡單的優(yōu)點(diǎn)。在JAFFE數(shù)據(jù)庫和CASME微表情數(shù)據(jù)庫上進(jìn)行試驗(yàn),取得了較好的識別結(jié)果。如何更加實(shí)時(shí)地在動(dòng)態(tài)視頻序列中進(jìn)行微表情分類識別,是下一步研究的重點(diǎn)。

        [1]EKMAN P.Telling lies:clues to deceit in the marketplace,politics,and marriage revised edition[M].New York:WW Norton & Company,2009.

        [2]YAN W J,WANG S J,LIU Y J,et al.For micro-expression recognition: database and suggestions[J].Neurocomputing,2014(1):82-87.

        [3]SHREVE M,BRIZZI J,F(xiàn)ELILATYEV S,et al.Automatic expression spotting in videos[J].Image and Vision Computing,2014,32(8):476-486.

        [4]PANG S,OZAWA S,KASABOV N.Incremental linear discriminant analysis for classification of data streams[J].IEEE Trans.Systems,Man,and Cybernetics,2005,35(5):905-914.

        [5]OJALA T,PIETIKAINEN M,MAENPAA T.Multiresolution gray-scale and rotation invariant texture classification with local binary patterns[J].IEEE Trans.Pattern Analysis and Machine Intelligence,2002,24(7):971-987.

        [6]BARTLETT M S,MOVELLAN J R,SEJNOWSKI T J.Face recognition by independent component analysis[J].IEEE Trans.Neural Networks,2002,13(6):1450-1464.

        [7]TAN X,TRIGGS B.Enhanced local texture feature sets for face recognition under difficult lighting conditions[J].IEEE Trans.Image Processing,2010,19(6):163-165.

        [8]LIU Z,PAN Q,DEZERT J.A new belief-based K-nearest neighbor classification method[J].Pattern Recognition,2013,46(3):834-844.

        [9]BARAKAT M,DRUAUX F,LEFEBVRE D,et al.Self adaptive growing neural network classifier for faults detection and diagnosis[J].Neurocomputing,2011(18):3865-3876.

        [10]FUNG G M,MANGASARIAN O L.Multicategory proximal support vector machine classifiers[J].Machine Learning,2005,59(1):77-97.[11]HUANG G B,ZHU Q Y.Extreme learning machine:theory and applications[J].Neurocomputing,2006(1):489-501.

        [12]MEHTA R,EGIAZARIAN K.Face recognition using scale-adaptive directional and textural features[J].Pattern Recognition,2014,47(5):1846-1858.

        [13]CHEN H,PENG J,ZHOU Y.Extreme learning machine for ranking: generalization analysis and applications[J].Neural Networks,2014(53):119-126.

        [14]HAN H G,WANG L D,QIAO J F.Hierarchical extreme learning machine for feedforward neural network[J].Neurocomputing,2014(128):128-135.

        [15]YAN W J,WU Q,LIU Y J,et al.Casme database: a dataset of spontaneous micro-expressions collected from neutralized faces[C]//Proc.201310th IEEE International Conference and Workshops on Automatic Face and Gesture Recognition(FG).[S.l.]:IEEE Press,2013:1-7.

        唐紅梅(1968— ),女,副教授,碩士生導(dǎo)師,研究方向?yàn)閿?shù)字圖像處理、模式識別;

        石京力(1988— ),碩士生,研究方向?yàn)閿?shù)字圖像處理;

        郭迎春(1970— ),女,博士,副教授,研究方向?yàn)閳D像處理、模式識別。

        責(zé)任編輯:時(shí) 雯

        Micro-expression Recognition Based on MG-LTP and ELM

        TANG Hongmei,SHI Jingli,GUO Yingchun,HAN Liying,WANG Xia

        (SchoolofInformationEngineering,HebeiUniversityofTechnology,Tianjin300401,China)

        Feature extraction and expression classification are the key technologies of expression recognition.Considering of the low recognition rate of traditional methods,a new algorithm called mean gray local ternary patterns(MG-LTP) based on mean gray is firstly proposed in this paper,and MG-LTP is used to extract expression feature.Then,extreme learning machine(ELM) is used as a classifier for feature classification.Finally,the above two methods are combined for expression recognition,and further for facial micro-expression recognition.Experiments are completed on JAFFE database for expression recognition and CASME databases for facial micro-expression recognition.Compared with traditional methods,the method used in this paper achieves better results.

        micro-expression;feature extraction;expression recognition;local ternary patterns;extreme learning machine

        【本文獻(xiàn)信息】唐紅梅,石京力,郭迎春,等.基于MG-LTP與ELM的微表情識別[J].電視技術(shù),2015,39(3).

        TP391.4

        A

        10.16280/j.videoe.2015.03.031

        2014-07-13

        猜你喜歡
        識別率特征提取分類器
        基于類圖像處理與向量化的大數(shù)據(jù)腳本攻擊智能檢測
        基于真耳分析的助聽器配戴者言語可懂度指數(shù)與言語識別率的關(guān)系
        基于Daubechies(dbN)的飛行器音頻特征提取
        電子制作(2018年19期)2018-11-14 02:37:08
        提升高速公路MTC二次抓拍車牌識別率方案研究
        BP-GA光照分類器在車道線識別中的應(yīng)用
        電子測試(2018年1期)2018-04-18 11:52:35
        Bagging RCSP腦電特征提取算法
        加權(quán)空-譜與最近鄰分類器相結(jié)合的高光譜圖像分類
        結(jié)合模糊(C+P)均值聚類和SP-V-支持向量機(jī)的TSK分類器
        高速公路機(jī)電日常維護(hù)中車牌識別率分析系統(tǒng)的應(yīng)用
        基于MED和循環(huán)域解調(diào)的多故障特征提取
        国产哟交泬泬视频在线播放| 亚洲熟妇av一区二区三区| 国产夫妇肉麻对白| 国产成人亚洲日韩欧美| 国产国拍亚洲精品永久不卡| 亚洲精品女同在线观看| 亚洲色图在线免费观看视频| 精东天美麻豆果冻传媒mv| 亚洲精品成人专区在线观看| 2022AV一区在线| 国产精品一区二区韩国av| 男女猛烈拍拍拍无挡视频| 中日av乱码一区二区三区乱码| 中文字幕亚洲无线码a| 中文字幕成人精品久久不卡91 | 亚洲av成人无码久久精品| 日本特黄a级高清免费大片| 宅男天堂亚洲一区二区三区| 国产精品久久久久一区二区三区| 黑人玩弄人妻中文在线| 妺妺窝人体色www聚色窝| 免费看片的网站国产亚洲| 97se亚洲国产综合在线| 亚洲狠狠婷婷综合久久| 无码一区二区丝袜| 亚洲一区二区刺激的视频| 欧美牲交a欧美牲交aⅴ免费真| 免费人成又黄又爽的视频在线| 国产综合一区二区三区av| 精品国产亚洲av高清大片| 久久精品国产网红主播| 美女一级毛片免费观看97| 久久精品国产亚洲不卡| 丰满少妇高潮惨叫久久久| www国产精品内射熟女| 官网A级毛片| 日本精品免费看99久久| 久久精品国产视频在热| 国产精品久久久久影视不卡| 久久av一区二区三区黑人| 久久狠狠色噜噜狠狠狠狠97|