亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于深度學(xué)習(xí)和證據(jù)理論的表情識(shí)別模型*

        2021-05-11 02:00:44徐其華
        關(guān)鍵詞:特征提取分類深度

        徐其華,孫 波

        (1.西北師范大學(xué)商學(xué)院,甘肅 蘭州 730070;2.北京師范大學(xué)人工智能學(xué)院,北京 100875)

        1 引言

        表情是人類在進(jìn)行社會(huì)活動(dòng)時(shí)心理感受和精神狀態(tài)的自然流露,通過(guò)觀察一個(gè)人的面部細(xì)微變化,就能判斷出他此時(shí)的內(nèi)心情感。根據(jù)心理學(xué)家Mehrabian[1]的研究,一個(gè)人想要表達(dá)出來(lái)的全部信息,口頭語(yǔ)言只占7%,語(yǔ)言輔助(如語(yǔ)調(diào)、語(yǔ)速等)占38%,而面部表情卻占了55%,因此大量有價(jià)值的信息都可以通過(guò)面部表情獲取。而且相對(duì)于生理信號(hào),面部表情的數(shù)據(jù)更加容易獲得,因此受到更多人的關(guān)注。

        隨著計(jì)算機(jī)技術(shù)、傳感技術(shù)和通訊技術(shù)的發(fā)展,高清攝像頭的使用越來(lái)越普遍,特別是智能手機(jī)的廣泛應(yīng)用,獲取一小段帶有人臉的高清視頻是非常容易的事情。通過(guò)深度學(xué)習(xí)技術(shù)對(duì)帶有人臉的高清視頻片段進(jìn)行自動(dòng)分析,識(shí)別出視頻中人臉的表情,識(shí)別結(jié)果不僅能在各種系統(tǒng)中幫助人機(jī)進(jìn)行高效交互,而且還能應(yīng)用在現(xiàn)實(shí)生活中的不同領(lǐng)域。

        面部表情是指通過(guò)眼部肌肉、顏面肌肉和口部肌肉的變化來(lái)表現(xiàn)各種情緒狀態(tài),是人類內(nèi)心情感比較直接的一種表達(dá)方式。根據(jù)科學(xué)家們的研究,人類有7種基本情感,即快樂(lè)、悲傷、憤怒、厭惡、驚訝、恐懼和中性。表情識(shí)別的研究,實(shí)際上可以認(rèn)為是對(duì)這7類情感的模式分類問(wèn)題。隨著人工智能的發(fā)展和實(shí)際應(yīng)用需求的推動(dòng),基于微視頻的自發(fā)性表情識(shí)別已經(jīng)取得了不錯(cuò)的研究進(jìn)展,涌現(xiàn)出了各種各樣的表情自動(dòng)識(shí)別模型,如EmoNets[2]、VGG-Net(Visual Geometry Group-Network)[3]、HoloNet[4]、VGG-LSTM(Visual Geometry Group-Long Short Term Memory)[5]和C3Ds(3-Dimensional Convolutional neural networks)[6]等,但總體來(lái)說(shuō),這些模型在各種表情識(shí)別競(jìng)賽中都取得了不錯(cuò)的成績(jī)。這些模型的識(shí)別準(zhǔn)確率還不盡人意,遠(yuǎn)遠(yuǎn)低于人類肉眼的識(shí)別準(zhǔn)確率,還不能在社會(huì)各個(gè)領(lǐng)域中進(jìn)行廣泛應(yīng)用。

        本文針對(duì)表情智能識(shí)別過(guò)程中存在的一些關(guān)鍵性問(wèn)題,設(shè)計(jì)了一個(gè)全自動(dòng)表情識(shí)別模型,并在該模型中構(gòu)建了一個(gè)深度自編碼網(wǎng)絡(luò)來(lái)自動(dòng)學(xué)習(xí)人臉表情特征,并結(jié)合證據(jù)理論對(duì)多分類結(jié)果進(jìn)行有效融合。在一些公開(kāi)的表情識(shí)別庫(kù)上的實(shí)驗(yàn)結(jié)果表明,該模型能顯著提升表情識(shí)別的準(zhǔn)確度,性能優(yōu)于大部分現(xiàn)有的表情識(shí)別模型。

        2 研究現(xiàn)狀

        表情識(shí)別是在人臉檢測(cè)的基礎(chǔ)上發(fā)展起來(lái)的,和人臉識(shí)別一樣,也包括人臉檢測(cè)、圖像預(yù)處理、面部特征提取和分類識(shí)別等過(guò)程。隨著深度學(xué)習(xí)技術(shù)的廣泛應(yīng)用,表情識(shí)別方法也逐漸由傳統(tǒng)的淺層學(xué)習(xí)方法向深度學(xué)習(xí)方法過(guò)渡。近些年來(lái),表情識(shí)別技術(shù)的研究得到了學(xué)術(shù)界持續(xù)的重視,與之相關(guān)的情感識(shí)別競(jìng)賽也吸引了越來(lái)越多的人參加。其中由國(guó)際計(jì)算機(jī)協(xié)會(huì)多模態(tài)人機(jī)交互國(guó)際會(huì)議ACM ICMI(ACM International Conference on Multimodal Interaction)主辦的情感識(shí)別大賽EmotiW(Emotion recognition in the Wild)是世界范圍內(nèi)情感識(shí)別領(lǐng)域最高級(jí)別、最具權(quán)威性的競(jìng)賽,吸引了世界頂尖科研機(jī)構(gòu)和院校參與,微軟美國(guó)研究院、Intel研究院、IBM研究院、美國(guó)密西根大學(xué)、美國(guó)波士頓大學(xué)、新加坡國(guó)立大學(xué)、北京大學(xué)和愛(ài)奇藝等均參加了比賽。該賽事每年舉辦一次,從2013年開(kāi)始,迄今已連續(xù)舉辦了8屆。國(guó)內(nèi)舉辦的情感識(shí)別競(jìng)賽起步比較晚,由中國(guó)科學(xué)院自動(dòng)化研究所領(lǐng)頭舉辦的多模態(tài)情感競(jìng)賽MEC(Multimodal Emotion Recognition),迄今只舉辦了2次[7,8]。這些競(jìng)賽的定期舉辦,吸引了情感識(shí)別研究領(lǐng)域大部分研究機(jī)構(gòu)參加,對(duì)該領(lǐng)域的交流和發(fā)展起到了巨大的推動(dòng)作用。

        面部表情特征提取在整個(gè)表情識(shí)別過(guò)程中具有非常重要的作用,特征提取的好壞直接影響著最終的識(shí)別準(zhǔn)確度。在廣泛使用深度學(xué)習(xí)技術(shù)提取表情特征之前,研究者們主要提取一些傳統(tǒng)的手工特征,如基于紋理信息變化的Gabor特征[9,10]和局部二值模式LBP(Local Binary Pattern)特征[11],以及在兩者基礎(chǔ)上擴(kuò)展的LGBP(Local Gabor Binary Pattern)特征[12]和LBP-TOP(Local Binary Patterns from Three Orthogonal Planes)特征[13];基于梯度信息變化的尺度不變性特征變換特征SIFT(Scale Invariant Feature Transform)[14]、方向梯度直方圖HOG(Histogram of Oriented Gradient)特征[15,16]和局部相位量化LPQ(Local Phase Quantization)特征[17],以及在這3種特征上擴(kuò)展的特征,如Dense SIFT、 MDSF(Multi-scale Dense SIFT Features)[18]、 PHOG(Pyramid of Histogram Of Gradients)[19]等。這些傳統(tǒng)的手工特征在剛提出時(shí),都取得了不錯(cuò)的效果。但是,這些特征在提取時(shí)容易受到干擾,對(duì)光照強(qiáng)度、局部遮擋和個(gè)體差異都非常敏感,而且提取的特征向量維度一般比較大,需要和其它的特征降維方法結(jié)合使用。

        隨著深度學(xué)習(xí)技術(shù)的應(yīng)用,基于深度神經(jīng)網(wǎng)絡(luò)的面部特征自動(dòng)學(xué)習(xí)方法逐漸成為熱門。這類方法從局部到整體對(duì)面部信息進(jìn)行統(tǒng)計(jì),得到一些面部特征的統(tǒng)計(jì)描述,簡(jiǎn)稱為深度學(xué)習(xí)方法。深度學(xué)習(xí)方法本質(zhì)上就是研究者們首先構(gòu)建一個(gè)深度神經(jīng)網(wǎng)絡(luò),然后利用大量樣本進(jìn)行訓(xùn)練,讓機(jī)器自動(dòng)統(tǒng)計(jì)其中的變化規(guī)律,從而學(xué)習(xí)出有效的特征表示。深度學(xué)習(xí)方法不同于淺層學(xué)習(xí)方法,它將特征學(xué)習(xí)和分類識(shí)別結(jié)合在一起,不需要單獨(dú)提取出特征之后再進(jìn)行分類。集特征提取和分類識(shí)別于一體的深度神經(jīng)網(wǎng)絡(luò)模型近些年發(fā)展得比較快,比較典型的模型如表1所示?;谏疃葘W(xué)習(xí)技術(shù)的特征學(xué)習(xí)方法雖然對(duì)旋轉(zhuǎn)、平移和尺度變換都有著很強(qiáng)的魯棒性,但也有著所有特征提取方法共同的缺陷:易受到噪聲干擾。而且深度學(xué)習(xí)還需要大量的樣本進(jìn)行訓(xùn)練,如果樣本量太少,效果則不如別的方法好。

        Table 1 Facial expression recognition models

        基于深度神經(jīng)網(wǎng)絡(luò)的特征學(xué)習(xí)方法雖然是現(xiàn)在使用的主流特征提取方法,但它也不能完全替代傳統(tǒng)的手工提取方法,大部分研究者的做法是同時(shí)使用多種方法提取特征,然后進(jìn)行特征級(jí)融合,或者先對(duì)每個(gè)特征進(jìn)行分類識(shí)別,再進(jìn)行決策級(jí)融合。也有研究者先提取傳統(tǒng)的手工特征,再將這些特征融入到深度神經(jīng)網(wǎng)絡(luò)進(jìn)行特征再學(xué)習(xí)[29 - 31]。本文構(gòu)建的表情識(shí)別模型也提取了多種特征,并使用證據(jù)理論方法進(jìn)行決策級(jí)融合。

        3 面部表情特征提取

        每一幅面部表情圖像都來(lái)自于視頻中的一幀,在這幀圖像中,除了人的面部信息,還有大量的背景信息。在進(jìn)行特征提取時(shí),需要先進(jìn)行面部檢測(cè),只提取人物面部的特征。背景信息對(duì)人物情感識(shí)別沒(méi)有太大的幫助作用,需要剔除。本文采用開(kāi)源的人臉檢測(cè)算法DSFD(Dual Shot Face Detector)[32]來(lái)完成人臉檢測(cè),通過(guò)該算法,可以將視頻轉(zhuǎn)換成面部表情圖像序列。

        3.1 SA-DAE表情識(shí)別模型

        基于微視頻的表情識(shí)別,都是一個(gè)視頻對(duì)應(yīng)一個(gè)表情標(biāo)簽,不進(jìn)行單視頻幀標(biāo)注。大部分研究者在進(jìn)行面部表情特征提取時(shí),通常的做法是將整個(gè)視頻的表情標(biāo)簽?zāi)J(rèn)為每個(gè)幀的標(biāo)簽,再進(jìn)行深度神經(jīng)網(wǎng)絡(luò)模型訓(xùn)練。這樣做有很大的缺陷,會(huì)造成大量的圖像樣本標(biāo)注錯(cuò)誤。針對(duì)此種情況,本文將自適應(yīng)注意力模型與自編碼網(wǎng)絡(luò)相結(jié)合,構(gòu)建了一個(gè)SA-DAE(Self-Attention Deep AutoEncoder)模型。該模型不僅可以以非監(jiān)督方式提取面部表情特征,還能對(duì)傳統(tǒng)的卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行改進(jìn),在不增加參數(shù)規(guī)模的前提下,最大可能地獲取全局信息。

        本文構(gòu)建的SA-DAE網(wǎng)絡(luò)如圖1所示,該模型是對(duì)原始的自編碼網(wǎng)絡(luò)的一種改進(jìn),將原來(lái)的全連接層全部改成了卷積層或反卷積層,并在其中加入了自注意力層。模型訓(xùn)練好后,輸入一幅新的人臉圖像,經(jīng)過(guò)編碼網(wǎng)絡(luò)就能提取出該人臉的面部行為特征。

        Figure 1 SA-DAE network model圖1 SA-DAE網(wǎng)絡(luò)模型

        通過(guò)人臉檢測(cè)后,每個(gè)微視頻就轉(zhuǎn)換成了一個(gè)人臉圖像序列,然后將序列中每一幅人臉圖像輸入到已經(jīng)訓(xùn)練好的SA-DAE網(wǎng)絡(luò)中,根據(jù)自編碼網(wǎng)絡(luò)的特性,對(duì)每幀圖像進(jìn)行非監(jiān)督特征提取。

        3.2 自注意力機(jī)制

        卷積神經(jīng)網(wǎng)絡(luò)的核心是卷積操作,不同于全連接,它以局部感受野和權(quán)值共享為特點(diǎn),對(duì)某個(gè)區(qū)域進(jìn)行卷積操作時(shí),默認(rèn)只與周圍小范圍內(nèi)區(qū)域有關(guān),與其它部分無(wú)關(guān)。卷積操作的這種特性大大減少了參數(shù)量,加快了整個(gè)模型的運(yùn)行過(guò)程,因此相對(duì)于全連接層,實(shí)現(xiàn)卷積操作的卷積層一直是深度神經(jīng)網(wǎng)絡(luò)中的首選。但就因?yàn)檫@些特性,導(dǎo)致了卷積操作的弊端:會(huì)丟失一些空間上的關(guān)聯(lián)信息。如果一幅圖像中2個(gè)區(qū)域離得比較遠(yuǎn),但卻是相互關(guān)聯(lián)的,比如人臉具有對(duì)稱性,在進(jìn)行表情識(shí)別時(shí),左右眼角、左右嘴角是有空間聯(lián)系的,卷積操作忽略了這一個(gè)問(wèn)題,默認(rèn)這2個(gè)區(qū)域無(wú)關(guān)聯(lián),從而丟失一些至關(guān)重要的空間關(guān)聯(lián)信息。解決方法就是擴(kuò)大卷積核,但卷積核太大時(shí),參數(shù)量又會(huì)呈直線上升。為了在參數(shù)量和卷積范圍之間找到一個(gè)平衡,本文模型引入自注意力機(jī)制,該機(jī)制既考慮到了非局部卷積問(wèn)題,又考慮到了參數(shù)量問(wèn)題,具體實(shí)現(xiàn)如圖2所示。

        Figure 2 Flow chart of Self-Attention圖2 Self-Attention層實(shí)現(xiàn)流程

        經(jīng)過(guò)前一層的卷積操作后,會(huì)得到很多的卷積特征圖(Convolutional Feature Maps),在進(jìn)行下一層的卷積操作之前,SA-DAE模型將這些卷積特征圖輸入到一個(gè)自注意力層中,提取這些圖中包含的全局空間信息。實(shí)施細(xì)節(jié)主要包括:

        (1)自注意力層的輸入是該批次所有圖像卷積操作后得到的特征圖X∈RN×C×H×W,是一個(gè)4維的張量,其中,N和C分別表示圖像的批次大小和通道數(shù)量,H和W分別表示每幅特征圖的高度和寬度。自注意力層將每幅特征圖分別進(jìn)行f(x)、g(x)和h(x)變換,這3種變換都是普通的1×1卷積,差別只在于輸出通道數(shù)量不同。變換之后再分別進(jìn)行Reshape操作,即將特征圖進(jìn)行序列化,張量由4維變成3維,以便于后繼的矩陣運(yùn)算。這一階段的操作如式(1)所示:

        F=Reshape(f(x))=Reshape(Wfx)

        G=Reshape(g(x))=Reshape(Wgx)

        H=Reshape(h(x))=Reshape(Whx)

        (1)

        其中,x∈RW×H表示單幅圖像卷積后的特征圖,Wf、Wg和Wh分別表示3種卷積變換時(shí)的權(quán)值參數(shù),F(xiàn)、G和H分別表示此階段3種操作后得到的3個(gè)張量。

        (2)接著,自注意力層將張量F的后2維進(jìn)行轉(zhuǎn)置,并和張量G進(jìn)行張量相乘,這步操作主要用來(lái)計(jì)算特征圖任意2個(gè)位置之間的信息相關(guān)性,然后再通過(guò)Softmax函數(shù)進(jìn)行歸一化。這個(gè)階段操作公式如式(2)所示:

        S=Softmax(FT·G)

        (2)

        其中S∈RN×HW×HW為歸一化后的相關(guān)性張量。

        (3)最后,將H和S進(jìn)行張量相乘,主要作用是將計(jì)算出的信息相關(guān)性作為權(quán)重加權(quán)到原位置的特征信息上,隨后通過(guò)Reshape變換將3維的結(jié)果張量恢復(fù)成4維,得到自注意力特征圖(Self-Attention Feature Maps)。最終模型把全局空間信息和局部鄰域信息整合到一起,融合得到加入了注意力機(jī)制的特征圖。此階段的操作如式(3)所示:

        O=X+γ(Reshape(H·S))

        (3)

        其中,X表示自注意力層的原始輸入,O表示自注意力層的輸出。自注意力層的最終輸出兼顧了局部鄰域信息和全局空間相關(guān)信息,這里引入了一個(gè)參數(shù)γ作為平衡因子,表示全局空間相關(guān)信息相對(duì)于鄰域信息所占的權(quán)重,γ剛開(kāi)始時(shí)初始化為0,為的是讓模型首先關(guān)注鄰域信息,之后隨著訓(xùn)練的迭代,再慢慢把權(quán)重變大,讓模型更多地關(guān)注到范圍更廣的全局空間相關(guān)信息。

        4 表情自動(dòng)識(shí)別模型

        4.1 Dempster-Shafer證據(jù)理論融合策略

        不同的特征表征著不同的辨別信息,將這些信息的分類結(jié)果進(jìn)行融合,可以有效地互補(bǔ)。本文除了使用SA-DAE網(wǎng)絡(luò)自動(dòng)提取面部表情特征,還通過(guò)其它成熟的特征提取算法提取了一些傳統(tǒng)的手工特征,如LBP-TOP、HOG和DSIFT等,使用不同的特征進(jìn)行分類會(huì)得到不同的分類結(jié)果,這就需要采用信息融合方法對(duì)不同的分類結(jié)果進(jìn)行融合。

        某一個(gè)樣本應(yīng)該分在哪一類,這是不確定的,同一個(gè)樣本,通過(guò)不同的特征信息進(jìn)行分類,也有可能分在完全不同的類。這種模式分類的不確定性和模糊性,剛好與不確定性推理原理相吻合,因此本文將不確定推理方法中的D-S(Dempster-Shafer)證據(jù)理論引入到分類結(jié)果融合策略中。

        在經(jīng)典的D-S證據(jù)理論中,Θ表示識(shí)別框架,它包含了n個(gè)不相容的命題,數(shù)學(xué)符號(hào)表示為Θ={Aj│1≤j≤n},Ω=2Θ是Θ的冪集,函數(shù)m:2Θ→[0,1]將所有命題的冪集全部映射到一個(gè)概率值(取值為0~1),滿足下列2個(gè)條件:

        m(Φ)=0

        (4)

        (5)

        其中,函數(shù)m()稱為基本概率分配BPA(Basic Probability Assignment)函數(shù),也稱為mass函數(shù)。Φ表示空集或Ω中不存在的命題,Ai表示Ω中的任意一個(gè)命題,m(Ai)表示在識(shí)別框架中證據(jù)對(duì)某個(gè)命題Ai的精確信任度,也可以認(rèn)為是證據(jù)在命題Ai處的概率。D-S證據(jù)理論的融合規(guī)則如下:

        (6)

        其中,Ai,Aj,Ak都表示任意一個(gè)命題,即Ai,Aj,Ak∈Θ, (m1⊕m2)(Ai)表示第1個(gè)證據(jù)和第2個(gè)證據(jù)在命題Ai處的融合。如果所有命題間都是相互獨(dú)立的,則在Ai處的融合概率就是2個(gè)證據(jù)的概率乘積,即m1(A1)×m2(Ai),如果2個(gè)命題有交集(即Aj∩Ak=Ai,例如復(fù)合表情間就存在交集),且交集為命題Ai,則在Ai處的融合概率是所有相交元素的概率乘積之和。α表示歸一化因子,反映了證據(jù)之間的沖突程度,計(jì)算公式如式(7)所示:

        (7)

        其中,Aj∩Ak=?表示2種命題間無(wú)交集(相互獨(dú)立),則二者的mass函數(shù)值乘積就可以用來(lái)衡量證據(jù)間的沖突程度。當(dāng)α趨近于0時(shí),表示兩證據(jù)之間無(wú)沖突,可以完全融合;反之,當(dāng)α趨近于1時(shí),表示兩證據(jù)之間高度沖突,融合效果會(huì)很差。

        Figure 3 Model for multi-feature facial expression recognition圖3 多特征面部表情識(shí)別模型

        在具體的表情識(shí)別模型中,每個(gè)命題即是一種表情類別,每個(gè)特征即為一個(gè)證據(jù)。mass函數(shù)則代表某個(gè)特征對(duì)某種表情的信任度,即在某種特征下,視頻被分為該類表情的概率。在本文提出的表情自動(dòng)識(shí)別模型中,先利用隨機(jī)森林算法對(duì)每個(gè)特征分別進(jìn)行分類,每個(gè)特征的分類結(jié)果為一個(gè)7維的概率向量,向量中的每個(gè)值表示視頻在該特征情況下分類為某種表情類別的概率。如果有m個(gè)特征,則最終的分類結(jié)果為一個(gè)m×7的矩陣。模型再通過(guò)D-S證據(jù)理論的融合規(guī)則,把多個(gè)不同的分類結(jié)果向量融合成一個(gè)概率向量。

        4.2 表情識(shí)別總體模型

        表情的自動(dòng)識(shí)別,需要經(jīng)過(guò)人臉檢測(cè)、特征提取、特征聚合、分類識(shí)別和結(jié)果融合等流程,本文將這些分散的模塊結(jié)合在一起,就構(gòu)成了一個(gè)全自動(dòng)表情識(shí)別模型,模型結(jié)構(gòu)如圖3所示。在經(jīng)過(guò)人臉檢測(cè)得到微視頻中人臉圖像序列后,該模型能自動(dòng)學(xué)習(xí)深度神經(jīng)網(wǎng)絡(luò)特征,也能提取一些傳統(tǒng)的手工特征;隨后通過(guò)一個(gè)長(zhǎng)短期記憶網(wǎng)絡(luò)LSTM(Long Short-Term Memory)將多個(gè)幀級(jí)特征聚合成視頻級(jí)特征,再分別經(jīng)過(guò)隨機(jī)森林分類得到不同特征的分類結(jié)果;最后經(jīng)過(guò)D-S證據(jù)理論對(duì)分類結(jié)果進(jìn)行融合后,即可得到最終的面部表情識(shí)別結(jié)果。

        5 實(shí)驗(yàn)結(jié)果及分析

        5.1 數(shù)據(jù)集

        本文在中國(guó)科學(xué)院自動(dòng)化研究所構(gòu)建的CHEAVD2.0數(shù)據(jù)庫(kù)上進(jìn)行了實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果與第2屆多模態(tài)情感識(shí)別競(jìng)賽(MEC 2017)的參賽結(jié)果進(jìn)行了對(duì)比。CHEAVD2.0數(shù)據(jù)庫(kù)的數(shù)據(jù)來(lái)源于影視劇中所截取的音視頻片段,每一個(gè)音視頻片段分別標(biāo)注為一些常見(jiàn)情感(高興、悲傷、生氣、驚訝、厭惡、擔(dān)心、焦慮)及中性情感中的一種。整個(gè)數(shù)據(jù)庫(kù)將被分為訓(xùn)練集、驗(yàn)證集和測(cè)試集3部分,在文獻(xiàn)[8]中,中國(guó)科學(xué)院自動(dòng)化研究所的研究者們對(duì)這個(gè)數(shù)據(jù)庫(kù)的建庫(kù)過(guò)程、數(shù)據(jù)來(lái)源和數(shù)據(jù)劃分進(jìn)行了詳細(xì)的說(shuō)明。同時(shí),他們對(duì)庫(kù)中的每一段音視頻也進(jìn)行了特征提取和分類,并將分類結(jié)果作為該庫(kù)的基線水平,以便其它研究者進(jìn)行對(duì)比分析。由于本文未收集到測(cè)試集的標(biāo)簽,因此本文用訓(xùn)練集來(lái)進(jìn)行整個(gè)表情識(shí)別模型的訓(xùn)練,用驗(yàn)證集來(lái)驗(yàn)證模型的性能。在進(jìn)行SA-DAE模型訓(xùn)練時(shí),本文使用了遷移學(xué)習(xí)方法,先用大型人臉庫(kù)CeleA進(jìn)行初步訓(xùn)練,訓(xùn)練出來(lái)的模型參數(shù)再用CHEAVD2.0數(shù)據(jù)庫(kù)進(jìn)行微調(diào)。

        5.2 評(píng)價(jià)指標(biāo)

        考慮到樣本數(shù)據(jù)分布的不均衡性,本文以宏觀平均精確度MAP(Macro Average Precision)作為模型的第1評(píng)價(jià)指標(biāo),以分類準(zhǔn)確度ACC(Accuracy)作為第2評(píng)價(jià)指標(biāo)。2個(gè)評(píng)價(jià)指標(biāo)的公式如式(8)~式(10)所示:

        (8)

        (9)

        (10)

        其中,s表示表情的類別數(shù),Pi表示第i類表情的分類準(zhǔn)確度,TPi和FPi分別表示在第i類表情上分類正確的樣本數(shù)量和分類錯(cuò)誤的樣本數(shù)量。

        5.3 實(shí)驗(yàn)結(jié)果分析

        針對(duì)每一個(gè)視頻,本文分別提取了SA-DAE、CNN、DSIFT、HOG、HOG-LBP和LBP-TOP 6種特征。其中CNN特征是采用VGG網(wǎng)絡(luò)模型經(jīng)有監(jiān)督訓(xùn)練提取出來(lái)的特征,HOG-LBP特征是仿照LBP-TOP算法提取出來(lái)的特征,由xy面的HOG特征與yz、xz的LBP特征串聯(lián)而成。各特征在驗(yàn)證集上的分類結(jié)果如表2所示。

        Table 2 Feature classification and recognition results on verification set

        各特征提取出來(lái)后都通過(guò)隨機(jī)森林算法進(jìn)行分類,在驗(yàn)證集上的分類結(jié)果如表2所示。其中,a表示隨機(jī)森林算法中決策樹(shù)的數(shù)量,b表示隨機(jī)森林算法中決策樹(shù)的深度,針對(duì)不同的特征,這2個(gè)參數(shù)的取值并不相同,需要在訓(xùn)練集上進(jìn)行交叉搜索訓(xùn)練得到。

        根據(jù)結(jié)果顯示,在宏觀平均精確度(MAP)評(píng)價(jià)指標(biāo)上,SA-DAE特征的分類效果優(yōu)于其它特征的,但在分類準(zhǔn)確度(ACC)的評(píng)價(jià)指標(biāo)上,SA-DAE特征和傳統(tǒng)的DSIFT、HOG特征,分類效果沒(méi)有太大的差別。

        在決策級(jí)融合階段,本文先將所有的特征按照分類準(zhǔn)確度從高到低進(jìn)行了排序,然后將準(zhǔn)確度最高的SA-DAE特征作為基礎(chǔ),按照順序?qū)⑵渌卣髦痦?xiàng)融合進(jìn)來(lái)。SA-DAE、DSIFT和HOG 3個(gè)特征融合之后,分類效果有了較大的提升,但融合進(jìn)第4個(gè)特征后,分類效果出現(xiàn)了下降,因此本文又以SA-DAE+DSFIT+HOG的融合特征作為基礎(chǔ),與剩下的特征進(jìn)行窮舉組合,最終得到不同特征融合的分類結(jié)果,如表3所示。在宏觀平均精確度(MAP)評(píng)價(jià)指標(biāo)上,SA-DAE、DSIFT、HOG、HOG-LBP 4種特征的證據(jù)理論融合效果最好,達(dá)到了53.39%,在分類準(zhǔn)確度(ACC)的評(píng)價(jià)指標(biāo)上,SA-DAE、DSIFT、HOG、HOG-LBP和CNN 5種特征融合效果優(yōu)于其它特征融合策略的。

        Table 3 Feature fusion classification and recognition results on verification set

        最后,本文將提出的表情識(shí)別模型也應(yīng)用到了數(shù)據(jù)庫(kù)的測(cè)試集上,并根據(jù)數(shù)據(jù)庫(kù)提供方反饋的識(shí)別結(jié)果,與數(shù)據(jù)庫(kù)的分類識(shí)別基線水平進(jìn)行了對(duì)比(如表4所示),本文提出的模型不管是在驗(yàn)證集上還是在測(cè)試集上,識(shí)別準(zhǔn)確度都取得了不錯(cuò)的效果,遠(yuǎn)遠(yuǎn)超過(guò)了基線水平。

        Table 4 Classification and recognition results on verification set and test set

        6 結(jié)束語(yǔ)

        本文結(jié)合深度自編碼網(wǎng)絡(luò)、自注意力模型和D-S證據(jù)理論,構(gòu)建了一個(gè)表情自動(dòng)識(shí)別模型。實(shí)驗(yàn)結(jié)果顯示,該模型提取的非監(jiān)督深度學(xué)習(xí)特征的分類效果優(yōu)于其它特征的。在多特征分類結(jié)果融合方面,該模型也取得了不錯(cuò)的成績(jī),識(shí)別效果遠(yuǎn)遠(yuǎn)高于基線水平。但是,模型識(shí)別的準(zhǔn)確度還遠(yuǎn)遠(yuǎn)落后于人類肉眼的識(shí)別能力,表情自動(dòng)識(shí)別在現(xiàn)實(shí)生活中的應(yīng)用,還有很長(zhǎng)的一段路要走。

        猜你喜歡
        特征提取分類深度
        分類算一算
        深度理解一元一次方程
        基于Gazebo仿真環(huán)境的ORB特征提取與比對(duì)的研究
        電子制作(2019年15期)2019-08-27 01:12:00
        分類討論求坐標(biāo)
        深度觀察
        深度觀察
        深度觀察
        數(shù)據(jù)分析中的分類討論
        教你一招:數(shù)的分類
        一種基于LBP 特征提取和稀疏表示的肝病識(shí)別算法
        久久精品国产亚洲av热明星| 狠狠丁香激情久久综合| 蜜桃av无码免费看永久| 免费在线国产不卡视频| 亚洲精品无码永久在线观看 | 亚洲av午夜一区二区三| 2018国产精华国产精品| 亚洲午夜精品久久久久久一区| av一区二区不卡久久| 亚洲午夜精品一区二区麻豆av| 少妇下面好紧好多水真爽播放| 无码专区中文字幕DVD| 我和丰满老女人性销魂| 亚洲悠悠色综合中文字幕| 亚洲精品无amm毛片| 日韩成人精品在线| 久久蜜桃一区二区三区| 曰批免费视频播放免费 | 一区二区视频网站在线观看| 丰满少妇在线播放bd| 人妻激情另类乱人伦人妻| 欧美国产日本精品一区二区三区| 免费女同毛片在线不卡| 国产精品毛片无遮挡高清| 国产一女三男3p免费视频| 亚洲一区二区三区精品网| 国产亚洲精品一品二品| 少妇愉情理伦片| 成人国产午夜在线视频| 久久精品人妻嫩草av蜜桃| 日本在线观看一区二区三| 久久99热久久99精品| 国产亚洲欧美另类久久久| 久久精品亚洲94久久精品| 久久久亚洲精品无码| 超91精品手机国产在线| 人妻乱交手机在线播放| 韩国三级在线观看久| 国产精品亚洲一区二区无码| 久久婷婷国产五月综合色| 婷婷久久国产综合精品|