亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于深度可分離卷積的人臉表情識(shí)別

        2021-05-20 07:02:16李春虹
        關(guān)鍵詞:識(shí)別率人臉卷積

        李春虹,盧 宇

        (四川師范大學(xué) 計(jì)算機(jī)科學(xué)學(xué)院,四川 成都 610101)

        0 引 言

        近年來,深度學(xué)習(xí)在圖像處理等領(lǐng)域的發(fā)展,豐富了人臉表情識(shí)別研究,使人臉表情識(shí)別成為計(jì)算機(jī)視覺、模式識(shí)別領(lǐng)域的研究熱點(diǎn)[1,2]。但現(xiàn)有主流的人臉表情識(shí)別模型往往存在泛化能力不足、識(shí)別率不高等問題,其主要原因是:當(dāng)數(shù)據(jù)集處于復(fù)雜環(huán)境下時(shí),容易受到人臉的姿勢(shì)、遮擋及光照背景等與表情識(shí)別無關(guān)的非重要因素影響。為此,Wen等[3]提出利用人臉表情相關(guān)區(qū)域引導(dǎo)網(wǎng)絡(luò)學(xué)習(xí)表情特征,從而減少與表情無關(guān)的非相關(guān)因素影響,但該模型只能達(dá)到基準(zhǔn)精度。Jung等[4]提出利用兩個(gè)淺層的基分類器分別提取圖像的不同特征信息,但只適用于少樣本數(shù)據(jù)集。Kim等[5]通過融合多個(gè)深度CNN的基分類結(jié)果進(jìn)行指數(shù)加權(quán)決策融合來判定人臉表情類型。但是該方法復(fù)雜的網(wǎng)絡(luò)結(jié)構(gòu)和連接方式使得訓(xùn)練過程相當(dāng)繁瑣。

        因此,本文研究一種即可以簡化網(wǎng)絡(luò)結(jié)構(gòu)又能夠較好地提高復(fù)雜環(huán)境下表情識(shí)別精度的方法,即基于深度可分離卷積的人臉表情識(shí)別(depthwise separable convolution-based facial expression recognition,DSC-FER)。首先,該方法結(jié)合相關(guān)全卷積神經(jīng)網(wǎng)絡(luò)理論,通過構(gòu)建人臉分割網(wǎng)絡(luò)提取出人臉表情中感興趣區(qū)域。其次,利用深度可分離卷積構(gòu)建VGG19和ResNet18基分類器,提取不同特征信息。最后,采用聯(lián)合微調(diào)方法融合基分類器進(jìn)行人臉表情識(shí)別。實(shí)驗(yàn)結(jié)果表明,與文獻(xiàn)[6-12]相比,該方法能有效地提高人臉表情識(shí)別算法的魯棒性和識(shí)別率。

        1 理論基礎(chǔ)

        1.1 卷積神經(jīng)網(wǎng)絡(luò)

        至AletNet網(wǎng)絡(luò)提出以來,隨著十幾年的發(fā)展,卷積神經(jīng)網(wǎng)絡(luò)已經(jīng)成功應(yīng)用于計(jì)算機(jī)視覺等相關(guān)任務(wù)中,它是有效提取深度圖像特征的深度學(xué)習(xí)模型,主要包含卷積層、池化層、激活函數(shù)、損失函數(shù)等[13]。卷積層是由若干卷積核組成,主要通過卷積操作實(shí)現(xiàn)局部特征響應(yīng),使用相同卷積核掃描整個(gè)圖像進(jìn)行特征提取。卷積層進(jìn)行卷積操作公式如下

        (1)

        式中:C(x,y)=Fk×l?Gu×n為卷積操作,F(xiàn)k×l是大小為k×l的卷積核,Gu×n是u×n的輸入矩陣,C是卷積后的輸出矩陣,?x∈[0,u),?y∈[0,n)。

        池化層是對(duì)特征進(jìn)行聚合統(tǒng)計(jì),目的是提高特征的表征能力、減少特征維度。一般常用池化層有:隨機(jī)池化、平均池化和最大池化。最大值池化取池化域中的最大特征值,最大池化公式如下

        (2)

        平均池化即取池化域中的特征均值,公式如下

        (3)

        式中:S(x,y)=Fs×tGu×n為最大池化操作,M(x,y)=Fs×tGu×n為平均池化操作,F(xiàn)s×t是大小為s×t的池化核,Gu×n是大小為u×n的輸入矩陣。

        激活函數(shù)定義請(qǐng)參見文獻(xiàn)[13]。其中,Softmax函數(shù)是將神經(jīng)元映射到(0,1)區(qū)間。Relu函數(shù)收斂速度比sigmoid函數(shù)和tanh函數(shù)快,是最簡單的激活函數(shù),解決了梯度消失問題,并使模型的收斂速度保持穩(wěn)定狀態(tài)。Relu函數(shù)公式如下

        F(x)=Max(0,x)

        (4)

        式中:F(x)為Relu激活函數(shù),當(dāng)x<0時(shí),F(xiàn)(x)=0; 當(dāng)x∈[0,x],F(xiàn)(x)=x。

        損失函數(shù)定義請(qǐng)參見文獻(xiàn)[13],其中均方誤差損失函數(shù)公式如下

        (5)

        式中:y表示樣本真實(shí)標(biāo)簽,y′表示樣本預(yù)測(cè)標(biāo)簽,N表示樣本個(gè)數(shù)。

        1.2 模型融合

        模型融合是將多個(gè)基分類網(wǎng)絡(luò)解決同一任務(wù)的結(jié)果進(jìn)行整合,以提高模型的泛化能力,目前已經(jīng)被廣泛地運(yùn)用在機(jī)器學(xué)習(xí)的多個(gè)領(lǐng)域。模型融合關(guān)鍵的問題是考慮如何更好地融合基分類模型。常見的融合方式有投票法、加權(quán)求和、bagging、boosting、stacking等,其中最常用的是加權(quán)求和

        Yi=αpi+(1-α)qi, 0≤α≤1

        (6)

        式中:pi,qi分別是不同的基學(xué)習(xí)網(wǎng)絡(luò)輸出值,Yi是最終預(yù)測(cè)值,i=1,…c,c是類別總個(gè)數(shù),參數(shù)α是權(quán)值。加權(quán)求和的優(yōu)點(diǎn)是合適的參數(shù)α能夠提升模型的識(shí)別率和泛化能力,缺點(diǎn)是無法最大限度地利用兩種模型性能。因此,本文采用聯(lián)合微調(diào)方式進(jìn)行融合,取得了比加權(quán)平均更好的效果。

        2 基于深度可分離卷積的人臉表情識(shí)別方法

        本文依托VGG19和ResNet18經(jīng)典模型,構(gòu)建了DSC-FER方法的流程如圖1所示,它主要分成預(yù)訓(xùn)練、表情識(shí)別模型兩部分,其中預(yù)訓(xùn)練包含RROI部分和基分類模型,表情識(shí)別模型中灰色框表示凍結(jié)訓(xùn)練好的網(wǎng)絡(luò)權(quán)重值。

        圖1 DSC-FER模型描述

        2.1 本文算法實(shí)現(xiàn)

        算法描述如下

        算法1: DSC-FER方法

        輸入: 數(shù)據(jù)集D=(X,Y) 以及參數(shù)Time、θ; //X為輸入圖像集合、Y為類別標(biāo)簽集合、Time代表最大訓(xùn)練次數(shù)、θ表示損失函數(shù)收斂的一個(gè)閾值

        輸出: 人臉表情識(shí)別模Ω;

        步驟1 從已有數(shù)據(jù)集D1中劃分出訓(xùn)練集Ts1, 測(cè)試集Te1;

        步驟2 (1) Fori=1 To len(Ts1)

        根據(jù)Dlib提取面部標(biāo)識(shí), 裁剪相應(yīng)區(qū)域, 并生成mask實(shí)例;

        添加mask到MS集合中;

        End For

        (2)以Ts1為源數(shù)據(jù)、MS為源標(biāo)簽訓(xùn)練RROI網(wǎng)絡(luò);

        步驟3 (1)利用訓(xùn)練好的RROI, 對(duì)數(shù)據(jù)集D提取ROI, 再劃分出訓(xùn)練集Ts, 測(cè)試集Te;

        (2) 隨機(jī)初始化基分類模型Ω1和Ω2的所有參數(shù); //VGG19為Ω1, ResNet18為Ω2

        (3)取出訓(xùn)練集Ts中所有實(shí)例Xa作為輸入, 分別輸入到Ω1和Ω2中, 計(jì)算的圖像特征;

        (4)記所有的預(yù)測(cè)標(biāo)簽為y′, 真實(shí)標(biāo)簽為y;

        (5)如式(11)所示, 采用交叉熵公式作為Ω1、 Ω2的損失函數(shù)Li;

        (6)利用梯度下降法反向傳播Li值, 調(diào)整Ω1、 Ω2中的參數(shù);

        (7)if(Time>0||Li>θ)

        Time=Time-1

        轉(zhuǎn)至(3), 繼續(xù)訓(xùn)練基分類網(wǎng)絡(luò)

        End if

        (8)輸出當(dāng)前訓(xùn)練好的基分類網(wǎng)絡(luò)模型Ω1、 Ω2;

        步驟4 采用聯(lián)合微調(diào)方法, 如式(10)-式(12)所示, 融合基模型Ω1、 Ω2得到最終面部表情識(shí)別模型Ω;

        步驟5 輸出人臉表情識(shí)別模型Ω, 算法停止。

        上述DSC-FER算法的主要思想是:首先,利用實(shí)例生成mask分別做訓(xùn)練數(shù)據(jù)和標(biāo)簽訓(xùn)練RROI網(wǎng)絡(luò)生成感興趣區(qū)域ROI(region of interest,ROI)數(shù)據(jù)集;其次,采用深度可分離卷積代替二維卷積分別訓(xùn)練出基分類網(wǎng)絡(luò)模型;最后,利用聯(lián)合微調(diào)方法融合基分類模型。

        2.2 預(yù)訓(xùn)練

        在開始訓(xùn)練表情識(shí)別模型之前,需要先對(duì)兩個(gè)基分類網(wǎng)絡(luò)模型進(jìn)行預(yù)訓(xùn)練。先利用RROI網(wǎng)絡(luò)提取人臉表情感興趣區(qū)域,再利用pytorch深度學(xué)習(xí)框架和VGG19與Resnet18基分類網(wǎng)絡(luò)結(jié)構(gòu)(參照文獻(xiàn)[14]中圖3的結(jié)構(gòu))分別建立深度學(xué)習(xí)網(wǎng)絡(luò),其中兩個(gè)基分類網(wǎng)絡(luò)中的每層卷積均由深度可分離卷積代替并在其后均添加BN層和Relu層,目的是加快網(wǎng)絡(luò)的訓(xùn)練速度及避免梯度消失。最后,利用交叉熵?fù)p失函數(shù)分別計(jì)算出VGG19和Resnet18基分類網(wǎng)絡(luò)預(yù)測(cè)值與訓(xùn)練集真實(shí)標(biāo)簽之間的誤差值,并將該值作為模型損失值回傳給對(duì)應(yīng)的基分類網(wǎng)絡(luò),利用梯度下降法反向傳播,更新網(wǎng)絡(luò)參數(shù)。

        2.2.1 RROI網(wǎng)絡(luò)

        RROI(recognition region of interest)是一個(gè)基于u-net[15]語義分割算法的人臉分割網(wǎng)絡(luò),其中u-net是個(gè)端到端的U型全卷積網(wǎng)絡(luò)結(jié)構(gòu),不同于傳統(tǒng)CNN,該網(wǎng)絡(luò)用卷積層代替全連接層,使結(jié)構(gòu)分為編碼器、解碼器兩部分。其中編碼器由3次下卷積層組成,其中一個(gè)下卷積層包括2個(gè)卷積層和1個(gè)最大池化層,主要用于提取深層次特征;解碼器包含3次反卷積層,其中一個(gè)反卷積層包括1個(gè)反卷積、1個(gè)連接操作和2個(gè)卷積層,主要用于對(duì)特征映射進(jìn)行上采樣,其網(wǎng)絡(luò)結(jié)構(gòu)如圖2所示。

        圖2 RROI網(wǎng)絡(luò)結(jié)構(gòu)

        RROI目的是提取出人臉圖像中與表情識(shí)別最相關(guān)的感興趣區(qū)域,使復(fù)雜環(huán)境因素對(duì)人臉表情分類影響降低、精簡網(wǎng)絡(luò)結(jié)構(gòu),提高識(shí)別精度。本文的做法是:首先,人臉檢測(cè)并提取現(xiàn)有的實(shí)例中的人臉特征點(diǎn),根據(jù)68個(gè)特征點(diǎn)坐標(biāo)構(gòu)成的凸包裁剪出ROI區(qū)域,將ROI區(qū)域處理成Mask圖像作為網(wǎng)絡(luò)的訓(xùn)練標(biāo)簽,原始人臉圖像作為網(wǎng)絡(luò)的訓(xùn)練數(shù)據(jù);其次,利用編碼器提取出圖像的特征,再利用解碼器上采樣學(xué)習(xí)補(bǔ)充信息;最后,使用二維卷積將每個(gè)特征向量映射到所需數(shù)量的類。

        2.2.2 深度可分離卷積

        自2013年Sifre提出卷積層通道間相關(guān)性和空間相關(guān)性是可解耦合性的,深度可分離卷積已經(jīng)是很多高效神經(jīng)網(wǎng)絡(luò)框架實(shí)現(xiàn)模型輕量化的關(guān)鍵構(gòu)建塊,主要由深度卷積和逐點(diǎn)卷積兩部分組成。其中,深度卷積是對(duì)輸入的每個(gè)通道上單獨(dú)執(zhí)行通道卷積,將普通卷積在空間上分離;逐點(diǎn)卷積是應(yīng)用1×1卷積將深度卷積的特征圖譜映射成新特征。公式表示如下

        S(x,y)=P(Fp,D(Fd,G))

        (7)

        (8)

        (9)

        式中:D(x,y) 是深度卷積操作,P(x,y) 為逐點(diǎn)卷積操作,F(xiàn)p是大小為1×1的卷積核,F(xiàn)d是大小為k×l的卷積核,G是大小為u×n的輸入矩陣,m為通道數(shù)。

        與普通卷積相比,當(dāng)在H×W×N的特征圖上使用卷積核大小為k×k、深度為d的標(biāo)準(zhǔn)卷積操作時(shí),計(jì)算參數(shù)量為:H×W×N×k×k×d,而深度可分離卷積的計(jì)算參數(shù)量為:H×W×N×(k×k+d)。 由此可見,標(biāo)準(zhǔn)卷積的參數(shù)量是深度可分離卷積的k×k×d/(k×k+d) 倍。

        2.3 聯(lián)合微調(diào)

        本文采用聯(lián)合微調(diào)的方式代替加權(quán)求和整合基分類模型,如圖1中所示。首先,VGG19和Resnet18兩個(gè)基分類網(wǎng)絡(luò)使用相同訓(xùn)練數(shù)據(jù)集完成預(yù)訓(xùn)練階段;其次,在表情識(shí)別模型中重用預(yù)訓(xùn)練好的兩個(gè)基分類網(wǎng)絡(luò),并將兩個(gè)基分類網(wǎng)絡(luò)提取的特征重新構(gòu)建成特征ξ3;最后,特征ξ3輸入到both網(wǎng)絡(luò)進(jìn)行再訓(xùn)練分類,其中both是由一個(gè)全連接層和softmax函數(shù)組成的網(wǎng)絡(luò),并使用dropout方法減少過擬合。

        在訓(xùn)練步驟中使用了3個(gè)損失函數(shù),并定義DSC-FER的損失函數(shù)LDSC-FER為

        LDSC-FER=λ1L1+λ2L2+λ3L3

        (10)

        式中:L1,L2,L3分別是VGG19,Resnet18,both的交叉熵?fù)p失函數(shù)值,λ1,λ2,λ3是平衡系數(shù),其值的大小決定了聯(lián)合微調(diào)方法對(duì)模型的影響程度,通常λ1=λ2, 0<λ3<λ1,λ2<1。 本文實(shí)驗(yàn)中設(shè)置λ1,λ2,λ3分別為1,1,0.1。其中,交叉熵?fù)p失函數(shù)如下

        (11)

        式中:yj表示第j類的真實(shí)標(biāo)簽,pj表示樣本y屬于j類的概率,N表示總樣本個(gè)數(shù),C表示樣本種類

        y=σ(ξ1⊕ξ2)

        (12)

        式中:y是both模型的輸出值,ξ1,ξ2分別是基分類網(wǎng)絡(luò)的特征,⊕是代表ξ1,ξ2特征串行連接,σ(x)是softmax函數(shù)。

        3 實(shí)驗(yàn)及結(jié)果分析

        3.1 數(shù)據(jù)集

        為了驗(yàn)證本文表情識(shí)別方法的有效性,采用FER-2013、CK+和JAFFE這3種經(jīng)典人臉表情識(shí)別數(shù)據(jù)集,三者均包含7個(gè)表情標(biāo)簽(憤怒、厭惡、恐懼、快樂、悲傷、驚訝、中性)。其中,F(xiàn)ER-2013數(shù)據(jù)集是由35 886張采集于不同復(fù)雜環(huán)境因素下的人臉表情圖像。CK+數(shù)據(jù)集包含123個(gè)用戶的327個(gè)連續(xù)表情幀,由于連續(xù)幀之間相關(guān)性較強(qiáng)、數(shù)據(jù)冗余,因此本文選取每個(gè)表情峰值最高的最后3幀圖片,共981張表情圖像。JAFFE數(shù)據(jù)集提供了10名日本女生的7種不同表情,共214張表情圖像。

        3.2 數(shù)據(jù)增強(qiáng)

        在訓(xùn)練表情識(shí)別網(wǎng)絡(luò)之前,為了防止網(wǎng)絡(luò)過快地過擬合進(jìn)行數(shù)據(jù)增強(qiáng):在訓(xùn)練階段,將圖像隨機(jī)裁剪成44×44像素大小,并以0.5的概率隨機(jī)水平翻轉(zhuǎn)擴(kuò)大數(shù)據(jù)集。

        3.3 評(píng)價(jià)準(zhǔn)則

        為了說明本文所提出算法的有效性,實(shí)驗(yàn)結(jié)果采用的評(píng)價(jià)準(zhǔn)則為識(shí)別率。一般來說,模型的識(shí)別率越高表示識(shí)別效果越好。識(shí)別率公式如下所示

        (13)

        式中:定義數(shù)據(jù)集(X,Y),X,Y分別表示數(shù)據(jù)集的實(shí)例和標(biāo)簽,Y′表示利用模型訓(xùn)練出來的預(yù)測(cè)標(biāo)簽,|Y|為總標(biāo)簽個(gè)數(shù)。當(dāng)Yi=Y′i為真時(shí),值為1,否則為0。

        3.4 RROI網(wǎng)絡(luò)實(shí)驗(yàn)結(jié)果

        在RROI人臉ROI區(qū)域分割網(wǎng)絡(luò)實(shí)驗(yàn)中,人臉圖像和Mask標(biāo)簽均處理成48×48像素大小,再將mask像素值歸一化到[0,1]之間。在FER-2013數(shù)據(jù)集上達(dá)95.52%分割率,CK+數(shù)據(jù)集上達(dá)96.63%,并對(duì)比RROI網(wǎng)絡(luò)分割效果與人臉特征點(diǎn)裁剪人臉區(qū)域效果如圖3所示,其中圖3(a)為人臉原始圖像,圖3(b)為對(duì)應(yīng)生成的mask標(biāo)簽,圖3(c)為根據(jù)特征點(diǎn)裁剪的結(jié)果圖,圖3(d)為經(jīng)過RROI網(wǎng)絡(luò)得到的結(jié)果圖,從圖得出RROI網(wǎng)絡(luò)具備與利用特征點(diǎn)裁剪人臉基本相同的分割效果。

        圖3 RROI效果

        3.5 與現(xiàn)有表情識(shí)別算法的對(duì)比實(shí)驗(yàn)

        在訓(xùn)練基分類網(wǎng)絡(luò)時(shí)采用隨機(jī)化初始權(quán)重和偏值,批大小設(shè)置為128,初始化學(xué)習(xí)率為0.01。

        FER-2013數(shù)據(jù)集利用訓(xùn)練集來訓(xùn)練模型權(quán)重參數(shù),將公共測(cè)試集作為驗(yàn)證集、將私有測(cè)試集作為最終測(cè)試集。然后,將DSC-FER方法在FER-2013數(shù)據(jù)集上的識(shí)別率與Liu、Guo、Yan和MSSD-KCF做實(shí)驗(yàn)對(duì)比,實(shí)驗(yàn)結(jié)果見表1。從表1中可知,DSC-FER方法的識(shí)別率達(dá)到了75.15%,比MSSD-KCF的識(shí)別率高出了2.15%,超過了其它網(wǎng)絡(luò)的識(shí)別率,并且比FER-2013數(shù)據(jù)集上的識(shí)別基準(zhǔn)線(71.2%)高出了3.95%。將DSC-FER方法的識(shí)別率與本文預(yù)訓(xùn)練的兩個(gè)基分類網(wǎng)絡(luò),可得出經(jīng)過聯(lián)合微調(diào)后該方法比基分類網(wǎng)絡(luò)平均高2.11%。實(shí)驗(yàn)結(jié)果表明了DSC-FER方法在人臉表情識(shí)別的有效性。

        表1 FER-2013數(shù)據(jù)集上不同識(shí)別方法準(zhǔn)確率對(duì)比

        DSC-FER方法在FER-2013數(shù)據(jù)集上的識(shí)別結(jié)果混淆矩陣見表2。從表2可以看出,高興和驚訝識(shí)別率較高分別達(dá)92%、84%,而憤怒、恐懼、悲傷3種表情識(shí)別率相對(duì)較低,憤怒中有13%識(shí)別成悲傷、恐懼中14%識(shí)別成悲傷、悲傷中11%識(shí)別成恐懼,如圖4所示,可知這3種表情確實(shí)容易相互混淆。

        表2 FER-2013識(shí)別結(jié)果混淆矩陣

        圖4 混淆表情實(shí)例

        同樣,DSC-FER方法在CK+數(shù)據(jù)集上采用10折交叉驗(yàn)證,并與DAGN、DTGN、MSCNN、WGAN和WMDNN不同模型的識(shí)別率做實(shí)驗(yàn)對(duì)比,實(shí)驗(yàn)結(jié)果見表3。從表3可以看出,DSC-FER方法的識(shí)別率達(dá)到了98.98%,比WMDNN的識(shí)別率高出了1.96%,且超過了其它網(wǎng)絡(luò)的識(shí)別率,將DSC-FER方法的識(shí)別率與本文預(yù)訓(xùn)練的兩個(gè)基分類網(wǎng)絡(luò),可得出經(jīng)過聯(lián)合微調(diào)后該方法比基分類網(wǎng)絡(luò)平均高4.63%。實(shí)驗(yàn)結(jié)果表明了聯(lián)合微調(diào)方法的有效性。

        表3 CK+數(shù)據(jù)集上不同識(shí)別方法準(zhǔn)確率對(duì)比

        DSC-FER方法在CK+數(shù)據(jù)集上的識(shí)別結(jié)果混淆矩陣見表4。從表4可以看出,該方法將驚訝表情中的4%識(shí)別為恐懼,因其數(shù)據(jù)集量較小且表情圖像噪聲較少,所以除驚訝表情外其它表情均能正確分類。

        表4 CK+識(shí)別結(jié)果混淆矩陣

        同樣,DSC-FER方法在JAFFE數(shù)據(jù)集上采用5折交叉驗(yàn)證,并與DCMA-CNNs、ROI-KNN和WGAN的識(shí)別率做實(shí)驗(yàn)對(duì)比,實(shí)驗(yàn)結(jié)果見表5。從表5可以看出,DSC-

        表5 JAFFE數(shù)據(jù)集上不同識(shí)別方法準(zhǔn)確率對(duì)比

        FER方法的識(shí)別率達(dá)到了97.14%,比WGAN的識(shí)別率高出了1.14%,與ROI-KNN的識(shí)別率只相差0.05%,幾乎持平。然而,將DSC-FER方法的識(shí)別率與本文預(yù)訓(xùn)練的兩個(gè)基分類網(wǎng)絡(luò),可得出經(jīng)過聯(lián)合微調(diào)后該方法比基分類網(wǎng)絡(luò)平均高6.49%,更能體現(xiàn)出聯(lián)合微調(diào)方法的有效性。

        DSC-FER方法在JAFFE數(shù)據(jù)集上的識(shí)別結(jié)果混淆矩陣見表6。從表6可以看出,因其數(shù)據(jù)集是少樣本數(shù)據(jù)集且表情圖像噪聲較少,最終該方法將恐懼表情中的部分識(shí)別為悲傷,悲傷錯(cuò)誤地識(shí)別成高興,所以除恐懼和悲傷表情以外其它表情均能正確分類。

        表6 JAFFE識(shí)別結(jié)果混淆矩陣

        3.6 分析平衡系數(shù)λ對(duì)DSC-FER分類效果的影響

        該實(shí)驗(yàn)?zāi)康氖茄芯糠治銎胶庀禂?shù)λ對(duì)DSC-FER分類效果的影響,并對(duì)比聯(lián)合微調(diào)和加權(quán)求和這兩種不同的融合

        方法的效果。對(duì)比表1和表3發(fā)現(xiàn)聯(lián)合微調(diào)方法在CK+數(shù)據(jù)集上提升效果更大,因此,實(shí)驗(yàn)采用CK+數(shù)據(jù)集作為平衡系數(shù)影響實(shí)驗(yàn)的研究對(duì)象,并將λ依次取值0.05、0.1、0.2、0.3、0.4、0.5、0.6。

        實(shí)驗(yàn)結(jié)果如圖5所示,從圖5中可以看出,在DSC-FER方法中聯(lián)合微調(diào)比加權(quán)求和能更好地融合基模型,從而提高表情識(shí)別精度。隨著平衡系數(shù)λ的增加,采用聯(lián)合微調(diào)的DSC-FER方法在λ值為0.1時(shí),模型準(zhǔn)確率達(dá)到最高,當(dāng)其值取0.05時(shí),模型融合不見成效使準(zhǔn)確率低于基模型達(dá)到最低,當(dāng)其值超過0.1時(shí),準(zhǔn)確率開始明顯下降;采用加權(quán)求和的DSC-FER方法在λ值為0.3時(shí),模型準(zhǔn)確率達(dá)到最高,當(dāng)其值小于0.3時(shí),模型準(zhǔn)確率不足,當(dāng)其值大于0.3時(shí),模型準(zhǔn)確率開始下降。實(shí)驗(yàn)結(jié)果表明了平衡系數(shù)λ對(duì)DSC-FER分類效果有很大的影響,當(dāng)λ值過小時(shí),不能達(dá)到較好的提升效果,當(dāng)λ值過大時(shí),模型準(zhǔn)確率下降,所以平衡系數(shù)λ的選擇對(duì)DSC-FER方法至關(guān)重要。

        圖5 平衡系數(shù)λ對(duì)DSC-FER分類效果的影響

        4 結(jié)束語

        人臉表情識(shí)別已經(jīng)被眾多領(lǐng)域廣泛關(guān)注,但在實(shí)際應(yīng)用環(huán)境下人臉表情很多是處于復(fù)雜環(huán)境下,從而導(dǎo)致表情識(shí)別泛化能力不足和識(shí)別精度問題。因此,本文利用人臉分割網(wǎng)絡(luò)和模型融合方法來提高模型的識(shí)別率和泛化能力,進(jìn)而提出一種基于深度可分離的人臉表情識(shí)別方法。通過構(gòu)建一個(gè)基于U型全卷積網(wǎng)絡(luò)的RROI網(wǎng)絡(luò),可以避免圖像處于較小像素和復(fù)雜環(huán)境下利用特征點(diǎn)不能分割的情況,分割出與表情識(shí)別最相關(guān)的面部區(qū)域;通過結(jié)合深度可分卷積優(yōu)點(diǎn)構(gòu)建兩個(gè)基分類網(wǎng)絡(luò),提升網(wǎng)絡(luò)對(duì)表情識(shí)別率的同時(shí)保證模型的計(jì)算量與內(nèi)存占用均為少量水平;其次通過聯(lián)合微調(diào)方法融合后,最終在CK+、FER-2013和JAFFE數(shù)據(jù)集上識(shí)別率分別達(dá)98.98%、75.15%、97.14%,將這3個(gè)經(jīng)典數(shù)據(jù)集與現(xiàn)有表情識(shí)別方法做實(shí)驗(yàn)對(duì)比,驗(yàn)證了DSC-FER方法的有效性;最后,本文對(duì)DSC-FER方法和加權(quán)求和方法中平衡系數(shù)λ進(jìn)行研究分析,驗(yàn)證了選擇適當(dāng)?shù)摩酥祵?duì)DSC-FER方法至關(guān)重要,聯(lián)合微調(diào)方法比加權(quán)求和方法在DSC-FER方法中更有效。在接下來的研究中,考慮采集人臉數(shù)據(jù)的成本問題,將進(jìn)行基于半監(jiān)督學(xué)習(xí)或無監(jiān)督學(xué)習(xí)的人臉表情識(shí)別。

        猜你喜歡
        識(shí)別率人臉卷積
        基于3D-Winograd的快速卷積算法設(shè)計(jì)及FPGA實(shí)現(xiàn)
        有特點(diǎn)的人臉
        基于類圖像處理與向量化的大數(shù)據(jù)腳本攻擊智能檢測(cè)
        從濾波器理解卷積
        電子制作(2019年11期)2019-07-04 00:34:38
        基于真耳分析的助聽器配戴者言語可懂度指數(shù)與言語識(shí)別率的關(guān)系
        三國漫——人臉解鎖
        提升高速公路MTC二次抓拍車牌識(shí)別率方案研究
        基于傅里葉域卷積表示的目標(biāo)跟蹤算法
        高速公路機(jī)電日常維護(hù)中車牌識(shí)別率分析系統(tǒng)的應(yīng)用
        馬面部與人臉相似度驚人
        日韩日韩日韩日韩日韩| 国产精品一区二区av白丝在线| 精品黄色一区二区三区| 中文字幕一区二区中出后入| 男人进去女人爽免费视频| 少妇太爽了在线观看免费视频| 最新永久免费AV网站| 日韩精品久久午夜夜伦鲁鲁| 99久久亚洲精品日本无码| 久久婷婷国产剧情内射白浆| av天堂线上| 99久久国产免费观看精品| 精品国产免费一区二区三区| 四虎成人精品无码永久在线| 水蜜桃一二二视频在线观看免费| 日本一区二区三级在线| 亚洲愉拍99热成人精品热久久 | 丝袜美女美腿一区二区| 丝袜美腿在线观看一区| 国产精品综合一区二区三区| 国产精品亚洲A∨天堂不卡| 精品中文字幕久久久人妻| 极品少妇xxxx精品少妇偷拍| 欧美成人一区二区三区| 91精品啪在线看国产网站| av中文字幕在线直播| 国产精品天堂avav在线| 欧美日韩国产成人高清视| 风韵丰满妇啪啪区老老熟女杏吧| 国产人成精品免费久久久| 久久丫精品国产亚洲av不卡| 日韩久久久久中文字幕人妻| 一区二区三区在线观看人妖| 免费看又色又爽又黄的国产软件| 欧美一片二片午夜福利在线快| 国产av一区网址大全| 国产在线播放一区二区不卡| 中文字幕日韩精品无码内射| a欧美一级爱看视频| 久久一区二区三区老熟女| 国产成人a人亚洲精品无码|