亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        深度寬殘差網(wǎng)絡(luò)注意力機(jī)制的人臉表情識(shí)別

        2023-02-27 07:27:14倪錦園張建勛張馨月
        關(guān)鍵詞:特征模型

        倪錦園,張建勛,張馨月

        (1.重慶理工大學(xué) 計(jì)算機(jī)科學(xué)與工程學(xué)院, 重慶 400054; 2.東北大學(xué)悉尼智能科技學(xué)院, 河北 秦皇島 066004)

        0 引言

        面部表情是人類(lèi)表達(dá)情感和想法最自然的方式之一,因此人臉表情識(shí)別在計(jì)算機(jī)視覺(jué)領(lǐng)域上一直是個(gè)熱門(mén)的研究課題。隨著相關(guān)領(lǐng)域的持續(xù)發(fā)展,人臉表情識(shí)別在檢測(cè)精神疾病、疲勞駕駛、人機(jī)交互、情感機(jī)器人、智能安保等諸多方面有著廣泛的應(yīng)用[1-3]。

        在早期的研究過(guò)程中,人臉面部表情的特征基本上是由手工提取,但是由于自然環(huán)境下面部表情易受遮擋,背景和姿勢(shì)等諸多因素的影響,導(dǎo)致識(shí)別的精度并不高[4]。近年來(lái),深度學(xué)習(xí)在圖像識(shí)別上取得了階段性突破成果,自從AlexNet[5]神經(jīng)網(wǎng)絡(luò)在ImageNet計(jì)算機(jī)視覺(jué)識(shí)別比賽上[6]取得了較好結(jié)果,深度學(xué)習(xí)就大幅應(yīng)用在計(jì)算機(jī)視覺(jué)領(lǐng)域中,kaya等[7]將目標(biāo)圖像特征和人工制作的Gabor二元模式特征結(jié)合起來(lái),提高了模型對(duì)特征提取的性能。Shi等[8]提出了一種基于多分支交叉連接卷積神經(jīng)網(wǎng)絡(luò)的人臉表情識(shí)別方法,該方法是基于殘差連接、網(wǎng)絡(luò)中網(wǎng)絡(luò)和樹(shù)結(jié)構(gòu)共同構(gòu)建的,它還為卷積輸出層的求和增加了快捷的交叉連接,使網(wǎng)絡(luò)間的數(shù)據(jù)流更加平滑,提高了每個(gè)感受域的特征提取能力。Kim等[9]用面部表情測(cè)器結(jié)合人臉面部的特征點(diǎn)降低了背景噪音的影響。

        雖然上述的多數(shù)研究都能夠提取特征,但仍存在著一定的缺陷,例如,人臉面部采集過(guò)程中易受到光照、背景和姿勢(shì)等因素的影響,導(dǎo)致模型在訓(xùn)練面部樣本集時(shí),特征提取能力不足,學(xué)習(xí)能力下降。深度學(xué)習(xí)模型的網(wǎng)絡(luò)層數(shù)也在一定程度上影響了分類(lèi)識(shí)別的精度,即隨著網(wǎng)絡(luò)層數(shù)的不斷增加,會(huì)出現(xiàn)梯度消失的現(xiàn)象,此時(shí)網(wǎng)絡(luò)模型出現(xiàn)過(guò)擬合,造成識(shí)別精度的下降。

        1 理論基礎(chǔ)

        為了緩解在深度神經(jīng)網(wǎng)絡(luò)中增加深度帶來(lái)的梯度消失問(wèn)題,引入了殘差學(xué)習(xí)單元,通過(guò)恒等映射調(diào)整輸入輸出的關(guān)系來(lái)解決深層網(wǎng)絡(luò)難以?xún)?yōu)化的情況,在ResNet殘差學(xué)習(xí)模塊中,若神經(jīng)網(wǎng)絡(luò)輸入為x,同時(shí)H(x)為最佳映射,經(jīng)過(guò)非線(xiàn)性卷積層去實(shí)現(xiàn)F(x)=H(x)-x,則自身的恒等映射表示為H(x)=F(x)+x。這種恒等映射就可以降低模型的復(fù)雜性和計(jì)算量,減緩了隨著層數(shù)堆疊造成的梯度消失等問(wèn)題,使得堆積層從輸入的圖像特征中更容易學(xué)習(xí)到新的特征,從而能夠獲得更優(yōu)的性能,也更容易優(yōu)化和訓(xùn)練,ResNet殘差學(xué)習(xí)模塊如圖1所示。

        圖1 ResNet殘差學(xué)習(xí)模塊

        2 本文方法

        2.1 整體架構(gòu)

        由于全連接神經(jīng)網(wǎng)絡(luò)層數(shù)過(guò)少會(huì)導(dǎo)致模型對(duì)目標(biāo)圖片的特征表達(dá)能力有限,過(guò)多則會(huì)出現(xiàn)梯度消失的現(xiàn)象,同時(shí)受到噪聲的影響,會(huì)導(dǎo)致模型提取人臉面部特征能力不足。結(jié)合以上問(wèn)題,設(shè)計(jì)了一種基于寬殘差網(wǎng)絡(luò)的注意力機(jī)制模型,包括優(yōu)化了順序的帶小卷積濾波器的寬殘差模塊,壓縮和自適應(yīng)校正網(wǎng)絡(luò)層,預(yù)激活殘差單元模塊,改進(jìn)的隨機(jī)擦除模塊等,模型的整體架構(gòu)如圖2所示。

        圖2 模型的整體架構(gòu)

        在預(yù)處理階段時(shí),通過(guò)翻轉(zhuǎn)、平移、旋轉(zhuǎn)、對(duì)比度歸一化等一系列措施對(duì)面部圖像進(jìn)行增強(qiáng)處理,然后通過(guò)改進(jìn)的Random Erasing方法對(duì)人臉表情進(jìn)行隨機(jī)擦除,增強(qiáng)了模型的泛化能力,而且提升了模型對(duì)遮擋和掩蓋的魯棒性。然后將預(yù)處理后的目標(biāo)圖片放入網(wǎng)絡(luò),首先進(jìn)入寬殘差網(wǎng)絡(luò)模塊,然后通過(guò)壓縮和自適應(yīng)校正網(wǎng)絡(luò)模塊對(duì)面部特征進(jìn)行提取,最后進(jìn)行分類(lèi)處理。

        2.2 深度寬殘差注意力模型

        該網(wǎng)絡(luò)輸入的目標(biāo)圖像大小為48×48,通道數(shù)為3,每個(gè)卷積層后面會(huì)有一個(gè)BN層和ReLU激活函數(shù)層,通過(guò)擴(kuò)增卷積層的通道數(shù),使模型每層卷積層能夠表達(dá)更多的特征信息。

        為了在一定程度上預(yù)防模型過(guò)擬合,在每個(gè)寬殘差注意力模塊后設(shè)有一個(gè)丟棄正則化Dropout,寬殘差模塊中的小型卷積核可以使模型進(jìn)行降維操作,BN層可以加快模型訓(xùn)練時(shí)的收斂速度并且有效防止梯度消失的情況。為了提高網(wǎng)絡(luò)的特征表示能力,在每個(gè)寬殘差模塊后面都設(shè)有一個(gè)壓縮和自適應(yīng)校正網(wǎng)絡(luò)模塊,寬殘差注意力模型如圖3所示。

        圖3 寬殘差注意力模型

        每10個(gè)寬殘差注意力模塊后,輸出的維度減半,通道數(shù)翻倍,然后通過(guò)Global-Ave-Pooling層降低過(guò)擬合的風(fēng)險(xiǎn)并減少了計(jì)算的參數(shù),最后通過(guò)Softmax層對(duì)圖片進(jìn)行分類(lèi)處理,類(lèi)別一共包含了生氣、厭惡、害怕、開(kāi)心、傷心、驚訝、中性7類(lèi),模型參數(shù)如表1所示。

        表1 模型參數(shù)

        2.3 改進(jìn)的小型濾波器的寬殘差網(wǎng)絡(luò)構(gòu)建

        傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)隨著網(wǎng)絡(luò)層數(shù)的增加,往往可以提取更多的特征信息,但是簡(jiǎn)單地堆砌神經(jīng)網(wǎng)絡(luò)層數(shù)容易出現(xiàn)梯度消失的情況,最終導(dǎo)致識(shí)別精度反而不如淺層網(wǎng)絡(luò)。通過(guò)殘差網(wǎng)絡(luò)在一定程度上可以改善該情況,但是傳統(tǒng)殘差網(wǎng)絡(luò)過(guò)于追求網(wǎng)絡(luò)的層數(shù),忽略了殘差單元模塊,所以隨著殘差模塊的疊加,模型的性能提升并不明顯。

        為解決上述問(wèn)題,提出了改進(jìn)的小型濾波器的寬殘差網(wǎng)絡(luò),對(duì)殘差模塊進(jìn)行改進(jìn),用卷積層的通道數(shù)乘以系數(shù)K來(lái)進(jìn)行擴(kuò)展,從而拓寬了卷積核,在參數(shù)量相同且實(shí)驗(yàn)結(jié)果達(dá)到同一準(zhǔn)確率的情況下[10],寬殘差網(wǎng)絡(luò)(WRN)的深度只有傳統(tǒng)殘差網(wǎng)絡(luò)的1/50,并且在訓(xùn)練速度上還有一定提升,但是模型寬度的增加會(huì)導(dǎo)致參數(shù)數(shù)量的增加,于是考慮使用小卷積濾波器,因?yàn)樾【矸e核濾波器相比于大卷積核,參數(shù)量明顯降低,模型的計(jì)算量也隨之下降,卷積核參數(shù)如表2所示。

        表2 卷積核參數(shù)

        因此在改進(jìn)WRN模塊過(guò)程中,在大卷積核后面加入一個(gè)小卷積濾波器來(lái)減少目標(biāo)圖片特征,達(dá)到對(duì)目標(biāo)圖片降維的作用,從而提高模型的訓(xùn)練速度。改進(jìn)的WRN模塊結(jié)構(gòu)如圖4所示。

        圖4 改進(jìn)的WRN模塊結(jié)構(gòu)

        改進(jìn)的WRN模塊結(jié)構(gòu)中,為預(yù)防模型過(guò)擬合現(xiàn)象,采用在小卷積濾波器后面加入丟棄正則化方法,其中每個(gè)卷積層后都加入了BN層做歸一化處理和ReLU激活函數(shù),k表示擴(kuò)展通道的系數(shù)值。

        2.4 壓縮和自適應(yīng)校正網(wǎng)絡(luò)模塊

        為了進(jìn)一步提取不同人臉面部表情的深層特征,提高面部表情識(shí)別的精確度,該模型引入了壓縮和自適應(yīng)校正網(wǎng)絡(luò)模塊(Squeeze-and-Excitation),該模塊是一種通道注意力機(jī)制,可以對(duì)通道維度上的特征圖權(quán)重進(jìn)行重新分配[11-12],其中,v=[v1,v2,…,vc]是一個(gè)已經(jīng)學(xué)習(xí)到的濾波器核,vc=[v1c,v2c,…,vcc],X=[x1,x2,…,xc],F(xiàn)tr輸出為U=[u1,u2,…,uc],示例如下:

        (1)

        式中: *表示卷積;uc表示第c個(gè)通道的輸出;vc表示第c個(gè)通道的卷積核;xs表示卷積核輸入的第s通道的2D空間核??梢钥闯觯敵龅腇m是由所有通道的和來(lái)生成的,所以在通道上的依賴(lài)性被隱式地嵌入至濾波器核中,而濾波器核的作用是捕獲目標(biāo)圖片像素點(diǎn)空間的相關(guān)性,所以通道間的依賴(lài)性和濾波器捕獲的空間相關(guān)性是一直聯(lián)系的。

        2.4.1提取通道間依賴(lài)關(guān)系(squeeze)

        首先對(duì)于一個(gè)H′×W′×C的特征輸入X,進(jìn)行Ftr操作,也就是常規(guī)的卷積操作,得到待處理的W×H×C的特征圖U。接著對(duì)得到的U分別進(jìn)行2種操作:Fsq和Fscale。Fsq是對(duì)于每一個(gè)通道上都采用一種全局平均池化的操作,示例如下:

        (2)

        式中:uc表示特征圖u的c個(gè)通道分別進(jìn)行平均池化的操作;Zc表示壓縮生成的通道描述符,空間維度為W×H,然后得到1×1×C的特征圖z。

        2.4.2自適應(yīng)校正(excitation)

        為了全面捕獲通道依賴(lài)性,使用特殊通道依賴(lài)的門(mén)機(jī)制來(lái)對(duì)各個(gè)通道上的特征進(jìn)行激活處理,調(diào)整每個(gè)通道的反饋,讓網(wǎng)絡(luò)利用全局信息有選擇地增強(qiáng)有益的特征通道,并抑制無(wú)益的特征通道,從而實(shí)現(xiàn)特征通道的自適應(yīng)校正,excitation相當(dāng)于2次全連接操作,示例如下:

        s=Fex(z,W)=σ(g(z,W))=σ(W2?(W1z))

        (3)

        式中: ?和σ分別表示激活函數(shù)ReLU和Sigmoid,第一次用降維層W1(C/r×C)與z(1 × 1 ×C)得到1 × 1 ×C/r的張量,其中C表示通道數(shù),r表示降維的比例(該模型設(shè)為4),然后通過(guò)激活函數(shù)ReLU,并與升維層W2(C×C/r)相乘得到1×1×C的張量,最后通過(guò)Sigmoid函數(shù)輸出,最終輸出通過(guò)重新調(diào)節(jié)變化輸出U得到,示例如下:

        (4)

        式中:s得到的是(0,1)區(qū)間的數(shù),將uc中每個(gè)通道的二維矩陣中每個(gè)數(shù)都與對(duì)應(yīng)的sc相乘,即得到最終輸出。

        對(duì)在人臉面部表情識(shí)別過(guò)程中,面部表情特征部分缺失的問(wèn)題,壓縮和自適應(yīng)校正網(wǎng)絡(luò)模塊在通道上對(duì)特征圖的權(quán)重進(jìn)行重新分配,更好地提取有益的面部特征信息而抑制無(wú)用特征信息。

        2.5 改進(jìn)的預(yù)激活的殘差單元結(jié)構(gòu)

        在寬殘差網(wǎng)絡(luò)中加入激活函數(shù)可以更好地?cái)M合訓(xùn)練數(shù)據(jù),增強(qiáng)寬殘差網(wǎng)絡(luò)的非線(xiàn)性建模能力,在不用激活函數(shù)的情況下,每一層的網(wǎng)絡(luò)輸出都來(lái)源于上一層網(wǎng)絡(luò)輸入的線(xiàn)性函數(shù),這樣迭代的神經(jīng)網(wǎng)絡(luò)也只是簡(jiǎn)單的堆砌,輸出都是輸入的線(xiàn)性組合,隱藏層的效果得不到體現(xiàn)。所以,在網(wǎng)絡(luò)中加入激活函數(shù)是有必要的。在寬殘差網(wǎng)絡(luò)加入的是修正線(xiàn)性單元ReLU激活函數(shù),示例如下:

        (5)

        ReLU激活函數(shù)由于非負(fù)區(qū)間的梯度為常數(shù),所以在一定程度上解決了梯度消失的情況,同時(shí)讓模型處于一個(gè)更于穩(wěn)定的狀態(tài)。

        深度網(wǎng)絡(luò)學(xué)習(xí)過(guò)程本質(zhì)上是為了研究數(shù)據(jù)分布,在處理數(shù)據(jù)時(shí),若每批數(shù)據(jù)分布都不同,訓(xùn)練時(shí)網(wǎng)絡(luò)每次都要去適應(yīng)不同的數(shù)據(jù)分布,這樣會(huì)影響網(wǎng)絡(luò)的訓(xùn)練速度,因此需要對(duì)數(shù)據(jù)進(jìn)行批量歸一化處理。當(dāng)神經(jīng)網(wǎng)絡(luò)對(duì)輸入的數(shù)據(jù)做預(yù)處理時(shí),需要做近似白化預(yù)處理,示例如下:

        (6)

        (7)

        (8)

        (9)

        (10)

        (11)

        通過(guò)BN層對(duì)數(shù)據(jù)進(jìn)行歸一化操作,BN層可以對(duì)每一層輸入的數(shù)據(jù)進(jìn)行統(tǒng)一處理,改善網(wǎng)絡(luò)梯度的同時(shí)使網(wǎng)絡(luò)有更大的學(xué)習(xí)率,可以大幅度提高網(wǎng)絡(luò)的訓(xùn)練速度。傳統(tǒng)殘差單元結(jié)構(gòu)采用“卷積層+BN層+ReLU層”的排列結(jié)構(gòu),每一個(gè)卷積層后面加入BN層,然后再插入ReLU激活函數(shù),殘差單元結(jié)構(gòu)如圖5所示,其中(a)表示傳統(tǒng)殘差單元模塊,(b)表示預(yù)激活殘差單元模塊。

        圖5 殘差單元結(jié)構(gòu)

        由于在傳統(tǒng)殘差單元中,BN層和ReLU層放在卷積層后面,缺少對(duì)輸入圖像的處理,在一定程度上限制BN層的作用。對(duì)殘差單元結(jié)構(gòu)進(jìn)行改進(jìn),提出了一種預(yù)激活殘差單元結(jié)構(gòu),該方式就是把BN層和ReLU激活函數(shù)移到卷積層之前,形成“BN層+ReLU層+卷積層”的新順序,這種結(jié)構(gòu)就構(gòu)成了一種預(yù)激活的模式,該方式增強(qiáng)了網(wǎng)絡(luò)的正則化,讓模型具有非線(xiàn)性的學(xué)習(xí)能力,有效降低了模型過(guò)擬合的風(fēng)險(xiǎn),加快了網(wǎng)絡(luò)的訓(xùn)練速度和收斂能力。

        2.6 改進(jìn)的隨機(jī)擦除方法

        遮擋是影響網(wǎng)絡(luò)泛化能力的一個(gè)重要因素,當(dāng)神經(jīng)網(wǎng)絡(luò)模型結(jié)構(gòu)過(guò)于復(fù)雜的時(shí)候,模型往往會(huì)出現(xiàn)過(guò)擬合,通過(guò)在預(yù)處理階段對(duì)人臉面部表情進(jìn)行隨機(jī)擦除處理,可以緩解該現(xiàn)象。Random Erasing(隨機(jī)擦除)模塊在預(yù)處理階段將對(duì)模型做2種操作之一:在圖片的任意位置選擇隨機(jī)大小的矩形區(qū)域,將該區(qū)域的像素值替換為隨機(jī)值;不對(duì)目標(biāo)圖片做任何處理。

        預(yù)處理階段將設(shè)定目標(biāo)圖片隨機(jī)擦除的概率為p,隨機(jī)擦除公式示例如下:

        Se=S×random(Sl,Sh)

        (12)

        (13)

        (14)

        式中:S表示原始圖像的面積;Sl和Sh表示隨機(jī)擦除圖像的最小閾值和最大閾值;re表示遮擋矩陣的長(zhǎng)寬比;Se表示隨機(jī)擦除的面積;He表示隨機(jī)擦除矩陣面積的高;We表示隨機(jī)擦除矩陣面積的寬,隨機(jī)擦除參數(shù)如表3所示。

        表3 隨機(jī)擦除參數(shù)

        圖像上隨機(jī)選擇一個(gè)點(diǎn)Pe=(xe,ye),xe和ye的限定示例如下:

        (15)

        由于面部表情圖片的背景噪聲會(huì)影響識(shí)別的精度,而且隨機(jī)擦除處理不一定能覆蓋人臉表情區(qū)域,造成原始數(shù)據(jù)集的冗余,為了保證隨機(jī)擦除的區(qū)域一定在人臉位置,對(duì)隨機(jī)擦除方法進(jìn)行了改進(jìn),重新限定了xe和ye的坐標(biāo)值,示例如下:

        (16)

        式中:Rx、Ry、Rxl、Ryl分別表示人臉圖像范圍左上頂點(diǎn)的真實(shí)坐標(biāo)值和右上頂點(diǎn)的真實(shí)坐標(biāo)值,通過(guò)限制對(duì)隨機(jī)點(diǎn)Pe點(diǎn)的選取范圍,使每次隨機(jī)擦除都能覆蓋人臉表情范圍,隨機(jī)擦除方法和改進(jìn)方法對(duì)比如圖6所示。

        圖6 隨機(jī)擦除方法和改進(jìn)方法人臉表情

        由圖6可知,改進(jìn)的方法可以保證每次隨機(jī)擦除都在人臉表情的范圍,在訓(xùn)練集樣本中加入隨機(jī)擦除的圖片,人為擴(kuò)展訓(xùn)練樣本的數(shù)據(jù)集,提高模型的魯棒性,有效降低了模型過(guò)擬合的風(fēng)險(xiǎn)。

        3 實(shí)驗(yàn)與分析

        3.1 實(shí)驗(yàn)準(zhǔn)備

        為驗(yàn)證NSENet網(wǎng)絡(luò)模型的準(zhǔn)確性和有效性,將NSENet網(wǎng)絡(luò)模型在fer2013、ck+數(shù)據(jù)集和JAFFE數(shù)據(jù)集上進(jìn)行對(duì)比消融實(shí)驗(yàn)。該實(shí)驗(yàn)基于Tensorflow深度學(xué)習(xí)框架進(jìn)行訓(xùn)練,在Pycharm上進(jìn)行測(cè)試,硬件環(huán)境配置如下:Win10操作系統(tǒng)、CPU主頻2.9 GHz的Intel Core i7-10700F和16 G內(nèi)存以及NVIDIA GeForce RTX 2060(6 GB)顯卡。在實(shí)驗(yàn)過(guò)程中,隨機(jī)選取70%的人臉表情圖像作為訓(xùn)練集,30%的人臉表情圖像作為測(cè)試集,實(shí)驗(yàn)參數(shù)設(shè)置如表4所示。

        表4 實(shí)驗(yàn)參數(shù)設(shè)置

        3.2 人臉表情數(shù)據(jù)集

        FER2013人臉面部表情數(shù)據(jù)集由35 886張人臉面部表情組成,其中訓(xùn)練集含有28 708張,測(cè)試集和驗(yàn)證集都有3 589張,而且每張圖片都是由固定大小為48×48的灰度圖像組成,共包含了7種表情,F(xiàn)ER2013的人臉表情圖像因?yàn)檎趽鹾妥藙?shì),對(duì)比度較低,背景等因素的干擾,導(dǎo)致識(shí)別難度較大。

        ck+是由Cohn-Kanda數(shù)據(jù)集的基礎(chǔ)上擴(kuò)展而來(lái),一共包含了123個(gè)參與者,593個(gè)圖片序列,ck+數(shù)據(jù)集都是在同一光照背景下采集的,采集環(huán)境較為優(yōu)秀。

        JAFFE數(shù)據(jù)集選取了10名日本女學(xué)生,每個(gè)人做出7種不同的表情,一共由213張照片,通過(guò)旋轉(zhuǎn)、翻轉(zhuǎn)、對(duì)比度增強(qiáng)、平移、裁剪、縮放、隨機(jī)擦除等方法,將數(shù)據(jù)擴(kuò)充到3 408張,人臉面部表情如圖7所示。

        圖7(a)表示FER2013人臉面部表情示例,(b)表示ck+人臉面部表情示例,(c)表示JAFFE人臉面部表情示例。

        圖7 面部表情示例

        3.3 網(wǎng)絡(luò)模型實(shí)驗(yàn)

        為驗(yàn)證NSENet網(wǎng)絡(luò)模型的有效性,將對(duì)各個(gè)模塊進(jìn)行消融實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果如表5所示,Miniature filter表示寬殘差塊中1×1小型濾波器機(jī)制,SE表示壓縮和自適應(yīng)校正網(wǎng)絡(luò)模塊機(jī)制,Pre activation表示預(yù)激活殘差單元機(jī)制,dropout表示丟棄正則化機(jī)制,Random Erasing表示隨機(jī)擦除機(jī)制。

        表5 NSENet網(wǎng)絡(luò)消融實(shí)驗(yàn)準(zhǔn)確率 %

        通過(guò)對(duì)原始圖像進(jìn)行翻轉(zhuǎn)、平移、旋轉(zhuǎn)、對(duì)比度歸一化、隨機(jī)擦除等數(shù)據(jù)增強(qiáng)的操作之后,把處理后的圖像輸入到模型中,為了讓模型能獲取到更多人臉表情的局部特征,引入壓縮和自適應(yīng)校正網(wǎng)絡(luò)模塊對(duì)圖像在通道上的權(quán)重進(jìn)行重新分配,為了加快模型的訓(xùn)練速度和收斂能力,對(duì)寬殘差模塊的順序結(jié)構(gòu)進(jìn)行了優(yōu)化,并改進(jìn)了寬殘差塊中的小型濾波器,為了緩解模型過(guò)擬合,加入丟棄正則化函數(shù)進(jìn)行處理。最后通過(guò)和VGG16的對(duì)比實(shí)驗(yàn)發(fā)現(xiàn),在FER2013數(shù)據(jù)集上準(zhǔn)確率提升了3.60%,在ck+數(shù)據(jù)集上提升了3.83%,在JAFFE數(shù)據(jù)集上提升了3.83%,驗(yàn)證了NSENet網(wǎng)絡(luò)模型在人臉面部表情識(shí)別中具有一定的有效性,同時(shí)保持著更優(yōu)的性能。

        消融實(shí)驗(yàn)曲線(xiàn)如圖8所示,其中(a)表示FER2013消融實(shí)驗(yàn),(b)表示ck+消融實(shí)驗(yàn),(c)表示JAFFE消融實(shí)驗(yàn),從圖8(a)可以看出,NSENet的收斂速度最快,最高準(zhǔn)確率達(dá)到72.49%,在迭代到250次的時(shí)候,準(zhǔn)確率逐漸趨于平穩(wěn),同時(shí)可以看出壓縮和自適應(yīng)校正網(wǎng)絡(luò)模塊對(duì)該數(shù)據(jù)集的影響最大,在減少參數(shù)量的同時(shí)模型的準(zhǔn)確率提升了2.81%,也兼具了更好的穩(wěn)定性。

        從圖8(b)可以看出,改進(jìn)預(yù)激活寬殘差模塊后,對(duì)模型的提升最大,準(zhǔn)確率上升了2.1%,同時(shí)NSENet在迭代到150次的時(shí)候,趨于平穩(wěn),準(zhǔn)確率最高達(dá)到99.29%。從圖8(c)可以看出,NSENet收斂速度最快,大概迭代200次的時(shí)候,準(zhǔn)確率趨于平滑,同時(shí)可以看出在JAFFE數(shù)據(jù)集中,壓縮和自適應(yīng)校正網(wǎng)絡(luò)模塊對(duì)實(shí)驗(yàn)的影響最大,加入該模塊后,準(zhǔn)確率提升了4.55%,同時(shí)也保持了更好的魯棒性。

        圖8 消融實(shí)驗(yàn)曲線(xiàn)

        3.4 現(xiàn)有方法對(duì)比

        為驗(yàn)證NSENet算法在人臉面部表情識(shí)別的有效性,與表6列舉的一些相關(guān)算法實(shí)驗(yàn)結(jié)果做對(duì)比,可以發(fā)現(xiàn)所提算法性能更好,表情識(shí)別的精度也更高,相較于一些傳統(tǒng)的機(jī)器學(xué)習(xí)方法來(lái)說(shuō),NSENet算法具有較強(qiáng)的泛化能力,不同方法對(duì)比如表6所示。

        表6 不同方法準(zhǔn)確率 %

        4 結(jié)論

        提出了一種深度寬殘差網(wǎng)絡(luò)注意力機(jī)制的人臉表情識(shí)別方法,有效抑制了無(wú)關(guān)特征信息對(duì)模型的影響,同時(shí)減緩了神經(jīng)網(wǎng)絡(luò)層數(shù)過(guò)多造成梯度消失的情況。寬殘差網(wǎng)絡(luò)融合壓縮和自適應(yīng)校正網(wǎng)絡(luò)模塊更多關(guān)注特征信息,加快模型的收斂速度,提高模型的性能,改進(jìn)的隨機(jī)擦除方法擴(kuò)充了訓(xùn)練集同時(shí)加強(qiáng)了模型對(duì)噪聲的魯棒性,小卷積濾波器的殘差模塊減小網(wǎng)絡(luò)計(jì)算量的同時(shí)對(duì)目標(biāo)圖片進(jìn)行了降維處理,優(yōu)化的預(yù)激活殘差單元結(jié)構(gòu)大幅度提高網(wǎng)絡(luò)的訓(xùn)練速度,減少了模型過(guò)擬合現(xiàn)象。所提模型(NSENet)在FER2013數(shù)據(jù)集上的準(zhǔn)確率為72.49%,在ck+數(shù)據(jù)集上的準(zhǔn)確率為99.29%,在JAFFE數(shù)據(jù)集上的準(zhǔn)確率為94.87%,實(shí)驗(yàn)結(jié)果優(yōu)于目前諸多現(xiàn)存的人臉表情識(shí)別方法,展現(xiàn)了較好的有效性和魯棒性。但在面部表情有遮擋的情況下識(shí)別精度仍不夠高,在未來(lái)要多關(guān)注這類(lèi)數(shù)據(jù)集的識(shí)別性能。

        猜你喜歡
        特征模型
        一半模型
        抓住特征巧觀(guān)察
        重要模型『一線(xiàn)三等角』
        新型冠狀病毒及其流行病學(xué)特征認(rèn)識(shí)
        重尾非線(xiàn)性自回歸模型自加權(quán)M-估計(jì)的漸近分布
        如何表達(dá)“特征”
        不忠誠(chéng)的四個(gè)特征
        抓住特征巧觀(guān)察
        3D打印中的模型分割與打包
        FLUKA幾何模型到CAD幾何模型轉(zhuǎn)換方法初步研究
        日本特黄特色特爽大片| 国产精品亚洲美女av网站| 免费在线观看视频专区| 久99久精品视频免费观看v| 日本久久一区二区三区高清| av男人的天堂亚洲综合网| 久久综合九色综合久99| 国产主播一区二区三区在线观看| 国产高潮流白浆免费观看不卡| 亚洲女同精品一区二区久久| 丰满人妻熟妇乱又仑精品| 精品无码久久久久成人漫画| 免费毛片性天堂| 精品国产麻豆免费人成网站| 亚洲成av人片女在线观看| 久热这里只有精品视频6| 亚洲熟妇在线视频观看| 国语自产啪在线观看对白| 中文无码av一区二区三区| 国产高颜值大学生情侣酒店| 男女边吃奶边做边爱视频 | 亚洲成人av一区免费看| 无码aⅴ精品一区二区三区| 四房播播在线电影| 国产精品va在线观看一| 成人激情视频在线手机观看| 国产午夜手机精彩视频| 欧美日韩精品一区二区在线视频| 久久亚洲中文字幕精品一区四| 亚洲一区二区三区精彩视频| 一区二区黄色在线观看| 东京热人妻无码一区二区av| 97久久精品人人妻人人| 亚洲处破女av一区二区| 久久精品国产成人午夜福利| 成av免费大片黄在线观看| 欧美色资源| 日韩一本之道一区中文字幕| 色偷偷av一区二区三区| 久久中文字幕乱码免费| 一道本中文字幕在线播放|