喬桂芳,侯守明*,劉彥彥
(1.河南理工大學(xué)計(jì)算機(jī)科學(xué)與技術(shù)學(xué)院,河南焦作 454003;2.杭州師范大學(xué)阿里巴巴商學(xué)院,杭州 311121)
面部表情作為人臉識(shí)別和情感信息傳遞的重要門戶,在人機(jī)交互領(lǐng)域正經(jīng)歷著空前未有的發(fā)展。面部表情識(shí)別主要利用計(jì)算機(jī)提取給定的靜態(tài)人臉圖像或動(dòng)態(tài)人臉序列的表情特征,使其以人的思維對(duì)檢測(cè)到的表情進(jìn)行理解和分類,滿足人們?cè)诓煌瑧?yīng)用場(chǎng)景下的需求,進(jìn)而建立良好的人機(jī)智能交互環(huán)境。面部表情識(shí)別技術(shù)在疲勞駕駛、互聯(lián)網(wǎng)教學(xué)、刑事案件偵測(cè)、醫(yī)學(xué)診斷、安防監(jiān)控、心理咨詢等領(lǐng)域有著非常廣泛的應(yīng)用。
面部表情識(shí)別的五個(gè)過程包括表情圖像獲取、輸入數(shù)據(jù)預(yù)處理、提取層次特征、表情分類和所屬類別,其核心是提取層次特征,高效快速地抽取表情圖像中的有利信息是提升表情識(shí)別準(zhǔn)確率的重要前提。傳統(tǒng)的表情識(shí)別方法主要通過人工提取特征,如Gabor 小波變換、方向梯度直方圖(Histograms of Oriented Gradients,HOG)、主成分分析(Principal Components Analysis,PCA)等,再結(jié)合支持向量機(jī)(Support Vector Machine,SVM)進(jìn)行分類。傳統(tǒng)方法設(shè)計(jì)特征需要借助一定的專家知識(shí),人為干擾因素較大,且易丟失原有樣本的特征信息,進(jìn)而影響表情識(shí)別準(zhǔn)確率。然而卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)可將原始數(shù)據(jù)直接傳送至模型,依據(jù)端到端的圖形拓?fù)浣Y(jié)構(gòu)自動(dòng)提取輸入數(shù)據(jù)的抽象特征,有效縮短人工預(yù)處理的過程。1989年,LeCun 等發(fā)明CNN,并于1998 年采用LeNet-5 模型成功提高手寫字符識(shí)別率。Krizhevsky 等在2012 年創(chuàng)造了深層CNN AlexNet,首次實(shí)現(xiàn)Top 5 最低誤差率,是CNN 崛起的轉(zhuǎn)折點(diǎn)。Simonyan 等于2014 年提出VGGNet,通過疊加小尺寸卷積核不斷加深網(wǎng)絡(luò)層次,取得不錯(cuò)的分類精度。為了更有效地改善表情識(shí)別的準(zhǔn)確性,眾多研究者開始改進(jìn)CNN與其他特征方法結(jié)合使用,Li 等提出改進(jìn)CNN 與注意力機(jī)制相融合的方法,將全局圖像特征與多個(gè)無遮擋的面部感興趣區(qū)域特征集合起來,從而提高無遮擋區(qū)域特征的表現(xiàn)能力;Xie 等采用空間注意力+多路連接的方法對(duì)CNN 進(jìn)行針對(duì)性的改進(jìn),先微調(diào)預(yù)訓(xùn)練的模型得到特征圖,加入空間注意力機(jī)制,突顯表情區(qū)域,再對(duì)具有明顯區(qū)分性的特征向量進(jìn)行全連接和分類;Xia 等設(shè)計(jì)多個(gè)損失函數(shù)加權(quán)組合,通過網(wǎng)格搜索方法提升含遮擋人臉表情的識(shí)別效果;王忠民等借助改進(jìn)的CNN 模型作為特征提取器,抽取更深層次的復(fù)雜特征,融合SVM 進(jìn)行表情識(shí)別,最終識(shí)別精度高于傳統(tǒng)方法。上述研究表明,CNN 的確能夠進(jìn)一步提升表情識(shí)別準(zhǔn)確率,但隨著各種網(wǎng)絡(luò)模型及其變體的提出,導(dǎo)致網(wǎng)絡(luò)結(jié)構(gòu)越來越復(fù)雜,參數(shù)量增多且識(shí)別效果不夠理想。
為此,本文提出一種基于改進(jìn)卷積神經(jīng)網(wǎng)絡(luò)與非線性支持向量機(jī)相結(jié)合的面部表情識(shí)別算法。首先,在感受野大小不變的前提下,多個(gè)結(jié)構(gòu)簡(jiǎn)單的小尺寸卷積核以串并聯(lián)融合的方式代替大尺寸卷積核,在增強(qiáng)模型特征學(xué)習(xí)能力的同時(shí)擁有更少的網(wǎng)絡(luò)參數(shù),且獲得的特征分類性更強(qiáng);其次,采用全局平均池化(Global Average Pooling,GAP)層取代全連接層,簡(jiǎn)化卷積結(jié)構(gòu),同時(shí)省略大量訓(xùn)練調(diào)優(yōu)的參數(shù);最后,送入SVM 分類器進(jìn)行表情分類,以提升模型的泛化能力。
典型的CNN由卷積層、池化層、全連接層和Softmax 分類函數(shù)組成,圖1 為其基本結(jié)構(gòu)。CNN 具有強(qiáng)大的表征學(xué)習(xí)能力,其隱含層內(nèi)引入的參數(shù)共享和層間連接稀疏性機(jī)制,能極大地減少模型參數(shù)量,具備辨識(shí)面部表情微小變化的潛力。
圖1 CNN基本結(jié)構(gòu)Fig.1 Basic structure of CNN
圖1 中的卷積層用于提取圖像細(xì)節(jié)和抽象信息,實(shí)現(xiàn)參數(shù)共享;池化層能縮減特征圖尺寸,起到降維效果;全連接層執(zhí)行最終分類任務(wù)。經(jīng)大量研究發(fā)現(xiàn),傳統(tǒng)CNN 算法用于表情識(shí)別需關(guān)注以下三個(gè)問題:
1)面部表情識(shí)別的關(guān)鍵在于快速覺察人臉五官微妙變化的特征,傳統(tǒng)CNN 直接應(yīng)用于面部表情識(shí)別領(lǐng)域,識(shí)別效果不佳;
2)傳統(tǒng)CNN 模型中2~3 層的全連接層產(chǎn)生的參數(shù)量過大,占據(jù)CNN 總參數(shù)的80%以上,參數(shù)過多導(dǎo)致計(jì)算量增加,還易引起過擬合,不利于面部表情的快速分類;
3)傳統(tǒng)CNN 模型中的Softmax 分類函數(shù)只是使輸出結(jié)果符合概率分布,并未對(duì)識(shí)別性能產(chǎn)生幫助,在小樣本和多分類任務(wù)中,性能不優(yōu)越,難以進(jìn)一步提升最終識(shí)別精度。
w
×h
×d
,將平均池化的窗口大小動(dòng)態(tài)設(shè)置成特征圖大小w
×h
,經(jīng)GAP 變換后,每一層w
×h
會(huì)被平均化成一個(gè)值進(jìn)行展平和全連接操作,即輸出值為1×1×d
,特征圖結(jié)構(gòu)可表示為N
×1×1×d
,N
表示特征圖的數(shù)量,最后將得到的二維數(shù)據(jù)N
×d
送入SVM 分類器。m
類,先構(gòu)造m
-1 個(gè)SVM 子分類器,轉(zhuǎn)換為處理二分類問題,第i
個(gè)分類器將類別為T
的樣本標(biāo)記為+1,剩余類別全標(biāo)記為-1,SVM 多分類算法過程如圖2 所示。圖2 SVM多分類算法過程Fig.2 SVM multi-classification algorithm process
圖3 為所提優(yōu)化算法的基本識(shí)別流程。
圖3 基于改進(jìn)CNN+SVM的面部表情識(shí)別算法流程Fig.3 Flow of facial expression recognition algorithm based on improved CNN+SVM
本文算法的步驟如下:
1)輸入層對(duì)原始表情數(shù)據(jù)進(jìn)行預(yù)處理;
2)特征提取層對(duì)預(yù)處理后的表情灰度圖進(jìn)行深度提?。?/p>
3)計(jì)算修正線性單元(Rectified Linear Unit,ReLU)激活函數(shù)值:
4)用最大值池化方式進(jìn)行降維減參:
MP
表示最大池化后的輸出特征圖;X
(K
)表示輸出特征圖的第K
個(gè)像素值。5)對(duì)最后卷積層輸出的特征圖進(jìn)行GAP 變換:
W
和偏置b
:η
表示學(xué)習(xí)率;E
表示誤差函數(shù)。7)將GAP 層的稀疏特征數(shù)據(jù)送入SVM 分類器,計(jì)算高維特征空間最大分離超平面:
x
表示任意一個(gè)樣本點(diǎn);x
表示中心坐標(biāo)值;σ
表示函數(shù)的寬度參數(shù),σ
<0。圖4 為算法總體改進(jìn)策略。根據(jù)深度模型VGG16連續(xù)卷積的思想設(shè)計(jì)網(wǎng)絡(luò)模型,本文構(gòu)建的基于改進(jìn)CNN+SVM 算法的面部表情識(shí)別模型如圖5 所示。圖5 中標(biāo)注了每層的命名、卷積核大小和通道數(shù),“@”符號(hào)后面的數(shù)字為卷積層通道數(shù)。此模型由一個(gè)輸入層、三個(gè)卷積模塊層、一個(gè)GAP 層和一個(gè)SVM 分類器構(gòu)成。三個(gè)卷積模塊層結(jié)構(gòu)相同,由含兩個(gè)3×3 卷積核的卷積層串聯(lián),隨后緊跟池化層及隨機(jī)丟棄層(Dropout)組成,另外,模型中加入ReLU 激活函數(shù)防止梯度彌散。改進(jìn)模型先通過卷積模塊中的卷積層提取表情圖像特征,之后將提取到的深層次特征通過下采樣層進(jìn)行降維處理,并融入Dropout 機(jī)制預(yù)防過擬合,GAP 層將最后得到的特征圖送入SVM 分類器,執(zhí)行分類任務(wù)。
圖4 本文算法總體改進(jìn)策略Fig.4 Overall improvement strategy of proposed algorithm
圖5 基于改進(jìn)CNN+SVM算法的面部表情識(shí)別模型結(jié)構(gòu)Fig.5 Structure of facial expression recognition model based on improved CNN+SVM algorithm
圖5 中的卷積模塊1(ConvBlock_1)、卷積模塊2(ConvBlock_2)、卷積模塊3(ConvBlock_3)是改進(jìn)CNN+SVM模型中的卷積提取層。其中:ConvBlock_1 用兩個(gè)通道數(shù)為32 的3×3 卷積核提取面部表情特征,選用小尺寸卷積核代替較大卷積核,能有效減少網(wǎng)絡(luò)模型參數(shù)量,同時(shí)提升網(wǎng)絡(luò)性能;ConvBlock_2 中用兩個(gè)通道數(shù)為32 的3×3 卷積核并聯(lián)取代一個(gè)通道數(shù)為64 的3×3 卷積核,通過拓展網(wǎng)絡(luò)寬度保持表情圖像的性質(zhì),確保參數(shù)量一致的前提下,前者能提取的特征分類性更強(qiáng)、非線性激活更多;同樣原理,將ConvBlock_3中通道數(shù)為128 的較大卷積核進(jìn)行串并聯(lián)融合操作。
輸入48×48 像素的表情灰度圖,經(jīng)過ConvBlock_1 操作和Same 填充后,進(jìn)行了平卷積,輸出與輸入大小一致,經(jīng)最大值下采樣,得到的特征圖大小減半,為24×24 像素。通過ConvBlock_2 和ConvBlock_3 中“卷積+最大池化”計(jì)算后,得到6×6×128 的特征圖,經(jīng)GAP 變換,得到一個(gè)1×1×128 的張量,送入SVM 進(jìn)行分類。模型中各網(wǎng)絡(luò)層的參數(shù)量計(jì)算方法如式(8):
CNN
表示卷積層的參數(shù)量;FCN
表示全連接層的參數(shù)量;K
表示卷積核個(gè)數(shù);H
和W
分別表示卷積核的高和寬;I
表示卷積層輸入數(shù)據(jù)的通道數(shù);B
表示偏置量;FC
表示全連接層輸入數(shù)據(jù)的維度;FC
表示輸出神經(jīng)元的節(jié)點(diǎn)數(shù)。基于改進(jìn)CNN+SVM 算法的面部表情識(shí)別模型的各網(wǎng)絡(luò)層參數(shù)情況如表1 所示,該模型的總參數(shù)量遠(yuǎn)小于傳統(tǒng)CNN 模型。表1 基于改進(jìn)CNN+SVM算法的面部表情識(shí)別模型的各層參數(shù)描述Tab 1 Parameter description of each layer of facial expression recognition model based on improved CNN+SVM algorithm
本文模型訓(xùn)練采用Fer2013和CK+兩個(gè)數(shù)據(jù)集,按8∶2 的比例隨機(jī)劃分為訓(xùn)練集和測(cè)試集。表2~3 給出了各數(shù)據(jù)集的標(biāo)簽對(duì)照及訓(xùn)練集和測(cè)試集中各表情類別數(shù)量分布情況。實(shí)驗(yàn)中先將全部圖像預(yù)處理并歸一化成48×48 大小的灰度圖,如圖6 所示。
表2 Fer2013數(shù)據(jù)集中英標(biāo)簽對(duì)照及各類別數(shù)Tab 2 Chinese and English labels and numbers of different categories in Fer2013 dataset
圖6 Fer2013、CK+數(shù)據(jù)集中7類表情樣例圖Fig.6 Sample diagrams of 7 categories of facial expression in Fer2013 and CK+datasets
由于CK+數(shù)據(jù)集樣本總數(shù)偏少,送入神經(jīng)網(wǎng)絡(luò)訓(xùn)練容易造成泛化能力弱及過擬合問題,實(shí)驗(yàn)過程中對(duì)CK+訓(xùn)練集圖像做隨機(jī)旋轉(zhuǎn)、隨機(jī)縮放、水平/垂直平移、隨機(jī)水平翻轉(zhuǎn)、亮度及對(duì)比度變化等幾何變換以擴(kuò)增數(shù)據(jù)集,如圖7 所示。
圖7 CK+數(shù)據(jù)集中人臉圖像數(shù)據(jù)增強(qiáng)前后對(duì)比Fig.7 Comparison before and after facial image data augmentation in CK+dataset
表3 CK+數(shù)據(jù)集中各表情類別數(shù)Tab 3 Number of each expression category in CK+dataset
采用深度學(xué)習(xí)框架Tensorflow 來驗(yàn)證本文改進(jìn)模型的可行性,實(shí)驗(yàn)環(huán)境及硬件配置如下:CPU 為Intel Core i5-7200U,內(nèi)存8 GB,GPU4 GB,TITANX(Pascal),軟件環(huán)境為Python 3.6.12,Tensorflow 2.0.0,Windows10 專業(yè)版64 位。
本實(shí)驗(yàn)主要通過識(shí)別準(zhǔn)確率、損失函數(shù)變化曲線、模型參數(shù)量三個(gè)指標(biāo)來評(píng)估算法性能。基于本文算法的改進(jìn)模型確保訓(xùn)練時(shí)間相差不大,損失函數(shù)有所下降,準(zhǔn)確率有所提高,模型參數(shù)量比改進(jìn)前有所減少。網(wǎng)絡(luò)訓(xùn)練時(shí)的批次大小設(shè)置恰當(dāng)?shù)姆秶苁固荻认陆捣较驕?zhǔn)確且振蕩小,過大會(huì)出現(xiàn)局部最優(yōu),過小會(huì)難以收斂,通過多次實(shí)驗(yàn),最終將批次大小設(shè)置為24,并加入隨機(jī)梯度下降策略優(yōu)化網(wǎng)絡(luò)模型。實(shí)驗(yàn)參數(shù)設(shè)置如表4 所示。
表4 模型訓(xùn)練參數(shù)描述Tab 4 Model training parameter description
利用基于改進(jìn)CNN+SVM 算法的模型在Fer2013、CK+數(shù)據(jù)集上訓(xùn)練,得到的識(shí)別精度曲線和損失值變化曲線如圖8所示。由圖8 可看出:在CK+數(shù)據(jù)集上,當(dāng)?shù)螖?shù)達(dá)到150時(shí),模型趨于穩(wěn)定,識(shí)別準(zhǔn)確率為98.06%;在Fer2013 數(shù)據(jù)集上,識(shí)別準(zhǔn)確率達(dá)到73.4%,性能明顯提升。圖8(b)中,損失誤差值在特定的迭代次數(shù)內(nèi)逐漸降低,結(jié)合了GAP 和SVM 分類器的優(yōu)點(diǎn),其收斂速度更快。因此,基于改進(jìn)CNN+SVM 算法設(shè)計(jì)的網(wǎng)絡(luò)模型能夠很好地學(xué)習(xí)表情特征,具有更好的分類效果。
圖8 Fer2013及CK+數(shù)據(jù)集上的訓(xùn)練過程曲線Fig.8 Training process curves on Fer2013 and CK+datasets
基于改進(jìn)CNN+SVM 算法的網(wǎng)絡(luò)模型在Fer2013、CK+數(shù)據(jù)集上對(duì)各類表情的識(shí)別結(jié)果如圖9 所示。圖9 中共7 種表情類別,混淆矩陣圖主對(duì)角線上數(shù)字為該優(yōu)化算法對(duì)各類表情的識(shí)別準(zhǔn)確率。由圖9 可以得出,本文算法對(duì)一些表情變化不明顯和不容易區(qū)分的類別誤判率較高。圖9(a)中,類間準(zhǔn)確率較低的是恐懼(0.62)和悲傷(0.62),因悲傷和恐懼表情有著相似的嘴角和眉毛變化,導(dǎo)致二者的核心特征難以被充分學(xué)習(xí)。圖9(b)中,蔑視的準(zhǔn)確率最低(0.955),因蔑視表情表現(xiàn)為微抬嘴唇,嘴角微微上揚(yáng),面部肌肉運(yùn)動(dòng)幅度小,導(dǎo)致在SVM 分類中不易被判斷和識(shí)別。
圖9 各數(shù)據(jù)集生成的表情類別混淆矩陣圖Fig.9 Confusion matrix of expression category generated by each dataset
圖10 描述了傳統(tǒng)LeNet-5 算法與本文算法在Fer2013 數(shù)據(jù)集和CK+數(shù)據(jù)集上的識(shí)別準(zhǔn)確率對(duì)比曲線。由圖10 可見,傳統(tǒng)LeNet-5 算法在Fer2013 數(shù)據(jù)集上的識(shí)別率為61.2%,而改進(jìn)模型識(shí)別率達(dá)到73.4%,提升了2.2 個(gè)百分點(diǎn);且改進(jìn)模型在CK+數(shù)據(jù)集上識(shí)別率維持在98.06%。本文算法在兩個(gè)表情數(shù)據(jù)庫上效果比傳統(tǒng)LeNet-5 算法更好的原因:1)改進(jìn)的CNN 結(jié)合了GAP 的優(yōu)點(diǎn),GAP 層在特征圖與最終分類間轉(zhuǎn)換更簡(jiǎn)單且省略大量訓(xùn)練參數(shù)的特點(diǎn);2)Softmax 函數(shù)分配一個(gè)高值給某個(gè)節(jié)點(diǎn),其余節(jié)點(diǎn)分配低值,結(jié)果兩極分化。SVM 是計(jì)算每一類樣本的估計(jì)概率值,分類性能更可靠。
圖10 傳統(tǒng)模型和改進(jìn)模型在Fer2013、CK+數(shù)據(jù)集上的識(shí)別準(zhǔn)確率比較Fig.10 Comparison of recognition accuracy between traditional model and the improved model on Fer2013 and CK+datasets
為進(jìn)一步驗(yàn)證本文提出的改進(jìn)CNN+SVM 算法的優(yōu)越性,將本文算法與其他算法進(jìn)行綜合對(duì)比分析。輕量級(jí)卷積+注意力機(jī)制(Lightweight Convolution Model based on Attention,LCMA)算法,通過分解多路通道卷積減少模型參數(shù),得到69.6% 的識(shí)別率。改進(jìn)CNN+自編碼器(AutoEncoder,AE)引入含注意力機(jī)制的CNN 通道和卷積自編碼器預(yù)訓(xùn)練通道相結(jié)合的雙通道模型,利用殘差思想提取表情特征,取得72.7%的識(shí)別率。結(jié)合單發(fā)多盒檢測(cè)器(MobileNet Single Shot multibox Detector,MSSD)及核濾波(Kernel Correlation Filter,KCF)模型MSSD+KCF對(duì)輕量級(jí)CNN 改進(jìn),跟蹤檢測(cè)人臉坐標(biāo)信息,以多尺度特征融合的方式快速精確地識(shí)別表情特征。CNN+改進(jìn)Softmax先在中心損失函數(shù)的基礎(chǔ)上增加注意力機(jī)制,再融合Softmax 損失函數(shù)共同監(jiān)督表情訓(xùn)練,得到良好的識(shí)別性能。淺層CNN是在LeNet-5 基礎(chǔ)之上調(diào)整并移除兩個(gè)全連接層,利用簡(jiǎn)單網(wǎng)格搜索方法對(duì)圖像隨機(jī)旋轉(zhuǎn)的角度進(jìn)行最優(yōu)搜索,取得不錯(cuò)的分類效果。
由圖11(a)可見,本文算法識(shí)別準(zhǔn)確率較優(yōu),這是因?yàn)镃NN 在逐層提取表情特征時(shí),小尺寸卷積核提取的特征屬性不同,能充分提取圖像更細(xì)節(jié)和局部的信息,改善了識(shí)別效果;GAP 層改進(jìn)傳統(tǒng)CNN 中的全連接層,將卷積層輸出特征圖的展平向量過程和分類操作合二為一,直接在特征圖通道上做變換,進(jìn)行降維減參處理,提高了識(shí)別準(zhǔn)確率。
在CK+數(shù)據(jù)集的對(duì)比實(shí)驗(yàn)中,淺層神經(jīng)網(wǎng)絡(luò)利用數(shù)據(jù)增強(qiáng)及人臉裁剪的手段得到97.38%的識(shí)別率;CNN+SVM通過在LeNet-5 算法的基礎(chǔ)上增加一層卷積層和池化層,再融合SVM 分類器的方法提升表情識(shí)別效果;改進(jìn)AlexNet通過減少AlexNet 網(wǎng)絡(luò)上卷積層的方法,得到97.46%的識(shí)別結(jié)果;多尺度卷積方法在AlexNet 中引入多尺度卷積,提取不同尺度的特征信息,并把低層次特征信息在向下傳遞的同時(shí)與高層次特征信息進(jìn)行跨連接特征融合,取得較高的識(shí)別準(zhǔn)確率;CNN+LBP利用LBP 提取表情特征,然后用均值聚類方法得到樣本模板,結(jié)合CNN 進(jìn)行表情的識(shí)別,方法有效。由圖11(b)可知,所提出的改進(jìn)CNN+SVM 算法識(shí)別準(zhǔn)確率相較于傳統(tǒng)機(jī)器學(xué)習(xí)方法和改進(jìn)CNN 都有進(jìn)一步的提升,這是因?yàn)橥ㄟ^小尺寸卷積核串并聯(lián)融合的技術(shù)避免了表情圖像有利信息的遺漏,減少了計(jì)算量,再融合SVM 分類器在小樣本數(shù)據(jù)集上的分類優(yōu)勢(shì),使得分類效果更優(yōu)。
圖11 Fer2013、CK+數(shù)據(jù)集上不同方法的識(shí)別效果比較Fig.11 Comparison of recognition effects of different methods on Fer2013 and CK+datasets
由于人們?cè)谇楦薪涣鲿r(shí)表現(xiàn)出多種混合表情,導(dǎo)致面部表情的識(shí)別特殊且復(fù)雜。為解決各種網(wǎng)絡(luò)模型及其變體識(shí)別面部表情時(shí)存在的結(jié)構(gòu)復(fù)雜、識(shí)別不夠理想等問題,本文提出了改進(jìn)CNN 與SVM 相結(jié)合的算法,用于準(zhǔn)確且快速地對(duì)表情狀態(tài)分類。通過網(wǎng)絡(luò)串并聯(lián)融合的方式提取到更為全局且代表性更強(qiáng)的表情特征,并設(shè)計(jì)維度自適應(yīng)GAP 層融合SVM 分類器,有效減少CNN 模型總參數(shù)量。由對(duì)比實(shí)驗(yàn)得出,該改進(jìn)算法在Fer2013 數(shù)據(jù)集上的識(shí)別準(zhǔn)確率相較于傳統(tǒng)LeNet-5 算法提升了2.2 個(gè)百分點(diǎn),具有一定的識(shí)別效果和穩(wěn)健性。但本文未考慮面部表情信息缺失及非正面人臉圖像在復(fù)雜環(huán)境下的識(shí)別率情況,如何將本文算法應(yīng)用于復(fù)雜環(huán)境下的表情識(shí)別系統(tǒng)中將是下一步的研究工作。