亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于卷積注意力模塊和雙通道網(wǎng)絡(luò)的微表情識別算法

        2021-09-18 06:21:54牛瑞華邢斕馨吳仁彪
        計算機應(yīng)用 2021年9期
        關(guān)鍵詞:頂點矩陣特征

        牛瑞華,楊 俊,邢斕馨,吳仁彪

        (天津市智能信號與圖像處理重點實驗室(中國民航大學(xué)),天津 300300)

        (*通信作者電子郵箱rbwu@vip.163.com)

        0 引言

        微表情作為一種有效的非語言線索,在心理治療、司法審訊、國際反恐及國家安防[1-3]等領(lǐng)域具有其他語言符號無法替代的重要作用。在微表情研究初期,其識別率不足50%[4-5];近年來,微表情分析逐漸成為情感狀態(tài)判定的重要因素,識別方法也從最初的人工判別向技術(shù)手段演變。

        Li 等[6]率先提出了一種基線算法,使用三個正交平面的局部二值模式(Local Binary Patterns from Three Orthogonal Planes,LBP-TOP)直方圖進行特征提?。籜u 等[7]則引入了光流估計的算法,根據(jù)光流的主要方向提取微表情特征;為了更好地描述光流特征信息;Liu 等[8]提出了更加簡單有效的基于空間局部紋理的主方向平均光流法(Main Directional Mean Optical-flow,MDMO)[9],但其容易丟失特征空間中固有底層的流行結(jié)構(gòu),稀疏的MDMO 可以很好地彌補這一缺陷。盡管傳統(tǒng)的識別算法在不斷優(yōu)化,但在特征的自動識別上有著難以彌補的劣勢,進而難以有效提高分類水平。隨著研究的不斷深入,深度學(xué)習開始應(yīng)用于微表情識別領(lǐng)域。Peng 等[10]使用了遷移學(xué)習的算法,將在ImageNet 上預(yù)訓(xùn)練的ResNet10 用于微表情數(shù)據(jù)集,并進行參數(shù)微調(diào);Khor 等[11]進一步提出豐富的長期遞歸卷積網(wǎng)絡(luò)(Enriched Long-term Recurrent Convolutional Network,ELRCN),利用卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)模塊完成微表情序列的特征向量編碼,利用長短期記憶(Long Short-Term Memory,LSTM)網(wǎng)絡(luò)進行微表情分類。文獻[12-13]分別提出了頂點幀時間網(wǎng)絡(luò)(Apex-Time NETwork,ATNET)和基于頂點幀的混合卷積特征網(wǎng)絡(luò)(Stacked Hybrid Convolution Feature Network,SHCFNet),通過計算頂點幀(apex frame,表示微表情狀態(tài)幅度最大的圖像幀)與序列中某一代表幀的光流特征并利用CNN 完成微表情識別,可節(jié)省計算圖像序列的網(wǎng)絡(luò)開銷。但使用多張圖片的微表情識別需要有記憶功能的特定網(wǎng)絡(luò),且會產(chǎn)生一定的冗余信息,若只利用頂點幀進行微表情識別,可以更廣泛地選取適合網(wǎng)絡(luò)以更好地提取微表情特征,也可進一步降低識別過程的復(fù)雜性。Zhou 等[14]通過樣式聚合和注意力轉(zhuǎn)移(Style Aggregated and Attention Transfer,SAAT)的算法實現(xiàn)頂點幀分類,Pan等[15]提出了層次支持向量機(Hierarchical Support Vector Machine,H-SVM)的頂點幀識別算法,Quang等[16]則直接使用CapsuleNet完成頂點幀的特征提取和識別分類。上述算法相比基線算法可以達到較好的識別效果,但利用神經(jīng)網(wǎng)絡(luò)的特點更好地關(guān)注微表情的細微特征并獲取最有效的特征,才是提高微表情識別效果的有效路徑。

        文獻[17]提出的高度耦合的雙通道網(wǎng)絡(luò)(Dual Path Networks,DPN)算法同時具備細化特征和探索特征的雙重優(yōu)勢,在圖像分類、場景分類、目標檢測等領(lǐng)域展現(xiàn)出極大的優(yōu)勢。文獻[18]提出的卷積注意力模塊(Convolutional Block Attention Module,CBAM)是一種從通道和空間維度進行雙重特征權(quán)重標定的注意力模塊,它依據(jù)多方向的特征增強改善網(wǎng)絡(luò)識別效果。本文以DPN 為主要框架,融合CBAM,提出一種微表情識別算法——CBAM-DPN。使用該算法得到的模型可以在發(fā)現(xiàn)微表情細微特征的同時有效突出重點區(qū)域,實現(xiàn)了對微表情頂點幀的識別分類,充分發(fā)揮了CBAM 和DPN 的優(yōu)勢。實驗結(jié)果表明,CBAM-DPN 算法有效提高了微表情的識別性能,未加權(quán)F1 值(Unweighted F1-score,UF1)和未加權(quán)平均召回率(Unweighted Average Recall,UAR)分別可以達到0.720 3和0.729 3,相對現(xiàn)在的微表情識別算法有較大優(yōu)勢。

        1 本文算法

        1.1 DPN

        DPN結(jié)合了ResNet[19-20]細化特征使特征重復(fù)使用和DenseNet[21]支持更多新特征細節(jié)探索的共同優(yōu)點,是典型的混合網(wǎng)絡(luò)。DPN 內(nèi)部具有高度耦合的雙通道鏈路連接結(jié)構(gòu),可有效解決深層網(wǎng)絡(luò)訓(xùn)練時梯度消失的問題,在高計算效率的基礎(chǔ)上保證了更少的參數(shù)開銷。DPN 由多個模塊化的Micro-block 堆疊而成,每個Micro-block都采用了1×1,3×3,1×1的Bottleneck層設(shè)計,通過ResNet和DenseNet 的Bottleneck層共享形成了一個雙路徑網(wǎng)絡(luò)。

        DPN 迭代訓(xùn)練的典型特點是Bottleneck 結(jié)構(gòu)最后一個卷積層的輸出會根據(jù)比例合理地劃分為兩部分:一部分進入ResNet路徑(為提高每個Micro-block的學(xué)習能力,使用ResNet的一種變體ResNeXt[22]結(jié)構(gòu));另一部分進入DenseNet 路徑;兩個路徑輸出的特征矩陣進入下一個Micro-block前又會進行合并操作,便于特征提取。如此循環(huán),既很好地探索了新特征又保證了網(wǎng)絡(luò)的靈活性,同時具備兩種路徑拓撲結(jié)構(gòu)的優(yōu)勢,Micro-block 網(wǎng)絡(luò)結(jié)構(gòu)如圖1 所示。第k個Micro-block 的特征映射矩陣的推導(dǎo)過程可以用式(1)表示:

        圖1 Micro-block的結(jié)構(gòu)Fig.1 Structure of Micro-block

        其中:“⊕”表示add 操作;“?”表示concat 操作;hk-1為第k-1 層輸出的特征映射矩陣;hk為經(jīng)過concat 操作后得到的新的特征映射矩陣;f k(?)和f k(?)'為經(jīng)過Bottleneck 結(jié)構(gòu)后分別進入ResNet 路徑和DenseNet 路徑的函數(shù);xk-1和yk-1分別表示第k-1層ResNet路徑和DenseNet路徑的特征映射矩陣。

        1.2 CBAM-DPN

        1.2.1 CBAM

        CBAM[23]是結(jié)合了通道和空間這兩種不同方向的雙重注意力選擇模塊,可以多方位進行卷積,從而取得更好的效果。其原理是:通過一層新的權(quán)重賦值將輸入數(shù)據(jù)中的關(guān)鍵特征標識出來,從而讓神經(jīng)網(wǎng)絡(luò)學(xué)習到輸入數(shù)據(jù)中需要關(guān)注的特征區(qū)域。CBAM的原理如圖2所示。

        圖2 CBAM的原理圖Fig.2 Principle diagram of CBAM

        CBAM 將原神經(jīng)網(wǎng)絡(luò)卷積層的輸出矩陣F∈RC×H×W作為該模塊的輸入矩陣。該模塊在通道維度上對輸入矩陣同時進行最大池化和平均池化操作,并對得到的2 個不同的信道描述符進行壓縮合并操作,合并后的描述符經(jīng)過單個卷積核的隱藏層生成通道權(quán)值矩陣F′∈RC×H×W,如式(2)所示。而空間注意力模塊作為通道注意力模塊的擴充部分,是在空間維度上使用最大池化和平均池化并將信息壓縮為一個信道描述符,經(jīng)過空間壓縮操作的計算得到空間權(quán)值矩陣F″,如式(3)所示。上述操作可建模像素點之間的重要程度以有效突出信息區(qū)域。

        其中:Ms(F)∈RC×H×W和Ms(F′)∈RC×H×W分別表示三維的通道壓縮權(quán)值矩陣和空間壓縮權(quán)值矩陣;“⊙”表示矩陣元素的乘操作。

        1.2.2 CBAM-DPN的單個結(jié)構(gòu)

        CBAM-DPN 的結(jié)構(gòu)優(yōu)化是將CBAM 融合到每個Bottleneck 層之后,形成一個新的Mirco-block 結(jié)構(gòu)。CBAMDPN 結(jié)構(gòu)可以在獲得Bottleneck 層的共享權(quán)重后,根據(jù)通道、空間的不同重要程度去增強有用特征并抑制無用特征,從而增強網(wǎng)絡(luò)的特征表達能力,實現(xiàn)對卷積層輸出的特征矩陣中信息區(qū)域的有效突出。CBAM-DPN中單個結(jié)構(gòu)塊的計算單元結(jié)構(gòu)如圖3所示。

        圖3 單個結(jié)構(gòu)塊的計算單元結(jié)構(gòu)Fig.3 Calculation unit structure of single structure block

        圖3 中:hk-1為第k-1 層輸出的特征映射矩陣,即經(jīng)過上一個Mirco-block的卷積變換后得到的非線性特征映射。hk-1經(jīng)過Bottleneck層和CBAM的過程可以具體化為如下公式:

        輸入CBAM-DPN 單個結(jié)構(gòu)的特征矩陣經(jīng)過Bottleneck 層式(4)~(6)所總結(jié)的過程進行權(quán)重賦值,得到新的特征映射矩陣。為進一步突出特征矩陣內(nèi)的有效區(qū)域,進入CBAM,在模塊內(nèi)依次經(jīng)過通道和空間維度,兩個維度中的平均池化和最大池化層可以完成特征降維并實現(xiàn)特征的有效突出,通道維度中的多層感知機(Multi-Layer Perceptron,MLP)可以根據(jù)需要改變輸出特征矩陣的維度。通過空間和通道的雙維度特征提取得到新的特征映射矩陣Uk,從而實現(xiàn)信息區(qū)域的有效突出。

        1.3 CBAM-DPN算法設(shè)計

        CBAM-DPN 微表情識別算法的主要步驟如圖4 所示。對微表情數(shù)據(jù)集進行圖像預(yù)處理,獲取到微表情序列的頂點幀,將其轉(zhuǎn)化為圖像矩陣并作為InputBlock 模塊的輸入數(shù)據(jù)。Input Block 模塊會對輸入數(shù)據(jù)進行批歸一化操作以加快所訓(xùn)練模型的收斂速度,并粗略篩選有效特征矩陣。然后,特征矩陣進入雙通道Block,每個雙通道Block 都會存在一個Transition 層[24]。Transition 層的結(jié)構(gòu)只存在于每個Block 的第一個Micro-block 之前,既可以承接上一個Block 的特征信息,又可以減少網(wǎng)絡(luò)參數(shù),降低數(shù)據(jù)冗余量。CBAM-DPN 共存在4 個Block 結(jié)構(gòu),每個Block 中Micro-block 的數(shù)量直接決定了整個CBAM-DPN 的深度,可以根據(jù)數(shù)據(jù)集大小,完成對每個Block 中Micro-block 個數(shù)的劃分,實現(xiàn)更好的模型訓(xùn)練效果。特征矩陣經(jīng)過雙通道Block后會提取到豐富的特征信息,通過自適應(yīng)平均池化層進行下采樣,實現(xiàn)特征矩陣降維,減少計算量。在全連接層前加入Dropout 層,可以進一步降低特征冗余,加快運算速度,一定程度上解決過擬合問題的出現(xiàn)。最后,通過全連接層將特征矩陣展成一列并連接在一起,根據(jù)每個數(shù)值的權(quán)重占比進行微表情狀態(tài)概率的評估,根據(jù)概率大小完成微表情狀態(tài)的分類。

        圖4 基于CBAM-DPN的微表情識別算法Fig.4 Micro-expression recognition algorithm based on CBAM-DPN

        2 實驗與結(jié)果分析

        2.1 微表情數(shù)據(jù)集預(yù)處理

        2.1.1 數(shù)據(jù)融合

        根據(jù)國際微表情識別大賽(facial Micro-Expression Grand Challenge,MEGC)建模標準,對SMIC(Spontaneous MICroexpression database)[6]、CASMEⅡ(Chinese Academy of Sciences Micro-Expression databaseⅡ )[25]和 SAMM(Spontaneous Activity and Micro-Movements)[26]三個數(shù)據(jù)集進行數(shù)據(jù)融合。

        SMIC 數(shù)據(jù)集記錄了16 名受試者的164 個微表情片段。每個微表情片段的幀率和分辨率均為100 frame/s和640×480,微表情狀態(tài)分別為“積極”“消極”和“驚訝”。

        CASMEⅡ數(shù)據(jù)集由26 名平均年齡在22.03 歲的受試者提供,共255 個微表情片段。每個微表情片段的幀率和分辨率均為200 frame/s 和640×480,共7 種微表情狀態(tài):“高興”“驚訝”“悲傷”“厭惡”“恐懼”“壓抑”和“其他”。

        SAMM 數(shù)據(jù)集由32 名多種族、平均年齡33.24 歲的受試者提供,共159 個微表情片段。每個微表情片段的幀率和分辨率均為200 frame/s 和2 040×1 088,共8 種微表情狀態(tài),分別是:“高興”“驚訝”“悲傷”“憤怒”“恐懼”“厭惡”“輕蔑”和“其他”。

        由于三個數(shù)據(jù)集的微表情狀態(tài)劃分不完全相同,為避免數(shù)據(jù)融合導(dǎo)致問題復(fù)雜化,根據(jù)SMIC 標簽重新分類,具體為“高興”重新 標注為“積極”;“厭惡”“壓抑”“憤怒”“輕蔑”“悲傷”和“恐懼”重新標注為“消極”;“驚訝”類別保持不變;“其他”微表情狀態(tài)不作為實驗樣本。

        融合數(shù)據(jù)集共包含68 名受試者的442 個微表情頂點幀,具體內(nèi)容見表1。為了得到更好的微表情識別模型,將訓(xùn)練數(shù)據(jù)集擴充為融合后數(shù)據(jù)集中頂點幀的相鄰四幀。頂點幀數(shù)據(jù)集中“驚訝”“積極”和“消極”的比例大約為1∶1.3∶3,為降低微表情狀態(tài)數(shù)量不均衡對訓(xùn)練效果的影響,采用重采樣技術(shù)[16]均衡訓(xùn)練數(shù)據(jù)集輸入神經(jīng)網(wǎng)絡(luò)時不同微表情狀態(tài)的比例。

        表1 用于實驗的微表情融合數(shù)據(jù)集Tab.1 Micro-expression fusion datasets used for experiments

        2.1.2 圖像預(yù)處理

        模型訓(xùn)練所用的圖像應(yīng)包含盡量少的無關(guān)信息,但SAMM 數(shù)據(jù)集提供的圖像包含較多的無關(guān)背景信息,這些信息的存在會影響神經(jīng)網(wǎng)絡(luò)對特征信息的提取。本文使用多任務(wù)卷積神經(jīng)網(wǎng)絡(luò)(Multi-Task CNN,MTCNN)[27]對SAMM 數(shù)據(jù)集中的圖像進行裁剪,得到幾乎不包含背景信息的圖像。裁剪前后的對比如圖5所示。

        圖5 圖像裁剪前后的對比Fig.5 Comparison of images before and after clipping

        三個數(shù)據(jù)集中,只有CASMEⅡ和SAMM 數(shù)據(jù)集注明了頂點幀位置,SMIC 數(shù)據(jù)集的標簽只注明了起始幀和結(jié)束幀,并未對頂點幀位置進行說明。本文對微表情數(shù)據(jù)集中標記了頂點幀位置的序列進行統(tǒng)計,發(fā)現(xiàn)頂點幀并不在序列中某一固定位置;故通過科學(xué)的計算方法,尋找頂點幀的位置也是必要工作。

        通過python 中的開源模塊face-recognition[28]識別人臉,獲取到人臉的68 個面部特征點;根據(jù)獲取到的特征點以半個唇寬度為標度尺,將面部肌肉活動最頻繁的10 個區(qū)域進行定義,分別是:唇左半部分、唇右半部分、下巴、左側(cè)鼻翼、右側(cè)鼻翼、左眼左側(cè)、右眼右側(cè)、左眉右側(cè)、右眉左側(cè)以及兩眉之間。圖6是68個特征標記點和定義的十個區(qū)域的具體位置。

        圖6 68個特征點及定義區(qū)域的具體位置Fig.6 Location of 68 characteristic points and defined areas

        為確定微表情序列中的頂點幀位置,將圖6 中定義的10個區(qū)域作為計算微表情特征變化的區(qū)域;依次計算10 個區(qū)域中當前幀與開始幀像素差的絕對值及當前幀與結(jié)束幀像素差的絕對值并求和;為降低圖像中環(huán)境噪聲對計算結(jié)果的影響,同時計算當前幀與相鄰幀像素差的絕對值,讓兩值做比,進行歸一化處理。然后,將10 個區(qū)域歸一化后的值求平均,并找出均值中的最大值Fmax。

        其中:xi、oni、offi分別為定義的十個區(qū)域中當前幀、開始幀和結(jié)束幀中的某一個區(qū)域。為保證式(8)有意義,同時對分子分母進行加1 的操作。式(9)是對定義的十個面部區(qū)域求和并均值化。均值Fi的大小可以直接反映當前表情狀態(tài)與中性表情狀態(tài)的差異量。頂點幀應(yīng)為整個序列中差異量最大的幀F(xiàn)max,關(guān)于均值Fi的值在整個序列中的變化如圖7 所示(其中虛線表示頂點幀位置)。

        圖7 一個微表情序列中不同幀像素均值的變化過程Fig.7 Change process of pixel mean of different frames in a micro-expression sequence

        2.2 實驗環(huán)境及參數(shù)設(shè)置

        實驗使用的計算機硬件配置:處理器為Intel Xeon E5-2630,CPU頻率為2.20GHz,GPU加速顯卡為Tesla P100-PCIE,顯存為16 GB,操作系統(tǒng)為Ubuntu 16.04.3,深度學(xué)習開發(fā)平臺為Pytorch 1.1.0框架。

        實驗中設(shè)置如下參數(shù):優(yōu)化器引入自適應(yīng)的Adam 方法;學(xué)習率設(shè)為0.001,并通過指數(shù)衰減調(diào)整學(xué)習率,學(xué)習率的衰減設(shè)為0.9;訓(xùn)練時批處理數(shù)量為32,epoch 為100,訓(xùn)練測試過程中使用的損失函數(shù)為Margin Loss函數(shù)。

        2.3 實驗評價標準

        本文采用LOSOCV(Leave One Subject Out Cross Validation)作為微表情融合數(shù)據(jù)集的評估方法,具體操作是每次從68 名受試者的微表情樣本中依次選擇1 名作為測試集,其余為訓(xùn)練集,直至所有受試者的樣本都做過測試集,將所有的測試結(jié)果合并作為最終的實驗結(jié)果。這種評價方法適用于小樣本的微表情數(shù)據(jù)集,既保證了三個數(shù)據(jù)集在評價時的獨立性,又很好地考慮到了種族、性別、微表情幅度大小等的區(qū)別?;谌齻€數(shù)據(jù)集中的微表情狀態(tài)數(shù)量具有明顯的不均衡性,為保證實驗的評估結(jié)果更有參考意義,采用未加權(quán)F1 值和未加權(quán)平均召回率兩個指標來評估DPN 和CBAMDPN模型的識別性能。

        未加權(quán)F1 值(UF1),也稱作宏平均F1 值。UF1 可以同等強調(diào)稀有類,在多分類問題中是個很好的選擇。UF1 可以用式(10)計算:

        其中:TPc、FPc、FNc分別為類別c中真正、假正和假負的數(shù)量,即實際類別為c預(yù)測也為c的數(shù)量、實際類別不是c預(yù)測為c的數(shù)量和實際類別是c預(yù)測不是c的數(shù)量。對C個類別的比值求平均得到UF1。

        未加權(quán)平均召回率(UAR),也稱“平衡準確率”,是一種較標準準確率(或加權(quán)平均召回)更合理的評價標準。UAR可以用式(11)計算:

        其中:Nc為樣本c的數(shù)量;TPc為樣本c中預(yù)測正確的數(shù)量。對C個類別的比值求平均得到UAR。

        UF1 和UAR都可以公平對待少數(shù)特定類,公平地評估模型在所有類上的表現(xiàn)。

        2.4 實驗結(jié)果分析

        2.4.1 算法復(fù)雜度

        衡量模型的算法復(fù)雜度主要從空間復(fù)雜度和時間復(fù)雜度上考慮??臻g復(fù)雜度即模型參數(shù)量,直接決定了參數(shù)的數(shù)量,受維度影響,模型的參數(shù)越多,訓(xùn)練模型所需的數(shù)據(jù)量就越大,若實際數(shù)據(jù)集不太大,參數(shù)過多則容易導(dǎo)致模型訓(xùn)練過擬合。時間復(fù)雜度即模型的運算次數(shù),一次運算可以定義為一次加乘運算,用浮點運算次數(shù)作為衡量標準,其大小直接決定了模型的訓(xùn)練時間,如果復(fù)雜度過高,會導(dǎo)致模型訓(xùn)練和預(yù)測耗費大量時間,既無法快速地驗證和改善模型,又無法做到快速預(yù)測。

        表2列出了DPN和CBAM-DPN在不同網(wǎng)絡(luò)層數(shù)上模型的算法復(fù)雜度的對比情況。輸入數(shù)據(jù)相同的條件下,同一算法會因網(wǎng)絡(luò)層數(shù)的增加導(dǎo)致算法復(fù)雜度的增加;針對相同網(wǎng)絡(luò)層數(shù),算法改進前后模型復(fù)雜度的變化非常小。因此,將CBAM 嵌入DPN 的優(yōu)化算法,使模型整體的參數(shù)數(shù)量和計算量的增長基本可以忽略不計,是一種十分節(jié)約開銷的優(yōu)化算法。

        表2 不同層數(shù)模型的算法復(fù)雜度對比Tab.2 Algorithm complexity comparison of different layer models

        2.4.2 損失值

        訓(xùn)練集損失值的大小可以直觀衡量模型訓(xùn)練效果的好壞,損失值越小,模型訓(xùn)練的收斂度越高,魯棒性就會越好,測試結(jié)果也會更接近真實值。圖8 為20、26 和38 層的DPN 和CBAM-DPN 訓(xùn)練模型的損失值隨epoch 次數(shù)變化的對比。三張圖中的損失值都會隨epoch 次數(shù)的增加而逐漸減小,最后趨于平穩(wěn)。網(wǎng)絡(luò)層數(shù)改變損失值也會發(fā)生相應(yīng)變化,當層數(shù)為26和38時,兩個模型平穩(wěn)后的損失值基本不會因?qū)訑?shù)改變而發(fā)生較大變化,證明該深度下的模型基本收斂;此時,DPN模型平穩(wěn)后的損失值在0.05左右,而CBAM-DPN 模型可以保持在0.04 左右。分別對比三種層數(shù)下模型改進前后的損失值,發(fā)現(xiàn)同一層數(shù)上CBAM-DPN 模型的損失值都會比DPN 模型的損失值下降速度更快,且趨于平穩(wěn)后的值更低??梢哉f明CBAM-DPN 模型較DPN 模型可以達到更好模型訓(xùn)練效果。

        圖8 模型優(yōu)化前后的訓(xùn)練損失值對比Fig.8 Comparison of loss in training before and after model optimization

        2.4.3 特征區(qū)域可視化

        在訓(xùn)練模型的過程中,訓(xùn)練效果的好壞可以通過損失值及測試準確度等結(jié)果展示出來,但模型對特征的提取能力難以通過訓(xùn)練過程直接反映出來?;贕rad-CAM(Gradientweighted Class Activation Map)的算法[29]構(gòu)建特征區(qū)域可視化,該算法可以實現(xiàn)模型所關(guān)注區(qū)域的可視化,充分體現(xiàn)模型的特征提取能力。輸入圖像在前向傳播至模型的最后一層卷積后獲得特征映射矩陣,對特征映射矩陣求平均梯度值得到權(quán)重矩陣,權(quán)重矩陣中每一維的數(shù)值代表判定圖像類別的重要程度。權(quán)重矩陣與特征映射矩陣線性相乘,再通過ReLU函數(shù)過濾,可以得到模型關(guān)注區(qū)域的熱力圖。將熱力圖放大到與輸入圖像尺寸相同,然后進行加權(quán)相加就得到識別分類模型所需要關(guān)注區(qū)域的可視化圖像。

        DPN 和CBAM-DPN 模型所關(guān)注和強調(diào)的特征區(qū)域如圖9所示。輸入圖像經(jīng)過同樣層數(shù)DPN 和CBAM-DPN 模型進行特征提取。圖9(a)中的DPN 模型只關(guān)注到了動作幅度較大的眼周及唇部等位置,而圖9(b)的CBAM-DPN 模型關(guān)注到的區(qū)域涉及了幾乎所有產(chǎn)生微表情動作的區(qū)域,說明CBAMDPN 模型比DPN 模型關(guān)注的特征區(qū)域更廣,CBAM 具有更強的發(fā)現(xiàn)細微特征的能力。圖9 中顏色的深淺代表了關(guān)注區(qū)域所占權(quán)重的大小即被模型所強調(diào)關(guān)注的程度,圖9(a)中關(guān)注區(qū)域整體的顏色較淺,即DPN 模型關(guān)注區(qū)域整體所占權(quán)重并不高,特征提取的能力不強;而相同區(qū)域下圖9(b)的CBAMDPN 模型關(guān)注區(qū)域的顏色更深,可以說明在動作幅度較大的區(qū)域內(nèi),CBAM-DPN 模型比DPN 模型的權(quán)重值更大,CBAM 可以有效突出特征區(qū)域。

        圖9 DPN和CBAM-DPN模型關(guān)注的特征區(qū)域Fig.9 Feature areas that DPN and CBAM-DPN models focus on

        2.4.4 識別效果

        在神經(jīng)網(wǎng)絡(luò)的模型構(gòu)建過程中,訓(xùn)練過程可以訓(xùn)練模型對微表情的識別能力,測試過程則可以驗證所訓(xùn)練模型的魯棒性和泛化能力。圖10 分別列出三種不同層數(shù)的DPN 和CBAM-DPN 模型在融合數(shù)據(jù)集上UF1 和UAR的測試結(jié)果。從實驗結(jié)果可以看出改進后的CBAM-DPN 模型在層數(shù)相同的情況下,測試效果均優(yōu)于DPN 模型。可以說明優(yōu)化后CBAM-DPN 模型具有更強微小特征的信息提取能力,可以實現(xiàn)更優(yōu)于DPN模型的識別效果。

        圖10 優(yōu)化前后模型不同深度的識別效果對比Fig.10 Comparison of recognition effect of different depth models before and after optimization

        選擇識別效果最好,網(wǎng)絡(luò)深度為26 層的DPN 及CBAMDPN模型與其他幾種基于頂點幀進行微表情識別的模型進行對比,識別效果對比如表3 所示。表3 中對比的模型均使用UF1 和UAR的評價標準、LOSOCV 的驗證算法,實驗均在SMIC、CASMEⅡ、SAMM 以及三種數(shù)據(jù)集的融合數(shù)據(jù)集上進行。CBAM-DPN 模型整體的UF1 和UAR識別效果可以達到0.720 3 和0.729 3,是幾種算法中效果最好的。在這之前,幾種基于頂點幀的微表情識別模型中效果最好的是CapsuleNet,其模型的參數(shù)量為13.400×106,所需算力是7.585 GFLOPs,而CBAM-DPN 模型的參數(shù)量為5.114×106,算力是943.600 MFLOPs,在大量降低計算復(fù)雜度的基礎(chǔ)上提高了識別效果。

        表3 不同模型的識別效果對比Tab.3 Comparison of recognition effect of different models

        圖11 是根據(jù)CBAM-DPN 模型對融合數(shù)據(jù)集中三種微表情狀態(tài)的識別結(jié)果繪制的混淆矩陣圖(“neg”“pos”和“sur”分別代表“消極”“積極”和“驚訝”)。整個融合數(shù)據(jù)集中三種微表情狀態(tài)的比例非常不均衡,其中“消極”樣本的數(shù)量超過了樣本總量的50%,訓(xùn)練中采用的重采樣技術(shù)使接受訓(xùn)練的樣本數(shù)量基本保持1∶1∶1 的比例。根據(jù)最后的測試結(jié)果可以看到“消極”“積極”和“驚訝”樣本召回率(recall)分別是0.77,0.67 和0.75,這充分說明了在訓(xùn)練CBAM-DPN 的模型時,采用重采樣技術(shù)對抗數(shù)據(jù)不平衡的有效性。CapsuleNet 的平均召回率只有0.65,而CBAM-DPN 模型對三種微表情狀態(tài)的平均召回率可以達到0.73。

        圖11 CBAM-DPN模型在融合數(shù)據(jù)集上的測試結(jié)果的混淆矩陣Fig.11 Confusion matrix of CBAM-DPN model test results on fusion dataset

        根據(jù)統(tǒng)一的評價指標綜合比較不同算法的模型識別效果,可以發(fā)現(xiàn)CBAM-DPN 的效果最好。在模型識別效果較優(yōu)的前提下進一步比較模型總體參數(shù)的大小,CBAM-DPN 的模型參數(shù)也遠小于CapsuleNet。綜上,可以充分說明使用優(yōu)化后的CBAM-DPN算法進行微表情識別的有效性。

        2.4.5 更多微表情狀態(tài)實驗及結(jié)果分析

        上述實驗及結(jié)果分析均針對三種微表情狀態(tài)展開,雖然在相同的微表情分類條件下,與前者實驗成果相比,優(yōu)化后模型的識別效果具有一定程度的提高;但真實場景下微表情狀態(tài)的劃分更為精細,僅劃分為積極、消極和驚訝三大類,難以滿足實際應(yīng)用需求。

        為了更全面地驗證所提出模型的泛化性,使用CASMEⅡ數(shù)據(jù)集分別對DPN 和CBAM-DPN 模型進行更多類別微表情狀態(tài)的識別訓(xùn)練并進行測試。實驗方案中除數(shù)據(jù)集發(fā)生變化及未采用重采樣技術(shù),實驗環(huán)境、參數(shù)設(shè)置及評價標準等均與三類微表情狀態(tài)識別的實驗保持一致。CASMEⅡ數(shù)據(jù)集的七類微表情狀態(tài)中,“悲傷”和“恐懼”的樣本數(shù)量分別為4 和2,為避免微表情狀態(tài)數(shù)量過少影響模型的訓(xùn)練、測試效果,將這兩類狀態(tài)去除,對另外五類共244 個有效樣本進行訓(xùn)練和測試。另外五類樣本的具體數(shù)量如表4所示。

        表4 CASMEⅡ數(shù)據(jù)集中用于實驗的各微表情狀態(tài)的數(shù)量Tab.4 Number of different micro-expression states used in experiments in CASMEⅡdataset

        2.4.4 節(jié)中,三類微表情識別的實驗已經(jīng)驗證網(wǎng)絡(luò)層數(shù)相同時,CBAM-DPN 模型的測試結(jié)果均優(yōu)于DPN 模型,且當模型層數(shù)為26時,模型會基本收斂。故針對CASMEⅡ數(shù)據(jù)集的實驗,只設(shè)計了一組層數(shù)為26 的對比實驗,訓(xùn)練過程中DPN 和CBAM-DPN 模型的損失值趨于平穩(wěn)時,均可以保持在0.05 左右,說明模型訓(xùn)練基本完成。關(guān)于模型具體的識別效果如表5所示。

        表5 DPN和CBAM-DPN模型在CASMEⅡ數(shù)據(jù)集上的識別效果對比Tab.5 Comparison of recognition effect of DPN and CBAM-DPN models on CASMEⅡdataset

        由表5 中的實驗結(jié)果可以看出,雖然因為識別類別的增加以及數(shù)據(jù)集的大量減少,會在一定程度上影響模型的識別效果,但對比同一網(wǎng)絡(luò)層數(shù)下DPN 和CBAM-DPN 模型的識別效果可以發(fā)現(xiàn),CBAM-DPN 模型的識別效果是優(yōu)于DPN 模型的。

        進一步衡量兩個模型對同一數(shù)據(jù)集的識別能力,將兩種模型對每一類微表情的召回率分別繪制混淆矩陣,如圖12 所示(“rep”“hap”“sur”“dig”和“oth”分別代表“壓抑”“高興”“驚訝”“厭惡”和“其他”)?;煜仃囍忻恳活惖恼倩芈蕰S著樣本數(shù)量的增加變高,其中樣本數(shù)量最多的“其他”類別,召回率可以達到0.70 及以上,可以說明兩種模型均具有識別更多微表情類別的能力。對比DPN 和CBAM-DPN 模型對每一類微表情的召回率,大部分類別CBAM-DPN 模型的召回率優(yōu)于DPN 模型的召回率;CBAM-DPN 和DPN 模型的平均召回率分別為0.486和0.468,說明優(yōu)化后的模型具有更好的識別微表情狀態(tài)的能力。

        圖12 CASMEⅡ數(shù)據(jù)集上測試結(jié)果的混淆矩陣Fig.12 Confusion matrices of test results on CASMEⅡdataset

        綜合比較更多分類狀態(tài)下的微表情識別效果,可以充分說明CBAM-DPN 模型及DPN 模型均具有識別更多微表情狀態(tài)的能力;優(yōu)化后的CBAM-DPN 模型比DPN 模型具有更好的微表情識別能力和更強的泛化性,可以更廣泛地應(yīng)用于微表情識別領(lǐng)域。

        3 結(jié)語

        本文以雙通道網(wǎng)絡(luò)(DPN)為主要框架,融合卷積注意力模塊(CBAM),提出了一種基于CBAM-DPN 的算法,并基于該優(yōu)化算法實現(xiàn)了對微表情序列頂點幀狀態(tài)的識別。通過綜合比較模型的參數(shù)、浮點運算次數(shù)和實驗結(jié)果,可以表明基于CBAM-DPN算法對融合數(shù)據(jù)集進行微表情識別效果優(yōu)于DPN算法及典型的微表情識別算法,是對DPN 算法的有效改進。本文實驗采用融合了3 個數(shù)據(jù)集的融合數(shù)據(jù)集,這種方式既增加了樣本數(shù)量,又增加了樣本的多樣性和樣本環(huán)境的復(fù)雜性,更貼近真實的微表情產(chǎn)生場景。此外,本文方案采用的重采樣技術(shù),大大降低了樣本類型不均衡對識別效果的影響;同時,在少量的樣本數(shù)據(jù)下,采用LOSOCV 評估方法,充分保證了評估對象的獨立性。為進一步驗證模型應(yīng)用到實際場景中的能力,實驗對比更多微表情狀態(tài)下DPN 與CBAM-DPN 模型的微表情識別效果,說明了兩種模型均具有識別更多微表情狀態(tài)的能力且CBAM-DPN 模型具有更好的識別能力和泛化性。因此,本文所提供的算法具有較強的實用性。為進一步提高CBAM-DPN 的識別效果,后期擬先通過ImageNet 等數(shù)據(jù)量充足的數(shù)據(jù)集對CBAM-DPN 進行預(yù)訓(xùn)練,再通過遷移學(xué)習的算法將預(yù)訓(xùn)練后的模型用于微表情識別。

        猜你喜歡
        頂點矩陣特征
        過非等腰銳角三角形頂點和垂心的圓的性質(zhì)及應(yīng)用(下)
        如何表達“特征”
        不忠誠的四個特征
        當代陜西(2019年10期)2019-06-03 10:12:04
        關(guān)于頂點染色的一個猜想
        抓住特征巧觀察
        初等行變換與初等列變換并用求逆矩陣
        矩陣
        南都周刊(2015年4期)2015-09-10 07:22:44
        矩陣
        南都周刊(2015年3期)2015-09-10 07:22:44
        矩陣
        南都周刊(2015年1期)2015-09-10 07:22:44
        線性代數(shù)的應(yīng)用特征
        河南科技(2014年23期)2014-02-27 14:19:15
        三上悠亚av影院在线看| 二区三区亚洲精品国产| 亚洲一区二区三区最新视频| 女同在线视频一区二区| 日韩亚洲精品中文字幕在线观看| 久久www免费人成—看片| 无码成人aaaaa毛片| 色猫咪免费人成网站在线观看| 91精品国产免费久久久久久青草| av一区二区三区高清在线看| 日韩亚洲精品国产第二页| 欧美性高清另类videosex| 女人脱了内裤趴开腿让男躁| 幻女bbwxxxx在线视频| 国产成人无码区免费网站| 亚洲无线码一区在线观看| 国产毛片精品av一区二区| 乱子轮熟睡1区| 日日婷婷夜日日天干| 热99精品| 亚洲视频在线中文字幕乱码| 亚洲精品中文字幕乱码影院| 天码人妻一区二区三区| 无码日日模日日碰夜夜爽| 中文字幕亚洲乱亚洲乱妇| 美女免费视频观看网址| 午夜理论片yy44880影院| 亚洲日韩精品欧美一区二区| 国产91精选在线观看麻豆| 亚洲人妖女同在线播放| 中文字幕女同系列在线看一| 蜜桃无码一区二区三区| 老熟女毛茸茸浓毛| 丁香婷婷色| 91人妻一区二区三区蜜臀| 欧美成人午夜免费影院手机在线看 | 狠狠躁日日躁夜夜躁2022麻豆| 99久久人人爽亚洲精品美女| 国产最新在线视频| 日韩人妻免费一区二区三区| 久久婷婷五月综合色高清|