亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于多任務(wù)深度卷積神經(jīng)網(wǎng)絡(luò)的人臉/面癱表情識別方法

        2019-04-15 05:17:32彭先霖張海曦胡琦瑤
        關(guān)鍵詞:人臉識別深度特征

        彭先霖,張海曦,胡琦瑤

        (1.西北工業(yè)大學(xué) 電子信息學(xué)院,陜西 西安 710129;2.西北大學(xué) 信息科學(xué)與技術(shù)學(xué)院,陜西 西安 710127)

        在心理學(xué)和人工智能領(lǐng)域,人臉表情識別(facial expression recognition)是一個持續(xù)不斷的研究課題,在過去30年中吸引了眾多研究者的關(guān)注,至今仍然是一個富有挑戰(zhàn)性的課題。

        人臉表情通常被劃分為憤怒、蔑視、厭惡、恐懼、幸福、悲傷和驚訝這7類,表情識別方法主要有基于傳統(tǒng)人工特征提取和分類器相結(jié)合的方法[1-5]和基于深度學(xué)習(xí)的方法。傳統(tǒng)表情識別方法中人工選擇的特征難以較完整地描述人臉表情特點(diǎn),因此表情識別效果不佳。深度學(xué)習(xí)由于在特征提取方面的卓越表現(xiàn)已成為目前表情識別領(lǐng)域的主流方法。Yu[6]構(gòu)建一個 9 層 CNNs 結(jié)構(gòu),在最后一層連接層采用softmax分類器將表情分為 7 類,該模型在 SFEW2. 0 數(shù)據(jù)集上識別率達(dá)到 61.29%。Lopes[7]在CNN網(wǎng)絡(luò)前加入預(yù)處理過程,探索預(yù)處理對精度的影響,最終識別率在CK+數(shù)據(jù)集上達(dá)到 97.81%,且訓(xùn)練時間更短。Wang[8]采用triple損失函數(shù)訓(xùn)練CNN模型,并且運(yùn)用數(shù)據(jù)增強(qiáng)手段,將識別率提高2%。該模型對難以區(qū)分的類間表情(如生氣和厭惡)表現(xiàn)優(yōu)良。Zhao[9]融合 MLP 和 DBN,將 DBN 無監(jiān)督特征學(xué)習(xí)的優(yōu)勢和MLP的分類優(yōu)勢聯(lián)系起來以提高性能。He[10]結(jié)合深度學(xué)習(xí)與傳統(tǒng)機(jī)器學(xué)習(xí),首先運(yùn)用LBP/VAR提取初次特征,以初次特征作為 DBN的輸入實(shí)現(xiàn)分類。Li[11]為了解決DBN忽略圖像局部特征的問題,將CS-LBP與DBN進(jìn)行融合,提高了識別率。

        面癱是一種常見病,臨床表現(xiàn)為面部表情肌群運(yùn)動功能障礙,如口眼歪斜,嚴(yán)重患者甚至無法完成閉眼、皺眉、微笑等動作,因此,可以通過被觀察者在閉眼、微笑、抬眉、皺眉、聳鼻、示齒和鼓腮等動作下的面部表觀特點(diǎn),判斷其是否存在面癱癥狀以及存在哪種癥狀,從而初步判定其是否有面癱疾病。從面癱患者的面部變化特點(diǎn)可以看出,面癱表情可以看作一類特殊的表情劃分類別。與常規(guī)表情類似,面癱表情也體現(xiàn)在嘴巴、鼻子、眉毛等人臉部位的變化,但面癱表情在這些部位的變化特點(diǎn)與常規(guī)表情不同。由此可以推出,人臉常規(guī)表情識別的方法可以推廣應(yīng)用于面癱表情識別。

        目前計算機(jī)技術(shù)已初步用于對面癱表情進(jìn)行自動分析。Neely等人提出了一種基于灰度對比法的面癱識別算法[12]。Moran等人對該方法做了推廣,使其具有了更廣泛的應(yīng)用[13]。Murty等采用測量和比較患者靜態(tài)和固定動作狀態(tài)下的特征點(diǎn)間距離的方法來對面神經(jīng)功能進(jìn)行量化,得到Nottingham分級法[14]。王紹宇等人提出了基于特征光流(Eigen flow)特征的面癱客觀評估算法[15],利用主動形狀模型提取出感興趣的人臉區(qū)域和面部特征,然后結(jié)合醫(yī)學(xué)圖像分析方法,使用光流對面癱時具有的特殊面部表情進(jìn)行評價。閆亞美等提出了一種基于對稱軸的面癱分級算法[16],在圖像邊緣提取的基礎(chǔ)上,根據(jù)面癱患者面部不對稱的特點(diǎn)進(jìn)行面癱識別。Guo等人提出了一種基于卷積神經(jīng)網(wǎng)絡(luò)的面癱客觀評估算法[17],并在給定的面癱數(shù)據(jù)庫UPFP數(shù)據(jù)集上得到更高的預(yù)測精度。

        現(xiàn)有深度神經(jīng)網(wǎng)絡(luò)方法大多專注于表情識別單個任務(wù),然而,現(xiàn)實(shí)世界中人臉表情與不同個體的面部形態(tài)、頭部姿勢、外部光照等多種因素交織在一起。為了減弱面部形態(tài)對表情識別的影響,本文構(gòu)建深度多任務(wù)學(xué)習(xí)框架,將知識從人臉識別相關(guān)任務(wù)中遷移過來,克服面部形態(tài)對表情識別的影響??紤]到卷積神經(jīng)網(wǎng)絡(luò)(convolution neural network,CNN)已廣泛用于圖像處理與分析領(lǐng)域[18-19],特別是VGG face[20],Googlenet[21],Resnet 34[22]的優(yōu)秀表現(xiàn),本文選擇這些深度模型來驗(yàn)證本文所提方法的有效性,并將其推廣到面癱表情識別。

        1 基于分層多任務(wù)學(xué)習(xí)的人臉表情識別

        本文提出的多任務(wù)深度學(xué)習(xí)方法的結(jié)構(gòu)如圖1所示。與傳統(tǒng)的深度CNN方法相比,進(jìn)行了以下改進(jìn):①采用雙層樹分類器代替深層網(wǎng)絡(luò)中的平面softmax分類器,在提出的網(wǎng)絡(luò)中共同使用人臉表情標(biāo)簽和人臉標(biāo)簽;②利用多任務(wù)深度學(xué)習(xí)方法學(xué)習(xí)不同任務(wù)的特定深度特征。

        1.1 分層結(jié)構(gòu)的構(gòu)建

        文中構(gòu)建了一個兩層結(jié)構(gòu)來體現(xiàn)人臉識別和人臉表情識別任務(wù)之間的關(guān)系。對于人臉表情識別,其目的是忽略人臉成分并識別表情成分,而對于人臉識別,人臉表情成分應(yīng)該被忽略,重點(diǎn)識別人臉。本文的多層次結(jié)構(gòu)將不同人臉與不同人臉表情視為一個新的類別,通過利用人臉標(biāo)簽和人臉表情標(biāo)簽,學(xué)習(xí)更具辨別力的深層特征。

        圖1 分層多任務(wù)學(xué)習(xí)框圖Fig.1 The hierarchical multitasking learning block diagram

        多任務(wù)深度學(xué)習(xí)模型采用的層次結(jié)構(gòu)如圖2所示,其中,使用一個人臉表情識別分類器和多個人臉識別分類器。高層學(xué)習(xí)任務(wù)側(cè)重于人臉表情的識別,而每個低層學(xué)習(xí)任務(wù)側(cè)重于人臉識別(具有相同表情的人臉)。此外,分層結(jié)構(gòu)可用于確定每個學(xué)習(xí)任務(wù)中的粗節(jié)點(diǎn)(人臉表情)的數(shù)量和低層節(jié)點(diǎn)(人臉)的分布,其中具有相同人臉表情的人臉應(yīng)被分配到相同的學(xué)習(xí)任務(wù)中。

        圖2 兩層結(jié)構(gòu)框圖Fig.2 The two-layer structure block diagram

        1.2 基于分層結(jié)構(gòu)的多任務(wù)深度學(xué)習(xí)

        如上所述,使用兩層樹分類器來代替?zhèn)鹘y(tǒng)深層網(wǎng)絡(luò)中的平面softmax分類器,在提出的網(wǎng)絡(luò)中,可利用人臉表情標(biāo)簽和人臉標(biāo)簽來幫助深度網(wǎng)絡(luò)學(xué)習(xí)更具辨別力的深度特征。更重要的是,由于人臉表情的變化會影響人臉識別的準(zhǔn)確率,因此,應(yīng)該針對不同的分類任務(wù)使用特定的深度特征。

        對于輸入圖像I,屬于第l個人臉表情的對象圖像I的預(yù)測概率可以用式(1)計算,

        (1)

        其中,We表示人臉表情識別分類器權(quán)重參數(shù);xe表示人臉表情識別學(xué)習(xí)的特定深部特征;M是粗粒度屬(人臉表情)的總數(shù)。人臉表情識別的預(yù)測概率可用于選擇特定的人臉識別分類器。對于對應(yīng)于第l個表情的第l個低層分類器,輸入圖像I屬于第j個類別的預(yù)測概率可以表示為

        (2)

        其中,Wf表示特定的人臉識別分類器權(quán)重參數(shù);xf表示用于人臉識別的特定深度特征;Hl是對象圖像被分類的特定學(xué)習(xí)任務(wù)。

        由于最終預(yù)測概率可計算為P(I∈el)P(I∈fj),因此深層網(wǎng)絡(luò)的損失函數(shù)可以表示為

        £(W,x)=

        (3)

        本文提出目標(biāo)函數(shù)旨在最大化人臉表情識別和人臉識別的正確預(yù)測概率,因此,在每次迭代期間可以聯(lián)合優(yōu)化多級分類器中的權(quán)重參數(shù)。

        損失函數(shù)用于在訓(xùn)練過程中優(yōu)化分層樹分類器中的所有權(quán)重參數(shù),可通過誤差反向傳播的方法進(jìn)行學(xué)習(xí)。具體而言,可分別在式(4)和式(5)中計算多級分類器X和Y中的權(quán)重參數(shù)的對應(yīng)梯度

        (4)

        (5)

        可以看到,與傳統(tǒng)的反向傳播不同,在每次迭代過程中只優(yōu)先考慮相關(guān)的學(xué)習(xí)任務(wù)。這是因?yàn)?損失函數(shù)僅考慮分層樹分類器中的相關(guān)權(quán)重參數(shù),以及其他學(xué)習(xí)任務(wù)的預(yù)測概率,防止在訓(xùn)練過程中遠(yuǎn)離全局最優(yōu)。

        2 實(shí) 驗(yàn)

        本文提出的分層多任務(wù)學(xué)習(xí)方法在流行的人臉表情數(shù)據(jù)集(CK+)[23]上進(jìn)行了對比實(shí)驗(yàn),并進(jìn)一步在面癱表情數(shù)據(jù)庫上進(jìn)行了本文方法的有效性驗(yàn)證。

        2.1 CK+數(shù)據(jù)集實(shí)驗(yàn)結(jié)果及分析

        CK+數(shù)據(jù)集:擴(kuò)展CohnKanade*(CK+)數(shù)據(jù)集是用于評估人臉表情識別方法的最常用數(shù)據(jù)集之一。 CK+包含來自123名受試者的593個視頻序列,其中只有327個被標(biāo)記。CK+數(shù)據(jù)集未為每幅圖像提供精確的標(biāo)簽,只有圖像序列有標(biāo)簽,序列中包含了從平靜到表情表現(xiàn)峰值的圖像。因此通過對應(yīng)表情序列取表情峰值附近的3幀。之后,9個子集用于訓(xùn)練,另一個子集用于驗(yàn)證。文中118個具有精確標(biāo)簽的受試者被分配到7個粗類別(人臉表情)中。值得注意的是,由于每個類別的CK+數(shù)據(jù)集中沒有足夠的圖像,因此,本文以VGG-face人臉模型參數(shù)為基礎(chǔ)進(jìn)行訓(xùn)練。

        所有方法在CK+數(shù)據(jù)集上的識別準(zhǔn)確率如表1所示,可以很容易地發(fā)現(xiàn),本文所提出的方法在準(zhǔn)確率方面取得了很好的表現(xiàn)。與基于低級特征的方法(如HOG3D[24]或3D Sift[25])相比,基于深度學(xué)習(xí)的方法在學(xué)習(xí)可靠性和特征提取上均具有更好的表現(xiàn)。此外,與基于深度學(xué)習(xí)的已有方法(3DCNN[26],DTGAN[27],PHRNN-MSCNN[28],Inception V3[21],Resnet 34[22],VGG-face[20])相比,本文提出的方法仍然可以在依賴于人的實(shí)驗(yàn)中獲得最佳性能,更重要的是,可以在不依賴于人的實(shí)驗(yàn)上得到更多的改善。

        表1 CK+數(shù)據(jù)集上不同表情識別方法的準(zhǔn)確率

        Tab.1 Accuracy of different expression recognition methods on CK+data sets

        方法 準(zhǔn)確率/%HOG3D 60.89 3D Sift 64.39 3DCNN 85.9 3DCNN-DAP 92.4 DTGAN(weighted sum) 96.94 DTGAN(joint) 97.25 PHRNN-MSCNN 97.78 VGG face fintune(person-dependent) 96.42 Our method(person-dependent) 97.53 VGG face fintune(person-independent) 92.70 Our method(person-independent)95.64Inception V3(person-dependent)100.0Our method(person-dependent)100.0Inception V3(person-independent)93.35Our method(person-independent)96.02Resnet 34(person-dependent)100.0Our method(person-dependent)100.0Resnet 34(person-independent)94.21Our method(person-independent) 96.62

        同樣容易理解的是,依賴于人臉的準(zhǔn)確率高于不依賴于人臉的準(zhǔn)確率,因?yàn)槿四樞畔⒖梢栽谏顚泳W(wǎng)絡(luò)中學(xué)習(xí),并且可能影響表情識別。與傳統(tǒng)深度CNN方法相比,本文提出的方法可以實(shí)現(xiàn)更高的準(zhǔn)確率。

        提出方法的混淆矩陣如表2所示,從表2可以看到,本文提出的方法可以在某些人臉表情(如憤怒,蔑視,厭惡,恐懼和幸福)上獲得令人滿意的表現(xiàn),而對于其他一些人臉表情(如悲傷和驚喜),由于表情彼此相似,難以區(qū)分,識別準(zhǔn)確率仍相對較低。

        表2 本文方法在CK +數(shù)據(jù)庫上的混淆矩陣(依賴于人的結(jié)果)

        Tab.2 The confusion matrix of this method on CK+database (depending on human results)

        憤怒蔑視厭惡恐懼幸福悲傷驚訝?wèi)嵟?00000000蔑視010000000厭惡001000000恐懼000100000幸福000010000悲傷7.3206.410086.270驚訝01.45000098.55

        2.2 面癱表情數(shù)據(jù)集實(shí)驗(yàn)結(jié)果及分析

        考慮到面癱表情和基本人臉表情間的相關(guān)性,本文提出的分層多任務(wù)深度學(xué)習(xí)方法進(jìn)一步在面癱表情識別問題上進(jìn)行了驗(yàn)證。

        目前,國內(nèi)外沒有統(tǒng)一的面癱評估標(biāo)準(zhǔn)和公用數(shù)據(jù)庫,在本實(shí)驗(yàn)中,利用一個尚未公開的面癱表情數(shù)據(jù)庫進(jìn)行實(shí)驗(yàn)。如圖3所示,該數(shù)據(jù)庫記錄了49名面癱患者的7種面癱表情動作(閉眼、微笑、抬眉、皺眉、聳鼻、示齒和鼓腮)。

        圖3 同一個人的7種面癱表情Fig.3 Seven facial expressions of the same person

        由于所得的面癱數(shù)據(jù)有限,每一個人對應(yīng)每一個表情動作只有一張圖片,因此在本實(shí)驗(yàn)中只能進(jìn)行face-independent的實(shí)驗(yàn)。在實(shí)驗(yàn)中,本文選擇了268個面癱表情樣本作為訓(xùn)練樣本,40個樣本作為測試樣本。

        實(shí)驗(yàn)結(jié)果如表3和圖 4所示??梢园l(fā)現(xiàn),本文提出的模型在面癱表情動作的識別上依舊可以得到一定的提升。相比傳統(tǒng)的手工特征方法, 基于深度學(xué)習(xí)的算法能夠得到更加穩(wěn)定的特征。而且本文提出的算法通過利用人臉信息和表情信息,可以使深度網(wǎng)絡(luò)學(xué)習(xí)得到可分性更強(qiáng)的特征。但是由于數(shù)據(jù)量極少,因此有限的數(shù)據(jù)可能難以將網(wǎng)絡(luò)參數(shù)進(jìn)行有效的優(yōu)化。同時可以發(fā)現(xiàn),微笑和皺眉很難被正確區(qū)分,這是因?yàn)檫@兩種表情很容易與其他表情混淆。

        表3 面癱表情數(shù)據(jù)庫上不同方法的準(zhǔn)確率

        Tab.3 Accuracy of different methods on the facial expression database

        方法準(zhǔn)確率 VGG-fintune62.50 VGG+multi-task learning67.50Inception V370.00Inception V3+multi-task learning72.50Resnet 3475.00 Resnet 34+multi-task learning 80.00

        圖4 面癱數(shù)據(jù)集3種方法正確率比較Fig.4 Comparison of the correctness rates of three methods for facial data sets

        3 結(jié) 語

        本文提出了一種基于分層多任務(wù)學(xué)習(xí)的人臉表情識別方法。該方法采用雙層樹分類器代替?zhèn)鹘y(tǒng)深層CNN中的平面softmax分類器,構(gòu)成在表情識別同時考慮人臉識別的多任務(wù)學(xué)習(xí)框架,與用于人臉表情識別的傳統(tǒng)單層分類器相比,有效提高了表情識別率。本文進(jìn)一步將提出的方法推廣應(yīng)用于面癱表情識別中,也取得較好的識別效果。

        猜你喜歡
        人臉識別深度特征
        人臉識別 等
        深度理解一元一次方程
        揭開人臉識別的神秘面紗
        如何表達(dá)“特征”
        不忠誠的四個特征
        深度觀察
        深度觀察
        深度觀察
        抓住特征巧觀察
        基于類獨(dú)立核稀疏表示的魯棒人臉識別
        亚洲精品综合久久中文字幕| 国产精品久久久久国产精品| 亚洲地区一区二区三区| 亚洲国产综合久久精品| 人妻精品在线手机观看| 国产婷婷色综合av蜜臀av| 国产啪精品视频网给免丝袜| 日韩精品国产一区在线| 国产日产一区二区三区四区五区| 白丝兔女郎m开腿sm调教室| 日韩AV不卡六区七区| 亚洲毛片av一区二区三区| 开心五月激情五月五月天| 天堂8在线天堂资源bt| 欧美精品在线一区| 天堂av中文在线官网| 日韩国产有码精品一区二在线| 99久久国内精品成人免费| 国产精品v片在线观看不卡| 青草热久精品视频在线观看| 久久九九av久精品日产一区免费| 亚洲av日韩一区二区| 欧美极品jizzhd欧美| 亚洲av无码乱码国产精品fc2| 精品国产91久久久久久久a| 今井夏帆在线中文字幕| 亚洲精品美女久久777777| 天天躁人人躁人人躁狂躁| 免费人成黄页网站在线观看国内| 日本一区二区不卡精品| 亚洲成av人片一区二区| 久久精品性无码一区二区爱爱| 我想看久久久一级黄片| 久久亚洲av午夜福利精品一区| 精品一区二区三区在线观看| 国产91精品丝袜美腿在线| 国产一区二区三区四色av| 日本做受高潮好舒服视频| 韩国主播av福利一区二区| 亚洲av第一区国产精品| 国内精品视频在线播放不卡 |