亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于改進AlexNet模型的面部表情識別算法研究

        2023-07-14 08:30:46孫歌王劍雄歐琪等
        計算機應(yīng)用文摘·觸控 2023年12期
        關(guān)鍵詞:深度學習

        孫歌 王劍雄 歐琪等

        摘要:面部表情是傳遞人類情感狀態(tài)最直觀的方式,通過分析面部表情,可以獲得某人在某時剖的精神和身體狀況。表情識別在人機通信、自動駕駛、醫(yī)學等應(yīng)用領(lǐng)域有著重要的應(yīng)用價值,并且受到越來越多的關(guān)注。隨著深度學習技術(shù)的發(fā)展,表情識別技術(shù)研究也從常規(guī)的圖像處理方法轉(zhuǎn)變?yōu)椴捎蒙疃葘W習的方法,但是由于樣本數(shù)量有限,以及硬件設(shè)備的限制,使得提高表情識別準確率的方法受到了一定的限制。文章主要對改進ALEXNET模型的表情識別算法進行研究,由于ALEXNET在人臉面部表情識別中準確率較低,因此在對ALEXNET網(wǎng)絡(luò)進行深入研究的基礎(chǔ)上,通過修改卷積核的大小以及卷積層的數(shù)量,增加注意力機制和殘差塊.以提高網(wǎng)絡(luò)對人臉特征的提取能力,并將改進后的AlcxNct模型應(yīng)用于CK+及jAFFE數(shù)據(jù)集,進而在該數(shù)據(jù)集上取得了較好的識別準確率。

        關(guān)鍵詞:表情識別;AlcxNct;深度學習;卷積層

        中圖法分類號:TP391 文獻標識碼:A

        1 引言

        隨著科學技術(shù)的進步,深度神經(jīng)網(wǎng)絡(luò)現(xiàn)已被應(yīng)用于自動面部表情識別,從實驗室控制到野外環(huán)境,其應(yīng)用越來越廣闊。面部表情是人類最直接、最容易感知的信號之一,可以幫助人們更好地理解、表達情感和意圖。隨著社會自動化機器人、醫(yī)學、駕駛員疲勞檢測等人機交互信息系統(tǒng)的發(fā)展,面部表情自動分析已成為一種重要的技術(shù)手段,并受到廣泛的關(guān)注。機器可視化和機器學習方法也在發(fā)展,它們可以從面部表征中提取出有用的信息,從而實現(xiàn)對人臉的準確識別。20 世紀初,EKMAN 等[1] 進行跨文化分析,提出了6 種主要情感,這些情感可以被界定為憤慨、憎恨、驚恐、愉快、悲痛和震驚,表明不論文化背景如何,人們對這些情況的感知方式都是一致的。

        在當今深度學習技術(shù)發(fā)展迅速的背景下,傳統(tǒng)分析方法和深度學習分析方法已經(jīng)是表情分析技術(shù)的2個重要方向。深度學習技術(shù)憑借自身強大的特征提取能力和自學習能力已在表情識別領(lǐng)域彰顯出巨大潛力。因此,在表情識別中應(yīng)用深度學習技術(shù)進行特征提取取代手工特征提取已逐漸成為主流,也是當今技術(shù)發(fā)展的必然要求。特別是在人臉表情識別方向,深度學習技術(shù)通過多層神經(jīng)網(wǎng)絡(luò)的組合,已能夠從人臉圖片中識別出當前人類情緒,并對情緒種類加以分類。當前較為流行的深度學習網(wǎng)絡(luò)有卷積神經(jīng)網(wǎng)絡(luò)[2](ConVolutional Neural Network,CNN)、深度置信網(wǎng)絡(luò)[3](Deep BeliefNetworks,DBN)、殘差神經(jīng)網(wǎng)絡(luò)[4]( Residual Networks, ResNet) 和生成對抗網(wǎng)絡(luò)[5](Generative Adversarial Networks,GAN)等。

        2 改進的AlexNet 網(wǎng)絡(luò)結(jié)構(gòu)

        在ISVRC2012 上最為矚目的當屬AlexNet 神經(jīng)網(wǎng)絡(luò)模型。AlexNet 的整體結(jié)構(gòu)總共分為8 層,卷積層共5 層和全連接層共3 層,卷積核尺寸分別設(shè)定為11×11,5×5,3×3,3×3 和3×3。AlexNet 網(wǎng)絡(luò)雖然在圖像識別領(lǐng)域中取得了一定成績,但隨著神經(jīng)網(wǎng)絡(luò)的迭代和發(fā)展,AlexNet 在應(yīng)用于圖像分析時也逐漸出現(xiàn)問題。尤其在表情分析領(lǐng)域中進行表情提取時,它仍存在提取表情不準確、表情種類分析準確率不高的情況,本文在AlexNet 網(wǎng)絡(luò)的基礎(chǔ)上提出了一種改進的AlexNet 網(wǎng)絡(luò)模型。該模型應(yīng)用CNN 網(wǎng)絡(luò)的深層特征提取能力彌補了AlexNet 網(wǎng)絡(luò)在某些情況下識別能力差、表情區(qū)分不清晰的短板,最終實現(xiàn)了更準確、更迅速的表情識別[6~12] 。改進前后的AlexNet 網(wǎng)絡(luò)結(jié)構(gòu)圖如圖1、圖2 所示。

        圖2 改進后的網(wǎng)絡(luò)模型中包含6 個卷積層、2 個全連接層和1 個softmax 輸出層,并且引入了自注意力機制和避免了梯度消失問題的殘差塊,從圖中可以看出,改進前后的AlexNet 網(wǎng)絡(luò)的組織結(jié)構(gòu)組成是相似的[13~14] 。

        首先,由于純?nèi)四槇D像是經(jīng)過裁剪之后才輸入網(wǎng)絡(luò)模型中,圖像尺寸較小且原有網(wǎng)絡(luò)卷積核尺寸過大、步長過長,特征提取效果較差,因此將原始AlexNet 網(wǎng)絡(luò)第一層的1l×11 卷積核改變?yōu)椋?個3×3 卷積核的堆疊,步長從4 減小到2。因為較小的卷積核提取的局部特征更細致,能夠提高網(wǎng)絡(luò)模型的分類結(jié)果,而采用2個堆疊的較小卷積核還可以有效利用非線性激活函數(shù),并有效提升網(wǎng)絡(luò)的非線性表達能力,同時減少了網(wǎng)絡(luò)中的參數(shù)量。其次,因輸入圖像尺寸小、數(shù)據(jù)集樣本少且模型網(wǎng)絡(luò)層數(shù)較多,為更好地提升該模型的識別準確率,故借鑒何凱明,張翔宇等在2015 年提出的ResNet殘差網(wǎng)絡(luò),在本模型中構(gòu)建殘差網(wǎng)絡(luò)塊,以盡量避免梯度消失的問題,在減少模型參數(shù)訓練時間的同時,也提升了表情識別的準確率。SE 注意力機制(Squeeze?and?Excitation Networks)在通道維度增加注意力機制,關(guān)鍵操作是squeeze 和excitation。原始表情圖像的數(shù)據(jù)被分割成多個像素塊,每個像素塊的權(quán)重相同,即在模型訓練時的重要性是相同的,不僅影響訓練時間,還影響模型參數(shù)的準確性。故在模型開始部分引入自注意力機制,通過自動學習的方式,使用另外一個新的神經(jīng)網(wǎng)絡(luò),獲取當前表情圖像中每個像素塊的重要程度,然后用這個重要程度去給每個像素特征賦予一個權(quán)重值,從而讓后續(xù)的神經(jīng)網(wǎng)絡(luò)重點關(guān)注某些像素特征,提升對當前表情識別有用的特征圖的像素塊,并抑制對當前識別任務(wù)用處不大的像素塊。表情類別差異微小的(如害怕、傷心、生氣)表情特征通常聚集于局部區(qū)域,不僅需要關(guān)注有益于表情分類的特征形態(tài),還需要關(guān)注具體的局部特征。引入通道注意力機制實現(xiàn)通道權(quán)重判斷,進而實現(xiàn)不同區(qū)域的權(quán)重分配。權(quán)重分配機制有效挖掘?qū)Ρ砬榉诸愑幸饬x的局部區(qū)域,學習強化實現(xiàn)局部特征的提取,引導網(wǎng)絡(luò)利用聚合特征進行表情識別。通道注意力機制在通道上實現(xiàn)權(quán)重分配,特征圖上每一個通道表示一個檢測器,通道注意力機制關(guān)注最有意義的特征是什么形態(tài)。最后,為了將改進的AlexNet 模型應(yīng)用于7 類表情分類任務(wù)中,將全連接層和softmax 層神經(jīng)元的個數(shù)分別設(shè)置為512 和7。

        將預處理的臉部表情輸入至改進后的模型中,進行模型訓練和超參數(shù)調(diào)整,進而獲得識別效果最好的模型結(jié)果。如圖3 所示,通過實現(xiàn)自注意力機制的人臉關(guān)鍵點定位技術(shù),將其輸入到訓練好的模型中,輸出該圖像表情類別。

        3 混淆矩陣

        優(yōu)秀的數(shù)據(jù)集是進行實驗的必要基礎(chǔ),算法識別效果直接受數(shù)據(jù)標注準確度的影響。為更準確地評估本文改進模型識別能力,選取了JAFFE 和CK+數(shù)據(jù)集進行實驗對照,可以更全面地了解改進模型的識別能力和短板。通過在JAFFE 和CK+上構(gòu)建混淆矩陣,觀察二者對角線部分數(shù)值的高低,并將其作為模型準確率的評判標準,而矩陣中的其余部分則是模型的錯誤率,即表情被誤分類為其他類別的可能性。JAFFE上識別的混淆矩陣如表1 所列。

        JAFFE 數(shù)據(jù)集中的圖像為日本女性面部表情,共含有213 張表情圖片,每張圖片共有70 個不同表情,均由10 位女性各自7 種不同表情構(gòu)成。CK+數(shù)據(jù)集包含123 個不同主題的593 個序列,這些主題的年齡從18 歲到50 歲不等,具有各種性別和傳統(tǒng)。CK+數(shù)據(jù)庫被認為是最廣泛使用于實驗室控制的面部表情分類數(shù)據(jù)庫,并用于大多數(shù)面部表情分類的方法。

        CK+上識別的混淆矩陣如表2 所列。

        在表1、表2 的混淆矩陣對角線上可以明顯看到,高興表情的識別正確率均是最高的,因為此種表情的表現(xiàn)方式大多是嘴角上揚,在人類進行日常交流時嘴角變化通常是他人的注意點,所以更容易被察覺到。

        同時,在CK+數(shù)據(jù)集中,識別率最高的是驚訝表情,同理,在人類日常交流中,他人睜大眼睛或者嘴巴張大容易被人察覺。

        4 結(jié)束語

        本文主要使用深度學習中的卷積神經(jīng)網(wǎng)絡(luò)對面部關(guān)鍵點進行定位, 同時將面部關(guān)鍵點信息和AlexNet 網(wǎng)絡(luò)模型相結(jié)合,以達到獲取表情信息目的。

        由表1、表2 可知,在2 個數(shù)據(jù)集上高興表情的準確率最高,因為高興表情的表現(xiàn)是嘴角上揚,可以看出對于其他幾類動作不明顯的表情還有待研究。本實驗雖然成功獲取關(guān)鍵點并同時估計出面部表情,但在具體不可控場景中(如超30%圖像遮擋、圖像前后幀發(fā)生巨大變動或背景干擾因素過多),會發(fā)生一定程度的誤判。由于采用CNN 層次較多,同時涉及2 次信息的輸入輸出,因此本實驗實時性表現(xiàn)一般,但估計的精確性較高,如何綜合性平衡系統(tǒng)實時性和精確性是下一個研究的重中之重。

        參考文獻:

        [1] EKMAN P,Friesen W V.Constants across cultures in the faceand emotion[J].Journal of personality and social psychology,1971,17(2):124.

        [2] 張珂,馮曉晗,郭玉榮,等.圖像分類的深度卷積神經(jīng)網(wǎng)絡(luò)模型綜述[J].中國圖像圖形學報,2021,26(10):2305?2325.

        [3] 章新志.基于深度置信網(wǎng)絡(luò)的人臉識別算法研究[D].南昌:華東交通大學,2019.

        [4] 韓玉.基于殘差模塊神經(jīng)網(wǎng)絡(luò)的人體行為檢測與識別研究[D].包頭:內(nèi)蒙古科技大學,2022.

        [5] 范黎.基于生成對抗網(wǎng)絡(luò)的圖像數(shù)據(jù)增強技術(shù)研究及應(yīng)用[D].杭州:浙江大學,2022.

        [6] YU J X,LIM K M,LEE C P.MoVE?CNNs: Model aVeragingEnsemble of Convolutional Neural Networks for FacialExpression Recognition[J]. IAENG International Journal ofComputer Science,2021,48(3):22?33.

        [7] WOO S,PARK J,LEE J Y,et al.CBAM:Convolutional BlockAttention Module [ J ]. IAENG International Journal ofComputer Science,2018:6?16.

        [8] 于方軍,焦玉杰,孫麗君.人體關(guān)鍵點檢測及教學應(yīng)用之人臉表情識別[J].中國信息技術(shù)教育,2023(1):96?98.

        [9] 葉繼華,祝錦泰,江愛文,等.人臉表情識別綜述[J].數(shù)據(jù)采集與處理,2020,35(1):21?34.

        [10] 何俊,劉躍,李倡洪,等.基于改進的深度殘差網(wǎng)絡(luò)的表情識別研究[J].計算機應(yīng)用研究,2020,37(5):1578?1581.

        [11] 呂方惠. 基于雙流卷積神經(jīng)網(wǎng)絡(luò)的動態(tài)表情識別研究[D].南京:南京郵電大學,2021.

        [12] 楊旭,尚振宏.基于改進AlexNet 的人臉表情識別[J].激光與光電子學進展,2020, 57(14):243+250.

        [13] 李珊. 基于深度學習的真實世界人臉表情識別研究[D].北京:北京郵電大學,2021.

        [14] 呂鵬,單劍鋒.基于多特征融合的人臉表情識別算法[J].計算機技術(shù)與發(fā)展,2022,32(10):151?155+181.

        作者簡介:

        孫歌(1999—),碩士,研究方向:人工智能。

        王劍雄(1975—),碩士,教授,研究方向:人工智能( 通信作者)。

        猜你喜歡
        深度學習
        從合坐走向合學:淺議新學習模式的構(gòu)建
        面向大數(shù)據(jù)遠程開放實驗平臺構(gòu)建研究
        基于自動智能分類器的圖書館亂架圖書檢測
        搭建深度學習的三級階梯
        有體驗的學習才是有意義的學習
        電子商務(wù)中基于深度學習的虛假交易識別研究
        利用網(wǎng)絡(luò)技術(shù)促進學生深度學習的幾大策略
        考試周刊(2016年94期)2016-12-12 12:15:04
        MOOC與翻轉(zhuǎn)課堂融合的深度學習場域建構(gòu)
        大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
        深度學習算法應(yīng)用于巖石圖像處理的可行性研究
        軟件導刊(2016年9期)2016-11-07 22:20:49
        中文字幕在线人妻视频| 精品国产sm捆绑最大网免费站| 亚洲综合无码一区二区三区| 中文字幕精品一二三区| 自拍av免费在线观看| 国产精品国产三级国产av品爱| 伊人久久大香线蕉亚洲五月天| 澳门精品无码一区二区三区| 大香蕉久久精品一区二区字幕 | 久久综合99re88久久爱| 亚洲av日韩专区在线观看| 亚洲乱码一区二区三区成人小说| 在线亚洲国产一区二区三区| 国产香蕉视频在线播放| 天天躁狠狠躁狠狠躁夜夜躁| 在线亚洲+欧美+日本专区| 成人亚洲av网站在线看| 人人妻人人澡人人爽人人精品av| 国产精品jizz视频| 国产精品日本天堂| 日日麻批免费高清视频| 亚洲婷婷五月综合狠狠爱| 国产精品多人P群无码| 国产毛片一区二区三区| 国产免费三级av在线| 国产高颜值大学生情侣酒店| 中文人妻AV高清一区二区| 国产av精选一区二区| 亚洲国产一区二区三区在线观看| 极品粉嫩嫩模大尺度无码| 国产女主播免费在线观看| 在线日本看片免费人成视久网| 欧洲女人性开放免费网站| 亚洲AV成人无码久久精品在| 国产精品麻豆一区二区三区| 粗大的内捧猛烈进出小视频| 狠狠久久亚洲欧美专区| 亚洲高清国产拍精品熟女| 图片小说视频一区二区| 日本三级欧美三级人妇视频| 蜜桃视频中文在线观看|