亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于VGG16 網(wǎng)絡(luò)的人臉情緒識(shí)別*

        2022-04-28 10:36:52蔡靖杜佳辰王慶周泓任
        電子技術(shù)應(yīng)用 2022年1期
        關(guān)鍵詞:池化層池化準(zhǔn)確率

        蔡靖,杜佳辰,王慶,周泓任

        (吉林大學(xué) 儀器科學(xué)與電氣工程學(xué)院,吉林 長(zhǎng)春 130026)

        0 引言

        Hinton 等人在研究深度卷積神經(jīng)網(wǎng)絡(luò)中通過(guò)引入ReLU 函數(shù)以及采用多GPU 訓(xùn)練等方式加快了網(wǎng)絡(luò)的訓(xùn)練速度并提高了網(wǎng)絡(luò)模型的準(zhǔn)確率[1]。LeCun 等人表明深度學(xué)習(xí)通過(guò)使用反向傳播算法來(lái)發(fā)現(xiàn)大型數(shù)據(jù)集中的復(fù)雜結(jié)構(gòu),以指示機(jī)器應(yīng)如何更改用于從前一層的表示計(jì)算每一層的表示的內(nèi)部參數(shù)。深度卷積網(wǎng)絡(luò)在處理圖像、視頻、語(yǔ)音和音頻方面取得了突破性進(jìn)展,而遞歸網(wǎng)絡(luò)則為文本和語(yǔ)音等順序數(shù)據(jù)帶來(lái)了光明[2]。隨著科學(xué)技術(shù),尤其是計(jì)算機(jī)技術(shù)方面的不斷進(jìn)步,人們對(duì)卷積神經(jīng)網(wǎng)絡(luò)的研究也不斷深入,面部表情識(shí)別技術(shù)也隨之得到了發(fā)展。同時(shí),一些問(wèn)題也隨之而來(lái),例如:如何提高面部表情分類的準(zhǔn)確率,如何能夠在保證準(zhǔn)確率的前提下減少計(jì)算的參數(shù)量等。

        Tang 等人[3]提出將卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,CNN)中融入支持向量機(jī)(SVM),同時(shí)修改了全連接層中的計(jì)算損失值的方法,在表情數(shù)據(jù)集上的測(cè)試結(jié)果為71.2%,斬獲了當(dāng)年Kaggle 比賽的一等獎(jiǎng)。崔鳳焦[4]將卷積神經(jīng)網(wǎng)絡(luò)、Adaboost 和支持向量機(jī)3 種模型算法結(jié)構(gòu)進(jìn)行相互比較和設(shè)計(jì)優(yōu)化,在Cohn-Kanade表情庫(kù)中實(shí)現(xiàn)了對(duì)人臉情緒的智能識(shí)別,平均識(shí)別率最高達(dá)到了74.92%。謝鑫等人[5]采用了耗時(shí)加長(zhǎng)的杜鵑算法(CuckooSearch,CS)對(duì)ResNet50 模型進(jìn)行了變更改進(jìn),提高了準(zhǔn)確率并使算法不會(huì)在調(diào)參時(shí)陷入梯度消失或爆炸的問(wèn)題,準(zhǔn)確率達(dá)到了74.3%。陳佳等人[6]提出一種基于卷積神經(jīng)網(wǎng)絡(luò)集成的表情識(shí)別方法,子網(wǎng)結(jié)構(gòu)在第一階段訓(xùn)練3 個(gè)子網(wǎng)絡(luò),采用Batch Normalization 方法和Dropout 層來(lái)加速網(wǎng)絡(luò)的收斂。接著去掉3 個(gè)子網(wǎng)絡(luò)的輸出層,使用SVM 進(jìn)行第二階段的訓(xùn)練,完成最終表情的預(yù)測(cè),其準(zhǔn)確率達(dá)到了70.84%。

        針對(duì)以上人臉表情識(shí)別準(zhǔn)確率較低的問(wèn)題,本研究提出了一種基于VGG16 模型算法的人臉表情識(shí)別方法來(lái)對(duì)人臉進(jìn)行識(shí)別,并達(dá)到較好的準(zhǔn)確率。

        1 卷積神經(jīng)網(wǎng)絡(luò)

        卷積神經(jīng)網(wǎng)絡(luò)[7]是近些年發(fā)展起來(lái),并引起人們廣泛重視研究的一種高效的識(shí)別算法,主要用于圖像目標(biāo)的識(shí)別,它的結(jié)構(gòu)和生物大腦的神經(jīng)網(wǎng)絡(luò)比較相似,其是由一系列功能不相同的層級(jí)所構(gòu)成的。卷積神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)一般主要包括其特有的卷積層、池化層這兩部分及全連接層這第三部分。在卷積神經(jīng)網(wǎng)絡(luò)中,卷積層與池化層一般情況下都會(huì)呈多次交替地出現(xiàn),因此不同的模型具有不同的層級(jí)結(jié)構(gòu)。

        1.1 卷積層

        卷積層是卷積神經(jīng)網(wǎng)絡(luò)的核心,主要功能就是對(duì)卷積進(jìn)行運(yùn)算,實(shí)現(xiàn)特征提取操作。卷積核(Convolutional Kernel)的功能就是對(duì)輸入矩陣進(jìn)行加權(quán)平均的一種權(quán)值定義函數(shù),卷積核在一個(gè)特征圖上不斷地移動(dòng),與輸入矩陣根據(jù)一定的規(guī)則相乘及求和便可直接得到其特征[8],可以直接通過(guò)一個(gè)卷積核實(shí)現(xiàn)對(duì)一個(gè)輸入矩陣進(jìn)行特征提取,這種特征提取方法是由低層次向高級(jí)提取[9],這樣做可以促使提取得到的特征更真實(shí)有效。卷積層可以滿足下列公式:

        式中,yab為卷積核中的值,zab為輸入矩陣的值,xij為經(jīng)過(guò)卷積計(jì)算后得到的特征矩陣的值。

        通過(guò)卷積運(yùn)算的到的特征值,可以判斷輸入?yún)^(qū)域內(nèi)是否含有所需要的特征。

        1.2 池化層

        池化層主要處理卷積層輸出的維度較大的特征,可以大大減小矩陣的尺寸,方便進(jìn)行后續(xù)處理。池化層可以在減少數(shù)據(jù)量的同時(shí),避免發(fā)生過(guò)擬合。池化層將特征分為幾個(gè)較小的區(qū)域,取其最大值或平均值[9],得到的特征維度更小。目前常見(jiàn)的池化方法有:平均池化、最大池化、隨機(jī)池化、譜池化。

        1.3 全連接層

        全連接層的作用是將上一層的各個(gè)局部特征綜合起來(lái),其每個(gè)節(jié)點(diǎn)都與上一層的節(jié)點(diǎn)有連接,它通過(guò)權(quán)值矩陣組成一個(gè)全新的圖[9],變成全局特征。全連接層可以將特征矩陣轉(zhuǎn)換為單個(gè)的值,因此可以在減小數(shù)據(jù)量的同時(shí),減小特征位置對(duì)分類帶來(lái)的影響。通過(guò)全連接層得到的向量,其中每個(gè)值代表樣本屬于每個(gè)類的可能性的大小[8],因此可以通過(guò)最后的輸出向量,判斷樣本的類別。

        2 基于VGG16 網(wǎng)絡(luò)的情緒識(shí)別系統(tǒng)

        2.1 數(shù)據(jù)集

        FER2013 數(shù)據(jù)集由Pierre Luc carrier 和Aaron Courville通過(guò)搜索相關(guān)的情感關(guān)鍵詞在網(wǎng)絡(luò)上爬取,這些圖像都是經(jīng)過(guò)人工標(biāo)注的。它分為三部分,其中測(cè)試集共有28 708 張表情圖片,公有驗(yàn)證集和私有驗(yàn)證集各3 589張,共35 886 張表情圖片。每張圖片是由大小為48×48像素的灰度圖組成,分為7 個(gè)類別,分別為快樂(lè)、驚訝、悲傷、憤怒、厭惡、恐懼、中性。

        原始的數(shù)據(jù)集并沒(méi)有直接以圖片的形式給出,而是以保存在csv 格式文件中,使用pandas 解析csv 文件,得到j(luò)pg 文件并儲(chǔ)存到對(duì)應(yīng)文件夾下,然后將數(shù)據(jù)集分為訓(xùn)練集和測(cè)試集。

        通過(guò)對(duì)FER2013 數(shù)據(jù)集進(jìn)行重新標(biāo)簽產(chǎn)生的FER-2013PLUS 數(shù)據(jù)集在模型訓(xùn)練中會(huì)有更高的準(zhǔn)確率。圖1展示了數(shù)據(jù)集中的幾個(gè)樣本。

        圖1 解析后的jpg 格式數(shù)據(jù)集

        2.2 VGG16 神經(jīng)網(wǎng)絡(luò)模型

        VGG16 網(wǎng)絡(luò)結(jié)構(gòu)[10-12]如圖2 和表1 所示,輸入分辨率為224×224 的3 通道圖像進(jìn)入卷積層。在結(jié)束卷積操作后,由于數(shù)據(jù)經(jīng)過(guò)非線性函數(shù)的映射之后,存在著取值區(qū)間向極限飽和區(qū)逐漸靠攏的輸入分布,通過(guò)對(duì)所有輸入數(shù)據(jù)的歸一化處理,可以使得數(shù)據(jù)被強(qiáng)制地拉回至方差為1、平均值為0 的標(biāo)準(zhǔn)正態(tài)分布。最后再次進(jìn)入池化層,逐漸忽略局部特征信息。循環(huán)4 輪以上操作,在卷積操作全部完成后,人臉特征信息即可進(jìn)入全連接層,將包含有局部信息的特征圖(包括特征圖的高、寬、通道數(shù))全部映射到4 096 維度。VGG16 網(wǎng)絡(luò)結(jié)構(gòu)的卷積層的kernel 大小均為3×3,效果較好,其步長(zhǎng)為1,填充方式為“same”填充,與其他填充方式相比,這種填充方法可以使每一次卷積以后得到的卷積結(jié)果的尺寸大小不會(huì)發(fā)生變化。池化層使用的是2×2 大小的池化核,填充方式與卷積層一樣也為“same”填充,激勵(lì)函數(shù)為ReLU。

        圖2 VGG16 網(wǎng)絡(luò)

        2.3 VGG16 神經(jīng)網(wǎng)絡(luò)訓(xùn)練過(guò)程

        輸入大小為224×224×3 的圖片,經(jīng)過(guò)Conv1_1 和Conv1_2兩個(gè)卷積層,filter 為3×3,卷積結(jié)束后得到222×222×1的矩陣,再經(jīng)過(guò)矩陣填充得到224×224×1 的矩陣。由于第一層有64 個(gè)卷積核,原來(lái)的224×224×1 就變成了224×224×64。

        池化層使用的卷積核是2×2×64,步長(zhǎng)為2,第一層卷積結(jié)果經(jīng)過(guò)池化后到達(dá)第二層,得到的矩陣維數(shù)為原來(lái)的一半,變成了112×112×128;第二層經(jīng)過(guò)池化層,矩陣維數(shù)減半,進(jìn)入到第三層,由于第三層有256 個(gè)卷積核,那么得到56×56×256 的矩陣;同理,第四層有512 個(gè)卷積核,得到28×28×512 的矩陣;而第五層也只有512個(gè)卷積核,所以得到14×14×512 的矩陣。經(jīng)過(guò)第五次池化最終得到7×7×512 的矩陣,進(jìn)入到全連接層。

        VGG16 的全連接層有3 層。其每一個(gè)節(jié)點(diǎn)都與上一層每個(gè)節(jié)點(diǎn)相連接,它可以把前一層的輸出特征都整體綜合起來(lái)。在VGG16 模型結(jié)構(gòu)中,第一層有4 096 個(gè)節(jié)點(diǎn),第二層也有4 096 個(gè),第三層只有1 000 個(gè)節(jié)點(diǎn),最后再進(jìn)行softmax 成類別的數(shù)目。

        如圖3 所示,圖中顯示了圖片經(jīng)過(guò)VGG16 各層卷積層和池化層后所提取出的結(jié)果,依箭頭方向分別為原始圖片、第一次卷積后的圖片、第一次池化后的圖片、第二次卷積后的圖片、第二次池化后的圖片、第三次卷積后的圖片、第三次池化后的圖片、第四次卷積后的圖片、第四次池化后的圖片、第五次卷積后的圖片、第五次池化后的圖片。

        圖3 VGG16 訓(xùn)練圖

        3 實(shí)驗(yàn)結(jié)果

        實(shí)驗(yàn)環(huán)境為Windows 10 操作系統(tǒng),采用Python3.7編程語(yǔ)言。實(shí)驗(yàn)過(guò)程依次是數(shù)據(jù)預(yù)處理、搭建神經(jīng)網(wǎng)絡(luò)模型、訓(xùn)練、測(cè)試、評(píng)估模型。

        ResNet50、InceptionResNetV2、InceptionV3、VGG16 模型訓(xùn)練結(jié)果分別如表2~表5 所示。表6 為4 種模型的準(zhǔn)確率對(duì)比,可以看到準(zhǔn)確率分別為73%、78%、78%、79%。

        表2 ResNet50 模型訓(xùn)練結(jié)果

        表3 InceptionResNetV2 模型訓(xùn)練結(jié)果

        表4 InceptionV3 模型訓(xùn)練結(jié)果

        表5 VGG16 模型訓(xùn)練結(jié)果

        表6 模型準(zhǔn)確率對(duì)比

        另外,利用VGG16 模型搭建出用于識(shí)別人臉情緒的UI 界面,如圖4 所示。

        圖4 UI 結(jié)果顯示

        4 結(jié)論

        本文采用改進(jìn)后的FER2013 數(shù)據(jù)集分別對(duì)4 種網(wǎng)絡(luò)模型進(jìn)行訓(xùn)練,用于尋找進(jìn)行人臉表情識(shí)別的最佳模型。通過(guò)實(shí)驗(yàn)結(jié)果對(duì)比得知,VGG16 模型的準(zhǔn)確率相比于其他3 種模型準(zhǔn)確率更高。在網(wǎng)絡(luò)的搭建與訓(xùn)練過(guò)程中,發(fā)現(xiàn)不同的數(shù)據(jù)集和網(wǎng)絡(luò)結(jié)構(gòu)都會(huì)對(duì)模型的準(zhǔn)確率造成影響,后續(xù)可以在數(shù)據(jù)集的預(yù)處理以及損失函數(shù)的選擇等方向上進(jìn)行研究,以進(jìn)一步提高人臉識(shí)別模型的準(zhǔn)確率。

        猜你喜歡
        池化層池化準(zhǔn)確率
        基于緊湊型雙線性網(wǎng)絡(luò)的野生茵識(shí)別方法研究
        基于Sobel算子的池化算法設(shè)計(jì)
        卷積神經(jīng)網(wǎng)絡(luò)中的自適應(yīng)加權(quán)池化
        卷積神經(jīng)網(wǎng)絡(luò)模型研究分析*
        乳腺超聲檢查診斷乳腺腫瘤的特異度及準(zhǔn)確率分析
        健康之家(2021年19期)2021-05-23 11:17:39
        不同序列磁共振成像診斷脊柱損傷的臨床準(zhǔn)確率比較探討
        2015—2017 年寧夏各天氣預(yù)報(bào)參考產(chǎn)品質(zhì)量檢驗(yàn)分析
        基于卷積神經(jīng)網(wǎng)絡(luò)的紙幣分類與點(diǎn)鈔
        基于深度學(xué)習(xí)卷積神經(jīng)網(wǎng)絡(luò)的人體行為識(shí)別研究
        科技傳播(2020年6期)2020-05-25 11:07:46
        基于卷積神經(jīng)網(wǎng)絡(luò)和池化算法的表情識(shí)別研究
        最新中文字幕乱码在线| 成人免费毛片内射美女-百度| 在线观看91精品国产免费免费| 久久精品综合国产二区| 激情亚洲不卡一区二区| 色欲av伊人久久大香线蕉影院| 欧美第一黄网免费网站| 久久免费精品国产72精品剧情| 91人妻人人做人人爽九色| 麻豆文化传媒精品一区观看| 欧美艳星nikki激情办公室| 国内久久婷婷精品人双人| 永久免费看黄在线观看| 亚洲av无码一区二区三区天堂| 射死你天天日| 国产激情无码Av毛片久久| 久久成人精品国产免费网站| 日日摸夜夜添夜夜添高潮喷水| 一本一道波多野结衣一区| 国产成人综合日韩精品无| 91久久精品一区二区| 欧美性猛交xxxx三人| 国产中出视频| 一区二区三区精彩视频在线观看| 熟女人妻中文字幕av| 久久亚洲精品11p| 中文字幕人成人乱码亚洲| 日产国产精品亚洲高清| 蜜臀av无码人妻精品| 99热这里只有精品国产99热门精品| 国产一级一片内射在线| 91久久精品国产综合另类专区| 国产精品丝袜久久久久久不卡| 日本女优中文字幕看片| 最近中文字幕精品在线| 欧美成人猛交69| 欧美老熟妇又粗又大| 国产成人高清亚洲一区二区| 波多野结衣中文字幕一区二区三区| 亚洲av无码一区二区三区在线| 日本第一区二区三区视频|