亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        涉險崗位人員異常情緒識別與應急預警研究

        2021-12-23 06:10:12杜杏菁孫炳剛
        華北科技學院學報 2021年5期
        關(guān)鍵詞:卷積神經(jīng)網(wǎng)絡分類

        杜杏菁,孫炳剛

        (華北科技學院 計算機學院,北京 東燕郊 065201)

        0 引言

        情感識別大致可分為三個階段:感知、認知、自主智能。感知智能如語音識別等技術(shù)已經(jīng)相當成熟,應用到相關(guān)領(lǐng)域,取得較好的效果。認知智能如人臉識別、姿態(tài)識別、人體跟蹤等技術(shù)也比較成熟,應用到了各種識別、監(jiān)控、支付等場所。自主智能正隨著互聯(lián)網(wǎng)、物聯(lián)網(wǎng)、移動網(wǎng)絡、大數(shù)據(jù)及GPU計算機硬件、深度學習等技術(shù)而快速發(fā)展。

        表情識別是最直接、有效的情感識別模式,分靜態(tài)圖像表情識別和動態(tài)序列表情識別,靜態(tài)圖像表情識別是圖片表情識別,涉險崗位人員情緒實時監(jiān)測是表情識別在現(xiàn)實場景中的驗證和應用,是預防失控情緒引發(fā)的重大傷害事件發(fā)生的措施,是社會和諧發(fā)展、城鎮(zhèn)智能化的技術(shù)支撐。基于深度學習卷積神經(jīng)網(wǎng)絡人臉表情識別技術(shù),對涉險崗位人員異常情緒識別,提高識別率,設計異常情緒評估與應急預警系統(tǒng),推動表情識別和情緒監(jiān)控技術(shù)的廣泛應用。

        1 國內(nèi)外研究現(xiàn)狀及發(fā)展動態(tài)分析

        表情是面部肌肉活動呈現(xiàn)的一種情緒指標,是人生理和心理的綜合反映,能夠傳遞情感,是情感最直接有效的識別模式,表達了個體情緒狀態(tài),是一種非語言交際形式。面部表情最常見的有七類:‘中性、高興、吃驚、悲傷、憤怒、厭惡、恐懼’,后來人們又提出了‘復合表情’。面部表情傳遞的情緒信息占55%,聲音傳遞的情緒信息占38%,語言傳遞的情緒信息僅占7%[1-2]。面部表情中含有的情緒信息最多,圖像采集方便,是基于生物特征情緒識別中比較便捷的方法。

        MIT開發(fā)的情感機器人通過生物傳感器識別情感[3]。IBM公司通過手部血壓計溫度傳感器判斷情感[4]。中科院王兆其研究虛擬人表情和動作,高文研究多功能感知技術(shù)[5]。深圳安視寶產(chǎn)品屬于自體原發(fā)非主觀控制數(shù)據(jù)分析情感[6]。北京科技大學李敏嘉等研究了基于皮膚電反應及心電圖傳感器的情緒監(jiān)測體域網(wǎng)[7]。科思創(chuàng)動通過攝像頭捕捉臉部可觀測數(shù)據(jù),直接輸出預警結(jié)果。哈爾濱工程大學研制了可模仿再現(xiàn)人臉表情的機器人H&F Robot-II。香港中文大學研究了深度學習人臉表情識別。百度發(fā)布了raven H智能音箱和raven R情感機器人。

        人臉表情識別不斷有新成果出現(xiàn),其識別算法可分為:Fisher線性判別法、局部特征分析法(PCA)、獨立分量分析(ICA)、隱馬爾科夫模型法、卷積神經(jīng)網(wǎng)絡、多任務分類法等。表情識別分為整體識別與局部識別、變形提取與運動提取、幾何特征與紋理特征[8]。識別過程分為圖像預處理、特征提取、表情分類識別[9]。表情特征主要有灰度特征、運動特征、頻率特征[10]。表情識別包括分類模型設計與訓練、模型應用與決策[11]。模型設計與訓練方法有線性法、支持向量機、隱馬爾科夫模型、物理建模、圖像編碼、神經(jīng)網(wǎng)絡等。

        近年來,以卷積神經(jīng)網(wǎng)絡進行表情識別的研究成為熱門,Su H等利用多角度卷積神經(jīng)網(wǎng)絡(MvCNN),實現(xiàn)了多姿態(tài)物體識別[12]。2015年何凱明團隊提出殘差網(wǎng)絡[13],不再學習完整的輸出F(x),而是學習殘差H(x)-x,解決信息傳遞過程中的丟失和損耗問題[14]。Ghosh等提出聯(lián)合視覺和聽覺信息的情緒識別[15],YIN H等采用文本、圖像、語音三種信息融合法[16],ZADEH提出記憶融合網(wǎng)絡實現(xiàn)多特征信息序列同步[17],李壽山等提出多任務融合學習網(wǎng)方法。Hu J等提出了SE-Net表情識別網(wǎng)絡[18],獲取特征的依賴關(guān)系,提升了卷積神經(jīng)網(wǎng)絡的性能。WOO S等人提出了識別網(wǎng)絡CBAM[19]。Hua等提出了不同深度子網(wǎng)卷積神經(jīng)網(wǎng)絡模型[20]。呂寶糧等進行了腦電和眼睛雙模態(tài)深度學習DNN情緒分類[21]。王喆等利用語音和面部表情特征進行情緒分類[22]。貴州大學盧涵宇等將遷移模型用到表情識別訓練中[23],建立基于遷移學習的深度學習模型,對要進行遷移學習的表情數(shù)據(jù)預訓練網(wǎng)絡進行微調(diào),進行參數(shù)和知識的遷移。劉健用Inception結(jié)構(gòu)遷移到FER2013數(shù)據(jù)庫訓練中[24],丁劍飛利用遷移MobileNets網(wǎng)絡結(jié)合SVM迭代多次后提高識別率[25],王瑞瓊將InceptionV3遷移到CK+數(shù)據(jù)庫訓練提升訓練效果[26]。

        2013年后,各種表情識別競賽從現(xiàn)實場景收集大量訓練數(shù)據(jù),推動了表情識別技術(shù)從實驗室走向真實場景中。合肥工業(yè)大學的姜明星等提出了時空局部三值方向角模式(SLTOP)和表情、姿態(tài)的云加權(quán)決策融合分類方法[27],該方法首先對視頻圖像進行預處理,得到表情和姿態(tài)的序列,提取SLTOP特征,結(jié)合灰度共生矩陣降低特征的稀疏性。王曉華等對VLBP算法進行改進,將紋理特征與3DHOG特征融合[28],但該方法沒有分析表情與姿態(tài)對情感識別貢獻的大小分析。付曉峰等提出了多尺度時空局部方向角模式,有效的捕捉人臉表情三維空間的時空特征[29],但該方法獲得的特征較稀疏,限制了特征空間的分類性能?;趧討B(tài)序列的人臉表情特征學習算法出現(xiàn)了卷積神經(jīng)網(wǎng)絡(CNN)、深度置信網(wǎng)絡(DBN)、深度自編碼(DAE)、遞歸神經(jīng)網(wǎng)絡(RNN)等。

        2 異常情緒識別算法及預警分析

        結(jié)合人臉表情的紋理特征、運動特征,研究改進的RNN模型??紤]表情序列空間和時間信息的RNN結(jié)合C3D方法,利用RNN在時間序列變化上建模,利用C3D在2D卷積基礎(chǔ)上沿著時間軸增加時間維度,形成3D卷積,其輸入是經(jīng)過預處理后的視頻序列,設置3-4層卷積層,降低過擬合度,利用隨機梯度下降法對模型參數(shù)進行優(yōu)化[30]。結(jié)合應用環(huán)境及性質(zhì),對異常情緒進行識別。用訓練好的分類模型對預處理后的動態(tài)視頻序列進行異常表情或非異常表情進行分類。

        設計四層結(jié)構(gòu):數(shù)據(jù)采集層采用網(wǎng)絡攝像機實時采集視頻流,幀頻率25-30。支持層經(jīng)過采集層獲得動態(tài)圖像序列,收集表情樣本,分類訓練,收集視頻序列驗證測試樣本,在GPU系統(tǒng)進行深度學習網(wǎng)絡模型訓練。情緒監(jiān)測驗證系統(tǒng)實現(xiàn)情緒監(jiān)測中間層各功能。最上層是分類結(jié)果及應急預警應用層。

        3 異常情緒識別過程

        異常表情識別與應急預警過程如圖1所示。

        3.1 樣本情緒分類

        將開心、中性兩種表情樣本中去掉,選取訓練樣本包含‘生氣、厭惡、恐懼、傷心、驚訝’五種,分別對應于數(shù)字標簽和中英文:0 anger 生氣、1 disgust 厭惡、2 fear 恐懼、3 sad 傷心、4 surprised 驚訝。建立文件夾存放各自對應的樣本圖片。從前面五種負面表情樣本中挑選表情極嚴重的樣本,單獨形成一種類別,其數(shù)字標簽和中英文為:‘5 cnce 失控情緒’。將上面0-4五種負面表情樣本作為輸入,訓練表情分類器,監(jiān)測失控情緒,找出失控表情樣本,并進行標注。

        人臉檢測與表情識別研究可在現(xiàn)有公開數(shù)據(jù)集上進行訓練模型和驗證測試。下載并整理了FER2013數(shù)據(jù)集,包含35887張人臉圖片,其中訓練集28709張、驗證集3589張、測試集3589張。每張圖片的像素為48×48。將emotion與pixels分開,形成label.csv和data.csv。轉(zhuǎn)換訓練、測試、驗證數(shù)據(jù)為圖片,轉(zhuǎn)換后分成0-6類,分別對應著不同表情的圖片。數(shù)據(jù)集中train中的28709張圖片,前24000圖片作為訓練數(shù)據(jù)集,其他4709張圖片作為驗證數(shù)據(jù)集,分別放在train、val文件夾中。建立data-label對照表,遍歷train和val文件夾中的所有文件,將jpg格式的圖片名和索引label寫入對照表中,做為卷積網(wǎng)絡程序的輸入。

        3.2 設計情緒分類模型

        長短記憶單元(LSTM)是循環(huán)神經(jīng)網(wǎng)絡的改進形式。通過記憶單元保存時間維度的歷史信息,因此能夠長期記住前面歷史,這些記憶單元通過各種門選擇信息的通過、禁止、舍棄。視頻經(jīng)預處理后的動態(tài)幀序列作為3DCNN、RNN網(wǎng)絡的輸入,3DCNN提取某時刻圖像的外觀和運動信息,側(cè)重提取局部時域特征,LSTM提取動態(tài)幀序列的全局時間信息?;趦煞N網(wǎng)絡的優(yōu)勢,我們采用兩種網(wǎng)絡聯(lián)合,充分利用時域在局部和全局的特征信息。

        LSTM-SVM網(wǎng)絡結(jié)構(gòu)有兩部分構(gòu)成,LSTM從輸入中獲取特征,SVM進行特征分類輸出。首先訓練LSTM網(wǎng)絡,將預處理的動態(tài)序列輸入網(wǎng)絡,然后獲得調(diào)整后的特征參數(shù),輸出的信息作為SVM的輸入,進行表情特征分類。

        LSTM的輸出層為softmax邏輯回歸網(wǎng)絡,包括記憶單元和控制記憶單元狀態(tài)的門結(jié)構(gòu),通過遺忘門丟掉相關(guān)度第的歷史特征,輸入門決定記憶單元對特征的敏感程度,輸出門用于輸出信息。

        LSTM記憶單元狀態(tài)更新和輸出的過程如下:

        第一步,刪除低關(guān)聯(lián)度歷史信息,如公式(1)所示。

        ft=σ(Ufht-1+Wfxt+bf)

        (1)

        第二步,根據(jù)輸入數(shù)據(jù)、歷史記錄更新,如公式(2)所示。

        it=σ(Uiht-1+Wixt+bi)

        (2)

        第三步,輸出t時刻的信息,如公式(3)所示。

        ot=σ(Uoht-1+Woxt+bo)

        ht=ot×tanh(Ct)

        (3)

        其中,Uf、Ui、Uc、Uo是隱含狀態(tài)h對應的門權(quán)重矩陣,Wf、Wi、Wc、Wo是輸入狀態(tài)x對應的門權(quán)重矩陣,b是對應門的偏置向量,σ為激活函數(shù),tanh為雙曲正切激活函數(shù)。

        支持向量機(SVM)用于表情二分類,通過特征空間上最大間隔進行線性分類,添加核函數(shù)轉(zhuǎn)換為非線性分類,求解劃分訓練數(shù)據(jù)且?guī)缀伍g隔最大的超平面。

        超平面表示為:w·x+b=0,w為直線的斜率,b為直線的截距。數(shù)據(jù)集的幾何間隔定義見式(4)。

        (4)

        用核函數(shù)K(x,y)代替內(nèi)積,解得非線性支持向量機,見式(5)。

        (5)

        非線性支持向量機的學習具體步驟如下:

        首先,輸入訓練集;

        其次,輸出分離超平面和分類決策函數(shù);

        然后,選取適當核函數(shù)K和懲罰參數(shù)C,構(gòu)造并求解凸二次規(guī)劃問題。分類決策函數(shù)可用式(6)表示。

        (6)

        (7)

        最后,設置懲罰函數(shù)C和幾何間隔γ,γ可設置成1。

        4 應急預警系統(tǒng)設計

        構(gòu)建四層情緒監(jiān)測結(jié)構(gòu)模型,即視頻數(shù)據(jù)采集層、支撐層、功能實現(xiàn)層和應用層。如圖2所示。數(shù)據(jù)采集層采用網(wǎng)絡攝像機實時采集視頻流,幀頻率25-30,壓縮格式,黑白自動平衡,支持ONVIF、RTSP協(xié)議,光照感光0.1 lux。支撐層經(jīng)過采集層獲得動態(tài)圖像序列,收集表情樣本,分類訓練,收集視頻序列檢驗、驗證樣本,在GPU系統(tǒng)進行深度學習訓練網(wǎng)絡模型。在Intel I7酷睿4/8核CPU實現(xiàn)情緒監(jiān)測的中間各功能層。最上層是分類結(jié)果及應急預警應用層。

        圖2 異常情緒應急預警系統(tǒng)層次結(jié)構(gòu)

        5 實驗設計與結(jié)果

        整理FER2013數(shù)據(jù)集,訓練集28709張、驗證集3589張、測試集3589張。每張圖片的像素為48×48。將emotion與pixels分開,形成label. csv和data.csv。轉(zhuǎn)換訓練、測試、驗證數(shù)據(jù)為圖片,轉(zhuǎn)換后分成0-6類,分別對應著不同表情的圖片。數(shù)據(jù)集中train中的28709張圖片,前24000圖片作為訓練數(shù)據(jù)集,其他4709張圖片作為驗證數(shù)據(jù)集,分別放在train、val文件夾中。建立data-label對照表,遍歷train和val文件夾中的所有文件,將jpg格式的圖片名和索引label寫入對照表中,做為卷積網(wǎng)絡程序的輸入。

        采用深度學習卷積神經(jīng)網(wǎng)絡進行特征提取和分類模型訓練,優(yōu)化參數(shù),調(diào)整模型結(jié)構(gòu),使用驗證樣本對模型進行驗證。視頻人臉表情識別是一個動態(tài)識別過程,使用3D-LSTM-SVM網(wǎng)絡模型,將視頻中N幀圖像分別對應N個CNN提取特征,每層CNN與LSTM相連,將視頻流中各幀表情特征逐個提取,并通過LSTM-SVM分類識別,最終判斷是否為異常情緒。網(wǎng)絡模型如圖3所示。

        圖3 異常表情識別模型

        分類判別器輸入圖像大小為256×256×3,卷積核為3×3,設計四層卷積,濾波器數(shù)量分別為32、64、128、256,輸出圖像大小為32×32×256,利用全連接層進行表情分類識別。通過神經(jīng)元參數(shù),輸出隱含層信息,將隱含層信息輸入到SVM分類器。卷積網(wǎng)絡模型設計見表1。

        表1 卷積神經(jīng)網(wǎng)絡層次

        考慮到系統(tǒng)的準確率,在保證功能的情況下,調(diào)整Conv2D的參數(shù)。filters參數(shù)是過濾器的個數(shù),kernel_size卷積核的尺寸,Strides步長是上下左右滑動的長度,默認為1。Padding只有兩個值valid和same,valid代表圖像邊緣為空,而same表示圖像邊緣用“0”填充。activation激活函數(shù)關(guān)鍵字,表示經(jīng)過本次卷積后,再運行一次激活函數(shù)。sigmoid相對來說,計算量較大,進行反向傳播時,會出現(xiàn)梯度消失情況。ReLU則緩解了過擬合問題,softmax用于分類。首先修改卷積核的個數(shù)8、16、32、64、128,修改卷積核的尺寸3×3、5×5,步長1、2、3,找到最優(yōu)的解,然后通過不同padding值,以及不同的激活函數(shù)達到最優(yōu)目的,修改卷積層個數(shù),找到模型性訓練的最高準確率和效率。卷積神經(jīng)網(wǎng)絡訓練模型的參數(shù)輸出見表2。

        表2 param輸出

        在FRE2013數(shù)據(jù)集上,通過Covariance Pooling、Soft Label等方法進行識別比較,得到的結(jié)果見表3。

        表3 FER2013-DB數(shù)據(jù)集上的識別精度

        6 結(jié)論

        (1) 將某時間窗口的一系列幀作為輸入,使用3DCNN模型,輸入n幀序列與3D濾波器做卷積,整體網(wǎng)絡與局部特征網(wǎng)絡結(jié)合訓練,捕捉表情變化的過程信息。訓練LSTM分類器學習表情特征的時間演變,連接低層的CNN網(wǎng)絡捕捉時空特征信息,完成異常情緒識別及應急預警系統(tǒng)設計。

        (2) 使用FER2013數(shù)據(jù)集對系統(tǒng)的卷積神經(jīng)網(wǎng)絡模型進行多次深度學習后,最高識別效率達到70.04%.

        (3) 將應急預警系統(tǒng)設計成四層,通過異常情緒識別,完成語音視頻的預警處理。

        猜你喜歡
        卷積神經(jīng)網(wǎng)絡分類
        基于3D-Winograd的快速卷積算法設計及FPGA實現(xiàn)
        分類算一算
        神經(jīng)網(wǎng)絡抑制無線通信干擾探究
        電子制作(2019年19期)2019-11-23 08:42:00
        從濾波器理解卷積
        電子制作(2019年11期)2019-07-04 00:34:38
        分類討論求坐標
        數(shù)據(jù)分析中的分類討論
        基于傅里葉域卷積表示的目標跟蹤算法
        教你一招:數(shù)的分類
        基于神經(jīng)網(wǎng)絡的拉矯機控制模型建立
        重型機械(2016年1期)2016-03-01 03:42:04
        復數(shù)神經(jīng)網(wǎng)絡在基于WiFi的室內(nèi)LBS應用
        男女下面进入的视频| 国产av熟女一区二区三区密桃| 久久久久久久久无码精品亚洲日韩 | 国产午夜精品久久久久免费视 | 亚洲综合av一区二区三区| 区二区欧美性插b在线视频网站| 中文字幕一区二区三区日韩网 | 久久伊人这里都是精品| av人摸人人人澡人人超碰妓女| 欧美在线专区| 亚洲国产成人精品久久成人| 国产内射视频在线免费观看| 曰韩人妻无码一区二区三区综合部| 美女啪啪国产| 午夜在线观看一区二区三区四区| 中文字幕亚洲精品久久| 亚洲日韩av无码中文字幕美国| 欧美伊人亚洲伊人色综| 久久精品国产亚洲av夜夜| 内射中出日韩无国产剧情| 日韩在线一区二区三区免费视频 | 亚洲视频在线一区二区| 国产精一品亚洲二区在线播放 | 伊人网在线视频观看| 亚洲成生人免费av毛片| 亚洲综合另类小说色区| 摸进她的内裤里疯狂揉她动视频| 久久这里有精品国产电影网| 日本韩国亚洲三级在线| 少妇人妻精品一区二区三区| 日韩久久一级毛片| av一区二区三区高清在线看| 精品人妻系列无码人妻漫画| 亚洲欧美另类激情综合区| 26uuu欧美日本在线播放| 国产精品成人av一区二区三区| 国产精品视频免费播放| 日韩免费小视频| 女同欲望一区二区三区| 亚洲av无码一区东京热| 国产精品 视频一区 二区三区|