亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于主輔網(wǎng)絡特征融合的語音情感識別

        2021-09-22 08:03:24胡德生張雪英李寶蕓
        太原理工大學學報 2021年5期
        關鍵詞:語譜主輔語音

        胡德生,張雪英,張 靜,李寶蕓

        (太原理工大學 信息與計算機學院,太原 030024)

        語言是人類交流最方便、最快捷的方式,語言中包含的情感信息在交流時發(fā)揮著重要作用。讓機器像人一樣具備說話、思維和情感能力,是人工智能領域一直追求的目標。語音情感識別的研究,將推動這一目標的逐步實現(xiàn)。

        典型的語音情感識別模型由語音情感數(shù)據(jù)庫、特征提取和識別3部分組成[1],提取有效情感特征是語音情感識別的關鍵。傳統(tǒng)的語音情感識別首先分幀提取Mel頻率倒譜系數(shù)(Mel frequency cepstral coefficients,MFCC)等聲學特征,然后提取所有幀的最大值、最小值、均值、方差等統(tǒng)計特征作為語音信號的全局特征[2-4]。由于全局特征是在句子級別上提取統(tǒng)計特征,所以其只能粗略反映語音情感隨時間變化的特性。針對這個問題,段特征的概念被提出,首先將語音信號分段,每段包含若干幀語音,對這若干幀語音各自提取聲學特征后,再計算這段語音的多個統(tǒng)計特征作為段特征。文獻[2]將段特征直接輸入基于注意力機制的長短時記憶單元(long short-term memory,LSTM)網(wǎng)絡提取深度特征并分類,與全局特征相比取得了較好的效果。

        語譜圖是一維語音信號在二維時頻域的展開,能夠充分反映語音信號在時頻域大部分信息。卷積神經(jīng)網(wǎng)絡(convolutional neural networks,CNN)由于其自動學習特征的能力和適用于二維圖像數(shù)據(jù)的特點,目前被廣泛用在語譜圖中提取特征,進一步提高語音情感識別性能[5-8]。如文獻[8]先將語譜圖輸入全卷積網(wǎng)絡(fully convolutional networks,F(xiàn)CN),并在最后一層卷積層使用注意力機制,最后進行情感識別,在IEMOCAP數(shù)據(jù)集上其WA(weighted accuracy)和UA(unweighted accuracy)分別達到70.4%,63.9%.

        近年來,國內外學者提出多種混合網(wǎng)絡模型用于將不同類型的特征進行特征融合,提升了語音情感識別的性能[9-11]。文獻[9]提出HSF-CRNN模型,采用CRNN網(wǎng)絡對語譜圖提取深度特征,將全局特征輸入全連接層,最后將兩者拼接進行情感識別;文獻[10]提出Attention-BLSTM-FCN模型,在Mel語譜圖上分別應用Attention-BLSTM網(wǎng)絡和Attention-FCN網(wǎng)絡,然后將兩個網(wǎng)絡提取的深度情感特征以直接拼接的方式進行特征融合,最后輸入全連接層進行分類識別。雖然這些方法取得了一定的效果,但將不同類型的特征簡單拼接起來作為識別網(wǎng)絡的輸入,沒有考慮不同特征的量綱和維度的差異,以及各類型特征實際物理意義的不同,會對識別結果帶來不利影響。

        針對上述問題,本文提出了通過主輔網(wǎng)絡方式將不同類別特征進行融合的方法。首先將段特征輸入BLSTM-Attention網(wǎng)絡作為主網(wǎng)絡,提取深度段特征;然后,把Mel語譜圖輸入CNN-GAP網(wǎng)絡作為輔助網(wǎng)絡,提取深度Mel語譜圖特征;最后,用深度Mel語譜圖特征輔助深度段特征,將兩者以主輔網(wǎng)絡方式進行特征融合。在IEMOCAP數(shù)據(jù)集上的實驗結果表明,使用主輔網(wǎng)絡深度特征融合的WA和UA分別達到74.45%、72.50%,比將特征直接拼接的WA和UA分別提高了1.24%、1.15%.

        1 不同類別的特征提取

        1.1 段特征提取

        1) 語音信號采樣率為16 kHz,分幀處理時取窗長256,窗移128;

        2) 使用截斷或補零的方式使所有語音長度為1 000幀;

        3) 計算每一幀信號的平均過零率、能量、基音頻率、共振峰、MFCC,共18維聲學特征[12];

        4) 每5幀組成一段[13],共200段。計算一段內聲學特征的最大值、最小值、平均值、中值和方差等統(tǒng)計特征,得到一段信號的18×5=90維特征;

        5) 標準化處理,得到每一句情感語音信號的90×200的段特征,段內的聲學特征如表1所示。

        表1 段內的聲學特征及其統(tǒng)計類型Table 1 Acoustic feature and statistical feature within a segment

        1.2 Mel語譜圖生成

        首先對語音信號進行STFT變換,使用漢明窗,窗長256,窗移128.

        大量實驗表明人耳聽到的聲音高低和實際頻率(Hz)不呈線性關系,Mel頻率更加符合人耳的聽覺特性,Mel頻率fMel和Hz頻率f的關系如式(1)所示。

        (1)

        然后通過40階Mel濾波器組得到Hm(k),再將Hm(k)×|X(k)|2求和得到Mel語譜圖。

        Mel濾波器組的輸出計算如式(2)所示,每個濾波器具有三角濾波特性,

        (2)

        式中:f(m)為中心頻率,m表示Mel濾波器的階數(shù);k表示FFT中點的編號。

        Mel語譜圖計算如式(3)所示,

        (3)

        其中,|X(k)|2表示頻譜能量。

        最后使用截斷補零的方式使所有Mel語譜圖大小對齊,得到大小為40×432的Mel語譜圖。

        1.3 基于BLSTM-Attention的深度段特征提取

        LSTM適合對序列問題進行建模,因此被廣泛應用在語音識別和語音情感識別中。BLSTM由正向LSTM和反向LSTM組成。BLSTM不僅可以考慮輸入數(shù)據(jù)以前的信息,還可以考慮輸入數(shù)據(jù)未來的信息,可以更好地對序列問題進行建模。采用BLSTM對段特征進行建模可以提取考慮上下文情感信息的深度情感特征。本文使用兩層BLSTM,隱藏神經(jīng)元個數(shù)為300,為了減輕過擬合使用dropout,棄權率為0.5.

        通過對BLSTM輸出應用注意力機制可以關注輸入的情感語音信號中更顯著的情感片段,增強BLSTM網(wǎng)絡提取顯著深度段特征的能力。更具體地說,以LSTM為核心的識別器在時間上展開的長度是T,則LSTM在每一時刻都對應一個輸出。相比于平均池化輸出和最后時刻輸出,注意力機制可以兼顧LSTM層每一時刻的輸出,其對LSTM網(wǎng)絡每一時刻的輸出分配不同的權重來考慮上下文情感信息的深層特征。注意力機制的具體計算如式(4)所示:

        (4)

        式中:st∈RD是輸入序列的某一元素;T表示LSTM的某一時刻;αt為加權系數(shù)。加權系數(shù)可以通過式(5)、(6)算出,并通過網(wǎng)絡訓練進行更新。

        αt=softmax(βt) .

        (5)

        (6)

        1.4 基于CNN-GAP的深度Mel語譜圖特征提取

        由于CNN適合于二維圖像數(shù)據(jù),而Mel語譜圖是一維語音信號在二維時頻域的展開,因此CNN可以用來在Mel語譜圖上提取深度特征。CNN由卷積層和池化層組成,卷積層用來提取特征,池化層用來降低網(wǎng)絡規(guī)模和過擬合,通常采用最大值池化或均值池化。

        Mel語譜圖是一維語音信號在二維時頻域的展開,能夠充分反映語音信號在時頻域大部分信息。針對Mel語譜圖的這一特點,可以分別在時間軸和頻率軸設計較大的卷積核,提取Mel語譜圖的頻率和時間特性,進而提取顯著的情感特征。設計的卷積神經(jīng)網(wǎng)絡結構如圖1所示。

        卷積核大小表示為長×寬×輸入通道×輸出通道,池化層大小表示為長×寬圖1 設計的卷積神經(jīng)網(wǎng)絡結構Fig.1 Design of the convolutional neural network structure

        第一層卷積層在時間軸上設計較大的卷積核,提取Mel語譜圖的時間特性;第二層卷積層在頻率軸上設計較大的卷積核,提取Mel語譜圖的頻率特性;第三層卷積層使用3×3卷積核;第四層卷積層在頻率軸上使用全卷積,最后再使用全局平均池化(global average pooling,GAP).用GAP代替全連接層可以減輕過擬合,使網(wǎng)絡易于訓練。每一層卷積層都使用了批歸一化(batch normalization,BN)以及Relu激活函數(shù)。具體網(wǎng)絡參數(shù)經(jīng)過調參得到。

        2 主輔網(wǎng)絡特征融合模型

        2.1 主輔網(wǎng)絡特征融合的網(wǎng)絡結構

        將段特征輸入BLSTM-Attention網(wǎng)絡提取了深度段特征,將Mel語譜圖輸入CNN-GAP網(wǎng)絡提取深度Mel語譜圖特征,通常將兩者以直接拼接的方式進行特征融合,但是沒有考慮不同特征的量綱和維度的差異,會對識別結果帶來不利影響。因此,本文提出基于主輔網(wǎng)絡特征融合的語音情感識別。

        主輔網(wǎng)絡特征融合的網(wǎng)絡結構如圖2所示。傳統(tǒng)聲學特征以時域特征為主,具有明確的物理意義,因此將其作為主網(wǎng)絡輸入特征。主網(wǎng)絡是基于BLSTM-Attention的深度段特征提取模塊,輔助網(wǎng)絡是基于CNN-GAP的深度Mel語譜圖特征提取模塊,兩者以主輔網(wǎng)絡方式組成特征融合網(wǎng)絡。主網(wǎng)絡分為上、下兩部分,MU代表上半部分,由全連接層構成;MD代表下半部分,由BLSTM-Attention網(wǎng)絡構成。e0表示語音段特征,經(jīng)標準化后作為主網(wǎng)絡的輸入;hl代表主網(wǎng)絡MD部分的輸出,是深度段特征,維度是600.輔助網(wǎng)絡由CNN-GAP網(wǎng)絡構成,v0表示Mel語譜圖,作為輔助網(wǎng)絡輸入,vM表示輔助網(wǎng)絡GPA的輸出,輔助網(wǎng)絡FC層的Wc是控制參數(shù)(為了簡化描述,省略了輔助網(wǎng)絡FC層偏置項),也是權重,維度是128×200.一方面在主網(wǎng)絡參數(shù)更新時可以控制輔助網(wǎng)絡參數(shù)不更新;另一方面是對vM進行特征變換。Concate表示hl與WcvM直接拼接,并輸入主網(wǎng)絡的MU上半部分,其中hl表示BLSTM-Attention網(wǎng)絡提取的深度段特征,vM表示CNN-GAP網(wǎng)絡提取的深度Mel語譜圖特征,Wc表示控制主輔網(wǎng)絡訓練的參數(shù)。然后將Concate拼接結果通過FC層做進一步特征融合,最后使用Softmax進行分類。

        圖2 主輔網(wǎng)絡特征融合的結構模型Fig.2 A structural model of feature fusion of main-auxiliary networks

        2.2 主輔網(wǎng)絡特征融合參數(shù)傳遞及更新

        本文提出的基于主輔網(wǎng)絡特征融合的語音情感識別模型,最重要的是網(wǎng)絡訓練過程,也就是誤差反傳參數(shù)更新的過程,主輔網(wǎng)絡特征融合參數(shù)傳遞示意圖如圖3所示。

        圖3 主輔網(wǎng)絡特征融合參數(shù)傳遞及更新Fig.3 Transfer and update of main-auxiliary network feature fusion parameters

        由于輔助網(wǎng)絡的加入,網(wǎng)絡的訓練被分為三步:

        1) 參數(shù)初始化。將語音段特征e0輸入主網(wǎng)絡,將Mel語譜圖v0輸入輔助網(wǎng)絡;然后將控制參數(shù)Wc初始化為0,主網(wǎng)絡和輔助網(wǎng)絡的權重和偏置通過截斷正太分布隨機初始化。

        2) 主網(wǎng)絡訓練。首先通過控制Wc和網(wǎng)絡設置使輔助網(wǎng)絡不起作用,然后使用梯度下降算法和反向傳播算法訓練主網(wǎng)絡使主網(wǎng)絡MD和MU參數(shù)更新。

        3) 輔助網(wǎng)絡訓練。首先將主網(wǎng)絡MD和MU的權重和偏置設置為不更新,將輔助網(wǎng)絡的權重、偏置和Wc設置為更新;使用梯度下降算法和反向傳播算法訓練輔助網(wǎng)絡使輔助網(wǎng)絡參數(shù)和Wc更新。

        下面介紹輔助網(wǎng)絡的一些參數(shù)更新。主輔網(wǎng)絡最后一層輸出拼接向量為hl,具體的拼接公式如式(7)所示:

        hl=hl+WcvM.

        (7)

        (8)

        (9)

        3 實驗及結果

        3.1 實驗數(shù)據(jù)庫及網(wǎng)絡參數(shù)設置

        本文使用美國南加州大學發(fā)布的英文情感數(shù)據(jù)集IEMOCAP(the interactive emotional dyadic motion capture database).該數(shù)據(jù)集由5個會話組成,每個會話由一對說話者(女性和男性)在預先設定的場景和即興場景中對話。本文使用即興場景對話中的語句,選取4種情感,分別是高興、悲傷、憤怒、中性,共2 046條語句。

        本文使用tensorflow深度學習框架,以本文提出的網(wǎng)絡模型為例,通過多次實驗確定網(wǎng)絡參數(shù)如下:主網(wǎng)絡學習率為0.000 5,輔助網(wǎng)絡學習率為0.001;主網(wǎng)絡minibatch大小為96,輔助網(wǎng)絡minibatch大小為48;主輔網(wǎng)絡均使用Adam優(yōu)化器。

        3.2 實驗結果及分析

        本文采用情感識別領域常見的兩種評價指標:加權準確率WA和非加權準確率UA.WA衡量了語音情感識別系統(tǒng)的總體性能,其計算方式為正確分類的樣本數(shù)量除以樣本總數(shù);UA衡量所有類別的識別性能,其計算方式為各類的分類準確率再除以類別數(shù)。本文采用分層五折交叉方式驗證模型預測效果,使用樣本的80%進行訓練,20%進行測試,最后對5次預測結果取平均。為了評價本文所提算法的有效性,對5種識別模型在IEMOCAP數(shù)據(jù)集上進行了對比實驗,結果如表2所示。

        下面對5種識別模型的輸入特征進行說明。

        BLSTM:將段特征輸入BLSTM網(wǎng)絡進行特征提取,然后輸入Softmax分類器進行語音情感識別。

        BLSTM-Attention:將段特征輸入BLSTM-Attention網(wǎng)絡進行特征提取,然后輸入Softmax分類器進行語音情感識別。

        CNN-GAP:將Mel語譜圖輸入CNN-GAP網(wǎng)絡進行特征提取,然后輸入Softmax分類器進行語音情感識別。

        Concate Network:將段特征輸入基于BLSTM-Attention網(wǎng)絡,將Mel語譜圖輸入CNN-GAP網(wǎng)絡,再將兩者以直接拼接的方式進行特征融合,最后輸入Softmax分類器進行語音情感識別。

        Our Methods:本文提出的主輔網(wǎng)絡特征融合識別模型,先將段特征輸入基于BLSTM-Attention網(wǎng)絡,將Mel語譜圖輸入CNN-GAP網(wǎng)絡,再將兩者以主輔網(wǎng)絡特征融合的方式進行特征融合,最后輸入Softmax分類器進行語音情感識別。

        由表2可知,Our Methods的WA和UA比BLSTM-Attention分別提高3.20%,3.08%;比CNN-GAP分別提高3.68%,4.02%;比Concate Network分別提高1.24%,1.15%.表明使用兩種特征融合比單獨使用一種特征更有效,且主輔網(wǎng)絡特征融合方式的識別結果比直接拼接方式特征融合的識別結果更有效。

        表2 5種識別模型在IEMOCAP數(shù)據(jù)集上的識別結果Table 2 Recognition results of the five recognition models on IEMOCAP dataset %

        Our Methods的混淆矩陣如表3所示,中性、高興、悲傷、生氣情感的識別準確率分別為60.02%,78.15%,88.37%,63.51%,4種情感識別準確率均高于60%,進一步證明了Our Methods的有效性。

        表3 Our Methods的混淆矩陣Table 3 Confusion matrix of Our Methods %

        表4中列出了Our Methods和其他模型在 IEMOCAP數(shù)據(jù)集上研究的識別結果,識別模型均采用即興場景對話中的語句,選取了4種情感。從表4可以看出,Our Methods和其他模型相比取得了不錯的效果,比Attention-BLSTM-FCN模型[15]的WA和UA分別提高了6.35%和5.50%.

        表4 Our methods和其他模型在IEMOCAP數(shù)據(jù)集上的識別結果Table 4 Recognition results of Our Methods and other models on IEMOCAP datasets %

        4 結束語

        情感的表達本身是一個很復雜的過程,涉及到心理以及生理方面的諸多因素,因此從語音信號中識別出情感信息是一個挑戰(zhàn)性的課題。本文將段特征輸入BLSTM-Attention網(wǎng)絡作為主網(wǎng)絡,把Mel語譜圖輸入CNN-GAP網(wǎng)絡作為輔助網(wǎng)絡,然后將兩個網(wǎng)絡提取的深度特征以主輔網(wǎng)絡方式進行特征融合,解決不同類型特征直接融合帶來的識別結果不理想的問題,并用實驗驗證了所提出模型的有效性。在今后的研究過程中,擬改進CNN-GAP網(wǎng)絡的最后一層的池化方式并將腦電信號作為輔助信號引入主輔網(wǎng)絡結構進行語音情感識別。

        猜你喜歡
        語譜主輔語音
        玉鋼燒結機給料主輔門適用性改造
        昆鋼科技(2020年5期)2021-01-04 01:41:22
        魔力語音
        HR-DCGAN方法的帕金森聲紋樣本擴充及識別研究
        基于MATLAB的語音信號處理
        電子制作(2019年14期)2019-08-20 05:43:38
        主輔路共板城市干道設計分析
        基于MQ3與MP3的價廉物美的酒駕語音提醒器
        電子制作(2019年9期)2019-05-30 09:42:10
        對方正在輸入……
        小說界(2018年5期)2018-11-26 12:43:42
        基于時頻域特征的場景音頻研究
        語譜圖二次傅里葉變換特定人二字漢語詞匯識別
        玻璃纖維樁主輔樁在老年患者前牙漏斗狀殘根修復中的臨床應用
        韩国无码av片在线观看网站 | 人妻av中文字幕无码专区| 国产国语熟妇视频在线观看| 91网站在线看| 国产又爽又粗又猛的视频| 一本一道av无码中文字幕| 国产成人亚洲综合无码精品| 亚洲av高清在线观看三区| 亚洲日本VA午夜在线电影| 人妻在线中文字幕视频| 成人免费视频自偷自拍| 一区二区三区观看在线视频| 亚洲综合中文日韩字幕| 日本超级老熟女影音播放| 亚洲av精二区三区日韩| 亚洲av一二三区成人影片| 国产精品免费av片在线观看| 久久精品噜噜噜成人| 午夜丰满少妇性开放视频| 国产精品九九九无码喷水| 日本一区二区三区资源视频| 日本人妻三级在线观看| 一区二区三区av在线| 女优一区二区三区在线观看| 极品嫩模高潮叫床| 97se亚洲国产综合自在线| 久久亚洲道色宗和久久| 夫妻一起自拍内射小视频| 日本不卡一区二区三区在线观看| 极品尤物在线精品一区二区三区| 一区二区三区四区国产99| 又色又爽又黄还免费毛片96下载| 2019最新国产不卡a| 国产欧美日韩在线观看一区二区三区| 无码伊人久久大香线蕉| 男男做h嗯啊高潮涩涩| 亚洲中字幕日产av片在线| 免费毛片a线观看| 久久中文字幕人妻熟av女蜜柚m | 日韩人妻无码精品久久免费一| 理论片87福利理论电影|