亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        語音情感識別綜述

        2016-11-07 22:09:02薛文韜
        軟件導(dǎo)刊 2016年9期

        摘要:隨著情感計算成為人工智能的一個重要發(fā)展方向,語音情感識別作為情感計算的一個重要組成部分,受到了廣泛關(guān)注。從情感描述模型、語音情感特征、語音情感庫、語音情感挑戰(zhàn)賽這4個方面對語音情感研究現(xiàn)狀進行總結(jié),并給出目前語音情感識別技術(shù)存在的挑戰(zhàn),以及相應(yīng)的研究方法。

        關(guān)鍵詞:語音情感識別;情感描述模型;情感特征;語音情感庫;域適應(yīng)

        DOIDOI:10.11907/rjdk.161498

        中圖分類號:TP391

        文獻標識碼:A文章編號文章編號:16727800(2016)009014303

        作者簡介作者簡介:薛文韜(1991-),男,江蘇常熟人,江蘇大學(xué)計算機科學(xué)與通信工程學(xué)院碩士研究生,研究方向為語音情感識別。

        0引言

        1997年,美國麻省理工學(xué)院的Picard教授提出了情感計算(Affective Computing)的概念。情感計算作為計算機科學(xué)、神經(jīng)科學(xué)、心理學(xué)等多學(xué)科交叉的新興研究領(lǐng)域,已成為人工智能的重要發(fā)展方向之一。而語音情感識別作為情感計算的一個重要分支,亦引起了廣泛關(guān)注。

        許多國內(nèi)外知名大學(xué)和科研機構(gòu)也開始語音情感識別研究,國外如美國麻省理工學(xué)院Picard教授領(lǐng)導(dǎo)的情感計算研究小組,德國慕尼黑工業(yè)大學(xué)Schuller教授領(lǐng)導(dǎo)的人機語音交互小組等;國內(nèi)如清華大學(xué)的人機交互與媒體集成研究所、西北工業(yè)大學(xué)音頻、語音與語言處理組等。

        1語音情感識別

        語音情感識別系統(tǒng)主要由前端和后端兩部分組成。前端用于提取特征,后端基于這些特征設(shè)計分類器。在語音相關(guān)應(yīng)用中,運用比較多的分類器是支持向量機和隱馬爾科夫模型。目前,語音情感識別的重點主要集中于特征提取。在傳統(tǒng)的語音情感識別中,如何提取具有判別性的特征已成為研究的重點。隨著數(shù)據(jù)的大規(guī)模增長,傳統(tǒng)語音情感識別的前提(訓(xùn)練數(shù)據(jù)和測試數(shù)據(jù)具有相同的數(shù)據(jù)分布)已不能夠被滿足,研究者提出了遷移學(xué)習(xí)的概念,利用域適應(yīng)方法來解決跨庫的語音情感識別。

        本文將從情感描述模型、語音情感特征、語音情感庫、語音情感挑戰(zhàn)賽這4個方面對語音情感研究現(xiàn)狀進行總結(jié),并給出現(xiàn)存語音情感識別的技術(shù)挑戰(zhàn)及相應(yīng)的研究方法。

        2情感描述模型

        目前主要從離散情感和維度情感兩個方面來描述情感狀態(tài)。

        離散情感描述,主要把情感描述成離散的形式,是人們?nèi)粘I钪袕V泛使用的幾種情感,也稱為基本情感。在當(dāng)前情感相關(guān)研究領(lǐng)域使用最廣泛的六大基本情感是生氣、厭惡、恐懼、高興、悲傷和驚訝。

        相對于離散情感描述,維度情感描述使用連續(xù)的數(shù)值來描述情感狀態(tài),因此也稱作連續(xù)情感描述。它把情感狀態(tài)視作多維情感空間中的點,每個維度都對應(yīng)情感的不同心理學(xué)屬性。常用的維度情感模型是二維的激活度-效價(Arousal-Valence)模型,其二維空間如圖1所示。其中橫軸表示效價屬性(Valence),用于衡量情感的正負面程度;而縱軸表示激活程度(Arousal),用于描述情感狀態(tài)的喚醒程度。通過不同的效價度和激活程度,就能區(qū)分出不同的情感,比如悲傷與生氣兩種負面情緒雖然效價相差無異,但兩者的激活度卻有很大差異。

        3語音情感特征

        傳統(tǒng)的語音情感特征可粗略地分為基于聲學(xué)的情感特征和基于語義的情感特征?;诼晫W(xué)的情感特征又分為3類:韻律學(xué)特征、音質(zhì)特征以及頻譜特征[1]。音高、能量、基頻和時長等是最為常用的韻律學(xué)特征,由于韻律學(xué)特征具有較強的情感辨別能力,已經(jīng)得到了研究者們的廣泛認同。音質(zhì)特征主要有呼吸聲、明亮度特征和共振峰等,語音中所表達的情感狀態(tài)被認為與音質(zhì)有著很大的相關(guān)性。頻譜特征主要包括線性譜特征和倒譜特征,線性譜特征包括Linear predictor cofficient(LPC)、log-frequency power cofficient(LFPC)等,倒譜特征包括mel-frequency cepstral cofficient(MFCC)、linear predictor cepstral cofficient(LPCC)等。此外,基于這3類語音特征的不同語段長度的統(tǒng)計特征是目前使用最為普遍的特征參數(shù)之一,如特征的平均值、變化率、變化范圍等。然而到底什么特征才最能體現(xiàn)語音情感之間的差異,目前還沒有統(tǒng)一的說法。

        在2009年首次舉辦的國際語音情感挑戰(zhàn)INTERSPEECH 2009 Emotion Challenge(EC)的分類器子挑戰(zhàn)中,組織者為參賽者提供了一個基本特征集,選擇了在韻律學(xué)特征、音質(zhì)特征和頻譜特征中廣泛使用的特征和函數(shù),包括16個低層描述子(Low-Level Descriptors,LLDs)和12個函數(shù),構(gòu)建了一個384維的特征向量[2]。具體的16個低層描述子和12個函數(shù)如表1所示。

        4語音情感庫

        語音情感庫作為語音情感識別的前提條件,影響著最終語音情感識別系統(tǒng)的性能。目前,在語音情感庫的建立方面還沒有統(tǒng)一的標準,已構(gòu)建的情感語音庫多種多樣,在語言、情感表現(xiàn)方式(表演型(acted)、引導(dǎo)型(elicited),自發(fā)型(naturalistic))、情感標記方案(離散情感或者維度情感)、聲學(xué)信號條件、內(nèi)容等方面具有很大差異。從情感表現(xiàn)方式而言,表演型情感一般是讓職業(yè)演員以模仿的方式表現(xiàn)出相應(yīng)的情感狀態(tài),雖然說話人被要求盡量表達出自然的情感,但刻意模仿的情感還是顯得更加夸大,使得不同情感類別之間的差異性比較明顯,這方面的語音情感庫有Berlin Emotional Speech Database(Emo-DB)、Airplane Behavior Corpus(ABC)等[34]。早期對語音情感識別的研究都是基于表演型語料庫,隨著人們意識到引導(dǎo)型情感具有更加自然的情感表達之后,研究者們開始基于引導(dǎo)型情感庫進行研究,比如eNTERFACE[5]。隨著研究的深入,迫切需要一些自發(fā)的語音情感數(shù)據(jù),目前出現(xiàn)了FAU Aibo Emotion Corpus(FAU AEC)、TUM Aduio-Visual Interest Corpus(TUM AVIC)、Speech Under Simulated and Actual Stress(SUSAS)和Vera am Mittag(VAM)[2,68]。常用的幾個語音情感庫如表2所示,描述了他們在年齡、語言、情感、樣本個數(shù)、記錄環(huán)境和采樣率之間的差異。

        5語音情感挑戰(zhàn)賽

        雖然已經(jīng)有很多研究致力于語音情感識別,但是相對于其它語音任務(wù)(如自動語音識別和說話人識別)而言,語音情感識別中還不存在標準的語音情感庫和統(tǒng)一的測試條件用于在相同條件下進行性能比較。同時,為了處理更加現(xiàn)實的場景,需要獲得自然的語音情感數(shù)據(jù)。國際語音情感挑戰(zhàn)INTERSPEECH 2009 EC旨在彌補出色的語音情感識別研究和結(jié)果可比性之間的缺陷,它提供了自然的語音情感庫FAU AEC,以及開源工具包openEAR來提取基本的384維特征集,保證了特征的透明性,從而使得結(jié)果具有重現(xiàn)性和可比性[9]。FAU AEC庫包括了德國兩個學(xué)校(Ohm和Mont)10~13歲的孩子與索尼公司的機器狗Aibo進行交互的語音數(shù)據(jù)。為了實現(xiàn)說話人獨立的語音情感識別,通常學(xué)校Ohm記錄的數(shù)據(jù)用于訓(xùn)練,而Mont記錄的數(shù)據(jù)用于測試。INTERSPEECH 2009 EC的情感分類任務(wù)主要包括2類情感(負面情感、所有其它情感)分類和5類情感(生氣、同情、積極、中立和其它)分類,目前已有很多研究基于FAU AEC庫進行情感分類。除了在FAU AEC庫上進行傳統(tǒng)的語音情感識別外,隨著跨庫語音情感識別研究的深入,很多研究者也將FAU AEC作為目標域數(shù)據(jù)庫進行域適應(yīng)的研究。

        6語音情感識別的主要挑戰(zhàn)

        6.1語音情感特征

        在傳統(tǒng)語音情感識別中,提取具有判別性的特征已經(jīng)成為一個重要的研究方向。在情感特征提取過程中,通常存在一些與情感無關(guān)的因素,如說話內(nèi)容、說話人、環(huán)境等,這些不相關(guān)的因素將會使得提取到的特征包含這些因素方面的變化,從而影響情感分類性能。

        目前已有部分研究開始考慮這些與情感無關(guān)因素的影響。同時,隨著深度學(xué)習(xí)的提出與發(fā)展,越來越多的研究者開始使用深度神經(jīng)網(wǎng)絡(luò)進行特征提取。Chao等[10]利用無監(jiān)督預(yù)訓(xùn)練去噪自動編碼器,減少了情感特征中說話人的影響。Mao等[11]提出了半監(jiān)督卷積神經(jīng)網(wǎng)絡(luò)模型,提取情感相關(guān)特征,通過實驗證明其對說話人的變化、環(huán)境的滋擾以及語言變化都有很強的魯棒性。Mariooryad 等[12]對特征構(gòu)建音素層次的彈道模型,從聲學(xué)特征中分解出說話人的特性,從而彌補說話人對語音情感識別的影響。

        6.2跨庫的語音情感識別

        在傳統(tǒng)的語音情感識別中,訓(xùn)練數(shù)據(jù)和測試數(shù)據(jù)一般來自同一個語料庫或者具有相同的數(shù)據(jù)分布。隨著數(shù)據(jù)的爆炸式增長,從不同設(shè)備和環(huán)境下獲得的語音數(shù)據(jù)通常在語言、情感表現(xiàn)方式、情感標記方案、聲學(xué)信號條件、內(nèi)容等方面存在很大差異,這就造成了訓(xùn)練數(shù)據(jù)和測試數(shù)據(jù)分布的不同,傳統(tǒng)的語音情感識別方法就不再適用。

        近年來,遷移學(xué)習(xí)(Transfer Learning)的概念被提出,指從一個或多個源域中將有用的信息遷移到相關(guān)的目標域,以幫助改善目標域的分類性能[13]。域適應(yīng)(Domain Adaptation)作為一種特殊的遷移學(xué)習(xí),已成功應(yīng)用于跨庫的語音情感識別。Deng等[14]提出一種共享隱藏層自動編碼器(shared-hidden-layer autoencoder,SHLA)模型,相較于傳統(tǒng)的自動編碼器,SHLA的輸入數(shù)據(jù)包含了源域和目標域兩類數(shù)據(jù),讓兩個域的數(shù)據(jù)共用編碼部分而解碼部分不同,目的是誘使兩個域的數(shù)據(jù)在隱藏層空間具有相似的數(shù)據(jù)分布。Huang等[15]利用PCANet沿著從源域到目標域的路徑提取特征,并用目標域空間來調(diào)整路徑上的特征,以此彌補域之間的差異。

        參考文獻參考文獻:

        [1]EL AYADI M,KAMEL M S,KARRAY F.Survey on speech emotion recognition:features,classification schemes and databases[J].Pattern Recognition,2011,44(3): 572587.

        [2]SCHULLER B,STEIDL S,BATLINER A.The interspeech 2009 emotion challenge[C].Proceedings INTERSPEECH 2009,10th Annual Conference of the International Speech Communication Association,2009:312315.

        [3]BURKHARDT F,PAESCHKE A,ROLFES M,et al.A database of German emotional speech[J].Interspeech,2005(5):15171520.

        [4]SCHULLER B,ARSIC D,RIGOLL G,et al.Audiovisual behavior modeling by combined feature spaces[C].IEEE International Conference on Acoustics,Speech and Signal Processing (ICASSP),2007:733736.

        [5]MARTIN O,KOTSIA I,MACQ B,et al.The eNTERFACE05 audiovisual emotion database[C].22nd International Conference on Data Engineering Workshops,2006.

        [6]SCHULLER B,MULLER R,EYBEN F,et al.Being bored recognising natural interest by extensive audiovisual integration for reallife application[J].Image and Vision Computing,2009,27(12): 17601774.

        [7]HANSEN J H L,BOUGHAZALE S E,SARIKAYA R,et al.Getting started with SUSAS:a speech under simulated and actual stress database[C].Eurospeech,1997,97(4): 174346.

        [8]GRIMM M,KROSCHEL K,NARAYANAN S.The vera am mittag german audiovisual emotional speech database[C].2008 IEEE International Conference on Multimedia and Expo,2008:865868.

        [9]EYBEN F,WOLLMER M,SCHULLER B.OpenEAR—introducing the Munich opensource emotion and affect recognition toolkit[C].3rd International Conference on Affective Computing and Intelligent Interaction and Workshops,2009: 16.

        [10]CHAO L,TAO J,YANG M,et al. Improving generation performance of speech emotion recognition by denoising autoencoders[C].2014 9th International Symposium on Chinese Spoken Language Processing (ISCSLP),2014: 341344.

        [11]MAO Q,DONG M,HUANG Z,et al.Learning salient features for speech emotion recognition using convolutional neural networks[J].IEEE Transactions on Multimedia,2014,16(8):22032213.

        [12]MARIOORYAD S,BUSSO C.Compensating for speaker or lexical variabilities in speech for emotion recognition[J].Speech Communication,2014,57(1): 112.

        [13]PAN S J,YANG Q.A survey on transfer learning[J].IEEE Transactions on Knowledge & Data Engineering,2010,22(10):13451359.

        [14]DENG J,XIA R,ZHANG Z,et al.Introducing sharedhiddenlayer autoencoders for transfer learning and their application in acoustic emotion recognition[C].2014 IEEE International Conference on Acoustics,Speech and Signal Processing(ICASSP),2014: 48184822.

        [15]HUANG Z,XUE W,MAO Q,et al.Unsupervised domain adaptation for speech emotion recognition using PCANet[J].Multimedia Tools & Applications,2016(2):115.

        責(zé)任編輯(責(zé)任編輯:孫娟)

        久久国产综合精品欧美| 亚洲乱码一区av春药高潮| 国产精品亚洲一区二区三区在线 | 国产在线不卡AV观看| 一区二区三区国产偷拍| av免费不卡一区二区| 国产精品亚洲αv天堂无码| 93精91精品国产综合久久香蕉| 中文字幕一区二区网站| 一区二区三区视频亚洲| 男人边做边吃奶头视频| 久久精品国产亚洲av电影| 精品视频在线观看一区二区有| 中美日韩在线一区黄色大片| 少妇人妻综合久久中文字幕| 男人无码视频在线观看| 伊人影院在线观看不卡| 国产麻豆久久av入口| 无码国模国产在线观看| 欧美日韩亚洲成色二本道三区 | 欧洲美女熟乱av| 亚洲av无码第一区二区三区| 天天中文字幕av天天爽| 日本视频一区二区三区在线| 黑人巨大精品欧美一区二区免费 | 依依成人影视国产精品| 亚洲av本道一本二本三区| 97se亚洲国产综合在线| 国产一在线精品一区在线观看 | 草青青视频手机免费观看| 久久久久88色偷偷| 99久热re在线精品99 6热视频| 区一区一日本高清视频在线观看| 亚洲丝袜美腿在线视频| 日本公与熄乱理在线播放| 高清国产一级毛片国语| 久久综合五月天啪网亚洲精品 | 亚洲性av少妇中文字幕| 午夜亚洲av日韩av无码大全| 久久婷婷色综合一区二区| 五月天亚洲av优女天堂|