亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于DBN的多特征融合音樂情感分類方法①

        2017-09-15 07:19:22丁明波
        關(guān)鍵詞:基音正確率分類器

        龔 安,丁明波,竇 菲

        (中國石油大學(xué)(華東)計算機(jī)與通信工程學(xué)院,青島 266580)

        基于DBN的多特征融合音樂情感分類方法①

        龔 安,丁明波,竇 菲

        (中國石油大學(xué)(華東)計算機(jī)與通信工程學(xué)院,青島 266580)

        本文在音樂情感分類中的兩個重要的環(huán)節(jié):特征選擇和分類器上進(jìn)行了探索.在特征選擇方面基于傳統(tǒng)算法中單一特征無法全面表達(dá)音樂情感的問題,本文提出了多特征融合的方法,具體操作方式是用音色特征與韻律特征相結(jié)合作為音樂情感的符號表達(dá);在分類器選擇中,本文采用了在音頻檢索領(lǐng)域表現(xiàn)較好的深度置信網(wǎng)絡(luò)進(jìn)行音樂情感訓(xùn)練和分類.實驗結(jié)果表明,該算法對音樂情感分類的表現(xiàn)較好,高于單一特征的分類方法和SVM分類的方法.

        音樂情感分類;深度學(xué)習(xí);深度置信網(wǎng)絡(luò);音樂特征提取;特征融合

        隨著音樂推薦系統(tǒng)等數(shù)字音樂應(yīng)用的蓬勃發(fā)展,針對數(shù)字音樂分類問題的研究越來越受到重視,而音樂情感分類作為音樂檢索、音樂推薦等領(lǐng)域的基礎(chǔ)問題,逐漸成為該領(lǐng)域的重點研究對象.Krumhansl,C.L.于1997年第一次用數(shù)學(xué)模型描述音樂情感分類的問題[1],從此開啟了音樂情感自動分類的大門,在該領(lǐng)域研究的主要方面有兩個:1)恰當(dāng)音樂特征的選擇;2)選擇合適的分類模型[2].

        針對音樂特征選擇問題,許多學(xué)者對采用怎樣的音樂特征才能夠更好的表達(dá)音樂情感進(jìn)行了探究,比如G.Tzanetakis等人在音樂類型分類中用到的梅爾頻率倒譜系數(shù)(MFCC)[3]、T.Li等人研究中用到的頻譜質(zhì)心(SC)[4],T.Li and 等人的多貝西小波系數(shù)直方圖(DWCH)[5],文獻(xiàn)[6-9]中用到的節(jié)拍直方圖(BH),T.Fujishima等人用到的和弦序列(CS)、音節(jié)輪廓(PCP)[10]等,這些不同的特征在一定程度上體現(xiàn)了音樂所包含的內(nèi)在情感,但單一的音樂特征仍然存在情感表達(dá)不完整的問題,在實際應(yīng)用中導(dǎo)致分類正確率低.在分類器選擇中,淺層分類器如k-NN、SVM、貝葉斯分類器是音樂情感分類的常用分類器[11],還有人工神經(jīng)網(wǎng)絡(luò)(ANN)、自組織映射(SOM)、隱馬爾科夫模型(HMM)和邏輯回歸(LR)等也在該領(lǐng)域得到應(yīng)用[12],淺層分類器的分類效果很難滿足人們的需要.

        針對以上問題,本文提出了一種特征融合的音樂情感分類算法:從原始音頻信號中先提取音色特征、韻律特征,然后以這些特征作為原始的訓(xùn)練集,在深度置信網(wǎng)絡(luò)(DBN)訓(xùn)練模型中訓(xùn)練.通過對音色特征、韻律特征的融合,解決傳統(tǒng)音樂情感分類中單個音頻特征單一導(dǎo)致的音樂情感表達(dá)不準(zhǔn)確問題,同時利用深度置信網(wǎng)絡(luò)在音頻處理中的優(yōu)勢,采用4層深度置信網(wǎng)絡(luò)進(jìn)行分類訓(xùn)練,提高分類準(zhǔn)確率.

        1 音樂情感特征參數(shù)

        大多數(shù)的音樂情感分類方法的研究是基于音樂信號本身提取的音樂特征[13],音樂情感特征參數(shù)的提取與表達(dá)是音樂情感分類技術(shù)的基礎(chǔ)內(nèi)容,我們可將音樂內(nèi)容分為底層特征、中層特征和高層標(biāo)簽三個部分,底層特征和中層特征是客觀存在的符號特征,而高層標(biāo)簽則是依賴于人的感官而特定標(biāo)注的信息,包括音樂情感、音樂流派等內(nèi)容,音樂的符號特征與高層標(biāo)簽之間存在的無法直接對應(yīng)的問題稱為語義間隙問題.而音樂情感特征參數(shù)提取的主要目標(biāo)就是提取合適的符號特征完成音樂情感的表達(dá).

        圖1 語義間隙

        本文特征融合主要包含底層音色特征中的梅爾頻率倒譜系數(shù)(MFCC)和中層韻律特征中的基音頻率、共振峰、頻帶能量分布.

        1.1 底層音色特征

        底層特征是音樂情感分類系統(tǒng)的重要組成部分,主要包括音色特征和時序特征,其中音色特征作為音樂內(nèi)容的基本元素,既易于提取又具有良好的性能,反映了音樂的聲音品質(zhì),具有相同音調(diào)的聲音能夠通過音色特征區(qū)分,就像不同的繪畫有不同的顏色一樣,不同的聲源形成不同的諧波序列,并產(chǎn)生不同的聲色特征.在實際應(yīng)用中SR、SC、MFCC等底層特征廣泛應(yīng)用于音樂情感分類系統(tǒng)中.

        梅爾頻率倒譜系數(shù)(MFCC)是Mermel等人基于人的聽覺和語言提出的,在現(xiàn)階段的音樂信息分類中,由于MFCC相對于其他特征具有強(qiáng)抗噪性、高識別率的特點,后前已成為音樂情感識別領(lǐng)域應(yīng)用最為廣泛的特征參數(shù).MFCC的具體計算步驟如下.

        第一步:對輸入音頻信號進(jìn)行分幀、加窗處理,然后進(jìn)行傅里葉變換轉(zhuǎn)變?yōu)轭l域信號,得到頻譜如下:

        第二步:計算能量譜并將能量譜通過一組Mel尺度的三角濾波器組.定義一個有M(M=100)個濾波器的濾波器組,采用的濾波器為三角濾波器,中心頻率為

        計算每個濾波器組輸出的能量對數(shù),得到:

        第三步:經(jīng)離散余弦變換(DCT)得到MFCC系數(shù):

        其中n為MFCC系數(shù)階數(shù),將公式(2)所求的對數(shù)能量帶入公式(3)計算離散余弦變換,最終求得L階梅爾倒譜特征參數(shù).L指的是MFCC系數(shù)階數(shù).

        1.2 中層音色特征

        韻律特征是音樂特征中另一個廣泛應(yīng)用于音樂分類的重要特征[14],他是一種時間相關(guān)性的音頻信息,主要包括基音頻率、振幅、發(fā)音持續(xù)時間、節(jié)奏等.韻律特征是情感分類的重要參考標(biāo)準(zhǔn),通常來說,悲傷的音樂不會有舞曲一樣的韻律,而快節(jié)奏的音樂多帶有積極歡快的情緒.

        1.2.1 基音頻率

        音樂聲音是由發(fā)音體發(fā)出的頻率、振幅都不相同的振動組合而成的,其中振動最低的頻率音稱為基音頻率.它決定了整個音樂片段的音高,是音樂情感表達(dá)的一個重要特征.音樂是一種有調(diào)音頻,基音的變化模式稱為音調(diào),而不同的音樂情感有著不同的音調(diào),在具體的音樂情感識別中,比如說同一句歌詞由相同的人唱出,它的基音頻率會伴隨著演唱環(huán)境、情緒狀態(tài)、身體狀況等音樂的不同而改變,所以基音頻率攜帶著非常重要的具有辨別音樂情感的的信息.

        本系統(tǒng)中我們先對音樂片段的每一幀求取基音頻率,然后提取出基音頻率的最大值、最小值、平均值、標(biāo)準(zhǔn)差、變化范圍、上四分位數(shù)、中位數(shù)、下四分位數(shù)共計8維參數(shù).

        1.2.2 共振峰

        共振峰頻率簡稱共振峰,是因共鳴作用而能量變強(qiáng)的頻率成分,它直接反映了音樂中聲音的來源,是反映聲道物理特征的重要參數(shù).音頻信號模型中把聲道認(rèn)為是一根具有分均勻的聲管,發(fā)聲的過程就是不同位置的聲管共鳴的過程共振峰與聲道的形狀和大小有關(guān),一種形狀對應(yīng)著一套共振峰,音頻的頻率特性主要是由共振峰決定的,當(dāng)聲音沿聲管傳播時,其頻譜形狀就會隨聲管而改變.而在音樂情感識別中,如果音樂中包含喜、怒、哀、樂等不同情感信息,那么音頻的聲道形狀就會發(fā)生不同的變化,所以共振峰是能夠體現(xiàn)音樂情感變化的重要因素.

        本文中利用峰值檢測的方法計算出了共振峰的帶寬和頻率,進(jìn)而計算出第一共振峰的平均值、標(biāo)準(zhǔn)差、中位數(shù)、中位數(shù)所占的帶寬,第二共振峰的平均值、標(biāo)準(zhǔn)差、中位數(shù)、中位數(shù)所占的帶寬,第三共振峰的平均值,、標(biāo)準(zhǔn)差、中位數(shù)、中位數(shù)所占的帶寬,共計12維參數(shù).

        1.2.3 頻帶能量分布

        頻帶能量分布是指音頻中某一頻率范圍內(nèi)所蘊(yùn)含能量的分布情況,反映了音頻信號的強(qiáng)度隨頻率變化的關(guān)系.音頻信號在頻域上可以劃分成若干個子帶,不同的音頻信號在每個子帶上的能量分布有所不同,而對音樂情感起作用的信號主要分布在低頻區(qū),是音樂信號的重要特征,與音樂情感之間有很強(qiáng)的關(guān)聯(lián)性.例如悲傷的音樂一般較為舒緩而能量較小,而慷慨激昂的音樂大多具有很強(qiáng)的能量,在具體的研究中針對這一特性能夠為音樂情感分類提高良好的借鑒.

        本文中選取了0-500 Hz的頻帶能量平均值、500-1000 Hz的頻帶能量平均值、1000-2000 Hz的頻帶能量平均值、2000-3000 Hz的頻帶能量平均值、3000-4000 Hz的頻帶能量平均值、4000-5000 Hz的頻帶能量平均值,共計6維參數(shù).

        本文將以上4種特征共40維參數(shù)標(biāo)簽化處理后作為音樂情感特征,在深度置信網(wǎng)絡(luò)中訓(xùn)練,完成音樂情感分類.

        2 深度置信網(wǎng)絡(luò)

        深度置信網(wǎng)絡(luò)(DBN)是由多個受限玻爾茲曼機(jī)(RBM)組成的概率生成模型[15],在深度學(xué)習(xí)中具有重要的地位,在近幾年來已經(jīng)成功的應(yīng)用到自然語言理解[16]、語音識別[17]等領(lǐng)域.

        2.1 受限玻爾茲曼機(jī)

        受限玻爾茲曼機(jī)(RBM)是一個兩層神經(jīng)網(wǎng)絡(luò)模型,包含顯層和隱層兩層結(jié)構(gòu),如圖2所示,底部的v層代表可見層,頂部的h層代表隱層,可見層與隱層采用全連接方式連接,層內(nèi)單元無連接,w表示層間的連接權(quán)重.

        圖2 RBM 模型

        用戶提交的檢索信息通過權(quán)重w與可見層v和隱層h相聯(lián)系,如果將顯示單元分為兩類(0或1),那么當(dāng)向量作為可見層的輸入時,隱層單元h1輸出為1的概率為:

        這里ai為可見層i的偏置.

        2.2 深度置信網(wǎng)絡(luò)模型

        DBN是一個通過多個RBM模型疊加在一起而生成的多層的神經(jīng)網(wǎng)絡(luò)模型.由圖3 所示,除第一個的輸入為原始輸入外,其他層的輸入均來源于上一層的輸出,由此可見DBN的疊加訓(xùn)練過程如下:訓(xùn)練一個RBM之后,將隱層單元的激活概率作為第二層RBM的輸入值,第二層RBM的激活概率作為第三層RBM的輸入值,之后以此類推,直到整個神經(jīng)網(wǎng)絡(luò)訓(xùn)練完畢.這個訓(xùn)練過程稱為生成式預(yù)訓(xùn)練.

        圖3 DBM 模型

        在本文應(yīng)用DBN做分類任務(wù)時,采用生成式預(yù)訓(xùn)練和判別式方法結(jié)合使用的方式,它通過有效地調(diào)整所有權(quán)值來改善網(wǎng)絡(luò)的性能.判別式精調(diào)的方式是在現(xiàn)有網(wǎng)絡(luò)的最后一層上在增加一層節(jié)點,如圖3所示,用來表示想要的輸出或者訓(xùn)練數(shù)據(jù)提供的標(biāo)簽,它與標(biāo)準(zhǔn)的前饋神經(jīng)網(wǎng)絡(luò)一樣,可以使用反向傳播算法來調(diào)整或精調(diào)網(wǎng)絡(luò)的權(quán)值.DBN最后一層即標(biāo)簽層的內(nèi)容,根據(jù)不同的任務(wù)和應(yīng)用來確定.

        3 基于DBN的多特征融合分類方法

        3.1 算法流程

        圖4 音樂情感分類流程圖

        本文實現(xiàn)音樂情感分類的流程如圖4所示.

        具體的實現(xiàn)步驟如下:

        第一步:音頻預(yù)處理以及對相關(guān)特征的提取.本文對所涉及的音樂音頻分割為30s一段的音頻片段,并對分割完畢的音頻進(jìn)行4個特征共40個維度特征的提取.

        第二步:音樂特征融合.對40個維度的特征進(jìn)行整合、打包處理,形成40維特征向量.

        第三步:訓(xùn)練.將數(shù)據(jù)集分為訓(xùn)練集與測試集,采用4層DBN深層網(wǎng)絡(luò)訓(xùn)練.

        第四步:測試微調(diào).根據(jù)實驗結(jié)果對權(quán)重、偏置等參數(shù)進(jìn)行調(diào)整,并評估實驗結(jié)果.

        3.2 多特征融合

        在音樂分類中,單特征方法能夠較好的解決音樂類型、樂器等直觀的分類類型,但是對于復(fù)雜的音樂情感分類,單特征很容易造成對對某些情感識別較好而對另外一些識別不好的情況,針對這個問題,本文使用了將音色特征中的MFCC與韻律特征中的基音頻率、共振峰、頻帶能量分布四個在音樂情感分類中表現(xiàn)較好的特征相結(jié)合方法,作為音樂情感表達(dá)特征.

        如表1所示,4個種類的特征包括14維的MFCC特征,8 維的基音頻率特征,12 維的共振峰特征,6 維的頻帶能量分布特征.

        表1 音樂特征參數(shù)

        3.3 DBN分類器的構(gòu)建

        本文的分類器使用了在音頻處理中表現(xiàn)較好的DBN,并采用了預(yù)訓(xùn)練和判別式的方法,DBN是由四個RBM分類器組成的深層結(jié)構(gòu),每層的節(jié)點數(shù)為40,100,100,200,10,其中首層的 40 個節(jié)點對應(yīng) 40 維的特征向量,預(yù)訓(xùn)練的循環(huán)次數(shù)為100次,微調(diào)的循環(huán)次數(shù)為200次,最后一層將音樂分為10類情感.

        圖5為訓(xùn)練過程中分類誤差與迭代次數(shù)的關(guān)系圖,從圖中可以直觀的看出隨著迭代次數(shù)的不斷增加,誤差呈現(xiàn)逐漸下降的趨勢,并且迭代次數(shù)在0-100次間誤差下降幅度尤為明顯,在150-200次誤差逐漸趨于平穩(wěn),這個過程反映出深層的DBN相比淺層結(jié)構(gòu)具有的更強(qiáng)的特征提取能力.

        4 實驗結(jié)果與分析

        本文實驗是在Windows7操作系統(tǒng)下,使用了NVIDIA TITAN X 顯卡完成的,使用了 Python 語言寫的Theano庫實現(xiàn)整個實驗過程.

        4.1 音樂庫

        為了評估音樂情感分類的方法,本文使用了MIREX音樂情感庫中的903首音樂,外加根據(jù)百度音樂中的情感標(biāo)簽下載的1397首音樂,共組成了2200首音樂,并將2000首音樂作為訓(xùn)練集,200首作為測試集.共使用了包括傷感、激情、安靜、甜蜜、勵志、寂寞、想念、浪漫、喜悅、輕松10類音樂情感,其中安靜與輕松、寂寞與想念為相似情感標(biāo)簽,用以驗證實際分類中本文方法對相似情感的分類情況.

        圖5 分類誤差與迭代次數(shù)關(guān)系圖

        4.2 實驗結(jié)果

        本文將2000首共10類的音樂特征訓(xùn)練集隨機(jī)分成總數(shù)相同的10組,對10組分別進(jìn)行訓(xùn)練,最終得到10組的正確率如表2所示,由10組的正確率可以得出平均分類正確率為77.59%.

        表2 分組分類正確率

        同時根據(jù)實驗統(tǒng)計得到10類情感各自的分類正確率以及分類混淆情況,如表3所示,表中元素aij表示情感標(biāo)簽為i的音樂經(jīng)DBN分類判斷為j的概率,由表中分析可得分類效果較好的是激情和喜悅兩類,正確率達(dá)到了87.51%以及86.56%,分類效果較差的是想念和寂寞,正確率分別為69.70%和70.53%,可以直觀的看出這兩類相似情感在分類過程中產(chǎn)生了部分混淆.

        表3 分類詳情

        4.3 方法對比

        在相同的實驗數(shù)據(jù)及實驗環(huán)境下,我們分別設(shè)計了單一特征音色特征(MFCC)與SVM結(jié)合,組合韻律特征(基音頻率、共振峰與頻帶能量分布)與SVM結(jié)合,組合情感特征與SVM結(jié)合,單一特征音色特征(MFCC)與DBM結(jié)合,組合韻律特征(基音頻率、共振峰與頻帶能量分布)與DBN結(jié)合五組對比實驗,實驗結(jié)果如表4所示.

        表4 正確率對比

        由表中數(shù)據(jù)可以看出,單一特征無論是MFCC還是韻律特征與SVM結(jié)合的方法分類的正確率最低,僅為41.33%和38.1%,而多特征融合結(jié)合SVM后分類正確率得到了提高,達(dá)到48.38%,但限于SVM的簡單2層結(jié)構(gòu),正確率依然無法滿足要求,將分類器修改為DBN后,得益于DBN強(qiáng)大的特征提取能力,單一特征與之結(jié)合的分類正確率達(dá)到了69.67%和63.51%,而當(dāng)單一特征替換為本文設(shè)計的情感特征后,正確率得到了很大的提升,達(dá)到77.59%.

        4.4 方法驗證

        為了能夠驗證本文方法在音樂情感分類中的普遍適用性,我們在結(jié)束以上工作的同時,將本文的方法運(yùn)用到allmusic和5sing兩個不同音樂庫中進(jìn)行訓(xùn)練并調(diào)優(yōu),實驗結(jié)果顯示本文方法具有良好的適應(yīng)性.

        其中allmusic是一個依據(jù)情感分類進(jìn)行檢索的元數(shù)據(jù)音樂數(shù)據(jù)庫,包括了288類不同的情感標(biāo)簽,我們使用了300個包括生氣、高興、傷心、放松4個標(biāo)簽的音樂片段,通過訓(xùn)練得到79.83%的分類正確率;5sing是國內(nèi)在線音樂平臺,支持用戶自己上傳原創(chuàng)、翻唱音樂并為音樂貼標(biāo)簽,所以該音樂庫中存在相同音樂因個人演唱情感不同而產(chǎn)生不同音樂標(biāo)簽的情況,對驗證本文方法有效性有一定參考價值,我們同樣選取其中300首4個情感標(biāo)簽的音樂進(jìn)行訓(xùn)練分類,最終取得75.11%分類正確率.

        5 結(jié)束語

        本文提出了一種基于DBN的多特征融合音樂情感方法,將融合情感特征作為輸入,依托于DBN強(qiáng)大的特征提取能力,針對輸入的符號特征做二次特征提取并進(jìn)行分類.主要克服單一特征無法解決與音樂情感之間的語義間隙問題和音樂情感分類的分類器選擇問題,通過與單特征以及淺層SVM分類方法進(jìn)行試驗比較,結(jié)果顯示本文方法具有較高的分類正確率.在后期音樂情感分類研究的過程中,需進(jìn)一步探索適合音樂特征表達(dá)的符號特征,探究深度學(xué)習(xí)網(wǎng)絡(luò)在音樂情感分類中的應(yīng)用;同時進(jìn)一步考慮相近情感音樂之間的關(guān)聯(lián)性,采用合適的標(biāo)注方法,為情感相近的音樂提供個性化標(biāo)簽.

        1 Krumhansl CL.An exploratory study of musical emotions and psychophysiology.Canadian Journal of Experimental Psychology/Revue Canadienne de Psychologie Expérimentale,1997,51(4):336–353.[doi:10.1037/1196-1961.51.4.336]

        2 Rajanna AR,Aryafar K,Shokoufandeh A,et al.Deep neural networks:A case study for music genre classification.Proc.of the 14th International Conference on Machine Learning and Applications (ICMLA).Miami,FL,USA.2015.655–660.

        3 Tzanetakis G,Cook P.Musical genre classification of audio signals.IEEE Trans.on Speech and Audio Processing,2002,10(5):293–302.[doi:10.1109/TSA.2002.800560]

        4 Li T,Ogihara M,Li Q.A comparative study on contentbased music genre classification.Proc.of the 26th Annual International ACM SIGIR Conference on Research and Development in Informaion Retrieval.Toronto,Canada.2003.282–289.

        5 Li T,Ogihara M.Toward intelligent music information retrieval.IEEE Trans.on Multimedia,2006,8(3):564–574.[doi:10.1109/TMM.2006.870730]

        6 Feng YZ,Zhuang YT,Pan YH.Music information retrieval by detecting mood via computational media aesthetics.Proc.of IEEE/WIC International Conference on Web Intelligence.Halifax,NS,Canada.2003.235–241.

        7 Yang D,Lee W.Disambiguating music emotion using software agents.Proc.of the 5th International Conference on Music Information Retrieval.Barcelona,Spain.2004.10–14.

        8 Yang YH,Lin YC,Su YF,et al.A regression approach tomusic emotion recognition.IEEE Trans.on Audio,Speech,and Language Processing,2008,16(2):448–457.[doi:10.1109/TASL.2007.911513]

        9 Chua BY,Lu GJ.Perceptual rhythm determination of music signal for emotion-based classification.Proc.of the 12th International Multi-Media Modelling Conference Proceedings.Beijing,China.2006,8.

        10 Fujishima T.Realtime chord recognition of musical sound:A system using common lisp music.Proc.International Computer Music Association.Stanford,CA,USA.1999.464–467.

        11 Gómez E,Herrera P.Estimating the tonality of polyphonic audio files:Cognitive versus machine learning modelling strategies.Proc.of the 5th International Conference on Music Information Retrieval.Barcelona,Spain.2004.

        12 Basili R,Serafini A,Stellato A.Classification of musical genre:A machine learning approach.Proc.of the 5th International Conference on Music Information Retrieval.Barcelona,Spain.2004.

        13 Cuthbert MS,Ariza C.music21:A toolkit for computeraided musicology and symbolic music data.Proc.of the 11th International Society for Music Information Retrieval Conference (ISMIR 2010).Netherlands.2010.637–642.

        14 Gouyon F,Dixon S.A review of automatic rhythm description systems.Computer Music Journal,2005,29(1):34–54.[doi:10.1162/comj.2005.29.1.34]

        15 Yu D,Deng L.Deep learning and its applications to signal and information processing [Exploratory DSP].IEEE Signal Processing Magazine,2011,28(1):145–154.[doi:10.1109/MSP.2010.939038]

        16 Sarikaya R,Hinton GE,Deoras A.Application of deep belief networks for natural language understanding.IEEE/ACM Trans.on Audio,Speech,and Language Processing,2014,22(4):778–784.[doi:10.1109/TASLP.2014.2303296]

        17 Yoshioka T,Gales MJF.Environmentally robust ASR frontend for deep neural network acoustic models.Computer Speech &Language,2015,31(1):65–86.

        Music Mood Classification Method Based on Deep Belief Network and Multi-Feature Fusion

        GONG An,DING Ming-Bo,DOU Fei

        (School of Computer &Communication,China University of Petroleum,Qingdao 266580,China)

        In the paper we explore the two important parts of music emotion classification:feature selection and classifier.In terms of feature selection,single feature cannot fully present music emotions in the traditional algorithm,which,however,can be solved by the multi-feature fusion put forward in this paper.Specifically,the sound characteristics and prosodic features are combined as a symbol to express music emotion.In the classifier selection,the deep belief networks are adopted to train and classify music emotions,which had a better performance in the area of audio retrieval.The results show that the algorithm performs better than the single feature classification and SVM classification in music emotion classification.

        music mood classification;deep learning;deep belief network;music feature extraction;feature fusion

        龔安,丁明波,竇菲.基于DBN的多特征融合音樂情感分類方法.計算機(jī)系統(tǒng)應(yīng)用,2017,26(9):158–164.http://www.c-s-a.org.cn/1003-3254/5994.html

        2016-12-28;采用時間:2017-02-17

        猜你喜歡
        基音正確率分類器
        門診分診服務(wù)態(tài)度與正確率對護(hù)患關(guān)系的影響
        基于基音跟蹤的語音增強(qiáng)研究
        BP-GA光照分類器在車道線識別中的應(yīng)用
        電子測試(2018年1期)2018-04-18 11:52:35
        生意
        品管圈活動在提高介入手術(shù)安全核查正確率中的應(yīng)用
        加權(quán)空-譜與最近鄰分類器相結(jié)合的高光譜圖像分類
        結(jié)合模糊(C+P)均值聚類和SP-V-支持向量機(jī)的TSK分類器
        生意
        故事會(2016年15期)2016-08-23 13:48:41
        樂理小知識
        小演奏家(2014年11期)2014-12-17 01:18:52
        一種改進(jìn)的基音周期提取算法
        中文字幕人妻丝袜成熟乱| 蜜桃av噜噜一区二区三区9| 亚洲综合在线观看一区二区三区 | 在教室伦流澡到高潮hgl动漫 | 九九在线中文字幕无码| 亚洲视频在线观看| 五十路丰满中年熟女中出| 日韩精品久久久一区| 国产一级淫片免费大片| 国产精品国产三级国产一地| 男人一插就想射的原因| 少妇又色又爽又高潮在线看| 国产午夜福利精品一区二区三区| 免费特级黄毛片| 国产精品香蕉网页在线播放| 精品乱色一区二区中文字幕| 精品亚洲第一区二区三区| 狼人青草久久网伊人| 99热这里只有精品3| 国产亚洲精品hd网站| 蜜桃视频在线在线观看| 中文字幕亚洲综合久久菠萝蜜| 韩国v欧美v亚洲v日本v| 亚洲性色ai无码| 久久精品无码专区免费青青| 521色香蕉网站在线观看| 久草视频在线视频手机在线观看| 亚洲啪啪视频一区二区| 东京热加勒比无码少妇| 人人妻人人添人人爽日韩欧美| 国产精品一区二区午夜久久| 无码欧美毛片一区二区三| 国产一级内射视频在线观看 | 中文字幕无码专区一VA亚洲V专 | 亚洲中文字幕黄色小视频| 国产伦一区二区三区色一情| 久久婷婷五月国产色综合| 欧洲熟妇色xxxx欧美老妇多毛图片| 欧美日韩国产亚洲一区二区三区| 青青草久热手机在线视频观看| 一区二区国产av网站|