劉天華
摘 要: 電子音樂具有獨特的節(jié)奏質(zhì)感,傳統(tǒng)電子音樂分類過程中,無法將多特征進行融合式的分類。為此,設(shè)計基于多特征融合和神經(jīng)網(wǎng)絡(luò)的電子音樂分類模型。創(chuàng)建特征融合模塊,進行自適應(yīng)特征融合,根據(jù)自適應(yīng)機制調(diào)整特征融合頻率;利用神經(jīng)網(wǎng)絡(luò)元承接融合特征因子,形成分布式的電子音樂多特征分類結(jié)構(gòu);利用電子音樂特頻效應(yīng)完成特征融合分類,實現(xiàn)電子音樂分類模型的構(gòu)建。實驗數(shù)據(jù)表明,設(shè)計的電子音樂分類模型,能夠以特征融合方式進行分類,并且分類結(jié)果十分精準。
關(guān)鍵詞: 多特征融合; 神經(jīng)網(wǎng)絡(luò); 電子音樂; 分類模型; 自適應(yīng)多特征融合; 多層感知分類
中圖分類號: TN919.3?34 文獻標識碼: A 文章編號: 1004?373X(2018)19?0173?04
Abstract: The electronic music has the unique rhythm feeling. Since the traditional electronic music classification can′t classify the multi?feature fusion, the electronic music classification model based on multi?feature fusion and neural network is designed. The feature fusion module is created to perform the adaptive feature fusion, and adjust the frequency of feature fusion according to the adaptive mechanism. The neural network cell is used to receive the fusion feature factors, so as to form the distributed multi?feature classification structure of electronic music. The special frequency effect of electronic music is adopted to complete the classification of feature fusion, and realize the construction of the electronic music classification model. The experimental data shows that the designed electronic music classification model can classify the feature fusion modes, and has accurate classification results.
Keywords: multi?feature fusion; neural network; electronic music; classification model; adaptive multi?feature fusion; multilayer perception classification
電子音樂分類被廣泛的應(yīng)用在各大音樂平臺之中,但是電子音樂自身的節(jié)奏感較強,且特點識別不明顯,因此傳統(tǒng)的電子音樂分類方法無法進行特征融合式的分類[1]。針對上述問題,本文設(shè)計基于多特征融合和神經(jīng)網(wǎng)絡(luò)的電子音樂分類模型。應(yīng)用多特征融合的方式創(chuàng)建特征識別模塊,對電子音樂進行自適應(yīng)特征融合,使用自適應(yīng)機制進行調(diào)整便于高校特征融合。通過神經(jīng)網(wǎng)絡(luò)承接融合后的特征因子,導(dǎo)入分布結(jié)構(gòu)進行多層感知分類,利用電子音樂特頻效應(yīng)實現(xiàn)電子音樂分類模型的構(gòu)建。為了保證設(shè)計的有效性,模擬使用環(huán)境進行仿真模擬實驗,試驗結(jié)果表明,設(shè)計的電子音樂分類模型能夠以特征融合的方式進行分類,并且分類結(jié)果十分精準。
1.1 自適應(yīng)多特征融合
電子音樂的自適應(yīng)多特征融合過程實際上是一個篩選過程,當(dāng)電子音樂的背景節(jié)奏頻率發(fā)生劇烈變化時,電子音效的特征以連續(xù)的形式發(fā)生變化,單獨多特征融合得到的特征結(jié)果非常的單一,無法進行分類使用[2?3]。因此,本文使用自適應(yīng)機制將電子音樂進行自適應(yīng)處理,處理后的特征音效變得十分具象,并且能夠提升分類過程中跟蹤性能,增加分類過程的精準程度。當(dāng)電子音樂的特效進行加持以后即使發(fā)生特征的轉(zhuǎn)變,由于自適應(yīng)機制的存在也會隨時地進行追蹤判定[4?5]。自適應(yīng)機制識別后的電子音樂就像是被去掉包裝的商品方便辨認,多特征融合過程好比是將去包裝的商品進行組裝的過程,但是還有別于機械化的組裝。如圖1所示為本文設(shè)計的自適應(yīng)多特征融合流程圖多特征融合過程中一定要進行特征互補處理。如果電子音樂上存在差分梯度,那么按照差分梯度的大小進行互補處理;如果電子音頻的特征不是十分明顯,采用自適應(yīng)對接的方式進行互補處理。每次對互補特征進行記錄,這樣可從不同方面對電子音樂的特征進行表達融合[6?7]。高音和低音對多特征融合過程中影響比較明顯,高音中不同音頻呈現(xiàn)的融合特征也是不同的。從不同的層面對電子音樂效果進行特征的采集提取,能夠保證融合方式的充分程度。特征融合最大的好處能夠?qū)㈦娮右魳返奶卣鬟M行一體化,電子音樂一般在副歌的部分都是忽然高音突然低音。進行融合的電子音樂,是一個平穩(wěn)的有旋律波動的音樂[8],在自適應(yīng)機制下,特征融合后的音律凸顯程度是標準化的結(jié)果,這樣才能夠進行分布式的分類。
1.2 自適應(yīng)更新機制
經(jīng)過自適應(yīng)多特征融合的電子音樂其特征音效發(fā)生明顯的變化,但是隨著音樂的推進,特征也會隨之發(fā)生改變,需要對跟蹤的音律進行實時更新,才能滿足全部特征融合過程。自適應(yīng)更新機制采用線性插值方法進行更新,能夠保留電子音樂在之前融合特征基礎(chǔ)上進行融合,同時也可以及時將最新采集的調(diào)整導(dǎo)入特征融合機制中。但是當(dāng)電子音頻出現(xiàn)有規(guī)律的重復(fù)時,或者雙特征同時顯現(xiàn)時,會出現(xiàn)錯誤特征的融入,隨著特征融合不斷累積,最終導(dǎo)致音頻特征融合失敗[9]。本文通過自適應(yīng)更新機制,進行實時的更新融合以及監(jiān)測。
為了保證更新音頻的特征是正確的,大多數(shù)模型都會使用跟蹤算法或是對照的形式進行檢測,通過對多特征音頻的實時跟蹤,來檢測融合中特征是否存在重復(fù)的現(xiàn)象。但是經(jīng)過自適應(yīng)處理后融合特征是無法進行跟蹤計算或者是對照檢測的[2]。因此,本文使用濾波響應(yīng)值的形式有效反映出特征融合的結(jié)果是否重復(fù)。當(dāng)音頻特征再次融合了特征屬性時,濾波響應(yīng)值會產(chǎn)生極限最小值;當(dāng)雙向特征被默認時會出現(xiàn)極限最大值,濾波響應(yīng)值的峰值附近會產(chǎn)生相應(yīng)的偽峰值,說明多特征融合中的特征融合點不夠突出。
多層感知特征分類過程中,應(yīng)用神經(jīng)網(wǎng)絡(luò)多層感知器(Multilayer Perceptron,MLP) [10]將分類過程分為三個層面:導(dǎo)入層、分類層(一層或者多層)及輸出層。神經(jīng)網(wǎng)絡(luò)的網(wǎng)絡(luò)分類框架中包含神經(jīng)元,能夠承接特征融合因子,能夠解決單層感知分類中不能解決的線性分類問題,其既能夠以多特征的形式進行分類,又能夠體現(xiàn)多種分類路徑。設(shè)計的多層感知特征分類神經(jīng)網(wǎng)結(jié)構(gòu)圖如圖2所示。
導(dǎo)入層神經(jīng)元接收到融合后的特征融合因子后,分類層和輸出層的每一個神經(jīng)元之間相鄰的屬相是相同的,并且是互動式連接,但是所在同一層的全部神經(jīng)元是相互獨立的。如圖2所示,箭頭表示神經(jīng)元間的連接特征因子傳輸方向,并且每個特征因子都有特定的連接權(quán)值[11?12]。分類層中的特定因子在分類層中進行多項分類,按照不同的特征特點分配到不同的神經(jīng)元中,假設(shè)每個神經(jīng)元中只能承接一個特征因子,在輸出層的調(diào)用過程中調(diào)用的是神經(jīng)元的權(quán)值,但是輸出的卻是神經(jīng)元承載的特征因子[13]。神經(jīng)網(wǎng)絡(luò)多層感知器用于同特征因子的分類,其導(dǎo)入神經(jīng)元個數(shù)與輸出神經(jīng)元的層數(shù)相同時,輸出特征因子個數(shù)將會通過神經(jīng)網(wǎng)絡(luò)多層感知器進行多層分離。分類層中的每一項神經(jīng)元都是獨立個體,但是連接路徑是不同的,其能夠有效地摒棄雙向特征因子的分類過程。
電子音樂分類本質(zhì)上是一種模式分類過程。本文設(shè)計的電子音樂分類模型采用的模型結(jié)構(gòu)如圖3所示。
從圖3可以看出,電子音樂分類模型主要包括以下幾個功能模塊:電子音樂特征采集模塊、多特征識別模塊、特征融合分類模塊以及分類輸出模塊。電子音樂特征采集模塊將電子音樂特征進行采集,并對電子音樂進行特征處理,過濾掉其中的非特征因子及參雜因子,并對電子音樂進行除分幀以外的特征采集處理工作。多特征識別模塊能夠?qū)㈦娮右魳返奶卣饕蜃舆M行導(dǎo)入,將關(guān)鍵特征因子進行標記,在降低參雜因子的同時對特征進行融合。特征融合分類模塊能夠?qū)⑻崛〉奶卣饕蜃舆M行承接,將每種特征因子以不同的分類特征進行導(dǎo)入,神經(jīng)網(wǎng)絡(luò)多層感知器能夠?qū)﹄p向特征分類結(jié)果進行分離,以此來辨別雙向分類過程。
為了驗證設(shè)計的基于多特征融合和神經(jīng)網(wǎng)絡(luò)的電子音樂分類模型的有效性,設(shè)計對比仿真試驗。試驗一共進行2次,分別測試模型的特征融合能力以及特征分類結(jié)果。為了保證試驗的有效性,使用傳統(tǒng)的電子音樂分類方法與本設(shè)計的電子音樂分類模型進行比較,觀察試驗結(jié)果。實驗過程中需要對基本試驗參數(shù)進行設(shè)定,其實驗參數(shù)設(shè)定結(jié)果如表1所示。
4.1 數(shù)據(jù)準備
實驗數(shù)據(jù)的準備過程中,對試驗數(shù)據(jù)進行隨機的搭配,本次實驗需要進行兩組試驗對比,因此在試驗數(shù)據(jù)配比上比較繁雜。電子音樂分類過程中,選用不同類型的電子音樂作為試驗樣品,以某音樂平臺為實驗數(shù)據(jù)平臺進行試驗。特征融合能力試驗隨機選用10首電子音樂進行特征融合的對比。
4.2 多特征融合試驗
本文設(shè)計的電子音樂分類模型與傳統(tǒng)電子音樂分類方法對比結(jié)果如表2所示。多特征融合過程中試驗數(shù)據(jù)隨機進行搭配,通過多特征融度能夠看出,本文設(shè)計的多特征融合方式在高極限融合程度上能夠做到80%以上,足以說明已經(jīng)能夠?qū)υ囼炛械碾娮右魳返奶卣鬟M行融合采集,并且使用的電子音樂數(shù)量多于傳統(tǒng)分類方法。因此在多特征融合試驗中本文設(shè)計的電子音樂分類模型表現(xiàn)較好。
從圖4可以看出,本文設(shè)計的電子音樂分類模型的融合適用度明顯好于傳統(tǒng)電子音樂分類方法。本文的電子音樂分類模型融合適用度呈現(xiàn)規(guī)律的變化,沒有明顯的異常痕跡;但是傳統(tǒng)電子音樂分類方法的融合適用度存在異常外延。融合適用度能夠反映電子音樂分類過程的特征融合率,隨著更新機制的使用不斷出現(xiàn)規(guī)律性的變化,但是異常情況說明特征融合程度不佳。
4.3 特征分類試驗
通過圖5可以看出,一共有5條辨識分類數(shù)據(jù)值數(shù)據(jù)線,其中Ⅲ為標準辨識分類數(shù)據(jù)值數(shù)據(jù)線,標準線以上的數(shù)據(jù)為有效數(shù)據(jù),以下的為可用數(shù)據(jù),直線表示無分類偏差,曲線表示存在分類偏差。觀察圖5可以發(fā)現(xiàn)本文設(shè)計的電子音樂分類模型全部在標準線以上,并且全部都是直線說明,沒有分類數(shù)據(jù)偏差產(chǎn)生。
分類輸出率對比結(jié)果如圖6所示。分類輸出率是一項輸出值,能夠從側(cè)面反映出電子音樂分類過程,沒有經(jīng)過多特征分類處理的數(shù)據(jù)無法進行輸出,同時分類不精確的數(shù)據(jù)也會被隔離,不會進行輸出。觀察圖6可以看出,本文設(shè)計的電子音樂分類模型其分類輸出率明顯高于傳統(tǒng)電子音樂分類方法,說明設(shè)計的電子音樂分類模型具備較高的多特征分類能力。
本文設(shè)計基于多特征融合和神經(jīng)網(wǎng)絡(luò)的電子音樂分類模型,使用多特征融合對電子音樂進行特征處理,通過神經(jīng)網(wǎng)絡(luò)進行有效分類。試驗數(shù)據(jù)表明設(shè)計的電子音樂分類模型具有較高的特征分類能力。
參考文獻
[1] 魏曉玲,劉明,苑新,等.基于多特征融合與卷積神經(jīng)網(wǎng)絡(luò)的房顫檢測[J].激光雜志,2017,38(5):176?179.
WEI Xiaoling, LIU Ming, YUAN Xin, et al. Atrial fibrillation detection based on multi?feature fusion and convolution neural network [J]. Laser journal, 2017, 38(5): 176?179.
[2] 郝睿,徐俊峰,王慶寶,等.基于BP神經(jīng)網(wǎng)絡(luò)的多特征融合變化檢測方法[J].海洋測繪,2016,36(1):79?82.
HAO Rui, XU Junfeng, WANG Qingbao, et al. Change detection method using multi?feature fusion based on BP neural network [J]. Hydrographic surveying and charting, 2016, 36(1): 79?82.
[3] 劉光達,王燦,李明佳,等.基于多特征和BP神經(jīng)網(wǎng)絡(luò)的腦?機接口研究[J].電子技術(shù)應(yīng)用,2017,43(9):72?75.
LIU Guangda, WANG Can, LI Mingjia, et al. Research of brain?computer interface based on multi?feature integration and BP neural network [J]. Application of electronic technique, 2017, 43(9): 72?75.
[4] 蔣婷,沈旭東,陸偉,等.基于多特征融合的人臉顏值預(yù)測[J].網(wǎng)絡(luò)新媒體技術(shù),2017,6(2):7?13.
JIANG Ting, SHEN Xudong, LU Wei, et al. The prediction of facial beauty based on multi?feature fusion [J]. Journal of network new media, 2017, 6(2): 7?13.
[5] 梁銳,朱清新,廖淑嬌,等.基于多特征融合的深度視頻自然語言描述方法[J].計算機應(yīng)用,2017, 37(4):1179?1184.
LIANG Rui, ZHU Qingxin, LIAO Shujiao, et al. Deep natural language description method for video based on multi?feature fusion [J]. Journal of computer applications, 2017, 37(4): 1179?1184.
[6] 趙偉.基于BP神經(jīng)網(wǎng)絡(luò)的音樂情感分類及評價模型[J].電子設(shè)計工程,2015,23(8):71?74.
ZHAO Wei. Music emotion classification and evaluation model based on BP neural network [J]. Electronic design engineering, 2015, 23(8): 71?74.
[7] 王鐵君,王維蘭.基于多特征融合的唐卡圖像法器識別方法[J]. 計算機工程,2016,42(3):198?203.
WANG Tiejun, WANG Weilan. Religious ritual implement re?cognition method in Thangka image based on multi?feature fusion [J]. Computer engineering, 2016, 42(3): 198?203.
[8] 吳冬梅,李白萍,沈燕,等.基于多特征融合的煙霧檢測[J].圖學(xué)學(xué)報,2015,36(4):587?592.
WU Dongmei, LI Baiping, SHEN Yan, et al. Smoke detection based on multi?feature fusion [J]. Journal of graphics, 2015, 36(4): 587?592.
[9] 張鍵鋒,王勁.基于文本挖掘與神經(jīng)網(wǎng)絡(luò)的音樂風(fēng)格分類建模方法[J].電信科學(xué),2015,31(7):86?91.
ZHANG Jianfeng, WANG Jin. A classification method of music style based on text mining and neural network [J]. Telecommunications science, 2015, 31(7): 86?91.
[10] XU Qingyong, JIANG S, HUANG W, et al. Image classification algorithm for deep belief network based on multi?feature fusion [J]. Computer engineering, 2015, 41(11): 99?120.
[11] YANG W, WEI L, ZHANG Z, et al. Road surface condition classification method based on multi?feature fusion and SVM classifier [J]. An international journal of research & surveys, 2015, 7(9): 90?134.
[12] LIU F, CHEN Z, CHAI J. A new multi?focus image fusion method based on deep neural network model [J]. Journal of Shandong University, 2016, 45(4): 89?130.
[13] SONG S, MIAO Z. Research on vehicle type classification based on spatial pyramid representation and BP neural network [C]// 2015 International Conference on Image and Graphics. [S.l.]: Springer, 2015: 132?144.