亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于多基頻估計的多聲部音樂和聲自動編配算法

        2024-05-07 00:00:00陳薄茹
        赤峰學院學報·自然科學版 2024年3期

        摘 要:目前常規(guī)的和聲自動編配方法主要通過對輸入的旋律進行分析,從而提取出音高以及節(jié)奏的信息,并根據(jù)旋律的具體特點選擇合適的和弦進行搭配,由于缺乏對音符矩陣的降維處理,導致編配效果不佳。對此,提出基于多基頻估計的多聲部音樂和聲自動編配算法。首先基于琴鍵音色樣本,訓練出音色矩陣,并對其進行降維處理,求解出和聲系數(shù)向量。然后通過構(gòu)建三元和弦序列,采用音程差閾值對待編配的和弦序列進行提取,從而實現(xiàn)和弦識別。在此基礎(chǔ)上將和聲編配過程劃分為不同階段,對不同階段的最優(yōu)規(guī)劃解進行求解,從而輸出和聲編配結(jié)果。在實驗中,對提出的方法進行了編配效果的檢驗。最終的測試結(jié)果表明,采用本文提出的方法編配出的和聲與作品原和聲的擬合程度較高,具備較為理想的和聲編配效果。

        關(guān)鍵詞:多基頻估計;多聲部音樂;和聲編配;算法設計

        中圖分類號:TP18;J614.1" 文獻標識碼:A" 文章編號:1673-260X(2024)03-0010-05

        在音樂創(chuàng)作中,和聲是不可或缺的元素。和聲的編配需要對音樂理論和實踐有深入的了解。目前,多基頻估計技術(shù)被廣泛應用于音樂信號處理的各個領(lǐng)域,但在多聲部音樂和聲的自動編配方面仍然存在挑戰(zhàn)。多基頻估計技術(shù)可以用于通過分析音樂信號中的基頻信息來識別不同音高的音符,并將它們合理地編配成和聲。這涉及到從復雜的音樂信號中提取出多個聲部的基頻軌跡,并將它們組合成和聲的編排。然而,由于音樂中可能存在重疊的聲音、變調(diào)和變速等問題,多聲部的自動編配仍然是一個具有挑戰(zhàn)性的任務。當前的研究和實踐主要集中在單聲部音樂的和聲編配方面,例如使用自動作曲系統(tǒng)來創(chuàng)建單獨的旋律線。然而,將多基頻估計技術(shù)應用于多聲部音樂和聲的自動編配是一個相對較新的領(lǐng)域,有待進一步研究和探索。因此,研究一種能夠自動編配和聲的算法具有重大的實際意義。

        本研究旨在利用多基頻估計技術(shù),研究一種能夠自動編配多聲部音樂和聲的算法。通過該算法,用戶只需輸入旋律線和基本的和聲規(guī)則,便能夠得到相應的和聲編排,省去了研究和實踐和聲知識的時間和精力。這對于許多音樂制作人和愛好者來說將是一種很大的幫助,尤其是那些缺乏深厚音樂理論知識或經(jīng)驗的人。此外,該算法還可應用于音樂教育領(lǐng)域。通過為學習者自動生成適合其水平的和聲編排,可以幫助他們更好地理解和掌握和聲知識。這有助于提高學習者的音樂素養(yǎng)和創(chuàng)作能力,促進音樂教育的發(fā)展。在研究中,需要結(jié)合音樂理論、和聲規(guī)則和多基頻估計技術(shù),建立起一套完整的算法框架。該算法需要考慮音樂的節(jié)奏、音高、音色等因素,并保證生成的和聲編配符合和聲規(guī)則和音樂美學。通過持續(xù)的研究和實驗,不斷改進算法的準確性和自然度,將有望實現(xiàn)自動編配多聲部音樂和聲的目標。這將為音樂創(chuàng)作和音樂教育帶來巨大的便利和發(fā)展。

        近年來,許多研究者已經(jīng)嘗試將人工智能算法應用到音樂領(lǐng)域。例如,有些研究者利用機器學習算法,通過對大量的和聲進行分析和學習,得出一些規(guī)則用于和聲的自動編配。楊靜[1]通過利用循環(huán)譜特征,直接從全頻段音樂數(shù)據(jù)中學習出和聲的編配規(guī)律,并對音樂信號抗干擾方法進行了研究。范靜[2]通過對音符序列進行提取,從而實現(xiàn)了和弦的自動標注。然而,這些方法難以處理復雜的音樂結(jié)構(gòu)。而多基頻估計技術(shù)可以從音樂信號中提取出基頻信息,為和聲的編配提供新的思路。

        本文所提出的基于多基頻估計的多聲部音樂和聲自動編配算法,根據(jù)提取出的基頻信息,結(jié)合基本的和聲規(guī)則,自動生成與旋律相匹配的和聲。通過實驗驗證算法的有效性,證明該算法能夠生成符合人類審美習慣的和聲。此外,將該算法應用于音樂教育中,可以使更多的人接觸和深入學習音樂和聲知識。通過自動生成與學習者水平相匹配的和聲,可以幫助他們更好地理解和掌握和聲的概念和技巧。這對于促進音樂教育的普及和推廣,培養(yǎng)音樂愛好者和專業(yè)音樂人才都具有積極的影響。同時,該算法所采用的多基頻估計技術(shù)也為其他音樂領(lǐng)域的研究提供了新的思路和方法?;诙嗷l估計的音樂信號處理技術(shù)在音樂節(jié)奏分析、音高識別、音色分析等方面有廣泛的應用。將這些技術(shù)與和聲編配相結(jié)合,可以為音樂領(lǐng)域的其他研究和創(chuàng)新提供新的可能性[3]。

        1 基于多基頻估計的多聲部音樂和聲自動編配算法

        1.1 基于多基頻估計的多聲部音符段和聲提取

        為對多聲部音樂和聲進行自動編配,本文首先通過對音頻進行多基頻估計處理,從而實現(xiàn)和聲提取。多基頻估計包括三個部分,分別為音色矩陣訓練、音色降維處理以及和聲系數(shù)向量求解[4]。音色矩陣訓練主要目的是獲取音色特征的表示。通過對音頻信號進行采樣和分析,可以得到一系列頻譜包絡。然后將這些頻譜包絡構(gòu)建成一個音色矩陣,其中每一列表示一個時刻的頻譜包絡,通過對多個音頻樣本進行類似處理,可以得到一個訓練好的音色矩陣,用于后續(xù)的音色降維和和聲系數(shù)求解。音色降維處理的目標是從訓練好的音色矩陣中提取出最重要的特征,并減少特征的維度。降維可以幫助減少計算復雜度并提高算法效率。常用的降維方法包括主成分分析(PCA)和線性判別分析(LDA)。通過降維,我們可以得到一個經(jīng)過選擇、提取和降低維度的音色特征矩陣,為后續(xù)的和聲系數(shù)求解做準備。和聲系數(shù)向量求解是將音色特征與輸入的旋律信息相結(jié)合,通過解析算法得到和聲編排的系數(shù)向量。這個向量表示每一個時間點上各個聲部所占的權(quán)重或強度??梢允褂米钚《朔?、貪婪算法或其他優(yōu)化算法來求解這個系數(shù)向量。通過調(diào)整系數(shù)向量的數(shù)值,可以實現(xiàn)和聲編排的變化和調(diào)整,從而生成與輸入旋律相匹配的和聲。首先,本文對鋼琴的88個琴鍵所發(fā)出的音色樣本進行采集,并將音色樣本轉(zhuǎn)換為對數(shù)能量譜,并對其進行濾波處理,具體濾波表達式如下所示。

        其中,m代表琴鍵音色樣本個數(shù),Xm(ω)代表第m個琴鍵音色樣本對應的對數(shù)能量譜,k代表濾波器總數(shù),Gk(ω)代表第k個濾波器對應的頻率響應大小,A(k,m)代表濾波輸出結(jié)果[5]。在上述表達式中,濾波器的輸出值的實際含義為第m個琴鍵音色樣本中包含第k個琴鍵對應的基波能量和。因此以A(k,m)作為元素,可以構(gòu)建出一個維度為88的音色矩陣,具體矩陣表達式如下所示。

        通過上述步驟即可構(gòu)建出以基波能量為元素的音色矩陣,然后根據(jù)多基頻估計的音頻片段,對能量矩陣進行計算。對此,同樣需要先將音符片段輸入到音色濾波組中,對其進行濾波處理,具體處理公式如下所示。

        其中,Y(ω)代表音符片段對應的對數(shù)能量譜,Gk(ω)代表音符片段濾波器對應的頻率響應值,Ek代表濾波器的輸出結(jié)果[6]。以上述輸出值作為元素,可以構(gòu)建出能量矩陣,具體矩陣表達式如下所示。

        在上述能量矩陣中,Ek可以代表琴鍵音色的基頻能量之和,同時也可以對琴鍵的出現(xiàn)概率進行表征。因此Ek的值越大,該琴鍵在樂譜中出現(xiàn)的可能性也就越高[7]。而在和聲伴奏中,一般同一個音符出現(xiàn)的頻次是有限的,通常來講同一個音符不會在一段和聲中出現(xiàn)五次[8]。因此基于上述原理,本文對音色矩陣進行降維處理,從而得到音色降維矩陣,具體矩陣表達式如下所示。

        根據(jù)上述的音色矩陣降維結(jié)果,本文通過對和聲系數(shù)向量進行求解,從而實現(xiàn)多聲部音符段和聲提取。假設和聲系數(shù)向量為WN×1,由此可以得到該向量與音色降維矩陣的關(guān)系表達式如下所示。

        通過上述步驟即可構(gòu)建出和聲系數(shù)向量與降維矩陣之間的關(guān)系表達式,從而實現(xiàn)對WN×1的求解,實現(xiàn)多聲部音符段的和聲提取[9]。

        1.2 可編配和弦識別

        針對上述提取出的多聲部音符段和聲,本文通過對音程差進行分析,對可編配的和弦部分進行識別,在此基礎(chǔ)上構(gòu)建出動態(tài)和聲編配算法[10]。首先將伴奏音軌的C調(diào)進行歸一化處理,假設和弦音高為p,伴奏音軌的降調(diào)數(shù)量為n,由此可以得到伴奏音軌降為C調(diào)的歸一化處理公式,具體如下所示。

        其中,T和t分別代表轉(zhuǎn)調(diào)前后的伴奏音值。n的值如果為正數(shù),代表伴奏音軌轉(zhuǎn)到C調(diào)需要進行升調(diào)處理,同理,n的值如果為負數(shù),則代表伴奏音軌轉(zhuǎn)到C調(diào)需要進行降調(diào)處理[11]。通過上述公式完成對于伴奏音軌的C調(diào)歸一化處理后,為對可編配和弦進行識別,本文通過對和弦根音音值的音程差進行求解,構(gòu)建出三元和弦序列。具體序列表達式如下所示。

        其中,pn代表在三元和弦序列中,除了和弦根音以外的其他音符的音值[12]。然后對剩余音值與proot之間的音程差進行求解,具體表達式如下所示。

        其中,{Sn}代表剩余音符音值與proot之間音程差的集合,M代表伴奏音軌被分割為不同小節(jié)的總數(shù),k代表該段音程差所屬的音符段小節(jié)序號,{Sn}k代表整個伴奏音軌中,除和弦根音以外的音符音值與proot之間的音程差集合。針對上述構(gòu)建出的音程差集合,通過結(jié)合和弦的音程特點,對音程差設定一個篩選閾值,將滿足該閾值的音符段作為待編配和弦序列進行提取,從而可以實現(xiàn)待編配和弦的有效識別[13]。

        通過上述步驟,將伴奏音軌的C調(diào)進行歸一化處理,并通過構(gòu)建三元和弦序列,采用音程差閾值對待編配的和弦序列進行提取,從而實現(xiàn)和弦識別。該識別結(jié)果可以為后續(xù)的和聲編配提供可靠幫助。

        1.3 和聲動態(tài)規(guī)劃與編配

        針對可編配和弦識別結(jié)果,本文將和聲編配的過程劃分為具有內(nèi)部聯(lián)系的不同階段。通過分別對不同各階段進行最優(yōu)規(guī)劃策略求解,從而實現(xiàn)和聲動態(tài)規(guī)劃與編配。假設動態(tài)規(guī)劃算法中的狀態(tài)變量為Kk,其中k代表狀態(tài)變量的不同階段,Kk的值也可以對所有待編配和弦集合進行表征。假設Uk(Xk)代表第k個階段的決策變量,其中,動態(tài)規(guī)劃過程中的最優(yōu)規(guī)劃策略為Pk(Xk),由此可以對最優(yōu)規(guī)劃策略進行求解,具體表達式如下所示。

        對于每個給定的決策變量Uk(Xk),該變量的上一個階段變量如果已經(jīng)確定,那么該決策變量的值也將成為定值。通過對和弦進行邏輯分析可以明確,和弦的基本方向主要包括三種,分別為升調(diào)、降調(diào)以及平調(diào),假設這三種調(diào)整方向集合為Cb={TS,SD,DT},由此可以構(gòu)建出和弦動態(tài)規(guī)劃不同階段的指標函數(shù)Vk,具體函數(shù)表達式如下所示。

        根據(jù)上述構(gòu)建出的規(guī)劃指標,本文可以對全局最優(yōu)規(guī)劃編配函數(shù)進行構(gòu)建,具體表達式如下所示。

        針對上述構(gòu)建出的和聲動態(tài)規(guī)劃與編配函數(shù),本文所構(gòu)建出的和弦自動編配流程如圖1所示。

        通過上述編配流程可以看出,本文將待匹配旋律音高與某一和弦進行匹配,通過判斷匹配程度是否滿足規(guī)劃閾值,從而識別出待編配和弦。將待編配和弦以二進制的方式輸入到全局最優(yōu)規(guī)劃函數(shù)中,對最優(yōu)匹配結(jié)果進行求解[14]。然后將函數(shù)所輸出的和弦序列進行排序,從而保證音樂上的連貫性,最后將排序完成的和弦序列作為最終的和聲編配結(jié)果進行輸出,從而實現(xiàn)和聲自動編配。

        通過上述步驟即可完成多聲部和聲的動態(tài)規(guī)劃與編配,通過將和聲編配過程劃分為不同階段,對不同階段的最優(yōu)規(guī)劃解進行求解,從而輸出和聲編配結(jié)果。將本節(jié)內(nèi)容與上述提到的音符段和聲提取以及待編配和弦識別等相關(guān)內(nèi)容進行結(jié)合,至此,基于多基頻估計的多聲部音樂和聲自動編配算法設計完成[15]。

        2 實驗論證

        為了證明本文提出的基于多基頻估計的多聲部音樂和聲自動編配算法在實際編配效果方面優(yōu)于常規(guī)的音樂和聲自動編配算法,在理論部分的設計完成后,構(gòu)建實驗環(huán)節(jié),對本文系統(tǒng)的實際編配效果進行檢驗。

        2.1 實驗說明

        為驗證本文提出的基于多基頻估計的多聲部音樂和聲自動編配算法在實際編配效果方面的優(yōu)越性,本次實驗選取了兩組常規(guī)的音樂和聲自動編配算法作為對比對象,分別為基于機器學習的音樂和聲自動編配算法,以及基于支持向量機的音樂和聲自動編配算法。通過構(gòu)建實驗平臺,采用三種方法對同一組音頻數(shù)據(jù)進行處理,對比不同方法的實際編配效果。

        2.2 實驗對象

        本次實驗以某音樂數(shù)據(jù)庫的音軌數(shù)據(jù)作為實驗數(shù)據(jù)集,通過采用python軟件對該數(shù)據(jù)庫中的相關(guān)音樂信息進行提取,從而得到包括音高、節(jié)奏、強度在內(nèi)的基本音樂信息,部分音頻文件的時域圖如圖2所示。

        在上述音頻文件中,本文所提取到的部分音軌信息如表1所示。

        通過采用上述提取出的音頻信息數(shù)據(jù)作為三種編配算法的訓練數(shù)據(jù)集,對算法進行訓練處理。待訓練完成后,本文選取了不同作品的和聲部分作為實驗對象,通過采用三種方法對已知的和弦進行編配,并對比編配結(jié)果與作品和聲之間的擬合程度,從而比較出不同方法的實際編配效果。

        2.3 編配效果對比結(jié)果

        采用本文方法得到的和聲編配效果檢驗結(jié)果如表2所示。

        通過上述的實驗結(jié)果可以看出,本文方法在召回率、精確率以及F度量三個指標方面均具有較好的表現(xiàn)。為了提高實驗結(jié)果的對比性,本次實驗以不同編配結(jié)果與作品實際和聲的擬合程度作為對比指標,由此得到的具體實驗結(jié)果如圖3所示。

        通過上述實驗結(jié)果可以看出,在相同組合音符數(shù)下,不同和聲編配結(jié)果與原作品和聲之間的擬合程度也有所不同。通過數(shù)值上的對比可以直接看出,本文方法的編配效果更好,編配結(jié)果與原和聲擬合程度較高。

        3 結(jié)語

        本文算法的創(chuàng)新性在于將多基頻估計技術(shù)應用于和聲的自動編配中,通過分析和處理旋律的基頻信息,與和聲規(guī)則結(jié)合,實現(xiàn)和聲的自動編配,可以降低音樂創(chuàng)作的難度,并為更多人參與音樂創(chuàng)作提供了機會。該方法進一步分析和處理這些信息,生成與旋律相匹配的和聲編排。相較于傳統(tǒng)的手動和聲編排,這種方式顯著減少了創(chuàng)作的時間和勞動成本。同時,該算法的應用也有助于音樂教育的推廣和普及。通過自動生成與學習者水平相匹配的和聲,可以幫助他們更好地理解和掌握和聲知識。這為那些希望學習和了解音樂和聲但缺乏深厚理論知識或經(jīng)驗的人們提供了非常有價值的資源。

        此外,本文算法還可以為其他音樂領(lǐng)域的研究提供新的思路和方法。例如,可以利用多基頻估計技術(shù)提取出的基頻信息,結(jié)合音樂風格遷移算法,實現(xiàn)不同風格音樂的遷移和再創(chuàng)作;或者利用基頻信息和音色信息,研究更加智能的音樂合成算法等。

        ——————————

        參考文獻:

        〔1〕楊靜.基于循環(huán)譜特征的全頻段音樂信號抗干擾研究[J].信息技術(shù),2023,53(05):121-125+130.

        〔2〕范靜.考慮音符序列的鋼琴演奏和弦指法自動標注算法[J].常州工學院學報,2022,35(05):39-45.

        〔3〕張珺,趙玉霞.基于改進小波變換及神經(jīng)網(wǎng)絡的電子音樂信號識別方法[J].自動化技術(shù)與應用,2023,42(05):48-51.

        〔4〕趙廣發(fā).怎樣準確快速的識別與構(gòu)成轉(zhuǎn)位和弦[J].中國民族博覽,2023,22(04):106-108.

        〔5〕于蕾,張宇,柳守一,等.八音盒視頻運動音符識別綜合實驗設計[J].實驗室研究與探索,2023,42(05):149-152+196.

        〔6〕孫鳳霄,孫仁誠.基于WGAN和擴張卷積的符號音樂生成算法[J].復旦學報(自然科學版),2022, 61(05):536-545.

        〔7〕王代君,陳星,龔惠云,等.基于貝葉斯估計的振動基頻提取及預測算法[J].交通科技,2022,49(05):44-48.

        〔8〕張李明,洪蕾.基于雙閾值函數(shù)的音符檢測旋律時間序列化分析[J].電子技術(shù),2022,51(09):22-25.

        〔9〕王靜萱.基于和弦與旋律雙編碼的音樂生成算法[J].信息與電腦(理論版),2022,34(07):98-100.

        〔10〕侯清睿,安冬.基于人工神經(jīng)網(wǎng)絡的音符識別研究[J].自動化與儀器儀表,2022,42(01):53-58.

        〔11〕陳超藝,陳新度,吳磊.基于深度學習的吉他譜識別[J].軟件導刊,2022,21(01):141-145.

        〔12〕任瑞.基于音頻特征的音樂音符智能切分識別方法[J].信息技術(shù),2021,47(12):31-36.

        〔13〕黎思泉,萬永菁,蔣翠玲.基于生成對抗網(wǎng)絡去影像的多基頻估計算法[J].計算機科學,2022,49(03):179-184.

        〔14〕金濤,陸志華,陳修凱.單聲矢量傳感器方位基頻聯(lián)合估計[J].無線通信技術(shù),2021,30(03):13-16+22.

        〔15〕馬連航,王軍,阮林萍,等.一種新型的特征平滑處理的民樂音符起始點檢測算法[J].復旦學報(自然科學版),2021,60(03):315-322.

        亚洲av综合色区无码另类小说| 男女高潮免费观看无遮挡| 中文字幕丰满人妻有码专区| 蜜桃视频网站在线观看一区 | 亚洲 欧美 日韩 国产综合 在线| 亚洲爱婷婷色婷婷五月| 鲁鲁鲁爽爽爽在线视频观看| 国产欧美成人| 少妇特殊按摩高潮不断| 国产精品高清免费在线| 欧美熟妇另类久久久久久多毛| 真人作爱免费视频| 无码国产精品一区二区免费网曝| 免费人妻精品区一区二区三| 成人国产一区二区三区| 久久亚洲精品成人av无码网站| 久久精品国产亚洲av麻| 日韩精人妻无码一区二区三区| av网站不卡的av在线| 精品人妻一区三区蜜桃| 无码吃奶揉捏奶头高潮视频| 亚洲成AⅤ人在线观看无码| 国产精品午夜福利亚洲综合网| 337p日本欧洲亚洲大胆色噜噜| 又白又嫩毛又多15p| 97成人精品| 国产一区不卡视频在线| 精品人妻一区二区三区久久| 人人爽人人爱| 亚洲av乱码专区国产乱码| 日本黄网色三级三级三级| 午夜免费福利小电影| 在线免费黄网| 男女男生精精品视频网站| 天天躁夜夜躁狠狠躁婷婷| 亚洲国产成人久久一区| 亚洲AV无码乱码一区二区三区| 亚洲av毛片在线网站| 无码乱人伦一区二区亚洲一| 亚洲情a成黄在线观看动漫尤物| 人妻少妇中文字幕专区|