亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        數(shù)據(jù)挖掘技術(shù)在語音識(shí)別中的應(yīng)用

        2019-04-15 03:51:00許元洪
        關(guān)鍵詞:降維語音聚類

        許元洪, 郭 瓊

        (上海應(yīng)用技術(shù)大學(xué) 理學(xué)院, 上海 201418)

        語音識(shí)別是一門隨著人機(jī)交互發(fā)展應(yīng)運(yùn)而生的交叉學(xué)科。語音識(shí)別技術(shù)就是讓機(jī)器通過識(shí)別和理解過程把語音信號(hào)轉(zhuǎn)變?yōu)橄鄳?yīng)的文本或命令的技術(shù)。早在1920年,語音識(shí)別技術(shù)的雛形就已經(jīng)出現(xiàn)了,但受限于當(dāng)時(shí)的科學(xué)技術(shù)以及研究目的,當(dāng)時(shí)的語音識(shí)別更傾向于對(duì)聲音的探測(cè)。隨著大數(shù)據(jù)時(shí)代的到來,數(shù)據(jù)的獲取方式和成本都變的相對(duì)低廉,音頻數(shù)據(jù)亦是如此。因此,人們的研究重點(diǎn)也轉(zhuǎn)向了基于統(tǒng)計(jì)學(xué)模型的識(shí)別技術(shù),由微觀到宏觀不再刻意追求細(xì)化語音特征,而是從整體平均的角度來建立最佳的語音識(shí)別系統(tǒng)[1]。

        此外,隨著隱形馬爾科夫模型、神經(jīng)網(wǎng)絡(luò)以及深度學(xué)習(xí)技術(shù)的充分的發(fā)展,語音識(shí)別技術(shù)的精確度也因此得到了進(jìn)一步的提升[2]。通過對(duì)語音來源的識(shí)別,可實(shí)現(xiàn)對(duì)特定身份人的識(shí)別,從而完成對(duì)說話人身份的認(rèn)證以及操作權(quán)限的分配。例如,根據(jù)聲音的特征制定判斷標(biāo)準(zhǔn),使特定身份的人可以獲取設(shè)備的完全使用權(quán)限,而不具備此身份的人只能進(jìn)行常規(guī)操作,而無法進(jìn)行刪除文件或更改重要信息等敏感性操作。這樣使得在保證安全性的前提下為用戶提供更加便捷和人性化操作的目標(biāo)得以實(shí)現(xiàn)。

        本文主要進(jìn)行了兩個(gè)類別的說話人語音識(shí)別的研究,一類是對(duì)相同語音內(nèi)容的識(shí)別,另一類是不同語音內(nèi)容的識(shí)別。對(duì)于語音樣本的特征提取,本文采取當(dāng)今廣泛使用的梅爾頻率倒譜系數(shù)(Mel frequency cepstrum coefficient, MFCC)算法為基礎(chǔ)。其中,在相同語音內(nèi)容的說話人識(shí)別中,首先采用MFCC算法提取聲音特征,然后結(jié)合動(dòng)態(tài)時(shí)間規(guī)整(dynamic time warping,DTW)算法,將已經(jīng)預(yù)處理過的語音測(cè)試信號(hào)和參考語音模板進(jìn)行比較從而實(shí)現(xiàn)樣本的分類;而在不同語音內(nèi)容的說話人識(shí)別中,首先需要對(duì)從原始語音內(nèi)容中獲得的MFCC特征矩陣進(jìn)行聚類和降維,以保證待匹配模板的維度相近或相同,然后再通過DTW算法進(jìn)行模板匹配從而實(shí)現(xiàn)樣本的分類。此外,在程序?qū)崿F(xiàn)方面,所有算法均采用Python語言,大大的縮短了程序的實(shí)現(xiàn)時(shí)間,并且便于調(diào)試和維護(hù),同時(shí)也具有較強(qiáng)的可移植性。

        1 相同語音內(nèi)容的說話人識(shí)別

        相同語音的說話人識(shí)別處理流程見圖1。

        圖1 說話人識(shí)別處理流程
        Fig.1 Process of speaker recognition

        原始語音的預(yù)處理主要包括兩方面,預(yù)加重和短時(shí)處理[3]。預(yù)加重的目的是為了彌補(bǔ)人在發(fā)音的時(shí)候唇齒對(duì)聲音的削弱,提升聲音的高頻部分[4]。一般通過傳遞函數(shù)H(z)=1-az-1的高通數(shù)字濾波器來實(shí)現(xiàn)預(yù)加重,其中a為預(yù)加重系數(shù),(0.9

        S(n)=s(n)-a·s(n-1)

        其中,權(quán)系數(shù)選取經(jīng)驗(yàn)值a=0.937 5。短時(shí)處理指的是將原始語音信號(hào)進(jìn)行分幀加窗。這樣做的依據(jù)是在很短的一段時(shí)間內(nèi),可以假定聲音信號(hào)是穩(wěn)定的。

        特征提取方面主要采用了在孤立詞語音識(shí)別方面有廣泛應(yīng)用的MFCC算法來提取語音信號(hào)的特征[4],而最后的距離判定方法采用了DTW算法。之所以采取MFCC算法與DTW算法相結(jié)合來進(jìn)行相同語音內(nèi)容的說話人識(shí)別,是因?yàn)檎Z音內(nèi)容相同,則2個(gè)語音序列必然開始和結(jié)束于相同的字符,雖然不同人的發(fā)音習(xí)慣導(dǎo)致了語音時(shí)間有所差異,但是這種程度上的差異可以通過DTW算法來彌補(bǔ)[5-6]。因此,通過上述過程來進(jìn)行相同語音內(nèi)容的說話人識(shí)別是可行的。具體實(shí)施步驟如下:首先對(duì)所有的語音樣本進(jìn)行MFCC特征提取,然后提取測(cè)試樣本的MFCC特征,最后使用DTW算法衡量2個(gè)MFCC特征序列之間的距離,作為判斷依據(jù)。

        本次實(shí)驗(yàn)中,共采用4個(gè)實(shí)驗(yàn)組,每組含測(cè)試樣本1個(gè)和待匹配樣本20個(gè)。而在每組的20個(gè)待匹配樣本中,有1個(gè)來自于和本組測(cè)試樣本來源相同的說話人的語音采樣,其余19個(gè)均為不同的說話人提供的語音樣本。測(cè)試時(shí)首先提取本組所有待匹配樣本的MFCC特征,然后用測(cè)試樣本的MFCC特征與組內(nèi)所有待匹配樣本的MFCC特征進(jìn)行DTW算法的距離計(jì)算[7],最后根據(jù)距離結(jié)果進(jìn)行樣本的判定。計(jì)算的結(jié)果如表1所示。

        表1 相同說話人的識(shí)別結(jié)果Tab.1 Result of the speaker recognition of the same speakers

        通過4組樣本的距離數(shù)據(jù)對(duì)比,選取判斷的閾值為4組的測(cè)試樣本與相同來源樣本之間距離平均值的 1.5 倍,即w=41.5 作為判斷閾值。在該閾值的判斷下,相同語音內(nèi)容的說話人識(shí)別可以得到較好的判斷結(jié)果。

        2 不同語音內(nèi)容的說話人識(shí)別

        在不同語音內(nèi)容的說話人識(shí)別方面,特征提取的部分同上述相同語音內(nèi)容的說話人識(shí)別過程。但是對(duì)于相同語音內(nèi)容的說話人識(shí)別,兩個(gè)語音時(shí)間序列的主要不同之處體現(xiàn)在人的發(fā)音習(xí)慣上,雖然略有差異,但是這種時(shí)間上的差異并不明顯。而在不同語音內(nèi)容的說話人識(shí)別方面,由于語音內(nèi)容的不同,因此待區(qū)分的樣本時(shí)間長度也不同。由于最終本文采用的是累積距離度量的方式,所以在語音樣本長度大于最低有效長度的情況下,持續(xù)時(shí)間越長,兩個(gè)樣本之間的距離累積則必然越大。因此,若進(jìn)行不同語音內(nèi)容的說話人識(shí)別,則必須保證無論輸入任何長度大于有效長度的語音內(nèi)容,其輸出的待匹配模板的長度必須是一致的。因此,在依據(jù)不同長度的語音樣本進(jìn)行距離計(jì)算時(shí),應(yīng)首先對(duì)樣本的MFCC矩陣進(jìn)行降維,以保留該矩陣中有效成分最大的幾個(gè)維度,再進(jìn)行聚類以減少其中向量的個(gè)數(shù)加快計(jì)算的速度。通過上述方式,使得輸入的語音樣本最終都成為維度相同的模板,從而進(jìn)行模板匹配以完成樣本的分類。此處,降維算法選取主成分分析(principal component analysis, PCA)算法,而聚類算法采用K-means++算法。

        根據(jù)前述分析,提取MFCC特征之后需要按照分量的重要性進(jìn)行加權(quán)[7],然后按照特征值占比規(guī)則進(jìn)行降維。為了確定降維的程度,首先對(duì)所有數(shù)據(jù)按照組別進(jìn)行降維測(cè)試,結(jié)果見圖2。

        圖2 不同語音內(nèi)容的降維測(cè)試Fig.2 Dimension reduction for distinct speech contents

        圖2中所有虛折線代表在處理的過程中,該語音樣本提取MFCC之后的MFCC向量個(gè)數(shù),所有實(shí)折線表示該語音樣本若要滿足特征值占比原則,至少需要保留的特征值個(gè)數(shù)。通過圖2可以發(fā)現(xiàn),要滿足特征值占比原則,特征值個(gè)數(shù)至少為5個(gè)。因此,在后續(xù)的識(shí)別降維過程中,統(tǒng)一取奇異值分解后按大小排序的前5個(gè)特征值對(duì)應(yīng)的特征向量作為主成分的投影向量對(duì)原數(shù)據(jù)進(jìn)行降維。

        之后,對(duì)降維后的數(shù)據(jù)進(jìn)行聚類。由于聲音樣本的MFCC特征向量的個(gè)數(shù)均位于200左右,因此選擇聚類中心個(gè)數(shù)為50個(gè)進(jìn)行聚類。然后采用DTW算法應(yīng)用于聚類后的聚類中心向量,計(jì)算兩個(gè)MFCC時(shí)間序列之間的距離。測(cè)試中,以說話人A作為樣板對(duì)象,使用包括A在內(nèi)的4位說話人的聲音樣本依次與A的聲音樣本進(jìn)行對(duì)比。在兩個(gè)不同閾值設(shè)定的前提下,計(jì)算結(jié)果見表2。

        表2 說話人在不同閾值下的識(shí)別率Tab.2 Speaker Recognition rates to different thresholds

        結(jié)果表明,當(dāng)閾值從 187.325 1 調(diào)節(jié)至 194.085 時(shí),說話人A的識(shí)別率從60%上升為80%,而其他幾位說話人的識(shí)別率則有一定程度的下降。特別地,D的識(shí)別率從50%下降至20%。顯然該方法無法對(duì)說話人D進(jìn)行較好的識(shí)別,而對(duì)另外2位說話人的識(shí)別有一定的效果。

        3 結(jié) 論

        本文主要針對(duì)相同語音內(nèi)容和不同語音內(nèi)容兩個(gè)類別的說話人語音識(shí)別進(jìn)行了探究,其中涉及到的所有算法均采用Python語言實(shí)現(xiàn),大大的縮短了程序的實(shí)現(xiàn)時(shí)間,并且便于調(diào)試和維護(hù),同時(shí)也具有較強(qiáng)的可移植性。在相同語音內(nèi)容的說話人識(shí)別方面,采用MFCC結(jié)合DTW算法完成樣本的分類。在不同語音內(nèi)容說話人識(shí)別方面,致力于尋找一種方法,將不同時(shí)間長度的語音樣本整合為相同或相近維度的特征模板。在實(shí)際探究中發(fā)現(xiàn),先進(jìn)行降維然后聚類,以保證不同語音樣本特征矩陣維度相近或相同,然后再進(jìn)行匹配,是一個(gè)值得繼續(xù)研究的方向。

        在相同語音內(nèi)容的說話人識(shí)別方面,MFCC特征結(jié)合DTW算法得到了較好的識(shí)別效果。而在不同語音內(nèi)容的說話人識(shí)別方面,先進(jìn)行PCA降維和K-means++聚類,然后進(jìn)行DTW算法識(shí)別,卻未有非常出色的表現(xiàn),總結(jié)原因可能有以下兩點(diǎn):

        (1) K-means++算法中依靠距離聚類的算法不能處理非球形簇的情況[8],而MFCC向量本身的分布有可能不是球形簇。

        (2) PCA算法雖然可以使用低維數(shù)據(jù)代替高維數(shù)據(jù),但是畢竟是一種無監(jiān)督學(xué)習(xí)算法,且貢獻(xiàn)率小的主成分也可能含有樣本差異的重要信息。

        針對(duì)上述兩點(diǎn),提出日后研究的改進(jìn)方案如下:

        (1) 更換其他聚類算法,例如,采用基于密度的DBSCAN聚類算法[7]。

        (2) 采用未降維的原始數(shù)據(jù)進(jìn)行計(jì)算或采用其他降維算法如:監(jiān)督型線性降維算法(linear discriminant analysis, LDA)或者采用非線性降維算法(locally linear embedding, LLE)。

        猜你喜歡
        降維語音聚類
        Three-Body’s epic scale and fiercely guarded fanbase present challenges to adaptations
        降維打擊
        海峽姐妹(2019年12期)2020-01-14 03:24:40
        魔力語音
        基于MATLAB的語音信號(hào)處理
        電子制作(2019年14期)2019-08-20 05:43:38
        基于MQ3與MP3的價(jià)廉物美的酒駕語音提醒器
        電子制作(2019年9期)2019-05-30 09:42:10
        對(duì)方正在輸入……
        小說界(2018年5期)2018-11-26 12:43:42
        基于DBSACN聚類算法的XML文檔聚類
        基于改進(jìn)的遺傳算法的模糊聚類算法
        一種層次初始的聚類個(gè)數(shù)自適應(yīng)的聚類方法研究
        拋物化Navier-Stokes方程的降維仿真模型
        亚洲黄色性生活一级片| 一本色道久久综合无码人妻| 午夜成人精品福利网站在线观看 | 99无码精品二区在线视频 | 国产女主播在线免费观看| 亚洲美女毛多水多免费视频| 女女女女女裸体处开bbb| 狠狠人妻久久久久久综合| 亚洲αv在线精品糸列| 免费在线国产不卡视频| 国产免费无遮挡吸奶头视频| 少妇邻居内射在线| 欧美国产伦久久久久久久| 日本按摩偷拍在线观看| 人妻少妇中文字幕乱码| 亚洲精品成人网久久久久久| 国产人成在线成免费视频| 日韩人妻精品视频一区二区三区| 久久久久99精品成人片直播| 国产无码夜夜一区二区| 强d乱码中文字幕熟女1000部| 九九久久精品国产免费av| 免费无码又黄又爽又刺激| 欧美在线成人午夜网站| 国产精品一区二区三区女同| 亚洲成熟女人毛毛耸耸多| 好吊色欧美一区二区三区四区| 老熟女熟妇嗷嗷叫91| av一区二区在线免费观看| 久久人妻无码一区二区| 国产精品一区二区久久精品| 少妇高潮紧爽免费观看| 国产日本精品一二三四区| 边做边流奶水的人妻| 成在线人视频免费视频| 中文日本强暴人妻另类视频 | 丰满少妇被猛进去高潮| 色橹橹欧美在线观看视频高清 | 免费观看黄网站| 欧美丝袜秘书在线一区| 粉嫩极品国产在线观看免费一区|