亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于模糊聚類決策樹的分布式語者識(shí)別算法

        2017-09-01 15:54:43黃繼鵬王宇虹
        關(guān)鍵詞:決策樹分布式語音

        黃繼鵬,陳 志,芮 路,王宇虹

        (南京郵電大學(xué) 計(jì)算機(jī)學(xué)院,江蘇 南京 210023)

        基于模糊聚類決策樹的分布式語者識(shí)別算法

        黃繼鵬,陳 志,芮 路,王宇虹

        (南京郵電大學(xué) 計(jì)算機(jī)學(xué)院,江蘇 南京 210023)

        為解決大規(guī)模語者識(shí)別問題中普遍存在的加性噪聲、高計(jì)算復(fù)雜度等問題,提高大規(guī)模語者識(shí)別算法的抗噪性和魯棒性,利用模糊聚類決策樹,提出了一種分布式語者識(shí)別算法。該算法將訓(xùn)練數(shù)據(jù)等分成幾個(gè)部分,對(duì)這幾個(gè)部分分別使用基于模糊聚類的決策樹算法進(jìn)行訓(xùn)練;對(duì)于輸入的測(cè)試樣本,用建好的決策樹進(jìn)行分類,判斷它屬于哪棵樹的哪個(gè)葉節(jié)點(diǎn);在該選定的葉節(jié)點(diǎn)上使用梅爾頻率倒譜系數(shù)和高斯混合模型識(shí)別方法識(shí)別該語者身份。對(duì)訓(xùn)練數(shù)據(jù)進(jìn)行模糊聚類的過程主要包括四個(gè)步驟:根據(jù)相應(yīng)的層提取語音特征;計(jì)算特征數(shù)據(jù)的均值和標(biāo)準(zhǔn)差得到信任間距集合;對(duì)集合使用Lloyd算法得到分隔向量;以分隔向量為基礎(chǔ)進(jìn)行聚類分組得到下一層的節(jié)點(diǎn)。實(shí)驗(yàn)結(jié)果表明,與傳統(tǒng)的硬聚類算法相比,該算法能夠提高語者識(shí)別的準(zhǔn)確率和分類效率,對(duì)加性噪聲具有良好的抗干擾能力。

        語者識(shí)別;模糊聚類;決策樹;分布式計(jì)算

        0 引 言

        在語者識(shí)別中,給出一個(gè)輸入語音,要求從系統(tǒng)提供的所有語者中選擇一個(gè)來確定未知語者的身份[1],這個(gè)過程通常用到梅爾頻率倒譜系數(shù)、高斯混合模型等方法[2-4]。上述方法在低噪聲條件下對(duì)小型語者表現(xiàn)非常好,但是在高噪聲條件下會(huì)嚴(yán)重地降低識(shí)別性能,并且當(dāng)語者數(shù)量明顯增時(shí),識(shí)別錯(cuò)誤的可能性將大大增加[5]。Kenny等提出基于I向量的語音識(shí)別和語者身份確認(rèn)方法,該方法通常需要大量表現(xiàn)良好的數(shù)據(jù),但當(dāng)把I向量應(yīng)用于大規(guī)模語者識(shí)別時(shí),計(jì)算復(fù)雜度可能會(huì)很高[6]。Graves等提出使用遞歸神經(jīng)網(wǎng)絡(luò)進(jìn)行語者識(shí)別的方法,在噪聲較小的情況下,該方法準(zhǔn)確率較高,但對(duì)于高噪聲的數(shù)據(jù)效果不盡如人意,并且使用深度網(wǎng)絡(luò)在數(shù)據(jù)量較大時(shí)計(jì)算復(fù)雜度很高[7]。Chorowski等研究了使用機(jī)器翻譯模型進(jìn)行語音識(shí)別錯(cuò)誤率較高的原因,提出了一種基于注意力模型的方法該方法可以防止單幀過于集中,提高了語音識(shí)別的魯棒性和抗噪聲性,但計(jì)算復(fù)雜度較高[8]。

        可見,普遍存在的加性噪聲和大規(guī)模語者識(shí)別的應(yīng)用需求使得語者識(shí)別算法設(shè)計(jì)需要解決以下問題:

        (1)語音數(shù)據(jù)的噪聲可能會(huì)導(dǎo)致訓(xùn)練和測(cè)試之間的錯(cuò)誤匹配,降低語者識(shí)別的正確性。

        (2)當(dāng)識(shí)別的語者數(shù)量顯著增加時(shí),識(shí)別的錯(cuò)誤率也將可能提高。在傳統(tǒng)的梅爾頻率倒譜系數(shù)和高斯混合模型的方法中,語者規(guī)模增長(zhǎng)時(shí),識(shí)別準(zhǔn)確性持續(xù)減小,當(dāng)規(guī)模增長(zhǎng)到100時(shí),準(zhǔn)確性發(fā)生最大下降;與10個(gè)語者的案例相比,630個(gè)語者大約有30%的準(zhǔn)確性損失[4]。

        (3)當(dāng)語者規(guī)模變大時(shí),識(shí)別效率隨之下降,而計(jì)算復(fù)雜性相應(yīng)提高[9]。

        良好的語者識(shí)別算法需要有較強(qiáng)的魯棒性和抗噪性,能夠克服大規(guī)模語者識(shí)別錯(cuò)誤率高、計(jì)算復(fù)雜度高等問題。為此,結(jié)合決策樹[10]和模糊聚類[11],設(shè)計(jì)了一種分布式語者識(shí)別算法,以解決上述問題。

        1 分布式語者識(shí)別框架設(shè)計(jì)

        基于模糊聚類決策樹的分布式語者識(shí)別包括四個(gè)過程:將訓(xùn)練數(shù)據(jù)等分成三個(gè)部分;對(duì)等分過的數(shù)據(jù)分別使用基于模糊聚類的決策樹分類;決定測(cè)試語者屬于哪棵樹的哪個(gè)葉節(jié)點(diǎn);對(duì)該選定的葉節(jié)點(diǎn)使用梅爾頻率倒譜系數(shù)和高斯混合模型識(shí)別技術(shù)識(shí)別該語者身份。在決策樹的每一層的建樹過程中采用模糊聚類,即在每一層上一個(gè)語者可能屬于多個(gè)節(jié)點(diǎn)。圖1給出了基于模糊聚類決策樹的分布式語者識(shí)別框架。

        1:輸入樣本S2:將樣本分為3份,s1,s2,s3∈S3:forallsi∈S4:使用模糊聚類算法建成決策樹ti5:輸入測(cè)試語音6:決定該語者屬于哪個(gè)葉節(jié)點(diǎn)7:使用MFCC+GMM算法進(jìn)行識(shí)別8:輸出語者身份9:endfor

        圖1 基于模糊聚類決策樹的分布式語者識(shí)別框架

        在該框架中,首先輸入樣本S,將其分為s1,s2,s3用于分布式處理;對(duì)每個(gè)樣本,使用模糊聚類算法建成一棵決策樹ti,將大量的語者分類到不同的葉子節(jié)點(diǎn),縮小語者規(guī)模;對(duì)于輸入的測(cè)試語音,先判斷該語者屬于哪個(gè)葉節(jié)點(diǎn),再在所屬葉節(jié)點(diǎn)的人群中使用梅爾頻率倒譜系數(shù)和高斯混合模型的算法進(jìn)行識(shí)別,最后輸出語者身份。上述分布式策略用于降低計(jì)算復(fù)雜度,而用模糊聚類決策樹分類將目標(biāo)語者縮小,制造出傳統(tǒng)語者識(shí)別方法適合的語者規(guī)模,以提高對(duì)加性噪聲的抗性和識(shí)別精確性。

        此外,在分布式語者識(shí)別框架中,決策樹建樹過程會(huì)從語者語音信號(hào)提取語音的音調(diào)、語音信號(hào)正脈沖的均值、語音信號(hào)正脈沖的偏度、語音信號(hào)負(fù)脈沖的均值、語音信號(hào)負(fù)脈沖的偏度、語音信號(hào)正脈沖的寬度等六種特征,決策樹每一層將提取一個(gè)特征。給定一個(gè)連續(xù)的語音輸入,使用YIN算法[12]將語音分解成等長(zhǎng)的NF幀,一幀的長(zhǎng)度是25 ms,幀移位長(zhǎng)度是10 ms。在語者語音信號(hào)提取中,音調(diào)的提取方法為:獲得第i幀的音調(diào)值Pi和有聲概率Pri(i=0,1,…,NF);去掉50~550 Hz范圍之外的音調(diào)值,同時(shí)去掉從有聲概率低于0.8的幀中提取的音調(diào)值;得到音調(diào)值的集合。其他五個(gè)語音特征的提取方法:計(jì)算每一幀的能量Ei和過零率Zi,并判斷該幀是否有聲,若不是,不進(jìn)行操作,若是,則用Levinson-Durbin算法[13-15]計(jì)算線性預(yù)測(cè)系數(shù);通過使用線性預(yù)測(cè)系數(shù)得到線性預(yù)測(cè)剩余信號(hào);從LP剩余信號(hào)中提取五個(gè)聲源特征。

        提取的特征表示為Fi,j,i是當(dāng)前節(jié)點(diǎn)上的語者索引,j是特征索引,j=0,1,…,Ni,Ni表示語者i的特征值總數(shù)。

        2 基于模糊聚類決策樹的分布式語者識(shí)別算法設(shè)計(jì)

        根據(jù)分布式語者識(shí)別框架,從節(jié)點(diǎn)模糊聚類分類、識(shí)別語者身份兩個(gè)方面,設(shè)計(jì)基于模糊聚類決策樹的分布式語者識(shí)別算法。

        2.1 節(jié)點(diǎn)模糊聚類分類

        在圖1的框架中,語音樣本數(shù)據(jù)等分成三個(gè)部分,這些等分后的語音樣本數(shù)據(jù)分別作為一棵決策樹的根節(jié)點(diǎn)C1進(jìn)行建樹;每一個(gè)語音樣本都來自不同的語者,Cn1,n2,…,nL,nL+1表示L層的第nL+1個(gè)節(jié)點(diǎn)。此外,使用基于模糊聚類的決策樹對(duì)等分過的數(shù)據(jù)進(jìn)行分類,對(duì)已建好的一棵樹,先對(duì)根節(jié)點(diǎn)進(jìn)行分組,得到的子節(jié)點(diǎn)執(zhí)行相同的步驟繼續(xù)進(jìn)行分組直到建成決策樹。圖2給出了一個(gè)節(jié)點(diǎn)的模糊聚類分類過程。

        1:if節(jié)點(diǎn)上的語者數(shù)>預(yù)設(shè)值2:提取特征值3:計(jì)算μi,δi4:構(gòu)建信任間距集合{μi-λδi,μi+λδi}5:使用Lloyd的算法得到分隔向量[P0,P1,…,PM]和下面組群數(shù)M6:創(chuàng)建M個(gè)子節(jié)點(diǎn)7:forall語者i∈C18:索引mi=19:whilem!=M+110:if[μi-λδi,μi+λδi]∩[Pm-1Pm]>011:語者i∈C1,m12:endif13:m=m+114:endwhile15:endfor16:endif

        圖2 一個(gè)節(jié)點(diǎn)的模糊聚類分類過程

        根據(jù)圖2,在節(jié)點(diǎn)的模糊聚類分類中,首先判斷當(dāng)前節(jié)點(diǎn)中的樣本數(shù)量是否大于預(yù)設(shè)值,若不大于則該節(jié)點(diǎn)為葉節(jié)點(diǎn),不需要再進(jìn)行分組;然后對(duì)節(jié)點(diǎn)上的樣本進(jìn)行特征提取,每一層只提取一種特征,依次提取音調(diào)、語音信號(hào)正脈沖的均值、語音信號(hào)正脈沖的偏度、語音信號(hào)負(fù)脈沖的均值、語音信號(hào)負(fù)脈沖的偏度和語音信號(hào)正脈沖的寬度。

        在完成節(jié)點(diǎn)樣本特征提取后,根據(jù)式(1)、式(2)計(jì)算每個(gè)語者特征數(shù)據(jù)的平均值和標(biāo)準(zhǔn)差。

        (1)

        (2)

        其中,μi為語者i的特征數(shù)據(jù)的平均值;δi為語者i的特征數(shù)據(jù)的標(biāo)準(zhǔn)差;Fi,j為提取出的特征,i是當(dāng)前節(jié)點(diǎn)上的語者索引,j(j=0,1,…,Ni)是特征索引,Ni為語者i的特征值總數(shù)。

        構(gòu)建一個(gè)可信任的間距[μi-λδi,μi+λδi],λ是一個(gè)預(yù)定的系數(shù);得到所有語者兩個(gè)統(tǒng)計(jì)數(shù)據(jù)μi±λδi的集合D={μi-λδi,μi+λδi}。

        在獲得每個(gè)語者特征數(shù)據(jù)的平均值和標(biāo)準(zhǔn)差后,對(duì)集合D使用Lloyd算法[16]得到分隔向量[P0,P1,…,PM],M為L(zhǎng)loyd算法采用的語者組的總數(shù)。以此分隔向量為基礎(chǔ),創(chuàng)建全部M個(gè)子節(jié)點(diǎn)。對(duì)每個(gè)語者i(i∈C1)進(jìn)行分組,判斷其屬于C1,m(m=1,2,…,M)中的哪一個(gè),m初始為1,若[μi-λδi,μi+λδi]∩[Pm-1,Pm]>0,則語者i屬于C1,m,如此直到m等于M,所有語者都分組完畢,所得的C1,m即是決策樹的下一層。

        2.2 識(shí)別語者身份

        根據(jù)基于模糊聚類決策樹的分布式語者識(shí)別框架,對(duì)已建好的三棵決策樹,分別同時(shí)從決策樹的根節(jié)點(diǎn)開始,對(duì)測(cè)試語者進(jìn)行分類,直到其中一棵樹分類完成,即識(shí)別出該語者身份。識(shí)別過程如圖3所示。

        1:while該節(jié)點(diǎn)不為葉節(jié)點(diǎn)2:特征值提取3:異常值去除4:計(jì)算特征平均值μ5:m=16:while!(Pm-1≤μ≤Pm)7:m=m+18:endwhile9:endwhile10:使用MFCC+GMM識(shí)別語音身份

        圖3 語者身份識(shí)別過程

        在圖3中,從樹的根節(jié)點(diǎn)開始,對(duì)測(cè)試語者進(jìn)行分類直到結(jié)束或找到測(cè)試語者屬于的葉節(jié)點(diǎn),每個(gè)節(jié)點(diǎn)上執(zhí)行的分類步驟相同。首先判斷該節(jié)點(diǎn)是否為葉節(jié)點(diǎn),若是則對(duì)該節(jié)點(diǎn)使用梅爾頻率倒譜系數(shù)和高斯混合模型進(jìn)行身份識(shí)別;對(duì)測(cè)試語者的語音進(jìn)行特征提取和異常值去除,且相應(yīng)的層只提取相應(yīng)特征,得到特征集合{Fk},k=1,2,…,K,K為特征值總數(shù)。使用式(3)計(jì)算特征值的平均值:

        (3)

        此后,通過比較平均值和從模糊聚類中的Lloyd算法得到的分隔向量[P0,P1,…,PM]來做分類決定,令m=1,判斷是否有Pm-1≤μ≤Pm,若不是,則令m=m+1,重復(fù)此步驟繼續(xù)判斷直到m等于M;若是,則該測(cè)試語者被分類到子節(jié)點(diǎn)且此層分類結(jié)束。在比較的基礎(chǔ)上,當(dāng)有且僅有一個(gè)節(jié)點(diǎn)在L層是可用的且L層的基于決策樹的分類結(jié)束時(shí),分類將會(huì)從L層的該可用節(jié)點(diǎn)上以相同的方式繼續(xù)進(jìn)行,直到一個(gè)葉節(jié)點(diǎn)最終可用。最終,對(duì)選中的葉節(jié)點(diǎn)使用梅爾頻率倒譜系數(shù)和高斯混合模型識(shí)別技術(shù)識(shí)別測(cè)試語者身份。

        3 實(shí)驗(yàn)結(jié)果及分析

        實(shí)驗(yàn)采用從www.audible.com等在線有聲讀物網(wǎng)站收集的數(shù)據(jù),將所有的mp3樣例以11.025 kHz的抽樣率轉(zhuǎn)換成wav格式,假設(shè)這些語者都不相同,共得到1 300個(gè)語者的語音,每個(gè)語音的時(shí)長(zhǎng)為20 s,在高斯白噪聲下的信噪比為25 dB。

        在實(shí)驗(yàn)中,1 300段語音用來構(gòu)建一棵六層決策樹,音調(diào)特征的參數(shù)包括構(gòu)建信任間距的λ值和Lloyd算法采用的聚類數(shù)量;對(duì)于另外五個(gè)聲源特征,除了以上列出的兩個(gè)參數(shù),還有一個(gè)額外的關(guān)于異常值去除的比例參數(shù)。表1給出了決策樹每一層所構(gòu)建信任間距的λ值和Lloyd算法采用的聚類數(shù)量以及每一層語者縮減率和準(zhǔn)確率。

        表1 決策樹每一層參數(shù)和性能指標(biāo)

        實(shí)驗(yàn)將1 300段語音通過訓(xùn)練的決策樹做分類測(cè)試,在某一層的分類精確性是以在該層上被分到正確節(jié)點(diǎn)的語者所占百分比計(jì)算的。為了計(jì)算某一層的語者縮減率,給該層的節(jié)點(diǎn)加權(quán)并且所加權(quán)重是由該層上語音被分到正確節(jié)點(diǎn)的百分比決定的。例如,1 000個(gè)語者全部被正確的分到樹的某一層,其中有100個(gè)語者被正確地分到該層上語者規(guī)模(容量)為200的節(jié)點(diǎn)上,那么當(dāng)計(jì)算該層所有節(jié)點(diǎn)的加權(quán)平均語者時(shí),該節(jié)點(diǎn)分配的權(quán)重是100/1 000=10%。根據(jù)表1,從樹的高層到低層,分類精確性持續(xù)下降,語者縮減率持續(xù)增加。在25 dB的情況下,實(shí)驗(yàn)中六層決策樹在底層能夠獲得97.01%的分類精確性和94.75%的語者縮減率,性能表現(xiàn)很好。

        下面比較模糊聚類決策樹和傳統(tǒng)聚類決策樹的性能表現(xiàn)。實(shí)驗(yàn)使用與表1相同的六個(gè)特征構(gòu)建兩棵樹,圖4和圖5給出了兩種不同聚類方法的實(shí)驗(yàn)結(jié)果。

        圖4 模糊聚類決策樹和傳統(tǒng)聚類決策樹語者縮減率對(duì)比

        從圖4和圖5可以看出,模糊聚類決策樹的分類精確性比傳統(tǒng)聚類決策樹的精確性高得多,而兩棵樹的語者縮減率基本相同??梢姡:垲悓?duì)構(gòu)造所采用的決策樹好于傳統(tǒng)的硬聚類方法。

        圖5 模糊聚類決策樹和傳統(tǒng)聚類決策樹準(zhǔn)確率對(duì)比

        4 結(jié)束語

        為解決存在加性噪聲的大規(guī)模語者識(shí)別問題,提出了一種基于模糊聚類決策樹的分布式語者識(shí)別算法。該算法劃分訓(xùn)練數(shù)據(jù),使用基于模糊聚類的決策樹分別進(jìn)行分類,通過決定測(cè)試語者屬于哪棵樹的哪個(gè)葉節(jié)點(diǎn),縮小識(shí)別語者的規(guī)模,結(jié)合梅爾頻率倒譜系數(shù)和高斯混合模型來識(shí)別未知語者的身份。實(shí)驗(yàn)結(jié)果表明,利用基于模糊聚類的決策樹能夠顯著提高分類準(zhǔn)確率,而分布式建樹極大地提高了分類效率,同時(shí)對(duì)加性噪聲有良好的抗干擾力。

        在后續(xù)研究中,可以考慮對(duì)分類算法、語音特征提取算法等進(jìn)行優(yōu)化。此外,設(shè)計(jì)脫離梅爾頻率倒譜系數(shù)和高斯混合模型的新識(shí)別算法,尋找合適的深度學(xué)習(xí)架構(gòu)來進(jìn)行語者身份識(shí)別等也是值得探索的方向。

        [1] Togneri R,Pullella D.An overview of speaker identification:accuracy and robustness issues[J].IEEE Circuits and Systems Magazine,2011,11(2):23-61.

        [2] Reynolds D A,Rose R C.Robust text-independent speaker identification using Gaussian mixture speaker models[J].IEEE Transactions on Speech and Audio Processing,1995,3(1):72-83.

        [3] Reynolds D A,Quatieri T F,Dunn R B.Speaker verification using adapted Gaussian mixture models[J].Digital Signal Processing,2000,10(1):19-41.

        [4] Reynolds D A. Speaker identification and verification using Gaussian mixture speaker models[J].Speech Communication,1995,17(1):91-108.

        [5] Hasan M R,Jamil M,Rahman M G,et al.Speaker identification using mel frequency cepstral coefficients[C]//Proceedings of the 3rd international conference on electrical & computer engineering.[s.l.]:IEEE,2004:565-568.

        [6] Kenny P,Boulianne G, Ouellet P,et al. Joint factor analysis versus eigenchannels in speaker recognition[J].IEEE Trans-actions on Audio,Speech,and Language Processing,2007,15(4):1435-1447.

        [7] Graves A, Mohamed A, Hinton G. Speech recognition with deep recurrent neural networks[C]//Proceedings of the 2013 IEEE international conference on acoustics, speech and signal processing.[s.l.]:IEEE,2013:6645-6649.

        [8] Chorowski J K, Bahdanau D, Serdyuk D, et al.Attention-based models for speech recognition[C]//Advances in neural information processing systems.[s.l.]:Neural Information Processing Systems Foundation,2015:577-585.

        [9] Hu Y,Wu D,Nucci A.Fuzzy-clustering-based decision tree approach for large population speaker identification[J].IEEE Transactions on Audio,Speech,and Language Processing,2013,21(4):762-774.

        [10] Safavian S R,Landgrebe D.A survey of decision tree classifier methodology[J].IEEE Transactions on Systems,Man,and Cybernetics,1991,21(3):660-674.

        [11] 孫吉貴,劉 杰,趙連宇.聚類算法研究[J].軟件學(xué)報(bào),2008,19(1):48-61.

        [12] de Cheveigné A,Kawahara H.YIN,a fundamental frequency estimator for speech and music[J].Journal of the Acoustical Society of America,2002,111(4):1917-1930.

        [13] Musicus B R.Levinson and fast Choleski algorithms for Toeplitz and almost Toeplitz matrices[D].[s.l.]:Massachusetts Institute of Technology,1988.

        [14] Sim K S,Lim M S,Yeap Z X.Performance of signal-to-noise ratio estimation for scanning electron microscope using autocorrelation Levinson-Durbin recursion model[J].Journal of Microscopy,2016,263(1):64-77.

        [15] Selvaperumal S K,Nataraj C,Thiruchelvam V,et al.Speech to text synthesis from video automated subtitling using levinson durbin method of linear predictive coding[J].International Journal of Applied Engineering Research,2016,11(4):2388-2395.

        [16] Lloyd S P.Least squares quantization in PCM[J].IEEE Transactions on Information Theory,1982,28(2):129-137.

        Distributed Speaker Identification Algorithm with Fuzzy Clustering Decision Tree

        HUANG Ji-peng,CHEN Zhi,RUI Lu,WANG Yu-hong

        (College of Computer,Nanjing University of Posts and Telecommunications,Nanjing 210023,China)

        In order to solve the problems of additive noise and high computational complexity in speaker identification and to improve the robustness and anti-noise ability of the large scale speaker identification algorithm,a distributed speaker identification algorithm with fuzzy clustering decision tree has been presented,which divides training data into several parts,and builds fuzzy clustering decision trees for these parts.For testing data,fuzzy decision trees has been employed,which are built in the previous step to decide which leaf node the people’s speech belongs to.The speaker is identified by using the Mel-Frequency Cepstral Coefficients and the Gauss mixture model identification method on the selected leaf nodes.The process of fuzzy clustering on training data mainly includes four parts,i.e.extracting feature data from the corresponding layer,calculating the mean and standard deviation of the feature data,using Lloyd algorithm to get the separation vector,clustering to get the nodes of the next layer.The experimental result shows that compared with the traditional hard clustering algorithm,the proposed algorithm has improved the accuracy and classification efficiency of speaker identification,with the good anti-interference ability to the additive noise.

        speaker identification;fuzzy clustering;decision tree;distributed computing

        2016-04-18

        2016-08-03 網(wǎng)絡(luò)出版時(shí)間:2017-06-05

        國(guó)家自然科學(xué)基金資助項(xiàng)目(61501253);江蘇省“六大人才高峰”第十一批高層次人才選拔培養(yǎng)資助項(xiàng)目(XXRJ-009);江蘇省基礎(chǔ)研究計(jì)劃(自然科學(xué)基金)項(xiàng)目(BK20131382,BK20151506);江蘇省重點(diǎn)研發(fā)計(jì)劃(社會(huì)發(fā)展)項(xiàng)目(BE2016778);江蘇省高等教育教學(xué)改革“重中之重”立項(xiàng)研究課題(2013JSJG005);國(guó)家級(jí)大學(xué)生創(chuàng)新創(chuàng)業(yè)訓(xùn)練計(jì)劃項(xiàng)目(201410293011,201510293014);江蘇省高等學(xué)校大學(xué)生創(chuàng)新創(chuàng)業(yè)訓(xùn)練計(jì)劃立項(xiàng)項(xiàng)目(201410293011Z、201510293014Z);南京郵電大學(xué)大學(xué)生創(chuàng)新訓(xùn)練計(jì)劃立項(xiàng)項(xiàng)目(SZDG2014011,SZDG2015014,XYB2015036,XYB2015265)

        黃繼鵬(1994-),男,研究方向?yàn)閿?shù)據(jù)挖據(jù);陳 志,副教授,通信作者,CCF會(huì)員(200014587M),研究方向?yàn)閿?shù)據(jù)挖掘、傳感器網(wǎng)絡(luò)。

        http://kns.cnki.net/kcms/detail/61.1450.TP.20170605.1506.010.html

        TP391

        A

        1673-629X(2017)08-0079-04

        10.3969/j.issn.1673-629X.2017.08.016

        猜你喜歡
        決策樹分布式語音
        一種針對(duì)不均衡數(shù)據(jù)集的SVM決策樹算法
        魔力語音
        基于MATLAB的語音信號(hào)處理
        電子制作(2019年14期)2019-08-20 05:43:38
        基于MQ3與MP3的價(jià)廉物美的酒駕語音提醒器
        電子制作(2019年9期)2019-05-30 09:42:10
        對(duì)方正在輸入……
        小說界(2018年5期)2018-11-26 12:43:42
        決策樹和隨機(jī)森林方法在管理決策中的應(yīng)用
        電子制作(2018年16期)2018-09-26 03:27:06
        分布式光伏熱錢洶涌
        能源(2017年10期)2017-12-20 05:54:07
        分布式光伏:爆發(fā)還是徘徊
        能源(2017年5期)2017-07-06 09:25:54
        基于決策樹的出租車乘客出行目的識(shí)別
        基于DDS的分布式三維協(xié)同仿真研究
        人妻在卧室被老板疯狂进入国产| 人妻少妇猛烈井进入中文字幕| 激情综合婷婷色五月蜜桃| 女人高潮被爽到呻吟在线观看| 久久亚洲精品成人| 免费在线观看蜜桃视频| 风流熟女一区二区三区| 中国无码人妻丰满熟妇啪啪软件 | 亚洲无线码1区| 中文字幕人妻被公喝醉在线| 亚洲a∨无码精品色午夜| 中文字幕av无码一区二区三区| 加勒比精品久久一区二区三区| 精品午夜中文字幕熟女| 精品亚洲一区二区三区四区五区| 国产美女在线精品免费观看| 国产成人拍精品免费视频| 女同性恋一区二区三区四区| 丝袜美腿av在线观看| 老师粉嫩小泬喷水视频90| 精品国产av无码一道| 国产精品午夜福利天堂| 无码专区人妻系列日韩精品| 欧美国产精品久久久乱码| 免费黄色福利| 最近中文字幕精品在线| 中文字幕色av一区二区三区| 免费人成年小说在线观看| 91自国产精品中文字幕| 日韩人妻中文字幕专区| 国产精品多p对白交换绿帽| 四虎欧美国产精品| 日本熟女视频一区二区三区| 久久黄色视频| 亚洲av中文无码字幕色三| 高跟丝袜一区二区三区| 亚洲精品中文字幕视频色| 亚洲av日韩av天堂一区二区三区 | 成人国产精品三上悠亚久久| 久久久久久亚洲av无码蜜芽| 五月婷婷激情小说|