亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于“互聯(lián)網(wǎng)+”的聲紋識別技術(shù)在刑事案件偵破中的應(yīng)用研究

        2020-06-15 06:42:00魏蓮芳
        現(xiàn)代電子技術(shù) 2020年7期
        關(guān)鍵詞:聲紋識別識別率互聯(lián)網(wǎng)

        魏蓮芳

        摘 ?要: 對面向“互聯(lián)網(wǎng)+”的聲紋識別技術(shù)進(jìn)行研究,并分析了其在刑事案件偵破中的應(yīng)用。基于GMM?UBM聲紋識別確認(rèn)系統(tǒng),對GMM?UBM模型構(gòu)建方法進(jìn)行詳細(xì)描述,研究模型參數(shù)最大后驗(yàn)概率算法、估計(jì)期望最大化算法、參數(shù)訓(xùn)練和識別過程。對基于GMM?UBM的聲紋識別系統(tǒng)進(jìn)行設(shè)計(jì),利用對比實(shí)驗(yàn)的方法分別驗(yàn)證在相同條件下GMM建模方法、GMM?UBM建模方法的識別效果。在測試隨機(jī)抽取的一組語音時,系統(tǒng)均具有較高的識別成功率,在進(jìn)行不同人數(shù)測試時,隨著樣本人數(shù)的增加,系統(tǒng)識別率會有少許降低,但平均識別率較高,為89.6%;與GMM系統(tǒng)相比,GMM?UBM系統(tǒng)具有較高的識別率,隨著混合度的增加,GMM?UBM系統(tǒng)識別率隨之增大。

        關(guān)鍵詞: 刑事案件偵破; 聲紋識別; 互聯(lián)網(wǎng)+; GMM?UBM; 識別率; 參數(shù)訓(xùn)練

        中圖分類號: TN912?34; TP311 ? ? ? ? ? ? ? ? ? ? 文獻(xiàn)標(biāo)識碼: A ? ? ? ? ? ? ? ? ? ?文章編號: 1004?373X(2020)07?0034?05

        Research on application of "Internet+" based voiceprint recognition

        technology in criminal case investigation

        WEI Lianfang

        (Sichuan Police College, Luzhou 646000, China)

        Abstract: The voiceprint recognition technology applied to "Internet+" is studied and its application in criminal case investigation is analyzed. On the basis of the GMM?UBM (Gaussian mixture model?universal background model) voiceprint recognition system, the construction method of GMM?UBM is elaborated, and the maximum posterior probability algorithm, estimation expectation maximization algorithm and training & recognition process of model parameters are studied. The voiceprint recognition system based on GMM?UBM is designed. The recognition effects of GMM modeling method and GMM?UBM modeling method under the same conditions are verified respectively by comparative experiments. When testing a group of randomly?extracted voices, both the systems are of high recognition rate. When testing different numbers of people, the recognition rate of the system decreases somewhat with the increase of the number of sampling people, but the average recognition rate is 89.6%, which is high. In comparison with the GMM system, the GMM?UBM system is of higher recognition rate. The recognition rate of GMM?UBM system increases with the increase of the degree of mixing.

        Keywords: criminal case investigation; voiceprint recognition; Internet+; GMM?UBM; recognition rate; parameter training

        0 ?引 ?言

        近年來,隨著計(jì)算機(jī)技術(shù)發(fā)展越來越快,語音識別技術(shù)也隨之獲得一定的發(fā)展。在實(shí)際應(yīng)用中,語音識別技術(shù)能對說話人個人身份語音特征進(jìn)行獲取、表征?!盎ヂ?lián)網(wǎng)+”時代正在飛速發(fā)展,安全保障以及身份驗(yàn)證等成為醫(yī)療、共享出行以及移動支付的重要內(nèi)容。

        對于刑偵工作來說,開始廣泛應(yīng)用數(shù)字聲紋識別技術(shù),能夠有效彌補(bǔ)其他特征識別技術(shù)存在的缺陷。聲紋識別是通過聲學(xué)、語音學(xué)原理,對磁介質(zhì)機(jī)載的聲語頻譜進(jìn)行分析,對聲音進(jìn)行語言判斷、鑒別的過程。數(shù)字聲紋識別技術(shù)可利用計(jì)算機(jī)技術(shù)、多元化通信技術(shù)轉(zhuǎn)化聲紋樣本頻譜圖,通過數(shù)字聲紋樣本的方式自動識別聲紋。基于該技術(shù)能夠有效建立虛擬標(biāo)準(zhǔn)人類聲紋樣本,涉及人類發(fā)生多元化特征。聲紋樣本基于對比獲取后,可以記錄特征參數(shù)差值。

        現(xiàn)階段,刑事訴訟活動當(dāng)中可以廣泛應(yīng)用聲紋鑒定技術(shù)實(shí)現(xiàn)聲音資料的查證等?;诖?,本文對面向“互聯(lián)網(wǎng)+”的聲紋識別技術(shù)進(jìn)行了研究,并分析了其在刑事案件偵破中的應(yīng)用。

        1 ?基于高斯混合模型的聲紋識別技術(shù)

        高斯混合模型(GMM)為最近幾年使用的聲紋識別方法,該模型實(shí)際疊加了不同的高斯分布概率密度函數(shù),對特征矢量在概率空間分布情況進(jìn)行表述,在聲紋識別時,每一個GMM代表一個說話的樣本。

        1.1 ?高斯混合模型簡介

        1.1.1 ?GMM模型參數(shù)描述

        基于GMM模型聲紋識別技術(shù)是針對訓(xùn)練說話者集合內(nèi)每一說話人對屬于自己身份特征概率分布進(jìn)行構(gòu)建的模型,說話人自身特征直接影響參數(shù)值,所以可以有效描述說話人身份特征。假設(shè)說話者概率密度函數(shù)形式均相同,但在函數(shù)中設(shè)定不同參數(shù)值,說話人模型此時可看作一組參數(shù)值,且符合概率密度分布形式。實(shí)證分析表明,說話人特征分布并非是完全的特征分布,然而這些分布近似接近高斯分布混合加權(quán)值,高斯混合模型即可得到。具體情況見式(1):

        [PXλ=i=1MwibiX, ?i=1Mwi=1] (1)

        式中:[biX]表示單個高斯混合模型的分量,其屬于高維高斯分布函數(shù);高維隨機(jī)語音特征向量用[X]表示;[biX]對應(yīng)分量加權(quán)系數(shù)用[wi]表示;在高斯混合模型中,[M]表示分量個數(shù)。[biX],[wi]滿足式(2):

        [biX=expX-utTΣ-1tX-ut22πD2Σt12] (2)

        高斯混合模型由協(xié)方差矩陣、混合分量均值向量、混合權(quán)重共同組成,假定[λ]為參數(shù)對模型進(jìn)行描述,因此,[λ=ωi,ui,Σt,i=1,2,…,n]。

        1.1.2 ?GMM模型參數(shù)估計(jì)

        因每個說話者在聲紋識別系統(tǒng)中均由其自身對應(yīng)的高斯混合模型進(jìn)行表述。在得到某一說話者訓(xùn)練語音后,通過訓(xùn)練對其模型進(jìn)行構(gòu)建。使用高斯混合模型對說話者模型進(jìn)行構(gòu)建,實(shí)質(zhì)上是對GMM模型參數(shù)值進(jìn)行估計(jì),常用最大似然估計(jì)算法。對于已有[T]個特征向量[t=1,2,…,T],通過極大似然估計(jì)原理對其模型參數(shù)值進(jìn)行確認(rèn)。參數(shù)要使[T]個平均概率獲得最大值,即對數(shù)似然函數(shù)[L]最大,見式(3):

        [log pXλ=t=1Tlog pxtλ] ? (3)

        基于最大似然準(zhǔn)則,即ML估計(jì)GMM參數(shù)值,通過EM迭代算法進(jìn)行計(jì)算,可獲得模型均值[u′i],權(quán)重[w′i],方差[σ][′2i]的計(jì)算公式,具體如下:

        [w′i=1nj=1npixj,λ]

        [u′i=j=1nxjpixj,λj=1npixj,λ] (4)

        [σ][′2i=j=1nxj-u′i2pixj,λj=1npixj,λ]

        式中:[pixj,λ]表示第[i]個混合分量后驗(yàn)概率,參數(shù)集合及似然函數(shù)[pxλ]間包含一種比較復(fù)雜的非線性函數(shù)關(guān)系,通過常規(guī)方法不容易找到極大點(diǎn)。參數(shù)值[λ]可通過EM算法進(jìn)行迭代求取。EM算法是從初始化模型開始,估計(jì)獲取一新模型參數(shù)[λ],且滿足[pxλ≥pxλ]。

        1.1.3 ?模型參數(shù)初始化

        在獲取GMM模型前,對模型參數(shù)進(jìn)行初始化,在構(gòu)建高斯混合模型時,初始化算法包括[K]均值算法、隨機(jī)初始化算法。[K]均值算法主要使用樣本先驗(yàn)概率分布知識,效果較好,本文選擇均值算法對GMM模型參數(shù)進(jìn)行初始化。對語音數(shù)據(jù)進(jìn)行規(guī)整,同時得到滿足方差最小標(biāo)準(zhǔn)的[K]個聚類。

        算法實(shí)現(xiàn)流程如下:

        1) 對不同樣本進(jìn)行劃分,形成[k]個互不相交子集,通過計(jì)算獲得每個子集均值[m1,m2,…,mk]及[Je],且第[i]個子集有[N]個樣本點(diǎn),假定第[i]個子集為[Si],其中,[N=i=1kNi],[mi=1Nx∈Six],[Je=i=1kx∈Six-mi2],[Je]表示誤差準(zhǔn)則,其表示[k]個聚類中心[m1,m2,…,mk],[k]個樣本子集[S1,S2,…,Sk]可形成總平方誤差,準(zhǔn)則下最優(yōu)結(jié)果及誤差平方使[Je]極小聚類;

        2) 隨機(jī)進(jìn)行一個樣本[x]的指定,使[x∈Si];

        3) 如果存在[M=1],則轉(zhuǎn)向步驟2),否則繼續(xù);

        4) 計(jì)算[ρj]值:

        [ρj=NjNj+1x-mj2, ? ?j≠iNjNj-1x-mj2, ? ?j=i] ? ? (5)

        5) 對于每一個[j=1,2,…,k],如果有一個[tt≠i]存在,使得[ρt<ρi],則將[x]由[Si]轉(zhuǎn)換到[St]中;

        6) 再次計(jì)算[mj],[mt],同時對[Je]進(jìn)行修改;

        7) 若[Je]在幾次迭代中無改變,則運(yùn)算停止,否則轉(zhuǎn)到步驟2)。

        在EM算法初始化運(yùn)算時,通過[k]均值算法可將EM算法迭代速度提高,尤其是對于聚類海量數(shù)據(jù)則具有更加顯著的效果。

        1.1.4 ?基于GMM的說話人確認(rèn)

        在進(jìn)行基于GMM的聲紋確認(rèn)時,進(jìn)行語音前端處理,并對特征進(jìn)行提取,在訓(xùn)練時,使用訓(xùn)練語音特征進(jìn)行GMM聲紋模型的構(gòu)建。測試時,讓測試語音特征參數(shù)和已知身份的聲紋模型進(jìn)行匹配,并獲得一個相似度評分,由某話者模型對語音向量[O]進(jìn)行測試,并將概率評分[pλO]輸出,通過此評分和閾值比較對確認(rèn)結(jié)果進(jìn)行獲取。[pλO]為GMM模型輸出概率,因[pλO]無法通過計(jì)算獲取,可將聲紋確認(rèn)看作是一個假設(shè)檢驗(yàn)問題,也就是對測試語音而言,其是目標(biāo)說話人(H0)獲冒認(rèn)者(H1)中的一個進(jìn)行選取,說話人確認(rèn)中評分算法采用似然比。似然比是在冒認(rèn)者模型輸出的概率中,由目標(biāo)說話者模型輸出的待識語音[O]概率所占比值。參數(shù)表征目標(biāo)說話人模型為[λ],參數(shù)表征冒認(rèn)者模型為[λH1];在模型[λ]中,[pOλ]表示待識語音參數(shù)向量[O]輸出概率;在[λH1]條件下,[pOλH1]表示待識語音參數(shù)向量[O]輸出概率,因此似然比為[LO=][pOλpOλH1],通常使用對數(shù)似然比方法,記為[LO=logpOλpOλH1=]

        [log pOλ-log pOλH1]。

        本研究將時間歸一化方法應(yīng)用到對數(shù)似然比式中,這樣語音長度對似然比函數(shù)的影響可削弱,具體通過公式[LO=1Tlog pOλ-log pOλH1]實(shí)現(xiàn),其中,[T]表示測試語音長度或幀數(shù)。對數(shù)似然可使不同說話人間的可區(qū)分性增多,輸出評分分布動態(tài)范圍得到削弱,聲紋確認(rèn)系統(tǒng)對閾值可依賴性減小。

        1.2 ?高斯混合通用背景模型

        1.2.1 ?模型提出

        高斯混合模型存在不足,相對而言,高斯混合通用背景模型(GMM?UBM)使用性能比較優(yōu)良,可實(shí)現(xiàn)聲紋識別。用戶在現(xiàn)實(shí)應(yīng)用中提供的訓(xùn)練語料有限,通常情況下,訓(xùn)練不能太充分。因而,不能將GMM模型高斯混合數(shù)目取很高,但在識別過程中,對混合度要求比較高;在訓(xùn)練過程中,UBM需要的背景語音量比較大,因而可獲得充分訓(xùn)練,獲得的混合量比較高。在說話人模型自適應(yīng)時,可對UBM中同訓(xùn)練語音特征少量的相似高斯分量部分進(jìn)行修改,因UBM由大量背景語音訓(xùn)練得到,通常情況下,其能很好地將冒充者的平均特征分布情況反映出來,因此,GMM?UBM能對用戶集合外的語音進(jìn)行較好適應(yīng)。

        在聲紋識別過程中,關(guān)鍵步驟是選擇閾值。在GMM?UBM模型匹配之中,目標(biāo)說話人模型和UBM得分的比值形式是輸出的結(jié)果,因而比值形式可大幅削弱最終似然函數(shù)評分對閾值選擇的影響。在一定程度上,GMM?UBM的判別性能更優(yōu)秀。

        1.2.2 ?基于GMM?UBM模型的聲紋識別系統(tǒng)

        目標(biāo)說話人模型在基于GMM聲紋確認(rèn)系統(tǒng)中通常僅由目標(biāo)說話人自身訓(xùn)練語料獲得,當(dāng)目標(biāo)說話人訓(xùn)練數(shù)據(jù)較少時,說話人模型參數(shù)估計(jì)準(zhǔn)確性則較差。在將自適應(yīng)算法引入構(gòu)建目標(biāo)聲紋模型后,根據(jù)待測目標(biāo)說話者訓(xùn)練語料,通過背景模型(UBM),利用最大后驗(yàn)概率算法,經(jīng)過自適應(yīng)訓(xùn)練可得到目標(biāo)說話人聲紋模型,這就是GMM?UBM聲紋識別系統(tǒng)原理。

        實(shí)際上UBM屬于一個龐大的GMM模型,其訓(xùn)練語料為各信道條件全部不同待辨識說話人的語音,可對與所有說話人均無關(guān)的語音特征空間分布進(jìn)行訓(xùn)練描述。通過最大后驗(yàn)概率算法,GMM?UBM模型訓(xùn)練參數(shù)由UBM自適應(yīng)得到,這可節(jié)約訓(xùn)練時間,將訓(xùn)練效率提高。該自適應(yīng)方法分兩步:第一步是在UBM中,對目標(biāo)說話人及每一個混合成分訓(xùn)練語音統(tǒng)計(jì)分布進(jìn)行估量計(jì)算;第二步是用一個語音數(shù)據(jù)集,將與新充分估計(jì)及舊充分估計(jì)相關(guān)的混合系數(shù)進(jìn)行結(jié)合。調(diào)整UBM的各不同高斯分量,使其偏向訓(xùn)練向量方向,默認(rèn)目標(biāo)說話人的訓(xùn)練數(shù)據(jù)[X=x1,x2,…,xT]和初始化GMM模型參數(shù),通過計(jì)算,獲得訓(xùn)練向量概率分布狀況,即式(6)所示的第[i]個混合分量:

        [Prixt=wipixtj=1Mwjpjxt] ? ?(6)

        然后通過[Prixt]、平均向量值、混合加權(quán)量、方差進(jìn)行統(tǒng)計(jì):

        [ni=t=1TPrixtEix=1nt=1TPrixtxtEix2=1nit=1TPrixtx2t] ?(7)

        最終將全部由訓(xùn)練數(shù)據(jù)獲得的新充分統(tǒng)計(jì)數(shù)據(jù)量進(jìn)行UBM更新,其第[i]個混合數(shù)據(jù)充分統(tǒng)計(jì)量為:

        [wi=awiniT+1-awiwiγui=amiEix+1-amiuiσi=aviEix2+1-aviσ2i+u2i-u2i] (8)

        式中:自適應(yīng)系數(shù)為[awi,ami,avi],用于維持舊的、新的估計(jì)值間的平衡,用來控制平均值、權(quán)重大小、方差。定義[aρi=nini+rρ,ρ∈w,m,v]為自適應(yīng)系數(shù),其屬于一個參數(shù)固定不變的因子。在GMM?UBM系統(tǒng)中,[awi=ami=avi=nini+r],其中,[r]=16。

        2 ?聲紋識別技術(shù)及其在刑事案件偵破中的應(yīng)用

        數(shù)字聲紋識別技術(shù)應(yīng)用于刑事案件偵破工作需滿足一定條件,在實(shí)現(xiàn)聲紋采樣前,需排除周圍嘈雜環(huán)境,確保錄音環(huán)境的穩(wěn)定,錄音采樣方式分為兩種,分別是自由交談和聽說。前一種方式在使用過程中,要求對方不知情,否則將會大大影響發(fā)音效果;后一種方式在使用時,要引導(dǎo)對方所說的語句與樣本相同。

        在鑒定之前,需要完成相應(yīng)的案件檢材審查環(huán)節(jié),確保語音是連續(xù)穩(wěn)定的。沒有剪輯的檢材必須通過濾波處理,從而實(shí)現(xiàn)語音信號的加強(qiáng),同時,要保證聲紋鑒定基礎(chǔ)資料質(zhì)量合格,數(shù)量足夠。因此,要建立犯罪情報(bào)系統(tǒng)語音庫,完成語音信息準(zhǔn)確資料搜集。

        在偵查誣陷、綁架、敲詐案件時,需對未知說話人性別、身高、年齡、體態(tài)等信息利用語音人身識別技術(shù)進(jìn)行推斷,刻畫嫌疑人特征,縮小范圍。分析未知說話人的聲學(xué)特征,對其出生地、文化水平以及長住地等進(jìn)行推斷確認(rèn)。

        2.1 ?實(shí)驗(yàn)系統(tǒng)測試環(huán)境

        在本研究中,北京瑞泰創(chuàng)新公司生產(chǎn)的ICETEK?DM6437?B?KIT為系統(tǒng)測試硬件;美國TI公司生產(chǎn)的TMS320DM6437為主芯片;仿真設(shè)備為ICETEK?XDS560USB仿真器、5 V直流電源、TIXDS560連接電纜、USB連接線;顯示器為ICETEK?5100TFT;Microsoft Windows XP Professional為PC機(jī)平臺操作系統(tǒng),內(nèi)存為3.25 GB,主頻為3.0 GHz。

        2.2 ?實(shí)驗(yàn)數(shù)據(jù)及系統(tǒng)描述

        本次實(shí)驗(yàn)選取某男子監(jiān)獄和女子監(jiān)獄犯罪人員各50名,分別建立GMM?UBM,GMM兩個聲紋識別系統(tǒng),特征參數(shù)提取為:預(yù)加重為1-0.95z-1,F(xiàn)FT點(diǎn)數(shù)為256,加窗為漢明窗,幀移為32 ms,幀長為32 ms,濾波器組及個數(shù)為梅爾三角濾波器(24個),特征向量為39維(13mfcc,13△mfcc,13△△mfcc)。在實(shí)驗(yàn)中,在不同條件下選取GMM混合數(shù)兩個系統(tǒng)的識別率,實(shí)驗(yàn)中所用高斯混合度分別為4,8,16,24,32,保持其他參數(shù)不變。

        2.3 ?實(shí)驗(yàn)結(jié)果與分析

        加漢明窗處理圖如圖2所示,由圖2可知,在進(jìn)行語音信號加窗后,在語音信號上,信號很長的一段語音被窗函數(shù)平滑滑動分成幀。在每次進(jìn)行處理時,分析后再取下一段數(shù)據(jù)進(jìn)行分析。

        本文采用隨機(jī)背景下電話通道錄音對語音進(jìn)行測試,如果改變訓(xùn)練樣本人數(shù),使其數(shù)值分別為15人、20人、30人、35人時,通過三次隨機(jī)抽取的方式處理測試樣本,最終得到的測試結(jié)果如表1所示。

        當(dāng)樣本人數(shù)分別為15人、20人、30人、35人時,測試結(jié)果見表2。

        表2 ?選取不同人數(shù)時的識別情況

        [樣本人數(shù) 識別正確次數(shù) 識別率 /% 15 15 100 20 19 95 30 24 83.3 35 28 80 平均 89.6 ]

        在測試隨機(jī)抽取的一組語音時,系統(tǒng)均具有較高的識別成功率,在進(jìn)行不同人數(shù)測試時,隨著樣本人數(shù)的增加,系統(tǒng)識別率會有少許降低,但平均識別率較高,為89.6%,因此,系統(tǒng)識別率總體上比較理想。

        表3為不同混合度兩個系統(tǒng)的識別率,由表3可知,在其他條件相同,高斯混合度不同時,與GMM系統(tǒng)相比,GMM?UBM系統(tǒng)具有較高的識別率。隨著混合度的增加,GMM系統(tǒng)識別率隨之減小,而GMM?UBM系統(tǒng)識別率隨之增大。

        3 ?結(jié) ?論

        本文對面向“互聯(lián)網(wǎng)+”的聲紋識別技術(shù)進(jìn)行研究,并分析了其在刑事案件偵破中的應(yīng)用,得出如下結(jié)論:

        1) 基于GMM?UBM聲紋識別確認(rèn)系統(tǒng),對GMM?UBM模型構(gòu)建方法進(jìn)行詳細(xì)描述,研究模型參數(shù)最大后驗(yàn)概率算法、估計(jì)期望最大化算法、參數(shù)訓(xùn)練和識別過程。

        2) 對基于GMM?UBM的聲紋識別系統(tǒng)進(jìn)行設(shè)計(jì),利用對比實(shí)驗(yàn)的方法,分別驗(yàn)證在相同條件下GMM建模方法、GMM?UBM建模方法的識別效果。

        3) 在測試隨機(jī)抽取的一組語音時,系統(tǒng)均具有較高的識別成功率,在進(jìn)行不同人數(shù)測試時,隨著樣本人數(shù)的增加,系統(tǒng)識別率會有少許降低,但平均識別率較高,為89.6%;與GMM系統(tǒng)相比,GMM?UBM系統(tǒng)具有較高的識別率,隨著混合度的增加,GMM?UBM系統(tǒng)識別率隨之增大。

        參考文獻(xiàn)

        [1] 趙成輝,楊大利.基于聲紋識別技術(shù)的移動通信監(jiān)聽方案[J].北京信息科技大學(xué)學(xué)報(bào)(自然科學(xué)版),2015,30(1):59?65.

        [2] 劉弘胤.AI賦能下的聲紋識別技術(shù)在公共安全領(lǐng)域的深度應(yīng)用[J].中國安防,2019(6):60?64.

        [3] 丁冬兵.TL?CNN?GAP模型下的小樣本聲紋識別方法研究[J].電腦知識與技術(shù),2018,14(24):177?179.

        [4] 田秀麗,黃永平.關(guān)于語音個人身份優(yōu)化識別建模仿真研究[J].計(jì)算機(jī)仿真,2016,33(10):403?408.

        [5] 司向軍.基于Android的聲紋識別和語音識別的設(shè)計(jì)[D].南京:東南大學(xué),2017.

        [6] ZWEIG G. Speech recognition with segmental conditional random fields [J]. Optical engineering, 2016, 5(6): 177?182.

        [7] 于嫻,賀松,彭亞雄,等.基于GMM模型的聲紋識別模式匹配研究[J].通信技術(shù),2015,48(1):97?101.

        [8] NODA K, YAMAGUCHI Y, NAKADAI K, et al. Audio?visual speech recognition using deep learning [J]. Applied intelligence, 2015, 42(4): 722?737.

        [9] 曹海濤.基于時頻域分析的音頻信號濾波與識別技術(shù)研究[D].廣州:廣州大學(xué),2016.

        [10] 葉勇.漢語語音識別系統(tǒng)中關(guān)鍵詞檢測技術(shù)的研究[D].北京:北京郵電大學(xué),2015.

        猜你喜歡
        聲紋識別識別率互聯(lián)網(wǎng)
        基于類圖像處理與向量化的大數(shù)據(jù)腳本攻擊智能檢測
        基于真耳分析的助聽器配戴者言語可懂度指數(shù)與言語識別率的關(guān)系
        提升高速公路MTC二次抓拍車牌識別率方案研究
        聲紋識別中的區(qū)分性訓(xùn)練
        淺談一種基于聲紋識別的教室上課點(diǎn)名系統(tǒng)
        基于i—vector聲紋識別上課點(diǎn)名系統(tǒng)的設(shè)計(jì)與實(shí)現(xiàn)
        從“數(shù)據(jù)新聞”看當(dāng)前互聯(lián)網(wǎng)新聞信息傳播生態(tài)
        今傳媒(2016年9期)2016-10-15 22:06:04
        互聯(lián)網(wǎng)背景下大學(xué)生創(chuàng)新創(chuàng)業(yè)訓(xùn)練項(xiàng)目的實(shí)施
        考試周刊(2016年79期)2016-10-13 23:23:28
        以高品質(zhì)對農(nóng)節(jié)目助力打贏脫貧攻堅(jiān)戰(zhàn)
        中國記者(2016年6期)2016-08-26 12:52:41
        面向移動終端的語音簽到系統(tǒng)
        中文人妻av久久人妻18| 久久久精品亚洲一区二区国产av| 国产猛烈高潮尖叫视频免费| 亚洲精品午睡沙发系列| 国产精品99久久久久久98AV| 亚洲一区日本一区二区| 丰满少妇被猛进去高潮| 特黄做受又硬又粗又大视频小说| 国内精品久久久久久久影视麻豆| 国产高清天干天天视频| 永久中文字幕av在线免费| 亚洲av无码乱码在线观看性色| 精品无码一区二区三区亚洲桃色| 久久久久久久国产精品电影| 久久精品一区一区二区乱码| 极品尤物一区二区三区| 亚洲欧美日韩中文无线码| 红杏性无码免费专区| 国产爽快片一区二区三区| 特黄aaaaaaaaa毛片免费视频| 狠狠色噜噜狠狠狠狠888奇禾 | 熟妇与小伙子露脸对白| 国产av一卡二卡日韩av| 人与动牲交av免费| 在线免费毛片| 激情视频在线观看免费播放| 青青草精品在线视频观看| 狠狠色成人综合网| 亚洲国产成人AⅤ片在线观看| 美女性色av一区二区三区| 艳妇臀荡乳欲伦交换h在线观看| 内射精品无码中文字幕| 九月色婷婷免费| 午夜精品免费视频一区二区三区| 337p日本欧洲亚洲大胆精品| 免费视频一区二区| 美腿丝袜一区在线观看| 亚洲综合天堂av网站在线观看| 四房播播在线电影| 免費一级欧美精品| 中文字幕隔壁人妻欲求不满|