亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        文本相關(guān)的語(yǔ)音鎖設(shè)計(jì)*

        2019-11-18 03:04:16李政儀宮二玲
        傳感器與微系統(tǒng) 2019年11期
        關(guān)鍵詞:差分信噪比矢量

        李政儀, 宮二玲

        (1.長(zhǎng)沙民政職業(yè)技術(shù)學(xué)院 軟件學(xué)院,湖南 長(zhǎng)沙 410004; 2.國(guó)防科技大學(xué) 智能科學(xué)學(xué)院,湖南 長(zhǎng)沙 410073)

        0 引 言

        每個(gè)人的聲音特征與說(shuō)話習(xí)慣存在差異,語(yǔ)音具有明顯的區(qū)分性,因此可以作為身份識(shí)別工具。這涉及到聲紋識(shí)別技術(shù),即通過(guò)對(duì)一種或多種語(yǔ)音信號(hào)的特征分析對(duì)未知聲音進(jìn)行辨別,簡(jiǎn)而言之就是辨別某一句話是否是某一個(gè)人所說(shuō)的方法[1]。根據(jù)在驗(yàn)證階段的說(shuō)話內(nèi)容是否是識(shí)別系統(tǒng)所規(guī)定的,可以分為與文本相關(guān)的和與文本無(wú)關(guān)的,前者是識(shí)別系統(tǒng)規(guī)定說(shuō)話人所說(shuō)的內(nèi)容為已知,也就是說(shuō)話人的語(yǔ)句是固定的或者是由系統(tǒng)提示的,后者則不限制說(shuō)話人所說(shuō)的內(nèi)容[1]。

        本文旨在利用聲紋識(shí)別技術(shù),設(shè)計(jì)一個(gè)文本相關(guān)的嵌入式語(yǔ)音鎖,并分析不同的聲紋特征、噪聲水平對(duì)于識(shí)別結(jié)果準(zhǔn)確性的影響,為下一步的實(shí)際應(yīng)用奠定基礎(chǔ)。

        1 問(wèn)題描述

        一個(gè)嵌入式的對(duì)講設(shè)備,配置一個(gè)麥克風(fēng),擬增加一個(gè)語(yǔ)音鎖的功能。注冊(cè)時(shí),自動(dòng)生成一個(gè)隨機(jī)的8位數(shù)密碼,注冊(cè)人錄入2遍作為訓(xùn)練樣本;驗(yàn)證時(shí),設(shè)備顯示密碼,并由驗(yàn)證人讀出,判斷是否通過(guò)驗(yàn)證。

        目前常用的聲紋識(shí)別算法可以分為三大類(lèi)[1]:1)模板匹配法:利用距離測(cè)度,對(duì)訓(xùn)練好的特征矢量集合和待測(cè)矢量進(jìn)行比較,距離越近,說(shuō)明一致性越好。常用的算法有動(dòng)態(tài)時(shí)間規(guī)整、矢量量化(vector quantization,VQ)等。2)概率模型法:根據(jù)特征矢量的統(tǒng)計(jì)特性建立數(shù)學(xué)模型,從統(tǒng)計(jì)學(xué)的角度進(jìn)行匹配識(shí)別。常見(jiàn)方法包括隱馬爾可夫模型、高斯混合模型等。3)人工智能算法:以深度學(xué)習(xí)方法為主,如深度神經(jīng)網(wǎng)絡(luò)、支持向量機(jī)等方法。這種方法需要海量數(shù)據(jù)支持,是一種數(shù)據(jù)驅(qū)動(dòng)方法。

        由于嵌入式系統(tǒng)的計(jì)算能力有限,因此,對(duì)于本問(wèn)題而言,計(jì)算量小的模板匹配法是最為適合的。本文擬采用VQ方法進(jìn)行聲紋鎖的設(shè)計(jì)。

        2 設(shè)計(jì)流程

        2.1 VQ算法概述

        VQ算法的基本原理是將若干個(gè)標(biāo)量數(shù)據(jù)組構(gòu)成一個(gè)矢量,然后在矢量空間進(jìn)行整體量化,能夠壓縮了數(shù)據(jù)而不損失過(guò)多信息。1980年,Linden Y等人提出一種基于訓(xùn)練序列的VQ設(shè)計(jì)算法,繞開(kāi)了多維積分的求解,由于其廣泛的適用性,該方法被命名為L(zhǎng)BG-VQ的算法[2,3]。

        VQ算法中的基本概念包括碼矢和碼書(shū)。碼矢是所有特征矢量的分類(lèi)中心矢量,可用一個(gè)k維向量cn=(cn,1,cn,2,…,cn,k),n=1,2,…,N表示。所有碼矢的集合稱(chēng)為碼書(shū),用C={c1,c2,…,cN}表示。VQ算法的核心就是在給定訓(xùn)練樣本集合T和碼矢數(shù)量N的前提下,找到能夠使得平均失真度最小的碼書(shū)C。LBG-VQ算法交替地調(diào)整空間劃分P和碼書(shū)C,使失真度不斷地趨向于局部最小值。在算法初始化階段,可通過(guò)分裂方法得到一個(gè)初始的碼書(shū)C(0)。具體流程可參見(jiàn)文獻(xiàn)[2,3]。

        2.2 識(shí)別流程

        典型的聲紋識(shí)別流程包括語(yǔ)音信號(hào)預(yù)處理、特征提取、模型訓(xùn)練和特征識(shí)別。語(yǔ)音信號(hào)預(yù)處理包括預(yù)加重、加窗分幀和端點(diǎn)檢測(cè)等;特征提取包括特征選擇和頻域變換等;模型訓(xùn)練就是根據(jù)提取到的特征,訓(xùn)練出說(shuō)話者的模型;特征識(shí)別則是針對(duì)一個(gè)輸入的語(yǔ)音,判斷屬于哪個(gè)說(shuō)話者。

        2.2.1 語(yǔ)音信號(hào)預(yù)處理

        首先,對(duì)語(yǔ)音信號(hào)進(jìn)行預(yù)加重,提升高頻部分,使得在低頻到高頻的整個(gè)頻帶中,信噪比基本一致。通常是將語(yǔ)音信號(hào)通過(guò)一個(gè)高通濾波器H(z)=1-μz-1。本文中,μ=0.975。其次,進(jìn)行語(yǔ)音加窗分幀。通常認(rèn)為語(yǔ)音信號(hào)在10~20 ms內(nèi)是平穩(wěn)的。因此,可按照這一個(gè)時(shí)間段進(jìn)行分幀,分幀過(guò)程通常取重疊分段,重疊部分稱(chēng)為幀移。本文幀移設(shè)定為50 %。加窗可以減少截?cái)嘈?yīng)對(duì)于分幀的影響,避免頻譜泄漏,本文采用漢寧窗。最后,進(jìn)行端點(diǎn)檢測(cè),消除噪聲段、靜音段等無(wú)效片段,保留有效語(yǔ)音片段。本文采用雙門(mén)限檢測(cè)方法,根據(jù)短時(shí)能量和短時(shí)過(guò)零率進(jìn)行聯(lián)合檢測(cè),具體方法可參見(jiàn)文獻(xiàn)[1,4]。

        2.2.2 特征提取

        常用的語(yǔ)音特征參數(shù)包括線性預(yù)測(cè)倒譜系數(shù)、梅爾頻譜倒譜系數(shù)(Mel frequency Cepstrum coefficient, MFCC)和感知線性預(yù)測(cè)系數(shù)等[5]。其中,MFCC是最為常用的,首先通過(guò)Mel濾波器組轉(zhuǎn)換為Mel頻譜,再進(jìn)行倒譜計(jì)算,具體過(guò)程可參見(jiàn)文獻(xiàn)[5~8]。MFCC可反映語(yǔ)音信號(hào)的靜態(tài)特性,但人耳對(duì)語(yǔ)音信號(hào)的動(dòng)態(tài)特性比較敏感,所以,可以取MFCC的差分來(lái)增強(qiáng)特征參數(shù)的動(dòng)態(tài)特性,包括一階差分和二階差分。本文采用了12階MFCC系數(shù)和12階MFCC一階差分作為特征,組成一個(gè)24維特征矢量。

        2.2.3 模型訓(xùn)練與識(shí)別

        利用2.1節(jié)中提到的VQ算法,針對(duì)提取到的特征矢量進(jìn)行訓(xùn)練,得到該說(shuō)話者的模型,即碼本。碼本模型的訓(xùn)練算法可參見(jiàn)文獻(xiàn)[9],此處不再贅述。

        3 系統(tǒng)實(shí)現(xiàn)

        3.1 數(shù)據(jù)準(zhǔn)備

        利用對(duì)講設(shè)備的麥克風(fēng)錄制了10個(gè)人聲音,6男4女,每人讀一個(gè)各不相同的,8位數(shù)字,重復(fù)3遍。前兩遍作為訓(xùn)練數(shù)據(jù),最后一遍作為測(cè)試數(shù)據(jù)。采樣頻率為8 kHz,編碼位數(shù)為16位。

        3.2 算法實(shí)現(xiàn)與結(jié)果分析

        首先,對(duì)數(shù)據(jù)進(jìn)行預(yù)處理,幀長(zhǎng)設(shè)定為256,幀移為50 %,進(jìn)行端點(diǎn)檢測(cè),某一個(gè)語(yǔ)音段端點(diǎn)檢測(cè)結(jié)果如圖1所示??梢钥闯觯诘谝欢握Z(yǔ)音中,漏檢了部分語(yǔ)音段,但在第二段語(yǔ)音中得到了較好的彌補(bǔ)。同時(shí),基本上排除了絕大部分靜音段。由于是貼近麥克風(fēng)錄音,語(yǔ)音信號(hào)的信噪比較高。

        圖1 語(yǔ)音端點(diǎn)檢測(cè)結(jié)果

        接下來(lái),提取MFCC及其一階差分,組成24維的特征矢量,利用VQ算法進(jìn)行訓(xùn)練。碼矢數(shù)量N需要通過(guò)調(diào)試確定,令N=8,16,32,48,46,分別訓(xùn)練模型,利用測(cè)試數(shù)據(jù)進(jìn)行測(cè)試,N=8時(shí),部分說(shuō)話者的測(cè)試數(shù)據(jù)無(wú)法通過(guò)驗(yàn)證;其他碼矢數(shù)量均能準(zhǔn)確通過(guò)測(cè)試。10個(gè)說(shuō)話者均開(kāi)展50次測(cè)試,每驗(yàn)證成功一次則記一次識(shí)別成功;如果將說(shuō)話者A識(shí)別為10個(gè)說(shuō)話者中的其他9人,則記一次誤識(shí)(錯(cuò)誤接受);如果認(rèn)為說(shuō)話者不屬于10個(gè)人中的任意一個(gè),則記一次拒收。統(tǒng)計(jì)結(jié)果如表1所示。

        表1 不同碼書(shū)數(shù)量下的識(shí)別效果

        可以看出,碼書(shū)數(shù)量增加,識(shí)別效果明顯提升,當(dāng)N≥48之后,識(shí)別效果提升并不明顯,甚至還出現(xiàn)稍微下降,可能是存在過(guò)擬合的原因。此外,碼書(shū)數(shù)量的增加,會(huì)導(dǎo)致訓(xùn)練和識(shí)別的計(jì)算量增加。因此,綜合考慮識(shí)別效果和計(jì)算效率,將碼書(shū)數(shù)量設(shè)定為N=48。

        將聲紋特征由“MFCC+一階差分”調(diào)整為單純的MFCC,碼書(shū)數(shù)量N=48,繼續(xù)進(jìn)行上述測(cè)試,可得識(shí)別成功率為88.2 %,說(shuō)明一階差分的加入,對(duì)于提升識(shí)別準(zhǔn)確率是非常有幫助的。

        理論上說(shuō),訓(xùn)練信號(hào)和測(cè)試信號(hào)的信噪比越高,識(shí)別效果就會(huì)越好。當(dāng)信噪比下降時(shí),語(yǔ)音端點(diǎn)檢測(cè)會(huì)出現(xiàn)問(wèn)題,導(dǎo)致噪聲段被當(dāng)作語(yǔ)音段進(jìn)入了訓(xùn)練模型。通過(guò)人為給10段訓(xùn)練數(shù)據(jù)增加白噪聲,使其信噪比分別為20,10,0,-10,-20 dB時(shí)進(jìn)行訓(xùn)練,并利用原始測(cè)試數(shù)據(jù)進(jìn)行測(cè)試,可得不同信噪比下準(zhǔn)確識(shí)別次數(shù),如圖2所示??梢?jiàn)當(dāng)信噪比下降時(shí),準(zhǔn)確率明顯下降,當(dāng)下降到一定程度(0 dB)時(shí),基本上無(wú)法正常訓(xùn)練和識(shí)別了。這說(shuō)明在錄入訓(xùn)練數(shù)據(jù)時(shí),必須保證一定的信噪比。可采用消噪算法進(jìn)行適當(dāng)處理[10]。

        圖2 信噪比與識(shí)別率之間的關(guān)系

        將算法移植到嵌入式平臺(tái)后,可以正常運(yùn)行,證明算法的運(yùn)算量可以滿足嵌入式平臺(tái)的需求。

        4 結(jié) 論

        設(shè)計(jì)了一種文本相關(guān)的語(yǔ)音鎖。通過(guò)提取語(yǔ)音的MFCC及其一階差分特征,利用VQ算法,訓(xùn)練說(shuō)話者的語(yǔ)音特征模型,并據(jù)此開(kāi)展說(shuō)話者識(shí)別。實(shí)驗(yàn)結(jié)果表明,在一定的信噪比下,碼本數(shù)量N=48時(shí),識(shí)別準(zhǔn)確率可保證在95 %的水平,滿足工程實(shí)用性要求。

        猜你喜歡
        差分信噪比矢量
        矢量三角形法的應(yīng)用
        數(shù)列與差分
        基于深度學(xué)習(xí)的無(wú)人機(jī)數(shù)據(jù)鏈信噪比估計(jì)算法
        低信噪比下LFMCW信號(hào)調(diào)頻參數(shù)估計(jì)
        低信噪比下基于Hough變換的前視陣列SAR稀疏三維成像
        基于矢量最優(yōu)估計(jì)的穩(wěn)健測(cè)向方法
        三角形法則在動(dòng)態(tài)平衡問(wèn)題中的應(yīng)用
        保持信噪比的相位分解反褶積方法研究
        基于差分隱私的大數(shù)據(jù)隱私保護(hù)
        相對(duì)差分單項(xiàng)測(cè)距△DOR
        太空探索(2014年1期)2014-07-10 13:41:50
        99久久亚洲精品日本无码| 亚洲中文字幕日本日韩| 亚洲中文字幕一区二区在线| 美女扒开屁股让男人桶| 亚洲自偷自拍熟女另类| 日韩亚洲中文图片小说| 精品亚洲av一区二区| 亚洲av无码国产精品久久| 伊人狠狠色丁香婷婷综合| 久久青草国产精品一区| 一区二区三区免费自拍偷拍视频| 国产精品久久久久久妇女| 熟妇的荡欲色综合亚洲| 在线观看国产三级av| 蜜臀人妻精品一区二区免费| 国产精品免费看久久久无码| 日韩精品无码av中文无码版| av手机在线天堂网| 加勒比久久综合久久伊人爱| 精品亚洲国产成人| 成人在线激情网| 国产一区二区av男人| 麻豆文化传媒精品一区观看| 久久久噜噜噜www成人网| 亚洲区精选网址| 国产激情综合五月久久| 国产一区内射最近更新| 欧美日韩性视频| 国产一区二区在三区在线观看| 国99精品无码一区二区三区| 亚洲欧洲无码av不卡在线| 国产成人精品免费视频大全| 色婷婷在线一区二区三区| 免费a级毛片18禁网站app| 毛片免费在线观看网址| 一区二区三区在线日本| 一边捏奶头一边高潮视频| 亚洲欧美日韩中文无线码| 国产成人AⅤ| 中文字幕一区二区三区的| 狠狠色噜噜狠狠狠888米奇视频|