亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        語(yǔ)音識(shí)別技術(shù)架構(gòu)下的英語(yǔ)音標(biāo)輔助學(xué)習(xí)平臺(tái)開發(fā)及應(yīng)用研究

        2020-07-06 07:57:18梁瑋
        關(guān)鍵詞:英語(yǔ)語(yǔ)音語(yǔ)音識(shí)別

        梁瑋

        摘? ?要:針對(duì)傳統(tǒng)英語(yǔ)發(fā)音學(xué)習(xí)過(guò)程中存在的發(fā)音不準(zhǔn)確、缺乏發(fā)音評(píng)價(jià)和糾錯(cuò)指導(dǎo)的現(xiàn)狀。提出了基于Android平臺(tái)開發(fā)一款發(fā)音跟讀、發(fā)音比對(duì)、發(fā)音評(píng)分和糾錯(cuò)多功能應(yīng)用的英語(yǔ)發(fā)音訓(xùn)練系統(tǒng)。基于短時(shí)過(guò)零率端點(diǎn)檢測(cè)進(jìn)行語(yǔ)音預(yù)處理,獲得較為穩(wěn)定的語(yǔ)音段信號(hào),利用美爾倒普系數(shù)(MFCC)提取語(yǔ)音信號(hào)特征值,獲得每幀語(yǔ)音頻譜特性。通過(guò)矢量間距離計(jì)算表征信號(hào)的匹配度,在自適應(yīng)(AP)評(píng)價(jià)法來(lái)實(shí)現(xiàn)平均匹配距離與發(fā)音評(píng)分間的邏輯關(guān)系,得到發(fā)音共振峰包絡(luò)圖,利用生成的發(fā)音共振峰對(duì)比圖構(gòu)建發(fā)音共振峰和讀音口型模型進(jìn)行發(fā)音跟讀質(zhì)量反饋。實(shí)際應(yīng)用結(jié)果表明:開發(fā)的系統(tǒng)應(yīng)用能夠準(zhǔn)確進(jìn)行定性化的發(fā)音口型糾正,有效滿足現(xiàn)代英語(yǔ)學(xué)習(xí)過(guò)程中的智能化、實(shí)時(shí)性和便攜化需求。

        關(guān)鍵詞:語(yǔ)音識(shí)別;英語(yǔ)語(yǔ)音;Andorid系統(tǒng)

        中圖分類號(hào):TP391? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ?文獻(xiàn)標(biāo)識(shí)碼:A

        文章編號(hào):1003—6199(2020)02—0155—05

        Abstract:In view of the present situation of inaccurate pronunciation,lack of pronunciation evaluation and error correction guidance in the process of traditional English pronunciation learning. An English pronunciation training system based on Android platform is proposed for pronunciation following reading,pronunciation comparison,pronunciation scoring and error correction. speech preprocessing based on short-time zero-crossing rate endpoint detection to obtain a more stable speech segment signal,using the mer inverted coefficient (mfcc) to extract the speech signal eigenvalues and obtain the speech spectrum characteristics of each frame. Using vector-to-vector distance to calculate the matching degree of the representation signal,the average matching distance and pronunciation evaluation are realized in the adaptive (AP) evaluation method? In this paper,the phonetic resonance peak envelope map is obtained,and the model of pronunciation resonance peak and pronunciation mouth pattern is constructed by using the generated phonetic resonance peak contrast map. The practical application results show that the developed system can accurately carry out the correction of pronunciation and mouth shape,and effectively meet the needs of intelligence,real-time and portability in the process of modern English learning.

        Key words:speech recognition;English speech;Anorid system

        英語(yǔ)作為國(guó)際通用語(yǔ)言,一直受到各國(guó)重視。國(guó)內(nèi)對(duì)英語(yǔ)學(xué)習(xí)熱情一直在不斷高漲,各類英語(yǔ)學(xué)習(xí)軟件、平臺(tái)層出不窮[1-2]。但在整個(gè)學(xué)習(xí)過(guò)程中,由于缺乏對(duì)英語(yǔ)口語(yǔ)發(fā)音的評(píng)價(jià)和反饋糾正,導(dǎo)致大部分學(xué)習(xí)中聽說(shuō)能力較弱,難以實(shí)現(xiàn)標(biāo)準(zhǔn)的口語(yǔ)化交流。隨著互聯(lián)網(wǎng)信息技術(shù)的發(fā)展,利用語(yǔ)音識(shí)別技術(shù)來(lái)輔助英語(yǔ)發(fā)音學(xué)習(xí),在一定程度上有效糾正了學(xué)習(xí)者的錯(cuò)誤發(fā)音方式[3],如目前應(yīng)用較為成熟的FLUENCY外語(yǔ)發(fā)音系統(tǒng),EduSpeak語(yǔ)音系統(tǒng)、PLASER語(yǔ)音發(fā)音訓(xùn)練系統(tǒng)等[4-6]。不同的發(fā)音系統(tǒng)提供了語(yǔ)音信號(hào)的識(shí)別捕捉、基于英語(yǔ)發(fā)音的類別劃分、基于語(yǔ)普、時(shí)長(zhǎng)的反饋評(píng)分等,但各類陪平臺(tái)均存在一定的缺陷[7-9]。如FLUENCY采用動(dòng)態(tài)時(shí)間規(guī)整(Dynamic Time Warping DTW)進(jìn)行英語(yǔ)單詞和語(yǔ)句訓(xùn)練識(shí)別,有效降低了匹配運(yùn)算量,但語(yǔ)音發(fā)音中未考慮到單詞間的相似特征,導(dǎo)致發(fā)音評(píng)價(jià)對(duì)比難以實(shí)現(xiàn)[10]。PLASER語(yǔ)音系統(tǒng)基于英語(yǔ)單詞的因素評(píng)分置信度進(jìn)行區(qū)分,導(dǎo)致語(yǔ)音信號(hào)特模糊,難以實(shí)現(xiàn)精準(zhǔn)化匹配,且這些系統(tǒng)主要集中于計(jì)算機(jī)平臺(tái)系統(tǒng),難以實(shí)現(xiàn)當(dāng)前便攜化、及時(shí)化的訓(xùn)練需求[11]?;贏ndroid平臺(tái),在對(duì)語(yǔ)音信號(hào)進(jìn)行處理后,采用美爾倒普系數(shù)(MFCC)和矢量間距離計(jì)算進(jìn)行語(yǔ)音信號(hào)的匹配度計(jì)算,利用生成的發(fā)音共振峰進(jìn)行發(fā)音跟讀質(zhì)量反饋,實(shí)現(xiàn)英語(yǔ)發(fā)音和糾錯(cuò)的定性化。

        1? ?語(yǔ)音信號(hào)識(shí)別和匹配

        1.1? ?語(yǔ)音識(shí)別算法設(shè)計(jì)

        語(yǔ)音識(shí)別是由氣流激勵(lì)聲道產(chǎn)生,本質(zhì)上是讓機(jī)器識(shí)別人的語(yǔ)音[12]。即在一個(gè)極小的時(shí)間段內(nèi),利用語(yǔ)音頻譜等特征量作為定值參數(shù),利用短時(shí)平穩(wěn)信號(hào)處理技術(shù)提取語(yǔ)音信號(hào)中的特征矢量值,與待測(cè)語(yǔ)音特征矢量比較來(lái)實(shí)現(xiàn)語(yǔ)音的對(duì)比識(shí)別。如圖1為典型的語(yǔ)音識(shí)別流程。

        預(yù)處理:相關(guān)研究指出,語(yǔ)音識(shí)別系統(tǒng)中存在的識(shí)別錯(cuò)誤大部分是基于端點(diǎn)檢測(cè)異常引起[13]。同時(shí),現(xiàn)實(shí)學(xué)習(xí)中存在的背景噪音,進(jìn)一步增加了語(yǔ)音信號(hào)端點(diǎn)檢測(cè)的難度。針對(duì) Android平臺(tái)特征,在比較不同端點(diǎn)檢測(cè)法基礎(chǔ)上,采用基于短時(shí)過(guò)零率端點(diǎn)檢測(cè)進(jìn)行語(yǔ)音預(yù)處理。由于濁音能量較低,通過(guò)率低,清音則具有較高的能量,通過(guò)率相對(duì)高,采用短時(shí)過(guò)零率的端點(diǎn)檢測(cè)法能夠較好的判定較為穩(wěn)定的語(yǔ)音段信號(hào)[14]。

        語(yǔ)音信號(hào)特征提?。哼M(jìn)行語(yǔ)音信號(hào)預(yù)處理后,需要提取信號(hào)的特征參數(shù),利用參數(shù)進(jìn)行語(yǔ)音信號(hào)描述方便對(duì)信號(hào)的后續(xù)處理。本系統(tǒng)在比較各類特征參數(shù)提取算法的基礎(chǔ)上,采用美爾倒普系數(shù)(MFCC)[15],如圖2為MFCC參數(shù)提取流程圖。

        首先將初始語(yǔ)音信號(hào)進(jìn)行分幀加窗處理獲得單幀信號(hào)x(n),通過(guò)對(duì)短時(shí)信號(hào)x(n)進(jìn)行傅里葉變換(FFT),獲得線性頻譜X(k),由三角濾波器得到對(duì)數(shù)能量S(i),進(jìn)行離散余弦變換(DCT)得到單幀語(yǔ)音信號(hào)的MFCC特征參數(shù):

        1.2? ?語(yǔ)音信號(hào)模式匹配

        通過(guò)比較待評(píng)價(jià)語(yǔ)音和參考標(biāo)準(zhǔn)語(yǔ)音的特征參數(shù)差距來(lái)表征兩者的相似性。不同語(yǔ)音間的發(fā)音語(yǔ)速、方式差異性較大,傳統(tǒng)的比較法難以進(jìn)行區(qū)分[16]。采用動(dòng)態(tài)規(guī)整(DTW)將測(cè)試模板和參考模板特征矢量的匹配度通過(guò)矢量間距離表示,即對(duì)于特征矢量T(n)和參考模板特征矢量R(m),存在有:

        2? ?發(fā)音反饋評(píng)價(jià)技術(shù)

        2.1? ?發(fā)音評(píng)價(jià)算法

        通過(guò)對(duì)測(cè)試語(yǔ)音模板和標(biāo)準(zhǔn)模板信號(hào)匹配獲得匹配距離Dmin(N,M)作為兩者發(fā)音差異性的度量,建立一個(gè)評(píng)分機(jī)制對(duì)相似度進(jìn)行評(píng)分。由于不同發(fā)音對(duì)應(yīng)的語(yǔ)音幀長(zhǎng)不同,因此,通常采用每幀的平均匹配距離來(lái)比較可靠發(fā)音水平的高低,即:

        式中:N為測(cè)試模板幀長(zhǎng)。發(fā)音反饋評(píng)價(jià)就是要建立起幀平均匹配距離與發(fā)音評(píng)分間的邏輯關(guān)系。本文基于自適應(yīng)(AP)評(píng)價(jià)法來(lái)實(shí)現(xiàn)平均匹配距離與發(fā)音評(píng)分間的邏輯關(guān)系,定義AP評(píng)分算法為:

        式中:x、y為自適應(yīng)函數(shù),通過(guò)系統(tǒng)自適應(yīng)訓(xùn)練生成,具體流程如圖3所示:

        在評(píng)分參數(shù)模塊中,專家根據(jù)學(xué)習(xí)者的若干發(fā)音進(jìn)行經(jīng)驗(yàn)評(píng)分,因此,每一個(gè)發(fā)音所建立的MFCC幀匹配距離都對(duì)應(yīng)一個(gè)專家評(píng)分。即每一個(gè)幀匹配距離與專家評(píng)分?jǐn)?shù)據(jù),滿足關(guān)系:

        式中,x,y為自適應(yīng)函數(shù)。通過(guò)最小二乘曲線擬合獲得[17]。當(dāng)樣本空間越大,則獲得的擬合函數(shù)精度越高??紤]到樣本空間太大影響到平臺(tái)的計(jì)算實(shí)時(shí)性,為簡(jiǎn)化評(píng)分參數(shù)生成過(guò)程,通常選擇最適合的3個(gè)樣本進(jìn)行評(píng)分計(jì)算。

        2.2? ?發(fā)音反饋與口型矯正

        相關(guān)研究表明,元音共振峰的高低與口腔和舌頭出力點(diǎn)存在相互對(duì)應(yīng)關(guān)系[18]。國(guó)際音標(biāo)中,英語(yǔ)發(fā)音共48個(gè)音素,包括20個(gè)元音和28個(gè)輔音。國(guó)人在英語(yǔ)發(fā)音中主要在于元音的發(fā)音。歐美人采用的“后部發(fā)音法”,在發(fā)音過(guò)程中,由口腔后方作為主要發(fā)音位置,發(fā)音較為細(xì)膩。而漢語(yǔ)發(fā)音過(guò)程中主要以口腔前部發(fā)力為主,嘴唇大開大合,舌尖部位靈活,缺乏細(xì)膩感,因而容易產(chǎn)生所謂的“中式英語(yǔ)”。

        人在發(fā)音中,聲道和口腔起共振腔作用,通過(guò)共振腔的濾波作用能夠?qū)崿F(xiàn)聲音能量在不同頻率上的重新分配,在某一頻率聲音得到加強(qiáng)形成共振峰,是發(fā)音信息的主要來(lái)源。對(duì)于英語(yǔ)元音發(fā)音,通常包括3個(gè)共振峰,其中較低頻率共振峰在頻譜上較為明顯,攜帶了語(yǔ)音共振峰的主要特征[19]。而共振峰數(shù)值與口腔形狀和舌位有直接關(guān)系,即舌位越高,共振峰越低,開口度越大[20],因此,系統(tǒng)采用較低頻的共振峰來(lái)判定發(fā)音質(zhì)量。

        為得到發(fā)音共振峰特性,將初始的信號(hào)經(jīng)過(guò)預(yù)處理、DFT變換后,獲得每幀語(yǔ)音頻譜特性。通過(guò)距離計(jì)算獲得語(yǔ)音信號(hào)頻譜包絡(luò),其中獲得的包絡(luò)最大值即是語(yǔ)音最高共振峰[21],如圖4中F1即元音第一共振峰。

        在語(yǔ)音信號(hào)處理時(shí),對(duì)于每幀語(yǔ)音,在短時(shí)間內(nèi)可以看作是短時(shí)平穩(wěn)信號(hào),每幀的發(fā)音對(duì)應(yīng)的口型和舌位是一定的,不同幀段的共振峰具有唯一性,反應(yīng)了發(fā)音過(guò)程中口型和舌尖的變化。在Android平臺(tái)可采用發(fā)音共振峰對(duì)比圖反應(yīng)整個(gè)發(fā)音口型變化,若代表標(biāo)準(zhǔn)參考發(fā)音和測(cè)試發(fā)音所形成的共振波折線重合度越高,則發(fā)音越準(zhǔn)確。若學(xué)習(xí)中發(fā)音的共振峰偏高于標(biāo)準(zhǔn)參考發(fā)音,則根據(jù)共振峰的發(fā)音口型和舌位置關(guān)系,學(xué)習(xí)者可減小口型,抬高舌位來(lái)糾正發(fā)音。

        3? ?系統(tǒng)的設(shè)計(jì)與實(shí)現(xiàn)

        3.1? ?開發(fā)環(huán)境

        基于Anroid平臺(tái)實(shí)現(xiàn)軟件開發(fā),實(shí)現(xiàn)語(yǔ)音跟讀、發(fā)音對(duì)比和評(píng)分、反饋一系列功能。系統(tǒng)運(yùn)行環(huán)境如下:

        PC操作系統(tǒng):Windows XP

        開發(fā)軟件/硬件環(huán)境:Android 0S 4.0/Andorid智能手機(jī);

        編程語(yǔ)言:Java

        開發(fā)組件:JDK6;Andorid SDK1.8

        3.2? ?功能應(yīng)用

        通過(guò)系統(tǒng)功能分析,確定四大功能模塊,分別為:視頻播放、語(yǔ)音錄入、發(fā)音評(píng)分、發(fā)音共振圖像顯示四大功能模塊。其中系統(tǒng)所有界面,均采用擴(kuò)展活動(dòng)(Activity)實(shí)現(xiàn)。

        如圖5為系統(tǒng)主界面圖。其中包括音標(biāo)、單詞的發(fā)聲練習(xí)等快捷按鈕,單擊菜單欄按鈕會(huì)跳轉(zhuǎn)至相應(yīng)的功能界面,同時(shí),“幫助”按鈕會(huì)彈出系統(tǒng)幫助窗口。

        評(píng)分參數(shù)自適應(yīng)作為系統(tǒng)特色,點(diǎn)擊“評(píng)分自適應(yīng)”菜單欄便會(huì)跳轉(zhuǎn)至自適應(yīng)訓(xùn)練界面。系統(tǒng)根據(jù)每次發(fā)音的幀匹配距離與專家打分生成自適應(yīng)參數(shù),提高評(píng)分函數(shù)準(zhǔn)確性和自適應(yīng)能力。點(diǎn)擊“發(fā)音跟讀”按鈕,系統(tǒng)將示范音頻和錄入音頻對(duì)比。點(diǎn)擊“圖像參考”按鈕,后臺(tái)指令調(diào)用相關(guān)語(yǔ)音識(shí)別算法,顯示錄制發(fā)音和標(biāo)準(zhǔn)發(fā)音共振峰對(duì)比圖形,用戶可根據(jù)共振圖來(lái)進(jìn)行發(fā)音糾正。點(diǎn)擊“專家評(píng)分”按鈕,系統(tǒng)計(jì)算幀的匹配距離,并顯示在評(píng)分對(duì)話框中。對(duì)話中中設(shè)置了一個(gè)EditText空間來(lái)負(fù)責(zé)獲取專家打分?jǐn)?shù)據(jù),并在AlertDialog中建立“生成評(píng)分函數(shù)”,用戶可點(diǎn)擊提交,也可以恢復(fù)默認(rèn)評(píng)分函數(shù),重新進(jìn)行錄音比對(duì)。

        本系統(tǒng)中還提供了單詞發(fā)音練習(xí),當(dāng)進(jìn)入單詞發(fā)音練習(xí)集界面后,點(diǎn)擊“發(fā)音跟讀”錄入發(fā)音,點(diǎn)擊“發(fā)音對(duì)比”進(jìn)行比對(duì),點(diǎn)擊“發(fā)音評(píng)價(jià)”,系統(tǒng)根據(jù)評(píng)分算法進(jìn)行評(píng)分,并將成績(jī)顯示在發(fā)音成績(jī)窗口,也可在成績(jī)窗口點(diǎn)擊“查看共振峰圖”按鈕,方便用戶進(jìn)行發(fā)音比較和口音糾正。

        4? ?結(jié)? ?論

        針對(duì)語(yǔ)音識(shí)別技術(shù),討論了語(yǔ)音評(píng)分和語(yǔ)音糾正算法。并基于Android平臺(tái)研發(fā)了一款包括語(yǔ)音跟讀、語(yǔ)音評(píng)價(jià)和語(yǔ)音糾正的多功能語(yǔ)音訓(xùn)練系統(tǒng),實(shí)現(xiàn)對(duì)語(yǔ)音學(xué)習(xí)的智能化、便攜化。研究的主要成果:

        (1)基于AP評(píng)分方法將發(fā)音評(píng)分和反饋糾錯(cuò)模塊置于同一系統(tǒng)中生成自適應(yīng)參數(shù)進(jìn)行發(fā)音評(píng)分。根據(jù)發(fā)音工作峰和口型的關(guān)系建立發(fā)音共振峰對(duì)比圖實(shí)現(xiàn)發(fā)音跟讀質(zhì)量反饋,進(jìn)行定性化的發(fā)音口型糾正。

        (2)通過(guò)Android平臺(tái)開發(fā)建立發(fā)音評(píng)價(jià)和反饋的英語(yǔ)發(fā)音訓(xùn)練系統(tǒng),進(jìn)行發(fā)音跟讀、發(fā)音比對(duì)、發(fā)音評(píng)分和糾錯(cuò)多功能應(yīng)用,實(shí)現(xiàn)語(yǔ)音發(fā)音學(xué)習(xí)的智能化、實(shí)時(shí)性和便攜化。

        參考文獻(xiàn)

        [1]? ? 景亞鵬,鄭駿,胡文心. 基于深層神經(jīng)網(wǎng)絡(luò)(DNN)的漢語(yǔ)方言種屬語(yǔ)音識(shí)別[J]. 華東師范大學(xué)學(xué)報(bào)(自然科學(xué)版),2014(01):60-67.

        [2]? ? 李春蘭. 英語(yǔ)口語(yǔ)自動(dòng)發(fā)音校對(duì)系統(tǒng)設(shè)計(jì)[J]. 現(xiàn)代電子技術(shù),2017,40(24):59-61.

        [3]? ? 袁里馳. 基于改進(jìn)的隱馬爾科夫模型的語(yǔ)音識(shí)別方法[J]. 中南大學(xué)學(xué)報(bào)(自然科學(xué)版),2008,39(06):1303-1308.

        [4]? ? 吳延占. 基于HMM與遺傳神經(jīng)網(wǎng)絡(luò)的改進(jìn)語(yǔ)音識(shí)別系統(tǒng)[J]. 計(jì)算機(jī)系統(tǒng)應(yīng)用,2016,25(01):204-208.

        [5]? ? 戴禮榮,張仕良,黃智穎. 基于深度學(xué)習(xí)的語(yǔ)音識(shí)別技術(shù)現(xiàn)狀與展望[J]. 數(shù)據(jù)采集與處理,2017,32(02):221-231.

        [6]? ? 金曉宏. 基于隱馬爾可夫模型的英語(yǔ)口語(yǔ)考試智能評(píng)分系統(tǒng)[J]. 內(nèi)蒙古師范大學(xué)學(xué)報(bào)(自然科學(xué)漢文版),2017,46(03):386-389.

        [7]? ? 王曉斌,倪傳斌. 神經(jīng)認(rèn)知體系的構(gòu)建——基于二語(yǔ)語(yǔ)音識(shí)別的研究[J]. 南京師大學(xué)報(bào)(社會(huì)科學(xué)版),2012(02):116-122.

        [8]? ? 劉健剛,馬冬梅,趙力. 英語(yǔ)口語(yǔ)機(jī)考評(píng)分系統(tǒng)除噪處理的研究[J]. 中國(guó)科技論文,2012,7(04):302-307.

        [9]? ? 李艷玲,顏永紅. 多特征融合的英語(yǔ)口語(yǔ)考試自動(dòng)評(píng)分系統(tǒng)的研究[J]. 電子與信息學(xué)報(bào),2012,34(09):2097-2102.

        [10]? 陳妍,邱小軍. 母語(yǔ)為漢語(yǔ)的聽者聽英語(yǔ)時(shí)的空間去掩蔽現(xiàn)象研究[J]. 聲學(xué)學(xué)報(bào),2011,36(02):231-238.

        [11]? 梁青青,楊鴻武. 基于語(yǔ)音識(shí)別和語(yǔ)速修改的語(yǔ)音復(fù)讀系統(tǒng)[J]. 計(jì)算機(jī)工程,2011,37(05):288-290.

        [12]? 趙博,檀曉紅. 基于語(yǔ)音識(shí)別技術(shù)的英語(yǔ)口語(yǔ)教學(xué)系統(tǒng)[J]. 計(jì)算機(jī)應(yīng)用,2009,29(03):761-763.

        [13]? 馮楚瀅,司徒國(guó)強(qiáng),倪瑋隆. 協(xié)同深度學(xué)習(xí)推薦算法研究[J]. 計(jì)算機(jī)系統(tǒng)應(yīng)用,2019,28(01):169-175.

        [14]? 王國(guó)梁,梁維謙. 嵌入式中等詞匯量英語(yǔ)語(yǔ)音識(shí)別片上系統(tǒng)[J]. 清華大學(xué)學(xué)報(bào)(自然科學(xué)版),2005(10):99-102.

        [15]? 吳蔚瀾,蔡猛. 低數(shù)據(jù)資源條件下基于Bottleneck特征與SGMM模型的語(yǔ)音識(shí)別系統(tǒng)[J]. 中國(guó)科學(xué)院大學(xué)學(xué)報(bào),2015,32(01):97-102.

        [16]? 張文林,牛銅,屈丹,等. 基于聲學(xué)特征空間非線性流形結(jié)構(gòu)的語(yǔ)音識(shí)別聲學(xué)模型[J]. 自動(dòng)化學(xué)報(bào),2015,41(05):1024-1033.

        [17]? 許金喜,張新有. Android平臺(tái)基于MQTT協(xié)議的推送機(jī)制[J].? 計(jì)算機(jī)系統(tǒng)應(yīng)用,2015,24(01):185-190.

        [18]? 王山海,景新幸. 基于深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)的孤立詞語(yǔ)音識(shí)別的研究[J]. 計(jì)算機(jī)應(yīng)用研究,2015,32(08):2289-2291.

        [19]? 張晴晴,劉勇紅. 基于卷積神經(jīng)網(wǎng)絡(luò)的連續(xù)語(yǔ)音識(shí)別[J]. 工程科學(xué)學(xué)報(bào),2015,37(09):1212-1217.

        [20]? 田莎莎,唐菀,佘緯. 改進(jìn)MFCC參數(shù)在非特定人語(yǔ)音識(shí)別中的研究[J]. 科技通報(bào),2013,29(03):139-142.

        [21]? 白靜,楊利紅,張雪英. 一種面向語(yǔ)音識(shí)別的抗噪SVM參數(shù)優(yōu)化方法[J]. 中南大學(xué)學(xué)報(bào)(自然科學(xué)版),2013,44(02):604-611.

        猜你喜歡
        英語(yǔ)語(yǔ)音語(yǔ)音識(shí)別
        微課環(huán)境下英語(yǔ)語(yǔ)音教學(xué)新模式探索
        東方教育(2016年12期)2017-01-12 19:39:32
        通話中的語(yǔ)音識(shí)別技術(shù)
        少數(shù)民族預(yù)科英語(yǔ)語(yǔ)音課程建設(shè)研究
        東方教育(2016年4期)2016-12-14 21:19:34
        關(guān)于大學(xué)英語(yǔ)語(yǔ)音的語(yǔ)用研究
        語(yǔ)音層面英語(yǔ)歧義及其消解淺析
        考試周刊(2016年60期)2016-08-23 06:54:26
        面向移動(dòng)終端的語(yǔ)音簽到系統(tǒng)
        非英語(yǔ)專業(yè)大學(xué)生英語(yǔ)連讀習(xí)得狀況研究
        考試周刊(2016年28期)2016-05-27 08:48:14
        英語(yǔ)語(yǔ)音教學(xué)方法的實(shí)踐與研究
        成才之路(2016年9期)2016-04-15 10:42:43
        農(nóng)業(yè)物聯(lián)網(wǎng)平臺(tái)手機(jī)秘書功能分析與實(shí)現(xiàn)
        基于LD3320的非特定人識(shí)別聲控?zé)粝到y(tǒng)設(shè)計(jì)
        国产乱精品女同自线免费| 国模无码视频专区一区| 天堂网av在线| 国产日产韩国级片网站| 成人国成人国产suv| 性高朝久久久久久久| 国产熟女精品一区二区三区| 亚洲一区二区三区高清视频| 日韩精品熟妇一区二区三区| 欧美人和黑人牲交网站上线| 亚洲综合免费| 日韩av最新在线地址| 精品亚洲麻豆1区2区3区| 久久中文精品无码中文字幕下载| 91伊人久久| av免费在线观看在线观看| 国产精品国产三级国产av品爱| 国产成人精品电影在线观看 | 456亚洲人成影视在线观看| 亚洲一区二区女优av| 亚洲不卡高清av网站| 午夜毛片不卡免费观看视频| 午夜一级在线| 美女福利视频网址导航| 日本少妇高潮喷水视频| 黑人玩弄人妻中文在线| 久久久精品免费国产四虎| 少妇被粗大猛进进出出男女片| 久久精品国产亚洲av麻豆图片| 懂色av一区二区三区尤物| 99久久精品国产一区二区三区| 久久无码精品精品古装毛片| 久久综合加勒比东京热| 精品无码久久久久久久久水蜜桃| 精品亚洲成a人在线观看青青 | 国产av色| 免费看黄片的视频在线观看| 久久精品人妻无码一区二区三区| 18禁超污无遮挡无码免费游戏| 欧美精品久久久久久三级| 国产高潮迭起久久av|