亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于深度神經(jīng)網(wǎng)絡(luò)的噪聲環(huán)境下對話行為分類模型

        2021-04-07 06:29:00申屠相镕秦會斌
        測控技術(shù) 2021年3期
        關(guān)鍵詞:語義分類模型

        申屠相镕, 秦會斌

        (杭州電子科技大學(xué) 新型電子器件與應(yīng)用研究所,浙江 杭州 310018)

        在現(xiàn)代化的腳步不斷向前邁進(jìn)的今天,人們對于計算機的依賴程度與日俱增,如何用計算機方法來處理人類的自然語言也成了熱門的研究內(nèi)容。對話行為分類是實現(xiàn)與數(shù)據(jù)庫的自然語言對接的一項重要任務(wù),因為說話者的意圖可以用對話行為(與語境無關(guān)的語義和依賴于語境的謂語)[1]來表示。

        為了解決對話行為分類中的模糊問題,過去20年來學(xué)者們提出了各種機器學(xué)習(xí)模型。文獻(xiàn)[2]研究了稀疏建模方法來改善對話行為分類,提出稀疏對數(shù)線性模型,相對于基于規(guī)則的基線模型獲得了19.7%的相對改善,并且超過了先進(jìn)的支持向量機(Support Vector Machines,SVM)模型2.2%。文獻(xiàn)[3]研究了多核SVM模型來處理對話行為識別問題,提出了一種改進(jìn)的多核SVM模型并在一些開放分類任務(wù)和中文對話行為識別任務(wù)上進(jìn)行測試。文獻(xiàn)[4]研究了對話法分類,提出了一種新的生成神經(jīng)網(wǎng)絡(luò)體系結(jié)構(gòu),在循環(huán)神經(jīng)網(wǎng)絡(luò)框架的基礎(chǔ)上結(jié)合了一種新的注意技術(shù)和序列學(xué)習(xí)的標(biāo)簽-標(biāo)簽連接。文獻(xiàn)[5]證明使用高斯過程(Gaussian Process,GP)的貝葉斯優(yōu)化超參數(shù)可進(jìn)一步改進(jìn)結(jié)果,并且縮短計算時間。文獻(xiàn)[6]對使用提示短語作為對話行為分類的基礎(chǔ)進(jìn)行了調(diào)查,通過提示短語來定義含義,并描述如何從手動標(biāo)記的對話語料庫中提取它們。但以上文獻(xiàn)均采用實驗室環(huán)境中純凈的原始語音作為測試樣本,實際的對話環(huán)境中常常存在噪聲的干擾,因此需要建立一個能夠有效應(yīng)對噪聲環(huán)境的對話行為分類模型。

        本文提出了一個使用快速噪聲估計譜減法、卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)和長短期記憶(Long-Short Term Memory,LSTM)網(wǎng)絡(luò)的對話行為分類模型。該模型先將原始話語進(jìn)行語音增強,再通過使用卷積神經(jīng)網(wǎng)絡(luò)將輸入話語概括為嵌入向量,然后通過基于長短期記憶網(wǎng)絡(luò)的上下文信息關(guān)聯(lián),使用對話行為標(biāo)簽來標(biāo)注話語序列。在測試階段,將分別用文獻(xiàn)[2]與文獻(xiàn)[4]的算法對包含噪聲的語音樣本進(jìn)行測試并對比結(jié)果。

        1 基于快速噪聲估計的譜減法

        快速噪聲估計頻譜相減的基本原理是在短期平穩(wěn)語音信號和加性噪聲之間彼此獨立的假設(shè)前提下,將噪聲的功率譜從包含噪聲的語音功率譜中減去,從而得到更加純凈的語音頻譜[7]。假設(shè)s(n)是純語音信號,d(n)是噪音信號,y(n)是包含噪音的語音信號,那么可以得到以下表達(dá)式:

        y(n)=s(n)+d(n)

        (1)

        Y(k),S(k)和D(k)分別表示y(n),s(n)和d(n)的離散傅里葉變換結(jié)果,如下所示:

        Y(k)=S(k)+D(k)

        (2)

        (3)

        由于噪聲信號與語音信號是彼此獨立的,而且D(k)是服從E(D(k))的高斯分布,所以可以得到以下等式:

        (4)

        對于一個具有短時靜止特性的語音信號來說,可以得到:

        (5)

        (6)

        式中,|S(k)|為增強后的語音信號幅度。

        在語音頻譜中第k個頻譜分量的增益函數(shù)定義為

        (7)

        并且后驗信噪比的定義為

        (8)

        所以可以得到:

        (9)

        值得注意的是,當(dāng)γ(k)>1且G(k)<0時,方程將變得無意義。為了避免這種情況,不妨進(jìn)行以下改寫:

        (10)

        式中,ε為一個大于0的常數(shù)。

        從以上方程中可以得出, 頻譜相減的本質(zhì)是給噪聲的每個含有噪聲的頻譜分量乘以一個系數(shù)G(k),G(k)的值與噪聲呈正相關(guān)。在高信噪比的情況下有效語音信號的比重較大而噪聲占比較小,因此G(k)是較小的。而在低信噪比的情況下G(k)較大。通過式(1)~式(3)將包含噪聲的語音信號進(jìn)行快速傅里葉變換,再通過式(4)~式(6)完成噪聲參數(shù)估值,通過式(7)~式(10)可以計算獲得語音增強后的增益,最后通過快速傅里葉逆變換即可得到增強后的語音信號,具體的流程框圖如圖1所示。

        圖1 快速噪聲估計頻譜相減的結(jié)構(gòu)圖

        2 基于CNN和LSTM的語音分類模型

        為了處理增強后的語音信號,筆者提出了一個使用卷積神經(jīng)網(wǎng)絡(luò)[8]和長短期記憶網(wǎng)絡(luò)[9]的語音識別模型。模型利用卷積神經(jīng)網(wǎng)絡(luò)將輸入話語轉(zhuǎn)化為嵌入向量,然后利用基于長短期記憶神經(jīng)網(wǎng)絡(luò)的上下文信息匹配法對話語行為標(biāo)簽和話語行為序列進(jìn)行注釋。

        設(shè)C1,n為一個包含n個對話的對話集,設(shè)S1,n為對話集內(nèi)的一個語義,P1,n是一個包含了C1,n中謂語的集合。從而可以建立以下公式:

        DA(C1,n)=argmaxS1.n,P1,nP(S1,n,P1,n|C1,n)

        (11)

        可以假設(shè)一句話的語義和一個謂語是相互獨立的[10]?;谶@個假設(shè),將式(11)簡化為

        DA(C1,n)=argmaxS1.n,P1,nP(S1,n|C1,n)P(P1,n|C1,n)

        (12)

        式(12)又可以通過以下兩個假設(shè)簡化為式(13):

        ① 一階馬爾可夫假設(shè),即當(dāng)前類別(即當(dāng)前語義或當(dāng)前謂詞)依賴于前一類別(即先前的語義或先前的謂語);

        ② 條件獨立假設(shè),即當(dāng)前類別僅依賴于當(dāng)前話語的觀察信息。

        (13)

        在式(13)中,由于說話人在真實對話中根據(jù)個人語言意義使用各種句子表面形式表達(dá)相同的內(nèi)容,所以不可以直接計算P(Si|Ci)和P(Pi|Ci)。為了克服這個問題,本文使用CNN模型將說話人的話語概括為嵌入向量,如圖2所示。

        圖2 使用CNN的語言嵌入

        (14)

        為了獲得最大化方程(14)的序列標(biāo)簽S1,n和P1,n,本文采用LSTM模型,如圖3所示。

        圖3 使用LSTM進(jìn)行序列標(biāo)記

        3 實驗與仿真

        為了進(jìn)行實驗,測試人員收集了例如行程安排、日?;顒?、娛樂交際等方面的中文日常對話并加入初始語料庫中[14]。通過刪除初始語料庫中日常對話的感嘆詞和錯誤表達(dá)來獲得對話語料庫。在對話中,一位參與者作為一個“用戶”,隨便地詢問另一位參與者關(guān)于其每天的日程安排的問題,另一位參與者擔(dān)任回答問題的“系統(tǒng)”,使用初始語料庫提前提供的信息進(jìn)行回答。共有4名測試人員扮演“系統(tǒng)”的角色。

        獲得的對話語料庫由956組對話和21336句話語組成(每個對話22.3句話語)。用語義(11種)和預(yù)測(47種)在對話中手動注釋每句話語。為了使用所提出的模型進(jìn)行實驗,將注釋的語料庫分成訓(xùn)練語料庫和測試語料庫,比例為9∶1,然后進(jìn)行10倍交叉驗證。

        采用4種評估方法:準(zhǔn)確率(Accuracy)、宏觀精確率(Macro Precision)、宏觀召回率(Macro Recall)和宏觀F1度量(Macro F1-Measure)來評估所提出模型的性能。準(zhǔn)確率是返回正確值的比例;宏觀精確率是每個類別返回的正確值的平均比例;宏觀召回率是每個類別正確返回值的平均比例;宏觀F1度量將宏觀精度和宏觀召回率與以下形式的等量加權(quán)相結(jié)合:F1=(2.0×宏觀精確率×宏觀召回率)/(宏觀精確率+宏觀召回率)。

        本文使用TensorFlow 1.4.0來實現(xiàn)模型訓(xùn)練,訓(xùn)練和預(yù)測都是以句子為最小單位完成的。將圖3中每個Word2Vec嵌入向量的大小設(shè)置為50,訓(xùn)練長度為300個周期。通過小批量隨機梯度下降法來尋找最佳模型,每個小批量包含15個句子,學(xué)習(xí)率固定為0.001。

        測試用的實驗電路由以下模塊組成:輸入前置放大器、增益調(diào)節(jié)為0~40 dB的校準(zhǔn)電路、步進(jìn)為5 dB的線性輸出衰減器,以及范圍為0~100 dB的SPL、50 Wclass-T數(shù)字功率放大器、PIC18F2550微控制器、一個2行×20個字符的顯示器和一個鍵盤。

        測試環(huán)境中包含兩個位于45°處(測試人員的左側(cè)和右側(cè))的麥克風(fēng)和一個位于測試人員180°用于產(chǎn)生競爭噪聲的揚聲器,在兩側(cè)的麥克風(fēng)處各放置一個錄音設(shè)備,將測試人員發(fā)出的自然語言錄下,用以分析。具體如圖4所示。

        圖4 測試環(huán)境

        識別測試包含3種情況:

        ① 無噪聲環(huán)境下的語句列表;

        ② 信噪比為0 dB噪聲環(huán)境下的語句列表;

        ③ 信噪比為5 dB噪聲環(huán)境下的語句列表。

        將1號麥克風(fēng)收集到的語音信號經(jīng)過處理后輸入給本文提出的語言分類模型,將2號麥克風(fēng)收集到的語音信號經(jīng)過處理后輸入給先前文獻(xiàn)的模型。對無噪聲(對照)的測試結(jié)果與噪聲在0 dB和5 dB比率下的準(zhǔn)確率、宏觀精確率、宏觀召回率和宏觀F1度量進(jìn)行分析和比較。

        4 結(jié)果分析

        實驗中的講話部分在安靜的環(huán)境中用麥克風(fēng)記錄,內(nèi)容是“我下午去跑步”。通過16 ms采樣的PCM編碼將語音定量為數(shù)字信號,數(shù)據(jù)長度為12000 bit。得到了輸入信噪比(0 dB和5 dB)與高斯白噪聲成比例混合的噪聲語音,然后利用128 bit交替的256 bit長(16 ms)漢明窗函數(shù)得到256 bit長的語音幀。在實驗中分別采用普通譜減法與基于快速噪聲估計的譜減法得到的降噪語音,比較模擬結(jié)果如圖5和圖6所示。

        圖5 輸入信噪比為0 dB的信號時的模擬結(jié)果

        圖6 輸入信噪比為5 dB的信號時的模擬結(jié)果

        與普通譜減法相比,基于快速噪聲估計的譜減法顯著提高了語音質(zhì)量。它可以在背景噪音抑制中獲得好的結(jié)果。它具有易于實施和計算量少的優(yōu)點。該算法能夠很好地估計非平穩(wěn)環(huán)境下的噪聲功率譜。

        通過使用相同的訓(xùn)練和測試語料庫比較不同信噪比的噪聲環(huán)境對本模型性能的影響,結(jié)果如圖7和圖8所示。

        圖7 模型在不同噪聲環(huán)境下語義分類的表現(xiàn)

        圖8 模型在不同噪聲環(huán)境下謂語分類的表現(xiàn)

        在圖7所示的語義分類中,噪聲對宏觀召回率的影響比較大,無噪聲與5 dB信噪比環(huán)境之間產(chǎn)生了0.019的概率差,但在準(zhǔn)確率方面噪聲對模型產(chǎn)生的影響較小。圖8所示的謂語分類結(jié)果則表現(xiàn)出模型具有較強的抗噪聲能力,0 dB信噪比環(huán)境對模型產(chǎn)生的影響很微小,而在5 dB信噪比環(huán)境下也有較好的表現(xiàn)。

        在0 dB信噪比環(huán)境下使用相同的訓(xùn)練和測試語料庫將本文提出的模型與先前的模型進(jìn)行比較。圖9和圖10顯示了本文提出的模型和以前的模型之間的性能差異。

        在圖9中,文獻(xiàn)[3]提出的模型是一個基于SVM的模型,其中最佳特征用于言語行為分類。在圖9和圖10中,文獻(xiàn)[2]提出的模型是一個基于SVM的分類模型,其中通過使用相互再訓(xùn)練方法增加了語義識別和謂語識別的性能。文獻(xiàn)[4]提出的模型是一個基于神經(jīng)網(wǎng)絡(luò)的綜合模型,其中謂語識別的結(jié)果被用作語義識別的輸入。如圖9和圖10所示,所提出的模型表現(xiàn)出比以前的模型更好的性能,并且沒有進(jìn)行任何特征工程。此外,本文提出的模型雖然沒有采用任何二次訓(xùn)練方法來緩解語義與謂語之間的獨立性假設(shè),但其表現(xiàn)優(yōu)于文獻(xiàn)[2]提出的模型。這一結(jié)果顯示出所提出的CNN體系結(jié)構(gòu)(即與公共節(jié)點的部分連接)為緩解獨立性假設(shè)提供了一些幫助。

        圖9 0 dB噪聲環(huán)境下語義分類的表現(xiàn)比較

        圖10 0 dB噪聲環(huán)境下謂語分類的表現(xiàn)比較

        5 結(jié)束語

        本文為對話行為分類提出了一種深度神經(jīng)網(wǎng)絡(luò)模型。所提出的模型使用基于快速噪聲估計的譜減法來進(jìn)行語音增強;使用基于CNN的新的語言嵌入方法,以緩解語義和謂語之間的獨立性假設(shè);使用基于LSTM的序列標(biāo)注方法來標(biāo)注話語序列。在中文日常對話語料庫的實驗中,本文提出的模型在沒有進(jìn)行任何特征工程和二次訓(xùn)練的情況下,表現(xiàn)出了優(yōu)于先前文獻(xiàn)所提出模型的性能。

        猜你喜歡
        語義分類模型
        一半模型
        分類算一算
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權(quán)M-估計的漸近分布
        語言與語義
        分類討論求坐標(biāo)
        數(shù)據(jù)分析中的分類討論
        教你一招:數(shù)的分類
        3D打印中的模型分割與打包
        “上”與“下”語義的不對稱性及其認(rèn)知闡釋
        国产免费av片在线播放| 99久久婷婷国产精品综合| 国产一区高清在线观看| 特黄特色的大片观看免费视频| 一本大道香蕉最新在线视频| 久久久诱惑一区二区三区| 国产精品大片一区二区三区四区| 中国老熟妇506070| 国产成人+亚洲欧洲+综合| 国产激情一区二区三区在线蜜臀| 亚洲av色福利天堂久久入口| 比较有韵味的熟妇无码| 日本夜爽爽一区二区三区| 精品久久免费一区二区三区四区| 东北老熟女被弄的嗷嗷叫高潮| 亚洲字幕av一区二区三区四区| 久久久久99精品成人片试看| 国产在线精品亚洲视频在线 | 中文字幕亚洲入口久久| 无码人妻aⅴ一区二区三区| 7777精品久久久大香线蕉| 亚洲国产免费公开在线视频| 精品国产精品三级在线专区| 91亚洲国产成人精品一区.| 国产二级一片内射视频播放| 国产精品美女久久久久久2018| 偷拍激情视频一区二区| 国产亚洲成人精品久久| 日韩人妻无码精品-专区| 午夜精品一区二区三区无码不卡 | 日韩熟女系列中文字幕| 人人澡人人澡人人看添av| 狠狠丁香激情久久综合| 有码视频一区二区三区| 国产精品精品自在线拍| 在线a免费观看| 综合图区亚洲偷自拍熟女| 日韩经典午夜福利发布| 亚洲精品国产成人无码区a片| 日本成熟妇人高潮aⅴ| 亚洲av手机在线网站|