亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        高噪聲環(huán)境下的生成對(duì)抗網(wǎng)絡(luò)人機(jī)語(yǔ)音增強(qiáng)技術(shù)

        2019-10-18 09:43:57張敬敏程倩倩李立欣岳曉奎
        移動(dòng)通信 2019年8期

        張敬敏 程倩倩 李立欣 岳曉奎

        【摘? 要】在復(fù)雜環(huán)境下,傳統(tǒng)的語(yǔ)音增強(qiáng)技術(shù)存在泛化能力弱、性能表現(xiàn)不足等缺點(diǎn)。近年來(lái),生成對(duì)抗網(wǎng)絡(luò)技術(shù)在語(yǔ)音信號(hào)處理領(lǐng)域有著重大突破。通過(guò)改進(jìn)傳統(tǒng)的生成對(duì)抗網(wǎng)絡(luò)模型,提出了基于深度完全卷積生成對(duì)抗網(wǎng)絡(luò)的高噪聲環(huán)境下人機(jī)語(yǔ)音增強(qiáng)方法。該方法將語(yǔ)音信號(hào)語(yǔ)譜圖作為生成器輸入,判別器根據(jù)純凈語(yǔ)音信號(hào)指導(dǎo)生成器生成高質(zhì)量的語(yǔ)音信號(hào),濾除噪聲信號(hào)。實(shí)驗(yàn)表明,通過(guò)語(yǔ)譜圖和客觀質(zhì)量評(píng)分評(píng)估,可以發(fā)現(xiàn)所提方法可以明顯改善語(yǔ)音質(zhì)量,減少語(yǔ)音失真,增強(qiáng)系統(tǒng)的魯棒性。

        【關(guān)鍵詞】生成對(duì)抗網(wǎng)絡(luò);深度全連接卷積神經(jīng)網(wǎng)絡(luò);語(yǔ)音增強(qiáng)

        doi:10.3969/j.issn.1006-1010.2019.08.003? ? ? 中圖分類號(hào):TN929.5

        文獻(xiàn)標(biāo)志碼:A? ? ? 文章編號(hào):1006-1010(2019)08-0014-07

        引用格式:張敬敏,程倩倩,李立欣,等. 高噪聲環(huán)境下的生成對(duì)抗網(wǎng)絡(luò)人機(jī)語(yǔ)音增強(qiáng)技術(shù)[J]. 移動(dòng)通信, 2019,43(8): 14-20.

        The traditional speech enhancement technologies have the disadvantages of weak generalization ability and insufficient performance in complex environments. In recent years, generative adversarial networks (GAN) have a very promising future in the field of speech enhancement. Therefore, this paper proposes a human-machine speech enhancement technology based on deep full convolutional generative adversarial networks (DFCNN-GAN) by significantly improving the traditional GAN model. Specifically, the proposed method uses the speech spectrum of the speech signals as an input of the generator, and the discriminator guides the generator to generate a high-quality speech signal according to clean speech signal. Through evaluating the spectrogram and objective quality score, experiments show that the proposed method can improve the speech quality significantly, reduce the speech distortion, and enhance the robustness of the system.

        generative adversarial networks; deep full connected convolutional neural networks; speech enhancement

        1? ?引言

        人機(jī)交互語(yǔ)音信號(hào)會(huì)受到周圍環(huán)境的影響,從而混雜有各種各樣的干擾噪聲,尤其是在高噪聲環(huán)境下,人機(jī)語(yǔ)音信號(hào)的可讀性與可懂性將嚴(yán)重受到影響,大大降低了智能語(yǔ)音系統(tǒng)的性能。因此,需要對(duì)含噪語(yǔ)音信號(hào)進(jìn)行增強(qiáng)處理,方便后續(xù)的語(yǔ)音識(shí)別技術(shù)處理。語(yǔ)音增強(qiáng)的目的就是最大化地去掉信號(hào)中含有的干擾噪聲,改善含噪語(yǔ)音質(zhì)量?,F(xiàn)如今,語(yǔ)音增強(qiáng)的應(yīng)用范圍十分廣泛,比如軍事通信、竊聽技術(shù)和語(yǔ)音識(shí)別等[1]。然而,由于噪聲具有隨機(jī)性、多樣性和不穩(wěn)定性,找到適用于多種環(huán)境的語(yǔ)音增強(qiáng)技術(shù)是十分困難的。如何提高語(yǔ)音信號(hào)增強(qiáng)模型的泛化能力,是現(xiàn)如今的工作重點(diǎn)之一。

        本文提出了一種基于深度完全卷積生成對(duì)抗網(wǎng)絡(luò)

        (Deep Fully Convolutional Neural Network - Generative Adversarial Networks, DFCNN-GAN)框架來(lái)增強(qiáng)高噪聲環(huán)境下的語(yǔ)音信號(hào)。具體地說(shuō),用DFCNN結(jié)構(gòu)代替卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks, CNN)作為GAN的生成器(Generator, G)結(jié)構(gòu),提高了CNN表達(dá)能力。該框架不需要任何前端處理,采用端到端結(jié)構(gòu)自動(dòng)提取語(yǔ)音特征,可以簡(jiǎn)化整個(gè)系統(tǒng)結(jié)構(gòu)。

        2? ?研究背景

        2.1? 語(yǔ)音增強(qiáng)方法

        在傳統(tǒng)的語(yǔ)音增強(qiáng)方法中,通常需要對(duì)信號(hào)進(jìn)行頻域或時(shí)域變換,估計(jì)噪聲信號(hào)的能量信息,然后預(yù)測(cè)有用信號(hào)的分布。經(jīng)典的語(yǔ)音增強(qiáng)方法有譜減法[2]、維納濾波[3]、小波變換[4]等。具體而言,譜減法是假設(shè)含噪語(yǔ)音信號(hào)中只有假性噪聲,然后從含噪語(yǔ)音信號(hào)的功率譜中減去估計(jì)噪聲的功率譜,從而得到純凈語(yǔ)音信號(hào)。然而,該方法也有著顯著的缺點(diǎn),如被稱之為“音樂(lè)噪聲”的殘余噪聲存在,在功率譜上呈現(xiàn)出一個(gè)個(gè)的小尖峰,影響著語(yǔ)音信號(hào)的質(zhì)量。維納濾波法(Wiener Filtering)是指設(shè)計(jì)一個(gè)最優(yōu)數(shù)字濾波器,根據(jù)均方誤差最小準(zhǔn)則,最小化輸出期望的均方誤差,濾除噪聲等無(wú)用信號(hào)。但是維納濾波法不適用于噪聲為非平穩(wěn)隨機(jī)信號(hào)的情形,因此,維納濾波法很難在實(shí)際中得到廣泛應(yīng)用。小波變換法是根據(jù)有用信號(hào)與噪聲信號(hào)對(duì)應(yīng)的小波系數(shù)的不同來(lái)達(dá)到語(yǔ)音增強(qiáng)的目的。有用信號(hào)對(duì)應(yīng)的小波系數(shù)是含有所需信息的,具有幅值大、數(shù)目少的特點(diǎn),而噪聲信號(hào)具有幅值小、數(shù)目多的特點(diǎn),這樣可以確定哪些是有用信號(hào),哪些是噪聲信號(hào),從而濾除噪聲信號(hào),得到較為理想的語(yǔ)音信號(hào)。然而,小波變換的閾值選擇是一個(gè)難題,同時(shí)還存在著冗余大的缺點(diǎn)。

        以上方法在語(yǔ)音信號(hào)穩(wěn)定的情況下可以取得良好的效果,然而卻都有著很大的局限性。近年來(lái),隨著機(jī)器學(xué)習(xí)技術(shù)的迅速發(fā)展,深度網(wǎng)絡(luò)[5]、卷積網(wǎng)絡(luò)[6]和長(zhǎng)短時(shí)記憶神經(jīng)網(wǎng)絡(luò)[7]被應(yīng)用于語(yǔ)音信號(hào)的增強(qiáng),可以取得令人滿意的效果。

        2.2? 生成對(duì)抗網(wǎng)絡(luò)

        生成式對(duì)抗網(wǎng)絡(luò)(Generative Adversarial Networks, GAN)[8]最初被用于計(jì)算機(jī)視覺和圖像領(lǐng)域,引起了巨大的反響。目前,GAN已經(jīng)逐漸地被用于語(yǔ)音合成、增強(qiáng)、分離和識(shí)別等方面,均取得了不錯(cuò)的效果。在文獻(xiàn)[9]中,條件生成對(duì)抗網(wǎng)絡(luò)(Condition Generative Adversarial Networks, CGAN)[9]最早被提出用于語(yǔ)音領(lǐng)域,為模型加入監(jiān)督信息,指導(dǎo)生成器G生成數(shù)據(jù),但同時(shí)也存在模型結(jié)構(gòu)較為單一、訓(xùn)練困難的問(wèn)題。文獻(xiàn)[10]在GAN的基礎(chǔ)上額外增加了聲學(xué)模型(Acoustic Model, AM)構(gòu)成的分類器,生成器G、判別器D和分類器構(gòu)成深度聯(lián)合對(duì)抗網(wǎng)絡(luò),以此來(lái)提高系統(tǒng)的魯棒性[10]。文獻(xiàn)[11]提出了語(yǔ)音增強(qiáng)生成對(duì)抗網(wǎng)絡(luò)(Speech Enhancement Generative Adversarial Networks, SEGAN)[10],它使用端到端結(jié)構(gòu),不需要直接處理音頻信號(hào),但是在試驗(yàn)過(guò)程中,發(fā)現(xiàn)在高噪聲環(huán)境下,SEGAN增強(qiáng)后的語(yǔ)音信號(hào)靠近純凈語(yǔ)音信號(hào)的能力并不高。

        GAN根據(jù)二人零和博弈思想而建模,包括生成器G和判別器D這兩個(gè)部分。生成器G通過(guò)學(xué)習(xí)真實(shí)數(shù)據(jù)中的特征信息生成新的數(shù)據(jù)樣本,判別器D用來(lái)比較G生成的新數(shù)據(jù)與真實(shí)數(shù)據(jù)之間的差異,從而做出判斷。事實(shí)上,D是一個(gè)二元分類器,生成器G的任務(wù)是盡可能去“欺騙”判別器D,D則是要盡量區(qū)別出來(lái),兩者為了達(dá)到自己的目的,會(huì)不斷優(yōu)化自己的能力,最終達(dá)到平衡。

        如圖1所示,根據(jù)GAN的模型結(jié)構(gòu)可以了解到,隨機(jī)變量z經(jīng)過(guò)生成器模型G,得到生成樣本G(z)。生成樣本G(z)和真實(shí)數(shù)據(jù)樣本x作為鑒別器D的輸入,判別器D判斷輸入數(shù)據(jù)是真實(shí)樣本還是虛假樣本,將判斷結(jié)果反饋給生成器G,從而不斷優(yōu)化生成器的輸出結(jié)果,得到良好的學(xué)習(xí)效果。生成器G和判別器D之間的極小-極大博弈問(wèn)題可以通過(guò)優(yōu)化以下目標(biāo)函數(shù)而得到:

        V(G,D)=Ex~pdata(x)[logD(x)]+Ez~pz(z)[log(1-D(G(z)))] ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? (1)

        其中,pdata(x)表示真實(shí)數(shù)據(jù)的概率分布表示pz(z)輸入噪聲變量z的概率分布。

        但是由于在GAN訓(xùn)練過(guò)程中,容易出現(xiàn)梯度消失的問(wèn)題,這嚴(yán)重影響了實(shí)驗(yàn)結(jié)果。很多學(xué)者都針對(duì)此問(wèn)題進(jìn)行改進(jìn),如較為流行的深度卷積生成對(duì)抗網(wǎng)絡(luò)(Deep Convolutional GAN, DCGAN)[12]也只是對(duì)生成器G和判別器D的網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行改進(jìn),并沒有從根本上解決問(wèn)題。文獻(xiàn)[13]中,Wasserstein生成對(duì)抗網(wǎng)絡(luò)(Wasserstein GAN, WGAN)[13]被提出,它從理論上闡述了GAN訓(xùn)練困難的原因,并引入了Wasserstein距離,提出了解決方法。WGAN是在基礎(chǔ)模型上添加了Lipschitz限制,其優(yōu)勢(shì)是可以修復(fù)模型梯度消失問(wèn)題,使得模型訓(xùn)練更穩(wěn)定,目標(biāo)函數(shù)如下:

        L=Ex~pdata(x)[D(x)]-Ez~pz(z)[D(G(z))]? (2)

        2.3? 卷積神經(jīng)網(wǎng)絡(luò)

        本文所提方法是將生成的對(duì)抗網(wǎng)絡(luò)與深度完全卷積神經(jīng)網(wǎng)絡(luò)相結(jié)合。其中,卷積神經(jīng)網(wǎng)絡(luò)是目前使用最多且應(yīng)用最為廣泛的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)之一,它是一種可以表征輸入信息潛在特征的前饋神經(jīng)網(wǎng)絡(luò),由卷積層、池化層、全連接層構(gòu)成,常用于圖像處理、語(yǔ)音識(shí)別等方面。如圖2所示,在語(yǔ)音信號(hào)處理領(lǐng)域,語(yǔ)音信號(hào)的語(yǔ)譜圖可以當(dāng)成二維圖像作為卷積神經(jīng)網(wǎng)絡(luò)的輸入,避免傳統(tǒng)方法繁雜的特征提取等操作。下一層卷積層連接其視野內(nèi)的像素,而不是連接全部語(yǔ)譜圖的每個(gè)像素,進(jìn)行卷積操作,提取語(yǔ)譜圖的局部特征,之后卷積層的濾波器選擇一定的步長(zhǎng)滑動(dòng),直至處理完全部語(yǔ)譜圖的分析。卷積運(yùn)算可以在一定程度上提高信號(hào)的部分特征,同時(shí)降低干擾信息。同理,之后每一層的神經(jīng)元的輸入都連接上一層的局部感受野。由于濾波器在滑動(dòng)時(shí),部分像素會(huì)重疊,因此會(huì)產(chǎn)生冗余信息,池化層的主要工作是將某個(gè)點(diǎn)的值轉(zhuǎn)化為相鄰區(qū)域的值,減少冗余信息,同時(shí)使得參數(shù)的數(shù)量減少,防止發(fā)生過(guò)擬合的情形。

        3? ?基于深度完全卷積生成對(duì)抗網(wǎng)絡(luò)的語(yǔ)

        音增強(qiáng)方法

        如圖3所示,對(duì)于語(yǔ)音增強(qiáng)來(lái)說(shuō),GAN實(shí)際上是一個(gè)學(xué)習(xí)過(guò)程,其中生成器G輸入噪聲信號(hào)x~,判別器D輸入純凈的語(yǔ)音信息x,判別器D指導(dǎo)生成器G生成增強(qiáng)的語(yǔ)音信號(hào)。D的任務(wù)是區(qū)分干凈的語(yǔ)音信號(hào)和增強(qiáng)的語(yǔ)音信號(hào)之間的差異,哪些是真實(shí)樣本,哪些是虛假樣本。

        本文所提方法中,生成器G網(wǎng)絡(luò)是一種編碼-譯碼器框架。在編碼階段,直接將語(yǔ)音轉(zhuǎn)換為圖像數(shù)據(jù)作為輸入,對(duì)每幀語(yǔ)音進(jìn)行傅里葉變換,然后將時(shí)間和頻率作為圖像的二維輸入,通過(guò)組合許多卷積層和池化層,對(duì)語(yǔ)音信號(hào)自動(dòng)進(jìn)行特征提取來(lái)代替?zhèn)鹘y(tǒng)的人為提取語(yǔ)音特征方式。在多個(gè)卷積層之后添加池化層,累積大量的卷積-池化層對(duì),通過(guò)一系列卷積層來(lái)壓縮語(yǔ)音信息。每個(gè)卷積層使用小卷積核而不是大卷積核,并且使用均方根誤差(Root Mean Square prop, RMSprop)激活函數(shù)用于獲得卷積結(jié)果。在編碼器編碼之后,獲得狀態(tài)向量z,然后輸入轉(zhuǎn)置的卷積(有時(shí)稱為去卷積)。解碼器階段,在多個(gè)卷積層之后添加轉(zhuǎn)置卷積層,對(duì)應(yīng)于編碼器階段。在非線性變換之后,獲得的增強(qiáng)語(yǔ)音信號(hào)如圖4所示:

        在本文中,為每?jī)蓚€(gè)卷積層添加一個(gè)匯聚層,導(dǎo)致卷積池層對(duì)的積累,從而有效減少信息丟失并提高系統(tǒng)模型表示能力。另外,在保證相同感知視野的條件下,使用小卷積核代替大卷積核可以提高網(wǎng)絡(luò)深度,并且在一定程度上可以提高神經(jīng)網(wǎng)絡(luò)的有效性。

        GAN語(yǔ)音增強(qiáng)可以概括為最小-最大問(wèn)題。使用增強(qiáng)的WGAN[14]可以獲得良好的結(jié)果,即基于WGAN添加懲罰項(xiàng),其具有比原始WGAN更快的收斂速度,并且可以生成更高質(zhì)量的樣本。在WGAN中,判別器的損失函數(shù)是:

        4? ?訓(xùn)練及仿真結(jié)果

        4.1? 訓(xùn)練細(xì)節(jié)

        為了系統(tǒng)地評(píng)估DFCNN-GAN模型的有效性,本文選擇開源數(shù)據(jù)集進(jìn)行訓(xùn)練分析[15]。數(shù)據(jù)集中有來(lái)自語(yǔ)音庫(kù)的30名英語(yǔ)母語(yǔ)者,這些語(yǔ)音信號(hào)包含有多種類型噪音。語(yǔ)音庫(kù)中測(cè)試集包含兩個(gè)英語(yǔ)母語(yǔ)者,每人約有400句純凈和噪音測(cè)試語(yǔ)音信號(hào),共有824個(gè)語(yǔ)音。訓(xùn)練集包括28名英語(yǔ)母語(yǔ)者,每人400句純凈和噪聲訓(xùn)練語(yǔ)音信號(hào),共計(jì)11 572個(gè)語(yǔ)音。在噪聲訓(xùn)練集中,有40種不同條件,包括10種噪聲(2種人工噪聲和8種來(lái)自需求數(shù)據(jù)集[18]的噪聲),分別有4種不同的信噪比(15 dB、10 dB、5 dB和0 dB)。在測(cè)試集中,有20種不同的條件,包括5種類型的噪聲(均來(lái)自需求數(shù)據(jù)庫(kù)),其中有4種不同的信噪比(17.5 dB、12.5 dB、7.5 dB和2.5 dB)。

        DFCNN-GAN模型采用RMSprop算法,在86個(gè)時(shí)期內(nèi)進(jìn)行訓(xùn)練。在訓(xùn)練過(guò)程中,學(xué)習(xí)率設(shè)置為0.000 2,批量訓(xùn)練大小為256。為了滿足波形產(chǎn)生的要求,實(shí)驗(yàn)時(shí)將原始聲音從48 kHz降到16 kHz。預(yù)加重系數(shù)設(shè)置為0.95。

        生成器網(wǎng)絡(luò)是由卷積層和轉(zhuǎn)置卷積層實(shí)現(xiàn)的編碼器-解碼器結(jié)構(gòu)。為了在邊界處得到卷積結(jié)果,本文選擇了“same”填充方法。為了避免梯度消失,每個(gè)卷積層和反卷積層后面都有一個(gè)預(yù)激活函數(shù)。在編碼器部分,每?jī)蓚€(gè)卷積層添加一個(gè)池化層,池窗口設(shè)置為2。在解碼器部分,每?jī)蓪犹砑右粋€(gè)反池化層,池窗口設(shè)置為2。

        判別器D由卷積層實(shí)現(xiàn),采用“same”零填充策略。為了激活所有的神經(jīng)元,使用了帶泄露修正線性單元(Leaky ReLU)。在所有卷積層和Leaky ReLU激活層之間都有一個(gè)批處理規(guī)范化層。同時(shí),為了確保后一層的輸入數(shù)據(jù),選擇批量規(guī)范化層。

        4.2? 仿真結(jié)果

        為了全面系統(tǒng)評(píng)價(jià)增強(qiáng)后語(yǔ)音信號(hào)的效果,本文將所提算法與GAN、Wiener、SEGAN以及原始的含噪語(yǔ)音信號(hào)相比較,對(duì)比表現(xiàn)DFCNN-GAN性能。為了評(píng)估增強(qiáng)語(yǔ)音的質(zhì)量,本文計(jì)算了以下參數(shù)。

        (1)語(yǔ)音質(zhì)量感知評(píng)價(jià)(Perceptual Evaluation of Speech Quality, PESQ):利用語(yǔ)音信號(hào)客觀特性去模擬人主觀意識(shí),從而對(duì)語(yǔ)音質(zhì)量進(jìn)行感知評(píng)估,評(píng)分范圍是[-0.5~4.5]。

        (2)平均意見分(Mean Opinion Score, MOS):對(duì)語(yǔ)音信號(hào)的主觀感知根據(jù)評(píng)判標(biāo)準(zhǔn)來(lái)評(píng)分,是一種主觀評(píng)價(jià),也是使用最為廣泛的一種語(yǔ)音質(zhì)量評(píng)價(jià)方法。

        (3)分段信噪比(Segmented Signal to Noise Ratio, SSNR):一種常用的語(yǔ)音信號(hào)質(zhì)量的評(píng)判標(biāo)準(zhǔn),反映了某一段范圍內(nèi)語(yǔ)音信號(hào)的信噪比,評(píng)分范圍是[0~∞]。

        表1顯示了不同語(yǔ)音增強(qiáng)方法的度量分?jǐn)?shù),可以得出基于深度全連接卷積生成對(duì)抗網(wǎng)絡(luò)的語(yǔ)音增強(qiáng)方法具有更加優(yōu)良的去噪效果。與Wiener濾波和SEGAN相比,DFCNN-GAN各項(xiàng)指標(biāo)都有一定程度的改進(jìn)。而且,SEGAN的PESQ指標(biāo)較差,但DFCNN-GAN可以在一定程度上彌補(bǔ)其缺陷。

        為了便于直觀理解,本文分別獲得傳統(tǒng)GAN、Wiener、SEGAN和DFCNN-GAN生成的語(yǔ)音信號(hào)頻譜圖。圖5列出了頻譜圖的比較圖,從圖中可以發(fā)現(xiàn),傳統(tǒng)的生成對(duì)抗網(wǎng)絡(luò)的效果最為不好,這是因?yàn)樗哂杏?xùn)練不穩(wěn)定、易發(fā)生梯度爆炸等缺點(diǎn)。DFCNN-GAN的訓(xùn)練效果最好,更為接近純凈語(yǔ)音信號(hào)的頻譜圖,與其他信號(hào)相比,可以有效濾除噪聲信號(hào),提高語(yǔ)音質(zhì)量。

        5? ?結(jié)束語(yǔ)

        本文提出了一種新穎的DFCNN-GAN算法來(lái)增強(qiáng)含噪語(yǔ)音信號(hào),該算法使用編碼器-解碼器作為G的結(jié)構(gòu),并將其與DFCNN結(jié)合以加深卷積層的特征提取能力。同時(shí),本文使用增強(qiáng)WGAN算法在目標(biāo)函數(shù)中添加梯度懲罰項(xiàng)以實(shí)現(xiàn)語(yǔ)音增強(qiáng)。仿真結(jié)果表明,該模型能夠有效降低噪聲,提高語(yǔ)音信號(hào)質(zhì)量,同時(shí)該模型更加穩(wěn)定,可以提高收斂速度,為高噪聲環(huán)境下人機(jī)語(yǔ)音增強(qiáng)技術(shù)的研究提供了新的解決思路。

        參考文獻(xiàn):

        [1] P C Loizou. Speech Enhancement: Theory and Practice[M]. Boca Raton: CRC Press, 2007.

        [2] M Berouti, R Schwartz, J Makhoul. Enhancement of Speech Corrupted by Acoustic Noise[C]//IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP). 1979: 208-211.

        [3] J S Lim, A V Oppenheim. All-pole Modeling of Degraded Speech[J]. IEEE Transactions on Acoustics Speech and Signal Processing, 1978,26(3): 197-210.

        [4] S Jaikaran, A Rajeev. Noise Reduction of Speech Signal Using Wavelet Transform with Modified Universal Threshold[J]. International Journal of Computer Applications, 2011,20(5): 14-19.

        [5] J Yi, R Liu. Binaural Deep Neural Network for Robust Speech Enhancement[C]//IEEE International Conference on Signal Processing. Guilin, 2014: 692-695.

        [6] P Guzewich, S Zahorian. Speech Enhancement and Speaker Verification with Convolutional Neural Networks[J]. Journal of the Acoustical Society of America, 2018(3): 1956.

        [7] F Weninger, H Erdogan, S Watanabe, et al. Speech Enhancement with LSTM Recurrent Neural Networks and its Application to Noise-Robust ASR[C]//International Conference on Latent Variable Analysis and Signal Separation. Springer International Publishing. San Diego, 2015: 305-311.

        [8] I J Goodfellow, J P Abadie, M Mirza, et al. Generative Adversarial Nets[C]//International Conference on Neural Information Processing Systems. MIT Press, Kuching, Malaysia, 2014.

        [9] M Mirza, S Osindero. Conditional Generative Adversarial Nets[J]. Computer Science, 2014: 2672-2680.

        [10] LIU B, NIE S, ZHANG Y, et al. Boosting Noise Robustness of Acoustic Model via Deep Adversarial Training[C]//IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP). Calgary, Alberta, Canada, 2018: 5034-5038.

        [11] S Pascual, A Bonafonte, J Serrà. SEGAN: Speech Enhancement Generative Adversarial Network[C]//Interspeech, Stockholm, Sweden, 2017: 3642-3646.

        [12] A Radford, L Metz, S Chintala. Unsupervised Representation Learning with Deep Convolutional Generative Adversarial Networks[J]. Computer Science, 2015: 1-6.

        [13] M Arjovsky, S Chintala, L Bottou. Wasserstein GAN[EB/OL]. [2019-07-10]. http://arxiv.org/pdf/1701.07875.

        [14] I Gulrajani, F Ahmed, M Arjovsky, et al. Improved Training of Wasserstein GANs[EB/OL]. [2019-07-10]. http://arxiv.org/pdf/1704.00028.

        [15] C V Botinhao, X Wang, S Takaki, et al. Investigating RNN-based Speech Enhancement Methods for Noise-Robust Text-to-Speech[C]//ISCA Speech Synthesis Workshop. Seoul, Korea, 2016: 146-152.★

        国产亚洲一区二区手机在线观看| av无码av天天av天天爽| 女人18毛片a级毛片| 免费观看18禁无遮挡真人网站| 377p日本欧洲亚洲大胆张筱雨| 少妇无码av无码专区线| 激情亚洲一区国产精品| 中文字幕AⅤ人妻一区二区 | 麻豆免费观看高清完整视频| 成人午夜性a级毛片免费| 影视先锋av资源噜噜| 中文字幕欧美一区| 国产高清在线精品一区αpp| 蜜桃视频免费在线视频| 国产三级一区二区三区在线观看| 亚洲av综合色一区二区| 亚洲精品国产电影| 色诱视频在线观看| 人体内射精一区二区三区| 国产最新一区二区三区天堂| 国产高清黄色在线观看91| 日本97色视频日本熟妇视频| 老熟女老女人国产老太| 18国产精品白浆在线观看免费| 欧美最猛黑人xxxx黑人表情| 日韩不卡av高清中文字幕| 久久亚洲精品成人av观看| 精品久久人妻av中文字幕| 99噜噜噜在线播放| 天天爽天天爽夜夜爽毛片| 好大好硬好爽免费视频| 久久中文字幕久久久久| 日本精品熟妇一区二区三区| 极品嫩模大尺度av在线播放| 不卡一卡二卡三乱码免费网站| 黑人玩弄人妻中文在线| 高潮喷水无遮挡毛片视频| 人妻乱交手机在线播放| 一边做一边说国语对白| 尤物视频在线观看| 国产精品久免费的黄网站|