亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于殘差神經(jīng)網(wǎng)絡(luò)的陸空通話聲紋識(shí)別

        2020-04-08 07:52:22郭東岳周群彪
        現(xiàn)代計(jì)算機(jī) 2020年7期
        關(guān)鍵詞:深度模型

        郭東岳,周群彪

        (1.四川大學(xué)視覺合成圖形圖像技術(shù)國防重點(diǎn)學(xué)科實(shí)驗(yàn)室,成都 610065;2.四川大學(xué)計(jì)算機(jī)學(xué)院,成都 610065)

        0 引言

        21世紀(jì)以來,隨著國民經(jīng)濟(jì)的飛速發(fā)展,飛機(jī)出行已經(jīng)成為遠(yuǎn)距離出行的首選交通工具。據(jù)統(tǒng)計(jì),2018年我國民航全行業(yè)完成運(yùn)輸總周轉(zhuǎn)量1206.53億噸,比上年增長11.4%。根據(jù)此趨勢(shì)預(yù)測(cè),2020年我國民航各類飛行起降將超過1500萬架次。給人們帶來巨大的便利的同時(shí),也意味著飛行流量急劇增加,空域容量不足,地面空中交通管制壓力隨之成倍增長。近年來,民航不安全事件時(shí)有發(fā)生。管制員工作負(fù)荷與壓力越來越大使空中交通管理行業(yè)面臨巨大的安全保障壓力,空管保障能力與飛行流量增長、管制員工作負(fù)荷壓力之間的矛盾日益突出。隨著人工智能的發(fā)展,基于深度學(xué)習(xí)的目標(biāo)檢測(cè)、人臉識(shí)別、語音識(shí)別、飛行軌跡預(yù)測(cè)等技術(shù)逐漸應(yīng)用到空中交通管理中來,為空中交通的安全運(yùn)行提供了有力的保障。其中,基于語音識(shí)別的空管安全監(jiān)控系統(tǒng)[1-4]成為研究的熱點(diǎn)。本文所研究的聲紋識(shí)別是安全監(jiān)控系統(tǒng)的子模塊,主要功能是識(shí)別信道中的每句語音的角色(管制員/飛行員)。同時(shí),對(duì)說話人的準(zhǔn)確識(shí)別豐富了語料的信息,為后期數(shù)據(jù)查詢、分析提供可靠的數(shù)據(jù)依據(jù)。

        聲紋識(shí)別(Voiceprint Recognition,VPR)又叫說話人識(shí)別(Speaker Recognition,SR),根據(jù)應(yīng)用功能不同可以分為說話人辨認(rèn)(Speaker Identification)和說話人確認(rèn)(Speaker Verification)。說話人辨認(rèn)的任務(wù)是從N個(gè)說話人中辨認(rèn)該語句屬于哪一個(gè)說話人,主要應(yīng)用于多人對(duì)話場(chǎng)景的聲紋識(shí)別;說話人確認(rèn)任務(wù)是確認(rèn)某一語音與目標(biāo)語音是否屬于同一說話人,主要應(yīng)用于聲紋鎖、聲紋認(rèn)證等應(yīng)用場(chǎng)景中。根據(jù)應(yīng)用形式不同,又可以分為文本相關(guān)(Text-dependent)和文本無關(guān)(Text-independent)的聲紋識(shí)別。文本相關(guān)的聲紋識(shí)別需要說話人錄制給定文本的語音供算法識(shí)別,因有文本的限定這類方法一般性能較好,但也缺乏一定的靈活性。而文本無關(guān)的說話人識(shí)別僅需要任意一段語音即可,以其靈活、方便易用等特點(diǎn)在工業(yè)界廣受歡迎。由于陸空通話語音內(nèi)容的多樣性和隨機(jī)性以及一個(gè)信道中存在多個(gè)說話人,本文的研究內(nèi)容屬于文本無關(guān)的說話人辨認(rèn)。

        聲紋識(shí)別的發(fā)展歷程大致如下:20世紀(jì)30年代,人們就展開了聲紋識(shí)別相關(guān)的研究工作。直至60年代bell實(shí)驗(yàn)室提出了模板匹配的說話人識(shí)別方法,在當(dāng)時(shí)取得了突破性的進(jìn)展。

        60年代至21世紀(jì)初,學(xué)界分別從音頻特征提取和識(shí)別方法兩個(gè)方面展開研究,先后將MFCC、LPC、PLP、LSP等音頻特征應(yīng)用到聲紋識(shí)別中來,并取得了良好的效果。而識(shí)別方法也從模板匹配發(fā)展到了高斯混合模型-通用背景模型(Gaussian Mixture Model-Universal Background Model,GMM-UBM)[5-6]、隱馬爾可夫模型(Hidden Markov Model,HMM),人工神經(jīng)網(wǎng)絡(luò)(Artificial Neural Network,ANN)等準(zhǔn)確率更高、魯棒性更好的概率模型。隨后,在GMM-UBM的基礎(chǔ)上,P.Kenny提出聯(lián)合因子分析(Joint Factor Analysis,JFA)[7]的方法、N.Dehak提出了i-vector[8]方法,將不定長的語音映射到一個(gè)子向量空間中,成為主流的聲紋識(shí)別技術(shù)。以上傳統(tǒng)方法雖然能達(dá)到一定的識(shí)別精度,但這些方法對(duì)信道環(huán)境、語音時(shí)長都有較大的依賴,只能應(yīng)用于一般的聲紋識(shí)別場(chǎng)景中,對(duì)專用場(chǎng)景的適應(yīng)性較差。近年來,隨著深度學(xué)習(xí)在生物特征識(shí)別(人臉識(shí)別、指紋識(shí)別)等方向取得巨大的成功,研究者們也將深度學(xué)習(xí)技術(shù)應(yīng)用到了聲紋識(shí)別中來,相繼提出了基于深度神經(jīng)網(wǎng)絡(luò)(Deep Neural Network,DNN)、卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network)、循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network)及其變種的聲紋識(shí)別方法[9-14]。例如 d-vector[15]、x-vector[12]、j-vector等方法,這類方法的本質(zhì)特征都是訓(xùn)練一個(gè)深度神經(jīng)網(wǎng)絡(luò)作為說話人特征(Speaker Embeding)提取器,再使用 PLDA[16]、余弦相似度(Cosin Similarity)等作為后端判決模型。2017年,百度和VGG實(shí)驗(yàn)室?guī)缀跬瑫r(shí)提出了基于殘差神經(jīng)網(wǎng)絡(luò)(Residual neural network,ResNet)[17,18]的說話人特征的提取方法用于說話人識(shí)別,在大規(guī)模語音數(shù)據(jù)集上取得了較好的效果。一般而言,采用深度學(xué)習(xí)的方法即可應(yīng)用于一般場(chǎng)景,也可以針對(duì)特殊場(chǎng)景加強(qiáng)訓(xùn)練以得到良好的效果,是目前主流的聲紋識(shí)別方法。

        本文根據(jù)陸空通話的特點(diǎn),提出了一種基于深度殘差神經(jīng)網(wǎng)絡(luò)的陸空通話識(shí)別方法。該方法能夠有效地在不穩(wěn)定噪聲、多語種、開集說話人的空管信道中完成空管語音角色識(shí)別任務(wù),是一種魯棒性較好的聲紋識(shí)別方法。

        1 相關(guān)工作

        d-vector方法是使用深度學(xué)習(xí)完成聲紋識(shí)別任務(wù)的經(jīng)典方法之一,在訓(xùn)練階段,提取每一語音幀的Filterbank Energy作為語音特征饋入DNN模型中,通過softmax層訓(xùn)練說話人分類模型。在使用階段,當(dāng)模型收斂后將移除softmax層的網(wǎng)絡(luò)模型作為說話人特征提取器,將最后一個(gè)隱藏層的輸出經(jīng)L2正則化、多幀向量疊加作為說話人特征。并且d-vector也可以與PLDA等信道補(bǔ)償算法相結(jié)合以消除不同信道對(duì)語音的影響。實(shí)驗(yàn)證明。通過對(duì)大量的音頻數(shù)據(jù)訓(xùn)練后,d-vector不僅可以對(duì)訓(xùn)練過的說話者集合上有良好的表現(xiàn),并且在未訓(xùn)練的說話者身上也取得了較好的成績。d-vector算法的模型結(jié)構(gòu)圖如圖1所示。

        圖1 d-vector模型結(jié)構(gòu)圖

        2 基于ResNet的陸空通話聲紋識(shí)別

        2.1 相關(guān)語料分析

        本文對(duì)真實(shí)陸空通話數(shù)據(jù)集ATCSpeaker和一般開源數(shù)據(jù)集LibriSpeech進(jìn)行了統(tǒng)計(jì)與分析。其中,ATCSpeaker數(shù)據(jù)集分為英文和中文子集,LibriSpeech為全英文數(shù)據(jù)集,按總時(shí)長分為100、360和500小時(shí)的數(shù)據(jù)子集。統(tǒng)計(jì)結(jié)果如表一所示,根據(jù)數(shù)據(jù)對(duì)比可得,陸空通話語音與一般語音相比具有以下特性:

        (1)短語句

        陸空通話為半雙工無線電通信,一個(gè)信道內(nèi)一般存在一個(gè)管制員與多個(gè)飛行員通話。因此,陸空通話內(nèi)容要求發(fā)音清晰、言簡意賅。表中統(tǒng)計(jì)了平均單句語音的時(shí)長(Avg-duration),明顯可以看出陸空通話語句約為LibriSpeech數(shù)據(jù)集單句時(shí)長三分之一。并且,平均語速(avg-word/s)也要明顯快于LibriSpeech數(shù)據(jù)集。一般來說,在聲紋識(shí)別中,語句越長則其中包含的說話人特征越明顯,對(duì)音頻特征的提取越有利。

        (2)不穩(wěn)定噪聲

        無線電通話易受天氣、環(huán)境、通訊設(shè)備等因素的制約,信道極易受外界因素的干擾。相同指標(biāo)下與LibriSpeech相比,ATCSpeaker數(shù)據(jù)集的平均信噪比(Avg-SNR)之差為5左右。高信噪比意味著提取難度說話人特征的難度增加,需要更大的信道補(bǔ)償。

        (3)多語種

        在我國空中交通管制中,管制員與外航或外籍飛行員使用英語溝通,與國內(nèi)航班使用中文溝通。多語種聲紋識(shí)別也給聲紋識(shí)別的準(zhǔn)確性帶來了巨大的挑戰(zhàn)。

        表1數(shù)據(jù)特點(diǎn)對(duì)比表

        圖2陸空通話聲紋識(shí)別架構(gòu)圖

        綜上所述,陸空通話場(chǎng)景下的聲紋識(shí)別不同于一般聲紋識(shí)別,現(xiàn)有的算法并不足以滿足陸空通話聲紋識(shí)別的精度要求,需根據(jù)其特點(diǎn)研發(fā)適合陸空通話聲紋識(shí)別的方法。

        2.2 陸空通話聲紋識(shí)別架構(gòu)

        本文提出的陸空通話聲紋識(shí)別架構(gòu)如圖2所示。其中,Residual block為2.3節(jié)所介紹的殘差模塊,主要是用于提取說話人特征。Embeding block包含兩個(gè)部分:全連接層和L2正則化層,其主要作用是將殘差模塊提取出的特征歸一化到一個(gè)固定維度的子向量空間中作為說話人特征。陸空通話聲紋識(shí)別主要分為三個(gè)階段:

        (1)訓(xùn)練階段:訓(xùn)練階段首先按照分類模型搭建深度神經(jīng)網(wǎng)絡(luò),softamx層的節(jié)點(diǎn)數(shù)對(duì)應(yīng)說話人的個(gè)數(shù)。將音頻文件提取音頻頻譜特征饋入神經(jīng)網(wǎng)絡(luò)中直至收斂。

        (2)注冊(cè)階段:在注冊(cè)階段將softmax層移除,將管制員語音饋入訓(xùn)練好的網(wǎng)絡(luò)中,取Embeding block層所提取出的說話人特征放入聲紋庫,即注冊(cè)完成。

        (3)識(shí)別階段:在識(shí)別階段將待識(shí)別語音饋入訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)中,取聲紋庫中的語音,經(jīng)后端判決模型判斷是否屬于某一管制員,否則待識(shí)別角色為飛行員。在本文中采用余弦相似度作為后端判決模型,判決閾值隨應(yīng)用環(huán)境調(diào)節(jié)。

        該架構(gòu)將說話人特征提取和后端判決分離開來,有利于適應(yīng)不同的陸空通話信道。當(dāng)信道環(huán)境發(fā)生巨大改變時(shí)可以使用PLDA等信道補(bǔ)償算法作為后端判決模型以適應(yīng)不同的信道,而不用再次重新訓(xùn)練說話人特征提取模型。實(shí)驗(yàn)證明,該架構(gòu)在陸空通話環(huán)境下切實(shí)可行,是一種穩(wěn)健的陸空通話識(shí)別方法。

        2.3 Res Net網(wǎng)絡(luò)結(jié)構(gòu)

        隨著數(shù)據(jù)量和用戶的增大,d-vector算法已經(jīng)不能滿足于大規(guī)模的聲紋應(yīng)用需求,而一味的增加網(wǎng)絡(luò)深度、網(wǎng)絡(luò)堆疊會(huì)導(dǎo)致梯度消失、網(wǎng)絡(luò)訓(xùn)練難度成倍增大等現(xiàn)象。而殘差神經(jīng)網(wǎng)絡(luò)的出現(xiàn)則解決了網(wǎng)絡(luò)深度導(dǎo)致的梯度消失問題。殘差模塊的原理如下:假定某段神經(jīng)網(wǎng)絡(luò)輸入為x,期望輸出為H(x),那么直接把x傳到輸出作為初始結(jié)果,那么此時(shí)學(xué)習(xí)的目標(biāo)F(x)如式(1)所示:

        這就將學(xué)習(xí)的目標(biāo)從完成的輸出改變?yōu)閷W(xué)習(xí)輸入輸出的殘差。在聲紋識(shí)別中,由于殘差神經(jīng)網(wǎng)絡(luò)的特性,隨著數(shù)據(jù)量的增加ResNet可以很好地?cái)M合數(shù)據(jù),而不會(huì)額外增加網(wǎng)絡(luò)的參數(shù)和數(shù)據(jù)計(jì)算量。因此,模型訓(xùn)練的難度也得以降低。文獻(xiàn)[17,18]都選擇了ResNet作為說話人特征的提取器,并在各自的大型數(shù)據(jù)集上取得了良好的效果。

        本文提出了一種多核殘差神經(jīng)網(wǎng)絡(luò),其中Residual block模塊如圖3所示。不同于文獻(xiàn)[17,18]的殘差塊,本文根據(jù)陸空通話語料的特點(diǎn)采用兩路多尺度卷積殘差塊:第一路采用卷積核大小為3×3的卷積層;第二路兩層卷積層的卷積核大小分別為5×5和1×1。針對(duì)陸空通話語料語速快、多語種、語音特征分散等問題,本文采用語音頻譜圖作為網(wǎng)絡(luò)輸入。語音頻譜可以最大限度的保留原始語音信息,而多尺度卷積操作可以分別從不同的尺度充分挖掘語音頻譜中所隱藏的說話人信息,盡量避免信道所帶來的影響。

        圖3多核殘差塊結(jié)構(gòu)圖

        3 實(shí)驗(yàn)

        3.1 實(shí)驗(yàn)環(huán)境與數(shù)據(jù)集

        本文實(shí)驗(yàn)環(huán)境在Ubuntu16.04操作系統(tǒng)下搭建,使用RTX2080Ti顯卡訓(xùn)練深度訓(xùn)學(xué)習(xí)模型。深度神經(jīng)網(wǎng)絡(luò)基于TensorFlow、Keras等深度學(xué)習(xí)框架搭建。陸空通話數(shù)據(jù)集ATCSpeaker取自國內(nèi)真實(shí)陸空通話錄音,經(jīng)人工切分、標(biāo)注,共有50位說話人,音頻時(shí)長約20小時(shí)。對(duì)比實(shí)驗(yàn)數(shù)據(jù)集使用開源語音語料庫LibriSpeech中的train-clean-100子集,約有250位說話人,音頻總時(shí)長約100小時(shí)。

        3.2 評(píng)價(jià)標(biāo)準(zhǔn)

        等錯(cuò)誤率(Equal Error Rate,EER)是聲紋識(shí)別系統(tǒng)中常用的評(píng)價(jià)標(biāo)準(zhǔn)。本文所提出的陸空通話聲紋識(shí)別由于說話人個(gè)數(shù)的不確定性,屬于開集說話人識(shí)別。因此,使用EER作為本文實(shí)驗(yàn)的評(píng)價(jià)指標(biāo)。EER的計(jì)算主要依靠兩個(gè)指標(biāo):錯(cuò)誤接受率(False Acceptation Rate,FAR)和錯(cuò)誤拒絕率(False Rejection Rate,FRR)。其計(jì)算如公式(2)、(3)所示,其中 NIRA 代表的是類間測(cè)試次數(shù),NGRA是類內(nèi)測(cè)試次數(shù),NFA是錯(cuò)誤接受次數(shù),NFR是錯(cuò)誤拒絕次數(shù)。在0-1內(nèi)畫出FFR和FAR的坐標(biāo)圖,交點(diǎn)即為EER值。

        3.3 實(shí)驗(yàn)結(jié)果與分析

        實(shí)驗(yàn)結(jié)果如表2所示,本文所提出的ResNet無論是在LibriSpeech數(shù)據(jù)集還是ATCSpeaker數(shù)據(jù)集上都取得了良好的效果。其中與d-vector方法相比,在ATCSpeaker數(shù)據(jù)集上提升了約6%,提升幅度也明顯優(yōu)于LibriSpeech數(shù)據(jù)集上的提升幅度。實(shí)驗(yàn)表明本文提出的ResNet網(wǎng)絡(luò)架構(gòu)中的殘差模塊對(duì)陸空通話語音中的說話人特征更加準(zhǔn)確,能很好地抑制信道差異。因此,本文提出的ResNet網(wǎng)絡(luò)架構(gòu)是一種魯棒性較好的陸空通話聲紋識(shí)別架構(gòu)。

        表2實(shí)驗(yàn)結(jié)果

        4 結(jié)語

        本文實(shí)驗(yàn)了d-vecotr與ResNet聲紋識(shí)別方法在陸空通話聲紋識(shí)別中的應(yīng)用,在此基礎(chǔ)上提出了一種基于深度殘差神經(jīng)網(wǎng)絡(luò)的陸空通話聲紋識(shí)別架構(gòu)。該方法能夠針對(duì)陸空通話場(chǎng)景的特點(diǎn),通過聲紋識(shí)別的方式很好地完成空管語音角色識(shí)別任務(wù),同時(shí)可以靈活的調(diào)整后端判決模型來適應(yīng)信道的劇烈變化。綜上所述,本文提出的算法靈活易用、魯棒性較好,實(shí)驗(yàn)表明具有較強(qiáng)的實(shí)用價(jià)值。

        猜你喜歡
        深度模型
        一半模型
        深度理解一元一次方程
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
        深度觀察
        深度觀察
        深度觀察
        深度觀察
        3D打印中的模型分割與打包
        FLUKA幾何模型到CAD幾何模型轉(zhuǎn)換方法初步研究
        特黄大片又粗又大又暴| 国产精品女同一区二区| 中文字幕无码家庭乱欲| 亚洲国产成人91| 97SE亚洲国产综合自在线不卡| 久久夜色精品国产噜噜噜亚洲av | 亚洲aⅴ无码日韩av无码网站| 国产乱子伦农村xxxx| 精品亚洲一区二区在线观看| 99久久精品一区二区国产| 久久精品国产亚洲av香蕉| 久久精品免视看国产成人| 亚洲AV无码国产永久播放蜜芽| 亚洲av一区二区网址| 大桥未久av一区二区三区| 国内精品久久久久影院一蜜桃 | 狠狠色综合7777久夜色撩人| 亚洲人成电影在线无码| 中文在线最新版天堂av| 中文字幕人妻精品一区| 胸大美女又黄的网站| 亚洲av成人无码网天堂| 手机看片国产日韩| 我的极品小姨在线观看| 97久久婷婷五月综合色d啪蜜芽| 国产欧美一区二区精品仙草咪| 99久久精品一区二区三区蜜臀| 亚洲24小时免费视频| 国产精品免费av片在线观看| 福利一区在线观看| 亚洲高清精品50路| 国产一级一区二区三区在线播放| 无码精品国产一区二区三区免费| 中文字幕精品一二三四五六七八| 香蕉久久夜色精品国产2020| 日本一极品久久99精品| 国产无卡视频在线观看| 永久免费人禽av在线观看| 国产尤物精品自在拍视频首页 | 99精品国产一区二区三区a片| 亚洲一级电影在线观看|