亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        融合篇章上下文有效識別的篇章級機器翻譯

        2021-06-22 08:32:36貢正仙李軍輝
        關(guān)鍵詞:實驗信息模型

        汪 浩,貢正仙,李軍輝

        (蘇州大學(xué)計算機科學(xué)與技術(shù)學(xué)院,江蘇 蘇州 215006)

        近些年來,神經(jīng)機器翻譯(NMT)飛速發(fā)展[1-2].相較于傳統(tǒng)的統(tǒng)計機器翻譯,NMT展現(xiàn)出更加優(yōu)越的性能和更強的適應(yīng)性,使得NMT的應(yīng)用和影響越來越廣.NMT通過搭建神經(jīng)網(wǎng)絡(luò)模型,使用序列到序列的翻譯方法[3],極大地提升了翻譯的性能.2017年,Vaswani等[4]提出全新的模型架構(gòu)Transformer,該模型采用經(jīng)典的編碼器-解碼器結(jié)構(gòu),使用新穎的多頭注意力機制來進行建模,達到了非常卓越的性能,在自然語言處理研究中得到廣泛應(yīng)用.

        NMT研究對于句子級的翻譯,取得了非常卓越的效果,在中英新聞翻譯方面取得了巨大的成功,已經(jīng)達到接近人類的水平[5].然而,相較于句子級翻譯研究,篇章級NMT受到的關(guān)注較少.由于難以有效地利用篇章上下文信息,篇章級機器翻譯的研究仍然具有挑戰(zhàn)性,即使是Transformer模型性能也有待提高.Bawden等[6]指出利用篇章級上下文來處理與上下文相關(guān)的現(xiàn)象是非常關(guān)鍵的,例如共指、詞法銜接和詞法歧義化等現(xiàn)象,對于機器翻譯的性能有著重要的影響.翻譯過程中出現(xiàn)的語句不通順和不連貫的現(xiàn)象,很有可能就是沒有考慮篇章級信息而造成的.

        近年來,篇章級別的NMT研究越來越受到關(guān)注[7-13].Zhang等[7]提出了一種基于Transformer的篇章翻譯模型,通過使用兩個編碼器分別計算當前句的表示和篇章級上下文的表示,再將篇章級別上下文信息分別融入到當前句子的編碼器和解碼器中,顯著地提高了篇章翻譯的性能.多層注意力網(wǎng)絡(luò)模型[11]是第一個使用分層注意力機制以結(jié)構(gòu)化和動態(tài)的方式來捕捉篇章上下文信息的模型.Yang等[10]提出了一種以查詢?yōu)閷?dǎo)向的膠囊網(wǎng)絡(luò),將上下文信息聚類到目標翻譯可能涉及的不同角度.Chen等[13]利用卷積神經(jīng)網(wǎng)絡(luò)將句子級上下文表示為潛在主題,并將句子級主題上下文信息集成到NMT模型中.但是,篇章上下文的選取存在著很多問題,Zhang等[7]分別選取前1、前2、前3句作為當前句子的上下文,多層注意力網(wǎng)絡(luò)模型選取了前3句作為上下文,Yang等[10]同樣是選取了前3句作為上下文.而Chen等[13]利用卷積神經(jīng)網(wǎng)絡(luò)處理句子之間的信息,不涉及上下文長度的選取.然而在實際翻譯場景中,當前句的前句所蘊含的篇章信息并非總能對翻譯當前句發(fā)揮作用,因此,如何讓模型能夠充分利用有效的篇章信息是一個值得研究的問題.

        為了讓模型能夠?qū)W習到更多有價值的篇章上下文信息,本文提出一種基于聯(lián)合學(xué)習的篇章翻譯結(jié)構(gòu).其核心思想是利用一個共享的編碼器分別對當前句及其上下文進行編碼,同時引入分類任務(wù),分類器用于判斷當前句的上下文編碼表征是否蘊含有效的篇章信息.本文對分類器的數(shù)據(jù)生成設(shè)計了多種方案,在努力提高分類性能的同時幫助模型提升編碼器對句子的表示能力.本文描述的篇章翻譯系統(tǒng)建立在通用的句子級Transformer模型之上,除了聯(lián)合分類器,模型進一步引入門控機制,通過改進基準模型的殘差連接,使得編碼端識別出來的上下文信息能夠在解碼端得到充分利用.

        1 融合篇章上下文有效識別的篇章級機器翻譯

        1.1 系統(tǒng)模型架構(gòu)

        受Zhang等[7]工作的啟發(fā),本文采用了如圖1所示的系統(tǒng)模型架構(gòu),基本思想是使用多頭自注意力機制計算篇章級上下文的表示,并將編碼得到的上下文信息集成到解碼器中.與Zhang等[7]不同,出于計算成本和注意力負擔的考量,本文對上下文和當前句采用的是共享編碼器,即在Transformer的原始模型基礎(chǔ)上使用同一個編碼器來對源端句的上下文句進行編碼.為了有效利用篇章級別的上下文信息,系統(tǒng)加入了分類模塊,對兩個編碼器的輸出隱藏狀態(tài)進一步處理.從經(jīng)過編碼的信息中,判斷上下文與當前句是否存在關(guān)聯(lián),本文一方面通過分類任務(wù)來提升句子的表示能力,另一方面將聯(lián)合上下文注意力和門控機制來指導(dǎo)模型對上下文的有效利用.為了指導(dǎo)解碼器有效使用篇章上下文信息,將篇章上下文注意力層置于解碼器的自注意子層和上下文注意力子層之間;為了進一步控制上下文信息在目標端的利用,引入門控機制.下面將詳細描述分類器的設(shè)計和門控機制.

        圖1 融合篇章上下文有效識別的Transformer模型Fig.1 Transformer model fused effective context recognition

        1.2 篇章上下文有效識別

        1.2.1 分類器設(shè)計

        句子級的Transformer模型在翻譯時不需要考慮上下文,因此經(jīng)過編碼器編碼的句子表示在體現(xiàn)句間關(guān)系上能力較弱;與此相對,篇章翻譯的編碼輸出應(yīng)該在句間關(guān)系的判斷上更具優(yōu)勢.因此,存在這樣一個假設(shè):性能越好的篇章翻譯編碼器,它的編碼輸出(即句子表示)在句間關(guān)系判斷上應(yīng)該能力越強(本文3.4節(jié)的實驗結(jié)果驗證了該假設(shè)的合理性).根據(jù)這一假設(shè),本文的翻譯系統(tǒng)增加了一個聯(lián)合分類任務(wù):利用編碼器輸出判斷當前句子的上下文是不是真正有效的上下文.分類性能的提升,一方面說明系統(tǒng)內(nèi)的句子表示得到增強,另一方面也說明模型在學(xué)習過程中更能有效關(guān)注到上下文信息.

        (1)

        在KL_div策略中,利用訓(xùn)練好的BERT(bidirectional encoder representations from Transformers)預(yù)訓(xùn)練模型將句子轉(zhuǎn)化為特征向量,計算句子表征之間的KL距離.KL_div策略的相似度計算如式(2)所示:

        (2)

        1.2.2 分類器結(jié)構(gòu)

        分類器的結(jié)構(gòu)如圖2所示,記h∈Rnt×d和s∈Rnc×d分別表示當前句x(t)和當前句上下文c(t)經(jīng)編碼器后的輸出,nt表示源端當前句包含的單詞數(shù),其中nc表示對應(yīng)上下文包含的單詞數(shù),d表示隱藏狀態(tài)的大小.將隱藏狀態(tài)h和s進一步通過最大池化和平均池化操作,分別表示為向量u和v,即:

        圖2 處理篇章信息的分類器結(jié)構(gòu)圖Fig.2 Structure diagram of classifier processing document-level information

        u=[hmax-fP(h),hmean-fP(h)],

        (3)

        v=[smax-fP(s),smean-fP(s)],

        (4)

        其中u,v∈R2d,fP為池化函數(shù).為了捕獲u和v之間的關(guān)系,系統(tǒng)為分類器構(gòu)建了如下輸入,即

        o=[u,v,|u-v|,uv],

        (5)

        其中,o∈R8d,由u,v的拼接向量[u,v]、逐個元素乘積uv和逐元素的絕對差|u-v|構(gòu)成.最后,通過全連接層和二元分類softmax層判斷上下文c(t)是否為當前句x(t)的有效上下文:

        z=softmax(σ(oW1+b1)W2+b2),

        (6)

        其中,W1∈R8d×d,W2∈Rd×2,b1∈R1×d,b2∈R2為模型參數(shù),σ為sigmoid函數(shù).

        1.3 帶門控機制的殘差網(wǎng)絡(luò)

        在圖1所示的解碼器端,引入的上下文注意力子層用于融合篇章上下文信息.為方便起見,記解碼端自注意力層的輸出為p∈Rmt×d,mt為目標端當前句的單詞數(shù),上下文注意力層通過多頭注意力模型,融入篇章上下文信息s∈Rnc×d,即

        q=fMH(p,s,s),

        (7)

        其中q∈Rmt×d,fMH為多注意力機制函數(shù).為了獲取篇章的上下文信息,一般通過殘差網(wǎng)絡(luò)與上下文注意力子層的輸入進行融合,即

        r=q+p.

        (8)

        不難看出,式(8)所示的殘差網(wǎng)絡(luò)將采用全盤接收的方式融合獲取的篇章上下文q.為了區(qū)別篇章上下文是否有效,受Zhang等[7]的啟發(fā),本文引入帶門控機制的殘差網(wǎng)絡(luò),即通過門控層按一定比例α融合獲取的篇章上下文,如式(9)所示:

        r=αq+p.

        (9)

        α為衡量該篇章上下文信息重要程度的指標,可表示為

        α=σ(Wpp+Wqq),

        (10)

        其中Wp和Wq為權(quán)重參數(shù).一般來講,當篇章上下文有效時,希望通過訓(xùn)練使權(quán)重α接近于1,反之接近于0.

        2 訓(xùn)練方式

        2.1 聯(lián)合學(xué)習

        與第1節(jié)內(nèi)容相對應(yīng),本文聯(lián)合學(xué)習的損失函數(shù)分為三部分,分別涉及傳統(tǒng)NMT目標端的預(yù)測、有效篇章上下文的識別和帶門控機制的殘差網(wǎng)絡(luò)中篇章上下文的重要程度α.

        記模型參數(shù)為θ,NMT目標端預(yù)測相關(guān)損失函數(shù)為

        L1=

        (11)

        其中,N為訓(xùn)練集中平行篇章數(shù),Tn為第n個平行篇章的句子數(shù),mn,t為第n個平行篇章當前句子的詞數(shù).

        篇章上下文有效識別相關(guān)損失函數(shù)為

        (1-ki)log(1-p(ki|θ)).

        (12)

        其中:M為有效篇章上下文識別訓(xùn)練樣例數(shù),即為機器翻譯訓(xùn)練集中句子總數(shù);ki∈{0,1}為第i個句子的篇章上下文有效性標簽.

        帶門控機制的殘差網(wǎng)絡(luò)中篇章上下文重要程度α相關(guān)的損失函數(shù)為

        (13)

        其中,αi,j表示第i個句子在解碼器第j層中的帶門控機制的殘差網(wǎng)絡(luò)中篇章上下文的重要程度,6為解碼器的層數(shù).

        最終,本文的聯(lián)合學(xué)習的訓(xùn)練目標如式(14)所示:

        θ*=arg min

        θ(L1+L2+L3).

        (14)

        2.2 兩步訓(xùn)練法

        由于大規(guī)模篇章級平行語料庫通常無法獲取,即便是對于語料豐富的語言(如英語和中文)也是如此.在語料庫規(guī)模很小的條件下,篇章級NMT模型的表現(xiàn)往往不及句子級模型性能.本文采用Zhang等[7]提到的兩步訓(xùn)練方式.該訓(xùn)練方式額外使用了一個比篇章級語料數(shù)據(jù)Dd更大的句子級平行語料數(shù)據(jù)Ds,具體訓(xùn)練步驟如下:

        1) 在組合的句子級平行語料庫Dd∪Ds上訓(xùn)練句子級參數(shù).訓(xùn)練句子級參數(shù)時,模型與原始Transformer模型相同,篇章級模塊不參與訓(xùn)練,如圖1所示,進行該步訓(xùn)練時只有實線模塊參與訓(xùn)練.

        2) 僅在篇章級平行語料庫Dd上訓(xùn)練篇章級參數(shù).如圖1所示,在此步中虛線模塊和實線模型同時參與訓(xùn)練.

        值得注意的是,本模型在訓(xùn)練篇章級參數(shù)時,并沒有固定第一步句子級參數(shù),這主要是因為分類器模板需要兩個編碼器同時參與訓(xùn)練.

        3 實 驗

        3.1 實驗設(shè)置

        本文在中英、英德翻譯任務(wù)上驗證本文提出的模型.

        在中英翻譯任務(wù)上,訓(xùn)練集包含200萬個中英平行句子對,訓(xùn)練集包括句子級平行語料LDC2002E18、LDC2003E07、LDC2003E14、LDC2004T08的新聞部分;篇章級平行語料包括LDC2002T01、LDC2004T07、LDC2005T06、LDC2005T10、LDC2009T02、LDC2009T15、LDC2010T03.篇章級平行語料包括4.1萬個篇章,由94萬個句子對組成.本文選擇NIST 2006數(shù)據(jù)集作為開發(fā)集,包含1 664個句子,將NIST2002、NIST2003、NIST2004、NIST2005、NIST2008作為測試集,分別包含878,919,1 788,1 082,1 357個句子.翻譯任務(wù)的評估指標為對大小寫不敏感的雙語互譯評估值(BLEU),由mteval-v11b.pl腳本計算得出.中英翻譯中對源語言和目標語言都使用字節(jié)對編碼(BPE)[15],以減少未登錄詞的數(shù)量,操作數(shù)為4×104.

        在英德翻譯任務(wù)上,訓(xùn)練集包括News Commentary v11 corpus(http:∥www.casmacat.eu/corpus/news-commentary.html),并且從WMT14英德數(shù)據(jù)集(http:∥www.statmt.org/wmt14/translation-task.html)中抽取30萬個句子對用來訓(xùn)練句子級參數(shù).開發(fā)集為news-test2015,測試集為news-test2016.對于該翻譯任務(wù)數(shù)據(jù),為了提高訓(xùn)練效率,本文將長篇章分成最多30個句子的子篇章,而且同樣對源端和目標端語言使用了BPE,操作數(shù)為3萬.

        本文配置的Transformer模型來源于OpenNMT[16](https:∥github.com/OpenNMT/OpenNMT-py).本文將編碼器與解碼器的層數(shù)設(shè)置為6層,多頭注意力機制中含有8個頭,同時設(shè)置失活率為0.01,隱層維度和前饋神經(jīng)網(wǎng)絡(luò)中間層單元數(shù)分別為512和2 048.本文實驗只使用一個GTX1080Ti顯卡訓(xùn)練模型,訓(xùn)練時批處理大小為4 096個標記(token)以內(nèi).進行解碼時,設(shè)置集束大小為5,其他的設(shè)置使用Vaswani系統(tǒng)中的默認設(shè)置.本實驗中,第一步句子級模型的訓(xùn)練時間為28 h,第二步篇章級模型的訓(xùn)練時間為12 h.

        3.2 實驗結(jié)果

        為了驗證本文提出模型的性能,分別在中英和英德翻譯任務(wù)中進行實驗.表中TF-IDF策略表示在本文提出的模型下使用TF-IDF方法生成的負例訓(xùn)練數(shù)據(jù)進行篇章級翻譯實驗,總體數(shù)據(jù)的正負例比為1∶3;KL_div策略為通過計算KL距離生成的訓(xùn)練數(shù)據(jù)進行實驗,生成的正負例比為1∶1.這兩種策略選出來的篇章上下文均為一句.

        表1為中英翻譯任務(wù)上本文提出模型與基準系統(tǒng)在各測試集上的翻譯性能.可以看出本文提出的兩種方法均能夠提高系統(tǒng)的翻譯性能.與基準系統(tǒng)相比,本文模型使用TF-IDF策略的BLEU值提高了1.6 個百分點,使用KL_div策略的BLEU值提高了1.45個百分點.

        表1 本文模型與基準系統(tǒng)在中英翻譯任務(wù)的BLEU值Tab.1 The BLEU values of our model and the baseline in the Chinese-English translation task %

        表2為在英德翻譯任務(wù)上本文提出模型與基準系統(tǒng)在各測試集上的翻譯性能.可以看出在英德任務(wù)上,本文提出的模型與基準系統(tǒng)相比也同樣有顯著提升,尤其使用TF-IDF策略構(gòu)造上下文信息的方法在測試集上的BLEU值提高了0.53個百分點.

        這充分表明了本文提出的融合篇章上下文有效識別的篇章翻譯模型能夠有效地提升機器翻譯模型的效果.

        3.3 與相關(guān)工作的對比

        本文復(fù)現(xiàn)了篇章機器翻譯中非常經(jīng)典的工作[7]的模型代碼,并在本文中英數(shù)據(jù)集上測得實驗結(jié)果.對于Zhang等[7]的模型Doc-NMT的設(shè)置,本文采用了前一句作為上下文,上下文編碼器的層數(shù)為6層,跟文獻[7]中設(shè)置保持一致.除此之外,本文模型與模型Doc-NMT都是在同一個句子級模型參數(shù)上微調(diào)得到.表3展示了在中英數(shù)據(jù)集上Doc-NMT和本文模型采用TF-IDF策略的BLEU值比較,本文提出的模型具有更優(yōu)的性能,在BLEU均值上提升了0.32個百分點,進一步證明本文提出的基于聯(lián)合學(xué)習的篇章翻譯模型具有一定的優(yōu)勢.

        表3 本文模型與前人工作的BLEU比較Tab.3 BLEU value comparison of our model with previous work %

        3.4 上下文有效識別探究

        本文中通過引入分類器模塊,對篇章上下文進行有效識別,使得源端編碼表征能學(xué)習到更加有效的信息.因此,本文做了兩組實驗來證明本文模型增強源端表征的能力,另做了一組實驗來考察本文提出的帶門控機制的殘差網(wǎng)絡(luò)對模型性能的影響.

        第一組實驗,通過對本文提出的分類器性能進行對比實驗,來證明本文模型的編碼器可以學(xué)習到更加有效的篇章信息.先利用句子級基準模型的編碼器,分別對源端句和上下文句進行編碼,將兩個源端表征輸入至分類器模塊,測試分類器的性能.相同地,接著利用本文提出的篇章翻譯模型的編碼器進行編碼,得到的兩個源端表征來測試分類器性能.對比實驗在中英任務(wù)上進行,上下文的選取方式采用TF-IDF策略,正負例比為1∶3.結(jié)果顯示,使用基準模型的編碼器測出分類器的準確度為73.0%,使用本文建議的模型編碼器測出的分類器準確度為76.7%,與基準模型相比提高了3.7個百分點.可以看出,使用本文模型的編碼器能夠明顯提升分類器性能,能夠識別出更多有效的篇章上下文信息.

        第二組實驗,對比不同的上下文選取方式在篇章翻譯任務(wù)上的性能,采用的比照對象為從篇章中隨機挑選句子作為上下文來生成負例.對比實驗是在中英翻譯任務(wù)上進行的,生成數(shù)據(jù)的正負例比為1∶3.表4為3種數(shù)據(jù)生成方式下模型在測試集上的性能.可以看出,本文提出的選取方式較盲目隨機的選取上下文方式具有明顯的優(yōu)勢,尤其TF-IDF的選取方式較隨機選取的平均BLEU值提高了0.32個百分點.可見,本文提出的數(shù)據(jù)生成方式具有優(yōu)越性,更利于分類器識別出有效與無效上下文.

        表4 生成數(shù)據(jù)方式的BLEU值對比Tab.4 BLEU value comparison of data generation methods %

        第三組實驗中,本文將帶門控的殘差網(wǎng)絡(luò)換成普通的殘差網(wǎng)絡(luò)(w/o context gating),保留分類器模塊.在中英翻譯任務(wù)上進行驗證實驗,其他的實驗設(shè)置同3.1節(jié)的中英實驗設(shè)置,采用上下文長度為一句,TF-IDF策略的正負例比為1∶3,KL_div策略的正負例比為1∶1,結(jié)果如表5所示,可以看出,移除帶門控的殘差網(wǎng)絡(luò)后,在TF-IDF策略的上下文選擇方式下模型的平均BLEU值下降了0.32個百分點,在KL_div策略的上下文選擇方式中模型的平均BLEU值下降了0.31個百分點.可見,本文提出的帶門控的殘差網(wǎng)絡(luò)能夠在解碼端對上下文信息進行更加有效的利用,能夠使得模型的性能得到進一步提升.

        表5 不同殘差網(wǎng)絡(luò)的BLEU值比較Tab.5 BLEU value comparison of different residual networks %

        4 結(jié) 論

        針對篇章機器翻譯如何更高效利用上下文信息的問題,本文提出了一種新的模型結(jié)構(gòu).首先在現(xiàn)有NMT模型基礎(chǔ)上融入了篇章信息,其次對篇章信息進一步識別處理,最終通過解碼端的改進使得識別出的有效篇章信息得到充分利用.在中英和英德翻譯任務(wù)中表明,本文提出的模型和方法可以有效地提高機器翻譯的質(zhì)量.

        然而,本文模型在處理過多、過復(fù)雜的篇章上下文信息時,存在著處理能力不足、識別能力下降、無法讓模型利用更有效的上下文信息的問題.在未來的研究中,會針對模型的識別部分進行進一步改進和研究,努力完善模型,爭取達到更好的效果.

        猜你喜歡
        實驗信息模型
        一半模型
        記一次有趣的實驗
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權(quán)M-估計的漸近分布
        做個怪怪長實驗
        訂閱信息
        中華手工(2017年2期)2017-06-06 23:00:31
        3D打印中的模型分割與打包
        NO與NO2相互轉(zhuǎn)化實驗的改進
        實踐十號上的19項實驗
        太空探索(2016年5期)2016-07-12 15:17:55
        展會信息
        中外會展(2014年4期)2014-11-27 07:46:46
        美妇炮灰被狂躁爽到高潮h| 精品国产91久久综合| 亚洲av国产大片在线观看| 美女脱掉内裤扒开下面让人插| 欧洲女人与公拘交酡视频| 中国丰满熟妇av| chinese国产在线视频| 日本熟女视频一区二区三区| 久久亚洲道色综合久久| 无码不卡av东京热毛片| 图图国产亚洲综合网站| 亚洲处破女av一区二区| 国产精品一区二区三区卡| 欧美人和黑人牲交网站上线| 久久91综合国产91久久精品| 91国产视频自拍在线观看| 欧美牲交a欧美牲交| 人妻丝袜无码国产一区| 尤物无码一区| 亚洲中文乱码在线观看| 午夜爽爽爽男女免费观看影院| 国产成人无码免费网站| 自慰高潮网站在线观看| 国产91极品身材白皙| 97人妻人人做人碰人人爽| 狠狠躁夜夜躁无码中文字幕| 亚洲AⅤ乱码一区二区三区| 一区二区在线观看精品在线观看| 麻豆精品国产精华液好用吗| 国产一级特黄无码免费视频| 久久伊人中文字幕有码久久国产 | 国内精品九九久久精品小草| 国产91久久麻豆黄片| 午夜福利啪啪片| 日韩欧美国产自由二区| 国产亚洲一区二区毛片| 内射口爆少妇麻豆| 人妻丰满熟妇AV无码区HD| 日本在线一区二区三区观看| 亚洲一区毛片在线观看| 国产成人久久精品77777综合|