亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于遞歸神經(jīng)網(wǎng)絡的英譯漢機器翻譯模型設計與實現(xiàn)

        2021-12-01 07:56:40樊同科
        計算機測量與控制 2021年11期
        關(guān)鍵詞:英語模型

        楊 璐,樊同科

        (1.西安外事學院 國際合作學院,西安 710077;2.西安外事學院 工學院,西安 710077)

        0 引言

        翻譯是將一種語言轉(zhuǎn)換成另一種語言,翻譯可以是逐字翻譯,也可以是逐句翻譯。在逐句翻譯中,獲得的信息比逐字翻譯要多[1]。漢語是世界上使用人數(shù)是最多的語言,其使用人口約為14億。機器翻譯長于文本或者語音翻譯,因此機器翻譯系統(tǒng)在快節(jié)奏的語言交流領域扮演者重要作用[2]。與此同時,機器翻譯是開放系統(tǒng),具有泛化學習能力,隨著新數(shù)據(jù)添加到模型,能夠進行獨立的更新替換。機器可以處理多維數(shù)據(jù)以及多種數(shù)據(jù),機器翻譯有助于節(jié)省時間,所以人們不必花時間在尋找字典來翻譯一個句子,提高了生產(chǎn)率。

        利用機器學習算法將英語翻譯成漢語,采用自然語言處理使機器翻譯智能化。語言處理方式日益豐富,許多研究定義了自然語言處理的體系結(jié)構(gòu),有些研究涉及英譯漢翻譯的改進,也有一些研究是簡單句子結(jié)構(gòu)和不同機器翻譯系統(tǒng)的比較。然而,目前對復雜句子結(jié)構(gòu)和句子重復意義的研究還比較少[3-7]。本研究的目的是設計一個基于遞歸神經(jīng)網(wǎng)絡(RNN,recursive neural networks)的英漢機器翻譯體系結(jié)構(gòu),綜合詞匯的句法分析因素和注意權(quán)重,用RNN設計機器翻譯系統(tǒng)的體系結(jié)構(gòu),并測試了機器翻譯系統(tǒng)的性能。

        1 方法論

        采用自然語言處理可以使機器翻譯智能化,研究人員提出了許多機器翻譯的解決方案,對于英語到印地語的翻譯,使用了兩種編碼器-解碼器神經(jīng)機器翻譯結(jié)構(gòu),它們是卷積序列到序列模型(ConvS2S)和遞歸序列到序列模型(RNNS2S)[3]。在訓練數(shù)據(jù)中,使用了1 492 827個句子,其中英語20 666 365個單詞,印地語22 164 816個單詞。遞歸序列到序列模型使用Nematus框架進行訓練,卷積序列到序列模型使用Fairseq-5進行訓練,F(xiàn)airseq-5是Facebook開發(fā)的一個開源庫,用于使用卷積神經(jīng)網(wǎng)絡(CNN)或遞歸神經(jīng)網(wǎng)絡進行神經(jīng)機器翻譯。研究結(jié)果表明,卷積序列到序列模型在英印翻譯方面表現(xiàn)更好,這將有助于解決本文提出的英漢翻譯問題。在基于語料庫的方法中,使用一個主語文件和一個動詞文件,解決了文獻[4]的翻譯問題。對于每個主語,都有一個對應于其動詞的標記,并選擇最合適和最有意義的句子進行最終翻譯。結(jié)果顯示,與谷歌翻譯程序相比,該譯碼器具有更好的性能。

        對于另一個英語到印地語的翻譯,使用了前饋反向傳播人工神經(jīng)網(wǎng)絡[5]。在實現(xiàn)方面,采用Java作為主要編程語言,實現(xiàn)了除神經(jīng)網(wǎng)絡模型外的所有規(guī)則和模塊,并在Matlab中實現(xiàn)。這里,訓練數(shù)據(jù)由編碼器編碼成數(shù)字形式,編碼器也是用Java實現(xiàn)的。使用BLEU來計算系統(tǒng)的得分,BLEU分數(shù)也被用于測試訓練模型。另一種維吾爾族語到漢語的神經(jīng)機器翻譯方法采用RNN編碼器-解碼器框架方法實現(xiàn)[6],其中一些訓練過程和數(shù)據(jù)集被用來實現(xiàn)這兩種模型。以上研究的結(jié)果表明,遞歸神經(jīng)網(wǎng)絡比傳統(tǒng)的RNN編碼提供了更好的結(jié)果。

        1.1 數(shù)據(jù)收集

        為了使用機器學習算法進行訓練,本文收集了數(shù)據(jù)集,文中研究的主要數(shù)據(jù)集是英語和漢語平行句。對于每一個英語句子,都需要一些對應的漢語句子來訓練和測試智能系統(tǒng)。數(shù)據(jù)集是從一些文章中收集的,這些文章是由手工編寫的英語和漢語,英語和漢語句子的最大長度均為7。數(shù)據(jù)集由4 000個英語和漢語平行句組成,數(shù)據(jù)集被分成4:1的比例分別進行訓練和測試。

        1.2 預處理

        為了規(guī)范化數(shù)據(jù)集,需要執(zhí)行文本預處理步驟。句子的所有字母都被轉(zhuǎn)換成小寫,所有的標點符號都被刪除,不屬于英語和漢語的字符也會被刪除。對于模型設計原型,利用Tensorflow-Keras Python軟件包建立了神經(jīng)網(wǎng)絡的設計模型[7]。

        2 模型構(gòu)建

        2.1 標記化

        數(shù)據(jù)集必須在初始狀態(tài)下實現(xiàn)標記化,對于每一個英語和漢語句子,所有的單詞都根據(jù)頻率進行標記。Tensorflow有一個標記器庫,用于將單詞映射為相應的整數(shù)。

        然后,將所有單詞替換為一個記號數(shù)字,并存儲在英語和漢語句子的列表中。表1的英文句子轉(zhuǎn)換如下:

        表1 標記化映射詞

        511331

        相應的漢語標記化句子轉(zhuǎn)換如下:

        721141

        每個句子的長度不是固定的,為了使所有標記化的句子具有相同的長度,將應用填充。英語和漢語句子的最大長度均為7,因此,未填入的空格用0(零)填充。

        英語標記化序列為:

        511331000

        漢語標記化序列為:

        721141000

        輸入的數(shù)據(jù)是矢量化的,因此數(shù)據(jù)集可以輸入到神經(jīng)網(wǎng)絡模型中。

        2.2 詞匯上下文向量

        根據(jù)存儲的上下文向量,可以預測英語標記化句子。為了生成上下文向量,將英語和漢語的標記化句子作為輸入,英語和漢語映射的標記為注意權(quán)重,注意權(quán)重代表漢語標記化序列對英語標記化序列的注意。

        score=Sigmoid(denseLayer+hiddenLayer)

        attentionWeights=Softmax(score)

        contextVector=(attentionWeights?encoderOutput)

        (1)

        利用式(1)生成上下文向量,圖1所示為用于生成上下文向量的網(wǎng)絡,訓練序列的輸入為英語-漢語平行句。RNN的嵌入層對標記序列進行歸一化處理,并將輸出作為GRU或LSTM層的輸入。為了測量性能,本研究實現(xiàn)并測試了GRU和LSTM。使用Sigmoid和Softmax激活函數(shù)激活密集層和隱藏層的輸出,同時測量注意權(quán)重的得分,以便進行性能評估,通過將編碼器輸出和注意權(quán)重相乘來生成上下文向量。

        圖1 生成上下文向量的訓練模型

        2.3 遞歸神經(jīng)網(wǎng)絡

        遞歸神經(jīng)網(wǎng)絡(RNN)模型采用順序輸入的方式[8],即一個節(jié)點的輸出作為另一個節(jié)點的輸入或偏置。由于一個句子中的單詞具有關(guān)聯(lián)意義,因此采用RNN模型進行研究。

        1)編碼器:

        編碼器由輸入嵌入層、GRU層和隱藏輸入層組成。輸入嵌入層用于對數(shù)據(jù)集進行規(guī)范化。GRU層使用門控循環(huán)單元(GRU,gated recurrent unit)[9],為了測試性能,也可使用長短時記憶網(wǎng)絡(LSTM,long short term memory network)來代替GRU。使用不同的激活函數(shù)來衡量模型的性能。編碼器輸出的批量大小為64,序列長度為7,共1 024個單元。

        2)解碼器:

        解碼器的第一層由嵌入層構(gòu)成,然后使用GRU作為類似編碼器,激活函數(shù)在GRU層工作。在GRU之后,用總詞匯大小作為密集層。與Bahdanau注意力機制類似,用于制作上下文向量。

        3)注意方法:

        本設計采用了注意機制,英語單詞重點集中于由注意權(quán)重測量的漢語詞匯[10]。使用Sigmoid激活函數(shù)對兩個密集層的輸入進行歸一化,并計算得分權(quán)重,權(quán)重也用Softmax或Sigmoid激活函數(shù)進行歸一化。

        4)激活函數(shù):

        為了進行性能比較,使用了一些激活函數(shù),激活函數(shù)的主要作用是將輸入序列標準化。

        雙曲正切激活函數(shù)式(2):

        (2)

        其中:x為序列的值。

        線性激活函數(shù)式(3):

        F(xi)=wixi+b

        (3)

        其中:wi和b分別表示線性激活函數(shù)的斜率和截距。

        Softmax激活函數(shù)式(4):

        (4)

        Sigmoid激活函數(shù)式(5):

        (5)

        在激活函數(shù)中,i=1,…,k;x=(x1,x2…,xk)∈Rk,表示標記序列。

        Softmax和Sigmoid的激活函數(shù)如圖2所示。

        圖2 Sigmoid和Softmax激活函數(shù)

        所有這些激活函數(shù)都用于編碼器GRU層、解碼器GRU層和注意層,從而尋找注意權(quán)重。

        5)損失函數(shù):

        為了訓練RNN模型,對誤差進行了計算,并利用反向傳播損失函數(shù)對模型進行了改進。Tensorflow有一個稀疏的分類交叉熵函數(shù)庫,用于計算誤差。

        分類交叉熵函數(shù)如下:

        (6)

        6)優(yōu)化和學習率:

        優(yōu)化部分包括數(shù)據(jù)預處理和歸一化,優(yōu)化的另一個因素是學習率。

        LearningRate(學習率)=1e-3=0.001

        學習數(shù)據(jù)集使用了Adam優(yōu)化算法[11],Adam是RMSprop和隨機梯度下降的組合。在本研究中使用Adam的主要優(yōu)點是在訓練數(shù)據(jù)集期間可以進行時間優(yōu)化。

        對于英文輸入句“Let me go”整體模型如圖3所示。上下文向量模塊表示在該部分定義的映射英語和漢語標記化句子的訓練模型數(shù)據(jù)集[12]。一旦對輸入句子進行標記和填充,序列就可以進行RNN輸入。在RNN編碼器中,第一層是嵌入層,第二層是GRU層。

        圖3 英譯漢的機器翻譯模型

        解碼器與編碼器相似,不同的是解碼器有一個密集層,該層根據(jù)注意分數(shù)返回相應的標記序列,在移除填充之后,標記器將序列解碼成漢語句子。

        3 結(jié)果與討論

        本文模型設置了檢查點,模型的對象保存在本地驅(qū)動器中,并從上一個檢查點恢復。對于每一次的訓練數(shù)據(jù)都有助于提高性能。模型的性能用損失函數(shù),即式(6)來衡量,本研究進行了30個階段的性能評估,模型的精度取決于誤差。為了使系統(tǒng)誤差最小化,采用了不同的方法,比較了編碼器、解碼器和注意層的激活函數(shù)。本文還以最佳激活函數(shù)測量了GRU和LSTM的性能。

        3.1 輸入輸出層

        對于輸入層,雙曲正切激活函數(shù)和線性激活函數(shù)在實驗中表現(xiàn)最好。編碼器的第一層是嵌入層,在嵌入層中對標記化序列進行歸一化。將所有序列轉(zhuǎn)換成嵌入格式后,在GRU層測試雙曲正切激活函數(shù)和線性激活函數(shù),以測量系統(tǒng)的性能。

        模型損失如圖4所示,從圖4可以看出,編碼器的線性激活函數(shù)和解碼器GRU層的雙曲正切激活函數(shù)具有穩(wěn)定的性能[13]。為了交叉檢查雙曲正切激活函數(shù)和線性激活函數(shù)的誤差和性能,對4種組合進行了評估。

        圖4 模型損失

        由表2可知,編碼器GRU和解碼器GRU的線性激活函數(shù)均增加了0.805的誤差,編碼器線性和解碼器雙曲正切激活函數(shù)的平均誤差為0.740,另一個編碼器的雙曲正切激活函數(shù)和解碼器線性激活函數(shù)的損耗為0.783。

        表2 價值損失平均值

        3.2 注意層

        注意層由兩個激活函數(shù)組成,一個用于輸入,另一個用于將輸出歸一化為注意權(quán)重。這里使用了Sigmoid激活函數(shù)和Softmax激活函數(shù)。使用了Sigmoid激活函數(shù)和Softmax激活函數(shù)的所有組合來評估系統(tǒng)的性能。

        如圖5所示,Sigmoid函數(shù)給出了注意層的最佳性能。注意層輸入的Sigmoid函數(shù)和輸出注意層的Softmax函數(shù)都是有效的。

        圖5 基于注意層激活函數(shù)的模型損失

        3.3 LSTM和GRU

        在嵌入層之后實現(xiàn)了GRU層,也可以使用LSTM層來代替GRU[14-17]。在圖2中,運行了50個epoch,并且使用了輸入輸出層和注意層中性能最佳的激活函數(shù)。但隨著epoch的增加,門控循環(huán)單元(GRU)的誤差和損失也會減少。為了獲得最佳的性能,使用一些參數(shù)如中央處理器(CPU)、隨機存取存儲器(RAM)和圖形處理單元(GPU)以及明顯的數(shù)據(jù)集數(shù)目作為樣本訓練的重要因素。

        在圖6中,GRU的性能比LSTM更好,這就是模型使用了GRU層的原因,GRU的平均誤差為0.508,比LSTM的0.602更有效。

        圖6 模型(LSTM-GRU)的性能

        3.4 誤差最小化

        使用100個epoch用于評估每個epoch的最小誤差,這些epoch被分為兩個部分,如圖7所示,對于后50個epoch,誤差在滿意度水平上有所下降。

        圖7 性能提升

        從表3可以看出,前50個epoch的標準偏差為0.680,平均誤差為0.506。對于后50個epoch,平均誤差降低到0.107,標準差為0.003,性能良好。

        表3 性能評估

        該系統(tǒng)模型可以在輸入英語句子的基礎上對一個平行的漢語句子進行評估,這個模型是使用深度學習方法以數(shù)據(jù)驅(qū)動的方式生成的,它通過多層神經(jīng)網(wǎng)絡學習預測每個給定單詞的翻譯單詞,將單詞轉(zhuǎn)化為向量表示[18]。在標記化之后,RNN模型具有嵌入層,嵌入層是編碼器和解碼器的初始層。為了評估自動語音識別,對于GRU和LSTM層的性能進行了比較,結(jié)果表明,GRU的性能優(yōu)于LSTM,所以下一層是GRU層。使用雙曲正切激活函數(shù)和Softmax激活函數(shù)來評估注意機制,注意層的激活函數(shù)采用Sigmoid函數(shù),以達到最佳的漢語翻譯效果[19]。編碼器和解碼器的兩個GRU層使用線性激活函數(shù)和雙曲正切激活函數(shù),由于它們的平均損耗最小。

        在編碼器和解碼器中分別使用線性激活函數(shù)和雙曲正切激活函數(shù),在注意層使用Sigmoid函數(shù),可以獲得最佳的精度[20]。用這些配置進行了100個epoch,平均誤差最小為0.107。與文獻[14]相比,本文的基于遞歸神經(jīng)網(wǎng)絡的英譯漢機器翻譯方法誤差較低。實驗結(jié)果表明,該算法比傳統(tǒng)的翻譯算法具有更好的性能。此外,考慮到交際翻譯,這種翻譯方法提供了準確地獲取給定句子的上下文意義的優(yōu)勢。

        如前所述,在翻譯后獲取句子的實際意義是一項復雜的任務,它依賴于訓練數(shù)據(jù)集、詞匯和CPU處理能力,豐富的詞匯可以帶來更好的表現(xiàn)。除了這個限制之外,提出的模型可以應用于各種應用。許多現(xiàn)有的解決方案側(cè)重于逐字翻譯或直譯,而沒有考慮句子或短語中單詞的用法,這種模型為從英譯漢的翻譯提供了一種新的可能性。此外,由于該模型克服了翻譯的均衡性,因此可以用來建立系統(tǒng),從而能夠通過相應地考慮單詞的實際意義來更準確地翻譯語言。例如,模型可以作為一個對話系統(tǒng),在不真正了解漢語的情況下,用這種語言表達情感和想法,這對很多人來說是一個有益的指導。此外,通過學習正確的翻譯,會話系統(tǒng)將能夠獲得正確的句子含義。

        4 結(jié)束語

        機器翻譯有很多好處,它節(jié)省時間,可翻譯多種語言等。本文提出了一種英譯漢機器翻譯的設計方案并對其加以實現(xiàn)。與各種研究中的其他實現(xiàn)方法相比,本文提出的英譯漢的遞歸神經(jīng)網(wǎng)絡方法提供了更好的結(jié)果,它將為機器學習算法中的自然語言處理做出更大的貢獻,當處理大量詞匯可以提高性能,增加epoch的數(shù)量可以提高準確率,但是處理這類問題需要更多的處理能力和內(nèi)存,這些不足將在以后的工作中得到解決。

        猜你喜歡
        英語模型
        一半模型
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權(quán)M-估計的漸近分布
        玩轉(zhuǎn)2017年高考英語中的“熟詞僻義”
        3D打印中的模型分割與打包
        讀英語
        FLUKA幾何模型到CAD幾何模型轉(zhuǎn)換方法初步研究
        酷酷英語林
        一個相似模型的應用
        成年女人色毛片| 一边做一边喷17p亚洲乱妇50p | 中出高潮了中文字幕| 欧美一级欧美一级在线播放| 99久久99久久久精品久久| 日本一区二区三区在线| 久久国产精品精品国产色| 24小时免费在线观看av| 乱老年女人伦免费视频| 中文无码久久精品| 精品国产a∨无码一区二区三区| 日本在线观看不卡| 亚洲一区日本一区二区| 全部亚洲国产一区二区| 亚洲youwu永久无码精品| 成年女人粗暴毛片免费观看 | av在线免费播放网站| 人日本中文字幕免费精品| 日本一区二区三区免费精品| 亚洲中文字幕无码av| 欧美孕妇xxxx做受欧美88| 亚洲日本va99在线| 看黄色亚洲看黄色亚洲| 蓝蓝的天空,白白的云| 国产精品黄色片在线看| 久久精品国产精品| 热99精品| 米奇亚洲国产精品思久久| 一道之本加勒比热东京| 中文人妻熟女乱又乱精品| 少妇无码av无码专区线| 伊人99re| 杨幂国产精品一区二区| 一区二区精品天堂亚洲av| 精品国产乱码久久久久久郑州公司| 国产95在线 | 欧美| 东北少妇不带套对白| 亚洲中文无码成人影院在线播放| 国产av一区二区三区丝袜| 激情在线视频一区二区三区| 日本av一级片免费看|