亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        面向未登錄詞及多義詞的共現(xiàn)性詞嵌入改進

        2022-12-11 13:33:08李保珍顧秀蓮
        計算機技術(shù)與發(fā)展 2022年12期
        關(guān)鍵詞:多義語料語料庫

        李保珍,顧秀蓮

        (南京審計大學 信息工程學院,江蘇 南京 211815)

        0 引 言

        詞嵌入是將自然語言語料庫中的詞語,以向量的形式映射為計算機可處理的、蘊含詞語上下文語義的一種數(shù)值化處理技術(shù)[1]。word2vec模型是典型的靜態(tài)詞嵌入方法之一,可把自然語言語料庫中的詞語表示成統(tǒng)一意義維度的結(jié)構(gòu)化的短向量,把詞嵌入到一個可計算的向量空間中[2]。

        傳統(tǒng)的詞嵌入模型是在神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)上進行簡化,移除隱藏非線性激活層,直接將嵌入層和輸出層的Softmax layer連接[3-4]。然而,傳統(tǒng)的詞嵌入模型只能從固定的詞匯量集合中學習已有的詞語。隨著社會的發(fā)展,衍生了許多已有詞匯表外的新詞,并且許多已有的詞匯也會衍生出新的含義。如“桌面”主要是指桌子的表面,但在部分語境中也會表示電腦或手機的打開界面。如果在一個任務(wù)遇到一個新詞語,并且這個詞語沒有出現(xiàn)在用于訓練的文本語料庫中,即未登錄詞[5]。傳統(tǒng)的詞嵌入模型尚不能為這個新的詞語構(gòu)建嵌入向量。此外,文本語料庫中會存在具有多重含義的詞語,例如,詞語“驕傲”,既有正面含義表示贊賞和高興,也有負面含義表示自負和自我膨脹,該詞語雖然形式相同,但表達的意思卻大相徑庭,只有考慮上下文語境才能識別出其恰當?shù)暮x。傳統(tǒng)的詞嵌入模型所構(gòu)建的向量空間維度的確定存在一定的隨機性,如何構(gòu)建合理的向量空間維度,以嵌入形式表示特定詞語在上下文語境下的恰當語義,以克服一詞多義所帶來的歧義問題,尚需進一步改進相關(guān)的詞嵌入模型。

        針對傳統(tǒng)的詞嵌入模型所存在的未登錄詞問題及一詞多義問題,該文提出基于詞共現(xiàn)的詞嵌入改進模型。主要創(chuàng)新點為,通過綜合考慮詞嵌入與詞共現(xiàn)兩方面因素,將基于傳統(tǒng)詞嵌入模型所構(gòu)建的詞嵌入向量,與經(jīng)過詞共現(xiàn)計算所構(gòu)建的詞共現(xiàn)向量融合。單獨創(chuàng)建未登錄詞的嵌入向量,并可綜合兼顧更多的語義空間維度,以提高詞嵌入的語義識別精度,減少一詞多義所帶來的歧義性干擾。

        1 相關(guān)工作

        國內(nèi)外對于傳統(tǒng)的靜態(tài)詞嵌入模型有大量的改進。針對詞的多義性問題,一種方法是詞性標注。例如,sense2vec是word2vec的一個擴展,在預處理步驟中,訓練語料庫中的所有單詞都用詞性(POS)標記進行注釋,然后學習由單詞本身及其POS標記組成的標記的嵌入[6]。通過這種方式,產(chǎn)生了不同的表達方式。另一種是對單詞出現(xiàn)的上下文進行聚類或使用額外的資源[7]。例如,Vector-Space Models模型即通過聚合單詞出現(xiàn)的上下文信息來編碼單詞的多重含義以及wordnet來識別單詞的多種含義[8]。

        針對未登錄詞問題,Wang等人通過生成代表詞之間的依賴信息的詞向量,提出了Charter to Word模型[9];Bojanowski等人通過學習文本和文本中所有字符n-grams的表示,然后組合單詞中出現(xiàn)的n-grams的嵌入來計算單詞的嵌入[10]。

        然而,上述傳統(tǒng)的詞嵌入改進途徑尚不能同時解決一詞多義和未登錄詞的詞嵌入問題。如何同時兼顧一詞多義和未登錄詞問題,以減少一詞多義所帶來的歧義性干擾,以及未登錄詞所帶來的冷啟動問題,需要融合詞語之間更多的相關(guān)性信息。此外,與傳統(tǒng)的詞嵌入模型相比,上述改進途徑大多需要更多的模型參數(shù)及計算資源,面對海量的語料庫和實時性計算要求,如何減少模型的參數(shù)以提高計算效率也是詞嵌入改進的目標。

        該文基于負采樣訓練的連續(xù)詞袋訓練模型,通過權(quán)重矩陣和共現(xiàn)矩陣,單獨構(gòu)建基于語料庫的詞向量模型,該途徑可有效解決一詞多義的歧義性干擾以及未登錄詞的冷啟動問題,并可有效提升詞嵌入模型的計算效率。

        2 模型構(gòu)建

        為解決一詞多義的歧義性干擾以及未登錄詞的冷啟動問題,以提升詞嵌入的效率,需要在詞嵌入過程中兼顧詞語之間的相似信息。該文基于負采樣和連續(xù)詞袋(CBOW)的詞嵌入模型,通過融合共現(xiàn)矩陣所揭示的詞語之間相似信息,提出了傳統(tǒng)詞嵌入模型的改進途徑。

        2.1 負采樣和連續(xù)詞袋

        經(jīng)典的神經(jīng)網(wǎng)絡(luò)詞向量語言模型一般有輸入層(詞向量)、隱藏層和輸出層(softmax層)三層[11]。傳統(tǒng)的詞嵌入模型對神經(jīng)網(wǎng)絡(luò)做了如下簡化:(1)移除隱藏非線性激活層,直接將嵌入層與輸出層的Softmax layer連接;(2)忽略序列信息,輸入的所有詞向量匯總到同一個嵌入層;(3)增加上下文窗口得到詞嵌入的CBOW模型[12]。

        傳統(tǒng)的詞嵌入模型中引入負采樣不僅能夠加速模型計算速度,還保證了模型訓練的效果[13],負采樣將預料中一個詞串的中心詞替換成其他詞,將不存在的字串作為負樣本,只更新隱藏權(quán)重矩陣的一部分?;谪摬蓸?Negative Sampling)和CBOW的詞嵌入模型,輸入CBOW的訓練語料樣本、詞向量的維度、CBOW的上下文大小、步長和負采樣個數(shù)。所有模型參數(shù)和字向量都是隨機初始化的。之后,對于每個訓練樣本負采樣出n個負例中心詞并且梯度迭代過程使用隨機梯度上升法。最后,輸出與詞匯表中每個單詞對應(yīng)的模型參數(shù)和所有單詞向量。

        從數(shù)學上講,這是通過首先從W0中選擇適當?shù)男衼碛嬎闵舷挛脑~嵌入的總和來實現(xiàn)的。然后將該向量乘以從W1中選擇的幾行:其中一行對應(yīng)于目標詞,而其他行對應(yīng)于隨機選擇k個“噪聲”詞(負采樣)。在應(yīng)用非線性激活函數(shù)之后,通過將該輸出與標簽向量t∈Rk+1進行比較來計算反向傳播誤差,該標簽向量t∈Rk+1在目標字的位置為1,對于所有k個噪聲字為0。在模型訓練完成后,目標詞的嵌入是W0中的對應(yīng)行。

        用負采樣訓練的CBOW詞嵌入模型可以解釋為一個神經(jīng)網(wǎng)絡(luò),它預測一個單詞與其他單詞的相似性。在訓練期間文本中每出現(xiàn)一個單詞w,對應(yīng)的二進制向量(在上下文單詞w的位置為1,在其他位置為0)被用作網(wǎng)絡(luò)的輸入,并乘以一組權(quán)重W0得到嵌入(與上下文單詞對應(yīng)的W0中行的總和)。然后將該嵌入乘以另一組權(quán)重W1(對應(yīng)于單詞嵌入Y的完整矩陣),以產(chǎn)生網(wǎng)絡(luò)的輸出,即包含單詞w與所有其他單詞的近似相似性的向量SWi∈RN。然后,通過將輸出的子集與二進制目標向量進行比較來計算訓練誤差,該目標向量用作僅考慮少量隨機詞時真實相似性的近似值。

        2.2 共現(xiàn)矩陣

        共現(xiàn)矩陣的行或列作為詞向量表示后,它的統(tǒng)計數(shù)值代表了詞之間的相似程度[14]。從語料庫文本中可構(gòu)建詞語之間的共現(xiàn)矩陣來揭示詞與詞之間的相似度。根據(jù)語料詞構(gòu)成的共現(xiàn)詞向量矩陣,計算詞典中每個詞之間的成對相似度矩陣,歸一化后可得到0到1之間的相似度得分。在相似上下文中,兩個詞語嵌入向量之間的余弦相似性應(yīng)接近1,當前詞語的窗口大小周圍共現(xiàn)詞語的數(shù)量[15]。由于語料庫的詞語數(shù)量通常較多,相似矩陣的計算量會隨著詞語維度增加而呈指數(shù)增長。但是一篇文檔的詞語數(shù)量通常有限,所以基于文檔計算詞語共現(xiàn)的共現(xiàn)矩陣具有高維和稀疏的特征[16]。如果選取少量的k個隨機詞,它們與目標詞的相似性有時會接近0。因此,一個詞語的嵌入和所有嵌入的矩陣的乘積應(yīng)導致向量接近該詞的真正相似性。

        改進的詞嵌入模型在輸入層依然沿用CBOW訓練模型和負采樣,將語料庫放入模型中訓練出權(quán)重矩陣WV*N,并對語料庫中每個單詞的出現(xiàn)次數(shù)進行累加,得到共現(xiàn)矩陣CoV*V。對共現(xiàn)矩陣CoV*V做歸一化處理,通過將共現(xiàn)矩陣的每一行除以相應(yīng)詞語在語料庫文本中出現(xiàn)的次數(shù)M,即共現(xiàn)矩陣的歸一化,可得到語料庫的詞語向量SV*V,也即語料文本詞語之間的相似信息,通過將其與訓練得到的權(quán)重矩陣WV*N相乘,即:

        (1)

        2.3 未登錄詞向量

        在創(chuàng)建整個語料庫文本詞向量的同時,為提升模型的精確度和效率,可為未登錄詞單獨創(chuàng)建語料詞向量Xn。再針對未登錄詞對其他語料文本的影響程度,通過調(diào)節(jié)權(quán)重m(0

        未登錄詞的語料文本詞向量的計算方式為未登錄詞語料庫中出現(xiàn)的詞xi對出現(xiàn)的次數(shù)Mu求平均值得到的。

        (2)

        同樣的,整體語料詞向量是通過整體的語料文本詞出現(xiàn)頻率求平均值得到的。

        (3)

        由此,可以得到新的語料詞向量的公式:

        SV*V=[m*Xu+(1-m)*Xg]

        (4)

        (5)

        綜合上述思路和模型,可構(gòu)建面向一詞多義及未登錄詞問題的詞嵌入改進模型,如圖1所示,算法步驟如下:

        算法1:面向一詞多義及未登錄詞的詞嵌入改進。

        輸入:需要計算詞嵌入的文本語料庫;

        輸出:基于文本語料庫的詞向量矩陣。

        (1)整個語料庫放入模型中訓練出權(quán)重矩陣Wv*N;

        (2)對語料庫中每個單詞的出現(xiàn)次數(shù)進行累加,得到共現(xiàn)矩陣CoV*V;

        (3)對共現(xiàn)矩陣CoV*V做歸一化,得到語料庫單詞向量SV*V;

        (5)針對未登錄詞對于其他剩余語料文本的影響程度,通過調(diào)控權(quán)重m(0

        圖1 基于負采樣和CBOW的共現(xiàn)性詞嵌入改進模型

        3 實 驗

        為說明改進的共現(xiàn)性詞嵌入模型與傳統(tǒng)詞嵌入模型相比較的優(yōu)勢,以傳統(tǒng)詞嵌入模型作為基線,通過兩個類比任務(wù)和命名實體識別任務(wù)來評估模型的精確率和F值。

        3.1 數(shù)據(jù)準備

        類比任務(wù)實驗采用text8數(shù)據(jù)集及questions-words數(shù)據(jù)集,數(shù)據(jù)集來自谷歌官網(wǎng)。其中text8數(shù)據(jù)集是包含空格符和26個英文字母的超長句子。questions-words數(shù)據(jù)集是包含14個類別以及每個類別數(shù)據(jù)都是4列的字符集。

        命名實體識別任務(wù)實驗使用典型數(shù)據(jù)集conll2003[17]。命名實體識別(NER)是信息提取的子任務(wù),conll2003數(shù)據(jù)集是由四列數(shù)據(jù)組成,并用一個空格分隔。數(shù)據(jù)分為四個類別,LOC(位置)、OGR(組織)、PER(人名)和MISC。每個單詞放在單獨的一行,每個句子后面都有一個空行。每行中的第一項是單詞,第二項是詞性標記,第三項是語法快速標記,第四項是命名實體標記。塊標簽和命名的實體標簽的格式為I-TYPE,這意味著該單詞在TYPE類型的短語內(nèi)。只有當兩個相同類型的短語緊跟其后時,第二個短語的第一個單詞才會標記為B-TYPE,以表示它開始了一個新短語。帶有標簽O的單詞不是短語的一部分。

        數(shù)據(jù)由三個文件組成:一個訓練文件training和兩個測試文件Testa和Testb。第一個測試文件Testa將在開發(fā)階段用于為學習系統(tǒng)找到合適的參數(shù)。第二個測試文件Testb用于最終評估。

        3.2 實驗設(shè)置

        類比任務(wù)用來評測詞向量好壞,以此來揭示詞嵌入模型在語義關(guān)系上的表現(xiàn)[18]。為了說明使用上下文編碼器創(chuàng)建的詞嵌入捕獲了詞語之間有意義的語義和句法關(guān)系,在與傳統(tǒng)詞嵌入模型一起發(fā)布的原始分類任務(wù)上對它們進行了評估。

        首先使用如上所述的負采樣訓練的CBOW詞嵌入模型對text8語料庫進行訓練,其中負采樣“噪聲詞”neg為13,嵌入維度d為200,上下文窗口大小為5,隨機種子seed為3,從17 005 207個單詞和17 006個句子的語料庫中收集253 854個獨立詞,刪除頻率c低于最小計數(shù)min_count為5的單詞后,共有71 290個唯一單詞。71 290詞匯200特征訓練模型,16 718 844字訓練2 789.4 s,5 994字/s。

        將傳統(tǒng)詞嵌入模型在text8語料庫上進行十次迭代訓練以提高精確率,包含約1 700萬個單詞和約70k個獨特單詞的詞匯,以及10億個基準數(shù)據(jù)集的訓練部分,其中包含超過7.68億個單詞,擁有486k個獨特單詞的詞匯量。

        命名實體識別任務(wù)用作外部評估以說明改進的詞嵌入模型相對于傳統(tǒng)詞嵌入模型的優(yōu)勢。實驗將數(shù)據(jù)集中的training數(shù)據(jù)通過詞嵌入模型訓練生成詞向量,而其他的如development等數(shù)據(jù)集未登錄詞表示為零向量。將詞向量與邏輯回歸分類模型一同訓練使用。實體命名識別任務(wù)從218 609個單詞和946個句子的語料庫中收集了20 102個獨特的單詞,迭代訓練做20次。為了驗證改進后的模型對于處理未登錄詞的優(yōu)勢,對權(quán)重值m從0到1進行線性增長變化,并對training訓練集使用傳統(tǒng)詞嵌入模型進行100次迭代作為對比基線詞向量。

        將conll2003數(shù)據(jù)集中的training用作基于負采樣和CBOW的詞嵌入訓練。Testa和Testb用作改進詞嵌入模型的訓練。為了隔離其他因素對性能的影響,實驗只使用詞語嵌入作為特征信息,不考慮詞語大小寫或詞性標記等其他信息。為了說明將詞嵌入與詞語的平均上下文詞向量相乘可以改進嵌入,改進的共現(xiàn)詞嵌入模型僅使用全局上下文詞向量進行計算,即m=1。為了說明將詞語的平均全局和未登錄詞語料上下文向量組合作為改進詞嵌入的輸入,可以有效解決一詞多義的問題,對于訓練詞匯表中出現(xiàn)的詞語,設(shè)置m<1。

        為了評價實驗結(jié)果,引入精確率和F值作為實驗評價標準。精確率在文中表示命名實體識別任務(wù)中識別正確的樣本數(shù)與識別總樣本的比率。召回率表示識別正確的樣本數(shù)與實際任務(wù)中總樣本數(shù)的比率。而F值表示為精確率和召回率加權(quán)調(diào)和平均的統(tǒng)計值。

        3.3 實驗結(jié)果及分析

        表1是類比任務(wù)的結(jié)果,展示了改進的共現(xiàn)性詞嵌入模型和基于負采樣和CBOW的傳統(tǒng)詞嵌入模型作為基線,經(jīng)過迭代10次數(shù)據(jù)集的14個類別的精確率對比結(jié)果。

        表1 類比任務(wù)精確率比對

        整體上來說,10次迭代結(jié)果證明改進的共現(xiàn)性詞嵌入模型相比于傳統(tǒng)詞嵌入模型,精確率高出了約6.4個百分點。其中,改進后的capital-world和city-in-state類別訓練的詞向量精確性分別是傳統(tǒng)詞嵌入模型的1.7倍和1.88倍。改進的共現(xiàn)性詞嵌入模型在這些任務(wù)類別上表現(xiàn)較好的一個原因可能是,在前四個任務(wù)類別中,參與比較的城市和國家名稱只有單一的含義。此外,各個類別的精確率尚存在差異,說明詞典中的詞義多樣對精確率有一定的影響,也說明改進模型在詞的語義關(guān)系獲取上有更高的優(yōu)勢。

        表2展示了training、Testa、Testb數(shù)據(jù)訓練出的詞向量與邏輯回歸分類模型應(yīng)用于LOC、FER、MISC及ORG 4類命名實體識別任務(wù)中的F值,其中m值設(shè)為0.6。其中,Testa訓練出的詞向量在LOC、FER、MISC三項任務(wù)中的F值最高。Testa和Testb訓練出的詞向量在四項任務(wù)的F值都高于training。通過表中實驗結(jié)果數(shù)據(jù)的對比,可以看出改進的共現(xiàn)性詞嵌入模型訓練所得到的詞向量,在識別詞的多義性性能上優(yōu)于傳統(tǒng)詞嵌入模型訓練所得到的詞向量,抗一詞多義帶來的歧義干擾能力更強。

        表2 命名實體識別任務(wù)F值比對 %

        m值變化對F值的影響如圖2所示。對training數(shù)據(jù)使用傳統(tǒng)詞嵌入模型進行100次迭代訓練,test數(shù)據(jù)中的未登錄詞用零向量表示,傳統(tǒng)詞嵌入模型訓練出的結(jié)果就是training數(shù)據(jù)。實驗中對公式中的權(quán)重m賦值從0到1,呈線性增長并無限逼近1。實驗結(jié)果表明改進的共現(xiàn)性詞嵌入模型在命名實體識別任務(wù)中性能優(yōu)于傳統(tǒng)的詞嵌入模型。當m=0.63時,F(xiàn)值最高,這說明未登錄詞數(shù)據(jù)集合與語料庫數(shù)據(jù)集混合得到的詞向量優(yōu)于通過單個數(shù)據(jù)文本得到的詞嵌入向量。改進的共現(xiàn)性詞嵌入模型生成的詞向量能夠更有效地為未登錄詞創(chuàng)建詞向量,詞嵌入向量更符合上下文語境含義,提高了詞嵌入向量的效果。

        圖2 m值變化對F值的影響

        圖3為基于詞嵌入模型三次隨機初始化的命名實體識別任務(wù)結(jié)果。當使用傳統(tǒng)詞嵌入(虛線)的平均性能被視為基線,其他嵌入都是詞語的全局和局部詞向量的各種組合。對比得出,改進的共現(xiàn)性詞嵌入模型在性能上是有所提升的,全局語料與未登錄詞語料混合創(chuàng)建出的詞向量效果最優(yōu)。

        圖3 不同詞語嵌入特征下的NER性能

        4 結(jié)束語

        綜合考慮詞嵌入和詞共現(xiàn)兩方面因素,提出基于詞共現(xiàn)的詞嵌入改進模型。通過融合訓練后的詞嵌入矩陣與詞語的共現(xiàn)矩陣,可在新的詞嵌入權(quán)重矩陣中蘊含詞語間的相似度信息。該途徑既可將文本中出現(xiàn)但訓練語料庫中不存在的詞語進行嵌入向量表示,又可兼顧更多維度的語義空間維度,進而可更準確識別詞語的上下文語境含義,以減少一詞多義所帶來的歧義性干擾。因此,改進的詞嵌入模型可以創(chuàng)建未登錄詞嵌入,并可根據(jù)詞語的上下文語境確定其恰當?shù)暮x。此外,改進的詞嵌入模型在提升詞嵌入處理能力的同時,也可縮短相關(guān)的進程時間,具有較強的實際意義。未來的研究中將進一步考慮詞語間的順序,綜合考慮詞語間的相似性和詞語語序,并將更多維度的信息融入到權(quán)重矩陣中,以進一步提升詞嵌入模型的精確率。

        猜你喜歡
        多義語料語料庫
        《語料庫翻譯文體學》評介
        把課文的優(yōu)美表達存進語料庫
        基于語料調(diào)查的“連……都(也)……”出現(xiàn)的語義背景分析
        華語電影作為真實語料在翻譯教學中的應(yīng)用
        維吾爾語動詞“t∫iqmap”多義范疇的語義延伸機制
        語言與翻譯(2015年2期)2015-07-18 11:09:55
        基于JAVAEE的維吾爾中介語語料庫開發(fā)與實現(xiàn)
        語言與翻譯(2015年4期)2015-07-18 11:07:45
        一個所謂多義句式的本來面目
        《苗防備覽》中的湘西語料
        國內(nèi)外語用學實證研究比較:語料類型與收集方法
        多車道自由流技術(shù)在多義路徑識別領(lǐng)域的應(yīng)用
        亚洲中文字幕久久无码精品| 少妇太爽高潮在线播放| 国产老熟女精品一区二区| 亚洲av无码专区在线观看下载 | 亚洲国产精品美女久久| 人人爽人人澡人人人妻| 国产高清无码在线| 日本道免费一区日韩精品| 澳门蜜桃av成人av| 午夜福利理论片高清在线观看| 99热成人精品免费久久| 一区二区三区四区日韩亚洲| 亚洲桃色视频在线观看一区 | 亚洲人成人影院在线观看| 久久久久久人妻一区精品| 沐浴偷拍一区二区视频 | 亚洲av无码专区国产乱码不卡| 美女视频很黄很a免费国产| av黄色大片久久免费| 亚洲av无码成人精品区狼人影院 | 亚洲av无吗国产精品| 少妇被爽到高潮喷水久久欧美精品| 国产成人av 综合 亚洲| 亚洲国产字幕| 精品在线观看一区二区视频| 欧美性色黄大片手机版| 亚洲综合免费| 国产精品又污又爽又色的网站| 无码毛片内射白浆视频| 人人妻人人澡人人爽人人精品| 亚洲无码毛片免费视频在线观看 | 国产婷婷色一区二区三区深爱网| 欧美aaaaaa级午夜福利视频| 国产亚洲精品A在线无码| 久久午夜一区二区三区| 中文字幕人妻熟女人妻| 亚洲熟妇20| 国内激情一区二区视频| 玩弄少妇人妻中文字幕| 66lu国产在线观看| 人妻尤物娇呻雪白丰挺|