亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于多語義相似性的關系檢測方法

        2022-01-11 13:55:08謝金峰王羽葛唯益徐建
        西北工業(yè)大學學報 2021年6期
        關鍵詞:語義文本檢測

        謝金峰, 王羽, 葛唯益, 徐建

        1.南京理工大學 計算機科學與工程學院, 江蘇 南京210094;2.中國電子科技集團公司第二十八研究所 信息系統(tǒng)工程重點實驗室, 江蘇 南京210007

        隨著互聯(lián)網(wǎng)發(fā)展,網(wǎng)絡上的文本資源越來越豐富,結構化的信息和知識更易于管理和使用,為此構建出了大規(guī)模的開放域知識庫,比如Freebase[1]、Depdia[2]和PkuBase。通常,采用三元組的形式表示知識庫中的知識,形如〈entity, predicate,entity〉,其中entity 表示特定實體,predicate表示實體間的關系。知識庫中包含大量的三元組,它們構成了一張龐大的關系圖。面向知識庫的智能問答是一個典型應用場景,被廣泛應用于搜索引擎、智能聊天等實際領域中[3]。在面向知識庫的問答系統(tǒng)中,查詢一個以自然語言描述的問題,系統(tǒng)會在知識庫中搜索對應的三元組,之后給出準確的答案。知識庫問答包括2個子任務:①實體鏈接:檢測出問題中的實體并鏈接到知識庫中的特定實體;②關系檢測:檢測出問題中提及的關系(鏈)。關系檢測步驟的準確率將會直接影響問答的質量。針對關系檢測,以往的工作大致分為兩類:將關系檢測建模為分類任務;將關系檢測建模為文本序列匹配任務。

        將關系檢測建模為分類任務[4-10]。知識庫中會預定義一個關系集,基于分類的關系檢測方法將每個關系視為一個類別,通過給問題分類確定與問題相關聯(lián)的核心關系。例如文獻[7]使用詞匯映射的方法進行關系檢測。之后文獻[9]提出一種使用多通道卷積神經(jīng)網(wǎng)絡(CNN)提升分類方法的模型?;诜诸惖姆椒ㄟM行關系檢測時不依賴于實體鏈接的結果,上一步驟的誤差不會傳遞到這一步驟,但此類方法無法利用關系的語義信息,近年的研究中基于文本序列匹配的方法逐漸成為主流。

        基于文本序列匹配的方法通過計算問題和關系的相似度,選擇相似度最高的關系作為問題關聯(lián)的核心關系?,F(xiàn)有的方法大致可以分為2類:編碼-比較型和交互型?;诰幋a-比較的方法先將輸入問題和關系表示為向量序列,之后通過聚合操作將序列轉化為定長的向量,使用一種距離計算公式來度量相似度,作為問題和關系的最終匹配得分[11-16]。例如文獻[11]將關系視為單個標簽,使用TransE學習的向量進行初始化。文獻[12]提出的MCCNNs方法使用多通道CNN生成問題表示向量。文獻[13]指出從多個粒度表示關系(關系粒度和詞序列粒度)可以提升關系檢測效果,提出的模型HR-Bi-LSTM利用雙向長短期記憶網(wǎng)絡(Bi-LSTM)學習不同層次的問題表示和不同粒度的關系表示?;诮换バ偷姆椒▌t假設文本的匹配度依賴于詞級別局部的匹配度,先構建交互矩陣,之后對交互矩陣進行抽象表示,最后計算問題和關系的匹配得分。文獻[17]提出的交互型方法使用注意力機制計算問題和關系的交互矩陣,之后利用多核CNN抽取特征計算相似度得分。由于關系自身存在語義,建模為文本序列匹配的模型可以識別出一些未見關系。

        然而,文本匹配的關系檢測方法存在如下問題:基于編碼-比較的方法更重視全局語義信息,在聚合操作(最大池、平均池)將向量序列變?yōu)閱蝹€向量會丟失一部分文本的語義信息;基于交互的方法假設文本相似度基于序列局部相似度,因此交互型模型無法由局部匹配刻畫全局信息,此類方法缺乏對全局語義的理解。

        針對現(xiàn)有模型沒有兼顧全局語義信息與局部語義信息的問題,本文提出一個新的關系檢測模型,通過融合問題和關系的全局語義、局部語義信息進行關系檢測,捕獲多樣化的特征來計算問題和關系的匹配度,提升關系檢測精度。該模型主要分為2個部分:局部相似度度量模塊和全局相似度度量模塊。BERT[18]作為整個模型的文本編碼層,獲得問題和關系的向量化表示,局部相似度度量模塊基于注意力機制,得到關系和問題之間的相似度權重后,使用Bi-LSTM分析差異,最后使用多層感知機計算Q-R局部相似度。全局相似度計算模塊則使用BERT獲得的句向量,將問題和關系句向量的余弦值作為Q-R的全局相似度。最終的匹配度等于全局相似度和局部相似度加權后的和。在廣泛使用的SimpleQuestion和WebQSP數(shù)據(jù)集上評估所提出模型的性能,并與僅計算全局相似度或者僅計算局部相似度的模型進行對比分析,以驗證本文提出的模型在關系檢測任務上的有效性。

        1 基于多語義相似性的關系檢測模型

        1.1 問題定義

        圖1為關系檢測的步驟圖,下面給出關系檢測的形式化描述。

        圖1 關系檢測步驟圖

        (1)

        式中,S(ri,q)表示關系r和q的匹配得分,也即是模型的計算目標。

        1.2 關系檢測模型

        本節(jié)將會詳細描述關系檢測模型的4個模塊:文本編碼層,全局相似度度量模塊、局部相似度度量模塊和整體輸出層。每一模塊的作用如下:

        1) 文本編碼層:使用BERT作為整個模型的文本編碼層,將問題和關系中的每個標簽轉換為向量,該向量含有標簽的上下文信息。BERT模型會在輸入的文本前添加特殊的[CLS]標簽,由于[CLS]標簽自身無實際意義,在訓練中能夠學習到輸入文本的全局語義信息,所以對應的向量可以作為文本的句向量使用。

        2) 全局相似度度量模塊:使用BERT得到的句向量,計算問題和關系句向量的余弦值作為全局相似度。

        3) 局部相似度度量模塊:使用Soft Attention計算問題和關系之間的注意力加權,而后使用Bi-LSTM提取差異,最后使用多層感知機計算局部相似度。

        4) 整體輸出層:輸出最終的相似度計算結果。模型結構如圖2所示。

        圖2 關系檢測模型結構

        1.2.1 文本編碼層

        1) 關系表示層

        通常,從詞級別和關系級別來表示一個關系(鏈),假設模型此時正在處理含有|r|個關系的關系鏈r={r1,…,r|r|},關系的表示為

        (2)

        2) 問題表示層

        問題表示為詞序列,將問題中所有標記的總數(shù)量記為|Q|,則問題q={w1,w2,…,w|Q|}。

        3) BERT

        使用預訓練語言模型BERT將句子轉換為向量序列,BERT首先從輸入的文本數(shù)據(jù)中得到3個向量:標記嵌入、位置嵌入和段嵌入。此外,由于后續(xù)需要文本的句向量進行計算,使用BERT的[CLS]和[SEP]標簽。

        1) 標記嵌入:使用BERT詞表將輸入BERT的每個標簽轉為定長向量,得到標記嵌入。

        2) 段嵌入:在BERT中用于區(qū)分不同的句子,由于BEMSM的輸入為單句,所以這個值全設為0。

        3) 位置嵌入:為了得到輸入序列的順序信息,BERT對出現(xiàn)在不同位置的詞分別附加一個不同的向量用來區(qū)分。

        問題序列q={w1,…,w|Q}和關系序列r={r1,…,r|R|}加上[CLS]和[SEP]標簽,變?yōu)閝={w[CLS],w1,…,w|Q|,w[SEP]}和r={r[CLS],r1,…,r|R|,r[SEP]}后,經(jīng)過BERT結構,輸出為

        Eq={Eq[CLS],Eq1,…,Eq|q|,Eq[SEP]}

        (3)

        Er={Er[CLS],Er1,…,Er|r|,Er[SEP]}

        (4)

        1.2.2 全局相似度度量模塊

        這一模塊的目的是計算問題和關系的全局相似度,在訓練過程中,BERT的[CLS]標簽對應的向量通過學習包含句子的全局信息,可以作為句向量使用。使用問題和關系的[CLS]標簽對應的輸出向量來計算全局語義相似度,得到

        (5)

        1.2.3 局部相似度度量模塊

        局部相似度度量模塊的目的是計算問題序列和關系序列的局部語義相似度。注意力機制的加入使該模塊能夠注意輸入文本的局部語義信息。該模塊輸入為文本編碼層的輸出部分Eq和Er。其中Eq∈(|Q|+2)×de,Er∈(|R|+2)×de,de為BERT的輸出向量維度,為了方便后續(xù)表示,將BERT的輸出記為Q和R。通過BERT,將文本序列轉換為帶有上下文信息的實值向量序列。

        1) 局部差異提取:

        之后,進行局部差異提取,局部差異提取層的目的是分析2個序列Q=(q1,…,q|Q|+2)與R=(r1,…,r|R|+2)的關聯(lián)程度,對Q中的每個詞qi,計算qi和中的詞rj之間的注意力權重

        (6)

        利用Softmax公式計算Q關于R的注意力加權值,以及R關于Q的注意力加權值,得到

        (7)

        (8)

        (9)

        (10)

        式中:-表示逐元素減法;⊙表示逐元素乘法;mqi∈4×de;mri∈4×de;[,]表示連接操作。之后,使用雙向長短期記憶網(wǎng)絡(Bi-LSTM)處理信息進行整體分析,使用2個Bi-LSTM來分析差異,得到對序列分析后的表示

        (11)

        (12)

        式中,vq∈(|Q|+2)*dr,vr∈(|R|+2)*dr,dr為Bi-LSTM的輸出向量維度。由于整體模型中的輸入序列不能保證具有相同的長度,使用聚合操作(全局最大池)提取序列中的重要特征,將上述2個序列轉為定長的向量gq∈dr和gr∈dr。至此,模型完成了分析序列差異的過程,提取出了問題和關系序列的特征。

        2)局部相似度計算層:

        差異計算層的輸入是差異提取層輸出的2個特征序列gq和gr,目的是計算問題和關系的局部相似度

        式中:H代表一個3層的感知機;wo∈df為全連接層的參數(shù),模塊最終的輸出為問題和關系的局部語義相似度Slocal。

        1.2.4 整體輸出層

        計算最終關系和問題的匹配得分,權重由對比實驗得出,對比了全局相似度,局部相似度權重分配為(0.25,0.75),(0.5,0.5),(0.75,0.25)以及自動分配的結果,最終選定(0.75,0.25)這組權重為最終的分配

        S=0.75*Sglobal+0.25*Slocal

        (15)

        2 實 驗

        2.1 實驗設置

        為了驗證模型有效性,在SimpleQuestions和WebQSP數(shù)據(jù)集上進行實驗,相關的關系檢測數(shù)據(jù)集在文獻[20]和文獻[13]中發(fā)布,數(shù)據(jù)集的相關信息見表1,為了表示方便,在后續(xù)將提出的模型記作BEMSM。

        表1 數(shù)據(jù)集

        SimpleQuestions(SQ)[21]是一個簡單問答數(shù)據(jù)集,其關系檢測數(shù)據(jù)中的每個問題只與知識庫的一個三元組相關,也就是說,關系鏈的長度等于1。

        WebQSP(WQ)[7]是一個復雜問答數(shù)據(jù)集,包含的問題可能與知識庫中的多個三元組相關,數(shù)據(jù)集中包含的關系鏈長度小于等于2。

        模型的超參數(shù)設置見表2,在實驗中,BERT作為整個模型的文本編碼層,語言模型使用的是Google官方提供的預訓練模型BERT-Base,由12層的transformer編碼結構組成,隱藏層向量維度為768維,BERT模型包含1億多參數(shù)量,輸出詞向量維度為768維。由于大部分關系名稱不在BERT詞表中,需要擴展BERT的原始詞表,表中添加形如“place-of-birth”的關系名,對應的向量為關系名包含單詞向量的均值。訓練模型時,先訓練只有全局相似度度量模塊的模型,之后,BEMSM加載BERT訓練后的權重,這部分權重不再更新,后續(xù)繼續(xù)訓練10個epoch。將問題和關系的最大句子長度設置為30,超過30的部分會被舍棄,長度不足30的序列用0進行填充,經(jīng)過BERT處理后,問題和關系的序列長度為32。在每個Bi-LSTM層后設置dropout,防止模型過擬合。

        表2 模型參數(shù)集

        2.2 評價指標

        為了評估BEMSM模型在關系檢測任務上的有效性,沿用之前關系檢測工作采用的評價指標,使用精確率P來衡量模型的結果:

        (16)

        式中:N是測試集中問題的數(shù)量;Nc是被準確識別出關系的問題數(shù)量。

        2.3 實驗結果

        2.3.1 局部相似度模塊和全局相似度模塊的影響

        本實驗的目的在于驗證BEMSM模型中局部相似度度量模塊和全局相似度度量模塊對于整個模型的影響。

        為了驗證各個模塊的效果,將BEMSM與單獨的全局相似度度量模塊、單獨的局部相似度度量模塊對比。除此之外,還對比使用GloVe詞向量和Bi-LSTM為文本編碼層的模型,在初始化時,不在GloVe詞表中的詞的向量從均勻分布(-0.5, 0.5)中隨機采樣生成,在訓練過程中詞嵌入層不更新。局部相似度度量模塊和全局相似度度量模塊的影響如表3所示。

        表3 局部相似度和全局相似度模塊的影響

        從表3中的數(shù)據(jù)可以看出,綜合學習問題和關系的局部信息和全局信息對關系檢測任務是有效的,單一的局部相似度度量模塊和全局相似度度量模塊得到的指標都低于綜合模型,在WebQSP數(shù)據(jù)集上差異更明顯, BEMSM模型獲得精確率為87.81%,高于僅考慮全局相似性的85.81%和局部相似性的85.99%。

        使用BERT作為文本編碼層的模型所表現(xiàn)的性能也要優(yōu)于GloVe詞向量結合Bi-LSTM的文本編碼層,使用BERT的所有模型準確率都有提升。在綜合模型上,使用BERT模型的指標分別提升了0.2%和2.06%,這得益于BERT充足的預訓練過程和優(yōu)秀的表征能力,BERT能捕捉Bi-LSTM容易忽視的長距離依賴,進一步增強了關系檢測模型的識別能力。

        2.3.2 注意力機制對BEMSM模型的影響

        本實驗的目的是驗證注意力機制對模型的影響。由于全局相似度模塊沒有使用注意力信息,所以在局部相似度度量模塊中分析注意力影響。將局部相似度度量模塊與去掉注意力權重的模型進行對比實驗。將注意力矩陣中的值設置為1來消除注意力的影響。同樣在基于BERT的模型和基于GloVe結合Bi-LSTM的模型上進行上述實驗。實驗結果如表4所示。

        表4 注意力機制對BEMEM模型的影響

        從表中數(shù)據(jù)可以看出,去掉注意力權重的影響后,基于GloVe 結合 Bi-LSTM的模型和基于BERT的模型的準確度指標都有小幅度下降,在WebQSP數(shù)據(jù)集上更為明顯(84.29%和82.41%,85.99%和84.78%)。WebQSP數(shù)據(jù)集中,問題和關系的序列長度更長,注意力機制使模型能夠將注意力關注到語義最相關的地方,所以影響更為明顯。本文模型去掉注意力權重后,由于差異提取層不只依賴于注意力機制產(chǎn)生的結果,模型仍然能取得不錯的效果。

        2.3.3 模型整體表現(xiàn)

        將模型與近年的幾個基準進行比較,這些基準屬于基于文本序列匹配的關系檢測方法,模型的輸出為問題和關系的相似度得分,實驗結果見表5。

        表5 BEMSM在SQ和WebQSP上的實驗結果

        1) BiLSTM:使用2個Bi-LSTM分別表示問題和關系,將最后一個時間步的輸出作為句向量來比較相似度。

        2) BiCNN[22]:使用3-gram表示問題和關系,比如“who”表示為#-w-h, w-h-o, h-o-#。使用CNN作為編碼層,池化后計算相似度。

        3) HR-Bi-LSTM[13]:使用詞序列+關系名表示關系,使用HR-Bi-LSTM得到問題的抽象層次,將問題表示和關系表示通過聚合操作固定為相同維度向量后,將它們之間的余弦值作為相似度。

        4) DAM[14]:基于transformer結構的模型,使用transformer結構得到關系和問題表示,經(jīng)過聚合操作后,計算向量余弦值作為相似度得分。

        5) ABWIM[17]:使用詞序列和關系名來表示關系,通過注意力機制將問題和關系軟對齊,之后使用CNN計算相似度得分。

        BEMSM模型整體表現(xiàn)的實驗結果見表5,從實驗對比結果可以看出,在SimpleQuestion數(shù)據(jù)集上,提出的模型取得了與基線相似的準確度,在WebQSP 上,提出的方法比最好的基線方法高2.49%。實驗結果驗證了模型的有效性,BEMSM模型使用BERT作為文本編碼層,可以捕捉到Bi-LSTM未能捕捉的長距離依賴,之后綜合學習問題和關系的全局語義信息和局部語義信息進行關系檢測,可以更全面地計算語義相關性,性能要優(yōu)于只計算單語義信息的基線方法。

        3 結 論

        針對現(xiàn)有的關系檢測方法無法兼顧問題、關系間全局語義和局部語義信息的問題,提出了一種基于多語義相似度的關系檢測模型。該模型將BERT作為整個模型的文本編碼層,使用Soft Attention和Bi-LSTM進行局部相似度計算;使用距離計算公式度量問題和關系句向量的全局相似度。最后綜合這2種相似度得到整體的相似度。 在SimpleQuestions和WebQSP基準數(shù)據(jù)集上進行實驗,分析局部對比相似度模塊和全局相似度模塊的效果、注意力機制的效果以及模型整體效果,驗證了BEMSM模型的有效性。

        猜你喜歡
        語義文本檢測
        “不等式”檢測題
        “一元一次不等式”檢測題
        “一元一次不等式組”檢測題
        語言與語義
        在808DA上文本顯示的改善
        基于doc2vec和TF-IDF的相似文本識別
        電子制作(2018年18期)2018-11-14 01:48:06
        “上”與“下”語義的不對稱性及其認知闡釋
        小波變換在PCB缺陷檢測中的應用
        文本之中·文本之外·文本之上——童話故事《坐井觀天》的教學隱喻
        認知范疇模糊與語義模糊
        天堂久久一区二区三区| 国产亚洲精品看片在线观看| 国产品精品久久久久中文| 亚洲精品一区二区三区麻豆| 久久精品免费一区二区喷潮| 米奇777四色精品人人爽| 97色在线视频| 丰满人妻被猛烈进入中文字幕护士| 国产激情一区二区三区在线| 国产又色又爽又高潮免费视频麻豆| 人人妻人人澡人人爽精品欧美| 午夜一区二区三区在线视频| 丝袜美腿丝袜美腿丝袜美腿丝袜| 国产老熟女网站| 老熟女多次高潮露脸视频| 国产亚洲一区二区三区夜夜骚| 麻豆精品一区二区三区| 美女网站免费福利视频| 精品日韩国产欧美在线观看| 国产一区二区三区白浆在线观看| 国产免费在线观看不卡| 又色又爽又黄还免费毛片96下载| 91免费在线| 日本岛国视频在线观看一区二区| 国产亚洲精品久久午夜玫瑰园| 夜夜未满十八勿进的爽爽影院| 全免费a级毛片免费看| 亚洲精品国产成人久久av盗摄| 国产成人综合日韩精品无码| 欧美疯狂做受xxxxx高潮| 亚洲一区二区三区中文视频| 精品国产中文字幕久久久| 挺进朋友人妻雪白的身体韩国电影 | 亚洲av日韩综合一区在线观看| 国产人澡人澡澡澡人碰视频| 国产麻豆极品高清另类| 人人妻人人做人人爽| 少妇太爽了在线观看| 精品免费看国产一区二区白浆| 久久精品国产亚洲av蜜点| 四虎国产精品免费久久|