亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于多特征語義匹配的知識庫問答系統(tǒng)

        2020-08-06 08:28:04趙小虎趙成龍
        計算機應用 2020年7期
        關鍵詞:三元組集上知識庫

        趙小虎,趙成龍*

        (1.礦山互聯(lián)網(wǎng)應用技術國家地方聯(lián)合工程實驗室(中國礦業(yè)大學),江蘇徐州 221008;2.中國礦業(yè)大學信息與控制工程學院,江蘇徐州 221116)

        (*通信作者電子郵箱zhaochenglong@cumt.edu.cn)

        0 引言

        隨著大規(guī)模知識庫的出現(xiàn),基于知識庫問答(Question Answering over Knowledge Base,KBQA)研究得到了快速發(fā)展。知識庫(Knowledge Base,KB)是一種專門用來存儲結構化知識的數(shù)據(jù)庫系統(tǒng),結構化知識通常被叫作三元組(主語、謂語、賓語),其中主語和賓語代表知識庫中的節(jié)點,謂語被用來連接主語和賓語。知識庫中大量三元組的連接構成一個有向圖,主語和賓語代表圖中的節(jié)點,謂語是從主語指向賓語的有向邊。如何根據(jù)知識庫中海量的事實三元組來實現(xiàn)知識問答成為目前研究的熱點,基于知識庫問答任務在于根據(jù)用戶提出的自然語言問題從知識庫中得到匹配的事實三元組,并返回三元組中的賓語作為問題的答案。由于自然語言問題表達的多樣性,它與知識庫中結構化的三元組事實存在語義差異,比如問題“王輝是干什么的”,可以通過知識庫中的三元組“王輝|||職業(yè)|||廣東省廣播電影電視局官員”來回答。但是“職業(yè)”跟“干什么的”之間的語義聯(lián)系機器很難捕捉。

        現(xiàn)有的方法大多將知識問答任務分為實體識別和謂語匹配兩部分。首先根據(jù)實體識別得到問題的核心主題,然后將核心主題與知識庫中的主語節(jié)點進行鏈接,檢索得到與核心主題相關的所有三元組為問答任務的候選三元組。然而實體識別的錯誤引起的誤差傳播導致所有的相關三元組都是錯誤的,從而無法獲取問題的正確答案。在謂語匹配時將候選三元組中的謂語和問題(去掉核心主題)映射到同一語義空間的高維語義向量,然后通過語義向量的相似度來衡量謂語和問題的匹配程度,該方法并沒有將答案的信息加入到語義匹配中去,從而丟失了部分語義信息。針對上面問題,本文提出的系統(tǒng)的創(chuàng)新性主要在于:1)提出一種端到端的解決方案,通過BM25 算法[1]來計算問題和知識庫中三元組的相關性來生成候選三元組,從而有效避免實體識別錯誤帶來的錯誤傳播;2)由于部分三元組的賓語也和問題具有語義相關性,把答案信息加入到三元組和自然語言問題的語義匹配中,來提高匹配的精度;3)提出多特征語義匹配模型,分別通過雙向長短時記憶網(wǎng)絡(Bi-directional Long Short Term Memory Network,Bi-LSTM)和卷積神經(jīng)網(wǎng)絡(Convolutional Neural Network,CNN)捕捉問題和三元組語義相似度和字符相似度,并通過融合來對三元組進行排序,最后在NLPCC-ICCPOL 2016 KBQA 測試集上的平均F1達到了80.35%,接近了現(xiàn)有最好辦法的性能。

        本文的知識問答系統(tǒng)如圖1 所示,首先給出問題“你可以告訴我虎門銷煙的時間嗎?”,通過BM25 算法在知識庫中進行檢索得到的部分候選三元組如圖1 左下方所示。然后根據(jù)多特征語義匹配模型(Multi-Feature Semantic Matching Model,MFSMM)進行候選三元組排序,發(fā)現(xiàn)最相關的三元組為“虎門銷煙|||時間|||清朝道光年間”,從而得到問題的最終答案“清朝道光年間”。

        圖1 知識問答架構Fig.1 Architecture of KBQA

        1 相關工作

        知識問答中候選三元組生成的方法主要包括兩種:語義解析和序列標注。Berant 等[2]通過解析器將輸入的問題解析為邏輯表達,再基于這種結構化的表達從知識庫檢索出候選三元組;Yih 等[3]通過將語義解析轉換成查詢圖的生成,利用simpleλ-DCS 來縮小候選三元組搜索的范圍;Zettlemoyer 等[4]以及Wong 等[5]提出了基于詞典學習的問答方法,這些方法需要人工標注和固定模板的構建。上述語義解析的方法都需要詳盡的語義推理,無法在問答中做到完善。在序列標記方法中,翟社平等[6]應 用Bi-LSTM 和條件隨機場(Conditional Random Field,CRF)來進行命名實體識別雖然極大地提高了準確率和可擴展性,但是實體識別的錯誤會導致錯誤傳播。

        自然語言問題和事實三元組匹配的方法通常通過語義相似度模型來進行計算。語義相似度模型首先利用神經(jīng)網(wǎng)絡對問題和候選三元組進行深層語義向量的計算,隨后通過余弦相似度等來衡量語義向量之間的相似性來找到最佳匹配。例如,Bordes 等[7]使用記憶網(wǎng)絡將問題和事實三元組編碼到相同的表達空間,并對它們的相似性進行評分。Yin等[8]使用兩個獨立的帶有注意力最大值池化的字符級和單詞級CNN 模型進行相似性計算。Dai 等[9]提出一種通過前后兩步來進行條件概率估計問題,并使用雙向門控循環(huán)單元(Bi-directional Gated Recurrent Unit,Bi-GRU)網(wǎng)絡來實現(xiàn)問題和關系的匹配。

        由于NLPCC-ICCPOL 2016 KBQA任務中發(fā)布了大規(guī)模的中文知識庫,基于中文知識庫的知識問答得到了發(fā)展。Wang等[10]使用了卷積神經(jīng)網(wǎng)絡和門控循環(huán)單元(Gated Recurrent Unit,GRU)模型對問句進行語義層面的表示;Yang 等[11]先通過特征工程來挖掘特征,再使用梯度提升決策樹(Gradient Boosting Decision Tree,GBDT)模型對命名實體進行研究,最后結合了樸素貝葉斯和支持向量機(Naive Bayes and Support Vector Machine,NBSVM)以及卷積神經(jīng)網(wǎng)絡進行謂語映射;Lai等[12]使用基于詞向量的余弦相似度計算,并利用多種人工構建的規(guī)則和特征,最后也取得了不錯的結果。

        2 系統(tǒng)介紹

        系統(tǒng)主要由兩部分組成:候選三元組生成和候選三元組排序。為了避免傳統(tǒng)命名實體識錯誤帶來的誤差傳播,首先通過BM25 算法直接計算問題和知識庫中三元組的相關性來生成候選三元組;然后通過本文提出的多特征語義匹配模型進行三元組的排序,MFSMM分別通過Bi-LSTM和CNN實現(xiàn)語義相似度和字符相似度的計算,并通過融合來對三元組進行排序

        2.1 候選三元組生成

        在NLPCC-ICCPOL 2016 KBQA數(shù)據(jù)集中事實三元組一共大約43 000 000 個,受Gupta 等[13]啟發(fā),在候選三元組生成時應用BM25過濾出相關性得分最高的k個事實三元組,有效減少候選三元組的數(shù)量。

        定義自然語言問題和事實三元組的相關性得分如式(1)所示:

        其中:S(Q,T)代表自然語言問題和事實三元組的相關性得分,R(Qi,T)代表問題中的第i個字符Qi和三元組T的相關度值,wi代表字Qi的權重,通過其在整個文檔空間中的IDF(Inverse Document Frequency)值來設置wi。

        其中:N是三元組的總數(shù),n(Qi)代表包含字Qi的三元組的總數(shù)。

        問題中的字Qi和三元組T的相關度值如式(3)所示:

        其中:k1和b是設置的先驗參數(shù),k1用來表示Qi在三元組T中出現(xiàn)次數(shù)的影響程度,b主要用來調節(jié)三元組長度對結果的影響程度,本文設置k1=2,b=0.75。ti代表Qi在三元組T中出現(xiàn)的次數(shù)。l和lavg分別代表三元組T的長度和所有知識庫中所有三元組的平均長度。

        2.2 候選三元組排序

        傳統(tǒng)問答方法在三元組排序時將三元組中謂語和問題進行語義匹配。如圖1中的問題“你可以告訴我虎門銷煙的時間嗎?”,傳統(tǒng)方法首先識別問句中的命名實體“虎門銷煙”,然后通過知識庫可以檢索到“虎門銷煙”相連的謂語為“時間”“地點”等,再進行問題和謂語的匹配實現(xiàn)排序。

        本文提出端到端的三元組排序模型(MFSMM)將答案的信息加入到模型中,直接匹配問題和三元組的相關性。例如圖1中“虎門銷煙|||時間|||清朝道光年間”中的答案“清朝道光年間”和問題“你可以告訴我虎門銷煙的時間嗎?”之間也有語義相關性。

        2.2.1 語義相似度

        首先將自然語言問題和事實三元組轉換成Qv=兩個序列,其中是問題的第m個字符的嵌入向量,eTn是三元組第n個字符的嵌入向量,m和n分別是問題Q和三元組T的長度。然后通過Bi-LSTM 提取問題和三元組的語義特征,其中Bi-LSTM 由兩個LSTM 拼接而成包含一個正向輸入序列和反向輸入序列來同時考慮了上下文的序列內容,將Qv和Tv分別輸入到Bi-LSTM模型提取問題和三元組的語義特征。對于問題Q第i時刻的語義特征qi提取過程如式(5)~式(7)所示:

        同樣三元組T的語義特征tj提取過程如式(8)~式(10)所示:

        如式(11)、式(12)所示,通過連接各個時刻問題和三元組的語義特征得到各自的語義矩陣HQ和HT。

        其中:qm表示問題在第m時刻的語義特征,tn表示三元組在第n時刻的語義特征,m和n分別是問題和三元組中字符的長度。

        問題和三元組的全局語義向量根據(jù)語義矩陣在上下文的最大池化生成。問題的全局語義向量表示為vQ,三元組的全局語義向量表示為vT。

        為了能夠從多種維度來捕獲自然語言問題和三元組之間的語義相關性,模型分別通過v1、v2和v3獲取它們之間的聯(lián)系,并通過全連接層(Fully Connected Layer,F(xiàn)CL)自動學習和組合特征,最后得到問題和三元組的語義相似度z1如式(15)所示:

        其中:v1是問題和三元組全局語義向量的絕對差|vQ-vT|,v2代表向量之間的點乘|vQ⊙vT|,v3代表向量之間的絕對占比|vQ/vT|。其中為圖2中全連接網(wǎng)絡中隨機初始化第一層和第二層網(wǎng)絡的權重矩陣和偏置,σ為激活函數(shù)ReLU(Rectified Linear Unit)[14]。

        圖2 多特征語義匹配模型Fig.2 Multi-feature semantic matching model

        2.2.2 字符相似度

        除了上述提取的問題和三元組語義相似度特征外,受韓萍等[15]的啟發(fā),本文將字符相似度的特征應用到中文知識庫問答中去。首先構建字符相似度矩陣S捕捉字符之間的相似度,其中sij如式(16)所示代表問題中第i個字符和三元組中的第j個字符之間的相似性,即之間的內積,分別代表問題第i個字符和三元組第j個字符的嵌入向量。

        其中:?代表向量之間的內積,然后通過卷積層提取字符匹配特征。

        特征提取過程如圖3 所示,例如針對問題“西游記屬于什么類型的書呢”和三元組“西游記|||類型|||奇幻”建立字符相似度矩陣,其中黑色代表字符之間的相似性,顏色程度代表兩者的相似程度,通過如圖3中所示不同的卷積核(虛線框內)來提取特征dk。

        圖3 字符相似矩陣Fig.3 Character similarity matrix

        通過全連接網(wǎng)絡生成字符相似度特征z2和z3如式(20)、式(21)所示。

        2.2.3 融合

        通過圖2中全連接網(wǎng)絡FCL()4 融合語義相似度特征和字符相似度特征如式(22)所示:

        其中:σ表示Sigmoid函數(shù),z1為語義相似度特征,z2和z3為字符相似度特征,W(4)和b(4)為圖2中全連接網(wǎng)絡FCL(4)隨機初始化的權值矩陣和偏置。

        3 實驗和評估

        將數(shù)據(jù)集分前80%作為訓練集,剩余20%作為驗證集,其中訓練集、驗證集和測試集的數(shù)目分別為11 536、2 884 和9 542。保存在驗證集上效果比較好的模型在測試集上評估。

        在訓練過程中,目標是最小化訓練集中所有問題屬性的交叉熵。

        其中:Qi和Ti分別表示訓練集中的自然語言問題和候選三元組的樣本;yi表示該候選三元組是否是問題的答案;w代表模型中的所有參數(shù);pw為三元組是問題答案的概率值,是通過上面融合后的輸出o經(jīng)過softmax函數(shù)歸一化后的概率值。通常通過第一步候選三元組生成后的三元組數(shù)目為n,其中只有一個答案是正確答案,針對本題a個問題即有a×n個樣本,其中只有a個樣本是正樣本。

        實驗在Ubuntu 16.06 系統(tǒng)中進行,其中CPU 為i7 6700k,GPU 為GTX1080Ti。模型訓練過程在GPU 上開展,實驗的代碼采用Tensorflow深度學習框架。

        在實驗中輸入詞向量的維度為200,MFSMM中使用雙向LSTM中每個方向的單元數(shù)為80,隱藏節(jié)點維度為100,CNN模型卷積核的尺寸為g×g,其中g的取值為3,使用16種不同的顏色通道;參數(shù)優(yōu)化使用Adam 優(yōu)化器,設置其學習率為0.000 5;Batch Size 設置為64。根據(jù)官方給出的評價指標為平均F1值,由于每個樣例的標準答案樣例的標準答案和候選答案均為集合的形式,因此每個樣例都可以得到一個F1 值,最后取所有樣例F1值的平均值作為結果(見表1)。

        表1 訓練集、驗證集、測試集的平均F1 單位:%Tab.1 Average F1 value on training,validation and test sets unit:%

        為了驗證該系統(tǒng)的先進性,分別將經(jīng)典的文本語義匹配模 型Bi-LSTM[16]、雙向LSTM結合注意力機制(Bi-LSTM Attention,Bi-LSTM_ATT)[17]、增 強LSTM(Enhanced LSTM,ESIM)[18]、卷積神經(jīng)網(wǎng)絡對排序(Pairs with CNN Ranking,PairCNN Ranking)[19]、基于注意力機制的CNN(Attention-Based CNN,ABCNN)[20]在該數(shù)據(jù)集上進行實驗,實驗結果如圖4所示。

        對比經(jīng)典語義匹配模型和其他論文在該數(shù)據(jù)集上的表現(xiàn),如表2所示,本文模型取得了較好的表現(xiàn)。

        如表2 所示,對比經(jīng)典的基于循環(huán)神經(jīng)網(wǎng)絡以及融合注意力機制的模型如Bi-LSTM、Bi-LSTM_ATT 以及ESIM,本文模型平均F1 值分別提高了10.40、8.85、8.50 個百分點;對比基于卷積神經(jīng)網(wǎng)絡和注意力機制的模型PairCNN Ranking 和ABCNN 分別提高了5.98、3.90 個百分點。本文模型在該數(shù)據(jù)上的表現(xiàn)遠遠優(yōu)于經(jīng)典文本匹配模型在該數(shù)據(jù)上的表現(xiàn)。

        同時對比在該數(shù)據(jù)集上發(fā)表的論文(Wang 等[10]和Xie等[21]),分別提高了1.21、0.78 個百分點。該數(shù)據(jù)集上現(xiàn)有最好的方法[12]的評測結果為82.47%,但是它通過復雜的數(shù)據(jù)清洗、規(guī)則和構建模板等方法,耗費了大量的人工,本文在沒有使用復雜人工特征的情況下取得了相當?shù)男Ч?,驗證了本文模型的有效性和可擴展性。

        圖4 經(jīng)典文本語義匹配模型和本文模型在NLPCC-ICCPOL 2016 KBQA數(shù)據(jù)集上的性能Fig.4 Performance of traditional text semantic matching model and the proposed model on NLPCC-ICCPOL 2016 KBQA dataset

        表2 NLPCC-ICCPOL 2016 KBQA數(shù)據(jù)集上平均F1值的對比 單位:%Tab.2 Comparison of average F1 value on NLPCC-ICCPOL 2016 KBQA dataset unit:%

        除了模型在重要指標F1上的對比,本文還在訓練時間和預測時間上進行了對比,如表3 所示。因為本文組合了Bi-LSTM和CNN,所以訓練和預測時間高于Bi-LSTM以及以CNN為基礎模型的PairCNN Ranking,但是在核心指標F1上分別高了10.40個百分點和5.98個百分點。對比使用了注意力機制的模型Bi-LSTM_ATT、ESIM 和ABCNN 本文在時間和核心指標上都具有先進性。

        表3 NLPCC-ICCPOL 2016 KBQA數(shù)據(jù)集上訓練和預測時間的對比 單位:sTab.3 Comparison of training time and predication time on NLPCC-ICCPOL 2016 KBQA dataset unit:s

        4 結語

        現(xiàn)有的知識問答方法大多將該任務分為實體識別和謂語匹配,但是命名實體識別的錯誤直接影響到后面的謂語匹配和答案檢索。在謂語匹配時僅通過匹配謂語和問題(去實體后)的高維語義向量之間余弦相似度或者全連接網(wǎng)絡進行相似度的計算,這樣會丟失部分語義相似度信息。為了解決上述的問題,本文提出端到端的解決方案直接匹配自然語言問題和三元組的相關性來避免命名實體識別的誤差傳播;同時在候選三元組排序階段充分利用問題和三元組的語義相似度和字符相似度信息,并將答案的信息加入到模型中進一步提高了知識問答的準確率。最后在NLPCC KBQA 2016 數(shù)據(jù)集的平均F1 值達到了80.35%,接近了現(xiàn)有最好的辦法。相比最好方法通過復雜的規(guī)則和構建別名詞典等方法,需耗費大量的人工,本文僅通過簡單的處理,模型結構也沒有堆疊很深的網(wǎng)絡,證明了模型的可用性和擴展性。

        猜你喜歡
        三元組集上知識庫
        基于語義增強雙編碼器的方面情感三元組提取
        軟件工程(2024年12期)2024-12-28 00:00:00
        基于帶噪聲數(shù)據(jù)集的強魯棒性隱含三元組質檢算法*
        Cookie-Cutter集上的Gibbs測度
        鏈完備偏序集上廣義向量均衡問題解映射的保序性
        關于余撓三元組的periodic-模
        基于TRIZ與知識庫的創(chuàng)新模型構建及在注塑機設計中的應用
        復扇形指標集上的分布混沌
        高速公路信息系統(tǒng)維護知識庫的建立和應用
        基于Drupal發(fā)布學者知識庫關聯(lián)數(shù)據(jù)的研究
        圖書館研究(2015年5期)2015-12-07 04:05:48
        三元組輻射場的建模與仿真
        久久精品视频日本免费| 国产精品国产精品国产专区不卡| 久久亚洲精品情侣| 美女又色又爽视频免费| 中文字幕日本最新乱码视频| 亚洲精品成人专区在线观看| 毛片av在线播放亚洲av网站| 97超碰中文字幕久久| 亚洲天堂一区二区偷拍| 久久婷婷五月综合97色直播| 亚洲日本在线电影| 456亚洲人成影视在线观看| 亚洲中文字幕av天堂| 亚洲人成伊人成综合网中文| 青青草视频在线观看精品在线| 国产一区二区视频免费在| 亚洲视频在线观看| 四虎影视在线观看2413| 亚洲女同同性少妇熟女| 亚洲av乱码二区三区涩涩屋 | 成人性生交c片免费看| 美腿丝袜在线观看视频| 97一期涩涩97片久久久久久久 | 日韩精品不卡一区二区三区| 国产在线观看自拍av| 精品深夜av无码一区二区| 国产A√无码专区| 欧美日韩亚洲国产无线码| 在线视频精品少白免费观看| av人摸人人人澡人人超碰下载| 99精品国产综合久久久久五月天| 国产一线视频在线观看高清| 日本一区二区三区免费| 内射中出日韩无国产剧情 | 无码人妻丰满熟妇区bbbbxxxx | 特黄a级毛片免费视频| 五月综合高清综合网| 国内精品嫩模av私拍在线观看| 亚洲综合偷自成人网第页色| 无码免费一区二区三区| av无码天堂一区二区三区|