江偉豪,嚴(yán) 麗,屠要峰,周祥生,李忠良,
1(南京航空航天大學(xué) 計算機(jī)科學(xué)與技術(shù)學(xué)院/人工智能學(xué)院,南京 211106)
2(中興通訊股份有限公司,南京 210000)
RDF(1)https://www.w3.org/TR/rdf-primer/(Resource Description Framework)資源描述框架,被廣泛應(yīng)用于表達(dá)互聯(lián)網(wǎng)中的資源以及資源之間的語義關(guān)系[1].RDF的基本結(jié)構(gòu)為主語、謂語、賓語所構(gòu)成的三元組,可以記作
對于RDF數(shù)據(jù)的查詢,具有語義知識背景的專業(yè)人員可以通過構(gòu)建結(jié)構(gòu)化查詢語言SPARQL[2]來對RDF數(shù)據(jù)進(jìn)行查詢.雖然結(jié)構(gòu)化語言具有很強(qiáng)的表達(dá)能力,但由于該語言復(fù)雜的語法以及RDF數(shù)據(jù)概要的約束,使用SPARQL對RDF數(shù)據(jù)進(jìn)行查詢對于普通用戶而言需要很高的學(xué)習(xí)成本.而通過關(guān)鍵詞搜索[3]的形式對相關(guān)RDF資源進(jìn)行查詢的方式雖然操作簡單,但關(guān)鍵詞的表達(dá)能力有限,僅通過幾個關(guān)鍵詞難以明確表達(dá)用戶的查詢意圖.同樣,使用受限的自然語言[4]來表達(dá)用戶的查詢意圖,所提供的輸入模板無法滿足用戶查詢需求的多樣性.對于基于自然語言處理的RDF問答系統(tǒng),其中需要彌補(bǔ)自然語言與結(jié)構(gòu)化查詢語言之間的差異,而在具體轉(zhuǎn)化過程中往往要解決由自然語言的語義多樣性所造成的歧義,有研究人員依賴于提供用戶交互操作[5]來解決其中的歧義問題,然而交互的次數(shù)不穩(wěn)定會影響用戶的查詢效率.所以,解決轉(zhuǎn)化過程中所產(chǎn)生的歧義問題成為了設(shè)計RDF問答系統(tǒng)的關(guān)鍵.
基于自然語言處理的RDF問答系統(tǒng)主要包含以下兩個處理階段:用戶意圖理解和查詢驗(yàn)證.用戶意圖理解的主要工作是彌補(bǔ)非結(jié)構(gòu)化的自然語言與結(jié)構(gòu)化的查詢語言之間的差異,在本文中的體現(xiàn)則是識別用戶自然語言輸入的查詢意圖,以及將查詢意圖轉(zhuǎn)化成相應(yīng)的SPARQL查詢語句的過程.而查詢驗(yàn)證階段則是根據(jù)構(gòu)造好的查詢語句匹配出與問句相關(guān)的答案并進(jìn)行驗(yàn)證的過程.其中,本文的工作更注重于用戶意圖理解的階段.由于用戶表達(dá)的歧義性以及自然語言的多樣性,在該過程中往往會存在歧義問題,從而導(dǎo)致所構(gòu)造的查詢語言有多種組合.在用戶意圖理解階段識別出與用戶查詢意圖最匹配以及最有可能執(zhí)行成功的top-k組合,相比窮舉驗(yàn)證的效率要高.
以下,將結(jié)合例子介紹本文的研究動機(jī).由于所提方法是針對英文語言的輸入,所以本章后續(xù)的所有例子當(dāng)中都以英文自然語言問句作為用戶輸入進(jìn)行討論.以自然語言問句:“What is the name of the film that directed by Steven Spiel-berg?”為例,該問句所對應(yīng)的SPARQL查詢語句組合如圖1所示.表1中展示了示例的RDF片段,其中RDF數(shù)據(jù)由三元組表示,以主語、謂語、賓語的形式組成,主語為實(shí)體資源,謂語代表關(guān)系資源,而賓語可以表示為資源也可以表示為字面量.從自然語言問句轉(zhuǎn)化為SPARQL查詢語句的過程中分為三個處理階段:意圖提取,資源映射,語句轉(zhuǎn)化.
圖1 SPARQL語句方案
表1 RDF片段示例
以例句當(dāng)中的關(guān)鍵詞所組成的用戶查詢意圖可表示為:
表2 資源映射表示例
對于映射歧義問題,關(guān)鍵詞“Steven Spielberg”所映射的資源
文章基于N-gram模型的原理,利用所查詢數(shù)據(jù)當(dāng)中三元組所映射的關(guān)鍵詞組合來充當(dāng)語料庫建立語義概率模型.在用戶查詢意圖理解的過程中,通過語義概率模型計算用戶查詢意圖中關(guān)鍵詞組合的聯(lián)合概率,再通過比較相應(yīng)組合的聯(lián)合概率,消除其中的映射歧義.然后篩選出概率最高的top-k查詢語句,執(zhí)行查詢語句查找相應(yīng)的結(jié)果.通過基準(zhǔn)數(shù)據(jù)集與現(xiàn)存的方法進(jìn)行比較,本文所提出的方法在精確度和召回率方面表現(xiàn)優(yōu)異,特別是在處理隱式關(guān)系問題方面要優(yōu)于其他方法,而且本方法執(zhí)行的是最能表達(dá)用戶查詢意圖的top-k查詢語言,節(jié)省了無效查詢語句的運(yùn)行時間.
RDF是用來描述互聯(lián)網(wǎng)上資源以及資源之間相關(guān)關(guān)系的數(shù)據(jù)模型.這個資源可以是互聯(lián)網(wǎng)中物理上的物體或者是概念的表述,比如一個人物、一個網(wǎng)站或者一個地址.而且資源一般使用IRI(國際資源標(biāo)識符,International Resource Identifier)作為唯一的標(biāo)識,例如
定義1.設(shè)G為表示RDF數(shù)據(jù)所代表的RDF圖,則該RDF圖是由三元組所構(gòu)成的,三元組表示為∈G,s,p,o分別表示主語、謂語和賓語.其中s∈(I∪B),I表示所有以IRI為標(biāo)識的資源的集合,而B則是所有空白節(jié)點(diǎn)的集合,且I∩B=?.而p∈I,只有能夠描述資源之間關(guān)系的IRI才能充當(dāng)謂語.最后o∈(I∪B∪L),L則是所有字面量的集合.根據(jù)以上描述,可以得出RDF圖G=(I∪B)×I×(I∪B∪L).
由于非結(jié)構(gòu)化的自然語言與結(jié)構(gòu)化SPARQL查詢語言之間存在差異,如何從自然語言問句當(dāng)中識別出用戶的查詢意圖并將其翻譯為SPARQL查詢語言是構(gòu)建RDF問答系統(tǒng)的關(guān)鍵.通過借助斯坦福自然語言分析工具(Stanford Parser(2)https://nlp.stanford.edu/software/lex-parser.shtml)對自然語言進(jìn)行解析,解析后可獲得包含自然語言問句語法特征的類型依賴關(guān)系樹(Typed Dependencies Tree)[1].如圖2所示,為例句“What is the name of the film that directed by Steven Spielberg?”所對應(yīng)的類型依賴關(guān)系樹.每一個單詞代表一個節(jié)點(diǎn),節(jié)點(diǎn)中使用詞性標(biāo)注(Part of Speech tagging,POS)[7]對該單詞的詞性就行標(biāo)識,節(jié)點(diǎn)之間存在的關(guān)系(邊)則為類型依賴關(guān)系(Typed Dependencies),標(biāo)識兩個單詞在句子中的語法依賴關(guān)系.本方法將從以上類型依賴關(guān)系樹當(dāng)中根據(jù)語法規(guī)則抽取描述用戶查詢意圖的關(guān)鍵詞組合,我們把每個查詢意圖組合定義為語義關(guān)系
圖2 類型依賴關(guān)系樹示例
定義2.語義關(guān)系
N-gram模型是一種語言模型(Language Model,LM),該語言模型是一個基于概率的判別模型[9].該模型描述的是,在一個自然語言句子當(dāng)中,第i個單詞出現(xiàn)的概率只與前i-1個單詞相關(guān),而與其他的單詞無關(guān),其中組成整個句子的概率則等于每個詞出現(xiàn)的概率的乘積,即:
P(w1,w2,…,wm)=P(w1)*P(w2|w1)…P(wm|w1,w2,…,wm-1)
基于馬爾科夫鏈的假設(shè),當(dāng)前第i個單詞僅與其前n個詞相關(guān),則以上概率計算可以簡化為:
其中每一項(xiàng)的條件概率將使用詞語組合出現(xiàn)的頻數(shù)C根據(jù)極大似然估計法(Maximum Likelihood Estimation,MLE)來計算:
在現(xiàn)實(shí)應(yīng)用中N的值一般取2和3,其對應(yīng)的是BiGram和TriGram模型.N-gram一般應(yīng)用于詞性標(biāo)注、詞匯分類、機(jī)器翻譯以及語音識別等工作當(dāng)中.
本文所提出的基于自然語言處理的RDF問答系統(tǒng)的處理流程如圖3所示,主要包括以下流程:1)利用斯坦福自然語言分析工具解析自然語言獲取相應(yīng)的類型依賴關(guān)系樹;2)從類型依賴關(guān)系樹當(dāng)中提取與用戶查詢意圖相關(guān)的語義關(guān)系;3)利用所建立的語義概率模型對語義關(guān)系進(jìn)行消歧與組合,得到聯(lián)合概率top-k的語義關(guān)系組合;4)基于top-k的語義關(guān)系組合構(gòu)建相應(yīng)的SPARQL查詢語句,在SPARQL端口上進(jìn)行查詢.由于本文的貢獻(xiàn)在于語義概率模型的建立以及如何利用語義概率模型進(jìn)行消歧,其他流程均使用較為成熟的方法來實(shí)現(xiàn),因此以下將按照語義概率模型的建立以及查詢語言的消歧過程進(jìn)行討論.
圖3 處理流程圖
由于所建立的語義概率模型需要反映所查詢數(shù)據(jù)的特征,而本文所查詢的數(shù)據(jù)集來源于DBpedia(2015),所以我們使用該數(shù)據(jù)集所映射的關(guān)鍵詞集合來建立語義概率模型.對于數(shù)據(jù)源當(dāng)中的每一個實(shí)體資源,首先需要知道實(shí)體與描述該實(shí)體的關(guān)鍵字之間的對應(yīng)關(guān)系,形如表3中的關(guān)鍵詞與實(shí)體資源的映射詞典DE.DBpedia的實(shí)體資源映射表一般建立的方法是以Wikipedia中的鏈接為錨點(diǎn)鏈接(Anchor Link)[10],從該鏈接中的文章抽取關(guān)鍵詞建立相應(yīng)的映射關(guān)系,如CrossWikis[11]所實(shí)現(xiàn)的實(shí)體映射詞典.而本方法則是直接從DBpedia-lookup(3)http://lookup.dbpedia.org/中的關(guān)鍵詞與實(shí)體資源的映射索引中抽取映射關(guān)系實(shí)現(xiàn)我們的映射詞典.
表3 關(guān)鍵詞實(shí)體資源映射詞典
除了關(guān)鍵詞實(shí)體映射詞典外,仍需要關(guān)鍵詞與關(guān)系之間的映射詞典DR,如表4所示,而關(guān)系則相當(dāng)于連接兩個實(shí)體的關(guān)系路徑,如之前表達(dá)“directed by”的關(guān)系
表4 關(guān)鍵詞關(guān)系映射詞典
具備上述的關(guān)鍵詞實(shí)體資源映射詞典DE和關(guān)鍵詞關(guān)系映射詞典DR,對于數(shù)據(jù)集當(dāng)中的三元組
定義3.描述三元組的關(guān)鍵詞組合為(K(s),K(p),K(o))=((a1,a2,…,ai),(c1,c2,…,ck),(b1,b2,…,bj)),而為了區(qū)分該關(guān)鍵詞所代表的資源是充當(dāng)主語還是賓語,將以上關(guān)鍵詞組合擴(kuò)展為(,(a1,a2,…,ai),(c1,c2,…,ck),(b1,b2,…,bj),,ai,ck,bj,
P(ai,ck,bj)=P(ai|)P(ck|ai)P(bj|ck)P(
根據(jù)貝葉斯公式,需要記錄(×K(s)),(K(s)×K(p)),(K(p)×K(o)),(K(o)×
定義 4.對于三元組,(d1,d2,…,dp),(c1,c2,…,ck),(e1,e2,…,eq),,dp,ck,eq,
P(dp,ck,eq)=P(dp|)P(ck|dp)P(eq|ck)P(
根據(jù)貝葉斯公式,需要記錄(×K(T(s))),(K(T(s))×K(T(p))),(K(T(p))×K(T(o))),(K(T(o))×
根據(jù)以上定義建立語義概率模型,總的空間復(fù)雜度為O((ijk)2+(pqk)2).該語義概率模型不僅可以在用戶意圖理解階段進(jìn)行消歧以優(yōu)化處理過程.基于該語義概率模型還可以實(shí)現(xiàn)輸入提示機(jī)制,在用戶輸入自然語言問句的時候顯示與前一個詞最相關(guān)的top-k關(guān)鍵詞以協(xié)助用戶進(jìn)行輸入描述問題.
問答系統(tǒng)需要將自然語言問句中用戶的查詢意圖翻譯成相應(yīng)的SPARQL查詢語句進(jìn)行查詢,其中存在由語義多樣性所造成的資源映射歧義以及結(jié)構(gòu)歧義的問題.本小節(jié)將介紹利用上述所建立的語義概率模型在用戶查詢意圖翻譯為SPARQL語句的階段解決以上歧義問題.
對于表示用戶查詢意圖的語義關(guān)系,arg2,rel,arg1,和
對于包含疑問詞的語義關(guān)系,如(“What”,“is the name of”,“film”),只需以變量代替疑問詞的位置,則得到的語義關(guān)系為.而對于帶變量的語義關(guān)系的聯(lián)合概率的計算,其中P(rel|?x)的計算需要在語義概率模型中查找以rel為后綴片段的數(shù)量,然后加入到條件概率的計算當(dāng)中,而對于語義關(guān)系
由于用戶的語義使用習(xí)慣不同以及關(guān)鍵詞與資源的一對多關(guān)系會存在資源映射歧義的問題.當(dāng)語義關(guān)系
假設(shè):prefix和suffix屬于語義關(guān)系
1)當(dāng)C(prefix)≠0且C(prefix_suffix)=0時,查找滿足C(prefix_*)≠0的關(guān)鍵詞集合σ1(wi),計算σ1(wi)中關(guān)鍵詞與suffix的語義相似度θ(wi,suffix),當(dāng)相似度大于所設(shè)定閾值γ,即θ(wi,suffix)>γ時,加入wi到suffix的候選集合當(dāng)中參與聯(lián)合概率的計算.
2)當(dāng)C(suffix)≠0且C(prefix_suffix)=0時,查找滿足C(*_suffix)≠0的關(guān)鍵詞集合σ2(wj),計算σ2(wj)中關(guān)鍵詞與suffix的語義相似度θ(wj,suffix),當(dāng)相似度大于所設(shè)定閾值γ,即θ(wj,suffix)>γ時,加入wj到suffix的候選集合當(dāng)中參與聯(lián)合概率的計算.
例如在該語義關(guān)系所計算的語義關(guān)系中,rel在語義概率模型中是可以查找到的,即C(rel)≠0,由于用戶的使用習(xí)慣或者語義的多樣性導(dǎo)致用戶所輸入的詞語arg1和arg2無法在語義概率模型中找到,表現(xiàn)為C(prefix_rel)=0,C(rel_suffix)=0.此時我們從語義概率模型中找出滿足C(*_rel)≠0的關(guān)鍵詞集合σ1(wi),計算其中關(guān)鍵詞與rel的語義相似度θ(wi,rel),當(dāng)該值大于我們所設(shè)定的閾值γ時,表示該關(guān)鍵詞wi與原關(guān)鍵詞arg1是有語義相似性的,所以將wi加入到arg1的候選集合c(arg1)當(dāng)中,參與聯(lián)合概率的計算.同樣,滿足C(rel_*)≠0的關(guān)鍵詞σ2(wj),當(dāng)其中的關(guān)鍵詞滿足θ(wj,rel)>γ時,也將wj加入到arg2的候選集合中,所以最初的語義關(guān)系
P(arg1,rel,arg2)≈P(wi,rel,wj)wi∈c(arg1)&wj∈c(arg2)
在應(yīng)用中,計算語義相關(guān)性的工具有很多,比如WordNet(4)https://wordnet.princeton.edu/.而在實(shí)現(xiàn)中我們使用了Word2Vec來計算關(guān)鍵詞的語義相關(guān)性,Word2Vec可以指定訓(xùn)練語料庫去訓(xùn)練隱藏層的模型,在應(yīng)用過程中可以使用反映所查詢數(shù)據(jù)集數(shù)據(jù)特征的語料庫用作訓(xùn)練數(shù)據(jù)集.而閾值γ的選取反映了所加入候選詞與原關(guān)鍵詞的語義相似程度,在實(shí)現(xiàn)中將γ設(shè)置為0.5,也可通過訓(xùn)練的形式尋找最佳的γ值.
對于語義關(guān)系
算法1.篩選top-k聯(lián)合概率最高的語義關(guān)系
輸入:語義關(guān)系組合R
輸出:top-k 語義關(guān)系組合
1.M ← ?
2.δ(R)←find_All_Combinations(R)
3.for r in δ(R):
4. p=1.0
5. for
6. c(arg1)← w from C(arg1_rel)=0 &
C(w_rel)≠ 0 & θ(w,arg1)> γ
7. c(rel)← w from C(arg1_rel)=0
& C(arg1_w)≠ 0 & θ(w,rel)> γ
8. c(arg2)← w from C(rel_arg2)=0 &
C(rel_w)≠ 0 & θ(w,arg2)> γ
9. c(rel)← w from C(rel_arg2)=0 &
C(w_arg2)≠ 0 & θ(w,rel)> γ
10. for wiin c(arg1):
11. for wjin c(rel):
12. for wkin c(arg2):
13. p=p * P(wi,wj,wk)
14. M ←((wi,wj,wk),p)
15.sortwithP(M)
16.return top-k semantic relation in M
由于自然語言表示的多樣性,在自然語言表述當(dāng)中存在顯示關(guān)系和隱式關(guān)系的表達(dá),例如,“Which electronics companies were founded in Beijing?”為隱式關(guān)系表達(dá),而其對應(yīng)的顯示關(guān)系表達(dá)為“Which company′s industry is electronics were founded in Beijing?”.顯式關(guān)系所抽取的用戶查詢意圖為
本文在DBpedia上的基準(zhǔn)數(shù)據(jù)集中驗(yàn)證所提出的方法.所使用的自然語言問題來自QALD-6.QALD(5)http://qald.aksw.org/是針對關(guān)聯(lián)數(shù)據(jù)問題回答的一系列評估活動.與QALD-6當(dāng)中的CANaLI[13],UTQA[14],KWGAnswer[15],NbFramework[16],SEMGraphQA.進(jìn)行對比.文章所提方法是使用Java語言實(shí)現(xiàn)的,所進(jìn)行的實(shí)驗(yàn)運(yùn)行于搭載Intel Core CPU 3.80GB Hz,32 GB RAM 的Windows 10平臺當(dāng)中.
DBpedia是一個從維基百科(WikiPedia)中提取結(jié)構(gòu)化信息,并且將數(shù)據(jù)存儲為RDF形式發(fā)布到互聯(lián)網(wǎng)上的組織.本次實(shí)驗(yàn)中所使用的數(shù)據(jù)集為2015年發(fā)布的DBpedia數(shù)據(jù)集(6)http://downloads.dbpedia.org/2015-10/core-i18n/en/,其中包含了約5百萬個實(shí)體,約11億個三元組,所包含RDF數(shù)據(jù)集的容量約為8.9GB.
文章中所使用的計算詞語之間的語義相關(guān)性的工具為Word2Vec_Java(7)https://github.com/NLPchina/Word2VEC_java,是基于文獻(xiàn)[18]中所介紹的Word2Vec模型建立的Java應(yīng)用工具.Word2Vec是一個用于生產(chǎn)詞向量的相關(guān)模型,該模型為淺而雙層的神經(jīng)網(wǎng)絡(luò).我們所用的訓(xùn)練語料集為Wikipedia+Gigaword 5(6B)(8)https://github.com/3Top/word2vec-api,維度為300,詞典大小為400000.
本次實(shí)驗(yàn)將驗(yàn)證QALD-6中的多語言回答問題(Multilingual question answering over DBpedia)的100個測試問題.由于我們的方法是處理英語語言方面的自然語言問題,所以在對比的時候也是使用英語語言的自然語言問句.對于中文的自然語言處理方法,可根據(jù)目標(biāo)領(lǐng)域(如文獻(xiàn)[19]中面向電商領(lǐng)域的問答)選取語料訓(xùn)練集建立語義概率模型,使用中文自然語言解析器(如Stanford Parser的中文解析模塊)對語句進(jìn)行解析,再根據(jù)中文語法對解析結(jié)果進(jìn)行查詢意圖的提取,利用所建立的語義概率模型或者自定義消歧方法(如文獻(xiàn)[20]中的滑動語義消歧方法)進(jìn)行消歧后轉(zhuǎn)化為相應(yīng)的查詢語句即可查詢相關(guān)內(nèi)容.在實(shí)驗(yàn)當(dāng)中,我們將與上述所提方法在以下指標(biāo)中作對比,分別為準(zhǔn)確率(Accuracy,A),所解決的問題占問題總量的比例;精確度(Precision,P),所查出的正確資源占結(jié)果總量的比例;召回率(Recall,R),所查出的正確資源占正確問題總量的比例;F-1(F1-Measure)=2×P×R/(P+R),為精確度與召回率的調(diào)和平均值.表5中展示了我們所提方法(簡稱為NGQA)與各方法在執(zhí)行測試數(shù)據(jù)后測量的以上指標(biāo)的數(shù)值.
表5 驗(yàn)證QALD-6的測試問題
從實(shí)驗(yàn)結(jié)果中得知,本文所提出的方法在F-1評價中排名與NbFramewrk并列第二.我們的方法在一百個問題當(dāng)中能夠解決其中的58個問題,精確度為0.85,召回率為0.88,其中召回率只比CaNaLI要低,但是比其他的方法要高.其中需要注意的是,CaNaLI需要用戶輸入受限的自然語言問句,即用戶需要以準(zhǔn)確的資源名稱(IRI表示)去表達(dá)問句當(dāng)中的資源以及關(guān)系.換言之,CaNaLI解決受限自然語言V在用戶層面,以用戶自身的認(rèn)知去進(jìn)行消歧的,而我們的問答,方法卻沒有這種限制.
在實(shí)驗(yàn)過程當(dāng)中,本文的方法在解決單三元組問題(如問題:“Who was the doctoral supervisor of Albert Einstein?”查詢時只包含單個三元組:
表6 錯誤問題分析
如表7所示各方法在處理數(shù)據(jù)集中15道隱式關(guān)系問題(如:“What is the name of the school where Obama′s wife studied?”)的正確率.由于本文所提出的方法主動驗(yàn)證修飾詞與實(shí)體詞之間是否包含隱式關(guān)系,而且結(jié)合類型的聯(lián)合概率計算擴(kuò)展后隱式關(guān)系語句的概率,從而導(dǎo)致本文的方法在處理隱式關(guān)系問題方面要優(yōu)于其他方法.
表7 針對隱式關(guān)系問題的準(zhǔn)確率比較
如圖4所示,從正確通過的58個問題當(dāng)中隨機(jī)選取10個問題進(jìn)行驗(yàn)證時間進(jìn)行測試,并與數(shù)據(jù)集當(dāng)中基準(zhǔn)的驗(yàn)證時間做比較,驗(yàn)證時間包含從查詢意圖轉(zhuǎn)化為查詢語句和查詢語句查詢出答案的過程.其中所選問題的驗(yàn)證時間均低于基準(zhǔn)值,則是由于我們所提出的方法是通過計算查詢意圖可能組合的聯(lián)合概率得出top-k個最優(yōu)的查詢組合進(jìn)行查詢,其中排除了幾乎不可能正確的查詢語句,從而縮短了驗(yàn)證時間.
圖4 驗(yàn)證時間比較
本文介紹了應(yīng)用在RDF問答系統(tǒng)中的一種基于N-gram的消歧方法.在用戶意圖理解階段,利用建立好的語義概率模型計算用戶意圖可能組合的聯(lián)合概率,通過前綴/后綴片段對組合進(jìn)行擴(kuò)充,解決了映射歧義的問題,通過比較得出top-k最優(yōu)組合,排除可能性較小的組合,不僅解決了結(jié)構(gòu)歧義的問題,而且還提高了查詢驗(yàn)證的效率.實(shí)驗(yàn)表明,本文方法在性能評估方面要優(yōu)于大部分所比較的方法,特別在解決隱式關(guān)系問題中要優(yōu)于其他的方法.下一步將建立更高階的語義概率模型,優(yōu)化解決聯(lián)合查詢以及聚合查詢的問題.