亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        文本蘊(yùn)涵的推理模型與識(shí)別模型

        2010-07-18 03:11:38袁毓林王明華
        中文信息學(xué)報(bào) 2010年2期
        關(guān)鍵詞:蘊(yùn)涵型式語料庫

        袁毓林,王明華

        (1.北京大學(xué)中文系漢語語言學(xué)研究中心,北京100871;2.浙江大學(xué)國(guó)際教育學(xué)院,浙江杭州310027)

        1 引言:何為文本蘊(yùn)涵?

        為了有效地處理自然語言中廣泛存在的同義異形現(xiàn)象,近年來國(guó)外一些學(xué)者嘗試用“文本蘊(yùn)涵”(Textual Entailment)來為語言中紛繁復(fù)雜的同義表達(dá)建立模型。

        所謂文本蘊(yùn)涵,可以定義為一個(gè)連貫的文本(Text)T和一個(gè)被看作是假設(shè)(Hypothesis)的 H之間的一種關(guān)系。如果 H的意義(置于 T的語境中解釋時(shí))可以從 T的意義中推斷出來;那么我們說T蘊(yùn)涵(Entail)H(即H是T的推斷),記作T?H。這種關(guān)于“文本蘊(yùn)涵”的定義,十分全面地抓住了為不同的應(yīng)用所需的對(duì)于語言表達(dá)多樣性的推理。拿問答系統(tǒng)來說,它必須鑒別蘊(yùn)涵了所期望的回答的文本。例如:

        (1)a.Who killed Kennedy?

        (誰殺死了肯尼迪)

        b.the assassination of Kennedy by Oswald

        (奧斯瓦德對(duì)肯尼迪的暗殺)

        c.Osw ald killed Kennedy.

        (奧斯瓦德殺死了肯尼迪)

        對(duì)于給定的問句(1a)來說,文本(1b)蘊(yùn)涵了句子性假設(shè)(1c);因此,(1b)可以作為(1a)的答句。同樣,在信息檢索中,由(非句子性)查詢表達(dá)形式所指謂的概念,必須被相關(guān)的檢索返回文檔所蘊(yùn)涵。在多文檔自動(dòng)文摘中,摘要中省去的冗余句子或表達(dá),應(yīng)該被摘要中的其他表達(dá)所蘊(yùn)涵。在信息抽取中,蘊(yùn)涵關(guān)系存在于表達(dá)相同關(guān)系的不同的文本變體中。在指代求解中,先行語通常蘊(yùn)涵了指代表達(dá)。比如,在“IBM will……The com pany……”這樣的語篇中,IBM蘊(yùn)涵company[3,7,9]。

        國(guó)外的許多學(xué)者積極從事文本蘊(yùn)涵問題的研究,構(gòu)造了不同的文本蘊(yùn)涵的推理模型和識(shí)別模型,并且還舉行國(guó)際性的競(jìng)賽和評(píng)測(cè)[8-9]。為了方便大家的了解,本文介紹幾種文本蘊(yùn)涵的推理模型和識(shí)別模型,供對(duì)內(nèi)容挖掘和語義計(jì)算關(guān)心的同行參考。

        2 文本蘊(yùn)涵的推理模型

        Dagan and G lickman[7]提出了一個(gè)逼近文本蘊(yùn)涵關(guān)系的推理模型,借以預(yù)測(cè)蘊(yùn)涵關(guān)系是否存在于一個(gè)給定的“文本—假設(shè)”對(duì)之間。這種推理模型由帶有推理規(guī)則集的蘊(yùn)涵型式(Entailment Patterns)知識(shí)庫和相關(guān)的概率評(píng)價(jià)構(gòu)成。上文給出的蘊(yùn)涵關(guān)系的抽象定義是一種決定論式的:對(duì)于一個(gè)給定的文本T和假設(shè)H,人們假定T?H成立與否。而在他們這個(gè)推理模型中,他們采用了蘊(yùn)涵關(guān)系的模糊觀念(Fuzzy Notion):通過給一個(gè)蘊(yùn)涵關(guān)系的實(shí)例標(biāo)定一個(gè)概率得分,來評(píng)價(jià)蘊(yùn)涵關(guān)系存在于這個(gè)特定的“文本—假設(shè)”對(duì)之間的概率有多大。下面分別介紹這個(gè)模型的三個(gè)主要的部分。

        2.1蘊(yùn)涵型式

        他們把模板(Temp late)定義為帶有句法分析的語言表達(dá)式,其中任選性地帶有可以替換這個(gè)結(jié)構(gòu)的某些組成部分的變量。變量可以根據(jù)所用的句法表示語言而抽象為某種句法類型,諸如詞類或依存分析中的關(guān)系類型。一個(gè)蘊(yùn)涵型式由下列兩個(gè)部分構(gòu)成:

        A.型式結(jié)構(gòu):一個(gè)主蘊(yùn)涵模板(左側(cè),記作LHS)和一個(gè)被蘊(yùn)涵模板(右側(cè),記作 RHS),它們擁有共同的變量域。

        B.型式概率:先驗(yàn)(Prior)概率和語境(即后驗(yàn)[Posterior])概率。比如:

        其中,蘊(yùn)涵型式指定了:對(duì)于任何變量的實(shí)例,一個(gè)蘊(yùn)涵LHS的文本也蘊(yùn)涵RHS的概率P的條件。概率是這樣來估計(jì)的:當(dāng)這個(gè)型式用于某個(gè)給定的語境中時(shí),其先驗(yàn)和后驗(yàn)概率的真組合(Proper Combination)。

        2.2 推理規(guī)則

        設(shè)計(jì)推理機(jī)制,以便用給定的蘊(yùn)涵型式庫,并組合性地運(yùn)用概率推理邏輯;從而,達(dá)到推斷出更大的表達(dá)式之間的蘊(yùn)涵關(guān)系。表1列出了用于該系統(tǒng)的一些核心的推理規(guī)則。

        表1 5條核心的推理規(guī)則

        續(xù)表

        其中,規(guī)則1計(jì)算所有匹配性蘊(yùn)涵型式的最大概率。所以稱這種概率為“公理概率”(Axiom Probability),是因?yàn)樘N(yùn)涵型式是給推理引擎的,而不是被演繹的。規(guī)則3和4描寫前件和后件被組合進(jìn)更大的表達(dá)式之中,而它們之間的蘊(yùn)涵關(guān)系仍然保持不變的兩種方式。為了表示這種組合方式,他們首先為語言表達(dá)式定義了一個(gè)擴(kuò)展算子,記作E(T);它把T映射到一個(gè)更大的語言表達(dá)式,其中T被完全內(nèi)嵌(T保持著其原來的句法結(jié)構(gòu))。限制性規(guī)則4在這種情況下運(yùn)用:前件被擴(kuò)展,但是沒有破壞它對(duì)后件的蘊(yùn)涵關(guān)系。例如:

        (1)French p resident?president

        當(dāng)然,不是所有的擴(kuò)展都能保持表達(dá)式原有的意義的。例如:

        (2)vice p resident×?p resident單調(diào)性規(guī)則3在這種情況下運(yùn)用:同一種擴(kuò)展運(yùn)用于前件和后件,但是沒有改變它們之間的蘊(yùn)涵關(guān)系的有效性。例如:

        (3)a.Paris?French

        b.visit Paris?visit French

        當(dāng)然,也不是所有的擴(kuò)展都能表現(xiàn)出這種單調(diào)性的。例如:

        (4)the population of Paris×?the population of French

        最后,傳遞鏈接規(guī)則5說明:完全蘊(yùn)涵的概率是從文本推導(dǎo)假設(shè)的一連串規(guī)則的最大積。

        表2展示了下例(5)的推理鏈條,省去了概率:

        (5)John bought a novel yesterday.?John purchased a book.

        表2 推理鏈條的示例

        2.3 推理引擎

        他們用Prolog式引擎來實(shí)現(xiàn)上述的推理模型。這個(gè)引擎跟一個(gè)給定的語料庫、一個(gè)蘊(yùn)涵型式知識(shí)庫和一個(gè)推理規(guī)則的實(shí)現(xiàn)相關(guān)聯(lián)而運(yùn)作。它拿假設(shè)作為輸入,并運(yùn)用這個(gè)推理模型,來發(fā)現(xiàn)語料庫中的蘊(yùn)涵文本的出現(xiàn)。對(duì)于每一個(gè)這種文本,該引擎輸出相應(yīng)的變量實(shí)例、蘊(yùn)涵概率的得分和蘊(yùn)涵推理的蹤跡。表3展示了這個(gè)推理引擎的可能的輸入和輸出。可以通過判斷輸出的正確性,測(cè)量精確率和召回率,來評(píng)價(jià)這個(gè)系統(tǒng)。

        表3 推理引擎的輸入和輸出示例

        3 蘊(yùn)涵型式的習(xí)得

        像上文介紹的文本蘊(yùn)涵的工作框架,只是提供了一種識(shí)別語言表達(dá)多樣性的一般機(jī)制。真正要實(shí)現(xiàn)這種模型,需要系統(tǒng)能夠獲得推理規(guī)則和蘊(yùn)涵型式兩個(gè)方面的知識(shí)。而這些知識(shí)的自動(dòng)學(xué)習(xí),目前尚是富有挑戰(zhàn)性的研究課題。下面介紹幾種習(xí)得蘊(yùn)涵型式的方法。

        3.1 基于實(shí)例的蘊(yùn)涵型式的習(xí)得

        建立上文所涉及的單調(diào)性和限制性擴(kuò)展的經(jīng)驗(yàn)?zāi)P?是一項(xiàng)全新的工作。而學(xué)習(xí)蘊(yùn)涵型式(結(jié)構(gòu)和概率)的工作,可以跟有關(guān)應(yīng)用領(lǐng)域中的自動(dòng)識(shí)別同義互釋相聯(lián)系。比如,Lin and Pantel[16]提出了這樣的方法:利用分布的相似性(Distributional Similarity)來為問題回答系統(tǒng)抽取推理規(guī)則。在問題回答、文本生成、文摘、信息抽取和翻譯等領(lǐng)域,學(xué)習(xí)同義互釋的更為主要的方法是基于實(shí)例(基于句子)[6]。這種方法的思想是:發(fā)現(xiàn)一對(duì)(組)看上去是描述大致相同的事實(shí)的相匹配的文本片段,并找出共同的詞匯項(xiàng)目作為一組“支撐點(diǎn)”(A nchors)。那些跟已知的支撐點(diǎn)共有相同的關(guān)系的相應(yīng)的成分,被習(xí)得為互釋型式(Paraphrase Patterns)。例如:

        (1)a.Yahoo bought Overture.

        b.Yahoo own Overture.可以從中演繹下面這種蘊(yùn)涵型式:

        (2)X ←subjbuyobj→Y ?X ←subjownobj→Y并把Yahoo和Overture作為支撐點(diǎn)。

        Dagan and G lickman[7]把蘊(yùn)涵型式的習(xí)得問題看作是包含了下面兩種類型的任務(wù):(1)無指導(dǎo)的可能的蘊(yùn)涵型式的習(xí)得,和(2)對(duì)這些可能的蘊(yùn)涵型式的概率性二元分類。他們發(fā)展了兩種從無標(biāo)注的語料中學(xué)習(xí)蘊(yùn)涵型式并對(duì)蘊(yùn)涵型式的概率進(jìn)行經(jīng)驗(yàn)評(píng)價(jià)的方法。下面分別介紹。

        3.2 從平行或單一語料庫中抽取同義形式

        像 Barzilay and M cKeown[4]、Shinyama et al.[18]、Barzilay and Lee[5]和 Pang et al.[17]等 ,都嘗試基于識(shí)別平行語料庫中的相對(duì)應(yīng)的句子來學(xué)習(xí)同義互釋;因?yàn)檠芯空呤孪纫呀?jīng)知道這些語料庫中包含了基本對(duì)應(yīng)的文本??杀容^語料庫的主要類型是相同文本的不同翻譯,還有報(bào)道大致相同的事件的新聞資料。

        但是,在 Glickman and Dagan[10]中,他們提出了一種基于實(shí)例的從單一語料庫中習(xí)得同義互釋的詞匯形式的算法。顯然,習(xí)得一對(duì)(組)可比較的語料庫是很不方便的,因?yàn)椴⒉皇撬械念I(lǐng)域都有這種語料庫,事實(shí)上也難以收集這樣的語料庫。因此,Glickm an and Dagan等致力于發(fā)展一種在單一語料庫中發(fā)現(xiàn)實(shí)際的同義互釋實(shí)例的方法。之所以能夠發(fā)現(xiàn)這種同義互釋實(shí)例,是因?yàn)橄嚓P(guān)領(lǐng)域的語料庫中往往有對(duì)相同事實(shí)或事件的重復(fù)提及和表述,這種同義形式甚至還能在非常不同的故事中找到。這種方法把統(tǒng)計(jì)和語言學(xué)過濾結(jié)合起來,來產(chǎn)生一種由概率激發(fā)的同義互釋的可能性得分。他們把這種方法跟 Lin and Pantel[16]基于矢量的方法相比較??雌饋?他們的基于實(shí)例的方法有助于評(píng)價(jià)候選的同義形式的可靠性,而這種可靠性恰恰是Lin and Pantel等通過金本位的分布相似性測(cè)量方法所難以做到的。

        表4展示他們抽取的動(dòng)詞性同義形式的例子和評(píng)分。

        表4 從語料庫中抽取的同義動(dòng)詞及其評(píng)分的示例

        續(xù)表

        3.3 從網(wǎng)絡(luò)上學(xué)習(xí)蘊(yùn)涵型式

        Dagan and G lickm an[7]用基于實(shí)例的、無指導(dǎo)的方法,從樸素的語料庫和網(wǎng)絡(luò)上學(xué)習(xí)同義互釋的型式;借此達(dá)到更為廣泛的覆蓋面,并擬合他們的基于蘊(yùn)涵的框架的結(jié)構(gòu)。整個(gè)學(xué)習(xí)過程包括兩種主要的工作:(1)識(shí)別可靠的支撐點(diǎn)集合,和(2)識(shí)別聯(lián)結(jié)支撐點(diǎn)并參與蘊(yùn)涵型式的各種模板。他們遵循一般的共同訓(xùn)練(Co-Training)方式,用自舉式(Bootstrapping)的方法,來反復(fù)地進(jìn)行這兩種工作。這項(xiàng)工作的一個(gè)特別的挑戰(zhàn)是,對(duì)于任何給定的詞匯項(xiàng)目,都能搜索到好的蘊(yùn)涵(同義互釋)型式;而不依賴于事先識(shí)別好的特定的支撐點(diǎn),因而指明了將被識(shí)別的蘊(yùn)涵型式具有同一性。

        第一步,為一個(gè)給定的詞匯核心詞語(Lexical coreWord or Term)識(shí)別可靠的支撐點(diǎn)集合;其實(shí),正是為了這個(gè)核心詞語,我們才想要找到同義互釋(蘊(yùn)涵型式)。一個(gè)支撐點(diǎn)集合是這樣一組詞語,它們表明:一個(gè)普通事實(shí)用多種句子形式來描述,是具有很高的概率的。反復(fù)出現(xiàn)的網(wǎng)絡(luò)搜索查詢?cè)~語串,可以用來檢索包含核心詞語和相關(guān)支撐點(diǎn)的句子。接著,各種統(tǒng)計(jì)標(biāo)準(zhǔn)運(yùn)用到這些檢索到的支撐點(diǎn)候選成分上,來識(shí)別有希望的支撐點(diǎn)集合。比如,給定核心詞語murder,接下來找到的支撐點(diǎn)集合是

        第二步,從眾多的支撐點(diǎn)集合中,用算法識(shí)別出可以在分析過的句子中把支撐點(diǎn)聯(lián)結(jié)起來的最一般(最小)的語言結(jié)構(gòu)。通過用變量替換那個(gè)語言結(jié)構(gòu)中的支撐點(diǎn),來得到蘊(yùn)涵模板。

        這種自舉式的體系就是由上述兩種過程的反復(fù)執(zhí)行組成的,可以總結(jié)如下:

        (1)初始化/播種子:對(duì)模板核心的一系列候選成分進(jìn)行初始化。這些候選成分來自某個(gè)輸入詞庫,而這個(gè)輸入詞庫又是從詞典、WordNet、領(lǐng)域語料庫等資源中抽取出來的。

        (2)對(duì)于每一個(gè)模板核心的候選成分,

        a.用查詢工具抽取包含該模板核心詞語的句子,

        b.從這些句子中抽取候選的支撐點(diǎn)集合,并測(cè)試其在統(tǒng)計(jì)上的重要性;

        (3)對(duì)于每一個(gè)抽取出來的支撐點(diǎn)集合,

        a.抽取一組包含這些支撐點(diǎn)詞語的句子,

        b.從這些句子的相匹配的部分子結(jié)構(gòu)中

        抽取候選的模板和核心,并測(cè)試其在統(tǒng)計(jì)上的重要性;

        (4)反復(fù)進(jìn)行(2)和(3),直到滿足習(xí)得的要求;

        (5)在抽取出來的模板中生成蘊(yùn)涵型式,并評(píng)價(jià)其概率。

        表5展示了應(yīng)用這種算法得到的一個(gè)初步的輸出。

        表5 由自舉式算法得到的輸出的示例

        續(xù)表

        3.4 學(xué)習(xí)蘊(yùn)涵型式的概率

        上述反復(fù)地抽取模板的處理過程,可以產(chǎn)生一個(gè)反映支撐點(diǎn)集合和模板的頻度的列聯(lián)表,如表6所示。

        表6 反映支撐點(diǎn)集合和模板頻度的列聯(lián)表

        蘊(yùn)涵型式及其估計(jì)的蘊(yùn)涵概率可以從這種列聯(lián)表中導(dǎo)出。比如,表6顯示assassinate蘊(yùn)涵m urder具有很高的概率,而相反方向的蘊(yùn)涵關(guān)系只適合于部分情況。他們計(jì)劃研究怎樣從這種表的橫欄上來合理地估計(jì)先驗(yàn)的蘊(yùn)涵概率。估計(jì)蘊(yùn)涵型式的概率是富有挑戰(zhàn)性的,因?yàn)檫@種語料上沒有標(biāo)注蘊(yùn)涵關(guān)系方面的標(biāo)記。

        蘊(yùn)涵模板出現(xiàn)于其中的語境,為相應(yīng)的蘊(yùn)涵型式的可用性,確定了一種后驗(yàn)的語境概率。比如,從表6中學(xué)習(xí)這種語境:其中 murder蘊(yùn)涵assassinate,那么人們需要識(shí)別適合于左邊兩列的典型語境,即相應(yīng)的政治性情景;這種情景區(qū)別于右列的非政治性情景。他們認(rèn)為這種工作跟詞義消歧分類相似。事實(shí)上,使用語境概率的主要?jiǎng)訖C(jī)是在碰到有歧義的詞語時(shí),能夠正確地應(yīng)用蘊(yùn)涵型式;比如,只有在bank表示金融[機(jī)構(gòu)]的意義時(shí),bank?company才能成立。因此,他們探索怎樣用詞義消歧的表示和學(xué)習(xí)方法去學(xué)習(xí)語境概率。最后,另一個(gè)富有挑戰(zhàn)性的工作是,在應(yīng)用蘊(yùn)涵型式時(shí),怎樣根據(jù)語境匹配的程度,合適地把先驗(yàn)和后驗(yàn)估計(jì)結(jié)合起來。

        4 文本蘊(yùn)涵的概率性詞匯方法

        由于文本之間的蘊(yùn)涵關(guān)系并不是一種確定性的關(guān)系,并且文本之間的蘊(yùn)涵關(guān)系在一定程度上可以化簡(jiǎn)和歸約為兩個(gè)文本中所包含的某個(gè)詞匯概念之間的蘊(yùn)涵關(guān)系;因而,通過構(gòu)建詞匯蘊(yùn)涵的概率模型來逼近文本蘊(yùn)涵,不失為一種簡(jiǎn)捷有效的途徑。下面主要介紹G lickm an et al.[11-12]所報(bào)道的這方面的工作。

        4.1 文本蘊(yùn)涵的通用生成概率機(jī)制

        Glickman et al.[11]注意到蘊(yùn)涵所指的不確定性和概率性,例如:

        (1)a.Wherewas Harry Resoner born?

        b.Harry Resoner's birthplace is Iowa.

        c.H arry Resoner was born in Iowa.

        d.Harry Resoner is returning to his hometown to getmarried.

        對(duì)于一個(gè)問題回答系統(tǒng)來說,可以認(rèn)為包含(1b)的文本蘊(yùn)涵了問句(1a)所期望的答句(1c);但是,包含(1d)的文本是否蘊(yùn)涵了答句形式(1c),就不好確定了。

        為此,他們提出了一個(gè)文本蘊(yùn)涵的通用生成概率機(jī)制。他們假定:語言資源是在某種事態(tài)語境中生成文本的。這樣,文本是跟對(duì)于假設(shè)的隱式的真值指派一起生成的。他們定義了相應(yīng)的概率空間中的兩類事件:

        (1)對(duì)于假設(shè)h,他們用 Trh代表隨機(jī)變量,其值就是在生成文本的[可能]世界中賦予h的真值。于是,Trh=1是h被賦予真值1(真)的事件。

        (2)對(duì)于文本t,他們?nèi)匀挥胻代表生成文本是t的事件。

        文本蘊(yùn)涵關(guān)系:如果t增加了h為真的可能性,即P(Trh=1|t)>P(Trh=1);那么可以說t在概率上蘊(yùn)涵h(huán),記作t?h。

        蘊(yùn)涵置信度(Confidence):他們用點(diǎn)式互信息(Pointw ise M utual Information)來表示由文本提供的用以評(píng)價(jià)假設(shè)的(跟其先驗(yàn)概率有關(guān)的)真值的信息的邊際(最低限度的)量:

        4.2 從文本蘊(yùn)涵到詞匯蘊(yùn)涵

        上文提出的文本蘊(yùn)涵生成概率機(jī)制,為建立文本蘊(yùn)涵的概率模型提供了必要的基礎(chǔ);但是,估計(jì)文本蘊(yùn)涵的成分概率也是十分重要的,因?yàn)閷?duì)于語料庫中的文本的假設(shè)的真值指派是無法觀察到的。由于為完整的文本蘊(yùn)涵問題建立模型是一個(gè)長(zhǎng)遠(yuǎn)的研究目標(biāo),因而他們把重點(diǎn)放在詞匯蘊(yùn)涵(Lexical Entailment)這個(gè)子目標(biāo)上,即識(shí)別假設(shè)中的某個(gè)詞匯觀念能否從特定的文本中推演出來。

        在估計(jì)蘊(yùn)涵概率時(shí),他們假定:假設(shè)h中的詞項(xiàng)u的真值概率,獨(dú)立于h中的其他詞項(xiàng);于是,得到下列公式:

        這樣,蘊(yùn)涵關(guān)系的識(shí)別問題便可以看作是一種文本分類工作(Text C lassification task);其中,類別就是對(duì)于詞匯表中不同的詞的詞匯真值的抽象的二分概念。首先,他們單純根據(jù)各個(gè)u在t中是否顯性地出現(xiàn),構(gòu)造初始的標(biāo)記添加系統(tǒng)。然后,以無指導(dǎo)的方式運(yùn)用樸素的貝葉斯方法(Na?ve Bayes),這種方式可以從定義好的概率機(jī)制中分析性地導(dǎo)出。

        4.3 詞匯蘊(yùn)涵的概率模型

        作為一種初步的逼近,他們假定:對(duì)于語料庫中的任何文件,詞項(xiàng)u的真值決定于它是否顯性地在這個(gè)文件中出現(xiàn)。就某個(gè)方面來看,標(biāo)記添加系統(tǒng)類似于具有下列功能的布爾搜索系統(tǒng)——根據(jù)文本性假設(shè)中的關(guān)鍵詞來進(jìn)行(無擴(kuò)展的)布爾搜索,以找到候選的主蘊(yùn)涵文本。根據(jù)貝葉斯假設(shè),他們把概率公式P(Tru=1|t)改寫為:

        這樣,就可以根據(jù)先驗(yàn)概率P(v|Tru=1)、詞匯V中的每一個(gè)u與v的詞匯概率P(v|Tru=1)與P(v|Tru=0),來估計(jì)P(Tru=1|t)。這些概率是比較容易從語料庫中估計(jì)的,只要給出初始模型對(duì)于真值指派的估計(jì),并假定文件的多項(xiàng)事件模型(M ultinom ial Event M odel)和拉普拉斯平滑(Lap lace Smoothing)。從上面的等式,可以對(duì)任意文本t和假設(shè)h的P(Trh=1|t)和 P(Trh=1),都有一個(gè)精確的概率估計(jì)。把概率估計(jì)轉(zhuǎn)換為分類判定的準(zhǔn)則,可以從他們提出的關(guān)于文本蘊(yùn)涵的概率機(jī)制上分析性地導(dǎo)出。如果P(Trh=1|t)>P(Trh=1),他們就給蘊(yùn)涵關(guān)系作出肯定性的分類;并且,為了劃分等級(jí),給P(Trh=1|t)/P(Trh=1)指派一個(gè)置信度得分。事實(shí)上,經(jīng)驗(yàn)性評(píng)價(jià)證明,這種解析閾限幾乎是最優(yōu)的。

        他們通過人工的方法構(gòu)建“假設(shè)—文本”對(duì)集合,用一部分來訓(xùn)練上述模型,再選取一部分來測(cè)試;結(jié)果宏觀的平均正確率達(dá)70%,平均置信權(quán)重得分(ConfidenceWeighted Score,Cw s)達(dá)0.54,都超過了用其他方法建造的系統(tǒng)。

        4.4 詞匯所指的語義匹配假設(shè)

        Glickman et al.[12]指出,文本理解應(yīng)用的一項(xiàng)基礎(chǔ)工作是識(shí)別語義上等同的文本片段;而大多數(shù)語義匹配工作是在詞匯平面上進(jìn)行的,目的在于確定:一個(gè)文本中的某個(gè)詞語的意思,是否在另一個(gè)文本中也得到了表達(dá)。通常,這種詞匯匹配模型要測(cè)量字面上相同的詞匯重疊的程度;當(dāng)然,也會(huì)通過各種詞匯替換標(biāo)準(zhǔn)來擴(kuò)充詞匯重疊的范圍。這種詞匯替換標(biāo)準(zhǔn)是基于WordNet等資源、或者各種統(tǒng)計(jì)文本相似性方法所得到的結(jié)果而確立的。也就是說,從單純的詞匯重疊擴(kuò)展為詞匯所指(Lexical Reference)的相同。比如,Lin[15]提出了著名的測(cè)量語義相似性的分布假設(shè):出現(xiàn)在相似語境中的詞語在語義上也相似。利用分布相似性,可以從單一語料庫中識(shí)別同義互釋的型式。

        因?yàn)?假設(shè)h中的詞匯概念在給定的文本t中得到表達(dá),這通常是文本蘊(yùn)涵的必要(而非充分)條件;所以,文本蘊(yùn)涵的識(shí)別可以化簡(jiǎn)歸約為:識(shí)別假設(shè)h中每一個(gè)詞語的意義是否被相應(yīng)文本t中的某些意義所指謂。Glickman et al[12]提議,這個(gè)目標(biāo)可以通過下列定義來抓住:

        如果文本t中的一組詞語顯性或隱性地指謂了詞語w的可能的意義,那么詞語w被文本t詞匯性地指謂了。

        可見,詞匯蘊(yùn)涵應(yīng)該是更為復(fù)雜的蘊(yùn)涵模型(或語義匹配)系統(tǒng)的一個(gè)組成部分。詞匯指稱可以看作是把文本蘊(yùn)涵自然地延伸到諸如詞語等小于句子的假設(shè)(Sub-Sentential Hypotheses)上。這種工作雖然把重心放在詞上,但是可以推廣到詞語復(fù)合體和短語上。為此,他們建造了有關(guān)的數(shù)據(jù)庫,請(qǐng)兩個(gè)標(biāo)注者根據(jù)下列規(guī)范對(duì)有關(guān)的“句子—詞語”對(duì)進(jìn)行標(biāo)注:

        定義給定的句子和目標(biāo)詞,評(píng)定目標(biāo)詞是(真)否(假)被句子指謂。在下列情況下標(biāo)定“句子—詞語”對(duì)[的詞匯蘊(yùn)涵關(guān)系]為真,在其他情況下一律標(biāo)定為假:

        (1)詞。如果句子中的某個(gè)詞,在該句子所構(gòu)成的語境中,表示了目標(biāo)詞的意義(如:同義詞、下義詞),或者表示了目標(biāo)詞的意義的所指(如:blind→see,sight)。

        (2)短語。如果句子中幾個(gè)詞語組合起來形成獨(dú)立的表達(dá)形式,表示了目標(biāo)詞的(相同義項(xiàng)的)意義(如:call off→cancelled,home of→located)。

        (3)語境。如果目標(biāo)詞的意義所指不是由單獨(dú)的詞或短語表示,而是由句子中的某個(gè)或幾個(gè)部分(甚至整個(gè)句子)來表示。例如:

        通過對(duì)標(biāo)注語料的分析,他們證實(shí)了他們的假設(shè):只有當(dāng)假設(shè)h中的所有的實(shí)詞的意義被文本t所指謂,它們之間的蘊(yùn)涵關(guān)系才有可能成立。

        4.5 基于詞匯所指的語義匹配模型

        Glickman et al.[12]指出,有了上述詞匯所指數(shù)據(jù)庫,就可以對(duì)各種詞匯模型從質(zhì)和量上進(jìn)行比較。他們展示五種可用以詞匯所指工作的模型,并對(duì)它們的表現(xiàn)進(jìn)行測(cè)試和分析。每一種模型都向給定的一對(duì)文本t和目標(biāo)詞u指派一個(gè)[0,1]得分,這個(gè)分?jǐn)?shù)可以解釋為詞語u在文本t中被詞匯性地指稱的置信度。下面分別介紹這五種詞匯指稱模型:

        (1)WordNet模型:直接利用WordNet的詞匯信息。首先,對(duì)文本和目標(biāo)詞進(jìn)行詞目化處理(lemmatize);然后賦分:如果文本包含目標(biāo)詞的同義詞、下義詞、或者其派生形式,那么賦分1;其他情況下,賦分0。

        (2)相似性模型:利用Lin[15]的分布相似性測(cè)量方法,對(duì)于文本t和目標(biāo)詞u,他們用下列公式指派最大相似性得分:

        其中,sim(u,v)是u和v的相似性得分。

        (3)對(duì)齊模型:這是一種基于詞語同現(xiàn)統(tǒng)計(jì)的詞匯概率模型,它對(duì)于文本t和目標(biāo)詞u作如下的對(duì)齊定義:

        其中,P(u|v)是簡(jiǎn)單的同現(xiàn)概率,即一個(gè)句子中既包含v又包含u的概率。

        (4)貝葉斯模型:這種模型處理語境指稱問題,而不是詞對(duì)詞的匹配。這種模型基于樸素的貝葉斯文本分類方法,語料庫中的句子被當(dāng)作文檔使用,類別就是目標(biāo)詞u的所指。包含目標(biāo)詞u的句子被用作正例,其他句子被當(dāng)作反例。它對(duì)于文本t和目標(biāo)詞u作如下的指稱關(guān)系定義:

        其中,n(w,t)是詞w出現(xiàn)在文本t中的次數(shù),P(u)是句子包含詞u的概率,P(v|(u)是不包含詞u的句子包含詞v的概率。為了減少數(shù)據(jù)規(guī)模和解釋零概率,他們運(yùn)用平滑手段和特征選擇信息。

        (5)混合模型:把WordNet模型和貝葉斯模型結(jié)合起來,以便既很好地識(shí)別明顯的詞對(duì)詞指稱的例子,又能很好地識(shí)別語境隱含的指稱的例子。通過評(píng)價(jià)兩種模型的樸素的線性插值(簡(jiǎn)單地平均這兩種模型的得分),來綜合它們的威力。

        5 文本蘊(yùn)涵的句法—語義模型

        為了系統(tǒng)實(shí)現(xiàn)的方便,一般的文本蘊(yùn)涵識(shí)別處理往往采用詞匯概率方法。但是,也有人嘗試句法分析或基于句法的語義分析模型,以此更加逼近人類理解蘊(yùn)涵關(guān)系時(shí)的心智過程,并進(jìn)一步提高蘊(yùn)涵識(shí)別的精確率和召回率。下面介紹幾個(gè)這方面的有關(guān)工作和處理模型。

        5.1 句法分析在蘊(yùn)涵識(shí)別中的貢獻(xiàn)與運(yùn)用

        Vanderwende et al.[19]介紹,他們請(qǐng)兩個(gè)熟練的語言學(xué)者分析PASCAL文本蘊(yùn)涵邀請(qǐng)賽的測(cè)試語料,離析出那些單純根據(jù)句法線索就可以準(zhǔn)確地預(yù)測(cè)“文本—假設(shè)”對(duì)之間是否具有蘊(yùn)涵關(guān)系的部分;從而,了解用健壯的[句法]分析器可以解決這項(xiàng)工作的多少(比例)。

        兩個(gè)人工標(biāo)注者評(píng)價(jià)測(cè)試集中的“文本—假設(shè)”對(duì),斷定它們?cè)谔N(yùn)涵關(guān)系方面屬于下面的哪一種類別:

        [1]True by Syntax(從句法上看是真的),

        [2]False by Syntax(從句法上看是假的),

        [3]Not Syntax (不是句法層面上的),

        [4]Can't Decide (無法作出判斷)。

        結(jié)果,發(fā)現(xiàn)37%的測(cè)試項(xiàng)目可以通過人工根據(jù)句法來判斷;如果允許利用普通的義類詞典(Thesaurus),那么可以提高到49%。

        所謂句法線索,主要包括“文本—假設(shè)”對(duì)之間是常見的句式變換形式(A lternation),和基于句法的論元指派、句內(nèi)代詞回指求解等。例如:

        (1)a.T:The A lameda Central,west of the Zocalo,was created in 1592.

        b.H:The A lam eda Central is west of the Zocalo.

        (2)a.Schroeder's election→b.Schroeder was elected

        (3)a.w here hew as surfing→b.while surfing

        (1a)中的同位結(jié)構(gòu)可以提升為(1b)之類的主句結(jié)構(gòu),(2a)中的名詞化結(jié)構(gòu)可以變換為(2b)之類的帶時(shí)制的從句,(3a)中的限定結(jié)構(gòu)可以變換為(3b)之類的非限定結(jié)構(gòu)。

        值得注意的是,如果“文本—假設(shè)”對(duì)在句法結(jié)構(gòu)方面沒有共同之處,那么往往可以斷定它們之間沒有蘊(yùn)涵關(guān)系;當(dāng)然,要建造一個(gè)能夠自動(dòng)地發(fā)現(xiàn)兩個(gè)句子之間缺乏句法重疊的系統(tǒng)是不太可能的。另外,如果兩個(gè)句子的主語與動(dòng)詞都是對(duì)齊的(A ligned),但是賓語沒有對(duì)齊;那么,它們之間一般沒有蘊(yùn)涵關(guān)系。

        Herrera et al[13]介紹,他們參加RTE-1競(jìng)賽的系統(tǒng)的工作原理是:尋找文本和假設(shè)的依存樹之間的匹配關(guān)系。該系統(tǒng)主要有以下三個(gè)部分:

        1)依存分析器:它基于Lin[15]所報(bào)道的Minipar。該依存分析器把來自“文本—假設(shè)”對(duì)語料庫的數(shù)據(jù)規(guī)范化,進(jìn)行依存關(guān)系分析;構(gòu)造出能夠表示這種依存關(guān)系的合適的結(jié)構(gòu),并且記住它們。

        2)詞匯蘊(yùn)涵模塊:它從分析器中獲得信息,返回假設(shè)中被文本所蘊(yùn)涵的節(jié)點(diǎn)。

        3)匹配評(píng)價(jià)模塊:它沿著詞匯蘊(yùn)涵節(jié)點(diǎn),搜索進(jìn)入假設(shè)的依存樹的路徑。

        其中,不僅同義關(guān)系、下義關(guān)系等詞匯知識(shí),而且否定關(guān)系和反義關(guān)系,都對(duì)于判斷“文本—假設(shè)”對(duì)之間的蘊(yùn)涵關(guān)系有用。例如:

        (4)a.T:Clinton's new book isnot big seller here.

        b.H:Clinton's book isa big seller.

        (5)a.T:...m inister says his country w ill not change its p lan...

        b.H:South Korea continues to send troops.

        可見,蘊(yùn)涵關(guān)系不可能存在于一個(gè)詞項(xiàng)跟其否定形式之間,如例(4)所示;但是,可能存在于一個(gè)詞項(xiàng)跟其反義詞的否定形式之間,如例(5)所示。

        “文本—假設(shè)”對(duì)之間是否具有蘊(yùn)涵關(guān)系,是根據(jù)它們之間的相似性來決定的。而這種相似性被定義為假設(shè)中能夠跟文本匹配上的節(jié)點(diǎn)的比例。經(jīng)過試驗(yàn),發(fā)現(xiàn)這種相似性的閾值是50%。也就是說,當(dāng)假設(shè)中能夠跟文本匹配上的節(jié)點(diǎn)的比例達(dá)到或超過50%時(shí),可以說它們之間具有蘊(yùn)涵關(guān)系;當(dāng)這種比例小于 50%時(shí),可以說它們之間不具有蘊(yùn)涵關(guān)系。

        為了比較該系統(tǒng)的性能,他們?cè)O(shè)計(jì)了兩個(gè)簡(jiǎn)單的基線系統(tǒng):

        1)基線系統(tǒng)I:?jiǎn)渭冇?jì)算假設(shè)中的詞在文本中出現(xiàn)的比例數(shù);

        2)基線系統(tǒng)II:?jiǎn)渭冇?jì)算假設(shè)中可以被文本中的任何詞所蘊(yùn)涵的詞的比例數(shù);

        這兩個(gè)基線系統(tǒng)都取50%作為閾值。

        結(jié)果顯示,該系統(tǒng)對(duì)于RTE-1競(jìng)賽的測(cè)試語料的精確率,比上面兩個(gè)基線系統(tǒng)要高。具體地說,基線系統(tǒng)I的總的精確率是54.95%,基線系統(tǒng)II的總的精確率是55.48%,該系統(tǒng)的總的精確率是達(dá)56.36%。這說明,兩個(gè)句子在詞匯上有較高的重疊,并不意味著它們之間具有蘊(yùn)涵關(guān)系;相反,兩個(gè)句子在詞匯上有較低的重疊,并不意味著它們?cè)谡Z義上完全不同。為了確定兩個(gè)句子之間有無蘊(yùn)涵關(guān)系,必須分析它們?cè)诖谓Y(jié)構(gòu)(Substructure)方面的句法關(guān)系;也就是說,必須對(duì)句法關(guān)系進(jìn)行深度的(In-dep th)處理。

        5.2 利用論元結(jié)構(gòu)和原子命題識(shí)別蘊(yùn)涵關(guān)系

        And reevskaia etal[2]介紹,他們參加RTE-1競(jìng)賽的系統(tǒng)的工作原理是:用簡(jiǎn)單的一般性的啟發(fā)式和知識(shí)貧乏的方法來識(shí)別同義互釋,用NP同指互參、NP語塊切分、RASP和 Link兩個(gè)分析器來給“文本—假設(shè)”對(duì)中的每一個(gè)句子產(chǎn)生謂詞—論元結(jié)構(gòu)(PAS)。例如:

        (1)a.Two-thirds of the Scottish police force w ill be dep loyed at the happening.

        b.]>

        其中,(1b)是句子(1a)的謂詞—論元結(jié)構(gòu)(PAS)表達(dá)式。

        然后,用WordNet詞匯鏈和一些專門的啟發(fā)式規(guī)則來建立這些PAS中相應(yīng)成分的語義相似性;最后,為這些相應(yīng)的PAS的結(jié)構(gòu)相似性和相應(yīng)詞匯成分的相似性設(shè)定閾值,用以判斷“文本—假設(shè)”對(duì)之間的蘊(yùn)涵關(guān)系是否成立。結(jié)果顯示,他們的算法和系統(tǒng)在精確率和召回率方面更加偏向前者而不是后者;具體地說,在精確率方面達(dá)到0.55~0.57,但是在召回率方面只有0.15~0.18。這個(gè)系統(tǒng),成為他們將來研發(fā)事件同指互參和可比較文檔分析的基線系統(tǒng)。

        Akhmatova[1]介紹,他們參加RTE-1競(jìng)賽的系統(tǒng)的工作原理是:基于句法的語義分析,用原子命題(A tomic Proposition)作為蘊(yùn)涵識(shí)別的主要元素。因?yàn)橐胫酪粋€(gè)假設(shè)H是否被一個(gè)文本T所蘊(yùn)涵,人們必須比較它們的意義。而句子的意義可以表示成包含在句子中的一組原子命題。于是,為了比較句子的意義,先要比較這些原子命題。這樣,通過比較包含在“文本—假設(shè)”對(duì)句子中的原子命題,來發(fā)現(xiàn)該句子對(duì)之間有無蘊(yùn)涵關(guān)系。

        原子命題可以定義為其真值為真或假的最小陳述形式,并且,其真值的真或假不依賴于其他命題的真值的真或假。例如:

        (2)a.Coffee boosts energy and provides health benefits.

        b.Coffee boosts energy.

        c.Coffee provides health benefits.

        句子(2a)中包含(2b,c)兩個(gè)原子命題。把句子分割成原子命題,必須對(duì)句子進(jìn)行基于句法的語義分析,這種深層的句法、語義分析對(duì)蘊(yùn)涵識(shí)別是至關(guān)重要的。在實(shí)現(xiàn)時(shí),他們從分析器Link產(chǎn)生的結(jié)果中抽取原子命題,把它們輸入到語義分析器,以推導(dǎo)出用一階謂詞邏輯表示的意義表達(dá)式。同時(shí),利用從WordNet數(shù)據(jù)庫中拿來的語義知識(shí)(比如,詞語之間的同義、蘊(yùn)涵關(guān)系),通過自動(dòng)演繹系統(tǒng)OTTER來對(duì)原子命題進(jìn)行比較;如果假設(shè)中的原子命題能夠跟文本中的原子命題相匹配,那么蘊(yùn)涵關(guān)系成立?,F(xiàn)在,該系統(tǒng)可以識(shí)別基于語義和句法的蘊(yùn)涵關(guān)系,還有可能利用更多的內(nèi)部和外部知識(shí)來處理復(fù)雜的蘊(yùn)涵現(xiàn)象。

        5.3 淺層的詞匯統(tǒng)計(jì)和深層的自然語言處理相結(jié)合

        Jijkoun and Rijke[14]介紹,他們參加RTE-1競(jìng)賽的系統(tǒng)的工作原理是:計(jì)算有向的(Directed)句子相似性,即核查“文本—假設(shè)”對(duì)之間在有向的語義[實(shí)在的]詞方面的重疊。他們用基于頻率的詞項(xiàng)權(quán)重,結(jié)合兩種不同的詞匯相似性測(cè)量方法。通過在RTE-1競(jìng)賽的測(cè)試語料上的運(yùn)行,結(jié)果表明該系統(tǒng)的正確率達(dá)0.55。

        首先,他們把“文本—假設(shè)”對(duì)中的句子都看作是一組詞語,計(jì)算有向的句子相似性的得分;然后,設(shè)定閾值來判定“文本—假設(shè)”對(duì)中的句子之間有無蘊(yùn)涵關(guān)系。這種方法可以用下面這種準(zhǔn)算法來實(shí)現(xiàn):

        其中的要旨是:根據(jù)度量詞的相似性wordsim(w1,w2)的需要,對(duì)于假設(shè)中的每一個(gè)詞,都要在文本中尋找最相似的詞。如果這種相似詞存在(maxSim即不為零),就給總的相似性得分加上加權(quán)的相似性值。否則,就減去詞的權(quán)重,即對(duì)假設(shè)中那些在文本中沒有匹配詞的詞進(jìn)行處罰。最終,他們發(fā)現(xiàn)如果不作出過度的擬合,那么他們的系統(tǒng)簡(jiǎn)直無法改進(jìn);由此說明:需要探索更深層的文本特征。

        鑒于淺層的詞匯統(tǒng)計(jì)和深層的句法分析都有缺陷,Bos and Markert[6]提出了把兩者結(jié)合起來的路子:基于詞匯重疊的淺層方法和利用定理證明的深層方法相結(jié)合。再用機(jī)器學(xué)習(xí)的方法把這兩種方法得到的特征結(jié)合起來。結(jié)果,他們參加RTE-1競(jìng)賽提交了兩個(gè)運(yùn)行結(jié)果:一個(gè)只用淺層特征,正確率是0.555 0;另一個(gè)利用所有的特征,正確率是0.562 5。他們感嘆:他們的方法面臨的困難是缺少背景知識(shí)。

        [1] Akhmatova,Elena.Textual Entailment Resolution via A tom ic Proposition[C]//Proceedings of the PASCAL Challenges W orkshop on Recognising Textual Entailment.2005.

        [2] Andreevskaia,Alina,Zhuoyan Li and Sabine Berger.Can Shallow Predicate A rgument Structure Determ ine Entailment?[C]//Proceedings of the PASCAL Challenges Workshop on Recognising Textual Entailment.2005:

        [3] Bar-Haim,Roy,Idan Szpek tor and Oren Glickman.Definition and Analysis of Intermediate Entailment Levels[C]//Proceeding o f the ACL Workshop on Empirical Modeling of Semantic Equivalence and Entailment.2005:55-60.

        [4] Barzilay,Regina and Kathleen M cKeow n(2001)Extracting Paraphrases from a Parallel Corpus[C]//ACL/EACL.2001:50-57.

        [5] Barzilay,Regina and Lillian Lee.Learning to Paraphrase:An Unsupervised Approach Using Mu ltiple-Sequence A lignment[C]//Proceeding of the NAACLH LT.2003:16-23.

        [6] Bos,Johan and Katja Markert.Combining Shallow and Deep NLP Methods for Recognizing Textual Entailment[C]//Proceedings o f the PASCAL Challenges W orkshop on Recognising Textual Entailment.2005:

        [7] Dagan,Ido and O ren G lickman.Probabilistic Textual Entailment:Generic App lied M odeling of Language Variability[C]//PASAL workshop on Learning Methods for Text Understanding and M ining,Grenoble France.2004.

        [8] Dagan,Ido,O ren G lickman,Alfio G liozzo,Efrat M armorshtein,Car lo Strapparava.DirectW ord Sense M atching for Lexical Substitution[C]//COLING-ACL'06.2006:

        [9] Dagan,Ido,Oren G lickman and Bernado Magnini.The PASCAL Recognising Tex tual Entailment Challenge[J].Lecture Notes in Computer Science,2006,3944:177-190.

        [10] G lickman,Oren and Ido Dagan.Identifying Lexical Paraphrases from a Single Corpus:A Case Study for Verbs[C]//Proceedings of Recent Advantages in Natura l Language Processing.2003:

        [11] G lickman,Oren,Ido Dagan and Moshe Koppel.A Probabilistic Lexical Approach to Textual Entailment[C]//Proceedings o f the N ineteenth International Joint Conferenceon A rtificial Intelligence.2005:1682-1683.

        [12] G lickman,Oren,Eyal Shnarch and Ido Dagan.Lexical Reference:a Semantic M atching Subtask[C]//Proceedings of the 2006 con ference on Empirical M ethods in Natural Language Processing.2006:172-179.

        [13] Herrera,Jes s,Anselmo Pe as and Felisa Verdejo.Textual Entailment Recognition on Dependency Analysis and WordNet[C]//Proceedings o f the PASCAL Challenges Workshop on Recognising Textual Entailment.2005:

        [14] Jijkoun,Valentin and Maarten de Rijke.Recognizing Textual Entailment Using Lexica l Sim ilarity[C]//Proceedings of the PASCAL Challenges Workshop on Recognising Tex tual Entailment.2005:

        [15] Lin,Dekang.Automatic Retrieval and Clustering of SimilarW ords[C]//Proceedings o f the 17thinternational Conference on Com putational Linguistics,Morristow n,NJ,USA.Association for Computational Linguistics.1998:768-774.

        [16] Lin,Dekang and Patrick Pantel.Discovery o f Inference Rules for Question Answ ering,Natural Language Engineering 2001,7(4):342-360.

        [17] Pang,Bo,Kevin Knight and Daniel M arcu.Syntaxbased A lignmentofM ultip le Translations:Extracting Paraphrases and Generating New Sentences.H LT/NAACL.2003.

        [18] Shinyama,Yusuke,Satoshi Sekine,K iyoshi Sudo and Ralph Grishman.Automatic Paraphrase Acquisition from New s A rticles[C]//Proceedings of the Second International Conference on Human Language Technology Con ference[H LT-02].2002:313-318.

        [19] Vanderwende,Lucy,Deborah Cough lin and Bill Bolan.What Syntax can Contribute in Entailment Task?[C]//Proceedings of the PASCAL ChallengesW orkshop on Recognising Tex tual Entailment.2005.

        猜你喜歡
        蘊(yùn)涵型式語料庫
        偉大建黨精神蘊(yùn)涵的哲學(xué)思想
        幕墻型式對(duì)高層建筑室內(nèi)自然通風(fēng)影響的模擬
        煤氣與熱力(2021年9期)2021-11-06 05:22:48
        現(xiàn)代中小河流常用有壩壅水建筑物型式探討
        《語料庫翻譯文體學(xué)》評(píng)介
        我的超級(jí)老爸
        軍持的型式分析與年代分期
        東方考古(2017年0期)2017-07-11 01:37:54
        把課文的優(yōu)美表達(dá)存進(jìn)語料庫
        多重模糊蘊(yùn)涵與生成模糊蘊(yùn)涵的新方法
        基于JAVAEE的維吾爾中介語語料庫開發(fā)與實(shí)現(xiàn)
        語言與翻譯(2015年4期)2015-07-18 11:07:45
        關(guān)于Fuzzy蘊(yùn)涵代數(shù)的模糊MP濾子
        18无码粉嫩小泬无套在线观看| 美艳善良的丝袜高跟美腿| 不卡日韩av在线播放| 特级毛片a级毛片100免费播放| 欧美日本日韩aⅴ在线视频| 国产在线高清无码不卡| 亚洲精品一区二区三区新线路| 久久婷婷五月综合97色直播| 亚洲日产精品一二三四区| 在线播放a欧美专区一区| 国产麻豆精品久久一二三| 女同恋性吃奶舌吻完整版| 人妻激情偷乱视频一区二区三区| 无码少妇a片一区二区三区| 亚洲精品6久久久久中文字幕| 我的极品小姨在线观看| 高清午夜福利电影在线| 国产一线二线三线女| 国产一级淫片免费大片| 91国内偷拍精品对白| 亚洲精品中文幕一区二区| 亚洲av无码片在线观看| 巨乳av夹蜜桃站台蜜桃机成人| 亚洲一二三四五中文字幕| 国产乱人无码伦av在线a| 人妻无码久久一区二区三区免费| 亚洲综合网站精品一区二区| 色婷婷亚洲精品综合影院| 人妻少妇精品久久久久久| 国产女女精品视频久热视频| 无码超乳爆乳中文字幕| 日本高清在线播放一区二区| 国产色系视频在线观看| 躁躁躁日日躁| 视频二区 无码中出| 中文字幕av长濑麻美| 色噜噜狠狠狠综合曰曰曰| 国产精品高清视亚洲乱码有限公司 | av中文字幕在线资源网| 国产91精品高潮白浆喷水| 免费人成在线观看视频播放|