亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于BBCM-TextRank的文本摘要提取算法研究

        2022-09-28 09:17:36王名揚(yáng)周文遠(yuǎn)
        關(guān)鍵詞:實(shí)體語義權(quán)重

        井 鈺,王名揚(yáng),周文遠(yuǎn)

        (東北林業(yè)大學(xué)信息與計(jì)算機(jī)工程學(xué)院,黑龍江 哈爾濱 150036)

        0 引言

        文本摘要是對(duì)文本進(jìn)行處理從而生成簡(jiǎn)潔、精煉的內(nèi)容,可以幫助讀者快速理解文本的中心內(nèi)容.現(xiàn)有文本摘要方法可以分為生成式(abstractive)摘要[1]和抽取式(extractive)摘要[2]兩大類,前者通過歸納文本整體語義來生成具有概括性信息的摘要;后者則是從原文中抽取與中心思想相近的一些句子作為摘要.抽取式摘要從方法上可以劃分為基于統(tǒng)計(jì)特征方法[3-4]、基于主題模型方法[5-6]、基于圖模型方法[7-8]和基于機(jī)器學(xué)習(xí)方法[9-10]等.其中,基于圖模型方法的圖排序算法因其充分考慮文本圖的全局信息,且不需要人工標(biāo)注訓(xùn)練集的特性,被廣泛應(yīng)用于文本摘要領(lǐng)域[11].

        TextRank算法作為一種經(jīng)典的文本圖排序算法,利用文本自身信息和結(jié)構(gòu)特征來獲取文本摘要.2004年,Mihalcea等[7]借鑒PageRank算法思路提出了TextRank算法,該算法將句子間的相似關(guān)系看成是一種推薦或投票關(guān)系,據(jù)此構(gòu)建TextRank網(wǎng)絡(luò)圖,并通過迭代計(jì)算得到句子的權(quán)重值.自TextRank算法被提出以來,基于該算法的自動(dòng)文本摘要的研究受到廣泛的關(guān)注.考慮到關(guān)鍵詞對(duì)文本摘要提取的重大作用,李峰等[12]基于TextRank并使用關(guān)鍵詞擴(kuò)展來提取文本摘要.汪旭祥等[13]結(jié)合了文本中句子位置、關(guān)鍵詞覆蓋率以及線索詞等因素提出SW-TextRank算法來提取文本摘要.但上述工作主要通過TF-IDF對(duì)關(guān)鍵詞進(jìn)行統(tǒng)計(jì),該方法只以關(guān)鍵詞在語料庫中的分布作為權(quán)值,結(jié)構(gòu)過于單一,無法充分提取文本中的重要信息[14].

        近年來,利用深度學(xué)習(xí)的方法進(jìn)行命名實(shí)體識(shí)別引起了研究者的關(guān)注.考慮到文本中時(shí)間、地點(diǎn)、人物等實(shí)體對(duì)句子語義理解的重要性,如果能獲取到文本中的這些關(guān)鍵實(shí)體,則能更加準(zhǔn)確的衡量句子的重要性,從而獲得更能反映文本核心內(nèi)容的摘要.Huang 等[15]人通過雙向長(zhǎng)短時(shí)記憶神經(jīng)網(wǎng)絡(luò)(BiLSTM)獲得能夠體現(xiàn)文本上下文信息的語義向量,然后利用條件隨機(jī)場(chǎng)(CRF)[16]對(duì)BiLSTM輸出的數(shù)據(jù)進(jìn)行解碼,該模型在CoNLL2003英文數(shù)據(jù)集上獲得較好的效果.類似的,廉龍穎[17]將BiLSTM-CRF應(yīng)用在網(wǎng)絡(luò)空間安全領(lǐng)域?qū)嶓w識(shí)別中,李健龍等[18]將BiLSTM-CRF應(yīng)用到軍事命名實(shí)體識(shí)別上,均取得不錯(cuò)的效果.但中文存在字與詞的區(qū)別,基于詞特征抽取的BiLSTM-CRF模型實(shí)體識(shí)別效果受到分詞效果的限制,無法有效表征一詞多義的現(xiàn)象,因而實(shí)體識(shí)別性能有待進(jìn)一步提高.Devlin等[19]提出基于雙向Transformer編碼的BERT模型,該模型通過超大數(shù)據(jù)、巨大模型和極大計(jì)算,能夠捕捉到任意字符間的語義關(guān)系特征,可以更好地表征不同語境中的語義信息.

        最大邊際相關(guān)算法(MMR)也被用在摘要抽取的任務(wù)中,該算法最初用來查詢目標(biāo)文本和被搜索文檔之間的相似度,然后據(jù)此對(duì)文檔進(jìn)行排序.Carbonell 等[20]將MMR作為一種反冗余措施應(yīng)用到文本摘要領(lǐng)域,并在TREC主題相關(guān)新聞數(shù)據(jù)集中證明了其去除冗余的有效性.王亞卓[21]將MMR應(yīng)用于計(jì)算機(jī)行業(yè)專利文本摘要冗余處理,進(jìn)一步證明了MMR可以有效降低文檔摘要的內(nèi)容冗余,對(duì)于提升文檔摘要的全面性起到充分的支持作用.

        考慮到關(guān)鍵實(shí)體在摘要抽取中的作用,以及摘要抽取任務(wù)對(duì)降低摘要冗余度的要求,本文提出一個(gè)集成的BBCM-TextRank(BERT-BiLSTM-CRF-TextRank-MMR)算法,擬在充分考察文本中的實(shí)體特征的基礎(chǔ)上,從文本中抽取能較好概括文本中心主題且具有較低冗余度的摘要.其中,在命名實(shí)體識(shí)別過程中,擬采用BERT-BiLSTM-CRF框架,利用BERT預(yù)訓(xùn)練模型生成字符的表示向量,利用BiLSTM-CRF架構(gòu)在字符向量基礎(chǔ)上完成文本的命名實(shí)體識(shí)別.在摘要抽取過程中,基于Word2Vec詞向量得到句子特征向量;利用TextRank算法得到每個(gè)句子的權(quán)重值,并結(jié)合BERT-BiLSTM-CRF框架識(shí)別出的實(shí)體對(duì)句子的權(quán)重做進(jìn)一步優(yōu)化;結(jié)合句子權(quán)重和MMR算法對(duì)句子進(jìn)行冗余處理,保留權(quán)重值較大的句子作為文本候選摘要;最后按文本原順序排列句子并輸出摘要.本文算法的具體流程如圖1所示.

        圖1 BBCM-TextRank抽取摘要流程

        1 基于BBCM-TextRank的文本摘要提取算法

        1.1 TextRank

        1.1.1 TextRank算法

        TextRank是一種用于文本的基于圖排序的無監(jiān)督方法.TextRank算法將文本中的句子作為文本網(wǎng)絡(luò)圖的節(jié)點(diǎn),句子間的相似度作為節(jié)點(diǎn)之間的權(quán)重值,從而構(gòu)建出一個(gè)無向有權(quán)圖.通過對(duì)文本網(wǎng)絡(luò)圖的迭代計(jì)算完成對(duì)文本中句子重要性的排序,選出重要性最高的幾個(gè)句子作為文本摘要.

        TextRank算法的文本網(wǎng)絡(luò)圖可表示為一個(gè)無向有權(quán)圖G=(V,W),其中V為節(jié)點(diǎn)的集合,W為各邊上權(quán)重的集合,假設(shè)V={V1,V2,…,Vn},則記W={wij|1≤i≤n,1≤j≤n},其中wij為節(jié)點(diǎn)Vi與Vj間邊的權(quán)重值.

        對(duì)于一個(gè)包含n個(gè)句子的文本D,記D={S1,S2,…,Sn}.TextRank算法一般將句子抽象成節(jié)點(diǎn)V,即Vi=Si,句子之間的相似度抽象為節(jié)點(diǎn)之間的權(quán)重值W,即wij=similarity(Si,Sj),進(jìn)而得到一個(gè)n×n的相似度矩陣Sn×n,公式為

        根據(jù)G和Sn×n可計(jì)算出每個(gè)節(jié)點(diǎn)的權(quán)重值,公式為

        (1)

        其中:Score(Vi)為節(jié)點(diǎn)Vi的權(quán)重;wji為圖中節(jié)點(diǎn)Vj到Vi的邊的權(quán)值;d為阻尼系數(shù),表示從當(dāng)前節(jié)點(diǎn)指向其他任意節(jié)點(diǎn)的可能性;In(Vi)和Out(Vj)分別為指向節(jié)點(diǎn)Vi的節(jié)點(diǎn)集合和從節(jié)點(diǎn)Vj出發(fā)的邊指向的節(jié)點(diǎn)集合.

        則基于TextRank算法的文檔D中句子Si的權(quán)重值為

        (2)

        1.1.2 句子相似度計(jì)算

        TextRank算法構(gòu)建的文本網(wǎng)絡(luò)圖中,句子的權(quán)重取決于句子之間的相似度.因此,摘要提取的關(guān)鍵在于如何準(zhǔn)確衡量句子之間的相似度.Word2Vec[15]基于大規(guī)模語料學(xué)習(xí)向量之間的相似性表示,可以更加準(zhǔn)確地表征詞語之間的語義關(guān)系.

        句子是由詞語組合而成,故句子向量可以用詞向量相加求平均表示,公式為

        (3)

        其中:Vecs表示句子s的向量,w為s中的詞語,Cs為s中的詞語的數(shù)量.

        句子之間的相似度通過兩個(gè)句子在向量空間中的余弦相似度衡量,公式為

        (4)

        其中:cos(Vecsi,Vecsj)表示句子向量Vecsi和Vecsj之間的余弦相似度,n為句子向量的維數(shù),Vecsik為Vecsi向量第k維的值.

        1.2 基于BERT-BiLSTM-CRF的命名實(shí)體識(shí)別

        圖2 基于BERT-BiLSTM-CRF的命名實(shí)體識(shí)別流程

        1.2.1 BERT預(yù)訓(xùn)練語言模型

        BERT模型是通過超大語料數(shù)據(jù)、基于巨大模型和消耗大規(guī)模算力訓(xùn)練出的能夠充分表達(dá)文本語義特征的預(yù)訓(xùn)練模型.如圖3所示,BERT模型采用了雙向多層Transformer結(jié)構(gòu),該結(jié)構(gòu)可以反映任意位置上兩個(gè)字之間的相關(guān)程度,從而使輸出的各個(gè)字向量都充分融合了上下文的信息,有效解決了一詞多義的問題.

        圖3 BERT模型結(jié)構(gòu)

        Transformer的每個(gè)編碼單元由多頭自注意力機(jī)制層(Multi-Head Self-Attention)、全連接層(FeedForward)、殘差連接和歸一化層(Add&Normal)組成.如圖4所示,輸入字向量經(jīng)過多頭自注意力層獲得反映與當(dāng)前文本中各個(gè)字向量之間關(guān)系的增強(qiáng)語義向量;利用殘差網(wǎng)絡(luò)避免深層網(wǎng)絡(luò)條件下性能退化問題,通過歸一化將各輸入特征轉(zhuǎn)化成均值為0方差為1的數(shù)據(jù);全連接層引入非線性激活函數(shù)ReLu,通過變換輸出向量的空間來增加模型的表現(xiàn)能力.

        圖4 Transformer編碼單元結(jié)構(gòu)

        Encoder的關(guān)鍵模塊是Multi-Head Self-Attention,其中Self-Attention研究的是句子中的每個(gè)字和句子中各個(gè)字之間的關(guān)系,Head指的是某個(gè)特定語義空間,Multi-Head即是多個(gè)語義空間.具體過程如下:

        首先計(jì)算出當(dāng)前字和句子之間的注意力向量:

        (5)

        其中:Q是當(dāng)前字的向量;K是文本中各個(gè)字的向量;V是各個(gè)字的原始向量;dk是縮放因子,作用是縮小QKT的點(diǎn)乘結(jié)果,使模型的梯度更穩(wěn)定.

        則不同頭下的Attention向量為

        (6)

        可以得出,Multi-Head Self-Attention將句子置于不同語義空間下做Self-Attention計(jì)算并將結(jié)果進(jìn)行拼接,再通過一次線性變換將拼接結(jié)果轉(zhuǎn)換成和原始向量維度相同的多頭自注意力向量,從而得到每個(gè)字的增強(qiáng)語義向量.

        MultiHead(Q,K,V)=Concat(head1,head2,…,headn)W0.

        (7)

        其中W0是附加權(quán)重.

        1.2.2 BiLSTM

        LSTM[16]是一種可以有效利用文本數(shù)據(jù)中時(shí)序信息,且不具備梯度消失缺陷的改進(jìn)型RNN.如圖5所示,LSTM由輸入門、輸出門、遺忘門3個(gè)控制單元和一個(gè)記憶單元構(gòu)成.輸入門決定什么樣的信息會(huì)被保留,遺忘門決定什么樣的信息會(huì)被遺棄,輸出門決定有多少信息可以輸出,記憶單元?jiǎng)t是對(duì)信息進(jìn)行管理和保存.通過LSTM單元中3個(gè)門的參數(shù)可以有效管理記憶單元中的信息,使得有用的信息經(jīng)過較長(zhǎng)的序列也能存儲(chǔ)在記憶單元中.

        圖5 LSTM單元結(jié)構(gòu)

        (8)

        其中:σ是激活函數(shù)sigmoid,tanh是雙曲正切激活函數(shù),W和b分別代表門的權(quán)重矩陣和偏置向量.

        (9)

        進(jìn)而結(jié)合輸出門ot和當(dāng)前的細(xì)胞狀態(tài)ct計(jì)算出當(dāng)前隱層狀態(tài)ht.

        ot=σ(Wo·[ht-1,xt]+bo),ht=ot*tanh(ct).

        (10)

        LSTM僅存儲(chǔ)了當(dāng)前文本的上文信息,而下文信息對(duì)于NER任務(wù)也有非常重要的參考意義.BiLSTM基于LSTM進(jìn)行優(yōu)化,綜合考慮了上下文信息,在序列標(biāo)記任務(wù)上具有突出的表現(xiàn)[16].故本文采用BiLSTM模型,其結(jié)構(gòu)見圖6.

        圖6 BiLSTM結(jié)構(gòu)

        1.2.3 CRF

        CRF是根據(jù)設(shè)定好的特征函數(shù)組對(duì)序列標(biāo)簽之間存在的依賴關(guān)系進(jìn)行判斷的一種判別式模型.BiLSTM層輸出的結(jié)果是單獨(dú)的標(biāo)簽解碼,并沒有考慮到預(yù)測(cè)標(biāo)簽信息的前后連貫性,而CRF能夠?qū)W習(xí)輸出結(jié)果序列標(biāo)簽之間的依賴關(guān)系,可以有效解決該問題,保證最終識(shí)別結(jié)果的合理性.

        給定句子x=(x1,x2,…,xn),經(jīng)過BERT和BiLSTM層輸出的不同實(shí)體標(biāo)簽得分概率P=(P1,P2,…,Pn),可以得到句子x預(yù)測(cè)為標(biāo)簽序列y=(y1,y2,…,yn)的概率,公式為

        (11)

        其中:Pi,yi是第i個(gè)字對(duì)應(yīng)標(biāo)簽yi的分值,Wyi,yi+1是從yi標(biāo)簽轉(zhuǎn)移到y(tǒng)i+1標(biāo)簽概率.

        (12)

        其中Y是所有可能的標(biāo)簽序列集合.

        1.3 利用MMR算法篩選摘要句

        MMR算法在設(shè)計(jì)之初是用來計(jì)算目標(biāo)文本與被搜索文檔之間的相似度,并對(duì)文檔進(jìn)行排序.公式為

        (13)

        其中:Q是目標(biāo)文本,C是被搜索文檔集合,R是計(jì)算的相關(guān)度集合,di代表C中的某個(gè)句子.

        本文將MMR算法與句子權(quán)重融合,用當(dāng)前句子的權(quán)重值代替句子和文本的相似度,具體公式為

        MMR(si)=max[λ×score(si)-(1-λ)×max[similarity(si,D)]].

        (14)

        其中:si為D中的第i個(gè)句子,score(si)表示句子si的權(quán)重值,λ為可變系數(shù).

        2 實(shí)驗(yàn)結(jié)果與分析

        2.1 命名實(shí)體識(shí)別結(jié)果

        2.1.1 數(shù)據(jù)集、標(biāo)注條件及評(píng)價(jià)方法

        使用2014年人民日?qǐng)?bào)語料標(biāo)注數(shù)據(jù)集,來驗(yàn)證本文提出的基于BERT-BiLSTM-CRF算法對(duì)中文人名、地名、機(jī)構(gòu)名、時(shí)間名四類實(shí)體進(jìn)行命名實(shí)體識(shí)別的效果,數(shù)據(jù)集的具體信息如表1所示.

        表1 人民日?qǐng)?bào)實(shí)體標(biāo)注數(shù)據(jù)集

        本文的命名實(shí)體識(shí)別序列標(biāo)注使用BIO標(biāo)注方法,在實(shí)體預(yù)測(cè)時(shí)預(yù)測(cè)實(shí)體邊界和類型,待預(yù)測(cè)的標(biāo)記有“B_PER”“I_PER”“B_LOC”“I_LOC”“B_ORG”“I_ORG”“B_T”“I_T”和“O”9種,其中B_PER表示實(shí)體開始部分、I_PER表示實(shí)體非開始部分、O表示非實(shí)體部分,其他類型實(shí)體標(biāo)簽以此類推.

        采用準(zhǔn)確率P、召回率R和F1值作為命名實(shí)體識(shí)別的評(píng)價(jià)指標(biāo).其中實(shí)體預(yù)測(cè)正確的條件是實(shí)體的邊界和類型全都預(yù)測(cè)正確.

        2.1.2 實(shí)驗(yàn)參數(shù)

        本文實(shí)驗(yàn)環(huán)境如表2所示.

        表2 實(shí)驗(yàn)環(huán)境

        BERT預(yù)訓(xùn)練模型采用Google的BERT-Base-Chinese,該模型共12層,768個(gè)隱藏單元,12個(gè)注意力頭,具體超參數(shù)設(shè)置如表3所示.

        表3 模型的超參數(shù)

        2.1.3 實(shí)驗(yàn)結(jié)果及分析

        為了驗(yàn)證BERT-BiLSTM-CRF模型的有效性,與BiLSTM-CRF模型進(jìn)行了命名實(shí)體識(shí)別對(duì)比實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果如表4所示.

        表4 不同模型的命名實(shí)體識(shí)別結(jié)果比較

        從表4中可以看出,BERT-BiLSTM-CRF模型相對(duì)于BiLSTM-CRF模型取得了更為優(yōu)異的實(shí)體識(shí)別結(jié)果.說明在命名實(shí)體識(shí)別任務(wù)中,BERT預(yù)訓(xùn)練語言模型可以較好地表征字的多義性.在后續(xù)的文本摘要提取任務(wù)中,將采用BERT-BiLSTM-CRF模型進(jìn)行命名實(shí)體的識(shí)別.

        2.2 文本摘要提取結(jié)果

        2.2.1 數(shù)據(jù)集及評(píng)價(jià)方法

        LCSTS數(shù)據(jù)集[22]采集于新浪微博,其中包含人工打分標(biāo)記過的短文本-摘要對(duì),得分范圍為1到5,得分高低代表短文本與相應(yīng)摘要之間的相關(guān)性大小.本文從LCSTS數(shù)據(jù)集中隨機(jī)選取1 000篇短文本-摘要對(duì)(評(píng)分為5)作為測(cè)試文本數(shù)據(jù)集,評(píng)分為5表明相應(yīng)摘要與短文本之間有較高的相關(guān)性,符合文本摘要的要求,可以作為標(biāo)準(zhǔn)摘要來使用,具體信息如表5所示.

        表5 LCSTS數(shù)據(jù)集

        本文采用Rouge指標(biāo)來對(duì)算法生成的摘要進(jìn)行評(píng)估,Rouge基于摘要中n元詞的共現(xiàn)信息來評(píng)價(jià)摘要,是一種面向n元詞召回率的自動(dòng)摘要評(píng)價(jià)方法.其基本思想是將算法自動(dòng)生成的摘要與測(cè)試數(shù)據(jù)集的標(biāo)準(zhǔn)摘要進(jìn)行對(duì)比,通過統(tǒng)計(jì)二者之間重疊的基本單元的數(shù)量來評(píng)價(jià)摘要的質(zhì)量.本文選取Rouge-1、Rouge-2、Rouge-L 3種評(píng)價(jià)指標(biāo)來評(píng)價(jià)算法生成摘要的質(zhì)量.

        2.2.2 數(shù)據(jù)集及評(píng)價(jià)方法

        本文TextRank使用基于知乎文本數(shù)據(jù)的Word2Vec模型[23],阻尼系數(shù)d取0.85[7],MMR的λ參數(shù)[20]取0.8,實(shí)驗(yàn)環(huán)境同表2.

        2.2.3 實(shí)驗(yàn)結(jié)果及分析

        為了驗(yàn)證BBCM-TextRank算法的有效性,將本文算法TextRank算法及現(xiàn)有研究中基于TextRank的改進(jìn)算法SW-TextRank[13]等設(shè)置對(duì)比實(shí)驗(yàn),并通過Rouge-1、Rouge-2、Rouge-L 3種評(píng)價(jià)指標(biāo)來對(duì)各個(gè)算法生成的摘要進(jìn)行評(píng)估.實(shí)驗(yàn)結(jié)果如表6所示.

        表6 算法性能對(duì)比

        從表6中可以看出,本文提出的BBCM-TextRank算法在Rouge-1、Rouge-2和Rouge-L 3種評(píng)價(jià)指標(biāo)上均有明顯的提高,BBCM-TextRank算法生成摘要的質(zhì)量更好.BBC-TextRank相對(duì)于TextRank,其Rouge-1、Rouge-2、Rouge-L分別提高了2.71%,1.98%,2.28%,說明通過實(shí)體識(shí)別獲得的實(shí)體權(quán)重可以有效優(yōu)化句子權(quán)重,提升了摘要反映文本信息的準(zhǔn)確性;TextRank-MMR相對(duì)于TextRank,其Rouge-1、Rouge-2、Rouge-L分別提高了12.78%,6.7%,9.61%,說明加入MMR算法可以有效去除摘要中的冗余句子,提升了摘要反映文本信息的全面性;BBCM-TextRank結(jié)合BBC-TextRank和TextRank-MMR的優(yōu)勢(shì),相對(duì)于TextRank,其Rouge-1、Rouge-2、Rouge-L分別提高了18.85%,11.94%和15.1%,說明通過BBCM-TextRank提取的摘要兼顧了反映文本信息的準(zhǔn)確性和全面性,并且較最新基于TextRank的改進(jìn)算法SW-TextRank,其Rouge-1、Rouge-2、Rouge-L分別提高了4.14%,3.8%和3.98%.

        綜合實(shí)驗(yàn)結(jié)果可知,BBCM-TextRank算法根據(jù)中文文本的特點(diǎn),考慮文本時(shí)間、地點(diǎn)、人名和組織等重要實(shí)體因素,可以有效優(yōu)化句子權(quán)重,結(jié)合冗余處理,可以明顯提高生成摘要的質(zhì)量.

        3 結(jié)束語

        TextRank算法是在抽取式文本摘要生成中最常用的確定句子權(quán)重的方法,但該方法僅依賴文本間相似度來計(jì)算句子權(quán)重,這容易導(dǎo)致抽取的摘要句間存在較高的冗余.針對(duì)這個(gè)問題,本文提出了一種結(jié)合深度學(xué)習(xí)算法的BBCM-TextRank模型.該模型采用Word2Vec模型來生成語句向量,相對(duì)于傳統(tǒng)的TF-IDF更能捕捉語句的上下文語義信息.同時(shí),考慮到中文文本中時(shí)間、人物、地點(diǎn)等實(shí)體對(duì)句子理解和語義保持的重要性,采用BERT-BiLSTM-CRF模型識(shí)別文本中的重要實(shí)體.結(jié)合識(shí)別出的實(shí)體以及句子間的語義相似性確定句子的權(quán)重,考慮到摘要要盡可能多樣地反映文本的語義內(nèi)容,在模型中增加MMR算法,以降低文本摘要的冗余,保證提取摘要的語義多樣性.通過與TextRank算法以及與最新的摘要提取算法的對(duì)比實(shí)驗(yàn),驗(yàn)證了BBCM-TextRank算法能生成質(zhì)量更好的摘要.但本文提出的模型也存在一定的局限性,本文主要針對(duì)短文本摘要數(shù)據(jù)集,沒有面向長(zhǎng)文本摘要數(shù)據(jù)集.下一步將針對(duì)長(zhǎng)文本數(shù)據(jù)集進(jìn)行摘要研究,強(qiáng)化摘要模型的通用性.

        猜你喜歡
        實(shí)體語義權(quán)重
        權(quán)重常思“浮名輕”
        語言與語義
        前海自貿(mào)區(qū):金融服務(wù)實(shí)體
        中國外匯(2019年18期)2019-11-25 01:41:54
        為黨督政勤履職 代民行權(quán)重?fù)?dān)當(dāng)
        實(shí)體的可感部分與實(shí)體——兼論亞里士多德分析實(shí)體的兩種模式
        基于公約式權(quán)重的截短線性分組碼盲識(shí)別方法
        兩會(huì)進(jìn)行時(shí):緊扣實(shí)體經(jīng)濟(jì)“釘釘子”
        振興實(shí)體經(jīng)濟(jì)地方如何“釘釘子”
        “上”與“下”語義的不對(duì)稱性及其認(rèn)知闡釋
        認(rèn)知范疇模糊與語義模糊
        中国少妇和黑人做爰视频| 亚洲av无码一区二区三区观看| 精品久久久久久777米琪桃花| 无码人妻专区免费视频| 蜜臀av一区二区三区精品 | 免费一级淫片日本高清| 人人爽久久涩噜噜噜丁香| 国产精品毛片毛片av一区二区| 亚洲一区二区三区特色视频| 国产精品久久久久久久妇| 免费人成又黄又爽的视频在线 | 视频一区中文字幕在线观看| 无码爽视频| 又粗又硬又黄又爽的免费视频| 亚洲AV无码乱码1区久久| 精品亚洲av一区二区| 体验区试看120秒啪啪免费| 日本高清色倩视频在线观看| 色综合久久精品中文字幕| 女同舌吻互慰一区二区| 国产aⅴ无码专区亚洲av| a亚洲va欧美va国产综合| 国产在线播放网址| 亚洲妇女av一区二区| 中文字幕女同系列在线看一 | 1717国产精品久久| 国产香蕉尹人在线视频你懂的| 玖玖资源站亚洲最大的网站| 精品伊人久久大香线蕉综合| 久久久男人天堂| 亚洲一区久久久狠婷婷| 国产乱码人妻一区二区三区| 欧产日产国产精品精品| 999久久久免费精品国产牛牛| 少妇被粗大猛进进出出男女片| 音影先锋中文字幕在线| 无码ol丝袜高跟秘书在线观看| 久久久国产精品福利免费| 久久精品国产亚洲av豆腐| 亚洲午夜成人精品无码色欲| 日本理伦片午夜理伦片|