亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        融合依存信息的關系導向型實體關系抽取方法

        2023-01-01 00:00:00王景慧盧玲段志麗張亮王玉柯
        計算機應用研究 2023年5期

        摘要:中文實體關系抽取多以字符序列處理文本,存在字符語義表征不足、長字符序列語義遺忘等問題,制約了遠距離實體的召回率,為此提出了一種融合依存句法信息的關系導向型抽取方法。輸入層以字符序列和基于同義詞表示的詞序列為輸入;編碼端用長短時記憶網(wǎng)絡(LSTM)進行文本編碼,并加入全局依存信息,用于產生關系門的表示;解碼端加入依存類型信息,并在關系門的作用下,用雙向長短時記憶網(wǎng)絡(BiLSTM)解碼得到實體關系三元組。該方法在SanWen、FinRE、DuIE、IPRE中文數(shù)據(jù)集上的F1值分別較基線方法提高5.84%、2.11%、2.69%和0.39%。消融實驗表明,提出的全局依存信息和依存類型信息表示方法均可提升抽取性能,對長句和遠距離實體的抽取性能也穩(wěn)定地優(yōu)于基線方法。

        關鍵詞:實體關系抽??;依存句法分析;剪枝;關系導向;同義詞

        中圖分類號:TP391文獻標志碼:A文章編號:1001-3695(2023)05-019-1410-06doi:10.19734/j.issn.1001-3695.2022.10.0540

        0引言

        實體關系抽取是指從文本中提取(主體(subject),關系(relation),客體(object))形式的SRO三元組。三元組抽取是構建大規(guī)模知識圖譜的重要前置任務,同時也為情感分析、問答系統(tǒng)、自動文摘等領域的研究提供支持。

        現(xiàn)有實體關系抽取一般分為流水線(pipeline)方法和聯(lián)合方法。流水線方法將抽取實體和抽取關系過程分離,存在交互缺失、誤差累積問題,其后提出了融合實體和關系抽取任務的聯(lián)合方法。例如,Wang等人[1]提出遍歷所有關系尋找實體對的方法,Sui等人[2]用預訓練語言模型(bidirectionalencoderrepresentationfromtransformers,BERT)編碼、解碼獲得三元組等,均取得了較好的性能提升。其中,關系導向型聯(lián)合抽取策略被廣泛采用,例如Yuan等人[3]用細粒度的關系信息指導實體關系抽取,較好地控制了實體抽取冗余問題。

        相較英文,中文SRO抽取有其獨有的特點。一是為避免中文分詞影響,中文SRO任務多為基于字符的方法,但單個字符語義表征不足、長字符序列的語義遺忘問題,制約了抽取性能,尤其令遠距離實體難以準確提取。二是中文詞的多義性為噪聲信息,例如,“中國女排誰都打不過”與“中國足球誰都打不過”中,“打不過”呈相反語義,為準確抽取三元組帶來了挑戰(zhàn)。

        總體來看,關系導向型聯(lián)合抽取方法為SRO抽取奠定了基礎,但中文SRO抽取存在字符語義表征不足、長字符序列的語義遺忘及詞多義性問題,啟發(fā)了本文提出融合依存句法信息的關系導向型實體關系抽取方法(relationship-orientedentityrelationshipextractionintegratingdependencysyntacticparsing,RODP)。RODP采用關系導向實體抽取的策略,通過在文本編碼中融入全局依存句法信息,在解碼時融入依存句法類型信息,提升三元組抽取性能,并具有穩(wěn)定的遠距離三元組抽取性能。本文的主要工作包括:

        a)提出了一種全局依存信息表示和融合方法,對依存句法中的非關鍵性指向剪枝,得到全局依存信息并以注意力的方法融入文本表示中。

        b)提出了一種依存類型信息表示和關系導向的抽取方法,以句法依存樹根節(jié)點為中心提取依存類型信息,在關系門編碼的導向下,標注文本的三元組。

        c)在中文SanWen、FinRE、DuIE和IPRE四個數(shù)據(jù)集上取得了優(yōu)于基線的抽取效果,消融實驗表明了本文方法的有效性。

        1相關研究

        實體關系抽取任務最早提出于1998年。抽取策略方面,早期多為流水線方法,即先抽取實體再分類關系。例如,Wang等人[4]用BERT編碼句子,在編碼層先池化實體編碼,再預測實體對的關系。Zhong等人[5]先抽取實體,再將實體邊界、類型信息加入實體首尾以預測關系。由于流水線方法順序抽取實體和關系,存在兩個任務交互缺失、誤差累積問題,所以后續(xù)研究多為基于單一模型的聯(lián)合抽取方法。聯(lián)合方法又分實體導向和關系導向兩類。前者在識別實體后再確定關系。例如,Li等人[6]先以人工設計的問答模板提取實體,再確定關系。Eberts等人[7]提出的SpERT(span-basedentityandrelationtransformer)先識別實體,再進行關系分類。由于抽取的實體可能不具有指定關系,所以實體導向型方法容易出現(xiàn)實體冗余。關系引導策略則是先確定關系,再確定關系相關的實體對。例如,Takanobu等人[8]用分層強化學習方法先抽取關系,再抽取實體。丁相國等人[9]將實體關系抽取轉換為對應關系的實體對生成任務,提出構建編碼器—解碼器(encoder-decoder)結構,根據(jù)關系自適應輸出其實體。Zheng等人[10]將聯(lián)合抽取分解為關系判斷、實體抽取和主客體對齊三個子任務,為關系預測冗余問題提供了解決方案。

        抽取模型方面,近年來,深度學習方法被廣泛運用。例如,Katiyar等人[11]用長短時記憶網(wǎng)絡(longshorttermmemory,LSTM)編碼句子,在識別實體的同時抽取關系。Bekoulis等人[12]用LSTM編碼,用條件隨機場(conditionalrandomfield,CRF)標注實體,并將LSTM的編碼經sigmoid得到實體的關系。陳佳灃等人[13]用word2vec生成文本詞向量,用雙向長短時記憶網(wǎng)絡(bidirectionallongshorttermmemory,BiLSTM)編碼詞向量,再經CRF層標注三元組,其中用強化學習的獎勵策略令模型按正確的事實生成三元組。Bastos等人[14]用圖神經網(wǎng)絡(graphneuralnetwork,GNN)學習知識圖譜中句子、實體屬性及事實三元組的表示,以提高三元組抽取性能??傮w來看,深度神經網(wǎng)絡為實體關系聯(lián)合抽取提供了技術基礎。

        數(shù)據(jù)表示方面,以外部知識增強文本表示的方法被廣泛研究。Li等人[15]實現(xiàn)中文三元組抽取時,將多粒度的字符和詞輸入到模型中,其F1值較單粒度的基線模型提升了2%。Niu等人[16]注意到中文詞語多義現(xiàn)象的存在,通過注意力機制(attentionmechanism)實現(xiàn)詞的多義表示,并以實驗表明融合多義詞可獲得更好的三元組抽取效果。Kambhatla[17]是首位將依存句法分析(dependencysyntacticparsing)應用到實體關系抽取領域的學者,并證明了句法依存信息在關系提取中是非常有效的。但該方法直接將所有句法依存關系輸入,導致帶來大量噪聲,故后來的模型往往是對句法依存信息剪枝輸入。例如Chen等人[18]提出TaMM方法(type-awaremapmemories),僅僅對句法依存樹中與實體有直接指向的詞和依存關系編碼,其消融實驗表明融入的部分依存句法關系可有效提升三元組抽取性能;Tian等人[19]用圖卷積神經網(wǎng)絡(graphconvolutionalnetworks,GCN)和注意力機制為依存樹連接賦予不同權重,通過區(qū)分重要依存信息用于三元組抽取。雖然該方法的F1值只略高于其基線模型,但其實驗表明過載的依存信息會影響三元組抽取性能,為本文提出融合依存信息的方法提供了依據(jù)。

        總體來看,關系導向型聯(lián)合抽取方法被廣泛用于三元組抽取。為增強文本表示,現(xiàn)有研究還提出了詞的多義表示法和融合依存句法信息的詞表示法等,為解決字符語義表示不足、長字符序列語義遺忘問題提供了思路。其中,需重點解決依存句法信息引入所帶來的噪聲問題,啟發(fā)了本文提出融合關鍵性依存句法信息的三元組抽取方法。

        2本文方法分析

        本文方法提出的原因主要有:a)現(xiàn)有中文三元組抽取多以字符方式處理文本,本文認為,單個字符的語義較詞更泛化,例如,字符“中”的語義較“中國”更泛化;b)三元組的抽取性能與實體對的距離緊密相關,遠距離實體間的語義相關性可能弱化,由此制約遠距離三元組抽取的召回率。

        依存句法是識別句子中詞語間的依存關系,它將線性的字符序列描述為樹型的依存結構,令遠距離實體成為樹中緊密相關的兄弟節(jié)點。例如,圖1的三元組(中瑞公司,提供,咨詢)中,實體對(中瑞公司,咨詢)的字符距離為27,用斯坦福句法依存工具(StanfordParser)分析,“中瑞公司”“咨詢”分別通過依存關系conj、dobj與“提供”連接,成為其孩子節(jié)點。三元組(警察,指揮,車流)中,實體對(警察,車流)的字符距離是28,但“交警”“車流”分別通過依存關系conj、dobj成為“指揮”的孩子節(jié)點??梢姡来婢浞P系能有效捕獲遠距離實體的相關性,將依存關系融入文本的表示中,有利于定位遠距離實體及關系。其中,重點是避免因引入依存關系產生噪聲。

        2.1依存關系與三元組的相關性分析

        為避免引入噪聲,本文對與三元組有直接指向關系的依存關系進行了分析。用StanfordParser分析了SanWen數(shù)據(jù)集中的3440個實體對。對StanfordParser的51類關系,SanWen數(shù)據(jù)集中實體對的依存關系占比top10,如圖2所示。其中,實體間依存關系最多的(nsubj,dobj)占28%,其次為(dobj,nsubj),占22%,這為本文引入關鍵依存信息提供了先驗知識。

        SanWen數(shù)據(jù)集共標注了10種實體關系,表示為r1~r10,各關系中實體對的依存關系占比top3,如圖3所示,可見各類實體關系所具有的依存類型差異顯著。

        例如,r3中依存關系的top3分別為(nsubj,nsubj)、(nsubj,dobj)、(dobj,nsubj),r9的top3分別為(nsubj,dobj)、(dobj,nsubj)、(nmod:assmod,nsubj),r1與r10中依存關系的top3則完全不同。

        綜上,對文本的三元組集合Q={S,R,O},其關系集R,主體集S,客體集O和依存關系集D,存在條件概率P(R|D)和P((S,O)|D),根據(jù)貝葉斯法則P(R|D)~P(D|R)和P((S,O)|D)~P(D|(S,O)),從詞對的依存關系D可推斷該詞對是否為實體對,并推斷兩者的關系。為避免依存關系引起噪聲,可用Q中的依存關系分布為先驗知識,引入其topN的依存關系。本文實驗取N=2,引入nsubj、dobj兩種依存關系。

        2.2多義詞與三元組的相關性分析

        多義詞的歧義將引發(fā)三元組識別困難。例如,表1中,多義詞“墨水”在S1中表示書寫用具,是正確實體,但S2中的“墨水”指“知識”,因此三元組(爺爺肚子,有,墨水)不正確。同樣,S3、S4中“水分”的含義不同,因此三元組(工作,有,水分)不正確。為避免多義詞引起的錯誤識別,文獻[16]提出了一種多義詞向量生成方法,首先以知網(wǎng)[20]的義素標注得到一個詞的多個詞義表示,再用注意力機制為不同詞義設置權重,通過對不同詞義加權求和得到詞的表示。文獻[15]將該方法用于中文實體關系抽取任務并驗證了其有效性,本文將該方法用于對RODP模型輸入端的詞編碼。

        3融合關鍵依存信息的RODP方法

        本文提出的RODP方法結構如圖4所示,包括輸入表示層(input_representation)、編碼層(DEP_encoder)和解碼層(DEP_decoder)加入依存類型信息,在關系門編碼的作用下,通過BiLSTM解碼得到SRO三元組。

        3.1輸入表示層(input_representationlayer)

        本文認為,現(xiàn)代漢語寫作中常見半文半白現(xiàn)象,即現(xiàn)代雙音節(jié)詞和源于古代漢語的單字并用[21],因此,文本預處理應包括字粒度和詞粒度兩種。其中,詞粒度受限于分詞性能,部分實體無法準確切分。字粒度雖無須考慮詞的邊界,但字符的語義信息弱且發(fā)散[22]。因此,本文將文本的字符序列和詞序列共同作為RODP編碼層的輸入,以從不同視角為模型提供外部知識。

        3.1.1字符的表示方法

        3.3解碼層(DEP_decoderlayer)

        解碼端的輸入包括句向量Hs和句子的依存類型向量Hd。本文提取與依存樹根節(jié)點(ROOT)有直接指向關系的依存關系類型進行編碼,得到句子的依存類型向量Hd。

        例如,句子“剛剛腳步聲打斷了我的沉思”的依存關系及其依存類型矩陣分別如圖6(a)(b)所示。

        4實驗結果及分析

        4.1數(shù)據(jù)集

        本文實驗分別在SanWen、FinRE、DuIE、IPRE四個中文數(shù)據(jù)集上進行,它們都是中文三元組抽取任務中被廣泛使用的標準數(shù)據(jù)集。表2是四個數(shù)據(jù)集的三元組數(shù)、關系數(shù)和文本長度情況統(tǒng)計表。

        其中,SanWen原始數(shù)據(jù)集來自Xu等人[23]收集的762篇中文文獻,文獻[15]將SanWen原始數(shù)據(jù)集劃分為訓練、驗證和測試集,并對數(shù)據(jù)集的三元組進行了人工標注。FinRE數(shù)據(jù)集由文獻[15]從新浪財經的2647條新聞中標注而成,其訓練、驗證、測試的三元組數(shù)分別為13486、1489、3727,該數(shù)據(jù)集標注有44種關系,其中含一個unknown關系。DuIE數(shù)據(jù)集[24]是2021年百度信息抽取比賽的數(shù)據(jù)集,該數(shù)據(jù)集的句子涉及新聞、娛樂、用戶評論等各領域。IPRE數(shù)據(jù)集由Wang等人[25]構建,它是第一個中文人際關系數(shù)據(jù)集,其中標注有35種關系,該數(shù)據(jù)集也被用于CCKS2019人際關系抽取比賽。

        4.2實驗設置

        對本文實驗的參數(shù),設置模型輸入詞項長度為2,詞項同義詞的向量化方法是word2vec。依存句法分析采用斯坦福依存句法分析工具包、詞項的詞性及依存信息均從該工具包獲得。設置SanWen、FinRE、IPRE數(shù)據(jù)集句子最大長度為120,DuIE數(shù)據(jù)集句子最大長度為200,不足句子最大長度則補0至統(tǒng)一長度。設置編碼器LSTM的維度為300,訓練用Adam優(yōu)化器,設置學習率和批量大小分別為1E-3和16,設置dropout為0.25,所有超參數(shù)都在驗證集上進行了調整。實驗在顯卡設備NVIDIAGeForceRTX3090Ti上進行,用PyTorch作為編碼框架。實驗用精確率(precision)、召回率(recall)和F1值計算SRO三元組的抽取效果,以驗證模型的有效性。

        4.3實驗結果及分析

        4.3.1本文方法三元組抽取效果對比分析

        為評估本文RODP方法的有效性,與以下有代表性的基線模型進行比較:

        a)MGLattice[15]?;谧址驮~多粒度輸入的中文三元組抽取模型;

        b)SR-BRCNN[26]。通過結構正則化后的句法信息進行關系提取的中文三元組抽取模型;

        c)ExSoftwords[27]。引入外部詞典信息的中文三元組抽取模型;

        d)DuIE數(shù)據(jù)集的baseline。2021年由中國計算機學會和中國中文信息學會聯(lián)合發(fā)布,其首先將輸入經預處理模型ERNIE(enhancedrepresentationthroughknowledgeintegration)編碼,再根據(jù)每個漢字在實體中的位置打B(begin)、I(inside)、O(outside)標記進行訓練;

        e)IPRE數(shù)據(jù)集的baseline[28]。由蘇州大學發(fā)布,用BiLSTM對輸入編碼,經注意力機制得到中文實體關系三元組。

        本文方法與基線模型的實驗結果對比如表3、4所示。

        從表3、4可見,本文提出的RODP方法在四個數(shù)據(jù)集上的F1值均有提升。對SanWen數(shù)據(jù)集,RODP的F1值是71.45%,分別較MGLattice提高5.84%、SR-BRCNN提高5.55%、ExSoftwords提高0.55%。對FinRE數(shù)據(jù)集,RODP的F1值為51.37%,較MGLattice提高2.11%。DuIE數(shù)據(jù)集和IPRE數(shù)據(jù)的基線模型均是其比賽官方發(fā)布的基線F1值,RODP在DuIE數(shù)據(jù)集的F1值為72.11%,在IPRE數(shù)據(jù)集的F1為20.95%,分別較基線方法提高2.69%和0.39%。實驗表明,本文提出的RODP對提升三元組抽取效果有積極影響。

        4.3.2消融實驗

        本文以Yuan等人[3]的方法為基線模型,在SanWen、FinRE、DuIE、IPRE數(shù)據(jù)集上對RODP方法進行消融實驗。結果如表5所示。表5的第1行為基線模型的結果,第2~4行為分別加入RODP的多義詞、加入全局依存向量、加入依存類型向量的結果,第5、6行為加入全局依存向量、依存類型向量以及加入前述三部分的結果。

        僅加入全局依存向量(+G)后,相較基線模型,四個數(shù)據(jù)集的F1值分別提升了1.89%、1.01%、1.43%和0.59%,表明RODP所提出的全局依存向量確實有利于抽取三元組。

        僅加入依存類型向量(+Hd)后,四個數(shù)據(jù)集的F1值分別提升了0.44%、1.03%、1.14%和0.39%,表明RODP所提出的依存類型向量可有效提升三元組抽取性能。

        最后,將多義詞、全局依存向量、依存類型向量加入模型中進行實驗(+biword+G+Hd),即本文提出的RODP方法,實驗在四個數(shù)據(jù)集上均獲得了最優(yōu)的F1值。分析其原因,認為依存句法分析是基于詞粒度分析詞之間的依存相關性,故融入詞表示法的依存句法分析可以有效地提升模型的效果。

        為顯式觀察添加全局依存向量和依存類型向量的效果,本文對SanWen數(shù)據(jù)集進行實驗,對其中的use、near、located、gene-ral-special、social五種關系分別選取一個抽取實例,結果如表6所示。其中,列(DPSRO)是句子根據(jù)Standford依存句法分析工具包得到的實體關系三元組,即將依存關系是nsubj、dobj的三元組作為句子的SRO三元組。列(MGSRO)是對比方法MGLattice得到的三元組,列(RODP)是本文RODP方法抽取的三元組,列(GoldenSRO)為標注的三元組??梢姡噍^MGLattice模型,RODP模型得到的三元組關系均為正確的關系,其實體也更接近標注的實體,表明RODP方法加入多義詞,以及全局依存信息和依存類型信息,可以更好地輔助提升文本中的SRO三元組抽取效果。

        4.3.3依存句法驗證實驗

        為驗證添加依存信息對抽取遠距離實體的影響,本文對SanWen數(shù)據(jù)集進行了不同句長、不同實體距離下的實驗。以20為步長,將SanWen數(shù)據(jù)集的句子劃分為6個區(qū)間長度的子集,其三元組抽取的召回率和F1值如圖7(a)(b)所示,其中與MGLattice模型進行了比較??梢姡斁溟L小于80時,隨句子長度遞增,RODP的F1值變化較MGLattice方法更穩(wěn)定;當句長超過80時,RODP與MGLattice的F1值都呈下降趨勢,但RODP下降幅度較緩,且其F1值優(yōu)于MGLattice,在該情況下,RODP方法的召回率也較MGLattice方法穩(wěn)定,表明本文融入依存句法信息的方法有利于提升抽取性能。

        為進一步觀察不同實體距離下的抽取性能,分別用RODP和MGLattice方法,對SanWen數(shù)據(jù)集中不同距離的實體對進行了實驗。以距離5為步長劃分實體對,實驗結果如圖7(c)(d)所示,可見RODP在各距離區(qū)間上的F1值均優(yōu)于基線方法。當實體對距離超過20時,RODP和MGLattice的F1值均呈下降趨勢,但RODP的下降趨勢較MGLattice顯著趨緩,且在該情況下,MGLattice方法的召回率呈急速下降趨勢,而RODP方法則在遠距離實體上召回率是可觀的,表明本文提出融合依存信息的方法有利于保持遠距離實體的抽取性能。

        可見,RODP可以在提升召回率的同時維持穩(wěn)定的召回率。同時,RODP方法的精確率、召回率普遍高于MGLattice方法,表明本文融合依存句法信息的方法可以穩(wěn)定地改善三元組抽取的性能。

        5結束語

        針對實體關系三元組抽取任務,提出了一種融合依存信息的關系導向型聯(lián)合抽取方法RODP。RODP以字符序列、詞序列為輸入,生成全局依存向量用于進行關系編碼,生成依存類型向量用于輔助解碼,最后在關系編碼的導向下解碼得到SRO三元組。實驗表明,RODP在SanWen、FinRE、DuIE和IPRE四個中文數(shù)據(jù)集上均取得了優(yōu)于基線模型的F1值。在對長句的三元組抽取,以及遠距離實體對抽取中,本文方法具有較基線方法更為穩(wěn)定的F1值,表明RODP在引入依存句法信息的同時較好地抑制了噪聲,可有效地提升三元組抽取性能。下一步將對引入外部知識,以及針對特長、特短句的三元組抽取方法方面開展進一步研究。

        參考文獻:

        [1]WangYucheng,YuBowen,ZhangYueyang,etal.Tplinker:single-stagejointextractionofentitiesandrelationsthroughtokenpairlinking[C]//Procofthe28thInternationalConferenceonComputationalLinguistics.NewYork:ACMPress,2020:1572-1582.

        [2]SuiDianbo,ChenYubo,LiuKang,etal.Jointentityandrelationextractionwithsetpredictionnetworks[EB/OL].(2020).[2022-12-07].https://arxiv.org/abs/2011.01675.

        [3]YuanYue,ZhouXiaofei,PanShirui,etal.Arelation-specificattentionnetworkforjointentityandrelationextraction[C]//Procofthe29thInternationalJointConferenceonArtificialIntelligence.SanFrancisco:MorganKaufmannPublishers,2020:4054-4060.

        [4]WangHaoyu,TanMing,YuMo,etal.Extractingmultiple-relationsinone-passwithpre-trainedtransformers[C]//Procofthe57thAnnualMeetingoftheAssociationforComputationalLinguistics.2019:1371-1377.

        [5]ZhongZexuan,ChenDanqi.Afrustratinglyeasyapproachforentityandrelationextraction[M]//NorthAmericanChapteroftheAssociationforComputationalLinguistics.Stroudsburg,PA:ACLPress,2021:50-61.

        [6]LiXiaoya,YinFan,SunZijun,etal.Entity-relationextractionasmulti-turnquestionanswering[C]//Procofthe57thAnnualMeetingoftheAssociationforComputationalLinguistics.Stroudsburg,PA:ACLPress,2019:1340-1350.

        [7]EbertsM,UlgesA.Span-basedjointentityandrelationextractionwithTransformerpre-training[C]//ProcofEuropeanConferenceonArtificialIntelligence.Holland:IOSPress,2020:2006-2013.

        [8]TakanobuR,ZhangTianyang,LiuJiexi,etal.Ahierarchicalframeworkforrelationextractionwithreinforcementlearning[C]//ProcofAAAIConferenceonArtificialIntelligence.PaloAlto,CA:AAAIPress,2019:7072-7079.

        [9]丁相國,?;w.基于關系自適應解碼的實體關系聯(lián)合抽?。跩].計算機應用,2021,41(1):29-35.(DingXiangguo,SangJitao.Jointextractionofentitiesandrelationsbasedonrelation-adaptivedecoding[J].JournalofComputerApplications,2021,41(1):29-35.)

        [10]ZhengHengyi,WenRui,ChenXi,etal.PRGC:potentialrelationandglobalcorrespondencebasedjointrelationaltripleextraction[C]//Procofthe59thAnnualMeetingoftheAssociationforComputationalLinguistics.Stroudsburg,PA:ACLPress,2021:6225-6235.

        [11]KatiyarA,CardieC.Goingoutonalimb:jointextractionofentitymentionsandrelationswithoutdependencytrees[C]//Procofthe55thAnnualMeetingoftheAssociationforComputationalLinguistics.Stroudsburg,PA:ACLPress,2017:917-928.

        [12]BekoulisG,DeleuJ,DemeesterT,etal.Jointentityrecognitionandrelationextractionasamulti-headselectionproblem[J].ExpertSystemswithApplications,2018,114:34-45.

        [13]陳佳灃,滕沖.基于強化學習的實體關系聯(lián)合抽取模型[J].計算機應用,2019,39(7):1918-1924.(ChenJiafeng,TengChong.Jointentityandrelationextractionmodelbasedonreinforcementlearning[J].JournalofComputerApplications,2019,39(7):1918-1924.)

        [14]BastosA,NadgeriA,SinghK,etal.RECON:relationextractionusingknowledgegraphcontextinagraphneuralnetwork[C]//ProcofWebConference.NewYork:ACMPress,2021:1673-1685.

        [15]LiZiran,DingNing,LiuZhiyuan,etal.Chineserelationextractionwithmulti-grainedinformationandexternallinguisticknowledge[C]//Procofthe57thAnnualMeetingoftheAssociationforComputationalLinguistics.Stroudsburg,PA:ACLPress,2019:4377-4386.

        [16]NiuYilin,XieRuobing,LiuZhiyuan,etal.Improvedwordrepresentationlearningwithsememes[C]//Procofthe55thAnnualMeetingoftheAssociationforComputationalLinguistics.Stroudsburg,PA:ACLPress,2017:2049-2058.

        [17]KambhatlaN.Combininglexical,syntactic,andsemanticfeatureswithmaximumentropymodelsforinformationextraction[C]//ProcofACLInteractivePosterandDemonstrationSessions.Stroudsburg,PA:ACLPress,2004:178-181.

        [18]ChenGuimin,TianYuanhe,SongYan,etal.Relationextractionwithtype-awaremapmemoriesofworddependencies[C]//FindingsoftheAssociationforComputationalLinguistics.Stroudsburg,PA:ACLPress,2021:2501-2512.

        [19]TianYuanhe,ChenGuimin,SongYan,etal.Dependency-drivenrelationextractionwithattentivegraphconvolutionalnetworks[C]//Procofthe59thAnnualMeetingoftheAssociationforComputationalLinguisticsandthe11thInternationalJointConferenceonNaturalLanguageProcessing.Stroudsburg,PA:ACLPress,2021:4458-4471.

        [20]DongZhendong,DongQiang.HowNet:ahybridlanguageandknow-ledgeresource[C]//ProcofInternationalConferenceonNaturalLanguageProcessingandKnowledgeEngineeringProceedings.Piscata-way,NJ:IEEEPress,2003:820-824.

        [21]郭劍.現(xiàn)代漢語語法研究的基本態(tài)勢及相關問題分析[J].文化創(chuàng)新比較研究,2020,4(12):104-105.(GuoJian.AnalysisofthebasicsituationandrelatedproblemsofmodernChinesegrammarresearch[J].ComparativeStudyofCulturalInnovation,2020,4(12):104-105.)

        [22]羅輝,盧玲.面向中文命名實體識別的中文字符表示方法[J/OL].小型微型計算機系統(tǒng).(2022-05-13).https://doi.org/10.20009/j.cnki.21-1106/TP.2021-0862.(LuoHui,LuLing.Cha-racterembeddingmethodforChinesenamedentityrecognition[J/OL].JournalofChineseComputerSystems.(2022-05-13).https://doi.org/10.20009/j.cnki.21-1106/TP.2021-0862.)

        [23]XuJingjing,WenJi,SunXu,etal.Adiscourse-levelnamedentityre-cognitionandrelationextractiondatasetforChineseliteraturetext[EB/OL].(2017).[2022-12-07].https://arxiv.org/abs/1711.07010.

        [24]LiShuangjie,HeWei,ShiYabing,etal.DuIE:alarge-scaleChinesedatasetforinformationextraction[C]//ProcofInternationalConfe-renceonNaturalLanguageProcessingandChineseComputing.Berlin:Springer,2019:791-800.

        [25]WangHaitao,HeZhengqiu,MaJin,etal.IPRE:adatasetforinter-personalrelationshipextraction[C]//ProcofInternationalConferenceonNaturalLanguageProcessingandChineseComputing.Berlin:Springer,2019:103-115.

        [26]WenJi,SunXu,RenXuancheng,etal.StructureregularizedneuralnetworkforentityrelationclassificationforChineseliteraturetext[C]//ProcofAnnualConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics:HumanLanguageTechnologies.Stroudsburg,PA:ACLPress,2018:365-370.

        [27]KongBo,LiuShengquan,WeiFuyuan,etal.Chineserelationextractionusingextendsoftword[J].IEEEAccess,2021,9:110299-110308.

        [28]WangHaitao,HeZhengqiu,ZhuTong,etal.CCKS2019sharedtaskoninter-personalrelationshipextraction[EB/OL].(2019).[2022-12-07].https://arxiv.org/abs/1908.11337.

        久久久亚洲欧洲日产国产成人无码| 在线观看免费无码专区| 国产成人a人亚洲精品无码| 无码中文字幕加勒比一本二本| 老熟女一区二区免费| 国产女人av一级一区二区三区| 性人久久久久| 无码精品人妻一区二区三区人妻斩| 亚洲中文字幕在线一区二区三区| 丰满人妻无套内射视频| 久久精品国产熟女亚洲| 欧美精品v国产精品v日韩精品| 无码专区中文字幕DVD| 97中文字幕一区二区| 蜜臀av一区二区三区免费观看| 狠狠色婷婷久久综合频道日韩| 少妇精品无码一区二区三区| 日本高清视频在线一区二区三区| 蜜桃视频在线观看网址| 国产h视频在线观看| 爽妇网国产精品| 亚洲一区二区精品在线看| 一本久道高清视频在线观看| 欧美成人在线视频| 久久综合给日咪咪精品欧一区二区三| 青青草免费在线手机视频| 男女裸体做爰视频高清| 日本无码人妻波多野结衣| 中文人妻无码一区二区三区信息 | 国产无遮挡又黄又爽在线观看| 国产精品久久无码不卡黑寡妇| 在线播放偷拍一区二区| 久久国产劲爆∧v内射| 无码人妻丰满熟妇片毛片| 99久久久精品免费| 亚洲女厕偷拍一区二区| 亚洲欧美乱日韩乱国产| 在线播放a欧美专区一区| 色偷偷亚洲女人的天堂| 新婚人妻不戴套国产精品| 国产大学生粉嫩无套流白浆|