亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于ALBERT-BGRU-CRF 的中文命名實體識別方法

        2022-06-16 05:24:22李軍懷陳苗苗王懷軍崔穎安張愛華
        計算機工程 2022年6期
        關(guān)鍵詞:語義文本信息

        李軍懷,陳苗苗,王懷軍,崔穎安,張愛華

        (1.西安理工大學 計算機科學與工程學院,西安 710048;2.中鋁薩帕特種鋁材(重慶)有限公司,重慶 401326)

        0 概述

        命名實體識別(Named Entity Recognition,NER)是指從大量待處理文本中識別出人名、地名、組織機構(gòu)名等具有特殊意義的一類名詞,又稱為實體抽取,是信息獲取、知識圖譜構(gòu)建、問答系統(tǒng)、機器翻譯、信息檢索等任務的基礎(chǔ)[1]。命名實體識別方法主要分為基于詞典和規(guī)則、基于傳統(tǒng)機器學習、結(jié)合深度學習和機器學習3 類。2016 年,XIE 等[2]提出結(jié)合人工編寫規(guī)則和啟發(fā)式算法的命名實體識別方法,實現(xiàn)了從大量非結(jié)構(gòu)化文本中抽取公司名稱。依賴規(guī)則的命名實體識別方法一方面對人力需求大,另一方面規(guī)則的不通用性導致方法泛化能力較差。在NER 任務中所應用的機器學習方法包括最大熵馬爾可夫模型(Maximum Entropy Markov Models,MEMM)[3]、條件隨機場(Conditional Random Field,CRF)[4]等。MEMM 條件概率統(tǒng)計采用建立聯(lián)合概率的方式,局部歸一化導致結(jié)果容易陷入局部最優(yōu)。CRF 在統(tǒng)計全局概率、位置標記的同時利用內(nèi)部特征和序列信息,解決了MEMM 容易陷入局部最優(yōu)的問題。深度學習技術(shù)的廣泛應用使得NER 任務幾乎不再需要人工特征。2011年,COLLOBERT 等[5]提出基于神經(jīng)網(wǎng)絡的命名實體識別方法,該方法對每個單詞給定固定大小窗口,而未考慮長距離詞之間的信息。2016 年,CHIU 等[6]提出雙向LSTM-CNNs 模型克服了神經(jīng)網(wǎng)絡的限制。同年,MA 等[7]將模型進一步優(yōu)化為BiLSTM-CNNs-CRF,通過加入CRF 模塊以減少錯誤標簽序列的輸出。

        由于中文表述與英文表述有所區(qū)別,不存在空格、首字母大寫等明確標識分詞的符號并且存在實體嵌套、英文縮寫、表述不規(guī)范等問題,因此給中文命名實體識別帶來了巨大挑戰(zhàn)。本文提出一種基于ALBERT-雙向門控循環(huán)單元(Bidirectional Gated Recurrent Unit,BGRU)-CRF 的中文命名實體識別方法,在ALBERT 層對輸入文本完成詞嵌入獲取動態(tài)詞向量以解決一詞多義的問題,在BGRU 層進一步學習長距離語義信息,在CRF 層進行解碼并完成實體識別任務。

        1 相關(guān)工作

        1.1 預訓練語言模型

        預訓練語言模型是已訓練完成具有對應參數(shù)的深層網(wǎng)絡結(jié)構(gòu),利用大規(guī)模無標注語料訓練得到,通常作為一個模塊應用于下游任務。

        2013 年,MIKOLOV 等[8]提出用于表征文本的Word2Vec 詞向量技術(shù)。Word2Vec 將詞轉(zhuǎn)化為向量,所提取特征是上下文無關(guān)的,對于下游任務的支撐作用有限。2018 年,PETERS 等[9]提出ELMo 預訓練語言模型。ELMo 內(nèi)部采用雙向LSTM 有效捕捉上下文語義,提取文本深層特征,基于大量文本訓練得到針對下游任務的通用語言模型,解決了靜態(tài)詞向量無法理解一詞多義的問題。2019 年,DEVLIN等[10]提出的BERT 動態(tài)預訓練語言模型成為自然語言處理領(lǐng)域的重要里程碑,其在多個典型下游任務中取得較好效果。同年,谷歌發(fā)布了BERT 的改進模型ALBERT[11],該模型參數(shù)更少且效果與BERT相當。本文方法基于ALBERT 預訓練語言模型。

        1.2 中文命名實體識別

        中文命名實體識別任務的難點在于:1)區(qū)別于英文,不存在空格、首字母大寫等明確標識分詞的符號,增加了分詞難度;2)表述多元化,常出現(xiàn)字母縮寫、中英文交替等表述,其中英文描述會干擾中文命名實體識別。當前針對中文命名實體識別任務多數(shù)采用結(jié)合機器學習和深度學習的方法。

        2016 年,劉玉嬌等[12]采用深度學習的命名實體識別方法,通過卷積自編碼器提取文本特征對中文微博語料庫進行命名實體識別。2017 年,張海楠等[13]基于深度神經(jīng)網(wǎng)絡結(jié)合字特征和詞特征,針對1998 人民日報標注語料庫進行人名、地名和機構(gòu)名識別,識別結(jié)果F1 值達到93.3%。2018 年:李雁群等[14]提出一種從中文維基百科條目中自動構(gòu)建中文嵌套命名實體識別語料庫的方法;JIA 等[15]使用深度神經(jīng)網(wǎng)絡與機器學習相結(jié)合的方法構(gòu)建CNNBiLSTM-CRF 模型完成中文命名實體識別任務,在MSRA 數(shù)據(jù)集上F1 值達到90.95%;ZHANG 等[16]提出基于Lattice LSTM 模型的識別方法,在特征提取時利用字序列關(guān)系有效避免了分詞錯誤的影響,該方法在微博、MSRA、OntoNotes 等數(shù)據(jù)集上F1 值均有所提升,在resume 數(shù)據(jù)集上F1 值達到94.46%;王蕾等[17]采用深度學習片段神經(jīng)網(wǎng)絡完成實體邊界標注及分類,該方法在MSRA 數(shù)據(jù)集上總體F1 值達到90.44%。2019 年,石春丹等[18]提出基于BGRU-CRF的中文命名實體識別方法,充分利用潛在詞特征和上下文信息,在MSRA 和OntoNotes 數(shù)據(jù)集上F1 值均有所提升。2020 年:趙豐等[19]基于CNN 和注意力機制提出基于局部注意力卷積的嵌入算法以降低中文命名實體識別任務對分詞的依賴,該方法在MSRA、微博和軍事文本數(shù)據(jù)集上F1 值均有所提升;李妮等[20]提出一種基于BERT 預訓練語言模型結(jié)合IDCNN 和CRF 的方法,該方法在MSRA 數(shù)據(jù)集上F1值達到94.41%,且模型訓練時間大幅縮短。

        現(xiàn)有研究主要存在2 個問題:1)多數(shù)方法僅提取字符或詞級別特征,而忽略長距離語義信息,導致無法提取文本語義信息;2)早期詞嵌入工具生成靜態(tài)詞向量,導致無法處理一詞多義的問題。針對以上2 個問題,本文提出一種基于ALBERT-BGRUCRF 模型的中文命名實體識別方法。該方法采用ALBERT 完成詞嵌入以獲取動態(tài)詞向量,經(jīng)過BGRU 學習上下文語義特征,并使用CRF 降低錯誤標簽輸出概率。

        2 ALBERT-BGRU-CRF 模型

        傳統(tǒng)深度學習模型較多關(guān)注字符和詞級別特征,而忽略長距離語義信息,導致無法提取語義信息和解決一詞多義的問題。ALBERT 模型獲取動態(tài)詞向量解決了一詞多義的問題,BGRU 捕捉雙向語義使得模型更深層理解文本語義信息。本文構(gòu)建的中文命名實體識別模型包括ALBERT 預訓練語言模型、BGRU、CRF 等3 層,結(jié)構(gòu)如圖1 所示。

        在ALBERT-BGRU-CRF 模型中,首先使用ALBERT 預訓練語言模型對待處理文本進行編碼完成詞嵌入,獲取動態(tài)詞向量,然后采用BGRU 捕捉雙向語義,最終將拼接后的向量輸入至CRF 層并解碼,得到實體標注信息,完成實體邊界及分類識別。對于文本“教育部新出臺”,經(jīng)過模型識別,為“教”標注“B-ORG”標簽表示組織機構(gòu)名的首字,為“育”和“部”標注“I-ORG”標簽表示組織機構(gòu)名的其他字符,文本中其他非實體字符均標注“O”,識別結(jié)果為“教育部”是一個組織機構(gòu)名。

        2.1 ALBERT 層

        預訓練語言模型通常體量大,千萬甚至億級別的參數(shù)量給訓練帶來了較大困難。ALBERT 模型參數(shù)量遠小于BERT 模型參數(shù)量。例如,在本文模型中所使用的albert_xlarge 參數(shù)量為60M,遠小于bert_base 的參數(shù)量。ALBERT 主要在以下3 個方面做了改進:

        1)嵌入向量參數(shù)因式分解

        E表示詞向量大小,H表示隱藏層大小,在BERT、XLNet、RoBERTa等預訓練語言模型中E≡H,若E和H始終相等,提升隱藏層大小H,則詞嵌入大小E也隨之提升,參數(shù)規(guī)模為O(V×H)。ALBERT 采用因式分解的方法來降低參數(shù)量,在詞嵌入后加入一個矩陣以完成維度變化,參數(shù)量從O(V×H)降低為O(V×E+E×H),當H?E時參數(shù)量明顯減少。

        2)跨層參數(shù)共享

        ALBERT 采用跨層共享參數(shù)的方式,示意圖如圖2 所示。

        圖2 跨層參數(shù)共享示意圖Fig.2 Schematic diagram of cross-layer parameter sharing

        一般地,Transformer 每一層(Layer)參數(shù)均是相互獨立的,其中,多頭自注意力層(Multi-Head Attention)和前饋神經(jīng)網(wǎng)絡層(Feed Forward)參數(shù)也是相互獨立的,導致增加層數(shù)后參數(shù)量劇增。參數(shù)共享可采用僅跨層共享前饋神經(jīng)網(wǎng)絡參數(shù),也可僅共享注意力層參數(shù),ALBERT 模型則跨層共享(Shared)所有參數(shù),相當于僅學習第一層參數(shù),在其他所有層中重用(Reuse)該層參數(shù),一方面減少了參數(shù)量,另一方面有效提升了模型穩(wěn)定性。

        3)句間連貫性預測

        ALBERT 提出一種句間連貫性預測(Sentence-Order Prediction,SOP)方法,正樣本表示與BERT 相同,是兩個連貫的語句,負樣本為原文中交換順序的兩個連貫句。SOP 中正負樣本選自同一文檔,僅關(guān)注句子之間的連貫性,避免主題影響,這使得模型在話語層面的學習具有更細粒度。

        ALBERT-BGRU-CRF 模型將文本序列輸入至ALBERT 進行編碼,將ALBERT 模型詞嵌入所得動態(tài)詞向量作為BGRU 層的輸入。

        2.2 BGRU 層

        門控循環(huán)單元(Gated Recurrent Unit,GRU)是新一代的循環(huán)神經(jīng)網(wǎng)絡(Recurrent Neural Network,RNN),與長短期記憶網(wǎng)絡(Long Short-Term Memory,LSTM)類似,用以解決傳統(tǒng)RNN 梯度消失和梯度爆炸問題。與LSTM 的區(qū)別在于,GRU 不再采用單元狀態(tài)記錄或傳輸信息,利用隱藏狀態(tài)完成信息記錄及傳輸。更新門和重置門控制GRU 單元最終輸出信息,GRU 單元結(jié)構(gòu)如圖3 所示,其中,“+”表示加操作,“σ”表示Sigmoid 激活函數(shù),“×”表示Hadamard 乘積,“tanh”表示Tanh 激活函數(shù)。

        圖3 GRU 單元結(jié)構(gòu)Fig.3 Structure of GRU unit

        GRU 參數(shù)更新計算公式如下:

        其中:zt為更新門的激活結(jié)果,以門控的形式控制信息的流入;xt為時間步t的輸入向量;Wz為權(quán)重矩陣;ht-1表示保存時間步t-1 的信息;rt為重置門激活結(jié)果,計算過程同更新門類似;Wr為權(quán)重矩陣;表示當前時間步的記憶內(nèi)容;ht表示當前時間步的最終記憶。

        GRU 僅在一個方向上捕獲信息。BGRU 用于提取上下文信息,是雙向輸入的GRU。文本序列正向輸入至GRU 記錄“過去信息”,文本序列反向輸入至GRU 獲取“將來信息”,對兩者進行拼接合并以達到提取上下文信息的目的。

        BGRU 層提取上下文信息得到更深層次的語義理解,獲得發(fā)射分數(shù)矩陣輸入至CRF 層。

        2.3 CRF 層

        CRF 是一種由輸入序列預測輸出序列的判別式模型,常見的條件隨機場是指在線性鏈上特殊的條件隨機場,線性鏈式條件隨機場結(jié)構(gòu)如圖4 所示。

        圖4 線性鏈式條件隨機場結(jié)構(gòu)Fig.4 Structure of linear chain conditional random field

        設(shè)兩組隨機變量X=(x1,x2,…,xn)和Y=(y1,y2,…,yn),線性鏈式條件隨機場定義如下:

        其中:X為觀察狀態(tài);Y為隱藏狀態(tài)。X和Y具有相同結(jié)構(gòu)。

        本文模型通過在CRF 中加入約束,以降低錯誤標簽的輸出概率。條件隨機場判別計算過程如下:

        其中:score(s,w)表示綜合評估分數(shù);P表示從BGRU層得到的發(fā)射分數(shù)矩陣;A表示CRF 學習得到的轉(zhuǎn)移矩陣;p(w∣s)表示輸入序列與標簽序列的對應概率;Ws表示所有可能的標簽序列。

        CRF 層結(jié)合BGRU 層輸出的發(fā)射分數(shù)矩陣和學習得到的轉(zhuǎn)移矩陣計算最終得分,得到輸入序列與對應標簽序列概率,通過維特比解碼獲得最優(yōu)序列標注。

        算法1 輸入為文本序列,輸出為標簽序列。ALBERT 采用共享權(quán)值和分解矩陣的方式減少模型參數(shù),有效降低了空間復雜度,BGRU 由于自身特殊的門單元設(shè)置,通常收斂速度更快,CRF 采用維特比算法完成預測任務,維特比算法利用動態(tài)規(guī)劃求解最優(yōu)路徑降低復雜度。

        3 實驗與結(jié)果分析

        3.1 數(shù)據(jù)集

        實驗使用微軟亞洲研究院公開的MSRA[21]數(shù)據(jù)集,其中標注有人名(PER)、地名(LOC)、組織機構(gòu)名(ORG)三類實體。在實驗過程中,訓練集包含20 864 句語料,驗證集包含2 318 句語料,測試集包含4 636 句語料。

        3.2 標注策略與評價指標

        命名實體識別又稱為序列標注,常用的標注策略包括BIO、BIOES、BMESO 等,本文實驗過程中采用BIO 標注策略。對于文本中的實體,實體開始字符標注“B-Type”,實體其余字符標注“I-Type”,非實體字符標注“O”。

        采用準確率(P)、召回率(R)和F1 值(F1)作為評價指標[22-23],其中,P表示正確識別的實體占全部識別出實體的比率,R表示正確識別的實體占應識別實體的比率,F(xiàn)1是結(jié)合了P和R的綜合評價指標,具體計算過程如下:

        其中:Tp表示模型識別的正確實體數(shù)量;Fp表示模型識別的錯誤實體數(shù)量;Fn表示模型未識別出的實體數(shù)量。

        3.3 實驗環(huán)境與參數(shù)

        實驗訓練過程的環(huán)境配置如表1 所示。

        表1 實驗環(huán)境配置Table 1 Experimental environment configuration

        在訓練過程中,使用Adam 優(yōu)化器,輸入文本最大長度為202,為防止過擬合設(shè)置Dropout 取0.5,具體參數(shù)設(shè)置如表2 所示。

        表2 實驗參數(shù)設(shè)置Table 2 Experimental parameter setting

        3.4 實驗結(jié)果對比

        ALBERT-BGRU-CRF 模型在MSRA 數(shù)據(jù)集上的各類實體識別結(jié)果如表3 所示。

        表3 命名實體識別結(jié)果Table 3 Named entity recognition results %

        由表3 可知,本文方法在各類實體中均有較高的準確率,ALBERT-BGRU-CRF 模型結(jié)合上下文語義信息取得良好效果,針對人名的識別F1 值最高。ALBERT-BGRU-CRF 模型對于組織機構(gòu)名的識別準確率、召回率偏低,主要原因為:1)存在組織機構(gòu)名與地名歧義,例如句子“出席越秀藝苑和越秀書店開業(yè)典禮時”中“越秀藝苑”被標注為組織機構(gòu)名,而模型識別其為地名,此類歧義表述導致識別率較低;2)組織機構(gòu)名與地名存在大量嵌套,例如句子“陜西省銅川市商務局一位叫張寶玲的下崗女工在培訓結(jié)束時”,其中“陜西省銅川市商務局”被標注為組織機構(gòu)名,模型則識別“陜西省”為地名、“銅川市商務局”為組織機構(gòu)名,此類嵌套描述也是影響模型準確率的原因之一。

        為了驗證ALBERT-BGRU-CRF 模型的有效性,設(shè)置對比實驗。ALBERT-BGRU-CRF 模型與其他模型的命名實體識別結(jié)果對比如表4 所示。

        表4 不同模型命名實體識別結(jié)果對比Table 4 Comparison of named entity recognition results of different models %

        由表4 可知:CNN-BiLSTM-CRF 模型、片段神經(jīng)網(wǎng)絡模型和Lattice-LSTM-CRF 模型與BERTIDCNN-CRF 模型對比發(fā)現(xiàn),基于BERT 對文本進行詞嵌入后識別效果更佳,本文模型采用ALBERT 完成詞嵌入獲取動態(tài)詞向量,ALBERT 在保證識別效果的基礎(chǔ)上參數(shù)量僅約為BERT 的1/2;Lattice-LSTM-CRF 模型與BGRU-CRF 模型對比發(fā)現(xiàn),BGRU 通過對上下文語義更深層的理解有效提高了命名實體識別的F1 值;ALBERT-BGRU-CRF 模型相比于其他模型F1 值最高,相比于片段神經(jīng)網(wǎng)絡模型的F1 值提升了4.43 個百分點,相比于CNNBiLSTM-CRF 模型F1 值提升了3.78 個百分點。

        4 結(jié)束語

        本文提出一種用于中文命名實體識別的ALBERT-BGRU-CRF 模型,使用ALBERT 預訓練語言模型對待處理文本進行編碼完成詞嵌入并獲取動態(tài)詞向量,解決了一詞多義的問題,同時結(jié)合BGRU有效利用序列信息,使ALBERT-BGRU-CRF 模型能進一步理解上下文語義。實驗結(jié)果表明,ALBERTBGRU-CRF 模型相比于傳統(tǒng)命名實體識別模型準確率、召回率和F1 值均有所提升,并且在采用ALBERT 保留BERT 性能的同時,參數(shù)量僅約為BERT 的1/2,降低了模型訓練過程中對內(nèi)存等硬件設(shè)備的要求。由于ALBERT-BGRU-CRF 模型對于歧義實體和嵌套實體識別準確率較低,因此后續(xù)將從細化和完善實體標記規(guī)則以及更深層的語義學習等方面做進一步優(yōu)化。

        猜你喜歡
        語義文本信息
        語言與語義
        在808DA上文本顯示的改善
        基于doc2vec和TF-IDF的相似文本識別
        電子制作(2018年18期)2018-11-14 01:48:06
        訂閱信息
        中華手工(2017年2期)2017-06-06 23:00:31
        “上”與“下”語義的不對稱性及其認知闡釋
        文本之中·文本之外·文本之上——童話故事《坐井觀天》的教學隱喻
        認知范疇模糊與語義模糊
        展會信息
        中外會展(2014年4期)2014-11-27 07:46:46
        如何快速走進文本
        語文知識(2014年1期)2014-02-28 21:59:13
        語義分析與漢俄副名組合
        外語學刊(2011年1期)2011-01-22 03:38:33
        国产精品自在在线午夜出白浆| 亚洲精品成人网线在线播放va| 国产又黄又猛又粗又爽的a片动漫| 国产在线拍偷自拍偷精品| 国内精品少妇久久精品| 国产精品久久久久久久久电影网| 男女爱爱好爽视频免费看| 夜夜爽无码一区二区三区| 最新国产成人自拍视频| 亚洲中文字幕精品乱码2021| 国产又黄又爽又色的免费| 中文字幕AⅤ人妻一区二区 | 性感人妻一区二区三区| 高清日韩av在线免费观看| 免费国产黄网站在线观看可以下载 | 国产精品福利片免费看 | 欧美日韩国产乱了伦| 久久久人妻一区二区三区蜜桃d| 亚洲国产一区二区三区在线观看| 在线播放国产一区二区三区| 97碰碰碰人妻视频无码| 熟女肥臀白浆一区二区| 国产精品欧美一区二区三区| 亚洲日韩一区二区一无码| 亚洲综合偷拍一区二区| 中文字幕亚洲综合久久| 无码一区二区波多野结衣播放搜索| 国产丰满乱子伦无码专| 最新中文字幕日韩精品| 老司机亚洲精品影院| 国产成人亚洲综合无码DVD| 白白色日韩免费在线观看| 人妻丰满av无码中文字幕| 色偷偷88888欧美精品久久久| 亚洲精品国产主播一区二区| 男女男精品视频网站免费看| 亚洲处破女av日韩精品| 亚洲国产成人Av毛片大全| 一区二区二区三区亚洲| 国偷自产视频一区二区久| 国产成人亚洲精品77|