亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于詞共現(xiàn)的方面級(jí)情感分析模型*

        2022-11-17 11:56:10楊春霞姚思誠宋金劍
        關(guān)鍵詞:分類情感信息

        楊春霞,姚思誠,宋金劍

        (1.南京信息工程大學(xué)自動(dòng)化學(xué)院,江蘇 南京 210044;2.江蘇省大數(shù)據(jù)分析技術(shù)重點(diǎn)實(shí)驗(yàn)室,江蘇 南京 210044;3.江蘇省大氣環(huán)境與裝備技術(shù)協(xié)同創(chuàng)新中心,江蘇 南京 210044)

        1 引言

        互聯(lián)網(wǎng)方便了用戶發(fā)表自己對(duì)事件、產(chǎn)品的看法與評(píng)價(jià),這些文本語料為情感分析提供了數(shù)據(jù)基礎(chǔ)[1,2]。與篇章級(jí)情感分析相比,方面級(jí)情感分析任務(wù)ABSA(Aspect-Based Sentiment Analysis)旨在識(shí)別給定目標(biāo)實(shí)體的方面以及對(duì)每個(gè)方面表達(dá)的情感進(jìn)行判斷,屬于細(xì)粒度情感分析,也被稱為基于特征的意見挖掘[3]。本文主要進(jìn)行方面級(jí)情感判斷,例如:“Great food but the service was dreadful”,在這里“food”或“service”都可以是方面詞,如選定“food”作為方面詞,它的意見詞就是“great”,情感極性是積極的。

        方面級(jí)情感分析分為文本表示與特征提取兩部分。文本表示通常采用word2vec[4]將單詞映射成向量,特征提取主要使用LSTM(Long Short-Term Memory)等序列結(jié)構(gòu)模型。隨著預(yù)訓(xùn)練模型的發(fā)展,以BERT(Bidirectional Encoder Representations from Transformer)[5]為代表的預(yù)訓(xùn)練模型越來越受到重視。BERT是一種在大型文本語料庫上訓(xùn)練得到的通用語言理解模型。Jawahar等[6]通過10個(gè)句子級(jí)的探測(cè)任務(wù)證明了BERT在中高層可以學(xué)習(xí)到句法特征與語義特征。這意味著將方面級(jí)情感分析作為BERT的下游任務(wù)是可行的。

        方面級(jí)情感分析數(shù)據(jù)集一般取自大眾評(píng)論,表述偏口語,語法結(jié)構(gòu)簡(jiǎn)單,很多樣本中同時(shí)有多個(gè)方面詞與多個(gè)意見詞,模型可能錯(cuò)誤地將與目標(biāo)方面詞無關(guān)的意見詞作為判斷情感極性的線索,而真正相關(guān)的意見詞總是比不相關(guān)的意見詞與目標(biāo)方面詞的距離更近。盡管序列結(jié)構(gòu)的模型在自然語言處理各類任務(wù)上都有了很大的進(jìn)展,但無法有效利用這種結(jié)構(gòu)信息,而基于圖神經(jīng)網(wǎng)絡(luò)的模型能在詞共現(xiàn)圖中捕獲這種特殊的結(jié)構(gòu)特征,且有更好的推理能力[7]。為此本文提出了BCGN(BERT Co- occurrence Gated graph neural Network)模型,主要貢獻(xiàn)如下:(1)提出了一種新的意見詞捕捉策略,改善了多方面詞、多意見詞混淆的問題;(2)將自注意力模型應(yīng)用在圖神經(jīng)網(wǎng)絡(luò)上,相比傳統(tǒng)注意力模型能更有效地捕捉并融合每個(gè)節(jié)點(diǎn)多個(gè)特征空間的信息;(3)結(jié)合BERT預(yù)訓(xùn)練模型,在3個(gè)方面級(jí)情感分析數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn)并與主流模型進(jìn)行比較,結(jié)果表明本文提出的模型在性能上優(yōu)于主流模型。

        2 相關(guān)工作

        早期方面級(jí)情感分析主要基于統(tǒng)計(jì)與規(guī)則的方法,例如使用WordNet建立詞與詞的聯(lián)系,采用情感詞典和規(guī)則處理情感分析任務(wù)。Ding等[8]提出了一種基于詞典的整體方法,利用預(yù)設(shè)的詞典和自然語言表達(dá)的語言習(xí)慣來處理方面級(jí)情感分析問題,模型性能優(yōu)于之前的詞典模型。

        隨著詞嵌入的發(fā)展,文本表示逐漸從獨(dú)熱表示(one-hot representation)轉(zhuǎn)變?yōu)榉植际奖硎?distribution representation),意思相近的詞在映射成向量后有著較高的相似度,一定程度上解決了獨(dú)熱表示語義鴻溝與維度爆炸的問題,使用深度學(xué)習(xí)挖掘語義,并將方面級(jí)情感分析看成一個(gè)分類任務(wù)成了主流方法。Tang等[9]提出了基于LSTM的TC-LSTM(Target-Connection Long Short-Term Memory)模型與TD-LSTM(Target-dependent Long Short-Term Memory)模型,構(gòu)建了上下文與方面詞的聯(lián)系,相較于標(biāo)準(zhǔn)的LSTM有更好的效果。Fan等[10]提出了一種新的多粒度注意力網(wǎng)絡(luò)MGAN(Multi-Grained Attention Network),使用細(xì)粒度的注意力機(jī)制捕捉方面詞與上下文之間的單詞級(jí)交互關(guān)系,增強(qiáng)了上下文與方面詞的聯(lián)系。

        在引入了BERT預(yù)訓(xùn)練模型后分類準(zhǔn)確率有了更大的提升,Song等[11]將上下文與方面詞作為句子對(duì)輸入BERT,通過實(shí)驗(yàn)驗(yàn)證了BERT在方面級(jí)情感分析任務(wù)上的有效性。

        也有研究人員對(duì)圖結(jié)構(gòu)的文本展開研究,Yao等[12]將整個(gè)語料庫建模為異構(gòu)圖并通過圖卷積網(wǎng)絡(luò)學(xué)習(xí)單詞和文檔嵌入,文檔與單詞之間通過TF-IDF作為邊的權(quán)重,單詞與單詞之間的關(guān)聯(lián)權(quán)重基于全局詞共現(xiàn)。這種結(jié)構(gòu)的圖有助于模型在半監(jiān)督任務(wù)中學(xué)到幾類不同的文檔間差異,在文本分類任務(wù)上取得了較好的結(jié)果。陳俊杰等[7]將原始文本處理成詞共現(xiàn)圖與文本序列,詞共現(xiàn)圖上采用圖卷積獲得節(jié)點(diǎn)特征,文本序列輸入雙向LSTM獲得隱層表示,最后將2部分拼接,有效地利用了結(jié)構(gòu)信息。Liang等[13]提出了一種新的端到端ABSA多任務(wù)學(xué)習(xí)的依存句法知識(shí)增強(qiáng)交互體系結(jié)構(gòu),能夠充分利用句法知識(shí)。Huang等[14]提出了一種目標(biāo)相關(guān)圖注意力網(wǎng)絡(luò)TD-GAT(Target-Dependent Graph ATtention network)用于方面級(jí)情感分類,明確地利用了句法圖中詞與詞之間的依賴關(guān)系,相比序列模型有更好的效果。

        3 BCGN模型構(gòu)建

        本模型主要由4部分組成:BERT預(yù)訓(xùn)練模型、詞共現(xiàn)圖、門控圖神經(jīng)網(wǎng)絡(luò)GGNN(Gated Graph Neural Network)及自注意力網(wǎng)絡(luò)。網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示。

        Figure 1 Diagram of BCGN model圖1 BCGN模型圖

        (1)BERT預(yù)訓(xùn)練模型:輸入序列文本,輸出單詞的節(jié)點(diǎn)信息向量h0。

        (2)詞共現(xiàn)圖:根據(jù)詞與詞同時(shí)出現(xiàn)在一個(gè)窗口的次數(shù)構(gòu)建圖,作為門控層的鄰接矩陣A。

        (3)門控圖神經(jīng)網(wǎng)絡(luò):根據(jù)詞共現(xiàn)圖更新節(jié)點(diǎn)信息,從而捕捉特定方面詞的情感,輸出更新后的節(jié)點(diǎn)信息ht+1,t∈[0,K-1]用于區(qū)分不同層次的節(jié)點(diǎn)信息向量,圖1中K表示執(zhí)行的次數(shù)。

        (4)自注意力網(wǎng)絡(luò):對(duì)更新后的節(jié)點(diǎn)信息ht+1進(jìn)行自注意力計(jì)算,進(jìn)一步捕捉全局特征信息。

        3.1 BERT預(yù)訓(xùn)練模型

        本文使用BERTbase對(duì)方面詞與上下文交互建模,具體流程如圖2所示。

        Figure 2 Pretraining model of BERT圖2 BERT預(yù)訓(xùn)練模型

        圖2中的T代表輸入的文本,[CLS]與[SEP]為BERT中的標(biāo)記符。[CLS]可以作為整個(gè)句子的語義表示,因此通常用于分類任務(wù);當(dāng)下游任務(wù)輸入的是句子對(duì)時(shí),需要在2個(gè)句子間加入[SEP]分隔句子[5]。所以,本文模型在輸入BERT預(yù)訓(xùn)練模型前將每條樣本預(yù)處理成“x=[CLS]+上下文+[SEP]+方面詞”的形式。C代表[CLS]經(jīng)過嵌入后的分類向量,S代表[SEP]經(jīng)過嵌入后的分隔向量,E代表經(jīng)過BERT詞嵌入得到的文本表示,之后通過Transformer層[15]提取上下文信息,得到包含上下文與方面詞交互注意力的節(jié)點(diǎn)信息H,如式(1)所示:

        H=BERT(x)

        (1)

        3.2 詞共現(xiàn)圖構(gòu)建

        詞共現(xiàn)圖的特點(diǎn)是能夠快速且有效地表示文本結(jié)構(gòu)信息,在增大窗口或加深圖神經(jīng)層數(shù)后也能捕捉遠(yuǎn)距離的單詞關(guān)系。具體可以表示為G=(V,ε),V表示一個(gè)數(shù)據(jù)樣本中所有不重復(fù)的單詞集合,ε反映了2個(gè)單詞之間的內(nèi)在聯(lián)系,這種聯(lián)系是無向的。權(quán)重值取決于單詞與單詞出現(xiàn)在一個(gè)固定大小滑動(dòng)窗口的次數(shù)。鄰接矩陣A的構(gòu)建如式(2)所示:

        (2)

        其中,*W表示2個(gè)單詞出現(xiàn)在同一個(gè)窗口中的次數(shù),i和j表示來自同一個(gè)樣本的不同單詞。

        在處理文本時(shí)考慮去除包括“the”“was”在內(nèi)的停用詞,以增強(qiáng)單詞連接的有效性。圖3是以數(shù)據(jù)集Restaurant中的一個(gè)樣本“Great food but the service was dreadful”為例構(gòu)建的詞共現(xiàn)圖(窗口大小為3)。

        Figure 3 Example of word co-occurrence graph construction圖3 詞共現(xiàn)圖構(gòu)建示例

        可以看到,在這個(gè)例子中有2個(gè)方面詞和2個(gè)情感極性不同的意見詞,且每個(gè)相關(guān)意見詞都在對(duì)應(yīng)方面詞的附近,滿足“就近原則”。如圖3中的“food”與“great”直接相連,第1層的門控圖神經(jīng)網(wǎng)絡(luò)就能將“great”的語義信息融入“food”,而“dreadful”即使能在第2層門控圖神經(jīng)網(wǎng)絡(luò)中融入“food”,但其權(quán)重也遠(yuǎn)低于“great”的。

        3.3 門控圖神經(jīng)網(wǎng)絡(luò)

        門控圖神經(jīng)網(wǎng)絡(luò)[16]是一種基于空間域GRU的模型,它將鄰居節(jié)點(diǎn)信息作為輸入,自身節(jié)點(diǎn)信息作為隱層狀態(tài)。這里采用2層門控圖神經(jīng)網(wǎng)絡(luò)使模型能夠融合更多高階鄰居信息。

        每個(gè)節(jié)點(diǎn)進(jìn)入門控神經(jīng)網(wǎng)絡(luò)后根據(jù)鄰接關(guān)系融合相鄰節(jié)點(diǎn)信息,從而更新自身節(jié)點(diǎn)表示。具體計(jì)算如式(3)~式(7)所示:

        at+1=AhtWa

        (3)

        zt+1=σ(Wzat+1+Uzht+bz)

        (4)

        rt+1=σ(Wrat+1+Urht+br)

        (5)

        h~t+1=tanh(What+1+Uh(rt+1⊙ht)+bh)

        (6)

        ht+1=h~t+1⊙zt+1+ht⊙(1-zt+1)

        (7)

        其中,at+1代表t+1層中根據(jù)詞共現(xiàn)圖融合的節(jié)點(diǎn)隱層向量,ht代表BERT中輸出的節(jié)點(diǎn)信息向量,Wα代表對(duì)應(yīng)的可訓(xùn)練的權(quán)重矩陣。式(4)和式(5)中rt+1與zt+1代表t+1層的重置門向量與更新門向量,σ(·)代表sigmoid函數(shù),Wz和Uz代表重置門中的權(quán)重矩陣,bz代表重置門中的偏置向量,Wr和Ur代表更新門中的權(quán)重矩陣,br代表更新門中的偏置向量。這2個(gè)門是門控圖神經(jīng)網(wǎng)絡(luò)的核心,決定每個(gè)節(jié)點(diǎn)是否要接受鄰居節(jié)點(diǎn)的信息。在經(jīng)過足夠的訓(xùn)練后,這2個(gè)門能夠識(shí)別一個(gè)詞是否是相關(guān)意見詞,是否在情感極性分類中起到了關(guān)鍵作用。本文的模型正是通過這個(gè)機(jī)制對(duì)方面詞附近的意見詞信息進(jìn)行融合,強(qiáng)化局部信息,改善意見詞混淆問題,從而得到更準(zhǔn)確的節(jié)點(diǎn)表示。式(6)中通過更新門選擇性更新ht,得到準(zhǔn)更新節(jié)點(diǎn)h~t+1,其中,⊙代表對(duì)應(yīng)元素相乘,Wh和Uh代表對(duì)應(yīng)的權(quán)重矩陣,bh代表對(duì)應(yīng)的偏置向量。最終將h~t+1選擇性重置,得到更新后的節(jié)點(diǎn)信息ht+1。

        3.4 自注意力層

        門控圖神經(jīng)網(wǎng)絡(luò)根據(jù)詞共現(xiàn)圖融合節(jié)點(diǎn)信息后,輸出到自注意力層。自注意力層通過計(jì)算相似度的方式獲得節(jié)點(diǎn)與節(jié)點(diǎn)之間的注意力,且能夠捕捉不連續(xù)的、長距離依賴的語義信息。另一方面自注意力[15]可以通過多個(gè)注意力頭學(xué)習(xí)到節(jié)點(diǎn)不同子空間的相關(guān)信息,以進(jìn)一步融合全局信息,使得特征更平滑,計(jì)算公式如式(8)~式(11)所示:

        (8)

        (9)

        (10)

        Φ={φ1,φ2,…,φn}=concat(head1,…,headm)WO

        (11)

        本文模型在池化時(shí)僅提取目標(biāo)方面詞對(duì)應(yīng)的節(jié)點(diǎn)信息Φasp送入softmax函數(shù),損失函數(shù)采用帶正則的交叉熵?fù)p失函數(shù),如式(12)和式(13)所示:

        (12)

        (13)

        4 實(shí)驗(yàn)

        4.1 數(shù)據(jù)集

        本文在SemEval-2014任務(wù)4的2個(gè)數(shù)據(jù)集[17]與Twitter數(shù)據(jù)集[18]上評(píng)測(cè)本文所提模型的性能,并在REST15[19]、REST16[20]上驗(yàn)證本文所提模型的通用性。數(shù)據(jù)集相關(guān)信息如表1所示。

        感情上的事,誰能說得清楚?風(fēng)影開始看著紅琴笑,他什么也不說,只是瞅著她笑,有點(diǎn)兒像佛拈花微笑。這種笑意味深長,是憐憫她?是鄙夷她?是睥睨她?是譏諷她?抑或是善意地勸導(dǎo)她,開悟她?

        Table 1 Statistical information of datasets

        4.2 基線模型

        本文選取3類模型作為基線模型:(1)使用RNN與CNN的深度學(xué)習(xí)模型TNET-LF;(2)使用句法依存信息的模型CDT、TD-GAT和DREGCN;(3)基于BERT的模型BERT-SPC和BERT-AEN。

        TNET-LF:該模型采用CNN層提取來自雙向RNN層的詞表示特征。在這2個(gè)層之間添加了一個(gè)組件來生成句子特定目標(biāo)的單詞表示,同時(shí)在RNN層還保留了原始的上下文信息[21]。

        CDT:該模型使用雙向LSTM對(duì)句子的依存樹進(jìn)行編碼,再用圖卷積網(wǎng)絡(luò)對(duì)嵌入信息進(jìn)行增強(qiáng),最后輸出到非線性層進(jìn)行分類[22]。

        TD-GAT:該模型使用依賴關(guān)系圖直接從目標(biāo)方面的句法上下文傳播情感特征,并使用該特征進(jìn)行分類[14]。

        DREGCN:該模型采用了端到端ABSA多任務(wù)學(xué)習(xí)的依存句法知識(shí)來增強(qiáng)交互體系結(jié)構(gòu)。利用設(shè)計(jì)良好的依賴關(guān)系嵌入圖卷積網(wǎng)絡(luò)來充分利用句法知識(shí)[13]。

        BERT-SPC:該模型將方面級(jí)情感分析看成句子對(duì)任務(wù)輸入BERT預(yù)訓(xùn)練模型,最后提取[CLS]標(biāo)記對(duì)應(yīng)的分類特征向量送入非線性層分類[11]。

        BERT-AEN:該模型使用基于注意力的編碼器對(duì)上下文和方面詞進(jìn)行建模,并引入了標(biāo)簽正則化,最后通過非線性層進(jìn)行分類[11]。

        4.3 實(shí)驗(yàn)環(huán)境與參數(shù)設(shè)置

        4.3.1 實(shí)驗(yàn)環(huán)境

        本文實(shí)驗(yàn)基于PyTorch深度學(xué)習(xí)框架,具體訓(xùn)練環(huán)境配置如表2所示。

        Table 2 Experimental environment

        為了提高模型的收斂速度,本文模型對(duì)BERT層與圖神經(jīng)網(wǎng)絡(luò)層設(shè)置了不同的學(xué)習(xí)率,具體的超參數(shù)設(shè)置如表3所示。

        Table 3 Parameters setting

        4.4 實(shí)驗(yàn)與結(jié)果分析

        4.4.1 評(píng)價(jià)指標(biāo)

        準(zhǔn)確率accuracy:預(yù)測(cè)正確的樣本占全體樣本的比例,即在所有類別中真正例(TP)和真假例(TN)占所有樣本的比例,如式(14)所示:

        (14)

        宏平均F1值(MacroF1):在所有類別中求出平均精確率MacroP與平均召回率MacroR,再對(duì)精確率與召回率求調(diào)和平均值。這個(gè)指標(biāo)綜合考察了模型分類的精確率(查準(zhǔn)率)與召回率(查全率),值的大小取決于二者中較小的值,屬于綜合評(píng)價(jià)指標(biāo),如式(15)所示:

        (15)

        4.4.2 實(shí)驗(yàn)結(jié)果

        本文在SemEval-2014任務(wù)4中的2個(gè)數(shù)據(jù)集與Twitter數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn),并對(duì)比6個(gè)基線模型,實(shí)驗(yàn)結(jié)果如表4所示。本文模型的分類結(jié)果的混淆矩陣如圖4所示。

        Figure 4 Confusion matrix圖4 混淆矩陣

        圖4的混淆矩陣直觀展示了模型在不同類別上的分類情況,4個(gè)子圖分別展示了模型在Restaurant、Laptop、Twitter及總體數(shù)據(jù)上的混淆矩陣情況。其中0、1、2分別表示消極、中性、積極的情感極性。圖4d總體數(shù)據(jù)混淆矩陣顯示,被模型預(yù)測(cè)為積極的1 285個(gè)樣本中(第3列),有124個(gè)數(shù)據(jù)樣本實(shí)際為中性樣本,僅有43個(gè)數(shù)據(jù)樣本實(shí)際為消極樣本,這表明本文模型在積極這個(gè)情感極性上有較好的分類性能。

        從表4可以看出,本次實(shí)驗(yàn)中宏平均F1值相比準(zhǔn)確率提升幅度更大,在3個(gè)數(shù)據(jù)集上分別提升了2.79%,0.93%和0.45%,說明本文模型在多個(gè)情感極性上既能查得準(zhǔn),也能查得全。

        本文模型在Restaurant數(shù)據(jù)集上的分類效果最好,在Laptop上其次,原因是評(píng)論者在撰寫餐廳評(píng)論時(shí)語法簡(jiǎn)單,更加遵循“就近原則”。另外,SemEval-2014任務(wù)4的2個(gè)數(shù)據(jù)集中的積極情感占比都超過了50%,更易區(qū)分,因此所有模型在其上面都有比較好的分類結(jié)果。所有模型在Twitter數(shù)據(jù)集上分類準(zhǔn)確率都不高,這是由于Twitter數(shù)據(jù)集的方面詞對(duì)應(yīng)的實(shí)體不同,不同的樣本句式差異較大,并包含了一些網(wǎng)絡(luò)流行語、反諷等,因此分類準(zhǔn)確率較低。

        使用了句法依存樹的模型CDT在前2個(gè)數(shù)據(jù)集上的分類效果相比于TNET-LF模型的有了較高的提升,說明在方面級(jí)情感分析任務(wù)上使用圖神經(jīng)網(wǎng)絡(luò)以及對(duì)句法結(jié)構(gòu)解析樹進(jìn)行編碼是有效的。同時(shí),BERT-SPC模型在2個(gè)數(shù)據(jù)集上也有較好的分類效果,原因是BERT在預(yù)訓(xùn)練階段對(duì)大量通用文本語料進(jìn)行過無監(jiān)督學(xué)習(xí),詞表示的語義信息更加豐富。BERT-AEN采用的對(duì)方面詞與上下文的建模有助于模型捕捉2個(gè)部分的內(nèi)在聯(lián)系,因此也有較高的準(zhǔn)確率。TD-GAT與DREGCN都是在句法關(guān)系圖上使用圖神經(jīng)網(wǎng)絡(luò),并通過BERT預(yù)訓(xùn)練模型增強(qiáng)分類性能,與本文模型在設(shè)計(jì)思路上類似,但本文模型在準(zhǔn)確率上仍比二者高了1%~3%,這說明利用詞共現(xiàn)圖表示特殊的語法結(jié)構(gòu)相比使用句法圖表示有更好的效果。

        4.4.3 對(duì)比分析

        為了得到模型參數(shù)的最優(yōu)值,本文選取了不同的參數(shù)進(jìn)行對(duì)比分析,實(shí)驗(yàn)結(jié)果如圖5、圖6和表5所示。

        如圖5所示,詞共現(xiàn)窗口大小在2到3時(shí)準(zhǔn)確率會(huì)提升。當(dāng)窗口大小大于3時(shí),準(zhǔn)確率會(huì)下降,這是因?yàn)楣?jié)點(diǎn)間的連接過于緊密反而會(huì)增大模型收斂的難度。

        圖6展示了注意力頭數(shù)與門控層數(shù)(step)的關(guān)聯(lián)關(guān)系,以及它們對(duì)準(zhǔn)確率的影響(在Restaurant數(shù)據(jù)集上)。通過實(shí)驗(yàn)可知,門控層數(shù)為1到2時(shí),隨著注意力頭數(shù)的增加,模型的性能更好,這說明多個(gè)注意力頭可以學(xué)習(xí)到節(jié)點(diǎn)不同子空間的相關(guān)信息,有助于提高模型的分類效果。另一方面,增加門控層層數(shù)與增加注意力頭數(shù)能夠提升模型分類準(zhǔn)確率的本質(zhì)原因是相同的,即提升網(wǎng)絡(luò)的復(fù)雜度,使模型獲得了更豐富的特征,但當(dāng)門控層網(wǎng)絡(luò)已經(jīng)很復(fù)雜時(shí),再增加注意力頭數(shù)會(huì)使得整個(gè)模型難以收斂,因此在3層門控層時(shí),隨著注意力頭數(shù)的增加,模型準(zhǔn)確率反而下降了。

        Table 4 accuracy and MacroF1 of models

        Figure 5 Relationship between window size and accuracy圖5 窗口大小與準(zhǔn)確率關(guān)系圖

        Figure 6 Relationship numbers of attention heads and gated layers圖6 注意力頭數(shù)量與門控層數(shù)關(guān)系圖

        從表5可以看出,提取方面詞節(jié)點(diǎn)輸入softmax層的準(zhǔn)確率高于平均池化與最大池化的,原因是平均池化與最大池化會(huì)重新引入無關(guān)信息,使之在多意見詞樣本中引起誤差,從而影響整體的分類準(zhǔn)確率。

        Table 5 Experimental results of different pooling methods

        本文對(duì)模型的各個(gè)組件在Laptop數(shù)據(jù)集上進(jìn)行了消融分析,結(jié)果如表6所示。

        Table 6 Ablation results of different models

        本文嘗試了將門控層數(shù)設(shè)置為零的實(shí)驗(yàn),此時(shí)本文模型退化為僅使用BERT與自注意力網(wǎng)絡(luò),即在BERT-SPC模型基礎(chǔ)上增加一個(gè)自注意力層。模型的準(zhǔn)確率與BERT-SPC的接近但低于本文模型的,這說明使用門控圖神經(jīng)網(wǎng)絡(luò)對(duì)模型準(zhǔn)確率的提高有一定幫助。此外,在BCGN中去除了自注意力層后模型準(zhǔn)確率有一定下降,這是因?yàn)椴糠謽颖静粷M足“就近原則”,額外的一層自注意力層起到了特征平滑的作用。使用兩層門控圖神經(jīng)網(wǎng)絡(luò)在方面級(jí)情感分析任務(wù)上能取得最佳效果,因?yàn)閱螌拥拈T控圖神經(jīng)網(wǎng)絡(luò)無法捕捉高階鄰居節(jié)點(diǎn)信息。以Laptop數(shù)據(jù)集中的一個(gè)樣本“Did not enjoy the new Win 8 and touchscreen functions”為例,預(yù)處理后的句子為[not enjoy new Win 8 touchscreen functions],“Win 8”是該樣本的方面詞,“enjoy”是意見詞,在第1層GGNN時(shí)方面詞“Win 8”會(huì)選擇性融合包括“enjoy”在內(nèi)的4個(gè)詞,而“enjoy”會(huì)選擇性融合包括“not”在內(nèi)的3個(gè)詞,這顯然會(huì)誤導(dǎo)分類結(jié)果,因?yàn)榈?層時(shí)“not”未融入方面詞,但在第2層GGNN時(shí)“not”已經(jīng)融入“enjoy”進(jìn)行修正從而正確融入方面詞,隨著多次迭代訓(xùn)練后模型能自動(dòng)選擇正確的意見詞信息。

        最后,本文從3個(gè)數(shù)據(jù)集中選取6條數(shù)據(jù)樣本驗(yàn)證模型在多意見詞樣本上的分類性能,結(jié)果如表7所示。

        從表7可以看出,當(dāng)意見詞有2種情感極性時(shí),本文模型依靠結(jié)構(gòu)信息能夠捕捉正確的意見詞,相比其它模型可靠性更高。

        Table 7 Sample analysis

        4.4.4 模型通用性驗(yàn)證

        為了驗(yàn)證BCGN在方面級(jí)情感分析任務(wù)上的通用性,本文對(duì)數(shù)據(jù)樣本進(jìn)行擴(kuò)充,在REST15與REST16數(shù)據(jù)集上進(jìn)行測(cè)試,并和基線模型TNET-LF以及僅在Restaurant上訓(xùn)練的模型BCGN*進(jìn)行對(duì)比分析,實(shí)驗(yàn)結(jié)果如表8所示。

        Table 8 Experimental results of different models

        實(shí)驗(yàn)結(jié)果表明,BCGN在新的樣本集上仍有較高的分類準(zhǔn)確率與宏平均F1值;直接遷移的模型BCGN*在未經(jīng)訓(xùn)練的情況下也有不低的分類性能,這證明了BCGN能有效提取文本的特征,準(zhǔn)確地判別給定方面詞的情感極性,在方面級(jí)情感分析任務(wù)上有一定的通用性。

        5 結(jié)束語

        本文提出了一種基于詞共現(xiàn)的方面級(jí)情感分析模型,一方面通過BERT捕捉方面詞與上下文之間的語義關(guān)系,得到帶有交互注意力的節(jié)點(diǎn)信息;另一方面引入圖結(jié)構(gòu)信息,并在構(gòu)建圖時(shí)為每個(gè)數(shù)據(jù)樣本建立獨(dú)立的圖,通過門控圖神經(jīng)網(wǎng)絡(luò)捕捉鄰近方面詞的意見詞,改善了意見詞混淆問題。在SemEval-2014的2個(gè)數(shù)據(jù)集與Twitter數(shù)據(jù)集上驗(yàn)證了模型的有效性。由于本文模型的結(jié)構(gòu)信息是對(duì)所有數(shù)據(jù)樣本構(gòu)建圖,而方面級(jí)情感分析的幾個(gè)數(shù)據(jù)集樣本量較小,文本長度也在80個(gè)詞以內(nèi),因此運(yùn)行成本較低,但在長文本或大數(shù)據(jù)集上運(yùn)行時(shí)可能對(duì)設(shè)備有較高要求,因此在后續(xù)的工作中,需優(yōu)化共現(xiàn)圖的存儲(chǔ)方式,減少內(nèi)存占用。

        猜你喜歡
        分類情感信息
        分類算一算
        如何在情感中自我成長,保持獨(dú)立
        失落的情感
        北極光(2019年12期)2020-01-18 06:22:10
        情感
        分類討論求坐標(biāo)
        如何在情感中自我成長,保持獨(dú)立
        數(shù)據(jù)分析中的分類討論
        教你一招:數(shù)的分類
        訂閱信息
        中華手工(2017年2期)2017-06-06 23:00:31
        展會(huì)信息
        国产婷婷丁香久久综合| 国产av无码专区亚洲av麻豆| 97人妻人人做人碰人人爽| 亚洲自偷自拍熟女另类| 毛片无遮挡高清免费久久| 国产精品久久婷婷六月| 女色av少妇一区二区三区| 孕妇特级毛片ww无码内射| 亚洲va在线va天堂va手机| 精品午夜一区二区三区| 亚洲中文字幕乱码第一页| 久久精品国产久精国产果冻传媒| 熟妇与小伙子matur老熟妇e| 久久精品女人天堂AV一个| 国产激情在线观看免费视频| 成人做受黄大片| 国产喷水福利在线视频| 性色av成人精品久久| 国产麻豆精品传媒av在线| 午夜福利啪啪片| 亚洲AV永久青草无码性色av| 久久精品国语对白黄色| 日韩av无码中文字幕| 日日av拍夜夜添久久免费 | 伊人久久精品久久亚洲一区| 中文字幕亚洲综合久久| 久久精品人人做人人爽| 日韩精品视频在线观看免费| 国产成人精品久久二区二区91 | 国产精品亚洲欧美云霸高清| 午夜香蕉av一区二区三区| 五月激情综合婷婷六月久久| 亚洲精品无码成人a片| 中文字幕第一页亚洲观看| 自拍视频在线观看国产| 丰满少妇高潮惨叫久久久一| 久久av无码精品一区二区三区| 亚洲国产中文字幕九色| 久久99国产精品久久| 久久亚洲sm情趣捆绑调教| 日韩精品中文字幕人妻中出|