亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于局部特征聚焦的方面級(jí)情感分析

        2023-01-01 00:00:00余本功張書高春陽

        -摘 要:現(xiàn)有方面級(jí)情感分析模型忽略了各詞間句法關(guān)系且未能針對(duì)性地提取語義信息。為此,提出一種可聚焦局部上下文特征的方面級(jí)情感分析模型,其核心思想在于構(gòu)建局部上下文加權(quán)鄰接圖和動(dòng)態(tài)賦權(quán)方法,通過圖卷積神經(jīng)網(wǎng)絡(luò)生成聚焦于局部上下文信息的方面詞特征。具體地,首先采用局部上下文動(dòng)態(tài)賦權(quán)方式增加局部上下文的關(guān)注度;其次,在提取句法依存關(guān)系的基礎(chǔ)上為上下文各節(jié)點(diǎn)賦權(quán),構(gòu)建針對(duì)局部上下文賦權(quán)的鄰接圖;最后,由圖卷積神經(jīng)網(wǎng)絡(luò)提取聚焦于局部上下文信息的方面詞特征。在公開數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果表明,與ASGCN相比,提出模型在restaurant和laptop數(shù)據(jù)集中的宏F1值分別提高了1.76%和1.12%,經(jīng)過局部上下文加權(quán),聚焦局部特征所得信息有助于提高分類效果。

        關(guān)鍵詞:方面級(jí)情感分析; 局部上下文加權(quán); 圖卷積神經(jīng)網(wǎng)絡(luò); 句法依存; 局部特征聚焦

        中圖分類號(hào):TP391 文獻(xiàn)標(biāo)志碼:A

        文章編號(hào):1001-3695(2023)03-007-0682-07

        doi:10.19734/j.issn.1001-3695.2022.07.0364

        Aspect-based sentiment analysis based on local feature focusing

        Yu Bengonga,b, Zhang Shuwena, Gao Chunyanga

        (a.School of Management, b.Key Laboratory of Process Optimization amp; Intelligent Decision-Making of Ministry of Education, Hefei University of Technology, Hefei 230009, China)

        Abstract:The existing aspect-based sentiment analysis models ignore the syntactic relationship between words and fail to extract targeted semantic information. To alleviate the problem, this paper proposed an aspect-based sentiment analysis model to focus on local contextual features. The core idea was to construct local context weighted adjacency graph and dynamic weighting method, and generated aspect word features focusing on local context information through graph convolutional neural network. Specifically, the model adopted the local context dynamic weighting method to increase the attention to the local context during the feature extraction process. Secondly, it assigned weights to the context nodes based on the syntactic dependency relationship, and constructed an adjacency graph for the local context weighting. Finally, under the influence of the multi-layer graph convolutional neural network, it continuously extracted the aspect word features focusing on the local context information. The experimental results shows that, compared with ASGCN, the macro-F1 value on the restaurant and laptop datasets increase by 1.76% and 1.12%, respectively. With the local context weighting, local feature focusing can help to improve the classification effect.

        Key words:aspect-based sentiment analysis; local context weighting; graph convolutional network(GCN); syntactic depen-dency; local features focusing

        0 引言

        隨著互聯(lián)網(wǎng)技術(shù)和社交媒體的不斷發(fā)展,由用戶生成的評(píng)論數(shù)據(jù)迅速增長(zhǎng)。面對(duì)海量數(shù)據(jù),如何利用自然語言處理(natural language processing,NLP)技術(shù)挖掘信息是當(dāng)前研究熱點(diǎn)。憑借細(xì)粒度地挖掘評(píng)論中不同方面情感極性,方面級(jí)情感分析(aspect-based sentiment analysis, ABAS)已成為NLP領(lǐng)域的重要研究方向,且受到眾多研究人員的高度關(guān)注。方面級(jí)情感分析研究也應(yīng)用于多種系統(tǒng)中,赫玫等人[1]針對(duì)在線評(píng)論構(gòu)建了一種基于特征觀點(diǎn)對(duì)的產(chǎn)品推薦模型;趙明清等人[2]通過分析微博綜合情感傾向來預(yù)測(cè)股票價(jià)格變化;李紹華等人[3]通過分析微博評(píng)論提出一種基于爬蟲和支持向量機(jī)的微博評(píng)論輿情分析模型。

        隨著深度學(xué)習(xí)知識(shí)不斷提升,在方面級(jí)情感分析任務(wù)中,基于卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural network,CNN)可提取局部信息的優(yōu)勢(shì)[4,5]和循環(huán)神經(jīng)網(wǎng)絡(luò)(recurrent neural network,RNN)提取長(zhǎng)距離信息的特點(diǎn)[6,7],兩種深度學(xué)習(xí)知識(shí)常被用于提取上下文特征信息。為了突出與方面詞相關(guān)的上下文特征,多數(shù)研究[8,9]借助注意力機(jī)制根據(jù)相似性賦權(quán)的特性,達(dá)到了將方面詞信息融入上下文特征的效果??紤]到上下文中各詞間包含豐富句法特征,在句法依存解析技術(shù)構(gòu)建鄰接圖基礎(chǔ)上,圖卷積神經(jīng)網(wǎng)絡(luò)(GCN)可卷積提取具有句法關(guān)系的節(jié)點(diǎn)特征[10,11]。

        在ASGCN模型[12]構(gòu)建句法依存鄰接圖基礎(chǔ)上,本文結(jié)合文獻(xiàn)[13]中局部上下文的思想,構(gòu)建了基于局部特征聚焦的方面級(jí)情感分析模型(GCN with local context,LC-GCN)。為了使GCN針對(duì)性地提取聚焦于局部上下文的方面詞特征,本文設(shè)計(jì)了局部上下文加權(quán)構(gòu)建鄰接圖方法和局部上下文動(dòng)態(tài)賦權(quán)操作。具體地,在上下文構(gòu)建鄰接圖基礎(chǔ)上為局部上下文節(jié)點(diǎn)賦權(quán),由此構(gòu)建的鄰接圖針對(duì)性地表達(dá)了上下文中各詞間句法依存關(guān)系,使得GCN提取了融合局部上下文語義信息和句法信息的特征。此外,在每個(gè)圖卷積輸出后使用局部上下文動(dòng)態(tài)賦權(quán)方法,有效地增強(qiáng)下一層圖卷積輸入對(duì)局部上下文的關(guān)注度,實(shí)現(xiàn)了模型有針對(duì)性的提取上下文語義信息。在公開數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果表明,LC-GCN模型提取的局部特征聚焦信息有助于提升細(xì)粒度情感分類效果。

        本文主要貢獻(xiàn)如下:a)為了針對(duì)性地提取評(píng)論文本中方面詞的語義信息,本文提出了局部上下文動(dòng)態(tài)賦權(quán)方法用于增強(qiáng)特征提取過程對(duì)局部上下文的關(guān)注度;b)在評(píng)論文本句法依存圖的基礎(chǔ)上為局部上下文節(jié)點(diǎn)賦權(quán),本文構(gòu)建了融合了上下文句法特征和局部上下文語義信息的鄰接圖;c)為了使最終方面詞特征充分融合局部上下文信息,本文模型采用多層圖卷積網(wǎng)絡(luò)的方式不斷提取聚焦于局部上下文的方面詞特征。

        1 相關(guān)研究

        早期的方面級(jí)情感分析研究主要基于特征工程訓(xùn)練機(jī)器學(xué)習(xí)模型,以監(jiān)督學(xué)習(xí)的方式進(jìn)行情感分類?;跊Q策樹[14]、貝葉斯理論[15]、支持向量機(jī)[16]等機(jī)器學(xué)習(xí)模型訓(xùn)練的方面級(jí)情感分析模型,結(jié)構(gòu)簡(jiǎn)單且取得了不錯(cuò)的分類效果。然而,由于機(jī)器學(xué)習(xí)依賴于大量復(fù)雜特征工程,基于機(jī)器學(xué)習(xí)的模型推廣能力差、實(shí)際應(yīng)用少。近年來,基于深度學(xué)習(xí)方法自動(dòng)提取特征的優(yōu)勢(shì),大量采用深度學(xué)習(xí)知識(shí)的方面級(jí)情感分析模型取得了較好的分類效果。基于循環(huán)神經(jīng)網(wǎng)絡(luò)提取長(zhǎng)距離特征的特點(diǎn),Tang等人[17]利用長(zhǎng)短期記憶網(wǎng)絡(luò)(long short-term memory,LSTM)從方面詞左右兩向?qū)ι舷挛木幋a,生成融入方面詞信息的上下文特征;Xu等人[18]利用雙向門控循環(huán)單元(gate recurrent unit,GRU)融合相互獨(dú)立的詞嵌入編碼提取融合上下文信息的特征表示。憑借卷積神經(jīng)網(wǎng)絡(luò)提取局部特征的優(yōu)勢(shì);Xue等人[19]根據(jù)方面詞與上下文語義相似度構(gòu)建門控卷積網(wǎng)絡(luò),實(shí)現(xiàn)了選擇性地提取與方面詞相關(guān)的上下文特征;Zhang等人[20]采用多層卷積神經(jīng)網(wǎng)絡(luò)不斷強(qiáng)化與方面詞相關(guān)的上下文特征信息。利用RNN和CNN實(shí)現(xiàn)上下文與方面詞交互的形式單一,引入注意力機(jī)制可捕捉與方面詞相關(guān)的特征并降低無關(guān)信息的重要程度。Wang等人[21]使用詞級(jí)別注意力聚集子句特征后,引入子句注意力聚集整體上下文特征,以此構(gòu)建了層級(jí)注意力模型,更高效地融合了方面詞與上下文特征;Huang等人[22]利用雙重注意力機(jī)制共同提取方面詞與上下文的相互表示,生成了更深層次的隱藏特征;考慮到數(shù)據(jù)缺乏導(dǎo)致注意力不能充分提取特征信息,Zhao等人[23]將基于文檔情感分類所得到的注意力權(quán)重以注意力引導(dǎo)和注意力混合兩種方式遷移到方面級(jí)情感分析任務(wù)中,達(dá)到了在有限的數(shù)據(jù)集中充分訓(xùn)練注意力網(wǎng)絡(luò)的效果。

        上述模型專注于提取語法特征,忽略了上下文各詞間存在的句法信息。為了引入上下文各詞間句法信息,多數(shù)模型使用句法依存解析技術(shù)解析上下文各詞間存在的句法依存關(guān)系。Zhang等人[24]將上下文各詞與方面詞之間的句法依存距離作為附加權(quán)重來衡量上下文中各隱藏特征向量與方面詞特征信息間的句法相似度,并使用根據(jù)上下文生成的句法依存樹構(gòu)建了有向和無向兩種鄰接圖[12],根據(jù)不同的稀疏程度提取了不同的句法特征;Liang等人[25]在句法依存圖的基礎(chǔ)上,根據(jù)一條評(píng)論上下文中當(dāng)前方面詞與上下文其他詞存在的關(guān)系和上下文中所有方面詞之間的關(guān)系,分別構(gòu)建了針對(duì)當(dāng)前方面詞和所有方面詞兩種修整后的鄰接圖,進(jìn)而提取了不同的上下文句法信息。根據(jù)上下文各詞句法關(guān)系構(gòu)建鄰接圖后,使用不同的圖模型可提取不同上下文句法特征。根據(jù)由句法依存樹構(gòu)建的鄰接圖,文獻(xiàn)[12]通過GCN提取上下文句法特征的同時(shí),解決了方面詞長(zhǎng)距離依賴問題??紤]到句法依存樹自上而下傳播信息和自下而上聚集信息的特點(diǎn),楊春霞等人[26]使用雙向GCN提取了上下文與方面詞之間包含的句法依存特征;通過在每層GCN間添加上下文門控單元,何麗等人[27]提出的CPGCN模型有效解決了GCN各層間傳播過程中造成信息丟失的問題;考慮到上下文句法依存樹中父節(jié)點(diǎn)可能對(duì)不同子節(jié)點(diǎn)有不同的影響程度,Huang等人[28]使用圖注意力網(wǎng)絡(luò) (graph attention network,GAT) [29]不同程度地將各子節(jié)點(diǎn)特征信息聚集,達(dá)到了有選擇地提取重要節(jié)點(diǎn)特征的效果。

        2 基于局部特征聚焦的方面級(jí)情感分析模型

        2.1 任務(wù)定義與模型介紹

        給定一條長(zhǎng)度為n的評(píng)論文本c=[w1,w2,…,wτ+1,…,wτ+m,…,wn],其子序列t=[wτ+1,…,wτ+m]是長(zhǎng)度為m的方面詞。方面級(jí)情感分析任務(wù)的目的是預(yù)測(cè)評(píng)論文本c中方面詞t的情感極性。本文提出的LC-GCN模型如圖1所示,模型總體結(jié)構(gòu)由上下文特征融合、構(gòu)建加權(quán)矩陣和加權(quán)鄰接圖、方面詞特征提取及情感分類四個(gè)模塊組成。a)模型通過預(yù)訓(xùn)練GloVe語料庫(kù)或預(yù)訓(xùn)練BERT模型生成評(píng)論文本特征向量后,使用BiLSTM網(wǎng)絡(luò)融合文本的上下文特征;b)在局部上下文的基礎(chǔ)上構(gòu)建局部上下文動(dòng)態(tài)加權(quán)矩陣和加權(quán)鄰接圖;c)在多層GCN的影響下,不斷提取聚焦于局部上下文的方面詞特征;d)通過點(diǎn)積注意力提取最終上下文與方面詞的相關(guān)特征,經(jīng)過全連接層后使用softmax分類器分類。

        2.2 上下文特征融合

        2.3 構(gòu)建加權(quán)矩陣和加權(quán)鄰接圖

        基于文獻(xiàn)[13]中提出方面詞特征取決于其周圍信息的思想,本文在更新特征向量和構(gòu)建鄰接圖的過程中,采用賦權(quán)的方式不斷提升對(duì)局部上下文的關(guān)注度。一方面,為了突出局部上下文特征信息的重要性,通過動(dòng)態(tài)賦權(quán)的方式削弱了與方面詞語義無關(guān)的特征信息;另一方面,在由句法依存解析技術(shù)生成文本句法依存圖的基礎(chǔ)上,利用局部上下文賦權(quán)修整句法依存圖,由此構(gòu)成的鄰接圖利用了上下文句法信息的同時(shí)突出了局部上下文信息的重要程度。

        2.3.1 局部上下文

        根據(jù)式(1)可計(jì)算文本中各詞到方面詞的語義相關(guān)距離SRD(semantic-relative distance),其中i和Pa分別表示在上下文中詞wi的位置和方面詞的中心位置,m表示方面詞的長(zhǎng)度。 在文本c中,將方面詞所在位置前α到后α個(gè)上下文詞所組成的子序列l(wèi)c=[wτ+1-α,…,wτ+1,…,wτ+m,…,wτ+m+α]稱為局部上下文。如式(2)所示,比較當(dāng)前詞的語義相關(guān)距離與α大小,可判斷該詞是否屬于局部上下文,其中LCi標(biāo)記當(dāng)前詞wi是否屬于局部上下文,α為調(diào)整局部上下文序列長(zhǎng)度的參數(shù)。

        2.4 方面詞特征提取

        為了提取聚焦于局部上下文的方面詞特征,本文根據(jù)加權(quán)鄰接圖使用了多層GCN提取上下文句法特征。同時(shí),在每層GCN之間,以局部上下文動(dòng)態(tài)賦權(quán)的方式不斷削弱了與方面詞無關(guān)的信息。其次,通過mask標(biāo)記提取由多層GCN生成的聚集了局部上下文信息的方面詞特征。

        2.4.1 局部上下文特征聚焦

        經(jīng)過BiLSTM網(wǎng)絡(luò)融合上下文語義信息后,如何針對(duì)性地提取方面詞情感特征是關(guān)鍵。根據(jù)針對(duì)局部上下文加權(quán)的鄰接圖,本文使用GCN提取文本特征信息,同時(shí)為GCN提取到的非局部上下文特征動(dòng)態(tài)賦權(quán),可針對(duì)性地提取局部上下文句法特征。其次,為了多次卷積提取結(jié)合了局部上下文語義的文本特征,本文通過多層GCN來不斷提取聚焦于局部上下文信息方面詞特征。在GCN特征提取過程中,第l層GCN的每個(gè)節(jié)點(diǎn)特征向量根據(jù)式(7)計(jì)算更新,該過程提取的特征融合了與其相鄰節(jié)點(diǎn)的特征信息。

        2.4.2 mask標(biāo)記方面詞特征

        3 實(shí)驗(yàn)及分析

        為了評(píng)估和分析LC-GCN模型,本實(shí)驗(yàn)在方面級(jí)情感分析領(lǐng)域代表性公開數(shù)據(jù)集上進(jìn)行,同時(shí)與11個(gè)相關(guān)領(lǐng)域模型對(duì)比分析。此外,通過模型分析實(shí)驗(yàn)確定了LC-GCN超參數(shù)設(shè)置,進(jìn)一步經(jīng)過消融實(shí)驗(yàn)驗(yàn)證了局部上下文賦權(quán)對(duì)模型的影響,最后通過實(shí)例預(yù)測(cè)驗(yàn)證了LC-GCN模型的魯棒性。

        3.1 數(shù)據(jù)集

        本文實(shí)驗(yàn)采用SemEval 2014任務(wù)4(http://alt.qcri.org/ semeval2014/task4)[30]中提供的兩種公開數(shù)據(jù)集,分別是顧客關(guān)于飯店(restaurant)和筆記本(laptop)的評(píng)論文本。數(shù)據(jù)集中方面詞情感極性包括積極(positive)、中性(neutral)和消極(negative)三種。實(shí)驗(yàn)過程中將兩種數(shù)據(jù)集劃分成訓(xùn)練集和測(cè)試集,根據(jù)情感極性分類統(tǒng)計(jì)各數(shù)據(jù)量如表1所示。

        3.2 實(shí)驗(yàn)參數(shù)設(shè)置

        本文模型在實(shí)驗(yàn)過程中,將由GloVe語料庫(kù)映射生成的詞嵌入維度e_dim設(shè)置為300,由BERT模型得到的bert_dim設(shè)置為768,將BiLSTM提取的單向隱藏層維度h_dim設(shè)置為300。局部上下文中可調(diào)整參數(shù)α和GCN層數(shù)L可能隨數(shù)據(jù)集中數(shù)據(jù)特征差異而不同,經(jīng)過實(shí)驗(yàn)可得具體參數(shù)值α在restaurant和laptop兩個(gè)數(shù)據(jù)集下分別取8和4,對(duì)于GCN層數(shù)L在兩個(gè)數(shù)據(jù)集下同時(shí)取2為最佳效果。在模型訓(xùn)練過程中,將數(shù)據(jù)按每批32條分批訓(xùn)練,將學(xué)習(xí)率設(shè)置為0.001,并采用Adam優(yōu)化器不斷優(yōu)化模型參數(shù)。此外,本文實(shí)驗(yàn)環(huán)境如表2所示。

        3.3 對(duì)比模型

        為了驗(yàn)證本文模型的有效性,本文對(duì)比的基準(zhǔn)模型分別是由機(jī)器學(xué)習(xí)、卷積神經(jīng)網(wǎng)絡(luò)、注意力機(jī)制、圖卷積網(wǎng)絡(luò)或局部上下文等相關(guān)知識(shí)構(gòu)建的已有模型。

        a)GCAE[19],使用卷積神經(jīng)網(wǎng)絡(luò)提取上下文過程中引入門控機(jī)制,實(shí)現(xiàn)了有選擇地提取與方面詞相關(guān)的上下文信息。

        b)IAN[31],分別使用LSTM網(wǎng)絡(luò)提取上下文和方面詞隱藏特征后,利用交互式注意力機(jī)制來提取方面詞與上下文之間相互影響的特征信息。

        c)AOA[22],通過雙重注意力模型聯(lián)合提取上下文與方面詞之間的交互特征信息。

        d)ASGCN[12],使用句法依存樹知識(shí)構(gòu)建鄰接圖,通過GCN提取上下文句法特征信息。

        e)LCF-GloVe[13],局部上下文動(dòng)態(tài)賦權(quán)后使用多頭自注意力機(jī)制提取特征,將提取的特征信息與全局上下文特征信息拼接后實(shí)現(xiàn)特征加強(qiáng)的效果。

        f)DGCN[32],采用具有殘差連接的雙層BiLSTM網(wǎng)絡(luò)提取上下文特征后,由GCN進(jìn)一步生成句法特征。

        g)AEN-BERT[33],設(shè)計(jì)了一種注意力編碼網(wǎng)絡(luò)用于提取方面詞和上下文之間關(guān)聯(lián)的特征,通過預(yù)訓(xùn)練BERT模型提升了模型表現(xiàn)。

        h)BERT-SPC[34],將評(píng)論文本以“[CLS]上下文[SEP]方面詞[SEP]”作為預(yù)訓(xùn)練BERT模型輸入,以占位符“[CLS]”對(duì)應(yīng)的特征進(jìn)行方面詞情感分類。

        i)CPGCN-MultiATT[27],在圖卷積后使用門控單元,有效地保留了上一層中有用信息。

        j)BERT-MLA[35],在BERT提取上下文特征后,通過多層級(jí)方面注意力網(wǎng)絡(luò),增強(qiáng)了上下文與方面詞之間長(zhǎng)依賴特征信息。

        k)TD-BERT[36],采用預(yù)訓(xùn)練BERT語言模型生成融合全局信息的上下文特征,根據(jù)方面詞位置信息抽取方面詞特征,將其池化后得到最終分類特征。

        3.4 實(shí)驗(yàn)結(jié)果

        為了衡量模型分類效果,本文采用準(zhǔn)確率(accuracy)和宏 F1值(macro-F1)兩種指標(biāo)作為模型評(píng)價(jià)指標(biāo)。各模型經(jīng)過五次實(shí)驗(yàn)后將所得結(jié)果取平均作為最終模型效果,表3展示了各對(duì)比模型和本文模型的實(shí)驗(yàn)結(jié)果數(shù)據(jù),其中標(biāo)記為“”的實(shí)驗(yàn)結(jié)果取自原文。根據(jù)各模型使用詞嵌入工具的不同,將對(duì)比模型分為兩大類。從表3中可以看出,本文模型分類效果總體上優(yōu)于各對(duì)比模型。經(jīng)過與基于GloVe構(gòu)成的模型對(duì)比分析可得出如下結(jié)論:采用卷積神經(jīng)網(wǎng)絡(luò)和注意力機(jī)制的模型可提取豐富的語義特征,卻未考慮與方面詞相關(guān)的句法信息而影響模型效果;ASGCN模型利用圖卷積神經(jīng)網(wǎng)絡(luò)提取上下文句法信息,但未突出與方面詞相關(guān)的語義信息;與本文模型效果較近的LCF-GloVe模型可將方面詞周圍的局部上下文信息融合,但上下文中各節(jié)點(diǎn)存在的語法特征未能有效利用。相比之下,基于BERT構(gòu)建的模型效果明顯優(yōu)于由GloVe構(gòu)建的模型,這歸因于經(jīng)過BERT模型多層編碼與解碼機(jī)制生成的上下文表示充分融合了整體語義信息。同時(shí),基于BERT構(gòu)建的本文模型總體上優(yōu)于其他基于BERT構(gòu)建的模型,這體現(xiàn)了本文構(gòu)建的LC-GCN模型在不同詞嵌入工具下仍取得更優(yōu)效果,由此說明本文構(gòu)建的LC-GCN模型充分融合了上下文的句法信息與局部上下文語義特征,提升了模型分類效果。

        3.5 LC-GCN模型分析

        除了固定參數(shù)設(shè)置,對(duì)于不同的數(shù)據(jù)集,控制局部上下文范圍的參數(shù)α和所需GCN層數(shù)L不同,為了選擇最合適的參數(shù),實(shí)驗(yàn)過程中控制其他條件不變,不斷調(diào)試參數(shù),將效果最好的模型參數(shù)作為當(dāng)前數(shù)據(jù)集下最優(yōu)模型參數(shù)配置。以下實(shí)驗(yàn)均在LC-GCN(GloVe)模型的基礎(chǔ)上進(jìn)行,實(shí)驗(yàn)結(jié)果采用accuracy和macro-F1兩種指標(biāo)衡量模型分類效果。

        3.5.1 局部上下文中參數(shù)α對(duì)模型影響

        由于數(shù)據(jù)集中評(píng)論文本長(zhǎng)度不同、評(píng)論語法規(guī)范程度不一等原因,模型所適合的局部上下文范圍也不同,需要通過不斷調(diào)試參數(shù)α尋找最適合該數(shù)據(jù)集的參數(shù)配置。在控制其他參數(shù)不變的情況下,將α設(shè)置為0~9構(gòu)成的10個(gè)模型進(jìn)行實(shí)驗(yàn)。

        圖2和3分別展示了restaurant和laptop兩種數(shù)據(jù)集下不同α對(duì)應(yīng)的實(shí)驗(yàn)結(jié)果。從圖中可以看出準(zhǔn)確率和macro-F1值隨著α變化,總體呈先上升后下降的趨勢(shì)。具體地,圖2中,不論是準(zhǔn)確率還是macro-F1,由α=8構(gòu)成的模型在restaurant數(shù)據(jù)集上分類效果最好。同樣的方式可得對(duì)于圖3中的laptop數(shù)據(jù)集,當(dāng)α=4時(shí)構(gòu)成的模型分類效果最好。

        3.5.2 GCN層數(shù)L對(duì)模型影響

        控制模型其他參數(shù)不變,隨著GCN層數(shù)L的變化,特征提取程度不一致。在實(shí)驗(yàn)過程中,將GCN層數(shù)L設(shè)置為1~6得到六個(gè)模型進(jìn)行實(shí)驗(yàn)。

        關(guān)于不同GCN層數(shù)L在restaurant和laptop兩種數(shù)據(jù)集下實(shí)驗(yàn)結(jié)果如圖4和5所示。從圖中曲線趨勢(shì)可以看出,兩種數(shù)據(jù)集下當(dāng)L=2時(shí)對(duì)應(yīng)的模型分類效果都處于最好狀態(tài);其次,隨著GCN層數(shù)L的增加,模型分類效果呈現(xiàn)遞減的趨勢(shì),分析可得隨著GCN層數(shù)增加使得模型需訓(xùn)練的參數(shù)增加,在數(shù)據(jù)量有限的情況下模型難以訓(xùn)練。

        3.6 消融實(shí)驗(yàn)

        本文進(jìn)一步通過消融實(shí)驗(yàn),在restaurant和laptop數(shù)據(jù)集中驗(yàn)證了針對(duì)局部上下文賦權(quán)的有效性。實(shí)驗(yàn)以LC-GCN(GloVe)作為源模型,綜合驗(yàn)證局部上下文賦權(quán)的有效性,包括在構(gòu)建鄰接圖時(shí)引入局部上下文權(quán)重和對(duì)上下文隱藏特征進(jìn)行動(dòng)態(tài)賦權(quán)兩部分。首先,在構(gòu)圖過程中去除局部上下文賦權(quán)操作,組成模型-w/o LCG,即使用句法依存圖輸入GCN;其次,刪除本文模型中隱藏特征動(dòng)態(tài)賦權(quán)操作部分,構(gòu)成模型 -w/o LCW;為了驗(yàn)證上下文動(dòng)態(tài)賦權(quán)優(yōu)于位置賦權(quán)操作,將本文模型中上下文動(dòng)態(tài)賦權(quán)部分替換為位置賦權(quán)操作,構(gòu)成模型-w PW。表4展示了將本文LC-GCN模型局部上下文部分替換或刪除構(gòu)成的模型結(jié)果,通過對(duì)比分析可得出如下結(jié)論:a)僅使用句法依存圖構(gòu)建的模型效果不如LC-GCN模型,表明本文模型針對(duì)局部上下文賦權(quán)構(gòu)建的鄰接圖結(jié)合了局部上下文各詞與方面詞的語義信息;b)去除對(duì)上下文隱藏特征動(dòng)態(tài)賦權(quán),或者使用位置信息賦權(quán),兩種方式構(gòu)建的模型分類效果均比LC-GCN模型差,可證明采用動(dòng)態(tài)上下文賦權(quán)的方式有效地利用了局部上下文語義信息。

        3.7 實(shí)例分析

        為了進(jìn)一步驗(yàn)證LC-GCN模型的魯棒性,使用IAN、LCF、ASGCN和LC-GCN作為預(yù)測(cè)模型,分別對(duì)隨機(jī)選取的部分樣例進(jìn)行預(yù)測(cè),預(yù)測(cè)結(jié)果如表5所示。

        通過對(duì)預(yù)測(cè)結(jié)果分析可得出以下結(jié)論:從例1可得,大部分模型對(duì)于簡(jiǎn)單實(shí)例都有正確的表現(xiàn);由于模型IAN和lCF未能提取例2中語法結(jié)構(gòu)信息從而導(dǎo)致誤判的問題,而ASGCN和本文模型經(jīng)過GCN提取了文本中存在的句法信息,對(duì)于這類問題有一定緩解作用;例3中包含多個(gè)方面詞,其中對(duì)于表現(xiàn)為消極情緒的“service”,由于被其他修飾詞干擾部分模型未能正確預(yù)測(cè);例4中方面詞“OS”對(duì)應(yīng)的情感極性為消極,而三個(gè)對(duì)比模型均預(yù)測(cè)為中性,可見本文模型對(duì)于偏中性的方面詞充分考慮了整體信息,進(jìn)而能夠作出正確預(yù)測(cè)??傮w而言,本文提出的LC-GCN模型在多種場(chǎng)景下造成的錯(cuò)誤預(yù)測(cè)有一定的緩解,體現(xiàn)了該模型的魯棒性較強(qiáng)。

        4 結(jié)束語

        本文基于局部上下文和圖卷積網(wǎng)絡(luò)提出了LC-GCN方面級(jí)情感分析模型,一方面,模型在句法依存圖的基礎(chǔ)上與局部上下文權(quán)重矩陣結(jié)合構(gòu)建的鄰接圖,有效地將上下文的句法特征和局部上下文的語義特征結(jié)合;另一方面,將動(dòng)態(tài)賦權(quán)后的上下文隱藏特征輸入多層GCN,不斷提取得到融合了局部上下文信息的方面詞特征。

        本文采用兩種特征表示工具,分別構(gòu)成了LC-GCN(GloVe)和LC-GCN(BERT)兩種變體模型。在關(guān)于顧客對(duì)于酒店和筆記本的評(píng)論數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn),驗(yàn)證了LC-GCN模型可細(xì)粒度地分析顧客情感極性,較基準(zhǔn)模型具有更好的分類效果。此外,在LC-GCN(GloVe)的基礎(chǔ)上,對(duì)模型中針對(duì)局部上下文構(gòu)圖和動(dòng)態(tài)賦權(quán)兩部分進(jìn)行模型消融實(shí)驗(yàn),結(jié)果表明賦權(quán)后的上下文鄰接圖和隱藏特征向量進(jìn)一步提升了GCN提取特征效果。根據(jù)不同數(shù)據(jù)集語料特點(diǎn),本文對(duì)模型進(jìn)行了參數(shù)敏感性實(shí)驗(yàn),從而選取了最優(yōu)的模型參數(shù)。

        從文本構(gòu)成的句法依存樹分析發(fā)現(xiàn),各節(jié)點(diǎn)到方面詞節(jié)點(diǎn)的句法依存距離大小體現(xiàn)了對(duì)方面詞信息的影響程度。類似于本文使用的語意距離體現(xiàn)了文本之間語意相關(guān)性,句法依存距離進(jìn)一步包含了文本間存在的句法相似特征。未來工作可進(jìn)一步引入句法依存距離,用于有針對(duì)性地提取文本信息與方面詞之間存在的句法特征。

        參考文獻(xiàn):

        [1]郝玫,馬建峰. 在線評(píng)論中基于動(dòng)態(tài)窗口提取特征觀點(diǎn)對(duì)的產(chǎn)品推薦模型[J]. 系統(tǒng)工程理論與實(shí)踐,2018,38(9):2363-2375. (Hao Mei,Ma Jianfeng. Product recommendation model based on dynamic window for feature opinion pair extraction in online review[J]. Systems Engineering—Theory amp; Practice,2018,38(9):2363-2375.)

        [2]趙明清,武圣強(qiáng). 基于微博情感分析的股市加權(quán)預(yù)測(cè)方法研究[J]. 數(shù)據(jù)分析與知識(shí)發(fā)現(xiàn),2019,3(2):43-51. (Zhao Mingqing,Wu Shengqiang. Research on stock market weighted prediction me-thod based on micro-blog sentiment analysis[J]. Data Analysis and Knowledge Discovery,2019,3(2):43-51.)

        [3]李紹華,馮晶瑩,張皓泓,等. 基于支持向量機(jī)的微博評(píng)論輿情分析[J]. 大學(xué)圖書情報(bào)學(xué)刊,2021,39(5):110-116. (Li Shaohua,F(xiàn)eng Jingying,Zhang Haohong,et al. Public opinion analysis of microblog comments based on support vector machine[J]. Journal of Academic Library and Information Science,2021,39(5):110-116.)

        [4]李慧,柴亞青. 基于卷積神經(jīng)網(wǎng)絡(luò)的細(xì)粒度情感分析方法[J]. 數(shù)據(jù)分析與知識(shí)發(fā)現(xiàn),2019,3(1):95-103. (Li Hui,Chai Yaqing. Fine-grained sentiment analysis based on convolutional neural network[J]. Data Analysis and Knowledge Discovery,2019,3(1):95-103.)

        [5]Nayoan R A N,Hidayantullah A F,F(xiàn)udholi D H. Convolutional neural networks for indonesian aspect-based sentiment analysis tourism review[C]//Proc of the 9th International Conference on Information and Communication Technology. Piscataway,NJ:IEEE Press,2021:60-65.

        [6]Srividyak K,Sowjanya A M. WITHDRAWN:NA-DLSTM—a neural attention based model for context aware aspect-based sentiment analysis[J/OL]. Materials Today:Proceedings. (2021). https://doi.org/10.1016/j.matpr.2021.01.782.

        [7]Sivakumar M,Uyyala S R. Aspect-based sentiment analysis of mobile phone reviews using LSTM and fuzzy logic[J]. International Journal of Data Science and Analytics,2021,12(10):355-367.

        [8]楊玉亭,馮林,代磊超,等. 面向上下文注意力聯(lián)合學(xué)習(xí)網(wǎng)絡(luò)的方面級(jí)情感分類模型[J]. 模式識(shí)別與人工智能,2020,33(8):753-765. (Yang Yuting,F(xiàn)eng Lin,Dai Leichao,et al. Context-oriented attention joint learning network for aspect-level sentiment classification[J]. Pattern Recognition and Artificial Intelligence,2020,33(8):753-765.)

        [9]Lin Yuming,F(xiàn)u Yu,Li You,et al. Aspect-based sentiment analysis for online reviews with hybrid attention networks[J]. World Wide Web,2021,24(4):1215-1233.

        [10]Zuo Enguang,Zhao Hui,Chen Bo,et al. Context-specific heterogeneous graph convolutional network for implicit sentiment analysis[J]. IEEE Access,2020,8:37967-37975.

        [11]Zhao Pinlong,Hou Linlin,Wu Ou. Modeling sentiment dependencies with graph convolutional networks for aspect-level sentiment classification[J]. Knowledge-Based Systems,2020,193(4):105443.

        [12]Zhang Chen,Li Qiuchi,Song Dawei. Aspect-based sentiment classification with aspect-specific graph convolutional networks[EB/OL]. (2019-10-13). http://doi.org/10.48550/arxiv.1909.03477.

        [13]Zeng Biqing,Yang Heng,Xu Ruyang,et al. LCF:a local context focus mechanism for aspect-based sentiment classification[J]. Applied Sciences,2019,9(16):3389.

        [14]Chauhan C,Sehgal S. Sentiment classification for mobile reviews using KNIME[C]//Proc of International Conference on Computing,Power and Communication Technologies. Piscataway,NJ:IEEE Press,2018:548-553.

        [15]Das S,Kolya A K. Sense GST:text mining amp; sentiment analysis of GST tweets by naive Bayes algorithm[C]//Proc of the 3rd International Conference on Research in Computational Intelligence and Communication Networks. Piscataway,NJ:IEEE Press,2017:239-244.

        [16]Luo Fang,Li Cheng,Cao Zehui. Affective-feature-based sentiment analysis using SVM classifier[C]//Proc of the 20th IEEE Internatio-nal Conference on Computer Supported Cooperative Work in Design. Piscataway,NJ:IEEE Press,2016:276-281.

        [17]Tang Duyu,Qin Bing,F(xiàn)eng Xiaocheng,et al. Effective LSTMs for target-dependent sentiment classification[C]//Proc of the 26th International Conference on Computational Linguistics:Technical. Stroudsburg,PA:Association for Computational Linguistics,2016:3298-3307.

        [18]Xu Lu,Bing Lidong,Lu Wei,et al. Aspect sentiment classification with aspect-specific opinion spans[C]//Proc of Conference on Empi-rical Methods in Natural Language Processing. Stroudsburg,PA:Association for Computational Linguistics,2020:3561-3567.

        [19]Xue Wei,Li Tao. Aspect based sentiment analysis with gated convolutional networks[C]//Proc of the 56th Annual Meeting of Association for Computational Linguistics. Stroudsburg,PA:Association for Computational Linguistics,2018:2514-2523.

        [20]Zhang Suqi,Xu Xinyun,Pang Yanwei,et al. Multi-layer attention based CNN for target-dependent sentiment classification[J]. Neural Processing Letters,2020,51(3):2089-2103.

        [21]Wang Yequan,Huang Minlie,Zhu Xiaoyan,et al.Attention-based LSTM for aspect-level sentiment classification[C]//Proc of Conference on Empirical Methods in Natural Language Processing. Stroudsburg,PA:Association for Computational Linguistics,2016:606-615.

        [22]Huang Binxuan,Ou Yanglan,Carley K M. Aspect level sentiment classification with attention-over-attention neural networks[C]//Proc of the 11th International Conference on Social Computing,Behavioral-Cultural Modeling and Prediction and Behavior Representation in Modeling and Simulation. Cham:Springer,2018:197-206.

        [23]Zhao Fei,Wu Zhen,Da Xinyu. Attention transfer network for aspect-level sentiment classification[C]//Proc of the 28th International Conference on Computational Linguistics. Stroudsburg,PA:Association for Computational Linguistics,2020:811-821.

        [24]Zhang Chen,Li Qiuchi,Song Dawei. Syntax-aware aspect-level sentiment classification with proximity-weighted convolution network[C]//Proc of the 42nd International ACM SIGIR Conference on Research and Development in Information Retrieval. New York:ACM Press,2019:1145-1148.

        [25]Liang Bin,Yin Rongdi,Gui Lin,et al. Jointly learning aspect-focused and inter-aspect relations with graph convolutional networks for aspect sentiment analysis[C]//Proc of the 28th International Conference on Computational Linguistics. Stroudsburg,PA:Association for Computational Linguistics,2020:150-161.

        [26]楊春霞,瞿濤,吳佳君. 基于BiGCN和IAM的方面級(jí)情感分類模型[J]. 計(jì)算機(jī)工程與應(yīng)用,2022,58(11):178-186. (Yang Chunxia,Qu Tao,Wu Jiajun. Aspect level sentiment classification model based on BiGCN and IAM[J]. Computer Engineering and Applications,2022,58(11):178-186.)

        [27]何麗,房婉琳,張紅艷. 基于上下文保持能力的方面級(jí)情感分類模型[J]. 模式識(shí)別與人工智能,2021,34(2):157-166. (He Li,F(xiàn)ang Wanlin,Zhang Hongyan. Aspect-level sentiment classification model based on context-preserving capability[J]. Pattern Recognition and Artificial Intelligence,2021,34(2):157-166.)

        [28]Huang Lianzhe,Sun Xin,Li Sujian,et al. Syntax-aware graph attention network for aspect-level sentiment classification[C]//Proc of the 28th International Conference on Computational Linguistics. Stroudsburg,PA:Association for Computational Linguistics,2020:799-810.

        [29]Velickovic P,Cucurull G,Casanova A,et al. Graph attention networks[EB/OL]. (2018-02-04). https://arxiv.org/pdf/1710.10903.pdf.

        [30]Kirange D K,Deshmukh R R,Kirange M D K. Aspect based sentiment analysis SEMEVAL-2014 task 4[J]. Asian Journal of Computer Science and Information Technology,2014,8:72-75.

        [31]Ma Dehong,Li Sujian,Zhang Xiaodong,et al. Interactive attention networks for aspect-level sentiment classification[EB/OL]. (2017-09-04). https://doi.org/10.48550/arxiv.1709.00893.

        [32]巫浩盛,繆裕青,張萬楨,等. 基于距離與圖卷積網(wǎng)絡(luò)的方面級(jí)情感分析[J]. 計(jì)算機(jī)應(yīng)用研究,2021,38(11):3274-3278,3321. (Wu Haosheng,Miao Yuqing,Zhang Wanzhen,et al. Aspect level sentiment analysis based on distance and graph convolution network[J]. Application Research of Computers,2021,38(11):3274-3278,3321.)

        [33]Song Youwei,Wang Jiahai,Jiang Tao,et al. Targeted sentiment classification with attentional encoder network[C]//Proc of the 28th International Conference on Artificial Neural Networks. Cham:Springer,2019:93-103.

        [34]Devlin J,Chang Mingwei,Lee K,et al. BERT:pre-training of deep bidirectional transformers for language understanding[C]//Proc of Conference of North American Chapter of Association for Computational Linguistics:Human Language Technologies. Stroudsburg,PA:Association for Computational Linguistics,2019:4171-4186.

        [35]袁勛,劉蓉,劉明. 融合多層注意力的方面級(jí)情感分析模型[J]. 計(jì)算機(jī)工程與應(yīng)用,2021,57(22):147-152. (Yuan Xun,Liu Rong,Liu Ming. Aspect-level sentiment analysis model incorporating multi-layer attention[J]. Computer Engineering and Applications,2021,57(22):147-152.)

        [36]Gao Zhengjie,F(xiàn)eng Ao,Song Xinyu,et al. Target-dependent sentiment classification with BERT[J]. IEEE Access,2019,7:154290-154299.

        收稿日期:2022-07-18;修回日期:2022-09-19 基金項(xiàng)目:國(guó)家自然科學(xué)基金資助項(xiàng)目(72071061);國(guó)家重點(diǎn)研發(fā)計(jì)劃資助項(xiàng)目(2019YFE0110300)

        作者簡(jiǎn)介:余本功(1971-),男,安徽合肥人,教授,博導(dǎo),博士,主要研究方向?yàn)樾畔⑾到y(tǒng)工程、自然語言處理(bgyu@hfut.edu.cn);張書文(1996-),男,江西贛州人,碩士研究生,主要研究方向?yàn)樽匀徽Z言處理;高春陽(1997-),男,河南周口人,碩士研究生,主要研究方向?yàn)樽匀徽Z言處理.

        日出白浆视频在线播放| 亚洲AV无码乱码一区二区三区 | 草莓视频成人| 日韩不卡无码三区| 久久日本视频在线观看| 肉色欧美久久久久久久免费看| 男人边吻奶边挵进去视频| 91青青草久久| 蜜桃av中文字幕在线观看| 久久亚洲精品成人av无码网站| 国产亚洲av手机在线观看| 人妻无码ΑV中文字幕久久琪琪布| 中文字幕乱码人妻在线| 又湿又紧又大又爽a视频国产| 性一乱一搞一交一伦一性| 免费一级国产大片| 男女啪啪啪的高清视频| 国产欧美一区二区精品久久久| 无码国产精品一区二区vr老人| 无码伊人久久大蕉中文无码| 亚洲成人精品在线一区二区| 久久久久久久综合综合狠狠| 亚欧国产女人天堂Av在线播放| 国产一区二区三区视频免费在线| 丰满少妇被啪啪到高潮迷轩| 国产精品户外野外| 国产午夜久久久婷婷| 久草视频在线播放免费| 亚洲国产精品无码久久一区二区| 欧美第一黄网免费网站| 精品国产91久久久久久久a| 在线人妻va中文字幕| 亚洲一区二区三区香蕉| 亚洲一区二区综合色精品| 日韩av综合色区人妻| 豆国产96在线 | 亚洲| 玩两个丰满老熟女| 极品人妻少妇一区二区| 国产一区二区三区仙踪林| 亚洲精品无码久久久久秋霞| 91精品国产综合久久青草|