亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        面向虛假信息的多模態(tài)在線評論情感分析

        2025-03-16 00:00:00張國防袁國強(qiáng)趙勝利

        DOI:10.3969/j.issn.10001565.2025.02.012

        摘" 要:首先,經(jīng)過Glove詞嵌入和雙向長短時(shí)記憶網(wǎng)絡(luò)獲取評論數(shù)據(jù)中文本詞語的向量表示.然后,基于詞語的句法信息、語義信息和上下文信息,構(gòu)建異質(zhì)融合圖,并結(jié)合圖注意力機(jī)制,學(xué)習(xí)評論中的文本特征,進(jìn)而通過多層感知機(jī)融合基于自編碼方法獲取的表情符號特征,并輸出關(guān)于虛假信息評論內(nèi)容的情感極性向量.實(shí)驗(yàn)結(jié)果表明,與所有的基線模型相比,使用本文所提出的多模態(tài)情感分析模型能夠充分挖掘社交網(wǎng)絡(luò)用戶表達(dá)觀點(diǎn)和感情時(shí)表情符號與文本之間的潛在交互性,從而更為有效地評估虛假信息評論內(nèi)容的情感傾向性,表征網(wǎng)絡(luò)用戶的情感態(tài)度或?qū)傩裕M(jìn)而為提出面向情感分析結(jié)果的社交網(wǎng)絡(luò)虛假傳播抑制策略提供用戶情感分類方面的理論支撐.

        關(guān)鍵詞: 圖神經(jīng)網(wǎng)絡(luò);自編碼器;虛假信息;在線評論;情感傾向

        中圖分類號:O29""" 文獻(xiàn)標(biāo)志碼:A""" 文章編號:10001565(2025)02021609

        Multimodal online comment sentiment analysis for disinformation

        ZHANG Guofang1,YUAN Guoqiang2,ZHAO Shengli3

        (1. School of Cyber Security and Computer, Hebei University, Baoding 071002, China;

        2. School of Big Data Science, Hebei Finance University, Baoding 071051, China;

        3. College of Civil Engineering and Architecture,Hebei Univerisity,Baoding 071002,China)

        Abstract: In this paper, firstly,the vector representations of text words in comment data are obtained by using Glove word embedding and bidirectional long short-term memory networks. Then, the syntactic information, semantic information, and contextual information of the words are used to construct a heterogeneous fusion graph and combined with graph attention mechanism to learn the text features in the comments. Furthermore, the expression symbol features obtained on the basis of the auto-encoder method are fused through a multi-layer perceptron, and an emotional polarity vector about the disinformation comment content is output. The research results indicate that compared with all baseline models, the multimodal sentiment analysis model proposed in this paper can fully explore the potential interaction between emoticon and text when social network users express their opinions and emotions. This can more effectively evaluate the emotional tendency of disinformation comments, characterize the emotional attitudes or attributes of network users, and achieve effective classification of user emotions. Furthermore, the proposed model provides theoretical support for proposing strategies to suppress 1 propagation in social networks based on sentiment analysis results, in terms of user sentiment classification.

        Key words: graph neural network; auto-encoder; disinformation; online comments; sentiment inclination

        收稿日期:20240701;修回日期:20241112

        基金項(xiàng)目:

        河北省社科基金資助項(xiàng)目(HB23TQ004)

        第一作者:張國防(1979—),男,河北大學(xué)副教授,博士,主要從事不確定信息處理、社交網(wǎng)絡(luò)分析、輿情分析方向研究.E-mail:zgf@hbu.edu.cn

        通信作者:袁國強(qiáng)(1978—),男,河北金融學(xué)院教授,博士,主要從事模糊優(yōu)化、信息傳播方向研究.E-mail:75043480@qq.com

        虛假信息是一種可證實(shí)為錯(cuò)誤的不良信息,其廣泛傳播將會(huì)給個(gè)人甚至整個(gè)社會(huì)帶來很深的負(fù)面影響[1].當(dāng)面對虛假信息時(shí),民眾往往會(huì)通過評論來表達(dá)自己的情感[2],這些評論中隱含著用戶豐富的情感信息,會(huì)觸發(fā)網(wǎng)絡(luò)用戶的心理活動(dòng),從而影響其轉(zhuǎn)發(fā)行為[3].尤其評論中所隱含的消極情感在一定程度上放大了虛假信息本身所隱含的消極情感,進(jìn)而加速了虛假信息在網(wǎng)絡(luò)中的傳播[4].因此,通過情感分析方法對這些評論內(nèi)容進(jìn)行情感分析,有助于管控主體及時(shí)了解網(wǎng)絡(luò)用戶的情感傾向,把握虛假信息的傳播趨勢,并采取針對性的必要措施進(jìn)行調(diào)控,對形成良好網(wǎng)絡(luò)信息生態(tài)有重要意義.

        在關(guān)于虛假信息的評論中,往往多含有emoji表情符號,能夠與文本信息相互作用,共同完成評論用戶的情感信息表達(dá),而不是兩者的簡單疊加[5].目前,同時(shí)考慮表情符號和文本信息的情感分析方法主要包括3類:1)基于先驗(yàn)信息的方法,主要依據(jù)用戶先驗(yàn)信息制定判斷規(guī)則,對表情符號進(jìn)行預(yù)處理并建立相應(yīng)的情感詞典,輔助純文本的情感分類模型預(yù)測表情符號和文本綜合的情感傾向[6].此類方法所構(gòu)建的表情符號情感詞典使得判斷規(guī)則普適性不高.因此,有必要考慮從表情符號的上下文語境中進(jìn)行較為準(zhǔn)確的情感特征挖掘;2)基于語義轉(zhuǎn)換的方法,主要是根據(jù)表情符號的定義,將其轉(zhuǎn)換為相應(yīng)的語義詞,并置于文本中進(jìn)行基于純文本的情感傾向性分析[7].此類方法雖然考慮了表情符號的語義信息,但尚未考慮到表情符號的情感特征與其在文本的上下文密切相關(guān)性的不足;3)基于深度學(xué)習(xí)模型的方法,主要是基于大規(guī)模的歷史數(shù)據(jù),通過訓(xùn)練深度學(xué)習(xí)相關(guān)模型來學(xué)習(xí)表情符號的特征,進(jìn)而與原始文本中詞語或短語的嵌入向量相結(jié)合進(jìn)行文本情感傾向性分析[8].此類方法在提取表情符號以及文本特征方面,仍然面臨標(biāo)注數(shù)據(jù)或上下文語境考慮不夠充足的挑戰(zhàn).此外,基于GPT大模型的情感分析相關(guān)研究針對文本數(shù)據(jù)和表情符號數(shù)據(jù)相結(jié)合方面的情感分析方法仍需深入探討[9].

        近年來,基于圖神經(jīng)網(wǎng)絡(luò)的情感分析模型或方法的性能得到綜合提升,主要是通過句法依存樹來刻畫句子的結(jié)構(gòu)信息[10],并利用圖卷積神經(jīng)網(wǎng)絡(luò)(GCN)[11]或圖注意力網(wǎng)絡(luò)(GAN)[12]建模句中詞語之間的依賴關(guān)系,經(jīng)過模型的訓(xùn)練提取輸入數(shù)據(jù)的高層次的抽象特征用以情感分類,此類模型因結(jié)構(gòu)上的創(chuàng)新而優(yōu)于傳統(tǒng)的基于深度學(xué)習(xí)的情感分析模型.因此,本文同時(shí)考慮虛假信息評論中表情符號和文本內(nèi)容,基于異質(zhì)融合圖神經(jīng)網(wǎng)絡(luò)和自編碼器分別提取評論中的文本特征和表情符號特征,經(jīng)多層感知機(jī)融合后用于對評論內(nèi)容的情感分類任務(wù),提出基于圖神經(jīng)網(wǎng)絡(luò)和自編碼器的虛假信息多模態(tài)在線評論情感分析模型.本文將表情符號這一模態(tài)數(shù)據(jù)以圖片形式處理,上述情感分析模型可以同時(shí)處理文本、圖片和表情符號多種模態(tài)數(shù)據(jù).

        1" 面向虛假信息的多模態(tài)在線評論情感分析模型

        表述面向虛假信息的多模態(tài)在線評論情感分析模型需要使用多種符號,本文所使用的符號含義見表1.

        1.1" 虛假信息評論中文本的特征提取

        1.1.1" 基于上下文語境的詞向量表示

        詞向量表示主要包括詞嵌入層、雙向長短時(shí)記憶網(wǎng)絡(luò)層(BiLSTM層)和輸出層.在詞嵌入層,利用Glove模型進(jìn)行詞嵌入,將詞wm映射為dw維向量xm=Glove(wm),BiLSTM層主要將嵌入層的輸出xm映射成2個(gè)隱藏的向量表示hm-=LSTM-------------(xm )和hm -= LSTM-------------(xm ),繼而獲得詞的向量表示hm=[hm-,hm - ][12].輸出層將詞嵌入矩陣X=(x1,x2,…,xm,…,xM )∈RM×dw映射成文本句中詞的上下文語境化向量表示h=(h1,h2,…,hm,…,hM )∈RM×dw .

        1.1.2" 異質(zhì)融合圖(SKC圖)的構(gòu)建

        1)基于句法信息的子圖,可表示為四元組GS=(US,ES,AS,HS ),鄰接矩陣AS=[A]M×M∈RM×M中的元素ASij非零時(shí)有如下表示:

        ASij=DT(uSi,uSj),uSi,uSj∈W,uSi≠uSj,

        1,uSi,uSj∈W,uSi=uSj,(1)

        其中:W表示文本句中詞的集合; DT(uSi,uSj )表示文本句的句法樹中節(jié)點(diǎn)uSi和uSj之間句法依賴關(guān)系強(qiáng)度[13],而文本句的句法樹由baidu-DDParser工具生成,采用文獻(xiàn)[14]的計(jì)算方法.

        2)基于語義的子圖,可表示為四元組GK=(UK,EK,AK,HK ),子圖GK的節(jié)點(diǎn)特征(屬性)矩陣為

        HK=[(1→+Hsp )⊙(HcvH) ](M+K)×dh ∈R(M+K)×dh,(2)

        其中:Hcv∈RK是概念的特征向量表示[15],Hsp∈R(M+K).對wj∈W∪C,非零Hspj有

        Hspj=score(wj)=SCj,wj為清晰情感短語,

        Sfj,wj為模糊情感短語.(3)

        其中:C表示文本句用概念的集合;SCj和Sfj的數(shù)值計(jì)算參見文獻(xiàn)[16];AK中的元素AKij非零有下面的計(jì)算公式:

        AKij=PMI(uKi,uKj )uKi,uKj∈C,uKi≠vKj,PMI(uKi,uKj)gt;0,

        1uKi∈W,uKj∈C,(4)

        其中,PMI(uKi,uKj )依據(jù)常用的基于詞共現(xiàn)統(tǒng)計(jì)的方法計(jì)算其值[17].

        3)基于上下文語境信息的子圖,可用四元組GC=(UC,EC,AC,HC )表示,AC∈R(M+N)×(M+N)中非零元素的定義為

        ACij=cos(uCi,uCj)uCi,uCj∈S,uCi≠uCj,

        TF-IDFijuCi∈S,uCj∈W,

        1uCi≠uCj,(5)

        其中,cos(uCi,uCj )為文本句Si和Sj間的余弦相似度[18].

        4)SKC圖,可用四元組G=(U,E,A,Q)表示,其中,U=US∪UK∪UC,E=ES∪EK∪EC,G的節(jié)點(diǎn)屬性矩陣Q=[HSHKHC ]|U|×dh∈R|U|×dh,鄰接矩陣A∈R|U|×|U|中非零元素Aij的計(jì)算如式(6).

        Aij=DT(ui,uj )ui,uj∈W,ui≠uj,

        cos(ui,uj )ui,uj∈S,ui≠uj,

        TF-IDFijui∈S,uj∈W,

        PMI(ui,uj)ui,uj∈C,ui≠uj,

        1ui∈W,uj∈C或ui=uj.(6)

        1.1.3" 基于SKC圖的圖卷積注意力網(wǎng)絡(luò)模型(SKC-CANN)

        本文將卷積注意力網(wǎng)絡(luò)模型(convolutional attention neural network,CANN)模型應(yīng)用到異質(zhì)無向圖SKC中,提出基于SKC圖的圖卷積注意力網(wǎng)絡(luò)模型(graph convolutional attention network model based on SKC graph,SKCG-CANN),用于提取文本數(shù)據(jù)的特征,主要包括如下的層結(jié)構(gòu):

        1) SKC圖G節(jié)點(diǎn)嵌入層,將Q和A輸入到一個(gè)2層的圖神經(jīng)網(wǎng)絡(luò)[19]中得到

        X=Relu(Relu(M·Q·W1+b1)·W2+b2),(7)

        其中:M=D-12 AD-12;D為A度矩陣;W1,W2∈R|U|×dh為第1、2層權(quán)重矩陣,b1,b2為偏置截距.

        2) 卷積層,時(shí)間滑動(dòng)窗口N∈Rq×dh,進(jìn)行卷積操作,結(jié)果如下:

        Ci=Relu(NXi:i+|V|+1+b), i=1,2,…,|U|,(8)

        其中:為卷積運(yùn)算;b為偏置;Xi為經(jīng)過圖G上的2層圖神經(jīng)網(wǎng)絡(luò)后節(jié)點(diǎn)vi的向量表示.

        3) 池化層,對C中的所有向量使用最大池化運(yùn)算而獲得C^=[C^1,C^2,…,C^|U|],保證每個(gè)分量具有同樣大小的維度,即,C^i=max(Ci), i=1,2,…,|U|.

        4) 位置信息的嵌入,設(shè)s中包含k個(gè)方面詞wa1,wa2,…,wak,waj∈s,j=1,2,…,k,wi的位置嵌入被記為pi=[di1,di2,…,dik]∈Rk,非零計(jì)算如下:

        dij=|i-j|maxsn∈S (|sn |) ,wi≠waj.(9)

        5) 融合注意力機(jī)制的文本向量表示,首先,定義積分函數(shù)

        f(C^i,pi )=tanh(W·[piC^i )]+b), i=1,2,…,|U|,(10)

        其中:W∈R(k+dh )×(k+dh )為權(quán)重矩陣;b為偏置截距;拼接操作.然后,注意力分配計(jì)算

        αi=exp(f(C^i,pi ))∑|V|j=1exp(f(C^j,pi )), i=1,2,…,|U|.(11)

        最后,輸出用戶數(shù)據(jù)中的文本句sn (n=1,2,…,N)的高層次的抽象特征向量表示

        g=∑|V|j=1αi C^i. (12)

        1.2" 虛假信息評論中表情符號的特征提取

        基于卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural network,CNN)和自編碼(auto-encoder,AE),通過基于卷積的表情符號自編碼進(jìn)行特征學(xué)習(xí)模型(feature learning model based on convolutional neural network and emoji auto-encoder,CNN-EmAE)獲取表情符號的特征.

        1) CNN-EmAE模型的編碼,從原始表情符號圖片至下一層的具體解碼過程為

        Hk=Relu(Hk-1Wk+bk ), k=1,2,3,4,(13)

        其中:Hk為第k層的特征;Wk為第k層的卷積核參數(shù);bk為第k層偏置;H0為原始表情符號.

        2) CNN-EmAE模型的解碼,具體的解碼過程如下:

        H^k+1=f(H^kW^k+1+b), k=0,1,2,3,4,(14)

        其中:E=H^0;H^k+1為上層輸出;W^k+1為第k+1層參數(shù)矩陣;b為偏置;經(jīng)過H^5層后輸出原始表情符號的重構(gòu)結(jié)果為H^6.

        3) CNN-EmAE模型的訓(xùn)練,訓(xùn)練目標(biāo)為最小化重構(gòu)誤差,所采用的損失函數(shù)為

        J=-∑MJi=1[Hi0log(H^i6)+(1-Hi0 )log(1-H^i6 ) ],(15)

        其中:MJ為樣例總數(shù);Hi0為第i個(gè)表情符號圖片;H^i6為與第i個(gè)表情符號對應(yīng)的重構(gòu)結(jié)果.

        4) 表情符號的向量表示,CNN-EmAE模型的參數(shù)確定后,將表情符號輸入模型,選取隱藏層的輸出作為其向量表示E.若el重復(fù)出現(xiàn)Ml次的情況,向量

        E=∑MLl=1Ml∑MLl=1Ml Eel. (16)

        1.3" 融合文本和表情符號特征的情感分類

        本文將得到的g和E進(jìn)行拼接gE,輸入到含MH個(gè)隱藏層的多層感知機(jī),假設(shè)第i (i=1,2,…,MH)隱藏層的輸出為Hi,具體迭代計(jì)算公式如下:

        Hi=Relu(WHi ·Hi-1+bHi), i=1,2,…,MH,(17)

        H0=Relu(WH1·[gE]+bH1),(18)

        其中:WHi 為由第i-1層至第i層的權(quán)重;bHi為第i層的偏置,由輸入層至第1隱藏層的權(quán)重.最后,通過Softmax函數(shù)產(chǎn)生出關(guān)于虛假信息評論內(nèi)容的情感極性向量,即

        y^=Softmax(WO·HMH+bO ),(19)

        其中:WO∈R3×dMH為由第HMH層至感知機(jī)輸出層的權(quán)重;bO為偏置;dMH為第HMH隱藏層的神經(jīng)元的個(gè)數(shù).模型采用交叉熵函數(shù)作為目標(biāo)函數(shù)進(jìn)行訓(xùn)練,表達(dá)式如下:

        L=-∑3i=1(yi log(y^i ) )+λ‖θ‖2,(20)

        其中:yi為第i類的真實(shí)類標(biāo)矩陣;y^i為由多層感知機(jī)輸出的屬于第i類的概率矩陣;λ為L2范數(shù)‖θ‖2的系數(shù),θ為情感分類模型中所有參數(shù)的集合.綜合上述過程,面向虛假信息的多模態(tài)在線評論情感分析方法的流程圖如圖1所示.

        1.4" 所提模型算法的時(shí)間復(fù)雜度和收斂性分析

        1.4.1" 時(shí)間復(fù)雜度分析

        結(jié)合圖1可知,本文所提情感分析模型相應(yīng)算法的復(fù)雜度取決于如下模型相應(yīng)算法的復(fù)雜度:1)Glove模型算法,理論上的時(shí)間復(fù)雜度為O(V2 ),其中V為詞匯表的大小;2)BiLSTM模型算法,一個(gè)單向LSTM的復(fù)雜度為O(nhd),其中n是序列長度,h是隱藏層單元數(shù),d是輸入特征維度.由于BiLSTM同時(shí)進(jìn)行正向和反向傳播,其時(shí)間復(fù)雜度大致為O(2nhd);3)多層神經(jīng)網(wǎng)絡(luò)模型算法,訓(xùn)練時(shí)間復(fù)雜度約為O(L×(n0+n1+…+nL )2 ),預(yù)測時(shí)間復(fù)雜度約為O(L×(n0+n1+…+nL)),其中,L為神經(jīng)網(wǎng)絡(luò)層數(shù),ni為第i層神經(jīng)元數(shù)量,n0為輸入層的節(jié)點(diǎn)數(shù),nL為輸出層的節(jié)點(diǎn)數(shù);4)基于異質(zhì)圖的圖卷積神經(jīng)網(wǎng)絡(luò)模型算法,主要涉及鄰接矩陣構(gòu)建的復(fù)雜度約為O(E+TN)和多層圖卷積操作的復(fù)雜度約為O(L1TNd),其中,N為異質(zhì)圖的節(jié)點(diǎn)數(shù),E為異質(zhì)圖的邊數(shù),T為異質(zhì)圖邊的類型數(shù),d為特征維度,L1為卷積的層數(shù);5)基于異質(zhì)圖的圖注意力網(wǎng)絡(luò)模型算法,算法的復(fù)雜度約為O(L2Ndk2 ),其中,N為異質(zhì)圖的節(jié)點(diǎn)數(shù),d為每個(gè)節(jié)點(diǎn)的平均鄰居數(shù),L2為模型的總層數(shù),k為特征維度;6)自編碼器模型算法,總的復(fù)雜度為O(2TL3(∑L3i=1 ni )×ni),其中,L3為自編碼器模型的層數(shù),每層有ni個(gè)神經(jīng)元,T為算法收斂時(shí)的迭代次數(shù).

        1.4.2" 收斂性分析

        由式(15)和式(20)可知本文所提模型算法的收斂性本質(zhì)是Adagrad優(yōu)化器的收斂性.關(guān)于Adagrad的收斂性:1)Adagrad的核心是根據(jù)每個(gè)參數(shù)的歷史梯度信息動(dòng)態(tài)調(diào)整學(xué)習(xí)率,該機(jī)制有助于在迭代初期快速學(xué)習(xí),并在之后減緩學(xué)習(xí)以防止過擬合;2)Adagrad通過累加每個(gè)參數(shù)的平方梯度,能夠自動(dòng)減小那些在訓(xùn)練早期頻繁更新參數(shù)的學(xué)習(xí)率,從而在后續(xù)迭代中維持穩(wěn)定的進(jìn)步,達(dá)到全局最優(yōu)或接近最優(yōu).

        2" 實(shí)驗(yàn)與分析

        2.1" 實(shí)驗(yàn)數(shù)據(jù)集及評價(jià)指標(biāo)

        本文基于新浪微博平臺(tái),通過Python爬取虛假信息“鄭州輕生女教師曾被要求加班數(shù)石榴”相關(guān)主題微博和“兒媳給住院婆婆連送幾天泡面”相關(guān)主題微博的評論信息中各收集到7 000條數(shù)據(jù),構(gòu)建數(shù)據(jù)集.對14 000條評論進(jìn)行人工標(biāo)注情感極性,分為積極情感3 128條、消極情感5 693條和中性情感5 179條(情感傾向不明顯)3類,其中訓(xùn)練集和測試集按照6∶4的比例對數(shù)據(jù)集進(jìn)行劃分.主要考慮到表情符號在評論內(nèi)容情感表達(dá)方面的作用,本文只考慮了具有情感傾向表達(dá)的表情符號,主要包括臉部表情、手勢和人物等共計(jì)553個(gè)表情符號,排除了諸如動(dòng)物和水果等無明顯情感傾向的中性含義符號.

        本文選取準(zhǔn)確率、精確率、召回率和F1指數(shù)4個(gè)評價(jià)指標(biāo)[17].

        2.2" 對比實(shí)驗(yàn)

        2.2.1參數(shù)設(shè)置

        實(shí)驗(yàn)基于PyTorch框架、Python 3.6環(huán)境實(shí)現(xiàn),針對基于圖神經(jīng)網(wǎng)絡(luò)的情感分析模型[17]:預(yù)訓(xùn)練模型GloVe嵌入詞向量的維數(shù)為300維,BiLSTM模型隱藏層狀態(tài)變量的維數(shù)為100維;圖卷積注意力網(wǎng)絡(luò)模型(GCAN)的層數(shù)設(shè)置為2層,其隱藏層節(jié)點(diǎn)屬性向量維數(shù)為100維,過濾器大?。〞r(shí)間滑動(dòng)窗口)為4,過濾次數(shù)為100次;模型中的所有參數(shù)均以服從均勻分布U(-0.1,+0.1)的數(shù)據(jù)進(jìn)行隨機(jī)初始化,相應(yīng)的各個(gè)偏置項(xiàng)設(shè)置為0;使用優(yōu)化器Adam優(yōu)化目標(biāo)函數(shù),學(xué)習(xí)效率為0.001,為了防止過擬合而設(shè)置刪除率為0.5;所有模型運(yùn)行5次,輸出結(jié)果的平均值作為最終進(jìn)行比較的結(jié)果,使用交叉驗(yàn)證技術(shù)對所有超參進(jìn)行微調(diào),L2正則化項(xiàng)參數(shù)設(shè)置為10-5.CNN-EmAE模型中選取Adagrad為優(yōu)化器,設(shè)置學(xué)習(xí)效率為0.001,批量大小為8,隱藏層單元數(shù)量為100.

        2.2.2" 基線模型

        基線模型包括支持向量機(jī)模型(SVM),長短時(shí)記憶網(wǎng)絡(luò)(LSTM),雙向長短時(shí)記憶網(wǎng)絡(luò)(BiLSTM),考慮注意力機(jī)制的BiLSTM模型(BiLSTM+Attention),以及基于Glove詞嵌入的BiLSTM網(wǎng)絡(luò)模型(BiLSTM+Glove).

        2.2.3" 實(shí)驗(yàn)結(jié)果與分析

        表2列出了本文所提情感分析模型與所有基線模型在3個(gè)子數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果,本文所提新模型BiLSTM+Glove+SKCG-CANN+CNN-EmAE優(yōu)于所有基線模型,綜合性能最好.與BiLSTM+Glove模型相比,新模型在精確率指標(biāo)上最高提升3.9%,在召回率指標(biāo)上最高提升5.6%,在F1分?jǐn)?shù)上最高提升4.6%,這表明了新模型整合了BiLSTM+Glove模型的優(yōu)點(diǎn),同時(shí)基于SKC異質(zhì)無向圖考慮了評論數(shù)據(jù)中文本詞語的句法信息、語義信息和上下文信息,以及基于CNN-EmAE模型的表情符號高層次抽象特征,使新模型能夠更好地捕獲文本和表情符號重要的關(guān)鍵信息,進(jìn)而綜合考慮文本和表情符號對評論數(shù)據(jù)情感傾向性的影響,能有效提升相關(guān)情感分類模型的綜合性能.

        基于實(shí)驗(yàn)結(jié)果,可知與所有的基線模型相比,使用本文所提新模型能夠充分挖掘社交網(wǎng)絡(luò)用戶表達(dá)觀點(diǎn)和感情時(shí)表情符號與文本之間的潛在交互性,一定程度上縮小與實(shí)際溝通交流中語言習(xí)慣間的差異性,合理展現(xiàn)各類用戶情感表達(dá)過程中所具有的自由性和直接性,從而更有效地評估虛假信息評論內(nèi)容的情感傾向性,表征網(wǎng)絡(luò)用戶的情感態(tài)度或?qū)傩裕瑢?shí)現(xiàn)對用戶情感的有效分類,為基于虛假信息評論內(nèi)容的用戶情感分類管理提供重要的情感分析方法.

        2.3" 消融實(shí)驗(yàn)

        為驗(yàn)證融合句法信息、語義信息和上下文語境信息的異質(zhì)圖神經(jīng)網(wǎng)絡(luò)在學(xué)習(xí)文本數(shù)據(jù)特征方面,自編碼器在提取表情符號數(shù)據(jù)特征方面,以及綜合考慮多模態(tài)數(shù)據(jù)進(jìn)行虛假信息評論情感分析方面的有效性,本文基于所提新模型給出如下消融模型:1)BiLSTM;2)BiLSTM+Glove;3)BiLSTM+CNN-EmAE;4)BiLSTM+SKCG-CANN;5)BiLSTM+Glove+CNN-EmAE;6)BiLSTM+Glove+SKCG-CANN;7)BiLSTM+SKCG-CANN+CNN-EmAE.表3給出了所提模型及其上述7種消融模型在本文數(shù)據(jù)集上(不考慮積極、消極和中性情感數(shù)據(jù)的分類)的消融實(shí)驗(yàn)結(jié)果.

        從表3可知,所提模型在精確率、召回率、F1值和準(zhǔn)確率性能方面均優(yōu)于消融模型,證明基于SKCG異質(zhì)無向圖的圖神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)和基于CNN-EmAE模型的結(jié)合能夠有效挖掘虛假信息評論中文本數(shù)據(jù)和表情符號圖片數(shù)據(jù)的深層次特征,有助于提高針對評論數(shù)據(jù)情感類模型的預(yù)測性能和泛化能力.其主要原因:1)基于SKCG異質(zhì)無向圖的圖神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)模型綜合運(yùn)用虛假信息評論中文本數(shù)據(jù)語法信息、語義信息、上下文語境信息以及情感詞的位置信息等多維度信息,充分保證了文本數(shù)據(jù)深層次抽象特征的有效挖掘,為最后情感極性的識別提供了重要的證據(jù)信息;2)以emoji為代表的表情符號在一定程度上能夠表達(dá)網(wǎng)絡(luò)用戶自身較豐富的情感,與文本信息相互關(guān)聯(lián)或相互作用,共同完成針對網(wǎng)絡(luò)虛假信息評論用戶的情感信息表達(dá),不是與文本信息的簡單疊加.

        3" 結(jié)論

        本文提出了虛假信息多模態(tài)評論情感分析模型,基于微博平臺(tái),從“鄭州輕生女教師曾被要求加班數(shù)石榴”虛假信息和“兒媳給住院婆婆連送幾天泡面”虛假信息相關(guān)主題微博的評論信息構(gòu)建數(shù)據(jù)集,對本文所提多模態(tài)情感分析模型進(jìn)行對比實(shí)驗(yàn)和消融實(shí)驗(yàn).結(jié)果顯示:本文所提模型基于SKC異質(zhì)無向圖考慮評論數(shù)據(jù)中文本詞語的句法信息、語義信息和上下文信息,以及基于CNN-EmAE模型獲取表情符號高層次抽象特征,使其能夠更好地捕獲文本和表情符號重要的關(guān)鍵信息,進(jìn)而能有效提升情感分類模型的綜合性能.

        本研究仍存在一定的局限性,在構(gòu)建針對網(wǎng)絡(luò)虛假信息評論內(nèi)容的多模態(tài)情感分析模型方面,本文使用了評論數(shù)據(jù)中的文本數(shù)據(jù)和表情符號數(shù)據(jù),未考慮評論內(nèi)容中的其他圖片和視頻相關(guān)信息,可能會(huì)引起包含文本、表情符號、其他圖片或視頻等多模數(shù)據(jù)的評論內(nèi)容在特征提取方面存在一定偏差,進(jìn)而可能在一定程度上對后續(xù)相關(guān)模型的訓(xùn)練速度帶來挑戰(zhàn).在將來進(jìn)一步的研究中,本文以針對虛假信息的評論內(nèi)容中文本和表情符號為基礎(chǔ),通過深度學(xué)習(xí)技術(shù)提取評論中的其他圖片或視頻的特征向量,進(jìn)而與原文本和表情符號的綜合特征向量進(jìn)行整合,基于更為全面的多模態(tài)評論數(shù)據(jù)特征進(jìn)行用戶情感分析模型的構(gòu)建.

        參" 考" 文" 獻(xiàn):

        [1]" MIRHOSEINI M, EARLY S, ELSHAMY N, et al. Actively open-minded thinking is key to combating fake news: a multimethod study[J]. Inf Manag, 2023, 60(3): 103761.DOI:10.1016/j.im.2023.103761.

        [2]" 徐健,張婧,宋玲鈺,等.基于RoBERTa-BiLSTM-CRF融合模型的在線評論細(xì)粒度情感分析[J].系統(tǒng)工程理論與實(shí)踐, 2023, 43(12): 3519-3536.DOI: 10.12011/SETP2022-2001.

        [3]" 欒碧雅.社交網(wǎng)絡(luò)虛假信息傳播影響因素及治理策略研究[D].長春:吉林大學(xué), 2020.DOI:10.27162/d.cnki.gjlin.2020.001597.

        [4]" 翟羽佳,過南杉,閻嘉琪.突發(fā)公共衛(wèi)生事件中虛假信息的時(shí)滯性擴(kuò)散與情感關(guān)聯(lián)分析[J].情報(bào)科學(xué), 2021, 39(5): 62-69.DOI: 10.13833/j.issn.1007-7634.2021.05.009.

        [5]" LOU Y X, ZHANG Y, LI F, et al. Emoji-based sentiment analysis using attention networks[J]. ACM Trans Asian Low-Resour Lang Inf Process, 2020, 19(5): 1-13.DOI: 10.1016/j.chb.2021.106722.

        [6]" HAAK F. Design and development of an emoji sentiment lexicon[C]// Proceedings of the 16th International Symposium of Information Science (ISI 2021), Glückstadt: Verlag Werner Hülsbusch, 2021:432-438.DOI: 10.5283/epub.44960.

        [7]" 徐海杰.基于深度學(xué)習(xí)的情感分析研究[D].大慶:東北石油大學(xué),2023.DOI: 10.26995/d.cnki.gdqsc.2022.000496.

        [8]" CHEN J, YAO Z Q, ZHAO S, et al. Fusion pre-trained emoji feature enhancement for sentiment analysis[J]. ACM Trans Asian Low-Resour Lang Inf Process, 2023, 22(4): 1-14.DOI: 10.1145/3578582.

        [9]" RODRGUEZ-IBNEZ M, CASNEZ-VENTURA A, CASTEJN-MATEOS F, et al. A review on sentiment analysis from social media platforms[J]. Expert Syst Appl, 2023, 223: 119862.DOI: 10.1016/j.eswa.2023.119862.

        [10]" 柴變芳,楊蕾,王建嶺,等.集成局部和全局關(guān)鍵特征的文本情感分類方法[J]. 河北大學(xué)學(xué)報(bào)(自然科學(xué)版), 2021,41(2): 201-211.DOI: 10.3969/j.issn.1000-1565.2021.02.014.

        [11]" 李濤,薛剛,霍自祥,等.基于卷積神經(jīng)網(wǎng)絡(luò)的石英纖維復(fù)合材料損傷缺陷太赫茲智能識別[J].河北大學(xué)學(xué)報(bào)(自然科學(xué)版), 2022, 42(6):665-672.DOI: 10.3969/j.issn.1000-1565.2022.06.015.

        [12]" 張昱,蘇仡琳,李繼濤,等.基于增強(qiáng)多通道圖注意力的推薦模型[J].河北大學(xué)學(xué)報(bào)(自然科學(xué)版), 2024, 44(2):190-198.DOI: 10.3969/j.issn.1000-1565.2024.02.010.

        [13]" JACOB Y, WINETRAUB Y, RAZ G, et al. Dependency network analysis (DEPNA) reveals context related influence of brain network nodes[J]. Sci Rep, 2016, 6: 27444.DOI: 10.1038/srep27444.

        [14]" 陳明紅.信息生態(tài)系統(tǒng)中資源配置的博弈行為分析[J].情報(bào)理論與實(shí)踐, 2010, 33(9): 17-22.DOI: 10.16353/j.cnki.1000-7490.2010.09.006.

        [15]" MA Y K, PENG H Y, CAMBRIA E. Targeted aspect-based sentiment analysis via embedding commonsense knowledge into an attentive LSTM[J].Proc AAAI Conf Artif Intell,2018, 32(1): 5876-5883.DOI: 10.1609/aaai.v32i1.12048.

        [16]" PHAN H T, NGUYEN N T, TRAN V C, et al. An approach for a decision-making support system based on measuring the user satisfaction level on Twitter[J]. Inf Sci, 2021, 561: 243-273.DOI: 10.1016/j.ins.2021.01.008.

        [17]" YAO L, MAO C S, LUO Y. Graph convolutional networks for text classification[J].Proc AAAI Conf Artif Intell, 2019, 33(1): 7370-7377.DOI: 10.1609/aaai.v33i01.33017370.

        [18]" CAMBRIA E, PORIA S, HAZARIKA D, et al. SenticNet 5: discovering conceptual primitives for sentiment analysis by means of context embeddings[J].Proc AAAI Conf Artif Intell,2018, 32(1): 1795-1802.DOI: 10.1609/aaai.v32i1.11559.

        [19]" KIPF T N, WELLING M. Semi-supervised classification with graph convolutional networks[C]// Proceedings of the 5th International Conference on Learning Representations, Toulon: Association for Learning Representations, 2017: 1-14.DOI: 10.48550/arXiv.1609.02907.

        (責(zé)任編輯:王蘭英)

        аⅴ天堂中文在线网| 看黄色亚洲看黄色亚洲| 亚洲av网站在线免费观看| 亚洲天堂av三区四区不卡| 亚洲av福利无码无一区二区| 亚洲午夜精品久久久久久一区| 亚洲一码二码在线观看| 亚洲精品中文字幕视频色| 巨人精品福利官方导航| 中国精品久久精品三级| 日本一区二区在线播放观看| 黄片小视频免费观看完整版| 日韩中文字幕免费视频| 亚洲自偷自拍另类图片小说| 少妇极品熟妇人妻高清| 中国亚洲一区二区视频| 少妇久久久久久被弄到高潮 | 久草午夜视频| 亚洲综合av一区在线| 蜜桃视频一区二区在线观看| 欧美熟妇色ⅹxxx欧美妇| 在线观看精品国产福利片87| 国产午夜精品视频观看| 伊人色综合久久天天五月婷| 中文在线а√天堂官网| 亚洲美女性生活一级片| 上海熟女av黑人在线播放| 爽爽精品dvd蜜桃成熟时电影院| 在线天堂中文字幕| 日韩精品中文字幕人妻中出| 国产影片一区二区三区| 国产精品人妻一码二码| 狠狠久久久久综合网| 国产自产自现在线视频地址| 久久午夜av一区二区三区| 日本成本人三级在线观看| 亚洲国产成人手机在线电影| 国产91九色免费视频| 国内免费高清在线观看| 亚洲白白色无码在线观看| 国产精品毛片av一区二区三区|