亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于多尺度卷積和門控機制的注意力情感分析模型

        2022-09-25 08:42:14衡紅軍徐天寶
        計算機應用 2022年9期
        關鍵詞:文檔尺度注意力

        衡紅軍,徐天寶

        (中國民航大學計算機科學與技術學院,天津 300300)

        0 引言

        情感分析(Sentiment Analysis)根據(jù)人們生成的文本來分析他們的情感或觀點,一直以來都是自然語言處理中最活躍的研究領域之一。識別文本中表達的潛在情感對于理解文本的全部含義至關重要。隨著微博、知乎、頭條等社交媒體平臺的快速發(fā)展,人們越來越多地在網上分享自己的觀點和看法。情感分析已吸引了很多關注,因為從文本中檢測到的意見或情感對于商品推薦、輿情分析、市場預測等方面都有很大幫助。

        文檔級情感分析的目標是判斷整篇文檔表達的情感,例如一段影評,或者對某一個熱點時事新聞發(fā)表的評論,只要待分析的文本超過了一句話的范疇,即可視為是文檔級的情感分析。對于文檔級的情感分析而言有一個前提假設,那就是全篇章所表達的觀點僅針對一個單獨的實體,且只包含一個觀點持有者的觀點。

        在傳統(tǒng)的情感分析任務中,大多數(shù)模型將情感分析視為一個包含特征提取和分類器訓練兩部分的分類問題[1]。最初是利用基于機器學習的方法使用監(jiān)督分類或回歸,從極性標記的文本訓練模型[1-2];然而,這些模型的性能在很大程度上依賴于大量的人工處理的特征,例如情感詞典和其他具有特定含義的特征。

        隨著深度學習的方法的提出,情感分析模型的性能獲得進一步的改進。情感分析領域應用最廣泛的神經網絡模型包括卷積神經網絡(Convolutional Neural Network,CNN)[4]、雙向長短期記憶(Bidirectional Long Short-Term Memory,BiLSTM)[5]網絡等。

        文檔級情感分析研究主要集中在生成豐富文檔表示和個性化兩個方面,以提高分類模型的性能。一個人寫的評論文本是主觀地偏向他/她自己認知的。寬容的用戶往往比挑剔的用戶給出更高的評級,即使他們評論同樣的產品,受歡迎的產品可能比不太受歡迎的產品獲得更多的贊揚。因此,模型必須考慮用戶和產品信息對文本情感分類的影響。Tang 等[6]使用CNN 作為基礎編碼器,并且首次將用戶和產品的信息結合到情感分類神經網絡模型中,使情感分析模型性能獲得了極大的提升。

        近年來,研究人員為了增強文檔表示開始構建基于注意力的模型[7],以突出一段文本中的重要單詞或者句子。使用嵌入在文本中的信息構建不同的注意力模型成為了主流,融入的信息包括本地上下文中的用戶信息、產品信息和評論文本數(shù)據(jù)。Chen 等[7]提出了一個層次神經網絡,通過層次結構來建模文檔的語義,并且引入注意力機制,將用戶產品信息融合到注意力當中提出用戶產品注意力。用戶產品注意力的提出,使文檔級情感分析模型性能再次獲得極大的提升。Kim 等[8]使用基向量來將用戶產品信息融合到模型的分類器上,當分類特征的數(shù)量很大時,基向量的使用對參數(shù)量的減少十分明顯。蔣宗禮等[9]同樣使用層次結構來建模文檔的語義,并且通過將用戶信息和產品信息融合到多頭注意力當中,使模型在多個子空間上得到不同用戶和產品對情感評分的影響。

        為了給文本分配合適的標簽,模型還應捕獲源文本中比詞級信息更高級信息的核心語義單元,然后基于其對語義單元的理解來分配文本標簽。由于傳統(tǒng)的注意機制只是側重于提取包含冗余和無關細節(jié)的詞級信息,因此很難從語義單元中提取更多關鍵信息。針對這一問題,本文提出了一種基于多尺度卷積和門控機制的注意力情感分析模型。本文模型利用全局用戶偏好和產品特征學習評論文本,通過提取得到不同尺度的文本表示進行情感分類。為了驗證該模型的有效性,對來自IMDB 和Yelp(包括Yelp2013 和Yelp2014)3個評估數(shù)據(jù)集進行了評估。實驗結果表明,該模型能夠以較大的幅度優(yōu)于基準模型。與基準模型中性能最先進的那個相比,本文模型在IMDB 和Yelp2014 數(shù)據(jù)集的準確率(Accuracy)上分別提高了1.2 個百分點和0.7 個百分點,并且在IMDB 和Yelp2013 數(shù)據(jù)集上獲得了最小的均方根誤差(Root Mean Squared Error,RMSE)。

        本文的主要工作有以下兩點:

        1)使用多尺度卷積注意力的方式對文本進行編碼。首先使用多尺度卷積提取文檔單詞之間的多種粒度短程局部語義信息,再通過用戶產品注意力獲得不同層次的更豐富的文檔表示。

        2)引入門控單元,構造新的門控單元GTUU(Gate Tanh Update Unit)控制情感信息流向匯集層的路徑,并通過實驗證明了GTUU 在文檔級情感分析中更加有效。

        1 本文模型

        本文提出的基于多尺度卷積和門控機制的注意力情感分析模型的框架見圖1。本文模型由編碼層、多尺度卷積層、注意力層、門控層和分類層5 個部分構成。

        圖1 本文模型框架Fig.1 Framework of the proposed model

        1.1 編碼層

        首先定義某一個文檔doc=[x1,x2,…,xj,…,xn],xj表示doc的第j個詞,n代表語句的長度;然后使用預先訓練的詞嵌入向量來初始化,在訓練階段對它們進行微調。所有的詞通過一個詞嵌入矩陣將單詞嵌入到相應的向量wj中。

        本文使用BiLSTM 這種在長文檔情感分析有很好的性能的編碼器來學習基礎文檔表示。BiLSTM 通過總結來自單詞的兩個方向的信息來獲得單詞的特征表示,將上下文信息結合在特征表示中。由于向前和向后的長短期記憶網絡(Long Short-Term Memory,LSTM)看起來相似,因此為了簡潔,只給出前向LSTM 的計算過程,如式(1)~(3)所示:

        其中:ii、fi、oi是門激活函數(shù);⊙表示點乘運算符;σ是sigmoid 函數(shù);tanh 表示Hyperbolic tangent 函數(shù);Wen、ben是需要訓練的參數(shù)。

        然后,將前后向的隱藏狀態(tài)拼接在一起形成一個新的單詞向量hi=文檔矩陣經過編碼層后表示為H=[h1,h2,…,hn]。

        1.2 多尺度卷積層

        受文本摘要的全局編碼[10]思想的啟發(fā),本文利用卷積神經網絡(CNN)來捕捉單詞之間的局部交互,并生成比單詞更高級別的信息表示,例如詞組或短句。多尺度卷積層(Multi-Scale Convolution,MSC)采用多個擁有不同寬度卷積核的一維卷積濾波器捕獲不同粒度的局部相關性,目的是獲得更多不同層次的文本語義信息。

        1.3 注意力層

        雖然通過多尺度卷積層分別以不同尺度對文檔進行過凝練,但并不是所有語義單元都對文檔的情感表達含義有同等的貢獻,必須要進行注意力計算,對不同的語義單元賦予不同的權重,而且對于不同用戶和不同產品來說,對于情感詞匯的使用也是有差異的,因此,還需要將用戶信息和產品信息融入注意力的計算當中,更加準確地提取出文本中的情感信息。

        注意力層分別對每個文檔進行用戶產品注意力計算,具體計算過程如式(5)~(7)所示:

        其中:Nq代表不同尺度文檔表示的數(shù)量;代表對第q個尺度文檔表示的待訓練權重矩陣;bd表示偏置。

        1.4 門控層

        在語言建模中提出的門控Tanh-ReLU 這種門控機制取得了很好的效果,其中最著名的兩種門控單元是門控Tanh單元(Gate Tanh Unit,GTU)和門控線性單元(Gate Liner Unit,GLU)。GTU 由tanh(Wx+b)⊙σ(Vx+b)表示,而GLU使用(Wx+b)⊙σ(Vx+b)代替使得梯度不會被縮小,可以傳播更多的信息[11]。本文構造了一個新的門控更新單元(Gate Tanh Update Unit,GTUU)控制情感信息流向匯集層的路徑,實驗證明門控機制在文檔級情感分析中是有效的。

        GTUU 門控單元具體計算過程:

        1.5 分類層

        文檔向量g是文檔的高級表示,可作為文檔情感分類的特征。使用線性層將文檔表示g影到C類的目標空間中:

        其中:C是情感類的數(shù)量;p是最終的情感預測;argmax(f(·))的作用是獲取使f(·)取得最大值所對應的情感類別;Wc和bc分別為待訓練權重和偏置。

        1.6 優(yōu)化策略

        在模型優(yōu)化的過程中,使用交叉熵損失函數(shù)最小化作為模型的優(yōu)化目標,使用反向傳播算法迭代更新模型參數(shù),如式(14)所示:

        2 實驗與結果分析

        2.1 實驗數(shù)據(jù)集及評價指標

        實驗是在Tang 等[6]構建的3 個帶有用戶產品信息的情感分析公開數(shù)據(jù)集(IMDB、Yelp2013、Yelp2014)上進行模型有效性的驗證,其中IMDB 是電影評論數(shù)據(jù)集,Yelp2013 和Yelp2014 是商品評論數(shù)據(jù)集。

        3 個數(shù)據(jù)集的統(tǒng)計信息如表1 所示。按照8∶1∶1 的比例將數(shù)據(jù)集劃分為訓練集、驗證集和測試集,使用斯坦福CoreNLP[12]進行標記化和句子拆分。本文使用準確率(Accuracy)和均方根誤差(RMSE)兩個標準來度量模型可信度,準確率測量整體情感分類性能,均方根誤差描述預測情感和真實情感之間的離散程度。

        表1 IMDB、Yelp2013和Yelp2014數(shù)據(jù)集的統(tǒng)計信息Tab.1 Statistical information of IMDB,Yelp2013 and Yelp2014 datasets

        2.2 實驗設置

        在NVIDIA 2080Ti GPU 上,基于PyTorch 深度學習框架中進行了本文的實驗。實驗中使用預訓練的GloVe[13]詞嵌入向量對單詞向量進行初始化。GloVe 的維度、雙向LSTM的輸入維度(前向后向隱藏狀態(tài)各自為150 維)、一維卷積濾波器的輸入輸出通道數(shù)均設為300 維。多尺度卷積層采用3個平行的一維卷積操作,卷積核分別為1、2、4,卷積步長與卷積核大小相同。為防止過擬合,在每一層之后做一次Dropout,且Dropout 率為0.1。實驗Batch Size 設置為64。模型超參數(shù)的優(yōu)化在Adadelta[14]優(yōu)化器上完成。模型在訓練集上訓練調參,在驗證集上選擇最佳性能的模型參數(shù),最后在測試集上進行測試。

        2.3 基準模型

        為了驗證本文提出的模型的有效性,該模型將與以下基準模型進行對比:

        1)UPNN(User Product Neural Network)[6]:使用CNN 作為基本模型,并將用戶和產品信息作為權重參數(shù)納入單詞嵌入和邏輯分類器中。

        2)NSC(Neural Sentiment Classification)[7]:將分層LSTM作為基本模型,提出用戶產品注意力方法合并用戶和產品信息。

        3)InterSub[15]:使用CNN 作為基本模型,利用用戶和產品信息嵌入到模型中。

        4)TUPCNN(Training User and Product information with CNN)[16]:使用CNN 作為基本模型,并通過評論的時間順序來訓練模型。

        5)PMA(Parallel Multi-feature Attention)[17]:與NSC 類似,但并行地將用戶和產品分別融合到注意力當中,并且考慮用戶的偏好排序。

        6)CMA(Cascading Multiway Attention)[18]:使用LSTM 作為基本模型,將用戶和產品信息分別融入注意力。

        7)UPDMN(User Product Deep Memory Network)[19]:通過將用戶和產品信息嵌入到深度記憶網絡中進行情感分類。

        8)DUPMN(Dual User and Product Memory Network)[20]:使用分層LSTM 作為基本模型,并將用戶和產品信息分別嵌入到兩個單獨的深層記憶網絡。

        9)HCSC(Hybrid Contextualized Sentiment Classifier)[21]:使用雙向LSTM 和CNN 的組合作為基本模型,并且還考慮了用戶和產品數(shù)量非常有限時的冷啟動問題。

        10)BLBC(Bidirectional-LSTM linear Basis Cust)[8]:使用BiLSTM 作為基本模型,并使用基向量來將用戶產品信息融合到模型的分類器上。

        11)HUPMA(Hierarchical User and Product Multi-head Attention)[9]:結構與NSC 類似,同樣使用分層BiLSTM 作為基礎模型,并且使用多頭注意力機制從多個視角獲取信息。

        2.4 實驗分析

        實驗在測試集上計算出Accuracy 值和RMSE 值,各個模型對比實驗結果如表2 所示。為驗證多尺度卷積和門控單元的有效性,本文做了消融實驗,實驗結果如表3 所示。

        表2 不同模型的準確率和RMSE對比Tab.2 Comparison of accuracy and RMSE among different models

        本文提出的模型為MSC-{GTU,GLU,GTUU},其中MSC代表多尺度卷積,NoGate 表示門控層不使用門控單元,NoMSC 表示去掉多尺度卷積層,no up 表示不融合用戶產品信息到模型中。GTU 和GLU 代表Yann 等提出的兩種門控單元,GTUU 代表本文提出的門控單元。本文分別在門控層使用這三種不同的門控單元做對比實驗。

        由表2可以看出,MSC-GTU 和MSC-GLU 在IMDB 和Yelp2014 上的準確率都超越了基準模型中性能最好的那個:MSC-GTU 分別提高了0.2 和0.5 個百分點,MSC-GLU 分別提高了0.4 和0.6 個百分點。相比MSC-NoGate,MSC-GTU 在Yelp2013 和Yelp2014 數(shù)據(jù)集上的準確率均提高了0.2 個百分點;MSC-GLU 在IMDB、Yelp2013 和Yelp2014 數(shù)據(jù)集的準確率分別提高了0.2 個百分點、0.1 個百分點、0.3 個百分點;MSC-GTUU 在IMDB、Yelp2013 和Yelp2014 數(shù)據(jù)集的準確率分別提高了1.0 個百分點、0.8 個百分點和0.4 個百分點。驗證了門控單元的引入有助于提高情感分析的性能。

        表2 中,對比使用門控單元的模型在3 個數(shù)據(jù)集上所展示出的性能,使用本文提出的GTUU 門控單元的模型MSCGTUU 明顯優(yōu)于MSC-GTU 和MSC-GLU。相比MSC-GTU,MSC-GTUU 在IMDB、Yelp2013 和Yelp2014 數(shù)據(jù)集上的準確率分別提高了1.0 個百分點、0.6 個百分點和0.2 個百分點。相比MSC-GLU,MSC-GTUU 在IMDB、Yelp2013 和Yelp2014 數(shù)據(jù)集上的準確率分別提高了0.8 個百分點、0.7 個百分點和0.1 個百分點。實驗結果表明,在文檔級情感分析中,本文提出的GTUU 門控單元更加有效。

        GTUU 為梯度提供線性路徑,同時保持非線性能力。對比基準模型,MSC-GTUU 在IMDB 和Yelp2014 上表現(xiàn)最佳。相比基準模型中最好性能的那個,MSC-GTUU 在IMDB 和Yelp2014 上的準確率分別提高了1.2 個百分點和0.7 個百分點,并且在IMDB 和Yelp2013 上獲得了最小的RMSE。實驗結果表明,本文模型可以更有效地進行文檔級情感分類。

        對比表3 可以看出,使用多尺度卷積編碼的MSC-GTUU相比不使用多尺度卷積編碼NoMSC-GTUU 在IMDB、Yelp2013 和Yelp2014 數(shù)據(jù)集的準確率分別提高了1.6 個百分點、1.1 個百分點、1.1 個百分點。由此可見,多尺度卷積對情感分類性能提升的有效性。

        表3 多尺度卷積、門控單元和用戶產品信息的消融實驗Tab.3 Ablation experiment of multi-scale convolution,gating unit and user-product information

        MSC-GTUU(no up)和MSC-GTUU 這兩組對比實驗結果表明,融合了用戶產品信息的模型相比僅考慮評論文本信息的模型擁有更高的準確率??紤]了用戶產品信息的模型MSC-GTUU 與不考慮用戶產品信息的MSC-GTUU(no up)相比在IMDB 和Yelp2014 上的準確率分別提高了6.3 個百分點、3.0 個百分點、3.8 個百分點。說明了融合用戶產品信息對文本情感分析的重要性。

        同時為驗證使用多尺度卷積聯(lián)合編碼的有效性,本文還在多尺度卷積層使用不同卷積濾波器做替代,并在IMDB 數(shù)據(jù)集上做對比實驗,實驗結果如表4所示。表4中,Conv(n)表示在多尺度卷積層使用卷積核大小和卷積步長為n的一維卷積濾波器提取相鄰n個單詞的語義信息作為一個情感語義單元,而Conv(a,b,c)表示同時使用3 個卷積寬度分別為a、b、c一維卷積濾波器提取不同尺度的信息對文本聯(lián)合編碼。

        表4 不同卷積濾波器的實驗結果對比Tab.4 Comparison of experimental results of different convolution filters

        卷積層的卷積寬度將直接影響到注意力層對文檔進行注意力計算的文本語義單元基本粒度(單詞級或n元詞組)。如表4 實驗Conv(1)、Conv(2)和Conv(4)所示,在卷積層使用單個卷積波器情況下,隨著卷積寬度的增大準確率不斷下降。實驗Conv(1,2,4)分別使用卷積核大小為1、2、4 的多尺度卷積聯(lián)合編碼方式相比對應單尺度編碼中最好的詞級編碼實驗Conv(1)準確率提升了1.0 個百分點,實驗結果表明通過多尺度卷積生成不同粒度的豐富的文檔表示對準確率提升的有效性。

        3 結語

        本文提出了一種基于多尺度卷積和門控機制的注意力情感分析網絡模型。使用三個不同卷積大小的卷積層分別對文本信息進行建模,獲得不同粒度的更豐富的上下文信息,再通過用戶產品注意力選擇與用戶產品相關度較高的語義單元生成文檔表示,引入門控機制到文檔級情感分析中,并且提出了一個新的門控單元GTUU 取得了更好的性能。之后將考慮如何更好地使用用戶產品信息去提高模型的泛化能力。

        猜你喜歡
        文檔尺度注意力
        讓注意力“飛”回來
        有人一聲不吭向你扔了個文檔
        財產的五大尺度和五重應對
        “揚眼”APP:讓注意力“變現(xiàn)”
        傳媒評論(2017年3期)2017-06-13 09:18:10
        基于RI碼計算的Word復制文檔鑒別
        A Beautiful Way Of Looking At Things
        宇宙的尺度
        太空探索(2016年5期)2016-07-12 15:17:55
        Persistence of the reproductive toxicity of chlorpiryphos-ethyl in male Wistar rat
        9
        不讓他人隨意下載Google文檔
        電腦迷(2012年4期)2012-04-29 06:12:13
        91精品国产综合久久久密臀九色| 日本午夜国产精彩| 亚洲AV无码AV色| 中文字幕一区乱码在线观看| 黄色av一区二区在线观看| 伊人久久精品久久亚洲一区| 亚洲成人观看| av网站一区二区三区| 日韩精品无码一区二区三区| 亚洲国产午夜精品理论片在线播放 | 一区二区三区在线乱码| 豆国产96在线 | 亚洲| 亚洲中文字幕无码久久| 无码人妻精品一区二区三区下载| 成人爽a毛片免费网站中国| 天天爽夜夜爽夜夜爽精品视频 | 蜜桃视频一区二区在线观看| 久久久久久久久久久国产| 亚洲中文字幕乱码免费| 国产精品自拍午夜伦理福利| 午夜男女很黄的视频| 亚洲精品免费专区| 久久免费精品视频老逼| 最新国产不卡在线视频| 国产精品_国产精品_k频道w| 本道无码一区二区久久激情| 偷拍视频这里只有精品| 欧美综合天天夜夜久久| 日韩a∨精品日韩在线观看| 中文字幕成人乱码亚洲| 国产毛片av最新视频| 国产精品亚韩精品无码a在线| 国产69精品一区二区三区| 人妻精品久久一区二区三区| 久久久久亚洲av成人无码| 五月天国产精品| 久久精品国产亚洲av沈先生| 一本加勒比hezyo无码专区| 玩弄放荡人妻一区二区三区| 亚洲一区极品美女写真在线看| av素人中文字幕在线观看|