亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        面向雙注意力網(wǎng)絡(luò)的特定方面情感分析模型

        2019-11-15 01:50:18孫小婉孫玉東
        計(jì)算機(jī)研究與發(fā)展 2019年11期
        關(guān)鍵詞:注意力向量神經(jīng)網(wǎng)絡(luò)

        孫小婉 王 英 王 鑫 孫玉東

        1(吉林大學(xué)軟件學(xué)院 長春 130012) 2(吉林大學(xué)計(jì)算機(jī)科學(xué)與技術(shù)學(xué)院 長春 130012) 3(符號計(jì)算與知識工程教育部重點(diǎn)實(shí)驗(yàn)室(吉林大學(xué)) 長春 130012) 4(長春工程學(xué)院計(jì)算機(jī)技術(shù)與工程學(xué)院 長春 130012)

        社交網(wǎng)絡(luò)的迅猛發(fā)展為人們提供了發(fā)表和分享個(gè)人言論的廣闊平臺,各種網(wǎng)絡(luò)數(shù)據(jù)迅速膨脹,越來越多的人在網(wǎng)絡(luò)上發(fā)表意見和表達(dá)情感.如何利用自然語言處理(natural language processing, NLP)技術(shù)分析社交網(wǎng)絡(luò)短文本的情感傾向,已經(jīng)成為研究人員關(guān)注的熱點(diǎn)[1].

        用戶在針對某實(shí)體發(fā)表觀點(diǎn)時(shí),除了在評論中給出總體評價(jià)外,通常也會針對該實(shí)體的多個(gè)方面發(fā)表觀點(diǎn)評論.特定方面情感分析(aspect-based sentiment analysis, ABSA)作為情感分析的重要子任務(wù)之一,可以針對不同的方面挖掘用戶更細(xì)膩更具體的情感表述[2].例如句子“The design of space is good but the service is horrible”,對于特定方面“space”是積極情感,而對于特定方面“service”是消極情感.與普通情感分析不同,特定方面情感分析需要判斷句子中不同方面的情感極性,這不僅依賴于文本的上下文信息,同時(shí)也要考慮不同方面的情感信息.因此,在同一句子中針對不同特定方面可能會出現(xiàn)完全相反的情感極性,可見特定方面情感極性的分析可以更加有效地幫助人們了解用戶對不同方面的情感表達(dá).

        近年來,深度學(xué)習(xí)已在NLP領(lǐng)域取得了令人矚目的成功.同時(shí),結(jié)合注意力機(jī)制(attention mech-anism)的神經(jīng)網(wǎng)絡(luò)模型在特定方面情感分析任務(wù)中取得了比以往方法更好的效果.梁斌等人[3]提出一種基于多注意力的卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural network, CNN),利用詞向量注意力機(jī)制、詞性注意力機(jī)制和位置注意力機(jī)制與卷積神經(jīng)網(wǎng)絡(luò)結(jié)合,使模型在不需要依存句法分析等外部知識的情況下,有效識別特定方面的情感極性.Zhu等人[4]提出使用雙向長短期記憶網(wǎng)絡(luò)(long short-term memory, LSTM)構(gòu)建句子的長期記憶,然后使用CNN從記憶中提取注意力以獲得更具體的句子表示,該方法使用特定方面嵌入表示目標(biāo)信息,取得較好的分類效果.結(jié)合注意力機(jī)制的神經(jīng)網(wǎng)絡(luò)可以在訓(xùn)練過程中高度關(guān)注特定方面的特征,并可以有效針對不同特定方面調(diào)整神經(jīng)網(wǎng)絡(luò)的參數(shù),進(jìn)而挖掘更多的隱藏特征.

        目前,結(jié)合注意力機(jī)制的神經(jīng)網(wǎng)絡(luò)主要包括基于注意力機(jī)制的卷積神經(jīng)網(wǎng)絡(luò)(CNN)和基于注意力機(jī)制的循環(huán)神經(jīng)網(wǎng)絡(luò)(recurrent neural network, RNN)[5].CNN在卷積層使用濾波器抽取文本特征,只能獲取濾波器窗口內(nèi)單詞間的依賴關(guān)系,無法獲取句子中所有單詞間的依賴關(guān)系,進(jìn)而無法獲取整體結(jié)構(gòu)信息.在圖像處理領(lǐng)域,相鄰像素點(diǎn)之間往往存在很大的相關(guān)程度,但在NLP領(lǐng)域,由于修飾詞、語法規(guī)則和表達(dá)習(xí)慣的影響,使得相鄰單詞的相關(guān)程度并不高.RNN及其衍生網(wǎng)絡(luò),例如LSTM,GRU(gated recurrent unit)在NLP領(lǐng)域應(yīng)用廣泛,RNN的原理是基于“人的認(rèn)知是基于過往經(jīng)驗(yàn)和記憶”這一觀點(diǎn)提出,與CNN不同,RNN不僅考慮前一時(shí)刻的輸入,而且賦予網(wǎng)絡(luò)對前面內(nèi)容的記憶功能,但RNN及其衍生網(wǎng)絡(luò)這類序列模型,難以實(shí)現(xiàn)并行計(jì)算,訓(xùn)練時(shí)間過慢,并且句子中單詞間的依賴程度會隨著距離增加而減弱.此外,CNN和RNN這2種結(jié)合注意力機(jī)制的神經(jīng)網(wǎng)絡(luò)模型,都使用單一注意力模式,即模型只進(jìn)行單次注意力計(jì)算,導(dǎo)致模型無法對句中單詞間的依賴關(guān)系實(shí)現(xiàn)深層次抽取.

        針對上述問題,本文提出面向雙注意力網(wǎng)絡(luò)的特定方面情感分析模型(dual-attention networks for aspect-level sentiment analysis, DANSA),主要貢獻(xiàn)有3方面:

        1) 提出融合上下文自注意力機(jī)制和特定方面注意力機(jī)制的多頭雙注意力網(wǎng)絡(luò)模型,不僅實(shí)現(xiàn)了大規(guī)模并行計(jì)算,大大降低了模型的訓(xùn)練時(shí)間,而且能夠抽取文本全局結(jié)構(gòu)信息和特定方面與文本的依賴關(guān)系.

        2) 提出將多頭注意力機(jī)制應(yīng)用在特定方面情感分析任務(wù)中,學(xué)習(xí)文本在不同線性變換下的注意力表示,能夠更全面、更深層次地理解句中單詞之間的依賴關(guān)系,更好地解決特定方面情感分析問題.

        3) 在SemEva2014數(shù)據(jù)集和Twitter數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn),相比于傳統(tǒng)神經(jīng)網(wǎng)絡(luò)和基于注意力機(jī)制的神經(jīng)網(wǎng)絡(luò),DANSA取得了更好的情感分類效果,進(jìn)一步驗(yàn)證了DANSA的有效性.

        1 相關(guān)工作

        1.1 特定方面情感分析

        特定方面情感分析是細(xì)粒度的情感分析,對特定方面情感極性的挖掘能夠幫助人們做出更正確的決策[6-7].

        在過去的研究中,特定方面情感分析方法主要是基于情感字典和機(jī)器學(xué)習(xí)的傳統(tǒng)方法[8].這些方法需要對輸入文本進(jìn)行大量的預(yù)處理和復(fù)雜的特征工程,以及例如依存關(guān)系分析等外部知識.模型的優(yōu)劣,很大程度上取決于人工設(shè)計(jì)和先驗(yàn)知識,耗時(shí)耗力且模型推廣能力差.

        近年來,深度學(xué)習(xí)技術(shù)在NLP各類任務(wù)中取得了重大突破,在特定方面情感分析領(lǐng)域也取得了比傳統(tǒng)機(jī)器學(xué)習(xí)方法更好的效果.Xue等人[9]提出基于卷積神經(jīng)網(wǎng)絡(luò)和門控制的模型,利用Gated Tanh-ReLU單元根據(jù)給定的特定方面或?qū)嶓w選擇性地輸出情感極性,在訓(xùn)練速度和分類準(zhǔn)確度上都取得了較好的效果.Piao等人[10]提出使用CNN和RNN聯(lián)合解決金融領(lǐng)域中的特定方面情感極性預(yù)測問題,利用Rigde回歸和特定方面預(yù)測投票策略,不依賴任何的手工標(biāo)注.Ma等人[11]提出在使用Senti-LSTM模型解決特定方面情感分析問題時(shí),聯(lián)合情感常識共同對模型進(jìn)行訓(xùn)練并得到更好的分類效果.這類基于深度神經(jīng)網(wǎng)絡(luò)的模型與傳統(tǒng)機(jī)器學(xué)習(xí)方法相比,大大降低了預(yù)處理和特征工程的工作量,但仍需要結(jié)合一些如依存句法分析、依存關(guān)系樹等外部知識.

        目前,將注意力機(jī)制與神經(jīng)網(wǎng)絡(luò)相結(jié)合的方法,已經(jīng)成為特定方面情感分析問題的主流方法.Cai等人[12]提出將注意力機(jī)制與LSTM結(jié)合進(jìn)行特定方面情感的層次提取,同時(shí)關(guān)注情感術(shù)語和特定方面的潛在聯(lián)系.Gu等人[13]認(rèn)為現(xiàn)有的工作大多忽略特定情感詞與句子之間的關(guān)系,提出基于雙向門控循環(huán)單元(gated recurrent unit, GRU)的位置感知雙向注意力網(wǎng)絡(luò),認(rèn)為當(dāng)特定方面術(shù)語出現(xiàn)在某一句子中時(shí),其鄰近的單詞應(yīng)該比其他長距離單詞給予更多的關(guān)注.He等人[14]提出將語法信息融入到注意力機(jī)制中,再與LSTM相結(jié)合,可以更好地預(yù)測特定方面的情感極性.Yi等人[15]提出conv-attention機(jī)制,將CNN的卷積操作與注意力結(jié)合,通過卷積運(yùn)算生成特定方面的注意力,對上下文單詞的時(shí)序信息進(jìn)行建模.這些結(jié)合注意力機(jī)制的神經(jīng)網(wǎng)絡(luò)在無需額外的語義分析等外部知識的情況下,取得了比僅使用神經(jīng)網(wǎng)絡(luò)模型更好的效果.但此類方法,多數(shù)使用單一層面注意力機(jī)制,沒有對注意力信息進(jìn)行更深層次的挖掘,且使用的神經(jīng)網(wǎng)絡(luò)存在訓(xùn)練速度慢、無法獲得全局結(jié)構(gòu)信息等缺點(diǎn).

        1.2 注意力機(jī)制

        注意力機(jī)制最早在圖像處理領(lǐng)域提出[16],目的是讓網(wǎng)絡(luò)模型在訓(xùn)練過程中高度關(guān)注指定的目標(biāo).近年來,注意力機(jī)制在NLP領(lǐng)域也發(fā)揮著越來越重要的作用.Cheng等人[17]將注意力機(jī)制應(yīng)用到機(jī)器翻譯任務(wù)中,提出全局注意力和局部注意力2種機(jī)制,為注意力機(jī)制在NLP中的應(yīng)用奠定了基礎(chǔ).Yin等人[18]提出將注意力機(jī)制與CNN結(jié)合解決句子對的建模問題,該方法使用在卷積時(shí)進(jìn)行注意力計(jì)算、在池化時(shí)進(jìn)行注意力計(jì)算以及在卷積和池化時(shí)同時(shí)進(jìn)行注意力計(jì)算這3種方式進(jìn)行建模,提供了在CNN中使用注意力機(jī)制的基礎(chǔ)思路.短短幾年內(nèi),如何利用注意力機(jī)制解決NLP領(lǐng)域問題已經(jīng)成為研究人員關(guān)注的熱點(diǎn).谷歌翻譯團(tuán)隊(duì)[19]提出僅使用注意力機(jī)制的Transformer網(wǎng)絡(luò),該網(wǎng)絡(luò)使用大量自注意力機(jī)制獲取單詞間的依賴關(guān)系,并提出多頭注意力的概念,即不再使用單一注意力信息,而是將輸入經(jīng)過不同的線性變化獲取更全面的注意力表示.

        注意力機(jī)制的特性使得其可以很好地解決句子中特定方面情感極性判別問題.Fan等人[20]提出利用細(xì)粒度注意力機(jī)制和粗粒度注意力機(jī)制組成多粒度注意力網(wǎng)絡(luò),并設(shè)計(jì)特定方面對齊損失來描述具有相同上下文的特定方面之間的方面級別交互.Wang等人[21]提出面向語法導(dǎo)向的混合注意力網(wǎng)絡(luò),使用全局注意力來捕獲特定目標(biāo)的粗略信息,利用語法指導(dǎo)的局部注意力查看在語法上接近特定方面的單詞,利用信息門來合成全局注意力和局部注意力信息,并自適應(yīng)生成較少噪聲和更多情緒導(dǎo)向的表示,解決了全局注意力將高注意力得分分配給不相關(guān)的情感單詞的困擾.這些方法不僅證明了注意力機(jī)制在特定方面情感分析領(lǐng)域的有效性,還為今后的研究提供了新的思路.

        2 問題描述與方法概論

        2.1 任務(wù)定義

        給定長度為n的句子,即s={w1,w2,…,a1,a2,…,wn}每個(gè)句子由一系列的詞語wi組成,其中a1和a2是句子s中特定方面的目標(biāo)詞,每個(gè)句子有一個(gè)或多個(gè)目標(biāo)詞.本文的任務(wù)是根據(jù)輸入的句子判斷句子中特定方面的情感極性(積極、消極、中立),例如句子“a group of friendly staff,the pizza is not bad,but the beef cubes are not worth the money”,該句中特定方面“staff”,“pizza”,“beef cubes”的情感極性分別為積極、中立和消極.本文將句子以詞為單位形成1個(gè)詞序列,然后通過詞嵌入層將每一個(gè)詞映射成低維空間中的連續(xù)值詞向量,得到上下文詞向量矩陣Ec∈Rk×c′和特定方面詞向量矩陣Ea∈Rk×a′,其中k為詞向量維度,c′為上下文詞向量數(shù)量,a′為特定方面詞向量數(shù)量.

        2.2 方法概述

        為了更好地識別同一句子中不同特定方面的情感極性,本文針對不同的特定方面將句子表示為多個(gè)分句,分句的個(gè)數(shù)取決于不同特定方面的數(shù)量,例如句子“Good food but dreadful service at that restaurant”表示成表1所示形式.本文采用多頭注意力機(jī)制來構(gòu)建DANSA模型的2種注意力機(jī)制:

        1) 特定方面注意力機(jī)制.將特定方面詞向量矩陣與上下文詞向量矩陣做注意力運(yùn)算,獲取對特定方面的注意力信息,從而加強(qiáng)模型對特定方面的關(guān)注程度.

        2) 上下文自注意力機(jī)制.對上下文詞向量矩陣中每一個(gè)詞向量進(jìn)行自注意力操作,以獲得每一個(gè)單詞與其他單詞的依賴關(guān)系,進(jìn)而獲取輸入句子的全局結(jié)構(gòu)信息.

        Table 1 Form of Sentences表1 分句形式

        2.3 特定方面注意力機(jī)制

        注意力機(jī)制的目的是在訓(xùn)練過程中,讓模型了解輸入數(shù)據(jù)中哪一部分信息是重要的,從而使模型高度關(guān)注這些信息.對于特定方面情感分析而言,可以通過分析文本內(nèi)容得到哪些詞與句子中特定方面目標(biāo)詞的相關(guān)度更高.例如句子“The appetizers are ok,but the service is slow”,詞語“ok”是用來形容目標(biāo)詞“appetizers”的,而詞語“slow”是用來形容目標(biāo)詞“service”的,因此在該句中,詞語“ok”相比“slow”與目標(biāo)詞“appetizers”相關(guān)程度更高.同理,詞語“slow”相比“ok”,與目標(biāo)詞“service”的相關(guān)度更高.

        特定方面注意力機(jī)制如圖1所示,對于句子“The appetizers are ok,but the service is slow”,通過詞嵌入操作可以得到上下文詞向量矩陣Ec=(x1,x2,…,x9)和特定方面詞向量矩陣Ea=(t1,t2),其中t1為特定方面“appetizers”,t2為特定方面“service”.首先,將特定方面詞向量矩陣中的每一個(gè)詞與上下文詞向量矩陣進(jìn)行相似度計(jì)算,得到相似度向量e,e中的值表示相應(yīng)位置詞向量間的相似程度,形式為

        eij=f(ti,xj).

        (1)

        常用相似度計(jì)算函數(shù)主要有加性相似度函數(shù)和點(diǎn)積相似度函數(shù),加性相似度函數(shù)使用神經(jīng)網(wǎng)絡(luò)來計(jì)算2部分的相似度,形式為

        eij=wTσ(ti+xj),

        (2)

        其中,σ(·)表示激活函數(shù),wT為訓(xùn)練參數(shù).點(diǎn)積注意力通過點(diǎn)積運(yùn)算計(jì)算2部分的相似度,形式為

        eij=ti,xj,

        (3)

        (4)

        其中,dx表示詞向量xj的維度.

        向量e通過歸一化操作得到注意力權(quán)重向量ea,ea中的元素代表相應(yīng)位置上特定方面單詞與上下文中單詞的相關(guān)程度:

        (5)

        最后,特定方面詞向量可以用權(quán)重矩陣中對應(yīng)的權(quán)重與原來的詞向量加權(quán)求和表示:

        (6)

        Fig. 1 The aspect attention mechanism圖1 特定方面注意力機(jī)制

        2.4 上下文自注意力機(jī)制

        自注意力機(jī)制是注意力機(jī)制的一種特殊形式,通過計(jì)算句子中每一個(gè)單詞與其他所有單詞的注意力得分,獲取每一對單詞間的依賴關(guān)系,對于遠(yuǎn)程和局部依賴都具有良好的靈活性.本文采用自注意力機(jī)制獲取輸入文本上下文中單詞的依賴關(guān)系,以獲取全局結(jié)構(gòu)信息.例如句子“Great food but the service was dreadful”,上下文自注意力機(jī)制的任務(wù)是要分別計(jì)算句子中7個(gè)單詞與其他單詞的注意力得分.

        對于經(jīng)過詞嵌入的上下文詞向量矩Ec經(jīng)過上下文自注意力機(jī)制操作后得到相同維度的自注意力矩陣Bc,如圖2所示:

        Fig. 2 The context self-attention mechanism圖2 上下文自注意力機(jī)制

        2.5 多頭注意力機(jī)制下的雙注意力

        傳統(tǒng)的注意力機(jī)制只考慮單詞之間單一層面的注意力信息,多頭注意力通過計(jì)算句子在不同線性變換下的表示來獲取更全面的注意力信息.

        如圖3所示,以句子“The food is great”為例,句中單詞經(jīng)過詞嵌入后得到相應(yīng)的詞向量x1,x2,x3,x4,分別與線性變換矩陣W(1),W(2),W(3)進(jìn)行點(diǎn)乘得到相對應(yīng)的線性變換后的向量.特定方面“food”經(jīng)過詞嵌入后得到相應(yīng)的詞向量,與線性變換矩陣Wp點(diǎn)乘后得到對應(yīng)的向量p1.

        Fig. 3 The examples of linear transformations圖3 線性變換例子

        特定方面“food”注意力計(jì)算過程有3個(gè):1)計(jì)算p1與k1,k2,k3,k4的相似度得分;2)對相似度得分進(jìn)行歸一化操作;3)用歸一化后得到的權(quán)重分別與對應(yīng)位置的v1,v2,v3,v4相乘求和,進(jìn)而得到最終的注意力向量.

        同理,上下文“The food is great”自注意力計(jì)算過程就是將p1替換成上下文詞向量線性變換后的表示q1,q2,q3,q4.多頭注意力機(jī)制就是在多次不同組線性變換下,重復(fù)上述操作.

        3 面向雙注意力網(wǎng)絡(luò)的特定方面情感分析模型(DANSA)

        Fig. 4 Framework of DANSA圖4 DANSA模型框架

        面向特定方面細(xì)粒度情感分析的雙注意力網(wǎng)絡(luò)(DANSA)如圖4所示,文本上下文與特定方面目標(biāo)詞首先通過嵌入層將每個(gè)單詞映射成1個(gè)多維連續(xù)值詞向量進(jìn)而得到上下文詞向量矩陣與特定方面詞向量矩陣,然后通過線性變換層得到2個(gè)矩陣在多次不同線性變換下的映射矩陣,再通過雙注意力層對不同映射矩陣進(jìn)行特定方面和文本上下文雙注意力操作得到注意力表示矩陣,最后經(jīng)過輸出層得到最終的情感分類結(jié)果,DANSA由4部分組成:

        1) 詞嵌入層.將輸入看作以詞為單位的詞序列,通過本層將輸入文本上下文序列和特定方面序列中的每一個(gè)詞映射為1個(gè)多維的連續(xù)值詞向量,從而得到2部分的詞向量矩陣.

        2) 線性變換層.通過對上下文和特定方面2部分詞向量矩陣進(jìn)行多次不同線性變換,得到2部分詞向量矩陣在不同線性變換條件下的表示,從而使模型能夠從多方面捕獲上下文和特定方面的特征信息.

        3) 雙注意力層.通過計(jì)算上下文部分的多頭自注意力,捕獲詞與詞間的依賴關(guān)系,獲取文本的整體結(jié)構(gòu)信息.然后,計(jì)算特定方面對于文本的注意力得分,以獲取文本與特定方面間的依賴關(guān)系.將2部分注意力進(jìn)行拼接并再次進(jìn)行線性映射操作,利用池化操作獲得不同線性變換條件下最重要的情感特征.

        4) 輸出層.使用softmax函數(shù)得到輸出結(jié)果,最終獲取特定方面的情感極性.

        3.1 模型構(gòu)建

        給定句子在經(jīng)過詞嵌入層后得到上下文詞向量矩陣Ec=(x1,x2,…,xn)和特定方面詞向量矩陣Ea=(t1,t2,…,tm),在線性變換層,通過對2個(gè)矩陣進(jìn)行不同的線性變換,得到2個(gè)矩陣在不同線性變換下的表示,圖5描述了1次線性變換的過程,線性變換層的工作就是重復(fù)此過程n次.

        Fig. 5 Process of linear transformation圖5 線性變換過程

        上下文詞向量矩陣Ec經(jīng)過不同的3組線性變換得到矩陣Qc,Kc,Vc,特定方面詞向量矩陣Ea經(jīng)過線性變換得到矩陣Pa.其中WQ,WK,WV,WP為線性變換參數(shù)矩陣.

        在雙注意力層,上下文自注意力矩陣Sc的計(jì)算方式為

        (7)

        其中,dk為矩陣Kc列向量的維度.使用線性變換后的矩陣Qc,Kc,Vc通過縮放點(diǎn)積注意力函數(shù)得出.

        同理,特定方面注意力矩陣Da為

        (8)

        將每次線性變換下得到的上下文自注意力矩陣與特定方面注意力矩陣進(jìn)行拼接,得到雙注意力矩陣Ui,然后將每次線性變換后的雙注意力矩陣U1,U2,…,Un進(jìn)行拼接,再次進(jìn)行線性變換得到最終的注意力表達(dá)矩陣Z:

        Z=concat(U1,U2,…,Un).

        (9)

        在模型的最后一層,將上層輸出矩陣進(jìn)行平均池化操作得到特征向量zavg,然后像傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)一樣,將池化后的結(jié)果經(jīng)過全連接層后輸入到最終的softmax分類器中,從而得到最終的情感極性.

        3.2 模型訓(xùn)練

        本文使用雙注意力層輸出作為全連接層輸入,通過一個(gè)softmax函數(shù)輸出最終情感極性,即:

        y=softmax(Wzavg+B),

        (10)

        其中,zavg為雙注意力層輸出,W為全連接層權(quán)重矩陣,B為全連接層偏置項(xiàng)矩陣.本文使用反向傳播法來優(yōu)化模型,交叉熵為

        (11)

        4 實(shí) 驗(yàn)

        4.1 實(shí)驗(yàn)數(shù)據(jù)

        本文采用SemEval2014數(shù)據(jù)集(1)http:alt.qcri.orgsemeval2014和Twitter數(shù)據(jù)集進(jìn)行對比實(shí)驗(yàn),數(shù)據(jù)樣本的情感極性分為積極、消極和中性.其中,SemEval2014數(shù)據(jù)集是語義測評比賽任務(wù)的數(shù)據(jù)集,包括laptop和restaurant 2個(gè)領(lǐng)域的用戶評論.通過對比實(shí)驗(yàn),驗(yàn)證了本文提出的DANSA在不同領(lǐng)域數(shù)據(jù)集上都取得了較好的情感分類性能,表2給出本文實(shí)驗(yàn)使用數(shù)據(jù)統(tǒng)計(jì):

        Table 2 Statistic of the Datasets表2 實(shí)驗(yàn)使用數(shù)據(jù)統(tǒng)計(jì)

        4.2 超參數(shù)

        在本文的實(shí)驗(yàn)中,詞向量采用Pennington等人[22]提出的Glove詞向量(2)http:nlp.stanford.eduprojectsglove,其中每個(gè)詞向量維度為300維,詞典大小為1.9 MB.對于未登錄詞,采用均勻分布U(-0.01,0.01)隨機(jī)初始化詞向量.L2正則項(xiàng)系數(shù)設(shè)置為10-4,隨機(jī)失活率(dropout rate)設(shè)置為0.5,Adam優(yōu)化器初始學(xué)習(xí)率為0.01,模型迭代次數(shù)(epoch)為10.在線性變換層,線性變換次數(shù)設(shè)置為8,注意力函數(shù)采用縮放點(diǎn)積注意力.

        4.3 對比實(shí)驗(yàn)

        將本文提出的DANSA同8種方法在2個(gè)不同數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn):

        1) SVM.基于特征的SVM分類方法,是傳統(tǒng)機(jī)器學(xué)習(xí)的常用方法.

        2) CNN.基于Kim[23]提出的卷積神經(jīng)網(wǎng)絡(luò)模型,是最基礎(chǔ)的卷積神經(jīng)網(wǎng)絡(luò).

        3) ATT-CNN.基于Wang等人[24]提出的基于注意力機(jī)制的卷積神經(jīng)網(wǎng)絡(luò).

        4) LSTM.基礎(chǔ)LSTM網(wǎng)絡(luò),使用最后隱藏狀態(tài)作為句子表示,輸入到最終分類器中.

        5) TD-LSTM.基于Tang等人[25]提出的使用2個(gè)LSTM網(wǎng)絡(luò),分別作用于特定方面之前的文本和之后的文本,然后使用2個(gè)LSTM網(wǎng)絡(luò)的最后隱藏狀態(tài)的拼接預(yù)測情感極性.

        6) AT-LSTM.基于Wang等人[26]提出的通過LSTM網(wǎng)絡(luò)對文本上下文建模,然后將隱狀態(tài)與特定方面聯(lián)合嵌入監(jiān)督注意力向量的生成,再由生成的注意力向量產(chǎn)生最后的特定方面情感極性.

        7) ATAE-LSTM.是在AT-LSTM基礎(chǔ)上的拓展,它將特定方面嵌入向量與每個(gè)單詞嵌入向量相加表示上下文.

        8) IAN.基于Ma等人[27]提出的使用2個(gè)LSTM網(wǎng)絡(luò)分別對句子和特定方面進(jìn)行建模,交互生成2部分的注意力向量用于情感分類.

        不同模型在SemEval2014和Twitter數(shù)據(jù)集上經(jīng)過10次迭代后的準(zhǔn)確率如表3所示,對于實(shí)驗(yàn)結(jié)果的分析為:

        1) 在前4種沒有使用注意力機(jī)制的模型中,普通CNN網(wǎng)絡(luò)的情感分析模型準(zhǔn)確率偏低.CNN在圖像處理領(lǐng)域的有效性是有目共睹的,這是因?yàn)樵趫D像上相鄰像素點(diǎn)通常是相關(guān)的,而在自然語言處理中,句子中相鄰的詞語未必相關(guān),相關(guān)詞語之間可能存在若干的修飾詞語,這導(dǎo)致CNN卷積操作所獲取的信息不完整,不能有效地利用數(shù)據(jù)信息.傳統(tǒng)SVM分類器準(zhǔn)確率雖然略高于普通CNN,但分類效果仍不理想,這是因?yàn)楸疚脑趯?shí)驗(yàn)過程中沒有做過多特征工程的工作,而傳統(tǒng)機(jī)器學(xué)習(xí)方法的優(yōu)劣很大程度上取決于特征工程的質(zhì)量.基礎(chǔ)LSTM模型的結(jié)果優(yōu)于前2種模型,這是因?yàn)長STM善于處理序列問題并通過門機(jī)制來實(shí)現(xiàn)長時(shí)依賴,但基礎(chǔ)LSTM并沒有特別關(guān)注句子中的特定方面目標(biāo)詞.TD-LSTM相比普通LSTM在3個(gè)數(shù)據(jù)集上的準(zhǔn)確率分別提升了2.8%,1.29%,1.56%,原因是TD-LSTM開始對特定方面進(jìn)行關(guān)注,它通過在文本中特定方面的左右分別建模,利用2個(gè)LSTM網(wǎng)絡(luò)來學(xué)習(xí)特定方面的表示,這種方法雖然取得了一定的效果,但對于模型來說,文本中每個(gè)詞對特定方面的影響都是相同的,沒有對更重要的部分重點(diǎn)學(xué)習(xí).

        2) 在另外4種將注意力機(jī)制與神經(jīng)網(wǎng)絡(luò)相結(jié)合的模型中,其準(zhǔn)確率相比沒有使用注意力的模型,都有明顯提升,證明了注意力機(jī)制在特定方面情感分析任務(wù)中的有效性.由于CNN在NLP中的局限性,ATT-CNN的結(jié)果相比于將注意力與LSTM相結(jié)合的模型,結(jié)果并不理想.AT-LSTM,ATAE-LSTM,IAN都是將注意力機(jī)制與LSTM相結(jié)合的方法,在準(zhǔn)確率上相比4種方法都有所提升.AT-LSTM和ATAE-LSTM通過注意力機(jī)制來監(jiān)督特定方面上下文中的重要信息,并且將特定方面與文本進(jìn)行聯(lián)合嵌入,這為特定方面情感分類生成更合理的表示.IAN對文本和特定方面進(jìn)行單獨(dú)建模,交互的生成注意力,不僅學(xué)習(xí)文本中對特定方面相對重要的信息,也學(xué)習(xí)了特定方面中對文本更重要的信息,再次證明了注意力機(jī)制的有效性.

        3) 本文提出的DANSA在對比實(shí)驗(yàn)中取得了最好的效果,證明了模型的有效性.在將注意力與神經(jīng)網(wǎng)絡(luò)相結(jié)合的模型中,都使用了單一的注意力機(jī)制,都是從單一層面獲取注意力信息,而DANSA使用多頭注意力機(jī)制來搭建注意力網(wǎng)絡(luò),它將文本和特定方面進(jìn)行多次不同的線性變換,學(xué)習(xí)兩者在不同線性變換下的注意力表示,能夠更深層次地學(xué)習(xí)和表示文本.不同于基于CNN的模型,DANSA通過自注意力計(jì)算,獲取了文本全局的依賴信息;與基于LSTM網(wǎng)絡(luò)的模型相比,模型首先通過自注意力來獲取文本中每一個(gè)詞向量與其他詞向量的相關(guān)度,實(shí)現(xiàn)了詞向量之間的長距離依賴,再通過特定方面注意力的計(jì)算,獲取了文本中對特定方面的重要信息,從而得到更好的分類效果,同時(shí)DANSA能夠?qū)崿F(xiàn)大規(guī)模并行化計(jì)算,大大提升了模型訓(xùn)練速度.

        Table 3 Accuracy of Different Models表3 不同模型的準(zhǔn)確率 %

        4.4 DANSA模型分析

        4.4.1 運(yùn)行時(shí)間分析

        本文使用相同的詞向量矩陣和相同的數(shù)據(jù)集,在相同的CPU,GPU和網(wǎng)絡(luò)框架下完成訓(xùn)練時(shí)間對比實(shí)驗(yàn),表4給出了不同模型在Restaurant領(lǐng)域數(shù)據(jù)集上完成1次迭代的訓(xùn)練時(shí)間對比結(jié)果.

        Table 4 Runtime of Each Training Epoch表4 不同模型完成1次迭代的訓(xùn)練時(shí)間

        從表4可以看出, 在基于LSTM的模型中,普通的LSTM模型訓(xùn)練時(shí)間需要417 s,加入注意力機(jī)制的AT-LSTM和ATAE-LSTM的訓(xùn)練時(shí)間都超過了500 s.訓(xùn)練時(shí)間過長是LSTM網(wǎng)絡(luò)最大的弱點(diǎn),由于網(wǎng)絡(luò)接收序列形數(shù)據(jù),導(dǎo)致無法實(shí)現(xiàn)并行計(jì)算,并且LSTM的每一個(gè)單元都需要相當(dāng)復(fù)雜的運(yùn)算操作,這些原因都大大增加了LSTM的訓(xùn)練時(shí)間.

        普通的CNN模型訓(xùn)練時(shí)間是最短的,完成1次迭代的訓(xùn)練時(shí)間只需要8 s,加入注意力機(jī)制的ATT-CNN模型的訓(xùn)練時(shí)間也只需17 s,訓(xùn)練時(shí)間遠(yuǎn)遠(yuǎn)優(yōu)于LSTM網(wǎng)絡(luò).DANSA模型完成1次迭代時(shí)間為58 s,雖然高于基于CNN的模型,但是卻遠(yuǎn)遠(yuǎn)優(yōu)于基于LSTM網(wǎng)絡(luò)的模型.模型中文本自注意力和特定方面注意力的計(jì)算必然會消耗一定時(shí)間,但不同線性變換下的注意力是可以并行計(jì)算的,這與普通注意力在時(shí)間復(fù)雜度上是相同的.在保證了準(zhǔn)確率的基礎(chǔ)上,DANSA模型的訓(xùn)練時(shí)間相比基于LSTM的模型平均減少了449 s.

        4.4.2 線性變換次數(shù)分析

        對DANSA采用的多頭注意力機(jī)制在不同線性變換次數(shù)下的準(zhǔn)確率進(jìn)行對比分析,實(shí)驗(yàn)對比結(jié)果如圖6所示:

        Fig. 6 Accuracy of different transformation times圖6 不同線性映射次數(shù)的準(zhǔn)確率

        實(shí)驗(yàn)對比了線性變換次數(shù)為2,4,6,8,10時(shí)在數(shù)據(jù)集Restaurant上經(jīng)過10次迭代的準(zhǔn)確率情況.從圖6可以看出,模型的準(zhǔn)確率大體隨著線性變換次數(shù)(k)的增加而增加,但當(dāng)k=10時(shí)的準(zhǔn)確率相比k=8時(shí)有所下降,這說明在此數(shù)據(jù)集上,當(dāng)k=10時(shí),可能存在模型的過擬合現(xiàn)象,所以本文在對比實(shí)驗(yàn)中將線性變換次數(shù)設(shè)置為8.

        4.4.3 注意力類型分析

        將采用縮放點(diǎn)積注意力的DANSA和采用加性注意力的DANSA在Restaurant數(shù)據(jù)集上進(jìn)行準(zhǔn)確率對比實(shí)驗(yàn),在Laptop,Restaurant,Twitter數(shù)據(jù)集上進(jìn)行訓(xùn)練時(shí)間對比實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果如圖7與圖8所示.

        Fig. 7 Accuracy of different attention types圖7 不同注意力類型的準(zhǔn)確率

        Fig. 8 The runtime of different attention types圖8 不同注意力類型的訓(xùn)練時(shí)間

        從圖7可以看到,經(jīng)過10次迭代之后,使用加性注意力的DANSA模型準(zhǔn)確率略高于使用縮放點(diǎn)積注意力的模型.加性注意力使用神經(jīng)網(wǎng)絡(luò)來計(jì)算2個(gè)元素的相似度或相關(guān)度,可以更深層次地學(xué)習(xí)元素之間的依賴關(guān)系,實(shí)驗(yàn)證明在準(zhǔn)確率上使用加性注意力的DANSA確實(shí)可以取得更好的效果.但從圖8可以明顯地看出,在3個(gè)數(shù)據(jù)集上,使用加性注意力的模型在訓(xùn)練時(shí)間上是使用點(diǎn)積注意力模型的3倍,加性注意力使用神經(jīng)網(wǎng)絡(luò)作為相似度函數(shù),需要訓(xùn)練更多的參數(shù),需要付出更高的時(shí)間成本.考慮到模型的綜合性能,在對比實(shí)驗(yàn)中,本文采用縮放點(diǎn)積注意力來構(gòu)造DANSA模型.

        4.5 注意力可視化

        從Restaurant-test數(shù)據(jù)集中選取句子“Great food but the service was dreadful!”用作自注意力可視化說明,如圖9所示,區(qū)域顏色越深,代表注意力權(quán)重越大.

        Fig. 9 The context self-attention weights圖9 上下文自注意力權(quán)重

        從圖9可以看出,名詞、動(dòng)詞和形容詞等在語義上重要的詞,通常會受到很大的關(guān)注,比如句子中的“great”,“food”,“service”,“dreadful”都受到更高的關(guān)注,但是一些停用詞則不會受到過高的關(guān)注.全局中重要的詞,比如“food”和“service”,由于句子主要是針對這2個(gè)詞進(jìn)行描述,所以它們獲得其他單詞更多的關(guān)注.如果一個(gè)單詞僅與某些詞有關(guān),那么它會獲得相關(guān)詞的更高的關(guān)注,例如“food”與“great”相關(guān)度極高,“service”只與“dreadful”相關(guān)度極高.

        選取句子“The appetizers are ok,but the service is slow”用作特定方面注意力可視化說明,如表5所示,表5中句子區(qū)域顏色越深,代表該詞注意力權(quán)重越大.

        Table 5 The Weight of Aspect Attention表5 特定方面注意力權(quán)重

        從表5可以清楚地看到,對于特定方面“appetizers”,代表“ok”的區(qū)域顏色極深,說明詞“ok”與“appetizers”這個(gè)特定方面相關(guān)度極大,而其他區(qū)域都為較淺的顏色.在特定方面為“service”也有同樣的情況,代表“slow”的區(qū)域?yàn)樯罴t色,說明“service”與“slow”極為相關(guān).這說明注意力機(jī)制可以有效地捕捉與特定方面相關(guān)的信息,可以使模型更充分地獲取有效信息.

        5 總 結(jié)

        在以往的工作中,大部分針對特定方面情感分析的研究都是將注意力機(jī)制與CNN或LSTM網(wǎng)絡(luò)相結(jié)合.然而基于CNN的模型無法獲取全局信息,而基于LSTM網(wǎng)絡(luò)的模型則需要很高的時(shí)間代價(jià)且元素間的依賴關(guān)系會受到距離的影響,因此本文提出一種面向雙注意力網(wǎng)絡(luò)的特定方面情感分析模型(DANSA),將多頭注意力機(jī)制應(yīng)用到細(xì)粒度情感分析問題中,主要思想是通過雙注意力網(wǎng)絡(luò)學(xué)習(xí)文本向量之間在不同線性映射下的依賴關(guān)系和特定方面與文本之間的依賴關(guān)系,并且所獲取的依賴關(guān)系不會因?yàn)榫嚯x而減弱,同時(shí),模型可以實(shí)現(xiàn)大規(guī)模并行化計(jì)算,極大地降低了訓(xùn)練時(shí)間.實(shí)驗(yàn)結(jié)果表明,DANSA可以合理有效地解決特定方面情感分析問題.

        DANSA目前沒有考慮文本的時(shí)序性問題,在未來的研究中,我們將就文本的時(shí)序問題和位置關(guān)系進(jìn)行研究,以提升模型的性能.

        猜你喜歡
        注意力向量神經(jīng)網(wǎng)絡(luò)
        向量的分解
        讓注意力“飛”回來
        聚焦“向量與三角”創(chuàng)新題
        神經(jīng)網(wǎng)絡(luò)抑制無線通信干擾探究
        電子制作(2019年19期)2019-11-23 08:42:00
        “揚(yáng)眼”APP:讓注意力“變現(xiàn)”
        傳媒評論(2017年3期)2017-06-13 09:18:10
        A Beautiful Way Of Looking At Things
        向量垂直在解析幾何中的應(yīng)用
        基于神經(jīng)網(wǎng)絡(luò)的拉矯機(jī)控制模型建立
        向量五種“變身” 玩轉(zhuǎn)圓錐曲線
        復(fù)數(shù)神經(jīng)網(wǎng)絡(luò)在基于WiFi的室內(nèi)LBS應(yīng)用
        亚洲av综合永久无码精品天堂| 区二区三区亚洲精品无| 日本不卡视频一区二区三区| 人妻 丝袜美腿 中文字幕| 日本50岁丰满熟妇xxxx | 亚洲AⅤ无码国精品中文字慕| 亚洲中文字幕高清乱码毛片| 97精品人妻一区二区三区在线| 性猛交╳xxx乱大交| 乱中年女人伦av| 无码啪啪人妻| 国产极品大奶在线视频| 美女网站免费福利视频| 午夜亚洲www湿好大| 亚洲乱色视频在线观看| 精品久久中文字幕系列| 亚洲成a∨人片在线观看不卡| 亚洲 都市 校园 激情 另类| 国产精品久久一区性色a| 中文字幕亚洲精品在线| 国产啪亚洲国产精品无码 | 夜夜添夜夜添夜夜摸夜夜摸 | 亚洲女同性恋第二区av| 无码h黄肉3d动漫在线观看| 色婷婷综合中文久久一本| 伊人狠狠色j香婷婷综合| 中文字幕中文字幕777| 欧美精品videosex极品| 久久香蕉国产线看观看网| 久久视频在线视频精品| 国产精品久久久久久久久久影院| 麻豆成人久久精品一区| 欧美亚洲日本国产综合在线美利坚| 天码人妻一区二区三区| 国产精品自产拍在线观看免费| 91九色精品日韩内射无| 999国产精品999久久久久久| 久久精品成人欧美大片| 激情五月天俺也去综合网| 丝袜美腿在线观看一区| 另类内射国产在线|