亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于多任務(wù)學(xué)習(xí)的正逆向情緒分值回歸方法

        2020-02-08 08:39:36高曉雅李逸薇李壽山
        關(guān)鍵詞:情緒方法模型

        高曉雅, 李逸薇, 張 璐, 李壽山

        (1. 蘇州大學(xué) 計(jì)算機(jī)科學(xué)與技術(shù)學(xué)院 江蘇 蘇州 215006; 2. 香港理工大學(xué) 中文及雙語(yǔ)系 香港 999077)

        0 引言

        隨著互聯(lián)網(wǎng)的高速發(fā)展,人們?cè)诰W(wǎng)絡(luò)平臺(tái)上共享信息的同時(shí),越來(lái)越習(xí)慣于在網(wǎng)絡(luò)上發(fā)表自己的評(píng)論及看法。如何對(duì)大量包含情感的文本進(jìn)行情緒分析,挖掘具有潛在價(jià)值的信息成為目前自然語(yǔ)言處理領(lǐng)域中的一個(gè)熱點(diǎn)問(wèn)題[1]。早期的情緒分析研究主要對(duì)評(píng)論進(jìn)行粗粒度的情緒分類(lèi),即關(guān)注評(píng)論的情緒極性(正面、中性、負(fù)面)。隨著相關(guān)研究的深入,文獻(xiàn)[2-3]將注意力轉(zhuǎn)移到細(xì)粒度情緒分類(lèi)任務(wù)中,對(duì)文本進(jìn)行了更細(xì)致的剖析。

        與情緒分類(lèi)不同,情緒回歸注重于分析情緒的連續(xù)性。文獻(xiàn)[4-5]從心理學(xué)角度將情緒映射到三維空間,坐標(biāo)值范圍均為1.0~5.0,3個(gè)維度分別為極性程度、喚醒度和可控度,其中極性程度表示情緒從消極到積極的程度,喚醒度表示情緒從冷靜到激動(dòng)的程度,可控度表示情緒的控制程度。傳統(tǒng)的情緒回歸方法,例如長(zhǎng)短期記憶網(wǎng)絡(luò)模型(LSTM)[6]和卷積神經(jīng)網(wǎng)絡(luò)(CNN)[7]均只對(duì)客觀的情緒分值進(jìn)行回歸,回歸結(jié)果偏差較大。例如,語(yǔ)句“Alonso would be happy to retire with three titles”中,極性程度分值受到詞“happy”的影響,模型輸出的分值為4.0,但是從詞“would be”和詞“retire”可以看出情緒有消極的部分。如果從消極的方向出發(fā)回歸極性程度分值,結(jié)果仍可得到4.0,但是由于兩種分值的總和始終為6.0。因此,如何利用從消極方向出發(fā)回歸得到的極性程度分值修正客觀的極性程度分值,使得客觀的極性程度分值接近于實(shí)際的分值3.4,成為本文的挑戰(zhàn)?;诖耍疚奶岢鲆环N基于多任務(wù)學(xué)習(xí)的情緒分值回歸方法,針對(duì)每種分值設(shè)計(jì)正向和逆向兩種打分方式,規(guī)定正向?yàn)榍榫w的積極、激動(dòng)和受控,逆向?yàn)榍榫w的消極、冷靜和失控,利用多任務(wù)學(xué)習(xí)方法聯(lián)合正向打分的情緒回歸主任務(wù)和逆向打分的情緒回歸輔助任務(wù),在多任務(wù)學(xué)習(xí)中通過(guò)3種不同的共享機(jī)制實(shí)現(xiàn)中間特征信息共享,改善了主任務(wù)的性能。

        1 相關(guān)工作

        情緒回歸是一種情緒分析任務(wù)。與情緒分類(lèi)相比,由于情緒回歸缺乏大規(guī)模的語(yǔ)料庫(kù),因此出現(xiàn)了一些與情緒回歸語(yǔ)料庫(kù)構(gòu)建相關(guān)的研究。文獻(xiàn)[8]通過(guò)多個(gè)在線(xiàn)資源,構(gòu)建了一個(gè)包含2 009個(gè)文本的中文情緒回歸語(yǔ)料庫(kù)。文獻(xiàn)[9]從Facebook收集用戶(hù)信息,建立了一個(gè)包含2 895個(gè)文本的英語(yǔ)情緒回歸語(yǔ)料庫(kù)。文獻(xiàn)[1]構(gòu)建了EmoBank大型情緒回歸語(yǔ)料庫(kù),其中包含10 000多個(gè)英文文本。文獻(xiàn)[10]提出一種基于區(qū)域卷積模型和LSTM的情緒回歸方法RCL,對(duì)文本的極性程度分值和喚醒度分值進(jìn)行了回歸。文獻(xiàn)[11]通過(guò)多任務(wù)學(xué)習(xí)實(shí)現(xiàn)了基于二維連續(xù)空間(極性程度分值和喚醒度分值)的情感識(shí)別。文獻(xiàn)[12]在基于循環(huán)神經(jīng)網(wǎng)絡(luò)的多任務(wù)學(xué)習(xí)框架中,將情緒三元分類(lèi)和五元分類(lèi)視為相關(guān)任務(wù),通過(guò)聯(lián)合學(xué)習(xí)改善細(xì)粒度情緒分類(lèi)問(wèn)題。

        與上述研究不同的是,本文從2個(gè)方向定義情緒分值,利用多任務(wù)學(xué)習(xí)方法聯(lián)合正逆向情緒回歸任務(wù),并通過(guò)3種不同的共享機(jī)制提升正向情緒回歸任務(wù)的性能。

        2 多任務(wù)學(xué)習(xí)方法

        本文提出一種基于多任務(wù)學(xué)習(xí)的正逆向情緒分值回歸方法。為了便于理解,將回歸任務(wù)抽象為4層:輸入層、編碼層、解碼層、輸出層。在編碼層中將不同的學(xué)習(xí)模型抽象為不同的密鑰,通過(guò)更換模型可以得到不同的回歸方法。

        2.1 基于編碼層共享的多任務(wù)學(xué)習(xí)方法

        共享編碼層的多任務(wù)學(xué)習(xí)框架如圖1所示。

        輸入數(shù)據(jù)X,分別經(jīng)過(guò)主任務(wù)的編碼層和輔助任務(wù)的共享編碼層,得到中間特征信息hMain1、hMain2、hAux,可以表示為

        hMain1=EncoderMain(X),

        hMain2=EncoderAux(X),

        hAux=EncoderAux(X)。

        將中間特征信息hMain1和hMain2拼接后共同輸入到主任務(wù)的解碼層中,再通過(guò)解碼層得到主任務(wù)回歸的正向情緒分值rMain,可以表示為

        h′Main=hMain1⊕hMain2,

        rMain=DecoderMain(h′Main)。

        定義一個(gè)代價(jià)函數(shù)來(lái)線(xiàn)性連接主任務(wù)和輔助任務(wù),可以表示為

        (1)

        2.2 基于解碼層共享的多任務(wù)學(xué)習(xí)方法

        共享解碼層的多任務(wù)學(xué)習(xí)框架如圖2所示。

        輸入數(shù)據(jù)X,分別經(jīng)過(guò)2個(gè)任務(wù)的編碼層,得到中間特征信息hMain、hAux,可以表示為

        hMain=EncoderMain(X),

        hAux=EncoderAux(X)。

        將中間特征信息hMain、hAux分別通過(guò)主任務(wù)解碼層和輔助任務(wù)解碼層,并將hMain共享到輔助任務(wù)的解碼層,可以表示為

        r′Main1=DecoderMain(hMain),

        r′Main2=DecoderAux(hMain)。

        將主任務(wù)解碼層輸出的r′Main1和輔助任務(wù)解碼層輸出的r′Main2,通過(guò)線(xiàn)性加權(quán)得到最終的正向情緒分值rMain,可以表示為

        rMain=W′·[r′Main1,r′Main2]+b′。

        共享解碼層的多任務(wù)學(xué)習(xí)框架的loss函數(shù)如式(1)所示。

        圖1 共享編碼層的多任務(wù)學(xué)習(xí)框架Figure 1 Multi-task learning framework of encoder-sharing layer

        圖2 共享解碼層的多任務(wù)學(xué)習(xí)框架Figure 2 Multi-task learning framework of decoder-sharing layer

        2.3 基于編、解碼層同時(shí)共享的多任務(wù)學(xué)習(xí)方法

        共享編、解碼層的多任務(wù)學(xué)習(xí)框架如圖3所示,此框架是由上述兩種框架相結(jié)合產(chǎn)生的。

        圖3 共享編、解碼層的多任務(wù)學(xué)習(xí)框架Figure 3 Multi-task learning framework of encoder-sharing and decoder-sharing layer

        輸入數(shù)據(jù)X,分別經(jīng)過(guò)主任務(wù)的編碼層和輔助任務(wù)的共享編碼層,得到中間特征信息hMain1、hMain2、hAux,可以表示為

        hMain1=EncoderMain(X),

        hMain2=EncoderAux(X),

        hAux=EncoderAux(X)。

        將中間特征信息hMain1和hMain2拼接后得到h′Main,可以表示為

        h′Main=hMain1⊕hMain2。

        將中間特征信息h′Main、hAux分別通過(guò)主任務(wù)的解碼層和輔助任務(wù)的解碼層,并將h′Main共享到輔助任務(wù)的解碼層,表示為

        r′Main1=DecoderMain(h′Main),

        r′Main2=DecoderAux(h′Main)。

        將主任務(wù)解碼層輸出的r′Main1和輔助任務(wù)解碼層輸出的r′Main2,通過(guò)線(xiàn)性加權(quán)得到正向情緒分值rMain,可以表示為

        rMain=W′·[r′Main1,r′Main2]+b′。

        共享編、解碼層的多任務(wù)學(xué)習(xí)框架的loss函數(shù)如式(1)所示。

        3 實(shí)驗(yàn)部分

        3.1 實(shí)驗(yàn)設(shè)置

        3.1.1數(shù)據(jù)設(shè)置 使用文獻(xiàn)[1]提供的EmoBank作為語(yǔ)料庫(kù),此語(yǔ)料庫(kù)可以從貢獻(xiàn)者的Github(https:∥github.com/JULIELab/EmoBank)中下載得到。語(yǔ)料共包含6個(gè)領(lǐng)域(News、Letters、Essays、Travel Guides、Blogs、Fictions),且細(xì)分為讀者情緒標(biāo)注和寫(xiě)者情緒標(biāo)注。將數(shù)據(jù)集的70%設(shè)置為訓(xùn)練集,10%設(shè)置為驗(yàn)證集,20%設(shè)置為測(cè)試集,訓(xùn)練集用于訓(xùn)練構(gòu)建模型,驗(yàn)證集用于調(diào)整模型的超參,測(cè)試集用于測(cè)試模型的回歸性能。

        使用斯坦福大學(xué)公開(kāi)的詞向量模型(下載網(wǎng)址為https:∥nlp.stanford.edu/projects/glove/)來(lái)表示每一條文本的詞語(yǔ)。

        3.1.2參數(shù)設(shè)置 在實(shí)驗(yàn)中使用LSTM模型作為多任務(wù)學(xué)習(xí)中的編碼器和解碼器,對(duì)擬合喚醒度分值、可控度分值、極性程度分值分別使用了不同的模型參數(shù)。詞向量維度Embedding均為100維,編碼層輸出LSTM_output_dim分別為32維、16維、16維,解碼層輸出Dense_hidden_dim同編碼層輸出LSTM_output_dim一致。

        在訓(xùn)練過(guò)程中,最大迭代輪數(shù)LSTM_epoch分別為100輪、100輪、300輪,均使用Adagrad優(yōu)化器且學(xué)習(xí)率learning_rate為0.02。

        3.1.3評(píng)估指標(biāo) 使用均方誤差(MSE)和相關(guān)系數(shù)(r)來(lái)衡量模型擬合的情緒分值和實(shí)際標(biāo)注的情緒分值之間的差異,較低的MSE或較高的r表示更好的回歸性能。

        MSE和r的計(jì)算公式可以表示為

        (2)

        (3)

        3.2 實(shí)驗(yàn)結(jié)果與分析

        3.2.1基準(zhǔn)方法 首先實(shí)現(xiàn)了單任務(wù)的正向情緒分值回歸方法,分別使用了以下3種模型。

        1) SVR模型。SVR模型即支持向量回歸模型,是情緒回歸任務(wù)中最常見(jiàn)的基準(zhǔn)方法之一[13],本文實(shí)驗(yàn)中應(yīng)用詞袋(BoW)作為其輸入特征。

        2) LSTM模型[6]。LSTM模型通過(guò)引入“門(mén)”的機(jī)制來(lái)決定信息“遺忘”還是“保留”,以解決循環(huán)神經(jīng)網(wǎng)絡(luò)中的梯度爆炸或梯度消失的問(wèn)題。LSTM模型具有強(qiáng)大的文本建模能力,廣泛應(yīng)用于自然語(yǔ)言處理領(lǐng)域中。

        3) RCL模型[10]。RCL模型將文本按句子劃分為多個(gè)區(qū)域,通過(guò)CNN模型提取區(qū)域特征,再由LSTM模型擬合出結(jié)果,是比較新穎的情緒回歸任務(wù)的基準(zhǔn)方法之一。

        基于單任務(wù)學(xué)習(xí)的情緒分值回歸方法的性能如表1所示。可以看出,神經(jīng)網(wǎng)絡(luò)方法即LSTM模型和RCL模型,通常優(yōu)于機(jī)器學(xué)習(xí)方法SVR。由于本文使用的EmoBank語(yǔ)料庫(kù)中的文本大多為單一短小的句子,RCL模型相較于LSTM模型無(wú)明顯優(yōu)勢(shì)。因此,在下面的實(shí)驗(yàn)中,將使用單任務(wù)學(xué)習(xí)的LSTM模型作為本文的基準(zhǔn)方法。

        表1 基于單任務(wù)學(xué)習(xí)的情緒分值回歸方法的性能Table 1 Performances of single-task learning approaches to emotion regression

        3.2.2多任務(wù)學(xué)習(xí)方法 根據(jù)不同的共享機(jī)制,多任務(wù)學(xué)習(xí)方法可以細(xì)分為基于編碼層共享方法、基于解碼層共享方法和基于編、解碼層同時(shí)共享方法3種,使用這3種方法分別擬合讀者、寫(xiě)者情緒標(biāo)注文本的情緒分值。

        基于多任務(wù)學(xué)習(xí)的情緒分值回歸方法的性能如表2所示??梢钥闯觯瑹o(wú)論選擇何種共享機(jī)制,基于多任務(wù)學(xué)習(xí)的方法始終優(yōu)于本文的基準(zhǔn)方法(LSTM單任務(wù)方法),并且也優(yōu)于RCL單任務(wù)方法,從而驗(yàn)證了本文所提出的多任務(wù)學(xué)習(xí)方法的有效性。顯著性檢驗(yàn)結(jié)果表明,本文的多任務(wù)學(xué)習(xí)方法相對(duì)于基準(zhǔn)方法的改進(jìn)效果是顯著的(P<0.05)。

        表2 基于多任務(wù)學(xué)習(xí)的情緒分值回歸方法的性能Table 2 Performances of multi-task learning approaches to emotion regression

        此外,本文的多任務(wù)學(xué)習(xí)方法在所有領(lǐng)域(語(yǔ)料融合了6個(gè)領(lǐng)域)的表現(xiàn)均比單任務(wù)學(xué)習(xí)方法更佳,其中編、解碼層同時(shí)共享的多任務(wù)學(xué)習(xí)方法表現(xiàn)最佳。顯著性檢驗(yàn)結(jié)果表明,編、解碼層同時(shí)共享的方法相對(duì)于僅共享編碼層或僅共享解碼層的方法,改進(jìn)效果是顯著的(P<0.05)。

        為了更好地理解多任務(wù)學(xué)習(xí)方法的有效性,對(duì)結(jié)果文件進(jìn)行了分析,發(fā)現(xiàn)基準(zhǔn)方法擬合出的結(jié)果往往會(huì)超過(guò)情緒分值的最大值,而使用多任務(wù)學(xué)習(xí)方法時(shí),正向分值受到逆向分值的影響,結(jié)果均小于情緒分值的最大值。

        4 結(jié)論

        本文提出了一種基于多任務(wù)學(xué)習(xí)的正逆向情緒分值回歸方法,對(duì)EmoBank語(yǔ)料庫(kù)中情緒的三維分值進(jìn)行擬合。針對(duì)每種分值設(shè)計(jì)正向和逆向2種打分方式,利用多任務(wù)學(xué)習(xí)方法聯(lián)合學(xué)習(xí)正向打分的情緒回歸主任務(wù)和逆向打分的情緒回歸輔助任務(wù),在多任務(wù)學(xué)習(xí)中通過(guò)3種不同的共享機(jī)制實(shí)現(xiàn)中間特征信息共享。實(shí)驗(yàn)結(jié)果表明,這種基于多任務(wù)學(xué)習(xí)的方法比單任務(wù)學(xué)習(xí)的方法效果更佳;在多任務(wù)學(xué)習(xí)方法中,基于編、解碼層同時(shí)共享的方法比僅基于編碼層或解碼層的方法獲得了更好的回歸性能。在未來(lái)的研究工作中,將考慮在編碼層中嘗試一些新的模型,以及探索語(yǔ)料庫(kù)中讀者和寫(xiě)者情緒之間的一些關(guān)聯(lián)性,擴(kuò)大多任務(wù)學(xué)習(xí)的范圍,以進(jìn)一步提高回歸性能。

        猜你喜歡
        情緒方法模型
        一半模型
        重要模型『一線(xiàn)三等角』
        重尾非線(xiàn)性自回歸模型自加權(quán)M-估計(jì)的漸近分布
        小情緒
        小情緒
        小情緒
        可能是方法不對(duì)
        3D打印中的模型分割與打包
        用對(duì)方法才能瘦
        Coco薇(2016年2期)2016-03-22 02:42:52
        四大方法 教你不再“坐以待病”!
        Coco薇(2015年1期)2015-08-13 02:47:34
        无码8090精品久久一区| 日韩在线视精品在亚洲| 国产又色又爽又黄刺激在线视频| 国产自拍视频一区在线| 国产成人av在线影院无毒| 夜夜欢性恔免费视频| 国产精品私密保养| 国产免费网站在线观看不卡| japanese色国产在线看视频| 国产精品久久久久久妇女6080| 色爱av综合网站| 日本一区二区国产精品| 免费人成视频网站在线观看不卡| 护士奶头又白又大又好摸视频| 日本最新免费二区| 开心五月天第四色婷婷| 亚洲二区精品婷婷久久精品| 国产一精品一aⅴ一免费| 品色堂永远的免费论坛| 亚洲欧美日韩在线不卡| 亚洲国产精品成人天堂| 亚洲人成伊人成综合久久| 国产精品一区二区三区不卡| 亚洲AV无码精品蜜桃| 亚洲国产激情一区二区三区| 国产精品综合色区在线观看| 男女交射视频免费观看网站| 丰满熟女人妻一区二区三区 | 色多多性虎精品无码av| 亚洲av狠狠爱一区二区三区| 日韩精品精品一区二区三区| 日韩永久免费无码AV电影| 看曰本女人大战黑人视频| av无码av天天av天天爽| 最近免费中文字幕中文高清6 | 日批视频免费在线观看| 亚洲av熟妇高潮30p| 国产乱人激情h在线观看| 国产av无码专区亚洲av男同| 国产精品日韩经典中文字幕| 全亚洲高清视频在线观看|