康 月,薛惠珍,華 斌
天津財(cái)經(jīng)大學(xué) 理工學(xué)院,天津300222
商品評(píng)價(jià)分析是指通過對(duì)用戶評(píng)論進(jìn)行挖掘與處理,進(jìn)而分析用戶的關(guān)注重點(diǎn)與情感態(tài)度。傳統(tǒng)的商品評(píng)價(jià)分析是基于句子級(jí)的情感分類,這種粗粒度的分析方法無法了解用戶對(duì)于商品某一具體屬性所表達(dá)的情感態(tài)度,因此需要進(jìn)行細(xì)粒度的分析[1]。細(xì)粒度商品評(píng)價(jià)分析主要分為兩個(gè)方面:商品評(píng)價(jià)特征的提取與情感傾向的判定。
商品評(píng)價(jià)特征的提取是指從用戶評(píng)論中提取商品屬性與其對(duì)應(yīng)的情感詞,是細(xì)粒度商品評(píng)價(jià)分析的基礎(chǔ),主要有基于頻率、模板規(guī)則的無監(jiān)督方法和基于條件隨機(jī)場與深度學(xué)習(xí)的有監(jiān)督方法[2]。最早的無監(jiān)督方法是由Hu和Liu[3]提出的,他們使用關(guān)聯(lián)規(guī)則挖掘方法提取商品特征;Jakob等[4]選取詞、詞性、依存句法等多種特征,利用CRF模型進(jìn)行影評(píng)數(shù)據(jù)的評(píng)價(jià)特征提取;Liu等[5]使用循環(huán)神經(jīng)網(wǎng)絡(luò)模型(RNN)進(jìn)行評(píng)價(jià)情感特征的提??;Poria等[6]利用卷積神經(jīng)網(wǎng)絡(luò)的方法對(duì)文本特征進(jìn)行自動(dòng)提??;曾義夫等[7]在GRU模型中引入雙向注意力機(jī)制,實(shí)現(xiàn)細(xì)粒度的特征提??;陳虹等[8]將注意力機(jī)制引入BILSTM網(wǎng)絡(luò),實(shí)現(xiàn)用戶評(píng)論的方面級(jí)情感特征提取。
商品評(píng)價(jià)情感傾向的判定是指對(duì)提取出來的評(píng)價(jià)特征進(jìn)行情感極性的識(shí)別,是細(xì)粒度商品評(píng)價(jià)分析的關(guān)鍵,主要包括基于情感詞典的無監(jiān)督方法和基于機(jī)器學(xué)習(xí)與深度學(xué)習(xí)的有監(jiān)督方法。Hu和Liu[9]提出基于情感詞典的方法來進(jìn)行情感傾向的判定,雖然情感詞典在情感傾向判定上取得一定成果,但是這種基于詞典的無監(jiān)督方法存在領(lǐng)域適用性差且準(zhǔn)確率不高的問題,所以有監(jiān)督的情感分類方法被廣泛地研究與應(yīng)用。最早的有監(jiān)督方法是由Pang等[10]提出的,他們運(yùn)用樸素貝葉斯、支持向量機(jī)和最大熵三種有監(jiān)督的機(jī)器學(xué)習(xí)方法進(jìn)行情感分類;Manuel等[11]利用樸素貝葉斯方法對(duì)酒店評(píng)論進(jìn)行分類,實(shí)驗(yàn)結(jié)果表明該方法在文本分類上具有較高的分類精度;韓虎等[12]利用多層注意力機(jī)制神經(jīng)網(wǎng)絡(luò)模型實(shí)現(xiàn)句子級(jí)和篇章級(jí)的文本情感分類,進(jìn)一步證明深度學(xué)習(xí)在情感分析中的優(yōu)勢(shì)。
考慮到目前的相關(guān)研究存在如下問題:(1)對(duì)于商品評(píng)價(jià)特征的提取。大部分研究者都是將與商品相關(guān)的詞作為評(píng)價(jià)特征進(jìn)行直接提取,未作進(jìn)一步的細(xì)化,如對(duì)于手機(jī)這款商品來說,“運(yùn)行速度快”“耗電速度快”與“發(fā)貨速度快”具有不同的意義,通過對(duì)商品的評(píng)價(jià)特征進(jìn)行更為細(xì)粒度的分析,可以更加直觀地反映出用戶的關(guān)注重點(diǎn),為生產(chǎn)廠商、電商平臺(tái)和用戶提供更加精確的商品與服務(wù)信息。(2)對(duì)于評(píng)價(jià)特征提取的方法。目前的大部分研究僅僅是將詞向量作為神經(jīng)網(wǎng)絡(luò)的輸入特征進(jìn)行學(xué)習(xí),沒有進(jìn)一步考慮文本的語義信息對(duì)模型的影響。
為解決問題(1),本文將商品評(píng)價(jià)特征細(xì)分為商品實(shí)體、屬性與情感,分別對(duì)其進(jìn)行提??;為解決問題(2),本文結(jié)合預(yù)訓(xùn)練詞嵌入模型,將句法特征融入到深度學(xué)習(xí)模型當(dāng)中以提高模型性能。基于此,提出一種融合句法特征與BERT詞嵌入的BILSTM-CRF注意力機(jī)制模型對(duì)在線商品評(píng)價(jià)進(jìn)行實(shí)體、屬性級(jí)的特征提取,然后利用BILSTM模型進(jìn)行句子級(jí)與特征級(jí)的情感分析。不僅從算法的精度上進(jìn)行比較,還綜合分析各類算法的復(fù)雜度,在真實(shí)數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果表明融合句法特征與BERT詞嵌入的BILSTM-CRF注意力機(jī)制模型是一種有效的評(píng)價(jià)特征提取方法;特征級(jí)情感分析不僅可以更加詳細(xì)地描述評(píng)價(jià)對(duì)象,而且在算法復(fù)雜度與精度上都明顯優(yōu)于句子級(jí)的情感分析。
長短期記憶網(wǎng)絡(luò)(Long Short-Term Memory Network,LSTM)模型,是由Hochreiter等[13]提出的,它是循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,RNN)的一種。該模型解決傳統(tǒng)RNN長依賴的梯度彌散問題,被廣泛應(yīng)用于時(shí)序數(shù)據(jù)建模當(dāng)中,目前已取得較多成果。其核心思想是一種“細(xì)胞狀態(tài)”,主要由遺忘門、輸入門與輸出門這三個(gè)門結(jié)構(gòu)單元組成,其單元結(jié)構(gòu)如圖1所示。
圖1 LSTM單元結(jié)構(gòu)
1.1.1 遺忘門
如圖1中的a所示,該門結(jié)構(gòu)單元主要用來對(duì)t時(shí)刻的輸入Xt進(jìn)行選擇性遺忘,即通過一個(gè)sigmoid激活函數(shù)決定丟棄哪些信息,控制狀態(tài)Ct-1的哪些特征被用來計(jì)算狀態(tài)Ct,具體公式見公式(1):
1.1.2 輸入門
如圖1中的b所示,該門結(jié)構(gòu)單元主要用來對(duì)t時(shí)刻的輸入Xt進(jìn)行更新,即通過一個(gè)sigmoid激活函數(shù)決定更新哪些信息,利用一個(gè)tanh層進(jìn)行信息更新,結(jié)合遺忘門的輸出Ft將信息狀態(tài)Ct-1更新為Ct,具體公式見公式(2)、(3)、(4):
1.1.3 輸出門
如圖1中的c所示,該門結(jié)構(gòu)單元主要用來對(duì)更新的信息進(jìn)行輸出,即通過一個(gè)sigmoid激活函數(shù)決定輸出哪些信息,利用一個(gè)tanh層進(jìn)行信息輸出,具體公式見公式(5)、(6):
其中,F(xiàn)t、It、Ot分別代表遺忘門、輸入門與輸出門;Ht-1、Ht分別代表t-1時(shí)刻與t時(shí)刻的隱含層向量;Ct-1、Ct′、Ct代表細(xì)胞的狀態(tài)向量;Xt為t時(shí)刻的輸入;ωf、ωi、ωc、ωo為相應(yīng)的權(quán)重矩陣;bf、bi、bc、bo為相應(yīng)的偏置向量;σ是sigmoid激活函數(shù)。
條件隨機(jī)場(Conditional Random Field,CRF)模型是由Lafferty等[14]提出的,由于該模型可以很好地對(duì)文本的上下文信息進(jìn)行捕捉,因此近年來被廣泛應(yīng)用于分詞、詞性標(biāo)注與命名實(shí)體識(shí)別等序列標(biāo)注問題中。在商品評(píng)價(jià)特征識(shí)別中,通過輸入評(píng)價(jià)文本的觀測序列X={x1,x2,…,xn},即可計(jì)算出所有可能的狀態(tài)序列的條件概率Y={y1,y2,…,yn},并以最大概率作為該序列的狀態(tài)進(jìn)行輸出,計(jì)算公式見公式(7):
其中,fj為特征函數(shù),{θ1,θ2,…,θn}為訓(xùn)練過程中的參數(shù),Z(x)為歸一化因子,計(jì)算公式見公式(8):
雖然CRF模型在序列標(biāo)注問題的處理上有較好的性能,但是在實(shí)際使用中往往需要人為對(duì)相關(guān)特征進(jìn)行定義與篩選,而且結(jié)果的好壞與語料庫的規(guī)模直接相關(guān);深度學(xué)習(xí)方法具有較強(qiáng)的特征表示與學(xué)習(xí)能力,無需人為定義特征,即使在少量標(biāo)注的數(shù)據(jù)集上也能取得較好的結(jié)果,但是模型的可解釋性較差,而且目前的相關(guān)研究中缺乏對(duì)于文本語義信息的分析。因此,本文提出一種融合句法特征與BERT詞嵌入的BILSTM-CRF注意力機(jī)制的細(xì)粒度商品評(píng)價(jià)情感分析模型,如圖2所示。該模型主要由兩部分組成:a為句法特征+BERT詞嵌入+BILSTM-CRF注意力機(jī)制模型;b為BILSTM模型。前者用來提取商品的評(píng)價(jià)特征,后者用來對(duì)提取出的商品評(píng)價(jià)特征進(jìn)行情感傾向的判定。
1.3.1 基于句法特征+BERT詞嵌入+BILSTM-CRF注意力機(jī)制的特征提取
圖2 融合句法特征與BERT詞嵌入的BILSTM-CRF注意力機(jī)制情感分析模型
如圖2中的a所示,在商品評(píng)價(jià)特征提取中,為增加BILSTM模型的可解釋性,保證預(yù)測標(biāo)簽的合法性,本文將BILSTM模型與CRF模型結(jié)合起來使用,即在BILSTM模型的Softmax層加入CRF層進(jìn)行預(yù)測約束。對(duì)于輸入的句子,首先經(jīng)過數(shù)據(jù)預(yù)處理層獲取分詞特征Xi、詞性特征POSi與句法組塊特征Chunki,然后利用經(jīng)過微調(diào)過的BERT[15]進(jìn)行預(yù)訓(xùn)練的詞嵌入,經(jīng)過特征BILSTM模型輸出標(biāo)簽序列y的分值s([Xi,POSi,Chunki],y)的計(jì)算公式見公式(9):
其中,A是特征轉(zhuǎn)移矩陣,Ayi,yi+1表示從狀態(tài)yi到y(tǒng)i+1的轉(zhuǎn)移概率;P是BILSTM的輸出矩陣,Pi,yi表示句子中第i個(gè)輸入特征對(duì)應(yīng)的輸出標(biāo)簽yi的概率。為提高文本有用信息的利用程度,在BILSTM的輸出層引入Multi-Head注意力機(jī)制[16],通過詞向量在BILSTM層產(chǎn)生的輸出向量Hi(i=0,1,…,n)進(jìn)行Multi-Head Attention層Q、K、V輸出,計(jì)算公式見公式(10)、(11):
其中,Q為查詢輸入矩陣,K、V為對(duì)應(yīng)的鍵、值矩陣;∈Rd×dk,WK i∈Rd×dk,WV i∈Rd×dv,WO∈Rhdv×d;d是模型詞向量維數(shù)、h是注意力層數(shù)、dk=dv=d/h。Softmax層最終歸一化后的輸出概率的計(jì)算公式見公式(12),模型損失計(jì)算公式見公式(13):
對(duì)訓(xùn)練好的模型進(jìn)行測試,預(yù)測結(jié)果輸出的計(jì)算公式見公式(14):
1.3.2 基于BILSTM的情感傾向判定
盡管LSTM模型已被廣泛應(yīng)用于機(jī)器翻譯、語音識(shí)別、計(jì)算機(jī)視覺與自然語言處理等領(lǐng)域,但是利用LSTM對(duì)數(shù)據(jù)進(jìn)行建模時(shí)只能從前向后進(jìn)行編碼,無法編碼自后向前的信息,尤其是在細(xì)粒度的分類中缺乏詞語之間的交互。因此,在情感傾向判定中,本文利用BILSTM[17]模型對(duì)提取的商品評(píng)價(jià)特征進(jìn)行情感識(shí)別。BILSTM的核心思想是在傳統(tǒng)的LSTM模型中加入雙向編碼功能,將數(shù)據(jù)的自前向后信息與自后向前信息進(jìn)行聯(lián)結(jié)學(xué)習(xí),從而提高詞語之間的語義交互能力。利用BILSTM模型對(duì)文本數(shù)據(jù)進(jìn)行學(xué)習(xí),可以更好地捕捉雙向語義依賴的問題。BILSTM是由前向LSTM與后向LSTM組成,以“運(yùn)行速度快”進(jìn)行編碼,BILSTM模型的編碼情況如圖3所示。
其中,LSTML代表前向LSTM,LSTMR代表后向LSTM;HLi(i=0,1,…,n)代表第i個(gè)詞語的前向編碼,HRi(i=0,1,…,n)代表第i個(gè)詞語的后向編碼,Hi(i=0,1,…,n)代表第i個(gè)詞語的雙向聯(lián)結(jié)編碼;P代表Softmax層的輸出結(jié)果(概率)。
圖3 BILSTM模型編碼
2.1.1 驗(yàn)證數(shù)據(jù)集
為檢驗(yàn)本文方法的有效性,以SemEval-2016 Task 5和COAE Task3數(shù)據(jù)集的手機(jī)商品作為實(shí)驗(yàn)數(shù)據(jù),通過對(duì)兩個(gè)數(shù)據(jù)集進(jìn)行合并,形成本文的實(shí)驗(yàn)數(shù)據(jù)集,其中兩個(gè)數(shù)據(jù)集分別來自以下兩篇論文,具體數(shù)據(jù)集的情感類別分布情況如表1所示。
表1 實(shí)驗(yàn)數(shù)據(jù)的情感類別分布
2.1.2 預(yù)訓(xùn)練詞嵌入數(shù)據(jù)集
為提高深度學(xué)習(xí)模型的學(xué)習(xí)效率與精度,抓取174 213條京東商城(www.jd.com)手機(jī)商品的用戶評(píng)價(jià)數(shù)據(jù),利用該數(shù)據(jù)集對(duì)Google發(fā)布的BERT[15]中文詞向量模型進(jìn)行微調(diào),獲取本文的BERT預(yù)訓(xùn)練詞嵌入模型。為了對(duì)比預(yù)訓(xùn)練詞嵌入對(duì)深度學(xué)習(xí)模型的影響,在同樣的數(shù)據(jù)集上訓(xùn)練了WORD2VEC詞向量模型,詞向量維度為100,最終訓(xùn)練的詞向量大小為11 799×100維,模型的可視化結(jié)果如圖4所示。
圖4 WORD2VEC詞向量模型
本文實(shí)驗(yàn)是基于Python語言的Google開源深度學(xué)習(xí)框架Tensorflow及其高級(jí)API——keras實(shí)現(xiàn)的。實(shí)驗(yàn)環(huán)境的具體設(shè)置如表2所示。
表2 實(shí)驗(yàn)環(huán)境設(shè)置
2.2.1 評(píng)價(jià)特征提取實(shí)驗(yàn)設(shè)計(jì)
在商品評(píng)價(jià)特征提取中,首先利用jieba分詞工具對(duì)實(shí)驗(yàn)數(shù)據(jù)集進(jìn)行分詞與詞性標(biāo)注處理,然后利用Stanford Parser進(jìn)行依存句法分析,提取chunk句法組塊特征,最后利用IOB規(guī)則進(jìn)行標(biāo)注。例如,“按鍵的設(shè)計(jì)很合理”的處理結(jié)果如表3所示。
表3 數(shù)據(jù)集的標(biāo)注
其中B-E/I-E代表商品實(shí)體,B-A/I-A代表商品屬性,B-S/I-S代表商品情感,O代表其他詞語。以6∶2∶2的比例劃分訓(xùn)練集、驗(yàn)證集與測試集,分別對(duì)BILSTM(baseline1)、BILSTM-CRF(baseline2)兩個(gè)基線模型、本文的融合句法特征與BERT詞嵌入的BILSTM-CER注意力機(jī)制模型的多組對(duì)照變體模型以及本文模型進(jìn)行測試。其中,BILSTM-CRF+WORD2VEC、BILSTM-CRF+BERT是baseline2加入兩種預(yù)訓(xùn)練詞嵌入的對(duì)照變體模型;BILSTM-CRF+WORD2VEC+FEATURES、BILSTMCRF+BERT+FEATURES是baseline2加入兩種預(yù)訓(xùn)練詞嵌入與句法特征的對(duì)照變體模型;BILSTM-CRF+WORD2VEC+ATTENTION、BILSTM-CRF+BERT+ATTENTION是baseline2加入兩種預(yù)訓(xùn)練詞嵌入與注意力機(jī)制的對(duì)照變體模型;BILSTM-CRF+WORD2VEC+ATTENTION+FEATURES、BILSTM-CRF+BERT+ATTENTION+FEATURES(本文模型)是baseline2加入兩種預(yù)訓(xùn)練詞嵌入與注意力機(jī)制和句法特征的對(duì)照變體模型。從實(shí)驗(yàn)結(jié)果的準(zhǔn)確率、召回率、F1值以及模型的復(fù)雜度等多個(gè)方面對(duì)各個(gè)模型進(jìn)行了分析。以上模型均基于Tensorflow1.2.0深度學(xué)習(xí)框架實(shí)現(xiàn),在模型訓(xùn)練過程中,詞向量維度設(shè)置為100,LSTM神經(jīng)元個(gè)數(shù)設(shè)置為100,Adma的學(xué)習(xí)率設(shè)置為0.001,迭代次數(shù)(epoch)設(shè)置為100,批大?。╞atchsize)設(shè)置為20,并通過dropout機(jī)制避免實(shí)驗(yàn)過擬合。參數(shù)說明如表4所示。
表4 特征提取模型參數(shù)說明
2.2.2 情感傾向判定實(shí)驗(yàn)設(shè)計(jì)
在商品評(píng)價(jià)情感傾向判定中,將數(shù)據(jù)集以8∶2的比例劃分訓(xùn)練集與測試集。為驗(yàn)證BILSTM模型的性能,在句子級(jí)與特征級(jí)情感分類任務(wù)上分別進(jìn)行機(jī)器學(xué)習(xí)與深度學(xué)習(xí)兩類對(duì)比實(shí)驗(yàn)。
在機(jī)器學(xué)習(xí)實(shí)驗(yàn)中,本文選用支持向量機(jī)、樸素貝葉斯、邏輯回歸、決策樹、隨機(jī)森林與K近鄰等最常用的文本分類方法分別進(jìn)行句子級(jí)與特征級(jí)的情感分類;在深度學(xué)習(xí)中,分別在句子級(jí)與特征級(jí)情感分類上與普通的RNN[20]、LSTM[13]、GRU[21]、BIRNN[22](雙向RNN)、BIGRU(雙向GRU)等模型進(jìn)行對(duì)比。其中,機(jī)器學(xué)習(xí)模型的參數(shù)為sklearn中的默認(rèn)參數(shù),深度學(xué)習(xí)模型基于keras實(shí)現(xiàn),在模型訓(xùn)練過程中,迭代次數(shù)(epoch)設(shè)置為20,批大小(batchsize)設(shè)置為16,其余參數(shù)與特征提取模型參數(shù)一致。具體的參數(shù)說明如表5所示。
表5 深度學(xué)習(xí)模型參數(shù)說明
2.2.3 評(píng)價(jià)指標(biāo)
在評(píng)價(jià)特征提取的實(shí)驗(yàn)中,采用準(zhǔn)確率、召回率和F1值作為實(shí)驗(yàn)結(jié)果的分析指標(biāo),各指標(biāo)的具體計(jì)算公式見公式(15)、(16)、(17):
其中,P、R、F1分別代表評(píng)價(jià)特征提取的準(zhǔn)確率、召回率與兩者的調(diào)和平均值;TP代表實(shí)體、屬性、情感識(shí)別正確的數(shù)量,F(xiàn)P代表實(shí)體、屬性、情感識(shí)別錯(cuò)誤的數(shù)量,F(xiàn)N代表未識(shí)別出的實(shí)體、屬性、情感的數(shù)量。在商品特征情感傾向判定的實(shí)驗(yàn)中,以分類精度作為實(shí)驗(yàn)指標(biāo),計(jì)算公式見公式(18):
其中,Acc代表精度,TP、TN分別代表積極情感與消極情感分類正確的數(shù)量,F(xiàn)P、FN分別代表積極情感與消極情感分類錯(cuò)誤的數(shù)量。
2.3.1 評(píng)價(jià)特征提取結(jié)果分析
按照上述實(shí)驗(yàn)設(shè)計(jì)進(jìn)行實(shí)驗(yàn),評(píng)價(jià)特征提取的準(zhǔn)確率、召回率、F1值與模型的時(shí)間復(fù)雜度(程序運(yùn)行時(shí)間)、空間復(fù)雜度(程序額外占用的空間)的結(jié)果如表6所示。
表6 評(píng)價(jià)特征提取結(jié)果
通過對(duì)表6的實(shí)驗(yàn)結(jié)果進(jìn)行分析,可以發(fā)現(xiàn):(1)加入CRF層的BILSTM模型雖然時(shí)間復(fù)雜度有所提高,但是在特征提取的準(zhǔn)確率上有較高的提升,進(jìn)一步證明CRF層對(duì)BILSTM模型的輸出結(jié)果起到一定約束作用;(2)預(yù)訓(xùn)練詞嵌入的使用可以進(jìn)一步提高深度學(xué)習(xí)模型的準(zhǔn)確率與召回率,但卻同樣提高模型復(fù)雜度,其中BERT模型的使用比WORD2VEC模型的F1值提高0.4%,但BERT預(yù)訓(xùn)練詞嵌入的維數(shù)較高,所以占用的額外空間較WORD2VEC模型高;(3)句法特征的加入使得模型的性能有所提升,同時(shí)也在一定程度上降低模型的時(shí)間復(fù)雜度,主要是因?yàn)槲谋菊Z義信息的加入加快了神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)效率;(4)注意力機(jī)制的引入進(jìn)一步提高模型性能,但是模型的時(shí)間復(fù)雜度卻提高一倍;(5)本文模型最終的F1值達(dá)到88.22%。其中,實(shí)體、屬性與情感詞的準(zhǔn)確率、召回率、F1值情況如圖5所示。
圖5 模型抽取結(jié)果
為進(jìn)一步探究預(yù)訓(xùn)練詞嵌入對(duì)深度學(xué)習(xí)模型的影響,繪制沒有詞嵌入的BILSTM-CRF(baseline2)模型、BILSTM-CRF+WORD2VEC模型、BILSTM-CRF+BERT模型在訓(xùn)練過程中的損失與驗(yàn)證、測試過程中的精度變化曲線,如圖6所示。
圖6 模型訓(xùn)練損失與驗(yàn)證、測試精度曲線
由圖6可以看出,預(yù)訓(xùn)練詞嵌入的使用提高了深度學(xué)習(xí)模型的學(xué)習(xí)精度,BERT詞嵌入的效果比WORD2VEC模型的效果要好。
2.3.2 情感傾向判定結(jié)果分析
為驗(yàn)證BILSTM模型在情感分類任務(wù)上的性能,本文分別在相同的實(shí)驗(yàn)數(shù)據(jù)集下進(jìn)行機(jī)器學(xué)習(xí)與深度學(xué)習(xí)兩組實(shí)驗(yàn)、句子級(jí)與特征級(jí)兩類級(jí)別的分析,由于此實(shí)驗(yàn)過程無需額外存儲(chǔ)空間,因此只對(duì)時(shí)間復(fù)雜度進(jìn)行分析。實(shí)驗(yàn)結(jié)果的精度與時(shí)間復(fù)雜度(程序運(yùn)行時(shí)間)如表7所示。
由表7的實(shí)驗(yàn)結(jié)果可以看出:(1)在情感分類任務(wù)中,雖然機(jī)器學(xué)習(xí)的時(shí)間復(fù)雜度遠(yuǎn)遠(yuǎn)低于深度學(xué)習(xí),但是深度學(xué)習(xí)方法的性能卻明顯優(yōu)于機(jī)器學(xué)習(xí)方法;(2)在機(jī)器學(xué)習(xí)方法中,各個(gè)模型的時(shí)間復(fù)雜度相差無幾,其中支持向量機(jī)(SVM)方法效果最好;(3)在深度學(xué)習(xí)方法中,GRU與LSTM模型的性能要優(yōu)于普通的RNN模型,但性能的提升同樣造成模型時(shí)間復(fù)雜度的提升;(4)雙向的RNN、GRU、LSTM模型比單向的RNN、GRU、LSTM模型的時(shí)間復(fù)雜度要高,但同時(shí)精度也得到進(jìn)一步的提升;(5)特征級(jí)情感分類任務(wù)與句子級(jí)情感分類任務(wù)相比,不僅時(shí)間復(fù)雜度有所降低,分類的精度也有較高的提升;(6)在上述12種方法中,BILSTM模型效果最好,但時(shí)間復(fù)雜度也最高。BILSTM模型在特征級(jí)情感分類任務(wù)上的測試集精度達(dá)到88.5%,訓(xùn)練集精度達(dá)到95.5%,訓(xùn)練與驗(yàn)證過程中損失與精度的變化情況如圖7所示,其中,train_loss、val_loss分別代表訓(xùn)練損失與驗(yàn)證損失,train_acc、val_acc分別代表訓(xùn)練精度與驗(yàn)證精度。
表7 情感傾向判定結(jié)果
圖7 BILSTM模型訓(xùn)練、驗(yàn)證過程損失與精度變化曲線
為進(jìn)一步驗(yàn)證本文模型的實(shí)際應(yīng)用效果,將其應(yīng)用于京東商城某品牌手機(jī)。通過對(duì)該品牌手機(jī)的在線評(píng)價(jià)數(shù)據(jù)進(jìn)行爬取,獲得1 000條無重復(fù)數(shù)據(jù)的原始評(píng)價(jià),并將原始評(píng)價(jià)轉(zhuǎn)換成評(píng)價(jià)短句。首先,利用本文實(shí)驗(yàn)部分訓(xùn)練的融合句法特征與BERT詞嵌入的BILSTM-CRF注意力機(jī)制模型進(jìn)行評(píng)價(jià)短句的商品實(shí)體、屬性與情感詞的提??;然后,利用訓(xùn)練好的BILSTM模型對(duì)提取出的商品實(shí)體、屬性與情感詞所組成的特征級(jí)詞組進(jìn)行情感傾向的判定。提取的實(shí)體與屬性的分布情況如圖8所示。
由圖8可以看出,對(duì)于這款手機(jī)商品來說,用戶比較關(guān)注拍照、運(yùn)行、屏幕和外觀等實(shí)體,以及效果、速度、性能、顏色等屬性。為進(jìn)一步挖掘用戶的關(guān)注重點(diǎn)與情感態(tài)度,將實(shí)體屬性的組合進(jìn)行分析,部分實(shí)體屬性的情感分析結(jié)果如圖9所示。
圖8 實(shí)體、屬性分布
圖9 實(shí)體屬性情感分析結(jié)果
由圖9可以看出,用戶對(duì)于這款手機(jī)商品總體來說比較滿意。其中,用戶較為關(guān)心的實(shí)體屬性主要是拍照的效果、運(yùn)行的速度、屏幕的效果、外觀的顏色等,最滿意的是后殼的手感,最不滿意的是拍照的性能。因此,廠商在日后的生產(chǎn)過程中可以根據(jù)用戶關(guān)注重點(diǎn)與偏好進(jìn)行商品的改進(jìn)與完善;電商平臺(tái)可能比較關(guān)心用戶對(duì)于物流、服務(wù)態(tài)度以及價(jià)格的反饋等,通過對(duì)此類信息進(jìn)行分析,可以進(jìn)一步提高服務(wù)質(zhì)量以提升用戶體驗(yàn);用戶則更關(guān)注商品中的各類細(xì)粒度評(píng)價(jià)信息,通過對(duì)已有商品評(píng)價(jià)進(jìn)行分析,可以為用戶的購買決策提供參考。
本文從用戶的關(guān)注點(diǎn)出發(fā),對(duì)在線商品評(píng)價(jià)進(jìn)行更為細(xì)粒度的實(shí)體、屬性情感研究,提出一種融合句法特征與BERT詞嵌入的BILSTM-CRF注意力機(jī)制的細(xì)粒度商品評(píng)價(jià)情感分析模型。首先,利用融合句法特征與BERT詞嵌入的BILSTM-CRF注意力機(jī)制模型提取商品評(píng)價(jià)的實(shí)體、屬性與情感特征;然后,利用BILSTM模型對(duì)提取出的評(píng)價(jià)特征進(jìn)行情感傾向的判定。以兩個(gè)公開的中文商品評(píng)價(jià)數(shù)據(jù)集SemEval-2016 Task 5和COAE Task3為實(shí)驗(yàn)數(shù)據(jù),從模型的復(fù)雜度與精度對(duì)模型的性能進(jìn)行分析,實(shí)驗(yàn)結(jié)果表明融合句法特征與BERT詞嵌入之后的深度學(xué)習(xí)模型在特征提取上優(yōu)于BILSTM與BILSTM-CRF模型,在情感分類上,BILSTM模型表現(xiàn)比目前常用的情感分類模型的效果更好。
為檢驗(yàn)?zāi)P偷膶?shí)際應(yīng)用效果,將訓(xùn)練好的模型應(yīng)用于真實(shí)的商品評(píng)價(jià)進(jìn)行分析,通過對(duì)用戶評(píng)價(jià)進(jìn)行挖掘,分析出用戶對(duì)于商品的關(guān)注重點(diǎn)與情感態(tài)度,從而為商品的生產(chǎn)、銷售與使用三方提供細(xì)粒度的信息服務(wù)。本文的不足之處在于實(shí)驗(yàn)的驗(yàn)證數(shù)據(jù)集有限,并且沒有對(duì)商品的隱式特征與隱式情感進(jìn)行分析,希望在接下來的工作中可以對(duì)此方面內(nèi)容進(jìn)行系統(tǒng)的研究,進(jìn)一步提高情感分析模型的性能。