亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于自注意深度學(xué)習(xí)的商品評論情感分類

        2021-06-25 14:18:06嚴(yán)
        軟件導(dǎo)刊 2021年6期
        關(guān)鍵詞:卷積神經(jīng)網(wǎng)絡(luò)分類

        嚴(yán) 鵬

        (上海工程技術(shù)大學(xué)機(jī)械與汽車工程學(xué)院,上海 201620)

        0 引言

        文本情感分析一般是對表達(dá)中的立場、情感、看法、偏向等人為傾向的剖析,作為新興熱點(diǎn),其蘊(yùn)含巨大的研究潛力,文本情感分類可認(rèn)為是文本情感分析的重點(diǎn)研究方向[1-3]。依據(jù)表達(dá)的長短,文本情感分類為長文、段落和短句[4]。

        研究文獻(xiàn)表明,文本情感分類通常使用機(jī)器學(xué)習(xí)與情感規(guī)則方法[5-7]?;跈C(jī)器學(xué)習(xí)方法需要人工進(jìn)行特征提取,當(dāng)文本數(shù)量過多時,需要消耗過多的人力和物力。針對這些問題,通過神經(jīng)網(wǎng)絡(luò)進(jìn)行特征的自動提取成為新的趨勢。

        電子商務(wù)網(wǎng)站商品評論數(shù)據(jù)豐富,往往包含充足信息。以商品評論文本為對象進(jìn)行情感分類,既有現(xiàn)實(shí)基礎(chǔ),也有積極的應(yīng)用前景[8-13]。

        當(dāng)前使用的方法普遍需要消耗人力物力建立規(guī)則和提取特征,當(dāng)該類方法應(yīng)用于數(shù)據(jù)豐富的商品評論情感分類任務(wù)時,通常需要花費(fèi)大量時間進(jìn)行規(guī)則建立與特征提取。針對上述問題,本文提出基于XL-GSAtMSC 的商品評論情感分類模型,運(yùn)用神經(jīng)網(wǎng)絡(luò)進(jìn)行特征自動提取,通過與各類機(jī)器學(xué)習(xí)模型進(jìn)行研究對比驗(yàn)證了該模型的有效性與實(shí)用性。

        1 相關(guān)工作

        1.1 卷積神經(jīng)網(wǎng)絡(luò)

        卷積神經(jīng)網(wǎng)絡(luò)[14](Convolutional Neural Networks,CNN)之前用來解析圖片,現(xiàn)用于NLP 領(lǐng)域。CNN 一般由卷積、池化與全連接三層所構(gòu),如圖1 所示。2014 年,Kim[14]使用提前生成的詞向量來表達(dá)文本,利用卷積層提取特征進(jìn)行分類。CNN 主要用于提取局部特征,因而忽略了文本上下文語義關(guān)系,對文本情感傾向性判斷有一定影響。

        Fig.1 The structure of CNN圖1 CNN 結(jié)構(gòu)

        1.2 循環(huán)神經(jīng)網(wǎng)絡(luò)

        循環(huán)神經(jīng)網(wǎng)絡(luò)[15](Recurrent Neural Network,RNN)通常用于時序序列數(shù)據(jù),通過神經(jīng)元之間的連接形成有向循環(huán),使神經(jīng)元對前序的輸出信息進(jìn)行記憶,并在當(dāng)前輸出中應(yīng)用,因此它能對輸入序列可變的數(shù)據(jù)進(jìn)行處理。該網(wǎng)絡(luò)的記憶功能能在文本處理時考慮上文語義信息,因此廣泛應(yīng)用于NLP 任務(wù),如情感分析、機(jī)器翻譯和智能問答等子領(lǐng)域[16]。在實(shí)際應(yīng)用中,RNN 采用線性序列結(jié)構(gòu)進(jìn)行反向傳播,易導(dǎo)致梯度消失和梯度爆炸等問題,且難以并行運(yùn)算。

        1.3 Attention 機(jī)制

        Attention 機(jī)制[17]前期用來處理圖片,2014 年Bahdanau等[18]在文本翻譯時最先把Attention 機(jī)制結(jié)合NLP 使用,利用Attention 機(jī)制直接建立源語句與目標(biāo)語句的聯(lián)系,解決Seq2Seq(Sequence to Sequence)[19]無法處理長語句的缺陷,由此引發(fā)Attention 機(jī)制研究熱潮。Attention 函數(shù)的本質(zhì)可以描述為一個查詢(query)到一系列鍵—值對(key-value)的映射。Attention 函數(shù)公式如式(1)所示,計算流程如圖2所示。

        Fig.2 Attention calculation process圖2 Attention 計算流程

        1.4 自回歸語言模型

        自回歸語言模型[20](Auto Regressive Language Model)是根據(jù)前文的文本內(nèi)容預(yù)測下一個可能出現(xiàn)的單詞語言模型,即自左向右或自右向左的語言模型。該模型在結(jié)構(gòu)設(shè)計上天然匹配自然語言生成任務(wù),如文本摘要、機(jī)器翻譯等。由于該模型結(jié)構(gòu)設(shè)計上的缺陷,只能單獨(dú)使用上文或下文信息,無法同時使用上下文信息。自回歸語言模型如式(2)所示。

        2 模型設(shè)計與構(gòu)建

        本文模型架構(gòu)如圖3 所示,由輸入層、XLNet 層、Bi-GRU 層、Self-Attention 層、MSCNN 層、Softmax層和輸出層組成。其中,輸入層、XLNet 層將切分詞轉(zhuǎn)為數(shù)字表達(dá),Bi-GRU層、Self-Attention 層、MSCNN層提取文本向量特征,Softmax 層對特征進(jìn)行計算和分類,輸出層輸出結(jié)果。

        Fig.3 The structure of model圖3 Model 結(jié)構(gòu)

        2.1 文本獲取與預(yù)處理

        為保證數(shù)據(jù)的真實(shí)性與可靠性,本文以網(wǎng)絡(luò)購物平臺京東商城的電子產(chǎn)品評論作為數(shù)據(jù)集進(jìn)行情感分類研究。將網(wǎng)站獲取的用戶評論文本作為原始數(shù)據(jù)集,并使用人工標(biāo)注的方法將文本進(jìn)行初步情感分類,情感分為正面情感、負(fù)面情感和中性情感3 類[21]。文本預(yù)處理流程如圖4所示。

        Fig.4 Text preprocessing flow圖4 文本預(yù)處理流程

        由于原始數(shù)據(jù)集中存在語料重復(fù)、評論內(nèi)容包含無用符號等情況,若不進(jìn)行數(shù)據(jù)清洗直接使用原始數(shù)據(jù)集,可能無法從評論文本中獲取正確的情感傾向性,從而導(dǎo)致模型準(zhǔn)確率降低。

        中文分詞是數(shù)據(jù)預(yù)處理的一個重要環(huán)節(jié),目的是將句子劃分為一個個單獨(dú)的詞語,通過獨(dú)立詞獲取整個句子的語義信息。數(shù)據(jù)集因包含較多網(wǎng)絡(luò)用語,以及在線評論文本的特殊性,易導(dǎo)致普通的情感詞典無法準(zhǔn)確分詞。本研究將網(wǎng)絡(luò)用語詞與口語化情感詞添加進(jìn)自定義情感詞典以提高中文分詞的準(zhǔn)確性,并使用基于Python 語言的分詞工具jieba 分詞進(jìn)行中文分詞。

        停用詞通常指某類在文本分析中無用、無實(shí)義的詞。為了加快模型訓(xùn)練與運(yùn)行,應(yīng)刪掉這類停用詞。本文使用“百度停用詞表”去停用詞,去除停用詞后有利于更好地判斷電商評論文本要表達(dá)的情感極性[22]。

        文本預(yù)處理后得到20 000 條評論文本數(shù)據(jù)集,其中正面情感7 012 條,中性情感5 711 條,負(fù)面情感7 277 條,分別占比35%、28.6%和36.4%。在本模型中,將處理好的文本分為3 部分:訓(xùn)練樣本用于訓(xùn)練模型,驗(yàn)證樣本用于驗(yàn)證模型,測試樣本用于測試模型,配比為7∶1∶2。正面情感數(shù)據(jù)集樣例:“用一段時間感覺還不錯可以”;負(fù)面情感數(shù)據(jù)集樣例:“屏幕不錯但是音質(zhì)很差完全沒有高低音可言介意音效 慎重”;中性情感數(shù)據(jù)集樣例:“榮耀的性價比不高想說愛你不容易”。

        2.2 模型構(gòu)建

        XL-GSAtMSC 模型由XLNet層、Bi-GRU 層、Self-Attention 層和MSCNN層組成。

        2.2.1 XLNet 層

        當(dāng)前NLP 任務(wù)大都使用Word2Vec 和Glove 預(yù)訓(xùn)練詞向量,本文選用XLNet 生成詞向量,因?yàn)樗芨皿w現(xiàn)句子層語義在空間上的關(guān)系。XLNet 屬于自回歸語言模型的變體,為解決自回歸語言模型只能單獨(dú)使用上文或者下文信息的缺點(diǎn),引入排列語言模型(Permutation Language Model,PLM)和雙流自注意力。

        PLM 在保證位置編碼不變的情況下,將輸入序列順序打亂,但是預(yù)測順序仍按原始位置順序編碼進(jìn)行預(yù)測。如果遍歷所有分解方法PLM 就能學(xué)習(xí)到所有預(yù)測詞的上下文信息,XLNet 就只對隨機(jī)排列后的末尾數(shù)詞進(jìn)行預(yù)測。

        PLM 的結(jié)構(gòu)缺陷會導(dǎo)致無法知道下一個預(yù)測詞為何詞,因此需使用雙流自注意力解決這個問題。雙流自注意力有兩個分離的信息流,分別是查詢流和內(nèi)容流。使用查詢流的目的是找到所需預(yù)測詞,該流Query 輸入為預(yù)測詞的位置信息;內(nèi)容流為查詢流提供其它詞的內(nèi)容向量,該流Query 輸入為預(yù)測詞的內(nèi)容信息和位置信息。

        XLNet 主體結(jié)構(gòu)為Transformer-XL,原始Transformer 結(jié)構(gòu)會導(dǎo)致無法捕獲更長遠(yuǎn)文本的語義信息,因此Transformer-XL 采用片段級遞歸機(jī)制和相對位置編碼機(jī)制對原始Transformer 進(jìn)行結(jié)構(gòu)優(yōu)化。片段級遞歸機(jī)制在當(dāng)前時刻計算時,通過循環(huán)遞歸方式利用上一時刻的隱藏狀態(tài)信息,使每次計算可以利用更大范圍的上下文信息,但是由于片段級遞歸機(jī)制會導(dǎo)致位置編碼的重疊,因此采用相對位置編碼。

        2.2.2 Bi-GRU 層

        門控循環(huán)單元(Gate Recurrent Unit,GRU)是循環(huán)神經(jīng)網(wǎng)絡(luò)RNN 的一種變體,與長短期記憶網(wǎng)絡(luò)(Long-Short Term Memory,LSTM)一樣可以學(xué)習(xí)單詞之間的長距離依賴關(guān)系,并能有效解決RNN 梯度消失和優(yōu)化困難等問題。大多數(shù)情況下GRU 與LSTM 模型效果相差不大,但是GRU將LSTM 的“遺忘門”和“輸入門”合并為單獨(dú)的“更新門”,同時也合并了cell state 和hidden state,使GRU 結(jié)構(gòu)比LSTM簡化很多,大大加快了模型的收斂速度,提高了訓(xùn)練效率。

        單向GRU 只能使用之前時刻的時序特征進(jìn)行后續(xù)時刻輸出的預(yù)測,但忽略了未來的時序特征。在文本分析中,當(dāng)前時刻詞語的預(yù)測不僅與之前的時序信息相關(guān),還可能與后續(xù)的文本信息相關(guān),若忽略下文信息可能導(dǎo)致預(yù)測結(jié)果不準(zhǔn)確。因此,本模型采用雙向GRU(Bi-GRU)的網(wǎng)絡(luò)結(jié)構(gòu),不僅能獲取當(dāng)前時刻詞前文本的有效信息,還能保留當(dāng)前詞后文本的重要信息,最終基于這些重要信息對當(dāng)前時刻詞進(jìn)行預(yù)測。

        2.2.3 Self-Attention 層

        Self-Attention 是注意力機(jī)制的變體。實(shí)際上卷積神經(jīng)網(wǎng)絡(luò)和循環(huán)神經(jīng)網(wǎng)絡(luò)都是對長文本序列的“局部編碼”,無法輕易建立輸入序列的長距離依賴特征,需要進(jìn)行若干步驟計算累加才能捕獲長距離依賴特征,距離越遠(yuǎn)越難捕獲。而Self-Attention 能生成任意兩個單詞的連接權(quán)重,借此建立遠(yuǎn)距離依賴特征,從而能處理長文本序列。因?yàn)镾elf-Attention 中的Query 是對自身輸入的變換,而經(jīng)典Attention 的Query 是對外部輸入的變換。

        在Bi-GRU 層后添加Self-Attention 層不僅能在一定程度上減輕GRU 的長期記憶負(fù)擔(dān),還能學(xué)習(xí)到長文本內(nèi)部的遠(yuǎn)距離依賴特征。除此之外,Self-Attention 還能增加并行運(yùn)算,提高模型處理效率。

        2.2.4 MSCNN 層

        多核跳躍CNN(Multi-Skip CNN,MSCNN)能抽取豐富文本特征,運(yùn)用融合數(shù)個尺寸卷積核的卷積層對Bi-GRU層的提取特征進(jìn)行卷積操作。單尺寸核不能抽取數(shù)個類別特征,抽取數(shù)個特征需同時采取數(shù)個不同尺寸卷積核,一個卷積核可以抽取單類別特征,獲取縱向差異信息。研究表明,先用一組大小為2、3、4 的一維卷積核進(jìn)行初步特征提取,再分別接入大小為2 的一維卷積核進(jìn)行視野擴(kuò)大,能充分提取文本特征。

        卷積層獲取的特征為高維特征,著重詞語在語序中的信息,有時可能忽略了詞語本體語義信息。本模型在傳統(tǒng)CNN 的基礎(chǔ)上進(jìn)行改進(jìn),添加Skip 層,直接引入Bi-GRU 輸出特征,保留較多的低維特征,對卷積層提取特征起到信息補(bǔ)充作用。跳躍層打破對稱性、線性依賴性,增強(qiáng)了網(wǎng)絡(luò)的泛化能力,避免為網(wǎng)絡(luò)引入多余參數(shù)與過多計算,在節(jié)省模型訓(xùn)練時間的同時增強(qiáng)模型準(zhǔn)確率。

        將Bi-GRU 提取的特征進(jìn)行跳躍處理后直接進(jìn)行pooling 處理,與池化層輸出特征進(jìn)行拼接,最后進(jìn)行矩陣?yán)燧敵龅椒诸悓印SCNN 結(jié)構(gòu)如圖5 所示。

        Fig.5 The structure of MSCNN圖5 MSCNN 結(jié)構(gòu)

        3 實(shí)驗(yàn)與分析

        3.1 實(shí)驗(yàn)環(huán)境

        為保證各模型對比的公平性,本研究中所有模型都在相同環(huán)境下進(jìn)行。本文使用當(dāng)前構(gòu)建深度學(xué)習(xí)模型與處理數(shù)據(jù)的主流語言Python,使用的深度學(xué)習(xí)框架為工業(yè)界主流的Tensorflow 框架進(jìn)行實(shí)驗(yàn),實(shí)驗(yàn)環(huán)境參數(shù)如表1 所示。

        Table 1 Experimental environmental parameters表1 實(shí)驗(yàn)環(huán)境參數(shù)

        3.2 評價指標(biāo)

        為了對分類模型效果進(jìn)行有效評測,本研究使用準(zhǔn)確比(Accuracy)、精確比(Precision)、查全比(Recall)和F1 值(F1)這4 項(xiàng)測評標(biāo)準(zhǔn),各測評標(biāo)準(zhǔn)公式分別如式(3)、(4)、(5)、(6)所示。

        TP(True Positive)為把正樣本識別成正類的個數(shù),TN(True Negative)為把負(fù)樣本識別成負(fù)類的個數(shù),F(xiàn)P(False Positive)為把負(fù)樣本識別成正類的個數(shù),F(xiàn)N(False Negative)為把正樣本識別成負(fù)類的個數(shù)。

        3.3 結(jié)果分析

        本研究設(shè)計多個模型進(jìn)行對比,其中傳統(tǒng)機(jī)器學(xué)習(xí)模型為SVM、Bayes 和Logistic Regression(LR),深度學(xué)習(xí)模型為XL-GSAtMSC,對比結(jié)果如表2 所示。

        Table 2 Model results表2 模型結(jié)果

        從表2 可以看出,傳統(tǒng)機(jī)器學(xué)習(xí)模型SVM、Bayes 和LR在評論情感多分類任務(wù)中各類評價指標(biāo)數(shù)據(jù)相近,而本文提出的改進(jìn)深度學(xué)習(xí)模型XL-GSAtMSC 在相同任務(wù)中各類評價指標(biāo)數(shù)據(jù)均高于機(jī)器學(xué)習(xí)模型10%左右。由此可見,XL-GSAtMSC 對商品評論的情感多分類具有較好的實(shí)用性和較高的準(zhǔn)確性。

        4 結(jié)語

        本文提出的XL-GSAtMSC 模型著重于CNN 與RNN 改進(jìn)內(nèi)部結(jié)構(gòu)的優(yōu)化設(shè)計,并基于XLNet 改進(jìn)文本矩陣化表示方式。從研究結(jié)果可以看出,該模型較傳統(tǒng)情感詞典和機(jī)器學(xué)習(xí)方法有很大優(yōu)勢,既克服了傳統(tǒng)情感詞典方法中領(lǐng)域詞典不足的缺陷,又不用人為提取特征,預(yù)測結(jié)果得到很大提升,證明該模型可行及具有實(shí)用性。但本研究尚未與基于CNN 與RNN 改進(jìn)的其它模型進(jìn)行實(shí)驗(yàn)和比較,后續(xù)將從該方向拓展。

        猜你喜歡
        卷積神經(jīng)網(wǎng)絡(luò)分類
        基于3D-Winograd的快速卷積算法設(shè)計及FPGA實(shí)現(xiàn)
        分類算一算
        神經(jīng)網(wǎng)絡(luò)抑制無線通信干擾探究
        電子制作(2019年19期)2019-11-23 08:42:00
        從濾波器理解卷積
        電子制作(2019年11期)2019-07-04 00:34:38
        分類討論求坐標(biāo)
        數(shù)據(jù)分析中的分類討論
        基于傅里葉域卷積表示的目標(biāo)跟蹤算法
        教你一招:數(shù)的分類
        基于神經(jīng)網(wǎng)絡(luò)的拉矯機(jī)控制模型建立
        復(fù)數(shù)神經(jīng)網(wǎng)絡(luò)在基于WiFi的室內(nèi)LBS應(yīng)用
        国产91九色免费视频| 国产亚洲日本精品无码| 中文字幕天天躁日日躁狠狠躁免费| 精品久久久久久777米琪桃花| 精品九九视频| 亚洲一区二区三区综合网| 桃色一区一区三区蜜桃视频| 国产成人无码一区二区三区 | 亚洲av无码国产精品永久一区| 国产成人av性色在线影院色戒| 亚洲an日韩专区在线| 国产三级三级三级看三级日本| 一区视频免费观看播放| 日日麻批免费40分钟无码| 少妇丰满大乳被男人揉捏视频| 久久九九有精品国产尤物 | 国产精品一区二区黄色片| 久久国产在线精品观看| 国产成人无码综合亚洲日韩| 国精品无码一区二区三区在线| 免费看欧美日韩一区二区三区| 日本一区二区精品色超碰| 国产一区二区三区亚洲avv| 国产做爰又粗又大又爽动漫| 醉酒后少妇被疯狂内射视频| 天天摸天天做天天爽天天舒服| 中文字幕一区二区三区| 国产精品无码制服丝袜| 欧美寡妇xxxx黑人猛交| 国产精品短视频| 成人影院免费视频观看| 喷水白浆视频在线观看| 少妇激情一区二区三区视频| 亚洲的天堂av无码| 国产免费人成视频在线观看播放| 青青草好吊色在线观看| 综合色就爱涩涩涩综合婷婷| 国产在线精品一区二区三区不卡| 日韩一区二区三区中文字幕| 综合亚洲二区三区四区在线| а√中文在线资源库|