亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于卷積神經網絡的中文微博情感分類

        2017-04-24 10:24:58王偉平
        計算機應用與軟件 2017年4期
        關鍵詞:短文語義準確率

        馮 多 林 政 付 鵬 王偉平

        1(中國科學院大學 北京 100049)2(中國科學院信息工程研究所 北京 100093)

        基于卷積神經網絡的中文微博情感分類

        馮 多1,2林 政2付 鵬1,2王偉平2

        1(中國科學院大學 北京 100049)2(中國科學院信息工程研究所 北京 100093)

        微博是互聯網輿論演化的重要平臺,對微博進行情感分析,有助于及時掌握社會熱點和輿論動態(tài)。由于微博數據內容簡短、特征稀疏、富含新詞等特征,微博情感分類依然是一個較難的任務。傳統(tǒng)的文本情感分類方法主要基于情感詞典或者機器學習等,但這些方法存在數據稀疏的問題,而且忽略了詞的語義、語序等信息。為了解決上述問題,提出一種基于卷積神經網絡的中文微博情感分類模型CNNSC,實驗表明相比目前的主流方法,CNNSC的準確率提高了3.4%。

        情感分類 卷積神經網絡 微博分類

        0 引 言

        情感分類是一種重要的信息組織方式,研究的是自動挖掘和分析文本中的觀點、看法、情緒和喜惡等主觀信息的方法。在商業(yè)領域,情感分類可用于產品評論挖掘,幫助消費者做出購買決定,幫助生產者獲得產品和服務的改進意見;在文化領域,情感分類可以實現影評、書評等資源的自動分類,便于用戶快速瀏覽各方的評論意見,減少觀影或者閱讀時的盲目性;從社會管理者的角度出發(fā),情感分類能夠幫助管理者更加及時地了解公眾對各類管理措施或熱點話題的反饋意見,從而作出相應處置,妥善、積極地應對網絡輿情,對于準確把握社會脈絡,建設和諧社會有著重要意義。

        情感分類研究具有廣泛的應用前景,受到了學術界和工業(yè)界的普遍關注。目前,情感分類研究取得了很大的進步。傳統(tǒng)的情感分類方法大多數是基于長文本,大致可以分為有監(jiān)督的機器學習方法和無監(jiān)督的情感詞典方法。然而,中文微博是一種誕生于社交場景的短文本,具有數據量大、內容簡略、特征稀疏、富含新詞、信息混雜等特征,這使得以往的情感分類方法在處理短文本時,難以保證其分析效果。基于機器學習的方法受限于稀疏的特征表達,每一個特征都用一個高維的稀疏向量進行表達,難以判別語義相似的特征;基于詞典的方法受限于人工構建情感詞典的代價和成本,網絡新詞層出不窮需要不斷更新詞典,除此之外,基于詞典的方法沒有考慮情感詞的上下文信息。

        為了解決上述困難問題,本文提出了一種基于卷積神經網絡的中文微博情感分類模型CNNSC。卷積神經網絡(CNN)是一種特殊的人工神經網絡,在圖像識別領域表現出卓越的效果。CNN的卷積與池化操作可以自動抽取良好的特征表達,參數共享機制極大降低了模型的訓練時間。本文將其引入中文微博的情感分類,不僅可以解決傳統(tǒng)詞袋模型的數據稀疏問題,還進一步考慮了詞匯的語義信息以及詞匯之間的語序信息。實驗結果表明,相比主流方法,本文提出的CNNSC模型提高了中文微博情感分類的正確率。此外,本文還針對中文的特殊性,研究了字、詞等不同的語義單元對CNNSC分類效果的影響。

        1 相關研究

        1.1 情感分類研究

        以學習方法為標準,可以將情感分類分為有監(jiān)督式、無監(jiān)督式及半監(jiān)督式的研究方法。

        有監(jiān)督式主要采用機器學習方法實現情感分類。Pang等[1]通過樸素貝葉斯、最大熵及支持向量機(SVM)方法分別對影評數據進行情感分類,取得了不錯的效果。Ye等[2]將有監(jiān)督的情感分類方法應用到在線游記上,提高了搜索引擎返回游記的準確率和召回率。無監(jiān)督式方法的數據集沒有任何標注信息,主要通過先驗知識進行情感分類。Turney[3]提出了結合詞性和語法結構的情感分類方法,主要應用在評論數據集上。Zagibalov 等[4]通過自動選取種子詞實現了一種無監(jiān)督的情感分類方法,并將其應用在中文產品評論數據集上。

        半監(jiān)督式方法適用于僅有少量標注的數據集。Dasgupta等[8]首先通過譜分析技術挖掘出態(tài)度明確無歧義的評論,然后在此基礎上結合主動學習、直推式學習等方法對有歧義的評論進行分類。Li等[7]提出的半監(jiān)督情感分類模型充分考慮了數據集中各個主題標注數不平衡的問題。

        1.2 短文本情感分類研究

        相對長文本而言,短文本通常僅包含一個或幾個句子,常見的短文本包括手機短信、聊天記錄、商品短評及微博等。研究短文本的情感分類方法時,考慮到短文本的特征向量稀疏、信息混雜、富含新詞等特征帶來的問題,已有研究工作主要從下述的幾個方面著手。

        降低短文本特征向量的維度。單條短文本篇幅很短,但短文本數量大,且包含了豐富的口語詞匯,因此短文本數據集的特征空間維度極大,而特征向量又十分稀疏,帶來了極大的不確定性。通過如信息增益[9]、互信息[10]、隱語義索引[11]等特征選擇方法可以降低特征向量的維度,缺點是這些降維方法需要計算維度巨大的矩陣的特征向量或者進行頻繁的迭代分析,時間和空間復雜度都很高。

        對由特征向量構成的短文本特征矩陣進行擴充。這種思路是為了降低特征向量的稀疏性,從而減小對短文本處理的不確定性。Tan等[6]將用戶的社交信息融合到半監(jiān)督式方法中,提高了短文本情感分類的準確率。Wang等[12]通過聚類方法獲取短文本的上下文對其進行擴充。

        將主題信息融合到對短文本的情感分類中。一種方法是首先對短文本進行主題劃分,為每個主題構建特征空間。楊震等[13]首先對短文本進行主題劃分,然后對短文本按其所屬主題進行相關的內容擴充。另一種方法是將主題信息融合到特征向量中,Liu等[26]提出了三種將主題信息融合到特征向量的思路,實驗結果表明將主題也作為特征參與進行訓練的方法最優(yōu)。

        通過對短文本特征進行再劃分,以減少新詞的影響。Socher等[5]將句子中的詞語兩兩合并,遞歸構建短語樹,使用短語節(jié)點特征判斷句子情感類別。另一方面,已有一些網絡新詞挖掘的研究工作[14-15],結合新詞不斷更新詞典,可以提高短文本情感分類的準確率。

        1.3 基于深度學習的情感分類研究

        近幾年來,以人工神經網絡為主的深度學習方法迅猛發(fā)展,為情感分類提供了新的思路。Glorot等[16]使用深度學習方法學習提取更具解釋性的文本表達,并將其應用在大規(guī)模在線評論的情感分類中,準確率相比主流方法得到了提高。Zhou等[17]將深度置信網絡應用到半監(jiān)督式的情感分類方法中,首先利用深度置信網絡學習未標注的數據的類別,再通過監(jiān)督式方法對文本進行情感分類。Kim[19]將CNN應用到文本分類中的思想,實現了基于CNN的文本分類模型,實驗結果表明基于CNN的文本分類方法相比當時最優(yōu)的方法準確率更高。Johnson等[20]及Zhang等[21]對基于CNN的文本分類方法進行了特殊場景下的改良。

        目前尚未出現基于CNN的中文微博情感分類相關研究工作,本文參考Kim[19]提出的模型,提出了基于CNN的中文微博(以下簡稱微博)的情感分類模型CNNSC。其中,引入CNN以充分考慮文本的語序信息,并自動提取特征。為了進一步提高CNNSC的分類準確率,引入了word2vec詞表達訓練模型,該模型充分考慮了語義信息。相比隨機初始化的詞表達,引入word2vec的CNNSC分類準確率更高。

        另一方面,除了詞語,中文的漢字本身具有豐富的語義信息,漢字也可以作為微博的語義單元。因此,本文研究了不同的語義單元對CNNSC準確率的影響。

        2 模型介紹

        2.1 CNN

        CNN模型是一種特殊的人工神經網絡(ANN)。ANN是一種模擬生物神經網絡的計算模型,ANN由大量神經元和神經元之間的相互連接構成[23]。每個神經元代表一種特定的非線性輸出函數,稱為“激勵函數”,信號通過神經元時產生非線性變換。每兩個神經元之間的連接代表一個通過該連接信號的權重值。ANN每一層的神經元之間沒有連接,相鄰層之間的神經元全連接,即當前層的神經元接收到的信息與上一層所有的神經元均有關聯。ANN通過有監(jiān)督式或無監(jiān)督式方法自動學習特征,無需人工進行特征劃分。

        CNN受啟發(fā)于生物學中的視覺系統(tǒng)結構,視覺皮層的神經元是局部接受信息的,即這些神經元只響應某些特定區(qū)域的刺激。基于這種思路,在CNN中,相鄰層之間的神經元并不像普遍ANN那樣全連接,而是部分連接,這一特征減小了反映網絡各層之間連接的權重轉移矩陣的規(guī)模。同時,CNN具有權重共享特征[24],即當前層的每個神經元獲取到的信息,由同一個權重矩陣——卷積核與上一層同樣大小的子矩陣進行計算而來。權重共享特征進一步減小了權重轉移矩陣的大小,大大縮短了神經網絡的訓練時間。

        典型的CNN包含若干個卷積層和池化層,如圖1所示為用于圖片特征提取的CNN示意圖。其中,卷積層的神經元共享卷積核Ca×b,卷積層的特征矩陣S(m-a+1)×(n-b+1)的神經元s11是通過輸入Pm×n的子矩陣P1…a,1…b與C進行卷積操作而來。像這樣,將C在P上向右向下滾動,分別與P的(m-a+1)×(n-b+1)個a×b維子矩陣進行卷積操作,就得到了特征矩陣S。整個過程P的子矩陣均是與同一個卷積核進行運算,實際上是一個特征泛化的過程。接著,CNN的池化層進一步將特征泛化。池化層對S的固定大小的子區(qū)域中的特征值進行例如取最大值、平均值等相同的運算。

        圖1 典型CNN結構圖

        CNN中可以包含多個卷積層和池化層,根據需求對原始特征矩陣進行充分的泛化,最后將泛化后的特征根據具體的應用場景進行處理。

        2.2word2vec

        以往的詞表達均采用one-hotrepresentation,就是用一個很長的向量來表示一個詞,向量的維度為詞典D的大小,向量只有某一個維度值為1,其余維的值均為0,1的位置對應該詞在D中的索引。但是這種詞向量表達容易造成維數災難,不能很好地刻畫詞與詞之間的相似性。

        另一種詞表達是由Hinton[25]提出的distributedrepresentation,它可以克服one-hotrepresentation的缺點。其基本思想是:通過語言模型的訓練,將某種語言中的每一個詞映射成一個固定長度的短向量(這里的“短”是相對于one-hotrepresentation的“長”而言),所有這些向量構成一個詞向量空間,將每個向量視作空間中的一個點,語法、語義上相似的詞距離也相近。word2vec采用的就是distributedrepresentation。

        word2vec是由Mikolov等[18]提出的一種用來訓練詞表達的淺層神經網絡模型。word2vec中提出了cbow和skip-gram兩種方法,前者通過上下文的詞表達來訓練當前詞表達,后者反之,給定詞表達,預測該詞的上下文的概率。word2vec模型訓練得到的詞表達充分考慮了詞的語義信息,表現為語義相近的詞其詞表達距離更小,以及反映了一詞多義的情況。本文將word2vec模型進行了修改,使之適用于中文語料,以獲取微博的詞表達。

        3 CNNSC

        CNNSC模型是在CNN模型的基礎上構造而來,圖2為CNNSC的結構圖。CNNSC包括了輸入層、卷積層、池化層和輸出層。

        圖2 CNNSC結構圖

        3.1 微博特征矩陣

        CNNSC首先從微博訓練集中提取出每條微博的的特征矩陣。具體來說,先將微博集中的每條微博T進行分詞。在對整個微博集進行分詞的同時,CNNSC建立了微博集的詞典D,并將D中的所有詞的詞表達初始化,補充到D中。CNNSC提供了隨機初始化及通過word2vec模型初始化兩種方法,其中引入word2vec模型可以充分考慮詞的語義信息。接著,將T作為分詞工具的輸入,輸出的T被分為d個詞語w1,w2,…,wd,將T表示為:

        T:{w1,w2,…,wd}

        (1)

        從D中獲取T的每個詞語wi的詞表達,將wi表示為Rv×1空間中的向量wi:

        wi=(mi1,mi2,…,miv)i∈[1,d]

        (2)

        T的矩陣表示即是將T中所有詞語的詞表達按照詞序列從上至下排列起來:

        w1:d=w1⊕w2⊕…⊕wd

        (3)

        這樣,微博T被轉換為Rd×v特征空間的矩陣:

        (4)

        CNNSC將T的特征矩陣作為CNN的輸入,然后通過CNN的卷積層、池化層進行特征提取,獲取微博的句子表達。

        3.2 卷積層

        CNN應用在圖像識別中時,一般情況下,在卷積層的操作中,卷積核在像素矩陣的行列兩個方向都發(fā)生移動,正如在第2部分中的CNN示例。將CNN應用到微博分類中時,以前述T的特征矩陣作為輸入,卷積核在行方向的移動不具有解釋性,因此CNNSC的卷積核與句子表達的行向量維數一致。在這里,輸入到CNN中的句子表達矩陣,在列方向上保留了文本的語序信息,卷積核在列方向上的移動可以獲取到原文本的固有特征,該特征的大小也是由原文本的語法特征決定的,無需人工干預。這樣,CNNSC實現了微博特征自動提取。

        CNNSC在卷積層中設置了m個卷積核C1,C2,…,Cm。設置多個卷積核是為了能夠更加全面地獲取到微博句子表達中的特征,降低特征提取過程的偶然性。其中任意卷積核C∈Rk×v:

        (5)

        卷積層的操作是將微博的特征矩陣T的從上至下d-k+1個子矩陣Tp∈Rk×v,p∈[1,d-k+1],如下所示,分別與C進行(*)運算。

        (6)

        (*)運算的定義為:

        (7)

        其中biasij是偏置矩陣BIAS的一個分量,即對權重矩陣進行調整的偏差值。sigmod是激勵函數,用來將特征值進行歸一化。這樣,微博T的句子表達與任意一個卷積核C均行了d-k+1次(*)運算,將每次(*)運算的輸出依次排列,得到卷積矩陣S∈R(d-k+1)×1。同樣地,將T與剩余m-1個卷積核進行卷積操作,得到了該條微博的所有卷積層輸出S1,S2,…,Sm,傳入到CNN的池化層中。

        CNN的卷積層實際上是一個特征抽取的過程。一個卷積核抽取一種特征,得到一個特征矩陣。CNN在抽取某一種特征時,通過相同的卷積核對原始輸入的不同區(qū)域進行相同的信息轉換,將局部的特征泛化,而保留了整體的特征。這樣微博中原始的最能代表微博情感傾向性的語義和語序特征得以保留。

        3.3 池化層

        微博T的句子表達經由m個卷積核進行卷積操作后,從卷積層傳遞了m個R(d-k+1)×1空間的矩陣表達的特征。池化層將這些特征進一步聚合,簡化特征的表達。在池化層定義了池化運算:

        pooling(S(d-k+1)×1)=α(s1,s2,…,sd-k+1)

        (8)

        其中α算子是可選的,常見的為最大化算子、最小化算子、平均值算子及高斯化算子。在最大化算子的基礎上,文獻[6]采用了k最大化算子,即取S各維中最大的k維。一般而言,α算子需要通過對比實驗,為當前的應用場景選擇最為合適的。CNNSC提供了可選的多種算子,第4部分的實驗展示了不同的池化方法對CNNSC分類性能的影響。

        池化操作將每個卷積矩陣轉換為一個一維特征值,這樣得到了一個Rm×1空間的特征向量P:

        P=(p1,p2,…,pm)

        (9)

        CNN的卷積層和池化層分別通過卷積操作和池化操作對微博T的句子表達進行了特征提取,得到泛化后的特征向量P。接著CNNSC將該特征向量傳遞到分類器中,計算微博T所屬的情感類別。

        3.4 情感分類

        CNNSC一開始將微博T轉換為特征矩陣,然后將該矩陣傳入到CNN中,提取到T的特征向量P。在CNN之后通過全連接方式連接了一層分類器,如圖3所示。

        圖3 CNNSC的分類器示意圖

        池化層傳遞過來的特征向量P即為微博T的句子表達。神經元L即為CNN的分類器。文獻[21,24]的模型在池化層后連接了softmax分類器,分別計算微博T屬于各種情感極性的概率來確定其情感類別。根據具體需求及語料集的標注條件,已有情感極性分類工作主要包括正向、負向二分類及正向、中性、負向三分類兩種做法。結合爬取到的中文微博語料集,本文采取了正向、負向二分類的做法。這樣,CNNSC面向的是微博的情感極性二分類問題,分類器的激勵函數采用了sigmod函數,將池化后的向量P轉換為一維數值,通過設置閾值θ確定微博的情感類別,如式(10)所示:

        (10)

        這樣,CNNSC通過將每條微博轉換為特征空間的句子表達,然后通過CNN的卷積和池化操作進行特征提取及泛化,最后通過分類器獲得了微博的情感分類。

        3.5 模型訓練

        CNNSC采用了后向傳播算法來訓練參數值。后向傳播算法(BP算法)的核心思想,就是通過輸出結果和期望輸出之間的誤差來調整各層之間的轉移矩陣的權重值。BP算法是ANN中用來訓練網絡最常用的算法,而將其應用在CNN中時,需要做一些修改。這里結合前面使用到的符號,說明CNNSC中BP算法的過程。首先,將CNNSC輸出值與期望值之間的誤差E定義如下:

        (11)

        這里的Y和O均為一維數值。進一步將上式展開到池化層:

        (12)

        其中fs為分類器采用的激勵函數,fp為池化層的激勵函數,CNNSC支持取最大值或取平均值,池化層的輸入為m個R(d-k+1)×1空間的向量。進一步,將上式展開到卷積層:

        (13)

        其中st的展開式為:

        (14)

        可以發(fā)現,網絡的誤差E為卷積核C與偏置矩陣B的函數,因此調整C與BIAS的分量值會使誤差發(fā)生改變。CNNSC的訓練原則就是調整權值與偏差值使E不斷減小。具體的求解方法是,分別求E對cij、biasij的偏導數,如下所示為E對cij的偏導數計算過程:

        (15)

        然后,可得cij的下降梯度為:

        (16)

        同樣地可以對biasij的偏導數和下降梯度求解。然后通過梯度下降法訓練得到CNNSC的最優(yōu)卷積核及偏置矩陣,從而實現基于CNN的面向微博的情感分類模型。

        4 實驗及結果分析

        為了驗證本文所提CNNSC模型的有效性,一共進行了四組實驗。下面首先介紹實驗設置,然后分別介紹四組實驗目的及實驗結果,并對實驗結果進行分析。

        4.1 實驗設置

        本文爬取了來自新浪微博的約十萬條中文微博。在對其進行去重,人工標注后,最終保留了47 374條微博,其中包括35 164條正向微博及12 210條負向微博。下面的幾組實驗均采用了交叉驗證的方法,從數據集中隨機抽取語料集中的1/10作為測試集,剩下的作為訓練集。

        在第二組實驗中涉及到的參數的默認值分別為:梯度下降學習率(adaAlpha)為0.01,默認的池化算子(pooling)為取平均值算子,卷積核列向量維度(filterSize)分別為3、4、5,每種卷積核的個數(filterNumber)300,CNNSC設置了多個卷積通道——即多種大小不同的卷積核,可以進一步減少特征提取的偶然性。微博的詞表達由word2vec對微博訓練集訓練獲取,詞向量維數為100,每次迭代從訓練集中隨機選取50條微博。對CNNSC進行的每次實驗進行了多次迭代,達到收斂條件時迭代停止,并返回迭代過程中出現的最高準確率。

        在對比實驗中,本文選取了基于情感詞典的無監(jiān)督方法及樸素貝葉斯、最大熵、支持向量機三種基于機器學習的有監(jiān)督方法作為baseline。實驗的評價標準為微博情感分類的準確率,計算公式為:

        (17)其中TP、FP、TN、FN分別代表正確分類的正向微博、錯誤分類的正向微博、正確分類的負向微博及錯誤分類的負向微博,該公式中的分母即為測試集的所有微博數。

        4.2 實驗結果

        (1) 第一組實驗將CNNSC與其他方法進行面向微博的情感分類準確率的比較。對每種方法進行了10次測試,每次隨機抽取微博語料集中的1/10作為測試集,剩下的則為訓練集,然后取10次測試的分類準確率的平均值作為該方法的準確率,結果如表1所示。

        表1 面向微博的情感分類準確率

        實驗結果表明CNNSC相比基于情感詞典和基于機器學習方法,其準確率更高?;谇楦性~典的方法準確率僅為76.6%,這是由于每條微博的篇幅有限,其中包含的情感詞較少,加上微博的口語化及富含新詞的特征,基于情感詞典的方法在微博上的情感分類表現并不突出。三種機器學習方法的準確率相差不大,均優(yōu)于情感詞典方法。其中SVM方法的準確率達到了88.2%,SVM十分適用于二分類問題,它將微博情感分類問題視作普通的文本分類問題,但未能充分考慮微博的語義及語序信息。SVM方法將分詞結果作為微博特征,CNNSC在微博分詞后的特征矩陣基礎上更進一步,自動學習微博的特征表達。CNNSC的準確率比SVM方法高出3.4%,表明引入CNN提取微博特征可以提高情感分類準確率。

        (2) 第二組實驗展示的是CNNSC在不同的參數設置下的分類準確率。本組實驗涉及到四個參數的調優(yōu)。

        表2顯示了不同的學習率對CNNSC性能的影響,圖4更直觀地反映了實驗結果。在梯度下降算法中,若學習率設置過小,則算法收斂很慢;若學習率設置過大,則會導致代價函數震蕩。從表2可以看出,學習率在0.01時,CNNSC準確率達到峰值;學習率再增大時,正確率反而降低了。在接下來的實驗中,我們經驗地將學習率設置為0.01。

        表2 學習率對CNNSC準確率的影響

        圖4 學習率對CNNSC準確率的影響

        表3及圖5顯示了不同的卷積核數對CNNSC性能的影響。實驗結果表明,CNNSC的準確率隨著卷積核數的遞增呈現波動變化,當卷積核數大于200時,CNNSC準確率在0.4%范圍內波動。當卷積核數取值為300時,準確率達到最大值,因此在接下來的實驗中將卷積核數經驗地設置為300。

        表3 卷積核數對CNNSC準確率的影響

        圖5 卷積核數對CNNSC準確率的影響

        表4顯示在不同大小的卷積核下CNNSC準確率的變化。實驗結果表明卷積核大小對CNNSC準確率影響較小,在0.6%內波動。本文根據實驗結果,將卷積核大小經驗地設置為3、4、5。

        表4 卷積核大小對CNNSC準確率的影響

        表5顯示采用不同的池化算子對CNNSC準確率的影響。三組對比測試結果表明,取平均值池化算子相比取最大值算子更適用于中文微博的情感分類。

        表5 池化算子對CNNSC準確率的影響

        第二組實驗結果顯示對于每個參數的波動,CNNSC準確率變化均在1%之內,且與參數值的變化之間呈非線性關系。整個調優(yōu)過程的準確率最低值為90.6%,高于基于SVM的情感分類方法2.4%,這說明CNNSC將CNN引入到中文微博的情感分類問題中來是行之有效的。

        (3) 第三組實驗是為了研究詞表達對CNNSC分類準確率的影響。本組實驗測試了CNNSC在六種不同的詞表達下的情感分類準確率,涉及到隨機初始化的詞表達與通過word2vec訓練所得詞表達,word2vec分別由中文維基百科及微博訓練集訓練得到的詞表達,以及不同維度的詞詞表達,如表6所示。實驗的其他設置為:學習率0.01,卷積核列向量大小分別為3、4、5,卷積核數為300,池化算子為取平均值算子。

        表6 不同詞表達下CNNSC分類準確率

        首先,將隨機初始化的詞表達作為CNNSC的輸入,準確率相比基于SVM的情感分類方法高出2.4%,這充分證明了本文引入CNN對中文微博進行分類的思路是正確的。其次,由word2vec模型訓練得到的詞表達,相對隨機初始化的詞表達,提高了CNNSC的分類準確率。再次,word2vec以微博訓練集本身訓練所得詞表達,相比中文維基百科,將準確率提升了0.3%。最后,詞表達的維度對準確率的影響有限,在隨機初始化時100維詞表達的準確率低于50維詞表達,而由word2vec在微博訓練集上訓練所得的100維詞表達使準確率提升了0.1%,與經驗值符合。這組實驗結果表明,不同詞表達會造成CNNSC的分類準確率有所變化,引入word2vec模型使準確率提升了1.0%。

        (4) 第四組實驗研究不同語義單元對CNNSC分類準確率的影響,即漢字和詞語分別作為語義單元,通過隨機初始化或wordvec訓練獲取語義單元的詞表達,最后傳給CNNSC進行情感分類。本組實驗的參數設置與第三組實驗一致,除了word2vec的語料集僅采用了微博訓練集,實驗結果如表7所示。

        表7 不同語義單元下CNNSC分類準確率

        本組實驗一共進行了四次對比實驗,目的是為了減少結果的偶然性。這四次對比結果顯示,以漢字作為語義單元,相比詞語作為語義單元,CNNSC的準確率均有所下降,平均下降了2.3%。這表明將漢字作為微博的語義單元仍然損失了部分語義信息,并不適用于單獨作為中文微博的語義單元。

        5 結 語

        本文提出了一種基于CNN的中文微博情感分類模型CNNSC,該模型充分考慮了中文微博內容簡短、特征稀疏及富含新詞等特征,實驗表明相比目前情感分類的主流方法,CNNSC在中文微博上的情感分類準確率提高了3.4%。為了進一步提高CNNSC準確率,本文引入了充分考慮微博語義信息的word2vec模型,對微博詞表達進行初始化。另一方面,考慮到中文的特殊性,本文探究了不同語義單元對CNNSC準確率的影響。實驗結果表明僅以漢字作為中文微博的語義單元會出現語義損失,使CNNSC準確率有所降低。未來的工作可以研究將漢字表達作為詞表達的輔助信息能否提高CNNSC準確率。此外,CNNSC對卷積核進行隨機初始化,通過改進對卷積核的初始化方法來提高CNNSC的準確率也是未來的研究點之一。

        [1] Pang B,Lee L,Vaithyanathan S.Thumbs up?:sentiment classification using machine learning technique[C]//Proceedings of the ACL-02 Conference on Empirical Methods in Natural Language Processing,2002,10:79-86.

        [2] Ye Q,Zhang Z,Law R.Sentiment classification of online reviews to travel destinations by supervised machine learning approaches[J].Expert Systems with Applications,2009,36(3):6527-6535.

        [3] Turney P D.Thumbs up or thumbs down?:semantic orientation applied to unsupervised classification of reviews[C]//Proceedings of the 40th Annual Meeting on Association for Computational Linguistics,2002:417-424.

        [4] Zagibalov T,Carroll J.Automatic seed word selection for unsupervised sentiment classification of Chinese text[C]//Proceedings of the 22nd International Conference on Computational Linguistics,2008,1:1073-1080.

        [5] Socher R,Pennington J,Huang E H,et al.Semi-supervised recursive autoencoders for predicting sentiment distributions[C]//Proceedings of the Conference on Empirical Methods in Natural Language Processing,2011:151-161.

        [6] Tan C,Lee L,Tang J,et al.User-level sentiment analysis incorporating social networks[C]//Proceedings of the 17th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining,2011:1397-1405.

        [7] Li S,Wang Z,Zhou G,et al.Semi-supervised learning for imbalanced sentiment classification[C]//Proceedings of the 22ndInternational Joint Conference on Artificial Intelligence,2011:1826-1831.

        [8] Dasgupta S,Ng V.Mine the easy,classify the hard:a semi-supervised approach to automatic sentiment classification[C]//Proceedings of the Joint Conference of the 47thAnnual Meeting of the ACL and the 4thInternational Joint Conference on Natural Language Processing of the AFNLP,2009,2:701-709.

        [9] Mitchell T M.Machine learning and data mining over the past[J].Communications of the ACM,1999,42(11):30-36.

        [10] Wiener E,Pedersen J O,Weigend A S.A neural network approach to topic spotting[C]//Proceedings of the 4th Annual Symposium on Document Analysis and Information Retrieval,1995:317-332.

        [11] Chen L,Tokuda N,Nagai A.A new differential LSI space-based probabilistic document classifier[J].Information Processing Letters,2003,88(5):203-212.

        [12] Wang L,Jia Y,Han W.Instant message clustering based on extended vector space model[C]//Proceedings of the 2nd International Conference on Advances in Computation and Intelligence.Springer,2007:435-443.

        [13] 楊震,賴英旭,段立娟,等.基于上下文重構的短文本情感極性判別研究[J].自動化學報,2012,38(1):55-67.

        [14] Liu Z,Zheng Y,Xie L,et al.User Behaviors in Related Word Retrieval and New Word Detection: A Collaborative Perspective[J].ACM Transactions on Asian Language Information Processing,2011,10(4):1-26.

        [15] Sun X,Wang H,Li W.Fast online training with frequency-adaptive learning rates for Chinese word segmentation and new word detection[C]//Proceedings of the 50th Annual Meeting of the Association for Computational Linguistics:Long Papers,2012,1:253-262.

        [16] Glorot X,Bordes A,Bengio Y.Domain adaptation for large-scale sentiment classification:A deep learning approach[C]//Proceedings of the 28th International Conference on Machine Learning,2011:513-520.

        [17] Zhou S,Chen Q,Wang X.Active deep networks for semi-supervised sentiment classification[C]//Proceedings of the 23rd International Conference on Computational Linguistics:Posters,2010:1515-1523.

        [18] Mikolov T,Chen K,Corrado G,et al.Efficient estimation of word representations in vector space[DB/OL].http://arxiv.org/abs/1301.3781.

        [19] Kim Y.Convolutional neural networks for sentence classification[DB/OL].http://arxiv.org/abs/1408.5882.

        [20] Johnson R,Zhang T.Effective use of word order for text categorization with convolutional neural networks[DB/OL].http://arxiv.org/abs/1412.1058.

        [21] Zhang X,Zhao J,LeCun Y.Character-level convolutional networks for text classification[C]//Proceedings of the 28thInternational Conference on Neural Information Processing Systems,2015:649-657.

        [22] Severyn A,Moschitti A.Twitter sentiment analysis with deep convolutional neural networks[C]//Proceedings of the 38th International ACM SIGIR Conference on Research and Development in Information Retrieval,2015:959-962.

        [23] Yegnanarayana B.Artificial neural networks[M].New Delhi,India:Prentice-Hall,2009.

        [24] Krizhevsky A,Sutskever I,Hinton G E.Imagenet classification with deep convolutional neural networks[C]//Advances in Neural Information Processing Systems 25,2012:1106-1114.

        [25] Hinton G E.Distributed representations[M].Cambridge,Mass,USA:MIT Press,1986.

        [26] Liu Y,Liu Z,Chua T S,et al.Topical Word Embeddings[C]//Proceedings of the 29th AAAI Conference on Artificial Intelligence,2015:2418-2424.

        CHINESE MICRO-BLOG EMOTION CLASSIFICATION BASED ON CNN

        Feng Duo1,2Lin Zheng2Fu Peng1,2Wang Weiping2

        1(UniversityofChineseAcademyofSciences,Beijing100049,China)2(InstituteofInformationEngineering,ChineseAcademyofSciences,Beijing100093,China)

        Microblogging is an important platform for the evolution of Internet media, microblogging emotional analysis, help to grasp the social hot spots and public opinion. As the content of Micro-blog short, sparse features, rich in new words and other features, Micro-blog emotional classification is still a difficult task. Traditional text emotion classification methods are mainly based on emotional dictionary or machine learning, but these methods have sparse data, and ignore the semantic, word order and other information. In order to solve the above problem, this paper proposes a Chinese microblogging emotion classification model based on CNN. The experiment shows that the accuracy of the model is improved by 3.4% compared with the current mainstream method.

        Emotion classification Convolutional neural network Micro-blog classification

        2016-01-25。國家自然科學基金項目(61502478);國家核高基項目(2013ZX01039-002-001-001);國家高技術研究發(fā)展計劃項目(2013AA013204)。馮多,碩士生,主研領域:情感分析,大數據處理。林政,博士。付鵬,博士生。王偉平,研究員。

        TP3

        A

        10.3969/j.issn.1000-386x.2017.04.027

        猜你喜歡
        短文語義準確率
        乳腺超聲檢查診斷乳腺腫瘤的特異度及準確率分析
        健康之家(2021年19期)2021-05-23 11:17:39
        不同序列磁共振成像診斷脊柱損傷的臨床準確率比較探討
        2015—2017 年寧夏各天氣預報參考產品質量檢驗分析
        語言與語義
        KEYS
        高速公路車牌識別標識站準確率驗證法
        Keys
        “上”與“下”語義的不對稱性及其認知闡釋
        現代語文(2016年21期)2016-05-25 13:13:44
        認知范疇模糊與語義模糊
        短文改錯
        国产在线观看网址不卡一区| 亚洲欧美激情在线一区| 精品无码国产污污污免费| 亚洲第一区二区快射影院| 日本成人精品一区二区三区| 亚洲av乱码一区二区三区林ゆな| 青青草原综合久久大伊人| 国产成人精品曰本亚洲| 国内精品少妇久久精品| 国产香港明星裸体xxxx视频| 18禁黄网站禁片免费观看| 久久青草国产精品一区| 亚洲一区二区三区免费av| 欧美xxxxx在线观看| 99久久亚洲精品无码毛片| 久久久久久久尹人综合网亚洲 | 无码国产精品一区二区免费97| 日韩精品极品视频在线免费| 美女用丝袜脚玩我下面| 国产精品你懂的在线播放| 中文人成影院| 人妻熟女中文字幕av| 精品+无码+在线观看| 人成午夜免费大片| 亚洲红杏AV无码专区首页| 中文字幕第一页人妻丝袜| 午夜色大片在线观看| 国产91 对白在线播放九色| 在线久草视频免费播放| 中文字幕日韩人妻在线视频| 亚洲女人被黑人巨大进入| 国产传媒剧情久久久av| 三级黄色片免费久久久| 饥渴的熟妇张开腿呻吟视频| 亚洲一区区| 亚洲国产免费不卡视频| 亚洲国产欧美日韩欧美特级| 亚洲自拍愉拍| 在线视频一区二区国产| 被三个男人绑着躁我好爽视频| 无码一区二区三区AV免费换脸|