亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于CNN-BiLSTM-HAN 混合神經(jīng)網(wǎng)絡的高校圖書館社交網(wǎng)絡平臺細粒度情感分析

        2022-05-21 10:53:26李洪蓮
        農(nóng)業(yè)圖書情報學刊 2022年4期
        關(guān)鍵詞:分類圖書館特征

        李 博,李洪蓮,關(guān) 青,劉 楊

        (哈爾濱商業(yè)大學圖書館,哈爾濱 150028)

        1 引言

        隨著Web2.0 技術(shù)的深入應用,微博、微信、短視頻平臺以及論壇等社交網(wǎng)絡服務(Social Network Service,SNS)平臺用戶規(guī)模日趨增長。高校師生普遍使用社交網(wǎng)絡工具進行學習、科研、工作上的交流[1]。用戶體驗圖書館服務的渠道和方式也日趨多樣化和移動化,微信公眾平臺、微博等社交網(wǎng)絡平臺已經(jīng)成為高校圖書館數(shù)字化服務的主要方式和手段。紛繁多樣的社交網(wǎng)絡平臺引發(fā)了互聯(lián)網(wǎng)信息呈現(xiàn)出指數(shù)級增長[2],用戶產(chǎn)生的文本信息數(shù)據(jù)體量隨之增大,這其中又存在大量的帶有情感傾向的評論,這些資源中蘊含的情感信息一定程度上表征了用戶的信息需求、數(shù)據(jù)需求以及潛在想法等。如何從紛繁多樣的文本信息中高效、快捷、高質(zhì)量地進行文本情感分析,判斷情感傾向,提取出其蘊含的潛在價值及隱性內(nèi)容,成為了目前學術(shù)界研究的一個熱點話題。

        情感分析研究也是目前國內(nèi)外圖書館情報領(lǐng)域人工智能研究熱點問題[3],不同于圖像等數(shù)據(jù)的高稠密性,文本數(shù)據(jù)維度較高,數(shù)據(jù)結(jié)構(gòu)呈現(xiàn)稀疏,并且語義復雜,文本數(shù)據(jù)分析過程中易產(chǎn)生分析粒度過粗,非結(jié)構(gòu)化評論信息難以向量化以及無法捕捉上下文語義環(huán)境。對篇章級或句子級的整體傾向進行判斷,精準度較低,很難準確判斷真實具體的情感傾向,忽略了更細粒度級的信息,容易造成關(guān)鍵的、有價值的信息丟失;例如:“圖書館的學習氛圍強,但是廁所異味太大,而且總有大聲打電話的”,這句話就無法從整句上面來判斷用戶的真實情感究竟是積極的還是消極的,通過更細粒度的分析之后得出,用戶對“學習氛圍”這個維度持積極態(tài)度,對“空氣質(zhì)量”和“秩序”這兩個維度持消極態(tài)度。

        為了解決上述問題,本文采用基于深度神經(jīng)網(wǎng)絡學習的自然語言處理技術(shù),充分利用卷積神經(jīng)網(wǎng)絡、循環(huán)神經(jīng)網(wǎng)絡和層次化注意力機制的優(yōu)勢,提出一種基于CNN、BiLSTM 和Hierarchical Attention 機制的高校圖書館社交網(wǎng)絡細粒度情感分析模型,并在真實數(shù)據(jù)集進行實驗,通過與基準模型的對比驗證本模型的有效性。

        2 相關(guān)工作

        情感分析(Sentiment Analysis),又稱情感分類(Sentiment Classification)、傾向性分析(Orientation Analysis),是運用自然語言處理、文本分類等技術(shù)自動抽取或分類文本中的情感[4],屬于信息檢索、自然語言處理和人工智能的交叉研究領(lǐng)域[5]。情感分析的目的是讓計算機理解人類的喜怒哀樂等情緒,隨著人工智能技術(shù)的發(fā)展,社交網(wǎng)絡數(shù)據(jù)采集日益方便[1],情感分析可以有效地探索用戶的輿論導向和隱性需求,了解用戶的真實想法和潛在意見,為高校圖書館個性化服務決策提供指引和支撐。

        2.1 基于傳統(tǒng)機器學習方法的情感分析

        有關(guān)情感分析的研究,在近年來呈現(xiàn)出井噴式地增長,受到諸多專家和學者的關(guān)注和青睞。PANG 等[6]首次利用傳統(tǒng)機器學習方法解決電影評論的情感二分類問題,為情感分析研究提供了思路。BARBOSA 等[7]提取了文本數(shù)據(jù)中的具有特殊含義的關(guān)鍵信息,包括表情符號、話題、鏈接以及首字母大寫的單詞數(shù)目等Twitter 文本特征,利用有監(jiān)督方法進行情感分類。張文亮等基于讀者的視角,抓取大眾點評網(wǎng)上用戶對省級公共圖書館的評論和評分,通過抽取高頻關(guān)鍵詞繪制詞云圖揭示用戶主要的關(guān)注點,利用SnowNLP 進行情感值的判斷[8]。畢達天等對情感短語進行量化、分類,對比了不同場景下正負向情感的波動性變化,探討了影響移動圖書館用戶信息接受體驗的情境因素和場景因素[9]。曾子明等[10]采取了文檔主題生成模型(Latent Dirichlet Allocation,LDA),借助AdaBoost 算法利用主題特征、情感特征和句式特征變量構(gòu)建5 種不同組合模型,識別微博評論情感傾向分析,著重研究各特征變量對情感分類效果的影響。朱茂然等基于PageRank 算法,結(jié)合社交網(wǎng)絡的用戶交互,利用LDA模型通過SVM 算法分類分析汽車論壇用戶交互內(nèi)容的情感傾向,識別出具有正面形象的專業(yè)意見領(lǐng)袖。

        2.2 基于深度學習方法的情感分析

        上述研究采用的主要方法是傳統(tǒng)機器學習中的有監(jiān)督學習,需要大量的特征選擇提取工作,人工投入量較大。深度學習方法依托其機制的優(yōu)勢,具有稠密層,能夠根據(jù)多次迭代自動進行特征的提取,已逐步發(fā)展成為近年來情感分析領(lǐng)域的主流方法。卷積神經(jīng)網(wǎng)絡CNN 是一種前饋神經(jīng)網(wǎng)絡,KALCHBRENNER等[11]針對不同長度的文本的處理,提出了一種動態(tài)人工神經(jīng)網(wǎng)絡,將CNN 引入自然語言處理。KIM[12]利用CNN 完成了句子級的英文文本分類,并將文本數(shù)據(jù)提前進行了向量化處理。BENGIO 等[13]最早利用神經(jīng)網(wǎng)絡構(gòu)建語言模型。周錦峰等[14]提出了一種多窗口多池化層的卷積神經(jīng)網(wǎng)絡模型,該模型使用多個并行的卷積層提取不同窗口大小的上下文局部語義來解決語義距離依賴性和語義多層次性問題,語義特征更加豐富。卷積神經(jīng)網(wǎng)絡在文本分類中取得了較好的效果,但卷積神經(jīng)網(wǎng)絡更加關(guān)注局部特征,從而忽略了上下文語義信息,這在一定程度上影響了文本分類的準確率。

        循環(huán)神經(jīng)網(wǎng)絡(RNN)可以很好地處理時序數(shù)據(jù),在文本分類、情感分析等研究中使用非常廣泛[15-19],但梯度消失和梯度下降問題影響了分析結(jié)果的準確性,長短期記憶單元[20]的出現(xiàn)有效地解決了以上問題。WANG 等[21]將注意力機制引入LSTM 網(wǎng)絡,進行細粒度情感分析研究。余本功等[22]基于特征強化雙向門限遞歸單元模型對汽車論壇網(wǎng)站口碑文本評論數(shù)據(jù)進行屬性粒度的情感量化,提出了一種特征強化雙向門限遞歸單元模型(Feature Bidirectional Gated Recurrent Unit,F(xiàn)-BiGRU),該模型在GRU 方法的基礎(chǔ)上引入視覺卷積窗口進行強化特征信息提取,通過卷積和池化操作,修正短文本語義特征不明顯及口語化明顯等情況。胡榮磊等[23]提出了基于長短期記憶網(wǎng)絡和注意力模型的網(wǎng)絡結(jié)構(gòu),通過在中文酒店評價語料集進行實驗表明,在文本情感傾向分析方面,較之卷積神經(jīng)網(wǎng)絡結(jié)合注意力機制的模型表現(xiàn)更佳??紤]到自然語言處理在分析用戶情感方面仍存不足的情況,尤其是從文本、句法結(jié)構(gòu)等角度展開的相關(guān)研究忽略了深層次的語義信息。郝志峰等[24]抽取屬性實體,融合了文本的依存關(guān)系和詞性等特征屬性,用BiLSTM 構(gòu)建基于序列標注的細粒度意見分析模型,判斷文本情極,基于多特征融合與雙向RNN 的細粒度意見分析。BAHDANAU 等[25]最早提出了注意力機制理論,將其首先應用到了機器翻譯領(lǐng)域并取得了不錯的效果,隨后被應用于谷歌神經(jīng)網(wǎng)絡機器翻譯系統(tǒng)。

        不難發(fā)現(xiàn),雖然現(xiàn)有研究針對情感分析問題已經(jīng)在多角度、多層面進行開展,但采取的方法普遍較為單一。傳統(tǒng)機器學習技術(shù)受算法等方面特點的限制,在進行有監(jiān)督學習時,大量特征提取的工作耗費人力資源,并且浪費目前算力資源的配置。深度學習方法目前受到廣大研究人員的青睞,但各種類型的深度神經(jīng)網(wǎng)絡各有所長,面對具體問題的研究也不能單純依靠模型的簡單堆疊和各類模型的變種。在情感分析問題研究方面,需要通過對各種深度神經(jīng)網(wǎng)絡的充分了解選取合適的方法進行深入分析。

        3 基于C-BiLSTM-HAN 的情感分析模型

        從相關(guān)工作的概述中可以看出,集成模型已經(jīng)用于情感分析研究中的多種問題,并且比單個模型的性能更加出色。本文在以上研究的基礎(chǔ)上,提出一種基于CNN-BiLSTM-HAN 模型的情感分析方法,面向的對象是高校圖書館社交網(wǎng)絡平臺。在CNN 基礎(chǔ)上添加BiLSTM,彌補了RNN 梯度消失、梯度爆炸的不足[26],進行平行局部特征抽取,對過去和未來的雙向長距離依賴信息進行特征提取,充分考慮每個詞語信息前后的影響,做到細粒度分析,在此網(wǎng)絡基礎(chǔ)上添加HAN,關(guān)注重點詞特征[27],對從中間層輸出的信息進行不同程度的聚焦,采用Dropout 策略防止過擬合,最后通過Softmax 分類器進行結(jié)果分類輸出,通過與基準模型進行對比實驗,證明了此模型針對高校圖書館社交網(wǎng)絡平臺文本分類的準確性和有效性,圖1 為模型的網(wǎng)絡流程。

        圖1 CNN-BiLSTM-HAN 模型網(wǎng)絡流程圖Fig.1 CNN-BiLSTM-HAN model network flow chart

        本文以判斷高校圖書館社交網(wǎng)絡平臺產(chǎn)生的中文文本數(shù)據(jù)情感極性為出發(fā)點,提出了一個由CNN 模塊,BiLSTM 模塊以及引入層次化注意力機制形成的HAN 模塊構(gòu)成集成模型CNN-BiLSTM-HAN,用來進行高校圖書館社交網(wǎng)絡平臺細粒度情感分析。將經(jīng)過人工標注并利用Python 語言的jieba 庫分詞后的中文語料數(shù)據(jù)通過Word2vec 轉(zhuǎn)換為詞向量的形式作為模型的輸入層。在以下小節(jié)中,我們將分別介紹所提出的CNN 模型、BiLSTM 模型和HAN 模型。

        3.1 CNN 模型

        CNN 是一種前饋神經(jīng)網(wǎng)絡,因其具備良好的分類性能而備受廣大研究人員青睞,能夠提取有助于分類任務的重要且相關(guān)的特征。本文中我們首先建立一個CNN 模型來進行文本情感極性的預測。該模型由3 個并行的CNN 子模型組成。每個CNN 子模型,都有一定的濾波器大小s 和濾波器數(shù)目m。從每個濾波器獲得的特征映射大小為n-s+1,其中n 是文本中的詞語的數(shù)量。然后,我們對獲得的特征映射進行最大池化操作。這將產(chǎn)生一個大小為m 的向量。我們在3 個子模型中使用相同數(shù)量的濾波器。將3 個子模型的輸出連接起來,生成一個大小為3m 的向量。接下來添加一個具有ReLU 激活函數(shù)的全連接層。增加一個Dropout層,使網(wǎng)絡正則化,以避免過擬合。最后,使用帶有3個輸出單元的最大Softmax 層來進行情感極性預測,圖2 為CNN 模型的網(wǎng)絡結(jié)構(gòu)圖。

        綜上所述,在胃癌根治術(shù)中,應用單純?nèi)?會使患者的應激反應增強,不利于醫(yī)護人員的手術(shù)操作,全麻藥物作用量大,且術(shù)后患者會有明顯的疼痛癥狀產(chǎn)生,而應用全麻聯(lián)合硬膜外麻醉可以雙向的阻滯受傷區(qū)域的神經(jīng)感受器傳導及中樞神經(jīng)的敏感度,從而降低患者的術(shù)后疼痛及不良反應,同時術(shù)中能夠減少茶氨酚的釋放,降低患者應激反應,使循環(huán)系統(tǒng)趨于穩(wěn)定,有利于手術(shù)的順利進行[3]。并且全麻聯(lián)合硬膜外麻醉的藥物使用靈活,用量少,易控制患者的應激反應,有利于降低患者的術(shù)后疼痛,提高了患者的滿意度,有臨床推廣的價值。

        圖2 CNN 模型網(wǎng)絡結(jié)構(gòu)圖Fig.2 CNN model network structure diagram

        3.2 Bi-LSTM 模型

        LSTM 是為了解決梯度消失和梯度爆炸問題而衍生的一種變種循環(huán)神經(jīng)網(wǎng)絡,普通的LSTM 模型是簡單的單向傳播神經(jīng)網(wǎng)絡,無法學習反向特征,缺失了上下文特征的利用,限制了情感極性分類的性能。標準的LSTM 結(jié)構(gòu)如圖3 所示。

        圖3 LSTM 結(jié)構(gòu)模型圖Fig.3 LSTM structural model diagram

        標準的LSTM 單元計算如下:

        其中⊙表示對應元素點積;σ 是神經(jīng)網(wǎng)絡中的sigmoid 函數(shù);Wf、Wi、Wo、Wc是隱藏層的權(quán)重矩陣,bf、bi、bo和bc是偏差向量,ht是在t 時刻的輸出,ct為最終記憶單元。

        BiLSTM 是對LSTM 的一個重大改進,它有效地解決了LSTM 無法學習反向特征的問題。因此我們采用雙向BiLSTM 模型用于細粒度級別的情感極性分類,一個LSTM 保存前一個詞的上下文,另一個保存下一個詞的上下文。文本數(shù)據(jù)的向量表示首先傳遞給每個LSTM,每個LSTM 的大小為h。每個LSTM 的最終輸出連接起來,生成一個長度為2h 的向量。然后將這個向量通過ReLU 激活函數(shù)傳遞到一個完全連接的層。在LSTM 層之后放置Dropout 層防止過擬合,在全連接層之后放置另一層Dropout。最后,添加了一Softmax 層,給出了文本的情感識別分類標簽。圖4 顯示了BiLSTM 模型網(wǎng)絡結(jié)構(gòu)圖。

        圖4 BiLSTM 模型網(wǎng)絡結(jié)構(gòu)圖Fig.4 BiLSTM model network structure diagram

        3.3 HAN 模塊

        對于文本情感極性判斷,在考慮上下文語義關(guān)系的同時,需要關(guān)注部分詞語對句子情感表達的重要影響,層次化注意力機制會捕捉更多重點信息,因此,本文增加HAN 模塊,加強對重點詞的關(guān)注。

        層次化注意力網(wǎng)絡表達能力強的主要原因之一是它們能夠區(qū)分重要的句子或詞匯,HAN 模塊將不同的注意力權(quán)重分配給語義編碼,從而對向量語義編碼的重要性進行篩選,提高分類的準確率。它假設(shè)對于一個特定的分類任務,有些詞比其他詞更重要,簡單地說,有些句子比其他句子更重要。將BiLSTM 處理后的輸出結(jié)果輸入到HAN 層能夠有效提升分類精度,計算方法如式(7)、(8)、(9)所示。

        3.4 本文集成模型

        本文集成模型網(wǎng)絡架構(gòu)由CNN 模塊、BiLSTM 模塊和HAN 模塊組成,第一層為輸入層,主要負責將輸入的預處理后的中文文本數(shù)據(jù)進行詞向量的映射,轉(zhuǎn)換為詞向量序列矩陣。第二層CNN 模塊對文本矩陣進行卷積操作和最大池化操作,卷積操作精準提取每條數(shù)據(jù)的特征,獲得每個詞的字符級特征;最大池化操作將小鄰域內(nèi)的特征點進行整合處理,從而得到新的特征,加快訓練速度。將經(jīng)過CNN 模塊處理后的每個詞的字符向量拼接組合后的混合向量作為第三層神經(jīng)網(wǎng)絡模塊BiLSTM 的輸入序列,使模型同時關(guān)注已經(jīng)過去和即將來到的雙向重要信息,拼接兩個方向的LSTM 的輸出作為隱含層的輸出。然后利用第四層Attention 模塊通過加權(quán)求和對詞語重要性進行計算,將第三層的輸出解碼出一個最優(yōu)的標記序列,最后通過全連接層、Dropout 層輸入到Softmax 分類器中對中文文本數(shù)據(jù)進行情緒分類輸出,集成模型網(wǎng)絡架構(gòu)如圖5 所示。

        圖5 CNN-BiLSTM-HAN 模型網(wǎng)絡架構(gòu)圖Fig.5 CNN-BiLSTM-HAN model network architecture diagram

        本文模型使用Mini-batch 梯度下降方法進行模型訓練,快速訓練模型,提升計算效率,防止產(chǎn)生局部最優(yōu),使模型能夠更為魯棒地收斂。目標函數(shù)為損失交叉熵函數(shù),如式(10)所示,模型訓練的目標是預測輸出值和實際樣本值的交叉熵。

        其中,L 為損失值,x 為樣本,n 為樣本數(shù),y 為樣本實際值,為模型預測輸出值。

        本文利用Python 編程語言以及開源人工智能系統(tǒng)TensorFlow、Keras 構(gòu)建CNN、BiLSTM,并引入HAN機制,采用Dropout 策略以避免過擬合,模型部分核心代碼如下所示。

        4 實驗結(jié)果與分析

        本文的實驗環(huán)境為Windows 7 操作系統(tǒng),采用Python 編程語言,利用基于Python 的高級人工神經(jīng)庫Keras 來實現(xiàn)模型網(wǎng)絡的搭建,以Tensorflow 作為后端,Keras 底層通過調(diào)用Tensorflow 框架來實現(xiàn)本文實驗環(huán)境的搭建,對比實驗中的機器學習方法,采用Python 的第三方機器學習庫Scikit-learn 來實現(xiàn)傳統(tǒng)機器學習的分類方法。

        4.1 實驗數(shù)據(jù)

        由于沒有公開標注的高校圖書館社交平臺相關(guān)的語料數(shù)據(jù),為保證實驗結(jié)果的可靠性,通過爬蟲技術(shù)對國內(nèi)高校圖書館論壇、留言本以及微信公眾平臺留言等評論數(shù)據(jù)進行采集,數(shù)據(jù)采集的范圍包括上海交通大學圖書館、西南石油大學圖書館、西安交通大學圖書館、哈爾濱商業(yè)大學圖書館等15 所國內(nèi)高校的論壇、留言板系統(tǒng)以及微信公眾平臺。獲取原始數(shù)據(jù)26 896 條,經(jīng)過數(shù)據(jù)清洗,分詞等預處理步驟,剔除過短留言、垃圾評論等無效數(shù)據(jù),拆分較長評論,得到短文本評論句子集,共21 091 條。其次,一方面抽取部分數(shù)據(jù)進行人工標注,手工編碼標記正類、中性以及負類,形成一個具有正面評論、中性評論以及負面評論的數(shù)據(jù)集,用于訓練和測試本文模型。如表1所示,其中正面語料數(shù)據(jù)量為8 033,中性語料數(shù)據(jù)量為4 355,負面數(shù)據(jù)量為8 703。

        表1 數(shù)據(jù)集示例Fig.1 Trend of applying for RV red

        4.2 參數(shù)設(shè)置

        參數(shù)設(shè)置與模型的最終分類效果關(guān)系密切,表2中列出了相關(guān)參數(shù)的設(shè)置。

        表2 模型的超參數(shù)Table 2 The hyperparameters of the model

        4.3 評價指標

        本文選用準確率A(Accuracy)、精確率P(Precision)、召回率R(Recall)、F1 值(F-measure)作為模型效果評價指標。準確率代表正確識別積極情感分類占所有正確識別出的積極情感分類的比例,召回率代表正確識別的積極情感分類反應占實際積極情感分類的比例,F(xiàn)1 值(F-measure)是精確率和召回率的加權(quán)調(diào)和平均,用于綜合評估模型的識別性能。公式如下所示。

        其中,TP(True Positives)表示正確地識別為積極情感實體的數(shù)目,TN(True Negative)表示正確地識別為消極情感實體的數(shù)目,F(xiàn)P(False Positives)表示錯誤地識別為積極情感實體的數(shù)目,F(xiàn)N(False Negative)表示錯誤地識別為消極的數(shù)目。

        4.4 實驗結(jié)果與分析

        為了驗證CNN-BiLSTM-HAN 模型在情感分析上的有效性,本實驗選擇了其他模型來進行對比實驗,包括傳統(tǒng)的機器學習模型支持向量機(以下簡稱SVM),深 度 學 習 模 型LSTM、CNN、BiLSTM、CNN-BiLSTM 共5 個模型;將本文模型在相同環(huán)境下與SVM、LSTM、CNN、BiLSTM、CNN-BiLSTM 等模型進行對比實驗,實驗結(jié)果如表3 所示。通過實驗結(jié)果,可以看出在處理高校圖書館社交網(wǎng)絡文本情感分析問題上,CNN-BiLSTM-HAN 模型具有較好的效果。采用準確率、召回率和F1 值來評估模型的性能,表3 中列出了不同方法進行情感分類這一任務的結(jié)果。

        表3 模型對比結(jié)果Table 3 Model comparison results

        如表3 所示,傳統(tǒng)機器學習模型SVM 各項實驗結(jié)果指標中,只有Precision 一項的值達到了0.852 3,其他各項指標值均偏低,而所有深度學習模型,包括單一模型和集成模型的各項指標值均優(yōu)于SVM 模型。實驗結(jié)果表明,深度學習模型相較于傳統(tǒng)機器學習模型SVM 在性能各方面具有明顯優(yōu)勢。由于CNN 在訓練的過程中沒有提取語境中上下文語義關(guān)聯(lián),因此,CNN 模型取得了0.843 9 的準確率,而LSTM 模型則取得了0.886 1 的準確率,相較于LSTM,CNN 模型不能更加精確的分析具備上下文語境關(guān)系的語料數(shù)據(jù)。雖然LSTM 擅長處理時間序列和學習數(shù)據(jù)表示,但在實驗中,簡單地使用LSTM 仍然沒有學習到數(shù)據(jù)流的最深層次,從指標數(shù)據(jù)上對比能夠看出,與BiLSTM模型相比不占主導地位。而總體來看,僅僅使用單一深度學習模型的分析性能明顯不如集成模型CNN-BiLSTM和CNN-BiLSTM-HAN,無法很好提升模型預測效果。使用本文模型進行情感分類的方法普遍優(yōu)于其他方法,因為HAN 模塊執(zhí)行了特征權(quán)重分配功能,使模型對不同等級權(quán)重特征進行了學習,有利于模型準確迅速的獲得等級較高的權(quán)重信息,提出的CNN-BiLSTM-HAN模型相比于未引入HAN 機制的模型準確率提升3.3%,說明引入HAN 機制的模型在準確率提升方面優(yōu)于簡單集成模型和傳統(tǒng)單一神經(jīng)網(wǎng)絡模型,引入的HAN 機制起到了分析目標和上下文之間的相互作用。在召回率和F1 值指標上也均優(yōu)于其他模型,充分證明了本文提出的方法在高校圖書館社交網(wǎng)絡平臺細粒度情感分析上的有效性。

        5 結(jié)語

        本文提出了一種基于CNN-BiLSTM 網(wǎng)絡引入HAN 機制的混合神經(jīng)網(wǎng)絡深度學習模型,用于進行高校圖書館社交網(wǎng)絡平臺情感分析。通過在真實數(shù)據(jù)集進行實驗,結(jié)果證明了CNN-BiLSTM 網(wǎng)絡引入HAN機制方法的有效性。本文模型旨在更精確地挖掘高校圖書館社交網(wǎng)絡平臺用戶情感傾向,為高校圖書館開展服務過程中用戶留言關(guān)鍵詞提取及情感極性判斷提供了一種啟示、思路和方法,為高校圖書館了解用戶真實訴求、針對性地改進服務質(zhì)量提供科學依據(jù)。對高校圖書館社交網(wǎng)絡平臺進行情感分析,可以有效發(fā)現(xiàn)用戶對高校圖書館價值是否具有認同感,能夠促進高校圖書館自我提升服務質(zhì)量,拓寬服務范圍,幫助圖書館自我定位資源及服務的長處和不足,有助于圖書館提升自身形象,增強用戶滿意度,整體高質(zhì)量發(fā)展。本研究實驗過程中采用的數(shù)據(jù)集體量相對較小,未來會進一步擴充數(shù)據(jù)集規(guī)模。另外,由于模型較為復雜,參數(shù)較多,導致模型訓練用時較長,并且表情符號信息沒有得到有效利用。在未來研究中,參數(shù)的設(shè)置、模型的優(yōu)化和表情符號信息的利用將是下一步研究方向,未來考慮加入BERT 模型,提升模型識別能力及泛化能力。

        猜你喜歡
        分類圖書館特征
        分類算一算
        如何表達“特征”
        不忠誠的四個特征
        當代陜西(2019年10期)2019-06-03 10:12:04
        分類討論求坐標
        數(shù)據(jù)分析中的分類討論
        圖書館
        小太陽畫報(2018年1期)2018-05-14 17:19:25
        教你一招:數(shù)的分類
        抓住特征巧觀察
        飛躍圖書館
        去圖書館
        国产欧美日韩精品丝袜高跟鞋| 五月停停开心中文字幕| av在线播放免费观看| 中文字幕在线观看| 亚洲精品欧美二区三区中文字幕| 成年女人色毛片| 欧美操逼视频| 中文 国产 无码免费| 亚洲中文字幕不卡无码| 日韩在线一区二区三区中文字幕| а天堂8中文最新版在线官网| 蜜臀aⅴ国产精品久久久国产老师| 国产成人无精品久久久| 精品久久一区二区三区av制服| 中文字幕有码无码人妻av蜜桃| 国产在线 | 中文| 欧美一级欧美一级在线播放| 国产一区二区亚洲av| 女同在线网站免费观看| 欧美黑人又粗又大xxxx| 亚洲爆乳少妇无码激情| 国产精品白浆一区二区免费看| 久久夜色精品亚洲天堂| 久久久久99精品成人片欧美| 三级在线看中文字幕完整版| 一级午夜视频| 无码高潮久久一级一级喷水| 国产3p一区二区三区精品| 特黄大片又粗又大又暴| 日本护士吞精囗交gif| 久草午夜视频| 人妻av一区二区三区高| 91精品亚洲熟妇少妇| 极品一区二区在线视频观看| 亚洲乱亚洲乱妇无码麻豆| 天天躁人人躁人人躁狂躁| 日本精品免费一区二区三区| 国产精品一区二区久久蜜桃| 国产超碰女人任你爽| 亚洲大尺度在线观看| 亚洲国产中文字幕九色|