亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于主題模型的文本分類算法性能比較

        2022-04-20 10:19:16王萬起田中雨遼寧工程技術(shù)大學(xué)遼寧阜新123000
        高校圖書館工作 2022年2期
        關(guān)鍵詞:貝葉斯分類器分類

        ●王萬起 田中雨 (遼寧工程技術(shù)大學(xué) 遼寧阜新 123000)

        董蘭軍 (中國科學(xué)院大學(xué) 北京 100190)

        1 引言

        信息技術(shù)的快速發(fā)展導(dǎo)致文本數(shù)據(jù)呈級(jí)數(shù)增長,網(wǎng)絡(luò)成為人們獲取數(shù)據(jù)的重要途徑。面對(duì)海量信息資源,為了將無序、離散的數(shù)據(jù)進(jìn)行分類排序,快速、準(zhǔn)確、全面地找到用戶所需信息,滿足其個(gè)性化需求,使得文本分類成為自然語言處理領(lǐng)域的研究熱點(diǎn),產(chǎn)生了多種分類模型,如樸素貝葉斯(Naive Bayes,NB)、K最近鄰(K-Nearest Neighbor,KNN)、支持向量機(jī)(Support Vector Machine,SVM)、邏輯回歸(Logistic Regression,LR) 等。在文本分類過程中,文本特征化后通常具有高維性和不平衡性的特點(diǎn),導(dǎo)致傳統(tǒng)的分類算法準(zhǔn)確率不高。為了解決高維特征的問題,通過特征降維,進(jìn)行特征抽取,利用潛在語義模型,將分散在眾多原始特征中的分類信息或鑒別信息集中于少量新的特征中,提高分類算法的準(zhǔn)確率[1]。

        在自動(dòng)分類方法中,泛化能力一直是機(jī)器學(xué)習(xí)關(guān)心的一個(gè)根本問題,由于集成學(xué)習(xí)(Ensemble Learning)可以有效地提高泛化能力,國際機(jī)器學(xué)習(xí)界的權(quán)威Dietterich T G將集成學(xué)習(xí)列為機(jī)器學(xué)習(xí)四大研究方向之首,即通過集成學(xué)習(xí)方法提高學(xué)習(xí)精度、擴(kuò)大學(xué)習(xí)規(guī)模、強(qiáng)化學(xué)習(xí)和學(xué)習(xí)復(fù)雜的隨機(jī)模型[2]。

        LDA(Latent Dirichlet Allocation)模型是目前應(yīng)用較為廣泛的一種文檔生成模型,它認(rèn)為每篇文章具有多個(gè)主題并且每個(gè)主題又分別對(duì)應(yīng)不同的詞語,類似于標(biāo)簽的理解過程,屬于一種使用了詞袋模型構(gòu)建詞向量的非監(jiān)督的機(jī)器學(xué)習(xí)模型。LDA模型經(jīng)過長時(shí)間發(fā)展已經(jīng)衍生出了不同的主題聚類方法及分類算法。目前基于LDA模型的文本分類研究大概有如下幾種。一是基于聚類算法和LDA模型展開的文本分類研究,它的特點(diǎn)是通常將LDA模型與其他聚類算法結(jié)合起來生成新模型,以更好地實(shí)現(xiàn)主題發(fā)現(xiàn)研究。二是基于話題演化的思想,有學(xué)者假設(shè)LDA模型中的超參數(shù)按照時(shí)間變化,并且前面一段時(shí)間的變化決定后面一段時(shí)間的超參數(shù)變化,進(jìn)而展現(xiàn)出生成的主題隨時(shí)間變化的特點(diǎn)。三是基于Applications-LDA進(jìn)行的研究,許多學(xué)者根據(jù)現(xiàn)實(shí)需要和在網(wǎng)絡(luò)中出現(xiàn)短文本數(shù)據(jù)所對(duì)應(yīng)的平臺(tái)特點(diǎn),逐漸開發(fā)出了具有針對(duì)性的Applications-LDA模型,通過對(duì)數(shù)據(jù)中產(chǎn)生的主題變化來建模,實(shí)現(xiàn)對(duì)特定平臺(tái)中文本流的主題挖掘,較著名的有“Twitter-LDA”等。四是基于s-LDA模型開展的研究,當(dāng)每篇文檔關(guān)聯(lián)一個(gè)服從正態(tài)分布的實(shí)值響應(yīng)變量時(shí),代表該文檔的類別標(biāo)識(shí),采用EM算法進(jìn)行最大似然參數(shù)估計(jì)能夠處理該類文檔。五是基于半監(jiān)督分層的LDA模型研究,該模型的思路為在文本生成過程中融合有標(biāo)簽的主題,獲取關(guān)于主題的層次結(jié)構(gòu),進(jìn)而提出更優(yōu)化的學(xué)習(xí)策略。

        因此,本文首先根據(jù)LDA模型特征提取方法考慮數(shù)據(jù)輸出,在原來文本的輸入文本中對(duì)關(guān)鍵詞分配相應(yīng)主體,但由于留下了非關(guān)鍵字,影響了分類的效能并增大了主體分布概率。其次,針對(duì)從LDA模型提取樣本以解決整篇文本線性能力偏差的問題,提出了使用關(guān)鍵詞提取方法提取有效能的詞語。再次,對(duì)比利用過濾方式對(duì)LDA模型進(jìn)行改善后的效率,重點(diǎn)描述了使用關(guān)鍵詞進(jìn)行主題擬合及如何將其實(shí)現(xiàn)的過程。最后發(fā)現(xiàn)MI算法、LSI算法和LDA主題模型中較有效率的是后者,并在一些標(biāo)準(zhǔn)數(shù)據(jù)集上分別進(jìn)行了對(duì)比和討論,試圖找出LDA模型分類算法性能提升的思路。由于集成學(xué)習(xí)利用多個(gè)分類器決策結(jié)果的可信度高于單個(gè)分類器決策結(jié)果的思想形成一種新的文本分類模式,現(xiàn)在已有多種集成學(xué)習(xí)算法, 如Boosting、Bagging、Random Subspace算法等。本文嘗試通過LDA模型進(jìn)行文本降維,提取“文檔—主題”矩陣表示文本特征,利用樸素貝葉斯、邏輯回歸、支持向量機(jī)、K近鄰算法4種傳統(tǒng)分類算法并根據(jù)特征矩陣進(jìn)行文本分類,依據(jù)平均F值比較分類效果。同時(shí)將傳統(tǒng)分類算法作為基分類器,分別放于Addboost、Bagging、Random Subspace三個(gè)集成學(xué)習(xí)框架中,作為同質(zhì)集成,通過集成學(xué)習(xí)框架進(jìn)行分類性能測(cè)試,并分析在利用LDA模型表示文本特征的情況下,傳統(tǒng)分類算法的性能以及集成學(xué)習(xí)算法是否能提高傳統(tǒng)分類算法的分類準(zhǔn)確度,以此獲得最優(yōu)的分類算法,為之后進(jìn)行與主題模型相關(guān)的文本分類工作提供一定的參考。

        2 分類算法與集成學(xué)習(xí)簡介

        2.1 研究現(xiàn)狀

        分類算法與集成學(xué)習(xí)的目的都非常明確且直接,屬于數(shù)據(jù)分析模式,能夠提取描述重要數(shù)據(jù)類的模型和未來數(shù)據(jù)大概呈現(xiàn)出來的趨勢(shì)。其中,分類算法主要適用于預(yù)測(cè)未來的分類標(biāo)號(hào)或者離散值,而集成學(xué)習(xí)主要用于建立連續(xù)函數(shù)模型,對(duì)目前的資源進(jìn)行整合學(xué)習(xí)。分類算法一般包含兩個(gè)基本過程,首先需要建立模型來描述預(yù)定的數(shù)據(jù)類集或者概念集,通過分析數(shù)據(jù)庫元組來對(duì)模型進(jìn)行構(gòu)造。其次是利用模型進(jìn)行分類,在評(píng)估模型的準(zhǔn)確率后對(duì)類標(biāo)號(hào)為止的數(shù)據(jù)源組進(jìn)行分類。目前分類算法和集成學(xué)習(xí)主要有決策樹、統(tǒng)計(jì)方法、機(jī)器學(xué)習(xí)方法和神經(jīng)網(wǎng)絡(luò)等。

        2.2 分類算法

        20 世紀(jì)50 年代末,Lunhn H P首次提出將詞頻統(tǒng)計(jì)思想用于文本自動(dòng)分類的研究。20 世紀(jì)90 年代以后,研究者將機(jī)器學(xué)習(xí)算法用于文本自動(dòng)分類,文本分類有監(jiān)督學(xué)習(xí)的過程,經(jīng)歷了“輸入文本—預(yù)處理—特征表示—選擇分類算法—輸出結(jié)果”5個(gè)階段,其過程如圖1所示。文本分類是一個(gè)識(shí)別文本模式特征的過程,實(shí)驗(yàn)樣本包括訓(xùn)練集和測(cè)試集兩部分,通過訓(xùn)練過程為分類器提供測(cè)試,進(jìn)而在分類過程中,使用學(xué)習(xí)過程中得到的分類器對(duì)測(cè)試集進(jìn)行分類,并輸出測(cè)試文本所屬類別[3-4]。本文應(yīng)用的分類算法為樸素貝葉斯、邏輯回歸、支持向量機(jī)、K近鄰算法。

        圖1 文本分類過程

        (1)樸素貝葉斯算法(Naive Bayes)。樸素貝葉斯方法由Maron和Kuhns在1960年提出,因其具有簡單、快速和高準(zhǔn)確率等特點(diǎn)被廣泛應(yīng)用于分類任務(wù)中[4-5]。

        (2)邏輯回歸(Logistic Regression)。邏輯回歸主要用于估計(jì)某種事物的可能性,如用戶購買某商品的可能性,病人患有某種疾病的可能性等,因此是應(yīng)用較為廣泛的機(jī)器學(xué)習(xí)方法。

        (3)支持向量機(jī)(SVM)。SVM是Vapnik于20世紀(jì)90年代提出的一種基于統(tǒng)計(jì)學(xué)習(xí)理論的分類算法。SVM算法是建立在統(tǒng)計(jì)學(xué)習(xí)理論VC維理論和結(jié)構(gòu)風(fēng)險(xiǎn)最小化原理基礎(chǔ)上的一種新機(jī)器學(xué)習(xí)方法,在解決小樣本、非線性和高維模式識(shí)別問題中性能較優(yōu),且泛化能力較好,在很大程度上克服了“維數(shù)災(zāi)難”和“過學(xué)習(xí)”等問題,因此,SVM被廣泛應(yīng)用到文本分類、圖像分類與識(shí)別等眾多領(lǐng)域中[5-6]。

        (4)K近鄰算法(KNN)。K近鄰算法核心思想即是給定一個(gè)訓(xùn)練數(shù)據(jù)集,對(duì)新的輸入實(shí)例,在訓(xùn)練數(shù)據(jù)集中找到與該實(shí)例最鄰近的K個(gè)實(shí)例,這K個(gè)實(shí)例中的多數(shù)屬于某個(gè)類,就把該輸入實(shí)例分類到這個(gè)類中[7]。

        綜合現(xiàn)有研究文獻(xiàn)來看,對(duì)于文本分類普遍認(rèn)同的是:在已經(jīng)進(jìn)行了定義的某個(gè)分類集合下,將集合內(nèi)沒有被識(shí)別到屬于哪種類別的文本,根據(jù)一定的規(guī)則將這部分文本內(nèi)容自動(dòng)識(shí)別到一個(gè)或幾個(gè)類別的過程中。隨著信息技術(shù)的發(fā)展,對(duì)于文本分類方法的研究也在不斷深入,不斷發(fā)展。目前文本分類也得到了廣泛應(yīng)用,在Web文檔自動(dòng)分類、數(shù)字圖書館等諸多領(lǐng)域取得了很多應(yīng)用成果。

        2.3 集成學(xué)習(xí)方法(Ensemble Learning Method)

        集成學(xué)習(xí)可以提高分類器的泛化性能,是機(jī)器學(xué)習(xí)領(lǐng)域的一個(gè)重要方向,集成學(xué)習(xí)能利用子學(xué)習(xí)器的差異性顯著提高學(xué)習(xí)系統(tǒng)的泛化能力,能實(shí)現(xiàn)弱學(xué)習(xí)器向強(qiáng)學(xué)習(xí)器的轉(zhuǎn)化,本文使用的集成學(xué)習(xí)算法為AdaBoost、Bagging、Random Subspace。

        (1)AdaBoost算法。Boosting算法是用來提高學(xué)習(xí)算法的準(zhǔn)確度,通過構(gòu)造一個(gè)預(yù)測(cè)函數(shù)序列,以一定方式將它們組合成一個(gè)預(yù)測(cè)函數(shù),最終將弱學(xué)習(xí)算法提升為強(qiáng)學(xué)習(xí)算法[6][8]。

        (2)Bagging算法。Bagging算法是由Breiman提出的一種集成學(xué)習(xí)方法,通過可重復(fù)取樣得到不同的數(shù)據(jù)子集,使得在不同數(shù)據(jù)子集上訓(xùn)練得到的個(gè)體學(xué)習(xí)器具有較高的泛化性[7][9]。

        (3)隨機(jī)子空間(Random Subspace)。隨機(jī)子空間由學(xué)者Ho在1998年提出,是一種有效的基于特征劃分的集成學(xué)習(xí)方法[8][10]。

        綜上所述,集成學(xué)習(xí)是多個(gè)機(jī)器學(xué)習(xí)模型輸出組合在一起的過程,這種方式能夠使學(xué)習(xí)系統(tǒng)的泛化能力得到顯著提升,通常比使用單個(gè)模型更具優(yōu)勢(shì)。但是它也存在一定的弊端,隨著學(xué)習(xí)機(jī)數(shù)量的增加,會(huì)使集成學(xué)習(xí)機(jī)的預(yù)測(cè)速度明顯變慢,它運(yùn)行所需的存儲(chǔ)空間也隨之加大。在數(shù)字圖書館領(lǐng)域,不僅對(duì)查全率有要求,對(duì)現(xiàn)在的個(gè)性化信息服務(wù)來說,數(shù)字圖書館服務(wù)與文本挖掘聯(lián)系緊密,更要求查準(zhǔn)率,但是查詢速度又不能過慢,以免影響用戶體驗(yàn)。因此,本文對(duì)文本挖掘目前的算法進(jìn)行集成實(shí)驗(yàn),試圖探索一種在圖書館服務(wù)中比較適用的分類優(yōu)化算法。

        3 實(shí)驗(yàn)過程介紹

        圖2為本文的實(shí)驗(yàn)過程圖,首先構(gòu)建涵蓋多個(gè)主題的實(shí)驗(yàn)文本,利用LDA模型進(jìn)行文本降維和特征提取,獲取文檔—主題概率矩陣,每一行表示一篇測(cè)試樣例,每一列表示提取的某個(gè)主題,數(shù)值表示主題對(duì)一篇測(cè)試樣例的支持度。抽取文本集中10%的數(shù)據(jù)作為訓(xùn)練集,并對(duì)訓(xùn)練集中的文本進(jìn)行類別標(biāo)注,進(jìn)而選擇分類器,包括4種傳統(tǒng)的分類算法和3種集成學(xué)習(xí)算法。首先以已標(biāo)注的訓(xùn)練集為基礎(chǔ),通過分類器找出文本類別與文本特征之間的關(guān)系;然后利用這個(gè)關(guān)系模型對(duì)測(cè)試集進(jìn)行類別的判斷;接著在使用集成學(xué)習(xí)算法的過程中,先選擇一種集成學(xué)習(xí)算法,進(jìn)而分別選擇4種傳統(tǒng)分類算法置于其中進(jìn)行訓(xùn)練;最后根據(jù)平均F值比較各分類器的性能,在分析利用LDA模型進(jìn)行文本降維、主題提取后,引入集成學(xué)習(xí)算法判斷是否能提高分類的準(zhǔn)確率,從而得到最優(yōu)的分類算法。

        圖2 文本分類實(shí)驗(yàn)過程圖

        4 實(shí)驗(yàn)結(jié)果與分析

        4.1 數(shù)據(jù)來源與處理

        本文的實(shí)驗(yàn)數(shù)據(jù)來源于Web of Science的科學(xué)引文(SCI-EXPANDED)數(shù)據(jù)庫,選取了6個(gè)學(xué)科進(jìn)行分析,分別為:圖書情報(bào)學(xué)、計(jì)算機(jī)科學(xué)、生命科學(xué)、市場(chǎng)營銷學(xué)、材料學(xué)、考古學(xué)。選擇該6個(gè)學(xué)科類別是因?yàn)檫@6個(gè)類別的實(shí)驗(yàn)數(shù)據(jù)較容易獲取,且多屬于交叉學(xué)科,分析價(jià)值高于純粹的學(xué)科,如圖書情報(bào)學(xué)常囊括有圖書館學(xué)、情報(bào)學(xué)和檔案學(xué)三個(gè)方向。在6個(gè)學(xué)科類別中選擇一個(gè)研究主題進(jìn)行檢索,每個(gè)主題中選擇被引頻次最高的100篇文獻(xiàn)作為實(shí)驗(yàn)數(shù)據(jù)集,具體檢索的主題如表1所示,分別導(dǎo)出文獻(xiàn)的題錄數(shù)據(jù)[11]。

        表1 實(shí)驗(yàn)數(shù)據(jù)匯總表

        抽取文獻(xiàn)的題目和摘要,將每篇文獻(xiàn)放于一個(gè)文本文檔中,對(duì)每篇文獻(xiàn)按主題進(jìn)行標(biāo)號(hào),便于在后期測(cè)試集抽取時(shí)進(jìn)行類別標(biāo)記,以更好地實(shí)現(xiàn)數(shù)據(jù)預(yù)處理的數(shù)據(jù)清洗步驟,例如,去除數(shù)字、停用詞等,使語料庫更純凈,利用topicmodels包實(shí)現(xiàn)LDA的主題建模,獲取文檔—主題矩陣[10-11]。根據(jù)文獻(xiàn)主題分類,在每個(gè)主題下隨機(jī)抽取10篇文獻(xiàn),6個(gè)主題共60篇文獻(xiàn)作為訓(xùn)練集,剩下的540篇作為測(cè)試集,利用Weka 3.8內(nèi)置的分類算法進(jìn)行性能測(cè)試。Weka作為一個(gè)公開的數(shù)據(jù)挖掘工作平臺(tái),集合了大量機(jī)器學(xué)習(xí)算法,能夠?qū)?shù)據(jù)進(jìn)行預(yù)處理、分類、回歸、聚類、關(guān)聯(lián)規(guī)則以及在新的交互式界面上可視化[12],并通過選取不同的分類算法和集成學(xué)習(xí)算法,輸出平均F值判斷分類器性能。

        4.2 LDA最優(yōu)主題數(shù)目確定

        在利用LDA模型進(jìn)行文本降維和特征提取過程中,主題抽取的質(zhì)量直接影響主題演化的效果,應(yīng)用LDA的最大問題是無法確定最優(yōu)主題數(shù)目,而主題數(shù)目的確定對(duì)于文獻(xiàn)主題抽取至關(guān)重要[13]。因此,在實(shí)驗(yàn)過程中,應(yīng)當(dāng)通過選取不同的主題數(shù)目進(jìn)行主題建模,并根據(jù)主題間平均余弦相似度和主題內(nèi)容進(jìn)行判斷,當(dāng)主題數(shù)目為6時(shí),文獻(xiàn)集中隱含的主題能全部顯現(xiàn)出來,此時(shí)主題模型結(jié)構(gòu)最優(yōu)[14]。根據(jù)每個(gè)主題下相關(guān)主題詞繪制的詞云圖,如圖3所示,其中每個(gè)主題包含了20個(gè)與該主題最相關(guān)的詞,每個(gè)詞的權(quán)重大小決定了其在圖中的顯示比例,詞的權(quán)重越大,在圖中越凸顯[15]。此外,我們可以利用Model Selection找到Perplexity又好,topic個(gè)數(shù)又少的topic數(shù)量,可以畫出Perplexity vs num of topics曲線,找到滿足要求的點(diǎn)來確定LDA的最優(yōu)主題數(shù)[16]。

        圖3 LDA抽取主題詞云圖

        4.3 實(shí)驗(yàn)結(jié)果分析

        將4種傳統(tǒng)分類算法作為基分類器,利用3種集成學(xué)習(xí)算法進(jìn)行訓(xùn)練,通過測(cè)試訓(xùn)練集中60篇文獻(xiàn)的文本特征和文本類別之間的關(guān)系,對(duì)測(cè)試集中的540篇文獻(xiàn)進(jìn)行分類,并輸出平均F值,確定分類器性能[17],統(tǒng)計(jì)結(jié)果如表2所示;對(duì)每種分類算法的平均F值利用Excel繪制折線圖,如圖4所示。

        表2 分類算法平均F值統(tǒng)計(jì)表

        分析表2發(fā)現(xiàn),從總體上看,針對(duì)單個(gè)分類算法,通過三種集成學(xué)習(xí)算法進(jìn)行訓(xùn)練,其分類準(zhǔn)確率高于單個(gè)分類器。其中樸素貝葉斯算法的提升較為明顯,利用AdaBoost、Bagging、Random Subspace進(jìn)行集成,其準(zhǔn)確率分別提高了 9%、 12%、6%,分類性能表現(xiàn)較好,分類效率穩(wěn)定;而對(duì)于邏輯回歸算法,集成學(xué)習(xí)算法對(duì)其性能提升不明顯,只有AdaBoost集成后,其準(zhǔn)確率提高了6%。同時(shí),在利用邏輯回歸,以及集成后進(jìn)行訓(xùn)練后,其平均F值均低于0.7,這是由于邏輯回歸在處理兩分類問題時(shí),性能較好,但面對(duì)多類特征的分類情況,其性能較差。針對(duì)支持向量機(jī),利用AdaBoost、Bagging、Random Subspace進(jìn)行集成,其準(zhǔn)確率分別提高了10%、 5%、 11%,雖然經(jīng)典的支持向量機(jī)算法只給出了二類分類的算法,在處理多分類問題時(shí)存在困難,但是通過集成學(xué)習(xí),對(duì)多個(gè)二類支持向量機(jī)進(jìn)行組合,其分類準(zhǔn)確度明顯提高[18]。對(duì)于K近鄰算法,利用集成學(xué)習(xí)進(jìn)行訓(xùn)練并不能有效提高分類器性能[19],對(duì)KNN而言,“同質(zhì)集成”對(duì)其分類性能提升不明顯,需要考慮通過“異質(zhì)集成”的方式,集成多個(gè)不同分類器,以提升分類算法準(zhǔn)確度[20]。分類效果在不同學(xué)科中也存在差異,當(dāng)學(xué)科的交叉性越強(qiáng)時(shí),分類效果越不顯著。交叉學(xué)科其實(shí)沒必要對(duì)分類進(jìn)行精確定義,只需要界定分類器大類即可。

        分析圖4發(fā)現(xiàn),樸素貝葉斯與集成后的樸素貝葉斯分類性能最優(yōu),而邏輯回歸、支持向量機(jī)和K近鄰,雖然通過集成學(xué)習(xí)算法訓(xùn)練,提升了分類性能,但只能實(shí)現(xiàn)“局部最優(yōu)”,有進(jìn)一步提升的空間。因此,利用LDA模型進(jìn)行文本分類與特征提取,將樸素貝葉斯算法作為基分類器,并利用Bagging集成算法進(jìn)行訓(xùn)練,能獲得最優(yōu)的分類效果,其平均F值高達(dá)0.91、0.90,實(shí)現(xiàn)了“全局最優(yōu)”,驗(yàn)證了利用主題模型進(jìn)行文本降維和特征提取的有效性和可行性[21]。

        圖4 分類算法平均F值對(duì)比圖

        5 結(jié)果與討論

        本文基于樸素貝葉斯、邏輯回歸、支持向量機(jī)、K近鄰算法4種傳統(tǒng)分類算法以及AdaBoost、Bagging、Random Subspace 3種集成學(xué)習(xí)算法,從文本分類角度,首先利用LDA模型進(jìn)行文本降維與特征提取,進(jìn)而使用Weka,通過構(gòu)建多個(gè)分類器,對(duì)一個(gè)多學(xué)科文獻(xiàn)特征集進(jìn)行分類,并以平均F值為判定標(biāo)準(zhǔn),對(duì)比了不同分類器的分類性能,具體研究內(nèi)容總結(jié)如下。

        (1)將樸素貝葉斯、邏輯回歸、支持向量機(jī)、K近鄰算法作為基分類器,并利用 AdaBoost、Bagging、Random Subspace 3種不同的集成學(xué)習(xí)算法進(jìn)行訓(xùn)練,與使用單一分類器相比,集成后的分類器性能明顯提升。

        (2)利用LDA模型進(jìn)行文本降維與特征提取,通過構(gòu)建訓(xùn)練集與測(cè)試集,將樸素貝葉斯算法作為基分類器。

        針對(duì)在表示文本分類時(shí)維度過大,要兼顧檢索準(zhǔn)確性和檢索速度的需求, 本文利用LDA模型進(jìn)行文本降維與特征提取,通過構(gòu)建訓(xùn)練集與測(cè)試集,測(cè)試不同集成情況的效果對(duì)比,能夠使我們了解不同場(chǎng)景下每類LDA模型的優(yōu)劣,本方法易于實(shí)現(xiàn)、通用性較強(qiáng)。例如,在數(shù)字圖書館領(lǐng)域, 面對(duì)海量的圖書資源,用戶如何快速找到自己感興趣的內(nèi)容,圖書資源如何得到充分的利用,這些問題都涉及到分類的精度和效度問題,可以參考本文的研究結(jié)果。在面對(duì)不同的科研問題時(shí)可以幫助我們選擇合適的文本分類算法,使分類器達(dá)到最佳性能,更好地執(zhí)行分類工作,提高分類精度和效度。

        本文的研究也便于集成到現(xiàn)有的個(gè)性化圖書推薦系統(tǒng)的研究中,為構(gòu)建基于文本內(nèi)容分類的個(gè)性化推薦服務(wù)提供新的思路。在提高查全率、查準(zhǔn)率的基礎(chǔ)上,兼顧到系統(tǒng)的性能,盡可能地給用戶提供更好的使用體驗(yàn)。 后續(xù)的工作可以考慮結(jié)合利用社交網(wǎng)絡(luò)的社會(huì)化標(biāo)簽, 引導(dǎo)專家或?qū)W生對(duì)新書進(jìn)行推薦、評(píng)價(jià),作為新書推薦的有益補(bǔ)充。

        猜你喜歡
        貝葉斯分類器分類
        分類算一算
        分類討論求坐標(biāo)
        數(shù)據(jù)分析中的分類討論
        BP-GA光照分類器在車道線識(shí)別中的應(yīng)用
        教你一招:數(shù)的分類
        貝葉斯公式及其應(yīng)用
        加權(quán)空-譜與最近鄰分類器相結(jié)合的高光譜圖像分類
        結(jié)合模糊(C+P)均值聚類和SP-V-支持向量機(jī)的TSK分類器
        基于貝葉斯估計(jì)的軌道占用識(shí)別方法
        一種基于貝葉斯壓縮感知的說話人識(shí)別方法
        電子器件(2015年5期)2015-12-29 08:43:15
        国产午夜亚洲精品不卡福利| 99999久久久久久亚洲| 亚洲熟女乱色综合亚洲av| 久久久久久久久久久熟女AV| 国产亚洲av手机在线观看| 在教室轮流澡到高潮h免费视| 日韩人妻无码一区二区三区久久| 97免费人妻在线视频 | 成av免费大片黄在线观看| 夜夜爽无码一区二区三区| 日本二区三区视频在线观看| 偷拍综合在线视频二区| 天堂…在线最新版资源| 国产在线不卡视频| 日本女优禁断视频中文字幕| 中国娇小与黑人巨大交| 国产在线不卡一区二区三区| 97久久综合区小说区图片专区| 日韩中文字幕在线丰满| 国产美女精品视频线免费播放软件| 国产精品99久久久久久宅男| 九九精品国产99精品| 亚洲精品98中文字幕| 久久久久亚洲av成人无码| 欧美理论在线| 蜜桃视频网站在线免费观看| 日本强伦姧人妻一区二区| 乱人伦中文无码视频| 韩国女主播一区二区在线观看| 久久国产精品色av免费看| 国产精品无码久久综合| 色窝窝在线无码中文| 亚洲av日韩一区二三四五六七| 亚洲视频在线一区二区| 美丽的熟妇中文字幕| 久久国产A∨一二三| 亚洲国产女性内射第一区二区| 久久久精品人妻无码专区不卡 | 被灌醉的日本人妻中文字幕| 粗大猛烈进出白浆视频| 亚洲AV无码精品色欲av|