亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        幾種基于MOOC的文本分類算法的比較與實現(xiàn)

        2016-11-29 03:42:29劉鑫昊譚慶平唐國斐
        軟件 2016年9期
        關(guān)鍵詞:降維決策樹貝葉斯

        劉鑫昊,譚慶平,曾 平,唐國斐

        (國防科學(xué)技術(shù)大學(xué) 計算機科學(xué)與技術(shù)學(xué)院,湖南 長沙 410073)

        幾種基于MOOC的文本分類算法的比較與實現(xiàn)

        劉鑫昊,譚慶平,曾平,唐國斐

        (國防科學(xué)技術(shù)大學(xué) 計算機科學(xué)與技術(shù)學(xué)院,湖南 長沙410073)

        機器學(xué)習(xí)是人工智能的主要內(nèi)容之一,文本分類正是機器學(xué)習(xí)中典型的監(jiān)督學(xué)習(xí)場景。而機器學(xué)習(xí)在在線教育平臺中的應(yīng)用正是現(xiàn)階段的發(fā)展趨勢。首先介紹了文本分類的背景及意義,文本分類系統(tǒng)中的文本預(yù)處理部分,介紹了信息增益算法、主要成分分析等相關(guān)技術(shù);文本分類的分類算法部分,主要介紹了AdaBoost技術(shù)。在遵循文本分類流程的基礎(chǔ)上,設(shè)計了一個3模塊文本分類系統(tǒng):一、中文分詞及去停止詞模塊;二、文本向量化及特征降維模塊;三、分類器模塊。文本分類系統(tǒng)的具體實現(xiàn)上,全部采用開源工具完成,使用Ansj實現(xiàn)模塊一,Weka實現(xiàn)模塊二、三。按照文本分類流程,利用文本分類系統(tǒng)進行了實驗,并對實驗中得到的數(shù)據(jù)進行了分析和總結(jié)。為了提升最后的分類效果,在特征降維這一步中,添加了IG-LSA(信息增益(IG)-潛在語義分析(LSA))的混合降維方法。

        文本分類,機器學(xué)習(xí),特征選擇,特征抽取

        本文著錄格式:劉鑫昊,譚慶平,曾平,等. 幾種基于MOOC的文本分類算法的比較與實現(xiàn)[J]. 軟件,2016,37(9):27-33

        1 引言

        在當(dāng)今的信息時代,Internet已經(jīng)大規(guī)模普及,借助互聯(lián)網(wǎng)技術(shù)的發(fā)展,每天我們所生活的這個世界都會出現(xiàn)大量的信息,信息的增長速度絕對是前人無法想像的,而這其中,各種電子文檔、電子郵件和網(wǎng)頁一方面豐富著網(wǎng)絡(luò),另一方面也對信息管理提出了更高的要求。在這樣的條件下,本文致力于處理MOOC在線教育平臺中課程、課件以及相關(guān)論壇中的討論信息,對先關(guān)信息進行處理、分析,以便于得到有用的信息,對老師和學(xué)生提出改進性的建議,便于MOOC在線教育平臺更好的發(fā)展。而利用機器完成自動文本分類,時間和資源開銷得到有效控制的情況下,文本分類效果也能滿足人們對分類的需求。除此之外,文本分類技術(shù)在信息過濾、信息檢索、文本數(shù)據(jù)庫、數(shù)字化圖書館、搜索引擎等諸多領(lǐng)域也都得到了廣泛的應(yīng)用。

        本文對文本分類[1]算法進行了研究,文本分類的主要流程如圖1.1所示,本文設(shè)計實現(xiàn)了一個多分類文本分類系統(tǒng),采用不同特征抽取,結(jié)合不同分類算法進行實驗,分析對比了實驗結(jié)果,給出了結(jié)論,給出一種最具有時效性的,能夠短期內(nèi)滿足需求的解決方法——分類器組合。

        圖1 .1 文本分類流程

        文章重點介紹了文本預(yù)處理、分類器選擇、分類器優(yōu)化以及實驗四個部分,介紹了中文分詞[2]、去停止詞,文本表示(即轉(zhuǎn)換為更適合機器學(xué)習(xí)的向量空間模型( VSM)),以及為了降低特征維度所采用的幾個特征提取算法:信息增益IG,潛在語義分析LSA,主成分分析PCA。以及屬Booosting類算法的Addaboost算法。最后進行全文總結(jié)。

        2 文本預(yù)處理

        在進行文本分類時,由于文本文件中的文本內(nèi)容以字符串的形式存儲,無法直接被計算機處理用于文本分類,所以,必須對所用文本數(shù)據(jù)進行處理,轉(zhuǎn)換為計算機能直接處理,適用于文本分類的形式,而這一過程,稱之為文本預(yù)處理。主要包括中文分詞、去停止詞、詞頻統(tǒng)計等。這里重點介紹信息增益、潛在語義分析和主要成分分析。

        2.1信息增益

        信息增益(information gain)[3,4]是特征選擇時常用的一個評估算法,在信息增益中,重要性的衡量標(biāo)準(zhǔn)就是特征能夠為分類系統(tǒng)帶來信息的多少,一個特征帶來的信息越多,信息量越大,該特征越重要。

        信息增益是針對一個個特征而言的,計算信息增益,就是看一個系統(tǒng)中,存在特征ti和不存在特征ti時系統(tǒng)的信息量各是多少,其差值就是就是特征ti帶給系統(tǒng)的信息量,即增益。存在特征ti時系統(tǒng)的信息量可直接由熵值計算公式得出。而系統(tǒng)不含特征ti的熵值無法直接得到,所以采用固定ti的方法得到,即將特征ti固定為每一個可能取值Xi,算出此時熵值,然后根據(jù)概率Pi取均值。

        2.2潛在語義分析

        潛在語義分析LSA[5](Latent Semantic Analysis)屬于特征抽取類算法,它首先利用統(tǒng)計計算的方法,先行分析數(shù)據(jù)集,進而提取出詞與詞之間潛存的語義結(jié)構(gòu),并使用這種潛在的語義結(jié)構(gòu),表示詞和文本,以消除詞之間的相關(guān)性和簡化文本向量,最終實現(xiàn)降維的目的。

        潛在語義分析的基礎(chǔ)是奇異值分解SVD[6](Singular Value Decomposition),利用SVD把高維的向量空間模型(VSM)表示的文本映射到低維的潛在語義空間中。SVD是線性代數(shù)中一種重要的矩陣分解,是矩陣分析中正規(guī)矩陣酉對角化的推廣。在信號處理、統(tǒng)計學(xué)等領(lǐng)域有重要應(yīng)用。

        假設(shè)M是一個m×n階矩陣,其中的元素全部屬于域K,也就是實數(shù)域或復(fù)數(shù)域。如此存在一個分解使得:

        X:m×m階酉矩陣;Y:半正定m×n階對角矩陣;Z*:Z的共軛轉(zhuǎn)置,是n×n階酉矩陣。這樣的分解稱作M的奇異值分解。Y對角線上的元素Yi,i即為M的奇異值。常見做法是由大到小排列奇異值。如此由M唯一確定Y(X、Z仍不能確定)。

        2.3主要成分分析

        主成分分析PCA(Principal Component Analysis),是一種特征提取常用的方法。主成分分析將多個變量通過線性變換以選出較少個數(shù)重要變量。主成分分析PCA主要方法是通過對協(xié)方差矩陣進行特征分解[7],以得出數(shù)據(jù)的主成分(即特征向量)與它們的權(quán)值(特征值[8])。

        在很多情況下,特征與特征之間具有一定的相關(guān)關(guān)系,當(dāng)兩個特征之間有一定相關(guān)關(guān)系時,可以理解為這兩個特征代表的類別的信息有一定的重疊。主成分分析PCA對于原有特征集,重新構(gòu)建盡可能少特征的新特征集,并且使得新特征集中的這些新特征是兩兩不相關(guān)的,而且這些新特征在反映類別的信息方面盡可能保持原有的信息。

        主成分分析作為一種分析、簡化數(shù)據(jù)集的技術(shù),經(jīng)常用于減少數(shù)據(jù)集的維數(shù),同時保持?jǐn)?shù)據(jù)集中的對方差貢獻(xiàn)最大的特征。這是通過保留低階主成分,忽略高階主成分做到的。這樣低階成分往往能夠保留住數(shù)據(jù)的最重要方面。但是,這也不是一定的,要視具體應(yīng)用而定。由于主成分分析依賴所給數(shù)據(jù),所以數(shù)據(jù)的準(zhǔn)確性對分析結(jié)果影響很大。

        主成分分析PCA是最簡單的以特征量分析多元統(tǒng)計分布的方法。其結(jié)果可以理解為對原數(shù)據(jù)中的方差做出解釋:哪一個方向上的數(shù)據(jù)值對方差的影響最大?換而言之,PCA 提供了一種降低數(shù)據(jù)維度的有效辦法;如果分析者在原數(shù)據(jù)中除掉最小的特征值所對應(yīng)的成分,那么所得的低維度數(shù)據(jù)必定是最優(yōu)化的(這樣降低維度也必定是失去信息量最少的方法)。

        3 分類器的選擇

        目前很多分類算法被研究者從不同角度提出,判斷不同分類算法的好壞可以由準(zhǔn)確率、速度、健壯性、可伸縮性、可解釋性等幾個標(biāo)準(zhǔn)來衡量。經(jīng)典的分類算法在不同的領(lǐng)域取得成功,比如貝葉斯算法、決策樹算法、支持向量機算法等。針對MOOC在線教育平臺的數(shù)據(jù)處理中,通過實驗發(fā)現(xiàn),相比于其他算法,Adaboost算法在處理這些數(shù)據(jù)上有一定的優(yōu)勢。因此這里具體介紹一下Adaboost算法。

        Adaboost[9]是英文“Adaptive Boosting”(自適應(yīng)增強)的縮寫,是一個能提高文本分類算法效果的一種迭代算法,Adaboost屬于Boosting類算法[10]的代表算法,Adaboost本身并不分類,而是旨在由弱分類器構(gòu)成強分類器。Boosting方法是一種在弱分類算法基礎(chǔ)上提高準(zhǔn)確度的方法,它是一種框架算法,首先對樣本集S操作獲得樣本子集S1,然后用弱分類算法在樣本子集S1上訓(xùn)練生成的基分類器C1。將弱分類算法生成的基分類器C1放于Boosting框架中,通過Boosting框架對訓(xùn)練樣本集的操作,得到新的訓(xùn)練樣本子集S2,用該樣本子集S2去訓(xùn)練生成基分類器C2每得到一個樣本集Si就用該基分類算法在該樣本集Si上產(chǎn)生一個基分類器Ci,這樣在給定訓(xùn)練輪數(shù)n后,就可產(chǎn)生n個基分類器,然后Boosting框架算法將這n個基分類器進行加權(quán)融合,產(chǎn)生一個最后的結(jié)果分類器,在這n個基分類器中,每個單個的分類器C1的識別率不一定很高,但集合后的強分類器有很高的識別率,這樣便提高了弱分類算法的識別率。在產(chǎn)生單個的基分類器時可用相同的分類算法,也可用不同的分類算法,這些算法一般是不穩(wěn)定的弱分類算法,如神經(jīng)網(wǎng)絡(luò)(BP),決策樹(C4.5)等。

        圖1 Boosting算法流程

        圖1中,矩形代表過程,平行四邊形代表數(shù)據(jù)??倲?shù)據(jù)集S根據(jù)分發(fā)權(quán)值Di得到子數(shù)據(jù)集Si,經(jīng)過訓(xùn)練得到基分類器Ci,得到下一個基分類器Ci+1對應(yīng)的數(shù)據(jù)集分發(fā)權(quán)重Di+1。最終將所有基分類器整合,得到一個強分類器C。實際使用中,由于事先很難知道弱分類算法分類正確率的下限,所以Boosting算法在解決實際問題時有重大缺陷。AdaBoost解決了這一問題,文章以DSAE(降噪稀疏自動編碼器)為弱分類器基本原型,調(diào)整層數(shù)以及激勵函數(shù)種類構(gòu)造不同條件下的弱分類器,使用NLPIR分詞系統(tǒng)提取文本特征,TF-IDF作為詞語的權(quán)值,根據(jù)該權(quán)值來選擇特征次,并統(tǒng)計詞頻作為文本特征訓(xùn)練集。AdaBoost方法使用的弱分類器只要不是隨機概率0.5,最終模型都會得到提高,因為即使使用的弱分類器準(zhǔn)確率小于0.5,只要權(quán)值Wi取負(fù)數(shù),最終模型也會提高準(zhǔn)確率。

        AdaBoost每一輪利用前一個分類器分錯的樣本Si,訓(xùn)練一個新的弱分類器Ci,直到的錯誤率小于某一個閾值。每一個訓(xùn)練樣本最終都會被賦予一個相應(yīng)權(quán)重Di,對應(yīng)被其中某分類器選入訓(xùn)練集的概率。已經(jīng)被準(zhǔn)確地分類的樣本點,會有更低概率被選入下一個訓(xùn)練集中;反之,概率就提高。如此通過不斷迭代的方式,AdaBoost方法最終能“聚焦”于那些弱分類器較難分樣本上。在具體實現(xiàn)時,最初每個樣本的權(quán)重都一樣,每次迭代,根據(jù)權(quán)重選取樣本點,進而訓(xùn)練分類器Ci正確分類樣本的權(quán)重。更新過權(quán)重的樣本集又用于下一輪迭代,不斷跌待下去直到達(dá)到制定閾值。

        4 實驗的設(shè)計與實現(xiàn)

        這里的實驗主要分為三個部分,分別是分詞及去停止詞模塊、特征降維模塊和分類器模塊。

        4.1分詞及去停止詞模塊

        分詞及去停止詞模塊承擔(dān)對中文文本的分詞及去停止詞兩個操作,輸入為語料庫中的文檔,輸出為已完成中文分詞及去停止詞的文檔。

        中文分詞采用漢語詞法分析系統(tǒng)ICTCLAS (Institute of Computing Technology,Chinese Lexical Analysis System)的java實現(xiàn),工具Ansj。ICTCLAS由中國科學(xué)院計算技術(shù)研究所發(fā)布,無論是準(zhǔn)確率還是處理速度都較同類算法有很大的優(yōu)勢。是目前最好的中文分詞開源系統(tǒng)。分詞系統(tǒng)中的分詞數(shù)據(jù)結(jié)構(gòu)采用tire樹結(jié)構(gòu),也就是詞典樹,一種哈希樹變種。常見應(yīng)用于統(tǒng)計和排序大量的字符串(不僅限字符串),所以也常被搜索引擎系統(tǒng)用于文本的詞頻統(tǒng)計。

        4.2特征降維模塊

        文本向量化及降維模塊將原始的多文檔形式的語料庫轉(zhuǎn)換為單一文件,內(nèi)部結(jié)構(gòu)為VSM[11],然后在此基礎(chǔ)上實現(xiàn)特征提取。輸入為包含多文檔的文件夾,各類文檔文件存放于類同名子文件夾中。輸出為單文件。模塊功能的具體實現(xiàn)由調(diào)用Weka完成,先將文件夾轉(zhuǎn)化為單文件,然后統(tǒng)計計算生成詞的TF-IDF值,并以此作為VSM的權(quán)值把的數(shù)據(jù)向量化,轉(zhuǎn)化為VSM,最后得到單文件的ARFF(Weka定義及使用的機器學(xué)習(xí)用文件格式)文件,而其中SMO優(yōu)化算法(Sequential minimal optimization)[12],由Microsoft Research的John C.Platt在1998年提出,并稱為最快的二次規(guī)劃優(yōu)化算法,特別針對線性SVM和數(shù)據(jù)稀疏性能更優(yōu)。

        降維使用的算法方面, 特征選擇和特征抽取算法都會采用,特征選擇算法方面,考慮到以詞作為特征,選擇了信息增益IG算法[13],因為其對詞特征的評估比較適合;特征提取算法方面,主題模型類算法選擇了潛在語義分析LSA,非主題模型類算法采用了主成分分析PCA,這兩個算法都能適用于文本分類的任務(wù)。

        一般情況下,特征選擇和特征抽取兩者在一個分類任務(wù)里只有一種會被采用,兩種方法各有自己特點、優(yōu)劣,但是很少有直接兩者一起使用的。所以,本次實驗,增加了一個特征選擇和特征抽取兩者混合使用進行降維的方法,稱之為IG-LSA,具體為先使用IG進行初步降維,然后使用LSA進一步降維這樣混合的兩步降維方法。先使用IG進行初步降維后特征集的平均熵值較之前能得到提高,這樣的特征集再使用LSA進行在此降維,理論上,得到的數(shù)據(jù)集相較僅使用LSA得到的數(shù)據(jù)集在分類器上能有更好的表現(xiàn)。

        4.3分類器部分

        分類器模塊實現(xiàn)訓(xùn)練分類器及測試分類器的功能。訓(xùn)練部分,輸入為已經(jīng)過降維處理的數(shù)據(jù)集,選擇目標(biāo)分類算法后利用訓(xùn)練數(shù)據(jù)即可獲得一個對應(yīng)的分類器;測試部分,輸入測試數(shù)據(jù),并用訓(xùn)練所得的分類器進行測試,輸出測試結(jié)果。

        訓(xùn)練及測試的具體實現(xiàn)由Weka[14]提供的強大機器學(xué)習(xí)算法集合提供,文本分類可用算法眾多,綜合考慮各算法的優(yōu)缺點后,選擇了樸素貝葉斯[15]、決策樹算法[16],由于支持向量機在分類問題上表現(xiàn)優(yōu)異,是最好的分類器之一,所以選擇了SVM作為第3種分類算法,考慮到樸素貝葉斯以與決策樹并不穩(wěn)定,所以將樸素貝葉斯、決策樹與優(yōu)化后的AdaBoost算法結(jié)合進行了對比實驗。

        5 實驗結(jié)果及分析

        5.1數(shù)據(jù)集

        中文語料庫選擇:《Coursera研究數(shù)據(jù)集》。 選取文本類別及數(shù)量見表1,文本皆存放在所屬類同名子文件夾內(nèi),5個子文件夾存放于resource文件夾內(nèi)。經(jīng)過轉(zhuǎn)化后得到了可用于文本分類的“vsm.arff”,統(tǒng)計信息見表2。

        表1 實驗用語料

        表2 vsm.arff統(tǒng)計信息

        對vsm.arff進行特征提取,采用的特征提取算法及保留特征集大小見表3. 最后得到的數(shù)據(jù)見表4,共80個數(shù)據(jù)集。

        表3 特征抽取情況

        表4 特征抽取后得到的數(shù)據(jù)集

        IG50代表對vsm.arff使用IG,保留50個特征,得到IG50.arff;

        IG-LSA,IG-PCA設(shè)定為使用IG時保留特征量為1000,然后使用LSA,PCA進一步降維;

        IG1000LSA5代表對vsm.arff使用IG保留1000個特征,然后使用LSA得5個特征,得到IG1000L SA50.arff;

        5.2評估標(biāo)準(zhǔn)

        P(Precision):準(zhǔn)確率,分類后,在某一特定類中,分對文本數(shù)/實際分到該類文本總數(shù)。

        R(Recall):召回率,分類后,在某一特定類中,分對文本數(shù)/應(yīng)分到該類文本總數(shù)。

        F-Measure又稱為F-Score,信息檢索時常用的評價標(biāo)準(zhǔn),計算公式為:

        其中β是參數(shù),P是精確率(Precision),R是召回率(Recall)。當(dāng)參數(shù)β=1時,就是最常見的F-1:

        5.3實驗結(jié)果

        5.3.1樸素貝葉斯分類器實驗結(jié)果

        由F-1數(shù)據(jù)圖2可以看出,當(dāng)使用樸素貝葉斯分類器時,隨著保留的特征數(shù)量下降,IG得到的數(shù)據(jù)集在樸素貝葉斯分類器上的表現(xiàn)也隨之下降,其他三種方法LSA、IG-LSA和IG-PCA則隨著保留特征數(shù)量的下降F-1值逐漸上升,但是使用IG總體準(zhǔn)確率依舊較其他三種特征抽取方法更高,僅當(dāng)特征保留數(shù)降至20,IG方法的F-1值被其他三種方法所超過。

        表5 樸素貝葉斯分類器

        圖2 樸素貝葉斯分類器F-1折線圖

        5.3.2決策樹分類器實驗結(jié)果

        圖3,決策樹分類器F-1值折線圖中,IG方法F-1值隨特征保留量減少而下降,且特下降幅度逐漸增大。LSA、IG-LSA、IG-PCA三種方法則隨著特征保留量的下降,F(xiàn)-1值呈輕微穩(wěn)定上升趨勢。特征保留量小于50時,IG方法表現(xiàn)降至4種方法最差一位。

        表6 決策樹分類器

        圖3 決策樹分類器F-1折線圖

        5.3.3支持向量機分類器實驗結(jié)果

        從圖4可以看到,支持向量機分類器的實驗部分,使用IG-LSA得到的數(shù)據(jù)集在分類器中的表現(xiàn)十分優(yōu)秀,F(xiàn)-1值已達(dá)99%以上。LSA和IG-PCA兩種方法最終實驗結(jié)果F-1值也能達(dá)到92.7%~94.4%。從數(shù)據(jù)來看,隨著特征保留量減少,4種方法的表現(xiàn)都隨之下降。IG-LSA下降幅度極低,LSA和IG-PCA兩種方法較小,從94%左右下降到92%左右。IG方法下降較大,且下降幅度逐漸增大。

        表7 支持向量機分類器

        圖4 支持向量機分類器F-1折線圖

        使用SMO已有相當(dāng)高的準(zhǔn)確率,所以AdaBoost實驗部分只結(jié)合樸素貝葉斯和決策樹進行實驗。

        5.3.4Adaboost-樸素貝葉斯分類器實驗結(jié)果

        圖5中,IG1,IG-LSA1折線為Adaboost-樸素貝葉斯分類器實驗結(jié)果,IG2,IG-LSA2折線為樸素貝葉斯分類器實驗結(jié)果。從圖中可以看出,使用IG時,僅當(dāng)特征量為200時,使用AdaBoost對樸素貝葉斯分類算法有提高作用,當(dāng)特征保留量更小時,使用AdaBoost沒有提高作用。使用IG-LSA時,AdaBoost對樸素貝葉斯分類算法提升很大,不過提升幅度逐漸減少。

        表8 Adaboost-樸素貝葉斯分類器

        圖5 Adaboost算法對比實驗F-1實驗圖

        5.3.5Adaboost-決策樹分類器實驗結(jié)果

        圖6中,IG1,IG-LSA1折線為Adaboost-決策樹分類算法實驗結(jié)果,IG2,IG-LSA2 折線為決策樹分類算法實驗結(jié)果。從圖中可以看出,使用IG時,使用改進后的AdaBoost對決策樹分類算法有提高作用,但是隨著特征維數(shù)降低而減少。使用IG-LSA時,使用改進后的AdaBoost對決策樹算法有較大的穩(wěn)定提升。

        表9 Adaboost-決策樹分類器

        圖6 Adaboost-決策樹對比實驗F-1折線圖

        5 結(jié)束語

        從5個分類實驗的F-1值折線圖可以看出,使用IG時,所有分類器的表現(xiàn)都隨著特征保留量的下降而下降,而使用特征抽取類算法如LSA,IG-PCA,IG-LSA時,隨著特征保留量的下降,各分類器上的表現(xiàn)呈上升或保持原有水平。實驗結(jié)果表明,當(dāng)直接使用詞作為特征時,分類表現(xiàn)與特征保留量呈正相關(guān)關(guān)系,若計算機處理能力能夠接受的情況下,使用特征選擇降維時應(yīng)盡可能保留多的特征。

        使用AdaBoost技術(shù)對分類算法的表現(xiàn)有一定的提升,當(dāng)使用IG作為降維算法,提升幅度與特征數(shù)呈正相關(guān),當(dāng)特征數(shù)降至一定程度后,AdaBoost技術(shù)帶來的提升可以基本忽略不計;但是使用IGLSA作為降維算法時,AdaBoost技術(shù)對分類算法能帶來穩(wěn)定的提升,且提升程度較高。

        實驗結(jié)果可以看到,IG-LSA的混合降維方法,無論相比IG還是LSA,得到的數(shù)據(jù)集在分類器上的表現(xiàn)都比較優(yōu)秀。詞與詞之間往往是存在聯(lián)系的,而特征抽取方法旨在消除這種聯(lián)系,重構(gòu)出詞與詞之間沒有聯(lián)系的新特征集。而在特征保留量較多時,LSA,IG-PCA,IG-LSA在分類器上的表現(xiàn)反而較低。這說明,當(dāng)特征保留量較多時,LSA,IG-PCA,IG-LSA方法構(gòu)建出的新特征集含有較多無法完全消除詞與詞之間聯(lián)系的新特征,這些多余的特征不僅不能幫助提高分類表現(xiàn),反而拖累了分類的結(jié)果。

        對比IG-LS與LSA算法,可以看到IG-LSA數(shù)據(jù)集在分類器上的表現(xiàn)遠(yuǎn)好于LSA數(shù)據(jù)集,而LSA數(shù)據(jù)集相比IG數(shù)據(jù)集在分類器上的表現(xiàn)各有優(yōu)劣。LSA基于統(tǒng)計分析原數(shù)據(jù)集以構(gòu)建新特征集,但是即使去掉了停止詞,原數(shù)據(jù)集的特征集中往往依舊包含不少對分類沒有貢獻(xiàn)或貢獻(xiàn)很低的詞特征,整體的平均貢獻(xiàn)度不高,對含有不少低貢獻(xiàn)詞特征的特征集進行統(tǒng)計分析重構(gòu)出的新數(shù)據(jù)集往往達(dá)不到理想的分類效果。但是先使用信息增益對詞特征進行篩選,得到只保留對分類貢獻(xiàn)較大的1000個詞特征的新數(shù)據(jù)集IG1000,這樣新的數(shù)據(jù)集中保留的詞特征平均貢獻(xiàn)度更高。對新數(shù)據(jù)集IG1000進行統(tǒng)計分析重構(gòu)出的新特征集,在分類器上的表現(xiàn)相對LSA和IG方法都提高很多。

        [1] Su Jinshu, ZhangBofeng, Xu Xin. Advances in Machine Learning Based Text Categorization [J]. Journal of Software, 2006, 17(9): 1848-1859.

        [2] Long Shuquan, Zhao Wenzheng, Tang Hua. Overview on Chinese Segmentation Algorithm[J].Computer Knowledge and Technology, 2009, 5(10): 2605-2607.

        [3] F. Sebastiani. Machine learning in automated text categorization[J] ACM Computing Surveys, 34(1): 1-47, 2002.

        [4] 李玲, 劉華文, 徐曉丹,等. 基于信息增益的多標(biāo)簽特征選擇算法[J]. 計算機科學(xué), 2015, 42(07): 52-56.

        [5] Evangelopoulos N E. Latent semantic analysis[J]. Annual Review of Information Science & Technology, 2013, 4(6): 683-692.

        [6] Lange K. Singular Value Decomposition[M]. Wiley StatsRef: Statistics Reference Online. John Wiley & Sons, Ltd, 2010: 129-142.

        [7] DNA AI,LAN Laboratory. Wiley Interdisciplinary Reviews: Computational Statistics[M]. 2010.

        [8] PJA Shaw. Multivariate statistics for the environmental sciences[J]. 2003.

        [9] AdaBoost[M].Encyclopedia of Biometrics. Springer US, 2009: 9-9.

        [10] Dong Lehong, Geng Guohua, Zhou Mingquan. Design of auto text categorization classfier based on Boosting algorithm[J]. Computer Application, 2007, 27(2): 384-386.

        [11] Li Yanmei, Guo Qinglin, Tang Qi. Similarity computing of document based on VSM[C]. Application Research of Computers. 2007.

        [12] Platt J C. Sequential Minimal Optimization: A Fast Algorithm for Training Support Vector Machines[C]. Advances in Kernel Methods-support Vector Learning. 1998: págs. 212-223.

        [13] Zhang Yufang, Chen Xiaoli, Xiong Zhongyang. Improved approach to weighting terms using information gain[J]. Computer Engineering and Applications, 2007(35): 159-161.

        [14] Frank E, Hall M, Holmes G, et al. Weka-A Machine Learning Workbench for Data Mining[M]. Data Mining and Knowledge Discovery Handbook. 2009: 1269-1277.

        [15] White, Myles. J. Machine learning for hackers[M].

        [16] Yang Xuebing, Zhang Jun. Decision Tree and Its Key Techniques[J]. Computer Technology and Development, 2007, 17(1): 43-45.

        Comparision and Implementation of Serveral MOOC-Based Text Classification

        LIU Xin-hao, TAN Qing-ping, ZENG Ping, TANG Guo-fei
        (Academy of Computer Science and Technology, National University of Defense Technology, Changsha Hunan, ZipCode 41000, China)

        Machine learning is one of the main content of artificial intelligence, text classification is a typical supervised learning scene. The development trend of machine learning in online education platform is the stage of the application. This paper firstly introduces the background and significance of text classificatio, The text preprocessing part, include the introductions of the text preprocessing part. mentioned Information Gain, Principal Componet Anlysis and anyother technology. The classification algorithm part, include the introductions of AdaBoost technology. Designed a text classification system consists of three module: module one, Chinese segmentation and stop word removal module; module two, text to vector and feature dimension reduction module; module three, classifier module. Completed the implementation of text classification system by using open source tools, Ansj and Weka. According to the text classification process, carried out experiments by using text classification system, and the experimental data obtained are analyzed and summarized. In order to improve the performance of classification, in feature dimension reduction step, added IG-LSA (information gain-latent semantic analysis) method.

        Text classification; Machine learning; Feature selection; Feature extraction

        TP181

        A

        10.3969/j.issn.1003-6970.2016.09.007

        國家自然課基金項目(61930007);國家“八六三”高技術(shù)研究發(fā)展計劃基金項目(2015BA3005)。

        猜你喜歡
        降維決策樹貝葉斯
        Three-Body’s epic scale and fiercely guarded fanbase present challenges to adaptations
        降維打擊
        海峽姐妹(2019年12期)2020-01-14 03:24:40
        一種針對不均衡數(shù)據(jù)集的SVM決策樹算法
        決策樹和隨機森林方法在管理決策中的應(yīng)用
        電子制作(2018年16期)2018-09-26 03:27:06
        貝葉斯公式及其應(yīng)用
        基于決策樹的出租車乘客出行目的識別
        基于貝葉斯估計的軌道占用識別方法
        一種基于貝葉斯壓縮感知的說話人識別方法
        電子器件(2015年5期)2015-12-29 08:43:15
        基于肺癌CT的決策樹模型在肺癌診斷中的應(yīng)用
        拋物化Navier-Stokes方程的降維仿真模型
        計算物理(2014年1期)2014-03-11 17:00:18
        国产精品久久中文字幕第一页| 无码国内精品久久人妻| 国产在视频线精品视频| 国产成人无码精品久久99| 亚洲综合久久久中文字幕| 国产精品一区av在线| 波多野42部无码喷潮在线| 亚洲av乱码中文一区二区三区 | 午夜大片在线播放观看| 人与动牲交av免费| 国产黄色片在线观看| 亚洲福利第一页在线观看| 在线观看麻豆精品视频 | 伊人蕉久中文字幕无码专区| 娇柔白嫩呻吟人妻尤物| 午夜桃色视频在线观看| 久久午夜羞羞影院免费观看| 国产三级在线观看免费| 99久久国语露脸国产精品| 亚洲av综合色一区二区| 久久婷婷人人澡人人爽人人爱| 国产3p视频| 久久精品一区二区三区不卡牛牛 | 日韩国产精品无码一区二区三区| 狠狠爱无码一区二区三区| 国产人妖赵恩静在线视频| 亚洲精品成人无百码中文毛片| 国产一极内射視颍一| 中文人妻无码一区二区三区| 操国产丝袜露脸在线播放| 人妻激情偷乱视频一区二区三区| 色一乱一伦一图一区二区精品 | 亚洲无码激情视频在线观看| 久久综合国产精品一区二区| 天堂8在线天堂资源bt| 图图国产亚洲综合网站| av男人的天堂第三区| 永久亚洲成a人片777777| 真人男女做爰无遮挡免费视频| 日本成人免费一区二区三区| 极品嫩模大尺度av在线播放|