亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        融合樣本選擇與特征選擇的AdaBoost支持向量機(jī)集成算法

        2014-08-07 12:19:17楊宏暉王蕓孫進(jìn)才戴健李亞安
        關(guān)鍵詞:特征選擇分類器克隆

        楊宏暉,王蕓,孫進(jìn)才,戴健,李亞安

        (西北工業(yè)大學(xué)航海學(xué)院, 710072, 西安)

        融合樣本選擇與特征選擇的AdaBoost支持向量機(jī)集成算法

        楊宏暉,王蕓,孫進(jìn)才,戴健,李亞安

        (西北工業(yè)大學(xué)航海學(xué)院, 710072, 西安)

        為提高AdaBoost分類器集成算法的分類精確度并簡(jiǎn)化分類系統(tǒng)的復(fù)雜度,提出一種融合樣本選擇與特征選擇的AdaBoost支持向量機(jī)集成算法(IFSelect-SVME)。該算法在AdaBoost算法的每個(gè)循環(huán)中利用加權(quán)免疫克隆樣本選擇算法進(jìn)行樣本選擇,并用互信息順序向前特征選擇算法進(jìn)行特征選擇,再利用每個(gè)循環(huán)優(yōu)化選擇得到的特征樣本子集訓(xùn)練個(gè)體SVM分類器,并對(duì)其進(jìn)行加權(quán)集成,生成最終的決策系統(tǒng)。對(duì)實(shí)驗(yàn)所用9組UCI數(shù)據(jù)集的仿真結(jié)果表明:與支持向量機(jī)集成(SVME)算法相比,IFSelect-SVME算法的正確分類率有所提高,且樣本數(shù)可減少30.8%~80.0%,特征數(shù)可減少32.2%~81.5%,簡(jiǎn)化了集成結(jié)構(gòu),縮短了測(cè)試樣本的分類時(shí)間,所得到的分類系統(tǒng)具有更好的分類精度。

        分類器集成;AdaBoost算法;支持向量機(jī);樣本選擇;特征選擇

        在統(tǒng)計(jì)模式識(shí)別領(lǐng)域,分類器集成作為提高分類系統(tǒng)精確度和泛化性能的重要方法[1],主要通過生成并組合個(gè)體分類器來實(shí)現(xiàn)分類[2-4]。但是,分類器集成在實(shí)際應(yīng)用中存在2個(gè)主要問題:①訓(xùn)練分類器的樣本和特征常含有噪聲樣本與冗余特征,這導(dǎo)致分類器集成的實(shí)際結(jié)果與理論值相差甚遠(yuǎn);②分類器集成勢(shì)必增加分類系統(tǒng)的復(fù)雜度,導(dǎo)致分類時(shí)間過長(zhǎng),限制了分類系統(tǒng)在對(duì)在線測(cè)試時(shí)間有要求領(lǐng)域的應(yīng)用。近年來,研究者們?cè)噲D設(shè)計(jì)出更有效的集成實(shí)現(xiàn)方式解決這2個(gè)問題。AdaBoost算法[5-6]作為一種經(jīng)典的分類器集成算法,通過加大權(quán)值來強(qiáng)化對(duì)難分樣本的學(xué)習(xí),提高弱分類器的分類精度,構(gòu)建更強(qiáng)的集成分類器,但并未去除掉噪聲樣本和冗余特征的不良影響,且系統(tǒng)仍然具有較高的復(fù)雜度;文獻(xiàn)[7-8]在AdaBoost算法的基礎(chǔ)上進(jìn)行了改進(jìn),引入多視圖的概念來構(gòu)建集成分類器,進(jìn)一步提高了分類精度,但分類系統(tǒng)仍然不夠精簡(jiǎn);文獻(xiàn)[9]通過動(dòng)態(tài)地選擇個(gè)體分類器并將其循環(huán)集成,大大降低了分類系統(tǒng)的復(fù)雜度,但未考慮到訓(xùn)練集中所含的噪聲樣本和冗余特征;文獻(xiàn)[10]將集成思想用在特征選擇和分類器設(shè)計(jì)中,在一定程度上能夠去除冗余特征,提高分類精度并節(jié)省分類時(shí)間,但沒有考慮到噪聲樣本對(duì)分類的影響;文獻(xiàn)[11]在融合特征選擇和分類器集成的基礎(chǔ)上又對(duì)個(gè)體分類器進(jìn)行了選擇,進(jìn)一步縮小了集成規(guī)模,簡(jiǎn)化了計(jì)算復(fù)雜度,但噪聲樣本對(duì)分類系統(tǒng)的影響依然存在;文獻(xiàn)[12]將樣本選擇融入AdaBoost分類器集成模型之中來提高集成系統(tǒng)的分類精度,簡(jiǎn)化集成結(jié)構(gòu),但又忽略了冗余特征對(duì)分類的影響。

        針對(duì)上述問題,本文提出一種融合樣本選擇與特征選擇的AdaBoost支持向量機(jī)[13]集成算法(AdaBoost SVM ensemble algorithm combined with instance selection and feature selection, IFSelect-SVME)。本文算法在AdaBoost分類器集成框架中融入樣本選擇[14-15]和特征選擇[16-17],剔除掉了訓(xùn)練子集中的噪聲樣本和冗余特征,提高了集成分類器的的學(xué)習(xí)效率和學(xué)習(xí)精度。采用UCI公共數(shù)據(jù)庫(kù)中的數(shù)據(jù)集本進(jìn)行的分類實(shí)驗(yàn)結(jié)果表明,本文算法能夠在降低特征與樣本數(shù)的同時(shí)提高或保持SVME的正確分類率,具有良好的泛化性能。

        1 AdaBoost算法

        AdaBoost算法[5-6]首先采用隨機(jī)遍歷抽樣法抽取訓(xùn)練樣本集,再用訓(xùn)練樣本集訓(xùn)練個(gè)體分類器;在每次循環(huán)中,根據(jù)樣本是否被分類正確而賦予不同的加權(quán)權(quán)值,被錯(cuò)誤分類的樣本權(quán)值較大,被正確分類的樣本權(quán)值較小;然后根據(jù)不同樣本的加權(quán)權(quán)值對(duì)原有的訓(xùn)練樣本集進(jìn)行重抽樣,重點(diǎn)抽取難分類的樣本,直到生成多個(gè)個(gè)體分類器;最后采用加權(quán)多數(shù)投票法對(duì)個(gè)體分類器進(jìn)行集成。

        2 IFSelect-SVME算法

        2.1 IFSelect-SVME算法的原理

        本文IFSelect-SVME算法采用了AdaBoost算法的集成框架,首先采用加權(quán)免疫克隆樣本選擇算法進(jìn)行樣本選擇,再使用互信息順序向前特征選擇進(jìn)行特征選擇,以保證在每個(gè)循環(huán)中只選擇最優(yōu)的樣本和特征來訓(xùn)練個(gè)體SVM分類器。這樣得到的優(yōu)化子集訓(xùn)練的個(gè)體分類器往往具有更高的分類精度,且隨著訓(xùn)練集中噪聲樣本和冗余特征的去除,個(gè)體分類器的復(fù)雜度也大大降低,由所得到的個(gè)體分類器進(jìn)行加權(quán)集成,最終生成的決策系統(tǒng)的分類精度也有所提升。IFSelect-SVME算法原理如圖1所示。

        圖1 IFSelect-SVME原理圖

        2.2 加權(quán)免疫克隆樣本選擇算法

        在IFSelect-SVME算法中,利用加權(quán)免疫克隆樣本選擇算法進(jìn)行樣本選擇[15]。加權(quán)免疫克隆樣本選擇算法先隨機(jī)生成初始抗體種群,然后根據(jù)樣本權(quán)值計(jì)算抗體的加權(quán)親和度(抗體-抗原加權(quán)親和度與抗體-抗體間親和度) 以及克隆數(shù),再利用克隆操作、免疫基因操作(海明距離交叉與隨機(jī)變異)以及克隆選擇操作指導(dǎo)種群的進(jìn)化,循環(huán)往復(fù),直到達(dá)到終止條件。在該算法中,一個(gè)抗體代表一種樣本選擇方式,抗體-抗原加權(quán)親和度表示某抗體的分類性能,而抗體-抗體間親和度則表示不同抗體之間的差異程度,體現(xiàn)出抗體群的多樣性。每個(gè)抗體的克隆數(shù)則通過抗體-抗原加權(quán)親和度和抗體-抗體間親和度來控制。

        加權(quán)免疫克隆樣本選擇算法的步驟如下:

        Step1隨機(jī)生成初始種群。對(duì)于某一樣本集X={(xi,yi)|xi∈Rd,yi∈{1,…,K},i=1,…,n},將樣本選擇問題編碼為二進(jìn)制基因鏈Φ=(φ1,φ2,…,φi,…,φn),其中φi為個(gè)體基因編碼,n為樣本數(shù),φi=1表示第i個(gè)樣本被選中,φi=0表示第i個(gè)樣本未被選中,隨機(jī)生成初始抗體種群O。

        Step2加權(quán)親和度計(jì)算。計(jì)算分為以下2個(gè)步驟。

        (1)抗體-抗原加權(quán)親和度Gj計(jì)算如下

        Gj(k)=1-Ej(k)

        (1)

        (2)抗體-抗體間親和度Bj計(jì)算如下

        (2)

        式中:αj(k)與αq(k)分別表示第k代抗體種群中的第j個(gè)和第q個(gè)抗體。

        Step3克隆算子操作。操作分為以下3個(gè)步驟。

        (1)克隆操作:根據(jù)每個(gè)抗體進(jìn)行克隆,得到克隆種群Or;用式(3)計(jì)算抗體克隆數(shù)

        (3)

        式中:λj(k)為第j個(gè)抗體的克隆數(shù);δr為克隆規(guī)模設(shè)定值。

        (2)免疫基因操作:對(duì)克隆種群Or以概率Ps進(jìn)行海明距離交叉,產(chǎn)生交叉種群Os,再對(duì)Ot按概率Pt進(jìn)行隨機(jī)變異,得到變異種群Ot[13]。

        (3)克隆選擇操作:比較父代與免疫基因操作后子代抗體種群,選擇出其中抗體-抗原加權(quán)親和度高的一個(gè)抗體,組成新一代抗體種群O′。

        克隆算子操作保證了在本次循環(huán)中,用優(yōu)化樣本子集訓(xùn)練的個(gè)體分類器的分類精度大于等于不做樣本選擇時(shí)訓(xùn)練的個(gè)體分類器的分類精度。

        Step4判斷。若到達(dá)終止條件(終止條件通常為設(shè)定的循環(huán)次數(shù)),則輸出最優(yōu)解;否則,轉(zhuǎn)至Step2。

        2.3 互信息順序向前特征選擇算法

        在IFSelect-SVME算法中,用互信息順序向前特征選擇算法進(jìn)行特征選擇。該算法用特征與類別之間的互信息值[16]來評(píng)價(jià)特征的分類性能,并利用順序向前特征選擇方法[15]來搜索最優(yōu)特征子集。特征f與類別L之間的互信息計(jì)算公式如下

        I(L;f)=H(L)-H(L|f)

        (4)

        式中:H(L)是類別L的熵;H(L|f)是在特征f條件下類別L的熵?;バ畔⒅翟酱?則表示特征與類別的相關(guān)程度越強(qiáng),特征包含的分類信息越多,特征的分類性能也就越強(qiáng)。

        2.4 生成分類系統(tǒng)

        IFSelect-SVME算法采用加權(quán)多數(shù)投票法對(duì)每次循環(huán)生成的個(gè)體SVM分類器進(jìn)行集成,用每一個(gè)個(gè)體分類器對(duì)樣本進(jìn)行決策,對(duì)自己所預(yù)測(cè)樣本的類別投一票,最終,票數(shù)最多的類別被確定為這個(gè)樣本的類別,直到所有樣本的類別被全部預(yù)測(cè),所得到的分類結(jié)果即為分類器集成的最終分類結(jié)果。

        3 實(shí) 驗(yàn)

        3.1 實(shí)驗(yàn)數(shù)據(jù)

        本文利用加州大學(xué)用于機(jī)器學(xué)習(xí)的UCI(University of California Irvine, UCI)數(shù)據(jù)庫(kù)[19]中的9種數(shù)據(jù)集對(duì)IFSelect-SVME算法的性能進(jìn)行驗(yàn)證實(shí)驗(yàn),9種數(shù)據(jù)集的特征均為數(shù)值類型,包含連續(xù)型(continued,C)、離散型(discreted,D)和混合型(mixed,M)特征。數(shù)據(jù)集的詳細(xì)信息如表1所示。

        表1 實(shí)驗(yàn)數(shù)據(jù)

        3.2 分類實(shí)驗(yàn)

        采用表1中的9種數(shù)據(jù)集對(duì)本文的IFSelect- SVME算法進(jìn)行分類實(shí)驗(yàn),通過分類性能、特征選擇性能、樣本選擇性能以及分類時(shí)間等幾個(gè)指標(biāo)對(duì)本文IFSelect-SVME算法的有效性進(jìn)行了分析。

        表2 2種算法的分類性能對(duì)比

        從表2中可以看到,對(duì)于不同的數(shù)據(jù)集,本文IFSelect-SVME算法選擇的特征數(shù)與樣本數(shù)都少于SVME算法。對(duì)于離散型數(shù)據(jù)zoo,IFSelect-SVME算法在每個(gè)循環(huán)中平均僅用31%的特征數(shù)和28%的樣本數(shù)來訓(xùn)練個(gè)體分類器,平均正確分類率比SVME算法可提高4%;對(duì)于混合型數(shù)據(jù)Indian-L,則平均需用20%的特征數(shù)與68%的樣本數(shù)訓(xùn)練個(gè)體分類器,正確分類率可提高2%;本文算法對(duì)其他幾種連續(xù)型數(shù)據(jù)的正確分類率都有提高,而樣本選擇數(shù)只有SVME算法的18%~54%;特征選擇數(shù)也只有SVME算法的33%~85%。因此不論對(duì)于何種特征類型的數(shù)據(jù),IFSelect-SVME算法均能夠提高分類系統(tǒng)的正確分類率,同時(shí)大幅度壓縮訓(xùn)練樣本數(shù)與特征數(shù)。

        3.2.2 樣本選擇結(jié)果 當(dāng)用加權(quán)免疫克隆算法進(jìn)行樣本選擇時(shí),每次循環(huán)中選擇出的樣本都是不同的。根據(jù)每個(gè)樣本被選擇的次數(shù),定義樣本重要性指數(shù),可按式(5)計(jì)算

        Vi=ui/Z

        (5)

        式中:Vi是第i個(gè)樣本的重要性指數(shù);Z為訓(xùn)練個(gè)體分類器的個(gè)數(shù);ui是第i個(gè)樣本Z次分類器生成中被選擇的次數(shù)。樣本的重要性指數(shù)越高,對(duì)分類就越有效。用該算法對(duì)9種數(shù)據(jù)進(jìn)行樣本選擇,得到歸一化樣本重要性指數(shù)。不同樣本集的歸一化重要性指數(shù)如圖2所示。

        (a)wine (b)zoo

        (c)wdbc (d)sonar

        (e)parkinsons (f)ionospheres

        (g)Indian-L (h)glass

        (i)climate

        從圖2可以看出,對(duì)于不同數(shù)據(jù)集,不同樣本的歸一化重要性指數(shù)都有著明顯的差別。本文算法只選取了重要性指數(shù)高于0.5的樣本作為樣本選擇結(jié)果。選取重要性指數(shù)高的樣本來組建最優(yōu)的樣本子集,就可以訓(xùn)練出分類性能更好的個(gè)體分類器。

        (a)wine (b)zoo

        (c)wdbc (d)sonar

        (e)parkinsons (f)ionosphere

        (g)Indian-L (h)glass

        (i)climate

        3.2.3 特征選擇結(jié)果 根據(jù)IFSelect-SVME算法中互信息順序向前特征選擇法的原理,可得到選取不同維數(shù)特征時(shí)對(duì)應(yīng)的平均正確分類率,如圖3所示。從圖3可以看出,隨著特征選擇數(shù)的增加,不同數(shù)據(jù)集的分類率曲線大體呈現(xiàn)先上升,到達(dá)某一值后趨于平穩(wěn)或又有所下降的趨勢(shì);glass與ionosphere數(shù)據(jù)集的分類率曲線上下波動(dòng),但仍在中間的某一點(diǎn)處取得最大值。這說明,所有的數(shù)據(jù)集都只需要選取部分維數(shù)的特征就可以使得分類率達(dá)到最大,過少的特征使得正確分類率不能達(dá)到理想的效果,且冗余的特征也會(huì)導(dǎo)致分類率變差,說明IFSelect-SVME中的特征選擇不僅可以降低特征維數(shù),還可以提高分類精度。

        3.2.4 IFSelect-SVME與SVME算法的分類時(shí)間對(duì)比 圖5給出了IFSelect-SVME算法與SVME算法訓(xùn)練相同數(shù)量分類器的分類時(shí)間對(duì)比。

        圖4 2種算法的分類時(shí)間對(duì)比

        從圖4可以看出,IFSelect-SVME比SVME算法對(duì)9種數(shù)據(jù)的分類時(shí)間都有所減少,這說明IFSelect-SVME算法精簡(jiǎn)了個(gè)體分類器的復(fù)雜度,為分類節(jié)省了時(shí)間。

        4 結(jié) 論

        本文提出了一種融合樣本選擇和特征選擇的AdaBoost支持向量機(jī)集成算法,利用AdaBoost算法構(gòu)造集成模型,通過樣本選擇和特征選擇優(yōu)化訓(xùn)練子集來生成個(gè)體分類器,并將所得的個(gè)體分類器用加權(quán)多數(shù)投票的方法進(jìn)行集成,從而得到最終的綜合分類器。采用本文算法對(duì)9種UCI數(shù)據(jù)集進(jìn)行分類實(shí)驗(yàn),結(jié)果表明,本文算法對(duì)于多種數(shù)據(jù)均可有效地指導(dǎo)對(duì)最優(yōu)樣本和特征子集的搜索,大幅度減少樣本數(shù)和特征數(shù),且經(jīng)過樣本選擇和特征選擇后的分類器集成模型與未經(jīng)樣本選擇和特征選擇的分類器集成模型相比,具有更好的分類性能,因此本文算法具有一定的普適性和有效性,具有良好的推廣價(jià)值。

        [1] MIKEL G, ALBERTO F, BDURNE B, et al. A review on ensembles for the class imbalance problem: bagging-, boosting-, and hybrid-based approaches [J]. IEEE Transactions on Systems, Man, and Cybernetics: Part C Applications and Reviews, 2012, 42(4): 463-484.

        [2] 張宏達(dá), 王曉丹, 韓鈞, 等. 分類器集成差異性研究 [J]. 系統(tǒng)工程與電子技術(shù). 2009, 31(12): 3007-3012. ZHANG Hongda, WANG Xiaodan, HAN Jun, et al. Survey of diversity researches on classifier ensembles [J]. Systems Engineering and Electronics, 2009, 31(12): 3007-3012.

        [3] WINDEATT T. Accuracy/diversity and ensemble MLP classifier design [J]. IEEE Transactions on Neural Networks, 2006, 5(17): 1194-1211.

        [4] SUN Shiliang. Local within-class accuracies for weighting individual outputs in multiple classifier systems [J]. Pattern Recognition Letters, 2010, 31: 119-124.

        [5] FREUND Y, SCHAPIRE R E. A decision-theoretic generalization of on-line learning and an application to boosting [J]. Journal of Computer and System and Science, 1997, 63(5): 119-139.

        [6] 曹瑩, 苗啟廣, 劉家辰, 等. AdaBoost算法研究進(jìn)展與展望 [J]. 自動(dòng)化學(xué)報(bào), 2013, 39(6): 745-758. CAO Ying, MIAO Qiguang, LIU Jiachen, et al. Advance and Prospects of AdaBoost [J]. Acta Automatica Sinica, 2013, 39(6): 745-758.

        [7] XU Zhijie, SUN Shiliang. An algorithm on multi-view AdaBoost [C]∥Proceedings of 17th International Conference on Neural Information Processing. Heidelberg, Germany: Springer, 2010: 355-362.

        [8] XU Zhijie, SUN Shiliang. Multi-source transfer learning with multi-view AdaBoost [C]∥Proceedings of 19th International Conference on Neural Information Processing. Heidelberg, Germany: Springer, 2012: 332-339.

        [9] 郝紅衛(wèi), 王志彬, 殷緒成. 分類器的動(dòng)態(tài)選擇與循環(huán)集成方法 [J]. 自動(dòng)化學(xué)報(bào), 2011, 37(11): 1290-1295. HAO Hongwei, WANG Zhibin, YIN Xucheng. Dynamic selection and circulating combination for multiple classifier systems [J]. Acta Automatica Sinica, 2011, 37(11): 1290-1295.

        [10]孫亮, 韓崇昭, 沈建京, 等. 集成特征選擇的廣義粗集方法與多分類器融合 [J]. 自動(dòng)化學(xué)報(bào), 2008, 34(3): 298-304. SUN Liang, HAN Chongzhao, SHEN Jianjing, et al. Generalized rough set method for ensemble feature selection and multiple classifier fusion [J]. Acta Automatica Sinica, 2008, 34(3): 298-304.

        [11]馬超, 陳西宏, 徐宇亮, 等. 廣義領(lǐng)域粗集下的集成特征選擇及其選擇性集成算法 [J]. 西安交通大學(xué)學(xué)報(bào), 2011, 45(6): 34-39. MA Chao, CHEN Xihong, XU Yuliang, et al. Ensemble feature selection based on generalized neighborhood rough model and its selective integration [J]. Journal of Xi’an Jiaotong University, 2011, 45(6): 34-39.

        [12]GARCIA P N. Constructing ensembles of classifiers by means of weighted instance selection [J]. IEEE Transactions on Neural Networks, 2009, 20(2): 258-277.

        [13]VAPNIK V. The nature of statistical learning theory [M]. New York: Springer-Verlag, 2000.

        [14]OLVERA-LOPEZ J A, CARRASCO-OCHOA J A, MARTINEZ-TRINIDAD J, et al. A review of instance selection methods [J]. Artificial Intelligence Review, 2010, 34(2): 133-143.

        [15]YANG Honghui, ZHOU Xin, WANG Yun, et al. A new adaptive immune clonal algorithm for underwater acoustic target sample selection [C]∥Proceedings of 2013 IEEE International Conference of IEEE Region 10. Piscataway, NJ, USA: IEEE, 2013: 1-4.

        [16]楊宏暉, 戴健, 孫進(jìn)才, 等. 用于水下目標(biāo)識(shí)別的自適應(yīng)免疫特征選擇算法 [J]. 西安交通大學(xué)學(xué)報(bào), 2011, 45(12): 28-32. YANG Honghui, DAI Jian, SUN Jincai, et al. A new adaption immune feature selection algorithm for underwater acoustic target classification [J]. Journal of Xi’an Jiaotong University, 2011, 45(12): 28-32.

        [17]LIU Huan, YU Lei. Toward integrating feature selection algorithms for classification and clustering [J]. IEEE Transactions on Knowledge and Data Engineering, 2005, 17(4): 491-502.

        [18]VINH L T, THANG N D, LEE Y K. An improved maximum relevance and minimum redundancy feature selection algorithm based on normalized mutual information [C]∥Proceedings of 201010th Annual International Symposium on Applications and the Internet. Piscataway, NJ, USA: IEEE, 2010: 395-398.

        [19]HETTICH S, BLAKE C, MERZ C. UCI repository of machine learning database[DB/OL]. (1998-07-11)[2014-04-03]. http:∥www.ics.uci.edu/mlearn/MLRepository.html.

        (編輯 劉楊)

        AnAdaBoostSupportVectorMachineEnsembleMethodwithIntegrationofInstanceSelectionandFeatureSelection

        YANG Honghui,WANG Yun,SUN Jincai,DAI Jian,LI Ya’an

        (School of Marine Science and Technology, Northwestern Polytechnical University, Xi’an 710072, China)

        An AdaBoost support vector machine ensemble (IFSelect-SVME) method with integration of instance selection and feature selection is proposed to improve the classification accuracy of AdaBoost ensemble algorithm and to simplify the complexity of the classification system. The proposed algorithm selects instance subsets via the weighted immune clonal instance selection algorithm in each cycle of AdaBoost algorithm, and the feature subsets are obtained using the mutual information sequential forward feature selection algorithm. Then the individual SVM classifiers are trained by the resulting optimal feature instance subsets in each cycle, and combined via majority vote to generate the final decision system. Simulation results on 9 UCI datasets and comparisons with the AdaBoost SVME algorithm show that the IFSelect-SVME algorithm obtains better classification accuracy with the number of instances decreasing to 30.8%-80.0% and the number of features decreasing to 32.2%-81.5%. The proposed IFSelect-SVME algorithm simplifies the structure of ensemble model, shortens the classification time of test instances, and gives a classification system with better classification accuracy.

        classifier ensemble; AdaBoost algorithm; support vector machine; instance selection; feature selection

        2014-04-29。

        楊宏暉(1971—),女,博士,副教授。

        國(guó)家自然科學(xué)基金資助項(xiàng)目(51179157,60672136);水下測(cè)控技術(shù)重點(diǎn)實(shí)驗(yàn)室基金資助項(xiàng)目(9140C260505120C26104)。

        時(shí)間:2014-09-09

        10.7652/xjtuxb201412010

        TP391.4

        :A

        :0253-987X(2014)12-0063-06

        網(wǎng)絡(luò)出版地址:http:∥www.cnki.net/kcms/detail/61.1069.T.20140909.0840.001.html

        猜你喜歡
        特征選擇分類器克隆
        克隆狼
        浙江:誕生首批體細(xì)胞克隆豬
        BP-GA光照分類器在車道線識(shí)別中的應(yīng)用
        Kmeans 應(yīng)用與特征選擇
        電子制作(2017年23期)2017-02-02 07:17:06
        加權(quán)空-譜與最近鄰分類器相結(jié)合的高光譜圖像分類
        結(jié)合模糊(C+P)均值聚類和SP-V-支持向量機(jī)的TSK分類器
        抗BP5-KLH多克隆抗體的制備及鑒定
        聯(lián)合互信息水下目標(biāo)特征選擇算法
        Galectin-7多克隆抗體的制備與鑒定
        基于LLE降維和BP_Adaboost分類器的GIS局部放電模式識(shí)別
        国产日产久久高清ww| 亚洲成在人网av天堂| 国产白浆精品一区二区三区| av免费资源在线观看| 免费无码一区二区三区a片百度| 国产全肉乱妇杂乱视频| 亚洲精品中文字幕不卡在线| 国产精品女同二区五区九区| 人妻少妇偷人精品免费看| 日日碰狠狠添天天爽无码| 国产成人精品三级麻豆| 亚洲天堂av大片暖暖| 蜜桃精品人妻一区二区三区| a级毛片免费观看在线| AV永久天堂网| 亚洲中文字幕亚洲中文| 久久精品国产成人午夜福利| 久久国产精品-国产精品 | 日韩av二区三区一区| 亚洲中文字幕综合网站| 亚洲色图片区| 九九九精品成人免费视频小说 | av网站韩日在线观看免费| 国产人妖乱国产精品人妖| 人与禽交av在线播放| 国内精品久久久久国产盗摄| av在线播放免费观看| 门卫又粗又大又长好爽| 熟妇与小伙子matur老熟妇e| 国产高跟丝袜在线诱惑| 男女边摸边吃奶边做视频韩国| 国产中文欧美日韩在线| 伊人婷婷色香五月综合缴激情| 国产丝袜美腿一区二区三区| 国产乱子轮xxx农村| 亚洲av无码成人yellow| 成人影院免费视频观看| 国产欧美在线观看不卡| av香港经典三级级 在线| 国产成人综合日韩精品无| 国产三级精品三级在线专区|