亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于近鄰信息和PSO算法的集成特征選取

        2016-10-13 01:14:49劉全金趙志敏李穎新俞曉磊
        電子學報 2016年4期
        關(guān)鍵詞:集上復雜度適應(yīng)度

        劉全金,趙志敏,李穎新,俞曉磊

        (1.南京航空航天大學理學院,江蘇南京210016;2.安慶師范學院物理與電氣工程學院,安徽安慶246011;3.北京經(jīng)緯紡機新技術(shù)有限公司,北京100176;4.北京市輕紡機械機器視覺工程技術(shù)研究中心,北京100176;5.江蘇省標準化研究院,江蘇南京210029)

        基于近鄰信息和PSO算法的集成特征選取

        劉全金1,2,趙志敏1,李穎新3,4,俞曉磊5

        (1.南京航空航天大學理學院,江蘇南京210016;2.安慶師范學院物理與電氣工程學院,安徽安慶246011;3.北京經(jīng)緯紡機新技術(shù)有限公司,北京100176;4.北京市輕紡機械機器視覺工程技術(shù)研究中心,北京100176;5.江蘇省標準化研究院,江蘇南京210029)

        提出了一種新的PSO特征選取方法.以粒子對應(yīng)特征組合的同類近鄰樣本和異類近鄰樣本間的距離關(guān)系作為類別可分性和粒子適應(yīng)度函數(shù).以適應(yīng)度函數(shù)加權(quán)的群體歷史最佳、粒子歷史最佳和粒子鄰域內(nèi)最佳個體信息共同指導粒子運動方向,搜索類內(nèi)緊密、類間分離的最佳特征組合;同時,利用加權(quán)集成方法對PSO特征選取方法進行集成,以提高特征選取方法的穩(wěn)定性和魯棒性.在5個高維數(shù)據(jù)集上的特征選取實驗結(jié)果表明集成PSO特征選取方法的有效性和可行性.

        特征選取;PSO;集成方法;分類

        1 引言

        利用機器學習技術(shù)對高維數(shù)據(jù)降維,使降維后的數(shù)據(jù)仍承載初始數(shù)據(jù)中有效信息[1,2].特征選取方法根據(jù)特征評價函數(shù),從原始數(shù)據(jù)中選取代表原始數(shù)據(jù)特性的關(guān)鍵特征[3,4].特征選取方法分為特征權(quán)重選取方法和特征子集選取方法.特征權(quán)重選取方法根據(jù)特征在不同類別樣本中的分布選取分類特征[5],或基于分類模型推算特征對分類的影響進而選取分類特征[6].特征子集選取方法包括窮舉法、啟發(fā)法和隨機法等.高維數(shù)據(jù)集的窮舉法特征選取是NP問題;啟發(fā)法為次優(yōu)搜索算法,在迭代的過程中產(chǎn)生維數(shù)遞增或遞減的特征子集,能得到近似最優(yōu)解[7],如順序后向選擇法(Sequential Backward Selection,SBS);隨機法基于隨機性從特征空間中選取特征子集,主要包括基于進化思想的遺傳算法和粒子群算法等優(yōu)化算法.

        Kennedy等人[8]提出粒子群(Particle Swarm Optimization,PSO)算法.粒子群粒子通過與個體歷史最佳和群體歷史最佳的信息交流實現(xiàn)種群進化[9].二進制 PSO算法[10]被用于解決0-1整數(shù)規(guī)劃問題,也適于特征選取問題研究.文獻[11,12]提出基于分類器的二進制PSO特征選取算法(簡稱BPSO方法),以粒子個體對應(yīng)特征組合分類結(jié)果為適應(yīng)度函數(shù)進行分類特征選取研究.適應(yīng)度函數(shù)的特征組合分類交叉校驗需要較大的計算量,選取的特征組合亦可能過擬合于適應(yīng)度函數(shù)所用的分類模型.另外,僅考慮粒子群群體歷史最佳的全局模型雖然算法收斂速度快,但算法易于早熟.

        集成特征選取方法通過集成來自不同特征選取算法、不同樣本組成或不同特征選取范圍選取的特征,從中確定最佳分類特征[13].Abeel[14]和Saeys[15]通過實驗證明集成方法有助于提高特征選取方法魯棒性和穩(wěn)定性.

        本文提出基于近鄰信息的BPSO特征選取方法(以下簡稱NBPSO方法).基于同類近鄰樣本和異類近鄰樣本信息定義粒子個體對應(yīng)特征組合的類別可分性和粒子適應(yīng)度函數(shù),以保證特征組合類內(nèi)緊密、類間分離;同時,引入粒子近鄰信息,提出以類別可分性加權(quán)的群體歷史最佳位置、粒子個體歷史最佳位置和粒子鄰域內(nèi)最佳位置共同指導粒子個體運動方向,在特征空間中搜索最佳特征組合,研究高維數(shù)據(jù)的特征降維問題.另外,本文提出基于加權(quán)集成方法對并行NBPSO方法所選特征集成,以提高NBPSO方法的穩(wěn)定性和魯棒性.

        在5個高維數(shù)據(jù)集上進行的特征選取實驗結(jié)果表明NBPSO方法在特征組合分類、算法復雜度和穩(wěn)定度等方面優(yōu)于基于分類器的BPSO特征選取方法,并證實了加權(quán)集成方法對NBPSO方法的促進作用.這說明本文所提特征選取方法的有效性和可行性.

        2 基于BPSO算法的特征選取方法

        PSO算法中每個粒子代表解空間中一個解.初始階段,群體粒子隨機分布于解空間;進化過程中,粒子基于適應(yīng)度函數(shù),根據(jù)個體和群體歷史最佳粒子位置更新速度和位置,逐漸收斂于解空間的最佳位置.

        式中,速度慣性因子ω>0;速度權(quán)重c1>0和c2>0;隨機參數(shù)r1∈[0,1]和r2∈[0,1];以最大速度vmax和最小速度vmin限制粒子移動速度范圍.

        基于二進制 PSO算法的BPSO特征選取方法將所有備選特征作為特征選取搜索空間,搜索空間中不同位置粒子對應(yīng)的特征組合.對于訓練集TrainD∈Rm xn(n個樣本、m個特征),在m維二值解空間中粒子位置分量∈{0,1}決定第d個特征的選擇狀態(tài),分量值1或0表征特征被選取或被舍棄.用S型函數(shù)將速度分量壓縮至(0,1)之間,根據(jù)式(2)確定該粒子最新位置:

        式中,rand是0到1之間的隨機數(shù)值.

        粒子適應(yīng)度函數(shù)f(Xik)以粒子對應(yīng)特征組合的類別可分性為主要參數(shù),很多文獻定義特征組合分類正確率為類別可分性,同時,將特征組合維數(shù)作為適應(yīng)度函數(shù)另一個參數(shù),使之向低維特征組合進化.進化終止時,Pg為特征解空間最佳解向量,其非零元素Pg d對應(yīng)的特征組成分類特征集合.

        3 基于近鄰信息的集成NBPSO特征選取方法

        3.1NBPSO特征選取方法

        本文提出基于近鄰信息的BPSO特征選取方法(簡稱NBPSO方法).綜合運用全局搜索和局部搜索優(yōu)勢,將粒子鄰域內(nèi)最佳個體粒子信息納入BPSO特征選取方法的粒子速度更新中,并以粒子對特征組合在同類近鄰樣本和異類同類樣本間的距離關(guān)系作為粒子適應(yīng)度函數(shù),通過粒子適應(yīng)度函數(shù)施加對粒子運動方向的影響.

        粒子群進化過程中補充粒子鄰域內(nèi)最佳粒子信息,有助于BPSO算法利用粒子的局部信息提高全局搜索能力;用適應(yīng)度函數(shù)加權(quán)粒子間“位置差異”,引導粒子向適應(yīng)度函數(shù)更大的位置移動;對適應(yīng)度函數(shù)值歸一化,既有助于均衡之間關(guān)系,又有助于平衡粒子之間“位置差異”與粒子速度之間的數(shù)值關(guān)系(見算法1).

        算法1 NBPSO 特征選取方法

        式中,n是TrainD的樣本個數(shù),Dj是第 j個樣本,nearHit表示離Dj最近的同類樣本個數(shù),nearMiss表示離樣本Dj最近的異類樣本個數(shù);表示基于粒子對應(yīng)特征組合樣本Dj與同類近鄰樣本間的歐氏距離,表示基于粒子對應(yīng)特征組合樣本Dj與異類近鄰樣本間的歐氏距離,表示粒子對應(yīng)特征組合中的特征個數(shù).

        適應(yīng)度函數(shù)以樣本與異類近鄰樣本間平均距離和樣本與同類近鄰樣本間平均距離的差值度量特征組合的類別可分性,旨在搜索類內(nèi)緊密、類間分離的特征組合.適應(yīng)度函數(shù)兼顧特征組合的類別可分性與特征組合維數(shù),有利于NBPSO方法選取類間差異性大、類內(nèi)相似度高的低維分類特征集合.

        計算樣本間距復雜度比樣本分類交叉校驗復雜度低,故NBPSO方法的算法復雜度比基于分類結(jié)果構(gòu)建適應(yīng)度函數(shù)的BPSO方法的算法復雜度低,消耗時間少.

        3.2集成NBPSO特征選取方法

        利用NBPSO方法進行集成特征選取研究(簡稱ENBPSO方法).首先,多個NBPSO特征選取過程并行進行;然后,對所選特征做加權(quán)集成,通過特征的集成權(quán)值高低確定分類特征.

        如圖1,在特征選取范圍內(nèi)并行進行N個NBPSO特征選取過程.每個NBPSO過程基于隨機產(chǎn)生的粒子群初始群體確定各自的特征搜索范圍,通過粒子與群體歷史最佳、個體鄰域內(nèi)最佳和個體歷史最佳的信息交換,調(diào)整進化速度和方向,進而獲取群體歷史最佳粒子對應(yīng)特征組合.通過特征組合集成確定特征的集成權(quán)值,選取權(quán)值高的特征作為分類特征.

        粒子群隨機初始化使每個NBPSO過程的特征搜索范圍各不相同,滿足集成方法特征選取范圍多樣性條件,有利于提高特征選取方法魯棒性和所選分類特征的分類性能.

        粒子適應(yīng)度函數(shù)式(4)前半段是粒子對應(yīng)特征組合在訓練集樣本中異類樣本之間差異性和同類樣本之間相似性的差值,定義其為NBPSO過程最佳粒子對應(yīng)特征組合Soptimal的類別可分性Div(Soptimal).根據(jù)特征組合類別可分性對N次NBPSO所得特征組合進行加權(quán)集成,集成公式為:

        以類別可分性指標加權(quán)特征組合的特征,集成后的特征權(quán)值能體現(xiàn)特征被選頻次,又反映特征在異類樣本和同類樣本間的相對差異程度,權(quán)值高的特征對分類貢獻大.然而,如何根據(jù)特征權(quán)值確定選取閾值進而選取分類特征集合目前尚無普適性標準.

        利用順序后向選?。⊿BS)方法,一次僅剔除一個特征形成嵌套的候選特征子集,然后根據(jù)特征子集評價函數(shù)從中找出尋找最佳特征集合.這種方式選取效果較好,但對于高維數(shù)據(jù)特征選取問題,這種方式計算量太大,不易現(xiàn)實.文獻[6]提出一種折中辦法,在遞歸特征剔除過程(RFE,Recursive Featrue Elimination)中,兼顧特征選取方法有效性和可行性,每次按比例選擇一部分特征作為候選特征子集.

        在RFE過程中用ENBPSO方法獲取特征集成權(quán)值,基于特征集成權(quán)值生成候選特征子集,以候選特征子集分類結(jié)果為評價函數(shù)從中選取最佳特征集合(見算法2).

        算法2 ENBPSO特征選取方法

        數(shù)據(jù)集被分為訓練集和校驗集.RFE過程中,對每個新生成候選特征子集重新并行N次NBPSO特征選取,特征的動態(tài)集成權(quán)值能客觀反映特征之間的相對重要性,有利于提高特征選取質(zhì)量.

        SVM(Support Vector Machine)分類器是Vapnik等人[6]基于結(jié)構(gòu)風險最小化原理,運用統(tǒng)計學習理論推導出的分類模型.KNN(K-Nearest Neighbor)分類器是基于近鄰思想演化而來的較為簡單分類算法[4].分類正確率體現(xiàn)基于特征子集建立的分類器對樣本的識別能力;分類AUC(Area Under roc Curve)值表示ROC(Receiver Operating Characteristics)曲線下面積[16],能客觀反映異類樣本數(shù)量不均勻時的分類結(jié)果.

        4 特征選取實驗

        將NBPSO方法、ENBPSO方法和基于SVM的BPSO方法以及SVM-RFE方法同時進行特征選取實驗,通過實驗比較4種方法在高維特征數(shù)據(jù)集上的特征選取性能. SVM-RFE方法基于SVM分類模型在RFE過程中分析特征對分類模型的影響,進而選取分類特征集合[6].為不失一般性,在5個兩類數(shù)據(jù)集上進行特征選取實驗.表1列出了DLBCL、Acute Leukemia、Multiple Myeloma、Colon和Prostate等5個基因表達譜數(shù)據(jù)集的相關(guān)參數(shù).

        表1 基因表達譜數(shù)據(jù)集

        4.1特征選取實驗參數(shù)設(shè)置

        鑒于高維數(shù)據(jù)中存在大量與類別無關(guān)的噪聲特征,在特征選取之前利用Bhattacharyya距離過濾噪聲特征.Bhattacharyya距離不但體現(xiàn)特征在不同類別樣本間的差異,還反映特征在各類樣本中的變化情況[22].

        為客觀比較4種特征選取方法性能,將數(shù)據(jù)集按3∶1∶1隨機分割為訓練集、校驗集和獨立測試集.如圖2所示,首先,根據(jù)Bhattacharyya距離過濾噪聲特征,縮小特征選取范圍:在Colon訓練集里選擇Bhattacharyya距離較大的前500個基因作為特征選取范圍;在其他4個數(shù)據(jù)集的訓練集里均以Bhattacharyya距離較大的前1000個基因為特征選取范圍.然后,4種方法基于相同訓練集、相同特征選取范圍在 RFE過程中產(chǎn)生候選特征子集:SVM-RFE方法基于特征對SVM模型的影響對特征排序,生成候選特征子集;BPSO方法以 SVM分類器在訓練集中5倍交叉校驗的分類AUC值和正確率及特征組合維數(shù)倒數(shù)為粒子個體適應(yīng)度函數(shù)值;NBPSO 和ENBPSO方法通過式(4)計算粒子個體適應(yīng)度函數(shù)值;將BPSO方法和NBPSO方法選取的特征集合作為各自下一輪特征選取過程的候選特征子集,ENBPSO方法根據(jù)算法2生成候選特征基因子集.

        4種方法以SVM和KNN分類器對相同校驗集的分類結(jié)果為評價函數(shù)從候選特征子集中選擇最佳特征集合(即分類特征集合),再以相同的獨立測試集測試分類特征集合分類能力.每種方法重復進行20次,得到20個分類特征集合,以這些特征集合在獨立測試集上分類測試的統(tǒng)計結(jié)果比較4種特征選取方法的性能.

        設(shè)置RFE過程的特征剔除率為50%,SVM核函數(shù)為線性核函數(shù),KNN分類器的K=5,即5近鄰分類.

        PSO參數(shù)是基于經(jīng)驗值基礎(chǔ)上,經(jīng)過多次試驗調(diào)試確定的.BPSO方法中PSO算法種群規(guī)模L=100,kmax=200,vmax=2,vmin=-2,c1=c2=4,ω在進化過程中從1逐漸減小至0.7.NBPSO方法中PSO算法vmax=4,vmin=-4,nearMiss=nearHit=5,其他參數(shù)與BPSO方法參數(shù)相同. ENBPSO方法設(shè)置集成規(guī)模N=20,其中NBPSO方法中PSO算法kmax=100,其他參數(shù)與單次NBPSO參數(shù)相同.

        4.2分類特征集合分類結(jié)果

        SVM-RFE方法、BPSO方法、NBPSO方法和ENBPSO方法在5個數(shù)據(jù)集上選出20個分類特征集合,它們在獨立測試集里的分類AUC值和正確率的平均值和標準差如表2所示.

        由表2知,在Multiple Myeloma數(shù)據(jù)集上,NBPSO和ENBPSO方法所選特征均正確識別所有獨立測試集樣本類別.比較4種方法所選分類特征集合的分類AUC值,在除Colon數(shù)據(jù)集外的其他4個數(shù)據(jù)集上,NBPSO和ENBPSO方法均優(yōu)于 BPSO方法和SVM-RFE方法;在DLBCL和Prostate數(shù)據(jù)集上,ENBPSO方法優(yōu)于NBPSO方法;在A-cute Leukemia和Colon數(shù)據(jù)集上,NBPSO和ENBPSO方法選取的分類特征集合的分類AUC值互有高低.比較4種方法所選分類特征集合的分類正確率,在5個數(shù)據(jù)集上,NBPSO和ENBPSO方法都優(yōu)于BPSO方法和SVM-RFE方法;在DLBCL、Colon和Prostate數(shù)據(jù)集上,ENBPSO方法優(yōu)于NBPSO方法;在Acute Leukemia數(shù)據(jù)集上,NBPSO和ENBPSO方法選取的分類特征集合的分類正確率互有高低.

        表2 分類特征集合在獨立測試集上的分類結(jié)果統(tǒng)計表

        5 特征選取方法性能比較

        5.1分類特征集合的分類性能顯著性檢驗

        基于單因素非參數(shù)方差分析Kruskal-Walls檢驗方法[23],利用MATLAB工具箱的kruskalwallis函數(shù)對4種方法所選20個分類特征集合在獨立測試集上的分類測試結(jié)果進行顯著性差異分析,以進一步比較四者性能.每個方法在每個數(shù)據(jù)集上80個獨立分類測試數(shù)據(jù)(20個SVM分類正確率、20個SVM分類AUC值、20個KNN分類正確率和20個KNN分類AUC值)組成一組. Kruskal-Walls檢驗結(jié)果如表3所示.

        表3 分類特征集合的分類性能差異性比較表

        綜合表2和表3數(shù)據(jù)可知,NBPSO方法和ENBPSO方法在5個數(shù)據(jù)集上選出的特征集合比BPSO方法和SVM-RFE方法選出的特征集合分類能力強;同時,ENBPSO方法選出的特征集合分類能力比NBPSO方法選出的特征集合分類能力略強.

        5.2特征選取方法的時間復雜度

        特征選取方法的算法復雜度決定于訓練集樣本數(shù)、特征選取范圍、評價函數(shù)等因素.粒子群算法復雜度決定于種群規(guī)模、終止條件和適應(yīng)度函數(shù)等因素.因為算法運行時間與算法復雜度成線性關(guān)系,所以相同實驗條件下不同算法消耗的時間長短可用于比較算法間的復雜度關(guān)系.表4列出4種特征選取方法從5個數(shù)據(jù)集選取20個分類特征集合所用平均時間.

        表4 特征選取方法運行時間表

        SVM-RFE方法用時最短,NBPSO方法所用時間次之,ENBPSO方法耗時最長.BPSO方法消耗的時間主要用于粒子個體適應(yīng)度函數(shù)的5倍SVM分類交叉校驗,NBPSO方法粒子個體適應(yīng)度函數(shù)基于近鄰樣本信息計算特征組合的可分性,所用計算量相對BPSO較小.ENBPSO集成方法增加的多次 NBPOS選取過程提高了特征選取算法的計算量,使之消耗了更多時間.由上,NBPSO方法復雜度比BPSO方法復雜度低;因為集成方法增加的選取過程提高了ENBPSO方法復雜度.

        5.3特征選取方法的穩(wěn)定性

        特征選取方法性能包括分類特征集合分類能力、選取方法穩(wěn)定性和消耗時間等指標.所謂穩(wěn)定性是指特征選取方法在變化的數(shù)據(jù)環(huán)境中所選分類特征集合的相對穩(wěn)定度.

        基于秩相似系數(shù)的特征選取方法穩(wěn)定度指標[15],根據(jù)4種方法20次特征選取實驗所得特征集合分析特征選取方法穩(wěn)定性.如表5所示,SVM-RFE方法的穩(wěn)定性低于其他3種方法.BPSO方法在DLBCL數(shù)據(jù)集上的穩(wěn)定性優(yōu)于NBPSO方法,而NBPSO方法在其他4個數(shù)據(jù)集上的穩(wěn)定性優(yōu)于BPSO方法.ENBPSO方法在5個數(shù)據(jù)集上的穩(wěn)定性都優(yōu)于其他3種方法,這也是集成方法用計算復雜度換來穩(wěn)定性.

        表5 特征選取方法穩(wěn)定度比較表

        隨著計算機技術(shù)特別是計算機硬件技術(shù)發(fā)展,科學家們逐漸降低對特征選取方法計算復雜度的要求,越來越關(guān)注于特征集合的分類能力和特征選取方法的穩(wěn)定性.所以,盡管ENBPSO方法在運行時間上比其他3種方法消耗多,但鑒于穩(wěn)定性方面的優(yōu)勢,ENBPSO方法會有更大應(yīng)用前景.

        6 總結(jié)

        針對高維數(shù)據(jù)結(jié)構(gòu)特點,本文提出基于近鄰信息的二進制PSO特征選取方法.將基于同類近鄰樣本和異類近鄰樣本信息定義的特征組合類別可分性作為粒子個體的適應(yīng)度函數(shù),用特征組合類別可分性加權(quán)的群體歷史最佳、粒子歷史最佳和粒子鄰域內(nèi)最佳個體信息共同指導粒子運動方向,在特征空間里搜索分類特征集合.5個高維數(shù)據(jù)集上的特征選取實驗表明基于近鄰樣本信息構(gòu)建的粒子個體適應(yīng)度函數(shù)降低了特征選取算法的復雜度;粒子鄰域內(nèi)最佳個體信息的引入提高了特征選取質(zhì)量;基于類別可分性的加權(quán)集成方法有效提高了NBPSO方法的特征選取性能.

        NBPSO方法和ENBPSO方法較好地完成了兩類樣本特征選取任務(wù),今后將通過式(4)、(5)分析多類別特征組合在類間和類內(nèi)的相對關(guān)系,進一步研究兩種方法在高維特征數(shù)據(jù)集里的多類別特征選取中的應(yīng)用.

        [1]Liu H,Sun J,Liu L,et al.Feature selection with dynamic mutual information[J].Pattern Recognition,2009,42(7):1330-1339.

        [2]鄒濤,張翠.概念級誤用檢測系統(tǒng)的認知能力研究[J].電子學報,2004,32(10):1694-1697. Zou Tao,Zhang Cui.A study on apperception ability of concept level misuse detection system[J].Acta Electronica Sinica,2004,32(10):1694-1697.(in Chinese)

        [3]李穎新,劉全金,阮曉鋼.一種腫瘤基因表達數(shù)據(jù)的知識提取方法[J].電子學報,2004,32(9):1479-1482. LI Ying-Xin,LIU Quan-jin,RUAN Xiao-gang.A method for extracting knowledge from tumor gene expression data [J].Acta Electronica Sinica,2004,32(9):1479-1482. (in Chinese)

        [4]邊肇祺,張學工.模式識別[M].北京,清華大學出版社,2004.176-203. Bian Zhaoqi,Zhang Xuegong.Pattern Recognition[M]. Beijing:Tsinghua University Publisher,2004.176-203. (in Chinese)

        [5]Zhang Daoqiang,Chen Songcan,Zhou Zhi-Hua.Constraint score:A new filter method for feature selection with pairwise constraints[J].Pattern Recognition,2008,41(5):1440-1451.

        [6]Guyon I,Weston J,Barnhil S,et al.Gene selection for cancer classification using support vector machines[J]. Machine learning,2002,46(1-3):389-422.

        [7]王樹林,王戟,陳火旺,等.腫瘤信息基因啟發(fā)式寬度優(yōu)先搜索算法研究[J].計算機學報,2008,31(4):636 -649. Wang Shulin,Wang Ji,Chen Huowang,et al.Heuristic breadth-first search algorithm for informative gene selection based on gene expression profiles[J].Chinese Journal of Computers,2008,31(4):636-649.(in Chinese)

        [8]Kennedy J,Eberhart R C.Particle swarm optimization[A]. Proceedings of International Conference on Neutral Networks IV[C].Piscataway NJ:IEEE Service Center,1995. 1942-1948.

        [9]朱大林,詹騰,張屹,等.多策略差分進化的元胞多目標粒子群算法[J].電子學報,2014,42(9):1831-1838. Zhu Da-lin,Zhan Teng,Zhang yi,et al.Cellular multi-objective particle swarm algorithm based on multi-strategy differential evolution[J].Acta Electronica Sinica,2014,42 (9):1831-1838.(in Chinese)

        [10]Kennedy J,Eberhart RC.A discrete binary version of the particle swarm algorithm[A].Proceedings of IEEE International Conference on Systems,Man,and Cybernetics [C].Washington:IEEE,1997.4104-4109.

        [11]Lin SW,Ying KC,Chen SC,et al.Particle swarm optimization for parameter determination and feature selection of support vector machines[J].Expert Systems with Applications,2008,35(4):1817-1824.

        [12]Sahua B,Mishra D.A novel feature selection algorithm using particle swarm optimization for cancer microarray data[A].Proceedings of International Conference on Modelling Optimization and Computing[C].USA:Procedia Engineering,2012,38.27-31.

        [13]李霞,張?zhí)镂?,郭?一種基于遞歸分類樹的集成特征基因選取方法[J].計算機學報,2004,27(5):675 -681. Li Xia,Zhang Tianwen,Guo Zheng.A novel ensemble of feature selection based on recursive partition-tree[J].ChineseJournal of Computers,2004,27(5):675-681.(in Chinese)

        [14]Abeel T,Helleputte T,Van de Peer Y,et al.Robust biomarker identification for cancer diagnosis with ensemble feature selection methods[J].Bioinformatics,2010,26 (3):392-298.

        [15]Saeys Y,Abeel T,Peer YV.Robust feature selection using ensemble feature selection techniques[A].Proceedings of ECML PKDD’2008,Part II[C].LNAI:Springer,2008,5212.313-325.

        [16]Provost F,F(xiàn)awcett T.Analysis and visualization of classifier performance:Comparison under imprecise class and cost distributions[A].Proceedings of 3rd International Conference on Knowledge Discovery and Data Mining [C].USA:AAAI Press,1997.43-48.

        [17]Shipp MA,Ross KN,Tamayo P,et al.Diffuse large B-cell lymphoma outcome prediction by gene-expression profiling and supervised machine learning[J].Nat Med,2002,8(1):68-74.

        [18]Golub TR,Slonim DK,Tamayo P,et al.Molecular classification of cancer class discovery and class prediction by gene expression monitoring[J].Science,1999,286 (5439):531-537.

        [19]Zhan F,Hardin J,Kordsmeier B,et al.Global gene expression profiling of multiple myeloma,monoclonal gammopathy of undetermined significance,and normal bone marrow plasma cells[J].Blood,2002,99(5):1745 -1757.

        [20]Alon U,Barkai N,Notterman DA,et al.Broad patterns of gene expression revealed by clustering analysis of tumor and normal colon tissues probed by oligonucleotide arrays [J].PNAS USA,1999,96(12):6745-6750.

        [21]Singh D,F(xiàn)ebbo PG,Ross K,et al.Gene expression correlates of clinical prostate cancer behavior[J].Cancer Cell,2002,1(2):203-209.

        [22]Liu QJ,Zhao ZM,Li YX,et al.Feature selection based on sensitivity analysis of fuzzy ISODATA[J].Neuro Computing,2012,85(1):29-37.

        [23]周品.MATLAB概率與數(shù)理統(tǒng)計[M].北京:清華大學出版社,2012.267-270. Zhou Pin.MATLAB Probability and Mathematical Statistics[M].Beijing:Tsinghua University Publisher,2012. 267-270.(in Chinese)

        劉全金 男,1971年12月生于安徽六安,南京航空航天大學理學院博士研究生,安慶師范學院教授,主要研究方向:機器學習、信息處理.

        E-mail:liuquanjing666@126.com

        趙志敏(通信作者) 女,1955年3月生于遼寧沈陽,南京航空航天大學理學院教授,主要研究方向:現(xiàn)代測量與控制技術(shù)、智能計算.

        E-mail:nuaazhzhm@126.com

        李穎新 男,1972年9月生于河北遷安,北京經(jīng)緯紡機新技術(shù)有限公司高級工程師,博士,主要研究方向:機器視覺、機器學習與數(shù)據(jù)挖掘、生物信息學.

        E-mail:linterlee@126.com

        俞曉磊 男,1981年10月生于江蘇南京,江蘇省標準化研究院高級工程師、南京理工大學博士后,主要研究方向:通信與射頻信號處理、電子信號檢測技術(shù).

        E-mail:nuaaxiaoleiyu@126.com

        Ensemble Feature Selection Method Based on Neighborhood Information and PSO Algorithm

        LIU Quan-jin1,2,ZHAO Zhi-min1,LI Ying-xin3,4,YU Xiao-lei5

        (1.College of Science,Nanjing University of Aeronautics and Astronautics,Nanjing,Jiangsu 210016,China;2.Department of Physics,Anqing Normal College,Anqing,Anhui 246011,China;3.Beijing Jingwei Textile Machinery New Technology Co Ltd,Beijing 100176,China;4.Beijing Light Industry and Textile Machinery Engineering Research Center for Machine Vision,Beijing 100176,China;5.Jiangsu Institute of Standardization,Nanjing,Jiangsu 210029,China)

        A new PSO algorithm is proposed in this paper for feature selection.Distances within the same class and between different classes are used as the index for distinguishing different classes,and thus can be used to construct the fitness function of particles in PSO.The direction of particles for searching optimal features which can result in close intra-class distance and far inter-class distance is determined by the current best solution of the particle and the optimal individual in particle neighborhood,weighted by the fitness function.Meanwhile,the PSO algorithm is aggregated by the weighted voting method to improve its stability and robustness.The experiment results on 5 high dimensional datasets show that the ensemble PSO algorithm is effective and feasible.

        feature selection;PSO(particle swarm optimization);ensemble method;classification

        TP391

        A

        0372-2112(2016)04-0995-08

        電子學報URL:http://www.ejournal.org.cn 10.3969/j.issn.0372-2112.2016.04.034

        2014-10-24;

        2014-12-16;責任編輯:孫瑤

        國家自然科學基金(No.61475071,No.61173068,No.10172043);教育部博士點基金(No.20093218110024);江蘇省自然科學基金青年基金(No.BK20141032);國家質(zhì)檢總局科技項目(No.2013QK194);安徽省自然科學基金(No.1608085QF157)

        猜你喜歡
        集上復雜度適應(yīng)度
        改進的自適應(yīng)復制、交叉和突變遺傳算法
        計算機仿真(2022年8期)2022-09-28 09:53:02
        Cookie-Cutter集上的Gibbs測度
        鏈完備偏序集上廣義向量均衡問題解映射的保序性
        一種低復雜度的慣性/GNSS矢量深組合方法
        復扇形指標集上的分布混沌
        求圖上廣探樹的時間復雜度
        基于空調(diào)導風板成型工藝的Kriging模型適應(yīng)度研究
        中國塑料(2016年11期)2016-04-16 05:26:02
        某雷達導51 頭中心控制軟件圈復雜度分析與改進
        出口技術(shù)復雜度研究回顧與評述
        少數(shù)民族大學生文化適應(yīng)度調(diào)查
        音影先锋中文字幕在线| 国产成人cao在线| 91亚洲国产成人久久精品网站| 国产亚洲精品av一区| 亚洲精品乱码8久久久久久日本| 激情97综合亚洲色婷婷五| 国产桃色精品网站| 国产一区二区三区 在线观看 | 免费看男女做羞羞的事网站| 亚洲精品久久无码av片软件| 一本加勒比hezyo无码视频| 色婷婷一区二区三区久久亚洲| 亚洲精品久久激情国产片| 日韩无套内射视频6| 久久国产精品免费一区六九堂| 日韩精品一区二区亚洲观看av| 99久久久无码国产精品秋霞网| 天天爽天天爽天天爽| 午夜无码国产18禁| 一区二区三区在线视频观看| 国产乱子伦农村xxxx| 国产精品一区高清在线观看| 女同视频网站一区二区| 国产欧美综合一区二区三区| 水蜜桃无码视频在线观看| 真实国产网爆门事件在线观看| 亚洲乱码av一区二区蜜桃av| 玩弄白嫩少妇xxxxx性| AV无码最在线播放| 日本红怡院东京热加勒比| 成人日韩精品人妻久久一区| 国精品无码一区二区三区在线| 久久久久久无中无码| 日本精品一级二区三级| 亚洲国产精品国自产拍av| 国产精品无码一区二区在线国| 一本色道久久88综合亚精品| 最新欧美精品一区二区三区| 亚洲xxxx做受欧美| av在线免费观看你懂的| 亚洲蜜臀av一区二区三区|