亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        陰影集的模糊支持向量機(jī)樣本選擇方法

        2012-07-19 05:48:20蘇小紅趙玲玲馬培軍
        關(guān)鍵詞:方法

        蘇小紅,趙玲玲,謝 琳,馬培軍

        (哈爾濱工業(yè)大學(xué)計(jì)算機(jī)科學(xué)與技術(shù)學(xué)院,150001 哈爾濱)

        陰影集的模糊支持向量機(jī)樣本選擇方法

        蘇小紅,趙玲玲,謝 琳,馬培軍

        (哈爾濱工業(yè)大學(xué)計(jì)算機(jī)科學(xué)與技術(shù)學(xué)院,150001 哈爾濱)

        樣本選擇可以提高模糊支持向量機(jī)訓(xùn)練速度并在一定程度上提高其抗噪能力,但存在有效樣本選擇困難和選樣率高的問題,利用陰影集對(duì)模糊集的分析能力,提出一種新的基于陰影集的模糊支持向量機(jī)樣本選擇方法,將模糊集合劃分為可信任、不可信任及不確定3個(gè)子集,僅在可信任和不確定子集中選樣,并分別采用子空間樣本選擇和邊界向量提取的方法選樣.實(shí)驗(yàn)結(jié)果表明,該方法在保持分類器泛化能力的前提下可以有效降低選樣率和訓(xùn)練時(shí)間.因該方法去除了樣本中的不可信任數(shù)據(jù),所以當(dāng)訓(xùn)練樣本中含有噪聲時(shí),還可以有效提高分類器的分類性能.

        模糊支持向量機(jī);樣本選擇;陰影集

        系統(tǒng)的性能退化狀態(tài)識(shí)別是智能維護(hù)(Intelligent Maintenance System,IMS)[1]系統(tǒng)的核心之一.目前,系統(tǒng)的退化狀態(tài)識(shí)別方法主要有3類[2].基于模型的方法因系統(tǒng)的性能退化機(jī)理復(fù)雜、很難建立退化模型,而實(shí)際應(yīng)用價(jià)值不大[3].神經(jīng)網(wǎng)絡(luò)雖應(yīng)用廣泛,但因系統(tǒng)結(jié)構(gòu)復(fù)雜,識(shí)別過程受很多因素的影響[4],因此,識(shí)別退化狀態(tài)時(shí),易發(fā)生“維度災(zāi)難”問題[5].支持向量機(jī)(Support Vector Machine,SVM)由 V.Vapnik[6]于 1995 年提出,該方法建立在結(jié)構(gòu)風(fēng)險(xiǎn)最小化的基礎(chǔ)上,有良好的泛化能力,能較好的解決小樣本、非線性、高維度問題,因此廣泛應(yīng)用于故障識(shí)別中.

        將SVM用于退化狀態(tài)識(shí)別主要有兩個(gè)難點(diǎn):首先,訓(xùn)練集中人工標(biāo)定的退化狀態(tài)中可能會(huì)有錯(cuò)誤標(biāo)定,即訓(xùn)練集中存在噪聲,因此,應(yīng)提高SVM的抗噪能力.其次,系統(tǒng)的退化數(shù)據(jù)較多,因此,應(yīng)提高SVM在大樣本上的訓(xùn)練速度.

        實(shí)際上,系統(tǒng)的退化是一個(gè)連續(xù)的過程,明確標(biāo)定每個(gè)樣本點(diǎn)的狀態(tài)是不合理的,因此,退化狀態(tài)識(shí)別應(yīng)使用模糊支持向量機(jī)(Fuzzy Support Vector Machine,F(xiàn)SVM)[7].樣本選擇是減少 FSVM訓(xùn)練時(shí)間,一定程度提高其抗噪能力的一個(gè)有效且直接的方法.

        本文利用陰影集[8-9]對(duì)模糊集的分析能力,提出一種基于陰影集劃分的FSVM樣本選擇方法,在不同置信區(qū)間采用不同的樣本選擇方法.實(shí)驗(yàn)表明,該方法在保證FSVM泛化能力的前提下,大大減少了訓(xùn)練時(shí)間,還提高了含噪聲數(shù)據(jù)的FSVM的預(yù)測(cè)精度.

        1 傳統(tǒng)SVM與FSVM樣本選擇方法

        傳統(tǒng)SVM的樣本選擇方法大致包含以下3種:隨機(jī)選樣的方法[10]、保留典型樣本的方法[11-12]、保留支持向量的方法[13-15].其中,保留典型樣本方法主要采用的是對(duì)樣本進(jìn)行聚類,保留聚類中心為典型樣本的策略.保留SVM的方法中,文獻(xiàn)[15]主要研究的是可分支持向量機(jī)的樣本選擇方法,該方法是所有的樣本選擇方法中,選樣率最低的一種方法,且能保證選樣后SVM的泛化能力.

        FSVM與傳統(tǒng)SVM的最大區(qū)別在于其訓(xùn)練樣本含有模糊隸屬度.隨機(jī)選樣方法可直接應(yīng)用于FSVM,但不能保證選樣后FSVM的泛化能力.模糊隸屬度是樣本點(diǎn)的重要信息,而保留典型樣本的方法是根據(jù)樣本點(diǎn)的位置信息決定典型樣本,因此選出的典型樣本在模糊集中并不一定是典型的.FSVM中,模糊隸屬度不同的樣本點(diǎn),分類面對(duì)它們的容忍程度是不一樣.而支持向量是由樣本點(diǎn)到分界面的距離以及樣本點(diǎn)的模糊隸屬度共同決定的.FSVM中,可以確定的非支持向量只有類別中心所在的樣本點(diǎn),以及相較與類別中心,距離另一類更遠(yuǎn)的點(diǎn).文獻(xiàn)[16]就是基于這個(gè)思想,提出了基于邊界向量提取的模糊支持向量機(jī).但該方法的選樣率較高,理論上需選擇1/2的樣本.

        對(duì)模糊集直接進(jìn)行樣本選擇是很困難的,因此,挖掘出模糊集中的確定信息,從而將傳統(tǒng)SVM的樣本選擇方法應(yīng)用于FSVM中,是非常有意義的.

        2 模糊集

        定義1(模糊集)[17]設(shè)A是論域X到[0,1]上的一個(gè)映射關(guān)系,即

        則稱A是X上的模糊集.

        定義2(模糊隸屬度) 式(1)中,A(x)稱為x對(duì)模糊集A的模糊隸屬度,或直接稱其為模糊集的隸屬函數(shù).

        以下,記X上全體模糊集所構(gòu)成的集合為F(X).如果,A ∈ F(X),且 A:X → {0,1},則 A 為經(jīng)典集,記為A∈P(X).

        定義3(模糊度) 若映射

        滿足條件:

        1)當(dāng)且僅當(dāng)A∈P(X)時(shí),d(A)=0;

        2)當(dāng)且僅當(dāng)A(x)≡0.5時(shí),d(A)=1;

        3)對(duì)于?x∈X,當(dāng)B(x)≤A(x)≤0.5時(shí),d(B)≤d(A);

        4)對(duì)于A∈F(X),有d(A)=d(Ac).

        則稱映射d為F(X)上的一個(gè)模糊度,d(A)為模糊集A的模糊度.

        常用的幾種模糊度計(jì)算公式如下:

        令 A={(x1,A(x1)),(x2,A(x2)),…,(xn,A(xn))}表示一個(gè)模糊集.

        模糊集A的Hamming模糊度為

        模糊集A的Euclid模糊度為

        雖然Hamming模糊度的計(jì)算簡(jiǎn)單,但誤差較大.Euclid模糊度相比于 Hamming模糊度更準(zhǔn)確.因此本文采用Euclid作為度量模糊集合的模糊度.

        3 陰影集

        陰影集由W.Pedrycz于1998年提出,它主要用于解決模糊邏輯中的一個(gè)矛盾問題:用確定的模糊隸屬度來描述不確定的集合.陰影集的一個(gè)主要依據(jù)是,模糊集中隸屬度為0.5附近的樣本,其類別信息很難確定,而隸屬度接近于1或隸屬度接近于0的樣本,其類別信息是可確定的.因此,陰影集映射將隸屬度足夠高的樣本的隸屬度提高為1,將隸屬度足夠低的樣本的隸屬度降低為0,而將其他樣本的隸屬度放寬為[0,1]區(qū)間.從而實(shí)現(xiàn)提取出了模糊集中的確定信息.

        從模糊集到陰影集實(shí)質(zhì)上是一個(gè)三值映射.

        式中:A為模糊樣本集;Ψ為由模糊集到陰影集的映射,稱為模糊映射;α為確定陰影集劃分的閾值;映射Ψ將模糊隸屬度 <α的樣本映射為0;模糊隸屬度 >1-α的樣本映射為1;其余樣本映射為(0,1).

        在陰影集的基礎(chǔ)上,本文提出可信任數(shù)據(jù)、不確定數(shù)據(jù)以及不可信任數(shù)據(jù)的概念.利用陰影集映射將原有的模糊集進(jìn)行區(qū)域劃分.

        定義4(可信任數(shù)據(jù)) 對(duì)于?(x,A(x))∈A,A為模糊集,A(x)稱為x對(duì)模糊集A的模糊隸屬度.

        則稱x為可信任數(shù)據(jù).

        定義5(不可信任數(shù)據(jù)) 對(duì)于?(x,A(x))∈A,A為模糊集,A(x)稱為x對(duì)模糊集A的模糊隸屬度.

        則稱x為不可信任數(shù)據(jù).

        定義6(不確定數(shù)據(jù)) 對(duì)于?(x,A(x))∈A,A為模糊集,A(x)稱為x對(duì)模糊集A的模糊隸屬度.

        則稱x為不確定數(shù)據(jù).

        4 基于陰影集劃分的樣本選擇方法

        4.1 劃分閾值的確定

        閾值的確定是陰影集劃分中最關(guān)鍵的一步,合理的閾值選擇是后續(xù)分區(qū)域樣本選擇方法正確性的保證.

        文獻(xiàn)[8-9]在給出陰影集定義的同時(shí),也給出了劃分閾值的確定原則:由模糊集到陰影集的映射應(yīng)該保持整個(gè)集合不確定性的平衡.映射后,模糊集中隸屬度 <α的樣本點(diǎn)和隸屬度 >1-α的樣本點(diǎn)的不確定性都消除了,這部分的變化應(yīng)該由陰影集(即本文定義的不確定數(shù)據(jù)集合)來補(bǔ)償.這里,不確定性是由樣本點(diǎn)的模糊隸屬度來衡量的.

        理論上,如果已知模糊集的隸屬度函數(shù)且知道樣本點(diǎn)的分布,在樣本點(diǎn)無窮時(shí),不確定性的平衡是可以達(dá)到的.但實(shí)際樣本點(diǎn)的分布是很難預(yù)知的,僅知有限點(diǎn)的模糊隸屬度,這時(shí),可能找不到一個(gè)閾值,可保持不確定性的平衡.因此,劃分的閾值一般取使不確定性改變最小的值.由此,得到閾值α的確定公式為

        上述閾值確定的方法存在一定的問題.首先,模糊理論中,集合的模糊性是由模糊度來衡量的.由文獻(xiàn)[8-9]提出的對(duì)模糊集不確定性的度量實(shí)際上是沒有歸一化的Hamming模糊度的計(jì)算,但是文獻(xiàn)[17]中指出,Hamming模糊度的計(jì)算有很大的誤差,這會(huì)給實(shí)際計(jì)算的閾值帶來很大的誤差.它可能使計(jì)算的閾值小于實(shí)際的閾值,也可能使計(jì)算的閾值大于實(shí)際的閾值.實(shí)際上,這是和樣本本身的分布有關(guān)的.其次,文獻(xiàn)[8-9]以不確定數(shù)據(jù)集合來衡量映射后集合不確定性的減少是不合理的.實(shí)際上,不確定數(shù)據(jù)對(duì)應(yīng)的模糊集中的樣本,其不確定性本身就很大,雖然映射后,會(huì)增加這部分?jǐn)?shù)據(jù)的不確定性,但是這個(gè)增量是<1的.這個(gè)部分的計(jì)算也會(huì)產(chǎn)生較大的誤差,并且,這個(gè)誤差會(huì)使計(jì)算的閾值比實(shí)際的閾值大.

        本文指出,由模糊集到陰影集的映射應(yīng)該保持集合的模糊度不變.在此基礎(chǔ)上,給出新的閾值計(jì)算為

        式中:d(A)、d(B)分別為模糊集A及其對(duì)應(yīng)的陰影集B的模糊度.

        模糊集中隸屬度為0.5的樣本,樣本信息是完全未知,與陰影集中不確定數(shù)據(jù)的含義相同,因此,本文將不確定數(shù)據(jù)模糊度的計(jì)算等同于模糊集中隸屬度為0.5的樣本的模糊度的計(jì)算.由此,給出劃分閾值為

        由式(2)知,劃分閾值只是用于對(duì)模糊樣本的模糊隸屬度進(jìn)行劃分,因此,這里劃分閾值可僅考慮有限種情況,它是由樣本的隸屬度決定的.

        給定模糊集A,劃分閾值的取值集合為

        分析可知,隨著所選閾值α的增大,不確定數(shù)據(jù)會(huì)逐漸減少,對(duì)應(yīng)的陰影集的模糊度會(huì)由1逐漸減少為0.即隨著閾值α的增大,V(α)會(huì)先增大后減小.因此,當(dāng)本文從小到大計(jì)算每一個(gè)α對(duì)應(yīng)的V(α)時(shí),只要在某一次計(jì)算中,V(α)的值變大,就可以認(rèn)定之后V(α)會(huì)逐步增加,最佳閾值即是上次計(jì)算中的α.

        本文給出的計(jì)算最佳閾值的算法如圖1所示.

        圖1 最佳閾值的計(jì)算算法

        可以看到,在對(duì)blongs[]進(jìn)行排序后,最多掃描blongs[]一遍,因此,搜索最佳閾值的時(shí)間復(fù)雜度為O(n),算法的時(shí)間復(fù)雜度為O(nlg n).

        4.2 可信任數(shù)據(jù)集合的樣本選擇方法

        可信任數(shù)據(jù)集合采用子樣本空間樣本選擇的方法.這里的子空間指的是已選數(shù)據(jù)集張成的空間.該方法是一種類內(nèi)迭代的選樣方法,每次迭代中選擇距離子空間最遠(yuǎn)的樣本點(diǎn)添加到已選數(shù)據(jù)集中,直到滿足誤差界或選樣個(gè)數(shù).本質(zhì)上說,該方法是對(duì)原樣本集空間維數(shù)的一個(gè)快速逼近,選樣個(gè)數(shù)最多是特征空間的維數(shù).該方法不能完全逼近原數(shù)據(jù)集的凸包,即不能找到可信任數(shù)據(jù)中的所有支持向量,但實(shí)際中并不需要精確逼近原數(shù)據(jù)集的凸包就能保證支持向量機(jī)的泛化能力.

        4.3 不確定數(shù)據(jù)集合的樣本選擇方法

        不確定數(shù)據(jù)集合采用基于邊界向量提取方法進(jìn)行樣本選擇.首先,該方法利用支持向量描述的方法確定類別的中心,認(rèn)為這兩個(gè)中心肯定不是支持向量;然后以這兩個(gè)中心的連線為直徑確定一個(gè)圓,并定義圓內(nèi)的樣本為邊界向量.模糊支持向量機(jī)的支持向量肯定位于圓內(nèi),選擇邊界向量進(jìn)行訓(xùn)練,因此減少了訓(xùn)練時(shí)間.

        4.4 基于陰影集劃分的樣本選擇方法

        本文提出的樣本選擇基本流程如圖2所示.其基本思路為:先利用陰影集思想判定模糊集中的樣本是可信任、不可信任還是不確定數(shù)據(jù);其次,由于可信任數(shù)據(jù)是樣本集中可確定類別的樣本,兩類的可信任數(shù)據(jù)集是可分的.因此,對(duì)可信任數(shù)據(jù)集采用子空間樣本選擇方法,對(duì)不確定數(shù)據(jù)采用邊界向量提取方法;最后將兩部分樣本合并得到最終的精簡(jiǎn)模糊樣本集.

        5 模糊隸屬度的確定

        本文在文獻(xiàn)[18]的基礎(chǔ)上,修改隸屬度映射公式為

        式中:ξi為某樣本點(diǎn)的模糊隸屬度;di為該樣本點(diǎn)距離該類中心的距離;r為包含該類大多數(shù)樣本點(diǎn)的最小超球的半徑;λ為最小包圍球內(nèi)外樣本點(diǎn)的臨界隸屬度,一般取為0.4;σ1、σ2分別為控制隸屬度變化范圍的一個(gè)尺度因子,這里分別取為2.0和4.0.

        圖2 基于陰影集劃分的樣本選擇的流程

        6 實(shí)驗(yàn)結(jié)果與分析

        實(shí)驗(yàn)在Pentium IV 1.6 GHz CPU,1.00 GB內(nèi)存的PC上執(zhí)行.為方便比較,F(xiàn)SVM中,核函數(shù)取為徑向基函數(shù),F(xiàn)SVM都為C-FSVM模型.參數(shù)利用libsvm[19]工具包選取對(duì)傳統(tǒng)SVM分類效果最好的參數(shù)形式.

        6.1 實(shí)驗(yàn)1:仿真數(shù)據(jù)實(shí)驗(yàn)

        為直觀給出本文方法選樣點(diǎn)的位置信息,該實(shí)驗(yàn)主要分析2維數(shù)據(jù)的線性不可分問題.由MATLAB生成的兩類分布不同的隨機(jī)數(shù).正類和反類分別為以[0.25,0.50]和[0.75,0.50]為期望的50個(gè)二維正態(tài)隨機(jī)數(shù)集合.

        訓(xùn)練樣本點(diǎn)及數(shù)據(jù)劃分如圖3所示.集合中樣本點(diǎn)按照上述模糊隸屬度公式確定樣本的隸屬度.求解出最優(yōu)的劃分閾值后,就得到了對(duì)應(yīng)的陰影集.可見,兩個(gè)類的可信任數(shù)據(jù)是可分的,不確定數(shù)據(jù)在可信任數(shù)據(jù)外圍,有部分的交叉.不可信任數(shù)據(jù)則是離中心較遠(yuǎn)的數(shù)據(jù),可視為噪聲,直接舍去.在兩類中,一部分樣本點(diǎn)遠(yuǎn)離另一類,也被認(rèn)為是不可信任數(shù)據(jù)而舍棄了.這是因?yàn)槟:`屬度是按樣本點(diǎn)到類中心的距離計(jì)算的,這部分?jǐn)?shù)據(jù)離中心較遠(yuǎn),被賦予了較小的模糊隸屬度.但由于這部分?jǐn)?shù)據(jù)肯定不是支持向量,不管其舍棄與否,都對(duì)FSVM的訓(xùn)練結(jié)果沒有影響.

        圖3 訓(xùn)練樣本點(diǎn)及數(shù)據(jù)劃分圖

        選樣前后分類效果對(duì)比如圖4所示.圖中,較細(xì)的線表示選樣前樣本訓(xùn)練得到的分類面,較粗的線表示選樣后樣本訓(xùn)練得到的分類面.從分類效果上來看,用原模糊集進(jìn)行訓(xùn)練得到的分類面較好,錯(cuò)分了9個(gè)樣本點(diǎn),選樣后的樣本訓(xùn)練得到的分類面錯(cuò)分了10個(gè)樣本點(diǎn).從泛化能力上來看,實(shí)際的分類面應(yīng)該是過(0.5,0)的垂直線.選樣后的樣本點(diǎn)訓(xùn)練得到的分類面要稍優(yōu)于不選樣訓(xùn)練得到的分類面.

        圖4 選樣前后分類效果對(duì)比

        6.2 實(shí)驗(yàn)2:真實(shí)數(shù)據(jù)集實(shí)驗(yàn)

        本文選擇 Statlog[20]中的 german.numer數(shù)據(jù)集,對(duì)數(shù)據(jù)歸一化后,計(jì)算模糊隸屬度,得到需要的模糊集.

        6.2.1 子實(shí)驗(yàn)1:閾值比較

        這里,模糊度的計(jì)算分別采用Hamming和Euclid兩種方法.文獻(xiàn)[9]和本文方法得到的閾值如表1所示.

        表1 閾值比較

        可以看到,文獻(xiàn)[9]確定的閾值比本文確定的閾值要大,映射增大了集合的模糊度.

        6.2.2 子實(shí)驗(yàn)2:可信任數(shù)據(jù)選樣數(shù)對(duì)結(jié)果的影響

        對(duì)可信任數(shù)據(jù),選樣的最大數(shù)量是人為定義的.不難發(fā)現(xiàn),隨著選擇樣本的最大數(shù)量的增大,對(duì)測(cè)試集的識(shí)別率會(huì)提高,但選樣時(shí)間也會(huì)增大.每類樣本的最大選樣數(shù)量和預(yù)測(cè)精度的關(guān)系如圖5所示.

        圖5 可信任數(shù)據(jù)集選樣數(shù)與預(yù)測(cè)精度關(guān)系

        這里,原樣本訓(xùn)練得到的FSVM的預(yù)測(cè)精度為73.273 3%.可以看出,對(duì)可信任數(shù)據(jù),當(dāng)每類最大選樣點(diǎn)逐漸增加時(shí),預(yù)測(cè)的正確率呈上升趨勢(shì),并且對(duì)于german.numer數(shù)據(jù)集,當(dāng)每類選樣數(shù)為18時(shí),對(duì)測(cè)試集的預(yù)測(cè)精度最高.其后,隨著選樣數(shù)的增加,預(yù)測(cè)精度基本保持.可以認(rèn)為,對(duì)可信任數(shù)據(jù),只要一個(gè)很小的選樣數(shù),就能保證預(yù)測(cè)的精度.

        當(dāng)每類選樣數(shù)為18時(shí),利用本文方法進(jìn)行樣本選擇的時(shí)間為0.031 s,挑選后的樣本利用FSVM訓(xùn)練的時(shí)間為0.032 s,該方法的總時(shí)間為0.063 s.而不進(jìn)行樣本選擇的訓(xùn)練FSVM的時(shí)間為0.3 s.可見選樣后大大減少了樣本的訓(xùn)練時(shí)間.

        6.3 實(shí)驗(yàn)3:結(jié)果分析

        實(shí)驗(yàn) 采 用 的 數(shù) 據(jù) 集 包 括 TKH96a[21]中fourclass,Statlog 中的 german.numer,NIPS 2003 Feature Selection Challenge[22]中的 gisetts.數(shù)據(jù)集說明如表2所示.

        表2 數(shù)據(jù)集說明

        這里主要從預(yù)測(cè)精度以及運(yùn)行時(shí)間上驗(yàn)證本文算法的有效性.實(shí)驗(yàn)比較了選樣前后,訓(xùn)練FSVM的時(shí)間,以及對(duì)測(cè)試集的預(yù)測(cè)精度.這里,選樣率指選擇的樣本數(shù)占原模糊集樣本數(shù)的比例.實(shí)驗(yàn)結(jié)果如表3所示.

        表3 實(shí)驗(yàn)對(duì)比結(jié)果

        對(duì)fourclass數(shù)據(jù)集的可信任數(shù)據(jù),當(dāng)每類最大選樣數(shù)為23時(shí),預(yù)測(cè)準(zhǔn)確率為100%;當(dāng)每類最大選樣數(shù)為16時(shí),預(yù)測(cè)準(zhǔn)確率為99.651 6%(錯(cuò)誤預(yù)測(cè)一個(gè)樣本).對(duì)可信任數(shù)據(jù),若每類選樣16個(gè),則在基本保持預(yù)測(cè)精度的前提下,還可進(jìn)一步減少運(yùn)行時(shí)間.

        一般來說,邊界向量提取的方法的選樣率在0.5左右,本文提出的方法將選樣率降低至0.2左右,大大降低了選樣率.可以看出,采用本文方法,可大大減少FSVM的訓(xùn)練時(shí)間,且能保證預(yù)測(cè)的準(zhǔn)確率.

        7 結(jié)論

        1)利用陰影集的思想挖掘中的確定信息,將SVM的樣本選擇方法應(yīng)用于FSVM中,大大減少了選樣率.

        2)給出了新的陰影集閾值確定方法,并給出了基于陰影集的模糊支持向量機(jī)樣本選擇算法.

        3)實(shí)驗(yàn)表明,本文提出的選樣方法在保證FSVM的泛化能力的前提下,大大降低了選樣率,減少了FSVM的訓(xùn)練時(shí)間.

        [1]LEE J.Measurement of machine performance degradation using a neural network model[J].Computers in Industry,1996,30(3):193-209.

        [2]郭磊,陳進(jìn).設(shè)備性能退化評(píng)估與預(yù)測(cè)研究綜述[J].振動(dòng)與沖擊,2008,27(S):139 -142.

        [3]VENKATASUBRAMANIAN V,RENGASWAMY R,YIN K,et al.A review of process fault detection and diagnosis part I:quantitative model-based methods[J].Computers and Chemical Engineering,2003,27(3):293-311.

        [4]柴天佑,丁進(jìn)良,王宏,等.復(fù)雜工業(yè)過程運(yùn)行的混合智能優(yōu)化控制方法[J].自動(dòng)化學(xué)報(bào),2008,34(5):505-515.

        [5]呂琛,王桂增,張澤宇.PWM型VLSI神經(jīng)網(wǎng)絡(luò)在故障診斷中的應(yīng)用[J].自動(dòng)化學(xué)報(bào),2005,31(2):195-201.

        [6]VAPNIK V.The nature of statistical learning theory[M].New York:Springer,1995.

        [7]LIN Chunfu,WAN Shengde.Fuzzy support vector machine[J].IEEE Trans.on Neural Networks,2002,13(2):464-471.

        [8]PEDRYCZ W.Shadowed sets:representing and processing fuzzy sets[J].IEEE Trans on Systems,Man and Cybernetics— Part B:Cybernetics,1998,28(1):103-109.

        [9]PEDRYCZ W.From fuzzy sets to shadowed sets:interpretation and computing[J].International Journal of Intelligence System,2009,24(1):48-61.

        [10]LEE Y J,MANGASARIAN O L.RSVM:reduced support vector machines[R].Wiscosin:University of Wisconsin,2000.Chicago,2001.

        [11]ZHENG Songfeng,LU Xiaofeng,ZHENG Nanning,et al.Unsupervised clustering based reduced support vector machine[C]//Proceeding of IEEE International Conference on Acoustics,Speech,and Signal Processing(ICASSP).Piscataway,NJ:IEEE,2003:821 -824.

        [12]ALMEIDA M B,BRAGA A P,BRAGA J P.Svm-km:speeding svms learning with a priori cluster selection and k-means[C]//Proceeding of the 6th Brazilian Symposium on Neural Networks.Washington,DC:IEEE Computer Society,2000:162-167.

        [13]李紅蓮,王春花,袁保宗,等.針對(duì)大規(guī)模訓(xùn)練集的支持向量機(jī)學(xué)習(xí)策略[J].計(jì)算機(jī)學(xué)報(bào),2004,27(5):140-144.

        [14]LI Yuangui,HU Zhonghui,CAI Yunza,et al.Support vector based prototype selection method for nearest neighbor rules [M].Berlin,Germany:Springer,2005:528-535.

        [15]姜文瀚.模式識(shí)別中的樣本選擇研究及應(yīng)用[D].南京:南京理工大學(xué),2007.

        [16]吳青,劉三陽,杜喆.基于邊界向量提取的模糊支持向量機(jī)方法[J].模式識(shí)別與人工智能,2008,21(3):332-337.

        [17]胡寶清.模糊理論基礎(chǔ)[M].武漢:武漢大學(xué)出版社,2004.

        [18]張翔,肖小玲,徐光祐.基于樣本之間緊密度的模糊支持向量機(jī)方法[J].軟件學(xué)報(bào),2006,17(5):951-958.

        [19]CHANG Chih-chung,LIN Chih-jen.LIBSVM:a library for support vector machines[J].ACM Transactions on Intelligent Systems and Technology,2011,2(3):27.

        [20]BRAZDIL P.Statlog dataset[EB/OL].http://www.liacc.up.pt/ML/old/statlog/datasets.html.

        [21]HO T K,KLEINBERG E M.Building projectable classifiers of arbitrary complexity[C]//Proceedings of the 13th International Conference on Pattern Recognition.Washington,DC:IEEE Computer Society,1996:880 -885.

        [22]GUYON I,GUNN S,HUR A B,et al.Result analysis of the NIPS 2003 feature selection challenge[J].Neural Information Processing Systems,2005,(17):545 -552.

        Shadowed sets-based sample selection method for fuzzy support vector machine

        SU Xiao-hong,ZHAO Ling-ling,XIE Lin,MA Pei-jun

        (School of Computer Science and Technology,Harbin Institute of Technology,150001 Harbin,China)

        Sample selection can speed up the training of Fuzzy Support Vector Machine(SVM).However,it is difficult to select effective sample and the selection ratio is very high.This paper proposes a new sample selection method for Fuzzy SVM based on shadowed sets.We divide the fuzzy sets into three subsets,i.e.trustable data sets,trustless data sets and uncertain data sets.The samples are only selected in trustable data sets and uncertain data sets by using the subspace selection algorithm and the border vector extraction method respectively.Experimental results show that the training time and selection ratio is significantly reduced without any decrease in generalization ability by using the samples chosen by the proposed method.Furthermore,it improves the prediction performance of the classifiers when the data sets contain noises.

        fuzzy support vector machine;sample selection;shadowed sets

        TP183

        A

        0367-6234(2012)09-0078-07

        2011-05-24.

        國家自然科學(xué)基金資助項(xiàng)目(61175027).

        蘇小紅(1966—),女,教授,博士生導(dǎo)師;

        馬培軍(1963—),男,教授,博士生導(dǎo)師.

        蘇小紅,sxh@hit.edu.cn.

        (編輯 張 紅)

        猜你喜歡
        方法
        中醫(yī)特有的急救方法
        中老年保健(2021年9期)2021-08-24 03:52:04
        高中數(shù)學(xué)教學(xué)改革的方法
        化學(xué)反應(yīng)多變幻 “虛擬”方法幫大忙
        變快的方法
        兒童繪本(2020年5期)2020-04-07 17:46:30
        學(xué)習(xí)方法
        可能是方法不對(duì)
        用對(duì)方法才能瘦
        Coco薇(2016年2期)2016-03-22 02:42:52
        最有效的簡(jiǎn)單方法
        山東青年(2016年1期)2016-02-28 14:25:23
        四大方法 教你不再“坐以待病”!
        Coco薇(2015年1期)2015-08-13 02:47:34
        賺錢方法
        国产精品日日做人人爱| 国内精品一区二区2021在线 | 国产乱子伦精品免费女| 人妻av一区二区三区高| 看黄网站在线| 亚洲国产精品综合久久网络 | 8ⅹ8x擦拨擦拨成人免费视频| 久久精品99国产精品日本| 自拍视频在线观看国产| 日韩在线永久免费播放| 中文人妻无码一区二区三区在线| 97精品国产91久久久久久久 | 亚洲天堂av免费在线| 国产人妻熟女高跟丝袜| 中文字幕一区二区人妻性色| 欧美日韩国产专区| 日韩精品一级在线视频| 老鲁夜夜老鲁| 久久久噜噜噜www成人网| 亚洲国产一区二区三区最新| 亚洲一区在线二区三区| 男人扒开女人双腿猛进视频| 国产精品成人一区二区三区| 国产极品视觉盛宴在线观看| 国产成人精品日本亚洲18| 两个人免费视频大全毛片| 国产交换精品一区二区三区| 乱子伦一区二区三区| 日本丶国产丶欧美色综合| 久久迷青品着产亚洲av网站| 一本久道高清视频在线观看| 久久无码专区国产精品s| 91久久精品无码人妻系列| 久久免费看视频少妇高潮| 久久99精品久久久久久国产人妖| 国产精品久久婷婷六月| 欧美牲交a欧美牲交aⅴ免费下载 | 久久久国产精品| 免费人成视频在线观看网站| 中文字幕有码在线视频| 女同性恋一区二区三区av|