亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于概率矩陣分解的不完整數(shù)據(jù)集特征選擇方法

        2022-06-16 05:24:12范林歌武欣嶸曾維軍
        計算機工程 2022年6期
        關(guān)鍵詞:分類特征效果

        范林歌,武欣嶸,童 瑋,曾維軍

        (中國人民解放軍陸軍工程大學(xué) 通信工程學(xué)院,南京 210007)

        0 概述

        高維數(shù)據(jù)在實際應(yīng)用中普遍存在,這些數(shù)據(jù)通常被用來構(gòu)建高質(zhì)量的機器學(xué)習(xí)模型,隨后進(jìn)行數(shù)據(jù)挖掘分析,但高維數(shù)據(jù)具有計算時間長、存儲成本高等問題[1-2]。為了解決這些問題,研究人員提出特征選擇、主成分分析等降維方法[3-4]。特征選擇是數(shù)據(jù)挖掘過程中的重要步驟,特別是在許多生物信息學(xué)任務(wù)中,有效的魯棒特征選擇方法可以提取有意義的特征并且消除有噪聲的特征。

        現(xiàn)有的特征選擇方法大多以數(shù)據(jù)是完整的或幾乎完整的為前提。但在許多實際應(yīng)用中,例如生物信息學(xué)[5]和遙感網(wǎng)絡(luò)普遍存在數(shù)據(jù)缺失,現(xiàn)有的特征選擇方法大部分不能直接用于包含缺失值的數(shù)據(jù)集。

        對不完整數(shù)據(jù)集進(jìn)行特征選擇,最直接的方法是對不完整數(shù)據(jù)集進(jìn)行一定處理使其保持形式上的完整,然后再做特征選擇。處理缺失數(shù)據(jù)最簡單易行的方法是完整樣本分析(Complete Case Analysis,CCA),即刪除包含缺失值的樣本或特征[6]。該方法雖然簡單易行,但在缺失樣本比例較高和樣本總量較小時有很大的局限性,進(jìn)而影響后續(xù)機器學(xué)習(xí)的準(zhǔn)確性。對缺失位置進(jìn)行填充是另一種較為直接的缺失數(shù)據(jù)處理方法,應(yīng)用普遍的是均值填充。均值填充是指以特征觀測值的均值作為缺失值的估計值[7],但該方法會使特征不確定性或方差減小。還有一種基于統(tǒng)計學(xué)的缺失填補方法是期望最大化(EM)填補法[8],該方法利用現(xiàn)有數(shù)據(jù)的邊緣分布對缺失數(shù)據(jù)進(jìn)行極大似然估計,從而得到相應(yīng)的填補值。ZHANG 等[9]提出了k 近鄰填充,該方法基于近鄰樣本的特征值相近的假設(shè),以近鄰樣本的均值作為缺失值的估計值。之后一些改進(jìn)的k 近鄰填補方法被提出,其引入灰色關(guān)聯(lián)分析和互信息來更進(jìn)一步地提高分類精度和填補效果[10-13]。近鄰填充的關(guān)鍵在于準(zhǔn)確地度量近鄰關(guān)系,這也帶來了一些不足:不同的特征在相似度度量中的重要性是不同的,而k近鄰填充中的距離計算將所有特征同等對待;當(dāng)數(shù)據(jù)特征數(shù)目較多即在高維特征空間中時,樣本分布趨于均勻,此時距離并不能反映樣本相似性。

        在不填充直接進(jìn)行特征研究方面,LOU 等[14]提出基于類間隔的不完整數(shù)據(jù)特征選擇(Feature Selection in Incomplete Data,SID)方法,定義了基于類間隔的目標(biāo)函數(shù),對其優(yōu)化使每個樣本在其相關(guān)子空間中的類間隔最大化,以權(quán)重范數(shù)比為系數(shù)降低缺失樣本對于類間隔計算的貢獻(xiàn),該方法不再將某個樣本的近鄰樣本當(dāng)作是固定的,而是去計算所有樣本是某個樣本近鄰樣本的概率。SID 特征選擇最終學(xué)習(xí)出一個特征權(quán)重向量w,w中取值較大的分量對應(yīng)重要特征,取值較小的分量對應(yīng)次要特征,取值為零的分量對應(yīng)無關(guān)特征甚至噪音特征。與基于常用預(yù)處理填充方法(如均值填充、EM 填充、k 近鄰填充)的特征選擇相比,SID 能夠篩除更多無關(guān)特征,以該算法選擇的特征建立的分類模型分類準(zhǔn)確率更高,但其沒有考慮異常值的影響。

        本文針對不完整數(shù)據(jù)中含有未被觀察信息和存在異常值的特點,提出一種基于概率矩陣分解(Probability Matrix Decomposition,PMF)技術(shù)的魯棒特征選擇方法,使用指示矩陣并利用不完整數(shù)據(jù)集中的所有信息進(jìn)行缺失值近似估計。在特征選擇算法上基于魯棒特征選擇(Robust Feature Selection,RFS)方法,在損失函數(shù)和正則化項中聯(lián)合使用?2,1范數(shù)[15-16],將?2,1范數(shù)作為損失函數(shù)可減輕異常值影響,提升特征選擇的魯棒性。

        1 基于矩陣分解的缺失值填充方法

        考慮不完整數(shù)據(jù)集X={(xn,yn|n=1,2,…,N)}∈RM,其中N為樣本數(shù),M為特征數(shù),xn為第n個給定實例,yn為其對應(yīng)的標(biāo)簽值,yn=1,2,…,T,xn(j)表示第n個樣本的第j個特征,其中j=1,2,…,M。

        由于直接使用不完整數(shù)據(jù)集中所有實例來預(yù)估缺失值計算量較大,本文首先使用原始標(biāo)簽將原始數(shù)據(jù)集分簇,將相似度較高的樣本分為一簇,假設(shè)第i簇數(shù)據(jù)集為Xi,每一簇數(shù)據(jù)集實例選擇如式(1)所示:

        其包含L個實例,Xi具體表示如式(2)所示:

        其中:q=1,2,…,L,表示第i簇數(shù)據(jù)集中第q個實例的第j個特征。

        本文基于這樣一個假設(shè):同一簇內(nèi)兩個樣本相似度比不同簇的兩個樣本高,以達(dá)到在減少計算量的基礎(chǔ)上不降低填充準(zhǔn)確性的目的,之后分別對每簇中的缺失值進(jìn)行估計。

        在計算過程中利用指示矩陣對未觀察到的信息進(jìn)行過濾,從而達(dá)到利用完整和不完整樣本中所有有效信息的目的。對于給定的不完整數(shù)據(jù)集X,定義指示矩陣I,其中In(j)反映第n個實例的第j個特征的缺失情況,元素取值如式(3)所示,當(dāng)xn(j)可觀測時對應(yīng)位置取1,當(dāng)xn(j)缺失時對應(yīng)位置取0。

        則第i簇數(shù)據(jù)集Xi對應(yīng)的指示矩陣為Ii。

        1.1 矩陣分解

        尋找第i簇數(shù)據(jù)集Xi的一個近似矩陣,通過求解近似矩陣來代替原始數(shù)據(jù)簇中缺失的值,定義如式(4)所示:

        其中:U∈RL×K;V∈RM×K,矩陣U和V分別表示數(shù)據(jù)集實例和特征特定的潛在特征向量。比如在一個用戶對多部電影評分的數(shù)據(jù)集中,xq(j)表示第q個用戶對第j部電影的評分,此時U和V分別描述用戶的特征(比如年齡段等)和電影的特征(比如年份、中英文等)。

        均方根誤差(RMSE)可以用來衡量真實值與預(yù)估值之前的差距,本文通過計算目標(biāo)矩陣Xi與近似矩陣的RMSE 來評估模型性能,Xi與的RMSE定義如式(6)所示:

        由式(5)得:

        代入式(6)得:

        RMSE 值越小則表示填補效果越好。本文通過求解一組U和V使相似矩陣與目標(biāo)矩陣Xi的RMSE 最小,至此該優(yōu)化問題可以表示為:

        至此,將上述問題轉(zhuǎn)化為一個無約束優(yōu)化問題,本文采用梯度下降法[18]迭代計算U和V,首先固定V,對U求導(dǎo),如式(10)所示:

        更新uq,如式(11)所示:

        其中:α為更新速率,表示迭代的步長。

        固定U,對V求導(dǎo)得:

        更新vj,如式(13)所示:

        重復(fù)式(11)與式(13),迭代優(yōu)化U和V,直到RMSE<ξ,ξ為自定義誤差。

        遍歷所有i,對每一簇數(shù)據(jù)進(jìn)行如上操作,直到Iο等于0 即數(shù)據(jù)集無缺失為止。至此,求出Xi的近似矩陣,用中的數(shù)據(jù)填充Xi中對應(yīng)位置的缺失值。Iο定義如式(14)所示:

        1.2 概率矩陣分解

        為提升算法精度以及降低算法運算復(fù)雜度,本文將上述的矩陣分解擴展為概率矩陣分解。假設(shè)數(shù)據(jù)集第i簇數(shù)據(jù)集Xi,歸一化后服從均值為μ=0,方差為σ2的高斯分布。因此,可定義U和V為一個多變量的零均值球面高斯分布,如式(15)、式(16)所示:

        該先驗概率可使式(11)和式(13)最終的收斂值不會遠(yuǎn)離0,從而避免了矩陣U和V出現(xiàn)幅度較大的值。若無該先驗知識,1.1 節(jié)中的矩陣概率分解迭代運算次數(shù)將增加,運算復(fù)雜度提升。

        綜合上述兩個先驗概率,可將數(shù)據(jù)集X上的取值條件概率分布定義為:

        基于式(15)、式(16)、式(17)的概率密度函數(shù),利用經(jīng)典的后驗概率推導(dǎo)可以得到p(U,V|X)=p(X|U,V)p(U)p(V),最大化該后驗概率,就可以通過已有的近似矩陣估計出系統(tǒng)參數(shù)U和V。

        為了計算方便,對后驗概率取對數(shù),在觀測噪聲方差和先驗方差保持固定的情況下,最大化該對數(shù)后驗分布等價于使用二次正則化項使誤差平方和最小。最后,為了限制數(shù)據(jù)集中數(shù)據(jù)的取值范圍,對高斯函數(shù)的均值施加logistic 函數(shù)g(x)=1/(1+exp(-x)),其取值在(0,1)之間。最終的能量函數(shù)為:

        至此,可以使用梯度下降方法,求解Ui、Vj中的每一個元素。

        2 魯棒特征選擇算法

        2.1 魯棒特征選擇

        為增強算法面對異常值時的魯棒性,本文采用基于?2,1范數(shù)的損失函數(shù)來去除異常值,而不使用對異常值敏感的?2范數(shù)損失函數(shù)。以最小二乘回歸為例,使用?2,1魯棒損失函數(shù)后目標(biāo)函數(shù)如式(19)所示:

        其中:γ為正則化項參數(shù);W∈RM×C。

        將上述目標(biāo)函數(shù)變?yōu)閹Ъs束的形式,如式(20)所示:

        將上述的問題改寫為:

        使A=[XTγH],B=,其中H∈RN×N為單位矩陣,則目標(biāo)函數(shù)進(jìn)一步改寫成式(22):

        RFS 使用一個非常簡單的方法來求解式(22),同時這種方法也很容易應(yīng)用到其他一般的?2,1范數(shù)最小化問題中。

        該算法主要基于拉格朗日方法,構(gòu)造拉格朗日函數(shù)如下:

        求上式對B的偏導(dǎo)并令其為0,得到式(24):

        其中:D是對角矩陣。

        第n個元素為:

        在式(24)兩邊同乘AD-1,并有AB=Y,得式(26):

        將式(26)代入式(24),得:

        由于式(22)中的問題是一個凸問題,當(dāng)且僅當(dāng)滿足式(27)時,B是該問題的全局最優(yōu)解。其中,D依賴于B,因此也是一個未知變量。依然使用迭代算法來獲得滿足式(27)的解B:在每次迭代中,用當(dāng)前的D計算B,然后根據(jù)當(dāng)前計算的B更新D。不斷重復(fù)迭代過程,直到算法收斂。具體描述如算法1所示。

        2.2 算法分析

        本文提出的算法在每次迭代計算中都單調(diào)地減少式(22)中問題的目標(biāo)。

        引入以下引理對其進(jìn)行證明:

        引理1對于任意非零向量b,bt∈Rc,以下不等式成立:

        算法的收斂性總結(jié)為以下定理:

        將式(29)中的v和vt分別帶入,可以得到式(28)。

        定理1算法每次迭代都會單調(diào)地降低式(22)中問題的目標(biāo),并收斂于問題的全局最優(yōu)。

        證明可以驗證式(27)是以下問題的解:

        因此在t次迭代中:

        這表明:

        即:

        根據(jù)引理1,對每個i有:

        因此,以下不等式成立:

        結(jié)合式(33)和式(35)可以得到:

        即:

        因此,本文提出的算法在每次迭代中將單調(diào)地降低式(22)中問題的目標(biāo)。在收斂性上,Bt和Dt滿足式(27),又因為式(22)是一個凸問題,所以滿足等式(27)表示B是式(22)的全局最優(yōu)解,因此,算法將收斂于問題式(22)的全局最優(yōu)。

        3 實驗與結(jié)果分析

        為了檢驗所提算法的有效性,本節(jié)分別在合成數(shù)據(jù)集和真實數(shù)據(jù)集上進(jìn)行實驗,在不完整數(shù)據(jù)集中比較了本文提出的PMF、SID 算法、傳統(tǒng)的先填充再進(jìn)行特征選擇算法,其中傳統(tǒng)方法中的填充算法分別為概述中介紹的均值填充(mean)、KNN 填充、EM 填充,特征選擇算法為本文使用的魯棒特征選擇算法RFS 和兩種基于邊緣的特征選擇算法:Simba[19]和Relief[20],分別將以上幾種算法交叉組合形成9 套完整的針對不完整數(shù)據(jù)集進(jìn)行特征選擇的流程,以評估本文所提算法在高維數(shù)據(jù)上的分類性能。

        本節(jié)使用分類精度(ACC)作為評估指標(biāo)。ACC表示樣本分類正確的百分比,即:

        其中:N是樣本總數(shù);Nc為正確被分類的樣本個數(shù)。

        3.1 實驗設(shè)置

        本實驗環(huán)境為MATLAB2019a,為了觀察缺失率對算法的影響,本節(jié)人工隨機地向數(shù)據(jù)集注入不同比例的缺失值。缺失率范圍為5%~65%,以10%為間隔遞增,本文缺失率定義為缺失值占所有值的百分比。在此僅考慮缺失機制為完全隨機缺失的情況。為了體現(xiàn)特征選擇算法的效果,具體地,本文會向特征較少的數(shù)據(jù)集中添加一些無關(guān)特征,實驗中向數(shù)據(jù)中添加的無關(guān)特征并不被注入缺失。

        如前所述,K為矩陣U和V的維度,當(dāng)其取不同值時均方根誤差的收斂速度如圖1 所示,這里分別取K=1,5,10,15,20,可以看到:當(dāng)K=1,5 時收斂速度較慢并且無法收斂到0,當(dāng)K=10,15,20 時均方根誤差收斂較快,并且可以收斂到0,可見,K的取值不光影響均方根誤差收斂速度,還會影響最終收斂結(jié)果。為了不增加計算量并且防止過擬合,本文所有實驗均設(shè)置K值取10。

        圖1 不同K 值時均方根誤差隨迭代次數(shù)的變化Fig.1 Variation of root mean square error with iteration times at different K values

        不止K的取值,學(xué)習(xí)速率α的取值不同也會影響均方根誤差的收斂速度,如圖2 所示,α分別取0.1、0.01、0.001、0.000 1,由圖2 可見,α取0.01 時收斂速度最快,α取0.000 1 時收斂速度最慢,可見步長越小,損失函數(shù)到達(dá)底部的時間越長,步長越大,損失函數(shù)收斂越快,但步長并不能無限大,經(jīng)過實驗發(fā)現(xiàn)當(dāng)α取0.1 時,目標(biāo)函數(shù)不會收斂,所以在該合成數(shù)據(jù)集上α取0.01。經(jīng)過在不同數(shù)據(jù)集上的實驗也發(fā)現(xiàn),同一個步長并不適用于所有數(shù)據(jù)集,所以要通過多次實驗發(fā)現(xiàn)最適合本數(shù)據(jù)集的步長,本文中所有數(shù)據(jù)集步長設(shè)置均經(jīng)過多次實驗,設(shè)其為最恰當(dāng)?shù)臄?shù)值。

        圖2 不同α 值均方根誤差隨迭代次數(shù)變化Fig.2 Variation of root mean square error with iteration times at different α values

        3.2 數(shù)據(jù)集合成

        本節(jié)通過設(shè)計合成數(shù)據(jù)集來評價本文算法在存在大量不相關(guān)變量的不完整數(shù)據(jù)中填充缺失值后選擇出相關(guān)特征的能力。合成數(shù)據(jù)集包含500 個實例和100 維特征。其中兩維特征是隨機產(chǎn)生的0、1 序列,將這兩維特征做異或運算,產(chǎn)生結(jié)果即為合成數(shù)據(jù)集的標(biāo)簽,剩下的98 個特征服從于以0 為均值、1為方差的標(biāo)準(zhǔn)正態(tài)分布。

        本節(jié)以所選擇的無關(guān)特征數(shù)目為標(biāo)準(zhǔn)評價特征選擇方法。為了簡便期間,只比較本文提出的算法與SID 算法,以及使用LBFS 算法作為特征選擇算法的3 種傳統(tǒng)方法,實驗結(jié)果如圖3 所示。

        圖3 無關(guān)特征數(shù)隨缺失率的變化Fig.3 Variation of irrelevant feature number with deletion rate

        由圖3 可以看出,在該數(shù)據(jù)集上,KNN 填充的方法選擇出的無關(guān)特征數(shù)目最多,效果最差,本文提出的算法PMF 效果最好,在缺失比例較高的情況下依然能選擇出較少的無關(guān)特征。SID 算法在缺失率較低的情況下效果較好,但在缺失率較高時不如PMF。

        3.3 真實數(shù)據(jù)集

        本節(jié)分別從LIBSVM 數(shù)據(jù)網(wǎng)站、UCI website[21]、肯特崗生物醫(yī)學(xué)數(shù)據(jù)集等網(wǎng)站下載DLBCL、Mnist、Splice、Wpbc、USPS、Arcene 6 個真實數(shù)據(jù)集。由于生物醫(yī)學(xué)方面數(shù)據(jù)集往往包含大量冗余特征,更能體現(xiàn)出特征選擇的作用,本節(jié)選用的數(shù)據(jù)集大部分與生物醫(yī)學(xué)有關(guān)。DLBCL 為彌漫大B 細(xì)胞淋巴瘤基因的相關(guān)數(shù)據(jù)集,Splice 是關(guān)于識別DNA 序列中兩種類型的剪接點的數(shù)據(jù)集,Wpbc 數(shù)據(jù)集則取自威斯康辛大學(xué)校醫(yī)院的乳腺癌病例數(shù)據(jù)庫,Arcene 原始數(shù)據(jù)來自于美國國家癌癥研究中心和東維多利亞醫(yī)學(xué)院,收集了通過SELDI 技術(shù)采集的癌癥病人和健康人的質(zhì)譜信息,用于癌癥預(yù)測。由于Splice 和Wpbc 數(shù)據(jù)集特征較少,這里人為的向其添加2 000 個無關(guān)特征,無關(guān)特征的特征值均通過從正態(tài)分布N(0,1)中抽樣得到。數(shù)據(jù)集詳細(xì)信息如表1所示。

        表1 數(shù)據(jù)集詳細(xì)信息Table 1 Datasets detailed information

        對于真實數(shù)據(jù)集,因為無法預(yù)知其中特征的重要性,所以使用分類準(zhǔn)確率為標(biāo)準(zhǔn)評價特征選擇方法。在訓(xùn)練集上先進(jìn)行特征選擇,之后對所選特征進(jìn)行分類,分類準(zhǔn)確率高說明特征選擇的效果越好。

        使用交叉驗證方式[22]選擇最佳參數(shù)組合,將原始數(shù)據(jù)集分為70%的訓(xùn)練集和30%的測試集,其中訓(xùn)練集的類標(biāo)簽是已知的,假設(shè)測試集的類標(biāo)簽未知,通過在訓(xùn)練集上訓(xùn)練得到分類器來預(yù)測測試實例的類標(biāo)簽,比較預(yù)測得到的類標(biāo)簽與真實的類標(biāo)簽就可以得到該分類器的分類精度。本實驗使用SVM 分類器進(jìn)行訓(xùn)練。對于基于KNN 填充進(jìn)行的特征選擇,本文選取k=5。

        各算法在DLBCL 數(shù)據(jù)集上的分類效果柱狀圖如圖4 所示,其中縱坐標(biāo)為分類準(zhǔn)確率,橫坐標(biāo)依次展示11 種不同的算法,不同底紋代表不同的缺失率,這里選取了缺失率為25%、35%和55%時的分類結(jié)果,可以看到,本文提出的算法在不同缺失率時準(zhǔn)確率都高于其他10 個算法,均值填充的3 種算法在該數(shù)據(jù)集上的整體表現(xiàn)略高于KNN 填充和EM 填充,并且3 種不同的特征選擇算法效果相差不大,SID算法效果僅次于PMF,因為其利用了不完整數(shù)據(jù)集中的全部信息,但該算法沒有考慮異常值的影響。

        圖4 不同缺失率下DLBCL 數(shù)據(jù)集的分類準(zhǔn)確率Fig.4 Classification accuracy of DLBCL dataset under different miss rates

        各算法在Mnist 數(shù)據(jù)集上的分類效果如圖5 所示,可以看到,在缺失率較高的情況下,本文提出的算法依然能達(dá)到90%的準(zhǔn)確率,在該數(shù)據(jù)集中用KNN 填充的3 種算法效果較差,可能是該數(shù)據(jù)集比較稀疏導(dǎo)致近鄰關(guān)系度量不夠準(zhǔn)確,EM 填充與SID算法效果相差不大,略高于均值填充。

        圖5 不同缺失率下Mnist 數(shù)據(jù)集的分類準(zhǔn)確率Fig.5 Classification accuracy of Mnist dataset under different miss rates

        各算法在Splice 數(shù)據(jù)集上的分類效果柱狀圖如圖6 所示,可以看到,基于KNN 填充的算法效果較差,在缺失率為25%時只可以達(dá)到70%左右的準(zhǔn)確率,PMF 在相同缺失率時可以達(dá)到80%以上的準(zhǔn)確率,可見PMF 在該數(shù)據(jù)集上效果有了較大的提升?;诰堤畛涞乃惴ê蚐ID 算法效果較為接近。

        圖6 不同缺失率下Splice 數(shù)據(jù)集的分類準(zhǔn)確率Fig.6 Classification accuracy of Splice dataset under different miss rates

        各算法在Wpbc 數(shù)據(jù)集上的分類效果柱狀圖如圖7 所示,可以看到,在該數(shù)據(jù)集上各個算法的分類準(zhǔn)確率普遍較低。在該數(shù)據(jù)集上基于KNN 填充的算法效果較差,均值填充在25%缺失率時的效果較好,在KNN 填充和均值填充上RFS 特征選擇算法的效果比Simba 和Relief 略高。相比其他算法,本文提出的算法在該數(shù)據(jù)集上效果依然是最好的。

        圖7 不同缺失率下Wpbc 數(shù)據(jù)集的分類準(zhǔn)確率Fig.7 Classification accuracy of Wpbc dataset under different miss rates

        各算法在USPS 數(shù)據(jù)集上的分類效果柱狀圖如圖8 所示,可以看到,本文提出的算法在該數(shù)據(jù)集上效果較好。在缺失率為5%時,所有算法的分類準(zhǔn)確率都高達(dá)92%左右,但是隨著缺失率增大到55%,其他算法的分類效果有了明顯下降,此時本文提出的算法優(yōu)勢更加明顯。相比之前的基于填充的算法,SID 算法在該數(shù)據(jù)集上并不具有明顯的優(yōu)勢。

        圖8 不同缺失率下USPS 數(shù)據(jù)集的分類準(zhǔn)確率Fig.8 Classification accuracy of USPS dataset under different miss rates

        各算法在Arcene 數(shù)據(jù)集上的分類效果如圖9 所示,可以看到,本文提出的算法在該數(shù)據(jù)集上的優(yōu)勢非常明顯,其他10 種算法在所有缺失比例時的準(zhǔn)確率基本都在60%左右,然而PMF 算法可以達(dá)到90%左右的準(zhǔn)確率,可見本文提出的算法非常適用于該數(shù)據(jù)集,這應(yīng)該與數(shù)據(jù)集本身有關(guān)。

        圖9 不同缺失率下Arcene 數(shù)據(jù)集的分類準(zhǔn)確率Fig.9 Classification accuracy of Arcene dataset under different miss rates

        3.4 異常值檢測

        本節(jié)使用3.2 節(jié)中的合成數(shù)據(jù)集進(jìn)行異常值檢測,為了方便展示,人工隨機地向數(shù)據(jù)集注入不同比例的異常值,這里使用固定值來模擬異常值。分別在異常值比率為1%、2%、3%時進(jìn)行實驗求無關(guān)特征,異常值比率定義為注入異常值的數(shù)量占整個數(shù)據(jù)集的百分比,結(jié)果如表2 所示,本文固定缺失值比率為5%。從表2 的數(shù)據(jù)可以看出,在異常值比例較低時,本算法能篩選出所有的重要特征,隨著異常值比率增加,篩選出的無關(guān)特征數(shù)目有所增加,但仍然保持較低的數(shù)量,可見本文算法可以在一定程度上應(yīng)對不完整數(shù)據(jù)集中異常值帶來的影響。

        表2 不同比例異常值與無關(guān)特征數(shù)目Table 2 Different proportion outliers and irrelevant features number

        綜上所述,基于KNN 填充算法在Mnist 和Splice數(shù)據(jù)集上效果較差,雖然該算法利用樣本近鄰關(guān)系來進(jìn)行填充,在一定程度上更多地利用了不完整數(shù)據(jù)集的信息,但是近鄰關(guān)系度量的準(zhǔn)確性也會對填充效果造成影響?;诰堤畛渌惴ㄅcEM 填充算法效果略高于KNN 填充算法、SID 算法效果僅次于本文算法,因為該算法使用指示矩陣?yán)昧瞬煌暾麛?shù)據(jù)集中的全部信息,但是它沒有考慮數(shù)據(jù)集中異常值的影響。PMF 算法效果最好,因為其不僅充分利用了不完整數(shù)據(jù)集中的所有有效信息,還使用?2,1范數(shù)作為損失函數(shù),增強了其應(yīng)對異常值的魯棒性,所以與其他算法相比,在所有數(shù)據(jù)集上分類準(zhǔn)確率都有所提升。

        4 結(jié)束語

        高維數(shù)據(jù)集中通常包含缺失值和離群值,對其進(jìn)行降維是數(shù)據(jù)挖掘的重要步驟之一。本文針對不完整數(shù)據(jù)中含有未被觀察信息和存在異常值的特點,提出一種基于概率矩陣分解技術(shù)的魯棒特征選擇方法。該方法引入指示矩陣?yán)脭?shù)據(jù)集中全部信息,對不完整數(shù)據(jù)集進(jìn)行近似估計,在考慮異常值情形下,利用?2,1范數(shù)對數(shù)據(jù)點中異常值具有魯棒性的特點,將其作為回歸損失函數(shù),實現(xiàn)魯棒特征選擇。實驗結(jié)果表明,該方法能夠充分利用不完整數(shù)據(jù)集中的所有信息,避免繁瑣的距離運算,可有效應(yīng)對不完整數(shù)據(jù)集中異常值帶來的影響。下一步考慮將概率矩陣分解填充拓寬到半監(jiān)督或無監(jiān)督的特征選擇流程上,在數(shù)據(jù)集標(biāo)簽有缺失甚至無標(biāo)簽的情況下,提升特征選擇的效果。

        猜你喜歡
        分類特征效果
        按摩效果確有理論依據(jù)
        分類算一算
        如何表達(dá)“特征”
        不忠誠的四個特征
        分類討論求坐標(biāo)
        迅速制造慢門虛化效果
        數(shù)據(jù)分析中的分類討論
        抓住“瞬間性”效果
        中華詩詞(2018年11期)2018-03-26 06:41:34
        教你一招:數(shù)的分類
        抓住特征巧觀察
        国产一区二区精品久久| 白白色免费视频一区二区在线| 国产日产一区二区三区四区五区 | 亚洲国产成人精品无码区在线秒播| 丰满老熟妇好大bbbbb| 乱人伦人妻中文字幕无码| 亚洲第一页在线观看视频网站| 精品人妻一区二区三区浪人在线| 天堂新版在线资源| 99视频一区| 女人一级特黄大片国产精品| 日本少妇一区二区三区四区| 国产69精品久久久久777| 亚洲av乱码中文一区二区三区| 日本一区免费喷水| 不卡视频在线观看网站| 国产精品av在线| 精品无码一区二区三区爱欲九九| 岛国视频在线无码| 熟妇人妻精品一区二区视频免费的| 欧美日韩一区二区三区在线观看视频 | 高清精品一区二区三区| 少妇太爽了在线观看| 高跟丝袜一区二区三区| 黄色一区二区三区大全观看| 亚洲综合av一区二区三区| 18禁裸体动漫美女无遮挡网站| 国语自产偷拍精品视频偷| 欧美成人免费看片一区| 人妻丰满精品一区二区 | 久久成人国产精品免费软件 | 另类专区欧美在线亚洲免费| 漂亮人妻被强中文字幕乱码| 日本亲近相奷中文字幕| 99精产国品一二三产品香蕉| 国产精品麻豆A啊在线观看| 一区二区三区精品免费| 大地资源中文第3页| 精品国产高清自在线99| 国产av熟女一区二区三区老牛| 偷拍偷窥女厕一区二区视频|