亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于半監(jiān)督K-Means的屬性加權聚類算法

        2017-04-14 00:59:43周曉英吳立鋒王國輝
        計算機應用與軟件 2017年3期
        關鍵詞:分類特征

        潘 巍 周曉英 吳立鋒 王國輝

        (首都師范大學信息工程學院 北京 100048)(首都師范大學北京市高可靠嵌入式系統(tǒng)工程研究中心 北京 100048)(首都師范大學北京市電子系統(tǒng)可靠性技術研究重點實驗室 北京 100048)

        基于半監(jiān)督K-Means的屬性加權聚類算法

        潘 巍 周曉英 吳立鋒 王國輝

        (首都師范大學信息工程學院 北京 100048)(首都師范大學北京市高可靠嵌入式系統(tǒng)工程研究中心 北京 100048)(首都師范大學北京市電子系統(tǒng)可靠性技術研究重點實驗室 北京 100048)

        K-Means是經(jīng)典的非監(jiān)督聚類算法,因其速度快,穩(wěn)定性高廣泛應用在各個領域。但傳統(tǒng)的K-Means沒有考慮無關屬性以及噪聲屬性的影響,并且不能自動尋找聚類數(shù)目K。而目前K-Means的改進算法中,也鮮有關于高維以及噪聲方面的改進。因此,結合PCA提出基于半監(jiān)督的K-Means加權屬性聚類方法。首先,用PCA得到更少更有效的特征,并計算它們的分類貢獻率(即每個特征對聚類的影響因子)。其次,由半監(jiān)督自適應算法得到K。最后將加權數(shù)據(jù)集以及K應用到聚類中。實驗表明,該算法具有更好的識別率和普適性。

        均值 聚類 半監(jiān)督 主成分分析 屬性加權

        0 引 言

        隨著信息技術的快速發(fā)展,信息的重要性日益提升,同時信息的冗余也不可避免的大量存在。因此,數(shù)據(jù)挖掘技術順勢成為了最受歡迎的信息處理學科[1]。

        聚類分析是一種應用廣泛的無監(jiān)督方法,在數(shù)據(jù)挖掘領域中占有非常重要的位置。聚類分析是1975年出現(xiàn)的,Hartigan[2]在他的“聚類算法”一書中詳細的介紹了這個算法。隨后,基于各種不同思想的聚類算法相繼被提出來,包括基于分區(qū)、密度、網(wǎng)格以及模式等各種思想。

        傳統(tǒng)的無監(jiān)督聚類分析不依賴原始數(shù)據(jù)集的類別信息,需要由聚類學習算法自動確定,因而聚類結果的精確性并不是很高。其中,K-Means算法以其速度快,穩(wěn)定性高的優(yōu)點廣泛應用在各個領域,包括工程、經(jīng)濟、電子、地理、統(tǒng)計以及心理等[3]。K-Means算法思想中,聚類數(shù)目是需要用戶根據(jù)先驗知識來獲得的[4]。這種做法不僅給用戶帶來了負擔,而且由于用戶給定聚類數(shù)目的隨機性,聚類結果的準確性也會在一定程度上降低。此外,無關屬性以及噪聲屬性同樣會降低聚類結果的準確性。

        在實際問題中,通??梢院苋菀椎孬@得有限的樣本先驗信息,這些知識可以調整聚類過程,從而改善無監(jiān)督聚類算法的性能。

        近年來,大量的K-Means改進算法被相繼提出。2015年,胡海峰[5]提出了一種基于特征間隙的檢測簇數(shù)的譜聚類算法,根據(jù)數(shù)據(jù)之間的相似度確定簇數(shù)。同年,Jothi R[6],提出了一種使用約束遞歸的方法得到更精確的聚類中心。2015年,魏建東[7]提出了一種層次初始的聚類個數(shù)自適應的聚類算法研究。2014年,Drias H[8]提出了一種結合K-Means和K-Medoids的算法提高了聚類精度。以上算法均未有效地減少特征數(shù)量,當特征數(shù)量比較大時,聚類結果及速度會受到影響。如果能夠在聚類前進行特征降維,將會提高聚類速度。

        在特征降維算法中,PCA算法可以說是其中的經(jīng)典。 PCA 是根據(jù)計算原始數(shù)據(jù)集的協(xié)方差矩陣以及協(xié)方差矩陣的特征值以及特征向量,選擇累積貢獻率(CR)比較大的特征向量得到新的向量基,最終將原始數(shù)據(jù)集投影到新的向量基中。

        基于以上研究,如何將K-Means算法融入到半監(jiān)督理論中選取最佳的K值,以及如何結合PCA提高聚類識別的準確率是亟待解決的問題。本文將PCA引入算法,并且利用半監(jiān)督自適應的思想去解決自動的選擇聚類數(shù)目K的問題。改進算法有效地克服了噪聲和無關屬性對聚類結果的影響以及不可以自動選取聚類數(shù)目K的不足,計算效率大大的提高。

        1 本文提出的算法

        本文提出的基于PCA以及屬性加權的半監(jiān)督聚類算法僅僅依據(jù)原始樣本訓練數(shù)據(jù)就可以自適應得到聚類數(shù)目K,在聚類效果上有著良好的表現(xiàn)。算法可以分為3個階段。

        1.1 第一階段算法描述

        (1) 首先對訓練數(shù)據(jù)集進行PCA降維,得到有效的主特征;

        (2) 其次,對主特征計算累積貢獻率,并根據(jù)累積貢獻率對原始數(shù)據(jù)集進行加權;

        (3) 最后得到加權后的數(shù)據(jù)集。

        PCA將會把那些對分類貢獻率特別低的一些無關屬性以及噪聲屬性全部剔除掉,根據(jù)CR將原始數(shù)據(jù)集進行屬性加權得到二次處理的數(shù)據(jù)集。首先,進行歸一化(xj-min)/(max-min)處理,其中min和max分別代表整個數(shù)據(jù)集的最小樣本和最大樣本,經(jīng)過歸一化處理之后,整個數(shù)據(jù)集所有樣本的值都會處于0~1之間。下一步協(xié)方差矩陣以及協(xié)方差矩陣的特征值和特征向量可根據(jù)式(1)、式(2)計算得出,之后降序排列特征值,并且選出CR值大的主成分進行數(shù)據(jù)集的降維。

        協(xié)方差矩陣的計算公式如下所示:

        (1)

        (2)

        最后計算CRi和CR,以此作為計算屬性重要度的根據(jù)。這樣根據(jù)階段1就可以得到一個經(jīng)過屬性加權之后的數(shù)據(jù)集。貢獻率CRi和累計貢獻率CR可以由以下的公式進行計算得到:

        (3)

        (4)

        1.2 第二階段算法描述

        (1) 首先計算訓練數(shù)據(jù)集的聚類半徑R并且選擇初始聚類中心C1、C2;

        (2) 其次,計算DBI指數(shù),當NDBI

        (3) 最后,直到當判斷結果為否時,得到聚類數(shù)目K。

        第一步,根據(jù)式(5)計算得到訓練數(shù)據(jù)集的聚類半徑,式(5)如下所示:

        (5)

        其中,n代表訓練數(shù)據(jù)集的總體樣本數(shù),本文定義的新的歐幾里得距離的計算式表示為:

        (6)

        為了考慮每一個樣本貢獻度對聚類結果的影響,在計算歐氏距離的時候,需要將分類貢獻率Ri和Rj加入到計算公式中作為一個影響因子,也就是我們在階段一所說的屬性重要度。傳統(tǒng)的歐氏距離沒有考慮到每個樣本屬性的不同,從而計算出的距離對于聚類不能起到很好的作用。dij表示樣本xik和xjk之間的距離,接下來就是根據(jù)距離dij選擇下一個聚類中心,下一個聚類中心的選擇由下式來決定:

        d=max{min(d(c1,j),d(c2,j))}

        (7)

        其中,C1和C2分別表示最初的兩個聚類中心,d表示第j個樣本與聚類中心C1或者C2之間的距離。最后,DBI指數(shù)由式(8)-式(10)計算獲得。方差(所有的樣本和聚類中心之間的距離)計算式表示為:

        (8)

        其中,Ti、xj和Ai分別代表的是第i個聚類里面的所有的樣本數(shù)目,第i個聚類里面的第j個樣本,還有就是第i個聚類的所有樣本的平均值。第i個聚類簇與第j個聚類簇的距離矩陣Mij由下式計算得到:

        (9)

        (10)

        其中,Si、Sj和Mij可以由式(8)、式(9)計算得到。每個樣本的最大相似度(DBI)由下式計算得到:

        (11)

        1.3 第三階段算法描述

        (1) 將K和加權數(shù)據(jù)集作為參數(shù)傳給K-Means算法;

        (2) 選擇初始聚類中心,聚類成K簇,計算平均值;并更新聚類中心;

        2) 計算CEI。確定可能的化學品泄漏事故,確定ERPG-2,確定各種可能場景下的大氣泄漏量(AQ),選擇AQ最大的場景,計算CEI,計算安全距離(HD),匯總報告。

        (3) 當不符合平方差準則函數(shù)時返回,重新選擇聚類中心;

        (4) 當符合平方差準則函數(shù)時,輸出K個類簇。

        屬性加權后的數(shù)據(jù)集和自適應得到的聚類數(shù)目K應用到K-Means聚類算法中,得到最終的聚類結果。

        2 實驗分析

        本文提出的基于PCA以及屬性加權的改進的半監(jiān)督K-Means聚類算法能很好地去除掉噪聲以及無關屬性的影響,并且通過半監(jiān)督算法自適應地得到聚類數(shù)目K。下面以IRIS數(shù)據(jù)集為例進行分析。

        IRIS數(shù)據(jù)集共有樣本150個,特征數(shù)為5,其中屬性特征4個,分別是花萼長度、花萼寬度、花瓣長度和花瓣寬度,決策特征1個,共分3類。

        2.1 屬性重要度的介紹

        從圖4中可以看到屬性重要度在對分類結果的影響中發(fā)揮著極其重要的作用,不同特征屬性的分類貢獻率(CR)截然不同。通過圖4(a)效果圖展示,我們可以看到,花萼長度和花萼寬度這兩個特征屬性的分類結果非常不明顯。如果我們應用這兩個屬性來作為聚類的主要屬性,那么會出現(xiàn)很大的錯誤。圖4(b)和(c)中,通過花萼長度和花瓣長度以及花萼寬度和花瓣寬度的組合來進行聚類,界限模糊的現(xiàn)象大大的改善了,圖4(d)是通過花瓣長度以及花瓣寬度來進行聚類,可以看到展示的分類效果最好,兩類數(shù)據(jù)很好地區(qū)別開來,聚類簇之間的界限比較明顯,并且聚類簇內(nèi)部非常緊湊。因此應該給予花瓣長度和花瓣比其他特征屬性更高的屬性重要度。

        圖4 IRIS不同屬性分類結果

        如圖5所示,IRIS數(shù)據(jù)集中每個特征的屬性重要度都是不同的,其中,花瓣長度的屬性重要性最高。

        圖5 IRIS分類貢獻率

        從表1中可以看到,IRIS數(shù)據(jù)集的主特征花瓣長度屬性的累積分類貢獻率已經(jīng)達到97%,遠遠超過其他特征屬性的累積分類貢獻率。也就是說,花瓣長度這個特征屬性可以很好地還原原始數(shù)據(jù)集IRIS,因此選擇這個屬性作為主屬性。

        表1 IRIS分類累積貢獻率

        如表2所示,Center代表初始得到的聚類中心,Attr代表初始聚類中心的每一個特征屬性。

        表2 IRIS數(shù)據(jù)集中初始的三個聚類中心

        表2中,由于開始進行了主特征屬性的篩選,因此只留下花瓣長度一個主特征,根據(jù)累積貢獻率選取的初始三個聚類中心分別來自三個不同類,這樣聚類出的結果相對來說會更加準確。

        圖6表示的是IRIS數(shù)據(jù)集在兩個特征屬性在傳統(tǒng)的K-Means的分類效果圖在處理前后的對比圖,(a)是原始的分類效果圖,其中位于右下角的兩類有大面積的混合;(b)中,三類很好地分了開來,并且達到了類間距離很大、類內(nèi)距離很小的標準聚類準則。

        圖6 IRIS分類對比

        2.2 本文改進算法有效性驗證

        本文采用半監(jiān)督的方式加強K值的準確性。下面用IRIS數(shù)據(jù)集以及Wine數(shù)據(jù)集與其他改進K-Means算法進行比較。K-Means算法表示的是原始算法,PCA-K-Means指的是經(jīng)過本文算法進行改進后的算法,SC-ICNE表示的是文獻[5]中基于特征間隙改進的譜聚類算法,IV-AFS表示的是文獻[6]中融合免疫接種機制的改進魚群聚類算法,DHIKM表示的是文獻[7]中基于層次的聚類個數(shù)自適應改進聚類算法,F(xiàn)O-CA指的是文獻[8]中基于距離差異度組合權重的多屬性數(shù)據(jù)分類方法,如表3所示。

        表3 算法比較

        從表3中可以看到,本文方法在IRIS數(shù)據(jù)集中表現(xiàn)最好,在Wine數(shù)據(jù)集中表現(xiàn)也不錯,僅略次于FO-CA算法,本文算法總體識別率最高。

        2.3 本文改進算法的普適性驗證

        本文為了更加準確清晰地描述該改進算法的有效性,分別選取了離散數(shù)據(jù)集以及連續(xù)數(shù)據(jù)集各8個數(shù)據(jù)集來進行效果的驗證。

        表4介紹的是離散數(shù)據(jù)集的具體信息,Samples表示每一個數(shù)據(jù)集的樣本總數(shù),Attr表示的每一個數(shù)據(jù)集的特征總數(shù),Class表示的是每一個數(shù)據(jù)集的類別總數(shù),Percent表示的每一個數(shù)據(jù)集的每一個類別在整個數(shù)據(jù)集中的所占百分比。

        表4 離散數(shù)據(jù)集介紹

        表5主要介紹了每一個連續(xù)數(shù)據(jù)集的情況。

        表5 連續(xù)數(shù)據(jù)集的介紹

        本文所選擇的數(shù)據(jù)集,不論是離散數(shù)據(jù)集還是連續(xù)數(shù)據(jù)集,都力求做到多樣性,在樣本個數(shù)、特征個數(shù)以及類別數(shù)上都各不相同,以此來驗證本文改進算法的普適性。

        2.4 自適應得到K值

        驗證半監(jiān)督自適應得到K值的有效性,選取的數(shù)據(jù)集同時包括離散數(shù)據(jù)集以及連續(xù)數(shù)據(jù)集,并且在樣本數(shù)、特征數(shù)目以及類別數(shù)上有一定差別的數(shù)據(jù)集來說明改進算法的有效性。

        從表6中可以看到,當訓練數(shù)據(jù)集占得百分比逐漸增多的時候,自適應得到的聚類數(shù)目K也越來越準確。如表7和表8所示,不論是在連續(xù)數(shù)據(jù)集還是離散數(shù)據(jù)集的聚類識別率上,本文提出的SP-Kmeans算法都有較好的表現(xiàn)。

        表6 聚類數(shù)目

        注:數(shù)據(jù)集后面的括號中代表的是數(shù)據(jù)集本身的類別數(shù),百分比指的是訓練數(shù)據(jù)集占原數(shù)據(jù)集的比例

        表7 離散數(shù)據(jù)集識別率的比較

        續(xù)表7

        注:括號中數(shù)字代表同樣一個離散數(shù)據(jù)集各個算法的分類識別率,本文的PCA-K-Means改進算法的排名總體最高,均為前2名,即使第2名也遠遠高于其他算法的性能

        表8 連續(xù)數(shù)據(jù)集識別率的比較

        注:括號中數(shù)字代表同樣一個離散數(shù)據(jù)集各個算法的分類識別率,本文提出的PCA-K-Means改進算法在8個連續(xù)數(shù)據(jù)集中,有7個排名第一,1個第二,但也均遠遠高于其他算法的識別率

        圖7為表7的圖形化表示,X軸表示8個離散數(shù)據(jù)集,Y軸表示每一種方法在此數(shù)據(jù)集上的分類識別率??梢灾庇^看到,本文改進算法在選擇的離散數(shù)據(jù)集中表現(xiàn)良好,聚類識別率高于其他聚類算法。

        圖7 離散數(shù)據(jù)集的實驗結果的折線圖

        圖8為表8的圖形化表示,X軸表示8個連續(xù)數(shù)據(jù)集,Y軸同樣表示每一種方法在此數(shù)據(jù)集上的分類識別率。從圖中可以看到,其他五種聚類算法識別率非常不穩(wěn)定,且識別率準確性不是很好。隨著數(shù)據(jù)集類別數(shù)目的變化,分類識別率有大幅度升降,而本文提出的改進算法不論數(shù)據(jù)集類別數(shù)目如何變化,分類識別率始終保持在一定范圍之內(nèi),穩(wěn)定性比較高。

        對比圖7和圖8,可以看到本文方法對于連續(xù)型數(shù)據(jù)集有著較好的分類識別率,而對于離散型數(shù)據(jù)集則沒有達到連續(xù)型數(shù)據(jù)集那樣好的效果,但還是高于其他的聚類算法。

        圖8 連續(xù)數(shù)據(jù)集的實驗結果的折線圖

        3 結 語

        本文提出了一種基于半監(jiān)督的PCA屬性加權的K-means聚類算法,通過提出的屬性重要度以及特征屬性的聚類貢獻率等影響因子的概念,不僅有效地去除了無關屬性以及噪聲屬性對聚類結果精確度的影響,并且通過自適應算法自動得到聚類數(shù)目K,減輕了用戶的負擔。通過在UCI公開數(shù)據(jù)集上對比文獻中提到的改進算法的對比實驗,驗證了本文改進算法的有效性和精確性。

        [1]HamrouniT,SlimaniS,CharradaFB.Adataminingcorrelatedpatterns-basedperiodicdecentralizedreplicationstrategyfordatagrids[J].JournalofSystemsandSoftware,2015,110:10-27.

        [2] 周世兵,徐振源,唐旭清.基于近鄰傳播算法的最佳聚類數(shù)確定方法比較研究[J].計算機科學,2011,38(2):225-228.

        [3]LiC,ZhangY,JiaoM,etal.Mux-Kmeans:multiplexkmeansforclusteringlarge-scaledataset[C]//Proceedingsofthe5thACMworkshoponScientificcloudcomputing.ACM,2014:25-32.

        [4] 樊寧.K均值聚類算法在銀行客戶細分中的研究[J].計算機仿真,2011,28(3):369-372.

        [5] 胡海峰,劉萍萍.一種基于特征間隙的檢測簇數(shù)的譜聚類算法[J].計算機技術與發(fā)展,2015,25(9):37-42.

        [6]JothiR,MohantySK,OjhaA.OnCarefulSelectionofInitialCentersforK-meansAlgorithm[C]//Proceedingsof3rdInternationalConferenceonAdvancedComputing,NetworkingandInformatics.SpringerIndia,2016.

        [7] 魏建東,陸建峰,彭甫镕.一種層次初始的聚類個數(shù)自適應的聚類方法研究[J].電子設計工程,2015(6):5-8.

        [8]DriasH,CherifNF,KechidA.k-MM:AHybridClusteringAlgorithmBasedonk-Meansandk-Medoids[M]//AdvancesinNatureandBiologicallyInspiredComputing.SpringerInternationalPublishing,2016.

        ATTRIBUTE-WEIGHTED CLUSTERING ALGORITHM BASED ONSEMI-SUPERVISED K-MEANS

        Pan Wei Zhou Xiaoying Wu Lifeng Wang Guohui

        (CollegeofInformationEngineering,CapitalNormalUniversity,Beijing100048,China)(BeijingEngineeringResearchCenterofHighReliableEmbeddedSystem,CapitalNormalUniversity,Beijing100048,China)(BeijingKeyLaboratoryofElectronicSystemReliableTechnology,CapitalNormalUniversity,Beijing100048,China)

        K-Means is a classic unsupervised clustering algorithm which is widely applied in various fields for its high speed and high stability. However, the traditional K-Means methods do not take unrelated attributes and the impact of noise into consideration. They also cannot automatically look for the number of clusters K.Atpresent,theimprovedK-Meansalgorithmsalsorarelyfocusonhigh-dimensionaldataandnoiseattributes.Therefore,thispaperproposesanattribute-weightedclusteringalgorithmbasedonsemi-supervisedK-MeansassociatedwithPCA.Firstly,thedimensionreductionisachievedbyintroducingPCA,andthecontributionrateofeachdimensionclassificationcharacteristics(theimpactfactorofclusteringprocessedbyeachfeatureattribute)iscalculated.Secondly,thenumberofclustersKisobtainedthroughanadaptivesemi-supervisedalgorithm.Finally,theweighteddatasetsandKareappliedtoclustering.Experimentalresultsshowthattheproposedmethodhasbetterrecognitionrateanduniversality.

        Means Clustering Semi-supervised Principal Component Analysis Attribute-weighted

        2016-03-02。國家自然科學

        61202027);北京市屬高等學校創(chuàng)新團隊建設與教師職業(yè)發(fā)展計劃項目(IDHT20150507)。潘巍,副教授,主研領域:信息融合與模式識別。周曉英,碩士生。吳立鋒,副教授。王國輝,講師。

        TP

        ADOI:10.3969/j.issn.1000-386x.2017.03.034

        猜你喜歡
        分類特征
        抓住特征巧觀察
        分類算一算
        垃圾分類的困惑你有嗎
        大眾健康(2021年6期)2021-06-08 19:30:06
        新型冠狀病毒及其流行病學特征認識
        如何表達“特征”
        不忠誠的四個特征
        當代陜西(2019年10期)2019-06-03 10:12:04
        分類討論求坐標
        數(shù)據(jù)分析中的分類討論
        教你一招:數(shù)的分類
        抓住特征巧觀察
        日日麻批视频免费播放器| 国产精品天天狠天天看| 午夜一级成人| 中文字幕无线精品亚洲乱码一区 | 在线久草视频免费播放| 精品久久久久久综合日本 | 欧美精品一区二区性色a+v| 久久HEZYO色综合| 国产亚洲av综合人人澡精品| 放荡的少妇2欧美版| 国产精品午睡沙发系列| 美女被射视频在线观看91| 久久精品女同亚洲女同| 亚洲色成人www永久在线观看| 狠狠久久久久综合网| 亚洲国产色图在线视频| 亚洲国产国语在线对白观看| 国产成人精品123区免费视频| 欧美色色视频| 国产大屁股白浆一区二区三区| 亚洲综合欧美色五月俺也去| 四房播播在线电影| 欧美破处在线观看| 九七青青草视频在线观看| 亚洲av无码一区二区三区天堂古代| 亚洲视频在线看| 在线看不卡的国产视频| 白白色白白色视频发布| 国产精品美女久久久久| 亚洲午夜无码视频在线播放| 狠狠色狠狠色综合日日92| 精品一区二区三区不老少妇| 日本一区二区视频免费在线看| 性激烈的欧美三级视频| 精品国产乱码一区二区三区在线| 日韩一本之道一区中文字幕| 99精品国产丝袜在线拍国语 | 精品成人av人一区二区三区| 久久久久久亚洲av成人无码国产| 久久国产精品不只是精品| 美女被搞在线观看一区二区三区|