亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于最大距離積與最小距離和協(xié)同K聚類算法

        2018-05-22 07:35:20鄒臣嵩
        關(guān)鍵詞:準(zhǔn)確率聚類對(duì)象

        鄒臣嵩 楊 宇

        1(廣東松山職業(yè)技術(shù)學(xué)院電氣工程系 廣東 韶關(guān) 512126) 2(廣東松山職業(yè)技術(shù)學(xué)院機(jī)械工程系 廣東 韶關(guān) 512126)

        0 引 言

        聚類分析作為統(tǒng)計(jì)學(xué)的一個(gè)分支,是機(jī)器學(xué)習(xí)領(lǐng)域的重要課題之一,目前被廣泛應(yīng)用于模式識(shí)別、圖像分析、生命科學(xué)等領(lǐng)域的研究中。聚類的目的是將一個(gè)具有多維屬性的數(shù)據(jù)集按照相似性分割成若干個(gè)子集,使得同一子集內(nèi)各數(shù)據(jù)對(duì)象之間的相似性盡可能大,而不同子集間的相似性盡可能小[1-2]。聚類分析算法主要包括劃分法、網(wǎng)格法、密度法、層次法以及基于模型的方法。作為一種典型的劃分法,K-means算法具有簡(jiǎn)單、可靠、收斂速度快等優(yōu)點(diǎn),但其缺點(diǎn)也極為明顯,僅適合對(duì)聚類結(jié)果為球形的數(shù)值型數(shù)據(jù)進(jìn)行聚類,同時(shí)該算法對(duì)“噪聲”較為敏感,因此增加了聚類結(jié)果的不穩(wěn)定性。

        國(guó)內(nèi)外專家學(xué)者從聚類準(zhǔn)確率、聚類耗時(shí)以及整體聚類質(zhì)量等多角度對(duì)K-means算法進(jìn)行了改進(jìn)[3-9],但這些改進(jìn)更多集中在利用樣本的分布信息優(yōu)化初始聚類中心的選擇,而針對(duì)簇中心在迭代過(guò)程中的更新方法改進(jìn)較少。為此,本文提出了基于最大距離積與最小距離和協(xié)同的K聚類改進(jìn)算法,根據(jù)樣本集的分布特征劃分?jǐn)?shù)據(jù)集,啟發(fā)式地確定初始聚類中心。在簇中心更新過(guò)程中,根據(jù)聚類完成后簇內(nèi)距離之和最小的思想[6],提出了“簇中心到簇內(nèi)樣本距離之和最小算法”MSDCC(Minimum Sum of Distance between Cluster Centers and Clusters),并用MSDCC算法取代傳統(tǒng)K-means的均值中心法來(lái)確定新的簇中心。UCI數(shù)據(jù)集的實(shí)驗(yàn)測(cè)試表明,本文算法的聚類準(zhǔn)確率、整體耗時(shí)、Jaccard系數(shù)等有效性評(píng)價(jià)指標(biāo)優(yōu)于傳統(tǒng) K-means算法和文獻(xiàn)[5-6]的算法,具有更好的聚類效果。

        1 K-means聚類算法及其研究現(xiàn)狀

        傳統(tǒng)K-means算法以k為參數(shù),將n個(gè)對(duì)象分為k個(gè)簇,目標(biāo)是簇內(nèi)相似度高,簇間相似度低,通常將聚類誤差平方和作為評(píng)價(jià)聚類質(zhì)量的準(zhǔn)則函數(shù)。K-means算法的流程是:首先隨機(jī)選取k個(gè)數(shù)據(jù)對(duì)象作為初始聚類中心,對(duì)剩余的每個(gè)對(duì)象根據(jù)其與各個(gè)中心的距離劃分到最近的簇,然后將每個(gè)簇的平均值作為新的簇中心,并再次按最小距離劃分樣本到新的簇,如此反復(fù)迭代直到準(zhǔn)則函數(shù)收斂,即各簇中心保持不變。

        傳統(tǒng)的K-means算法對(duì)初始聚類中心敏感,選擇不同的初始聚類中心會(huì)產(chǎn)生不同的聚類結(jié)果且有不同的準(zhǔn)確率。此外,傳統(tǒng)的K-means算法僅適合數(shù)值型數(shù)據(jù)且聚類結(jié)果為球形的數(shù)據(jù)集,不適合于發(fā)現(xiàn)非凸形狀的簇或者大小差別很大的簇[8]。因此,當(dāng)樣本集中存在孤立點(diǎn)時(shí),孤立點(diǎn)的某個(gè)或某幾個(gè)特征值必然與樣本中的其他數(shù)據(jù)對(duì)象相差甚遠(yuǎn),均值中心法生成的簇中心將嚴(yán)重偏離真實(shí)中心,只能通過(guò)多次迭代來(lái)修正聚類中心,不僅耗時(shí)嚴(yán)重,還可能因此而降低聚類準(zhǔn)確率。所以,恰當(dāng)?shù)剡x擇初始聚類中心,合理地改進(jìn)簇中心更新算法不僅可以提高聚類準(zhǔn)確率,還可以減少簇中心更新耗時(shí),進(jìn)而從整體上提升算法的運(yùn)算效率。

        近年來(lái)研究人員圍繞聚類中心的選擇與優(yōu)化提出了新的計(jì)算方法,目的是令中心點(diǎn)更加分散,更加符合樣本的分布情況。如熊忠陽(yáng)等[5]在密度法的基礎(chǔ)上選取到所有已初始化聚類中心距離乘積最大的高密度點(diǎn)作為聚類中心;翟東海等[6]用最大距離法選取初始簇中心,并構(gòu)造了一種將文本相似度轉(zhuǎn)化為文本距離的方法;盛華等[7]針對(duì)K-means算法存在的問(wèn)題,提出一種融合K-means算法與聚類的快速搜索和發(fā)現(xiàn)密度峰算法的聚類算法;周鹿揚(yáng)等[8]提出了一種基于聚類中心的快速聚類算法,將數(shù)據(jù)集中較大或延伸狀的簇分割成若干球狀簇,而后合并這些小簇,較好地適應(yīng)任意形狀數(shù)據(jù)集。田詩(shī)宵等[9]為各樣本點(diǎn)引入局部密度指標(biāo),根據(jù)其局部密度分布情況,選取處于密度峰值的點(diǎn)作為初始質(zhì)心;褚睿鴻等[10]提出了一個(gè)基于密度峰值的聚類集成模型,使用改進(jìn)的最大信息系數(shù)表示各基聚類結(jié)果之間的相關(guān)性;陳晉音等[11]提出了基于自動(dòng)確定密度聚類中心的聚類算法。

        在上述文獻(xiàn)基礎(chǔ)上,本文將聚類算法的準(zhǔn)確率與時(shí)間性能的提升作為研究目標(biāo),提出了基于最大距離積與最小距離和協(xié)同的K聚類改進(jìn)算法,從初始聚類中心的合理性選擇和簇中心的快速更新兩個(gè)方面對(duì)K-means算法進(jìn)行了改進(jìn)。

        2 基于最大距離積與最小距離和協(xié)同K聚類算法

        本文算法將聚類劃分成兩個(gè)階段:選擇初始聚類中心階段和更新簇中心階段,基本思路如下。

        在選擇初始聚類中心階段,首先計(jì)算樣本集X中各數(shù)據(jù)對(duì)象的密度,從而得到樣本集的平均密度。然后將密度值大于樣本平均密度一定倍數(shù)的數(shù)據(jù)對(duì)象視為高密度點(diǎn),并劃分至高密度點(diǎn)集合D中,再計(jì)算D中各高密度點(diǎn)與樣本集X的中心Xcenter之間的距離,將到Xcenter距離最遠(yuǎn)的高密度點(diǎn)C1存儲(chǔ)至初始聚類中心集合C中,再將與Xcenter和C1距離乘積最大的高密度點(diǎn)C2存儲(chǔ)至C中。同理,在集合D中選取到Xcenter、C1及C2距離乘積最大的高密度點(diǎn)C3存儲(chǔ)至C中。以此類推,得到全部初始聚類中心集合C={C1,C2,…,Ck}。

        本文算法的基本概念、算法描述以及時(shí)間復(fù)雜度分析具體如下。

        2.1 基本概念

        設(shè)X={X1,X2,…,Xi,…,Xn}為含有n個(gè)數(shù)據(jù)對(duì)象的樣本集合,每個(gè)樣本含有p個(gè)屬性Xi={Xi1,Xi2,…,Xip}?,F(xiàn)將該集合劃分為k個(gè)簇,即X={Cluster1,Cluster2,…,Clusterk},每簇含樣本m個(gè),簇中心所構(gòu)成的集合C={C1,C2,…,Ck}(k

        定義1空間兩點(diǎn)間的歐氏距離定義為:

        (1)

        式中:i=1,2,…,n;j=1,2,…,n;w=1,2,…,p。

        定義2空間任意兩點(diǎn)間距離平均值定義為:各樣本間的距離總和除以從樣本集中任意選取兩個(gè)樣本的所有排列次數(shù)。

        (2)

        定義3樣本Xi的密度定義為:以Xi為圓心,以α×avgDist為半徑的圓內(nèi)(含圓上)所包含數(shù)據(jù)對(duì)象的個(gè)數(shù),即當(dāng)滿足條件d(Xi,Xj)≤α×avgDist時(shí),count()函數(shù)累計(jì)加1,α是半徑調(diào)節(jié)系數(shù),默認(rèn)值為1。

        (3)

        式中:i=1,2,…,n;j=1,2,…,n。

        定義4樣本集X的平均密度定義為:

        (4)

        定義5高密度點(diǎn)集合定義為:密度高于樣本集X的平均密度一定倍數(shù)的數(shù)據(jù)對(duì)象組成的集合。

        D={Xh}

        (5)

        式中:Xh為滿足dens(Xh)≥β×avgDens的數(shù)據(jù)對(duì)象,Xh∈X,β是密度調(diào)節(jié)系數(shù),默認(rèn)值為1。

        定義6樣本集X的中心是X的均值,定義為:

        (6)

        定義7樣本Xi與簇內(nèi)其他數(shù)據(jù)對(duì)象的距離之和定義為:

        (7)

        式中:Xi∈Clustert,Xj∈Clustert,t=1,2,…,k。

        定義8簇內(nèi)距離和矩陣定義為:

        (8)

        式中:t=1,2,…,k。

        定義9在簇中心更新過(guò)程中,將與簇內(nèi)其他樣本距離之和最小的數(shù)據(jù)對(duì)象Xi作為該簇的中心,Xi滿足以下條件:

        distSum_X(i)=min(distSum_Cluster(t))

        (9)

        式中:t=1,2,…,k。

        定義10聚類誤差平方和E的定義為:

        (10)

        式中:Xij是第i簇的第j個(gè)數(shù)據(jù)對(duì)象,Ci是第i簇的中心。

        2.2 算法描述

        1) 選擇初始聚類中心:

        (1) 根據(jù)式(1)-式(3)計(jì)算樣本集X中各數(shù)據(jù)對(duì)象的密度;

        (2) 根據(jù)式(4)-式(6)得到高密度點(diǎn)集合D和樣本集中心Xcenter;

        (3) 根據(jù)式(1)計(jì)算D到Xcenter的距離,選擇滿足max(d(Di,Xcenter))的數(shù)據(jù)對(duì)象Di作為第一個(gè)初始聚類中心C1加入集合C中;

        (4) 選擇滿足max(d(Dj,Xcenter)×d(Dj,C1))的數(shù)據(jù)對(duì)象Dj作為第二個(gè)初始聚類中心C2加入集合C中;

        (5) 重復(fù)步驟(4),直到集合C中的元素個(gè)數(shù)等于k,即|C|=k。

        2) 更新簇中心:

        (1) 根據(jù)式(1)計(jì)算樣本集X中各數(shù)據(jù)對(duì)象與C中各中心點(diǎn)的距離,并按最小距離將各對(duì)象劃分至最近的簇中;

        (2) 根據(jù)式(7)、式(8)得到簇內(nèi)距離和矩陣distSum_Cluster;

        (3) 根據(jù)式(9)從distSum_Cluster中查詢簇內(nèi)樣本距離之和最小的數(shù)據(jù)對(duì)象,并將其作為一個(gè)新的簇中心存入集合C′中;

        (4) 重復(fù)2)中的步驟(2)、(3),更新各簇的中心,直到|C′|=k,再用C′取代C。

        3) 劃分?jǐn)?shù)據(jù):

        (1) 將樣本集X中的數(shù)據(jù)對(duì)象按距離劃分到最近的簇中;

        (2) 根據(jù)式(10)計(jì)算本次聚類誤差平方和E,判斷是否收斂,如果收斂,則聚類算法結(jié)束,否則轉(zhuǎn)到2),再次更新簇中心。

        2.3 時(shí)間復(fù)雜度分析

        K-means算法的時(shí)間復(fù)雜度為O(nkT),其中T是算法的迭代次數(shù),k是聚類個(gè)數(shù),n是數(shù)據(jù)集樣本個(gè)數(shù)。與傳統(tǒng)K-means算法相比,本文算法的時(shí)間復(fù)雜度有兩處變化:一是在初始聚類中心的選擇上用基于密度的最大距離乘積法取代傳統(tǒng)的隨機(jī)選取算法;二是在更新簇中心過(guò)程中用MSDCC算法取代了傳統(tǒng)的均值算法,時(shí)間復(fù)雜度變?yōu)镺(n2+nkt)。在初始聚類中心選擇階段,n2>n,所用時(shí)間大于傳統(tǒng)算法,但各中心點(diǎn)相對(duì)分散且具有較強(qiáng)代表性,這使得簇中心在更新過(guò)程中可以快速逼近全局最優(yōu)解,因此迭代次數(shù)減少,故t<

        對(duì)于小規(guī)模樣本集,本文算法的時(shí)間性能在整體上優(yōu)于傳統(tǒng)K-means和文獻(xiàn)[5-6],實(shí)驗(yàn)測(cè)試也證明了上述分析。但對(duì)于大樣本集,初始聚類中心的選擇耗時(shí)較長(zhǎng),此時(shí)本文算法的時(shí)間性能將有所下降。

        3 實(shí)驗(yàn)結(jié)果與分析

        本文的實(shí)驗(yàn)環(huán)境:Intel Core i3-4010 1.70 GHz,2 GB內(nèi)存,500 GB硬盤,Win7操作系統(tǒng),實(shí)驗(yàn)平臺(tái)為Matlab 2011b,測(cè)試所用的6個(gè)UCI數(shù)據(jù)集描述如表1所示。

        表1 實(shí)驗(yàn)所用的UCI數(shù)據(jù)集

        為檢驗(yàn)MSDCC算法對(duì)聚類準(zhǔn)確率和聚類時(shí)間這兩項(xiàng)指標(biāo)的影響,實(shí)驗(yàn)中對(duì)文獻(xiàn)[5-6]算法和本文算法進(jìn)行了交叉驗(yàn)證,具體為:用MSDCC算法取代文獻(xiàn)[5-6]在簇中心更新過(guò)程中所使用的均值法;用均值法取代本文的MSDCC算法。文獻(xiàn)[5-6]和本文算法改動(dòng)前后的對(duì)比實(shí)驗(yàn)結(jié)果如表2-表4所示。為便于理解,修改后的算法分別記為“文獻(xiàn)[5] + ”、“文獻(xiàn)[6] + ”和“本文-”。

        表2 均值法和MSDCC法的聚類準(zhǔn)確率比較 %

        表3 均值法和MSDCC法的簇更新時(shí)間比較 ms

        表4 均值法和MSDCC法的迭代次數(shù)比較

        從表2-表4可見,使用MSDCC算法后,文獻(xiàn)[5-6]和本文算法的聚類準(zhǔn)確率穩(wěn)中有升,迭代次數(shù)明顯小于使用前,簇中心更新時(shí)間明顯減少。由于MSDCC算法和“均值中心法”在簇中心更新過(guò)程中的選擇方式不同,前者需要重新計(jì)算樣本間的距離,運(yùn)算量遠(yuǎn)大于后者,所以每次更新所用時(shí)間必然大于后者。但是MSDCC算法遵循這樣一個(gè)事實(shí),即每次簇更新后,簇中心必然被其他樣本緊密圍繞,簇中心與簇內(nèi)其他樣本的距離之和一定最小。因此,每次簇更新后所選擇的簇中心更加接近最優(yōu)解,進(jìn)而減少了簇中心的更新次數(shù),減少了更新耗時(shí)。

        圖1-圖8是K-means算法、文獻(xiàn)[5-6]算法和本文算法在UCI數(shù)據(jù)集上的對(duì)比實(shí)驗(yàn)結(jié)果??紤]到K-means算法的特殊性,將算法運(yùn)行20次后所得到的平均值作為其最終結(jié)果。

        圖1 初始中心選擇耗時(shí)比較 圖2 簇中心更新耗時(shí)比較

        圖3 聚類總耗時(shí)比較 圖4 簇中心更新次數(shù)比較

        圖5 Rand指數(shù)比較 圖6 Jaccard系數(shù)比較

        圖7 Adjusted Rand Index參數(shù)比較 圖8 聚類準(zhǔn)確率比較

        由圖1可知,在初始聚類中心選擇階段,三種改進(jìn)算法耗時(shí)明顯大于傳統(tǒng)K-means算法,這是因?yàn)楹笳咴谶x取聚類中心時(shí)無(wú)需額外計(jì)算,固耗時(shí)少,速度快。而三種改進(jìn)算法對(duì)這一過(guò)程進(jìn)行了優(yōu)化,計(jì)算量有不同程度的增加,耗時(shí)也相對(duì)增加。此外,本文算法在該階段的耗時(shí)略高于文獻(xiàn)[5-6],主要原因是:本文算法先對(duì)整個(gè)樣本集的密度參數(shù)進(jìn)行了計(jì)算,在此基礎(chǔ)上又采用了最大距離乘積法對(duì)高密度點(diǎn)集合從分布合理性的角度進(jìn)行了多次篩選,增加了計(jì)算開銷,故耗時(shí)略高。

        由圖2可知,在簇中心更新階段,三種改進(jìn)算法的耗時(shí)明顯小于傳統(tǒng)K-means算法,這是因?yàn)槿N改進(jìn)算法的初始聚類中心基本體現(xiàn)了數(shù)據(jù)對(duì)象的大致分布,從而減少了本階段的迭代次數(shù)(結(jié)果詳見表4),故耗時(shí)減少。需要特別指出的是,本文算法在此階段的耗時(shí)小于文獻(xiàn)[5-6],這說(shuō)明使用MSDCC算法所得到的簇中心,可以更準(zhǔn)確地反映數(shù)據(jù)集的整體分布情況。

        由圖3、圖4可知,與其他三種算法相比,本文算法總耗時(shí)短、迭代次數(shù)少、收斂速度快,這是由于K-means算法隨機(jī)選擇初始聚類中心,容易導(dǎo)致同一個(gè)簇的兩個(gè)數(shù)據(jù)對(duì)象被錯(cuò)誤的當(dāng)作兩個(gè)簇中心,使得總迭代次數(shù)與總耗時(shí)同時(shí)增加。另一方面,文獻(xiàn)[5-6]雖然對(duì)初始聚類中心的選擇進(jìn)行了改進(jìn),但簇中心的更新依然沿用傳統(tǒng)K-means的均值算法,這使得中心點(diǎn)代表性較差,因此迭代次數(shù)及總耗時(shí)都大于本文算法。

        關(guān)于算法聚類結(jié)果的評(píng)價(jià),本文還采用三個(gè)典型的外部評(píng)價(jià)指標(biāo)[12-16]和聚類準(zhǔn)確率對(duì)四種算法分別進(jìn)行了比較。如圖5-圖8所示,本文算法在Rand指數(shù)、Jaccard系數(shù)、Adjusted Rand Index參數(shù)、聚類準(zhǔn)確率這四個(gè)聚類有效性指標(biāo)對(duì)比測(cè)試中,結(jié)果優(yōu)于其他三種算法。UCI數(shù)據(jù)集的實(shí)驗(yàn)結(jié)果分析可以得出:本文算法在收斂速度、聚類準(zhǔn)確率等多項(xiàng)評(píng)價(jià)指標(biāo)中表現(xiàn)良好,因此,可以應(yīng)用于實(shí)際數(shù)據(jù)的聚類。

        4 結(jié) 語(yǔ)

        本文將聚類算法的準(zhǔn)確率與時(shí)間性能的提升作為研究目標(biāo),根據(jù)數(shù)據(jù)對(duì)象的自然分布,給出了密度參數(shù)的計(jì)算公式。并在此基礎(chǔ)上改進(jìn)了最大距離乘積法,得到了具有良好代表性的初始聚類中心,在簇中心更新過(guò)程中,提出了“簇中心到簇內(nèi)樣本距離之和最小算法”,選取合適的數(shù)據(jù)對(duì)象作為簇中心。對(duì)比測(cè)試表明,本文算法對(duì)聚類中心的選取更加合理,聚類結(jié)果更加理想。在實(shí)際應(yīng)用中,本算法對(duì)現(xiàn)代學(xué)徒制的課程序列進(jìn)行了聚類挖掘[17],快速準(zhǔn)確地完成了課程的識(shí)別、分類、分級(jí)和序化四個(gè)的任務(wù),評(píng)測(cè)指標(biāo)優(yōu)于其他三種算法。但是在實(shí)驗(yàn)中也發(fā)現(xiàn),在中小規(guī)模數(shù)據(jù)集上本文算法的時(shí)間性能明顯優(yōu)于傳統(tǒng)K-means算法,但隨著數(shù)據(jù)集規(guī)模的增大,本算法的時(shí)間性能出現(xiàn)下滑。因此,作為下一步研究工作,應(yīng)在提高聚類準(zhǔn)確率的同時(shí)進(jìn)一步提升算法的整體時(shí)間性能,以尋求更為合理高效的聚類方法。

        參 考 文 獻(xiàn)

        [1] 于海濤,賈美娟,王慧強(qiáng),等.基于人工魚群的優(yōu)化K-means聚類算法[J].計(jì)算機(jī)科學(xué),2012,39(12):60-64.

        [2] Han Jiawei,Kamber M,裴健.數(shù)據(jù)挖掘概念與技術(shù)[M].范明,孟小峰,譯.3版.北京:機(jī)械工業(yè)出版社,2013:288-347.

        [3] Zhang X,Furtlehner C,Germainrenaud C,et al.Data Stream Clustering With Affinity Propagation[J].IEEE Transactions on Knowledge & Data Engineering,2013,26(7):1644-1656.

        [4] Ntoutsi I,Zimek A,Palpanas T,et al.Density-based Projected Clustering over High Dimensional Data Streams[C]//Proceedings of the 2012 SIAM International Conference on Data Mining,2012:987-998.

        [5] 熊忠陽(yáng),陳若田,張玉芳.一種有效的K-means聚類中心初始化方法[J].計(jì)算機(jī)應(yīng)用研究,2011,28(11):4188-4190.

        [6] 翟東海,魚江,高飛,等.最大距離法選取初始簇中心的K-means文本聚類算法的研究[J].計(jì)算機(jī)應(yīng)用研究,2014,31(3):713-715,719.

        [7] 盛華,張桂珠.一種融合K-means和快速密度峰值搜索算法的聚類方法[J].計(jì)算機(jī)應(yīng)用與軟件,2016,33(10):260-264,269.

        [8] 周鹿揚(yáng),程文杰,徐建鵬,等.一種基于聚類中心的快速聚類算法[J].計(jì)算機(jī)科學(xué),2016,43(S1):454-456,484.

        [9] 田詩(shī)宵,丁立新,鄭金秋.基于密度峰值優(yōu)化的K-means文本聚類算法[J].計(jì)算機(jī)工程與設(shè)計(jì),2017,38(4):1019-1023.

        [10] 褚睿鴻,王紅軍,楊燕,等.基于密度峰值的聚類集成[J].自動(dòng)化學(xué)報(bào),2016,42(9):1401-1412.

        [11] 陳晉音,何輝豪.基于密度的聚類中心自動(dòng)確定的混合屬性數(shù)據(jù)聚類算法研究[J].自動(dòng)化學(xué)報(bào),2015,41(10):1798-1813.

        [12] 張惟皎,劉春煌,李芳玉.聚類質(zhì)量的評(píng)價(jià)方法[J].計(jì)算機(jī)工程,2005,31(20):10-12.

        [13] 于劍,程乾生.模糊聚類方法中的最佳聚類數(shù)的搜索范圍[J].中國(guó)科學(xué)E輯:技術(shù)科學(xué),2002,32(2):274-280.

        [14] 卞彩峰,邱建林,陳燕云,等.基于粒計(jì)算的k值選取及其應(yīng)用[J].計(jì)算機(jī)工程與設(shè)計(jì),2015,36(11):3082-3086.

        [15] Hubert L,Arabie P.Comparing partitions[J].Journal of Classification,1985,2(1):193-218.

        [16] 謝娟英,郭文娟,謝維信,等.基于樣本空間分布密度的初始聚類中心優(yōu)化K-均值算法[J].計(jì)算機(jī)應(yīng)用研究,2012,29(3):888-892.

        [17] 楊宇,鄒臣嵩,譚永洲,等.一種基于序列聚類的現(xiàn)代學(xué)徒制課程體系建構(gòu)方法[J].韶關(guān)學(xué)院學(xué)報(bào),2017(6):22-25.

        猜你喜歡
        準(zhǔn)確率聚類對(duì)象
        神秘來(lái)電
        睿士(2023年2期)2023-03-02 02:01:09
        乳腺超聲檢查診斷乳腺腫瘤的特異度及準(zhǔn)確率分析
        健康之家(2021年19期)2021-05-23 11:17:39
        不同序列磁共振成像診斷脊柱損傷的臨床準(zhǔn)確率比較探討
        2015—2017 年寧夏各天氣預(yù)報(bào)參考產(chǎn)品質(zhì)量檢驗(yàn)分析
        高速公路車牌識(shí)別標(biāo)識(shí)站準(zhǔn)確率驗(yàn)證法
        攻略對(duì)象的心思好難猜
        意林(2018年3期)2018-03-02 15:17:24
        基于DBSACN聚類算法的XML文檔聚類
        基于熵的快速掃描法的FNEA初始對(duì)象的生成方法
        區(qū)間對(duì)象族的可鎮(zhèn)定性分析
        基于改進(jìn)的遺傳算法的模糊聚類算法
        老外和中国女人毛片免费视频| 亚洲精品大全中文字幕| 国产白浆在线免费观看| 精品久久久久久成人av| 国产精品厕所| 亚洲中文字幕有码av| 亚洲国产精品婷婷久久| 免费看av在线网站网址| 色综合久久久久久久久五月| 久久精品韩国日本国产| 国产精品一区av在线| 久久久精品久久久国产| 少妇人妻综合久久中文字幕| 久久久日韩精品一区二区三区 | 少妇被爽到高潮喷水久久欧美精品 | 精品人妻少妇一区二区中文字幕| 久久国产精品免费一区二区三区| 中文亚洲av片不卡在线观看| 福利视频一二三在线观看| 午夜福利视频男同女同| 国产午夜福利小视频在线观看| 久久久久久久亚洲av无码| 四房播播在线电影| 久久久久久久久高潮无码 | 亚洲午夜无码毛片av久久| 日韩亚洲av无码一区二区不卡| 一区二区久久不射av| 日本一区二区三区丰满熟女| 乱码av麻豆丝袜熟女系列 | 国产一区二区熟女精品免费| 中国无码人妻丰满熟妇啪啪软件| 亚洲影院天堂中文av色| 青青草原亚洲在线视频| 色视频网站一区二区三区| 久久中文字幕无码专区| 成人免费无码a毛片| 成人大片免费在线观看视频| 狠狠躁夜夜躁人人躁婷婷视频| 福利一区二区三区视频午夜观看| 久久久人妻丰满熟妇av蜜臀| 亚洲日韩精品a∨片无码加勒比|