亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        視圖關系學習與圖學習的多視圖圖聚類

        2023-10-29 04:20:50高清維趙大衛(wèi)盧一相
        計算機與生活 2023年10期
        關鍵詞:集上視圖聚類

        袁 柱,高清維,王 琳,趙大衛(wèi),盧一相,孫 冬,竺 德

        安徽大學 電氣工程與自動化學院,合肥 230601

        聚類作為無監(jiān)督學習的一個分支是一種常見的數(shù)據(jù)分析方法,在機器學習、人工智能和模式識別等領域有著舉足輕重的作用。它廣泛應用于信息檢索、數(shù)據(jù)分類和異常檢測等場景[1]。聚類是根據(jù)數(shù)據(jù)之間的關系,將數(shù)據(jù)集劃分為不同的聚類簇。聚類分析的目標可以概括為“類內的相似性與類間的排他性”?,F(xiàn)實生活中,從不同的角度看待問題能夠把問題描述得更加全面。從不同方面描述的數(shù)據(jù)稱為多視圖數(shù)據(jù),相比單視圖數(shù)據(jù)而言,多視圖數(shù)據(jù)包含更豐富的信息,從而把事物描述得更加全面。因此,多視圖數(shù)據(jù)廣泛存在于實際應用中。例如,一則新聞可以由不同的媒體報道,一個對象可以用正面和側面等不同的角度分別描述[2-3]。

        多視圖聚類應用于人臉識別、新聞數(shù)據(jù)處理等人們生活的各個場景。在人臉識別技術中,往往會受到來自光線、面部表情和面部細節(jié)的干擾,使得識別精準度與效率降低,而多視圖聚類能夠有效地解決這一問題。對于目前存在的新聞數(shù)據(jù)類型復雜、數(shù)量龐大以及傳播速度極快等現(xiàn)狀,有效處理新聞數(shù)據(jù)成為了一個新問題。在日常生活中,面對龐雜的新聞,人們往往不能快速獲得感興趣的信息。而多視圖聚類可以有效挖掘新聞的類屬信息,能夠很好地解決個性化新聞推薦這一難題。本文在后續(xù)的實驗部分將針對上述兩種應用場景,驗證本文算法的有效性與可行性。

        串聯(lián)所有的視圖通常會導致維度災難。因此,處理單視圖數(shù)據(jù)的方法不能直接遷移到處理多視圖數(shù)據(jù)上。近些年來,人們陸續(xù)提出了許多多視圖聚類方法??梢苑譃槲孱悾憾嘁晥D子空間聚類[4]、基于協(xié)同訓練的多視圖聚類、基于多核學習的多視圖聚類、多任務多視圖聚類、多視圖圖聚類。多視圖子空間聚類方法假設高維數(shù)據(jù)通常分布于低維子空間的并上[5-6]。它基于自表達性,即假設每個樣本可以被其他樣本線性表示。為了得到具有塊對角陣結構表示系數(shù)矩陣Z,關于Z的兩個廣泛使用的假設是低秩[6]和稀疏[7]。通過對所有的表示系數(shù)矩陣求平均值得到相似性矩陣,最后把它作為譜聚類算法的輸入[8],得到最終的聚類結果。在此基礎上,提出了多種多視圖子空間聚類模型。文獻[9]提出了新的多視圖子空間聚類算法。對所有的視圖都學習一個圖,并強制執(zhí)行一個公共的聚類指標矩陣。但這一假設往往是不成立的,因為公共的聚類指標矩陣必須包含所有視圖的部分信息。因此,無法得到一個所有視圖共同認可的聚類指標矩陣。DiMSC(diversity-induced multi-view subspace clustering)[10]利用希爾伯特-施密特獨立準則(Hilbert Schmidt independence criterion,HSIC)作為多樣性項來探索多視圖數(shù)據(jù)的互補性。它通過挖掘多視圖數(shù)據(jù)的互補信息,提高聚類結果的準確性。文獻[11]提出了一個基于聯(lián)合相似圖的多視圖子空間聚類方法。這個聯(lián)合相似圖是基于多樣性正則化和秩約束的低秩表示來構建的。CiMSC(consistency-induced multiview subspace clustering)[12]以視圖內結構一致性和樣本分配一致性作為切入點,可以從高維數(shù)據(jù)中,學習到一個有效的子空間表示,并通過非線性重構方式將其編碼為潛在表示。但上述三種模型均采用了平均值圖作為譜聚類算法的輸入,忽略了這種低質量視圖對聚類結果的影響。LGOMSC(fusing local and global information for one-step multiview subspace clustering)[13]與文獻[14]提供了一種一步式多視圖子空間聚類,它融合了子空間表示、多視圖信息融合和聚類作為一個統(tǒng)一的優(yōu)化框架來實現(xiàn)聚類。但這種方法忽略了不同視圖的多樣性,因此多視圖數(shù)據(jù)的互補信息沒有得到充分的挖掘。

        在多視圖圖聚類方法中,用圖形表示對象與對象之間的關系。圖形中的節(jié)點對應數(shù)據(jù)對象,圖形中的每個邊描繪一對對象之間的關系。一般把對象之間的關系用相似性表示,即輸入圖矩陣由樣本數(shù)據(jù)相似性矩陣生成。一個常見的假設是每個視圖可以捕獲多視圖數(shù)據(jù)的部分信息,多視圖數(shù)據(jù)中每個視圖對應的圖形都具有相似的聚類結構。因此,多視圖可以通過合并視圖以增強數(shù)據(jù)對象之間的關系。多視圖圖聚類的目的是在所有視圖中找到一個融合圖,然后在融合圖上應用圖形切割算法或譜聚類,產(chǎn)生最終的聚類結果。如何得到一個有利于聚類的融合圖,成為多視圖圖聚類的首要問題。在文獻[15-17]中運用多視圖數(shù)據(jù)矩陣加權融合的方法,雖然它們沒有添加額外的聚類方法,但它們獨立地為每個視圖構造相似圖矩陣,這種方法可能會得到次優(yōu)的融合圖。MAGC(multi-view attributed graph clustering)[18]使用圖過濾來實現(xiàn)聚類的平滑表示,并引入一種加權機制,區(qū)別不同視圖的不同貢獻。在實際應用中,每個視圖在共識圖中的重要性不同。因此,文中給每個相似圖分配不同的權重[19]。GMC(graph-based multi-view clustering)[20]應用一種自加權圖融合技術,將所有多視圖數(shù)據(jù)矩陣融合,生成一個融合圖數(shù)據(jù)矩陣。融合圖數(shù)據(jù)矩陣反過來改進了每個視圖的數(shù)據(jù)矩陣,在不使用別的圖切割算法下直接得到了最終的聚類結果。文獻[21]開發(fā)了一個統(tǒng)一的框架,同時進行圖學習和譜聚類。然而,這種方法不能對所有視圖保持靈活的局部多樣性結構,導致聚類性能表現(xiàn)不佳[22]。文獻[23]的方法運用每個視圖是融合圖的一個擾動和接近融合圖的圖應該被賦予較大權重的理論。在融合過程中對圖進行動態(tài)加權,有效降低了噪聲圖的干擾效應。文獻[24-25]針對現(xiàn)有的基于歐幾里德結構的多視圖圖聚類方法,提出了一種基于流行拓撲結構的聚類方法,將多個自適應圖整合到一個共識圖中。GBS(graph-based system)[26]的工作原理是提取每個視圖的數(shù)據(jù)特征矩陣,構造所有視圖的圖矩陣,并將構造的圖矩陣融合生成一個統(tǒng)一的圖矩陣,得到最終的聚類。文獻[27]為了實現(xiàn)最優(yōu)的全局特征學習,提出了一種把自適應圖學習稀疏表示與自適應加權合作學習相結合。它通過引入自適應圖學習的同步優(yōu)化方法可以更好地保留每個視圖內部的完整結構,使得到的全局最優(yōu)矩陣有利于最終的聚類結果。

        影響多視圖聚類性能的因素是能否充分挖掘和利用隱藏在其中的信息。這些信息包括高維數(shù)據(jù)在低維子空間的分布、多視圖數(shù)據(jù)分布的幾何形狀、多視圖視圖數(shù)據(jù)之間的互補信息以及不同視圖所占權重等。然而上文提及的方法,在一定程度上不能有效地利用或挖掘出這些信息,以至于得到次優(yōu)的聚類結果。為了充分挖掘隱藏在多視圖數(shù)據(jù)中的信息,本文提出了一種視圖關系與圖結構學習的多視圖圖聚類方法,在一個統(tǒng)一的框架中基于多視圖自表達來整合圖融合與譜聚類學習。具體來說,首先把視圖自表達學習擴充到多視圖領域,有效地揭示了高維數(shù)據(jù)的低維子空間分布。其次對得到的相似圖做流形正則化處理,控制樣本數(shù)據(jù)分布的幾何形狀,明確地加強子空間表示。然后利用HSIC作為多樣性表示,充分利用隱藏在多視圖數(shù)據(jù)之間的互補信息。進一步,采用誘導自加權的圖融合學習方法,交替優(yōu)化融合圖和不同視圖所占權重,將相似圖動態(tài)加權得到融合圖。最后,通過對融合圖圖結構的學習,建立了與譜聚類的聯(lián)系,構建了一個高質量的譜聚類輸入圖,生成聚類結果。圖1展示了本文工作的框架結構圖。在后續(xù)五個廣泛使用的數(shù)據(jù)集上的實驗結果表明,提出的視圖關系學習與圖學習的多視圖圖聚類算法具有一定的有效性和競爭性。

        圖1 視圖關系學習與圖學習的多視圖圖聚類算法框架Fig.1 Multi-view graph clustering algorithm framework for view relation learning and graph learning

        1 視圖關系學習與圖學習的多視圖圖聚類

        1.1 符號與定義

        X={X1,X2,…,Xv}是有v個視圖的多視圖數(shù)據(jù)矩陣,其中表示第v個視圖的特征維度,n表示視圖所包含的樣本個數(shù)。Zv∈Rn×n(v=1,2,…,h)是第v個視圖相似圖。U∈Rn×n是融合圖。β、γ、δ、ε、ζ是權衡參數(shù)。

        1.2 多視圖自表達學習

        1.2.1 單視圖自表達學習

        單視圖數(shù)據(jù)集是指利用一種類型的特征對樣本集合進行描述,從而構成的數(shù)據(jù)矩陣。給定一個單視圖樣本數(shù)據(jù)集X=[x1,x2,…,xn]∈Rd×n,該樣本數(shù)據(jù)集有n個樣本向量,每個樣本向量的特征維度是d,設這組數(shù)據(jù)屬于k(k已知或未知)個低維線性子空間的并。

        單視圖子空間聚類是指將這組樣本數(shù)據(jù)分割為不同的類,在理想情況下,每一類對應一個子空間。它的基本思想是,將樣本數(shù)據(jù)向量xi表示為其他所有屬于數(shù)據(jù)集X的樣本向量的線性組合??梢员硎緸椋?/p>

        對表示系數(shù)施加一定的約束,使得當xi與xj不屬于同一個子空間時,有zij=0。將所有的數(shù)據(jù)及其表示系數(shù)按一定方式排成矩陣,則方程(1)等價于:

        其中,Z∈Rn×n表示系數(shù)矩陣。若已知數(shù)據(jù)的子空間結構,并將數(shù)據(jù)按類別逐列排放,則在一定條件下可使表示系數(shù)矩陣Z具有塊對角結構,可以寫為:

        其中,Zα(α=1,2,…,k)表示樣本數(shù)據(jù)在所屬子空間的系數(shù)矩陣。也就是說,若Z具有塊對角結構,那么這種結構揭示了高維數(shù)據(jù)的低維子空間結構。

        在實際應用中,數(shù)據(jù)往往受各種噪聲或奇異值樣本的影響,這種影響是不可忽略的,此時可以把視圖自表達模型描述為:

        本文使用最小二乘回歸子空間聚類模型,優(yōu)化上述方程(4),得到方程(5):

        式中,第一項為數(shù)據(jù)項,刻畫了表示數(shù)據(jù)與真實數(shù)據(jù)的逼近程度;第二項為正則項。β>0 是一個權衡參數(shù),用來衡量視圖自表達學習中數(shù)據(jù)項和正則項的關系。若β的值過大,對噪聲或離群值魯棒效果較差;若β的值過小,得到的Zv的結構對最終的聚類結果不利。

        1.2.2 擴充到多視圖領域的自表達學習

        為了更加完備地表示一個樣本集合,往往需要使用更高維度的特征描述樣本集合,這被稱為多視圖數(shù)據(jù)集。把視圖自表達學習擴充到多視圖領域的優(yōu)勢在于:(1)多視圖數(shù)據(jù)集的不同特征可以從不同的角度捕獲更多的信息,相比單視圖聚類只能利用單一的特征獲得部分信息,多視圖聚類結果的精度更高。(2)多視圖數(shù)據(jù)之間存在互補和一致性信息,將多視圖數(shù)據(jù)矩陣構成單一的特征表示矩陣,通常會存在特征冗余,并且不同視圖的統(tǒng)計特性是不同的。如果只是簡單地將所有視圖矩陣組合成一個數(shù)據(jù)矩陣,通常會破壞原始特征空間的內在結構。而將視圖自表達學習擴充到多視圖領域可以有效解決上述問題。

        在后續(xù)的可視化分析中,本文所提算法在BBCSport多視圖數(shù)據(jù)集上的聚類結果要明顯優(yōu)于在該數(shù)據(jù)集上只使用單視圖的聚類結果。證明了本文將視圖自表達學習擴充到多視圖領域的可行性。

        把從單視圖的自表達學習擴充到多視圖領域得到方程(6):

        如同在SMR(smooth representation),本文使用圖的正則化技術,它明確地加強子空間表示以滿足聚類效果[28]。流行正則化學習可以挖掘數(shù)據(jù)分布的幾何形狀,將其作為一個增加的正則項來控制樣本分布的幾何形狀。流形正則化學習的一個直觀解釋是,如果兩個數(shù)據(jù)點很接近,那么它們在相似圖中也很接近。它具有以下形式||xi-xj||2→0 ?||zi-zj||2→0,?i≠j。定義如下:

        其中,前兩項是擴充到多視圖領域的視圖自表達學習。利用樣本數(shù)據(jù)相關性,對原始數(shù)據(jù)構建表示系數(shù)矩陣。方程使用Frobenius 范數(shù)進行約束,使得表示系數(shù)矩陣Z具有塊對角結構且對大部分噪聲有很強的魯棒性,揭示了高維數(shù)據(jù)的低維子空間分布。最后一項是流形正則化項,γ是正則化項參數(shù)。對得到的相似圖做流形正則化處理,控制樣本數(shù)據(jù)分布的幾何形狀,明確地加強子空間表示,進一步提高聚類精確度。

        可以看出,方程(8)所提算法僅考慮多視圖的相似性信息。雖然使用流行正則化技術進一步地約束,但忽略了多視圖數(shù)據(jù)之間的關系,沒有充分挖掘和利用多視圖之間的信息,得到的相似圖質量較低。

        1.3 視圖關系學習

        多視圖的互補信息是每個視圖可能包含其他視圖不具備的知識。因此,采用多視圖能夠全面和準確地描述數(shù)據(jù)。然而,現(xiàn)有的多視圖學習方法有很大的局限性,它們不能保證不同視圖對應不同相似矩陣之間的互補性。換句話說,這些方法假設獨立構造的相似矩陣之間有豐富的互補信息,或假設多視圖彼此之間是獨立的。然而,這種假設是沒有任何依據(jù)的。因此,本文對視圖之間的多樣性進行研究。

        為了增加多視圖數(shù)據(jù)之間的多樣性,本文探究矩陣之間的依賴關系。根據(jù)文獻[29]可以得到,多視圖數(shù)據(jù)的多樣性與它們的依賴性息息相關。簡單來說,如果數(shù)據(jù)之間有高度的依賴性,那么它們之間就有更強的多樣性。兩個變量之間的依賴性可以用很多方法來測量。本文采用HSIC,因為HSIC 實現(xiàn)簡單,能夠解決線性和非線性問題,并且經(jīng)驗HSIC 可以用數(shù)據(jù)矩陣乘積的跡來表示,這保證了問題的可解性。HSIC在希爾伯特空間中計算Zv和Zv′上的互協(xié)方差算子的平方范數(shù),根據(jù)經(jīng)驗HSIC的定義[29],其表達式為:

        其中,K1和K2是格拉姆矩陣,H=δij-1/n,H∈Rn×n。本文使用HSIC衡量數(shù)據(jù)之間的依賴性,保證多視圖數(shù)據(jù)提供足夠的互補信息,減少數(shù)據(jù)的冗余信息。

        多視圖互補信息的探索是多視圖聚類的核心。因此,結合方程(8)和方程(9)得到:

        其中,δ是正則化項參數(shù)。最后一項利用HSIC 獨立準則,依據(jù)核相關性度量來挖掘多視圖數(shù)據(jù)間的多樣性,明確地對不同視圖進行共正則化,深入探索了不同視圖的互補信息。通過對上述聯(lián)合增強的多視圖自表達學習,可以得到每個視圖的相似圖{Z1,Z2,…,Zh}。通常取相似圖的平均值圖作為譜聚類算法的輸入,以獲得最終的聚類結果。但該方法沒有區(qū)分不同視圖在融合圖中所占權重,并且會受到噪聲視圖的影響。因此,用次優(yōu)的融合圖作為譜聚類的輸入得到的聚類結果并不理想。

        1.4 圖融合

        本文基于以下兩點:(1)每個視圖的相似圖Zv是融合圖U的一個擾動;(2)接近融合圖的視圖應該占較大的權重。提出一種誘導自加權的圖融合學習,自動加權每個相似圖Z1,Z2,…,Zh的不同權重,得到一個統(tǒng)一的融合圖U:

        其中,wv根據(jù)如下計算規(guī)則獲?。?/p>

        在實際應用中為了避免分母為0,使用方程(13):

        其中,μ是一個非常小的數(shù)。

        方程(11)中的wv依賴于U,即方程(11)中第一項的U和wv相互耦合。如果固定wv,可以把wv理解為第v個視圖的在融合圖中的所占權重。如果相似圖Zv很接近融合圖U,那么||Zv-U||F的值很小,wv的值就很大,即接近融合圖的視圖能夠分得較高的權重。反之當Zv遠離U時,wv的值很小,視圖分配的權重較低。這使得wv可以作為多視圖在融合圖中的權重,這一項的存在是有意義的。

        根據(jù)方程(11)得到的U可以進一步用于方程(13)wv的更新。因此可以通過交替優(yōu)化U和wv的方法,來解決前文提出的一種誘導自加權的圖融合學習。在下文的算法1,給出交替優(yōu)化U和wv的具體過程。

        1.5 圖結構學習與譜聚類

        譜聚類作為多視圖圖聚類的方法之一,它是一種應用圖的分割理論,將圖分割為多個獨立的連通分量,每個連通對應一個簇。目前通常把圖割理論優(yōu)化為對拉普拉斯矩陣進行譜分解問題。一般情況下,聚類的目標聚類簇數(shù)量往往是事先給定的,在本文中取k。那么方程(10)與方程(11)的解融合圖U也應該有k個連接點,即數(shù)據(jù)點已經(jīng)被聚類為k個簇。如何約束融合圖U,使得U能滿足上述條件,獲得優(yōu)質的譜聚類輸入圖,因此,本文對融合圖U的結構進行學習。

        根據(jù)拉普拉斯矩陣性質,圖U的連接點k的數(shù)目等于它的拉普拉斯矩陣LU的零特征值的重根數(shù)目。由于LU是一個半正定矩陣,它的特征值λn≥…≥λ2≥λ1≥0。即如果,那么融合圖U就有k個連接點,才能作為譜聚類的輸入。因此本文需要最小化

        通過對融合圖的拉普拉斯矩陣LU的特征向量進行聚類,將聚類問題轉換成圖的最優(yōu)劃分問題。根據(jù)Ky Fan定理,本文可以得到譜聚類的目標函數(shù):

        譜聚類算法通過輸入融合圖U和聚類目標簇數(shù)k,接著計算度矩陣DU和拉普拉斯矩陣LU,然后利用拉普拉斯矩陣的特征向量進行聚類。

        將方程(14)帶入到方程(11)中,可得到:

        聯(lián)合方程(10)和方程(15)得到一種基于視圖關系與圖結構學習的多視圖圖聚類算法模型:

        其中,前四項相輔相成,充分地挖掘了多視圖數(shù)據(jù)的互補信息。這樣得到的相似圖,可以有效且全面地揭示隱藏在數(shù)據(jù)中的分布結構。ε、ζ是正則化項參數(shù)。后兩項進一步用誘導自加權的圖融合學習方法,把融合圖和不同視圖所占權重交替優(yōu)化。最后,通過對融合圖結構的學習,建立了圖學習與譜聚類之間的聯(lián)系,構建了一個高質量的輸入圖作為譜聚類算法的輸入,從而得到最終聚類結果。

        2 優(yōu)化

        2.1 方程(10)的優(yōu)化算法

        求解方程(10)需要利用HSIC 的內積,即Kv=(Zv)TZv??梢缘玫饺缦路匠蹋?/p>

        可以看出,方程(18)對于每個視圖都是獨立的。因此,對于每個視圖,本文可以分別更新Zv。方程(18)關于Zv求導得到:

        通過求解方程(20),可以得到每個視圖的相似圖。對方程(10)的求解步驟,在算法1中做出總結。

        2.2 方程(16)的優(yōu)化算法

        提取的多視圖數(shù)據(jù)矩陣,使用算法1得到相似圖Z1,Z2,…,Zh。之后本文通過求解方程(16)得到融合圖U。觀察到,方程(16)中的變量是相互耦合的,本文可以通過交替迭代的方法優(yōu)化求解。

        2.2.1 固定F 和U 更新wv

        方程(16)轉化成方程(11),可以由方程(13)直接得到。

        2.2.2 固定F 和wv 更新U

        注意到L是U的函數(shù),方程(16)可以轉化為:

        方程(22)關于U(:,i)的導數(shù)為:

        2.2.3 固定wv 和U 更新F

        可以把方程(16)轉化為求解方程(25):

        F的最優(yōu)解由LU的k個特征值對應的k個最小特征向量組成。

        經(jīng)過優(yōu)化,所有變量都更新完畢。算法1總結了方程(16)的求解細節(jié)。

        算法1MVG(multi-view graph clustering algorithm combining view relation learning and graph learning)算法的優(yōu)化

        輸入:多視圖數(shù)據(jù)矩陣X={X1,X2,…,Xh},聚類的數(shù)量k,參數(shù)β>0,γ>0,δ>0,ε>0,ζ>0。

        輸出:相似圖Z1,Z2,…,Zh,融合圖U,聚類指標矩陣F。

        步驟1利用HSIC內積,把方程(10)轉化為方程(18)。對方程(18)關于Zv求導,令導數(shù)為0,得到多視圖相似圖矩陣Z1,Z2,…,Zh。方程(16)中的各變量相互耦合,步驟2、步驟3、步驟4采用交替迭代的方法優(yōu)化求解。

        步驟2固定F和U,把方程(16)轉化為方程(11),根據(jù)方程(12)求解wv。

        步驟3固定F和wv,由于L是U的函數(shù),把方程(16)轉化為方程(21)。對方程(21)進行變換,并關于U(:,i)求導,令導數(shù)為0,可得U。

        步驟4固定wv和U,把方程(16)轉化為方程(25),根據(jù)方程(25)求解F。

        2.3 復雜度分析

        MVG 算法的復雜度由三部分組成。具體來說,更新Zv需要計算矩陣的逆,它的復雜度為O(n3)。更新U的復雜度為O(hn),其中h是多視圖數(shù)據(jù)的視圖數(shù)。更新F需要計算拉普拉斯矩陣的特征向量,它的復雜度為O(kn2),其中k是聚類數(shù)目,n是樣本個數(shù)。設經(jīng)過t次迭代后算法停止,總復雜度為O((n2+h+kn)tn),其中h?n,k?n,t?n。對比其他方法的復雜度:MCLES(multi-view clustering in latent embedding space)[30]的總復雜度為其中d(v)是第v個視圖數(shù)據(jù)集的維度,d是隱含嵌入表示的維度,k是聚類數(shù)目,V是多視圖數(shù)據(jù)的視圖數(shù),n是樣本個數(shù);GMC[20]的總復雜度為O(((mk+mn+c+cn)n)t+mnkd),其中m是多視圖數(shù)據(jù)的視圖數(shù),k是領域的數(shù)量,c是聚類數(shù)目,t是迭代次數(shù),n是樣本個數(shù);LMSC(latent multi-view subspace clustering)[31]的復雜度為O(k2d+d3+k3+n3+dkn+kn2),其中k為潛在表示的維度,d是多視圖特征的總維度,n是樣本個數(shù);MCDCF(multi-view clustering via deep concept factorization)[32]的總復雜度為O(m(pn2+dn2+hrqn2)),其中m是多視圖數(shù)據(jù)的視圖數(shù),p是近鄰圖數(shù)量,q是內在維度,d是所有視圖的原始特征維度,r是迭代次數(shù),n是樣本個數(shù);FPMVS(fast parameter-free multi-view subspace clustering)[33]的總復雜度為O(hk2+hk3+nk3),其中h是所有視圖的維度總和,k為聚類數(shù),n是樣本個數(shù)。通過對比上述算法的復雜度,本文所提算法更簡潔。

        2.4 收斂性分析

        觀察方程(16)發(fā)現(xiàn),除了圖融合項外,其余項是明顯的凸函數(shù)。因此僅需要證明圖融合項是否具有收斂性。接下來重點對圖融合項的收斂性做理論分析。

        引理1[34]對于任何的非0常數(shù)x和y,都有以下不等式成立:

        代入wv=1/(2||Zv-U||F),得到:

        根據(jù)引理1,可以得到:

        聯(lián)合方程(28)和方程(29),可以得到:

        因此,每次迭代之后,圖融合項總是在單調遞減,直至收斂。因此在大多數(shù)情況下,算法1 至少會收斂到局部最優(yōu)解。在后續(xù)的收斂性實驗部分同樣證明了這一點。

        3 實驗

        為了驗證本文方法的聚類性能,在五個廣泛使用的多視圖數(shù)據(jù)集上進行實驗。根據(jù)六個評價指標,將MVG算法與其他算法進行比較。

        3.1 數(shù)據(jù)集

        五個數(shù)據(jù)集分別是reuters-1200、BBCSport、prokaryotic、ORL 和3scources。數(shù)據(jù)集的資料詳細統(tǒng)計在表1中。

        表1 數(shù)據(jù)集介紹Table 1 Introduction of datasets

        3.2 比較方法

        實驗中,將本文提出的MVG算法與九種多視圖聚類算法進行對比。對比算法分別是SC_best、GMC[20]、GFSC(multi-graph fusion for multi-view spectral clustering)[23]、MCLES[30]、LMSC[31]、MCDCF[32]、FPMVS[33]、Co-Reg[35]、LTMSC(low-rank tensor constrained multiview subspace clustering)[36]。SC_best 算法在每一個視圖上運用譜聚類算法,通過信息量最大的一個視圖,得到單個視圖的最佳聚類結果。Co-Reg 算法運用共正則化的原理,使不同視圖的聚類一致。MCLES算法在潛在嵌入表示之后構造相似矩陣,并利用聚類指標矩陣直接得出聚類結果。GMC算法使用稀疏表示和自加權策略得到多個視圖統(tǒng)一的圖矩陣,之后對圖的拉普拉斯矩陣施加秩約束,不需要額外的聚類步驟。LMSC算法引入多視圖潛在表示,增強聚類結果的魯棒性。LMSC 算法在子空間表示中加入低秩約束,探索數(shù)據(jù)的高階相關性,減少了視圖的冗余信息。GFSC算法提出新的多視圖譜聚類模型,同時進行圖融合和譜聚類。MCDCF 將多層概念分解引入到多視圖聚類中,能夠學習層次信息,并推導出一個共識表示矩陣來獲取視圖間的共享信息。FPMVS將錨抽樣機制和子空間圖的構建統(tǒng)一到一個模型里,兩個過程相互協(xié)商,提高聚類效果。

        3.3 評價指標

        聚類分析要求高的類內的相似性,低的類間的相似性。為了對所有聚類算法的性能進行評估,本文選擇了6個廣泛使用的評價指標,對所有的評價指標,數(shù)值越大,說明聚類性能越好。不同的評價指標算法對聚類特性的偏好不同,選用多個評價指標能能全面地評價算法的聚類效果。

        (1)標準化互信息NMI(normalized mutual information):

        其中,H(X)和H(Y)分別是隨機變量X、Y的熵,I(X,Y)是兩個隨機變量X和Y的互信息。

        (2)準確度ACC(accuracy),準確度用來度量預測結果與真實數(shù)據(jù)之間的關系,定義如下:

        其中,si和ri是給定樣本數(shù)據(jù)xi的真實類別標記和聚類標記。當x=y時,δ(x,y) 的值為1,否則為0。map(ri)是映射函數(shù),將聚類標記映射到真實類別。

        (3)蘭德系數(shù)RI(Rand index),它表示預測樣本正確聚類的值。值越大說明聚類結果和樣本真實情況越相似。RI定義如下:

        其中,TP是同一類的樣本劃分到同一個聚類簇;FN是同一類的樣本劃分到不同的聚類簇;FP是不同類的樣本劃分到同一個聚類簇;TN是不同類的樣本劃分到不同的聚類簇。

        (4)精確率P(precision),它表示預測樣本判定為相同聚類中,樣本真實情況正確分類的占比。P定義如下:

        (5)F(F-score),結合精確率和召回率R(recall)定義如下:

        (6)調整蘭德系數(shù)AR(adjusted Rand index),在RI的基礎上,提出了具有更高預測區(qū)分度的AR,定義如下:

        3.4 實驗結果

        對于比較算法,采用原論文中的建議調節(jié)參數(shù),保存較好的實驗結果。對于所有算法,每個實驗重復運行10 次,報告平均值的標準偏差。評價指標的值越大,表明聚類性能越好。表2~表6 報告了MVG算法在5 個數(shù)據(jù)集reuters-1200、BBCSport、prokaryotic、ORL和3scources上的聚類結果。其中,最優(yōu)結果加粗顯示。

        表2 各算法在reuters-1200數(shù)據(jù)集上的實驗結果Table 2 Experimental results of each algorithm on reuters-1200 dataset

        表3 各算法在BBCSport數(shù)據(jù)集上的實驗結果Table 3 Experimental results of each algorithm on BBCSport dataset

        表4 各算法在prokaryotic數(shù)據(jù)集上的實驗結果Table 4 Experimental results of each algorithm on prokaryotic dataset

        表5 各算法在ORL數(shù)據(jù)集上的實驗結果Table 5 Experimental results of each algorithm on ORL dataset

        表6 各算法在3scources數(shù)據(jù)集上的實驗結果Table 6 Experimental results of each algorithm on 3scources dataset

        通過比較表2~表6的實驗結果,本文可以觀察到以下幾點:

        (1)在所有的實驗結果中,MVG算法在大部分情況下優(yōu)于其他多視圖聚類方法。具體來說,MVG 算法在總實驗中排名第一的占比為66.7%,排名第二的占比為26.7%,排名第三的占比為3.34%。

        (2)在ORL 和reuters-1200 數(shù)據(jù)集上,MVG 算法始終優(yōu)于其他多視圖聚類方法,這表明本文提出的MVG算法的有效性。在reuters-1200數(shù)據(jù)集上,MVG算法展示出較強的競爭力,評價指標NMI、ACC、P、F、RI和AR分別比次優(yōu)方法提升0.22、0.09、0.115、0.152、0.032和0.185。

        (3)MVG 算法始終優(yōu)于SC_best 方法,多視圖數(shù)據(jù)優(yōu)于單視圖數(shù)據(jù)的聚類結果,表明多視圖聚類中探索數(shù)據(jù)互補信息的重要性。MVG算法在大多數(shù)情況下優(yōu)于GFSC算法,表明加入視圖關系學習能夠有效提高多視圖聚類性能。

        3.5 可視化分析

        為了更直觀地描述算法的聚類結果,分析其揭示隱藏在數(shù)據(jù)中分布結構的能力。本文運用t-SNE(t-distributed stochastic neighbor embedding)可視化算法,將對比算法的聚類結果、MVG算法的聚類結果和在單視圖數(shù)據(jù)集上的MVG 算法的聚類結果可視化。圖2展示了上述三個實驗在BBCSport數(shù)據(jù)集上的可視化聚類結果,不同的顏色表示不同的聚類簇。根據(jù)圖2(a)~圖2(e)觀察到,本文提出的MVG算法,相同顏色的點更緊密,即聚類簇內的數(shù)據(jù)點具有強相關性。且不同顏色的簇之間分離度更高,即簇與簇之間有較強的無關性。實驗結果進一步驗證了類內的相似性與類間排他性的聚類目標。這充分表明本文算法的可行性與有效性,以及該算法具有揭示隱藏在數(shù)據(jù)中分布結構的能力。根據(jù)圖2(e)、圖2(f)可以觀察到,MVG算法在BBCSport多視圖數(shù)據(jù)集上的聚類結果,要明顯優(yōu)于在該數(shù)據(jù)集上只使用單視圖進行聚類的結果。這表明多視圖聚類方法優(yōu)于單視圖聚類方法,同時驗證了本文將視圖自表達學習擴充到多視圖領域的可行性。

        3.6 消融研究

        為了驗證本文提出的MVG算法中,視圖多樣性項、多視圖數(shù)據(jù)分布的幾何形狀和融合圖圖結構項對聚類效果的影響,在5 個數(shù)據(jù)集上進行消融研究。MVG的3個變體算法定義如下,MVG-D忽略視圖多樣性,MVG-C忽略視圖數(shù)據(jù)分布的幾何形狀,MVGS 忽略融合圖圖結構。MVG-D、MVG-C 和MVG-S分別將參數(shù)δ、γ、ζ設為0,在6 個評價指標上的聚類結果如圖3所示。根據(jù)圖3,可以觀察到以下幾點:(1)對比MVG 聚類算法的結果,當忽略多視圖數(shù)據(jù)分布的幾何形狀,即MVG-C不進行流行正則化學習時,相比MVG 算法在常見的5 個數(shù)據(jù)集3scources、ORL、prokaryotic、BBCSport 和reuters-1200 上的聚類評價指標都顯示次優(yōu)的聚類結果。(2)忽略融合圖圖結構時,即MVG-S??梢钥闯?,對聚類輸入圖的圖結構進行約束,在聚類評價指標都有一定程度的提升。

        圖3 MVG算法的消融研究Fig.3 Ablation study of MVG algorithm

        3.7 參數(shù)敏感性分析

        MVG 算法有5 個參數(shù),β是數(shù)據(jù)自表達項的參數(shù),γ是控制數(shù)據(jù)分布幾何形狀項的參數(shù),δ是視圖多樣性項的參數(shù),ε是圖融合項的參數(shù),ζ是圖結構項的參數(shù)。在reuters-1200數(shù)據(jù)集上進行參數(shù)敏感性分析實驗,本文給出所有參數(shù)的敏感性分析結果。固定其他4個參數(shù)保持不變,改變其中一個參數(shù)的取值范圍。圖4展示了在reuters-1200數(shù)據(jù)集上所有參數(shù)對聚類性能的影響。

        由圖4可以看出,參數(shù)β、參數(shù)γ、參數(shù)δ、參數(shù)ε和參數(shù)ζ分別在10、0.1、1、0.1、10 左右,聚類取得最佳結果。參數(shù)的取值,過大或者過小都會降低聚類性能或導致聚類精度波動較大。當β的值過大時,對噪聲或奇異值樣本魯棒效果較差;當β的值過小時,得到的Zv的結構對最終的聚類結果不利。當γ的值過大時,對樣本分布的幾何形狀約束過高;當γ的值過小時,不能明確地加強子空間表示。當δ的值過大時,視圖的多樣性項權重過高,導致學習的相似圖不準確;當δ的值過小時,多視圖視圖之間的互補信息不能得到充分的挖掘。類似的,參數(shù)ε的值過大時,會導致聚類評價指標的波動過大;參數(shù)ε的值過小時,融合圖的質量不再受到算法的關注。參數(shù)ζ的值過大時,導致次優(yōu)的聚類評價指標;參數(shù)ζ的值過小時,一定程度上忽略了融合圖圖結構的學習。

        3.8 收斂性實驗

        本文提出的MVG 算法包含4 個未知變量,分別是Zv、wv、U和F。在每次迭代中,每次優(yōu)化問題都有一個封閉解,可以表明,整個優(yōu)化算法有較好的收斂性。圖5顯示了MVG算法在5個數(shù)據(jù)集上的收斂曲線。橫坐標表示迭代次數(shù),縱坐標表示目標函數(shù)值。在實驗中,最大迭代數(shù)為10。從圖5 可以看出,MVG在少量迭代中收斂,這能夠證明所提出的算法有很好的收斂性。

        圖5 MVG算法的收斂性實驗Fig.5 Convergence experiment of MVG algorithm

        4 結論

        在一個統(tǒng)一的框架中基于多視圖自表達來整合圖融合與譜聚類學習。把視圖自表達學習擴充到多視圖領域,有效地揭示了高維數(shù)據(jù)的低維子空間分布。對得到的相似圖做流形正則化處理,控制樣本數(shù)據(jù)分布的幾何形狀,明確加強子空間表示。把HSIC 準則作為多樣性項,充分利用隱藏在多視圖數(shù)據(jù)之間的互補信息。采用誘導自加權的圖融合學習方法,通過交替迭代優(yōu)化,將相似圖動態(tài)加權,得到一個融合圖。通過對融合圖結構的學習,建立了圖學習與譜聚類之間的聯(lián)系,構建一個高質量的輸入圖作為譜聚類的輸入,生成聚類結果。不僅能夠充分挖掘隱藏在多視圖數(shù)據(jù)中的豐富的信息,在此基礎上自加權融合相似圖,優(yōu)化譜聚類的輸入。在多個數(shù)據(jù)集上的實驗結果表明,該算法具有一定的可行性與有效性。

        猜你喜歡
        集上視圖聚類
        Cookie-Cutter集上的Gibbs測度
        鏈完備偏序集上廣義向量均衡問題解映射的保序性
        基于DBSACN聚類算法的XML文檔聚類
        電子測試(2017年15期)2017-12-18 07:19:27
        復扇形指標集上的分布混沌
        5.3 視圖與投影
        視圖
        Y—20重型運輸機多視圖
        SA2型76毫米車載高炮多視圖
        基于改進的遺傳算法的模糊聚類算法
        一種層次初始的聚類個數(shù)自適應的聚類方法研究
        久久久久亚洲精品无码蜜桃 | 亚洲av成人波多野一区二区| 丝袜美腿网站一区二区| 久久久久久久久中文字幕| 西西少妇一区二区三区精品| 亚洲av日韩精品一区二区| 国产一区二区三区视频在线观看 | 免费亚洲一区二区三区av| 国产suv精品一区二区四| 熟女少妇精品一区二区| 老熟妇乱子伦av| 男女真实有遮挡xx00动态图 | 日本免费一二三区在线| 天堂在线资源中文在线8| 一本一本久久aa综合精品 | 美女啪啪国产| 久久久久久久久久免免费精品| 亚洲视频在线播放免费视频| 久久色悠悠综合网亚洲| 久久aaaa片一区二区| av蓝导航精品导航| 国产福利酱国产一区二区| 午夜av内射一区二区三区红桃视| 日本一区二区高清视频| 久久综合久久综合久久| 成人免费xxxxx在线观看| 99热久久这里只精品国产www| 国产精品入口牛牛影视| av天堂一区二区三区精品| 日本va中文字幕亚洲久伊人| 久久精品99国产精品日本 | 无码高清视频在线播放十区| 一区二区三区日本久久| 色偷偷色噜噜狠狠网站30根| 天堂资源中文最新版在线一区| 亚洲的天堂av无码| 久久婷婷色香五月综合激情| 丝袜美腿诱惑一二三区| 亚洲精品一区三区三区在线| 亚洲av网一区二区三区| 一区二区传媒有限公司|