亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于局部建模的異構(gòu)圖表征學(xué)習(xí)方法

        2023-10-20 15:51:34湯齊浩
        現(xiàn)代計(jì)算機(jī) 2023年15期
        關(guān)鍵詞:異構(gòu)注意力語義

        湯齊浩,楊 亮

        (河北工業(yè)大學(xué)人工智能與數(shù)據(jù)科學(xué)學(xué)院,天津 300401)

        0 引言

        現(xiàn)實(shí)世界中的對象及其互動通常是多模式和多類型的,異構(gòu)圖能夠很好地對這些復(fù)雜而多樣的聯(lián)系進(jìn)行建模,它包含了多種類型的節(jié)點(diǎn)或邊,并廣泛存在于自然科學(xué)和社會科學(xué)界,比如引文網(wǎng)絡(luò)和電商網(wǎng)絡(luò)。近些年來,異構(gòu)圖表征學(xué)習(xí)受到了廣泛關(guān)注,并基于這個(gè)研究發(fā)展了異構(gòu)圖神經(jīng)網(wǎng)絡(luò)(heterogeneous graph neural networks,HGNNs)。

        然而,現(xiàn)有的HGNNs 基于節(jié)點(diǎn)交互的方式來進(jìn)行鄰居信息聚合,這種方法雖然能夠較好地捕捉簡單的二元關(guān)系,但存在于鄰居節(jié)點(diǎn)之間的高階語義聯(lián)系卻被忽略,因此,節(jié)點(diǎn)表征無法蘊(yùn)含其局部特征。一些基于異構(gòu)注意力機(jī)制[1-3]的方法引入了與類型有關(guān)的注意力層來捕獲類型信息,不同類型的節(jié)點(diǎn)基于各自的上下文進(jìn)行交互,這種方式不僅需要引入大量的參數(shù)組,而且對圖中存在的噪聲較為敏感,另外,還需要多個(gè)注意力頭來提取多樣化的局部信息,由于多個(gè)注意力頭之間沒有任何約束,這使得捕獲的信息存在高度的冗余性。盡管后來一些方法[4-5]將超圖與異構(gòu)圖進(jìn)行結(jié)合來進(jìn)一步考慮節(jié)點(diǎn)之間的高階關(guān)系,它們利用元路徑實(shí)例構(gòu)建超邊,將原始異構(gòu)圖分解成多重超圖,然而這些方法受限于專家知識預(yù)定義的元路徑,而且也僅僅將這種高階關(guān)系局限于元路徑內(nèi)部。

        針對上述問題,本文提出了基于局部建模的異構(gòu)圖表征學(xué)習(xí)方法L2NH。該方法通過構(gòu)建鄰居節(jié)點(diǎn)之間的協(xié)方差矩陣來捕獲它們之間潛在的語義聯(lián)系,為了進(jìn)一步融入邊的類型信息,提出關(guān)系編碼對局部網(wǎng)絡(luò)進(jìn)行“去異”操作,并將類型信息融入到協(xié)方差矩陣從而全面地描述局部網(wǎng)絡(luò)特征。然后將局部子網(wǎng)進(jìn)行特征值分解并從一個(gè)全局的視角進(jìn)行鄰居聚合,即局部到點(diǎn)的聚合方式,使得節(jié)點(diǎn)表征蘊(yùn)含其局部特征。最后在分解的基礎(chǔ)上,提出了一種多通道機(jī)制來捕獲多樣化的局部信息。

        1 模型設(shè)計(jì)與分析

        1.1 概述

        本節(jié)將詳細(xì)闡述所提出的L2NH模型,它的總體框架如圖1所示,可分為多關(guān)系局部網(wǎng)絡(luò)提取、關(guān)系編碼與相關(guān)性建模和多通道融合三個(gè)階段。

        圖1 L2NH模型示意圖

        在第一階段中,以每個(gè)節(jié)點(diǎn)為中心提取它所在的局部子網(wǎng)。如圖1(a)所示,淺藍(lán)色橢圓區(qū)域代表以節(jié)點(diǎn)v為中心的局部網(wǎng)絡(luò)。在第二階段中,首先以關(guān)系編碼的方式將邊表征增廣到節(jié)點(diǎn)表征上進(jìn)行“去異”操作,然后構(gòu)建節(jié)點(diǎn)之間的協(xié)方差矩陣來挖掘它們之間的潛在語義聯(lián)系,具體示意圖見圖1(b)。在第三階段,對局部網(wǎng)絡(luò)進(jìn)行分解得到多個(gè)正交的通道,在每個(gè)通道中得到蘊(yùn)含局部特征的節(jié)點(diǎn)表征,最后通過注意力機(jī)制將這些表征進(jìn)行融合得到最終的節(jié)點(diǎn)表征,如圖1(c)所示,圖中u1、u2、u3坐標(biāo)軸代表著3個(gè)通道的方向,不同的通道兩兩正交,zv表示多個(gè)通道下的表征經(jīng)過注意力融合之后最終節(jié)點(diǎn)v的表征。

        1.2 多關(guān)系局部網(wǎng)絡(luò)提取

        一個(gè)異構(gòu)圖可以被定義G={V,E,Tv,Te,?,φ} ,它包括節(jié)點(diǎn)集V、邊集E、節(jié)點(diǎn)類型集合Tv和邊類型(或者關(guān)系)集合Te,由于包含多種類型的節(jié)點(diǎn)或邊,它還定義了一個(gè)節(jié)點(diǎn)類型映射函數(shù)?:V→Tv和一個(gè)邊類型映射函數(shù)φ:E→Te。對于任何關(guān)系r∈Te,都可以得到一個(gè)關(guān)系矩陣Ar∈R|V|×|V|,它對應(yīng)著G的一個(gè)二部子圖。對于Ar中的任何非0 元素aij,它表示節(jié)點(diǎn)vi與vj之間存在關(guān)系r,反之則不存在。最后將所有的關(guān)系矩陣加在一起得到G的鄰接矩陣A,其具體表達(dá)式如下:

        對于節(jié)點(diǎn)v來說,它對應(yīng)的局部網(wǎng)絡(luò)可以從A的第v列導(dǎo)出,將提取節(jié)點(diǎn)v的局部網(wǎng)絡(luò)定義如下:

        其中:f(). 代表子圖提取操作,Gv表示以v為中心的局部子網(wǎng),它包含了v的一階鄰居以及它們關(guān)聯(lián)的邊,如圖1(a)淺藍(lán)色區(qū)域所示。

        1.3 關(guān)系編碼與相關(guān)性建模

        當(dāng)?shù)玫蕉嚓P(guān)系局部子網(wǎng)Gv以后,開始進(jìn)行局部建模來挖掘潛在的語義聯(lián)系。為了方便闡述,這里僅僅關(guān)注模型的第一層,并且不失一般性地假設(shè)Gv一共有M個(gè)節(jié)點(diǎn)。這些節(jié)點(diǎn)的屬性矩陣表示為Xv=[x1,x2,…,xM],每一列對應(yīng)一個(gè)節(jié)點(diǎn)的屬性向量,它們關(guān)聯(lián)的關(guān)系集合為。

        由于不同類型的節(jié)點(diǎn)可能具有不同維度的屬性,因此采用了針對每種節(jié)點(diǎn)類型的線性層,將節(jié)點(diǎn)特征映射到共享的特征空間,具體表達(dá)式如下:

        表示節(jié)點(diǎn)的原始特征向量,hv∈RF表示對齊之后的節(jié)點(diǎn)向量,表示可學(xué)習(xí)參數(shù)矩陣,即一個(gè)與節(jié)點(diǎn)原始特征維度有關(guān)的線性層。

        正如前文所述,傳統(tǒng)的點(diǎn)對點(diǎn)傳播方式默認(rèn)鄰居節(jié)點(diǎn)之間相互獨(dú)立而忽略了它們的潛在語義聯(lián)系,本文提出的L2NH模型認(rèn)為鄰居節(jié)點(diǎn)之間具有相關(guān)性,節(jié)點(diǎn)之間的傳播應(yīng)該反映節(jié)點(diǎn)周圍的特征。具體而言,L2NH 構(gòu)建了一個(gè)協(xié)方差矩陣來描述鄰居節(jié)點(diǎn)之間的相關(guān)性,并采用自注意力機(jī)制[6]來捕捉這種成對的依賴關(guān)系。自注意力機(jī)制可以描述為一個(gè)映射函數(shù),它接受一個(gè)查詢和一系列鍵值對作為輸入,并生成一個(gè)輸出。為了避免引入過多的參數(shù)組增加模型的復(fù)雜度,L2NH 僅使用一個(gè)投影矩陣來簡化查詢(Q)、鍵(K)和值(V)矩陣的獲取過程。用H=[h1,h2,…,hM]表示Gv中的節(jié)點(diǎn)投影到公共空間的表征矩陣,它的每一列對應(yīng)著一個(gè)節(jié)點(diǎn),然后再通過一個(gè)投影矩陣W∈RF×F將所有節(jié)點(diǎn)映射到隱藏層表征空間來獲取Q、K、V三種矩陣,它們表示如下:

        受圖像尺度歸一化[7]使得圖像更具有對比度的啟發(fā),節(jié)點(diǎn)的每個(gè)維度減去節(jié)點(diǎn)整體平均值的操作使得節(jié)點(diǎn)在每個(gè)維度上的表征更具有區(qū)分度和可比性。設(shè)所有節(jié)點(diǎn)的平均值構(gòu)成局部網(wǎng)絡(luò)的平均向量,它表示為μ=[μ1,μ2,…,μM]T,對于μv∈R,它的具體表達(dá)式如下:

        經(jīng)過尺度歸一化之后,Q、K、V矩陣可以重定義為

        得到Q、K矩陣以后,基于它們的相似度來捕獲節(jié)點(diǎn)之間的相關(guān)性,進(jìn)而構(gòu)建鄰居節(jié)點(diǎn)的協(xié)方差矩陣來描述局部特征,于是,協(xié)方差矩陣表示為

        然而,在Gv中通常存在多種類型的邊,由于局部性已經(jīng)融入了拓?fù)湫畔?,如何在局部建模的過程中融合邊的類型信息成了又一挑戰(zhàn)。在以往基于點(diǎn)對點(diǎn)傳播方式的研究工作中,要么引入與邊類型有關(guān)的參數(shù)組[8],要么將邊的表征融入到消息中進(jìn)行傳播[9],要么將關(guān)系類型融入到注意力值中,它們一是引入了大量的可學(xué)習(xí)參數(shù)組導(dǎo)致模型過于復(fù)雜,二是仍然堅(jiān)持建模同構(gòu)圖的觀點(diǎn)。為了避免這種問題,這里L(fēng)2NH采用了一種非常簡單而有效的關(guān)系編碼方式。具體而言,給每條邊分配一個(gè)d維的表征,對于相同類型的邊它們分配的表征一樣,而不同類型的邊分配的表征則不一樣。基于這種限制,Ev對應(yīng)的邊表征矩陣可以表示為R=[r1,r2,…,rM],然后將邊的類型信息轉(zhuǎn)移到節(jié)點(diǎn)上對Gv進(jìn)行“去異”操作得到增廣后的節(jié)點(diǎn)表征矩陣表達(dá)如下:

        協(xié)方差矩陣S本質(zhì)上描述了節(jié)點(diǎn)之間的相關(guān)性,而通過關(guān)系編碼將邊的類型信息融合到該矩陣中,因此可以用更少的參數(shù)對局部子網(wǎng)進(jìn)行建模,全面地反映了節(jié)點(diǎn)的局部特征。

        1.4 多通道融合

        為了在鄰居聚合的時(shí)候考慮到局部的潛在語義聯(lián)系,L2NH 采用了一種局部到點(diǎn)的鄰居聚合方式。具體而言,將協(xié)方差矩陣S∈RM×M進(jìn)行特征值分解得到局部子網(wǎng)的特征向量,計(jì)算過程定義如下:

        為了獲取更為多樣化的局部信息,目前流行的方法為多頭注意力機(jī)制和多通道機(jī)制。它們利用相同意義的非共享參數(shù)重復(fù)著相同的操作流程,試圖捕獲多樣化的信息。然而,注意力頭或者通道之間是完全獨(dú)立的,沒有任何約束來加強(qiáng)信息的多樣性,這會造成信息的冗余而進(jìn)一步引發(fā)過擬合。為此,本文在局部相關(guān)性建模的基礎(chǔ)上提出了一種全新的多通道方法來提取多樣化的局部信息。具體而言,不同的特征向量可以用作不同的通道,不同的通道之間相互正交,這種正交的性質(zhì)可以加強(qiáng)捕獲信息的多樣性。對于通道m(xù),節(jié)點(diǎn)v的表征為

        節(jié)點(diǎn)最終的表征zv可以通過注意力機(jī)制將多個(gè)通道進(jìn)行加權(quán)求和得到,具體表達(dá)如下:

        其中:M為通道的個(gè)數(shù),可以被解釋為通道m(xù)對節(jié)點(diǎn)v的重要性,該系數(shù)可以通過以下公式進(jìn)行計(jì)算:

        其中MLP:RF∈R 是一個(gè)兩層的多層感知機(jī),隱藏層的激活函數(shù)為tanh,所有節(jié)點(diǎn)的局部網(wǎng)絡(luò)都共享同一個(gè)MLP。

        對于半監(jiān)督節(jié)點(diǎn)分類任務(wù),通過最小化交叉熵?fù)p失來優(yōu)化模型參數(shù),具體的損失函數(shù)表達(dá)如下:

        其中:C代表著分類器的參數(shù),VL代表訓(xùn)練集的節(jié)點(diǎn)集合。而yv表示節(jié)點(diǎn)v真實(shí)標(biāo)簽。zv代表節(jié)點(diǎn)v用于分類任務(wù)的表征,它來自于模型的輸出層。

        2 實(shí)驗(yàn)

        為了驗(yàn)證L2NH的有效性,本文將在四個(gè)常用的異構(gòu)圖數(shù)據(jù)集上與八個(gè)先進(jìn)的基準(zhǔn)方法進(jìn)行實(shí)驗(yàn)對比。

        2.1 數(shù)據(jù)集

        本文實(shí)驗(yàn)數(shù)據(jù)集包括兩個(gè)學(xué)術(shù)網(wǎng)絡(luò)DBLP 和ACM,一個(gè)電影網(wǎng)絡(luò)IMDB 和一個(gè)商業(yè)網(wǎng)絡(luò)Yelp。數(shù)據(jù)集詳細(xì)統(tǒng)計(jì)信息如表1所示。

        表1 數(shù)據(jù)集的統(tǒng)計(jì)數(shù)據(jù)

        2.2 對比方法

        本文通過與一些先進(jìn)的基線模型進(jìn)行對比,來驗(yàn)證所提出的L2NH的有效性。

        Metapath2Vec(簡稱MP2Vec)[10]:該方法基于元路徑進(jìn)行截?cái)嚯S機(jī)游走并結(jié)合skip-gram 算法實(shí)現(xiàn)保留語義相似性。本文依次測試了MP2Vec所有元路徑,并報(bào)告了最佳性能結(jié)果。

        HAN[11]:該方法利用層次化的注意力機(jī)制,包括節(jié)點(diǎn)級別的注意力和語義級別的注意力,同時(shí)學(xué)習(xí)節(jié)點(diǎn)和元路徑的重要性。

        MAGNN[12]:該方法進(jìn)一步考慮了HAN 忽略的元路徑實(shí)例中的中間節(jié)點(diǎn),然后使用注意力機(jī)制執(zhí)行元路徑內(nèi)部聚合和元路徑間聚合。

        RGCN:該方法在GCN[13]的基礎(chǔ)上在聚合鄰居的時(shí)候引入與邊類型有關(guān)的參數(shù)組來對不同邊上的消息進(jìn)行與類型有關(guān)的轉(zhuǎn)換。

        GTN[14]:該方法將每種關(guān)系看作一個(gè)可學(xué)習(xí)權(quán)重,整個(gè)異構(gòu)圖就是一個(gè)可學(xué)習(xí)的帶權(quán)同構(gòu)圖,并且通過端到端學(xué)習(xí)來自動發(fā)現(xiàn)元路徑,因此該方法可以認(rèn)為是基于注意力機(jī)制的模型。

        HGT:是一種基于Transformer 架構(gòu)的異構(gòu)圖神經(jīng)網(wǎng)絡(luò),通過引入與相鄰節(jié)點(diǎn)類型和邊類型有關(guān)的參數(shù)組來計(jì)算邊注意力值。

        HetSANN:該方法應(yīng)用與邊類型有關(guān)的注意力層來計(jì)算不同類型邊上的注意力值。

        SimpleHGN:該方法在GAT[15]的基礎(chǔ)上將邊類型表征融入注意力層中,并使用殘差連接和表征歸一化技巧來提高表達(dá)能力。

        2.3 實(shí)驗(yàn)結(jié)果

        本研究采用Macro-F1 和Micro-F1 作為指標(biāo)來全面地評價(jià)模型的性能,實(shí)驗(yàn)結(jié)果如表2 所示,其中加粗表示最優(yōu)性能,加下劃線表示次優(yōu)性能,所有結(jié)果是五次實(shí)驗(yàn)的平均值。

        表2 節(jié)點(diǎn)分類實(shí)驗(yàn)結(jié)果

        實(shí)驗(yàn)結(jié)果表明,LNPH 方法在所有基準(zhǔn)數(shù)據(jù)集上均表現(xiàn)出最佳的性能,特別是在IMDB數(shù)據(jù)集,相較于次優(yōu)的算法整體提升了5.59%。MP2Vec 屬于淺層模型且只考慮了結(jié)構(gòu)信息,并沒有考慮到節(jié)點(diǎn)的屬性信息,其性能往往不如其他深層模型?;谠窂降姆椒ǖ男阅苋菀资艿筋A(yù)定義元路徑的影響,比如HAN 在一些數(shù)據(jù)集上的性能不如自動發(fā)現(xiàn)元路徑模型GTN。而基于注意力機(jī)制的方法雖然考慮了類型信息,但學(xué)習(xí)到的注意力值完全基于節(jié)點(diǎn)對交互,容易忽略局部節(jié)點(diǎn)之間的潛在語義聯(lián)系,這可能導(dǎo)致噪聲和過擬合,例如HetSANN 在Yelp 數(shù)據(jù)集上的表現(xiàn)遠(yuǎn)不如其他模型。RGCN既沒有使用多通道機(jī)制,也沒有考慮高階語義關(guān)系,因此表現(xiàn)也不如L2NH。注意力模型Si-HGN 與自動發(fā)現(xiàn)元路徑模型GTN 在四個(gè)數(shù)據(jù)集上包含了次優(yōu)的性能,這在某種意義上能夠說明融入類型的注意力機(jī)制也能夠隱式地挖掘元路徑,但是這種注意力機(jī)制并沒有考慮局部高階語義聯(lián)系,且GTN 的時(shí)間復(fù)雜度又是相當(dāng)高的。綜上所述,L2NH 方法能夠在所有數(shù)據(jù)集上取得最佳性能,進(jìn)一步證明了捕捉局部潛在的高階語義聯(lián)系和多樣化聚合在異構(gòu)圖分析中的重要性。

        2.4 消融實(shí)驗(yàn)

        為了更好地展示L2NH各部分的效果,本節(jié)實(shí)驗(yàn)將該模型的部分操作進(jìn)行剝離來觀察實(shí)驗(yàn)結(jié)果的變化。這里評估了L2NH的兩種變體:

        L2NH-R:該變體不使用關(guān)系編碼,直接忽略邊的類型信息。

        L2NH-V:該變體不使用多通道機(jī)制,即將通道個(gè)數(shù)設(shè)為1。

        圖2 展示了兩個(gè)變體和完整的L2NH 在節(jié)點(diǎn)分類(IMDB 數(shù)據(jù)集以右邊的y軸為準(zhǔn))任務(wù)的消融實(shí)驗(yàn)結(jié)果,其中橫坐標(biāo)表示數(shù)據(jù)集,縱坐標(biāo)表示Micro-F1 指標(biāo)。實(shí)驗(yàn)結(jié)果均表明完整的L2NH 模型的性能最好,這說明L2NH 的兩個(gè)關(guān)鍵組成部分都對其改進(jìn)性能具有積極作用。具體而言,L2NH-R 與L2NH 的比較突出了關(guān)系信息的重要性,而與LNPH-V比較則突出了用于捕捉多樣化局部信息的多通道機(jī)制的有效性。從圖2節(jié)點(diǎn)的分類結(jié)果可以看出,相較于L2NH-R,在四個(gè)數(shù)據(jù)集上,L2NH 的性能表現(xiàn)分別上升了1.77%、0.70%、1.75%和1.34%。與此同時(shí),相較于L2NH-V,L2NH 的性能也表現(xiàn)出了上升趨勢,尤其是在IMDB數(shù)據(jù)集上提升了3.28%。

        圖2 探究不同模塊對模型性能的影響

        3 結(jié)語

        本文基于局部建模的方式提出了一種用于異構(gòu)圖表征學(xué)習(xí)方法L2NH。該方法通過建立鄰居節(jié)點(diǎn)之間的協(xié)方差矩陣來挖掘蘊(yùn)含在局部的潛在語義聯(lián)系,并在此基礎(chǔ)上提出了一種局部到點(diǎn)的多通道聚合方式來捕獲多樣化的局部信息。實(shí)驗(yàn)表明,L2NH 在四個(gè)真實(shí)的異構(gòu)圖數(shù)據(jù)集上進(jìn)行節(jié)點(diǎn)分類的性能優(yōu)于目前現(xiàn)有的先進(jìn)的基準(zhǔn)方法,從而證明了該方法的有效性。

        猜你喜歡
        異構(gòu)注意力語義
        試論同課異構(gòu)之“同”與“異”
        讓注意力“飛”回來
        語言與語義
        “揚(yáng)眼”APP:讓注意力“變現(xiàn)”
        傳媒評論(2017年3期)2017-06-13 09:18:10
        overlay SDN實(shí)現(xiàn)異構(gòu)兼容的關(guān)鍵技術(shù)
        A Beautiful Way Of Looking At Things
        “上”與“下”語義的不對稱性及其認(rèn)知闡釋
        LTE異構(gòu)網(wǎng)技術(shù)與組網(wǎng)研究
        認(rèn)知范疇模糊與語義模糊
        在新興異構(gòu)SoCs上集成多種系統(tǒng)
        99久久99久久久精品齐齐| 黑人一区二区三区在线| 久久精品国产亚洲av成人网| 国产伦一区二区三区色一情| 国产免费艾彩sm调教视频| 99亚洲精品久久久99| 欧洲乱码伦视频免费| 视频国产自拍在线观看| 在教室伦流澡到高潮hgl动漫| 国产自国产在线观看免费观看| 久热爱精品视频在线观看久爱| 免费看草逼操爽视频网站| 无码乱肉视频免费大全合集| 久久精品人人爽人人爽| 色系免费一区二区三区| 中文字幕精品人妻丝袜| 波多野结衣av一区二区全免费观看 | 久久久久久人妻一区精品 | 国产一线视频在线观看高清| 国产少妇高潮在线视频| 无码熟妇人妻av影音先锋| 精品一区二区三区无码视频| 亚洲一区丝袜美腿在线观看| 久久综合久久综合久久| 亚洲精品久久久久久久久久吃药| 精品国产一级毛片大全| 一道本中文字幕在线播放| 久久精品国产亚洲超碰av| 熟妇的荡欲色综合亚洲| 久久精品国产72国产精福利| 中文字幕亚洲一区二区三区| 免费观看羞羞视频网站| 日本欧美小视频| 日本一区二区高清在线观看| 亚洲av无码一区二区三区天堂| 131美女爱做视频| 99久久久久久亚洲精品| 亚洲乱码av乱码国产精品| 无码人妻精品一区二区在线视频| 亚洲国产精品线观看不卡| 国产爽快片一区二区三区|