文 竹,袁立寧,,黃 偉,黃琬雁,莫嘉穎,馮文剛
(1.廣西警察學(xué)院信息技術(shù)學(xué)院,廣西南寧 530028;2.中國(guó)人民公安大學(xué)國(guó)家安全學(xué)院,北京 100038;3.南寧職業(yè)技術(shù)學(xué)院人工智能學(xué)院,廣西南寧 530008)
圖是一種常用的數(shù)據(jù)形式,用于表征實(shí)體間的關(guān)系,如引文網(wǎng)絡(luò)中論文之間的互引信息、社交網(wǎng)絡(luò)賬號(hào)之間的關(guān)注信息等。節(jié)點(diǎn)分類(lèi)[1]是利用圖中已知的拓?fù)浣Y(jié)構(gòu)、節(jié)點(diǎn)屬性以及節(jié)點(diǎn)標(biāo)簽等信息對(duì)無(wú)標(biāo)簽節(jié)點(diǎn)進(jìn)行類(lèi)別預(yù)測(cè)。因此,節(jié)點(diǎn)分類(lèi)的關(guān)鍵在于如何提取原始圖中蘊(yùn)含的特征信息。圖神經(jīng)網(wǎng)絡(luò)(Graph Neural Networks,GNN)[2]是一類(lèi)高效的圖特征學(xué)習(xí)方法,它通過(guò)傳遞和聚合節(jié)點(diǎn)間信息來(lái)生成保留拓?fù)浣Y(jié)構(gòu)和屬性信息的低維節(jié)點(diǎn)表示,并將其用于節(jié)點(diǎn)分類(lèi)等下游圖分析任務(wù)。
近年來(lái),已有許多研究對(duì)GNN進(jìn)行改進(jìn),這些改進(jìn)一般通過(guò)引入高效的信息傳遞和轉(zhuǎn)換方式以增強(qiáng)GNN的表征能力。圖卷積網(wǎng)絡(luò)(Graph Convolutional Network,GCN)[3]將經(jīng)典的卷積神經(jīng)網(wǎng)絡(luò)從歐式數(shù)據(jù)(圖像、音頻)推廣到非歐式數(shù)據(jù)(圖),實(shí)現(xiàn)了對(duì)拓?fù)浣Y(jié)構(gòu)和節(jié)點(diǎn)屬性信息的編碼,其在計(jì)算過(guò)程中僅使用節(jié)點(diǎn)的一階鄰域進(jìn)行聚合,這提高了模型層間信息的傳播效率。簡(jiǎn)化圖卷積(Simplified Graph Convolution,SGC)[4]改進(jìn)了GCN的編碼策略,通過(guò)直接使用線性網(wǎng)絡(luò)編碼原始圖信息以減少模型參數(shù),降低模型復(fù)雜度;圖注意力網(wǎng)絡(luò)(Graph Attention Network,GAT)[5]在GCN的基礎(chǔ)上引入注意力機(jī)制,為一階鄰域中各節(jié)點(diǎn)分配不同的權(quán)值,使信息聚合過(guò)程能夠更加關(guān)注影響力較大的高權(quán)值鄰居節(jié)點(diǎn);GATv2[6]在GAT的基礎(chǔ)上引入動(dòng)態(tài)注意力機(jī)制,修改了GAT中權(quán)值計(jì)算過(guò)程,構(gòu)建近似注意函數(shù),從而提升了GAT的表征能力;結(jié)構(gòu)感知路徑聚合圖神經(jīng)網(wǎng)絡(luò)(PathNet)[7]使用最大熵路徑采集器采樣節(jié)點(diǎn)上下文路徑,然后引入結(jié)構(gòu)感知循環(huán)單元學(xué)習(xí)上下文路徑中蘊(yùn)含的語(yǔ)義信息。由于淺層GNN架構(gòu)限制了模型學(xué)習(xí)高階鄰域信息的能力,而深層GNN架構(gòu)容易出現(xiàn)過(guò)平滑[8],為解決以上問(wèn)題,Zhang等[9]提出的淺層雙仿射圖卷積網(wǎng)絡(luò)(Shallow Biaffine Graph Convolutional Networks,BAGCN)不僅能夠?qū)W習(xí)節(jié)點(diǎn)對(duì)遠(yuǎn)距離鄰居的直接依賴(lài)性,還能通過(guò)一階消息傳遞捕獲多跳鄰居的特征信息。
與上述通過(guò)復(fù)雜的節(jié)點(diǎn)信息傳遞和聚合方式提升模型性能的研究思路不同,本文提出了基于多層感知機(jī)(Multi-Layer Perceptron,MLP)[10]的A&T-MLP。A&T-MLP無(wú)需信息傳遞和聚合,而是通過(guò)屬性和拓?fù)湫畔⒁龑?dǎo)的對(duì)比損失以保留原始圖相關(guān)特征。具體來(lái)說(shuō),A&T-MLP首先使用屬性矩陣和鄰接矩陣計(jì)算節(jié)點(diǎn)間的相似度信息;然后使用基于相似度信息引導(dǎo)的對(duì)比損失,優(yōu)化MLP隱藏層生成的特征表示;最后引入交叉熵?fù)p失對(duì)A&T-MLP進(jìn)行端到端訓(xùn)練。
MLP是一種基于前饋神經(jīng)網(wǎng)絡(luò)的深度學(xué)習(xí)模型,通常由輸入層、隱藏層和輸出層構(gòu)成,相鄰兩層之間所有輸入神經(jīng)元都和輸出神經(jīng)元相連,因此也稱(chēng)為全連接神經(jīng)網(wǎng)絡(luò)。其中,輸入層用于接收原始數(shù)據(jù),隱藏層利用權(quán)重系數(shù)和激活函數(shù)對(duì)數(shù)據(jù)進(jìn)行特征提取和非線性變換,輸出層利用隱藏層生成的特征向量得到預(yù)測(cè)結(jié)果。MLP具有較強(qiáng)的表征能力,可通過(guò)特定的損失函數(shù)和反向傳播算法對(duì)其進(jìn)行訓(xùn)練優(yōu)化。MLP能夠自動(dòng)地提取數(shù)據(jù)中蘊(yùn)含的潛在信息,因此可用于分類(lèi)、回歸等機(jī)器學(xué)習(xí)任務(wù)。
在計(jì)算機(jī)視覺(jué)和自然語(yǔ)言處理領(lǐng)域,MLP被廣泛應(yīng)用于語(yǔ)音識(shí)別、圖像識(shí)別、語(yǔ)義分割等眾多任務(wù)。Hou等[11]提出了基于MLP的高效視覺(jué)識(shí)別架構(gòu),使用線性投影分別對(duì)高度和寬度特征表示進(jìn)行編碼,捕獲長(zhǎng)距離依賴(lài)關(guān)系,進(jìn)而提升視覺(jué)識(shí)別網(wǎng)絡(luò)的性能。Gong等[12]提出了基于Cycle-MLP的DriftNet模型,該模型通過(guò)神經(jīng)元漸進(jìn)激活以促進(jìn)空間和光譜信息的融合,進(jìn)而提升了高光譜圖像像素分類(lèi)的實(shí)驗(yàn)表現(xiàn)。Sun等[13]提出了多模態(tài)情緒分析模型CubeMLP,CubeMLP將所有模態(tài)特征作為輸入,并將輸入分配到3個(gè)不同的MLP單元提取特征,最后對(duì)混合多模態(tài)特征進(jìn)行展平以實(shí)現(xiàn)情緒分析任務(wù)。在圖分析領(lǐng)域,Hu等[14]提出了Graph-MLP,Graph-MLP通過(guò)拓?fù)浣Y(jié)構(gòu)中的鄰接關(guān)系構(gòu)建保留拓?fù)湫畔⒌膶?duì)比損失,使僅使用節(jié)點(diǎn)屬性作為輸入的MLP能夠匹配GCN在節(jié)點(diǎn)分類(lèi)任務(wù)中的實(shí)驗(yàn)性能。
上述研究為MLP在其他領(lǐng)域的應(yīng)用提供了理論基礎(chǔ),其性能也能夠匹配多數(shù)復(fù)雜模型的實(shí)驗(yàn)表現(xiàn)。因此,本文在已有研究的基礎(chǔ)上,提出了一種基于屬性和拓?fù)湫畔⒃鰪?qiáng)MLP模型A&T-MLP,并應(yīng)用于節(jié)點(diǎn)分類(lèi)任務(wù)。
對(duì)比學(xué)習(xí)是從大量未標(biāo)記的數(shù)據(jù)中提取可轉(zhuǎn)移的特征,并將其擴(kuò)展為特定的自監(jiān)督信息[15],使模型在訓(xùn)練過(guò)程中能夠?qū)ο嗨茦颖竞筒幌嗨茦颖具M(jìn)行區(qū)分,因此對(duì)比學(xué)習(xí)的核心思想就是增大特征空間中同類(lèi)數(shù)據(jù)表示的相似性和不同類(lèi)數(shù)據(jù)表示的差異性。分類(lèi)任務(wù)中常見(jiàn)的對(duì)比損失函數(shù)的表達(dá)式為
loss(xi)=
(1)
式中,si,i表示正樣本,si,k表示負(fù)樣本。通過(guò)對(duì)比損失調(diào)整,使第i個(gè)數(shù)據(jù)與si,i之間的相似度盡可能大,與si,k之間的相似度盡可能小,從而提升模型表征原始數(shù)據(jù)信息的能力。
近年來(lái),基于對(duì)比學(xué)習(xí)增強(qiáng)的圖深度學(xué)習(xí)模型已成為研究的熱點(diǎn)方向。除Graph-MLP模型,Wang等[16]提出了基于集群感知監(jiān)督對(duì)比損失的ClusterSCL,ClusterSCL以節(jié)點(diǎn)聚類(lèi)分布的形式保留圖信息。Xia等[17]提出了一種無(wú)需數(shù)據(jù)增強(qiáng)的GNN對(duì)比學(xué)習(xí)框架SimGRACE,SimGRACE使用GNN編碼器和擾動(dòng)GNN編碼器提取原始圖特征,然后通過(guò)對(duì)比兩個(gè)視圖來(lái)保留關(guān)鍵的語(yǔ)義信息。此外,Wang等[18]對(duì)圖對(duì)比學(xué)習(xí)中的結(jié)構(gòu)公平性進(jìn)行了探究,其研究結(jié)果表明引入對(duì)比學(xué)習(xí)后學(xué)習(xí)到的高度節(jié)點(diǎn)和低度節(jié)點(diǎn)的特征表示均優(yōu)于GCN模型。
本文提出了一種基于屬性信息和拓?fù)湫畔⒁龑?dǎo)的圖多層感知機(jī)模型,通過(guò)計(jì)算屬性相似度和拓?fù)湎嗨贫?推動(dòng)特征空間中相似節(jié)點(diǎn)的低維表示相互靠近,不相似節(jié)點(diǎn)的低維表示進(jìn)一步遠(yuǎn)離,從而提升模型在節(jié)點(diǎn)分類(lèi)任務(wù)上的表現(xiàn)。
本節(jié)主要介紹A&T-MLP的算法原理及模型構(gòu)建。首先提出模型整體架構(gòu),然后介紹用于對(duì)比損失的屬性相似度和拓?fù)湎嗨贫?接著討論用于模型訓(xùn)練的對(duì)比損失和交叉熵?fù)p失,最后介紹模型的優(yōu)化過(guò)程。
MLP通過(guò)全連接層(Fully Connected Layer,FC)提取數(shù)據(jù)中蘊(yùn)含的潛在信息,生成用于下游任務(wù)的特征表示。A&T-MLP在MLP的基礎(chǔ)上,通過(guò)引入兼顧節(jié)點(diǎn)屬性相似度與拓?fù)浣Y(jié)構(gòu)相似度的對(duì)比損失以增強(qiáng)模型對(duì)原始圖信息的表征能力,其整體結(jié)構(gòu)如圖1所示。由于過(guò)多的神經(jīng)網(wǎng)絡(luò)層數(shù)易導(dǎo)致模型過(guò)擬合[19],因此A&T-MLP使用3層網(wǎng)絡(luò)結(jié)構(gòu)。首先,使用MLP提取屬性矩陣X的特征,在第1層和第2層網(wǎng)絡(luò)之間引入激活函數(shù)ReLU和Dropout機(jī)制,這樣不僅能增強(qiáng)模型的非線性變換能力,還能防止參數(shù)過(guò)擬合;然后,使用屬性和拓?fù)湫畔⒁龑?dǎo)的對(duì)比損失,對(duì)第2層網(wǎng)絡(luò)生成的特征向量進(jìn)行優(yōu)化,使屬性和拓?fù)湎嗨频墓?jié)點(diǎn)在特征空間中進(jìn)一步接近,不相似的節(jié)點(diǎn)進(jìn)一步遠(yuǎn)離;最后,使用第3層網(wǎng)絡(luò)生成的特征向量計(jì)算交叉熵?fù)p失,從而實(shí)現(xiàn)節(jié)點(diǎn)分類(lèi)任務(wù)。綜上,A&T-MLP的網(wǎng)絡(luò)結(jié)構(gòu)可表示為
H(1)=Dropout(ReLU(FC(X))),
(2)
H(2)=ReLU(FC(H(1))),
(3)
Z=FC(H(2))。
(4)
圖1 A&T-MLP的框架
為了充分保留原始圖中蘊(yùn)含的屬性與拓?fù)潢P(guān)聯(lián)信息,分別使用節(jié)點(diǎn)屬性矩陣X和鄰接矩陣A計(jì)算用于對(duì)比損失函數(shù)的節(jié)點(diǎn)相似度。
對(duì)于拓?fù)浣Y(jié)構(gòu),可以通過(guò)圖的一階相似度進(jìn)行表示,即直接相連的節(jié)點(diǎn)關(guān)系更加緊密[20]。如果節(jié)點(diǎn)i和j之間存在1條邊,那么i和j的一階相似度為邊的權(quán)重值(無(wú)權(quán)圖中,權(quán)重值默認(rèn)為1),如果i和j之間沒(méi)有邊,那么兩個(gè)節(jié)點(diǎn)的一階相似度為0。由于上述邊信息通常使用圖的鄰接矩陣A進(jìn)行存儲(chǔ),所以A中元素Aij能夠直接表示節(jié)點(diǎn)i和j的拓?fù)湎嗨贫取?/p>
對(duì)于節(jié)點(diǎn)屬性,屬性矩陣X中元素Xij表示節(jié)點(diǎn)i和屬性j之間的關(guān)聯(lián)信息,不能直接表示節(jié)點(diǎn)間的相似度。因此,屬性相似度計(jì)算的關(guān)鍵在于如何表示節(jié)點(diǎn)在屬性空間的相似性,并通過(guò)與拓?fù)湎嗨贫认嗤男问竭M(jìn)行表示。首先,使用相似性度量算法,計(jì)算兩個(gè)節(jié)點(diǎn)的屬性相似性值Sij,本文使用余弦相似度獲取相似度矩陣S。
余弦相似度即使用兩個(gè)向量之間夾角的余弦值度量相似度:
(5)
(6)
式中,γ表示包含原始圖中屬性與拓?fù)湎嗨菩畔⒌墓?jié)點(diǎn)關(guān)聯(lián)強(qiáng)度矩陣。
在MLP提取數(shù)據(jù)特征生成節(jié)點(diǎn)表示的過(guò)程中,使用屬性和拓?fù)湟龑?dǎo)信息γ計(jì)算對(duì)比損失可以推動(dòng)特征空間中相似節(jié)點(diǎn)的低維表示彼此接近,不相似節(jié)點(diǎn)的低維表示進(jìn)一步遠(yuǎn)離?;趯?duì)比損失的一般形式[公式(1)],A&T-MLP使用的對(duì)比損失lossCL表達(dá)式為
lossCL=
(7)
式中,sim表示余弦相似度函數(shù),h表示節(jié)點(diǎn)。lossCL借助節(jié)點(diǎn)的相似度信息以增大特征空間中相似節(jié)點(diǎn)的一致性和增大不相似節(jié)點(diǎn)的差異性。由于A&T-MLP是用于分類(lèi)任務(wù)的模型,因此在訓(xùn)練過(guò)程中引入交叉熵?fù)p失lossCE:
(8)
式中,Y為節(jié)點(diǎn)標(biāo)簽集合,M為標(biāo)簽的類(lèi)別數(shù),Yim為符號(hào)函數(shù)(樣本i的真實(shí)類(lèi)別等于m則取值1,否則取0),Zim表示觀測(cè)樣本i屬于類(lèi)別m的預(yù)測(cè)概率。最后,將對(duì)比損失lossCL和交叉熵?fù)p失lossCE進(jìn)行組合,構(gòu)建完整的損失函數(shù)loss:
loss=lossCE+αlossCL,
(9)
式中,α表示平衡lossCL和lossCE的加權(quán)系數(shù)。在確定網(wǎng)絡(luò)結(jié)構(gòu)和損失函數(shù)后,A&T-MLP優(yōu)化的具體過(guò)程見(jiàn)算法1。
算法1A&T-MLP
輸入:屬性矩陣X,鄰接矩陣A,節(jié)點(diǎn)標(biāo)簽集合Y,隱藏層維度d、屬性相似節(jié)點(diǎn)數(shù)k,權(quán)重系數(shù)α,可訓(xùn)練參數(shù)θ。
輸出:模型優(yōu)化參數(shù)θ。
1.計(jì)算屬性矩陣X的余弦相似度得到相似度矩陣S
2.選取每個(gè)節(jié)點(diǎn)前k個(gè)相似度值構(gòu)建屬性相似度矩陣S(k)
3.對(duì)A和S(k)進(jìn)行歸一化,計(jì)算對(duì)比損失引導(dǎo)信息γ
4.Repeat
5. 使用X、θ和公式(3)、(4)生成特征矩陣H(2)和Z
6. 使用H(2)、Z、γ、α和公式(9),計(jì)算loss
7. 計(jì)算損失函數(shù)梯度?loss,利用反向傳播更新參數(shù)矩陣θ
8.Until convergence
本文使用3個(gè)基準(zhǔn)圖數(shù)據(jù)集Wikipedia、Cora和Citeseer[21]評(píng)估基線模型和A&T-MLP在節(jié)點(diǎn)分類(lèi)任務(wù)中的實(shí)驗(yàn)性能,使用的基線模型和構(gòu)建的基線模型均使用Python語(yǔ)言和深度學(xué)習(xí)框架Pytorch實(shí)現(xiàn)。數(shù)據(jù)集相關(guān)統(tǒng)計(jì)信息見(jiàn)表1?;€模型分別選擇GNN模型GCN[3]、SGC[4]、GAT[5]和GATv2[6],以及感知機(jī)模型MLP[10]和Graph-MLP[14]。
節(jié)點(diǎn)分類(lèi)是一種多分類(lèi)任務(wù),利用圖的拓?fù)浣Y(jié)構(gòu)和節(jié)點(diǎn)屬性確定每個(gè)節(jié)點(diǎn)所屬類(lèi)別,因此采用常見(jiàn)多分類(lèi)指標(biāo)Micro-F1和Macro-F1進(jìn)行評(píng)估。對(duì)于每個(gè)數(shù)據(jù)集,各模型采用相同數(shù)據(jù)集劃分,隨機(jī)抽取10%的節(jié)點(diǎn)標(biāo)簽作為訓(xùn)練集,剩余節(jié)點(diǎn)標(biāo)簽中隨機(jī)抽取50%作為測(cè)試集。
所有基線模型都先按照原始論文中建議的參數(shù)進(jìn)行初始化,然后對(duì)部分模型進(jìn)一步調(diào)整,以獲取最佳性能。對(duì)于A&T-MLP,參數(shù)主要包括學(xué)習(xí)率lr、訓(xùn)練次數(shù)epoch、隱藏層維度d、屬性相似節(jié)點(diǎn)數(shù)k以及平衡損失函數(shù)的權(quán)重系數(shù)α。A&T-MLP的最終參數(shù)設(shè)置如表2所示。
表1 數(shù)據(jù)集信息
表2 A&T-MLP參數(shù)設(shè)置
本節(jié)通過(guò)節(jié)點(diǎn)分類(lèi)任務(wù)評(píng)估不同模型的實(shí)驗(yàn)性能,實(shí)驗(yàn)結(jié)果如表3所示。從表3可以看出,在3個(gè)數(shù)據(jù)集上,A&T-MLP模型的Micro-F1和Macro-F1分?jǐn)?shù)始終高于基線模型,表明A&T-MLP能夠有效保留原始圖的屬性和拓?fù)涮卣餍畔?并將其編碼到節(jié)點(diǎn)特征向量中,從而提升了節(jié)點(diǎn)分類(lèi)能力。在屬性信息豐富的Wikipedia數(shù)據(jù)集上,所有GNN模型表現(xiàn)均弱于MLP模型,同時(shí)引入拓?fù)鋵?duì)比損失的Graph-MLP弱于僅使用屬性信息的MLP。這表明在以屬性為主要信息的數(shù)據(jù)集上,依賴(lài)拓?fù)浣Y(jié)構(gòu)進(jìn)行特征提取和保留的方法限制了模型的表征能力,而同時(shí)使用屬性和拓?fù)湫畔⒁龑?dǎo)對(duì)比損失的A&T-MLP表現(xiàn)最好,能夠有效平衡特征向量中蘊(yùn)含的屬性和拓?fù)湫畔?。在拓?fù)湫畔⒇S富的Cora和Citeseer數(shù)據(jù)集上,所有GNN模型優(yōu)于僅使用屬性信息的MLP。GNN模型的高性能得益于信息傳遞和聚合過(guò)程中拓?fù)湫畔⒌闹貜?fù)使用,Graph-MLP則是通過(guò)對(duì)比損失保留了拓?fù)潢P(guān)聯(lián)信息,而A&T-MLP的對(duì)比損失在關(guān)注拓?fù)湎嗨菩缘耐瑫r(shí),也對(duì)屬性相似性這一重要的原始圖信息進(jìn)行關(guān)注,能夠更為充分地保留分類(lèi)任務(wù)所需的特征信息。
綜上,不同基線模型在不同數(shù)據(jù)集上的表現(xiàn)差異較大,并且復(fù)雜的信息傳遞和聚合方式不一定能夠獲得最佳的性能。相較于基線模型,A&T-MLP在不同數(shù)據(jù)集上均能獲得最佳性能,證明了同時(shí)使用屬性和拓?fù)湎嗨贫刃畔⒁龑?dǎo)的對(duì)比損失,不僅能夠提升模型的預(yù)測(cè)性能,而且也增強(qiáng)了模型對(duì)不同數(shù)據(jù)的泛化能力。
表3 節(jié)點(diǎn)分類(lèi)實(shí)驗(yàn)結(jié)果
為了進(jìn)一步探究A&T-MLP在3個(gè)數(shù)據(jù)集上的性能,本文通過(guò)減少訓(xùn)練集中邊緣的數(shù)量評(píng)估基線模型和A&T-MLP在信息缺失條件下的實(shí)驗(yàn)表現(xiàn)。在邊緣缺失實(shí)驗(yàn)中,每次減少訓(xùn)練集中20%的邊信息,實(shí)驗(yàn)結(jié)果見(jiàn)圖2。
由圖2可知,隨著訓(xùn)練集中包含的邊信息不斷減少,各模型的實(shí)驗(yàn)性能出現(xiàn)較為明顯的波動(dòng)(由于MLP僅使用屬性信息,實(shí)驗(yàn)結(jié)果不受邊信息減少影響),但A&T-MLP模型的預(yù)測(cè)結(jié)果始終優(yōu)于其他基線模型。在屬性信息豐富的Wikipedia數(shù)據(jù)集上,邊信息的減少不一定導(dǎo)致模型性能下降,相反GNN模型在邊緣缺失80%時(shí)取得了最佳實(shí)驗(yàn)結(jié)果。在拓?fù)湫畔⒇S富的Cora和Citeseer數(shù)據(jù)集上,除MLP外所有模型的實(shí)驗(yàn)性能隨邊信息的減少呈現(xiàn)出下降趨勢(shì),特別是GATv2在邊緣缺失80%時(shí)性能下降9.53%。綜上,在邊信息大量缺失時(shí)A&T-MLP相較基線模型能夠更好地學(xué)習(xí)數(shù)據(jù)特征分布,改善節(jié)點(diǎn)分類(lèi)任務(wù)的實(shí)驗(yàn)表現(xiàn)。
為了驗(yàn)證拓?fù)湫畔⒑蛯傩孕畔?duì)A&T-MLP模型性能的影響,在3個(gè)數(shù)據(jù)集上進(jìn)行消融實(shí)驗(yàn),記錄Micro-F1和Macro-F1。其中,不使用對(duì)比損失的變體為MLP,僅使用拓?fù)湫畔⒁龑?dǎo)對(duì)比損失的變體為T(mén)-MLP,僅使用屬性信息引導(dǎo)對(duì)比損失的變體為A-MLP。為保證實(shí)驗(yàn)結(jié)果的公平性,保持各模型參數(shù)一致。消融實(shí)驗(yàn)結(jié)果如圖3所示。相較于不使用原始圖信息、單獨(dú)使用拓?fù)湫畔⒒驅(qū)傩孕畔⒌淖凅w,同時(shí)使用兩類(lèi)信息的A&T-MLP模型獲得了最佳性能,證明同時(shí)保留屬性和拓?fù)湫畔⒛軌蜻M(jìn)一步增強(qiáng)模型的表征能力,提升分類(lèi)任務(wù)中的實(shí)驗(yàn)表現(xiàn)。
圖2 邊緣缺失實(shí)驗(yàn)結(jié)果
為了分析A&T-MLP性能受參數(shù)的影響,使用Citeseer數(shù)據(jù)集進(jìn)行參數(shù)實(shí)驗(yàn),并記錄Micro-F1和Macro-F1分?jǐn)?shù)。此外,為了保證參數(shù)實(shí)驗(yàn)的公平性,除驗(yàn)證參數(shù)外,其余參數(shù)按照表3進(jìn)行設(shè)置。參數(shù)實(shí)驗(yàn)結(jié)果如圖4所示。
圖3 消融實(shí)驗(yàn)結(jié)果
為了驗(yàn)證隱藏層維度d對(duì)A&T-MLP性能的影響,使用不同d值進(jìn)行實(shí)驗(yàn),結(jié)果如圖4(a)所示。最初,Micro-F1和Macro-F1隨網(wǎng)絡(luò)維度的增大而提高,這是因?yàn)檩^高的維度代表了更多的神經(jīng)元,能夠編碼更多的有益信息,提升實(shí)驗(yàn)表現(xiàn)。但是,隨著維度進(jìn)一步增大,Micro-F1和Macro-F1呈現(xiàn)出下降的趨勢(shì),這是因?yàn)檫^(guò)大的維度使節(jié)點(diǎn)表示中編碼了噪聲信息,從而影響了A&T-MLP的表現(xiàn)。
為了驗(yàn)證屬性相似節(jié)點(diǎn)數(shù)k對(duì)A&T-MLP性能的影響,使用不同k值進(jìn)行實(shí)驗(yàn),結(jié)果如圖4(b)所示。從結(jié)果看,Micro-F1和Macro-F1呈現(xiàn)先上升再下降的趨勢(shì),過(guò)大和過(guò)小的k值下A&T-MLP的表現(xiàn)均較為一般,這是因?yàn)閗值過(guò)小無(wú)法保留充足的屬性相似度信息,而k值過(guò)大會(huì)在對(duì)比損失計(jì)算過(guò)程中引入大量噪聲節(jié)點(diǎn),影響A&T-MLP的性能。
為了驗(yàn)證損失函數(shù)中的權(quán)重系數(shù)α對(duì)模型性能的影響,使用不同α值進(jìn)行實(shí)驗(yàn),結(jié)果如圖4(c)所示。權(quán)重系數(shù)α調(diào)控了對(duì)比損失在整個(gè)損失函數(shù)中所占的比重,α值越大模型訓(xùn)練過(guò)程中越關(guān)注對(duì)比損失的優(yōu)化。從實(shí)驗(yàn)結(jié)果來(lái)看,A&T-MLP的預(yù)測(cè)性能隨著α值的增大先上升后下降,這是因?yàn)檫^(guò)于關(guān)注對(duì)比損失的優(yōu)化會(huì)導(dǎo)致對(duì)交叉熵?fù)p失的忽略,從而影響了A&T-MLP的性能。
圖4 參數(shù)實(shí)驗(yàn)結(jié)果
節(jié)點(diǎn)表示蘊(yùn)含了原始圖的相關(guān)信息,對(duì)其進(jìn)行可視化能夠直觀地反映原始圖的某些特征。對(duì)于可視化任務(wù),首先使用t-SNE[22]將各模型生成的節(jié)點(diǎn)特征向量降至2維,然后根據(jù)Citeseer數(shù)據(jù)集的標(biāo)簽信息將節(jié)點(diǎn)分別標(biāo)記為6種顏色,最后在二維平面上進(jìn)行可視化,實(shí)驗(yàn)結(jié)果如圖5所示。節(jié)點(diǎn)分類(lèi)準(zhǔn)確的可視化結(jié)果通常為相同顏色節(jié)點(diǎn)接近,不同顏色節(jié)點(diǎn)遠(yuǎn)離。由圖5可知,GCN、MLP、Graph-MLP和A&T-MLP均能提取原始圖中相關(guān)信息形成社區(qū)結(jié)構(gòu),但是使用屬性和拓?fù)湫畔⒁龑?dǎo)對(duì)比損失的A&T-MLP具有更高的類(lèi)內(nèi)相似性和類(lèi)間界限??梢暬瘜?shí)驗(yàn)反映了模型保留同一社群節(jié)點(diǎn)相似特征的能力,證明了使用對(duì)比損失能夠增強(qiáng)模型表征能力,也更為直觀地反映了模型的分類(lèi)性能。
圖5 Citeseer可視化
為了比較不同模型的訓(xùn)練復(fù)雜度,記錄Wikipedia數(shù)據(jù)集上迭代100次后單次迭代的平均訓(xùn)練時(shí)間(包括前向傳播、損失函數(shù)計(jì)算、反向傳播過(guò)程),實(shí)驗(yàn)結(jié)果如圖6所示。對(duì)比不同模型的訓(xùn)練時(shí)間,直接對(duì)原始圖信息編碼的GCN和MLP計(jì)算速度較快,在此基礎(chǔ)引入了更加復(fù)雜的特征提取方式的改進(jìn)模型訓(xùn)練時(shí)間進(jìn)一步增加。雖然基于MLP的改進(jìn)模型網(wǎng)絡(luò)結(jié)構(gòu)更為簡(jiǎn)單,但是為了保留原始圖相關(guān)信息,需要借助對(duì)比損失進(jìn)行優(yōu)化,導(dǎo)致模型的訓(xùn)練時(shí)間增加。此外,對(duì)比使用對(duì)比損失的Graph-MLP和A&T-MLP,盡管A&T-MLP引入了屬性信息,但是只保留了每個(gè)節(jié)點(diǎn)前k個(gè)相似度值最大的值,因此相較于GAT和GATv2訓(xùn)練時(shí)間差異較大,相較于Graph-MLP訓(xùn)練時(shí)間差異較小,并且實(shí)驗(yàn)性能提升更為明顯。
圖6 訓(xùn)練時(shí)間對(duì)比
本文設(shè)計(jì)了一種無(wú)需信息傳遞和聚合的圖多層感知機(jī)模型A&T-MLP,通過(guò)屬性和拓?fù)湫畔⒁龑?dǎo)的對(duì)比損失有效保留原始圖特征。實(shí)驗(yàn)結(jié)果表明,基于屬性相似度與拓?fù)湎嗨贫鹊膶?duì)比損失能夠顯著提升MLP模型在節(jié)點(diǎn)分類(lèi)任務(wù)中的實(shí)驗(yàn)性能,并且優(yōu)于較為先進(jìn)的GNN基線模型。此外,A&T-MLP在處理拓?fù)湫畔⒉粶?zhǔn)確的圖數(shù)據(jù)時(shí)具有較明顯的優(yōu)勢(shì),即使在拓?fù)湫畔⑷笔?0%的極端情況下,依然具有良好的性能。在當(dāng)前工作中,通過(guò)簡(jiǎn)單的MLP構(gòu)建神經(jīng)網(wǎng)絡(luò)基本框架,使得模型訓(xùn)練過(guò)程中缺乏對(duì)特征中重要信息的關(guān)注。因此,在后續(xù)工作中,將在多層神經(jīng)網(wǎng)絡(luò)中引入注意力機(jī)制,增強(qiáng)關(guān)鍵特征信息的保留,并將模型應(yīng)用于社交網(wǎng)絡(luò)惡意賬戶(hù)檢測(cè)和犯罪組織成員身份發(fā)現(xiàn)等任務(wù)。