亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        異構(gòu)網(wǎng)絡表示學習方法綜述

        2021-01-26 05:50:48王建霞劉夢琳許云峰張妍
        河北科技大學學報 2021年1期
        關鍵詞:建模能力

        王建霞 劉夢琳 許云峰 張妍

        摘 要:現(xiàn)實生活中存在的網(wǎng)絡大多是包含多種類型節(jié)點和邊的異構(gòu)網(wǎng)絡,比同構(gòu)網(wǎng)絡融合了更多信息且包含更豐富的語義信息。異構(gòu)網(wǎng)絡表示學習擁有強大的建模能力,可以有效解決異構(gòu)網(wǎng)絡的異質(zhì)性,并將異構(gòu)網(wǎng)絡中豐富的結(jié)構(gòu)和語義信息嵌入到低維節(jié)點表示中,以便于下游任務應用。通過對當前國內(nèi)外異構(gòu)網(wǎng)絡表示學習方法進行歸納分析,綜述了異構(gòu)網(wǎng)絡表示學習方法的研究現(xiàn)狀,對比了各類別模型之間的特點,介紹了異構(gòu)網(wǎng)絡表示學習的相關應用,并對異構(gòu)網(wǎng)絡表示學習方法的發(fā)展趨勢進行了總結(jié)與展望,提出今后可在以下方面進行深入探討:1)避免預先定義元路徑,應充分釋放模型的自動學習能力;2)設計適用于動態(tài)和大規(guī)模網(wǎng)絡的異構(gòu)網(wǎng)絡表示學習方法。

        關鍵詞:計算機神經(jīng)網(wǎng)絡;異構(gòu)網(wǎng)絡;表示學習;圖神經(jīng)網(wǎng)絡;建模能力

        中圖分類號:TP311.13?文獻標識碼:A

        文章編號:1008-1542(2021)01-0048-12

        現(xiàn)實世界的數(shù)據(jù)集大多是以圖形或網(wǎng)絡等數(shù)據(jù)結(jié)構(gòu)表示,其中對象及其之間的關系分別由節(jié)點和邊來體現(xiàn)。例如社交網(wǎng)絡[1-2]、物理系統(tǒng)[3]、交通網(wǎng)絡[4-5]、引文網(wǎng)絡[6-7]、推薦系統(tǒng)[8-9]、知識圖[10]等。

        網(wǎng)絡中的節(jié)點擁有豐富的屬性信息(如圖像、文本等),形成典型的復雜信息網(wǎng)絡?;趶碗s信息網(wǎng)絡的普遍存在性,對信息網(wǎng)絡進行研究和分析具有很高的應用價值。

        信息網(wǎng)絡屬于不規(guī)則的非歐幾里德數(shù)據(jù),如何有效地提取信息成為值得研究的課題。近些年來,網(wǎng)絡表示學習在結(jié)構(gòu)特征提取方面顯示出強大的潛力。如圖1所示,網(wǎng)絡表示學習方法從復雜的信息網(wǎng)絡中學習每個實體的特征信息,將其表示為低維稠密的實數(shù)向量,以應用于下游機器的學習任務[11]。

        目前大多數(shù)網(wǎng)絡表示學習方法都集中在同構(gòu)網(wǎng)絡上,只考慮一種節(jié)點對象和一種連接關系,忽略了網(wǎng)絡的異質(zhì)性。然而,現(xiàn)實生活中存在更多的是包含多種類型的節(jié)點以及邊的異構(gòu)網(wǎng)絡。相比同構(gòu)網(wǎng)絡,異構(gòu)網(wǎng)絡融合了更多信息且包含更豐富的語義信息。若直接將異構(gòu)網(wǎng)絡當作同構(gòu)網(wǎng)絡去處理,很容易造成信息的丟失,影響下游任務的效果,所以近年來越來越多針對異構(gòu)網(wǎng)絡的表示學習方法被設計出來。CHANG等[13]設計了一個深度表示學習模型以捕捉網(wǎng)絡中異質(zhì)數(shù)據(jù)之間的復雜交互。FU等[14]利用神經(jīng)網(wǎng)絡模型捕獲了異構(gòu)網(wǎng)絡中豐富的關系語義學習節(jié)點的表示。

        當前,包含不同類型的節(jié)點和連接關系的異構(gòu)網(wǎng)絡的表示學習綜述相對較少。周慧等[15]介紹了基于網(wǎng)絡結(jié)構(gòu)的異構(gòu)網(wǎng)絡嵌入方法,但缺少對圖神經(jīng)網(wǎng)絡方法的介紹。本文系統(tǒng)地介紹了異構(gòu)網(wǎng)絡表示學習相關方法的模型,分為基于網(wǎng)絡結(jié)構(gòu)的嵌入方法和圖神經(jīng)網(wǎng)絡方法2大類,并細分為4個小類別,分別是基于隨機游走方法、基于一階/二階相似度方法、基于圖注意力網(wǎng)絡方法和基于圖卷積網(wǎng)絡方法,對比了各模型的優(yōu)缺點和應用場景。同時,還整理了開源實現(xiàn)的表示學習模型以及常用的數(shù)據(jù)集供研究者參考。異構(gòu)網(wǎng)絡表示學習方法分類如圖2所示。

        1?異構(gòu)網(wǎng)絡表示學習的基本定義

        異構(gòu)網(wǎng)絡表示學習公式中常見符號及其含義如表1所示。

        定義1?異構(gòu)信息網(wǎng)絡(HIN,簡稱異構(gòu)網(wǎng)絡)[16]

        如圖3 a)和圖3 b)所示,異構(gòu)網(wǎng)絡(IMDB數(shù)據(jù)集)由多種類型的對象(演員(A)、電影(M)、導演(D))和關系(電影(M)與導演(D)之間的拍攝關系,演員(A)與電影(M)之間的角色扮演關系)組成。在異構(gòu)網(wǎng)絡中,2個對象可以通過不同的語義路徑

        進行連接,這種連接方式稱為元路徑。

        如圖3 c)所示,通過多條元路徑(例如,moive-actor-moive(MAM)和movie-director-movie(MDM))連接2部電影。不同的元路徑揭示不同的語義,MAM表示共同角色關系,而MDM則表示他們由同一導演制作。給定一條元路徑P,每個節(jié)點都有一組基于元路徑的鄰居,可以在異構(gòu)網(wǎng)絡中揭示多種結(jié)構(gòu)信息和豐富的語義信息。

        定義3?基于元路徑的鄰居(Meta-path based neighbors)

        在異構(gòu)網(wǎng)絡中給定一個節(jié)點v和一條元路徑P,將節(jié)點v基于元路徑的鄰居NPv定義為通過元路徑P與節(jié)點v連接的一組節(jié)點,節(jié)點的鄰居包括自己。

        以圖3 d)為例,給定元路徑MAM,M1基于元路徑的鄰居包括M1(自己),M2和M3。類似地,M1的基于元路徑MDM的鄰居包括M1和M2。

        定義4?網(wǎng)絡表示學習[18]

        2?異構(gòu)網(wǎng)絡表示學習方法介紹

        異構(gòu)網(wǎng)絡表示學習方法是將異構(gòu)網(wǎng)絡中豐富的結(jié)構(gòu)信息和語義信息嵌入到低維節(jié)點表示中,便于下游任務應用。隨著深度學習的興起,圖神經(jīng)網(wǎng)絡(GNN)成為近年來異構(gòu)網(wǎng)絡表示學習領域中的熱門研究方向。與基于網(wǎng)絡結(jié)構(gòu)的嵌入方法相比,圖神經(jīng)網(wǎng)絡方法通過聚合節(jié)點自身屬性信息以及鄰居節(jié)點信息得到節(jié)點的嵌入表示。

        2.1?基于網(wǎng)絡結(jié)構(gòu)的嵌入方法

        基于網(wǎng)絡結(jié)構(gòu)的嵌入方法單純利用網(wǎng)絡中拓撲結(jié)構(gòu)的相似性生成節(jié)點嵌入向量,根據(jù)獲取相似性方式的不同,分為基于隨機游走方法和基于一階/二階相似度方法,各模型的主要特點如表2所示。

        2.1.1?基于隨機游走方法

        metapath2vec模型是DONG等[20]在2017年提出的一種用于異構(gòu)網(wǎng)絡的節(jié)點嵌入方法。該方法使用基于元路徑的隨機游走策略,從異構(gòu)網(wǎng)絡獲取每個頂點的異構(gòu)鄰居。即給定一條元路徑P,第i步的轉(zhuǎn)移概率為

        metapath2vec模型使用基于元路徑隨機游走和skim-gram的方式解決了異構(gòu)網(wǎng)絡的異質(zhì)性問題,提供了異構(gòu)網(wǎng)絡表示學習研究的基本思路。

        HERec模型[21]利用一種類型約束策略過濾節(jié)點序列,捕獲異構(gòu)網(wǎng)絡中反映的復雜語義。通過一些對稱的元路徑將異構(gòu)網(wǎng)絡變成同構(gòu)網(wǎng)絡,然后在同構(gòu)網(wǎng)絡中根據(jù)node2vec方法[25]優(yōu)化以下目標函數(shù),學習單條元路徑下節(jié)點的嵌入如式(2)所示:

        式中:f是將節(jié)點映射到低維特征空間上的函數(shù);NPv表示在給定一條元路徑的情況下節(jié)點v的鄰居。最后融合各條元路徑的信息得到最終的節(jié)點表示。

        不同于metapath2vec和HERec,按照給定元路徑模式游走的方式,HIN2Vec模型[17]完全隨機選擇游走節(jié)點,只要節(jié)點有連接均可游走。HIN2Vec模型采用基于隨機游走和負采樣的方法生成符合目標關系的點邊序列。如圖4所示,假設隨機游走得到序列P1,P2,A1,P3,A1,目標關系包含元路徑長度不大于2的所有關系,那么對于節(jié)點P1,可以產(chǎn)生訓練數(shù)據(jù)(P1,P2,P-P)和(P1,A1,P-P-A)。然后HIN2Vec模型將節(jié)點和節(jié)點間的關系簡化成二分類問題,即給定2個節(jié)點x,y,通過預測節(jié)點之間是否存在確定的關系r,將分類問題作為優(yōu)化目標學習節(jié)點表示。

        metapath2vec,HERec和HIN2Vec是異構(gòu)網(wǎng)絡表示學習的3個早期工作,為之后的工作提供參考。HU等[26]設計了一種通過結(jié)合基于元路徑上下文的三向神經(jīng)交互模型(MCRec)。該模型通過使用基于優(yōu)先級的采樣技術選擇高質(zhì)量的節(jié)點序列構(gòu)建基于元路徑的上下文,并利用共同注意力機制相互改善基于元路徑的上下文和節(jié)點的表示。

        LU等[27]提出了一種可感知關系結(jié)構(gòu)的異構(gòu)網(wǎng)絡嵌入模型(RHINE),包含2種與結(jié)構(gòu)相關的度量,這些度量將異類關系區(qū)分為2類:從屬關系(AR)和交互關系(IR)且專門為處理AR和IR量身定制了不同模型,可以更好地捕獲網(wǎng)絡的結(jié)構(gòu)和語義。

        在網(wǎng)絡表示學習中,負采樣是一項重要操作。通過提高負采樣的效率,找到有代表的負樣本,可以大大提高模型的性能。為了找到有代表性的負樣本,HU等[28]將圖對抗網(wǎng)絡[29](GAN)引入到異構(gòu)網(wǎng)絡表示學習中,提出了一種新的用于異構(gòu)網(wǎng)絡嵌入的框架(HeGAN)。HeGAN根據(jù)關系類型使用GAN生成更具代表性的負樣本。研究表明,無論是在分類、聚類還是鏈接預測任務中,HeGAN方法顯著優(yōu)于metapath2vec方法和HIN2Vec方法[28]。

        2.1.2?基于一階/二階相似度方法

        TANG等[22]在LINE算法[30]的基礎上進行改進,提出了一種半監(jiān)督的文本數(shù)據(jù)表示學習方法,即預測文本嵌入(PTE)。PTE模型首先將異構(gòu)網(wǎng)絡分解為一組二部圖網(wǎng)絡,然后通過捕獲二部圖網(wǎng)絡的二階相似度學習節(jié)點的嵌入表示。PTE模型的目標函數(shù)為

        SHI等[23]發(fā)現(xiàn)之前很多算法都是把不同類型的節(jié)點映射到同一低維空間中,容易造成信息丟失,故提出一種新的嵌入式學習框架(AspEm),通過對異構(gòu)網(wǎng)絡進行多個方面的劃分,實現(xiàn)了在避免信息丟失的情況下,獲得高質(zhì)量的節(jié)點嵌入表示,如圖5所示。圖5 a)圖例可以分解成圖5 b)中2個方面的子圖。AspEm還設計有一個不兼容信息的度量方法,為嵌入學習選取合適的方面。給定一個方面a,目標函數(shù)為

        AspEm方法雖然獨立地獲取了不同方面的信息,但是完全禁止了跨方面的聯(lián)合學習。SHI等[24]對AspEm方法進行改進,提出HEER算法。HEER算法允許不兼容的信息在聯(lián)合學習過程中進行不同程度的協(xié)作。HEER算法的基本思想:在節(jié)點表示的基礎上建立邊的表示,并且為不同類型的邊采用不同的度量空間,通過結(jié)合邊的表示和不同的度量空間,學習異構(gòu)網(wǎng)絡節(jié)點和邊的嵌入表示。

        2.2?圖神經(jīng)網(wǎng)絡方法

        近年來,隨著圖神經(jīng)網(wǎng)絡(GNN)的興起,以圖卷積網(wǎng)絡(graph convolutional network)和圖注意力網(wǎng)絡(graph attention network)為代表的圖神經(jīng)網(wǎng)絡被廣泛應用于異構(gòu)網(wǎng)絡表示學習中。與同構(gòu)網(wǎng)絡不同,異構(gòu)網(wǎng)絡通常需要考慮不同關系下鄰居信息的差異。因此,異構(gòu)圖神經(jīng)網(wǎng)絡方法通常采用層次聚合的方式,即節(jié)點級別的聚合以及語義級別的聚合。圖神經(jīng)網(wǎng)絡方法的主要特點如表3所示。

        2.2.1?基于圖注意力網(wǎng)絡方法

        近年來,深度學習引入了注意力機制,注意力機制的潛力在各個領域得到了充分證明。WANG等[19]首次將注意力機制引入異構(gòu)圖神經(jīng)網(wǎng)絡中研究,并提出一種基于層次注意力的異構(gòu)圖神經(jīng)網(wǎng)絡模型(HAN)。HAN模型嵌入架構(gòu)如圖6所示,總體包括2部分:1)將所有類型的節(jié)點投影到統(tǒng)一的特征空間中,并通過節(jié)點級別注意力學習基于元路徑的鄰居節(jié)點的權重;2)利用語義級別注意力學習每條元路徑的權重,并通過相應的聚合操作得到最終的節(jié)點表示。

        HAN節(jié)點級別的聚合:如圖6 a)所示,節(jié)點級注意力旨在學習給定元路徑下不同鄰居節(jié)點的重要性,然后通過加權平均學習節(jié)點在某條元路徑下的表示。

        HAN語義級別的聚合(如圖6 b)所示):

        ZHANG等[31]發(fā)現(xiàn)很少有網(wǎng)絡可以同時考慮異構(gòu)網(wǎng)絡的結(jié)構(gòu)信息以及每個節(jié)點的異構(gòu)內(nèi)容信息,故提出一種異構(gòu)圖神經(jīng)網(wǎng)絡模型(HetGNN)解決此問題。HetGNN首先引入帶有重啟策略的隨機游走方法為每個節(jié)點(見圖7中節(jié)點a)采樣固定長度的異構(gòu)鄰居,然后利用節(jié)點異構(gòu)內(nèi)容編碼器編碼節(jié)點的異構(gòu)內(nèi)容,從而得到節(jié)點的初始嵌入表示。

        目前大多基于元路徑的表示學習方法舍棄了元路徑內(nèi)部的節(jié)點信息,只考慮元路徑的起始節(jié)點和末尾節(jié)點,造成信息丟失。為了解決上述問題,F(xiàn)U等[32]提出了MAGNN模型,MAGNN模型框架如圖8所示。首先將異構(gòu)網(wǎng)絡的節(jié)點屬性信息映射到同一個隱層的向量空間,然后使用注意力機制將元路徑內(nèi)部的語義信息納入考慮,最后使用注意力機制聚合多條元路徑信息得到最終的節(jié)點表示。

        MAGNN節(jié)點級別的聚合:

        MAGNN將元路徑實例中所有節(jié)點的特征納入考慮。

        元路徑間的聚合即語義級別的聚合,目的是組合所有元路徑包含的語義信息。如式(14)所示,MAGNN使用線性轉(zhuǎn)換和一層非線性函數(shù),將節(jié)點嵌入映射到所需維度的向量空間。

        式中:βP表示各條元路徑的重要性;[WTHX]hPAv代表類型為A的節(jié)點的最終表示;[WTHX]Wo代表線性轉(zhuǎn)換的權重矩陣。

        MAGNN和其他模型在鏈接預測任務中的性能見表4。由表4可知,MAGNN的性能大大優(yōu)于其他模型,其中最強大的基礎模型是metapath2vec,而MAGNN比metapath2vec得分更高,表明考慮單條元路徑是欠佳的。在GNN基準中,HAN獲得最佳結(jié)果,因為HAN考慮了網(wǎng)絡的異質(zhì)性并結(jié)合多條元路徑。MAGNN與HAN相比改進了約6%,結(jié)果表明元路徑的內(nèi)部信息對節(jié)點嵌入至關重要。

        2.2.2?基于圖卷積網(wǎng)絡方法

        大多異構(gòu)網(wǎng)絡表示學習方法都需要預先指定元路徑, 但需要很強的先驗知識,元路徑的選擇在極大程度上會影響模型的效果。YUN等[33]提出了一種能夠生成新的圖數(shù)據(jù)結(jié)構(gòu)的圖變換網(wǎng)絡(GTNs),旨在解決異構(gòu)網(wǎng)絡分析中如何選取合適元路徑的問題。

        GTNs模型架構(gòu)如圖9所示,GTNs通過GT層將原始圖數(shù)據(jù)[WTHX]A∈RN×N×|R|轉(zhuǎn)換成新的圖數(shù)據(jù)[WTHX]A(l)∈RN×N×C,然后在新圖數(shù)據(jù)上進行卷積操作學習有效的節(jié)點表示。其中,GT層可以識別原始圖數(shù)據(jù)中未連接節(jié)點之間的有用連接,并生成對任務有用的元路徑。

        1) GTNs節(jié)點級別的聚合

        GTNs采用GCN的聚合方式.針對第i條元路徑,通過聚合得到該元路徑下的節(jié)點表示為[WTHX]Zi:

        2) GTNs語義級別的聚合

        將多條元路徑下的節(jié)點表示拼接起來得到最終節(jié)點表示[WTHX]Z:

        其中:‖表示連接操作;C代表通道數(shù)。

        預定義的元路徑和通過GTNs模型學習到的排名最高的元路徑之間的比較見表5。由表5可知,GTNs模型找到了重要的元路徑,這些元路徑與按領域知識預先定義的元路徑一致。此外,GTNs還發(fā)現(xiàn)所有類型節(jié)點之間的新的相關元路徑。

        3?應?用

        3.1?常用數(shù)據(jù)集

        眾多測試算法性能的數(shù)據(jù)集見表6,數(shù)據(jù)集包括3類,分別是引文網(wǎng)絡、社交網(wǎng)絡和電影數(shù)據(jù)。對于每個數(shù)據(jù)集,表中給出了數(shù)據(jù)集來源,分別統(tǒng)計了該數(shù)據(jù)集的邊的類型、節(jié)點數(shù)、邊數(shù)、標簽類別數(shù)量,是否含有特征以及元路徑,方便研究者選擇適合模型的數(shù)據(jù)集。

        3.2?開源實現(xiàn)

        表7整理了具有代表性模型的開源實現(xiàn),供研究者快速學習或復現(xiàn)驗證模型效果。

        3.3?實際應用

        異構(gòu)網(wǎng)絡表示學習方法可以應用到許多實際任務中,可以寬泛地將應用分為3類,即節(jié)點分類、節(jié)點聚類和鏈接預測。

        1) 節(jié)點分類?其大多屬于半監(jiān)督的學習任務,即原始數(shù)據(jù)中給定某些節(jié)點對應的類別,通過學習已有標簽的數(shù)據(jù)信息,從而預測沒有標簽的節(jié)點屬于哪一個類別。通常先抽取節(jié)點的屬性或結(jié)構(gòu)特征為節(jié)點生成嵌入信息,然后應用邏輯回歸等分類器為對應節(jié)點預測標簽。節(jié)點分類應用領域十分廣泛。如,在新聞和推特中,對短文本進行分類,幫助用戶找到相關信息[34];在社交網(wǎng)絡中預測部分用戶的標簽信息;在生物領域中,對蛋白質(zhì)生物功能進行標記。最近實驗數(shù)據(jù)[19,31-33]表明,融入屬性信息的異構(gòu)圖神經(jīng)網(wǎng)絡模型對節(jié)點分類的精度都要高于基礎模型metapath2vec,表明利用異構(gòu)節(jié)點特征的GNN架構(gòu)可以得到更好的嵌入表示,對提高下游任務有很大的幫助。

        2) 節(jié)點聚類?按照某個特定標準(如距離準則)把一個數(shù)據(jù)集分割成不同的類或簇,使得同一個簇內(nèi)的數(shù)據(jù)對象的相似性盡可能大,同時不在同一個簇中數(shù)據(jù)對象的差異性也盡可能大。節(jié)點聚類算法可以用來為社交網(wǎng)絡中的用戶自動劃分好友分組,為蛋白質(zhì)網(wǎng)絡中的各類蛋白質(zhì)依照它們之間的聯(lián)系自動聚類。研究[32]表明,在節(jié)點聚類任務中,node2vec[22]優(yōu)于傳統(tǒng)的異構(gòu)模型[20-21],這是由于node2vec作為一種基于偏隨機游走方法,迫使圖中靠近的節(jié)點在嵌入空間中也靠近[35],從而對節(jié)點的位置信息進行編碼,同時這個特性也極大促進了K-Means算法的發(fā)展。

        3) 鏈接預測?旨在預測網(wǎng)絡中丟失的邊,或者未來可能會出現(xiàn)的邊。在生物領域中,由于目前有很多蛋白質(zhì)人們都不熟悉,因而實驗時間和金錢成本高,需要較準確的預測以降低成本。例如文獻[36—40]預測可以發(fā)生相互作用的蛋白質(zhì),為疾病的發(fā)生和大規(guī)模的治療設計提供有價值的見解。鏈接預測在社交網(wǎng)絡也得到廣泛應用,例如向用戶推薦商品[41-42]或熟人。由表4可知,MAGNN[32]模型在鏈接預測方面的效果最好,這是由于MAGNN不僅聚合多條元路徑的信息還考慮元路徑內(nèi)部的語義信息。

        4?總結(jié)與展望

        現(xiàn)有的異構(gòu)網(wǎng)絡表示學習方法包括基于隨機游走方法、基于一階/二階相似度方法、基于圖注意力網(wǎng)絡方法和基于圖卷積網(wǎng)絡方法4個類別。本文綜合比較了方法模型各自的特點,并給出了異構(gòu)網(wǎng)絡表示學習中的經(jīng)典數(shù)據(jù)集和常用模型的開源實現(xiàn)項目。

        隨著社會的不斷進步,現(xiàn)實世界網(wǎng)絡將變得更加復雜,如何有效聚合網(wǎng)絡中豐富的信息輔助表征向量的學習,同時降低模型的復雜度是今后研究的一個方向。基于GNN的異構(gòu)網(wǎng)絡表示學習方法需解決以下問題:

        1) 避免預先定義元路徑。目前大多數(shù)異構(gòu)網(wǎng)絡表示學習方法都需要預先人為定義元路徑,需要很強的先驗知識且耗費很大的人力。最近提出的GTNs[33]可以識別原始圖數(shù)據(jù)中未連接節(jié)點之間的有用連接,自適應地學習到合適長度的元路徑,并且實驗表明,在節(jié)點分類任務上GTNs的效果要優(yōu)于HAN模型。

        2) 適應動態(tài)網(wǎng)絡。真實世界的網(wǎng)絡具有動態(tài)性,節(jié)點以及節(jié)點之間復雜的交互信息無時無刻不在更新,而現(xiàn)有的異構(gòu)網(wǎng)絡表示學習方法大都針對靜態(tài)網(wǎng)絡,設計能夠高效融合交互信息的動態(tài)異構(gòu)網(wǎng)絡表示方法具有很高的實用價值。

        3) 適應大規(guī)模復雜信息網(wǎng)絡?,F(xiàn)實世界的網(wǎng)絡有上億節(jié)點,如OAG數(shù)據(jù)集[43]含有10億多個節(jié)點和連接關系,而現(xiàn)有的異構(gòu)網(wǎng)絡表示學習方法僅適用于小規(guī)模數(shù)據(jù)網(wǎng)絡。因此,設計具有可擴展性的方法也是未來研究的一個方向。

        參考文獻/References:

        [1]?HAMILTON W, YING Z, LESKOVEC J. Inductive representation learning on large graphs[C]//Advances in Neural Information Processing Systems. Long Beach:NIPS, 2017: 1024-1034.

        [2]?WANG D, CUI P, ZHU W. Structural deep network embedding[C]//Proceedings of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. New York : ACM, 2016: 1225-1234.

        [3]?BATTAGLIA P, PASCANU R, LAI M, et al.Interaction networks for learning about objects, relations and physics[C]//Advances in Neural Information Processing Systems. Barcelona : NIPS, 2016: 4502-4510.

        [4]?LI Yaguang, YU R, SHAHABI C, et al. Diffusion Convolutional Recurrent Neural Network: Data-Driven Traffic Forecasting[EB/OL].[2018-02-22]. https://arxiv.org/abs/1707.01926.

        [5]?ZHANG J, SHI X, XIE J, et al. Gaan: Gated Attention Networks for Learning on Large and Spatiotemporal Graphs[EB/OL].[2018-03-20]. https://arxiv.org/abs/1803.07294.

        [6]?ATWOOD J, TOWSLEY D. Diffusion-convolutional neural networks[C]//Advances in Neural Information Processing Systems. Barcelona: NIPS, 2016: 1993-2001.

        [7]?BERG R, KIPF T N, WELLING M. Graph Convolutional Matrix Completion[EB/OL].[2017-10-25].https://arxiv.org/abs/1706.02263.

        [8]?LU Y, FANG Y, SHI C. Meta-learning on heterogeneous information networks for cold-start recommendation[C]//Proceedings of the 26th ACM SIGKDD International Conference on Knowledge Discovery & Data Mining. New York : ACM, 2020: 1563-1573.

        [9]?ZHANG J, SHI X, ZHAO S, et al. Star-gcn: Stacked and Reconstructed Graph Convolutional Networks for Recommender Systems[EB/OL].[2019-05-27].https://arxiv.org/abs/1905.13129.

        [10]SUN Z, DENG Z H, NIE J Y, et al. Rotate: Knowledge Graph Embedding by Relational Rotation in Complex Space[EB/OL].[2019-02-26]. https://arxiv.org/abs/1902.10197.

        [11]魯軍豪, 許云峰. 信息網(wǎng)絡表示學習方法綜述[J]. 河北科技大學學報, 2020, 41(2): 133-147.

        LU Junhao,XU Yunfeng.A survey of information network representation learning[J].Journal of Hebei University of Science and Technology,2020,41(2):133-147.

        [12]涂存超, 楊成, 劉知遠, 等. 網(wǎng)絡表示學習綜述[J]. 中國科學:信息科學, 2017, 47(8): 980-996.

        TU Cunchao, YANG Cheng, LIU Zhiyuan, et al. Network representation learning: An overview[J]. Scientia Sinica Informationis, 2017, 47(8): 980-996.

        [13]CHANG S, HAN W, TANG J, et al. Heterogeneous network embedding via deep architectures[C]//Proceedings of the 21th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining.New York: ACM, 2015: 119-128.

        [14]FU T, LEE W C, LEI Z. HIN2Vec: Explore meta-paths in heterogeneous information networks for representation learning[C]//Proceedings of the 2017 ACM on Conference on Information and Knowledge Management. Singapore: ACM, 2017: 1797-1806.

        [15]周慧,趙中英,李超.面向異質(zhì)信息網(wǎng)絡的表示學習方法研究綜述[J]. 計算機科學與探索, 2019, 13(7): 1081-1093.

        ZHOU Hui, ZHAO Zhongying, LI Chao. Survey on representation learning methods oriented onheterogeneous information networks[J]. Journal of Frontiers of Computer Science and Technology, 2019, 13(7): 1081-1093.

        [16]SHI C, LI Y, ZHANG J, et al. A survey of heterogeneous information network analysis[J]. IEEE Transactions on Knowledge and Data Engineering, 2016, 29(1): 17-37.

        [17]SUN Y Z, HAN J W, YAN X F, et al. PathSim: Meta path-based top-k similarity search in heterogeneous information networks[J]. Proceedings of the VLDB Endowment, 2011, 4(11): 992-1003.

        [18]ZHANG Daokun, YIN Jie, ZHU Xingquan, et al. Network representation learning: A survey[J]. IEEE Transactions on Big Data, 2017.doi:10.1109/TBDATA.2018.2850013.

        [19]WANG X, JI H, SHI C, et al. Heterogeneous graph attention network[C]//The World Wide Web Conference. Geneva:WWW, 2019: 2022-2032.

        [20]DONG Y, CHAWLA N V, SWAMI A. Metapath2vec: Scalable representation learning for heterogeneous networks[C]//Proceedings of the 23rd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. New York: ACM, 2017: 135-144.

        [21]SHI Chuan, HU Binbin, ZHAO W X, et al. Heterogeneous information network embedding for recommendation[J]. IEEE Transactions on Knowledge and Data Engineering, 2018, 31(2): 357-370.

        [22]TANG J, QU M, MEI Q. PTE: Predictive text embedding through large-scale heterogeneous text networks[C]//Proceedings of the 21th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining.New York: ACM, 2015: 1165-1174.

        [23]SHI Y, GUI H, ZHU Q, et al. AspEm: Embedding learning by aspects in heterogeneous information networks[C]//Proceedings of the 2018 SIAM International Conference on Data Mining. California: SIAM, 2018: 144-152.

        [24]SHI Y, GUI H, GUO F, et al. Easing embedding learning by comprehensive transcription of heterogeneous information networks[C]//Proceedings of the 24th ACM SIGKDD International Conference on Knowledge Discovery & Data Mining. New York: ACM, 2018: 2190-2199.

        [25]GROVER A, LESKOVEC J. node2vec: Scalable feature learning for networks[C]//Proceedings of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. New York: ACM, 2016: 855-864.

        [26]HU B, SHI C, ZHAO W X, et al. Leveraging meta-path based context for Top-N recommendation with a neural co-attention model[C]//Proceedings of the 24th ACM SIGKDD International Conference on Knowledge Discovery & Data Mining.New York: ACM, 2018: 1531-1540.

        [27]LU Yuanfu, SHI Chuan, HU Linmei, et al. Relation structure-aware heterogeneous information network embedding[J]. IEEE Transactions on Knowledge and Data Engineering, 2019.http://arxiv.org/abs/1905.08027.

        [28]HU B, FANG Y, SHI C. Adversarial learning on heterogeneous information networks[C]//Proceedings of the 25th ACM SIGKDD International Conference on Knowledge Discovery & Data Mining. New York: ACM, 2019: 120-129.

        [29]GOODFELLOW I J, POUGET-ABADIE J, MIRZA M, et al. Generative adversarial networks[J]. Advances in Neural Information Processing Systems, 2014, 3: 2672-2680.

        [30]TANG J, QU M, WANG M, et al. LINE: Large-scale information network embedding[C]//Proceedings of the 24th International Conference on World Wide Web. Geneva:WWW,2015: 1067-1077.

        [31]ZHANG C, SONG D, HUANG C, et al. Heterogeneous graph neural network[C]//Proceedings of the 25th ACM SIGKDD International Conference on Knowledge Discovery & Data Mining.New York: ACM, 2019: 793-803.

        [32]FU X, ZHANG J, MENG Z, et al. MAGNN: Metapath aggregated graph neural network for heterogeneous graph embedding[C]//Proceedings of the Web Conference 2020. Geneva: WWW, 2020: 2331-2341.

        [33]YUN S, JEONG M, KIM R, et al. Graph transformer networks[C]//Advances in Neural Information Processing Systems. Vancouver: NIPS, 2019: 11983-11993.

        [34]HU L, YANG T, SHI C, et al. Heterogeneous graph attention networks for semi-supervised short text classification[C]//Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP). Hong Kong: EMNLP-IJCNLP, 2019: 4823-4832.

        [35]YOU Jiaxuan, YING R, LESKOVEC J. Position-Aware Graph Neural Networks[EB/OL].[2019-06-13]. https://arxiv.org/abs/1906.04817.

        [36]SHOEMAKER B A, PANCHENKO A R. Deciphering protein-protein interactions. Part I. experimental techniques and databases[J]. Plos Computational Biology, 2007, 3(3): e42.

        [37]LI Hang, GONG Xinjun, YU Hua, et al. Deep neural network based predictions of protein interactions using primary sequences[J]. Molecules, 2018, 23(8): 1923.

        [38]ZHANG Zhaopeng, RUAN Jishou, GAO Jianzhao, et al. Predicting essential proteins from protein-protein interactions using order statistics[J]. Journal of Theoretical Biology, 2019, 480: 274-283.

        [39]LOPAMUDRA D, ANIRBAN M. A classification-based approach to prediction of dengue virus and human protein-protein interactions using amino acid composition and conjoint triad features[C]//2019 IEEE Region 10 Symposium (TENSYMP). Kolkata: IEEE, 2019: 373-378.

        [40]BELTRAN J C, VALDEZ P, NAVAL P. Predicting protein-protein interactions based on biological information using extreme gradient boosting[C]//2019 IEEE Conference on Computational Intelligence in Bioinformatics and Computational Biology (CIBCB). Siena:IEEE, 2019: 1-6.

        [41]FAN S, ZHU J, HAN X, et al. Metapath-guided heterogeneous graph neural network for intent recommendation[C]//Proceedings of the 25th ACM SIGKDD International Conference on Knowledge Discovery & Data Mining. New York: ACM ,2019: 2478-2486.

        [42]FAN W, MA Y, LI Q, et al. Graph neural networks for social recommendation[C]//The World Wide Web Conference. New York: ACM , 2019: 417-426.

        [43] HU Z, DONG Y, WANG K, et al. Heterogeneous graph transformer[C]//Proceedings of the Web Conference. New York: ACM, 2020: 2704-2710.

        猜你喜歡
        建模能力
        初中生數(shù)學建模能力培養(yǎng)初探
        高中物理習題教學中提升學生建模能力的實踐分析
        “影視資源”在高中物理核心素養(yǎng)之科學思維形成中的應用策略
        高中數(shù)學核心素養(yǎng)之建模能力的培養(yǎng)
        試論數(shù)學教學中學生“建模能力”培養(yǎng)的研究
        在初中數(shù)學教學中培養(yǎng)學生數(shù)學建模能力初探
        “籃球比賽問題”的數(shù)學建模教學片斷與評析
        日本熟妇裸体视频在线| 厨房玩丰满人妻hd完整版视频| 国产日韩欧美网站| 亚洲成av在线免费不卡| 男女av免费视频网站| 狠狠躁夜夜躁人人躁婷婷视频| 麻豆精产国品| 久久久诱惑一区二区三区| 国产三级精品av在线| 大地资源中文第3页| 亚洲 欧美 唯美 国产 伦 综合| 国产激情一区二区三区在线蜜臀| 青青草原综合久久大伊人精品| 成人午夜福利视频后入| 美丽人妻被按摩中出中文字幕| 精品久久久无码不卡| 午夜精品免费视频一区二区三区 | 国产毛片一区二区日韩| 日本一区二区视频高清| 性高朝大尺度少妇大屁股| 亚洲免费不卡| 色婷婷av一区二区三区不卡| 亚洲视频网站大全免费看| 性色av一区二区三区| 性一交一乱一伦一视频一二三区| 亚洲国产一区二区,毛片| 亚洲精品国精品久久99热| 成人性生交大片免费看r| 五月激情狠狠开心五月| 国产一品二品精品在线| 东北妇女xx做爰视频| 思思99热| 国产女主播福利在线观看| 亚洲国产成人一区二区精品区| 亚洲最大天堂无码精品区| 亚洲一区二区不卡日韩| 日本精品一区二区三区二人码| 亚洲精品97久久中文字幕无码| 大伊香蕉精品视频一区| 亚洲成年国产一区二区| 国产成人av大片大片在线播放|