亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于PyG庫(kù)的多種類(lèi)圖神經(jīng)網(wǎng)絡(luò)對(duì)比研究*

        2022-06-11 01:46:26周波周微毛勇超
        關(guān)鍵詞:分類(lèi)效果模型

        周波周微毛勇超

        基于PyG庫(kù)的多種類(lèi)圖神經(jīng)網(wǎng)絡(luò)對(duì)比研究*

        周波1,2,3,周微2,3,毛勇超3

        (1. 新一代人工智能技術(shù)應(yīng)用交通運(yùn)輸行業(yè)研發(fā)中心,浙江 杭州 310023;2. 浙江交通職業(yè)技術(shù)學(xué)院 海運(yùn)學(xué)院,浙江 杭州 310012;3. 浙江工業(yè)大學(xué) 信息工程學(xué)院,浙江 杭州 310023)

        各種各樣的基于消息傳遞機(jī)制的圖神經(jīng)網(wǎng)絡(luò)架構(gòu)被提出,但是這些圖神經(jīng)網(wǎng)絡(luò)在同一節(jié)點(diǎn)分類(lèi)任務(wù)的表現(xiàn)性能如何缺少相應(yīng)的研究.文章基于PyG圖神經(jīng)網(wǎng)絡(luò)庫(kù),編寫(xiě)實(shí)驗(yàn)代碼,包括數(shù)據(jù)集處理、圖神經(jīng)網(wǎng)絡(luò)搭建和節(jié)點(diǎn)分類(lèi)模型訓(xùn)練3個(gè)主要環(huán)節(jié),實(shí)現(xiàn)對(duì)不同架構(gòu)的圖神經(jīng)網(wǎng)絡(luò)在節(jié)點(diǎn)分類(lèi)任務(wù)上的對(duì)比.通過(guò)利用多指標(biāo)衡量基于多種類(lèi)的圖神經(jīng)網(wǎng)絡(luò)構(gòu)建的節(jié)點(diǎn)分類(lèi)模型,最后得出最適合節(jié)點(diǎn)分類(lèi)的圖神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),并給出實(shí)驗(yàn)分析,同時(shí)提出了今后的研究方向.

        圖神經(jīng)網(wǎng)絡(luò);PyG;消息傳遞;節(jié)點(diǎn)分類(lèi)

        圖是現(xiàn)實(shí)生活中廣泛存在的一種數(shù)據(jù)形式.現(xiàn)實(shí)生活中,很多場(chǎng)景可以建模成以圖形式表示的復(fù)雜網(wǎng)絡(luò),比如電力網(wǎng)絡(luò)、交通網(wǎng)絡(luò)、航空網(wǎng)絡(luò)以及社交網(wǎng)絡(luò)等.隨著人類(lèi)社會(huì)各個(gè)場(chǎng)景下的數(shù)據(jù)大量產(chǎn)生,以圖形式存儲(chǔ)這些數(shù)據(jù)之間關(guān)系的應(yīng)用越來(lái)越廣泛.因此,開(kāi)發(fā)在圖上對(duì)數(shù)據(jù)進(jìn)行挖掘、行為預(yù)測(cè)等任務(wù)的技術(shù)手段或工具也逐漸引起了科研工作者的興趣.近年來(lái),圖神經(jīng)網(wǎng)絡(luò)(Graph Neural Network,GCN)[1]技術(shù)被開(kāi)發(fā)出來(lái)應(yīng)用于解決圖上的各類(lèi)問(wèn)題,其被廣泛應(yīng)用于社交網(wǎng)絡(luò)、知識(shí)圖譜、推薦系統(tǒng)和生命科學(xué)等領(lǐng)域.例如,文獻(xiàn)[2]利用圖神經(jīng)網(wǎng)絡(luò)有效表達(dá)城市復(fù)雜路網(wǎng)的結(jié)構(gòu)特性;文獻(xiàn)[3]利用圖神經(jīng)網(wǎng)絡(luò)對(duì)系統(tǒng)毒病理學(xué)領(lǐng)域的應(yīng)用進(jìn)行了展望;文獻(xiàn)[4]基于深度圖卷積神經(jīng)網(wǎng)絡(luò)從序列出發(fā)預(yù)測(cè)蛋白質(zhì)氨基酸的結(jié)構(gòu),提升關(guān)聯(lián)圖預(yù)測(cè)效率;文獻(xiàn)[5]利用圖神經(jīng)網(wǎng)絡(luò)解決復(fù)雜圖的推薦難題,采用圖神經(jīng)網(wǎng)絡(luò)可以挖掘有效信息,重構(gòu)網(wǎng)絡(luò)并預(yù)測(cè)評(píng)分.

        隨著圖神經(jīng)網(wǎng)絡(luò)的蓬勃發(fā)展,基于圖神經(jīng)網(wǎng)絡(luò)基礎(chǔ)架構(gòu)而采用不同聚合形式的新架構(gòu)圖神經(jīng)網(wǎng)絡(luò)也越來(lái)越多,但是這些新架構(gòu)圖神經(jīng)網(wǎng)絡(luò)的提出均是針對(duì)于某一個(gè)特定任務(wù)而設(shè)計(jì)的,缺少在同一任務(wù)場(chǎng)景下,對(duì)不同架構(gòu)圖神經(jīng)網(wǎng)絡(luò)之間的性能對(duì)比;當(dāng)前存在的各類(lèi)圖神經(jīng)網(wǎng)絡(luò)應(yīng)用需要研究者從頭開(kāi)始編程搭建,因圖神經(jīng)網(wǎng)絡(luò)存在大量的超參數(shù),從頭開(kāi)始搭建費(fèi)時(shí)費(fèi)力,阻礙了圖神經(jīng)網(wǎng)路的快速部署.因此基于統(tǒng)一的圖神經(jīng)網(wǎng)絡(luò)框架下快速搭建不同架構(gòu)的圖神經(jīng)網(wǎng)絡(luò),并部署到同一任務(wù)中進(jìn)行快速對(duì)比至關(guān)重要,從而為后續(xù)的圖神經(jīng)網(wǎng)絡(luò)的實(shí)際應(yīng)用提供支撐,為決策者在同一任務(wù)下選擇最優(yōu)的圖神經(jīng)網(wǎng)絡(luò)架構(gòu)提供決策輔助.

        1 研究方法

        圖神經(jīng)網(wǎng)絡(luò)對(duì)于圖的深層信息具有強(qiáng)大的表征能力,能夠挖掘圖中節(jié)點(diǎn)、邊之間的隱藏信息.本文將基于PyG快速搭建常用的不同消息聚合形式的圖神經(jīng)網(wǎng)絡(luò)模型,并將這些模型在同一節(jié)點(diǎn)分類(lèi)任務(wù)中的表現(xiàn)進(jìn)行對(duì)比.通常,圖中每一個(gè)節(jié)點(diǎn)有一個(gè)特征向量X以及一個(gè)標(biāo)簽y,實(shí)際場(chǎng)景中,圖中只有部分節(jié)點(diǎn)的標(biāo)簽信息可以獲取,節(jié)點(diǎn)分類(lèi)的任務(wù)就是利用這些有標(biāo)簽信息的節(jié)點(diǎn)來(lái)預(yù)測(cè)剩余未知節(jié)點(diǎn)的標(biāo)簽.節(jié)點(diǎn)分類(lèi)任務(wù)包含兩個(gè)步驟,第一步,利用圖神經(jīng)網(wǎng)絡(luò)得到節(jié)點(diǎn)的嵌入表達(dá);第二步,構(gòu)建全連接層深度模型即多層感知機(jī),將第一步獲得的節(jié)點(diǎn)嵌入作為輸入,進(jìn)而得到各個(gè)節(jié)點(diǎn)在各個(gè)類(lèi)別上的預(yù)測(cè)分布.多層感知機(jī)的輸出一般會(huì)進(jìn)行softmax計(jì)算,保證每個(gè)節(jié)點(diǎn)在各個(gè)類(lèi)別上預(yù)測(cè)概率之和為1.因此,在節(jié)點(diǎn)分類(lèi)任務(wù)中,第一步的圖神經(jīng)網(wǎng)絡(luò)搭建就至關(guān)重要.圖神經(jīng)網(wǎng)絡(luò)采用消息聚合的形式來(lái)獲得每一個(gè)節(jié)點(diǎn)的嵌入,其基本聚合形式如下[7]5:

        其中:表示圖中每個(gè)節(jié)點(diǎn)加一個(gè)自循環(huán);I表示單位矩陣;是對(duì)角度矩陣;其對(duì)角線元素為;W是圖神經(jīng)網(wǎng)絡(luò)的模型參數(shù).例如存在一個(gè)簡(jiǎn)單圖,該圖是一個(gè)無(wú)向無(wú)權(quán)的圖,包含4個(gè)節(jié)點(diǎn),其連接情況如圖1所示.

        則該圖的連接矩陣為:

        則添加自循環(huán)后的連接矩陣為:

        對(duì)角度矩陣為:

        設(shè)圖(1)的節(jié)點(diǎn)初始特征為:

        為了解釋消息聚合的特性,暫不考慮的情況下,根據(jù)矩陣的乘法特性,經(jīng)過(guò)GCN聚合以后節(jié)點(diǎn)的特征:

        2 實(shí)驗(yàn)設(shè)置

        利用PyG中的Planetoid(root,name,transform)函數(shù)下載數(shù)據(jù)集.其中參數(shù)root表示數(shù)據(jù)集存放在本地的位置.參數(shù)name表示下載的數(shù)據(jù)集名稱,本文選用科學(xué)引文數(shù)據(jù)集來(lái)實(shí)現(xiàn)節(jié)點(diǎn)分類(lèi)任務(wù),科學(xué)引文數(shù)據(jù)集中節(jié)點(diǎn)表示發(fā)表的文章,節(jié)點(diǎn)之間的關(guān)系表示文章之間的引用關(guān)系,節(jié)點(diǎn)的列表表示文章所屬的學(xué)科,科學(xué)引文數(shù)據(jù)集包含3個(gè)數(shù)據(jù)集,其基本情況見(jiàn)表1.本文將采用其中一類(lèi)引文數(shù)據(jù)集Cora來(lái)訓(xùn)練節(jié)點(diǎn)分類(lèi)模型并評(píng)估不同架構(gòu)形式的圖神經(jīng)網(wǎng)絡(luò)表現(xiàn)效果.Cora引文數(shù)據(jù)集中的文章共分為七個(gè)類(lèi)別[9],分屬7個(gè)學(xué)科,分別為:基于案例、遺傳算法、神經(jīng)網(wǎng)絡(luò)、概率方法、強(qiáng)化學(xué)習(xí)、規(guī)則學(xué)習(xí)和理論.參數(shù)transform表示對(duì)節(jié)點(diǎn)的特征是否進(jìn)行正則化處理,本文采用L2范數(shù)對(duì)節(jié)點(diǎn)特征進(jìn)行正則化處理.

        表1 引文數(shù)據(jù)集

        為公平對(duì)比,在Cora數(shù)據(jù)集中,從每個(gè)類(lèi)別中采樣20個(gè)樣本組成訓(xùn)練集,再?gòu)氖O碌臉颖局胁蓸?00個(gè)樣本組成驗(yàn)證集,最后剩下的樣本組成測(cè)試集.每一個(gè)分類(lèi)模型均是通過(guò)5次重復(fù)獨(dú)立實(shí)驗(yàn)確定最優(yōu)的分類(lèi)模型進(jìn)行對(duì)比.研究發(fā)現(xiàn),獨(dú)立重復(fù)實(shí)驗(yàn)次數(shù)超過(guò)5以后,節(jié)點(diǎn)分類(lèi)模型已經(jīng)比較穩(wěn)定.因此為了節(jié)省訓(xùn)練資源,設(shè)定5次獨(dú)立重復(fù)實(shí)驗(yàn)來(lái)選擇最優(yōu)分類(lèi)模型.訓(xùn)練集樣本數(shù)越多,分類(lèi)模型能夠?qū)W到更多隱藏信息,分類(lèi)精度越高.通過(guò)前期實(shí)驗(yàn),我們發(fā)現(xiàn),訓(xùn)練集中每個(gè)類(lèi)別中樣本數(shù)超過(guò)20,各個(gè)模型的分類(lèi)精度差別不大.這是因?yàn)?,各個(gè)分類(lèi)模型本質(zhì)都是可以實(shí)現(xiàn)節(jié)點(diǎn)分類(lèi)的,如果訓(xùn)練集中各個(gè)樣本數(shù)大于20,則訓(xùn)練集信息過(guò)于豐富,各個(gè)分類(lèi)模型的分類(lèi)精度區(qū)分度并不明顯.同樣,訓(xùn)練集中,每個(gè)樣本數(shù)如果少于20,各個(gè)分類(lèi)模型的精度都較低,區(qū)分度也不明顯.通過(guò)前期實(shí)驗(yàn)我們還發(fā)現(xiàn),不同類(lèi)型的數(shù)據(jù)集其訓(xùn)練集的組成個(gè)數(shù)對(duì)分類(lèi)模型的分類(lèi)精度也有影響,因此數(shù)據(jù)集特征與分類(lèi)模型的本質(zhì)關(guān)系我們今后將做進(jìn)一步研究.

        3 實(shí)驗(yàn)結(jié)果分析

        編寫(xiě)節(jié)點(diǎn)分類(lèi)任務(wù)的代碼,并再GPU上訓(xùn)練節(jié)點(diǎn)發(fā)呢類(lèi)模型.GCN的訓(xùn)練情況如圖2所示,其中橫坐標(biāo)為訓(xùn)練測(cè)次數(shù),左側(cè)縱坐標(biāo)為損失函數(shù)的訓(xùn)練集損失值,右側(cè)縱坐標(biāo)為驗(yàn)證集上的分類(lèi)精度,分類(lèi)精度定義為相應(yīng)數(shù)據(jù)集中預(yù)測(cè)節(jié)點(diǎn)類(lèi)別正確的個(gè)數(shù)與數(shù)據(jù)集個(gè)數(shù)的比值.從圖2可以看出,GCN能夠比較快的降低損失函數(shù)值,并且在驗(yàn)證集上的分類(lèi)精度也迅速提升,最后2個(gè)曲線在175時(shí)間步以后趨于平穩(wěn).不同架構(gòu)的圖神經(jīng)完網(wǎng)絡(luò)在測(cè)試集上的分類(lèi)精度如圖3所示,可以看出,GCN、GAT和GraphSage在測(cè)試集上明顯表現(xiàn)優(yōu)于其他架構(gòu)的圖神經(jīng)網(wǎng)絡(luò);在測(cè)試集上分類(lèi)效果最好的是GAT、GraphSage和GCN.接下來(lái),我們將評(píng)估這3類(lèi)圖神經(jīng)網(wǎng)絡(luò)和GIN在節(jié)點(diǎn)分類(lèi)任務(wù)中的分類(lèi)效果.編寫(xiě)程序計(jì)算這4種架構(gòu)的圖神經(jīng)網(wǎng)絡(luò)在節(jié)點(diǎn)分類(lèi)任務(wù)上的混淆矩陣.橫軸表示分類(lèi)模型預(yù)測(cè)類(lèi)別,縱軸表示節(jié)點(diǎn)的真實(shí)類(lèi)別,混淆矩陣對(duì)角線位置的數(shù)據(jù)表示預(yù)測(cè)正確的節(jié)點(diǎn)個(gè)數(shù),如圖4~7所示.

        從圖4~6可以看出,對(duì)節(jié)點(diǎn)類(lèi)別0預(yù)測(cè)成功率最高的是GCN、GAT和GraphSage;對(duì)類(lèi)別1預(yù)測(cè)成功率最高的是GCN和GAT;對(duì)類(lèi)別2預(yù)測(cè)成功率最高的是GAT;對(duì)類(lèi)別3預(yù)測(cè)成功率最高的是GAT;對(duì)類(lèi)別4預(yù)測(cè)成功率最高的是GCN;對(duì)類(lèi)別5預(yù)測(cè)成功了率最高的是GAT;對(duì)類(lèi)別6預(yù)測(cè)成功率最高的是GCN和GraphSage.從圖7可以看出,GIN圖神經(jīng)網(wǎng)絡(luò)在節(jié)點(diǎn)各個(gè)類(lèi)別的預(yù)測(cè)中均處于下風(fēng),這與圖3的實(shí)驗(yàn)結(jié)果一致.經(jīng)過(guò)分析可知,在類(lèi)別0、1和6中,至少有2種圖神經(jīng)網(wǎng)絡(luò)的預(yù)測(cè)精度一致,因此需要更精確滴衡量這3類(lèi)算法在這3個(gè)類(lèi)別上的表現(xiàn).

        圖2 GCN訓(xùn)練曲線圖

        圖3 多種類(lèi)圖神經(jīng)網(wǎng)絡(luò)測(cè)試集分類(lèi)精度

        圖4 GCN混淆矩陣

        圖5 GAT混淆矩陣

        圖6 GraphSage混淆矩陣

        圖7 GIN混淆矩陣

        為了更進(jìn)一步探究GCN、GAT和GraphSage的分類(lèi)性能,計(jì)算三者的查準(zhǔn)率、查全率和1分?jǐn)?shù),其各自定義如下[10]:

        其中:表示預(yù)測(cè)為正樣本正確的個(gè)數(shù);表示預(yù)測(cè)為正樣本錯(cuò)誤的個(gè)數(shù);表示預(yù)測(cè)為負(fù)樣本錯(cuò)誤的個(gè)數(shù).因此,結(jié)合混淆矩陣,計(jì)算出對(duì)于類(lèi)別0、類(lèi)別1和類(lèi)別6下圖神經(jīng)網(wǎng)絡(luò)的查準(zhǔn)率、查全率和F分?jǐn)?shù)分別見(jiàn)表2、表3和表4.

        從表2可以看出,雖然3個(gè)圖神經(jīng)網(wǎng)絡(luò)在數(shù)據(jù)集上的分類(lèi)精度一致,但GAT表現(xiàn)更好一些,其在查準(zhǔn)率和1分?jǐn)?shù)指標(biāo)上表現(xiàn)都是最高的,GCN的查全率與GAT的查全率都是最高的.從表3可以看出,除了查全率指標(biāo),GAT都是表現(xiàn)最好的.從表4可以看出,GCN和GraphSage對(duì)于類(lèi)別6的分類(lèi)不分伯仲,具體使用的時(shí)候需要看使用傾向.查準(zhǔn)率和查全率2個(gè)指標(biāo)是相互矛盾的指標(biāo),從兩者的定義上來(lái)看,兩者中一個(gè)越大,另外一個(gè)越?。降走x擇哪一指標(biāo)來(lái)衡量分類(lèi)模型,需要看使用的場(chǎng)景和傾向.例如,在垃圾郵件檢測(cè)分類(lèi)中,我們希望在整個(gè)標(biāo)記為垃圾郵件的類(lèi)中,實(shí)際為垃圾郵件的個(gè)數(shù)要多一些,即更大的查準(zhǔn)率,形象的理解就是寧可漏掉,不可錯(cuò)殺,因?yàn)檎`標(biāo)記一個(gè)正常郵件為垃圾郵件帶來(lái)的影響要遠(yuǎn)大于未正確識(shí)別垃圾郵件的影響.但是,在金融貸款領(lǐng)域,對(duì)于異常貸款人的檢測(cè)更希望寧愿誤殺,不可漏掉,即希望更大的查全率,因?yàn)閷①Y金貸款給檢測(cè)分類(lèi)為正常貸款人實(shí)際是異常貸款人的風(fēng)險(xiǎn)異常巨大,往往一個(gè)異常貸款人帶來(lái)的違約風(fēng)險(xiǎn)可以完全抵消所有正常貸款帶來(lái)的收益.因此,在金融領(lǐng)域,寧愿檢測(cè)器誤將正常貸款人檢測(cè)為異常,也不愿意放過(guò)任何一個(gè)異常貸款人.1分?jǐn)?shù)就是查準(zhǔn)率和查全率的調(diào)和平均值.因此,1以作為衡量標(biāo)準(zhǔn),類(lèi)別0分類(lèi)效果最好的圖神經(jīng)網(wǎng)絡(luò)是GAT,類(lèi)別1分類(lèi)效果最好的圖神經(jīng)網(wǎng)絡(luò)是GAT,類(lèi)別6兩者的分類(lèi)效果一致.

        表2 類(lèi)別0下的分類(lèi)指標(biāo)

        表3 類(lèi)別1下的分類(lèi)指標(biāo)

        表4 類(lèi)別6下的分類(lèi)指標(biāo)

        進(jìn)一步,我們繪制ROC曲線,并計(jì)算相應(yīng)的AUC值,ROC曲線的縱軸是真正例率TPR(True Positive Rate),橫軸是假正例率FPR(False Positive Rate).AUC是ROC曲線下的面積,ROC曲線越遠(yuǎn)離中間即AUC數(shù)值越大表示分類(lèi)模型越好.

        從圖8和圖9中可以看出,對(duì)于類(lèi)別6,GCN和GraphSage兩個(gè)ROC曲線走勢(shì)趨于一致,ROC曲線越凸向于左上角,則說(shuō)明該分類(lèi)模型效果越好,但憑肉眼很難看出兩者的曲線誰(shuí)更趨向于左上角,但利用計(jì)算ROC曲線下的面積即AUC值,可以發(fā)現(xiàn)GraphSage對(duì)于類(lèi)別6的AUC值為0.9834大于GCN的AUC值0.9803.因此,對(duì)于類(lèi)別6從整體分類(lèi)效果來(lái)看,GraphSage的分類(lèi)效果更勝一籌.因此,綜合以上分析,對(duì)于類(lèi)別0,分類(lèi)效果最好的分類(lèi)模型是GAT;對(duì)于類(lèi)別1,分類(lèi)效果最好的分類(lèi)模型是GAT;對(duì)于類(lèi)別2,分類(lèi)效果最好的分類(lèi)模型是GAT;對(duì)于類(lèi)別3,分類(lèi)效果最好的分類(lèi)模型是GAT;對(duì)于類(lèi)別4,分類(lèi)效果最好的分類(lèi)模型是GCN;對(duì)于類(lèi)別5,分類(lèi)效果最好的分類(lèi)模型是GAT;對(duì)于類(lèi)別6,分類(lèi)效果最好的分類(lèi)模型是GraphSage.雖然GAT的分類(lèi)效果更好一些,但是GCN和GraphSage與之的差別并不大.

        圖8 GCN的ROC曲線和AUC值

        圖9 GraphSage的ROC曲線和AUC值

        4 結(jié)束語(yǔ)

        本文基于PyG庫(kù),以Cora數(shù)據(jù)集為基準(zhǔn),編寫(xiě)分類(lèi)任務(wù)代碼,對(duì)比六類(lèi)圖神經(jīng)網(wǎng)絡(luò)的分類(lèi)效果.在整體分類(lèi)精度上GCN、GAT和GraphSage表現(xiàn)遠(yuǎn)好于其他3類(lèi),接著重點(diǎn)分析了GCN、GAT和GraphSage在不同類(lèi)別上的表現(xiàn)效果,利用混淆矩陣、查全率、查準(zhǔn)率和分?jǐn)?shù)指標(biāo),繪制ROC曲線并計(jì)算相應(yīng)AUC值,最終得出GAT在節(jié)點(diǎn)分類(lèi)上效果最好,但是GCN和GraphSage與之的差別并不大.

        本文的對(duì)比僅僅是從分類(lèi)精度上來(lái)衡量,但是一個(gè)算法的好壞評(píng)價(jià)包括運(yùn)算效率、時(shí)間復(fù)雜度、空間復(fù)雜度和泛化性等方面.因此,對(duì)于圖神經(jīng)網(wǎng)絡(luò)在其他方面的對(duì)比是我們今后的一個(gè)研究方向.本文的研究可以為后續(xù)圖神經(jīng)網(wǎng)絡(luò)的應(yīng)用提供決策指導(dǎo),為決策者提供用何種神經(jīng)網(wǎng)絡(luò)來(lái)進(jìn)行節(jié)點(diǎn)分類(lèi)提供了數(shù)據(jù)支撐.

        [1] 徐冰冰,岑科廷,黃俊杰,等.圖卷積神經(jīng)網(wǎng)絡(luò)綜述[J].計(jì)算機(jī)學(xué)報(bào),2020,43(05):755-780.

        [2] 閆旭,范曉亮,鄭傳潘,等.基于圖卷積神經(jīng)網(wǎng)絡(luò)的城市交通態(tài)勢(shì)預(yù)測(cè)算法[J].浙江大學(xué)學(xué)報(bào)(工學(xué)版),2020,54(06):1147-1155.

        [3] 王浩博,王中鈺,陳景文,等.基于圖神經(jīng)網(wǎng)絡(luò)模型的系統(tǒng)毒理學(xué)研究展望[J].環(huán)境化學(xué),2021,40(11):3297-3306.

        [4] 徐佳燕.基于深度卷積神經(jīng)網(wǎng)絡(luò)的蛋白質(zhì)氨基酸關(guān)聯(lián)圖預(yù)測(cè)[D].上海交通大學(xué),2019.

        [5] 李嫻,張澤華,趙霞,等.TWD-GNN:基于三支決策的圖神經(jīng)網(wǎng)絡(luò)推薦方法[J].計(jì)算機(jī)工程與應(yīng)用,2020,56(12):156-162.

        [6] Paszke A, Gross S, Massa F, et al. Pytorch: An imperative style, high-performance deep learning library[J]., 2019,32:1-12.

        [7] Kipf T N, Welling M. Semi-supervised classification with graph convolutional networks[J]. arXiv Preprint arXiv:1609.02907, 2017(4):1-14.

        [8] 周波.不同優(yōu)化器對(duì)GCN模型參數(shù)訓(xùn)練的影響[J].浙江交通職業(yè)技術(shù)學(xué)院學(xué)報(bào),2020,21(04):23-28.

        [9] Yang Z, Cohen W, Salakhudinov R. Revisiting semi- supervised learning with graph embeddings[C]// International conference on machine learning, PMLR, 2016:40-48.

        [10] 宋楓溪,高林.文本分類(lèi)模型性能評(píng)估指標(biāo)[J].計(jì)算機(jī)工程,2004(13):107-109+127.

        A Comparative Study of Multi-class Graph Neural Networks Base on PyG Library

        ZHOU Bo1,2,3, ZHOU Wei2,3, MAO Yongchao3

        ()

        Various graph neural network architectures based on message passing mechanisms have been proposed, but there is a lack of corresponding research on how these graph neural networks perform on the same node classification task. Based on the PyG graph neural network library, our paper writes experimental code, including data set processing, graph neural network construction and node classification model training. We realize the comparison of graph neural networks with different architectures on the node classification task, and measure the node classification model based on multiple types of graph neural networks by using multiple metrics. Finally, the graph neural network structure that is most suitable for node classification is obtained, the experimental analysis is given, and the future research direction is also proposed.

        graph neural networks; PyG; message passing; node classification

        TP399

        A

        1672-0318(2022)03-0021-06

        10.13899/j.cnki.szptxb.2022.03.003

        2022-02-18

        新一代人工智能技術(shù)應(yīng)用交通運(yùn)輸行業(yè)研發(fā)中心基金資助(202102H);浙江省教育廳一般科研項(xiàng)目“基于強(qiáng)化學(xué)習(xí)訓(xùn)練的多智能安全性研究”資助項(xiàng)目(Y202043984).

        周波,男,江蘇徐州人,講師,在讀博士,研究方向:復(fù)雜網(wǎng)絡(luò)、機(jī)器學(xué)習(xí)和圖數(shù)據(jù)挖掘.

        (責(zé)任編輯:王璐)

        猜你喜歡
        分類(lèi)效果模型
        一半模型
        按摩效果確有理論依據(jù)
        分類(lèi)算一算
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
        分類(lèi)討論求坐標(biāo)
        迅速制造慢門(mén)虛化效果
        數(shù)據(jù)分析中的分類(lèi)討論
        抓住“瞬間性”效果
        教你一招:數(shù)的分類(lèi)
        女同性恋看女女av吗| 久久久无码一区二区三区| 欧美久久久久中文字幕| 久久精品网站免费观看| 精品国内日本一区二区| 亚洲国产天堂久久综合网| 一本色道久久综合狠狠躁| 国产免费午夜福利蜜芽无码| 亚洲av高清一区二区三区| 吃奶呻吟打开双腿做受视频| 欧美成人精品第一区二区三区| 亚洲AV成人综合五月天在线观看| 亚洲本色精品一区二区久久| 国产av无码国产av毛片| 亚洲人成人77777网站| 区无码字幕中文色| 美女脱掉内裤扒开下面让人插| 无码人妻丰满熟妇区五十路| 四虎国产精品永久在线无码| 日韩精品一区二区三区中文9| 中文字幕色偷偷人妻久久一区| 国产男女免费完整视频| 国产三级精品视频2021| 久久久久亚洲av片无码下载蜜桃| 亚洲婷婷丁香激情| 97超碰中文字幕久久| 亚洲 欧美 综合 在线 精品| 国产超碰人人做人人爱ⅴa| AV熟妇导航网| 国产一区二区av免费观看| 精品少妇无码av无码专区| 美女啪啪国产| 中文字幕丰满人妻被公强| 99国产精品99久久久久久| 无码专区天天躁天天躁在线| 丝袜人妻无码中文字幕综合网| 日韩人妻系列在线观看| 内射少妇36p亚洲区| 亚洲AV无码乱码1区久久| 日本女优五十路中文字幕| 2019最新中文字幕在线观看|