亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于PageRank 傳播機(jī)制的超圖神經(jīng)網(wǎng)絡(luò)

        2023-05-25 05:48:54劉彥北周敬濤
        關(guān)鍵詞:特征信息模型

        劉彥北,周敬濤

        (天津工業(yè)大學(xué)電子與信息工程學(xué)院,天津 300387)

        圖的應(yīng)用是非常廣泛的,現(xiàn)實(shí)生活中處處是圖的場(chǎng)景。近些年,圖神經(jīng)網(wǎng)絡(luò)的方法得到了廣泛的關(guān)注,以傳統(tǒng)圖結(jié)構(gòu)為基礎(chǔ),在圖表示學(xué)習(xí)方面取得了很大的成果。然而隨著圖神經(jīng)網(wǎng)絡(luò)應(yīng)用的不斷擴(kuò)展,傳統(tǒng)圖結(jié)構(gòu)定義的點(diǎn)與點(diǎn)成對(duì)關(guān)系已經(jīng)無(wú)法滿足描述現(xiàn)實(shí)情況中數(shù)據(jù)之間高階復(fù)雜關(guān)系的要求,傳統(tǒng)圖表示學(xué)習(xí)在消息傳遞方面也面臨挑戰(zhàn)。

        相對(duì)于普通圖而言,超圖可以更加準(zhǔn)確地描述存在多元關(guān)聯(lián)的對(duì)象之間的關(guān)系。超邊構(gòu)建非成對(duì)關(guān)系,因此,超圖很適合用于描述高階數(shù)據(jù)相關(guān)性,同時(shí)在學(xué)習(xí)多模態(tài)和異構(gòu)數(shù)據(jù)上都有建樹。超圖學(xué)習(xí)最早由Sch?lkopf 等[1]提出,用于處理超圖結(jié)構(gòu),減小超圖上連接性緊密點(diǎn)的標(biāo)簽的差異。Metaxas 等[2]提出超圖學(xué)習(xí)被應(yīng)用于視頻對(duì)象分割任務(wù)。Huang 等[3]利用超圖結(jié)構(gòu)對(duì)圖像關(guān)系進(jìn)行建模,并且對(duì)圖像排序進(jìn)行轉(zhuǎn)導(dǎo)推理。Gao 等[4]引入l2 正則化來(lái)學(xué)習(xí)最優(yōu)超邊權(quán)值。Hwang 等[5]通過(guò)假設(shè)高度相關(guān)的超邊緣應(yīng)該具有相似的權(quán)重,進(jìn)一步探討了超邊緣之間的相關(guān)性。之后Gao等[6]引入了多超圖結(jié)構(gòu),并且為不同的子超圖分配不同的權(quán)重,以此在處理多模態(tài)數(shù)據(jù)的基礎(chǔ)上應(yīng)對(duì)不同的模式。Jiang 等[7]提出了動(dòng)態(tài)超圖神經(jīng)網(wǎng)絡(luò)DHGNN,由動(dòng)態(tài)超圖構(gòu)造(DHG)和超圖卷(HGC)2 個(gè)模塊構(gòu)成,通過(guò)不斷更新超圖結(jié)構(gòu)來(lái)最終達(dá)到最貼切數(shù)據(jù)的學(xué)習(xí)表示。Bai[8]在圖神經(jīng)網(wǎng)絡(luò)中引入了2 個(gè)端到端的可訓(xùn)練操作內(nèi)容,即超圖卷積和超圖注意,用于有效學(xué)習(xí)高階圖結(jié)構(gòu)數(shù)據(jù)上的深度嵌入。Feng 等[9]設(shè)計(jì)了一種超邊緣卷積,在超圖神經(jīng)網(wǎng)絡(luò)HGNN 中學(xué)習(xí)高階數(shù)據(jù)相關(guān)性。Zhang 等[10]開發(fā)了一種新的基于自注意的圖神經(jīng)網(wǎng)絡(luò),稱為Hyper-SAGNN,適用于具有可變超邊大小的同質(zhì)和異質(zhì)超圖。Xia 等[11]將超圖網(wǎng)絡(luò)與自監(jiān)督學(xué)習(xí)相結(jié)合并應(yīng)用于會(huì)話推薦任務(wù)。Lee 等[12]采用個(gè)性化的重加權(quán)方案進(jìn)行節(jié)點(diǎn)跳躍,通過(guò)概率的形式重新解釋超圖上的隨機(jī)游走概念。

        傳統(tǒng)的消息傳遞算法是在圖神經(jīng)網(wǎng)絡(luò)上展開的。文獻(xiàn)[13-14]提出了譜圖卷積神經(jīng)網(wǎng)絡(luò);文獻(xiàn)[15-16]提出了消息傳遞算法;Dai 等[17]通過(guò)遞歸神經(jīng)網(wǎng)絡(luò)進(jìn)行鄰居聚合;Veliˇckovic'等[18]在圖神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)上引入了注意機(jī)制;AbuElHaija 等[19]提出了隨機(jī)游走;Gilmer 等[20]使用了邊緣特征;文獻(xiàn)[21-24]試圖增加跳躍的連接步數(shù)來(lái)改進(jìn)傳統(tǒng)的消息傳遞算法;Xu 等[25]將消息傳遞與聚合方案相結(jié)合。然而,上述工作的消息傳遞層數(shù)依然是有限的。Li 等[26]通過(guò)合作訓(xùn)練和自我訓(xùn)練相結(jié)合的方式來(lái)促進(jìn)模型訓(xùn)練。Eliav 等[27]也有類似的表現(xiàn),取得的改進(jìn)效果接近于其他的半監(jiān)督分類模型。文獻(xiàn)[28-29] 通過(guò)結(jié)合殘差連接和批量歸一化避免了過(guò)擬合問(wèn)題。Gaseiger[30]使用圖像卷積的關(guān)系網(wǎng)絡(luò)(GCN)和網(wǎng)頁(yè)排名得出一種改進(jìn)的傳播方案即基于個(gè)性化的網(wǎng)頁(yè)排名。Sun 等[31]利用將AdaBoost 與網(wǎng)絡(luò)合并的方法,構(gòu)建新圖卷積網(wǎng)絡(luò)AdaGCN,從根節(jié)點(diǎn)的高階鄰居中提取信息。綜上所述,超圖學(xué)習(xí)需要在增大學(xué)習(xí)領(lǐng)域范圍的同時(shí),保持對(duì)根節(jié)點(diǎn)的適當(dāng)關(guān)注。

        本文提出了一種使用個(gè)性化網(wǎng)頁(yè)排名PageRank代替?zhèn)鹘y(tǒng)鄰居聚合的傳播方案,該算法增加了傳播過(guò)程傳回根節(jié)點(diǎn)的概率,PageRank 算法在對(duì)根節(jié)點(diǎn)的局部領(lǐng)域進(jìn)行編碼時(shí),能夠在擴(kuò)大學(xué)習(xí)領(lǐng)域的同時(shí)保持對(duì)根節(jié)點(diǎn)信息的關(guān)注。模型的傳播方案允許網(wǎng)絡(luò)層數(shù)逐漸增多,理論上可以接近無(wú)限多層,而且不會(huì)導(dǎo)致過(guò)平滑。除該優(yōu)勢(shì)之外,本算法當(dāng)中的傳播算法與神經(jīng)網(wǎng)絡(luò)獨(dú)立存在,因此,可以在不改變?cè)猩窠?jīng)網(wǎng)絡(luò)的基礎(chǔ)上來(lái)實(shí)現(xiàn)更廣的傳播范圍,使模型具有一定的推廣性。與前人所述PageRank 與傳統(tǒng)圖卷積網(wǎng)絡(luò)方法相結(jié)合的算法PPNP[30]相比,本文提出的算法是將PageRank與超圖卷積網(wǎng)絡(luò)相結(jié)合克服各自局限性的模型HGNNP,優(yōu)勢(shì)在于:利用超圖適合處理數(shù)據(jù)之間高階關(guān)系的特點(diǎn),有效學(xué)習(xí)根節(jié)點(diǎn)周圍更多類型的連接信息;使用PageRank 思想在根節(jié)點(diǎn)周圍實(shí)現(xiàn)更廣的學(xué)習(xí)領(lǐng)域,同時(shí)不丟失根節(jié)點(diǎn)本身的信息。為驗(yàn)證所提出的HGNNP 算法的有效性,本文進(jìn)行了視覺(jué)對(duì)象分類任務(wù)實(shí)驗(yàn),并與目前流行的方法相比較,以期能夠在較深的卷積網(wǎng)絡(luò)層數(shù)下較好地處理多模態(tài)數(shù)據(jù)的高階關(guān)系。

        1 模型及方法

        本文模型HGNNP 將超圖神經(jīng)網(wǎng)絡(luò)與個(gè)性網(wǎng)頁(yè)排名相結(jié)合,包含超圖構(gòu)建、超圖卷積網(wǎng)絡(luò)、個(gè)性化網(wǎng)頁(yè)排名機(jī)制等內(nèi)容。

        1.1 超圖構(gòu)建

        超圖學(xué)習(xí)是一個(gè)很寬泛的概念,其中最基礎(chǔ)的是超圖構(gòu)造。通常情況下,超圖被定義為G=(V,E,W)。其中:節(jié)點(diǎn)集為V,包含了超圖上所有的頂點(diǎn);超邊集為E,包含由任意個(gè)關(guān)聯(lián)頂點(diǎn)構(gòu)成的邊;W 則是由每條超邊的權(quán)重構(gòu)成的權(quán)重集,是由超邊權(quán)重構(gòu)成的對(duì)角矩陣;而超圖的關(guān)聯(lián)矩陣H 可以由|V|×|E|來(lái)表示;對(duì)于任何一個(gè)屬于V 的節(jié)點(diǎn)v 而言,節(jié)點(diǎn)的度被定義為d(v)=h(v,e);對(duì)于一個(gè)屬于E 的超邊e而言,邊的度被定義為δ(e)=;那么很顯然,De和Dv表示超邊度和節(jié)點(diǎn)度的對(duì)角線矩陣。

        普通圖描述的是邊和成對(duì)節(jié)點(diǎn)之間的關(guān)系,超圖的關(guān)聯(lián)矩陣描述的是超邊與節(jié)點(diǎn)之間的關(guān)系。特殊情況下,當(dāng)超圖中所有的超邊包含的節(jié)點(diǎn)個(gè)數(shù)都為K 個(gè)時(shí),稱該超圖為K 均勻超圖。還應(yīng)當(dāng)注意的點(diǎn)是,在超圖構(gòu)建的過(guò)程中,即使超邊所包含的點(diǎn)個(gè)數(shù)是相同的,超邊的類型也會(huì)因?yàn)樗?jié)點(diǎn)類型的不同而不同,從這里也能看出超圖適用于處理多模態(tài)數(shù)據(jù)。

        1.2 超圖卷積網(wǎng)絡(luò)

        超圖卷積網(wǎng)絡(luò)(HGNN)是在構(gòu)建超圖的基礎(chǔ)上捕捉節(jié)點(diǎn)之間的高階關(guān)系,是由傳統(tǒng)圖卷積網(wǎng)絡(luò)發(fā)展而來(lái)的。

        首先回顧下普通圖的卷積網(wǎng)絡(luò)(GCN),傳統(tǒng)的GCN網(wǎng)絡(luò)如式(1)所示:

        對(duì)于超圖卷積網(wǎng)絡(luò)而言,輸入網(wǎng)絡(luò)數(shù)據(jù)集通常分為訓(xùn)練數(shù)據(jù)集和測(cè)試數(shù)據(jù)集。在輸入網(wǎng)絡(luò)時(shí),與傳統(tǒng)圖相同的地方是都使用了最初始的數(shù)據(jù)特征,不同的地方在于關(guān)聯(lián)矩陣的形成。超圖利用多模態(tài)數(shù)據(jù)集的復(fù)雜相關(guān)性構(gòu)造了很多超邊緣結(jié)構(gòu)群,通過(guò)超邊生成的方式(hyperedge generation)將其連接起來(lái),進(jìn)而生成鄰接矩陣H,然后將新生成的鄰接矩陣與節(jié)點(diǎn)特征輸入超圖神經(jīng)網(wǎng)絡(luò),得到最后的標(biāo)簽特征。由此可知,一個(gè)超邊卷積層的公式為:

        式中:X(l+1)代表第l+1 層節(jié)點(diǎn)的特征;σ 代表非線性激活函數(shù)。超圖神經(jīng)網(wǎng)絡(luò)基于超圖上的譜卷積,在式(2)中實(shí)現(xiàn)了節(jié)點(diǎn)—邊—節(jié)點(diǎn)特征的轉(zhuǎn)換,利用超邊特征聚合和鄰居節(jié)點(diǎn)特征融合,捕捉節(jié)點(diǎn)數(shù)據(jù)之間的高階相關(guān)性。其中,濾波器矩陣θ(l)與初始的節(jié)點(diǎn)特征X(l)相乘進(jìn)行濾波處理,改變特征的維度;然后根據(jù)超邊的特性,將節(jié)點(diǎn)特征匯聚成超邊特征,這一步驟通過(guò)與的乘法實(shí)現(xiàn);然后以乘以關(guān)聯(lián)矩陣He的方式,將與根節(jié)點(diǎn)相關(guān)的超邊特征重新匯聚成節(jié)點(diǎn)特征,Dv和De起到歸一化的作用;最后通過(guò)非線性激活輸出最終結(jié)果。

        在超圖神經(jīng)網(wǎng)絡(luò)中,超圖構(gòu)造首先要考慮超邊的構(gòu)建,如圖1 所示,網(wǎng)絡(luò)模型根據(jù)節(jié)點(diǎn)之間的距離來(lái)構(gòu)造關(guān)聯(lián)矩陣,進(jìn)而形成超邊。普通圖中,邊只考慮兩點(diǎn)之間的聯(lián)系,而超邊衡量了多個(gè)節(jié)點(diǎn)之間的關(guān)系。

        圖1 超邊生成Fig.1 Hyperedge generation

        1.3 網(wǎng)頁(yè)排名機(jī)制PageRank

        PageRank 來(lái)源于網(wǎng)頁(yè)鏈接之間的隨機(jī)游走機(jī)制,使用戶可以點(diǎn)擊鏈接跳轉(zhuǎn)到新的頁(yè)面,不至于一直在本網(wǎng)頁(yè)停留,也不至于鏈接不到新的網(wǎng)頁(yè),使用戶可以一直瀏覽自己所感興趣的網(wǎng)頁(yè)內(nèi)容,類似于學(xué)習(xí)到了用戶的興趣范圍,其傳播機(jī)制如圖2 所示。

        圖2 PageRank 傳播機(jī)制Fig.2 Propagation mechanism of PageRank

        由圖2 可知,對(duì)于根節(jié)點(diǎn)x1來(lái)說(shuō),信息的傳播在相連的節(jié)點(diǎn)之間進(jìn)行,從一個(gè)頂點(diǎn)到下一個(gè)頂點(diǎn)游走的過(guò)程中,有α 的概率回歸它本身,有1-α 的概率傳遞給x2、x3、x4,同時(shí)下一次傳遞時(shí),這3 個(gè)頂點(diǎn)也是有α 的概率傳回x1。這個(gè)傳播過(guò)程是以x1為重心的,即以它作為本次傳播的根節(jié)點(diǎn),最終學(xué)習(xí)到的信息為該節(jié)點(diǎn)的信息表示。

        如前文提到的,可以利用網(wǎng)頁(yè)排名機(jī)制PageRank來(lái)避免根節(jié)點(diǎn)信息的丟失。為了更方便快速地實(shí)現(xiàn)本模型的設(shè)計(jì)目的,引入一個(gè)PageRank 的變體,即將根節(jié)點(diǎn)考慮在內(nèi)的個(gè)性化PageRank。與普通的網(wǎng)頁(yè)排名機(jī)制不同,個(gè)性化PageRank 是針對(duì)個(gè)人而言的PageRank,每次重新游走的時(shí)候,都是從根節(jié)點(diǎn)用戶節(jié)點(diǎn)u 開始,在學(xué)習(xí)節(jié)點(diǎn)u 的信息時(shí),該節(jié)點(diǎn)初始化為1,其他節(jié)點(diǎn)初始化為0。

        個(gè)性化PageRank 的進(jìn)階公式為:

        式中:ix為根結(jié)點(diǎn)特征向量;為加上歸一化以及自循環(huán)的鄰接矩陣;πppr(ix)為傳播之后的特征;α 為傳播概率。在這里,先將網(wǎng)頁(yè)排名機(jī)制與圖網(wǎng)絡(luò)的傳播過(guò)程聯(lián)合在一起,得到的公式為:

        式中:X 為特征矩陣;fθ(x)為參數(shù)為θ 的對(duì)數(shù)據(jù)特征進(jìn)行預(yù)處理的神經(jīng)網(wǎng)絡(luò)。由式(5)可知,對(duì)節(jié)點(diǎn)標(biāo)簽進(jìn)行預(yù)測(cè)的神經(jīng)網(wǎng)絡(luò)與傳播機(jī)制是分割開來(lái)的,神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)以及層數(shù)深度是獨(dú)立于傳播算法存在的。由此可以靈活地改變模型中神經(jīng)網(wǎng)絡(luò)的模型,可以用任意的傳播矩陣來(lái)替換式(5)的。本文對(duì)式(5)使用了簡(jiǎn)便的形式以降低模型的計(jì)算復(fù)雜度。此外HGNNP模型訓(xùn)練是端到端的。

        1.4 基于PageRank 算法的超圖神經(jīng)網(wǎng)絡(luò)

        HGNNP 模型如圖3 所示。

        圖3 HGNNP 模型示意圖Fig.3 Schematic diagram of HGNNP model

        由圖3 可知,初始數(shù)據(jù)經(jīng)過(guò)超邊聚集(hyperedge generation)生成超圖的關(guān)聯(lián)矩陣H,該關(guān)聯(lián)矩陣描述的是超邊與它包含的多個(gè)節(jié)點(diǎn)之間的連接信息,通過(guò)該方法生成了不同于傳統(tǒng)圖的“連接信息”。神經(jīng)網(wǎng)絡(luò)的輸入不僅需要連接信息,還需要節(jié)點(diǎn)的屬性信息。因此,將生成的關(guān)聯(lián)矩陣H 與原始的節(jié)點(diǎn)特征共同輸入超圖神經(jīng)網(wǎng)絡(luò)。該網(wǎng)絡(luò)的作用就是利用超圖以及超邊的特性來(lái)對(duì)原始的節(jié)點(diǎn)特征進(jìn)行重新表示學(xué)習(xí)。

        具體步驟為輸入的節(jié)點(diǎn)特征利用關(guān)聯(lián)矩陣中超邊與節(jié)點(diǎn)的關(guān)聯(lián)信息,依據(jù)超圖神經(jīng)網(wǎng)絡(luò)的網(wǎng)絡(luò)模型(hypergraph neural networks),經(jīng)過(guò)一層點(diǎn)—邊—點(diǎn)的特征變化過(guò)程,不斷迭代更新以得到最終的學(xué)習(xí)表示,其中“邊”指的是超邊特征。節(jié)點(diǎn)特征經(jīng)過(guò)節(jié)點(diǎn)特征轉(zhuǎn)換、超邊特征聚合、節(jié)點(diǎn)特征聚合過(guò)程得到新的節(jié)點(diǎn)學(xué)習(xí)表示,再經(jīng)過(guò)非線性激活函數(shù),最終得到初始嵌入節(jié)點(diǎn)特征hi。在初始嵌入節(jié)點(diǎn)特征基礎(chǔ)之上,使用個(gè)性化PageRank 機(jī)制進(jìn)行信息傳播,吸收周圍鄰居節(jié)點(diǎn)的信息;同時(shí)以一定的概率回到根節(jié)點(diǎn)本身,每經(jīng)歷一層的信息傳播之后,再進(jìn)入超圖神經(jīng)網(wǎng)絡(luò)進(jìn)行下一次特征學(xué)習(xí),直到得到最終學(xué)習(xí)表示。

        具體來(lái)講,處理之后的節(jié)點(diǎn)特征結(jié)合PageRank進(jìn)行信息傳播,該傳播機(jī)制使得節(jié)點(diǎn)信息有α 的概率傳回本身,有1-α 的概率再次進(jìn)入超圖神經(jīng)網(wǎng)絡(luò)中,正是這個(gè)概率保證了一定程度上可以再次匯聚根節(jié)點(diǎn)本身的信息,防止在吸收周圍的鄰居節(jié)點(diǎn)信息時(shí)學(xué)習(xí)范圍過(guò)廣或?qū)訑?shù)過(guò)深使得根節(jié)點(diǎn)的信息被丟失掉。因此,使得模型能夠在有效吸收周圍鄰居節(jié)點(diǎn)信息的同時(shí),一定程度上保留根節(jié)點(diǎn)的信息。

        上述過(guò)程有效地防止了模型層數(shù)過(guò)深時(shí)過(guò)擬合、節(jié)點(diǎn)學(xué)習(xí)表示趨近于穩(wěn)定值和模型泛化能力弱的情況。具體表現(xiàn)為,當(dāng)學(xué)習(xí)層數(shù)過(guò)深時(shí),節(jié)點(diǎn)的學(xué)習(xí)表示會(huì)趨向該圖的極限分布,節(jié)點(diǎn)表示不再取決于根節(jié)點(diǎn)和其周圍的鄰居信息,而取決于整個(gè)圖本身,而模型使用的網(wǎng)頁(yè)排名機(jī)制解決了這個(gè)問(wèn)題。

        本文模型結(jié)合超圖神經(jīng)網(wǎng)絡(luò)和網(wǎng)頁(yè)排名機(jī)制,得到HGNNP 的整體公式:

        式中:X(l+1)為下一層的節(jié)點(diǎn)特征;α 為傳播概率;Dv和De為節(jié)點(diǎn)和超邊的度矩陣,起到了歸一化的作用;X(0)不是初始的節(jié)點(diǎn)特征,而是經(jīng)過(guò)超圖神經(jīng)網(wǎng)絡(luò)預(yù)處理之后的節(jié)點(diǎn)特征hi;其余字符含義不變。

        對(duì)比超圖神經(jīng)網(wǎng)絡(luò),HGNNP 每一次傳播不是直接傳播到相鄰節(jié)點(diǎn),而是有α 的概率回歸到本身,本質(zhì)上傳播機(jī)制發(fā)生了改變。對(duì)比PageRank 算法和傳統(tǒng)圖網(wǎng)絡(luò)結(jié)合的方法,神經(jīng)網(wǎng)絡(luò)模型引入了超圖和超邊的概念,根本區(qū)別是卷積網(wǎng)絡(luò)中的連接信息發(fā)生改變,多個(gè)節(jié)點(diǎn)相連的超邊的存在使得節(jié)點(diǎn)表示學(xué)習(xí)中節(jié)點(diǎn)信息學(xué)習(xí)得更為全面準(zhǔn)確。

        綜上所述,HGNNP 將超圖神經(jīng)網(wǎng)絡(luò)與PageRank算法相結(jié)合,不僅解決了傳統(tǒng)圖學(xué)習(xí)算法無(wú)法處理的高階數(shù)據(jù)相關(guān)性的問(wèn)題,而且可以利用特定的傳播機(jī)制加深模型的網(wǎng)絡(luò)層數(shù),以使網(wǎng)絡(luò)模型更全面更準(zhǔn)確地學(xué)習(xí)節(jié)點(diǎn)的信息,在處理分類問(wèn)題和預(yù)測(cè)問(wèn)題時(shí),實(shí)驗(yàn)效果會(huì)更好。

        2 實(shí)驗(yàn)和結(jié)果

        2.1 數(shù)據(jù)集和實(shí)驗(yàn)設(shè)置

        為了驗(yàn)證本文所提出的HGNNP 模型,實(shí)驗(yàn)利用了2 個(gè)視覺(jué)對(duì)象分類的數(shù)據(jù)集,包括普林斯頓大學(xué)的ModelNet40 數(shù)據(jù)集以及臺(tái)灣大學(xué)的NTU 3D 模型數(shù)據(jù)集。表1 為2 個(gè)數(shù)據(jù)集的節(jié)點(diǎn)種類個(gè)數(shù)、訓(xùn)練和測(cè)試的節(jié)點(diǎn)個(gè)數(shù)以及總共的節(jié)點(diǎn)個(gè)數(shù)。需要注意的是,ModelNet40 數(shù)據(jù)集由來(lái)自40 個(gè)流行類別的12 311 個(gè)對(duì)象組成,并應(yīng)用了相同的訓(xùn)練/測(cè)試分割。其中,9 843 個(gè)物體用于訓(xùn)練,2 468 個(gè)物體用于測(cè)試。NTU數(shù)據(jù)集由來(lái)自67 個(gè)類別的2 012 個(gè)3D 形狀組成,包括汽車、椅子、國(guó)際象棋、芯片、時(shí)鐘、杯子、門、框架、筆、植物葉等。在NTU 數(shù)據(jù)集中,80%的數(shù)據(jù)用于訓(xùn)練,其他20%的數(shù)據(jù)用于測(cè)試。本實(shí)驗(yàn)采用2 種提取特征的方法MVCNN(用于3D 形狀識(shí)別的多視圖卷積神經(jīng)網(wǎng)絡(luò))和GVCNN(用于3D 形狀識(shí)別的群視圖卷積神經(jīng)網(wǎng)絡(luò))在該三維模型數(shù)據(jù)集上提取特征,這2種方法在三維對(duì)象表示上有著非常好的性能表現(xiàn)。

        表1 ModelNet40 和NTU 數(shù)據(jù)集的詳細(xì)信息Tab.1 Detailed information of ModelNet40 and NTU datasets

        為了與傳統(tǒng)圖神經(jīng)網(wǎng)絡(luò)做對(duì)比,利用節(jié)點(diǎn)之間的距離來(lái)構(gòu)建圖結(jié)構(gòu)。在構(gòu)造超圖步驟時(shí)使用2 種方法:一種是依據(jù)KNN(K 最鄰近分類算法)思想選取10個(gè)離根節(jié)點(diǎn)最近的點(diǎn)構(gòu)成超邊,進(jìn)而構(gòu)建超圖;另外一種是在數(shù)據(jù)特征呈現(xiàn)多模態(tài)時(shí),構(gòu)建超圖關(guān)聯(lián)矩陣,并將多個(gè)不同屬性特征的關(guān)聯(lián)矩陣拼接在一起,構(gòu)成多模態(tài)特征的超圖。

        在上述2 個(gè)數(shù)據(jù)集完成半監(jiān)督分類實(shí)驗(yàn)的基礎(chǔ)之上,對(duì)傳播概率α 和傳播層數(shù)N 進(jìn)行控制變量和消融實(shí)驗(yàn),以更直觀地判斷出2 個(gè)超參數(shù)對(duì)模型效果的影響。

        2.2 半監(jiān)督分類

        在ModelNet40 和NTU 數(shù)據(jù)集上分別實(shí)現(xiàn)半監(jiān)督分類實(shí)驗(yàn),評(píng)價(jià)標(biāo)準(zhǔn)主要是分類的準(zhǔn)確率。其中,每一個(gè)數(shù)據(jù)集在提取特征時(shí)都使用MVCNN 和GVCNN 這2 種方法,這2 種方法皆可用于構(gòu)建超圖或者提取特征。實(shí)驗(yàn)針對(duì)不同條件進(jìn)行分類討論,將2 種卷積方法分別用于構(gòu)建超圖以及提取特征。

        用直方圖直觀地表明本文模型效果的提升,如圖4 所示,并對(duì)比不同參數(shù)條件下2 個(gè)數(shù)據(jù)集的實(shí)驗(yàn)效果。如不做特殊說(shuō)明,G+M 表示GVCNN 和MVCNN相結(jié)合;G+M_G 表示在構(gòu)造超圖時(shí)使用GVCNN 和MVCNN 提取的特征,在訓(xùn)練網(wǎng)絡(luò)時(shí)使用GVCNN 提取的特征這一實(shí)驗(yàn)情況,其他的類比即可。

        圖4 不同參數(shù)條件下2 個(gè)數(shù)據(jù)集上的分類結(jié)果比較Fig.4 Comparison of classification results on two data sets with different parameters

        由圖4 可知,在NTU 數(shù)據(jù)集上,與其他模型相比,HGNNP 多數(shù)實(shí)驗(yàn)條件下分類效果是最好的,提升的程度比較大,最高準(zhǔn)確率達(dá)到85.79%,與HGNN 相比,提高了8.59%;在ModelNet40 數(shù)據(jù)集上,與其他模型相比,HGNNP 模型性能較好,最高準(zhǔn)確率達(dá)到了93.07%,但由于ModelNet40 與NTU 數(shù)據(jù)集相比數(shù)據(jù)樣本偏少,HGNNP 模型的提升效果不明顯,與HGNN 相比,提高了0.47%。綜上所述,與HGNN 相比,HGNNP在多數(shù)情況下提升效果顯著,由此驗(yàn)證了本文模型的有效性和穩(wěn)定性。個(gè)別情況效果比較差,原因是實(shí)驗(yàn)條件中用于構(gòu)建超圖的特征和用于學(xué)習(xí)的特征之間存在差異,深度網(wǎng)絡(luò)使差異明顯化,因此,在準(zhǔn)確率上會(huì)有一定的誤差。

        2.3 參數(shù)分析

        為分析傳播概率α 對(duì)于模型的影響,本文將所有情況下針對(duì)α 在[0.01,0.2]區(qū)間內(nèi)的分類結(jié)果進(jìn)行展示,如圖5 所示,以探求α 取何值時(shí)模型效果取得最優(yōu)。

        圖5 HGNNP 在ModelNet40 數(shù)據(jù)集上隨α 的變化Fig.5 Changes of HGNNP with α in ModelNet40 dataset

        由圖5 可以看出,在ModelNet40 數(shù)據(jù)集上HGNNP隨α 的變化趨勢(shì)。一開始在0.1 處準(zhǔn)確率比較低,也就是說(shuō)當(dāng)接近以往的傳播機(jī)制,沒(méi)有概率傳回根節(jié)點(diǎn)本身時(shí),準(zhǔn)確率會(huì)比較低;在0.1~0.15 之間,準(zhǔn)確率達(dá)到最高,說(shuō)明在這一范圍內(nèi)調(diào)節(jié)α 可以得到最優(yōu)模型。這也驗(yàn)證了對(duì)根節(jié)點(diǎn)信息進(jìn)行一定的保留比直接傳播學(xué)習(xí)的信息更全面準(zhǔn)確。在NTU 數(shù)據(jù)集上也可以發(fā)現(xiàn)類似的規(guī)律,本文不再贅述。傳播概率α 對(duì)HGNNP模型效果影響顯著,傳播層數(shù)N 在模型中也是重要的影響參數(shù)。HGNNP 在Model-Net40 數(shù)據(jù)集上的分類效果隨N 的變化如圖6 所示。

        圖6 HGNNP 在ModelNet40 數(shù)據(jù)集上隨N 的變化Fig.6 Changes of HGNNP with N in ModelNet40 dataset

        由圖6 可知,傳統(tǒng)的卷積神經(jīng)網(wǎng)絡(luò)在層數(shù)過(guò)深時(shí)會(huì)出現(xiàn)過(guò)擬合的現(xiàn)象,而本文模型在層數(shù)過(guò)深時(shí)依然可以保持穩(wěn)定的分類準(zhǔn)確率,并且隨著層數(shù)的加深,存在一個(gè)臨界值使得模型分類效果最優(yōu)。本文模型在傳播層數(shù)較少時(shí)準(zhǔn)確率較低,傳播層數(shù)接近1 時(shí)模型上近似于傳統(tǒng)的神經(jīng)網(wǎng)絡(luò);隨著傳播層數(shù)的加深,分類準(zhǔn)確率逐漸上升,在傳播層數(shù)為2~5 之間時(shí)逐漸達(dá)到最大值;之后會(huì)逐漸地下降。同等意義上,對(duì)于本文模型來(lái)說(shuō),使用網(wǎng)頁(yè)排名的傳播機(jī)制傳播5 層左右,可以使HGNNP 達(dá)到最優(yōu)。

        更為重要的是,當(dāng)傳播層數(shù)逐漸加深到一定程度時(shí),HGNNP 表現(xiàn)趨于穩(wěn)定,不再出現(xiàn)大幅度的變化,甚至當(dāng)接近無(wú)限的網(wǎng)絡(luò)層數(shù)后,模型表現(xiàn)依然不會(huì)出現(xiàn)很大的變化,不會(huì)因?yàn)檫^(guò)平滑的問(wèn)題而分類錯(cuò)誤,這正對(duì)應(yīng)了前文提到的要解決的挑戰(zhàn)和問(wèn)題,驗(yàn)證了本文模型相比傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的優(yōu)越性。

        3 結(jié)論

        本文針對(duì)傳統(tǒng)超圖神經(jīng)網(wǎng)絡(luò)卷積過(guò)程中層數(shù)過(guò)深過(guò)擬合以及傳播范圍小的問(wèn)題,提出了一種基于PageRank 傳播機(jī)制的深度超圖神經(jīng)網(wǎng)絡(luò)HGNNP。實(shí)驗(yàn)結(jié)果表明:與傳統(tǒng)的深度圖神經(jīng)網(wǎng)絡(luò)相比,HGNNP在各種學(xué)習(xí)任務(wù)中都可以取得較好的性能。其中在ModelNet40 數(shù)據(jù)集上,最高準(zhǔn)確率達(dá)到了93.07%,相比HGNN 提高了0.47%;在NTU 數(shù)據(jù)集上,最高準(zhǔn)確率達(dá)到了85.79%,相比HGNN 提高了8.59%。

        猜你喜歡
        特征信息模型
        一半模型
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
        如何表達(dá)“特征”
        不忠誠(chéng)的四個(gè)特征
        抓住特征巧觀察
        訂閱信息
        中華手工(2017年2期)2017-06-06 23:00:31
        3D打印中的模型分割與打包
        展會(huì)信息
        線性代數(shù)的應(yīng)用特征
        河南科技(2014年23期)2014-02-27 14:19:15
        亚洲一区二区三区中文字幕网| 色欲AV成人无码精品无码| 美腿丝袜一区二区三区| 日本视频在线观看一区二区| av国产传媒精品免费| 曰本女人与公拘交酡免费视频| 99国产综合精品-久久久久| 日本妇女高清一区二区三区| 观看在线人视频| 长腿校花无力呻吟娇喘的视频| 国产精品国产午夜免费福利看| 久久老熟女一区二区三区| 中文字幕人乱码中文字幕| 欧美日韩亚洲国内综合网 | 国产一区二区在线观看我不卡| 亚洲一区二区三区偷拍视频| 亚洲中文字幕无码av| 大香视频伊人精品75| 亚洲国产精品一区亚洲国产| 国产一区二区三区三区四区精品| 极品新婚夜少妇真紧| 国产精品99精品一区二区三区∴| 日本一区二区三区激视频| 久久精品国产亚洲av久| 97久久超碰国产精品2021| 少妇av免费在线播放| 富婆猛男一区二区三区| 中文字字幕在线精品乱码| 国产在线精品福利大全| 国产日产亚洲系列首页| 乱子伦在线观看| 国产一级片毛片| 精品中文字幕精品中文字幕| 亚洲人成网网址在线看| 99爱这里只有精品| 国产网红一区二区三区| 久久国产成人精品av| 少妇熟女视频一区二区三区| 另类人妖在线观看一区二区| 久久熟妇少妇亚洲精品| 亚洲欧洲无码一区二区三区|