亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        融合節(jié)點(diǎn)描述屬性信息的網(wǎng)絡(luò)表示學(xué)習(xí)算法

        2019-08-01 01:54:12劉正銘馬宏劉樹新李海濤常圣
        計(jì)算機(jī)應(yīng)用 2019年4期
        關(guān)鍵詞:信息融合復(fù)雜網(wǎng)絡(luò)深度學(xué)習(xí)

        劉正銘 馬宏 劉樹新 李海濤 常圣

        摘 要:為融合節(jié)點(diǎn)描述信息提升網(wǎng)絡(luò)表示學(xué)習(xí)質(zhì)量,針對社會網(wǎng)絡(luò)中節(jié)點(diǎn)描述屬性信息存在的語義信息分散和不完備性問題,提出一種融合節(jié)點(diǎn)描述屬性的網(wǎng)絡(luò)表示(NPA-NRL)學(xué)習(xí)算法。首先,對屬性信息進(jìn)行獨(dú)熱編碼,并引入隨機(jī)擾動的數(shù)據(jù)集增強(qiáng)策略解決屬性信息不完備問題;然后,將屬性編碼和結(jié)構(gòu)編碼拼接作為深度神經(jīng)網(wǎng)絡(luò)輸入,實(shí)現(xiàn)兩方面信息的相互補(bǔ)充制約;最后,設(shè)計(jì)了基于網(wǎng)絡(luò)同質(zhì)性的屬性相似性度量函數(shù)和基于SkipGram模型的結(jié)構(gòu)相似性度量函數(shù),通過聯(lián)合訓(xùn)練實(shí)現(xiàn)融合語義信息挖掘。在GPLUS、OKLAHOMA和UNC三個(gè)真實(shí)網(wǎng)絡(luò)數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果表明,和經(jīng)典的DeepWalk、TADW(Text-Associated DeepWalk)、UPP-SNE(User Profile Preserving Social Network Embedding)和SNE(Social Network Embedding)算法相比,NPA-NRL算法的鏈路預(yù)測AUC(Area Under Curve of ROC)值平均提升2.75%,節(jié)點(diǎn)分類F1值平均提升7.10%。

        關(guān)鍵詞:?節(jié)點(diǎn)描述屬性信息;信息融合;網(wǎng)絡(luò)表示學(xué)習(xí);深度學(xué)習(xí);復(fù)雜網(wǎng)絡(luò)

        中圖分類號:TP391.4

        文獻(xiàn)標(biāo)志碼:A

        文章編號:1001-9081(2019)04-1012-09

        Abstract: In order to enhance the network representation learning quality with node profile information, and focus on the problems of semantic information dispersion and incompleteness of node profile attribute information in social network,

        a network representation learning algorithm incorporated with node profile information was proposed, namely NPA-NRL. Firstly, attribute information were encoded by one-hot encoding, and a data augmentation method of random perturbation was introduced to overcome the incompleteness of node profile attribute information. Then, attribute coding and structure coding were combined as the input of deep neural network to realize mutual complementation of the two types of information. Finally, an attribute similarity measure function based on network homogeneity and a structural similarity measure function based on SkipGram model were designed to mine fused semantic information through joint training. The experimental results on three real network datasets including GPLUS, OKLAHOMA and UNC demonstrate that, compared with the classic DeepWalk, Text-Associated DeepWalk (TADW), User Profile Preserving Social Network Embedding (UPP-SNE) and Social Network Embedding (SNE) algorithms, the proposed NPA-NRL algorithm has a 2.75% improvement in average Area Under Curve of ROC (AUC) value on link prediction task, and a 7.10% improvement in average F1 value on node classification task.

        Key words: node profile attribute information; information fusion; network representation learning; deep learning; complex network

        0?引言

        隨著互聯(lián)網(wǎng)技術(shù)的不斷發(fā)展演化,諸如Facebook、Twitter、微信和微博等社交網(wǎng)絡(luò)應(yīng)用迅猛發(fā)展,社會網(wǎng)絡(luò)數(shù)據(jù)逐漸呈現(xiàn)出規(guī)模復(fù)雜非線性和類型多樣性等特點(diǎn)[1],給基于特征工程抽取節(jié)點(diǎn)特征的網(wǎng)絡(luò)分析技術(shù)帶來嚴(yán)峻挑戰(zhàn)。

        近年來,受表示學(xué)習(xí)方法啟發(fā),大量學(xué)者提出針對網(wǎng)絡(luò)分析任務(wù)的網(wǎng)絡(luò)表示學(xué)習(xí)算法,旨在利用機(jī)器學(xué)習(xí)算法實(shí)現(xiàn)網(wǎng)絡(luò)節(jié)點(diǎn)的自動特征抽取,進(jìn)而快速高效地應(yīng)用于后續(xù)網(wǎng)絡(luò)分析任務(wù),如節(jié)點(diǎn)分類[2-4]和鏈路預(yù)測[4-6]等。

        然而,大部分算法僅考慮網(wǎng)絡(luò)結(jié)構(gòu)信息進(jìn)行表示學(xué)習(xí)[2-6],忽略了現(xiàn)實(shí)世界中網(wǎng)絡(luò)節(jié)點(diǎn)包含的豐富節(jié)點(diǎn)描述屬性信息,如性別、住址和畢業(yè)院校等。從社會心理學(xué)角度來看,節(jié)點(diǎn)之間的屬性相似性對連邊關(guān)系的形成具有重要影響[7],因而整個(gè)網(wǎng)絡(luò)呈現(xiàn)出同質(zhì)性的特點(diǎn),即具有連邊關(guān)系的節(jié)點(diǎn)通常具有相似的屬性信息[8-9]。為驗(yàn)證上述觀點(diǎn),本文基于俄克拉何馬州大學(xué)(University of Oklahoma, OKLAHOMA)和北卡羅來納大學(xué)教堂山分校(University of North Carolina at Chapel Hill, UNC)兩個(gè)真實(shí)Facebook高校網(wǎng)絡(luò)數(shù)據(jù)集[10]進(jìn)行統(tǒng)計(jì)分析。如圖1所示,本文分析了具有連邊關(guān)系的節(jié)點(diǎn)對中具有相同描述屬性值的占比情況。從統(tǒng)計(jì)結(jié)果可看出,具有連邊關(guān)系的節(jié)點(diǎn)對中具有相同描述屬性信息的節(jié)點(diǎn)對平均占比37%,在部分描述屬性信息上甚至超過90%(如圖1中的節(jié)點(diǎn)狀態(tài)標(biāo)記屬性)。該現(xiàn)象再次印證了結(jié)合節(jié)點(diǎn)描述屬性信息進(jìn)行網(wǎng)絡(luò)表示學(xué)習(xí)的重要意義。

        值得注意的是,已有一些算法考慮利用節(jié)點(diǎn)文本內(nèi)容屬性信息進(jìn)行表示學(xué)習(xí)[11-13],如科學(xué)引文網(wǎng)絡(luò)中節(jié)點(diǎn)的文本特征。然而,這類方法并不能有效利用社會網(wǎng)絡(luò)中節(jié)點(diǎn)的描述屬性信息。主要原因有以下兩點(diǎn):一是節(jié)點(diǎn)文本內(nèi)容屬性信息通常具有話題中心性,圍繞某個(gè)中心內(nèi)容而展開。如引文網(wǎng)絡(luò)中的文章摘要、社交網(wǎng)絡(luò)中的評論內(nèi)容等。相比之下,節(jié)點(diǎn)描述屬性信息包含多種不同類型的節(jié)點(diǎn)屬性表示,語義信息相對分散。二是社會網(wǎng)絡(luò)中的用戶需要手動增加描述屬性信息,出于用戶個(gè)人保密以及平臺隱私保護(hù)等原因?qū)е虏杉降挠脩裘枋鰧傩孕畔⒋嬖诓煌潭热笔Вㄔ贔acebook數(shù)據(jù)集[10]上的統(tǒng)計(jì)分析發(fā)現(xiàn),屬性信息平均缺失比例接近20%,單一屬性信息缺失最高達(dá)到50%),描述屬性信息的不完備性導(dǎo)致信息部分丟失,融合難度較大。

        針對上述問題,本文提出了一種融合節(jié)點(diǎn)描述屬性信息的網(wǎng)絡(luò)表示(Network Representation Learning with Node Profile Attributes, NPA-NRL)學(xué)習(xí)算法。

        首先,在數(shù)據(jù)編碼階段引入基于隨機(jī)擾動的數(shù)據(jù)集增強(qiáng)策略迫使模型學(xué)習(xí)更加魯棒的表示向量,解決屬性信息不完備問題。

        其次,采用將結(jié)構(gòu)編碼和屬性編碼拼接作為神經(jīng)網(wǎng)絡(luò)輸入的優(yōu)先融合策略,實(shí)現(xiàn)訓(xùn)練過程中兩方面信息的相互補(bǔ)充與制約;同時(shí),利用深度前饋神經(jīng)網(wǎng)絡(luò)的深度特征抽取能力,獲得更加精準(zhǔn)的特征表示。

        最后,分別設(shè)計(jì)了基于結(jié)構(gòu)相似性和屬性相似性保留的優(yōu)化損失函數(shù),通過聯(lián)合訓(xùn)練,實(shí)現(xiàn)兩方面信息的融合表示學(xué)習(xí),充分挖掘語義信息。通過在多個(gè)公開數(shù)據(jù)集上的鏈路預(yù)測和節(jié)點(diǎn)分類實(shí)驗(yàn),驗(yàn)證了本文算法的有效性。

        1?相關(guān)工作

        DeepWalk算法[2]首次提出了隨機(jī)游走思想:首先在基于網(wǎng)絡(luò)結(jié)構(gòu)的采樣中得到隨機(jī)游走序列,然后將其作為自然語言處理中SkipGram詞向量模型[14]的輸入來建模網(wǎng)絡(luò)結(jié)構(gòu)信息,最終得到節(jié)點(diǎn)表示向量。在此基礎(chǔ)上,UPP-SNE(User Profile Preserving Social Network Embedding)算法[15]提出了融合節(jié)點(diǎn)描述屬性信息進(jìn)行表示學(xué)習(xí)的思路:首先通過K核映射[16]對節(jié)點(diǎn)描述屬性信息進(jìn)行非線性映射得到表示向量 f(v),然后利用DeepWalk框架將網(wǎng)絡(luò)結(jié)構(gòu)信息編碼到f(v)中,實(shí)現(xiàn)結(jié)構(gòu)和屬性信息的相互約束補(bǔ)充。溫雯等[17]提出了GeVI(Graph embedding by incorporating prior knowledge on Vertices Information)算法,通過重定義SkipGram模型中條件概率分布為已知節(jié)點(diǎn)屬性特征向量和節(jié)點(diǎn)表示向量的內(nèi)積,實(shí)現(xiàn)兩方面信息的融合表示。

        文獻(xiàn)[18]將基于矩陣分解的方法概括為同一框架:1)構(gòu)建節(jié)點(diǎn)間的關(guān)系矩陣;2)對該矩陣進(jìn)行矩陣分解操作得到節(jié)點(diǎn)表示向量。Yang等[11]提出了TADW(Text-Associated DeepWalk)算法,證明了DeepWalk算法等價(jià)于將特定關(guān)系矩陣M∈RV*V分解為W∈Rd*V和H∈Rd*V。在此基礎(chǔ)上,將節(jié)點(diǎn)文本內(nèi)容屬性信息矩陣T∈Rm*V嵌入到M的矩陣分解中,最終將W和T拼接得到節(jié)點(diǎn)的表示向量。Huang等[19]提出了AANE(Accelerated Attributed Network Embedding)算法:首先通過節(jié)點(diǎn)屬性信息構(gòu)造屬性相似性矩陣,再對其進(jìn)行矩陣分解得到節(jié)點(diǎn)的表示向量。最后,在損失函數(shù)增加了基于連接關(guān)系約束的正則項(xiàng),使得連接關(guān)系緊密的節(jié)點(diǎn)具有相近的表示向量,實(shí)現(xiàn)兩方面信息的融合學(xué)習(xí)。

        近年來,深度學(xué)習(xí)在圖像、文本和語音等領(lǐng)域取得較大進(jìn)展,這主要得益于深度神經(jīng)網(wǎng)絡(luò)對復(fù)雜非線性關(guān)系的強(qiáng)大表示能力[20]。而大規(guī)模社會網(wǎng)絡(luò)信息也具有復(fù)雜非線性的特點(diǎn),因此出現(xiàn)了大量基于深度神經(jīng)網(wǎng)絡(luò)的表示學(xué)習(xí)算法[4,13,21-22]。SDNE(Structural Deep Network Embedding)算法[4]首次將深度自編碼神經(jīng)網(wǎng)絡(luò)用于網(wǎng)絡(luò)表示學(xué)習(xí),將網(wǎng)絡(luò)節(jié)點(diǎn)間一階和二階鄰居關(guān)系分別作為自編碼神經(jīng)網(wǎng)絡(luò)的有監(jiān)督和無監(jiān)督信息進(jìn)行訓(xùn)練,有效實(shí)現(xiàn)了網(wǎng)絡(luò)節(jié)點(diǎn)間的一、二階相似性保留。DNGR(Deep Neural Networks for Graph Representations)算法[21]從保留網(wǎng)絡(luò)全局信息的角度出發(fā),提出使用隨機(jī)沖浪模型生成的PPMI(Positive Pointwise Mutual Information)矩陣作為堆疊自編碼神經(jīng)網(wǎng)絡(luò)的輸入來進(jìn)行表示學(xué)習(xí),并從理論上分析了基于矩陣分解的方法是一種線性映射關(guān)系,難以有效挖掘網(wǎng)絡(luò)的復(fù)雜非線性關(guān)系。SNE(Social Network Embedding)算法[22]考慮融合節(jié)點(diǎn)屬性信息進(jìn)行表示學(xué)習(xí),將獨(dú)熱編碼的節(jié)點(diǎn)ID(IDentifier)編碼向量和節(jié)點(diǎn)屬性信息編碼向量作為神經(jīng)網(wǎng)絡(luò)輸入,再通過多層感知機(jī)提取低維特征表示,最后以最大化原始網(wǎng)絡(luò)節(jié)點(diǎn)鄰居共現(xiàn)概率為優(yōu)化目標(biāo)訓(xùn)練得到最優(yōu)的神經(jīng)網(wǎng)絡(luò)參數(shù)。

        從表示學(xué)習(xí)模型上來看:上述基于網(wǎng)絡(luò)結(jié)構(gòu)或者融合節(jié)點(diǎn)屬性的表示方法中,其核心模型可以歸結(jié)為三類:詞向量模型、矩陣分解模型和深度神經(jīng)網(wǎng)絡(luò)模型。詞向量模型的優(yōu)勢在于訓(xùn)練過程只依賴于局部信息,便于在線處理,訓(xùn)練速度較快;然而由于詞向量模型屬于淺層模型,難以充分挖掘網(wǎng)絡(luò)復(fù)雜非線性關(guān)系。矩陣分解模型已被證明屬于線性映射過程,也不適合網(wǎng)絡(luò)復(fù)雜非線性關(guān)系挖掘[21]。相比之下,深度神經(jīng)網(wǎng)絡(luò)作為一種有效的非線性特征提取手段,其主要優(yōu)勢有以下兩點(diǎn):一是基于參數(shù)共享的正則化策略?;诰仃嚪纸夂碗S機(jī)游走的方法給每個(gè)節(jié)點(diǎn)獨(dú)立映射為一個(gè)參數(shù)向量,而神經(jīng)網(wǎng)絡(luò)共享唯一一組參數(shù),參數(shù)共享策略可以作為一種有效的正則化手段[23]。二是有效捕獲網(wǎng)絡(luò)復(fù)雜非線性關(guān)系。神經(jīng)網(wǎng)絡(luò)通過非線性激活函數(shù)可有效實(shí)現(xiàn)非線性映射。

        從信息融合方式上來看:上述融合節(jié)點(diǎn)屬性的表示方法中,除SNE算法外,均是采用先表示得到節(jié)點(diǎn)屬性信息的表示向量,再考慮結(jié)構(gòu)信息進(jìn)行優(yōu)化更新,這種先表示后融合的訓(xùn)練方式在后續(xù)實(shí)驗(yàn)中被驗(yàn)證是一種低效的融合方式,不能有效發(fā)揮節(jié)點(diǎn)結(jié)構(gòu)信息和屬性信息之間的相互補(bǔ)充與制約。相比之下,SNE算法提出的直接將兩方面信息的原始表示拼接作為輸入數(shù)據(jù)進(jìn)行訓(xùn)練的先融合后表示的策略,能夠更好實(shí)現(xiàn)兩方面信息的融合表示。

        2?結(jié)合節(jié)點(diǎn)描述屬性信息的網(wǎng)絡(luò)表示學(xué)習(xí)

        2.1?相關(guān)定義

        為更好地描述所提模型及其具體算法,首先給出相關(guān)定義及其主要符號表示如表1所示。

        2.2?模型框架

        本文的網(wǎng)絡(luò)表示學(xué)習(xí)方法應(yīng)當(dāng)滿足以下要求:一是能夠應(yīng)對節(jié)點(diǎn)描述屬性信息存在的語義信息相對分散和不完備等問題,二是能夠有效保留網(wǎng)絡(luò)結(jié)構(gòu)相似性和屬性相似性信息。針對上述要求,本文提出了NPA-NRL算法,其模型框架如圖2所示。下面分別從數(shù)據(jù)編碼、特征提取和數(shù)據(jù)解碼三個(gè)階段詳細(xì)描述。

        2.2.1?數(shù)據(jù)編碼

        為方便進(jìn)一步采用深度神經(jīng)網(wǎng)絡(luò)進(jìn)行特征提取,首先分別對節(jié)點(diǎn)網(wǎng)絡(luò)結(jié)構(gòu)信息和描述屬性信息分別進(jìn)行編碼表示。

        結(jié)構(gòu)信息編碼:對于任意網(wǎng)絡(luò)G,其鄰接矩陣S編碼了全部網(wǎng)絡(luò)結(jié)構(gòu)信息。因此,對于任意節(jié)點(diǎn)vi,將其在S中的對應(yīng)列向量si作為其結(jié)構(gòu)信息的編碼向量,包含其所有的局部鄰居結(jié)構(gòu)信息。

        屬性信息編碼:在實(shí)際網(wǎng)絡(luò)中,節(jié)點(diǎn)描述屬性信息通常是分類型數(shù)據(jù),如性別只包含{男,女}兩種情況。分類數(shù)據(jù)的主要特點(diǎn)是:數(shù)據(jù)模式較為復(fù)雜,各個(gè)屬性之間無直接聯(lián)系,屬性值有限且沒有明顯的順序和大小之分。因此,本文采用獨(dú)熱編碼將屬性分類數(shù)據(jù)編碼為二值特征向量,例如,一個(gè)性別為男性的節(jié)點(diǎn),該屬性的表示向量為[1,0]。這樣做的好處是能夠保證在編碼空間屬性值的獨(dú)立性,保證屬性值的無序性。對于任意節(jié)點(diǎn)vi,考慮到各個(gè)屬性之間的獨(dú)立性,本文將各屬性的表示向量拼接作為最終的節(jié)點(diǎn)屬性信息編碼向量ai。設(shè)aij為節(jié)點(diǎn)vi對應(yīng)屬性pij的編碼向量,表示向量拼接,則

        針對屬性信息不完備問題,傳統(tǒng)方法是利用統(tǒng)計(jì)學(xué)原理對缺失數(shù)據(jù)進(jìn)行填補(bǔ),如通過對數(shù)據(jù)集已有屬性值取眾數(shù)和平均值等手段賦予缺失屬性一個(gè)缺省值。然而這種處理方法未有效結(jié)合網(wǎng)絡(luò)結(jié)構(gòu)信息,處理結(jié)果往往加劇了數(shù)據(jù)噪聲。因此,本文設(shè)計(jì)了兩個(gè)方面的措施應(yīng)對該問題:一方面將結(jié)構(gòu)編碼和屬性編碼拼接作為神經(jīng)網(wǎng)絡(luò)輸入,實(shí)現(xiàn)結(jié)構(gòu)信息和屬性信息的相互補(bǔ)充,這部分工作將在下一節(jié)中詳細(xì)闡述;另一方面,受文獻(xiàn)[24]啟發(fā),通過隨機(jī)擾動策略實(shí)現(xiàn)數(shù)據(jù)集增強(qiáng)。

        隨機(jī)擾動策略的基本思想是:對于任意輸入數(shù)據(jù)樣本a,本文以概率ε對其添加隨機(jī)擾動,ε為擾動概率。通過隨機(jī)映射q(a)得到部分損壞的作為模型訓(xùn)練的輸入向量。為貼合節(jié)點(diǎn)描述屬性信息部分缺失的情況,本文將隨機(jī)擾動設(shè)置為隨機(jī)將部分屬性置零作為輸入向量。通過訓(xùn)練過程中數(shù)據(jù)變換,迫使神經(jīng)網(wǎng)絡(luò)挖掘更具區(qū)分性的特征表示。

        2.2.2?特征提取

        在得到節(jié)點(diǎn)結(jié)構(gòu)編碼向量和屬性編碼向量后,希望通過深度神經(jīng)網(wǎng)絡(luò)獲得更加抽象的數(shù)據(jù)特征,挖掘更加準(zhǔn)確的節(jié)點(diǎn)表示,應(yīng)對存在的屬性信息不完備問題。

        一方面,在輸入向量構(gòu)造上,采用提前融合策略促進(jìn)知識交互。如圖2所示,本文直接將節(jié)點(diǎn)結(jié)構(gòu)信息編碼向量和節(jié)點(diǎn)描述屬性信息編碼向量拼接作為深度神經(jīng)網(wǎng)絡(luò)輸入。這種提前融合策略在大量端到端的深度學(xué)習(xí)模型都取得了較好性能[12-22],能夠有效實(shí)現(xiàn)兩方面信息的相互補(bǔ)充制約。定義輸入向量xi表示如下:xi=sii(2)

        另一方面,在神經(jīng)網(wǎng)絡(luò)設(shè)計(jì)上,采用塔式結(jié)構(gòu)的深度前饋網(wǎng)絡(luò)提取數(shù)據(jù)的抽象特征表示。萬能近似定理表明,深度前饋網(wǎng)絡(luò)具有非常強(qiáng)大的數(shù)據(jù)擬合能力[25],在網(wǎng)絡(luò)數(shù)據(jù)特征抽取中也表現(xiàn)出較好性能[4,22]。因此,如圖2所示,將節(jié)點(diǎn)輸入向量xi送入深度前饋網(wǎng)絡(luò),通過逐層減少隱藏層單元數(shù)量,獲得更加抽象的節(jié)點(diǎn)特征表示。記隱層輸出向量為y(1)i、 y(2)i、…、 y(K)i,具體定義如下:

        2.2.3?數(shù)據(jù)解碼

        表示學(xué)習(xí)的目的在于有效保留原始網(wǎng)絡(luò)信息,挖掘潛在特征表示,更好地服務(wù)于后續(xù)的數(shù)據(jù)挖掘任務(wù)[20]。為充分挖掘原始網(wǎng)絡(luò)語義信息,本文算法得到的節(jié)點(diǎn)表示向量 y應(yīng)當(dāng)同時(shí)實(shí)現(xiàn)網(wǎng)絡(luò)結(jié)構(gòu)相似性保留和節(jié)點(diǎn)屬性相似性保留。因此,分別設(shè)計(jì)相應(yīng)的優(yōu)化損失函數(shù)如下:結(jié)構(gòu)相似性保留:文獻(xiàn)[6]指出,節(jié)點(diǎn)鄰居節(jié)點(diǎn)集合對于推理節(jié)點(diǎn)間的結(jié)構(gòu)相似性關(guān)系具有重要作用。因此,類似于SkipGram詞向量模型[14]中通過詞向量來預(yù)測上下文詞,可以將節(jié)點(diǎn)鄰居節(jié)點(diǎn)看作一種“上下文”,通過最大化節(jié)點(diǎn)預(yù)測其鄰居“上下文”節(jié)點(diǎn)的概率,實(shí)現(xiàn)網(wǎng)絡(luò)結(jié)構(gòu)相似性保留。定義結(jié)構(gòu)優(yōu)化損失函數(shù)Lstr如下:

        屬性相似性保留:網(wǎng)絡(luò)同質(zhì)性表明,具有連接關(guān)系的節(jié)點(diǎn)間通常具有相似的屬性信息[7-9]。因此,本文提出了基于連接關(guān)系約束的屬性相似性保留方法,使得具有連接關(guān)系的節(jié)點(diǎn)間的表示向量在表示空間距離相近,實(shí)現(xiàn)節(jié)點(diǎn)屬性信息相似性保留。定義損失函數(shù)如下:

        算法1在預(yù)處理階段:一方面通過對網(wǎng)絡(luò)邊集隨機(jī)采樣劃分訓(xùn)練集和驗(yàn)證集,訓(xùn)練集用于梯度計(jì)算及參數(shù)更新,驗(yàn)證集用于判斷模型收斂情況;

        另一方面,使用Xavier[26]初始化方法進(jìn)行神經(jīng)網(wǎng)絡(luò)隱層參數(shù)θh初始化,作為“上下文”節(jié)點(diǎn)的輔助參數(shù)使用高斯分布進(jìn)行初始化θc~N(0,1)。

        在模型訓(xùn)練階段,采用學(xué)習(xí)率自適應(yīng)的Adam優(yōu)化方法[27]計(jì)算參數(shù)更新,將動量并入梯度計(jì)算中,實(shí)現(xiàn)算法的快速收斂。

        然而,片面追求最優(yōu)解并非算法的最終目標(biāo),模型泛化能力才是關(guān)注重點(diǎn),因此,采用提前終止策略防止模型過擬合。鏈路預(yù)測任務(wù)能夠反映節(jié)點(diǎn)表示向量的網(wǎng)絡(luò)重構(gòu)能力,因此,本文中迭代停止條件設(shè)置為:驗(yàn)證集上的鏈路預(yù)測AUC指標(biāo)值小于前10次的平均值。

        2.4?算法時(shí)間復(fù)雜度分析

        NPA-NRL算法訓(xùn)練過程包括數(shù)據(jù)編碼和參數(shù)更新兩部分,下面分別進(jìn)行相應(yīng)的時(shí)間復(fù)雜度分析。

        在輸入數(shù)據(jù)編碼過程中,引入了隨機(jī)噪聲到數(shù)據(jù)編碼中,時(shí)間復(fù)雜度為O(nd),其中:n為網(wǎng)絡(luò)中的節(jié)點(diǎn)個(gè)數(shù),d為迭代次數(shù)。該過程的復(fù)雜度與輸入數(shù)據(jù)規(guī)模呈線性關(guān)系。

        綜上所述,由于r,nin(i),nout(i)n,NPA-NRL算法整體時(shí)間復(fù)雜度為O(n),與網(wǎng)絡(luò)規(guī)模呈線性關(guān)系,適合大規(guī)模數(shù)據(jù)處理中的實(shí)際應(yīng)用。

        3?實(shí)驗(yàn)與結(jié)果分析

        3.1?實(shí)驗(yàn)設(shè)定

        3.1.1?實(shí)驗(yàn)數(shù)據(jù)集

        本文在三個(gè)真實(shí)網(wǎng)絡(luò)數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn)仿真,實(shí)驗(yàn)數(shù)據(jù)集統(tǒng)計(jì)指標(biāo)如表2所示。數(shù)據(jù)集介紹如下:GPLUS(Google Plus)[28]:來自一個(gè)Google Plus用戶的自中心網(wǎng)絡(luò),節(jié)點(diǎn)表示用戶的“朋友”,連邊表示有社交聯(lián)系的用戶。包含4450個(gè)節(jié)點(diǎn)和1473709條連邊,每一個(gè)節(jié)點(diǎn)包含6個(gè)用戶描述屬性信息:性別、機(jī)構(gòu)、職業(yè)、姓氏、地區(qū)、大學(xué)。本文使用性別作為類別標(biāo)簽。

        OKLAHOMA、UNC[10]: 來自Traud等[10]以高校為單位采集的Facebook社交關(guān)系數(shù)據(jù)集中的兩個(gè)。其中OKLAHOMA包含17425個(gè)節(jié)點(diǎn)和892528條連邊,UNC包含18163個(gè)節(jié)點(diǎn)和766800條連邊。每一個(gè)節(jié)點(diǎn)包含7個(gè)用戶描述屬性信息:學(xué)生/教師狀態(tài)標(biāo)記、性別、主修、輔修、住址、年級、高中。本文使用狀態(tài)標(biāo)記作為類別標(biāo)簽。

        3.1.2?評價(jià)任務(wù)及其指標(biāo)

        本文通過現(xiàn)有文獻(xiàn)中最為常見的鏈路預(yù)測和節(jié)點(diǎn)分類兩個(gè)任務(wù),來評測網(wǎng)絡(luò)表示學(xué)習(xí)算法性能。鏈路預(yù)測任務(wù)用來評價(jià)節(jié)點(diǎn)表示的重構(gòu)網(wǎng)絡(luò)結(jié)構(gòu)能力,節(jié)點(diǎn)分類任務(wù)用于評價(jià)節(jié)點(diǎn)表示能否有效應(yīng)用到后續(xù)的網(wǎng)絡(luò)分析任務(wù)。

        1)鏈路預(yù)測。參考文獻(xiàn)[4,22],隨機(jī)選擇10%網(wǎng)絡(luò)連邊作為測試集,另10%作為驗(yàn)證集用于超參數(shù)調(diào)節(jié),剩余80%作為訓(xùn)練集。本文使用AUC指標(biāo)[29]從整體上衡量算法的精確度。

        在鏈路預(yù)測實(shí)驗(yàn)中,使用余弦相似性作為節(jié)點(diǎn)間具有連邊的得分值。AUC可以理解為在測試集中邊的得分值比隨機(jī)選擇一條不存在的邊的分?jǐn)?shù)值高的概率。獨(dú)立比較n次,記測試集中邊的分?jǐn)?shù)值大于不存在的邊的分?jǐn)?shù)值的比較次數(shù)為n′,分?jǐn)?shù)值相等的比較次數(shù)為n",則AUC定義為:

        AUC=n′+0.5n"n(21)

        2)節(jié)點(diǎn)分類。模型訓(xùn)練超參數(shù)設(shè)置與鏈路預(yù)測任務(wù)中參數(shù)設(shè)置保持一致。訓(xùn)練集中包含80%的網(wǎng)絡(luò)連邊和所有的節(jié)點(diǎn)描述屬性信息(不包括類別標(biāo)簽)。然后,對于所有模型,使用LibLinear工具包[30]中的線性支持向量機(jī)(Support Vector Machine, SVM)構(gòu)建分類器。為反映表示向量在所有節(jié)點(diǎn)上的分類性能綜合評價(jià),本文采用F1指標(biāo)作為衡量表示向量在所有節(jié)點(diǎn)上的分類性能的綜合評價(jià)指標(biāo)。

        3.1.3?對比算法及其參數(shù)設(shè)置

        實(shí)驗(yàn)對比算法如下:DeepWalk[2]:基于截?cái)嚯S機(jī)游走和SkipGram模型獲得節(jié)點(diǎn)表示向量。該算法僅利用了網(wǎng)絡(luò)結(jié)構(gòu)信息,作為其他融合算法的參考。

        TADW[11]:基于矩陣分解形式的融合算法,結(jié)合節(jié)點(diǎn)屬性信息矩陣進(jìn)行聯(lián)合矩陣分解,獲得節(jié)點(diǎn)的融合表示向量。該算法作為基于矩陣分解的融合對比算法。

        UPP-SNE[15]:在DeepWalk算法基礎(chǔ)上,改進(jìn)SkipGram模型,通過向量內(nèi)積實(shí)現(xiàn)兩方面信息的知識交互。該算法作為基于隨機(jī)游走的融合對比算法。

        SNE[22]:基于深度神經(jīng)網(wǎng)絡(luò)的融合算法,利用深度神經(jīng)網(wǎng)絡(luò)的非線性特征提取能力,挖掘節(jié)點(diǎn)間的復(fù)雜非線性關(guān)系,實(shí)現(xiàn)節(jié)點(diǎn)融合表示向量特征提取。該算法作為基于深度神經(jīng)網(wǎng)絡(luò)的融合對比算法。

        NPA-NRL:本文提出的一種基于深度神經(jīng)網(wǎng)絡(luò)的融合算法。通過在訓(xùn)練過程引入基于網(wǎng)絡(luò)同質(zhì)性原理的屬性相似性度量函數(shù)以及基于隨機(jī)擾動的數(shù)據(jù)集增強(qiáng)策略,有效應(yīng)對節(jié)點(diǎn)描述屬性信息存在的語義信息分散和屬性不完備問題。NPA-NRL(-)是該算法的退化算法,在訓(xùn)練過程中未加入隨機(jī)擾動,作為對比算法驗(yàn)證增加屬性相似性度量函數(shù)和數(shù)據(jù)集增強(qiáng)策略發(fā)揮的不同作用。

        本文中對比算法的實(shí)驗(yàn)參數(shù)參考相應(yīng)文獻(xiàn)的推薦設(shè)置:所有算法的表示向量維度統(tǒng)一設(shè)置為128維,與文獻(xiàn)[15]保持一致。除表示向量維度外,基于矩陣分解的SVD算法和UPP-SNE算法無其他參數(shù)?;陔S機(jī)游走的DeepWalk算法和UPP-SNE算法按照文獻(xiàn)[15]中提供參數(shù)進(jìn)行設(shè)置,每個(gè)節(jié)點(diǎn)的隨機(jī)游走次數(shù)r=40,隨機(jī)游走長度l=40,窗口大小t=10,迭代次數(shù)d=40?;谏疃壬窠?jīng)網(wǎng)絡(luò)的SNE算法按照[22]中提供的最優(yōu)參數(shù)進(jìn)行設(shè)置,對于新增數(shù)據(jù)集GPLUS,批量訓(xùn)練大小參數(shù)為bs=64,初始學(xué)習(xí)率為η=0.0001,輸入屬性串接權(quán)重λ=0.8。本文NPA-NRL算法的參數(shù)設(shè)置參考文獻(xiàn)[22]思路,通過比較給定參數(shù)空間內(nèi)驗(yàn)證集上的鏈路預(yù)測性能,得到最優(yōu)參數(shù)設(shè)定如表3所示。

        3.2?結(jié)果分析

        3.2.1?鏈路預(yù)測實(shí)驗(yàn)分析

        表4記錄了NPA-NRL算法和其他對比算法在三個(gè)實(shí)驗(yàn)數(shù)據(jù)集上的鏈路預(yù)測AUC值。從實(shí)驗(yàn)結(jié)果可看出,相對于其他對比算法,本文算法性能提高了0.83%~6.30%,平均提升2.75%。融合算法(TADW、UPP-SNE、SNE和NPA-NRL)和僅考慮網(wǎng)絡(luò)結(jié)構(gòu)信息的DeepWalk算法相比,平均提高3.14%,這也驗(yàn)證了融合網(wǎng)絡(luò)節(jié)點(diǎn)屬性信息進(jìn)行表示學(xué)習(xí)的重要意義。

        3.2.2?節(jié)點(diǎn)分類實(shí)驗(yàn)分析

        下面通過節(jié)點(diǎn)分類實(shí)驗(yàn),進(jìn)一步分析網(wǎng)絡(luò)節(jié)點(diǎn)表示應(yīng)用到后續(xù)網(wǎng)絡(luò)分析任務(wù)中性能表現(xiàn)。通過設(shè)置不同比例的有標(biāo)簽數(shù)據(jù)訓(xùn)練分類器,評估各算法得到的表示向量的節(jié)點(diǎn)分類性能。每個(gè)訓(xùn)練率下,重復(fù)50次實(shí)驗(yàn),記節(jié)點(diǎn)分類的平均F1值如表5~7所示(括號內(nèi)為標(biāo)準(zhǔn)差),下面進(jìn)行具體分析:首先,和鏈路預(yù)測結(jié)果一樣,僅利用網(wǎng)絡(luò)結(jié)構(gòu)信息的DeepWalk算法性能最低,這再次驗(yàn)證節(jié)點(diǎn)屬性信息對于更加精確的節(jié)點(diǎn)表示的重要作用。其次,本文算法與同樣考慮兩方面信息的TADW算法及UPP-SNE算法相比仍然具有優(yōu)勢。在訓(xùn)練數(shù)據(jù)較少的情況下,TADW算法在OKLAHOMA和UNC兩個(gè)數(shù)據(jù)集上的節(jié)點(diǎn)分類性能甚至低于DeepWalk算法。這是因?yàn)門ADW算法是基于線性映射的方式得到節(jié)點(diǎn)表示向量,難以有效應(yīng)對節(jié)點(diǎn)描述屬性信息中數(shù)據(jù)不完備問題。相比之下,UPP-SNE算法利用SkipGram模型有效實(shí)現(xiàn)兩方面信息的融合,節(jié)點(diǎn)分類性能進(jìn)一步提高。然而SkipGram模型這種淺層模型難以有效挖掘節(jié)點(diǎn)網(wǎng)絡(luò)結(jié)構(gòu)信息和描述屬性信息之間的復(fù)雜非線性關(guān)系,因此性能并非最優(yōu)。

        最后,和同樣采用深度神經(jīng)網(wǎng)絡(luò)進(jìn)行融合表示學(xué)習(xí)的SNE算法相比,本文算法利用節(jié)點(diǎn)描述屬性信息的能力上效果更顯著:一方面,由于在訓(xùn)練過程中考慮基于連接關(guān)系約束的屬性相似性保留優(yōu)化損失函數(shù),NPA-NRL(-)算法更加充分利用了節(jié)點(diǎn)屬性同質(zhì)性信息,在三個(gè)數(shù)據(jù)集上的節(jié)點(diǎn)分類性能平均提高2.28%;另一方面,通過在訓(xùn)練過程中引入對輸入數(shù)據(jù)的隨機(jī)擾動,使得NPA-NRL算法能夠在節(jié)點(diǎn)屬性信息不完備的情況下,獲得具有魯棒性的表示向量。

        在訓(xùn)練率僅為2%的情況下,本文NPA-NRL算法和SNE算法相比,節(jié)點(diǎn)分類性能分別提高了6.05%(GPLUS)、6.13%(OKLAHOMA)和4.12%(UNC),表明NPA-NRL算法所得表示向量具有較強(qiáng)區(qū)分性。和對比算法相比,NPA-NRL算法在三個(gè)數(shù)據(jù)集上的節(jié)點(diǎn)分類性能平均提升7.10%。

        3.3?參數(shù)敏感性分析

        本節(jié)進(jìn)一步分析超參數(shù)對NPA-NRL算法性能影響。如圖3所示,測試了算法在不同參數(shù)選擇下的節(jié)點(diǎn)分類性能指標(biāo)F1值的變化趨勢。在實(shí)驗(yàn)過程中,除測試參數(shù)外,其余參數(shù)設(shè)定為默認(rèn)值,分類器訓(xùn)練數(shù)據(jù)比例設(shè)置為10%。

        首先,從如圖3(a)的對比實(shí)驗(yàn)中發(fā)現(xiàn),隨著表示向量維度增加,節(jié)點(diǎn)分類性能逐步提升,當(dāng)表示向量增加到一定程度后,算法性能有輕微的增長且趨于穩(wěn)定。同時(shí)發(fā)現(xiàn):在OKLAHOMA和UNC兩個(gè)相對稀疏的網(wǎng)絡(luò)中,節(jié)點(diǎn)分類性能隨著表示向量維度增加,節(jié)點(diǎn)分類性能提升較快。這是因?yàn)樵谙∈杈W(wǎng)絡(luò)中,節(jié)點(diǎn)結(jié)構(gòu)特征相對分散,需要更多的維度來表示節(jié)點(diǎn)間的相似性和差異性。因此, 本文算法仿真中設(shè)置默認(rèn)值為128,在保證較優(yōu)性能的同時(shí)使用較少的特征維度。

        其次,通過調(diào)整λ取值,進(jìn)一步研究屬性權(quán)重大小對節(jié)點(diǎn)分類性能的影響。當(dāng)λ較小時(shí),隨著λ增加,節(jié)點(diǎn)分類性能逐漸提升。如圖3(b)所示,當(dāng)λ在0.3附近時(shí)在三個(gè)數(shù)據(jù)集中均取得較優(yōu)性能。當(dāng)λ較大時(shí),節(jié)點(diǎn)分類性能逐漸下降,這是因?yàn)檩^大的λ使得所有節(jié)點(diǎn)表示向量趨于相同,減弱了節(jié)點(diǎn)間結(jié)構(gòu)特征信息對表示向量的影響,導(dǎo)致分類性能下降。因此, 本文算法仿真中設(shè)置默認(rèn)值為0.3。

        最后,圖3(c)給出了節(jié)點(diǎn)分類F1值隨隨機(jī)擾動概率的變化趨勢。隨著隨機(jī)擾動概率增加,節(jié)點(diǎn)分類性能逐漸提升。當(dāng)ε超過一定值時(shí),節(jié)點(diǎn)分類性能逐漸下降,說明過量隨機(jī)噪聲引入導(dǎo)致節(jié)點(diǎn)屬性的關(guān)鍵信息丟失。因此, 本文算法仿真中設(shè)置默認(rèn)值為0.5。

        4?結(jié)語

        本文針對融合節(jié)點(diǎn)描述屬性進(jìn)行表示學(xué)習(xí)過程中面臨的節(jié)點(diǎn)描述屬性信息語義信息分散和信息不完備問題,分別提出了兩項(xiàng)優(yōu)化策略:一是設(shè)計(jì)了基于網(wǎng)絡(luò)同質(zhì)性原理的節(jié)點(diǎn)屬性相似性度量函數(shù)和基于SkipGram模型的結(jié)構(gòu)相似性度量函數(shù),通過聯(lián)合訓(xùn)練實(shí)現(xiàn)融合語義信息挖掘。二是設(shè)計(jì)了基于隨機(jī)擾動的數(shù)據(jù)集增強(qiáng)策略,結(jié)合優(yōu)先融合策略,有效實(shí)現(xiàn)網(wǎng)絡(luò)結(jié)構(gòu)信息和描述屬性信息的相互補(bǔ)充制約,在屬性信息不完備的情況下,能夠獲得較為魯棒的節(jié)點(diǎn)表示。實(shí)驗(yàn)結(jié)果表明,本文算法能夠有效提升節(jié)點(diǎn)表示向量在鏈路預(yù)測和節(jié)點(diǎn)分類任務(wù)中性能。然而,本文算法僅適用于同質(zhì)信息網(wǎng)絡(luò)的表示學(xué)習(xí),網(wǎng)絡(luò)同質(zhì)性原理在異質(zhì)信息網(wǎng)絡(luò)中不再成立。后續(xù)將對此展開深入分析研究。

        參考文獻(xiàn)(References)

        [1] 丁兆云, 賈焰, 周斌.微博數(shù)據(jù)挖掘研究綜述[J]. 計(jì)算機(jī)研究與發(fā)展, 2014, 51(4): 691-706. (DING Z Y, JIA Y, ZHOU B. Survey of data mining for microblogs [J]. Journal of Computer Research and Development, 2014, 51(4): 691-706.)

        [2] PEROZZI B, AL-RFOU R, SKIENA S. DeepWalk: online learning of social representations [C]// KDD 2014: Proceedings of the 20th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. New York: ACM, 2014: 701-710.

        [3] TANG J, QU M, WANG M, et al. LINE: large-scale information network embedding [C]// WWW 2015: Proceedings of the 24th International Conference on World Wide Web. Geneva, Switzerland: International World Wide Web Conferences Steering Committee, 2015: 1067-1077.

        [4] WANG D, CUI P, ZHU W. Structural deep network embedding [C]// KDD 2016: Proceedings of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. New York: ACM, 2016: 1225-1234.

        [5] 李志宇, 梁循, 周小平, 等. 一種大規(guī)模網(wǎng)絡(luò)中基于節(jié)點(diǎn)結(jié)構(gòu)特征映射的鏈接預(yù)測方法[J]. 計(jì)算機(jī)學(xué)報(bào), 2016, 39(10): 1947-1964. (LI Z Y, LIANG X, ZHOU X P, et al. A link prediction method for large-scale networks [J]. Chinese Journal of Computers, 2016, 39(10): 1947-1964.)

        [6] WANG Z, CHEN C, LI W. Predictive network representation learning for link prediction [C]// SIGIR 2017: Proceedings of the 40th International ACM SIGIR Conference on Research and Development in Information Retrieval. New York: ACM, 2017: 969-972.

        [7] YANG J, McAULEY J, LESKOVEC J. Community detection in networks with node attributes [C]// ICDM 2013: Proceedings of the 2013 IEEE 13th International Conference on Data Mining. Piscataway, NJ: IEEE, 2013: 1151-1156.

        [8] McPHERSON M, SMITH-LOVIN L, COOK J M. Birds of a feather: homophily in social networks [J]. Annual Review of Sociology, 2001, 27(1): 415-444.

        [9] AIELLO L M, BARRAT A, SCHIFANELLA R, et al. Friendship prediction and homophily in social media[J]. ACM Transactions on the Web, 2012, 6(2): 1-33.

        [10] TRAUD A L, MUCHA P J, PORTER M A. Social structure of Facebook networks [J]. Physica A: Statistical Mechanics and its Applications, 2012, 391(16): 4165-4180.

        [11] YANG C, LIU Z, ZHAO D, et al. Network representation learning with rich text information [C]// IJCAI 2015: Proceedings of the Twenty-Fourth International Joint Conference on Artificial Intelligence. Menlo Park, CA: AAAI Press, 2015: 2111-2117.

        [12] ZHANG D, YIN J, ZHU X, et al. Homophily, structure, and content augmented network representation learning [C]// ICDM 2016: Proceedings of the 16th IEEE International Conference on Data Mining Series. Piscataway, NJ: IEEE, 2016: 609-618.

        [13] LI H, WANG H, YANG Z, et al. Variation autoencoder based network representation learning for classification [C]// ACL 2017: Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics. Stroudsburg, PA, USA: ACL, 2017: 56-61.

        [14] MIKOLOV T, SUTSKEVER I, CHEN K, et al. Distributed representations of words and phrases and their compositionality [C]// NIPS 2013: Proceedings of the Twenty-Seventh Conference on Neural Information Processing Systems. Cambridge, MA: MIT Press, 2013: 3111-3119.

        [15] ZHANG D, YIN J, ZHU X, et al. User profile preserving social network embedding [C]// IJCAI 2017: Proceedings of the 26th International Joint Conference on Artificial Intelligence. Menlo Park, CA: AAAI Press, 2017: 3378-3384.

        [16] RAHIMI A, RECHT B. Random features for large-scale kernel machines [C]// NIPS 2008: Proceedings of the Twenty-Second Annual Conference on Neural Information Processing Systems. Cambridge, MA: MIT Press, 2008: 1177-1184.

        [17] 溫雯, 黃家明, 蔡瑞初, 等. 一種融合節(jié)點(diǎn)先驗(yàn)信息的圖表示學(xué)習(xí)方法[J]. 軟件學(xué)報(bào), 2018, 29(3): 786-798. (WEN W, HUANG J M, CAI R C, et al. Graph embedding by incorporating prior knowledge on vertex information[J]. Journal of Software, 2018, 29(3): 786-798.)

        [18] YANG C, SUN M, LIU Z, et al. Fast network embedding enhancement via high order proximity approximation [C]// IJCAI 2017: Proceedings of the Twenty-Sixth International Joint Conference on Artificial Intelligence. Menlo Park, CA: AAAI Press, 2017: 19-25.

        [19] HUANG X, LI J, HU X. Accelerated attributed network embedding [C]// SDM 2017: Proceedings of the 2017 SIAM International Conference on Data Mining. Philadelphia: SIAM, 2017: 633-641.

        [20] LeCUN Y, BENGIO Y, HINTON G. Deep learning[J]. Nature, 2015, 521(7553): 436-444.

        [21] CAO S, LU W, XU Q. Deep neural networks for learning graph representations [C]// AAAI 2016: Proceedings of the Thirtieth AAAI Conference on Artificial Intelligence. Menlo Park, CA: AAAI Press, 2016: 1145-1152.

        [22] LIAO L, HE X, ZHANG H, et al. Attributed social network embedding[J]. IEEE Transactions on Knowledge and Data Engineering, 2018, 30(12): 2257-2270.

        [23] HAMILTON W L, YING R, LESKOVEC J. Representation learning on graphs: methods and applications[EB/OL]. [2018-05-10]. https://arxiv.org/pdf/1709.05584.

        [24] SIETSMA J, DOW R J F. Creating artificial neural networks that generalize[J]. Neural Networks, 1991, 4(1): 67-79.

        [25] HORNIK K, STINCHCOMBE M, WHITE H. Multilayer feedforward networks are universal approximators[J]. Neural Networks, 1989, 2(5): 359-366.

        [26] GLOROT X, BENGIO Y. Understanding the difficulty of training deep feedforward neural networks [C]// AISTATS 2010: Proceedings of the Thirteenth International Conference on Artificial Intelligence and Statistics. Cambridge, MA: MIT Press, 2010: 249-256.

        [27] KINGMA D P, BA J. Adam: a method for stochastic optimization[EB/OL]. [2018-05-10]. https://arxiv.org/pdf/1412.6980.

        [28] LESKOVEC J, MCAULEY J J. Learning to discover social circles in ego networks [C]// NIPS 2012: Proceedings of the Twenty-sixth Annual Conference on Neural Information Processing Systems. Cambridge, MA: MIT Press, 2012: 539-547.

        [29] 呂琳媛. 復(fù)雜網(wǎng)絡(luò)鏈路預(yù)測[J]. 電子科技大學(xué)學(xué)報(bào), 2010, 39(5): 651-661. (LYU L Y. Link prediction on complex networks [J]. Journal of University of Electronic Science and Technology of China, 2010, 39(5): 651-661.)

        [30] FAN R E, CHANG K W, HSIEH C J, et al. LIBLINEAR: a library for large linear classification[J]. Journal of Machine Learning Research, 2008, 9: 1871-1874.

        猜你喜歡
        信息融合復(fù)雜網(wǎng)絡(luò)深度學(xué)習(xí)
        基于圖熵聚類的重疊社區(qū)發(fā)現(xiàn)算法
        大數(shù)據(jù)背景下的信號處理分析
        多傳感器圖像融合技術(shù)
        大數(shù)據(jù)環(huán)境下基于多維信息融合的高校教學(xué)評價(jià)
        亞太教育(2016年35期)2016-12-21 20:08:33
        一種無人飛艇高度傳感器信息融合方法
        MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場域建構(gòu)
        大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
        基于復(fù)雜網(wǎng)絡(luò)理論的通用機(jī)場保障網(wǎng)絡(luò)研究
        深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
        基于深度卷積網(wǎng)絡(luò)的人臉年齡分析算法與實(shí)現(xiàn)
        軟件工程(2016年8期)2016-10-25 15:47:34
        漂亮人妻洗澡被公强 日日躁 | 亚洲一二三区在线观看| 亚洲无AV码一区二区三区| 五月综合丁香婷婷久久| 欧美精品色婷婷五月综合| 好日子在线观看视频大全免费动漫| 手机在线精品视频| 中文字幕高清一区二区| 福利视频一区二区三区| 日韩视频中文字幕精品偷拍| 99热成人精品热久久66| 一区二区三区在线观看日本视频 | 国产无遮挡aaa片爽爽| 亚洲精品无码乱码成人| 国产亚洲av无码专区a∨麻豆| 亚洲AⅤ无码国精品中文字慕| 国内激情一区二区视频| 成熟人妻换xxxx| 色狠狠av老熟女| 久久亚洲第一视频黄色| 国产爽快片一区二区三区| 中文字幕人成乱码熟女| 八戒网站免费观看视频| 亚洲亚洲网站三级片在线| 尤物yw午夜国产精品视频 | 亚洲一区二区三区播放| 国产欧美一区二区成人影院| 久久精品国产亚洲av一| 红桃av一区二区三区在线无码av| 免费精品一区二区三区第35| 麻豆密入视频在线观看| 国产一区二区黑丝美胸| 99久久人妻无码精品系列| 国产精品公开免费视频| 丰满人妻一区二区三区精品高清| 男人国产av天堂www麻豆| 日韩无套内射视频6| 亚洲AV秘 无码一区二区久久| 亚洲国产中文字幕精品| 日本一区二区日韩在线| 在线视频青青草猎艳自拍69|