亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于混合采樣的圖對(duì)比學(xué)習(xí)推薦算法

        2023-01-01 00:00:00袁琮淇劉淵劉靜文

        摘要:在推薦系統(tǒng)領(lǐng)域中,圖卷積網(wǎng)絡(luò)具有對(duì)于圖結(jié)構(gòu)數(shù)據(jù)更強(qiáng)的信息抽取能力。然而,現(xiàn)有的圖卷積網(wǎng)絡(luò)推薦算法主要關(guān)注改進(jìn)模型結(jié)構(gòu),忽視了提高原始樣本采樣質(zhì)量與挖掘用戶—項(xiàng)目間隱式關(guān)系的重要性。針對(duì)上述問題,提出一種基于混合采樣的圖對(duì)比學(xué)習(xí)推薦算法。首先使用混合采樣方法,提取出正樣本中部分信息并將其注入負(fù)樣本,從而生成全新的富含信息的難負(fù)樣本;其次,通過輕量圖卷積網(wǎng)絡(luò)對(duì)難負(fù)樣本進(jìn)行特征提取,得到用戶和項(xiàng)目的節(jié)點(diǎn)表征,采用鄰域?qū)Ρ葘W(xué)習(xí)方法挖掘樣本隱式關(guān)系;最后,利用多任務(wù)策略對(duì)推薦監(jiān)督任務(wù)和對(duì)比學(xué)習(xí)任務(wù)進(jìn)行聯(lián)合優(yōu)化。在真實(shí)數(shù)據(jù)集Yelp2018和Amazon-book上進(jìn)行實(shí)驗(yàn),采用recall和NDCG指標(biāo)進(jìn)行評(píng)估,實(shí)驗(yàn)結(jié)果表明,提出的模型相較其他基準(zhǔn)模型取得了更好的效果。

        關(guān)鍵詞:圖卷積網(wǎng)絡(luò);推薦系統(tǒng);難負(fù)樣本;圖對(duì)比學(xué)習(xí)

        中圖分類號(hào):TP391文獻(xiàn)標(biāo)志碼:A文章編號(hào):1001-3695(2023)05-010-1346-06doi:10.19734/j.issn.1001-3695.2022.10.0533

        0引言

        隨著互聯(lián)網(wǎng)技術(shù)的飛速發(fā)展,信息呈爆發(fā)式增長(zhǎng),其中往往夾雜著大量冗余的無效信息,使得用戶難以快速準(zhǔn)確地找到自己感興趣的內(nèi)容。推薦系統(tǒng)是解決信息過載問題的有效方法之一,它的功能是根據(jù)用戶的興趣特點(diǎn)和歷史行為,向用戶推薦感興趣的信息[1]。傳統(tǒng)的推薦算法可以分為基于內(nèi)容的推薦方法、基于協(xié)同過濾的推薦方法、混合推薦方法[2]。基于內(nèi)容的推薦方法的理論依據(jù)主要來自于信息檢索和信息過濾,其核心思想是根據(jù)用戶過去的瀏覽記錄向用戶推薦用戶沒有接觸過的推薦項(xiàng);基于協(xié)同過濾的推薦方法利用相似用戶之間具有相似興趣偏好的方法來發(fā)現(xiàn)用戶對(duì)項(xiàng)目的潛在偏好;混合推薦方法是指將多種推薦技術(shù)混合后,得到的一種全面且復(fù)雜的推薦系統(tǒng)。上述方法中,基于協(xié)同過濾的推薦方法僅需利用用戶的歷史評(píng)分?jǐn)?shù)據(jù)便可推薦用戶可能感興趣的其他物品[3],因而簡(jiǎn)單有效,是當(dāng)前應(yīng)用最廣泛的個(gè)性化推薦算法。但是相對(duì)于龐大的項(xiàng)目數(shù)量,用戶對(duì)項(xiàng)目的評(píng)分?jǐn)?shù)據(jù)非常少,容易引發(fā)數(shù)據(jù)稀疏性問題,導(dǎo)致推薦系統(tǒng)的推薦質(zhì)量下降。

        傳統(tǒng)基于協(xié)同過濾的推薦系統(tǒng)一般使用矩陣分解(matrixfactorization)算法[4],將用戶和項(xiàng)目映射在同一個(gè)潛在空間中,并使用不同的潛在向量來描述用戶和項(xiàng)目,最終將用戶和物品的交互建模為兩者之間的內(nèi)積操作。該算法存在可解釋性較差、訓(xùn)練時(shí)間過長(zhǎng)的問題。隨著深度學(xué)習(xí)的興起,推薦領(lǐng)域逐漸出現(xiàn)了利用神經(jīng)網(wǎng)絡(luò)挖掘用戶—項(xiàng)目交互的方法[5]。例如,He等人[6]提出了一個(gè)采用多層感知器(MLP)來學(xué)習(xí)交互的通用框架NCF,該方法利用多層神經(jīng)網(wǎng)絡(luò)替代了MF模型中的內(nèi)積操作,但由于忽視了用戶和項(xiàng)目間的高階連接性,不能充分發(fā)揮推薦系統(tǒng)的性能[7]。

        近年來,基于圖卷積網(wǎng)絡(luò)(graphconvolutionnetwork,GCN)的模型在推薦領(lǐng)域應(yīng)用廣泛,融合協(xié)同過濾信息和GCN的推薦系統(tǒng)取得了非常好的效果[8]。GCN結(jié)構(gòu)設(shè)計(jì)利用了圖的連通性,能夠聚合用戶鄰居節(jié)點(diǎn)信息,從而更為有效地學(xué)習(xí)用戶和項(xiàng)目表征[9]。鑒于GCN的特性,許多研究人員將其應(yīng)用于推薦系統(tǒng)中。例如,Ying等人[10]將隨機(jī)游走算法和GCN結(jié)合構(gòu)建節(jié)點(diǎn)表示,提出了PinSage;Wang等人[11]利用GCN的信息傳播特性提出了NGCF,該模型完全繼承了GCN中的特征變換、非線性激活等一系列傳播規(guī)則,對(duì)用戶—項(xiàng)目之間的高階連接性進(jìn)行了顯式建模。盡管模型已經(jīng)取得了較好的推薦效果,但是仍存在由數(shù)據(jù)稀疏導(dǎo)致的過度平滑問題,模型的效率偏低。針對(duì)上述問題,Chen等人[12]提出了LR-GCCF,利用殘差網(wǎng)絡(luò)結(jié)構(gòu)緩解過度平滑問題,同時(shí)去除了GCN的非線性激活規(guī)則;在此基礎(chǔ)上,He等人[13]進(jìn)一步簡(jiǎn)化了圖卷積操作,提出了LightGCN,該模型僅保留了GCN中的鄰域聚合組件用于協(xié)同過濾,取得了輕量高效的效果。

        基于GCN的推薦算法在推薦領(lǐng)域中取得了顯著的效果,然而此方法仍然存在著許多問題。首先是如何高效地從用戶—項(xiàng)目隱式反饋中負(fù)采樣,大多數(shù)模型直接從原始樣本中進(jìn)行負(fù)采樣,這種方法往往只關(guān)注圖的離散空間,忽視了圖卷積網(wǎng)絡(luò)特有的鄰域集成結(jié)構(gòu);其次,現(xiàn)有模型普遍通過用戶和項(xiàng)目的顯式交互學(xué)習(xí)節(jié)點(diǎn)表示,不能很好地挖掘用戶與項(xiàng)目之間的隱式關(guān)系,受用戶—項(xiàng)目交互數(shù)據(jù)稀疏性的影響,現(xiàn)有模型的推薦性能仍受到限制。

        針對(duì)以上問題,本文提出了一種基于混合采樣的圖對(duì)比學(xué)習(xí)推薦算法MSGCL(graphcontrastivelearningrecommendationalgorithmbasedonmixedsampling)。首先,該算法使用了插值混合技術(shù),將正樣本的信息注入負(fù)樣本中,從而在連續(xù)空間中合成難負(fù)樣本;利用圖卷積網(wǎng)絡(luò)中的聚合操作將得到的難負(fù)樣本結(jié)合,得到富含信息的難負(fù)樣本用于模型的訓(xùn)練。與常規(guī)采樣方法相比,本文算法生成的難負(fù)樣本蘊(yùn)涵豐富的信息量,更有利于模型的訓(xùn)練。在原有推薦監(jiān)督任務(wù)的基礎(chǔ)上,MSGCL定義了新的對(duì)比學(xué)習(xí)框架,進(jìn)一步挖掘用戶和項(xiàng)目鄰居的潛在關(guān)系,以降低數(shù)據(jù)稀疏對(duì)推薦效果的影響。

        1基于混合采樣的圖對(duì)比學(xué)習(xí)推薦算法

        1.1模型框架

        MSGCL模型的框架如圖1所示。模型通過三個(gè)模塊實(shí)現(xiàn):a)混合采樣,用于融合原始用戶—項(xiàng)目交互圖數(shù)據(jù)中的正樣本與負(fù)樣本,生成信息量更多的難負(fù)樣本;b)輕量圖卷積網(wǎng)絡(luò),是實(shí)現(xiàn)推薦的主要方法,用于提取混合采樣方法所生成樣本的特征;c)鄰域?qū)Ρ葘W(xué)習(xí),結(jié)合樣本節(jié)點(diǎn)自身與同質(zhì)結(jié)構(gòu)鄰居的對(duì)比學(xué)習(xí)框架,與輕量圖卷積網(wǎng)絡(luò)原有的監(jiān)督任務(wù)聯(lián)合優(yōu)化得到最終的推薦結(jié)果。

        1.2混合采樣

        推薦模型的學(xué)習(xí)目標(biāo)是找出用戶更感興趣的項(xiàng)目,賦予其更高的預(yù)測(cè)分?jǐn)?shù),最終返回每個(gè)用戶一個(gè)有序排列的項(xiàng)目預(yù)測(cè)分?jǐn)?shù)列表。項(xiàng)目在列表中排序越靠前,表示用戶對(duì)該項(xiàng)目的偏好越高。該列表的評(píng)估方式一般采取以下假設(shè):相較于未被觀測(cè)到的項(xiàng)目,用戶更偏好于已經(jīng)被觀測(cè)到的項(xiàng)目。這種方式將已觀測(cè)到的項(xiàng)目作為正樣本,在未被觀測(cè)到的項(xiàng)目中選取負(fù)樣本。由于未被觀測(cè)到的項(xiàng)目數(shù)量遠(yuǎn)遠(yuǎn)大于已觀測(cè)的項(xiàng)目,優(yōu)化目標(biāo)經(jīng)常被簡(jiǎn)化為貝葉斯個(gè)性化排序(Bayesianpersonalizedranking,BPR)損失[14],具體數(shù)學(xué)表示如下:

        其中:i+與i-分別表示正樣本與負(fù)樣本;Pu(agt;b)表示用戶u相對(duì)于b偏好a;Θ是模型的參數(shù);fs(u)是負(fù)采樣的分布,通常被設(shè)為均勻分布,即fs(u)=funiform(u)。

        根據(jù)式(1)可知,負(fù)采樣方法是BPR損失的一個(gè)重要影響部分,對(duì)推薦模型的訓(xùn)練極其重要。本文受到文獻(xiàn)[15]的啟發(fā),研究應(yīng)用了新的插值混合采樣方法。在連續(xù)空間中合成與正樣本相似的難負(fù)樣本,能夠幫助模型更好地區(qū)分正負(fù)樣本以提升推薦系統(tǒng)性能。該方法分為樣本生成與樣本聚合兩個(gè)步驟。

        1.2.1樣本生成

        在一個(gè)l層的GCN中,每個(gè)項(xiàng)目i有l(wèi)+1個(gè)嵌入e(l)i,它們聚合了對(duì)應(yīng)節(jié)點(diǎn)前l(fā)層的信息。為了得到負(fù)例i-的嵌入ei-,本文從所有負(fù)樣本中隨機(jī)選取M個(gè)負(fù)例,構(gòu)成負(fù)樣本嵌入候選集ε={e(l)im}。之后使用mixup方法[16]將正樣本嵌入ei+的部分信息注入到候選負(fù)樣本嵌入中,最終生成難負(fù)樣本e′(l)im。對(duì)于一個(gè)l層的GCN,樣本生成步驟表示如下:

        其中:α(l)是混合系數(shù),用于控制所注入的正樣本信息量,其每層的值通過均勻采樣在(0,1)內(nèi)隨機(jī)生成,均勻采樣能夠消除mixup方法對(duì)模型泛化能力的影響[17];e′(l)im是生成的新的難負(fù)樣本嵌入,它的集合表示為ε′={e′(l)im}。經(jīng)過上述操作,生成了注入正樣本信息的難負(fù)樣本。由于該樣本與正樣本相似,模型更難區(qū)分決策邊界,識(shí)別能力得到了一定的提升。

        1.2.2樣本聚合

        對(duì)于生成的難負(fù)樣本集ε′,本文利用了GCN中的聚合過程對(duì)其中的嵌入e′(l)im進(jìn)行合成,最終生成負(fù)例i-的嵌入ei-。在l層GCN中,各層生成的難負(fù)樣本集記做ε′(l)。首先,使用了一種用內(nèi)積近似正樣本分布的難負(fù)樣本選擇策略[18]從ε′(l)中采樣出難負(fù)樣本嵌入。以l=2為例,采樣得到的難負(fù)樣本嵌入記做e′(0)ia、e′(1)ib、e′(2)ic。以上嵌入在GCN各層中隨機(jī)選取,因此a、b、c可以相同也可以不同。然后對(duì)上述嵌入進(jìn)行合成,得到最終輸出的嵌入:

        其中:e′(l)ix表示第l層采樣得到的難負(fù)樣本嵌入;fconcat(·)表示采用拼接的方式合成最終嵌入。

        1.2.3損失優(yōu)化

        將上述采樣方法應(yīng)用到BPR損失函數(shù)中,對(duì)本文模型參數(shù)進(jìn)行優(yōu)化,更新如下:

        其中:σ為sigmoid函數(shù);ο+表示訓(xùn)練數(shù)據(jù)集中正樣本對(duì)的集合;ei-~fm(u,i+)表示負(fù)樣本嵌入由本文定義的混合采樣方法生成。

        1.3輕量圖卷積網(wǎng)絡(luò)

        1.3.1圖卷積網(wǎng)絡(luò)

        圖卷積網(wǎng)絡(luò)是一種利用圖結(jié)構(gòu)特性在圖上進(jìn)行卷積操作的神經(jīng)網(wǎng)絡(luò),該模型通過聚合周圍節(jié)點(diǎn)的特征更新自身節(jié)點(diǎn)[19]。假設(shè)一個(gè)無向圖G=(V,E),其中V包含網(wǎng)絡(luò)中所有的N個(gè)節(jié)點(diǎn),E是節(jié)點(diǎn)之間的邊(vi,vj)∈E。將每個(gè)節(jié)點(diǎn)的特征設(shè)為向量xi,它們共同組成一個(gè)特征向量矩陣X∈EuclidExtraaBpN×C,其中C為特征向量的維數(shù)。圖G中各節(jié)點(diǎn)間的關(guān)系通過引入其鄰接矩陣A∈EuclidExtraaBpN×N與其度矩陣D來表示,Dij=∑jAij。GCN通過獨(dú)特的信息傳播規(guī)則進(jìn)行節(jié)點(diǎn)更新,具體公式定義為

        其中:H為節(jié)點(diǎn)特征矩陣,l為GCN的層數(shù)且H0=X;σ為非線性激活函數(shù);W為特征變換矩陣。

        1.3.2輕量圖卷積

        推薦系統(tǒng)中,用戶—項(xiàng)目交互數(shù)據(jù)具有天然的圖結(jié)構(gòu),可以建模為二分圖,如圖2所示。其中U是用戶節(jié)點(diǎn)u的集合,I是項(xiàng)目節(jié)點(diǎn)i的集合,圖中的邊表示用戶項(xiàng)目交互。

        相關(guān)研究表明,圖卷積網(wǎng)絡(luò)中的非線性激活函數(shù)與特征變換矩陣對(duì)協(xié)同過濾模型的性能貢獻(xiàn)很小,因此本文采用最先進(jìn)的LightGCN[13]算法提取用戶—項(xiàng)目圖結(jié)構(gòu)數(shù)據(jù)中的特征。該算法去除了上述兩種規(guī)則,保留了圖卷積網(wǎng)絡(luò)中的鄰域聚合、信息傳播等方法用于推薦,具備更快的訓(xùn)練時(shí)間和更少的資源需求。以圖2中的u2、i4為例,輕量圖卷積過程如圖3所示。

        基于圖卷積網(wǎng)絡(luò)的協(xié)同過濾算法的核心思想是利用用戶—項(xiàng)目的高階連接性對(duì)圖結(jié)構(gòu)的協(xié)作信號(hào)進(jìn)行建模,需要對(duì)圖中單個(gè)節(jié)點(diǎn)的鄰居節(jié)點(diǎn)進(jìn)行聚合操作以完成信息傳播。給定用戶u和項(xiàng)目i,它們各自的特征向量聚合過程如下:

        其中:e(l)u、e(l)i分別表示用戶u和項(xiàng)目i在第l層GNN的嵌入;Nu表示與用戶u交互過的項(xiàng)目集合;Ni表示與項(xiàng)目i交互過的用戶集合。l層的圖卷積網(wǎng)絡(luò)經(jīng)過上述聚合操作后,每個(gè)用戶/項(xiàng)目能夠從它們的高階鄰居中獲得信息。不同于用于節(jié)點(diǎn)分類的傳統(tǒng)GNN,輕量圖卷積去除了原有的自連接操作,采用池化操作對(duì)所有卷積層的特征進(jìn)行組合。這種方式被認(rèn)為能夠適當(dāng)緩解過度平滑問題,且凸顯出特征節(jié)點(diǎn)的子圖信息在不同范圍內(nèi)的重要性[20]。運(yùn)用上述方法將每層得到的嵌入累加后,所生成用戶和項(xiàng)目的最終表示如下:

        1.4鄰域?qū)Ρ葘W(xué)習(xí)

        現(xiàn)有的基于GCN的協(xié)同過濾方法通過建模用戶—項(xiàng)目交互圖來捕獲用戶對(duì)項(xiàng)目的偏好。盡管該方法較為有效,但其推薦監(jiān)督任務(wù)僅基于用戶—項(xiàng)目可觀察到的反饋,存在數(shù)據(jù)稀疏性問題[21]。針對(duì)該問題,參考文獻(xiàn)[22]提出的SGL,本文使用了鄰域?qū)Ρ葘W(xué)習(xí)方法進(jìn)行優(yōu)化,將每個(gè)用戶(或項(xiàng)目)與其同質(zhì)結(jié)構(gòu)鄰居進(jìn)行對(duì)比,定義了新的任務(wù)補(bǔ)充原有推薦監(jiān)督任務(wù),以增強(qiáng)特征提取。

        用戶與項(xiàng)目產(chǎn)生交互時(shí)更有可能選擇與自己較為相似的其他用戶所交互過的項(xiàng)目,這種趨勢(shì)可以建模為用戶—項(xiàng)目間的高階連接性。以u(píng)1為例,將所有與其相關(guān)的交互擴(kuò)展成樹型結(jié)構(gòu),并根據(jù)到達(dá)u1的路徑長(zhǎng)短將節(jié)點(diǎn)劃分成l階鄰居,如圖4所示。

        u1和二階鄰居u2、u3都與i1產(chǎn)生過交互,可以說明三者因i1而具有相似性。依此類推,二分圖中的其他用戶(項(xiàng)目)節(jié)點(diǎn),它們與自身的偶數(shù)階節(jié)點(diǎn)也具有相似性。由于GCN中的交互圖也是二分圖,基于GCN的模型在圖上進(jìn)行偶數(shù)次信息傳播操作后,能夠自然聚合同質(zhì)結(jié)構(gòu)鄰居的信息,從而降低提取用戶(或項(xiàng)目)潛在鄰居的難度。通過上述方式,同質(zhì)鄰域的表征信息能夠從模型的偶數(shù)層輸出獲得,并用于對(duì)用戶(或項(xiàng)目)與其結(jié)構(gòu)鄰居的關(guān)系進(jìn)行建模。將用戶自身嵌入與其偶數(shù)層同質(zhì)鄰居的用戶嵌入作為正樣本,而其他用戶嵌入作為負(fù)樣本,為了最小化兩者間的距離,本文基于InfoNCE[23]損失函數(shù)定義了新的對(duì)比學(xué)習(xí)任務(wù),用戶的對(duì)比損失計(jì)算方式如下:

        1.5總體學(xué)習(xí)目標(biāo)

        為了幫助推薦模型更有效地對(duì)用戶與項(xiàng)目之間的交互進(jìn)行建模,本文將上述提及的對(duì)比學(xué)習(xí)損失作為補(bǔ)充,并利用多任務(wù)學(xué)習(xí)策略將其與經(jīng)過混合采樣方法改進(jìn)后的BPR損失相結(jié)合,得到的模型整體損失函數(shù)如下:

        其中:λ1、λ2分別是控制對(duì)比學(xué)習(xí)與正則化項(xiàng)權(quán)重的超參數(shù);Θ是模型參數(shù)的集合。

        2實(shí)驗(yàn)結(jié)果與分析

        2.1實(shí)驗(yàn)環(huán)境

        為了驗(yàn)證本文算法性能,采用PyTorch機(jī)器學(xué)習(xí)框架,在Windows1064位操作系統(tǒng),PyCharm2020,IntelCoreTMi7-6700HQCPU@2.60GHz,NVIDIAGeForceGTX1060@6GB,16GB內(nèi)存,Python3.6的環(huán)境下進(jìn)行實(shí)驗(yàn)。

        2.2數(shù)據(jù)集和評(píng)價(jià)指標(biāo)

        本文采用兩個(gè)公開數(shù)據(jù)集Yelp2018、Amazon-book進(jìn)行實(shí)驗(yàn)。Yelp2018是Yelp網(wǎng)站2018年挑戰(zhàn)賽所采用的公開數(shù)據(jù)集,包含用戶查看過的餐廳、酒吧等商家記錄;Amazon-book為用戶在亞馬遜平臺(tái)的書籍消費(fèi)記錄。表1顯示了這兩個(gè)數(shù)據(jù)集的統(tǒng)計(jì)信息。

        本文基于top-K推薦方法,采用推薦系統(tǒng)任務(wù)中常用的召回率recall和歸一化折損累計(jì)增益(normalizeddiscountedcumulativegain,NDCG)作為性能評(píng)價(jià)指標(biāo)。根據(jù)推薦系統(tǒng)領(lǐng)域的常見設(shè)置習(xí)慣,將K設(shè)為20。

        recall表示推薦模型成功預(yù)測(cè)的樣本在正樣本中所占的比例,recall的值越大,推薦性能越好。其定義如下:

        其中:u為用戶;R(u)為模型預(yù)測(cè)出的需要推薦的項(xiàng)目的集合;T(u)為真實(shí)的測(cè)試集中被推薦的集合。求得每個(gè)用戶的recall值后,將其求和平均便可得到整個(gè)數(shù)據(jù)集上的recall值。

        NDCG用來評(píng)價(jià)推薦結(jié)果的準(zhǔn)確性,與用戶關(guān)系更密切的物品在列表中位置更靠前,NDCG值越大,推薦性能越好。

        其中:reln表示處于位置n的推薦項(xiàng)目的相關(guān)性;K表示最有可能向用戶推薦的前K個(gè)項(xiàng)目;|REL|表示相關(guān)度最高的前K個(gè)項(xiàng)目的集合。

        2.3對(duì)比方法與參數(shù)設(shè)置

        為了綜合評(píng)估MSGCL的性能,本文采用幾種較為先進(jìn)的模型作為對(duì)比方法:

        a)BPRMF[14],一種采用矩陣分解進(jìn)行優(yōu)化的經(jīng)典協(xié)同過濾算法;

        b)NGCF[11],一種基于圖卷積網(wǎng)絡(luò)的協(xié)同過濾方法,通過評(píng)分矩陣構(gòu)建用戶—項(xiàng)目交互圖,以此來提取用戶和項(xiàng)目間的高階信號(hào);

        c)LR-GCCF[12],一種基于殘差圖卷積網(wǎng)絡(luò)的協(xié)同過濾推薦模型,去除了圖卷積網(wǎng)絡(luò)中的非線性操作;

        d)LightGCN[13],一種簡(jiǎn)單而高效的推薦算法,在NGCF基礎(chǔ)上去掉了特征變換和非線性操作,保留了圖卷積網(wǎng)絡(luò)中的鄰域聚合和線性傳播用于推薦;

        e)DGCF[24],一種解耦用戶和項(xiàng)目表示,多方面反映用戶意圖的圖協(xié)同過濾模型;

        f)MSGCL,本文提出的基于混合采樣的圖對(duì)比學(xué)習(xí)推薦模型。

        本文所有對(duì)比算法均采用其對(duì)應(yīng)文獻(xiàn)中給出的最佳參數(shù)。其中,用戶和項(xiàng)目嵌入的維度設(shè)置為64,batchsize為2048,推薦模型的優(yōu)化器為Adam[25],使用Xavier[26]初始化參數(shù),學(xué)習(xí)率為10-3,超參數(shù)λ1=10-7、λ2=10-4、α=1。本文在2.4.3節(jié)對(duì)混合采樣與鄰域?qū)Ρ葘W(xué)習(xí)部分的兩個(gè)重要參數(shù)——候選集大小M與溫度超參數(shù)τ進(jìn)行了敏感度分析,以搜尋最佳參數(shù)。經(jīng)過對(duì)比實(shí)驗(yàn)后,最終將M設(shè)置為32,τ設(shè)置為0.05。

        2.4實(shí)驗(yàn)結(jié)果分析

        2.4.1模型推薦效果

        本文提出的MSGCL與其他經(jīng)典協(xié)同過濾推薦算法在兩個(gè)真實(shí)數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果如表2和圖5所示,其中Improv.代表本文算法相較于現(xiàn)有最優(yōu)基線算法在各項(xiàng)指標(biāo)上的提升比例。

        觀察實(shí)驗(yàn)結(jié)果可以發(fā)現(xiàn),基于圖卷積網(wǎng)絡(luò)的推薦算法遠(yuǎn)優(yōu)于傳統(tǒng)的不使用圖卷積網(wǎng)絡(luò)的算法,這充分表明了圖卷積網(wǎng)絡(luò)在提升推薦系統(tǒng)性能方面的優(yōu)越性。其中,NGCF直接利用了圖卷積網(wǎng)絡(luò)的原始結(jié)構(gòu)對(duì)用戶—項(xiàng)目的高階連接性進(jìn)行建模,相比使用矩陣分解的BPRMF大大提升了推薦性能;LR-GCCF參考ResNet[27]引入了殘差結(jié)構(gòu),以解決加深圖卷積網(wǎng)絡(luò)層數(shù)而導(dǎo)致的性能下降問題,同時(shí)簡(jiǎn)化了部分參數(shù),性能略優(yōu)于NGCF;但其存在局限性,部分?jǐn)?shù)據(jù)集并不適合過深的圖卷積網(wǎng)絡(luò)。LightGCN在NGCF基礎(chǔ)上去除了非線性激活函數(shù)與特征變換矩陣操作,取得的結(jié)果優(yōu)于NGCF;DGCF在現(xiàn)有圖卷積網(wǎng)絡(luò)基礎(chǔ)上挖掘了用戶意圖,在基線模型中表現(xiàn)最優(yōu)。

        本文提出的MSGCL模型對(duì)比各基準(zhǔn)算法在recall@20和NDCG@20指標(biāo)上均取得了最好的效果。在兩個(gè)數(shù)據(jù)集上,MSGCL較基準(zhǔn)模型中表現(xiàn)最好的模型(DGCF)在recall@20指標(biāo)上分別提升了5.1%、14.2%,在NDCG@20指標(biāo)上分別提升了4.5%、17.6%。這主要取決于以下幾個(gè)方面:a)MSGCL使用了混合采樣方法,可以從隱式反饋中采取更高質(zhì)量的樣本用于模型訓(xùn)練;b)本文模型通過LightGCN算法提取出用戶—項(xiàng)目的特征嵌入,去除了原始圖卷積網(wǎng)絡(luò)中對(duì)推薦任務(wù)較為冗余的非線性激活與特征變換,更為輕量高效;c)MSGCL還挖掘了用戶—項(xiàng)目結(jié)構(gòu)鄰居的潛在關(guān)系作為輔助信息,可以更為合理地向用戶推薦其感興趣的物品。

        2.4.2消融實(shí)驗(yàn)

        為了分析MSGCL中各組件的性能,驗(yàn)證混合采樣和鄰域?qū)Ρ葘W(xué)習(xí)對(duì)改進(jìn)推薦性能的有效性,通過以下實(shí)驗(yàn)進(jìn)行對(duì)比:a)V1,不改變采樣方法,運(yùn)用輕量圖卷積網(wǎng)絡(luò)提取用戶—項(xiàng)目特征;b)V2,在V1基礎(chǔ)上,僅將原始采樣方法替換為混合采樣方法;c)V3,在V1基礎(chǔ)上,僅增加鄰域?qū)Ρ葘W(xué)習(xí)輔助任務(wù),并利用多任務(wù)策略聯(lián)合訓(xùn)練。

        在兩個(gè)數(shù)據(jù)集Yelp2018和Amazon-book上的消融實(shí)驗(yàn)結(jié)果如表3所示。由表3可得,MSGCL的性能優(yōu)于V2和V3,這證明了混合采樣和鄰域?qū)Ρ葘W(xué)習(xí)兩者并不沖突,它們的融合對(duì)算法起到了優(yōu)化作用。以Yelp2018數(shù)據(jù)集為例,V2較MSGCL在recall@20指標(biāo)上降低了1.0%,在NDCG@20指標(biāo)上降低了0.9%;V3較MSGCL在recall@20指標(biāo)上降低了1.2%,在NDCG@20指標(biāo)上降低了1.4%。這表明了結(jié)合兩種方法的必要性,刪除兩者之一都會(huì)導(dǎo)致模型性能下降。

        此外,V2、V3推薦性能均優(yōu)于V1,表明混合采樣和鄰域?qū)Ρ葘W(xué)習(xí)均為改進(jìn)圖推薦模型的有效手段,進(jìn)一步證明了改進(jìn)采樣質(zhì)量和挖掘用戶—項(xiàng)目潛在關(guān)系對(duì)圖推薦系統(tǒng)的重要性。

        2.4.3超參數(shù)敏感性分析

        在MSGCL中,候選集大小M和溫度超參數(shù)τ為兩個(gè)重要參數(shù)。為了確定算法中這兩個(gè)參數(shù)的最優(yōu)值,采取的策略是固定其中一個(gè)參數(shù)尋找另一個(gè)的最優(yōu)值,找到最優(yōu)值后固定該值,以尋找下一個(gè)參數(shù)的最優(yōu)值。其中,M可能的取值為16、32、64;τ可能的取值為005、0075、01、0125、015。在Yelp2018數(shù)據(jù)集上分析M和τ的敏感性,實(shí)驗(yàn)結(jié)果如表4、5所示。

        由表4、5可以看出,M和τ的取值對(duì)推薦系統(tǒng)性能具有一定影響。候選集大小M決定了每次進(jìn)行混合采樣時(shí)所生成的難負(fù)樣本集合大小。一般情況下,增加M值能夠提升推薦性能,而M值過大時(shí),會(huì)導(dǎo)致難負(fù)樣本在所有樣本中占比過大,推薦性能下降。溫度超參數(shù)τ決定了對(duì)比學(xué)習(xí)任務(wù)對(duì)難以區(qū)分的負(fù)樣本的關(guān)注程度。τ越大,關(guān)注度越??;τ越小,關(guān)注度越大[28]。當(dāng)溫度超參數(shù)τ采用合適的值時(shí),負(fù)樣本會(huì)獲得更大的梯度,從而與正樣本分離。在投影空間中,小的τ值能夠使模型關(guān)注距離正樣本更近的負(fù)樣本。當(dāng)M=32、τ=005時(shí),recall@20和NDCG@20指標(biāo)均取得了最好效果。

        2.4.4實(shí)例分析

        為了進(jìn)一步觀察和說明MSGCL在實(shí)際推薦效果上的結(jié)果差異,本文挑選出了MSGCL和LightGCN在Yelp2018數(shù)據(jù)集上對(duì)某一用戶的個(gè)性化推薦結(jié)果,將其作為樣本案例進(jìn)行對(duì)比。

        在實(shí)驗(yàn)中,將Yelp2018數(shù)據(jù)集劃分成訓(xùn)練集和測(cè)試集。表6是該用戶在訓(xùn)練集中的樣本實(shí)例,其中,交互過的項(xiàng)目ID代表與該用戶產(chǎn)生過交互的項(xiàng)目ID;地點(diǎn)和商戶類型代表項(xiàng)目ID的實(shí)際含義,即該用戶查看過某一地點(diǎn)的某商戶。表7是該用戶在測(cè)試集中的樣本實(shí)例。

        經(jīng)過實(shí)驗(yàn)后發(fā)現(xiàn),本文提出的MSGCL對(duì)測(cè)試集中ID為771、2740的項(xiàng)目進(jìn)行了成功推薦,而LightGCN僅對(duì)ID為2740的項(xiàng)目進(jìn)行了成功推薦。當(dāng)用戶與項(xiàng)目的交互記錄過少,會(huì)產(chǎn)生數(shù)據(jù)稀疏性問題,造成推薦效果下降。本文提出的MSGCL相較LightGCN對(duì)該問題進(jìn)行了一定的緩解,驗(yàn)證了本文模型具有更好的推薦效果。

        3結(jié)束語(yǔ)

        本文提出了一種基于混合采樣的圖對(duì)比學(xué)習(xí)推薦算法(MSGCL),使用混合采樣方法替代直接從原始樣本負(fù)采樣的方法,生成注入正樣本信息的難負(fù)樣本,成功改進(jìn)了采樣質(zhì)量,優(yōu)化推薦模型訓(xùn)練。定義的鄰域?qū)Ρ葘W(xué)習(xí)任務(wù)框架,能夠有效挖掘用戶(項(xiàng)目)間的潛在聯(lián)系。在兩個(gè)數(shù)據(jù)集上的結(jié)果表明,相較于當(dāng)前先進(jìn)的基線模型,MSGCL的性能表現(xiàn)占優(yōu)。

        在未來的工作中,可以考慮向模型中加入更多輔助信息來改善推薦性能,如知識(shí)圖譜、用戶偏好等。此外,可以考慮使用異構(gòu)網(wǎng)絡(luò)來挖掘用戶—用戶、項(xiàng)目—項(xiàng)目此類自身的聯(lián)系,構(gòu)建更為復(fù)雜有效的推薦框架。

        參考文獻(xiàn):

        [1]徐鵬宇,劉華鋒,劉冰,等.標(biāo)簽推薦方法研究綜述[J].軟件學(xué)報(bào),2022,33(4):1244-1266.(XuPengyu,LiuHuafeng,LiuBing,etal.Surveyoftagrecommendationmethods[J].JournalofSoftware,2022,33(4):1244-1266.)

        [2]BalabanovicM,ShohamY.Fab:content-based,collaborativerecommendation[J].CommunicationoftheACM,1997,40(3):66-72.

        [3]AdomaviciusG,TuzhilinA.Towardthenextgenerationofrecommendersystems:asurveyofthestate-of-the-artandpossibleextensions[J].IEEETransonKnowledgeandDataEngineering,2005,17(6):734-749.

        [4]KorenY,BellR,VolinskyC.Matrixfactorizationtechniquesforre-commendersystems[J].Computer,2009,42(8):30-37.

        [5]湯佳欣,陳陽(yáng),周孟瑩,等.深度學(xué)習(xí)方法在興趣點(diǎn)推薦中的應(yīng)用研究綜述[J].計(jì)算機(jī)工程,2022,48(1):12-23,42.(TangJia-xin,ChenYang,ZhouMengying,etal.AsurveyofstudiesondeeplearningapplicationsinPOIrecommendation[J].ComputerEngineering,2022,48(1):12-23,42.)

        [6]HeXiangnan,LiaoLizi,ZhangHanwang,etal.Neuralcollaborativefiltering[C]//Procofthe26thInternationalConferenceonWorldWideWeb.NewYork:ACMPress,2017:173-182.

        [7]鄧凱,黃佳進(jìn),秦進(jìn).基于物品的統(tǒng)一推薦模型[J].計(jì)算機(jī)應(yīng)用,2020,40(2):530-534.(DengKai,HuangJiajin,QinJin.Item-basedunifiedrecommendationmodel[J].JournalofComputerApplications,2020,40(2):530-534.)

        [8]付峻宇,朱小棟,陳晨.基于圖卷積的雙通道協(xié)同過濾推薦算法[J].計(jì)算機(jī)應(yīng)用研究,2023,40(1):129-135.(FuJunyu,ZhuXiaodong,ChenChen.Two-channelcollaborativefilteringrecommendationalgorithmbasedongraphconvolution[J].ApplicationResearchofComputers,2023,40(1):129-135.)

        [9]夏鴻斌,陸煒,劉淵.基于異構(gòu)鄰域聚合的協(xié)同過濾推薦算法[J].模式識(shí)別與人工智能,2021,34(8):712-722.(XiaHongbin,LuWei,LiuYuan.Collaborativefilteringwithheterogeneousneighborhoodaggregation[J].PatternRecognitionandArtificialIntelligence,2021,34(8):712-722.)

        [10]YingR,HeRuining,ChenKaifeng,etal.GraphconvolutionalneuralnetworksforWeb-scalerecommendersystems[C]//Procofthe24thACMSIGKDDInternationalConferenceonKnowledgeDiscoveryamp;DataMining.NewYork:ACMPress,2018:974-983.

        [11]WangXiang,HeXiangnan,WangMeng,etal.Neuralgraphcollaborativefiltering[C]//Procofthe42ndInternationalACMSIGIRConferenceonResearchandDevelopmentinInformationRetrieval.NewYork:ACMPress,2019:165-174.

        [12]ChenLei,WuLe,HongRichang,etal.Revisitinggraphbasedcollabo-rativefiltering:alinearresidualgraphconvolutionalnetworkapproach[C]//ProcofAAAIConferenceonArtificialIntelligence.2020:27-34.

        [13]HeXiangnan,DengKuan,WangXiang,etal.LightGCN:simplifyingandpoweringgraphconvolutionnetworkforrecommendation[C]//Procofthe43rdInternationalACMSIGIRConferenceonResearchandDevelopmentinInformationRetrieval.NewYork:ACMPress,2020:639-648.

        [14]RendleS,F(xiàn)reudenthalerC,GantnerZ,etal.BPR:Bayesianpersona-lizedrankingfromimplicitfeedback[C]//Procofthe25thConfe-renceonUncertaintyinArtificialIntelligence.Arlington,VA:AUAIPress,2009:452-461.

        [15]HuangTinglin,DongYuxiao,DingMingng,etal.MixGCF:animprovedtrainingmethodforgraphneuralnetwork-basedrecommendersystems[C]//Procofthe27thACMSIGKDDConferenceonKnow-ledgeDiscoveryamp;DataMining.NewYork:ACMPress,2021:665-674.

        [16]KalantidisY,SariyildizMB,PionN,etal.Hardnegativemixingforcontrastivelearning[EB/OL].(2020-12-04).https://arxiv.org/pdf/2010.01028v2.pdf.

        [17]YuHao,WangHuanyu,WuJianxin.Mixupwithouthesitation[C]//Procofthe11thInternationalConferenceonImageandGraphics.Cham:Springer,2021:143-154.

        [18]ZhangWeinan,ChenTianqi,WangJun,etal.Optimizingtop-ncolla-borativefilteringviadynamicnegativeitemsampling[C]//Procofthe36thInternationalACMSIGIRConferenceonResearchandDevelopmentinInformationRetrieval.NewYork:ACMPress,2013:785-788.

        [19]徐冰冰,岑科廷,黃俊杰,等.圖卷積神經(jīng)網(wǎng)絡(luò)綜述[J].計(jì)算機(jī)學(xué)報(bào),2020,43(5):755-780.(XuBingbing,CengKeting,HuangJunjie,etal.Asurveyongraphconvolutionalneuralnetwork[J].ChineseJournalofComputers,2020,43(5):755-780.)

        [20]XuKeyulu,LiChengtao,TianYonglong,etal.Representationlearningongraphswithjumpingknowledgenetworks[C]//Procofthe35thInternationalConferenceonMachineLearning.2018:5453-5462.

        [21]LinZihan,TianChangxin,HouYupeng,etal.Improvinggraphcollabo-rativefilteringwithneighborhood-enrichedcontrastivelearning[C]//ProcofACMWebConference.NewYork:ACMPress,2022:2320-2329.

        [22]WuJiancan,WangXiang,F(xiàn)engFuli,etal.Self-supervisedgraphlearningforrecommendation[C]//Procofthe44thInternationalACMSIGIRConferenceonResearchandDevelopmentinInformationRetrieval.NewYork:ACMPress,2021:726-735.

        [23]VandenOordA,LiYazhe,VinyalsO.Representationlearningwithcontrastivepredictivecoding[EB/OL].(2019-01-22).https://arxiv.org/pdf/1807.03748.pdf

        [24]WangXiang,JinHongye,ZhangAn,etal.Disentangledgraphcollabo-rativefiltering[C]//Procofthe43rdInternationalACMSIGIRConferenceonResearchandDevelopmentinInformationRetrieval.NewYork:ACMPress,2020:1001-1010.

        [25]KingmaDP,BaJ.Adam:amethodforstochasticoptimization[EB/OL].(2017-01-30).https://arxiv.org/pdf/1412.6980.pdf.

        [26]GlorotX,BengioY.Understandingthedifficultyoftrainingdeepfeedforwardneuralnetworks[C]//Procofthe13thInternationalConferenceonArtificialIntelligenceandStatistics.2010:249-256.

        [27]HeKaiming,ZhangXiangyu,RenShaoqing,etal.Deepresiduallearningforimagerecognition[C]//ProcofIEEEConferenceonComputerVisionandPatternRecognition.WashingtonDC:IEEEComputerSociety,2016:770-778.

        [28]WangFeng,LiuHuaping.Understandingthebehaviourofcontrastiveloss[C]//ProcofIEEE/CVFConferenceonComputerVisionandPatternRecognition.Piscataway,NJ:IEEEPress,2021:2495-2504.

        久久精品re| 免费观看性欧美大片无片| 国产亚洲av片在线观看18女人| 日本在线观看不卡| 亚洲中文字幕乱码在线视频| 美女视频一区二区三区在线| 国产精品久久久久乳精品爆| 麻豆精产国品| 无遮挡很爽视频在线观看 | 人人人妻人人澡人人爽欧美一区 | 在线看片无码永久免费aⅴ| 亚洲va中文字幕欧美不卡| 日本一区二区三区经典视频| 蜜臀性色av免费| 国产思思99re99在线观看| 麻豆成年视频在线观看| 中文字幕久久久人妻人区| 午夜精品久久久久久毛片| 99热精品成人免费观看| 亚洲国产av自拍精选| 国产三级久久精品三级91| 国产精品午夜爆乳美女视频| 97人妻碰免费视频| 激情免费视频一区二区三区| 优优人体大尺大尺无毒不卡| 日韩精品无码免费专区网站| 日韩精品视频在线观看免费| 特级国产一区二区三区| 2019最新中文字幕在线观看| 精品少妇一区二区三区视频| 亚洲综合一区二区三区蜜臀av| 午夜国产视频一区二区三区| 亚洲国产成人久久综合下载| 免费精品美女久久久久久久久久| 色男色女午夜福利影院| 艳z门照片无码av| 免费的毛片视频| 久久迷青品着产亚洲av网站| 华人免费网站在线观看| 草草久久久无码国产专区| 亚洲成在人网av天堂|