亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于會話的多粒度圖神經(jīng)網(wǎng)絡(luò)推薦模型

        2021-12-07 10:08:58任俊偉曾誠肖絲雨喬金霞何鵬
        計算機(jī)應(yīng)用 2021年11期
        關(guān)鍵詞:用戶信息模型

        任俊偉,曾誠,2,3*,肖絲雨,喬金霞,何鵬,2,3

        (1.湖北大學(xué)計算機(jī)與信息工程學(xué)院,武漢 430062;2.湖北省軟件工程工程技術(shù)研究中心(湖北大學(xué)),武漢 430062;3.智慧政務(wù)與人工智能應(yīng)用湖北省工程研究中心(湖北大學(xué)),武漢 430062)

        0 引言

        隨著互聯(lián)網(wǎng)信息資源的爆炸式增長,在搜索、電子商務(wù)、視頻網(wǎng)站等許多的Web 應(yīng)用中,“信息過載”問題也日益突出。如何快速有效地從紛繁復(fù)雜的數(shù)據(jù)中獲取有價值的信息成為了當(dāng)前的一大難題,而推薦系統(tǒng)作為解決“信息過載”問題的有效方法[1],已經(jīng)成為學(xué)術(shù)界和工業(yè)界的關(guān)注熱點并得到了廣泛應(yīng)用。目前,推薦系統(tǒng)在很多領(lǐng)域得到了成功應(yīng)用,包括電子商務(wù)(如Amazon、eBay、Netflix、阿里巴巴等)、信息檢索(如iGoogle、MyYahoo、百度等)、社交網(wǎng)絡(luò)(Facebook、Twitter、騰訊等)、位置服務(wù)(如Foursquare、Yelp、大眾點評等)、新聞推送(如GoogleNews、GroupLens、今日頭條等)等各個領(lǐng)域[2]。

        目前,大多數(shù)的推薦系統(tǒng)都是基于用戶的個人信息和歷史行為數(shù)據(jù)進(jìn)行推薦。然而,在許多服務(wù)中,用戶身份可能是未知的,并且只有當(dāng)前會話中的用戶行為數(shù)據(jù)是可用的。因此,在當(dāng)前會話中,根據(jù)用戶有限的行為數(shù)據(jù)進(jìn)行相應(yīng)的推薦是非常重要的,相較于傳統(tǒng)的推薦算法,基于會話的推薦不需要足夠的用戶-物品交互信息就可以進(jìn)行比較準(zhǔn)確的推薦。

        近年來,大多數(shù)研究工作關(guān)注如何更好地建模用戶的點擊序列,而推薦場景中的一些其他信息,例如類別信息,沒有得到足夠的重視,類別信息作為物品的一種屬性,對物品有聚合作用,可作為物品信息的一種重要補(bǔ)充。本文提出了一種多粒度圖神經(jīng)網(wǎng)絡(luò)模型來解決上述問題,通過圖神經(jīng)網(wǎng)絡(luò)得到物品和物品類別的嵌入信息,然后使用注意力機(jī)制更好地捕捉用戶的注意力信息,減少噪聲數(shù)據(jù)的影響,最后使用循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,RNN)獲取會話時序信息進(jìn)行推薦。

        1 相關(guān)工作

        1.1 基于會話的傳統(tǒng)推薦方法

        基于會話的傳統(tǒng)推薦算法分為矩陣分解、基于物品的鄰域方法和馬爾可夫決策過程等。

        矩陣分解[3-4]是推薦系統(tǒng)的一種常見方法,其基本目標(biāo)是把用戶偏好和物品屬性投影到同一個隱因子空間,以用戶偏好和物品屬性的匹配程度來預(yù)測評分。由于基于會話的推薦只有一些用戶的點擊序列信息,因此,矩陣分解并不太適合基于會話的推薦。基于物品的鄰域方法[5]根據(jù)同一會話中物品的共現(xiàn)情況來計算物品的相似性從而進(jìn)行推薦,但是這些方法卻很難考慮物品在會話中的順序,僅僅根據(jù)最后一次點擊的物品產(chǎn)生預(yù)測。Shani 等[6]將基于會話的推薦生成作為一個順序優(yōu)化問題,采用馬爾可夫決策過程求解。而Gu 等[7]提出了一種馬爾可夫決策過程和潛因子模型的融合模型,模型不僅捕捉到用戶的長期偏好,還捕捉到了物品交互的順序?qū)ν扑]結(jié)果所帶來的影響。

        1.2 基于會話的深度學(xué)習(xí)推薦方法

        循環(huán)神經(jīng)網(wǎng)絡(luò)由于具有記憶性、參數(shù)共享并且圖靈完備(Turing Completeness),因此在對序列的非線性特征進(jìn)行學(xué)習(xí)時具有一定優(yōu)勢。RNN 在自然語言領(lǐng)域取得了十分顯著的成績,同時也成功地應(yīng)用于其他很多領(lǐng)域,例如順序點擊預(yù)測[8]、位置預(yù)測[9]。Hidasi 等[10]將RNN 運用于基于會話的推薦,基于點擊和被點擊物品的特性對會話進(jìn)行建模,將一個會話中發(fā)生的一系列點擊行為當(dāng)作一個序列,預(yù)測該會話下一個最可能點擊的物品。Tuan 等[11]將會話點擊與內(nèi)容特性(例如物品描述和物品類別)結(jié)合在一起,通過三維卷積神經(jīng)網(wǎng)絡(luò),將所有類型的特征使用字符級表示,進(jìn)而生成推薦。Li等[12]提出了基于神經(jīng)注意力會話的推薦(Neural Attentive session-based RecomMendation,NARM)模型,利用RNN 上的注意力機(jī)制來捕捉用戶的順序行為特征和主要目的。Liu等[13]提出了短期注意力/記憶優(yōu)先級(Short-Term Attention/Memory Priority,STAMP)模型,該模型將注意力網(wǎng)絡(luò)與RNN融合,以有效地捕獲用戶的一般興趣和當(dāng)前興趣,在捕捉用戶會話中用戶的主要興趣的同時有效避免了因為意外點擊而引起的興趣偏移。Meng 等[14]將用戶的微行為和物品知識納入基于會話的推薦的多任務(wù)學(xué)習(xí)中,通過在微行為級別上建模,以充分捕獲會話中的過渡模式并減輕數(shù)據(jù)稀疏性問題。

        圖是一種結(jié)構(gòu)化數(shù)據(jù),包含著十分豐富的關(guān)系型信息,它是由頂點和邊構(gòu)成的一種數(shù)學(xué)關(guān)系。而圖神經(jīng)網(wǎng)絡(luò)(Graph Neural Network,GNN)是一種連接主義模型,它靠圖中節(jié)點之間的信息傳遞來捕捉圖中的依賴關(guān)系。近年來,GNN 得到了廣泛的應(yīng)用,如腳本事件預(yù)測[15]、情景識別[16]和圖像分類[17]。

        卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)是GNN 起源的首要動機(jī),另一個動機(jī)就是圖嵌入,即如何將圖中的節(jié)點、邊和子圖以低維向量的形式表現(xiàn)出來。基于表示學(xué)習(xí),無監(jiān)督的算法DeepWalk[18]被認(rèn)為是第一種使用圖嵌入技術(shù)的模型,該模型基于隨機(jī)游走學(xué)習(xí)圖節(jié)點的表示。此外,還有node2vec[19]、LINE(Large-Scale Information Network Embedding)[20]等。將經(jīng)典的神經(jīng)網(wǎng)絡(luò)CNN 和RNN 應(yīng)用在圖結(jié)構(gòu)數(shù)據(jù)上,Duvenaud 等[21]引入了可以直接對任意尺寸和形狀進(jìn)行操作的卷積神經(jīng)網(wǎng)絡(luò),Gori 等[22]以循環(huán)神經(jīng)網(wǎng)絡(luò)的形式,將圖神經(jīng)網(wǎng)絡(luò)用于處理有向圖。由于基于會話的推薦中用戶交互的物品信息能夠構(gòu)成圖結(jié)構(gòu),Wu等[23]提出了一種圖神經(jīng)網(wǎng)絡(luò)模型,將會話信息建模為圖結(jié)構(gòu)化的數(shù)據(jù),保留物品之間的關(guān)系結(jié)構(gòu)。Xu 等[24]提出了一種基于圖神經(jīng)網(wǎng)絡(luò)的圖上下文自注意力模型,利用自注意力網(wǎng)絡(luò)和圖神經(jīng)網(wǎng)絡(luò)之間的互補(bǔ)性來增強(qiáng)推薦性能。Song等[25]認(rèn)為用戶的興趣是動態(tài)的,每個時段興趣不同,并且用戶的興趣容易受他們朋友的興趣影響,基于此提出了一種動態(tài)圖注意力網(wǎng)絡(luò),用于對用戶動態(tài)興趣和上下文相關(guān)的社交影響進(jìn)行建模。Yu 等[26]提出了一種目標(biāo)注意力圖神經(jīng)網(wǎng)絡(luò)(Target Attentive GNN,TAGNN)模型,自適應(yīng)地激活了用戶對不同目標(biāo)項目的不同興趣,學(xué)習(xí)到的興趣表示向量隨目標(biāo)項目的不同而變化,極大提高了模型的表達(dá)能力。Wang 等[27]提出了全局上下文增強(qiáng)圖神經(jīng)網(wǎng)絡(luò)(Global Context Enhanced GNN,GCE-GNN),利用會話圖和全局圖中的項目轉(zhuǎn)換,從而更好地推斷當(dāng)前會話的用戶偏好。

        基于會話的傳統(tǒng)推薦方法大多未考慮會話序列的點擊順序,而基于會話的深度學(xué)習(xí)推薦方法往往忽視了物品類別這一重要信息?;诖耍疚奶岢隽艘环N基于會話的多粒度圖神經(jīng)網(wǎng)絡(luò)推薦模型(Session-based Recommendation model of Multi-granular GNN,SRMGNN),通過圖神經(jīng)網(wǎng)絡(luò)不僅利用了會話序列的點擊順序信息,考慮了節(jié)點間的相互關(guān)系,而且使用了物品類別信息作為重要補(bǔ)充,極大提升了推薦的準(zhǔn)確率。

        2 基于會話的多粒度圖神經(jīng)網(wǎng)絡(luò)推薦模型

        2.1 模型提出動機(jī)

        在現(xiàn)實場景中,用戶在一次會話中點擊的物品之間是存在某種內(nèi)在聯(lián)系的,并且會話中用戶的興趣可能會發(fā)生偏移,例如用戶點擊物品的類別會發(fā)生變化。如圖1 所示,當(dāng)前會話中,用戶點擊了一雙運動鞋,然后查看了一部手機(jī)。接下來用戶又點擊了與手機(jī)相關(guān)的電子產(chǎn)品“耳機(jī)”,為了與之前查看的手機(jī)進(jìn)行比較,用戶又點擊了另一款手機(jī),最后用戶又選擇了另一款耳機(jī)與之前的一款進(jìn)行比較。在整個會話中,用戶的興趣發(fā)生了兩次偏移,從“運動鞋”到“手機(jī)”再到“耳機(jī)”,從類別上來看,用戶最感興趣的“手機(jī)”和“耳機(jī)”同屬于電子產(chǎn)品這一個類別,并且這兩個類別之間是存在某種內(nèi)在聯(lián)系的,用戶兩次點擊的手機(jī)或者耳機(jī)之間也是存在某種內(nèi)在的聯(lián)系。利用上述物品類別上的信息以及物品之間的內(nèi)在聯(lián)系,推薦系統(tǒng)得到如圖1中所示的推薦列表。

        圖1 基于會話的推薦系統(tǒng)Fig.1 Session-based recommendation system

        通過以上分析可以看出,物品之間存在某種內(nèi)在聯(lián)系,物品對應(yīng)的類別同樣也包含了一些內(nèi)在聯(lián)系,而當(dāng)前大多數(shù)的推薦系統(tǒng)卻忽略了物品的類別信息,因此本文提出了多粒度的圖神經(jīng)網(wǎng)絡(luò)模型,使用圖神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)物品的信息,同時學(xué)習(xí)物品的類別信息作為物品信息的補(bǔ)充,以提高推薦系統(tǒng)的推薦準(zhǔn)確度。

        2.2 相關(guān)定義

        基于會話的推薦問題主要是根據(jù)用戶當(dāng)前會話的點擊序列信息,預(yù)測用戶下一次點擊的物品。如圖1 所示,用戶在當(dāng)前會話的一段時間內(nèi)點擊了一系列的物品,將此點擊序列信息作為模型的輸入,模型對序列信息進(jìn)行建模,預(yù)測用戶可能感興趣的物品,輸出top-K個物品的推薦列表。

        基于會話的推薦問題的形式化定義可以描述為,令I(lǐng)={i1,i2,…,im} 表示所有物品的集合,s={(ts,1,is,1),(ts,2,is,2),…,(ts,n,is,n)}表示用戶一次會話的點擊序列,其中,ts,n表示會話序列s第n次點擊發(fā)生的時間,is,n∈I表示會話序列s第n次點擊的物品。而基于會話的推薦問題的任務(wù)就是構(gòu)建一個模型M,對于任意給定的一次會話序列sj的n個點擊物品的序列作為輸入,預(yù)測第n+1 個最可能點擊的物品isj,n+1。模型M 對所有的物品進(jìn)行打分,得到所有物品在會話序列sj中的分?jǐn)?shù)向量,然后對得分從大到小進(jìn)行排序,選取得分最高的k個物品作為會話序列sj的推薦物品列表。

        2.3 解決方案

        本文提出的基于會話的多粒度圖神經(jīng)網(wǎng)絡(luò)推薦模型(SRMGNN)主要由物品圖神經(jīng)網(wǎng)絡(luò)層(Item Graph Neural Network)、物品類別圖神經(jīng)網(wǎng)絡(luò)層(Item Category Graph Neural Network)、注意力網(wǎng)絡(luò)層(Attention Network)、向量表示融合層(Fusion Layer)以及門限循環(huán)單元(Gated Recurrent Unit,GRU)[28]層組成,模型結(jié)構(gòu)如圖2所示。首先使用物品圖神經(jīng)網(wǎng)絡(luò)層學(xué)習(xí)物品點擊序列中物品的嵌入向量Ei,物品類別圖神經(jīng)網(wǎng)絡(luò)層學(xué)習(xí)物品類別點擊序列中物品類別的嵌入向量Ti,然后使用注意力網(wǎng)絡(luò),通過對物品嵌入向量Ei和物品類別嵌入向量Ti賦予不同的注意力權(quán)重,使用向量表示融合層融合得到融合后的嵌入向量Vi,最后生成推薦列表,方案的詳細(xì)實施步驟如下。

        圖2 多粒度圖神經(jīng)網(wǎng)絡(luò)推薦模型結(jié)構(gòu)Fig.2 Multi-granular graph neural network recommendation model structure

        1)獲取用戶會話中的物品點擊序列信息,將其轉(zhuǎn)換成有向圖Gi=(vi,εi),圖中每個節(jié)點vi,k∈vi表示物品,每條邊(vi,k-1,vi,k)∈εi表示用戶在點擊了物品vi,k-1后點擊了物品vi,k。

        2)獲取用戶物品點擊序列中的物品對應(yīng)的類別信息后,構(gòu)建出物品類別點擊序列信息,將其轉(zhuǎn)換成有向圖Gc=(vc,εc),圖中每個節(jié)點vc,k∈vc表示物品類別,每條邊(vc,k-1,vc,k)∈εi表示用戶在點擊了物品類別vc,k-1后點擊了物品類別vc,k。例如對于物品點擊序列(I1,I2,I3,I2,I4,I5)和物品類別點擊序列(C1,C2,C3,C2,C4,C5),可以轉(zhuǎn)換成如圖3 所示的有向圖。

        圖3 用戶點擊序列與對應(yīng)的有向圖Fig.3 User click sequence and corresponding directed graph

        3)為方便神經(jīng)網(wǎng)絡(luò)進(jìn)行處理,使用鄰接矩陣存儲有向圖數(shù)據(jù),并為每個有向圖構(gòu)建一個節(jié)點連接關(guān)系矩陣As,由出度矩陣和入度矩陣組成,同時對度值進(jìn)行歸一化處理[23]。以計算出度矩陣中A2,3的值為例,使用I2節(jié)點到I3節(jié)點的出邊的數(shù)量1 除以I2節(jié)點總出邊數(shù)量2 得到A2,3的值1/2。構(gòu)建節(jié)點連接關(guān)系矩陣可以讓模型學(xué)到豐富的雙向關(guān)系,而不是簡單的單向轉(zhuǎn)移關(guān)系。例如對于物品點擊序列(I1,I2,I3,I2,I4,I5),節(jié)點連接關(guān)系矩陣如圖4 所示。同理,也可以生成物品類別點擊序列(C1,C2,C3,C2,C4,C5)的節(jié)點連接關(guān)系矩陣。

        圖4 節(jié)點連接關(guān)系矩陣Fig.4 Node connection relationship matrix

        4)將物品會話圖和物品類別會話圖同時輸入到對應(yīng)的圖神經(jīng)網(wǎng)絡(luò)(GNN)中,GNN 提取會話圖中節(jié)點信息以及節(jié)點的連接關(guān)系信息進(jìn)行學(xué)習(xí),得到物品嵌入向量Ei以及物品類別的嵌入向量Ti。學(xué)習(xí)以及更新過程的計算式如下:

        5)將得到的物品嵌入向量Ei和物品類別嵌入向量Ti輸入到注意力網(wǎng)絡(luò)中,使用注意力機(jī)制,對不同的物品和物品類別添加不同的注意力獲取得到不同注意力級別的物品嵌入向量和物品類別嵌入向量。隨后將和輸入到向量表示融合層(Fusion Layer),通過融合相加得到增強(qiáng)后的物品嵌入向量Vi。

        6)將物品嵌入向量Vi序列輸入到GRU 中,通過對用戶點擊序列時序信息的提取與學(xué)習(xí),得到嵌入向量Sh。將嵌入向量Sh與所有候選物品vi進(jìn)行計算,得到每個候選物品vi的得分,最后經(jīng)過softmax激活函數(shù)后得到模型的預(yù)測輸出:

        模型使用交叉熵函數(shù)作為損失函數(shù),計算式如下:

        3 實驗與結(jié)果分析

        3.1 數(shù)據(jù)處理

        本文在公開的Yoochoose 數(shù)據(jù)集和Diginetica 數(shù)據(jù)集上進(jìn)行實驗。Yoochoose 數(shù)據(jù)集是在RecSys Challenge 2015上發(fā)布的一個公開數(shù)據(jù)集,由英國的在線零售商提供的用戶在2014年的行為記錄,包括點擊、購買等組成。數(shù)據(jù)集共包含了9249729 件商品的共計33003994 條用戶點擊記錄,每條記錄包含SessionID、商品ID、商品類別以及時間戳四個信息,數(shù)據(jù)集并未提供用戶的相關(guān)信息。Diginetica 數(shù)據(jù)集來自CIKM Cup 2016比賽,包含43097件商品共計204771條用戶點擊記錄,每條記錄包含SessionID、用戶ID、商品ID、商品類別ID、時間戳和日期六個信息,數(shù)據(jù)集中雖然有用戶ID 字段,但是字段值均為NA。

        由于會話長度過短或者物品瀏覽次數(shù)過少的數(shù)據(jù)可使用價值不高,故參照Li等[12]和Liu 等[13]的做法,本文過濾了會話長度等于1和物品出現(xiàn)次數(shù)少于5次的會話數(shù)據(jù)。同時,參照Tan 等[29]的做法,對于輸入的會話序列進(jìn)行了序列生成,通過對會話序列的拆分,生成了對應(yīng)的會話序列和標(biāo)簽。本文對數(shù)據(jù)集進(jìn)行了拆分:對于Yoochoose 數(shù)據(jù)集,使用最后一天的數(shù)據(jù)作為測試集,其他數(shù)據(jù)作為訓(xùn)練集;而對于Diginetica 數(shù)據(jù)集,使用最后7 天的數(shù)據(jù)作為測試集,其他的數(shù)據(jù)作為訓(xùn)練集。由于Yoochoose數(shù)據(jù)集數(shù)據(jù)量很大,為了便于模型的訓(xùn)練和測試,本文使用常用的切分方式,將數(shù)據(jù)集切分成了1/64和1/4兩個數(shù)據(jù)集。數(shù)據(jù)集的相關(guān)統(tǒng)計信息如表1所示。

        表1 數(shù)據(jù)集統(tǒng)計信息Tab.1 Dataset statistics

        3.2 基準(zhǔn)方法

        為了評估本文所提出的模型的有效性,將該模型與相關(guān)工作中提出的8種模型進(jìn)行了對比。

        1)POP[10]:是一種最簡單的流行度預(yù)測方法,該方法將數(shù)據(jù)集中出現(xiàn)頻率最高的商品進(jìn)行推薦。該方法思想簡單,實現(xiàn)也不復(fù)雜,在某些場景中仍然十分有效。

        2)S-POP[10]:是一種基于當(dāng)前會話的流行度預(yù)測方法,該方法為用戶推薦當(dāng)前會話下出現(xiàn)頻率最高的商品,推薦列表會隨著會話的變化而不斷變化。

        3)Item-KNN(Item-basedK-Nearest Neighbour)[5,30]:基于物品的K-近鄰算法,通過召回和會話最相似的物品進(jìn)行推薦。該方法主要通過計算物品與物品之間的余弦相似度來衡量物品之間的相似性,在會話推薦中主要根據(jù)物品的共現(xiàn)度來計算物品的相似度。

        4)BPR-MF(Bayesian Personalized Ranking-Matrix Factorization)[31]:目前最常用的矩陣算法之一,主要通過隨機(jī)梯度下降法優(yōu)化pairwise排序損失函數(shù)。

        5)FPMC(Factoring Personalized Markov Chains)[32]:該模型將馬爾可夫鏈模型和矩陣分解結(jié)合,為每個用戶生成單獨的轉(zhuǎn)移概率矩陣,然后生成轉(zhuǎn)移矩陣立方體。該模型主要用于推薦系統(tǒng)中預(yù)測未知物品引起用戶興趣的可能性,并以此排出物品推薦列表。

        6)GRU4REC[10]:第一個提出將循環(huán)神經(jīng)網(wǎng)絡(luò)用于會話推薦任務(wù)的方法,利用循環(huán)神經(jīng)網(wǎng)絡(luò)建模用戶的點擊序列,并根據(jù)物品“熱門程度”進(jìn)行采樣,根據(jù)采樣結(jié)果劃分正負(fù)樣本,使用基于排名的損失函數(shù)。

        7)神經(jīng)注意力模型(Neural Attentive session-based Recom Mendation,NARM)[12]:在循環(huán)神經(jīng)網(wǎng)絡(luò)會話推薦模型的基礎(chǔ)上,加入了注意力機(jī)制。該模型利用注意力機(jī)制從隱狀態(tài)捕獲用戶在當(dāng)前會話的目的,并結(jié)合用戶瀏覽時的序列行為進(jìn)行物品推薦。

        8)STAMP[13]:該模型引入記憶力與注意力機(jī)制,同時考慮用戶長/短期興趣,并通過提高短期興趣的權(quán)重來減輕興趣漂移對推薦結(jié)果的影響。

        3.3 評價指標(biāo)

        在推薦場景中,大多數(shù)基于會話的推薦能夠推薦的物品數(shù)量都受到一定因素的影響,因此大多數(shù)推薦問題仍然是Top-K推薦問題。本文在評測模型時,采用Precision@K和MRR@K(Mean Reciprocal Rank@K)兩種評價指標(biāo),這兩種指標(biāo)也是目前基于會話的推薦場景中最常用的評價指標(biāo)。

        Precision@K用于衡量基于會話的推薦系統(tǒng)的預(yù)測準(zhǔn)確性,表示推薦結(jié)果列表中排在前K個推薦物品中,有正確物品的樣本所占的比例,該算法的定義為:

        其中:nhit表示前K個推薦物品中有正確物品的樣本數(shù)量;N表示測試集的總樣本數(shù)。

        MRR@K表示平均倒數(shù)排名,在Precision@K方法的基礎(chǔ)上,加入了商品位置的影響。在推薦物品列表中物品的位置越靠前,則其值越大,反之越小,當(dāng)物品不在前20 個推薦物品中時,該值為0。該算法的定義為:

        其中:N代表測試集的總樣本數(shù);rank(i)表示第i個測試樣本的推薦列表中正確物品所在的排列位置。

        本文在評價模型時,取用K=20,因為在大多數(shù)的基于會話的推薦系統(tǒng)的實際場景中,大多數(shù)用戶僅僅關(guān)注出現(xiàn)在第一頁的推薦物品。

        3.4 參數(shù)設(shè)置

        本文模型的參數(shù)設(shè)定如下:初始學(xué)習(xí)率為0.001,學(xué)習(xí)率衰減系數(shù)為0.1,訓(xùn)練的Batch 大小為100,迭代次數(shù)為10。物品向量以及物品類別向量的維度均為100,物品圖神經(jīng)網(wǎng)絡(luò)嵌入表示層、物品類別圖神經(jīng)網(wǎng)絡(luò)嵌入表示層以及GRU 層的隱層節(jié)點個數(shù)均為100。所有權(quán)重矩陣均采用服從N(0,0.1)的高斯分布的隨機(jī)數(shù)初始化,L2 懲罰系數(shù)為10-5。模型的損失函數(shù)使用交叉熵?fù)p失函數(shù),使用Adam 優(yōu)化方法對模型參數(shù)進(jìn)行求解。

        3.5 結(jié)果分析

        為了驗證本文提出的基于會話的多粒度圖神經(jīng)網(wǎng)絡(luò)推薦模型(SRMGNN)在加入了類別信息之后對模型效果的提升,本文將該模型與未加入類別信息的基于會話的圖神經(jīng)網(wǎng)絡(luò)推薦模型(Session-based Recommendation with Graph Neural Network,SRGNN)進(jìn)行了對比實驗,對比實驗在Yoochoose 1/64、Yoochoose 1/4和Diginetica三個數(shù)據(jù)集進(jìn)行。

        在Yoochoose 1/64 數(shù)據(jù)集上,模型SRMGNN 與模型SRGNN的Precision@20和MRR@20的效果如圖5所示。

        在Yoochoose 1/64 數(shù)據(jù)集上,SRMGNN 和SRGNN 在第4個epoch 之后準(zhǔn)確率未出現(xiàn)較大波動,模型趨于穩(wěn)定。在模型達(dá)到穩(wěn)定狀態(tài)后,SRMGNN 相較于SRGNN,在Precision@20和MRR@20 兩種評價指標(biāo)上,均有更好的表現(xiàn),表明融合了物品類別信息后的模型能夠?qū)W習(xí)到點擊序列更多的信息,在推薦時有更好的表現(xiàn)。同時從圖5 中模型準(zhǔn)確率的走勢來看,SRMGNN效果提升更快更明顯。

        圖5 Yoochoose 1/64數(shù)據(jù)集上的實驗結(jié)果Fig.5 Experimental results on Yoochoose 1/64 dataset

        在Yoochoose 1/4數(shù)據(jù)集上,模型SRMGNN 與模型SRGNN的Precision@20和MRR@20的效果如圖6所示。

        在Yoochoose 1/4 數(shù)據(jù)集上,SRMGNN 和SRGNN 在第6 個epoch之后準(zhǔn)確率未出現(xiàn)較大波動,模型趨于穩(wěn)定。在模型達(dá)到穩(wěn)定狀態(tài)后,SRMGNN 在Precision@20 和MRR@20 兩種評價指標(biāo)上,效果明顯優(yōu)于SRGNN,峰值差達(dá)到了1.25 個百分點和1.54 個百分點,且相較于Yoochoose 1/64 數(shù)據(jù)集的峰值差0.51 個百分點和0.55 個百分點,效果提升更明顯。從圖6模型準(zhǔn)確率的走勢來看,SRGNN 在前幾次的迭代過程中,準(zhǔn)確率明顯有較大的波動情況,而SRMGNN 的準(zhǔn)確率處于不斷上升的狀態(tài)??梢钥闯?,SRMGNN 在融合了類別信息后具有更強(qiáng)的魯棒性,更不容易受到其他因素的影響。

        圖6 Yoochoose 1/4數(shù)據(jù)集上的實驗結(jié)果Fig.6 Experimental results on Yoochoose 1/4 dataset

        在Diginetica 數(shù)據(jù)集上,模型SRMGNN 與模型SRGNN 的Precision@20和MRR@20的效果如圖7所示。

        在Diginetica 數(shù)據(jù)集上,SRMGNN 和SRGNN 在 第6 個epoch之后準(zhǔn)確率未出現(xiàn)較大波動,模型趨于穩(wěn)定。在模型達(dá)到穩(wěn)定狀態(tài)后,SRMGNN 在Precision@20 和MRR@20 兩種評價指標(biāo)上,效果均優(yōu)于SRGNN,峰值差達(dá)到了1.12 個百分點和0.36 個百分點。在模型效果的最佳效果上,SMRGNN 在Precision@20 的評價指標(biāo)上比SRGNN 高1.72 個百分點,SMRGNN 在MRR@20 的評價指標(biāo)上比SRGNN 高0.49 個百分點。從圖7 模型準(zhǔn)確率的走勢來看,兩種模型在前幾次的迭代過程中,準(zhǔn)確率走勢比較類似,在后續(xù)的迭代過程中,SMRGNN 在兩種評價指標(biāo)上的結(jié)果均高于SRGNN,并且差距明顯且穩(wěn)定。綜合來看,SMRGNN 在Diginetica 數(shù)據(jù)集上相較于SRGNN有更好的表現(xiàn)。

        圖7 Diginetica數(shù)據(jù)集上的實驗結(jié)果Fig.7 Experimental results on Diginetica dataset

        綜合在Yoochoose 1/64、Yoochoose 1/4和Diginetica數(shù)據(jù)集上的表現(xiàn)可知,融合物品類別信息,對模型的效果確實起到了提升作用,且在數(shù)據(jù)量較大的Yoochoose 1/4 數(shù)據(jù)集和Diginetica數(shù)據(jù)集上,效果提升更明顯。

        在與其他8 個基準(zhǔn)方法的對比上,本文提出的SRMGNN同樣也有更優(yōu)異的表現(xiàn),具體結(jié)果如表2所示。表2中加粗的為本文所提出的模型的實驗效果,由于內(nèi)存不足,無法初始化FPMC 模型,因此在Yoochoose 1/4 數(shù)據(jù)集上,F(xiàn)PMC 的實驗結(jié)果并未公布。

        表2 不同方法的實驗結(jié)果對比 單位:%Tab.2 Experimental result comparison of different methods unit:%

        從表2 可以看出,在Yoochoose 1/64 數(shù)據(jù)集上,STAMP 模型較NARM 模型,在Precision@20上提升了0.42個百分點,在MRR@20 上提升了1.04 個百分點,而本文所提出的模型SRMGNN 在STAMP 模型的基礎(chǔ)之上,在Precision@20 上進(jìn)一步提升了0.42 個百分點,在MRR@20 上進(jìn)一步提升了0.13個百分點。在Yoochoose 1/4 數(shù)據(jù)集上,STAMP 模型相較NARM 模 型,在Precision@20 上提升了0.71 個百分點,在MRR@20 上提升了0.77 個百分點,而本文提出的模型SRMGNN 在STAMP 模型的基礎(chǔ)之上,在Precision@20 上進(jìn)一步提升了0.18 個百分點,在MRR@20 上進(jìn)一步提升了1.28個百分點。在Diginetica 數(shù)據(jù)集上,本文提出的模型SMRGNN在NARM 模型基礎(chǔ)之上,在Precision@20 上進(jìn)一步提升了0.46個百分點,在MRR@20上進(jìn)一步提升了0.87個百分點。

        綜上,本文提出的基于會話的多粒度圖神經(jīng)網(wǎng)絡(luò)推薦模型(SRMGNN)在融合了物品類別信息后,模型更加穩(wěn)定,準(zhǔn)確率也進(jìn)一步提升,在數(shù)據(jù)量較大時,模型效果提升更加明顯。

        4 結(jié)語

        在基于會話的推薦問題中,目前大多數(shù)方法都只是使用點擊序列中物品的信息,而物品的其他信息如類別信息等沒有使用,導(dǎo)致模型學(xué)到的信息不夠充分。針對此問題,本文提出了基于會話的多粒度圖神經(jīng)網(wǎng)絡(luò)推薦模型(SRMGNN),通過引入更粗粒度的物品的類別信息,模型可以學(xué)到更充分的信息,模型的泛化能力得到了提升。

        但是,對于會話點擊序列的長度對模型效果的影響,本文未作研究,后續(xù)可以針對點擊序列的長度,進(jìn)行對比實驗,研究較長會話點擊序列和較短會話點擊序列之間的差異。另外,用戶的長期興趣和短期興趣對推薦的效果也有很大的影響,后續(xù)也可將用戶的長短期興趣信息作為補(bǔ)充,進(jìn)一步研究用戶的長短期興趣對模型泛化能力的影響。

        猜你喜歡
        用戶信息模型
        一半模型
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權(quán)M-估計的漸近分布
        訂閱信息
        中華手工(2017年2期)2017-06-06 23:00:31
        關(guān)注用戶
        商用汽車(2016年11期)2016-12-19 01:20:16
        3D打印中的模型分割與打包
        關(guān)注用戶
        商用汽車(2016年6期)2016-06-29 09:18:54
        關(guān)注用戶
        商用汽車(2016年4期)2016-05-09 01:23:12
        如何獲取一億海外用戶
        展會信息
        中外會展(2014年4期)2014-11-27 07:46:46
        一本大道东京热无码| 国产午夜视频在线观看.| 国产办公室秘书无码精品99| 97久久香蕉国产线看观看| 日韩亚洲制服丝袜中文字幕| av网站免费在线不卡| 午夜视频在线观看一区二区小 | 欧美在线 | 亚洲| 亚洲AⅤ永久无码精品AA| 久久无人码人妻一区二区三区| 亚洲乱码av中文一区二区| 亚洲成av人片在线观看麦芽| 国产日b视频| 蜜桃色av一区二区三区麻豆 | 精品久久久久久久中文字幕| 中文字幕一区韩国三级| 少妇被爽到高潮喷水免费福利| 久久久久无码国产精品一区| 久久亚洲sm情趣捆绑调教| 国产一区二区三区杨幂| 91精品久久久老熟女91精品 | 91精品综合久久久久m3u8| 亚洲24小时免费视频| 比较有韵味的熟妇无码| 国内精品视频一区二区三区| 国产在线观看网址不卡一区| 最新日本人妻中文字幕| 久激情内射婷内射蜜桃| 国产91色在线|亚洲| 中文字幕久久国产精品| 欧洲美女熟乱av| 亚洲欧洲中文日韩久久av乱码 | 久久精品国产字幕高潮| 播放灌醉水嫩大学生国内精品| 免費一级欧美精品| 日本黑人乱偷人妻在线播放| 又黄又硬又湿又刺激视频免费| 国产精品久久无码不卡黑寡妇| 91麻豆精品久久久影院| 精品视频一区二区三区在线观看| 亚洲首页一区任你躁xxxxx|