亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于跨會話知識圖譜的圖注意力網(wǎng)絡(luò)推薦方法

        2023-02-20 09:38:42張曉暉馬慧芳王文濤高子皓
        計算機工程 2023年2期
        關(guān)鍵詞:會話圖譜注意力

        張曉暉,馬慧芳,王文濤,高子皓

        (西北師范大學(xué) 計算機科學(xué)與工程學(xué)院,蘭州 730070)

        0 概述

        近年來,基于會話的推薦(Session-Based Recommendation,SBR)方法受到學(xué)術(shù)界和工業(yè)界的廣泛關(guān)注[1-3]。與傳統(tǒng)的推薦算法不同,會話推薦側(cè)重于根據(jù)用戶當(dāng)前正在進行的會話學(xué)習(xí)用戶的最新偏好,以推薦下一個項目。因此,通過預(yù)測用戶的最新偏好以推薦下一個項目是SBR 的核心任務(wù)。由于SBR 具有很高的實用價值,因此研究人員提出了許多推薦方法[4-5]。盡管這些方法取得了較好的推薦效果,但大多都僅基于當(dāng)前會話建模用戶偏好,忽略了跨會話信息和項目知識。而事實上,其他會話的交互數(shù)據(jù)和知識圖譜中豐富的實體和關(guān)系信息有助于捕獲項目之間的依賴關(guān)系、緩解數(shù)據(jù)稀疏問題等。

        馬爾可夫鏈(Markov Chain,MC)是最早被用于會話推薦的模型,其依據(jù)會話序列中用戶的前一個行為預(yù)測下一個行為,取得了較好的會話推薦效果[6]。然而,用戶行為往往受多步依賴關(guān)系的影響,僅從相鄰項目的轉(zhuǎn)換中捕獲信息,不足以建模用戶感興趣的演化過程。為了挖掘這種多步依賴的影響關(guān)系,研究人員提出基于循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,RNN)的會話推薦方法[7-8]。其中,GRU4REC[9]利用多層門控循環(huán)單元(Gated Recurrent Unit,GRU)捕獲完整的會話序列信息。NARM[10]在RNN 上利用注意力機制捕捉用戶的序列行為特征,該方法將數(shù)據(jù)簡單地視為時間序列,存在預(yù)測偏差的問題。因此,文獻[11]利用注意力網(wǎng)絡(luò)來代替循環(huán)編碼器,通過多層感知機(Multi-Layer Perceptron,MLP)和注意力網(wǎng)絡(luò)來捕獲用戶的一般興趣和當(dāng)前興趣。盡管該方法取得了一定進展,但采用的線性序列結(jié)構(gòu)表達能力不強,難以表示與建模項目之間復(fù)雜的非序列依賴關(guān)系。

        近年來,圖神經(jīng)網(wǎng)絡(luò)(Graph Neural Network,GNN)廣泛應(yīng)用在包括會話推薦在內(nèi)的各種任務(wù)中[12-14],在空間上建模項目之間的轉(zhuǎn)換模式,有助于捕獲項目間復(fù)雜的依賴關(guān)系[15-16]。其中,SR-GNN[17]將GNN應(yīng)用到會話推薦任務(wù)中,并設(shè)計門控圖神經(jīng)網(wǎng)絡(luò)(Gated Graph Neural Network,GGNN)模型來捕獲復(fù)雜的項目轉(zhuǎn)換關(guān)系。此外,文獻[18]在SR-GNN 基礎(chǔ)上,采用多層自注意力機制獲得用戶的長期興趣。然而,以上方法僅基于當(dāng)前會話來建模用戶偏好,忽略了跨會話信息對當(dāng)前會話重要性的影響。因此,文獻[19]結(jié)合不同的會話信息設(shè)計一個廣泛連接的會話圖,并使用多頭注意力機制學(xué)習(xí)每個項目的表示。盡管該方法考慮了其他會話的信息,但其忽略了知識圖譜中的項目知識,并難以緩解數(shù)據(jù)稀疏和冷啟動問題,具有次優(yōu)推薦性能。

        針對以上問題,本文綜合考慮跨會話信息、知識圖譜中豐富的實體和關(guān)系信息,設(shè)計基于跨會話知識圖譜的圖注意力網(wǎng)絡(luò)推薦方法ARCK。基于會話數(shù)據(jù)和知識圖譜構(gòu)建跨會話知識圖譜,利用知識感知的注意力機制捕獲跨會話的項目轉(zhuǎn)換信息和知識圖譜中的項目知識來更新項目節(jié)點表示,采用注意力網(wǎng)絡(luò)和GRU模型建模目標(biāo)用戶的長、短期興趣。在生成預(yù)測時,通過跨會話知識圖譜獲得語義信息更加豐富的項目嵌入,從而得到更精確的會話推薦結(jié)果。

        1 準(zhǔn)備知識

        1.1 符號說明

        本文設(shè)S={s1,s2,…,s|S|}為項目集合V={v1,v2,…,v|V|}上的會話集合。第t個匿名會話是按時間順序排列的項目列表,其中∈V為第j個被點擊的項目,n為會話st的長度。st可能包含重復(fù)的項目。為了緩解數(shù)據(jù)稀疏問題,ARCK 模型考慮關(guān)于項目的側(cè)信息(如項目屬性和外部知識)。這些側(cè)信息由真實世界的實體和它們之間的關(guān)系組成。例如,一首歌可以由它的歌手、語言和流派來描述。本文以知識圖譜的形式組織項目的側(cè)信息,給定知識圖譜GK={(h,r,t)|h,t∈E,r∈R},其中E表示所有的實體節(jié)點,R表示所有節(jié)點的關(guān)系,每一個三元組都描述了從尾實體t到頭實體h之間存在一類關(guān)系r。例如,三元組(昨日重現(xiàn),歌手,Carpenters)描述了Carpenters 是歌曲《昨日重現(xiàn)》的歌手。此外,本文給定項目-實體對齊集A={(v,e)|v∈V,e∈ε},其中(v,e)表示項目v可以與知識圖譜中的實體e對齊。

        1.2 跨會話圖構(gòu)建

        本文主要符號描述如表1 所示。

        表1 本文主要符號描述 Table 1 Description of main symbols in this paper

        2 本文方法

        本文提出的ARCK 方法架構(gòu)如圖1 所示。其流程主要分為4 個步驟:1)基于跨會話圖GC和知識圖譜GK構(gòu)建跨會話知識圖譜GCK;2)通過知識感知的注意力機制在跨會話知識圖譜GCK上學(xué)習(xí)項目相關(guān)性,并將其編碼到項目表示中;3)將用戶行為序列視為GC中的子圖,并利用GRU 和注意力網(wǎng)絡(luò)學(xué)習(xí)會話嵌入;4)在預(yù)測層將學(xué)習(xí)到的會話嵌入、項目嵌入拼接后輸入至MLP,最終得到目標(biāo)會話-項目對的預(yù)測分數(shù)。

        圖1 本文方法架構(gòu)Fig.1 Framework of the proposed method

        2.1 跨會話知識圖譜

        為了充分捕獲跨會話信息和項目知識來緩解數(shù)據(jù)稀疏問題,本文將會話數(shù)據(jù)和知識圖譜中豐富的實體和關(guān)系信息進行圖數(shù)據(jù)建模,并利用知識感知的注意力機制對其他會話的項目轉(zhuǎn)換信息和知識圖譜中的項目屬性進行編碼,從而獲得項目嵌入矩陣。

        2.1.1 跨會話知識圖譜構(gòu)建

        本文給定跨會話圖GC、知識圖譜GK及項目-實體對齊集A,構(gòu)建跨會話知識圖譜GCK={(v,r,e)|v∈V,e∈E′,r∈R′},其中E′=V∪E,R′=R∪{transition}。

        2.1.2 項目嵌入學(xué)習(xí)

        知識圖譜嵌入是一種將實體和關(guān)系作為向量表示進行參數(shù)化的有效方法,同時還可以保留圖的結(jié)構(gòu)信息。然而,在真實數(shù)據(jù)集中的項目通常由索引標(biāo)識組成,而這些原始索引表示能力非常有限。因此,受文獻[20]的啟發(fā),本文首先選擇廣泛使用的TransR[21]方法來學(xué)習(xí)跨會話知識圖譜上每個項目節(jié)點v、實體節(jié)點e和關(guān)系r的原始嵌入,即ev,ee,er∈Rd。通過將原始嵌入向量輸入到嵌入傳播層,即知識感知的注意力機制,生成每個項目的知識嵌入。設(shè)項目知識嵌入矩陣I=[v1,v2,…,v|V|],其中|V|為跨會話知識圖譜中的項目節(jié)點數(shù),vk∈Rd表示項目vk的知識嵌入,d為嵌入維度。具體地,本文給定跨會話知識圖譜GCK,對于圖中的項目節(jié)點v,三元組集合Nv={(v,r,e)|(v,r,e)∈GCK}稱為項目v的自我中心網(wǎng)絡(luò)[12]。為了獲得項目v的l階表示,項目v的自我中心網(wǎng)絡(luò)的線性組合計算如式(1)所示:

        其中:π(v,r,e)為區(qū)分實體鄰居重要性的注意力分數(shù),表示每條邊(v,r,e)上傳播的衰減因子,控制有多少信息在關(guān)系r的條件下從e傳播到v。具體地,π(v,r,e)由知識感知的 注意力機制計算,并利用Softmax 函數(shù)對與v相連的所有三元組系數(shù)進行歸一化,如式(2)所示:

        其中:Wr∈Rd×d為可學(xué)習(xí)的權(quán)重矩陣。由于距離更近的實體能傳播更多的信息,因此該方法使得注意力分數(shù)依賴于關(guān)系r空間中ev和ee之間的距離。

        為了獲得節(jié)點v的知識嵌入,本文對執(zhí)行l(wèi)層嵌入傳播操作獲得的項目節(jié)點v的l個表示進行拼接,以實現(xiàn)層聚合操作,如式(4)所示:

        其中:l為知識感知的注意力機制層數(shù);“||”為拼接操作。由此得到項目v的最終特征向量,即項目級嵌入。通過上述傳播過程獲得項目集V中每個項目的知識嵌入,即得到融合跨會話信息和項目知識的項目知識嵌入矩陣I∈R|V|×Ld。

        2.2 會話嵌入生成

        盡管項目嵌入捕獲了跨會話信息和項目知識,但其未揭示特定會話的上下文信息。已有研究表明,會話推薦模型應(yīng)充分利用當(dāng)前會話來反映用戶最近的偏好[19]。因此,通過學(xué)習(xí)會話級嵌入來保留原始會話st的信息并獲取用戶當(dāng)前偏好的做法是十分必要。本文給定目標(biāo)會話,會話嵌入學(xué)習(xí)包含兩個任務(wù):1)執(zhí)行嵌入查找操作,從項目知識嵌入矩陣I中提取出st特定的會話嵌入矩陣Is=[v1,v2,…,vn],其中Is∈Rn×Ld,vk∈RLd為會話st中第k個項目的知識嵌入;2)根據(jù)Is生成會話st當(dāng)前偏好和全局偏好表示。

        GRU 克服了RNN 中存在的梯度消失問題,其比長短期記憶(Long Short-Term Memory,LSTM)網(wǎng)絡(luò)模型效率更高[23]。因此,本文采用GRU 來建模目標(biāo)會話的當(dāng)前偏好scurrentt,如式(5)所示:

        其中:hn為會話st在GRU 中的第n步所輸出的隱藏狀態(tài)(向量);φGRU為GRU 中待學(xué)習(xí)的參數(shù)。該隱藏狀態(tài)的計算基于vn和第n-1 步的隱藏狀態(tài)hn-1。

        通過聚合會話圖Gst中所有節(jié)點向量來得到目標(biāo)會話的全局偏好,如式(6)所示:

        其中:vi為會話圖Gst中項目節(jié)點的知識嵌入。鑒于st中的項目可能具有不同的重要性,因此采用注意力網(wǎng)絡(luò)為每個項目分配相應(yīng)的權(quán)重ai,n,如式(7)所示:

        其中:ai,n為會話st中第i個項目與最后一個項目之間的相似性分數(shù)。

        最后,將目標(biāo)會話的當(dāng)前偏好與全局偏好拼接生成最終的會話嵌入st,如式(8)所示:

        2.3 推薦與模型訓(xùn)練

        如果一個項目和目標(biāo)會話越相似,那么該項目對于推薦就越重要。因此,利用目標(biāo)會話的最終嵌入st與候選項目vk∈V的嵌入vk計算得到,如式(9)所示:

        對于會話推薦主任務(wù),本文將損失函數(shù)定義為模型預(yù)測結(jié)果和真實數(shù)據(jù)的交叉熵,如式(10)所示:

        其中:yst,vk為真實數(shù)據(jù)中項目的one-hot 編碼向量。

        此外,TransR 的訓(xùn)練考慮了有效三元組和無效三元組之間的相對順序,本文通過成對排名損失對其進行區(qū)分。成對排名損失函數(shù)如式(11)所示:

        其中:T={(h,r,t,t′)|(h,r,t)∈GCK,(h,r,t′)∈GCK};(h,r,t′)為通過隨機替換有效三元組中的尾實體而構(gòu)造的無效三元組;σ(·)為Sigmoid 函數(shù)。

        考慮到以上兩種角度的損失,最后結(jié)合式(10)和式(11)得到模型中聯(lián)合優(yōu)化的目標(biāo)函數(shù),如式(12)所示:

        其中:Θ為模型參數(shù)集;λ為超參數(shù);為L2正則化項,以防止模型出現(xiàn)過擬合現(xiàn)象。

        2.4 算法流程

        ARCK 算法流程如下:

        算法1ARCK 算法

        3 實驗與結(jié)果分析

        本文在兩個真實數(shù)據(jù)集上設(shè)計實驗,驗證ARCK方法的性能優(yōu)勢,跨會話知識圖譜的構(gòu)建對ARCK 的性能影響,以及不同會話長度和不同超參數(shù)的選取對ARCK 性能的影響。

        3.1 數(shù)據(jù)集

        為驗證本文所提方法的有效性,本文選取兩個真實數(shù)據(jù)集進行驗證:1)KKBOX數(shù)據(jù)集(https://www.kaggle.com/c/kkbox-music-recommendation-challenge/data),包含用戶在特定時間段內(nèi)聽音樂的歷史記錄,根據(jù)用戶行為頻率,將會話的持續(xù)時間閾值設(shè)置為2 000 min,將音樂及音樂屬性(如藝人(歌手)、類型、語言和發(fā)行年份)視為知識圖譜中的實體;2)JDATA 數(shù)據(jù)集(https://www.kaggle.com/c/kkbox-music-recommendationchallenge/data),收集自京東,其中包含兩個月內(nèi)的用戶歷史記錄,根據(jù)用戶在京東上的行為頻率,將會話的持續(xù)時間閾值設(shè)置為1 h,并將產(chǎn)品及產(chǎn)品屬性(如品牌、商店、類別和發(fā)布年份)視為項目知識。

        根據(jù)文獻[17]的設(shè)置,過濾掉長度為1 的會話和在數(shù)據(jù)集中出現(xiàn)次數(shù)少于3 次的項目。對于每個數(shù)據(jù)集,本文選擇前90%的用戶行為訓(xùn)練模型,剩下10%用來測試模型性能。兩個數(shù)據(jù)集的統(tǒng)計信息如表2所示。

        表2 數(shù)據(jù)集信息統(tǒng)計 Table 2 Information statistics of dataset

        3.2 基線方法與實驗設(shè)置

        3.2.1 基線方法

        本文對ARCK 方法與基線方法進行對比,以驗證ARCK 方法的有效性。基線方法主要有:1)GRU4REC[9],通過堆疊多個GRU層,將用戶序列編碼到最終狀態(tài);2)STAMP[11],采用注意力機制代替之前工作中的RNN 編碼器,以捕獲用戶的當(dāng)前興趣和一般興趣;3)SR-GNN[17],將會話數(shù)據(jù)建模為圖,并利用GGNN 來捕獲會話內(nèi)復(fù)雜的項目轉(zhuǎn)換關(guān)系,但該方法未考慮跨會話信息和項目知識;4)FGNN[19],將會話序列構(gòu)建為全局圖,并使用圖注意力網(wǎng)絡(luò)來學(xué)習(xí)項目節(jié)點表示,但該方法僅基于會話信息進行推薦,沒有考慮項目知識。

        3.2.2 評價指標(biāo)

        本文使用SBR 評估中的兩個指標(biāo)來驗證模型的性能。這兩個指標(biāo)分別是Hit@k和MRR@k,此處設(shè)定k=20。

        Hit@k(top-k項目的命中率)是top-k排名列表中命中樣本與測試集中所有樣本的比例,如式(13)所示:

        其中:N表示測試集中項目的個數(shù);Number of Hits@k表示計算候選項目在排名列表中處于前k位的個數(shù)。Hit@k值越高,推薦性能越好。

        MRR@k(按top-k項目計算的平均倒數(shù)排名)是正確推薦項目排名倒數(shù)的平均值,如式(14)所示:

        MRR@k得分越高,推薦性能越好。

        3.2.3 實驗設(shè)置

        為保證實驗結(jié)果的可靠性,本文實驗采用五次五折交叉驗證法來評價ARCK 方法的性能。

        在ARCK 方法的訓(xùn)練階段,本文將知識感知注意力機制迭代的層數(shù)l設(shè)置為3,批量大小固定為256,初始學(xué)習(xí)率設(shè) 為0.001,L2 正則化系數(shù)λ在{10-5,10-4,10-3,10-2,10-1}中進行調(diào)優(yōu)。實驗使用Xavier[24]初始化所有參數(shù),并使用Adam 優(yōu)化器[25]來優(yōu)化。為了公平起見,將所有模型的嵌入尺寸設(shè)置為100,基線方法除了嵌入維度以外均使用原始論文中默認的超參數(shù)設(shè)置。此外,實驗所用操作系統(tǒng)為Windows10 64位,顯卡為NVIDIA GTX1080-8G,內(nèi)存為16 GB,實驗代碼通過Python3.6.5 由PyTorch1.6進行實現(xiàn)。本文實驗顯示模型在其最佳超參數(shù)設(shè)置下的平均結(jié)果。

        3.3 整體性能

        本節(jié)將ARCK 方法與上文所提的基線方法進行對比,通過評估Hit@20 和MRR@20 得分來表示ARCK的整體性能。在KKBOX 和JDATA 數(shù)據(jù)集上不同方法的評價指標(biāo)對比如表3 所示。其中,加粗數(shù)據(jù)表示基線方法中的最佳性能,帶星號的加粗數(shù)據(jù)表示所有方法中的最佳性能,Improve.表示帶星號的加粗數(shù)據(jù)與加粗數(shù)據(jù)的差值。

        表3 不同會話推薦方法的評價指標(biāo)對比 Table 3 Evaluation indicators comparison among different session recommendation methods

        從表3 可以看出,ARCK 性能最佳,其原因在于ARCK 方法相比SR-GNN 進一步考慮了跨會話的信息,并對知識圖譜中豐富的實體和關(guān)系信息進行建模,提升了會話推薦的性能。

        FGNN 通過構(gòu)建連接不同會話的廣泛連接會話圖來捕獲跨會話信息,因此性能表現(xiàn)較佳。SR-GNN將會話序列轉(zhuǎn)換為會話圖,并使用GGNN 改進項目嵌入,其會話推薦結(jié)果相對傳統(tǒng)的GRU4REC 和STAMP 較準(zhǔn)確,但由于SR-GNN 僅基于當(dāng)前會話建模用戶偏好,因此性能表現(xiàn)不如FGNN 方法。傳統(tǒng)的GRU4REC 和STAMP 在兩個數(shù)據(jù)集上的性能都較差,這表明僅使用神經(jīng)網(wǎng)絡(luò)而不考慮會話中項目之間的轉(zhuǎn)換關(guān)系,不足以建模用戶偏好。

        3.4 跨會話知識圖譜的有效性

        為了進一步驗證將跨會話信息和項目知識整合到會話推薦的重要性,本節(jié)設(shè)計了消融實驗以評估三個ARCK 變體方法的性能。ARCK-GCK是從ARCK 模型中去除跨會話知識圖譜,即不考慮跨會話信息和項目知識,僅從會話圖中學(xué)習(xí)項目嵌入。ARCK-GC是從ARCK 模型中去除跨會話圖,即不考慮跨會話信息,僅通過會話圖和知識圖譜學(xué)習(xí)項目嵌入。ARCK-GK是從ARCK 模型中去除知識圖譜,即不考慮項目側(cè)信息,僅通過跨會話圖學(xué)習(xí)項目嵌入。

        跨會話知識圖譜的消融實驗結(jié)果如表4 所示。從表4 可以看出:原始ARCK 方法的性能優(yōu)于三種變體方法,說明在ARCK 方法中,跨會話信息和項目知識對性能提升均起到積極作用,特別是在較小的數(shù)據(jù)集KKBOX上,ARCK 相對于ARCK-GCK有很大程度的性能提升,進一步驗證了跨會話知識圖譜的構(gòu)建對于緩解數(shù)據(jù)稀疏性問題是很有必要。

        表4 跨會話知識圖譜的消融實驗結(jié)果 Table 4 Ablation experimental results of the cross-session knowledge graph

        ARCK-GCK的性能略優(yōu)于最佳基線FGNN,表明在會話圖上利用TransR 的方法學(xué)習(xí)項目初始嵌入,并利用知識感知的注意力機制學(xué)習(xí)項目嵌入,能夠有效提升模型性能。

        3.5 會話長度與超參數(shù)

        3.5.1 會話長度分析

        為評估ARCK 方法處理不同會話長度的能力,根據(jù)文獻[19]的設(shè)置,本文將KKBOX 和JDATA 中的會話劃分為兩組,分別為“短”會話和“長”會話?!岸獭北硎久總€會話的長度小于等于5,“長”表示每個會話的長度大于5。本文選擇中間值5 是由于其為最接近所使用數(shù)據(jù)集中平均會話長度的整數(shù)。圖2 和圖3 所示為不同方法在兩個數(shù)據(jù)集上的Hit@20 平均評估結(jié)果。

        圖2 在KKBOX 數(shù)據(jù)集上不同會話長度對方法性能的影響Fig.2 Influence of different session lengths for methods performance on KKBOX dataset

        圖3 在JDATA 數(shù)據(jù)集上不同會話長度對方法性能的影響Fig.3 Influence of different session lengths for different methods performance on JDATA dataset

        從圖2 和圖3 可以看出,隨著會話長度的增加,所有模型的性能都會隨著噪聲信號的引入而下降。其中STAMP 降幅最大,這表明僅將會話數(shù)據(jù)建模為時間序列,更容易受到長會話噪聲的干擾。SR-GNN僅基于單獨的會話建模用戶的長期和短期興趣,因此在長會話上性能會有所下降。由于FGNN 考慮了跨會話的信息,因此其在不同長度會話上的性能相較于SR-GNN 較優(yōu),但在長會話上性能略差。與此同時,隨著會話長度的增加,ARCK 方法對于不同長度的會話均表現(xiàn)出穩(wěn)定的性能。因此,ARCK 方法可以有效建模不同長度的會話。

        3.5.2 超參數(shù)研究

        損失函數(shù)中的L2 正則化系數(shù)λ是影響ARCK 模型推薦準(zhǔn)確度的主要超參數(shù)。本文實驗的L2 正則化系數(shù)λ?。?0-5,10-4,10-3,10-2,10-1},分別計算MRR@20和Hit@20。在MRR@20 和Hit@20上,超參數(shù)λ對ARCK性能的影響分別如圖4和圖5所示。從圖4和圖5可以看出,ARCK 方法的MRR@20 和Hit@20 隨著λ的增大而增大,但在KKBOX數(shù)據(jù)集上當(dāng)超參數(shù)λ超過10-3時,在JDATA數(shù)據(jù)集上超過10-2時,MRR@20和Hit@20呈下降趨勢。當(dāng)超參數(shù)λ較小時,ARCK 方法會發(fā)生過擬合現(xiàn)象;當(dāng)超參數(shù)λ較大時,方法的性能發(fā)生退化。因此,在10-3和10-2附近選擇超參數(shù)λ是合適的,在不使模型退化的情況下防止過擬合現(xiàn)象的發(fā)生。

        圖4 在MRR@20 上超參數(shù)λ 對ARCK 性能的影響Fig.4 Influence of hyperparameter λ on ARCK performance in terms of MRR@20

        圖5 在Hit@20 上超參數(shù)λ 對ARCK 性能的影響Fig.5 Influence of hyperparameter λon ARCK performance in terms of Hit@20

        4 結(jié)束語

        本文提出基于跨會話知識圖譜的圖注意力網(wǎng)絡(luò)推薦方法ARCK。通過構(gòu)建跨會話知識圖譜來全面捕獲跨會話信息和項目知識,同時利用知識感知的注意力機制捕獲復(fù)雜的項目轉(zhuǎn)換模式。此外,采用注意力網(wǎng)絡(luò)和門控循環(huán)單元網(wǎng)絡(luò)建模用戶的長短期興趣。在KKBOX 和JDATA 兩個真實數(shù)據(jù)集上的實驗結(jié)果表明,該方法能有效地增強會話推薦的性能。下一步將嘗試同時考慮用戶間的社交關(guān)系和項目側(cè)信息,構(gòu)建異質(zhì)知識圖譜,并在異質(zhì)知識圖譜上學(xué)習(xí)細粒度的項目嵌入,以增強會話推薦性能。

        猜你喜歡
        會話圖譜注意力
        讓注意力“飛”回來
        繪一張成長圖譜
        “揚眼”APP:讓注意力“變現(xiàn)”
        傳媒評論(2017年3期)2017-06-13 09:18:10
        補腎強身片UPLC指紋圖譜
        中成藥(2017年3期)2017-05-17 06:09:01
        有意冒犯性言語的會話含義分析
        漢語教材中的會話結(jié)構(gòu)特征及其語用功能呈現(xiàn)——基于85個會話片段的個案研究
        A Beautiful Way Of Looking At Things
        主動對接你思維的知識圖譜
        沖突語的會話分析研究
        對外漢語課堂英語通用語的會話調(diào)整功能
        69搡老女人老妇女老熟妇 | 色老头一区二区三区| 特黄三级一区二区三区| 三上悠亚亚洲精品一区| 国产老熟女网站| 婷婷亚洲综合五月天小说| 亚洲无码观看a| 亚洲国产成人久久精品一区| 综合色区亚洲熟妇另类| 午夜大片又黄又爽大片app| 色婷婷激情在线一区二区三区| 一区二区三区四区草逼福利视频 | 中文有码人妻字幕在线| 97精品国产97久久久久久免费| 日本中文字幕在线播放第1页| 女同av免费在线播放| 日韩亚洲精品国产第二页| 少妇久久久久久被弄到高潮| 亚洲伊人久久成人综合网| 亚洲一区亚洲二区中文字幕| 加勒比色老久久爱综合网| 亚洲高潮喷水无码av电影| 久久一区二区三区不卡| 曰日本一级二级三级人人| 成年女人粗暴毛片免费观看| 亚洲综合中文字幕乱码在线| 91精品国产乱码久久久| 成人自慰女黄网站免费大全| 内射囯产旡码丰满少妇| 久久99中文字幕久久| 一区二区三区四区亚洲免费 | 色欲国产精品一区成人精品| 国产大屁股白浆一区二区三区| 亚洲三区在线观看内射后入| 欧美熟妇精品一区二区三区| 40分钟永久免费又黄又粗| 91精品国产一区国产二区久久| 米奇777四色精品人人爽| 一区二区三区不卡在线| 精品一区二区三区a桃蜜| 三级全黄的视频在线观看|