摘" 要: 為了解決長(zhǎng)序列推薦算法的準(zhǔn)確率低和冷啟動(dòng)問題,提高推薦算法的性能,提出一種融合GCN與Informer的序列推薦算法VGIN。使用圖卷積網(wǎng)絡(luò)提取數(shù)據(jù)中節(jié)點(diǎn)之間的空間特征,引入Informer模型來處理數(shù)據(jù)潛在的時(shí)間依賴性,再將兩種特征輸入多層感知器得出預(yù)測(cè)評(píng)分,實(shí)現(xiàn)長(zhǎng)序列預(yù)測(cè),改善長(zhǎng)序列推薦效果較差的問題;同時(shí)利用變分自編碼器(VAE)填補(bǔ)用戶的數(shù)據(jù)缺失,改善用戶冷啟動(dòng)問題。實(shí)驗(yàn)結(jié)果表明:構(gòu)建的VGIN模型與基線模型相比得到了最高的HR@20值(0.248 4)和NDCG@20值(0.113 7),與基線版本中最優(yōu)的SASRec模型相比,NDCG@20值和HR@20值分別提高了約7.87%、8.24%。該模型能有效提高長(zhǎng)序列推薦準(zhǔn)確率,同時(shí)降低了用戶冷啟動(dòng)對(duì)推薦準(zhǔn)確率的影響。
關(guān)鍵詞: 序列推薦算法; 冷啟動(dòng); 圖卷積網(wǎng)絡(luò); Informer模型; 變分自編碼器; 特征提取
中圖分類號(hào): TN919?34; TP311.1" " " " " " " " " 文獻(xiàn)標(biāo)識(shí)碼: A" " " " " " " " " " "文章編號(hào): 1004?373X(2025)08?0039?06
A sequence recommendation algorithm integrating GCN and Informer
FAN Lili, LI Ran, WANG Ning, WANG Kecheng, WU Jiang
(School of Information Engineering, Dalian Ocean University, Dalian 116023, China)
Abstract: In order to solve the problems of low accuracy and cold start of the long sequence recommendation algorithm and improve the performance of the recommendation algorithm, a sequence recommendation algorithm variational autoencoders graph convolutional Informer network, VGIN, is proposed. The spatial features between nodes in the data are extracted by means of graph convolutional network (GCN), and the Informer model is introduced to handle the potential temporal dependencies in the data. The two features are input into the multi?layer perceptron to obtain the scoring prediction, realize long sequence prediction, and improve the problem of poor long sequence recommendation effect. The variational autoencoder (VAE) is used to fill missing user data, thus improving the user cold start. The experimental results demonstrate that the constructed VGIN model can realize the highest HR@20 value (0.248 4) and NDCG@20 value (0.113 7) compared with the baseline model. In comparison with the optimal SASRec model in the baseline version, the NDCG@20 and HR@20 values can increase about by 7.87% and 8.24%, respectively. This model can effectively improve the accuracy of long sequence recommendations while reducing the impact of user cold start on recommendation accuracy.
Keywords: sequence recommendation algorithm; cold start; graph convolutional network; Informer model; variational autoencoder; feature extraction
0" 引" 言
近年來,隨著互聯(lián)網(wǎng)的高速發(fā)展,所產(chǎn)生的數(shù)據(jù)呈爆發(fā)式增長(zhǎng),如何從海量數(shù)據(jù)中提取出有效的信息,是當(dāng)前互聯(lián)網(wǎng)領(lǐng)域發(fā)展的一個(gè)重要方向,而推薦系統(tǒng)[1]是其中的一個(gè)重要工具。推薦系統(tǒng)根據(jù)用戶的歷史行為數(shù)據(jù)提取出有用的特征信息,從而精確地推薦出用戶需要的商品或服務(wù),可以為用戶提供個(gè)性化推薦體驗(yàn)。
推薦系統(tǒng)主要應(yīng)用在網(wǎng)絡(luò)購(gòu)物、旅游、餐飲、短視頻等領(lǐng)域,傳統(tǒng)的推薦方法主要是基于協(xié)同過濾的推薦算法和基于內(nèi)容的推薦算法。基于協(xié)同過濾的推薦算法通過用戶與項(xiàng)目之間的交互信息,例如評(píng)分信息和購(gòu)買記錄等,發(fā)現(xiàn)用戶之間的相似性,從而確定推薦項(xiàng)目;基于內(nèi)容的推薦算法是通過比較用戶交互過的項(xiàng)目與未交互的項(xiàng)目相似度來做出推薦。
序列推薦是將用戶的歷史行為記錄看作一個(gè)序列,通過挖掘序列中的信息,為用戶推薦可能需要的項(xiàng)目。用戶的歷史數(shù)據(jù)通常較多,大多包含近幾年的行為數(shù)據(jù),傳統(tǒng)的推薦算法并沒有考慮其中的時(shí)序關(guān)系,導(dǎo)致其不適合序列推薦;而序列推薦算法考慮了用戶行為的順序性,可以捕捉長(zhǎng)期依賴關(guān)系,但當(dāng)前序列推薦算法針對(duì)長(zhǎng)序列推薦性能欠佳且沒有對(duì)冷啟動(dòng)問題進(jìn)行有效處理,導(dǎo)致推薦效果較差。為此,本文提出一種融合圖卷積網(wǎng)絡(luò)(Graph Convolutional Network, GCN)與Informer的序列推薦算法VGIN(Variational Autoencoders Graph Convolutional Informer Network)。
1" 相關(guān)工作
1.1" 基于圖神經(jīng)網(wǎng)絡(luò)的推薦方法
隨著深度學(xué)習(xí)的發(fā)展,2007年Hinton首次將深度學(xué)習(xí)應(yīng)用到推薦系統(tǒng)中,目前推薦算法與深度學(xué)習(xí)相結(jié)合已成為主流的研究方向[2]。圖神經(jīng)網(wǎng)絡(luò)(Graph Neural Network, GNN)是一種用于處理圖數(shù)據(jù)的算法模型。推薦系統(tǒng)數(shù)據(jù)大部分本質(zhì)是圖結(jié)構(gòu),而GNN可以高效地處理圖結(jié)構(gòu)數(shù)據(jù)并從中提取特征,這與用戶?項(xiàng)目的結(jié)構(gòu)十分貼合,故使用GNN捕捉數(shù)據(jù)之間隱藏的特征。
文獻(xiàn)[3]使用注意力機(jī)制對(duì)GNN網(wǎng)絡(luò)的輸出進(jìn)行分層加權(quán)池化。通過加深GNN的網(wǎng)絡(luò)層可以捕獲到目標(biāo)節(jié)點(diǎn)的多條鄰居信息,從而獲得足夠的輔助信息來學(xué)習(xí)目標(biāo)節(jié)點(diǎn)的表示,但是這也會(huì)導(dǎo)致過平滑問題。文獻(xiàn)[4]提出的GC?SAN(Graph Contextualized Self?Attention Network for Session?based Recommendation)算法原理是:利用自注意力機(jī)制和GNN的優(yōu)點(diǎn)互補(bǔ)來提高算法的推薦性能。該算法通過圖神經(jīng)網(wǎng)絡(luò)建模分離的序列中的局部圖結(jié)構(gòu)依賴關(guān)系,利用多層自注意力機(jī)制獲取每個(gè)項(xiàng)目的全局上下文表示。
上述基于GNN的推薦算法難以捕捉序列的長(zhǎng)期依賴關(guān)系,導(dǎo)致對(duì)于序列推薦效果不佳。
1.2" 基于序列的推薦方法
早期關(guān)于序列推薦的研究通常采用馬爾可夫鏈來捕捉用戶歷史交互中的順序模式。文獻(xiàn)[5]提出一種個(gè)性化馬爾可夫鏈,將馬爾可夫鏈和矩陣分解相結(jié)合,對(duì)順序行為進(jìn)行建模。隨著Transformer[6]的提出,SASRec(Self?attentive Sequential Recommender)[7]首次將自注意力機(jī)制引入序列推薦,實(shí)現(xiàn)了較好的推薦性能。但由于其內(nèi)部架構(gòu)設(shè)計(jì),Transformer存在計(jì)算復(fù)雜度高等問題。而循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network, RNN)有模型輕量化、效率高等優(yōu)勢(shì),在處理短序列數(shù)據(jù)時(shí)性能優(yōu)于Transformer。但RNN采用固定長(zhǎng)度的隱藏狀態(tài)來傳遞信息,因此在處理長(zhǎng)序列時(shí)隱藏狀態(tài)的記憶能力受到限制,很難有效地保留和傳遞序列中的長(zhǎng)期信息,并且易出現(xiàn)梯度消失或爆炸等問題。另外,Transformer和RNN模型只能獨(dú)立地處理不同節(jié)點(diǎn)數(shù)據(jù),沒有考慮不同節(jié)點(diǎn)間的連通性。
近期,有研究提出了基于GNN的方法來理解時(shí)空信息,這些模型通常將Transformer或RNN與GNN相結(jié)合,以適應(yīng)復(fù)雜的預(yù)測(cè)任務(wù)。基于GNN的時(shí)空模型已經(jīng)被證明在處理短序列預(yù)測(cè)問題上比單一RNN或GNN模型有更好的性能,但針對(duì)長(zhǎng)序列推薦仍然存在一些局限性。
1.3" 針對(duì)冷啟動(dòng)的推薦方法
當(dāng)推薦系統(tǒng)面對(duì)新用戶時(shí),由于缺乏相關(guān)的歷史數(shù)據(jù)和用戶行為記錄,傳統(tǒng)推薦算法通常未對(duì)缺失的評(píng)分進(jìn)行處理,普遍面臨冷啟動(dòng)的問題,影響推薦效果。文獻(xiàn)[8]提出一種基于二部圖的數(shù)據(jù)填補(bǔ)方法與協(xié)同過濾結(jié)合,使用交互視圖的多視角融合策略,有效緩解了冷啟動(dòng)的問題。但該算法可拓展性差,數(shù)據(jù)集越大則推薦效果越差。文獻(xiàn)[9]提出基于SlopeOne的協(xié)同過濾推薦算法,首先對(duì)評(píng)分矩陣缺失的值進(jìn)行填充,其次利用K?means聚類預(yù)測(cè)目標(biāo)用戶的評(píng)分。以上方法雖然解決了推薦算法冷啟動(dòng)問題,但未處理其中的時(shí)序關(guān)系,所以并不能應(yīng)用在序列推薦中。
針對(duì)上述問題,本研究提出了一種新的融合GCN與Informer的序列推薦算法模型。該模型使用Informer[10]的Encoder部分提取時(shí)間特征,有效地捕獲序列中的長(zhǎng)期依賴關(guān)系,并采用稀疏化概率機(jī)制大大降低長(zhǎng)序列計(jì)算的復(fù)雜度;再利用GCN[11]增強(qiáng)序列的空間特征表達(dá),將空間特征與時(shí)間特征進(jìn)行融合得到最終特征表達(dá),提升推薦效果;最后對(duì)數(shù)據(jù)進(jìn)行預(yù)處理,利用變分自編碼器(Variational Autoencoder, VAE)[12]填補(bǔ)用戶缺失偏好信息,以改善冷啟動(dòng)對(duì)于推薦效果的影響。
2" 融合GCN與Informer的序列推薦算法
2.1" 模型框架
本文提出的VGIN模型整體框架如圖1所示,包括用戶偏好重構(gòu)層、特征提取層和預(yù)測(cè)層三個(gè)主要模塊。
1) 空間特征提取模塊將序列構(gòu)建成項(xiàng)目信息圖,使用多層GCN學(xué)習(xí)不同位置的不同子空間特征,增強(qiáng)不同節(jié)點(diǎn)之間的空間特征提取能力。時(shí)間特征提取模塊通過Informer?encoder來提取時(shí)序特征。
2) 用戶偏好重構(gòu)層將缺失的用戶數(shù)據(jù)進(jìn)行填補(bǔ)后,輸入到模型中以改善用戶冷啟動(dòng)對(duì)推薦效果的影響。
3) 預(yù)測(cè)層先連接時(shí)間和空間的潛在特征,然后將其輸入多層感知器(Multilayer Perceptron, MLP),最終得到預(yù)測(cè)的評(píng)分。
2.2" 特征提取層
2.2.1" 空間特征提取
本研究利用GCN處理數(shù)據(jù)空間結(jié)構(gòu),將序列看作一個(gè)節(jié)點(diǎn),對(duì)節(jié)點(diǎn)特征進(jìn)行聚合操作,通過一個(gè)可學(xué)習(xí)的權(quán)重矩陣進(jìn)行線性變換,生成新的節(jié)點(diǎn)特征表示。GCN利用鄰居節(jié)點(diǎn)的特征來更新當(dāng)前節(jié)點(diǎn)的特征,再將鄰居節(jié)點(diǎn)的特征進(jìn)行加權(quán)平均,并將結(jié)果與當(dāng)前節(jié)點(diǎn)的特征進(jìn)行拼接或加和,得到更新后的節(jié)點(diǎn)特征。GCN在解釋模型的輸出和分析節(jié)點(diǎn)影響力時(shí)具有較好的可解釋性,有助于深入理解圖數(shù)據(jù)中的節(jié)點(diǎn)關(guān)系和特征重要性,公式如下:
式中:[A]是自相關(guān)的鄰接矩陣;[D]表示對(duì)角矩陣;[H(l)]表示第[l]層的特征;[W(l)]為權(quán)重矩陣。GCN每個(gè)節(jié)點(diǎn)的表示由其鄰居節(jié)點(diǎn)的特征加權(quán)平均得到,可以更好地提取圖中信息的全局空間特征。
2.2.2" 時(shí)間特征提取
由于人類的行為具有一定的周期性,利用該特點(diǎn)可以分析用戶的行為特征。本研究使用Informer?encoder來提取時(shí)序特征信息,Informer中使用ProbSparse自注意力機(jī)制替代Transformer中的自注意力機(jī)制,并引入稀疏化概率,使得模型只關(guān)注序列中的少數(shù)重要位置,從而減少了計(jì)算復(fù)雜度,提高了模型的計(jì)算效率。其中稀疏性度量M的公式為:
式中:qi為Q矩陣中的第i行;lK為K矩陣長(zhǎng)度;din為輸入特征的維度;[kTj]為第j個(gè)K向量;前半部分為qi對(duì)所有K的LSE(Log?Sum?Exp)計(jì)算,后半部分為它們的算術(shù)平均值。
關(guān)于K的自注意力分?jǐn)?shù)公式如下:
式中:Q、K、V分別為從輸入特征矩陣中提取的Query、Key、Value矩陣;Softmax為歸一化函數(shù);d為K的向量維度;[Q]為處理后的矩陣。
Informer在ProbSparse自注意力層中間加入了蒸餾操作,利用卷積和池化將xt長(zhǎng)度減半,保留較重要的特征并降低了冗余。從第j層到第j+1層的蒸餾操作公式為:
式中:MaxPool為最大池化操作;ELU為激活函數(shù);Conv1d為一維的卷積操作;[ ]AB表示多頭概率稀疏自注意力操作。經(jīng)此蒸餾操作,自注意力時(shí)間復(fù)雜度降低至O(Llog L),大大減輕了模型的開銷。
2.3" 用戶偏好重構(gòu)層
針對(duì)用戶缺少歷史交互信息,即缺少偏好,存在用戶冷啟動(dòng)問題,本研究使用VAE模型重構(gòu)用戶偏好。VAE是基于變分貝葉斯推斷提出的一種深度生成模型,通過定義一個(gè)潛在空間的先驗(yàn)分布和一個(gè)由潛在空間到觀測(cè)空間的生成模型來學(xué)習(xí)數(shù)據(jù)分布,這使得VAE模型能夠?qū)θ笔е颠M(jìn)行建模,并對(duì)樣本的原始數(shù)據(jù)分布有較好的擬合能力。VAE模型通過潛在變量來捕捉數(shù)據(jù)的關(guān)鍵特征,這些潛在變量可以用于數(shù)據(jù)填補(bǔ)時(shí)插值和生成合理的缺失值。VAE模型是一種基于編碼?解碼器結(jié)構(gòu)的生成模型,如圖2所示。
1) 編碼層:編碼器輸出潛在變量[Z]的均值Z_mean和方差Z_log_var,再?gòu)恼龖B(tài)分布中取采樣[ε],通過計(jì)算得到Zi,公式如下:
式中:Zi∈Z;mi∈Z_mean;[σi]∈Z_log_var。
2) 解碼層:解碼器將采樣得到的潛在變量Z映射回原始數(shù)據(jù)空間中,生成重建數(shù)據(jù)X′。
2.4" 預(yù)測(cè)層
預(yù)測(cè)層連接空間和時(shí)間的潛在特征,再將其輸入到MLP。MLP由輸入層、隱藏層和輸出層組成,采用sigmoid激活函數(shù)捕獲空間與時(shí)間特征之間的復(fù)雜非線性關(guān)系,從而進(jìn)行評(píng)分預(yù)測(cè)。本文選擇TopN項(xiàng)推薦,公式為:
式中:Gi和Mj分別表示空間和時(shí)間特征向量;bl為偏置;W為權(quán)重矩陣;l表示隱藏層的索引;[R′ij]為預(yù)測(cè)的評(píng)分。
3" 實(shí)驗(yàn)結(jié)果與分析
3.1" 數(shù)據(jù)集
本研究采用的數(shù)據(jù)集為Foursquare[13],這是一個(gè)基于地理位置分享的移動(dòng)服務(wù)網(wǎng)站。數(shù)據(jù)集的信息包括項(xiàng)目編號(hào)、用戶編號(hào)、項(xiàng)目的經(jīng)緯度和簽到時(shí)間戳等信息,為了充分評(píng)估算法的準(zhǔn)確性,需要對(duì)數(shù)據(jù)集進(jìn)行預(yù)處理,將序列較短、不適合本模型學(xué)習(xí)的數(shù)據(jù)即簽到記錄進(jìn)行剔除處理。最后選用數(shù)據(jù)集的70%作為訓(xùn)練集,30%作為測(cè)試集。Foursquare數(shù)據(jù)集信息見表1。
3.2" 實(shí)驗(yàn)設(shè)置和評(píng)價(jià)指標(biāo)
3.2.1" 實(shí)驗(yàn)設(shè)置
本研究使用PyTorch框架來完成模型的搭建,實(shí)驗(yàn)在i5?10200H CPU和NVIDIA GeForce RTX?3060顯卡設(shè)備上進(jìn)行。為了評(píng)估算法模型的效率和效果,實(shí)驗(yàn)將Epochs設(shè)置為10,Batch_size設(shè)置為96,Dropout設(shè)置為0.05,Adam的初始學(xué)習(xí)速率設(shè)置為0.01。
3.2.2" 評(píng)價(jià)指標(biāo)
本文使用兩個(gè)廣泛采用的指標(biāo)NDCG@N和HR@N來評(píng)估模型的推薦性能,從而衡量不同用戶推薦的前N項(xiàng)的準(zhǔn)確性。
1) NDCG@N:為排名靠前的項(xiàng)目分配更高的分?jǐn)?shù),考慮了推薦結(jié)果的相關(guān)性以及它們的排名順序,因此是一個(gè)更加全面和準(zhǔn)確的評(píng)估指標(biāo)。
式中:[Sju(N)]表示j位置的預(yù)測(cè)分?jǐn)?shù);Tu表示序列集合;C是一個(gè)歸一化常數(shù)。
2) HR@N:表示命中率,衡量在推薦列表中是否包含了用戶實(shí)際感興趣的項(xiàng)目。
式中:[Su(N)]表示排序后的前N項(xiàng)集合;Tu表示序列集合;[I(·)]表示指示函數(shù)。
3.3" 對(duì)比模型結(jié)果與分析
為了測(cè)試VGIN模型的性能,將其與GRU4Rec+、TransRec、SR?GNN、ST?RNN和SASRec模型進(jìn)行對(duì)比。
1) GRU4Rec+:是一種基于結(jié)合GRU和GNN的序列化推薦模型,使用了不同的損失函數(shù)和采樣策略。
2) TransRec:是一種基于翻譯的一階順序推薦模型,添加了一個(gè)全局翻譯向量來初始化所有的用戶,有效地緩解了用戶冷啟動(dòng)問題。
3) SR?GNN:是一種基于GNN的模型,捕捉會(huì)話中項(xiàng)目之間復(fù)雜的轉(zhuǎn)換關(guān)系。
4) ST?RNN:是一種基于改進(jìn)RNN的推薦模型,用于興趣點(diǎn)推薦。
5) SASRec:將自注意力機(jī)制融合到推薦系統(tǒng)中。
表2和表3分別是模型在Foursquare數(shù)據(jù)集中的NDCG@N和HR@N結(jié)果。首先在所有基線模型中,SR?GNN在NDCG@N指標(biāo)中性能最差,這是因?yàn)镾R?GNN沒有考慮數(shù)據(jù)的時(shí)序性,說明了單純的GNN模型不適合序列推薦。GRU4Rec+、ST?RNN都是循環(huán)神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),具有對(duì)序列數(shù)據(jù)進(jìn)行遞歸處理的能力,可以捕獲序列中的信息,它們相較于SR?GNN的NDCG@N和HR@N指標(biāo)均有所提升,但循環(huán)神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)本身難以捕捉序列長(zhǎng)期依賴關(guān)系。TransRec模型雖然通過對(duì)用戶初始化的方式,在一定程度上改善了冷啟動(dòng)問題,但其僅僅考慮局部特征,未考慮全局特征,導(dǎo)致性能提升有限。SASRec使用了自注意力網(wǎng)絡(luò),提高了模型的表達(dá)能力和捕捉長(zhǎng)距離依賴關(guān)系能力,從而對(duì)序列行為有較強(qiáng)的建模能力,但未考慮節(jié)點(diǎn)之間的空間聯(lián)系。而VGIN引入Informer模型中的稀疏注意力機(jī)制取代了自注意力機(jī)制,并考慮了節(jié)點(diǎn)的空間聯(lián)系,還使用VAE降低了冷啟動(dòng)對(duì)推薦性能的影響,性能較優(yōu)異。
實(shí)驗(yàn)數(shù)據(jù)表明,VGIN模型優(yōu)于所有基線模型,在NDCG@5、NDCG@10、NDCG@20指標(biāo)上相較基線模型SASRec分別提升約3.58%、7.12%、7.87%,在HR@5、HR@10、HR@20指標(biāo)上分別提升約3.07%、2.91%、8.24%。
3.4" 推薦長(zhǎng)度對(duì)模型影響分析
在本節(jié)中研究了不同序列長(zhǎng)度對(duì)模型效果的影響,如圖3所示,其中序列長(zhǎng)度的取值范圍為20~300。
由圖3可以得出:對(duì)比的基準(zhǔn)模型在序列長(zhǎng)度超過120后,HR@20指標(biāo)均有大幅降低,而本研究提出的VGIN模型在序列為200時(shí)性能最優(yōu),且序列長(zhǎng)度到達(dá)300時(shí)性能仍能保持平穩(wěn)。模型利用Informer?encoder模塊對(duì)長(zhǎng)序列的特征信息充分提取,證明了VGIN模型對(duì)于長(zhǎng)序列推薦相比其他基準(zhǔn)模型有較強(qiáng)的處理能力。
3.5" 消融實(shí)驗(yàn)結(jié)果與分析
為了解各模塊對(duì)模型性能的影響,本研究進(jìn)行了消融實(shí)驗(yàn),得到了變體的性能表現(xiàn),具體如下。
1) VGIN?α:移除用戶偏好重構(gòu)層VAE模塊;
2) VGIN?β:移除特征提取層的Informer?encoder模塊。
由表4的消融實(shí)驗(yàn)對(duì)比結(jié)果得出:當(dāng)移除Informer?encoder模塊后,模型效果提升不明顯,在HR@5、HR@10指標(biāo)上低于基準(zhǔn)模型SASRec,原因是模型對(duì)于時(shí)序信息感知較差,同時(shí)說明了Informer?encoder模塊的有效性;模型移除VAE模塊后NDCG@N和HR@N指標(biāo)均有所下降,從側(cè)面說明VAE可以重構(gòu)用戶缺失的評(píng)分信息,以降低用戶冷啟動(dòng)對(duì)性能的影響,提升模型性能。
4" 結(jié)" 語
現(xiàn)有的序列推薦算法對(duì)于長(zhǎng)序列推薦計(jì)算復(fù)雜度高,容易產(chǎn)生梯度爆炸或消失,且未針對(duì)冷啟動(dòng)問題做出優(yōu)化。針對(duì)上述問題,本研究提出了一種新的融合GCN和Informer的序列推薦算法VGIN。該算法可以有效提取數(shù)據(jù)的時(shí)空特征,對(duì)長(zhǎng)序列數(shù)據(jù)的時(shí)序關(guān)系提取能力有較大提升,進(jìn)一步降低了預(yù)測(cè)的評(píng)分誤差,提高了模型的性能;同時(shí)模型引入VAE重構(gòu)用戶偏好,解決了用戶冷啟動(dòng)導(dǎo)致的推薦精度下降問題。從實(shí)驗(yàn)結(jié)果看,所提模型的NDCG@N和HR@N指標(biāo)均優(yōu)于基線模型,證明了該模型的有效性。未來將選用多種數(shù)據(jù)集進(jìn)行實(shí)驗(yàn),以提高模型的普適性。
注:本文通訊作者為李然。
參考文獻(xiàn)
[1] RODPYSH K V, MIRABEDINI S J, BANIROSTAM T. Resolving cold start and sparse data challenge in recommender systems using multi?level singular value decomposition [J]. Computers amp; electrical engineering, 2021, 94: 107361.
[2] SALAKHUTDINOV R, MNIH A, HINTON G. Restricted Boltzmann machines for collaborative filtering [C]// Proceedings of the 24th International Conference on Machine Learning. [S.l.]: ACM, 2007: 791?798.
[3] HE X, DENG K, WANG X, et al. LightGCN: simplifying and powering graph convolution network for recommendation [C]// Proceedings of the 43rd International ACM SIGIR Conference on Research and Development in Information Retrieval. [S.l.]: ACM, 2020: 639?648.
[4] XU C, ZHAO P, LIU Y, et al. Graph contextualized self?attention network for session?based recommendation [C]// Proceedings of the Twenty?Eighth International Joint Conference on Artificial Intelligence. Macao, China: International Joint Conferences on Artificial Intelligence Organization, 2019: 3940?3946.
[5] STEFFEN R, CHRISTOPH F, LARS S T. Factorizing persona?lized markov chains for next?basket recommendation [C]// 19th International World Wide Web Conference. New York, NY, USA: ACM, 2010: 811?820.
[6] VASWANI A, SHAZEER N, PARMAR N, et al. Attention is all you need [C]// Advances in Neural Information Processing Systems 30: Annual Conference on Neural Information Processing Systems. [S.l.]: NeurIPS, 2017: 59988?60008.
[7] KANG W C, MCAULEY J J. Self?attentive sequential recommendation [C] // International Conference on Data Mining. [S.l.]: IEEE, 2018: 197?206.
[8] 張寶鑫,楊丹,聶鐵錚,等.基于自監(jiān)督的多視角圖協(xié)同過濾推薦方法[J].計(jì)算機(jī)工程,2024,50(5):100?110.
[9] 關(guān)菲,周藝,張晗.個(gè)性化推薦系統(tǒng)中協(xié)同過濾推薦算法優(yōu)化研究[J].運(yùn)籌與管理,2022,31(11):9?14.
[10] ZHOU H, ZHANG S, PENG J, et al. Informer: beyond efficient transformer for long sequence time?series forecasting [J]. AAAI conference on artificial intelligence, 2021, 35(12): 11106?11115.
[11] XU B B, CEN K T, HUANG J J, et al. A survey on graph convolutional neural network [J]. Chinese journal of computers, 2020, 43(5): 755?780.
[12] KINGMA D P, WELLING M. Auto?encoding variational bayes [EB/OL]. [2024?02?17]. https://export.arxiv.org/pdf/1312.6114.
[13] YANG D, ZHANG D, ZHENG V W, et al. Modeling user activity preference by leveraging user spatial temporal characteristics in LBSNs [J]. IEEE transactions on systems, man, and cybernetics: systems, 2014, 45(1): 129?142.
[14] WEI Y, LIU W, LIU F, et al. LightGT: a light graph transformer for multi?media recommendation [C]// Proceedings of the 46th International ACM SI?GIR Conference on Research and Development in Information Retrieval. [S.l.]: ACM, 2023: 1508?1517.
[15] 馮健.基于用戶長(zhǎng)短期興趣的自注意力序列推薦[J].計(jì)算機(jī)應(yīng)用與軟件,2023,40(6):103?111.
[16] 范鈺,范洪博.基于圖神經(jīng)網(wǎng)絡(luò)的推薦系統(tǒng)模型[J].現(xiàn)代電子技術(shù),2024,47(3):85?90.
[17] 郭海鋒,許宏偉,周子盛.深度時(shí)空混合圖卷積的城市交通預(yù)測(cè)模型[J/OL].小型微型計(jì)算機(jī)系統(tǒng),1?8[2024?04?13].http://kns.cnki.net/ kcms/detail/21.1106.tp.20231221.1618.014.html.
[18] 王新峰,黃偉.變分自編碼器對(duì)甲基化缺失數(shù)據(jù)的填補(bǔ)[J].計(jì)算機(jī)工程與應(yīng)用,2022,58(12):149?154.
作者簡(jiǎn)介:范利利(1997—),男,山東菏澤人,碩士研究生,研究方向?yàn)橥扑]算法。
李" 然(1967—),女,遼寧大連人,碩士研究生,副教授,研究方向?yàn)橛?jì)算機(jī)科學(xué)與技術(shù)。
王" 寧(1999—),男,遼寧大連人,碩士研究生,研究方向?yàn)橥扑]算法。
王客程(2000—),男,遼寧沈陽人,碩士研究生,研究方向?yàn)樯疃葘W(xué)習(xí)。
吳" 江(1998—),男,甘肅白銀人,碩士研究生,研究方向?yàn)樯疃葘W(xué)習(xí)。
收稿日期:2024?04?17" " " " " "修回日期:2024?05?23
基金項(xiàng)目:中國(guó)醫(yī)藥教育協(xié)會(huì)2022重大科學(xué)攻關(guān)問題和醫(yī)藥技術(shù)難題重點(diǎn)課題(2022KTM036)