亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        深度層次注意力矩陣分解*

        2023-02-08 02:31:14李建紅蘇曉倩吳彩虹
        關(guān)鍵詞:用戶信息模型

        李建紅,蘇曉倩,吳彩虹

        (1.安徽理工大學(xué)人工智能學(xué)院,安徽 淮南 232001;2.安徽理工大學(xué)安全科學(xué)與工程學(xué)院,安徽 淮南 232001)

        1 引言

        隨著大數(shù)據(jù)時(shí)代的到來,很多互聯(lián)網(wǎng)應(yīng)用使用的數(shù)據(jù)量也變得越來越大,如何從這些大量數(shù)據(jù)中獲得有效的信息是學(xué)術(shù)界和工業(yè)界急需解決的問題。推薦系統(tǒng)作為信息提取的一種有效方式,已大規(guī)模應(yīng)用于個(gè)性化推薦中,例如京東、淘寶和亞馬遜等電商平臺(tái)都部署了推薦系統(tǒng),為用戶提供個(gè)性化商品推薦服務(wù)。推薦系統(tǒng)的核心是推薦算法,常見的是協(xié)同過濾及其擴(kuò)展算法,包括CF(Collaborative Filtering)[1]、MF (Matrix Factorization)[2 - 3]及張燕平等人[4 - 7]提出的用戶聲譽(yù)推薦算法等。近年來,以深度學(xué)習(xí)為代表的人工智能技術(shù)取得了巨大進(jìn)展,究其原因是深度學(xué)習(xí)能夠?qū)?shù)據(jù)進(jìn)行學(xué)習(xí)并獲得其特征表示,因此很多研究人員嘗試將深度學(xué)習(xí)技術(shù)應(yīng)用到推薦中,以挖掘用戶的潛在偏好信息,從而提升推薦系統(tǒng)的性能。利用RBM(Restricted Boltzmann Machine)[8]和AE(Automatic Encoder)[9,10]等深度學(xué)習(xí)方法進(jìn)行個(gè)性化推薦,其核心思想都是對(duì)輸入數(shù)據(jù)進(jìn)行學(xué)習(xí),以獲取用戶個(gè)性化偏好信息。文獻(xiàn)[11]則是在廣度和深度學(xué)習(xí)(Wide and Deep Learning)[12]基礎(chǔ)上提出了DeepHM(Deep Hybrid Model), 該文獻(xiàn)指出廣度和深度學(xué)習(xí)需要專家設(shè)計(jì)特征工程模型,并且廣度學(xué)習(xí)沒有挖掘數(shù)據(jù)非線性用戶偏好的能力。此外,通過VAE(VAriational Eutoencoder)和CF學(xué)習(xí)數(shù)據(jù)分布可以獲得用戶偏好信息并進(jìn)行個(gè)性化推薦[13]。

        Figure 1 DeepHAMF framework圖1 DeepHAMF框架

        注意力機(jī)制在自然語言處理中能夠捕獲文本間的關(guān)系信息,且文本信息能夠很好地刻畫用戶的個(gè)性化偏好信息,因此很多研究人員嘗試將文本信息和注意力機(jī)制應(yīng)用于評(píng)分預(yù)測(cè)中。例如,Lü 等人[14]提出的AICF(Attention-based Item Collaborative Filtering),將注意力機(jī)制應(yīng)用于項(xiàng)目文本信息中,獲得了較好的推薦效果。此外,Pang等人[15]則提出了ACNN-FM(Attention-based Convolutional Neural Network and Factorization Machines),通過基于注意力的卷積神經(jīng)網(wǎng)絡(luò)和分解機(jī)獲取用戶對(duì)不同項(xiàng)目的個(gè)性化偏好。無論是基于傳統(tǒng)模型的推薦算法還是基于深度學(xué)習(xí)的方法都不能取得令人滿意的結(jié)果。究其原因有:(1)推薦算法獲取用戶偏好信息的能力不足;(2)數(shù)據(jù)稀疏性影響了推薦算法的性能。

        為了解決上述問題,本文提出了一種深度層次注意力矩陣分解(DeepHAMF)的新型推薦模型(如圖1所示)。該模型對(duì)原始輸入信息不僅用嵌入操作進(jìn)行編碼,同時(shí)使用自注意力機(jī)制進(jìn)行編碼,目的是直接得到顯式偏好信息;其次,DeepHAMF使用多層感知機(jī)訓(xùn)練得到輸入信息編碼表示后,原始輸入信息的矩陣分解和注意力編碼之后的矩陣分解結(jié)果采用層次注意力機(jī)制相結(jié)合,得到用戶潛在的偏好信息。實(shí)驗(yàn)結(jié)果表明,相比較其他的評(píng)分預(yù)測(cè)算法,DeepHAMF算法可以取得較好的效果。本文的主要工作可歸納為以下幾個(gè)方面:

        (1) 本文提出了名為DeepHAMF的新的神經(jīng)網(wǎng)絡(luò)模型并應(yīng)用于評(píng)分預(yù)測(cè)中,實(shí)驗(yàn)結(jié)果驗(yàn)證了該模型的有效性。

        (2) 對(duì)于原始輸入信息進(jìn)行并行操作:一是采用嵌入操作進(jìn)行編碼;另外采用自注意力機(jī)制進(jìn)行編碼,捕獲用戶顯式信息偏好,該部分命名為自注意力層。

        (3) 當(dāng)輸入信息進(jìn)行編碼后,送入多層感知機(jī)中,利用多層感知機(jī)訓(xùn)練得到信息編碼表示。原始輸入信息的矩陣分解結(jié)果和注意力編碼之后的矩陣分解結(jié)果通過層次注意力機(jī)制獲得歷史行為數(shù)據(jù)中用戶不同項(xiàng)目的偏好信息,該部分命名為層次注意力模塊。

        (4) 最后通過殘差融合層對(duì)層次注意力模塊、原始輸入信息的矩陣分解結(jié)果和注意力編碼之后的矩陣分解結(jié)果進(jìn)行擬合得到預(yù)測(cè)結(jié)果。

        2 相關(guān)工作

        基于協(xié)同過濾的算法包括NMF(Non-negative Matrix Factorization)[16]、RLMC(Robust Local Matrix Factorization)[17]等。這些算法能夠挖掘用戶間的共同偏好,但是無法獲得用戶潛在的偏好信息,這樣導(dǎo)致推薦效果不佳。隨著深度學(xué)習(xí)的不斷發(fā)展,研究人員嘗試將其應(yīng)用于推薦中,目的是獲得用戶潛在的偏好信息,以提高推薦系統(tǒng)的性能。Jia 等人[18]提出的 CF-CNN(Collaborative filtering and Convolutional Neural Networks) 方法將神經(jīng)網(wǎng)絡(luò)和協(xié)同過濾聯(lián)合起來進(jìn)行評(píng)分推薦。類似的方法還有DMF(Deep Matrix Factorization)[19]和NRR(Neural Rating Regression)[20]。Qian等人[21]提出的DLSA (Dual Learning Self-Attention)算法結(jié)合了雙重學(xué)習(xí)和自注意力機(jī)制進(jìn)行評(píng)分預(yù)測(cè)。另外,Nguyen等人[22]提出了NMC-S(Neural Matrix Completion Summarization)模型,該模型不僅繼承了神經(jīng)網(wǎng)絡(luò)的預(yù)測(cè)能力,而且還能夠擴(kuò)展到訓(xùn)練集之外的部分觀察樣本,故不需要重新訓(xùn)練或微調(diào)。還有些研究利用屬性信息和深度學(xué)習(xí)進(jìn)行個(gè)性化信息挖掘[23 - 29]。隨著圖神經(jīng)網(wǎng)絡(luò)[30 - 32]應(yīng)用于異質(zhì)網(wǎng)絡(luò)上,研究人員開始嘗試將其與推薦系統(tǒng)相結(jié)合。文獻(xiàn)[33]提出了RMGCNN (Recurrent Multi-Graph Convolutional Neural Networks),將評(píng)分預(yù)測(cè)問題轉(zhuǎn)換為矩陣填充問題。另外,IGPL (Inductive Graph Pattern Learning)[34]則是利用圖神經(jīng)網(wǎng)絡(luò)子圖匹配模型與歸納學(xué)習(xí)相結(jié)合進(jìn)行評(píng)分預(yù)測(cè)。

        3 DeepHAMF

        在開始介紹DeepHAMF前,首先對(duì)問題定義進(jìn)行介紹,以更好地理解本文提出的模型。

        3.1 問題定義

        推薦算法主要是利用用戶和項(xiàng)目之間的交互信息,挖掘出用戶對(duì)項(xiàng)目的偏好信息,為用戶推薦可能感興趣的項(xiàng)目。黃立威等人[35]給出了如式(1)所示的形式化定義:

        (1)

        其中,U是用戶集合,u表示某個(gè)用戶;I是項(xiàng)目集合,i表示某個(gè)項(xiàng)目;S(·)表示推薦算法,i′u表示用戶u感興趣的項(xiàng)目。本文主要是進(jìn)行評(píng)分預(yù)測(cè),其結(jié)果為預(yù)測(cè)評(píng)分的值。評(píng)分值越高,用戶可能感興趣的程度越高,則推薦性能越好。

        3.2 DeepHAMF

        DeepHAMF主要包括嵌入層、注意力層、多層感知機(jī)層、層次注意力模塊和殘差融合層。

        (1)原始輸入:原始輸入信息,只包括用戶編號(hào)和項(xiàng)目編號(hào),分別用userid和itemid表示。

        (2)嵌入層:在獲得原始輸入信息后,需要將其轉(zhuǎn)換為向量表示后才能進(jìn)行后續(xù)操作。因此,通過嵌入層將原始輸入信息轉(zhuǎn)換成向量表示,其處理方式如式(2)和式(3)所示:

        user_emd=embedded(userid)

        (2)

        item_emd=embedded(itemid)

        (3)

        其中,embedded(·)表示嵌入函數(shù),user_emd和item_emd分別表示用戶編號(hào)和項(xiàng)目編號(hào)嵌入操作后的結(jié)果。

        (3)自注意力層:自注意力機(jī)制[36]在自然語言處理等領(lǐng)域取得了不錯(cuò)的效果,因此本文采用自注意力進(jìn)行編碼,并將這層命名為自注意力層。該層處理方法如式(4)和式(5)所示:

        (4)

        (5)

        其中,Softmax(·)表示激活函數(shù),d表示輸入向量的維度,user_emd_att和item_emd_att分別表示向量經(jīng)過注意力層處理后的向量表示。

        在輸入信息轉(zhuǎn)換為嵌入向量表示后,一部分直接輸入到多層感知機(jī)中,除此之外,本文還利用注意力層進(jìn)行學(xué)習(xí),這樣能夠捕獲原始輸入信息的偏好,究其原因是通過注意力機(jī)制能夠?qū)τ脩舾信d趣的項(xiàng)目增加相應(yīng)的權(quán)重。

        (4)多層感知機(jī)層:由于神經(jīng)網(wǎng)絡(luò)通過訓(xùn)練后能夠利用向量對(duì)數(shù)據(jù)進(jìn)行特征表示,本文通過多層感知機(jī)進(jìn)行學(xué)習(xí)表示,這樣經(jīng)過訓(xùn)練后的向量能夠表示輸入信息。具體操作方式如式(6)~式(9)所示:

        (6)

        (7)

        (8)

        (9)

        (5)層次注意力模塊:經(jīng)過前面的處理后,通過矩陣分解操作,可以獲得原始輸入信息的交互信息,具體如式(10)和式(11)所示:

        user_item=user_emd?item_emd

        (10)

        user_item_att=user_emd_att?item_emd_att

        (11)

        其中,user_item和user_item_att分別是原始輸入矩陣分解結(jié)果的向量表示和原始輸入注意機(jī)制后的矩陣分解結(jié)果的向量表示。其目的是通過用戶與項(xiàng)目直接交互得到偏好信息。此外,需要將原始輸入信息和經(jīng)過多層感知機(jī)的信息進(jìn)行注意力機(jī)制融合,其目的是獲取潛在的用戶個(gè)性化偏好信息。利用多層感知機(jī)學(xué)到的向量表示通過矩陣分解操作得到交互信息,具體如式(12)和式(13)所示:

        user_item_mlp=user_mlp?item_mlp

        (12)

        user_item_attm=user_att_mlp?item_att_mlp

        (13)

        其中,user_item_mlp和user_item_attm分別是利用矩陣分解操作后的向量結(jié)果。通過層次注意力分別將注意力結(jié)果和多層感知機(jī)輸出進(jìn)行層次注意力操作,具體如式(14)和式(15)所示:

        uiam=f(user_item_att)·f(user_item_mlp)

        (14)

        uima=f(user_item_attm)·f(user_item_att)

        (15)

        其中,uiam和uima分別表示操作后的結(jié)果;·表示點(diǎn)乘;f(·)表示激活函數(shù),且激活函數(shù)是Linear。

        (6)殘差融合層:將相關(guān)信息(包括模型中原始輸入信息、注意力層信息及層次注意力層信息)進(jìn)行融合并輸出預(yù)測(cè)結(jié)果。整個(gè)過程如式(16)和式(17)所示:

        uira=F(uiam,W)+uiam+H(user_item)

        (16)

        uiar=F(uima,W)+uima+H(user_item_att)

        (17)

        其中,F(·)和W分別為殘差融合的激活函數(shù)和權(quán)重;uiar和uira分別表示殘差融合層輸出結(jié)果;H(·)表示維度求和函數(shù)tf.reduce_sum(),目的是把向量數(shù)據(jù)變成一個(gè)評(píng)分?jǐn)?shù)據(jù)。

        最后對(duì)相關(guān)用戶偏好信息進(jìn)行求和并輸出評(píng)分,如式(18)所示:

        r=uira+uiar+U+I+b

        (18)

        其中,U表示用戶偏移量,I表示項(xiàng)目偏置量,b表示全局偏置量,r表示預(yù)測(cè)結(jié)果。

        為了更好地優(yōu)化DeepHAMF算法,本文采用l2正則化項(xiàng)結(jié)合懲罰項(xiàng)的方法作為損失函數(shù)進(jìn)行優(yōu)化,具體的損失函數(shù)如式(19)所示:

        (19)

        其中,μ和θ均為懲罰項(xiàng)系數(shù),φ為常數(shù)項(xiàng)系數(shù),R表示用戶對(duì)項(xiàng)目的實(shí)際評(píng)分,user_emd和item_emd分別表示用戶編號(hào)的向量表示和項(xiàng)目編號(hào)的向量表示。

        DeepHAMF可以表述為對(duì)原始輸入信息進(jìn)行如下操作。首先,對(duì)原始輸入信息除了采用嵌入操作進(jìn)行編碼外,還采用自注意力機(jī)制進(jìn)行編碼,可以捕獲用戶顯式信息偏好。對(duì)輸入信息進(jìn)行編碼后,將其送入多層感知機(jī)中,并利用多層感知機(jī)訓(xùn)練得到編碼表示;其次,與原始輸入信息的矩陣分解結(jié)果和注意力編碼之后的矩陣分解結(jié)果通過層次注意力機(jī)制獲得歷史行為數(shù)據(jù)中用戶不同項(xiàng)目的偏好信息;最后,利用殘差網(wǎng)絡(luò)將層次注意力模塊、原始輸入信息的矩陣分解結(jié)果和注意力編碼之后的矩陣分解結(jié)果進(jìn)行擬合。

        4 模型訓(xùn)練和實(shí)驗(yàn)結(jié)果分析

        4.1 數(shù)據(jù)集

        本文實(shí)驗(yàn)中使用的數(shù)據(jù)集為公開數(shù)據(jù)集MovieLens 100K(100k)和MovieLens 1M(1m)。100k數(shù)據(jù)集包含100 000個(gè)評(píng)分記錄;MovieLens 1m數(shù)據(jù)集包含1 000 209個(gè)評(píng)分記錄。所有的數(shù)據(jù)集分?jǐn)?shù)都在1~5分。數(shù)據(jù)集詳細(xì)信息如表1所示。

        Table 1 Description of MovieLens datasets

        4.2 評(píng)價(jià)指標(biāo)與對(duì)比算法

        均方根誤差(RMSE)和平均絕對(duì)誤差(MAE)是推薦系統(tǒng)中廣泛使用的評(píng)價(jià)指標(biāo),本文也使用RMSE和MAE來評(píng)估DeepHAMF模型的性能。其計(jì)算如式(20)和式(21)所示:

        (20)

        (21)

        其中,T表示測(cè)試集的大小,R表示用戶的真實(shí)評(píng)分。

        為了有效地驗(yàn)證本文模型的有效性,實(shí)驗(yàn)部分需回答以下問題:

        (1)DeepHAMF與當(dāng)前主流算法相比性能怎么樣?

        (2)DeepHAMF與有(無)文本信息的推薦算法和基于注意力的推薦算法相比,效果是否具有競(jìng)爭(zhēng)性?

        (3)DeepHAMF各模塊效果如何?

        為了充分回答上述問題,本文選取了傳統(tǒng)的矩陣分解方法、基于神經(jīng)網(wǎng)絡(luò)的算法、基于注意力機(jī)制的算法和基于文本算法的模型進(jìn)行比較,具體有:深度混合評(píng)分推薦DeepHM、奇異值分解模型SVD++(Singular Value Decomposition++)、通過對(duì)偶自動(dòng)編碼機(jī)的表示學(xué)習(xí)方法ReDa( Recommendation via Dual-autoencoder)、基于卷積神經(jīng)網(wǎng)絡(luò)的協(xié)調(diào)過濾算法CF-CNN、貝葉斯概率矩陣分解BPMF(Bayes Probabilistic Matrix Factorization)、概率矩陣分解PMF(Probabilistic Matrix Factorization)、非負(fù)矩陣分解NMF(Nonnegative Matrix Factorization)、基于神經(jīng)網(wǎng)絡(luò)預(yù)測(cè)模型NMC-S、基于抽樣偏見和變分估計(jì)器模型RLMC、利用用戶隱式社交關(guān)系推薦算法SR(Social Relations)[37]、聯(lián)合矩陣填充和圖卷積神經(jīng)網(wǎng)絡(luò)算法RMGCNN、局部圖匹配的歸納模型IGPL、深度矩陣分解DMF、神經(jīng)評(píng)分回歸模型NRR、主題注意力的協(xié)同過濾算法AICF、基于注意力卷積神經(jīng)分解機(jī)算法ACNN-FM、概率評(píng)分自動(dòng)編碼器算法PRA(Probabilistic Rating Auto-encoder)[38]、基于參數(shù)自動(dòng)搜索的推薦算法Auto-S(Auto-Surprise)[39]、凸最小化Frank-Wolfe算法SHCGM(Stochastic Homotopy Conditional-Gradient Method)[40]和動(dòng)態(tài)圖推薦算法GCMC-GRU(Graph Convolutional Matrix Completion Gate Recurrent Unit)[41]。

        4.3 模型訓(xùn)練參數(shù)

        DeepHAMF算法只使用用戶ID、電影ID和評(píng)分信息,不會(huì)添加任何其他信息。實(shí)驗(yàn)參數(shù)設(shè)置中使用Adam優(yōu)化函數(shù),多層感知機(jī)層使用3層,每層的神經(jīng)元個(gè)數(shù)分別為200,100和10。激活函數(shù)使用ReLU函數(shù),最后融合層輸出評(píng)分值,程序語言是Python3。本文使用TensorFlow深度學(xué)習(xí)框架實(shí)現(xiàn)本文提出的模型。為了減少運(yùn)行時(shí)間,使用NVIDIA RTX2080Ti GPU來加速實(shí)驗(yàn)運(yùn)行。懲罰系數(shù)μ和θ均為0.000 1。

        4.4 實(shí)驗(yàn)結(jié)果分析

        為了回答問題(1),表2給出了DeepHAMF與當(dāng)前主流的評(píng)分預(yù)測(cè)算法在MovieLens數(shù)據(jù)集上的十交叉驗(yàn)證(10-cv)結(jié)果。從100k數(shù)據(jù)集上的結(jié)果來看,DeepHAMF模型均有0.5%的性能提升。從1m數(shù)據(jù)集上的的實(shí)驗(yàn)結(jié)果來看,DeepHAMF模型在RMSE評(píng)價(jià)指標(biāo)上保持了一定的優(yōu)勢(shì),但在MAE指標(biāo)上DLSA算法取得了不錯(cuò)的結(jié)果。原因在于,DLSA算法通過雙重學(xué)習(xí)和自我注意力機(jī)制能夠充分挖掘用戶偏好信息,因此能夠獲得較好的結(jié)果。即使如此,DeepHAMF在RMSE指標(biāo)上還是優(yōu)于DLSA的,并且其MAE值僅次于DLSA算法的。此外,結(jié)合表1的數(shù)據(jù)可知,當(dāng)數(shù)據(jù)量變大時(shí),數(shù)據(jù)稀疏性也越來越強(qiáng)。從實(shí)驗(yàn)結(jié)果來看,DeepHAMF的性能比較好,這也說明DeepHAMF在數(shù)據(jù)稀疏性較高的情況下也能取得較好的效果。整體來說,本文DeepHAMF確實(shí)能夠充分挖掘用戶的個(gè)性化偏好信息,即使在數(shù)據(jù)稀疏的情況下也能擁有不錯(cuò)的結(jié)果。

        Table 2 Experimental results of DeepHAMF compared to 10-cv rating recommendation algorithms (without text information) on the MovieLens datasets

        對(duì)于問題(2),表3給出了在MovieLens數(shù)據(jù)集上進(jìn)行五交叉驗(yàn)證(5-cv)的結(jié)果,DeepHAMF模型無論是在MAE指標(biāo)上還是RMSE指標(biāo)上均最優(yōu),平均有1%的性能提升。這表明了DeepHAMF模型與不使用文本信息的推薦算法相比,能夠取得較好的實(shí)驗(yàn)結(jié)果。這也表明了本文模型在不使用文本信息的情況下,能夠充分挖掘用戶的個(gè)性化偏好信息,從而獲得很好的推薦效果。

        Table 3 Experimental results of DeepHAMF compared to 5-cv rating recommendation algorithms(without text information) on RMSE metrics

        表4給出DeepHAMF模型與其他利用文本信息的評(píng)分算法進(jìn)行對(duì)比的結(jié)果。根據(jù)表4的實(shí)驗(yàn)結(jié)果可知,在MovieLens 100K數(shù)據(jù)集上,DeepHAMF模型的結(jié)果不是最優(yōu)的。原因是100k數(shù)據(jù)集相對(duì)來說較小而且數(shù)據(jù)還有一定的稀疏性,導(dǎo)致用戶和項(xiàng)目之間的交互信息較少,利用文本信息能夠有效刻畫用戶的偏好,而DeepHAMF沒有利用文本信息,故無法充分獲取用戶的個(gè)性化偏好信息。但是,DeepHAMF模型在MovieLens 1M上取得了較好的實(shí)驗(yàn)結(jié)果,這表明當(dāng)數(shù)據(jù)量較大時(shí),即使不使用文本信息,該模型也能夠充分挖掘用戶的偏好信息而獲取較好的推薦效果。與基于注意力的算法(包括DLSA和AFM等算法)相比,DeepHAMF模型擁有較好的結(jié)果,這也表明本文設(shè)計(jì)的注意力模塊確實(shí)有效。此外,通過表3和表4可以發(fā)現(xiàn),加入文本信息的算法的整體效果要比無文本信息的算法好,但DeepHAMF模型還是能夠取得更好的效果。

        Table 4 Experimental performance of DeepHAMF compared to 5-cv rating recommendation algorithms(based on text information and attention mechanism)

        為了驗(yàn)證DeepHAMF模型各個(gè)模塊的效果,本文進(jìn)行了消融實(shí)驗(yàn)(十交叉驗(yàn)證),對(duì)DeepHAMF模型各個(gè)模塊的作用進(jìn)行驗(yàn)證。相關(guān)模塊命名為:自注意力層(DeepHAMF_att)、層次注意力層(DeepHAMF_hatt)和殘差層(DeepHAMF_res)。消融實(shí)驗(yàn)結(jié)果如圖2和圖3所示。

        Figure 2 Results of ablation experiment on 100k dataset圖2 100k數(shù)據(jù)集上消融實(shí)驗(yàn)結(jié)果

        Figure 3 Results of ablation experiment on 1m dataset圖3 1m數(shù)據(jù)集上消融實(shí)驗(yàn)結(jié)果

        根據(jù)圖2和圖3的實(shí)驗(yàn)結(jié)果可知,DeepHAMF模型的推薦性能逐步提升,層次注意力層和殘差融合層的實(shí)驗(yàn)結(jié)果相比其他模塊提升比較明顯。原因是因?yàn)樵趯哟巫⒁饬硬粌H通過矩陣分解獲得用戶的顯式偏好信息,還利用注意力捕獲用戶潛在偏好信息;殘差融合層則是對(duì)這些模塊進(jìn)行擬合,以充分獲得用戶的偏好信息。

        根據(jù)以上實(shí)驗(yàn)可知,DeepHAMF對(duì)用戶與項(xiàng)目的交互信息進(jìn)行挖掘,以獲得用戶的偏好信息,然后將其運(yùn)用于評(píng)分推薦中。相比于其他機(jī)器學(xué)習(xí)和深度學(xué)習(xí)評(píng)分預(yù)測(cè)算法,DeepHAMF擁有更高的推薦精度。

        5 結(jié)束語

        為了充分挖掘用戶個(gè)性化偏好信息,以達(dá)到較好的推薦效果,本文提出了一種名為深度層次注意力矩陣分解(DeepHAMF)的新型推薦模型。該模型可以充分利用用戶的評(píng)分?jǐn)?shù)據(jù)挖掘出用戶個(gè)性化偏好信息,即使數(shù)據(jù)稀疏也具有良好的推薦能力。由于添加文本信息可以很好地提升推薦效果,在后續(xù)的工作中,將對(duì)DeepHAMF模型進(jìn)行改進(jìn),通過添加相關(guān)文本信息和算法使其在評(píng)分推薦性能上有更好的提升。

        猜你喜歡
        用戶信息模型
        一半模型
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
        訂閱信息
        中華手工(2017年2期)2017-06-06 23:00:31
        關(guān)注用戶
        商用汽車(2016年11期)2016-12-19 01:20:16
        3D打印中的模型分割與打包
        關(guān)注用戶
        商用汽車(2016年6期)2016-06-29 09:18:54
        關(guān)注用戶
        商用汽車(2016年4期)2016-05-09 01:23:12
        如何獲取一億海外用戶
        展會(huì)信息
        国产肉体ⅹxxx137大胆| 亚洲最新精品一区二区| 曰韩内射六十七十老熟女影视| 亚洲精品乱码久久久久久金桔影视| 亚洲国产成人久久综合一区77| 视频二区 无码中出| 青青草好吊色在线观看| 欧美成人精品a∨在线观看 | 亚洲人成影院在线观看| 国产a级午夜毛片| 激情五月天俺也去综合网| 丝袜美腿视频一区二区| 成人欧美一区二区三区| 久久久精品3d动漫一区二区三区| 能看的网站中文字幕不卡av| 夜夜骚久久激情亚洲精品| 少妇aaa级久久久无码精品片| 国产91精选在线观看麻豆| 久久夜色精品国产九色| 中文字幕国产精品一二三四五区| 无码不卡av东京热毛片| 久久国产亚洲AV无码麻豆| 国产色婷亚洲99精品av网站| 国产精品情侣呻吟对白视频| 丰满少妇被猛男猛烈进入久久| 香港三级欧美国产精品| 国产亚洲精品A在线无码| 又爽又猛又大又湿的视频| 日本在线一区二区三区不卡| 天堂…在线最新版资源| 中文字幕久久久人妻无码| 免费女女同黄毛片av网站| 日韩精品专区av无码| 激情内射亚洲一区二区三区爱妻| 亚洲一区二区三在线播放| 在线a亚洲视频播放在线播放| 中国农村妇女hdxxxx| 黑人巨大精品欧美在线观看| 中文文精品字幕一区二区| 国产永久免费高清在线| 二区在线视频|