張 旭,孫福振,方 春,郭 蕊
ZHANG Xu,SUN Fuzhen,FANG Chun,GUO Rui
山東理工大學(xué) 計(jì)算機(jī)科學(xué)與技術(shù)學(xué)院,山東 淄博 255049
College of Computer Science and Technology,Shandong University of Technology,Zibo,Shandong 255049,China
《中國(guó)互聯(lián)網(wǎng)絡(luò)發(fā)展?fàn)顩r統(tǒng)計(jì)報(bào)告》顯示,截至2015年6月,中國(guó)互聯(lián)網(wǎng)網(wǎng)民規(guī)模達(dá)6.68億[1]。伴隨著信息技術(shù)飛速發(fā)展,信息量也發(fā)生著爆炸式的增長(zhǎng),信息過(guò)載問(wèn)題也日益突出。在海量信息中用戶很難發(fā)現(xiàn)自己需要的,感興趣的部分。而推薦系統(tǒng)是在用戶沒(méi)有明確需求的情況下,通過(guò)分析用戶歷史行為數(shù)據(jù)給用戶進(jìn)行興趣建模,然后將用戶可能感興趣的信息推薦給用戶。
協(xié)同過(guò)濾推薦是迄今應(yīng)用最成功、最成熟的技術(shù)之一,其主要分為兩類:基于用戶的協(xié)同過(guò)濾和基于物品的協(xié)同過(guò)濾[2]?;谖锲返膮f(xié)同過(guò)濾推薦算法的思想是根據(jù)用戶的歷史行為數(shù)據(jù)分析計(jì)算得出用戶的行為偏好,據(jù)此用戶偏好給用戶做出推薦。其前提假設(shè)是,在未來(lái)的一段時(shí)間內(nèi)用戶的興趣偏好是不變化的。而傳統(tǒng)的基于用戶的協(xié)同過(guò)濾推薦算法的思想是根據(jù)用戶A的行為數(shù)據(jù)計(jì)算出和用戶A具有相似偏好的鄰居用戶,然后將鄰居用戶感興趣的物品且用戶A還沒(méi)有發(fā)現(xiàn)的物品推薦給用戶A。雖然協(xié)同過(guò)濾取得了很大成功,但也存在時(shí)間動(dòng)態(tài)性問(wèn)題,物品流行偏執(zhí)等問(wèn)題。
針對(duì)協(xié)同過(guò)濾技術(shù)中的動(dòng)態(tài)性問(wèn)題,文獻(xiàn)[3]加權(quán)時(shí)間權(quán)重和資源相似度的數(shù)據(jù)權(quán)重,提出了適應(yīng)用戶興趣的推薦算法,沒(méi)有考慮用戶短期興趣和長(zhǎng)期興趣的穩(wěn)定性。文獻(xiàn)[4]提出了一種動(dòng)態(tài)推薦技術(shù),考慮了時(shí)間信息,并沒(méi)有涉及用戶興趣穩(wěn)定性。隨著移動(dòng)設(shè)備蓬勃發(fā)展,文獻(xiàn)[5]提出了一種SUCM模型來(lái)學(xué)習(xí)細(xì)粒度的用戶偏好給用戶做推薦,沒(méi)有考慮時(shí)間敏感和用戶興趣穩(wěn)定性。本文從時(shí)間和興趣穩(wěn)定性角度出發(fā),考慮用戶興趣穩(wěn)定的情況下引入時(shí)間敏感因子,進(jìn)而給用戶產(chǎn)生動(dòng)態(tài)推薦,實(shí)驗(yàn)表明,該模型降低了推薦誤差。
針對(duì)物品流行偏執(zhí)問(wèn)題,文獻(xiàn)[6-8]提出了運(yùn)用近鄰度、影響力和普及性三方面綜合考慮用戶評(píng)分對(duì)用戶之間相似度的影響。文獻(xiàn)[9]提出了一種啟發(fā)式相似度計(jì)算模型,提高了用戶之間的相似度。文獻(xiàn)[10-12]通過(guò)使用自編碼方式來(lái)提高topN推薦質(zhì)量。文獻(xiàn)[13]利用社交網(wǎng)絡(luò),分析社交群體中的強(qiáng)弱關(guān)系,提出一種EM算法來(lái)提高推薦質(zhì)量。文獻(xiàn)[14-15]不是從相似度計(jì)算模型而是通過(guò)改變推薦結(jié)果的流行度分布來(lái)緩解偏執(zhí)問(wèn)題。而本文在相似度建模階段通過(guò)將所有物品流行度進(jìn)行“裝箱化”,然后根據(jù)用戶實(shí)際評(píng)分映射“箱子”,映射生成三維的基于物品流行度的用戶興趣特征向量——“向量化”,進(jìn)而計(jì)算用戶之間的相似度。
綜上所述,針對(duì)協(xié)同過(guò)濾中的流行偏執(zhí)問(wèn)題和時(shí)間動(dòng)態(tài)性問(wèn)題,本文考慮時(shí)間敏感的用戶興趣穩(wěn)定性,以及物品流行度因素對(duì)用戶之間相似度的影響,提出了一種引入興趣穩(wěn)定性的時(shí)間敏感協(xié)同過(guò)濾算法。實(shí)驗(yàn)表明,該算法能夠有效降低推薦誤差,挖掘長(zhǎng)尾物品,緩解物品流行偏執(zhí)現(xiàn)象。
定義1(物品i的流行度定義)所有用戶對(duì)物品i的評(píng)價(jià)次數(shù)之和與物品總數(shù)的比值。公式如下:
其中,counti表示有多少個(gè)用戶對(duì)物品i進(jìn)行了評(píng)價(jià),countI表示物品總數(shù)。
算法描述:
(1)取三個(gè)物品流行度區(qū)間[a1,a2),[b1,b2),[c1,c2)。
(2)用公式 popularityi計(jì)算用戶u已經(jīng)評(píng)價(jià)的所有物品的流行度。
(3)將步驟(2)中用戶計(jì)算的所有物品的流行度先裝箱,然后映射到步驟(1)。
裝箱偽代碼為:
說(shuō)明:a1,a2,b1,b2,c1,c2是根據(jù)實(shí)驗(yàn)取得的閾值數(shù)據(jù)。
映射偽代碼為:
(4)將步驟(3)中生成的 featurevector用戶特征向量采用余弦相似度公式來(lái)計(jì)算用戶A和用戶B的基于物品流行度的用戶興趣特征相似度。公式描述如下:
上述模型稱為Item_pop_sim模型,簡(jiǎn)稱IPS模型。
在實(shí)際應(yīng)用過(guò)程中,用戶的興趣通常具有易變性,不僅與用戶對(duì)物品評(píng)分?jǐn)?shù)值有關(guān),還與物品的流行度有關(guān),這兩者加權(quán)構(gòu)成了用戶的興趣度。用戶興趣度定義如下:
定義2(用戶u的興趣度)是由用戶u對(duì)i個(gè)物品的興趣向量組成的向量集合Pu=(Pu1,Pu2,…,Pui)。
定義3(用戶u的第i個(gè)物品興趣向量)用戶u評(píng)價(jià)的第i個(gè)物品的實(shí)際評(píng)分值與滿分值的比值再加權(quán)該物品的流行度。公式描述如下:
其中,Pui表示用戶u對(duì)第i個(gè)項(xiàng)目的興趣程度,Rui表示用戶u對(duì)物品i的打分值,Rmax表示該物品的滿分值,popularityi表示公式(1)中定義的物品i的流行度,popularitymax表示所有物品的最大流行度,popularitymin表示所有物品的最小流行度。α,β表示參數(shù),且α+β=1,該參數(shù)可以通過(guò)實(shí)驗(yàn)驗(yàn)證得出。同樣,使用余弦相似度來(lái)計(jì)算用戶u和用戶v之間的興趣相似度,公式描述如下:
該模型通過(guò)引入帶權(quán)值的物品流行度可以有效地緩解用戶打分偏置的問(wèn)題。
定義4(用戶u的興趣穩(wěn)定性)用戶u評(píng)價(jià)的所有物品評(píng)分?jǐn)?shù)值的方差。公式描述如下:
其中,ui表示用戶u評(píng)價(jià)的第i個(gè)物品的評(píng)分值,n為用戶u評(píng)價(jià)的所有物品的總數(shù),μ為用戶u評(píng)價(jià)的所有物品評(píng)分值的平均值。方差的大小來(lái)衡量用戶興趣的穩(wěn)定性,即方差越小用戶興趣越穩(wěn)定。
現(xiàn)實(shí)中,用戶的興趣往往不是一成不變的,可能受自身因素的影響,周圍環(huán)境,興趣會(huì)隨著時(shí)間的流逝潛移默化,很早之前的興趣可能會(huì)逐漸淡忘或者消失。本文從影響用戶興趣的因素出發(fā),給出了時(shí)間敏感的表征。
定義5(時(shí)間敏感)在兩個(gè)用戶興趣穩(wěn)定的基礎(chǔ)上,兩用戶對(duì)物品的評(píng)分時(shí)間越相近則用戶間的興趣相似度就越高,即用戶的興趣相似度對(duì)時(shí)間敏感。
考慮到用戶興趣隨著時(shí)間的增長(zhǎng)可能會(huì)發(fā)生變化,本文引入 e-φ| |tui-tvi為時(shí)間敏感因子,以天為單位且兩用戶評(píng)分時(shí)間越相近,表明用戶的區(qū)域時(shí)間段內(nèi)興趣相似度就越高。
為建模用戶興趣的時(shí)間敏感動(dòng)態(tài)性,本文提出了一種時(shí)間敏感的用戶興趣穩(wěn)定性相似度計(jì)算模型。公式如下:
其中,σu=σu-σmed,σv=σv-σmed,σu和 σv分別表示用戶u和用戶v分別去中心化后的評(píng)分方差,σmed是指評(píng)分方差的中值,通過(guò)統(tǒng)計(jì)分析可以得出,方差大部分在0.5到1.5之間,所以σmed=1,δ表示實(shí)驗(yàn)取得的參數(shù),其中,δ∈(0,1)。Iu?Iv表示用戶u和用戶v共同評(píng)分的物品交集,tui和tvi分別表示用戶u和用戶v對(duì)物品i的評(píng)價(jià)時(shí)間。φ表示實(shí)驗(yàn)取得的參數(shù),其中,φ∈(0,1)?!芚2和∑Y2表示用戶u和用戶v對(duì)物品評(píng)分值的平方和。上述公式(8)中的模型稱為Stability_Time_Sim模型,簡(jiǎn)稱為STS模型。
上面介紹了兩種相似度模型各有各的優(yōu)點(diǎn),其中基于物品流行度的用戶興趣特征相似度模型可以有效地緩解物品偏置問(wèn)題,引入時(shí)間敏感的用戶興趣穩(wěn)定性的相似度模型可以實(shí)時(shí)抓住用戶興趣,挖掘長(zhǎng)尾物品,提高推薦系統(tǒng)的新穎度。所以為了使推薦效果更好,不增加算法時(shí)間復(fù)雜度且易于實(shí)現(xiàn)起見(jiàn),將兩種模型進(jìn)行線性加權(quán),提出了Item_Pop_Stability_Time_Sim函數(shù)模型。公式描述如下:
其中,λ為實(shí)驗(yàn)取得的參數(shù)且λ∈[0,1]。關(guān)于λ取值對(duì)于模型的影響,見(jiàn)本文3.3.3節(jié)詳細(xì)分析。
上述模型簡(jiǎn)稱IPSTS模型,IPSTS模型綜合考慮了用戶興趣的穩(wěn)定性、時(shí)間敏感情況,以及物品流行度等因素。綜合這些因素進(jìn)行建模,實(shí)驗(yàn)表明,加權(quán)后的相似度模型在推薦質(zhì)量上有明顯提高。
本文實(shí)驗(yàn)所用的數(shù)據(jù)集是美國(guó)Minnesota大學(xué)GroupLens小組開發(fā)的MovieLens站點(diǎn)所提供的數(shù)據(jù)集。MovieLens建立于1997年,是一個(gè)基于Web的推薦系統(tǒng),目前,該站點(diǎn)提供三種不同數(shù)量級(jí)的數(shù)據(jù)集,分別為:943個(gè)用戶對(duì)1 682部電影的10萬(wàn)條評(píng)分的數(shù)據(jù);6 040個(gè)用戶對(duì)3 900部電影評(píng)分的100萬(wàn)條數(shù)據(jù);71 567個(gè)用戶對(duì)10 681部電影做出的1 000萬(wàn)條評(píng)分?jǐn)?shù)據(jù)。
本文實(shí)驗(yàn)采用了943個(gè)用戶對(duì)1 682部電影的10萬(wàn)條評(píng)分?jǐn)?shù)據(jù)集,其中每個(gè)用戶至少對(duì)20部電影進(jìn)行了評(píng)價(jià)。該數(shù)據(jù)集的稀疏等級(jí)為1-100 000/(943×1 682)=0.937,本文將實(shí)驗(yàn)數(shù)據(jù)集劃分為訓(xùn)練集和測(cè)試集,其中訓(xùn)練集占80%,測(cè)試集占20%。
本文采用的推薦質(zhì)量的評(píng)價(jià)標(biāo)準(zhǔn)分別是平均絕對(duì)誤差(Mean Absolute Error,MAE)和均方根誤差(Root Mean Squared Error,RMSE)[16]。平均絕對(duì)誤差(MAE)公式如下:
均方根誤差(RMSE)公式如下:
實(shí)驗(yàn)比較了IPSTS模型與Pearson(皮爾森)模型以及Euclide(歐幾里德)模型在推薦質(zhì)量上的差異,第一步先考查當(dāng)參數(shù)δ和參數(shù)λ固定時(shí),隨著鄰居數(shù)量逐漸增多,三種模型在RMSE和MAE兩個(gè)評(píng)價(jià)標(biāo)準(zhǔn)上的效果。第二步固定鄰居數(shù)量,考查當(dāng)參數(shù)δ和參數(shù)φ以及參數(shù)λ按照相應(yīng)的步長(zhǎng)逐漸增長(zhǎng)時(shí),三種模型在RMSE和MAE兩個(gè)評(píng)價(jià)標(biāo)準(zhǔn)上的效果。
3.3.1 IPSTS模型實(shí)驗(yàn)結(jié)果
圖1顯示出取不同鄰居時(shí),各個(gè)相似度計(jì)算模型對(duì)RMSE的影響。其中鄰居數(shù)量分別為10,20,30,40,50,60,70,80,90。分析得出,IPSTS模型計(jì)算的均方根誤差(RMSE)比Euclide和Pearson模型計(jì)算的均方根誤差(RMSE)都要低(例如:當(dāng)鄰居數(shù)量為20時(shí),本文提出的IPSTS模型比Pearson模型要低6%左右,比Euclide模型要低30%左右)。所以,降低了誤差,提高了推薦質(zhì)量。
圖1 IPSTS、Pearson、Euclide三種模型RMSE對(duì)比圖
圖2 顯示出取不同鄰居時(shí)各個(gè)相似度計(jì)算模型對(duì)MAE的影響折線圖。其中鄰居數(shù)量分別為55,60,65,70,75,80,85,90。分析得出,IPSTS模型計(jì)算的平均絕對(duì)誤差(MAE)比Euclide和Pearson模型計(jì)算的平均絕對(duì)誤差(MAE)都要低(例如:當(dāng)鄰居數(shù)量為80時(shí),IPSTS模型比Pearson模型要低1%左右,比Euclide模型要低8%左右)。所以,提高了推薦質(zhì)量。
圖2 IPSTS、Pearson、Euclide三種模型MAE對(duì)比圖
在實(shí)驗(yàn)中,參數(shù)的選取是至關(guān)重要的,為了讓實(shí)驗(yàn)達(dá)到滿意的效果,同時(shí)充分測(cè)試算法的健壯性和適用性,更為了優(yōu)化算法,本節(jié)對(duì)δ取值選取進(jìn)行了實(shí)驗(yàn),為了盡可能地排除其他因素干擾,僅僅檢驗(yàn)δ對(duì)IPSTS模型的影響,取鄰居數(shù)量為50,參數(shù)λ取0.2時(shí),檢驗(yàn)隨著δ的遞增,IPSTS模型在RMSE評(píng)價(jià)標(biāo)準(zhǔn)上的效果。如圖3所示。
圖3 參數(shù)δ變化對(duì)IPSTS模型的影響
3.3.3 參數(shù)λ對(duì)IPSTS模型的影響
同時(shí),為了檢驗(yàn)權(quán)重參數(shù)λ對(duì)IPSTS模型的影響,結(jié)合上一節(jié)實(shí)驗(yàn)結(jié)果取鄰居數(shù)量為50,參數(shù)δ取0.014時(shí),檢查隨著λ的增長(zhǎng),IPSTS模型在RMSE評(píng)價(jià)標(biāo)準(zhǔn)上的效果。
圖4顯示,從0.1開始,隨著λ的增長(zhǎng),RMSE是先減少后增長(zhǎng),然后增長(zhǎng)到一定的數(shù)值后再下降,之后,隨著λ的增長(zhǎng),RMSE基本上趨于緩和。由圖4可知,當(dāng)λ取0.2時(shí),RMSE最小。所以,在IPSTS模型中,參數(shù)λ取0.2最優(yōu)。
圖4 參數(shù)λ變化對(duì)IPSTS模型的影響
3.3.4 參數(shù)φ對(duì)IPSTS模型的影響
為了檢驗(yàn)參數(shù)φ對(duì)IPSTS模型的影響,結(jié)合上一節(jié)實(shí)驗(yàn),鄰居數(shù)量固定為50,λ取0.2,δ取0.014。
圖5顯示,當(dāng)φ取1.0時(shí),RMSE最小。因此,在IPSTS模型中,參數(shù)φ取1.0最優(yōu)。
3.3.5 IPSTS模型對(duì)長(zhǎng)尾物品的影響
圖5 參數(shù)φ對(duì)IPSTS模型的影響
由圖6可知,這些物品存在長(zhǎng)尾現(xiàn)象。其中,物品ID越靠前,流行度越高,ItemID在1 000之后的為長(zhǎng)尾物品。為檢驗(yàn)IPSTS模型對(duì)長(zhǎng)尾物品的挖掘能力,實(shí)驗(yàn)如下:隨機(jī)選取3個(gè)用戶,對(duì)3個(gè)用戶分別進(jìn)行top5(推薦前5個(gè))推薦,用戶ID分別為80,800,888。userID為需要進(jìn)行推薦的用戶編號(hào),RecommenderSize=5為推薦列表大小,NeighborSize(鄰居數(shù)量)=90。Pearson模型中RMSE=0.335 60,IPSTS模型中RMSE=0.329 65。
銀行業(yè)的發(fā)展離不開創(chuàng)新技術(shù)的支持,當(dāng)前銀行業(yè)要想提升自身的競(jìng)爭(zhēng)力,同樣需要借助新技術(shù)的支持與應(yīng)用。但是,在應(yīng)用新技術(shù)的時(shí)候需要能夠適應(yīng)銀行的高風(fēng)險(xiǎn)、高收益、運(yùn)轉(zhuǎn)周期長(zhǎng)的特點(diǎn),并形成一個(gè)新型的金融服務(wù)方式,以此來(lái)促使更多的資金支持技術(shù)創(chuàng)新。同時(shí),銀行業(yè)還需要不斷的提升互聯(lián)網(wǎng)技術(shù)的更新,運(yùn)用人工智能、云技術(shù)等現(xiàn)代化的科技來(lái)提升銀行業(yè)的服務(wù)效率,降低成本,以此來(lái)提升銀行業(yè)的服務(wù)實(shí)體經(jīng)濟(jì)能力,促使銀行業(yè)更好的發(fā)展。
圖6 物品ID與物品流行度散點(diǎn)圖
表1(ItemID為推薦的物品編號(hào))顯示,IPSTS模型在降低了RMSE的基礎(chǔ)上,提高了推薦質(zhì)量的同時(shí),能夠挖掘出物品編號(hào)為1 467,1 189的長(zhǎng)尾物品給用戶進(jìn)行推薦,對(duì)長(zhǎng)尾現(xiàn)象起到了一定的緩解作用,可以給用戶帶來(lái)驚喜。
表1 userID為80時(shí)Pearson模型與IPSTS模型推薦比較
同樣,表2(ItemID為推薦的物品編號(hào))顯示,采用IPSTS模型相比Pearson模型而言,挖掘出了1 159,1 121,1 103三個(gè)長(zhǎng)尾物品推薦給用戶,能夠給用戶帶來(lái)新鮮感。
表2 userID為800時(shí)Pearson模型與IPSTS模型推薦比較
表3(ItemID為推薦的物品編號(hào))顯示,在給編號(hào)為888的用戶進(jìn)行推薦時(shí),IPSTS模型在降低了RMSE的基礎(chǔ)上,給用戶做出的推薦策略為1 467,1 368,1 512,615,169。其中的前三個(gè)物品為長(zhǎng)尾物品。但是,Pearson模型不僅均方根誤差比IPSTS模型要高,而且給出的推薦策略也沒(méi)有挖掘出長(zhǎng)尾物品。因此,IPSTS模型對(duì)長(zhǎng)尾現(xiàn)象有所緩解,能夠挖掘出長(zhǎng)尾物品給用戶進(jìn)行推薦。
表3 userID為888時(shí)Pearson模型與IPSTS模型推薦比較
推薦系統(tǒng)是在用戶沒(méi)有明確需求的情況下,從海量的數(shù)據(jù)中幫助用戶尋找感興趣的信息,進(jìn)而以合適的方式給用戶展現(xiàn)和推薦。本文圍繞降低預(yù)測(cè)評(píng)分誤差以及挖掘長(zhǎng)尾物品問(wèn)題,引入興趣穩(wěn)定性,同時(shí)關(guān)注時(shí)間敏感因子,構(gòu)建了引入興趣穩(wěn)定性的時(shí)間敏感相似度融合模型。實(shí)驗(yàn)表明該模型能夠?qū)崿F(xiàn)用戶興趣的實(shí)時(shí)動(dòng)態(tài)推薦,且進(jìn)一步提高了推薦質(zhì)量。然而,影響用戶興趣的因素還包括外部環(huán)境因素等其他關(guān)鍵因素,隨著移動(dòng)設(shè)備的蓬勃發(fā)展和定位系統(tǒng)的成熟,可以將這些因素引入到模型中。其次,融合后的模型是線性加權(quán)的,下一步還可以考慮構(gòu)建一個(gè)非線性模型進(jìn)行推薦。
參考文獻(xiàn):
[1]佚名.第36次《中國(guó)互聯(lián)網(wǎng)絡(luò)發(fā)展?fàn)顩r統(tǒng)計(jì)報(bào)告》[J].網(wǎng)絡(luò)傳播,2015(7):54-59.
[2]Resnick P,Iacovou N,Suchak M,et al.GroupLens:An open architecture for collaborative filtering of netnews[C]//Acm Conf on Computer Supported Cooperative Work,1994:175-186.
[3]邢春曉,高鳳榮,戰(zhàn)思南.適應(yīng)用戶興趣變化的協(xié)同過(guò)濾推薦算法[J].計(jì)算機(jī)研究與發(fā)展,2007,44(2):296-301.
[4]項(xiàng)亮.動(dòng)態(tài)推薦系統(tǒng)關(guān)鍵技術(shù)研究[D].北京:中國(guó)科學(xué)院自動(dòng)化研究所,2011.
[5]Liu B,Wu Y,Gong N Z,et al.Structural analysis of user choices for mobile app recommendation[J].Acm Transactions on Knowledge Discovery from Data,2016,11(2):17.
[6]Koren Y.Factorization meets the neighborhood:A multifaceted collaborative filtering model[C]//ACM SIGKDD International Conference on Knowledge Discovery and Data Mining,Las Vegas,Nevada,USA,August 2008:426-434.
[7]Kim D,Yum B J.Collaborative filtering based on iterative principal component analysis[J].Expert Systems with Applications,2005,28(4):823-830.
[8]Ahn H J.A new similarity measure for collaborative filtering to alleviate the new user cold-starting problem[J].Information Sciences,2008,178(1):37-51.
[9]Liu H,Hu Z,Mian A,et al.A new user similarity model to improve the accuracy of collaborative filtering[J].Knowledge-Based Systems,2014,56(3):156-166.
[10]Li S,Kawale J,F(xiàn)u Y.Deep collaborative filtering via marginalized denoising auto-encoder[C]//Acm Int Conf on Information&Knowledge Management,2015:811-820.
[11]Wu Y,Dubois C,Zheng A X,et al.Collaborative denoising auto-encoders for top-N recommender systems[C]//ACM International Conference on Web Search and Data Mining,2016:153-162.
[12]Strub F,Mary J,Gaudel R.Hybrid recommender system based on autoencoders[C]//Workshop on Deep Learning for Recommender Systems,2016:11-16.
[13]Wang X,Lu W,Ester M,et al.Social recommendation with strong and weak ties[C]//Acm Int Conf on Information&Knowledge Management,2016:5-14.
[14]Vuurens J B P,Larson M,De Vries A P.Exploring deep space:Learning personalized ranking in a semantic space[C]//Workshop on Deep Learning for Recommender Systems,2016:23-28.
[15]Adomavicius G,Kwon Y O.Improving aggregate recommendation diversity using ranking-based techniques[J].IEEE Transactions on Knowledge&Data Engineering,2012,24(5):896-911.
[16]Herlocker J L.Evaluating collaborative filtering recommender systems[J].Acm Transactions on Information Systems,2004,22(1):5-53.