莊福振,羅 丹,何 清
1.中國科學(xué)院 計(jì)算技術(shù)研究所 智能信息處理重點(diǎn)實(shí)驗(yàn)室,北京 100190
2.中國科學(xué)院大學(xué),北京 100049
隨著互聯(lián)網(wǎng)的發(fā)展,人們正處于一個(gè)信息爆炸的時(shí)代。相比過去的信息匱乏,現(xiàn)階段的海量信息數(shù)據(jù),使得人們獲取有用信息越來越困難。一個(gè)良好用戶體驗(yàn)的推薦系統(tǒng),能夠?qū)A啃畔⑦M(jìn)行篩選、過濾,將用戶最關(guān)注最感興趣的信息展現(xiàn)在用戶面前[1-3]。而一個(gè)好的推薦算法,能夠從已有的信息中發(fā)現(xiàn)隱藏的特性,發(fā)現(xiàn)用戶的潛在興趣分布,發(fā)現(xiàn)商品的潛在主題分布,從而將關(guān)聯(lián)性最大的用戶和商品聯(lián)系起來。協(xié)同過濾推薦算法是最流行的推薦算法之一,它通過學(xué)習(xí)用戶商品的特征表示,依此尋找用戶和商品的“近鄰”成員,最后利用從“近鄰”處學(xué)到的知識來求得最應(yīng)該推薦給用戶的商品[4-5]。作為推薦算法最重要的成分之一,特征表示學(xué)習(xí)在很大程度上影響推薦算法的效果。以往大部分的推薦算法都是采用基于矩陣分解的方法來獲得用戶以及商品的隱性特征表示,而近年來,深度學(xué)習(xí)已經(jīng)在自然語言處理、語音識別以及圖像分類等領(lǐng)域被證明可以很好地進(jìn)行表示學(xué)習(xí),并且在深度學(xué)習(xí)應(yīng)用到推薦系統(tǒng)方面,已經(jīng)進(jìn)行了相關(guān)研究[6-8]。本文提出了基于自動編碼機(jī)(AutoEncoder)學(xué)習(xí)用戶商品特征的推薦算法,并證明了其特征學(xué)習(xí)的有效性。同時(shí)進(jìn)一步拓展該算法,考慮推薦系統(tǒng)中評分?jǐn)?shù)據(jù)的局部特性,即評分?jǐn)?shù)據(jù)可能由多個(gè)垂直的局部結(jié)構(gòu)組成,不同的結(jié)構(gòu)之間關(guān)聯(lián)度不大,由此來提高推薦算法的特征學(xué)習(xí)能力,提升推薦效果。Lee等人[5]提出了基于評分矩陣低秩特性的協(xié)同過濾算法,同樣考慮了矩陣的局部特性,本文將對比該算法,來驗(yàn)證所提出的特征學(xué)習(xí)算法的有效性。
本文組織結(jié)構(gòu)如下:第2章介紹了基于集成局部性特征學(xué)習(xí)的推薦算法;第3章對算法進(jìn)行求解;第4章給出了詳細(xì)的實(shí)驗(yàn)結(jié)果;第5章列出了本文的相關(guān)工作;第6章對全文進(jìn)行總結(jié)。
對評分矩陣直接學(xué)習(xí)用戶和商品的隱性特征表示顯得有點(diǎn)粗糙,用戶和商品往往形成一個(gè)個(gè)不同的群組,例如男性和女性關(guān)注的商品完全屬于不同的類型,男性主要關(guān)注電子設(shè)備如手機(jī)和電腦等,而女性更關(guān)注服裝和化妝品等。因此,在學(xué)習(xí)用戶興趣特征和商品主題屬性時(shí),將其興趣和主題分成更細(xì)的分支,在不同的分支上獨(dú)立學(xué)習(xí),能夠避免無關(guān)聯(lián)信息之間的干擾。對女性潛在興趣特征的學(xué)習(xí)和對男性潛在興趣特征的學(xué)習(xí)關(guān)聯(lián)性非常小,分開獨(dú)立學(xué)習(xí)能學(xué)到更具代表性的特征表示。推薦系統(tǒng)中的主題是多種多樣的,因此可以將其分成多個(gè)模塊來進(jìn)行特征學(xué)習(xí)。
圖1展示了將整個(gè)評分矩陣分成多個(gè)子主題塊進(jìn)行學(xué)習(xí)的框架。如圖所示,t個(gè)錨點(diǎn)被選出。對于每個(gè)錨點(diǎn)pt(1≤t≤q,q是子模型的個(gè)數(shù)),有一組與該錨點(diǎn)相關(guān)的用戶-商品對組成局部矩陣Mt。該相關(guān)性度量并不是依據(jù)矩陣上錨點(diǎn)位置與其他觀測點(diǎn)的位置距離,而是通過其潛在的相似性得到。簡單地說,原始評分矩陣Mt乘以一個(gè)與錨點(diǎn)的相似度矩陣Kt,即可得到第t個(gè)子模型的局部矩陣Mt。這里Kt的計(jì)算方式可表示為:
這里錨點(diǎn)用戶與其他用戶之間的距離(錨點(diǎn)商品與其他商品之間的距離)可以用高斯核函數(shù)或三角核函數(shù)K(x,y)=1-||x-y||d計(jì)算得到。
Fig.1 Local modeling learning framework圖1 局部模型學(xué)習(xí)框架
對于每個(gè)局部錨點(diǎn)矩陣Mt,本文使用Auto-Encoder來學(xué)習(xí)其中的用戶商品隱性特征。首先將錨點(diǎn)評分矩陣Mt擴(kuò)展成且有Rt∈ ?(m+n)×(m+n)。同理,將錨點(diǎn)相似度矩陣Kt擴(kuò)展成,其中使用AutoEncoder學(xué)習(xí)用戶和商品的局部特征信息時(shí),對于每個(gè)AutoEncoder子模型,其輸入都是原始評分矩陣的擴(kuò)展R,可表示如下:
其中,Wt∈?r×(m+n),Wt′∈?(m+n)×r。矩陣R是對矩陣M的擴(kuò)展,即記I∈?m×n,當(dāng)Iu,i=1時(shí),用戶u對商品i進(jìn)行評分,否則Iu,i=0。將矩陣I擴(kuò)展成每個(gè)子模型優(yōu)化時(shí)的側(cè)重點(diǎn)不同,均乘以跟錨點(diǎn)相關(guān)的相似度矩陣,每個(gè)子模型的優(yōu)化目標(biāo)可表示為:
基于Ranking推薦算法中,在對未知商品進(jìn)行評分的同時(shí),會盡量使模型在已知用戶產(chǎn)品上的評分值大小順序和原始評分矩陣保持一致。這里為保持該一致性,采用基于Pair-wise的約束項(xiàng)。記(i,j)是用戶u的兩個(gè)已知評分商品,若原始矩陣中Mu,i>Mu,j,則在新的原始矩陣中,應(yīng)該有M?u,i>M?u,j。記Su是觀察數(shù)據(jù)中用戶u的有序商品對集合的大小,Xk是用戶u的一個(gè)有序商品對,ΔMk表示原始觀察矩陣中商品對xk之間的差,Δτ(xk)表示預(yù)測評分矩陣中商品對xk之間的差?;赗anking的目標(biāo)損失函數(shù)可以表示為:
其中,表示0-1損失函數(shù)。0-1損失函數(shù)不可導(dǎo),這里可以將它換成其他的光滑損失函數(shù),如:L(ΔM,Δτ)= ΔMln(1+e-Δτ)。
給定用戶商品評分矩陣M,如上文所述將其擴(kuò)展成R。損失函數(shù)主要包括三部分,即Pair-wise約束項(xiàng)、重構(gòu)誤差和參數(shù)約束項(xiàng),表示如下:
式(5)的第二項(xiàng)是AutoEncoder的重構(gòu)誤差項(xiàng),定義如下:
該項(xiàng)中,需要考慮的是原始評分矩陣中的可觀察數(shù)據(jù),因此這里乘以評分單位矩陣I?,通過最小化重構(gòu)誤差,對每個(gè)錨點(diǎn)局部矩陣,都會優(yōu)化到相應(yīng)的用戶特征矩陣Ut和商品特征矩陣Vt。最后的預(yù)測矩陣可表示為:
式(5)的第一項(xiàng)是Pair-wise約束項(xiàng),用來保證同一用戶的商品評分在原始矩陣和預(yù)測矩陣中的大小次序的一致性。定義如下:
su表示用戶u的有序商品對的個(gè)數(shù)。L使用光滑損失函數(shù)如下:
這里ΔM是原始評分值的差值,c是一個(gè)常量因子,用來控制間距寬度值。式(5)最后一項(xiàng)是參數(shù)約束項(xiàng),表示如下:
本文算法的優(yōu)化目標(biāo)是通過學(xué)習(xí)權(quán)重Wt、bt、Wt′、bt′來得到每個(gè)錨點(diǎn)矩陣的用戶-商品特征,同時(shí),使用基于排序的損失函數(shù)來監(jiān)督這些權(quán)重的學(xué)習(xí)過程。模型優(yōu)化中通過參數(shù)α、γ來分別調(diào)整損失誤差、重構(gòu)誤差以及正則項(xiàng)對模型的影響程度。本文采用梯度下降方法進(jìn)行模型求解。
梯度下降求解之前,需要對目標(biāo)函數(shù)的權(quán)重Wt、bt、Wt′、bt′求一階偏導(dǎo),記:
首先,可對g(u,i,j)求其關(guān)于Ut和Vt的偏導(dǎo)數(shù),如下:
根據(jù)鏈?zhǔn)角髮?dǎo)法則,可得到損失函數(shù)ε關(guān)于Ut、Vt的偏導(dǎo)數(shù),如下:
于是可以得到各個(gè)偏導(dǎo)數(shù)如下:
基于以上一階偏導(dǎo),在初始化Wt、bt、Wt′、bt′后,可以根據(jù)以下規(guī)則優(yōu)化參數(shù):
其中,η是學(xué)習(xí)率。在每次迭代過程中,固定其中的一個(gè)參數(shù)并優(yōu)化其他參數(shù),直至算法收斂。算法偽代碼見算法1。
算法1基于集成局部性特征學(xué)習(xí)的推薦算法(LREAP)
輸入:用戶商品評分矩陣M;隱層節(jié)點(diǎn)個(gè)數(shù)k;錨點(diǎn)個(gè)數(shù)q以及參數(shù)α和γ。
輸出:預(yù)測用戶商品評分矩陣。
1.隨機(jī)初始化q個(gè)子模型的權(quán)重矩陣Wt、bt、Wt′、bt′;
2.根據(jù)式(2)計(jì)算每個(gè)AutoEncoder隱層節(jié)點(diǎn)的輸出,并將其分解成用戶特征矩陣Ut和商品特征矩陣Vt。同時(shí)根據(jù)式(7)計(jì)算得到預(yù)測的評分矩陣M?;
3.根據(jù)式(19)、(20)、(21)、(22)計(jì)算各項(xiàng)偏導(dǎo),并通過式(23)、(24)更新權(quán)重;
4.重復(fù)步驟2和步驟3,直至算法收斂;
5.返回最后的預(yù)測評分矩陣。
算法的時(shí)間復(fù)雜度主要集中在計(jì)算用戶和商品的特征表示和排序損失。假設(shè)最大迭代次數(shù)為T,自動編碼機(jī)隱含層個(gè)數(shù)為k,q是選取的錨點(diǎn)個(gè)數(shù),c為每個(gè)用戶包含的商品對的最大個(gè)數(shù),那么算法的最大復(fù)雜度為O(qTkmn+qTcm),其中m和n分別為用戶數(shù)和商品數(shù),可以看到與用戶數(shù)和商品數(shù)直接相關(guān)。由于評分矩陣通常比較稀疏,矩陣的稀疏運(yùn)算可以大大縮短算法運(yùn)行時(shí)間。
實(shí)驗(yàn)中使用了兩個(gè)真實(shí)評分?jǐn)?shù)據(jù)集,分別是MovieLens(http://www.grouplens.org/)和 Netflix(http://prea.gatech.edu/download/netflix 3m1k.zip)。其中,MovieLens包含了943個(gè)用戶和1 682個(gè)商品的信息,評分矩陣稀疏度為6.3%;Netflix包含了4 427個(gè)用戶和1 000個(gè)商品,評分矩陣稀疏度為1.27%。
所有實(shí)驗(yàn)采用的硬件環(huán)境為Intel Core i5-2500 CPU,4核3.1 GHz的主頻,4 GB內(nèi)存;軟件環(huán)境:Windows 7操作系統(tǒng),Matlab版本R2015a。
4.2.1 比較方法
(1)使用3個(gè)基于矩陣分解的算法NMF(nonnegative matrix factorization)[9]、PMF(probabilistic matrix factorization)[10]和 BPMF(Bayesian probabilistic matrix factorization)[11]作為基準(zhǔn)分類器。其中,NMF是基于非負(fù)矩陣分解的算法,PMF是基于概率的矩陣分解算法,而BPMF是基于貝葉斯的矩陣分解算法。
(2)另外3個(gè)對比算法是基于Ranking的推薦算法,分別為RSVD(regularized singular value decomposition)、ColiRank[12]和 LCR(local collaborative ranking)[5]。RSVD是基于Ranking的奇異值矩陣分解算法,Coli-Rank是基于Rank的概率估計(jì)算法,而LCR則是基于局部矩陣的算法。
4.2.2 實(shí)驗(yàn)設(shè)置
(1)對于每個(gè)數(shù)據(jù)集,隨機(jī)抽取N個(gè)商品作為訓(xùn)練集,其他商品作為測試集(為保證測試數(shù)據(jù)中每個(gè)用戶至少10個(gè)商品,因此抽樣是保證被挑選出的用戶至少對N+10個(gè)商品有評分記錄);評價(jià)指標(biāo)是計(jì)算預(yù)測評分的NDCG@10值和平均準(zhǔn)確率AvgPrecision(AP);實(shí)驗(yàn)中,N分別取5、10、15、20和25。
(2)本文算法有3個(gè)參數(shù)k、α和γ;實(shí)驗(yàn)過程中,從每個(gè)訓(xùn)練集中隨機(jī)抽取20%作為驗(yàn)證集,來得到每組數(shù)據(jù)的最優(yōu)參數(shù)。
4.2.3 實(shí)驗(yàn)結(jié)果
表1和表2展示了在MovieLens和Netflix數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果,其評估指標(biāo)分別為NDCG@10和AP。從這些結(jié)果中,可以得出如下結(jié)論:
(1)隨著訓(xùn)練樣本數(shù)量的增加,所有算法的性能都逐步提高?;赗anking的算法(RSVD和Coli-Rank等)整體比沒有考慮評分順序的算法(NMF、PMF和BPMF等)性能要好一些,這體現(xiàn)了將評分的Ranking考慮進(jìn)去能夠得到性能更優(yōu)的算法。
Table 1 Experimental results in MovieLen data set表1 數(shù)據(jù)集MovieLen的實(shí)驗(yàn)結(jié)果
Table 2 Experimental results in Netflix data set表2 數(shù)據(jù)集Netflix的實(shí)驗(yàn)結(jié)果
LREAP的性能整體要顯著優(yōu)于NMF、PMF和BPMF,這體現(xiàn)了LREAP使用AutoEncoder同時(shí)學(xué)習(xí)用戶和商品特征的優(yōu)越性。LREAP具有良好的特征學(xué)習(xí)能力,同時(shí)考慮了商品的評分次序,因而能夠取得相對突出的效果。
(2)基于局部特征學(xué)習(xí)的算法LCR和LREAP比其他算法的性能都要更優(yōu),這體現(xiàn)了評分?jǐn)?shù)據(jù)中的局部結(jié)構(gòu)是存在的,針對局部“近鄰”簇進(jìn)行學(xué)習(xí),能學(xué)到更有效的特征。LREAP在NDCG@10和AP上取得和LCR相近甚至更高的評估結(jié)果,體現(xiàn)了基于AutoEncoder進(jìn)行局部特征學(xué)習(xí)的有效性。
下面簡單介紹本文的相關(guān)工作,包括采用矩陣分解的推薦系統(tǒng)以及利用深度學(xué)習(xí)技術(shù)的推薦系統(tǒng)。
基于矩陣分解的推薦方法大致可以分為兩類,即只利用評分矩陣的評分信息以及需要評分以外的其他信息。矩陣分解可以對多變量數(shù)據(jù)進(jìn)行很好的分解,因此被用來分解評分矩陣得到用戶和商品的特征[9]。Paterek提出提升正則化奇異值分解來預(yù)測用戶的偏好[13]。Salakhutdinov和Mnih[10-11]進(jìn)一步提出了概率矩陣分解(PMF)以及貝葉斯概率矩陣分解(BPMF)。PMF采用帶有高斯觀測噪聲的概率線性模型學(xué)習(xí)用戶和商品的隱性特征表示,在大規(guī)模以及稀疏評分?jǐn)?shù)據(jù)上表現(xiàn)得很好。在BPMF中,通過集成所有模型參數(shù)以及超參數(shù),可以自動控制模型能力。為了解決可擴(kuò)展非參數(shù)矩陣分解模型到大規(guī)模問題中,Yu等人[14]介紹了一種新的優(yōu)化算法,同時(shí)學(xué)習(xí)奇異值分解模型以及概率主成分分析模型。Sun等人[12]對排序數(shù)據(jù)進(jìn)行建模,并應(yīng)用到推薦系統(tǒng)以及網(wǎng)頁搜索中。Lee等人[5]也提出局部協(xié)同排序算法來考慮排序數(shù)據(jù),實(shí)際上是矩陣分解模型的集成。本文提出的模型也考慮了排序數(shù)據(jù)。
為了考慮評分信息以外的信息,比如用戶社交網(wǎng)絡(luò)關(guān)系以及商品屬性信息[15-19],Ma等人[17]利用用戶的社交網(wǎng)絡(luò)信息以及評分記錄,來解決數(shù)據(jù)稀疏性以及預(yù)測不準(zhǔn)確等問題。Yang等人[18]推斷用戶社交信任圈和朋友關(guān)系用于推薦。Yu等人[16]提出隱性反饋推薦模型,從異構(gòu)網(wǎng)絡(luò)中提取隱性特征。Wang等人[19]利用社交標(biāo)注系統(tǒng)中的異構(gòu)信息來減輕冷啟動問題。雖然外部信息可以很好地提高推薦性能,但是并不是那么容易獲取,因此本文模型只考慮評分信息的推薦算法。
近來也有一些基于深度學(xué)習(xí)的推薦系統(tǒng)。Salakhutdinov等人[6]首先使用限制玻爾茲曼機(jī)(restricted Boltzmann machines,RBM)進(jìn)行推薦。Phung等人[8]擴(kuò)展玻爾茲曼機(jī)到協(xié)同過濾任務(wù),同時(shí)集成相似度以及貢獻(xiàn)矩陣。Wang等人[7]提出考慮商品內(nèi)容信息,同時(shí)利用深度學(xué)習(xí)技術(shù)處理內(nèi)容信息和利用協(xié)同過濾算法處理評分矩陣。這些方法要么需要額外的信息,要么不能很好地完全利用評分信息,本文模型把表示學(xué)習(xí)以及排序?qū)W習(xí)集成到一個(gè)框架中,提升了推薦算法性能。
本文提出了使用AutoEncoder進(jìn)行局部特征學(xué)習(xí)的推薦算法。在使用AutoEncoder學(xué)習(xí)推薦系統(tǒng)中的評分?jǐn)?shù)據(jù)特征時(shí),考慮了推薦數(shù)據(jù)中分類的成組結(jié)構(gòu)特性,將原始評分矩陣分解成多個(gè)關(guān)聯(lián)度不大的獨(dú)立子模塊,在每個(gè)子模塊上學(xué)習(xí)用戶和商品隱性特征表示。本文提出的模型能夠使用Auto-Encoder同時(shí)學(xué)習(xí)評分?jǐn)?shù)據(jù)中的用戶隱性特征表示和商品隱性特征表示。另外,本文不僅僅關(guān)注學(xué)習(xí)到的特征對信息的還原能力,而且還考慮了評分次序的一致性問題,即同一個(gè)用戶對不同商品的評分在原始評分矩陣和與預(yù)測評分矩陣中的次序應(yīng)該保持一致,使用基于Pair-wise的約束項(xiàng)來實(shí)現(xiàn)該一致性條件。實(shí)驗(yàn)結(jié)果表明,基于AutoEncoder的局部特征表示學(xué)習(xí)算法能夠有效地學(xué)習(xí)評分矩陣中的用戶和商品隱性特征表示,提高了推薦系統(tǒng)的性能。實(shí)驗(yàn)結(jié)果還驗(yàn)證了深度學(xué)習(xí)用于推薦系統(tǒng)中進(jìn)行特征學(xué)習(xí)的優(yōu)越性,同時(shí)體現(xiàn)了基于局部特征學(xué)習(xí)思想的有效性。
:
[1]Adomavicius G,Tuzhilin A.Toward the next generation of recommender systems:a survey of the state-of-the-art and possible extensions[J].IEEE Transactions on Knowledge and Data Engineering,2005,17(6):734-749.
[2]Koren Y,Bell R M.Advances in collaborative filtering[M].Berlin,Heidelberg:Springer,2011:145-186.
[3]Ricci F,Rokach L,Shapira B.Introduction to recommender systems handbook[M].Berlin,Heidelberg:Springer,2011:1-35.
[4]Bellogín A,Cantador I,Castells P.A comparative study of heterogeneous item recommendations in social systems[J].Information Sciences,2013,221(1):142-169.
[5]Lee J,Bengio S,Kim S,et al.Local collaborative ranking[C]//Proceedings of the 23rd International World Wide Web Conference,Seoul,Apr 7-11,2014.New York:ACM,2014:85-96.
[6]Salakhutdinov R,Mnih A,Hinton G E.Restricted Boltzmann machines for collaborative filtering[C]//Proceedings of the 24th International Conference on Machine Learning,Corvallis,Jun 20-24,2007.New York:ACM,2007:791-798.
[7]Wang Hao,Wang Naiyan,Yeung D Y.Collaborative deep learning for recommender systems[C]//Proceedings of the 21st ACM SIGKDD International Conference on Knowledge Discovery and Data Mining,Sydney,Aug 10-13,2015.New York:ACM,2015:1235-1244.
[8]Truyen T T,Phung D Q,Venkatesh S.Ordinal Boltzmann machines for collaborative filtering[C]//Proceedings of the 25th Conference on Uncertainty in Artificial Intelligence,Montreal,Jun 18-21,2009.AUAI Press,2009:548-556.
[9]Lee D D,Seung H S.Algorithms for non-negative matrix factorization[C]//Proceedings of the 13th International Conference on Neural Information Processing Systems,Denver,2001.Cambridge:MIT Press,2011:556-562.
[10]Salakhutdinov R,Mnih A.Probabilistic matrix factorization[C]//Proceedings of the 20th International Conference on Neural Information Processing Systems,Vancouver,Dec 3-6,2007.Red Hook:CurranAssociates,2007:1257-1264.
[11]Salakhutdinov R,Mnih A.Bayesian probabilistic matrix factorization using Markov chain Monte Carlo[C]//Proceedings of the 25th International Conference on Machine Learning,Helsinki,Jun 5-9,2008.New York:ACM,2008:880-887.
[12]Sun Mingxuan,Lebanon G,Kidwell P.Estimating probabil-ities in recommendation systems[J].Journal of the Royal Statistical Society,2012,61(3):471-492.
[13]Paterek A.Improving regularized singular value decomposition for collaborative filtering[C]//Proceedings of KDD Cup and Workshop,San Jose,Aug 12,2007.New York:ACM,2007:5-8.
[14]Yu Kai,Zhu Shenghuo,Lafferty J,et al.Fast nonparametricmatrix factorization for large-scale collaborative filtering[C]//Proceedings of the 32nd Annual International ACM SIGIR Conference on Research and Development in Information Retrieval,Boston,Jul 19-23,2009.New York:ACM,2009:211-218.
[15]Ma Hao,Zhou Dengyong,Liu Chao,et al.Recommender systems with social regularization[C]//Proceedings of the 4th International Conference on Web Search and Web Data Mining,Hong Kong,China,Feb 9-12,2011.New York:ACM,2011:287-296.
[16]Yu Xiao,Ren Xiang,Sun Yizhou,et al.Personalized entity recommendation:a heterogeneous information network approach[C]//Proceedings of the 7th ACM International Conference on Web Search and Data Mining,New York,Feb 24-28,2014.New York:ACM,2014:283-292.
[17]Ma Hao,Yang Haixuan,Lyu M R,et al.Sorec:social recommendation using probabilistic matrix factorization[C]//Proceedings of the 17th ACM Conference on Information and Knowledge Management,Napa Valley,Oct 26-30,2008.New York:ACM,2008:931-940.
[18]Yang Xiwang,Steck H,Liu Yong.Circle-based recommendation in online social networks[C]//Proceedings of the 18th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining,Beijing,Aug 12-16,2012.New York:ACM,2012:1267-1275.
[19]Feng Wei,Wang Jianyong.Incorporating heterogeneous information for personalized tag recommendation in social tagging systems[C]//Proceedings of the 18th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining,Beijing,Aug 12-16,2012.New York:ACM,2012:1276-1284.