唐曉鳳,雷向東
1(永州職業(yè)技術學院 醫(yī)學技術學院,湖南 永州 425000) 2(中南大學 計算機學院, 長沙 410083)
推薦系統(tǒng)作為一個研究如何有效地把系統(tǒng)中的實體連接起來的系統(tǒng),在當今的企業(yè)中起著至關重要的作用.推薦系統(tǒng)的主要目的是為用戶生成有趣的負項列表(與特定用戶沒有歷史互動的項目),以使用戶和項目的提供者從系統(tǒng)中受益[1,2].在推薦系統(tǒng)中,大多數(shù)工作主要著重于提高預測用戶與項目交互的準確性,前提是假定準確的推薦可以最好地滿足用戶的需求.例如,以準確性為中心的系統(tǒng)將向觀看過“權利的游戲-第1季”的用戶推薦“權利的游戲-第2季”.但是,僅關注準確性會給用戶和提供者帶來負面影響,因為它可能會偏向于流行的商品[3].用戶將不得不承擔他們很了解的相同受歡迎的推薦,并且發(fā)現(xiàn)新奇有趣物品的機會更少.供應商,尤其是那些銷售不流行的項目的供應商,將很難獲得收入.更好的推薦系統(tǒng)還應考慮其他因素,例如“項目新穎性”[3].由于提倡新穎性會降低準確性,因此需要優(yōu)化它們之間的權衡.以往大多數(shù)關于小說推薦的研究都采用兩階段重排序的方式來生成前N名列表[4].通常,重排序方法將首先訓練一個注重精度的基本模型以生成候選列表,然后對候選列表重新排序以提供新穎的前N個列表.盡管重新排序通常是高效且靈活的,但存在兩個主要限制.首先,他們沒有經(jīng)過端到端的訓練,而是兩個階段的訓練,這使得訓練過程相當冗長,并且整個推薦并未同時針對新穎性和準確性這兩個目標進行優(yōu)化.其次,性能基本上受獨立基礎模型的限制.當基礎模型高度偏向流行項時,其輸出的候選列表也包含流行項,從而導致后處理的重新排名也有偏向.
此外,在訓練基礎模型時,大多數(shù)損失函數(shù)由于無法區(qū)分兩種類型的負面項目(“未知負項”和“不喜歡的負項”)而存在問題.在推薦系統(tǒng)中,希望可以給用戶推薦不知道其存在的“有趣但未知的項目”[5].推薦系統(tǒng)中常用的損失函數(shù),如貝葉斯個性排名(BPR),對負項項進行統(tǒng)一處理,抑制所有預測的評級,而與否定,未知或不喜歡的類型無關[6].
另外,用戶個人偏好未明確包含在損失函數(shù)中.大多數(shù)損失函數(shù)僅將目標評級作為輸入[6,7].如果模型明確地集成到損失函數(shù)中,則可以更輕松地學習用戶偏好.
為了提高系統(tǒng)中的新穎性以及處理損失函數(shù)的問題,在此提出了個性化成對新穎性加權(PNW)方法.該方法自然地將用戶和商品的新穎性信息明確地集成到成對丟失函數(shù)中,從而形成了一個一階段的新穎性推薦系統(tǒng),并使基本模型能夠有效地學習用戶新穎性偏好.此外,它還有助于減輕“有趣的未知項目”與其他“不喜歡的項目”受到一樣抑制的問題.由于用戶對某個項目的不了解與該項目的新穎性成正比[8],因此,一個新穎的項目更可能是“未知”,而不是“不喜歡”.通過將新穎性引入損失函數(shù),該方法能夠根據(jù)負項的新穎性水平來降低或增加負項的損失.而且,上述在準確性和新穎性之間的權衡也可以變成雙贏的解決方案,這意味著推薦不流行或僅有輕微下降的不流行的新穎物品.為了實現(xiàn)這一目標,利用了用戶對新穎項目的個人偏愛.直觀地,該方法嘗試僅向?qū)π路f性有強烈偏好的用戶推薦新穎的項目,否則推薦新穎的項目會帶來巨大的準確性成本[9].
具體而言,首先根據(jù)項目受歡迎程度來衡量用戶和項目的新穎性.然后,采用改進的高斯RBF核函數(shù)對項目在新穎性方面與用戶的偏好匹配進行建模.接下來,通過提升項目新穎性評分來進一步強調(diào)新穎項目.最后,為了將所有這些信息集成到損失函數(shù)中,設計了兩種新穎性加權策略,將新穎性信息映射到適當?shù)某叨纫赃M行損失加權.總體而言,提出的方法旨在推廣新穎的項目,并且該項目也符合特定用戶的新穎性偏好.與普通物品相比,新穎的項目更加重要;新穎的匹配項比新穎的不匹配項更受重視.
在這一節(jié)中大致介紹了現(xiàn)有的推薦系統(tǒng)相關研究工作.
新穎性在推薦系統(tǒng)中的重要性已得到公認.為了提高系統(tǒng)的新穎性,大多數(shù)作品采用了重新排序策略,對基本模型的輸出進行后處理.PRA[4]引入了一種通用方法,通過重新排列前N個項目和下M個候選項目來提升長尾項目.通過只考慮前N+M項,PRA能夠保持準確性.
除了常用的基于頻率的新穎性度量外,一些研究還使用了其他新穎性定義并相應地改變了方法.在文獻[10]中,新穎的東西是沒有互動的餐館.作者根據(jù)用戶的求新現(xiàn)狀,設計了一個推薦新餐廳的框架.
損失加權是訓練過程中調(diào)整損失的一種直觀、方便的方法,被廣泛應用于處理其他問題,如不平衡類問題[11].在推薦系統(tǒng)中,損失加權主要是為了提高推薦精度.文獻[12] 根據(jù)交互頻率加權隱式反饋.更高的交互頻率意味著更高的置信水平,因此在訓練過程中,應該通過增加其損失來強調(diào)交互的重要性.在文獻[13]中,采用基于等級的加權方案來懲罰在列表中排名較低的正項目.
在這一節(jié)中,首先介紹相關符號,然后給出了新穎性的定義以及在本文中使用的度量.并在此基礎上,簡要討論了BPR損失函數(shù)的優(yōu)點和局限性.
需要使用的符號總結在表1中.
表1 相關符號介紹Table 1 Symbol and itsdefinition
根據(jù)以往的研究[14],項目新穎性可以根據(jù)工作的重點進行不同的定義.在這項工作中,主要關注長期存在但不流行的項目.一個項目已經(jīng)在系統(tǒng)中存在了一段時間,但它還不夠流行,無法被大多數(shù)用戶看到.然后,對這些用戶來說,這個項目是新穎的[14](再未具體解釋的情況下,新穎等于不流行).由于不流行的項目構成了許多系統(tǒng)的大多數(shù),通過向適當?shù)挠脩敉扑]這些項目,可以實現(xiàn)大量的潛在交易.此外,推廣不流行的產(chǎn)品有利于用戶和供應商,并提高市場競爭力.
(1)
對于項θi,公式(1)根據(jù)用戶總數(shù)對頻率進行歸一化,然后對數(shù)縮放.對于用戶θu,還包括反映用戶對該項目的滿意度的評分等級rui.因此,用戶對新穎性的偏好與用戶的過去項目的新穎性分數(shù)成正比,并通過用戶的評分進行校正.
相反,BPR將隱式推薦任務定義為一個分類問題.
(2)
在BPR中,σ(·)是sigmoid函數(shù),輸入是一對(u,i+,i-)具有i+的用戶u和采樣i-,其中i+∈Iu和i+?Iu.
1)逐點損失函數(shù)的優(yōu)點:首先,BPR成對的優(yōu)化模型,一次使用兩個項目,而不是在實例級別.此外,BPR除了對所有負項的預測得分均勻地抑制以外,還隨機抽取負項,根據(jù)正負項對的相對差異來評估損失,從而捕捉用戶對項目對的個性化偏愛.相對差異的概念是決定性的,因為負項的目標值不再像MSE一樣為零.
2)BPR的局限性:然而,BPR并非完美無缺.當一個負項在訓練中有更高的預測評分時,BPR懲罰更嚴厲.但是,否定項可以是未知項,但不一定是不喜歡的項.在這種情況下,較高的預測評分表示用戶可能對這個未知的負項感興趣,應該推薦它.為了緩解對有趣的“未知項”錯誤懲罰的問題,在BPR中引入新穎性評分有利于區(qū)分“未知項”和“不喜歡項”.此外,用戶偏好并沒有明確地包含在BPR損失函數(shù)中.如果模型明確地集成在損失函數(shù)中,那么它可以更容易地學習用戶偏好.
為了解決這些問題并提高系統(tǒng)的新穎性,所以提出了個性化的成對新穎性加權(PNW)方法.
在這一部分中,首先對用戶和項目新穎性進行建模,并將其調(diào)整為適合于后續(xù)損失加權的形式.
1)用戶新穎性偏好:假設每個用戶都有一定的新穎性興趣范圍.例如,喜歡小眾項目的用戶對大眾項目的興趣會降低.為了模擬用戶的新穎性偏好,使用的方法是均值和標準差.
(3)
θu的值越大,對應于新穎性偏好越高.σθu的值顯示了該用戶的新穎性興趣有多大.有了這些用戶新穎性偏好的統(tǒng)計數(shù)據(jù),可以測量用戶和項目之間的新穎性匹配得分.采用帶可控參數(shù)λ的高斯徑向基函數(shù)(RBF)核來度量新穎性匹配分數(shù).
(4)
θu和θi是用戶和項目的新穎性分數(shù).這里的λ是一個超參數(shù),與σθu一起,控制用戶新穎性偏好范圍的擴展程度.大多數(shù)真實世界的數(shù)據(jù)集,由于其極端的稀疏性,由許多用戶組成,他們有狹隘的新穎性.λ≥1可以擴大計算出的新穎性偏好,允許新穎項具有更高的匹配度.從經(jīng)驗上講,λ∈[1.5,2.5]在這里的所有的實驗中都很有效.第四節(jié)詳細討論了λ在系統(tǒng)中的作用,新穎性匹配分數(shù)的取值范圍為M(u,i)∈[0,1].
在這一部分,介紹了個性化的新穎性評分.首先,個性化新穎性評分應滿足兩個要求:
1)如果一個項目更好地滿足用戶的偏好,它應該有更高的個性化新穎性評分.
2)當一個新的項目和一個流行的項目到一個特定的用戶有相同的距離時,新項目應該比流行項目有更高的個性化新穎性得分.
最后,個性化的新穎性評分不僅應強調(diào)新穎性,而且應正確反映出某項匹配用戶新穎性偏好的程度.
首先將歸一化的項目新穎性評分提高到公式(5),從而得到一個高階的新穎性評分.這個高階分數(shù)是以指數(shù)級強調(diào)新項目,而不是原來的線性.因此,與普通項目相比,新項目被賦予了更高的價值.
(5)
然后,通過合并“高階新穎性評分”和“新穎性匹配評分”計算個性化新穎性分數(shù),如公式(6)所示:
(6)
個性化新穎性分數(shù)包含兩個決定性因素:對新穎的強調(diào)和個人新穎性偏好.因此,過此單個分數(shù)即可實現(xiàn)兩個要求.
在這一部分中,將個性化新穎性得分π(u,i)轉換為用于BPR的損失權重Wloss.當Wloss=1時,不用損失權重.經(jīng)驗上,當使用更大的損失權重,如Wloss∈[1,10]時,損失權重的大部分值都會落在Wloss∈[0,2]區(qū)域,最終會過分強調(diào)原始損失.此外,負損失權重應限制為0,因為不應更改生成的梯度方向.
第1個損失加權策略稱為Gamma匹配(PNW-G),由于其Gamma參數(shù)而具有很高的靈活性,可以通過另外兩個超參數(shù)獲得更好的性能. 第2種策略稱為“批歸一化匹配(PNW-BN)”,它使用批歸一化來生成權重以進行損失加權,并且?guī)缀鯖]有超參數(shù).
1)伽瑪損失加權(PNW-G):首先對每個用戶π(u,i+)和π(u,i-)的正和負項的個性化新穎性評分進行建模,如前文所述 .然后,通過以公式(7)獲得伽馬損失權重.
(7)
此處的超參數(shù)γ用于控制損耗加權的強度.當gamma設置為0時,加權后的BPR會減小為原始BPR損失函數(shù). 在[π(u,i+)-π(u,i-)]的大多數(shù)值較小的情況下(例如0.005),損失加權在訓練中幾乎沒有影響,而更大的γ值可以幫助放大.
(8)
當Gamma損耗加權策略在原有α和λ的基礎上增加一個參數(shù)γ時,可以獲得更高的性能.
2)批量歸一化損耗加權(PNW-BN):PNW-BN不依賴γ來調(diào)整損失加權的強度,而是采用批量歸一化來自動調(diào)整.如公式(9)所示.
(9)
3)兩種情況:這些損失加權策略涵蓋了兩種情況,并在以下直觀的層面上進行了討論:
所提出的方法是用于新穎性推薦的一般成對損失加權策略.損失函數(shù)中同時考慮了新穎性和個人偏好,使得基本模型能夠更好地在預測精度和推薦新穎性之間進行權衡.先前的研究“AllRank-Pop”[15]也使用了損失加權方案來改善推薦中的不受歡迎程度,在一般情況下與提出的方法類似.事實上,AllRank-Pop是一個更通用的“ALL-Rank”損失加權模型的改進版本[16].它旨在設計一個“無偏流行程度分層測驗”,而新穎性的損失權重并不是主要關注點.在AllRank-Pop中將只對一種項目(正或負)與過去用戶數(shù)的倒數(shù)成比例,而對剩余的一種商品按固定值加權.該模型在3個方面與AllRank-Pop不同.
1)將損失權重整合到成對損失函數(shù)中,同時使用逐點MSE.
2)提出的模型沒有區(qū)別對待正項和負項,每個項目都將以相同的方式加權.然而,在AllRank-Pop中,正項或負項將被分配一個固定的權重.
3)提出的方法考慮了個人偏好.然而,AllRank-Pop損失權重在全局范圍內(nèi),但是個人偏好被排除在外.
具體的比較請參考實驗部分.
在這一節(jié)中,將描述實驗的設置,并詳細討論實驗結果.
整個實驗是在一臺Windows 10 64位操作系統(tǒng)的臺式機上進行,電腦配置為英特爾I7 3.5Ghz處理器,16GB內(nèi)存,以及英偉達GTX 2080Ti顯卡.實驗采用python 3.7編程語言實現(xiàn).
在此使用了3個公開的數(shù)據(jù)集來評估模型的有效性:論文推薦數(shù)據(jù)集Citeulike-a[17],視覺推薦數(shù)據(jù)集Pinterest[18]和電影推薦數(shù)據(jù)集MovieLens-1M[19].這些數(shù)據(jù)集的描述匯總在表2中.Citeulike-a和Pinterest是非常稀疏的設置,ML-1M更密集.
表2 3種數(shù)據(jù)集的介紹Table 2 Three data sets
為了評估該方法的通用性,選擇了3個以準確性為重點的模型作為基礎模型:廣義矩陣分解(GMF)[20],神經(jīng)矩陣分解(NMF)[6],和協(xié)作內(nèi)存網(wǎng)絡(CMN)[7].并將在其上應用提出的方法.通過優(yōu)化BPR損失函數(shù)來訓練所有基本模型.
參數(shù)設定
對于基礎模型,ML-1M和Pinterest的最小批量大小設置為256,Citeulike-a設置為128.對于BPR損失函數(shù)中的所有實驗,使用負比率為6. GMF和CMN的隱藏特征數(shù)固定為50.另一方面,對于NMF,最后一層具有32個隱藏特征. 在隱藏層方面,NMF受3層訓練; 具有2層的CMN; GMF默認為1.所有模型都使用BPR損失函數(shù)進行訓練.
對于提出的方法PNW,無論基礎模型如何,都僅基于數(shù)據(jù)集設置參數(shù).對于Citeulike-a,α設置為1.5.對于Pinterest和ML-1M,普通用戶的新穎性偏好相對較窄(σθu較小).為了使用戶能夠更加注意項目,將α設置為2.5. 在BN損失加權PNW-BN中,分別對ML-1M,Pinterest和Citeulike-a使用λ={2,2,7}.在伽瑪損失加權PNW-G(λ)中,對于ML-1M,將γ={40,125}設置為PNW-G({2,4}); 對于Pinterest,使用PNW-G({2,4})設置γ={25,100};對于Citeulike-a,分別使用PNW-G({7,9})設置γ={40,75}.如第4.3節(jié)所述,根據(jù)經(jīng)驗選擇這些值以確保大多數(shù)權重落在[0,2]的范圍內(nèi).
進行比較實驗時,使用兩種重新排序方法和一種損失加權方法.
5.3.1 重新排序方法
長尾挖掘(5D)[22]是一種重新排序框架,特別是用于長尾物品促銷.為了平衡重新排名列表的各種標準,框架將多個目標合并為一個分數(shù),稱為5D分數(shù),該分數(shù)匯總了5個維度的表現(xiàn),包括準確性,覆蓋范圍,平衡,數(shù)量和質(zhì)量.重新排名需要兩個步驟.首先,通過基礎模型預測所有可能的用戶項目對的缺失評分,然后使用評分將有限的資源分配給每個項目.其次,通過考慮用戶的相對偏好和項目資源,計算5D得分并根據(jù)其進行重新排名.在本文中,進行了兩個5D實驗.“5D-Pop”僅基于5D得分生成top-N,從而顯著提升長尾物品.在“5D-Pop”之后,“5D-RR ACC”執(zhí)行2個額外的算法,即排名等級(RR)和準確性過濾(ACC),以保持基本模型的準確性.在此使用默認設置[22],在最大化問題中,我們遵循文獻[9],將參數(shù)設置為K=3|I|和q=1.
5.3.2 新穎性損失加權方法
如第4.4節(jié)所述,AllRank-Pop是一種應用于逐點損失函數(shù)MSE的損失加權方法. 損失權重設計為與商品新穎性成正比. 在本實驗中,使用模型的“遞減策略”變體,以抑制受歡迎的正項的權重.對于負項,假設所有實驗均基于隱式反饋,則使用固定權重Wneg=0.005并將估算的缺失評分設置為Rneg=0.4. 進行兩個實驗,分別為βw={0.9,0.95}.較高的βw應該會推薦新穎性更高的產(chǎn)品.
本實驗在實驗時間上采用了“留一法”的評價策略[6,7].在這個設置中,每個用戶隨機拿出一個正項進行評估,而其他正項則用于訓練.在評估過程中,如文獻[6,7]所示,測試集由保留項和每個用戶隨機抽取的100個負項構成.任務是為每個用戶對101項進行排序.所有的實驗結果均在前十名中進行評估.為了驗證提出的方法的準確性和新穎性,使用以下指標:
5.4.1 準確度指標
·命中率(HR)是保留在列表中前N名的項目的比率.
·歸一化貼現(xiàn)累積收益(NDCG)衡量HR等準確性,當正項在列表中排名較低時會受到更大的懲罰.
5.4.2 新穎性評價
·長尾比(L_Tail)是前N名中長尾項目的比率.根據(jù)帕累托原則[23],與20%最流行的項目相比,長尾商品在不受歡迎的項目中占前80%.
·平均新穎性得分(Nov得分)是前N名推薦項目的平均新穎性得分.
在本節(jié)中,模型是在Citeulike-a、ML-1M和Pinterest數(shù)據(jù)集上進行的.比較了提出的方法PNW-BN和PNW-G與PRA,5D-Pop和5D-RR_ACC,除了PNW方法外,所有的比較方法在訓練完3個基礎模型后都使用了重新排序策略.為了使比較更清楚,用百分比計算基礎模型的變化,并將其記錄在括號中.實驗結果見表3.
在稀疏的,較小的Citeulike數(shù)據(jù)集環(huán)境中,PNW通常提高了基礎模型的新穎性推薦,但精度略有下降.在PNW的變體中,PNW-BN的準確性在競爭性新穎性評分方面相對較高.尤其是在GMF-Base中,PNW-BN的長尾和Nov分數(shù)排名第2.如前面所述,PNW-G提供了較高的靈活性,從而實現(xiàn)更好的性能.PNW-G的兩種變體在所有的實驗中,損失的減少最少.值得注意的是,GMF上的PNW-G(9)實際上提高了精度.5D-Pop專注于提高長尾和新穎的分數(shù),并犧牲了大量的準確性.5D-RR_ACC平衡了權衡,但由此產(chǎn)生的性能都不能與任何PNW相比.
ML-1M是一個密度更大的數(shù)據(jù)集.總的來說,PNW顯著改善了兩種新穎性評分,在L_Tail和Nov評分中分別提高了41.5%和16%.再次,5D-Pop可以提高新穎性,但大大降低準確性.盡管PRA減少了長尾,但它提高了GMF和NMF的Nov分數(shù).
最后,Pinterest是稀疏的,是本次實驗中最大的數(shù)據(jù)集.所有的方法都無法像在其他兩個數(shù)據(jù)集上那樣顯著地改進新穎性評分.在這種情況下,與其他兩個數(shù)據(jù)集的結果相比,PNW變量以最低的準確度損失,提高了新穎性度評分.
綜上所述,所提出的PNW和重排序方法的性能一般與基本模型無關,更多地依賴于數(shù)據(jù)集的特性、稀缺性和規(guī)模.此外,除了5D-Pop,PNW在準確性和新穎性方面優(yōu)于所有重排序方法.5D-Pop增加了新穎性,顯著降低了準確性.5D-RR_ACC比5D-Pop更能平衡精度和新穎性,但其結果無法與PNW相比.PRA對推薦列表進行了重新排序,以提高特別是Nov得分.總體而言,PNW在保持準確性的同時提高了新穎性,重排序方法側重于單一目標,很難在權衡取舍之間取得平衡.
在這一部分中,對損失加權方法PNW和AllRank-Pop進行了比較實驗.由于使用了不同的損失函數(shù),為了進行公平的比較,計算了SacrificeRatio.實驗結果如表4所示.在PNW的變體中,PNW-G始終提供小于0.1%的SacrificeRatios(SacrificeRatioLT和SacrificeRatioNS).另一方面,PNW-BN給出了更高的L_Tail和Nov分數(shù).在兩種AllRank-Pop方法中,βw越大,新穎性分數(shù)越高.一般來說,所有的PNW方法在SacrificeRatio都優(yōu)于AllRank-Pop,更具體地說,SacrificeRatioLT和SacrificeRatioNS都比AllRank-Pop小10倍.
由于PNW是一種成對損失加權方法,因此需要分析負比率的影響.在本節(jié)中,將研究{2,4,6,8,10}中各種負比率的影響.由于前兩個實驗在不同數(shù)據(jù)集和基本模型上的結果是一致的,所以本實驗只選擇GMF和Citeulike-a.如圖1所示,4個指標在不同的負比率上有所不同.當精度為主要關注點時,{4,6}的負比值表現(xiàn)得更好.當新穎性是主要關注點時,{6}的負比率優(yōu)于其他比率.當負比值從8降到4~6時,一個簡單的基礎模型的準確性的結果與文獻[6,7]一致.
表3 與重排序的比較結果Table 3 Comparison with re-ranking
表4 與其他損失加權方法的比較Table 4 Comparison with other loss weighting methods
圖1 負比率實驗結果Fig.1 Negative ratio experiment
為了證明PNW-BN是一個“無參數(shù)”模型,在本節(jié)中驗證了PNW-BN對λ的不敏感性.選擇GMF和Citeulike-a來進行這個實驗.圖2顯示了不同λ值的結果.精確性和新穎性的穩(wěn)定性能反映了PNW-BN對不同選擇的λ一般不敏感.這些結果驗證了關于PNW-BN在4.3節(jié)中穩(wěn)定性的論點及其潛在應用.
圖2 λ對PNW-BN的影響Fig.2 λ′s impact on PNW-BN
“Novelty Matching”:PNW-BN只有πu,i
表5顯示了實驗結果. 從表中可知,僅考慮用戶的偏好(“新穎匹配”),兩個數(shù)據(jù)集的準確性都得到了提高. 這意味著用戶確實具有特定的新穎性區(qū)域,并且用戶傾向于從該區(qū)域中選擇項目.在“Novelty Scaling”中,它在HR和NDCG略有下降的情況下都促進了這兩個數(shù)據(jù)集的新穎性.最后,“Full Model”在所有實驗中均提供了最佳的L_Tail分數(shù),并且具有具有競爭力的Nov分數(shù). 對于較小的數(shù)據(jù)集Citeulike-a,“Full Model”更喜歡新穎性,但代價是準確性更高.對于較大的數(shù)據(jù)集Pinterest,它給出的結果更加平衡. 這些可能是由于在較小的數(shù)據(jù)集上過度擬合造成的.
表5 消融研究的結果Table 5 Result of ablation study
本文提出了一種有效的損失加權方法,用于一階段、端到端的新推薦.該方法將新穎性信息和用戶的個人偏好融合到BPR損失函數(shù)中.大量實驗表明,提出的方法優(yōu)于現(xiàn)有的重排序或損失加權方法,在實際應用中驗證了其有效性和潛在用戶.