亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        改進學(xué)習(xí)率的一種高效SVD++算法

        2018-01-31 15:15:27王燕李鳳蓮張雪英田玉楚
        現(xiàn)代電子技術(shù) 2018年3期
        關(guān)鍵詞:推薦算法推薦系統(tǒng)大數(shù)據(jù)

        王燕+李鳳蓮+張雪英+田玉楚

        摘 要: 推薦系統(tǒng)的核心包括推薦算法及其所依賴的大數(shù)據(jù)。推薦算法的高效計算,是實現(xiàn)實時人機交互的基本要求。在各種推薦算法中,SVD++算法因其特殊優(yōu)點而得到廣泛應(yīng)用。但是,大數(shù)據(jù)背景下SVD++推薦算法的突出問題是計算效率低,難以滿足實時人機交互要求。為解決這一問題,提出一種新的方法來提高SVD++推薦算法的計算效率,其核心是采用新的學(xué)習(xí)率函數(shù)對目標(biāo)函數(shù)的指標(biāo)進行優(yōu)化。該學(xué)習(xí)率函數(shù)結(jié)合指數(shù)函數(shù)和一次函數(shù)的升降速率特點,具有初期值大、中期下降迅速以及后期值小且變化緩慢的特點。仿真實驗證明了該方法的有效性。

        關(guān)鍵詞: 推薦系統(tǒng); 推薦算法; 大數(shù)據(jù); SVD++; 計算效率; 學(xué)習(xí)率

        中圖分類號: TN911.1?34 文獻(xiàn)標(biāo)識碼: A 文章編號: 1004?373X(2018)03?0146?05

        Abstract: The core of the recommendation system includes the recommendation algorithm and big data. The efficient computation of the recommendation algorithm is the essential requirement to realize the real?time human?machine interaction. Among various recommendation algorithms, the SVD++ algorithm is widely used because its special advantages. However, in the environment of big data, the SVD++ recommendation algorithm has the prominent problem of low computing efficiency, and is difficult to satisfy the requirement of real?time human?machine interaction. In order to solve this problem, a new method to improve the computation efficiency of the SVD++ recommendation algorithm is proposed, whose kernel is to optimize the indicator of the target function with new learning rate function. In combination with the changing rate characteristics of the exponential function and linear function, the learning rate function has the characteristics of high initial value, low medium?term descend speed and later value, and slow change toward. The effectiveness of the method was verified with simulation experiment.

        Keywords: recommendation system; recommendation algorithm; big data; SVD++; computation efficiency; learning rate

        0 引 言

        推薦系統(tǒng)是解決當(dāng)前互聯(lián)網(wǎng)“信息過載”的一項關(guān)鍵技術(shù)[1],其通過收集和分析用戶的各種信息來學(xué)習(xí)用戶特征,并根據(jù)分析得到的用戶興趣和行為模式來為用戶推薦所需要的服務(wù)。目前,推薦系統(tǒng)在很多領(lǐng)域獲得了廣泛應(yīng)用,例如電子商務(wù)、電影、音樂、移動應(yīng)用等。

        推薦算法及其依賴的原始大數(shù)據(jù)是推薦系統(tǒng)的核心[2]?;ヂ?lián)網(wǎng)上每天產(chǎn)生TB及PB級的數(shù)據(jù),數(shù)據(jù)復(fù)雜、維度高。在此背景下,有效提高推薦算法的計算效率成為實際應(yīng)用中實現(xiàn)實時人機交互的關(guān)鍵。在常用的推薦算法中,基于奇異值分解算法(Singular Value Decomposition,SVD)改進的SVD++推薦算法[3]因具有很多優(yōu)點而被應(yīng)用于推薦系統(tǒng),主要優(yōu)點包括降低數(shù)據(jù)維度、考慮含蓄隱式行為信息以及預(yù)測準(zhǔn)確性高等,是推薦算法中一種重要的用于實現(xiàn)目標(biāo)用戶對目標(biāo)項目進行評分預(yù)測的算法。

        雖然SVD++推薦算法具有很多優(yōu)點,但在實際應(yīng)用中,需要處理的數(shù)據(jù)量往往屬于海量級。對于海量數(shù)據(jù),SVD++算法計算效率低的問題格外突出,因而不能滿足實時人機交互的基本要求。

        本文提出一種新的方法來提高SVD++推薦算法的計算效率,其核心是采用一種新的學(xué)習(xí)率函數(shù)對SVD++推薦算法中的各項指標(biāo)進行優(yōu)化學(xué)習(xí)。該新學(xué)習(xí)率函數(shù)采用指數(shù)函數(shù)和一次函數(shù)的綜合函數(shù)作為優(yōu)化函數(shù),從而具有自適應(yīng)學(xué)習(xí)的能力,具體表現(xiàn)為初始學(xué)習(xí)率大、中期下降迅速以及后期學(xué)習(xí)率小且變化緩慢。

        1 推薦算法

        目前,主流的推薦算法包括四類:基于內(nèi)容、協(xié)同過濾、基于圖結(jié)構(gòu)以及混合的算法。其中,協(xié)同過濾算法是當(dāng)前推薦系統(tǒng)中最廣泛應(yīng)用的推薦算法[2],其核心思想是尋找目標(biāo)用戶的相似用戶群,然后根據(jù)相似用戶群對目標(biāo)項目的評分情況預(yù)測目標(biāo)用戶對該項目的喜好。協(xié)同過濾算法又包括基于項目、基于用戶和基于模型三類[2]?;陧椖亢突谟脩舻乃惴ㄔ砗唵?,但效率低。而基于模型的算法原理復(fù)雜,但預(yù)測準(zhǔn)確性高,能夠很好地解決數(shù)據(jù)稀疏性的問題。本文針對基于模型的協(xié)同過濾推薦算法進行研究。endprint

        基于模型的協(xié)同過濾推薦算法中的一種典型算法為SVD推薦算法,該算法的研究方向包括預(yù)測準(zhǔn)確性和計算效率。針對準(zhǔn)確性進行研究的方法主要包括:

        1) 在原有SVD算法的基礎(chǔ)上加入其他信息,如置信度參數(shù)[4]、隱式信息及時間信息,綜合提高推薦模型的性能。

        2) 在已改進算法的基礎(chǔ)上加入其他信息,如用戶和項目的偏置信息[5]。

        3) 利用其他類型矩陣的特征來完成對評分的預(yù)測[6]。

        這些方法較經(jīng)典SVD算法的準(zhǔn)確性都有所提高,但效率均低于SVD++推薦算法。

        對于計算效率的研究,主要包括兩類:

        1) 利用矩陣的特性提取出一個新的矩陣作為目標(biāo)函數(shù)對SVD推薦算法進行優(yōu)化[7],此方法雖然有效提高了算法推薦效率,但準(zhǔn)確性卻低于SVD++推薦算法。

        2) 針對算法適應(yīng)性進行研究,如基于SVD增量算法的模型不會隨著數(shù)據(jù)的變化而產(chǎn)生大的變化,該方法雖然能夠有效地提高算法計算效率[8],但缺點是沒有考慮含蓄隱式信息。

        針對以上方法的準(zhǔn)確性低以及沒有考慮含蓄隱式信息的缺點,本文在SVD++推薦算法的基礎(chǔ)上,提出一種新的學(xué)習(xí)率函數(shù)對算法的模型進行訓(xùn)練,該學(xué)習(xí)率函數(shù)具有自適應(yīng)的特點,以此來解決大數(shù)據(jù)背景下推薦算法計算效率低的問題。

        2 新的SVD++推薦算法

        2.1 基本SVD++推薦算法預(yù)測公式

        假設(shè)給定個用戶,個項目以及用戶對項目的評分矩陣是稀疏矩陣,表示用戶對項目的評分,推薦算法最終目標(biāo)是對的項目進行預(yù)測。

        最初該算法把高維的用戶?項目?評分矩陣分解為兩個降維矩陣乘積的形式其中表示的近似矩陣,和分別是降維后的用戶特征向量矩陣和項目特征向量矩陣,是降維后向量的維數(shù),用戶對項目的預(yù)測評分公式為:

        后來研究人員把用戶和項目自身的差異性,以及用戶的歷史瀏覽記錄和觀看記錄等含蓄隱式信息加入到推薦模型,得到SVD++推薦算法的預(yù)測評分公式如下:

        式中:用戶的特征向量被模型化為為用戶的顯式評分信息的特征向量,為用戶的隱式反饋信息的特征向量, 表示用戶有過行為的項目數(shù)量,該行為包括用戶對項目的瀏覽、觀看以及評分等;表示對項目有過行為的用戶特征向量;表示項目的特征向量;是全局的平均數(shù);是用戶的偏置向量;是項目的偏置向量。

        2.2 梯度下降法

        對SVD++算法的預(yù)測評分函數(shù)的各個參數(shù)進行優(yōu)化求解的方法有兩種:一種是梯度下降法;另一種是最小二乘法。因后者的原理相對復(fù)雜,研究時一般采用前者[8]。

        梯度下降法是一種最常用的優(yōu)化算法。假設(shè)要求一個目標(biāo)函數(shù)的極小值,首先要對待優(yōu)化的指標(biāo)進行求導(dǎo),確定每次迭代的搜索方向,然后需要確定一個學(xué)習(xí)率作為每次搜索尋優(yōu)的步長,最終使得待優(yōu)化的指標(biāo)迭代至目標(biāo)值附近。

        梯度下降法的一種簡單形式是:其中為學(xué)習(xí)速率,可以是較小的常數(shù),也可以是一個函數(shù)表達(dá)式;是的梯度;為迭代次數(shù)。

        2.3 基于新學(xué)習(xí)率的SVD++推薦模型

        在SVD++推薦模型的訓(xùn)練階段,對目標(biāo)函數(shù)進行優(yōu)化,學(xué)習(xí)率的選擇極其重要。若取值較大,即梯度下降迭代的步長較大,可以快速迭代至最優(yōu)解附近,但是可能一直在最優(yōu)解附近徘徊,無法計算出最優(yōu)解,對于特殊的函數(shù)也可能會導(dǎo)致不收斂,始終發(fā)散求不出解;若取值較小,即梯度下降迭代的步長較小,下降速度較慢,其迭代出的解精度較高,但會耗費很長時間,這將不利于實際應(yīng)用。

        分析該模型訓(xùn)練過程可知,梯度下降法中所用的學(xué)習(xí)率是一個自適應(yīng)減函數(shù),即學(xué)習(xí)初期時,采用較大的學(xué)習(xí)率,此時梯度下降的步長較大;中期時,迅速下降迭代至最優(yōu)解附近;末期時,學(xué)習(xí)率很小并且變化緩慢,以一個很小的值來尋找最優(yōu)解。若采用一個恒定不變的經(jīng)驗值或是按經(jīng)驗先取較大值后取較小值,則需要進行多次實驗才能找到合適的值,并且模型的訓(xùn)練過程較長,精確度也不高。目前應(yīng)用最多的學(xué)習(xí)率方法是采用指數(shù)函數(shù)調(diào)整大小,其公式為:

        式中:為迭代次數(shù);分別為該指數(shù)學(xué)習(xí)率函數(shù)的參數(shù)。大多數(shù)研究都采用該函數(shù),該函數(shù)雖然可以通過調(diào)節(jié)參數(shù)滿足學(xué)習(xí)率先大后小的條件,但因為可控參數(shù)少,不夠靈活,在SVD++模型中應(yīng)用時效率仍然很低。

        綜合考慮以上情況,本文提出一種新的可用于SVD++算法的新學(xué)習(xí)率函數(shù),該學(xué)習(xí)率函數(shù)表達(dá)式為:

        式中:為迭代次數(shù);和為學(xué)習(xí)率函數(shù)的三個參數(shù)。

        基于新學(xué)習(xí)率函數(shù)的SVD++推薦算法包括模型訓(xùn)練及性能測試兩部分。具體步驟如下:

        輸入:訓(xùn)練數(shù)據(jù)文件u?train,歷史數(shù)據(jù)文件u?his,學(xué)習(xí)率初值,迭代最大次數(shù)維度

        輸出:迭代停止次數(shù)訓(xùn)練時間和均方根誤差RMSE。

        1) 初始化特征矩陣和使向量中的值為0~0.1的任意數(shù),并把偏置項和向量中的值初始化為0。

        2) 根據(jù)SVD++推薦算法的預(yù)測評分式(2)求解訓(xùn)練數(shù)據(jù)中用戶對項目的預(yù)測評分再根據(jù)求得預(yù)測評分與實際評分的誤差值。

        3) 學(xué)習(xí)模型中用戶和項目的特征變量和方法是使用梯度下降法最小化損失函數(shù),損失函數(shù)如下所示:

        損失函數(shù)包括誤差部分和正則化部分,誤差部分是式(5)中的第一部分,正則化部分為第二部分,該部分的作用是防止訓(xùn)練過程中出現(xiàn)過擬合現(xiàn)象。

        最小化損失函數(shù)的方法是對每個特征變量求偏導(dǎo),得到相應(yīng)特征的梯度向量,特征變量將沿著梯度方向進行更新,直到梯度向量接近零時特征更新結(jié)束。式(5)為特征和的學(xué)習(xí)更新公式,每個特征學(xué)習(xí)采用的學(xué)習(xí)率均同式(4)。

        4) 根據(jù)更新得到以上特征參數(shù),執(zhí)行步驟2),判斷得到的誤差是否小于閾值若小于則停止訓(xùn)練,否則繼續(xù)步驟2)。

        5) 根據(jù)最終訓(xùn)練出來的用戶和項目的特征參數(shù),對測試數(shù)據(jù)里的用戶項目進行預(yù)測評分,并得到迭代次數(shù)訓(xùn)練時間和預(yù)測準(zhǔn)確性指標(biāo)RMSE。其中RMSE的求解見4.1評價指標(biāo)部分。endprint

        上述步驟中,從步驟1)~步驟4)為采用訓(xùn)練數(shù)據(jù)對特征和的值進行訓(xùn)練的過程;步驟5)為對測試數(shù)據(jù)進行預(yù)測評分的過程,根據(jù)訓(xùn)練出來的特征和的值對測試數(shù)據(jù)進行預(yù)測。

        與現(xiàn)在常用的學(xué)習(xí)率函數(shù)相比,新學(xué)習(xí)率函數(shù)的主要優(yōu)點是通過三個參數(shù)靈活有效地控制學(xué)習(xí)率的變化,具有自適應(yīng)的特點。根據(jù)本實驗及數(shù)學(xué)理論分析可知,新舊學(xué)習(xí)率函數(shù)均為減函數(shù),式(3)利用指數(shù)函數(shù)下降的特性,需要滿足條件。式(4)在指數(shù)函數(shù)的基礎(chǔ)上加入一次函數(shù),增大了學(xué)習(xí)率的變化速率,并在此基礎(chǔ)上取倒數(shù),最終也得到了一個減函數(shù),式(4)需滿足條件和。與式(3)相比,首先,式(4)在兩個參數(shù)的基礎(chǔ)上又增加了一個參數(shù),通過控制能更靈活地控制初值的大小,具有較大的初值;其次,式(4)的下降速率在指數(shù)函數(shù)基礎(chǔ)上加入了一次函數(shù),下降速度較單純的指數(shù)函數(shù)更快;最后,隨著逐漸增大,會越來越小,相同的值條件下,比小很多,可以以一個更小的步長尋找到更精確的最優(yōu)解。

        3 實驗設(shè)計

        3.1 數(shù)據(jù)集

        本文采用MovieLens網(wǎng)站上的10萬、100萬和1 000萬條評分信息的數(shù)據(jù)集進行相應(yīng)的實驗[9],分別代表三類不同規(guī)模的推薦數(shù)據(jù)集,其數(shù)據(jù)量分別相差約一個數(shù)量級,如表1所示。這些數(shù)據(jù)集是對推薦算法性能進行測試的最常用的數(shù)據(jù)集合[8],包含用戶對電影的評分和電影屬性等內(nèi)容。數(shù)據(jù)集中每個用戶至少對20部電影進行過評分,評分值均為1~5的整數(shù)值,評分越高代表用戶對相應(yīng)電影的評價越高,即越喜歡。該數(shù)據(jù)集能滿足本文實驗的要求。實驗時,對每個數(shù)據(jù)集按82的比例隨機分割為訓(xùn)練集和測試集。

        3.2 實驗平臺

        本實驗的實驗平臺采用Windows 7操作系統(tǒng),Intel CoreTM i5?2410M的CPU,6 GB的RAM以及eclipse環(huán)境。

        3.3 推薦算法參數(shù)設(shè)定

        實驗分別采用本文提出的新學(xué)習(xí)率和已有的舊學(xué)習(xí)率對算法進行調(diào)試,最終得到兩個學(xué)習(xí)率函數(shù)的合理參數(shù)。其中兩種方法的正則化參數(shù)和維度相同,分別為0.007和30。采用本文提出的新學(xué)習(xí)率對SVD++推薦模型進行訓(xùn)練時,參數(shù)分別取為采用舊學(xué)習(xí)率函數(shù)對模型訓(xùn)練時的參數(shù)取為0.007,0.9。兩種學(xué)習(xí)率隨迭代次數(shù)變化曲線的對比情況如圖1所示。

        迭代次數(shù)(m≥4)變化對比

        因迭代次數(shù)小于4時,新學(xué)習(xí)率的初值比舊學(xué)習(xí)率大1個數(shù)量級(新為0.047,舊為0.007),不能直觀比較差別,圖中不作顯示。

        當(dāng)?shù)螖?shù)大于等于4時,由圖1可以看出,新學(xué)習(xí)率函數(shù)從0.005開始下降,迭代至20次時,學(xué)習(xí)率基本趨于零;而舊學(xué)習(xí)率函數(shù)從0.004 4開始下降,迭代至60次時,學(xué)習(xí)率才基本趨于零。在相同的迭代次數(shù)下,新學(xué)習(xí)率值小于舊學(xué)習(xí)率。該結(jié)果表明,與舊學(xué)習(xí)率函數(shù)相比,本文提出的新學(xué)習(xí)率函數(shù),在學(xué)習(xí)初期以較大的學(xué)習(xí)率開始學(xué)習(xí),然后以相對較快的速度下降,在后期以很小的學(xué)習(xí)率以及很少的迭代次數(shù)尋找到最優(yōu)解。

        4 評價指標(biāo)及結(jié)果分析

        4.1 評價指標(biāo)

        本實驗從三個方面來確定評價指標(biāo)[10]:第一,為了提高推薦算法的效率,采用推薦模型訓(xùn)練所用迭代次數(shù)作為評價指標(biāo)之一,越小,則表示推薦性能越好;第二,隨著數(shù)據(jù)集的增大,為了使算法適應(yīng)數(shù)據(jù)集的可擴展性,采用訓(xùn)練時間作為第二個評價指標(biāo);第三,在提高效率的同時,需要保證算法的預(yù)測準(zhǔn)確性,采用均方根誤差RMSE作為第三個指標(biāo),RMSE越小則準(zhǔn)確性越高,其表達(dá)式如下所示:

        式中:表示推薦算法預(yù)測的用戶對項目的評分;表示用戶對項目的實際評分;表示測試的樣本集;表示中測試樣本的個數(shù)。

        4.2 結(jié)果分析

        實驗分別采用基于新學(xué)習(xí)率和傳統(tǒng)舊學(xué)習(xí)率的SVD++推薦算法對各實驗數(shù)據(jù)集進行測試,得到的訓(xùn)練迭代次數(shù)訓(xùn)練時間RMSE的結(jié)果對比如圖2~圖4所示。實驗結(jié)果是相同實驗環(huán)境下重復(fù)執(zhí)行20次,對實驗結(jié)果取均值所得。

        從圖2可以看出,在三個不同規(guī)模的數(shù)據(jù)集和上進行實驗時,采用新學(xué)習(xí)率對模型進行訓(xùn)練迭代的次數(shù)大約為30次,相比舊學(xué)習(xí)率大約減少120次。該結(jié)果表明,采用本文提出的學(xué)習(xí)率函數(shù)可以明顯地降低對SVD++推薦算法訓(xùn)練所用的迭代次數(shù)。

        從圖3可以看出,在數(shù)據(jù)量依次增大且分別相差一個量級的三個數(shù)據(jù)集和上進行實驗時,采用新學(xué)習(xí)率對算法進行訓(xùn)練時所用訓(xùn)練時間增長速度非常小,而采用舊學(xué)習(xí)率的時間增長速度較大。該結(jié)果表明,隨著數(shù)據(jù)集的增大,與舊學(xué)習(xí)率相比,采用新學(xué)習(xí)率對模型進行訓(xùn)練可以明顯地縮短訓(xùn)練所用的時間,同時也說明本文提出的新學(xué)習(xí)率函數(shù)可以明顯地改善SVD++算法在針對大數(shù)據(jù)集時計算效率低的缺點。

        從圖4可以看出:在和數(shù)據(jù)集上進行實驗時,與舊學(xué)習(xí)率相比,采用新學(xué)習(xí)率對模型訓(xùn)練后所得的RMSE略微減?。粺o論采用新或舊學(xué)習(xí)率,隨著數(shù)據(jù)集的增大,RMSE均逐漸減小。以上兩點可以說明,采用新學(xué)習(xí)率對模型進行訓(xùn)練后可以略微增大算法的準(zhǔn)確性。同時,隨著用戶和電影數(shù)量的增多,采用新舊學(xué)習(xí)率實驗后的準(zhǔn)確性均逐步提高。

        綜上可知,與舊學(xué)習(xí)率方法相比,采用本文方法對SVD++模型進行訓(xùn)練后,迭代次數(shù)和訓(xùn)練時間大幅減少,而且所得結(jié)果的準(zhǔn)確度也有所提高。該結(jié)果說明本文方法在保證推薦模型預(yù)測準(zhǔn)確性的前提下,可有效地提高SVD++推薦算法的計算效率。

        另外,采用該方法在SVD系列其他推薦算法上也進行了測試,結(jié)果表明,本文提出的學(xué)習(xí)率函數(shù)既能明顯提高算法計算效率,又能保證推薦準(zhǔn)確性,具有廣泛的適應(yīng)性。

        5 結(jié) 論

        本文針對SVD++推薦算法在推薦系統(tǒng)應(yīng)用過程中計算效率低的問題,提出一種新的自適應(yīng)學(xué)習(xí)率函數(shù)來優(yōu)化推薦模型,通過在MovieLens三個不同規(guī)模的數(shù)據(jù)集上的實驗表明,本文提出的方法可使算法的計算效率明顯提高,且不影響預(yù)測結(jié)果的準(zhǔn)確性。下一步要進行的研究是利用三維張量用戶?項目?標(biāo)簽信息,采用高階奇異值分解算法對用戶的喜好進行概率分析。endprint

        參考文獻(xiàn)

        [1] MISHRA R, KUMAR P, BHASKER B. A Web recommendation system considering sequential information [J]. Decision support systems, 2015, 75(C): 1?10.

        [2] 王國霞,劉賀平.個性化推薦系統(tǒng)綜述[J].計算機工程與應(yīng)用,2012,48(7):66?76.

        WANG G X, LIU H P. Survey of personalized recommendation system [J]. Computer engineering & applications, 2012, 48(7): 66?76.

        [3] KOREN Y, BELL R, VOLINSKY C. Matrix factorization techniques for recommender systems [J]. IEEE computer, 2009, 42(8): 30?37.

        [4] 張超,秦永彬,黃瑞章.結(jié)合置信度和SVD的協(xié)同過濾算法[J].計算機與數(shù)字工程,2015,43(5):758?761.

        ZHANG Chao, QIN Yongbin, HUANG Ruizhang. Collaborative filtering algorithms based on confidence level and SVD [J]. Computer & digital engineering, 2015, 43(5): 758?761.

        [5] 季蕓,胡雪蕾.基于Baseline SVD主動學(xué)習(xí)算法的推薦系統(tǒng)[J].現(xiàn)代電子技術(shù),2015,38(12):8?11.

        JI Yun, HU Xuelei. Recommender system based on Baseline SVD active learning algorithm [J]. Modern electronics technique, 2015, 38(12): 8?11.

        [6] 吳揚,林世平.基于正負(fù)反饋矩陣的SVD推薦模型[J].計算機系統(tǒng)應(yīng)用,2015,24(6):14?18.

        WU Yang, LIN Shiping. SVD recommendation model based on positive and negative feedback matrix [J]. Computer system & application, 2015, 24(6): 14?18.

        [7] 方耀寧,郭云飛,丁雪濤,等.一種基于局部結(jié)構(gòu)的改進奇異值分解推薦算法[J].電子與信息學(xué)報,2013,35(6):1284?1289.

        FANG Yaoning, GUO Yunfei, DING Xuetao, et al. An improved singular value decomposition recommender algorithm based on local structures [J]. Journal of electronics & information techno?logy, 2013, 35(6): 1284?1289.

        [8] ZHOU X, HE J, HUANG G, et al. SVD?based incremental approaches for recommender systems [J]. Journal of computer & system sciences, 2015, 81(4): 717?733.

        [9] GroupLens. MovieLens [EB/OL]. [2017?01?21]. http://grouplens.org/datasets/movielens/.

        [10] 陳清浩.基于SVD的協(xié)同過濾推薦算法研究[D].成都:西南交通大學(xué),2015.

        CHEN Qinghao. The research of collaborative filtering recommendation algorithm based on SVD [D]. Chengdu: Southwest Jiao Tong University, 2015.endprint

        猜你喜歡
        推薦算法推薦系統(tǒng)大數(shù)據(jù)
        基于用戶偏好的信任網(wǎng)絡(luò)隨機游走推薦模型
        基于相似傳播和情景聚類的網(wǎng)絡(luò)協(xié)同過濾推薦算法研究
        基于個性化的協(xié)同過濾圖書推薦算法研究
        社交網(wǎng)絡(luò)推薦系統(tǒng)
        個性化推薦系統(tǒng)關(guān)鍵算法探討
        混合推薦算法在電影推薦中的研究與評述
        淺談Mahout在個性化推薦系統(tǒng)中的應(yīng)用
        一種改進的基于位置的推薦算法
        基于大數(shù)據(jù)背景下的智慧城市建設(shè)研究
        科技視界(2016年20期)2016-09-29 10:53:22
        免费无码av片在线观看| 日韩av在线不卡一区二区| 久久精品国产亚洲婷婷| 亚洲美女国产精品久久久久久久久| 一区=区三区国产视频| 中文字幕影片免费人妻少妇 | 亚洲精品中文字幕二区| 性色国产成人久久久精品二区三区| 国产亚洲精品97在线视频一 | 亚洲国产精品久久久婷婷| 揄拍成人国产精品视频| 久久视频在线| 欧美午夜一区二区福利视频| 淫妇日韩中文字幕在线| 日本国产一区二区在线| 在线精品亚洲一区二区动态图| 极品av麻豆国产在线观看| 免费99视频| 国产真人无遮挡免费视频| 东京热加勒比日韩精品| 少妇被粗大猛进进出出男女片| 一边做一边说国语对白| 欧美怡红院免费全部视频| 国产一级黄色录像| 精品少妇一区二区三区四区| 日本人视频国产一区二区三区| 久久精品亚洲一区二区三区浴池 | 国产精品私密保养| 公粗挺进了我的密道在线播放贝壳| 国产自产av一区二区三区性色| 国产精品久久熟女吞精| 麻豆精品国产av在线网址| 久久久精品人妻无码专区不卡| 亚洲男人第一无码av网站| 骚片av蜜桃精品一区| 免费黄网站一区二区三区| 天堂资源中文网| 亚洲av无码精品国产成人| 久久久无码一区二区三区| 国内色精品视频在线网址| 人妖一区二区三区视频|