亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        三通道神經(jīng)協(xié)同過(guò)濾算法

        2022-03-05 07:51:48武友新
        關(guān)鍵詞:用戶模型

        周 超,武友新

        (南昌大學(xué) 信息工程學(xué)院,南昌 330000)

        1 引 言

        作為一種有效應(yīng)對(duì)信息過(guò)載的技術(shù),智能推薦系統(tǒng)在電子商務(wù)、音樂(lè)推薦、視頻推薦等領(lǐng)域有了廣泛的應(yīng)用[1].近年來(lái),得益于深度學(xué)習(xí)在自然語(yǔ)言處理、圖像處理、語(yǔ)音識(shí)別和醫(yī)療診斷等領(lǐng)域取得的重大進(jìn)展,越來(lái)越多的深度學(xué)習(xí)技術(shù)被應(yīng)用到推薦系統(tǒng)研究中并得到較好的效果[2,3].先驅(qū)們?cè)缙诘难芯抗ぷ饕呀?jīng)探索了基于隱式反饋的深度學(xué)習(xí)模型,它們主要使用DNNs網(wǎng)絡(luò)來(lái)建模輔助信息,例如文字描述[4]、音樂(lè)的聲學(xué)特征[5]等,然后由MF與DNN相結(jié)合去學(xué)習(xí)用戶和項(xiàng)目的潛在特征向量,此類方法相比于傳統(tǒng)的方法能有效提升模型的命中率,但是提升效果有限.

        最近的研究越來(lái)越多的將深度神經(jīng)網(wǎng)絡(luò)應(yīng)用到用戶與項(xiàng)目的交互關(guān)系上,希望以此來(lái)提高模型的性能.Guo[6]等人提出的DeepFM是一種端到端模型,可無(wú)縫集成FM和MLP,它利用深度神經(jīng)網(wǎng)絡(luò)將FM的低階交互關(guān)系建模成具有高階特征的用戶與項(xiàng)目的交互關(guān)系.Deng[7]等人提出了一種DeepCF模型框架,它將特征學(xué)習(xí)與匹配函數(shù)結(jié)合在一起強(qiáng)化了模型的性能.He[8]等人提出了一種NCF模型,NCF模型在矩陣分解算法的基礎(chǔ)上使用DNN網(wǎng)絡(luò)去學(xué)習(xí)用戶與項(xiàng)目之間復(fù)雜的交互關(guān)系.以上模型均將深度神經(jīng)網(wǎng)絡(luò)應(yīng)用到對(duì)用戶與項(xiàng)目復(fù)雜交互關(guān)系的建模上,提高了模型的學(xué)習(xí)能力,但是由于隱式反饋數(shù)據(jù)天然帶有很強(qiáng)的噪聲,所以這些模型的性能表現(xiàn)都受到了限制.

        最近將自編碼器應(yīng)用到推薦系統(tǒng)中的研究開始流行起來(lái).Cao[9]等人提出了一種無(wú)監(jiān)督的深度學(xué)習(xí)方法,該方法使用棧式降噪自編碼器從原始的稀疏用戶項(xiàng)目交互矩陣中提取有用的低維特征,并與相似度計(jì)算算法結(jié)合以取得良好的推薦效果.Yosuke[10]等人提出了一種基于協(xié)同過(guò)濾的推薦算法,該算法利用棧式降噪自編碼器來(lái)探索不同用戶之間的相似性差異,這是因?yàn)闂J浇翟胱跃幋a器中的不同隱含層代表了具有不同抽象等級(jí)的用戶之間的關(guān)系,從而使得推薦比較新穎、多樣.

        受NCF模型的啟發(fā),本文提出了基于三通道的神經(jīng)協(xié)同過(guò)濾算法(Three-channels neural collaborative filtering algorithm,TCNCF),它使用自編碼器去挖掘用戶和項(xiàng)目的隱表示然后結(jié)合輔助信息一起去構(gòu)建用戶和項(xiàng)目的潛在特征向量,再然后融合廣義矩陣分解模型和多層感知機(jī)模型一起對(duì)用戶和項(xiàng)目建模.它將用戶和項(xiàng)目統(tǒng)計(jì)學(xué)信息的確定性與隱式反饋數(shù)據(jù)的隨機(jī)性相結(jié)合,提高了模型的泛化能力.面對(duì)不易挖掘的負(fù)樣本,本文將三通道協(xié)同過(guò)濾算法和負(fù)采樣算法進(jìn)行結(jié)合,提高了模型的魯棒性.

        2 三通道神經(jīng)協(xié)同過(guò)濾算法

        2.1 整體框架

        三通道神經(jīng)協(xié)同過(guò)濾算法融合廣義矩陣分解(Generalized Matrix Factorization,GMF)模型、多層感知機(jī)(Multi-Layer Perceptron,MLP)模型和輔助信息處理(Auxiliary information processing,AIP)模型一起對(duì)用戶和項(xiàng)目建模,其模型框架如圖1所示.GMF模型將用戶項(xiàng)目交互矩陣通過(guò)矩陣分解映射到GMF用戶特征向量和GMF項(xiàng)目特征向量,然后將用戶和項(xiàng)目的特征向量相乘的結(jié)果輸入到激活函數(shù)Sigmoid之后再輸出到向量結(jié)合層.MLP模型首先將用戶和項(xiàng)目的交互矩陣映射到用戶和項(xiàng)目的特征向量,然后將MLP用戶特征向量和MLP項(xiàng)目特征向量拼接成一個(gè)新的向量作為多層感知機(jī)的輸入,將多層感知機(jī)的結(jié)果輸送到向量結(jié)合層.AIP模型首先利用自編碼器重構(gòu)用戶和項(xiàng)目的評(píng)分向量得到用戶和項(xiàng)目的隱表示,再將其與用戶和項(xiàng)目的輔助信息對(duì)應(yīng)的輔助信息特征向量結(jié)合輸入到多層感知機(jī)中,最后的結(jié)果輸入到向量結(jié)合層.向量結(jié)合層將3個(gè)模型輸送過(guò)來(lái)的數(shù)據(jù)以向量拼接的方式輸入到Sigmoid函數(shù)中,最后輸出用戶與項(xiàng)目交互的預(yù)測(cè)結(jié)果.

        2.2 廣義矩陣分解模型

        傳統(tǒng)的矩陣分解(Matrix Factorization,MF)算法將評(píng)分矩陣分解為兩個(gè)低維矩陣P和Q,它們分別代表了用戶和項(xiàng)目的特征向量矩陣,則評(píng)分矩陣R為它們乘積,即:

        R=PTQ

        (1)

        矩陣分解算法的目的就在于求得用戶與項(xiàng)目的特征向量矩陣,然后將其相乘得到預(yù)測(cè)評(píng)分矩陣.將用戶對(duì)項(xiàng)目的預(yù)測(cè)評(píng)分排序,從而為用戶推薦預(yù)測(cè)評(píng)分最高的N個(gè)項(xiàng)目.廣義矩陣分解模型將傳統(tǒng)矩陣分解模型一般化,它具有更強(qiáng)的學(xué)習(xí)和表達(dá)能力,其公式如下:

        φGMF=aout(hT(pu·qi))

        (2)

        其中,pu和qi分別代表了用戶和項(xiàng)目的特征向量,·代表向量點(diǎn)乘,aout和h分別表示輸出層的激活函數(shù)和連接權(quán)重.如果將aout看成一個(gè)恒等函數(shù),h的權(quán)重值為1,就得到傳統(tǒng)的MF模型.GMF模型可以從數(shù)據(jù)中學(xué)習(xí)并且形成MF的變體,它可以表現(xiàn)出特征向量不同維度的重要性的不同.如果用一個(gè)非線性函數(shù)作為激活函數(shù),將進(jìn)一步推廣MF到非線性空間,使得模型較傳統(tǒng)MF模型具有更廣闊的搜索空間.在本模型中,它使用Sigmoid函數(shù)作為激活函數(shù).

        2.3 多層感知機(jī)模型

        在隱式反饋下,用戶與項(xiàng)目之間的交互變得更加復(fù)雜.在這種背景下,如何將表征用戶和項(xiàng)目之間的交互的函數(shù)擴(kuò)展到非線性空間顯得尤為重要.多層感知器的優(yōu)點(diǎn)是可以從數(shù)據(jù)中學(xué)習(xí)非常復(fù)雜的非線性表示,因此非常適合用來(lái)學(xué)習(xí)用戶與項(xiàng)目之間的交互關(guān)系.多層感知器模型,不再簡(jiǎn)單地使用向量乘積來(lái)表達(dá)用戶與物品之間的復(fù)雜交互,而是將向量結(jié)合輸入到多層感知器中去學(xué)習(xí)用戶和項(xiàng)目的高級(jí)交互關(guān)系.這樣做的好處就是可以利用DNNs強(qiáng)大的學(xué)習(xí)能力將用戶和項(xiàng)目的建模擴(kuò)展到更復(fù)雜的非線性空間.其函數(shù)表達(dá)式如下:

        (3)

        其中φMLP代表多層感知機(jī)模型預(yù)測(cè)結(jié)果,wi、bi和f分別代表了連接權(quán)重、偏置值和激活函數(shù).對(duì)于MLP層的激活函數(shù),我們選擇Relu函數(shù),使模型不至于過(guò)擬合.

        2.4 輔助信息處理模型

        隱式反饋數(shù)據(jù)一個(gè)很嚴(yán)重的問(wèn)題在于用戶與項(xiàng)目之間的交互矩陣具有很強(qiáng)的噪音.如果僅依靠交互矩陣來(lái)建模用戶與項(xiàng)目之間的交互關(guān)系,可能會(huì)導(dǎo)致較大的偏差.眾所周知,用戶和項(xiàng)目的輔助信息包含很多重要信息,可以從中挖掘出許多反映用戶和項(xiàng)目特征的信息.另外,用戶和項(xiàng)目的輔助信息具有較高的可靠性,科學(xué)的輔助信息處理可以對(duì)推薦結(jié)果產(chǎn)生積極的影響.例如,用戶的人口統(tǒng)計(jì)信息可以挖掘用戶的偏好,不同年齡、性別和職業(yè)的人的偏好可能完全不同.出于相似的原因,項(xiàng)目的輔助信息也可以反映項(xiàng)目的特征信息.因此,我們考慮采用輔助信息處理模型通道來(lái)挖掘用戶與項(xiàng)目輔助信息特征.

        當(dāng)前,自編碼器廣泛用于基于深度學(xué)習(xí)的推薦系統(tǒng)中[11,12].自動(dòng)編碼器具有強(qiáng)大的表示學(xué)習(xí)能力,可用于學(xué)習(xí)用戶和項(xiàng)目的隱含向量.因此,本文提出了一種基于自動(dòng)編碼器的輔助信息處理模型.首先,我們使用自編碼器重構(gòu)用戶和項(xiàng)目的評(píng)分向量(用戶的評(píng)分向量對(duì)應(yīng)的是交互矩陣中的列,項(xiàng)目的評(píng)分向量對(duì)應(yīng)的是交互矩陣中的行),從而獲得用戶和項(xiàng)目的隱含向量,將其與數(shù)值化處理后的輔助信息的特征向量結(jié)合,然后輸入到多層感知器中.該框架如圖1所示,具體公式如下:

        (4)

        (5)

        式中φAIP代表AIP模型的預(yù)測(cè)結(jié)果,hu、hi、Au和Ai分別表示用戶的隱含向量、項(xiàng)目的隱含向量、用戶的特征向量和項(xiàng)目的特征向量.hu和hi是從自編碼器中獲得的,就是公式(4)中的f(wiRi+b1).

        2.5 多通道融合

        采用多通道融合的方法對(duì)用戶和項(xiàng)目建模已經(jīng)廣泛的應(yīng)用在基于深度學(xué)習(xí)的推薦系統(tǒng)中.在本模型中,GMF用來(lái)學(xué)習(xí)用戶與項(xiàng)目之間的低階交互關(guān)系,MLP用來(lái)學(xué)習(xí)用戶與項(xiàng)目之間的高階交互關(guān)系,AIP通過(guò)輔助信息來(lái)挖掘用戶與項(xiàng)目之間潛在的交互關(guān)系.為了更好的發(fā)揮各個(gè)模型的性能,它們之間的融合十分關(guān)鍵.在本模型中多通道融合仍然采用向量結(jié)合的方式,具體公式如下:

        (6)

        式中φGMF、φMLP和φAIP代表GMF、MLP和AIP的輸出結(jié)果,它們之間的關(guān)系靠連接權(quán)重h來(lái)平衡.σ代表激活函數(shù) Sigmoid.這里將Sigmoid函數(shù)作為最后輸出結(jié)果的激活函數(shù)是因?yàn)榭紤]到最后的輸出結(jié)果的值在0-1之間,可以看作是概率模型,使用Sigmoid函數(shù)更合理.

        圖1 TCNCF模型框架Fig.1 TCNCF model framework

        3 優(yōu) 化

        3.1 損失函數(shù)

        本文的損失函數(shù)定義如下:

        (7)

        式中y代表在交互矩陣Y中值為1的項(xiàng)目,就是用戶交互過(guò)的項(xiàng)目.y-代表負(fù)樣本,即用戶與項(xiàng)目沒有交互記錄.我們之所以這樣定義損失函數(shù),是因?yàn)殡[式反饋數(shù)據(jù)下,模型的輸出更像是一個(gè)概率預(yù)測(cè)模型,使用似然函數(shù)取對(duì)數(shù)作為損失函數(shù)更合理.模型的訓(xùn)練通過(guò)最小化損失函數(shù)來(lái)完成,這里使用隨機(jī)梯度下降進(jìn)行參數(shù)訓(xùn)練.

        3.2 負(fù)采樣

        隱式反饋數(shù)據(jù)與顯式反饋數(shù)據(jù)不一樣的地方在于,隱式反饋的數(shù)據(jù)只有用戶對(duì)項(xiàng)目的交互記錄,它并不能反映出用戶對(duì)項(xiàng)目的真實(shí)感受,為了更好的對(duì)用戶和項(xiàng)目建模,科學(xué)的負(fù)采樣至關(guān)重要.傳統(tǒng)隱式反饋數(shù)據(jù)負(fù)樣本的采集一般采用以下兩種方式:1)將所有的未觀察到(用戶與該項(xiàng)目沒有交互記錄)的項(xiàng)目視為負(fù)樣本,然后隨機(jī)抽樣;2)根據(jù)項(xiàng)目的流行度來(lái)采樣,該方法認(rèn)為流行度越高的項(xiàng)目在用戶記錄中未觀察到則其為負(fù)樣本的概率越大,然而這樣就忽略了用戶的個(gè)性化,因?yàn)閷?duì)于熱門的項(xiàng)目來(lái)說(shuō),所有沒有與之交互的用戶都有很高的概率將其視為負(fù)樣本,這樣顯然不合理.本文將三通道神經(jīng)協(xié)同過(guò)濾算法與Tran[13]等人提出負(fù)樣本采集方法結(jié)合,以此來(lái)緩解隨機(jī)負(fù)采樣對(duì)模型的影響,具體做法如下:首先,假定那些在預(yù)測(cè)評(píng)分排名中評(píng)分較低的項(xiàng)目有很高的概率是用戶的負(fù)樣本,然后利用訓(xùn)練好的廣義矩陣分解模型得到用戶對(duì)項(xiàng)目的預(yù)測(cè)評(píng)分,在隱式反饋中它可以看成用戶與項(xiàng)目交互的概率,對(duì)預(yù)測(cè)評(píng)分由小到大排序,預(yù)測(cè)評(píng)分越小的項(xiàng)目用戶與之交互的概率越小,作為用戶負(fù)樣本的概率就越大,其概率計(jì)算公式如下:

        (8)

        式中ru[i]表示項(xiàng)目i在用戶u的預(yù)測(cè)評(píng)分排名中的位置,位置越前,為負(fù)樣本的概率越大,然后按概率選取負(fù)樣本即可.

        4 實(shí) 驗(yàn)

        4.1 數(shù)據(jù)集

        本文使用MovieLens電影評(píng)分公開數(shù)據(jù)集作為實(shí)驗(yàn)數(shù)據(jù)集[14],使用的是包含百萬(wàn)個(gè)評(píng)分?jǐn)?shù)據(jù)的ML-1M版本,每個(gè)用戶至少有20個(gè)評(píng)分記錄,相關(guān)信息見表1.這是顯式反饋數(shù)

        表1 數(shù)據(jù)集統(tǒng)計(jì)信息Table 1 Statistics of datasets

        據(jù)集,我們需要將其轉(zhuǎn)換為隱式反饋數(shù)據(jù)集,做法如下:將用戶對(duì)項(xiàng)目有過(guò)評(píng)分的項(xiàng)目標(biāo)簽值記為1,否則記為0,由此來(lái)構(gòu)建用戶項(xiàng)目交互矩陣.用戶的輔助信息包括職業(yè)、年齡和性別,項(xiàng)目的輔助信息為電影的類型.

        4.2 評(píng)價(jià)指標(biāo)

        本次實(shí)驗(yàn)使用留一法來(lái)評(píng)估模型性能表現(xiàn),將用戶最近的一次交互記錄作為測(cè)試集,其余全部作為訓(xùn)練集.我們?cè)趖op-k推薦中,為每個(gè)用戶隨機(jī)選取100個(gè)沒有交互過(guò)的項(xiàng)目,然后與測(cè)試項(xiàng)目一起進(jìn)行排序去決定top-k推薦項(xiàng)目.本文使用HR(Hit Rate)和NDCG(Normalized Distributed Cumulative Gain,NDCG)這兩個(gè)常用的排序性能指標(biāo)來(lái)評(píng)價(jià)模型,HR直觀地衡量測(cè)試項(xiàng)目是否存在于top-k列表中,而NDCG用來(lái)評(píng)價(jià)排序性能的好壞,其值越高,測(cè)試項(xiàng)目位置越靠前,k取值為10,具體公式如下:

        (9)

        (10)

        (11)

        其中number-of-hit@k代表測(cè)試項(xiàng)目在推薦項(xiàng)目列表前10的用戶數(shù)量,|u|代表總的用戶數(shù)量,idealDCG@k代表的是按照相關(guān)性等級(jí)排序得到的折扣累計(jì)增益,r(i)是處于位置i的項(xiàng)目的相關(guān)性等級(jí).

        4.3 基準(zhǔn)線

        我們將TCNCF模型與以下算法模型進(jìn)行比較:

        1)NCF,神經(jīng)協(xié)同過(guò)濾模型,它將GMF與MLP結(jié)合去挖掘用戶與項(xiàng)目之間復(fù)雜的交互函數(shù).

        2)DHA-RS[15],一種改進(jìn)的神經(jīng)協(xié)同過(guò)濾模型,利用自編碼器對(duì)輔助信息處理,然后聯(lián)合GMF或MLP對(duì)用戶項(xiàng)目建模.

        3)JRL[16],一種融合多種異構(gòu)信息的神經(jīng)協(xié)同過(guò)濾模型.

        4.4 參數(shù)設(shè)置

        本次實(shí)驗(yàn)對(duì)每個(gè)用戶按照正負(fù)樣本1∶4來(lái)構(gòu)建訓(xùn)練集,使用負(fù)采樣方法按概率選取負(fù)樣本,通過(guò)優(yōu)化損失函數(shù)來(lái)更新模型參數(shù).對(duì)于一些超參數(shù),我們根據(jù)經(jīng)驗(yàn)設(shè)置如下:批次大小設(shè)置為[128,256,512,1024],與之對(duì)應(yīng)的預(yù)測(cè)因子大小為[8,16,32,64],與之相對(duì)應(yīng)的學(xué)習(xí)率設(shè)置為[0.0001,0.0005,0.001,0.005],MLP和AIP隱含層設(shè)為3層.MLP各層的結(jié)點(diǎn)數(shù)按最后一層為預(yù)測(cè)因子數(shù)的一半、前一層為后一層的兩倍這樣的關(guān)系來(lái)設(shè)置(例如,當(dāng)預(yù)測(cè)因子為8時(shí),MLP各層的結(jié)點(diǎn)數(shù)為32/16/8,相應(yīng)的嵌入向量的維度為16).AIP自編碼器隱含層的維度大小設(shè)置為預(yù)測(cè)因子大小的兩倍,輔助信息特征向量維度大小8,AIP多層感知機(jī)各層的結(jié)點(diǎn)數(shù)按前一層為后一層的兩倍的關(guān)系來(lái)設(shè)置,則當(dāng)預(yù)測(cè)因子維度為8時(shí),AIP感知機(jī)各層結(jié)點(diǎn)數(shù)為48/24/12.

        4.5 實(shí)驗(yàn)結(jié)果與分析

        本文將TCNCF模型與其他模型進(jìn)行對(duì)比實(shí)驗(yàn),通過(guò)改變預(yù)測(cè)因子的維度大小來(lái)觀測(cè)模型的性能變化,從而對(duì)比不同模型之間的性能表現(xiàn).圖2反映的是各模型HR隨著預(yù)測(cè)因子維度變化而變化的情況.HR@10反映的是各模型的測(cè)試項(xiàng)目是否在排名列表前10,將所有測(cè)試項(xiàng)目在用戶排名列表前10的用戶數(shù)除上總的用戶數(shù),就可以得到HR@10,所以HR@10可以從整體上評(píng)價(jià)模型的準(zhǔn)確度.從圖2中我們可以看出,隨著預(yù)測(cè)因子的維度變大,各模型的命中率也跟著上升,其中TCNCF模型相對(duì)于其他模型表現(xiàn)更佳.相比于NCF模型,TCNCF模型在命中率上提升了3.48%.

        圖2 模型在HR@10的結(jié)果Fig.2 Results of the model on HR@10

        圖3反映的是各模型NDCG隨著預(yù)測(cè)因子變化而變化的趨勢(shì).NDCG是排序上常用評(píng)價(jià)指標(biāo),它反映的是排序質(zhì)量的問(wèn)題.對(duì)于本文來(lái)說(shuō),NDCG反映的是測(cè)試項(xiàng)目在推薦列表中排名是否靠前,其值越大越靠前,說(shuō)明排序質(zhì)量越高.從圖3中可以看出,隨著預(yù)測(cè)因子的增大,各模型的NDCG都呈現(xiàn)上升趨勢(shì),并且TCNCF模型較其他模型在排序質(zhì)量上有明顯的提升.相比于NCF模型,TCNCF模型在NDCG上提升了4.56%.

        圖3 模型在NDCG@10上的結(jié)果Fig.3 Results of the model on NDCG@10

        圖4給出了推薦列表長(zhǎng)度k的取值對(duì)模型命中率表現(xiàn)的影響.從圖4中我們可以看出,隨著k值的增大,各模型的命中率逐漸上升且趨于緩和,同時(shí)各模型的表現(xiàn)開始逐漸接近.一般而言,我們更關(guān)注排名列表前10的項(xiàng)目,即各模型在k取值為10以內(nèi)的命中率表現(xiàn),從圖4中可以看出,TCNCF模型在k取值小于10內(nèi)的命中率表現(xiàn)相比與其他模型具有明顯的優(yōu)勢(shì).

        圖4 模型在HR@k的結(jié)果Fig.4 Results of the model on HR@k

        圖5展示了推薦列表長(zhǎng)度k的取值對(duì)模型排序質(zhì)量的影響.從圖中我們可以看出,隨著k值的增大,各模型在NDCG上的性能表現(xiàn)開始趨于穩(wěn)定且TCNCF模型性能表現(xiàn)相比于其他模型有較為明顯的優(yōu)勢(shì).對(duì)比圖4和圖5,我們可以看出,雖然各模型在命中率上表現(xiàn)趨于接近的狀態(tài),但是在NDCG上TCNCF模型相比與其他模型有明顯的優(yōu)越性,這說(shuō)明TCNCF模型的測(cè)試項(xiàng)目在排名列表中的位置相對(duì)靠前,也就是說(shuō)TCNCF模型的排序性能相比于其他模型更好.

        圖5 模型在NDCG@k的結(jié)果Fig.5 Results of the model on NDCG@k

        表2 消融實(shí)驗(yàn)Table 2 Ablation experiment

        為了更好的區(qū)分輔助信息處理和負(fù)采樣對(duì)模型性能的影響,我們做了一組消融實(shí)驗(yàn),結(jié)果如表2所示.表2中NCF+NS代表的是采用基于MF概率負(fù)采樣的NCF模型,NCF+AIP代表的是融合輔助信息處理的NCF模型.NCF模型采用的是隨機(jī)負(fù)采樣方法,NCF+NS實(shí)驗(yàn)結(jié)果表明采用基于MF概率負(fù)采樣的方法相比于隨機(jī)負(fù)采樣可以提高模型的命中率和排序效果.NCF+AIP實(shí)驗(yàn)結(jié)果表明融合輔助信息后可以提高模型的效果,它提升的效果比改變負(fù)采樣的那組要更好,這說(shuō)明在隱式反饋下,用戶和項(xiàng)目的輔助信息可以幫助模型更好的學(xué)習(xí)用戶和項(xiàng)目的交互關(guān)系.TCNCF模型融合三通道神經(jīng)協(xié)同過(guò)濾算法以及負(fù)采樣方法,在HR@10和NDCG@10取得了最佳表現(xiàn).

        5 結(jié)束語(yǔ)

        針對(duì)隱式反饋數(shù)據(jù)帶有天噪音不利于模型學(xué)習(xí)的問(wèn)題,本文提出了TCNCF模型,該模型采用自編碼器對(duì)輔助信息進(jìn)行處理然后與傳統(tǒng)的NCF模型融合,提高了模型的泛化能力.面對(duì)不易挖掘的負(fù)樣本,該模型采用了一種基于矩陣分解的按概率負(fù)采樣方法,以此來(lái)提高模型的魯棒性.本文通過(guò)多組實(shí)驗(yàn),驗(yàn)證了三通道神經(jīng)協(xié)同過(guò)濾算法的有效性,與其他基準(zhǔn)模型相比,TCNCF模型的命中率和排序性能明顯提升,特別是相比于傳統(tǒng)的NCF模型,TCNCF在HR@10和NDCG@10上分別提升了3.48%和4.56%.在今后的工作中,將考慮將時(shí)間權(quán)重融合到模型中,以此來(lái)緩解用戶興趣遷移的問(wèn)題,提升推薦性能.

        猜你喜歡
        用戶模型
        一半模型
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
        關(guān)注用戶
        商用汽車(2016年11期)2016-12-19 01:20:16
        3D打印中的模型分割與打包
        關(guān)注用戶
        商用汽車(2016年6期)2016-06-29 09:18:54
        關(guān)注用戶
        商用汽車(2016年4期)2016-05-09 01:23:12
        FLUKA幾何模型到CAD幾何模型轉(zhuǎn)換方法初步研究
        Camera360:拍出5億用戶
        100萬(wàn)用戶
        成人久久免费视频| 草逼短视频免费看m3u8| 无遮挡中文毛片免费观看| 日韩精品在线免费视频| av天堂吧手机版在线观看| 怡春院欧美一区二区三区免费| 亚洲熟女少妇一区二区三区青久久| 欧美丰满大乳高跟鞋| 青青草手机在线免费观看视频| 国产免费一级在线观看| 久久久国产精品va麻豆| 丰满人妻被持续侵犯中出在线| 久久香蕉国产线看观看网| 韩国三级中文字幕hd| 国产少妇高潮在线视频| 国产日韩精品一区二区在线观看播放| 无遮无挡三级动态图| 国产欧美成人一区二区a片| 虎白女粉嫩粉嫩的18在线观看| 亚洲中文字幕一区精品| 久久精品国产只有精品96| 中文字幕肉感巨大的乳专区| 字幕网中文字幕精品一区| 国产黑色丝袜一区在线| 亚洲乱妇老熟女爽到高潮的片| 国产精品理论片在线观看| 日韩在线视精品在亚洲| 亚洲国色天香卡2卡3卡4| 亚洲综合在线观看一区二区三区| 99日本亚洲黄色三级高清网站| 亚洲aⅴ天堂av天堂无码麻豆| 亚洲av手机在线网站| 大陆啪啪福利视频| 亚洲国产99精品国自产拍| 久久综合狠狠色综合伊人| 内射夜晚在线观看| 水蜜桃在线精品视频网| 亚洲天堂av另类在线播放| 六月丁香婷婷色狠狠久久| 久久精品国产免费观看| 国产成人精品久久亚洲高清不卡|