亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于異質(zhì)注意力循環(huán)神經(jīng)網(wǎng)絡(luò)的文本推薦

        2020-10-15 08:32:18牛耀強孟昱煜牛全福
        計算機工程 2020年10期
        關(guān)鍵詞:文本用戶信息

        牛耀強,孟昱煜,牛全福

        (1.蘭州交通大學(xué) 電子與信息工程學(xué)院,蘭州 730070; 2.蘭州理工大學(xué) 土木工程學(xué)院,蘭州 730050)

        0 概述

        隨著社交網(wǎng)絡(luò)技術(shù)的快速發(fā)展和廣泛使用,移動端設(shè)備日益普及,在線問答系統(tǒng)如知乎等也得到了快速發(fā)展,已成為人們?nèi)粘I钪胁豢扇鄙俚囊徊糠?。在知識問答系統(tǒng)中存在大量的數(shù)據(jù)信息,如問題信息、答案信息、用戶信息等。同時,在用戶與知識問答系統(tǒng)交互的過程中,會產(chǎn)生大量的行為數(shù)據(jù),如用戶搜索過的問題、用戶查看過的文本、用戶評論過的文章、用戶贊同的文章、用戶的收藏文章、用戶評論過的文章以及用戶關(guān)注的作者等。這些異質(zhì)數(shù)據(jù)中蘊含著豐富的價值,對實體建模和信息挖掘有著重要的影響。但隨著問答系統(tǒng)中異質(zhì)數(shù)據(jù)的不斷增多,用戶畫像和精準(zhǔn)推薦已經(jīng)愈發(fā)具有挑戰(zhàn)性。

        傳統(tǒng)的文本推薦方法主要分為協(xié)同過濾[1-2]、基于內(nèi)容的推薦[3]和混合型的推薦[4-5]。隨著網(wǎng)絡(luò)的飛速發(fā)展,交互的應(yīng)用遍布所有角落,用戶和文本之間的交互關(guān)系顯得十分的稀疏,傳統(tǒng)的推薦算法很難得到較好的應(yīng)用[6-7]。近年來,隨著深度學(xué)習(xí)在計算機視覺和自然語言處理等領(lǐng)域取得的進展,逐漸展現(xiàn)出其對數(shù)據(jù)特征進行挖掘和提取的優(yōu)勢。而特征提取正是推薦系統(tǒng)中的重要環(huán)節(jié),特征學(xué)習(xí)的好壞關(guān)乎推薦系統(tǒng)的成敗,因此,業(yè)界逐漸開始研究深度學(xué)習(xí)領(lǐng)域。文獻[8]提出了一種多視角深度神經(jīng)網(wǎng)絡(luò)模型,模型通過分析用戶的瀏覽記錄和搜索記錄提取用戶的特征,從而豐富用戶的特征表示,然后通過用戶和項目兩種信息實體的語義匹配來實現(xiàn)用戶的項目推薦。文獻[9]研究了標(biāo)簽感知的個性化推薦問題,分別利用用戶的所有標(biāo)簽和項目的所有標(biāo)簽學(xué)習(xí)得到用戶和項目的隱表示,通過計算用戶隱表示和項目隱表示的相似度來產(chǎn)生推薦。對于微博文本推薦,文獻[10]提出了一種基于注意力的卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)模型,將標(biāo)簽推薦看作一個多分類問題,其模型包括一個全局通道和一個局部注意力通道,用CNN作為特征提取的方法來獲取微博的特征。文獻[11]研究如何利用評論信息來進行文本推薦的問題,提出一個基于注意力的CNN模型,該模型由一個用戶網(wǎng)絡(luò)和一個項目網(wǎng)絡(luò)組成,各網(wǎng)絡(luò)分別采用CNN從用戶的評論信息和項目的評論信息中學(xué)習(xí)用戶和項目的特征表示。目前由于循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,RNN)在處理序列問題的優(yōu)勢,被廣泛地應(yīng)用到文本推薦任務(wù)中。文獻[12]提出一種基于注意力的長短時記憶(Long-Short Term Memory,LSTM)模型進行微博標(biāo)簽推薦,該模型將注意力機制與RNN結(jié)合,其優(yōu)勢是既能抓住文本的序列特征,同時又能從微博中識別出最具有信息量的詞。文獻[13]提出基于注意力的記憶網(wǎng)絡(luò)來進行微博的提示推薦,考慮到微博文本長度通常較短,且存在詞稀疏和詞同義等問題,僅僅使用語言模型(如詞嵌入模型)獲得的推薦效果通常非常有限,因此,利用學(xué)習(xí)用戶的歷史微博記錄得出的特征來建模用戶的興趣,提升了推薦的準(zhǔn)確性。這些推薦方法研究的重點從單一因素轉(zhuǎn)向充分利用大量異質(zhì)數(shù)據(jù)和關(guān)系網(wǎng)絡(luò),主要對用戶的長期興趣作出建議,而一些關(guān)于文本的心理學(xué)和社會學(xué)表明,用戶在特定時期的需求往往受到其當(dāng)時所處狀態(tài)的影響。例如,當(dāng)用戶在現(xiàn)實生活中遇到不同的問題時,他們在知識問答系統(tǒng)中關(guān)注的話題也會發(fā)生變化。

        為滿足用戶的這種需求,文獻[14]提出了短期推薦的重要性。在歌曲推薦領(lǐng)域,文獻[15]從移動設(shè)備上收集用戶的短期信息,構(gòu)建一個將用戶短期信息和歌曲內(nèi)容相結(jié)合的概率模型,用于滿足用戶的短期需求。文獻[16-17]使用類似word2vec[18-19]的方法嵌入歌曲,進行短期文本推薦。文獻[20]考慮了用戶在臨時會話中花費在項目上的總時間。用戶與項目交互的時間越長,用戶的偏好就越強。他們使用2個帶注意機制的門控循環(huán)單元(Gated Recurrent Unit,GRU),從用戶行為數(shù)據(jù)模擬用戶總體偏好和主要目的,然后整合2個向量的結(jié)果,計算其與候選向量的相似性,得出推薦結(jié)果。文獻[21]提出一種分層RNN模型,該模型利用用戶的歷史信息來建模用戶的個人偏好變化,為用戶提供個性化的短期推薦。這些研究在短期推薦方面取得了一定的進展,但大部分模型使用同質(zhì)數(shù)據(jù)得到用戶的特征表示,且使用詞袋模型作為推薦模型的輸入,這種方法丟失了句子的序列信息,對用戶特征提取并不完整,在訓(xùn)練過程中維數(shù)災(zāi)難和訓(xùn)練復(fù)雜度過高的缺點仍然明顯。

        本文通過融合文本數(shù)據(jù)(知乎話題文本、答案文本和用戶信息文本)和關(guān)系網(wǎng)絡(luò)這2種異質(zhì)數(shù)據(jù),提出基于異質(zhì)注意力的循環(huán)神經(jīng)網(wǎng)絡(luò)模型。使用句子級的分布記憶模型(PV-DM)[22]和TransR[23]將文本和關(guān)系嵌入到維度相同的高維向量作為模型的輸入,以降低訓(xùn)練的復(fù)雜度。受機器翻譯[24]的啟發(fā),將編碼器-解碼器框架引入模型中,在編碼階段,將用戶在短期內(nèi)的興趣引入推薦模型中,經(jīng)注意力層與解碼器相連接,使解碼器能動態(tài)地選擇并線性組合編碼器輸入序列的不同部分,以建模用戶在短期內(nèi)的偏好。

        1 循環(huán)神經(jīng)網(wǎng)絡(luò)

        1.1 RNN介紹

        RNN[25]的網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示。

        圖1 RNN結(jié)構(gòu)Fig.1 RNN structure

        給定一個輸入序列x=(x1,x2,…,xT),RNN通過迭代公式:

        ht=σ(Uxt+Wht-1+bh)

        (1)

        yt=Vht+bo

        (2)

        計算t時刻隱層向量序列h=(h1,h2,…,hT)和輸出向量序列y=(y1,y2,…,yT)。其中,U為輸入層到隱層的權(quán)重矩陣,W為隱層之間的權(quán)重矩陣,bh為隱層偏置向量,σ為隱層激活函數(shù),常用的為Sigmoid函數(shù),V為隱層到輸出層的權(quán)重矩陣,bo為輸出層偏置向量。

        1.2 雙向GRU

        RNN在模型化序列問題時具有優(yōu)勢,然而隨著隱藏層的增加,普通循環(huán)神經(jīng)網(wǎng)絡(luò)模型也會帶來梯度消散的問題。因此,文獻[26]提出了一種循環(huán)神經(jīng)網(wǎng)絡(luò)的變體,即長短時記憶模型(LSTM)。LSTM單元會以不受控制的方式在每個單位步長內(nèi)重寫自己的記憶,而且 LSTM 有專門的學(xué)習(xí)機制能夠在保持先前狀態(tài)的同時,記憶當(dāng)前輸入數(shù)據(jù)的特征。LSTM 神經(jīng)網(wǎng)絡(luò)模型包含輸入門、遺忘門和輸出門3個門。GRU神經(jīng)網(wǎng)絡(luò)是LSTM的變體,相比于 LSTM,GRU只有重置門和更新門。LSTM單元和GRU單元對比如圖2所示。

        圖2 LSTM 單元與 GRU 單元對比Fig.2 Comparison of LSTM unit and GRU unit

        與LSTM相比,GRU神經(jīng)網(wǎng)絡(luò)的參數(shù)更少,不容易產(chǎn)生過擬合,且在訓(xùn)練過程中需要的迭代次數(shù)更少,收斂時間更短。GRU的計算步驟如下:

        1)計算重置門rt與更新門zt,計算公式如下:

        rt=σ(Wxrxt+Whrht-1)

        (3)

        zt=σ(Wxzxt+Whzht-1)

        (4)

        其中,xt為t時刻輸入層的輸入,ht-1為t-1時刻GRU單元的輸出,W是連接權(quán)重矩陣,σ為Sigmoid激活函數(shù)。

        (5)

        3)計算GRU單元狀態(tài)及輸出ht,計算公式如下:

        (6)

        傳統(tǒng)RNN存在的不足是它僅能夠利用正向序列中當(dāng)前時刻之前的內(nèi)容。而在文本情感分析中,從反向序列而來的當(dāng)前時刻之后的內(nèi)容對人物情感的判斷也具有十分重要的作用。因此,如果同時訓(xùn)練2個GRU神經(jīng)網(wǎng)絡(luò),一個采用正向序列學(xué)習(xí),另一個采用反向序列學(xué)習(xí),將正向和反向的最后一個狀態(tài)對應(yīng)的向量連接后得到的向量作為最后的結(jié)果,這樣來自于序列過去和未來的互補信息就可以整合到一起用于推理人物情感。雙向RNN[27]用2個獨立的隱層分別從正向和反向2個方向來處理數(shù)據(jù),以達到上述目的。本文使用的雙向GRU神經(jīng)網(wǎng)絡(luò)模型結(jié)構(gòu)如圖3所示,可以從正向和反向2個方向來處理文本信息。

        圖3 雙向GRU神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)Fig.3 Structure of bidirectional GRU neural network

        2 數(shù)據(jù)嵌入

        2.1 關(guān)系嵌入

        在線問答平臺包含大量的實體,這些實體相互連接形成一個巨大的關(guān)系網(wǎng)絡(luò),如作者和文本、文本和讀者用戶以及作者和讀者用戶之間的關(guān)系。另外,在閱讀的過程中,用戶會通過關(guān)注作者、評論文本或者標(biāo)記他們喜歡的文本來生成大量的交互式數(shù)據(jù)。傳統(tǒng)的嵌入方法很難從關(guān)系數(shù)據(jù)中提取到較多的有用信息。受知識圖譜的啟發(fā),本文使用TransR方法對關(guān)系網(wǎng)絡(luò)中的實體和關(guān)系進行向量化。對于關(guān)系嵌入,一般方法是通過將關(guān)系視為從頭實體到尾實體的轉(zhuǎn)換來構(gòu)建實體和關(guān)系嵌入,即這些模型簡單地將實體和關(guān)系放在同一語義空間中,然而在現(xiàn)實生活中,由于各個實體所處關(guān)系的不同,這種方法顯然并不合理。TransR將實體和關(guān)系映射到多個不同實體空間和關(guān)系空間,并在相應(yīng)的關(guān)系空間中進行轉(zhuǎn)換,如圖4所示。

        圖4 TransR方法示意圖Fig.4 Schematic diagram of TransR method

        實體的投影向量為:

        hr=hMr,tr=tMr

        (7)

        得分函數(shù)為:

        (8)

        通過最小化上面的得分函數(shù),可以得到網(wǎng)絡(luò)中實體和關(guān)系的向量表示,為提高嵌入的泛化能力,需要對嵌入實體、嵌入關(guān)系和映射矩陣大小進行限制,其中,‖h‖2≤1,‖r‖2≤1,‖t‖2≤1,‖hMr‖2≤1,‖tMr‖2≤1。

        2.2 文本嵌入

        在知識問答系統(tǒng)中,有許多文本描述數(shù)據(jù),如問題描述文本、答案內(nèi)容文本和用戶信息文本等,這些數(shù)據(jù)對實體建模有著重要的影響。類似于word2vec,PV-DM通過對句向量和詞向量的平均或連接來預(yù)測上下文中下一個單詞的概率,在本文實驗中,使用串聯(lián)的方法來組合這兩個向量。如圖5所示,每個段落都映射到一個唯一的向量,由矩陣D中的一列表示,每個單詞也映射到一個唯一的向量,由矩陣W中的一列表示。具體來說,假設(shè)語料庫中共有N個句子和M個詞,每一段映射到p維度,每個單詞映射到q維度,那么模型總共有M×p+N×q個參數(shù)(不含Softmax參數(shù))。用數(shù)學(xué)語言描述,即給出了一系列訓(xùn)練單詞w1,w2,…,wt和一個段落di,詞向量模型的目標(biāo)是使平均對數(shù)概率最大化:

        圖5 句向量模型示意圖Fig.5 Schematic diagram of sentence vector model

        (9)

        預(yù)測任務(wù)通常由一個多分類器執(zhí)行,如Softmax,因此,有:

        (10)

        每一個yi是每個輸出詞i的非標(biāo)準(zhǔn)化對數(shù)概率,計算公式為:

        y=b+Uh(wt-k,…,wt+k,di;W,D)

        (11)

        其中,U和b是Softmax參數(shù),h由W中提取的詞向量與D中提取的段落向量串聯(lián)或平均構(gòu)成。與詞向量模型相比,PV-DM通過將段落信息映射到附加的矩陣D中作為段落信息的標(biāo)記,來表示當(dāng)前段落在上下文中的主要信息。

        3 短期文本推薦

        在短期文本推薦任務(wù)中,使用雙向GRU作為RNN的基本單元來獲取序列中的信息,并引入編碼器-解碼器框架。如圖6所示,在編碼階段,將用戶在短期內(nèi)的行為引入推薦模型中。使用上一節(jié)提到的方法分別將用戶在短期內(nèi)查看的話題信息、答案文本信息、文本的作者信息和關(guān)系網(wǎng)絡(luò)嵌入到高維向量中,然后通過首尾相連的方法拼接成同一個向量,作為編碼器的輸入(input1)。在編碼器和解碼器之間引入注意力機制,使解碼器能動態(tài)地選擇并線性組合編碼器輸入序列的不同部分,來建模用戶在短期內(nèi)的偏好。注意力計算公式如下:

        圖6 短期文本推薦模型架構(gòu)Fig.6 Architecture of short-term text recommendation model

        αtj=s(ht,hj)=vTσ(Aht+Bhj)

        (12)

        (13)

        其中,ht表示最終時刻的隱藏層狀態(tài),hj表示ht前一項隱藏層狀態(tài),A和B分別是ht和hj的傳遞矩陣,σ表示激活函數(shù),這里選擇Sigmoid函數(shù),用來計算最終隱藏層狀態(tài)ht和前一層hj之間的相似性,也即注意力權(quán)重αtj的值,表示任意時刻的輸入序列較當(dāng)前輸入序列的相對重要性,用來確定在提出建議時當(dāng)前輸入序列應(yīng)強調(diào)或忽略,ct表示短期序列的注意力得分。

        通過帶有注意力機制的編碼器為不同時刻的輸入分配自適應(yīng)權(quán)值,來表示用戶在當(dāng)前會話的主要目的。在解碼器階段,將編碼器的注意力輸出ct、候選項和當(dāng)前用戶的表示作為輸入(圖6中的input2表示候選項和當(dāng)前用戶的表示)。候選項是當(dāng)前用戶長期已讀文本、已讀文本的作者信息和關(guān)系數(shù)據(jù)的拼接向量。然后通過雙向GRU層和前饋網(wǎng)絡(luò)層,計算每個候選項的得分。最后通過Softmax層將得分標(biāo)準(zhǔn)化。模型損失函數(shù)采用交叉熵損失函數(shù),公式如下:

        (14)

        其中,q是預(yù)測候選項位置分布,p是實際分布。

        模型在雙向GRU層正向和反向各設(shè)置128個隱藏單元。在每個隱藏層后加入50%的dropout層,提高了模型的魯棒性和泛化能力。在解碼階段,將用戶短期內(nèi)閱讀的100個候選文本序列作為輸入,然后通過雙向GRU層和分別含有512個和256個隱藏單元的前饋層處理,模型使用Adam[29]進行優(yōu)化。

        4 實驗結(jié)果與分析

        4.1 數(shù)據(jù)集

        本文數(shù)據(jù)集來源于知乎,知乎是中國最大的知識問答系統(tǒng)之一,在這個平臺上可以獲得大量的完整數(shù)據(jù)。本文使用的數(shù)據(jù)來自于CCIR2018 競賽,數(shù)據(jù)包括部分用戶信息、用戶讀一個文本/答案之前的已讀序列、未讀序列以及所有的文本信息。在實驗中,使用100 000個記錄作為訓(xùn)練集,20 000個記錄作為測試集。在本文數(shù)據(jù)集中共使用5種實體和14種關(guān)系類型,如表1和圖7所示。

        表1 數(shù)據(jù)集中的實體和關(guān)系類型Table 1 Entities and relationships types in the dataset

        圖7 實體和關(guān)系類型示意圖Fig.7 Schematic diagram of entities and relationships types

        4.2 對比實驗

        將本文提出的模型分別與2種傳統(tǒng)的推薦方法和1種神經(jīng)網(wǎng)絡(luò)模型進行比較。

        TF-IDF:TF-IDF是一種統(tǒng)計方法,用來評估某個字詞對于一個語料庫或一個文件集中的其中一份文件的重要程度。詞的重要性隨著字詞在文件中出現(xiàn)的次數(shù)成正比。本文將每個文本表示成TF-IDF向量的形式,通過計算目標(biāo)向量與序列的得分進行推薦,計算方式如下:

        (15)

        ItemKNN:ItemKNN[29]是一種常用的協(xié)同過濾算法。文本間的相似性通過用戶查看文本序列的頻率來衡量。

        MEM:文獻[17]提出的模型。首先通過使用用戶查看文本記錄和相應(yīng)的元數(shù)據(jù)(包括用戶信息、答案信息等)來學(xué)習(xí)文本的嵌入,然后根據(jù)嵌入的結(jié)果推斷并模擬用戶對文本內(nèi)容的全局和上下文偏好;最后根據(jù)目標(biāo)用戶的偏好推薦合適的文本內(nèi)容,滿足用戶的短期要求。

        4.3 評價指標(biāo)

        在本文實驗中,為了評價模型的推薦效果,使用召回率(Recall)和均值平均精度 (mean Average Precision,mAP)作為推薦結(jié)果的評估指標(biāo)。

        Recall:在評價推薦算法時,召回率是常用的評價指標(biāo),其表示推薦列表中用戶喜歡的文本與用戶真正喜歡的文本之間的比率。

        mAP:召回率只是衡量用戶喜歡的項目有沒有被推薦,而與推薦的順序并無關(guān)系,在Top-N推薦中,推薦列表的順序也是極其重要的。在文本推薦任務(wù)中,使用mAP作為實驗的指標(biāo)之一,計算公式如下:

        (16)

        (17)

        其中,Ωu表示推薦列表中用戶喜歡的文本是否在用戶真正喜歡的文本中,若是,則取1,否則取0;再累計相加,pui表示i文本在推薦列表中的位置,puj

        4.4 參數(shù)設(shè)置

        本文提出的基于異質(zhì)注意力卷積神經(jīng)網(wǎng)絡(luò)模型分別將文本數(shù)據(jù)和關(guān)系網(wǎng)絡(luò)嵌入到100維的向量中,然后通過拼接的方法得到共200維的輸入向量。模型訓(xùn)練時初始學(xué)習(xí)速率設(shè)置為0.001,最小批處理大小為256。該模型是在Keras的GeForce GTX 1080Ti GPU上定義和訓(xùn)練的。

        4.5 實驗結(jié)果

        4.5.1 模型結(jié)果對比

        將本文所提模型與選擇的其他模型的結(jié)果進行比較,實驗結(jié)果如圖8所示。

        圖8 各模型在數(shù)據(jù)集上的結(jié)果Fig.8 Results of each model on the dataset

        無論從召回率或是MAP來排序,本文提出的基于異質(zhì)注意力的循環(huán)神經(jīng)網(wǎng)絡(luò)模型都優(yōu)于其他模型。如表2所示,在Top-15推薦中,與TF-IDF和ItemKNN相比,在召回率方面,本文模型比TF-IDF提高了30.03%,比ItemKNN提高了18.31%;在更加注重推薦排序的mAP方面,本文模型比TF-IDF提高了37.78%,比ItemKNN提高了27.66%。這表明僅僅計算文本的相似度對用戶長期偏好的建模是不足的,還應(yīng)考慮用戶的短期興趣。相比于傳統(tǒng)模型,神經(jīng)網(wǎng)絡(luò)模型MEM取得了一定的效果,而本文模型在召回率和mAP各方面都優(yōu)于MEM,尤其是在更加注重推薦排序的mAP方面,在Top-15推薦方面,本文模型比MEM提高了13.95%,說明了本文模型優(yōu)異的性能。由此證明,本文使用多源異質(zhì)數(shù)據(jù)作為推薦模型的輸入和通過注意力機制將用戶的短期興趣引入推薦模型來滿足用戶的短期需求,大幅提高了推薦的準(zhǔn)確性。

        表2 在Top-15中各模型的實驗結(jié)果Table 2 Experimental results of each model in Top-15

        4.5.2 模型設(shè)計分析

        為驗證本文模型推薦準(zhǔn)確性的提升,將模型輸入數(shù)據(jù)的多樣性和通過注意力機制把用戶的短期興趣引入推薦模型的設(shè)計,同時做了以下實驗:1)在模型的基礎(chǔ)上只使用文本信息作為模型的輸入;2)在模型的基礎(chǔ)上只使用關(guān)系網(wǎng)絡(luò)作為模型的輸入;3)在輸入數(shù)據(jù)不變的前提下,推薦模型只使用解碼器部分,即將用戶的短期興趣不單獨引入模型中。實驗結(jié)果如圖9所示。

        圖9 模型設(shè)計分析結(jié)果Fig.9 Results of model design analysis

        從圖 9可以得出,使用基于異質(zhì)注意力的循環(huán)神經(jīng)網(wǎng)絡(luò)的設(shè)計可以有效提升實驗效果,這也說明將文本信息和關(guān)系網(wǎng)絡(luò)嵌入到高維向量,并使用注意力機制將用戶的短期興趣引入到推薦模型,設(shè)計更有效的建模用戶的偏好,能夠得到更準(zhǔn)確的用戶個性化推薦效果。

        4.5.3 嵌入維數(shù)對推薦結(jié)果的影響

        本文研究特征嵌入維數(shù)對模型性能的影響。在本文模型中,使用文本數(shù)據(jù)和關(guān)系網(wǎng)絡(luò)這2種異質(zhì)數(shù)據(jù),本文實驗將一種數(shù)據(jù)嵌入0~300的維度,另一種數(shù)據(jù)保持100維不變,實驗結(jié)果如圖10所示。

        圖10 嵌入維數(shù)對推薦結(jié)果的影響Fig.10 Influence of embedding dimension numbers on recommendation results

        隨著特征嵌入維數(shù)增加,模型的性能慢慢提高并逐漸趨于穩(wěn)定,當(dāng)嵌入維數(shù)小于100時,嵌入維度對模型性能有較大影響;當(dāng)嵌入維度大于100時,模型性能趨于穩(wěn)定;當(dāng)設(shè)置嵌入維度為0時,也即刪除這種輸入數(shù)據(jù),模型性能大幅降低,表明這2種數(shù)據(jù)對模型性能都是極其重要的。

        5 結(jié)束語

        本文提出基于異質(zhì)注意力循環(huán)神經(jīng)網(wǎng)絡(luò)的短期文本推薦模型,將融合多源異質(zhì)數(shù)據(jù)作為模型的輸入,增強模型對用戶興趣的理解能力,運用編碼器-解碼器框架,在編碼器階段,將用戶的短期興趣引入到推薦模型中,并使用注意力機制與解碼器相連接,通過雙向GRU神經(jīng)網(wǎng)絡(luò)對用戶的短期興趣進行建模。實驗結(jié)果表明,與通用模型和神經(jīng)網(wǎng)絡(luò)模型相比,本文模型性能取得了較大的提升,證明了模型的有效性。下一步考慮將深度學(xué)習(xí)與文本推薦相結(jié)合,以取得更好的推薦效果。

        猜你喜歡
        文本用戶信息
        在808DA上文本顯示的改善
        基于doc2vec和TF-IDF的相似文本識別
        電子制作(2018年18期)2018-11-14 01:48:06
        訂閱信息
        中華手工(2017年2期)2017-06-06 23:00:31
        關(guān)注用戶
        商用汽車(2016年11期)2016-12-19 01:20:16
        關(guān)注用戶
        商用汽車(2016年6期)2016-06-29 09:18:54
        關(guān)注用戶
        商用汽車(2016年4期)2016-05-09 01:23:12
        文本之中·文本之外·文本之上——童話故事《坐井觀天》的教學(xué)隱喻
        如何獲取一億海外用戶
        展會信息
        中外會展(2014年4期)2014-11-27 07:46:46
        如何快速走進文本
        語文知識(2014年1期)2014-02-28 21:59:13
        东北老熟女被弄的嗷嗷叫高潮| 亚洲色大成网站www在线观看| 高潮迭起av乳颜射后入| 无码毛片视频一区二区本码| 欧美国产亚洲日韩在线二区| 久久视频在线视频精品| 亚洲av人片在线观看| 久久久久99精品成人片直播| 久久亚洲国产精品成人av秋霞| 一级呦女专区毛片| 国产成年无码aⅴ片在线观看| 国产精品无套粉嫩白浆在线| 日韩精品久久午夜夜伦鲁鲁| 亚洲视频网站大全免费看| 午夜精品久久久久久久无码| 2021国产精品国产精华| 波多野吉衣av无码| 国内精品伊人久久久久av| 亚洲AV日韩AV高潮喷潮无码| 成人激情视频一区二区三区| 精品精品国产三级av在线| 三年片免费观看影视大全视频| 熟女精品视频一区二区三区| 日韩成人无码一区二区三区| 亚洲VA中文字幕无码毛片春药| 少妇又紧又色又爽又刺| 中国少妇久久一区二区三区| 无码va在线观看| 中国猛少妇色xxxxx| 91热爆在线精品| 加勒比婷婷色综合久久| 亚洲a∨无码精品色午夜| 亚洲一本大道无码av天堂| 中文一区二区三区无码视频| 亚洲中文字幕精品视频| 久久精品无码一区二区三区免费| 亚洲精品无码久久久久sm| 麻豆国产VA免费精品高清在线| 亚洲一区二区三区在线激情| 色婷婷一区二区三区四区成人网| av午夜久久蜜桃传媒软件|