亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于注意力機制的深度學(xué)習(xí)推薦研究進展*

        2021-03-01 03:33:44陳海涵吳國棟李景霞王靜雅
        計算機工程與科學(xué) 2021年2期
        關(guān)鍵詞:注意力向量神經(jīng)網(wǎng)絡(luò)

        陳海涵,吳國棟,李景霞,王靜雅,陶 鴻

        (安徽農(nóng)業(yè)大學(xué)信息與計算機學(xué)院,安徽 合肥 230036)

        1 引言

        當(dāng)前,深度學(xué)習(xí)在計算機視覺、自然語言處理和語音識別等領(lǐng)域得到了廣泛的應(yīng)用,許多學(xué)者也將其用于推薦系統(tǒng)研究。針對傳統(tǒng)協(xié)同過濾算法中存在的數(shù)據(jù)稀疏性和冷啟動問題,深度學(xué)習(xí)具有良好的對數(shù)據(jù)集本質(zhì)特征進行學(xué)習(xí)的能力,一定程度上克服了推薦過程中的數(shù)據(jù)稀疏問題。但是,深度學(xué)習(xí)具有黑盒特性,很難對推薦系統(tǒng)的最終決策做出解釋,而沒有解釋性的推薦是缺乏說服力的,會對提升用戶的信任度帶來負面影響。因此,如何在提高推薦性能的前提下,提升深度學(xué)習(xí)推薦系統(tǒng)的可解釋性和透明度受到了工業(yè)界與學(xué)術(shù)界的廣泛關(guān)注。

        注意力機制通過對關(guān)注事物的不同部分賦予不同的權(quán)重,從而降低其它無關(guān)部分的作用。從注意力機制可解釋性的角度看,它允許直接檢查深度學(xué)習(xí)體系的內(nèi)部工作,通過可視化輸入與對應(yīng)輸出的注意權(quán)重,達到增強深度模型可解釋性的效果[1]。在推薦算法中融入注意力機制,對每個潛在因素或特征的重要性進行區(qū)分,在提升推薦性能的同時,也提高了推薦系統(tǒng)內(nèi)部的可解釋性。本文主要分析了基于注意力機制的深度神經(jīng)網(wǎng)絡(luò)DNN(Deep Neural Network)、卷積神經(jīng)網(wǎng)絡(luò)CNN(Convolutional Neural Network)、循環(huán)神經(jīng)網(wǎng)絡(luò)RNN(Recurrent Neural Network)和圖神經(jīng)網(wǎng)絡(luò)GNN(Graph Neural Network)等幾種深度學(xué)習(xí)推薦的研究進展,指出了各自的優(yōu)點與不足,并指出了相關(guān)研究難點與未來主要研究方向。

        2 注意力機制及其分類

        注意力機制是一種模擬人腦注意力的模型,最初由Treisman等人[2]提出,其本質(zhì)是利用注意力的概率分布,捕捉某個關(guān)鍵輸入對輸出的影響[3]。以Bahdanau等人[4]提出的注意力機制模型為例,求解注意力的計算過程可以抽象為3個階段,如圖1所示。

        Figure 1 Structure and classification of attention mechanisms

        圖1中,注意力機制的3個階段包括:計算打分函數(shù)階段,主要根據(jù)解碼器(Decoder)端和編碼器(Encoder)端隱狀態(tài)進行相似度計算;計算對齊函數(shù)階段,主要通過歸一化處理,將輸出的相關(guān)性值進行數(shù)值轉(zhuǎn)換;計算生成上下文向量函數(shù)階段,主要對輸入序列進行加權(quán)求和。

        按照注意力機制在圖1中3個階段的不同變換,得到注意力機制的不同類型。根據(jù)不同的打分函數(shù),將注意力機制分為加法注意力、乘法注意力、自注意力[5]、多頭注意力[6]和分層注意力[7];根據(jù)不同的對齊函數(shù),注意力機制可分為全局注意力和局部注意力[8];根據(jù)不同的生成上下文向量函數(shù),得到硬注意力與軟注意力[9]。

        其中,圖1的核心步驟是注意力分數(shù)a′t,j的計算,XT是輸入序列,hj是Encoder端第j個詞的隱向量,st-1是Decoder端在t-1時刻的隱狀態(tài),yt-1表示t-1時刻的目標詞,Ct表示上下文向量。

        3 基于注意力機制的深度學(xué)習(xí)推薦相關(guān)研究

        將注意力機制融入深度學(xué)習(xí)推薦過程中,主要思路是先利用各類深度學(xué)習(xí)模型學(xué)習(xí)用戶或項目的隱特征,結(jié)合注意力機制學(xué)習(xí)隱特征的權(quán)重;其次構(gòu)建優(yōu)化函數(shù)對參數(shù)進行訓(xùn)練,得到用戶和項目隱向量;最后利用隱向量信息得到項目排序結(jié)果,對用戶進行推薦。對于不同的深度學(xué)習(xí)模型,本文將基于注意力機制的深度學(xué)習(xí)推薦研究主要分為4類,如表1所示。

        3.1 基于注意力機制的DNN推薦方法

        DNN即深度神經(jīng)網(wǎng)絡(luò),由多層感知機MLP(Multi-Layer Perceptron)發(fā)展而來,但DNN比MLP的激活函數(shù)種類更多,層數(shù)更深,其網(wǎng)絡(luò)層數(shù)可以達到一百多層乃至更高,一定程度上改善了MLP優(yōu)化函數(shù)的梯度消失和局部最優(yōu)解問題。

        針對當(dāng)前的音樂推薦系統(tǒng)只能從不同歌曲中學(xué)習(xí)到相同的上下文權(quán)重問題,張全貴等人[10]利用注意力機制給每個用戶的歷史交互歌曲動態(tài)分配不同的注意力權(quán)重,得到更符合用戶偏好的推薦結(jié)果,增加了對用戶偏好分析的可解釋性。沈冬東等人[11]加入平滑系數(shù)減輕對長歷史活動用戶的懲罰,并通過多層感知機參數(shù)化注意力函數(shù)改進注意力網(wǎng)絡(luò),解決了傳統(tǒng)ItemCF(Item Collaboration Filter)算法難以充分挖掘數(shù)據(jù)間隱含信息的問題。針對傳統(tǒng)推薦算法未充分提取用戶行為中的隱式反饋特征問題,郭旭等人[12]利用自注意力機制生成用戶短期動態(tài)項目的向量化表示,提高了推薦質(zhì)量,但該方法對用戶的向量化表示比較粗糙,未考慮融入用戶的畫像屬性。

        Table 1 Research on deep learning recommendation based on attention mechanism

        文獻[13]為了解決基于矩陣分解的協(xié)同過濾算法不能獲取用戶歷史交互中復(fù)雜的非線性特征問題,構(gòu)建了DeepCF-A(Deep Collaborative Filtering model based on Attention)模型,提取線性與非線性特征。DeepCF-A模型如圖2所示。具體步驟主要有:

        (1)

        (2)非線性特征提取。在MLP中融入注意力機制得到用戶和項目間歷史交互數(shù)據(jù)的非線性特征φMLP-A,如式(2)所示:

        (2)

        Figure 2 DeepCF-A recommendation model

        (3)注意力機制層。在非線性特征提取部分,將嵌入層的m維特征向量Xm送入Softmax函數(shù),得到每個維度特征的關(guān)注度Am,如式(3)所示;再將Am與相應(yīng)維度的特征向量對應(yīng)相乘,得到更新權(quán)重的特征向量Aout,如式(4)所示:

        Am=Softmax(Xm)

        (3)

        Aout=Am⊙Xm

        (4)

        (5)

        該模型提升了協(xié)同過濾方法處理隱式反饋數(shù)據(jù)的效果,適用于解決推薦系統(tǒng)中數(shù)據(jù)量龐大、難以捕捉深層非線性關(guān)系的推薦問題。但是,在深度神經(jīng)網(wǎng)絡(luò)中,高效地捕捉用戶和項目隱向量間的交互信息,是以不斷提升網(wǎng)絡(luò)層數(shù)為代價的,深度神經(jīng)網(wǎng)絡(luò)層數(shù)的增加會導(dǎo)致新的參數(shù)數(shù)量膨脹問題[14]。此外,DNN無法對時間序列上的變化進行建模,不能反映用戶興趣的動態(tài)變化,而樣本出現(xiàn)的時間順序?qū)ν扑]任務(wù)又有著非常重要的意義。

        3.2 基于注意力機制的CNN推薦方法

        CNN即卷積神經(jīng)網(wǎng)絡(luò),具有限制參數(shù)個數(shù)和挖掘模型局部結(jié)構(gòu)的特點。為了解決DNN訓(xùn)練數(shù)據(jù)時帶來的參數(shù)數(shù)量膨脹問題,有學(xué)者將注意力機制和CNN結(jié)合用在推薦系統(tǒng)研究中。

        Figure 3 ACoNN recommendation model

        針對微博的話題標簽推薦任務(wù),經(jīng)常需要大量人工進行分類這一問題,Gong等人[15]提出了一種基于注意力機制的CNN微博標簽推薦模型。該模型使用全局和局部注意力2個通道,有效提高了推薦性能;但推薦數(shù)據(jù)僅使用了微博文本標簽,未考慮使用圖像等其它形式數(shù)據(jù)提取微博特征。針對這一問題,Zhang等人[16]加入?yún)f(xié)同注意力機制對標簽與圖像、文本中的局部關(guān)聯(lián)性進行建模,相較于僅使用文本信息的模型,推薦效果更好。不足之處是作者僅驗證了1層和2層的協(xié)同注意力機制對推薦結(jié)果的影響,沒有在層數(shù)上做更多的嘗試。針對在線新聞網(wǎng)站中,平臺編輯手動挑選推薦候選文章的耗時問題,Wang等人[17]構(gòu)建了一種動態(tài)注意力深度模型DADM(Dynamic Attention Deep Model),DADM將專業(yè)與時間2個潛在因素加入注意力機制,自適應(yīng)地為編輯分配偏好權(quán)重,使模型在處理動態(tài)數(shù)據(jù)和編輯行為方面擁有很小的方差。但是,文章中的文字和圖像對編輯選擇行為的影響應(yīng)該是不同的,此模型未加以區(qū)分。

        針對傳統(tǒng)推薦算法對評論文本信息提取能力有限的問題,文獻[18]提出了一種融合注意力機制對評論文本深度建模的推薦模型ACoNN(deep Cooperative Neural Networks based on Attention),通過注意力機制設(shè)計一層權(quán)值更新層對文本矩陣進行重新賦權(quán),再使用一組并行的CNN,充分挖掘用戶和項目的隱含特征。推薦流程如圖3所示。

        ACoNN推薦模型的主要實現(xiàn)步驟:

        (1)輸入層:利用詞嵌入模型,將用戶與項目的評論文本表示成詞嵌入矩陣Mu和Mi。

        (6)

        (7)

        最后對目標用戶詞向量矩陣進行加權(quán),得到更新權(quán)值后的矩陣Su,如式(8)所示:

        Su=A(u)×Mu

        (8)

        (3)CNN層:利用CNN對詞向量矩陣Su進行卷積、池化和全連接操作得到用戶向量outputu,同理可得項目向量outputi。

        (4)推薦:連接outputu、outputi,構(gòu)建用戶-項目特征向量z;向向量z加入因子分解機,根據(jù)最小化損失函數(shù)進行訓(xùn)練,完成參數(shù)更新,如式(9)所示:

        (9)

        其中,yreal為用戶對項目的真實評分值,w0為全局偏置量,wi表示向量z中第i個分量的權(quán)重值,zi和zj分別表示向量z的第i和第j個分量,wij表示z中第i個與第j個特征向量的交互值。

        相比深度神經(jīng)網(wǎng)絡(luò),該模型訓(xùn)練階段參數(shù)較少、復(fù)雜度較低。此外,注意力權(quán)值更新層的設(shè)計有助于捕捉文本中的重點信息,結(jié)合CNN具有共享權(quán)值和局部連接的特性,更加易于模型的優(yōu)化[19]。此方法適用于解決圖像視覺領(lǐng)域的圖像分類和文本處理等問題,運用注意力機制能使CNN在每一步關(guān)注圖像或者文本上的不同位置,提高對重點特征的提取效率。雖然基于注意力機制的CNN推薦方法能從輸入中獲取最有效的信息[20],但是這種方法也不能表示動態(tài)變化的用戶興趣。

        3.3 基于注意力機制的RNN推薦方法

        RNN即循環(huán)神經(jīng)網(wǎng)絡(luò),是一類用以處理序列數(shù)據(jù)的神經(jīng)網(wǎng)絡(luò)。針對DNN和CNN不能解決時序數(shù)據(jù)的問題,一些研究者將注意力機制和RNN結(jié)合應(yīng)用于推薦任務(wù)中,刻畫用戶興趣的動態(tài)變化。LSTM(Long Short-Term Memory)和GRU(Gated Recurrent Unit)是RNN的2種改進版本,它們在簡化RNN內(nèi)部循環(huán)結(jié)構(gòu)的同時,緩解了RNN無法檢測長序列的問題[21]。

        針對微博的話題標簽推薦沒有考慮文本的時序特征問題,Li等人[22]構(gòu)建了一種基于主題注意力機制的LSTM模型,該模型與文獻[15]中的CNN推薦模型相比,加入了時序特征的影響,有效提升了推薦性能。不足之處是忽略了用戶信息、時間信息等數(shù)據(jù)對標簽推薦的影響。Xing等人[23]提出了基于詞級與語句級注意力機制的用戶-項目推薦模型,在Yelp和Amazon數(shù)據(jù)集上的實驗中,推薦性能皆提升了近2%,驗證了考慮語義層面的推薦是有效的。但是,這種方法只有當(dāng)目標用戶為目標項目編寫的評論可用時,才表現(xiàn)出最佳性能,數(shù)據(jù)量較少時會降低推薦效果。馮興杰等人[24]提出了深度協(xié)同模型DeepCLFM(Deep Collaborative Latent Factor Model),解決了用戶與項目的深層抽象特征挖掘不充分問題,通過對評論文本信息作全局偏倚項的補充,有效緩解了冷啟動問題。但是,DeepCLFM學(xué)習(xí)到的用戶偏好向量是靜態(tài)的,而同一用戶對不同項目的偏好向量是不同的,此模型未加以區(qū)分。

        為了解決標簽推薦中存在的微博噪聲問題,文獻[25]提出了基于LSTM的時態(tài)增強語句級注意力模型。通過在語句級注意力層引入時間信息,減少了噪聲數(shù)據(jù)對分類器的影響。其推薦模型如圖4所示。其中,Mi(i=1,2,…,N)表示第i條微博的詞向量矩陣。

        Figure 4 Temporal enhanced sentence-level attention model based on LSTM

        基于LSTM的時態(tài)增強語句級注意力模型的主要實現(xiàn)步驟如下所示:

        (1)Lookup層:將微博中的單詞wi映射到一個低維向量中,得到嵌入向量ei。

        (2)LSTM層:將實值嵌入向量序列bN={e1,ei,…,eN}輸入LSTM,獲得微博的高級語義表示H,且H={h1,h2,…,hM}。其中,N和M分別表示微博條數(shù)和最大長度。

        (3)詞匯級注意力層:通過更新每個隱狀態(tài)hj的注意力分數(shù),得到詞匯級注意力矩陣αW,然后求解隱狀態(tài)的加權(quán)和,得到語句向量r,如式(10)~式(11)所示:

        αW=Softmax(ωTtanh(H))

        (10)

        (11)

        其中,ω是一個訓(xùn)練好的參數(shù)向量,ωT是它的轉(zhuǎn)置,通過預(yù)訓(xùn)練得到。

        (4)語句級注意力層:將詞匯級注意力層輸出的句子向量集合S={r1,r2,…,rN}輸入語句級注意力層,先計算語句向量ri與標簽查詢向量t的匹配分數(shù)mi;然后加入時間信息di,得到每個語句向量ri的注意力權(quán)重αMi;最后求解集合S中語句向量的加權(quán)和,記為R,如式(12)~式(14)所示:

        mi=riAt

        (12)

        (13)

        (14)

        其中,di表示時間元素,當(dāng)給定一個〈microblogMi,hashtagh〉的元組時,根據(jù)微博詞向量矩陣Mi和標簽,可以從一個需要訓(xùn)練的二維矩陣B∈R|time|×|hashtag|中查找對應(yīng)的di。|time|是時間節(jié)點的個數(shù),|hashtag|是標簽的個數(shù),A是一個加權(quán)對角矩陣。

        Figure 5 Dynamic graph attention network social recommendation model

        (15)

        其中,θ是模型的所有參數(shù),Mi和ti分別表示第i個微博向量和標簽向量。

        該模型不僅從詞匯和語句2個級別對微博特征進行分層刻畫和關(guān)聯(lián),還將時間信息引入注意力機制模型,彌補了文獻[22]未考慮時間信息的不足,更形象地刻畫了微博數(shù)據(jù)的動態(tài)性。因此,適用于解決文本翻譯、語言識別和推薦中的序列預(yù)測問題,應(yīng)用注意力機制使RNN能夠?qū)⑤敵鲂蛄兄械拿恳豁椗c輸入序列相關(guān)項對應(yīng),克服傳統(tǒng)循環(huán)神經(jīng)網(wǎng)絡(luò)在學(xué)習(xí)超長序列上的限制問題[26]。但是,LSTM和GRU等作為RNN的衍生,只可以處理歐幾里得空間數(shù)據(jù),對非歐空間數(shù)據(jù)的處理存在一定局限性,也無法解決非歐空間的推薦問題。

        3.4 基于注意力機制的GNN推薦方法

        GNN即圖神經(jīng)網(wǎng)絡(luò),不僅對數(shù)據(jù)具有強大的特征提取和表示能力,還可以表示非歐幾里得結(jié)構(gòu)數(shù)據(jù),可用于解決非歐空間的推薦問題[27]。針對傳統(tǒng)協(xié)同過濾方法的稀疏性問題,Wu等人[28]提出了一種雙圖注意力網(wǎng)絡(luò)協(xié)作學(xué)習(xí)雙重社會效應(yīng)的推薦方法。該方法一方面由用戶特定的注意力權(quán)重建模,另一方面由動態(tài)的、上下文感知的注意力權(quán)重建模,通過將用戶領(lǐng)域的社會效應(yīng)擴展到項目領(lǐng)域,緩解了數(shù)據(jù)稀疏性問題。模型可學(xué)習(xí)多方面社會影響的有效表示,具有良好的表達性,但社會圖網(wǎng)絡(luò)的構(gòu)建相應(yīng)增加了模型的時間復(fù)雜度??紤]當(dāng)前網(wǎng)絡(luò)社區(qū)推薦未充分考慮用戶會受朋友偏好影響的問題,Song等人[29]提出了一種基于動態(tài)圖注意力神經(jīng)網(wǎng)絡(luò)的社區(qū)推薦模型,圖注意力網(wǎng)絡(luò)用來捕獲朋友的短期與長期偏好對用戶的影響。其模型圖如圖5所示。詳細步驟主要有:

        (1)用戶動態(tài)偏好建模:通過RNN對用戶近期的瀏覽內(nèi)容進行建模,得到用戶的偏好hn。

        (16)

        (17)

        (18)

        之后由Softmax函數(shù)得到項目y的概率,表示用戶對項目y可能感興趣的程度,如式(19)所示。最終根據(jù)這個概率的大小,向用戶進行推薦。

        (19)

        該模型能充分利用朋友的短期與長期偏好,獲取社會關(guān)系對用戶偏好的影響,但項目的特征提取過程過于粗糙,忽略了用戶和項目之間的互動關(guān)系。將注意力機制應(yīng)用到GNN鄰近節(jié)點上,能夠?qū)W習(xí)每個鄰近節(jié)點與該節(jié)點之間的影響[30]。此外,基于圖結(jié)構(gòu)的廣義神經(jīng)網(wǎng)絡(luò)能夠表示除語言、視頻和圖像之外的非歐幾里得結(jié)構(gòu)數(shù)據(jù),通過對圖數(shù)據(jù)進行處理,可深入挖掘其內(nèi)部的特征和規(guī)律,解決如社交網(wǎng)絡(luò)、信息網(wǎng)絡(luò)和基礎(chǔ)設(shè)施網(wǎng)絡(luò)等領(lǐng)域中的推薦問題。

        4 基于注意力機制的深度學(xué)習(xí)推薦的難點

        4.1 提取注意力方法的選擇問題

        在一些場景下,可選擇的注意力方法可能有多種。如文獻[6]中,引入多頭注意力與單層自注意力皆可提升分類任務(wù)的性能,但較使用自注意力而言,多頭注意力更能提升模型在語句層面的特征表達能力,在SemEval-2010數(shù)據(jù)集上的實驗中,多頭注意力模型的F1值相對自注意力模型的提高了2.0%左右,說明不同的注意力方法對提升模型性能的貢獻是不同的。近年來,許多研究者在不同任務(wù)場景下又提出了不同注意力機制的新變體,如雙注意力[31]、雙向分塊自注意力[32]等,如何結(jié)合這些新變體,選擇適合當(dāng)前推薦任務(wù)的注意力方法仍具有一定的復(fù)雜性。

        4.2 注意力融入時機的選擇問題

        在注意力機制與CNN相結(jié)合的工作中,Yin等人[33]和Santos等人[34]通過實驗證實了注意力機制用于池化層的效果比卷積層好。在此基礎(chǔ)上,文獻[35]將注意力與CNN池化層、項目潛在向量層及MLP輸入層相結(jié)合進行對比實驗,發(fā)現(xiàn)在稠密數(shù)據(jù)集上,注意力與池化層相結(jié)合的模型表現(xiàn)得更加穩(wěn)定;而在稀疏數(shù)據(jù)集上,注意力與隱藏層相結(jié)合模型預(yù)測效果更佳,說明注意力引入時機的差異、數(shù)據(jù)集稠密度差別,都會影響最終的推薦結(jié)果。CNN相對神經(jīng)網(wǎng)絡(luò),結(jié)構(gòu)較簡單,而在更加復(fù)雜的任務(wù)場景下,使用的神經(jīng)網(wǎng)絡(luò)也更加復(fù)雜,增加了注意力機制融入深度神經(jīng)網(wǎng)絡(luò)中的時機的難度。

        4.3 融入注意力機制引起推薦模型復(fù)雜度增加問題

        雖然注意力機制可以改善傳統(tǒng)編碼器-解碼器的部分問題,但引入注意力機制獲得注意力分配權(quán)重時,需要計算源語言句子中所有詞語的權(quán)重,該過程計算資源耗費大,增大了推薦模型復(fù)雜度,還會導(dǎo)致模型的訓(xùn)練速度和推斷速度下降。同時,引入注意力機制可能需要更多的存儲資源,例如對于自注意來說,需要很大的存儲空間來保存元素的對齊分數(shù),需要的存儲空間隨序列長度呈二次方增長,因此在保證效率的前提下降低推薦模型的復(fù)雜度存在一定的難度。

        4.4 融入注意力機制的推薦效果評價問題

        注意力機制應(yīng)用范圍廣,但并不是對所有模型引入注意力機制都可以提高性能。例如,因子分解機FM(Factorization Machine)利用同一特征向量表示某個特征和其它特征間的交互顯然是不合理的。于是Juan等人[36]和Xiao等人[37]分別提出了FFM(Field-aware Factorization Machine)和AFM(Attentional FM)2種新的方法。FFM通過引入“域”的概念,對不同域使用不同的向量來解決這一問題。而AFM通過引入注意力機制對不同的交互項計算注意力權(quán)重,區(qū)分特征的重要程度。比較來看,AFM雖然和FFM效果相當(dāng),但是AFM通過引入新參數(shù)來彌補某方面的擬合能力,可能會造成過擬合現(xiàn)象。所以,對模型引入注意力機制后的推薦效果進行多方面的評價,也是當(dāng)前基于注意力機制的深度學(xué)習(xí)推薦的一個難點。

        5 基于注意力機制的深度學(xué)習(xí)推薦未來研究方向

        5.1 多特征交互的注意力機制深度學(xué)習(xí)推薦

        當(dāng)涉及多特征交互時,通常采用矩陣分解模型來實現(xiàn),如文獻[37]利用一個神經(jīng)注意力網(wǎng)絡(luò)對不同交互特征的重要程度進行區(qū)分,改善了因子分解機的性能,并在真實數(shù)據(jù)集上將回歸任務(wù)的性能提高了8.6%。但是,基于矩陣分解的協(xié)同過濾方法僅使用評分信息,不能捕捉更深層的特征信息。而文獻[38]利用多層交互的非線性網(wǎng)絡(luò)結(jié)構(gòu)獲取不同層次的交互結(jié)果,將RMSE指標的值降低了2%左右。但是,這種基于深度學(xué)習(xí)的推薦模型在提升推薦效果的同時,難以對推薦效果做出合理的解釋。所以,考慮在多特征交互的推薦模型中加入注意力機制,以提高模型的可解釋性,是值得研究的重要課題之一。

        5.2 多模態(tài)注意力機制的深度學(xué)習(xí)推薦

        信息的媒介有音頻、文字、語音和圖像等多種模態(tài),目前對多模態(tài)信息的使用仍不夠廣泛,在多模態(tài)注意力機制中,主要使用語音和圖像信息。文獻[39]認為不同模態(tài)對于情感狀態(tài)的影響是不同的,作者通過多模態(tài)注意力機制,將視頻特征和音頻特征進行融合,相比一些采用主流深度學(xué)習(xí)方法進行情感分析的任務(wù),在性能上提高了2%左右。在深度學(xué)習(xí)的推薦研究中,除了利用文本、評分等信息外,還可以從視頻和它模態(tài)信息中提取用戶的偏好特征。所以,將多模態(tài)注意力機制結(jié)合深度學(xué)習(xí)技術(shù),用于推薦系統(tǒng)也是未來的一個研究方向。

        5.3 注意力機制的GNN推薦和其他推薦方法融合

        由于GNN可以用來表示其它神經(jīng)網(wǎng)絡(luò)無法表示的非歐幾里得結(jié)構(gòu)數(shù)據(jù),將其作為輔助工具應(yīng)用在推薦系統(tǒng)領(lǐng)域,可有效緩解數(shù)據(jù)稀疏性問題[40]。文獻[28]引入雙圖注意力網(wǎng)絡(luò)來協(xié)作學(xué)習(xí)用戶的靜態(tài)和動態(tài)雙重社會效應(yīng),同時考慮到用戶領(lǐng)域和項目領(lǐng)域中不同的社會效應(yīng)會相互作用,提出了基于多臂賭博機的一種新的融合策略來衡量這種交互作用,在真實數(shù)據(jù)集上的實驗表明,其推薦精度最高提高了9.33%。因此,將注意力機制的GNN推薦融合其它推薦算法或深度學(xué)習(xí)技術(shù),有利于提高推薦的效果。

        5.4 基于注意力機制的深度學(xué)習(xí)群組推薦

        大多數(shù)推薦技術(shù)應(yīng)用于個性化推薦,但在很多情況下,推薦的產(chǎn)品或服務(wù)被一群用戶所消費[41]。文獻[42]提出了一種AGR(Attention-based Group Recommendation)模型,利用注意力機制學(xué)習(xí)群體中每個用戶的影響權(quán)重,相較于基準模型其推薦性能提高了3%以上。但是,作者只在模型中使用了項目的ID信息,得到的信息非常有限,對模型性能的提升也有一定的限制。而李振新[43]提出的基于Phrase-LDA模型從評論中提取用戶主題,更細致地從語義層面描述了用戶的偏好,在群組推薦領(lǐng)域中具有一定的新穎性。考慮在AGR模型的基礎(chǔ)上,將諸如社交關(guān)系、文本信息(例如事件描述)或時間等上下文信息用來學(xué)習(xí)群組推薦中的注意力模型,也是未來的一個研究方向。

        5.5 基于注意力機制和深度學(xué)習(xí)的跨領(lǐng)域推薦

        單領(lǐng)域個性化推薦中容易出現(xiàn)數(shù)據(jù)稀疏性和冷啟動問題,使得推薦效果不夠理想。而在跨領(lǐng)域推薦中,其它輔助域信息可以為目標域推薦提供幫助,從而解決傳統(tǒng)單域推薦中數(shù)據(jù)稀疏和冷啟動問題,因此逐漸成為學(xué)術(shù)界的研究熱點。文獻[44]構(gòu)建了一個基于注意力機制和知識遷移方法的卷積-雙向長短期記憶AC-BiLSTM(Convolution-Bi-directional Long Short-Term Memory based on Attention mechanism)模型,向BiLSTM中引入注意力機制得到不同詞匯對文本的貢獻程度,并且在目標函數(shù)中加入了正則約束項,避免在遷移過程中出現(xiàn)負遷移現(xiàn)象,使跨領(lǐng)域情感分類的平均準確率在2個數(shù)據(jù)集上分別提高了6.5%和2.2%。結(jié)合相關(guān)情感分類模型,將注意力機制應(yīng)用到跨領(lǐng)域推薦研究中也是未來的一個研究方向。

        6 結(jié)束語

        注意力機制的特點是能主動從海量輸入信息中選擇對當(dāng)前目標任務(wù)更重要的信息,在提高推薦模型性能的同時,提升深度學(xué)習(xí)可解釋性。將注意力機制應(yīng)用到深度學(xué)習(xí)推薦研究中,擴展了推薦模型中神經(jīng)網(wǎng)絡(luò)的能力。本文圍繞注意力機制的結(jié)構(gòu)、分類以及注意力機制在深度學(xué)習(xí)推薦中的研究等角度展開,并針對深度學(xué)習(xí)推薦模型中存在的注意力機制的選擇、階段融入、評價和模型復(fù)雜度增加等難點與挑戰(zhàn)進行了分析,最后指出了基于注意力機制的深度學(xué)習(xí)推薦未來的研究方向。

        猜你喜歡
        注意力向量神經(jīng)網(wǎng)絡(luò)
        向量的分解
        讓注意力“飛”回來
        聚焦“向量與三角”創(chuàng)新題
        神經(jīng)網(wǎng)絡(luò)抑制無線通信干擾探究
        電子制作(2019年19期)2019-11-23 08:42:00
        “揚眼”APP:讓注意力“變現(xiàn)”
        傳媒評論(2017年3期)2017-06-13 09:18:10
        A Beautiful Way Of Looking At Things
        向量垂直在解析幾何中的應(yīng)用
        基于神經(jīng)網(wǎng)絡(luò)的拉矯機控制模型建立
        重型機械(2016年1期)2016-03-01 03:42:04
        向量五種“變身” 玩轉(zhuǎn)圓錐曲線
        復(fù)數(shù)神經(jīng)網(wǎng)絡(luò)在基于WiFi的室內(nèi)LBS應(yīng)用
        97人妻无码免费专区| 人妻无码αv中文字幕久久琪琪布 美女视频黄的全免费视频网站 | 中文字幕久久精品一二三区| 国产超碰人人做人人爱ⅴa | 九九日本黄色精品视频| 91亚洲精品久久久中文字幕| 国产精品伦理久久一区| 小说区激情另类春色| 我爱我色成人网| 亚洲va在线va天堂va手机| 精品日本一区二区视频| 日韩女同精品av在线观看| 久久99精品久久久久久秒播| 熟妇人妻中文av无码| 免费在线日韩| 国产在线精彩自拍视频| 极品尤物人妻堕落沉沦| 五十路丰满中年熟女中出| 东京热久久综合久久88| 久久精品免视看国产盗摄 | 人妻少妇艳情视频中文字幕| 亚洲人成无码区在线观看| 日韩精品无码区免费专区| 亚洲VA欧美VA国产VA综合| 视频一区精品中文字幕| 国产无遮挡又黄又爽高潮| 俄罗斯老熟妇色xxxx| 亚洲专区路线一路线二天美| 国产精品视频免费一区二区三区| 精品少妇一区二区三区免费| 人妻少妇精品无码专区| 又黄又爽的成人免费视频| 伊人色综合九久久天天蜜桃| 中文字幕人妻一区二区二区| 日本一区二区三区高清在线视频| 免费观看又色又爽又黄的| 久久精品免视看国产盗摄| 99久久婷婷亚洲综合国产| 免费网站看av片| 日韩成人精品在线| 色综合久久五月天久久久|