亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于注意力機制的深度協(xié)同推薦模型

        2022-09-22 05:59:36袁雪梅浦藝鐘徐子凡
        軟件導刊 2022年9期
        關鍵詞:注意力向量矩陣

        袁雪梅,程 科,2,浦藝鐘,2,徐子凡

        (1.江蘇科技大學計算機學院;2.鎮(zhèn)江明知科技有限公司,江蘇鎮(zhèn)江 212100)

        0 引言

        隨著互聯(lián)網(wǎng)的迅速發(fā)展,數(shù)據(jù)量呈現(xiàn)出爆炸式增長[1]。推薦系統(tǒng)作為一種可以從海量數(shù)據(jù)中有效挖掘有價值信息的技術,受到了廣泛關注[2]。推薦系統(tǒng)通過分析歷史行為數(shù)據(jù)向用戶推薦其可能感興趣的項目。目前,推薦系統(tǒng)已經(jīng)與人們的日常生活息息相關,并且在多種領域大放異彩,例如購物平臺、新聞媒體等。

        推薦算法在推薦系統(tǒng)中占據(jù)核心地位,傳統(tǒng)推薦算法主要包括基于內(nèi)容的推薦、協(xié)同過濾推薦和混合推薦3種[3]。其中,協(xié)同過濾推薦通過對用戶歷史行為數(shù)據(jù)進行廣泛挖掘并加以分析得到其對項目的偏好信息,進而向用戶推薦其可能感興趣的內(nèi)容。在眾多協(xié)同過濾算法中,矩陣分解由于具有擴展性好、準確率高的特性而受到諸多學者的青睞。然而,矩陣分解為用戶作出推薦時僅依靠單一的顯性評分,在實際場景中很容易遭遇數(shù)據(jù)稀疏和冷啟動問題。隨著新時代網(wǎng)絡的高速發(fā)展,各種形式的輔助信息層出不窮,例如空間位置信息、時間信息、文本信息等。其中評論文本信息含有豐富的語義和情感信息,大多數(shù)用戶在消費之前都會參考評論信息再作出決定,因此本文對評論文本信息進行建模,以期從中提取出有價值的用戶和商品特征。

        深度學習技術可提取深層數(shù)據(jù)特征并有效利用多源異構數(shù)據(jù),應用廣泛。例如,He 等[4]將矩陣分解在可擴展性方面的優(yōu)勢與深度神經(jīng)網(wǎng)絡(Deep Neural Networks,DNN)強大的提取非線性特征功能相結(jié)合,設計了一種通用的神經(jīng)協(xié)同過濾模型(Neural Collaborative Filtering,NCF),大大提高了推薦效果;Alfarhood 等[5]提出DeepHCF(Deep Hybrid Collaborative Filtering)模型,該模型使用卷積神經(jīng)網(wǎng)絡(Convolutional Neural Networks,CNN)提取項目評論特征,將用戶和項目特征送入因子分解機(Factorization Machines,F(xiàn)M)[6]得到預測評分,然而該模型僅考慮到項目的評論文本信息。本文在DeepHCF 模型的基礎上設計出基于注意力機制的深度協(xié)同模型DeepAM(Deep Attention Mechanism),主要從以下兩個方面展開研究工作:①引入注意力機制,加強局部特征與整個文本序列的相關性,關注評論文本中最有價值的語義特征,更準確地獲取用戶興趣偏好和項目屬性特征;②使用FM 提取用戶和項目的低階特征,使用DNN 擬合用戶與物品之間的非線性高階函數(shù),克服了矩陣分解的數(shù)據(jù)稀疏問題,并僅采用簡單的線性加權交互表示用戶與物品的交互缺陷[7]。

        1 相關研究

        1.1 基于評論文本的推薦算法

        基于評分矩陣的推薦算法簡單高效,但其本身固有的數(shù)據(jù)稀疏和冷啟動缺陷使得該方法在用戶對項目評分數(shù)據(jù)很少的情況下效果不佳。由于用戶對項目的評論信息中蘊含著豐富的語義信息,研究者們開始思考通過加入評論文本這類輔助信息彌補單一模型的缺陷。例如,Mukherjee 等[8]發(fā)現(xiàn)對評論文本進行分析有助于提高預測精度,使用文本建模是解決評論矩陣稀疏性問題最為直接的方法。然而該模型學習到的均為淺層線性特征,且基于詞袋的模型無法保留詞序信息;Kim 等[9]提出的ConvMF+(Convolution Matrix Factorization)使用CNN 保留了部分文本詞序信息,可以挖掘出更加準確的項目隱向量,然而該模型忽略了用戶文本信息的重要性;周傳華等[10]提出一種融合評分矩陣和評論文本的DNN 模型,該模型很好地克服了矩陣分解中固有的評分矩陣稀疏問題,并且提高了推薦準確性,但其評分預測模塊提取特征方式較為單一。

        1.2 融入注意力機制的推薦算法

        注意力機制最早由Treisman 等[11]提出,本質(zhì)是一種模擬人腦注意力的模型。人類對同一個輸入的不同部位給予的關注度不盡相同,使用注意力機制可以捕捉到最有價值的輸入,將重點資源集中在對結(jié)果有突出影響力的內(nèi)容上,極大優(yōu)化各種深度學習任務結(jié)果。2014 年,Google 團隊[12]將注意力機制與循環(huán)神經(jīng)網(wǎng)絡(Recurrent Neural Network,RNN)模型相結(jié)合,取得了很好的圖像分類效果。此后,阿里團隊[13]提出深度興趣網(wǎng)絡(Deep Interest Network,DIN),使用注意力機制捕捉用戶的興趣點,在一定程度上提升了模型的表達能力;謝恩寧等[14]提出DeepCF-A(Deep Collaborative Filtering Model Based on Attention)模型,在多層感知器(Multilayer Perceptron,MLP)中融入注意力機制得到用戶與項目交互的非線性特征,然而該方法只是簡單利用了評分矩陣信息;劉浩瀚等[15]在建模用戶點擊行為時利用注意力機制捕獲用戶的主要意圖;馮興杰等[16]提出一種個性化注意力機制對評論進行深度建模,使用門控機制融合用戶和商品的隱向量,進一步提升了評分預測的準確性,但該模型沒有考慮到用戶和項目隱表示的非線性交互。

        本文提出的DeepAM 模型將CNN 與矩陣分解模型相結(jié)合,通過兩個并行的CNN 挖掘用戶和項目文本評論特征,融入注意力機制賦予評論權重;然后同時使用FM 和DNN 分別提取用戶和項目的低階線性交互特征和高階非線性特征,最終取得了很好的推薦效果。

        2 模型建立

        DeepAM 模型結(jié)構如圖1 所示,該模型由評分數(shù)據(jù)提取模塊、評論數(shù)據(jù)提取模塊、融合模塊、評分預測模塊組成。評分數(shù)據(jù)提取模塊使用MLP 得到用戶和項目的隱向量,該模塊通過兩個結(jié)構一致的CNN 對用戶和項目評論文本進行特征學習,并在嵌入層引入注意力機制使CNN 將重點資源集中到與目標關聯(lián)度高的部分。評分預測模塊使用FM 和DNN 加權組合分別提取用戶和項目的低階交互特征和非線性高階特征,然后通過FM 和DNN 得到兩個評分,采用加權融合的方式得到DeepAM 的最終評分。

        2.1 評分數(shù)據(jù)提取模塊

        MLP 的多層神經(jīng)網(wǎng)絡結(jié)構具有強大的自動學習特征的能力,可以解決非線性問題,本文模型便使用MLP 提取用戶—項目評分矩陣的特征。評分數(shù)據(jù)提取模塊的輸入為用戶ID 和項目ID,首先經(jīng)過嵌入層映射成為稠密向量,再輸入到MLP 層提取特征,得到用戶隱向量和項目隱向量。MLP 層輸出值的計算公式為:

        式中,k表示第k層,bk表示第k層偏置。

        2.2 評論數(shù)據(jù)提取模塊

        評論數(shù)據(jù)提取模塊使用CNN 挖掘用戶和項目評論文本的上下文特征,將得到的評論文本特征用于評分預測。CNN 由嵌入層、基于注意力的權值更新層、卷積層、池化層和全連接層組成。

        Fig.1 Overall architecture of DeepAM model圖1 DeepAM 模型整體架構

        2.2.1 嵌入層

        嵌入層使用詞嵌入模型將評論數(shù)據(jù)通過函數(shù)映射到新的表達空間,實現(xiàn)離散的特征取值到對應向量的映射,兩個詞義相近的詞在表達空間中的距離相近。假設詞向量映射f:M→Rn,表示根據(jù)詞字典M將詞映射到n維向量的函數(shù)。在實驗中,首先將每個用戶Uu的評論文本通過嵌入層的作用映射為詞向量,合并成包含n個詞的文檔d,因此得到用戶Uu的評論詞嵌入矩陣Mu,表示為:

        式中,dm表示文檔d中第m個詞m=1,2,…,n;θ(dm)表示將該詞dm映射到n維詞向量空間。

        2.2.2 基于注意力機制的權值更新層

        人類視覺通過掃描全局圖像可以快速高效地獲得重點關注的目標區(qū)域,從而對該重點目標區(qū)域投入更多注意力資源。深度學習中的注意力機制模仿人類的視覺注意力,被廣泛應用于圖像識別、語音識別等領域中。本文將基于單詞級別的注意力機制引入到CNN 中,對重點詞向量賦予更高權重,以實現(xiàn)對評論文本重點內(nèi)容的準確建模。

        為了突出重點評論的貢獻,在卷積層前加入一層注意力權值更新層,通過計算單個詞向量的權值為輸入層的詞向量序列重新賦予權重。使用余弦相似度計算詞嵌入矩陣Mu中每個詞向量與所有用戶評論文本詞向量之間的相似度系數(shù)simm,表示為:

        式中,表示用戶評論詞向量字典中第m個詞向量;表示所有用戶詞向量。

        經(jīng)過歸一化處理可得到與每個詞向量相對應的單詞級別注意力權重am,表示為:

        將用戶所有詞向量的注意力權重am拼接得到注意力權值矩陣A(Uu),表示為:

        對注意力權值矩陣與用戶UU的詞向量矩陣Mu進行乘積操作,得到更新的帶權重信息的詞向量矩陣,表示為:

        2.2.3 卷積層

        卷積層為CNN 的核心層,經(jīng)過卷積層的卷積操作后,原始輸入特征會被增強。該層用于提取用戶和項目評論詞向量的抽象特征。假設神經(jīng)元的個數(shù)為m,神經(jīng)元j使用的卷積核Kj∈?c×t詞窗大小為t。式(6)中得到的詞向量矩陣經(jīng)過卷積核Kj的作用后可表示為:

        式中,*為卷積操作;bj為偏置;f選擇ReLu 函數(shù)進行非線性映射操作,表示為:

        2.2.4 池化層

        池化層將文本壓縮至固定長度nc,以便于后續(xù)處理。通過最大池化層的作用,卷積層輸出kj將會變成固定向量oj,表示為:

        使用s個卷積核分別提取不同文本特征,則s個卷積核的輸出向量可表示為:

        2.2.5 全連接層

        全連接層用于對提取到的所有特征進行加權處理,將經(jīng)過最大池化操作得到的輸出向量輸入全連接層。全連接層的輸出表示為:

        式中,W為權重矩陣,b為全連接層的偏置。同理可得項目評論向量Outputi_review。

        2.3 融合模塊

        使用特征融合方法將處于不同特征空間的輸出置于同一個空間中,特征融合采取Concatenation 操作方式。將基于評分矩陣的用戶隱向量Outputi_review和CNN 提取到的用戶評論文本特征Outputu_review進行橫向拼接,其融合方式表示為:

        同理可得項目特征向量Outputi。

        2.4 評分預測模塊

        評分預測模塊由FM 和DNN 組成。FM 通過不同向量之間的關聯(lián)計算達到提取交叉低階特征的效果。將特征融合模塊得到的用戶和項目特征向量送入FM,二階多項式的FM 模型輸出表示為:

        式中,w0為常數(shù)偏置,wi為向量第i個分量的權重,xi表示向量中的第i個分量,xj表示第j個分量,wij表示向量中第i個與第j個特征向量的交互值,n表示樣本數(shù)目。

        DNN 由全連接的多層神經(jīng)網(wǎng)絡組成,擁有很強的建模能力,可用于提取非線性高階特征。DNN 的隱層輸出表示為:

        式中,wk表示第l層權重值,bk表示第l層偏置。

        DeepAM 模型的最終輸出由FM 和DNN 的輸出線性加權組合而成,表示為:

        式中,α表示權重。

        3 實驗結(jié)果與分析

        3.1 實驗環(huán)境

        實驗環(huán)境如表1所示。

        Table 1 Experimental environment表1 實驗環(huán)境

        3.2 實驗數(shù)據(jù)集

        使用Amazon 5-core 中的3 個子類別數(shù)據(jù)集Toys and Games、Instant Video 和Digital Music 評 估DeepAM 模 型 的性能。3 個數(shù)據(jù)集均包含用戶對商品的評論以及用戶對項目1~5之間的評分信息。表2為各個數(shù)據(jù)集的基本信息。

        Table 2 Dataset basic information表2 數(shù)據(jù)集基本信息

        實驗過程中僅保留4 個與實驗相關的屬性,分別為用戶ID、商品ID、評分、評論文本。

        3.3 評價指標

        采用均方根誤差RMSE 驗證所得到的預測結(jié)果與真實評分的差異,計算公式為:

        式中,N 為樣本個數(shù),yn為第n個樣本的實際評分,為第n個樣本的預測評分。

        3.4 實驗參數(shù)設置

        按照8∶1∶1 的比例隨機將每個實驗數(shù)據(jù)集劃分為訓練集、驗證集、測試集,其中訓練集用于訓練模型,驗證集用于調(diào)整模型超參數(shù),測試集用于測試性能。采用五折交叉驗證法,選擇Adam 優(yōu)化器,Dropout[17]設置為0.5,正則化系數(shù)為0.01,學習率為0.01,批量大小為128,迭代次數(shù)為200。實驗期間刪除所有測試集和驗證集評論。

        3.5 模型參數(shù)分析

        選擇3 組比較重要的超參數(shù)在Toys and Games 數(shù)據(jù)集上進行實驗,包括詞向量嵌入維度、MLP 隱藏層數(shù)量以及α值。

        3.5.1 不同詞向量嵌入維度對模型的影響

        分別使用50、100、150、200 維預訓練的詞嵌入模型進行測試,結(jié)果如圖2 所示??梢钥闯?,在詞向量的嵌入維度為50 時,模型取得最佳效果。隨著詞向量維度的增加,高維空間中的詞向量由稠密變得稀疏,不同詞向量之間的聯(lián)系會被削弱,因此RMSE 逐漸增大。

        Fig.2 Impact of embedding dimensions on the model圖2 詞嵌入維度對模型的影響

        3.5.2 不同MLP層數(shù)對模型的影響

        設置MLP 隱藏層數(shù)分別為1、2、3、4,結(jié)果如圖3 所示。

        Fig.3 Influence of the number of MLP hidden layers on the model圖3 MLP隱藏層數(shù)量對模型的影響

        可以看出,隨著隱藏層數(shù)目的增加,模型RMSE 指標呈現(xiàn)出先減小后增加的趨勢,說明多層神經(jīng)網(wǎng)絡可以學習到更多的表示信息,但當隱層數(shù)目增加到一定程度后,算法的性能提升有限,且模型復雜度也會增加。綜合考慮,當隱藏層數(shù)目為3時模型取得最佳推薦性能。

        3.5.3 不同α值對模型的影響

        α表示FM 和DNN 預測評分的權值,分別設置α值為0.1、0.2、0.3、0.4、0.5、0.6、0.7、0.8、0.9、1.0,分別進行10 組實驗,迭代次數(shù)設置為100,結(jié)果如圖4 所示??梢钥闯?,當權重α為0.3 時,模型RMSE 可取得最小值,相較α為0.1時下降了4.8%,相較α為1.0 時下降了10.5%,證實了同時使用FM和DNN對特征進行提取對于模型推薦的有效性。

        Fig.4 Influence of α value on the model圖4 α值對模型的影響

        3.6 比較實驗

        選擇5 種經(jīng)典模型與本文模型進行比較,分別為:①LFM(Latent Factor Model)[18]。其為經(jīng)典的矩陣分解算法,僅使用用戶對項目的評分矩陣作為輸入,方法簡單且效果好;②NeuMF。結(jié)合了傳統(tǒng)矩陣分解和MLP,可同時提取線性和非線性特征,是典型的基于深度學習的推薦算法;③DeepCoNN[19]。使用兩個并行的CNN 分別學習用戶評論信息和項目評論信息,是第一個應用神經(jīng)網(wǎng)絡處理評論信息的推薦算法;④DeepRec。融合評分矩陣和評論文本的DNN 推薦模型;⑤NARRE[20]。帶有評論級別解釋的神經(jīng)注意力回歸模型,可區(qū)分各條評論的貢獻。比較模型的信息如表3所示。

        Table 3 Comparison model information表3 比較模型信息

        DeepAM 模型與4 種對比模型在Amazon 的3 個數(shù)據(jù)集上的RMSE 結(jié)果比較如表4 所示。可以看出,所有模型在Toys and Games 數(shù)據(jù)集上的表現(xiàn)均優(yōu)于Instant Video 和Digital Music 數(shù)據(jù)集,這是由于Toys and Games 數(shù)據(jù)集包含豐富的數(shù)據(jù)內(nèi)容。

        此外,基于深度學習的推薦模型性能優(yōu)于傳統(tǒng)機器學習推薦模型。這是由于傳統(tǒng)機器學習推薦模型需要人為選擇特征,并且只能挖掘淺層特征,而深度學習模型中的多層神經(jīng)網(wǎng)絡在自動挖掘用戶和項目深層特征信息方面有著卓越效果。隨著數(shù)據(jù)量的增多,深度學習模型的優(yōu)勢會更加明顯。與僅使用評分數(shù)據(jù)的模型(LFM、NeuMF)相比,同時提取評分和評論信息特征的推薦模型(DeepRec、NARRE、DeepAM)具有更好的推薦性能。由此可以得出評論信息蘊含重要的用戶和項目屬性特征,可用于提高推薦效果的結(jié)論。

        Table 4 RMSE comparison of each model表4 各模型RMSE值比較

        DeepRec 模型同時使用評分矩陣信息和評論文本信息,取得了較好的推薦效果,但沒有區(qū)分詞向量的權重,無法對比較重要的區(qū)域投入更多資源,推薦效果沒有融入注意力機制的模型(NARRE、DeepAM)優(yōu)越,由此證明了注意力機制的有效性。

        NARRE 模型能抑制無用評論對模型的影響,但其沒有涉及到用戶和項目隱表示的非線性特征交互,而Deep-AM 模型在評分預測模塊同時利用了FM 提取低階交互特征和DNN 挖掘非線性特征的功能。實驗結(jié)果表明,Deep-AM 模型的推薦效果相比NARRE 提升了3.9%,證明了DeepAM 同時引入FM 和DNN 的有效性。

        4 結(jié)語

        本文提出DeepAM 模型,將用戶和物品評論信息引入基于評分矩陣的推薦算法中,并且融入注意力機制給評論分配權重,在評分預測模塊同時使用FM 提取低階交互特征和DNN 提取非線性特征。在3 組公開數(shù)據(jù)集上的實驗結(jié)果表明,該模型的推薦準確度相較其他5 個常用模型均有一定程度的提高。若在今后實驗中增加更多輔助信息,如用戶和項目圖片、用戶社交網(wǎng)絡、地理位置等,可更加準確完善地挖掘出用戶和商品特征,取得更好的推薦效果。

        猜你喜歡
        注意力向量矩陣
        向量的分解
        讓注意力“飛”回來
        聚焦“向量與三角”創(chuàng)新題
        “揚眼”APP:讓注意力“變現(xiàn)”
        傳媒評論(2017年3期)2017-06-13 09:18:10
        A Beautiful Way Of Looking At Things
        初等行變換與初等列變換并用求逆矩陣
        向量垂直在解析幾何中的應用
        向量五種“變身” 玩轉(zhuǎn)圓錐曲線
        矩陣
        南都周刊(2015年4期)2015-09-10 07:22:44
        矩陣
        南都周刊(2015年3期)2015-09-10 07:22:44
        成人动漫久久| 777米奇色狠狠俺去啦| 亚洲精品国产成人久久av盗摄| 口爆吞精美臀国产在线| 手机av在线中文字幕| 国产成人综合久久久久久| 丰满熟妇人妻av无码区 | 久久国产精品一区二区| 亚洲国产不卡免费视频| 国家一级内射高清视频| 在线观看午夜视频国产| 亚洲视频网站大全免费看| 久久99精品久久久久久噜噜| 色 综合 欧美 亚洲 国产| 亚洲av无码片在线观看| 国产免费AV片在线看| 精品国产一区二区三区亚洲人| 久久亚洲精品成人综合| 最新日韩精品视频免费在线观看| 99视频偷拍视频一区二区三区| 少妇人妻精品久久888| 青青草精品视频在线播放| 天天狠天天添日日拍| 国产97在线 | 免费| 国产精品女同一区二区| mm在线精品视频| 激情一区二区三区视频| 亚洲成人av一区二区 | 亚洲av一二三四又爽又色又色| 久草福利国产精品资源| 无遮挡1000部拍拍拍免费| 人人妻人人狠人人爽| 国产sm调教视频在线观看| 国产人碰人摸人爱视频| 中文无码日韩欧免费视频| 白色月光在线观看免费高清| 尤物国产一区二区三区在线观看| 国产亚洲精品美女久久久久| 国产国产裸模裸模私拍视频| 中文国产日韩欧美二视频| 日韩成人精品日本亚洲|