亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        融合項(xiàng)目圖像的混合推薦算法

        2020-10-15 12:16:38王宇飛
        關(guān)鍵詞:類別卷積圖像

        王宇飛 陳 璐

        (浙江工業(yè)大學(xué)管理學(xué)院 浙江 杭州 310023)

        0 引 言

        隨著信息時(shí)代的到來(lái),信息過載問題愈發(fā)突出,面對(duì)海量的數(shù)據(jù),傳統(tǒng)信息獲取工具已無(wú)法滿足用戶個(gè)性化的需求。推薦系統(tǒng)使用用戶行為產(chǎn)生的數(shù)據(jù)來(lái)探求用戶的興趣、預(yù)測(cè)用戶行為,從大量繁雜的數(shù)據(jù)中找到符合用戶的項(xiàng)目(如信息,服務(wù),物品等),并將其推薦給用戶,不僅節(jié)約了用戶篩選信息的時(shí)間,還提高了信息的利用率[1]。

        傳統(tǒng)的推薦算法[2]必須依賴用戶評(píng)價(jià)信息。以電影推薦為例,由于電影的數(shù)量龐大,用戶只可能對(duì)其中的一部分進(jìn)行評(píng)價(jià),因此會(huì)產(chǎn)生用戶共同評(píng)分項(xiàng)目太少導(dǎo)致評(píng)分?jǐn)?shù)據(jù)稀疏的問題,這會(huì)導(dǎo)致在使用用戶對(duì)項(xiàng)目的評(píng)分計(jì)算用戶或物品的相似度時(shí),產(chǎn)生較大的誤差。這樣,就難以保證最近鄰居搜索結(jié)果的準(zhǔn)確性,使得預(yù)測(cè)值與真實(shí)值之間可能誤差較大,從而影響推薦的效果。

        針對(duì)傳統(tǒng)算法中存在的問題,相關(guān)領(lǐng)域的研究人員使用聚類[3-4]、矩陣分解[5-6]、slope one算法[7-8]等方法來(lái)解決這個(gè)問題。朱麗中等[9]將云模型方法引入到協(xié)同過濾算法中來(lái),利用項(xiàng)目聚合產(chǎn)生預(yù)測(cè)結(jié)果,從而提高推薦結(jié)果的穩(wěn)定性。韋素云等[10]利用項(xiàng)目屬性構(gòu)造項(xiàng)目相似度矩陣,并與興趣度相結(jié)合,使用改進(jìn)的公式重新衡量項(xiàng)目的相似度,提升推薦質(zhì)量。魏甜甜等[11]在項(xiàng)目相似度計(jì)算時(shí)引入項(xiàng)目流行度,提升了推薦準(zhǔn)確度。上述方法都通過分析項(xiàng)目,利用項(xiàng)目的不同特性提高推薦的質(zhì)量,但并沒有很好地將項(xiàng)目的內(nèi)容信息提取出來(lái)加以利用。

        伴隨著讀圖時(shí)代的到來(lái),快節(jié)奏的生活導(dǎo)致時(shí)間的碎片化程度加重,許多人沒有整塊時(shí)間去閱讀文字,人們也不愿意將注意力集中在文字上。圖像等類似媒體(包括短視頻)替代了文字,它們能讓人們以最輕松的方式快速獲取信息,人們也更加愿意通過圖像來(lái)了解信息。圖像在一定程度上可以反映項(xiàng)目的內(nèi)容,內(nèi)容信息相近的項(xiàng)目,其圖像往往也具有很高的相似度。本文將項(xiàng)目圖像與評(píng)分動(dòng)態(tài)組合,得到一種新的推薦算法,從項(xiàng)目圖像和項(xiàng)目評(píng)分兩方面出發(fā),解決傳統(tǒng)算法中存在的問題,提高推薦質(zhì)量。

        1 基于項(xiàng)目的協(xié)同過濾算法

        1.1 數(shù)據(jù)描述

        本文將用戶集合定義表示為U={u1,u2,…,um},項(xiàng)目集合表示為I={i1,i2,…,in},用戶-項(xiàng)目的評(píng)分矩陣表示為R=(rui)m×n,得到的評(píng)分矩陣R如下:

        1.2 項(xiàng)目評(píng)分相似度計(jì)算

        (1)

        2 融合項(xiàng)目圖像的混合推薦算法

        針對(duì)根據(jù)項(xiàng)目進(jìn)行推薦時(shí)并沒有完全利用項(xiàng)目圖像這一因素,本文利用卷積神經(jīng)網(wǎng)絡(luò)提取圖像特征,利用提取后的特征值得到項(xiàng)目圖像之間的相似度,與項(xiàng)目評(píng)分相似度動(dòng)態(tài)結(jié)合,進(jìn)而產(chǎn)生推薦。

        2.1 VGG16卷積神經(jīng)網(wǎng)絡(luò)

        卷積神經(jīng)網(wǎng)絡(luò)(CNN)是近年發(fā)展起來(lái)的一種圖像特征提取方法[12],由于其抽取的圖像特征是通過數(shù)據(jù)學(xué)習(xí)得來(lái)的,克服了傳統(tǒng)手工需要通過設(shè)計(jì)才能提取圖像特征的缺陷,節(jié)約了大量的人力和時(shí)間,因而受到廣泛的關(guān)注。VGG16是使用最多、效果顯著的卷積神經(jīng)網(wǎng)絡(luò)模型[13],其利用卷積計(jì)算層、池化層進(jìn)行圖像特征的提取[14]。

        卷積層采用卷積的方式,即一種加權(quán)的方法,通過一個(gè)加權(quán)函數(shù)(卷積核)對(duì)提取特征需要的信息賦予更高的權(quán)重,進(jìn)行特征提取,將卷積核重復(fù)作用于圖像的每一塊區(qū)域,即完成一次特征提取,提取出的結(jié)果稱之為特征圖。池化層的主要作用就是將經(jīng)過卷積層處理后得到的特征圖進(jìn)行一定程度的壓縮,防止過擬合現(xiàn)象的出現(xiàn)。

        2.2 圖像相似度

        經(jīng)過VGG16卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行特征提取,每一個(gè)電影海報(bào)輸入到VGG16模型中進(jìn)行特征提取,會(huì)形成一個(gè)512×7×7的輸出,即提取到的電影海報(bào)的特征數(shù)據(jù),把這個(gè)輸出處理為一維的形式,將每個(gè)電影海報(bào)的特征記錄下來(lái),利用余弦相似度公式獲得項(xiàng)目圖像相似度sim2:

        (2)

        式中:ia、ja分別代表項(xiàng)目i和j的圖像經(jīng)過特征提取后形成的向量;pik、pjk分別代表向量ia、向量ja在位置k上的取值。

        2.3 混合相似度

        由于電影海報(bào)中會(huì)有一些通用的元素,比如人物形象、場(chǎng)景等,這些元素可能使關(guān)聯(lián)性不是很強(qiáng)的項(xiàng)目具有很高的圖像相似度,因此引入項(xiàng)目類別屬性來(lái)對(duì)項(xiàng)目圖像相似度進(jìn)行修正,使利用圖像相似度找到的都是項(xiàng)目類型、內(nèi)容與目標(biāo)項(xiàng)目更加接近的項(xiàng)目。電影有動(dòng)作、科幻、愛情、冒險(xiǎn)等項(xiàng)目類別屬性,利用數(shù)據(jù)集存儲(chǔ)的項(xiàng)目信息,提取出項(xiàng)目的類別屬性矩陣,如表1所示。

        表1 項(xiàng)目-類別屬性矩陣

        表1中:I1-I5表示項(xiàng)目;S1-S5表示項(xiàng)目類別屬性;1表示項(xiàng)目有這個(gè)類別屬性;0表示項(xiàng)目沒有這個(gè)類別屬性。通過數(shù)據(jù)集,獲取項(xiàng)目-類別屬性信息,可得到項(xiàng)目-類別屬性矩陣CN,從中可以得到每個(gè)項(xiàng)目的類別屬性,并利用式(3)[15]來(lái)度量?jī)蓚€(gè)項(xiàng)目屬性相似度。

        (3)

        式中:CNi、CNj代表類別屬性集;CNi∩CNj是i與j都擁有的類別屬性數(shù)量;CNi∪CNj為項(xiàng)目i與j擁有的所有類別屬性的量。λ越大表示項(xiàng)目類別屬性相差越大,λ越小表示項(xiàng)目類別屬性相差越小。本文設(shè)計(jì)類別屬性因子λ,將評(píng)分與圖像的相似度線性結(jié)合,計(jì)算方式如下:

        sim(i,j)=(1-λ)sim1(i,j)+λsim2(i,j)

        (4)

        引入λ來(lái)組合圖像和評(píng)分的相似度,λ與項(xiàng)目的屬性類別有關(guān),利用項(xiàng)目類別屬性可以修正項(xiàng)目圖像由于圖像共有元素而導(dǎo)致的計(jì)算偏差,可以更好地找到與目標(biāo)項(xiàng)目特性相同的項(xiàng)目。

        2.4 預(yù)測(cè)評(píng)分生成

        通過式(4),可獲得項(xiàng)目間的相似度,構(gòu)造出相似度矩陣S。對(duì)于任意用戶u,根據(jù)用戶-項(xiàng)目評(píng)分矩陣Rmn獲得用戶u的已評(píng)分項(xiàng)目集合Iu,可以得到u的未評(píng)價(jià)的項(xiàng)目集Nu=I-Iu。對(duì)于集合中的元素i(i∈Nu),可以根據(jù)矩陣R和矩陣S選取出與項(xiàng)目i相似度最高且有評(píng)分的一些項(xiàng)目構(gòu)成其最近鄰Inear={ii1,ii2,…,iim},并用式(5)來(lái)預(yù)測(cè)u對(duì)i的評(píng)分[16]。

        (5)

        2.5 算法流程

        本文引入圖像信息,把項(xiàng)目圖像信息和評(píng)分信息進(jìn)行線性結(jié)合,得到新的項(xiàng)目相似度計(jì)算方法;通過新的計(jì)算方式,得到項(xiàng)目的最近鄰集;通過最近鄰集,預(yù)計(jì)評(píng)價(jià)值;使用預(yù)計(jì)分值進(jìn)行排序,將預(yù)計(jì)評(píng)分高的項(xiàng)目推薦給用戶。融合項(xiàng)目圖像的混合推薦算法(PB-CF)的具體流程圖如圖1所示。

        圖1 PB-CF算法流程圖

        由于只利用圖像信息同樣可以得到項(xiàng)目的相似度找到項(xiàng)目的最近鄰集進(jìn)行評(píng)分的預(yù)測(cè),因此本文同時(shí)提出只基于項(xiàng)目圖像信息的相似度計(jì)算方法,融合項(xiàng)目圖像的混合推薦算法(P-CF)的具體流程圖如圖2所示。

        圖2 P-CF算法流程圖

        3 實(shí) 驗(yàn)

        3.1 數(shù)據(jù)集

        本文使用MovieLens100k[17]作為實(shí)驗(yàn)數(shù)據(jù)集,MovieLens是推薦算法研究領(lǐng)域中最被人熟知、最常被使用的數(shù)據(jù)集,其中有943名測(cè)試者對(duì)1 683部影片的10萬(wàn)條記錄信息,電影海報(bào)數(shù)據(jù)集來(lái)自IMBD,通過API接口找到MovieLens數(shù)據(jù)集中的相關(guān)電影海報(bào)。

        實(shí)驗(yàn)環(huán)境使用Windows 10操作系統(tǒng),8 GB內(nèi)存的Intel i5-7300處理器,在Spyder開發(fā)環(huán)境下,使用Python語(yǔ)言進(jìn)行算法代碼的編寫和測(cè)試。將MovieLens數(shù)據(jù)集中的數(shù)據(jù)按照4∶1的比例進(jìn)行隨機(jī)劃分,其中80%的數(shù)據(jù)作為訓(xùn)練集數(shù)據(jù),另外20%的數(shù)據(jù)作為測(cè)試集數(shù)據(jù)。

        3.2 評(píng)價(jià)指標(biāo)

        實(shí)驗(yàn)使用平均絕對(duì)誤差(MAE)和均方根誤差(RMSE)作為實(shí)驗(yàn)的評(píng)價(jià)指標(biāo),其具體的計(jì)算公式如下:

        (6)

        (7)

        式中:N為預(yù)測(cè)評(píng)分集合中的項(xiàng)目的個(gè)數(shù);pi為通過本文算法得到的用戶對(duì)項(xiàng)目i的預(yù)測(cè)評(píng)分;qi表示用戶對(duì)該項(xiàng)目的實(shí)際評(píng)分。推薦的效果與MAE和RMSE的值呈負(fù)相關(guān)關(guān)系,MAE、RMSE值越小,表示推薦的效果越好,推薦質(zhì)量越高。

        3.3 最近鄰數(shù)量確定實(shí)驗(yàn)

        為確定本文算法中最近鄰數(shù)量的最佳值,本次試驗(yàn)選取10、15、20、25、30、35、40、45、50的幾種最近鄰數(shù)量進(jìn)行實(shí)驗(yàn),圖3、圖4為實(shí)驗(yàn)結(jié)果。

        圖3 各最近鄰數(shù)量下MAE誤差情況

        圖4 各最近鄰數(shù)量下RMSE誤差情況

        由圖3可知,隨著最近鄰數(shù)量的增加,MAE的值逐漸變小,最近鄰數(shù)為40時(shí),MAE值趨于穩(wěn)定,約為0.75。由圖4可知,隨著最近鄰數(shù)量的增加,RMSE的值逐漸變小,最近鄰數(shù)為40時(shí),RMSE值趨于穩(wěn)定,約為0.96。

        3.4 對(duì)比實(shí)驗(yàn)

        為了體現(xiàn)本文PB-CF算法和P-CF算法的推薦結(jié)果準(zhǔn)確性與其他算法的差別,本文選取傳統(tǒng)的推薦算法進(jìn)行對(duì)比試驗(yàn),其中包括基于項(xiàng)目的協(xié)同過濾算法(IBCF)、基于用戶的協(xié)同過濾算法(UB),對(duì)比結(jié)果如圖5、圖6所示??梢钥闯?,相較其他推薦方法,本文的PB-CF和P-CF算法推薦誤差值較小。基于圖像的P-CF算法的MAE和RMSE值比其他三種算法的準(zhǔn)確度更高,但考慮到信息的多樣性和單一數(shù)據(jù)集數(shù)據(jù)的特殊性問題,還是利用PB-CF算法進(jìn)行推薦。

        圖5 對(duì)比實(shí)驗(yàn)結(jié)果1

        圖6 對(duì)比實(shí)驗(yàn)結(jié)果2

        4 結(jié) 語(yǔ)

        本文將圖像信息引入到項(xiàng)目相似度計(jì)算公式中,并設(shè)計(jì)動(dòng)態(tài)加權(quán)方式對(duì)其進(jìn)行結(jié)合,獲得新的項(xiàng)目相似度衡量方式,通過算法獲得的項(xiàng)目最近鄰更精準(zhǔn)。實(shí)驗(yàn)結(jié)果表明,本文提出的融合項(xiàng)目圖像相似度計(jì)算方式,在引入項(xiàng)目圖像特征后有效地緩解由于數(shù)據(jù)稀疏引起的計(jì)算偏差,提升推薦的準(zhǔn)確度,不足之處在于圖像特征提取的準(zhǔn)確度還不夠高,針對(duì)不同的數(shù)據(jù)集利用圖像信息是否能取得同樣良好的效果,需要進(jìn)一步深入研究。

        猜你喜歡
        類別卷積圖像
        改進(jìn)的LapSRN遙感圖像超分辨重建
        基于3D-Winograd的快速卷積算法設(shè)計(jì)及FPGA實(shí)現(xiàn)
        有趣的圖像詩(shī)
        從濾波器理解卷積
        電子制作(2019年11期)2019-07-04 00:34:38
        基于傅里葉域卷積表示的目標(biāo)跟蹤算法
        服務(wù)類別
        論類別股東會(huì)
        商事法論集(2014年1期)2014-06-27 01:20:42
        一種基于卷積神經(jīng)網(wǎng)絡(luò)的性別識(shí)別方法
        中醫(yī)類別全科醫(yī)師培養(yǎng)模式的探討
        遙感圖像幾何糾正中GCP選取
        亚洲av高清一区二区三区 | 国产最新地址| av无码电影一区二区三区| 亚洲性日韩一区二区三区| 亚洲精品国精品久久99热| 双乳被一左一右吃着动态图 | 蜜桃网站在线免费观看视频 | av蜜桃视频在线观看| 国产精品白浆一区二区免费看| 亚洲精品www久久久久久| 国产精品久久久久久麻豆一区 | 欧美成人精品第一区| 日韩少妇内射免费播放| 亚洲电影一区二区三区| 亚洲av第二区国产精品| 国产无套内射又大又猛又粗又爽| 无码人妻av一区二区三区蜜臀 | 天天射综合网天天插天天干| 专干老肥熟女视频网站300部| 91视频88av| 手机在线免费av网址| 黄片大全视频在线播放| 人妻少妇精品专区性色av| 蜜桃一区二区三区在线看| 懂色av一区二区三区网久久| 在教室伦流澡到高潮hgl动漫| 中文字幕人妻偷伦在线视频| 91精品亚洲一区二区三区| 成人av蜜桃在线观看| 女人高潮被爽到呻吟在线观看| 亚洲AV综合久久九九| 国产一区二区杨幂在线观看性色| 亚洲av无码成人精品国产| 人妻影音先锋啪啪av资源| 无码AV午夜福利一区| 亚洲免费一区二区三区四区| 我爱我色成人网| 在线观看网址你懂的| 亚洲码专区亚洲码专区| 欧美成人精品a∨在线观看 | 免费高清av一区二区三区|