亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        融合評(píng)分矩陣和評(píng)論文本的深度學(xué)習(xí)推薦模型

        2021-08-27 06:38:20杜永萍
        關(guān)鍵詞:特征文本用戶

        王 艷,彭 治,杜永萍

        (北京工業(yè)大學(xué) 信息學(xué)部,北京 100124)

        0 引 言

        隨著網(wǎng)絡(luò)的飛速發(fā)展,給人們的生活帶來了巨大的影響,在提供便利的同時(shí)也產(chǎn)生了很多問題。由于數(shù)據(jù)量成指數(shù)增長(zhǎng),人們想要從海量的數(shù)據(jù)中獲取有用信息變得越來越困難[1],因此推薦系統(tǒng)應(yīng)運(yùn)而生。推薦系統(tǒng)在很多領(lǐng)域都得到了廣泛的應(yīng)用,例如:醫(yī)療健康[2]、交通出行[3]、學(xué)習(xí)教育[4]、電子商務(wù)[5]等。近年來,推薦系統(tǒng)在解決信息過載方面被證明是有效的,可以幫助人們快速地在海量數(shù)據(jù)中找到自己需要的信息;因此得到了學(xué)術(shù)界和工業(yè)界的廣泛關(guān)注。然而如何更高效地提高推薦系統(tǒng)的準(zhǔn)確性是現(xiàn)在推薦領(lǐng)域的研究熱點(diǎn)。

        傳統(tǒng)的推薦算法主要有協(xié)同過濾[6-7]和基于內(nèi)容的推薦算法[8]。這兩種方法都是基于用戶的歷史行為來進(jìn)行推薦的?;趦?nèi)容的推薦算法[8]利用用戶對(duì)項(xiàng)目的評(píng)分信息來確定這些物品之間的共同特征,若是新物品也有這個(gè)特征,就會(huì)將該物品推薦給用戶;協(xié)同過濾[6]是利用歷史數(shù)據(jù)找到與該用戶喜好相同的用戶,然后將找到的這些相似用戶過去喜歡的物品推薦給該用戶?;蛘呤钦业胶湍骋晃锲肪哂邢嗤卣鞯奈锲?,若用戶喜歡這一物品則將其他具有相同特征的物品推薦給用戶。

        基于近鄰的推薦算法廣泛用于協(xié)同過濾中。該算法利用評(píng)分信息計(jì)算用戶或物品的相似度,根據(jù)和某一用戶相似的用戶對(duì)目標(biāo)商品的評(píng)分來預(yù)測(cè)該用戶對(duì)目標(biāo)商品的評(píng)分,或者根據(jù)用戶對(duì)和目標(biāo)商品相似的物品的評(píng)分來預(yù)測(cè)該用戶對(duì)目標(biāo)商品的評(píng)分?;诮彽姆椒ㄒ子趯?shí)現(xiàn),并且對(duì)于預(yù)測(cè)結(jié)果有一個(gè)直觀的解釋。

        在協(xié)同過濾中,矩陣分解是最成功應(yīng)用最廣泛的一種方法。Koren等人[9]最早提出了基于矩陣分解(matrix factorization,MF)的推薦算法,該算法在評(píng)分矩陣的基礎(chǔ)上,加入了隱向量,并將評(píng)分矩陣分解為用戶矩陣和項(xiàng)目矩陣乘積的形式,增強(qiáng)了模型對(duì)稀疏矩陣的處理能力,從而取得了很好的推薦效果。Salakhutdinov等人[10]提出了概率矩陣因子分解(probabilistic matrix factorization,PMF)模型,該模型通過添加用戶、項(xiàng)目隱式特征的高斯概率分布來改進(jìn)算法。實(shí)驗(yàn)研究表明,基于矩陣分解的算法在評(píng)分預(yù)測(cè)方面要好于基于近鄰的推薦算法。

        雖然基于矩陣分解的推薦算法在推薦領(lǐng)域取得了不錯(cuò)的推薦效果,但是數(shù)據(jù)稀疏性對(duì)推薦系統(tǒng)性能的影響仍是當(dāng)下急需解決的問題。一些研究表明[11]引入評(píng)論文本信息能有效緩解數(shù)據(jù)稀疏性對(duì)推薦效果的影響,在一定程度上提高算法推薦的精確度。在推薦系統(tǒng)中,用戶除了可以直接進(jìn)行評(píng)分外還可以寫評(píng)論信息,一般評(píng)論信息中會(huì)包含用戶給出這個(gè)評(píng)分的理由,相較于評(píng)分而言,評(píng)論信息包含的內(nèi)容更加豐富。一方面可以得到用戶給出這個(gè)評(píng)分的原因,另一方面也可以體現(xiàn)用戶的偏好信息或商品的一些特征。

        最初使用評(píng)論文本進(jìn)行建模的推薦算法大都是基于主題模型,Devid等人[12]提出了LDA(latent Dirichlet allocation)模型,該模型用于推測(cè)文本中的主題分布,然后利用推測(cè)的主題分布獲取用戶、項(xiàng)目的相關(guān)信息從而提高推薦的準(zhǔn)確度。LDA是主題模型研究領(lǐng)域最具有影響力的模型。Ganu等人[13]提出從評(píng)論文本主題中推導(dǎo)出基于文本的評(píng)分方法。然后,使用聚類技術(shù)將文本中的主題和情感相似的用戶分為一組。McAuley等人[14]提出將評(píng)論文本和評(píng)分?jǐn)?shù)據(jù)相結(jié)合的HFT模型,將用戶評(píng)論集或商品評(píng)論集作為輸入,將評(píng)論文本主題和評(píng)分?jǐn)?shù)據(jù)中的隱因子結(jié)合。HFT是將評(píng)論文本和評(píng)分?jǐn)?shù)據(jù)相結(jié)合的最經(jīng)典的模型。基于主題的模型在推薦效果上取得了很好的結(jié)果,但是該方法不能很好地保留文本信息中的詞序信息,從而忽略了上下文之間的邏輯對(duì)應(yīng)關(guān)系[15]。

        近年來,深度學(xué)習(xí)在很多領(lǐng)域被廣泛應(yīng)用,特別是在自然語言處理[16]方面更取得了突破性的進(jìn)展。利用自然語言在文本內(nèi)容挖掘方面的優(yōu)勢(shì),將其運(yùn)用到推薦系統(tǒng)中對(duì)評(píng)論文本進(jìn)行處理,這也為推薦系統(tǒng)提供了新的研究方向[1];目前在推薦系統(tǒng)中使用的深度學(xué)習(xí)技術(shù)主要有CNN[17]、RNN[18]、注意力機(jī)制[19-20]、RBM[21]、自編碼器[22]等。

        深度學(xué)習(xí)中的CNN、RNN網(wǎng)絡(luò)在處理文本信息時(shí)能夠很好地保留詞序信息,近年來逐漸取代了主題模型。Kim等人[23]提出的ConvMF(convolution matrix factorization)模型將卷積神經(jīng)網(wǎng)絡(luò)和概率矩陣分解相結(jié)合,利用卷積神經(jīng)網(wǎng)絡(luò)處理評(píng)論文本信息,從而有效地保留詞序信息。但是該模型僅僅利用了項(xiàng)目的評(píng)論文本信息,而忽略了用戶的評(píng)論信息。隨后Zheng等人[24]提出了DeepCoNN(deep cooperative neural network)模型,該模型利用兩個(gè)并行的CNN來分別處理項(xiàng)目的評(píng)論信息和用戶的評(píng)論信息,在最后一層利用因子分解機(jī)來進(jìn)行評(píng)分預(yù)測(cè)。Chen等人[25]提出的NARRE(neural attentional regression model with review level explanations)模型,將評(píng)分矩陣和評(píng)論文本作為輸入,同時(shí)融合評(píng)分?jǐn)?shù)據(jù)中的隱向量,極大地提高了推薦系統(tǒng)的預(yù)測(cè)性能。

        上述模型中在與評(píng)論文本特征融合時(shí)僅用到了評(píng)分的潛在特征,沒有對(duì)評(píng)分?jǐn)?shù)據(jù)進(jìn)行深度建模,學(xué)習(xí)評(píng)分?jǐn)?shù)據(jù)的深度特征。因此文中提出了融合評(píng)分矩陣和評(píng)論文本的深度學(xué)習(xí)推薦模型,利用深度學(xué)習(xí)技術(shù)提取評(píng)分中的深度特征,并和評(píng)論信息中提取的用戶偏好、項(xiàng)目特征進(jìn)行融合。通過更好地對(duì)用戶項(xiàng)目特征進(jìn)行表示,從而提升推薦性能。用MSE作為評(píng)價(jià)指標(biāo),在亞馬遜6個(gè)不同領(lǐng)域的公開數(shù)據(jù)集上進(jìn)行對(duì)比實(shí)驗(yàn),結(jié)果表明所提出的算法優(yōu)于目前多個(gè)優(yōu)秀的公開模型。

        1 模型結(jié)構(gòu)

        文中提出了融合評(píng)分矩陣和評(píng)論文本的深度學(xué)習(xí)推薦模型RMRT(rating matrix and review text based recommendation model),模型結(jié)構(gòu)如圖1所示。該模型包括兩個(gè)部分,左側(cè)部分對(duì)用戶進(jìn)行建模,提取用戶偏好信息;右側(cè)部分對(duì)項(xiàng)目進(jìn)行建模,提取項(xiàng)目特征。將提取的用戶特征和項(xiàng)目特征融合后送入預(yù)測(cè)層,得到預(yù)測(cè)評(píng)分。

        圖1 融合評(píng)分矩陣和評(píng)論文本的深度學(xué)習(xí)推薦模型

        在用戶、項(xiàng)目建模過程中又分別包含了兩個(gè)部分:(1)從評(píng)論文本中提取特征,輸出用戶、項(xiàng)目的深層特征表示為Tu、Ti;(2)從評(píng)分矩陣中提取用戶項(xiàng)目特征,輸出為Xu、Xi;將得到的用戶特征和項(xiàng)目特征分別送入交互層得到用戶、項(xiàng)目的最終特征表示,最終在預(yù)測(cè)層得出用戶對(duì)項(xiàng)目的預(yù)測(cè)評(píng)分。在對(duì)用戶、項(xiàng)目建模時(shí)所用網(wǎng)絡(luò)結(jié)構(gòu)相同,只有輸入不同。因此文中重點(diǎn)介紹項(xiàng)目建模部分,用戶建模過程與之相似。

        1.1 文本特征提取模塊

        用戶對(duì)項(xiàng)目的評(píng)論信息能夠反映出項(xiàng)目的特征信息。給定某項(xiàng)目i的評(píng)論集{Ri1,Ri2,…,Rik},k表示模型允許輸入的最大評(píng)論數(shù),經(jīng)過嵌入層后,每條評(píng)論信息被映射為d維的向量,得到固定長(zhǎng)度的詞嵌入矩陣。嵌入層之后為卷積神經(jīng)網(wǎng)絡(luò)層,該層以嵌入層得到的詞向量矩陣作為輸入,得到特征向量。設(shè)卷積層由m個(gè)神經(jīng)元組成,使用大小為s的滑動(dòng)窗口上的卷積濾波器來提取上下文特征,具體如公式(1):

        kj=Relu(Mi*fj+bj)

        (1)

        式中,*表示卷積操作,bj表示偏差。

        進(jìn)入卷積模塊中的最大池化層,max-pooling能夠捕獲重要的具有高價(jià)值的特征,并且將卷積層的輸出壓縮成一個(gè)固定大小的向量,即:

        cj=max(k1,k2,…,kd-s+1)

        (2)

        卷積層最終輸出的特征向量可表示為:ci1,ci2,…,cik。

        對(duì)同一項(xiàng)目來說,不同用戶會(huì)有不同的評(píng)論信息,有些用戶的評(píng)論準(zhǔn)確描述了項(xiàng)目的相關(guān)特性,而有些用戶寫的評(píng)論可能和項(xiàng)目沒有太大的關(guān)聯(lián)性。不同評(píng)論信息所作的貢獻(xiàn)是不同的。為了選擇更能代表項(xiàng)目特征的評(píng)論信息,引入了注意力機(jī)制[20],對(duì)相應(yīng)的評(píng)論文本使用一個(gè)注意力層,得到注意力得分為:

        gik=Relu(wi×cik+b)

        (3)

        式中,Relu表示激活函數(shù),wi,b分別為網(wǎng)絡(luò)自動(dòng)學(xué)習(xí)的權(quán)重和偏移量。

        使用softmax函數(shù)對(duì)注意力得分gik進(jìn)行歸一化處理,得到最終的評(píng)論權(quán)重aik如下式所示:

        (4)

        利用評(píng)論權(quán)重來突出當(dāng)前評(píng)論集中第n條評(píng)論對(duì)項(xiàng)目i的特征的影響,將評(píng)論的注意力分?jǐn)?shù)aik一一作用在對(duì)應(yīng)的卷積層輸出的特征向量上,得到項(xiàng)目i特征向量的加權(quán)和:

        (5)

        然后將其送入到全連接層,得到項(xiàng)目i基于文本信息的最終特征表示:

        Ti=WiCi+bi

        (6)

        式中,Wi,bi分別是全連接層的權(quán)重和偏差量。同理對(duì)用戶建??梢缘玫接脩魎基于評(píng)論信息的特征表示Tu。

        1.2 評(píng)分?jǐn)?shù)據(jù)處理模塊

        用戶對(duì)項(xiàng)目的評(píng)分?jǐn)?shù)據(jù)是一種顯性反饋,可以直接反映出用戶對(duì)項(xiàng)目的喜愛程度,不同的評(píng)分說明用戶對(duì)項(xiàng)目的喜好程度不同,因此利用神經(jīng)網(wǎng)絡(luò)根據(jù)評(píng)分?jǐn)?shù)據(jù)獲取用戶的偏好和項(xiàng)目的特征表示。

        以項(xiàng)目i的評(píng)分?jǐn)?shù)據(jù)作為輸入pi={yi1,yi2,…,yin},其中網(wǎng)絡(luò)的模型定義為:

        (7)

        1.3 特征融合

        在本層對(duì)文本特征提取模塊和評(píng)分?jǐn)?shù)據(jù)處理模塊得到的用戶特征和項(xiàng)目特征進(jìn)行交互,通過線性和高階交互建模來獲取項(xiàng)目的最終特征表示:

        I=(Ti+Xi)⊕g

        (8)

        特征向量I中包含了從評(píng)論信息和評(píng)分?jǐn)?shù)據(jù)中獲取的項(xiàng)目特征,其中⊕表示拼接,g表示高階交互建模。此處借鑒了因子分解機(jī)中的二階項(xiàng)來獲取高階特征,首先將因子分解機(jī)中的二階項(xiàng)進(jìn)行轉(zhuǎn)換:

        (9)

        其中,?表示元素積,在執(zhí)行sum()之前,就已經(jīng)包含了二階交互項(xiàng)的所有信息。因此,只需要求和前的部分,將評(píng)論信息中得到的特征和評(píng)分?jǐn)?shù)據(jù)中得到的特征進(jìn)行拼接z=Ti⊕Xi,利用下面的網(wǎng)絡(luò)結(jié)構(gòu)來獲取高階特征:

        (10)

        g能進(jìn)一步增強(qiáng)潛在特征的交互,同理可以得到用戶的最終特征表示U。

        1.4 評(píng)分預(yù)測(cè)

        (11)

        式中,W表示預(yù)測(cè)層的權(quán)重參數(shù),bu、bi分別表示用戶的偏差量、項(xiàng)目的偏差量,bg表示全局偏差量。

        2 實(shí)驗(yàn)結(jié)果與分析

        2.1 數(shù)據(jù)集與實(shí)驗(yàn)設(shè)置

        在實(shí)驗(yàn)中,使用了6個(gè)不同領(lǐng)域的公開數(shù)據(jù)集來評(píng)估文中提出的模型,這些數(shù)據(jù)集來自Amazon 5-core,分別為:Toys_and_Games、Office_Product、Musical_ents、Instant_Video、Digital_Music、Kindle_Store,下面簡(jiǎn)稱(TG,OP,MI,IV,DM,KS)。這些數(shù)據(jù)集中主要包含了以下內(nèi)容:用戶對(duì)項(xiàng)目的評(píng)分信息(1-5分)、用戶對(duì)項(xiàng)目的評(píng)論信息、用戶ID和項(xiàng)目ID。具體統(tǒng)計(jì)信息如表1所示。

        表1 數(shù)據(jù)集基本信息

        在實(shí)驗(yàn)中將數(shù)據(jù)集劃分為訓(xùn)練集、測(cè)試集和驗(yàn)證集,所占比重分別為80%,10%,10%。其中,驗(yàn)證集主要是用來調(diào)整參數(shù),在測(cè)試集上對(duì)模型的性能進(jìn)行評(píng)估。

        在實(shí)驗(yàn)過程中,使用Google新聞上訓(xùn)練的300維的word2vec向量來初始化詞嵌入并在訓(xùn)練的過程中進(jìn)行微調(diào)。使用Adam函數(shù)優(yōu)化目標(biāo)函數(shù),默認(rèn)初始化學(xué)習(xí)率設(shè)置為0.005,卷積核大小設(shè)置為3。為了防止過擬合,在實(shí)驗(yàn)中采用了dropout策略,將值設(shè)置為0.5。

        2.2 評(píng)價(jià)指標(biāo)

        在實(shí)驗(yàn)中,模型的性能評(píng)價(jià)指標(biāo)選用了均方誤差MSE,該值越小表示模型的性能越好,計(jì)算如下:

        (13)

        2.3 對(duì)比模型

        為了驗(yàn)證文中提出模型的有效性,選擇了基于評(píng)分和評(píng)論數(shù)據(jù)相關(guān)的推薦模型進(jìn)行對(duì)比,具體如下所示:

        · MF[9]:矩陣分解模型,這個(gè)模型中只用到了評(píng)分?jǐn)?shù)據(jù),是協(xié)同過濾中最常使用的方法。

        · PMF[10]:概率矩陣分解模型,該模型在推薦建模時(shí)用到了高斯分布,來獲取用戶和項(xiàng)目的隱特征。

        · HFT[14]:該模型結(jié)合評(píng)分?jǐn)?shù)據(jù)和評(píng)論文本信息,在建模時(shí)有兩種組合方式,用戶評(píng)論文本和評(píng)分HFT(user),項(xiàng)目評(píng)論文本信息和評(píng)分HFT(itme)。文獻(xiàn)中顯示HTF(item)的效果要優(yōu)于HFT(user),文中在對(duì)比時(shí)HFT指的是HFT(itme)。

        · ConvMF[23]:該模型結(jié)合卷積神經(jīng)網(wǎng)絡(luò)和概率矩陣分解,利用CNN來處理評(píng)論文本信息,保留了文本中的詞序,但是僅僅只用到了項(xiàng)目的評(píng)論信息。

        · DeepCoNN[24]:深度協(xié)同神經(jīng)網(wǎng)絡(luò)模型,是首個(gè)同時(shí)利用了用戶和項(xiàng)目的評(píng)論文本信息的深度學(xué)習(xí)模型,使用兩個(gè)并行的卷積神經(jīng)網(wǎng)絡(luò)來處理文本數(shù)據(jù),并在融合層利用因子分解機(jī)進(jìn)行評(píng)分預(yù)測(cè),取得了很好的結(jié)果。

        · NARRE[25]:該模型在建模時(shí)用到了評(píng)分?jǐn)?shù)據(jù)和評(píng)論文本,并在DeepCoNN的基礎(chǔ)上引入了attention機(jī)制,來識(shí)別評(píng)論的有用性,預(yù)測(cè)性能有一定的提高。

        2.4 實(shí)驗(yàn)結(jié)果分析

        使用亞馬遜數(shù)據(jù)集進(jìn)行對(duì)比實(shí)驗(yàn),在6個(gè)不同的數(shù)據(jù)集上對(duì)不同模型的性能進(jìn)行了比較,實(shí)驗(yàn)結(jié)果如表2所示。

        表2 在Amazon數(shù)據(jù)集上不同模型的結(jié)果對(duì)比(MSE)

        由上面的對(duì)比結(jié)果可以看出,基于評(píng)分的推薦模型,由于數(shù)據(jù)稀疏性問題其推薦性能要差于基于評(píng)論文本的推薦模型。融合評(píng)分矩陣和評(píng)論文本的推薦模型性能要優(yōu)于單獨(dú)采用評(píng)分?jǐn)?shù)據(jù)或者評(píng)論數(shù)據(jù)模型的推薦性能。因?yàn)樵u(píng)論能夠反映用戶的偏好,項(xiàng)目的特征,而評(píng)分?jǐn)?shù)據(jù)僅反映了用戶的偏好情況。引入文本信息能夠在一定程度上緩解數(shù)據(jù)稀疏性對(duì)性能的影響;一般情況下,基于深度學(xué)習(xí)的推薦模型在推薦性能上優(yōu)于常規(guī)的推薦模型,因?yàn)樯疃葘W(xué)習(xí)可以更好地學(xué)習(xí)特征表示。從表2結(jié)果可以看出RMRT在不同的數(shù)據(jù)集上均取得了優(yōu)于其他模型的效果。

        2.5 評(píng)分處理模塊有效性驗(yàn)證

        為了驗(yàn)證模型中利用深度學(xué)習(xí)技術(shù)對(duì)評(píng)分處理模塊的有效性,將評(píng)分部分的處理方式替換為其他模型中常用的矩陣分解,其他部分保持不變,將替換后的方法表示為RMRT-D+MF。在亞馬遜數(shù)據(jù)集上進(jìn)行對(duì)比實(shí)驗(yàn),結(jié)果如圖2所示,可以看出利用深度學(xué)習(xí)技術(shù)處理評(píng)分?jǐn)?shù)據(jù)得到了更優(yōu)的MSE值。

        圖2 評(píng)分處理模塊有效性驗(yàn)證性能比較

        3 結(jié)束語

        提出了融合評(píng)分矩陣和評(píng)論文本的深度推薦模型RMRT。該模型可以同時(shí)從評(píng)分?jǐn)?shù)據(jù)和評(píng)論文本信息中學(xué)習(xí)用戶和項(xiàng)目的特征。在處理評(píng)分矩陣時(shí)利用深度學(xué)習(xí)算法進(jìn)行深度特征學(xué)習(xí),提取用戶和項(xiàng)目的特征表示,將其和評(píng)論信息中提取的特征進(jìn)行融合。對(duì)比實(shí)驗(yàn)結(jié)果表明,文中提出的方法在不同的數(shù)據(jù)集上均取得了優(yōu)于其他模型的效果,因此提取深度特征能夠在一定程度上提高預(yù)測(cè)的準(zhǔn)確性。

        文中工作主要關(guān)注的是評(píng)分?jǐn)?shù)據(jù)和評(píng)論文本信息的特征提取,沒有考慮時(shí)間因素及文本情感對(duì)推薦性能的影響,在今后的工作中將考慮引入時(shí)間變化對(duì)用戶偏好及商品特征的影響,以及潛在特征的權(quán)重和文本中的情感信息對(duì)推薦性能的提升。

        猜你喜歡
        特征文本用戶
        如何表達(dá)“特征”
        在808DA上文本顯示的改善
        不忠誠(chéng)的四個(gè)特征
        基于doc2vec和TF-IDF的相似文本識(shí)別
        電子制作(2018年18期)2018-11-14 01:48:06
        抓住特征巧觀察
        關(guān)注用戶
        商用汽車(2016年11期)2016-12-19 01:20:16
        關(guān)注用戶
        商用汽車(2016年6期)2016-06-29 09:18:54
        關(guān)注用戶
        商用汽車(2016年4期)2016-05-09 01:23:12
        文本之中·文本之外·文本之上——童話故事《坐井觀天》的教學(xué)隱喻
        如何獲取一億海外用戶
        免费va国产高清大片在线| 蜜桃视频插满18在线观看| 性人久久久久| 男人和女人做爽爽免费视频 | 国产精品福利影院| 国产特级毛片aaaaaa高清| 久久久精品人妻一区二区三区四| 亚洲熟妇少妇69| 久久精品国产屋| 亚洲不卡毛片在线观看| 国产丝袜爆操在线观看| 精品国产三级a∨在线欧美| 日日噜噜夜夜狠狠va视频| 影视先锋av资源噜噜| 国产精品23p| 亚洲一区二区三区在线中文| 精品不卡视频在线网址| 亚洲国产精品不卡av在线| 亚洲最大av网站在线观看| 欧洲人妻丰满av无码久久不卡| 欧美日韩亚洲一区二区精品| 人妻少妇精品视频中文字幕国语 | 日本高清视频www| 无码夜色一区二区三区| 亚洲一区二区三区精品网| 久久天堂av综合合色| 久久精品不卡一区二区三区| 久久久久国色av免费观看性色 | 久久99国产乱子伦精品免费| 一区二区在线亚洲av蜜桃| 麻豆精品国产免费av影片| 亚洲偷自拍国综合第一页| 国产成年无码v片在线| 日本成人一区二区三区| 日产乱码一区二区国产内射| 宅男视频一区二区三区在线观看 | 穿着白丝啪啪的av网站| 欧美日韩精品久久久久| av片在线观看免费| 久久久综合九色合综国产| 韩国日本在线观看一区二区|