亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        最小熵遷移對抗散列方法

        2020-04-21 11:18:26卓君寶王樹徽黃慶明
        計算機(jī)研究與發(fā)展 2020年4期
        關(guān)鍵詞:跨域源域檢索

        卓君寶 蘇 馳 王樹徽 黃慶明

        1(智能信息處理重點(diǎn)實驗室(中國科學(xué)院計算技術(shù)研究所) 北京 100190) 2(中國科學(xué)院大學(xué)計算機(jī)科學(xué)與技術(shù)學(xué)院 北京 100049) 3(數(shù)字視頻編解碼技術(shù)國家工程實驗室(北京大學(xué)) 北京 100871)

        大數(shù)據(jù)時代的到來,網(wǎng)絡(luò)上涌現(xiàn)了大量的高維圖像數(shù)據(jù).圖像檢索越來越受到學(xué)術(shù)界和工業(yè)界的關(guān)注.隨著深度學(xué)習(xí)的普及,深度散列方法[1-7]也備受關(guān)注,其性能遠(yuǎn)遠(yuǎn)超過了傳統(tǒng)的無監(jiān)督方法[8-10]和基于淺層模型的有監(jiān)督方法[11-13].然而深度學(xué)習(xí)方法往往需要大量的標(biāo)注信息,搜集這些標(biāo)注信息往往耗費(fèi)巨大人力物力.此外,大多數(shù)現(xiàn)有的深度學(xué)習(xí)方法都基于獨(dú)立同分布的假設(shè),即訓(xùn)練集(源域)和測試集(目標(biāo)域)的分布一致.然而在現(xiàn)實應(yīng)用中,源域和目標(biāo)域往往存在較大的差異.因此利用有標(biāo)注的數(shù)據(jù)集(源域)并遷移到相關(guān)的無標(biāo)注目標(biāo)域[14-19]受到極大的關(guān)注和發(fā)展.然而在圖像檢索領(lǐng)域,跨域遷移學(xué)習(xí)的研究處于起步階段,仍待繼續(xù)研究.跨域圖像檢索的難點(diǎn)在于目標(biāo)域無標(biāo)注且與源域存在較大域間差異,這種差異往往導(dǎo)致在帶標(biāo)注源域上訓(xùn)練好的模型應(yīng)用于目標(biāo)域時檢索性能大幅度下降.如何學(xué)習(xí)具有判別力和域不變的散列碼是跨域圖像檢索的重點(diǎn).

        深度適配散列(deep adaptive hashing, DAH)[20]首次將域適配的方法應(yīng)用于跨域圖像檢索任務(wù)中,在學(xué)習(xí)散列碼的同時,DAH引入最大均值差異(maximum mean discrepancy, MMD)[14-15]來度量域間差異,通過最小化MMD來學(xué)習(xí)域不變的散列碼.此后遷移對抗散列(transfer adversarial hashing, TAH)[21]提出將跨域識別中經(jīng)典的域?qū)咕W(wǎng)絡(luò)[19]應(yīng)用到跨域圖像檢索中.TAH通過引入一個域分類器來判別源域和目標(biāo)域的分布是否一致,采用對抗思想促使所學(xué)的源域與目標(biāo)域散列碼分布趨于一致,進(jìn)而學(xué)習(xí)到域不變的散列碼,取得了當(dāng)前最好檢索性能.

        然而現(xiàn)有深度跨域圖像檢索方法仍然存在2個問題:1)在學(xué)習(xí)散列碼時,標(biāo)注信息僅僅被用于構(gòu)建2個樣本是否相似的監(jiān)督信息去指導(dǎo)網(wǎng)絡(luò)的學(xué)習(xí),忽略了標(biāo)注信息的語義信息.這使得所學(xué)的散列碼的判別力不足,造成檢索性能的瓶頸.2)現(xiàn)有的分布對齊方法學(xué)習(xí)域不變特征的能力仍然不足,使得將源域?qū)W習(xí)得到的散列函數(shù)應(yīng)用于目標(biāo)域時性能仍然有較大下降.

        針對上面2個問題,我們提出語義保持模塊和最小熵?fù)p失來改進(jìn)現(xiàn)有深度跨域圖像檢索方法.首先,我們在散列特征后再引入一個分類子網(wǎng)絡(luò),通過源域的標(biāo)注信息來訓(xùn)練該分類子網(wǎng)絡(luò)并將語義信息反傳給生成散列特征的子網(wǎng)絡(luò),有效保持了散列碼的判別力.此外,在目標(biāo)域上,由于沒有語義標(biāo)注信息,無法像源域那樣引入監(jiān)督信息.因此我們引入最小化目標(biāo)域樣本的類別響應(yīng)分布的熵來促使目標(biāo)域樣本的類別響應(yīng)能夠集中在某個類別上.最小熵?fù)p失有效增強(qiáng)了散列碼的泛化能力.

        基于TAH模型以及我們所提的語義保持和最小熵?fù)p失,我們構(gòu)建了一個新的可端到端訓(xùn)練的跨域圖像檢索網(wǎng)絡(luò).由于語義保持采用的多類別的交叉熵?fù)p失也是一種熵,因此我們稱所提的模型為最小熵遷移對抗散列(min-entropy transfer adversarial hashing, METAH).我們在2個數(shù)據(jù)集上進(jìn)行了大量實驗,與領(lǐng)域內(nèi)現(xiàn)有主要模型進(jìn)行了詳盡的對比,實驗證明了所提模型取得了更優(yōu)的性能,證明了所提語義保持模塊和最小熵?fù)p失的有效性.

        1 相關(guān)工作

        跟我們工作相關(guān)的2個任務(wù)分別是跨域識別和基于散列的圖像檢索.我們將從這2個任務(wù)進(jìn)行相關(guān)工作的闡述.

        1.1 跨域識別

        跨域識別又稱為域適配(domain adaptation, DA),跨域識別已經(jīng)得到很大的發(fā)展,這里我們只回顧和我們方法比較相關(guān)的深度域適配方法.

        深度域混淆網(wǎng)絡(luò)(deep domain confusion, DDC)[14]基于AlexNet架構(gòu),其在fc7層上使用單核的MMD來度量域間的差異,通過最小化MMD來使域間差異減小從而學(xué)到域不變的特征.深度適配網(wǎng)絡(luò)(deep adaptation network, DAN)[15]則在多個全連接層上使用多核的MMD來度量域間差異,進(jìn)一步加強(qiáng)特征遷移能力.深度相關(guān)對齊(deep correlation alignment, DCORAL)[17]和深度無監(jiān)督卷積域適配(deep unsupervised convolutional domain adaptation, DUCDA)[16]則用源域特征協(xié)方差和目標(biāo)域特征協(xié)方差之間的差值矩陣范數(shù)來度量域間差異,從而減小深度網(wǎng)絡(luò)的特征分布距離以學(xué)習(xí)域不變的特征.群體匹配差異(population matching discrepancy, PMD)[22]則是對源域和目標(biāo)域間的樣本計算最優(yōu)匹配,將匹配的樣本對間的距離進(jìn)行累加來表征域間差異,通過最小化PMD來學(xué)習(xí)域不變的特征.

        生成對抗網(wǎng)絡(luò)(generative adversarial network, GAN)[23]的提出讓基于特征的跨域遷移方法又有了新的突破.域?qū)咕W(wǎng)絡(luò)[19]、對抗判別域適配(adver-sarial discriminative domain adaptation, ADDA)[24],和條件對抗域適配(conditional adversarial domain adaptation, CADA)[25],都是利用對抗思想將目標(biāo)域特征空間向源域特征空間靠近,從而讓目標(biāo)域的特征可以適配源域的特征分類器.

        1.2 散列方法

        散列方法是經(jīng)典的研究方向,主要包括無監(jiān)督散列[8-10]和有監(jiān)督散列[1-7,11-13].這里只回顧和我們的方法比較相關(guān)的有監(jiān)督深度散列方法.

        卷積神經(jīng)網(wǎng)絡(luò)散列(convolutional neural network hashing, CNNH)[4]采用2階段策略:1)先學(xué)散列碼;2)學(xué)習(xí)一個深度網(wǎng)絡(luò)將圖像映射到所學(xué)的散列碼.深度神經(jīng)網(wǎng)絡(luò)散列(deep neural network hashing, DNNH)[5]改進(jìn)了CNNH,不采用2階段訓(xùn)練策略而是同時學(xué)習(xí)圖像特征和散列函數(shù),這種端到端訓(xùn)練方式能夠更加充分利用深度網(wǎng)絡(luò)的特征學(xué)習(xí)和函數(shù)擬合能力.深度散列網(wǎng)絡(luò)(deep hashing network, DHN)[6]進(jìn)一步優(yōu)化DNNH,通過引入交叉熵?fù)p失和量化損失來保持相似度和約束量化誤差.散列網(wǎng)絡(luò)(HashNet)[7]則解決了符號函數(shù)的病態(tài)梯度問題,直接優(yōu)化符號函數(shù),HashNet是單域圖像檢索最好的方法.深度語義排序散列(deep semantic ranking hashing, DSRH)[26]則考慮了多標(biāo)簽圖像間的語義相似度.

        2 最小熵遷移對抗散列方法

        2.1 模型框架

        如圖1所示,我們的模型采用孿生網(wǎng)絡(luò)結(jié)構(gòu),且上下2個子網(wǎng)絡(luò)權(quán)值共享.子網(wǎng)絡(luò)基于AlexNet,該網(wǎng)絡(luò)由conv1~conv5共5層卷積層和fc6~fc8共3層全連接層構(gòu)成.我們用1個輸出為b的全連接層fchashing替換fc8用于學(xué)習(xí)散列函數(shù)f.由于fchashing難以學(xué)習(xí)到離散的輸出,因此我們對其放寬了限制,即約束fchashing輸出[-1,1]的連續(xù)值.為了能將所學(xué)的散列函數(shù)泛化到目標(biāo)域,我們在fchashing后經(jīng)過梯度取反層(圖1中2個沙漏所表示),之后引入1個域分類器ad_net.該域分類器的作用在于促使fchashing學(xué)到域不變的散列特征.此外,為了更好地保持散列碼的語義信息,我們在fchashing后增加語義保持模塊,這里我們用1層全連接層fccls來構(gòu)建語義保持模塊,它將散列碼映射到類別空間.我們稱所提方法為最小熵遷移對抗散列(METAH).

        Fig. 1 Framework of the proposed method圖1 所提方法的結(jié)構(gòu)圖

        2.2 學(xué)習(xí)散列函數(shù)

        我們采用經(jīng)典的最大后驗估計(maximum a posterior, MAP)來使得所學(xué)的散列函數(shù)能夠保持成對樣本間的相似度或不相似度.

        (1)

        (2)

        (3)

        將式(2)和式(3)代入最大后驗估計式(1)可以得到以下?lián)p失:

        (4)

        (5)

        其中,1=(1,1,…,1)是全為1的b維向量,|·|是絕對值函數(shù),即將輸入向量的每個元素取絕對值.

        2.3 對抗分布對齊

        在跨域圖像檢索中,由于源域和目標(biāo)域存在較大分布差異,且目標(biāo)域沒有標(biāo)注信息,將源域訓(xùn)練好的模型應(yīng)用于目標(biāo)域時會造成性能大幅下降.因此我們需要在學(xué)習(xí)散列碼的同時縮小域間差異,使得所學(xué)習(xí)的散列碼是域不變的.

        域?qū)咕W(wǎng)絡(luò)[19]是一個典型的域分布對齊方法,發(fā)展至今,域?qū)狗椒ň哂辛己玫睦碚摫WC且在跨域識別達(dá)到較優(yōu)的性能.本文也采用域?qū)顾枷雭頊p小域間差異.域?qū)顾枷胧且胍粋€域分類器,其作用是區(qū)分樣本特征來自源域還是目標(biāo)域.由于我們訓(xùn)練時知道樣本來自于源域或目標(biāo)域,域分類器可以通過這種標(biāo)注來訓(xùn)練,即最小化二分類交叉熵?fù)p失.而另一方面,我們希望所學(xué)到的特征是域分類器區(qū)分不開的,即最大化二分類交叉熵?fù)p失.從分布擬合的角度來看,域分類器用于區(qū)分2個域的分布,而特征生成器則拉近2個域的分布,進(jìn)而減小域間差異.

        記GF為散列特征生成器即conv1~conv5,fc6~fc7,fchashing所組成的子網(wǎng)絡(luò),其可訓(xùn)練參數(shù)為θF.域分類器GD的可訓(xùn)練參數(shù)記為θD.則域?qū)咕W(wǎng)絡(luò)的損失為

        (6)

        式(6)是二分類的交叉熵?fù)p失.對抗學(xué)習(xí)則是尋求損失函數(shù)LD(θF,θD)的鞍點(diǎn):

        (7)

        求解式(7)需要分開優(yōu)化,且這種方式訓(xùn)練比較困難.因此我們也采用梯度取反層[19]來實現(xiàn)對抗學(xué)習(xí),具體方法是引入梯度取反層(圖1沙漏所示),操作為

        (8)

        其中,I是單位陣.梯度取反層正向計算時其輸出保持不變,而反向傳播時將原梯度取反并乘以η.

        因此,域?qū)咕W(wǎng)絡(luò)的損失為

        (9)

        2.4 語義信息保持

        (10)

        其中,〈·,·〉是內(nèi)積.引入該分類損失大大增強(qiáng)了散列特征的判別力,增強(qiáng)了模型的泛化能力.

        2.5 最小熵

        在目標(biāo)域中,一個理想的散列碼在經(jīng)過fccls后得到的分類響應(yīng)應(yīng)該集中于某一類上.由于目標(biāo)域沒有標(biāo)注,我們無法知道目標(biāo)域樣本應(yīng)該屬于哪一類,因此我們通過最小熵來促使目標(biāo)域樣本分類響應(yīng)集中于某一類上.熵的計算為

        (11)

        源域由于有標(biāo)注信息,其樣本的分類響應(yīng)往往集中在所標(biāo)注的類別上;而目標(biāo)域由于存在域間差異,其在分類響應(yīng)上往往不夠集中.最小熵能夠在語義層減小源域和目標(biāo)域的域間差異,進(jìn)而影響特征層,使得特征層的域間差異也相應(yīng)減小,即增強(qiáng)了散列碼的域不變能力具有更強(qiáng)的泛化能力.

        2.6 總損失

        綜合2.2~2.5節(jié),我們采用最終目標(biāo)損失來訓(xùn)練所提的最小熵遷移對抗散列方法:

        L=λPLP+λQLQ+λDLD+λCLC+λELE,

        (12)

        其中,λ*是一些控制各個損失間平衡的超參數(shù).

        3 實驗與結(jié)果

        我們在2個常用數(shù)據(jù)集上進(jìn)行了大量實驗,并與領(lǐng)域內(nèi)現(xiàn)有主要模型進(jìn)行了詳盡的對比.實驗證明了所提模型取得了更優(yōu)的性能.

        3.1 實驗設(shè)置與對比算法

        NUS-WIDE是一個跨模態(tài)檢索常用的數(shù)據(jù)集,其包含269 648個文本-圖像對.該數(shù)據(jù)集標(biāo)注了81個語義概念用于測試檢索算法的性能.為了公平比較,我們沿用文獻(xiàn)[5-8]的設(shè)定,只在出現(xiàn)頻率最高的21個語義概念所涵蓋的195 834張圖像上做實驗.查詢集包含2 100張圖像,訓(xùn)練集包含10 000張圖像,剩下的作為被檢索的數(shù)據(jù)庫.

        VisDA-2017是一個跨域識別常用的數(shù)據(jù)集,其包含2個域,源域由CAD模型渲染生成的12類圖像構(gòu)成,記為Syn,目標(biāo)域是在COCO上選取的相應(yīng)類別的子集,記為Real.由于該數(shù)據(jù)集域間差異比較大,我們構(gòu)建2種設(shè)定:1)查詢集和數(shù)據(jù)庫都采用Real域而帶標(biāo)注訓(xùn)練集為Syn域,記為Syn→Real;2)查詢集和數(shù)據(jù)庫都采用Syn域而帶標(biāo)注訓(xùn)練集為Real域,記為Real→Syn.

        我們在漢明距離小于2(Hamming radius 2)的檢索結(jié)果上計算平均精度均值(mean average precision, MAP)作為評測性能.對比算法包括局部敏感散列(locality sensitive hashing, LSH)[8]、譜散列(spectral hashing, SH)[9]、迭代量化(iterative quantization, ITQ)[10]等傳統(tǒng)無監(jiān)督方法;核散列(kernel supervised hashing, KSH)[12]、監(jiān)督離散散列(supervised discrete hashing, SDH)[13]等有監(jiān)督淺層模型;CNNH[4], DNNH[5],DHN[6],HashNet[7]等單域有監(jiān)督深度模型以及傳遞散列網(wǎng)絡(luò)(transi-tive hashing network, THN)[27],TAH[21]等跨模態(tài)或者跨域的有監(jiān)督深度檢索方法.為了更好地驗證和分析我們所提的語義信息保持模塊和最小熵的有效性,我們構(gòu)造了2個變體METAH-e和METAH.其中METAH-e中λE=0,即不加最小熵?fù)p失.

        為了公平比較,我們的算法也是基于在ImageNet上與訓(xùn)練好的AlexNet上.我們采用Caffe框架來微調(diào)conv1~conv5等卷積層和fc6~fc7等全連接層.此外,我們多加1層全連接層fchashing層,并在fchashing層后接2個分支:1)2層全連接層構(gòu)成的子網(wǎng)絡(luò)ad_net用于對抗學(xué)習(xí);2)1個分類全連接層fccls構(gòu)成的語義保持模塊.fchashing,ad_net,fccls等新加全連接層的學(xué)習(xí)率設(shè)置為conv1~conv5,fc6~fc7學(xué)習(xí)率的10倍.整個優(yōu)化過程采用沖量為0.9的小批量隨機(jī)梯度下降法(stochastic gradient descent, SGD).1次迭代對每個域隨機(jī)抽取64張圖像用于估計梯度.權(quán)重衰減設(shè)為0.0005.在3.3節(jié)中的梯度取反層中的參數(shù)η的更新為:η=2/(1+exp(10i)),其中i是當(dāng)前迭代的次數(shù).式(12)中的超參數(shù)設(shè)置如表1所示:

        Table 1 Values for Hyper-Parameters表1 超參數(shù)設(shè)置

        3.2 定量實驗結(jié)果

        NUS-WIDE上的平均精度均值如表2所示.我們可以看出:即使在訓(xùn)練集和測試集域間差異幾乎不存在的情況下,我們的方法也能取得最優(yōu)的結(jié)果.在散列碼的長度分別為48 b和64 b的設(shè)定中,我們的方法比TAH[21]的平均精度均值分別提高了0.086和0.087.在32 b設(shè)定中,我們的方法提升很小,原因在于32 b維度太小,模型能力較弱,不能同時學(xué)習(xí)散列碼和保持語義信息.而在48 b和64 b的設(shè)定中,語義信息保持(METAH-e)所帶來的性能提升則非常顯著.由于域間差異幾乎不存在,METAH相比于METAH-e性能提升很小甚至起負(fù)遷移的作用.

        上述現(xiàn)象符合我們的預(yù)期,因為最小熵的作用在于減小域間差異,對于域間差異幾乎不存在的設(shè)定中,強(qiáng)行減小域間差異反而會帶來反作用.

        Table 2 MAP Results Within Hamming Radius 2 on NUS-WIDE

        Notes: METAH-e is a variant of METAH withλE=0; bold values indicate the best performance; underlined values indicate the second best performance.

        VisDA-2017上Syn→Real的平均精度均值如表3所示.在散列碼的長度分別為32 b,48 b,64 b的設(shè)定中,我們的方法比TAH的平均精度均值分別提高了0.048,0.101,0.101.可以看出由于32 b維度較小,METAH的平均精度均值提升相比于48 b和64 b較小.由于該任務(wù)中源域和目標(biāo)域存在較大差異,因而我們所提的最小熵作用更加明顯.因此在32 b,48 b,64 b的設(shè)定中,METAH相比于METAH-e的平均精度均值分別提升了0.023,0.024,0.038.值得注意的是我們對不同長度的散列碼都采用同樣的超參數(shù),而TAH各個設(shè)定的超參數(shù)都是通過交叉驗證獲得的,所以METAH具有更大的潛能.

        VisDA-2017上Real→Syn的平均精度均值如表4所示.相比于最好的對比算法TAH[8],我們的方法METAH在散列碼的長度分別為32 b,48 b,64 b的設(shè)定中平均精度均值分別提高了0.001,0.008,0.071.相比于Syn→Real,在Real→Syn上METAH的提升較小,原因可能是我們使用了和Syn→Real同樣的超參數(shù)設(shè)置,即λC=0.8,λE=0.01,然而對于跨域圖像檢索的設(shè)定,目標(biāo)域是無標(biāo)注的,因此通過交叉驗證針對不同長度散列碼去搜索最優(yōu)的參數(shù)是不可取的,所以我們這里針對所有不同長度散列碼都只用一套相同的超參數(shù).此外,在散列碼的長度分別為32 b,48 b,64 b的設(shè)定中,METAH相比于METAH-e的平均精度均值分別提升了0.008,0.010,0.003.證明了所提的最小熵在減小域間差異上的有效性.

        Table 3 MAP Results Within Hamming Radius 2 on Syn→Real

        Notes: METAH-e is a variant of METAH withλE=0; bold values indicate the best performance; underlined values indicate the second best performance.

        Table 4 MAP Results Within Hamming Radius 2 on Real→Syn

        Notes: METAH-e is a variant of METAH withλE=0; bold values indicate the best performance; underlined values indicate the second best performance.

        3.3 定性實驗結(jié)果

        我們在VisDA-2017數(shù)據(jù)集上進(jìn)行了可視化實驗.在Syn→Real任務(wù)中,我們在Real域隨機(jī)選取了1個查詢,并在Real域構(gòu)成的數(shù)據(jù)庫中進(jìn)行檢索,我們列出前10的檢索結(jié)果,與TAH,METAH-e的對比結(jié)果如圖2所示.虛線框指錯誤檢索結(jié)果,實線框指正確檢索結(jié)果.可以看出METAH-e和METAH的查詢結(jié)果相比于TAH錯誤結(jié)果更少,證明了所提方法的有效性.在Real→Syn上的檢索結(jié)果如圖3所示,我們可以觀察到相似的現(xiàn)象,即METAH-e和METAH的查詢結(jié)果相比于TAH錯誤結(jié)果更少.

        Fig. 2 Examples of top 10 retrieval images and P@10 in Syn→Real圖2 在Syn→Real上前10檢索結(jié)果和P@10值

        Fig. 3 Examples of top 10 retrieval images and P@10 in Real→Syn圖3 在Real→Syn上前10檢索結(jié)果和P@10值

        4 總 結(jié)

        在本文中,我們針對現(xiàn)有深度跨域圖像檢索方法所學(xué)散列碼判別力和域不變能力不足這2個問題,提出了語義保持模塊和最小熵?fù)p失來改進(jìn)現(xiàn)有的模型.語義保持模塊能夠使所學(xué)到的散列碼包含更多的語義信息.最小熵能使目標(biāo)域樣本與源域樣本在語義空間上分布更加對齊,使得散列碼更具域不變性.大量的實驗表明我們的模型相比于領(lǐng)域內(nèi)主要模型取得了更優(yōu)的性能,驗證了所提改進(jìn)技術(shù)的有效性.

        猜你喜歡
        跨域源域檢索
        多源域適應(yīng)方法綜述
        跨域異構(gòu)體系對抗聯(lián)合仿真試驗平臺
        基于多標(biāo)簽協(xié)同學(xué)習(xí)的跨域行人重識別
        為群眾辦實事,嶗山區(qū)打出“跨域通辦”組合拳
        讀報參考(2022年1期)2022-04-25 00:01:16
        G-SRv6 Policy在跨域端到端組網(wǎng)中的應(yīng)用
        基于參數(shù)字典的多源域自適應(yīng)學(xué)習(xí)算法
        2019年第4-6期便捷檢索目錄
        專利檢索中“語義”的表現(xiàn)
        專利代理(2016年1期)2016-05-17 06:14:36
        可遷移測度準(zhǔn)則下的協(xié)變量偏移修正多源集成方法
        國際標(biāo)準(zhǔn)檢索
        亚洲乱码中文在线观看| 亚洲视频精品一区二区三区| 六月婷婷久香在线视频| 亚洲av天天做在线观看| 亚洲av永久无码国产精品久久 | 精品无码久久久久久久久粉色| 中文字幕一区二区三区四区在线| 国产高清在线精品一区αpp| 美女裸体无遮挡黄污网站| 日韩成人精品一区二区三区| 91亚洲国产成人久久精品网站| 精品国产一区二区av麻豆不卡| 久久久大少妇免费高潮特黄| 日韩在线不卡一区三区av| 欧美乱妇高清无乱码免费| 在线观看的网站| 18禁真人抽搐一进一出在线| 国产va免费精品高清在线| 熟妇五十路六十路息与子| 九九久久国产精品大片| 40分钟永久免费又黄又粗| 精品女同一区二区三区免费播放 | 成av人片一区二区久久| av黄页网国产精品大全| 吃奶摸下高潮60分钟免费视频| 亚洲a∨无码男人的天堂| 国产高潮刺激叫喊视频| 亚洲Va中文字幕久久无码一区| 日本福利视频免费久久久| 免费av一区男人的天堂| 嫩呦国产一区二区三区av| 日韩综合无码一区二区| 亚洲乱码日产精品一二三| 国产卡一卡二卡三| 丝袜足控一区二区三区| 欧美成人高清手机在线视频| 亚洲一区二区观看网站| 精品一区二区三区牛牛| 亚洲第一幕一区二区三区在线观看 | 日韩av在线不卡一二三区| 国产av在线观看一区二区三区|