亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于深度度量學(xué)習的小樣本商品圖像分類研究

        2020-11-02 06:17:12徐傳運袁含香
        關(guān)鍵詞:描述符度量類別

        徐傳運,孫 越,李 剛,袁含香

        (1.重慶理工大學(xué) 兩江人工智能學(xué)院,重慶 401135;2.重慶理工大學(xué) 計算機科學(xué)與工程學(xué)院,重慶 400054)

        深度學(xué)習現(xiàn)已經(jīng)被廣泛應(yīng)用于人工智能的眾多領(lǐng)域,自2012年以來,Krizhevsky等[1]提出的AlexNet使圖像特征提取與分類技術(shù)有了重大進步。近些年以卷積神經(jīng)網(wǎng)絡(luò)為代表的各類深度學(xué)習方法快速發(fā)展,憑借其較高的識別率與準確率,己經(jīng)逐漸取代了諸如SIFT[2](scale-invariant feature transform)、HOG 等[3](histogram of oriented gradient)人工標注特征的方法,成為了計算機視覺領(lǐng)域的標準算法。在超市、電商等應(yīng)用領(lǐng)域中,隨著人力成本的增加和人們對新技術(shù)的逐漸接受,根據(jù)圖像特征對商品進行識別與分類具有越來越重要的研究價值。梁青青等[4]于2013年開始研究貨架商品的分割與識別;趙瑩等[5]研究了基于人工特征商品圖像匹配;孫昂[6]使用改進的Alex-Net對電商網(wǎng)站多類商品圖片的分類進行研究;包青平等[7]使用了基于三重損失函數(shù)(triplet-loss)的度量學(xué)習方法對服裝圖像進行分類與檢索;胡正委等[8]基于Faster RCNN框架探究了在無邊框標定情況下訓(xùn)練商品分類并容易運用到其他數(shù)據(jù)集。在智能零售場景中,利用計算機視覺對商品進行結(jié)算是主要研究方向,曠視推出了新零售自動結(jié)算場景下的大型超市零售商品數(shù)據(jù)集RPC[9],為商品檢測、小樣本學(xué)習等研究方向提供了數(shù)據(jù)支持;Li等[10]提出了DPN網(wǎng)絡(luò),其對RPC結(jié)算圖的檢測與識別高于基線。然而另一方面,深度學(xué)習分類模型對數(shù)據(jù)極度饑渴,需要海量標記數(shù)據(jù)來達到良好效果[1,11-12],尤其在零售商品識別場景下,商品的巨量類別,與飛速迭代,使得收集大規(guī)模的標記數(shù)據(jù)困難重重。面對零售商品樣本數(shù)據(jù)嚴重不足的問題,如何使用機器學(xué)習模型在小樣本情況下進行有效學(xué)習,是實現(xiàn)零售商品分類商業(yè)化的重要研究方向。早期的小樣本學(xué)習研究主要圍繞Vapnik等[13]提出的基于支持向量機(support vector machine,SVM)的應(yīng)用,但SVM對于種類繁多的計算機視覺任務(wù)仍有局限性。進入21世紀后,李飛飛等[14]首次提出了單樣本學(xué)習(one-shot learning)概念,并首次使用貝葉斯框架實現(xiàn)了小樣本分類。2015年,Lake等[15]仍采用貝葉斯方法,并將其運用于小樣本學(xué)習問題,該算法首次在小樣本學(xué)習問題上取得超越人類的表現(xiàn),且該工作第一次提出以C-way K-shot任務(wù)作為小樣本學(xué)習評價標準,并提出小樣本學(xué)習數(shù)據(jù)集Omniglot,這些標準為后來的小樣本學(xué)習的快速發(fā)展具有重要意義。近年來隨著神經(jīng)網(wǎng)絡(luò)的興起,小樣本學(xué)習的研究在圖像領(lǐng)域有了很大進展。小樣本學(xué)習使用深度學(xué)習模型通過先驗知識約束假設(shè)空間,從模型上可分為3類[16]:①基于模型(model based);②基于度量(metric based);③基于優(yōu)化(optimization based)。基于模型的方法旨在設(shè)計一種模型結(jié)構(gòu)能夠在少量樣本上訓(xùn)練并更新參數(shù),直接建立輸入x到預(yù)測值p的映射函數(shù);基于度量的方法通過批樣本與支撐集(support set)的距離分布進行建模,使得同類樣本靠近而異類遠離,完成分類;基于優(yōu)化的方法認為傳統(tǒng)梯度下降法難以在Few-shot分類任務(wù)中擬合,通過調(diào)整優(yōu)化方法來完成小樣本分類任務(wù)。對于基于度量方法,為了避免嚴重的過擬合問題,許多研究采取了非參數(shù)化的度量方法來優(yōu)化參數(shù)。Koch等[17]最初提出了孿生網(wǎng)絡(luò)(siamese network)來識別有判別性的特征,然后再推廣到未知的類別中。隨后Vinyals等[18]為批樣本與查詢集(query set)分別構(gòu)建了不同的編碼器,提出了基于注意力與記憶的匹配網(wǎng)絡(luò)(match network)。Snell等[19]以每個類的均值作為對應(yīng)的原型表示來學(xué)習一個度量空間,提出了原型網(wǎng)絡(luò)(prototypical network)。Sung等[20]認為網(wǎng)絡(luò)不應(yīng)該只滿足單一固定的距離度量方式,而是通過訓(xùn)練一個網(wǎng)絡(luò)來學(xué)習距離度量,于是提出了關(guān)系網(wǎng)絡(luò)(relation network),并改進了損失函數(shù)。最近,Li等[21]考慮到全局特征對小樣本數(shù)據(jù)不友好,使用了局部描述符度量方法,并借鑒樸素貝葉斯最近鄰方法[22],提出了深度最近鄰網(wǎng)絡(luò)(deep nearest neighbor neural network),該網(wǎng)絡(luò)由深度嵌入模塊與圖像-類別模塊組成,其中圖像-類別模塊可由其他深度嵌入模塊替代或共同工作。Xu等[23]基于人類會通過對比來識別特定環(huán)境下的物體的特點,提出局部對比學(xué)習的思想,從對比差異特征中學(xué)習。Geng[24]提出的包含了膠囊網(wǎng)絡(luò)[25](capsuleNet)的Encoder-Induction-Relation三級框架,應(yīng)用于NLP語義分類問題。

        本文受到DN4[21]與Relation Network[20]的啟發(fā),采用深部局部描述符連接和神經(jīng)網(wǎng)絡(luò)度量,提出了小樣本學(xué)習分類模型LDR-Net。與DN4[21]采用最近鄰度量方法[22]不同的是,LDR-Net將DN4[21]中的圖像-類別模塊進行改進與擴展,使支撐集特征圖的轉(zhuǎn)置矩陣與查詢集特征圖矩陣相乘,并將結(jié)果直接作為下一個卷積神經(jīng)網(wǎng)絡(luò)的輸入。該模型在RPC超市零售商品數(shù)據(jù)集上的對比實驗結(jié)果表明,LDR-Net在商品的小樣本分類任務(wù)中的性能優(yōu)于現(xiàn)有方法。

        1 小樣本學(xué)習分類模型的改進

        1.1 問題描述

        現(xiàn)實世界中已有大量零售商品圖像數(shù)據(jù),然而商品類別迭代飛速,例如電商領(lǐng)域有大量的第三方商家商品圖片需進行類別標注。針對此問題,本文旨在設(shè)計一個基于Few-shot的圖像分類器,在訓(xùn)練數(shù)據(jù)集中學(xué)習到類別區(qū)分的元知識,再對未知的新類別進行相似度比對,從而達到對開放類別進行分類的目的。

        Few-shot任務(wù)在訓(xùn)練階段會將數(shù)據(jù)集分為多個元任務(wù)(meta-task),去學(xué)習類別變化的泛化能力,在測試階段,面對全新類別的少量樣本,無需改變已有模型,直接進行分類。其中,訓(xùn)練集包含多個類別,每個類別有多個樣本。訓(xùn)練階段每次迭代(episode)將會在訓(xùn)練集中隨機抽取C個類別,每類隨機K個樣本,總共C×K個數(shù)據(jù),構(gòu)建一個元任務(wù),作為模型的支撐集輸入,再從這C類剩余的數(shù)據(jù)中抽取一批樣本(batch)作為模型預(yù)測的對象,即要求模型從C×K個數(shù)據(jù)中學(xué)會如何區(qū)分這C個類別。這類問題被定義為C-way K-shot問題。

        每次迭代都會采樣到不同的元任務(wù),訓(xùn)練包含了大量隨機不同的類別組合,使得當?shù)螖?shù)增加時,模型能夠在不同的元任務(wù)中學(xué)習到共性部分,從而在測試中面對包含開放類別的元任務(wù)時,也能較好地分類。本文在實驗時將采用5-way 1-shot與5-way 5-shot方式,結(jié)合卷積神經(jīng)網(wǎng)絡(luò)進行訓(xùn)練和測試。

        1.2 深度局部描述符

        圖像局部描述符是計算機視覺中的一個基本研究問題,早期被使用較多的一般為手工設(shè)計的局部描述符,如SIFT。本文算法所使用的主要是基于深度特征的局部描述符。

        給定一個大小為h×w的輸入圖像,通過卷積層后輸出的特征圖可以表示成一個3維的張量T,有c×h×w個元素,從另一個角度來看,T也可以被看成擁有h×w個單元且每個單元包含一個c維的深度特征描述符。因為該描述符的感受野對應(yīng)著原圖像上的某一塊局部特征,所以將其稱之為深度局部描述符(deep local descriptor)。局部描述符如圖1所示,d(i,j)即一個深度局部描述符。

        1.3 LDR-Net網(wǎng)絡(luò)模型設(shè)計

        本 文 結(jié) 合Relation-Net[20]與DN4[21](deep nearest neighbor neural network)思想,提出了將局部描述符連接并用神經(jīng)網(wǎng)絡(luò)學(xué)習度量的方法,建立了小樣本商品圖像分類模型LDR-Net。該模型首先使用卷積神經(jīng)網(wǎng)絡(luò)構(gòu)成特征提取模型fφ來獲得高維特征,將得到的特征圖中包含所有通道的單個元素作為一個局部特征單位,即深度局部描述符。通過深度局部特征連接方式,將支撐集與查詢集生成特征圖的每個深度局部描述符各自連接,形成深度局部描述符連接空間,該空間可表示為圖片間每個局部特征的拼湊組合。最后使用度量學(xué)習網(wǎng)絡(luò)對其進行映射,提取局部不變特征,學(xué)習圖像到每個類池的相似度。

        根據(jù)人類視覺模式中同一類圖像的可交換性,一個新圖像可由同一類圖像的局部特征位置信息打亂拼湊而成,同一類的所有訓(xùn)練樣本的局部特征被收集到一個池中。此方法對于零售商品圖像有更優(yōu)秀的效果,模型如圖2所示。

        該模型由3個模塊組成:特征提取網(wǎng)絡(luò)fφ(·)-深度局部描述符連接Ψ(·)-度量學(xué)習網(wǎng)絡(luò)mΦ(·),θ為最后得到的相似度。

        式(1)中,每次迭代支撐集的樣本xi與查詢集樣本xq作為輸入數(shù)據(jù)進入特征提取網(wǎng)絡(luò)得到fφ(xi)、fφ(xq),即對應(yīng)圖2中的特征圖Fi(i=1,2,3,4,5)、Q。在C-way K-shot情形下,xi數(shù)量為c*k,xq數(shù)量為1。對fφ(xi)、fφ(xq)進行局部描述符連接處理得到Ψ(fφ(xi),fφ(xq)),再將連接后的特征圖輸入進度量學(xué)習模塊mΦ(·)。

        對于5-way 5-shot訓(xùn)練方式,本文遵循小樣本學(xué)習文獻[18-21]做法將支撐集中所有通過特征提取網(wǎng)絡(luò)fφ(·)的特征圖(feature map)直接進行按類求和,得到5個代表類別的疊加特征圖F1-F5,接下來的步驟與5-way 1-shot相同,LDR-Net網(wǎng)絡(luò)結(jié)構(gòu)如圖3所示。

        1.3.1 特征提取模型

        為了與其他方法公平比較,本文的特征提取網(wǎng)絡(luò)由之前工作[20]所采取的4層卷積塊構(gòu)成。每個卷積塊操作順序包含一個卷積層、一個批量歸一化層(batch normalization)、一個ReLU線性激活層,前3個卷積塊后各有一個2×2最大池化層(max-pooling)。

        該模塊中每個卷積塊參數(shù)相同,都使用64通道的3×3卷積核[20],步長(stride)為1,填充(padding)為0。批量歸一化層中,ε作為一個很小的常數(shù)保證公式中分母不等于0,使得數(shù)據(jù)穩(wěn)定而添加的值,默認為0.000 01,動量(momentum)同文獻[20-21]相同,設(shè)置為1。

        網(wǎng)絡(luò)輸入尺寸為84×84,輸出為64×9×9(c×h×w)。如此設(shè)置可以快速降低輸出特征圖大小,避免后續(xù)局部描述符連接生成的矩陣過大,導(dǎo)致度量學(xué)習網(wǎng)絡(luò)參數(shù)過多。這樣做也可以緩解小樣本學(xué)習中普遍存在的過擬合問題。

        1.3.2 深度局部描述符連接

        如圖2所示,支撐集與查詢集輸入圖像在經(jīng)過fφ計算后分別生成大小為c×h×w的特征圖Fi與Q,c為通道數(shù),h為特征圖高度,w為寬度。在這里將其展開為c×m(m=h×w),公式可表示如下。

        式中:D為深度局部特征表示空間;di即為第i個深度局部描述符。本文中輸入圖像大小為84×84,在這里可得到h=w=9,c=64的特征圖,經(jīng)過上述維度處理后可得到81個深度局部描述符。

        接下來對支撐集圖像和查詢集圖像進行深度局部描述符連接,通過Ψ(·)生成一個深度局部描述符連接空間L,特征連接表示如下。

        其中DFi、Dq分別為支撐集和查詢集維度處理后的深度局部特征表示空間,連接空間L維度為m×m,通道為1,空間中的每一個元素為支撐集圖像深度局部描述符轉(zhuǎn)置矩陣與查詢集圖像相應(yīng)矩陣的外積。最終查詢圖像與支撐集的所有圖像分別連接,共形成5個深度局部描述符連接空間,如圖4所示。

        連接空間L中包含了2張圖片中每兩個深度局部描述符的連接結(jié)果,以局部特征為單位展示了2張圖片之間的聯(lián)系,相比于維度疊加[20],該連接方法提供了一種更豐富的圖像到類的表示。對于空間L中豐富的特征語義表示,本文不使用傳統(tǒng)度量方式,而是嘗試使用卷積神經(jīng)網(wǎng)絡(luò)去擬合,L將作為下階段度量學(xué)習網(wǎng)絡(luò)的輸入。

        1.3.3 度量學(xué)習網(wǎng)絡(luò)

        該網(wǎng)絡(luò)將對深度局部描述符連接空間進行進一步的特征映射,提取圖像的類間局部不變特征,學(xué)習一種類間度量方式,最后對每個連接空間都生成一個相似度,分數(shù)最高者即視為同一類。在本文中,因深度局部描述符連接方式使得合成后的新特征圖尺寸增大,擁有相當于原輸入圖片尺寸甚至更大的規(guī)模,為了使網(wǎng)絡(luò)有效工作,在度量學(xué)習模塊中需要更深的網(wǎng)絡(luò)層數(shù)對其進行特征映射,使得降維映射更加平滑。

        卷積神經(jīng)網(wǎng)絡(luò)的確帶來了更豐富的度量方式,但鑒于小樣本學(xué)習極易陷入過擬合的特點,該模塊網(wǎng)絡(luò)參數(shù)量應(yīng)盡量壓縮。由此原則,最終選取了如圖3所示的網(wǎng)絡(luò)結(jié)構(gòu),該部分網(wǎng)絡(luò)由8個卷積塊、4個池化層和2個全連接層組成,卷積塊參數(shù)與fφ中相同,此結(jié)構(gòu)在最終池化操作后特征圖的感受野為76。2個全連接層分別為8維和1維,分別包含ReLU與Sigmoid激活函數(shù),使最終網(wǎng)絡(luò)輸出0到1的值。

        1.3.4 損失函數(shù)

        參考Relation-Net[20],由于使用了卷積神經(jīng)網(wǎng)絡(luò)去擬合一種度量方式,從而度量未知的類別,可以視為要解決的是回歸問題。所以本文的損失函數(shù)不采用交叉熵函數(shù),而是使用了均方誤差(mean squared error,MSE)來訓(xùn)練模型。損失函數(shù)可表示如下:

        模型預(yù)測出的相似性分數(shù)θiq,將與標簽yk(類別匹配為1,不匹配為0)比較,并累加求和得到損失值。

        2 實驗結(jié)果與分析

        2.1 數(shù)據(jù)集處理

        本文旨在研究智能零售場景下的商品圖像分類,實驗數(shù)據(jù)來自曠視科技推出的RPC[9]超市零售商品圖像數(shù)據(jù)集。RPC數(shù)據(jù)集共17個元類(如方便面、紙巾、飲料等),包含200個單類,總共圖像數(shù)量83 739張,單品圖為53 739張,結(jié)算圖30 000張。本文使用RPC單品圖作為數(shù)據(jù)集,其中單品圖包含全部類別商品圖像。考慮到元類商品間的差異性,本文在17個元類中各抽取一個單類作為驗證集val,再各抽取2個單類作為測試集test,剩余數(shù)據(jù)全部作為訓(xùn)練集train,分配結(jié)果如表1所示。

        RPC數(shù)據(jù)集對于每個單類均有約160張包含不同角度拍攝的樣本圖片。本文根據(jù)官方提供的邊框坐標數(shù)據(jù),對所有RPC單品圖進行邊框裁剪處理,圖片大小設(shè)置為84×84,處理結(jié)果如圖5所示。

        2.2 網(wǎng)絡(luò)模型實驗參數(shù)設(shè)置

        LDR-Net網(wǎng)絡(luò)模型實驗參數(shù)設(shè)置如表2所示。

        表2 實驗參數(shù)設(shè)置

        本文采取了5-way 1-shot和5-way 5-shot兩種實驗方式,LDR-Net特征提取模塊fφ使用了基于Mini-ImageNet數(shù)據(jù)集的Relation-Net特征提取模塊作為預(yù)訓(xùn)練模型,由于模型更改,度量學(xué)習模塊mФ則從零開始訓(xùn)練。根據(jù)預(yù)實驗測得學(xué)習率衰減最佳步數(shù)為50 000,相應(yīng)的訓(xùn)練次數(shù)設(shè)為300 000次,學(xué)習率、批樣本量、測試次數(shù)遵循小樣本學(xué)習文獻[19-21]設(shè)置。

        2.3 實驗結(jié)果與分析

        為了驗證本文提出的LDR-Net模型在RPC數(shù)據(jù)集上進行小樣本分類的有效性,將該模型與其他基于度量方式的Few-shot經(jīng)典模型進行對比實驗。對比模型分別為:Matching-Nets、Prototypical-Nets、Relation-Net、DN4(k=1),實驗數(shù)據(jù)集統(tǒng)一為RPC單品圖,本文將對比實驗的特征提取層統(tǒng)一修改為與LDR-Net一致。

        此外為了說明RPC數(shù)據(jù)集的基本分類性能,本文還實現(xiàn)了一個基線方法k-NN。該方法采用LDR-Net的特征提取網(wǎng)絡(luò)并額外附加3個全連接層作為分類器來訓(xùn)練RPC全部訓(xùn)練集,測試階段采用C-way K-shot方式,從上述訓(xùn)練好的網(wǎng)絡(luò)中提取倒數(shù)第2個全連接層的特征,并使用一個k-NN分類器得到最終分類結(jié)果,距離度量采用歐氏距離公式,結(jié)果如表3所示。

        表3 模型實驗結(jié)果

        表3展示了RPC數(shù)據(jù)集在各個Few-shot分類模型上訓(xùn)練得到的分類結(jié)果,表中數(shù)據(jù)表示測試集600次測試的平均精度。本文提出的LDR-Net在保留神經(jīng)網(wǎng)絡(luò)度量學(xué)習的前提下,改進了特征連接方式,引入了深度局部描述符連接,相比于DN4在1-shot與5-shot分別提升了1.98%與1.67%,驗證了深度局部描述符連接對網(wǎng)絡(luò)的分類能力有較明顯的提升。此外為了進一步研究深度局部描述符連接,在式(3)之前,本文實驗了深度局部描述符di的多種范數(shù)來生成不同的D,進而生成深度局部描述符連接空間L,并進行對比實驗。

        表4 深度局部描述符連接空間對比實驗

        表4展示了深度局部描述符di與其一范數(shù)二范數(shù)無窮范數(shù)對準確率的影響,實驗?zāi)P徒Y(jié)構(gòu)為圖3所示網(wǎng)絡(luò)結(jié)構(gòu)。無窮范數(shù)方法由于損失了大量特征信息,效果較差,原始深度局部描述符和其二范數(shù)都可得到較高精度??梢钥闯觯肷疃染植棵枋龇B接對于度量學(xué)習性能有著明顯提升。

        2.4 魯棒性分析

        為了進一步研究深度局部描述符方法在小樣本學(xué)習中的魯棒性,本文將訓(xùn)練集類別數(shù)量逐步縮減,在不同類別數(shù)量情況下分別實驗探究模型的精度變化。

        訓(xùn)練集劃分遵循包含全部17個元類的原則,實驗訓(xùn)練集組分別為17類、34類、51類、85類、119類、136類、149類,驗證集與測試集保持不變。本文分別實驗了5-way 1-shot與5-way 5-shot下LDR-Net與其他小樣本學(xué)習模型的分類效果,結(jié)果如下。

        根據(jù)圖6、圖7展示,LDR-Net在5-way 1-shot與5-way 5-shot情形下隨著訓(xùn)練類別減少,精度仍能保持在80%以上,明顯優(yōu)于Relation-Net[20],略微優(yōu)于同樣采用深度局部描述符的DN4[21],這一結(jié)果證明了對比局部特征在小樣本學(xué)習特別是商品圖像領(lǐng)域的魯棒性。

        3 結(jié)束語

        本文采用深度局部描述符連接結(jié)合神經(jīng)網(wǎng)絡(luò)度量的方法,提出了小樣本學(xué)習分類模型LDRNet,將其應(yīng)用于超市零售商品圖像分類,并進一步研究了此應(yīng)用場景下用神經(jīng)網(wǎng)絡(luò)擬合深度局部描述符連接空間的優(yōu)越性。實驗表明,LDR-Net在RPC超市零售商品數(shù)據(jù)集的表現(xiàn)優(yōu)于其他小樣本圖像分類模型,并且卷積神經(jīng)網(wǎng)絡(luò)仍有優(yōu)化空間。本文的研究為零售商品圖像分類引入一個新的思路,下一步工作重點是增強數(shù)據(jù)集,并繼續(xù)探索更高效的度量學(xué)習模塊網(wǎng)絡(luò)結(jié)構(gòu),結(jié)合小樣本學(xué)習提升對零售商品圖像的分類精度與泛化能力。

        猜你喜歡
        描述符度量類別
        有趣的度量
        模糊度量空間的強嵌入
        基于結(jié)構(gòu)信息的異源遙感圖像局部特征描述符研究
        迷向表示分為6個不可約直和的旗流形上不變愛因斯坦度量
        Linux單線程并發(fā)服務(wù)器探索
        利用CNN的無人機遙感影像特征描述符學(xué)習
        地質(zhì)異常的奇異性度量與隱伏源致礦異常識別
        服務(wù)類別
        新校長(2016年8期)2016-01-10 06:43:59
        論類別股東會
        商事法論集(2014年1期)2014-06-27 01:20:42
        中醫(yī)類別全科醫(yī)師培養(yǎng)模式的探討
        亚洲精品国偷拍自产在线麻豆| 亚洲天堂av黄色在线观看| 中国久久久一级特黄久久久| 天天做天天爱天天综合网2021| 国产一品道av在线一二三区| 国产成人AV乱码免费观看 | 手机在线播放av网址| 国产福利永久在线视频无毒不卡| 国产山东熟女48嗷嗷叫| 久久人人玩人妻潮喷内射人人| 国产91福利在线精品剧情尤物| 人妻中出精品久久久一区二| 亚洲精品av一区二区日韩| 日本精品女优一区二区三区| 国产精品_国产精品_k频道w | 国产精品一区二区久久不卡| 亚洲成av人片无码不卡播放器| 亚洲成生人免费av毛片| 精品国产一区二区三区色搞| 久久不见久久见免费影院www| 免费高清日本中文| 国产小视频一区二区三区| 亚洲天堂av福利在线| 少妇粉嫩小泬喷水视频www| 日韩AVAV天堂AV在线| 亚洲免费人成网站在线观看| av熟妇一区二区三区| 久久水蜜桃亚洲av无码精品麻豆| 国产精品每日更新在线观看| 国产精品久久av高潮呻吟| 亚洲欧美国产精品久久| 久久精品日韩av无码| 国产精品成人久久一区二区| 不卡日韩av在线播放| 亚洲日韩中文字幕一区| 欧美1区二区三区公司| 极品美女调教喷水网站| 三叶草欧洲码在线| 毛片无遮挡高清免费久久| 国产伦理一区二区久久精品| 乱色精品无码一区二区国产盗|