亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于姿態(tài)引導對齊網(wǎng)絡的局部行人再識別

        2020-05-18 11:08:02趙杰煜
        計算機工程 2020年5期
        關(guān)鍵詞:關(guān)鍵點模型

        鄭 燁,趙杰煜,王 翀,張 毅

        (寧波大學 信息科學與工程學院,浙江 寧波 315000)

        0 概述

        目標行人從一個相機視域離開,然后在另一個不重疊的相機視域中再次被識別,這一過程在計算機視覺領(lǐng)域稱為行人再識別(Re-ID),其是實現(xiàn)多攝像頭跟蹤的前提條件,在現(xiàn)實生活中得到廣泛應用。目前,對于行人再識別的研究主要集中于整體圖像的研究,但在現(xiàn)實場景中,由于遮擋等原因拍攝到的圖像不都是完整的圖像,也可能存在只有部分身體的局部圖像,因此需對局部行人再識別作進一步研究。

        深度卷積神經(jīng)網(wǎng)絡(Deep Convolutional Neural Network,DCNN)模型通常會將圖像縮放到固定大小作為輸入,而尺寸相同的局部圖像與整體圖像會存在嚴重的不匹配問題并對特征匹配產(chǎn)生影響。相比而言,預對齊的局部行人圖像更適合與整體圖像進行匹配。本文提出姿態(tài)引導對齊網(wǎng)絡(Pose-Guided Alignment Network,PGAN)模型,將人體先驗知識引入到對齊網(wǎng)絡中,使用空間變換生成與標準姿勢對齊的行人圖像,并在訓練階段利用姿勢信息學習空間變換器的對齊參數(shù)。

        1 相關(guān)工作

        1.1 行人再識別

        表征學習被應用于行人識別中以學習人的外貌特征。文獻[1-2]使用卷積神經(jīng)網(wǎng)絡(Convolutional Neural Network,CNN)學習全局特征。文獻[3-4]將圖像分為多個部分提取可區(qū)分的局部特征,通過圖像水平分割可有效提取變化較少的局部特征。圖片切塊是一種常見的局部特征提取方式,但其缺點在于對圖像對齊的要求較高,如果兩幅圖像沒有上下對齊,那么很可能出現(xiàn)頭和上身不對齊的現(xiàn)象,反而使得模型判斷錯誤。行人身體的不匹配問題將嚴重影響不同圖像之間的特征匹配。為應對圖像不對齊問題,研究人員將空間變換網(wǎng)絡(Spatial Transformation Network,STN)引入到再識別模型中對行人圖片進行空間變換對齊行人,還有研究人員將人體解析[5]、姿態(tài)估計方法等作為先驗知識引入到Re-ID模型中對行人圖像進行對齊。

        1.1.1 基于空間變換的行人再識別

        STN[6]是一個空間變換模塊,可以引入神經(jīng)網(wǎng)絡以提供空間變換功能,包括平移、縮放、旋轉(zhuǎn)等。STN是一個小型網(wǎng)絡,可以進行標準的反向傳播和端到端訓練,而不會顯著增加訓練過程的復雜性。STN由定位網(wǎng)、網(wǎng)格生成器和采樣器組成,定位網(wǎng)獲取輸入的特征圖并輸出變換參數(shù),網(wǎng)格生成器計算每個輸出像素的原始圖像中的位置坐標,采樣器生成采樣的輸出圖像。

        文獻[7]提出一種多尺度上下文感知網(wǎng)絡(MSCAN),通過將STN與定位損失相結(jié)合來提取可變的身體部位,從而減少背景影響并在一定程度上將行人圖像對齊,但是定位損失的中心先驗約束是基于圖像主體完整且圖像對齊的前提而提出。文獻[8]提出行人對齊網(wǎng)絡(PAN),使用STN在Re-ID深度卷積網(wǎng)絡前對齊行人圖像,但是PAN僅使用Re-ID損失對其進行訓練,圖像對齊效果較差。

        1.1.2 基于姿態(tài)估計的行人再識別

        Spindle Net[9]和GLAD[10]使用姿勢估計算法預測人體關(guān)鍵點,然后學習每個部件的特征并組合部件級的特征以形成最終描述符,以解決姿勢變化問題。姿態(tài)驅(qū)動深度卷積模型(PDC)[11]通過姿態(tài)信息裁剪身體區(qū)域,然后獲得經(jīng)過旋轉(zhuǎn)和調(diào)整大小的身體部位用于姿勢變換網(wǎng)絡對身體部位進行歸一化。文獻[12]利用姿態(tài)不變特征(PIE)作為行人描述符,利用姿勢估計定位關(guān)鍵點,將身體各部件通過仿射變化映射生成Pose Boex結(jié)構(gòu)。文獻[13]提出一個姿勢敏感的行人Re-ID模型,將關(guān)節(jié)信息和粗略方位信息引入到卷積神經(jīng)網(wǎng)絡中學習判別特征,實驗結(jié)果表明,檢測到的關(guān)節(jié)位置和拍攝視角有助于學習特征。然而這些方法都將姿勢估計直接嵌入到模型中,增加了計算成本和模型復雜度。

        1.2 局部行人再識別

        在局部行人再識別中,由于存在只有局部身體可被觀測到的局部圖像,局部圖像與整體圖像的匹配是局部行人再識別的一大難題?;瑒哟翱谄ヅ?Sliding Window Matching,SWM)[14]利用與局部圖像大小相同的滑動窗口來搜索每個整體圖像上最相似的區(qū)域,然而局部匹配的計算代價太大。文獻[15]提出一種深度空間特征重構(gòu)(Deep Spatial Feature Reconstruction,DSR)方案,使用全卷積網(wǎng)絡(Full Convolutional Network,FCN)生成具有一定大小的空間特征圖,以匹配不同大小的行人圖像。與SWM方案相比,DSR方案大幅減少了計算量。文獻[16]提出可視性局部模型(Visibility Partial Model,VPM),通過監(jiān)督學習感知區(qū)域的可見性,提取區(qū)域級特征并比較兩個圖像的共享區(qū)域。

        2 基于PGAN的局部行人再識別

        為解決遮擋和尺度變化問題,本文設計一個姿態(tài)引導對齊網(wǎng)絡來對齊局部行人,然后學習有效的特征進行行人再識別,整體框架(如圖1所示)包括以下模塊:

        1)姿態(tài)引導的空間變換(Pose-Guided Spatial Transformation,PST)模塊,其進行訓練并將整體/部分行人圖像轉(zhuǎn)換為對齊的行人圖像。該對齊方法是基于完整或部分人體姿態(tài),將人體骨骼作為先驗知識,利用姿態(tài)估計方法提取每個行人圖像的姿態(tài)信息。需要注意的是:該過程無需對每個圖像進行姿態(tài)估計,而是使用一個空間變換器來學習標準姿態(tài)和給定標準姿態(tài)之間的轉(zhuǎn)換參數(shù)。在無需顯示姿態(tài)信息的情況下,該方法是一種非常有效的推理方法。

        2)特征提取模塊(ResNet)[17],其作為特征提取器的主干模塊,提取行人圖像的全局特征。

        基于PGAN模型,局部圖像可以實現(xiàn)與整體圖像的匹配。

        圖1 姿態(tài)引導對齊網(wǎng)絡框架

        2.1 姿態(tài)引導的空間變換

        PST模塊是PGAN中的關(guān)鍵部分,利用姿態(tài)信息引導局部行人圖像進行空間變換。具體為訓練一個空間變換生成一個與目標姿態(tài)接近的對齊行人圖像,根據(jù)人體骨骼關(guān)鍵點確定損失函數(shù)。

        行人再識別通常使用二維圖像作為輸入,本文采用仿射變換來變換整體/部分行人圖像進行對齊。在PST模塊中,所有圖像被轉(zhuǎn)換成更接近標準姿態(tài)的圖像。當原始行人圖像與對應的轉(zhuǎn)換圖像分別表示為I、Ia,I、Ia中的像素可以進一步表示為p、pa,那么p、pa之間的仿射變換為:

        pa=Rp+b

        (1)

        其中,R是一個與縮放、旋轉(zhuǎn)相關(guān)的2×2參數(shù)矩陣,b是一個與平移相關(guān)的1×2參數(shù)向量。

        由定位網(wǎng)絡、網(wǎng)格生成器和采樣器組成的空間轉(zhuǎn)換網(wǎng)絡[6]在PST模塊中被用來進行仿射變換得到仿射變換后的圖像Ia。輸入為原始行人圖像I,輸出為θ,包含用于對齊的仿射變換參數(shù)。

        (2)

        其中,floc(I)表示定位網(wǎng)絡。定位網(wǎng)絡結(jié)構(gòu)如表1所示,包括兩個卷積層、兩個池化層和兩個全連接(FC)層,最后一個FC層生成仿射轉(zhuǎn)換參數(shù)θ,用于創(chuàng)建網(wǎng)格生成器中的采樣網(wǎng)格。

        表1 定位網(wǎng)絡結(jié)構(gòu)

        然后采樣器從原始行人圖像I中提取一組采樣點,并產(chǎn)生采樣輸出Ia。從仿射圖像到原始圖像的逐點變換過程如下:

        (3)

        最終得到仿射變換后的圖像Ia:

        Ia=fSTN(I)

        (4)

        其中,fSTN為空間轉(zhuǎn)換網(wǎng)絡。

        如果所有行人都有相同的姿勢和尺度,則再識別難度會大幅下降。為獲得更好的再識別性能,不同I的變換圖像Ia中的行人應具有相似的姿態(tài)和尺度,但在原始的STN中,變換參數(shù)是由網(wǎng)絡在沒有任何指導的情況下進行學習得到,換言之,其不能確保轉(zhuǎn)換后的圖像Ia具有所需屬性,例如姿態(tài)和比例。本文將關(guān)鍵點形式表示的標準姿態(tài)作為對齊目標,引導網(wǎng)絡學習本文所需的變換,關(guān)鍵點是人體骨骼關(guān)節(jié),如圖2所示,其中包括成對對稱的16個關(guān)節(jié)和單個關(guān)節(jié),共17個關(guān)節(jié)。關(guān)鍵點的定義如下:

        Kp={k0,k1,…,ki,…,kN}=

        {(x0,y0),(x1,y1),…,(xi,yi),…,(xN,yN)}

        Kvis={v0,v1,…,vi,…,vN}

        (5)

        其中,Kp、Kvis分別表示關(guān)鍵點和關(guān)鍵點可見性,(xi,yi)表示第i個關(guān)鍵點的坐標,vi表示其對應的可視分數(shù),N表示總的關(guān)鍵點個數(shù)。

        圖2 行人圖像骨骼關(guān)節(jié)關(guān)鍵點

        為評價仿射變換后的圖像Ia與標準圖像的姿態(tài)相似性,首先通過RMPE姿態(tài)估計算法[18]提取Ia中人物的關(guān)鍵點P,將這些關(guān)鍵點P與標準姿態(tài)的目標關(guān)鍵點T進行匹配,得到兩個姿態(tài)之間的相似性。然后將該相似性作為損失項來指導PGAN中轉(zhuǎn)換參數(shù)的學習過程。需要注意的是:仿射變換在學習階段可能會極大改變圖像中人物的形狀。因此,RMPE姿態(tài)估計算法可能無法檢測到Ia中的關(guān)鍵點。此外,在模型中嵌入姿態(tài)估計會大幅增加計算復雜度,因為每個訓練元中的每幅圖像都需要一個姿態(tài)估計,并且該過程不能在GPU上并行執(zhí)行。

        由此可知,Ia的姿態(tài)信息不是直接通過姿態(tài)估計得到。實際上,變換后的圖像Ia無需估計姿態(tài)關(guān)鍵點,可以利用輸入圖像I中原始關(guān)鍵點的坐標K和STN得到的變換參數(shù)θ計算得到,并且原始關(guān)鍵點只需在數(shù)據(jù)準備階段使用一次RMPE姿態(tài)估計算法。將原始圖像I及其姿態(tài)信息K作為PST模塊的輸入,通過方向定位和關(guān)鍵點計算獲得Ia中關(guān)鍵點的轉(zhuǎn)換位置P。

        (6)

        (7)

        為使輸入圖像與標準姿態(tài)對齊,關(guān)鍵點匹配損失定義為兩組關(guān)鍵點之間的L2損失之和,使Ia中每個轉(zhuǎn)換后的關(guān)鍵點與標準姿態(tài)的關(guān)鍵點之間盡可能接近。對稱的對齊損失函數(shù)LAli為:

        (8)

        其中,P和T分別表示Ia上關(guān)鍵點和目標關(guān)鍵點,kn和tn分別表示P和T的第n個關(guān)鍵點,vn表示第n個目標關(guān)鍵點的可見性分數(shù),N表示關(guān)鍵點的數(shù)量。

        如果輸入圖像是低分辨率或從側(cè)面、背面拍攝的圖像,多數(shù)姿態(tài)估計算法很難區(qū)分人體的左右部分。在這種情況下,將所有仿射變換后的關(guān)鍵點與標準姿態(tài)匹配可能會造成巨大損失,再加上對STN的不當指引,會進一步導致意外的空間變換。為解決上述問題,本文根據(jù)人體對稱性放寬約束,只選擇對稱關(guān)鍵點的中心和距離來計算損失,而忽略其他屬性。改進的對稱對齊損失函數(shù)LAli計算如下:

        LAli=MSE(Pm,Tm)+MSE(Pd,Td)

        (9)

        其中,Pm、Tm分別表示對應仿射圖像的關(guān)鍵點P和標準姿態(tài)目標關(guān)鍵點T中對稱關(guān)鍵點的中心坐標(x,y),Pd、Td分別表示P和T中對稱關(guān)鍵點的距離,kpi、kpj和kTi、kTj分別表示P和T中對稱的關(guān)鍵點對。

        PST模塊不僅可以單獨用于對齊(如圖3、圖4所示),還可以嵌入到CNN模型中進行端到端訓練。

        圖3 Market-1501訓練集對齊示例

        圖4 Market-1501測試集上的對齊結(jié)果可視化

        Fig.4 Visualization of alignment results on the Market-1501 testing set

        2.2 特征提取

        ResNet是目前使用較廣泛的CNN特征提取網(wǎng)絡,本文采用ResNet-50作為主干網(wǎng)絡,在PST模塊中提取仿射變換后圖像Ia的全局特征。

        F=fFE(Ia)

        (10)

        其中,fFE(I)是一個特征提取器。

        通常用于行人再識別的softmax損失LID和三元組損失LTri都被用來訓練本文模型,同時利用由全連接層和softmax函數(shù)組成的分類器來預測輸入行人的身份。

        PID=softmax(WTF+b)

        LID=cross-entropy(PID,y)

        (11)

        其中,PID是M個類的預測值分布,M是身份個數(shù),y是每個樣本的身份信息,Fia、Fip、Fin分別是anchor圖像、positive圖像和negative圖像特征,β是三元組損失的邊緣,在實驗中取值為0.3。

        對于整個網(wǎng)絡的訓練,本文將結(jié)合LAli、LID和LTri作為最終的損失函數(shù),如式(12)所示。通過嵌入PST模塊使得PGAN可以學習對齊特征進行匹配。

        L=λLAli+LID+LTri

        (12)

        其中,超參數(shù)λ在實驗中取值為0.1。

        3 實驗結(jié)果與分析

        3.1 數(shù)據(jù)集與測試協(xié)議

        本文模型首先在Market-1501數(shù)據(jù)集上進行訓練,然后在Partial-REID和Partial-iLIDS數(shù)據(jù)集上進行測試。在數(shù)據(jù)增強階段,隨機裁剪生成局部圖像用于訓練。

        1)Market-1501[19]包含6臺攝像機從不同視角拍攝的1 501個身份的行人圖像32 368張。在訓練集中,包含12 936張751個身份的圖像。

        2)Partial-REID[14]是一個局部行人圖像數(shù)據(jù)集,包含60個身份的600張行人圖像,每個身份有5張全身圖像和5張局部圖像。這些圖像是在某大學校園從不同視角、背景進行拍攝,并存在不同類型的遮擋情況,每個人的所有局部圖像組成Query集,而整體行人圖像用作Gallery集。

        3)Partial-iLIDS[20]是一個基于iLIDS的局部圖像數(shù)據(jù)集。Partial-iLIDS共包含238張由多個非重疊攝像機捕獲的119個身份的圖像。對于被遮擋的行人,通過剪切每個身份圖像的非遮擋區(qū)域生成局部圖像,構(gòu)建Query集,每個身份的非遮擋圖像被選擇用來構(gòu)成Gallery集。

        本文使用累積匹配曲線(Cumulative Match Characteristic,CMC)的Rank-1、Rank-3準確率作為評估指標來衡量模型性能。

        3.2 PGAN實現(xiàn)

        PGAN實現(xiàn)過程具體如下:

        1)局部圖像產(chǎn)生:由于局部行人再識別數(shù)據(jù)集只提供測試集,因此需要對某些整體數(shù)據(jù)集進行訓練。為學習部分圖像的對齊,根據(jù)給定范圍隨機裁剪圖像生成整體圖像的局部圖像,同時對輸入關(guān)鍵點做同樣處理,使其與輸入圖像一致。為平衡訓練集中整體圖像和局部圖像的數(shù)量,設置整體圖像的裁剪概率為0.5。

        2)數(shù)據(jù)增強:圖像大小調(diào)整為256像素×128像素,并將原始像素值歸一化至[0,1],然后分別減去0.485、0.456、0.406,再除以0.229、0.224、0.225,對RGB通道進行歸一化處理。在訓練階段,在水平方向隨機翻轉(zhuǎn)每個圖像,填充10個零值像素,再將其隨機裁剪成一個256像素×128像素的圖像進行數(shù)據(jù)增強。

        3)網(wǎng)絡設定:選擇Re-ID中常用的ResNet-50作為骨干網(wǎng)絡。參考文獻[21]設置,使用ImageNet上預訓練的參數(shù)初始化ResNet-50,并將最后一個卷積層的stride修改為1,將全連接層的連接數(shù)修改為M,M表示訓練數(shù)據(jù)集中的身份數(shù)。在全連接層前使用BN bottleneck,PST中STN的參數(shù)θ初始化為[1,0,0,0,1,0]。采用Adam法對模型進行優(yōu)化,共有120個訓練epoch。初始學習率設定為3.5×10-4,使用Warmup方法改變學習速率,在前10個epoch時將學習速率從3.5×10-5線性增加至3.5×10-4,然后分別在第40個epoch和第70個epoch時將學習率除以10。

        4)訓練:本文模型分為兩個訓練階段。在第一個階段使用式(9)中的對齊損失LAli在Market-1501數(shù)據(jù)集上預訓練PST模型;在第二階段利用預訓練的PST權(quán)值和ResNet-50的ImageNet上的預訓練參數(shù)初始化整個PGAN模型。

        3.3 PST結(jié)果可視化

        為驗證PST對局部圖像的對齊性,在Partial-REID和Partial-iLIDS數(shù)據(jù)集上進行實驗。PST可以學習對齊的空間變換,其在Partial-REID數(shù)據(jù)集上的結(jié)果如圖5所示,結(jié)果表明PST不僅能對整體圖像進行對齊,而且能對局部圖像進行準確對齊,驗證了PST模塊的有效性。

        圖5 Partial-REID數(shù)據(jù)集上的PST結(jié)果可視化

        3.4 在Partial-REID和Partial-iLIDS上的測試結(jié)果

        本文在Partial-REID和Partial-iLIDS數(shù)據(jù)集上進行Rank-1、Rank-3準確率實驗,結(jié)果如表2所示。

        表2 Partial-REID、Partial-iLIDS數(shù)據(jù)集上的Rank-1和Rank-3準確率

        Table 2 Accuracy of Rank-1 and Rank-3 on Partial-REID and Partial-iLIDS datasets %

        模型Partial-REID數(shù)據(jù)集 Partial-iLIDS數(shù)據(jù)集Rank-1Rank-3Rank-1Rank-3AMC+SWM[14]37.346.021.032.8DSR[15]50.770.058.867.2VPM(Bottom)[16]53.273.253.662.3VPM(Top)[16]64.383.667.276.5VPM(Bilateral)[16]67.781.965.574.8Baseline61.376.356.374.8PGAN65.078.056.374.1

        為驗證PST對局部Re-ID的識別效果,本文將PGAN與未使用PST的Baseline模型進行比較。對于局部Re-ID數(shù)據(jù)集,Baseline在Partial-REID、Partial-iLIDS數(shù)據(jù)集上分別得到61.3%、56.3%的Rank-1準確率,PGAN在Partial-REID數(shù)據(jù)集上的Rank-1準確率相比Baseline提高了3.7個百分點。PGAN相對于Baseline的優(yōu)勢在于:PST進行身體水平的對齊,以處理顯著的不對齊問題,但其在Partial-iLIDS數(shù)據(jù)集上沒有明顯的性能提升,可能的原因為Partial-iLIDS數(shù)據(jù)集中的局部圖像保留了大部分身體,其不對齊程度在CNN的處理范圍內(nèi)。

        PGAN在兩個局部數(shù)據(jù)集Partial-REID和Partial-iLIDS上與其他模型進行比較。在Partial-REID數(shù)據(jù)集上,PGAN的性能相比AMC+SWM和DSR有較大的優(yōu)勢,但與VPM相當。在Partial-iLIDS數(shù)據(jù)集上,PGAN的性能超越了AMC+SWM。由于PGAN模型嵌入了一個簡單的PST模塊進行局部圖像與整體圖像的對齊,從而提高局部圖像的識別性能。

        3.5 檢索結(jié)果可視化

        對于卷積神經(jīng)網(wǎng)絡,即使圖像中只有行人的局部身體部位但包含一些明顯特征的圖像,如黃色衣服或者偏移程度較小的圖像,其也可以學習高層特征實現(xiàn)圖像區(qū)分,然而對于沒有明顯特征、顯著不對齊的局部圖像很難與整體圖像進行匹配。圖像行人局部圖像的檢索結(jié)果如圖6所示。在圖6(a)中,Baseline無法找到匹配圖像,即匹配圖像排在第5位后,而PGAN匹配圖像排在第1位。在圖6(b)中,對于同一輸入圖像,Baseline匹配圖像排在第4位,而PGAN的匹配圖像排在第1位。實驗結(jié)果表明,局部圖像對齊對局部行人再識別具有較大作用。

        圖6 檢索結(jié)果可視化

        4 結(jié)束語

        本文提出一種用于局部行人再識別的姿態(tài)引導對齊網(wǎng)絡(PGAN)。在PGAN中,PST模塊通過姿態(tài)信息引導,可對部分行人圖像進行有效對齊,只需在數(shù)據(jù)準備階段通過姿態(tài)估計獲取訓練數(shù)據(jù)姿態(tài)信息,然后基于PST計算得到模型所需姿態(tài)信息,使得訓練過程更加高效。實驗結(jié)果表明,PGAN在局部行人再識別上取得了較好的識別效果,且在訓練階段和推論階段均未產(chǎn)生額外的計算成本與姿態(tài)信息。后續(xù)將對結(jié)合注意力機制的局部行人再識別模型進行研究,通過抑制背景等干擾信息提高局部行人再識別的準確率。

        猜你喜歡
        關(guān)鍵點模型
        一半模型
        聚焦金屬關(guān)鍵點
        肉兔育肥抓好七個關(guān)鍵點
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權(quán)M-估計的漸近分布
        豬人工授精應把握的技術(shù)關(guān)鍵點
        3D打印中的模型分割與打包
        FLUKA幾何模型到CAD幾何模型轉(zhuǎn)換方法初步研究
        醫(yī)聯(lián)體要把握三個關(guān)鍵點
        鎖定兩個關(guān)鍵點——我這樣教《送考》
        語文知識(2014年7期)2014-02-28 22:00:26
        久久一二三四区中文字幕| 久久久亚洲免费视频网| 在线视频观看国产色网| 亚洲中国精品精华液| 国产精品欧美一区二区三区不卡| 亚洲精品成人网久久久久久| 久久国产精品二区99| 网友自拍人妻一区二区三区三州| av在线入口一区二区| 丰满少妇被粗大猛烈进人高清| 熟妇人妻av无码一区二区三区| 久久成人永久免费播放| 亚洲成AV人片无码不卡| 国产三级国产精品国产专区| 国产激情自拍在线视频| 美女网站免费福利视频| 国内精品自在自线视频| 久久人妻AV无码一区二区| 国产成人高清精品亚洲一区| 午夜少妇高潮在线观看视频| 亚洲色图片区| 88国产精品视频一区二区三区| 国产v精品成人免费视频400条| 强迫人妻hd中文字幕| 国产成人av乱码在线观看| 两个人看的www高清视频中文| 久久天天躁狠狠躁夜夜2020!| 日本无吗一区二区视频| 少妇人妻中文久久综合| 在线视频观看免费视频18| 亚洲熟女网站| 日本美女性亚洲精品黄色| 成 人色 网 站 欧美大片在线观看 | 亚洲国产成人片在线观看无码| 色欲av一区二区久久精品| 97激情在线视频五月天视频| www国产亚洲精品| 亚洲国产成人va在线观看天堂| 大陆啪啪福利视频| 亚洲精品中文字幕视频色| 少妇太爽了在线观看免费视频|