亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        一種基于關(guān)節(jié)角度的步態(tài)識(shí)別新方法

        2010-04-12 00:00:00瑩,劉
        現(xiàn)代電子技術(shù) 2010年10期

        摘 要:基于行走運(yùn)動(dòng)的關(guān)節(jié)角度變化包含更豐富的個(gè)體識(shí)別信息的觀點(diǎn),提出利用下肢關(guān)節(jié)角度進(jìn)行步態(tài)識(shí)別的新方法。依據(jù)人體解剖學(xué)的先驗(yàn)知識(shí),通過對(duì)下肢運(yùn)動(dòng)分析定位盆骨、左右膝、左右踝關(guān)節(jié)點(diǎn),提取相鄰關(guān)節(jié)點(diǎn)連線與豎直線的夾角作為運(yùn)動(dòng)關(guān)節(jié)角度。識(shí)別時(shí),考慮到NN,KNN等傳統(tǒng)步態(tài)分類器分類能力較弱的缺點(diǎn),采用針對(duì)小樣本問題具有很好分類效果的支持向量機(jī)對(duì)步態(tài)特征向量進(jìn)行分類。CASIA步態(tài)數(shù)據(jù)庫上的仿真結(jié)果證明該方法具有較高的識(shí)別性能。

        關(guān)鍵詞:步態(tài)識(shí)別; 支持向量機(jī); 關(guān)節(jié)角度; 輪廓特征

        中圖分類號(hào):TP391.41 文獻(xiàn)標(biāo)識(shí)碼:A

        文章編號(hào):1004-373X(2010)10-0086-04

        Gait Recognition Based on Joint Angles

        ZENG Ying, LIU Bo

        (Eastern Science and Technology College, Hunan Agricultural University, Changsha 410128, China)

        Abstract:A gait recognition method based on joint angles is proposed according to the view point that joint angles of motion body contain richidentification information of individuals. The lower limbs, coordinates of pelvis, knee joints and ankle joints were computed with motion analysis according to the knowledge in body anatomy, The included angles of lower limbs are extracted as the angle of the moving joints. Considering low classification capacity of traditional gait classifiers such as NN and KNN classifiers, the support vector machine(SVM) which has an effective classifying ability for small sample was used for the gait classification. The experimental results obtained fromCASIA gait database demonstrate that the approach has an encouraging recognition performance.

        Keywords:gait recognition; support vector machine(SVM); joint angle; silhouette feature

        0 引 言

        步態(tài)識(shí)別是一種新興的生物特征識(shí)別技術(shù),旨在通過人行走的姿勢(shì)來識(shí)別人的身份。因其具備在遠(yuǎn)距離或低視頻質(zhì)量情況下的識(shí)別潛力,且難以隱藏或偽裝,近年來引起了各國學(xué)術(shù)界的廣泛關(guān)注。

        人的步態(tài)是自身生理結(jié)構(gòu)、行為習(xí)慣、心理狀態(tài)等諸多因素在行走時(shí)的外在綜合表現(xiàn)。由于個(gè)體之間存在差異,步態(tài)亦不盡相同,故步態(tài)特征可以為人的身份識(shí)別提供獨(dú)特的線索。步態(tài)特征既包括身高、體形等基于幾何度量的特征,也包括對(duì)行為變化較敏感的運(yùn)動(dòng)學(xué)特征,如關(guān)節(jié)點(diǎn)的運(yùn)動(dòng)軌跡及位移速度、肢體關(guān)節(jié)角度等。直觀上,人類視覺對(duì)步態(tài)的識(shí)別很大程度上依賴于人體輪廓形狀隨時(shí)間的變化過程[1],因此,現(xiàn)有的步態(tài)識(shí)別方法大多基于人體輪廓特征。文獻(xiàn)[2]應(yīng)用傅里葉描述子描述人步行時(shí)的輪廓特征,利用模板匹配法獲取待測(cè)樣本與訓(xùn)練樣本的相似度,最后采用最近鄰分類器進(jìn)行決策;文獻(xiàn)[3]利用人體二值圖像的側(cè)面外輪廓寬度矢量作為步態(tài)特征,使用隱馬爾可夫模型(HMM)進(jìn)行步態(tài)識(shí)別;文獻(xiàn)[4]提出一種是基于Procrustes形狀分析的步態(tài)識(shí)別方法,利用統(tǒng)計(jì)形狀分析提取步態(tài)特征向量,分別采用最近鄰分類器、K近鄰分類器及最近標(biāo)本分類器進(jìn)行分類識(shí)別。

        上述方法經(jīng)實(shí)驗(yàn)驗(yàn)證是成功的,但存在一定不足:人體輪廓特征雖然能反映運(yùn)動(dòng)人體的形狀變化,但無法直接表達(dá)步態(tài)的運(yùn)動(dòng)特性,屬于步態(tài)的低層信息;而且人體輪廓形狀容易受服飾改變、外物遮擋等因素的影響,識(shí)別性能很不穩(wěn)定;在分類識(shí)別方面,上述方法采用的是最簡(jiǎn)單的模式分類方法,如最近鄰分類器、隱馬爾可夫模型等,其共同理論基礎(chǔ)是經(jīng)典統(tǒng)計(jì)學(xué),采用的是樣本數(shù)目趨于無窮大時(shí)的漸進(jìn)理論,但在實(shí)際問題中,研究樣本的數(shù)目是有限的,因此這些分類方法的分類效果并不十分理想。

        針對(duì)這些問題,本文使用下肢關(guān)節(jié)角度作為步態(tài)特征。下肢關(guān)節(jié)角度是重要的步態(tài)運(yùn)動(dòng)學(xué)參數(shù),能有效反映步態(tài)運(yùn)動(dòng)的細(xì)微變化,相較于人體輪廓,包含了更豐富的步態(tài)模式變化信息。在獲得了有效的特征向量之后,關(guān)鍵問題是設(shè)計(jì)具有良好分類能力的分類器。支持向量機(jī)無需先驗(yàn)知識(shí),與傳統(tǒng)的模式識(shí)別方法相比具有推廣性能強(qiáng)、能保證全局最優(yōu)等優(yōu)點(diǎn)。本文采用支持向量機(jī)與最近鄰分類原則相結(jié)合的策略進(jìn)行分類決策。

        1 步態(tài)特征提取

        1.1 步態(tài)檢測(cè)

        采用中值法[5]估計(jì)圖像序列的背景幀;然后使用背景減除法檢測(cè)圖像中的運(yùn)動(dòng)目標(biāo),并在設(shè)定的閾值下對(duì)圖像進(jìn)行二值分割。二值化后的圖像會(huì)出現(xiàn)噪聲,使用3×3的腐蝕和膨脹濾波算子去除噪聲點(diǎn),并執(zhí)行連通性分析進(jìn)一步填充小的空洞。對(duì)預(yù)處理后的二值圖像進(jìn)行邊界跟蹤,即可獲得人體外輪廓邊界線。

        1.2 下肢關(guān)節(jié)點(diǎn)定位

        在人體輪廓圖像上定義一個(gè)能包含整個(gè)人體的最小矩形框,如圖1所示,人體身高即為矩形框的寬度,記為H。根據(jù)圖2給出的解剖學(xué)中人體下肢比例關(guān)系[6],可以確定盆骨、膝、踝關(guān)節(jié)點(diǎn)的縱坐標(biāo)分別為:Y1=0.53H,Y2=0.285H,Y3=0.039H。各關(guān)節(jié)點(diǎn)橫坐標(biāo)的定位過程如下:

        (1) 盆骨關(guān)節(jié)點(diǎn):從左至右水平掃描輪廓圖像的第Y1行,記錄像素值為1的點(diǎn)的坐標(biāo)。由圖1可知,這樣的點(diǎn)有兩個(gè),分別位于盆骨點(diǎn)左右兩側(cè)的輪廓邊界線上,其橫坐標(biāo)分別記作X1L,X1R;盆骨關(guān)節(jié)點(diǎn)的橫坐標(biāo)X1可用下式計(jì)算:

        X1=X1L+(X1R-X1L)/2(1)

        (2) 膝關(guān)節(jié)點(diǎn):需要確定左、右膝關(guān)節(jié)點(diǎn)的位置。以坐標(biāo)點(diǎn)(X1,Y2)為起始位置,分別向左、右兩側(cè)水平掃描輪廓圖像的第Y2行;然后按步驟1的相同方法得到左、右膝關(guān)節(jié)點(diǎn)的橫坐標(biāo)值。

        踝關(guān)節(jié)點(diǎn) 定位方法類似于步驟(2)。

        圖1 下肢關(guān)節(jié)點(diǎn)位置

        圖2 下肢占身高的比例

        人在行走時(shí),膝、踝關(guān)節(jié)點(diǎn)在某些時(shí)刻會(huì)出現(xiàn)自遮擋現(xiàn)象,此時(shí)無法檢測(cè)出它們的位置。本文采用插值的方法獲得近似的關(guān)節(jié)點(diǎn)位置。同一步態(tài)序列中,插值公式為:

        xn+2=xn+2(xn+1-xn)(2)

        yn+2=yn+2(yn+1-yn)(3)

        式中:下標(biāo)n,n+1分別代表第n幀和第n+1幀步態(tài)圖像,第n+2幀為遮擋點(diǎn)所在的幀,(x , y)表示關(guān)節(jié)點(diǎn)的坐標(biāo)。

        1.3 關(guān)節(jié)角度獲取

        得到各關(guān)節(jié)點(diǎn)的位置后,用直線連接相鄰關(guān)節(jié)點(diǎn)以代表人體下肢,如圖1所示。下肢關(guān)節(jié)角度可以用關(guān)節(jié)點(diǎn)連線與豎直線的夾角表示。如圖3所示,設(shè)人體的左大腿、右大腿、左小腿、右小腿與豎直線的夾角分別表示為:θ1,θ2,β1,β2,使用下面的公式可以計(jì)算任意一個(gè)下肢關(guān)節(jié)角度α:

        α=tan-1[(x-x′)/(y-y′)](4)

        式中:(x,y),(x′,y′)分別表示任意兩個(gè)相鄰關(guān)節(jié)點(diǎn)的坐標(biāo)。

        圖3 下肢關(guān)節(jié)角度

        步態(tài)運(yùn)動(dòng)是一種時(shí)空相關(guān)的行為模式,有效的步態(tài)描述不僅需要包含豐富的步態(tài)空間特征,還應(yīng)描述步態(tài)隨時(shí)間的變化信息。步態(tài)的時(shí)間特性體現(xiàn)在一個(gè)步態(tài)周期內(nèi)步態(tài)的變化,因此,對(duì)每個(gè)步態(tài)序列,本文使用一個(gè)步態(tài)周期的4個(gè)關(guān)節(jié)角度變化序列作為步態(tài)特征矢量D,則D記為:

        D=[θ1(t),β1(t),θ2(t),β2(t)](5)

        2 分類識(shí)別

        2.1 支持向量機(jī)的基本原理

        支持向量機(jī)(Support Vector Machine,SVM)是一種泛化能力很強(qiáng)的分類器,建立在統(tǒng)計(jì)學(xué)習(xí)理論的VC維理論和結(jié)構(gòu)風(fēng)險(xiǎn)最小原理基礎(chǔ)上,主要用于解決小樣本、非線性及高維模式識(shí)別問題[7]。在模式識(shí)別方面,對(duì)于手寫體識(shí)別、語音識(shí)別、人臉識(shí)別等問題,SVM算法的精度已超過傳統(tǒng)學(xué)習(xí)算法。

        支持向量機(jī)理論的主要思想是尋找一個(gè)滿足分類要求的最優(yōu)分類超平面,該超平面在保證分類精度的同時(shí),能夠使超平面兩側(cè)的空白區(qū)域,即分類間隔最大化[8]。這里,最優(yōu)超平面的構(gòu)造問題實(shí)質(zhì)上是約束條件下求解一個(gè)二次規(guī)劃問題,其最優(yōu)分類函數(shù)為:

        f(x)=sgn[∑ni=1αiyiK(xi,x)+b](6)

        式中:sgn()是符號(hào)函數(shù);K(xi,x)表示核函數(shù);n為訓(xùn)練樣本的個(gè)數(shù);yi∈{-1,+1}是特征空間的類標(biāo)記;b是分類閾值。在分類函數(shù)中,某些xi對(duì)應(yīng)的αi為0,某些xi對(duì)應(yīng)的αi>0,這些具有非零值的αi對(duì)應(yīng)的向量支撐了最優(yōu)分類面,被稱為支持向量。

        對(duì)于線性問題,核函數(shù)K(xi,x)就是兩向量的點(diǎn)積運(yùn)算;對(duì)于非線性情形,由核空間理論,首先通過非線性變換將輸入空間變換到一個(gè)高維空間,然后在這個(gè)新空間中求取最優(yōu)線性分類面,而這種非線性變換是通過定義適當(dāng)?shù)暮撕瘮?shù)實(shí)現(xiàn)的。不同的核函數(shù)將形成不同的SVM算法,目前常用的核函數(shù)主要有多項(xiàng)式、徑向基函數(shù)和Sigmoid函數(shù)等[9]。

        2.2 基于支持向量機(jī)的步態(tài)識(shí)別

        SVM本質(zhì)上是一種二分類方法,而步態(tài)識(shí)別是一個(gè)典型的多分類問題,為此,本文采用“One-against-Rest”(即“一對(duì)多”)方案,通過構(gòu)造多個(gè)SVM二值分類器來達(dá)到多分類的目的。

        假設(shè)待識(shí)別的步態(tài)有m類,分別記為C1,C2,…,Cm,構(gòu)造m個(gè)SVM分類器Si (i=1,2,…,m)。對(duì)每個(gè)分類器Si,用其中的一類樣本Ci作為正樣本進(jìn)行訓(xùn)練,余下的所有樣本Sj (j≠i)作為負(fù)樣本進(jìn)行訓(xùn)練。對(duì)于正樣本,系統(tǒng)輸出+1,而負(fù)樣本輸出為-1。測(cè)試時(shí),將每個(gè)測(cè)試樣本輸入到這m個(gè)分類器中,如果只有一個(gè)分類器Si輸出為+1,則將該樣本判定為第i類;若有P(P>l)個(gè)分類器輸出為+1,再利用最近鄰分類原則,即計(jì)算測(cè)試樣本與這P個(gè)分類器所代表的訓(xùn)練樣本之間的距離,將測(cè)試樣本判別為距離最小值對(duì)應(yīng)的那個(gè)步態(tài)類別;如果所有分類器輸出都是-1,則判定本次識(shí)別錯(cuò)誤。

        3 實(shí) 驗(yàn)

        3.1 實(shí)驗(yàn)過程

        采用中科院自動(dòng)化所提供的CASIA步態(tài)數(shù)據(jù)庫檢驗(yàn)算法的有效性。步態(tài)數(shù)據(jù)集為Dataset B中0度視角下20個(gè)人的正常狀態(tài)行走序列。每人有6個(gè)步態(tài)序列,取前3個(gè)序列進(jìn)行訓(xùn)練,后3個(gè)序列用于測(cè)試。對(duì)于其他視角、其他行走狀態(tài)下的實(shí)驗(yàn),有待于進(jìn)一步的研究工作。

        首先對(duì)訓(xùn)練集中每個(gè)步態(tài)序列進(jìn)行步態(tài)檢測(cè),以獲取人體輪廓的二值圖像;然后對(duì)每幀圖像提取4個(gè)下肢關(guān)節(jié)角度,使用一個(gè)完整步態(tài)周期內(nèi)的4個(gè)角度序列構(gòu)建步態(tài)特征向量;最后用這些步態(tài)特征參數(shù)訓(xùn)練SVM分類器,采用的是多項(xiàng)式核函數(shù):

        K(x,xi)=[(xxi)+1]q,q=3(7)

        圖4顯示了同一個(gè)人不同步態(tài)序列的某下肢角度變化軌跡;圖5顯示了不同人的步態(tài)序列的某下肢角度變化軌跡。很明顯,同一個(gè)人的不同序列差別較小,不同人的序列存在很大的差別,這說明利用下肢關(guān)節(jié)角度變化信息能夠達(dá)到步態(tài)識(shí)別的目的。

        圖4 同一個(gè)體不同序列的某下肢角度變化軌跡

        圖5 不同個(gè)體的某下肢角度變化軌跡

        測(cè)試時(shí),對(duì)每個(gè)測(cè)試樣本,使用與訓(xùn)練過程相同的方法提取步態(tài)特征向量;然后用訓(xùn)練好的SVM分類器按照2.2節(jié)所述方法進(jìn)行分類決策。

        為了對(duì)不同的模式分類方法進(jìn)行比較,實(shí)驗(yàn)還分別選取最近鄰分類器(NN)和K近鄰分類器(KNN)對(duì)算法進(jìn)行驗(yàn)證。對(duì)于NN測(cè)試,每個(gè)樣本被分到離它最近鄰居所屬的類中;對(duì)于KNN測(cè)試,取K=3,即找到離測(cè)試樣本最近的三個(gè)鄰居點(diǎn),并選擇主要的類,如果沒有主要的類,就簡(jiǎn)單使用最近鄰規(guī)則。

        3.2 實(shí)驗(yàn)結(jié)果

        表1顯示了采用NN,3NN,SVM三種分類器的正確分類率(CCR)。很明顯,對(duì)于使用相同特征提取方法所獲得的樣本特征序列,采用SVM分類器的識(shí)別性能比NN分類器和3NN分類器有了大幅度提高。這表明更成熟的分類器將大大提高分類能力,也進(jìn)一步證明利用支持向量機(jī)進(jìn)行步態(tài)識(shí)別的優(yōu)越性。

        表1 采用不同分類器的識(shí)別率

        分類器CCR

        NN81.7%

        3NN86.7%

        SVM93.3%

        為了全面地報(bào)告方法的性能,實(shí)驗(yàn)還計(jì)算了在不同閾值下的錯(cuò)誤接受率(FAR)和錯(cuò)誤拒絕率(FRR),得到相應(yīng)的ROC曲線,如圖6所示。從圖中可以得到:基于NN分類器、KNN分類器、SVM分類器的ROC曲線等概率點(diǎn)ERR值分別為14%,12%,8.2%??梢奡VM分類器的校驗(yàn)性能也優(yōu)于另兩個(gè)分類器,同時(shí)也體現(xiàn)出SVM分類器所具有的良好推廣性能。

        圖6 ROC曲線

        3.3 方法比較

        目前國際上還沒有建立通用的步態(tài)測(cè)試數(shù)據(jù)庫,故使用本文的步態(tài)數(shù)據(jù)集對(duì)幾種代表性的步態(tài)識(shí)別方法進(jìn)行驗(yàn)證,所得的實(shí)驗(yàn)結(jié)果如表2所示。為了公平起見,采用與本文相同的步態(tài)檢測(cè)方法(即背景減除法)對(duì)每個(gè)步態(tài)序列進(jìn)行預(yù)處理。

        表2 不同方法的識(shí)別率

        方 法CRR

        文獻(xiàn)[2]方法76.7%

        文獻(xiàn)[4]方法83.3%

        文獻(xiàn)[10]方法88.3%

        本文方法93.3%

        通過比較可知,本方法的識(shí)別性能明顯高于其他文獻(xiàn)中的方法。這主要是因?yàn)槲墨I(xiàn)[2]、文獻(xiàn)[4]的方法是利用人體輪廓特征進(jìn)行步態(tài)識(shí)別,而本文則提取更能反映步態(tài)運(yùn)動(dòng)本質(zhì)的下肢關(guān)節(jié)角度作為步態(tài)特征,可以更有效地描述步態(tài)模式的細(xì)微變化。文獻(xiàn)[10]將腿部運(yùn)動(dòng)設(shè)定為一個(gè)鏈接的鐘擺運(yùn)動(dòng)模型,然后提取盆骨的起始位置、盆骨位移速度以及股的轉(zhuǎn)動(dòng)作為步態(tài)特征;雖然同樣利用下肢運(yùn)動(dòng)特征進(jìn)行步態(tài)識(shí)別,但在識(shí)別時(shí)采用的仍是簡(jiǎn)單的KNN分類器和NN分類器;另外,由于需要對(duì)人體運(yùn)動(dòng)建模,存在較大的計(jì)算量,不利于在實(shí)時(shí)環(huán)節(jié)進(jìn)行實(shí)時(shí)運(yùn)算。本文方法采用了具有強(qiáng)大分類能力的支持向量機(jī)進(jìn)行分類決策,故識(shí)別效果更理想;在獲取關(guān)節(jié)角度時(shí)無需建模,簡(jiǎn)單而易于實(shí)現(xiàn)。

        4 結(jié) 語

        針對(duì)現(xiàn)有步態(tài)識(shí)別方法的不足,提出一種基于下肢關(guān)節(jié)角度及支持向量機(jī)的步態(tài)識(shí)別方法。通過對(duì)步態(tài)序列圖像的運(yùn)動(dòng)分析,分別確定盆骨、左右膝、左右踝關(guān)節(jié)點(diǎn)的位置,然后提取一個(gè)步態(tài)周期的關(guān)節(jié)角度變化軌跡作為步態(tài)特征,充分體現(xiàn)了步態(tài)運(yùn)動(dòng)的時(shí)空特性。識(shí)別時(shí),采用了在小樣本問題上很有優(yōu)勢(shì)、兼顧訓(xùn)練誤差和泛化能力的支持向量機(jī),能有效克服目前常用的步態(tài)分類器的不足,獲得更好的分類效果。CASIA數(shù)據(jù)庫上的仿真結(jié)果表明,本文方法能獲得令人滿意的識(shí)別性能。

        本文方法也存在一些局限,如背景簡(jiǎn)單、視角單一、小規(guī)模的評(píng)估數(shù)據(jù)庫等,因此下一步的研究將考慮視角變化對(duì)步態(tài)識(shí)別的影響,并在大規(guī)模、復(fù)雜背景下的步態(tài)數(shù)據(jù)庫中進(jìn)行算法驗(yàn)證,以提高算法的魯棒性。

        參考文獻(xiàn)

        [1]王亮,胡為明,譚鐵牛.基于步態(tài)的身份識(shí)別[J].計(jì)算機(jī)學(xué)報(bào),2003,26(3):1-7.

        [2]COLLINS R T,GROSS R,SHI Jian-bo.Silhouette-based human identification from body shape and gait[C]//Proceedings of International Conference on Automatic Face and Gesture Recognition. Washington DC.[s.n.],2002:351-356.

        [3]KALE A,CUNTOOR N,YEGNANARAYANA B,et al.Gait analysis for human identification[C]//Proceedings of the Fourth International Conference on Audio- and Video-Based Biometric Person Authentication. Guildford.[s.n.],2003:706-714.

        [4]WANG Liang, NING Hua-zhong, HU Wei-ming, et al. Gait recognition based on procrustes shape analysis[C]//Proceedings of the Ninth IEEE International Conference on Image Processing. New York: IEEE, 2002: 22-25.

        [5]田見光,趙榮椿.步態(tài)識(shí)別綜述[J].計(jì)算機(jī)應(yīng)用研究,2005,11(5):20-23.

        [6]YOO J H,NIXON M S,HARRIS C J.Extracting human gait signatures by body segment properties[C]// Proceedings of the Fifth IEEE Southwest Symposium on Image Analysis and Interpretation.[S.l.]: IEEE, 2002: 35-39.

        [7]邊肇棋,張學(xué)工.模式識(shí)別[M].2版.北京:清華大學(xué)出版社,2000.

        [8]劉向東,陳兆乾.基于支持向量機(jī)方法的人臉識(shí)別研究[J].小型微型計(jì)算機(jī)系統(tǒng),2004,25(12):2261-2263.

        [9]柳元春,馬樹元.支持向量機(jī)研究現(xiàn)狀[J].中國圖像圖形學(xué)報(bào),2002,7(6):618-623.

        [10]CUNADO D,NIXON M,CARTER J.Automatic extraction and description of human gait models for recognition purposes[J].Computer Vision and Image Understanding,2003,90(1):1-41.

        日本人妻系列中文字幕| 国产一级特黄无码免费视频| 亚洲AV成人无码久久精品四虎| 国产三级av在线播放| 精品欧美久久99久久久另类专区| 一区二区三区四区四色av| 97超碰国产成人在线| 人妻夜夜爽天天爽三区| 中文在线√天堂| 粉嫩av一区二区在线观看| 国内精品亚洲成av人片| 亚洲国产精品无码专区影院| 亚洲成人电影在线观看精品国产| 手机av男人天堂免费网址| 久久黄色国产精品一区视频| 中文亚洲av片在线观看| 国产在视频线精品视频www666| 日韩精品中文字幕免费人妻| 亚洲色图在线免费观看视频| 国产亚洲午夜高清国产拍精品| 国产精品一区二区av片| 少妇性l交大片免费1一少| 中文在线中文a| 四房播播在线电影| 国产免费无码9191精品| 你懂的视频在线看播放| 精品国产一区二区三区av性色| 亚洲国产成人久久综合一区77 | 最近日本免费观看高清视频| 国产乱人伦真实精品视频| 久久精品亚洲一区二区三区画质| 久9re热视频这里只有精品| 91精品一区国产高清在线gif| 亚洲精品美女久久久久久久| 久久这黄色精品免费久| 九九影院理论片私人影院| 性一乱一搞一交一伦一性| 操B小视频国产| 亚洲毛片一区二区在线| 亚洲人成网站18禁止久久影院| 久久男人av资源网站无码|