亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于強(qiáng)化學(xué)習(xí)的多人姿態(tài)檢測算法優(yōu)化

        2019-04-15 06:55:26蔡哲棟
        計算機(jī)應(yīng)用與軟件 2019年4期
        關(guān)鍵詞:動作智能檢測

        黃 鐸 應(yīng) 娜 蔡哲棟

        (杭州電子科技大學(xué)通信工程學(xué)院 浙江 杭州 310018)

        0 引 言

        人體姿態(tài)檢測問題是基本的計算機(jī)視覺問題,目前已經(jīng)有很多算法對這一問題進(jìn)行了研究,并且取得了不錯的成效。

        在單人姿態(tài)檢測問題中,由于人體占據(jù)了圖片的大部分像素,所以對于檢測器而言不會有許多干擾信息。這在姿態(tài)檢測問題中是比較簡單的一個部分。一些傳統(tǒng)的方法采用了圖像結(jié)構(gòu)模型。例如,在人體姿態(tài)檢測問題中非常有效的樹模型[8]和隨機(jī)森林模型[9]。在文獻(xiàn)[10]中廣泛研究了一些基于圖像的模型,例如隨機(jī)場模型[11]和圖像依賴模型[12]。

        最近,深度學(xué)習(xí)成為了一種在模式識別方面非常有效的方法,利用深度學(xué)習(xí)的人體姿態(tài)檢測同樣取得了很好的成績。一些有代表性的方法例如深度姿態(tài)[13],基于DNN的模型[14]和基于CNN的模型[1]。

        以上所說的這些方法在人體信息足夠完整的情況下可以有很好的表現(xiàn),但是在多人姿態(tài)檢測問題中常常不會有如此精確的人體信息。

        而與單人姿態(tài)檢測問題相比,多人姿態(tài)檢測則更具有挑戰(zhàn)性(意為在單張圖片中有多個人體)。針對多人姿態(tài)檢測,目前的算法大致分為兩種。其一是使用兩步檢測框架,其二是采用肢體框架。兩步檢測框架中的第一步,是目標(biāo)檢測算法通過包圍框的方式定位出人體,第二步是分別將每個包圍框做姿態(tài)檢測。肢體框架則是獨立地檢測人體的各個部分,再把各個部分拼接起來,以形成多個人體姿態(tài)。兩種方法各有利弊,其中兩步檢測框架的檢測精度高度依賴目標(biāo)檢測算法的精度,包圍框?qū)θ梭w的契合程度會影響姿態(tài)檢測算法的精度;而肢體框架的圖片中若多個人體的距離相近,甚至互相遮擋,肢體框架的拼接工作就會變得困難。

        1 相關(guān)工作

        (1) 肢體檢測框架 肢體檢測框架有許多代表性的方法。Chen等[4]提出了一種通過圖像模型來解析被遮擋的人體的方法,該方法可以將人體的各個部分靈活組合。Gkioxari等[3]使用k-poselets來全局檢測人和預(yù)測人體姿勢,通過加權(quán)平均來預(yù)測最終的姿態(tài)。Pishchulin等[5]提出了DeepCut模型,該模型先檢測身體的每個部分,然后通過整體線性程序來標(biāo)記并且組裝這些部分,最后達(dá)到預(yù)測人體姿態(tài)的目的。Insafutdinov等[15]提出了一個更強(qiáng)的基于ResNet的肢體檢測器和一個更好的增量優(yōu)化策略[6]。

        雖然基于肢體檢測方法有良好的表現(xiàn),但是由于該方法只專注于小區(qū)域的檢測,缺少全局信息,所以該方法依舊存在精度上的缺陷。

        (2) 兩步框架 在兩步框架的研究中,幾乎都由人體檢測器和姿態(tài)檢測器兩部分組成。Pishculin等[2]采用了傳統(tǒng)圖像結(jié)構(gòu)模型進(jìn)行姿態(tài)預(yù)測。Insafutdinov等[6]則采用了相似的兩步框架,由人體檢測器Faster R-CNN[16]和姿態(tài)預(yù)測器DeeperCut構(gòu)成。他們的方法在MPII數(shù)據(jù)集上最高只能達(dá)到51.0 mAP的精度。由于計算機(jī)技術(shù)不斷發(fā)展,硬件水平快速上升的情況下,物體檢測器和單人姿態(tài)檢測器都達(dá)到了一個相當(dāng)好的水平,而兩步框架得益于兩者的先進(jìn)性,在多人體檢測問題中也取得了非常優(yōu)異的表現(xiàn)。

        但如上文所說,兩步框架中依舊存在著人體監(jiān)測框架不精確的問題,本文致力于解決這個問題,在兩步框架中加入了強(qiáng)化學(xué)習(xí)的順序決策過程,用于調(diào)整包圍框以提升算法精度。

        強(qiáng)化學(xué)習(xí)的概念從博弈論衍生而來,通過不斷的試錯學(xué)習(xí),從而找到一種最佳的解決問題的方法。強(qiáng)化學(xué)習(xí)在諸多領(lǐng)域都是非常強(qiáng)有力的工具,如在雅達(dá)利2600游戲機(jī)和AlphaGo等項目都有出色應(yīng)用。

        在目標(biāo)檢測領(lǐng)域,強(qiáng)化學(xué)習(xí)也發(fā)揮出很強(qiáng)大的作用。Juan等[17]設(shè)計了一些包圍框的動作,通過對包圍框的調(diào)整不斷接近目標(biāo),最終定位目標(biāo)。Míriam等[18]將圖片分為五個區(qū)域,挑選出目標(biāo)存在的區(qū)域后重復(fù)這一步驟,不斷聚焦目標(biāo),實現(xiàn)定位功能。

        本文采用的算法基于兩步檢測框架。如同上文所述,包圍框?qū)θ梭w的貼合程度會影響人體姿態(tài)檢測的精度,圖1通過SSD300[7]和hourglass算法[1]的結(jié)合說明了這個問題。其中,圖1(a)表示在目標(biāo)檢測步驟中被判定為正確的情況(比如交并比大于0.6),在人體姿態(tài)檢測時依然會出現(xiàn)很嚴(yán)重的錯誤。這是因為通過目標(biāo)檢測算法得到的包圍框雖然檢測到了人體,但是這些信息卻不夠精確,導(dǎo)致人體姿態(tài)檢測算法的精度受到了負(fù)面影響。

        (b) 精確的包圍框在姿態(tài)檢測上可以有很好的效果圖1 不同包圍框精度情況下的檢測效果

        為了解決人體檢測的包圍框信息不精確問題,本文算法在兩步檢測框架之間引入了強(qiáng)化學(xué)習(xí),形成基于強(qiáng)化學(xué)習(xí)的兩步檢測框架,調(diào)整包圍框使其更貼近人體,以提升精度。算法定義包圍框為智能體,建立了一個順序決策過程。智能體通過卷積網(wǎng)絡(luò)獲取圖片信息進(jìn)行包圍框的調(diào)整,下一次迭代中智能體會根據(jù)調(diào)整后的包圍框信息決定該次迭代中的動作。算法不斷重復(fù)這一過程,最終得到一個最適合人體姿態(tài)檢測的包圍框,以此來提升精度。其中,算法采用了馬爾科夫決策過程,設(shè)計了8種變形動作以及一種終止動作,如圖2所示,8種動作分別為左上角點和右下角點的上下左右平移。這8種變形動作涵蓋了包圍框所有的動作,以滿足貼近人體的需求。算法在MPII數(shù)據(jù)集上做了訓(xùn)練和驗證,結(jié)果達(dá)到了74 mAP。

        圖2 通過調(diào)整包圍框?qū)崿F(xiàn)精度的提升

        2 算法設(shè)計

        本文的算法如圖3所示,首先通過改進(jìn)的目標(biāo)檢測器SSD回歸出初步的人體包圍框,再通過深度強(qiáng)化學(xué)習(xí)網(wǎng)絡(luò)判斷包圍框是否準(zhǔn)確,并對定位的包圍框設(shè)計了8種變形操作以及一種終止動作,即采用馬爾可夫策略對其左上角與右下角坐標(biāo)進(jìn)行迭代調(diào)整,調(diào)整動作集合為兩個點的上下左右平移,從而提升精度。最后,由人體姿態(tài)檢測器對調(diào)整后的包圍框進(jìn)行姿態(tài)檢測。

        圖3 本文算法的流程圖

        2.1 人體目標(biāo)檢測器

        本文采用了兼顧精度與速度的目標(biāo)檢測算法SSD[7](Single Shot MultiBox Detector)。該算法采用VGG-16[21]作為前置網(wǎng)絡(luò),刪除了末尾的全連接層,并在卷積層后添加置信層和回歸層。SSD在網(wǎng)絡(luò)中選擇6種不同尺度的特征圖,每張?zhí)卣鲌D的每個像素點都預(yù)設(shè)了一定數(shù)量的預(yù)設(shè)框。特征圖經(jīng)過回歸層后會得到與預(yù)設(shè)框相同數(shù)量的包圍框,并且與預(yù)設(shè)框一一對應(yīng)。預(yù)設(shè)框與真實包圍框(label)進(jìn)行匹配,IOU大于0.5的定義為正樣本,其余的為負(fù)樣本。最后將與正樣本對應(yīng)的包圍框與真實值進(jìn)行l(wèi)oss計算。常用的SSD算法輸入尺度為300,但是小目標(biāo)檢測的精度不高。在本文中SSD算法的輸入尺度為512,置信層與回歸層都為7層,相比于300尺度的SSD算法,更大的輸入尺度在小目標(biāo)檢測的精度上有很大的改善。

        本文通過SSD對圖像進(jìn)行特征提取,并回歸得到目標(biāo)的包圍框坐標(biāo)。

        bbox=ConvSSD(img)

        (1)

        式中:img是輸入圖片,ConvSSD(·)是SSD算法,bbox是回歸得到的包圍框坐標(biāo)。

        2.2 基于強(qiáng)化學(xué)習(xí)的目標(biāo)精細(xì)模型

        針對目標(biāo)檢測器信息不夠精確的問題,算法定義目標(biāo)檢測器所回歸出來的包圍框為智能體,該智能體會與環(huán)境交互獲取信息,建立馬爾科夫決策過程。在每一次迭代中,智能體需要獲取信息來決定一次變形動作,在下一次的迭代中,智能體會根據(jù)上一次變性之后的信息來決定再下一次迭代的變形動作,直到確定目標(biāo)最優(yōu)或者達(dá)到限制的迭代次數(shù)為止。

        2.2.1 馬爾科夫決策過程參數(shù)

        狀態(tài)智能體迭代至當(dāng)前情況下的信息,狀態(tài)是智能體決定動作的依據(jù)。

        動作動作來自于動作空間,智能體根據(jù)當(dāng)前的狀態(tài)和之前迭代的歷史獎勵信息,選擇能達(dá)到最大化期望獎勵的動作。

        獎勵每次動作執(zhí)行后,算法計算出該狀態(tài)下執(zhí)行該動作的獎勵。獎勵代表著智能體是否正朝著最終目標(biāo)進(jìn)行動作。

        2.2.2 Q學(xué)習(xí)

        智能體獎勵的來源,動作A和狀態(tài)st,受到函數(shù)Q(st,A)控制,該函數(shù)可以通過Q學(xué)習(xí)函數(shù)進(jìn)行估計。智能體會通過函數(shù)Q(st,A)選擇可以獲得獎勵的動作。Q學(xué)習(xí)函數(shù)使用Bellman方程(式(2))不斷迭代更新動作選擇策略,其中st和A是當(dāng)前的相對應(yīng)的動作和狀態(tài),R是當(dāng)前的獎勵,maxa′Q(st′,A′)表示未來的獎勵,γ表示折扣因子。本文采用強(qiáng)化學(xué)習(xí)對Q網(wǎng)絡(luò)進(jìn)行訓(xùn)練,以使其能近似于Q函數(shù)[19]。

        Q(st,A)=R+γmaxa′Q(st′,A′)

        (2)

        2.2.3 算法模型

        當(dāng)前智能體的信息由通過不同尺度的卷積層對bbox抽取的特征所組成,如式(3)所示。算法的狀態(tài)st是由當(dāng)前智能體的信息ft和歷史動作hv所組成,如式(4)所示,其中函數(shù)Cat(·)用于將ft和hv進(jìn)行拼接。歷史動作是一個向量,向量中包含了前4次迭代中智能體發(fā)生形變而所選擇的動作,并入當(dāng)前智能體的信息將有助于在訓(xùn)練的過程中穩(wěn)定調(diào)整軌跡。算法將前4次迭代中的動作組成一個向量編入狀態(tài)中,每次迭代會有9種不同的動作提供選擇,所以一個歷史動作向量是36維的。這種類型的向量也被文獻(xiàn)[17]所采用。

        ft=Conv(bbox)

        (3)

        st=Cat(ft,hv)

        (4)

        智能體通過由卷積神經(jīng)網(wǎng)絡(luò)提取得到的特征進(jìn)行決策,選擇當(dāng)前狀態(tài)下所應(yīng)該選擇的動作,如式(5)所示,式中QNet表示深度Q網(wǎng)絡(luò)。算法設(shè)計了兩種類型的動作:一是調(diào)整動作a(·),該類型的動作會調(diào)整包圍框的形狀(式(6));二是終止動作t,該類型的動作一旦被選擇,調(diào)整過程即終止。其中的調(diào)整動作數(shù)量有8種,分別是包圍框左上角坐標(biāo)的四個方向平移,和包圍框右下角坐標(biāo)的四個方向平移。這樣設(shè)計的理由是這8種動作涵蓋包圍框的所有動作可能,相比于一般的包圍框縮放和平移的規(guī)則動作,這樣設(shè)計可以使得包圍框做出不規(guī)則的動作,更有利于使包圍框貼近人體。在迭代過程中智能體會不斷根據(jù)當(dāng)前的狀態(tài)選擇動作,每次調(diào)整包圍框后會獲得新的狀態(tài),再選擇新的動作,直到選擇為終止動作為止。

        a=QNet(st)

        (5)

        bbox′=a(bbox)

        (6)

        算法選擇由文獻(xiàn)[17]中所提出的獎勵公式作為該模型的獎勵公式。調(diào)整動作的和終止動作獎勵公式分別由式(9)和式(10)給出。因為智能體所選擇的動作會產(chǎn)生新的包圍框,人體姿態(tài)檢測器ConvHAD(·)會根據(jù)新的包圍框產(chǎn)生新的精度acc1(式(7));算法定義不加入強(qiáng)化學(xué)習(xí)的兩步框架的精度acc0作為真實值(式(8))。對于當(dāng)前的狀態(tài)st,智能體選擇的調(diào)整動作得到新狀態(tài)st′,產(chǎn)生的新精度acc1,如果大于真實值acc0,則會獲得一個獎勵(1),反之則會獲得一個懲罰(-1)。對于終止動作而言,終止時最終的新精度acc1若大于acc0,會獲得一個比較大的獎勵,反之會獲得一個大懲罰。而對于真實值大于τ的目標(biāo),算法選擇直接讓智能體選擇終止動作,獲得獎勵,這樣做可以將訓(xùn)練時間縮短,只調(diào)整精度較差的目標(biāo)。考慮原始精度,選擇τ=0.5。經(jīng)過調(diào)參,在式(10)中η=3。

        acc1=ConvHAD(bbox′)

        (7)

        acc0=ConvHAD(bbox)

        (8)

        Ra(st,st′)=sign(acc1-acc0)

        (9)

        (10)

        在本文中,采用了比較先進(jìn)的網(wǎng)絡(luò)densenet[20]作為特征提取的方法。圖4所示是深度強(qiáng)化學(xué)習(xí)網(wǎng)絡(luò)的結(jié)構(gòu)。

        (a) 模型的前置網(wǎng)絡(luò)

        (b) 深度Q網(wǎng)絡(luò)圖4 深度強(qiáng)化學(xué)習(xí)網(wǎng)絡(luò)的結(jié)構(gòu)

        在深度強(qiáng)化學(xué)習(xí)網(wǎng)絡(luò)運行前,算法先把每個包圍框裁剪好,將尺度調(diào)整為256×256,圖像不發(fā)生形變,多余的部分用0填充。算法將densenet的特征提取部分取出作為前置網(wǎng)絡(luò),將該網(wǎng)絡(luò)的輸出重置成一個1 920維的向量,與歷史動作的36維向量組成了一個新的1 956維的向量。深度Q網(wǎng)絡(luò)是由兩個全連接層組成,每層后都跟有一個ReLU激活函數(shù)和一個dropout層。最后,輸出層對應(yīng)于智能體可能選擇的動作,在本文中數(shù)量為9個。

        2.2.4 訓(xùn) 練

        ?探索-利用算法采用ε-greedy策略來訓(xùn)練深度Q網(wǎng)絡(luò)。訓(xùn)練的時候會有ε的概率隨機(jī)選擇動作,即探索過程;有1-ε的概率會通過深度Q網(wǎng)絡(luò)選擇一個動作,即利用過程。初始化ε=1,之后隨著訓(xùn)練次數(shù)增加ε會逐漸減小,直到ε=0.1為止。事實上,隨機(jī)選擇動作會導(dǎo)致智能體學(xué)習(xí)終止動作更加困難,為了使得智能體更好地學(xué)習(xí)終止動作,當(dāng)原始精度大于0.8時,算法強(qiáng)制智能體選擇終止動作。這樣可以使得訓(xùn)練的速度更快一些。由于算法一直都在做探索的過程,所以該方法不會被卡在局部最小值。

        ?訓(xùn)練參數(shù)深度Q網(wǎng)絡(luò)的初始化權(quán)重采用的是正態(tài)分布初始化,densenet則采用預(yù)訓(xùn)練權(quán)重。為了訓(xùn)練,本文采用了Adam優(yōu)化器,學(xué)習(xí)率設(shè)置為1e-6以避免梯度爆炸。本文在每個模型上訓(xùn)練50個epoch。

        ?經(jīng)驗回放上文提到,bellman方程(式(2))從(st,a,r,st′)的遷移中進(jìn)行學(xué)習(xí),這也被稱為經(jīng)驗。深度Q網(wǎng)絡(luò)中的連續(xù)經(jīng)驗是非常相關(guān)且重要的,處理不當(dāng)可能導(dǎo)致學(xué)習(xí)速率低下和學(xué)習(xí)的不穩(wěn)定,這是Q學(xué)習(xí)中的一個傳統(tǒng)性問題。算法采用了一個回放存儲器使網(wǎng)絡(luò)收斂,以解決這個問題?;胤糯鎯ζ髟诿看蔚髸占?jīng)驗保存下來,每次訓(xùn)練時會從保存在回放存儲器中的經(jīng)驗中隨機(jī)挑選一些進(jìn)行訓(xùn)練。在本文中,最大可保存的經(jīng)驗數(shù)為1 000,每次訓(xùn)練挑選的數(shù)量為100。

        ?折扣因子想要在長期的訓(xùn)練中表現(xiàn)出良好的效果,只考慮當(dāng)前的獎勵是不夠的,所以算法將未來的獎勵也加入訓(xùn)練。本文在式(3)中設(shè)置了折扣因子γ=0.90,該數(shù)值可以很好地平衡當(dāng)前的獎勵和未來的獎勵。

        2.3 姿態(tài)檢測器

        算法采用了stacked hourglass[1]模型作為人體姿態(tài)檢測器。該模型以Residual[15]模塊為基礎(chǔ),通過級聯(lián)多個Residual模塊和降采樣層來獲取不同尺度的信息,隨著階數(shù)的增加,級聯(lián)的Residual模塊的數(shù)量和特征圖尺度的跨度也會增加,最后將不同尺度的信息進(jìn)行特征融合以預(yù)測人體姿態(tài)。

        本文以256×256的圖片作為姿態(tài)檢測器的輸入,模型的階數(shù)為四,在五個不同的尺度上采集圖像特征,并且最后跳級融合。

        3 實 驗

        實驗采用的數(shù)據(jù)集有兩部分:人體檢測器所使用的數(shù)據(jù)集為VOC0712;單人姿態(tài)檢測器所采用的數(shù)據(jù)集來自MPII。目標(biāo)精細(xì)模型所采用的數(shù)據(jù)集為原始的兩步框架的結(jié)果。

        3.1 數(shù)據(jù)集

        MPII數(shù)據(jù)集包含了3 844張訓(xùn)練圖片和1 758張驗證圖片,其中1 758張驗證圖片官網(wǎng)不提供標(biāo)簽數(shù)據(jù)。在訓(xùn)練圖片中包含了28 000個左右的訓(xùn)練樣本可供單人姿態(tài)檢測器所訓(xùn)練。本次實驗采用了25 000個目標(biāo)作為訓(xùn)練樣本,3 000個目標(biāo)作為驗證樣本。

        目標(biāo)精細(xì)模型所采用的數(shù)據(jù)集測試由兩步框架的精度結(jié)果構(gòu)成的。預(yù)先將人體檢測器所檢測到的目標(biāo)一一做精度計算,保存其結(jié)果,做成一個由圖片名、包圍框、原始精度所構(gòu)成的數(shù)據(jù)集。訓(xùn)練時讀取包圍框以供調(diào)整,讀取原始精度作為真實值。

        3.2 實驗結(jié)果

        在MPII數(shù)據(jù)集上驗證了本文算法。完整的精度結(jié)果參見表1。結(jié)果的演示圖如圖5所示。結(jié)果顯示,本文算法可以以很高的精度完成多人姿態(tài)檢測任務(wù)。

        表1 在MPII數(shù)據(jù)集上的驗證結(jié)果 mAP

        圖5 效果演示圖一

        本文算法雖然在精度上有改進(jìn),但是卻存在計算量巨大的缺點。一張圖片的預(yù)測需要經(jīng)過目標(biāo)檢測器、目標(biāo)精細(xì)模型和姿態(tài)檢測器三個模型。其中,在目標(biāo)精細(xì)模型中,每迭代調(diào)整一次包圍框都需要經(jīng)歷一次網(wǎng)絡(luò)前傳,這導(dǎo)致了計算量的陡增。同時,由于一張圖片可能存在多個目標(biāo),每個目標(biāo)需要多次迭代,所以時間開銷也更大。在GTX1080TI顯卡上進(jìn)行預(yù)測,目標(biāo)檢測器與姿態(tài)檢測器構(gòu)成的兩步檢測算法單個目標(biāo)耗時120 ms;加入目標(biāo)精細(xì)模型后的基于強(qiáng)化學(xué)習(xí)的兩步檢測算法單個目標(biāo)耗時220 ms。

        同時,對于人體信息丟失嚴(yán)重的情況,檢測效果不夠理想,如圖6所示。

        圖6 效果演示圖二

        4 結(jié) 語

        本文提出了一種新的多人姿態(tài)檢測算法,在其準(zhǔn)確率方面優(yōu)于以往的兩步框架算法。算法加入了目標(biāo)精細(xì)模型,該模型可通過對包圍框的調(diào)整使得信息更加精確,使得兩步框架的精度有了一定的提升,證明該方法是可靠的。但由于它需要不斷對包圍框進(jìn)行迭代調(diào)整,對單個目標(biāo)的處理速度偏高,在GTX1080TI顯卡上達(dá)到了約160 ms。在未來的工作中,可以期待強(qiáng)化學(xué)習(xí)在更多的領(lǐng)域參與到其中去。

        猜你喜歡
        動作智能檢測
        “不等式”檢測題
        “一元一次不等式”檢測題
        “一元一次不等式組”檢測題
        智能前沿
        文苑(2018年23期)2018-12-14 01:06:06
        智能前沿
        文苑(2018年19期)2018-11-09 01:30:14
        智能前沿
        文苑(2018年17期)2018-11-09 01:29:26
        智能前沿
        文苑(2018年21期)2018-11-09 01:22:32
        動作描寫要具體
        畫動作
        動作描寫不可少
        精品久久久久久成人av| 91热这里只有精品| 亚洲另类自拍丝袜第五页| 精品午夜一区二区三区久久| 亚洲一区二区三区亚洲| 久久亚洲网站中文字幕| 视频在线观看一区二区三区| 含紧一点h边做边走动免费视频| 国产内射在线激情一区| 最新国产成人在线网站| 中文字幕亚洲中文第一| 亚洲国产女性内射第一区二区 | 琪琪色原网站在线观看 | 久久久久亚洲av片无码| 精品国产v无码大片在线观看| 国产精品女同久久免费观看 | 久久久精品视频网站在线观看| 亚洲一区二区三区影院| 国产精品_国产精品_k频道w| 国产av无码专区亚洲av手机麻豆| 亚洲精品123区在线观看| 亚洲成av在线免费不卡 | 国产av久久久久精东av| 国产精品va在线播放我和闺蜜| 亚洲国产精品综合久久20| 熟妇人妻精品一区二区视频| 18禁成人黄网站免费观看| 亚洲旡码a∨一区二区三区| 国产欧美日韩图片一区二区| 精品女同av一区二区三区| 色吧噜噜一区二区三区| 香蕉视频在线精品视频| 日韩中文字幕中文有码| 免费观看在线一区二区| 熟妇高潮一区二区三区在线观看| 无码av免费一区二区三区试看| 精品人妻少妇一区二区中文字幕| 一本色道久久88综合亚精品| 人妖一区二区三区视频| 国产精品欧美一区二区三区| 国产日韩A∨无码免费播放|