亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于3D-CNN和時空注意力-卷積LSTM的抑郁癥識別研究*

        2021-05-07 11:08:46
        關鍵詞:特征信息方法

        何 浪

        (1.西安郵電大學計算機學院,陜西西安 710121;2.西安郵電大學陜西省網絡數(shù)據分析與智能處理重點實驗室,陜西 西安 710121)

        0 引 言

        近年來,情感計算領域采用信號處理、計算機視覺和機器學習等方法來分析抑郁癥患者的言語行為和非言語行為.在研究者認為:面部非言語行為的動態(tài)激活,對抑郁癥的自動估計起著非常重要的作用,而且至少有一半的非言語行為都集中在面部進行研究[1].根據觀察到的非言語行為,基于頭部姿勢、面部表情和活動等,已提出了大量的抑郁癥分析系統(tǒng)和方法[2-8].目前,基于聽覺抑郁癥識別和分析方法還存在以下問題:(1)動態(tài)序列特征的模式信息還沒有得到有效的挖掘,其能夠有助于更準確地預測抑郁癥患者的抑郁程度,提升抑郁癥的識別精度;(2)傳統(tǒng)的抑郁癥識別方法通常包括特征提取、特征聚集和回歸(或分類)3個步驟,這些步驟可逐步串聯(lián)后對抑郁癥進行評估,如何將這3個步驟集成為一個端到端的方法進行抑郁癥的估計,對于提高抑郁癥識別的精度是至關重要的.

        1 相關工作

        目前,隨著計算機視覺和人工智能的迅速發(fā)展,基于視覺抑郁癥的識別方法越來越得到國內外研究者的重視.本文進行了國內外文獻調研,國外研究顯示,抑郁癥研究由原來的手工設計特征逐步轉移到深度學習特征進行特征抽象,國內研究顯示,抑郁癥研究也大多數(shù)集中于采用深度學習方法進行特征的提取.以下分別進行總結.

        在國外,在手工設計特征方面,目前常用的是局部伽柏二值模式-三維正交平面[12-13]和局部相位量化-三維正交平面[3]等,這些特征難以獲取準確的、全局的細微面部表情信息,而且部分特征維數(shù)高、計算效率低,非常不利于構建自動化的抑郁癥識別系統(tǒng)或者框架.Al和Guo[6]提出了一種從視頻數(shù)據中估計BDI-II分數(shù)的新框架,該框架根據三維卷積神經網絡(3D convolutional neural network,C3D)自動學習人臉區(qū)域2種不同尺度的時空特征,采用遞歸神經網絡(recurrent neural network,RNN)對時空信息序列進行進一步的學習表征,通過在AVEC2013和AVEC2014上進行實驗,該方法取得優(yōu)于當前大多數(shù)方法的識別結果;Song等[7]將人類行為原語作為每幀的底層特征進行特征提取,在視頻級上,通過譜特征和譜向量來表征多尺度面部表情模式信息,使用卷積神經網絡和人工神經網絡進行抑郁癥的估計,在AVEC2013和AVEC2014上對該方法進行驗證,得到了優(yōu)于大多數(shù)方法的識別效果;Azher等[8]提出了一種新的抑郁癥估計框架,利用雙流深度時空特征從視頻數(shù)據中估計抑郁尺度,通過Inception ResNetv2網絡進行微調來提取空間信息,同時引入了一個本地卷方向數(shù)的動態(tài)特征描述符來捕捉面部運動,將本地卷方向數(shù)的動態(tài)特征描述符輸入卷積神經網絡以獲得更多的鑒別特征,利用一個多層雙向長短時記憶網絡(BiLSTM)模型,基于聚集序列中位數(shù)的方法獲取了整個視頻的全局特征表征,并在AVEC2013和AVEC2014上進行驗證,得到目前基于視頻模態(tài)的最好結果.

        在國內,Chao等[15]將語音的手工設計特征、面部圖像作為輸入,采用LSTM進行回歸預測,在AVEC2014上進行驗證,取得了優(yōu)于大多數(shù)聽視覺多模態(tài)融合的抑郁癥識別結果;Zhou等[5]提出深度回歸網絡DepressNet來學習一種帶有視覺理解的抑郁特征表示,首先采用CASIA大型人臉數(shù)據庫上預訓練一個帶有全局平均池層深度卷積神經網絡ResNet[16],然后在 AVEC2013和AVEC2014上進行微調,微調以后的DepressNet可以根據單幅圖像的抑郁癥分數(shù),生成對應的抑郁特征激活圖來識別輸入圖像的顯著性區(qū)域,結果表明,該方法顯著地提高了基于視覺的抑郁癥識別的準確率,而且眼睛附近的區(qū)域對于抑郁癥的識別起著至關重要的作用;Yang等[17]提出了深層卷積神經網絡深層神經網絡(deep convolutional neural network-deep neural network,DCNN-DNN)的框架,首先采用openSMILE工具包提取每一個樣本的全局特征向量,然后輸入到DCNN-DNN深層模型中進行二次特征抽象,最后采用隨機森林樹對正常人和抑郁癥病人進行分類,取得了優(yōu)于大多數(shù)方法的分類結果.

        2 基于3D-CNN和卷積LSTM的抑郁癥識別方法

        借鑒于深度學習的特征表征能力,為了充分表征蘊含在上下文的局部和全局時空序列信息,本文提出了基于三維卷積神經網絡(3D convolutinal neural network,3D-CNN)和時空注意力-卷積長短時記憶網絡(spatio-temporal attention based ConvLSTM,STA-ConvLSTM)的抑郁癥識別方法.該方法首先采用3D-CNN網絡來學習短時的局部時空特征,然后采用STA-ConvLSTM來抽象和表征長時的、具有注意力模式信息的全局特征表征,最后使用空間金字塔池化(spatial pyramid pooling,SPP)進行不同的特征尺度變換[9].選擇3D-CNN的原因主要是因為其具有學習和表征視頻序列的能力,在特征表示過程中避免了時域的重疊.STA-ConvLSTM模塊的優(yōu)勢在于:(1)學習一種基于時間方向的上下文注意力表示;(2)表征和建模最相關的時間動態(tài)信息.上下文的時空注意力信息通過ConvLSTM進行進一步的學習[10],能夠挖掘整個時間序列的顯式和隱式內容.

        基于3D-CNN、STA-ConvLSTM、SPP的抑郁癥識別方法如圖1所示.該方法包括:(1)使用開源框架OpenFace進行人臉檢測和對齊[18];(2)使用 3層的3D-CNN來抽象和表征短時的時空序列特征,為了避免過擬合和信息冗余,接著采用2D卷積和最大池化進行降采樣,實現(xiàn)局部短時時空信息的有效表征;(3)為了從這些局部時空特征中學習和抽象全局時空特征,對全局結構信息進行編碼,采用STAConvLSTM能夠有效地進行時空序列信息的中間抽象,從而得到一個只關注整個輸入序列中相關特征的高層語義表示;4)采用SPP進行特征的變換,利用不同的參數(shù)在固定的子區(qū)域上聚集多尺度的局部特征,得到緊致的最終特征表征;(5)通過采用MSE損失函數(shù),得到BDI-II分數(shù)的預測.

        圖1 基于3D-CNN和STA-ConvLSTM的抑郁癥識別方法

        2.1 局部時空序列特征提取

        一般來說,從圖像序列中直接提取局部時空特征,不僅能夠獲取特征的空間信息,而且考慮了動態(tài)信息的連續(xù)性.在本文中,假設全局時空特征是由局部時空和運動特征按照一定的尺度來表征.因此,設計了一種3D-CNN的體系結構,能夠從輸入的面部幀生成許多個信息通道,通過進行不同尺度的三維卷積,從而捕獲在多個相鄰幀中編碼的動態(tài)信息.基于3D卷積神經網絡的特征提取能力,設計了如圖2所示的3D卷積結構用于局部時空序列特征的提取.將面部圖像裁剪為128×128像素,采用灰度通道作為3D-CNN的輸入.為了更好擴展和應用于其他任務,視頻的序列長度是可變的.在任務中,采用25幀作為視頻子序列的長度,然后將最終的輸出輸入到STA-ConvLSTM模塊中,在連續(xù)循環(huán)的過程中,序列中的相鄰幀沒有重疊.為了抽象時空依賴信息和整個視頻序列的語義、上下文信息,3次循環(huán)的權重是彼此共享的.3D卷積塊由3層卷積級聯(lián)組成,第1層采用線性激活函數(shù),濾波器大小為5×5×5.第1個卷積層的維度為25×64×64×30,其中第一維表示時間信息(sl=25),第二維(h=64)和第三維(w=64)表示空間信息,第四維(c=30)表示通道信息.為了降低時間和空間的維度,這一層的步長設置為2,濾波器的個數(shù)為30個.為了避免過擬合和降低信息冗余,每一層都要進行丟包操作.從本質上說,丟包操作意味著以一定的概率隨機丟棄層里面一定數(shù)量的神經元(以及他們之間的連接).為了能夠加快模型訓練的收斂,每一層都要進行歸一化.對于第2和3層,采用相同的參數(shù)進行設置,區(qū)別在于濾波器大小改變?yōu)?×3×3,特征圖數(shù)目分別為60和90個.另外,ReLU函數(shù)被用作激活函數(shù).如果輸入時間步長 k1是 25×128×128×1,通過第 1個 3D卷積之后,第3個 3D卷積層的輸出是 4×16×16×90;將其輸入到2D卷積層進行下采樣,由此可以得到4×8×8×90的輸出,然后采用STA-ConvLSTM塊進行全局依賴信息的抽象和變換.通過級聯(lián)使用3D卷積塊,對連續(xù)幀之間的局部變化進行刻畫和編碼,能夠有效處理很長的輸入序列,得到緊致的特征表征.通過使用3D和2D卷積及最大池化,可以對短時時空依賴信息進行深層次的編碼和刻畫,但是在這些特征信息中間還有部分的冗余,需要進一步的抽象和表征.因此,本文提出了STA-ConvLSTM,采用軟性注意力機制進行進一步的特征學習和表征.

        圖2 表征局部變化的3D卷積塊

        2.2 全局時空序列特征提取

        對于聽視覺抑郁癥識別和分析來說,音視頻信號中含有眾多緩慢變化的、長時的特征信息,需要進行不同階段的中間處理和抽象,然后才能得到對分析抑郁癥至關重要的信息.因此,提出空間軟性注意力和時序軟性注意力模型STA-ConvLSTM的全局特征抽象方法,該方法不僅可以避免時序信息的丟失,而且可以抽象和表征整個序列全局語義信息的高層表示.

        本文提出STA-ConvLSTM進行全局時空依賴信息的抽象和表征,STA-ConvLSTM的結構如圖3所示.每個輸入 Xt的維度為 1×8×8×90,分別表示時間步長、空間維數(shù)和通道數(shù).每個ConvLSTM單元的濾波器大小為3×3,含有45個特征圖.STA-ConvLSTM實際上是由3個ConvLSTM組成,其Dropout率為65%.為了加快模型訓練的收斂,對空間注意力模塊進行了歸一化操作.空間注意力模塊和時間注意力模塊的輸出維度均為1×8×8×45,最后的輸出僅考慮最后的一個時間步,因為其是從整個序列中獲取的信息的積累,這一階段的輸出維度為1×8×8×90.

        2.2.1 空間注意力

        經由2D卷積和池化之后的4D張量維度為1×8×8×90,通過采用軟性注意力機制,空間維上被分配不同的權重,這使模型能夠自適應地將更多的注意力集中在區(qū)分性的特征上,進行抑郁癥的識別和分析.如圖3所示,空間注意力模塊由1個ConvLSTM層、2個全連接層和一個歸一化單元組成.

        圖3 STA-ConvLSTM結構

        式中αt,k是一個歸一化的注意力權重分數(shù).一系列的權重參數(shù)控制了流向主要ConvLSTM層的信息數(shù)量.在不同的空間信息中,分數(shù)越大,代表選擇的信息就越重要,為后續(xù)的進一步處理提供了強有力的特征表征.特別強調的是,空間注意力機制根據當前時間步長的所有空間特征和ConvLSTM層的隱藏變量來確定特征的重要性.一方面,隱藏層變量ht包含了過去的累積信息,能夠累積長時的動態(tài)信息;另一方面,為確定目前時間步內的所有特征的重要性提供了必要的保障.

        2.2.2 時間注意力

        對于時間序列,不同時間維度含有的信息數(shù)量通常是不相同的.只有一些關鍵的時間維包含具有鑒別性的信息,而其他維度提供上下文信息.在此基礎上,設計了一個時間注意力模塊,對不同的時間維特征進行不同的權重計算,自動進行不同程度的注意力表征.

        2.3 時空特征變換表征

        為了提高識別的準確率,通過在當前的深層網絡中尋找自然的特征表征信息,在空間和時間上捕捉到獨特的深度面部特征.由于3D卷積、2D卷積以及STA-ConvLSTM層的權重共享,本文直接處理了面部圖像位置和角度的變化.然而,由于與攝像機的距離不同和頭部姿勢的影響,圖像序列中的人臉尺寸有一定的變化,頭部姿態(tài)變化可能導致模糊效應,影響圖像的分辨率.

        為了進行尺度不變的特征表示,在STA-ConvLSTM層輸出的基礎上,利用SPP(如圖4所示)層進行多尺度特征提取.通過3D-CNN進行局部短時特征的提取和STA-ConvLSTM進行全局長時信息的進一步抽象,得到的輸出維度為 1×8×8×90,如圖 6所示,在不同的尺度上分別使用了不同的窗大小進行特征的表征,即 2×2、4×4、8×8,得到的輸出分別為1 440、360和90維,原始的特征直接展開為5 760維,將所有的特征向量串聯(lián),得到輸出向量為7 650維.SPP層是空間金字塔匹配的擴展,可將其中任意區(qū)域(子圖像)中的特征池化到一起,將圖像劃分為更加精細的層次,有效聚集重要特性.SPP層允許增加尺度不變性,并能夠降低一定的過擬合.本文采用了文獻中定義的空間金字塔核的原始加權方法,并將其與SPP相關聯(lián),其中高分辨率的特征圖比低分辨率的特征圖具有更高的權重,其時空特征的權重定義為

        圖4 SPP層結構

        式中L是全部的尺度數(shù)目,l是當前尺度;Ml是初始化的高分辨率特征圖;M0是低分辨率的特征圖.

        通過SPP層的特征尺度變換,得到7 650維的加權時空特征向量.經過前面幾步抽象得到的特征,然后通過一個全連接層進行特征的再次變換.與STA-ConvLSTM抽象得到的特征相比較,經過SPP變換后的特征表征了不同尺度的模式信息.

        3 抑郁程度估計

        本文提出的3D-CNN和STA-ConvLSTM的抑郁程度估計框架如圖5所示,通過采用3D-CNN進行局部時空特征提取,采用2D卷積進行下采樣,STAConvLSTM進行全局時空特征提取,SPP進行特征的尺度不變表示,并應用于最終抑郁程度的估計.

        圖5 抑郁程度估計

        4 實驗設置

        4.1 數(shù)據預處理

        對于AVEC2013和AVEC2014數(shù)據庫,先對視頻序列進行預處理,進行人臉檢測和對齊.對齊的面部圖像被裁剪并調整為128×128像素.由于AVEC2013和AVEC2014數(shù)據庫中實驗者的頭部擺動的幅度較大,或有的實驗者用手捂住面部、用手托著下巴和頭發(fā)覆蓋大半個面部等,為了提升最終的預測結果,需要手工檢查檢測到的人臉圖像.通過人工對每一幀人臉圖像進行檢查,如果在人臉圖像中沒有檢測到人臉,就刪除對應的幀.在AVEC2014數(shù)據庫中,99.14%的幀包含人臉圖像,而在AVEC2013數(shù)據庫中,只有95.61%的幀檢測到人臉,這是由于數(shù)據庫錄制的環(huán)境和受試者的頭部擺動幅度太大所造成的.同時,由于定義了輸入模型的視頻子序列長度為25幀,因此,將所有原始視頻的幀數(shù)都切割為25幀的倍數(shù).即將原始視頻切割為長度為25幀的子視頻序列,采用原始視頻的幀數(shù)除以25,如果剩余的幀數(shù)>12幀,則將剩余的幀數(shù)通過復制前一幀的方式補為25幀,如果剩余的幀數(shù)<12幀,則丟棄原始視頻剩余的幀數(shù).由于AVEC2013數(shù)據庫只有1個任務,而AVEC2014分為Freeform和Northwind 2個子任務.因此,將Freeform和Northwind子任務進行合并,然后作為一個數(shù)據集進行預測,這樣不僅增大了數(shù)據的樣本量,而且增加了樣本的多樣性,同時也融合了2種不同任務的優(yōu)點.

        4.2 評價準則

        在AVEC2013和AVEC2014的抑郁癥識別任務中,通過計算預測值和BDI-II之間的平均絕對誤差(MAE)和均方根誤差(RMSE)來評估提出方法的有效性.MAE可以表示為

        RMSE可以表示為

        4.3 模型的訓練參數(shù)

        本文采用Python語言在TensorFlow平臺上進行實驗驗證[19],模型的訓練和測試是在擁有12 GB的NVIDIA Titan X進行,內存大小為64 GB.采用自適應矩估計(adaptive moment estimation,ADAM)優(yōu)化器進行優(yōu)化[20],其優(yōu)點是允許根據模型權重更新的歷史自動設置學習速率.學習率為0.000 001,迭代次數(shù)為100 000次.在初始輸入上采用Dropout操作,在訓練過程中隨機選擇的單元的激活設置為0,概率范圍在0.5~1.0(每次迭代時隨機設置).對于STA-ConvLSTM,65%的神經元被忽略,這樣可以使方差降低,而且在一定程度上減少了過擬合.對于3D卷積層,由于濾波器通常很?。ㄈ?×5×5個濾波器的結果為125個神經元),如果以較高的百分比進行Dropout,則可能會對訓練過程造成一定的特征減少,因此,只應用5%.但是,對于完全連接的層來說,由于隱藏單元的數(shù)量相對較高,應用50%的Dropout進行深層網絡結構的訓練.

        對于深度網絡的訓練過程,權值初始化對最終結果的影響很大:如果網絡中的權重開始太小,那么當信號通過每一層時會收縮,直到其太小而無法使用為止;如果權重開始過大,那么信號就會在穿過每一層時增長,直到其變得太大而無法使用為止.Xavier初始化確保權值在一個可以控制的范圍之內,能夠保證每一層輸出的方差盡量相等,保持信號的數(shù)值在通過多層時在一個合理的范圍之內.因此,使用Xavier初始化器進行權值的初始化.

        對于STA-ConvLSTM來說,采用的激活函數(shù)是tanh和ReLU.由于tanh函數(shù)是有界的,二階導數(shù)在無限趨近于0時,需要經過一段很長的時間,在空間注意力模型中得以采用,換句話說,就是保持時間不變性.ReLU函數(shù)能夠快速收斂,因此,被采用在時序注意力模塊中.抑郁癥識別和分析是一個回歸任務,采用MSE損失函數(shù)作為目標函數(shù),公式為

        式中yi是標簽,hθ(xi)是預測值,N是樣本數(shù).

        4.4 抑郁癥識別結果分析

        為了更好地理解學習模型提取的特征,將在一個非常短的序列相對應的測試樣本上的響應6張?zhí)卣鲌D進行可視化處理(見圖6).由圖6可知:第1個3D卷積后,面部圖像的邊界紋理特征已經充分地顯示;第2個3D卷積以后,抽象出一些顯著的對象(眼睛、鼻子等),這些對象是網絡訓練的對象,通過調整模型參數(shù),能夠自動識別出與抑郁癥密切相關的模式.隨著更深層次網絡的訓練和優(yōu)化,可得到愈加抽象的與抑郁癥密切相關的特征表示.

        圖6 一個短測試序列上的特征

        基于AVEC2013和AVEC2014,提出的端到端抑郁癥識別方法取得了優(yōu)于大多數(shù)基于視頻的識別結果.其優(yōu)點在于充分有效地結合了3D-CNN、STA-ConvLSTM和SPP的優(yōu)勢.在該方法中,3DCNN能夠有效地刻畫短時特征信息,STA-ConvLSTM通過注意力機制有效地表征了長時的空間和時間注意力高層信息,SPP能夠將高層信息進行多尺度的變換,進而得到了緊致的最終特征表示,提高了抑郁癥的識別率.

        4.5 與現(xiàn)有方法的實驗結果比較

        本文提出了端到端的抑郁癥識別方法,該方法能夠對局部依賴信息和全局依賴信息進行有效的抽象和表征.特別是在STA-ConvLSTM模塊中,采用了空間和時間的注意力機制進行關鍵信息的抽象和表征.將本文提出的方法與其他基于視覺特征的抑郁癥識別方法進行比較.

        在AVEC2013和AVEC2014測試集上的識別結果如表1所示.由表 1可知,除了文獻[4,6,26],本文的結果優(yōu)于當前絕大部分基于面部視頻的抑郁癥識別方法的性能,與文獻[12-13]相比,本文在AVEC2013和AVEC2014測試集上的RMSE誤差分別減少了24.17%和5.43%,說明本文方法對基于視頻的抑郁癥識別的有效性.Zhu等[4]通過CASIA大型人臉數(shù)據庫進行微調2個面部2D-CNN、光流2DCNN,然后采用聯(lián)合微調的方法進行抑郁程度的預測,取得了與目前基于視覺的抑郁癥識別方法相當?shù)淖R別結果;與Al等[6]的C3D-RNN方法進行比較,本文得到的RMSE和MAE較高,因為AI等先借助了預訓練的C3D模型,然后在AVEC2013和AVEC2014數(shù)據庫上進行微調,最后采用RNN進行時序信息的累積和建模,而本文直接在AVEC2013和AVEC2014數(shù)據庫上并直接進行了模型的訓練和評估,可能是樣本量不足以及模型結構的復雜,從而導致RMSE和MAE沒有降低.對于AVEC2014數(shù)據庫,Dhall和Goecke[26]除了采用 LBP-TOP、FV 以外,在統(tǒng)計聚集方法中還使用了BoW進行二次聚集,BoW可以重新統(tǒng)計FV的一階和二階統(tǒng)計量中蘊含的模式信息,實現(xiàn)了抑郁癥識別精度的提高.

        表1 不同數(shù)據庫在不同方法的結果比較

        綜上所述,本文的主要貢獻體現(xiàn)在:(1)設計了一個端到端的抑郁癥識別方法,該方法包含了不同的深度學習技術,即3D-CNN、STA-ConvLSTM和SPP等;(2)提出的STA-ConvLSTM模塊將局部短時的時空序列注意力信息進行全局的抽象和表征,有效地提高了抑郁癥識別的準確率;(3)通過采用SPP對刻畫不同尺度的信息,能夠將顯著的信息進行更加顯著的表征,同時能夠去除一定的冗余特征信息,最終得到更有價值的面部編碼信息.

        5 結束語

        本文提出了一種端到端的抑郁癥識別方法,其采用3D-CNN提取局部時空信息,使用STA-ConvLSTM從局部時空信息中抽象長期依賴的注意力高層語義信息,并利用SPP進行特征尺度不變轉換,得到了抑郁程度的估計.在AVEC2013和AVEC2014數(shù)據庫上的實驗結果表明,本文方法的性能得到了優(yōu)于當前絕大部分基于面部視頻的抑郁癥識別方法.但是,該方法的主要局限性在于計算量大,需要學習的參數(shù)非常多,需要優(yōu)化的參數(shù)量很大.在未來的工作中,應嘗試減少網絡參數(shù),減輕網絡負擔,使之更加成為輕量化的端到端的抑郁癥識別框架.

        猜你喜歡
        特征信息方法
        如何表達“特征”
        不忠誠的四個特征
        當代陜西(2019年10期)2019-06-03 10:12:04
        抓住特征巧觀察
        訂閱信息
        中華手工(2017年2期)2017-06-06 23:00:31
        可能是方法不對
        用對方法才能瘦
        Coco薇(2016年2期)2016-03-22 02:42:52
        四大方法 教你不再“坐以待病”!
        Coco薇(2015年1期)2015-08-13 02:47:34
        捕魚
        展會信息
        中外會展(2014年4期)2014-11-27 07:46:46
        線性代數(shù)的應用特征
        河南科技(2014年23期)2014-02-27 14:19:15
        亚洲国产精品成人无码区| 亚洲成人精品在线一区二区| 欧美xxxxx高潮喷水| 免费无码一区二区三区蜜桃大 | 乱中年女人伦av一区二区| 熟妇人妻中文字幕无码老熟妇| japanese色国产在线看视频| 亚洲国产一区一区毛片a| 丁香婷婷激情综合俺也去| 内射中出无码护士在线| 精品国产午夜久久久久九九| 亚洲av专区一区二区| 久久久亚洲精品蜜臀av| 国产天堂av在线一二三四| 99精品国产一区二区三区| 九九在线视频| 蜜臀一区二区av天堂| 巨爆中文字幕巨爆区爆乳| 日韩亚洲av无码一区二区三区| 国产一级淫片免费播放电影| 在线观看二区视频网站二区| 欧美 日韩 人妻 高清 中文| 一个人在线观看免费视频www| 国产极品喷水视频| 日本一区二区三区光视频 | 中国农村熟妇性视频| 亚洲国产香蕉视频欧美| 亚洲中文字幕视频第一二区| 精品国产乱码久久久久久婷婷| 麻豆国产人妻欲求不满| 91国产超碰在线观看| 日本久久伊人特级黄色| 久久九九久精品国产| 国产精品女同久久免费观看| 一区二区三区在线少妇| 亚洲日韩国产精品乱-久| 99热成人精品国产免国语的| 久久免费精品日本久久中文字幕| 国产亚洲av另类一区二区三区| 熟妇丰满多毛的大隂户| 青青草综合在线观看视频|