亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于通道注意力機制增強DGNN的外骨骼機器人步態(tài)相位預(yù)測

        2025-02-26 00:00:00顏建軍許贏家林越金理江金林

        關(guān)鍵詞:步態(tài)相位預(yù)測;慣性傳感器;骨架;時空圖卷積網(wǎng)絡(luò);通道注意力機制

        外骨骼機器人是一種可以穿戴行走式的機械設(shè)備,它可以減輕人類的負重,起到支撐、保護、運動等作用,廣泛應(yīng)用于醫(yī)療、農(nóng)業(yè)、工業(yè)、軍事等領(lǐng)域,已經(jīng)成為未來科技發(fā)展的趨勢。按用途不同,外骨骼機器人可以分為助力型[1-2]、負重型[3-4]和康復(fù)型[5-6]機器人3類。本文主要探討了基于下肢助力型的外骨骼機器人,其能夠通過在人體下肢關(guān)節(jié)處提供適當?shù)耐獠枯o助力矩來提高人體的運動能力[7],識別并預(yù)測穿戴者的運動意圖是外骨骼機器人輔助人類運動的前提和基本要求,根據(jù)感知到的人類意圖從而有效控制外骨骼的運動[8]。因此,必須首先估計人類的行走意圖,以確保外骨骼機器人不會阻礙人類的運動[9-10]。

        人體行走過程是一個持續(xù)且規(guī)律的周期性運動。目前最常用的步態(tài)周期研究方法依賴于四相識別技術(shù),由腳跟著地(HS)、腳尖著地(TS)、腳跟離地(TO)和擺動相中點(SM)表示。基于當前步態(tài)研究階段,使用一系列可穿戴傳感器,包括腳踏開關(guān)、壓力鞋墊和慣性傳感器,在步態(tài)階段檢測方面進行了廣泛的研究[11-13]。

        常用的步態(tài)相位檢測分類算法可分為三大類:閾值方法(Threshold-BasedMethods,TBM)、機器學習方法(MachineLearningMethods,MLM)和深度學習(DeepLearning,DP)。閾值方法通過手動設(shè)置閾值,觀察原始數(shù)據(jù)的特征,并根據(jù)這些特征將步態(tài)階段進行分類[14]。Kim等[15]提出了一種基于慣性測量單元(InertialMeasurementUnit,IMU)的腳-地接觸檢測(Foot-GroundContactDetection,F(xiàn)GCD)算法。Bejarano等[11]提出了一種基于慣性和磁性傳感器的自適應(yīng)算法,用于檢測步態(tài)事件,這種算法在健康人和步態(tài)病理患者身上都表現(xiàn)出色。Seel等[16]使用加速度計和陀螺儀傳感器,提出了一種實時的步態(tài)事件檢測方法。與TBM算法相比,數(shù)據(jù)驅(qū)動的機器學習算法性能得到了顯著提高,它利用大量的數(shù)據(jù)來進行分類任務(wù),從而減少了手動創(chuàng)建有意義特征的需求。在步態(tài)相位預(yù)測應(yīng)用中,各種機器學習方法如K近鄰[17]、決策樹[18]、貝葉斯網(wǎng)絡(luò)分類器[19]、線性判別分析[20]等都被廣泛應(yīng)用,它們同樣適用于區(qū)分步態(tài)階段[21]。深度學習是機器學習領(lǐng)域中一個新的研究方向,在搜索技術(shù)、數(shù)據(jù)挖掘、機器翻譯、自然語言處理、多媒體學習、語音、推薦和個性化技術(shù),以及其他相關(guān)領(lǐng)域都取得了很多成果。Su等[22]提出了一種基于IMU和足底壓力傳感器的深度卷積神經(jīng)網(wǎng)絡(luò)(DeepConvolutionalNeuralNetwork,DCNN),用于識別步態(tài)周期的5個階段。另外,Wu等[23]提出了一種用于步態(tài)階段分類的圖卷積網(wǎng)絡(luò)模型(GraphConvolutionalNetworkModel,GCNM),并將其與長短時記憶網(wǎng)絡(luò)(LongShort-TermMemory,LSTM)和DCNN進行了比較,結(jié)果表明GCNM在步態(tài)階段分類方面具有較高的準確性,驗證了該模型的有效性。

        然而,這些步態(tài)相位預(yù)測方法沒有充分考慮到關(guān)節(jié)之間的相互聯(lián)系,也沒有充分挖掘時間和空間之間的聯(lián)系,無法充分表現(xiàn)人體步態(tài)相位特征。

        在基于視頻的動作識別領(lǐng)域,基于時空卷積網(wǎng)絡(luò)的算法ST-GCN[24]得到了廣泛應(yīng)用,它能夠利用人體骨架信息?,F(xiàn)有的基于圖的方法通常將骨架表示為無向圖,并使用兩個獨立的網(wǎng)絡(luò)對骨骼和關(guān)節(jié)進行建模,但不能充分利用關(guān)節(jié)和骨骼之間的依賴關(guān)系。因此,本文引入基于通道注意力機制增強的有向圖神經(jīng)網(wǎng)絡(luò)(CA-DGNN)[25]的外骨骼機器人步態(tài)相位預(yù)測模型。該方法采用有向非循環(huán)圖來表示骨架模型,其中關(guān)節(jié)作為圖的頂點,骨骼作為邊,可以捕捉關(guān)節(jié)之間的依賴關(guān)系;引入了通道注意力機制,通過對關(guān)節(jié)的不同通道信息賦予不同的權(quán)重來關(guān)注重要通道,使模型能在不同的特征空間中聚焦重要信息。同時,在已有下肢外骨骼機器人的基礎(chǔ)上研制了一套基于IMU慣性傳感器的人體步態(tài)運動數(shù)據(jù)采集設(shè)備,通過采集的數(shù)據(jù)計算得出骨架信息和運動信息,并將其輸入到CA-DGNN中,以構(gòu)建下肢骨架模型并進行下肢外骨骼機器人步態(tài)相位預(yù)測的研究,探討了算法參數(shù)和部分超參數(shù)對步態(tài)相位預(yù)測性能的影響。

        1方法與數(shù)據(jù)

        1.1下肢助力外骨骼機器人

        本文研究的下肢助力外骨骼機器人,其結(jié)構(gòu)示意圖如圖1所示,該外骨骼采用剛性的機械支撐結(jié)構(gòu),在外骨骼機器人的大小腿和腰部安裝傳感器,采集人體的步態(tài)運動信息;在膝關(guān)節(jié)處布置電機驅(qū)動結(jié)構(gòu),作為外骨骼機器人的關(guān)節(jié)執(zhí)行器,在人體運動時提供相應(yīng)的助力力矩;在外骨骼的背部安裝控制器等組件,采用相應(yīng)的控制策略,實現(xiàn)外骨骼機器人的實時控制。

        1.2人體步態(tài)信息采集設(shè)備

        本文構(gòu)建的人體步態(tài)信息采集設(shè)備如圖2所示。該設(shè)備由大小腿和腰部的柔性綁縛結(jié)構(gòu)組成,在大小腿和腰部均布置IMU慣性傳感器,用于采集人體大小腿和腰部的運動數(shù)據(jù),主要是大小腿和腰部的三軸角度、三軸加速度、三軸角速度,并且在腰部安裝有協(xié)處理器,通過CAN(Controllerareanetwork)總線傳輸,將數(shù)據(jù)整合并通過藍牙發(fā)送到手機等移動設(shè)備。

        1.3人體步態(tài)數(shù)據(jù)的獲取

        傳感器的人體坐標系的規(guī)定如圖3所示,即以人體側(cè)面為基準,平行于人體矢狀面運動方向為X軸,重力加速度方向為Y軸,垂直于人體矢狀面為Z軸。

        本文采用的數(shù)據(jù)是由本研究團隊設(shè)計的一套人體步態(tài)信息采集設(shè)備采集的運動數(shù)據(jù),共邀請了4位志愿者進行步態(tài)行走的數(shù)據(jù)采集,采樣頻率為100Hz,單次采集時間為20s,每位實驗者重復(fù)采集5次作為一組數(shù)據(jù),共采集了5組數(shù)據(jù),對其分別命名為數(shù)據(jù)集1、數(shù)據(jù)集2、數(shù)據(jù)集3、數(shù)據(jù)集4和數(shù)據(jù)集5,其中數(shù)據(jù)集1、2、3、4分別為4位不同志愿者的步態(tài)數(shù)據(jù),數(shù)據(jù)集5與數(shù)據(jù)集3為同一個志愿者的2次運動數(shù)據(jù)(重新進行穿戴)。每個數(shù)據(jù)集內(nèi)包括大小腿和腰部的三軸角度、三軸加速度和三軸角速度。

        1.4基于CA-DGNN的步態(tài)相位預(yù)測

        因為骨架提供了關(guān)于人體運動的關(guān)鍵信息,通過分析骨架在不同步態(tài)相位中的姿態(tài)和加速度,可以獲取有關(guān)步態(tài)周期的節(jié)奏、速度等重要特征。步態(tài)相位預(yù)測的主要流程如下:首先進行步態(tài)數(shù)據(jù)的采集,本文邀請4位志愿者穿戴人體步態(tài)信息采集設(shè)備進行實驗,得到行走步態(tài)運動數(shù)據(jù);建立下肢骨架模型,建立時空圖卷積網(wǎng)絡(luò);進行超參數(shù)實驗,確定相應(yīng)最優(yōu)窗口大??;最后進行用戶獨立實驗和用戶依賴實驗,與其他算法進行比較。圖4顯示了骨架及其相應(yīng)的有向圖,把腰部作為點1,左大小腿分別為點2和點5;右大小腿分別為點3和點4,形成圖結(jié)構(gòu)。

        為了進一步提高模型在步態(tài)預(yù)測任務(wù)上的準確率,本文在DGNN的基礎(chǔ)上加以改進,引入了基于通道注意力機制增強的有向圖神經(jīng)網(wǎng)絡(luò)(CA-DGNN)來進行步態(tài)相位的預(yù)測。

        CA-DGNN將關(guān)節(jié)和骨骼信息結(jié)合起來并表示為一個有向非循環(huán)圖(Directedacyclicgraph),其中關(guān)節(jié)作為頂點,骨骼作為邊,關(guān)節(jié)之間的依賴關(guān)系通過圖的有向邊建模,GTCN(Graphtemporalconvolutionnetwork)由DGN塊(Directedgraphnetwork)、TCN塊(Temporalconvolutionnetwork)和ECA塊(Efficientchannelattention)及若干功能層組成(圖4)。

        模型從數(shù)據(jù)輸入到多幀步態(tài)相位輸出的流程圖如圖5所示。在骨架數(shù)據(jù)輸入后,分別經(jīng)過3個添加了ECA模塊的GTCN操作后,輸出張量被輸入到全連接層,以獲得每個步態(tài)的特征向量。在這之后,步態(tài)的特征向量通過Softmax函數(shù)傳遞到輸出層,以獲得步態(tài)相位類別的預(yù)測。最后,將模型預(yù)測的不同時間的步態(tài)進行組合,得到多幀步態(tài)相位輸出。本文使用100幀數(shù)據(jù)預(yù)測未來10幀,即未來100ms的數(shù)據(jù)。

        在CA-DGNN中,每個圖時間卷積模塊后都添加了一個ECA模塊。ECA模塊通過考慮每個通道及其k個鄰居進行局部跨通道交互信息,自適應(yīng)地調(diào)整每個通道的權(quán)重,使得模型能夠更加關(guān)注重要的通道,抑制噪聲和無關(guān)信息。同時,本文改進了圖學習的方法,增加了對有向非循環(huán)圖進行稀疏化的操作,抑制了相關(guān)性較低的連接形成。

        2實驗結(jié)果

        本文將上述人體步行步態(tài)運動數(shù)據(jù)關(guān)節(jié)角度、加速度、角速度進行數(shù)據(jù)平滑處理,進行了窗口大小對算法性能影響的實驗,分別運用CNN、RNN[26]、TCN[27]、LSTM[28]這4種時間序列算法以及基于骨架的DGNN算法進行實驗,最終與CA-DGNN進行比較,證明CA-DGNN算法在步態(tài)相位預(yù)測上的優(yōu)越性。

        訓練參數(shù)設(shè)置為:學習率為0.001,批量大小為32,優(yōu)化器選擇Adam,迭代次數(shù)為150次,丟棄率為0.3,權(quán)重衰減系數(shù)為10?4,學習率容忍次數(shù)為4。除了常規(guī)的超參數(shù)設(shè)置外,還設(shè)置了圖學習凍結(jié)步數(shù)為5,用于保證訓練開始的前5次迭代中初始圖不進行更新。

        2.1窗口大小的實驗

        在數(shù)據(jù)加窗時,窗口的大小對結(jié)果的影響如表1所示。本實驗所使用的傳感器采樣頻率為100Hz,正常人走路1min大約在100~120步,一個步態(tài)周期為1s左右,分別設(shè)置窗口大小為80、90、100、110、120、130、140、150、160、170和180,窗口間隔設(shè)置為1保持不變,使用數(shù)據(jù)集3作為訓練集、數(shù)據(jù)集5作為測試集。實驗將90%的數(shù)據(jù)用于訓練、10%的數(shù)據(jù)用于驗證,每次均進行100輪訓練,設(shè)置學習率為0.001。

        由表1可以看出,不同的窗口大小也會影響CA-DGNN的性能,當窗口大小為100時表現(xiàn)最好,準確率為97.86%;當窗口大小為120時表現(xiàn)最差,準確率為95.25%。窗口大小為100的準確率比窗口大小為80、90、110、120、130、140、150、160、170和180時分別提高了0.84%、0.60%、2.12%、2.61%、1.57%、1.27%、1.05%、1.78%、1.56%和1.35%。

        2.2用戶獨立實驗

        由于CA-DGNN算法以骨架數(shù)據(jù)作為輸入,而其他算法為數(shù)據(jù)驅(qū)動,因此在實驗中,本節(jié)將原始三軸角度、三軸加速度和三軸角速度作為CNN、RNN、TCN和LSTM這4種算法的輸入,將關(guān)節(jié)坐標作為CA-DGNN的輸入,并進行比較,以證明CA-DGNN算法在步態(tài)相位預(yù)測上的優(yōu)越性。使用數(shù)據(jù)集1、2、3作為訓練集、數(shù)據(jù)集4作為測試集,Windowsize設(shè)置為100,用戶獨立實驗結(jié)果如表2所示。由表2可知,在5種算法中,CA-DGNN算法的準確率比CNN、RNN、TCN、LSTM和DGNN分別提高了3.27%、5.29%、3.34%、2.69%、1.27%。

        2.3用戶依賴實驗

        使用數(shù)據(jù)集3作為訓練集、數(shù)據(jù)集5作為測試集,進行用戶依賴實驗,將CA-DGNN算法與其他4種算法進行比較,結(jié)果如表3所示。

        由表3可知,在5種算法中,CA-DGNN算法的準確率比CNN、RNN、TCN、LSTM分別提高了2.72%、8.21%、18.09%、3.51%。

        2.4消融實驗

        使用數(shù)據(jù)集3作為訓練集、數(shù)據(jù)集5作為測試集,進行消融實驗,使用DGNN算法與CA-DGNN算法進行比較,結(jié)果如表4所示。

        由表4可知,在消融實驗中,CA-DGNN算法相比DGNN算法在準確率、精確率、召回率和F1值上同時有顯著提升,分別提高了1.43%、2.06%、2.54%、2.38%。為了進一步驗證提出算法的實用性,將穿戴人體步態(tài)信息采集設(shè)備采集的步態(tài)數(shù)據(jù)實時輸入到訓練的CA-DGNN模型,進一步進行實驗驗證,預(yù)測準確率達到93.28%。

        3討論

        3.1窗口大小的影響

        不同的窗口大小會影響CA-DGNN算法的性能。為進一步分析窗口大小對步態(tài)相位預(yù)測平均準確率的影響,計算了不同窗口大小下各步態(tài)相位預(yù)測準確率,如圖6所示。可以看出,在改變窗口大小的過程中,TO相位一直保持著較高的準確率,一般在99%以上,其基本不受窗口大小改變的影響。而HS、TS這兩個步態(tài)相位識別準確率低,分別為95.72%和92.10%。SM相位受窗口改變影響比較大,其最高準確率為94.16%,最低準確率為70.17%。但就準確率而言,CA-DGNN算法的性能受窗口大小這一超參數(shù)的影響不是很大,步態(tài)模型具有較強的魯棒性,在實際使用中可以減少為不同數(shù)據(jù)尋找合適窗口大小的計算量。

        窗口大小為80和100時CA-DGNN的混淆矩陣如圖7所示。窗口大小為80時步態(tài)相位預(yù)測準確率稍低一些,比窗口大小為100的準確率低了0.84%。根據(jù)圖6所示,窗口大小改變時,SM相位準確率受影響變化最大,故在考慮最佳窗口大小時,應(yīng)該從準確率和SM相位準確率兩個方面綜合考慮。窗口大小分別為80和100時,前者在HS、TO相位上準確率和后者相近,但TS、SM相位準確率卻低于后者,尤其是受窗口大小影響最大的SM相位,后者平均準確率比前者高了4.67%。

        總體來說,窗口大小為100時準確率達到了最高,并且各個步態(tài)相位的識別準確率都位居前列,尤其是受窗口大小影響最大的SM相位。窗口大小改善了誤識別情況,并且該模型擁有較強的魯棒性,在實際使用中擁有更強的普適性。

        3.2用戶獨立實驗的結(jié)果分析

        在用戶獨立實驗中CA-DGNN在6種算法中表現(xiàn)最好,識別準確率達到了94.52%。為了進一步分析各算法的性能,計算了各步態(tài)相位預(yù)測準確率,如圖8所示。CA-DGNN在大多數(shù)步態(tài)相位預(yù)測準確率上都比其他5個算法高,最低準確率也在85.66%左右,其他算法最低準確率甚至只有61.68%。CADGNN在TS和SM準確率分別為98.34%和85.66%;HS和TO準確率分別為94.22%和95.21%,雖然并非最佳,但也達到了平均水準。在SM相位上,其他5種算法準確率都不超過70%,而CA-DGNN算法準確率高達85.66%;在TO和HS相位上,CA-DGNN準確率也在94%以上;這說明CA-DGNN在步態(tài)相位分類上的表現(xiàn)優(yōu)于其他算法,其高準確率和穩(wěn)定性更適于步態(tài)相位預(yù)測。

        對CA-DGNN的實驗結(jié)果進一步分析,其混淆矩陣如圖9所示。CA-DGNN對HS、TS和TO3種步態(tài)相位預(yù)測準確率較高,但還是出現(xiàn)了SM步態(tài)相位的誤識別率較高的情況,如把SM識別為TO的誤識別率為8.05%,把SM識別為HS的誤識別率為6.29%。

        由于所使用數(shù)據(jù)為三軸加速度和三軸角速度的下肢矢狀面運動角度,在實際運動過程中,腿部的運動特征相差不是很大,差別較大的主要是踝關(guān)節(jié)數(shù)據(jù),而踝關(guān)節(jié)數(shù)據(jù)并沒有采集,因此出現(xiàn)了這幾個步態(tài)相位之間的誤識別,導致準確率降低。但在使用同樣數(shù)據(jù)的情況下,各算法識別準確率也有差別,說明模型本身的特性也是影響步態(tài)相位預(yù)測性能的重要因素。

        3.3用戶依賴實驗的結(jié)果分析

        前述通過用戶獨立實驗建立步態(tài)相位預(yù)測用戶依賴實驗,并且獲得了較好的結(jié)果。雖然通用模型可以減少訓練過程中所需的時間,但通用模型可能不適用于特定個體。因此進行用戶依賴實驗,將使用者數(shù)據(jù)加入模型進行訓練,以進一步提高步態(tài)識別的準確率。各算法的不同步態(tài)相位預(yù)測準確率如圖10所示。由圖可得,CA-DGNN在HS、TO、SM這3個步態(tài)相位上準確率分別為98.17%、99.24%、94.16%;在TS步態(tài)相位上準確率為96.70%,對比最好的97.73%僅相差1.03%。CA-DGNN方法中各步態(tài)的識別準確率都不小于94.16%,而其他算法最低識別準確率甚至只有71.99%。這說明CA-DGNN在步態(tài)相位預(yù)測上表現(xiàn)良好,優(yōu)于其他幾種算法。

        CA-DGNN的混淆矩陣如圖11所示,用戶依賴實驗中CA-DGNN對4種步態(tài)相位預(yù)測準確率均很高,最低也在94.16%,比前述用戶獨立實驗效果要好,并且更加穩(wěn)定,魯棒性更強。但也同樣面臨前述的問題,出現(xiàn)了步態(tài)相位的誤識別情況,但基本不超過3%。結(jié)果說明CA-DGNN相比其他4種算法在步態(tài)相位預(yù)測上都具有更高的準確性和穩(wěn)定性。

        大多數(shù)分析時間序列的DL算法(如RNN、LSTM、TCN)主要關(guān)注時間特征,它們學習空間特征的能力相對較弱。這些深度學習算法鮮有明確考慮骨架和相鄰關(guān)節(jié)之間的空間連通性、依賴關(guān)系和圖形結(jié)構(gòu)。因此,它們在理解人體行走所表達的步態(tài)相位方面能力相對有限,這導致其在步態(tài)相位預(yù)測的整體表現(xiàn)不如CA-DGNN。

        3.4穿戴實驗的結(jié)果分析

        在處理人體步態(tài)這種具有多維和復(fù)雜的時間依賴性數(shù)據(jù)時,CA-DGNN相比于DGNN,通過關(guān)注通道間的空間依賴關(guān)系,自動地學習通道的重要性,能夠更好地理解不同的步態(tài)相位模式,有助于提高模型的分類準確率。實際穿戴實驗的結(jié)果也能進一步驗證CA-DGNN在步態(tài)相位預(yù)測上的實用性。為測試CA-DGNN算法的實用性,測試人員穿戴運動數(shù)據(jù)采集裝備進行行走,同時使用CA-DGNN進行實時步態(tài)相位預(yù)測。同時記錄每個時刻的步態(tài)相位和模型預(yù)測結(jié)果,在測試結(jié)束后進行結(jié)果分析。實際穿戴運動數(shù)據(jù)采集設(shè)備后行走的實時步態(tài)相位預(yù)測結(jié)果的混淆矩陣如圖12所示。根據(jù)實驗結(jié)果和混淆矩陣,在處理實時步態(tài)數(shù)據(jù)方面,CA-DGNN雖然受到噪聲干擾,但仍保持93.28%的準確率。4種步態(tài)相位中HS、TS、SM都保持91%以上的準確率,只有TO相位識別準確率有較大下降。穿戴設(shè)備的實時相位預(yù)測準確率仍保持較高的水平,證明CA-DGNN有較強的準確率和魯棒性,對后續(xù)外骨骼助力的研究有實用意義。

        4結(jié)束語

        在本研究中,引入了一種使用CA-DGNN的基于多慣性傳感器的骨架步態(tài)相位檢測方法。首先,提取人體5個關(guān)節(jié)上IMU的運動數(shù)據(jù),并對其進行加窗;其次,根據(jù)人體關(guān)節(jié)之間的自然連接關(guān)系,建立了步態(tài)相位預(yù)測的骨架模型;然后,使用空間圖卷積層和時間卷積層分別在空間和時間尺度上提取人體步態(tài)相位的動態(tài)特征,從而更全面地挖掘人類行走步態(tài)的空間和時間模式;最后,建立了基于CADGNN和骨架的步態(tài)相位預(yù)測模型,討論了參數(shù)對模型性能的影響,并將實驗結(jié)果與其他5種算法的結(jié)果進行了比較。實驗結(jié)果表明,CA-DGNN模型具有更好的準確性和魯棒性,優(yōu)于其他5種算法。本研究旨在為基于IMU的步態(tài)相位預(yù)測提供了一種新方法。

        国产成人av一区二区三区在线观看| 精品蜜桃一区二区三区| 中文字幕精品人妻丝袜| 无码人妻久久一区二区三区免费丨 | 亚洲va在线va天堂va手机| 亚洲欧洲无码av不卡在线| 国产精品高清视亚洲乱码有限公司| 日本在线中文字幕一区| 日本国产精品久久一线| 正在播放国产多p交换视频| 久久国产成人精品国产成人亚洲| 中文字幕第一页在线无码一区二区| 一级老熟女免费黄色片| 久久久久成人精品无码中文字幕| 日本一区午夜艳熟免费| 国产精品亚洲综合色区丝瓜| 国产精品亚洲精品一区二区| av综合网男人的天堂| 国产人成精品综合欧美成人| 婷婷精品国产亚洲av| av天堂最新在线播放| 久久久久久人妻一区精品| 国产极品美女高潮抽搐免费网站 | 亚洲福利av一区二区| 免费人成视频网站在在线| 蜜桃视频无码区在线观看| 麻豆变态另类视频在线观看| 国产精品视频白浆免费看| 中文字幕亚洲综合久久| 欧美 国产 日产 韩国 在线| 亚洲日本欧美产综合在线| 精品人妻一区二区三区蜜臀在线 | 久久婷婷色综合一区二区| 人妻少妇喷水意淫诱惑| 免费视频无打码一区二区三区| 成人欧美一区二区三区1314| 国产亚洲精品A在线无码| 青青草在线免费观看在线| 欧美丰满熟妇bbbbbb| 波多野结衣有码| 白白白色视频在线观看播放|