亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于長短期記憶網(wǎng)絡的駕駛意圖識別方法

        2023-07-30 15:36:20席嬋嬋楊昌波李駿鄭偉光
        專用汽車 2023年7期
        關(guān)鍵詞:長短期記憶網(wǎng)絡

        席嬋嬋 楊昌波 李駿 鄭偉光

        摘要:為了使高級駕駛員輔助系統(tǒng)能夠更好的工作,進而提高其安全性和舒適性,提出一種基于長短期記憶(Long Short-term Memory,LSTM)網(wǎng)絡的駕駛意圖識別方法,能夠較為準確地識別目標車輛的駕駛意圖。該方法將踏板開度和踏板開度變化率輸入意圖識別網(wǎng)絡,并在意圖識別網(wǎng)絡中引入灰狼優(yōu)化算法(Grey Wolf Optimizer,GWO)對網(wǎng)絡參數(shù)進行優(yōu)化,提高駕駛意圖識別性能。為了驗證該方法的準確性,基于數(shù)據(jù)集訓練并評估模型,結(jié)果表明:所提方法對加速和制動意圖識別的準確率、召回率和[Flmacro]分數(shù)分別為0.981、0.983和0.982,均優(yōu)于支持向量機(SVM)和普通的LSTM模型。

        關(guān)鍵詞:駕駛意圖識別;長短期記憶網(wǎng)絡;灰狼優(yōu)化算法

        中圖分類號:U471 ?收稿日期:2023-03-08

        DOI:10.19999/j.cnki.1004-0226.2023.07.005

        1 前言

        隨著汽車行業(yè)的不斷發(fā)展,各種汽車電子裝置、定位裝置、手機以及其他遠程信息處理裝置的日益普及,司機的注意力也在被這些裝置不斷分散,繼而使汽車在行駛過程中的風險大大增加,因此,人們正在致力于自動化駕駛輔助系統(tǒng)的研究,如使用駕駛員輔助系統(tǒng)(ADAS)的車道保持系統(tǒng)(LKS)和自適應巡航系統(tǒng)(ACC)。但是,在不知道司機駕駛意圖的情況下,這些輔助系統(tǒng)和設備極容易誤導司機的駕駛決策,所以系統(tǒng)在接收到司機駕駛行為信息的同時,對于司機駕駛意圖的正確辨識是ADAS至關(guān)重要的一點。

        目前,國內(nèi)外學者在駕駛意圖的識別方面已經(jīng)積累了一定經(jīng)驗,以Pentland,Mizushima,Meyer-Delius等[1]為典型代表,使用隱馬爾科夫理論(Hidden Markov Method,HMM)對駕駛意圖展開研究并得出了一些有益的研究成果,主要內(nèi)容是利用HMM模型從感觀數(shù)據(jù)中識別駕駛?cè)诵袨?,之后該模型可以通過汽車駕駛?cè)俗畛醯臏蕚鋭幼髦蓄A測他們的后續(xù)動作;馬晶晶[2]以實際交通環(huán)境參數(shù)和汽車運行參數(shù)作為輸入,提出了一種偽二維隱馬爾科夫(P2D-CHMM)駕駛意圖辨識模型;王暢[3]則以實時在線辨識復合工況下的駕駛意圖為目標,建立了用于駕駛員駕駛意圖辨識的雙層HMM模型。而根據(jù)模式識別理論,研究者可以將意圖識別問題轉(zhuǎn)變?yōu)樘囟ǖ囊鈭D類型問題,這一類型的方法又有神經(jīng)網(wǎng)絡、支持向量機、貝葉斯網(wǎng)絡等,例如曲代麗[4]以制動踏板開度及其變化率、制動減速度作為參數(shù),給出一種基于模糊神經(jīng)網(wǎng)絡的駕駛意圖識別方法;王慶年等[5]將駕駛意圖分為動力模式和經(jīng)濟模式,提出了基于模糊神經(jīng)網(wǎng)絡的駕駛意圖識別模型;李慧等[6]通過采集分析自車加速踏板及其變化率,提出一種采用粒子群優(yōu)化支持向量機參數(shù)的駕駛意圖模型;麻婷婷等[7]提出一種以方向盤轉(zhuǎn)角、車輛速度、車輛與道路邊界的距離和駕駛?cè)搜鄄啃畔樘卣鲄?shù)的基于支持向量機駕駛員超車辨識模型;Song 等[8]利用驅(qū)動模型對貝葉斯網(wǎng)絡進行校準和執(zhí)行,提出一種新型駕駛員模型與貝葉斯網(wǎng)絡結(jié)合的機動變道算法對駕駛意圖進行識別。隨著長短期記憶網(wǎng)絡在語音識別、翻譯等領(lǐng)域取得一系列重大突破,有研究者開始將其用在駕駛意圖識別方向,以季學武(LSTM)等團隊[9-11]為代表,使用長短期記憶(LSTM)網(wǎng)絡對駕駛員的換道意圖進行識別,并且發(fā)現(xiàn)將意圖識別考慮在內(nèi)的軌跡預測模型能顯著提高軌跡預測精度。

        本文提出一種基于長短期記憶網(wǎng)絡(LSTM)的駕駛意圖辨識方法,并且通過灰狼算法(Grey Wolf Optimizer ,GWO)來優(yōu)化模型的網(wǎng)絡超參數(shù),達到長短期記憶網(wǎng)絡參數(shù)尋優(yōu)范圍的自整定。對比分析不同模型的分類效果,最終證實本文所提出的GWO-LSTM模型可獲得最優(yōu)辨識結(jié)果。

        2 駕駛員駕駛意圖分析

        在日常駕駛過程中,司機的駕駛意圖會受到由自車情況、路面條件和司機自身組成的人-車-路系統(tǒng)內(nèi)信息的影響。比如自車速度、加速度、加速踏板開度、方向盤轉(zhuǎn)角等自車數(shù)據(jù);路面摩擦阻力因數(shù)、自車至路面邊界的距離等路面環(huán)境信息;以及司機自身的一些信息,這些都可以作為判斷駕駛員駕駛意圖的特征參數(shù),不過,如果采用太多的特征參數(shù)會增加模型訓練難度、影響模型的預測準確性。在正常情況下,踏板開度大小可以反映司機駕駛意圖,但不能表示司機加速意圖和制動意圖的緊急迫切程度,因此,我們不能夠單純地僅僅通過踏板開度這一數(shù)據(jù)來實現(xiàn)精確的加速和制動需求。

        為了能夠得到更精確的駕駛意圖模型,本文選取加速踏板開度a、制動踏板開度b和其踏板對應的開度變化率[da/dt]、[db/dt]這4個參數(shù)作為意圖識別模型的輸入量,利用智能算法對踏板數(shù)據(jù)進行解析,并據(jù)加速、制動意圖的快慢程度將其分為緩慢加速、一般加速、急加速[6]、緩慢制動、一般制動、緊急制動6種駕駛意圖。

        3 模型結(jié)構(gòu)

        3.1 長短期記憶網(wǎng)絡

        LSTM模型利用細胞內(nèi)的自循環(huán)來實現(xiàn)固定參數(shù)下尺度上的動態(tài)變化。汽車駕駛行為數(shù)據(jù)隱藏著與車輛駕駛行為有關(guān)的具備時間延續(xù)性的內(nèi)容,為了能達到良好的仿真結(jié)果,因此使用LSTM模型對意圖識別建模。LSTM網(wǎng)絡核心結(jié)構(gòu)如圖1所示。

        LSTM網(wǎng)絡核心結(jié)構(gòu)圖是由若干個上圖中的細胞結(jié)構(gòu)組成,每個細胞結(jié)構(gòu)中有3個控制門:遺忘門、輸入門、輸出門。

        遺忘門(forget gate)控制是否遺忘,公式為:

        [ft=σwf?t?1,xt+bf] ????????????????????????(1)

        式中,[σ]為sigmoid函數(shù);[wf]為遺忘門權(quán)重;[?t?1]為t-1時刻的隱藏狀態(tài);[xt]為輸入數(shù)據(jù);[bf]為遺忘門的偏差。

        輸入門(input gate)決定何種信息被更新到細胞狀態(tài)中,主要由兩部分組成,一部分輸出是it,另一部分輸出是at。公式為:

        [it=σwi.?t?1,xt+bi] ???????????????????????(2)

        [at=tanhwc.?t?1,xt+bc] ????????????????????(3)

        式中,tanh為tanh函數(shù);[wi]為輸入門權(quán)重;[wc]為即將更新到細胞狀態(tài)中的備選細胞狀態(tài)的信息;[?t?1]為t-1時刻的隱藏狀態(tài);[xt]為輸入數(shù)據(jù);[bi]為遺忘門的偏差;[bc]為備選細胞狀態(tài)偏差。則LSTM細胞狀態(tài)的更新過程為:

        [ct=ft×ct?1+it×at] ??????????????????????????(4)

        輸出門(output gate)對信息進行選擇性輸出,并且在細胞狀態(tài)參與下進行輸出,數(shù)學表達式為:

        [ot=σw0?t?1,xt+b0] ??????????????????????????(5)

        [?t=ot×tan?ct] ???????????????????????????(6)

        式中,[ot]為輸出門的輸出;[w0]為輸出門的權(quán)重;[?t?1]為t-1時刻的隱藏狀態(tài);[?t]為t時刻的隱藏狀態(tài);[xt]為輸入數(shù)據(jù);[b0]為備選細胞狀態(tài)的偏差。

        3.2 灰狼優(yōu)化算法

        灰狼優(yōu)化算法(Grey Wolf Optimizer)是一項模擬灰狼的社會等級制度和捕食行為而提出的全新集群智能優(yōu)化算法[12]。在灰狼族群中一共存在[α]、[β]、[δ]和w共4個社會等級,并由GWO算法建立了一個模型,該算法通過比較得到各個灰狼的社會等級來控制檢索方向,相比于其他群體智能算法,該優(yōu)化算法通過引入可變的收斂因子以及及時的信息反饋機制,可實現(xiàn)自我調(diào)節(jié),進而可以更好地提高算法的優(yōu)化效率。使用GWO在LSTM模型的參數(shù)尋優(yōu)中,當尋優(yōu)范圍設置得當時,會使模型具有更快的尋優(yōu)速度和較高的分類準確率。

        假設搜索空間是P維的,每只狼的位置是1個矢量[Xi=(Xi,1,Xi,2,…Xi,P)],那么狼群X由N只灰狼組成[X={X1,X2,…XN}]?;依荹Xi]在更新位置時,首先要計算自己與最好的3只狼的距離,計算公式如下:

        [Pα=C1Xα?Xit] ??????????????????????????(7)

        [Pβ=C2Xβ?Xit] ???????????????????????????(8)

        [Pδ=C3Xδ?Xit] ????????????????????????????(9)

        [Ck=2r1,k=1,2,3] ???????????????????????(10)

        式中,[Pα]、[Pβ]、[Pδ]分別代表灰狼[Xi]距離灰狼[α]、[β]、[δ]的位置;[Xit]為當前灰狼位置;[C1]、[C2]、[C3]是隨機向量;[r1]∈[0,1]的隨機數(shù)。

        求出[Xi]距[α]、[β]、[δ] 3只灰狼的距離后,[Xi]要向這3只灰狼靠攏,位置迭代公式如下:

        [X'1=Xα?A1PαX'2=Xβ?A2PβX'3=Xδ?A3Pδ] ??????????????????????????(11)

        [Ak=2ar2?a,k=1,2,3] ????????????????????(12)

        [Xiter+1=X'1+X'2+X'33] ???????????????????(13)

        式中,[X'1]、[X'2]、[X'3]分別是灰狼[Xi]要向[α]、[β]、[δ]方向移動的矢量;[X(iter+1)]是最終位置;[r2]∈[0,1];a為收斂因子,計算公式為[a=2?(l/lmax)],[l]為迭代次數(shù),[lmax]為最大迭代次數(shù)。我們可以發(fā)現(xiàn),當?shù)螖?shù)增加時,a的值會呈現(xiàn)出一種線性下降的趨勢,最終降至0。

        4 構(gòu)建基于GWO-LSTM駕駛意圖識別模型

        4.1 LSTM駕駛意圖識別網(wǎng)絡結(jié)構(gòu)

        如圖2所示,本文采用LSTM網(wǎng)絡結(jié)構(gòu)來構(gòu)建駕駛意圖識別模型。被預測車輛自身特征的嵌入維度為4,分別為加速踏板開度a和其開度變化率[da/dt]以及制動踏板開度b和其開度變化率[db/dt],LSTM網(wǎng)絡的隱藏維度為6,它們分別為:緩慢加速、一般加速、急加速、緩慢制動、一般制動、緊急制動6個駕駛意圖。在此基礎(chǔ)上,采用灰狼優(yōu)化算法對網(wǎng)絡參數(shù)進行優(yōu)化。

        4.2 基于灰狼優(yōu)化算法的LSTM駕駛意圖識別模型

        一般的LSTM參數(shù)的確定和優(yōu)化是利用時序反向傳播(Back Propagation Through Time,BPTT)算法實現(xiàn)的,但是該算法存在統(tǒng)計復雜性較大、可能收斂于局部解的不足,而灰狼優(yōu)化算法則擁有全局收斂且收斂速度較高的特性。本文主要將GWO應用于LSTM的參數(shù)優(yōu)化,同時將采用基于GWO的LSTM時間序列數(shù)據(jù)分類預測模型應用于駕駛意圖辨識方向。該模型吸取了長短期記憶網(wǎng)絡特有的擅于分析時序數(shù)據(jù)的特性,并通過GWO優(yōu)化方法確定網(wǎng)絡最優(yōu)參數(shù),確保該模型能夠收斂于全局最優(yōu)。圖3為GWO算法優(yōu)化LSTM網(wǎng)絡的流程圖。

        4.3 模型評價指標

        4.3.1 混淆矩陣

        混淆矩陣又被稱之為誤差矩陣,是用來評價模型準確度的一個基準規(guī)格,用n行n列的矩陣形式表示?;煜仃嚾绫?所示。

        我們從混淆矩陣中可以得出分析指標:

        a.精確率Precision:被正確預測的Positive樣本/被預測為Positive的樣本總數(shù):

        [Precision=TPTP+FP] ?????????????????????????(14)

        b.召回率Recall:被正確預測的Positive樣本/真實值是Positive的樣本總數(shù)

        [Recall=TPTP+FN] ???????????????????????(15)

        c.[F1]分數(shù):Precision和Recall的調(diào)和平均值,[F1]值越大,模型越優(yōu)秀

        [F1=2Precision·RecallPrecision+Recall] ????????????????????????(16)

        d.對于多分類問題,取宏平均[F1]分數(shù)([Flmacro])作為綜合[F1]分數(shù),其表達式如下:

        [Flmacro=1Kk=1KF1k] ???????????????????????????(17)

        式中,K為意圖總數(shù)(本文有6種意圖,因此K=6),[F1k]為第k類意圖對應的[F1]分數(shù)。

        4.3.2 ROC曲線

        ROC的全稱是Receiver Operating Characteristic Curve,該曲線主要的分析方法是畫一條以假正類率(False Positive Rate,F(xiàn)PR)為橫坐標,真正類率(True Positive Rate,TPR)為縱坐標的工作特性曲線。通過混淆矩陣求解TPR和FPR的公式如下:

        TPR:在實際為正類的總樣本中,被正確判斷為正類的比率。公式為:

        [TPR=TPTP+FN] ??????????????????????????(18)

        FPR:在實際為反類的總樣本中,被錯誤判斷為正類的比率。公式為:

        [FPR=FPFP+TN] ??????????????????????(19)

        4.3.3 AUC面積

        AUC面積指在ROC曲線下沿著橫軸做積分的得到的值即為AUC面積。ROC曲線一般在y=x的上方,因此AUC的取值一般在[0.5,1]。AUC值越大,模型的性能就會越好。

        4.3.4 交叉熵損失

        交叉熵損失指真實概率分布與預測概率分布的差異。一個分類模型交叉熵的值越小,該模型的分類預測效果就會越好。公式為:

        [Loss=?ylogy'+1?ylog1?y'] ???????????(20)

        5 模型訓練

        5.1 基于GWO優(yōu)化的LSTM模型訓練

        本文通過Matlab軟件進行算法的訓練及仿真檢驗,具體實現(xiàn)過程如下:

        a.載入數(shù)據(jù)及駕駛意圖的分類類別。

        b.選定數(shù)據(jù)的訓練集和測試集。

        c.數(shù)據(jù)的歸一化處理;采用[0,1]區(qū)間歸一化方式,歸一化映射如下:

        [f:x→y=x?xminxmax?xmin] ?????????????????????(21)

        d.對GWO優(yōu)化算法參數(shù)進行設置與初始化。

        e.記錄最佳參數(shù)值。

        f.根據(jù)最優(yōu)參數(shù)值建立LSTM駕駛意圖模型,最終得到駕駛意圖分類準確率。

        5.2 參數(shù)對比

        本文是以支持向量機(SVM)作為基準,將單一的LSTM模型以及經(jīng)過GWO優(yōu)化過的LSTM模型的訓練結(jié)果進行如下對比。如圖4所示,SVM模型的訓練集預測意圖結(jié)果為79.89%,未優(yōu)化的LSTM模型的訓練集預測意圖結(jié)果為80.08%,而經(jīng)過優(yōu)化的LSTM模型的準確率達到99%,并且通過其混淆矩陣可以看出:標簽1、3、4、5即緩慢加速、急加速、緩慢制動、一般制動4個駕駛意圖的訓練結(jié)果都為100%,說明該模型訓練的較為精準。

        6 試驗與結(jié)果分析

        為了驗證本文提出模型的準確性,采用同一數(shù)據(jù)集,對比分析以下多個模型的相關(guān)性能指標。

        a.SVM模型,將目標車輛在時刻t的狀態(tài)信息作為SVM的輸入,輸出該時刻的駕駛意圖。

        b.LSTM模型,將目標汽車過去[ti]時長的特征序列輸入到LSTM網(wǎng)絡,特征包括a、b、[da/dt]、[db/dt],利用Softmax函數(shù)計算出各個駕駛意圖概率。

        c.GWO-LSTM模型,在LSTM模型的基礎(chǔ)上引入灰狼優(yōu)化算法(GWO)對LSTM的參數(shù)進行優(yōu)化,得到GWO-LSTM模型。

        對以上三個模型進行訓練,其性能指標分析結(jié)果如表2所示。由表2可以看出,本文提出的GWO-LSTM駕駛意圖識別模型總體上優(yōu)于SVM模型和普通的LSTM模型。其中該模型駕駛意圖辨識結(jié)果的綜合準確率、召回率以及綜合[F1]分數(shù)分別為0.981、0.983和0.982,均有較大提升,并且該模型的交叉熵損失遠低于對比基線模型,說明所提模型能夠更好地辨識出汽車的駕駛意圖。

        圖5是GWO-LSTM模型的混淆矩陣,從圖中可以得知,本文提出的駕駛意圖辨識模型對緩慢加速、一般加速、急加速、緩慢制動、一般制動和緊急制動6種意圖的識別準確率都在97%左右,具有較優(yōu)的性能。

        圖6為SVM、LSTM、GWO-LSTM三個駕駛意圖辨識模型的宏觀ROC曲線,從該圖可得出:基于SVM的意圖識別模型與LSTM模型中的AUC值分別為0.83、0.90,而本文給出的GWO-LSTM模型的AUC值為0.98,相比于前兩者而言,該模型具有更高的意圖辨識能力。

        7 結(jié)語

        a.選取加速踏板開度a和其開度變化率[da/dt],以及制動踏板開度b和其開度變化率[db/dt]用于加速意圖和制動意圖識別的參數(shù),并將加速意圖和制動意圖按照緊急程度劃分為6種類別。

        b.構(gòu)建了基于GWO-LSTM的駕駛意圖辨識模型,從測試結(jié)果可以看出,該模型在準確率、宏觀[F1]值以及測試集誤差等指標上明顯優(yōu)于基線模型SVM和普通的LSTM模型,辨識結(jié)果準確可靠。

        c.該分類模型有助于后續(xù)更好的研究和開發(fā)汽車驅(qū)動控制策略,為改善汽車的操縱性和安全性打下基礎(chǔ)。

        參考文獻:

        [1]A.Pentland,A.Liu,Modeling and prediction of human behavior. Neural Computation,1999(11):229–242.

        [2]馬晶晶.基于隱馬爾可夫理論的駕駛意圖辨識研究[D].長沙:長沙理工大學,2012.

        [3]王暢.基于隱形馬爾科夫模型的駕駛員意圖辨識方法研究[D].長春:吉林大學,2011.

        [4]曲代麗.基于模糊神經(jīng)網(wǎng)絡的駕駛員制動意圖辨識技術(shù)研究[D].長春:長春工業(yè)大學,2016.

        [5]王慶年,唐先智,王鵬宇,等.基于駕駛意圖識別的混合動力汽車控制策略[J].吉林大學學報(工學版),2012,42(4):789-795.

        [6]李慧,李曉東,宿曉曦.一種優(yōu)化參數(shù)的支持向量機駕駛意圖識別[J].實驗室研究與探索,2018,37(2):35-39.

        [7]麻婷婷,涂孝軍,朱偉達.基于支持向量機的駕駛員超車意圖識別[J].上海工程技術(shù)大學學報,2016,30(3):203-208.

        [8]Song Ruitao.Driver intention prediction using model-added Bayesian network[J].Proceedings of the Institution of Mechanical Engineers,2021,235(5):1236-1244.

        [9]季學武,費聰,何祥坤,等.基于LSTM網(wǎng)絡的駕駛意圖識別及車輛軌跡預測[J].中國公路學報,2019,32(6):34-42.

        [10]梁凡.基于LSTM網(wǎng)絡的自動駕駛意圖識別研究[D].烏魯木齊:新疆大學,2020.

        [11]宋曉琳,曾艷兵,曹昊天,等.基于長短期記憶網(wǎng)絡的換道意圖識別方法[J].中國公路學報,2021,34(11):236-245.

        [12]王書芹,華鋼,郝國生,等.基于灰狼優(yōu)化算法的長短期記憶網(wǎng)絡在時間序列預測中的應用[J].中國科技,2017,12(20):2309-2314.

        作者簡介:

        席嬋嬋,女,1997年生,碩士,研究方向為汽車能量管理。

        楊昌波(通訊作者),男,1972年生,高級工程師,研究方向為汽車設計制造。

        猜你喜歡
        長短期記憶網(wǎng)絡
        基于深度學習的電子病歷實體標準化
        軟件導刊(2019年8期)2019-10-15 02:21:53
        基于深度學習的電子病歷命名實體識別的研究與實現(xiàn)
        軟件(2019年8期)2019-10-08 11:55:52
        基于長短期記憶的車輛行為動態(tài)識別網(wǎng)絡
        計算機應用(2019年7期)2019-09-04 10:14:27
        基于層次注意力機制神經(jīng)網(wǎng)絡模型的虛假評論識別
        計算機應用(2019年7期)2019-09-04 10:14:27
        基于多注意力多尺度特征融合的圖像描述生成算法
        計算機應用(2019年2期)2019-08-01 01:57:38
        基于注意力機制的行人軌跡預測生成模型
        計算機應用(2019年3期)2019-07-31 12:14:01
        從餐館評論中提取方面術(shù)語
        多種算法對不同中文文本分類效果比較研究
        軟件導刊(2019年5期)2019-05-24 14:17:58
        LSTM—RBM—NMS模型下的視頻人臉檢測方法研究
        餐飲業(yè)客流預測的深度聯(lián)合模型
        商情(2018年47期)2018-11-26 09:12:38
        黄色网址国产| 国产特级毛片aaaaaa高潮流水| 国产主播一区二区三区在线观看 | 亚洲高清乱码午夜电影网| 天堂中文在线资源| 日本高清色倩视频在线观看| 欧美精品区| 精品人妻VA出轨中文字幕| 日韩在线精品在线观看| 亚洲欧洲美洲无码精品va| 日本视频一区二区三区| 亚洲免费女女在线视频网站| 成人在线免费电影| 亚洲综合无码一区二区| 国产精品原创巨作av无遮| 国产在视频线精品视频二代| 青草草视频在线观看华人免费| 摸丰满大乳奶水www免费| 久久精品视频在线看99| 国产人成精品免费视频| 亚洲一区二区国产精品视频 | 免费观看mv大片高清| 久久无码专区国产精品| 色欲人妻综合网| 亚洲肥老熟妇四十五十路在线| 一区二区三区在线视频免费观看| 久久久人妻丰满熟妇av蜜臀| 97精品人妻一区二区三区蜜桃| 日韩日韩日韩日韩日韩| 丁香五月缴情综合网| 国产香蕉一区二区三区| 一区二区视频在线观看地址| 日韩吃奶摸下aa片免费观看| 国产激情久久99久久| 国产精品中文字幕日韩精品| 无码熟妇人妻av在线影片最多| 亚洲综合无码一区二区| 蜜桃视频在线免费观看完整版| av高潮一区二区三区| 无码国产精成人午夜视频一区二区| 香蕉视频在线精品视频|