亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于EMD與Attention-LSTM的鐵路貨運(yùn)站短期裝車量預(yù)測研究

        2023-12-26 06:30:32汪崗馬亮陳奕霖
        鐵道貨運(yùn) 2023年12期
        關(guān)鍵詞:貨運(yùn)站裝車分量

        汪崗,馬亮,陳奕霖

        (1. 國能包神鐵路集團(tuán)有限責(zé)任公司 調(diào)度指揮中心, 內(nèi)蒙古 包頭 014000;2. 西南交通大學(xué) 信息科學(xué)與技術(shù)學(xué)院, 四川 成都 611756;3. 中國鐵道科學(xué)研究院集團(tuán)有限公司 國家鐵路智能運(yùn)輸系統(tǒng)工程技術(shù)研究中心, 北京 100081;4. 西南交通大學(xué) 四川省列車運(yùn)行控制技術(shù)工程研究中心,四川 成都 611756)

        0 引言

        近年來,隨著我國產(chǎn)業(yè)結(jié)構(gòu)調(diào)整,各種運(yùn)輸方式之間競爭加劇。為防止客戶流失、均衡鐵路運(yùn)力配置和實(shí)現(xiàn)運(yùn)輸效益最大化,鐵路運(yùn)輸企業(yè)需要具備較強(qiáng)的精準(zhǔn)掌握貨運(yùn)需求和動態(tài)部署貨運(yùn)資源的能力。鐵路貨運(yùn)站裝車量預(yù)測研究對貨運(yùn)調(diào)度人員提前準(zhǔn)確掌握未來貨運(yùn)需求、實(shí)現(xiàn)空車提前部署、減少空車無效走行和提高貨運(yùn)效率起到關(guān)鍵作用。

        目前關(guān)于鐵路貨運(yùn)站裝車量預(yù)測的研究較少,但國內(nèi)外學(xué)者對鐵路貨運(yùn)量預(yù)測做了大量研究工作,傳統(tǒng)的預(yù)測方法有灰色模型預(yù)測法[1-2]和回歸預(yù)測法[3],這些方法適合長期的貨運(yùn)需求量預(yù)測,在以往穩(wěn)定、線性變化的貨運(yùn)量需求預(yù)測中具有較高的精度。但對于具有隨機(jī)性、不穩(wěn)定性和非線性特征的歷史數(shù)據(jù),這些方法往往表現(xiàn)不佳。針對這一問題,機(jī)器學(xué)習(xí)、深度學(xué)習(xí)和組合模型等預(yù)測法被應(yīng)用到鐵路貨運(yùn)量預(yù)測研究中。例如,梁寧等[4]引入灰色關(guān)聯(lián)分析計(jì)算貨運(yùn)量影響因素權(quán)重,將其作為輸入變量構(gòu)建多項(xiàng)式核函數(shù)與徑向基核函數(shù)線性組合的SVM-mixed預(yù)測模型,提高了預(yù)測精度;陳鵬芳等[5]采用PCA和WOA算法對LSSVM進(jìn)行參數(shù)優(yōu)化,提高了模型的準(zhǔn)確性和穩(wěn)定性;考慮到深度學(xué)習(xí)模型的非線性學(xué)習(xí)能力和數(shù)據(jù)擬合能力,程肇蘭等[6]選用LSTM網(wǎng)絡(luò)對廣州鐵路(集團(tuán))公司2010—2017年的貨運(yùn)量數(shù)據(jù)進(jìn)行預(yù)測,并與ARIMA模型和BP神經(jīng)網(wǎng)絡(luò)進(jìn)行對比,結(jié)果表明LSTM模型更佳;歐雅琴等[7]采用蜻蜓算法對LSTM參數(shù)進(jìn)行優(yōu)化,提升了模型預(yù)測性能;郭洪鵬等[8]將Bi-LSTM網(wǎng)絡(luò)用于鐵路貨運(yùn)量預(yù)測,驗(yàn)證了該模型在某鐵路企業(yè)月度和日貨運(yùn)量預(yù)測的準(zhǔn)確度;徐玉萍等[9]將乘積集結(jié)模型與引入注意力機(jī)制的LSTM模型進(jìn)行組合,驗(yàn)證了組合模型用于鐵路貨運(yùn)量的預(yù)測性能優(yōu)于單一模型。

        這些研究對鐵路貨運(yùn)站裝車量預(yù)測做出了積極探索,但大多以全路或鐵路局集團(tuán)公司管轄范圍內(nèi)的鐵路貨運(yùn)量為研究對象,并且以年為時間粒度進(jìn)行預(yù)測,所得結(jié)果不適合作為鐵路日常工作計(jì)劃編制的依據(jù),而貨運(yùn)站短期裝車量的預(yù)測結(jié)果更有助于日常工作計(jì)劃編制與貨運(yùn)組織調(diào)整。余姣姣[10]首次以貨運(yùn)站裝車量為研究對象,但由于相空間重構(gòu)參數(shù)選擇的差異導(dǎo)致SVM模型的不穩(wěn)定,使得該模型對不同貨運(yùn)站裝車量預(yù)測的性能不同。張志文等[11]利用結(jié)合注意力機(jī)制的LSTM模型對國家能源投資集團(tuán)有限責(zé)任公司某一區(qū)域內(nèi)貨運(yùn)站日裝車量趨勢展開研究,但尚未驗(yàn)證該方法對具體某一貨運(yùn)站的預(yù)測性能。

        考慮到貨運(yùn)站短期裝車量的波動性和隨機(jī)性,研究將模態(tài)分解引入短期裝車量預(yù)測中,提出EMDAttention-LSTM組合模型。該方法將原本隨機(jī)、波動性強(qiáng)的短期裝車量數(shù)據(jù)分解成有限個固有模態(tài)和趨勢分量,分解后的分量序列特征各異,再利用引入注意力機(jī)制的LSTM網(wǎng)絡(luò)對各分量分別進(jìn)行預(yù)測,最后疊加各分量預(yù)測結(jié)果,完成短期裝車量預(yù)測工作。結(jié)果表明EMD-Attention-LSTM組合模型相較于其他方法具備更高的預(yù)測準(zhǔn)確度。

        1 鐵路貨運(yùn)站短期裝車量預(yù)測組合模型構(gòu)建

        1.1 鐵路貨運(yùn)站短期裝車量預(yù)測定義

        貨運(yùn)站裝車量預(yù)測主要目的是為編制和調(diào)整貨運(yùn)日計(jì)劃提供依據(jù),約定短期裝車量預(yù)測時間粒度為1 d。預(yù)測模型表示為

        式中:L為歷史數(shù)據(jù)的時間窗口長度,歷史天數(shù);P為預(yù)測步長,未來天數(shù);t=(L,L+1,…,N)為可選擇的歷史數(shù)據(jù)時刻值,N為歷史數(shù)據(jù)的長度;xt-L+1:t=(xt-L+1,xt-L+1,…,xt-1,xt)表示預(yù)測模型輸入長度為某貨運(yùn)站L天的歷史裝車量時間序列,等于歷史每天裝車量形成的序列;表示某貨運(yùn)站未來P天的裝車量預(yù)測結(jié)果,等于未來每天預(yù)測裝車量形成的序列;f為通過映射關(guān)系建立鐵路貨運(yùn)站短期裝車量預(yù)測模型,實(shí)現(xiàn)基于某貨運(yùn)站歷史裝車量時間序列,對未來裝車量序列的預(yù)測工作。

        1.2 經(jīng)驗(yàn)?zāi)B(tài)分解理論

        EMD[12]是一種高效的信號分解方法,該方法不依賴任何基函數(shù),具有良好的自適應(yīng)性,非常適合處理非線性和非平穩(wěn)的數(shù)據(jù)。EMD基于數(shù)據(jù)局部特征時間尺度,從原信號中提取固有模態(tài)函數(shù)(IMF),其結(jié)果是將信號中不同尺度的波動和趨勢分解開來,產(chǎn)生一系列具有不同尺度特征的數(shù)據(jù)序列,每一個序列代表一個固有模態(tài)函數(shù),這使得每一個IMF代表了原信號中所包含的尺度波動成分,而剩余項(xiàng)代表原信號的趨勢或均值。EMD算法與小波算法相比,可以更準(zhǔn)確地反映原始數(shù)據(jù)的內(nèi)部特征,有更強(qiáng)的局部表現(xiàn)能力,因而在處理非線性、非平穩(wěn)數(shù)據(jù)時,EMD方法更為有效[13]。設(shè)裝車量時間序列為x(t),其EMD分解步驟如下。

        (1)確定x(t)的所有極大值和極小值點(diǎn)。

        (2)通過3次樣條插值連接極大值點(diǎn)構(gòu)成上包絡(luò)線eup(t),連接極小值點(diǎn)構(gòu)成下包絡(luò)線elow(t)。

        (3)根據(jù)上、下包絡(luò)線,計(jì)算x(t)的局部均值m1(t),將x(t)與m1(t)相減得到中間序列h1(t)。

        (4)以h1(t)代替原始序列x(t),重復(fù)步驟(1)—(3),直到h1(t)=x(t)-m1(t)滿足IMF條件,記c1(t)=h1(t),則c1(t)為裝車量序列的第1個IMF分量,它包含原始序列中最短的周期分量。

        (5)從原始信號中分離出IMF分量c1(t),得到剩余項(xiàng)r1(t)。

        (6)將剩余項(xiàng)r1(t)作為新的原始數(shù)據(jù),重復(fù)步驟(1)—(5),直到rN(t)小于設(shè)定值或者rN(t)變成單調(diào)函數(shù),停止迭代,得到其余IMF分量和1個余量,如下所示。

        至此,裝車量序列x(t)就被分解為rN(t),每個IMF分量都反映了原序列在不同時間尺度下的內(nèi)在模態(tài)特征。

        1.3 長短期記憶網(wǎng)絡(luò)

        LSTM是循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)的變體,解決了RNN存在的長期信息保存和短期輸入缺失的問題。LSTM引入門控機(jī)制來控制單元內(nèi)容,LSTM單元結(jié)構(gòu)如圖1所示。

        圖1 LSTM單元結(jié)構(gòu)Fig.1 Structure of LSTM unit

        其中,Ct和Ht分別表示模型t時刻下的記憶狀態(tài)和隱層狀態(tài),Xt和Yt為模型的輸入和輸出,σ為sigmoid激活函數(shù)。LSTM單元內(nèi)部的計(jì)算過程如下。首先,將當(dāng)前時間步的輸入Xt和前一個時間步的隱狀態(tài)Ht-1送入3個具有sigmoid函數(shù)和1個具有tanh函數(shù)的全連接層分別得到遺忘門Ft、輸入門It、輸出門Ot和候選記憶元的值。其次,通過遺忘門Ft和輸入門It分別控制保留過去記憶元Ct-1的內(nèi)容和選用候選記憶元的新數(shù)據(jù)得到當(dāng)前時刻的記憶元Ct,最后將Ct送入具有tanh激活函數(shù)的全連接層,確保其值在(-1,1)內(nèi),再與輸出門Ot按元素相乘得到新產(chǎn)生的隱狀態(tài)Ht。其計(jì)算公式如下。

        式中:Wxi,Wxf,Wxo和Wxc為每一層連接到輸入向量Xt的權(quán)重矩陣;Whi,Whf,Who和Whc為每一層連接到前一隱狀態(tài)Ht-1的權(quán)重矩陣;bi,bf,bo和bc為偏置參數(shù)。

        1.4 注意力機(jī)制

        注意力機(jī)制最早由Bahdanau等人在機(jī)器翻譯模型中提出[14],注意力機(jī)制從人類視覺神經(jīng)系統(tǒng)得到啟發(fā),即人類觀察到的所有事物并非同等重要,大腦通過將注意力引向人類更感興趣的一小部分信息,使得人類能更有效地分配資源。在深度學(xué)習(xí)模型中,注意力機(jī)制通過注意力評分函數(shù)f計(jì)算查詢q和鍵k的注意力權(quán)重α,旨在利用注意力權(quán)重α實(shí)現(xiàn)對值v的選擇傾向,通用的注意力機(jī)制計(jì)算過程如下。

        (1)計(jì)算某一查詢q對數(shù)據(jù)庫中第i個鍵ki的注意力權(quán)重α(q,ki),通過softmax函數(shù)將其值限制在(0,1)內(nèi)。

        (2)將注意力權(quán)重α(q,ki)與鍵ki對應(yīng)的值vi進(jìn)行加權(quán)求和,得到注意力向量,m為數(shù)據(jù)庫中鍵值對k-v的個數(shù)。

        1.5 裝車量預(yù)測組合模型EMD-Attention-LSTM

        EMD-Attention-LSTM預(yù)測模型首先對歷史貨運(yùn)站日裝車量數(shù)據(jù)進(jìn)行清洗,整理得到重點(diǎn)貨運(yùn)站歷史裝車量的時間序列數(shù)據(jù)。由于直接對全部歷史數(shù)據(jù)進(jìn)行分解會導(dǎo)致信息泄露的問題,因此將歷史數(shù)據(jù)劃分為訓(xùn)練集、驗(yàn)證集和測試集,采用EMD算法分別進(jìn)行分解。隨后將分解結(jié)果輸入到Attention-LSTM模型進(jìn)行訓(xùn)練,得到各分量預(yù)測模型并輸出測試集預(yù)測結(jié)果,最后進(jìn)行對比驗(yàn)證,EMD-Attention-LSTM組合模型預(yù)測流程如圖2所示。

        圖2 EMD-Attention-LSTM組合模型預(yù)測流程Fig.2 Prediction process of EMD-Attention-LSTM

        具體步驟如下。

        (1)數(shù)據(jù)處理。收集歷史貨運(yùn)站裝車量數(shù)據(jù),采用均值插值法對缺失數(shù)據(jù)進(jìn)行處理,并將歷史裝車量數(shù)據(jù)按照6∶2∶2劃分為訓(xùn)練集、驗(yàn)證集、測試集。

        (2)經(jīng)驗(yàn)?zāi)B(tài)分解。采用EMD算法將歷史裝車量數(shù)據(jù)分解為N個固有模態(tài)分量{c1(t),c2(t),…,cN(t)}和1個剩余項(xiàng)分量rN(t),為減少各分量尺度差異對預(yù)測結(jié)果的影響,采用min-max歸一法對各分量進(jìn)行歸一化處理,將數(shù)值縮放在(0,1)之間,計(jì)算公式如下。

        式中:x*為歸一化后的數(shù)據(jù);x為輸入數(shù)據(jù);xmin和xmax為數(shù)據(jù)中的最小值和最大值。

        (3)Attention-LSTM模型預(yù)測。建立基于注意力機(jī)制的LSTM模型,注意力評分函數(shù)設(shè)為f(q,ki)=qki,以點(diǎn)積操作實(shí)現(xiàn)高效率的注意力機(jī)制。將EMD預(yù)測分量輸入到Attention-LSTM模型,首先通過全連接層將時序輸入信息映射為高維特征,再利用兩層LSTM網(wǎng)絡(luò)提取時序數(shù)據(jù)的有效信息,最后將各分量預(yù)測結(jié)果相加,重構(gòu)為最終模型預(yù)測結(jié)果。Attention-LSTM網(wǎng)絡(luò)流程圖如圖3所示。

        圖3 Attention-LSTM網(wǎng)絡(luò)流程圖Fig.3 Flow of Attention-LSTM network

        (4)評價模型預(yù)測結(jié)果。通過預(yù)測值和實(shí)際值的誤差度量模型精度,選用對稱平均絕對百分比誤差(SMAPE)、平均絕對百分比誤差(MAE)和均方根誤差(RMSE)作為評價函數(shù),評價函數(shù)值越小表示預(yù)測值更貼近實(shí)際值,計(jì)算公式如下。

        式中:n代表待預(yù)測裝車量天數(shù);和yi為預(yù)測第i天裝車量的預(yù)測值和實(shí)際值。

        2 實(shí)例驗(yàn)證

        2.1 實(shí)驗(yàn)數(shù)據(jù)

        采用某鐵路運(yùn)輸企業(yè)3個重點(diǎn)貨運(yùn)站從2021年1月1日至2022年6月30日546 d的歷史裝車數(shù)據(jù)進(jìn)行實(shí)驗(yàn)分析與評估,其中A,B站主要運(yùn)輸煤炭等大宗貨物,C站主要運(yùn)輸非煤產(chǎn)品和集裝箱的零散白貨。煤炭等大宗貨物均為整列運(yùn)輸,非煤產(chǎn)品和集裝箱的零散白貨主要以摘掛列車的方式運(yùn)輸,故采用列數(shù)表示A,B站裝車量,以車輛數(shù)表示C站裝車量。A,B和C貨運(yùn)站日裝車量走勢圖如圖4所示。

        圖4 A,B和C貨運(yùn)站日裝車量走勢圖Fig.4 Trend of daily loading quantities of freight stations A, B, and C

        可以看出A,B和C站日裝車量序列在短期內(nèi)存在波動,在長期內(nèi)趨于平穩(wěn),C站的波動頻率和幅度比A,B站更劇烈。采用PyEMD庫中的EMD函數(shù)將原始數(shù)據(jù)的波動性和趨勢性數(shù)據(jù)進(jìn)行分離,EMD算法分解結(jié)果如圖5所示。

        圖5 EMD算法分解結(jié)果Fig.5 Decomposition results of EMD algorithm

        2.2 模型超參數(shù)設(shè)置

        在深度學(xué)習(xí)時間序列預(yù)測任務(wù)中,歷史數(shù)據(jù)長度一般為預(yù)測步長的3~7倍[15],考慮A站裝車量預(yù)測,選擇輸入序列長度L=15 d和預(yù)測序列長度P=3 d的數(shù)據(jù)集,構(gòu)建貨運(yùn)站裝車量預(yù)測模型,并基于Python 3.7實(shí)現(xiàn)了ARIMA,Attention-LSTM,LSTM和SVM的對比模型。其中,深度學(xué)習(xí)方法使用了torch-1.13.0-cu117框架實(shí)現(xiàn),而SVM模型則采用sklearn框架進(jìn)行編寫,ARIMA模型使用了statsmodels庫實(shí)現(xiàn)。通過網(wǎng)格搜索法確定各個模型的最優(yōu)超參數(shù),A站對比模型的超參數(shù)設(shè)置如表1所示。

        表1 A站對比模型的超參數(shù)設(shè)置Tab.1 Hyperparameter setting of comparison models at station A

        2.3 實(shí)驗(yàn)結(jié)果與評價分析

        為了比較EMD-Attention-LSTM裝車量預(yù)測模型與其他經(jīng)典模型在鐵路貨運(yùn)站裝車量預(yù)測性能上的差異,基于之前的參數(shù)設(shè)置,在同一數(shù)據(jù)集上對所有模型進(jìn)行了反復(fù)實(shí)驗(yàn)。最終得到了A站裝車量預(yù)測結(jié)果的趨勢圖,A站EMD-Attention-LSTM模型與對比模型預(yù)測趨勢圖如圖6所示。

        計(jì)算得到EMD-Attention-LSTM與對比模型在A站裝車量數(shù)據(jù)上的評價結(jié)果如表2所示。

        表2 EMD-Attention-LSTM與對比模型在A站裝車量數(shù)據(jù)上的評價結(jié)果Tab.2 Evaluation results of EMD-Attention-LSTM and comparison model on the loading quantities of station A

        從表2中對比分析得到:EMD-Attention-LSTM模型在SMAPE指標(biāo)上較ARIMA模型低近3.4%,較LSTM模型低近2.7%;相比于傳統(tǒng)方法,EMDAttention-LSTM模型在MAE和RMSE指標(biāo)上也顯著降低;基于深度學(xué)習(xí)的LSTM與Attention-LSTM模型在SMAPE指標(biāo)上分別比機(jī)器學(xué)習(xí)模型SVM降低了0.4%和1.8%;而基于統(tǒng)計(jì)的時間序列預(yù)測模型ARIMA與傳統(tǒng)的機(jī)器學(xué)習(xí)模型SVM的預(yù)測性能則相差不大;此外,Attention-LSTM模型在3個指標(biāo)上表現(xiàn)出優(yōu)于經(jīng)典模型LSTM的預(yù)測性能,但加入EMD分解后的Attention-LSTM模型表現(xiàn)更為優(yōu)異。

        為探究EMD-Attention-LSTM模型的通用性,對同樣主要運(yùn)輸煤炭等大宗貨物的B站和主要運(yùn)輸零散白貨的C站的日裝車量進(jìn)行預(yù)測,B貨運(yùn)站裝車量預(yù)測結(jié)果如表3所示,C貨運(yùn)站裝車量預(yù)測結(jié)果如表4所示。該模型在B站同樣表現(xiàn)出最優(yōu)預(yù)測性能,當(dāng)預(yù)測步長分別為P=3 d和P=7 d時,EMD-Attention-LSTM預(yù)測模型的SMAPE指標(biāo)比最優(yōu)的對比模型Attention-LSTM下降了6.7%和3.4%,MAE與RMSE同樣優(yōu)于其他對比模型。在C站該模型比對比模型預(yù)測效果要優(yōu),但SMAPE指標(biāo)僅為38.4%。

        表3 B貨運(yùn)站裝車量預(yù)測結(jié)果Table 3 Prediction results of loading quantities of freight station B

        表4 C貨運(yùn)站裝車量預(yù)測結(jié)果Table 4 Prediction results of loading quantities of freight station C

        方差可以衡量時間序列的波動性,自相關(guān)系數(shù)則可以反映時間序列的趨勢性和隨機(jī)性,計(jì)算A,B和C貨運(yùn)站歷史裝車量時間序列的方差和一階自相關(guān)系數(shù)如表5所示。

        表5 A,B和C貨運(yùn)站歷史裝車量時間序列的方差和一階自相關(guān)系數(shù)Table 5 Variance and first-order autocorrelation coefficients of loading quantities at freight stations A, B, and C

        可以發(fā)現(xiàn)預(yù)測模型對自相關(guān)性較強(qiáng)、方差較小的A,B站預(yù)測效果較好,對自相關(guān)性較弱、方差大的C貨運(yùn)站預(yù)測性能較差。

        3 結(jié)束語

        在分析鐵路貨運(yùn)站歷史日裝車量趨勢與特點(diǎn)的基礎(chǔ)上,基于EMD時間序列分解算法和Attention-LSTM神經(jīng)網(wǎng)絡(luò)構(gòu)建了鐵路貨運(yùn)站短期裝車量預(yù)測組合模型EMD-Attention-LSTM,并將其應(yīng)用于某鐵路運(yùn)輸企業(yè)重點(diǎn)貨運(yùn)站的日裝車量預(yù)測中。通過與其他主流機(jī)器學(xué)習(xí)和深度學(xué)習(xí)模型進(jìn)行對比分析,結(jié)果表明EMD-Attention-LSTM模型具有更佳的預(yù)測性能。鑒于短期裝車量數(shù)據(jù)存在波動大、隨機(jī)性強(qiáng)等特點(diǎn),EMD-Attention-LSTM模型的預(yù)測能力不穩(wěn)定,如B貨運(yùn)站和C貨運(yùn)站未來3 d的裝車量預(yù)測結(jié)果,其SMAPE值分別達(dá)到13.8%和38.4%。在后續(xù)研究中,將進(jìn)一步提升模型的泛化能力以滿足更多實(shí)際預(yù)測需求。

        猜你喜歡
        貨運(yùn)站裝車分量
        基于多品類物流網(wǎng)絡(luò)的鐵路貨運(yùn)站整合優(yōu)化
        帽子的分量
        基于西門子S7-1200PLC的桁架裝車系統(tǒng)設(shè)計(jì)
        一物千斤
        智族GQ(2019年9期)2019-10-28 08:16:21
        關(guān)于鐵路貨運(yùn)站標(biāo)準(zhǔn)化規(guī)范化建設(shè)現(xiàn)狀的分析和思考
        3月份我國動力電池裝車量5.09GWh,環(huán)比增長126.98%
        論《哈姆雷特》中良心的分量
        分量
        重載運(yùn)輸裝車區(qū)車流組織的研究與探討
        物流貨運(yùn)站場信息管理系統(tǒng)的設(shè)計(jì)與實(shí)現(xiàn)
        久久99精品久久久久久野外 | 成人综合久久精品色婷婷| 国产成人精品一区二三区在线观看| 无码人妻久久久一区二区三区| 性欧美牲交xxxxx视频欧美| 亚洲春色AV无码专区在线播放| 亚洲黑寡妇黄色一级片| av熟妇一区二区三区| 国产精品自在线拍国产手机版| 91久久久久无码精品露脸| 饥渴少妇一区二区三区| 视频一区视频二区制服丝袜| 美丽的熟妇中文字幕| 97色综合| 中文字幕在线乱码亚洲| 国产乡下三级全黄三级| 欧美成人免费高清视频| 亚洲中文字幕熟女五十| 亚洲精品中文字幕免费专区| 人妻夜夜爽天天爽一区| 99久久久无码国产精品动漫| 91国产精品自拍视频| 亚洲国产日韩欧美综合a| 中文字幕高清在线一区二区三区| 精品中文字幕手机在线| 亚洲高清在线天堂精品| 午夜精品一区二区三区的区别| 国产一区二区精品久久凹凸| 99蜜桃在线观看免费视频| 久久久久无码国产精品一区| AV无码最在线播放| 国产自产自现在线视频地址| 亚洲综合国产成人丁香五月激情| 国产精品无码一区二区三区免费| 草莓视频中文字幕人妻系列| 亚洲中文字幕人成乱码在线| 色拍自拍亚洲综合图区| 国产精品青草久久久久婷婷| 日产国产精品亚洲高清| 国产在线精品一区二区中文| 欧美在线a|