亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于TimeGAN 和CNN-BiLSTM-Attention 的大壩變形預(yù)測混合模型

        2024-12-31 00:00:00原佳帆李丹楊李佳霖秦學(xué)毛鵬
        人民黃河 2024年12期
        關(guān)鍵詞:大壩卷積精度

        摘 要:基于歷史數(shù)據(jù)的深度學(xué)習(xí)模型往往需要跨越數(shù)年的大量數(shù)據(jù)集,為了解決數(shù)據(jù)不足問題,提出一種將時(shí)間序列生成對抗性網(wǎng)絡(luò)(TimeGAN)與CNN-BiLSTM-Attention 相結(jié)合的混凝土面板堆石壩變形預(yù)測混合模型。首先,利用TimeGAN 生成虛擬數(shù)據(jù)來擴(kuò)展稀疏的數(shù)據(jù)集;然后,利用卷積神經(jīng)網(wǎng)絡(luò)(CNN)提取大壩傳感器數(shù)據(jù)中的非線性局部特征,運(yùn)用BiLSTM 捕獲雙向時(shí)間序列特征;最后,引入注意力(Attention)機(jī)制對BiLSTM 層提取的信息特征自動進(jìn)行權(quán)重分配,通過全連接層輸出最終預(yù)測結(jié)果。以貴州省畢節(jié)市某混凝土面板堆石壩為例,驗(yàn)證該混合模型的適用性。建立長短期記憶網(wǎng)絡(luò)(LSTM)、CNN-LSTM、CNN-LSTM-Attention、CNN-BiLSTM-Attention 4 種基模型,再分別引入TimeGAN,對比各模型的預(yù)測精度。結(jié)果表明:基于TimeGAN 和CNN-BiLSTM-At?tention 的混合模型的擬合效果明顯優(yōu)于其他模型,其預(yù)測值與監(jiān)測值最接近。相較于傳統(tǒng)單一LSTM 模型,混合模型的EMS、ERMS、EMA分別降低了71%、49%、45%,R2提升了20%。

        關(guān)鍵詞:TimeGAN;CNN;BiLSTM;Attention;混凝土面板堆石壩;變形預(yù)測

        中圖分類號:TV641.4 文獻(xiàn)標(biāo)志碼:A doi:10.3969/ j.issn.1000-1379.2024.12.021

        引用格式:原佳帆,李丹楊,李佳霖,等.基于TimeGAN 和CNN-BiLSTM-Attention 的大壩變形預(yù)測混合模型[J].人民黃河,2024,46(12):127-130,143.

        0 引言

        大壩作為水利樞紐的重要組成部分,具有顯著的經(jīng)濟(jì)效益和社會效益。然而,一旦發(fā)生潰壩,可能會給下游居民造成巨大的人身危害和財(cái)產(chǎn)損失[1-2] 。因此,需要采取科學(xué)有效的方法來監(jiān)測和評估大壩的運(yùn)行狀態(tài),盡早識別異常行為,以消除或最大限度地減少不利影響。

        隨著人工智能(AI)的迅猛發(fā)展,研究者們對使用智能數(shù)據(jù)驅(qū)動方法構(gòu)建各領(lǐng)域的預(yù)測模型越來越感興趣[3-6] 。在大壩變形預(yù)測領(lǐng)域,機(jī)器學(xué)習(xí)(ML)被證明是一種有效的方法,尤其對于長序列監(jiān)測數(shù)據(jù)。Yang等[7] 使用基于注意力機(jī)制優(yōu)化的LSTM 模型對拱壩變形進(jìn)行建模,證實(shí)了LSTM 優(yōu)化模型的擬合效果好于單一LSTM 模型的;Wei 等[8] 提出了一種基于CNNLSTM的大壩變形預(yù)測模型,該模型可以充分提取時(shí)間序列特征,預(yù)測精度較高;歐斌等[9] 提出了一種基于CNN-BiLSTM 的拱壩變形預(yù)測模型,該模型結(jié)合CNN 的空間特征提取能力和BiLSTM 的雙向特征提取能力,具有很好的預(yù)測效果。

        對上述模型進(jìn)行評估時(shí),主要針對時(shí)間跨度大、數(shù)據(jù)量大和固有穩(wěn)定性的大壩。然而,對于新建大壩而言,相關(guān)指標(biāo)歷史監(jiān)測序列較短、數(shù)據(jù)較少,這種缺陷會影響模型訓(xùn)練的完整性,進(jìn)而影響預(yù)測結(jié)果的準(zhǔn)確性,因此亟待研究基于稀缺數(shù)據(jù)的模型構(gòu)建方法。為此,本文提出了一種基于TimeGAN 和CNN-BiLSTMAttention的混合模型用于預(yù)測新建大壩變形,通過Ti?meGAN 生成虛擬數(shù)據(jù)擴(kuò)展訓(xùn)練數(shù)據(jù)集,利用CNN 提取大壩傳感器數(shù)據(jù)中的非線性局部特征, 并運(yùn)用BiLSTM 捕獲雙向時(shí)間序列特征,最后通過注意力機(jī)制對BiLSTM 層提取的信息特征自動進(jìn)行權(quán)重分配,以期更準(zhǔn)確預(yù)測大壩穩(wěn)定狀況。

        1 基礎(chǔ)理論與模型構(gòu)建

        1.1 TimeGAN

        生成對抗網(wǎng)絡(luò)(GAN)的概念由蒙特利爾大學(xué)著名人工智能研究員Goodfellow 于2014 年首次提出。TimeGAN[10] 是GAN 的變體,用于生成時(shí)間序列數(shù)據(jù)。TimeGAN 由自編碼器和對抗網(wǎng)絡(luò)構(gòu)成,自編碼器包括嵌入網(wǎng)絡(luò)(Embedding network)和恢復(fù)網(wǎng)絡(luò)(Recoverynetwork),對抗網(wǎng)絡(luò)包括生成器(Generator)和鑒別器(Discriminator)。

        TimeGAN 采用聯(lián)合訓(xùn)練方法,依賴自編碼器損失LR、監(jiān)督損失LM和非監(jiān)督損失LU對自編碼器和對抗網(wǎng)絡(luò)進(jìn)行訓(xùn)練。首先,通過數(shù)據(jù)重構(gòu)LR優(yōu)化自編碼器編碼解碼過程;其次,引入監(jiān)測數(shù)據(jù)作為生成器的監(jiān)督項(xiàng),定義生成器與監(jiān)測數(shù)據(jù)之間的LS,用于評估生成器的學(xué)習(xí)能力;最后,通過定義無監(jiān)督GAN 的對抗損失LU,實(shí)現(xiàn)對生成器的反饋。在關(guān)鍵損失函數(shù)的聯(lián)合訓(xùn)練下,TimeGAN 實(shí)現(xiàn)各網(wǎng)絡(luò)誤差的最小化,完成對序列相關(guān)性的學(xué)習(xí),從而生成符合真實(shí)時(shí)序分布的合成數(shù)據(jù)。一般在數(shù)據(jù)設(shè)置中,每個(gè)實(shí)例由靜態(tài)特征(如性別)和時(shí)間特征(如生命體征)組成。令S 為靜態(tài)特征的向量空間,X 為時(shí)間特征向量空間,s(s∈S)、x(x∈X)為可以用具體值實(shí)例化的隨機(jī)向量。規(guī)定(s,x1:T~p )為滿足某種聯(lián)合分布p 的元組,每個(gè)序列長度T 均為隨機(jī)變量,學(xué)習(xí)目標(biāo)是某一p^ (s,x1:T~p )盡可能逼近真實(shí)分布p(s,x1:T~p )。

        模型關(guān)鍵損失計(jì)算公式如下:

        式中:st 、s~分別為原始靜態(tài)特征、隨機(jī)靜態(tài)特征向量,xt 、x~ t分別為原始動態(tài)特征向量、隨機(jī)動態(tài)特征向量,E為概率分布的期望。

        式中yS 、yt 分別為原始靜態(tài)特征、動態(tài)特征的標(biāo)簽,y~S 、y~t 分別為原始靜態(tài)模型得到的靜態(tài)特征分類結(jié)果、動態(tài)特征分類結(jié)果。

        式中:ht 、hs分別為t 時(shí)刻的動態(tài)特征向量、靜態(tài)特征向量;ht-1為t-1 時(shí)刻的動態(tài)特征向量;zt為t 時(shí)刻的隨機(jī)動態(tài)特征向量;g 為生成器函數(shù),用于生成動態(tài)穩(wěn)含空間編碼。

        1.2 CNN

        CNN 由輸入層、卷積層、池化層、全連接層和輸出層組成。卷積層和池化層是整個(gè)模型結(jié)構(gòu)的重點(diǎn),主要用于提取特征和對特征進(jìn)行降維。

        本研究對象為大壩變形,屬于時(shí)間序列預(yù)測任務(wù),因此使用一維卷積(CONV-1D) 從數(shù)據(jù)集中提取特征。通過輸入層將監(jiān)測數(shù)據(jù)輸入CONV-1D,卷積層和池化層形成卷積組對監(jiān)測數(shù)據(jù)進(jìn)行卷積,重構(gòu)監(jiān)測數(shù)據(jù)特征,其中:卷積層負(fù)責(zé)從數(shù)據(jù)中提取局部特征,池化層負(fù)責(zé)對卷積后的數(shù)據(jù)進(jìn)行特征選擇和信息過濾以減少數(shù)據(jù)量并加快計(jì)算。

        1.3 BiLSTM

        LSTM 作為循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)的擴(kuò)展,具備學(xué)習(xí)長期依賴關(guān)系的能力。相對于傳統(tǒng)RNN,LSTM 更適用于處理和預(yù)測具有長間隔的時(shí)間序列。LSTM 隱藏層結(jié)構(gòu)包括神經(jīng)元、輸入門、遺忘門和輸出門,見圖1(圖中、分別為記憶細(xì)胞更新過程的乘法、加法操作,C~t 為更新后的神經(jīng)元)。

        神經(jīng)元是LSTM 的核心,負(fù)責(zé)保存重要信息,并傳遞給后續(xù)網(wǎng)絡(luò)層;輸入門決定輸入信息是否寫入神經(jīng)元,即在當(dāng)前時(shí)刻t,輸入的xt有多少保留到記憶細(xì)胞Ct中;遺忘門用于決定神經(jīng)元中的信息是否被遺忘,即t-1 時(shí)刻的記憶細(xì)胞Ct -1 有多少保留到記憶細(xì)胞Ct中;輸出門用于控制神經(jīng)元下一時(shí)刻的輸出,即決定當(dāng)前時(shí)刻t 有多少記憶細(xì)胞Ct 輸出到ht ;ht -1、ht 分別為t-1時(shí)刻、t 時(shí)刻的輸出狀態(tài);ft 、it 、ot分別為遺忘門、輸入門和輸出門對應(yīng)的控制系數(shù)。LSTM 計(jì)算過程如下:

        ft = σ(Wf xt + Uf ht -1 + bf ) (4)

        ii = σ(Wi xi + Ui ht -1 + bi ) (5)

        ot = σ(Wo xt + Uo ht -1 + bo ) (6)

        C ~t = tanh(Wc xt + Uc ht -1 + bc ) (7)

        Ct = ft Ct -1 + itC ~t (8)

        ht = ot tanh(Ct ) (9)

        式中:Wf 、Wt 、Wo 、Uf 、Ui 、Uo均為權(quán)重,bi 、bf和bo均為各個(gè)門結(jié)構(gòu)的偏置,σ 為Sigmoid 激活函數(shù)。

        BiLSTM 是對LSTM 的改進(jìn),由前向LSMT 與后向LSTM 組成,前向LSMT 按照正向順序處理序列,后向LSTM 按照逆向順序處理序列,在每一時(shí)刻, 每個(gè)LSTM 單元都能夠同時(shí)訪問過去和未來的信息。因此,選擇BiLSTM 神經(jīng)網(wǎng)絡(luò)從CNN 層提取的長期特征信息中學(xué)習(xí)雙向序列特征,有利于提高模型的預(yù)測精度和特征數(shù)據(jù)的利用率。

        1.4 注意力機(jī)制

        注意力機(jī)制最早源自對人類視覺的研究,在深度學(xué)習(xí)領(lǐng)域,模型訓(xùn)練需要大量數(shù)據(jù),但在特定情況下,并非所有特征同等重要。注意力機(jī)制可以根據(jù)不同的特征來調(diào)整信息權(quán)重,為更重要的特征分配更大的權(quán)重,丟棄不重要的信息,通過這種差異化的權(quán)重分配來提高數(shù)據(jù)處理效率。

        1.5 基于TimeGAN 和CNN-BiLSTM-Attention 的混合模型構(gòu)建

        根據(jù)上述理論, 提出基于TimeGAN 和CNN -BiLSTM-Attention 的混合模型,該模型構(gòu)建流程見圖2(圖中h1 → 、h2 → 分別為前向、后向LSTM 的隱藏層狀態(tài), a1,a2,…,an為隱藏層狀態(tài)構(gòu)成的新向量)。

        第一步:對數(shù)據(jù)進(jìn)行預(yù)處理,即對大壩歷史監(jiān)測數(shù)據(jù)進(jìn)行降噪、標(biāo)準(zhǔn)化處理,對不同類型數(shù)據(jù)進(jìn)行分類。

        第二步:基于TimeGAN 對數(shù)據(jù)進(jìn)行擴(kuò)充。根據(jù)時(shí)間步長對輸入數(shù)據(jù)進(jìn)行三維擴(kuò)展;自編碼器將真實(shí)的時(shí)序數(shù)據(jù)編碼成低維表示,捕獲關(guān)鍵特征;Generator網(wǎng)絡(luò)把自編碼器輸出的低維表示和隨機(jī)向量作為輸入,生成與原數(shù)據(jù)相似的虛擬數(shù)據(jù),盡可能準(zhǔn)確模擬真實(shí)數(shù)據(jù)分布;采用Discriminator 網(wǎng)絡(luò)判別生成虛擬數(shù)據(jù)是否與監(jiān)測數(shù)據(jù)相符;通過交替訓(xùn)練Generator 和Discriminator 網(wǎng)絡(luò),使得相互競爭協(xié)作逐漸達(dá)到平衡,最終Generator 網(wǎng)絡(luò)利用學(xué)到的知識生成虛擬時(shí)序數(shù)據(jù)。

        第三步:將擴(kuò)充后的數(shù)據(jù)輸入CNN 層。CNN 層包括卷積層、批處理規(guī)范化層和池化層,具有直線單元(ReLU)激活函數(shù)。在卷積層沿著時(shí)間方向?qū)颖具M(jìn)行卷積,采用批處理規(guī)范化和最大池化優(yōu)化網(wǎng)絡(luò)結(jié)構(gòu),最終使用ReLU 激活函數(shù)對輸出結(jié)果進(jìn)行非線性映射。將輸出結(jié)果輸入BiLSTM,對數(shù)據(jù)進(jìn)行維度轉(zhuǎn)換,實(shí)現(xiàn)選擇性記住或忘記特征信息,有效防止梯度消失或爆炸。選擇tanh 函數(shù)作為非線性激活函數(shù),對結(jié)果進(jìn)行維度轉(zhuǎn)換,隨即傳入注意力機(jī)制層,注意力機(jī)制本質(zhì)上是一個(gè)加權(quán)求和的過程,在該過程中先計(jì)算每個(gè)時(shí)間序列的權(quán)重,然后對所有時(shí)間序列向量進(jìn)行加權(quán),通過全連接層虛擬函數(shù)處理后,得到預(yù)測值。

        2 工程實(shí)例應(yīng)用

        2.1 工程概況

        畢節(jié)市某混凝土面板堆石壩壩高154 m,壩頂寬10 m、長428.93 m,最大壩寬454.085 m。為了實(shí)時(shí)監(jiān)控大壩運(yùn)行的工作狀態(tài),在大壩內(nèi)部安裝了多種傳感器,在壩體橫左0+005.000 監(jiān)測剖面設(shè)置了水平位移和垂直位移監(jiān)測點(diǎn),共有4 條測線(見圖3)。使用2020 年2 月1 日至2023 年9 月30 日的壩頂方向水平位移監(jiān)測數(shù)據(jù)進(jìn)行建模,其中70%為訓(xùn)練集、30%為測試集。

        2.2 模型精度評估指標(biāo)

        為了全面評估基于TimeGAN 和CNN-BiLSTMAttention的混合模型的有效性, 建立LSTM、CNN -LSTM、CNN-LSTM-Attention、CNN-BiLSTM-Attention基模型,再分別引入TimeGAN,對比各模型的預(yù)測精度。精度評價(jià)指標(biāo)包括平均平方誤差(EMS )、平均絕對百分比誤差(ERMS)、平均絕對誤差(EMA)、決定系數(shù)(R2),計(jì)算公式如下:

        式中:N 為樣本總量,yi為第i 個(gè)樣本的預(yù)測值,^y i為第i 個(gè)樣本的監(jiān)測值,yi為第i 個(gè)樣本的平均監(jiān)測值。

        2.3 模型預(yù)測結(jié)果

        LSTM、CNN-LSTM、CNN-LSTM-Attention、基于TimeGAN 和CNN - BiLSTM - Attention 的混合模型[CNN-BiLSTM-Attention(TimeGAN)]的精度評價(jià)指標(biāo)見表1。

        R2越大,EMS、ERMS、EMA 越小,模型的擬合效果越好。由表1 可知,基于TimeGAN 和CNN-BiLSTM-Attention 的混合模型的模擬精度最高,相較于單一LSTM 模型,其EMS、ERMS、EMA 分別降低了71%、49%、45%,R2 提升了20%。除CNN-LSTM-Attention 模型外,其他基模型引入TimeGAN 后,擬合精度有所提升。

        不同模型對大壩變形趨勢的預(yù)測效果見圖5?;冢裕椋恚澹牵粒?和CNN-BiLSTM-Attention 的混合模型擬合效果明顯優(yōu)于其他模型,其預(yù)測值與監(jiān)測值最接近??偠灾?,單一LSTM 模型的擬合效果最差,CNNLSTM模型預(yù)測效果稍有改善,但是不如CNN-LSTMAttention,原因是注意力機(jī)制可以使得模型從大量影響結(jié)果的特征中捕獲到重要的關(guān)鍵特征。CNN -BiLSTM-Attention 可以實(shí)現(xiàn)最好的擬合效果,原因是雙向的LSTM 模型結(jié)構(gòu)可以充分利用時(shí)間序列中前后時(shí)間維度的關(guān)系,獲得更多的特征信息,從而提高模型的預(yù)測精度。

        各基模型與引入TimeGAN 后的預(yù)測結(jié)果殘差對比見圖5(L:LSTM,CL:CNN-LSTM,CLA:CNN-LSTMAttention,CBA: CNN - BiLSTM - Attention, T:TimeGAN))。引入TimeGAN 之后,大部分模型的擬合精度提高,本文所提出的混合模型的殘差分布密集并且數(shù)值小,預(yù)測結(jié)果最接近監(jiān)測值。T-CLA 與CLA 相比精度并無提升,考慮到引入TimeGAN 之后模型復(fù)雜度變高,而LSTM 作為一種單向的循環(huán)神經(jīng)網(wǎng)絡(luò),無法有效捕捉未來信息,從而導(dǎo)致性能提升有限。

        3 結(jié)論

        以貴州省畢節(jié)市某混凝土面板堆石壩為研究對象,提出了一種基于TimeGAN 和CNN-BiLSTM-Attention的面板堆石壩變形預(yù)測混合模型。以LSTM、CNN-LSTM、CNN-LSTM-Attention 模型為對照模型,基于TimeGAN 和CNN-BiLSTM-Attention 的混合模型的模擬精度最高。TimeGAN 通過生成額外訓(xùn)練樣本來擴(kuò)展原始數(shù)據(jù)集,有效提升了模型的訓(xùn)練質(zhì)量;BiLSTM在泛化能力上優(yōu)于單向LSTM,結(jié)合TimeGAN 之后,因雙向結(jié)構(gòu)帶來的豐富特征表示而使模型整體泛化能力得到增強(qiáng);注意力機(jī)制用于動態(tài)調(diào)整權(quán)重,有助于提高模型的精度。

        參考文獻(xiàn):

        [1] 彭之辰,吳雙,龔士林.美國伊登維爾壩和桑福德壩潰壩事故反思[J].大壩與安全,2023(4):63-66.

        [2] 汪大全.國內(nèi)外潰壩事件對大壩安全管理的啟示[J].水利技術(shù)監(jiān)督,2021(6):9-10,14,227.

        [3] 薛萍,廖麗莎,廖衛(wèi)紅,等.南水北調(diào)中線工程水位的水動力-神經(jīng)網(wǎng)絡(luò)耦合預(yù)測模型[J].南水北調(diào)與水利科技(中英文),2023,21(6):1116-1125.

        [4] 鄒婕,李路.基于隨機(jī)森林的SA-BiGRU 模型的股票價(jià)格預(yù)測研究[J].中國物價(jià),2023(11):52-56.

        [5] 李晨陽,鄭東?。诙鄬哟螖?shù)據(jù)處理的NGO XGBoost 大壩變形預(yù)測模型及其應(yīng)用[J].水電能源科學(xué),2023,41(11):77-81.

        [6] 周蘭庭,柳志坤,徐長華.基于WA-LSTM-ARIMA 的混凝土壩變形組合預(yù)測模型[J].人民黃河,2022,44(1):124-128.

        [7] YANG D S,GU C S,ZHU Y T,et al.A Concrete Dam Deforma?tion Prediction Method Based on LSTM with Attention Mech?anism[J].IEEE ACCESS,2020(8):185177-185186.

        [8] WEI Y L,LI Q B,HU Y,et al.Deformation Prediction Model Based on an Improved CNN Plus LSTM Model for the First Impoundment of Super?High Arch Dams[J].Journal of Civil Structural Health Monitoring,2022,13(2-3):431-442.

        [9] 歐斌,張才溢,傅蜀燕,等.基于CNN-BiLSTM 的特高拱壩變形預(yù)測模型[J].排灌機(jī)械工程學(xué)報(bào),2024,42(10):1031-1035,1043.

        [10] ADELE D.Advances in Neural Information Processing Systems18[J].J Math Psychol,2007,51(5):339.

        【責(zé)任編輯 栗 銘】

        基金項(xiàng)目: 貴州省科技計(jì)劃項(xiàng)目(黔科合支撐〔2023〕一般251);貴州省基礎(chǔ)研究計(jì)劃(自然科學(xué))青年引導(dǎo)項(xiàng)目(黔科合基礎(chǔ)〔2024〕青年095)

        猜你喜歡
        大壩卷積精度
        基于3D-Winograd的快速卷積算法設(shè)計(jì)及FPGA實(shí)現(xiàn)
        從濾波器理解卷積
        電子制作(2019年11期)2019-07-04 00:34:38
        基于DSPIC33F微處理器的采集精度的提高
        電子制作(2018年11期)2018-08-04 03:25:38
        基于傅里葉域卷積表示的目標(biāo)跟蹤算法
        大壩:力與美的展現(xiàn)
        百科知識(2018年6期)2018-04-03 15:43:54
        幫海貍建一座大壩
        大壩
        GPS/GLONASS/BDS組合PPP精度分析
        改進(jìn)的Goldschmidt雙精度浮點(diǎn)除法器
        一種基于卷積神經(jīng)網(wǎng)絡(luò)的性別識別方法
        丰满熟妇人妻av无码区 | 亚洲av无码1区2区久久| 亚洲AV秘 无码一区二区三区1| 国产高清一区二区三区视频| 精品亚洲一区二区三区四区五| 中字幕人妻一区二区三区| 真正免费一级毛片在线播放| 韩国免费一级a一片在线| 亚洲美女毛多水多免费视频| 人妻熟女一区二区三区app下载| 亚洲色图+国产精品| 精品蜜桃一区二区三区| 亚洲麻豆视频免费观看| 亚洲精品一区国产欧美| 2021国产精品视频| 男女啪啪免费视频网址| 亚洲视频在线一区二区| 亚洲成a∨人片在无码2023| 波多野结衣一区二区三区视频| 国产理论亚洲天堂av| 色欲av伊人久久大香线蕉影院| 欧美不卡视频一区发布| 四虎成人精品国产永久免费| 国产一区二区三区色哟哟| 久久久亚洲欧洲日产国码αv | av手机在线天堂网| 桃色一区一区三区蜜桃视频 | 国产性一交一乱一伦一色一情| 99精品国产闺蜜国产在线闺蜜| 国产精品久久久黄色片| 高潮内射双龙视频| 国产精品厕所| 亚洲老女人区一区二视频 | 国产av一区二区三区狼人香蕉| 男女肉粗暴进来动态图| 国产亚洲av片在线观看18女人 | 亚洲欧美日韩国产一区| 亚洲在中文字幕乱码熟女| 成人片黄网站a毛片免费| 国产精品区一区第一页| 精品视频在线观看一区二区有 |