亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        一種改進(jìn)的U-Net相位解纏方法

        2021-12-17 08:52:58梁峰謝先明徐有邈宋明輝曾慶寧
        遙感信息 2021年5期
        關(guān)鍵詞:殘差卷積噪聲

        梁峰,謝先明,2,徐有邈,宋明輝,曾慶寧

        (1.桂林電子科技大學(xué) 信息與通信學(xué)院,廣西 桂林 541004;2.廣西科技大學(xué) 電氣與信息工程學(xué)院,廣西 柳州 545006)

        0 引言

        干涉合成孔徑雷達(dá)[1-2](interferometry synthetic aperture radar,InSAR)是合成孔徑雷達(dá)與射電天文干涉技術(shù)相結(jié)合的遙感測繪技術(shù)。InSAR技術(shù)利用干涉圖相位信息獲取目標(biāo)高程,已應(yīng)用于地理信息系統(tǒng)構(gòu)建、環(huán)境監(jiān)測、地表形變監(jiān)測等領(lǐng)域。干涉圖相位解纏是InSAR測量技術(shù)中關(guān)鍵步驟,直接關(guān)系到InSAR高程測量精度。目前相位解纏算法包括以枝切法[3]與質(zhì)量圖引導(dǎo)算法[4]為代表的路徑跟蹤類算法、以最小二乘法[5]為代表的最小范數(shù)類算法、以網(wǎng)絡(luò)流法[6]為代表的網(wǎng)絡(luò)規(guī)劃類算法、以卡爾曼濾波法[7]為代表的狀態(tài)估計類算法等。路徑跟蹤類算法利用各種各樣策略定義合適路徑,并沿此路徑積分獲取其解纏相位,以盡量減少或避免相位解纏過程中誤差累積效應(yīng)。最小范數(shù)類算法首先在最小范數(shù)準(zhǔn)則框架下構(gòu)造一個解纏相位梯度與纏繞相位梯度之差的代價函數(shù),隨后利用各種方法得到代價函數(shù)最小的解。網(wǎng)絡(luò)規(guī)劃類算法把干涉圖相位解纏問題轉(zhuǎn)化為網(wǎng)絡(luò)流代價函數(shù)的最小化問題。狀態(tài)估計類算法把干涉圖相位解纏問題轉(zhuǎn)化非線性條件下的狀態(tài)估計問題,幾乎同時執(zhí)行相位噪聲抑制與相位解纏。上述各類算法均可在特定的應(yīng)用場景中獲得穩(wěn)健的結(jié)果,然而路徑跟蹤類算法、最小范數(shù)類算法、網(wǎng)絡(luò)規(guī)劃類算法易受干涉相位噪聲的影響,有時難以有效解纏噪聲干涉圖,且上述路徑跟蹤類算法與網(wǎng)絡(luò)規(guī)劃類算法均在一定程度上存在相位解纏精度與效率難以兼顧的問題。狀態(tài)估計類算法具有較強(qiáng)抗相位噪聲性能,通常能有效處理低信噪比干涉圖的相位解纏問題,但時間耗費(fèi)代價較大。

        深度學(xué)習(xí)(deep learning,DL)是一種模擬人腦神經(jīng)結(jié)構(gòu)的機(jī)器學(xué)習(xí)方法,通過對數(shù)據(jù)進(jìn)行表征學(xué)習(xí)來獲取數(shù)據(jù)更高層次的抽象表示,能夠自動從數(shù)據(jù)中提取特征,已在不同領(lǐng)域的許多問題中都取得了最佳表現(xiàn),如語音識別、文本數(shù)據(jù)挖掘、文本翻譯、人臉識別、圖像分類與識別、圖像分割等。隨著DL技術(shù)應(yīng)用的拓展,它已逐漸應(yīng)用到合成孔徑雷達(dá)(synthetic aperture radar,SAR)圖像分類與分割[8]、SAR目標(biāo)檢測[9]、干涉SAR圖像分割[10]、SAR圖像配準(zhǔn)[11]、逆合成孔徑雷達(dá)成像[12]、InSAR干涉圖相位解纏[13]等領(lǐng)域,有力促進(jìn)了這些領(lǐng)域相關(guān)技術(shù)的發(fā)展。

        2015年,Long等[14]把全卷積神經(jīng)網(wǎng)絡(luò)(fully convolutional networks,F(xiàn)CN)應(yīng)用于圖像語義分割。隨后,一種編碼-解碼架構(gòu)的像素級分類技術(shù)被提出。Ronneberger等[15]提出基于FCN的U-Net網(wǎng)絡(luò)框架,成功應(yīng)用于二分類的醫(yī)學(xué)圖像的分割。2019年,Zhang等[16]把FCN應(yīng)用于干涉圖相位解纏,提出基于FCN的相位解纏算法。該方法把干涉圖相位解纏問題轉(zhuǎn)化為多分類問題,網(wǎng)絡(luò)模型前半部分沿用了VGG16網(wǎng)絡(luò)模型對輸入圖像進(jìn)行下采樣,特征圖經(jīng)過卷積層和池化層后進(jìn)入解碼路徑,最后對特征圖進(jìn)行上采樣并輸出分類結(jié)果。同年,Wang等[17]在U-Net框架基礎(chǔ)上提出基于深度學(xué)習(xí)的干涉圖相位解纏網(wǎng)絡(luò),纏繞相位經(jīng)過完成訓(xùn)練后的網(wǎng)絡(luò)直接得到解纏相位,該網(wǎng)絡(luò)建立纏繞相位與真實相位之間的非線性映射關(guān)系,解纏效果提升顯著。

        把U-Net架構(gòu)、空間金字塔池化(atrous spatial pyramid pooling,ASPP)網(wǎng)絡(luò)[18]以及瓶頸殘差網(wǎng)絡(luò)[19]結(jié)合起來,提出一種改進(jìn)的U-Net的相位解纏方法。不同于文獻(xiàn)[17]所構(gòu)建的網(wǎng)絡(luò)模型,該方法利用ASPP模型結(jié)合多尺度信息和擴(kuò)張卷積的優(yōu)勢,將不同擴(kuò)張率的擴(kuò)張卷積特征結(jié)合到一起來捕獲豐富的上下文信息,能夠在不犧牲特征空間分辨率的同時擴(kuò)大特征接收野,有利于精確獲取纏繞干涉條紋特征信息及位置信息,提高相位解纏算法的穩(wěn)健性。此外,瓶頸殘差單元可使網(wǎng)絡(luò)模型在減小參數(shù)計算量的同時防止網(wǎng)絡(luò)退化,提高網(wǎng)絡(luò)訓(xùn)練精度與效率。模擬與實測干涉圖解纏結(jié)果表明,本文方法可獲得與其他同類方法相比更穩(wěn)健的結(jié)果。

        1 基于深度學(xué)習(xí)的相位解纏模型

        在深度學(xué)習(xí)相位解纏中網(wǎng)絡(luò)學(xué)習(xí)到的是纏繞相位圖和解纏相位圖之間的映射關(guān)系。在DL框架下通過選擇與設(shè)計深度神經(jīng)網(wǎng)絡(luò)(deep neural network,DNN),包括選擇恰當(dāng)?shù)木W(wǎng)絡(luò)層級數(shù)并為每一層選擇合適的神經(jīng)元個數(shù)、為每一層設(shè)計合理的權(quán)重和偏置系數(shù)、激活函數(shù)以及定義合適的損失函數(shù),即可使DNN精確描述該映射關(guān)系?;谏疃葘W(xué)習(xí)相位解纏模型如圖1所示。其中,圖1(a)為網(wǎng)絡(luò)訓(xùn)練示意圖,通過訓(xùn)練數(shù)據(jù)集建立纏繞相位和真實相位之間的非線性映射,獲得訓(xùn)練好的網(wǎng)絡(luò)模型。將待解纏的纏繞干涉圖輸入到已訓(xùn)練好的網(wǎng)絡(luò)模型中即可得到解纏結(jié)果,如圖1(b)所示。

        圖1 深度學(xué)習(xí)模型訓(xùn)練和預(yù)測

        1.1 殘差模塊

        在神經(jīng)網(wǎng)絡(luò)中添加層數(shù)可以提取更豐富的干涉圖像特征信息,而增加網(wǎng)絡(luò)深度會容易造成梯度彌散和梯度爆炸的現(xiàn)象。瓶頸殘差網(wǎng)絡(luò)如圖2所示,其中,Conv為卷積層、BN為批量歸一化、ReLU為該模塊使用的激活函數(shù)。特征圖先通過卷積核分別為1×1、3×3、1×1的卷積模塊,再與初始輸入結(jié)合通過激活函數(shù)得到輸出,殘差模塊可使網(wǎng)絡(luò)模型在減小參數(shù)計算量的同時防止網(wǎng)絡(luò)退化。

        圖2 殘差模塊

        1.2 ASPP模塊

        ASPP網(wǎng)絡(luò)包括全局平均池化層以及采樣率分別為1、6、12、18的擴(kuò)張卷積(圖3)。其中,全局池化層先對輸入的特征圖進(jìn)行全局信息提取,再通過卷積核為1×1的卷積層上采樣至輸入特征圖相同的尺寸。四種不同采樣率的擴(kuò)張卷積并行操作可以保證在網(wǎng)絡(luò)計算量不變的同時,更好地保留干涉圖中的結(jié)構(gòu)特征,讓ASPP網(wǎng)絡(luò)可以更完整地對輸入特征圖進(jìn)行多尺度信息提取。ASPP通過連接層把全局平均池化層以及四個不同采樣率的擴(kuò)張卷積層輸出的特征圖串接在一起,最后通過卷積核為3×3的卷積層調(diào)整通道數(shù),作為ASPP模塊的輸出。

        圖3 ASPP模塊

        1.3 基于U-Net的改進(jìn)相位解纏網(wǎng)絡(luò)

        把U-Net架構(gòu)、空間金字塔池化網(wǎng)絡(luò)以及瓶頸殘差網(wǎng)絡(luò)結(jié)合起來,構(gòu)建一種改進(jìn)的基于U-Net的相位解纏網(wǎng)絡(luò),如圖4所示。該網(wǎng)絡(luò)結(jié)合U-Net、殘差神經(jīng)網(wǎng)絡(luò)和DeepLabv3+網(wǎng)絡(luò)模型的特點,由編碼路徑、解碼路徑以及跳躍連接路徑組成。在圖4所示網(wǎng)絡(luò)中,藍(lán)色條形框表示特征圖在網(wǎng)絡(luò)各個階段的分布情況;上方的數(shù)字為特征圖通道數(shù);條形框下方的數(shù)字為特征圖大??;虛線框表示復(fù)制對應(yīng)的編碼路徑輸出層;右下角箭頭標(biāo)記表示網(wǎng)絡(luò)中對應(yīng)的操作。網(wǎng)絡(luò)左邊的編碼路徑的作用是通過六個單元模塊由淺入深地逐層提取輸入相位圖特征信息,其中每個單元模塊包括卷積模塊(Conv層+批量歸一化BN+激活函數(shù)Relu)、殘差網(wǎng)絡(luò)層、ASPP網(wǎng)絡(luò)層、最大池化層(窗口為2×2)。右邊解碼路徑的作用是通過反卷積操作恢復(fù)抽象信息和定位圖像細(xì)節(jié)信息,各單元模塊包括上采樣層(窗口為2×2)、連接層、卷積模塊和殘差模塊。其中,上采樣層在放大特征圖的同時通過卷積操作保證通道數(shù)與左側(cè)的編碼路徑相同,使兩側(cè)路徑的特征圖可實現(xiàn)跳躍連接。

        在圖4中,單通道的纏繞相位圖從輸入層進(jìn)入,經(jīng)第一單元模塊卷積層將圖像通道數(shù)調(diào)整為8后通過殘差網(wǎng)絡(luò)層輸出特征圖,再通過ASPP網(wǎng)絡(luò)層輸出融合了不同尺度信息特征圖,并通過最大池化層實現(xiàn)下采樣。特征圖進(jìn)入后一單元模塊再利用卷積操作將通道數(shù)加倍,然后類似重復(fù)第一單元模塊中的操作,直到特征圖進(jìn)入編碼路徑后單元模塊完成編碼工作。隨后再依次通過解碼路徑中各單元模塊中上采樣層、跳躍連接、卷積層和殘差網(wǎng)絡(luò)層執(zhí)行解纏操作,其中解碼路徑中各單元模塊依次減半圖像通道數(shù),最后由輸出層輸出解纏結(jié)果。

        圖4 深度學(xué)習(xí)相位解纏網(wǎng)絡(luò)

        1.4 網(wǎng)絡(luò)訓(xùn)練及計算機(jī)參數(shù)配置

        在網(wǎng)絡(luò)訓(xùn)練中使用自適應(yīng)矩估計(adaptive moment estimation,Adam)優(yōu)化算法進(jìn)行迭代反向傳播,損失函數(shù)選用均方誤差(mean squared error,MSE),以10-4的學(xué)習(xí)速率更新權(quán)重系數(shù)和偏置項,訓(xùn)練輪數(shù)為150,最小訓(xùn)練批次為16,訓(xùn)練時間為60 460 s,約16.8 h。數(shù)據(jù)集的制作基于MATLAB 2018b仿真軟件,模型開發(fā)平臺為python3.7,使用Tensorflow-1.13.0框架,Keras版本為2.3.0。用于網(wǎng)絡(luò)模型訓(xùn)練和實驗測試的計算機(jī)主要參數(shù)如下:NVIDIA GeForce RTX 2080Ti GPU、Xeon W-2145 CPU(3.7 GHz)+ 64 GB RAM。

        2 InSAR數(shù)據(jù)集

        目前針對深度學(xué)習(xí)相位解纏方面,尚無具有代表性的數(shù)據(jù)集提出。為此,分別構(gòu)建了256像素×256像素的模擬InSAR數(shù)據(jù)和準(zhǔn)實測InSAR數(shù)據(jù),將生成的20 000組模擬數(shù)據(jù)與17 000組準(zhǔn)實測數(shù)據(jù)進(jìn)行混合,以組合成完整的InSAR數(shù)據(jù)集。

        2.1 模擬InSAR數(shù)據(jù)

        在創(chuàng)建InSAR數(shù)據(jù)集時,先產(chǎn)生InSAR真實相位值,再通過真實相位和纏繞相位對應(yīng)的函數(shù)關(guān)系(推導(dǎo)過程見文獻(xiàn)[4])計算出纏繞干涉相位。構(gòu)建模擬InSAR數(shù)據(jù)集步驟如圖5所示。

        圖5(a)、圖5(e)、圖5(i)分別為隨機(jī)創(chuàng)建的2×2、5×5、10×10初始矩陣,初始值按照高斯分布在0到50之間;圖5(b)、圖5(f)、圖5(j)分別為原初始矩陣的插值放大圖;圖5(c)、圖5(g)、圖5(k)為生成的真實相位圖;圖5(d)、圖5(h)、圖5(l)為含噪聲纏繞干涉圖。首先,按照圖5的方式構(gòu)建20 000個2×2~20×20的隨機(jī)初始矩陣;然后,使用雙三次插值法對初始矩陣進(jìn)行擴(kuò)展,插值放大到256像素×256像素,由此得到放大后的真實相位干涉圖;最后,將生成的真實相位圖轉(zhuǎn)換成含不同信噪比的噪聲纏繞相位。在網(wǎng)絡(luò)訓(xùn)練過程中,把上述生成的真實相位圖作為其相應(yīng)的噪聲纏繞相位圖的標(biāo)簽圖像。

        圖5 模擬InSAR數(shù)據(jù)集生成

        2.2 準(zhǔn)實測InSAR數(shù)據(jù)

        利用UKF[20]算法解纏實測InSAR干涉圖,獲得其解纏相位與相應(yīng)的重纏繞干涉圖,隨后把不同類型的相位噪聲添加到重纏繞干涉圖中,得到不同信噪比的噪聲纏繞相位圖。在網(wǎng)絡(luò)訓(xùn)練過程中,把UKF算法獲得的解纏相位作為其相應(yīng)的噪聲纏繞相位圖的標(biāo)簽圖像。圖6(a)~圖6(b)分別為濾波后的Enta火山干涉圖以及某實測InSAR干涉圖;圖7(a)和圖7(d)分別為利用UKF算法解纏圖6(a)~圖6(b)的解纏相位圖;圖7(b)與圖7(d)為對應(yīng)的重纏繞圖。通過對大量實測InSAR數(shù)據(jù)進(jìn)行分割、旋轉(zhuǎn)、擴(kuò)大、加噪操作,共產(chǎn)生17 000組準(zhǔn)實測InSAR數(shù)據(jù)。圖8(a)~圖8(b)為對圖7(b)做圖像分割和旋轉(zhuǎn)后獲取的重纏繞圖像;圖8(c)~圖8(d)為圖7(d)分割和放大后得到的重纏繞圖像;圖8(e)~圖8(h)分別為圖8(a)~圖8(d)的標(biāo)簽圖像。圖9為對干涉圖添加不同強(qiáng)度噪聲后得到的噪聲干涉圖,其中,圖9(a)為解纏相位圖(即標(biāo)簽圖像);圖9(b)為解纏相位的重纏繞相位圖;圖9(c)~圖9(d)分別為對圖9(b)添加不同噪聲后的纏繞相位圖。

        圖6 實測InSAR數(shù)據(jù)

        圖7 Enta火山干涉圖以及某實測地形干涉圖解纏相位及重纏繞結(jié)果

        圖8 圖像分割與旋轉(zhuǎn)構(gòu)建訓(xùn)練數(shù)據(jù)集

        圖9 通過添加不同的噪聲構(gòu)建訓(xùn)練數(shù)據(jù)集

        3 實驗結(jié)果與分析

        為了驗證本文深度學(xué)習(xí)網(wǎng)絡(luò)方法的性能,利用提出的網(wǎng)絡(luò)對模擬干涉圖與實測干涉圖進(jìn)行解纏,并與文獻(xiàn)[16]以及文獻(xiàn)[17]提出的深度學(xué)習(xí)相位解纏方法進(jìn)行比較。

        3.1 模擬干涉圖解纏實驗

        圖10(a)為Peaks真實干涉相位(256像素×256像素);圖10(b)為Peaks纏繞干涉圖(信噪比為7.4 dB)。分別利用文獻(xiàn)[16]方法、文獻(xiàn)[17]方法以及本文方法對圖10(b)進(jìn)行解纏,其解纏結(jié)果如圖11~圖13所示。

        圖10 Peaks干涉圖

        圖11(a)、圖12(a)、圖13(a)分別為上述三種方法解纏相位;圖11(b)、圖12(b)、圖13(b)分別為上述方法解纏相位誤差;圖11(c)、圖12(c)、圖13(c)分別為上述方法解纏誤差統(tǒng)計直方圖。從圖11(a)~圖11(c)可以看出,文獻(xiàn)[16]方法解纏相位與真實相位明顯不一致,因此該方法誤差較大。盡管文獻(xiàn)[16]方法獲得的結(jié)果優(yōu)于文獻(xiàn)[17]方法獲得的結(jié)果,然而該方法誤差依然較大,如圖12(a)~圖12(c)所示。本文方法解纏相位與真實相位較為一致,故其相位解纏誤差遠(yuǎn)遠(yuǎn)小于文獻(xiàn)[16]方法和文獻(xiàn)[17]方法。為測試各方法的抗噪性能,向纏繞相位中添加不同強(qiáng)度的噪聲,用上述三種方法分別對不同信噪比的干涉圖進(jìn)行解纏,其均方根誤差如表1所示。從表1可以看出,本文方法不僅在不同信噪比條件下解纏相位誤差最小,而且隨著干涉圖信噪比的降低其相位解纏誤差增加緩慢。表2列出了上述方法訓(xùn)練時間以及解纏單幅干涉圖的平均時間,可以看出本文方法比上述其他兩種方法在訓(xùn)練、模型加載和生成結(jié)果耗時稍長。原因在于本文提出方法具有更復(fù)雜的網(wǎng)絡(luò)結(jié)構(gòu)以及更多的模型參數(shù),由于本文方法在解纏精度上明顯高于其他方法,故耗時稍長也是可以接受的。

        圖11 文獻(xiàn)[16]方法解纏結(jié)果

        圖12 文獻(xiàn)[17]方法解纏結(jié)果

        圖13 本文方法解纏結(jié)果

        表1 各方法均方根誤差

        表2 各方法運(yùn)行時間表

        3.2 實測數(shù)據(jù)實驗

        圖14(a)為256像素×256像素的局部三峽某地區(qū)干涉圖;圖14(b)為經(jīng)過均值濾波(窗口大小為3×3)后的干涉圖。將濾波后的局部三峽干涉圖輸入上述三種深度學(xué)習(xí)解纏模型中,即可獲得解纏相位。解纏結(jié)果與重纏繞結(jié)果如圖14~圖17所示。

        圖14 局部三峽某地區(qū)干涉圖

        圖15(a)、圖16(a)、圖17(a)分別為文獻(xiàn)[16]方法、文獻(xiàn)[17]方法以及本文方法解纏相位圖;圖15(b)、圖16(b)、圖17(b)為上述三種方法重纏繞相位圖。從圖15(a)可以看出,解纏相位圖中存在大量的不一致的區(qū)域,這表明文獻(xiàn)[16]方法解纏結(jié)果不可靠。文獻(xiàn)[17]方法解纏相位及其重纏繞結(jié)果如圖16所示,可以看出該方法重纏繞相位圖部分區(qū)域(已由白色方框框出)與原始干涉圖條紋明顯不一致,這表明該方法上述部分區(qū)域存在較大誤差。本文方法解纏相位及其重纏繞相位如圖17所示,可以看出本文方法解纏相位大致連續(xù),其重纏繞相位圖與原始干涉圖條紋基本一致,且噪聲斑點較少,這表明本文方法有效地去除了干涉圖中的大部分噪聲,并獲得了較為可靠的結(jié)果。

        圖15 文獻(xiàn)[16]方法解纏結(jié)果

        圖16 文獻(xiàn)[17]方法解纏結(jié)果

        圖17 本文方法解纏結(jié)果

        4 結(jié)束語

        本文基于深度卷積神經(jīng)網(wǎng)絡(luò)的相位解纏方法,以U-Net架構(gòu)為基礎(chǔ)加入瓶頸模式殘差模塊和空間金字塔池化模塊,構(gòu)建出編碼-解碼網(wǎng)絡(luò)進(jìn)行相位解纏,利用模擬和準(zhǔn)實測InSAR數(shù)據(jù)集進(jìn)行網(wǎng)絡(luò)訓(xùn)練。實驗結(jié)果表明,與其他類型深度學(xué)習(xí)相位解纏方法相比,本文方法在模擬和實測數(shù)據(jù)解纏實驗中均取得更好的效果,其均方誤差相對較小、解纏精度相對較高、抗噪性相對較強(qiáng)。

        猜你喜歡
        殘差卷積噪聲
        基于雙向GRU與殘差擬合的車輛跟馳建模
        基于3D-Winograd的快速卷積算法設(shè)計及FPGA實現(xiàn)
        基于殘差學(xué)習(xí)的自適應(yīng)無人機(jī)目標(biāo)跟蹤算法
        噪聲可退化且依賴于狀態(tài)和分布的平均場博弈
        基于遞歸殘差網(wǎng)絡(luò)的圖像超分辨率重建
        從濾波器理解卷積
        電子制作(2019年11期)2019-07-04 00:34:38
        基于傅里葉域卷積表示的目標(biāo)跟蹤算法
        控制噪聲有妙法
        平穩(wěn)自相關(guān)過程的殘差累積和控制圖
        河南科技(2015年8期)2015-03-11 16:23:52
        一種基于白噪聲響應(yīng)的隨機(jī)載荷譜識別方法
        毛片免费在线播放| 久久精品国产亚洲av麻豆会员| 色88久久久久高潮综合影院 | 国产精品美女久久久久久久久| 亚洲VA欧美VA国产VA综合| av大片网站在线观看| 男人天堂网2017| 亚洲av永久无码天堂网毛片| 无码之国产精品网址蜜芽| 国产视频一区二区三区在线看| 色偷偷久久久精品亚洲| 国产成人综合久久亚洲精品| 人妻丰满熟妇AV无码片| 日韩视频午夜在线观看| 九九综合va免费看| 午夜亚洲www湿好爽| 精品亚洲成a人在线观看| 水蜜桃无码视频在线观看| 亚洲av不卡电影在线网址最新| 国产理论亚洲天堂av| 国产a∨天天免费观看美女| 国产肉丝袜在线观看| 免费视频成人 国产精品网站 | 男人一插就想射的原因| 久久综合香蕉国产蜜臀av| 又黄又爽又高潮免费毛片| 亚洲无码vr| 少妇高潮免费在线观看| 精品亚洲成a人在线观看| 无码中文字幕人妻在线一区二区三区| 欧美日韩国产乱了伦| 日本一区二区在线免费看| 被黑人猛烈30分钟视频| 久久久久久人妻精品一区百度网盘| 亚洲高清av一区二区| 亚洲中国精品精华液| 精品久久人人妻人人做精品| 99在线无码精品秘 人口| 男女av免费视频网站| 人妻少妇边接电话边娇喘| 在线观看国产三级av|