亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于陣列子通道投影圖的雷達(dá)圖像增強(qiáng)算法

        2023-10-17 01:53:50戴永鵬宋少秋宋永坤王秀榮
        信號處理 2023年9期
        關(guān)鍵詞:方法

        戴永鵬 宋少秋 金 添 宋永坤 王秀榮

        (1.國防科技大學(xué)電子科學(xué)學(xué)院,湖南長沙 410073;2.長沙理工大學(xué)計算機(jī)與通信工程學(xué)院,湖南長沙 410073)

        1 引言

        低頻的超寬帶雷達(dá)波具有較好的穿透特性與分辨性能,能穿透葉簇、地表、墻體等介質(zhì),探測隱藏物體,其與大孔徑天線陣列配合,能夠獲取目標(biāo)圖像和散射信息,在人體姿態(tài)估計、城市巷戰(zhàn)、災(zāi)后救援、車載成像以及戰(zhàn)場態(tài)勢感知等軍民用領(lǐng)域發(fā)揮著顯著的作用[1-3]。然而,實際的超寬帶雷達(dá)成像系統(tǒng)受到陣列長度、陣元間距、成像條件不理想以及平臺重量、尺寸和復(fù)雜度等多方面的限制,導(dǎo)致雷達(dá)圖像存在主瓣展寬和高柵旁瓣等問題。相關(guān)學(xué)者相應(yīng)地提出了基于相干因子加權(quán)方法[4-5],基于波束加權(quán)補(bǔ)償?shù)脑鰪?qiáng)方法[6]、解卷積[7]和稀疏恢復(fù)[8-9]類方法。然而,這些算法的計算量很大,并且部分算法的魯棒性和穩(wěn)健性不高??紤]到實際應(yīng)用對高分辨率圖像的迫切需求,如何對超寬帶雷達(dá)圖像進(jìn)行圖像增強(qiáng)具有一定的研究價值。

        超寬帶雷達(dá)圖像的超分辨率增強(qiáng)方法主要分為基于模型驅(qū)動的傳統(tǒng)方法和基于數(shù)據(jù)驅(qū)動的深度學(xué)習(xí)方法。其中傳統(tǒng)方法主要通過信號處理來對低分辨率雷達(dá)圖像進(jìn)行超分辨增強(qiáng),從而獲得高質(zhì)量的雷達(dá)圖像。其主要方法包括稀疏表示[8-9]、頻譜外推[10]、譜估計[11]、偏微分方程方法[12]等類型。然而稀疏表示方法對弱散射目標(biāo)的恢復(fù)效果較差且超分辨性能受信噪比和字典矩陣的影響較大;頻譜外推方法的外推范圍有限且對模型誤差較為敏感;譜估計方法運(yùn)算量大且對噪聲敏感,容易產(chǎn)生虛假目標(biāo);偏微分方程方法在背景雜波復(fù)雜時會造成背景區(qū)域失真,且無法對目標(biāo)分辨率進(jìn)行有效提升。

        近年來,深度學(xué)習(xí)方法在圖像處理領(lǐng)域有著快速的發(fā)展,光學(xué)圖像超分辨的深度學(xué)習(xí)方法已擴(kuò)展到雷達(dá)圖像增強(qiáng)領(lǐng)域[13-15]。Dai 等人提出了基于超分辨卷積神經(jīng)網(wǎng)絡(luò)(Super-Resolution Convolutional Neural Network,SRCNN)的增強(qiáng)方法,有效抑制了柵旁瓣的影響,實現(xiàn)了從低分辨率雷達(dá)圖像到高分辨率雷達(dá)圖像端到端的增強(qiáng)[16]。Christos Vasileio等人也提出了一種基于MobileSRGAN 的動目標(biāo)合成孔徑雷達(dá)(Synthetic Aperture Radar,SAR)圖像增強(qiáng)方法,適用于不規(guī)則幾何掃描軌跡,實現(xiàn)了高分辨率SAR 圖像增強(qiáng)[17]。Qin 提出了一種基于Resnet殘差網(wǎng)絡(luò)的逆合成孔徑雷達(dá)(Inverse Synthetic Aperture Radar,ISAR)圖像超分辨算法,取得了一定的成果[18-19]。然而,上述方法都是利用深度神經(jīng)網(wǎng)絡(luò)在雷達(dá)圖像中恢復(fù)理想圖像,但近似、量化等操作導(dǎo)致的目標(biāo)信息損失伴隨著整個成像流程,這也將產(chǎn)生不可逆的信息損失問題。由此本文擬將深度神經(jīng)網(wǎng)絡(luò)與成像流程相結(jié)合,將成像算法中間結(jié)果輸入深度神經(jīng)網(wǎng)絡(luò),為神經(jīng)網(wǎng)絡(luò)輸入更多場景信息,有助于獲得更高精度的雷達(dá)圖像。本文在前人研究基礎(chǔ)上,充分利用雷達(dá)圖像與陣列子通道回波信號的相關(guān)性,將陣列子通道的成像中間結(jié)果作為輸入樣本的擴(kuò)展,為深度神經(jīng)網(wǎng)絡(luò)提供更多的目標(biāo)信息,以進(jìn)一步輸出高質(zhì)量雷達(dá)圖像。本文內(nèi)容主要分為三個部分,第一部分為超寬帶MIMO 成像原理;第二部分為超寬帶雷達(dá)圖像增強(qiáng)算法;第三部分通過仿真和實測分析并驗證本文方法的有效性。

        2 超寬帶MIMO成像原理

        超寬帶MIMO 雷達(dá)通過使用稀疏陣列排布、大實孔徑的天線陣列收發(fā)超寬帶電磁波信號來對探測場景進(jìn)行高分辨率成像,在后期的目標(biāo)檢測和識別等任務(wù)中有著廣泛應(yīng)用。如圖1 所示,本節(jié)采用步進(jìn)頻信號作為雷達(dá)的信號模型,考慮到發(fā)射天線Tx與接收天線Rx分別位于(xT,yT,z0)和(xR,yR,z0)構(gòu)成多站天線陣面,經(jīng)過解調(diào)及正交采樣后,雷達(dá)回波信號可以建模為

        圖1 MIMO雷達(dá)成像場景圖Fig.1 MIMO radar imaging scene map

        設(shè)雷達(dá)天線各向同性、天線通道已校準(zhǔn),其中f(x,y,z)是目標(biāo)散射強(qiáng)度函數(shù),p(t)是發(fā)射信號,t是快時間,c為光速,則成像目標(biāo)與收發(fā)天線之間的距離為

        對式(1)進(jìn)行距離向傅里葉變換,可以得到

        其中p(f)是發(fā)射信號p(t)的頻譜,波數(shù)k=2πfc。當(dāng)系統(tǒng)具有M個發(fā)射天線與N個接收天線時,使用波束賦形的后向投影(Back-projection,BP)算法將式(3)改寫,目標(biāo)散射強(qiáng)度函數(shù)(x,y,z)可以表示為

        (x,y,z)為僅利用第m個發(fā)射天線與第n個接收天線組成的收發(fā)通道對場景成像結(jié)果,也可稱為子通道投影圖。

        3 超寬帶雷達(dá)圖像增強(qiáng)算法

        上述雷達(dá)探測及成像過程可以用矩陣形式表示,其中,雷達(dá)探測過程可以表述為

        式(6)是回波信號的分解,展現(xiàn)了信號的形成流程。YMNQ×1是觀測向量(原始回波),M,N,Q分別表示雷達(dá)系統(tǒng)發(fā)射天線數(shù)、接收天線數(shù)、頻率采樣點數(shù)。AMNQ×XYZ是觀測矩陣。XXYZ×1是成像場景的散射系數(shù)分布矩陣,X,Y,Z分別是成像場景中的網(wǎng)格數(shù)。θMNQ×1是外界噪聲。根據(jù)實際探測場景回波YMNQ×1求解場景中雷達(dá)散射截面積(Radar Cross Section,RCS)分布XXYZ×1的過程即為成像過程。通??衫闷ヅ錇V波方法進(jìn)行近似估計,成像模型可表示為

        雷達(dá)成像通常是一個病態(tài)的逆問題,而匹配濾波方法獲得的雷達(dá)圖像存在分辨性能差、柵旁瓣強(qiáng)等問題。對此將陣列子通道投影圖作為新的先驗信息融入網(wǎng)絡(luò)單元,通過深度神經(jīng)網(wǎng)絡(luò)來改善病態(tài)的成像估計問題,進(jìn)而能保留更多目標(biāo)信息,獲得更高精度的雷達(dá)圖像。

        3.1 雷達(dá)圖像增強(qiáng)網(wǎng)絡(luò)框架

        本節(jié)詳細(xì)介紹基于深度神經(jīng)網(wǎng)絡(luò)的超寬帶雷達(dá)圖像增強(qiáng)框架,包括訓(xùn)練數(shù)據(jù)的產(chǎn)生,網(wǎng)絡(luò)訓(xùn)練與預(yù)測流程。基于深度學(xué)習(xí)的超寬帶雷達(dá)圖像分辨率增強(qiáng)技術(shù)路線如圖2所示。

        圖2 超寬帶雷達(dá)圖像增強(qiáng)技術(shù)路線Fig.2 Technical route of UWB radar image enhancement

        首先是訓(xùn)練樣本與標(biāo)簽的制備。仿真場景下隨機(jī)生成若干個理想點目標(biāo),將理想點目標(biāo)與點擴(kuò)展函數(shù)進(jìn)行卷積,得到高分辨率雷達(dá)圖像,作為卷積神經(jīng)網(wǎng)絡(luò)中監(jiān)督學(xué)習(xí)的標(biāo)簽。對點目標(biāo)模型在20 dB 信噪比環(huán)境中進(jìn)行回波模擬及成像(用作訓(xùn)練樣本及標(biāo)簽,因此信噪比較好),得到的低分辨率雷達(dá)圖像作為訓(xùn)練樣本。將二者組成訓(xùn)練樣本與標(biāo)簽對,訓(xùn)練深度神經(jīng)網(wǎng)絡(luò),得到高分辨率超寬帶雷達(dá)圖像的網(wǎng)絡(luò)模型,能夠以低分辨雷達(dá)圖像作為輸入,實現(xiàn)雷達(dá)圖像增強(qiáng)。

        雷達(dá)圖像增強(qiáng)卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)示意圖如圖3和表1所示,該神經(jīng)網(wǎng)絡(luò)為全卷積網(wǎng)絡(luò),不使用全連接層,能有效降低網(wǎng)絡(luò)結(jié)構(gòu)復(fù)雜度和參數(shù)數(shù)目。整個網(wǎng)絡(luò)結(jié)構(gòu)通??砂垂δ軇澐譃槿糠郑谝徊糠譃樘卣魈崛?,輸入為雙通道數(shù)據(jù),分別為雷達(dá)圖像的實部、虛部。第二部分為非線性層,將第一部分所提取的特征進(jìn)行處理,并通過有監(jiān)督的學(xué)習(xí)方式去尋找標(biāo)簽和低分辨率圖像樣本之間的非線性映射關(guān)系。第三部分為輸出層,整合數(shù)據(jù)并輸出增強(qiáng)后的雷達(dá)圖像。

        表1 卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)Tab.1 Convolutional neural network structure

        圖3 超寬帶雷達(dá)圖像增強(qiáng)網(wǎng)絡(luò)示意圖Fig.3 Schematic diagram of UWB radar image enhancement network

        卷積神經(jīng)網(wǎng)絡(luò)利用卷積核在原始輸入樣本上平移滑動提取特征,最終輸出增強(qiáng)圖像上單個像素點映射到原始輸入圖像上的區(qū)域稱為感受野,該像素點輸出值僅取決于感受野內(nèi)數(shù)據(jù)。感受野受卷積神經(jīng)網(wǎng)絡(luò)深度和卷積核大小的影響。當(dāng)感受野較小時,感受野無法包含目標(biāo)在原始圖像中表現(xiàn)的有效信息(通常認(rèn)為主瓣和第一旁瓣),而感受野較大時,則有較多背景噪聲及雜波混入卷積神經(jīng)網(wǎng)絡(luò),影響特征提取效果,且增加無效神經(jīng)元數(shù)量。對于雷達(dá)圖像增強(qiáng)任務(wù)而言,過小、適中及過大的感受野范圍分別如圖4 所示,需要選用適當(dāng)?shù)木矸e核大小和卷積層層數(shù),提升卷積神經(jīng)網(wǎng)絡(luò)從原始雷達(dá)圖像中提取目標(biāo)特征的性能。

        圖4 不同大小的感受野范圍對比Fig.4 Comparison of Receptive field of different sizes

        3.2 基于陣列子通道投影圖的雷達(dá)圖像增強(qiáng)方法

        在公式(4)及(7)表示的成像過程中,假設(shè)目標(biāo)RCS 對各通道具有一致性,可以通過對各通道投影圖進(jìn)行相干疊加獲取最終圖像。但現(xiàn)實場景中,目標(biāo)RCS 存在各向異性,因而對其直接疊加無法獲得最大增益。此外各通道間相關(guān)性也是雷達(dá)圖像處理的重要特征,例如相干因子加權(quán)(Coherence Factor,CF)算法即利用通道間相關(guān)性區(qū)分目標(biāo)區(qū)域與非目標(biāo)區(qū)域,抑制非目標(biāo)區(qū)域中出現(xiàn)的柵旁瓣。

        卷積神經(jīng)網(wǎng)絡(luò)雷達(dá)圖像增強(qiáng)的本質(zhì)是根據(jù)原始雷達(dá)圖像逆推雷達(dá)圖像場景中RCS 分布,考慮成像過程中陣列子通道投影圖的大小、形狀、位置、幅度等因素對雷達(dá)圖像的影響。將輸入樣本進(jìn)行擴(kuò)展,以為卷積神經(jīng)網(wǎng)絡(luò)提供更多的信息。其中輸入樣本由雷達(dá)原始圖像、陣列子通道投影圖和位置編碼拼接而成。位置編碼針對近場成像系統(tǒng)點擴(kuò)展函數(shù)隨目標(biāo)位置變化現(xiàn)象,用于指示圖像中卷積核提取區(qū)域的局部位置信息,能輔助卷積神經(jīng)網(wǎng)絡(luò)提取特征信息。投影圖作為成像過程的中間結(jié)果,也能進(jìn)一步提升雷達(dá)圖像增強(qiáng)能力?;陉嚵凶油ǖ劳队皥D的雷達(dá)圖像增強(qiáng)神經(jīng)網(wǎng)絡(luò)如圖5 所示。

        圖5 基于陣列子通道投影圖的雷達(dá)圖像增強(qiáng)神經(jīng)網(wǎng)絡(luò)圖Fig.5 Neural network map for radar image enhancement based on array sub-channel projection map

        采用雷達(dá)原始圖像、位置編碼和陣列子通道投影圖作為卷積神經(jīng)網(wǎng)絡(luò)的輸入樣本,將理想點目標(biāo)與點擴(kuò)展函數(shù)卷積后的高分辨率圖像作為標(biāo)簽來訓(xùn)練神經(jīng)網(wǎng)絡(luò)。樣本輸入的具體排布細(xì)節(jié)如圖6所示。假設(shè)仿真MIMO雷達(dá)天線包括四發(fā)五收通道,由此有原始雷達(dá)圖像實虛部、20個陣列子通道投影圖,每個投影圖分別對應(yīng)幅度、相位、實部、虛部的四個通道,共有80個通道。位置編碼則有4個,用來指示局部位置信息。對上述陣列進(jìn)行仿真,MIMO陣列結(jié)構(gòu)如圖7(a)所示,仿真場景圖如圖7(b)所示,原始成像結(jié)果和第1個陣列子通道投影圖展示在圖7(c)和圖7(d)中。

        圖6 輸入樣本結(jié)構(gòu)Fig.6 Input sample structure

        圖7 MIMO雷達(dá)仿真成像示意圖Fig.7 Schematic diagram of MIMO radar imaging

        4 仿真與實測結(jié)果分析

        本文通過點目標(biāo)仿真和實測成像結(jié)果對所提方法進(jìn)行了驗證,對比方法包括以下三類:(1)經(jīng)典BP 成像算法;(2)CF 加權(quán)的成像算法;(3)基于深度學(xué)習(xí)的SRCNN 方法。基于網(wǎng)格的深度學(xué)習(xí)方法均在Py-Torch 框架下實現(xiàn),學(xué)習(xí)率初始為0.0001,且隨著訓(xùn)練次數(shù)增加而遞減。上述方法均在12 代Intel i9-12900H CPU 處理器、16 GB 內(nèi)存和RTX 3060 GPU的計算機(jī)上實現(xiàn)。

        4.1 仿真驗證

        本小節(jié)通過點目標(biāo)仿真來驗證所提方法的有效性,仿真參數(shù)如表2 所示。對9 個理想散射點模型在20 dB 信噪比環(huán)境下進(jìn)行回波模擬,將散射點幅度歸一化,并賦予隨機(jī)相位。圖8 給出了各個算法在40 dBW 的高斯白噪聲環(huán)境的成像結(jié)果。通過仿真結(jié)果可以看出,傳統(tǒng)BP 算法無法精準(zhǔn)重構(gòu)目標(biāo)圖像,其圖像中存在嚴(yán)重的噪聲串?dāng)_,目標(biāo)幾乎被雜波覆蓋,這也必然對后期的圖像解譯等任務(wù)造成困難。此外,基于CF 加權(quán)的成像算法雖能恢復(fù)原始圖像,但抑制柵旁瓣、降低背景噪聲方面的效果有限。相比上述兩種方法,基于雷達(dá)圖像的深度神經(jīng)網(wǎng)絡(luò)重構(gòu)方法獲得的雷達(dá)圖像分辨率更高?;诶走_(dá)圖像的深度神經(jīng)網(wǎng)絡(luò)方法相比,所提基于子通道投影圖的深度神經(jīng)網(wǎng)絡(luò)方法利用了陣列子投影圖對輸入信息進(jìn)行了擴(kuò)展,能夠更為精準(zhǔn)地抑制圖像柵旁瓣和背景雜波,挖掘出目標(biāo)場景的更多信息,進(jìn)一步提高了圖像重構(gòu)精度。

        表2 仿真參數(shù)Tab.2 Simulation parameters

        圖8 點目標(biāo)成像結(jié)果示意圖Fig.8 Schematic diagram of point target imaging results

        利用背景區(qū)域最大相對幅值評價各方法圖像,原始圖像中最大虛假目標(biāo)強(qiáng)度-10.14 dB,CF加權(quán)結(jié)果為-23.57 dB,基于雷達(dá)圖像的網(wǎng)絡(luò)方法及本文所提基于子投影圖的網(wǎng)絡(luò)方法則分別為-40.06 dB 與-40.70 dB,此外從圖像可看出,本文所提方法增強(qiáng)后,圖像中虛假點目標(biāo)個數(shù)也明顯變少,能夠有效提升后續(xù)檢測器性能。仿真額外的3000 幅隨機(jī)點目標(biāo)雷達(dá)圖像,分別使用BP 算法、CF 加權(quán)算法、基于雷達(dá)圖像的網(wǎng)絡(luò)方法以及本文所提方法進(jìn)行圖像增強(qiáng)。通過不斷調(diào)節(jié)門限,繪制了非目標(biāo)區(qū)域虛警和目標(biāo)檢測率之間的ROC 曲線,如圖9 所示。由于雷達(dá)圖像中的目標(biāo)通常是稀疏的,目標(biāo)占據(jù)的像素數(shù)量很少,因此我們通常需要算法具有極低的虛警率以保證圖像質(zhì)量。通過比較結(jié)果可以發(fā)現(xiàn),本文所提出的基于陣列子通道投影圖的卷積神經(jīng)網(wǎng)絡(luò)完全符合這一標(biāo)準(zhǔn)。

        圖9 圖像增強(qiáng)結(jié)果ROC曲線Fig.9 ROC of the enhanced images

        4.2 實測數(shù)據(jù)驗證

        本節(jié)通過現(xiàn)有超寬帶雷達(dá)成像系統(tǒng)采集的實測數(shù)據(jù)進(jìn)一步驗證所提方法的有效性。超寬帶雷達(dá)系統(tǒng)和實測場景如圖10 所示,場景中包含3 個角反射體目標(biāo)。實驗系統(tǒng)參數(shù)與4.1小節(jié)仿真參數(shù)相同。BP 成像結(jié)果、CF 加權(quán)成像結(jié)果、基于雷達(dá)圖像的網(wǎng)絡(luò)方法及基于子通道投影圖的網(wǎng)絡(luò)方法重構(gòu)結(jié)果在圖11 中展示。動態(tài)范圍設(shè)置-40 dB~0 dB。從圖中看出,BP算法獲得的圖像中存在較強(qiáng)的柵旁瓣,目標(biāo)淹沒在虛假目標(biāo)中;而CF 加權(quán)算法抑制了部分噪聲干擾,但仍然包含柵旁瓣引起的虛假目標(biāo);基于雷達(dá)圖像的網(wǎng)絡(luò)圖像重構(gòu)方法,能獲得較為優(yōu)質(zhì)的雷達(dá)圖像,背景清晰無噪聲斑,但對柵旁瓣的抑制效果弱于本文所提方法,四種方法獲得最終圖像中,背景區(qū)域最強(qiáng)虛假目標(biāo)相對幅度分別為-6.5 dB、-8.2 dB、-11.3 dB 以及-22.5 dB,本文方法提供最好的虛假目標(biāo)抑制效果,此外,值得注意的是,CF加權(quán)結(jié)果與基于雷達(dá)圖像的網(wǎng)絡(luò)增強(qiáng)結(jié)果中,目標(biāo)后側(cè)均包含一能量較強(qiáng)的虛假目標(biāo),在圖像中與真實目標(biāo)無異,因此兩類方法無法對虛假目標(biāo)進(jìn)行有效抑制,本文所提基于陣列子投影圖的圖像增強(qiáng)方法則對其有明顯抑制作用。

        圖10 實測場景及雷達(dá)系統(tǒng)圖Fig.10 Measurement scene and radar system diagram

        圖11 實測成像結(jié)果Fig.11 Real measurement imaging results

        5 結(jié)論

        本文提出了一種基于陣列子通道投影圖的超寬帶雷達(dá)圖像增強(qiáng)算法,該方法利用了超寬帶雷達(dá)成像系統(tǒng)各個陣列子通道回波相關(guān)性特征,對原有雷達(dá)圖像增強(qiáng)算法進(jìn)行了優(yōu)化改進(jìn),通過將陣列子通道投影圖擴(kuò)展到輸入端,構(gòu)建了投影圖和位置編碼模塊,為神經(jīng)網(wǎng)絡(luò)提供了更加豐富的目標(biāo)信息,從而獲得了更高質(zhì)量的雷達(dá)圖像。利用仿真和實測數(shù)據(jù)進(jìn)行驗證,實驗結(jié)果表明,與傳統(tǒng)方法相比,本文所提方法可以有效抑制雷達(dá)圖像柵旁瓣和背景雜波,具有較強(qiáng)的穩(wěn)健性和魯棒性,實現(xiàn)了端到端的超寬帶雷達(dá)圖像增強(qiáng)。此外,本文所提算法使雷達(dá)圖像更易于判讀,有助于提高雷達(dá)圖像解譯過程中目標(biāo)檢測識別的準(zhǔn)確率。

        猜你喜歡
        方法
        中醫(yī)特有的急救方法
        中老年保健(2021年9期)2021-08-24 03:52:04
        高中數(shù)學(xué)教學(xué)改革的方法
        河北畫報(2021年2期)2021-05-25 02:07:46
        化學(xué)反應(yīng)多變幻 “虛擬”方法幫大忙
        變快的方法
        兒童繪本(2020年5期)2020-04-07 17:46:30
        學(xué)習(xí)方法
        可能是方法不對
        用對方法才能瘦
        Coco薇(2016年2期)2016-03-22 02:42:52
        最有效的簡單方法
        山東青年(2016年1期)2016-02-28 14:25:23
        四大方法 教你不再“坐以待病”!
        Coco薇(2015年1期)2015-08-13 02:47:34
        賺錢方法
        亚洲一线二线三线写真| 被灌醉的日本人妻中文字幕| 国产精品高清网站| 中文字幕久久精品一二三区 | 51国产偷自视频区视频| 无码ol丝袜高跟秘书在线观看| 国产自精品| 亚洲乱码中文字幕综合| 刚出嫁新婚少妇很紧很爽| 777国产偷窥盗摄精品品在线| 欧美人与动人物牲交免费观看| 国产一区二区三区杨幂| 日本一区二区国产精品| 亚洲国产精品一区二区www| 伊人色综合视频一区二区三区 | 久久99国产精品久久| 久久久久久久久888| 亚洲AⅤ男人的天堂在线观看| 国产一区二区三区四区在线视频| 国产亚洲精品美女久久久m| 最近中文字幕在线mv视频在线| 2021久久精品国产99国产 | 99久久国产福利自产拍| 极品诱惑一区二区三区| 国产精品女同av在线观看| 成人亚洲一区二区三区在线| 亚洲另类自拍丝袜第五页 | 蜜桃视频网站在线免费观看| 可以免费看亚洲av的网站| 无码精品人妻一区二区三区影院| 无码一区东京热| 人妻系列中文字幕av| 久久不见久久见免费影院国语 | 国产精品女主播在线播放| 97日日碰曰曰摸日日澡| 国产香蕉尹人在线视频播放| 中文字幕一区二区三区四区久久| 18禁裸体动漫美女无遮挡网站| 夫妇交换刺激做爰视频| 亚洲精品国产福利在线观看 | 在线视频亚洲一区二区三区|