亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        一種基于模型的合成孔徑聲吶圖像目標(biāo)快速識別方法

        2015-12-13 11:46:50朱兆彤彭石寶許肖梅
        電子與信息學(xué)報 2015年7期
        關(guān)鍵詞:響應(yīng)函數(shù)聲吶姿態(tài)

        朱兆彤 彭石寶 許 稼 許肖梅*

        1 引言

        合成孔徑聲吶(SAS)能夠獲取水下觀測場景和目標(biāo)高分辨率的圖像,在民用和軍事領(lǐng)域均得到了廣泛的應(yīng)用,如在水下考古、海底資源勘探、海底情報偵察等水下目標(biāo)識別場所。高分辨率SAS圖像成功應(yīng)用的關(guān)鍵,在于對檢測到的目標(biāo)進行快速而準(zhǔn)確的識別。

        針對聲吶圖像目標(biāo)自動識別問題,目前國內(nèi)外都已積極展開研究,提出了許多有效的目標(biāo)識別方法。文獻[1]提出采用先驗環(huán)境信息實現(xiàn)目標(biāo)特征魯棒提取的分類方法。文獻[2]則提出通過融合多個分類器結(jié)果,提升目標(biāo)識別準(zhǔn)確性。文獻[3-6]通過實測數(shù)據(jù)或?qū)δ繕?biāo)建模仿真,產(chǎn)生目標(biāo)在多個觀測角度下的仿真聲吶圖像,之后與實測圖像進行匹配,實現(xiàn)水下目標(biāo)識別。

        合成孔徑聲吶成像與合成孔徑雷達(SAR)成像原理相同,圖像具有許多共同的特性,如相干斑、陰影、透視效應(yīng)等,因此SAR目標(biāo)識別方法與SAS目標(biāo)識別方法可相互借鑒。近年來,針對合成孔徑圖像目標(biāo)識別,提出了許多有效的方法。總體而言,現(xiàn)有研究思路可歸納為兩類,一類為基于模板識別的方法[110]-,該類方法通過實際實驗或者仿真預(yù)先得到目標(biāo)在各種條件下的先驗的模板圖像[37]-或特征矢量[1,2,810]-,每個模板提供一種分類假設(shè),分類時通過選擇候選目標(biāo)的圖像或特征矢量與模板的最佳匹配來完成的。另一類是基于模型的識別方法[11,12],該類方法數(shù)據(jù)庫中存儲的是目標(biāo)物理或概念的模型,無需實際的先驗?zāi)0鍞?shù)據(jù)。通過對分類圖像或特征矢量估計目標(biāo)姿態(tài)、配置條件、觀測幾何,實時或近實時產(chǎn)生對應(yīng)的待分類目標(biāo)圖像。通過合成孔徑聲吶圖像仿真器產(chǎn)生模板時可通過智能地修正目標(biāo)類型、姿態(tài)等的假設(shè),直到它和測量圖像,或由測量圖像提取的特征矢量匹配得足夠好為止。相比基于模板的方法,本文采用的基于模型的方法無需存儲大量不同姿態(tài)下目標(biāo)圖像,增加或刪除備選目標(biāo)靈活性高。目前,在合成孔徑聲吶或雷達方面,已有一些公開的仿真算法[1315]-,然而大多數(shù)方法較為注重仿真圖像的準(zhǔn)確性,對于仿真算法的實時性則考慮不多,這也限制了基于模型的識別算法發(fā)展。

        現(xiàn)有基于模型的方法大都是針對光學(xué)和合成孔徑雷達(SAR)圖像,本文對基于模型的聲吶圖像識別方法的兩個問題進行了改進,進一步提高了基于模型識別方法的運算效率。具體的改進思路如下:首先,提出了基于構(gòu)造凸殼的目標(biāo)姿態(tài)角快速估計方法,實現(xiàn)了成像幾何的快速估計;其次,提出了改進的基于隱藏點移除的目標(biāo)圖像快速仿真方法,近實時產(chǎn)生備選模型的仿真SAS圖像模板。仿真實驗表明,相比于現(xiàn)有的基于模型的識別方法,該方法在基本不損失識別率條件下,可顯著提高目標(biāo)識別的實時性。文章第2節(jié)將詳細介紹算法實現(xiàn)方法,第3節(jié)將通過仿真說明算法的有效性,第4節(jié)將給出全文結(jié)論。

        2 本文實現(xiàn)方法

        基于模型的SAS圖像目標(biāo)識別方法流程如圖 1所示,包括如下幾個步驟:(1)對輸入圖像進行預(yù)處理,標(biāo)記目標(biāo)區(qū)域和陰影區(qū)域;(2)提取目標(biāo)參數(shù),主要是估計目標(biāo)的姿態(tài)角;(3)輸入聲吶系統(tǒng)參數(shù)和備選目標(biāo)模型至仿真系統(tǒng),產(chǎn)生備選目標(biāo)的仿真模板;(4)計算備選目標(biāo)圖像與輸入目標(biāo)圖像的評價函數(shù),判斷是否滿足匹配要求,若不滿足,則更換備選目標(biāo)模型,重復(fù)步驟(3),若滿足,則輸出識別結(jié)果。本文在該方法的基礎(chǔ)上,主要工作體現(xiàn)在兩個方面。一是針對目標(biāo)姿態(tài)角估計,提出采用基于構(gòu)造凸殼的目標(biāo)姿態(tài)角快速估計方法;二是針對仿真模板的生成,提出了改進的基于隱藏點移除的快速圖像仿真方法。通過以上兩個步驟的優(yōu)化改進,顯著提高了基于模型目標(biāo)識別算法的效率。具體步驟將在2.1節(jié)至2.4節(jié)中詳細敘述。

        圖1 識別方法主要流程

        2.1 圖像預(yù)處理

        與光學(xué)圖像不同,通常SAS圖像沒有清晰的邊緣,因此,對SAS圖像進行預(yù)處理的主要目的就是將目標(biāo)主體和目標(biāo)陰影部分從背景噪聲中分割出來。本文中輸入待識別圖像先通過標(biāo)準(zhǔn)直方圖均衡方法[9],讓圖像幅度均歸一化至 (,) [0,1]I x y∈ 。為了降低SAS圖像相干噪聲的影響,將圖像通過一個均值濾波器平滑,之后設(shè)定1θ,2θ作為分割目標(biāo)、背景和陰影區(qū)域的閾值。設(shè)分割后圖像為(,)I'x y,可表示為

        最后,分別在目標(biāo)區(qū)域和陰影區(qū)域中選擇最大連通區(qū)域,若目標(biāo)最大連通區(qū)域大于給定閾值,則視為檢測到目標(biāo),完成圖像預(yù)處理。預(yù)處理過程見圖2。

        2.2 基于構(gòu)造凸殼的目標(biāo)姿態(tài)角估計

        對于SAS圖像,現(xiàn)有基于直接模板和模型的目標(biāo)識別方法都受限于目標(biāo)姿態(tài)多變帶來的不確定性。為了消除“千姿百態(tài)”圖像的不確定性,最有效的方法是對目標(biāo)的成像幾何進行有效估計。

        最小外接矩形方法是一種有效的目標(biāo)姿態(tài)角估計方法(Minimum Bounding Rectangle, MBR)[16],一般包括以下步驟:如圖 3所示,首先在目標(biāo)周圍畫一個邊長為l1×l2的矩形,保證該矩形與目標(biāo)相切。之后,每次都以一定的角度α旋轉(zhuǎn)該矩形,直到符合一定的準(zhǔn)則。判定的準(zhǔn)則有目標(biāo)-背景面積比最大、周長最小和邊界相交點數(shù)最多等。通常認(rèn)為,邊界點數(shù)最多準(zhǔn)則精度較高[9,16],因此本文采用邊界相交點數(shù)最多為MBR方法為判定準(zhǔn)則。

        圖2 圖像預(yù)處理過程

        圖3 基于最小外接矩形的目標(biāo)姿態(tài)角估計

        為提高姿態(tài)角估計速度,本文假設(shè)最小外接矩形的一條邊必然與目標(biāo)凸殼的一邊重合[17]。基于這個假設(shè),搜索 MBR時,可以避免遍歷所有可能的角度帶來的大運算量,將 MBR搜索數(shù)量減小到目標(biāo)凸殼的邊的數(shù)量,同時保證估計精度沒有下降。為驗證算法的有效性,本文分別對傳統(tǒng)旋轉(zhuǎn)實現(xiàn)MBR的方法[9]和基于構(gòu)造凸殼實現(xiàn)MBR的方法進行了仿真,其中,基于旋轉(zhuǎn)實現(xiàn)的方法每次旋轉(zhuǎn)間隔分別設(shè)置為2°和5°。仿真時分別對同一目標(biāo)不同姿態(tài)角下的72幅仿真模板進行姿態(tài)角估計。具體仿真結(jié)果見表 1。從表 1可以看出,基于構(gòu)造凸殼實現(xiàn)MBR方法相比于傳統(tǒng)基于旋轉(zhuǎn)的MBR方法,精度和效率均得到了提高。需要說明的是,由于姿態(tài)角的估計范圍為 θ ∈ [ 0°, 180°),假定最終估計得到的角度是θ,則可能的目標(biāo)姿態(tài)角為兩個,分別為θ和θ+ 1 80°。

        2.3 基于截斷2維sinc函數(shù)的目標(biāo)圖像快速仿真方法

        在圖1所示的基于模型的識別算法中,影響算法效率的另一個關(guān)鍵節(jié)點是“仿真模板生成”。文獻[13]中提出了一種基于隱藏點移除的SAR目標(biāo)圖像快速仿真方法,為了進一步快速得到目標(biāo)的仿真模板,本文在文獻[13]的基礎(chǔ)上,提出基于點響應(yīng)截斷的快速仿真方法,進一步提高算法的運算速度。包括以下4個主要步驟:

        表1 3種姿態(tài)角估計方法性能比較

        (1)仿真產(chǎn)生3維場景,其中背景部分為高斯隨機分布的粗糙表面,目標(biāo)可輸入任意物體的3維模型。之后通過插值,獲得整個場景的點云模型;

        (2)通過隱藏點移除(HPR)[18]算法估計散射點可視性;

        (3)估計可見散射點的強度;

        (4)根據(jù)聲吶成像參數(shù)、可見散射點的強度將 3維場景投影到2維成像平面。理想的SAS點目標(biāo)響應(yīng)可以用一個2維sinc函數(shù)描述,由于SAS成像是一個線性系統(tǒng),因而,最終的SAS仿真模板可以由所有可見散射點的響應(yīng)相加得到。

        在步驟(3)中,SAS成像理想點目標(biāo)可表示為

        其中,rect(.)為矩形窗函數(shù),定義為式(3),xi, yi為第i個散射點的位置,A為目標(biāo)強度函數(shù),?v為等效平臺速度,c為水中聲速,λ為波長, Br為發(fā)射信號帶寬, Bd為多普勒帶寬,可通過式(4)得到,其中D為聲吶基陣孔徑,T為合成孔徑總時間,T為距離向采樣時間,為方位向慢時間,?t為距離向快時間。假定目標(biāo)共有L個可視散射點,方位向采樣點數(shù)為M,距離向采樣點數(shù)為N。這樣,將所有散射點響應(yīng)函數(shù)進行累加時需要進行L×M×N次復(fù)數(shù)加法,計算量巨大。

        考慮到 2維sinc函數(shù)主要能量集中在主瓣附近,因而,如果對點目標(biāo)響應(yīng)函數(shù)的副瓣部分進行適當(dāng)?shù)慕財?,只會對最終成像結(jié)果造成有限的影響,同時,可將總運算量降低至2LK×次復(fù)數(shù)加法,其中K為截斷后2維sinc函數(shù)長度,為保證截斷響應(yīng)函數(shù)的對稱性,K通常取奇數(shù)。截斷后,理想點目標(biāo)可表示如下:

        圖4所示為完整2維sinc函數(shù)和截斷2維sinc函數(shù)對比示意圖,如圖可見截斷2維sinc函數(shù)保留了完整2維sinc函數(shù)的大部分能量,兩函數(shù)的相關(guān)系數(shù)為0.9886。仿真中 M = N = 2 56, K = 6 3。

        2.4 基于目標(biāo)-陰影聯(lián)合匹配方法

        對于SAS圖像,其高光部分和陰影部分均包含目標(biāo)的重要特征,因此,本文引入文獻[3]中提出的歸一化回波-陰影聯(lián)合匹配(Normalized Shadow-Echo Matching, NSEM)方法。首先,基于2.1節(jié)中結(jié)果,目標(biāo)圖像I( x, y)經(jīng)過預(yù)處理,得到I'(x, y) 。同時根據(jù)2.3節(jié)內(nèi)容產(chǎn)生的仿真模板J( x, y),經(jīng)過同樣的預(yù)處理方法,得到目標(biāo)模板J'(x, y)。之后將I'(x, y), J'(x, y) 的高光部分和陰影部分進行分割,得到高光部分(x, y ) = max(J'(x, y ),0),(x, y)=max(I'(x, y ) ,0) ,陰影部分(x, y ) = min(J'(x, y ),0),(x, y ) = |min(I'(x, y ),0)|。 同 時 定 義 補 模 板(complementary templates),其中高光部分補模板定義為

        構(gòu)造目標(biāo)圖像(,)I x y和模板圖像(,)J x y的匹配度評價函數(shù),該函數(shù)可以通過式(7)計算:

        式(7)中?運算符表示進行互相關(guān)運算。易知,當(dāng)I( x, y ) = J ( x, y) 時, f( I, J)= 1 。式(7)相對公平地估計了高光區(qū)域和陰影區(qū)域?qū)τ趦煞鶊D像相關(guān)性的貢獻。

        由于 2.2節(jié)的方法估計目標(biāo)姿態(tài)角時,對于每個目標(biāo),都存在兩個可能的姿態(tài)角,因而,若存在N類備選目標(biāo),需要仿真產(chǎn)生2N個模板圖像與目標(biāo)圖像匹配,計算f( I, J)并設(shè)定閾值ρ,構(gòu)造分類函數(shù)為

        當(dāng)沒有模板能超過閾值時,分類器輸出為0,否則,輸出分類結(jié)果。

        3 數(shù)值實驗驗證

        為了實現(xiàn)SAS圖像的目標(biāo)識別算法,需要建立一個包含多種模型的仿真及訓(xùn)練樣本庫。在合成孔徑雷達(SAR)圖像的識別算法研究中,MSTAR數(shù)據(jù)庫為公認(rèn)的算法測試庫。然而,目前在針對SAS圖像的識別算法研究領(lǐng)域,還沒有這樣一個公開的測試集。因此,通過2.3節(jié)提出的仿真方法產(chǎn)生3類目標(biāo)的仿真模板作為測試樣本集,每類目標(biāo)的數(shù)據(jù)集各包含 72幅圖像,姿態(tài)角設(shè)置為(0°,5°,1 0°,…,355°),每幅圖像大小為256×256像素。仿真參數(shù)如表 2所示。仿真時,成像區(qū)域大小約為25.6 m× 2 5.6 m,3類仿真潛艇目標(biāo)長度均設(shè)置為12 m。仿真結(jié)果如圖5所示,圖5中每個目標(biāo)只給出了一個姿態(tài)角下的仿真模板。

        圖4 完整2維sinc函數(shù)和截斷2維sinc函數(shù)對比

        圖5 3類潛艇目標(biāo)3維模型與仿真圖像

        表2 仿真參數(shù)

        為了驗證本文提出的基于截斷2維sinc函數(shù)快速仿真算法的性能,分別通過常規(guī)完整2維sinc函數(shù)方法和基于截斷2維sinc函數(shù)的方法來仿真產(chǎn)生圖像,結(jié)果對比見表 3。仿真結(jié)果表明,相比常規(guī)完整2維sinc函數(shù)方法,基于截斷2維sinc函數(shù)方法得到的圖像與未截斷情況下得到的仿真模板的相關(guān)系數(shù)為 0.9830,兩圖像幾乎完全一致,而截斷后仿真時間相比于未截斷情況下的仿真時間減少了到原來的 1/12.69。同時,兩次仿真中L相同,M×N / A2= 1 6.51。仿真結(jié)果與理論預(yù)期結(jié)果接近。仿真平臺為CPU: Intel Core I5, 3.0 GHz,內(nèi)存:8 GB,操作系統(tǒng):Windows 7 64位,軟件平臺:Matlab 2012a。

        采用本文方法與角度估計時固定角度間隔的方法[9]和仿真中采用完整 2維點響應(yīng)函數(shù)方法分別作為對比。本文方法與固定角度間隔的方法的不同之處在于目標(biāo)姿態(tài)角估計方法不同,目標(biāo)仿真模板均采用本文提出的改進的隱藏點移除快速仿真方法;完整2維點響應(yīng)函數(shù)方法與本文方法的不同,在于目標(biāo)仿真模板的產(chǎn)生方法不同,完整2維點響應(yīng)函數(shù)仿真方法目標(biāo)可見點投影時沒有進行截斷處理,而本文方法采用點響應(yīng)函數(shù)截斷處理。仿真中計算了 3種算法的混淆矩陣和平均每幅圖像的分類時間,混淆矩陣描述了目標(biāo)分類算法的分裂程度。3種算法的仿真混淆矩陣見表 4,仿真結(jié)果表明,相對另外兩種算法,本文方法在正確識別率上接近固定步長旋轉(zhuǎn)模板相關(guān)的方法達到 93.5%,較固定步長旋轉(zhuǎn)姿態(tài)角估計方法識別準(zhǔn)確率更高,與完整 2維sinc函數(shù)識別結(jié)果相同;但本文方法運算效率要略快于固定步長旋轉(zhuǎn)模型相關(guān)方法,遠快于完整 2維點響應(yīng)函數(shù)模型圖像仿真方法。

        表3 常規(guī)完整2維sinc函數(shù)方法和基于截斷2維sinc函數(shù)方法的仿真結(jié)果對比

        4 結(jié)論

        本文提出了一種改進的基于模型實時仿真的高分辨率SAS圖像目標(biāo)識別算法。針對傳統(tǒng)的基于模型的識別方法,在兩個方面進行了改進。一是通過改進的目標(biāo)姿態(tài)角估計算法,快速估計目標(biāo)的成像幾何參數(shù);二是提出改進的基于隱藏點移除的目標(biāo)圖像快速仿真方法,通過點響應(yīng)函數(shù)的截斷降低仿真過程中的運算量,實現(xiàn)目標(biāo)仿真模板的快速生成。另外,在仿真模板生成方面考慮了SAS背景場景的影響,提高了模板生成的逼真度。仿真結(jié)果顯示,本文提出的SAS圖像目標(biāo)識別方法保證了較高識別率的同時顯著地降低了運算量,提高了算法的實時性。

        表4 3種方法混淆矩陣

        [1] Williams D P and Fakiris E. Exploiting environmental information for improved underwater target classification in sonar imagery[J]. IEEE Transactions on Geoscience and Remote Sensing, 2014, 52(10): 6284-6297.

        [2] Tai F, Kraus D, and Zoubir A M. Contributions to automatic target recognition systems for underwater mine classification[J]. IEEE Transactions on Geoscience and Remote Sensing,2015, 53(1): 505-518.

        [3] Myers V and Fawcett J. A template matching procedure for automatic target recognition in synthetic aperture sonar imagery[J]. IEEE Signal Processing Letters, 2010, 17(7):683-686.

        [4] Myers V and Williams D P. Adaptive multiview target classification in synthetic aperture sonar images using a partially observable markov decision process[J]. IEEE Journal of Oceanic Engineering, 2012, 37(1): 45-55.

        [5] Groen J, Coiras E, Del Rio Vera J, et al.. Model-based sea mine classification with synthetic aperture sonar[J]. IET Radar, Sonar & Navigation, 2010, 4(1): 62-73.

        [6] Williams D P. Bayesian data fusion of multiview synthetic aperture sonar imagery for seabed classification[J]. IEEE Transactions on Image Processing, 2009, 18(6): 1239-1254.

        [7] Dobeck G J and Hyland J C. Automated detection and classification of sea mines in sonar imagery[J]. SPIE, 1997,Vol. 3097: 90-110.

        [8] Zhang H, Nasrabadi N M, Zhang Y, et al.. Multi-view automatic target recognition using joint sparse representation[J]. IEEE Transactions on Aerospace and Electronic Systems, 2012, 48(3): 2481-2497.

        [9] Sun Y, Liu Z, Todorovic S, et al.. Adaptive boosting for SAR automatic target recognition[J]. IEEE Transactions on Aerospace and Electronic Systems, 2007, 43(1): 112-125.

        [10] Xing X, Ji K, Zou H, et al.. Sparse representation based SAR vehicle recognition along with aspect angle[J]. The Scientific World Journal, 2014, 2014(1): 1-10.

        [11] Dong G, Wang N, and Kuang G. Sparse representation of monogenic signal: with application to rarget recognition in SAR images[J]. IEEE Signal Processing Letters, 2014, 21(8):952-956.

        [12] Huang Y, Peia J, Yanga J, et al.. Neighborhood geometric center scaling embedding for SAR ATR[J]. IEEE Transactions on Aerospace and Electronic Systems, 2014,50(1): 180-192.

        [13] Zhu Z, Peng S, Xu J, et al.. A fast SAS image simulator based on HPR algorithm[C]. Oceans - San Diego, 2013, San Diego,CA, USA, 2013: 1-5.

        [14] 劉維, 張春華, 劉紀(jì)元. 合成孔徑聲吶三維數(shù)據(jù)仿真研究[J].系統(tǒng)仿真學(xué)報, 2008, 20(14): 3838-3841.Liu Wei, Zhang Chun-hua, and Liu Ji-yuan. Research on synthetic aperture sonar 3-D data simulation[J]. Journal of System Simulation, 2008, 20(14): 3838-3841.

        [15] 熊文昌, 王宏琦, 唐侃. 基于面元投影模型的 SAR 建筑物快速圖像仿真[J]. 電子與信息學(xué)報, 2014, 36(5): 1062-1068.Xiong Wen-chang, Wang Hong-qi, and Tang Kan. Fast SAR imaging simulation for urban structures based on facet projection model[J]. Journal of Electronics & Information Technology, 2014, 36(5): 1062-1068.

        [16] 倪心強. SAR圖像分類與自動目標(biāo)識別技術(shù)研究[D]. [博士論文], 中國科學(xué)院大學(xué), 2007.Ni Xin-qiang. Research of classification and automatic target recognition using SAR imagery[D]. [Ph.D. dissertation],University of Chinese Academy of Sciences, 2007.

        [17] 程鵬飛, 閆浩文, 韓振輝. 一個求解多邊形最小面積外接矩形的算法[J]. 工程圖學(xué)學(xué)報, 2008, 29(1): 122-126.Cheng Peng-fei, Yan Hao-wen, and Han Zhen-hui. An algorithm for computing the minimum area bounding rectangle of an arbitrary polygon[J]. Journal of Engineering Graphics, 2008, 29(1): 122-126.

        [18] Katz S, Tal A, and Basri R. Direct visibility of point sets[J].ACM Transactions on Graphics, 2007, 26(3): 1-24.

        猜你喜歡
        響應(yīng)函數(shù)聲吶姿態(tài)
        不同探源距下241Am的α譜模擬與解析
        輻射防護(2024年6期)2024-12-31 00:00:00
        一類具有Beddington-DeAngelis響應(yīng)函數(shù)的階段結(jié)構(gòu)捕食模型的穩(wěn)定性
        探索大洋的“千里眼”——聲吶
        攀爬的姿態(tài)
        一種便攜式側(cè)掃聲吶舷側(cè)支架的設(shè)計及實現(xiàn)
        聲吶
        全新一代宋的新姿態(tài)
        汽車觀察(2018年9期)2018-10-23 05:46:40
        跑與走的姿態(tài)
        中國自行車(2018年8期)2018-09-26 06:53:44
        相機響應(yīng)函數(shù)定標(biāo)的正則化方法
        克服動態(tài)問題影響的相機響應(yīng)函數(shù)標(biāo)定
        国产91久久精品成人看网站| 免费特级黄毛片| 伊人久久大香线蕉在观看| 国产毛片一区二区日韩| 日本久久精品福利视频| 乱色精品无码一区二区国产盗 | 国产日韩一区二区精品| 亚洲精品女同一区二区三区| 在线播放免费人成毛片乱码| 欧美性xxxx狂欢老少配| 国产成人精品免费视频大全| 日本91一区二区不卡| 人人爽久久久噜人人看| 色婷婷久久综合中文久久蜜桃av | 日本少妇爽的大叫高潮了| 免费看黄片的视频在线观看| 亚洲日韩久久综合中文字幕| 国产人妻黑人一区二区三区| 太大太粗太爽免费视频| 亚洲av综合色一区二区| 人人妻人人狠人人爽| 亚洲精品国产综合一线久久| 91亚洲精品久久久蜜桃| 国产乱理伦在线观看美腿丝袜| 香蕉人人超人人超碰超国产| 久久久久成人亚洲综合精品 | 中文字幕Aⅴ人妻一区二区苍井空| 日本在线一区二区三区四区| 亚洲av福利天堂一区二区三| 无码少妇a片一区二区三区| 亚洲综合网站精品一区二区| 在线国产丝袜自拍观看| 激情伊人五月天久久综合| 国产精品亚洲五月天高清| 女优免费中文字幕在线| 伊人久久这里只有精品| 欧洲极品少妇| 4hu44四虎www在线影院麻豆 | av在线入口一区二区| 国产成人综合亚洲看片| 欧美老熟妇又粗又大|