亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        一種針對海面SAR圖像的視覺注意模型設計

        2018-05-18 00:54:17徐永力
        電光與控制 2018年5期
        關鍵詞:特征區(qū)域檢測

        熊 偉, 徐永力

        (海軍航空大學信息融合研究所,山東 煙臺 264001)

        0 引言

        合成孔徑雷達(SAR)具有全天時、全天候、大范圍、多參數(shù)等特點,是海洋監(jiān)測與監(jiān)視應用的重要組成部分。從SAR圖像中快速檢測出目標對及時獲取有用信息有著重大的意義。SAR圖像目標檢測作為其分類和識別的基礎,始終是SAR圖像應用的重要內容[1]。

        隨著Radarsat-2,TerraSAR-X以及高分三號等新一代SAR傳感器的發(fā)射運行,SAR逐漸向高分辨率、大幅寬、多極化方向發(fā)展。隨著圖像尺寸越來越大,基于圖像的逐點計算等檢測算法處理速度就變得緩慢,難以達到實時處理的要求[2]。大數(shù)據(jù)量的SAR圖像信息和有限的計算機處理能力之間的矛盾,迫切需要尋求快速的圖像檢測方法[3]。一些學者對人類視覺智能展開研究并取得進展,其中,采用視覺注意機制從復雜的視覺信息中篩選出有用信息提供給目標檢測,大大提高了處理效率。

        目前,對視覺注意建模的研究主要包括兩個方面。1) 數(shù)據(jù)驅動的視覺注意模型,可劃分為基于時域的模型算法和基于頻域的模型算法。ITTI提出的視覺注意模型首次在數(shù)學層面對人眼“注意”特性進行了模擬[4],基于時域空間建立了視覺注意模型;基于頻域的視覺注意模型則將圖像的處理層面由時域轉換到頻域。例如HOU等提出的基于頻譜殘差法的視覺顯著模型[5],Hou模型主要利用了快速傅里葉變換得到的幅度譜作為圖像顯著性表征,進而還原到時域得到顯著圖;GUO等在快速傅里葉變換的基礎上利用相位譜得到圖像的顯著圖[6];YU等結合離散余弦變換理論提出了一些新的視覺注意模型[7],也得到了廣泛的應用。此類模型雖然能夠簡單快速地獲取顯著圖,但是顯著圖包含較多虛警。2) 目的驅動的視覺注意模型,其中具有代表性的模型有ITTI提出的基于心理閾值函數(shù)模型[8]和OLIVA等提出的基于貝葉斯學習的注意模型[9],這類目的驅動的處理模型缺點為缺乏自適應性。

        結合現(xiàn)有的視覺顯著檢測理論,分析了傳統(tǒng)視覺注意模型解決海面SAR圖像處理問題的缺陷,借鑒ITTI視覺注意計算模型的處理機制,本文針對復雜海面SAR圖像提出一種改進的視覺注意建模方法。首先,選擇和提取能夠較好描述SAR圖像的紋理和形狀特征,進而求取相應的局部特征和全局特征的特征顯著圖;然后,采用改進的特征顯著圖合并方法進行顯著圖融合得到總顯著圖。

        1 改進的視覺注意計算模型算法的實現(xiàn)

        雖然對計算機視覺的研究已經(jīng)取得很大進展,獲得一系列成果,但相比人類視覺對于現(xiàn)實場景中的信息處理能力還遠遠不足,因此學者們不斷研究人類視覺注意機制,并嘗試提出數(shù)學計算模型進而模擬人類視覺的注意機制。目前較為常用的視覺注意計算模型[10-11]有ITTI視覺注意計算模型和基于傅里葉變換的頻譜殘差視覺注意模型。其中,ITTI視覺注意計算模型在模型設計中模仿了視覺系統(tǒng)中自底向上顯著性的形成過程,從而實現(xiàn)圖像的顯著性檢測,因此ITTI視覺注意計算模型在計算機視覺領域得到了廣泛應用。

        1.1 基于經(jīng)典ITTI視覺注意計算模型的理論分析

        ITTI視覺注意計算模型的處理流程主要包括特征提取、顯著度計算和多通道顯著圖合并3個步驟。首先,在時域上對輸入圖像進行初級視覺特征提取,其次,計算相應特征下圖像各像素點的視覺顯著度,從而合并得到視覺顯著圖,通過競爭策略實現(xiàn)顯著區(qū)域的提取。ITTI視覺注意計算模型處理的流程如圖1所示。

        圖1 經(jīng)典ITTI視覺注意計算模型算法流程圖Fig.1 Flow chart of classic ITTI vision attention model

        模型處理所采用的關鍵技術包括:多尺度高斯金字塔模型、圖像初級特征提取、中央-周邊差和歸一化、視覺顯著區(qū)域的提取和轉移。

        1.1.1 底層視覺特征提取模塊

        在特征提取階段,ITTI經(jīng)典模型通過建立圖像金字塔結構來模擬人眼多尺度非均勻采樣機制,實現(xiàn)圖像的多尺度表示。金字塔模型的建立包括平滑和采樣2個步驟。ITTI模型首先對輸入圖像降采樣處理,生成多個不同分辨率的圖像,然后對輸入圖像和采樣所得圖像進行高斯平滑,進而得到高斯金字塔結構。對圖像進行降采樣的原理在于高斯濾波能夠將顯著性高的特征顯著地保留在金字塔各層。

        作為數(shù)據(jù)驅動的視覺注意模型,ITTI視覺注意計算模型得到的顯著圖受初級視覺特征的影響,因此特征選擇將直接影響顯著圖的質量。ITTI模型將圖像的顏色、方位和亮度特征作為底層初級視覺特征。

        1.1.2 視覺顯著圖計算模塊

        在特征顯著圖計算階段,需要中央—周邊差操作以及特征圖歸一化2個操作過程。ITTI經(jīng)典模型采用中央—周邊差算子來模擬視覺感知系統(tǒng)中感受野的特性來完成視覺信息對比度的提取。分別對亮度、顏色和方位特征進行中央—周邊差操作以得到特征圖,經(jīng)特征圖歸一化到某一個灰度值范圍,減弱非目標區(qū)域顯著性,得到各個特征初始顯著圖。對初始特征圖進行層間相加操作和歸一化,最終得到3個特征顯著圖。

        ITTI經(jīng)典模型將3個特征顯著圖以1∶1∶1的比例進行線性相加得到總顯著圖。

        1.1.3 顯著區(qū)域的獲取和轉移模塊

        通常情況下,得到的圖像總顯著圖中像素的灰度最大值及其一定鄰域即對應圖像中最顯著的部分,因此,獲取顯著區(qū)域即是尋找總顯著圖的灰度最大值及其一定范圍鄰域。ITTI模型采用勝者全取(Winner Take All,WTA)機制和禁止返回(Inhibition of Return,IOR)機制[12]獲取視覺顯著點。WTA和IOR處理的主要過程是:尋找像素最大值確定顯著目標,通過WTA機制提取視覺顯著區(qū)域,利用IOR抑制已經(jīng)得到提取區(qū)域的顯著性,再通過WTA機制選取下一個顯著區(qū)域,從而實現(xiàn)顯著區(qū)域的獲取。

        1.2 傳統(tǒng)ITTI模型的缺陷分析

        目前現(xiàn)有的大多數(shù)視覺注意計算模型都是針對自然場景的圖像設計的,模型能夠較為準確地得到圖像顯著圖,進而提取感興趣區(qū)域。然而,SAR圖像和自然場景圖像存在著較大差異性,例如復雜海面SAR圖像中的海洋背景斑點噪聲和艦船目標表現(xiàn)出相似的特性。這種現(xiàn)象往往使得經(jīng)典視覺注意模型對這類SAR圖像進行目標顯著區(qū)域提取時得不到準確的顯著圖結果。

        本文對ITTI模型的設計思路進行分析,通過仿真實驗驗證該模型對SAR圖像處理得到顯著圖中存在大量虛警、漏檢,分析原因主要包括以下方面。

        1) 底層視覺特征的提?。航?jīng)典ITTI模型選擇的特征為亮度、顏色和方位等局部特征,沒有考慮目標區(qū)域的全局特征。因此模型無法準確處理待檢測圖像中局部特征不明顯的感興趣區(qū)域。其中,SAR圖像中目標的紋理、形狀等重要特征在ITTI模型中未予以考慮,這也是模型檢測效果不佳的原因。

        2) 高斯金字塔結構的設計:ITTI模型采用九層金字塔結構模擬人眼視覺系統(tǒng)的注意機制,用以實現(xiàn)圖像的多尺度表征。然而,SAR圖像中艦船等目標占據(jù)被處理圖像面積相對過小,過度降采樣使得待檢測圖像丟失目標信息,對模糊不清的高斯金字塔子圖像進行特征顯著圖構建沒有意義,如圖2所示,圖2a~圖2f分別對應1~6層金字塔子圖。

        3) 特征顯著圖融合策略:ITTI經(jīng)典模型中,特征顯著圖融合方式為線性合并,通常采用直接相加得到總顯著圖,忽略了不同特征存在的優(yōu)先級關系,這就導致了某個占據(jù)主導性的特征顯著圖在合并過程中被削弱,從而造成目標顯著區(qū)域的漏檢。

        針對ITTI模型對SAR圖像顯著區(qū)域的提取缺乏適應性,以及底層初級特征選擇及特征顯著圖合并策略的問題,本文基于經(jīng)典ITTI模型的處理框架,提出了一種針對SAR圖像目標顯著性檢測的改進的視覺注意模型,并就顯著性提取結果與ITTI模型和Hou模型展開對比分析。

        圖2 高斯金字塔結構結果圖Fig.2 Results of Gaussian pyramid structure

        2 改進的視覺注意模型設計

        通過對經(jīng)典ITTI模型的分析,結合SAR圖像中的目標特性,為提高圖像顯著性檢測精度以及目標區(qū)域輪廓清晰度,借鑒經(jīng)典ITTI模型的框架,提出了一種針對SAR圖像顯著性檢測的視覺注意模型,首先提取待檢測圖像的底層初級特征,然后采用特征整合機制進行特征顯著圖融合得到顯著圖,最后通過競爭策略進一步完成待檢測圖像顯著區(qū)域的提取,流程如圖3所示。

        圖3 本文提出的視覺注意模型算法流程Fig.3 Flow of the proposed visual attention model algorithm

        2.1 視覺特征提取

        一般情況下,局部特征是將目標區(qū)域和鄰域像素進行對比并區(qū)分,全局特征則能夠從全局的角度計算圖像內相似區(qū)域的顯著性,更進一步凸顯目標區(qū)域。考慮以上,本文將SAR圖像中占據(jù)主導地位的紋理和形狀等特征納入視覺特征提取范疇。本文選取了SAR圖像的標準偏差、方位特征、唯一性和全局對比度特征4個特征進行特征子圖的構建。

        2.1.1 標準偏差

        通常情況下,標準偏差能夠有效地表征圖像的局部特征,如目標邊緣和形狀特征等局部差異性。SAR圖像存在著豐富的邊緣信息,通過提取圖像的標準偏差,增強目標邊緣和輪廓信息,實現(xiàn)從背景中區(qū)分出目標。標準偏差能夠在較低的計算復雜度下保證目標與背景的差異性。

        標準偏差特征計算通過濾波器在待檢測圖像中滑動求取。設I(x,y)為待檢測圖像,濾波器尺寸為N×N,濾波器中心坐標(m,n),標準偏差DSTD為

        (1)

        (2)

        式中:mx(i,j)為局部圖像的平均值;M=(N-1)/2。

        目標邊界點由于與其鄰域內像素差別較大,因此計算出的DSTD值也較大,表現(xiàn)在特征顯著圖中為亮點。從圖像的角度分析,各像素點相應DSTD值組成標準偏差特征矩陣。通過對此矩陣進一步歸一化操作和顯著性處理,得出特征顯著圖。計算過程為

        DSTD=N(DSTD(n,m))

        (3)

        式中,N(·)為歸一化操作。

        2.1.2 方位特征

        SAR圖像中目標方向復雜多樣,因此可以采用方位特征來表征不同方向的目標。本文采用Gabor濾波器提取圖像的方位特征,即

        (4)

        式中:

        (5)

        xθk=xcosθk+ysinθk;

        (6)

        yθk=-xsinθk+ycosθk;

        (7)

        α和β分別為高斯函數(shù)在x軸和y軸上的標準差;θk和λ分別指正弦波的方向和波長。

        在本文模型中,正弦波的方向角分別取0°,45°,90°,135°,通過以上公式計算可獲得這4個方向的Gabor濾波器,從而得到基于這4個方向的方位特征圖,分別記為Fori(0),F(xiàn)ori(45),F(xiàn)ori(90),F(xiàn)ori(135)。由于模型未構建高斯金字塔,方位顯著圖Sori由4幅特征圖線性相加得到,即

        (8)

        2.1.3 唯一性

        唯一性指圖像中出現(xiàn)次數(shù)較少的像素點所具有的性質。人眼視覺處理系統(tǒng)對圖像進行處理時,首先會注意圖像的“顯著”區(qū)域,從而優(yōu)先處理該區(qū)域。本文提取唯一性這個全局特征以實現(xiàn)對圖像中出現(xiàn)概率較小區(qū)域進行強化。對于待檢測圖像I(x,y),圖像中每個像素灰度值出現(xiàn)次數(shù)為n(i,j),唯一性特征的計算步驟為

        (9)

        (10)

        式中:λ表示經(jīng)驗參數(shù);f(i,j)為像素點頻率;M×N為待檢測圖像尺寸。從圖像的角度分析,所有像素點的唯一性值構成了圖像的特征顯著圖,即

        Suniq=NFuniq(i,j)。

        (11)

        2.1.4 全局對比度

        全局對比度是對當前局部區(qū)域相對整幅圖像差異的量化。通常情況下,SAR圖像中目標區(qū)域的灰度值相對較高,計算全局對比度特征的顯著圖能夠增強目標與背景的差異性以突出目標的顯著性。對于輸入的待檢測圖像處理,基于像素級的全局對比度特征顯著圖的計算過程為

        (12)

        (13)

        Sglobal=N(g(i,j))

        (14)

        其中:g(i,j)指當前位置像素點的全局對比度;γ為灰度經(jīng)驗參數(shù);Sglobal表示全局對比度特征顯著圖。

        2.2 顯著圖計算

        通常視覺注意模型最終得到的顯著圖是所有特征顯著圖的綜合。不同特征顯著圖的含義對應注意不同的通道,這些特征顯著圖相應的顯著區(qū)域響應強弱不均,有的顯著圖對應多個響應強烈的位置,有的顯著圖可能只有一個響應較為微弱的顯著區(qū)域。因此,對特征顯著圖的融合需要根據(jù)特征的顯著程度進行處理,而非簡單的線性相加。

        本文依據(jù)上節(jié)所提取的SAR圖像特征計算得到特征顯著圖,模型采用的多特征顯著圖融合策略為:首先對標準偏差、方位和唯一性特征顯著圖采用線性相加操作和歸一化處理,然后通過相乘操作消除全局對比度中不明顯區(qū)域,同時加強局部特征圖和全局特征顯著圖共有的顯著區(qū)域的顯著程度,即

        (15)

        2.3 顯著區(qū)域檢測

        本文模型設計算法對ITTI經(jīng)典模型中的競爭策略進行優(yōu)化,并對所得顯著圖采用多尺度分割以實現(xiàn)顯著區(qū)域的檢測和提取。

        2.3.1 確定注意焦點

        注意焦點(Focus of Attention,FOA),即當前的顯著點,一般情況下FOA為所得顯著圖S像素灰度最大值點。若存在多個像素點灰度值相同,仿照人眼感知系統(tǒng)通常處理多個感興趣區(qū)域的機制,將距離圖像中心最近的區(qū)域視為視覺注意的最顯著區(qū)域。注意焦點的算式為

        (16)

        AFOA=min(dis((x,y),(x0,y0)))

        (17)

        式中:(x,y)為FOA坐標;(x0,y0)為圖像的中心坐標。

        2.3.2 二值化模板的求取

        按照視覺注意焦點的確定方法,對顯著圖S進行FOA求取,進而得到各個特征顯著圖中對應此點的4個像素點,取其中最大值所對應的特征顯著圖作為顯著區(qū)域檢測的子顯著圖S′,以S′的FOA為中心,對此特征顯著圖S′進行二值化操作,此步采用傳統(tǒng)的Otsu方法計算,實現(xiàn)全局閾值分割,即

        (18)

        式中:sVal為S′中FOA像素灰度值;T0為對S′圖像分割的閾值。

        對以上得到的二值化結果進行操作。首先對二值圖進行高斯濾波,濾波器的參數(shù)需要依據(jù)目標先驗知識進行確定,本文將濾波器尺寸設為圖像中實際目標占像素的估計值;然后,需對高斯濾波后的區(qū)域進行判斷,判斷準則為

        (19)

        式中:β為目標實際像素的估計值與圖像像素個數(shù)之間的比值。rratio的計算過程如下

        (20)

        最后,對判斷為目標區(qū)域的二值圖進行保存。

        2.3.3 顯著區(qū)域的多尺度獲取

        為避免尋找顯著區(qū)域進入死循環(huán),對其進行抑制返回處理。具體操作為:判決得到顯著區(qū)域的二值模板后,就將此顯著區(qū)域置為零,從而開始次視覺注意焦點的操作,直到完成所有顯著區(qū)域的檢索。

        本文模型對競爭策略進行的優(yōu)化和改進主要體現(xiàn)在:綜合考慮比較、分析視覺注意焦點在各個特征顯著圖灰度值大小,選擇對應位置的最佳顯著性表征方法,繼而從各個尺度對顯著圖進行濾波及閾值分割,以實現(xiàn)顯著區(qū)域的精確篩選。

        3 實驗仿真分析

        本章基于所提出模型的設計算法理論進行仿真實驗。針對復雜背景的SAR海面圖像給出建模處理結果,并與經(jīng)典的模型進行對比分析優(yōu)缺點。

        實驗采用的計算機系統(tǒng)配置為Inter(R) Core(TM) i3-4170 CPU @3.70 GHz處理器,內存為8 GB,Windows7操作系統(tǒng),運行平臺為Matlab 2016。如圖4所示,選取一幅像素大小為4015×3616的TerraSAR-X圖像作為實驗數(shù)據(jù),其成像區(qū)域為直布羅陀海峽區(qū)域,圖像采樣率為1.25 m,極化方式為HH極化,該區(qū)域中存在大量艦船目標并包含大量不均勻的背景區(qū)域。

        圖4 待檢測圖像及其目標區(qū)域標記Fig.4 The image to be detected and the marked target area

        依據(jù)本文提出的模型算法,對待檢測圖像進行處理,求出各個特征顯著圖。特征顯著圖求取過程中的參數(shù)設置包括:標準偏差特征中濾波器滑窗大小關系到能否協(xié)調好建立模型耗時和模型建立對背景顯著度抑制的有效性。本文將濾波器滑窗像素尺寸設置為5×5,全局對比度特征參數(shù)γ為200,唯一性特征參數(shù)λ設為5×10-5。

        圖5 本文模型的特征顯著圖結果Fig.5 The characteristic saliency maps of the model

        由圖5可以看出:本文所得特征顯著圖都具有較好的清晰度,標準偏差顯著圖對應SAR圖像目標的邊緣和紋理特征;方位特征顯著圖對方向不同的目標進行表征和區(qū)分;唯一性顯著圖對圖像中出現(xiàn)概率較少的目標信息進行強化;全局對比度顯著圖從全局的角度將相對更高的目標信息在背景中予以增強突出。

        圖6所示為本文模型對于實驗數(shù)據(jù)的仿真結果,圖7所示為兩種經(jīng)典的視覺模型的結果。

        圖6 本文模型的顯著區(qū)域檢測結果Fig.6 The detection results of salient regions of the model

        圖7 兩種經(jīng)典模型的顯著區(qū)域檢測結果Fig.7 The detection results of two classical models

        針對本文待檢測圖像,通過計算性能指標來定量分析3種模型設計算法。表1給出了本文模型與傳統(tǒng)視覺注意模型的性能比較結果。其中,評價指標采用正確檢測目標數(shù)、虛警目標和漏檢目標數(shù)及檢測耗時。

        表1 復雜海面TerraSAR圖像3種模型顯著區(qū)域檢測結果對比

        4 結束語

        本文研究了傳統(tǒng)視覺模型的基本理論,對海面SAR圖像特征進行分析,提出一種適用于海面SAR圖像的視覺注意模型。本文將能較好描述圖像的特征進行顯著性提取,對得到的特征子圖融合進而得到圖像顯著性的總顯著圖,最后通過多尺度競爭策略完成顯著區(qū)域篩選以實現(xiàn)SAR圖像顯著區(qū)域檢測。

        現(xiàn)有研究需要深入和完善的地方在于: 1) 如何結合SAR圖像目標的屬性選取特征,選擇能準確表征目標又具有較小運算量的特征;2) 如何建立新的特征融合機制,自適應調整各特征分配權值,使得到的顯著圖能更加有效準確地表征圖像的顯著區(qū)域;3) 在進行顯著圖濾波處理時,需要根據(jù)艦船目標的圖像特性進一步完善各濾波器的參數(shù)設置。

        參 考 文 獻

        [1] MOREIRA A,PRATS-IRAOLA P,YOUNIS M,et al.A tutorial on synthetic aperture radar[J].IEEE Geoscience and Remote Sensing Magazine,2013,1(1):6-43.

        [2] 鄧云凱,趙鳳軍,王宇.星載SAR技術的發(fā)展趨勢及應用淺析[J].雷達學報,2012,1(1):1-10.

        [3] 邢相薇,計科峰,康利鴻,等.HRWS SAR圖像艦船目標監(jiān)視技術研究綜述[J].雷達學報,2015,4(1):107-121.

        [4] ITTI L,KOCH C,NIEBUR E.A model of saliency-based visual attention for rapid scene analysis[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,1998, 20(11):1254-1259.

        [5] HOU X D,ZHANG L Q.Saliency detection:a spectral residual approach[C]//IEEE Conference on Computer Vision and Pattern Recognition,2007:1-8.

        [6] GUO C L,MA Q,ZHANG L M.Spatio-temporal saliency detection using phase spectrum of quaternion Fourier transform[C]//IEEE Conference on Computer Vision and Pattern Recognition,2008:1-8.

        [7] YU Y,WANG B,ZHANG L M.Pulse discrete cosine transform for saliency-based visual attention[C]//The 8th Conference on Development and Learning,2009:1-6.

        [8] ITTI L,KOCH C,BRAUN J.Revisiting spatial vision:toward a unifying model[J].Journal of the Optical Society of America,2000,17(11):1899-1917.

        [9] OLIVA A,TORRALBA A.Modeling the shape of the Scene:a holistic representation of the spatial envelope[J].International Journal of Computer Vision,2001,42(3):145-175.

        [10] GAO D S,HAN S,VASCONCELOS N.Discriminant saliency,the detection of suspicious coincidences,and applications to visual recognition[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2009,31(6):989-1005.

        [11] 張志龍,楊衛(wèi)平,張焱,等.基于頻譜殘留變換的紅外遙感圖像艦船目標檢測方法[J].電子與信息學報,2015,37(9):2144-2150.

        [12] ITTI L.Models of bottom-up and top-down visual attention[D].California:California Institute of Technology,2000.

        猜你喜歡
        特征區(qū)域檢測
        “不等式”檢測題
        “一元一次不等式”檢測題
        “一元一次不等式組”檢測題
        如何表達“特征”
        不忠誠的四個特征
        當代陜西(2019年10期)2019-06-03 10:12:04
        抓住特征巧觀察
        小波變換在PCB缺陷檢測中的應用
        關于四色猜想
        分區(qū)域
        基于嚴重區(qū)域的多PCC點暫降頻次估計
        電測與儀表(2015年5期)2015-04-09 11:30:52
        亚洲av无码一区二区二三区| 精品国产一区二区三区a| 日本一区二区三区视频国产| 久久久亚洲欧洲日产国码αv| а中文在线天堂| 无码国产一区二区色欲| 亚洲综合av在线在线播放| 在线看片国产免费不卡| 亚洲一区二区三区在线激情| 九七青青草视频在线观看| 国产三级在线观看完整版| 亚洲日韩精品欧美一区二区| 国产午夜无码精品免费看动漫| 国产免费一区二区三区三| 亚洲av无码专区国产乱码4se| 无码午夜成人1000部免费视频 | 一区二区三区精品亚洲视频| 欧美最猛性xxxx| 日本做受高潮好舒服视频| 亚洲AV无码成人精品区天堂| 日本97色视频日本熟妇视频| 精品亚洲国产成人蜜臀av| 爱情岛永久地址www成人| 99re国产电影精品| 日韩精品国产一区二区| 国产乱人精品视频av麻豆网站| 高h小月被几个老头调教 | 日韩人妻无码一区二区三区久久99| 国产精品深夜福利免费观看| 97女厕偷拍一区二区三区| 久久久久久自慰出白浆| 久久人妻少妇嫩草av蜜桃| 五月天无码| 国产一区二区三免费视频| 7m精品福利视频导航| 国产久视频国内精品999| 中文字幕av无码一区二区三区电影| 国产女主播福利在线观看| 大学生高潮无套内谢视频| 中文在线√天堂| av天堂手机在线免费|