亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于改進(jìn)UNet網(wǎng)絡(luò)的遙感影像建筑物提取

        2023-11-02 11:47:10吳鋒振楊德宏李俊何萬才鄧云龍
        城市勘測 2023年5期
        關(guān)鍵詞:注意力建筑物卷積

        吳鋒振,楊德宏,李俊,何萬才,2,3,鄧云龍

        (1.昆明理工大學(xué) 國土資源工程學(xué)院,云南 昆明 650093; 2.智慧礦山地理空間信息集成創(chuàng)新重點實驗室,云南 昆明 650093;3.云南省高校自然資源空間信息集成與應(yīng)用科技創(chuàng)新團(tuán)隊,云南 昆明 650211)

        0 引 言

        隨著遙感技術(shù)的蓬勃發(fā)展,高分辨率遙感影像提供了豐富的紋理和細(xì)節(jié)信息,從高分辨率遙感影像中高效準(zhǔn)確提取特定目標(biāo)地物成為研究熱點。其中,高分辨率遙感影像建筑物的自動檢測和提取對于人口密度估計、違規(guī)監(jiān)測、城市規(guī)劃以及地形圖的制作和更新具有非常重要的意義。

        傳統(tǒng)建筑物提取方法包括基于特征、面向?qū)ο蠛徒Y(jié)合輔助信息三種?;谔卣魈崛》椒ń柚ㄖ锵闰炛R(形狀、屋頂顏色和成像條件等)進(jìn)行建筑物識別,方法主要包括模板匹配算法[1]、形態(tài)學(xué)算法[2]、圖論[3]、隨機(jī)森林[4]、決策樹[5]和支持向量機(jī)[6]。雖然上述基于先驗知識特征提取方法取得一定成果,但手動定義特征的方法普遍存在提取精度低、特征利用不足等缺點,此外,所提取建筑物局限于特定形狀區(qū)域,方法泛化能力差。面向?qū)ο蠓诸惙椒ㄊ悄壳案叻直媛蔬b感影像建筑物提取的重要方法[7],其步驟為影像分割與影像分類。賀曉璐等[8]提出一種基于引入紅色邊緣波段規(guī)則與基于樣本的面向?qū)ο蠓诸愊嘟Y(jié)合方法用于城市建筑物提取,與其他機(jī)器學(xué)習(xí)算法相比,識別結(jié)果有一定優(yōu)勢;韓東成等[9]采用基于規(guī)則的面向?qū)ο蠓椒▽崿F(xiàn)建筑物單體信息精提取;楊杰等[10]提出一種半自動信息提取構(gòu)建分類規(guī)則方法用于高精建筑物識別,所提取建筑物錯分漏分現(xiàn)象得到緩解。面向?qū)ο蠓椒ǔ浞謶?yīng)用高分影像的豐富細(xì)節(jié)與紋理信息,但在確定分割尺度參數(shù)時需反復(fù)調(diào)試,且難以滿足復(fù)雜場景(建筑物光譜與鄰近地物光譜相似)建筑物提取需求。結(jié)合輔助信息方法主要包括結(jié)合DSM數(shù)據(jù)[11]和LiDAR數(shù)據(jù)[12],本質(zhì)是增加高度信息提升建筑物分割精度。基于結(jié)合輔助信息方法雖能提高建筑物分割精度,但數(shù)據(jù)獲取成本高,存在其自身局限性??傮w而言,傳統(tǒng)方法均或多或少存在缺陷,因此急需更高效、自動化的建筑物提取技術(shù)。

        近年來,基于計算機(jī)視覺的深度學(xué)習(xí)方法成為高分影像建筑物提取的主流。深度學(xué)習(xí)卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)廣泛應(yīng)用于文字識別、目標(biāo)檢測和圖像分類領(lǐng)域。與傳統(tǒng)建筑物提取方法比較,卷積神經(jīng)網(wǎng)絡(luò)因其強(qiáng)大特征表示能力而受諸多學(xué)者青睞。目前,經(jīng)典卷積神經(jīng)網(wǎng)絡(luò)模型有AlexNet[13]、GoogleNet[14]、ResNet[15]。然而,這些CNN模型不能精確提取建筑物輪廓。反之,Long等[16]將CNN末端全連接層改為卷積層,提出FCN模型,首次實現(xiàn)端到端訓(xùn)練的圖像語義分割,提高模型訓(xùn)練和預(yù)測性能;Badrinarayanan等[17]提出的SegNet模型使用編解碼結(jié)構(gòu)提取特征,反池化還原特征圖尺寸,保證目標(biāo)特征完整;Ronneberger等[18]提出的UNet模型采用編碼器-解碼器結(jié)構(gòu)提取全局與局部特征,通過跳躍連接進(jìn)行特征融合,實現(xiàn)兼顧細(xì)節(jié)與邊緣信息的目的。鑒于此,編碼器-解碼器結(jié)構(gòu)因其優(yōu)越的性能而被廣泛應(yīng)用。Yu等[19]提出一種新的注意力模塊-AG,并將其嵌入UNet,實現(xiàn)高效的建筑物輪廓提取;Wang等[20]結(jié)合UNet、殘差模塊和空洞空間金字塔模塊,提出RU-Net,所提取建筑物邊界平滑;Guo等[21]提出一種基于注意力的多損失神經(jīng)網(wǎng)絡(luò),緩解過分割現(xiàn)象;Deng等[22]提出基于注意力機(jī)制的編碼器-解碼器網(wǎng)絡(luò)用于建筑物自動提取,提升網(wǎng)絡(luò)對與建筑物具有相似光譜特征的背景地物的分割性能;秦夢宇等[23]在UNet網(wǎng)絡(luò)編碼器末端嵌入雙重注意力機(jī)制對其進(jìn)行改進(jìn),使模型魯棒性進(jìn)一步提高;何直蒙等[24]提出E-UNet,優(yōu)化建筑物提取中邊緣模糊、細(xì)節(jié)丟失等問題;張玉鑫等[25]提出MARSU-Net網(wǎng)絡(luò),改善建筑物內(nèi)部空洞現(xiàn)象;張春森等[26]提出多尺度空洞卷積金字塔網(wǎng)絡(luò)用于建筑物提取,該網(wǎng)絡(luò)面對不同尺度建筑物時有較強(qiáng)適應(yīng)能力;王雪等[27]提出膨脹卷積與金字塔表達(dá)的神經(jīng)網(wǎng)絡(luò)模型用于農(nóng)村建筑物提取,提取邊界完整;盧麟等[7]使用密集連接機(jī)制及空洞空間金字塔池化模塊構(gòu)建多層次感知網(wǎng)絡(luò),性能優(yōu)于傳統(tǒng)方法。上述網(wǎng)絡(luò)雖在建筑物提取方面取得較好的效果,但存在一定問題,即在編碼器-解碼器的特征提取過程中,所提取特征含有無效特征,最終導(dǎo)致預(yù)測結(jié)果出現(xiàn)建筑物邊緣模糊及內(nèi)部空洞等問題。

        綜上所述,本文以UNet為基礎(chǔ)網(wǎng)絡(luò)框架,提出一種似空間注意力模塊,并將其嵌入UNet編碼階段,達(dá)到增強(qiáng)編解碼結(jié)構(gòu)所提取的有效特征的目的,提升網(wǎng)絡(luò)特征提取準(zhǔn)確性。在WHU和AIRS數(shù)據(jù)集上的提取結(jié)果表明,本文方法提取建筑物精度高,邊界準(zhǔn)確,空洞少,有較強(qiáng)泛化能力。

        1 原理與方法

        1.1 結(jié)合似空間注意力模塊的UNet神經(jīng)網(wǎng)絡(luò)

        UNet網(wǎng)絡(luò)因其出色的語義分割能力而備受青睞。它是一種典型的編碼器-解碼器結(jié)構(gòu),在其結(jié)構(gòu)中,通過跳躍連接將底層語義信息與高層語義信息進(jìn)行融合,極大提高網(wǎng)絡(luò)分割性能。然而,UNet網(wǎng)絡(luò)在編碼階段通過簡單堆疊卷積和池化層,所提取特征存在一定弊端:存在大量無效特征。針對UNet網(wǎng)絡(luò)在編碼階段特征提取不準(zhǔn)確而導(dǎo)致建筑物分割精度低的現(xiàn)象,本文在每個編碼塊的第一個卷積層之后均嵌入一個似空間注意力模塊與第二個卷積層并聯(lián),通過將經(jīng)過似空間注意力得到的特征權(quán)重矩陣與第二次卷積得到的特征矩陣相乘的方式實現(xiàn)對編碼階段所提取特征的重標(biāo)定,達(dá)到增強(qiáng)有效特征、抑制無效特征的目的。結(jié)合似空間注意力模塊的UNet網(wǎng)絡(luò)架構(gòu)如圖1所示。

        圖1 結(jié)合似空間注意力模塊UNet網(wǎng)絡(luò)

        1.2 似空間注意力模塊

        似空間注意力模塊是對空間注意力模塊的改進(jìn)。似空間注意力模塊將原空間注意力模塊中7×7卷積替換為兩個3×3卷積的串聯(lián),感受野雖有所減小,但參數(shù)量相對較少,特征提取更精細(xì),對小型建筑物提取更有益(較大卷積核容易忽略微小物體)。具體而言,似空間注意力模塊對輸入特征分別進(jìn)行平均池化和最大池化操作,然后使用兩個3×3卷積進(jìn)行特征精細(xì)提取,最后將得到的特征圖融合并使用sigmoid函數(shù)激活,生成最終的注意力圖Ms(F)。似空間注意力模塊如圖2所示。

        圖2 似空間注意力模塊

        其中,sigmoid函數(shù)的功能是將特征矩陣轉(zhuǎn)化為相應(yīng)特征權(quán)重矩陣,數(shù)學(xué)表達(dá)式為:

        (1)

        注意力圖的計算公式如下:

        (2)

        1.3 編碼塊-解碼塊結(jié)構(gòu)

        編碼器結(jié)構(gòu)包括如圖3所示的四個編碼塊結(jié)構(gòu),其作用是使用權(quán)重映射方法,抑制無效特征,增強(qiáng)目標(biāo)特征,對下采樣前的特征進(jìn)行校正,從而使解碼階段得到的特征更精準(zhǔn)。校正后的特征表達(dá)式為:

        圖3 編碼塊結(jié)構(gòu)

        F=Ms(F)×F2

        (3)

        式中,Ms(F)表示經(jīng)似空間注意力模塊得到的注意力圖,F2表示編碼塊中經(jīng)第二次卷積后得到的特征圖,F表示校正后特征圖。

        解碼階段由四個解碼塊結(jié)構(gòu)組成,如圖4所示。每個解碼塊結(jié)構(gòu)包括兩個3×3大小的卷積層,與UNet的解碼階段完全相同。

        圖4 解碼塊結(jié)構(gòu)

        2 實驗與分析

        2.1 數(shù)據(jù)集介紹

        實驗使用WHU數(shù)據(jù)集[28]和AIRS數(shù)據(jù)集[29]驗證本文方法的有效性。兩個數(shù)據(jù)集的介紹如下:

        (1)WHU建筑物數(shù)據(jù)集由武漢大學(xué)季順平教授及其團(tuán)隊于2019年創(chuàng)建并實現(xiàn)開源,該數(shù)據(jù)集包括一個航空建筑物數(shù)據(jù)集和一個衛(wèi)星建筑物數(shù)據(jù)集。航空建筑物數(shù)據(jù)集中包含大型、小型建筑物,建筑物風(fēng)格迥異,種類繁多,故本文選擇航空數(shù)據(jù)集進(jìn)行實驗,并將其裁剪為512×512像素大小的影像,隨機(jī)選取 8 188張影像作為整個數(shù)據(jù)集,其中訓(xùn)練集、驗證集、測試集各4 736、1 036、2 416張,數(shù)據(jù)集樣例如圖5所示。

        圖5 WHU數(shù)據(jù)集樣例

        (2)AIRS數(shù)據(jù)集是用于建筑物檢測的高分辨率公開數(shù)據(jù)。該數(shù)據(jù)集包含新西蘭南部克賴斯特徹奇整個城市的正射影像,覆蓋面積達(dá) 457 km2,包括 220 000棟建筑物,空間分辨率為 0.075 m。該數(shù)據(jù)集裁剪大小與WHU建筑物裁剪大小相同,數(shù)據(jù)集劃分方式也一致,訓(xùn)練集、驗證集、測試集仍為 4 736、1 036、2 416張,數(shù)據(jù)集樣例如圖6所示。

        圖6 AIRS數(shù)據(jù)集樣例

        2.2 實驗環(huán)境

        本文實驗的硬件環(huán)境為Intel(R) Xeon(R) Platinum 80255C CPU,39G RAM,GeForce RTX 2080TiGPU,內(nèi)存 11 G,操作系統(tǒng)為Windows 10,所使用的深度學(xué)習(xí)框架為TesorFlow,版本為1.15.0,編程語言為Python,版本為3.6。在訓(xùn)練過程中,網(wǎng)絡(luò)參數(shù)設(shè)置為:批處理大小為2,迭代輪次為80,初始化學(xué)習(xí)率為0.001,損失函數(shù)為交叉熵,使用Adam算法進(jìn)行優(yōu)化。

        交叉熵?fù)p失函數(shù)表達(dá)式如下:

        式中,y∈{0,1,表示地面真實標(biāo)簽,建筑物用1表示,背景用0表示;p∈[0,1],表示模型預(yù)測的正類的概率值。

        2.3 評價指標(biāo)

        為定量評價網(wǎng)絡(luò)分割性能,選擇交并比(IoU)、精確率(Precision)、召回率(Recall)和F1分?jǐn)?shù)(F1)4個指標(biāo)評價分類結(jié)果。交并比是指預(yù)測值與真實值兩個集合的交集和并集之比。精確率是指正確預(yù)測為建筑物的像元數(shù)占總預(yù)測為建筑物的像元數(shù)比例。召回率是指正確預(yù)測為建筑物的像元數(shù)占真實建筑物像元數(shù)比例。F1分?jǐn)?shù)綜合考量精確率與召回率,能夠衡量模型分割性能。4種評價指標(biāo)計算公式如下:

        式中,TP表示正確分類的建筑物像素數(shù)量,FP表示背景誤分為建筑物像素數(shù)量,TN表示正確分類的背景像素數(shù)量,FN表示建筑物誤分為背景像素數(shù)量。

        2.4 實驗結(jié)果分析

        為驗證本文方法的有效性,在WHU數(shù)據(jù)集上與FCN-8S[16]、SegNet[17]和UNet[18]等經(jīng)典建筑物提取網(wǎng)絡(luò)做對比實驗(除可視化實驗與精度對比實驗外,還有模型參數(shù)量與每輪次運行時間對比);另一方面,為驗證結(jié)合似空間注意力模塊UNet網(wǎng)絡(luò)的適用性,在 0.075 m的建筑物數(shù)據(jù)集-AIRS上做可視化與精度對比實驗,并分析各網(wǎng)絡(luò)在兩個數(shù)據(jù)集上的分割性能。(在兩個數(shù)據(jù)集上,每種模型的訓(xùn)練策略與參數(shù)設(shè)置均相同。)

        (1)WHU數(shù)據(jù)集實驗結(jié)果分析

        在WHU建筑物數(shù)據(jù)集上,本文方法與其他網(wǎng)絡(luò)的建筑物提取結(jié)果如圖7所示。

        圖7 不同網(wǎng)絡(luò)在WHU建筑物數(shù)據(jù)集上的提取結(jié)果(紅框部分表示本文方法的改進(jìn)之處)

        模型分割結(jié)果定性分析:第一個場景用于測試網(wǎng)絡(luò)對中小型建筑物的提取能力。由目視結(jié)果可知,FCN-8S、SegNet與UNet均能檢測到中小型建筑物,然而這三種網(wǎng)絡(luò)提取的建筑物邊界不準(zhǔn)確,小型建筑物存在漏提現(xiàn)象,本文方法提取的中小型建筑物邊界平滑、完整,因為本文方法中包含似空間注意力模塊,提取的淺層特征更準(zhǔn)確,與深層特征融合后,得到的特征也更準(zhǔn)確,提取結(jié)果更好;第二個場景用于檢驗靠近但不粘連建筑物的提取性能。UNet提取的建筑物相互粘連,FCN-8S、SegNet雖能大致識別建筑物輪廓,但與本文方法相比,提取邊界模糊,原因仍是本文結(jié)合似空間注意力模塊,有效排除非建筑物特征干擾,故建筑物縫隙形成的陰影也能很好的去除,使提取建筑物不粘連。第三、四個場景是不同網(wǎng)絡(luò)大型建筑物提取結(jié)果。與本文方法相比,FCN-8S、SegNet與UNet存在漏提現(xiàn)象,提取的建筑物存在空洞,本文方法識別的大型建筑物邊界相對完整。這是由于似空間注意力模塊的特征校正作用使特征提取更精準(zhǔn)。第五個場景用于驗證具有與建筑物類似光譜特征的背景對象的分割性能。與其他三種網(wǎng)絡(luò)相比,本文方法能更好去除背景信息,保留目標(biāo)信息,其根本原因是似空間注意力模塊通過對特征賦予權(quán)重的方式使特征差異更明顯,從而降低誤分割率。

        WHU數(shù)據(jù)集的建筑物提取結(jié)果進(jìn)行定量評價如表1所示。由表1可知,通過嵌入似通道注意力模塊對UNet模型進(jìn)行改進(jìn),與典型建筑物提取模型FCN-8S、SegNet和UNet相比,本文模型4個評價指標(biāo)均為最優(yōu),交并比為91.74%,精確率為94.12%,召回率為94.21%,F1分?jǐn)?shù)為94.17%。相對于FCN-8S、SegNet與UNet模型,結(jié)合似通道注意力模塊UNet模型交并比分別高出4.90%、5.08%和0.47%;精確率分別增加1.85%、1.24%和3.50%;召回率分別提升3.50%、1.38%和0.47%;F1分?jǐn)?shù)分別提高2.69%、1.31%和2.02%。

        表1 不同模型在WHU數(shù)據(jù)集上的分割精度對比

        為進(jìn)一步驗證本文模型的優(yōu)越性,本文還對模型參數(shù)量與訓(xùn)練每輪次運行時間進(jìn)行對比,實驗結(jié)果如表2所示。從表2可以看出,本文方法在參數(shù)量和每輪次運行時間的對比上均處于第二名,且與第一名UNet相差不大,在二者增加的可接受范圍內(nèi)實現(xiàn)4個評價指標(biāo)的提升。

        表2 不同模型參數(shù)量及運行時間對比

        WHU建筑物數(shù)據(jù)集上的實驗結(jié)果無論從定性、定量分析,還是模型參數(shù)量和每輪次運行時間對比均驗證本文方法的有效性。這也驗證將似空間注意力模塊嵌入UNet模型,能過濾冗余特征,聚焦目標(biāo)特征,極大優(yōu)化網(wǎng)絡(luò)分割性能。

        (2)AIRS數(shù)據(jù)集實驗結(jié)果分析

        為充分驗證結(jié)合似空間注意力模塊UNet網(wǎng)絡(luò)的泛化能力,將該網(wǎng)絡(luò)與對比網(wǎng)絡(luò)在空間分辨率為 0.075 m的屋頂分割航空影像數(shù)據(jù)集-AIRS上進(jìn)行實驗,以便該網(wǎng)絡(luò)能應(yīng)用到無人機(jī)影像分類任務(wù)中。對比實驗可視化結(jié)果如圖8所示。

        圖8 不同網(wǎng)絡(luò)在AIRS數(shù)據(jù)集上的提取結(jié)果(紅框部分表示本文方法的改進(jìn)之處)

        模型分割結(jié)果定性分析:由圖8可以看出,在選取的第一個具有代表性的場景中,由于中間建筑物與周邊道路顏色接近,FCN-8S、UNet未能對其進(jìn)行識別,SegNet識別出的建筑物存在空洞,然而本文方法能完整提取此種場景下的建筑物;在第二個場景中,三種對比網(wǎng)絡(luò)在提取小型建筑物時,FCN-8S產(chǎn)生誤檢現(xiàn)象,SegNet、UNet出現(xiàn)漏檢現(xiàn)象,本文方法能正確檢測小型建筑物輪廓;在第三個場景中,由于屋頂光譜特征與周圍樹木、車輛光譜特征相近,FCN-8S產(chǎn)生過分割現(xiàn)象,SegNet、UNet出現(xiàn)欠分割現(xiàn)象,本文方法提取的建筑物邊界平滑、準(zhǔn)確;在最后一個場景中,在面對內(nèi)部存在背景的復(fù)雜建筑物,FCN-8S、SegNet和UNet均表現(xiàn)較大不適應(yīng)性,但本文方法卻能完整識別出來??傊?產(chǎn)生這樣分割差異的根本原因是將似空間注意力模塊嵌入UNet網(wǎng)絡(luò)后,提取的全局與局部上下文特征均得到校正,故結(jié)合似空間注意力模塊UNet網(wǎng)絡(luò)在面對各種復(fù)雜場景時仍表現(xiàn)出很好的魯棒性。

        對AIRS數(shù)據(jù)集的建筑物提取結(jié)果進(jìn)行定量評價如表3所示。由表3可知,在AIRS數(shù)據(jù)集上,本文方法的各項評價指標(biāo)幾乎為最優(yōu)值。與FCN-8S、SegNet和UNet相比,本文方法的并比分別提高0.47%、6.13%、6.57%;精確率分別增加1.05%、1.60%、0.55%;召回率高出0.06%、15.53%、28.35%;F1分?jǐn)?shù)在對比模型中排名第二,除比FCN-8S略低外,相比SegNet和UNet,有一定程度提升,從定量分析的結(jié)果驗證本文方法的適用性和穩(wěn)定性。

        表3 不同模型在AIRS數(shù)據(jù)集上的分割精度對比

        從AIRS數(shù)據(jù)集的定性和定量評價可知,將似空間注意力模塊嵌入UNet網(wǎng)絡(luò),有助于增強(qiáng)有效信息,緩解過分割,從而提高模型預(yù)測能力,證實本文方法具有較強(qiáng)泛化能力,擁有一定實際應(yīng)用潛力。

        3 結(jié) 論

        卷積神經(jīng)網(wǎng)絡(luò)在建筑物語義分割方面擁有巨大潛力。本文提出結(jié)合似空間注意力模塊UNet網(wǎng)絡(luò),用于改善建筑物提取中存在的邊緣模糊及內(nèi)部空洞等問題。筆者提出的似空間注意力模塊,用于對UNet編碼階段提取特征進(jìn)行校正,抑制無效特征,增強(qiáng)有效特征。

        實驗表明,在WHU建筑物數(shù)據(jù)集上預(yù)測結(jié)果表現(xiàn)良好,所提取大、小型建筑物邊界準(zhǔn)確、平滑,面對與建筑物擁有相似光譜特征背景對象的提取時,誤分割、欠分割現(xiàn)象得到緩解。其次,通過對比實驗可知,本文方法的模型參數(shù)量與每輪次運行時間與UNet相差不大,相比其他對比網(wǎng)絡(luò)而言卻較小,各項評價指標(biāo)也較優(yōu),從模型性能和效率方面驗證本文方法的有效性。將本文模型應(yīng)用到AIRS數(shù)據(jù)集的高分辨率建筑物提取中,面對各種復(fù)雜場景效果提取效果理想,各項指標(biāo)相比對比網(wǎng)絡(luò)也幾乎有所提升,證明本文方法的適用性,具有良好的應(yīng)用前景。后續(xù)計劃將基于本文方法進(jìn)一步提取建筑物矢量邊界,以提供結(jié)構(gòu)化的單個建筑物多邊形,供實際應(yīng)用。

        猜你喜歡
        注意力建筑物卷積
        讓注意力“飛”回來
        基于3D-Winograd的快速卷積算法設(shè)計及FPGA實現(xiàn)
        鄰近既有建筑物全套管回轉(zhuǎn)鉆機(jī)拔樁技術(shù)
        描寫建筑物的詞語
        從濾波器理解卷積
        電子制作(2019年11期)2019-07-04 00:34:38
        基于傅里葉域卷積表示的目標(biāo)跟蹤算法
        “揚眼”APP:讓注意力“變現(xiàn)”
        傳媒評論(2017年3期)2017-06-13 09:18:10
        A Beautiful Way Of Looking At Things
        火柴游戲
        一種基于卷積神經(jīng)網(wǎng)絡(luò)的性別識別方法
        一区二区三区日本美女视频| 久久老子午夜精品无码| 亚洲—本道中文字幕久久66| 久久99精品这里精品动漫6| 亚洲又黄又大又爽毛片| 日韩一区二区中文字幕| 中文字幕34一区二区| 91亚洲精品久久久蜜桃| 久久精品国产亚洲av专区| 国产精品一区二区久久久av| 日韩av精品视频在线观看| 国产精品99精品久久免费| 帮老师解开蕾丝奶罩吸乳视频| 天美传媒精品1区2区3区 | 国产亚洲欧美在线观看的| 亚洲一区二区三区精品网| 青青草伊人视频在线观看| 亚洲熟女熟妇另类中文| 久久精品中文少妇内射| 黑人巨茎大战俄罗斯美女| 性色av无码久久一区二区三区| 久久久久无码精品亚洲日韩| 国产亚洲sss在线观看| 日本成人免费一区二区三区| 国产av一级二级三级| 国产日本精品视频一区二区| 女人色熟女乱| 少妇人妻偷人精品视频| 国产鲁鲁视频在线播放| 亚洲第一区无码专区| 在线人妻va中文字幕| 亚洲无av在线中文字幕| 中文字幕乱码熟女人妻水蜜桃| 天堂а√在线最新版中文| 人妻中出精品久久久一区二| 午夜精品一区二区三区av免费| 日本免费精品一区二区| 亚洲乱亚洲乱妇50p| aaaaa级少妇高潮大片免费看| 国产亚洲欧美精品一区| 久久狼人国产综合精品|