亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于DeepLab v3+模型的高分辨率影像養(yǎng)殖用海信息提取

        2022-07-09 08:59:02何顯錦蒙方鑫北部灣環(huán)境演變與資源利用教育部重點實驗室南寧師范大學(xué)廣西南寧50001廣西地表過程與智能模擬重點實驗室廣西南寧50001南寧師范大學(xué)地理科學(xué)與規(guī)劃學(xué)院廣西南寧50001
        安徽農(nóng)業(yè)科學(xué) 2022年12期
        關(guān)鍵詞:分類方法模型

        何顯錦,蒙方鑫 (1.北部灣環(huán)境演變與資源利用教育部重點實驗室(南寧師范大學(xué)),廣西南寧 50001;2.廣西地表過程與智能模擬重點實驗室,廣西南寧 50001;.南寧師范大學(xué)地理科學(xué)與規(guī)劃學(xué)院,廣西南寧 50001)

        廣西壯族自治區(qū)北部灣經(jīng)濟區(qū)是繼珠江三角經(jīng)濟區(qū)、長江三角經(jīng)濟區(qū)、環(huán)渤海經(jīng)濟區(qū)之后的又一個具有重大發(fā)展意義的國際區(qū)域經(jīng)濟合作區(qū)。隨著北部灣經(jīng)濟區(qū)的快速發(fā)展,海域使用也發(fā)生了翻天覆地的變化,在獲取經(jīng)濟效益的同時,也將對周圍的生態(tài)環(huán)境安全產(chǎn)生重要影響。及時、準(zhǔn)確發(fā)現(xiàn)獲取海域使用動態(tài)變化信息,不但直接影響海域管理部門對海域使用的有效執(zhí)法監(jiān)察和行政管理,也為海域資源的可持續(xù)利用與發(fā)展提供決策支持。然而,由于整個經(jīng)濟區(qū)的海域范圍廣、面積大,人工解譯獲取信息速度慢,而傳統(tǒng)的機器學(xué)習(xí)方法由于不能自動提取原始特征信息,導(dǎo)致獲取信息精度不夠高,無法更好地為沿海開發(fā)利用提供技術(shù)支撐與服務(wù)。

        近年來,隨著科技的迅速發(fā)展,深度學(xué)習(xí)在影像識別、人工智能等方面發(fā)揮著越來越重要的作用。深度學(xué)習(xí)作為機器學(xué)習(xí)中的一個新興領(lǐng)域,可通過逐層特征提取的方法、逐層學(xué)習(xí)輸入數(shù)據(jù)的方式,使得數(shù)據(jù)分類或預(yù)測的問題更加容易實現(xiàn),并且可以從少數(shù)樣本中集中學(xué)習(xí)數(shù)據(jù)集的本質(zhì)特征,還可以通過學(xué)習(xí)深層非線性的網(wǎng)絡(luò)結(jié)構(gòu),實現(xiàn)對復(fù)雜函數(shù)的逼近。深度學(xué)習(xí)從大類上可以歸入神經(jīng)網(wǎng)絡(luò),通常由多層神經(jīng)網(wǎng)絡(luò)構(gòu)成。其中,卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)是目前深度學(xué)習(xí)技術(shù)領(lǐng)域中最具有代表性的神經(jīng)網(wǎng)絡(luò)之一,可以通過一系列方法,成功將數(shù)據(jù)量龐大的圖像識別問題不斷降維,最終使其能夠被訓(xùn)練。CNN能夠自動獲取特征信息,具備更強的泛化能力,相對傳統(tǒng)機器學(xué)習(xí)方法能夠處理更復(fù)雜的分類問題,極大地提高了分類精度;另一種深度學(xué)習(xí)方法全卷積神經(jīng)網(wǎng)絡(luò)(Fully Convolutional Networks,F(xiàn)CN),則是通過去除CNN的全連接層,將傳統(tǒng)CNN中的全連接層轉(zhuǎn)化成一個個的卷積層以及添加上采樣操作恢復(fù)影像尺寸的方式,在減輕網(wǎng)絡(luò)復(fù)雜度的同時實現(xiàn)了影像的像素級分類。但為了得到更深層次的語義信息,F(xiàn)CN分類方法采用池化層擴大感受野,不可避免地造成空間信息的損失?;诖?,眾多更先進的深度學(xué)習(xí)網(wǎng)絡(luò)模型應(yīng)運而生,如SegNet、U-Net、DeepLab系列。DeepLab v3因其清晰的網(wǎng)絡(luò)結(jié)構(gòu)和利用并行空洞卷積所捕獲多尺度信息的特點,在影像信息解譯提取方面得到了廣泛應(yīng)用。例如,司海飛等提出一種新的輕量化網(wǎng)絡(luò)結(jié)構(gòu)MobileNetV2結(jié)構(gòu),它替代了DeepLab v3原有的特征提取器,改進的DeepLab v3網(wǎng)絡(luò)模型綜合性能更強,更適合對分割性能要求較高的快速分割網(wǎng)絡(luò);韓玲等利用DeepLab v3提取高分辨率遙感影像道路,結(jié)果顯示該模型能夠較好地提取高分辨率遙感影像中的道路邊緣特征,相比其他道路提取方法具有更高的提取精度和更加完整的道路信息,正確率可達到93%以上;何紅術(shù)等提出改進的U-Net網(wǎng)絡(luò)語義分割方法,借鑒經(jīng)典U-Net網(wǎng)絡(luò)的解編碼結(jié)構(gòu)對網(wǎng)絡(luò)進行改進,改進后的U-Net網(wǎng)絡(luò)結(jié)構(gòu)在mIoU、精準(zhǔn)率和Kappa系數(shù)指標(biāo)上均高于SegNet和經(jīng)典U-Net網(wǎng)絡(luò);蔡博文等利用深度卷積神經(jīng)網(wǎng)絡(luò)對影像特征進行提取,并根據(jù)其鄰域關(guān)系構(gòu)建概率圖學(xué)習(xí)模型,進一步引入高階語義信息對特征進行優(yōu)化,實現(xiàn)不透水面的精確提取。

        盡管深度學(xué)習(xí)在各個領(lǐng)域的應(yīng)用不斷深入,但是對于用海信息提取的研究較少,且提取的對象多為均質(zhì)地物。鑒于此,筆者利用深度學(xué)習(xí)模型,對養(yǎng)殖用海中的網(wǎng)箱、浮筏等非均質(zhì)地物進行提取,闡明深度學(xué)習(xí)方法在海域信息提取應(yīng)用過程,并通過對傳統(tǒng)機器學(xué)習(xí)方法,說明深度學(xué)習(xí)方法所具有的優(yōu)勢,為高精度監(jiān)測北部灣海域使用狀況提供一套科學(xué)有效的方法。

        1 材料與方法

        欽州灣位于北部灣頂部,廣西沿岸中段,東鄰欽州市欽州港區(qū),西鄰防城港市企沙半島,北與欽州市欽南區(qū)接壤,南臨北部灣,灣口門寬約為29 km,縱深約為39 km,海灣面積約為380 km。欽州灣是廣西的傳統(tǒng)大蠔養(yǎng)殖基地,近年來養(yǎng)殖區(qū)域面積不斷擴大,大蠔養(yǎng)殖也得到爆炸式增長。欽州灣頂部為茅尾海,是以欽江、茅嶺江為主要入灣徑流的河口海濱區(qū)。東南部為三娘灣海域,有大風(fēng)江淡水匯入,其特點是島嶼棋布、淺灘眾多,創(chuàng)造了適宜多種海洋生物生存的不同環(huán)境。由于有欽江、茅嶺江淡水匯入,因此餌料充足、魚類資源豐富,并且欽州灣年均水溫21.3 ℃,處于最適合生蠔生長的水溫(15~25 ℃)范圍內(nèi)。同時,灣內(nèi)自然災(zāi)害較少,貼合生蠔養(yǎng)殖要求的無臺風(fēng)、無污染條件。

        該研究所用數(shù)據(jù)主要為影像數(shù)據(jù),通過谷歌地球引擎平臺獲取了2期空間分辨率為0.5 m的欽州灣海域遙感影像。其中,2011年影像為同一時相影像,2019年影像則由多個時相影像拼接而成(圖1)。另外,該研究利用與影像相匹配的欽州灣海域矢量數(shù)據(jù),裁剪出欽州灣海域,這樣可以減少其他地物對目標(biāo)地物信息提取的干擾。

        圖1 欽州灣影像Fig.1 Images of Qinzhou Bay

        基于DeepLab v3+模型的影像語義分割

        模型介紹。Deeplab語義分割網(wǎng)絡(luò)在2015年被提出,該模型是給輸入的圖像在像素級別進行語義標(biāo)簽的分配。目前,Deeplab經(jīng)歷了v1、v2、v3以及v3+的不斷發(fā)展,其性能更是得到了不斷地完善。DeepLab v3+最大的特征就是引入了空洞卷積,在不損失信息的情況下,加大了感受野,讓每個卷積輸出都包含較大范圍的信息。同時,模型為了融合多尺度信息,引入了語義分割常用的encoder-decoder形式。DeepLab v3+結(jié)合了空洞空間金字塔池化(ASPP)和多比例的帶孔卷積級聯(lián)或并行來捕獲多尺度背景兩者的優(yōu)點,在沒有添加任何后端處理的情況下在PASCAL VOC 2012數(shù)據(jù)集上驗證可達到89% mIoU。該研究采用最新的DeepLab v3+模型進行欽州灣海域使用狀況的信息提取,模型架構(gòu)如圖2所示。

        圖2 DeepLabv 3+模型框架Fig.2 DeepLab v3+ model

        首先,輸入的圖片經(jīng)過主干DCNN深度卷積神經(jīng)網(wǎng)絡(luò)之后的結(jié)果被分為2部分,一部分直接傳入Decoder,另一部分經(jīng)過并行的Atrous Convolution,分別用不同rate的Atrous Convolution進行特征提取、進行合并,再進行1×1卷積壓縮特征;其次,對于解碼器Decoder部分,其輸入有2部分,一部分是DCNN的輸出,另外一部分是DCNN經(jīng)過并行空洞卷積輸出后的結(jié)果,接著將編碼器的輸出結(jié)果上采樣4倍,然后與resnet中下采樣前的Conv2特征Concat一起,再進行3×3的卷積,最后上采樣4倍使其分辨率和低層級的Feature一致;最后,把獲得的特征重新映射到圖中的每一個像素點,用于每一個像素點的分類,最終輸出Prediction圖像。

        樣本獲取。(1)樣本影像裁剪。由于該試驗的研究區(qū)范圍較大,影像尺寸達到了50 000像素×50 000像素以上,所以不能直接將研究區(qū)作為標(biāo)注對象,需要將影像進行切片處理。為了提高標(biāo)注精度,將兩景研究區(qū)影像切片為621像素×922像素大小的共4 000多張影像,并將其導(dǎo)出為.jpg格式。切成更小尺寸的圖像是為了在標(biāo)注階段能夠更好地識別地物信息,減小錯分概率。

        (2)樣本選取與標(biāo)注。基于上一步切片得到的影像,還需要通過目視解譯的方法將包含目標(biāo)地物的圖像選取出來,經(jīng)過篩選后,最終得到了共542張圖像質(zhì)量較好、具有較高識別度的圖像;隨后用Labelme工具進行語義分割樣本的標(biāo)注,將圖像標(biāo)注為養(yǎng)殖排筏與背景2類。這些樣本在訓(xùn)練前需要經(jīng)過鏡像翻轉(zhuǎn)、圖像旋轉(zhuǎn)等以獲取更多的訓(xùn)練樣本。

        數(shù)據(jù)處理。訓(xùn)練前,首先將Labelme軟件標(biāo)注生成的json格式文件轉(zhuǎn)換為VOC格式,方便后續(xù)進一步轉(zhuǎn)換成DeepLab v3+模型訓(xùn)練所需的灰度圖;隨后利用build_voc2012_data.py文件將灰度圖轉(zhuǎn)換成tfrec7ord格式,同時添加對養(yǎng)殖排筏數(shù)據(jù)集的描述,最后進行數(shù)據(jù)集的訓(xùn)練。

        訓(xùn)練時,引用預(yù)訓(xùn)練模型Xception65_coco_voc_trainval,調(diào)整迭代訓(xùn)練次數(shù)(training_number_of_steps)為30 000,圖片訓(xùn)練尺寸(train_crop_size)為513,訓(xùn)練批數(shù)(train_batch_size)為1。另外,面對訓(xùn)練數(shù)據(jù)不足的情況,可以借鑒茍杰松等訓(xùn)練過程通過增添數(shù)據(jù)增強模塊,即通過隨步長隨機縮放、鏡像翻轉(zhuǎn)、圖像旋轉(zhuǎn)、非等比例縮放等多種方式來增加訓(xùn)練數(shù)據(jù)量,以防止樣本不足帶來的過擬合,提升模型泛化能力和魯棒性。訓(xùn)練結(jié)束后,導(dǎo)出生成.dp格式預(yù)測模型文件。

        預(yù)測時,直接調(diào)用.pb格式模型文件對圖片進預(yù)測??紤]設(shè)備限制與數(shù)據(jù)處理效率,并不能將整幅影像一次性導(dǎo)入進行預(yù)測。需將50 000像素×50 000像素的影像切割為500像素×500像素的共10 000張小尺寸圖像,再將小尺寸圖像放入預(yù)測模型中循環(huán)遍歷,生成的預(yù)測圖保存在列表中,最后再將預(yù)測好的圖像進行拼接,最終生成一幅與原圖尺寸一致的圖像。

        基于最大似然法的養(yǎng)殖用海識別

        算法選取。在ENVI軟件中監(jiān)督分類常用的方法有最大似然法(Maximum Likelihood Classification,MLC)、最小距離法、馬氏距離法、平行六面體法、神經(jīng)網(wǎng)絡(luò)法以及支持向量機法等。在影像信息提取研究中,ENVI監(jiān)督分類利用最大似然法能夠?qū)崿F(xiàn)較高的信息提取精度,應(yīng)用較為廣泛。該分類算法是求出每一個像元對于各類別的歸屬概率,把該像元劃分到歸屬概率最大的類別中去。它的判別規(guī)則是假設(shè)某待分類像元X滿足如下公式:

        =ln()-[0.5 ln(||)-[05(-)()(-)]

        (1)

        式中,、、分別為加權(quán)距離、某一特征類型和像元的測量矢量;、分別為類別的樣本均值、協(xié)方差矩陣和待分像元屬于類別的概率。

        ROI的選取與分離度指標(biāo)的關(guān)系。根據(jù)地物在影像上的分布情況,在ENVI中選擇繪制感興趣區(qū)域(region of interest,簡稱ROI),并將地物分為2類,即養(yǎng)殖魚、蠔等排筏與背景。ROI選擇完畢之后還要對其進行分離精度評價,即在ENVI中對每個興趣區(qū)計算Transformed距離和Jef-friesMatusita距離,分離度閾值是0~2。在該試驗中,依據(jù)可分離值的大小來判斷選取ROI樣本的精度情況。當(dāng)分離值大于1.9,說明2類地物樣本之間可以很好地被區(qū)分開;當(dāng)分離值小于1.8時說明2類地物樣本之間無法很好地區(qū)別開,應(yīng)當(dāng)修改原樣本并重新選擇,當(dāng)可分離值小于1時,說明2類樣本幾乎無法區(qū)分開,應(yīng)該考慮將2類地物視為同種類型的地物并將其合并。該試驗中,將欽州灣2011與2019年2期影像進行養(yǎng)殖用海面積的分類,得到2011年養(yǎng)殖用海與背景的分離度為1.923,具有比較好的分離性;2019年的分離度僅為1.806,達不到很好的分離效果。由此可知,利用最大似然法對影像分類時,拼接影像獲取的分離度較非拼接影像更低。

        精度評價方法。影像分類精度評價方法主要包括整體精度評價和制圖精度評價。整體分類精度評價是對分類精度高低的檢驗,常用的檢驗方法有2種:一是在影像上隨機選取一定比例的驗證樣本與分類結(jié)果進行對比;二是將分類結(jié)果與實際養(yǎng)殖用海的面積進行對比。該研究主要采用第2種,其中采用的分類精度指標(biāo)包括總體精度(Overall Accuracy)和Kappa系數(shù)。制圖精度是分類器將整個影像的像元正確分為A類的像元數(shù)(對角線值)與A類真實參考總數(shù)(混淆矩陣中A類列的總和)的比率。

        2 結(jié)果與分析

        圖3展示了使用2種方法對2011年單一時相影像與2019年多時相拼接影像的預(yù)測結(jié)果。從圖3可以看出,在非拼接的2011年影像上,基于MLC方法的總體預(yù)測質(zhì)量較好,但在影像中部以及頂部等河網(wǎng)縱橫交錯、地物分布復(fù)雜的區(qū)域不能對目標(biāo)地物實現(xiàn)準(zhǔn)確識別(圖3a)。對于2019年的拼接影像,研究區(qū)右下角、中部、頂部的部分水域被錯分為養(yǎng)殖排筏,中部有大部分養(yǎng)殖排筏沒有被準(zhǔn)確提取,導(dǎo)致了圖上的空白(圖3b)。然而,DeepLab v3+模型提取的結(jié)果與實地養(yǎng)殖分布情況相吻合,總體上明顯優(yōu)于采用MLC方法提取的結(jié)果。

        圖3 2種方法預(yù)測的總體效果對比Fig.3 Comparison of the overall effects of the two methods

        圖4展示了2種方法在2019年多時相拼接影像上的分類結(jié)果部分細(xì)節(jié)。從圖4可以發(fā)現(xiàn),利用MLC方法對2019年的影像進行預(yù)測時,圖中大部分區(qū)域都產(chǎn)生了噪聲點,在影像拼接處更是將多種“異物同譜”的目標(biāo)分為一類,在細(xì)節(jié)處不能將養(yǎng)殖排筏完整地提取出來,而DeepLab v3+模型提取的結(jié)果,邊界清晰,地物完整。

        圖4 2種方法預(yù)測結(jié)果部分細(xì)節(jié)對比Fig.4 Comparison of the details of results obtained by the two methods

        圖5展示了2種方法在養(yǎng)殖排筏細(xì)節(jié)紋理特征識別上的差異。從圖5可以發(fā)現(xiàn),利用MLC方法不能將養(yǎng)殖排筏作為一個整體提取出來,只提取了網(wǎng)格線(圖5a),忽略了其中的水域。而DeepLab v3+模型在紋理特征細(xì)節(jié)處的識別較為準(zhǔn)確,能夠很好地識別出目標(biāo)輪廓,并將網(wǎng)格和其中水域作為一個整體提取。

        圖5 2種方法對地物細(xì)微特征的提取Fig.5 The details of aquaculture cages and crafts recognized by the two methods

        表1為2種方法提取精度對比。從表1可以看出,DeepLabv3+模型的Kappa系數(shù)與總體精度均優(yōu)于最大似然法。在2011年非拼接影像信息提取中,DeepLab v3+模型比最大似然法的總體精度高0.98%,兩者差異較小,而在2019年多時相拼接影像識別上,前者為92.62%,后者僅89.46%,兩者相差3.16%。另外,DeepLab v3+模型在制圖精度上也優(yōu)于最大似然法,且在識別復(fù)雜拼接影像時依舊能夠表現(xiàn)出較高的分類精度。

        表1 2種方法精度對比Table 1 Comparison of the accuracy of the two methods

        在卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練過程中,迭代訓(xùn)練次數(shù)是一個重要參數(shù),對模型精度有顯著影響。圖6展示了不同迭代訓(xùn)練次數(shù)下模型預(yù)測精度情況。從圖6可以看出,隨著訓(xùn)練次數(shù)的不斷增加,模型預(yù)測精度(mIoU值)也逐漸提高。當(dāng)訓(xùn)練次數(shù)達到30 000次以上時,模型的預(yù)測精度趨于平緩,到達50 000次時,模型的精度與30 000次相比僅相差0.60%。由此可知,在樣本數(shù)一定的情況下,模型的精度超過50 000次后將不會再有明顯的提升。分析可知,在不改變初始學(xué)習(xí)率、train_batch_size以及output_stride時,該模型的預(yù)測精度與迭代訓(xùn)練次數(shù)成正相關(guān)關(guān)系。

        圖6 訓(xùn)練次數(shù)對預(yù)測精度的影響Fig.6 Effects of the training times on DeepLab v3+ model

        圖7展示了近10年間養(yǎng)殖用海的時空變化分布狀況。養(yǎng)殖用海面積在近10年間呈現(xiàn)出爆炸式的增長,養(yǎng)殖用海的分布格局也由起初位于中部的集群分布拓展至整個欽州灣甚至北部的欽江和茅嶺江的入海口區(qū)域,呈現(xiàn)出了中心擴散的趨勢,也從側(cè)面彰顯了廣西海洋經(jīng)濟在可持續(xù)發(fā)展“十三五”規(guī)劃中取得的巨大進步。

        圖7 欽州灣近10年間養(yǎng)殖用海分布變化情況Fig.7 Distribution of oyster rafts in Qinzhou Bay in recent ten years

        表2統(tǒng)計了基于DeepLab v3+模型的兩期影像養(yǎng)殖用海提取面積與實際面積對比。從表2可知,欽州灣養(yǎng)殖用海的凈面積由2011年的718 hm增長到了2019年的1 924 hm,是2011年的近2.7倍,相比2011年同比增長了168.23%。隨著2011年欽州市委市政府將欽州大蠔列為重點扶持的特色產(chǎn)業(yè),市財政每年在大蠔養(yǎng)殖項目上的扶持經(jīng)費高達數(shù)百萬元。另外,隨著養(yǎng)殖技術(shù)的不斷進步,“浮筏吊養(yǎng)”逐漸取代了“灘涂插養(yǎng)”的傳統(tǒng)養(yǎng)殖方式,極大提高了欽州大蠔的產(chǎn)量。

        表2 基于語義分割的面積比較Table 2 Area comparison based on semanteme division

        3 結(jié)論

        該研究以2期谷歌地球引擎獲取的高分辨率影像為數(shù)據(jù)源,采用了DeepLab v3+模型進行了欽州灣養(yǎng)殖用海信息提取。試驗結(jié)果表明,該模型在高分辨率、多時相拼接影像上的總體識別精度和紋理特征細(xì)節(jié)識別方面均顯著優(yōu)于傳統(tǒng)機器學(xué)習(xí)方法。DeepLab v3+模型提取總體精度達到了97%以上,能夠很好地識別出養(yǎng)殖網(wǎng)箱、排筏輪廓,可將網(wǎng)格和其中水域作為一個整體提取。另外,通過用海變化分析發(fā)現(xiàn),近10年間,欽州灣海域養(yǎng)殖用海爆發(fā)式增長,面積增長接近2倍。該研究可為海域使用監(jiān)測提供科學(xué)技術(shù)支持,對海洋開發(fā)與管理具有重要意義。

        猜你喜歡
        分類方法模型
        一半模型
        分類算一算
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權(quán)M-估計的漸近分布
        分類討論求坐標(biāo)
        數(shù)據(jù)分析中的分類討論
        教你一招:數(shù)的分類
        可能是方法不對
        3D打印中的模型分割與打包
        用對方法才能瘦
        Coco薇(2016年2期)2016-03-22 02:42:52
        免费观看在线一区二区| 大陆极品少妇内射aaaaa| 久久国产色av| AV熟妇导航网| 免费在线国产不卡视频| 欧美人与动性xxxxx杂性| 少妇白浆高潮无码免费区| 久久久久久久久久免免费精品| 日本视频一区二区三区| 性欧美丰满熟妇xxxx性久久久| 中文国产日韩欧美二视频| 国产亚洲精品福利在线| 国产黄色三级三级三级看三级| 亚洲人成人无码www| 自慰无码一区二区三区 | 久久久久久岛国免费网站| 丝袜美腿诱惑区在线播放| 国产夫妇肉麻对白| 人禽无码视频在线观看| 亚洲又黄又大又爽毛片| 国内自拍色第一页第二页| 无码人妻av一二区二区三区| 国产精品丝袜在线不卡| 男女性生活视频免费网站| 少妇高潮av久久久久久| 在线播放亚洲第一字幕| 熟女系列丰满熟妇av| 一区二区黄色在线观看| 曰韩无码二三区中文字幕| 97中文字幕在线观看| 日韩一区三区av在线| 人妻少妇出轨中文字幕| 成年视频国产免费观看| 激情视频在线观看免费播放| 337p日本欧洲亚洲大胆色噜噜| 国产内射999视频一区| 人片在线观看无码| 日韩一区二区av极品| 亚洲va无码手机在线电影| 欧美三级超在线视频| 韩国三级黄色一区二区|