亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于機器學習與深度學習的地基云識別進展

        2025-07-19 00:00:00曹冉王敏王佳鋒谷文杰黎永順
        科技創(chuàng)新與應用 2025年18期
        關鍵詞:分類深度特征

        中圖分類號:TP391.41 文獻標志碼:A 文章編號:2095-2945(2025)18-0022-07

        Abstract:Withtherapid developmentofdeeplearning technology,transfer learning hasalsobeensucesfullyappliedin thefieldofimageprocessingbasedondeeplearning.Inordertoverifythefeasibilityofdeeplearningtechnologycombnedwith transferleaninginground-basedcloudspeciesidentification,andtheefectivenessandadvancementcomparedwithtraditional machine learning methods,thispaperconductsmachine learningandtransferdeep learningonthe SWIMCATground-based clouddataset.Experimentalcomparisonoflearningmethods,experimentalcomparisonoftransferlearningandnon-transfer learning,andvisualanalysisofthecharacteristicsofground-basedcloudsinconvolutionaleuralnetworks.Theadvantagesnd disadvantagesofmachinelearningandtransferdeeplearninginground-basedcloudrecognitionarecomparedandanalyzed throughxperiments,layingatheoreticalfoundationforsubsequentin-depthresearchondeeplearningground-basedcloud recognition algorithms.

        Keywords: deep learning; transfer learning; machine learning; ground-based cloud map; visualization

        近年來,云及其特性的研究成為各學者的研究重點,尤其是在云檢測與分類、云量估計、云移動軌跡預測以及云類型演變趨勢預測等動態(tài)行為預測領域。這些研究對未來天氣變化的預測具有重要意義。云圖是分析云相關信息的重要載體,由于地基云的種類繁多,不同類別間的形狀相似且會不斷變化,所以對地基云的準確識別一直具有很大的挑戰(zhàn)。

        隨著機器學習和深度學習技術的發(fā)展,這些方法也被應用于地基云識別領域。機器學習主要使用各種特征提取方法來提取選擇好的特征,然后使用分類器進行識別。Singh和Glennen等4使用自相關、共現(xiàn)矩陣、邊緣頻率和運行長度編碼,4種經(jīng)典的紋理特征提取方法進行云圖特征提取。Zhuo等引入顏色普查變換和自動塊分類方法提取紋理和結構信息,對6種天空條件進行識別。Heinle等對多種特征進行測試,提取了包括光譜特征、基于共現(xiàn)矩陣的特征和云量特征的多個云圖特征。Cheng和 Yu 等使用貝葉斯分類器對6種天空條件進行識別,最終準確率達到 90% 。Taravat等分別使用多層感知機和SVM對250張云圖樣本進行識別,準確率達到 93.66% 。

        深度學習方法在地基云識別領域的成功應用使得云圖的多種特征可以被卷積神經(jīng)網(wǎng)絡自動提取,大大提高了地基云識別的準確率。Ye等提出了 Deep-Cloud特征提取方法,通過模式挖掘和選擇策略從多個卷積層采集局部視覺特征,并使用Fisher向量進行編碼來實現(xiàn)云識別。Li等采用SENet網(wǎng)絡,增大有效特征圖的權重,同時減小無效特征圖的權重。Zhang等[12]設計了一種輕量級的卷積神經(jīng)網(wǎng)絡模型LCCNet,在

        11類云識別任務中達到 97.25% 的準確率。Zhang等[13]通過集成多個卷積神經(jīng)網(wǎng)絡和殘差神經(jīng)網(wǎng)絡,提升了云識別準確率,超過了任何單一深度學習模型。

        為評估深度學習在云識別領域的有效性和先進性,本文使用3種機器學習方法與6種使用了遷移學習的CNN模型在SWIMCAT數(shù)據(jù)集上進行對比實驗,實驗結果表明,遷移學習與深度學習結合的識別效果顯著優(yōu)于傳統(tǒng)機器學習方法。同時,通過CNN可視化地基云圖像各卷積層的激活特征,分析了淺層和深層網(wǎng)絡所提取的不同特征所表達的含義,為后續(xù)進行深度學習地基云識別算法的深入研究奠定理論基礎。

        1地基云分類的機器學習方法

        詞袋模型(Bagofwords,BOW)[4],局部二值模式(Localbinarypattern,LBP)[5]、完全局部二值模式(CompletedLocal Binary Pattern,CLBP)[等機器學習方法在地基云分類任務中應用較為廣泛。

        1.1 詞袋模型

        詞袋模型是一種常用的地基云特征提取方法,最初用于文本分類。其假定忽略文本的詞序和語法,將文本視為詞匯集合,統(tǒng)計詞匯出現(xiàn)頻次并形成多維直方圖,再進行分類。

        在圖像處理領域,BOW將圖像視作一篇文檔,圖像特征相當于文檔中的句子,也就是將圖像當成一個局部圖像塊的無序集合。詞袋模型通過特征聚類生成包含SIFT特征描述符的詞典,再基于詞典統(tǒng)計特征出現(xiàn)頻率,將BOW構建為一個直方圖,最終通過分類器進行分類。BOW模型的主要步驟如下: ① 提取圖像的特征; ② 聚類生成視覺詞典; ③ 統(tǒng)計詞典中每個詞的出現(xiàn)頻率,將圖像表示為多維直方圖。

        如圖1所示,B0W將每幅圖像轉換為一個多維直方圖后,通過分類器進行分類并識別,常用分類器包括KNN、SVM等。

        1.2 局部二值模式

        局部二值模式是常用的圖像局部紋理特征提取方法之一。LBP將圖像劃分為多個小區(qū)域,通過比較每個區(qū)域內(nèi)像素值與其周圍像素的大小關系來生成LBP值:若像素值大于周圍像素,則置為1,反之則為0,從而構建特征向量。LBP的具體流程如圖2所示。

        得到的LBP特征向量可用于分類任務。目前較為常用的LBP形式為圓形LBP,通過將圖像劃分為圓形的小區(qū)域,來增加旋轉不變性。圓形LBP的2個核心參數(shù) P 和 R ,分別表示中心像素點周圍的采樣點數(shù)量及采樣區(qū)域的半徑。計算圓形LBP像素值的計算公式如下所示

        式中: {gc} 表示中心像素的灰度值, gp 表示鄰域像素的灰度值。一般情況下,參數(shù) P 和 R 的比值設為8:1。使用LBP方法提取圖像的LBP像素值后,對圖像中所有的LBP像素值進行遍歷,建立一個表示圖像的紋理特征的直方圖,最后,選擇合適的分類器對圖像進行分類。

        圖1BOW圖像分類過程
        圖2LBP過程

        1.3 完全局部二值模式

        完全局部二值模式是LBP的改進版本,其可以提取到LBP遺漏的部分圖像信息。CLBP由3個描述子組成,包括全局對比度(CLBP_C)、幅度二值(CLBP_M)和正負二值(CLBP_S)。其中CLBP_M和CLBP_S由鄰域像素和中心像素的差值分出的符號分量和梯度分量得來,CLBP_C由中心像素灰度計算得出。3個描述子的公式如下所示

        式中: 是中心像素的灰度值, cI 為圖像像素的平均灰度值, sp 為符號分量, mp 為梯度分量, c 為自適應閾值,P 是鄰域點數(shù), R 是鄰域半徑。

        得到這3個描述子后,可以通過串聯(lián)、并聯(lián)等方式得到融合的特征直方圖,最后利用分類器對特征進行分類。

        2地基云分類的深度學習方法

        卷積神經(jīng)網(wǎng)絡(Convolutional Neural Networks,CNN),是一種專為處理圖像和類似數(shù)據(jù)設計的深度學習模型,通過卷積層提取局部特征、池化層減少特征維度,以及全連接層實現(xiàn)分類或回歸任務。目前CNN的深度模型經(jīng)過不斷改良和創(chuàng)新,有越來越多的優(yōu)秀模型被提出,這些模型在地基云識別領域被應用并獲得了令人滿意的效果。

        2.1卷積神經(jīng)網(wǎng)絡基本結構

        卷積神經(jīng)網(wǎng)絡基本結構如圖3所示,CNN的基本結構主要由三維神經(jīng)元組成,輸入的高度、寬度和深度對應彩色圖像的RGB三色通道。CNN包含:卷積層、池化層和全連接層,堆疊這些層即可構成一個簡單的CNN模型。

        圖3卷積神經(jīng)網(wǎng)絡基本結構

        2.1.1 卷積層

        卷積層(ConvolutionLayer)是卷積神經(jīng)網(wǎng)絡的核心組件,主要由多個卷積核組成,用于提取輸入的特征。當數(shù)據(jù)到達卷積層時,該層將每個卷積核在輸入的空間維度上進行卷積,以生成2D激活映射,即該層的特征圖。

        在矩陣計算中,卷積層卷積計算過程如圖4所示,隨著卷積核在輸人上的滑動,每一次滑動就會計算該卷積核中每個標量與輸入的標量的積,也就是說,卷積操作會保持輸人數(shù)據(jù)和卷積核相同位置上的值,即大于等于1的值,而其他值被置為0。

        圖4中, x (如 x1、x2、x3、x4 )表示卷積核里的權重參數(shù),y(如 y1、y2、y3、y4 )表示輸入矩陣里的元素值,×是乘法符號。卷積操作在連續(xù)區(qū)間的公式如下

        式中: (f?g)(t) 表示卷積對象 f 與 g 被卷積對象在連續(xù)時間 Φt 的卷積運算 表示對積分變量 τ 執(zhí)行從負無窮到正無窮的積分 ?I(τ) 表示輸入函數(shù)。

        在卷積神經(jīng)網(wǎng)絡中,卷積操作是在離散區(qū)間的。給定一個多維輸入和卷積核,卷積層中卷積計算公式 (6)

        式中:輸出 s 通常由特征圖表示。

        由于人工神經(jīng)網(wǎng)絡的神經(jīng)元采用完全連接,較大網(wǎng)絡模型會因為參數(shù)量過大而難以訓練。而在卷積層中,每個神經(jīng)元僅連接到前一層的小區(qū)域,稱為感受野,這大大減少了計算參數(shù)量。例如,輸入大小為 224× 224×3 ,感受野為 7×7 時,卷積層每個神經(jīng)元有147個權重( 7×7×3 ,而人工神經(jīng)網(wǎng)絡則有150528個權重,因此卷積層顯著降低了計算復雜度。

        圖4卷積層的卷積計算過程

        2.1.2 池化層

        池化層(PoolingLayer)的主要目的是減少卷積層之間的連接數(shù)量來降低計算復雜度,并通過降低特征映射分辨率實現(xiàn)移位不變性。池化層通常位于2個卷積層之間,該層的每個特征映射都與前一個卷積層對應的特征映射相連接。常見的池化方法有最大池化和平均池化。最大池化通過選取 2×2 過濾器內(nèi)的最大值形成新的矩陣,保持圖像的關鍵特征;平均池化則計算過濾器內(nèi)所有值的平均值。圖5展示了最大池化和平均池化過程。

        2.1.3 全連接層

        全連接層(FullyConnectedLayer)首先通過展平操作,將多維數(shù)據(jù)展平為一維。全連接層結構與ANN中的層結構類似,每個相鄰的層的神經(jīng)元互相連接,

        并嘗試從激活中得到類分數(shù),用于最終的分類。在全連接層中使用激活函數(shù)如Relu、Softmax等可以顯著提高網(wǎng)絡的性能。

        圖5最大池化和平均池化過程

        2.2 常見的分類卷積神經(jīng)網(wǎng)絡

        深度學習方法中,常用的CNN模型包括 VGG16[18] ,VGG19 [9]ResNet5O[20]、ResNet101[1]InceptionV3 [2]和Xception23,其中VGG16和VGG19通過堆疊多個 3×3 卷積核替代大卷積核,減少了參數(shù)并提高了適應性。ResNet50和ResNet101引入殘差連接,使淺層輸出可直接傳遞至深層,充許更深的網(wǎng)絡結構并提高性能。InceptionV3通過將大卷積分解為小卷積,減少計算量并增強非線性表示能力。Xception使用深度可分離卷積分開處理通道和空間相關性,進一步提升網(wǎng)絡性能。表1為各種典型CNN網(wǎng)絡參數(shù),其中Top-5錯誤率均是在ImageNet數(shù)據(jù)集上的測試結果

        表1各種典型CNN網(wǎng)絡參數(shù)

        2.3地基云在GNN中的激活特征

        卷積神經(jīng)網(wǎng)絡(CNN)是深度學習的代表算法,本質(zhì)上是由多個卷積層組成的特征提取機制,不同的卷積層提取不同的特征圖像,因此,可視化CNN中不同卷積層的激活特征對地基云識別研究具有重要意義。

        為對地基云在CNN中的激活特征進行可視化,如圖6所示,設計了一個包含5個卷積塊的CNN模型,每個卷積塊有2個卷積層和1個池化層。輸入地基云圖像后,得到各卷積層的特征圖。如圖7所示,第一個卷積塊中的卷積層conv1_1和convl_2提取的特征圖顯示了清晰的邊緣和紋理信息,而后續(xù)卷積層的紋理特征逐漸變得模糊,直到最后一個卷積塊的卷積層conv5_1,提取的特征變得更加抽象。因此得出結論,CNN的淺層提取地基云的紋理特征,而深層提取抽象語義特征。

        2.4 遷移學習

        遷移學習(TransferLearning)是一種旨在將已經(jīng)在某一領域或任務中學到的知識遷移到新的但相關的領域或任務中的技術,特別適用于目標任務數(shù)據(jù)不足或模型訓練資源有限的情況

        圖6用于特征可視化的CNN網(wǎng)絡模型
        圖7不同卷積層的特征圖

        傳統(tǒng)的機器學習或深度學習方法需要在同一任務和領域的大量數(shù)據(jù)上從零開始訓練,而遷移學習通過重用預訓練模型的特征、參數(shù)或結構,可以快速適應新的任務。其基本思想是從原領域提取知識,轉移到目標領域,遷移學習通過預訓練模型在源任務中學到的通用特征,可以為目標任務提供有用的信息,并且通過遷移預訓練模型,降低對目標任務大規(guī)模標注數(shù)據(jù)的依賴,同時減少模型訓練時間和計算資源。目前遷移學習已被廣泛用于計算機視覺、自然語言處理等多個領域,遷移學習的架構如圖8所示。

        3機器學習與深度學習實驗對比

        為了驗證機器學習方法與深度學習方法在地基云識別中的優(yōu)劣,分別使用常用的機器學習方法與深度學習方法在SWIMCAT數(shù)據(jù)集上進行對比,將數(shù)據(jù)集的訓練集與測試集的比值劃分為4:1。

        圖8遷移學習架構

        3.1 SWIMCAT數(shù)據(jù)集

        2020年之前,國內(nèi)外常用的標準云圖小數(shù)據(jù)集主要有SWIMCAT23]和CCSN[24]。近些年新發(fā)布的大規(guī)模地基云數(shù)據(jù)集有MGCD[2、GCD[和HBMCD[]等。SWIMCAT數(shù)據(jù)集的全稱為新加坡全天空成像分類數(shù)據(jù)集,由Dev等2利用廣角高分辨率天空成像設備WSI收集制作。該數(shù)據(jù)集包含784張精選云圖,被劃分為5類:晴空(clearsky)混合云(patternedclouds)厚黑云(thickdarkclouds)厚白云(thickwhiteclouds)和薄云(veil clouds)。

        數(shù)據(jù)集樣本云圖如圖9所示,數(shù)據(jù)集信息見表2。

        圖9SWIMCAT數(shù)據(jù)集樣本圖像
        表2SWIMCAT數(shù)據(jù)集介紹

        3.2 分類評定指標

        在多分類任務中,準確率是用來評定分類模型的分類性能好壞最常用的指標。準確率(Accuracy)表示為所有正確預測的數(shù)量除于數(shù)據(jù)集的總數(shù)。準確率計算公式如下所示

        式中: TP,F(xiàn)P,F(xiàn)N,TN 為二分類中混淆矩陣根據(jù)真實值與預測值的不同包括的真正類、假負類、假正類和真負類4種,具體定義見表3。

        表3TP、FP、FN、TN定義

        3.3 實驗設置

        為驗證遷移學習技術在地基云識別領域上的優(yōu)越性,在SWIMCAT數(shù)據(jù)集上分別進行了使用遷移學習技術與不適用遷移學習技術實現(xiàn)地基云識別的實驗,設置訓練集、測試集、驗證集比例為3:1:1,使用VGG16網(wǎng)絡進行訓練。

        在SWIMCAT數(shù)據(jù)集上訓練前,每個CNN模型使用遷移學習加載預訓練權重,并以學習率0.0001訓練20輪,學習率衰減設置每個步長衰減值為0.96,優(yōu)化器使用Adam,損失函數(shù)使用交叉熵損失。對比實驗的機器學習方法有BOW、LBP、CLBP三種,其中LBP和CLBP的參數(shù) P 和 R 的比值設為8:1,直方圖的維度設為256,3種方法的分類器都使用SVM分類。

        3.4 結果分析

        非遷移學習與遷移學習的實驗的訓練曲線如圖10所示,圖中橫坐標 x 表示訓練輪次,縱坐標 y 表示準確率,圖中用小數(shù)表示,計算方式為( (y×100)% 。在測試集上非遷移學習得到了 87.90% 的識別準確率,而遷移學習得到了 99.36% 的識別準確率。

        從實驗結果可知,遷移學習在訓練速度上也顯著優(yōu)于非遷移學習,非遷移學習訓練了8輪才收斂,而遷移學習只用了2到3輪就成功收斂。由此可以看出,在利用深度學習對地基云進行識別時,遷移學習能夠使模型的準確率迅速提升,同時加快收斂速度,并顯著提高最終的分類精度。采用遷移學習加載預訓練權重的模型,其初始權重相比隨機初始化或常規(guī)初始化方法生成的權重,更接近于訓練后的理想權重。此外,遷移學習能夠有效將損失降低到局部最小值,從而顯著提升模型的訓練效率和分類性能。

        機器學習與深度學習的實驗結果見表4??梢钥闯?,6種結合遷移學習的CNN模型在SWIMCAT數(shù)據(jù)集上的準確率均超過 98% ,遠高于3種機器學習方法的最高準確率 (73.89% )。這是因為機器學習方法依賴于手工特征,特征提取有限,而CNN能自動從圖像中提取特征,遷移學習使得CNN的初始權重更接近預測值,減少了梯度消失和過擬合等問題,大大提高了識別精度和速度。通過對機器學習和深度學習的實驗對比,可以證明,在地基云分類領域遷移學習與深度學習方法結合的性能顯著優(yōu)于機器學習方法。

        圖10遷移學習與非遷移學習實驗對比
        表4機器學習與深度學習實驗結果對比

        4結論

        本文在SWIMCAT數(shù)據(jù)集上對比了3種機器學習方法和6種基于遷移學習的CNN模型。實驗結果顯示,深度學習方法在地基云識別領域具有顯著優(yōu)勢,結合遷移學習能使模型的準確率快速上升,曲線快速收斂,并且可以顯著提高最終識別的準確率。深度學習卓越的性能和簡便的實驗操作使其成為研究者們的首選,這種優(yōu)勢也激勵研究者們探索更多網(wǎng)絡結構和深度學習算法,以進一步推進地基云識別任務的研究,為后續(xù)進行地基云識別算法的深入研究奠定理論基礎。

        參考文獻:

        [1] LI S,WANG M, SUN S, et al.CloudDenseNet: Lightweight Ground-Based Cloud Classification Method for Large-Scale Datasets Based on Reconstructed DenseNet[J]. Sensors,2023,23(18):7957.

        [2] MORF H. Sunshine and cloud cover prediction based on Markov processes[J]. Solar Energy,2014,110:615-626.

        [3]邵東威.協(xié)同GAN與自注意力時空LSTM的臺風云圖預測 研究[D].:,2021.

        [4] SINGH M,GLENNEN M. Automated ground-based cloud recognition[J].Pattern analysis and applications,2Oo5,8:258- 271.

        [5] ZHUO W,CAO Z, XIAO Y. Cloud classification of ground -based images using texture-structure features [J]. Journal of Atmospheric and Oceanic Technology,2014,31 (1):79-92.

        [6]HEINLE A,MACKE A,SRIVASTAV A. Automatic cloud classification of whole sky images[J]. Atmospheric Measurement Techniques,2010,3(3):557-567.

        [7] CHENG H Y,YU C C.Block-based cloud classification withstatistical features and distribution of local texture features [J]. Atmospheric Measurement Techniques,2O15,8(3): 1173-1182.

        [8] TARAVAT A,DEL FRATE F,CORNARO C,et al. Neural networks and support vector machine algorithms for automatic cloud classification of whole-sky ground-based images[J].IEEE Geoscience and remote sensing letters,2014,12 (3):666-670.

        [9] DENGL,YUD.Deep learning:methods and applications[J]. Foundations and trends in signal processing,2014,7(3/4): 197-387.

        [10] YE L,CAO Z,XIAO Y.DeepCloud:Ground-based cloud image categorization using deep convolutional features [J].IEEE Transactions on Geoscience and Remote Sensing,2017,55(10):5729-5740.

        [11]LI G.A novel computer-aided cloud type classification methodbasedonconvolutional neuralnetworkwith squeeze-and-excitation [Cl//Journal of Physics: Conference Series.IOP Publishing,2021,1802(3):032-051.

        [12]ZHANGL,JIAK,LIUP,etal.Cloud recognitionbased onlightweight neural network [C]//2O2O Asia-Pacific Signal and Information Processing Association Annual Summit and Conference (APSIPA ASC). IEEE,2020:1033-1042.

        [13] ZHANG J,LIU P,ZHANG F,etal.Ensemble meteorological cloud classification meets internet of de pendable and controllable things[J].IEEE Internet of Things Journal,2020,8(5):3323-3330.

        [14] LI W,GONG Y,LIUJ,et al.Peripheral and central pathological mechanisms of chronic low back pain:a narrativereview[J].Journal ofPain Research,2O21:1483-1494.

        [15] HE F,LIU T,TAO D.Why resnet works? residuals generalize [J].IEEE transactions on neural networks and learningsystems,2020,31(12):5349-5362.

        [16] KUNCAN M. An intelligent approach for bearing fault diagnosis: combination of 1D-LBP and GRA [J]. IEEE Access,2020,8:137517-137529.

        [17] GAN J,LU W,LIQ,et al.Cloud type classification of total-sky images using duplex norm-bounded sparse coding[J].IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing,2017,10(7):3360-3372.

        [18]SIMONYAN K,ZISSERMAN A.Very deep convolutional networks for large-scale image recognition. arXiv 2014[J]. arXivpreprintarXiv:1409.1556,2019,1556.

        [19]BANSALM,KUMARM,SACHDEVA M,et al.Transfer learning for image classification using VGG19:Caltech101 image data set [J].Journal of ambient intelligence and humanized computing,2021:1-12.

        [20] HE K,ZHANG X,REN S,et al. Deep residual learning forimage recognition [C]//Proceedings of the IEEE conference on computer vision and pattern recognition.2016: 770-778.

        [21] ZHANG Q. A novel ResNet1O1 model based on dense dilated convolution for image classification[J]. SN Applied Sciences,2022,4:1-13.

        [22] WANG C,CHEN D,HAO L,et al. Pulmonary image classification based on inception-v3 transfer learning model[J].IEEE Access,2019,7:146533-146541.

        [23]胡樹貞,馬舒慶,陶法,等.地基雙波段測云系統(tǒng)及其對比試 驗[J].應用氣象學報,2012,23(4):441-450.

        [24] ZHANG J,LIU P,ZHANG F,et al. CloudNet:Groundbased cloud classification with deep convolutional neural network [J].Geophysical Research Letters,2018,45(16): 8665-8672.

        [25] DEV S,LEE Y H,WINKLER S. Categorization of cloud image patches using an improved texton-based approach[C] //2015 IEEE international conference on image processing (ICIP).IEEE,2015:422-426.

        [26] LIU S,DUAN L,ZHANG Z,et al. Ground-based remote sensing cloud classification via context graph attention network [J].IEEE Transactions on Geoscience and Remote Sensing,2021,60:1-11.

        猜你喜歡
        分類深度特征
        分類算一算
        深度理解一元一次方程
        如何表達“特征”
        不忠誠的四個特征
        當代陜西(2019年10期)2019-06-03 10:12:04
        分類討論求坐標
        深度觀察
        深度觀察
        深度觀察
        數(shù)據(jù)分析中的分類討論
        教你一招:數(shù)的分類
        最新国产三级| 美女扒开屁股让男人桶| 亚洲国产成人精品无码区二本 | 亚洲熟女av超清一区二区三区| 最新国内视频免费自拍一区| 一区二区三区极品少妇| 久久成人成狠狠爱综合网| 国产成年无码v片在线| 国产精品福利小视频| 国产呦系列呦交| 高清不卡av一区二区| 国产成人精品2021| 日本免费a级毛一片| 国产精在线| 黑人免费一区二区三区| 日本中文一区二区在线| 久久精品人人做人人爱爱| 久久99久久99精品免观看 | 在线综合亚洲欧洲综合网站| 亚洲国产成人va在线观看天堂| 国产欧美成人| 日本在线中文字幕一区| 性av一区二区三区免费| 久久久久久人妻一区精品| 国产欧美一区二区成人影院| 亚洲国产线茬精品成av| 全部亚洲国产一区二区| 久久狠狠色噜噜狠狠狠狠97| 精品无码专区久久久水蜜桃| 国产精品天干天干在线观蜜臀| 加勒比东京热一区二区| 亚洲av永久无码精品三区在线 | 亚洲香蕉视频| 亚洲国产成人av第一二三区| 成人影院在线视频免费观看| 亚洲国产美女精品久久久| 男人的天堂av网站一区二区| 蜜桃视频在线在线观看| 中文无码一区二区三区在线观看| 射死你天天日| 久热re在线视频精品免费|