亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        機(jī)場(chǎng)能見(jiàn)度預(yù)測(cè)模型研究

        2024-10-01 00:00:00劉晴潘子宇李銀潔魏萊陳丹妮
        無(wú)線(xiàn)互聯(lián)科技 2024年18期

        摘要:在霧霾天氣下,基于圖像處理的能見(jiàn)度檢測(cè)方法仍然在不斷研究中,對(duì)能見(jiàn)度估算值的精度依然具有提升空間。文章以大數(shù)據(jù)為基礎(chǔ),改進(jìn)VGG卷積神經(jīng)網(wǎng)絡(luò)提取視頻數(shù)據(jù)的特征并利用Adam進(jìn)行算法優(yōu)化,充分挖掘監(jiān)控視頻數(shù)據(jù)信息,以達(dá)到提高精度及降低設(shè)備成本的目的。相比于ResNet,這一方法充分利用了視頻數(shù)據(jù)的時(shí)空信息,在預(yù)測(cè)過(guò)程中表現(xiàn)出較高的精度和準(zhǔn)確性。這項(xiàng)研究對(duì)提升機(jī)場(chǎng)能見(jiàn)度預(yù)測(cè)的效果提供了借鑒。

        關(guān)鍵詞:能見(jiàn)度預(yù)測(cè);卷積神經(jīng)網(wǎng)絡(luò);機(jī)場(chǎng)監(jiān)控視頻

        中圖分類(lèi)號(hào):TP183 文獻(xiàn)標(biāo)志碼:A

        0 引言

        根據(jù)飛行安全統(tǒng)計(jì),機(jī)場(chǎng)能見(jiàn)度低是造成飛行事故的原因之一。目前,許多學(xué)者將機(jī)器視覺(jué)和深度學(xué)習(xí)應(yīng)用于能見(jiàn)度預(yù)測(cè)中。周開(kāi)鵬等[1]對(duì)比神經(jīng)網(wǎng)絡(luò)模型和多元逐步回歸法的預(yù)報(bào)準(zhǔn)確率,表明神經(jīng)網(wǎng)絡(luò)對(duì)低能見(jiàn)度的預(yù)測(cè)更接近實(shí)際變化。千月欣等[2]對(duì)比了基于Squeezenet的遷移學(xué)習(xí)模型和15層深度卷積神經(jīng)網(wǎng)絡(luò),表明搭建的15層深度卷積神經(jīng)網(wǎng)絡(luò)模型更適用于機(jī)場(chǎng)能見(jiàn)度預(yù)測(cè)。徐悅等[3]提出了一種基于U-Ne深度學(xué)習(xí)的霧天夜間機(jī)場(chǎng)能見(jiàn)度預(yù)測(cè)方法。祁媛等[4]選用ResNet卷積神經(jīng)網(wǎng)絡(luò)提取機(jī)場(chǎng)視頻數(shù)據(jù)的特征向量進(jìn)行預(yù)測(cè),模型精度達(dá)80.3%。黃晉等[5]探討了視頻數(shù)據(jù)與能見(jiàn)度估計(jì)的VGG卷積神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)模型,模型精度則達(dá)到了88.3%。

        因此,本文選用VGG卷積神經(jīng)網(wǎng)絡(luò)對(duì)視頻數(shù)據(jù)進(jìn)行深度學(xué)習(xí),充分挖掘視頻中的時(shí)空信息,并在對(duì)圖像進(jìn)行分類(lèi)前,對(duì)圖像進(jìn)行有針對(duì)性的增強(qiáng)和降噪,以達(dá)到使模型具有更好魯棒性的效果。

        1 視頻數(shù)據(jù)預(yù)處理

        1.1 數(shù)據(jù)預(yù)處理

        在大霧條件下,本文獲取了攝像頭拍攝的視頻,并同時(shí)收集了同一時(shí)間段的機(jī)場(chǎng)能見(jiàn)度數(shù)據(jù),包括RVR、MOR、VIS、光照強(qiáng)度、風(fēng)、溫度和濕度等信息。為了便于分析,將視頻按幀截取圖像,設(shè)定間隔為22幀,獲得了2020年3月13日0時(shí)—7時(shí)59分00秒的27941幅影像。然后從每一分鐘內(nèi)的15 s、30 s、45 s和00 s提取圖像,生成了1860張圖像,構(gòu)成了機(jī)場(chǎng)能見(jiàn)度預(yù)測(cè)數(shù)據(jù)集。視頻中的數(shù)據(jù)與收集的能見(jiàn)度數(shù)據(jù)形成了一一對(duì)應(yīng)的關(guān)系。能見(jiàn)度有氣象光學(xué)視程(MOR)[6-7]、主導(dǎo)能見(jiàn)度(VIS)[8]、跑道視程(RVR)[9]3種。綜合比較MOR、VIS、RVR,本文在后續(xù)的研究中將會(huì)使用MOR值作為參考項(xiàng)進(jìn)行分析。

        對(duì)本文所需的視頻圖像數(shù)據(jù)進(jìn)行必要的預(yù)處理,根據(jù)得到的能見(jiàn)度數(shù)據(jù),結(jié)合能見(jiàn)度等級(jí)表,使用等級(jí)分析法對(duì)能見(jiàn)度進(jìn)行分級(jí),粗略地劃分為4個(gè)等級(jí):MOR≤50 m;50 m<MOR≤200 m;200 m<MOR≤500 m;500 m<MOR 。將這4個(gè)等級(jí)作為4種類(lèi)別,建立基于視頻數(shù)據(jù)的能見(jiàn)度估計(jì)深度學(xué)習(xí)模型。

        1.2 數(shù)據(jù)增強(qiáng)

        考慮到數(shù)據(jù)集中各個(gè)能見(jiàn)度等級(jí)樣本數(shù)量的不平衡,本文對(duì)MID和HIGH等級(jí)的樣本進(jìn)行重點(diǎn)增強(qiáng)。通過(guò)應(yīng)用各種圖像變換技術(shù),如旋轉(zhuǎn)、縮放、裁剪等,本文生成了額外的樣本,如表1所示,以平衡數(shù)據(jù)集中各類(lèi)別的樣本數(shù)量。

        同時(shí),為了進(jìn)一步提高模型的魯棒性和泛化性能,本文還對(duì)圖像進(jìn)行了降噪處理。經(jīng)過(guò)實(shí)驗(yàn)比對(duì)后,選取了Retinex方法進(jìn)行圖像增強(qiáng),并選擇中值濾波作為圖像降噪技術(shù)。增強(qiáng)后的圖像降噪可以顯著改善圖像質(zhì)量,消除或減輕圖像中的噪聲,提高圖像的視覺(jué)效果。

        2 VGG卷積神經(jīng)網(wǎng)絡(luò)

        卷積神經(jīng)網(wǎng)絡(luò)是一種新興的具有深度學(xué)習(xí)能力的人工神經(jīng)網(wǎng)絡(luò)系統(tǒng),并且得到了廣泛的關(guān)注。卷積神經(jīng)網(wǎng)絡(luò)具有適應(yīng)性強(qiáng)、善于挖掘數(shù)據(jù)局部特征、全局訓(xùn)練特征抽取器和分類(lèi)器等優(yōu)點(diǎn),因此,被應(yīng)用到模式識(shí)別中的各個(gè)領(lǐng)域并取得了很好的成果。與傳統(tǒng)的圖像分類(lèi)方法相比,卷積神經(jīng)網(wǎng)絡(luò)能夠直接將圖像數(shù)據(jù)作為輸入,不需要人工的預(yù)處理及特征提取等操作,通過(guò)局部感受野、權(quán)值共享、池化層下采樣減少了很多參數(shù),盡可能保留了重要參數(shù),同時(shí)具有一定程度的平移、旋轉(zhuǎn)、尺度和非線(xiàn)性形變穩(wěn)定性,可以保留鄰域的聯(lián)系和空間的局部特點(diǎn)。因此,本文選取VGG卷積神經(jīng)網(wǎng)絡(luò),該模型可以在保證整個(gè)網(wǎng)絡(luò)結(jié)構(gòu)簡(jiǎn)潔的前提下,在保持相同感受野的同時(shí)能夠減少參數(shù)量,達(dá)到不錯(cuò)的效果。

        3 基于卷積神經(jīng)網(wǎng)絡(luò)的能見(jiàn)度預(yù)測(cè)

        機(jī)場(chǎng)能見(jiàn)度的高低與大霧的形成消散過(guò)程密切相關(guān)。通過(guò)計(jì)算機(jī)圖像處理和判斷可以避免主觀和任意性,能夠在連續(xù)的時(shí)間范圍內(nèi)描述大霧的整個(gè)變化過(guò)程,具有成本低、連續(xù)性強(qiáng)、操作簡(jiǎn)便和覆蓋范圍廣的優(yōu)點(diǎn)。本文利用機(jī)場(chǎng)視頻數(shù)據(jù)結(jié)合地面氣象觀測(cè)數(shù)據(jù)分析得到能見(jiàn)度的大小,根據(jù)視頻中的特征信息將其與能見(jiàn)度數(shù)據(jù)建立對(duì)應(yīng)的關(guān)系,建立深度學(xué)習(xí)模型,分析得到能見(jiàn)度也就是霧的濃厚程度,評(píng)估能見(jiàn)度并進(jìn)行精度驗(yàn)證。

        3.1 建立深度學(xué)習(xí)模型

        在基于VGG16特征提取網(wǎng)絡(luò)的基礎(chǔ)上,本文對(duì)全連接層進(jìn)行了優(yōu)化。在深度學(xué)習(xí)中,全連接層是神經(jīng)網(wǎng)絡(luò)中最基本的組成部分,負(fù)責(zé)連接2個(gè)節(jié)點(diǎn),實(shí)現(xiàn)數(shù)據(jù)的傳遞和計(jì)算。全連接層的優(yōu)化是深度學(xué)習(xí)性能提升的關(guān)鍵。原網(wǎng)絡(luò)中的全連接層使用4096個(gè)神經(jīng)元,不僅增加了算法的復(fù)雜度和參數(shù)量,還會(huì)致使訓(xùn)練時(shí)不易收斂。由于本文僅須要對(duì)4類(lèi)圖像進(jìn)行分類(lèi),所需參數(shù)相對(duì)較少,本文采取參數(shù)減少的策略,將2個(gè)全連接層的神經(jīng)元數(shù)量從4096個(gè)分別減少至256個(gè)和128個(gè),顯著降低了參數(shù)量,使模型的速度和精度均獲得了提升。

        同時(shí),為了充分利用已訓(xùn)練好的大型網(wǎng)絡(luò)的特征提取能力,本文采用了遷移學(xué)習(xí)的思想。這使得模型能夠迅速適應(yīng)新的任務(wù),同時(shí)保持較高的性能。VGG16的主干特征提取部分經(jīng)過(guò)大量數(shù)據(jù)的訓(xùn)練,已經(jīng)具備了良好的魯棒性和特征提取效果。因此,本文直接使用VGG16特征提取網(wǎng)絡(luò)的預(yù)訓(xùn)練權(quán)重和參數(shù),并在訓(xùn)練過(guò)程中僅對(duì)全連接層進(jìn)行微調(diào)。具體步驟如圖1所示。

        激活函數(shù)在深度神經(jīng)網(wǎng)絡(luò)模型中占據(jù)著核心地位,其特性通常表現(xiàn)為非線(xiàn)性,這一性質(zhì)使得神經(jīng)網(wǎng)絡(luò)能夠有效地對(duì)實(shí)際問(wèn)題中非線(xiàn)性分布的數(shù)據(jù)進(jìn)行建模[10]。同時(shí)激活函數(shù)的選擇也會(huì)直接影響到整個(gè)模型是否能夠成功收斂及其收斂效果[11]。其中Sigmoid、Tanh、ReLU都是常用的激活函數(shù),但是有不同的函數(shù)特性。

        Sigmoid函數(shù)的輸出范圍為0~1,導(dǎo)致其在輸入很大或很小時(shí)梯度接近于0,這會(huì)導(dǎo)致反向傳播過(guò)程中的梯度消失或飽和問(wèn)題。Tanh函數(shù)雖然相對(duì)于Sigmoid函數(shù)在輸出范圍上有所改進(jìn),但仍然存在類(lèi)似的問(wèn)題。相比之下,ReLU函數(shù)在輸入大于0時(shí)不存在梯度飽和,如圖2所示,幾乎不會(huì)造成梯度彌散[12]。且神經(jīng)元的稀疏性有助于減少過(guò)擬合的發(fā)生。

        綜合以上ReLU函數(shù)的優(yōu)點(diǎn),故本文在全連接層選用ReLU函數(shù)作為激活函數(shù)。

        3.2 模型優(yōu)化

        模型訓(xùn)練過(guò)程采用了學(xué)習(xí)率調(diào)整器、早停機(jī)制和Adam優(yōu)化算法。學(xué)習(xí)率調(diào)整器根據(jù)驗(yàn)證集性能動(dòng)態(tài)調(diào)整學(xué)習(xí)率,加速訓(xùn)練并提高驗(yàn)證集性能。早停機(jī)制監(jiān)控驗(yàn)證集損失,避免過(guò)擬合。Adam算法自適應(yīng)估計(jì)低階矩,為每個(gè)參數(shù)設(shè)置不同的學(xué)習(xí)率,提升預(yù)測(cè)速度和準(zhǔn)確性。

        在實(shí)際應(yīng)用中,Adam算法往往展現(xiàn)出卓越的性能,相較于其他自適應(yīng)學(xué)習(xí)率算法,其收斂速度更快,學(xué)習(xí)效果更佳。算法的有效性在很大程度上取決于數(shù)據(jù)特點(diǎn)是否與算法特性相匹配[13]。Adam將隨機(jī)梯度下降法2種擴(kuò)展的優(yōu)勢(shì)結(jié)合在一起,其在梯度下降中的優(yōu)化過(guò)程如下。

        (1)初始化參數(shù):初始化模型的參數(shù)。

        (2)計(jì)算梯度:使用隨機(jī)梯度下降(SGD)計(jì)算當(dāng)前批次樣本的梯度。

        (3)更新一階矩估計(jì)變量mt和二階矩估計(jì)變量vt:

        mt=β1mt-1+(1-β1)gt(1)

        vt=β2vt-1+(1-β2)g2t(2)

        式中,gt表示當(dāng)前梯度;β1和β2是可調(diào)節(jié)的指數(shù)衰減率,一般取值分別為0.900和0.999。

        (4)mt和vt的初始均為零向量,因此衰減率在初始時(shí)間可能會(huì)偏向零向量,故需要進(jìn)行偏差校正,公式如下:

        的梯度帶權(quán)有偏方差。

        (5)更新模型參數(shù)θt。

        式中,θt表示模型的參數(shù);ε是一個(gè)很小的數(shù),用于避免除零錯(cuò)誤;η為學(xué)習(xí)率。

        4 網(wǎng)絡(luò)訓(xùn)練及預(yù)測(cè)

        4.1 評(píng)價(jià)指標(biāo)

        本文主要采用損失函數(shù)、混淆矩陣來(lái)對(duì)模型進(jìn)行評(píng)價(jià)。其中,損失函數(shù)為交叉熵,損失函數(shù)模型學(xué)習(xí)的過(guò)程就是模型的權(quán)重不斷更新的過(guò)程,直到損失函數(shù)值趨于穩(wěn)定[14]。其計(jì)算公式為:

        式中,n是樣本數(shù);yi是第i個(gè)樣本的真實(shí)標(biāo)簽;pi是樣本i預(yù)測(cè)的概率。

        從混淆矩陣當(dāng)中可以得到更高級(jí)的分類(lèi)指標(biāo)。

        (1)Accuracy(精確率)。用來(lái)表示模型分類(lèi)正確的樣本占總樣本的比例,即:

        (2)Precision(正確率或者準(zhǔn)確率)。表示預(yù)測(cè)為正類(lèi)的樣本中真正為正類(lèi)的樣本所占的比例,即:

        (3)Recall(召回率)。表示在實(shí)際正樣本中,分類(lèi)器能預(yù)測(cè)出多少正樣本,即:

        4.2 實(shí)驗(yàn)結(jié)果分析

        本文的實(shí)驗(yàn)基于一個(gè)包含5251個(gè)樣本的數(shù)據(jù)集,其中90%被用作訓(xùn)練集,剩余的樣本被用作測(cè)試集。模型的實(shí)現(xiàn)基于Tensorflow框架,在訓(xùn)練期間,單次傳遞給模型用以訓(xùn)練的數(shù)據(jù)(樣本)個(gè)數(shù)為16個(gè),使用Adam優(yōu)化器進(jìn)行訓(xùn)練,學(xué)習(xí)率設(shè)置為0.001。

        運(yùn)行出的結(jié)果如圖2所示,展示了損失函數(shù)值和準(zhǔn)確率隨訓(xùn)練次數(shù)的變化情況。損失函數(shù)值隨訓(xùn)練次數(shù)的增加而不斷下降,趨于收斂。損失函數(shù)的橫坐標(biāo)是訓(xùn)練的迭代次數(shù)(Epochs),縱坐標(biāo)表示模型在每個(gè)訓(xùn)練迭代的損失值。精度圖的橫坐標(biāo)表示訓(xùn)練的迭代次數(shù)(Epochs),與損失函數(shù)圖的橫坐標(biāo)相同,縱坐標(biāo)表示模型在每個(gè)訓(xùn)練迭代上的預(yù)測(cè)精度。

        實(shí)驗(yàn)發(fā)現(xiàn),設(shè)置Epoch為50個(gè)進(jìn)行訓(xùn)練時(shí),模型的效果最好。在50個(gè)Epoch內(nèi),模型共進(jìn)行了36次迭代訓(xùn)練,當(dāng)損失函數(shù)值趨于穩(wěn)定時(shí),停止訓(xùn)練。

        通過(guò)繪制混淆矩陣,如圖3所示,驗(yàn)證VGG16模型在能見(jiàn)度變化規(guī)律的量化分析與預(yù)測(cè)中的有效性和可行性[15]?;煜仃嚨男斜硎菊鎸?shí)標(biāo)簽(True Label),列表示預(yù)測(cè)標(biāo)簽(Predicted Label)。根據(jù)混淆矩陣的分析,可以觀察到優(yōu)化后的模型在區(qū)分LOW和HIGH 2種類(lèi)別上表現(xiàn)較為優(yōu)越。這2種類(lèi)別在圖像特征上具有顯著區(qū)別,因此模型相對(duì)容易做出正確分類(lèi)。相比之下,MID和VERY_HIGH 2種類(lèi)別則更容易被混淆,可能導(dǎo)致錯(cuò)誤分類(lèi)的情況發(fā)生。以此可得出模型評(píng)估參數(shù),如表2所示。

        由表2可知,在本次基于視頻數(shù)據(jù)估計(jì)能見(jiàn)度的研究中,VGG16能夠獲得較好的預(yù)測(cè)精度。

        5 結(jié)語(yǔ)

        本文使用VGG16卷積神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)模型來(lái)評(píng)估機(jī)場(chǎng)能見(jiàn)度,并對(duì)模型算法做出改進(jìn),使模型精度跟效率都得到提升,最后利用損失函數(shù)和混淆矩陣對(duì)能見(jiàn)度估計(jì)效果進(jìn)行精度分析評(píng)價(jià)。本文所采用基于卷積神經(jīng)網(wǎng)絡(luò)和遷移學(xué)習(xí)的深度學(xué)習(xí)模型,能夠獲得較好的預(yù)測(cè)精度,訓(xùn)練準(zhǔn)確率最高達(dá)到了90%。后續(xù)選取測(cè)試集對(duì)模型效果進(jìn)行評(píng)估,精度達(dá)到89.7%,證明了模型估計(jì)能見(jiàn)度的準(zhǔn)確性。

        參考文獻(xiàn)

        [1]周開(kāi)鵬,黃萌,樊旭,等.基于逐步回歸和神經(jīng)網(wǎng)絡(luò)的北京市能見(jiàn)度預(yù)報(bào)對(duì)比[J].蘭州大學(xué)學(xué)報(bào)(自然科學(xué)版),2020(4):522-526.

        [2]千月欣,王永忠,李佳駿,等.基于深度學(xué)習(xí)的機(jī)場(chǎng)能見(jiàn)度預(yù)測(cè)研究[J].云南民族大學(xué)學(xué)報(bào)(自然科學(xué)版),2021(6):615-620.

        [3]徐悅,袁寶璽,米辰,等.基于深度學(xué)習(xí)的霧天夜間機(jī)場(chǎng)能見(jiàn)度預(yù)測(cè)方法[J].電子制作,2021(23):60-62.

        [4]祁媛,樊輝,張瑞華,等.基于ResNet卷積神經(jīng)網(wǎng)絡(luò)的機(jī)場(chǎng)能見(jiàn)度預(yù)測(cè)[J].自動(dòng)化應(yīng)用,2023(24):206-209.

        [5]黃晉,李保強(qiáng),呂明燕,等.基于VGG卷積神經(jīng)網(wǎng)絡(luò)的機(jī)場(chǎng)能見(jiàn)度預(yù)測(cè)[J].集成電路應(yīng)用,2022(3):58-59.

        [6]黃儀方.航空氣象[M].西安:西安交通大學(xué)出版社,2011.

        [7]劉敏,趙普洋.氣象光學(xué)視程(MOR)在民用航空地面氣象觀測(cè)中的應(yīng)用[J].氣象水文海洋儀器,2012(1):78-80.

        [8]張高杰,強(qiáng)曉西,董愛(ài)民,等.西安機(jī)場(chǎng)低能見(jiàn)度天氣下RVR與VIS替代關(guān)系研究[J].科技創(chuàng)新導(dǎo)報(bào),2020(14):117-118.

        [9]楊帆.一次雪后跑道視程(RVR)數(shù)值偏低原因分析[J].成都航空職業(yè)技術(shù)學(xué)院學(xué)報(bào),2021(1):46-48.

        [10]李玥辰,趙曉,王若男,等.基于改進(jìn)卷積神經(jīng)網(wǎng)絡(luò)的中藥飲片圖像識(shí)別[J].科學(xué)技術(shù)與工程,2024(9):3596-3604.

        [11]牟晉娟.深度神經(jīng)網(wǎng)絡(luò)中激活函數(shù)的研究[J].電腦編程技巧與維護(hù),2019(12):21.

        [12]劉宇晴.一種新型自適應(yīng)神經(jīng)網(wǎng)絡(luò)激活函數(shù)用于深度學(xué)習(xí)研究[D].吉林:吉林大學(xué),2020.

        [13]張益.基于卷積神經(jīng)網(wǎng)絡(luò)算法的海水循環(huán)冷卻污損生物分類(lèi)模型[EB/OL].(2024-04-01)[2024-05-03].https://doi.org/10.19965/j.cnki.iwt.2023-1122.

        [14]劉峰.融合神經(jīng)網(wǎng)絡(luò)和優(yōu)化算法的網(wǎng)絡(luò)安全態(tài)勢(shì)評(píng)估及預(yù)測(cè)模型研究[J].微型電腦應(yīng)用,2024(3):19-22.

        [15]梁旭,王玲,趙書(shū)涵.基于殘差神經(jīng)網(wǎng)絡(luò)的雞蛋分類(lèi)識(shí)別研究[J].河南農(nóng)業(yè)大學(xué)學(xué)報(bào),2024(3):456-466.

        Research on airport visibility prediction model

        Abstract: In hazy weather, visibility detection methods based on image processing are still under continuous research, and the accuracy of visibility estimation is dependent on the accuracy of visibility estimation There is room for improvement. Based on big data, this paper improves VGG convolutional neural network to extract features of video data and uses Adam for algorithm optimization to fully mine surveillance video data information, so as to achieve the purpose of improving accuracy and reducing equipment cost. Compared with ResNet, this method makes full use of the spatio-temporal information of video data, and shows higher precision and accuracy in the prediction process. This study provides a reference for improving the effectiveness of airport visibility prediction.

        Key words: visibility forecast; convolutional neural network; airport surveillance video

        无码专区亚洲综合另类| 国产成人无码精品午夜福利a| 免费a级毛片出奶水| 久久久国产精品樱花网站| 日韩精品中文字幕 一区| 国产精品国产三级国产专区50| 日本亲近相奷中文字幕| 亚洲 中文 欧美 日韩 在线| 精品久久人人爽天天玩人人妻| 久久久国产精品免费无卡顿| 久久人妻精品中文字幕一区二区| 新中文字幕一区二区三区| 少妇高潮流白浆在线观看| 99精品视频免费热播| 久久国产亚洲中文字幕| 国产成人一区二区三区影院| 熟妇熟女乱妇乱女网站| 极品美女扒开粉嫩小泬| 亚洲AV无码中文AV日韩A| 尤物精品国产亚洲亚洲av麻豆| 天天干天天日夜夜操| 欧美粗大猛烈老熟妇| 久久国产亚洲AV无码麻豆| 国产自拍伦理在线观看| 完整版免费av片| 亚洲中文字幕久久无码精品| 亚洲依依成人综合在线网址| 国产精品国产三级国av在线观看| 国产精品亚洲二区在线看| 欧美人妻日韩精品| 青春草国产视频| 99国语激情对白在线观看| 午夜精品久久久久久久久| 精品久久人人妻人人做精品| AⅤ无码精品视频| 日本视频一区二区三区在线| 国产超碰女人任你爽| 国产午夜福利不卡在线观看视频| 视频福利一区二区三区| 亚洲精品国产电影| 午夜福利麻豆国产精品|