亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于深度學習的翼型氣動系數(shù)預測

        2018-04-25 12:03:14錢煒祺
        空氣動力學學報 2018年2期
        關(guān)鍵詞:池化氣動卷積

        陳 海, 錢煒祺, 何 磊

        (中國空氣動力研究與發(fā)展中心, 四川 綿陽 621000)

        0 引 言

        機翼氣動系數(shù)的計算是翼型設計與研究的主要內(nèi)容,對提高飛行性能具有重要意義。傳統(tǒng)方法通過計算流體力學(Computational Fluid Dynamics,CFD)計算或風洞試驗得到翼型氣動系數(shù),這一方法雖然被證明是有效的,但卻存在計算量大和試驗成本高等缺點。近年來,隨著神經(jīng)網(wǎng)絡和機器學習技術(shù)的發(fā)展,一種以智能學習為基礎(chǔ)的預測方法逐漸進入人們視野。這一方法以翼型設計參數(shù)和氣動系數(shù)作為學習對象,通過神經(jīng)網(wǎng)絡或支持向量機(Support Vector Machine,SVM)建立預測模型,對未知翼型的氣動系數(shù)進行預測,從而避免了大量的數(shù)值運算和試驗。文獻[1]以雷諾數(shù)、迎角、馬赫數(shù)為建模設計輸入,建立了BP 神經(jīng)網(wǎng)絡預測模型,對二維翼型NACA63-215的升力系數(shù)和阻力系數(shù)進行了預測。文獻[2]建立了RBF神經(jīng)網(wǎng)絡模型,用來預測在特定的振幅下,從波谷到波峰運動中,減縮頻率范圍1~5下任意一位移點的機翼升力系數(shù)和阻力系數(shù)。文獻[3]和文獻[4]將迎角、馬赫數(shù)、雷諾數(shù)、翼型幾何形狀為設計輸入,建立了神經(jīng)網(wǎng)絡模型,對翼型的氣動系數(shù)進行預測。文獻[5]將進化規(guī)劃算法與支持向量回歸算法相結(jié)合,用于預測具有不同幾何參數(shù)的機翼在不同迎角情況下的升力、阻力和滾轉(zhuǎn)力矩系數(shù)。以上方法為參數(shù)化學習方法,在建立預測模型和對翼型氣動系數(shù)進行預測時均需要翼型的設計參數(shù),如果設計參數(shù)過多,將給預測模型的建立帶來困難。并且當翼型設計方法發(fā)生變化時,即翼型參數(shù)的種類和數(shù)量等發(fā)生變化時,已建立起來的預測模型將失效。同時,以上方法為淺層學習方法,其算法復雜度將隨著樣本數(shù)量和模型精度的提高呈指數(shù)級增長。

        2006年以來,隨著機器學習和大數(shù)據(jù)的發(fā)展,深度學習作為機器學習的一個分支,得到了廣泛的認可和蓬勃的發(fā)展[6]。深度學習包含多種模型,主要有基于受限玻爾茲曼機(Restricted Boltzmann Machine,RBM)[7]的深度信念網(wǎng)絡(Deep Belief Network,DBN)[8]、基于自動編碼器(Auto-Encoder,AE)的堆疊自動編碼器(Stacked Auto-Encoders,SAE)[9]、卷積神經(jīng)網(wǎng)絡(Convolutional Neural Networks,CNN)[10]、遞歸神經(jīng)網(wǎng)絡(Recurrent Neural Networks,RNN)[11]等。將深度學習應用于翼型氣動系數(shù)預測,建立圖形化的預測模型,能夠克服上述方法的不足,提高預測精度。在各種深度學習模型中,CNN能夠直接將圖像作為輸入,并且能夠通過卷積核有效提取圖像中的特征,因此,特別適合翼型圖像處理。

        本文以翼型圖像作為輸入,建立CNN預測模型,對翼型特征進行提取與分類,最后通過回歸分析預測翼型的氣動系數(shù)。該方法為非參數(shù)化方法,不受翼型設計方法和設計參數(shù)的影響,在迎角、馬赫數(shù)和雷諾數(shù)一定的情況下,只要給出翼型圖像,就能夠利用預測模型預測出翼型的氣動系數(shù)。并且,借助于深度學習技術(shù),能夠有效解決由于訓練層數(shù)和樣本數(shù)的增大而帶來的算法復雜度急劇增加的問題。

        1 CNN基本原理

        作為神經(jīng)網(wǎng)絡領(lǐng)域的一個重要研究分支,CNN每一層的特征都由上一層的局部區(qū)域通過共享權(quán)值的卷積核激勵得到,即通過提取輸入數(shù)據(jù)的局部特征,并逐層組合抽象生成高層特征,這類似于生物神經(jīng)網(wǎng)絡的圖像識別過程。同時,CNN模型的容量可以通過改變網(wǎng)絡的深度和廣度來調(diào)整,能夠有效降低網(wǎng)絡模型的學習復雜度,具有更少的網(wǎng)絡連接數(shù)和權(quán)值參數(shù)。因此,CNN在圖像處理、語音識別、特征提取等領(lǐng)域得到了廣泛的應用。

        1.1 CNN的結(jié)構(gòu)

        如圖1所示,一個典型的CNN模型由輸入層、卷積層、池化層、全連接層和輸出層組成,根據(jù)具體問題的不同,CNN可能會有多個卷積層和池化層交替出現(xiàn),并含有多個全連接層。

        1) 數(shù)據(jù)輸入層(Data Input Layer)。在做圖像分析時,CNN的輸入為原始圖像X,如果是彩色圖則為三維RGB矩陣數(shù)據(jù),如果是灰度圖則為一維矩陣數(shù)據(jù)。數(shù)據(jù)輸入層還需要對圖像數(shù)據(jù)進行歸一化和去均值化的處理。

        2) 卷積層(Convolutional Layer)。卷積層是CNN的核心組成部分,通過不同的卷積核,來獲取圖像的特征。卷積核相當于一個濾波器,不同的濾波器提取不同特征。

        本文用Hi表示CNN第i層的特征圖(Feature Maps)(H0=X)。Hi的產(chǎn)生過程可以通過以下公式表示[12]:

        Hi=f(Hi-1?Wi+bi)

        (1)

        傳統(tǒng)CNN中的非線性激勵函數(shù)通常采用sigmoid、tanh或softsign等飽和非線性函數(shù)[13],近幾年多采用不飽和非線性函數(shù)ReLU(Rectified Linear Units)[14-15]。在訓練時,ReLU可以通過簡單的閾值化的激活來實現(xiàn)參數(shù)稀疏化,比傳統(tǒng)的飽和非線性函數(shù)有更快的收斂速度[16],因此在訓練整個網(wǎng)絡時,訓練速度也比傳統(tǒng)的方法快。

        3) 池化層(Pooling Layer)。CNN通過卷積層提取輸入圖像的特征后,就可以使用這些特征訓練網(wǎng)絡。但是實際上訓練CNN面臨的重要問題是龐大的計算量,特別是對于尺寸很大的圖像,網(wǎng)絡的訓練速度會很慢。為了進一步減少運算數(shù)據(jù)量,降低網(wǎng)絡訓練時間,CNN采用了在卷積層后面連接一個池化層(又稱下采樣層或次采樣層,Sub-sample Layer)的方式來減少數(shù)據(jù)量。池化的基本原理是根據(jù)圖像相對不變性的屬性,對圖像相鄰區(qū)域的特征信息進行聚合統(tǒng)計。

        常用的池化方法有平均池化和最大池化等。平均池化即對池化區(qū)域內(nèi)的像素值求平均;最大池化即對池化區(qū)域內(nèi)的像素值求最大值。特征提取時,平均池化通過保留圖像背景信息能減少因池化區(qū)域的受限造成估值方差而產(chǎn)生的誤差,而最大池化可以通過保留圖像紋理信息來減少卷積層參數(shù)誤差造成的估計均值偏移而產(chǎn)生的誤差[19]。

        4) 全連接層(Full Connected Layer)。全連接層由多個神經(jīng)元組成。通過CNN逐層提取到的特征輸出到全連接層,這樣使得整個CNN可以采用梯度下降法等算法進行全局訓練。

        5) 輸出層(Output Layer)。輸出層用于樣本的預測輸出,根據(jù)輸出模型的不同,可以用作回歸分析,也可以用作圖像分類等。

        1.2 CNN的訓練過程

        CNN的訓練過程如圖2所示。

        CNN的訓練過程包括前向計算和誤差反向傳播兩大步驟。前向計算主要是通過圖像的卷積和池化操作實現(xiàn)圖像特征的提取和映射,根據(jù)問題的不同可以進行多次卷積和池化操作,多次的提取過程能夠從圖像中提取到更多的有用信息;其次,將提取到的特征傳遞到全連接層,構(gòu)建常規(guī)的神經(jīng)網(wǎng)絡模型;最后,通過輸出層對數(shù)據(jù)信息進行變換和計算,得到預測結(jié)果。誤差反向傳播主要是將預測結(jié)果與期望結(jié)果進行對比得到的預測誤差,通過梯度下降等算法進行反向傳遞,更新網(wǎng)絡權(quán)值和偏置。在完成前向計算和誤差反向傳播后,如果未達結(jié)束條件,則繼續(xù)上述步驟對CNN進行訓練。CNN訓練是否結(jié)束是通過對誤差閾值或迭代次數(shù)的判斷來實現(xiàn)的,本文使用后者作為結(jié)束條件。

        圖2 CNN的訓練過程Fig.2 Training process of CNN

        一般情況下,CNN輸入圖像的訓練樣本數(shù)量都很大,通用的處理方式是通過設定批量大小(batch size),將輸入樣本分成若干批次(batch),分批將圖像數(shù)據(jù)送入CNN進行訓練,訓練完成之后即進行誤差反向傳播和權(quán)值更新。輸入一批樣本完成訓練稱為一次循環(huán)(iteration),輸入所有樣本完成訓練稱為一次迭代(epoch)。設訓練樣本數(shù)為ntrain,批量大小為mbatch,一次迭代的批次數(shù)量為nbatch,完成CNN訓練的循環(huán)總次數(shù)為niteration,迭代次數(shù)為nepoch,則它們之間的關(guān)系可用如下兩式描述:

        (2)

        niteration=nepoch·nbatch

        (3)

        一般情況下,迭代次數(shù)越多,網(wǎng)絡擬合能力越強,預測精度越高,但也需要耗費更多的時間。

        本文建立基于CNN的圖形化預測方法對翼型氣動系數(shù)進行預測,并與參數(shù)化方法進行比較的流程如圖3所示。

        2 翼型氣動系數(shù)預測模型

        2.1 翼型圖像輸入

        本文為圖形化預測方法,輸入數(shù)據(jù)為翼型圖像。由于翼型圖像的橫坐標和縱坐標相差一個數(shù)量級,因此將縱坐標(即翼型厚度)放大10倍后進行作圖和計算,以減小訓練模型的擬合誤差。圖4隨機給出了12個翼型圖像及其法向力系數(shù)CN。

        圖3 翼型氣動系數(shù)預測流程Fig.3 Prediction flow of airfoil aerodynamic coefficients

        圖4 12個翼型圖像及法向力系數(shù)(翼型厚度放大10倍)Fig.4 12 images and normal force coefficients of airfoil

        本文中用于仿真的翼型圖像通過翼型函數(shù)生成,選取的基準翼型為NACA0012,型函數(shù)為Hicks-Henne[20-21]函數(shù),型函數(shù)數(shù)目為4。氣動力系數(shù)在迎角為2°、馬赫數(shù)為0.4、雷諾數(shù)為6.5×106的條件下,采用自主研發(fā)的流體計算軟件MBNS2D[22]計算得到。

        2.2 CNN結(jié)構(gòu)設計

        本文設計的CNN結(jié)構(gòu)如圖5所示。

        圖5 設計的CNN結(jié)構(gòu)Fig.5 Designed structure of CNN

        1) 輸入層。輸入層為翼型圖像,其分辨率越高,建立的預測模型越準確,但建模時間和預測時間都會相應的增加,因此需要選擇適中的分辨率。本文輸入翼型圖像選取為85×85像素的灰度圖像,即85×85的二維矩陣,取值在0~255之間。

        2) 卷積層1。大尺寸的卷積核可以帶來更大的局部感受區(qū)域,但也意味著更多的參數(shù),會使網(wǎng)絡速度變慢;卷積核數(shù)量越多,能夠描述的特征也越豐富,但計算量也會相應的增加,同時存在過擬合的風險。因此,需要選擇適當?shù)木矸e核大小和卷積數(shù)量。本文根據(jù)輸入圖像的分辨率,選取卷積核大小為6×6,卷積核數(shù)量為40,步長為1。經(jīng)過卷積響應和非線性激勵函數(shù)ReLU運算后,得到40個分辨率為80×80的特征圖。其中,ReLU函數(shù)的計算公式為:

        f(x)=max(0,x)

        (4)

        其函數(shù)曲線如圖6所示。

        圖6 ReLU激勵函數(shù)曲線Fig.6 Curve of activation function ReLU

        3) 池化層1。池化區(qū)域越大,步長越長,意味著特征圖分辨率的降幅越大,運算速度越快,但也會丟失更多的信息,存在欠擬合的風險。因此,需要選擇適當?shù)某鼗瘏?shù)。本文選取池化區(qū)域大小為2×2,步長為2,即相鄰池化區(qū)域不重疊。經(jīng)過池化處理后,得到40個分辨率為40×40的特征圖。

        4) 卷積層2。選取卷積核大小為5×5,卷積核數(shù)量為80,步長為1。經(jīng)過卷積響應和非線性激勵函數(shù)ReLU運算后,得到80個分辨率為36×36的特征圖。

        5) 池化層2。選取池化區(qū)域大小為2×2,步長為2。經(jīng)過池化處理后,得到80個分辨率為18×18的特征圖。

        6) 全連接層。全連接層的神經(jīng)元個數(shù)取決于池化層2中特征圖的分辨率及數(shù)量,本文設置一個全連接層,其神經(jīng)元個數(shù)為25 920個。

        7) 輸出層。本文的輸出層用作回歸分析,對翼型的氣動系數(shù)進行預測,其采用的激活函數(shù)為均方差(Mean Square Error,MSE):

        (5)

        其中,ti是期望值,yi是預測值。

        3 仿真分析

        3.1 CNN模型訓練

        本文生成的翼型圖像及其氣動系數(shù)樣本集總數(shù)為6561個。將這6561個樣本的順序打亂,隨機選擇6000個圖像作為訓練樣本,將法向力系數(shù)作為其期 望值,對CNN進行訓練;剩下的561個翼型圖像及其法向力系數(shù)作為測試樣本,對CNN的預測能力進行測試。訓練方法選擇動量隨機梯度下降法(StochNastic Gradient Descent with Momentum,SGDM)[23],動量參數(shù)設置為0.9;圖像輸入的批量大小設置為10,即每批輸入10個翼型圖像樣本進行訓練;迭代次數(shù)設置為30次;學習率設置為1×10-5;L2正則化參數(shù)設置為1×10-4;卷積核初始化權(quán)值設置為滿足均值為0,標準差為0.01的高斯分布隨機數(shù),偏置初始化為0。

        本文用于建模和仿真的計算機配置為:Intel Core i7-4470 3.7GHz CPU、16GB 內(nèi)存、NVIDIA Quadro K620顯卡。通過以上訓練參數(shù),采用顯卡GPU運算,建立CNN預測模型的時間大約為10分鐘,比利用CPU建立預測模型的時間快大約20倍。訓練過程中,每批樣本的均方根誤差(Root Mean Square Error,RMSE)隨循環(huán)次數(shù)的變化曲線如圖7

        所示。其中,RMSE通過下式計算得到:

        (6)

        圖7 CNN訓練過程中均方根誤差變化曲線Fig.7 RMSEs of CNN training process

        為了便于觀察,圖7中只給出了200次循環(huán)(即1/3次迭代)內(nèi)的RMSE變化情況。從圖中可以看出,經(jīng)過200次循環(huán)后,RMSE已下降到0.01以下,并且還有繼續(xù)下降的趨勢。

        3.2 CNN預測

        CNN訓練完成后,將561個測試翼型的圖像輸入CNN模型,即可得到其法向力系數(shù),預測時間不到1 s。圖8為測試翼型法向力系數(shù)的預測值與期望值示意圖。從圖中可以看出,預測值與期望值幾乎重合,預測精度非常高。

        圖8 預測結(jié)果Fig.8 Prediction results

        圖9為測試翼型的法向力系數(shù)誤差曲線。從圖中可以看出,最大誤差不超過1.25×10-3。

        圖9 預測誤差曲線Fig.9 Prediction errors

        為了進一步驗證本文提出的圖形化方法,將該方法與線性回歸、支持向量機等參數(shù)化方法進行了對比,其對比情況如表1所示。

        表1 預測結(jié)果對比Table 1 Comparison of prediction results

        表1中,RMSE為總的測試樣本均方根誤差,將式(9)中的mbatch更換為測試樣本數(shù)ntest即可計算得到;EP為誤差百分比,通過下式計算得到:

        (7)

        從表1中可以看出,參數(shù)化方法中效果最好的線性回歸方法,其EP和RMSE均大于本文提出的圖形化方法,其他參數(shù)化方法的EP和RMSE則更大。從而進一步說明了本文提出的圖形化方法具有更好的擬合和預測效果。

        4 結(jié) 論

        本文提出了一種基于深度學習的翼型氣動系數(shù)預測方法。該方法不依賴于翼型的設計方法和設計參數(shù),能夠在只給出翼型圖像的基礎(chǔ)上預測出翼型氣動系數(shù),并且具有很高的預測精度。

        通過本文的研究,說明深度學習在翼型氣動系數(shù)預測方面具有很好的應用前景,可以通過增加網(wǎng)絡層數(shù)、卷積核數(shù)量、迭代次數(shù)、全連接層數(shù)量、Dropout技術(shù)等措施,增加網(wǎng)絡的擬合能力,適應更加復雜的翼型。

        參考文獻:

        [1]Huang J H, Su H L, Zhao X H.Aerodynamic coefficient prediction of airfoil using BP neural network[J].Advances in Aeronautical Science and Engineering, 2010, 1(1): 36-39.(in Chinese)黃繼鴻, 蘇紅蓮, 趙新華.基于BP神經(jīng)網(wǎng)絡的翼型空氣動力系數(shù)預測[J].航空工程進展, 2010, 1(1): 36-39.

        [2]Liu X.Simulation of airfoil plunging aerodynamic parameter prediction based on neural network[J].Computer Simulation, 2015, 32(12): 61-71.(in Chinese)劉昕.基于神經(jīng)網(wǎng)絡的機翼氣動參數(shù)預測仿真研究[J].計算機仿真, 2015, 32(12): 61-71.

        [3]Wallach R, Mattos B S, Girardi R M, et al.Aerodynamic coefficient prediction of transport aircraft using neural network[C]//44th AIAA Aerospace Sciences Meeting and Exhibit.Reno: AIAA, 2006: 658-675.

        [4]Santos M C, Mattos B S, Girardi R M.Aerodynamic coefficient prediction of airfoils using neural networks[C]//46th AIAA Aerospace Sciences Meeting and Exhibit.Reno: AIAA, 2008: 887-902.

        [5]AndréS E, Salcedo-Sanz S, Monge F, et al.Efficient aerodynamic design through evolutionary programming and support vector[J].Expert Systems with Applications, 2012, 39(12): 10700-10708.

        [6]Hinton G E, Salakhutdinov R R.Reducing the dimensionality of data with neural networks[J].Science, 2006, 313(5786): 504-507.

        [7]Hinton G E.A practical guide to training Restricted Boltzmann Machines[EB/OL].http://www.cs.toronto.edu/~hinton/absps/guideTR.pdf.2010-08-02/2017-05-01.

        [8]Hinton G E, Osindero S, Teh Y W.A fast learning algorithm for deep belief nets[J].Neural Computation, 2006, 18(7): 1527-1554.

        [9]Vincent P, Larochelle H, Lajoie I, et al.Stacked denoising AutoEncoders: learning useful representations in a deep network with a local denoising criterion[J].Journal of Machine Learning Research, 2010, 11(6): 3371-34.

        [10]Lecun Y, Bottou L, Bengio Y, et al.Gradient-based learning applied to document recognition[J].Proceedings of the IEEE, 1998, 86(11): 2278-2324.

        [11]Sutskever I.Training recurrent neural networks[D].Toronto: University of Toronto, 2013.

        [12]Li Y D, Hao Z B, Lei H.Survey of convolutional neural network[J].Journal of Computer Applications, 2016, 36(9): 2508-2515.(in Chinese)李彥冬, 郝宗波, 雷航.卷積神經(jīng)網(wǎng)絡研究綜述[J].計算機應用, 2016, 36(9): 2508-2515.

        [13]Glorot X, Bengio Y.Understanding the difficulty of training deep feedforward neural networks[C]//International Conference on Artificial Intelligence and Statistics.Brookline, MA: 2010: 249-256.

        [14]Nair V, Hinton G E.Rectified linear units improve restricted Boltzmann machines[C]//Proceedings of the 27th International Conference on Machine Learning.Haifa, ILMS: 2010: 807-814.

        [15]Krizhevsky A, Sutskever I, Hinton G E.Imagenet classification with deep convolutional neural networks[C]//Advances in Neural Information Processing Systems.NY: Curran Associates, 2012: 1097-1105.

        [16]Yin B C, Wang W T,Wang L C.Review of Deep Learning[J].Journal of Beijing University of Technology, 2015, 41(1): 48-59.(in Chinese)尹寶才, 王文通, 王立春.深度學習研究綜述[J].北京工業(yè)大學學報, 2015, 41(1): 48-59.

        [17]Lu H T, Zhang Q C.Applications of deep convolutional neural network in computer vision[J].Journal of Data Acquisition and Processing, 2016, 31(1): 1-17.(in Chinese)盧宏濤, 張秦川.深度卷積神經(jīng)網(wǎng)絡在計算機視覺中的應用研究綜述[J].數(shù)據(jù)采集與處理, 2016, 31(1): 1-17.

        [18]Wu W Z.Application research of convolution neural network in image classification[D].Chengdu: University of Electronic Science and Technology, 2015.(in Chinese)吳正文.卷積神經(jīng)網(wǎng)絡在圖像分類中的應用研究[D].成都: 電子科技大學, 2015.

        [19]Boureau Y, Bach F, Lecun Y, et al.Learning mid-level features for recognition[C]//IEEE Conference on Computer Vision and Pattern Recognition.San Francisco: IEEE, 2010: 13-18.

        [20]Hicks R M, Henne P A.Wing design by numerical optimization[J].Journal of Aircraft, 1978, 15(7): 407-412.

        [21]Wang J J, Gao Z H.Analysis and improvement of HicksHenne airfoil parameterization method[J].Aeronautical Computing Technique, 2010, 40(4): 46-49.(in Chinese)王建軍, 高正紅.HicksHenne翼型參數(shù)化方法分析及改進[J].航空計算技術(shù), 2010, 40(4): 46-49.

        [22]Wang J T,Yi X ,Xiao Z Y, et al.Numerical simulation of ice shedding from ARJ21-700[J].ACTA Aerodynamica Sinica, 2013, 31(4): 430-436.(in Chinese)王建濤, 易賢, 肖中云, 等.ARJ21-700飛機冰脫落數(shù)值模擬[J].空氣動力學學報, 2013, 31(4): 430-436.

        [23]Murphy K P.Machine learning: a probabilistic perspective[M].Cambridge: the MIT Press, 2012.

        猜你喜歡
        池化氣動卷積
        基于緊湊型雙線性網(wǎng)絡的野生茵識別方法研究
        無線電工程(2024年8期)2024-09-16 00:00:00
        基于Sobel算子的池化算法設計
        中寰氣動執(zhí)行機構(gòu)
        卷積神經(jīng)網(wǎng)絡中的自適應加權(quán)池化
        軟件導刊(2022年3期)2022-03-25 04:45:04
        基于3D-Winograd的快速卷積算法設計及FPGA實現(xiàn)
        基于NACA0030的波紋狀翼型氣動特性探索
        從濾波器理解卷積
        電子制作(2019年11期)2019-07-04 00:34:38
        基于卷積神經(jīng)網(wǎng)絡和池化算法的表情識別研究
        基于反饋線性化的RLV氣動控制一體化設計
        基于傅里葉域卷積表示的目標跟蹤算法
        国产一级三级三级在线视| 午夜免费视频| 欧美 变态 另类 人妖| 国产在线美女| 国产极品嫩模大尺度在线播放| 在线视频色系中文字幕| 女人和拘做受全程看视频 | 亚洲熟妇少妇任你躁在线观看| 午夜国产精品视频免费看电影 | 成人国产精品免费网站| 国产午夜精品视频观看| 好紧好爽免费午夜视频| 精品一区二区三区无码视频| 国产成人av综合色| 一区二区三区免费观看日本| 欧美成人猛交69| 日本a天堂| 日本成人三级视频网站| 草逼动态图视频免费观看网站| 国产精品欧美福利久久| XXXXBBBB欧美| 久久夜色精品国产三级| 老师开裆丝袜喷水视频| 亲子乱aⅴ一区二区三区下载| 成人无码网www在线观看| 亚洲国产日韩一区二区三区四区| 美女露内裤扒开腿让男人桶无遮挡| 久久国产精品久久精品国产| 久久av一区二区三区下| 一道本久久综合久久鬼色| 国产女人高潮视频在线观看| 日韩爱爱视频| 亚洲日本高清一区二区| 夫妇交换性三中文字幕| 91精彩视频在线观看| 亚洲日本国产一区二区三区| 无码人妻精品中文字幕| 久久人人爽人人爽人人av东京热| 国产经典免费视频在线观看| 国产av久久在线观看| 性一交一乱一乱一视频|