亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于多路徑動態(tài)卷積的YOLOv5無人機航拍目標(biāo)檢測模型

        2025-04-05 00:00:00宋蘇汪方正高建安劉泓森
        現(xiàn)代電子技術(shù) 2025年7期
        關(guān)鍵詞:航拍損失卷積

        摘" 要: 為了提升無人機航拍影像目標(biāo)檢測的準(zhǔn)確率,并實現(xiàn)模型的輕量化,文中對YOLOv5目標(biāo)檢測模型進行了多方面的改進。首先,對YOLOv5的骨干網(wǎng)絡(luò)進行了優(yōu)化重組,采用更高效的動態(tài)卷積結(jié)構(gòu)和多通道并行處理策略增強特征提取能力和檢測精度,并顯著減少模型參數(shù)量;其次,改進了損失函數(shù),引入Focal?EIoU損失函數(shù),更適合無人機航拍圖像的特點,進一步提升了模型的檢測精度;此外,將原本耦合的檢測頭進行了解耦處理,設(shè)計了輕量級解耦頭,使分類、回歸和置信度任務(wù)解耦處理,提高了檢測精度和收斂速度,并合理控制了模型參數(shù)量。實驗結(jié)果表明,改進后的DEP?YOLO模型在mAP@0.5指標(biāo)上提升了9.6%,同時模型大小和參數(shù)量分別降低了77.93%和83.82%。綜上所述,文中提出的綜合改進策略顯著提升了無人機航拍影像目標(biāo)檢測的精度,并實現(xiàn)了模型的輕量化,驗證了其在航拍影像目標(biāo)檢測領(lǐng)域的有效性。

        關(guān)鍵詞: 目標(biāo)檢測; 無人機航拍; YOLOv5; 模型輕量化; 動態(tài)卷積; 解耦檢測頭; Focal?EIoU損失函數(shù); 特征提取

        中圖分類號: TN911.73?34; TP391.41" " " " " " " " "文獻標(biāo)識碼: A" " " " " " " " 文章編號: 1004?373X(2025)07?0072?07

        YOLOv5 UAV aerial photography object detection model

        based on multipath dynamic convolution

        SONG Su1, WANG Fangzheng2, GAO Jian’an3, LIU Hongsen4

        (1. Department of Mathematics and Information Technology, The Education University of Hong Kong, Hong Kong 999077, China;

        2. School of General Education, Jiangsu Vocational College of Medicine, Yancheng 224005, China;

        3. College of Artificial Intelligence, Nanjing Agricultural University, Nanjing 210031, China;

        4. School of Computer Science and Engineering, Southeast University, Nanjing 211189, China)

        Abstract: Multiple improvements are made to the YOLOv5 object detection model to enhance the accuracy of object detection in drone aerial images and achieve model lightweighting. Firstly, the backbone network of YOLOv5 is optimized and reorganized. A more efficient dynamic convolution structure and a multi?channel parallel processing strategy are employed to enhance feature extraction capabilities and detection accuracy while reducing model parameters significantly. Secondly, the loss function is improved by introducing the Focal?EIoU loss function which is more suitable for the characteristics of drone aerial images, which further enhances the detection accuracy of the model. Additionally, the originally?coupled detection head is decoupled, and a lightweight decoupled head is designed to decouple the classification, regression and confidence tasks, so as to improve the detection accuracy and rate of convergence, and control the model parameters reasonably. Experimental results show that the improved DEP?YOLO model increases the mAP@0.5 by 9.6%, while the model size and parameter count are reduced by 77.93% and 83.82%, respectively. In summary, the comprehensive improvement strategy proposed in this paper significantly enhances the accuracy of object detection in drone aerial images and achieves model lightweighting, verifying its effectiveness in the field of aerial image object detection.

        Keywords: object detection; drone aerial photography; YOLOv5; model lightweighting; dynamic convolution; decoupled detection head; Focal?EIoU loss function; feature extraction

        0" 引" 言

        目標(biāo)檢測是計算機視覺領(lǐng)域的重要任務(wù),廣泛應(yīng)用于安防監(jiān)控、無人駕駛[1]、醫(yī)療影像分析等各個領(lǐng)域[2]。傳統(tǒng)的目標(biāo)檢測方法依賴于手工設(shè)計的特征提取器和分類器,通常需要大量的計算資源和時間,難以在復(fù)雜的場景中取得較好的檢測效果[3]。隨著深度學(xué)習(xí)技術(shù)的發(fā)展,基于卷積神經(jīng)網(wǎng)絡(luò)(CNN)的目標(biāo)檢測模型逐漸成為主流[4]。

        一階段檢測模型和二階段檢測模型是目前目標(biāo)檢測領(lǐng)域的兩大主流方法。一階段檢測模型,如YOLO(You Only Look Once)系列[6]和SSD(Single Shot MultiBox Detector),直接在整張圖像上進行目標(biāo)分類和定位,具有較快的檢測速度,但通常檢測精度略低于二階段檢測模型;二階段檢測模型,如R?CNN、Fast R?CNN和Faster R?CNN[5],首先生成候選區(qū)域,然后對這些區(qū)域進行分類和定位,具有較高的檢測精度,但計算開銷較大,難以滿足實時應(yīng)用的需求。

        近年來,YOLO系列模型憑借其優(yōu)秀的實時檢測性能和相對較高的檢測精度[7],特別是YOLOv5作為YOLO系列的最穩(wěn)定版本,在保持高檢測精度的同時具備較小模型參數(shù)[8]。然而,面對無人機航拍圖像這種具有多視角拍攝、小目標(biāo)居多且復(fù)雜背景的特殊數(shù)據(jù)集,YOLOv5仍難以控制模型大小,其目標(biāo)檢測精度在一些特定場景下仍有提升空間[9]。

        針對以上問題,本文提出了一種改進的目標(biāo)檢測模型DEP?YOLO,旨在提升無人機航拍圖像的檢測準(zhǔn)確率并實現(xiàn)模型輕量化。本文主要從以下幾個方面對YOLOv5進行改進:首先,優(yōu)化YOLOv5的骨干網(wǎng)絡(luò),采用高效的動態(tài)卷積結(jié)構(gòu)和多路徑并行處理策略,提高特征提取能力和檢測精度,同時顯著減少模型參數(shù)量;其次,改進損失函數(shù),引入更適合航拍圖像的Focal?EIoU,進一步提升檢測精度;最后,將原耦合的檢測頭解耦,設(shè)計出輕量級解耦頭,獨立處理分類、回歸和置信度任務(wù),從而提高檢測精度和模型收斂速度。

        1" 基于YOLOv5改進目標(biāo)檢測的方法

        DEP?YOLO基于YOLOv5s(以下統(tǒng)稱YOLOv5)進行改進,YOLOv5網(wǎng)絡(luò)模型由輸入端、主干網(wǎng)絡(luò)、特征融合網(wǎng)絡(luò)和檢測頭四部分構(gòu)成,其網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示。本文在YOLOv5的基礎(chǔ)上,分別對其骨干網(wǎng)絡(luò)、損失函數(shù)、檢測頭進行改進,最終得到DEP?YOLO網(wǎng)絡(luò)結(jié)構(gòu)如圖2所示。

        1.1" 重組骨干網(wǎng)絡(luò)

        雖然YOLOv5的C3模塊通過Bottleneck結(jié)構(gòu)增強了特征提取能力,但其在處理無人機航拍影像中存在的大尺度變化目標(biāo)和復(fù)雜背景方面仍然存在明顯不足。主要是因為YOLOv5的骨干網(wǎng)絡(luò)將所有通道和位置信息等同對待,不僅引入大量干擾信息,且經(jīng)過多次C3和Conv模塊的堆疊下采樣,導(dǎo)致無人機影像中特征丟失過多,同時網(wǎng)絡(luò)模塊的堆疊大大增加了模型的參數(shù)量,難以滿足實時檢測的需求[10]。

        針對這些挑戰(zhàn),本文重新設(shè)計了YOLOv5的骨干網(wǎng)絡(luò),提出了多路徑動態(tài)卷積模塊(Multipath Dynamic Conv Block, MDCB),如圖3所示。MDCB模塊采用多通道并行處理,通過將特征圖劃分為多個部分,并分別應(yīng)用動態(tài)卷積(Dynamic Conv)結(jié)構(gòu)來處理[11],如圖4所示。動態(tài)卷積結(jié)構(gòu)通過自適應(yīng)生成卷積核,可以處理不同尺度大小的目標(biāo),從而在增強特征表達的同時保持較低的計算成本。

        MIRB模塊的創(chuàng)新之處在于其并行處理特征圖的四個部分:一部分直接傳遞以保留原始信息,余下三部分通過動態(tài)卷積結(jié)構(gòu)處理,并與前一分支的輸出相加。這種設(shè)計實現(xiàn)了不同層級特征的融合與高級抽象特征的學(xué)習(xí),滿足無人機圖像多尺度變化信息的需求。此外,并行處理操作不僅降低了計算負(fù)擔(dān),提高了特征處理效率,還避免了梯度消失問題,非常適合無人機等資源受限設(shè)備,滿足其對實時性和精確性的雙重需求。

        具體而言,本文在骨干網(wǎng)絡(luò)中用MDCB和C3模塊替換了原始YOLOv5的全部C3模塊。骨干網(wǎng)絡(luò)采取了兩次“MDCB和C3”組合,強化了特征的深度抽取;而在頸部網(wǎng)絡(luò)中,減少了層數(shù)和復(fù)雜度,專注于密集的中小目標(biāo)檢測,同時實現(xiàn)了網(wǎng)絡(luò)模型的輕量化。這一改進不僅大幅度減少了模型的參數(shù)量和計算量,同時顯著提升了特征提取和融合的效果。

        1.2" 損失函數(shù)優(yōu)化

        盡管YOLOv5的CIoU損失函數(shù)在處理跨尺度目標(biāo)檢測以及預(yù)測框與真實框長寬比例問題方面表現(xiàn)出色,但在處理邊框尺寸差異及樣本不均衡問題上仍存在不足[12]。為此,本文引入了EIoU損失函數(shù)和Focal [L1]損失函數(shù)的結(jié)合函數(shù)Focal?EIoU來進行優(yōu)化調(diào)整[13]。

        為解決這一問題,本文采用EIoU損失函數(shù)將原始的CIoU損失函數(shù)的長寬比例損失改為寬高值回歸,解決CIoU損失函數(shù)無法區(qū)分相同中心、相同寬高比但尺寸不同的邊界框問題,具體來說,EIoU損失函數(shù)計算公式為:EIoU=IoU+中心點損失+寬損失+長損失,能夠更準(zhǔn)確地反映邊界框尺寸差異,公式如下:

        [CIoU=1-IoU+ρ2p,pgtc2+ρ2w,wgtc2w+ρ2h,hgtc2h] (1)

        此外,為解決樣本不均衡,本文引入Focal [L1]損失函數(shù)。Focal [L1]基于Focal Loss,通過調(diào)整權(quán)重參數(shù),分配給低質(zhì)量樣本較小權(quán)重,高質(zhì)量樣本較大權(quán)重,從而優(yōu)化訓(xùn)練過程,使模型更多地關(guān)注高質(zhì)量樣本。

        最終,本文將EIoU和Focal [L1]兩個損失函數(shù)整合為Focal?EIoU損失函數(shù)。Focal?EIoU不僅能夠更精準(zhǔn)地匹配預(yù)測框和真實框,還能有效解決樣本不平衡問題,滿足無人機圖像檢測任務(wù)的需求。Focal?EIoU的計算公式如下:

        [Focal?EIoU=IoUγ*EIoU] (2)

        式中參數(shù)[γ]用于調(diào)整對不同質(zhì)量樣本的關(guān)注程度。經(jīng)過多次實驗,本文選定參數(shù)[γ]=0.7為最佳參數(shù)。Focal?EIoU損失函數(shù)的引入顯著提升了無人機航拍影像的檢測效果。

        1.3" 檢測頭解耦

        YOLOv5模型檢測頭中的分類、回歸和置信度任務(wù)之間是存在沖突的,如圖5所示,檢測頭是耦合的。而YOLOX研究證明,將該耦合檢測頭進行解耦處理能夠顯著提升網(wǎng)絡(luò)的收斂速度和檢測精度[14]。

        然后,由于YOLOX中的每個預(yù)測頭都包含全連接的多個卷積層,這使得每層的通道數(shù)獨立累加,從而導(dǎo)致總參數(shù)量大幅增加。本文綜合考慮檢測性能之間的平衡,設(shè)計了一種輕量的解耦頭——空間和通道混洗解耦頭(Spatial?Channel Shuffle Decoupled Head, SSD),如圖6所示。

        首先,輸入特征通過1×1卷積進行通道降維,緩解后續(xù)計算復(fù)雜度;其次,特征分支前增加一個共享的空間和通道混洗(Spatial?Channel Shuffle, SCS)模塊,如圖7所示,省去了后續(xù)分支獨立重復(fù)處理特征信息的步驟,進一步降低了模型的參數(shù)量;最后,在分類、回歸和目標(biāo)置信度分支中都使用了空間和通道混洗模塊。該設(shè)計借鑒了通道混洗(Channel Shuffle)和空間混合(Spatial Mixture)的思想,通過在通道維度重新排列特征圖,實現(xiàn)相鄰網(wǎng)絡(luò)層間的通道信息共享,同時通過空間混合模塊增強特征表達能力,保持了高精度的同時大幅降低了計算復(fù)雜度。

        總之,本文設(shè)計的輕量化解耦頭SSD在將分類、回歸和置信度任務(wù)分開的同時,顯著提升了模型的檢測性能,相比原YOLOX的解耦頭,SSD在降低參數(shù)量的同時提升了檢測精度。表1對比了檢測頭為耦合頭的YOLOv5模型、拼接YOLOX解耦頭(Dhead)的YOLOv5和拼接SSD解耦頭的YOLOv5。

        表1的數(shù)據(jù)表明,本文設(shè)計的SSD解耦頭對比YOLOX的解耦頭在精度上僅損失了1.4%,但模型減小了13.9 MB,推理時間減少了1.5 ms。在維持可接受精度的同時,降低了模型參數(shù)量和推理時間,平衡了解耦頭的效率與精度。

        2" 實驗結(jié)果與分析

        2.1" 實驗環(huán)境

        本文采用深度學(xué)習(xí)框架PyTorch,實驗平臺為Ubuntu 20.04操作系統(tǒng),Python版本為3.8。其他相關(guān)配置與參數(shù)如表2和表3所示。

        此外,本文訓(xùn)練時未使用YOLOv5的任何預(yù)訓(xùn)練權(quán)重,從零開始訓(xùn)練,以確保模型完全適應(yīng)本文的數(shù)據(jù)和檢測需求。

        2.2" 數(shù)據(jù)集介紹

        本文采用了由天津大學(xué)AISKYEYE團隊發(fā)布的VisDrone2019數(shù)據(jù)集[15]。該數(shù)據(jù)集是一個大規(guī)模的無人機視覺數(shù)據(jù)集,均由無人機在不同角度拍攝所得,包含8 629幅靜態(tài)圖像,其中6 471幅訓(xùn)練集,548幅驗證集,以及1 610幅測試集,總共約260萬個目標(biāo)實例樣本。每幀圖像都經(jīng)過手動標(biāo)注,涵蓋10種目標(biāo)類別,如行人、汽車、卡車等覆蓋了中國14個不同城市的多種場景,包括城市和鄉(xiāng)村環(huán)境,數(shù)據(jù)集中的目標(biāo)類型多樣且以小目標(biāo)為主,完全符合本文無人機航拍影像中的目標(biāo)檢測難度設(shè)定。

        2.3" 評估指標(biāo)

        本文采用精度([P])、召回率([R])、平均精度均值(mean Average Precision, mAP)、模型的參數(shù)量(單位為MB)和模型大?。▎挝粸镸B)、模型推理時間(單位為ms)和FPS(單位為f/s)等評估指標(biāo)來衡量改進的YOLOv5模型的性能。[P]和[R]的計算公式分別如下:

        [P=TPTP+FP] (3)

        [R=TPTP+FN] (4)

        式中:TP表示真正例;FP表示假正例;FN表示假負(fù)例。

        mAP@0.5(即IoU閾值為0.5)的計算公式如下:

        [mAP@0.5=1ni=1nAPi] (5)

        式中:[APi]表示第[i]個類別的平均精度;[n]為類別總數(shù)。

        2.4" 實驗結(jié)果

        為了驗證本文算法改進策略的有效性,基于YOLOv5基線模型在訓(xùn)練集上進行了8組消融實驗,實驗結(jié)果如表4所示。

        通過對比表4中的第一行和第二行,引入MDCB模塊后,mAP@0.5從32.7%提升至39.2%,模型大小從14.5 MB大幅減少到2.4 MB,參數(shù)量也顯著降低。表明MDCB模塊在提升檢測精度的同時,實現(xiàn)了模型的輕量化。第三行和第四行的對比顯示,優(yōu)化損失函數(shù)后,mAP@0.5從32.7%略微提升至33.2%,但引入SSD模塊后,mAP@0.5進一步提升至34.7%。對比第四行和第六行,引入SSD解耦頭后,mAP@0.5從34.7%飆升至41.5%,模型大小和參數(shù)量雖有增加,但仍在合理范圍內(nèi)。表明SSD輕量級解耦頭顯著提升了檢測精度。

        最后一行表明,結(jié)合MDCB模塊、優(yōu)化損失函數(shù)和SSD解耦頭的綜合改進策略,mAP@0.5達到了最高的42.3%,模型大小和參數(shù)量也相比原YOLOv5降低至3.2 MB和1.14 MB,驗證了綜合改進策略的有效性。

        為了驗證本文提出的DEP?YOLO算法在無人機航拍影像數(shù)據(jù)集中的性能優(yōu)勢,選取了當(dāng)前具有代表性且性能優(yōu)異的算法在同一數(shù)據(jù)集進行訓(xùn)練,實驗結(jié)果如表5所示。

        通過表5對比實驗可看出,本文改進的DEP?YOLO算法在各項指標(biāo)上均表現(xiàn)出顯著優(yōu)勢。在mAP@0.5方面達到42.3%,是目前所有主流模型檢測精度最高值。參數(shù)量僅為1.14 MB,模型大小僅為3.2 MB,是其他主流檢測模型中最小的。檢測速度為22.8 ms,F(xiàn)PS為23.4 f/s,已達到實時檢測需求。

        為了進一步驗證改進算法的目標(biāo)檢測性能,在測試集上進行了一系列實驗,以確保其有效性和可靠性。圖8為原YOLOv5與改進算法在不同場景下的檢測結(jié)果對比圖,分為3個對照組。

        從以上三組檢測圖可以看出,本文的DEP?YOLO算法在不同光照、航拍角度和環(huán)境下的檢測結(jié)果均最優(yōu)。在暗淡光照和聚集小目標(biāo)的條件下,DEP?YOLO相比YOLOv5具有更少的漏檢;在光照耀眼且俯拍角度的情況下,DEP?YOLO能夠檢測到Y(jié)OLOv5漏檢的車輛;在接近垂直角度的情況下,DEP?YOLO能夠避免檢測誤差??傮w而言,本文的DEP?YOLO在無人機航拍影像中表現(xiàn)出比原YOLOv5更好的檢測性能。

        3" 結(jié)" 語

        本文介紹了一種改進的目標(biāo)檢測算法,旨在提高無人機航拍影像的檢測準(zhǔn)確性并實現(xiàn)模型的輕量化。該算法對YOLOv5模型進行了多方面的改進,包括:重新設(shè)計了骨干網(wǎng)絡(luò),引入了多路徑動態(tài)卷積模塊增強特征提取能力;引入了Focal?EIoU損失函數(shù)以進一步提高檢測精度;解耦了原本耦合的檢測頭,設(shè)計了輕量級解耦頭來提高檢測精度,加快模型收斂速度并合理控制了模型整體參數(shù)量。實驗結(jié)果表明,改進后的DEP?YOLO模型在mAP@0.5指標(biāo)上提升至42.3%,同時模型大小和參數(shù)量分別降低到3.2 MB和1.14 MB,大幅度優(yōu)于原YOLOv5模型,DEP?YOLO模型在保持高精度的同時實現(xiàn)了模型的輕量化,適用于無人機航拍影像目標(biāo)檢測任務(wù)。

        參考文獻

        [1] 汪赟杰,譚愛紅.基于深度學(xué)習(xí)的雷達交通目標(biāo)檢測研究[J].現(xiàn)代電子技術(shù),2023,46(21):134?140.

        [2] 呂向東,彭超亮,陳治國,等.基于RSSD的遙感圖像目標(biāo)檢測算法[J].現(xiàn)代電子技術(shù),2024,47(7):49?53.

        [3] 王兆豐年.基于數(shù)據(jù)增強和尺度歸一的小目標(biāo)檢測系統(tǒng)研究與實現(xiàn)[D].北京:北京郵電大學(xué),2023.

        [4] 江靈杰.基于深度學(xué)習(xí)的無人機航拍圖像目標(biāo)檢測算法研究及應(yīng)用[D].西安:西京學(xué)院,2023.

        [5] 文靖杰,王勇,李金龍,等.多頭自注意力機制的Faster R?CNN目標(biāo)檢測算法[J].現(xiàn)代電子技術(shù),2024,47(7):8?16.

        [6] 高英,吳玉虹.基于YOLOv5s的輕量化行人檢測算法[J].現(xiàn)代電子技術(shù),2023,46(22):151?158.

        [7] JIANG P Y, ERGU D J, LIU F Y, et al. A review of Yolo algorithm developments [J]. Procedia computer science, 2021, 199: 1066?1073.

        [8] 邱天衡,王玲,王鵬,等.基于改進YOLOv5的目標(biāo)檢測算法研究[J].計算機工程與應(yīng)用,2022,58(13):63?73.

        [9] 彭繼慎,孫禮鑫,王凱,等.基于模型壓縮的ED?YOLO電力巡檢無人機避障目標(biāo)檢測算法[J].儀器儀表學(xué)報,2021,42(10):161?170.

        [10] 陳科圻,朱志亮,鄧小明,等.多尺度目標(biāo)檢測的深度學(xué)習(xí)研究綜述[J].軟件學(xué)報,2021,32(4):1201?1227.

        [11] 蔡黎明,杜吉祥,劉懷進,等.動態(tài)卷積的3D點云目標(biāo)檢測算法[J].華僑大學(xué)學(xué)報(自然科學(xué)版),2023,44(1):111?118.

        [12] 董恒祥,潘江如,董芙楠,等.基于YOLOv5s模型的邊界框回歸損失函數(shù)研究[J].現(xiàn)代電子技術(shù),2024,47(3):179?186.

        [13] 周敏.基于Focal?EIOU函數(shù)的被動式太赫茲圖像違禁物品識別[J].太赫茲科學(xué)與電子信息學(xué)報,2022,20(8):810?816.

        [14] 劉毅,蔣三新.基于改進YOLOX的鋼材表面缺陷檢測研究[J].現(xiàn)代電子技術(shù),2024,47(9):131?138.

        [15] DU D W, ZHANG Y, WANG Z X, et al. VisDrone?DET2019: The vision meets drone object detection in image challenge results [C]// Proceedings of the IEEE/CVF International Conference on Computer Vision Workshops. New York: IEEE, 2019: 213?226.

        作者簡介:宋" 蘇(1991—),女,江蘇鹽城人,碩士研究生,講師,主要研究方向為ICT課程與教學(xué)方法、圖像處理。

        汪方正(1981—),男,安徽安慶人,碩士研究生,副教授,主要研究方向為計算機大數(shù)據(jù)。

        收稿日期:2024?06?01" " " " " "修回日期:2024?06?24

        猜你喜歡
        航拍損失卷積
        基于時域全卷積網(wǎng)絡(luò)的語音增強
        少問一句,損失千金
        基于3D-Winograd的快速卷積算法設(shè)計及FPGA實現(xiàn)
        胖胖損失了多少元
        航拍下的苗圃與農(nóng)場
        中外文摘(2021年10期)2021-05-31 12:10:40
        從濾波器理解卷積
        電子制作(2019年11期)2019-07-04 00:34:38
        玉米抽穗前倒伏怎么辦?怎么減少損失?
        難忘的航拍
        《航拍中國》美得讓人想哭
        陜西畫報航拍
        陜西畫報(2017年1期)2017-02-11 05:49:48
        超清精品丝袜国产自在线拍| 久久熟女少妇一区二区三区| 熟女丝袜美腿亚洲一区二区三区 | 精品无码AV无码免费专区| 国产综合第一夜| 熟女少妇av免费观看| 亚洲中文字幕日本日韩| 少妇一区二区三区久久| 女人和拘做受全程看视频| 亚洲日本在线电影| 欧美老妇人与禽交| 99国产精品丝袜久久久久| 亚洲高清av一区二区| 中文字幕国产精品一二三四五区 | 亚洲国产成人久久一区www| a级毛片免费观看视频| 久久久精品人妻一区二区三区日本| 成人在线视频亚洲国产| 一本大道久久a久久综合精品| 亚洲日韩国产av无码无码精品| 一本色道av久久精品+网站| 小12箩利洗澡无码视频网站| 国产一级黄色性生活片| 中文字幕亚洲综合久久天堂av| 亚洲成aⅴ人片久青草影院| 亚洲精品无码久久久久秋霞| 人妻在卧室被老板疯狂进入国产| 国产亚洲精品福利在线| 五十路在线中文字幕在线中文字幕 | 日韩中文字幕网站| 国产一区二区三免费视频| 极品嫩模大尺度av在线播放| a级大胆欧美人体大胆666| 久99久热只有精品国产男同| 日本中文字幕一区二区视频| 国内偷拍精品一区二区| 国产一区二区三区毛片| 黑人巨茎大战欧美白妇| 日本免费一区尤物| 精品少妇白浆一二三区| 久久夜色国产精品噜噜亚洲av|