亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于改進YOLOv5及危險區(qū)域判斷的碰撞預(yù)警系統(tǒng)研究

        2024-04-30 00:00:00衣振興詹振飛毛青孫博王菊
        汽車技術(shù) 2024年4期
        關(guān)鍵詞:區(qū)域檢測信息

        【摘要】為提升碰撞預(yù)警系統(tǒng)對周圍環(huán)境的感知能力,提出一種基于YOLOv5及危險區(qū)域判斷的碰撞預(yù)警系統(tǒng)。首先,通過通道注意力模塊提高模型的判別能力和準(zhǔn)確性,然后,使用路徑聚合網(wǎng)絡(luò)與空間金字塔池化提高模型對多尺度特征的提取能力,最后,通過引入預(yù)警激活區(qū)域過濾相對安全的目標(biāo),提高了預(yù)警系統(tǒng)的預(yù)警精確度。結(jié)果表明,引入預(yù)警激活區(qū)域后,與無預(yù)警激活區(qū)域相比,預(yù)警系統(tǒng)的準(zhǔn)確度、精度和召回率分別提高20%、50%和26.7%,運行速度提升49.1%,進一步證明了方法的有效性。

        主題詞:YOLOv5 通道注意力模塊 路徑聚合網(wǎng)絡(luò) 空間金字塔池化 預(yù)警激活區(qū)域

        碰撞預(yù)警系統(tǒng)

        中圖分類號:U463.6;TP291.3" 文獻標(biāo)志碼:A" "DOI: 10.19620/j.cnki.1000-3703.20240026

        Research on Collision Warning System Based on Improved YOLOv5 amp; Hazardous Zone Judgment

        Yi Zhenxing1, Zhan Zhenfei1,2, Mao Qing1, Sun Bowen1, Wang Ju2

        (1. Chongqing Jiaotong University, Chongqing 400074; 2. State Key Laboratory of Automotive Noise, Vibration and Safety Technology, Chongqing 401120)

        【Abstract】In order to improve the ability of the collision warning system to perceive the surrounding environment, this paper proposed a collision warning system based on YOLOv5 and hazardous area judgment. Firstly, the discriminative ability and accuracy of the model were improved by the channel attention module, then, the extraction ability of the model for multi-size features was improved by using path aggregation network and spatial pyramid pooling, and finally, the warning accuracy of the warning system was improved by filtering relatively safe targets through the introduction of warning activation regions. The results show that the introduction of warning activation regions improves the accuracy, precision and recall of the warning system by 20%, 50% and 26.7%, respectively, the running speed is increased by 49.1%, which further proves the effectiveness of the method.

        Key words: YOLOv5, Channel attention module, Path aggregation network, Spatial pyramid pooling, Warning activation area, Collision warning system

        1 前言

        車輛碰撞預(yù)警系統(tǒng)通過實時監(jiān)測分析車輛周圍的環(huán)境信息,及時發(fā)出警示,從而避免碰撞事故發(fā)生。

        近年來,隨著計算機視覺、傳感器技術(shù)和機器學(xué)習(xí)的快速發(fā)展,基于目標(biāo)檢測的碰撞預(yù)警系統(tǒng)一般通過改進目標(biāo)檢測方法與改進預(yù)警策略提高系統(tǒng)性能。在改進目標(biāo)檢測方法方面:談文蓉[1]通過改進YOLOv4算法提高碰撞預(yù)警系統(tǒng)的準(zhǔn)確性和實時性,但是無法檢測出其他交通參與者,如行人、非機動車等;夏聰[2]采用基于單目視覺的車輛前向碰撞預(yù)警系統(tǒng),實現(xiàn)了車輛前向行人與非機動車碰撞預(yù)警,但在檢測小目標(biāo)或密集目標(biāo)時,該方法檢測性能較差;胡超超[3]基于YOLOv2網(wǎng)絡(luò)引入殘差網(wǎng)絡(luò),提高了模型檢測群簇小目標(biāo)的準(zhǔn)確率,但目標(biāo)與背景相近或被嚴重遮擋時,極易出現(xiàn)漏檢現(xiàn)象。

        在改進預(yù)警策略方面:李林偉[4]提出基于同車道判斷的碰撞預(yù)警系統(tǒng),通過對車道線的識別,過濾相對安全的目標(biāo),降低了運算復(fù)雜度,但在轉(zhuǎn)彎或車道線標(biāo)識模糊路況中,算法效果不理想;劉軍[5]提出了分級識別碰撞預(yù)警的方法,但在車輛密集或多車換道情況下,模型準(zhǔn)確率較低;唐兵[6]依據(jù)制動距離將危險區(qū)域劃分為多個等級,從而提高預(yù)警系統(tǒng)的性能,但在惡劣天氣環(huán)境下模型的魯棒性較低。

        為提升碰撞預(yù)警系統(tǒng)的環(huán)境感知能力,本文基于YOLOv5的目標(biāo)檢測模型,使用空間金字塔池化[7](Spatial Pyramid Pooling,SPP)和路徑聚合網(wǎng)絡(luò)[8](Path-Aggregation Network,PANet)結(jié)構(gòu)提取特征信息,利用通道注意力[9](Channel Attention,CA)模塊融合特征信息,并通過深度可分離卷積降低模型參數(shù)數(shù)量,從而提高檢測模型性能,同時,引入危險區(qū)域判斷與預(yù)警激活區(qū)域,過濾相對安全目標(biāo),減少運算量,保證檢測的實時性和準(zhǔn)確性。

        2 目標(biāo)檢測模型及改進

        2.1 YOLOv5模型改進

        本文以YOLOv5網(wǎng)絡(luò)為基礎(chǔ),改進獲得的目標(biāo)檢測模型整體結(jié)構(gòu)如圖1所示。為了便于移動端應(yīng)用,以MobileNet系列輕量級特征提取網(wǎng)絡(luò)[10-12]和GhostNet網(wǎng)絡(luò)[13]為骨干網(wǎng)絡(luò),其中,主干網(wǎng)絡(luò)采用多種特征提取網(wǎng)絡(luò),out3、out4、out5分別表示在第3次、第4次和第5次下采樣后獲取的有效特征層。

        頸部(Neck)部分使用SPP和PANet結(jié)構(gòu)處理特征層信息,處理并應(yīng)用淺層位置紋理信息與深層語義信息,檢測頭(Head)部分采用3組YOLO檢測結(jié)構(gòu)增強多尺度目標(biāo)檢測能力。

        在進行特征信息融合前連接注意力模塊以提升檢測性能,利用替換深度可分離卷積減少模型參數(shù)量,提升前向推理的速度,降低目標(biāo)檢測模塊計算開銷,更快速地為預(yù)警系統(tǒng)提供目標(biāo)信息。

        2.2 YOLOv5模型改進結(jié)果

        本文模型訓(xùn)練采用部分ImageNet數(shù)據(jù)集,其中,訓(xùn)練集與測試集的比例為8∶2。模型訓(xùn)練環(huán)境為NVIDIA GeForce RTX 3060 12 G,選用PyTorch作為深度學(xué)習(xí)框架,使用Python作為編程語言。

        采用平均精度[3](mean Average Precision,mAP)、每秒處理幀數(shù)[14](Frames Per Second,F(xiàn)PS)、模型參數(shù)量及浮點運算數(shù)[15](Floating Point Operations,F(xiàn)LOPs)作為模型性能評價指標(biāo)。平均精度是對檢測精度(Precision)和召回率(Recall)的綜合評價指標(biāo),mAP越大,證明模型的精度和準(zhǔn)確性越好;每秒處理幀數(shù)即模型實時處理圖片的數(shù)量;浮點運算數(shù)表示計算的復(fù)雜度,F(xiàn)LOPs越小,模型計算效率越高。

        模型改進前、后在測試集上的P-R曲線比較結(jié)果如圖2所示。召回率R為檢測結(jié)果中正例的數(shù)量與樣本集中標(biāo)注的目標(biāo)總數(shù)的比值,檢測精度P為檢測結(jié)果中正例的數(shù)量與檢測結(jié)果總數(shù)的比值,二者負相關(guān),曲線所包圍的面積則為mAP。因此,改進后模型的P-R曲線明顯優(yōu)于原始模型,模型性能得到提高。

        不同網(wǎng)絡(luò)模型的性能如表2所示,改進后以GhostNet作為主干網(wǎng)絡(luò)的Ghost-CA網(wǎng)絡(luò)模型FPS最大,比MobileNet系列網(wǎng)絡(luò)模型能更好地滿足實時性要求。Ghost-CA網(wǎng)絡(luò)模型的FLOPs最小,即計算復(fù)雜度最低,計算時對硬件的要求更低。同時,由于系統(tǒng)應(yīng)用場景為車載端設(shè)備,網(wǎng)絡(luò)模型越小,適用性越強,Ghost-CA的模型參數(shù)量少于MobileNet,證明Ghost-CA的性能明顯更具優(yōu)勢。因此,本文選取以GhostNet為特征提取網(wǎng)絡(luò)的Ghost-CA模型進行目標(biāo)檢測。

        對不同尺寸圖片的目標(biāo)檢測結(jié)果進行可視化分析,如圖3所示。檢測框信息包括目標(biāo)類別和置信度信息,圖中目標(biāo)檢測框緊密地擬合了目標(biāo)的輪廓,沒有顯著的空隙或超出目標(biāo)邊緣的部分,證明目標(biāo)檢測框在空間上準(zhǔn)確地標(biāo)記出目標(biāo)的位置。

        因此,本文模型的檢測精度及定位精度較高,對不同尺寸特征的目標(biāo)檢測效果良好。

        3 基于危險區(qū)域判斷的預(yù)警策略

        目標(biāo)檢測提供了預(yù)警系統(tǒng)所需的實時、準(zhǔn)確的目標(biāo)識別和定位數(shù)據(jù)。預(yù)警系統(tǒng)基于檢測結(jié)果,對危險、異?;蛑匾录M行實時監(jiān)控和響應(yīng)。為了進一步提高預(yù)警系統(tǒng)的性能,基于上述改進目標(biāo)檢測算法,引入危險區(qū)域判斷概念,設(shè)定預(yù)警激活區(qū)域為危險區(qū)域,過濾預(yù)警激活區(qū)域以外的相對安全目標(biāo),從而減少算力浪費,進一步提高預(yù)警系統(tǒng)的準(zhǔn)確性和運算速度。

        3.1 預(yù)警激活區(qū)域設(shè)定

        將預(yù)警激活區(qū)域的形狀設(shè)定為梯形,如圖4所示。該區(qū)域中,dfmin、dfmax分別為車輛與目標(biāo)的最近、最遠縱向距離,dsmin、dsmax分別為最小、最大橫向邊界距離,X=g(Y)、X=f(Y)分別為預(yù)警激活區(qū)域的左腰線、右腰線方程,X、Y分別為預(yù)警激活區(qū)域腰線上任意一點到自車的縱向、橫向距離。

        車輛與目標(biāo)最近及最遠縱向距離的計算公式為[16]:

        式中:s為制動距離,trmin、trmax分別為駕駛員反應(yīng)時間的最小值與最大值,tTTCc為臨界碰撞時間(Time to Collision,TTC),u為車速。

        設(shè)trmin=0.3 s、trmax=1 s[17]、tTTCc=3 s[18],當(dāng)自車與前方目標(biāo)的碰撞時間小于臨界值時,自車與目標(biāo)存在碰撞危險。而車速、目標(biāo)的速度對預(yù)警激活區(qū)域的橫向邊界均會產(chǎn)生較大影響,其計算公式為:

        式中:vmin、vmax分別為目標(biāo)的最小速度與最大速度,本文設(shè)vmin=1 m/s、vmax=6 m/s[19];t(dfmin)、t(dfmax)分別為自車行駛與目標(biāo)的最近、最遠縱向距離所需的時間。

        式中:X、Y分別為目標(biāo)與自車的縱向、橫向距離。

        3.2 基于預(yù)警激活區(qū)域的目標(biāo)過濾

        單目視覺目標(biāo)檢測方法需識別視野范圍內(nèi)所有目標(biāo),但前向碰撞預(yù)警方法中僅需關(guān)注預(yù)警區(qū)域內(nèi)的目標(biāo),因此,可通過設(shè)定預(yù)警區(qū)域?qū)δ繕?biāo)進行過濾。從目標(biāo)檢測網(wǎng)絡(luò)中獲取預(yù)警區(qū)域的擬合參數(shù)(am、bm、cm),假定預(yù)警區(qū)域左、右腰線的擬合方程為:

        3.3 碰撞預(yù)警模型設(shè)計

        本文預(yù)警算法中,預(yù)警系統(tǒng)數(shù)據(jù)采集模塊使用車載單目相機,數(shù)據(jù)處理模塊連接上位機計算平臺。其中,輸入為車載單目相機采集的圖像序列信息,輸出為目標(biāo)距離、速度和預(yù)警的圖像顯示的判定結(jié)果,系統(tǒng)預(yù)警邏輯流程如圖5所示。

        車輛前向碰撞預(yù)警算法流程為:

        a. 使用單目相機獲取環(huán)境視覺信息;

        b. 基于計算平臺通過改進目標(biāo)檢測模型對目標(biāo)進行初步檢測定位;

        c. 通過圖像處理方法對檢測區(qū)域圖像數(shù)據(jù)進行二次處理,實現(xiàn)目標(biāo)精確定位;

        d. 利用目標(biāo)檢測結(jié)果獲取目標(biāo)在圖像中的位置、尺寸信息,根據(jù)小孔成像原理對圖像中的目標(biāo)進行測距操作,實現(xiàn)對圖像中目標(biāo)的距離估計;

        e. 利用多目標(biāo)跟蹤算法跟蹤弱勢道路使用者目標(biāo),并結(jié)合各目標(biāo)的距離估計結(jié)果計算不同目標(biāo)的相對速度;

        f. 通過預(yù)警激活區(qū)域判斷所屬區(qū)域;

        g. 將目標(biāo)的距離信息導(dǎo)入預(yù)警算法模型,得到預(yù)警判定結(jié)果,同時,將結(jié)果以圖像形式輸出。

        4 多場景測試與結(jié)果分析

        本文試驗場景包含行車環(huán)境為城市道路的中低速跟車工況,根據(jù)車載視頻進行前向碰撞預(yù)警系統(tǒng)測試。通過安全距離預(yù)警模型計算前車碰撞預(yù)警的安全距離閾值,當(dāng)自車與前方目標(biāo)距離小于預(yù)警閾值時,輸出圖像包含原圖信息、目標(biāo)檢測結(jié)果及車距信息,目標(biāo)檢測框和目標(biāo)跟蹤軌跡實時跟隨目標(biāo),顯示結(jié)果如圖6所示。

        對預(yù)警策略進行驗證,連續(xù)4幀圖像構(gòu)成一個交通場景,選取不同組別交通場景的數(shù)據(jù)集進行測試。為了計算預(yù)警指標(biāo),重點保存攝像頭標(biāo)定信息,結(jié)果如表3所示。

        引入預(yù)警激活區(qū)域后,準(zhǔn)確度、精確度及召回率分別提高20%、50%和26.7%,預(yù)警系統(tǒng)的性能大幅提升。預(yù)警激活區(qū)域篩除預(yù)警激活區(qū)域外的安全目標(biāo),相較于無預(yù)警激活區(qū)域,運算時間降低,運行速度提升49.1%。

        5 結(jié)束語

        本文基于YOLOv5目標(biāo)檢測算法,通過引入空間金字塔池化和路徑聚合網(wǎng)絡(luò)結(jié)構(gòu)處理特征層信息,并在進行特征信息融合前連接通道注意力模塊,驗證結(jié)果表明,本文改進的網(wǎng)絡(luò)模型的檢測精度、實時性等性能均有所提高。

        在預(yù)警策略中引入危險區(qū)域判斷,通過設(shè)置預(yù)警激活區(qū)域,濾除相對安全的目標(biāo),從而提高預(yù)警系統(tǒng)的預(yù)警精確度及運算速度,將前向碰撞預(yù)警系統(tǒng)應(yīng)用于多種場景進行測試,驗證了預(yù)警系統(tǒng)的有效性。

        未來,在保證實時性的條件下,應(yīng)進一步提高檢測預(yù)警精度,并增強模型對遮擋和背景移動的抗干擾能力。

        參 考 文 獻

        [1] 談文蓉, 薛余坤, 陳秋實, 等. 改進YOLOv4算法的高速公路碰撞預(yù)警系統(tǒng)[J]. 西南民族大學(xué)學(xué)報(自然科學(xué)版), 2022, 48(1): 64-74.

        TAN W R, XUE Y K, CHEN Q S, et al. Improved YOLOv4 Algorithm for Highway Collision Warning System[J]. Journal of Southwest Minzu University (Natural Science Edition), 2022, 48(1): 64-74.

        [2] 夏聰. 基于單目視覺的車輛前向碰撞預(yù)警系統(tǒng)研究[D]. 重慶: 重慶大學(xué), 2022.

        XIA C. Research on Vehicle Forward Collision Warning" "System Based on Monocular Vision[D]. Chongqing:" " " " " Chongqing University, 2022.

        [3] 胡超超, 劉軍, 張凱, 等. 基于深度學(xué)習(xí)的行人和騎行者目標(biāo)檢測及跟蹤算法研究[J]. 汽車技術(shù), 2019(7): 19-23.

        HU C C, LIU J, ZHANG K, et al. Research on Pedestrian and Cyclist Object Detection and Tracking Algorithm Based on Deep Learning[J]. Automotive Technology, 2019(7): 19-23.

        [4] 李林偉. 面向前向碰撞預(yù)警的單目視覺感知方法研究[D]. 重慶: 重慶大學(xué), 2022.

        LI L W. Research on Monocular Vision Perception Method for Forward Collision Warning[D]. Chongqing: Chongqing University, 2022.

        [5] 唐兵. 基于機器視覺的車輛前向碰撞預(yù)警系統(tǒng)研究與實現(xiàn)[D]. 成都: 西華大學(xué), 2021.

        TANG B. Research and Implementation of Vehicle Forward Collision Warning System Based on Machine Vision[D]. Chengdu: Xihua University, 2021.

        [6] 劉軍, 高雪婷, 王利明, 等. 基于OpenCV的前方車輛檢測和前撞預(yù)警算法研究[J]. 汽車技術(shù), 2017(6): 11-16.

        LIU J, GAO X T, WANG L M, et al. Research on Forward Vehicle Detection and Forward Collision Warning Algorithm Based on OpenCV[J]. Automobile Technology, 2017(6): 11-16.

        [7] 張博, 張苗輝, 陳運忠. 基于空間金字塔池化和深度卷積神經(jīng)網(wǎng)絡(luò)的作物害蟲識別[J]. 農(nóng)業(yè)工程學(xué)報, 2019, 35(19): 209-215.

        ZHANG B, ZHANG M H, CHEN Y Z. Crop Pest" " " " " " " Recognition Based on Spatial Pyramid Pooling and Deep Convolutional Neural Network[J]. Transactions of the" " " " Chinese Society of Agricultural Engineering, 2019, 35(19): 209-215.

        [8] 楊真真, 鄭藝欣, 邵靜, 等. 基于改進路徑聚合和池化YOLOv4的目標(biāo)檢測[J]. 南京郵電大學(xué)學(xué)報(自然科學(xué)版), 2022, 42(5): 1-7.

        YANG Z Z, ZHENG Y X, SHAO J, et al. Object Detection Based on Improved Path Aggregation and Pooling YOLOv4[J]. Journal of Nanjing University of Posts and" " " " " " " " " Telecommunications (Natural Science), 2022, 42(5): 1-7.

        [9] 徐誠極, 王曉峰, 楊亞東. Attention-YOLO: 引入注意力機制的YOLO檢測算法[J]. 計算機工程與應(yīng)用, 2019, 55(6): 13-23+125.

        XU C J, WANG X F, YANG Y D. Attention-YOLO: YOLO Detection Algorithm with Introduction of Attention" " " " " " "Mechanism[J]. Computer Engineering and Applications, 2019, 55(6): 13-23+125.

        [10] HOWARD A G, ZHU M, CHEN B, et al. MobileNets:" " " " Efficient Convolutional Neural Networks for mobile Vision Applications[EB/OL]. (2017-04-17)[2024-01-10]. https://arxiv.org/abs/1704.04861.

        [11] SANDLER M, HOWARD A, ZHU M, et al. MobileNetV2: Inverted Residuals and linear Bottlenecks[C]// 2018 IEEE/CVF Conference on Computer Vision and Pattern" " " " " " " "Recognition. Salt Lake City, UT, USA: IEEE, 2018: 4510-4520.

        [12] HOWARD A, SANDLER M, CHEN B, et al. Searching for MobileNetV3[C]// 2019 IEEE/CVF International" " " " " "Conference on Computer Vision (ICCV). Seoul, South" " " "Korea: IEEE, 2019: 1314-1324.

        [13] HAN K, WANG Y, TIAN Q, et al. GhostNet: More Features from Cheap Operations[C]// 2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR)." " " "Seattle, WA, USA: IEEE, 2020: 1580-1589.

        [14] 高健宸, 張家洪, 李英娜, 等. 基于YOLOv4的絕緣子爆裂故障識別研究[J]. 激光與光電子學(xué)進展, 2022, 59(2): 130-137.

        GAO J C, ZHANG J H, LI Y N, et al. Research on Insulator Burst Fault Identification Based on YOLOv4[J]. Laser amp; Optoelectronics Progress, 2022, 59(2): 130-137.

        [15] 毛國君, 翁偉棟, 朱晉德, 等. 基于改進YOLO-V4網(wǎng)絡(luò)的淺海生物檢測模型[J]. 農(nóng)業(yè)工程學(xué)報, 2021, 37(12): 152-158.

        MAO G J, WENG W D, ZHU J D, et al. Shallow-Sea" " " "BioloGical Detection Model Based on Improved YOLO-V4 Network[J]. Transactions of the Chinese Society of" " " " " "Agricultural Engineering, 2021, 37(12): 152-158.

        [16] ZADEH R B, GHATEE M, EFTCKHARI H R, et al. Three-Phases Smartphone-Based Warning System to Protect" " Vulnerable Road Users Under Fuzzy Conditions[J]. IEEE Transactions on Intelligent Transportation Systems, 2018, 19(7): 1-13.

        [17] YAN X, ZHANG Y, MA L. The Influence of In-Vehicle Speech Warning Timing on Drivers’ Collision Avoidance Performance at Signalized Intersections[J]. Transportation Research Part C, 2015, 51: 231-242.

        [18] LUBBE N, ROSEEN E. Pedestrian Crossing Situations: Quantification of Comfort Boundaries to Guide Intervention Timing[J]. Accident Analysis amp; Prevention, 2014, 71(2): 261-266.

        [19] HUANG S, YANG J, EKLUND F. Evaluation of Remote" "Pedestrian Sensor System Based on The Analysis of" " " Car-Pedestrian Accident Scenarios[J]. Safety Science, 2008, 46(9): 1345-1355.

        (責(zé)任編輯 瑞 秋)

        修改稿收到日期為2024年1月10日。

        *基金項目:智能車輛安全技術(shù)國家重點實驗室開放基金項目(IVSTSKL-202305);重慶交通大學(xué)-長三角先進材料研究所省級研究生聯(lián)合培養(yǎng)基地基金項目(JDLHPYJD2021008)。

        【引用格式】 衣振興, 詹振飛, 毛青, 等. 基于改進YOLOv5及危險區(qū)域判斷的碰撞預(yù)警系統(tǒng)研究[J]. 汽車技術(shù), 2024(4): 1-6.

        YI Z X, ZHAN Z F, MAO Q, et al. Research on Collision Warning System Based on Improved YOLOv5 amp; Hazardous Zone Judgment[J]. Automobile Technology, 2024(4): 1-6.

        猜你喜歡
        區(qū)域檢測信息
        “不等式”檢測題
        “一元一次不等式”檢測題
        “一元一次不等式組”檢測題
        訂閱信息
        中華手工(2017年2期)2017-06-06 23:00:31
        小波變換在PCB缺陷檢測中的應(yīng)用
        關(guān)于四色猜想
        分區(qū)域
        基于嚴重區(qū)域的多PCC點暫降頻次估計
        電測與儀表(2015年5期)2015-04-09 11:30:52
        展會信息
        中外會展(2014年4期)2014-11-27 07:46:46
        區(qū)域
        民生周刊(2012年10期)2012-10-14 09:06:46
        久久综合给合综合久久| 黄色毛片在线看| 亚州AV无码乱码精品国产| 激情一区二区三区视频| 19款日产奇骏车怎么样| 奇米影视第四色首页| 九九久久精品国产| 亚洲人成网站www| 中文字幕34一区二区| 色欲人妻综合aaaaa网| 熟女俱乐部五十路二区av| 国内精品九九久久精品小草| 亚洲精品98中文字幕| 大胸少妇午夜三级| 国产精品久久久久国产精品| av毛片一区二区少妇颜射| 美女用丝袜脚玩我下面| 丰满少妇a级毛片野外| 美女裸体无遮挡免费视频的网站| 中文字幕精品乱码一二三区| 91在线视频在线视频| 久久久久久久久蜜桃| 亚洲情a成黄在线观看动漫尤物 | 久久精品国产丝袜| 精品人妻一区二区三区av| 凌辱人妻中文字幕一区 | 久久精品无码鲁网中文电影| 中文字幕亚洲精品第一页| 丝袜美腿在线观看一区| 真人作爱免费视频| 任你躁欧美一级在线精品免费| 亚洲乱码av中文一区二区第八页 | 久久精品熟女亚洲av香蕉| 免费看av在线网站网址| 亚洲人成亚洲人成在线观看 | 欧美成人免费看片一区| 毛茸茸的女性外淫小视频| 亚洲国产精品无码中文字| 国产成人精品电影在线观看18 | 亚洲日韩成人无码不卡网站| 亚洲日本人妻少妇中文字幕|