亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于深度學(xué)習(xí)的門(mén)機(jī)運(yùn)行工況人車(chē)檢測(cè)算法研究

        2025-04-11 00:00:00文勇波程凱倫龍立阿等
        關(guān)鍵詞:深度學(xué)習(xí)

        摘要:水電站一般通過(guò)視覺(jué)檢測(cè)的方法保證門(mén)機(jī)運(yùn)行工況安全. 在門(mén)機(jī)工作區(qū)域內(nèi),人員和車(chē)輛是主要的危險(xiǎn)源. 基于深度學(xué)習(xí)方法,針對(duì)檢測(cè)圖像中人員和車(chē)輛目標(biāo)尺度不一、存在遮擋的問(wèn)題,對(duì)YOLOv8s模型進(jìn)行改進(jìn). 主干使用引入EMA 注意力機(jī)制和動(dòng)態(tài)卷積的Dy?EMA_C2f模塊替代原有C2f,提高對(duì)空間與通道跨維依賴(lài)關(guān)系的學(xué)習(xí)能力和對(duì)不同尺度目標(biāo)的特征提取能力,減少運(yùn)算開(kāi)銷(xiāo);頸部引入SEAM注意力機(jī)制,增強(qiáng)特征融合能力;提出損失函數(shù)Focaler-SIoU,聚焦中等處理難度的樣本,改善邊界回歸精度. 在網(wǎng)絡(luò)數(shù)據(jù)集進(jìn)行驗(yàn)證實(shí)驗(yàn),改進(jìn)后的模型精確率P 提高了10. 3%,召回率R 提高了5. 5%,平均精度均值mAP提升了8. 2%,對(duì)遮擋和小尺度的漏檢、誤檢情況明顯改善.

        關(guān)鍵詞: 深度學(xué)習(xí);目標(biāo)檢測(cè);YOLOv8;注意力機(jī)制

        中圖分類(lèi)號(hào):TP39 文獻(xiàn)標(biāo)志碼:A DOI:10. 19907/j. 0490-6756. 240297

        1引言

        水電站是我國(guó)重要的能源基地,在保障國(guó)家能源供應(yīng)和維護(hù)社會(huì)穩(wěn)定方面有著重要意義. 門(mén)機(jī)[1]作為水電站不可或缺的關(guān)鍵設(shè)備,起到控制閘門(mén)、運(yùn)輸材料和監(jiān)控汛情等作用,針對(duì)門(mén)機(jī)運(yùn)行工況安全的防侵入監(jiān)控工作必不可少. 對(duì)門(mén)機(jī)來(lái)講,工作區(qū)域內(nèi)的危險(xiǎn)源在于妨礙門(mén)機(jī)運(yùn)行的人員和車(chē)輛,因此對(duì)于人員與車(chē)輛的監(jiān)控是門(mén)機(jī)防侵入監(jiān)控的重點(diǎn)關(guān)注內(nèi)容[2].

        目前多數(shù)水電站門(mén)機(jī)監(jiān)控系統(tǒng)仍采用傳統(tǒng)的人工監(jiān)控方式,然而,傳統(tǒng)方式需要較高的人力成本,且人員反應(yīng)到環(huán)境現(xiàn)場(chǎng)的速度較慢,難免出現(xiàn)疏漏,存在安全隱患. 近年來(lái),隨著人工智能技術(shù)的發(fā)展與應(yīng)用,人們的生產(chǎn)生活水平在各個(gè)方面都有了不同程度的進(jìn)步,尤其是智能監(jiān)控與環(huán)境警戒方面,如智慧工地、智能交通和行為分析等[3].深度學(xué)習(xí)的飛速發(fā)展使得基于神經(jīng)網(wǎng)絡(luò)的目標(biāo)識(shí)別與分類(lèi)得到重視,深度學(xué)習(xí)應(yīng)用于人員車(chē)輛檢測(cè)的研究也越來(lái)越多[4,5].

        行人車(chē)輛的檢測(cè)難點(diǎn)一方面在于復(fù)雜多變的背景環(huán)境,另一方面在于尺度變化范圍大并且經(jīng)常出現(xiàn)遮擋情況的檢測(cè)目標(biāo)[6]. 黃金貴等[7]提出了專(zhuān)門(mén)針對(duì)夜間黑暗條件下的車(chē)輛檢測(cè)模型MMDYOLOv7,使用多通道注意力模塊MCCA 和多尺度卷積模塊MSC,提升模型捕捉全局與局部特征信息的能力,更好適應(yīng)低照度和惡劣環(huán)境,提高檢測(cè)精度. 王娟敏等[8]針對(duì)行人和車(chē)輛檢測(cè)中多尺度與遮擋問(wèn)題提出基于YOLOv8的RDRFMYOLO,分別設(shè)計(jì)RFD-Rep 模塊和SFMS 模塊提高對(duì)多尺度以及遮擋目標(biāo)的特征提取能力. 許德剛等[9]在YOLOv8主干尾部添加EMA 注意力機(jī)制,通過(guò)維度交互進(jìn)一步挖掘像素級(jí)特征,基于多尺度輕量化卷積模塊MLConv 重構(gòu)C2f 模塊以提高特征提取能力,采用WIOU 損失函數(shù)優(yōu)化邊界框損失.

        本文選取YOLOv8s為基線(xiàn)算法,針對(duì)行人及車(chē)輛目標(biāo)密集時(shí)出現(xiàn)遮擋情況以及尺度變化大的情況造成目標(biāo)特征難以提取的問(wèn)題,對(duì)模型進(jìn)行研究與改進(jìn).

        2 YOLOv8算法

        YOLO(You Only Look Once)系列算法[10-14]是典型的一階段目標(biāo)檢測(cè)算法,實(shí)現(xiàn)從輸入圖像到輸出結(jié)果的端到端處理,在檢測(cè)速度、準(zhǔn)確性、魯棒性方面具有顯著優(yōu)勢(shì). 該系列算法自2016 年首個(gè)版本YOLOv1 發(fā)布以來(lái),經(jīng)過(guò)逐個(gè)版本的更新演進(jìn),不斷改進(jìn)優(yōu)化,提高模型的改進(jìn)速度和精度,在各個(gè)領(lǐng)域受到廣泛應(yīng)用,并衍生了大量的相關(guān)研究. 2023 年,Ultralytics 團(tuán)隊(duì)推出YOLOv8 算法,在以往版本上引入了新的改進(jìn),進(jìn)一步提高了算法的靈活性和檢測(cè)性能.

        YOLOv8 具有和YOLOv5相同的可擴(kuò)展性,設(shè)計(jì)了適用于不同需求場(chǎng)景的不同模型尺寸:n,s, l, m, x模型規(guī)模依次變大,參數(shù)量也依次增多,計(jì)算復(fù)雜度依次提高. 根據(jù)數(shù)據(jù)集大小和算力資源限制,本文選用YOLOv8s 作為基線(xiàn)算法進(jìn)行改進(jìn).

        YOLOv8s 在模型結(jié)構(gòu)上也與YOLOv5相似,包括輸入端、主干、頸部、檢測(cè)頭等4部分,具體模型結(jié)構(gòu)圖如圖1 所示.

        輸入端的作用在于對(duì)輸入的原圖像進(jìn)行尺寸統(tǒng)一化,通過(guò)填充、縮放等操作調(diào)整輸入模型的圖像尺寸,以滿(mǎn)足采樣要求;還會(huì)通過(guò)Mosiac 等方式進(jìn)行數(shù)據(jù)增強(qiáng),提高數(shù)據(jù)的多樣性.

        主干部分負(fù)責(zé)處理輸入圖像,提取并輸出多尺度特征圖. C2f 模塊是YOLOv8n 網(wǎng)絡(luò)的主要構(gòu)成部分,相比于YOLOv5 的C3 模塊,在特征提取方面表現(xiàn)出更高的水平,同時(shí)殘差思想與瓶頸結(jié)構(gòu)的應(yīng)用和使模塊大小更為輕量化,減小模型尺寸而提高整體性能.

        頸部采用FPN 與PAN 結(jié)構(gòu),對(duì)主干提取的不同尺度特征圖進(jìn)行融合,PAN 自底向上和自頂向下的路徑起到增強(qiáng)特征融合的作用,有效提升了網(wǎng)絡(luò)的特征表達(dá)水平,F(xiàn)PN 使網(wǎng)絡(luò)能更高效地處理不同大小的目標(biāo)檢測(cè)與分類(lèi).

        YOLOv8 根據(jù)不同任務(wù)輸入結(jié)果對(duì)檢測(cè)頭引入解耦結(jié)構(gòu),將其分為檢測(cè)頭與分類(lèi)頭,采用無(wú)錨框檢測(cè)機(jī)制,簡(jiǎn)化模型,賦予網(wǎng)絡(luò)更高的檢測(cè)速度和準(zhǔn)確性.

        3改進(jìn)策略

        本文從以下3 個(gè)方面對(duì)YOLOv8 進(jìn)行改進(jìn):基于EMA 注意力機(jī)制[15]和動(dòng)態(tài)卷積[16]構(gòu)建Dy?EMA_C2f 模塊,替換主干原有的C2f 模塊,提升網(wǎng)絡(luò)對(duì)跨維相關(guān)關(guān)系的學(xué)習(xí)能力和對(duì)不同尺度目標(biāo)的特征提取能力;頸部加入SEAM 模塊[17],加強(qiáng)模型對(duì)目標(biāo)遮擋情況的應(yīng)對(duì)能力和特征融合水平;結(jié)合Focaler_IoU[18]和SIoU[19]提出新的后處理算法Focaler_SIoU,并替換YOLOv8 默認(rèn)的CIoU,改善邊界回歸速度與精度. 圖2 為改進(jìn)后的YOLOv8模型結(jié)構(gòu)圖.

        3. 1主干

        YOLOv8 的主干網(wǎng)絡(luò)主要依靠C2f 模塊提取圖像特征,該模塊結(jié)構(gòu)如圖3 所示. 輸入數(shù)據(jù)經(jīng)過(guò)一個(gè)卷積層后分成兩個(gè)部分,一部分跳過(guò)處理過(guò)程,另一部分進(jìn)行多個(gè)Bottleneck 模塊處理,兩部分結(jié)果拼接后再經(jīng)過(guò)一個(gè)卷積層得到C2f 模塊輸出. C2f 模塊提取數(shù)據(jù)中不同層次和抽象程度的特征,因而以該模塊為主要構(gòu)成的主干部分負(fù)責(zé)輸出多尺度特征圖以供后續(xù)處理.

        注意力機(jī)制可以提高模型對(duì)數(shù)據(jù)中關(guān)鍵信息的提取能力,學(xué)習(xí)圖像中的重要特征,關(guān)注目標(biāo)信息,增強(qiáng)特征提取能力. 目前普遍應(yīng)用的注意力機(jī)制有3 類(lèi):通道注意力、空間注意力和兩者兼具.SE 模塊[20]是通道注意力的代表,通過(guò)模擬跨維相互作用賦予不同通道相應(yīng)的權(quán)重. CBAM模塊[21]利用圖像特征在空間與通道兩個(gè)維度之間的依賴(lài)關(guān)系,融合通道與空間注意力. 針對(duì)CBAM 計(jì)算開(kāi)銷(xiāo)大、長(zhǎng)距離依賴(lài)關(guān)系捕捉能力低的問(wèn)題,Hou等[22]提出CA 模塊,將特定方向的信息沿空間維度方向嵌入信道注意,并進(jìn)行適當(dāng)降維. 在CA 的基礎(chǔ)上,Ouyang等[15]改進(jìn)其順序處理方法,提出一種新型的高效多尺度注意力模塊,即EMA 模塊.

        EMA模塊設(shè)計(jì)了一個(gè)多尺度并行子網(wǎng)絡(luò),將部分通道重組到批次維度,并將通道維度分組為多個(gè)子特征. 通過(guò)全局信息編碼對(duì)每個(gè)分支的通道權(quán)重進(jìn)行重新校準(zhǔn),從跨維關(guān)系學(xué)習(xí)像素級(jí)信息,建立短期與長(zhǎng)期的依賴(lài)關(guān)系,達(dá)到較高的檢測(cè)效果和參數(shù)效率. EMA 的模塊結(jié)構(gòu)如圖4所示.

        對(duì)模型的改進(jìn)要求在檢測(cè)效果與運(yùn)算開(kāi)銷(xiāo)方面達(dá)到均衡,因此模型參數(shù)量也是改進(jìn)過(guò)程中需要考慮的重要方面. 動(dòng)態(tài)卷積能以有限的計(jì)算量提升達(dá)到更高的收斂速度與精度. 動(dòng)態(tài)卷積源于Chen 等[16]提出的動(dòng)態(tài)感知器,其定義如下. 其中y即為動(dòng)態(tài)感知器,πk 是注意力權(quán)重,W,b分別表示權(quán)值和偏置,g為激活函數(shù).

        動(dòng)態(tài)卷積不使用固定卷積核,而是將其進(jìn)行共享和動(dòng)態(tài)組合,根據(jù)輸入圖像的特性自動(dòng)調(diào)整選用卷積核的權(quán)值,將注意力機(jī)制引入卷積核參數(shù),實(shí)現(xiàn)高參數(shù)量與低運(yùn)算成本的結(jié)合,并賦予網(wǎng)絡(luò)更強(qiáng)的特征表達(dá)能力.

        為提高網(wǎng)絡(luò)主干對(duì)不同尺度人與車(chē)輛的特征提取能力,減少通道降維對(duì)提取深度特征帶來(lái)的副作用,本文將EMA 機(jī)制加入C2f 的Bottleneck模塊中;另外,為進(jìn)一步減少運(yùn)算開(kāi)銷(xiāo),提高參數(shù)效率,將Bottleneck模塊中的卷積替換為動(dòng)態(tài)卷積,將改進(jìn)后的Bottleneck 命名為DyEMA_Bottleneck,改進(jìn)前后結(jié)構(gòu)如圖5 所示. 再用Dy?EMA_Bottleneck 替換YOLOv8 主干中的C2f,構(gòu)成DyEMA_C2f 模塊,其結(jié)構(gòu)如圖6所示.

        3. 2頸部

        YOLOv8頸部的功能是對(duì)主干提取的不同尺度特征圖進(jìn)行融合,進(jìn)一步增強(qiáng)特征表達(dá). 交通監(jiān)控視角下,人員目標(biāo)尺度小,且經(jīng)常出現(xiàn)互相遮擋的情況,基線(xiàn)模型多有漏檢情況出現(xiàn). 本文在模型頸部加入YOLO-Face 提出的SEAM 模塊,該模塊學(xué)習(xí)遮擋與未遮擋部分之間的關(guān)系,通過(guò)增強(qiáng)未遮擋部分的響應(yīng)來(lái)補(bǔ)償遮擋部分的相應(yīng)損失,進(jìn)而提高對(duì)各個(gè)尺度目標(biāo)的檢測(cè)效果.

        SEAM 的模塊結(jié)構(gòu)如圖7 所示. 該模塊的架構(gòu)自上而下包括3 個(gè)不同尺寸的CSMM 子模塊、平均池化、通道拓展,以及相乘增強(qiáng). SEAM 的核心是CSMM 模塊,其詳細(xì)結(jié)構(gòu)如圖8 所示. CSMM模塊利用不同的patch 尺寸對(duì)應(yīng)多尺度特征,并且使用深度可分離卷積和逐點(diǎn)卷積挖掘空間和通道的跨維相關(guān)關(guān)系,提高對(duì)遮擋部分特征的學(xué)習(xí)效果,使得SEAM 在提高特征提取能力和高效計(jì)算之間達(dá)到較好的均衡.

        3.3損失函數(shù)

        邊界框回歸對(duì)于模型的檢測(cè)效果有重要影響. YOLOv8 采用CIoU 計(jì)算邊界框的回歸損失,忽視了不同處理難度的樣本對(duì)邊界框回歸的影響. 因此,本文基于Focaler-IoU 和SIoU 提出一種改進(jìn)的損失函數(shù)以替換YOLOv8 默認(rèn)的CIoU.

        4實(shí)驗(yàn)與分析

        4. 1數(shù)據(jù)集與實(shí)驗(yàn)環(huán)境

        本文選用網(wǎng)絡(luò)數(shù)據(jù)集訓(xùn)練模型,圖像主要來(lái)自國(guó)內(nèi)道路交通監(jiān)控圖像,拍攝高度與角度以及畫(huà)面質(zhì)量均與門(mén)機(jī)環(huán)境監(jiān)控有較高的相似性,同時(shí)加入部分COCO數(shù)據(jù)集圖像以豐富數(shù)據(jù)集,并且覆蓋各種天氣與不同能見(jiàn)度下的場(chǎng)景,檢測(cè)類(lèi)別為行人與車(chē)輛兩類(lèi). 數(shù)據(jù)集共有5607 張圖像,按照4∶1的比例劃分為訓(xùn)練集和驗(yàn)證集.

        本文的實(shí)驗(yàn)平臺(tái)為L(zhǎng)inux 操作系統(tǒng),搭載顯卡NVIDIA GeForce RTX 2080Ti,內(nèi)存11G. 訓(xùn)練超參數(shù)設(shè)置如表1 所示.

        式中,TP 是檢測(cè)正確的正樣本數(shù);FP 是檢測(cè)錯(cuò)誤的正樣本數(shù);FN 是檢測(cè)錯(cuò)誤的負(fù)樣本數(shù);N 是總類(lèi)別數(shù). 精確度、召回率和均值平均精度3 個(gè)指標(biāo)從檢測(cè)結(jié)果的正確與齊全程度衡量模型的性能.

        4. 3實(shí)驗(yàn)結(jié)果與分析

        對(duì)改進(jìn)模塊進(jìn)行消融實(shí)驗(yàn)和組合實(shí)驗(yàn),檢驗(yàn)?zāi)P透倪M(jìn)效果,探究模塊之間的影響關(guān)系和作用,消融實(shí)驗(yàn)結(jié)果如表2 所示,模塊組合模型和實(shí)驗(yàn)結(jié)果見(jiàn)表3 和表4.

        從表2可以看出,3種改進(jìn)方法對(duì)模型的性能均有一定程度的提升,并且所有改進(jìn)方法疊加之后的整體改進(jìn)模型表現(xiàn)更佳. 主干替換Dy?EMA_C2f 模塊加強(qiáng)網(wǎng)絡(luò)在空間和通道維度的相關(guān)關(guān)系捕捉能力和對(duì)不同尺度目標(biāo)特征的提取能力,模型精確率P 提高了5. 6%,召回率R 提高了0. 5%,平均精度均值mAP 提升了1. 2%;頸部引入SEAM 注意力機(jī)制通過(guò)增強(qiáng)未遮擋部分的響應(yīng)彌補(bǔ)對(duì)遮擋目標(biāo)的學(xué)習(xí)能力,模型精確率P 提高了9. 6%,召回率R 提高了4. 9%,平均精度均值mAP提升了7. 1%;應(yīng)用新的損失函數(shù)Focaler-SIoU 聚焦中等處理難度的回歸樣本,模型精確率P 提高了7. 7%,召回率R 提高了0. 7%,平均精度均值mAP提升了3.3%.

        結(jié)合表4 可以看出,SEAM 模塊對(duì)精確率P 和召回率R 的提升作用最佳,配合DyEMA_C2f模塊或Focaler-SIoU 構(gòu)成的Ⅰ -YOLOv8s 和Ⅲ -YOLOv8s相比于YOLOv8s+SEAM 模型兩個(gè)指標(biāo)均有小幅度上升. 3個(gè)組合模型的評(píng)價(jià)指標(biāo)都比單獨(dú)改進(jìn)一個(gè)模塊時(shí)表現(xiàn)更好,進(jìn)而整體改進(jìn)模型表現(xiàn)出最佳水平.

        圖9是模型改進(jìn)前后檢測(cè)結(jié)果對(duì)比組圖,左側(cè)為基線(xiàn)算法檢測(cè)結(jié)果,右側(cè)為改進(jìn)算法檢測(cè)結(jié)果.可以看出,對(duì)于第1 幅圖像,基線(xiàn)算法對(duì)人員和車(chē)輛漏檢較多,改進(jìn)算法減少了漏檢情況,尤其是對(duì)遠(yuǎn)距離小尺度目標(biāo)的找全能力有所提高;對(duì)于第2幅圖中的車(chē)輛和第3 幅圖像中的人員,原模型都因局部遮擋造成了誤檢,改進(jìn)模型則提高了對(duì)遮擋情況的應(yīng)對(duì)能力,準(zhǔn)確分辨出局部重疊目標(biāo)的位置,得到正確的檢測(cè)結(jié)果.

        實(shí)驗(yàn)結(jié)果表明,改進(jìn)后的YOLOv8s 模型在精確率、召回率及平均精度均值上均有顯著提升,特別是對(duì)于遮擋和小尺度目標(biāo)的漏檢、誤檢情況有了明顯的改善. 與基線(xiàn)模型相比,最終改進(jìn)模型的精確率提高了10. 3%,召回率提高了5. 5%,平均精度均值提升了8. 2%.

        5結(jié)論

        針對(duì)水電站門(mén)機(jī)傳統(tǒng)人工監(jiān)控系統(tǒng)存在的成本高,效率低以及精確性差等問(wèn)題,本文提出了基于深度視覺(jué)的門(mén)機(jī)運(yùn)行工況中人員車(chē)輛的檢測(cè)方案. 通過(guò)對(duì)YOLOv8s 模型的主干、頸部和損失函數(shù)進(jìn)行了針對(duì)性的改進(jìn),提高了模型對(duì)不同尺度目標(biāo)以及遮擋情況下目標(biāo)的檢測(cè)性能. 具體而言,基于 EMA 注意力機(jī)制和動(dòng)態(tài)卷積構(gòu)建了Dy?EMA_C2f 模塊,替換網(wǎng)絡(luò)主干中的原C2f 模塊,增強(qiáng)了模型對(duì)空間與通道跨維依賴(lài)關(guān)系的學(xué)習(xí)能力,提高了對(duì)不同尺度目標(biāo)特征的提取能力,并提高了參數(shù)效率. 在模型頸部引入SEAM 注意力機(jī)制,提升了對(duì)遮擋目標(biāo)的檢測(cè)效果. 此外,提出了新的損失函數(shù)Focaler-SIoU,該函數(shù)能夠聚焦中等處理難度的樣本,從而改善了邊界框回歸的精度與速度. 后續(xù)研究將著眼于減小模型體量,以適應(yīng)更多邊緣計(jì)算場(chǎng)景的需求,還需進(jìn)一步提升模型在不同光照條件和天氣狀況下的魯棒性,以達(dá)到水電站門(mén)機(jī)運(yùn)行工況的安全檢測(cè)要求.

        猜你喜歡
        深度學(xué)習(xí)
        從合坐走向合學(xué):淺議新學(xué)習(xí)模式的構(gòu)建
        面向大數(shù)據(jù)遠(yuǎn)程開(kāi)放實(shí)驗(yàn)平臺(tái)構(gòu)建研究
        基于自動(dòng)智能分類(lèi)器的圖書(shū)館亂架圖書(shū)檢測(cè)
        搭建深度學(xué)習(xí)的三級(jí)階梯
        有體驗(yàn)的學(xué)習(xí)才是有意義的學(xué)習(xí)
        電子商務(wù)中基于深度學(xué)習(xí)的虛假交易識(shí)別研究
        利用網(wǎng)絡(luò)技術(shù)促進(jìn)學(xué)生深度學(xué)習(xí)的幾大策略
        考試周刊(2016年94期)2016-12-12 12:15:04
        MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場(chǎng)域建構(gòu)
        大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
        深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
        久久亚洲网站中文字幕| 五月综合高清综合网| 久久露脸国产精品WWW| 亚洲一级天堂作爱av| 国产av精品一区二区三区久久| 国产精品无码aⅴ嫩草| 欧美精品一区二区性色a+v| 国产 在线播放无码不卡| 国产尤物自拍视频在线观看| 欧美国产激情二区三区| 亚洲熟伦熟女新五十路熟妇| 99久久综合狠狠综合久久一区| 老岳肥屁熟女四五十路| 亚洲色偷偷偷综合网| av无码久久久久不卡网站下载| 成人午夜视频一区二区无码| 国产伦奸在线播放免费| 在线中文字幕乱码英文字幕正常| 使劲快高潮了国语对白在线| 精品一二区| 男女深夜视频网站入口| 亚洲va欧美va日韩va成人网| 亚洲日韩欧美国产另类综合| 亚洲色图视频在线播放| 亚洲一区第二区三区四区| 狠狠躁夜夜躁人人爽天天古典| 中文字幕精品亚洲人成| 二区三区视频在线观看| av一区二区三区在线| 午夜无码片在线观看影视| 免费看欧美日韩一区二区三区| 亚洲综合国产精品一区二区| 国色天香中文字幕在线视频| 女人大荫蒂毛茸茸视频| 亚洲AV无码成人精品区H| 97超碰精品成人国产| 在线欧美中文字幕农村电影| 亚洲性啪啪无码AV天堂| 亚洲综合国产精品一区二区| 人妻丰满av无码中文字幕| 日本夜爽爽一区二区三区|