亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于YOLOv7的邊緣增強水面漂浮垃圾小目標(biāo)檢測

        2024-07-01 10:04:43周華平李云豪黨安培
        關(guān)鍵詞:實驗檢測信息

        周華平 李云豪 黨安培

        【摘?? 要】?? 水面漂浮垃圾不斷增多引起關(guān)注,針對水面漂浮垃圾邊緣信息模糊的問題,提出E-MP模塊,在MPConv的基礎(chǔ)上添加Laplacians,Sobel-dx和Sobel-dy增強小目標(biāo)水面漂浮垃圾的邊緣信息。針對小目標(biāo)漂浮垃圾僅占據(jù)圖像少量像素的現(xiàn)象,引入了Biformer注意力模塊。Biformer利用前后兩個方向的上下文信息,更好地捕捉序列中的依賴關(guān)系,同時降低背景信息對檢測目標(biāo)物體帶來的一部分影響。在此基礎(chǔ)上引入SIoU來構(gòu)建損失函數(shù),將邊界區(qū)域作為目標(biāo)區(qū)域來進行加權(quán),可以更好地捕捉目標(biāo)的邊界信息,從而提高檢測精度。在Flow-Img子數(shù)據(jù)集上進行了大量實驗,實驗結(jié)果表明,YOLOv7-edge模型比原來的模型檢測精度更高,mAP@0.5和mAP@0.5:0.95分別提高了7個百分點和5個百分點。

        【關(guān)鍵詞】?? 小目標(biāo);垃圾檢測;E-MP模塊;Biformer注意力模塊;SIoU

        Edge Enhanced Small Target Detection of

        Floating Garbage Based on YOLOv7

        Zhou Huaping, Li Yunhao*, Dang Anpei

        (Anhui University of Science and Technology, Huainan 232001, China)

        【Abstract】??? The increasing amount of floating garbage on the water surface has attracted people's attention. In response to the problem of blurred edge information of floating garbage on the water surface, this article proposes an E-MP module, which adds Laplacians, Sobel-dx, and Sobel-dy to enhance the edge information of small floating garbage targets on the water surface based on MPConv. In response to the phenomenon that small floating garbage targets only occupy a small number of pixels in the image, a Biformer attention module has been introduced. The Biformer utilizes contextual information from both the front and back directions to better capture dependencies in the sequence while reducing some of the impact of background information on detecting the target object. On this basis, introducing SIoU to construct a loss function and weighting the boundary region as the target region can better capture the boundary information of the target and improve detection accuracy. A large number of experiments are conducted on the Flow-Img sub dataset, which shows that the YOLOv7 edge model had higher detection accuracy than the original model, mAP@0.5 and mAP@0.5 0.95 increased by 7 % and 5 % respectively.

        【Key words】???? small goals; garbage detection; E-MP module; Biformer attention module; SIoU

        〔中圖分類號〕 TP183????????????? ?? ????? ???〔文獻標(biāo)識碼〕? A????? ???????????? 〔文章編號〕 1674 - 3229(2024)02- 0045 - 07

        [收稿日期]?? 2023-10-09

        [作者簡介]?? 周華平(1979- ),女,博士,安徽理工大學(xué)計算機科學(xué)與工程學(xué)院教授,研究方向:目標(biāo)檢測。

        [通訊作者]?? 李云豪(1999- ),男,安徽理工大學(xué)計算機科學(xué)與工程學(xué)院研究生,研究方向:目標(biāo)檢測。

        0???? 引言

        水面漂浮垃圾檢測是目標(biāo)檢測的一種。目標(biāo)檢測是在圖像或視頻中準(zhǔn)確地識別和定位特定的目標(biāo)物體[1],在許多領(lǐng)域中都有廣泛的應(yīng)用[2],如自動駕駛、視頻監(jiān)控等。目標(biāo)檢測需要確定目標(biāo)物體的位置,并用邊界框或像素級的分割來標(biāo)記目標(biāo)的準(zhǔn)確位置。因此,目標(biāo)檢測算法需要具備對目標(biāo)識別和定位的能力。

        目標(biāo)檢測算法的發(fā)展經(jīng)歷了多個階段。早期的算法在復(fù)雜場景中的性能有限,隨著深度學(xué)習(xí)的發(fā)展,Krizhevsky 等[3]使卷積神經(jīng)網(wǎng)絡(luò)重?zé)ü獠?,開創(chuàng)了現(xiàn)代CNN的先河。其中,最具代表性的算法是基于區(qū)域的卷積神經(jīng)網(wǎng)絡(luò)(R-CNN)系列算法,包括R-CNN、Fast R-CNN、Faster R-CNN等。這些方法通過將目標(biāo)檢測問題轉(zhuǎn)化為候選區(qū)域生成和目標(biāo)分類/定位兩個子問題,大大提高了目標(biāo)檢測的準(zhǔn)確性和效率。

        相比于其他領(lǐng)域的目標(biāo)檢測,小目標(biāo)檢測的發(fā)展時間相對較短,仍有許多方面尚未完善。小目標(biāo)的定義有很多種,MSCOCO通用數(shù)據(jù)集將分辨率小于32*32像素的目標(biāo)定義為小目標(biāo)。2016年Chen等 [4]將占總目標(biāo)幀面積0.05%~0.58%的同類目標(biāo)定義為小目標(biāo),開創(chuàng)了小目標(biāo)檢測的先例。2018 年Han等[5]第一次提出了把R-CNN用于遙感小目標(biāo)的檢測。在此文獻的影響下,很多研究人員以Faster R-CNN[6]、SSD[7]以及 YOLO等網(wǎng)絡(luò)模型對小目標(biāo)物體進行檢測。其中Han等[8]、Zand等[9]、Yu等[10]使用旋轉(zhuǎn)預(yù)測框和旋轉(zhuǎn)檢測器來提高遙感檢測場景的精度,但對其他類型的小目標(biāo)的效果并不好。在這種背景下,Zhu等[11]提出增加目標(biāo)檢測層,在檢測小目標(biāo)方面得到了良好的結(jié)果。但在目標(biāo)較小且密集的情況下,還有漏檢和誤檢的情況,YOLO-Z的PAFPN被Bi-FPN取代,提高了小目標(biāo)的檢測效果,但忽略了圖像中較大目標(biāo)的問題。

        為 解 決 上 述 問 題 ,本 文 提 出 一 種 YOLOv7-edge模型。通過增加邊緣信息更加準(zhǔn)確地找到水平邊緣。引入注意力機制加強對信息的篩選,提高模型的泛化能力和解釋能力。最終通過改進損失函數(shù),提高網(wǎng)絡(luò)對于目標(biāo)尺寸的魯棒性。

        1???? 相關(guān)工作

        1.1?? YOLOv7 模型

        YOLOv7[12]是一種目標(biāo)檢測模型,通過將目標(biāo)檢測問題轉(zhuǎn)化為一個回歸問題,直接在圖像上進行目標(biāo)定位和分類,從而實現(xiàn)快速高效的目標(biāo)檢測。YOLOv7快速且準(zhǔn)確的檢測受到廣泛關(guān)注。模型如圖1所示。

        YOLOv7是由Wang等[12]于2022年提出的,主要包括Backbone層(由卷積、E-ELAN模塊、MPConv模塊以及SPPCSPC模塊構(gòu)成)、Neck層(采用了傳統(tǒng)的 PAFPN 結(jié)構(gòu),在不同層級上進行特征融合,從而提取多尺度的特征)和Head層(由多個卷積層和全連接層組成,用于對特征進行處理和轉(zhuǎn)換,并輸出目標(biāo)的位置和類別信息)。與其他模型相比,YOLOv7的設(shè)計更加簡潔和高效,可以在處理大規(guī)模數(shù)據(jù)時保持較高的速度和精度。

        1.2?? 注意力機制

        注意力機制[13-14]是一種計算模型,它模擬人類的注意力過程,使得模型能夠聚焦于輸入數(shù)據(jù)中最重要的部分。注意力機制已經(jīng)被廣泛應(yīng)用于提高模型的性能。在注意力機制中,較高的權(quán)重意味著該部分對模型的輸出有更大的影響力。模型可以根據(jù)輸入數(shù)據(jù)的不同部分來調(diào)整其關(guān)注的重點,這使得模型能夠更好地理解輸入數(shù)據(jù)的結(jié)構(gòu)和語義,提高模型的性能和泛化能力。

        經(jīng)過多次試驗發(fā)現(xiàn),YOLOv7模型在提取水面漂浮垃圾小目標(biāo)的淺層紋理和輪廓數(shù)據(jù)方面沒有取得理想的結(jié)果,容易導(dǎo)致信息丟失,并顯著影響小型物體的檢測。因此本文引入了一個對小目標(biāo)有效的注意力機制。

        1.3?? IoU 損失函數(shù)

        IoU是目標(biāo)檢測中常用的衡量指標(biāo),計算預(yù)測框和真實框的交并比。但是,IoU只考慮了兩個框之間的重疊程度,沒有考慮到框的位置、大小等因素。GIoU[15]引入了框的全局信息,解決了IoU的不足。在一些情況下,預(yù)測框與真實框之間的距離也是很重要的因素,因此,DIoU[16]在GIoU的基礎(chǔ)上引入了框的距離信息。最后,CIoU在DIoU的基礎(chǔ)上進一步考慮了框的長寬比例的影響。其中,CIoU公式中[α]是一個可調(diào)參數(shù),v表示預(yù)測框和真實框的長寬比例的差異。

        2???? YOLOv7 目標(biāo)檢測模型的改進

        2.1?? E-MP模塊

        MPConv 模塊(如圖2所示)的作用是進行多尺度特征融合和信息傳遞。MPConv 模塊是一種多尺度卷積模塊,在目標(biāo)檢測任務(wù)中,需要對不同尺度的特征進行融合和利用,以提高檢測性能。MPConv在特征提取過程中采用的最大池化操作,會將小目標(biāo)的特征圖壓縮成較小的尺寸,從而導(dǎo)致小目標(biāo)的細節(jié)信息丟失,難以準(zhǔn)確地進行檢測和識別。MPConv在進行特征提取時采用固定大小的池化窗口,無法適應(yīng)小目標(biāo)的尺度變化,因此在小目標(biāo)的檢測和識別過程中容易出現(xiàn)漏檢或誤檢的情況。本文在MPConv的基礎(chǔ)上增加了Laplacians算法來增強小目標(biāo)的邊緣信息,然后再通過Sobel-dx和Sobel-dy計算圖像中每個像素點的水平梯度值來檢測圖像中的水平邊緣。本文提出的用來增強水上目標(biāo)邊緣的E-MP模塊如圖3所示。

        2.2?? Biformer注意力機制

        Biformer[17-18]注意力機制(如圖4所示)稱為BiAttention。BiAttention在BERT自注意力機制上添加一個相互注意力機制,在文獻[19-20]的基礎(chǔ)上應(yīng)用BRA模塊和2層擴展比為e的MLP模塊進行跨位置關(guān)系建模和逐位置嵌入,其核心思想是將Transformer模型的編碼器和解碼器結(jié)構(gòu)相結(jié)合,以實現(xiàn)雙向的信息流動,BiformerBlock包含了兩個注意力機制:正向注意力和反向注意力。正向注意力用于從左到右處理輸入序列,而反向注意力則從右到左處理輸入序列。這樣,模型可以同時利用前后兩個方向的上下文信息,從而更好地捕捉序列中的依賴關(guān)系。

        2.3?? 損失函數(shù)

        本文用SIoU損失函數(shù)替換了原模型中的CIoU損失函數(shù),考慮了角度問題。其中b表示預(yù)測框,bgt表示真實框,c表示預(yù)測框和真實框的最小閉合區(qū)域的對角線距離,[α]是平衡參數(shù),用于衡量長寬比是否一致。添加角度成本可提高檢測精度,如圖5所示。

        判斷使用 [β] 還是[α]是通過和45°的比較,角度成本的計算如式(1):

        [∧=1-2×sin2(arcsinx-π4)] ????? (1)

        SIoU損失函數(shù)對分割結(jié)果進行了平滑處理,可以減少分割結(jié)果的噪聲和不連續(xù)性,減少了真實框和預(yù)測框之間的距離,如式(2):

        [Δ=t=x,y(1-e-γρ)]??? ???????????????????????????????? (2)

        SIoU只關(guān)注兩個形狀的重疊部分,而不考慮它們的位置和大小。因此,無論形狀在圖像中的位置和大小如何變化,SIoU都可以正確地衡量它們之間的相似度。形狀成本[Ω]的定義如式(3):

        [Ω=t=w,h(1-e-ωt)θ]??????????????????????????????????????? (3)

        損 失 函 數(shù) 的 最 終 定 義 如 式(4):

        [LSIoU=1-IIoU+Δ+Ω2]???????????? ??? ???(4)

        總的來說,SIoU損失函數(shù)適用于目標(biāo)檢測任務(wù),具有尺度不變性、對稱性、可導(dǎo)性和相似度度量等特點。改進后的模型圖命名為YOLOv7-edge,其中深色模塊為改進部分,如圖6所示。

        3???? 實驗結(jié)果與分析

        3.1?? 實驗環(huán)境與參數(shù)設(shè)置

        網(wǎng) 絡(luò) 實 驗 環(huán) 境 為 Win10、Python3.8 和PyTorch1.12.1,相關(guān)硬件配置和模型參數(shù)如表1 所示,其中訓(xùn)練數(shù)據(jù)量為 300。

        3.2?? 評價指標(biāo)

        本實驗主要由準(zhǔn)確率、召回率、平均準(zhǔn)確率(AP)、平 均 精 度 均 值(mAP)4個指標(biāo)在相同實驗環(huán)境下的漏檢和誤檢情況來評判,計算公式如下:

        [P=TTPTTP+FFP×100%]???????????????? (5)

        [R=TTPTTP+FFN×100%]?????????????????????????????????? ???? (6)

        [AP=01P(R)dR]???????????????????????????????? (7)

        [mAP=i=1kAPik]??????????? ?????????????????(8)

        準(zhǔn)確率用[TTP]表示;錯誤率用[FFP]表示,錯誤包含誤檢和漏檢兩種情況,誤檢情況用[FFN]表示;其中P 表示準(zhǔn)確率,R 表示召回率。P-R 曲線與坐標(biāo)軸圍成的面積為 AP 值大小。一般情況下網(wǎng)絡(luò)模型性能的評價指標(biāo)是所有類別的 AP 值的平均數(shù)mAP。

        3.3?? 實驗數(shù)據(jù)集

        FloW-Img 子數(shù)據(jù)集是全球第一個水面漂浮垃圾真實影像數(shù)據(jù)集,圖像數(shù)據(jù)集包含2000張圖像,其中包含5271個標(biāo)記的水面漂浮垃圾。訓(xùn)練集和測試集采用6:4的劃分,用1200張不經(jīng)過篩選的圖像作為訓(xùn)練集,其余的自動成為測試集。

        由整個數(shù)據(jù)集、訓(xùn)練集和測試集在一幀內(nèi)的對象數(shù)量和標(biāo)記對象占用面積的分布情況可以看出,不同大小的目標(biāo)在訓(xùn)練數(shù)據(jù)和測試數(shù)據(jù)中的分布近似匹配。小目標(biāo)(面積< 32 × 32)在本文數(shù)據(jù)集中所占的比例最大,這使得檢測更具挑戰(zhàn)性。數(shù)據(jù)集示例如圖7所示。

        3.4?? 消融實驗

        本文針對以下 3 種情況對E-MP模塊的位置進行了實驗,情況1在Backbone中替換MPConv模塊,情況2在Neck中替換MPConv模塊,情況3在Backbone和Neck中替換MPConv模塊,實驗結(jié)果如表 2 所示。其中,mAP@0.5 和 mAP@0.5∶0.95 分別表示 IoU=0.5、0.5≤IoU≤0.95 時各個類別的平均 AP 值。

        注意力模塊的添加對小目標(biāo)檢測的信息提取也有很大的作用,不同模塊對目標(biāo)檢測會產(chǎn)生很大的影響。為了使BiFormer提取更充足有效的信息,分別在E-ELAN模塊、SPPCSPC模塊、REP模塊中進行實驗,實驗結(jié)果如表 3 所示。

        3.5?? YOLOv7 網(wǎng)絡(luò)模型與改進網(wǎng)絡(luò)模型實驗對比

        對水面漂浮小目標(biāo)檢測得出的 P-R 曲線對比如圖8所示。改進后的 YOLOv7-edge網(wǎng)絡(luò)模型在水面漂浮垃圾小目標(biāo)數(shù)據(jù)集的檢測中表現(xiàn)了良好的性能,檢測目標(biāo)的 AP 值比改進前網(wǎng)絡(luò)模型和ACAM-YOLO模型(對小目標(biāo)檢測有利的網(wǎng)絡(luò)模型)提高了很多。

        本文針對實際情況中水面漂浮垃圾小目標(biāo)圖像、水面漂浮垃圾超小目標(biāo)圖像和水面漂浮垃圾密集超小目標(biāo)圖像這三種類型的圖片,對原網(wǎng)絡(luò)模型進行了改進。改進后的模型在檢測這些具有代表性的水面漂浮垃圾小目標(biāo)方面表現(xiàn)出色,有效解決了水上漂浮垃圾檢測問題。對比圖如圖9至圖11所示。

        3.6?? 改進YOLOv7網(wǎng)絡(luò)模型與其他網(wǎng)絡(luò)模型的對比

        在相同環(huán)境、訓(xùn)練參數(shù)和配置下,將經(jīng)典網(wǎng)絡(luò)和一些對小目標(biāo)檢測有益的模型與YOLOv7-edge進行比較,結(jié)果表明本方法在水面漂浮垃圾檢測方面表現(xiàn)出有效性。mAP@0.5和mAP@0.5:0.95指標(biāo)均取得了一定的提升,如表4所示。

        4???? 結(jié)論

        針對水面漂浮垃圾邊緣信息模糊的問題,本文提出了一種基于YOLOv7的邊緣增強模型,首先通過本文提出的E-MP模塊,增強了小目標(biāo)的邊緣信息,其次在SPPCSPC模塊中引入Biformer注意力機制加強底層信息的提取,最后通過對IoU損失函數(shù)進行優(yōu)化,減少了誤檢和漏檢。實驗表明改進后的模型與原有的模型相比檢測精度有了很大的提升,對水面漂浮垃圾治理有一定的實際意義。

        [參考文獻]

        [1] 戚玲瓏,高建瓴. 基于改進YOLOv7的小目標(biāo)檢測[J]. 計算機工程,2023,49(1):41-48.

        [2] 谷永立,宗欣欣. 基于深度學(xué)習(xí)的目標(biāo)檢測研究綜述[J]. 現(xiàn)代信息科技,2022,6(11):76-81.

        [3] Girshick R,Donahue J,Darrell T,et al. Rich feature hierarchies for accurate object detection and semantic segmentation[A]. Proceedings of the IEEE conference on computer vision and pattern recognition[C]. Washington D.C.,USA:IEEE Press,2014:580-587.

        [4] Chen C,Liu M Y,Tuzel O,et al. R-CNN for small object detection[A]. Proceedings of IEEE International Conference on Computer Vision[C]. Washington D.C.,USA:IEEE Press,2016:214-230.

        [5] Hu G,Yang Z,Han J,et al. Aircraft detection in remote sensing images based on saliency and convolution neural network[J]. EURASIP Journal on Wireless Communications and Networking,2018(2018):1-16.

        [6] 趙加坤,孫俊,韓睿,等. 基于改進的Faster Rcnn遙感圖像目標(biāo)檢測[J]. 計算機應(yīng)用與軟件,2022,39(5):192-196+290.

        [7] 賈可心,馬正華,朱蓉,等. 注意力機制改進輕量SSD模型的海面小目標(biāo)檢測[J]. 中國圖象圖形學(xué)報,2022,27(4):1161-1175.

        [8] Han J,Ding J,Xue N,et al. Redet: A rotation-equivariant detector for aerial object detection[A]. Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition[C]. Washington D.C.,USA: IEEE Press,2021: 2786-2795.

        [9] Zand M,Etemad A,Greenspan M. Oriented bounding boxes for small and freely rotated objects[J]. IEEE Transactions on Geoscience and Remote Sensing,2021,60(5): 1-15.

        [10]Yu D,Xu Q,Guo H,et al. Anchor-free arbitrary-oriented object detector using box boundary-aware vectors[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing,2022,15: 2535-2545.

        [11] Zhu X,Lyu S,Wang X,et al. TPH-YOLOv5: Improved YOLOv5 based on transformer prediction head for object detection on drone-captured scenarios[A]. Proceedings of the IEEE/CVF international conference on computer vision[C].Washington D.C.,USA: IEEE Press,2021: 2778-2788.

        [12]Wang C Y,Bochkovskiy A,Liao H Y M. YOLOv7: Trainable bag-of-freebies sets new state-of-the-art for real-time object detectors[A]. Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition[C]. Washington D.C.,USA: IEEE Press,2023: 7464-7475.

        [13]Niu Z,Zhong G,Yu H. A review on the attention mechanism of deep learning[J]. Neurocomputing,2021,452: 48-62.

        [14]Brauwers G,F(xiàn)rasincar F. A general survey on attention mechanisms in deep learning[J]. IEEE Transactions on Knowledge and Data Engineering,2021,35(4): 3279-3298.

        [15] Zhou D,F(xiàn)ang J,Song X,et al. Iou loss for 2d/3d object detection[A]. 2019 international conference on 3D vision (3DV)[C]. Washington D.C.,USA: IEEE Press,2019: 85-94.

        [16]Zheng Z,Wang P,Liu W,et al. Distance-IoU loss:faster and better learning for bounding box regression[J]. Artificial Intelligence,2020,34(7):12993-13000.

        [17]Chu X,Tian Z,Wang Y,et al. Twins: Revisiting the design of spatial attention in vision transformers[J]. Advances in neural information processing systems,2021,34: 9355-9366.

        [18]Zhu L,Wang X,Ke Z,et al. BiFormer: Vision Transformer with Bi-Level Routing Attention[A]. Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition[C]. Washington D.C.,USA:IEEE Press,2023:10323-10333.

        [19]Dong X,Bao J,Chen D,et al. Cswin transformer: A general vision transformer backbone with cross-shaped windows[A]. Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition[C]. Washington D.C.,USA: IEEE Press,2022: 12124-12134.

        [20]Liu Z,Lin Y,Cao Y,et al. Swin transformer: Hierarchical vision transformer using shifted windows[A]. Proceedings of the IEEE/CVF international conference on computer vision[C]. Washington D.C.,USA: IEEE Press,2021:10012-10022.

        猜你喜歡
        實驗檢測信息
        記一次有趣的實驗
        “不等式”檢測題
        “一元一次不等式”檢測題
        “一元一次不等式組”檢測題
        做個怪怪長實驗
        訂閱信息
        中華手工(2017年2期)2017-06-06 23:00:31
        NO與NO2相互轉(zhuǎn)化實驗的改進
        實踐十號上的19項實驗
        太空探索(2016年5期)2016-07-12 15:17:55
        小波變換在PCB缺陷檢測中的應(yīng)用
        展會信息
        中外會展(2014年4期)2014-11-27 07:46:46
        思思久久96热在精品国产| 一区二区在线观看日本视频| 中文字幕漂亮人妻在线| 中文字幕乱码熟妇五十中出| 中文字幕无码不卡免费视频 | 少妇又骚又多水的视频| 国产夫妇肉麻对白| 18禁无遮挡羞羞污污污污网站| 韩国日本亚洲精品视频| 国产一区二区三区精品成人爱| 性色视频加勒比在线观看| 国产探花在线精品一区二区| 精品视频入口| 国产一级一厂片内射视频播放 | 日韩一区三区av在线| 免费国产在线精品一区| 精品一区二区久久久久久久网站| 国产成人福利在线视频不卡| 狼人精品剧情av在线观看| 久久亚洲av成人无码电影a片| vr成人片在线播放网站| 久草视频华人在线观看| 精品少妇一区二区三区免费| 国产真实乱对白精彩久久老熟妇女 | 中国人妻沙发上喷白将av| 国产无套一区二区三区久久| 国产又色又爽又高潮免费视频麻豆 | 上海熟女av黑人在线播放| 国语对白做受xxxxx在线| 国产精品亚洲А∨天堂免下载| 日本中文字幕人妻精品| 国产欧美日韩中文久久| 久久免费的精品国产v∧| 国产女人体一区二区三区| 日本午夜精品一区二区三区| 国产精品亚洲αv天堂无码| 911香蕉视频| 国产精品人成在线观看不卡| 电影内射视频免费观看| 天堂在线www中文| 国产人成在线免费视频|