亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于YOLO的水稻常見害蟲識別方法
        ——以YOLO-BiCa為例

        2024-05-18 11:44:26陳思羽黃丹楊莎匡迎春
        農(nóng)業(yè)與技術(shù) 2024年9期
        關(guān)鍵詞:水稻特征區(qū)域

        陳思羽 黃丹 楊莎 匡迎春

        (湖南農(nóng)業(yè)大學(xué)信息與智能科學(xué)技術(shù)學(xué)院,湖南 長沙 410125)

        引言

        水稻作為我國主要糧食作物,長期受害蟲侵?jǐn)_,不僅對水稻的生長和產(chǎn)量造成威脅,甚至影響整個農(nóng)業(yè)生態(tài)系統(tǒng)。近年來,由于氣候變遷和種植模式調(diào)整,水稻害蟲種類和數(shù)量呈上升趨勢。根據(jù)多國作物健康專家近期研究表明[1],病原體和害蟲造成水稻損失高達(dá)25%~41%,因此,對水稻害蟲及其生命周期的各階段進(jìn)行準(zhǔn)確的識別與檢測,以實(shí)現(xiàn)早期干預(yù)和控制,對于降低水稻產(chǎn)量損失和保持其質(zhì)量至關(guān)重要。

        傳統(tǒng)的害蟲檢測主要依賴于人工和儀器,耗時耗力且易受到主觀和經(jīng)驗(yàn)水平的制約,進(jìn)而引發(fā)誤判風(fēng)險。誤判往往導(dǎo)致農(nóng)藥的不當(dāng)使用,可能污染環(huán)境和損害作物品質(zhì),破壞生態(tài)平衡[2]。因此,實(shí)現(xiàn)快速而準(zhǔn)確的水稻害蟲檢測與識別,對于提升農(nóng)業(yè)生產(chǎn)的效率、保障農(nóng)業(yè)的可持續(xù)性以及維護(hù)生態(tài)平衡具有重大的意義。鑒于昆蟲表型相似且形態(tài)多變[3,4],田間作物害蟲檢測較通用目標(biāo)檢測更具挑戰(zhàn)。因此,基于圖像處理技術(shù)[5]和機(jī)器學(xué)習(xí)技術(shù)[6]的農(nóng)田害蟲檢測技術(shù)逐漸獲得了農(nóng)業(yè)研究者的廣泛關(guān)注和研究。Miranda等[5]使用背景建模、中值濾波等圖像處理技術(shù)識別和提取害蟲特征,并有效去除在特征提取過程中因不同光照條件產(chǎn)生的噪聲。Yao等[7]通過結(jié)合自適應(yīng)性增強(qiáng)(AdaBoost)和SVM等機(jī)器學(xué)習(xí)算法,訓(xùn)練出一種能夠有效檢測稻田中白背蛾子及其不同發(fā)育階段的分類器。由于其他類別樣本不足,當(dāng)前方法只能識別白背蛾子,這限制了其在實(shí)際場景中的應(yīng)用。這些方法都嚴(yán)重依賴于人工設(shè)定,如顏色、形狀等特征,在處理大規(guī)模任務(wù)以及識別形態(tài)復(fù)雜多變的害蟲時,其局限性更為突出。隨著農(nóng)田害蟲檢測需求的日益增長,傳統(tǒng)方法已難以滿足當(dāng)代農(nóng)業(yè)和有害生物管理的需求。

        近年來,隨著人工智能的發(fā)展,深度學(xué)習(xí)在許多領(lǐng)域都取得了成功應(yīng)用[8]。相較于傳統(tǒng)的目標(biāo)檢測方法,基于深度學(xué)習(xí)的方法無需手動提取特定特征,通過迭代學(xué)習(xí)(iterative learning)自動找到合適特征,具有強(qiáng)大的魯棒性和更高的識別準(zhǔn)確率。越來越多的學(xué)者將深度學(xué)習(xí)技術(shù)應(yīng)用于農(nóng)作物害蟲識別領(lǐng)域[9],并取得了顯著進(jìn)展,其中包括以Faster-RCNN[10]為代表的兩階段目標(biāo)檢測算法,以YOLO[11]系列為代表的單階段目標(biāo)檢測算法。Wang等[12]提出了一種基于Faster R-CNN的蘋果典型害蟲識別和計數(shù)方法——MPest-RCNN,采用小錨點(diǎn)提取特征,從而提高了對小型害蟲的識別準(zhǔn)確度。Yunong Tian等[13]提出了一種稱為MD-YOLO的多尺度密集新方法,用于檢測小目標(biāo)鱗翅目害蟲。傳統(tǒng)的YOLO在處理小目標(biāo)時存在尺度適應(yīng)性不足、信息丟失等問題,而MD-YOLO通過在不同尺度下密集地提取特征,并將這些特征進(jìn)行融合,顯著提升了模型對小目標(biāo)的檢測性能。Yang S等[14]提出了一種基于YOLOv7的玉米害蟲檢測方法,通過插入CSPResNeXt-50模塊和VoVGSCSP模塊,以提高網(wǎng)絡(luò)檢測精度和檢測速度,同時減少了模型的計算量。根據(jù)上述研究發(fā)現(xiàn),兩階段算法已經(jīng)在農(nóng)作物害蟲識別方面有較優(yōu)異的表現(xiàn),但識別速度相對較慢,實(shí)時性能受限。相比之下,YOLO系列作為單階段目標(biāo)檢測算法的代表,將目標(biāo)框的生成與特征提取合并為一個步驟,大大簡化了檢測流程,提高了識別速度。因此,在需要快速、精確且實(shí)時的害蟲識別應(yīng)用中,YOLO系列通常更具優(yōu)勢。

        本研究采用YOLOv5作為基礎(chǔ)模型,在骨干網(wǎng)絡(luò)中引入BiFormer優(yōu)化特征提取能力。引入坐標(biāo)注意力機(jī)制,增強(qiáng)模型對于目標(biāo)的空間定位能力,由于其足夠靈活和輕量,能夠簡單地插入到Y(jié)OLOv5網(wǎng)絡(luò)的核心結(jié)構(gòu)中,而不會引入過多的計算負(fù)擔(dān),有利于在農(nóng)作物害蟲識別的實(shí)際應(yīng)用。

        1 基于YOLOv5的水稻害蟲識別模型的改進(jìn)

        1.1 YOLOv5模型概述

        YOLOv5作為當(dāng)前主流的單階段目標(biāo)檢測模型,在YOLO系列算法基礎(chǔ)上進(jìn)行了多項關(guān)鍵性改進(jìn)。該模型不僅提供了實(shí)時目標(biāo)檢測所需的高速度,還保持了出色的準(zhǔn)確性,使其在眾多應(yīng)用場景中脫穎而出。YOLOv5采用了一系列先進(jìn)的輕量化技術(shù),有效減小了模型體積,使其在資源受限的設(shè)備上也能發(fā)揮出強(qiáng)大的性能,成為農(nóng)作物病蟲害監(jiān)測等快速且準(zhǔn)確目標(biāo)檢測應(yīng)用的理想選擇。本文基于YOLOv5最新的6.0版本進(jìn)行改進(jìn),其采用了CSPDarkNet53結(jié)構(gòu),在保證高精度的同時,減少了計算量和參數(shù)量,并有助于實(shí)現(xiàn)模型的輕量化。此外,該版本還引入了SPPF模塊,以取代5.0版本中的SPP模塊。這一改動在保持精度的同時,進(jìn)一步加快了模型的推理速度。在Neck部分,YOLOv5 6.0采用了FPN加PAN結(jié)構(gòu),通過融合不同層次的特征,提高特征的利用率,進(jìn)一步提升了模型的檢測速度。綜上所述,YOLOv5 6.0通過一系列優(yōu)化和創(chuàng)新,在保持高精度的同時,實(shí)現(xiàn)了模型的高效和輕量化,為害蟲識別等應(yīng)用場景提供了更強(qiáng)大的支持。

        1.2 YOLO-BiCa

        針對水稻害蟲體積小、形態(tài)特征多變以及背景環(huán)境復(fù)雜等難題,本文對YOLOv5進(jìn)行2個方面的改進(jìn),提出一種名為YOLO-BiCa的水稻害蟲識別模型。采用新型通用視覺網(wǎng)絡(luò)架構(gòu)BiFormer[15]替換YOLOv5骨干網(wǎng)絡(luò)中傳統(tǒng)的卷積層和C3模塊,優(yōu)化特征提取能力;利用BiFormer中的動態(tài)稀疏注意力機(jī)制,使網(wǎng)絡(luò)能力機(jī)制,使網(wǎng)絡(luò)能夠同時關(guān)注不同層次的特征,顯著提升模型對小目標(biāo)的檢測性能;同時精簡網(wǎng)絡(luò)結(jié)構(gòu),從而實(shí)現(xiàn)更高的計算效率。為了進(jìn)一步提升模型的檢測精度,在YOLOv5的檢測頭引入坐標(biāo)注意力機(jī)制(Coordinate Attention,CA)[16]增強(qiáng)模型對于目標(biāo)的空間定位能力以及對目標(biāo)關(guān)鍵區(qū)域的感知。同時CA能夠自適應(yīng)地關(guān)注重要的特征,使模型在復(fù)雜的農(nóng)田背景中仍然能夠保持較高的精確度。通過上述優(yōu)化,為水稻害蟲識別的實(shí)際應(yīng)用場景提供強(qiáng)大的技術(shù)支持。改進(jìn)的YOLOv5模型結(jié)構(gòu)如圖1所示。

        圖1 YOLO-BiCa模型結(jié)構(gòu)圖

        1.2.1 BiFormer

        Transformer[17]模型利用自注意力(Self-Attention)機(jī)制賦予其更卓越的長距離依賴捕捉能力,因此被廣泛應(yīng)用到目標(biāo)檢測領(lǐng)域中。然而,這種結(jié)構(gòu)不可避免的帶來了2大挑戰(zhàn):內(nèi)存占用龐大,計算成本高。為了克服這些問題,研究者通過引入具有多種手工設(shè)計的稀疏注意力模式來降低模型的復(fù)雜度[18-21]。盡管這些方法在一定程度上緩解了計算壓力,但在無法全面捕捉長距離關(guān)系方面仍存在局限性。針對上述問題,Lei Zhu等[15]提出了一種名為雙層路由注意力機(jī)制BRA(Bi-level routing attention)的動態(tài)稀疏注意力(Dynamic sparse attention)方法,利用雙層路由更有效地解決長距離依賴捕捉的問題。以BRA為核心組件,Li進(jìn)一步設(shè)計了一種可視化通用視覺網(wǎng)絡(luò)架構(gòu)——BiFormer,其核心設(shè)計思路在于利用BRA模塊在粗略的區(qū)域級別預(yù)選過濾掉無關(guān)的鍵值對,在剩余的候選區(qū)域(即路由區(qū)域)中應(yīng)用精細(xì)化的token-to-token注意力機(jī)制。這一策略不僅賦予了模型自適應(yīng)性,還顯著提高了計算效率且大幅度降低了內(nèi)存占用。因此,Biformer在繼承Transformer模型優(yōu)勢的同時,實(shí)現(xiàn)了更為靈活的內(nèi)容感知和計算資源分配,成為當(dāng)前視覺研究的一大創(chuàng)新亮點(diǎn)。BiFormer和BiFormer Block的模型結(jié)構(gòu)見圖2。

        圖2 BiFormer整體結(jié)構(gòu)

        BRA的運(yùn)行流程主要分為3步。

        區(qū)域劃分和線性映射。假設(shè)輸入1張二維特征圖X∈H×W×C,將其分割成S×S個不重疊的區(qū)域,每個區(qū)域包含個特征向量。通過重塑X可為進(jìn)行區(qū)域劃分,經(jīng)過線性映射獲得Q、K、V張量,其線性投影:

        Q=XrWq,K=XrWk,V=XrWv

        (1)

        式中,Wq、Wk、Wv∈C×C,分別為張量Q、K、V的投影權(quán)重。

        基于有向圖實(shí)現(xiàn)區(qū)域到區(qū)域的路由。在區(qū)域級別上,通過對Q和K計算平均值,得到區(qū)域級Qr、Kr∈S2×C,通過對Qr、Kr進(jìn)行矩陣乘法,構(gòu)建區(qū)域到區(qū)域親和圖的領(lǐng)接矩陣:

        Ar=Qr(Kr)T

        (2)

        Ar中的每個條目,表示2個區(qū)域之間的語義相關(guān)性。保留每個區(qū)域前k個最相關(guān)連接修剪親和圖,得到路由索引矩陣Ir:

        Ir=topkIndex(Ar)

        (3)

        式中,Ir的第i行包含第i個區(qū)域最相關(guān)的k個索引。

        Token-to-token的注意力。使用區(qū)域到區(qū)域路由索引矩陣Ir,可以在選定的k個路由區(qū)域內(nèi)應(yīng)用Token-to-token的細(xì)粒度注意力。由于這些路由區(qū)域可能分散在整個特征圖中,因此收集鍵Kg和值Vg張量:

        Kg=gather(K,Ir),Vg=gather(V,Ir)

        (4)

        在收集的鍵值對上應(yīng)用注意力機(jī)制計算輸出O:

        O=Attention(Q,Kg,Vg)+LCE(V)

        (5)

        式中,LCE(V)是一個局部上下文增強(qiáng)項,可以有效增強(qiáng)局部上下文特征表示能力,同時確保計算效率不受影響,這一設(shè)計為后續(xù)的害蟲檢測任務(wù)提供了更為精準(zhǔn)且豐富的特征表示。

        1.2.2 坐標(biāo)注意力機(jī)制

        注意力機(jī)制的核心優(yōu)勢在于通過賦予不同部分差異化的權(quán)重,使模型在處理輸入數(shù)據(jù)時能夠聚焦于重要信息,抑制無用信息,進(jìn)而提升模型的性能[22]。目前被廣泛應(yīng)用的SE(Squeeze-and Excitation)注意力機(jī)制[23]僅關(guān)注通道信息,而沒有考慮位置信息,因此限制了其在一些場景中的應(yīng)用。卷積塊注意模塊(Convolutional Block Attention Module,CBAM)[24]雖然通過卷積操作和全局池化加權(quán)捕獲了局部信息,但忽略了遠(yuǎn)程信息的相關(guān)性。而本文引用的坐標(biāo)注意力機(jī)制(Coordinate Attention,CA)[16]在通道注意力中引入位置信息,并將其分解為沿著水平和垂直2個方向的一維特征編碼操作,以確保模型不會丟失位置信息,以及更好地捕獲遠(yuǎn)程依賴關(guān)系,同時,CA的另一大優(yōu)勢在于能夠兼顧位置信息和通道之間的關(guān)聯(lián)性,更精準(zhǔn)的定位感興趣區(qū)域。因此,在YOLOV5中引入CA可以使模型更加有效地應(yīng)對在復(fù)雜環(huán)境下的害蟲小目標(biāo)任務(wù)。CA的具體結(jié)構(gòu)圖如圖3所示。

        圖3 Coordinate Attention結(jié)構(gòu)

        CA機(jī)制的運(yùn)作分為2步:坐標(biāo)信息的嵌入,坐標(biāo)注意力的生成。

        坐標(biāo)信息嵌入。對輸入的特征圖進(jìn)行操作,利用池化核在水平坐標(biāo)和垂直坐標(biāo)方向上的2個空間范圍(H,1)或(1,W)對每個通道進(jìn)行編碼。高度h和寬度w在第C個通道的輸出表示:

        (6)

        (7)

        式中,xc(h,i)和xc(j,w)分別表示在水平方向上和垂直方向上第c通道的輸入。

        坐標(biāo)注意力生成。將高度和寬度2個方向上的特征圖進(jìn)行拼接,發(fā)送至共享的1×1的卷積變換函數(shù)F1,將通道降維至C/r,將F1送入Sigmoid激活函數(shù),獲得一個合成的C/r×(H+W)的特征圖f,公式:

        f=δ(F1([zh,zw]))

        (8)

        同時,利用1×1卷積分別對特征圖f進(jìn)行維度提升至C,得到特征圖Fh和Fw,并使用Sigmoid激活函數(shù)進(jìn)行非線性激活。

        得到特征圖在高度和寬度上的注意力權(quán)重g^h和在寬度方向的注意力權(quán)重g^w。公式:

        gh=σ[Fh(fh)]

        (9)

        gw=σ[Fw(fw)]

        (10)

        對得到的gh和gw進(jìn)行加權(quán)融合,公式:

        (11)

        2 水稻常見害蟲數(shù)據(jù)集

        2.1 圖片采集

        目前網(wǎng)絡(luò)上存在一些農(nóng)作物昆蟲鑒定的公開數(shù)據(jù)集,但針對水稻害蟲的專用數(shù)據(jù)集稀缺。因此,本文使用的數(shù)據(jù)集主要來源于實(shí)地采集和相關(guān)文獻(xiàn)調(diào)研。本文構(gòu)建的數(shù)據(jù)集共7839張水稻害蟲圖像,包括8種水稻害蟲,具體為稻縱卷葉螟、二化螟、稻大螟、稻螟蛉、稻綠蝽、稻蝽象、稻蝗和蝽卵,將數(shù)據(jù)集按9∶1的比例劃分為訓(xùn)練集和驗(yàn)證集。采集的部分水稻害蟲圖像見圖4。

        圖4 采集的部分水稻害蟲圖像

        2.2 圖像處理與標(biāo)注

        在查找大量文獻(xiàn)和農(nóng)業(yè)專家的指導(dǎo)下,對獲取到的水稻害蟲圖像進(jìn)行標(biāo)注。圖像標(biāo)注工具使用麻省理工學(xué)院(MIT)計算機(jī)科學(xué)與人工智能實(shí)驗(yàn)室(CSAIL)開發(fā)的LabelMe,將數(shù)據(jù)集整理成標(biāo)準(zhǔn)的YOLO數(shù)據(jù)標(biāo)注格式。

        2.3 數(shù)據(jù)增強(qiáng)

        為了增加訓(xùn)練數(shù)據(jù)的多樣性,平衡類別數(shù)量分布,從而提高模型的識別效率與泛化能力,本文從旋轉(zhuǎn)、翻轉(zhuǎn)、隨機(jī)剪裁以及添加噪聲4個方面進(jìn)行數(shù)據(jù)增強(qiáng)。

        3 試驗(yàn)結(jié)果與分析

        3.1 試驗(yàn)環(huán)境與參數(shù)配置

        本試驗(yàn)在Windows 10(64位)系統(tǒng)環(huán)境上運(yùn)行,CPU為AMD Ryzen 97950X 16-Core Processor 4.50GHz,內(nèi)存64GB;GPU為NVIDIA GeForce RTX 4090 24G顯存;深度學(xué)習(xí)框架Pytorch版本為2.0.1;cuda版本為11.8。

        3.2 評價指標(biāo)

        本試驗(yàn)主要使用準(zhǔn)確率Precison、召回率Recall和平均準(zhǔn)確率mAP來評價模型的各項性能。Precison和Recall的表達(dá)式:

        (12)

        (13)

        式中,TP表示分類正確的樣本;FP表示分類錯誤的負(fù)樣本;FN表示分類錯誤的正樣本。

        平均準(zhǔn)確率(Average Precision,AP)通過計算模型在不同置信度閾值下的P-R曲線下的面積來評估模型的準(zhǔn)確性。mAP是指所有類別AP的平均值。提供了對模型在整個數(shù)據(jù)集上檢測性能的綜合評估。計算mAP的過程是將每個類別的AP值相加,除以類別總數(shù),得到平均值A(chǔ)P和mAP的表達(dá)式:

        (14)

        (15)

        式中,QR代表類別數(shù)。

        3.3 YOLO-BiCa與其他方法性能對比

        為了驗(yàn)證YOLO-BiCa的檢測性能,將其與常用的目標(biāo)檢測算法SSD、Faster RCNN、YOLOv3、YOLOv4、YOLOv5l在相同試驗(yàn)環(huán)境下,使用本文自建的水稻害蟲數(shù)據(jù)集與YOLO-BiCa進(jìn)行對比試驗(yàn),驗(yàn)證各項指標(biāo)。最終試驗(yàn)結(jié)果見表1。

        表1 不同算法對比結(jié)果

        由表1可以看出,與其他算法相比,針對水稻小目標(biāo)害蟲數(shù)據(jù)集所提出的YOLO-BiCa能夠相對準(zhǔn)確地識別出圖像中的害蟲,YOLO-BiCa的mAP和Recall達(dá)到86.2%和81.3%,相較于基礎(chǔ)模型YOLOv5l提高了4.5%和2.5%。YOLO-BiCa與SSD、Faster RCNN、YOLOv3、YOLOv4相比,mAP分別高出20.8%、15.3%、14.1%、33.9%。除了評估模型的平均準(zhǔn)確率以外,模型參數(shù)量也是影響模型復(fù)雜度和訓(xùn)練時間的重要指標(biāo)。YOLO-BiCa模型參數(shù)量最小,僅為基礎(chǔ)模型YOLOV5l的1/2,更方便模型在實(shí)際應(yīng)用中移動端的部署??偟膩碚f,改進(jìn)的模型YOLO-BiCa能較好地滿足水稻害蟲識別的要求。YOLO-BiCa訓(xùn)練輸出的指標(biāo)結(jié)果圖和識別效果圖如圖5、圖6所示。

        圖5 YOLO-BiCa訓(xùn)練結(jié)果

        圖6 YOLO-BiCa識別結(jié)果

        3.4 消融試驗(yàn)

        為了評估模塊的有效性,本文使用YOLOv5l作為基準(zhǔn)模型,在自建的水稻害蟲數(shù)據(jù)集以及相同的環(huán)境參數(shù)設(shè)置上,通過分別添加不同模塊來驗(yàn)證各項模塊的有效性,具體結(jié)果見表2。

        表2 消融實(shí)驗(yàn)

        由表2可以看出,以YOLOv5l為基礎(chǔ)模型,分別優(yōu)化骨干網(wǎng)絡(luò)引入BiFormer和添加CA,在僅優(yōu)化骨干網(wǎng)絡(luò)和僅添加注意力機(jī)制時,mAP均有提升。通過消融實(shí)驗(yàn)對比發(fā)現(xiàn),對YOLOv5l同時進(jìn)行2個模塊的改進(jìn)時,各項指標(biāo)提升最為明顯,mAP和Recall分別提高了4.7%和2.5%,參數(shù)量減少1/2,證明了各個模塊優(yōu)化效果的有效性。

        4 結(jié)論與討論

        為解決傳統(tǒng)算法在識別水稻小目標(biāo)害蟲時遇到的特征提取困難和識別精度不足等問題,本文選取8種常見的水稻害蟲構(gòu)建數(shù)據(jù)集,提出了一種名為YOLO-BiCa的水稻害蟲檢測模型。該模型在YOLOv5的基礎(chǔ)上融入了BiFormer視覺網(wǎng)絡(luò)架構(gòu),優(yōu)化特征提取能力,提升其在害蟲小目標(biāo)識別方面的性能;引入坐標(biāo)注意力機(jī)制,增強(qiáng)模型對于目標(biāo)的空間定位能力以及對目標(biāo)關(guān)鍵區(qū)域的感知。同時在自建的水稻害蟲數(shù)據(jù)集上進(jìn)行試驗(yàn),相較于基線模型YOLOv5l,YOLO-BiCa的mAP提高了4.5%。在精確度、召回率2個指標(biāo)上都占有一定優(yōu)勢,能滿足水稻害蟲精準(zhǔn)識別的需求,為水稻害蟲識別研究中的難題提供了新的解決路徑。

        猜你喜歡
        水稻特征區(qū)域
        什么是海水稻
        水稻種植60天就能收獲啦
        軍事文摘(2021年22期)2021-11-26 00:43:51
        一季水稻
        文苑(2020年6期)2020-06-22 08:41:52
        如何表達(dá)“特征”
        水稻花
        文苑(2019年22期)2019-12-07 05:29:00
        不忠誠的四個特征
        抓住特征巧觀察
        關(guān)于四色猜想
        分區(qū)域
        基于嚴(yán)重區(qū)域的多PCC點(diǎn)暫降頻次估計
        電測與儀表(2015年5期)2015-04-09 11:30:52
        精品人妻码一区二区三区红楼视频| 无码中文字幕人妻在线一区二区三区| 男女射黄视频网站在线免费观看| 国产午夜福利精品一区二区三区 | 国产自产二区三区精品| 小辣椒福利视频导航| 人人做人人妻人人精| 成年视频网站在线观看777| 成年男女免费视频网站点播| 麻豆91蜜桃传媒在线观看| 人妻av鲁丝一区二区三区| 夜夜综合网| 国产美女高潮流的白浆久久| 永久免费视频网站在线| 无码人妻av免费一区二区三区| 国产精品自在线免费| 精品一区二区三区长筒靴| 邻居美少妇张开腿让我爽了一夜 | 91久久国产综合精品| 亚洲一区二区懂色av| 日韩网红少妇无码视频香港| 亚洲va中文字幕无码久久不卡 | 亚洲依依成人亚洲社区| 日韩不卡av高清中文字幕| 亚洲1区第2区第3区在线播放| 精品人妻av区乱码| 无码人妻品一区二区三区精99 | 国产成人av免费观看| 日本中文字幕一区二区高清在线| 日本女优中文字幕在线播放| 疯狂的欧美乱大交| 日日人人爽人人爽人人片av| 中文字幕你懂的一区二区| 中文无码av一区二区三区| 日本欧美视频在线观看| 精品国产91久久久久久久a| av在线高清观看亚洲| 亚洲精品久久久久久久不卡四虎 | 人妻少妇一区二区三区| 在线亚洲日本一区二区| 猫咪av成人永久网站在线观看|