亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于改進(jìn)SSD網(wǎng)絡(luò)的目標(biāo)檢測方法

        2020-06-22 13:15:56周德良
        軟件導(dǎo)刊 2020年5期
        關(guān)鍵詞:損失函數(shù)目標(biāo)檢測

        周德良

        摘 要:傳統(tǒng)目標(biāo)檢測方法存在準(zhǔn)確率低、可靠性差、效率低等問題,無法滿足對大量圖片準(zhǔn)確、高效處理的需求。對SSD網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行改進(jìn),刪除原網(wǎng)絡(luò)最后兩個(gè)預(yù)測層,對保留各預(yù)測層的默認(rèn)框個(gè)數(shù)和寬高比進(jìn)行優(yōu)化,同時(shí)對保留的最后一個(gè)預(yù)測層的網(wǎng)絡(luò)參數(shù)進(jìn)行改進(jìn)。改進(jìn)后的SSD網(wǎng)絡(luò)減少了網(wǎng)絡(luò)參數(shù)和計(jì)算量,對存在遮擋、目標(biāo)較小等情況的圖片數(shù)據(jù)具有更好的檢測精度和檢測效果,同時(shí)模型檢測的mAP提高了約5.1%。改進(jìn)后的網(wǎng)絡(luò)模型解決了傳統(tǒng)方法的不足,可以實(shí)時(shí)、準(zhǔn)確、高效地對大量圖片數(shù)據(jù)進(jìn)行目標(biāo)檢測處理。

        關(guān)鍵詞:SSD網(wǎng)絡(luò);目標(biāo)檢測;預(yù)測層;默認(rèn)候選框;損失函數(shù)

        DOI:10. 11907/rjdk. 192082 開放科學(xué)(資源服務(wù))標(biāo)識碼(OSID):

        中圖分類號:TP301文獻(xiàn)標(biāo)識碼:A 文章編號:1672-7800(2020)005-0052-04

        0 引言

        目標(biāo)檢測[1-4](Object Detection)是利用圖像處理與模式識別等理論和方法,檢測并確定圖像中存在的目標(biāo)對象及其語義類別,同時(shí)在圖像中標(biāo)定出目標(biāo)對象位置的檢測技術(shù)。SSD目標(biāo)檢測[5-8]通過多層表示對數(shù)據(jù)間的復(fù)雜關(guān)系進(jìn)行建模,并通過組合低級特征以形成更加抽象的高級特征,從而完成對數(shù)據(jù)特征的提取,并基于已提取特征,利用訓(xùn)練好的檢測模型對新樣本進(jìn)行目標(biāo)檢測。其具有很強(qiáng)的建模和推理能力,能夠有效、準(zhǔn)確地解決許多復(fù)雜的目標(biāo)檢測問題。目標(biāo)檢測具有廣闊的應(yīng)用前景和較高的市場價(jià)值,其不僅可以應(yīng)用于智能視頻監(jiān)控、無人駕駛、機(jī)器人導(dǎo)航、行人檢測[9]等領(lǐng)域,也可以應(yīng)用于人體行為識別、圖像語義分割、事件檢測等更復(fù)雜的領(lǐng)域。

        傳統(tǒng)目標(biāo)檢測方法[10-11]主要采用特征提取+分類模式,首先將目標(biāo)從視頻或圖片中分割出來并對其進(jìn)行特征提取,將提取到的特征與標(biāo)準(zhǔn)設(shè)計(jì)特征進(jìn)行比對,然后利用SVM[12]、Adaboost[13]等分類器進(jìn)行類別判斷。傳統(tǒng)方法存在準(zhǔn)確率低、可靠性差、效率低等問題,無法對傳播媒介迅速發(fā)展所產(chǎn)生的大量圖片進(jìn)行準(zhǔn)確、高效處理。本文基于改進(jìn)的SSD網(wǎng)絡(luò)對圖片數(shù)據(jù)進(jìn)行學(xué)習(xí)訓(xùn)練與目標(biāo)檢測,通過優(yōu)化網(wǎng)絡(luò)結(jié)構(gòu)提高模型檢測性能,旨在滿足對大量圖片數(shù)據(jù)進(jìn)行準(zhǔn)確、高效地目標(biāo)檢測需求。

        1 SSD

        SSD[5-8](Single Shot MultiBox Dector)是2016 在ECCV上提出的一種目標(biāo)檢測算法,為目前主要的目標(biāo)檢測框架之一。SSD采用了YOLO[14-15]的回歸思想,將目標(biāo)檢測轉(zhuǎn)化為簡單的回歸問題進(jìn)行處理;SSD采用Faster RCNN[16]中的Anchor機(jī)制,選取不同尺度和長寬比的默認(rèn)框;同時(shí),SSD采用基于特征金字塔(Pyramidal Feature Hierachy)的檢測方式,在不同尺度的特征圖上同時(shí)進(jìn)行Softmax分類和位置回歸。相比Faster RCNN,SSD具有顯著速度優(yōu)勢,而相比YOLO,其又具有顯著的mAP優(yōu)勢。

        1.1 SSD網(wǎng)絡(luò)結(jié)構(gòu)

        SSD網(wǎng)絡(luò)架構(gòu)如圖1所示,主要由位于前端的基礎(chǔ)網(wǎng)絡(luò)部分和位于后端的附加特征提取部分組成。其中,基礎(chǔ)網(wǎng)絡(luò)部分采用VGG-16[17]分類模型去除分類層的卷積網(wǎng)絡(luò),主要用于提取目標(biāo)的初級特征。該部分包含13個(gè)卷積層,在對尺寸為300×300 的輸入圖像進(jìn)行卷積運(yùn)算后可得到512張19×19的特征圖。附加特征提取部分是一組級聯(lián)的卷積神經(jīng)網(wǎng)絡(luò),主要用于提取目標(biāo)的高級特征。該部分包含10個(gè)卷積層,其中前兩個(gè)卷積層Conv6和Conv7分別由VGG-16模型中全連接層Fc6與Fc7通過下采樣和 atrous方法修改而成,同時(shí)去除了VGG-16中的dropout層和分類層,并將池化層pool5由原來的2×2-s2?更改為3×3-s1;其余8層為格外創(chuàng)建的卷積層,分為4組,每一組都先使用1×1的卷積核降通道,再使用3×3 的卷積核增通道。

        1.2 SSD檢測機(jī)制

        SSD目標(biāo)檢測機(jī)制主要以不同尺度的特征圖和默認(rèn)候選框修正作為檢測基礎(chǔ),具體內(nèi)容如下:

        SSD網(wǎng)絡(luò)選取conv4_3、fc7、conv8_2、conv9_2、conv10_2、conv11_2等6個(gè)卷積層作為目標(biāo)檢測的預(yù)測層,對這6個(gè)預(yù)測層不同尺度的特征圖同時(shí)進(jìn)行Softmax分類和位置回歸。針對每一層特征圖,選取若干不同大小、不同長寬比的默認(rèn)候選框,其中能與Ground Truth物體框相匹配的默認(rèn)候選框就是正樣本,負(fù)責(zé)對待檢目標(biāo)進(jìn)行分類與定位,反之為負(fù)樣本,與背景相匹配。為了保證正負(fù)樣本盡量平衡,采用Hard Negative Mining方法對負(fù)樣本進(jìn)行抽樣,以保證正負(fù)樣本比例接近1∶3。默認(rèn)候選框大小隨預(yù)測層深度增加不斷增大,因此淺層預(yù)測層負(fù)責(zé)預(yù)測小目標(biāo),深層預(yù)測層負(fù)責(zé)預(yù)測大目標(biāo)。利用前向傳播在不同尺度特征圖上回歸得到默認(rèn)候選框的修正值,據(jù)此對默認(rèn)候選框進(jìn)行修正可得到待檢目標(biāo)的預(yù)測框,然后計(jì)算目標(biāo)損失函數(shù)并利用誤差反向傳播更新各層相關(guān)參數(shù)。通過前向傳播與誤差反向傳播的不斷迭代,最終在不同尺度特征圖上可得到待檢目標(biāo)的最終預(yù)測框和類別信息。

        1.3 SSD目標(biāo)損失函數(shù)

        SSD網(wǎng)絡(luò)同時(shí)對目標(biāo)位置和類別進(jìn)行回歸,因此目標(biāo)損失函數(shù)是置信損失和位置損失之和,如式(1)所示。

        其中,N為與Ground Truth物體框相匹配的默認(rèn)候選框個(gè)數(shù);x為默認(rèn)候選框與不同類別的Ground Truth物體框匹配結(jié)果;c為類別置信度;l為預(yù)測框位置信息;g為Ground Truth物體框位置信息;a為位置損失權(quán)重參數(shù);[Lconf(x,c)]為類別置信損失;[Lloc(x,l,g)]為位置置信損失。

        1.4 SSD訓(xùn)練流程

        SSD訓(xùn)練流程概括如下:①輸入數(shù)據(jù)經(jīng)過前向傳播得到不同層級的特征圖,選取部分特征層作為預(yù)測層,并在不同尺度特征圖上選取若干不同大小、不同長寬比的默認(rèn)候選框;②將前端網(wǎng)絡(luò)產(chǎn)生的特征圖作為預(yù)測層的輸入,在預(yù)測層經(jīng)過卷積計(jì)算得到每個(gè)默認(rèn)候選框的坐標(biāo)位置偏移量和類別置信度;③根據(jù)默認(rèn)候選框的偏移量計(jì)算出待檢目標(biāo)的預(yù)測框,再根據(jù)類別置信度和定位置信度計(jì)算每個(gè)默認(rèn)候選框的損失函數(shù),累加求和得到網(wǎng)絡(luò)總體損失函數(shù);④將網(wǎng)絡(luò)誤差通過反向傳播分?jǐn)偨o各層所有單元,根據(jù)各單元誤差信號利用鏈?zhǔn)角髮?dǎo)法則計(jì)算梯度,調(diào)整各單元權(quán)重和相關(guān)參數(shù);⑤重復(fù)上述過程直到損失函數(shù)滿足一定閾值范圍,或迭代訓(xùn)練達(dá)到預(yù)定最大迭代次數(shù)為止。

        2 SSD目標(biāo)檢測

        2.1 數(shù)據(jù)處理

        實(shí)驗(yàn)數(shù)據(jù)集采用網(wǎng)絡(luò)媒介上下載的圖片,一共包括 ? 9 500張,每一張包含1個(gè)或多個(gè)目標(biāo)物體。利用labelImg圖片標(biāo)注工具對數(shù)據(jù)集圖片中出現(xiàn)的人、貓、狗、綿羊、小汽車、摩托車、船、飛機(jī)等20類常見目標(biāo)物體進(jìn)行標(biāo)注,每標(biāo)注完成一張圖片對應(yīng)生成一個(gè)xml文件,里面包含對應(yīng)圖片內(nèi)所有目標(biāo)物體的標(biāo)簽信息和位置信息。將9 500張數(shù)據(jù)隨機(jī)取出7 600張作為訓(xùn)練集,用于網(wǎng)絡(luò)模型訓(xùn)練,余下的1 900張作為測試集,用于迭代訓(xùn)練過程中的模型測試,并通過腳本程序?qū)⒂?xùn)練集與測試集數(shù)據(jù)分別對應(yīng)轉(zhuǎn)化成LMDB數(shù)據(jù)文件,供神經(jīng)網(wǎng)絡(luò)讀取數(shù)據(jù)并用于訓(xùn)練及測試。訓(xùn)練過程中,通過數(shù)據(jù)增強(qiáng)方法隨機(jī)改變圖片亮度、對比度、飽和度,同時(shí)對圖片進(jìn)行隨機(jī)剪切、鏡像等,以增加網(wǎng)絡(luò)訓(xùn)練模型的泛化性,提高網(wǎng)絡(luò)模型檢測能力。

        2.2 網(wǎng)絡(luò)改進(jìn)

        未改進(jìn)SSD網(wǎng)絡(luò)的各預(yù)測層基本參數(shù)如表1所示,可以發(fā)現(xiàn),越靠前的預(yù)測層其特征圖尺寸越大,但感受野尺寸和默認(rèn)框尺寸越小;越靠后的預(yù)測層其特征圖尺寸越小,但感受野尺寸和默認(rèn)框尺寸越大。因此,靠前的預(yù)測層負(fù)責(zé)預(yù)測圖片中的小目標(biāo),而靠后的預(yù)測層負(fù)責(zé)預(yù)測圖片中的大目標(biāo),尤其是conv10_2和conv11_2這兩個(gè)預(yù)測層,其寬高比為1的默認(rèn)框尺寸均在200×200以上,最大的甚至接近SSD網(wǎng)絡(luò)輸入圖像的尺寸300×300,因而主要負(fù)責(zé)預(yù)測占據(jù)圖片尺寸一半以上甚至幾乎整個(gè)圖片畫面的更大目標(biāo)。

        圖2為所有數(shù)據(jù)集Ground Truth物體框的分布情況,圖中橫軸表示Ground Truth物體框的寬,縱軸表示Ground Truth物體框的高,黑色點(diǎn)表示Ground Truth物體框的寬高分布。從圖2可以發(fā)現(xiàn),在區(qū)域A(橫軸200~300、縱軸200~300)、區(qū)域B(橫軸200~300、縱軸135~200)和區(qū)域C(橫軸135~200、縱軸200~300)內(nèi)黑色點(diǎn)分布非常稀少,但在這3個(gè)區(qū)域之外黑色點(diǎn)分布非常濃密,這表明Ground Truth物體框在區(qū)域A、B、C分布非常稀少,幾乎全部Ground Truth物體框都分布在這3個(gè)區(qū)域之外。同時(shí)參考表1可以發(fā)現(xiàn),conv10_2和conv11_2這兩個(gè)預(yù)測層所具有的默認(rèn)框尺寸與訓(xùn)練數(shù)據(jù)集Ground Truth物體框分布存在較差的匹配度,它們相對訓(xùn)練數(shù)據(jù)集Ground Truth物體框顯然更適合預(yù)測更大的目標(biāo),而其它4個(gè)預(yù)測層的默認(rèn)框尺寸與訓(xùn)練數(shù)據(jù)集Ground Truth物體框分布則能夠很好地匹配。因此,為了更好地對待檢目標(biāo)進(jìn)行學(xué)習(xí)訓(xùn)練與預(yù)測,同時(shí)為了加快SSD網(wǎng)絡(luò)的計(jì)算和收斂速度,刪掉原SSD網(wǎng)絡(luò)的預(yù)測層conv10_2和conv11_2,保留其它4個(gè)預(yù)測層conv4_3、fc7、conv8_2和conv9_2。觀察圖2還會(huì)發(fā)現(xiàn),Ground Truth物體框的寬高分布包含了寬高比1/3、3、1/2、2等所有情況,因此conv4_3、fc7、conv8_2和conv9_2這4個(gè)預(yù)測層的默認(rèn)框個(gè)數(shù)和寬高比較原SSD網(wǎng)絡(luò)保持不變。同時(shí)為了更好地提取特征圖內(nèi)待檢目標(biāo)的目標(biāo)特征,將預(yù)測層conv9_2的填充Pad由1改為0。

        2.3 網(wǎng)絡(luò)訓(xùn)練

        網(wǎng)絡(luò)訓(xùn)練集共包括7 600張圖片,測試集共包括1 900張圖片,待學(xué)習(xí)類別總數(shù)為20。因此,利用SSD網(wǎng)絡(luò)進(jìn)行數(shù)據(jù)訓(xùn)練時(shí),網(wǎng)絡(luò)參數(shù)設(shè)置主要包括批尺寸(batch_size)、學(xué)習(xí)率(learning_rate)、動(dòng)量常數(shù)(momentum)、權(quán)值衰減系數(shù)(decay)等,具體參數(shù)取值如表2所示。

        2.4 結(jié)果與分析

        利用原始SSD網(wǎng)絡(luò)和改進(jìn)后的SSD網(wǎng)絡(luò)分別對相同的數(shù)據(jù)集進(jìn)行訓(xùn)練,訓(xùn)練過程參數(shù)選取與表1相同,得到的模型檢測結(jié)果如圖3所示。從圖3可以發(fā)現(xiàn),改進(jìn)后的SSD網(wǎng)絡(luò)在檢測性能、檢測精度上較改進(jìn)前有一定提高,比如圖3(a)與圖3(b)的第1行1列對應(yīng)圖,改進(jìn)前受樹和木牌遮擋,網(wǎng)絡(luò)檢測到兩個(gè)car,改進(jìn)后網(wǎng)絡(luò)則準(zhǔn)確分類并定位得到一個(gè)car;圖3(a)與圖3(b)的第2行4列對應(yīng)圖,改進(jìn)前彼此密集靠近站立的3個(gè)person,側(cè)邊person與中間person兩個(gè)人均被誤檢測成一個(gè)person,而改進(jìn)后網(wǎng)絡(luò)則能準(zhǔn)確分類并定位每一個(gè)緊密排列的person;圖3(a)與圖3(b)的第2行3列對應(yīng)圖,改進(jìn)前趴地的dog雖能正確分類,但坐標(biāo)定位存在一定偏差,而改進(jìn)后網(wǎng)絡(luò)則不僅能正確分類,坐標(biāo)定位也更加準(zhǔn)確;圖3(a)與圖3(b)的其它圖,則對目標(biāo)較小的car(第2行1列)和sheep(第1行3列)、密集分布的person(第1行2列)等都可以實(shí)現(xiàn)準(zhǔn)確識別與檢測。不僅如此,改進(jìn)后的網(wǎng)絡(luò)在同樣50 000次迭代訓(xùn)練后檢測mAP提高了約5.1%,具有更高的平均檢測精度。

        綜上,改進(jìn)后的網(wǎng)絡(luò)相比于改進(jìn)前,提高了檢測模型的檢測性能和精度,實(shí)現(xiàn)了對絕大部分?jǐn)?shù)據(jù)的準(zhǔn)確分類和定位,包括上述提到的存在遮擋、密集排列等情況的數(shù)據(jù);同時(shí)實(shí)現(xiàn)了檢測mAP的提升,能夠滿足實(shí)用準(zhǔn)確性要求。

        3 結(jié)語

        SSD目標(biāo)檢測是目前目標(biāo)檢測主流算法之一,其具有檢測速度快、檢測精度高等優(yōu)點(diǎn)。針對傳統(tǒng)目標(biāo)檢測方法效率低、精度低的問題,本文通過分析數(shù)據(jù)集Ground Truth物體框的分布情況,對SSD網(wǎng)絡(luò)結(jié)構(gòu)中與Ground Truth物體框尺寸不匹配的默認(rèn)框及對應(yīng)預(yù)測層進(jìn)行刪減,并對保留的各預(yù)測層默認(rèn)框個(gè)數(shù)和寬高比予以優(yōu)化,同時(shí)對保留的最后一個(gè)預(yù)測層的網(wǎng)絡(luò)參數(shù)加以改進(jìn)。改進(jìn)后的SSD網(wǎng)絡(luò)較改進(jìn)前不僅具有更少的計(jì)算參數(shù)和計(jì)算量,能夠加快訓(xùn)練模型收斂速度,同時(shí)對待檢目標(biāo)具有更高的檢測精度和檢測性能,檢測mAP提高了約5.1%,特別是對于存在遮擋、目標(biāo)較小、密集排列等情況的圖片數(shù)據(jù),改進(jìn)模型能夠?qū)Υ龣z目標(biāo)進(jìn)行更準(zhǔn)確的分類和定位,具有更好的檢測效果。未來工作中,將繼續(xù)對SSD網(wǎng)絡(luò)結(jié)構(gòu)及參數(shù)進(jìn)行優(yōu)化,使改進(jìn)網(wǎng)絡(luò)針對目標(biāo)較多且彼此嚴(yán)重遮擋的圖片數(shù)據(jù)具有更高的魯棒性和檢測精度,實(shí)現(xiàn)改進(jìn)模型在目標(biāo)檢測上的普適化應(yīng)用。

        參考文獻(xiàn):

        [1] REZAEI M,KLETTE R. Object detection, classification, and tracking[J]. Computer Vision for Driver Assistance,2017,45:51-94.

        [2] YANG Z L,ZHANG Y J,REHMAN S?U, et al. Image captioning with object detection and localization[J]. Image and Graphics, 2017,10667:109-118.

        [3] SHARMA K U,THAKUR N V. A review and an approach for object detection in images[J]. International Journal of Computational Vision and Robotics, 2017, 7(1-2):196-237.

        [4] ZHANG M J,CIESIELSKI V. Genetic programming for multiple class object detection[J]. Advanced Topics in Artificial Intelligence,1999,1747:180-192.

        [5] LIU W,ANGUELOV D,ERHAN D,et al. SSD:single shot multibox detector[J]. Computer Vision-ECCV 2016,2016,9905:21-37.

        [6] 陳冰曲,鄧濤. 基于改進(jìn)型SSD算法的目標(biāo)車輛檢測研究[J]. 重慶理工大學(xué)學(xué)報(bào),2019,33(1):58-63,129.

        [7] 邢浩強(qiáng),杜志岐,蘇波. 基于改進(jìn)SSD的行人檢測方法[J]. 計(jì)算機(jī)工程,2018,44(11):228-233,238.

        [8] CAI Z W,F(xiàn)AN Q F,F(xiàn)ERIS R S,et al. A unified multi-scale deep convolutional neural network for fast object detection[J]. Computer Vision-ECCV 2016,9908 :354-370.

        [9] 高宗,李少波,陳濟(jì)楠. 基于YOLO網(wǎng)絡(luò)的行人檢測方法[J]. 計(jì)算機(jī)工程,2018, 44(5):215-219,226.

        [10] HE N,CAO J,SONG L. Scale space histogram of oriented gradients for human detection[C]. Information Science and Engineering, 2008. ISISE08,2008:167-170.

        [11] BAY H,ESS A,TUYTELAARST T,et al. Speeded-up robust features (SURF)[J]. Computer vision and image understanding, 2008, 110(3):346-359.

        [12] BURGES C J C. A tutorial on support vector machines for pattern recognition[J]. Data mining and knowledge discovery,1998,2(2):121-167.

        [13] HASTIE T, ROSSET S,ZHU J,et al. Multi-class adaboost[J]. Statistics and its Interface,2009,2(3) :349-360.

        [14] REDMON J,DIVVALA S,GIRSHICK R,et al. You only look once: unified, real-time object detection[C]. Pro-ceedings of the IEEE Conference on Computer Vision and Pattern Recognition,2016:779-788.

        [15] 劉雪奇,孫勝利. 基于YOLO網(wǎng)絡(luò)模型的異常行為檢測方法研究[J]. 電子設(shè)計(jì)工程,2018,26(20) :154-158,164.

        [16] GIRSHICK R. Fast RCNN[C]. Proceedings of IEEE International Conference on Computer Vision,2015:1440-1448.

        [17] SIMONYAN K,ZISSERMAN A. Very deep convolutional networks for large-scale image recognition[J]. Computer Science,2014:1-14.

        (責(zé)任編輯:孫 娟)

        猜你喜歡
        損失函數(shù)目標(biāo)檢測
        基于改進(jìn)SIFT特征和神經(jīng)網(wǎng)絡(luò)結(jié)合的場景識別
        軟件工程(2019年5期)2019-07-03 02:31:14
        氣候變化對中國主要糧食作物單產(chǎn)影響的文獻(xiàn)計(jì)量Meta分析
        考慮應(yīng)急時(shí)間和未滿足需求量的應(yīng)急物資多階段分配模型
        基于深度學(xué)習(xí)的人臉屬性聯(lián)合估計(jì)
        基于福利損失函數(shù)的人民幣匯率制度選擇
        基于福利損失函數(shù)的人民幣匯率制度選擇
        視頻中目標(biāo)檢測算法研究
        軟件(2016年4期)2017-01-20 09:38:03
        行為識別中的人體運(yùn)動(dòng)目標(biāo)檢測方法
        移動(dòng)機(jī)器人圖像目標(biāo)識別
        基于背景建模法的運(yùn)動(dòng)目標(biāo)檢測
        亚洲av成人精品一区二区三区| 欧美精品aaa久久久影院| av天堂线上| 国产精品一区二区三区成人| 国产白浆一区二区在线| 成品人视频ww入口| 亚洲av无码精品色午夜在线观看| 日本污视频| 日本护士一区二区三区高清热线| av在线一区二区三区不卡| 久久精品国产亚洲av超清| 亚洲国产成人片在线观看| 久久精品人妻一区二区三区| 无码av永久免费大全| 人妻少妇被猛烈进入中文| 国产亚洲成人av一区| 又大又粗又爽18禁免费看| 久久99精品久久久久久野外| 欧美在线Aⅴ性色| 最新69国产精品视频| 无码 人妻 在线 视频| 99re8这里有精品热视频免费| 女高中生自慰污免费网站| 风韵丰满妇啪啪区老老熟女杏吧| 中文字幕精品亚洲字幕| 乱中年女人伦av三区| 国产午夜三级一区二区三| 一区在线播放| 亚洲精品456在线播放狼人| 伊人久久大香线蕉午夜av| 亚洲人成未满十八禁网站| 亚洲另在线日韩综合色| av网站韩日在线观看免费| 黑人老外3p爽粗大免费看视频| 男人进去女人爽免费视频| 天美麻花果冻视频大全英文版| 看全色黄大色大片免费久久久| 久久av粉嫩一区二区| 少女韩国电视剧在线观看完整| 国产精品美女久久久浪潮av| 最大色网男人的av天堂|