亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于多分類和ResNet的不良圖片識別框架①

        2018-09-17 08:49:06王景中何云華
        關(guān)鍵詞:膚色類別準(zhǔn)確率

        王景中,楊 源,何云華

        (北方工業(yè)大學(xué) 計算機(jī)學(xué)院,北京 100144)

        隨著現(xiàn)代移動互聯(lián)設(shè)備和社交網(wǎng)絡(luò)的迅速發(fā)展,網(wǎng)民每天都上傳大量的圖片到互聯(lián)網(wǎng)上.據(jù)統(tǒng)計超過七成的家長認(rèn)為網(wǎng)絡(luò)娛樂內(nèi)容應(yīng)該盡量避免色情等不良信息,呼吁政府更加嚴(yán)格地監(jiān)管網(wǎng)絡(luò)娛樂內(nèi)容.此外,在公司辦公場所和學(xué)校教育場所等地方,應(yīng)該過濾掉這些網(wǎng)絡(luò)不良內(nèi)容[1].如何通過更有效的技術(shù)手段來識別和過濾網(wǎng)絡(luò)色情圖片一直是一個重要的研究課題,其中最重要的兩個指標(biāo)是識別的準(zhǔn)確性和時間效率.

        國內(nèi)外學(xué)者對不良圖片的識別技術(shù)做出了許多嘗試.典型的識別方法主要基于色情圖片中往往包含有大量的裸露膚色信息這一事實(shí),通過膚色檢測來判斷是否不良圖片.RGB顏色空間、HSV和HIS顏色空間以及亮度和色度分開存儲的YCbCr顏色空間[2]都曾被利用以檢測膚色.也有研究人員使用多重顏色空間定義膚色模型,并加入紋理檢測以更準(zhǔn)確地提取出膚色區(qū)域,然后利用裸露膚色區(qū)域的像素比例[3]、膚色連通域的數(shù)目、位置、形狀[4]等特征作為SVM等分類器的輸入,輸出圖片是否不良圖片.這類基于膚色特征和人體檢測的方法存在的主要問題是,人工選擇的膚色特征模型總是帶有一定的偏差,在現(xiàn)實(shí)中不同種族的膚色各不相同,相同的膚色在不同的光照下也會呈現(xiàn)不同的結(jié)果,再加上自然界中存在與膚色類似的物體,這類基于低層次語義特征進(jìn)行相似度匹配的方法誤檢率較高.其它方法包括結(jié)合不同的人體識別技術(shù)來提高人體檢測的準(zhǔn)確率,如人體動態(tài)姿勢識別的多層聯(lián)合模型[5],以及在具有復(fù)雜背景的圖像中結(jié)合圖像區(qū)域檢測技術(shù)[6]進(jìn)行更準(zhǔn)確的場景分割與識別.

        基于深度學(xué)習(xí)的方法把特征提取與分類器放在一個模型里統(tǒng)一起來,特征提取是通過大量的訓(xùn)練數(shù)據(jù)自動學(xué)習(xí)得到.2012年文獻(xiàn)[7]提出AlexNext網(wǎng)絡(luò)結(jié)構(gòu)模型,2015年文獻(xiàn)[8]提出的ResNet模型,都大幅提升了圖片的分類準(zhǔn)確率.因此文獻(xiàn)[9]提出AGNet模型,利用卷積神經(jīng)網(wǎng)絡(luò)(CNN)解決不良圖片的識別問題,取得了較好的效果.文獻(xiàn)[10]提出先通過人臉識別和膚色檢測的Coarse Detection方法過濾一部分圖片,再通過CaffeNet進(jìn)行分類.文獻(xiàn)[11]提出將多個CNN的輸出進(jìn)行加權(quán)綜合的方法.由于CNN的參數(shù)多,必須依靠大規(guī)模的訓(xùn)練數(shù)據(jù),這在色情圖片識別領(lǐng)域不容易獲得.這些方法通過CNN進(jìn)行二分類,沒有考慮到色情圖片類別的多樣性,在面對實(shí)際應(yīng)用中具有多樣性特征的色情圖片時,網(wǎng)絡(luò)模型的性能和識別準(zhǔn)確率往往會下降.

        本文利用深度殘差網(wǎng)絡(luò)算法,結(jié)合不良圖片的多樣性特征,提出一種基于多分類和ResNet的不良圖片識別框架.通過更細(xì)粒度的分類,將二分類的色情圖片識別問題轉(zhuǎn)化為多分類問題,再依據(jù)輸出分值判斷為良性或不良圖片.在訓(xùn)練時采用依據(jù)測試結(jié)果反饋補(bǔ)充邊緣案例的訓(xùn)練策略,讓模型挖掘更優(yōu)質(zhì)的特征.在測試時采用一種單邊滑動窗口的方法,以降低不同圖片尺度帶來的影響.實(shí)驗(yàn)結(jié)果表明該方法能夠有效提高不良圖片識別的性能.

        1 基于多分類和ResNet的不良圖片識別框架

        深度學(xué)習(xí)算法能夠自動提取圖片的抽象特征和語義特征,這可以避免手動設(shè)計的特征模型與真實(shí)特征有差異的弊端.本文設(shè)計的基于多分類的ResNet不良圖片識別框架如圖1所示.首先從網(wǎng)上獲取良性圖片和不良圖片構(gòu)建數(shù)據(jù)集,并對圖片標(biāo)記正確的類別標(biāo)簽,再通過單邊滑動窗口方法將圖片分為多個圖片碎片,將這些碎片送入ResNet進(jìn)行分類,最后對分值進(jìn)行統(tǒng)計和計算并結(jié)合合適的閾值劃分為良性圖片或不良圖片.

        圖1 不良圖片識別框架圖

        1.1 數(shù)據(jù)預(yù)處理

        CNN在處理不同尺度的圖片時多采用滑動窗口機(jī)制,基于網(wǎng)絡(luò)模型的輸入大小(本文中為224×224)作為滑動窗口.在不良圖片識別領(lǐng)域,由于敏感內(nèi)容只是圖片中的一小部分,將圖片直接resize到網(wǎng)絡(luò)的輸入大小會導(dǎo)致一定的尺度比例損失.而采用普通的滑動窗口機(jī)制,在兩條邊上以較小步長(一般為2)滑動會產(chǎn)生較多的圖片碎片,導(dǎo)致時間性能的下降和造成一定的誤判.本文通過一種單邊滑動窗口的機(jī)制進(jìn)行數(shù)據(jù)的預(yù)處理,先將待處理圖片中最短邊resize為224,另一邊進(jìn)行同比例的resize,然后用224×224的窗口在圖片上沿最長邊滑動,步長設(shè)置為50.實(shí)驗(yàn)表明,大多數(shù)圖片的長寬比在1:1到2:1之間,很少有圖片超過2:1的長寬比,采用50的步長可以將滑動窗口產(chǎn)生的圖片碎片保持在3到5個之間,在保留了圖片的比例信息的同時有效減少數(shù)據(jù)量.在將每一個圖片碎片輸入模型處理的過程中,如果按照閾值被分類為不良圖片,則不再繼續(xù)滑動,算法流程如圖2所示.

        圖2 單邊滑動窗口方法

        1.2 基于ResNet的細(xì)粒度分類方法

        1.2.1 深度殘差網(wǎng)絡(luò)

        AlexNet[7]、VGGNet[12]和 GoogleNet[13]已被證明在圖像分類任務(wù)上可以獲得良好的效果.本文采用的是ResNet[8],ResNet是何凱明于2015年提出的CNN結(jié)構(gòu)模型,該方法以152層的網(wǎng)絡(luò)模型在ILSVRC2015上獲得第一名,將錯誤率降低到了3.75%.ResNet的主要優(yōu)點(diǎn)是可以利用更深層次的網(wǎng)絡(luò)解決訓(xùn)練誤差隨網(wǎng)絡(luò)層數(shù)的增加而增大的問題.為了解決該問題,ResNet對傳統(tǒng)的平原網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行了調(diào)整,其關(guān)鍵結(jié)構(gòu)是將基本的網(wǎng)絡(luò)單元增加了一個恒等的快捷連接(如圖3所示).圖中H(x)為理想映射,F(x)為殘差映射,H(x)=F(x)+x.通過將擬合目標(biāo)函數(shù)H(x)轉(zhuǎn)變?yōu)閿M合殘差函數(shù)F(x),把輸出變?yōu)閿M合和輸入的疊加,使得網(wǎng)絡(luò)對輸出H(x)與輸入x之間的微小波動更加敏感.

        圖3 添加了快捷連接的殘差網(wǎng)絡(luò)單元

        本文構(gòu)建的是50層ResNet結(jié)構(gòu)模型,并將每一層的參數(shù)減半,以減少訓(xùn)練時間和在分類準(zhǔn)確性與時間性能上做出平衡.本文利用深度學(xué)習(xí)框架Caffe構(gòu)建網(wǎng)絡(luò)模型,構(gòu)建的模型共有約590萬個參數(shù),網(wǎng)絡(luò)中的神經(jīng)元連接總數(shù)約為10.68億.相比于AlexNet的約6000萬個參數(shù),該模型在網(wǎng)絡(luò)層數(shù)、需訓(xùn)練的參數(shù)個數(shù)上優(yōu)勢明顯.由于框架分類輸出為9類,故將最后全連接層的神經(jīng)元個數(shù)設(shè)置為9,并將權(quán)值學(xué)習(xí)率和偏置學(xué)習(xí)率調(diào)整為10倍.模型的輸入為224×224大小的圖片,第一個卷積層conv_1的參數(shù)是64個7×7的卷積核,卷積核的步長為2.每一個卷積層之后都設(shè)置BatchNorm層,以增加模型的容納能力.激活函數(shù)使用Relu,并通過最大池化層maxpool進(jìn)行下采樣.最后一層是softmax回歸層,用于輸出圖片被分為某一類的概率.softmax回歸是logistic回歸的一般形式,其數(shù)學(xué)公式為公式(1)所示,其中k為類別數(shù),當(dāng)k=2時softmax退化為logistic.本文實(shí)驗(yàn)中訓(xùn)練的模型有9個類別,故k=9.

        1.2.2 細(xì)粒度分類方法

        具有不同特征的圖片都可以稱為不良圖片,但簡單的將其劃分為同一類別會讓網(wǎng)絡(luò)模型在學(xué)習(xí)其高層語義特征時產(chǎn)生困惑,導(dǎo)致在處理某些圖片時分類混亂,降低網(wǎng)絡(luò)性能.因此基于對不良圖片多樣性特征的分析,將ResNet的輸出分為更細(xì)粒度上的9個分類,以便更準(zhǔn)確地提取出不良圖片的高層語義特征.這些分類的定義如下:

        類別0:良性圖片中的正常人物類圖片;

        類別1:良性圖片中的正常類圖片(無人物);

        類別2:男性下身類圖片,屬于不良圖片中特征明顯的性器官裸露類;

        類別3:女性上身類圖片,屬于不良圖片中特征明顯的性器官裸露類;

        類別4:女性下身類圖片,屬于不良圖片中特征明顯的性器官裸露類;

        類別5:不良圖片中的性行為姿勢類圖片,一般包含大量的皮膚裸露;

        類別6:包含兒童色情類的不良圖片;

        類別7:包含色情信息的卡通類圖片;

        類別8:不良圖片中的低俗類,包含裙底偷拍、人體內(nèi)衣敏感部位特寫等.

        其中良性圖片和不良圖片定義為抽象類別,不良圖片中性器官裸露類也定義為抽象類別.這種分類方法基本涵蓋了不良圖片的內(nèi)容范圍,并使得同一類別內(nèi)的特征盡量統(tǒng)一,增大類別間的特征差異性,以提升網(wǎng)絡(luò)模型的分類準(zhǔn)確率.實(shí)驗(yàn)發(fā)現(xiàn),softmax分類器在類別之間的特征互斥時效果最好,因此使用類別特征明顯的訓(xùn)練圖片可以增加模型的準(zhǔn)確率.

        在網(wǎng)絡(luò)模型輸出各類別的分值后,分類為良性圖片和不良圖片的方法如下:

        1)取分值最大的類別n和分值s;

        2)如果n=0或1,分類為良性圖片;

        3)如果n是 2~4,s=s×1.2;

        4)如果n是 5~8,s=s×0.92;

        5)如果s>=0.85,分類為不良圖片.

        其中2、3、4這三類是主要的不良圖片構(gòu)成部分,也是特征最明顯的類別.經(jīng)過試驗(yàn)分析,在統(tǒng)計分值時對這三類硬色情圖片的分值乘以系數(shù)1.2,可以增強(qiáng)過濾的準(zhǔn)確率.低俗類的屬性特征相對模糊,其邊界難以與性感圖片區(qū)分開.性行為姿勢類、兒童色情類的色情標(biāo)準(zhǔn)同樣具有一定的模糊性.卡通漫畫本身的描述方法就具有夸張性,卡通色情類的判定也應(yīng)比正常色情類弱.將5、6、7、8類軟色情圖片的分值乘以0.92,進(jìn)行一定的弱化,可以減少定義模糊的圖片類型的干擾.將最后得到的分值與閾值0.85進(jìn)行比較,當(dāng)大于等于0.85時分類為不良圖片.

        1.3 基于反饋的訓(xùn)練策略

        所有的良性圖片和不良圖片都是基于上述分類特征從網(wǎng)上下載得到,并被分為訓(xùn)練數(shù)據(jù)集和測試數(shù)據(jù)集.由于實(shí)際中無法構(gòu)建百萬級的大規(guī)模不良圖片數(shù)據(jù)集,因此首先利用ImageNet 1000數(shù)據(jù)集進(jìn)行預(yù)訓(xùn)練,以學(xué)習(xí)到可以在接下來的訓(xùn)練中利用的參數(shù)權(quán)值,減少進(jìn)一步訓(xùn)練所需的時間.然后再在訓(xùn)練數(shù)據(jù)集上進(jìn)行訓(xùn)練,并在測試數(shù)據(jù)集上測試模型的分類效果,直至網(wǎng)絡(luò)收斂.采用了一種反饋修正的訓(xùn)練策略,在每進(jìn)行20個epoch之后,從每個類別中隨機(jī)挑選100張圖片,分別測試模型的分類準(zhǔn)確率.對準(zhǔn)確率小于0.9的類別,定向增加其訓(xùn)練樣本的容量,包括增加與測試樣本具有相似特征的圖片以及不同膚色的圖片等邊緣案例,再繼續(xù)進(jìn)行訓(xùn)練.多次重新設(shè)計和構(gòu)建訓(xùn)練數(shù)據(jù)集直到模型可以挖掘出更優(yōu)質(zhì)的特征.訓(xùn)練過程如圖4所示.

        圖4 基于反饋修正的訓(xùn)練策略

        2 實(shí)驗(yàn)

        2.1 已有數(shù)據(jù)集

        不良圖片識別具有一定的法律特殊性,大部分已有的研究都是基于研究人員自己構(gòu)建的數(shù)據(jù)庫.而對這些數(shù)據(jù)庫的描述往往不夠清晰,只包含基本的色情圖片和非色情圖片的數(shù)目(如表1),圖片的來源往往都描述為從網(wǎng)上下載得到,對數(shù)據(jù)集中圖片的多樣性特征、難易程度、類型等可能影響識別準(zhǔn)確率的因素往往沒有提到.目前缺少一個公開的具有一定標(biāo)準(zhǔn)的不良圖片數(shù)據(jù)庫,因而難以對不同的不良圖片識別方法進(jìn)行比較和評估.

        表1 不同研究方法的數(shù)據(jù)集描述

        2.2 訓(xùn)練集構(gòu)建

        本文基于更細(xì)粒度的特征分類方法構(gòu)建了相應(yīng)的訓(xùn)練數(shù)據(jù)集和測試數(shù)據(jù)集.在挑選圖片時,主要選擇特征突出、背景簡單或無背景的圖片,以降低過擬合問題的影響.不同于一般的圖片分類任務(wù),不良圖片識別具有很高的主觀性和復(fù)雜多樣性.例如,同樣的圖片,不同的人可能會劃分為不同的類別(性感類或色情類),甚至同一人在不同的時間對相同圖片的分類也可能不一致.CNN的最終分類效果對訓(xùn)練數(shù)據(jù)的要求較高,特征不明顯或標(biāo)簽錯誤的訓(xùn)練圖片將導(dǎo)致網(wǎng)絡(luò)不能提取出有效的特征.為了構(gòu)建更優(yōu)質(zhì)的訓(xùn)練數(shù)據(jù)集,本文通過人工篩選出有效的圖片并對圖片標(biāo)記正確的標(biāo)簽.

        篩選時在每一類別中涵蓋容易和困難部分,以覆蓋多樣化的場景和增加分類時的泛化能力.例如,正常圖片(不包含人物)類別的容易部分覆蓋了不同主題的圖片,如風(fēng)景、汽車、動物、建筑物等;困難部分則包含不良圖片識別容易出錯的點(diǎn),如類膚色的木頭等.而對于正常的人物圖片,其容易部分也會覆蓋膚色、種族等多樣性,困難部分則覆蓋含大片皮膚裸露的運(yùn)動(游泳、拳擊、摔跤)以及哺乳、比基尼、內(nèi)衣、給嬰兒或小孩洗澡等圖片.數(shù)據(jù)集的部分圖片樣例如圖5所示.

        圖5 數(shù)據(jù)集的部分樣例

        本文構(gòu)建的數(shù)據(jù)集分布如表2所示.

        表2 數(shù)據(jù)集類別分布

        2.3 實(shí)驗(yàn)測試分析

        本文實(shí)驗(yàn)主要基于一塊顯存為12 GB的GeForce GTX Titan X顯卡,實(shí)驗(yàn)平臺操作系統(tǒng)為ubuntu 16.04,網(wǎng)絡(luò)模型通過深度學(xué)習(xí)開源工具Caffe進(jìn)行搭建,編程語言使用的是Python 2.7.

        從構(gòu)建的數(shù)據(jù)集中隨機(jī)挑選一定的圖片分別用作訓(xùn)練集和測試集,圖片數(shù)目如表3所示.為了進(jìn)一步增大數(shù)據(jù)集的容量,采用多種數(shù)據(jù)增量技術(shù).常用的隨機(jī)裁切方法可以產(chǎn)生較多的圖片碎片,但并不適用于不良圖片,因?yàn)檫@些碎片可能已經(jīng)改變了其類別屬性,產(chǎn)生標(biāo)簽錯誤.因此采用不改變其分類特征的方法,首先通過旋轉(zhuǎn)和翻轉(zhuǎn),每次將圖片旋轉(zhuǎn)45度,再進(jìn)行水平和垂直翻轉(zhuǎn),得到32張圖片.其次向圖片增加隨機(jī)噪聲,并在0.9~1.1的范圍內(nèi)隨機(jī)輕微修改圖片亮度,得到5張圖片.最后采用的方法是高斯模糊處理.

        模型在ImageNet 1000數(shù)據(jù)集上預(yù)訓(xùn)練之后,再在訓(xùn)練集上進(jìn)行訓(xùn)練.權(quán)值的基礎(chǔ)學(xué)習(xí)率設(shè)置為0.01,動量為0.9,權(quán)值衰減為0.0005,采用前文描述的反饋修正策略訓(xùn)練直至網(wǎng)絡(luò)收斂.

        表3 構(gòu)建的訓(xùn)練數(shù)據(jù)集和測試數(shù)據(jù)集圖片數(shù)目

        訓(xùn)練好的模型文件大小約為23 MB,與CaffeNet的230 MB相比約為1/10.這是因?yàn)镽esNet模型的參數(shù)數(shù)量相比CaffeNet模型少了很多.訓(xùn)練好的模型的第一個卷積層conv_1的64個卷積核如圖6所示.這些卷積核可以提取到圖片的角度、邊緣和顏色等特征,再將這些特征送入高層網(wǎng)絡(luò)進(jìn)行進(jìn)一步的特征提取.一般而言,第一個卷積層的卷積核越清晰越能提取出優(yōu)質(zhì)的特征.

        圖6 conv_1訓(xùn)練好的卷積核參數(shù)

        2.3.1 識別準(zhǔn)確率分析

        本文對不良圖片識別的分類結(jié)果采用準(zhǔn)確率AUC來表示,T為測試集上分類正確的樣本數(shù),P為測試集的總樣本數(shù)目,則AUC為:

        對圖片進(jìn)行測試,過濾閾值可以根據(jù)具體應(yīng)用環(huán)境來設(shè)置.實(shí)驗(yàn)中,通常情況下最后輸出分值s大于0.85時圖片是不良圖片的概率較大,小于0.3時是良性圖片的概率較大.在一般場景下可將閾值設(shè)定為0.85.該方法獲得了較高的識別準(zhǔn)確率.與其他方法的準(zhǔn)確率對比如表4所示.

        表4 準(zhǔn)確率AUC對比

        基于ORB+HSV的方法利用了HSV顏色空間,結(jié)合構(gòu)造的具有魯棒性的特征描述符構(gòu)建詞袋模型,最后通過SVM進(jìn)行分類.該方法對于膚色信息有較好的獨(dú)立性,但對圖片特征的擬合均有一定的誤差,準(zhǔn)確率較低.CaffeNet、CNN和多示例學(xué)習(xí)(MIL)對光照、圖片尺度、清晰度和圖片類型的變化具有較強(qiáng)的魯棒性,可以達(dá)到較高的準(zhǔn)確率,但這些方法忽視了色情圖片的多樣性特征.本文方法充分考慮了多樣性特征的影響,所以在類別豐富的數(shù)據(jù)集上表現(xiàn)更好.準(zhǔn)確率波動幅度較大的原因可能是類別5~8的正樣本數(shù)目相對較少,保持訓(xùn)練正樣本的類別比例約為1:1可帶來更好的效果.

        2.3.2 時間效率分析

        在對不良圖片的識別過濾處理中,算法的時間性能也很重要.本文方法對單張圖片的處理時間小于40 ms,與其它方法的80 ms以上相比有很大的提升.時間性能對比如表5所示.基于手動特征設(shè)計的ORB+HSV算法花費(fèi)時間較多,基于深度學(xué)習(xí)的方法通過GPU進(jìn)行運(yùn)算,時間性能相對較高,本文方法的網(wǎng)絡(luò)模型參數(shù)較少,可以達(dá)到更高的時間效率.

        表5 時間性能對比

        3 結(jié)論

        本文提出一種基于多分類和ResNet的不良圖片識別框架,結(jié)合更細(xì)粒度的分類特征,將不良圖片識別轉(zhuǎn)化為多分類任務(wù).通過反饋修正的訓(xùn)練策略和單邊滑動窗口的測試方法,根據(jù)具體環(huán)境設(shè)置閾值來劃分良性和不良圖片.實(shí)驗(yàn)結(jié)果表明,該方法可以以較少的測試時間獲得較高的不良圖片識別準(zhǔn)確率.但該方法所需訓(xùn)練時間仍較長,低俗類等的邊界條件仍有一定的模糊性,接下來將探討劃分更多子類的可能性,以進(jìn)一步優(yōu)化算法的性能.

        猜你喜歡
        膚色類別準(zhǔn)確率
        乳腺超聲檢查診斷乳腺腫瘤的特異度及準(zhǔn)確率分析
        健康之家(2021年19期)2021-05-23 11:17:39
        不同序列磁共振成像診斷脊柱損傷的臨床準(zhǔn)確率比較探討
        2015—2017 年寧夏各天氣預(yù)報參考產(chǎn)品質(zhì)量檢驗(yàn)分析
        Conversation in a house
        人的膚色為什么不同
        好孩子畫報(2020年3期)2020-05-14 13:42:44
        高速公路車牌識別標(biāo)識站準(zhǔn)確率驗(yàn)證法
        服務(wù)類別
        新校長(2016年8期)2016-01-10 06:43:59
        論類別股東會
        商事法論集(2014年1期)2014-06-27 01:20:42
        中醫(yī)類別全科醫(yī)師培養(yǎng)模式的探討
        膚色檢測和Hu矩在安全帽識別中的應(yīng)用
        免费人成又黄又爽的视频在线| 人人人妻人人人妻人人人| 情人伊人久久综合亚洲| 无码午夜人妻一区二区三区不卡视频| 日韩欧美第一区二区三区 | 狠狠久久av一区二区三区| 高清中文字幕一区二区| 屁屁影院ccyy备用地址| 色婷婷七月| 日本一区二区三区的免费视频观看 | 日本成本人片免费网站| 人妻无码人妻有码中文字幕| 久久精品午夜免费看| 国产亚洲精品一品二品| 永久亚洲成a人片777777| 播放灌醉水嫩大学生国内精品| 精品欧洲AV无码一区二区免费| 美女被内射中出在线观看 | 女人扒开屁股爽桶30分钟| 国产精品无码无片在线观看3D| 久久国产精品免费久久久| 精品卡一卡二乱码新区| 大肉大捧一进一出好爽视频mba| 亚洲欧美国产日产综合不卡| 国产91久久精品成人看网站| 国产精品久久久久一区二区三区 | 国产一极内射視颍一| AV永久天堂网| 中文字幕丰满人妻被公强| www国产亚洲精品久久麻豆| 日本边添边摸边做边爱的网站| 老熟女熟妇嗷嗷叫91| 国产一区二区中文字幕在线观看| 欧美成人看片一区二区三区尤物| 草莓视频成人| 中国少妇和黑人做爰视频| 中文字幕国产精品一二三四五区| 久久人与动人物a级毛片| 亚洲精品亚洲人成在线播放| 成人av资源在线播放| 国产乡下三级全黄三级|