亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于CanpoySMOTE和自適應(yīng)學(xué)習(xí)的入侵檢測(cè)方法研究

        2022-12-27 13:14:56張曉冰成林芳
        關(guān)鍵詞:分類(lèi)模型

        湯 亮,張曉冰 ,成林芳

        (1.湖南省電子信息產(chǎn)業(yè)研究院,湖南 長(zhǎng)沙 410001;2.杭州安恒信息技術(shù)股份有限公司,浙江 杭州 310000)

        數(shù)據(jù)的不均衡分布即在數(shù)據(jù)集中有一個(gè)或者幾個(gè)類(lèi)別的樣本數(shù)量遠(yuǎn)超其他類(lèi)型的樣本數(shù)。數(shù)據(jù)占比較小的類(lèi)別稱為少數(shù)類(lèi),占比較多的類(lèi)別成為多數(shù)類(lèi)[1]。網(wǎng)絡(luò)攻擊類(lèi)型繁雜,有些攻擊類(lèi)型很常見(jiàn)如DDOS、暴力破解、ARP欺騙等。而有些攻擊類(lèi)型出現(xiàn)比較少,如未獲授權(quán)的本地超級(jí)用戶特權(quán)訪問(wèn)、遠(yuǎn)程主機(jī)的未授權(quán)的訪問(wèn)等。這些類(lèi)型的攻擊樣本數(shù)比常見(jiàn)類(lèi)型的攻擊數(shù)量少[2-3]。不同攻擊帶來(lái)的后果也是不同的,DDOS攻擊帶來(lái)的后果可能是對(duì)整個(gè)網(wǎng)絡(luò)破壞,降低服務(wù)性能,阻止終端服務(wù),而遠(yuǎn)程主機(jī)的未授權(quán)訪問(wèn)會(huì)導(dǎo)致主機(jī)被控制從而進(jìn)行違法犯罪活動(dòng)等。現(xiàn)有的分類(lèi)方法對(duì)于多數(shù)類(lèi)別的樣本點(diǎn)識(shí)別率高,而少數(shù)類(lèi)別易被誤分類(lèi),從而導(dǎo)致很?chē)?yán)重的后果。因此處理不平衡數(shù)據(jù)集,提高模型泛化性能是很重要的。

        學(xué)術(shù)界提出了許多針對(duì)不平衡數(shù)據(jù)集的處理方法,主要分為兩類(lèi),第一類(lèi)是在數(shù)據(jù)層面,第二類(lèi)是在算法層面[4-5]。對(duì)于數(shù)據(jù)層面,增加少數(shù)類(lèi)別樣本降低不均衡性稱為過(guò)采樣[6-8],減少多數(shù)類(lèi)別樣本稱為欠采樣[9-10]。欠采樣中典型的方法是隨機(jī)刪除多數(shù)類(lèi)別的樣本,但是由于樣本的大部分特征相似,隨機(jī)刪除可能會(huì)刪除重要的信息,導(dǎo)致模型泛化性能差。過(guò)采樣中典型的方法是連續(xù)復(fù)制少類(lèi)別樣本數(shù),達(dá)到類(lèi)間平衡,但是因?yàn)橛写罅恐貜?fù)的樣本點(diǎn),可能會(huì)導(dǎo)致過(guò)擬合。為了防止上述問(wèn)題,Chawla等人提出了的人工合成新樣本點(diǎn)的SMOTE算法[11],在每個(gè)樣本的特征空間中挑選K個(gè)近鄰,使用隨機(jī)因子選出一個(gè)每個(gè)近鄰與樣本之間的點(diǎn)成為新的樣本點(diǎn)。有效地增加了少數(shù)類(lèi)別樣本點(diǎn)的數(shù)量,但是對(duì)于多數(shù)類(lèi)別的樣本不產(chǎn)生影響,若一個(gè)少數(shù)類(lèi)別樣本點(diǎn)附近都是多數(shù)類(lèi)別容易產(chǎn)生噪聲,影響對(duì)于數(shù)據(jù)集的分類(lèi)效果。而Hui等人提出的基于邊界線的過(guò)采樣算法[12](Borderline-SMOTE),對(duì)距離邊界較近的樣本點(diǎn)根據(jù)SMOTE的原理,對(duì)模糊樣本點(diǎn)進(jìn)行過(guò)采樣,可以確定邊界樣本的類(lèi)別。但是這種方法只針對(duì)了邊界樣本,忽略了類(lèi)內(nèi)樣本分布的問(wèn)題,類(lèi)內(nèi)分布不均衡時(shí)也會(huì)導(dǎo)致樣本點(diǎn)重合,難以提供有效的分類(lèi)信息。

        在算法層面,學(xué)者提出了很多基于傳統(tǒng)分類(lèi)器的算法,但是所有傳統(tǒng)分類(lèi)器的目的都是減少整體的損失或漏報(bào)率。他們大都認(rèn)為所有類(lèi)別誤分類(lèi)的代價(jià)相同。但是網(wǎng)絡(luò)攻擊中誤分類(lèi)的代價(jià)可能導(dǎo)致系統(tǒng)崩潰,重要信息被篡改等,這些代價(jià)是遠(yuǎn)超我們想象的。Khan等提出的基于代價(jià)敏感的特征算法,對(duì)于CNN模型中特征和分類(lèi)器的訓(xùn)練過(guò)程進(jìn)行改進(jìn),增加學(xué)習(xí)特征的判別性,和魯棒性。但是代價(jià)敏感學(xué)習(xí)中代價(jià)參數(shù)的設(shè)定需要有先驗(yàn)經(jīng)驗(yàn),因此很難準(zhǔn)確設(shè)定,從而使分類(lèi)結(jié)果?;趩晤?lèi)學(xué)習(xí)的不均衡數(shù)據(jù)處理算法主要針對(duì)多類(lèi)別樣本進(jìn)行學(xué)習(xí),它的目標(biāo)是從測(cè)試的樣本中選出多數(shù)類(lèi),因此雖然可以降低時(shí)間成本,但是在對(duì)類(lèi)間不均衡對(duì)少數(shù)樣本過(guò)擬合,從而使模型泛化性能差。

        從數(shù)據(jù)預(yù)處理方面與增強(qiáng)學(xué)習(xí)融合構(gòu)成分類(lèi)器,提出了基于CanpoySMOTE和AdaboostM1的入侵檢測(cè)分類(lèi)方法,首先使用Canpoy進(jìn)行粗聚類(lèi)得到噪聲點(diǎn),去除噪聲點(diǎn),同時(shí)使用降采樣方法將多數(shù)類(lèi)別的數(shù)量降低,減少模型過(guò)擬合,然后用SMOTE線性合成少數(shù)類(lèi)樣本點(diǎn),提高了少數(shù)類(lèi)別的數(shù)量,從而減少了類(lèi)間不平衡,形成平衡數(shù)據(jù)集,該平衡樣本可以很好地彌補(bǔ)少數(shù)類(lèi)別分類(lèi)樣本數(shù)量不足的缺點(diǎn),又解決了隨機(jī)采樣時(shí)重要信息丟失的問(wèn)題。與AdaBoostM1分類(lèi)器結(jié)合,使用隨機(jī)森林作為基分類(lèi)器,隨機(jī)選取特征子集的特性讓數(shù)據(jù)維度對(duì)分類(lèi)結(jié)果的影響降低,在每次迭代的過(guò)程中獲得局部最佳弱分類(lèi)器,然后對(duì)樣本的權(quán)重進(jìn)行更新,雖然訓(xùn)練時(shí)間會(huì)增大,但是與原來(lái)的不平衡數(shù)據(jù)集在AdaboostM1分類(lèi)器上的結(jié)果相比,可以有效地提升少數(shù)類(lèi)別的準(zhǔn)確率,降低平均漏報(bào)率。

        1 平衡數(shù)據(jù)訓(xùn)練集的構(gòu)造

        首先使用Canopy算法[13]將訓(xùn)練數(shù)據(jù)根據(jù)歐氏距離計(jì)算樣本點(diǎn)到簇中心點(diǎn)的距離,分為多個(gè)Canopy子集,將包含樣本點(diǎn)較少,距離較遠(yuǎn)的子集視為噪聲點(diǎn),刪除這些噪聲數(shù)據(jù),然后對(duì)多數(shù)類(lèi)進(jìn)行隨機(jī)降采樣,降低模型過(guò)擬合,最后通過(guò)SMOTE抽樣對(duì)訓(xùn)練集進(jìn)行類(lèi)內(nèi)均衡,得到均衡數(shù)據(jù)集,算法流程圖如圖1所示。

        圖1 平衡數(shù)據(jù)集構(gòu)造流程圖

        1.1 Canopy

        Canopy是一種簡(jiǎn)單的粗聚類(lèi)算法,使用歐式距離計(jì)算樣本點(diǎn)到質(zhì)心的距離,與設(shè)定的距離閾值T1,T2進(jìn)行比較。最后根據(jù)每個(gè)簇中樣本點(diǎn)數(shù)以及與每個(gè)質(zhì)心的距離篩選出數(shù)據(jù)集中的干擾點(diǎn),并刪除噪聲樣本。算法步驟如下:

        (1)將原始樣本集隨機(jī)排列成樣本列表L={x1,x2,…,xn}根據(jù)先驗(yàn)知識(shí)或交叉驗(yàn)證調(diào)參設(shè)定初始距離閾值T1,T2(T1>T2)。

        (2)隨機(jī)從列表L中選取一個(gè)樣本點(diǎn)xi,i∈(1,n),作為第一個(gè)Canopy的質(zhì)心,并把x1從列表中刪除。

        (3)隨機(jī)從列表L中選取一個(gè)樣本點(diǎn)xp,p∈(1,n)p≠i,計(jì)算xp到所有質(zhì)心的距離,并檢驗(yàn)最小距離Dmin。

        (4)若T2≤Dmin≤T1,則給xp一個(gè)弱標(biāo)記,表示Dmin屬于此canopy,并加入。

        (5)若Dmin≤T2,則給xp一個(gè)強(qiáng)標(biāo)記,表示Dmin屬于此canopy,且接近質(zhì)心;并將xp從列表中刪除。

        (6)若Dmin>T1,則xp形成一個(gè)新的局促,并將xp從列表中刪除。

        (7)重復(fù)第三步,直到列表中元素?cái)?shù)變?yōu)榱恪?/p>

        刪除canopy簇中樣本點(diǎn)數(shù)少的簇,并將少數(shù)類(lèi)樣本點(diǎn)附近有超過(guò)一倍多數(shù)類(lèi)樣本點(diǎn)的噪聲點(diǎn)刪除。

        1.2 人工少數(shù)類(lèi)樣本點(diǎn)合成算法

        SMOTE算法,該算法只對(duì)少數(shù)類(lèi)別的樣本起作用[14-15]。主要思想是通過(guò)隨機(jī)尋找少數(shù)類(lèi)樣本點(diǎn),在距離該樣本點(diǎn)k個(gè)最臨近類(lèi)中尋找一點(diǎn),進(jìn)行插值,合成新的少數(shù)類(lèi)實(shí)例,樣本數(shù)少的類(lèi)別進(jìn)行人工合成新的樣本加入訓(xùn)練集中。該算法合成數(shù)據(jù)的步驟如下:

        (1)從數(shù)據(jù)集中挑選出一個(gè)少數(shù)類(lèi)別的樣本i,特征向量為xi,i∈{1,…,T};

        (2)從少數(shù)類(lèi)別的全部T個(gè)樣本中找到樣本xi的k個(gè)近鄰(例如使用歐氏距離),記為xi(near),near∈{1,…,k};

        (3)從這k個(gè)近鄰中隨機(jī)選取一個(gè)樣本xi(nn),再生成一個(gè)(0,1)之間的隨機(jī)數(shù)λ1,從而合成一個(gè)新樣本xi1:

        xi1=xi+λ1·(xi(nn)-xi)

        (1)

        (4)將步驟3重復(fù)N次,從而可以合成N個(gè)新樣本:xinew,new∈{1,…,N}。

        2 基于AdaBoostM1的入侵檢測(cè)分類(lèi)模型

        對(duì)于網(wǎng)絡(luò)數(shù)據(jù)集來(lái)說(shuō),不同類(lèi)型的攻擊所引起的代價(jià)不同,傳統(tǒng)的單層決策樹(shù)保持不變的訓(xùn)練數(shù)據(jù)每次迭代找到的都是最好的點(diǎn),也都是同一個(gè)點(diǎn)。因此模型的分類(lèi)精度低,泛化性能差。而AdaBoostM1可多次迭代訓(xùn)練弱分類(lèi)器,把錯(cuò)分類(lèi)樣本數(shù)量權(quán)值進(jìn)行調(diào)整,提高分類(lèi)模型的泛化性能。每一次訓(xùn)練好的弱分類(lèi)器將會(huì)參與下一次迭代訓(xùn)練。根據(jù)上一次迭代結(jié)果增大誤分類(lèi)為多數(shù)類(lèi)的樣本點(diǎn)在訓(xùn)練集中所占權(quán)值,同時(shí)把正確分類(lèi)樣本點(diǎn)的權(quán)值減少,并進(jìn)入下一次迭代,可以有效地提高分類(lèi)器的分類(lèi)性能。下一次迭代產(chǎn)生的分類(lèi)器更加關(guān)注上一個(gè)分類(lèi)器分類(lèi)錯(cuò)誤的樣本,增加了樣本分類(lèi)的正確率,最后根據(jù)每次迭代產(chǎn)生的分類(lèi)器進(jìn)行投票決定分類(lèi)結(jié)果。每次迭代產(chǎn)生的分類(lèi)器根據(jù)分類(lèi)錯(cuò)誤率來(lái)計(jì)算最后組成強(qiáng)分類(lèi)器時(shí)所占比重。分類(lèi)錯(cuò)誤率越低,權(quán)重越高。因此使用AdaBoostM1可以有效降低分類(lèi)錯(cuò)誤率,提高少數(shù)類(lèi)別的分類(lèi)準(zhǔn)確率,使模型的泛化性能更好。

        本文使用隨機(jī)森林作為弱分類(lèi)器,對(duì)于一個(gè)輸入樣本會(huì)產(chǎn)生多個(gè)分類(lèi)結(jié)果,最終分類(lèi)結(jié)果由隨機(jī)森林中每個(gè)樹(shù)投票產(chǎn)生。隨機(jī)森林因?yàn)樗请S機(jī)選取特征子集,因此減少了維度過(guò)多帶來(lái)的影響,使模型訓(xùn)練的效果更好,增加魯棒性。AdaBoostM1框架如圖2所示。

        圖2 AdaBoostM1框架流程圖

        3 實(shí)驗(yàn)數(shù)據(jù)和評(píng)價(jià)指標(biāo)

        3.1 數(shù)據(jù)集

        實(shí)驗(yàn)使用數(shù)據(jù)集為KDD CUP 99數(shù)據(jù)集。該數(shù)據(jù)集含有大量網(wǎng)絡(luò)流量數(shù)據(jù),大概包含有5,000,000多個(gè)網(wǎng)絡(luò)連接記錄,同時(shí)包含有測(cè)試數(shù)據(jù)大約2,000,0000條。為避免數(shù)據(jù)量過(guò)大,按10%比例對(duì)數(shù)據(jù)集進(jìn)行隨機(jī)抽樣,把抽樣結(jié)果作為學(xué)習(xí)的訓(xùn)練集,使用測(cè)試數(shù)據(jù)的10%作為測(cè)試集??梢杂行У販p少建立模型的時(shí)間,同時(shí)在精度上影響較小[16]。本文使用的訓(xùn)練數(shù)據(jù)集包含49,399條訓(xùn)練數(shù)據(jù)。測(cè)試集包含311,029條測(cè)試數(shù)據(jù)記錄。數(shù)據(jù)集中共有41個(gè)特征,4種攻擊類(lèi)型,分別是拒絕服務(wù)攻擊(Denial of Service,DOS),源于遠(yuǎn)程主機(jī)的權(quán)限獲取攻擊(Remote to Local,R2L),端口監(jiān)視掃描攻擊(PROBE),提權(quán)攻擊(User to Root,U2R)。具體數(shù)據(jù)集攻擊類(lèi)型數(shù)目分布如表1所示:

        表1 原始數(shù)據(jù)集類(lèi)型分布

        由于原始數(shù)據(jù)集中樣本不平衡,U2R的數(shù)量遠(yuǎn)遠(yuǎn)少于DOS和Normal,因此會(huì)對(duì)結(jié)果造成影響,影響模型的泛化性能,采用Canopy去除噪聲點(diǎn),SMOTE來(lái)提高少數(shù)樣本U2R和R2L的樣本數(shù)量,同時(shí)對(duì)含有較多記錄的DOS和Normal類(lèi)型進(jìn)行降采樣,然后將人工合成的U2R和R2L類(lèi)型的記錄與降采樣得到的數(shù)據(jù)和Probe類(lèi)型的數(shù)據(jù)混合成一個(gè)新的平衡數(shù)據(jù)集。本文使用的均衡數(shù)據(jù)集數(shù)據(jù)分布如表2所示:

        表2 平衡數(shù)據(jù)集分布

        3.2 實(shí)驗(yàn)結(jié)果的評(píng)估準(zhǔn)則

        本文使用混淆矩陣、漏報(bào)率、ROC曲線來(lái)對(duì)分類(lèi)器進(jìn)行評(píng)價(jià)[17]?;煜仃囈步凶髡`差矩陣,用來(lái)比較分類(lèi)結(jié)果跟實(shí)際結(jié)果,是可視化描繪出分類(lèi)器性能的指標(biāo)。

        漏報(bào)率、準(zhǔn)確率計(jì)算公式如下:

        漏報(bào)率=把某類(lèi)攻擊樣本判斷為正常樣本的數(shù)量(FP)/該類(lèi)攻擊樣本總數(shù)

        (1)

        準(zhǔn)確率=所有預(yù)測(cè)類(lèi)別正確的樣本數(shù)量(TP+TN)/所有類(lèi)別總的樣本數(shù)量

        (2)

        ROC曲線橫軸是偽陽(yáng)性率FPR,縱軸真陽(yáng)性率TPR。

        (3)

        真陽(yáng)性率或真正性率表示模型把正常樣本預(yù)測(cè)為正常樣本的數(shù)量與所有預(yù)測(cè)為正常樣本數(shù)量的比值。

        (4)

        偽陽(yáng)性率或假正性率FPR表示模型把正常樣本預(yù)測(cè)為攻擊類(lèi)型的數(shù)量與所有預(yù)測(cè)為攻擊類(lèi)型的樣本的數(shù)量的比值。

        ROC曲線通常用來(lái)表示模型分類(lèi)器的效果,在最佳狀態(tài)下,ROC應(yīng)該在左上角,這表示在較低假陽(yáng)率的情況下有高真陽(yáng)性率。

        4 驗(yàn)證與評(píng)估結(jié)果分析

        將隨機(jī)抽樣得到的不平衡訓(xùn)練集使用10折交叉驗(yàn)證,把數(shù)據(jù)集中的數(shù)據(jù)均等分為10份,選取一份做驗(yàn)證集,其余9份做訓(xùn)練,依次迭代10次。最后使用10個(gè)模型的平均實(shí)驗(yàn)結(jié)果作為整個(gè)模型的結(jié)果,使用測(cè)試集進(jìn)行測(cè)試,將在此訓(xùn)練集中訓(xùn)練的模型命名為AdaboostM1。將平衡數(shù)據(jù)集使用10折交叉驗(yàn)證,把隨機(jī)森林作為基分類(lèi)器,隨機(jī)森林能夠處理高維度數(shù)據(jù)不需要進(jìn)行特征選擇,對(duì)于不平衡的數(shù)據(jù)集可以平衡誤差,因此可以與AdaboostM1進(jìn)行結(jié)合。

        把在平衡數(shù)據(jù)集上訓(xùn)練得出的模型命名為SMOTEAdboostM1,在原始數(shù)據(jù)集上訓(xùn)練得出的模型命名為AdaboostM1。使用測(cè)試集分別對(duì)兩種模型進(jìn)行檢驗(yàn),SMOTEAdboostM1模型得到混淆矩陣如表3所示,AdaboostM1模型得到的混淆矩陣如表4所示。表5是AdaboostM1模型和SMOTEAdboostM1模型在測(cè)試集上進(jìn)行測(cè)試得到的每個(gè)類(lèi)別漏報(bào)率結(jié)果。表6是AdaboostM1模型和SMOTEAdboostM1模型在測(cè)試集上進(jìn)行測(cè)試得到的每個(gè)類(lèi)別準(zhǔn)確率結(jié)果。

        表3 SMOTEAdboostM1混淆矩陣

        表4 AdaBoostM1混淆矩陣

        表5 AdaBoostM1與SMOTEAdboostM1漏報(bào)率(%)

        表6 AdaBoostM1與SMOTEAdaBoostM1準(zhǔn)確率(%)

        通過(guò)表5和表6數(shù)據(jù)表明在使CanpoySMOTE對(duì)樣本處理之后,減少了噪聲,解決了樣本不平衡造成的少類(lèi)別樣本誤差問(wèn)題。在沒(méi)有改變?cè)姓w準(zhǔn)確率的前提下,極大地提高了U2R、R2L的準(zhǔn)確率,同時(shí)減少了漏報(bào)率。

        為了進(jìn)一步表明,本文提出的方法對(duì)少類(lèi)別數(shù)據(jù)有較好的應(yīng)用,本文還比較了U2R和R2L在兩個(gè)模型上的ROC曲線。數(shù)據(jù)集中的少數(shù)類(lèi)別U2R在SMOTEAdaBoostM1模型上的ROC曲線如圖3所示,AUC=0.9779。

        圖3 SMOTEAdaBoostM1-U2R ROC曲線

        數(shù)據(jù)集中少數(shù)類(lèi)別U2R在AdaBoostM1模型上的ROC曲線如圖4所示,AUC=0.6297。

        圖4 AdaBoostM1-U2R ROC曲線

        數(shù)據(jù)集中少數(shù)類(lèi)別R2LSMOTEAdaBoostM1模型上的ROC曲線如圖5所示,AUC=0.7091。

        圖5 SMOTEAdaBoostM1-R2L ROC曲線

        數(shù)據(jù)集中少數(shù)類(lèi)別R2L在AdaBoostM1模型上的ROC曲線如圖6所示,AUC=0.6486。

        圖6 AdaBoostM1-R2L ROC曲線

        5 結(jié) 論

        網(wǎng)絡(luò)環(huán)境中攻擊行為多種多樣,收集到的攻擊數(shù)據(jù)樣本數(shù)量不均衡,很難對(duì)少數(shù)類(lèi)別的攻擊行為進(jìn)行判斷,因此本文中使用Canopy去除噪聲點(diǎn),減少了在合成少數(shù)類(lèi)別樣本點(diǎn)時(shí)的誤差,SMOTE技術(shù)將某種攻擊數(shù)據(jù)量少的類(lèi)別(R2L和U2R)進(jìn)行人工合成數(shù)據(jù),增加數(shù)據(jù)所占比例,并同時(shí)減少數(shù)量占比較多的類(lèi)別(DOS和Normal)樣本的數(shù)量,然后使用平衡數(shù)據(jù)集訓(xùn)練AdaboostM1分類(lèi)器,與原始數(shù)據(jù)集在AdaBoostM1分類(lèi)器上訓(xùn)練模型進(jìn)行對(duì)比。實(shí)驗(yàn)得出在不減少整體數(shù)據(jù)集準(zhǔn)確率的情況下,少數(shù)類(lèi)別U2R攻擊的準(zhǔn)確率提升20%,R2L攻擊的準(zhǔn)確率提升5%,同時(shí)平均漏報(bào)率降低9%,證明了該方法可以有效提升少類(lèi)別準(zhǔn)確率,降低平均漏報(bào)率,有效地解決了網(wǎng)絡(luò)入侵檢測(cè)少數(shù)類(lèi)誤分類(lèi)問(wèn)題。

        猜你喜歡
        分類(lèi)模型
        一半模型
        分類(lèi)算一算
        垃圾分類(lèi)的困惑你有嗎
        大眾健康(2021年6期)2021-06-08 19:30:06
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
        分類(lèi)討論求坐標(biāo)
        數(shù)據(jù)分析中的分類(lèi)討論
        教你一招:數(shù)的分類(lèi)
        3D打印中的模型分割與打包
        FLUKA幾何模型到CAD幾何模型轉(zhuǎn)換方法初步研究
        亚洲乱码少妇中文字幕| 把女邻居弄到潮喷的性经历| 国产伦精品一区二区三区免费| 久久精品国产亚洲vr| 在线免费观看亚洲天堂av| 日韩精品一区二区免费| 久久国产色av免费观看| 久久精品亚洲乱码伦伦中文| 色婷婷狠狠97成为人免费| 日本成人中文字幕亚洲一区 | 婷婷色国产精品视频二区| 国产午夜福利不卡在线观看| 亚洲成aⅴ人在线观看| 国产av91在线播放| 国产在线观看视频一区二区三区| 欧美日韩亚洲中文字幕二区| 精品无码一区二区三区爱欲九九| 超级碰碰人妻中文字幕 | 日本道色综合久久影院| 欧美bbw极品另类| 久久se精品一区精品二区国产| 中文字幕亚洲精品高清| 国产精品国三级国产a| 特级毛片a级毛片100免费播放| 亚洲无毛片| 男女搞黄在线观看视频| 亚洲中文无码av永久| 青青草原精品99久久精品66| 91超碰在线观看免费| 久久精品人妻中文av| 国产av夜夜欢一区二区三区| 精品性高朝久久久久久久| 亚洲免费无毛av一区二区三区| 亚洲女人的天堂网av| 久久国产亚洲高清观看| 久久国产偷| av免费网站不卡观看| 激情内射亚洲一区二区三区| 国产又黄又猛又粗又爽的a片动漫| 超碰性爱| 国产情侣自拍在线视频|