亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于多任務(wù)聯(lián)合學(xué)習(xí)的入侵檢測(cè)方法

        2022-03-26 06:53:36劉勝全
        關(guān)鍵詞:分類模型

        劉 源,劉勝全,劉 艷

        (新疆大學(xué)信息科學(xué)與工程學(xué)院,新疆 烏魯木齊 830046)

        0 引言

        近些年來,互聯(lián)網(wǎng)技術(shù)飛速發(fā)展且逐漸成熟,網(wǎng)絡(luò)所帶來的便利已經(jīng)滲透到了人們生產(chǎn)生活中的各個(gè)方面,隨之而來的是網(wǎng)絡(luò)攻擊的風(fēng)險(xiǎn)也急劇增加.網(wǎng)絡(luò)攻擊的罪魁禍?zhǔn)字痪褪蔷W(wǎng)絡(luò)入侵,現(xiàn)有的入侵檢測(cè)技術(shù)基于模式匹配,準(zhǔn)確率高但卻需要人工建立特征庫,而基于深度學(xué)習(xí)的入侵檢測(cè)方法無須人工提取特征,但對(duì)于少數(shù)類攻擊檢測(cè)率低,因此如何提高少數(shù)類的識(shí)別率是目前網(wǎng)絡(luò)入侵檢測(cè)方法面臨的主要難題.

        在文本分類領(lǐng)域,TextCNN取得了非常好的分類效果[1],它采用一個(gè)主任務(wù)加兩個(gè)輔助任務(wù)完成整個(gè)分類模型的構(gòu)建,借助輔助任務(wù)來改善原任務(wù)模型的性能.

        相較于傳統(tǒng)機(jī)器學(xué)習(xí)方法,深度學(xué)習(xí)在特征提取方面有著更好的表現(xiàn),近年來隨著深度學(xué)習(xí)的逐漸成熟,入侵檢測(cè)方法也逐漸向深度學(xué)習(xí)靠攏.Javaid等[2]采用稀疏自編碼器做特征提取,取得了比傳統(tǒng)機(jī)器學(xué)習(xí)更好的結(jié)果;Tan等[3]將預(yù)訓(xùn)練深度置信網(wǎng)絡(luò)(DBN)引入入侵檢測(cè),同時(shí)與傳統(tǒng)機(jī)器學(xué)習(xí)方法進(jìn)行了對(duì)比;楊昆明等[4]在采用深度置信網(wǎng)絡(luò)的情況下,使用SVM代替SOFTMAX分類器,在二分類上取得了更好的結(jié)果;Deng等[5]將卷積神經(jīng)網(wǎng)絡(luò)(CNN)應(yīng)用于入侵檢測(cè),將流量信息轉(zhuǎn)換為灰度圖再通過CNN提取特征,加強(qiáng)了模型的通用性,同時(shí)取得了較好的成果;Kim等[6]使用了長短時(shí)記憶網(wǎng)絡(luò)(LSTM),同時(shí)提出了一種神經(jīng)語言模型,將系統(tǒng)調(diào)用序列建模為一種自然語言,降低了誤報(bào)率;方圓等[7]提出了一種混合模型,將卷積神經(jīng)網(wǎng)絡(luò)和長短時(shí)記憶網(wǎng)絡(luò)串聯(lián)起來,先經(jīng)過CNN提取出網(wǎng)絡(luò)流量的空間特征,再通過LSTM對(duì)已經(jīng)時(shí)間序列化的數(shù)據(jù)進(jìn)行訓(xùn)練最終得到結(jié)果.

        上述深度學(xué)習(xí)方法均采用單一任務(wù),即對(duì)模型只進(jìn)行二分類或多分類訓(xùn)練,該方法雖然對(duì)常見類型能夠有較好的判別,但流量數(shù)據(jù)不平衡性導(dǎo)致少數(shù)類別召回率低的問題仍然存在.本文結(jié)合注意力混合模型與多任務(wù)學(xué)習(xí),對(duì)高維流量特征的權(quán)重進(jìn)行初始化,從眾多信息中選擇出更關(guān)鍵的信息.再分別提取空間特征與時(shí)序特征,將兩部分特征進(jìn)行融合,從而獲得更加全面的流量信息,通過輔助任務(wù)的加入,降低數(shù)據(jù)不平衡性的影響以提升分類準(zhǔn)確率和泛化性能.

        1 模型簡(jiǎn)介

        1.1 多任務(wù)學(xué)習(xí)

        多任務(wù)學(xué)習(xí)的主要目標(biāo)是通過多個(gè)相關(guān)的不同任務(wù),來優(yōu)化共享網(wǎng)絡(luò)的參數(shù),多任務(wù)學(xué)習(xí)能夠更好地挖掘任務(wù)之間具有的聯(lián)系[8].

        多任務(wù)學(xué)習(xí)包括聯(lián)合學(xué)習(xí)、自主學(xué)習(xí)和帶輔助任務(wù)的學(xué)習(xí).其中帶輔助任務(wù)的學(xué)習(xí)方式通過劃分任務(wù)為主任務(wù)和輔助任務(wù),利用輔助任務(wù)的信息來改進(jìn)主任務(wù)的學(xué)習(xí)性能,從而可以學(xué)習(xí)到多個(gè)任務(wù)上的統(tǒng)一表示,進(jìn)而實(shí)現(xiàn)對(duì)輔助任務(wù)的注意力機(jī)制.因此通過多任務(wù)學(xué)習(xí),能夠改善樣本不平衡性帶來的分類誤差.多任務(wù)學(xué)習(xí)模型公式為

        (1)

        其中:wm為第m個(gè)任務(wù)的一列的權(quán)重,xm,j為第m個(gè)任務(wù)的第j個(gè)樣例,ym,j代表對(duì)應(yīng)的輸出,εm代表噪聲.式中多個(gè)任務(wù)的信息共享是通過共享特征與共享隱層神經(jīng)元實(shí)現(xiàn)的,所有任務(wù)都由某種結(jié)構(gòu)相連接,通過同時(shí)優(yōu)化多個(gè)損失函數(shù),使網(wǎng)絡(luò)的泛化能力更加強(qiáng)大.

        1.2 膠囊網(wǎng)絡(luò)

        傳統(tǒng)的卷積神經(jīng)網(wǎng)絡(luò)在池化層會(huì)丟失大量的信息,這就導(dǎo)致網(wǎng)絡(luò)的輸入微小變化的敏感度降低,其輸出幾乎是不變的.但是我們希望網(wǎng)絡(luò)能夠保留更多的細(xì)節(jié)信息.Sabour等[9]提出了膠囊網(wǎng)絡(luò)結(jié)構(gòu)克服了這些缺點(diǎn).膠囊網(wǎng)絡(luò)提供了一個(gè)實(shí)體間局部到全局的關(guān)系方法,在膠囊網(wǎng)絡(luò)里,細(xì)節(jié)的層次結(jié)構(gòu)信息會(huì)被網(wǎng)絡(luò)提取出來,由于提取的細(xì)節(jié)信息更多,所以膠囊網(wǎng)絡(luò)僅需少量的數(shù)據(jù)即可達(dá)到更好的效果.

        膠囊網(wǎng)絡(luò)由膠囊層組成,每一層都被劃分為一組稱為膠囊的神經(jīng)元,膠囊的輸入輸出均為向量形式.為使膠囊的輸出向量表示為某種概率,Hinton使用了壓縮函數(shù)(Squashing)對(duì)向量進(jìn)行歸一化,保證向量的長度在0,1之間.

        圖1為膠囊網(wǎng)絡(luò)示意圖,其中squash函數(shù)的公式為

        (2)

        式中:vj為膠囊j的輸出,sj為膠囊j所有輸入向量的加權(quán)和,即前層膠囊的輸出向量,其公式為

        (3)

        其中cij為耦合系數(shù),由softmax函數(shù)計(jì)算求出,其初值為bij,cij的公式為

        (4)

        其中bij是膠囊i耦合到膠囊j的對(duì)數(shù)先驗(yàn)概率,它依賴于兩個(gè)膠囊的位置和類型.通過計(jì)算上一層中每個(gè)膠囊的輸出vj與預(yù)測(cè)μij之間的一致性,重新確定耦合系數(shù).

        (5)

        通過動(dòng)態(tài)路由算法,不斷迭代,最終計(jì)算出膠囊的輸出vj.

        圖1 膠囊網(wǎng)絡(luò)結(jié)構(gòu)

        1.3 簡(jiǎn)單循環(huán)單元

        簡(jiǎn)單循環(huán)單元(SRU)是由Tao等[10]于2017年提出.GRU網(wǎng)絡(luò)能夠很好地解決傳統(tǒng)循環(huán)神經(jīng)網(wǎng)絡(luò)誤差梯度隨著時(shí)間長度的增加而逐漸變小難以收斂的缺點(diǎn),但是傳統(tǒng)RNN結(jié)構(gòu)如LSTM和GRU在計(jì)算當(dāng)前時(shí)間步狀態(tài)時(shí)需要上一個(gè)時(shí)間步的隱層輸出,這嚴(yán)重限制了RNN模型的并行計(jì)算能力,拖慢了整個(gè)序列的處理速度.而SRU對(duì)GRU的門結(jié)構(gòu)進(jìn)行了修改,引入了Skip-Connection結(jié)構(gòu)[11].使當(dāng)前時(shí)間步計(jì)算不再依賴上一個(gè)時(shí)間步的隱層輸出,大大加強(qiáng)了并行計(jì)算能力.SRU的單元公式為

        (6)

        ft=s(Wfxt+bf);

        (7)

        rt=s(Wrxt+br);

        (8)

        (9)

        ht=rt·g(ct)+(1-rt)·xt.

        (10)

        1.4 聯(lián)合學(xué)習(xí)模型

        入侵檢測(cè)問題可以看作一個(gè)多分類問題,其問題可以形式化如下:存在一個(gè)流量空間X以及固定的類別集合L=(l1,l2,l3,…,lj),對(duì)于訓(xùn)練集D,D?X,每條流量可以表示為〈d,l〉?X×L,我們的目標(biāo)是訓(xùn)練一個(gè)分類器C:X→L,對(duì)于給定的d?X,確定C(d)?L.

        膠囊網(wǎng)絡(luò)沒法有效提取上下文數(shù)據(jù)長期的依賴關(guān)系,但卻能很好地提取局部層次結(jié)構(gòu)特征.SRU能夠提取數(shù)據(jù)間的時(shí)序依賴關(guān)系,但卻對(duì)局部層次特征表現(xiàn)較差.通過結(jié)合不同模型的特點(diǎn),更加全面提取數(shù)據(jù)特征[12].而為了解決數(shù)據(jù)分布不平衡帶來的收斂速度慢、泛化性能差等影響,引入了輔助二分類任務(wù),通過二分類判斷流量是否為入侵流量,將單任務(wù)學(xué)習(xí)中難以提取的入侵特征引入作為輔助信息,通過與多分類任務(wù)學(xué)習(xí)相同的共享網(wǎng)絡(luò)結(jié)構(gòu),來調(diào)整共享隱層的權(quán)重,減小模型對(duì)多數(shù)類別的偏向,增強(qiáng)其泛化能力,聯(lián)合學(xué)習(xí)模型的工作流程如圖2所示.

        圖2 混合模型結(jié)構(gòu)

        (1) 對(duì)78維的流量數(shù)據(jù)進(jìn)行歸一化,其中xmin,xmax分別代表X每個(gè)分量的最小和最大值.

        (11)

        (2) 將歸一化后的數(shù)據(jù)一份轉(zhuǎn)化為9*9的灰度圖輸入膠囊網(wǎng)絡(luò)模塊得到特征向量Hc,一份通過注意力層后輸入SRU模塊得到特征向量Hr.

        (3) 將Hc與Hr拼接,得到混合后的向量Hf.

        (4) 通過全連接層由softmax分類器分類.

        對(duì)于多任務(wù)損失函數(shù)來說,X為輸入向量,Yi為第i個(gè)任務(wù)的標(biāo)簽,其總損失可以表示為

        (12)

        其中λi為損失Li的權(quán)重,是對(duì)于每個(gè)任務(wù)所做貢獻(xiàn)的衡量,手動(dòng)調(diào)節(jié)λi十分耗時(shí),本文引入動(dòng)態(tài)權(quán)重搜索.

        (13)

        (14)

        首先計(jì)算相對(duì)下降率wk,即每個(gè)子任務(wù)與前一輪epoch損失的比值,然后除以超參T,T越大代表個(gè)任務(wù)間權(quán)重差異越小,最后進(jìn)行exp映射后,計(jì)算各個(gè)損失所占比.

        為了提高少數(shù)類的召回率,額外引入一個(gè)二分類任務(wù),其中Lc為多分類損失、Lbc為二分類損失,其公式為

        Lmc=-α(1-softmax(H))γ·
        log(softmax(H));

        (15)

        Lbc=-α(1-D(H))γlog(D(H))+
        (1-α)D(H)γlog(1-D(H)).

        (16)

        該公式在原始交叉熵?fù)p失上加入平衡因子α和γ對(duì)損失函數(shù)進(jìn)行約束,平衡因子α用來平衡正負(fù)樣本,當(dāng)α趨近1時(shí),1-α趨近0,即負(fù)樣本比正樣本占比小.而平衡因子γ則對(duì)樣本易分程度進(jìn)行了平衡,由于D(H)的輸出在(0,1)之間,因此當(dāng)γ>1時(shí),D(H)γ增大而(1-D(H))γ減小,即置信度高則該樣本易分,其損失會(huì)降低,使模型更關(guān)注難分樣本.

        2 實(shí)驗(yàn)方法與分析

        2.1 數(shù)據(jù)預(yù)處理

        大多數(shù)入侵檢測(cè)模型所采用的數(shù)據(jù)集KDD-99或NLS-KDD距今已有十多年[13].然而,對(duì)于當(dāng)前的網(wǎng)絡(luò)威脅環(huán)境,這些數(shù)據(jù)集并不能全面反映網(wǎng)絡(luò)流量和入侵攻擊,考慮到網(wǎng)絡(luò)數(shù)據(jù)集應(yīng)該具有時(shí)效性,本文采用了CICIDS2017數(shù)據(jù)集[14].該數(shù)據(jù)集由加拿大網(wǎng)絡(luò)安全研究所提供,其融合了真實(shí)的正常和攻擊流量.更適合模擬現(xiàn)有網(wǎng)絡(luò)環(huán)境.數(shù)據(jù)集中所包含攻擊類型見表1.其中KDD99與NSL-KDD數(shù)據(jù)集中并不包含Browser、Bdoor以及DNS攻擊類型,而CICIDS-2017包含了現(xiàn)在流行的大多數(shù)攻擊.因此采用該數(shù)據(jù)集訓(xùn)練的模型更加適應(yīng)現(xiàn)有的網(wǎng)絡(luò)環(huán)境.

        表1 數(shù)據(jù)集包含攻擊類型

        CICIDS2017數(shù)據(jù)集十分龐大.其包含3 119 345條數(shù)據(jù),15個(gè)類別標(biāo)簽(14個(gè)攻擊類型+1個(gè)正常類型).刪除缺失數(shù)據(jù)后仍有2 830 540條數(shù)據(jù).該數(shù)據(jù)集雖然包含了大多數(shù)攻擊場(chǎng)景,但是其缺點(diǎn)是數(shù)據(jù)分布不平衡.各類別的分布如表2 所示.

        表2 入侵類型分布

        可以看出BEGIN的占比為83.4%,HeartBleed的占比為0.000 39%,數(shù)據(jù)集非常不平衡將會(huì)對(duì)分類器的分類性能有嚴(yán)重影響,分類器會(huì)更加偏向?qū)颖九袆e為多數(shù)類,而忽視少數(shù)類別,因?yàn)檫@樣能夠更加輕易獲得較低的損失值.因此,在進(jìn)行訓(xùn)練過程前,需要對(duì)數(shù)據(jù)集的不平衡性進(jìn)行處理.最簡(jiǎn)單的方法即為重新劃分類別,該數(shù)據(jù)集中正常類很難再細(xì)分,于是可以考慮將少數(shù)攻擊類合并為新的類別,調(diào)整后的類別分布如表3所示.

        從表3中可以看出攻擊類別的占比有著明顯的提升,從而大大降低了類別的不平衡性.由于類別的分布有著很大的不平衡性,正樣本是負(fù)樣本的數(shù)倍之多,故模型采用分層K折交叉驗(yàn)證,即在每一折中都保持著原始數(shù)據(jù)中各個(gè)類別的比例關(guān)系.選取K為3,將2/3用于訓(xùn)練,1/3用于測(cè)試.訓(xùn)練3次,取其平均值.

        2.2 實(shí)驗(yàn)設(shè)置

        本文在Ubuntu18.04環(huán)境上進(jìn)行,采用Keras深度學(xué)習(xí)框架,后端實(shí)現(xiàn)為TensorFlow-ROCm,集成環(huán)境為Anaconda3.系統(tǒng)硬件配置如下:CPU為AMD ryzen 3600x,內(nèi)存為16 GB,GPU為AMD RX580.具體設(shè)置參數(shù)見表4和5.

        表4 膠囊網(wǎng)絡(luò)參數(shù)設(shè)置

        表5 SRU網(wǎng)絡(luò)參數(shù)設(shè)置

        聯(lián)合學(xué)習(xí)模型中,膠囊網(wǎng)絡(luò)和SRU單元的輸出向量均為64維,經(jīng)過拼接后為128維向量,該向量通過一層前饋全連接網(wǎng)絡(luò)后由softmax分類.層與層之間加入Layer Normalization對(duì)數(shù)據(jù)進(jìn)行歸一化,使其分布一致,避免梯度消失,加快收斂速度.

        本文通過混淆矩陣(見表6)分別計(jì)算準(zhǔn)確率 (A),查準(zhǔn)率(P),查全率 (R),和F1值(F1)來評(píng)估模型的性能.

        (11)

        表6 混淆矩陣

        (12)

        (13)

        其中P是模型預(yù)測(cè)為正例中預(yù)測(cè)正確的比重,R是所有真實(shí)值是正例的結(jié)果中預(yù)測(cè)正確的比重,F(xiàn)1值是對(duì)查準(zhǔn)率和查全率進(jìn)行了綜合考慮,F(xiàn)1值越高,說明模型越穩(wěn)健,性能越好.

        2.3 實(shí)驗(yàn)結(jié)果與分析

        2.3.1 收斂性分析

        圖3和4展示了多任務(wù)聯(lián)合模型訓(xùn)練時(shí)的準(zhǔn)確率和損失值的變化趨勢(shì),其中acc和loss分別代表代表準(zhǔn)確率和損失.在20次的迭代訓(xùn)練中,準(zhǔn)確率穩(wěn)定上升直至訓(xùn)練后期趨于平穩(wěn),同時(shí)損失值也平穩(wěn)地下降,10輪之后基本穩(wěn)定不再變化,表明本模型良好且能夠快速收斂.訓(xùn)練使用完整數(shù)據(jù)集,對(duì)比試驗(yàn)也采用相同的數(shù)據(jù)集和測(cè)試集.

        圖3 多任務(wù)聯(lián)合模型的準(zhǔn)確率

        圖4 多任務(wù)聯(lián)合模型損失

        2.3.2 模型對(duì)比分析

        為了驗(yàn)證本文模型對(duì)入侵檢測(cè)有著更好的效果,分別對(duì)比了文獻(xiàn)[5]中基于卷積神經(jīng)網(wǎng)絡(luò)的入侵檢測(cè)方法,文獻(xiàn)[6]中基于長短時(shí)記憶網(wǎng)絡(luò)的方法以及文獻(xiàn)[7]中基于CNN+GRU混合模型的方法.同時(shí)也對(duì)比了本文模型添加輔助任務(wù)和不添加輔助任務(wù)的情況.通過對(duì)比各個(gè)模型的性能指標(biāo)來分析模型的優(yōu)缺點(diǎn),實(shí)驗(yàn)結(jié)果如表7所示.

        表7 不同模型的性能對(duì)比 %

        可以看出在單一模型中LSTM和CNN模型的性能基本相同,而由于CNN+GRU混合模型能夠提取更加豐富的特征,故所有類別的F1均高于單一模型.但是3個(gè)模型對(duì)Infiltration和WebAttack類的檢測(cè)上均表現(xiàn)較差,尤其是 Infiltration類,這3種方法均無法檢測(cè)出該類.對(duì)于不添加輔助函數(shù)的本文模型,性能與CNN+GRU模型類似,對(duì)Infiltration類別的判斷有所提高,而添加了輔助任務(wù)的多任務(wù)聯(lián)合學(xué)習(xí)模型不僅在P,R,F(xiàn)1值方面均優(yōu)于對(duì)比模型,同時(shí)能夠很好的檢測(cè)出Infiltration與WebAttack這樣的少數(shù)類別.這是因?yàn)閿?shù)據(jù)集中惡意樣本數(shù)相對(duì)較少,而少數(shù)類別對(duì)神經(jīng)網(wǎng)絡(luò)的權(quán)重影響過于小,損失函數(shù)通過忽視少數(shù)類別能夠更簡(jiǎn)單的降低損失值,因此本文方法引入一個(gè)二分類的輔助損失,通過該損失函數(shù)來調(diào)整網(wǎng)絡(luò)共享層的權(quán)重,使其能夠注意到少數(shù)的攻擊類別.

        2.3.3 輔助損失驗(yàn)證分析

        在多任務(wù)聯(lián)合學(xué)習(xí)模型中,需要對(duì)每個(gè)任務(wù)的損失進(jìn)行權(quán)重分配,必須保證輔助損失能夠微調(diào)模型權(quán)重參數(shù)但又不能主導(dǎo)整個(gè)模型的訓(xùn)練[15].通過使用動(dòng)態(tài)損失權(quán)重和不使用動(dòng)態(tài)損失權(quán)重進(jìn)行模型訓(xùn)練來確定該方法是否有效,結(jié)果如表8所示.可以發(fā)現(xiàn)使用動(dòng)態(tài)損失權(quán)重的模型F1值明顯優(yōu)于不使用該方法.其動(dòng)態(tài)調(diào)整二分類損失的比重可以更好地調(diào)整模型參數(shù),提高少數(shù)類別的召回率.

        表8 動(dòng)態(tài)損失權(quán)重 %

        3 結(jié)論

        本文提出的多任務(wù)聯(lián)合學(xué)習(xí)方法,很好地解決了流量數(shù)據(jù)中少數(shù)類別檢測(cè)難的問題,將CapsNet與SRU相結(jié)合提取更加全面的流量信息,最后結(jié)合輔助任務(wù)來提升少數(shù)類的召回率.通過對(duì)比不同方法的檢測(cè)結(jié)果,結(jié)果顯示本文方法在大幅提高少數(shù)類別召回率,同時(shí)查準(zhǔn)率也較其他方法有所提升.由于模型針對(duì)特定數(shù)據(jù)集訓(xùn)練,未考慮真實(shí)網(wǎng)絡(luò)環(huán)境下的流量數(shù)據(jù),所以下一步研究將著重于真實(shí)情況下的網(wǎng)絡(luò)入侵,建立一個(gè)泛化能力與抗干擾能力更強(qiáng)的入侵監(jiān)測(cè)系統(tǒng),來驗(yàn)證多任務(wù)聯(lián)合學(xué)習(xí)方法的性能.

        猜你喜歡
        分類模型
        一半模型
        分類算一算
        垃圾分類的困惑你有嗎
        大眾健康(2021年6期)2021-06-08 19:30:06
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
        分類討論求坐標(biāo)
        數(shù)據(jù)分析中的分類討論
        教你一招:數(shù)的分類
        3D打印中的模型分割與打包
        FLUKA幾何模型到CAD幾何模型轉(zhuǎn)換方法初步研究
        在线观看国产成人自拍视频| 日韩欧美第一区二区三区| 久久久久无码中文字幕| 亚洲长腿丝袜中文字幕| 国产a级毛片久久久精品毛片| 亚洲综合欧美在线一区在线播放| 免费可以在线看A∨网站| 国产不卡一区二区av| 国产成人国产三级国产精品 | 日日麻批视频免费播放器| 日本最新一区二区三区视频观看 | 手机色在线| 大香蕉视频在线青青草| 岳丰满多毛的大隂户| 日本护士吞精囗交gif| 欧美激情中文字幕在线一区二区| 亚洲综合有码中文字幕| 精品熟人妻一区二区三区四区不卡| 久久婷婷夜色精品国产| 尤物视频一区二区| 国产va精品免费观看| 免费观看国产激情视频在线观看| 亚洲国产婷婷香蕉久久久久久| 国产美女自慰在线观看| 久久精品国产亚洲AV无码不| 国产精品自拍视频免费看| 成人无码一区二区三区| 欧美性狂猛xxxxx深喉| 国产成人综合日韩精品无| 丝袜美腿精品福利在线视频| 亚洲综合成人婷婷五月网址| 大胆欧美熟妇xxbbwwbw高潮了| 青青草99久久精品国产综合| 国产精品亚洲一区二区三区16| 熟妇人妻久久中文字幕| 在线视频这里只有精品| 最新日韩精品视频免费在线观看| 日韩无码专区| 人妻系列无码专区久久五月天| 国产一线视频在线观看高清| 一区二区视频在线国产|