亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        自注意力的多特征網(wǎng)絡(luò)流量異常檢測(cè)與分類(lèi)

        2021-01-01 11:52:58皇甫雨婷李麗穎王海洲沈富可魏同權(quán)
        關(guān)鍵詞:特征選擇

        皇甫雨婷 李麗穎 王海洲 沈富可 魏同權(quán)

        摘要:基于特征選擇的網(wǎng)絡(luò)流量異常檢測(cè)引起了人們廣泛的研究興趣.現(xiàn)有的方案大多通過(guò)簡(jiǎn)單降低流量數(shù)據(jù)的維度來(lái)檢測(cè)異常,卻忽略了數(shù)據(jù)特征之間的相關(guān)性,導(dǎo)致異常流量檢測(cè)效率低下.為了有效識(shí)別各種類(lèi)型的攻擊,首先提出了一種自注意力機(jī)制模型來(lái)學(xué)習(xí)網(wǎng)絡(luò)流量數(shù)據(jù)多個(gè)特征之間的相關(guān)性.然后,設(shè)計(jì)了一種新型的多特征異常流量檢測(cè)和分類(lèi)模型,該模型分析了異常流量數(shù)據(jù)中多特征之間的相關(guān)性,達(dá)到檢測(cè)與識(shí)別異常網(wǎng)絡(luò)流量的目的.實(shí)驗(yàn)結(jié)果表明,與兩種基準(zhǔn)方法相比,所提出的技術(shù)將異常檢測(cè)和分類(lèi)的準(zhǔn)確率提高了1.65%,并將誤報(bào)率降低了1.1%.

        關(guān)鍵詞:網(wǎng)絡(luò)異常檢測(cè);網(wǎng)絡(luò)異常分類(lèi);自注意力;特征選擇;多特征相關(guān)性

        中圖分類(lèi)號(hào):TP393文獻(xiàn)標(biāo)志碼:ADOI:10.3969/j.issn.l000-5641.2021.06.016

        Enabling self-attention based multi-feature anomaly detection and classification of network traffic

        HUANGFU Yuting,LI Liying,WANG Haizhou,SHEN Fuke,WEI Tongquan

        (School of Computer Science and Technology,East China Normal University,Shanghai 200062,China)

        Abstract:Network traffic anomaly detection based on feature selection has attracted great research interest. Most existing schemes detect anomalies by reducing the dimensionality of traffic data,but ignore the correlation between data features;this results in inefficient detection of anomaly traffic. In order to effectively identify various types of attacks,a model based on a self-attentive mechanism is proposed to learn the correlation between multiple features of network traffic data. Then,a novel multi-feature anomalous traffic detection and classification model is designed,which analyzes the correlation between multiple features of the anomalous traffic data and subsequently identifies anomalous network traffic. Experimental results show that,compared to two benchmark methods,the proposed technique increased the accuracy of anomaly detection and classification by a maximum of 1.65% and reduced the false alarm rate by 1.1%.

        Keywords:network anomaly detection;network anomaly classification;self-attention;feature selection;multi-feature correlation

        0引言

        隨著數(shù)據(jù)量的快速增長(zhǎng)和網(wǎng)絡(luò)應(yīng)用的廣泛使用,網(wǎng)絡(luò)安全引起了越來(lái)越多專(zhuān)家學(xué)者的關(guān)注.在網(wǎng)絡(luò)流量中,異?,F(xiàn)象是安全問(wèn)題的主要癥狀[1].通常情況下,網(wǎng)絡(luò)異常指的是行為和模式與正常網(wǎng)絡(luò)狀態(tài)存在偏差.網(wǎng)絡(luò)異常的因素有多種,包括病毒、蠕蟲(chóng)、黑客入侵、廣播風(fēng)暴、網(wǎng)絡(luò)流量超載和DDoS攻擊等.網(wǎng)絡(luò)異常會(huì)造成網(wǎng)絡(luò)擁堵、資源分配不均衡、性能下降以及一些安全問(wèn)題,最終可能導(dǎo)致數(shù)據(jù)泄露和經(jīng)濟(jì)損失[2].例如,2017年,一種名為Wannacry的類(lèi)似蠕蟲(chóng)的勒索病毒爆發(fā)并在全球范圍內(nèi)傳播.該病毒對(duì)電腦中的圖片、程序等文件實(shí)施了高強(qiáng)度的加密鎖定,并向用戶(hù)索要贖金,導(dǎo)致社會(huì)的經(jīng)濟(jì)利益受損.網(wǎng)絡(luò)異常流量檢測(cè)可以檢測(cè)網(wǎng)絡(luò)中的突發(fā)攻擊事件,檢測(cè)到攻擊后可以做出應(yīng)對(duì),減少損失,而分類(lèi)可以把攻擊的類(lèi)型識(shí)別出來(lái),針對(duì)不同的攻擊采取不同的應(yīng)對(duì)措施,對(duì)癥下藥.因此,進(jìn)行網(wǎng)絡(luò)異常檢測(cè),識(shí)別異常流量就具有重要的應(yīng)用價(jià)值.

        目前,異常流量檢測(cè)的方法可分為基于簽名的方法和基于統(tǒng)計(jì)的方法[3].基于簽名的檢測(cè)技術(shù)主要是利用模式匹配的思想,為每一個(gè)已知的攻擊生成一個(gè)唯一的簽名標(biāo)記.基于簽名的方法簡(jiǎn)單有效,不需要很高的計(jì)算能力,但需要為每種攻擊類(lèi)型設(shè)計(jì)一個(gè)簽名.此方法雖然適用于單一網(wǎng)絡(luò)行為模式的攻擊,但是對(duì)動(dòng)態(tài)攻擊無(wú)效.此外,基于簽名的方法只能檢測(cè)已知的攻擊,不能檢測(cè)未知的攻擊.基于統(tǒng)計(jì)的方法根據(jù)網(wǎng)絡(luò)流量的行為來(lái)對(duì)流量的異常情況進(jìn)行判斷,該方法可以學(xué)習(xí)網(wǎng)絡(luò)流量的行為,對(duì)于動(dòng)態(tài)的、復(fù)雜的網(wǎng)絡(luò)異常行為,可以達(dá)到更好的檢測(cè)性能.機(jī)器學(xué)習(xí)技術(shù)是最常用的基于統(tǒng)計(jì)的方法之一,具有強(qiáng)大的功能,可以自動(dòng)學(xué)習(xí)識(shí)別復(fù)雜的模式,并根據(jù)數(shù)據(jù)做出明智的決策巴在使用機(jī)器學(xué)習(xí)方法訓(xùn)練分類(lèi)器進(jìn)行異常檢測(cè)和分類(lèi)之前,有必要進(jìn)行特征選擇以降低數(shù)據(jù)的維度.特征選擇的目的是在眾多特征中挑選出對(duì)分類(lèi)識(shí)別最有效的特征,實(shí)現(xiàn)數(shù)據(jù)空間維度的降低來(lái)減少計(jì)算量,提高分類(lèi)速度,即獲取一組少而精且分類(lèi)錯(cuò)誤概率小的子特征集合.目前的研究表明,基于特征選擇的機(jī)器學(xué)習(xí)方法已經(jīng)取得了比較令人滿(mǎn)意的性能[4].經(jīng)典的機(jī)器學(xué)習(xí)算法包括決策樹(shù)(Decision Tree,DT),支持向量機(jī)(Support Vector Machine,SVM),k-Nearest Neighbor (kNN)和隨機(jī)森林(Random Forest,RF)等.Sheen等[5]描述了3種不同的特征選擇方法,并使用DT作為分類(lèi)器來(lái)找到具有更好分類(lèi)性能的特征選擇方法.Kuang等[6]引入了一個(gè)基于SVM的模型,該模型使用內(nèi)核主成分分析(KPCA)來(lái)選擇特征并降低原始數(shù)據(jù)的維數(shù).Farnaaz等[7]使用隨機(jī)森林構(gòu)造分類(lèi)器并建立異常檢測(cè)系統(tǒng)模型. 該方法旨在檢測(cè)復(fù)雜的攻擊并提高檢測(cè)率.Wu等[8]提出了一種kNN的異常檢測(cè)方法,利用該方法使用時(shí)間敏感性來(lái)查找在不同時(shí)間間隔內(nèi)表現(xiàn)出不同行為特征的異常值.但是它使用的數(shù)據(jù)集KDD- CUP是20世紀(jì)90年代末提出的一個(gè)數(shù)據(jù)集,在互聯(lián)網(wǎng)飛速發(fā)展的今天,里面涉及的數(shù)據(jù)以及攻擊類(lèi)型都具有一定的局限性.文獻(xiàn)[9]提到基準(zhǔn)數(shù)據(jù)集的可靠性也將對(duì)數(shù)據(jù)檢測(cè)產(chǎn)生一定的影響.綜上所述,基于特征選擇的機(jī)器學(xué)習(xí)方法根據(jù)人為制訂的規(guī)則,選取與流量重要性較高的特征,形成一個(gè)最優(yōu)的特征子集,從而降低數(shù)據(jù)維度和計(jì)算成本.然后,通過(guò)機(jī)器學(xué)習(xí)算法訓(xùn)練分類(lèi)器,達(dá)到檢測(cè)和分類(lèi)的目的.然而,基于特征選擇的機(jī)器學(xué)習(xí)方法也有兩個(gè)限制.一方面,特征選擇的過(guò)程涉及人工的干預(yù),所以時(shí)間成本和人力成本較高[10].另外,它忽略了特征之間的相互關(guān)系,只選擇與網(wǎng)絡(luò)流量關(guān)系最大的部分特征.另一方面,由于網(wǎng)絡(luò)數(shù)據(jù)的流量大、結(jié)構(gòu)復(fù)雜,機(jī)器學(xué)習(xí)的處理能力有限,容易出現(xiàn)誤報(bào)率高、泛化能力差等問(wèn)題[11].因此,建立一種能夠有效識(shí)別異常流量的檢測(cè)模型迫在眉睫.

        近年來(lái),深度學(xué)習(xí)優(yōu)異的表示能力引起了人們的廣泛關(guān)注,并在圖像識(shí)別和自然語(yǔ)言處理領(lǐng)域取得了顯著的成績(jī).由于傳統(tǒng)機(jī)器學(xué)習(xí)方法的局限性,深度學(xué)習(xí)方法在網(wǎng)絡(luò)異常流量檢測(cè)領(lǐng)域也引起了很多學(xué)者的研究興趣[12].深度學(xué)習(xí)方法最早在異常檢測(cè)中的應(yīng)用是循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,RNN).Yin等[12]使用RNN模型來(lái)提高二進(jìn)制分類(lèi)和多分類(lèi)的性能.由于RNN對(duì)于高維數(shù)據(jù)易產(chǎn)生梯度消失的情況且無(wú)法解決長(zhǎng)期依賴(lài)的問(wèn)題[13].為了解決這個(gè)問(wèn)題,文獻(xiàn)[14]提出了長(zhǎng)短期記憶(Long Short-Term Memory,LSTM),它是RNN的一種變形.在實(shí)際操作中,卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,CNN)和LSTM模型的應(yīng)用更加廣泛,在實(shí)驗(yàn)性能方面也非常出色. CNN是一類(lèi)包含卷積計(jì)算的神經(jīng)網(wǎng)絡(luò),通過(guò)卷積核進(jìn)行特征提取和篩選.Wang等[15]結(jié)合使用LSTM和DT.在他們的方法中,數(shù)據(jù)首先通過(guò)LSTM,然后放入DT中進(jìn)行二次檢測(cè),以提高準(zhǔn)確性并降低誤報(bào)率.Wang等[10]將CNN應(yīng)用于網(wǎng)絡(luò)流量中的流量分類(lèi).他們將二進(jìn)制字節(jié)流轉(zhuǎn)換為灰度圖像,然后將這些圖像形式輸入CNN模型以完成分類(lèi).但是,網(wǎng)絡(luò)流量包含的信息量少于圖片包含的信息量,在轉(zhuǎn)換過(guò)程中某些信息可能會(huì)丟失.Kim等[16]引入了一種新的編碼技術(shù),該技術(shù)增強(qiáng)了使用CNN結(jié)構(gòu)識(shí)別異常事件的性能.不可否認(rèn),深度學(xué)習(xí)方法確實(shí)達(dá)到了很好的性能[15].但這些深度學(xué)習(xí)方法仍然存在一些不足之處.我們都知道,網(wǎng)絡(luò)流量是一個(gè)數(shù)據(jù)序列.RNN只適用于局部依賴(lài)性,無(wú)法解決長(zhǎng)期依賴(lài)性的問(wèn)題[13],對(duì)于LSTM來(lái)說(shuō)如果序列太長(zhǎng),它也無(wú)法更好地記憶[17].而CNN需要疊加多個(gè)過(guò)濾器才能學(xué)習(xí)到全局的特征,這增大了計(jì)算復(fù)雜度[18-19].

        谷歌所提出的self-attention機(jī)制[20]取代了傳統(tǒng)的RNN.該方法通過(guò)學(xué)習(xí)句子內(nèi)的單詞依賴(lài)關(guān)系,捕捉句子的內(nèi)部結(jié)構(gòu).目前在自然語(yǔ)言處理(Natural Language Processing,NLP)領(lǐng)域得到了廣泛的應(yīng)用[21-22].與CNN相比,self-attention具有較低的計(jì)算復(fù)雜性.此外,與RNN和LSTM相比,self- attention可以關(guān)注一個(gè)序列中的所有元素,因此它被認(rèn)為是解決長(zhǎng)期依賴(lài)性問(wèn)題的好辦法.

        為了解決上述問(wèn)題,我們所提出的方案通過(guò)self-attention技術(shù)來(lái)學(xué)習(xí)多特征之間的相關(guān)性,解決了傳統(tǒng)特征選擇方法中為了減少計(jì)算量而僅挑選少量的最具代表性的分類(lèi)特征組成子集合的方式,因此忽略了特征和其他特征之間微小的聯(lián)系.本文所提出的策略,打破了傳統(tǒng)特征選擇方法,單純選擇網(wǎng)絡(luò)流量中重要性高的特征規(guī)則.基于提取的特征相關(guān)性,我們提出了一個(gè)模型,對(duì)提取出的特征關(guān)系進(jìn)行編碼,并對(duì)網(wǎng)絡(luò)攻擊進(jìn)行分類(lèi).本文的主要成果總結(jié)如下:

        (1)設(shè)計(jì)了一個(gè)基于self-attention的模型來(lái)提取多特征的相關(guān)性.該模型旨在自動(dòng)學(xué)習(xí)特征間的相關(guān)性,降低特征選擇所帶來(lái)的人工成本以及時(shí)間成本.

        (2)提出了一種對(duì)所提取的特征間關(guān)系進(jìn)行編碼的模型,從而對(duì)網(wǎng)絡(luò)流量異常進(jìn)行有效檢測(cè)和分類(lèi).

        (3)進(jìn)行了大量的實(shí)驗(yàn)來(lái)評(píng)估本文所提出方法的性能.實(shí)驗(yàn)結(jié)果表明,與兩種基準(zhǔn)方法相比,本文所提出的方法將異常流量識(shí)別的準(zhǔn)確率提高了1.65%,并將誤報(bào)率降低了1.1%.

        1相關(guān)技術(shù)

        1.1基于self-attention的特征相關(guān)性提取

        傳統(tǒng)的特征選擇方法為了減少計(jì)算量,只選擇最具代表性的特征來(lái)檢測(cè)網(wǎng)絡(luò)流量的異常.這些方法忽略了特征之間的相互關(guān)系,不能有效地對(duì)復(fù)雜的網(wǎng)絡(luò)攻擊進(jìn)行檢測(cè)和分類(lèi).self-attention技術(shù)可以學(xué)習(xí)特征間的相關(guān)信息,有效地解決上述問(wèn)題.

        本文使用self-attention來(lái)捕捉多個(gè)網(wǎng)絡(luò)流量特征之間的關(guān)系.self-attention可以描述為將查詢(xún)Q和一組鍵值對(duì)(K-V)映射到輸出,如圖1所示.其中Q、K、V和輸出都是向量.Q、K、V都是由輸入向量X乘以不同的權(quán)重所得到的.

        Q=XW,

        K=XW,

        V=XW.

        其中,X代表輸入向量,W、W、W是模型訓(xùn)練過(guò)程中學(xué)習(xí)到的參數(shù),初始時(shí)W、W、W是隨機(jī)賦值的,且它們的值都是一樣的,即Q=K=V.在訓(xùn)練過(guò)程中會(huì)根據(jù)訓(xùn)練結(jié)果不斷改變Q、K、V的值,直至找到各自合適的參數(shù).設(shè)置Q、K、V的目的是通過(guò)計(jì)算的方式找到與其他特征之間的相關(guān)性系數(shù)大小,相當(dāng)于給每個(gè)特征計(jì)算出一個(gè)權(quán)重,然后得出一個(gè)加權(quán)的結(jié)果來(lái)說(shuō)明每個(gè)特征與哪一個(gè)特征之間關(guān)聯(lián)最大,通過(guò)學(xué)習(xí)這些關(guān)注值中的信息來(lái)進(jìn)行流量的檢測(cè)與分類(lèi).self-attention主要做的工作是計(jì)算查詢(xún)Q和所有鍵K的點(diǎn)積,并進(jìn)行縮放,通過(guò)softmax函數(shù)得到值V的權(quán)重,然后把值V和權(quán)重相乘就得到最終的注意力值,用A(Q,K,V)表示.圖1中的查詢(xún)Q代表第,個(gè)輸入的查詢(xún),鍵K代表第i個(gè)輸入的鍵,類(lèi)似于索引的一個(gè)值,值V代表第i個(gè)輸入的值,包含了其輸入的信息.因此計(jì)算得到注意力值相當(dāng)于第i個(gè)輸入與第1,2,…,i個(gè)輸入之間的注意力值,即每個(gè)輸入之間的相關(guān)性.

        圖2中詳細(xì)說(shuō)明了計(jì)算注意力值的具體操作過(guò)程.

        計(jì)算過(guò)程可分為以下三步.以第一個(gè)輸入為例,第一步是將Q與所有的鍵(K,K,…,K)相乘,然后進(jìn)行放縮后得到S,一般都是通過(guò)除以(K的維度)來(lái)縮放.S由以下公式給出:

        第二步是使用softmax對(duì)這些值進(jìn)行歸一化,得到這些值在整個(gè)輸入中所占的權(quán)重,權(quán)重之和為1.

        Z的計(jì)算方法為

        其中,M為輸入的個(gè)數(shù),exp函數(shù)是以自然常數(shù)e為底的指數(shù)函數(shù).第三步是利用權(quán)重計(jì)算加權(quán)和,得到第一個(gè)輸入與所有輸入之間的注意力值A(chǔ).A由以下公式給出:

        上述過(guò)程描述的是第一個(gè)輸入與所有輸入之間的注意力值的計(jì)算過(guò)程,剩下的第2,3,…,i個(gè)輸入與所有輸入之間的注意力值可以通過(guò)同樣的方法計(jì)算得到.事實(shí)上,每一個(gè)輸入的注意力值計(jì)算過(guò)程是可以并行操作,通過(guò)矩陣運(yùn)算的方式得到.我們將所有的Q打包成一個(gè)矩陣Q,K、V也打包成矩陣K、V.注意力值A(chǔ)(Q,K,V)可以用以下方式給出:

        其中,T表示矩陣的轉(zhuǎn)置,S表示softmax回歸假設(shè)函數(shù).

        1.2異常檢測(cè)與分類(lèi)模型

        如同1.1節(jié)中的描述,使用self-attention機(jī)制來(lái)捕捉多特征之間的關(guān)系.捕獲到的關(guān)系信息需要進(jìn)一步編碼來(lái)檢測(cè)和分類(lèi)異常流量.我們進(jìn)一步設(shè)計(jì)一個(gè)模型來(lái)檢測(cè)和分類(lèi)網(wǎng)絡(luò)異常流量.圖3 顯示了我們所提出的異常檢測(cè)和分類(lèi)模型的結(jié)構(gòu).

        通過(guò)訓(xùn)練一個(gè)性能優(yōu)良、泛化性強(qiáng)的模型來(lái)檢測(cè)和分類(lèi)網(wǎng)絡(luò)流量.這個(gè)模型主要分為3個(gè)子層,第一個(gè)是自注意力子層,第二個(gè)是前向反饋?zhàn)訉樱谌齻€(gè)是分類(lèi)子層.在第一個(gè)子層中,因?yàn)閿?shù)據(jù)集中的一條數(shù)據(jù)是由多個(gè)特征組成的,而自注意力中的輸入是以向量的形式,要研究特征和特征之間的相關(guān)性,需要把特征轉(zhuǎn)換成特征向量的形式.從圖3可以看到,特征首先通過(guò)獨(dú)熱編碼的方式轉(zhuǎn)換成特征向量X的形式,以特征向量作為模型的輸入.特征向量X經(jīng)過(guò)自注意力層產(chǎn)生特征相關(guān)性的注意力向量Z,將特征向量X和注意力向量Z進(jìn)行殘差連接,再經(jīng)過(guò)層歸一化生成輸出Y.殘差連接是指將自注意力子層的輸入X和輸出Z相加的操作,其作用是避免梯度的消失.層歸一化是為了加快收斂速度.第一個(gè)自注意力子層的輸出Y經(jīng)過(guò)前向反饋層,它是一個(gè)全連接的前饋網(wǎng)絡(luò),由兩個(gè)線(xiàn)性變換組成,它們之間有一個(gè)ReLU激活函數(shù).前饋?zhàn)訉覨(Y)的定義由以下公式給出:

        F(Y)=max(0,YW+b)W+b.

        其中,W1,b代表從輸入向量Y到第一個(gè)全連接層的權(quán)重和偏置.W,b代表從第一個(gè)全連接層到第二個(gè)全連接層的權(quán)重和偏置.前向反饋層的輸出向量O和其輸入向量Y也經(jīng)過(guò)一個(gè)殘差連接層和歸一化處理,最后得到的結(jié)果放入分類(lèi)子層中被進(jìn)一步編碼.分類(lèi)子層中經(jīng)過(guò)全連接層,通過(guò)softmax 函數(shù)來(lái)計(jì)算數(shù)據(jù)在各個(gè)分類(lèi)上的概率情況,通過(guò)計(jì)算損失來(lái)訓(xùn)練模型.在我們的模型中,所使用的損失函數(shù)是交叉熵?fù)p失函數(shù)L,定義為

        其中,p(x)表示實(shí)標(biāo)的概率向量,q(x)表示預(yù)測(cè)結(jié)果的概率向量.計(jì)算出損失值后,進(jìn)行反向傳播,更新Q、K、V等參數(shù).我們還使用Adam優(yōu)化器來(lái)優(yōu)化我們的模型,訓(xùn)練完所有數(shù)據(jù)后,保存當(dāng)前模型參數(shù).

        2算法介紹

        本章總結(jié)了所提出的基于self-attention的異常檢測(cè)和分類(lèi)算法,并介紹了相關(guān)的預(yù)處理、訓(xùn)練和測(cè)試算法.

        2.1預(yù)處理階段

        算法1展示了預(yù)處理步驟的偽代碼,它以網(wǎng)絡(luò)流量數(shù)據(jù)集。為輸入,輸出訓(xùn)練數(shù)據(jù)集Aram和測(cè)試數(shù)據(jù)集Rest.它包括4個(gè)步驟:數(shù)據(jù)清洗、歸一化、過(guò)采樣和欠采樣、數(shù)據(jù)集分割.第一步是數(shù)據(jù)清洗.這是保證數(shù)據(jù)質(zhì)量的一項(xiàng)重要工作.首先,因?yàn)閿?shù)據(jù)是從真實(shí)的網(wǎng)絡(luò)環(huán)境中抓取的,所以存在無(wú)效數(shù)據(jù)的可能性非常大.我們刪除這些無(wú)效數(shù)據(jù),以提高實(shí)驗(yàn)結(jié)果的準(zhǔn)確性.通過(guò)進(jìn)一步的檢測(cè),發(fā)現(xiàn)無(wú)效的數(shù)據(jù)量是比較少的,只有十幾條,所以本文將這些無(wú)效的數(shù)據(jù)整條刪除.另外一點(diǎn),從原始數(shù)據(jù)中提取的特征有80多個(gè),其中包括了IP地址、協(xié)議、端口號(hào)等特征,但這些特征并不是所需要的,所以我們將這些不需要的特征字段刪除,只保留與數(shù)據(jù)流相關(guān)的特征字段,來(lái)減少對(duì)于分類(lèi)的影響.第二步是數(shù)據(jù)歸一化,即對(duì)數(shù)值進(jìn)行縮放,使其落入一個(gè)小的特定區(qū)間,使不同的特征都具有相同的量級(jí),方便后續(xù)的計(jì)算處理.我們使用max-min歸一化方法將數(shù)據(jù)線(xiàn)性化在[0,1]區(qū)間上,具體如算法1.

        其中,x表示需要做歸一化處理的樣本,x為處理過(guò)后的數(shù)據(jù),x為樣本數(shù)據(jù)的最大值,x為樣本數(shù)據(jù)的最小值.第三步是過(guò)采樣和欠采樣.大多數(shù)公共數(shù)據(jù)集的常見(jiàn)問(wèn)題是正樣本和負(fù)樣本在數(shù)量上的不平衡.在數(shù)據(jù)不平衡的情況下,如果選擇的算法或評(píng)價(jià)指標(biāo)不合適,其性能通常是不理想的.考慮到這種普遍情況,從數(shù)據(jù)的角度出發(fā),我們選擇采樣的方式來(lái)改善數(shù)據(jù)分布的不平衡性.欠采樣是指從數(shù)據(jù)集中不重復(fù)的隨機(jī)抽取數(shù)據(jù).過(guò)采樣是利用聚類(lèi)算法隨機(jī)生成樣本.最后,將處理后的數(shù)據(jù)集D分割成多個(gè)訓(xùn)練子集D和測(cè)試數(shù)據(jù)集D.數(shù)據(jù)預(yù)處理過(guò)程最后返回訓(xùn)練數(shù)據(jù)集D和測(cè)試數(shù)據(jù)集D.

        2.2訓(xùn)練階段

        在訓(xùn)練階段,使用訓(xùn)練數(shù)據(jù)集來(lái)迭代訓(xùn)練一個(gè)分類(lèi)器.算法2展示了訓(xùn)練階段的偽代碼.它將訓(xùn)練數(shù)據(jù)集D作為輸入,輸出訓(xùn)練好的模型各項(xiàng)參數(shù)w.在訓(xùn)練過(guò)程中使用小批量訓(xùn)練,即把一個(gè)大的訓(xùn)練集分成多個(gè)小的數(shù)據(jù)集,以降低計(jì)算成本.D代表一個(gè)數(shù)據(jù)樣本,其中包含許多特征.在每個(gè)小批量訓(xùn)練中,通過(guò)獨(dú)熱編碼將D中的特征轉(zhuǎn)化為特征向量.通過(guò)式(1)計(jì)算特征間相關(guān)性的關(guān)注值,進(jìn)行殘差連接和歸一化.然后將注意力值通過(guò)前饋編碼來(lái)分析相關(guān)信息.通過(guò)殘差連接和歸一化進(jìn)行前饋,進(jìn)一步實(shí)現(xiàn)分類(lèi),計(jì)算真實(shí)標(biāo)簽和預(yù)測(cè)結(jié)果之間的損失,通過(guò)減小損失函數(shù)的值來(lái)進(jìn)行參數(shù)優(yōu)化.所有batch結(jié)束后,模型參數(shù)w被訓(xùn)練并保存.最后返回模型參數(shù)w,具體如算法2.

        2.3測(cè)試階段

        為了驗(yàn)證模型具有良好的性能和泛化性,我們使用幾個(gè)不同的測(cè)試數(shù)據(jù)集.算法3展示了測(cè)試階段的偽代碼,它將模型參數(shù)w和測(cè)試數(shù)據(jù)集D作為輸入并輸出預(yù)測(cè)結(jié)果.第一步先加載訓(xùn)練好的模型參數(shù)w和測(cè)試數(shù)據(jù)集D.在D中,有多個(gè)不同的測(cè)試數(shù)據(jù)集.在每個(gè)測(cè)試數(shù)據(jù)集中,同樣,將分成多個(gè)小數(shù)據(jù)集.每個(gè)小數(shù)據(jù)集中的每條數(shù)據(jù)D放入模型中得到分類(lèi)結(jié)果,并保存其結(jié)果.最后返回預(yù)測(cè)結(jié)果,具體如算法3.

        將數(shù)據(jù)集分成兩部分,一部分用于訓(xùn)練,另一部分用于測(cè)試.而用于訓(xùn)練的數(shù)據(jù)集又分了一小部分用于測(cè)試,以此來(lái)驗(yàn)證模型是不是具有良好的泛化性能,因?yàn)樵谀骋粋€(gè)數(shù)據(jù)集上的優(yōu)秀性能并不代表在另一個(gè)數(shù)據(jù)集上它仍然具有良好的表現(xiàn).所以,通過(guò)比較兩個(gè)數(shù)據(jù)集的測(cè)試結(jié)果可以看出模型的泛化性.如果在訓(xùn)練集上測(cè)試的結(jié)果表現(xiàn)出性能較好,而測(cè)試集上的結(jié)果顯示精度不高,則這個(gè)模型的泛化性能就是不太理想的,模型的參數(shù)是只適用于某一個(gè)數(shù)據(jù)集,導(dǎo)致了嚴(yán)重的過(guò)擬合,那么這不是我們想要的結(jié)果.

        3實(shí)驗(yàn)結(jié)果與分析

        為了驗(yàn)證本文所提出的方法的有效性,進(jìn)行了一系列的實(shí)驗(yàn).首先介紹了實(shí)驗(yàn)設(shè)置、實(shí)驗(yàn)中所采用的數(shù)據(jù)集以及評(píng)價(jià)指標(biāo)的定義.然后,通過(guò)比較本文所提出的方法與兩種基準(zhǔn)方法在5個(gè)評(píng)價(jià)指標(biāo)上的對(duì)比,來(lái)驗(yàn)證本文所提出方法的有效性.

        3.1實(shí)驗(yàn)環(huán)境

        所有的實(shí)驗(yàn)都是在配備2.11 GHz Intel Core i5-10210U CPU和16 GB RAM的機(jī)器上進(jìn)行.使用Python 3.7和Pytorch 1.4.0來(lái)實(shí)現(xiàn)我們提出的異常檢測(cè)和分類(lèi)機(jī)制.本文中使用的數(shù)據(jù)集是CIC- IDS-2017,由加拿大網(wǎng)絡(luò)安全研究所提供.CIC-IDS-2017數(shù)據(jù)集采集自真實(shí)的網(wǎng)絡(luò)環(huán)境,包含了8種常見(jiàn)的攻擊和正常數(shù)據(jù).數(shù)據(jù)集所包含的攻擊類(lèi)型有DoS、PortScan、Heartbleed、WebAttack、Infiltration、Botnet、Patator和DDoS.需要注意的是,Heartbleed和Infiltration的數(shù)量非常少,不到40個(gè),因此我們?cè)趯?shí)驗(yàn)中刪除這些攻擊.表1展示了CIC-IDS-2017數(shù)據(jù)集中的各類(lèi)攻擊的數(shù)量.

        過(guò)采樣和欠采樣的目的是改變數(shù)據(jù)庫(kù)中數(shù)據(jù)不平衡的情況.從表1中可以看到,沒(méi)有數(shù)據(jù)采樣之前,數(shù)據(jù)庫(kù)中各類(lèi)數(shù)據(jù)所占的百分比是嚴(yán)重失衡的,這樣會(huì)導(dǎo)致模型在訓(xùn)練的時(shí)候把數(shù)量較少的類(lèi)別都?xì)w為大類(lèi),如果個(gè)別類(lèi)的數(shù)量少,精度的值仍然很高,但這并不是我們希望的結(jié)果,并且此時(shí)精度這個(gè)指標(biāo)是失效的.所以為了模型可以有更好的性能,采用過(guò)采樣和欠采樣的方法來(lái)處理數(shù)據(jù)集中數(shù)據(jù)不平衡的情況.采樣后的數(shù)據(jù)分布也在表1中給出,此時(shí)分布就比較均衡.

        實(shí)驗(yàn)中涉及的參數(shù)作如下說(shuō)明:輸入的特征數(shù)量為77個(gè),總共分為7個(gè)類(lèi).我們提出的方法所使用的mini-batch的大小為64,學(xué)習(xí)率為10,Q、K、V的維度都為512.優(yōu)化器采用的是Adam優(yōu)化器.經(jīng)典LSTM的mini-batch大小也為64,學(xué)習(xí)率為10.隱藏層大小為512,層數(shù)為3,dropout為0.2.

        3.2評(píng)價(jià)指標(biāo)

        評(píng)價(jià)指標(biāo)采用混淆矩陣[22]來(lái)表示所提出的檢測(cè)和分類(lèi)方法的性能.如表2所示,混淆矩陣包含有關(guān)分類(lèi)器完成的實(shí)際和預(yù)測(cè)分類(lèi)的信息.在混淆矩陣中,TP表示實(shí)際為正,分類(lèi)器預(yù)測(cè)為正的樣本數(shù).FN表示實(shí)際為正,分類(lèi)器預(yù)測(cè)為負(fù)的樣本數(shù).FP表示實(shí)際為負(fù),分類(lèi)器預(yù)測(cè)為正的樣本數(shù).TN表示實(shí)際為負(fù),分類(lèi)器預(yù)測(cè)為負(fù)的樣本數(shù).

        然后根據(jù)混淆矩陣,定義了5個(gè)常用指標(biāo):準(zhǔn)確率(A),精確率(P),召回率(R),F(xiàn)值(F)和誤報(bào)率(F)來(lái)評(píng)估分類(lèi)器的性能.

        A是正確分類(lèi)的樣本數(shù)與所有樣本數(shù)的比率,它的定義為

        R是覆蓋率的度量,用于度量將多少陽(yáng)性樣本正確分為陽(yáng)性樣本.它的定義如下:

        P代表示例中分為陽(yáng)性示例的比例.它的定義如下:

        F是P和R的調(diào)和均值,其值與P和R中的較小值比較接近.它的定義如下:

        F用于驗(yàn)證分類(lèi)器是否錯(cuò)誤地將攻擊分類(lèi)為正常攻擊.可以通過(guò)使用如下公式計(jì)算得出:

        3.3結(jié)果分析

        將本文所述的方法與經(jīng)典的LSTM模型和AMF-LSTM[23]進(jìn)行比較,選擇一個(gè)子數(shù)據(jù)集,將其70%作為訓(xùn)練集,30%作為測(cè)試集,圖4,圖5,圖6分別表示了訓(xùn)練數(shù)據(jù)和測(cè)試數(shù)據(jù)來(lái)自同一數(shù)據(jù)集時(shí)在精確率、召回率、F-1值3項(xiàng)指標(biāo)上的結(jié)果.

        圖4繪制了本文所提出的模型與經(jīng)典LSTM、AMF-LSTM[23]方法在精確率上的表現(xiàn).據(jù)觀察,本文所提出的模型在精確率指標(biāo)上表現(xiàn)較好,可以有效區(qū)分攻擊.例如,在正常類(lèi)Normal中,本文提出方法的精確率最高達(dá)到了99.23%,平均水平在98.64%,比LSTM和AMF-LSTM分別高出1.58%和0.34%.

        圖5展示了召回率的性能.具體來(lái)說(shuō),本文所提出的模型在Normal類(lèi)上的召回率為98.54%.在DoS類(lèi)上,召回率的值分別比LSTM和AMF-LSTM的值高2.45%和1.58%.

        圖6顯示了值的表現(xiàn).從圖6可以看出,在Dos和PortScan上,F(xiàn)的值分別達(dá)到99.32%、99.01%.這比其他兩種方法要高得多.然而,無(wú)論是在圖5還是圖6中,3種方法在WebAttack類(lèi)上的表現(xiàn)都不是很理想.可能的原因是WebAttack的數(shù)量沒(méi)有其他類(lèi)型的多,所以模型沒(méi)有了解到更多的這種攻擊類(lèi)型.

        雖然本文所提出的方法在所有類(lèi)別中的表現(xiàn)并不是最優(yōu)秀的,但在泛化能力方面,本文所提出的方法具有明顯的優(yōu)勢(shì).為了驗(yàn)證泛化能力,本文所提出使用不同的子數(shù)據(jù)集作為測(cè)試數(shù)據(jù)集.表3顯示了不同子數(shù)據(jù)集上精確率、召回率、F值和準(zhǔn)確率的比較.從表3的數(shù)據(jù)可以清楚地看到,本文所提出的模型的性能比LSTM的性能高得多.具體來(lái)說(shuō),在6個(gè)不同的數(shù)據(jù)集上,最高的準(zhǔn)確率達(dá)到了98.73%.同樣,最高的精確率、召回率和F值分別達(dá)到98.97%、98.68%和98.91%.

        除了以上4個(gè)指標(biāo)外,還引入了誤報(bào)率來(lái)考查誤分類(lèi)能力.從這個(gè)指標(biāo)中,可以知道有多少攻擊被誤分類(lèi)為正常流量.圖7顯示了誤報(bào)率在不同子集的值.結(jié)果清楚地表明,本文所提出的方法的誤報(bào)率值比LSTM的誤報(bào)率值小得多,最高的只有0.69%,最低為0.41%.此外,LSTM的值達(dá)到了1.25%,且AMF-LSTM[23]方法的誤報(bào)率為1.18%.結(jié)合表3和圖7的結(jié)果可知,本文所提出的模型具有良好的通用性,而LSTM存在過(guò)擬合問(wèn)題.

        為了更好地觀察模型的分類(lèi)能力,利用混淆矩陣來(lái)觀察各個(gè)類(lèi)別的分類(lèi)情況.結(jié)果如圖8所示.橫坐標(biāo)代表真實(shí)標(biāo)簽,縱坐標(biāo)代表預(yù)測(cè)值.對(duì)角線(xiàn)上的數(shù)值代表正確預(yù)測(cè)的數(shù)量.我們可以看到,除了Botnet和WebAttack類(lèi),分類(lèi)器幾乎可以正確分類(lèi).這是因?yàn)檫@兩個(gè)類(lèi)的樣本數(shù)量較少,過(guò)采樣產(chǎn)生的數(shù)據(jù)樣本對(duì)分類(lèi)有輕微影響.幸運(yùn)的是,本文所提出的方法在其余類(lèi)別中表現(xiàn)良好.總的來(lái)說(shuō),本文所提出的方法具有較高的準(zhǔn)確率、較低的誤報(bào)率和較強(qiáng)的泛化能力.

        4總結(jié)

        本文為了對(duì)網(wǎng)絡(luò)異常流量進(jìn)行檢測(cè)和分類(lèi),提出了一種self-attention的多特征網(wǎng)絡(luò)異常流量檢測(cè)和分類(lèi)方法.該方法不需要人力進(jìn)行特征選擇,可以自動(dòng)提取特征之間的關(guān)系.

        首先,應(yīng)用self-attention技術(shù)來(lái)學(xué)習(xí)各特征之間的特征關(guān)系.在這種方式下,self-attention可以關(guān)注序列中的每一個(gè)特征,它很好地解決了長(zhǎng)期依賴(lài)性的問(wèn)題,對(duì)于一些新的復(fù)雜的動(dòng)態(tài)網(wǎng)絡(luò)攻擊也能取得良好的性能.然后,對(duì)提取的特征關(guān)系進(jìn)行編碼和分析,達(dá)到檢測(cè)和分類(lèi)的目的.實(shí)驗(yàn)結(jié)果表明,與經(jīng)典的LSTM和AMF-LSTM[23]方法相比,本文所提出的方案取得了優(yōu)異的性能.在不同測(cè)試集上的驗(yàn)證結(jié)果表明,本文所提出的方案在準(zhǔn)確率上提高了1.65%,在精確率上提高了1.27%,在召回率上提高了1.33%,在F值上提高了0.98%,誤報(bào)率降低了1.1%.

        [參考文獻(xiàn)]

        [1]CHANDOLA V,BANERJEE A,KUMAR V. Anomaly detection:A survey [J]. ACM Computing Surveys,2009,41(3):15.

        [2]GARG S,SINGH A,BATRA S,et al. EnClass:Ensemble-based classification model for network anomaly detection in massive datasets[C]// 2017 IEEE Global Communications Conference. IEEE,2017. DOI:10.1109/GLOCOM.2017.8255025.

        [3]LIMTHONG KTAWSOOK T. Network traffic anomaly detection using machine learning approaches [C]// Network Operations and Management Symposium. IEEE,2012:542-545.

        [4]PACHECO F,EXPOSITO E,GINESTE M,et al. Towards the deployment of machine learning solutions in network traffic classification:A aystematic survey [J]. IEEE Communications Surveys and Tutorials,2019,21(2):1988-2014.

        [5]SHEEN S,RAJESH R. Network intrusion detection using feature selection and decision tree classifier [C]// 2008 IEEE Region 10 Conference. IEEE,2008. DOI:10.1109/TENCON.2008.4766847.

        [6]KUANG F,XU W,ZHANG S. A novel hybrid KPCA and SVM with GA model for intrusion detection [J]. Applied Soft Computing Archive,2014(18):178-184.

        [7]FARNAAZ N,JABBAR M A. Random forest modeling for network intrusion detection system [J]. Procedia Computer Science,2016(89):213-217.

        [8]WU G,ZHAO Z,F(xiàn)U G,et al. A fast kNN-based approach for time sensitive anomaly detection over data streams [C]// International Conference on Computational Science. 2019:59-74.

        [9]GUMUSBAS D,YILDIRIM T,GENOVESE A,et al. A comprehensive survey of databases and deep learning methods for cybersecurity and intrusion detection systems [J]. IEEE Systems Journal,2021,15(2):1717-1731.

        [10]WANG W,ZHU M,WANG J,et al. End-to-end encrypted traffic classification with one-dimensional convolution neural networks [C]// 2017 IEEE International Conference on Intelligence and Security Informatics. IEEE,2017:43-48.

        [11]NGUYEN T T T,ARMITAGE G. A survey of techniques for internet traffic classification using machine learning [C]// IEEE Communications Surveys and Tutorials. IEEE,2008:56-76.

        [12]YIN C,ZHU Y,F(xiàn)EI J,et al. A deep learning approach for intrusion detection using recurrent neural networks [J]. IEEE Access,2017(5):21954-21961.

        [13]HOCHREITER S. The vanishing gradient problem during learning recurrent neural nets and problem solutions [J]. International Journal of Uncertainty,F(xiàn)uzziness and Knowledge-Based Systems,1998,6(2):107-116.

        [14]ZENG Y,GU H,WEI W,et al. Deep-full-range:A deep learning based network encrypted traffic classification and intrusion detection framework [J]. IEEE Access,2019(7):45182-45190.

        [15]WANG S,XIA C,WANG T. A novel intrusion detector based on deep learning hybrid methods [C]// 2019 IEEE 5th Inti Conference on Big Data Security on Cloud (BigDataSecurity),IEEE Inti Conference on High Performance and Smart Computing,(HPSC)and IEEE Inti Conference on Intelligent Data and Security (IDS). IEEE,2019:300-305.

        [16]KIM T,SUH S C,KIM H,et al. An encoding technique for CNN-based network anomaly detection [C]// 2018 IEEE International Conference on Big Data. IEEE,2018:2960-2965.

        [17]SMAGULOVA K,JAMES A P. A survey on LSTM memristive neural network architectures and applications [J]. The European Physical Journal Special Topics,2019,228(10):2313-2324.

        [18]RUI T,ZOU J,ZHOU Y,et al. Convolutional neural network simplification based on feature maps selection [C]// 2016 IEEE 22nd International Conference on Parallel and Distributed Systems. IEEE,2016:1207-1210.

        [19]SINDAGI V A,PATEL V M. A survey of recent advances in CNN-based single image crowd counting and density estimation [J]. Pattern Recognition Letters,2018,107(1):3-16.

        [20]VASWANI A,SHAZEER N,PARMAR N,et al. Attention is all you need [C]// Proceedings of the 31st International Conference on Neural Information Processing Systems. 2017:5998-6008.

        [21]WU X,CAI Y,LI Q,et al. Combining contextual information by self-attention mechanism in convolutional neural networks for text classification [C]// International Conference on Web Information Systems Engineering. 2018:453-467.

        [22]CAI N,MA C,WANG W,et al. Effective self-attention modeling for aspect based sentiment analysis [C]// International Conference on Computational Science. 2019:3-14.

        [23]ZHU M,YE K,WANG Y,et al. A deep learning approach for network anomaly detection based on AMF-LSTM [C]// IFIP International Conference on Network and Parallel Computing. 2018:137-141.

        (責(zé)任編輯:陳麗貞)

        猜你喜歡
        特征選擇
        二進(jìn)制登山隊(duì)優(yōu)化算法及其在特征選擇中的應(yīng)用
        軟件工程(2024年12期)2024-12-28 00:00:00
        基于實(shí)例學(xué)習(xí)和協(xié)同子集搜索的特征選擇方法
        基于最大信息系數(shù)和近似馬爾科夫毯的特征選擇方法
        Kmeans 應(yīng)用與特征選擇
        電子制作(2017年23期)2017-02-02 07:17:06
        基于GA和ELM的電能質(zhì)量擾動(dòng)識(shí)別特征選擇方法
        聯(lián)合互信息水下目標(biāo)特征選擇算法
        基于特征選擇聚類(lèi)方法的稀疏TSK模糊系統(tǒng)
        非線(xiàn)性電路多軟故障的智能優(yōu)化遞階特征選擇診斷方法
        基于特征選擇和RRVPMCD的滾動(dòng)軸承故障診斷方法
        基于二元搭配詞的微博情感特征選擇
        国产成人av一区二区三| 国产精品乱码在线观看| 亚洲中文字幕无码二区在线| 国产女主播视频一区二区三区| 国产一区二区三区我不卡 | 国产女人精品一区二区三区| 中国少妇×xxxx性裸交| 成人综合网亚洲伊人| 国产精品丝袜美女在线观看| 99热婷婷一区二区三区| 国产猛烈高潮尖叫视频免费| 无遮挡又黄又刺激又爽的视频| 国产乱人伦真实精品视频| 日本成人中文字幕亚洲一区 | 国产一区二区资源在线观看| 成人a级视频在线播放| 精品少妇ay一区二区三区| 人妻系列影片无码专区| 手机在线观看av资源| 蜜臀av999无码精品国产专区| 俺也去色官网| 亚洲一区二区三区在线更新| 末成年人av一区二区| 伊伊人成亚洲综合人网香| 日本高清色惰www在线视频| 男女啪啪啪的高清视频| 色费女人18毛片a级毛片视频| 乱子真实露脸刺激对白| 午夜精品一区二区久久做老熟女| 国产日产在线视频一区| 四虎影视永久在线观看| 亚洲人成人99网站| 男女深夜视频网站入口| 免费视频成人片在线观看| 俺也去色官网| 国产丝袜在线福利观看| 亚洲av乱码一区二区三区林ゆな| 无码一区二区三区老色鬼| 免费在线观看亚洲视频| 国产在线一区二区三区四区| 国产熟妇高潮呻吟喷水|