亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于堆疊稀疏去噪自編碼器的混合入侵檢測方法

        2024-06-03 00:00:00田世林李煥洲唐彰國張健李其臻

        摘要:針對高維數(shù)據(jù)場景下傳統(tǒng)入侵檢測方法特征提取困難、檢測準確率低等問題,提出一種集成多種深度學習模型的混合入侵檢測方法.該方法由特征降維算法和混合檢測模型2部分組成.首先,利用堆疊稀疏去噪自編碼器對原始數(shù)據(jù)進行特征降維,從而剔除可能存在的噪聲干擾和冗余信息.然后,采用一維卷積神經(jīng)網(wǎng)絡和雙向門控循環(huán)單元學習數(shù)據(jù)中的空間維度特征和時序維度特征,將融合后的空時特征通過注意力分配不同的權(quán)重系數(shù),從而使有用的信息得到更好表達,再經(jīng)由全連接層訓練后進行分類.為檢驗方案的可行性,在UNSW-NB15數(shù)據(jù)集上進行驗證.結(jié)果表明,該模型與其他同類型入侵檢測算法相比,擁有更優(yōu)秀的檢測性能,其準確率達到99.57%,誤報率僅為0.68%.

        關(guān)鍵詞:異常檢測;注意力機制;堆疊稀疏去噪自編碼器;一維卷積神經(jīng)網(wǎng)絡;雙向門控循環(huán)單元

        中圖分類號:TP309.5 文獻標志碼:A 文章編號:1001-8395(2024)04-0517-11

        doi:10.3969/j.issn.1001-8395.2024.04.009

        隨著時代的進步,物聯(lián)網(wǎng)的發(fā)展異常迅速,已逐漸開始在現(xiàn)代生活中扮演著不可或缺的重要角色,尤其是在智能家居和工業(yè)等多個領域都得到了快速的發(fā)展.然而,隨著物聯(lián)網(wǎng)的規(guī)模、應用和基礎設施的大規(guī)模增加,也使其面臨著各種嚴重的威脅,如網(wǎng)絡入侵和惡意破壞等.因此,如何有效地防范那些由物聯(lián)網(wǎng)發(fā)展而衍生的一系列安全問題已成為了一個需要重點關(guān)注的熱門課題.

        在針對物聯(lián)網(wǎng)的諸多防護手段中,入侵檢測系統(tǒng)可以協(xié)助管理人員更為有效地檢測攻擊,并提前發(fā)現(xiàn)威脅,這使其入侵檢測系統(tǒng)在物聯(lián)網(wǎng)安全領域起著至關(guān)重要的作用.現(xiàn)有的入侵檢測方法普遍基于傳統(tǒng)的機器學習模型,如樸素貝葉斯、決策樹、K最近鄰及支持向量機等[1],它們皆取得了較好的成績.Farid等[2]提出了一種基于樸素貝葉斯和決策樹的入侵檢測算法,通過消除訓練數(shù)據(jù)中的噪聲與冗余屬性,以提升對不同類型的網(wǎng)絡入侵攻擊的檢測率.Tian等[3]提出了一種將機器學習模型與神經(jīng)網(wǎng)絡聯(lián)合運用的集成方法,使用基于深度自編碼器的無監(jiān)督學習來進行特征維度的收斂,然后結(jié)合人工蜂群算法與支持向量機(SVM)來進行惡意流量的檢測分類,其準確率在UNSWNB15數(shù)據(jù)集中達到了89.62%.此類基于機器學習的方法雖能較好地識別出入侵惡意行為,但嚴重依賴人工特征提?。鎸Ω呔S數(shù)據(jù)時,由于網(wǎng)絡流量大、維度高和結(jié)構(gòu)復雜等特點,傳統(tǒng)的機器學習方法計算復雜度有限,這使得它在處理大數(shù)據(jù)集中復雜的非線性關(guān)系時存在著性能不足等問題.

        近些年來,深度學習隨著計算機算力的不斷提高在各個領域中皆取得了顯著的成效,同樣也被廣泛運用于入侵檢測領域當中.深度學習通過學習樣本數(shù)據(jù)的內(nèi)在規(guī)律和表示層次,構(gòu)建由多個隱藏層組成的網(wǎng)絡結(jié)構(gòu),以適應更高維的學習過程,這使得它相比機器學習而言,能夠更高效地在特征工程處理階段提取到有用的特征信息,從而節(jié)省模型的收斂時間,并彌補其高維數(shù)據(jù)場景下性能局限的不足[4].

        入侵檢測領域常用的深度學習算法主要包括自動編碼器(AE)[5]、卷積神經(jīng)網(wǎng)絡(CNN)[6]、循環(huán)神經(jīng)網(wǎng)絡(RNN)[7]及其在此基礎上改進的諸多經(jīng)典模型(例如長短期記憶模型(LSTM)和門控循環(huán)單元模型(GRU)等).Lin等[8]提出了一種基于雙向長短期記憶模型和稀疏自編碼器相結(jié)合的入侵檢測模型,將堆疊稀疏自編碼器用于特征降維,再采用貪心逐層策略尋找一組最優(yōu)超參數(shù),并將降維后的數(shù)據(jù)傳入LSTM中進行分類,在UNSWNB15數(shù)據(jù)集上展現(xiàn)出了較好的效果,準確率達到98.17%.Sun等[9]采用變分自動編碼器(VAE)的思想來實現(xiàn)特征降維,以提取比手動設置特征更高級的特征.該方法在Mnist數(shù)據(jù)集和UCSD行人數(shù)據(jù)集上顯示出良好的性能.Liu等[10]將入侵行為視為時間序列相關(guān)問題,并提出了一種基于雙向門控循環(huán)單元(BiGRU)和多層注意力機制相結(jié)合的入侵檢測模型.該模型在數(shù)據(jù)集USNWNB15上進行了實驗驗證,準確率達到了98.76%,誤報率僅為1.2%.上述基于深度學習的方案雖然相比機器學習的方法而言在入侵檢測技術(shù)上取得了長足的進步,但仍存在一些問題有待解決,例如基于CNN的檢測方案沒有考慮網(wǎng)絡流量的時序維度相關(guān)特性,而基于RNN改進的諸多檢測方案沒有考慮數(shù)據(jù)的空間維度的相關(guān)特性,這類單模型方案進行檢測時,信息往往考慮不夠周全,原始數(shù)據(jù)信息的挖掘不足往往會間接導致其檢測性能的下降.

        因此,綜合上述研究的不足,針對高維數(shù)據(jù)場景下傳統(tǒng)入侵檢測方法特征提取困難和檢測準確率低等問題,本文基于深度學習相關(guān)理論提出了一種將稀疏去噪自編碼器、一維卷積神經(jīng)網(wǎng)絡、雙向門控循環(huán)單元網(wǎng)絡和注意力機制有效結(jié)合的混合入侵檢測方法,以期在物聯(lián)網(wǎng)異常流量檢測方面取得更好的檢測效果和準確率.

        1 本文方法

        本節(jié)主要介紹提出模型的具體工作流程部分,該模型主要由2個部分組成,如圖1所示.

        第一部分:特征降維算法.將堆疊稀疏去噪自編碼器(stackedsparsedenoisingautoencoder,SSDAE)用于對原始數(shù)據(jù)進行非線性降維,獲取更優(yōu)的特征子集.

        第二部分:混合入侵檢測模型.利用1DCNN和BiGRU構(gòu)建能夠同時學習空間特征和時間特征的混合檢測模型(1DCG),并將融合的空時特征經(jīng)由注意力機制處理后輸入全連接層中訓練,最后使用Sigmoid激活函數(shù)對惡意流量進行識別與分類.

        1.1 特征降維算法

        1.1.1 稀疏自編碼器

        由于基礎自編碼器在特征提取的過程中并不能簡單明了地提取出原始信息的內(nèi)部特征,于是Olshausen等[11]提出了稀疏自編碼器的概念,通過利用稀疏性給隱藏單元添加限制的特性,使改進的自編碼器在稀疏約束的條件下能夠在極大減少計算量的同時獲取到低維且深層次的數(shù)據(jù)特征,從而使優(yōu)化后的特征子集能夠更好地表達輸入數(shù)據(jù)[12].對于一組未標記的訓練實例{Xi|Xi∈R,i=1,2,…,m},如果用nj表示隱藏神經(jīng)元j的激活狀態(tài),則可用nj(xi)來表示Xi時隱藏層神經(jīng)元j的激活狀態(tài),那么隱藏層神經(jīng)元j的平均稀疏激活值ρj ︿ [13]為

        稀疏自編碼器(sparseautoencoder,SAE)為實現(xiàn)稀疏表達,編碼器通過對隱層神經(jīng)元輸出的平均激活值ρj ︿進行約束,使用了比MSE更準確的Kull-back-Leibler(KL)散度用作其懲罰項添加到損失函數(shù)中,SAE的損失函數(shù)為

        此時,SAE的誤差函數(shù)由均方誤差項及正則化項共同組成,即

        其中,m是隱藏單元的數(shù)量,u是控制稀疏項強度的權(quán)重因子.

        1.1.2 稀疏去噪自編碼器

        Vincent等[14]于2008年提出了去噪自編碼器(denoisingsparseautoencoder,DAE)的概念,DAE與傳統(tǒng)自編碼器最大的區(qū)別在于通過對輸入數(shù)據(jù)進行額外的加噪處理,使得DAE提取到的特征信息能夠具備更強的魯棒性,從而降低訓練過程中過擬合的風險以及提升模型的泛化能力.

        DAE算法流程如圖2所示,原始數(shù)據(jù)x通過加噪處理后得到有噪聲干擾的輸入,然后使用編碼函數(shù)f提取干擾輸入珓x的特征表達y,再利用解碼函數(shù)g將特征表達y映射為輸出z,最后重構(gòu)誤差由損失函數(shù)來表示.

        DAE的損失函數(shù)[15]為

        本文在DAE的基礎上引入了SAE特有的稀疏約束系數(shù),從而使改進后的稀疏去噪自編碼器(sparsedenoisingautoencoder,SDAE)在獲取到更優(yōu)泛化能力與魯棒性的同時,能夠利用其稀疏性提升其數(shù)據(jù)特征提取的能力.SDAE的損失函數(shù)為(5)式所示.

        1.1.3 基于堆疊稀疏去噪自編碼器的特征降維算法

        堆疊稀疏去噪自編碼器(stackedsparsedenoisingautoencoder,SSDAE)是由多個SDAE組合而成的神經(jīng)網(wǎng)絡.SSDAE的數(shù)據(jù)傳輸方式是上一層的隱藏層輸出作為下一層的輸入.SDAE的最終輸出是輸入層數(shù)據(jù)經(jīng)由多個隱藏層逐層訓練并進行信息壓縮之后得到的最優(yōu)特征子集,SSDAE的結(jié)構(gòu)如圖3所示.

        訓練一個效果良好的SSDAE主要包括2個部分,分別是預訓練模型部分和參數(shù)微調(diào)部分.

        1)預訓練模型部分.SSDAE模型預訓練階段的工作流程如圖4所示.該階段采用逐層貪婪算法[16]對每個SDAE層進行訓練.若模型中有多個SDAE,則按照每個SDAE中的隱藏層神經(jīng)元數(shù)目的多少進行降序排列,并按照由大到小的順序進行遞進式的逐層訓練.例如,當?shù)谝粋€SDAE訓練完成后,就會將當前SDAE隱藏層輸出的特征映射信息作為下一個未訓練的SDAE的輸入并開始訓練新的SDAE,以此邏輯類推,當n個SDAE依次訓練完成之后,將會得到整個SSDAE網(wǎng)絡經(jīng)過訓練更新迭代后的權(quán)重矩陣系數(shù)W、偏置項系數(shù)b以及降至理想閾值范圍內(nèi)的誤差損失函數(shù)值.當預訓練完成之后,SSDAE將輸出一個壓縮至低維的特征優(yōu)化子集.該階段的具體步驟如下.

        步驟1 將經(jīng)由數(shù)據(jù)預處理后的輸入信號送入SSDAE模型中進行降維處理,并將權(quán)重矩陣W和偏置項b進行初始化處理.

        步驟2 設置每層SDAE的初始化參數(shù)(例如,epoch、稀疏懲罰項ρ和學習率Adam等).

        步驟3 假設輸入樣本集為X=(x1,x2,x3,…,xn),通過對輸入樣本集X進行編碼運算,從而獲取到隱藏層的特征收斂信息,及隱藏層特征壓縮后的輸入表示向量K=(k1,k2,k3,…,kn).該步驟的計算過程為:

        其中,l表示SSDAE模型中隱藏層的當前層數(shù),j表示隱藏層設置的神經(jīng)元個數(shù),i表示SSDAE模型中當前訓練層數(shù)的上一層隱藏層神經(jīng)元個數(shù),W與b分別表示為每層隱藏層中的特征權(quán)重系數(shù)與偏置項系數(shù),f表示激活函數(shù).

        步驟4 采用無監(jiān)督學習的方式訓練每層SDAE,并利用前向傳播計算出平均激活函數(shù)ρ︿ 和重構(gòu)誤差的損失函數(shù)JSDAE,其具體的計算方式如(5)式所示.

        步驟5 在每個epoch中采用Adam優(yōu)化器與BP優(yōu)化算法[17]對SSDAE隱藏層各層中的特征權(quán)重系數(shù)W與偏置項b進行不斷地更新與迭代,直到輸出樣本的隱藏表征信息與輸出之間的重構(gòu)誤差收斂至最小,便可以獲得預訓練階段最終的{W,b}.特征權(quán)重系數(shù)W與偏置項b的損失誤差函數(shù)偏導運算過程為:

        其中,X(C)表示第C個輸出向量,Y(C)為第C個輸入向量對應的重構(gòu)誤差向量.W與b的更新迭代過程為:

        步驟6 將上一層的SDAE隱藏層訓練結(jié)果作為下一層級SDAE的輸入,并采用層疊式的貪婪學習算法不斷重復上述步驟,直到所有SDAE訓練完成.隨著W與b不斷迭代調(diào)優(yōu),輸入輸出之間的重構(gòu)誤差函數(shù)變得越來越小,從而使得SSDAE模型得到優(yōu)化.

        步驟7 輸入向量經(jīng)由SSDAE模型層層過濾后,輸出為壓縮至低維空間的特征優(yōu)化子集.

        2)參數(shù)微調(diào)部分.對SSDAE模型進行預訓練處理之后雖得到了低維的特征表示向量,但此時仍無法準確獲取到原始數(shù)據(jù)與輸出樣本標簽之間的非線性映射,這是因為預訓練后更新的W與b僅為各個單層SDAE的局部最優(yōu)參數(shù),并不能作為整個SSDAE網(wǎng)絡模型的最優(yōu)解使用,否則容易陷入局部最優(yōu)的窘境.因此,需要在SSDAE模型的末端級聯(lián)分類器對整個深度模型進行局部參數(shù)微調(diào),并采用BP優(yōu)化算法訓練分類器模型的損失函數(shù)尋求最優(yōu)效果的SSDAE超參數(shù).經(jīng)過上述2個步驟后,最終輸出的結(jié)果則為最優(yōu)的SSDAE模型.微調(diào)階段的步驟如下.

        步驟1 通過連接每個SDAE訓練的隱藏層構(gòu)建整個SSDAE,并將權(quán)重矩陣W和偏置項b設置為預訓練階段獲得的值.

        步驟2 同預訓練階段一樣,設置初始化超參數(shù)配置.

        步驟3 將分類器添加至SSDAE網(wǎng)絡的最末端,并采用有監(jiān)督學習的策略來進行標簽分類.

        步驟4 采用上一階段中所提及到的BP優(yōu)化算法基于反向傳播的策略對SSDAE網(wǎng)絡進行模型結(jié)構(gòu)的優(yōu)化與局部參數(shù)的微調(diào),當輸入輸出之間的重構(gòu)誤差達到理想閾值時,即可確定最終的SSDAE網(wǎng)絡結(jié)構(gòu)與參數(shù)配置.在整個參數(shù)微調(diào)的過程中,模型能夠通過參數(shù)共享的特性有效地避免陷入局部最優(yōu)的窘境.SSDAE模型能夠根據(jù)實際需求適宜地擴大其參數(shù)空間,特別是在輸入受限時,可以有效改善模型性能.

        SSDAE特征降維算法的具體實現(xiàn)流程如表1所示.

        1.2 1DCG入侵檢測模型

        1.2.1 卷積神經(jīng)網(wǎng)絡(CNN)

        CNN是一種具有深度結(jié)構(gòu)且包含大量卷積計算的前饋神經(jīng)網(wǎng)絡,由于它在各領域中突出的表現(xiàn),已成為了深度學習中比較經(jīng)典且常用的代表算法之一[18].它能夠通過權(quán)值共享的方法提升模型的收斂效率,并能有效地減少模型中需要訓練的參數(shù).一個完整的卷積神經(jīng)網(wǎng)絡通常由輸入層、卷積層、池化層、全連接層和輸出層組成[19].

        1.2.2 雙向門控循環(huán)單元(BiGRU)

        GRU是循環(huán)神經(jīng)網(wǎng)絡(RNN)的改良變種,在處理時間序列任務時有著出色的表現(xiàn).而BiGRU神經(jīng)網(wǎng)絡則是由2個GRU神經(jīng)網(wǎng)絡疊加組成,原理是從正反2個方向利用GRU對數(shù)據(jù)進行建模,然后再將處理信息拼接在一起,其優(yōu)點在于可以避免GRU因模型結(jié)構(gòu)導致的梯度消失和爆炸等問題[20].

        1.2.3 注意力機

        注意力機制的產(chǎn)生受到人類行為的啟發(fā).在某種程度上,當人類主要關(guān)注圖像的特定局部區(qū)域或一個句子中的特殊單詞時,人類的注意力就產(chǎn)生了作用[21].注意機制有助于充分利用有限的資源,它不是一種具體的方法,而是一種包含尋址和計算2個重要組成部分的思維方式.注意力層包含一個特征向量,其中向量中的每個值都包含對應特征的權(quán)重信息,通過加權(quán)求和,然后根據(jù)各個特征的權(quán)重指數(shù)將重要特征篩選出來,具體定義如下:

        其中,x′是表示融合空時特征的特征表示向量,a代表注意力的查詢向量,Wa與ba分別表示特征系數(shù)的權(quán)重和偏置項,ai是通過激活函數(shù)Softmax計算求得的M概率分布.最后,以ai的值作為參考與權(quán)重指標,與x′進行運算并求得一個更能夠體現(xiàn)各個特征重要程度的輸出向量ω.注意力機制能夠幫助模型進一步剔除掉不必要的冗余特征.因此,一定程度上提升了檢測模型的性能.

        1.2.4 1DCG混合檢測模型

        完成數(shù)據(jù)降維后,需要對惡意攻擊流量進行正常流量和入侵攻擊流量的區(qū)分.本文采用一種集合空時特征和注意力機制的混合入侵檢測模型1DCG,通過使用1DCNN學習輸入信號中空間維度的相關(guān)特征,以及通過BiGRU學習到時間維度的相關(guān)特征,然后采用注意力機制Attention對學習到的空時特征信息進行進一步的融合以及重要性加權(quán)計算,最后利用激活函數(shù)Sigmoid進行檢測分類.模型的具體流程如圖5所示,其訓練步驟如下.

        步驟1 利用1DCNN從每個數(shù)據(jù)中學習到空間層面的特征.從圖5可以看出,在第一階段空間特征學習的過程中使用到了一維CNN層、BN層、池化層以及平鋪層.

        步驟2 利用BiGRU學習多個特征向量之間關(guān)于時間層面特征的序列特性.選擇這種排序方式的原因在于其模型能夠更好地模仿粗粒度到細粒度學習的使用,且雙向GRU的設計能夠使其內(nèi)核在每次迭代的過程中大小翻倍,以更好地理解第一個1DCNN層學習到的空間維度相關(guān)特征信息,從而為模型提供更關(guān)鍵和詳細的特征和更短的訓練時間.

        步驟3 通過注意力機制進行特征提取,選擇重要的信息.

        步驟4 將計算加權(quán)后的特征信息結(jié)果輸入全連接層中進行訓練.

        步驟5 利用激活函數(shù)Sigmoid進行檢測分類.

        本文模型1DCG入侵檢測部分的具體實現(xiàn)流程如表2和圖5所示.

        2 實驗結(jié)果與分析

        為評估提出的異常流量檢測分類方法的有效性,下面進行實驗驗證,其內(nèi)容主要包括實驗環(huán)境介紹、數(shù)據(jù)集描述、評價指標和實驗結(jié)果對比等4個部分.

        2.1 實驗環(huán)境介紹

        硬件環(huán)境:操作系統(tǒng)采用Windows10,CPU為AMD-R7-4800H,內(nèi)存大小為16G,GPU為GTX-1650.

        軟件環(huán)境:Python3.7、kears學習框架和Scikit-learn庫.

        2.2 數(shù)據(jù)集

        為了評估提出的異常流量檢測方法,本文采用UNSW-NB15[22]進行檢驗.UNSW_NB15是澳大利亞網(wǎng)絡安全中心(ACCS)的研發(fā)團隊為解決KDD-Cup99和NSL-KDD數(shù)據(jù)集中的數(shù)據(jù)冗余問題于2015年創(chuàng)建的入侵檢測公共數(shù)據(jù)集[23],相比前者而言,它更貼近真實網(wǎng)絡環(huán)境中的惡意流量數(shù)據(jù),因此更適合研究人員進行入侵檢測相關(guān)的研究.UNSW-NB15在訓練和測試數(shù)據(jù)集中均包含有網(wǎng)絡中常見的各類攻擊.如表3所示,訓練數(shù)據(jù)集中的流量數(shù)據(jù)條數(shù)為175343條,測試數(shù)據(jù)集中有82332條流量數(shù)據(jù).UNSW-NB15數(shù)據(jù)集中包含有正常流量和9種類別的攻擊流量,它們分別是Backdoor、Analysis、Fuzzers、Shellcode、Reconnaissance、Exploits、Dos、Worms和Generic.

        2.3 評估指標

        本文通過計算混淆矩陣的真正例(truepositive,TP)、假正例(falsepositive,FP)、真反例(truenegative,TN)、假反例(falsenegative)獲取準確率(accuarcy)、精確率(precision)、召回率(recall)和誤報率(falsealarm,Far)等4個性能指標,并以此來評估分類器的效果優(yōu)劣[24].其中,準確率代表被正確分類的樣本占樣本總數(shù)的比例,即

        2.4 模型參數(shù)設置

        在用于特征降維的SSDAE網(wǎng)絡中,設置了一個隱藏層結(jié)構(gòu)為3層的堆疊稀疏去噪自編碼器,并將3個隱藏層的神經(jīng)元系數(shù)分別配置為110、64、32,學習率設置為0.01,優(yōu)化器為Adam.稀疏懲罰系數(shù)設置為0.06,并對輸入數(shù)據(jù)進行隨機噪聲干擾處理.

        在1DCNN網(wǎng)絡中,設置有2層卷積層,神經(jīng)元個數(shù)分別設置為16和32.卷積核大小皆設置為1,激活函數(shù)采用ReLU函數(shù).在模型中添加了一個BN層,用于避免梯度爆炸與過擬合現(xiàn)象的發(fā)生.池化層大小設置為3,同樣用于避免訓練過程中出現(xiàn)過擬合現(xiàn)象.

        在BiGRU網(wǎng)絡中,使用了2層的BiGRU,輸出的內(nèi)核大小分別設置為24和12.激活函數(shù)采用Tanh,Dropout設為0.1.

        最后,將空間維度特征與時序維度特征送入注意力機制中,對每個特征的重要度進行權(quán)重計算與進一步融合,再將提取到的特征信息輸入全連接層中進行訓練.全連接層的大小設置為6.模型訓練過程采用交叉熵作為損失函數(shù),學習率設為0.001,使用的優(yōu)化器為Adam.

        2.5 實驗結(jié)果分析

        本節(jié)將對模型性能進行評估,從而驗證方案的可行性.

        2.5.1 特征降維算法對模型性能的影響

        為驗證提出的降維模型的有效性,在本部分實驗中,特征降維方法分別采用不進行特征降維處理、基于堆疊自編碼器(stackedautoencoder,SAE)的特征降維處理、基于堆疊稀疏編碼器(stackedsparseautoencoder,SSAE)的特征降維處理以及本文提出的堆疊稀疏去噪自編碼器(SSDAE)的特征降維處理等4種方案進行對比實驗,再將其降維后的數(shù)據(jù)輸入到1DCG模型中進行比較,實驗結(jié)果如表4所示.

        從表4中可以看出,使用SAE降維后的1DCG在各個指標上均優(yōu)于僅使用1DCG模型進行檢測的情況,準確率達到了98.38%,提升了0.22%.這表明原始數(shù)據(jù)通過SAE提取到的低維信息在刪除冗余特征之后檢測率得到了一定提升,并沒有對后續(xù)檢測結(jié)果帶來負面影響,這證明基于堆疊自編碼的特征降維策略是有效的.在改進的堆疊自編碼降維模型中,SSAE+1DCG準確率達到了99.43%,準確率提升了1.05%,這說明引入稀疏懲罰項之后的SSAE在進行特征降維的過程中能夠更為完整地保留原始數(shù)據(jù)中包含的深層次信息.引入噪聲干擾的SSDAE模型相比SSAE而言,雖然準確率提升甚微,但誤報率卻下降了一半左右,這說明提取的信息具有更強的魯棒性與泛化能力,從而使模型能呈現(xiàn)出更優(yōu)異的檢測性能.

        2.5.2 注意力機制對模型性能的影響

        為評估注意力機制對模型性能的影響,本文使用SSDAE對數(shù)據(jù)做特征降維處理之后,引入帶注意力機制的1DCG和無注意機制的1DCG模型中進行對比實驗,其結(jié)果如表5所示.

        從表5中可以看出,引入注意力層的模型相較于沒引入注意力層的模型而言,其各項指標均有顯著提升.由此可證,注意力機制對提升模型的整體性能是有著正向積極作用的.

        2.5.3 本文方法與常用深度學習模型比較

        為驗證檢測模型整體性能的優(yōu)越性,將入侵檢測領域中常用的深度學習模型1DCNN、BiLSTM、BiGRU和1DCNN_BiLSTM經(jīng)特征降維和添加注意力之后應用于UNSWNB15數(shù)據(jù)集上與本文方法進行對比.各模型的準確率和損失率隨迭代次數(shù)變化的情況如圖6和圖7所示.

        從圖6中可以看出,本文方法在訓練達到第50輪時,逐漸優(yōu)于其他方案.

        從圖7中可以看出,幾個方案的損失收斂過程都比較平緩,其中本文提出方法在訓練達到第50輪時,收斂效果逐漸好于其他方案.

        表6所示為各個方案的性能指標對比,從結(jié)果中可以看出,融合了空時特征的混合模型在性能上總體優(yōu)于單個檢測模型.其中,1DCNN級聯(lián)GRU的效果又略好于LSTM,高出了0.33%.故再次證明,本文提出方法是有價值的.

        2.5.4 本文方案與其他同類型的入侵檢測方案進行比較

        將本文方案與同樣采用UNSWNB15數(shù)據(jù)集的相關(guān)文獻模型進行了性能對比.文獻[8]提出了一種基于堆疊稀疏自編碼器和BiLSTM的入侵檢測模型,文獻[25]提出了一種基于堆疊自編碼和引入注意力機制的BiGRU相結(jié)合的混合入侵檢測模型,文獻[26]提出了一種將堆疊稀疏自編碼器和BiSRU的入侵檢測模型.

        由表7中可以看出,本文各項指標均優(yōu)于上述文獻模型.其主要原因主要包含2個方面.首先,本文提出的特征降維方案中為每個自編碼器添加了稀疏約束系數(shù)和隨機噪聲擾動,使得SAE不僅可以從特征集中提取出特征間的復雜關(guān)系還可以提升訓練集對噪聲信號的魯棒性.因此,能夠在數(shù)據(jù)壓縮的同時更完整地保留原始數(shù)據(jù)中的信息.其次,上述文獻中的方法均采用了基于循環(huán)神經(jīng)網(wǎng)絡的變種模型,例如LSTM和GRU等.這些方案雖能很好地識別入侵檢測行為,但僅能學習時序相關(guān)特征,而本文方案引入1DCNN填補了模型在空間維度相關(guān)特征提取方面的不足,并在融合空時特征之后使用注意力機制再次強化特征提取的效果,故而呈現(xiàn)出較好的檢測性能.

        3 結(jié)束語

        首先通過堆疊稀疏去噪自編碼器進行特征降維,以獲取更準確且魯棒性更強的特征子集;然后,利用1DCNN和BiGRU網(wǎng)絡依次提取輸入數(shù)據(jù)的空時特征,并使用注意力機制對輸入的空時融合特征進行重要性加權(quán)計算;最后,經(jīng)由模型訓練后通過Sigmoid函數(shù)輸出分類結(jié)果.

        通過實驗證明,本文方案可以在降低數(shù)據(jù)復雜度的基礎上,提高入侵檢測模型的檢測性能,并且在與其他同類型入侵檢測模型對比中展現(xiàn)出較為優(yōu)秀的檢測效果,其準確率達到了99.57%,誤報率僅為0.68%.

        由于UNSWNB15訓練集中的樣本分布情況并不合理,例如正常樣本的數(shù)量遠多于異常攻擊流量的樣本數(shù)量,而本文由于僅進行了二分類的相關(guān)研究,并沒有對該數(shù)據(jù)集進行不平衡處理.因此,在未來的工作中,將考慮使用欠采樣和過采樣等技術(shù)刪減樣本數(shù)多的樣本或擴充樣本少的樣本,并進行多分類相關(guān)的研究探索,以此來謀求更好的檢測結(jié)果.

        致謝 四川師范大學研究生教育改革研究項目(2022YJSJG002)對本文給予了資助,謹致謝意.

        參考文獻

        [1]王天時.基于特征嵌入表示的文本分類方法研究[D].濟南:山東師范大學,2020.

        [2]FARIDDM,NOURIAH,RAHMANMZ.Combiningnaivebayesanddecisiontreeforadaptiveintrusiondetection[J].Interna-tionalJournalofNetworkSecurity&itsApplications,2010,2(2):12-25.

        [3]TIANQ,LIJM,LIUHB.Amethodforguaranteeingwirelesscommunicationbasedonacombinationofdeepandshallowlearn-ing[J].IEEEAccess,2019,7:38688-38695..

        [4]蹇詩婕,盧志剛,杜丹,等.網(wǎng)絡入侵檢測技術(shù)綜述[J].信息安全學報,2020,5(4):96-122.

        [5]ATZORIL,IERAA,MORABITOG.Theinternetofthings:asurvey[J].ComputerNetworks,2010,54(15):2787-2805.

        [6]XIAOYH,XINGC,ZHANGTN,etal.AnIntrusiondetectionmodelbasedonfeaturereductionandconvolutionalneuralnet-works[J].IEEEAccess,2019,7:42210-42219.

        [7]YANBH,HANGD.LAGRU:buildingcombinedintrusiondetectionmodelbasedonimbalancedlearningandgatedrecurrent unitneuralnetwork[J].SecurityandCommunicationNetworks,2018,2018:1-13.

        [8]LINY,WANGJ,TUY,etal.Timerelatednetworkintrusiondetectionmodel:adeeplearningmethod[C]//2019IEEEGlobal CommunicationsConference(GLOBECOM).Waikoloa:IEEE,2020:1-6.

        [9] SUN JY,WANG X Z,XIONG N X,etal.Learningsparserepresentationwithvariationalauto-encoderforanomaly detection[J].IEEEAccess,2018,6:33353-33361.

        [10]LIUC,LIUY,YANY,etal.Anintrusiondetectionmodelwithhierarchicalattentionmechanism[J].IEEEAccess,2020,8:67542-67554.

        [11]OLSHAUSENBA,FIELDDJ.Emergenceofsimplecellreceptivefieldpropertiesbylearningasparsecodefornatural images[J].Nature,1996,381(6583):607-609.

        [12]XUJ,XIANGL,LIUQS,etal.Stackedsparseautoencoder(SSAE)fornucleidetectiononbreastcancerhistopathologyima-ges[J].IEEETransactionsonMedicalImaging,2016,35(1):119-130.

        [13]汪靜怡.基于深度學習的網(wǎng)絡流量異常檢測方法研究[D].北京:北京交通大學,2021.

        [14] VINCENT P, LAROCHELLE H, BENGIO Y, etal. Extracting and composing robustfeatures with denoising autoencoders[C]//Proceedingsofthe25thinternationalconferenceonMachinelearning.NewYork:ACM,2008:1096-1103.

        [15]張智恒.基于改進堆疊稀疏降噪自編碼器的軸承故障診斷方法研究[D].武漢:武漢科技大學,2020.

        [16]BENGIOY,LAMBLINP,POPOVICID,etal.Greedylayerwisetrainingofdeepnetworks[J].AdvancesinNeuralInforma-tionProcessingSystems,2006,19:153-160.

        [17]ZHANGDH,LOUS.TheapplicationresearchofneuralnetworkandBPalgorithminstockpricepatternclassificationandpre-diction[J].FutureGenerationComputerSystems,2021,115:872-879.

        [18]付文博.基于深度學習的活體檢測網(wǎng)絡研究與實現(xiàn)[D].開封:河南大學,2020.

        [19]GUOS,YANGT,GAOW,etal.Anovelfaultdiagnosismethodforrotatingmachinerybasedonaconvolutionalneural network[J].Sensors(Basel,Switzerland),2018,18(5):1429.

        [20]向玲,朱浩偉,丁顯,等.基于CAE與BiLSTM結(jié)合的風電機組齒輪箱故障預警方法研究[J].動力工程學報,2022,42(6):514-521.

        [21]ALLAMS.Churnpredictionusingattentionbasedautoencodernetwork[J].InternationalJournalofAdvancedTrendsinCom-puterScienceandEngineering,2019,8(3):725-730.

        [22]MOUSTAFAN,SLAYJ.UNSWNB15:acomprehensivedatasetfornetworkintrusiondetectionsystems(UNSW-NB15network dataset)[C]//2015MilitaryCommunicationsandInformationSystemsConference(MilCIS).Canberra:IEEE,2015:1-6.

        [23]KUNHAREN,TIWARIR.StudyoftheattributesusingfourclasslabelsonKDD99andNSL-KDDdatasetswithmachinelearn-ingtechniques[C]//20188thInternationalConferenceonCommunicationSystemsandNetworkTechnologies(CSNT).Bhopal:IEEE,2019:127-131.

        [24]白惠文,馬雪婧,劉偉偉,等.基于深度學習的匿名協(xié)議流量識別技術(shù)研究[J].計算機仿真,2021,38(7):360-365.

        [25]LUGY,TIANXX.AnefficientcommunicationintrusiondetectionschemeinAMIcombiningfeaturedimensionalityreduction andimprovedLSTM[J].SecurityandCommunicationNetworks,2021,2021:1-21.

        [26]DINGPP,LIJG,WEN M,etal.EfficientBiSRU combinedwithfeaturedimensionalityreductionforabnormaltraffic detection[J].IEEEAccess,2020,8:164414-164427.

        (編輯 鄭月蓉)

        基金項目:國家自然科學基金(U1836103)和四川省高校重點實驗室重點項目(WSN2022001)

        国产精品欧美成人片| 少妇被爽到高潮喷水久久欧美精品 | 亚洲精品一区二区网站| 亚洲av综合一区二区在线观看| 成人免费一区二区三区| 国产乱淫视频| 久久色悠悠亚洲综合网| 亚洲av成熟国产一区二区| 久久久久久久97| 欧美日韩亚洲精品瑜伽裤 | 精品偷自拍另类在线观看| 国产熟女露脸大叫高潮| 国产原创精品视频| av天堂手机一区在线| 青青草精品视频在线播放| 国产国拍亚洲精品mv在线观看| 午夜短视频日韩免费| 亚洲综合网中文字幕在线| 精品国产一区二区三区三级| 久久99精品国产麻豆宅宅| 国产欧美精品一区二区三区,| 一本色道亚州综合久久精品| 午夜秒播久久精品麻豆| 国产av无码专区亚洲av极速版| 91精品国产色综合久久不卡蜜| 少妇一区二区三区精选| 精品香蕉一区二区三区| 在线观看国产成人av片| yy111111少妇影院| 国产免费人成视频在线| 人与禽性视频77777| 亚洲成年网站在线777| 蜜桃av一区二区三区| 性欧美丰满熟妇xxxx性久久久| 乱人伦视频中文字幕| 激情亚洲的在线观看| 国产在线一区二区三区香蕉| 国产做国产爱免费视频| 亚洲熟妇20| 久久天堂精品一区专区av| 美女视频黄是免费|