亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于改進的CNN-Transformer加密流量分類方法

        2024-06-16 00:00:00高新成張宣樊本航劉威張海洋

        摘要: 針對傳統(tǒng)加密流量分類模型對特征提取不足導(dǎo)致分類準(zhǔn)確率較低等問題, 使用深度學(xué)習(xí)技術(shù), 提出一種基于改進的卷積神經(jīng)網(wǎng)絡(luò)結(jié)合Transformer的加密流量分類模型.

        為提高分類精度, 首先將數(shù)據(jù)集切割填充并完成標(biāo)準(zhǔn)化處理; 然后采用Transformer網(wǎng)絡(luò)模型中的多頭注意力機制捕獲長距離的特征依賴, 利用卷積神經(jīng)網(wǎng)絡(luò)提取局部特征; 最后加

        入Inception模塊實現(xiàn)多維特征提取和特征融合, 完成模型訓(xùn)練和加密流量分類. 在公共數(shù)據(jù)集ISCX VPN-n

        on-VPN 2016上進行實驗驗證, 實驗結(jié)果表明, 該模型的分類準(zhǔn)確率達98.5%, 精確率、 召回率和F1值均達98.2%以上, 相比其他模型分類效果更優(yōu).

        關(guān)鍵詞: 加密流量分類; 卷積神經(jīng)網(wǎng)絡(luò); 多頭注意力機制; 特征融合

        中圖分類號: TP393.08" 文獻標(biāo)志碼: A" 文章編號: 1671-5489(2024)03-0683-08

        Improved CNN-Transformer Based EncryptedTraffic Classification Method

        GAO Xincheng1, ZHANG Xuan2, FAN Benhang2, LIU Wei2, ZHANG Haiyang2

        (1. Modern Education Technology Center, Northeast Petroleum University, Daqing 163318, Heilongjiang Province, China;

        2. School of Computer and Information Technology, Northeast Petroleum University,Daqing 163318, Heilongjiang Province, China)

        收稿日期: 2023-06-12.

        第一作者簡介: 高新成(1979—), 男, 漢族, 博士, 教授, 從事網(wǎng)絡(luò)安全、 網(wǎng)絡(luò)管理和大數(shù)據(jù)應(yīng)用的研究, E-mail: gxc@nepu.edu.cn.

        通信作者簡介: 張" 宣(1997—), 男, 漢族, 碩士研究生, 從事網(wǎng)絡(luò)安全和流量分類管理的研究, E-mail: dyzx@stu.nepu.edu.cn.

        基金項目: 國家自然科學(xué)基金(批準(zhǔn)號: 61702093)、 中國高校產(chǎn)學(xué)研創(chuàng)新基金(批準(zhǔn)

        號: 2021ITA02011)和黑龍江省教育科學(xué)規(guī)劃重點項目(批準(zhǔn)號: GJB1423357).

        Abstract: Aiming at the problem of insufficient feature extraction resulting in low classification accuracy of the traditional encrypted traffic classification model,

        we" proposd an encrypted traffic classification model based on an improved convolutional neural network combined with Transformer by using deep learning techniques.

        In order to improve the classification accuracy, firstly, we cut and filled the dataset," and completed standardization processing. Secondly, the multi-head attention mechanism in the

        Transformer network model was used to capture long-distance feature dependencies, and the convolutional neural network was used to extract local features. Finally, the Inception module was

        added to achieve multi-dimensional feature extraction and feature fusion, and the model training and encrypted traffic classification were completed. The experimental verification was conducted on the

        ISCX VPN-non-VPN 2016 public dataset, the experimental results show that the classification accuracy of the proposed" model reaches 98.5%, with the precision rate, recall rate and

        F1 value" all exceeding" 98.2%, which show better classification effect compared with other models.

        Keywords: encrypted traffic classification; convolutional neural network; multi-head attention mechanism; feature fusion

        隨著加密技術(shù)在網(wǎng)絡(luò)傳輸過程中的廣泛應(yīng)用[1], 網(wǎng)絡(luò)加密流量所占比例越來越大. 而流量加密技術(shù)在保障了用戶隱私安全的同時, 也給惡意流量軟件躲避網(wǎng)絡(luò)安全檢測帶

        來了便利[2]. 因此, 提升加密網(wǎng)絡(luò)流量的分類精度, 有效分離出惡意流量[3-4]已成為流量分類領(lǐng)域中的研究熱點. 基于機器學(xué)習(xí)的方法具有便于理解、 計算速度快、

        精確率高等優(yōu)點[5], 但需要人工提取特征, 受主觀因素的影響. 基于深度學(xué)習(xí)[6-7]的方法能自動提取特征, 已逐步用于加密流量識別領(lǐng)域

        [8], 但深度學(xué)習(xí)方法所用的分類模型存在結(jié)構(gòu)復(fù)雜、 網(wǎng)絡(luò)層數(shù)深、 計算開銷成本高等問題[9].

        針對上述問題, 本文以卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural network, CNN)作為基礎(chǔ)模型進行改進, 提出一種加密網(wǎng)絡(luò)流量的分類方法. 首先, 針對CNN模型無法處理超長序列信息、 捕獲全局特征能力弱的問題,

        引入Transformer[10]編碼多頭注意力機制, 將Transformer模型和CNN模型有效融合, 將Transformer模型所提取的長距離特征輸入到改進的CNN模型中, 更全面地獲取全局?jǐn)?shù)據(jù)特征信息, 提

        高其序列建模的能力. 其次, 針對CNN模型特征學(xué)習(xí)能力不足的問題, 加入Inception機制, 以不同卷積層并聯(lián)的方式進行合并, 實現(xiàn)多尺度特征提取. 通過Inception模塊的多個并行分支可捕捉不同級別

        的特征, 在Inception模塊中使用1×1的卷積核減少通道數(shù), 有助于緩解梯度消失的問題. 同時, 使用全局平均池化層和卷積層代替計算量過大的全連接層, 可減少網(wǎng)絡(luò)參數(shù),

        加快計算速度, 避免出現(xiàn)過擬合問題, 從而提高模型的泛化能力.

        1" 相關(guān)工作

        隨著互聯(lián)網(wǎng)的高速發(fā)展, 各種類型的網(wǎng)絡(luò)流量逐漸增多, 傳統(tǒng)基于端口匹配的方法已無法滿足當(dāng)前流量分類的需求. Moore等[11]采用基于傳統(tǒng)端口匹配技術(shù)的效果只有約60%

        的準(zhǔn)確率; Madhukar等[12]將該方法應(yīng)用在P2P流量上, 結(jié)果表明該方法更不適用于該類型流量; 文獻[13]將K-means與K近鄰算法相融合,

        規(guī)避了基于深度包檢測方法的不足; 文獻[14]采用了各種不同的機器學(xué)習(xí)算法, 并對這些算法的優(yōu)化進行研究, 達到較好的分類精度; Draper-Gil等

        [13]使用了K近鄰算法等機器學(xué)習(xí)模型, 采用會話中的時序相關(guān)特征對加密流量數(shù)據(jù)進行分類研究. 機器學(xué)習(xí)方法在流量分類的研究上雖取得了一定進展, 但該方法無

        法對未知的流量進行正確分類. 基于機器學(xué)習(xí)的分類方法提取嚴(yán)重依賴專家系統(tǒng)知識, 分類受主觀因素制約的負(fù)面影響無法規(guī)避.

        基于深度學(xué)習(xí)的方法可有效避免基于機器學(xué)習(xí)方法在特征設(shè)計上的缺陷, 目前已廣泛應(yīng)用于加密流量分類任務(wù)中. Wang等借鑒了其他領(lǐng)域的分類技術(shù)將其應(yīng)用

        在流量分類中, 提出了一種針對異常流量的策略[15], 并進一步提出了一種基于一維卷積神經(jīng)網(wǎng)絡(luò)的方法進行加密流量分類[16].

        2" 本文分類方法

        2.1" 模型設(shè)計

        本文模型設(shè)計以CNN網(wǎng)絡(luò)為基礎(chǔ)并融合Transformer的優(yōu)點, 重點改進兩部分. 一是通過Transformer模型提取特征, 再用CNN模型對這些特征進行分類. 使用Transformer模型的輸出作為CNN

        模型的輸入, 將預(yù)處理過的加密流量數(shù)據(jù)集傳入Transformer編碼器部分, 通過編碼器中的多頭注意力機制捕捉到數(shù)據(jù)長距離的特征依賴, 并對其特征信息進行重加權(quán)操作; 二是對C

        NN模型加入Inception模塊進行改進, 實現(xiàn)多尺度融合, 使特征信息的提取更精確, 保證后續(xù)的模型訓(xùn)練過程特征信息不丟失.

        本文模型總體架構(gòu)如圖1所示. 流程如下: 首先, 將原始加密流量數(shù)據(jù)經(jīng)預(yù)處理作為模型輸入; 其次, Transformer編碼器的輸入由詞表編碼和位置編碼進行求和操作, 將結(jié)

        果輸入到多頭注意力層中, 再通過前饋網(wǎng)絡(luò)進行輸出, 其中層之間使用層歸一化操作; 再次, 經(jīng)過一層卷積池化和拼接層中間嵌入Inception模塊進行多

        層次特征提取和特征融合; 最后, 使用Softmax分類器完成分類結(jié)果輸出.

        2.2" Transformer編碼器

        輸入數(shù)據(jù)為一個序列, 使用Transformer模型對該序列進行編碼, 得到一個由Transformer模型輸出的特征向量序列, 將該序列送到CNN模型進行分類. 而CNN模型的輸入需要一個固定

        大小的張量, 因此需要將特征向量序列轉(zhuǎn)化為一個張量, 本文將這些特征向量取一個平均值, 將它們連接在一起形成一個固定大小的張量.

        Transformer的結(jié)構(gòu)包括編碼器(Encoder)和解碼器(Decoder)兩部分, 本文使用Transformer的編碼器結(jié)構(gòu), 該結(jié)構(gòu)主要由多頭自注意力機制和前饋神經(jīng)網(wǎng)絡(luò)組成. Transformer

        編碼器是一種基于注意力機制的序列模型, 在處理長序列時效果更好. 模型在編碼序列過程中, 將注意力集中在輸入序列中的其他位置上, 每個位置都可以計算與其他位置的相

        關(guān)信息, 得到一個重要性權(quán)重分布. 通過以下步驟計算位置i與其他位置的相關(guān)性得分.

        1) 計算查詢Q(Query): 將位置i的特征映射為查詢向量qi, 用于尋找與該位置相關(guān)的信息.

        2) 計算鍵K(Key): 將所有位置的特征映射為鍵向量kj, 用于表示每個位置的信息.

        3) 計算值V(Value): 將所有位置的特征映射為值向量vj, 作為被查詢位置i的信息.

        4) 計算注意力權(quán)重: 通過計算查詢向量qi與所有位置鍵向量kj之間的內(nèi)積, 再進行Softmax操作, 得到位置i對其他位置的注意力權(quán)重.

        5) 加權(quán)求和: 將所有位置的值向量vj按注意力權(quán)重進行加權(quán)求和, 得到位置i的新特征表示.

        通過上述步驟, 每個位置都可以根據(jù)其與其他位置的關(guān)聯(lián)程度獲得全局信息. 同時, Transformer編碼器采用多頭注意力機制, 可并行學(xué)習(xí)多個不同類型的依賴關(guān)系, 進一步提高

        了其序列建模能力." 自注意力機制是將序列與自身進行匹配, 提取內(nèi)部之間的依賴關(guān)系, 通過不同的線性變換對Q,K,V進行

        投影, 將不同的注意力機制結(jié)果進行拼接. 自注意力機制的計算公式為

        Attention(Q,K,V)=SoftmaxQKTdk,(1)

        其中dk表示通道維度. 結(jié)果為注意力矩陣, 其值表示了Q與K之間的關(guān)聯(lián)程度.

        多頭注意力機制并行使用多個自注意力機制, 學(xué)習(xí)不同類型數(shù)據(jù)之間相互依賴的關(guān)系:

        MultiHead(Q,K,V)=Concat(Head1,Head2,…,Headh)W,(2)

        Headi=Attention(QWQi,KWKi,VWVi),(3)

        本文選取h=4, 即由4個自注意力機制組成.

        Transformer編碼器中的前饋神經(jīng)網(wǎng)絡(luò)是全連接型的, 該結(jié)構(gòu)涵蓋了兩個線性變換, 其中前饋神經(jīng)網(wǎng)絡(luò)可表示為

        FFN(x)=max{0,xW1+b1}W2+b2.(4)

        線性變換在不同位置需要調(diào)整不同的參數(shù). 由于缺少位置信息, 因此自注意力層的位置通常未知, 考慮使用位置自注意力代替注意力機制, 嵌入可學(xué)習(xí)的相對位置編碼. 每個注意

        力頭使用一個可訓(xùn)練的相對位置編碼, 其值僅取決于像素與像素之間的距離, 將自注意力機制表示為

        Attention(Q,K,V)=SoftmaxQKTd

        k+BV.(5)

        2.3" 改進CNN模型

        針對加密流量數(shù)據(jù), 當(dāng)網(wǎng)絡(luò)層次較淺時, 傳統(tǒng)的CNN模型無法提取到更深層次的特征, 會導(dǎo)致模型的分類精度較差, 網(wǎng)絡(luò)的層次過深則會導(dǎo)致模型計算速度慢. 為減少參數(shù)量并

        解決梯度消失的問題, 本文設(shè)計以CNN模型為基礎(chǔ)嵌入Inception模塊[17], 實現(xiàn)多尺度特征融合, Inception模塊能對尺寸較大的矩陣進行降維處理, 并能進行不同尺度的特征提取.

        Inception設(shè)計思想: 將不同的卷積層和最大池化層通過并聯(lián)的方式連接在一起形成一個更深層的矩陣. Inception模塊可以反復(fù)堆疊形成巨大的網(wǎng)絡(luò)結(jié)構(gòu),

        從而達到最簡單的方式, 即對網(wǎng)絡(luò)的深度和寬度進行高效率的擴充, 以提高網(wǎng)絡(luò)性能, 并避免過擬合風(fēng)險. 本文采用的Inception模塊由卷積核大小為3×3,5×5的卷積層

        和一個最大池化層組成, 在該模塊中以串聯(lián)的方式分別對上述3個結(jié)構(gòu)加入1×1的卷積層用于控制輸出的特征維度, 并在卷積層的后面連接批歸一化層以有效增加模型的魯棒性.

        Inception模塊的網(wǎng)絡(luò)結(jié)構(gòu)如圖2所示.

        在Inception模塊中3個不同大小卷積核的卷積層前面添加1×1的卷積層, 并在池化層的后面連接1×1的卷積層, 而1×1的卷積無法擴大感受野效果, 因此對通道數(shù)進行修改

        , 以達到降低輸出特征維度的目的. 在該模塊的最后連接批歸一化層, 將上一層改進Inception模塊的輸出作為該層的輸入, 將輸入數(shù)據(jù)減均值方差, 使網(wǎng)絡(luò)的超參數(shù)設(shè)定

        更靈活, 不僅能加快網(wǎng)絡(luò)的收斂速度, 還能增加模型的魯棒性. 令網(wǎng)絡(luò)層輸入的x分布接近, 并且分布在(0,1)內(nèi), 能提高函數(shù)的迭代優(yōu)化效果, 通過數(shù)據(jù)的標(biāo)準(zhǔn)化處理

        將輸入數(shù)據(jù)x映射為i, 并對每個Batch進行規(guī)范化處理:

        i←xi-μBσ2B+ε,(6)

        B=1B∑x∈Bx,(7)

        2B=1B∑x∈B(x-B)2+ε,(8)

        其中: B表示平均值; 2B表示方差; 常量εgt;0, 確保分母不為0, 保證了在經(jīng)驗方差估計值可能消失的狀態(tài)下也不會出現(xiàn)分母為0的情況.

        3" 實驗及結(jié)果分析

        實驗設(shè)備為Gen Interl(R) Core(TM) i7-12700H處理器, 32 GB內(nèi)存, NVIDIA GeForce RTX3050(8 GB)顯卡, 編程語言為Python 3.9, 實驗?zāi)P陀?xùn)練庫為Pytorch 1.11.0.

        3.1" 數(shù)據(jù)集

        本文實驗采用UNB ISCX VPN-nonVPN 2016公開加密流量數(shù)據(jù)集, 該數(shù)據(jù)集由15種非VPN和VNP加密流量, 將其劃分為12個類別并取對應(yīng)標(biāo)識名,

        涵蓋6種常規(guī)加密流量和6種VPN加密流量, 數(shù)據(jù)集信息列于表1.

        3.2" 數(shù)據(jù)集處理

        本文實驗在進行分類任務(wù)前, 需對數(shù)據(jù)集進行預(yù)處理獲得標(biāo)準(zhǔn)數(shù)據(jù)集, 數(shù)據(jù)集處理流程如圖3所示. 先將15種類別的數(shù)據(jù)集合并成12種類別, 并將pacapng格式文件轉(zhuǎn)換成pcap文件以便于

        后續(xù)操作; 然后完成數(shù)據(jù)集中與流量特征無關(guān)的域名服務(wù)段(DNS), 與分類任務(wù)無關(guān)的以太網(wǎng)

        頭MAC地址以及填充字段(Padding)清除工作, 以提升數(shù)據(jù)分類處理效率; 最后完成數(shù)據(jù)切割和標(biāo)準(zhǔn)化處理.

        分析數(shù)據(jù)集中各種類型的數(shù)據(jù)長占比, 結(jié)果列于表2. 由表2可見, 97.7%的數(shù)據(jù)長度均在1 500 B以下, 僅358條(2.3%)數(shù)據(jù)長度大于1 500 B. 將數(shù)據(jù)長度定為1 500 B, 并將數(shù)據(jù)長度大于

        1 500 B的數(shù)據(jù)進行截取, 數(shù)據(jù)長度小于1 500 B的數(shù)據(jù)將其末尾填充0, 最后將數(shù)據(jù)轉(zhuǎn)換為標(biāo)準(zhǔn)大小的流量矩陣.

        3.3" 評估指標(biāo)

        本文使用的數(shù)據(jù)集屬于類別不平衡的數(shù)據(jù)集, 為驗證本文改進的CNN-Transformer模型分類性能, 使用準(zhǔn)確率(Accuracy)、 精確率(Precision)、 召回率(Recall)和F1-Sco

        re 四個指標(biāo)完成分類模型性能評估. 各評價指標(biāo)計算公式分別為

        Accuracy=TP+TNTP+FP+TN+FN,(9)

        Precision=TPTP+FP,(10)Recall=TPTP+FN,(11)

        F1-Score=2×Precsion×RecallPrecision+Recall,(12)

        其中TP真陽表示預(yù)測為正例的正例, TN真陰表示預(yù)測為負(fù)例的負(fù)例, FP假陽表示預(yù)測為正例的負(fù)例, FN假陰表示預(yù)測為負(fù)例的正例.

        3.4" 實驗結(jié)果分析

        3.4.1" 消融實驗

        1) Transformer編碼器驗證. 為驗證本文分類模型融入Transformer編碼器的有效性, 實驗通過改變不同數(shù)量的多頭注意力機制對Transformer解碼器結(jié)構(gòu)進行對比, 實驗結(jié)果列于表3.

        表3中Initial-model為未添加Transformer編碼器, 2-Transformer,4-Transformer,6-Transformer中的自注意力層的個數(shù)分別為2,4,6.

        由表3可見, 未添加Transformer編碼器的分類模型各評估指標(biāo)均為最低. 在加入多頭注意力機制后, 頭數(shù)為4以內(nèi)

        時的各指標(biāo)均增長, 當(dāng)頭數(shù)為4,6時, 評估指標(biāo)基本一致, 而頭數(shù)為6時, 參數(shù)量的增多

        會導(dǎo)致訓(xùn)練時間大幅度增加. 可見, Transformer編碼器結(jié)構(gòu)能有效解決CNN捕獲全局能力弱的問題, 提高了模型的分類性能.

        2) Inception模塊驗證. 為驗證CNN網(wǎng)絡(luò)中加入Inception模塊的有效性, 本文針對Inception模塊結(jié)構(gòu)進行對比實驗, 實驗結(jié)果列于表4.

        表4中Initial-model的結(jié)構(gòu)未添加Inception模塊, 1-CNN加入了Inpection模塊, 且Inception的內(nèi)部結(jié)構(gòu)由3×3卷積并聯(lián)組成, 2-CNN的Inception內(nèi)部結(jié)構(gòu)由3×3+5

        ×5卷積并聯(lián)組成, 3-CNN的Inception內(nèi)部結(jié)構(gòu)是以3-CNN的結(jié)構(gòu)為基礎(chǔ)添加了最大池化層, 在兩個卷積和最大池化層前后分別連接1×1卷積層控制輸出的特征維度.

        由表4可見, Initial-model的各項性能指標(biāo)相比其他3種模型均有不足, 其中3-CNN的性能提高最明顯. Accuracy,Precision,Recall和F1-Score四個性能指標(biāo)與未添加Inception

        模塊的CNN相比分別提高了2.48,2.24,3.70,3.80個百分點. 可見, 對CNN網(wǎng)絡(luò)添加Inception模塊能達到更高的分類精度.

        3.4.2" 與主流分類模型對比

        為驗證本文分類模型的優(yōu)越性, 將本文模型與1D-CNN,2D-CNN和GAN+CNN三個常見的分類模型進行對比. 本文模型在數(shù)據(jù)集ISCX上進行服務(wù)類型12種分類的準(zhǔn)確率與其他3個常

        見的深度學(xué)習(xí)模型對比實驗結(jié)果列于表5.

        由表5可見, 同樣對服務(wù)類型的流量進行流量分類任務(wù), 本文模型相比1D-CNN,2D-CNN和GAN+CNN三個模型, 總體準(zhǔn)確

        率分別提升了3.0,6.2,2.2個百分點, 因此本文模型優(yōu)于其他3個常見分類模型的分類準(zhǔn)確率.

        下面通過對比12種類別在不同模型上的性能指標(biāo)數(shù)值對本文模型分類性能進行全面評估. 圖4~圖6分別為本文模型與其他3個模型的性能指標(biāo)對比分析結(jié)果.

        a. Chat; b. Email; c. File; d. P2P; e.Streaming; f. Voip;g. VNP_Chat; h. VPN_Email; i. VPN_File;

        a. Chat; b. Email; c. File; d. P2P; e.Streaming; f. Voip;g. VNP_Chat; h. VPN_Email; i. VPN_File;

        j. VPN_P2P;k. VPN_Streaming; l. VNP_Voip.

        a. Chat; b. Email; c. File; d. P2P; e.Streaming; f. Voip;g. VNP_Chat; h. VPN_Email; i. VPN_File;

        由圖4可見, 本文模型的精確率遠(yuǎn)高于其他3個分類模型, File,P2P,Streaming等9種類別的準(zhǔn)確率均達99%以上. 由圖5可見, 本文模型在P2P和VPN_P2P上的召回率達100%,

        在File,Streaming等9種類別上的召回率均達98%以上. 由圖6可見, 本文模型在File,P2P,Streaming等9種類別的F1值均達98%以上. 實驗結(jié)果表明, 本文模型與主流加

        密流量分類方法相比分類性能優(yōu)異, 且本文所有實驗是在不平衡數(shù)據(jù)集上完成的, 若對數(shù)據(jù)集進行平衡化處理, 實驗效果會更顯著.

        綜上所述, 針對現(xiàn)有加密流量分類方法存在特征提取效果較差的問題, 本文考慮以CNN網(wǎng)絡(luò)為基礎(chǔ)模型, 引入Transformer編碼器多頭注意力機制和Inception思想, 提出了一種改進CNN和Transfo

        rmer相結(jié)合的加密流量分類模型. 該模型既發(fā)揮了CNN捕獲局部特征的優(yōu)勢, 使用Inception模塊實現(xiàn)多尺度融合特征, 又充分利用了Transformer善于捕捉長距離的特征依賴, 兩種網(wǎng)絡(luò)

        相結(jié)合達到長短兼顧的分類效果. 通過與1D-CNN,2D-CNN和GAN+CNN等分類模型進行對比驗證, 實驗結(jié)果表明, 本文分類方法能有效提高數(shù)據(jù)整體的分類精度.

        參考文獻

        [1]" GUO L L, WU Q Q, LIU S L, et al. Deep Learning-Based Real-Time VPN Encrypted Traffic Identification Methods

        [J]. Journal of Real-Time Image Processing, 2020, 17(9): 1-12.

        [2]" 沈記全, 魏坤. 融合殘差網(wǎng)絡(luò)的CR\|BiGRU入侵檢測模型 [J]. 吉林大學(xué)學(xué)報(理學(xué)版), 2023, 61(2): 353\|361. (SHEN J Q, WEI K.

        CR\|BiGRU Intrusion Detection Model by Fusing Residual Networks [J]. Journal of Jilin University (Science Edition), 2023, 61(2): 353\|361.)

        [3]" 張志宏, 劉傳領(lǐng). 基于灰狼算法優(yōu)化深度學(xué)習(xí)網(wǎng)絡(luò)的網(wǎng)絡(luò)流量預(yù)測 [J]. 吉林大學(xué)學(xué)報(理學(xué)版), 2021, 59(3): 619\|626.

        (ZHANG Z H, LIU C L. Optimization of Deep Learning Network for Network Traffic Prediction Based on Gray Wolf Algorithm [J]. Journal of Jilin University

        (Science Edition), 2021, 59(3): 619\|626.)

        [4]" 閆偉, 張軍. 基于時間序列分析的網(wǎng)絡(luò)流量異常檢測 [J]. 吉林大學(xué)學(xué)報(理學(xué)版), 2017, 55(5): 1249\|1254.

        (YAN W, ZHANG J. Network Traffic Anomaly Detection Based on Time Series Analysis [J]. Journal of Jilin University (Science Edition), 2017, 55(5): 1249\|1254.)

        [5]" SU T T, SUN H Z, ZHU J Q, et al. BAT: Deep Learning Methods on Network Intr

        usion Detection Using NSL-KDD Dataset [J]. IEEE Access, 2020, 8: 29575-29585.

        [6]" 高新成, 李強, 王莉利, 等. 基于改進遺傳算法的自適應(yīng)卷積神經(jīng)網(wǎng)絡(luò) [J]. 計算機技

        術(shù)與發(fā)展, 2022, 32(10): 132-136. (GAO X C, LI Q, WANG L L, et al. Adaptive

        Convolutional Neural Network Based on Improved Genetic Algorithm [J]. Computer Technology and Development, 2022, 32(10): 132-136.)

        [7]" XUE B, YI W J, JING F, et al. Complex ISAR Target Recognition Using Deep Ada

        ptive Learning [J]. Engineering Applications of Artificial Intelligence, 2021, 97: 104025-1-104025-9.

        [8]" 曾宏志, 史洪松. 半監(jiān)督技術(shù)和主動學(xué)習(xí)相結(jié)合的網(wǎng)絡(luò)入侵檢測方法 [J]. 吉林大學(xué)

        學(xué)報(理學(xué)版), 2021, 59(4): 936-942. (ZENG H Z, SHI H S. Network Instrusion Dete

        ction Method Combining Semi-supervised Technology and Active Learning [J]. Journal of Jilin University (Science Edition), 2021, 59(4): 936-942.)

        [9]" 鄧昕, 劉朝暉, 歐陽燕, 等. 基于CNN CBAM\|BiGRU Attention的加密惡意流量識別 [J]. 計算機工程, 2023, 49(11): 178\|186.

        (DENG X, LIU C H, OUYANG Y, et al. Encrypted Malicious Traffic Recognition Based on CNN CBAM\|BiGRU Attention [J]. Computer Engineering, 2023, 49(11): 178\|186.)

        [10]" VASWANI A, SHAZEER N, PARMAR N, et al. Attention Is All You Need [C]//

        International Conference on Neural Infromation Processing Systems. New York: ACM, 2017: 6000-6010.

        [11]" MOORE A W, PAPAGIANNAKI K. Toward the Accurate Identification of Network Ap

        plications [C]//International Workshop on Passive and Active Network Measurement. Berlin: Springer, 2005: 41-54.

        [12]" MADHUKAR A, WILLIAMSON C. A Longitudinal Study of P2P Traffic Classificati

        on [C]//14th IEEE International Symposium on Modeling, Analysis, and Simulation. Piscataway, NJ: IEEE, 2006: 179-188.

        [13]" DRAPER-GIL G, LASHKARI A H, MAMUN M S I, et al. Characterization of Encryp

        ted and VPN Traffic Using Yime-Related [C]//Proceedings of the 2nd Internatio

        nal Conference on Information Systems Security and Privacy (ICISSP). New York: ACM, 2016: 407-414.

        [14]" 連曉偉, 馬垚, 陳永樂, 等. 基于載荷特征與統(tǒng)計特征的Shodan流量識別 [J]. 計算

        機工程, 2021, 47(1): 117-122. (LIAN X W, MA Y, CHEN Y L, et al. Identification

        of Shodan Traffic Based on Load Characteristics and Statistical Characteristics [J]. Computer Engineering, 2021, 47(1): 117-122.)

        [15]" WANG W, ZHU M, ZENG X W, et al. Malware Traffic Classification Using Convol

        utional Neural Network for Representation Learning [C]//2017 International Con

        ference on Information Networking (ICOIN). Piscataway, NJ: IEEE, 2017: 712-717.

        [16]" WANG W, ZHU M, WANG J L, et al. End-to-End Encrypted Traffic Classification

        with One-Dimensional Convolution Neural Networks [C]//2017 IEEE Internationa

        l Conference on Intelligence and Security Informatics. Piscataway, NJ: IEEE, 2017: 43-48.

        [17]" 孫懿, 高見, 顧益軍. 融合一維Inception結(jié)構(gòu)與ViT的惡意加密流量檢測 [J]. 計算機工程, 2023, 49(1): 154\|162.

        (SUN Y, GAO J, GU Y J. Fusion of One\|Dimensional Inception Structure and ViT for Malicious Encrypted Traffic Detection [J]. Computer Engineering, 2023, 49(1): 154\|162.)

        (責(zé)任編輯: 韓" 嘯)

        国产精品人人做人人爽| 男男互吃大丁视频网站| 日日噜噜噜夜夜狠狠久久蜜桃| 日本少妇一区二区三区四区 | 麻豆成年视频在线观看| 亚洲一区二区三区精彩视频| 日本一区二区三区视频网站| 亚洲人成网网址在线看| 玩两个丰满老熟女| 日韩中文在线视频| 国产一区二区三区免费在线播放| 91精品啪在线观九色| 欧美人与禽2o2o性论交| 免费又黄又爽又猛的毛片| 久久久国产精品ⅤA麻豆百度 | 国产ww久久久久久久久久| 国产亚洲日韩欧美一区二区三区| 亚洲欧洲一区二区三区波多野| 久久久亚洲精品蜜臀av| 国产一区二区三区在线观看完整版| 久久久久成人精品无码中文字幕 | 亚洲人成电影在线无码| 成在线人免费视频播放| 国产亚洲精品国产精品| 午夜成人鲁丝片午夜精品| 青青视频一区| 40分钟永久免费又黄又粗| av人妻在线一区二区三区| 熟妇人妻无乱码中文字幕真矢织江| 久久人妻内射无码一区三区| 无码午夜剧场| 蜜桃av噜噜一区二区三区免费| 国产精品亚洲av高清二区| 国产熟妇另类久久久久| 亚洲丁香婷婷综合久久小说| 亚洲av精品一区二区| 久久国产劲爆∧v内射| 最新国产av无码专区亚洲| 亚洲美女国产精品久久久久久久久| 少妇被猛烈进入中文字幕| 99在线精品视频在线观看|