亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于Transformer架構的智能SDN管理系統(tǒng)

        2024-12-31 00:00:00楊遠奇謝澤凌蔡岱立江恩杰
        互聯(lián)網周刊 2024年21期
        關鍵詞:特征用戶模型

        摘要:軟件定義網絡(SDN)被譽為新一代網絡架構的基石,其核心優(yōu)勢在于通過集中式控制機制來精簡網絡架構,提升整體運作效率。本文針對SDN環(huán)境下的流量管理需求,提出了一種融合Transformer架構與MLP-Mixer模型的深度學習預測模型。針對這兩種框架的功能及其在模型中的作用進行了深入研究和探索,實現(xiàn)了網絡流量預測的高效協(xié)同,并將SDN環(huán)境中的數(shù)據(jù)輸入模型中進行訓練和預測。本文揭示了潛在的風險點,并針對性地提出了解決方案。這些研究成果不僅簡化了運維人員的管理流程,也顯著提升了用戶的網絡體驗。

        關鍵詞:軟件定義網絡;流量預測;Transformer架構;MLP-Mixer模型;深度學習

        引言

        在通信技術、互聯(lián)網應用和云計算技術飛速進步的推動下,全球網絡流量正經歷著前所未有的增長。這一趨勢不僅對現(xiàn)有通信網絡架構提出了嚴峻挑戰(zhàn),也對新興服務的部署和用戶體驗的優(yōu)化提出了更高要求。傳統(tǒng)的網絡架構在應對日益復雜的互聯(lián)網應用和服務需求時顯得力不從心,迫切需要一種能夠靈活適應新需求和網絡環(huán)境變化的解決方案。

        軟件定義網絡(software defined networking,SDN)應時而生,以其創(chuàng)新的架構設計理念,將網絡設備的控制功能從硬件中解耦,實現(xiàn)了控制平面與數(shù)據(jù)平面的分離。這種分離不僅使網絡控制邏輯集中化、可編程化,而且為網絡資源的全局調度和優(yōu)化提供了可能。SDN的這些核心優(yōu)勢,使網絡管理變得更加高效、動態(tài)和靈活,為未來網絡的發(fā)展奠定了基礎。

        在這一背景下,網絡流量預測成為網絡運維的關鍵環(huán)節(jié)。準確的流量預測不僅能夠為網絡設計提供科學依據(jù),預測和緩解節(jié)點擁塞,還能夠優(yōu)化網絡流量路徑,提升網絡資源的利用率。因此,本文旨在探索和開發(fā)一種基于SDN環(huán)境的高效網絡流量預測模型,以期為網絡資源管理和網絡安全防護提供強有力的支持[1]。

        1. 系統(tǒng)框架

        本系統(tǒng)框架主要分為:用戶模塊、站點模塊和智能評估模塊,如圖1所示。

        1.1 用戶模塊

        用戶模塊主要由分時流量監(jiān)測和用戶QOE監(jiān)測組成。分時流量監(jiān)測可以選擇時間,查詢該時間中每個時段的用戶數(shù)量,并用折線圖的形式顯示出來,同時,還將每個時段的用戶信息用列表枚舉出來。在用戶QOE監(jiān)測中,可以隨機切換多名用戶MAC地址來查看該用戶上網體驗感。首先,通過一個網絡拓撲來查看該用戶設備名稱、對應IP地址和AP名稱,以及AP對應的MAC地址等連接的設備信息;其次,用折線圖的形式來顯示用戶上網時的數(shù)據(jù)流量和速率,并對各項指標按一定比率計算出體驗分數(shù),通過條形圖和折線圖結合的方式來展現(xiàn)。

        該模塊將數(shù)據(jù)可視化,使繁雜的數(shù)據(jù)生動展示出來,運維人員可以根據(jù)圖像起伏高低,給用戶提出建議,使其避開數(shù)據(jù)流量峰值,從而來提升運行速率,進一步改善用戶體驗感。

        1.2 站點模塊

        站點模塊主要由全域系統(tǒng)環(huán)境監(jiān)測、網絡設備聚簇矩陣和基于地圖擬合的設備查詢組成。全域系統(tǒng)環(huán)境監(jiān)測一共有四個指標,系統(tǒng)根據(jù)這四個指標通過求平均數(shù)算出一個總體分數(shù)來判斷當前這個站點系統(tǒng)環(huán)境好壞。網絡設備聚簇矩陣由當前站點多個AP和終端構成,分布在一個二維坐標上,通過點擊設備可以查看這個設備所屬AP或者連接的終端信息?;诘貓D擬合的設備查詢,可以根據(jù)起始站點城市和終點站點城市計算出連接到最近站點的城市,并且會對到終點站點途中經過的就近站點信息做一個分析和鏈路質量檢測策略,如果遇到故障則先切換到其他站點,然后會從鏈路故障、問題分析這兩個方面作出判斷,最后給出推薦的解決方案。

        本模塊將每個站點間的網絡設備可視化展現(xiàn)出來,使原本復雜的網絡設備條理化,方便了運維人員的排障,同時全域系統(tǒng)環(huán)境監(jiān)測和基于地圖擬合的設備查詢既保證站點設備環(huán)境正常,也保證站點間通信正常。

        1.3 智能評估模塊

        智能評估模塊主要由智能流量預測和異常故障告警組成。智能流量預測基于Transformer架構+MLP-Mixer模型,將算出的預測值同真實值用折線圖的形式繪制出來,可以直觀對比出真實值和預測值之間的差距,如果相差過大便會提示出現(xiàn)異常。在流量預測中,系統(tǒng)會對收到的異常作出判斷,根據(jù)不同指標出現(xiàn)的異常分別給出問題原因和推薦的解決辦法。異常故障告警主要包括用戶鏈路質量異常、用戶體驗異常、站點質量的異常和網絡質量異常,并且針對用戶鏈路質量異常,系統(tǒng)會按設定的指標進行嚴重性等級分類,每個異常故障告警系統(tǒng)都會判斷出現(xiàn)問題的原因,然后給出推薦的解決辦法。

        在智能流量預測和異常故障告警結合下的智能評估模塊,減輕了運維人員工作量,大幅減少了人為排障時間,并且通過系統(tǒng)給出的解決方案可以讓運維人員有個參照,提高了排障正確率。

        2. 流量預測

        隨著人工智能廣泛應用,SDN下基于長短期記憶網絡(long short-term memory,LSTM)的流量預測[2]和基于圖卷積神經網絡的流量預測[3]也相繼問世。面對當前諸多神經網絡模型,結合以往經驗,本文巧妙地將Transformer架構與MLP-Mixer模型相結合來對流量進行預測。

        2.1 Transformer架構

        由于循環(huán)神經網絡(recurrent neural network,RNN)中乘法梯度會隨著層數(shù)增加呈指數(shù)遞增,容易出現(xiàn)梯度消失和梯度爆炸問題[4],因此很難捕捉長期依賴關系。而LSTM在序列建模問題上有一定優(yōu)勢,具有長時記憶功能,實現(xiàn)起來簡單,解決了長序列訓練過程中存在的梯度消失和梯度爆炸問題[5]。但是對于LSTM,每一個LSTM里面有4個全連接層,如果LSTM時間跨度很大,并且網絡又很深,會導致計算量很大,同時還很耗時。相比于RNN和LSTM,Transformer架構不依賴于過去隱藏狀態(tài)來捕獲局部語義信息,而是處理全局表征,使模型并行訓練且更加健壯,減少運行時間,不再受長期依賴問題困擾[6]。因此,本文優(yōu)先采用Transformer架構[4]。

        Transformer架構主要由并行的編碼器和解碼器模塊構成。如圖2所示,編碼器和解碼器都采用了多層級聯(lián)結構。編碼器的每一層都包含位置嵌入(PE)、編碼器層和標準化處理。編碼器層中融合了多頭自注意力機制和前饋神經網絡,并通過殘差連接(圖中虛線箭頭所示)實現(xiàn)信息的有效傳遞。解碼器模塊采用了與編碼器相似,但每個解碼器層除了包含與編碼器相同的組件外,還增設了額外的注意力層,用于處理來自編碼器的輸出信息。

        在底部結構中,模型輸入被劃分為多個等長序列片段,這種設計有助于處理序列數(shù)據(jù)的時序特征。通過位置編碼的加入,模型能夠有效捕獲輸入序列中元素的位置信息,從而克服了Transformer在處理序列數(shù)據(jù)時的固有局限性。這種結構設計特別適合于流量監(jiān)測和預測等需要保持時序關系的任務。

        2.2 MLP-Mixer模型

        為優(yōu)化模型性能,本文在Transformer架構基礎上融入MLP-Mixer模型的核心理念。如圖3所示,該模型的處理流程主要包含以下關鍵模塊:首先,輸入序列通過塊線性嵌入模塊進行初始特征映射。該模塊將輸入數(shù)據(jù)映射到高維特征空間,并通過局部感受野捕獲序列的空間結構特征。隨后,這些特征經過特征投影,在多個串聯(lián)的混合模塊中形成多個特征通道,實現(xiàn)了跨空間位置的特征交互。這些特征經過全局池化層的處理后,最終通過全連接模塊輸出分類結果(Class)。其中,模型的特征轉換單元(圖3右側框)采用了“線性層-GELU激活函數(shù)-線性層”的結構。

        其中混合模塊的內部結構如圖3下半部分所示。首先,輸入特征經過層歸一化進行標準化處理,確保特征分布的穩(wěn)定性。隨后,標準化的特征被重組為Channels-Patches形式(圖3中以彩色條帶表示),這種特征組織方式有效保留了通道間的相關性。在核心處理環(huán)節(jié),模型通過矩陣轉置操作重排特征維度,使得特征圖在空間維度上進行重組。轉置后的特征經過全連接模塊進行深度特征提取,并再次通過轉置操作恢復原有的特征排列。這種雙重轉置設計實現(xiàn)了特征在不同維度上的充分交互。特別地,模型通過殘差連接(圖3中虛線箭頭所示)將原始特征信息與轉換后的特征進行融合,有效緩解了深度網絡中的梯度消失問題。最后,處理后的特征再次經過層歸一化和全連接模塊,完成最終的特征轉換。這種串行的多層次處理機制不僅確保了特征提取的深度,還通過規(guī)范化操作維持了網絡訓練的穩(wěn)定性。整個混合模塊的設計體現(xiàn)了特征變換與信息保持的平衡,為模型提供了強大的特征表達能力。

        3. 實驗與分析

        如圖4(a)和圖4(b)所示,紅色實線代表真實值,藍色虛線代表預測值,分別對比用戶接入成功率和信號干擾強度真實值和預測值效果,可以看出Transformer架構+MLP-Mixer模型針對不同指標預測出的結果與真實結果都十分接近,擬合能力好,從而達到預期目標。

        4. 總結與展望

        4.1 總結

        本文針對SDN網絡流量預測問題,創(chuàng)新地提出了Transformer架構+MLP-Mixer模型,主要是解決在SDN網絡中,如何在獲取龐大流量態(tài)勢情況下,及時預測突發(fā)風險,避免網絡擁塞情況發(fā)生。結果表明,相比于其他經典模型,Transformer架構+MLP-Mixer模型在Transformer架構獨特的位置編碼和端到端結構下解決了LSTM所帶來的隱患,而且全局采用注意力機制,不再受長期依賴問題困擾,對時序數(shù)據(jù)有更高的表征水平。MLP-Mixer模型作為模型的輸出架構的方案,采用混合位置特征和空間信息以替代卷積算子,避免了堆疊MLP導致的范式變化和低效的泛化能力。

        綜上所述,本文采用的Transformer架構+MLP-Mixer模型運行效率高,預測結果擬合能力好,整體代價低,可以更好地分析數(shù)據(jù),給用戶一個完美的體驗感。

        4.2 未來展望

        本文對于流量預測的模型框架還有許多不足,未來,需要基于現(xiàn)有的工作成果進行進一步研究和改善。例如,在Transformer架構中,由于Transformer架構原本的注意力機制存在計算復雜度大而導致有限樣本過擬合問題,并且缺少局部歸納偏置,即缺少局部注意力優(yōu)勢。因此,注意力機制可以替換成具有線性復雜性和輕量型的[9-10]。在MLP-Mixer模型方面,可以找一個比較輕量又不失精度的混合方法來混合各個尺度的信息,然后把token的混合和channel的混合結果聚合在一起,最后映射成類別輸出。

        參考文獻:

        [1]趙澤彪,代振濤,趙建文,等.基于SDN的網絡智能管理和性能評估研究[C]//中國指揮與控制學會.第十屆中國指揮控制大會論文集(下冊).北京:兵器工業(yè)出版社,2022:5.

        [2]蘇曉玥.基于深度學習與SDN的數(shù)據(jù)中心流量預測與調度[D].北京:北京郵電大學,2024.

        [3]張國明.基于圖卷積神經網絡的大規(guī)模軟件定義網絡流量預測模型[J].微電子學與計算機,2024,41(4):96-103.

        [4]Dieng A B,Ranganath R,Altosaar J,et al.Noisin:Unbiased regularization for recurrent neural networks[C]//International Conference on Machine Learning.PMLR,2018:1252-1261.

        [5]Dou B,Zhu Z,Merkurjev E,et al.Machine learning methods for small data challenges in molecular science[J].Chemical Reviews,2023,123(13):8736-8780.

        [6]Vaswani A,Shazeer N,Parmar N,et al.Attention is all you need[C]//Advances in neural information processing systems.2017,5998-6008.

        [7]Kumar S,Wang X,Strachan J P,et al.Dynamical memristors for higher-complexity neuromorphic computing[J].Nature Reviews Materials,2022,7(7):575-591.

        [8]Tolstikhin I O,Houlsby N,Kolesnikov A,et al.Mlp-mixer: An all-mlp architecture for vision[J].Advances in neural information processing systems,2021,34: 24261-24272.

        [9]Lopes A,dos Santos F P,de Oliveira D,et al.Computer Vision Model Compression Techniques for Embedded Systems:A Survey[J].Computers amp; Graphics,2024,123:104.

        [10]Ma C,Wan M,Wu J,et al.Light self-Gaussian-attention vision transformer for hyperspectral image classification[J].IEEE Transactions on Instrumentation and Measurement,2023,72:327.

        作者簡介:通信作者:楊遠奇,碩士研究生,副教授,gigikin6808@jmu.edu.cn,研究方向:軟件定義網絡、智能算法、推薦系統(tǒng)。

        基金項目:中國高校產學研創(chuàng)新基金-新一代信息技術創(chuàng)新項目——基于SDN的車聯(lián)網流量預測算法研究(編號:2021ITA06004);福建省中青年教師教育科研項目——車聯(lián)網IoV流量預測算法研究(編號:JAT210671);集美大學誠毅學院中青年項目——基于transformer的推薦算法研究(編號:c13019)。

        猜你喜歡
        特征用戶模型
        一半模型
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權M-估計的漸近分布
        如何表達“特征”
        不忠誠的四個特征
        當代陜西(2019年10期)2019-06-03 10:12:04
        抓住特征巧觀察
        關注用戶
        商用汽車(2016年11期)2016-12-19 01:20:16
        3D打印中的模型分割與打包
        關注用戶
        商用汽車(2016年6期)2016-06-29 09:18:54
        關注用戶
        商用汽車(2016年4期)2016-05-09 01:23:12
        国产WW久久久久久久久久| 久久午夜福利无码1000合集| 小sao货水好多真紧h无码视频| 精品熟女少妇av免费观看| 四虎影视国产884a精品亚洲| 美女被搞在线观看一区二区三区| 亚洲综合av大全色婷婷| 免费无遮挡禁18污污网站| 欧美视频久久久| 日本一区二区高清视频在线播放| 国产伦一区二区三区色一情| 国产日产欧洲系列| 亚洲天堂在线视频播放| 国产精品综合色区av| 国产精品高清视亚洲乱码| 成人国产精品一区二区视频| 亚洲一区二区在线| 日本精品熟妇一区二区三区| 在线免费观看一区二区| 97精品国产手机| 亚洲成人av一区二区三区| 国产人妖伦理视频在线观看| 日韩精品无码一区二区| 日韩一线无码av毛片免费| 黄色av三级在线免费观看| 久久精品国产亚洲av四叶草| 消息称老熟妇乱视频一区二区| 国产无套露脸| 久久精品国产亚洲av试看| 久久国产劲爆∧v内射| 国产精品麻豆成人av电影艾秋 | 在线国产丝袜自拍观看| 日本最新免费二区三区| 久久久久99精品成人片试看| 综合激情中文字幕一区二区| 亚洲天堂av三区四区不卡| 亚洲欧美在线观看| 久久99精品波多结衣一区| 国产精品性色av麻豆| 亚洲看片lutube在线观看| 日韩国产成人精品视频|