亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于生成對抗模型的告警數(shù)據(jù)增強研究

        2022-07-19 09:35:04商英俊王瑩湯士黨
        計算機與網(wǎng)絡(luò) 2022年11期
        關(guān)鍵詞:數(shù)據(jù)增強強化學習

        商英俊 王瑩 湯士黨

        摘要:隨著網(wǎng)絡(luò)通信技術(shù)的不斷發(fā)展,網(wǎng)絡(luò)結(jié)構(gòu)也變得越來越復(fù)雜,網(wǎng)絡(luò)故障的診斷和處理問題也越來越復(fù)雜,網(wǎng)絡(luò)告警數(shù)據(jù)的采集提取以及處理成為了有難度的問題。為了利用較少的告警數(shù)據(jù)訓(xùn)練模型以診斷告警,引入了數(shù)據(jù)增強算法以擴充數(shù)據(jù),訓(xùn)練模型。但以循環(huán)神經(jīng)網(wǎng)絡(luò)(RecurrentNeural Network, RNN)為代表的一些深度學習模型存在梯度消失、暴露偏差等問題,本文提出了一種以生成式對抗網(wǎng)絡(luò)(Generative Adversarial Networks, GAN)為基礎(chǔ)的告警日志數(shù)據(jù)擴充方法,通過生成模型與判別模型二者之間的博弈對抗訓(xùn)練,提升數(shù)據(jù)生成的性能。仿真結(jié)果表明,基于GAN的告警數(shù)據(jù)擴充方法生成數(shù)據(jù)效果更佳。

        關(guān)鍵詞:數(shù)據(jù)增強;生成式對抗網(wǎng)絡(luò);強化學習;告警數(shù)據(jù)

        中圖分類號:TP319文獻標志碼:A文章編號:1008-1739(2022)11-58-5

        近年來,網(wǎng)絡(luò)通信的發(fā)展越來越迅速,網(wǎng)絡(luò)的結(jié)構(gòu)越來越復(fù)雜,網(wǎng)絡(luò)故障的診斷和處理問題也越來越復(fù)雜。大多數(shù)故障診斷算法需要學習故障數(shù)據(jù)的特征來重構(gòu)故障診斷模型,因此它們依賴于故障數(shù)據(jù)集來提供豐富的信息數(shù)據(jù)。但是在現(xiàn)實的網(wǎng)絡(luò)運行場景中,網(wǎng)絡(luò)故障數(shù)據(jù)發(fā)生頻率和規(guī)模較低,難以有效覆蓋網(wǎng)絡(luò)故障數(shù)據(jù)全集,從而無法準確構(gòu)建網(wǎng)絡(luò)故障診斷模型。為解決網(wǎng)絡(luò)架構(gòu)和網(wǎng)絡(luò)告警數(shù)據(jù)日漸復(fù)雜的情況,告警診斷模型難以獲得足夠的告警數(shù)據(jù)的問題,采用深度學習模型的文本生成技術(shù)根據(jù)真實數(shù)據(jù)生成告警數(shù)據(jù)進行數(shù)據(jù)增強,取得了一些顯著的成果。

        Sivasurya使用長短期記憶(Long Short-Term Memory,LSTM)網(wǎng)絡(luò)作為基礎(chǔ),結(jié)合數(shù)據(jù)的上下文關(guān)系,用以生成文本數(shù)據(jù);Kiddon等人[1]以循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,RNN)為基礎(chǔ)生成文本數(shù)據(jù),對于生成長文本數(shù)據(jù)時模型表現(xiàn)不佳的問題,引入神經(jīng)核對表模型,通過存儲并更新全局信息以更好地模擬文本生成的過程;Sayan等人[2]以LSTM網(wǎng)絡(luò)作為基礎(chǔ)生成文本,同時考量文本數(shù)據(jù)中的情感信息,通過一個附加的設(shè)計參數(shù)自定義生成句中的情感內(nèi)容。

        但傳統(tǒng)的文本生成模型,如帶有LSTM單元的RNN,存在暴露偏差問題,可以通過使用生成式對抗網(wǎng)絡(luò)(Generative Adversarial Networks,GAN)來避免這個問題[3]。GAN通過在生成器和判別器之間引入對抗性機制來匹配合成數(shù)據(jù)和真實數(shù)據(jù)的分布。由于對抗訓(xùn)練的性質(zhì),判別器比較的是真實句子和合成句子,而不是單個單詞,可以有效地緩解暴露偏差問題。

        Zhang等人[4]提出了一個通過對抗訓(xùn)練生成真實文本的框架,通過核化差異度量來匹配真實句子和合成句子的高維潛在特征分布,該方法通過減輕模式崩潰問題來簡化對抗訓(xùn)練。Akmal等人[5]提出了一種使用知識蒸餾的方法來有效利用GAN進行文本生成。Jingjing Xu等人[6]提出了一種多樣性促進生成對抗網(wǎng)絡(luò)(DP-GAN)。為重復(fù)生成的文本分配低獎勵,為新穎和流暢的文本分配高獎勵,鼓勵生成器生成多樣化和信息豐富的文本。

        因此,針對網(wǎng)絡(luò)故障數(shù)據(jù)集不平衡的問題,借鑒GAN網(wǎng)絡(luò)模型,提出了一種基于GAN的告警數(shù)據(jù)生成方法,除了訓(xùn)練一個用于生成數(shù)據(jù)的生成模型外,同時訓(xùn)練一個判別模型,通過在訓(xùn)練中二者之間的博弈,提升數(shù)據(jù)生成的質(zhì)量。仿真結(jié)果表明,GAN所生成的告警數(shù)據(jù)質(zhì)量更高。

        1.1基于LSTM網(wǎng)絡(luò)的數(shù)據(jù)生成器

        引入一個LSTM網(wǎng)絡(luò)模型作為數(shù)據(jù)生成器,每個時間步的輸出都與之前時間步的輸出相關(guān),可以解決一般的RNN較難學習到長時間前的信息、長期記憶效果差的問題。LSTM中引入了輸入門、遺忘門和輸出門3個門,以及與隱藏狀態(tài)維度相同的記憶細胞,以記錄額外的信息?;贚STM網(wǎng)絡(luò)的數(shù)據(jù)生成器模型如圖1所示。

        為了進一步對比2種算法生成文本的質(zhì)量,進行了實驗比較訓(xùn)練過程中2種算法生成數(shù)據(jù)的BLEU-2,BLEU-3,BLEU-4各個指標值,對比結(jié)果如圖4、圖5和圖6所示。

        從圖4可以觀察到,隨著迭代次數(shù)的增加,本文算法的BLEU-2值不斷增加,在迭代前期上升較快,在迭代后期上升速度略有下降,最終得到的BLEU-2數(shù)值為0.80。與此相同的是,LSTM模型在迭代前期BLEU-2數(shù)值快速上升,在迭代后期BLEU-2數(shù)值不斷波動,最終BLEU-2數(shù)值收斂于0.70。本文提出的算法在BLEU-2指標上高于LSTM模型14.2%。這說明了本文提出的基于GAN的告警數(shù)據(jù)生成方法要優(yōu)于基于LSTM模型的告警數(shù)據(jù)生成方法。

        從圖5可以觀察到,隨著迭代次數(shù)的增加,本文算法的BLEU-3值不斷提高,最終達到收斂狀態(tài)。在迭代前期,本文算法的BLEU-3值提高速度較快,在迭代后期速度減緩,而BLEU-3最終收斂于0.62,可以看出在N-gram中由于值的提高,BLEU-3值明顯小于BLEU-2值。LSTM模型在迭代前期BLEU-3值的提升速度較快,在迭代后期BLEU-3的數(shù)值不斷波動,最終收斂于0.50。本文提出的算法在BLEU-2指標上高于LSTM模型24%。這說明了本文提出的GAN告警數(shù)據(jù)生成方法要優(yōu)于基于LSTM模型的告警數(shù)據(jù)生成方法,更貼近實際的告警日志數(shù)據(jù)。

        從圖6可以觀察到,隨著迭代次數(shù)的增加,本文算法的BLEU-4值不斷提高,且在多次迭代后仍然呈現(xiàn)上漲趨勢,在有限迭代次數(shù)內(nèi)BLEU-4值為0.50。LSTM模型在迭代前期BLEU-4值不斷提高,迭代后期呈現(xiàn)波動趨勢,最終迭代BLEU-4值為0.38??梢缘玫皆贐LEU-4指標上,本文提出的算法高于LSTM模型31.5%。

        3結(jié)束語

        本文針對告警數(shù)據(jù)生成問題,提出了一種基于GAN的告警數(shù)據(jù)生成算法,克服了其他深度學習模型可能存在的暴露偏差、梯度爆炸等問題,最終在仿真實驗中證明生成的告警數(shù)據(jù)質(zhì)量更高。

        [1] KIDDON C,ZETTLEMOYER L,CHOI Y. Globally Coherent Text Generation with Neural Checklist Models[C]// Proceedings of the 2016 Conference On Empirical Methods in Natural Language Processing.Texas:Association for Computational Linguistics,2016: 329-339.

        [2] GHOSH S,CHOLLET M, LAKSANA E, et al. Affect-LM: A Neural Language Model for Customizable Affective Text Generation[C]//Annual Meeting of the Association for Computational Linguistic. [s.l.]: ACL,2017:634-642.

        [3] GOODFELLOW I, POUGET A J,MIRZA M, et al.Generative Adversarial Nets Advances in Neural Information Processing Systems[C]//Proceedings of the 27th International Conference on Neural Information Processing Systems. Montreal: [s.n.] 2014:2672-2680.

        [4] ZHANG Y,GAN Z,F(xiàn)AN K,et al. Adversarial Feature Matching for Text Generation[C]//International Conference on Machine Learning.Sydney:[ACM],2017:4006-4015.

        [5] HAIDAR M, REZAGHOLIZADEH M.Textkd-gan: Text Generation Using Knowledge Distillation and Generative Adversarial Networks[C]//Canadian Conference on Artificial Intelligence. Kingston:Springer,2019:107-118.

        [6] XU J J,REN X C, LIN J Y. Diversity-promoting GAN:A Cross-entropy Based Generative Adversarial Network for Diversified Text Generation[C]// Conference on Empirical Methods in Natural Language Processing.Brussels:EMNLP, 2018:3940-3949.

        [7] KIM Y. Convolutional Neural Networks for Sentence Classification[C]// Conference on Empirical Methods in Natural Language Processing.New York:EMNLP,2014: 1746-1751.

        [8] PAPINENI K,ROUKOS S,WARDd T,et al.Bleu: A Method for Automatic Evaluation of Machine Translation[C]//Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics.Philadelphia: Computational Linguistics,2002:311-318.

        猜你喜歡
        數(shù)據(jù)增強強化學習
        一種算法對于深層神經(jīng)網(wǎng)絡(luò)訓(xùn)練速度的提升
        基于深度學習網(wǎng)絡(luò)的乳腺癌圖片分類研究
        基于卷積神經(jīng)網(wǎng)絡(luò)的森林火災(zāi)煙霧探測算法研究
        基于深度網(wǎng)絡(luò)的車輛前后端圖像識別方法研究
        基于雙卷積神經(jīng)網(wǎng)絡(luò)的鐵路集裝箱號OCR
        計算機時代(2019年6期)2019-07-08 06:46:17
        基于卷積神經(jīng)網(wǎng)絡(luò)的圖像分類研究
        智能車自主避障路徑規(guī)劃研究綜述
        一種記憶可修剪型仿生機器人的速度跟蹤算法研究
        基于強化學習的在線訂單配送時隙運能分配
        論“以讀促寫”在初中英語寫作教學中的應(yīng)用
        成人偷拍自拍在线视频| 国产精品免费久久久久软件| 久操视频新免费伊人| 日本老年人精品久久中文字幕| 国产乱人伦偷精品视频还看的| 国产午夜av秒播在线观看| 洗澡被公强奷30分钟视频| 日韩一区二区不卡av| 日本一区二区三区在线视频播放| 久久精品国产99国产精品澳门| 日出水了特别黄的视频| 亚洲AV无码专区国产H小说 | 国产熟女自拍av网站| 2019最新中文字幕在线观看| 少妇的肉体k8经典| 久久无码高潮喷水抽搐| 男女搞事在线观看视频| 日韩精品久久久久久久电影蜜臀| 日韩视频第二页| 色婷婷久久99综合精品jk白丝| 91久久精品色伊人6882| 日韩有码在线一区二区三区合集| 国产成人一区二区三区| 草草影院ccyy国产日本欧美| 一本色道久久综合亚洲精品不卡| 久久亚洲午夜牛牛影视| 91精品人妻一区二区三区水蜜桃| 欧美精品videosex极品| 久久亚洲精品成人| 日韩av综合色区人妻| 国产欧美日韩va另类在线播放| 精品国产精品久久一区免费式| 日本一区二区在线资源| av日韩一区二区三区四区| 白又丰满大屁股bbbbb| 91青青草久久| 久草视频这里只有精品| 激情航班h版在线观看| 欧美xxxx新一区二区三区| 日韩精品中文字幕第二页 | 久久综合久久鬼色|