亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于TeleTransformer的AI時(shí)序預(yù)測(cè)算法實(shí)現(xiàn)

        2022-07-04 13:45:49段智華
        科學(xué)與財(cái)富 2022年8期

        摘 要: 本論文實(shí)現(xiàn)了一種基于TeleTransformer的AI時(shí)間序列動(dòng)態(tài)預(yù)測(cè)方法和系統(tǒng),以Transformer模型為基礎(chǔ),自研復(fù)現(xiàn)NLP論文注意力算法模塊,降低時(shí)間復(fù)雜度, 具有更強(qiáng)的長(zhǎng)期依賴建模能力,將研究成果應(yīng)用于通信運(yùn)營(yíng)商話務(wù)量等數(shù)據(jù)的AI時(shí)序預(yù)測(cè)。

        關(guān)鍵詞:Transformer;Attention;Encoder;Decoder;Time Series Prediction

        1 背景

        本文的研究成果應(yīng)用于通信運(yùn)營(yíng)商話務(wù)量、接通率、接通次數(shù)時(shí)序預(yù)測(cè),采用時(shí)間序列法對(duì)未來(lái)的話務(wù)量狀況進(jìn)行預(yù)測(cè),客觀地反映話務(wù)量的動(dòng)態(tài)變化趨勢(shì),從而對(duì)話務(wù)量網(wǎng)絡(luò)運(yùn)行價(jià)值進(jìn)行預(yù)測(cè),并對(duì)管理者的智能運(yùn)維決策起到指導(dǎo)作用,對(duì)實(shí)現(xiàn)正確決策具有十分重要的意義。

        2 標(biāo)準(zhǔn)Transformer算法

        標(biāo)準(zhǔn)Transformer算法是Google團(tuán)隊(duì)2017年在論文《Attention is All You Need》中提出的,Transformer算法近年來(lái)在NLP自然語(yǔ)言處理、計(jì)算機(jī)視覺(jué)領(lǐng)域取得了巨大的成功,在智能對(duì)話機(jī)器人領(lǐng)域具有廣泛的應(yīng)用前景,基于Transformer算法的對(duì)話系統(tǒng)的輕量級(jí)語(yǔ)言理解(Lightweight Language Understanding for Dialogue Systems)是意圖識(shí)別和實(shí)體信息抽取的統(tǒng)一框架、Dialogue Transformers面向多輪業(yè)務(wù)對(duì)話信息處理引入了Transformer Embedding Dialogue架構(gòu)的對(duì)話策略。Transformer算法由編碼器堆棧及解碼器堆棧組成,其構(gòu)建了多頭注意力模塊(Multi-Head Self Attention, MHA), 多頭注意力使Transformer模型可以關(guān)注來(lái)自不同位置子空間的不同表征的信息。

        3 TeleTransformer框架建設(shè)

        自研TeleTransformer框架實(shí)現(xiàn)了編碼器及解碼器架構(gòu),編碼器包括輸入嵌入層模塊,位置編碼層模塊、多頭注意力層模塊、正則化層模塊、前饋神經(jīng)網(wǎng)絡(luò)模塊;解碼器包括輸出嵌入層模塊,位置編碼層模塊、多頭注意力層(掩碼)模塊、正則化層模塊、前饋神經(jīng)網(wǎng)絡(luò)模塊、線性轉(zhuǎn)換模塊、Softmax層模塊。

        3.1 自研位置編碼層

        標(biāo)準(zhǔn)Transformer使用位置編碼(Position Encode/Embedding,PE),絕對(duì)位置編碼為序列中每個(gè)位置映射一個(gè)固定的位置向量,然后將嵌入詞向量和位置向量相加得到每個(gè)時(shí)序最終的輸入向量,作為編碼器和解碼器堆棧底部的輸入。自研TeleTransformer框架復(fù)現(xiàn)構(gòu)建了位置編碼模塊(Sinusoidal Position Encoding),采用三角函數(shù)式位置編碼 ,位置編碼的每個(gè)維度對(duì)應(yīng)一個(gè)正弦曲線,形成一個(gè)從2π到10000?2π的幾何級(jí)數(shù),使用正余弦函數(shù)實(shí)現(xiàn)位置編碼,在偶數(shù)位使用正弦編碼,在奇數(shù)位使用余弦編碼,獲取絕對(duì)位置信息和相對(duì)位置信息的表達(dá)能力,在輸入序列中注入序列的相對(duì)或絕對(duì)位置信息。

        3.2 自研注意力層

        自研AI時(shí)間序列預(yù)測(cè)框架對(duì)Transformer模型注意力機(jī)制進(jìn)行改進(jìn),提升算法運(yùn)行效率。標(biāo)準(zhǔn)Transformer模型在處理長(zhǎng)序列數(shù)據(jù)時(shí),受到自注意力模塊時(shí)間復(fù)雜度和內(nèi)存空間復(fù)雜度的限制,TeleTransformer對(duì)標(biāo)準(zhǔn)Transformer模型進(jìn)行改進(jìn),復(fù)現(xiàn)了輕量級(jí)注意力模塊(線性映射注意力模塊、稀疏注意力模塊、Nystr?m注意力模塊、Residual注意力模塊等)。

        4 TeleTransformer模型改進(jìn)實(shí)驗(yàn)

        基于TeleTransformer的AI時(shí)間序列動(dòng)態(tài)預(yù)測(cè)方法和系統(tǒng)實(shí)施例的模型改進(jìn)實(shí)驗(yàn)。對(duì)標(biāo)準(zhǔn)Transformer的改進(jìn),涉及位置編碼、多頭注意力層、正則化層、前饋神經(jīng)網(wǎng)絡(luò)及編碼器、解碼器架構(gòu)的改進(jìn),主要涉及自注意力部分的改進(jìn),降低自注意力部分計(jì)算的復(fù)雜度,學(xué)習(xí)到更長(zhǎng)序列的依賴關(guān)系。從實(shí)驗(yàn)中可以看出:自相關(guān)注意力取得較好的效果,降低時(shí)間復(fù)雜度至O(N), 能夠捕獲時(shí)間序列輸入輸出之間的長(zhǎng)依賴關(guān)系,TeleTransformer模型對(duì)激活函數(shù)較敏感,可以選擇Gelu等激活函數(shù)。

        5 結(jié)論及展望

        自從Google在2017發(fā)布Transformer論文以來(lái),以Transformer為核心的新一代NLP技術(shù)在短短的2年左右的時(shí)間就徹底革新了整個(gè)NLP領(lǐng)域,尤其是2018年的BERT極大的加速了這一革新進(jìn)程,無(wú)論是學(xué)術(shù)界還是工業(yè)界(Google、Amazon、Facebook、Alibaba、Tencent、ByteDance等)的近幾年NLP工作均是圍繞Transformer這個(gè)新一代的NLP架構(gòu)系統(tǒng)而展開(kāi)。人工智能領(lǐng)域具有全球廣泛影響力的科學(xué)家Andrew Ng在2021年回顧AI的最新進(jìn)展中甚至說(shuō) “Originally developed for natural language processing, transformers are becoming the Swiss Army Knife of deep learning.” 其明確表示就最新AI發(fā)展進(jìn)展表明Transformer已經(jīng)逐步實(shí)現(xiàn)了“One Architecture to Do Them All”的人工智能大一統(tǒng)趨勢(shì)。

        Transformer實(shí)現(xiàn)一種架構(gòu),統(tǒng)治一切,研究人員正將其發(fā)展至更廣闊的新領(lǐng)域,在智能對(duì)話機(jī)器人領(lǐng)域,Rasa是Conversational AI在智能業(yè)務(wù)對(duì)話領(lǐng)域工程落地全球最為成功對(duì)話機(jī)器人系統(tǒng),基于Transformer架構(gòu)實(shí)現(xiàn)了全球使用最廣泛的智能業(yè)務(wù)對(duì)話機(jī)器人框架。

        參考文獻(xiàn)

        [1] 《企業(yè)級(jí)AI技術(shù)內(nèi)幕:深度學(xué)習(xí)框架開(kāi)發(fā)+機(jī)器學(xué)習(xí)案例+Alluxio解密》 清華大學(xué)出版社 王家林、段智華

        [2]《Spark大數(shù)據(jù)商業(yè)實(shí)戰(zhàn)三部曲》第二版:清華大學(xué)出版社 王家林、段智華

        亚洲不卡中文字幕无码| 精品国产一区二区三区av麻| 插插射啊爱视频日a级| 被黑人猛烈30分钟视频| 亚洲日韩乱码中文无码蜜桃臀| 亚洲国产欧美另类va在线观看 | 日韩av在线免费观看不卡| 亚洲国产精品高清在线| 精品国产青草久久久久福利| 伊人蕉久中文字幕无码专区| 久久青草国产精品一区| 人妻少妇激情久久综合| 日本一区二区三区高清在线视频| 国产99久久久国产精品免费看| 在教室伦流澡到高潮hnp视频| 污污污国产免费网站| 亚洲视频观看一区二区| 色中文字幕在线观看视频| 又大又粗又爽18禁免费看| 日韩亚洲中字无码一区二区三区| 天堂岛国精品在线观看一区二区| 免费精品人妻一区二区三区| 成人免费看aa片| 国产精品免费久久久久影院仙踪林| 乱人伦中文字幕在线不卡网站| 国产一区二区三区再现| 无码国产精成人午夜视频一区二区| 少妇无码av无码专区| 欧美日韩色| 亚洲国产成人av第一二三区 | 日本精品一区二区在线看| 亚洲一区二区三区重口另类| 成年女人a级毛片免费观看| 久久亚洲中文字幕无码| 白丝美女被狂躁免费视频网站| 青青草视频在线免费视频| 色综合久久中文综合网亚洲| 亚洲 自拍 另类小说综合图区| 精品2021露脸国产偷人在视频| 日本精品人妻一区二区三区| 日本免费在线不卡一区二区|