亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        互信息深度稀疏自編碼融合DLSTM預測網(wǎng)絡

        2022-10-17 11:13:28李江坤黃海燕
        計算機工程與應用 2022年20期
        關鍵詞:深度模型

        李江坤,黃海燕

        華東理工大學 化工過程先進控制和優(yōu)化技術教育部重點實驗室,上海 200030

        在現(xiàn)代流程化工業(yè)生產(chǎn)過程中,對于生產(chǎn)安全、能源節(jié)約、改善產(chǎn)品質(zhì)量有著嚴格要求。這些指標很大程度上依賴長時間有效監(jiān)控和對質(zhì)量的生產(chǎn)調(diào)控。對于難以直接在線測量的關鍵變量通常采用軟測量的方法對數(shù)據(jù)進行在線處理預測[1-3]。軟測量成功應用于冶金工程、化工過程、生物工程和制藥工程等一些大型流程工業(yè)生產(chǎn)活動。

        軟測量技術可以劃分為主成分模型(白盒模型)和數(shù)據(jù)驅(qū)動模型(黑盒模型)。數(shù)據(jù)驅(qū)動建模以多變量統(tǒng)計和機器學習方法為主,如主成分回歸(PCR)[4-5]、偏最小二乘回歸(PLSR)[6-7]、支持向量回歸(SVR)[8]和人工神經(jīng)網(wǎng)絡(ANN)[9-10]。由于這些方法大多是淺層網(wǎng)絡結構,因而在一定程度上限制了非線性映射能力。

        相比于傳統(tǒng)的神經(jīng)網(wǎng)絡方法,深度神經(jīng)網(wǎng)絡DNN對于數(shù)據(jù)特征提取更加具有優(yōu)勢,在一定程度能夠捕捉到數(shù)據(jù)重要特征,也增強對非線性數(shù)據(jù)處理能力,例如文獻[11]采用深度置信網(wǎng)絡DBN對工業(yè)原油蒸餾裝置的95%重柴油臨界點進行估計。文獻[12]提出一種半監(jiān)督層疊式極限機學習網(wǎng)絡,用來提取標簽數(shù)據(jù)和無標簽數(shù)據(jù)的樣本特征信息。然而,大多數(shù)基于深度神經(jīng)網(wǎng)絡軟測量方法的假設條件是樣本獨立且同分布,但實際工業(yè)過程中變量之間存在動態(tài)和相互影響關系。因此,對于流程化工業(yè)生產(chǎn)過程動態(tài)建模至關重要。例如,線性動態(tài)系統(tǒng)[13]、動態(tài)偏最小二乘建模[14]。但淺層的動態(tài)特征提取方法對復雜且非線性的模型無法有效處理。最近,一些動態(tài)網(wǎng)絡方法如循環(huán)神經(jīng)網(wǎng)絡RNN[15]和長短期記憶網(wǎng)絡LSTM已經(jīng)被應用在工業(yè)軟測量建模任務中[16]。其中,LSTM網(wǎng)絡通過增加三個控制門構建細胞記憶單元,從而解決傳統(tǒng)RNN網(wǎng)絡梯度爆炸和梯度消失問題。LSTM網(wǎng)絡也能夠?qū)W習序列數(shù)據(jù)的內(nèi)部獨立性與相關性,因此適用于動態(tài)建模。文獻[17]采用長短期記憶網(wǎng)絡提取間歇過程質(zhì)量預測的動態(tài)信息。文獻[15]基于高斯-伯努利約束玻耳茲曼機(GRBM)和遞歸神經(jīng)網(wǎng)絡(RNN),采用概率序列網(wǎng)絡(PSN)融合無監(jiān)督特征數(shù)據(jù)的提取和有監(jiān)督動態(tài)建模方法,提高建模精度。文獻[18]結合空間相關性提出大氣污染物濃度預測的記憶擴展LSTM模型。文獻[19]通過引入目標變量,提出帶監(jiān)督的長短期記憶(SLSTM)網(wǎng)絡用于工業(yè)過程質(zhì)量預測。借鑒圖像處理深度CNN卷積神經(jīng)網(wǎng)絡[20]中卷積、池化、卷積等重復深度操作,以達到對數(shù)據(jù)深度特征提取。本文對多變量數(shù)據(jù)通過深度編碼解碼方法進而提取深度特征。首先將原有稀疏自編碼器由原來的單隱層進行擴展至多隱層,并引入互信息因子作為重構損失權重,以此保證提取特征有效性,采用稀疏自編碼器目的在于增加對數(shù)據(jù)特征提取的魯棒性,然后搭建多個互信息堆疊稀疏自編碼器,并將隱層進行遷移得到互信息深度堆疊稀疏自編碼特征提取網(wǎng)絡??紤]數(shù)據(jù)動態(tài)性和LSTM網(wǎng)絡對序列數(shù)據(jù)的數(shù)據(jù)處理優(yōu)勢,本文改進原有LSTM網(wǎng)絡的架構,融合Bi-LSTM網(wǎng)絡對數(shù)據(jù)動態(tài)特征的處理能力,提出一種深度DLSTM序列數(shù)據(jù)預測模型。

        1 互信息深度堆疊稀疏自編碼器

        1.1 堆疊稀疏自編碼器

        稀疏自編碼器[21-22]通過單隱含層將輸入數(shù)據(jù)進行高維特征映射,單隱層的結構可以減少網(wǎng)絡待定參數(shù),加快網(wǎng)絡訓練速度,但網(wǎng)絡較淺的隱含層不能夠?qū)W習到原始數(shù)據(jù)中深層隱含特征,本文對稀疏自編碼器進行改進,將編碼器隱層進行多層擴展,將普通稀疏編碼器改進為堆疊稀疏編碼器[23],結構如圖1所示。首先輸入層接收原始輸入數(shù)據(jù)x∈Rd,其中d表示輸入樣本的特征維數(shù),將數(shù)據(jù)進行非線性變換到第一個隱含層h1∈Rs1,s1為第一隱含層的神經(jīng)元數(shù)目,隱含層的輸出為h1:

        圖1 堆疊稀疏自編碼器Fig.1 Stacked sparse auto-encoder

        其中,W1代表輸入層與第一個隱含層連接權重矩陣,b1為第一個隱含層的偏置向量,f(·)表示激活函數(shù),第二個隱含層記為h2,該層的輸出記為h2=f(W2h1+b2),以此類推,可進行多個隱含層的搭建連接,最后的隱含層記為hn,輸出為hn=f(Wnhn-1+bn),網(wǎng)絡最后連接的是重構輸出層x?,其輸出為x?=Wohn+bo,Wo代表最后一個隱含層與輸出重構層連接權重矩陣,bo為網(wǎng)絡最后一層偏置向量。

        堆疊稀疏編碼網(wǎng)絡計算公式如下:

        x代表網(wǎng)絡輸入數(shù)據(jù),x?代表網(wǎng)絡輸出數(shù)據(jù),HW,b(·)為整個稀疏自編碼器映射函數(shù),稀疏自編碼器的網(wǎng)絡結構參數(shù)訓練主要通過最小化損失函數(shù)進行優(yōu)化,損失函數(shù)公式如下:

        整個網(wǎng)絡參數(shù)通過L-BFGS算法進行得出,目的將損失函數(shù)達到最小值,其中公式(3)第一項代表誤差平方和,其作用是將整個稀疏自編碼器的重構誤差和達到最小,損失函數(shù)的第二項是正則項,也稱作權重系數(shù)衰減項,該項的作用是避免過擬合現(xiàn)象發(fā)生,正則項的系數(shù)記為λ1,損失函數(shù)的最后一項代表隱含層的稀疏懲罰項,β是該項的系數(shù)。L是整個稀疏自編碼器的中間隱層和輸出層層數(shù)總和,Wl代表第l層的每個神經(jīng)元與第l+1層連接神經(jīng)元的權重矩陣,s是隱含層的神經(jīng)元個數(shù),其中KL(ρ||ρ?j)散度衡量兩個分布的差異,計算公式如下:

        ρ是稀疏參數(shù),通常設置很小接近于0,在稀疏自編碼器中ρ?j代表隱含層其中第j神經(jīng)元的平均激活程度,計算公式如下:

        其中,aj表示隱層第j個神經(jīng)元的激活函數(shù)輸出。

        1.2 互信息深度堆疊稀疏自編器

        互信息[24]是衡量變量之間相關性的指標,具體定義如下:

        其中,p(x,y)是x,y的聯(lián)合概率密度,p(x)、p(y)分別代表x、y的邊緣概率密度,進一步引入香農(nóng)熵定義:

        得到x、y對應的聯(lián)合香農(nóng)熵如下公式:

        結合以上公式,得到互信息的簡化公式:

        互信息深度堆疊稀疏自編碼器是一種深度網(wǎng)絡,其網(wǎng)絡組件為互信息堆疊稀疏自編碼器,首先搭建單個互信息堆疊稀疏自編碼器,設置中間隱含層數(shù)為L,每個隱含層神經(jīng)元數(shù)目記為s,輸入層與重構輸出層的神經(jīng)元數(shù)目相等,都為輸入樣本的特征維數(shù)d,網(wǎng)絡損失函數(shù)如下:

        互信息權重ωn的計算如下:

        經(jīng)過逐層迭代的預訓練確定單個堆疊稀疏自編碼器的各層權重參數(shù)Wl和偏置參數(shù)bl,然后將上述過程中搭建好的單個堆疊稀編碼器進行遷移,遷移部分是每個稀疏自編碼器的隱含層部分,具體遷移結構如圖2所示。這里對整個深度堆疊自編碼器再進行微調(diào),損失函數(shù)定義如下:

        其中,L代表堆疊稀疏自編碼器遷移到深度堆疊稀疏自編碼器的隱含層數(shù)目,K是堆疊稀疏自編碼器個數(shù),Hθ(·)表示深度堆疊自編碼器映射關系,θ代表所有的網(wǎng)絡權重連接矩陣以及偏置參數(shù)。在圖2中,每一個預訓練的堆疊自編碼中隱層采用不同顏色標記,深度堆疊自編碼器內(nèi)部的網(wǎng)絡則由帶有顏色隱層進行遷移堆疊組成,在這一階段整個網(wǎng)絡只需要微調(diào)參數(shù)就可以達到收斂效果。

        圖2 互信息深度堆疊稀疏自編碼Fig.2 Mutual information deep stack sparse auto-encoder

        2 深度DLSTM網(wǎng)絡

        2.1 LSTM

        LSTM網(wǎng)絡[25]采用一種復雜的細胞結構,其能夠?qū)W習并處理長時期序列數(shù)據(jù)的復雜關系。LSTM細胞機制中存在三個主要的構件,稱為輸入門,遺忘門和輸出門,在整個LSTM網(wǎng)絡運行時,三個門能夠控制整個信息流的存儲和流向,LSTM神經(jīng)元的結構如圖3所示。

        圖3 LSTM神經(jīng)元Fig.3 LSTM neuron

        從圖3中的結構可以看到每一個LSTM細胞結構中在t時刻都包含三個輸入信息,分別是上一時刻細胞的狀態(tài)信息C(t-1),細胞隱藏狀態(tài)信息h(t-1)和當前時刻的輸入信息x(t),對于當前t時刻LSTM細胞的計算輸出如下,遺忘門f(t)的計算為:

        輸入門i(t):

        輸出門o(t):

        其中,σ是sigmoid激活函數(shù),計算公式如下:

        tanh代表雙曲正切函數(shù),計算公式如下:

        Wfx代表輸入數(shù)據(jù)與遺忘門連接的權重矩陣,Wix是輸入數(shù)據(jù)與輸入門連接的權重矩陣,Wox是輸入數(shù)據(jù)與輸出門連接的權重,Wcx是輸入數(shù)據(jù)與內(nèi)部細胞狀態(tài)門連接的權重矩陣。與之對應,Wfh、Wih、Woh、Wch表示上一時刻LSTM細胞隱藏狀態(tài)信息h(t-1)與各個門連接的權重矩陣。

        關于LSTM記憶細胞內(nèi)部狀態(tài)輸出C(t)和細胞隱含狀態(tài)輸出h(t)在當前t時刻的計算如下:

        2.2 深度長短期記憶網(wǎng)絡DLSTM

        Bi-LSTM雙向長短期記憶網(wǎng)絡[26]是基于LSTM網(wǎng)絡構成,其內(nèi)部分別引入前向傳輸輸入序列和逆向傳輸輸入序列,Bi-LSTM具體結構如圖4所示。

        圖4 Bi-LSTM網(wǎng)絡結構Fig.4 Bi-LSTM network

        同樣,反向序列的計算如下:

        傳統(tǒng)LSTM模型能夠很好地去處理大多數(shù)序列問題。例如在文本任務中,編碼層能夠?qū)⒁欢卧捵儞Q成一個固定長度的文本向量,然后再將這個文本向量進行輸出解碼得到一串輸出文字,這種單層LSTM網(wǎng)絡結構連接權重可以共享,且結構可以重復,帶來較快迭代速度。但由于其網(wǎng)絡結構是單層的,對于數(shù)據(jù)動態(tài)特征進行捕捉和記憶由于受到網(wǎng)絡單層結構的限制,本文改進普通LSTM長短期記憶網(wǎng)絡為深度DLSTM網(wǎng)絡結構,通過增加網(wǎng)絡的記憶細胞深層次結構以此增強網(wǎng)絡對數(shù)據(jù)動態(tài)特征的緩存記憶能力。

        結合上述改進方案,并考慮到現(xiàn)實工業(yè)系統(tǒng)產(chǎn)生的工況數(shù)據(jù)為前后有較強相關關系的序列化特征數(shù)據(jù),單向數(shù)據(jù)輸入的LSTM網(wǎng)絡結構只能建立單一序列預測模型,對于其中的數(shù)據(jù)動態(tài)變化并不能夠較好地建立數(shù)據(jù)特征背后深度預測模型,本文引入雙向Bi-LSTM模型使得對于序列化特征數(shù)據(jù)的處理更加高效,通過對數(shù)據(jù)進行雙向輸入來動態(tài)融合序列的多維度信息,具體信息融合算法由計算公式(23)~(28)處理。

        本文提出深度DLSTM網(wǎng)絡,其結構如圖5所示。

        圖5 DLSTM網(wǎng)絡結構Fig.5 DLSTM neural network

        改進原有LSTM網(wǎng)絡提出深度DLSTM長短期記憶網(wǎng)絡,采用雙層雙向LSTM迭代設計結構,該結構中第一層Bi-LSTM中前向輸出如下:

        反向輸出:

        其中,x(t)、x′(t)分別為正向輸入序列和反向輸入序列,Wn?x為輸入序列與n?連接權重,Wn?h為隱含狀態(tài)與n?連接權重,bn?為對應的偏置向量。將雙向隱層狀態(tài)n?1(t)和n?′1(t)合并得到第一層Bi-LSTM輸出:

        對于第二層Bi-LSTM前向序列輸出計算如下:

        逆向輸出計算:

        得到第二層Bi-LSTM輸出:

        每個Bi-LSTM細胞內(nèi)記憶細胞的隱含狀態(tài)信號為Bi-LSTM網(wǎng)絡的主要信息流,該通道將維持和記憶淺層數(shù)據(jù)信息。對于第二層也采用Bi-LSTM網(wǎng)絡,輸入信號為第一層的隱含狀態(tài)信號o?1,第二層Bi-LSTM網(wǎng)絡的主要功能是將第一層提取的表層數(shù)據(jù)信息進行二次深度提取,這樣做的目的是將第一層的隱含狀態(tài)信號o?1中包含的高階動態(tài)信息進行篩選。將第二層Bi-LSTM網(wǎng)絡得到的o?2信息輸入到第三層LSTM網(wǎng)絡層,得到該層輸出為o3(t),具體計算如下。

        控制遺忘門:

        輸入門:

        輸出門:

        細胞內(nèi)部狀態(tài)信息:

        輸出計算如下:

        最后將o3進行全連接層映射,得到最終預測結果:

        Wyo是全連層接輸出權重向量,bo是偏置參數(shù)。

        3 MI-DSSAE-DLSTM預測模型

        MI-DSSAE-DLSTM建模過程分為兩個部分,分別是搭建互信息深度堆疊稀疏編碼器MI-DSSAE數(shù)據(jù)特征模型和DLSTM模型。首先是對原始數(shù)據(jù)進行編碼,先進行單個稀疏編碼器的構造和訓練,得到多個不同的稀疏編碼隱含層,每個稀疏編碼器預訓練根據(jù)損失公式(10)通過誤差反向傳播SGD梯度下降優(yōu)化網(wǎng)絡參數(shù),將得到的單個稀疏編碼器的隱含層進行遷移到深度迭代稀疏編碼器中,再對整個MI-DSSAE網(wǎng)絡進行微調(diào)。本文采用互信息深度稀疏自編碼器是考慮到在工業(yè)現(xiàn)場實際采集的數(shù)據(jù)具有高噪聲、高維度等特點,普通單層自編碼器無法有效映射出因變量與自變量之間的非線性關系,采用深度策略一定程度上增加編碼器對于非線性數(shù)據(jù)特征提取的有效性,滿足非線性映射需求,而誤差函數(shù)中的稀疏項可以緩解高噪聲數(shù)據(jù)帶來的影響,最后加入互信息權重指標來保證采用深度稀疏自編碼提取的數(shù)據(jù)特征與最后預測的關鍵質(zhì)量變量之間相關性。

        DLSTM的網(wǎng)絡架構包括兩個Bi-LSTM層,一個LSTM層和全連接輸出預測層,搭建整個MI-DSSAEDLSTM網(wǎng)絡流程如圖6所示。

        圖6 MI-DSSAE-DLSTM建模Fig.6 MI-DSSAE-DLSTM neural network modeling

        算法實現(xiàn)過程如圖7所示:

        (1)將工業(yè)傳感器采集的數(shù)據(jù)進行歸一化預處理,歸一化準則采用z-score,得到預處理后的數(shù)據(jù)Xn=

        (2)設置每個堆疊稀疏編碼器的隱層數(shù)目L,初始化堆疊稀疏自編碼器SAE1、SAE2、SAE3,對每個稀疏自編碼器進行參數(shù)訓練,得到的隱層單元H1、H2、H3。

        (3)遷移H1、H2、H3網(wǎng)絡層,搭建互信息深度堆疊稀疏自編碼器MI-DSSAE,并得到編碼后數(shù)據(jù)是編碼后數(shù)據(jù)特征維數(shù)。

        (4)設置雙層Bi-LSTM網(wǎng)絡,LSTM和預測輸出全連接網(wǎng)絡的結構,初始化各個網(wǎng)絡層的參數(shù)。

        (5)將經(jīng)過互信息深度堆疊稀疏自編碼處理過的新特征輸入數(shù)據(jù)輸入到雙向Bi-LSTM網(wǎng)絡中,雙向Bi-LSTM網(wǎng)絡的細胞狀態(tài)C0、h0和根據(jù)公式(23)~(34)計算得到輸入門、遺忘門、細胞隱含信息、細胞狀態(tài)信息,輸出記為o1(t)。

        (6)將o1(t)輸入第二層Bi-LSTM網(wǎng)絡中,得到該層網(wǎng)絡狀態(tài)輸出信號o2(t)。

        (7)將單層LSTM的序列輸出o3(t)作為全連接層的輸入,進行特征加權計算得到最后輸出y(t)。

        (8)計算網(wǎng)絡輸出與真實值的差異損失,通過梯度下降SGD算法對整個DLSTM網(wǎng)絡參數(shù)更新迭代。

        4 算法案例

        4.1 數(shù)據(jù)集

        脫丁烷塔是石油化工廠重要精煉單元[20],旨在分裂石腦油和脫硫[21]。該過程主要包括六種裝置:頂置冷凝器、熱交換器、塔頂回流泵、底部再沸器、回流蓄能器和給水泵液化石油氣分離器。其中石腦油流中有丁烷(C4)需要除去,因此需要及時監(jiān)測丁烷(C4)含量變化。在生產(chǎn)過程中,收集7個相關過程變量用于建模預測丁烷(C4)含量,具體過程變量如圖8所示。

        圖8 模型自變量Fig.8 Independent variables for modeling

        模型評價指標選取均方根誤差RMSE(root mean squared error)、決定系數(shù)R2(R-square)和平均絕對誤差MAE(mean absolute error),計算公式如下:

        數(shù)據(jù)集共包含2 394個樣本,劃分樣本為訓練集前1 000個,測試集為后1 394個。在進行模型搭建和訓練之前,對數(shù)據(jù)進行歸一化處理,以降低模型訓練時間,并解決梯度爆炸問題,同時保證量綱統(tǒng)一。對于MI-DSSAE自編碼器的編碼數(shù)據(jù)采用z-score方法對數(shù)據(jù)進行預處理:

        x是原始數(shù)據(jù),μ、σ是原始數(shù)據(jù)的均值標準差,z是歸一化后的數(shù)據(jù)。

        4.2 模型參數(shù)設置

        設置互信息堆疊稀疏自編碼器隱含層數(shù)分別為[2,3,4,5],訓練batch為32個,epoch為30次,經(jīng)過K折交叉驗證,對于不同隱層結構互信息堆疊稀疏自編碼器的訓練損失如圖9所示。由圖中可以看出不同隱層結構都可以保持收斂效果,當隱層數(shù)目取得3層效果最優(yōu),且訓練數(shù)據(jù)損失迭代較快,為保證采用3層隱層自編碼結構的有效性,將互信息深度稀疏自編碼器在測試數(shù)據(jù)上進行重構誤差測試,結果如圖10所示。因此本文采用堆疊稀疏自編碼器隱層數(shù)目為3層。構建互信息堆疊稀疏自編碼器結構為[7,20,20,20,7],其中7代表輸原始數(shù)據(jù)維數(shù),20代表隱層神經(jīng)元數(shù)目。搭建深度稀疏堆疊自編碼器,其內(nèi)部隱含層由預訓練好的互信息堆疊稀疏自編碼器構成,深度堆疊稀疏自編碼器結構和各層參數(shù)設置如表1所示。圖11表明互信息深度堆疊稀疏自編碼器訓練數(shù)據(jù)重構誤變化曲線差經(jīng)過微調(diào)很快達到收斂效果,且保持較低誤差。誤差收斂的原因在誤差梯度下降算法有效性和采用多層的自編碼結構在一定程度上可以映射出原始數(shù)據(jù)更加豐富的多維度非線性特征,尤其對于工業(yè)高維度、高噪聲數(shù)據(jù),其數(shù)據(jù)深度特征提取尤為重要,保持較低的重構損失在于稀疏項的對噪聲抑制能力以及本文引入互信息權重因子保留用于建模的高質(zhì)量特征參數(shù)。

        圖11 互信息深度堆疊稀疏編碼器微調(diào)訓練損失Fig.11 Fine tuning training loss of mutual information deep stacked sparse encoder

        表1 互信息深度堆疊稀疏編碼器結構Table 1 Mutual information deep stack sparse encoder structure

        圖9 不同隱層互信息堆疊稀疏編碼器訓練損失Fig.9 Training loss of stacked sparse auto-encoder with different hidden layer based on mutual information

        圖10 不同隱層互信息堆疊稀疏編碼器測試數(shù)據(jù)重構誤差Fig.10 Reconstruction error of testing dataset of stacked sparse encoder with different hidden layers

        將上述預訓練好的堆疊稀疏自編碼器進行深度堆疊,將其中的隱層進行遷移抽取微調(diào),得到互信息深度堆疊稀疏自編碼器。

        在本實驗中,參數(shù)的選擇使用貝葉斯調(diào)參方法,每次實驗選取一組參數(shù)用來矯正后驗概率的評估,且貝葉斯調(diào)參每次迭代過程會融合上次參數(shù)信息,具有迭代速度更快。確定DLSTM的網(wǎng)絡層如表2所示,網(wǎng)絡第一層和第二層都為Bi-LSTM,其中每層LSTM輸出單元個數(shù)為4,第三層為單向LSTM,其輸出神經(jīng)元個數(shù)為4,最后連接全連接層連接預測輸出。時間窗大小設為5,每個時間窗內(nèi)包含7個影響因素和窗口內(nèi)最后時刻的丁烷C4含量。

        表2 DLSTM模型結構Table 2 DLSTM model structure

        4.3 實驗仿真驗證

        實驗首先基于原始數(shù)據(jù)進行建模,為了驗證DLSTM的模型性能,本文同時引入RNN、LSTM、GRU等方法與本文提出的DLSTM方法進行對比,預測誤差如表3所示。

        表3 不同方法預測結果Table 3 Prediction results of different methods

        從表3可以看出,DLSTM模型具有更好的預測性能,RMSE值 為0.069 0,R2值 為0.872 0,MAE值 為0.039 4,在其他對比的方法中,LSTM模型預測誤差RMSE值為0.074 6,R2值為0.850 1,MAE值為0.032 9。圖12給出了不同模型真實變化曲線與預測曲線的對比效果。其中,RNN和L-STM的預測效果較差,在小波動預測細節(jié)上并未表現(xiàn)出良好的預測性能,對于C4含量較大波動情況總出現(xiàn)預測值偏差較大,而GRU方法對預測峰值波動變化較大的情況時,不能較好地預測C4含量的突變趨勢,DLSTM模由于融入Bi-LSTM雙向記憶細胞單元,將輸入的序列數(shù)據(jù)進行雙向并進行深度提取,融合多層信息模型表現(xiàn)出更好的預測性能。為了驗證本文互信息深度堆疊稀疏編碼器的編碼特征效果,本文現(xiàn)將MI-DSSAE互信息深度堆疊稀疏編碼器與上述方法進行結合,不同方法預測誤差如圖13所示。當預測值分布在紅線周圍是較為理想的預測結果。

        圖12 不同模型真實曲線與預測曲線對比Fig.12 Comparison of real and predicted curves in different models

        從圖13得出,MI-DSSAE-RNN、MI-DSSAE-GRU和MI-DSSAE-LSTM等模型的預測值大多數(shù)位于紅色擬合線真實值的單側(cè),帶來較大預測誤差,而MI-DSSAEDLSTM模型的預測值較多能夠聚集在真實值左右附近,即更多預測值落在擬合紅色直線上,表現(xiàn)出更準確的預測性能。最后,本文將上述所有的方法進行對比,結果如表4所示。從表4結果可以得出經(jīng)過MI-DSSAE網(wǎng)絡對數(shù)據(jù)特征提取比未加特征提取的預測模型預測的準確度高,相比原來相同的預測方法有著不同程度的提高,其中MI-DSSAE-RNN的RMSE誤差指標方法降低32.8%,MI-DSSAE-GRU的RMSE誤差指標降低19.5%,MI-DSSAE-LSTM的RMSE誤差指標降低5.6%,本文提出的MI-DSSAE-DLSTM建模方法的誤差指標在所有對比方法中達到最優(yōu),RMSE誤差為0.046 7,R2值為0.941 4,MAE值為0.032 2。

        圖13 結合MI-DSSAE編碼的不同預測模型結果對比Fig.13 Comparison of results of different prediction models combined with MI-DSSAE encoding

        表4 不同模型預測誤差對比表Table 4 Comparison of prediction errors of different models

        5 結束語

        本文為了解決流程化工業(yè)生產(chǎn)中由于各個參數(shù)變量之間存在相互影響和動態(tài)變化特性,針對序列數(shù)據(jù)預測關鍵變量精度下降問題,首先對多變量動態(tài)序列數(shù)據(jù)提出一種深度堆疊稀疏編碼器結構的深度特征提取模型,為保證提取特征的有效性,加入互信息權重因子對損失函數(shù)進行限制,對于提取的隱含深度特征信息,建立深度長短記憶DLSTM模型,充分捕捉動態(tài)數(shù)據(jù)的變化特性,并進行預測。通過脫丁烷塔實際工業(yè)案例進行模型驗證,為增加方法對比性和有效性,引入RNN、GRU、LSTM以及MI-DSSAE-RNN、MI-DSSAE-GRU、MI-DSSAE-LSTM與本文模型進行對比,本文模型表現(xiàn)出較好的預測精度,為工業(yè)流程化生產(chǎn)時的監(jiān)控預測提供有效方法和參考方案。

        猜你喜歡
        深度模型
        一半模型
        深度理解一元一次方程
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權M-估計的漸近分布
        深度觀察
        深度觀察
        深度觀察
        深度觀察
        3D打印中的模型分割與打包
        FLUKA幾何模型到CAD幾何模型轉(zhuǎn)換方法初步研究
        朝鲜女子内射杂交bbw| 国产精品国产av一区二区三区| 在线精品亚洲一区二区动态图| 国产免费人成视频在线观看| 在线免费观看国产精品| 中文人妻av大区中文不卡 | 亚洲国产午夜精品理论片在线播放| 亚洲欲色欲香天天综合网| 日韩av在线不卡一区二区三区| 一区二区三区四区黄色av网站| 人妻少妇久久中文字幕| 无码三级在线看中文字幕完整版| 国产成人cao在线| 激情五月六月婷婷俺来也| 国产精品私密保养| 少妇特黄a一区二区三区| 久久男人av资源网站无码| 女同另类专区精品女同| 国产人妻高清国产拍精品| 真实单亲乱l仑对白视频| 999久久66久6只有精品| 伊人久久大香线蕉av色婷婷| 亚洲精品电影院| 99久久99久久精品国产片果冻| 精品一区二区三区在线视频观看| 日本三区在线观看视频| 久久午夜羞羞影院免费观看| 国产精品美女久久久浪潮av| 91久国产在线观看| 日本不卡一区二区三区在线视频| 欧美人与动人物牲交免费观看久久| 精品国产自产久久久| 久久综合老鸭窝色综合久久| 四虎影在永久在线观看| 亚洲 自拍 另类 欧美 综合| 亚洲人成无码网站十八禁| 国产91久久麻豆黄片| 激情第一区仑乱| 色综合久久精品中文字幕| 日韩AV无码免费二三区| 99久久免费精品色老|