亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        融合注意力機制與LSTM 的建筑能耗預(yù)測模型研究

        2021-10-28 07:50:54邵必林史洋博
        軟件導刊 2021年10期
        關(guān)鍵詞:能耗神經(jīng)網(wǎng)絡(luò)機制

        邵必林,史洋博,趙 煜

        (西安建筑科技大學管理學院,陜西西安 710055)

        0 引言

        隨著經(jīng)濟社會的快速發(fā)展,建筑規(guī)模不斷增大,建筑能耗也逐年增長。國際能源署(International Energy Agency,IEA)發(fā)布了《2018-2040 能源效率分析及展望》[1],指出2017 年建筑能耗占全球能耗的30%左右,而且在未來一段時期內(nèi)仍會持續(xù)增長。建筑能耗預(yù)測是實現(xiàn)建筑節(jié)能的前提,相對準確、有效、合理的建筑能耗預(yù)測模型是節(jié)能與控制能耗的基礎(chǔ)。未來建筑能耗呈現(xiàn)較大的不確定性,如何評估和預(yù)測建筑能耗,對于電能需求響應(yīng)、電網(wǎng)實時平衡具有重要作用。

        目前,建筑能耗預(yù)測方法主要分為工程方法和數(shù)據(jù)驅(qū)動方法。傳統(tǒng)的工程方法主要利用物理學對建筑整體和子組件能源消耗進行計算。Fumo 等[2]應(yīng)用度日法并結(jié)合動態(tài)城市氣象模型計算建筑物的能源預(yù)算,結(jié)果表明其計算準確率優(yōu)于其他方法;許馨尹等[3]應(yīng)用EnergyPlus 軟件對西安高層住宅及辦公建筑進行氣候變化下的建筑能耗動態(tài)模擬并進行定量分析,發(fā)現(xiàn)隨著氣候的變化建筑能耗有所不同;Jahanshahi 等[4]利用EnergyPlus 軟件模擬能耗輸出變量,并結(jié)合能耗小時分布情況預(yù)測建筑能耗,實例中每小時誤差值在10%以內(nèi)。但這些工程方法是將精確的建筑自身結(jié)構(gòu)參數(shù)和外部環(huán)境參數(shù)作為仿真工具的輸入數(shù)據(jù),數(shù)據(jù)獲取難度大、成本高。

        數(shù)據(jù)驅(qū)動方法主要包括傳統(tǒng)的統(tǒng)計回歸、機器學習以及深度學習等方法。大多數(shù)建筑能耗預(yù)測方法都是基于時間序列數(shù)據(jù)分析,常見的時間序列預(yù)測模型有自回歸模型(Autoregressive model,AR)和整合移動平均自回歸模型(Autoregressive Integrated Moving Average model,ARIMA)。Lazos 等[5]使用ARIMA 模型對歐洲國家的住宅能耗進行預(yù)測,對結(jié)果進行分析后發(fā)現(xiàn)ARIMA(0,1,1)模型的預(yù)測精度最高;Fumo 等[6]建立了線性和多元線性回歸模型對TXAIR 研究所的小時和日能耗數(shù)據(jù)進行分析,案例結(jié)果表明,隨著數(shù)據(jù)觀測間隔的增加,回歸模型的預(yù)測精度也會提升;Amber 等[7]通過6 個環(huán)境變量建立多元回歸模型對教學樓用電能耗進行預(yù)測,結(jié)果表明,環(huán)境溫度和建筑類型以及工作日因素對建筑能耗影響顯著。基于時間序列和回歸的預(yù)測方法易于使用和開發(fā),但在處理非線性問題時具有局限性以及缺乏靈活性。

        為了避免統(tǒng)計回歸方法處理非線性問題的局限性,機器學習方法逐漸被學者廣泛使用。Neto 等[8]通過Energy-Plus 能耗模擬軟件和簡單的人工神經(jīng)網(wǎng)絡(luò)模型進行建筑能耗預(yù)測,結(jié)果表明人工神經(jīng)網(wǎng)絡(luò)模型比EnergyPlus 軟件的預(yù)測精度更高;李嘉玲等[9]對公共建筑用電能耗特性進行了分析,構(gòu)建BP(back propagation,BP)神經(jīng)網(wǎng)絡(luò)建筑能耗預(yù)測模型,確定超參數(shù)后的預(yù)測模型能夠精準預(yù)測公共建筑用電能耗值;早在2004 年,Dong 等[10]就使用支持向量機(Support Vector Machine,SVM)模型對新加坡地區(qū)的四座商業(yè)建筑進行能耗預(yù)測,實驗中SVM 模型的預(yù)測結(jié)果方差小于3%,誤差小于4%;吳賢國等[11]在BIM 模型中導入能耗分析軟件獲取能耗數(shù)據(jù)集,在此基礎(chǔ)上通過最小二乘支持向量機進行預(yù)測,結(jié)果表明最小二乘支持向量機模型的預(yù)測結(jié)果相較BP 神經(jīng)網(wǎng)絡(luò)更優(yōu)。盡管機器學習方法在建筑能耗預(yù)測中應(yīng)用廣泛,但當數(shù)據(jù)樣本過大時支持向量機無法得到很好的預(yù)測效果,人工神經(jīng)網(wǎng)絡(luò)會出現(xiàn)過擬合問題。

        傳感器和建筑能耗監(jiān)測系統(tǒng)的普及使得建筑能耗數(shù)據(jù)大規(guī)模增加,這提升了深度學習在建筑能耗預(yù)測中的適用性。Marino 等[12]研究了基于長短時神經(jīng)網(wǎng)絡(luò)(Long Short-term Memory Networks,LSTM)的seq2seq 模型,使用UCI 數(shù)據(jù)集進行試驗,結(jié)果表明seq2seq-LSTM 預(yù)測模型在不同時間粒度數(shù)據(jù)集上表現(xiàn)良好;Kim 等[13]利用卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,CNN)層提取多個建筑能耗變量之間的空間特征,LSTM 層對時間序列數(shù)據(jù)進行建模,所提出的CNN-LSTM 模型可以有效預(yù)測建筑能耗數(shù)據(jù)中的不規(guī)則趨勢,相較于其他機器學習方法在不同時間粒度上都顯示出最優(yōu)性能;李輝等[14]通過粒子群算法對循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,RNN)參數(shù)進行優(yōu)化,實驗結(jié)果表明改良后的PSO(Particle Swarm Optimization,PSO)-RNN 模型在電力負荷預(yù)測精度上有明顯提升;Zagrebina 等[15]分析了氣候因素、工作日因素以及預(yù)測地區(qū)行業(yè)的特殊性,建立基于循環(huán)神經(jīng)網(wǎng)絡(luò)的能耗預(yù)測模型,與應(yīng)用廣泛的時間序列預(yù)測方法進行對比,結(jié)果顯示該模型的預(yù)測結(jié)果更為準確。

        盡管循環(huán)神經(jīng)網(wǎng)絡(luò)被廣泛應(yīng)用于能耗預(yù)測,但傳統(tǒng)的循環(huán)神經(jīng)網(wǎng)絡(luò)方法預(yù)測時關(guān)注的重點都是輸入序列的選擇,未考慮到不同位置的輸入序列對于預(yù)測結(jié)果的影響程度。注意力機制(Attention Mechanism)最早應(yīng)用于機器翻譯,可對神經(jīng)網(wǎng)絡(luò)隱層單元分配不同的權(quán)重,使得隱藏層能夠關(guān)注更為關(guān)鍵的信息,這種思想被許多學者借鑒用于時間序列預(yù)測[16];彭文等[17]通過最大信息系數(shù)法分析了電價與當前時刻負荷的相關(guān)性,在此基礎(chǔ)上將注意力機制與LSTM 神經(jīng)網(wǎng)絡(luò)相結(jié)合建立短期負荷預(yù)測模型,實證結(jié)果顯示該模型的預(yù)測精度和魯棒性要優(yōu)于SVM 模型;谷麗瓊等[18]將Attention 機制加入到股票預(yù)測模型中,結(jié)果表明基于Attention 機制的門控制循環(huán)單元(Gated Recurrent Unit,GRU)模型在MAPE(Mean Absolute Percentage Error)、均方根誤差(Root Mean Squared error,RMSE)和R2分數(shù)評價指標上均優(yōu)于其他模型;Hollis 等[19]在金融時間序列上將LSTM模型和Attention-LSTM 模型進行對比,在Kaggle two sigma數(shù)據(jù)集上的實驗結(jié)果表明,Attention-LSTM 模型預(yù)測結(jié)果確實優(yōu)于LSTM 模型。

        相較于傳統(tǒng)工程方法和機器學習方法,循環(huán)神經(jīng)網(wǎng)絡(luò)由于其特殊的網(wǎng)絡(luò)結(jié)構(gòu),可以學習到數(shù)據(jù)長期的依賴關(guān)系,在時間序列預(yù)測上可以獲得更好的預(yù)測結(jié)果。但傳統(tǒng)的循環(huán)神經(jīng)網(wǎng)絡(luò)方法未考慮不同位置的輸入序列對預(yù)測結(jié)果的影響程度,無法有側(cè)重地對歷史數(shù)據(jù)進行利用。本文針對傳統(tǒng)的LSTM 神經(jīng)網(wǎng)絡(luò)難以識別重要信息節(jié)點的局限性,將Attention 機制加入到LSTM 神經(jīng)網(wǎng)絡(luò)中建立建筑能耗預(yù)測模型。首先利用距離相關(guān)系數(shù)分析環(huán)境變量與建筑能耗的相關(guān)性,去除無關(guān)影響因素;然后在LSTM 神經(jīng)網(wǎng)絡(luò)中加入Attention 機制,使預(yù)測模型可以捕捉到關(guān)鍵時間節(jié)點的重要特征;最后在小時和日能耗數(shù)據(jù)集上將Attention-LSTM 模型與LSTM 模型以及其他傳統(tǒng)的機器學習方法進行比較,用數(shù)據(jù)得出結(jié)論。

        1 相關(guān)理論基礎(chǔ)

        1.1 LSTM 神經(jīng)網(wǎng)絡(luò)

        循環(huán)神經(jīng)網(wǎng)絡(luò)是深度學習領(lǐng)域中一類特殊的內(nèi)部存在自連接的神經(jīng)網(wǎng)絡(luò),適合處理時序數(shù)據(jù)。雖然RNN 在處理時間序列關(guān)系上表現(xiàn)良好,但標準RNN 結(jié)構(gòu)存在梯度消失或梯度爆炸問題[20]。長短時神經(jīng)網(wǎng)絡(luò)是RNN 的變體,其改進了傳統(tǒng)RNN 的記憶模塊,避免了因為數(shù)據(jù)持續(xù)輸入而無法長期保存有效歷史信息的問題。

        LSTM 神經(jīng)網(wǎng)絡(luò)通過引入細胞狀態(tài)來存儲需要記憶的信息,特殊的門結(jié)構(gòu)設(shè)計可以刪除或添加信息到細胞狀態(tài)。門結(jié)構(gòu)是一種可選擇通過信息的方式,LSTM 神經(jīng)網(wǎng)絡(luò)主要由忘記門、輸入門和輸出門組成。忘記門決定模型從細胞狀態(tài)中丟棄什么信息;輸入門負責尋找需要更新的細胞狀態(tài),然后將需要更新的信息添加到細胞狀態(tài)中;輸出門通過Sigmoid 層來確定哪部分信息將輸出,將細胞狀態(tài)通過Tanh 函數(shù)進行激活,并與Sigmoid 層輸出部分相乘得到LSTM 神經(jīng)網(wǎng)絡(luò)輸出的部分。

        LSTM 結(jié)構(gòu)單元如圖1 所示,其中F,I,C和O分別代表遺忘門、輸入門、細胞狀態(tài)和輸出門;Ct表示當前t時刻的細胞狀態(tài),xt代表t時刻的輸入,ht表示當前時刻的輸出,也是下一個細胞狀態(tài)的輸入。Ft、It和Ot分別表示遺忘門、輸入門和輸出門的輸出狀態(tài)。

        Fig.1 LSTM unit internal structure圖1 LSTM 單元內(nèi)部結(jié)構(gòu)

        如式(1)所示,首先,遺忘門F讀取上一時刻輸出ht-1和當前輸入Xt,Sigmod 函數(shù)決定哪些信息需要舍棄,實現(xiàn)在細胞狀態(tài)中丟棄信息功能。

        其次,輸入門I中包含兩個過程,如式(2)~式(4),既要將需要記憶的信息保存到單元狀態(tài),又需要將更新的信息添加到單元狀態(tài)中。

        最后通過輸出門O來控制輸出多少內(nèi)部記憶單元Ct的信息到隱藏狀態(tài)ht,其計算公式如式(6)所示。

        LSTM 神經(jīng)網(wǎng)絡(luò)的前向傳播如式(1)—式(6)所示,計算出神經(jīng)元的輸出值。反向傳播與傳統(tǒng)的前饋神經(jīng)網(wǎng)絡(luò)類似,采用誤差反向傳播算法。利用輸出層的誤差求解各層權(quán)重,通過梯度下降方式完成權(quán)重系數(shù)的更新。

        1.2 注意力機制

        盡管LSTM 神經(jīng)網(wǎng)絡(luò)在處理長時間序列問題上效果很好,但在實際過程中長時間序列特征的重要程度存在差異,而LSTM 神經(jīng)網(wǎng)絡(luò)對于長時間序列輸入沒有區(qū)分,會忽略某些包含重要信息量的時序節(jié)點。Attention 機制是模仿人類視覺處理全局圖像時注意力分布的一種信息處理方式,可以從大量信息中快速篩選出高價值信息。建筑能耗數(shù)據(jù)會隨著各種影響因素發(fā)生變化,時間序列上各個時間節(jié)點上的特征對于預(yù)測值的影響程度也不同,與預(yù)測節(jié)點隱層狀態(tài)相似的能耗特征信息對預(yù)測節(jié)點的影響程度更為顯著。因此將Attention 機制加入LSTM 能耗預(yù)測模型中,能有效突出不同時間節(jié)點能耗特征的影響程度,從而改善預(yù)測效果。

        在時間序列中,注意力機制對LSTM 神經(jīng)網(wǎng)絡(luò)輸出的隱層向量進行加權(quán)求和計算,其中權(quán)重的大小表示每個時間點上的特征重要程度。注意力機制如圖2 所示,圖中H1,H2,,…,Hk表示輸入序列的隱藏層狀態(tài)值,q為最后一個隱藏層輸出Hk,通過相似性函數(shù)Score(Hi,Hk)獲取最后一個隱藏層輸出Hk與其他每個時間點隱藏層輸出Hi的相似度得分ei。相似性函數(shù)Score(Hi,Hk)如式(7)所示,采用點積的方式計算。通過式(8)SoftMax 函數(shù)可以得到每個時間點的注意力權(quán)值ɑi,計算出注意力機制權(quán)重ɑi與隱藏層狀態(tài)乘積便可得到Attention 層的輸出向量C。

        Fig.2 Schematic diagram of attention mechanism圖2 Attention 機制

        2 基于Attention-LSTM 的建筑能耗預(yù)測模型

        2.1 數(shù)據(jù)預(yù)處理

        (1)數(shù)據(jù)清洗。樣本數(shù)據(jù)的質(zhì)量和數(shù)量會對預(yù)測模型效果產(chǎn)生很大影響。由于建筑能耗數(shù)據(jù)采集過程受到不同人為因素和客觀因素影響,數(shù)據(jù)集會出現(xiàn)缺失值和噪聲點,因此需要對數(shù)據(jù)進行清洗。3sigma 方法是常見的異常數(shù)據(jù)監(jiān)測方法之一,如式(10)所示。如果一組數(shù)據(jù)中某值與平均值的偏差大于3 倍的標準差,那么該值就被認為是異常值。

        對于識別出來的異常值和缺失值,在時數(shù)據(jù)集和日數(shù)據(jù)集上進行插值處理。

        (2)數(shù)據(jù)歸一化。在完成樣本數(shù)據(jù)清洗和特征選擇后,還需要對其進行歸一化處理。因為樣本特征數(shù)據(jù)之間的類型和量綱不同,絕對值相差很大,會導致某些值域范圍較小的特征被忽視,同時數(shù)據(jù)進行歸一化后可以提升模型的收斂速度和模型精度。本研究采用線性函數(shù)歸一化方法,將原始數(shù)據(jù)置換到[0,1]范圍,歸一化公式如下:

        式(11)中,Xnorm為歸一化后的數(shù)據(jù),X為原始數(shù)據(jù),Xmɑx,Xmin分別為原始數(shù)據(jù)集的最大值和最小值,預(yù)測后得到的結(jié)果要進行反歸一化,以得到真實的預(yù)測值。

        2.2 環(huán)境變量選取

        初始的環(huán)境變量包括最高溫度、最低溫度、露點、云量、風速、壓力、濕度、紫外線指數(shù)和可見度等。由于這些變量存在無用或者冗余特征,因此要去除這些冗余特征以降低輸入向量維數(shù),優(yōu)化學習樣本,從而提高訓練效率。常用的相關(guān)性系數(shù)有Pearson 和Spearman 相關(guān)系數(shù),但Pearson 相關(guān)系數(shù)只能度量兩個變量間的線性相關(guān)關(guān)系,且必須服從正態(tài)分布的假設(shè)。Spearman 相關(guān)系數(shù)盡管沒有Pearson 系數(shù)對數(shù)據(jù)敏感,但其檢驗效果較差。本研究通過距離相關(guān)系數(shù)[21]來衡量環(huán)境變量和建筑能耗的相關(guān)性,避免了傳統(tǒng)相關(guān)系數(shù)只適用于線性相關(guān)的問題。如式(12)中距離相關(guān)系數(shù)R(X,Y)是通過樣本協(xié)方差V(X,Y)和樣本方差V(X),V(Y)計算得來的,R(X,Y)=0時說明X和Y相互獨立,R(X,Y)越大說明X和Y的距離相關(guān)性越強。

        式(12)中,{(Xk,Yk:K=1,2,...)}是隨機向量(X,Y)的觀測樣本。

        式(13)中,k,l=1,2,…,n,計算出X、Y 向量的ɑkl、Akl、bkl、Bkl,通過式(14)計算出樣本協(xié)方差V(X,Y)。

        環(huán)境變量與建筑能耗距離相關(guān)系數(shù)的計算結(jié)果如表1所示,剔除距離系數(shù)小于0.30 的環(huán)境特征,保留最高溫度、最低溫度、露點、紫外線指數(shù)和濕度5 個環(huán)境特征。

        Table 1 Distance correlation coefficient of environment variables表1 環(huán)境變量距離相關(guān)系數(shù)

        2.3 模型構(gòu)建

        Attention-LSTM 模型結(jié)構(gòu)如圖3 所示。

        Fig.3 Attention-LSTM model structure圖3 Attention-LSTM 模型結(jié)構(gòu)

        首先獲取建筑能耗歷史數(shù)據(jù),對數(shù)據(jù)進行清洗,通過距離相關(guān)系數(shù)進行特征選擇,之后進行數(shù)據(jù)歸一化。在輸入層中,根據(jù)距離相關(guān)系數(shù)得到5 個環(huán)境變量以及上一時間點的能耗值作為輸入特征,進行歸一化后的輸入數(shù)據(jù)維度為[B,T,D],B 為輸入批次大小,T 為時間步長,D 為輸入的特征維數(shù)。用于訓練的樣本可以表述為:

        模型由LSTM 神經(jīng)網(wǎng)絡(luò)和注意力機制兩部分構(gòu)建。數(shù)據(jù)預(yù)處理后將訓練數(shù)據(jù)Xt 輸入模型,通過LSTM 單元得到隱層狀態(tài)Ht。注意力機制計算出LSTM 不同時間點隱含層向量與最后時間點隱含層向量的相似性得分,通過SoftMax函數(shù)得到不同時間點對應(yīng)的權(quán)重ɑn。最后對LSTM 不同時間點的隱含層輸出向量與對應(yīng)的權(quán)重相乘并求和,通過全連接層得到最終的預(yù)測結(jié)果。

        2.4 評價指標

        為了評估本文預(yù)測模型的效果和精準度,采用平均絕對誤差MAE、均方誤差MSE、均方根誤差RMSE 作為預(yù)測模型的評價指標。MAE 可以避免正負誤差相互抵消的問題,體現(xiàn)預(yù)測值與真實值的差值;MSE 是預(yù)測值與真實值之差的平方和的均值,可以評價數(shù)據(jù)的變化程度;而RMSE是預(yù)測值與真實值偏差的平方與觀測次數(shù)n比值的平方根,能夠很好地反映出預(yù)測精度。

        式中,為i時刻的預(yù)測值,yi為i時刻的真實值,n為測試樣本數(shù)量。

        3 算例分析

        實驗在同一個計算平臺上進行仿真,模型使用深度學習框架Tensorflow構(gòu)建,機器學習預(yù)測模型使用python skit-learn 進行建模和仿真。

        3.1 數(shù)據(jù)來源

        使用Kaggle 網(wǎng)站上公開的建筑能耗數(shù)據(jù)集[22],包含部分倫敦住宅用戶2011年11月—2014年12月的能耗數(shù)據(jù),數(shù)據(jù)集時間粒度為小時,同時從Darksky 獲取天氣數(shù)據(jù)便于進行環(huán)境變量分析。圖4和圖5分別為小時能耗和日能耗的密度分布,實驗數(shù)據(jù)前80%作為訓練集,后20%作為測試集,在時粒度和日粒度分別進行模型預(yù)測,在小時數(shù)據(jù)集上利用過去48h 數(shù)據(jù)預(yù)測下一刻時間點的能耗數(shù)據(jù),在日數(shù)據(jù)集上利用過去7天數(shù)據(jù)預(yù)測未來一天的能耗數(shù)據(jù)。

        Fig.4 Data distribution of hourly building energy consumption圖4 建筑小時能耗數(shù)據(jù)分布

        Fig.5 Data distribution of building daily energy consumption圖5 建筑日能耗數(shù)據(jù)分布

        3.2 比較方法

        將本文模型與常見的建筑能耗預(yù)測機器學習模型進行比較:多元線性回歸模型(Multivariable Linear Regression model,MLR)、決策樹回歸模型(Decision Tree Regression,DTR)、神經(jīng)網(wǎng)絡(luò)模型(Artificial Neural Network,ANN)、支持向量回歸模型(Support Vector Regression,SVR)。4 種模型參數(shù)設(shè)置見表2。

        Table 2 Parameter settings of traditional machine learning model表2 傳統(tǒng)機器學習模型參數(shù)設(shè)置

        3.3 基礎(chǔ)模型超參數(shù)選擇

        本研究采用Adam 神經(jīng)網(wǎng)絡(luò)優(yōu)化算法,為防止深度神經(jīng)網(wǎng)絡(luò)訓練過程中出現(xiàn)過擬合現(xiàn)象,采用Dropout 進行正則化,將MSE 函數(shù)作為損失函數(shù)。在構(gòu)建深度學習模型時,超參數(shù)對于模型的訓練效果至關(guān)重要。網(wǎng)格搜索算法是通過指定參數(shù)值對其進行窮舉搜索從而選取最優(yōu)參數(shù)組合。在LSTM 和GRU 模型參數(shù)訓練過程中,需要確定的超參數(shù)主要包括批次大小、隱藏層節(jié)點個數(shù)和學習率。表3和表4 列出了日數(shù)據(jù)集上GRU 神經(jīng)網(wǎng)絡(luò)和LSTM 神經(jīng)網(wǎng)絡(luò)前5 組最優(yōu)化參數(shù)組合,同理在時數(shù)據(jù)上也進行了調(diào)參。

        Table 3 Optimal parameter combinations of GRU model表3 GRU 模型的最優(yōu)參數(shù)組合

        Table 4 Optimal parameter combinations of LSTM model表4 LSTM 模型的最優(yōu)參數(shù)組合

        3.4 實驗結(jié)果分析

        首先對LSTM 和GRU 模型和加入Attention 機制后的模型進行對比,預(yù)測結(jié)果如圖6 所示。圖中選取了時能耗數(shù)據(jù)50 個測試樣本結(jié)果進行繪制,可以觀察到4 種深度學習模型存在滯后性,但總體波動趨勢與實際值基本保持一致。相較于基礎(chǔ)模型,加入Attention 機制后的深度學習模型擬合程度更好,尤其是在能耗變化較大的峰值部分,能更為準確反映能耗變化規(guī)律。

        Fig.6 Comparison of deep learning model prediction of energy consumption data set圖6 時能耗數(shù)據(jù)集深度學習模型預(yù)測對比

        從表5 可以看出,加入Attention 機制后GRU 模型的MAE、MSE、RMSE 相較之前誤差分別下降了7.47%、10.17%、7.10%,LSTM 模型的MAE、MSE 和RMSE 分別下降了7.09%、10.25%和3.68%,這表明加入Attention 機制后無論是GRU 模型還是LSTM 模型的預(yù)測結(jié)果明顯得到提升。未加入Attention 機制時,預(yù)測模型對不同時間步長的編碼向量均賦予相同的權(quán)重,未能注意到含有更多重要信息的時間點。而加入Attention 機制后,由于重要時間節(jié)點的權(quán)重增加,使含有重要特征的時間點的預(yù)測誤差減小。從表中可以看出Attention-LSTM 模型的結(jié)果要優(yōu)于Attention-GRU 模型,因此將Attention-LSTM 方法作為本研究的建筑能耗預(yù)測模型。

        Table 5 Test results of energy consumption data set表5 時能耗數(shù)據(jù)集測試結(jié)果

        為了更直觀描述注意力權(quán)值變化,選取Attention-LSTM 模型3 個不同的測試樣本權(quán)值分配情況如圖7 所示。由圖7 可知,LSTM 模型加入Attention 機制后時間節(jié)點權(quán)重發(fā)生了改變,成功地分配了注意力。從圖7 可以看出3個不同時間點的測試數(shù)據(jù)賦予權(quán)重相對較大的是預(yù)測點前24h 左右和距離預(yù)測點較近的時間步長,其他時間步長上的注意力權(quán)重并沒有單調(diào)變化,而是在局部范圍內(nèi)波動。不同測試數(shù)據(jù)的時間步長權(quán)重分布存在較大差異,這表明不同測試數(shù)據(jù)注意力機制分配的權(quán)重不同,與樣本預(yù)測節(jié)點隱層特征更為相似的時間節(jié)點被賦予了更高的權(quán)重,因此加入Attention 機制后的神經(jīng)網(wǎng)絡(luò)模型能夠相對準確地捕捉到歷史時間序列上包含更多重要信息的時間節(jié)點。

        Fig.7 Distribution of attention weight of energy consumption data圖7 時能耗數(shù)據(jù)注意力權(quán)值分配情況

        為了驗證Attention-LSTM 模型的有效性,與傳統(tǒng)機器學習模型進行對比,評價指標結(jié)果如表6 所示。從表6 可以看出,在大規(guī)模數(shù)據(jù)集上Attention-LSTM 模型效果明顯優(yōu)于其他傳統(tǒng)機器學習模型,相較于較優(yōu)的DTR 模型,Attention 模型的MAE、MSE、RMSE下降了9.4%、30.0%、5.17%。傳統(tǒng)的機器學習模型和Attention-LSTM 的預(yù)測相對誤差曲線對比如圖8 所示。從圖8 可以看出,傳統(tǒng)的機器學習方法盡管可以描述全局特征趨勢,但描述局部特征的能力很差,而Attention-LSTM 模型預(yù)測相對誤差基本處于最小值,可以很好地描述能耗曲線中的局部特征,具有相對良好的精度和魯棒性。

        Table 6 Comparison of prediction error indexes of traditional machine learning model in energy consumption data表6 時能耗數(shù)據(jù)傳統(tǒng)機器學習模型預(yù)測誤差指標對比

        Fig.8 Comparison of prediction errors of energy consumption data of each model圖8 時能耗數(shù)據(jù)各模型預(yù)測誤差對比

        在日能耗數(shù)據(jù)上進行實驗得到各模型預(yù)測性能評價指標值如表7 所示。從表7 可以看出,在數(shù)據(jù)規(guī)模較小的日能耗數(shù)據(jù)上,單一LSTM 和GRU 的效果與傳統(tǒng)的機器學習方法相差不大。但是加入Attention 機制后的LSTM 模型MAE、MSE,RMSE 評價指標要優(yōu)于其他模型,這表明Attention-LSTM 模型在樣本數(shù)據(jù)相對較少的情況下也具有良好效果。

        Table 7 Comparison of effect of daily energy consumption of data model表7 日能耗數(shù)據(jù)模型效果對比

        4 結(jié)語

        建筑能耗預(yù)測對于建筑節(jié)能在線控制優(yōu)化以及電能市場化交易具有重要意義。本研究利用距離相關(guān)系數(shù)進行環(huán)境特征選取,通過網(wǎng)格搜索確定LSTM 神經(jīng)網(wǎng)絡(luò)初始參數(shù),通過Attention 機制改善LSTM 神經(jīng)網(wǎng)絡(luò)進行多變量建筑能耗預(yù)測,并與LSTM、GRU 模型以及傳統(tǒng)的機器學習模型進行比較。實證結(jié)果顯示,在時粒度和日粒度數(shù)據(jù)集上,Attention-LSTM 模型預(yù)測效果都優(yōu)于常規(guī)的LSTM、GRU 和傳統(tǒng)機器學習模型,表明通過加入Attention 機制后的LSTM 神經(jīng)網(wǎng)絡(luò)可以更好捕捉歷史時間序列上包含更多重要信息的時間節(jié)點,避免傳統(tǒng)循環(huán)神經(jīng)網(wǎng)絡(luò)無法識別重要信息節(jié)點的局限性,更好地反映建筑能耗的變化趨勢。

        本研究也有一定的缺陷和不足。超參數(shù)對于神經(jīng)網(wǎng)絡(luò)的訓練效果至關(guān)重要,本研究主要采用網(wǎng)格搜索算法,后續(xù)應(yīng)考慮利用智能優(yōu)化算法如粒子群算法、遺傳算法來搜索LSTM 和Attention-LSTM 的超參數(shù),減少參數(shù)搜索時間,提升建筑能耗模型的預(yù)測效率及準確性。

        猜你喜歡
        能耗神經(jīng)網(wǎng)絡(luò)機制
        120t轉(zhuǎn)爐降低工序能耗生產(chǎn)實踐
        昆鋼科技(2022年2期)2022-07-08 06:36:14
        能耗雙控下,漲價潮再度來襲!
        探討如何設(shè)計零能耗住宅
        神經(jīng)網(wǎng)絡(luò)抑制無線通信干擾探究
        電子制作(2019年19期)2019-11-23 08:42:00
        日本先進的“零能耗住宅”
        華人時刊(2018年15期)2018-11-10 03:25:26
        自制力是一種很好的篩選機制
        文苑(2018年21期)2018-11-09 01:23:06
        基于神經(jīng)網(wǎng)絡(luò)的拉矯機控制模型建立
        重型機械(2016年1期)2016-03-01 03:42:04
        復(fù)數(shù)神經(jīng)網(wǎng)絡(luò)在基于WiFi的室內(nèi)LBS應(yīng)用
        破除舊機制要分步推進
        基于支持向量機回歸和RBF神經(jīng)網(wǎng)絡(luò)的PID整定
        久久久久av综合网成人| 最新永久无码AV网址亚洲| 亚洲高清av一区二区| 国产变态av一区二区三区调教 | 丁香五香天堂网| 自愉自愉产区二十四区| 四虎影视在线观看2413| 一区二区三无码| 国产av剧情久久精品久久| 亚洲中文字幕久久精品无码a | 亚洲AV无码精品色欲av| 国产精品亚洲在钱视频| 亚洲第一女人av| 中日韩精品视频在线观看| 国产三级黄色在线观看| 亚洲女同性恋第二区av| 日本在线 | 中文| 少妇邻居内射在线| 人妻少妇精品一区二区三区| 国产一区二区在线观看av| 日本免费久久高清视频| 亚洲成aⅴ人片久青草影院| 国产精品高潮呻吟av久久无吗| 国产精品国产三级国产在线观| 日韩精品一二三区乱码| 中文无码精品a∨在线观看不卡| 国产精品自在线免费| 亚洲色图少妇熟女偷拍自拍| 麻豆亚洲一区| 天天综合亚洲色在线精品| 日本欧美在线播放| 久久蜜桃一区二区三区| 免费无码专区毛片高潮喷水| 激情 人妻 制服 丝袜| 18禁国产美女白浆在线| 久久女人精品天堂av影院麻| 欧洲熟妇色 欧美| 亚洲人成人一区二区三区| 国产韩国一区二区三区| 亚洲日韩久久综合中文字幕| 91精彩视频在线观看|