李占利 邢金莎 靳紅梅 李洪安 張 蘊(yùn)
(西安科技大學(xué)計(jì)算機(jī)科學(xué)與技術(shù)學(xué)院 西安710600)
礦井涌水量是指煤礦開(kāi)采過(guò)程中,地表水或地下水通過(guò)裂隙、斷層等各種通道在單位時(shí)間內(nèi)涌入井巷系統(tǒng)的水量,當(dāng)?shù)V井涌水量超過(guò)礦井自身排水能力時(shí)會(huì)導(dǎo)致煤礦透水事故的發(fā)生[1]。因此,準(zhǔn)確預(yù)測(cè)礦井涌水量對(duì)礦井的安全生產(chǎn)和效益等各方面具有重要意義。
現(xiàn)有的涌水量預(yù)測(cè)方法包括解析法、數(shù)值法、水文地質(zhì)比擬法、水均衡法和神經(jīng)網(wǎng)絡(luò)模型等。解析法運(yùn)用地下水動(dòng)力學(xué)原理,對(duì)一定邊界條件和初始條件下的地下水流動(dòng)問(wèn)題建立定解方程,以此預(yù)測(cè)涌水量。解析法的實(shí)現(xiàn)較為簡(jiǎn)便,但在大降深、不規(guī)則的條件下,涌水量預(yù)測(cè)結(jié)果誤差較大[2]。數(shù)值法通過(guò)求解滲流偏微分方程獲得涌水量的近似值,它適用于解決許多復(fù)雜條件下的礦井涌水量問(wèn)題。但由于開(kāi)采條件變化大、不確定因素多,方程的建立是在一定假設(shè)和地質(zhì)結(jié)構(gòu)簡(jiǎn)化的基礎(chǔ)上,預(yù)測(cè)結(jié)果只是近似值[3]。水文地質(zhì)比擬法以現(xiàn)有生產(chǎn)礦井的實(shí)際水文地質(zhì)資料類(lèi)比計(jì)算預(yù)測(cè)水文地質(zhì)條件相同礦井的涌水量,該方法計(jì)算簡(jiǎn)單,但精度低,應(yīng)用范圍受限制[4]。水均衡法通過(guò)對(duì)礦井內(nèi)的補(bǔ)給、徑流、排泄及源匯等補(bǔ)排條件關(guān)系的研究,建立水均衡方程預(yù)測(cè)涌水量,該方法需要的參數(shù)較少,但難以計(jì)算地下水均衡的各個(gè)組成部分[5]。以上方法基于所開(kāi)采礦區(qū)地質(zhì)條件和水文地質(zhì)參數(shù)建立方程實(shí)現(xiàn)預(yù)測(cè),不具備通用性。現(xiàn)有越來(lái)越多的神經(jīng)網(wǎng)絡(luò)模型應(yīng)用到礦井水文地質(zhì)災(zāi)害監(jiān)測(cè)預(yù)警領(lǐng)域,尤其是反向傳播(back propagation,BP)和長(zhǎng)短時(shí)記憶網(wǎng)絡(luò)(long short-term memory,LSTM)神經(jīng)網(wǎng)絡(luò)[6-7]。BP 神經(jīng)網(wǎng)絡(luò)具有良好的非線性和泛化逼近能力,但BP 神經(jīng)網(wǎng)絡(luò)也存在網(wǎng)絡(luò)結(jié)構(gòu)難以確定、預(yù)測(cè)精度低等問(wèn)題,而LSTM 網(wǎng)絡(luò)作為具有記憶能力的循環(huán)神經(jīng)網(wǎng)絡(luò),可以學(xué)習(xí)序列數(shù)據(jù)的狀態(tài)特征,更加適用于明渠流量的預(yù)測(cè)[8]。另外,目前所構(gòu)建的神經(jīng)網(wǎng)絡(luò)模型通過(guò)挖掘地質(zhì)參數(shù)與涌水量關(guān)聯(lián)關(guān)系建立預(yù)測(cè)模型,但預(yù)測(cè)值多以年或月為單位,不具備實(shí)時(shí)性[9]。
礦井開(kāi)采過(guò)程中,通過(guò)抽取設(shè)備獲取的明渠流量可以反映礦井涌水量的變化,是實(shí)時(shí)了解礦井采區(qū)水文地質(zhì)條件變化的唯一顯性標(biāo)志數(shù)據(jù)[10]。本文提出一種基于經(jīng)驗(yàn)?zāi)B(tài)分解(empirical mode decomposition,EMD)和時(shí)序注意力機(jī)制結(jié)合的明渠流量預(yù)測(cè)模型,通過(guò)預(yù)測(cè)的明渠流量來(lái)反映短期內(nèi)涌水量的變化情況,不過(guò)多依賴(lài)礦區(qū)水文地質(zhì)參數(shù),具有通用性,并且預(yù)測(cè)值以分鐘為單位,具有一定實(shí)時(shí)性。該模型首先通過(guò)EMD 將數(shù)據(jù)分解為各個(gè)子分量;其次在LSTM 基礎(chǔ)上引入注意力機(jī)制構(gòu)造時(shí)序注意力機(jī)制模型(temporal attention based on LSTM,TA-LSTM)增強(qiáng)歷史時(shí)間點(diǎn)的信息表達(dá);最后將各個(gè)子分量分別通過(guò)TA-LSTM 訓(xùn)練學(xué)習(xí),并將各分量預(yù)測(cè)結(jié)果融合得到最終預(yù)測(cè)值。為了驗(yàn)證本文方法的有效性,對(duì)礦井采集的明渠流量數(shù)據(jù)分別采用BP、LSTM、TA-LSTM、EMD-LSTM 模型和本文提出的EMD-TA-LSTM 模型進(jìn)行了對(duì)比實(shí)驗(yàn),結(jié)果表明本文方法可以預(yù)測(cè)出數(shù)據(jù)的整體變化趨勢(shì),也可以及時(shí)預(yù)測(cè)數(shù)據(jù)的波動(dòng)情況。
EMD 算法可將序列分解為有限個(gè)不同時(shí)間尺度上的本征模態(tài)函數(shù)分量(intrinsic mode function,IMF)和一個(gè)殘差余量,它們分別反映原始序列的波動(dòng)特征和趨勢(shì)特征[11-12]。EMD 分解過(guò)程中IMF 分量必須滿足2 個(gè)條件:(1)極值點(diǎn)和過(guò)零點(diǎn)個(gè)數(shù)必須相等或相差最多不超過(guò)1 個(gè);(2)在任意時(shí)刻,由局部極大值點(diǎn)和極小值點(diǎn)形成的上下包絡(luò)線平均值為0。
通過(guò)EMD 對(duì)數(shù)據(jù)s(t) 進(jìn)行分解,步驟如下。
(1) 根據(jù)s(t)的上下極值點(diǎn)擬合s(t)的上下包絡(luò)線[13],計(jì)算2 個(gè)包絡(luò)線的均值包絡(luò)線m(t)。
(2) 令s(t) 減去m(t)的差值為中間信號(hào)C(t)。
(3) 判斷C(t) 是否滿足IMF 條件,若滿足,即為第1 個(gè)IMF 分量,記為IMF1,令s(t) 減去IMF1分量的差值為r(t);若不滿足,以C(t) 為基礎(chǔ)重復(fù)步驟(1)~(3)。
若此時(shí)r(t)的均值包絡(luò)線趨近于0,即滿足分解結(jié)束條件,分解結(jié)束。否則,以r(t) 為基礎(chǔ)重復(fù)步驟(1)~(3)。設(shè)分解結(jié)束得到的各個(gè)模式分量和殘差余量分別為C1(t)、C2(t)、…、Cn(t) 和r(t),則原始數(shù)據(jù)可表示為
LSTM 網(wǎng)絡(luò)通過(guò)增加門(mén)結(jié)構(gòu)解決了傳統(tǒng)循環(huán)神經(jīng)網(wǎng)絡(luò)(recurrent neural network,RNN)長(zhǎng)期記憶能力不足的問(wèn)題,使得RNN 能夠真正有效地利用長(zhǎng)距離的時(shí)序信息[14]。
LSTM 網(wǎng)絡(luò)結(jié)構(gòu)如圖1 所示,xt為當(dāng)前時(shí)刻輸入,ht-1和st-1分別為上一時(shí)刻隱藏層狀態(tài)和門(mén)控單元狀態(tài),遺忘門(mén)選擇性丟棄歷史信息,輸入門(mén)保留當(dāng)前信息并與歷史信息融合,輸出門(mén)決定當(dāng)前門(mén)控單元狀態(tài)對(duì)隱藏層輸出的影響,LSTM 網(wǎng)絡(luò)最終輸出由輸出門(mén)和門(mén)控單元共同決定[15],可表示為
圖1 LSTM 網(wǎng)絡(luò)結(jié)構(gòu)
式中,it、ft、ot依次表示輸入門(mén)、遺忘門(mén)、輸出門(mén)3 類(lèi)門(mén)結(jié)構(gòu);ht-1是前一時(shí)刻隱藏層單元的輸出信息,ht代表當(dāng)前輸出信息;cell 單元?jiǎng)t用st表示;Wi和bi、Wf和bf、Wo和bo、Ws和bs分別為輸入門(mén)、遺忘門(mén)、輸出門(mén)和門(mén)控單元的權(quán)值矩陣和偏置項(xiàng);σ和tanh分別為sigmoid 和雙曲正切激活函數(shù);☉表示矩陣以元素相乘。
明渠流量數(shù)據(jù)可以實(shí)時(shí)反映井下涌水量的變換情況,該數(shù)據(jù)受地質(zhì)環(huán)境和水文地質(zhì)條件等各方面影響,變化較為復(fù)雜,傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)模型難以對(duì)其進(jìn)行準(zhǔn)確預(yù)測(cè)。為了提高預(yù)測(cè)精度,本文提出EMD-TA-LSTM 預(yù)測(cè)模型,該模型主要包括3 部分:(1)通過(guò)EMD 將明渠流量分解為不同頻率下的子分量,挖掘原始數(shù)據(jù)下的多維特征;(2)在LSTM 基礎(chǔ)上加入注意力機(jī)制增強(qiáng)歷史時(shí)間點(diǎn)的關(guān)鍵信息;(3)將EMD 分解后的各分量分別通過(guò)時(shí)序注意力機(jī)制進(jìn)行預(yù)測(cè),對(duì)各分量預(yù)測(cè)值進(jìn)行融合得到最終結(jié)果。
注意力機(jī)制的主要思想是針對(duì)輸入序列中影響輸出結(jié)果的關(guān)鍵部分分配較多的注意力,更好地學(xué)習(xí)輸入序列中的信息[16]。TA-LSTM 網(wǎng)絡(luò)結(jié)構(gòu)如圖2 所示,包括輸入層、LSTM 隱藏層、Attention 層、全連接層和輸出的預(yù)測(cè)值。該網(wǎng)絡(luò)模型以LSTM 為基礎(chǔ),結(jié)合注意力機(jī)制進(jìn)行關(guān)鍵時(shí)刻信息的自提取,挖掘前t個(gè)歷史時(shí)刻的信息對(duì)第t+1 時(shí)刻待預(yù)測(cè)值的影響程度。模型函數(shù)可映射為F,預(yù)測(cè)值可表達(dá)為
圖2 中輸入層為某一時(shí)間段內(nèi)的數(shù)據(jù),表示為{x1,x2,…,xt}。在隱藏層之前,需對(duì)訓(xùn)練集進(jìn)行重構(gòu),重構(gòu)為[訓(xùn)練樣本數(shù),t,1]的三維矩陣,以構(gòu)建LSTM 網(wǎng)絡(luò)模型的輸入要求。通過(guò)LSTM 網(wǎng)絡(luò)處理輸入數(shù)據(jù),實(shí)現(xiàn)高層次的特征學(xué)習(xí),得到輸出序列ht。然后將隱藏層的輸出作為注意力機(jī)制的輸入,通過(guò)網(wǎng)絡(luò)模型不斷學(xué)習(xí)計(jì)算各個(gè)輸入分配的注意力概率分布值ut,如式(8),并通過(guò)式(9)對(duì)權(quán)重進(jìn)行歸一化得到權(quán)重向量αt,且滿足式(10)。根據(jù)式(11)將αt與ht進(jìn)行加權(quán)求和得到新的向量ct,輸入到全連接層中,最后計(jì)算出預(yù)測(cè)值。
圖2 TA-LSTM 網(wǎng)絡(luò)結(jié)構(gòu)
式中,W為權(quán)重矩陣,b為偏置參數(shù),tanh 為雙曲正切函數(shù)。
本文提出的基于EMD 與時(shí)序注意力機(jī)制結(jié)合的明渠流量預(yù)測(cè)模型流程圖如圖3 所示。
圖3 EMD-TA-LSTM 預(yù)測(cè)模型流程圖
該模型通過(guò)EMD 將明渠流量進(jìn)行分解,對(duì)分解后各子分量根據(jù)式(12)進(jìn)行Min-Max 歸一化處理,將數(shù)據(jù)歸一化到[0,1]之間,這樣做的目的是為了提高模型的預(yù)測(cè)精度和效率。
式中,Xmin和Xmax分別代表數(shù)據(jù)中的最小值和最大值。
EMD 算法在分解過(guò)程中不改變?cè)紨?shù)據(jù)的屬性,即所有原數(shù)據(jù)擁有的特性都會(huì)被保留,且各分量都可以體現(xiàn)出原始數(shù)據(jù)的部分特性[17]。EMD 分解后的各子分量從高頻到低頻依次得到,其中高頻分量包含數(shù)據(jù)的主要特征,并且各分量具有不同的特征尺度,它們之間的相互影響被隔離,利用這種隔離可以減小明渠流量本身的非平穩(wěn)性和非線性在預(yù)測(cè)中帶來(lái)的誤差。
TA-LSTM 模型主要包括LSTM 網(wǎng)絡(luò)和注意力機(jī)制兩大部分。LSTM 網(wǎng)絡(luò)中特有的門(mén)機(jī)制可以改善傳統(tǒng)RNN 本身的梯度衰減問(wèn)題,能夠更好地捕捉時(shí)間序列中時(shí)間步距離較大時(shí)的依賴(lài)關(guān)系,有效地利用長(zhǎng)時(shí)序信息。LSTM 層的加入是為了網(wǎng)絡(luò)訓(xùn)練學(xué)習(xí)過(guò)程中選擇記住重要的信息,遺忘不重要的。LSTM 層數(shù)過(guò)多,網(wǎng)絡(luò)訓(xùn)練會(huì)消耗大量時(shí)間,所以會(huì)綜合考慮預(yù)測(cè)效果最佳且用時(shí)較少時(shí)的層數(shù),本文LSTM 層數(shù)設(shè)置為3 層。注意力機(jī)制的作用是通過(guò)注意力機(jī)制學(xué)習(xí)歷史時(shí)序數(shù)據(jù)對(duì)待預(yù)測(cè)時(shí)刻的影響程度,突出關(guān)鍵時(shí)間點(diǎn)的重要性。在注意力機(jī)制層中,根據(jù)當(dāng)前層輸入計(jì)算權(quán)重向量,然后將權(quán)重向量與當(dāng)前層輸入向量合并得到新的向量,隨后輸入到全連接層,通過(guò)全連接層進(jìn)行局部特征整合,最后計(jì)算出預(yù)測(cè)值。
基于EMD-TA-LSTM的明渠流量預(yù)測(cè)模型具體步驟如下。
(1) 明渠流量分解。通過(guò)EMD 算法將明渠流量分解為n組頻率不同的本征模態(tài)函數(shù)分量{IMF1,IMF2,…,IMFn} 和一個(gè)殘差余量r。
(2) 歸一化處理。通過(guò)式(12)將分解后的各分量分別進(jìn)行歸一化處理。
(3) 各分量對(duì)應(yīng)網(wǎng)絡(luò)模型的神經(jīng)元個(gè)數(shù)。對(duì)各分量分別搭建TA-LSTM 模型,通過(guò)多次訓(xùn)練并對(duì)比訓(xùn)練集的網(wǎng)絡(luò)誤差大小確定最終輸入層和隱藏層神經(jīng)元個(gè)數(shù)。
(4) 預(yù)測(cè)。訓(xùn)練集樣本在TA-LSTM 模型預(yù)測(cè)之前,通過(guò)網(wǎng)格參數(shù)搜索法訓(xùn)練學(xué)習(xí),確定各分量對(duì)應(yīng)的網(wǎng)絡(luò)各種必要參數(shù),訓(xùn)練完成后對(duì)各分量測(cè)試集樣本進(jìn)行預(yù)測(cè),從而得到各分量歸一化的預(yù)測(cè)值。
(5) 融合。將各分量預(yù)測(cè)結(jié)果進(jìn)行逆歸一化處理,并融合得到最終預(yù)測(cè)值。
本文實(shí)驗(yàn)在Win10 64 位系統(tǒng)下進(jìn)行,處理器為Inter(R) Core(TM) i5-8300H CPU @2.30 GHz 2.30 GHz,基于Python3.6 環(huán)境和keras 框架,keras版本為2.2.4。實(shí)驗(yàn)數(shù)據(jù)選取開(kāi)灤集團(tuán)東歡陀煤礦采集的明渠流量數(shù)據(jù)為研究對(duì)象(見(jiàn)圖4),在實(shí)際采集過(guò)程中,每5 min 統(tǒng)計(jì)一次,共2400 組。從圖4中可以看出,數(shù)據(jù)呈現(xiàn)強(qiáng)烈的振蕩特性和一定的趨勢(shì)性,但并不具有明顯的規(guī)律特性,若使用單一的神經(jīng)網(wǎng)絡(luò)模型,則預(yù)測(cè)難度較大。對(duì)明渠流量數(shù)據(jù)進(jìn)行EMD 分解,分解結(jié)果見(jiàn)圖5,共11 個(gè)子分量,從上到下分別為10 個(gè)IMF 分量和1 個(gè)殘差分量。從圖5 可以看出各分量按頻率從高到低排列,即最先得到的第1 個(gè)分量為最高頻分量IMF1,然后是次高頻分量IMF2,依次類(lèi)推,最后是頻率接近于0的殘差分量。對(duì)比圖4,各IMF 分量反映數(shù)據(jù)在不同時(shí)間尺度上的波動(dòng)特征,殘差分量反映數(shù)據(jù)的長(zhǎng)期趨勢(shì)特征。
圖4 東歡陀煤礦明渠流量序列圖
圖5 EMD 分解序列圖3 實(shí)驗(yàn)驗(yàn)證
對(duì)分解后的每個(gè)子分量都采用留出法將其劃分為2 個(gè)互斥的集合,其中一個(gè)集合作為訓(xùn)練集,另一個(gè)集合作為測(cè)試集,本文將前80%組數(shù)據(jù)作為訓(xùn)練集,后20%作為測(cè)試集。
通過(guò)深度學(xué)習(xí)keras 庫(kù)構(gòu)建時(shí)序注意力機(jī)制預(yù)測(cè)模型,分別對(duì)分解后的每個(gè)子分量進(jìn)行訓(xùn)練學(xué)習(xí),模型具體網(wǎng)絡(luò)參數(shù)設(shè)置如下。
(1) 輸入層、輸出層。神經(jīng)元數(shù)目由輸入變量和輸出變量決定。明渠流量數(shù)據(jù)每5 min 統(tǒng)計(jì)一次,綜合考慮數(shù)據(jù)的變化趨勢(shì),并進(jìn)行多次嘗試,最終本文將前20 個(gè)時(shí)間點(diǎn)的數(shù)據(jù)作為特征,下一個(gè)時(shí)間點(diǎn)數(shù)據(jù)作為標(biāo)簽,創(chuàng)建特征集和標(biāo)簽集。意為用前20 個(gè)時(shí)間點(diǎn)的數(shù)據(jù)預(yù)測(cè)后一時(shí)刻時(shí)間點(diǎn)數(shù)據(jù),所以輸入層神經(jīng)元個(gè)數(shù)為20,輸出層神經(jīng)元個(gè)數(shù)為1。
(2) 優(yōu)化器、神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)方法。本文選擇Adam 優(yōu)化器,它結(jié)合了AdaGrad 和RMSProp 2 種算法的優(yōu)點(diǎn),計(jì)算高效,對(duì)內(nèi)存需求少,參數(shù)的更新不受梯度的伸縮變換影響。
(3) 損失函數(shù)。神經(jīng)網(wǎng)絡(luò)訓(xùn)練時(shí)試圖最小化的目標(biāo)函數(shù),損失函數(shù)的選取取決于輸入標(biāo)簽數(shù)據(jù)的類(lèi)型,因?yàn)楸疚妮斎氲氖菙?shù)值,所以將損失函數(shù)參數(shù)設(shè)置為均方誤差(mean square error,MSE)。
目前,神經(jīng)網(wǎng)絡(luò)隱藏層神經(jīng)元個(gè)數(shù)根據(jù)經(jīng)驗(yàn)設(shè)置,重復(fù)進(jìn)行多次實(shí)驗(yàn)后,比較不同數(shù)量的隱含層神經(jīng)元個(gè)數(shù)的預(yù)測(cè)誤差。當(dāng)隱含層神經(jīng)元個(gè)數(shù)為32時(shí),預(yù)測(cè)結(jié)果與實(shí)際值的均方根誤差最小。
在同一數(shù)據(jù)集上用BP、LSTM、TA-LSTM、EMDLSTM 與本文提出的EMD-TA-LSTM 模型在迭代次數(shù)都為100的情況下進(jìn)行了對(duì)比實(shí)驗(yàn),預(yù)測(cè)結(jié)果如圖6 所示。
圖6 各模型預(yù)測(cè)對(duì)比圖
從圖6~圖9 中可以看出:(1)對(duì)比BP 和LSTM神經(jīng)網(wǎng)絡(luò),兩者的預(yù)測(cè)結(jié)果都具備良好的趨勢(shì)性,但LSTM 模型相比于BP 模型更能預(yù)測(cè)出原始數(shù)據(jù)的波動(dòng)特性,如圖8 中BP 模型在時(shí)間為180 和220 左右預(yù)測(cè)結(jié)果與實(shí)際數(shù)值誤差過(guò)大,所以對(duì)于波動(dòng)性強(qiáng)烈且非線性的明渠流量數(shù)據(jù)來(lái)說(shuō),LSTM 神經(jīng)網(wǎng)絡(luò)更合適。(2)對(duì)比LSTM 和TA-LSTM 模型預(yù)測(cè)結(jié)果,TA-LSTM 模型具備更好的跟隨性和波動(dòng)性,如圖7 時(shí)間在60~80 范圍內(nèi)TA-LSTM 模型預(yù)測(cè)結(jié)果更接近實(shí)際值。(3) 對(duì)比LSTM、EMD-LSTM 和EMD-TA-LSTM 模型預(yù)測(cè)結(jié)果,雖然EMD-LSTM 和EMD-TA-LSTM 模型預(yù)測(cè)結(jié)果都幾乎與原始數(shù)據(jù)保持一致的趨勢(shì)性和波動(dòng)性,但在數(shù)據(jù)突然有較大范圍變化時(shí),EMD-TA-LSTM 可以及時(shí)捕捉并進(jìn)行預(yù)測(cè),如圖7 時(shí)間在60~80 范圍內(nèi)有2 次數(shù)據(jù)突變的情況時(shí)EMD-TA-LSTM的預(yù)測(cè)效果均好于EMDLSTM,預(yù)測(cè)值更接近實(shí)際值。從圖10 中各模型預(yù)測(cè)誤差可以看出,EMD-TA-LSTM 模型的誤差明顯小于其他模型,尤其是相對(duì)于傳統(tǒng)的BP 和LSTM 模型誤差降低了將近一半,相比于TA-LSTM 和EMDLSTM 模型誤差也有所降低,進(jìn)一步說(shuō)明本文方法更適合用于明渠流量的預(yù)測(cè)。
圖7 0~150 時(shí)間段內(nèi)各模型預(yù)測(cè)放大對(duì)比圖
圖8 150~275 時(shí)間段內(nèi)各模型預(yù)測(cè)放大對(duì)比圖
圖9 275~373 時(shí)間段內(nèi)各模型預(yù)測(cè)放大對(duì)比圖
圖10 各模型預(yù)測(cè)絕對(duì)誤差對(duì)比圖
針對(duì)各預(yù)測(cè)模型采用預(yù)測(cè)評(píng)價(jià)指標(biāo)為均方根誤差(root mean squared error,RMSE)和平均絕對(duì)百分比誤差(mean absolute percentage error,MAPE),并對(duì)預(yù)測(cè)結(jié)果進(jìn)一步分析。各模型預(yù)測(cè)性能評(píng)估如表1所示。值越小代表預(yù)測(cè)精度越高,預(yù)測(cè)指標(biāo)如下:
式中,xactual代表真實(shí)值,xforecasting代表預(yù)測(cè)值,n為預(yù)測(cè)值和真實(shí)值個(gè)數(shù)。
從表1 中各模型預(yù)測(cè)性能評(píng)估值來(lái)看,本文所提出模型的均方根誤差和平均絕對(duì)百分比誤差分別比單一預(yù)測(cè)模型BP 降低了49.2%、45.8%,比單一預(yù)測(cè)模型LSTM 降低了43.4%、47.7%,比EMDLSTM 降低了11.3%、7.9%,比LSTM-Attention 降低了34.9%、36.3%。依據(jù)誤差指標(biāo)來(lái)看,本文所提模型預(yù)測(cè)精度最高,說(shuō)明將明渠流量通過(guò)EMD 分解轉(zhuǎn)換為多個(gè)子分量,然后建立EMD-TA-LSTM 模型進(jìn)行預(yù)測(cè)可以在原有LSTM的基礎(chǔ)上提高預(yù)測(cè)精度。
表1 各模型預(yù)測(cè)誤差值對(duì)比
本文提出一種基于EMD 和時(shí)序注意力機(jī)制結(jié)合的礦井明渠流量預(yù)測(cè)模型。該模型通過(guò)EMD 提取明渠流量數(shù)據(jù)在不同時(shí)間維度上的波動(dòng)趨勢(shì)和趨勢(shì)特征,將對(duì)明渠流量的研究轉(zhuǎn)換為對(duì)其分解后各子分量的研究。針對(duì)LSTM 網(wǎng)絡(luò)在輸入長(zhǎng)序列時(shí)信息容易丟失的問(wèn)題,在LSTM的基礎(chǔ)上引入注意力機(jī)制構(gòu)造時(shí)序注意力機(jī)制模型,通過(guò)該模型訓(xùn)練學(xué)習(xí)突出歷史關(guān)鍵時(shí)間點(diǎn)的重要信息,挖掘每一時(shí)刻對(duì)當(dāng)前時(shí)刻的影響程度。經(jīng)過(guò)實(shí)驗(yàn)驗(yàn)證,本文提出的模型預(yù)測(cè)效果最好,通過(guò)對(duì)明渠流量的準(zhǔn)確預(yù)測(cè)可以為礦井防治涌水、排水系統(tǒng)設(shè)計(jì)和煤礦安全方面提供技術(shù)支持。
該模型不僅適用于對(duì)明渠流量的預(yù)測(cè),也為其他領(lǐng)域的預(yù)測(cè)研究提供了新思路。但是本文模型的建立沒(méi)有考慮影響明渠流量相關(guān)的變量,如礦區(qū)開(kāi)采過(guò)程的埋深、溫度、降雨量等,因此,在此基礎(chǔ)上充分利用相關(guān)變量建立預(yù)測(cè)模型,提高模型的適用性為下一步研究的重點(diǎn)。