張建中,顧沖時(shí),袁冬陽,王巖博
(1.河海大學(xué)水災(zāi)害防御全國重點(diǎn)實(shí)驗(yàn)室,江蘇 南京 210098; 2.河海大學(xué)水利水電學(xué)院,江蘇 南京 210098)
我國已修建水庫大壩近10萬座,其不僅發(fā)揮了防洪、發(fā)電、供水、航運(yùn)等綜合效益,而且對(duì)調(diào)控水資源時(shí)空分布、助力能源結(jié)構(gòu)低碳轉(zhuǎn)型、促進(jìn)國民經(jīng)濟(jì)發(fā)展等具有重大意義。在運(yùn)行期間,水庫大壩長期服役安全存在很多風(fēng)險(xiǎn)隱患,再加上一些工程設(shè)計(jì)和歷史遺留等問題,很多工程都面臨著安全隱患,一旦失事,將會(huì)對(duì)下游人民的生命財(cái)產(chǎn)安全和水生態(tài)安全造成巨大的威脅[1-2]。安全監(jiān)測(cè)是保證混凝土壩長效服役安全的重要手段[3-5]。變形作為最能直觀反映混凝土壩在外部荷載和內(nèi)部荷載耦合作用下運(yùn)行性態(tài)的監(jiān)測(cè)效應(yīng)量,是安全監(jiān)測(cè)的重點(diǎn)[6-7]。使用混凝土壩變形監(jiān)測(cè)數(shù)據(jù)進(jìn)行合理的變形行為分析及預(yù)測(cè),對(duì)保障混凝土壩長效服役安全、實(shí)時(shí)診斷大壩健康態(tài)勢(shì)與預(yù)測(cè)未來運(yùn)行行為具有重要意義[3,8]。
混凝土壩變形監(jiān)測(cè)數(shù)據(jù)是一種非線性、非穩(wěn)態(tài)特征的時(shí)間序列,使用信號(hào)分解理論可將其分離成不同頻率信號(hào)序列[9-11]。為提高預(yù)測(cè)精度,通過引入“分解-重構(gòu)”的思想,將監(jiān)測(cè)數(shù)據(jù)進(jìn)行高低頻分解,分解成不同頻率的子序列,然后分別進(jìn)行預(yù)測(cè)、重構(gòu)[12-13]。朱寶強(qiáng)等[14]依據(jù)時(shí)間序列原理將混凝土壩位移序列分解為趨勢(shì)項(xiàng)與隨機(jī)項(xiàng),并用改進(jìn)的支持向量機(jī)(support vector machine,SVM)進(jìn)行預(yù)測(cè);陳俊風(fēng)等[15]使用小波分解把原始序列分解成多個(gè)子序列,用優(yōu)化的BP神經(jīng)網(wǎng)絡(luò)分別對(duì)這些子序列進(jìn)行預(yù)測(cè);徐肖遙等[16]使用經(jīng)驗(yàn)?zāi)B(tài)分解(empirical mode decomposition,EMD)將變形數(shù)據(jù)分解成多尺度變形分量,結(jié)合改進(jìn)的極限學(xué)習(xí)機(jī)(extreme learning machine,ELM)對(duì)變形分量進(jìn)行預(yù)測(cè);馬佳佳等[17]運(yùn)用集合經(jīng)驗(yàn)?zāi)B(tài)分解(ensemble empirical mode decomposition,EEMD)將原始數(shù)據(jù)分解為不同頻率分量,然后分別使用長短期記憶神經(jīng)網(wǎng)絡(luò)(long short term memory neural network,LSTM)和多元線性回歸對(duì)高頻和低頻分量進(jìn)行預(yù)測(cè);王飛等[18]采用局部均值分解將變形數(shù)據(jù)分解成趨勢(shì)項(xiàng)和隨機(jī)項(xiàng),結(jié)合相關(guān)向量機(jī)和整合移動(dòng)平均自回歸模型進(jìn)行組合預(yù)測(cè);張健飛等[19]使用變分模態(tài)分解(variational mode decomposition,VMD)將變形時(shí)間序列數(shù)據(jù)分解成一系列模態(tài)分量,采用卷積神經(jīng)網(wǎng)絡(luò)對(duì)各模態(tài)分量建模并預(yù)測(cè)。
相比于單一方法(如BP[20]、ELM[16]、SVM[21]等)的變形預(yù)測(cè)模型,以上“分解-重構(gòu)”變形預(yù)測(cè)模型具有更好的性能,但其分解及預(yù)測(cè)方法對(duì)模型預(yù)測(cè)性能有著很大的影響[19-22]。就位移序列分解方法而言,小波分析分解徹底,但自適應(yīng)能力不強(qiáng),分解尺度選取困難,很難獲得最優(yōu)解[23-24];經(jīng)驗(yàn)?zāi)B(tài)分解自適應(yīng)性強(qiáng),時(shí)頻分辨率高,但存在模態(tài)混疊等問題[25];EEMD雖能抑制模態(tài)混疊現(xiàn)象,但分解個(gè)數(shù)隨機(jī)不可控,需要多次迭代求均值[26];局部均值分解可緩解端點(diǎn)效應(yīng),但在模態(tài)混疊方面仍需改進(jìn)[27];相比EMD和EEMD等分解方法,VMD擁有更好的魯棒性,可通過信號(hào)的自適應(yīng)分解,有效緩解EMD模態(tài)混疊和解決EEMD分解層數(shù)不可控等問題[21,28]。
就模型預(yù)測(cè)而言,BP神經(jīng)網(wǎng)絡(luò)具有出色的非線性特質(zhì),但收斂速度慢[20];ELM收斂速度快、泛化能力強(qiáng),但模型穩(wěn)定性不夠理想[16];SVM擁有很好的學(xué)習(xí)能力,但模型計(jì)算速度比較慢,魯棒性還需提高[21];整合移動(dòng)平均自回歸模型在時(shí)間序列上有很強(qiáng)的有效性,但只能預(yù)測(cè)具有線性關(guān)系的數(shù)據(jù)[18]。而混凝土壩在運(yùn)行過程中產(chǎn)生的變形監(jiān)測(cè)數(shù)據(jù)是一種時(shí)間序列,循環(huán)神經(jīng)網(wǎng)絡(luò)(recurrent neural network,RNN)是一種擅長處理各種與時(shí)間序列有關(guān)的深度學(xué)習(xí)算法[29-30]。LSTM和門控循環(huán)單元(gate recurrent unit,GRU)在RNN基礎(chǔ)上進(jìn)行改進(jìn),是兩種特殊的循環(huán)神經(jīng)網(wǎng)絡(luò),能有效解決RNN存在的梯度消失等問題,且相比LSTM,GRU具有更少的參數(shù),其訓(xùn)練效率更高[31-34]。
考慮到“分解-重構(gòu)”預(yù)測(cè)模型相比單一模型具有更好的預(yù)測(cè)性能,本文提出了一種基于優(yōu)化VMD與GRU的混凝土壩變形預(yù)測(cè)模型,針對(duì)VMD分解參數(shù)需人為設(shè)置,參數(shù)過大或過小都會(huì)影響分解效果,GRU超參數(shù)的設(shè)置直接影響其訓(xùn)練速度、使用效果及魯棒性等問題[35-36],引入一種具有結(jié)構(gòu)簡(jiǎn)單、參數(shù)少、求解精度高及收斂速度快等優(yōu)點(diǎn)的群智能優(yōu)化算法(grey wolf optimization,GWO)對(duì)VMD及GRU的參數(shù)進(jìn)行優(yōu)化選取,并與GRU、BP神經(jīng)網(wǎng)絡(luò)、ELM及VMD-GRU等預(yù)測(cè)模型進(jìn)行對(duì)比,驗(yàn)證該模型的可靠性與有效性。
VMD是一種非迭代、自適應(yīng)且準(zhǔn)正交的信號(hào)分解方法。該方法本質(zhì)上是一種基于希爾伯特變換和混合頻率變分問題的自適應(yīng)維納濾波器,可以通過循環(huán)迭代的方式,搜尋求得變分問題的最優(yōu)解,基于交替方向乘子法,確定每個(gè)本征模態(tài)函數(shù)(intrinsic mode function,IMF)的中心頻率和帶寬,由此實(shí)現(xiàn)各分量從低頻到高頻的有效分離,從而得到信號(hào)頻域的特征信息。懲罰因子α和分解模態(tài)數(shù)K是變分模態(tài)分解過程中約束帶寬的重要參數(shù),決定各模態(tài)的能量變化,其取值對(duì)最終分解效果的準(zhǔn)確性以及后續(xù)信號(hào)處理有著至關(guān)重要的影響,目前VMD參數(shù)一般采用人為設(shè)置,對(duì)數(shù)據(jù)分解的高效性與精確性有很大的影響,且很難達(dá)到最佳分解效果。本文采用GWO對(duì)VMD的兩個(gè)參數(shù)α和K進(jìn)行優(yōu)化取值。
排列熵可以反映出信號(hào)的復(fù)雜程度,計(jì)算排列熵可以確定位移序列分解后的復(fù)雜程度,故將排列熵作為優(yōu)化VMD參數(shù)的適應(yīng)度函數(shù),排列熵越小表示VMD分解后序列越有規(guī)律,越大表示VMD分解后序列越混亂[37],故以排列熵取得最小值作為尋優(yōu)目標(biāo),對(duì)參數(shù)進(jìn)行優(yōu)化取值。采用GWO優(yōu)化VMD的步驟如下:
步驟1獲取大壩原始變形監(jiān)測(cè)數(shù)據(jù)。
步驟2算法參數(shù)設(shè)置。如狼群規(guī)模N、最大迭代次數(shù)tmax、參數(shù)α及K的上下限。
步驟3初始化灰狼位置向量。
步驟4計(jì)算個(gè)體適應(yīng)度值。適應(yīng)度函數(shù)HP的表達(dá)式如下:
(1)
式中:Pj指重構(gòu)后矩陣序列出現(xiàn)的頻率;k為j的取值上限。
步驟5將當(dāng)前最優(yōu)個(gè)體參數(shù)分別保存至θ、β和δ狼的位置向量中?;依桥c獵物之間的距離及第t+1代灰狼的位置向量分別如下:
Dω=|C×Xpt-Xt|
(2)
Xt+1=Xpt-A×Dω
(3)
式中:Dω為灰狼與獵物之間的距離;Xpt為第t代獵物的位置向量;Xt、Xt+1分別表示第t和第t+1代灰狼的位置向量;A、C為系數(shù)向量。
步驟6更新尋優(yōu)控制因子、A和C及候選狼ω的位置向量。A、C及ω狼的位置向量表達(dá)式分別如下:
A=2a×r1-a
(4)
C=2r2
(5)
Xt+1=(X1+X2+X3)/3
(6)
式中:a為控制因子;r1、r2是模在[0,1]間的隨機(jī)向量。
步驟7迭代終止條件判別。如果t 步驟8輸出模型最優(yōu)參數(shù)(α,K),將其代入VMD算法分解原始數(shù)據(jù),得到優(yōu)化后的IMF分量。 GRU是一種特殊類型的RNN,相比標(biāo)準(zhǔn)的RNN,GRU更完整地描述了監(jiān)測(cè)效應(yīng)量序列的長短期時(shí)序相關(guān)性。GRU主要由重置門和更新門組成,重置門決定信息被遺忘的程度,更新門決定上一隱藏狀態(tài)傳遞給當(dāng)前隱藏層多少信息。經(jīng)過VMD分解后,各個(gè)分量的變化規(guī)律相比原始數(shù)據(jù)序列更加平穩(wěn),使用1層GRU網(wǎng)絡(luò)神經(jīng)元即可滿足訓(xùn)練要求。隱含層隱含神經(jīng)元個(gè)數(shù)n與初始學(xué)習(xí)率r是GRU網(wǎng)絡(luò)預(yù)測(cè)過程中的重要參數(shù),對(duì)模型構(gòu)建及其預(yù)測(cè)精度有著至關(guān)重要的影響,目前GRU參數(shù)一般采用人為設(shè)置,隨機(jī)性很大,很難達(dá)到最佳預(yù)測(cè)效果。本文采用GWO對(duì)GRU的n、r參數(shù)進(jìn)行優(yōu)化取值,以提高預(yù)測(cè)精度。 GWO優(yōu)化GRU算法步驟與GWO優(yōu)化VMD算法步驟基本一致,不同之處在于GWO優(yōu)化GRU時(shí)采用均方誤差(EMSE)作為適應(yīng)度函數(shù),以EMSE最小值作為尋優(yōu)目標(biāo),即 (7) 式中:m為訓(xùn)練樣本容量;yi為實(shí)測(cè)變形;y′i為訓(xùn)練得到的變形。 根據(jù)上述方法原理,優(yōu)化VMD與GRU模型(以下簡(jiǎn)稱“本文模型”)的主要實(shí)現(xiàn)過程如下:①利用GWO優(yōu)化求解VMD的重要參數(shù)α及K,使用優(yōu)化的VMD把原始數(shù)據(jù)分解為一組最優(yōu)IMF分量;②利用GWO優(yōu)化求解GRU的重要參數(shù)n及r,使用優(yōu)化的GRU模型對(duì)每個(gè)IMF分量進(jìn)行時(shí)序預(yù)測(cè);③將各IMF預(yù)測(cè)結(jié)果疊加,得到位移序列預(yù)測(cè)結(jié)果。模型預(yù)測(cè)流程如圖1所示。 圖1 本文模型預(yù)測(cè)流程 某特高拱壩正常蓄水位1240m,總庫容150億m3,壩頂高程1245m,頂寬12m,壩體共由43個(gè)壩段組成。為掌握大壩工作性態(tài),采用垂線法監(jiān)測(cè)壩體水平位移,垂線測(cè)點(diǎn)具體布置情況如圖2所示。為分析本文模型的有效性與合理性,取A09-PL-01、A22-IP-01和A29-IP-01共3個(gè)測(cè)點(diǎn)2010年7月1日至2020年2月10日的變形監(jiān)測(cè)數(shù)據(jù)作為分析對(duì)象,具體監(jiān)測(cè)數(shù)據(jù)如圖3所示。 圖2 垂線測(cè)點(diǎn)布置 圖3 實(shí)測(cè)位移變形監(jiān)測(cè)數(shù)據(jù) 為避免VMD參數(shù)隨意取值影響分解效果,首先利用GWO迭代優(yōu)化α和K兩個(gè)參數(shù),GWO狼群數(shù)量與最大迭代次數(shù)分別10和50,α及K的取值區(qū)間分別為[100,10000]與[2,10]。測(cè)點(diǎn)A09-PL-01的尋優(yōu)結(jié)果為α=6071、K=8,測(cè)點(diǎn)分解結(jié)果如圖4所示。 圖4 A09-PL-01測(cè)點(diǎn)GWO優(yōu)化VMD序列分解 測(cè)點(diǎn)的模態(tài)分量按從低頻到高頻的順序進(jìn)行排序,測(cè)點(diǎn)的IMF1分量是表示大壩變形趨勢(shì)整體呈上升狀態(tài)的趨勢(shì)項(xiàng);測(cè)點(diǎn)的IMF2~I(xiàn)MF5分量是周期性強(qiáng)、平穩(wěn)強(qiáng)度高的周期項(xiàng);測(cè)點(diǎn)的其余分量是周期性弱、平穩(wěn)性低的隨機(jī)項(xiàng)。 將2010年7月1日至2018年9月6日監(jiān)測(cè)數(shù)據(jù)作為訓(xùn)練集,2018年9月7日至2020年2月17日監(jiān)測(cè)數(shù)據(jù)作為測(cè)試集,以測(cè)試集的預(yù)測(cè)性能來驗(yàn)證模型的效果。 為避免GRU參數(shù)隨意取值影響預(yù)測(cè)效果,使用GWO對(duì)GRU參數(shù)n及r進(jìn)行參數(shù)尋優(yōu),以更好地捕獲每個(gè)IMF的趨勢(shì)進(jìn)行準(zhǔn)確預(yù)測(cè),GWO狼群數(shù)量與最大迭代次數(shù)分別取10和50,參數(shù)n、r的取值區(qū)間分別為[2,20]與[0.001,0.02]。各個(gè)分量參數(shù)[n,r]的尋優(yōu)結(jié)果分別為[7,0.017]、[13,0.016]、[20,0.011]、[8,0.010]、[17,0.009]、[11,0.011]、[6,0.020]、[14,0.011]。將優(yōu)化參數(shù)代入GWO優(yōu)化GRU進(jìn)行預(yù)測(cè),各分量的預(yù)測(cè)結(jié)果如圖5所示。 圖5 A09-PL-01測(cè)點(diǎn)各IMF分量GWO優(yōu)化GRU預(yù)測(cè)結(jié)果 從圖5可以看出,各分量的實(shí)測(cè)值和預(yù)測(cè)值的最大誤差不超過0.1mm,預(yù)測(cè)誤差很小。將測(cè)點(diǎn)所包含的各IMF分量預(yù)測(cè)結(jié)果疊加,得到測(cè)點(diǎn)變形預(yù)測(cè)結(jié)果。同時(shí),為驗(yàn)證本文模型的有效性,同時(shí)采用GRU、BP神經(jīng)網(wǎng)絡(luò)、ELM及VMD-GRU模型等預(yù)測(cè)方法進(jìn)行預(yù)測(cè),預(yù)測(cè)結(jié)果對(duì)比如圖6所示。 圖6 A09-PL-01測(cè)點(diǎn)各模型預(yù)測(cè)結(jié)果對(duì)比 為進(jìn)一步驗(yàn)證本文模型的普適性,對(duì)A22-IP-01和A29-IP-01兩個(gè)測(cè)點(diǎn)進(jìn)行建模預(yù)測(cè),結(jié)果如圖7所示。為評(píng)估本文模型的預(yù)測(cè)精度,綜合采用決定系數(shù)(R2)、平均絕對(duì)誤差(MAE)、均方根誤差(RMSE)和平均絕對(duì)百分比誤差(MAPE)作為各測(cè)點(diǎn)預(yù)測(cè)模型預(yù)測(cè)統(tǒng)計(jì)指標(biāo),計(jì)算結(jié)果如表1所示。 表1 各預(yù)測(cè)模型性能評(píng)價(jià)指標(biāo) 圖7 兩個(gè)測(cè)點(diǎn)各模型預(yù)測(cè)結(jié)果對(duì)比 由圖6與圖7可以看出,對(duì)于A09-PL-01、A22-IP-01和A29-IP-01這3個(gè)測(cè)點(diǎn),5種預(yù)測(cè)模型預(yù)測(cè)值與真實(shí)值的變化趨勢(shì)基本一致,但相比BP神經(jīng)網(wǎng)絡(luò)、ELM、GRU以及VMD-GRU模型的預(yù)測(cè)結(jié)果,本文模型的預(yù)測(cè)值更加接近實(shí)測(cè)變形值,預(yù)測(cè)值和實(shí)測(cè)值基本吻合,模型具有更高的精度。由表1可知,本文模型的MAE、RMSE與MAPE均明顯小于BP神經(jīng)網(wǎng)絡(luò)、ELM、GRU與VMD-GRU模型。這3個(gè)測(cè)點(diǎn)本文模型的R2分別為0.9996、0.9996和0.9995,顯著接近于1,且明顯高于其他4個(gè)模型,進(jìn)一步說明了本文模型預(yù)測(cè)性能的優(yōu)良性。由此可以得出,本文模型比GRU、BP神經(jīng)網(wǎng)絡(luò)、ELM以及VMD-GRU模型的預(yù)測(cè)精度更高,有效驗(yàn)證了該模型的普適性與穩(wěn)健性。 采用GWO分別優(yōu)化VMD及GRU的重要參數(shù),避免人工賦值的不確定性,解決了模型參數(shù)選擇困難的問題,提高了數(shù)據(jù)挖掘及非線性處理能力。 基于“分解-重構(gòu)”的思想,將監(jiān)測(cè)數(shù)據(jù)進(jìn)行高低頻分解,分解成不同頻率的子序列,并結(jié)合深度學(xué)習(xí)網(wǎng)絡(luò)對(duì)其預(yù)測(cè)再重構(gòu),相比單一手段建立的預(yù)測(cè)模型,預(yù)測(cè)性能更好;本文模型相比未進(jìn)行參數(shù)尋優(yōu)的VMD-GRU模型預(yù)測(cè)精度更高,實(shí)例進(jìn)一步驗(yàn)證了本文模型的有效性、泛化性及準(zhǔn)確性。1.2 GWO優(yōu)化GRU
1.3 優(yōu)化VMD與GRU模型預(yù)測(cè)流程
2 工程實(shí)例驗(yàn)證
2.1 實(shí)測(cè)序列分解
2.2 建模預(yù)測(cè)
2.3 模型對(duì)比及精度分析
3 結(jié) 語