亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于GCA-ConvLSTM預(yù)測網(wǎng)格的短臨降水雷達回波外推方法

        2023-01-01 00:00:00方巍沈亮鄒立堯龐林
        暴雨災(zāi)害 2023年4期

        摘要:短臨降水預(yù)報對于暴雨和強對流天氣監(jiān)測預(yù)警服務(wù)具有重要意義,使用雷達回波外推方法進行短臨降水預(yù)報是目前較為常用的預(yù)報方法之一,但是傳統(tǒng)的雷達回波外推方法普遍存在數(shù)據(jù)利用率低、外推準確性差和外推模糊等問題。針對上述問題,利用陜西全省雷達拼接數(shù)據(jù)資料,選擇深度學(xué)習(xí)中編碼器-解碼器結(jié)構(gòu),以卷積長短期記憶網(wǎng)絡(luò)(Convolutional Long Short-Term Memory Network, ConvLSTM)作為循環(huán)單元,構(gòu)造了基于全局通道注意力的ConvLSTM預(yù)測網(wǎng)絡(luò)(Global Channel Attention based ConvLSTM, GCA-ConvLSTM);此外,為進一步提高GCA-ConvLSTM預(yù)測網(wǎng)絡(luò)的擬合能力,使用集成學(xué)習(xí)算法對其進行改進,通過裝袋算法對數(shù)據(jù)集進行采樣,訓(xùn)練3個GCA-ConvLSTM預(yù)測網(wǎng)絡(luò)作為基學(xué)習(xí)器,使用加權(quán)投票策略將這3種基學(xué)習(xí)器進行有效組合,最終獲得了一個性能更優(yōu)的組合模型。試驗結(jié)果表明,基于集成學(xué)習(xí)算法改進的GCA-ConvLSTM雷達回波外推方法與現(xiàn)有深度學(xué)習(xí)方法相比,提升了短臨降水預(yù)報方法的準確性和時效;該方法在25 dBz、35 dBz和45 dBz反射率閾值下的評估試驗中分別比對比的主流深度學(xué)習(xí)模型CSI值平均高出0.149、0.192、0.085;同時該方法的外推結(jié)果擁有更加清晰的邊緣和細節(jié)性紋理,減輕了外推后期模糊問題。

        關(guān)鍵詞:短臨降水預(yù)報;雷達回波外推;GCA-ConvLSTM;集成學(xué)習(xí);裝袋算法

        中圖法分類號:P457.6文獻標志碼:ADOI:10.12406/byzh.2021-245

        資助項目:國家自然科學(xué)基金面上項目(42075007);中國氣象科學(xué)研究院災(zāi)害天氣國家重點實驗室開放課題(2021LASWB19)

        Extrapolation method of precipitation nowcasting radar echo based on GCA-ConvLSTM prediction network

        FANG Wei1, 2, 3, SHEN Liang1, ZOU Liyao2, PANG Lin1, 2

        (1.School of Computer Science,Jiangsu Collaborative Innovation Center of Atmospheric Environment and Equipment Technology (CICAEET) Nanjing University of Information Science Technology, Nanjing 210044;2. Training Center CMA, Beijing 100081; 3.State Key Laboratory of Severe Weather, Chinese Academy of Meteorological Sciences, Beijing 100081)

        Abstract: Precipitation nowcasting is of great significance for severe convective weather warning. Radar echo extrapolation is a commonly used precipitation nowcasting method. However, the traditional radar echo extrapolation methods are encountered with the dilemma of such as low data utilization and of the extrapolation ambiguity. To solve the above problems,weutilize the radar data of Shaanxi Province and choos? es the Encoder-Decoder as the overall structure of the prediction model. Besides, we choose the ConvLSTM (Convolutional Long Short-Term Memory) as the unit of the prediction model, and designs aglobal channel attention mechanism integrated into the model tobuild a prediction network called GCA-ConvLSTM (Global Channel Attention based ConvLSTM). In addition, to further improve the fitting ability of our predic? tion model, we use the ensemble learning method to achieve this goal. The algorithm first samples the dataset through the Bagging algorithm, and then we use these sampled data to train three GCA-ConvLSTM networks as the base learner. In the end, we obtain a better performance model which effectively combines the three base learners by using a weighted voting strategy. The experimental results show that the im? proved GCA-ConvLSTM radar echo extrapolation method based on the ensemble learning algorithm improves the accuracy and timeliness of the precipitation nowcasting compared with the existing deep learning methods.In the evaluation experiments under the reflectivity thresh? olds of 25 dBz, 35 dBz and 45 dBz, this method is 0.149, 0.192, and 0.085 higher than the average CSI values of the mainstream deep learn? ing models.The extrapolation results of this method have clearer edges and detailed textures, which alleviates the blurring problem in the lat? er stage of extrapolation.

        Key words: precipitation nowcasting;radar echo extrapolation; GCA-ConvLSTM; ensemble learning; bagging

        引言

        短臨預(yù)報通常指12 h內(nèi)的短時天氣預(yù)報,以及2 h以內(nèi)的臨近天氣預(yù)報。短臨預(yù)報重點關(guān)注突發(fā)性強、生命周期短、生消演變快的中小尺度天氣系統(tǒng),尤其是強對流天氣系統(tǒng)(肖蕾等,2021)。相對短期降水預(yù)報,短臨降水預(yù)報的時效更短、落區(qū)和強度更難把握、預(yù)報難度更大,但是精準的短臨預(yù)報對于防災(zāi)減災(zāi)、保護人民生命財產(chǎn)安全具有重要意義(俞小鼎等,2013)。

        雷達回波外推是進行短臨降水預(yù)報的一種常用方法,相較于傳統(tǒng)的數(shù)值天氣預(yù)報方法能夠?qū)崿F(xiàn)更快、更準確的預(yù)報,其原理是利用雷達探測到的回波數(shù)據(jù),確定回波的強度分布及回波體移動速度和方向,通過對回波體進行線性或非線性的外推,預(yù)報一定時間段后的雷達回波狀態(tài)。傳統(tǒng)基于形態(tài)學(xué)的雷達回波外推技術(shù)主要有交叉相關(guān)法(Austin and Bellon,1974;Rinehart and Garvey,1978)和單體質(zhì)心法(Crane,1979;Johnson et al.,1998)。交叉相關(guān)法選取2個連續(xù)時次的空間優(yōu)化相關(guān)系數(shù)建立擬合關(guān)系,對數(shù)據(jù)利用率低,對于速度梯度大、演變快的回波圖像反演誤差大,難以推演實際天氣狀況。質(zhì)心跟蹤法在穩(wěn)定性降水預(yù)報在中可以取得較好效果(Germann and Zawadzki,2002),但在局部地區(qū)對流天氣中,因回波發(fā)展演變較快,無法滿足守恒條件,預(yù)報效果會隨時間的變化快速下降。Gibson(1950)提出光流法,從連續(xù)的圖像序列中計算光流場,利用圖像序列中像素在時間域上的變化及相鄰幀的圖像之間的相關(guān)性,建立上一幀之間存在的對應(yīng)關(guān)系,再計算出相鄰幀的圖像之間雷達回波的運動信息(曹春燕等,2015)。田剛等(2021)利用變分光流法實現(xiàn)了長江流域雷達外推降水預(yù)報,提高了洪水預(yù)報精度。光流法能夠捕捉雷達回波的運動和變化信息,但是沒有充分利用更長時間上的回波圖像信息且預(yù)報具有滯后性,無法滿足實時預(yù)報需求。傳統(tǒng)的雷達回波外推方法雖被廣泛應(yīng)用,但仍存在如下局限性:(1)難以對回波的生消演變過程進行準確的建模;(2)當(dāng)預(yù)報范圍較大時,傳統(tǒng)外推方法耗時較長,預(yù)報具有滯后性,無法滿足實時預(yù)報需求。

        在氣象大數(shù)據(jù)的背景下,深度學(xué)習(xí)已廣泛應(yīng)用在氣象領(lǐng)域。利用深度學(xué)習(xí)方法可以在大量數(shù)據(jù)中找出潛在的復(fù)雜關(guān)系,并學(xué)習(xí)到相對集中的特征表征模式,更有利于對指定區(qū)域未來時間段內(nèi)的氣象要素做出精準預(yù)報。深度學(xué)習(xí)中的卷積神經(jīng)網(wǎng)絡(luò)(Convolu? tional Neural Networks,CNN)可以有效提取圖像的空間特征信息,而長短期記憶網(wǎng)絡(luò)(Long Short-Term Memo? ry,LSTM)是提取時序信息的主要模型(Hochreiter and Schmidhuber,1997),Shi等(2015)將二者結(jié)合,提出卷積長短期記憶神經(jīng)網(wǎng)絡(luò)(Convolutional LSTM Network,ConvLSTM)模型,建立一個端到端的預(yù)測模型,預(yù)報精度高于光流法。此后,在ConvLSTM的基礎(chǔ)上發(fā)展了很多改進的變體結(jié)構(gòu)。如Shi等(2017)又引入了光流軌跡的思想提出了軌跡門控循環(huán)單元(Trajectory Gate Recurrent Unit,TrajGRU),該模型可以主動學(xué)習(xí)用于重復(fù)連接的位置變化結(jié)構(gòu),進一步提高了預(yù)報的準確率。Wang等(2017,2018)先后提出預(yù)測循環(huán)神經(jīng)網(wǎng)絡(luò)(Predictive Recurrent Neural Network,PredRNN)和預(yù)測循環(huán)神經(jīng)網(wǎng)絡(luò)改進模型(Predictive Recurrent Neural Network Plus Plus,PredRNN++),用于加強捕捉短時動態(tài)變化,同時使用了更大的卷積神經(jīng)感受野,用于捕捉更大的空間變化區(qū)域。Tan等(2018)提出了一種新的基于分層卷積長短期記憶網(wǎng)絡(luò)的深度學(xué)習(xí)模型(ForecastConvolutional Long Short-Term Memory,F(xiàn)ore? cast-CLSTM),并針對衛(wèi)星云圖的預(yù)測引入了一個新?lián)p失函數(shù),該模型融合了層次網(wǎng)絡(luò)結(jié)構(gòu)中的多尺度特征,同時實現(xiàn)了對圖像像素值和運動形態(tài)的預(yù)測。Wang等(2019)提出了MIM (Memory In Memory)模型用以學(xué)習(xí)高階非線性時空動態(tài)信息。Lin等(2020)基于ConvLSTM提出了自注意力機制的ConvLSTM,該模型有效地捕獲了長期的空間依賴關(guān)系。編碼器-解碼器(Encoder-Decoder)是深度學(xué)習(xí)中常見的結(jié)構(gòu),基于該結(jié)構(gòu)的雷達回波外推模型具有更強的表征能力,在圖像特征的提取和還原方面具有優(yōu)勢,在其中嵌入注意力機制(Woo et al.,2018)可以提高模型對于關(guān)鍵特征的學(xué)習(xí)能力。Du等(2020)將Encoder-Decoder和雙向長短期記憶網(wǎng)絡(luò)(Bi-directional Long Short-Term Mem? ory,Bi-LSTM)結(jié)合,提高了對于多元動態(tài)時間序列的表征能力,提高了預(yù)測精度。在Encoder-Decoder中引入基于學(xué)習(xí)相似模式的硬注意力機制,可以增強神經(jīng)網(wǎng)絡(luò)的記憶并減少誤差累積,在長期預(yù)測中具有更好的準確性和穩(wěn)定性(Wang et al.,2020)。近年的一些基于深度學(xué)習(xí)的模型(Song et al.,2020;S?nderby et al.,2020,F(xiàn)ang et al.,2021;Trebing et al.,2021)在時空序列預(yù)測任務(wù)上也取得不錯效果。此外,Han等(2021)基于Unet構(gòu)造了一種高效準確的強對流預(yù)報模型。Ravuri等(2021)提出的一種深度生成網(wǎng)絡(luò)模型提高了預(yù)測質(zhì)量的同時可以提供概率預(yù)測,該模型提高了預(yù)報價值和業(yè)務(wù)效用。方巍等(2021)提出一種基于對抗型光流長短期記憶網(wǎng)絡(luò)(Deep Convolutional Generative Adver? sarial Flow Based Long Short-Term Memory Network, DCF-LSTM)的回波外推算法進一步提升了預(yù)測準確性的同時也具有較好的抗畸變性。相比于傳統(tǒng)方法,使用深度學(xué)習(xí)進行回波外推,具有數(shù)據(jù)利用率高和預(yù)報精度準確的優(yōu)勢,但是仍然存在明顯的外推模糊問題,在長時雷達回波外推任務(wù)中效果不好。

        為了解決傳統(tǒng)預(yù)測模型無法在信息流中保留長時信息從而導(dǎo)致的預(yù)測精度低和外推結(jié)果模糊等問題,以ConvLSTM作為循環(huán)單元嵌入Encoder-Decoder結(jié)構(gòu)中,加入全局通道注意力(Global Channel Attention,GCA)構(gòu)造了基于全局通道注意力的ConvLSTM預(yù)測網(wǎng)絡(luò)(GlobalChannelAttentionbasedConvLSTM, GCA-ConvLSTM);通過Bagging算法對數(shù)據(jù)集進行采樣,訓(xùn)練3個GCA-ConvLSTM預(yù)測網(wǎng)絡(luò)作為基學(xué)習(xí)器,通過加權(quán)投票策略將這3個基學(xué)習(xí)器進行有效組合,獲得了一個性能更優(yōu)的集成模型。利用該模型對2020年陜西省汛期的雷達回波外推效果進行檢驗評估,探討基于深度學(xué)習(xí)方法的雷達回波外推方法應(yīng)用于短臨降水預(yù)報業(yè)務(wù)的可行性,嘗試為短臨降水預(yù)報業(yè)務(wù)提供一種基于氣象大數(shù)據(jù)和深度學(xué)習(xí)的研究方法和思路。

        1資料與方法

        1.1資料說明

        研究使用的資料來源于陜西省多普勒C波段雷達數(shù)據(jù),采樣掃描頻率為6 min,全省7部雷達基數(shù)據(jù)經(jīng)過插值到笛卡爾坐標系后拼接成全省雷達數(shù)據(jù),包含3類掃描方式的反射率:采用混合高度層的反射率、采用單站雷達直接生成的組合反射率以及采用從3維反射率數(shù)據(jù)生成的組合反射率。資料共包含28 234個雷達數(shù)據(jù)樣本,覆蓋時間為2020年4—9月,覆蓋空間范圍為105°29′E—111°15′E,31°42′N—39°35′N,總共包含2020年陜西汛期的39個降水過程,其中強降水過程為5個。每個數(shù)據(jù)樣本的時間間隔為6 min,單個數(shù)據(jù)呈現(xiàn)形式是1 000′1 000的網(wǎng)格數(shù)據(jù),其代表意義是經(jīng)緯度方向分辨率。通過分析原始數(shù)據(jù),發(fā)現(xiàn)存在著大量負數(shù)值,一般來說雷達回波反射率越高,則降水越多,負值則可以忽略不計,故首先將原始數(shù)據(jù)中的負值統(tǒng)一進行了歸零操作,同時為了提升訓(xùn)練效率,對數(shù)據(jù)進行了歸一化處理。經(jīng)過對原始數(shù)據(jù)的篩選和預(yù)處理,最后使用長度為20,步長為5的滑動窗口生成了5 000個雷達回波序列作為最終的試驗數(shù)據(jù),其中4 500個序列作為訓(xùn)練數(shù)據(jù),500個序列作為測試數(shù)據(jù),10幀長度用于輸入,10幀長度用于預(yù)測。圖1為陜西省雷達組合反射率拼圖數(shù)據(jù)集中的3組樣本圖像,數(shù)據(jù)經(jīng)過脫敏處理,反射率范圍為0~ 70 dBz,數(shù)值越高代表對應(yīng)區(qū)域降水可能越大。

        1.2研究方法

        1.2.1集成學(xué)習(xí)方法

        集成學(xué)習(xí)的基本思想(Hansen and Salamon,1990)是:首先建立不同的預(yù)測模型,即產(chǎn)生多個個體學(xué)習(xí)器,然后采用某種策略將它們有效融合為一個強學(xué)習(xí)器,最后將其輸出結(jié)果作為最終的預(yù)測結(jié)果,以達到減小方差、偏差,提高預(yù)測精度的效果。集成學(xué)習(xí)可以分為Bagging算法(Breiman,1996)和提升(Boosting)算法 (Freund and Schapire,1997) 2類。Bagging算法從原始數(shù)據(jù)集中多次有放回地抽取樣本構(gòu)成多個訓(xùn)練集,并用這些訓(xùn)練集分別訓(xùn)練得到多個分類模型,最后將每個模型得到的預(yù)測結(jié)果投票得到最終的分類結(jié)果。Boosting算法在迭代的過程中通過提高在前一輪被分類器錯分的樣本的權(quán)值,使得分類器更加關(guān)注被錯誤分類的少數(shù)類樣本,從而逐步提高模型的擬合能力。集成學(xué)習(xí)的關(guān)鍵在于增強多樣性來提高其泛化能力,本文選擇集成學(xué)習(xí)中的Bagging算法作為集成學(xué)習(xí)的框架,通過Bagging算法可以增強輸入樣本擾動從而達到增強數(shù)據(jù)樣本多樣性的目的。此外,為了更加有效地組合每個模型,設(shè)計了一種基于損失值的加權(quán)投票策略來組合模型,以提高雷達外推模型的外推效果。

        1.2.2基于深度學(xué)習(xí)的雷達回波外推方法

        基于深度學(xué)習(xí)的雷達回波外推本質(zhì)上是時空序列預(yù)測任務(wù),通過輸入過去時間段的雷達回波圖像序列預(yù)測未來時間段的雷達回波圖像序列。雷達回波圖像序列間存在很強的時空依賴關(guān)系,因此外推模型需要具備時空特征信息的提取能力。ConvLSTM模型可以同時學(xué)習(xí)到雷達圖像時間上的依賴關(guān)系和空間上的特征信息,具有出色的時空特征提取能力。因此,本文使用ConvLSTM作為模型循環(huán)神經(jīng)網(wǎng)絡(luò)的循環(huán)單元并對其進行了一定的改進來提取雷達回波圖像的時空信息,為了增強模型對于長時數(shù)據(jù)的記憶能力和重要特征的提取能力,在ConvLSTM基礎(chǔ)上,加入了全局通道注意力機制,一定程度上解決了外推后期雷達回波圖像模糊以及時延等問題。

        1.2.3基于GCA-ConvLSTM的外推方法

        (2) GCA-ConvLSTM預(yù)測網(wǎng)絡(luò)。為了高效處理雷達回波圖像序列和提取特征信息,本文選擇編碼器-解碼器(Encoder-Decoder)作為外推模型的整體結(jié)構(gòu),并使用全局通道注意力機制,構(gòu)造了GCA-ConvLSTM預(yù)測網(wǎng)絡(luò)。圖3為GCA-ConvLSTM預(yù)測網(wǎng)絡(luò)結(jié)構(gòu)圖,圖中以ConvLSTM作為循環(huán)單元嵌入Encoder-Decoder結(jié)構(gòu)中,并加入全局通道注意力模塊,全局通道注意力是全局注意力(Luong et al.,2015)與通道注意力(Hu et al.,2018)的結(jié)合,它可以捕捉長時信息流中的重要特征信息,提高模型的表征能力。

        Encoder-Decoder結(jié)構(gòu)通常將所有的輸入序列信息編碼進一個固定大小的向量,導(dǎo)致特征信息在傳遞過程中的大量丟失,使得模型性能下降。此外,不同歷史時刻的回波圖像對于外推結(jié)果生成具有不同的影響,為其賦予相同的權(quán)重是不合理的。針對這2個問題,將編碼器(Encoder)輸出的隱變量和解碼器(De? coder)前一時間步的特征信息作為輸入,而不再像傳統(tǒng)的Encoder-Decoder那樣將所有信息壓縮進一個固定大小的向量中,避免了重要特征信息在壓縮過程中的丟失;此外,設(shè)計了一種全局通道注意力模塊,該模塊可以根據(jù)輸入數(shù)據(jù)的重要程度動態(tài)學(xué)習(xí)調(diào)整De? coder輸入信息的權(quán)重,提升模型的表征能力。

        GCA-ConvLSTM使用GCA注意力模塊避免了特征信息丟失的同時增強了模型對于重要時空特征信息的提取能力,使得模型既能夠應(yīng)對臨近幀的突變情況,又能通過長期信息處理糾纏現(xiàn)象,提升模型的長時記憶能力,從而可以提升模型在雷達回波外推后期的外推效果。

        (3)基于Bagging改進的GCA-ConvLSTM集成模型,如圖4所示。組合策略是構(gòu)建集成學(xué)習(xí)系統(tǒng)的重要一步,集成學(xué)習(xí)系統(tǒng)可以根據(jù)個體學(xué)習(xí)器的表現(xiàn)來決定是否使用該學(xué)習(xí)器。本文使用加權(quán)投票策略(Weighted Voting)來組合不同基學(xué)習(xí)器的預(yù)測結(jié)果。加權(quán)投票法首先計算出個體學(xué)習(xí)器預(yù)測值與真實值之間的誤差,然后令權(quán)重大小與誤差大小成反比,模型組合的權(quán)重計算如公式(14)—(16)所示。

        以上計算POD和CSI的公式中,分子均為命中數(shù),因此指標越高代表預(yù)測的越精準;而FAR則反映模型的空報率,其值越低自然代表模型越精準。為了能更直觀的反映外推出的圖像相似程度,最后也將MSE放入評價標準中。MSE通過累計所有像素差異得來,是最直接的誤差來源,其值也是越小越好。

        2多重反射率檢驗

        為了客觀衡量各模型對于不同強度回波的預(yù)報能力,進行了不同閾值回波的檢驗評估,分別選取了反射率為25 dBz、35 dBz和45 dBz作為閾值來進行二值化。多重反射率檢驗試驗中選擇了ConvLSTM(Shi et al.,2015)、PredRNN(Wang et al.,2017)、TrajGRU(Shi et al.,2017)、MetNet (S?nderby et al.,2020)和SmaAt-Unet(Small Attention-UNet)(Trebing et al.,2021) 5種基準模型,在上述3個閾值條件下,進行了外推時長為1 h (10個時間步)的試驗,表1為在25 dBz、35 dBz和45 dBz反射率閾值試驗中的各指標值。在與5個基準模型的對比試驗中,為了能更加直觀地觀察數(shù)據(jù)變化過程,又添加了不同反射率閾值條件下,在10個時間步上CSI評價指標的變化過程,如圖5所示。分析可知,GCA-Con? vLSTM集成模型在所有回波強度上CSI值均表現(xiàn)最佳,同時取得了最低的MSE值,模型具有更強的擬合能力,隨著回波強度增加和預(yù)報時效延長,所有模型的預(yù)報能力均顯著下降,但是GCA-ConvLSTM集成模型下降趨勢相對與其他模型更加緩慢,對于強回波的預(yù)報能力優(yōu)于其余模型,同時具有預(yù)報時效的優(yōu)勢。

        在反射率閾值為25 dBz的試驗中,GCA-ConvL? STM集成模型與PredRNN模型、SmaAt-Unet模型表現(xiàn)接近,顯著優(yōu)于其余2個模型,其中GCA-ConvLSTM模型取得了最高的CSI值,SmaAt-Unet取得了最高的POD值;MetNet模型雖然取得了最低的FAR值,但是CSI值和POD值顯著低于其他模型,無法對未來時刻雷達回波進行有效預(yù)報,在試驗數(shù)據(jù)集上的擬合能力最差。在反射率閾值為35 dBz和45 dBz的試驗中,GCA-ConvLSTM集成模型均取得了最高的CSI值、POD值以及最低的MSE值,尤其是在反射率閾值為45 dBz的試驗中,ConvLSTM、TrajGRU和MetNet模型回波減弱問題嚴重,已經(jīng)不具備較強回波預(yù)報能力,相比之下,GCA-ConvLSTM集成模型對于較強回波的預(yù)報效果顯著優(yōu)于其他對比模型,具有較為穩(wěn)定的預(yù)報能力。

        GCA-ConvLSTM集成模型相較于ConvLSTM模型增加了全局通道注意力機制模塊,對雷達回波中長時依賴關(guān)系的表征能力優(yōu)于5個基準模型,因此在時間維度具有更強的魯棒性;此外,GCA-ConvLSTM集成模型采用Encoder-Decoder結(jié)構(gòu)優(yōu)化了隱藏層中信息流的傳遞過程,對比PredRNN的之字形傳遞方式和ConvLSTM模型的單向傳遞方式,GCA-ConvLSTM集成模型對于高維特征具有更強的記憶能力。綜上所述,在多重反射率評估過程中,GCA-ConvLSTM集成模型分別在25 dBz、35 dBz和45 dBz反射率閾值下,對比其余模型CSI值平均高出0.149、0.192、0.085,通過量化數(shù)據(jù)評估的綜合表現(xiàn)可以看出GCA-ConvLSTM集成模型相較于對比的深度學(xué)習(xí)模型獲得了更好的外推效果。

        3 1 h外推結(jié)果對比

        圖6顯示了利用6種不同外推方法進行1 h時長的外推試驗結(jié)果對比。雷達回波圖像間隔為6 min,1 h對應(yīng)10張圖像,為便于顯示對其進行了間隔取樣,1 h的外推結(jié)果對應(yīng)5張圖像。從中可見,GCA-Conv? LSTM集成模型的外推圖像(圖6b1—b5)在形狀上和空間變化趨勢與實況圖像(圖6a1—a5)更為相似,擁有更加清晰的邊緣和細節(jié)性紋理,同時外推后期也保留了較多的強回波區(qū)域;而ConvLSTM模型(圖6d1—d5)和TrajGRU模型(圖6e1—e5)的外推圖像隨時間推移出現(xiàn)了明顯的形變,邊緣更加模糊,無法準確預(yù)測雷達反射率閾值界限;PredRNN模型外推結(jié)果(圖6c1—c5)后期細節(jié)丟失越嚴重,也出現(xiàn)了較為明顯的模糊現(xiàn)象;MetNet模型外推圖像(圖6f1—f5)回波減弱問題嚴重,無法有效預(yù)報出未來時刻的較強回波區(qū)域;SmaAt-Unet模型的外推圖像(圖6g1—g5)質(zhì)量優(yōu)于對比的其余3種模型,但仍存在較為明顯的回波削弱問題,外推可視化結(jié)果與數(shù)據(jù)量化結(jié)果一致。1 h外推結(jié)果對比試驗表明,相較于對比的5種深度學(xué)習(xí)雷達回波外推模型,GCA-ConvLSTM集成模型更加準確地預(yù)測了雷達回波的運動趨勢,外推后期具有較多的強回波區(qū)域,同時圖像結(jié)構(gòu)和細節(jié)紋理更加清晰準確。

        4結(jié)論與討論

        通過利用2020年4—9月陜西省雷達組合反射率拼圖數(shù)據(jù),對GCA-ConvLSTM集成模型進行訓(xùn)練,與主流的深度學(xué)習(xí)方法進行多重反射率評估和1 h外推結(jié)果對比,主要得出如下結(jié)論:

        (1)雷達回波外推過程中,考慮臨近幀的回波圖像對于外推結(jié)果影響顯著大于久遠的回波圖像,通過加入全局通道注意力機制可以捕捉長時信息流中的重要信息,提升模型對于重要時空特征的建模能力,1 h外推對比結(jié)果表明,GCA-ConvLSTM集成模型的外推結(jié)果,擁有更加清晰的邊緣和細節(jié)性紋理,減輕了外推后期模糊問題。

        (2)雷達回波數(shù)據(jù)具有復(fù)雜的非線性關(guān)系,使用集成學(xué)習(xí)算法改進的雷達外推模型可以有效提升模型的擬合能力。多重反射率評估試驗結(jié)果表明,GCA-ConvLSTM集成模型在25 dBz、35 dBz和45 dBz反射率閾值下的評估試驗中分別比對比的主流深度學(xué)習(xí)模型CSI值平均高出0.149、0.192、0.085,量化數(shù)據(jù)評估和可視化結(jié)果表明模型的強回波預(yù)報能力優(yōu)于對比模型。

        (3)雷達回波外推本質(zhì)上是一個時空序列預(yù)測問題,基于深度學(xué)習(xí)的循環(huán)神經(jīng)網(wǎng)絡(luò)方法可以對其包含的時空信息有效建模,通過大量的數(shù)據(jù)學(xué)習(xí)雷達回波的生效演變規(guī)律,依靠圖形處理器(GPU)運算能夠在短時間內(nèi)快速生成預(yù)報結(jié)果,相比傳統(tǒng)外推方法更加高效,提升了短臨降水預(yù)報方法的準確性和時效。

        基于深度學(xué)習(xí)的雷達回波外推方法具有實際的應(yīng)用意義,對于提升雷達回波外推的精度和解決外推模糊問題具有研究價值,也證明了深度學(xué)習(xí)方法用于臨近外推預(yù)報的可行性。但是目前基于深度學(xué)習(xí)的雷達回波外推方法也存在一些局限性:基于深度學(xué)習(xí)的雷達回波外推模型僅使用雷達回波圖像序列作為模型的輸入數(shù)據(jù),缺乏對環(huán)境場的綜合觀測,預(yù)測結(jié)果具有不確定性;基于深度學(xué)習(xí)的雷達回波外推方法缺乏實時數(shù)據(jù)的輸入,隨著誤差的累計,外推后期回波圖像模糊問題嚴重。未來,可嘗試使用多源融合氣象數(shù)據(jù)作為模型的輸入,利用生成對抗網(wǎng)絡(luò)的圖像生成能力來學(xué)習(xí)時空變化規(guī)律,在保證現(xiàn)有準確率的基礎(chǔ)上提高模型外推精度并進一步減少模型外推模糊的問題。

        參考文獻(References):

        曹春燕,陳元昭,劉東華,等.2015.光流法及其在臨近預(yù)報中的應(yīng)用[J].氣象學(xué)報,73(3):471-480. Cao C Y, Chen Y Z, Liu D H, et al. 2015. The optical flow method and its application to nowcasting [J]. Acta Meteorologica Sinica,73(3):471-480 (in Chinese). doi:10.11676/qxxb2015.034

        方巍,龐林,張飛鴻,等.2021.對抗型長短期記憶網(wǎng)絡(luò)的雷達回波外推算法[J].中國圖象圖形學(xué)報,26(5):1067-1080. Fang W, Pang L, Zhang F H, et al. 2021. Radar echo extrapolation algorithm based on adversarial long short-term memory network [J]. Journal of Image and Graphics,26(5):1067-1080 (in Chinese). doi:1006-8961(2021)05-1067-14

        田剛,陳良華,魏凡,等.2021.基于光流法雷達外推的2020年長江致洪降水臨近預(yù)報檢驗評估[J].暴雨災(zāi)害,40(3):316-325. Tian G, Chen L H, Wei F, et al. 2021. Evaluation of flood-producing rainfall nowcasting based on radar extrapolation with the variational optical flow method in the Yangtze River Basin in 2020 [J]. Torrential Rain and Disasters,40(3): 316-325(inChinese).doi:10.3969/j.issn.1004-9045.2021.03.010

        肖蕾,杜小玲,武正敏,等.2021.貴州省短時強降水時空分布特征分析[J].暴雨災(zāi)害,40(4):383-392. Xiao L, Du X L, Wu Z M, et al. 2021. Temporal and spatial distribution characteristics of short-time heavy rainfall in Guizhou Province [J]. Torrential Rain and Disasters,40(4): 383-392 (in Chinese). doi:10.3969/j.issn.1004-9045.2021.04.006

        俞小鼎. 2013.短時強降水臨近預(yù)報的思路與方法[J].暴雨災(zāi)害,32(3): 202-209. Yu X D. 2013. Nowcasting thinking and method of flash heavy rain [J]. Torrential Rain and Disasters,32(3):202-209 (in Chinese). doi:10.3969/j.issn.1004-9045.2013.03.002

        Austin G L, Bellon A. 1974. The use of digital weather radar records for short-term precipitation forecasting [J]. Quarterly Journal of the Royal MeteorologicalSociety,100(426):658-664.doi:10.1002/qj.49710042612

        Breiman L. 1996. Bagging predictors [J]. Machine learning,24(2):123-140. doi:10.1007/BF00058655

        Crane R K. 1979. Automatic cell detection and tracking [J]. IEEE Transactions on geoscience electronics,17(4): 250-262. doi:10.1109/TGE.1979. 294654

        Du S, Li T, Yang Y, et al. 2020. Multivariate time series forecasting via attention-based encoder-decoder framework [J]. Neurocomputing,388: 269-279. doi:10.1016/j.neucom.2019.12.118

        Fang W, Pang L, Yi W, et al. 2021. Attef: Convolutional LSTM encoder-forecaster with attention module for precipitation nowcasting [J]. Intelligent Automation and Soft Computing,30(2):453-466. doi:10.32604/ iasc.2021.016589

        Freund Y, Schapire R E. 1997. A decision-theoretic generalization of on-line learning and an application to boosting [J]. Journal of computer and system sciences,55(1):119-139. doi:10.1006/jcss.1997.1504

        Germann U, Zawadzki I. 2002. Scale-dependence of the predictability of precipitation from continental radar images. Part I: Description of the methodology [J]. Monthly Weather Review,130(12):2859-2873. doi:10. 1175/1520-0493(2002)130<2859:SDOTPO>2.0.CO;2

        Gibson J J. 1950. The Ecological Approach to Visual Perception [M]. Boston: Houghton Mifflin:332

        Han L, Liang H, Chen H, et al. 2021. Convective precipitation nowcasting using U-Net model [J]. IEEE Transactions on Geoscience and Remote Sensing,7134-7137. doi:10.1109/TGRS.2021.3100847

        Hansen L K, Salamon P. 1990. Neural network ensembles [J]. IEEE transactions on pattern analysis and machine intelligence,12(10):993-1001. doi:10.1109/34.58871

        Hochreiter S, Schmidhuber J. 1997. Long short-term memory [J]. Neural computation,9(8):1735-1780. doi:10.1007/978-3-642-24797-2_4

        Hu J, Shen L, Sun G. 2018. Squeeze-and-excitation networks [C]. Proceedings of the IEEE conference on computer vision and pattern recognition,7132-7141. doi:10.48550/arXiv.1709.01507

        Johnson J T, MacKeen P L, Witt A, et al. 1998. The storm cell identification and tracking algorithm: An enhanced WSR-88D algorithm [J]. Weather and forecasting,13(2):263-276. doi:10.1175/1520-0434(1998)013< 0263:TSCIAT>2.0.CO;2

        Lin Z, Li M, Zheng Z, et al. 2020. Self-attention ConvLSTM for spatiotemporal prediction [C]. Proceedings of the AAAI Conference on Artificial Intelligence,34(7):11531-11538. doi:10.1609/aaai.v34i07.6819

        Luong M T, Pham H, Manning C D. 2015. Effective approaches to attention-based neural machine translation [C]. Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing, 1412-1421. doi:10.48550/arXiv.1508.04025

        Ravuri S, Lenc K, Willson M, et al. 2021. Skilful precipitation nowcasting using deep generative models of radar [J]. Nature,597:672-677. doi: 10.1038/s41586-021-03854-z

        Rinehart R E, Garvey E T. 1978. Three-dimensional storm motion detection by conventional weather radar [J]. Nature,273(5660):287-289. doi:10. 1038/273287a0

        Shi X J, Chen Z, Wang H, et al. 2015. Convolutional LSTM network: A machine learning approach for precipitation nowcasting [C]. Advances in neural information processing systems,802-810. doi:10.48550/arXiv.15 06.04214

        Shi X J,GaoZ,LausenL,etal.2017.Deeplearningforprecipitationnowcasting: a benchmark and a new model [C]. Advances in Neural Information ProcessingSystems,30:5617-5627.doi:10.5555/3295222.3295313

        S?nderby C K, Espeholt L, Heek J, et al. 2020. MetNet: A neural weather modelforprecipitationforecasting[J].arXivpreprintarXiv: 2003.12140. doi:10.48550/arXiv.2003.12140

        Song C, Lin Y, Guo S, et al. 2020. Spatial-temporal synchronous graph convolutional networks: A new framework for spatial-temporal network data forecasting [C]. Proceedings of the AAAI Conference on Artificial Intelligence,34(1): 914-921. doi:10.1609/aaai.v34i01.5438

        Tan C, Feng X, Long J, et al. 2018. FORECAST-CLSTM: a new convolutional LSTM network for cloudage nowcasting [C]. 2018 IEEE Visual Communications and Image Processing (VCIP):1-4

        Trebing K, Sta?czyk T, Mehrkanoon S. 2021. SmaAt-Unet: Precipitation nowcasting using a small attention-Unet architecture [J]. Pattern Recognition Letters,145:178-186. doi:10.1016/j.patrec.2021.01.036

        Wang Y, Gao Z, Long M, et al. 2018. PredRNN++: Towards a resolution of the deep-in-time dilemma in spatiotemporal predictive learning [C]. International Conference on Machine Learning. PMLR,5123-5132. doi: 10.48550/arXiv.1804.06300

        Wang Y, Long M, Wang J, et al. 2017. PredRNN: Recurrent neural networks for predictive learning using spatiotemporal LSTMs [C]. Proceedings of the 31st International Conference on Neural Information Processing Systems,879-888. doi:10.5555/3294771.3294855

        Wang Y, Zhang J, Zhu H, et al. 2019. Memory in memory: A predictive neural network for learning higher-order non-stationarity from spatiotemporal dynamics [C]. Proceedings of the IEEE CVF Conference on Computer Vision and Pattern Recognition:9154-9162. doi:10.1109/CVPR. 2019.00937

        Wang Z, Su X, Ding Z. 2020. Long-term traffic prediction based on LSTM encoder-decoderarchitecture[J].IEEETransactionsonIntelligent Transportation Systems,22(10): 6561-6571. doi:10.1109/TITS.2020.29955 46

        Woo S, Park J, Lee J Y, et al. 2018. CBAM: Convolutional block attention module [C]. Proceedings of the European conference on computer vision (ECCV), 3-19. doi:10.1007/978-3-030-01234-2_1

        (責(zé)任編輯唐永蘭)

        亚洲国产理论片在线播放| 日本精品视频一区二区三区四区| 粗大的内捧猛烈进出小视频| 国产精品久久久| 2021国内精品久久久久精免费| 国产麻豆一区二区三区在线播放| 精品人妻一区二区三区在线观看| 日本大骚b视频在线| 日韩精品无码久久久久久| 国产精品无码久久久久下载| 中文字幕在线乱码日本| 一本久道综合色婷婷五月| 亚洲国产另类久久久精品黑人| 日本在线观看不卡| 色小姐在线视频中文字幕| 亚洲综合欧美色五月俺也去| 国产乱色精品成人免费视频| 成人片在线看无码不卡| 青青草成人原视频在线播放视频| www国产亚洲精品| 亚洲高潮喷水无码av电影| 亚色中文字幕| 久久精品国产亚洲av网站| 成熟丰满熟妇av无码区| 久久久无码一区二区三区| 无码久久精品蜜桃| 亚洲毛片免费观看视频| 妺妺窝人体色www聚色窝| 亚洲无码专区无码| 天堂a版一区二区av| av高清在线不卡直播| 好日子在线观看视频大全免费动漫| 91亚洲国产三上悠亚在线播放| 亚洲av色精品国产一区二区三区| 久久久久99精品成人片| 永久免费无码av在线网站 | 极品粉嫩嫩模大尺度视频在线播放 | 亚洲国产精品区在线观看| 国产香蕉国产精品偷在线| 色综合久久综合欧美综合图片| 亚洲色图偷拍自拍亚洲色图|