亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于LSTM的活立木莖干水分缺失數(shù)據(jù)填補(bǔ)方法*

        2020-03-19 07:23:30趙燕東
        林業(yè)科學(xué) 2020年2期
        關(guān)鍵詞:預(yù)測值神經(jīng)網(wǎng)絡(luò)誤差

        宋 維 高 超 趙 玥 趙燕東

        (1.北京林業(yè)大學(xué)工學(xué)院 北京 100083;2.北京工商大學(xué)計算機(jī)與信息工程學(xué)院 北京 100048;3.北京林業(yè)大學(xué)城鄉(xiāng)生態(tài)環(huán)境北京實驗室 北京 100083)

        水是植物進(jìn)行新陳代謝活動的基礎(chǔ),是植物細(xì)胞的重要組成組成部分(鄭榮良等,1996)。快速獲取植物的水分狀況對于植物生理狀態(tài)的研究和農(nóng)業(yè)精準(zhǔn)灌溉有重要意義(許世衛(wèi)等,2015;吳沿友等,2015)。植物水分狀態(tài)信息是一種時間序列數(shù)據(jù),與實際應(yīng)用結(jié)合密切的時間序列的數(shù)據(jù)亦是目前數(shù)據(jù)挖掘領(lǐng)域中的熱點(Lietal.,2011;Xiaoetal.,2019)。植物信息數(shù)據(jù)通過特定的傳感器監(jiān)測獲得,但受制于設(shè)備故障、電力故障、惡劣氣候等因素影響,數(shù)據(jù)缺失率較高(Moffatetal.,2007;武森等,2012),缺失數(shù)據(jù)對之后數(shù)據(jù)的利用造成極大的阻礙。因此研究缺失數(shù)據(jù)的填補(bǔ)問題具有重要應(yīng)用價值(Chenetal.,2019)。

        以往數(shù)據(jù)的插補(bǔ)方法,如拉格朗日差值法(胡玄子等,2013)、均值法、最大頻率法、主成份提取法(王文圣等,2003)等,在填補(bǔ)少量、零散的缺失數(shù)據(jù)時有較高的準(zhǔn)確性。數(shù)據(jù)缺失時間越長,以上方法對缺失數(shù)據(jù)的插補(bǔ)精度越低、難度越大(Moffatetal.,2007),精度過低的填補(bǔ)數(shù)據(jù)難以滿足未來數(shù)據(jù)分析時的需要。近些年國內(nèi)外學(xué)者在保持對傳統(tǒng)方法研究的同時,將新興領(lǐng)域的元素融入其中,創(chuàng)新地優(yōu)化了已有模型。利用神經(jīng)網(wǎng)絡(luò)(Zoucasetal.,2015)填補(bǔ)方法可以應(yīng)用于任意非線性關(guān)系函數(shù),且具有自學(xué)習(xí)能力,但要求大規(guī)模的數(shù)據(jù)樣本,且一直存在過擬合問題、泛用性問題。利用支持向量機(jī)(Chenetal.,2015)對數(shù)據(jù)進(jìn)行填補(bǔ),可以得到全局最優(yōu)解,比傳統(tǒng)神經(jīng)網(wǎng)絡(luò)對數(shù)據(jù)規(guī)模要求低,小規(guī)模數(shù)據(jù)也可以使用,但大多數(shù)基于支持向量機(jī)的方法關(guān)注的為單變量信息,一些加入了人工判定,對操作人員經(jīng)驗依賴較高。新的ARIMA-ANN混合方法(Büyükahinetal.,2019)兼具ARIMA(autoregressive integrated moving average,差分整合移動平均自回歸模型)和ANN(artificial neural network,人工神經(jīng)網(wǎng)絡(luò))的優(yōu)點,通用性更好,但也需要盡可能多的數(shù)據(jù)樣本。時間序列模型與人工神經(jīng)網(wǎng)絡(luò)混合模型對巴西風(fēng)速進(jìn)行預(yù)測的實驗(Henriqueetal.,2018)是與本文所應(yīng)對情況最相近的實例:風(fēng)速波動呈現(xiàn)規(guī)律性;試驗中預(yù)測結(jié)果時間跨度超過1年;預(yù)測結(jié)果精度高,可以滿足實際應(yīng)用需要。以上結(jié)果證明了神經(jīng)網(wǎng)絡(luò)對時間序列數(shù)據(jù)的適用性,針對本文的情況可以選擇更加合適的神經(jīng)網(wǎng)絡(luò)模型進(jìn)行試驗。

        基于植物生理信息數(shù)據(jù)是一種動態(tài)的時序數(shù)據(jù)這一背景,本文提出基于LSTM神經(jīng)網(wǎng)絡(luò)的植物生理信息數(shù)據(jù)填補(bǔ)方法。神經(jīng)網(wǎng)絡(luò)處理非線性問題能力突出,其中RNN在分析時間序列問題方面有很強(qiáng)的優(yōu)勢。植物的生理狀態(tài)是漸變的,這就要求神經(jīng)網(wǎng)絡(luò)能夠有很強(qiáng)的歷史信息記憶能力。在RNN基礎(chǔ)上進(jìn)行優(yōu)化的LSTM神經(jīng)網(wǎng)絡(luò)模型(Saketal.,2014),已經(jīng)在語義分析等需要很強(qiáng)的歷史信息記憶能力的領(lǐng)域取得了很好的效果(郭茂盛等,2017),但在生理數(shù)據(jù)分析領(lǐng)域應(yīng)用較少,本文擬將此方法應(yīng)用于植物生理數(shù)據(jù)分析,擬解決由硬件設(shè)備故障引起的數(shù)據(jù)長時間錯誤或缺失問題。

        1 材料與方法

        1.1 LSTM模型

        LSTM(long short-term memory,長短期記憶網(wǎng)絡(luò))模型由Hochreiter等(1997)于20世紀(jì)末提出。LSTM脫胎于RNN循環(huán)神經(jīng)網(wǎng)絡(luò)。RNN循環(huán)神經(jīng)網(wǎng)絡(luò)是為了處理序列問題而研發(fā)出的模型,為了更好地處理前后輸入相互關(guān)聯(lián)的信息,RNN在自然語言處理領(lǐng)域中最先被使用。

        RNN與最基礎(chǔ)的全連接神經(jīng)網(wǎng)絡(luò)相比,多了隱藏層上一次的狀態(tài)作為輸入。即循環(huán)神經(jīng)網(wǎng)絡(luò)的隱藏層的值s不僅僅取決于當(dāng)前這次的輸入x,還取決于上一次隱藏層的值s。因為輸入多了來自上一隱藏層的變量,使得RNN具備了記憶能力。這種獨特的記憶循環(huán)神經(jīng)網(wǎng)絡(luò)的展開圖如圖1。

        圖1 RNN網(wǎng)絡(luò)展開示意Fig.1 Unfold of RNNs:隱藏層的值Hidden layer value.U:輸入層的權(quán)重矩陣Input layer weight matrix.o:輸出層的值Output layer value.V:隱藏層到輸出層的權(quán)重矩陣Hidden layer to output layer weight matrix.W:隱藏層上一次的值作為這一次輸入的權(quán)重矩陣.The last value of the hidden layer is used as the weight matrix for this input.

        RNN具有記憶能力,但是這種記憶能力在長期記憶時,由于梯度消失與梯度爆炸的原因(Gravesetal.,2005),導(dǎo)致t-3 時刻對t時刻的狀態(tài)影響不顯著,相當(dāng)于網(wǎng)絡(luò)在訓(xùn)練時忽略了t-3 時刻之前的狀態(tài),在一組數(shù)據(jù)存在長期相關(guān)性時,RNN的記憶能力無法滿足需求(Byeonetal.,2014;Gersetal.,2000)。

        LSTM長短時記憶網(wǎng)絡(luò),是在RNN的基礎(chǔ)上加入了單元狀態(tài),即在某一時刻LSTM的有3個輸入:當(dāng)前時刻網(wǎng)絡(luò)輸入值xt、上一時刻LSTM的輸出值ht-1、以及上一時刻的單元狀態(tài)ct-1;LSTM的輸出值有兩個:當(dāng)前時刻LSTM輸出值ht、當(dāng)前時刻的單元狀態(tài)ct。與傳統(tǒng)的RNN相比,LSTM的神經(jīng)單元是具有獨特記憶模式的單元結(jié)構(gòu)。LSTM的單元結(jié)構(gòu)如圖2。LSTM中記憶單元有3個門(gate)——輸入門(input gate)、遺忘門(forget gate)和輸出門(output gate)。其中遺忘門和輸入門控制單元狀態(tài)ct的內(nèi)容:遺忘門決定了當(dāng)前狀態(tài)ct對上一時刻的單元狀態(tài)ct-1的保留程度;輸入門決定了當(dāng)前狀態(tài)ct對輸入xt的保留程度;輸出門控制當(dāng)前狀態(tài)ct輸出到ht的程度。

        ft=σ(Wf·[ht-1,xt]+bf),

        (1)

        it=σ(Wi·[ht-1,xt]+bi),

        (2)

        ct=ft°ct-1+it°tanh(Wc·[ht-1,xt]+bc),

        (3)

        ot=σ(Wo·[ht-1,xt]+b0),

        (4)

        ht=ot°tanh(ct)。

        (5)

        式中:σ是Sigmoid激活函數(shù),f為遺忘門,i為輸入門,o為輸出門,c表示細(xì)胞,h為隱藏層狀態(tài)。

        LSTM的最終輸出由輸出門的值和單元狀態(tài)共同確定。

        圖2 LSTM 單元結(jié)構(gòu)Fig.2 LSTM unit

        1.2 數(shù)據(jù)來源

        本文使用的數(shù)據(jù)選自正常生長的紫薇(Lagerstroemiaindica)距地面80 cm處的莖體水分?jǐn)?shù)據(jù),數(shù)據(jù)采集時間為6月,地點為北京市海淀區(qū)。數(shù)據(jù)采集間隔為10 min,1天共144條數(shù)據(jù),數(shù)據(jù)變化如圖3。在數(shù)據(jù)庫中任取共計2 200條數(shù)據(jù),橫坐標(biāo)為數(shù)據(jù)次序;縱坐標(biāo)為傳感器返回的植物莖體含水率,對應(yīng)莖體水分從43%~57%?,F(xiàn)在人為處理刪除黃色虛線共200條數(shù)據(jù),假設(shè)黃色虛線表示時間段內(nèi),傳感器或采集器等設(shè)備出現(xiàn)問題,導(dǎo)致通信中斷,無法采集到數(shù)據(jù),本文所要解決的問題便是將這段缺失數(shù)據(jù)精準(zhǔn)地填補(bǔ)。植物莖體水分受外界環(huán)境影響,隨著日出日落以24 h為周期規(guī)律波動,莖體水分某一時刻的具體情況會受具體外界環(huán)境的影響,但總體波動趨勢依舊保持不變。在時間序列上呈現(xiàn)規(guī)律變動的數(shù)據(jù),適合用于LSTM網(wǎng)絡(luò)的訓(xùn)練及預(yù)測,這與最初構(gòu)想一致。

        圖3 植物莖體水分時間序列數(shù)據(jù)Fig.3 Time series data of plant stem moisture

        1.3 LSTM模型搭建

        投入神經(jīng)網(wǎng)絡(luò)訓(xùn)練的數(shù)據(jù)量為1 000條。神經(jīng)網(wǎng)絡(luò)的神經(jīng)元數(shù)量不超過訓(xùn)練數(shù)據(jù)長度,選定神經(jīng)網(wǎng)絡(luò)層數(shù)為3層,每層神經(jīng)元的數(shù)量為2的指數(shù)次方,分別為256、128、64,如表1所示。

        表1 LSTM網(wǎng)絡(luò)模型概況Tab.1 LSTM network model overview

        第一層LSTM層參數(shù)數(shù)量計算:

        輸入網(wǎng)絡(luò)訓(xùn)練的樣本為(200,1)的矩陣,即時間步為200,每個時間步的特征長度為1。每個時間步經(jīng)過第一個LSTM層后輸出的特征長度變?yōu)?56(即1→256),得到(1,256)的數(shù)據(jù)。每個LSTM神經(jīng)元中又分遺忘門層,狀態(tài)更新層與輸出門層,下文將分按照不同層分別計算每層神經(jīng)元中具體參數(shù)數(shù)量。

        1) 遺忘門層:公式(1)中,ht-1是上一個狀態(tài)的隱向量,即特征長度為256的隱向量;xt為當(dāng)前狀態(tài)的輸入,即特征長度為1的向量,所以[ht-1,xt]的長度為256+1=257。該層輸出長度為256,激活函數(shù)σ不影響矩陣維數(shù),只考慮內(nèi)部運(yùn)算得到長度為256的矩陣。

        [ht-1,xt]為(1,257)的矩陣,與Wf相乘后得到(1,256)的矩陣,即Wf為(257,256)的矩陣;相乘得到(1,256)的矩陣后,與偏置陣bf相加,所以bf也應(yīng)為(1,256)的矩陣。那么,該層參數(shù)數(shù)量為:

        Param1=(256+1)×256+256=66 048。

        2) 狀態(tài)更新層:公式(2)與公式(3)和公式(1)相似,σ與tanh都是激活函數(shù),不影響參數(shù)個數(shù)。公式(4)中的4個值均為已知值,故沒有參數(shù)參與計算,所以狀態(tài)更新層參數(shù)數(shù)量為遺忘層參數(shù)數(shù)量的2倍:

        Param2=66 048×2=132 096。

        3) 輸出門層:公式(5)與公式(2)相同,參與計算的參數(shù)個數(shù)同為66 048;公式(6)與公式(4)相同,參與計算的都為已知值,無參數(shù)計算。所以輸出層參與計算參數(shù)數(shù)量與遺忘門層相同:

        Param3=Param1=66 048。

        綜上得第一層LSTM層參數(shù)數(shù)量:

        ParamLSTM_2=Param1+Param2+Param3=264 192。

        每層LSTM層參數(shù)數(shù)量為4倍的遺忘門層參數(shù)數(shù)量:

        Param=4×((n+m)×m+m)。

        式中:n為當(dāng)前狀態(tài)輸入,m為上一狀態(tài)輸出。

        第二層LSTM層參數(shù)數(shù)量:

        ParamLSTM_2=4×((256+128)×

        128+128)=197 120。

        第三層LSTM層參數(shù)數(shù)量計算:

        ParamLSTM_3=4×((128+64)×64+64)=49 408。

        最后一層為全連接層,64個神經(jīng)元連接加1個偏置,即

        Paramdense_1=64+1=65。

        dropout層:

        表1中的dropout層在第一層LSTM網(wǎng)絡(luò)后,為了解決過擬合問題的網(wǎng)絡(luò)層。在神經(jīng)網(wǎng)絡(luò)訓(xùn)練中,訓(xùn)練耗時問題和過擬合問題都是必須要優(yōu)化與解決的關(guān)鍵問題。耗時太長會降低模型的效率,即使精度夠高,但是效率過低也會導(dǎo)致無法實際使用。Dropout層可以同時解決這2個問題。

        Dropout層效果如圖4,即在模型訓(xùn)練時,隨機(jī)讓隱藏層一定比例的節(jié)點權(quán)重不參與到計算中,保存他們的權(quán)重,下一次循環(huán)重新隨機(jī),隨機(jī)到參與計算的節(jié)點帶著上次計算得出的權(quán)重參與本次運(yùn)算。由于參與的節(jié)點少,計算量大幅降低,模型訓(xùn)練時間縮短;同時,由于是隨機(jī)選取部分節(jié)點且每次循環(huán)節(jié)點選取情況都不同,避免了全部節(jié)點統(tǒng)一計算導(dǎo)致的過擬合情況,且由于不同節(jié)點不能保證同時出現(xiàn),這樣可以避免網(wǎng)絡(luò)對特定輸入表現(xiàn)出特定特征的情況,更具有一般性。

        圖4 Dropout層效果示意Fig.4 Dropout Layer Effect diagram

        1.4 RNN比對模型搭建

        建立一個網(wǎng)絡(luò)模型相同的RNN網(wǎng)絡(luò)與LSTM網(wǎng)絡(luò)進(jìn)行比照實驗,RNN模型概況如表2。即使具有相同的神經(jīng)元數(shù)量,由于神經(jīng)元組成結(jié)構(gòu)的差異,RNN網(wǎng)絡(luò)模型的參數(shù)數(shù)量比LSTM的參數(shù)數(shù)量少很多,約為同結(jié)構(gòu)LSTM網(wǎng)絡(luò)參數(shù)數(shù)量的1/4。

        表2 RNN網(wǎng)絡(luò)模型概況Tab.2 RNN network model overview

        LSTM模型的參數(shù)計算公式為:

        Param=4×((n+m)×m+m),

        但RNN神經(jīng)元隱藏層中只有一個狀態(tài),也就是不需要在最外層乘4:

        Param=(n+m)×m+m,

        其中n為當(dāng)前狀態(tài)輸入,m為上一狀態(tài)輸出。

        圖5 不同方法(LSTM,RNN,插值,LSTM雙向)填補(bǔ)結(jié)果Fig.5 Filling results for different methods (LSTM,RNN,interpolation,LSTM bidirectional)

        所以RNN每層的參數(shù)數(shù)量為LSTM每層參數(shù)數(shù)量的1/4,全連接層同為64,總參數(shù)數(shù)量約為1/4。

        2 結(jié)果與分析

        參數(shù)數(shù)量的差異同時體現(xiàn)在了訓(xùn)練時間與預(yù)測精度。輸入1 000個數(shù)據(jù)進(jìn)行100迭代訓(xùn)練,LSTM網(wǎng)絡(luò)的訓(xùn)練耗時為RNN網(wǎng)絡(luò)耗時的3~4倍。

        圖5為LSTM和RNN 2組模型訓(xùn)練時損失(loss)的變化情況。LSTM模型的損失值全程穩(wěn)定下降;RNN模型的損失值總體趨勢是下降的,但是在下降過程中波動十分劇烈。損失函數(shù)為均方誤差(mean-square error,MSE),表明了訓(xùn)練時預(yù)測值與真實值的偏移量。由于LSTM模型比RNN具有更好的記憶能力,可以對訓(xùn)練數(shù)據(jù)長期記憶,LSTM可以更加穩(wěn)定地逼近最優(yōu)值。

        使用LSTM模型可以更為有效地訓(xùn)練,得到預(yù)期的輸出結(jié)果。LSTM神經(jīng)網(wǎng)絡(luò)預(yù)測方式是由200個原始值組成窗口預(yù)測下一時刻未知值,并向后移動一步窗口,去掉第一個原始值,在最后加入新獲得的預(yù)測值,形成新的200個值的窗口,按照這種方式不斷推進(jìn)窗口,直至得到所有的預(yù)測值。但隨著原始值的不斷減少、預(yù)測值的不斷增多,這樣的預(yù)測方式會造成誤差的不斷累加,使得預(yù)測誤差隨窗口的推移逐漸增大,預(yù)測值的走向逐漸偏離原始值。

        基于這個問題,本文采用雙向預(yù)測,其結(jié)果互補(bǔ)形成新的預(yù)測值的方法來彌補(bǔ)在預(yù)測過程中產(chǎn)生的累加誤差。具體操作即為在缺失數(shù)據(jù)兩端同時進(jìn)行預(yù)測。正向順序為按照從序號1~1000的正向順序訓(xùn)練,反向順序為序號2200~1201的反向順序訓(xùn)練。由于誤差累加的原因,越靠后、與已知值越遠(yuǎn)的預(yù)測值誤差越大,本文提出在雙向預(yù)測基礎(chǔ)上加入權(quán)重系數(shù),目的是使誤差較小的預(yù)測值作為最終綜合預(yù)測值的主導(dǎo)部分。

        1) 正向順序:序號1001即第1個預(yù)測值乘權(quán)重1,序號1002即第2個預(yù)測值乘權(quán)重0.995,序號1003即第3個預(yù)測值乘權(quán)重0.99,以此類推,后一個預(yù)測值權(quán)重比前一個依次減少0.005,序號1200即第200個乘權(quán)重0.005。

        2) 反向順序:反向順序與正向順序權(quán)重變化順序相反,保證2個方向權(quán)重相加和為1,即反向順序下權(quán)重值從0開始按照每次增長0.005,增長到0.995。

        幾種模型預(yù)測結(jié)果與已知原始數(shù)據(jù)的對比如圖6。預(yù)測值與原數(shù)據(jù)的擬合程度LSTM預(yù)測優(yōu)于RNN預(yù)測優(yōu)于插值法預(yù)測。每種模型的具體誤差值如表3。

        圖6 不同方法(LSTM,RNN,插值,LSTM雙向)填補(bǔ)結(jié)果Fig.6 Filling results for different methods (LSTM,RNN,interpolation,LSTM bidirectional)

        表3 不同模型誤差絕對值Tab.3 Absolute results of model errors

        觀察原始數(shù)據(jù)可以看出,莖體水分波動范圍在40%~60%之間,上下限差距僅為20%,導(dǎo)致誤差的平均值、最大最小值等評價指標(biāo)不能明顯地表現(xiàn)出模型間的差距,而R2幾種模型差距過大,每種模型預(yù)測結(jié)果的區(qū)分度不好,使得表3雖然涉及角度多,但是不能明顯地表現(xiàn)幾種模型的差距。

        每種模型預(yù)測值與真實值的差值小于設(shè)定值的比例如表4,條件分別為與真實值誤差不超過0.01、0.02、0.03、0.04和0.05。LSTM單向與LSTM雙向預(yù)測結(jié)果精度較其他模型都有很大優(yōu)勢,且加入權(quán)重處理后的雙向預(yù)測精度最高。雙向預(yù)測97%的點滿足誤差在0.02以內(nèi),即使是要求誤差在0.01以內(nèi),依然有一半以上的點滿足要求。單向LSTM表現(xiàn)也比較出色,小部分點偏差略大,在小于0.02檔中比雙向LSTM數(shù)量少15%,但依舊達(dá)到了80%以上。RNN與插值方法誤差則很大,在小于0.05的要求下都無法做到90%以上的正確率,難以滿足數(shù)據(jù)填補(bǔ)的要求。

        結(jié)合表3、表4的數(shù)據(jù),對于較長序列的數(shù)據(jù)進(jìn)行填補(bǔ),傳統(tǒng)的數(shù)據(jù)填補(bǔ)方法已經(jīng)難以滿足需求,不論是擬合程度和具體的誤差指標(biāo)都無法和循環(huán)神經(jīng)網(wǎng)絡(luò)預(yù)測方法相比。而LSTM神經(jīng)網(wǎng)絡(luò)比RNN的優(yōu)勢更加明顯。單獨使用LSTM神經(jīng)網(wǎng)絡(luò)進(jìn)行填補(bǔ),誤差已經(jīng)達(dá)到插值方法誤差的1/3,是使用RNN進(jìn)行預(yù)測的誤差的1/2。而在LSTM基礎(chǔ)上加入數(shù)據(jù)處理后,精度進(jìn)一步提升,誤差僅為插值方法的1/4,R2提升至接近0.9,有著極高的相關(guān)性。

        3 討論驗證

        保持結(jié)果與分析中訓(xùn)練模型不變,代入一組全新數(shù)據(jù)進(jìn)行預(yù)測,將預(yù)測結(jié)果與原始值進(jìn)行比對,檢驗預(yù)測模型的精度在應(yīng)對非訓(xùn)練數(shù)據(jù)時是否降低。選擇未參與訓(xùn)練的2 200條數(shù)據(jù),做與訓(xùn)練數(shù)據(jù)相同的處理,即人為刪除中間第1 001~1 200共200條數(shù)據(jù)。將新的數(shù)據(jù)代入到結(jié)果與分析中訓(xùn)練驗證過的模型,同樣分為LSTM正序,LSTM逆序,加入權(quán)重的LSTM雙向預(yù)測,RNN正序,RNN逆序和2種插值預(yù)測方法,比對結(jié)果如表5與圖6所示。

        測試數(shù)據(jù)選擇了7月份樹木莖體水分?jǐn)?shù)據(jù),波動上下限較訓(xùn)練數(shù)據(jù)更為接近,使得預(yù)測結(jié)果誤差絕對值普遍減少。為了模擬真實預(yù)測情況,模型沒有對測試數(shù)據(jù)進(jìn)行訓(xùn)練,只利用已有模型進(jìn)行預(yù)測,精度相較于訓(xùn)練時的模型精度有所降低。本次的測試結(jié)果,精度較訓(xùn)練時略有下降,但幾種模型比對結(jié)果與預(yù)期相同。對測試數(shù)據(jù)模型不能做到高度擬合,預(yù)測誤差隨預(yù)測時間的增長而快速增大,使得后半段預(yù)測值偏離原始值,這種情況下本文提出的結(jié)合權(quán)重的雙向預(yù)測方法體現(xiàn)出的優(yōu)勢更為明顯。該方法充分結(jié)合了2個方向上準(zhǔn)確部分的預(yù)測結(jié)果,在單方向預(yù)測結(jié)果線性回歸值在0.3的基礎(chǔ)上,雙向預(yù)測整合結(jié)果的線性回歸值可以提高到超過0.7,且其他誤差指標(biāo)也是幾種模型中的最優(yōu)。雙向預(yù)測模型驗證結(jié)果與預(yù)期相吻合。

        本文利用深度學(xué)習(xí)方法僅依靠一組時間序列數(shù)據(jù)進(jìn)行預(yù)測的方法還有提升空間,結(jié)合更多其他種類的參數(shù)數(shù)據(jù),多組參數(shù)共同預(yù)測以提升預(yù)測精度的方法將是下一步的研究目標(biāo)。

        表4 不同模型誤差比Tab.4 Model error percentage results

        表5 測試模型誤差絕對值Tab.5 Absolute results of test model errors

        4 結(jié)論

        為了更好應(yīng)對生態(tài)數(shù)據(jù)采集、傳輸過程中,因系統(tǒng)故障、環(huán)境原因等導(dǎo)致的長時間數(shù)據(jù)缺失,本文提出一種基于LSTM的植物體征缺失數(shù)據(jù)的填補(bǔ)方法。1) 針對長時間的數(shù)據(jù)缺失,傳統(tǒng)的數(shù)據(jù)填補(bǔ)方法無法應(yīng)對缺失數(shù)據(jù)中的波動現(xiàn)象,有長期記憶功能的神經(jīng)網(wǎng)路預(yù)測模型對這類數(shù)據(jù)的填補(bǔ)比傳統(tǒng)的插值數(shù)據(jù)填補(bǔ)方法更具有優(yōu)勢。2) 本文提出基于LSTM模型的雙向綜合預(yù)測法,顯著地減小長期預(yù)測中的累計誤差對預(yù)測結(jié)果的影響,進(jìn)一步提升預(yù)測數(shù)據(jù)的準(zhǔn)確度。

        猜你喜歡
        預(yù)測值神經(jīng)網(wǎng)絡(luò)誤差
        IMF上調(diào)今年全球經(jīng)濟(jì)增長預(yù)期
        企業(yè)界(2024年8期)2024-07-05 10:59:04
        加拿大農(nóng)業(yè)部下調(diào)2021/22年度油菜籽和小麥產(chǎn)量預(yù)測值
        ±800kV直流輸電工程合成電場夏季實測值與預(yù)測值比對分析
        角接觸球軸承接觸角誤差控制
        哈爾濱軸承(2020年2期)2020-11-06 09:22:26
        Beidou, le système de navigation par satellite compatible et interopérable
        法電再次修訂2020年核發(fā)電量預(yù)測值
        國外核新聞(2020年8期)2020-03-14 02:09:19
        神經(jīng)網(wǎng)絡(luò)抑制無線通信干擾探究
        電子制作(2019年19期)2019-11-23 08:42:00
        壓力容器制造誤差探究
        基于神經(jīng)網(wǎng)絡(luò)的拉矯機(jī)控制模型建立
        九十億分之一的“生死”誤差
        山東青年(2016年2期)2016-02-28 14:25:41
        国产精品黄色在线观看| 亚洲熟妇无码av不卡在线播放 | 亚洲精品久久久久久久久av无码 | 免费看美女被靠的网站| 亚洲综合网在线观看首页| 蜜桃一区二区免费视频观看| 日韩av一区二区不卡| 超碰cao已满18进入离开官网| 日韩中文字幕欧美亚洲第一区| 亚洲国产av自拍精选| 国产伦一区二区三区色一情| 风韵多水的老熟妇| 无码 制服 丝袜 国产 另类| 丰满人妻一区二区三区精品高清| 国内自拍情侣露脸高清在线| 日躁夜躁狠狠躁2001| 国产精品综合久久久久久久免费| av网址在线一区二区| 国内少妇毛片视频| 在线观看免费a∨网站| 久久AⅤ天堂Av无码AV| 中文字幕一区久久精品| 一本久久伊人热热精品中文字幕 | y111111少妇影院无码| 亚洲精品日本久久久中文字幕 | 正在播放强揉爆乳女教师| 狠狠色狠狠色综合久久第一次 | 亚洲国产精品美女久久久| 97人妻精品一区二区三区男同| 亚洲熟女乱色综合亚洲图片| 中文字幕亚洲好看有码| 国产精品三级在线观看| 女同av免费在线播放| 国产亚洲综合另类色专区| 国产午夜福利久久精品| 99热免费观看| 日韩精品资源在线观看免费| 婷婷成人丁香五月综合激情| 丰满人妻熟妇乱又伦精品视| 在线一区二区三区视频观看| 日本一区二区三区免费精品|