亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        混合神經(jīng)網(wǎng)絡(luò)的包殼峰值溫度預(yù)測(cè)研究

        2022-03-22 07:20:36孫大彬李磊田兆斐王賀
        關(guān)鍵詞:核電廠模型

        孫大彬, 李磊, 田兆斐, 王賀

        (哈爾濱工程大學(xué) 核安全與仿真技術(shù)重點(diǎn)學(xué)科實(shí)驗(yàn)室,黑龍江 哈爾濱 150001)

        科學(xué)認(rèn)知導(dǎo)致核事故發(fā)生的因素,并采取設(shè)計(jì)、運(yùn)行與管理措施保護(hù)工作人員、公眾與環(huán)境免受不恰當(dāng)?shù)妮椛湮:?,是核能可持續(xù)發(fā)展的重大科學(xué)技術(shù)問題之一[1]。為了在保證安全性能的同時(shí)提高核電廠經(jīng)濟(jì)效益,需要對(duì)核電廠延壽、老化和核電廠運(yùn)行變化導(dǎo)致的安全裕度變化開展深入研究。然而傳統(tǒng)的確定論安全分析方法(deterministic safety analysis, DSA)和概率論安全分析方法(probabilistic safety assessment, PSA)在核電廠安全裕度分析上都有明顯的局限性[2]。為了更加準(zhǔn)確的分析核電廠安全裕度,基于風(fēng)險(xiǎn)指引的安全裕度分析方法(risk-informed safety margin characterization, RISMC)成為了研究的重點(diǎn)[3]。該方法采用最佳估算加不確定性分析(best estimate plus uncertainty analysis, BEPU)與先進(jìn)的概率安全分析方法進(jìn)行耦合,彌補(bǔ)了DSA和PSA在安全裕度分析中固有的缺陷性,使得準(zhǔn)確的評(píng)估核電廠安全裕度成為了可能[4]。

        雖然RISMC方法已經(jīng)能夠?qū)崿F(xiàn)安全裕度的準(zhǔn)確分析,但是現(xiàn)有的方法在計(jì)算效率上面臨著巨大的挑戰(zhàn)。以RELAP5程序?yàn)槔?,單次事故分析軟件程序?jì)算的時(shí)間從幾分鐘到幾小時(shí)不等,當(dāng)計(jì)算數(shù)量激增時(shí),計(jì)算量是不能接受的。因此,為了提高RISMC的分析效率,需要采用基于數(shù)據(jù)驅(qū)動(dòng)的降階方法提高分析效率[5]。

        由于核電廠是一個(gè)復(fù)雜的、非線性和高度動(dòng)態(tài)的系統(tǒng),因此許多傳統(tǒng)的降階方法不再適用。而神經(jīng)網(wǎng)絡(luò)方法由于其對(duì)非線性復(fù)雜問題的良好擬合能力,采用訓(xùn)練完備的神經(jīng)網(wǎng)絡(luò)模型能夠準(zhǔn)確、高效的進(jìn)行計(jì)算。文獻(xiàn)[6-8]將神經(jīng)網(wǎng)絡(luò)方法應(yīng)用到核電廠復(fù)雜系統(tǒng)事故識(shí)別及故障診斷領(lǐng)域的分類問題中,取得了很好的效果。文獻(xiàn)[9-11]利用神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)核電廠多參數(shù)快速建模及優(yōu)化。Khalil[12]、Kun Mo[13]和Jae-min Yang[14]等已經(jīng)在核電廠關(guān)鍵參數(shù)的短時(shí)序預(yù)測(cè)取得了一定的效果,因此神經(jīng)網(wǎng)絡(luò)具備在RISMC分析中應(yīng)用的潛質(zhì)。

        本文開展了基于神經(jīng)網(wǎng)絡(luò)方法的學(xué)習(xí)模型替代熱工水力分析軟件計(jì)算的研究,通過多方法、多樣本對(duì)比、超參數(shù)優(yōu)化,實(shí)現(xiàn)對(duì)核電廠燃料包殼峰值溫度(peak cladding temperature, PCT)的準(zhǔn)確、快速預(yù)測(cè)。在對(duì)傳統(tǒng)的BP神經(jīng)網(wǎng)絡(luò)(back propagation neural networks, BPNN)和卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural networks, CNN)研究的基礎(chǔ)上,提出了一種CNN和長(zhǎng)短期記憶法(long short-term memory, LSTM)相結(jié)合的混合神經(jīng)網(wǎng)絡(luò)(CNN-LSTM)。該混合神經(jīng)網(wǎng)絡(luò)利用CNN從歷史數(shù)據(jù)中提取的特征信息結(jié)合LSTM方法對(duì)時(shí)間序列進(jìn)行預(yù)測(cè)。

        1 混合神經(jīng)網(wǎng)絡(luò)建模

        BPNN是一種經(jīng)典、應(yīng)用廣泛的神經(jīng)網(wǎng)絡(luò)[15-16]。BPNN主要由學(xué)習(xí)過程中的信號(hào)通過正向的傳播與誤差的反向傳播2個(gè)過程組成。本文用到的神經(jīng)網(wǎng)絡(luò)也采用這種信息傳播方式。CNN[17]相較于傳統(tǒng)的神經(jīng)網(wǎng)絡(luò),因其網(wǎng)絡(luò)結(jié)構(gòu)特殊,能夠有效緩解特征提取過程中權(quán)重參數(shù)數(shù)據(jù)量過多問題,提高模型預(yù)測(cè)的準(zhǔn)確性,降低模型參數(shù)的復(fù)雜度,減少模型過擬合現(xiàn)象[18]。PCT預(yù)測(cè)是典型的回歸問題,并且根據(jù)事故進(jìn)程可能是長(zhǎng)時(shí)間序列的回歸問題,因此需要神經(jīng)網(wǎng)絡(luò)更好的處理時(shí)間序列數(shù)據(jù)。相較于傳統(tǒng)的神經(jīng)網(wǎng)絡(luò),LSTM關(guān)注的是序列數(shù)據(jù)中按照序列順序的前后依賴關(guān)系,在時(shí)序數(shù)據(jù)處理上具備明顯優(yōu)勢(shì)[19-20]。

        本文在保證峰值預(yù)測(cè)準(zhǔn)確的情況下還需要對(duì)PCT各時(shí)刻的變化趨勢(shì)信息進(jìn)行精準(zhǔn)預(yù)測(cè),以保證盡量全面的捕捉核電廠安全信息。CNN由于其權(quán)值共享和局部連接的特性,能夠保證在降低網(wǎng)絡(luò)復(fù)雜性的同時(shí),對(duì)數(shù)據(jù)的局部特征和歷史序列潛在信息進(jìn)行捕捉和挖掘。LSTM對(duì)時(shí)間序列的預(yù)測(cè)具備良好的精度和魯棒性,可以反饋長(zhǎng)時(shí)間序列的影響。因此,本文提出了一種CNN-LSTM的混合神經(jīng)網(wǎng)絡(luò)方法,旨在利用各個(gè)網(wǎng)絡(luò)自身的優(yōu)勢(shì),構(gòu)建高精度、高效率、強(qiáng)魯棒性的包殼峰值溫度長(zhǎng)時(shí)間序列預(yù)測(cè)模型。

        CNN-LSTM混合神經(jīng)網(wǎng)絡(luò)如圖1所示。該模型主要包含輸入層、CNN層、LSTM層、全連接層和輸出層。數(shù)據(jù)進(jìn)入輸入層完成初始化預(yù)處理,滿足計(jì)算要求后進(jìn)入CNN層。在CNN層中完成數(shù)據(jù)特征提取并進(jìn)行網(wǎng)絡(luò)稀疏化處理,保證計(jì)算精度的同時(shí)降低計(jì)算成本。構(gòu)建單層的LSTM結(jié)構(gòu),對(duì)前序特征參數(shù)進(jìn)行學(xué)習(xí)并尋找數(shù)據(jù)內(nèi)部規(guī)律。在此之后進(jìn)入全連接層處理,并在全連接層間增加Dropout函數(shù)(Dropout rate=0.5),避免網(wǎng)絡(luò)過擬合。最終經(jīng)過多個(gè)網(wǎng)絡(luò)處理輸出包殼峰值溫度隨時(shí)間變化的序列。

        圖1 CNN-LSTM結(jié)構(gòu)Fig.1 Structure diagram of CNN-LSTM

        2 包殼峰值溫度預(yù)測(cè)驗(yàn)證與分析

        2.1 數(shù)據(jù)選擇與預(yù)處理

        為了更好的說明本文提出的預(yù)測(cè)模型在核電廠安全裕度分析中的實(shí)際工程應(yīng)用效果,本文選擇了秦山核電廠小破口失水事故進(jìn)行分析。由于事故進(jìn)程中存在多個(gè)分支,對(duì)所有分支進(jìn)行建模需要大量的計(jì)算時(shí)間和資源,本文選擇單列中壓安注系統(tǒng)和雙列低壓安注投入的分支作為算例進(jìn)行分析。小破口失水事故是設(shè)計(jì)基準(zhǔn)事故,因此可以用作參考的實(shí)驗(yàn)數(shù)據(jù)非常有限,本文采用最佳估算程序RELAP5結(jié)果創(chuàng)建事故工況下PCT隨時(shí)間的變化趨勢(shì)數(shù)據(jù)集[21]。該數(shù)據(jù)集中每個(gè)數(shù)據(jù)采集間隔為1 s,全事故序列長(zhǎng)度為3 500 s。該數(shù)據(jù)集的輸入不確定性參數(shù)為17個(gè),高維數(shù)據(jù)包含大量關(guān)于觀測(cè)參數(shù)的冗余信息。為了去除數(shù)據(jù)中的噪聲和減少算法的計(jì)算時(shí)間,需要對(duì)數(shù)據(jù)進(jìn)行降維。此外,降維有助于泛化能力。降維的目的是尋找一種能有效描述高維數(shù)據(jù)特征的低維表示,以避免維數(shù)過多問題。數(shù)據(jù)降維方法可分為特征選擇和特征提取兩種。本文選擇Spearman相關(guān)性系數(shù)算法進(jìn)行數(shù)據(jù)特征選擇[22]。Spearman相關(guān)性系數(shù)為:

        (1)

        式中:di表示第i個(gè)數(shù)據(jù)對(duì)的位次值之差;n表示總的樣本個(gè)數(shù)。通過Spearman相關(guān)性系數(shù)篩選得到的不確定性輸入?yún)?shù)數(shù)據(jù)如表1所示,其中所有不確定性參數(shù)符合均勻分布。

        表1 不確定性參數(shù)表Table 1 Parameters for uncertainty analysis

        根據(jù)表1數(shù)據(jù)可知,不同參數(shù)數(shù)據(jù)之間存在明顯的量級(jí)差別,該現(xiàn)象會(huì)導(dǎo)致很大的奇異值,嚴(yán)重影響預(yù)測(cè)模型的收斂速度和數(shù)據(jù)結(jié)果可靠性,因此需要進(jìn)行數(shù)據(jù)預(yù)處理,將數(shù)據(jù)線性變換到[0,1],計(jì)算公式為:

        (2)

        式中:xmin是最小值;xmax是最大值;x是待處理數(shù)據(jù);xs是預(yù)處理后的數(shù)據(jù)。

        2.2 模型評(píng)價(jià)指標(biāo)

        為了評(píng)價(jià)不同模型的預(yù)測(cè)能力,需要采用一些評(píng)價(jià)指標(biāo)來描述預(yù)測(cè)精度。本文選擇了6個(gè)評(píng)價(jià)指標(biāo),分別為均方誤差(mean squared error, MSE)、均方根誤差(root mean square error, RMSE)、平均絕對(duì)百分比誤差%(mean absolute percentage error, MAPE)、峰值溫度絕對(duì)精度% (peaking temperature accuracy, PTA)、概率預(yù)測(cè)精度% (probability prediction accuracy, PPA)、過擬合度(degree of excessive fitting, DEF)分別為:

        (3)

        (4)

        (5)

        (6)

        (7)

        (8)

        2.3 模型超參數(shù)優(yōu)化及樣本數(shù)量分析

        神經(jīng)網(wǎng)絡(luò)模型中的超參數(shù)深刻影響著預(yù)測(cè)模型性能,因此需要對(duì)預(yù)測(cè)模型進(jìn)行超參數(shù)優(yōu)化,本文對(duì)CNN-LSTM混合神經(jīng)網(wǎng)絡(luò)的模型超參數(shù)優(yōu)化過程進(jìn)行詳細(xì)的介紹。常用的超參數(shù)優(yōu)化方法主要有:人工經(jīng)驗(yàn)判斷、網(wǎng)格搜索法、高斯過程法、人工神經(jīng)網(wǎng)絡(luò)穩(wěn)健分析法[23]。其中人工經(jīng)驗(yàn)判斷偶然性較大,高斯過程法需要充分的先驗(yàn)知識(shí),人工神經(jīng)網(wǎng)絡(luò)穩(wěn)健分析法實(shí)現(xiàn)過程相對(duì)復(fù)雜,因此本文采用應(yīng)用廣泛的網(wǎng)格搜索法進(jìn)行超參數(shù)優(yōu)化。本文涉及的優(yōu)化超參數(shù)為迭代次數(shù)(epochs)、批處理大小(batch_size)、激活函數(shù)(activation function)、優(yōu)化函數(shù)(optimization function)、學(xué)習(xí)率(learn rate)和網(wǎng)絡(luò)節(jié)點(diǎn)數(shù)(nodes)。所有超參數(shù)進(jìn)行統(tǒng)一網(wǎng)格搜索計(jì)算量過大,因此采用兩兩超參數(shù)組合進(jìn)行優(yōu)化、分析。神經(jīng)網(wǎng)絡(luò)的超參數(shù)優(yōu)化旨在找到相對(duì)較好的超參數(shù)組合而非全局最優(yōu)組合,因此該測(cè)試方法具備可行性。

        2.3.1 迭代次數(shù)和批處理

        迭代次數(shù)是指向前和向后傳播中所有批次的單次訓(xùn)練迭代。原則上迭代次數(shù)越大,預(yù)測(cè)模型收斂性能越好。然而在實(shí)際測(cè)試中,迭代次數(shù)在達(dá)到一定次數(shù)后模型就比較穩(wěn)定,因此為了在保證精度的同時(shí)盡量提高分析效率,需要確定合適的迭代次數(shù)數(shù)量。批處理大小是指一次訓(xùn)練所抓取的數(shù)據(jù)樣本數(shù)量,批處理大小會(huì)影響訓(xùn)練速度和模型優(yōu)化效果。5個(gè)不同批處理大小的迭代結(jié)果如圖2所示。數(shù)據(jù)結(jié)果表明,當(dāng)?shù)螖?shù)次數(shù)達(dá)到800時(shí),各預(yù)測(cè)模型均已收斂,因此模型迭代次數(shù)設(shè)置為800。

        不同batch_size的各評(píng)價(jià)參數(shù)對(duì)比結(jié)果如圖3所示。數(shù)據(jù)結(jié)果表明,batch_size=32的模型的PTA和序列預(yù)測(cè)精度(sequence accuracy, SA)達(dá)到了99.1%和91%,具有很高的預(yù)測(cè)精度。RMSE和MAPE均是各模型中最小的,具備最好的穩(wěn)定性和精度。并且其超限概率預(yù)測(cè)準(zhǔn)確率為95.4%,明顯高于其他batch_size,說明其對(duì)學(xué)習(xí)樣本的峰值分布統(tǒng)計(jì)規(guī)律也能夠進(jìn)行有效的學(xué)習(xí),能夠達(dá)到安全裕度分析的要求。雖然各組過擬合度結(jié)果不盡相同,但均沒有明顯的過擬合或欠擬合現(xiàn)象。綜合各評(píng)價(jià)參數(shù),選擇batch_size=32進(jìn)行預(yù)測(cè)模型構(gòu)建。

        圖2 不同模型的誤差隨迭代次數(shù)變化趨勢(shì)Fig.2 The loss of different models varies with the number of epochs

        圖3 不同batch_size評(píng)價(jià)參數(shù)對(duì)比Fig.3 Comparison of different batch_size evaluation parameters

        2.3.2 激活函數(shù)和優(yōu)化函數(shù)

        激活函數(shù)就是在神經(jīng)網(wǎng)絡(luò)的神經(jīng)元上運(yùn)行的函數(shù)。激活函數(shù)可以是非線性的,這就增加了神經(jīng)網(wǎng)絡(luò)模型的非線性因素,為預(yù)測(cè)非線性問題提供了可能,激活函數(shù)的選擇非常重要。本文研究中選擇了2種飽和激活函數(shù)Sigmoid和tanh以及3種非飽和激活函數(shù)ReLU、Leaky ReLU和RReLU。優(yōu)化函數(shù)是神經(jīng)網(wǎng)絡(luò)中決定權(quán)重系數(shù)更新效率和精度的關(guān)鍵,本文研究中選擇了4種常用的優(yōu)化函數(shù):隨機(jī)梯度下降(stochastic gradient descent, SGD)、Adadelta、Rprop、Adam。各組合評(píng)價(jià)參數(shù)結(jié)果對(duì)比如圖4所示。不同數(shù)值大小的含義同2.2節(jié)所述。

        圖4 不同組合評(píng)價(jià)參數(shù)對(duì)比Fig.4 Comparison of different cases evaluation parameters

        數(shù)據(jù)結(jié)果表明,Sigmoid激活函數(shù)由于主要應(yīng)用于分類問題,因此在峰值溫度序列預(yù)測(cè)的各個(gè)評(píng)價(jià)參數(shù)中效果最差。Tanh函數(shù)作為激活函數(shù)在超限概率預(yù)測(cè)上精度明顯劣于ReLU、Leaky ReLU和RReLU。優(yōu)化函數(shù)中,SGD方法由于完全依賴于batch的梯度,容易收斂到局部最優(yōu),因此相關(guān)預(yù)測(cè)模型的魯棒性和精度均較差。Adadelta、Rprop對(duì)學(xué)習(xí)率進(jìn)行了一定的約束,相對(duì)于傳統(tǒng)的SGD方法其預(yù)測(cè)的準(zhǔn)確性和魯棒性均有明顯的提升。Adam作為帶有動(dòng)量項(xiàng)的Rprop,它利用梯度的一階矩估計(jì)和二階矩估計(jì)動(dòng)態(tài)調(diào)整每個(gè)參數(shù)的學(xué)習(xí)率,每一次迭代學(xué)習(xí)率都有個(gè)確定范圍,使得參數(shù)比較平穩(wěn)。數(shù)據(jù)結(jié)果也表明Adam優(yōu)化函數(shù)在各優(yōu)化參數(shù)中具備準(zhǔn)確的預(yù)測(cè)性能和穩(wěn)定性。通過綜合對(duì)比分析,ReLU和Adam的組合性能最佳,因此選擇二者作為預(yù)測(cè)模型的激活函數(shù)和優(yōu)化函數(shù)。

        2.3.3 學(xué)習(xí)率和節(jié)點(diǎn)數(shù)

        學(xué)習(xí)率作為優(yōu)化算法中的調(diào)諧參數(shù),可以確定每次迭代中的步長(zhǎng),使損失函數(shù)收斂到最小值,因此對(duì)預(yù)測(cè)模型的收斂性、預(yù)測(cè)精度等都有重要的影響。學(xué)習(xí)率設(shè)置過小則收斂速度過慢,學(xué)習(xí)率過大則可能導(dǎo)致無法收斂及精度較差。學(xué)習(xí)率的選擇沒有標(biāo)準(zhǔn)的選擇規(guī)定,因此需要對(duì)不同的模型進(jìn)行測(cè)試。本文在經(jīng)過預(yù)測(cè)試后選定了6個(gè)不同的學(xué)習(xí)率進(jìn)行優(yōu)化測(cè)試。神經(jīng)網(wǎng)絡(luò)中每個(gè)隱藏層的節(jié)點(diǎn)個(gè)數(shù)也對(duì)預(yù)測(cè)模型的效率和精度有重要影響。節(jié)點(diǎn)數(shù)過少,網(wǎng)絡(luò)不具備必要的學(xué)習(xí)能力,節(jié)點(diǎn)數(shù)過多會(huì)導(dǎo)致網(wǎng)絡(luò)結(jié)構(gòu)復(fù)雜,在對(duì)硬件提出更高要求的同時(shí)降低分析效率。一般情況下,當(dāng)精度接近時(shí)要選擇節(jié)點(diǎn)數(shù)較少的模型[24]。測(cè)試案例對(duì)應(yīng)具體數(shù)值如表2所示。

        各評(píng)價(jià)參數(shù)對(duì)比如圖5所示。其中顏色越接近紅色表明數(shù)值越大,越接近藍(lán)色則數(shù)值越小。不同數(shù)值大小的含義同2.2節(jié)所述。數(shù)據(jù)結(jié)果表明,節(jié)點(diǎn)數(shù)500,學(xué)習(xí)率5×10-3的組合以及節(jié)點(diǎn)數(shù)400,學(xué)習(xí)率5×10-4的組合在各個(gè)評(píng)價(jià)參數(shù)上均表現(xiàn)出良好性能。為了提高預(yù)測(cè)模型的分析效率,選擇節(jié)點(diǎn)數(shù)更少的400,5×10-4組合作為預(yù)測(cè)模型的節(jié)點(diǎn)數(shù)與學(xué)習(xí)率。

        表2 測(cè)試案例與具體數(shù)值對(duì)應(yīng)表Table 2 Test cases correspond to specific values

        圖5 不同組合評(píng)價(jià)參數(shù)對(duì)比Fig.5 Comparison of different cases evaluation parameters

        2.3.4 樣本數(shù)量

        在神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)中,理想條件下學(xué)習(xí)樣本數(shù)量越大模型越容易獲得較好的性能,然而在實(shí)際應(yīng)用中受限于實(shí)驗(yàn)數(shù)據(jù)采集、計(jì)算機(jī)資源以及計(jì)算效率需求等多種因素,不可能無限的擴(kuò)大樣本數(shù)量。因此需要在保證精度要求的前提下采用盡量少的樣本。不同樣本下預(yù)測(cè)模型各性能指標(biāo)數(shù)據(jù)如圖6所示。當(dāng)樣本數(shù)量為500時(shí),預(yù)測(cè)模型性能較差,難以滿足預(yù)測(cè)需求。當(dāng)樣本量不少與1 000時(shí),預(yù)測(cè)模型各評(píng)價(jià)指標(biāo)均有明顯提升且模型性能較好,并且由于數(shù)據(jù)本身的均衡性,并沒有出現(xiàn)評(píng)價(jià)指標(biāo)隨樣本規(guī)模增加而集體變好的現(xiàn)象。本文采用Intel(R) Xeon(R) W-2275 CPU 3.30GHz CPU進(jìn)行RELAP5分析計(jì)算構(gòu)建數(shù)據(jù)庫,單算例一次計(jì)算需要411 s。每增加1 000組樣本計(jì)算時(shí)間需要增加約114 h。圖7、8展示了不同樣本數(shù)量下全序列和2 700~3 000 s內(nèi)的峰值溫度預(yù)測(cè)結(jié)果,其中真實(shí)值是指RELAP5程序運(yùn)行結(jié)果,其余幾組為混合神經(jīng)網(wǎng)絡(luò)預(yù)測(cè)結(jié)果。數(shù)據(jù)結(jié)果顯示在樣本數(shù)量不少于1 000時(shí),各預(yù)測(cè)模型在全序列和峰值出現(xiàn)的關(guān)鍵時(shí)間段內(nèi)均具有很好的預(yù)測(cè)精度,沒有出現(xiàn)明顯的精度差異。在平衡了預(yù)測(cè)模型性能和計(jì)算效率后選擇1 000組樣本進(jìn)行預(yù)測(cè)模型建模。

        圖6 不同樣本數(shù)量評(píng)價(jià)參數(shù)對(duì)比Fig.6 Comparison of evaluation parameters with different number of samples

        圖7 不同樣本數(shù)量全序列預(yù)測(cè)PCT對(duì)比Fig.7 Comparison of PCT predicted by whole sequence with different number of samples

        圖8 不同樣本數(shù)量部分序列預(yù)測(cè)PCT對(duì)比Fig.8 PCT comparison of partial sequences predicted by different number of samples

        2.4 模型性能比較

        為了驗(yàn)證混合模型在預(yù)測(cè)精度和穩(wěn)定性上的進(jìn)步,將其與CNN和BPNN進(jìn)行對(duì)比分析。在使用相同的訓(xùn)練和測(cè)試數(shù)據(jù)集訓(xùn)練所有模型后,預(yù)測(cè)PCT以進(jìn)行性能評(píng)估。本文涉及的模型均采用Python編寫,使用Pytorch深度學(xué)習(xí)框架。各評(píng)價(jià)參數(shù)數(shù)據(jù)對(duì)比如表3所示。數(shù)據(jù)結(jié)果表明,CNN相較于BPNN在峰值預(yù)測(cè)和全序列預(yù)測(cè)精度上有明顯進(jìn)步,體現(xiàn)了CNN對(duì)數(shù)據(jù)局部特征更強(qiáng)的學(xué)習(xí)效果,然而在模型的穩(wěn)定性和對(duì)統(tǒng)計(jì)數(shù)據(jù)預(yù)測(cè)上并沒有體現(xiàn)出優(yōu)勢(shì),反而數(shù)據(jù)結(jié)果要劣于傳統(tǒng)的BPNN。混合神經(jīng)網(wǎng)絡(luò)CNN-LSTM充分融合了各個(gè)神經(jīng)網(wǎng)絡(luò)方法的優(yōu)勢(shì),在各性能指標(biāo)上均有明顯優(yōu)勢(shì)。峰值精度提高了0.786%和0.691%,序列精度提高了1.289%和1.173%,RMSE降低了6.886%和22.356%,MAPE降低了5.331%和11.664%,概率預(yù)測(cè)精度提高了8.423%和14.446%。預(yù)測(cè)效率上,均采用NVIDIA GeForce RTX 3080 GPU進(jìn)行預(yù)測(cè),預(yù)測(cè)200組數(shù)據(jù)所需時(shí)間分別為110、111、110 s,單組預(yù)測(cè)時(shí)間為0.55、0.56、0.55 s,沒有明顯的區(qū)別。這充分表明新的方法在保證計(jì)算效率的同時(shí),準(zhǔn)確提取局部數(shù)據(jù)特征的情況下,在建立長(zhǎng)期依賴關(guān)系上體現(xiàn)了優(yōu)越的性能。3種方法的過擬合度都非常小,因此3個(gè)模型均可以應(yīng)用在PCT預(yù)測(cè)研究中。

        表3 不同模型評(píng)價(jià)參數(shù)對(duì)比表

        3 結(jié)論

        1) 當(dāng)樣本數(shù)量達(dá)到1 000時(shí),經(jīng)過超參數(shù)優(yōu)化的CNN-LSTM模型的峰值預(yù)測(cè)精度、序列預(yù)測(cè)精度、超限概率預(yù)測(cè)精度、MAPE分別達(dá)到了99.527%, 91.098%, 95.371%, 2.522%滿足預(yù)測(cè)精度需求。RMSE為49.065,滿足模型穩(wěn)定性要求。過擬合度為2.191×10-3,不存在過擬合或欠擬合現(xiàn)象。單次事故分析時(shí)間從RELAP5系統(tǒng)仿真程序的411 s降低為0.55 s,分析效率提升了747倍。

        2) 混合神經(jīng)網(wǎng)絡(luò)CNN-LSTM與傳統(tǒng)BPNN和CNN相比,對(duì)數(shù)據(jù)局部特征和時(shí)間序列信息的學(xué)習(xí)上有明顯提升,在進(jìn)行長(zhǎng)時(shí)間序列包殼峰值溫度預(yù)測(cè)時(shí),模型精度和穩(wěn)定性有明顯的提高。

        3)本文提出的混合神經(jīng)網(wǎng)絡(luò)模型對(duì)包殼峰值溫度的預(yù)測(cè)達(dá)到了較高的精度的同時(shí),明顯提升了包殼峰值溫度計(jì)算的效率。與現(xiàn)有預(yù)測(cè)方法相比,對(duì)包殼峰值溫度的全時(shí)間序列信息預(yù)測(cè)精度更高,可以為核電廠安全裕度分析提供更多、更準(zhǔn)確的信息。

        后續(xù)將針對(duì)更多的事故序列進(jìn)行預(yù)測(cè)分析,對(duì)算法的適用性進(jìn)行進(jìn)一步的驗(yàn)證。

        猜你喜歡
        核電廠模型
        一半模型
        核電廠蒸汽發(fā)生器一次側(cè)管嘴堵板研發(fā)和應(yīng)用
        PHM技術(shù)在核電廠電氣系統(tǒng)中的探索與實(shí)踐
        核電廠起重機(jī)安全監(jiān)控管理系統(tǒng)的應(yīng)用
        重要模型『一線三等角』
        我國(guó)運(yùn)行核電廠WANO 業(yè)績(jī)指標(biāo)
        重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
        我國(guó)運(yùn)行核電廠WANO 業(yè)績(jī)指標(biāo)
        核電廠主給水系統(tǒng)調(diào)試
        3D打印中的模型分割與打包
        国产精品美女久久久久久久| 亚洲一区二区三区特色视频| 日韩精品无码一区二区| 大陆极品少妇内射aaaaa| 亚洲黄色尤物视频| 在线精品亚洲一区二区三区 | 在线观看视频一区| 精品亚洲视频免费观看网站| 成人偷拍自拍视频在线观看| 免费操逼视频| 国产成人一区二区三中文| av天堂一区二区三区| 色哟哟亚洲色精一区二区 | 少妇真人直播免费视频| 又粗又硬又黄又爽的免费视频| 欧美精品AⅤ在线视频| 亚洲熟妇无码av不卡在线播放| 高潮社区51视频在线观看| 亚洲精品中文字幕一二三四| 国产国产人免费人成免费视频 | 无码不卡一区二区三区在线观看| 国产黄色一级到三级视频| av人摸人人人澡人人超碰下载| 婷婷午夜天| 久久99久久99精品免视看国产成人| 久久综合激情的五月天| 精品久久人妻av中文字幕| 久久免费视频国产| 日本熟女人妻一区二区三区| 在线观看一级黄片天堂| 亚洲精品无码久久久久秋霞| 久久成人永久免费播放| 久久成人永久婷婷99精品| 国产精品欧美久久久久久日本一道| 狠狠躁夜夜躁人人爽超碰97香蕉| 亚洲二区三区在线播放| 中文字幕一区二区中出后入| 亚洲av成人无码网站大全| 一区二区视频观看在线| 人妻精品久久一区二区三区 | 成人三级a视频在线观看|