亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于隨機森林算法的發(fā)電廠蒸汽溫度調(diào)節(jié)

        2022-11-26 09:17:43國電電力天津大港電廠
        電力設(shè)備管理 2022年11期
        關(guān)鍵詞:模型

        國電電力天津大港電廠 許 斯

        目前在火電廠中PID調(diào)節(jié)技術(shù)被廣泛使用。通過計算并求出設(shè)定值與實際值間具體的差值,再以這個差值為基礎(chǔ),結(jié)合比例、積分和微分控制器,以這樣的方式可有效控制變量,這就是PID控制的運行過程。PID控制技術(shù)在今天還受到大多數(shù)工業(yè)行業(yè)的青睞,得益于PID控制技術(shù)的簡單算法及自身的高可靠性。但如面對現(xiàn)場情況復(fù)雜、線性分布與標準相差過大、場地內(nèi)有其他的異常值擾亂等不在預(yù)期內(nèi)的突發(fā)狀況時,PID的性能就不能應(yīng)對這些非正常情況了,不能正常工作。

        當前主流火電廠對蒸汽溫度的主要調(diào)節(jié)手段是使用減溫水進行調(diào)節(jié),調(diào)節(jié)過程的基礎(chǔ)是低溫過熱器的出口溫度穩(wěn)定,才能達到調(diào)節(jié)目的[1]。而低溫過熱器出口的溫度是與非常多參數(shù)相關(guān)的,包括機組負荷、蒸汽流量、鍋爐風量、燃煤量等可量化參數(shù),還包括鍋爐結(jié)焦程度、爐內(nèi)空氣動力場情況、加熱器管內(nèi)結(jié)垢程度等許多不可量化參數(shù),以及設(shè)備工況的變化、環(huán)境溫度的變化、煤質(zhì)的變化等等因素,都會影響鍋爐受熱情況。

        目前的調(diào)節(jié)方法易造成汽輪發(fā)電機組的效率降低和機組安全性的問題。針對目前火電站減溫水調(diào)節(jié)的現(xiàn)狀,將機器學習技術(shù)融入到減溫水調(diào)節(jié)中,將對減溫水的調(diào)節(jié)提供新的思路。本文利用機器學習算法來解決蒸汽調(diào)整的問題,來解決過調(diào)、調(diào)節(jié)滯后、水量增加不夠造成超溫、水量波動較大造成溫度長時間不穩(wěn)等問題。

        1 利用隨機森林算法建模

        1.1 隨機森林算法原理

        隨機森立算法是一種集成學習思想的應(yīng)用。集成學習(Emsemble Learning)是一種思想,通過構(gòu)建并結(jié)合多個學習器來完成學習任務(wù)的一類算法,可為分類器或回歸器通過特定的方式進行融合,形成一個效果較好的強學習器,以此來獲取比單個模型更好的回歸或分類表現(xiàn)[2]。隨機森林(Random Forest)是基于Bagging思想的算法,建立在決策樹模型的基礎(chǔ)之上,結(jié)合Bagging集成思想將多個決策樹結(jié)合到一起,建立每一個決策樹時使用隨機選取特征的方法。其簡單易實現(xiàn),性能強大,是集成學習中的代表性算法,在Bagging方法的基礎(chǔ)上增加了對于屬性的隨機選擇,不同于Bagging方法只有數(shù)據(jù)采樣時的隨機,正是這個在選擇屬性上的隨機性,給隨機森林算法帶來了更好的泛化性能[3]。

        1.2 建立模型

        用隨機森林算法建立模型,訓練已經(jīng)分割好的數(shù)據(jù),對目標值“一級減溫水”進行預(yù)測。利用Python語言的集成庫Scikit-learn中的隨機森林算法庫文件,通過集成方法庫sklearn.ensemble中的隨機森林回歸訓練器RandomForestRegressor,可方便的建立隨機森林模型。

        模型實例化。首先,利用導入的庫函數(shù)中的Random Forest Regressor方法,來將模型實例化。estimator=RandomForestRegressor(random_st ate=0,criterion='mse',bootstrap=True,max_features=None,n_estimators=8,max_depth=None,max_leaf_nodes=None,min_samples_leaf=1,oob_score=True)。Random Forest Regressor有很多重要參數(shù),參數(shù)調(diào)整是訓練模型中重要的步驟。需要用科學的方法來驗證不同參數(shù)時模型的效果。

        訓練模型。模型實例化后可對模型進行訓練。利用fit接口對建立好的模型實例進行訓練:regr=estimator.fit(X,y),其中X是分配好的訓練集,y是測試集。模型訓練完畢后得到模型regr,通過score接口對模型進行評分,其中測試數(shù)據(jù)就是用來訓練模型的訓練集(X,y):regr.score(X,y),得分是0.99106834。這個分數(shù)說明模型對訓練集的擬合程度非常高,得到了較好的分數(shù),但有過擬合的可能存在,測試模型是否過擬合還需對測試集的數(shù)據(jù)進行驗證。

        利用測試集測試模型。整個數(shù)據(jù)集是由訓練集與測試集構(gòu)成的,訓練集主要的作用是模型建立,而測試集的作用是檢查模型是否準確及是否符合標準,此外還能檢查出來模型是否存在擬合的情況。第一步需計算測試集的結(jié)果,這一步需利用preditct接口,可得到y(tǒng)_1=regr.predict(X_test),隨后利用score計算測試集結(jié)果的分數(shù)regr.score(X_test,y_test),得分是0.93277192。利用袋外數(shù)據(jù)來驗證模型的分數(shù)regr.oob_score_,輸出結(jié)果是0.93544676。對模型進行交叉驗證:score=cross_val_score(estimator,X,y).mean(),print('Score with the entire dataset=%.2f'%score),其得分是0.93。通過測試集和袋外數(shù)據(jù)的分數(shù)可看出測試結(jié)果泛化性良好。結(jié)果是基于模型實例化時初始的參數(shù),通過對模型參數(shù)的調(diào)整,還可繼續(xù)對模型進行優(yōu)化。

        1.3 模型參數(shù)的優(yōu)化

        模型的參數(shù)關(guān)系著整個模型表現(xiàn)的好壞。RandomForestRegressor函數(shù)的參數(shù)分有兩種,一種是隨機森林框架的參數(shù):n_estimators、oob_score、bootstrap、max_samples;另一種是決策樹的參數(shù):criterion、max_features、max_depth、min_samples_split、min_samples_leaf、max_leaf_nodes。通過坐標下降的方法,按照順序逐個對參數(shù)進行驗證,參數(shù)的調(diào)整順序是:bootstrap,n_estimators,max_features,max_depth,max_leaf_nodes,min_samples_leaf。

        Bootstrap。當bootstrap為False時,說明決策樹的多樣化差且泛化性能差。如果過擬的現(xiàn)象出現(xiàn)在了訓練集中,造成的結(jié)果就是測試集的分數(shù)會較低。反之,如果bootstrap不是False而是True時,那么決策樹的多樣化就會提高、泛化性能也會增強,可進行有放回的抽取選擇。基于以上這兩種情況,最終應(yīng)當將bootstrap的參數(shù)定為True;n_estimators。代表隨機森林中決策樹的數(shù)量。決策樹的數(shù)量與模型的性能是息息相關(guān)的,決策樹的數(shù)量越多,模型性能增加的幅度越大。當然模型的性能不能一直這樣增長。當決策樹的數(shù)量達到了一個標準值之后,模型的性能也就達到了一定的程度,變化幅度不在那么明顯。當n_estimators到達100以后,分數(shù)基本上就不會在發(fā)生變化。因此最終n_estimators設(shè)定為100。

        max_features。表示建立決策樹時隨機選取屬性的最大數(shù),如果想要建立隨機森林的話,就不能允許max_features的數(shù)值是隨意的,必須要對其進行一定的限制??衫镁W(wǎng)絡(luò)來找到做適合的數(shù)值,數(shù)據(jù)集的屬性加起來一共是36個,而max_features的范圍取range(1,37,5),也就是說取值要從1開始取值,往后間隔5個再進行取值,以此為規(guī)律進行相應(yīng)的取值,發(fā)現(xiàn)當max_features取值為11時分數(shù)是最高的,所以最終的確定值為11。

        max_depth。表示每棵決策樹的最大深度,默認值是None。如想對決策樹進行剪枝,就要對max_depth進行合理的設(shè)置。決策樹的深度與模型的偏差值息息相關(guān),深度越深偏差值就會越小。通過不斷的進行取值設(shè)置,發(fā)現(xiàn)max_depth為41時結(jié)果是最優(yōu)的;max_leaf_nodes。表示單棵樹的最大葉子節(jié)點數(shù)。設(shè)置max_leaf_nodes值可對樹進行剪枝,最大葉子的節(jié)點數(shù)與測試集的分數(shù)是關(guān)聯(lián)的,呈現(xiàn)出正相關(guān)的關(guān)系,也就是隨著前者數(shù)量的變大后者也會隨之變大。通過不斷地實驗發(fā)現(xiàn),當max_leaf_nodes參數(shù)為None時就符合標準,因此最終設(shè)置為None。

        min_samples_leaf。表示葉子節(jié)點包含最小樣本數(shù)。如果說數(shù)值比這個參數(shù)小的話,那么這些葉子節(jié)點就會被裁剪掉。所以min_samples_leaf值與剪枝也可說是正相關(guān)的關(guān)系,數(shù)值越大裁剪掉的越多,最后導致模型的偏差也就越大?;谝陨线@種情況,將min_samples_leaf值為1。

        至此最終確定參數(shù)及其值如下:'bootstrap'/TRUE、'criterion'/Mse、'max_depth'/41、'max_features'/11、'max_leaf_nodes'/None、'min_samples_leaf'/1、'n_estimators'/100、'n_jobs'/-1、'oob_score'/TRUE、'random_state'/0。

        最后測試集結(jié)果是0.942169656,袋外測試結(jié)果是0.942124891。訓練集的擬合程度是0.99199292,存在過擬合的情況。原數(shù)據(jù)集的采樣周期是1s,通過查看數(shù)據(jù)集發(fā)現(xiàn)數(shù)據(jù)的重復(fù)值較多,說明采樣周期太短。重采樣可減少重復(fù)值,提高模型對數(shù)據(jù)的敏感度。上述調(diào)整參數(shù)的過程是在數(shù)據(jù)集每30s進行重采樣后的數(shù)據(jù)進行的。通過用10s采樣周期的數(shù)據(jù),利用上述模型得到的參數(shù)進行訓練模型后,得到的最后測試集結(jié)果是0.982981054,袋外測試結(jié)果是0.983475399。隨著數(shù)據(jù)集內(nèi)數(shù)據(jù)量的增加,訓練模型效果變好。利用原始沒有進行重采樣的數(shù)據(jù)集進行模型訓練得到測試集結(jié)果是0.999747017,袋外測試結(jié)果是0.9997289。三個數(shù)據(jù)集的結(jié)果比較如表1。

        通過表1看出,利用30s重采樣數(shù)據(jù)集對模型進行調(diào)參,調(diào)參后的模型再用于原數(shù)據(jù)集進行訓練,得到了非常理想的效果。

        2 結(jié)果分析

        測試集數(shù)據(jù)是時間序列,減溫水流量隨著時間的變化。通過繪制測試集的散點圖,能清晰看出減溫水流量隨著時間的變化趨勢,將測試集的實際值和模型的預(yù)測中繪制于同一個圖中,能方便的看出預(yù)測值的質(zhì)量。繪制對于測試集的減溫水量和預(yù)測量的點圖如圖1。

        圖1中X是測試集的真實值,O是預(yù)測值。從圖中可看出預(yù)測值和實際值隨時間變化的對比。從散點圖上可看出,隨著數(shù)據(jù)集數(shù)量的增加,訓練的模型在測試集上的表現(xiàn)更好。將測試集的實際值作為y軸,預(yù)測值作為x軸,畫出30s、10s采樣和不采樣的散點圖。

        圖2是預(yù)測值與實際值的相關(guān)性散點圖。圖2中可見在重采樣周期為30s的數(shù)據(jù)集,存在小范圍的偏差。隨著采樣周期的縮短,10s重采樣周期的預(yù)測值和實際值的偏差減小,但個別散點偏差較大。在原始數(shù)據(jù)集沒有進行重采樣的數(shù)據(jù)上,可看出預(yù)測值和實際值的偏差很小,只有個別點出現(xiàn)了較小的偏差。

        利用RMSE(均方根誤差)值可更精確的量化評價結(jié)果,利用隨機森林算法的模型,在三個不同的重采樣數(shù)據(jù)集中均方根誤差分別為3.74955、2.06013和0.25063,即表現(xiàn)在實際中的減溫水量誤差大致為3.7t/h、2t/h和0.2t/h。

        如圖3,隨著數(shù)據(jù)集數(shù)量的增加、誤差減小,說明增加數(shù)據(jù)集的規(guī)模可減小預(yù)測結(jié)果的誤差。通過圖1可從預(yù)測值和實際值的點圖中看出不同的RMSE值,相對應(yīng)的誤差表現(xiàn)。在實際生產(chǎn)過程中,3.7t/h和2t/h的誤差對蒸汽溫度會產(chǎn)生微小的影響,會使蒸汽溫度出現(xiàn)緩慢的變化,而0.2t/h的誤差基本不會對蒸汽溫度造成影響。所以在沒有進行重采樣的原始數(shù)據(jù)集中,0.2t/h的誤差是非常好表現(xiàn)了,保證了模型對蒸汽溫度調(diào)節(jié)精確度的要求。

        3 結(jié)語

        綜上,在電力、煤炭和石油等眾多傳統(tǒng)行業(yè)都存在技術(shù)老舊的問題,這些行業(yè)中技術(shù)體系相對封閉,實際核心生產(chǎn)環(huán)節(jié)缺少對于前沿技術(shù)的應(yīng)用。原因一是傳統(tǒng)行業(yè)生產(chǎn)技術(shù)人員對于前沿新技術(shù)了解不夠深入,不清楚哪些技術(shù)能利用、如何應(yīng)用;二是傳統(tǒng)生產(chǎn)行業(yè)將安全生產(chǎn)放在第一位,對于新技術(shù)往往持有懷疑態(tài)度,寧可犧牲生產(chǎn)效率也要保證生產(chǎn)安全。本文將隨機森林算法運用到傳統(tǒng)生產(chǎn)行業(yè),為傳統(tǒng)行業(yè)的生產(chǎn)系統(tǒng)優(yōu)化提供了一種新的思路,工業(yè)化4.0概念的提出,指出了將人工智能和傳統(tǒng)工業(yè)相結(jié)合方向,隨著機器學習技術(shù)的成熟和發(fā)展,勢必會被傳統(tǒng)行業(yè)所接受,屆時將對行業(yè)發(fā)展產(chǎn)生不可估量的影響。

        猜你喜歡
        模型
        一半模型
        一種去中心化的域名服務(wù)本地化模型
        適用于BDS-3 PPP的隨機模型
        提煉模型 突破難點
        函數(shù)模型及應(yīng)用
        p150Glued在帕金森病模型中的表達及分布
        函數(shù)模型及應(yīng)用
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權(quán)M-估計的漸近分布
        3D打印中的模型分割與打包
        日本一区二区不卡超清在线播放 | 日韩亚洲精品中文字幕在线观看| 国产无吗一区二区三区在线欢| 日韩精品无码久久一区二区三| 国产精品日日摸夜夜添夜夜添 | 亚洲天堂av在线网站| 大屁股人妻女教师撅着屁股| 亚洲色大成网站www尤物| 成年女人片免费视频播放A| 久久久亚洲av午夜精品| 精品露脸国产偷人在视频| 欧美最猛黑人xxxx黑人表情| 日本视频一区二区三区免费观看 | 视频在线观看免费一区二区| 中字幕人妻一区二区三区| 久热这里只有精品99国产| 精品蜜桃av一区二区三区| 福利视频一区二区三区| 亚洲码国产精品高潮在线| www插插插无码视频网站| 精品国精品自拍自在线| 大桥未久av一区二区三区| 三男一女吃奶添下面| 国产69口爆吞精在线视频喝尿| 在线亚洲精品中文字幕美乳色| 超碰人人超碰人人| 欧美成人看片黄a免费看| 精品久久久久久国产潘金莲| 性色av色香蕉一区二区蜜桃| 欧美人妻少妇精品久久黑人| 日日摸夜夜添夜夜添一区二区| 成年女人18毛片观看| 精品无码一区二区三区爱欲| 最近中文字幕视频高清| 久久无码高潮喷水抽搐| 日韩人妻系列在线观看| 亚洲av无码国产精品色软件下戴| 亚洲欧洲精品国产二码| 一道本加勒比在线观看| 国产太嫩了在线观看| 久久AⅤ无码精品为人妻系列|