国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于隨機(jī)森林算法的發(fā)電廠蒸汽溫度調(diào)節(jié)

2022-11-26 09:17:43國電電力天津大港電廠
電力設(shè)備管理 2022年11期
關(guān)鍵詞:決策樹調(diào)節(jié)森林

國電電力天津大港電廠 許 斯

目前在火電廠中PID調(diào)節(jié)技術(shù)被廣泛使用。通過計(jì)算并求出設(shè)定值與實(shí)際值間具體的差值,再以這個(gè)差值為基礎(chǔ),結(jié)合比例、積分和微分控制器,以這樣的方式可有效控制變量,這就是PID控制的運(yùn)行過程。PID控制技術(shù)在今天還受到大多數(shù)工業(yè)行業(yè)的青睞,得益于PID控制技術(shù)的簡單算法及自身的高可靠性。但如面對(duì)現(xiàn)場(chǎng)情況復(fù)雜、線性分布與標(biāo)準(zhǔn)相差過大、場(chǎng)地內(nèi)有其他的異常值擾亂等不在預(yù)期內(nèi)的突發(fā)狀況時(shí),PID的性能就不能應(yīng)對(duì)這些非正常情況了,不能正常工作。

當(dāng)前主流火電廠對(duì)蒸汽溫度的主要調(diào)節(jié)手段是使用減溫水進(jìn)行調(diào)節(jié),調(diào)節(jié)過程的基礎(chǔ)是低溫過熱器的出口溫度穩(wěn)定,才能達(dá)到調(diào)節(jié)目的[1]。而低溫過熱器出口的溫度是與非常多參數(shù)相關(guān)的,包括機(jī)組負(fù)荷、蒸汽流量、鍋爐風(fēng)量、燃煤量等可量化參數(shù),還包括鍋爐結(jié)焦程度、爐內(nèi)空氣動(dòng)力場(chǎng)情況、加熱器管內(nèi)結(jié)垢程度等許多不可量化參數(shù),以及設(shè)備工況的變化、環(huán)境溫度的變化、煤質(zhì)的變化等等因素,都會(huì)影響鍋爐受熱情況。

目前的調(diào)節(jié)方法易造成汽輪發(fā)電機(jī)組的效率降低和機(jī)組安全性的問題。針對(duì)目前火電站減溫水調(diào)節(jié)的現(xiàn)狀,將機(jī)器學(xué)習(xí)技術(shù)融入到減溫水調(diào)節(jié)中,將對(duì)減溫水的調(diào)節(jié)提供新的思路。本文利用機(jī)器學(xué)習(xí)算法來解決蒸汽調(diào)整的問題,來解決過調(diào)、調(diào)節(jié)滯后、水量增加不夠造成超溫、水量波動(dòng)較大造成溫度長時(shí)間不穩(wěn)等問題。

1 利用隨機(jī)森林算法建模

1.1 隨機(jī)森林算法原理

隨機(jī)森立算法是一種集成學(xué)習(xí)思想的應(yīng)用。集成學(xué)習(xí)(Emsemble Learning)是一種思想,通過構(gòu)建并結(jié)合多個(gè)學(xué)習(xí)器來完成學(xué)習(xí)任務(wù)的一類算法,可為分類器或回歸器通過特定的方式進(jìn)行融合,形成一個(gè)效果較好的強(qiáng)學(xué)習(xí)器,以此來獲取比單個(gè)模型更好的回歸或分類表現(xiàn)[2]。隨機(jī)森林(Random Forest)是基于Bagging思想的算法,建立在決策樹模型的基礎(chǔ)之上,結(jié)合Bagging集成思想將多個(gè)決策樹結(jié)合到一起,建立每一個(gè)決策樹時(shí)使用隨機(jī)選取特征的方法。其簡單易實(shí)現(xiàn),性能強(qiáng)大,是集成學(xué)習(xí)中的代表性算法,在Bagging方法的基礎(chǔ)上增加了對(duì)于屬性的隨機(jī)選擇,不同于Bagging方法只有數(shù)據(jù)采樣時(shí)的隨機(jī),正是這個(gè)在選擇屬性上的隨機(jī)性,給隨機(jī)森林算法帶來了更好的泛化性能[3]。

1.2 建立模型

用隨機(jī)森林算法建立模型,訓(xùn)練已經(jīng)分割好的數(shù)據(jù),對(duì)目標(biāo)值“一級(jí)減溫水”進(jìn)行預(yù)測(cè)。利用Python語言的集成庫Scikit-learn中的隨機(jī)森林算法庫文件,通過集成方法庫sklearn.ensemble中的隨機(jī)森林回歸訓(xùn)練器RandomForestRegressor,可方便的建立隨機(jī)森林模型。

模型實(shí)例化。首先,利用導(dǎo)入的庫函數(shù)中的Random Forest Regressor方法,來將模型實(shí)例化。estimator=RandomForestRegressor(random_st ate=0,criterion='mse',bootstrap=True,max_features=None,n_estimators=8,max_depth=None,max_leaf_nodes=None,min_samples_leaf=1,oob_score=True)。Random Forest Regressor有很多重要參數(shù),參數(shù)調(diào)整是訓(xùn)練模型中重要的步驟。需要用科學(xué)的方法來驗(yàn)證不同參數(shù)時(shí)模型的效果。

訓(xùn)練模型。模型實(shí)例化后可對(duì)模型進(jìn)行訓(xùn)練。利用fit接口對(duì)建立好的模型實(shí)例進(jìn)行訓(xùn)練:regr=estimator.fit(X,y),其中X是分配好的訓(xùn)練集,y是測(cè)試集。模型訓(xùn)練完畢后得到模型regr,通過score接口對(duì)模型進(jìn)行評(píng)分,其中測(cè)試數(shù)據(jù)就是用來訓(xùn)練模型的訓(xùn)練集(X,y):regr.score(X,y),得分是0.99106834。這個(gè)分?jǐn)?shù)說明模型對(duì)訓(xùn)練集的擬合程度非常高,得到了較好的分?jǐn)?shù),但有過擬合的可能存在,測(cè)試模型是否過擬合還需對(duì)測(cè)試集的數(shù)據(jù)進(jìn)行驗(yàn)證。

利用測(cè)試集測(cè)試模型。整個(gè)數(shù)據(jù)集是由訓(xùn)練集與測(cè)試集構(gòu)成的,訓(xùn)練集主要的作用是模型建立,而測(cè)試集的作用是檢查模型是否準(zhǔn)確及是否符合標(biāo)準(zhǔn),此外還能檢查出來模型是否存在擬合的情況。第一步需計(jì)算測(cè)試集的結(jié)果,這一步需利用preditct接口,可得到y(tǒng)_1=regr.predict(X_test),隨后利用score計(jì)算測(cè)試集結(jié)果的分?jǐn)?shù)regr.score(X_test,y_test),得分是0.93277192。利用袋外數(shù)據(jù)來驗(yàn)證模型的分?jǐn)?shù)regr.oob_score_,輸出結(jié)果是0.93544676。對(duì)模型進(jìn)行交叉驗(yàn)證:score=cross_val_score(estimator,X,y).mean(),print('Score with the entire dataset=%.2f'%score),其得分是0.93。通過測(cè)試集和袋外數(shù)據(jù)的分?jǐn)?shù)可看出測(cè)試結(jié)果泛化性良好。結(jié)果是基于模型實(shí)例化時(shí)初始的參數(shù),通過對(duì)模型參數(shù)的調(diào)整,還可繼續(xù)對(duì)模型進(jìn)行優(yōu)化。

1.3 模型參數(shù)的優(yōu)化

模型的參數(shù)關(guān)系著整個(gè)模型表現(xiàn)的好壞。RandomForestRegressor函數(shù)的參數(shù)分有兩種,一種是隨機(jī)森林框架的參數(shù):n_estimators、oob_score、bootstrap、max_samples;另一種是決策樹的參數(shù):criterion、max_features、max_depth、min_samples_split、min_samples_leaf、max_leaf_nodes。通過坐標(biāo)下降的方法,按照順序逐個(gè)對(duì)參數(shù)進(jìn)行驗(yàn)證,參數(shù)的調(diào)整順序是:bootstrap,n_estimators,max_features,max_depth,max_leaf_nodes,min_samples_leaf。

Bootstrap。當(dāng)bootstrap為False時(shí),說明決策樹的多樣化差且泛化性能差。如果過擬的現(xiàn)象出現(xiàn)在了訓(xùn)練集中,造成的結(jié)果就是測(cè)試集的分?jǐn)?shù)會(huì)較低。反之,如果bootstrap不是False而是True時(shí),那么決策樹的多樣化就會(huì)提高、泛化性能也會(huì)增強(qiáng),可進(jìn)行有放回的抽取選擇?;谝陨线@兩種情況,最終應(yīng)當(dāng)將bootstrap的參數(shù)定為True;n_estimators。代表隨機(jī)森林中決策樹的數(shù)量。決策樹的數(shù)量與模型的性能是息息相關(guān)的,決策樹的數(shù)量越多,模型性能增加的幅度越大。當(dāng)然模型的性能不能一直這樣增長。當(dāng)決策樹的數(shù)量達(dá)到了一個(gè)標(biāo)準(zhǔn)值之后,模型的性能也就達(dá)到了一定的程度,變化幅度不在那么明顯。當(dāng)n_estimators到達(dá)100以后,分?jǐn)?shù)基本上就不會(huì)在發(fā)生變化。因此最終n_estimators設(shè)定為100。

max_features。表示建立決策樹時(shí)隨機(jī)選取屬性的最大數(shù),如果想要建立隨機(jī)森林的話,就不能允許max_features的數(shù)值是隨意的,必須要對(duì)其進(jìn)行一定的限制??衫镁W(wǎng)絡(luò)來找到做適合的數(shù)值,數(shù)據(jù)集的屬性加起來一共是36個(gè),而max_features的范圍取range(1,37,5),也就是說取值要從1開始取值,往后間隔5個(gè)再進(jìn)行取值,以此為規(guī)律進(jìn)行相應(yīng)的取值,發(fā)現(xiàn)當(dāng)max_features取值為11時(shí)分?jǐn)?shù)是最高的,所以最終的確定值為11。

max_depth。表示每棵決策樹的最大深度,默認(rèn)值是None。如想對(duì)決策樹進(jìn)行剪枝,就要對(duì)max_depth進(jìn)行合理的設(shè)置。決策樹的深度與模型的偏差值息息相關(guān),深度越深偏差值就會(huì)越小。通過不斷的進(jìn)行取值設(shè)置,發(fā)現(xiàn)max_depth為41時(shí)結(jié)果是最優(yōu)的;max_leaf_nodes。表示單棵樹的最大葉子節(jié)點(diǎn)數(shù)。設(shè)置max_leaf_nodes值可對(duì)樹進(jìn)行剪枝,最大葉子的節(jié)點(diǎn)數(shù)與測(cè)試集的分?jǐn)?shù)是關(guān)聯(lián)的,呈現(xiàn)出正相關(guān)的關(guān)系,也就是隨著前者數(shù)量的變大后者也會(huì)隨之變大。通過不斷地實(shí)驗(yàn)發(fā)現(xiàn),當(dāng)max_leaf_nodes參數(shù)為None時(shí)就符合標(biāo)準(zhǔn),因此最終設(shè)置為None。

min_samples_leaf。表示葉子節(jié)點(diǎn)包含最小樣本數(shù)。如果說數(shù)值比這個(gè)參數(shù)小的話,那么這些葉子節(jié)點(diǎn)就會(huì)被裁剪掉。所以min_samples_leaf值與剪枝也可說是正相關(guān)的關(guān)系,數(shù)值越大裁剪掉的越多,最后導(dǎo)致模型的偏差也就越大?;谝陨线@種情況,將min_samples_leaf值為1。

至此最終確定參數(shù)及其值如下:'bootstrap'/TRUE、'criterion'/Mse、'max_depth'/41、'max_features'/11、'max_leaf_nodes'/None、'min_samples_leaf'/1、'n_estimators'/100、'n_jobs'/-1、'oob_score'/TRUE、'random_state'/0。

最后測(cè)試集結(jié)果是0.942169656,袋外測(cè)試結(jié)果是0.942124891。訓(xùn)練集的擬合程度是0.99199292,存在過擬合的情況。原數(shù)據(jù)集的采樣周期是1s,通過查看數(shù)據(jù)集發(fā)現(xiàn)數(shù)據(jù)的重復(fù)值較多,說明采樣周期太短。重采樣可減少重復(fù)值,提高模型對(duì)數(shù)據(jù)的敏感度。上述調(diào)整參數(shù)的過程是在數(shù)據(jù)集每30s進(jìn)行重采樣后的數(shù)據(jù)進(jìn)行的。通過用10s采樣周期的數(shù)據(jù),利用上述模型得到的參數(shù)進(jìn)行訓(xùn)練模型后,得到的最后測(cè)試集結(jié)果是0.982981054,袋外測(cè)試結(jié)果是0.983475399。隨著數(shù)據(jù)集內(nèi)數(shù)據(jù)量的增加,訓(xùn)練模型效果變好。利用原始沒有進(jìn)行重采樣的數(shù)據(jù)集進(jìn)行模型訓(xùn)練得到測(cè)試集結(jié)果是0.999747017,袋外測(cè)試結(jié)果是0.9997289。三個(gè)數(shù)據(jù)集的結(jié)果比較如表1。

通過表1看出,利用30s重采樣數(shù)據(jù)集對(duì)模型進(jìn)行調(diào)參,調(diào)參后的模型再用于原數(shù)據(jù)集進(jìn)行訓(xùn)練,得到了非常理想的效果。

2 結(jié)果分析

測(cè)試集數(shù)據(jù)是時(shí)間序列,減溫水流量隨著時(shí)間的變化。通過繪制測(cè)試集的散點(diǎn)圖,能清晰看出減溫水流量隨著時(shí)間的變化趨勢(shì),將測(cè)試集的實(shí)際值和模型的預(yù)測(cè)中繪制于同一個(gè)圖中,能方便的看出預(yù)測(cè)值的質(zhì)量。繪制對(duì)于測(cè)試集的減溫水量和預(yù)測(cè)量的點(diǎn)圖如圖1。

圖1中X是測(cè)試集的真實(shí)值,O是預(yù)測(cè)值。從圖中可看出預(yù)測(cè)值和實(shí)際值隨時(shí)間變化的對(duì)比。從散點(diǎn)圖上可看出,隨著數(shù)據(jù)集數(shù)量的增加,訓(xùn)練的模型在測(cè)試集上的表現(xiàn)更好。將測(cè)試集的實(shí)際值作為y軸,預(yù)測(cè)值作為x軸,畫出30s、10s采樣和不采樣的散點(diǎn)圖。

圖2是預(yù)測(cè)值與實(shí)際值的相關(guān)性散點(diǎn)圖。圖2中可見在重采樣周期為30s的數(shù)據(jù)集,存在小范圍的偏差。隨著采樣周期的縮短,10s重采樣周期的預(yù)測(cè)值和實(shí)際值的偏差減小,但個(gè)別散點(diǎn)偏差較大。在原始數(shù)據(jù)集沒有進(jìn)行重采樣的數(shù)據(jù)上,可看出預(yù)測(cè)值和實(shí)際值的偏差很小,只有個(gè)別點(diǎn)出現(xiàn)了較小的偏差。

利用RMSE(均方根誤差)值可更精確的量化評(píng)價(jià)結(jié)果,利用隨機(jī)森林算法的模型,在三個(gè)不同的重采樣數(shù)據(jù)集中均方根誤差分別為3.74955、2.06013和0.25063,即表現(xiàn)在實(shí)際中的減溫水量誤差大致為3.7t/h、2t/h和0.2t/h。

如圖3,隨著數(shù)據(jù)集數(shù)量的增加、誤差減小,說明增加數(shù)據(jù)集的規(guī)??蓽p小預(yù)測(cè)結(jié)果的誤差。通過圖1可從預(yù)測(cè)值和實(shí)際值的點(diǎn)圖中看出不同的RMSE值,相對(duì)應(yīng)的誤差表現(xiàn)。在實(shí)際生產(chǎn)過程中,3.7t/h和2t/h的誤差對(duì)蒸汽溫度會(huì)產(chǎn)生微小的影響,會(huì)使蒸汽溫度出現(xiàn)緩慢的變化,而0.2t/h的誤差基本不會(huì)對(duì)蒸汽溫度造成影響。所以在沒有進(jìn)行重采樣的原始數(shù)據(jù)集中,0.2t/h的誤差是非常好表現(xiàn)了,保證了模型對(duì)蒸汽溫度調(diào)節(jié)精確度的要求。

3 結(jié)語

綜上,在電力、煤炭和石油等眾多傳統(tǒng)行業(yè)都存在技術(shù)老舊的問題,這些行業(yè)中技術(shù)體系相對(duì)封閉,實(shí)際核心生產(chǎn)環(huán)節(jié)缺少對(duì)于前沿技術(shù)的應(yīng)用。原因一是傳統(tǒng)行業(yè)生產(chǎn)技術(shù)人員對(duì)于前沿新技術(shù)了解不夠深入,不清楚哪些技術(shù)能利用、如何應(yīng)用;二是傳統(tǒng)生產(chǎn)行業(yè)將安全生產(chǎn)放在第一位,對(duì)于新技術(shù)往往持有懷疑態(tài)度,寧可犧牲生產(chǎn)效率也要保證生產(chǎn)安全。本文將隨機(jī)森林算法運(yùn)用到傳統(tǒng)生產(chǎn)行業(yè),為傳統(tǒng)行業(yè)的生產(chǎn)系統(tǒng)優(yōu)化提供了一種新的思路,工業(yè)化4.0概念的提出,指出了將人工智能和傳統(tǒng)工業(yè)相結(jié)合方向,隨著機(jī)器學(xué)習(xí)技術(shù)的成熟和發(fā)展,勢(shì)必會(huì)被傳統(tǒng)行業(yè)所接受,屆時(shí)將對(duì)行業(yè)發(fā)展產(chǎn)生不可估量的影響。

猜你喜歡
決策樹調(diào)節(jié)森林
方便調(diào)節(jié)的課桌
2016年奔馳E260L主駕駛座椅不能調(diào)節(jié)
一種針對(duì)不均衡數(shù)據(jù)集的SVM決策樹算法
決策樹和隨機(jī)森林方法在管理決策中的應(yīng)用
電子制作(2018年16期)2018-09-26 03:27:06
哈Q森林
哈Q森林
哈Q森林
基于決策樹的出租車乘客出行目的識(shí)別
可調(diào)節(jié)、可替換的takumi鋼筆
哈Q森林
福泉市| 海门市| 夹江县| 呼和浩特市| 游戏| 凉山| 泽州县| 晋州市| 东安县| 花垣县| 沁水县| 光山县| 长治市| 罗定市| 阿拉善左旗| 景谷| 青海省| 东阳市| 溧水县| 舒兰市| 东辽县| 邳州市| 清水河县| 张家口市| 温宿县| 三原县| 凤冈县| 即墨市| 徐汇区| 芒康县| 巨野县| 读书| 雷州市| 怀安县| 子洲县| 上高县| 靖西县| 旬邑县| 西和县| 长阳| 会泽县|