摘要:基于遺傳算法-反向傳播神經(jīng)網(wǎng)絡(luò)(GA-BPNN)、遺傳算法-支持向量機(jī)(GA-SVM)、 極限學(xué)習(xí)機(jī)(ELM)單一數(shù)據(jù)驅(qū)動(dòng)模型穩(wěn)定性差、信息熵線性融合模型建立時(shí)間成本高的問(wèn)題, 提出了信息熵 Stacking 融合建模法。使用工廠實(shí)際生產(chǎn)數(shù)據(jù),以氣化爐負(fù)荷、進(jìn)料壓力與流 量、激冷水流量為輸入,以氣化爐出口溫度、水洗塔出口合成氣溫度與流量、合成氣組成為輸 出,建立了氣化爐的信息熵 Stacking 融合預(yù)測(cè)模型。結(jié)果表明:信息熵 Stacking 融合模型預(yù)測(cè) 項(xiàng)—?dú)饣癄t出口溫度、水洗塔出口合成氣溫度與流量、合成氣中 CO 含量與 H2 含量這 5 個(gè)參 數(shù)的平均相對(duì)誤差(MRE)分別為 1.89%、0.17%、0.78%、0.95% 與 0.71%,均表現(xiàn)良好且較 單一數(shù)據(jù)驅(qū)動(dòng)模型更加穩(wěn)定,擬合速度較信息熵線性融合模型提升約 19%。模型可結(jié)合優(yōu)化算 法應(yīng)用于氣化過(guò)程氧氣與煤漿流量比等操作條件的在線優(yōu)化以及氣化爐氣化溫度的優(yōu)化,從而 提高過(guò)程的有效氣產(chǎn)率。
關(guān)鍵詞:煤氣化;BPNN;SVM;ELM;Stacking 算法
中圖分類(lèi)號(hào):TP183
文獻(xiàn)標(biāo)志碼:A
氣化爐內(nèi)高溫環(huán)境和測(cè)量手段的局限使得研究 者們無(wú)法僅通過(guò)實(shí)驗(yàn)方法獲取影響爐內(nèi)氣化反應(yīng)的 全部關(guān)鍵參數(shù) [1] ,因此極有必要通過(guò)模擬手段建立能 描述氣化爐內(nèi)復(fù)雜反應(yīng)機(jī)理、克服實(shí)際生產(chǎn)中工藝 參數(shù)多變性的氣化爐數(shù)學(xué)模型。
目前廣泛應(yīng)用的單一的氣化爐模擬模型主要有 機(jī)理模型和數(shù)據(jù)驅(qū)動(dòng)模型[2-4]。由于機(jī)理模型在建立 過(guò)程中一般都會(huì)對(duì)氣化爐內(nèi)復(fù)雜的氣化過(guò)程進(jìn)行一 定程度的簡(jiǎn)化,加上煤氣化生產(chǎn)中實(shí)時(shí)入爐煤質(zhì)數(shù) 據(jù)的缺失,因而在實(shí)際應(yīng)用中其準(zhǔn)確度會(huì)不可避免 地降低。數(shù)據(jù)驅(qū)動(dòng)模型因?yàn)榫哂袛M合能力出色、對(duì) 機(jī)理知識(shí)依賴(lài)性低等優(yōu)點(diǎn),被廣泛應(yīng)用于煤氣化模 擬中,最常見(jiàn)的數(shù)據(jù)驅(qū)動(dòng)模型有反向傳播神經(jīng)網(wǎng)絡(luò) (BPNN)[5]、 支 持 向 量 機(jī) (SVM)[6] 以 及 極 限 學(xué) 習(xí) 機(jī) (ELM)[7]。單一的數(shù)據(jù)驅(qū)動(dòng)模型雖然具有簡(jiǎn)單快速的 優(yōu)點(diǎn),但在穩(wěn)定性上一直存在些許問(wèn)題[8]。針對(duì)上述 兩類(lèi)單一模型存在的性能局限,研究者們提出了將 機(jī)理模型與數(shù)據(jù)驅(qū)動(dòng)模型組合(即混合模型),以期 兩者性能互補(bǔ)的建模思路[9-11]。但由于此類(lèi)模型仍要 借助于機(jī)理模型的建立,所以無(wú)法達(dá)到簡(jiǎn)化過(guò)程、降 低模型對(duì)參數(shù)依賴(lài)度的目的。
數(shù)據(jù)驅(qū)動(dòng)融合模型能通過(guò)組合多個(gè)同類(lèi)或不同 類(lèi)的包含不同信息的單一數(shù)據(jù)驅(qū)動(dòng)模型[12] ,改善單一 數(shù)據(jù)驅(qū)動(dòng)模型存在的穩(wěn)定性問(wèn)題。黃煒等[13] 通過(guò)多 個(gè)數(shù)據(jù)驅(qū)動(dòng)模型的智能組合,實(shí)現(xiàn)了對(duì)短期電力負(fù) 荷的準(zhǔn)確預(yù)測(cè)。趙敏等[14] 對(duì)比了 SVM算法、長(zhǎng)短期 記憶網(wǎng)絡(luò)(LSTM)算法、SVM-LSTM 融合算法識(shí)別 惡意軟件的能力,證明 SVM-LSTM 算法具有更高的 準(zhǔn)確性,較單一數(shù)據(jù)驅(qū)動(dòng)模型有更好的應(yīng)用前景。
考慮到煤氣化生產(chǎn)中實(shí)時(shí)入爐煤質(zhì)和煤漿數(shù)據(jù) 的缺失,本文基于數(shù)據(jù)驅(qū)動(dòng)融合算法,使用工廠實(shí)際 運(yùn)行生產(chǎn)數(shù)據(jù),提出組合信息熵線性融合法與 Stacking融合法,建立了 BPNN-SVM-ELM 的信息熵 Stacking 融合氣化爐模型。結(jié)果表明:Stacking 融合模型在準(zhǔn) 確性、穩(wěn)定性以及擬合速率上具有優(yōu)勢(shì),之后結(jié)合遺 傳算法 (GA),在實(shí)際工況其他輸入條件保持不變的 情況下,對(duì)氣化系統(tǒng)的氧氣流量進(jìn)行了優(yōu)化計(jì)算,得 到了能提高氣化爐的有效氣產(chǎn)率的優(yōu)化參數(shù)。
1""" BPNN-SVM-ELM 融合模型
1.1 BPNN、SVM、ELM 的差異性比較
BPNN、SVM、ELM 模型目前已被廣泛應(yīng)用于 工業(yè)軟測(cè)量領(lǐng)域中,其優(yōu)缺點(diǎn)與算法間的差異性也 得到了較為充分的證實(shí)。
BPNN 的擬合原理是經(jīng)驗(yàn)風(fēng)險(xiǎn)最小化中的梯度 下降法,即通過(guò)梯度下降,逐漸逼近數(shù)據(jù)集的全局最 優(yōu)解,模型較易在梯度下降過(guò)程中陷入局部最優(yōu)解, 因而無(wú)法找到全局最優(yōu)解,影響模型準(zhǔn)確性[15-17]。
SVM 的擬合原理是結(jié)構(gòu)風(fēng)險(xiǎn)最小化,即在找尋 數(shù)據(jù)集全局最優(yōu)解的同時(shí),加上一個(gè)懲罰項(xiàng),約束模 型復(fù)雜度,抑制過(guò)擬合的出現(xiàn),使得模型較經(jīng)驗(yàn)風(fēng)險(xiǎn) 最小化所得擬合結(jié)果有更好的泛化能力,然而由于 復(fù)雜度低,模型對(duì)數(shù)據(jù)缺失問(wèn)題較為敏感,降低了模 型的可靠性[18-20]。
ELM 的擬合原理是經(jīng)驗(yàn)風(fēng)險(xiǎn)最小化中的最小二 乘法,即根據(jù)最小二乘法直接求出數(shù)據(jù)集的全局最 優(yōu)解。模型求解時(shí)隨機(jī)產(chǎn)生的權(quán)值和偏差可能使模 型部分節(jié)點(diǎn)失效,降低了模型的可靠性[21-22]。
各模型不同的擬合原理,使它們出現(xiàn)異常的原 因與表現(xiàn)也會(huì)有所不同。對(duì) BPNN、SVM、ELM 這 3 種算法進(jìn)行融合,可在一定程度上降低最終得到的 融合模型出現(xiàn)異常值的可能。
1.2 BPNN-SVM-ELM 信息熵線性融合模型
BPNN-SVM-ELM 信息熵線性融合模型 (LFM) 通過(guò)信息熵權(quán)重分配法線性組合 BPNN、SVM 和 ELM 完成模型建立(圖 1),具體步驟如下[23] :
(1)數(shù)據(jù)處理。預(yù)處理數(shù)據(jù),并劃分為訓(xùn)練集 X1、驗(yàn)證集 X2、測(cè)試集 X3。
(2)子模型建立與選擇。通過(guò) X1 建立擁有不同 結(jié)構(gòu)參數(shù)的子模型,之后依據(jù)各子模型對(duì) X2 的預(yù)測(cè) 表現(xiàn)確定各子模型的最優(yōu)模型結(jié)構(gòu)參數(shù) (如 BPNN 隱層神經(jīng)元數(shù)、SVM 核函數(shù)、ELM 隱層節(jié)點(diǎn)數(shù)),得 到 3 種最優(yōu)子模型 (如 BPNNOPT,SVMOPT,ELMOPT)。
(3)建立基于信息熵算法的線性融合模型。信 息熵是一個(gè)對(duì)數(shù)據(jù)集中數(shù)據(jù)穩(wěn)定性進(jìn)行度量的參 數(shù),模型預(yù)測(cè)數(shù)據(jù)集的預(yù)測(cè)誤差信息熵越大,預(yù)測(cè)一 致性越差,則預(yù)測(cè)表現(xiàn)越不穩(wěn)定?;诟髯幽P完P(guān) 于 X2 的相對(duì)預(yù)測(cè)誤差求信息熵,以信息熵為依據(jù)計(jì) 算融合模型中各子模型的融合權(quán)重系數(shù),具體求解 過(guò)程為:
最終通過(guò) wj 對(duì)最優(yōu)子模型進(jìn)行線性融合,并使 用 X3 考察其性能表現(xiàn),但由于線性融合方式是通過(guò) 直接加權(quán)各子模型的輸出來(lái)實(shí)現(xiàn),其擬合建立時(shí)間 是所有相同輸入輸出結(jié)構(gòu)的子模型擬合耗時(shí)的疊 加,因而需要付出較高的時(shí)間成本。
1.3 BPNN-SVM-ELM 的信息熵 Stacking 融合模型
參考 Stacking 融合建模方式串聯(lián)一級(jí)學(xué)習(xí)模型 與次級(jí)學(xué)習(xí)模型(次級(jí)學(xué)習(xí)模型以一級(jí)學(xué)習(xí)模型的輸 出為輸入特征進(jìn)行訓(xùn)練并完成最終的預(yù)測(cè))來(lái)提高 模型性能的思路,本文提出將信息熵線性融合法與Stacking 融合法組合,以 SVM-ELM 的信息熵線性融 合模型為一級(jí)學(xué)習(xí)模型,以 BPNN 模型為次級(jí)學(xué)習(xí) 模型,建立信息熵 Stacking 融合模型,通過(guò)降低擬合 速度最慢的 BPNN 模型的擬合復(fù)雜度的方式,在提 高數(shù)據(jù)驅(qū)動(dòng)模型穩(wěn)定性的同時(shí),減少融合模型建立 所需的時(shí)間成本,如圖 2 所示。具體過(guò)程如下:
(1)數(shù)據(jù)處理。將收集到的數(shù)據(jù)進(jìn)行預(yù)處理后, 劃分為訓(xùn)練集 X1、驗(yàn)證集 X2、測(cè)試集 X3,之后進(jìn)一步 將 X1 等分為多份 (以 5 份為例) 訓(xùn)練子集 X11、X12、 X13、X14、X15。
(2)一級(jí) SVM-ELM 線性融合模型的構(gòu)建。挑 選 X12、X13、X14、X15 這 4 份訓(xùn)練子集組成訓(xùn)練集,分 別擬合建立 SVM 子模型與 ELM 模型,參照 1.2 節(jié)步 驟 ,通過(guò)考察子模型針對(duì) X2 的預(yù)測(cè)表現(xiàn) ,挑選出 SVM 最優(yōu)子模型 SVM1 與 ELM 最優(yōu)子模型 ELM1, 通過(guò)式(1)~式(5)計(jì)算分配權(quán)重,組合最優(yōu)子模型 后 , 建 立 SVM-ELM 信 息 熵 線 性 融 合 模 型 , 記 為 LFM1,并使用模型 LFM1 對(duì)建立模型時(shí)余下的訓(xùn)練 子集 X11 與測(cè)試集 X3 進(jìn)行預(yù)測(cè)。挑選不同的訓(xùn)練子集 進(jìn) 行 組 合 (X11X13X14X15、 X11X12X14X15、 X11X12X13X15、 X11X12X13X14),重復(fù)上述步驟,得到 4 組基于不同訓(xùn)練 集建立的融合模型 LFM2、LFM3、LFM4、LFM5,并 使用它們對(duì)訓(xùn)練子集 X12、X13、X14、X15 與測(cè)試集 X3 進(jìn)行預(yù)測(cè)。之后將模型 LFM1、LFM2、LFM3、LFM4、 LFM5 對(duì)訓(xùn)練子集的預(yù)測(cè)結(jié)果組合,得到一級(jí)模型關(guān) 于 X1 的 預(yù) 測(cè) 結(jié) 果 (YLFM1), 對(duì) 模 型 LFM1、 LFM2、 LFM3、LFM4、LFM5 關(guān)于 X3 的 5 次預(yù)測(cè)結(jié)果求平 均值,得到一級(jí)模型關(guān)于 X3 的預(yù)測(cè)結(jié)果 (YLFM2)。
(3)次級(jí) BPNN 子模型的構(gòu)建與最終預(yù)測(cè)。以 YLFM1 為訓(xùn)練集,擬合建立多個(gè)擁有不同隱層神經(jīng)元 數(shù)的 BPNN 模型,以 YLFM2 為測(cè)試集,考察并比對(duì)各 BPNN 模型關(guān)于樣本集 YLFM2 的預(yù)測(cè)性能參數(shù)、確定 BPNN 次級(jí)模型的最優(yōu)隱層神經(jīng)元數(shù),最后選定的次 級(jí)模型 BPNNOPT 關(guān)于樣本集 YLFM2 的輸出,即為最終 信息熵 Stacking 融合模型關(guān)于 X3 的預(yù)測(cè)輸出。
2""" 模型建立及應(yīng)用
2.1 生產(chǎn)數(shù)據(jù)預(yù)處理與前期準(zhǔn)備
本文的建模對(duì)象為頂置單噴嘴結(jié)構(gòu)的 SE 水煤 漿氣化爐,氣化爐耐火襯里為耐火磚,爐膛容積 36.72 m3 , 操作壓力 6.0 MPa,設(shè)計(jì)投煤量 1000 t/d,煤質(zhì)分析數(shù) 據(jù)見(jiàn)表 1。
收集 2021 年 1~3 月、9~11 月的實(shí)際運(yùn)行數(shù)據(jù) 共 3794 組,其中包含氣化爐操作參數(shù)以及部分氣化 爐監(jiān)測(cè)變量(平均采樣周期為 1 h )。根據(jù) 3-sigma 法 則,剔除數(shù)據(jù)樣本中的干擾點(diǎn),即如果某樣本滿(mǎn)足式 (6),則將其從數(shù)據(jù)集中刪除:
式中:N 為樣本數(shù)量; 為樣本 i 的某項(xiàng)特征值; 為 所有樣本某項(xiàng)特征值的平均值; 為所有樣本某項(xiàng)特征值的標(biāo)準(zhǔn)差。
根據(jù)式(6)計(jì)算結(jié)果,去除掉 3794 組數(shù)據(jù)中存 在的 160 個(gè)干擾點(diǎn)后,從剩余的 3634 組樣本中隨機(jī) 抽取 1000 組樣本用于建立模型的樣本集,樣本集各 項(xiàng)數(shù)據(jù)的描述性統(tǒng)計(jì)值列于表 2~表 3。
按照 8∶1∶1 的比例,將樣本集初步劃分為訓(xùn) 練 集 X1 (800 組 )、 驗(yàn) 證 集 X2 (100 組 ) 以 及 測(cè) 試 集 X3 (100 組)。樣本輸入特征為 6 項(xiàng)操作參數(shù),輸出標(biāo) 簽為 5 項(xiàng)監(jiān)測(cè)值,借助 Python 語(yǔ)言實(shí)現(xiàn)模型開(kāi)發(fā),同 時(shí)為了保證模型的可復(fù)現(xiàn)性,所有子模型的隨機(jī)數(shù) 種子皆設(shè)定為 1。
使用以下誤差參數(shù)評(píng)估模型性能,平均絕對(duì)誤 差(MAE)或平均相對(duì)誤差(MRE)反映模型的預(yù)測(cè)準(zhǔn) 確性,均方根誤差(RMSE)反映模型的預(yù)測(cè)穩(wěn)定性, 決定系數(shù)(R 2 )反映模型對(duì)所模擬過(guò)程的代表性。具 體計(jì)算公式如式(7)~式(10)所示:
使用測(cè)試集 X3 考察融合模型與各子模型的性 能表現(xiàn),結(jié)果見(jiàn)表 7。表 7 表明,擬合原理間存在差 異,使得各子模型針對(duì)多項(xiàng)預(yù)測(cè)值的表現(xiàn)各有優(yōu) 劣。對(duì)于最小值為 996.52 的 T 值以及最小值為 38.4 的 xCO 值,GA-BPNN預(yù)測(cè)表現(xiàn)最佳,MAE 分別為 19.78 xH2 與 0.41;對(duì)于最小值為 228.12 ℃ 的 Tg,w 值,GA-SVM 子 模型的 MAE 最?。?.43);對(duì)于最小值為 111894.9 Nm3 /h 的 Fg,w,以及最小值為 35.4 的 ,ELM 預(yù)測(cè)表現(xiàn)最 佳,MAE分別為 941.06 與 0.25。通過(guò)信息熵算法組 合 3 種子模型得到的線性融合模型(LFM),可以借助 各子模型預(yù)測(cè)值間的差異性,對(duì)它們進(jìn)行一定程度 的中和與調(diào)節(jié),在針對(duì)各項(xiàng)監(jiān)測(cè)值的預(yù)測(cè)中,融合模 型的 MAE 值、RSME值,都優(yōu)于或接近于當(dāng)前預(yù)測(cè) 項(xiàng)的最優(yōu)子模型。同時(shí)對(duì)比表 4~表 7 中數(shù)據(jù)可以看 出,由于穩(wěn)定性問(wèn)題,基于驗(yàn)證集 X2 挑選的最優(yōu)子模 型應(yīng)用于測(cè)試集 X3 數(shù)據(jù)的預(yù)測(cè)時(shí),預(yù)測(cè)性能將出現(xiàn) 波動(dòng),融合模型則可以通過(guò)將它們組合來(lái)減弱這種 不確定性帶來(lái)的影響,提高模型的穩(wěn)定性。
2.3 信息熵 Stacking 融合模型的建立
將包含 800 組樣本的訓(xùn)練集 X1 等分成 5 份,得 到含 160 組樣本的訓(xùn)練子集 X11、X12、X13、X14、X15。 參照 1.3 節(jié)步驟,選擇訓(xùn)練子集中的 X12、X13、 X14、X15 4 項(xiàng)合并,得到包含 640 組樣本的樣本集,結(jié)合此樣本集與驗(yàn)證集 X2,通過(guò)式( 1) ~式( 5)建立 SVM-ELM 的信息熵線性融合模型 LFM1,具體建立 過(guò)程類(lèi)似 2.2 節(jié)。利用 LFM1 模型對(duì)訓(xùn)練子集 X11、 測(cè)試集 X3 進(jìn)行預(yù)測(cè),模型的預(yù)測(cè)集數(shù)據(jù)規(guī)模分別為 5×160、5×100。重復(fù)此步驟,最終得到線性融合模型 LFM1、LFM2、LFM3、LFM4、LFM5,將它們關(guān)于訓(xùn) 練子集 X11、X12、X13、X14、X15 的預(yù)測(cè)結(jié)果組合,得到 一級(jí)模型關(guān)于訓(xùn)練集 X1 的最終預(yù)測(cè)集,數(shù)據(jù)規(guī)模 5×800;對(duì)它們關(guān)于測(cè)試集 X3 的預(yù)測(cè)結(jié)果求平均值, 得到一級(jí)模型關(guān)于測(cè)試集 X3 的最終預(yù)測(cè)集,數(shù)據(jù)規(guī) 模為 5×100。各線性融合模型的 SVM 子模型核函數(shù) 均選取 RBF,ELM 子模型的最優(yōu)結(jié)構(gòu)參數(shù)描述見(jiàn) 表 8。
以一級(jí)模型關(guān)于訓(xùn)練集 X1 的最終預(yù)測(cè)集為訓(xùn) 練集,建立多個(gè)輸入神經(jīng)元數(shù)為 5、輸出神經(jīng)元數(shù)為 5、隱層神經(jīng)元數(shù)不等的 GA-BPNN 模型,以一級(jí)模 型關(guān)于測(cè)試集 X3 的最終預(yù)測(cè)集為測(cè)試集,確定 GA[1]BPNN 次級(jí)模型的最優(yōu)隱層神經(jīng)元數(shù)為 9,具體過(guò)程 參照 2.2 節(jié),至此完成 Stacking 融合模型的建立。最 優(yōu) GA-BPNN 次級(jí)模型針對(duì)一級(jí)模型最終預(yù)測(cè)集的 預(yù)測(cè)輸出,即信息熵 Stacking 融合模型針對(duì)測(cè)試集 X3 的輸出,具體預(yù)測(cè)性能參數(shù)見(jiàn)表 9。
對(duì)比表 7、表 9 中不同模型關(guān)于測(cè)試集 X3 的預(yù) 測(cè)性能表現(xiàn),以圖 3 中代表模型準(zhǔn)確度的 MAE 值為 例 ,在針對(duì) 5 項(xiàng)預(yù)測(cè)值的預(yù)測(cè)中 ,信息熵 Stacking 融合模型 (SFM) 與信息熵線性融合模型 (LFM) 各有 優(yōu)劣,且都可以克服 GA-BPNN 模型在預(yù)測(cè) Fg,w 時(shí)出 現(xiàn)的異常性能波動(dòng)。在代表模型穩(wěn)定性的 RMSE 值 及其他性能參數(shù)上,也表現(xiàn)出相同的情況。
除了在預(yù)測(cè)表現(xiàn)上持平信息熵線性融合模型 外,信息熵 Stacking 融合模型的性能提升主要表現(xiàn)在 建立響應(yīng)耗時(shí)上。如表 10 所示,由于將 GA-BP 神經(jīng) 網(wǎng)絡(luò)子模型的輸入特征數(shù)從 6 項(xiàng)降低到了 5 項(xiàng),使得 信息熵 Stacking 融合模型的建立耗時(shí)較信息熵線性 融合模型降低了 19% 左右 ,同樣短于單一的 GA[1]BPNN 模型。
從之前的 3634 個(gè)樣本點(diǎn)中,隨機(jī)抽取 100 組連 續(xù)工況用于仿真優(yōu)化。在每組工況其他輸入條件不 變的情況下,調(diào)整氧氣流量值,使用 GA 算法尋找當(dāng) 前工況下使有效氣產(chǎn)率最大的氧氣流量值。圖 4(a) 所示為歷史工況下入爐煤漿流量值(CWS,藍(lán)線)與氧 氣流量實(shí)際設(shè)定值(黑線)、優(yōu)化設(shè)定值(紅線)曲線圖, 圖 4(b) 所示為歷史工況下實(shí)際氣化爐出口溫度(黑線)與優(yōu)化后氣化爐出口溫度(紅線)曲線圖,圖 4(c) 所示為歷史工況下實(shí)際有效氣產(chǎn)率(黑線)與優(yōu)化后 有效氣產(chǎn)率(紅線)曲線圖。
圖 4 結(jié)果表明,優(yōu)化仿真可以通過(guò)改變氧氣流 量調(diào)節(jié)氧氣和入爐煤漿的流量比,優(yōu)化氣化溫度,提 高有效氣產(chǎn)率。以本次使用的 100 組工況為例,優(yōu)化 后的有效氣產(chǎn)率平均值從 2209.19 Nm3 /t 提高到了 2294.03 Nm3 /t,整體增幅 3.84%。
3""" 結(jié) 論
本文基于 GA-BPNN 模型、GA-SVM 模型、ELM 模型,組合信息熵權(quán)重分配法與 Stacking 融合法,建 立了氣化爐的信息熵 Stacking 融合模型,并比較了它 與信息熵線性融合模型和 3 個(gè)子模型的預(yù)測(cè)性能,得 出以下結(jié)論:
(1) 信息熵 Stacking 融合模型關(guān)于氣化爐出口溫 度、水洗塔出口合成氣溫度與流量、合成氣 CO 摩爾 分?jǐn)?shù)、H2 摩爾分?jǐn)?shù)的 MRE 值分別為 1.89%、0.17%、 0.78%、0.95% 與 0.71%,可以很好地繼承信息熵線性 融合模型的優(yōu)秀預(yù)測(cè)表現(xiàn)。
(2) 信息熵 Stacking 融合模型擬合響應(yīng)速度較信 息熵線性融合模型提升了 19% 左右,應(yīng)用于過(guò)程優(yōu) 化指導(dǎo)中時(shí)將更有優(yōu)勢(shì)。
(3) 基于能實(shí)時(shí)預(yù)測(cè)氣化爐出口參數(shù)的信息熵 Stacking 融合模型,結(jié)合 GA 算法對(duì)氣化爐穩(wěn)定運(yùn)行 時(shí)的氧氣流量進(jìn)行適當(dāng)優(yōu)化調(diào)節(jié),能在一定程度上 提高氣化爐的有效氣產(chǎn)率。
參考文獻(xiàn):
SUN Z H, HOU Z S, YIN C K. Data driven modeling for UGI gasification process via a variable structure genetic BP neural network[C]//2014 International Joint Conference on Neural Networks. New York: IEEE, 2014: 1071-1078.
張志華, 白金鋒, 劉洋, 等. 煤炭氣化過(guò)程數(shù)學(xué)模型構(gòu)建的 研究進(jìn)展[J]. 煤炭科學(xué)技術(shù), 2019, 47(11): 196-205.
SUN Z H, DAI Z H, ZHOU Z J, et al. Numerical simula[1]tion of industrial opposed multi-burner coal-water slurry en[1]trained" flow" gasifier[J]." Industrial" amp;" Engineering" Chemi[1]stry Research, 2012, 51(6): 2560-2569.
WU H C, YANG C, ZHANG Z L. Simulation of two-phase flow" and" syngas" generation" in" biomass" gasifier" based" on two-fluid model[J]. Energies, 2022, 15(13): 4800.
杜旭鵬, 王鈺琪, 許建良, 等. 基于數(shù)據(jù)驅(qū)動(dòng)的氣化爐出口 溫度在線測(cè)量[J]. 華東理工大學(xué)學(xué)報(bào)(自然科學(xué)版), 2023, 49(2): 168-175.
ALI B, RAMESH K A, HANI H S, et al. Elucidating the effect of process parameters on the production of hydrogen[1]rich syngas by biomass and coal co-gasification techniques: A multi-criteria modeling approach[J]. Chemosphere, 2022, 287: 1-12.
LI X, NIU P F, LI G Q, et al. An adaptive extreme learning machine for modeling NOx emission of a 300 MW circulat[1]ing fluidized bed boiler[J]. Neural Process Letter, 2017, 46: 643-662.
LIU S K, YANG Y, YU L J, et al. Predicting gas produc[1]tion by" supercritical" water" gasification" of" coal" using"" ma[1]chine learning[J]. Fuel, 2022, 329: 125478.
VISWANATHAN K, ABBAS S, WU W, et al. Syngas ana[1]lysis" by" hybrid" modeling" of" sewage" sludge" gasification" in downdraft" reactor:" Validation" and" optimization[J]. Waste Management, 2022, 144: 132-143.
DENG Y S, AVILA C, GAO H J, et al. A hybrid modeling approach to estimate liquid entrainment fraction and its un[1]certainty[J]." Computers" amp;" Chemical" Engineering," 2022, 162: 107796.
WILLIS M J, VON S M. Simultaneous parameter identifi[1]cation and discrimination of the nonparametric structure of hybrid" semiparametric" models[J]." Computers" amp;" Chemical Engineering, 2017, 104: 366-376.
王佳晨. 多模型融合建模方法研究及其在化學(xué)中的應(yīng) 用[D]. 杭州: 浙江工業(yè)大學(xué), 2020.
黃煒, 陳田. 基于SAE與CEEMDAN-BiLSTM組合模型的 短期電力負(fù)荷預(yù)測(cè)[J]. 計(jì)算機(jī)應(yīng)用與軟件, 2022, 39(7): 52-58.
趙 敏, 張雪芹, 朱唯一, 等. 基于LSTM-SVM 模型的惡意 軟件檢測(cè)方法[J]. 華東理工大學(xué)學(xué)報(bào)(自然科學(xué)版), 2022, 48(3): 677-684.
LU" C" Y," SHI" J." Relative" density" prediction" of" additively manufactured" Inconel" 718:" A" study" on" genetic" algorithm optimized" neural" network" models[J]. Rapid" Prototyping Journal, 2022, 28(8): 1425-1436.
KUANG" F" L," LONG" Z" L," KUANG" D" M, et al. Applica[1]tion of back propagation neural network to the modeling of slump" and" compressive" strength" of" composite geopolymers[J]. Computational" Materials" Science," 2022, 206: 111241.
WEN" H" Q," YANG" S," WANG" Z" H, et al." A" systematic modeling methodology of deep neural network-based struc[1]ture-property" relationship" for" rapid" and" reliable" prediction on flashpoints[J]. AIChE Journal, 2022, 68(1): 1-15.
LING" H," QIAN" C," KANG" W, et al. Combination" of" sup[1]port vector machine and K-fold cross validation to predict compressive strength of concrete in marine environment[J]. Construction and Building Materials, 2019, 206: 355-363.
ZHOU T, LU H, WANG W W, et al. GA-SVM based fea[1]ture selection and parameter optimization in hospitalization expense" modeling[J]. Applied" Soft" Computing," 2019," 75: 323-332.
JAIR C, FARID G L, LISBETH R M, et al. A comprehens[1]ive survey on support vector machine classification: Appli[1]cations," challenges" and" trends[J]. Neurocomputing," 2020, 408: 189-215.
LI D Z, LI S, ZHANG S B, et al. Aging state prediction for supercapacitors based" on" heuristic" kalman" filter"" optimiza[1]tion" extreme" learning" machine[J]. Energy," 2022," 250: 123773.
RAJA M" N" A," SHUKLAnbsp; S" K." An" extreme" learning"" ma[1]chine model for geosynthetic-reinforced sandy soil founda[1]tions[J]. Proceedings" of" the" Institution" of" Civil" Engineers[1]Geotechnical Engineering, 2022, 175(4): 383-403.
XIA" L" Y," WANG" J" C," LIU" S" S, et al." Prediction" of" CO2 solubility" in" ionic" liquids" based" on" multi-model" fusion method[J]. Processes, 2019, 7(5): 1-16.
SU Y, JIN S M, ZHANG X P, et al. Stakeholder-oriented multi-objective process optimization based on an improved genetic" algorithm[J]." Computers" amp;" Chemical" Engineering, 2019, 132(4): 1-16.