周麗春,靳鑫,劉毅,高增梁,金福江(華僑大學(xué)信息科學(xué)與工程學(xué)院,福建 廈門 360;浙江工業(yè)大學(xué)過程裝備及其再制造教育部工程研究中心,浙江 杭州 3004)
?
即時(shí)局部建模在填料塔液泛氣速預(yù)測的應(yīng)用
周麗春1,靳鑫2,劉毅2,高增梁2,金福江1
(1華僑大學(xué)信息科學(xué)與工程學(xué)院,福建 廈門 361021;2浙江工業(yè)大學(xué)過程裝備及其再制造教育部工程研究中心,浙江 杭州 310014)
摘要:填料塔在工業(yè)生產(chǎn)中應(yīng)用廣泛,準(zhǔn)確預(yù)測填料塔的液泛氣速具有重要的應(yīng)用價(jià)值。實(shí)際的填料類型多種多樣,獲取的填料數(shù)據(jù)也存在差異,單一全局模型的預(yù)測效果受到一定的限制。首先給出了嶺參數(shù)極限學(xué)習(xí)機(jī)模型及其節(jié)點(diǎn)增加的遞推算法,以有效更新在線模型。結(jié)合即時(shí)學(xué)習(xí)方式,提出了局部遞推嶺參數(shù)極限學(xué)習(xí)機(jī)在線建模方法,用于填料塔液泛氣速的預(yù)測。實(shí)驗(yàn)結(jié)果表明所提出方法能更充分挖掘數(shù)據(jù)間的相關(guān)信息,預(yù)測效果優(yōu)于相應(yīng)的全局模型。關(guān)鍵詞:非線性系統(tǒng);動(dòng)態(tài)建模;神經(jīng)網(wǎng)絡(luò);遞推算法;極限學(xué)習(xí)機(jī);系統(tǒng)工程
2015-12-24收到初稿,2015-12-30收到修改稿。
聯(lián)系人:劉毅。第一作者:周麗春(1978—),女,講師。
填料塔具有生產(chǎn)能力大、壓力降小、操作彈性大等優(yōu)點(diǎn),在石油化工、精細(xì)化工、醫(yī)藥、環(huán)保等行業(yè)廣泛應(yīng)用。液泛的發(fā)生是現(xiàn)有工業(yè)填料塔分離操作存在的主要問題,降低了生產(chǎn)效率,嚴(yán)重時(shí)甚至?xí)鹜\?,影響整個(gè)生產(chǎn)系統(tǒng)的正常操作[1]。液泛是逆流填料塔中氣液兩相交互作用達(dá)到的一種特定的流體力學(xué)現(xiàn)象。當(dāng)操作氣速過大時(shí),塔內(nèi)的液體無法正常向下流,過多地積聚于填料間,并逐漸形成倒流,產(chǎn)生液泛。實(shí)際上,液泛是難以預(yù)測的,當(dāng)液泛發(fā)生時(shí),一般會(huì)出現(xiàn)壓降急劇增加和效率急劇降低的現(xiàn)象。通常認(rèn)為液泛氣速是液泛發(fā)生時(shí)的氣速,即填料塔的極限氣速,是計(jì)算填料塔最大承載能力和塔徑的必要參數(shù)[1-7]。因此,準(zhǔn)確預(yù)測液泛氣速和進(jìn)行液泛監(jiān)測具有重要的應(yīng)用意義。
目前,實(shí)際生產(chǎn)中液泛氣速的預(yù)測主要依靠傳統(tǒng)的經(jīng)驗(yàn)公式和壓降通用關(guān)聯(lián)圖[3]。但是這些經(jīng)驗(yàn)?zāi)P投夹杼囟ǖ奶盍铣?shù),其通用性較差。另外,隨著各種新型填料的出現(xiàn),許多條件與經(jīng)驗(yàn)公式并不相符,使模型的預(yù)測效果降低??紤]到傳統(tǒng)液泛預(yù)測模型的準(zhǔn)確程度和適用范圍,大多數(shù)填料塔的設(shè)計(jì)和操作指標(biāo)遠(yuǎn)低于最大有效能力,這難以滿足目前激烈的市場競爭和需求。因此,有必要建立一種通用性好、準(zhǔn)確度高的液泛預(yù)測模型。
隨著過程數(shù)據(jù)能夠及時(shí)獲得,數(shù)據(jù)驅(qū)動(dòng)的建模方法得到廣泛研究和應(yīng)用[8],但用于液泛氣速預(yù)測的卻很少。Piche等[4]通過BP神經(jīng)網(wǎng)絡(luò)(backing propagation neural networks,BP-NN)來提高模型的通用性和預(yù)測的準(zhǔn)確性,效果優(yōu)于傳統(tǒng)的經(jīng)驗(yàn)公式。楊捷[7]通過徑向基NN(radial basis function NN,RBF-NN)建立液泛氣速預(yù)測模型,其預(yù)測性能優(yōu)于BP-NN和傳統(tǒng)的經(jīng)驗(yàn)?zāi)P?。極限學(xué)習(xí)機(jī)(extreme learning machine,ELM)是一種新型單隱層前饋神經(jīng)網(wǎng)絡(luò)(single-hidden-layer feedforward neural networks,SLFNs)。與傳統(tǒng)神經(jīng)網(wǎng)絡(luò)不同的是,其隱層中的參數(shù)沒有直接的關(guān)聯(lián),只要隨機(jī)賦予輸入權(quán)值和隱層節(jié)點(diǎn)的閾值,并且應(yīng)用Moore-Penrose方法獲得隱層輸出矩陣的廣義逆,通過一步計(jì)算即可確定網(wǎng)絡(luò)的輸出權(quán)值。ELM有較好的建模準(zhǔn)確程度,同時(shí)可提高學(xué)習(xí)速度[9-17]。
然而,實(shí)際生產(chǎn)填料種類繁多,所收集的液泛數(shù)據(jù)較少,具有多樣性與不平衡性,單一模型對于提取液泛數(shù)據(jù)的特征信息是不足的。首先介紹了嶺參數(shù)極限學(xué)習(xí)機(jī)(ridge ELM,RELM)及其遞推算法(recursive RELM,RRELM)[17],以更有效用于在線建模。在RRELM基礎(chǔ)上,提出了局部遞推嶺參數(shù)極限學(xué)習(xí)機(jī)(local RRELM,LRRELM)的建模方法。LRRELM對每一個(gè)預(yù)報(bào)新樣本,應(yīng)用“相似輸入產(chǎn)生相似輸出”的原則單獨(dú)建模,根據(jù)樣本的信息充分提取液泛數(shù)據(jù)和填料的特征,實(shí)現(xiàn)更準(zhǔn)確的預(yù)測。
式中,ai為第i個(gè)隱層節(jié)點(diǎn)與輸入節(jié)點(diǎn)間的權(quán)值;bi為第i個(gè)隱層節(jié)點(diǎn)的閾值;為ai與xj的內(nèi)積。
式中,H為隱層輸出矩陣;ih是由第i個(gè)隱層節(jié)點(diǎn)生成的矩陣。此時(shí),非線性系統(tǒng)可通過式(2)轉(zhuǎn)化成一個(gè)線性表達(dá)式,通過廣義逆或最小二乘線性回歸算法求解得[9-11]
為了避免由于自變量間的復(fù)共線性關(guān)系而導(dǎo)致病態(tài)解問題,可以在式(6)中加入適當(dāng)?shù)膸X參數(shù)k,式(6)可進(jìn)一步表示為
式中,k為嶺參數(shù);I為單位矩陣。
式中,Ht是根據(jù)測試樣本的輸入Xt而生成的隱層輸出矩陣。
RELM算法的步驟見文獻(xiàn)[17]。但傳統(tǒng)的RELM 和ELM在獲得新節(jié)點(diǎn)時(shí),模型都需要重新計(jì)算隱層輸出矩陣,以獲得新的輸出權(quán)值并重新建立模型。其缺點(diǎn)有:①不斷初始化模型可能導(dǎo)致預(yù)測的不可靠;②每次都重建模型,計(jì)算量相對更多且缺乏效率[17]。因此,需要對RELM進(jìn)行遞推以有效更新模型。
當(dāng)隱層節(jié)點(diǎn)數(shù)確定為L,相應(yīng)的隱層輸出矩陣可以表示為
采用RELM進(jìn)行求解,可獲得輸出權(quán)值
當(dāng)有新節(jié)點(diǎn)加入原模型時(shí),式(9)變?yōu)?/p>
新節(jié)點(diǎn)隨機(jī)生成的隱層輸出矩陣。
在實(shí)際應(yīng)用中,要想獲得較高的估計(jì)精度,需要花費(fèi)大量的時(shí)間選擇參數(shù)以建立一個(gè)全局的模型來描述整個(gè)非線性系統(tǒng)。一旦建立了全局模型,當(dāng)獲得的新數(shù)據(jù)無法反映其中時(shí),模型就需要校正,這也造成了自適應(yīng)性較差,不能隨工況的變動(dòng)而調(diào)整的缺點(diǎn)[18-20]。由于全局建模自身的局限性,為了獲得更高的預(yù)測精度和可靠的結(jié)果,本節(jié)將在RRELM基礎(chǔ)上進(jìn)一步改進(jìn)。
與全局建模不同,局部學(xué)習(xí)思想采用的是分治的策略,并非對所有樣本進(jìn)行一次性建模,而是針對新樣本單獨(dú)建模,即將系統(tǒng)的非線性整體估計(jì)轉(zhuǎn)化成當(dāng)前狀態(tài)的點(diǎn)估計(jì)。局部建?;谙嗨戚斎氘a(chǎn)生相似輸出的原則,模型參數(shù)的優(yōu)化也更為簡單,這樣可更準(zhǔn)確地估計(jì)未知樣本。模型的建立只有當(dāng)預(yù)報(bào)新樣本到來時(shí)才啟動(dòng),稱為即時(shí)學(xué)習(xí)[18-20]。利用局部學(xué)習(xí)的思想,提出了LRRELM建模方法,改善了RRELM單一全局模型的缺點(diǎn)。與全局建模相比,對待預(yù)報(bào)新樣本,即時(shí)選取關(guān)聯(lián)樣本建立模型,這意味著即時(shí)學(xué)習(xí)能實(shí)時(shí)選擇更好的模型,提高預(yù)測精度。
局部空間內(nèi)各樣本數(shù)據(jù)對輸出的影響程度各異,根據(jù)相似輸入產(chǎn)生相似輸出的基本原則,可認(rèn)為局部空間內(nèi)輸入與預(yù)報(bào)新樣本輸入向量距離最近的樣本的輸出值最能反映預(yù)報(bào)新樣本的輸出。對于局部建模,由于其模型結(jié)構(gòu)沒有任何限制,因此也可采用全局建模中的結(jié)構(gòu)類型。但是局部建模只針對系統(tǒng)的局部特性,并非用于刻畫整體系統(tǒng)的輸入輸出關(guān)系。在建模前,首先構(gòu)建與預(yù)報(bào)新樣本相似的新樣本集。同時(shí)考慮了樣本間的距離和角度信息,以加權(quán)的形式將兩項(xiàng)信息進(jìn)行集成[18-20]。獲得待預(yù)測數(shù)據(jù)與樣本集數(shù)據(jù)間的相似程度,進(jìn)行降序排列,選擇相似的樣本作為建模的樣本集[19]。
在建立LRRELM模型時(shí),需要設(shè)定隱層節(jié)點(diǎn)數(shù),傳統(tǒng)ELM初始的節(jié)點(diǎn)數(shù)通常采用反復(fù)的實(shí)驗(yàn)獲得[9-11],過程較為繁瑣。此處采用留一(leaveone-out,LOO)交叉驗(yàn)證預(yù)報(bào)誤差最小來自動(dòng)獲得節(jié)點(diǎn)數(shù)。LOO預(yù)報(bào)誤差的表達(dá)式如下[16]
所提出的LRRELM方法,用于填料塔液泛氣速的在線建模與預(yù)測主要步驟如圖1所示。RRELM通過遞推提高計(jì)算效率,并避免了RELM模型不斷初始化帶來的預(yù)測可靠性問題[17]。LRRELM融合即時(shí)學(xué)習(xí)的建模方式,選擇更好的局部模型,能針對有差異的填料數(shù)據(jù)進(jìn)行更好的建模和預(yù)測。
圖1 LRRELM用于填料塔液泛氣速預(yù)測的在線建模流程Fig.1 Flowchart of LRRELM online modeling method for flooding velocity prediction in packed towers
3.1 填料塔液泛實(shí)驗(yàn)數(shù)據(jù)
通常情況下,液泛氣速受多種因素的影響,如操作介質(zhì)的物理性質(zhì),填料塔的操作條件以及填料的幾何特征和物理性質(zhì)等??紤]到液泛氣速的特點(diǎn)及影響因素[4],確定6種參數(shù)作為模型的輸入和輸出變量。其中,ReL、StL、GaL、SB及φ為輸入變量,Lockhart-Martinelli參數(shù)(χ)為輸出變量,即
最終,液泛氣速UG, Fl可由式(15)得到
本實(shí)驗(yàn)共440組填料數(shù)據(jù),分布于1976~2007年,源自不同塔徑的填料塔,基本覆蓋了國內(nèi)常用的散堆填料[7]。為了使所建液泛預(yù)測模型能克服傳統(tǒng)經(jīng)驗(yàn)公式的缺陷,提高其通用性,采用已有的填料數(shù)據(jù)建模,用于預(yù)測缺乏相關(guān)數(shù)據(jù)的新型填料。因此,選擇相應(yīng)的333組訓(xùn)練數(shù)據(jù)中基本為舊型填料的液泛數(shù)據(jù),而剩余107組測試數(shù)據(jù)中則混合了新型填料與現(xiàn)有填料,以測試所提出方法對新型填料的有效性。
3.2 RRELM與神經(jīng)網(wǎng)絡(luò)比較
首先與經(jīng)典的神經(jīng)網(wǎng)絡(luò)比較,以驗(yàn)證RRELM的有效性。采用均方根誤差RMSE與平均絕對相對誤差A(yù)ARE衡量預(yù)測性能[4]
式中,yi為實(shí)驗(yàn)值;y~i為預(yù)測值;M為測試樣本個(gè)數(shù)。
RRELM與BP-NN[4]、RBF-NN[7]3種模型的預(yù)測對比結(jié)果如表1、圖2和圖3所示。由表1可知,RRELM和RBF-NN均比BP-NN模型更準(zhǔn)確。
表1 RRELM、BP-NN、RBF-NN 3種模型的預(yù)測誤差Table 1 Prediction error of three models of RRELM,BP-NN and RBF-NN
圖2顯示了RRELM、RBF-NN和BP-NN模型的液泛氣速預(yù)測相對誤差比較。從中可知,RRELM除了個(gè)別樣本相對偏差較大外,其余的樣本基本在20%以內(nèi),預(yù)測效果大都優(yōu)于BP-NN。圖3顯示了3種模型的預(yù)測值與實(shí)驗(yàn)值比較,RRELM大部分分布在0.7~1.2之間,而RBF-NN和BP-NN則分布在0.7~1.4之間。從模型預(yù)測的可靠性而言RRELM方法更好,其液泛氣速的預(yù)測值與真值吻合較好且更均勻分布于其兩側(cè)。在工業(yè)應(yīng)用中,可適當(dāng)加大填料塔的操作氣速以提高其生產(chǎn)效率,從而獲得更高的經(jīng)濟(jì)效益。綜上所述,RRELM較BP-NN與RBF-NN預(yù)測效果更好。
圖2 液泛氣速預(yù)測的3種模型的相對誤差對比Fig.2 Comparison of relative prediction error with three models of RRELM, BP-NN and RBF-NN
圖3 RRELM、BP-NN和RBF-NN 3種模型預(yù)測誤差比較Fig.3 Comparison of prediction error with RRELM, BP-NN and RBF-NN models
3.3 LRRELM與RRELM比較
3.2節(jié)驗(yàn)證了RRELM模型較傳統(tǒng)BP-NN與RBF-NN兩種神經(jīng)網(wǎng)絡(luò)更適用于液泛氣速的預(yù)測。本節(jié)進(jìn)一步研究LRRELM模型的預(yù)測性能,并和RRELM比較。
RRELM與LRRELM的液泛氣速預(yù)測結(jié)果列于表2。從中可知,LRRELM模型的預(yù)測誤差(AARE 與RMSE值)較RRELM模型均有降低,主要是因?yàn)長RRELM基于相似輸入產(chǎn)生相似輸出的原則,分析了待預(yù)測樣本與數(shù)據(jù)庫之間的相關(guān)信息,不相關(guān)的樣本暫不用來建模,選取的相似樣本集更符合待預(yù)測樣本的信息;并在建立模型時(shí)進(jìn)行了節(jié)點(diǎn)的優(yōu)化,以實(shí)時(shí)建立更可靠的模型,因此綜合提高了模型的預(yù)測能力。
表2 LRRELM和RRELM模型的預(yù)測誤差對比Table 2 Comparison of prediction error with LRRELM and RRELM models
圖4和圖5給出了RRELM和LRRELM模型對液泛氣速預(yù)測值與實(shí)驗(yàn)值的比較,其中兩者的預(yù)測值與實(shí)驗(yàn)值變化趨勢基本一致,且預(yù)測值均勻分布在實(shí)驗(yàn)值的兩側(cè)。對于大部分樣本,LRRELM的預(yù)測值與實(shí)驗(yàn)值吻合更好、分布更均勻,多數(shù)樣本預(yù)測誤差在15%以內(nèi)。建模過程中,LRRELM會(huì)根據(jù)每個(gè)新預(yù)報(bào)數(shù)據(jù)選擇所需要的相似樣本,結(jié)合實(shí)際情況,確定最小的樣本數(shù)為100。從圖4可以看出,LRRELM模型需要的樣本僅為100~160之間,少于RRELM全局建模方法所需的333組數(shù)據(jù),簡化了模型的結(jié)構(gòu)。
圖4 LRRELM和RRELM模型的液泛氣速預(yù)測值對比(a)及其LRRELM相似樣本數(shù)量選擇(b)Fig.4 Comparison of prediction results with LRRELM and RRELM models (a), and number of similar samples for LRRELM (b)
圖5 LRRELM和RRELM的液泛氣速預(yù)測誤差對比Fig.5 Comparison of prediction error with LRRELM and RRELM models
實(shí)驗(yàn)測試中,填料類型包括典型的鮑爾環(huán)和3種相對新型的填料(環(huán)矩鞍、聚乙烯扁環(huán)和TGJ2)。針對大部分填料液泛氣速的預(yù)測,LRRELM最大的相對誤差從20%縮減到15%以下,為實(shí)際操作氣速的選取提供了更大的彈性空間。綜上所述,針對液泛氣速預(yù)測的實(shí)驗(yàn),LRRELM較RRELM效果更優(yōu)。
針對填料塔液泛氣速的預(yù)測,全局建模方法建立的模型無法很好滿足實(shí)際填料的多樣性和差異性?;诰植拷5乃枷?,提出了一種LRRELM在線建模方法。通過實(shí)驗(yàn)驗(yàn)證,LRRELM較RRELM能獲得更佳的預(yù)測性能。因此,LRRELM更適用于多類型填料液泛氣速的建模和預(yù)測。
符 號(hào) 說 明
GaL——液相Galileo數(shù)
ReL——液相Reynolds數(shù)
SB——填料層厚度校正系數(shù)
StL——液相Stocks數(shù)
UG,Fl——液泛氣速,m·s?1
UL——液相表觀氣速,m·s?1
φ ——填料球形度
ρ ——密度,kg·m?3
下角標(biāo)
G ——?dú)庀?/p>
L ——液相
References
[1] PIHLAJA R K, MILLER J P. Detection of distillation column flooding: US 20090314623 [P]. 2009-06-17.
[2] 方向晨, 程振民, 穆斌, 等. 以填料結(jié)構(gòu)為模型參數(shù)的填料塔泛點(diǎn)預(yù)測新方法 [J]. 華東理工大學(xué)學(xué)報(bào)(自然科學(xué)版), 2006, 32 (4): 370-373. DOI: 10.3969/j.issn.1006-3080.2006.04.002.
FANG X C, CHENG Z M, MU B, et al. New method in prediction of flooding point in packed columns by incorporating packing structure as a model parameter [J]. Journal of East China University of Science and Technology (Natural Science Edition), 2006, 32 (4): 370-373. DOI: 10.3969/j.issn.1006-3080.2006.04.002.
[3] MACKOWIAK J. Fluid Dynamics of Packed Columns [M]. Berlin: Springer, 2009.
[4] PICHE S, LARACHI F, GRANDJEAN B P A. Flooding capacity in packed towers: database, correlations, and analysis [J]. Industrial and Engineering Chemistry Research, 2001, 40 (1): 476-487. DOI: 10.1021/ie000486s.
[5] BRUNAZZI E, MACIAS-SALINAS R, VIVA A. Calculation procedure for flooding in packed columns using a channel model [J]. Chemical Engineering Communications, 2009, 196 (3): 330-341. DOI: 10.1080/00986440802359402.
[6] ENGEL V, STICHLMAIR J, GEIPEL W. Fluid dynamics of packings for gas-liquid contactors [J]. Chemical Engineering and Technology, 2001, 24 (5): 459-462. DOI: 10.1002/1521-4125(200105)24:5<459:: AID-CEAT459>3.0.CO;2-D.
[7] 楊捷. 數(shù)據(jù)驅(qū)動(dòng)的填料塔液泛氣速預(yù)測模型與實(shí)時(shí)監(jiān)測研究[D].杭州: 浙江工業(yè)大學(xué), 2011.
YANG J. Research on data-driven prediction model of flooding gas velocity and realtime flooding monitoring in packed column [D]. Hangzhou: Zhejiang University of Technology, 2011.
[8] KADLEC P, GABRYS B, STRANDT S. Data-driven soft sensors in the process industry [J]. Computers and Chemical Engineering, 2009, 33 (4): 795-814. DOI: 10.1016/j.compchemeng.2008.12.012.
[9] HUANG G B, ZHU Y, SIEW C K. Extreme learning machine: theory and applications [J]. Neurocomputing, 2006, 70: 489-501. DOI: 10.1016/j.neucom.2005.12.126.
[10] HUANG G B, WANG D H, LAN Y. Extreme learning machines: a survey [J]. International Journal of Machine Learning and Cybernetics, 2011, 2: 107-122. DOI: 10.1007/s13042-011-0019-y.
[11] FENG G, HUANG G B, LIN Q P. Error minimized extreme learning machine with growth of hidden nodes and incremental learning [J]. IEEE Transactions on Neural Networks, 2009, 20 (8): 1352-1356. DOI: 10.1109/TNN.2009.2024147.
[12] MICHE Y, SORJAMAA A, BAS P. OP-ELM: optimally pruned extreme learning machine [J]. IEEE Transactions on Neural Networks, 2010, 21 (1): 570-578. DOI: 10.1109/TNN.2009.2036259.
[13] HUANG G B, LI M B, CHEN L. Incremental extreme learning machine with fully complex hidden nodes [J]. Neurocomputing, 2008, 71: 1-7. DOI: 10.1016/j.neucom.2007.07.025.
[14] HUANG G B, ZHOU H M, DING X J. Extreme learning machine for regression and multiclass classification [J]. IEEE Transactions on Systems, Man, and Cybernetics, Part B: Cybernetics, 2012, 42 (2): 513-529. DOI: 10.1109/TSMCB.2011.2168604.
[15] YU Q, MICHE Y. Regularized extreme learning machine for regression with missing data [J]. Neurocomputing, 2013, 102: 45-51. DOI: 10.1016/j.neucom.2012.02.040.
[16] 劉學(xué)藝, 李平, 郜傳厚. 極限學(xué)習(xí)機(jī)的快速留一交叉驗(yàn)證算法 [J].上海交通大學(xué)學(xué)報(bào), 2011, 45 (8): 1140-1145.
LIU X Y, LI P, GAO C H. Fast leave one out cross validation algorithm of extreme learning machine [J]. Journal of Shanghai Jiaotong University, 2011, 45 (8): 1140-1145.
[17] 周麗春, 劉毅, 金福江. 一種非線性系統(tǒng)在線辨識(shí)的選擇性遞推方法 [J]. 化工學(xué)報(bào), 2015, 66 (1): 272-277. DOI: 10.11949/j.issn. 0438-1157.20141481.
ZHOU L C, LIU Y, JIN F J. A selection recursive method for online identification of nonlinear systems [J]. CIESC Journal, 2015, 66 (1): 272-277. DOI: 10.11949/j.issn.0438-1157.20141481.
[18] LIU Y, GAO Z L, LI P, WANG H Q. Just-in-time kernel learning with adaptive parameter selection for soft sensor modeling of batch processes [J]. Industrial and Engineering Chemistry Research, 2012, 51 (11): 4313-4327. DOI: 10.1021/ie201650u.
[19] LIU Y, CHEN J H. Integrated soft sensor using just-in-time support vector regression and probabilistic analysis for quality prediction of multi-grade processes [J]. Journal of Process Control, 2013, 23 (6): 793-804. DOI: 10.1016/j.jprocont.2013.03.008.
[20] LIU Y, CHEN T, CHEN J H. Auto-switch Gaussian process regression-based probabilistic soft sensors for industrial multigrade processes with transitions [J]. Industrial and Engineering Chemistry Research, 2015, 54 (18): 5037-5047. DOI: 10.1021/ie504185j.
Received date: 2015-12-24.
Foundation item: supported by the Natural Science Foundation of China (61273069) and the Fundamental Research Funds for the Central Universities (JB-ZR1204).
Just-in-time local modeling for flooding velocity prediction in packed towers
ZHOU Lichun1, JIN Xin2, LIU Yi2, GAO Zengliang2, JIN Fujiang1
(1School of Information Science and Engineering, Huaqiao University, Xiamen 361021, Fujian, China;2Engineering Research Center of Process Equipment and Remanufacturing (Ministry of Education), Zhejiang University of Technology, Hangzhou 310014, Zhejiang, China)
Abstract:Packed towers have been widely used in industrial productions. It is important to accurately predict the flooding velocity of packed towers. In industrial practice, there are many kinds of packings which can show different characteristics. Only using a single global model is still difficult to achieve satisfied prediction results. To overcome the problem, a new local modeling method is proposed to predict the flooding velocity. First, a recursive algorithm of ridge extreme learning machine with nodes growing is formulated, which can update the online model in an efficient manner. Moreover, using the just-in-time learning manner, the local recursive ridge parameter extreme learning machine (LRRELM)-based online modeling method is proposed. The experimental results show that the LRRELM model can explore more related information among data and thus to obtain better and more reliable prediction performance, compared with the related global models.
Key words:nonlinear systems; dynamic modeling; neural networks; recursive algorithm; extreme learning machine; systems engineering
DOI:10.11949/j.issn.0438-1157.20151956
中圖分類號(hào):TP 301.6;TQ 02
文獻(xiàn)標(biāo)志碼:A
文章編號(hào):0438—1157(2016)03—1070—06
基金項(xiàng)目:國家自然科學(xué)基金項(xiàng)目(61273069);中央高?;究蒲袠I(yè)務(wù)費(fèi)專項(xiàng)(JB-ZR1204)。
Corresponding author:Dr. LIU Yi, yliuzju@zjut.edu.cn