国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于Wasserstein GAN數(shù)據(jù)增強(qiáng)的礦物浮選純度預(yù)測(cè)

2024-10-11 00:00:00吳浩生江沛王作學(xué)楊博棟
重慶大學(xué)學(xué)報(bào) 2024年9期

doi:10.11835/j.issn.1000-582X.2023.107

摘要:在選礦行業(yè)中,準(zhǔn)確地預(yù)測(cè)精礦品位可以幫助工程師提前調(diào)整工藝參數(shù),提高浮選性能。但在實(shí)際選礦過(guò)程中,采集數(shù)據(jù)存在樣本量少、維度高、時(shí)序相關(guān)性復(fù)雜等問(wèn)題,限制了精礦品位的預(yù)測(cè)精度。針對(duì)小樣本數(shù)據(jù)的預(yù)測(cè)問(wèn)題,提出了一種將Wasserstein生成對(duì)抗網(wǎng)絡(luò)(Wasserstein generative adversarial network,Wasserstein GAN)和長(zhǎng)短期記憶網(wǎng)絡(luò)(long short-term memory,LSTM)相結(jié)合的時(shí)間序列數(shù)據(jù)生成模型LS-WGAN,主要利用LSTM網(wǎng)絡(luò)來(lái)獲取選礦數(shù)據(jù)中的時(shí)間相關(guān)性,再通過(guò)Wasserstein GAN網(wǎng)絡(luò)生成與原始數(shù)據(jù)分布相似的樣本進(jìn)行數(shù)據(jù)增強(qiáng);為了更加準(zhǔn)確地預(yù)測(cè)精礦品位,建立了浮選預(yù)測(cè)模型C-LSTM,并基于真實(shí)泡沫浮選工藝數(shù)據(jù)實(shí)驗(yàn)驗(yàn)證了所提出方法的預(yù)測(cè)準(zhǔn)確性。

關(guān)鍵詞:精礦品位預(yù)測(cè);Wasserstein生成對(duì)抗網(wǎng)絡(luò);LSTM;數(shù)據(jù)增強(qiáng);深度學(xué)習(xí)

中圖分類號(hào):TP391;TD951文獻(xiàn)標(biāo)志碼:A文章編號(hào):1000-582X(2024)09-081-10

Froth flotation purity prediction based on Wasserstein GAN data augmentation

WU Haosheng,JIANG Pei,WANG Zuoxue,YANG Bodong

(College of Mechanical and Vehicle Engineering,Chongqing University,Chongqing 400044,P.R.China)

Abstract:In the mineral processing industry,accurately predicting concentrate grade can help engineers adjust process parameters in advance and improve flotation performance.However,the prediction accuracy of concentrate grade has been restricted by small sample sizes,high-dimensional data,and complex temporal correlations in actual mineral processing.To address the predication challenges associated with small sample data,a time-series data generation model called LS-WGAN is proposed,which combines the Wasserstein generative adversarial network(Wasserstein GAN)and long short-term memory(LSTM)neural network.The LSTM network is mainly used to capture the time correlation in mineral processing data,while the Wasserstein GAN generates samples similar to the original data distribution for data augmentation.To improve the prediction accuracy of the concentrate grade,a mineral processing prediction model called C-LSTM is established.The prediction accuracy of the proposed method is verified through experiments based on real froth flotation process data.

Keywords:prediction of concentrate grade;Wasserstein generative adversarial network;long short-term memory(LSTM);data augmentation;deep learning

泡沫浮選是選礦工業(yè)中應(yīng)用最廣泛和最重要的分離方法之一[1],其原理是利用礦物表面物理和化學(xué)性質(zhì)的差異,使一種或一組礦物選擇性地附著在泡沫上,從而達(dá)到礦物分離的目的[2]。鐵礦石的泡沫浮選階段會(huì)產(chǎn)生二氧化硅殘留物,它會(huì)導(dǎo)致產(chǎn)品質(zhì)量下降,降低鋼鐵產(chǎn)品的韌性和可焊性[3]。浮選性能受許多工藝參數(shù)的影響,例如原礦品位、礦漿濃度、礦漿粒度、礦漿pH值、藥劑類型、藥劑量等。因此,建立這些參數(shù)與浮選性能指標(biāo)之間的映射關(guān)系,對(duì)實(shí)現(xiàn)浮選過(guò)程的最佳控制有重要意義。

浮選過(guò)程是一個(gè)高度復(fù)雜和動(dòng)態(tài)的環(huán)境,其中的物理、化學(xué)規(guī)律尚未得到很好的解釋,很難根據(jù)數(shù)學(xué)機(jī)理對(duì)浮選過(guò)程進(jìn)行有效建模[4]。目前研究主要集中于基于數(shù)據(jù)建模的方式,使用機(jī)器學(xué)習(xí)方法建立工藝參數(shù)和浮選性能指標(biāo)之間的映射,從而無(wú)需過(guò)多地討論浮選過(guò)程中的機(jī)理和先驗(yàn)知識(shí)。Aldrich等[5]建立了包含決策樹(shù)和反向傳播神經(jīng)網(wǎng)絡(luò)的模型對(duì)泡沫表面特征進(jìn)行建模,開(kāi)啟了機(jī)器學(xué)習(xí)在浮選建模中的應(yīng)用。此后不同的機(jī)器學(xué)習(xí)模型[6]被開(kāi)發(fā)并成功應(yīng)用于浮選過(guò)程的建模,包括多層感知[7-8]、支持向量機(jī)[9]、隨機(jī)森林[10]等。然而傳統(tǒng)機(jī)器學(xué)習(xí)模型結(jié)構(gòu)簡(jiǎn)單,未考慮時(shí)間相關(guān)性,無(wú)法處理工業(yè)強(qiáng)度的復(fù)雜數(shù)據(jù)。Pu等[11]提出了一種分層深度學(xué)習(xí)網(wǎng)絡(luò)FlotationNet,將生產(chǎn)中的工藝信息輸入到網(wǎng)絡(luò)中去預(yù)測(cè)精礦中鐵和二氧化硅的含量。此外,Pu等[12]考慮到浮選工程數(shù)據(jù)的大小和時(shí)間依賴性,使用堆疊的長(zhǎng)短期記憶網(wǎng)絡(luò)模型對(duì)泡沫浮選過(guò)程建模,實(shí)現(xiàn)了鐵和二氧化硅含量的準(zhǔn)確預(yù)測(cè)。相比之下,以門(mén)控循環(huán)單元網(wǎng)絡(luò)(gate recurrent unit,GRU)、長(zhǎng)短期記憶(long short-term memory,LSTM)網(wǎng)絡(luò)為代表的深度學(xué)習(xí)模型因其深層、復(fù)雜和靈活的架構(gòu)[13]實(shí)現(xiàn)了比傳統(tǒng)機(jī)器學(xué)習(xí)方法更高的精度。但是數(shù)據(jù)的稀缺性限制了深度學(xué)習(xí)模型的性能,實(shí)驗(yàn)表明模型的性能和有效樣本的數(shù)量呈正相關(guān)[11],而在實(shí)際工業(yè)生產(chǎn)過(guò)程中,實(shí)時(shí)數(shù)據(jù)采集是一項(xiàng)費(fèi)時(shí)費(fèi)力的工作,采集的樣本數(shù)量難以滿足深度學(xué)習(xí)模型的需求。

針對(duì)樣本數(shù)據(jù)少的問(wèn)題,研究人員提出了數(shù)據(jù)增強(qiáng)方法[14-15],通過(guò)減少過(guò)擬合和擴(kuò)展模型的決策邊界來(lái)提高其泛化能力[16],改善模型訓(xùn)練過(guò)程中的小樣本[17]和不平衡數(shù)據(jù)集[18-19]問(wèn)題。數(shù)據(jù)增強(qiáng)方法主要分為有監(jiān)督和無(wú)監(jiān)督2種:有監(jiān)督數(shù)據(jù)增強(qiáng)方法包括翻轉(zhuǎn)、旋轉(zhuǎn)、裁剪、添加噪聲、SMOTE[20]、樣本配對(duì)[21]、混合[22]等;無(wú)監(jiān)督數(shù)據(jù)增強(qiáng)方法包括生成對(duì)抗網(wǎng)絡(luò)[23]和自動(dòng)數(shù)據(jù)增強(qiáng)[24]。實(shí)驗(yàn)證明,適當(dāng)?shù)臄?shù)據(jù)增強(qiáng)對(duì)提高模型的預(yù)測(cè)、分類精度是有效的[25]。迄今為止,基于生成對(duì)抗網(wǎng)絡(luò)的數(shù)據(jù)增強(qiáng)主要應(yīng)用于圖像領(lǐng)域[26]和故障信號(hào)生成[18-19],對(duì)浮選過(guò)程的時(shí)序數(shù)據(jù)增強(qiáng)研究很少。

筆者采用Wasserstein生成對(duì)抗網(wǎng)絡(luò)(Wasserstein generative adversarial network,Wasserstein GAN)和LSTM網(wǎng)絡(luò)建立了時(shí)間序列數(shù)據(jù)生成模型LS-WGAN,主要利用LSTM網(wǎng)絡(luò)來(lái)獲取浮選數(shù)據(jù)中的時(shí)間相關(guān)性,將提取信息輸入Wasserstein GAN生成真實(shí)變化的浮選數(shù)據(jù)樣本,然后建立了一種浮選純度預(yù)測(cè)模型C-LSTM,該模型基于浮選過(guò)程中的工藝數(shù)據(jù)去預(yù)測(cè)鐵精礦中二氧化硅的含量,通過(guò)對(duì)比不同模型的預(yù)測(cè)結(jié)果,實(shí)驗(yàn)證明了LS-WGAN數(shù)據(jù)增強(qiáng)的有效性和預(yù)測(cè)模型C?LSTM的準(zhǔn)確性。

1相關(guān)技術(shù)

1.1生成對(duì)抗網(wǎng)絡(luò)

生成對(duì)抗網(wǎng)絡(luò)是一種無(wú)監(jiān)督學(xué)習(xí)算法[23],包括2個(gè)對(duì)抗博弈的生成器和判別器。它通過(guò)學(xué)習(xí)真實(shí)樣本的分布以生成仿真數(shù)據(jù)。在每次訓(xùn)練期間,一組隨機(jī)噪聲z~N(0,1)輸入到生成器中產(chǎn)生偽樣本,判別器判斷樣本的真實(shí)性并給出分?jǐn)?shù)。生成器的目的是欺騙判別器判斷偽樣本為真,而判別器的目的是區(qū)分偽樣本和真樣本,通過(guò)對(duì)抗訓(xùn)練使生成樣本的分布接近真實(shí)樣本。使用G和D分別表示生成器和鑒別器,生成對(duì)抗網(wǎng)絡(luò)的損失函數(shù)用以下公式表示:

式中:pdata和pg分別表示真實(shí)樣本x和隨機(jī)噪聲z的分布;G(z)表示生成的偽樣本;D(x)表示真實(shí)樣本被判定為真的概率;D(G(x))表示偽樣本被判定為真的概率。由于原始GAN算法存在訓(xùn)練不穩(wěn)定和梯度消失的問(wèn)題,Arjovsky等[27]提出使用Wasserstein距離來(lái)衡量真實(shí)分布與生成數(shù)據(jù)分布之間的差異,從根本上解決了模式坍塌的問(wèn)題。Wasserstein GAN的損失函數(shù)定義如下:

式中,L是1-Lipschitz函數(shù),為了滿足1-Lipschitz條件,Wasserstein GAN中采用權(quán)重裁剪的方法對(duì)判別器中的權(quán)重加以約束。

1.2長(zhǎng)短期記憶網(wǎng)絡(luò)

循環(huán)神經(jīng)網(wǎng)絡(luò)(recurrent neural network,RNN)由于其特殊的結(jié)構(gòu),主要用于長(zhǎng)期依賴關(guān)系建模[28]。LSTM作為一種特殊的循環(huán)網(wǎng)絡(luò)結(jié)構(gòu),解決了RNN在長(zhǎng)序列訓(xùn)練過(guò)程中的梯度消失和梯度爆炸問(wèn)題[29]。LSTM由細(xì)胞狀態(tài)、輸入門(mén)、輸出門(mén)和遺忘門(mén)組成,細(xì)胞狀態(tài)是LSTM的記憶單元,負(fù)責(zé)記錄歷史數(shù)據(jù)中的有用信息;遺忘門(mén)則負(fù)責(zé)刪除和遺忘部分信息,解決了RNN存在的長(zhǎng)期依賴問(wèn)題。LSTM的結(jié)構(gòu)如圖1所示。

LSTM的計(jì)算過(guò)程如下:

式中:t代表第t個(gè)時(shí)間間隔;it、ot、ft、xt、ct、ht分別代表輸入門(mén)、輸出門(mén)、遺忘門(mén)、輸入數(shù)據(jù)、記憶單元和隱藏單元;σ表示sigmod激活函數(shù);W和b分別為權(quán)重矩陣和偏置向量;tanh為雙曲正切函數(shù),整個(gè)訓(xùn)練過(guò)程中使用反向傳播算法和優(yōu)化函數(shù)來(lái)對(duì)參數(shù)進(jìn)行優(yōu)化。

2基于Wasserstein GAN數(shù)據(jù)增強(qiáng)的浮選純度預(yù)測(cè)

2.1基于LS-WGAN的數(shù)據(jù)增強(qiáng)算法

浮選過(guò)程中的實(shí)時(shí)數(shù)據(jù)采集是一項(xiàng)費(fèi)時(shí)費(fèi)力的工作,因此,提出了一個(gè)時(shí)間序列數(shù)據(jù)生成模型LS-WGAN進(jìn)行數(shù)據(jù)增強(qiáng),然后通過(guò)模型C-LSTM去預(yù)測(cè)鐵精礦中二氧化硅的含量。整個(gè)數(shù)據(jù)增強(qiáng)算法的流程如圖2所示,包括4個(gè)步驟:1)數(shù)據(jù)收集和預(yù)處理;2)LS-WGAN生成模型訓(xùn)練;3)C-LSTM預(yù)測(cè)模型訓(xùn)練;4)統(tǒng)計(jì)分析評(píng)價(jià)。

首先對(duì)樣本數(shù)據(jù)集進(jìn)行預(yù)處理,將預(yù)處理后的數(shù)據(jù)集按照一定比例劃分為訓(xùn)練集和測(cè)試集;然后建立LS-WGAN生成模型,使用全部樣本數(shù)據(jù)集對(duì)LS-WGAN進(jìn)行訓(xùn)練,直到滿足訓(xùn)練要求;接著建立C-LSTM預(yù)測(cè)模型,使用LS-WGAN生成新的樣本加入訓(xùn)練集中形成增強(qiáng)數(shù)據(jù)集,用增強(qiáng)數(shù)據(jù)集訓(xùn)練C-LSTM;最后,使用測(cè)試集測(cè)試C-LSTM,得到預(yù)測(cè)結(jié)果。

2.2 LS-WGAN生成模型

LS-WGAN模型由生成器G和判別器D組成,結(jié)構(gòu)如圖3所示。

為了獲取數(shù)據(jù)中的時(shí)間依賴性,LS-WGAN的判別器和生成器主要由LSTM層和全連接層構(gòu)成。生成器G由3個(gè)LSTM層組成,每層的LSTM單元個(gè)數(shù)分別為128、128和23。生成器G接收序列z={z t}t(T)=1(T是訓(xùn)練數(shù)據(jù)序列的長(zhǎng)度),在每個(gè)時(shí)間點(diǎn)t,z t從均勻隨機(jī)分布[- 1,1]中獨(dú)立采樣,然后被送入生成器。在t時(shí)刻,LSTM層的第l層中的第i個(gè)LSTM單元的輸出u,,j(l)t)被傳遞到(l+1)層中的第j個(gè)LSTM單位,最后一層輸出生成的時(shí)間序列G(z)=R T。判別器由2個(gè)LSTM層和全連接層組成,每層的LSTM單元數(shù)為128個(gè),給定輸入序列x=R T,判別器輸出代表真實(shí)樣本和生成樣本之間Wasserstein距離的標(biāo)量值。

在LS-WGAN訓(xùn)練過(guò)程中,D和G進(jìn)行極小極大博弈,其價(jià)值函數(shù)V(D,G)定義為

式中:px(x)和pz(z)分別代表訓(xùn)練數(shù)據(jù)x和隨機(jī)噪聲z的分布,E表示下標(biāo)中指定分布的期望值。首先從分布pz中采集m個(gè)隨機(jī)序列樣本{z(1),z(2),...,z(m)},再?gòu)姆植紁x中采集m個(gè)樣本{x(1),x(2),...,x(m)}。為了克服損失函數(shù)在更新過(guò)程中擺動(dòng)幅度過(guò)大的問(wèn)題,Wasserstein GAN的優(yōu)化器使用均方根傳遞(root mean square prop,RMSProp)算法代替原始GAN中的隨機(jī)梯度下降(stochastic gradient descent,SGD)算法[27]。判別器D的權(quán)重更新如下:

式中:ω和θ分別代表判別器和生成器的權(quán)重參數(shù)。

從分布pz中采集m個(gè)隨機(jī)序列樣本{z(1),z(2),...,z(m)},更新生成器G的權(quán)重如下:

不斷重復(fù)上述訓(xùn)練直到生成器和判別器達(dá)到納什平衡。

2.3 C-LSTM預(yù)測(cè)模型

浮選數(shù)據(jù)集由進(jìn)出料純度參數(shù)和工藝參數(shù)兩部分組成,由于兩部分?jǐn)?shù)據(jù)的特征維度大小不同,設(shè)計(jì)了一個(gè)雙輸入深度學(xué)習(xí)模型C-LSTM。本研究中浮選廠的主要目標(biāo)是將鐵礦石中的二氧化硅顆粒分離出來(lái),因此,只將鐵精礦中的二氧化硅含量作為目標(biāo)輸出。預(yù)測(cè)模型C-LSTM的結(jié)構(gòu)如圖4所示。

C-LSTM主要有2個(gè)接收數(shù)據(jù)的分支,分別用來(lái)接收進(jìn)出料純度參數(shù)和工藝參數(shù)。由于卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural network,CNN)強(qiáng)大的特征提取和降維能力,模型中使用一維卷積神經(jīng)網(wǎng)絡(luò)對(duì)輸入的高維數(shù)據(jù)進(jìn)行特征提取,經(jīng)過(guò)激活層進(jìn)行非線性化以及最大池化層進(jìn)行降維,把提取的特征信息送入LSTM層中獲取特征之間的時(shí)間相關(guān)性,最終將2個(gè)分支的信息合并,經(jīng)過(guò)全連接層得到目標(biāo)輸出。卷積層中卷積核的數(shù)量分別為16和32,激活函數(shù)用Relu,3個(gè)LSTM層中單元個(gè)數(shù)都是30。將適應(yīng)性矩估計(jì)(adaptive moment estimation,Adam)算法作為C-LSTM模型訓(xùn)練的優(yōu)化器,C-LSTM的訓(xùn)練損失函數(shù)如下:

式中:yi表示目標(biāo)輸出;y(?)i表示模型的預(yù)測(cè)輸出;n表示每次迭代中的樣本個(gè)數(shù)。

3實(shí)驗(yàn)結(jié)果

3.1數(shù)據(jù)預(yù)處理

實(shí)驗(yàn)數(shù)據(jù)集由一個(gè)鐵礦石浮選廠收集于2017年4月2日24點(diǎn)至9月9日23點(diǎn),采用陽(yáng)離子捕收劑反浮選法從鐵礦石中分離二氧化硅顆粒。數(shù)據(jù)集包括工藝參數(shù)和進(jìn)出料中鐵與二氧化硅的含量2部分,其中工藝參數(shù)一共有19個(gè),采樣間隔是20 s;進(jìn)出料純度參數(shù)一共有4個(gè),采樣間隔是1 h,總共691 200條數(shù)據(jù)樣本,如表1所示。在浮選廠的生產(chǎn)過(guò)程中,不同批次鐵礦石的浮選時(shí)間均為6 h,分析數(shù)據(jù)集可知,每1 080條數(shù)據(jù)(間隔6h)中的進(jìn)料純度相同,而出料純度按照隔1 h變化一次。因此,根據(jù)鐵礦石批次的不同,將整個(gè)數(shù)據(jù)集劃分為640個(gè)樣本,將其中前90%的樣本(576個(gè))作為預(yù)測(cè)模型的訓(xùn)練集,剩下的10%(64個(gè))作為測(cè)試集。每個(gè)樣本的大小為1 080×23維,其中1 080是每個(gè)批次數(shù)據(jù)的長(zhǎng)度,23是樣本特征維度。為了避免數(shù)據(jù)中不同特征的量綱對(duì)預(yù)測(cè)結(jié)果的影響,并加快訓(xùn)練收斂速度,對(duì)數(shù)據(jù)進(jìn)行歸一化處理如下:

式中:x表示待歸一化的數(shù)據(jù),xmin和xmax分別表示x中的最小值和最大值,x′表示經(jīng)過(guò)歸一化處理后的值。

3.2訓(xùn)練參數(shù)設(shè)置及評(píng)價(jià)指標(biāo)

LS-WGAN訓(xùn)練的批次大小設(shè)置為64,生成器和判別器的學(xué)習(xí)率統(tǒng)一設(shè)置為0.000 05。C-LSTM的訓(xùn)練學(xué)習(xí)率設(shè)置為0.000 1,其批次大小和訓(xùn)練次數(shù)分別設(shè)置為64和200。實(shí)驗(yàn)基于Tensorflow 2.0深度學(xué)習(xí)框架,選取顯卡Nvidia GTX3070于Windows 10平臺(tái)進(jìn)行訓(xùn)練。為了驗(yàn)證預(yù)測(cè)模型的精度,通過(guò)平均絕對(duì)誤差(mean square error,MAE)和均方根誤差(root mean square error,RMSE)評(píng)價(jià)模型的預(yù)測(cè)性能,MAE衡量模型預(yù)測(cè)值和真實(shí)值之間的平均絕對(duì)誤差,RMSE衡量了預(yù)測(cè)值與真實(shí)值之間的均方根誤差,計(jì)算公式如下。

式中:y(?)i表示第i個(gè)真實(shí)值;yi表示第i個(gè)預(yù)測(cè)值;n表示樣本的個(gè)數(shù)。

3.3實(shí)驗(yàn)結(jié)果與分析

首先將原始數(shù)據(jù)集中的640個(gè)樣本全部用于生成模型LS-WGAN的訓(xùn)練,模型的訓(xùn)練損失值變化如圖5所示,判別器和生成器的損失值隨迭代次數(shù)增加逐漸減少至收斂。在前500次訓(xùn)練中,生成器和判別器的訓(xùn)練損失值上下波動(dòng)較大。在超過(guò)800次訓(xùn)練后,兩者的損失值開(kāi)始逐漸減少直到收斂。在第1 500次訓(xùn)練時(shí),生成器和判別器的損失已經(jīng)收斂,Wasserstein距離穩(wěn)定在0左右,表明生成樣本與真實(shí)樣本分布之間的差異已經(jīng)很小。

使用訓(xùn)練集對(duì)預(yù)測(cè)模型C-LSTM進(jìn)行訓(xùn)練,為了更加直觀地評(píng)估C-LSTM的預(yù)測(cè)性能,將模型對(duì)測(cè)試集的預(yù)測(cè)值和真實(shí)值逐點(diǎn)比較,結(jié)果如圖6所示。可以看出C-LSTM對(duì)二氧化硅含量的預(yù)測(cè)值與真實(shí)性非常接近,預(yù)測(cè)的平均絕對(duì)誤差和均方根誤差分別是0.42%和0.61%。在整個(gè)浮選期間,鐵精礦中二氧化硅含量的變化范圍為0.6%~5.365%。

為了證明LS-WGAN數(shù)據(jù)增強(qiáng)的有效性,分別用原始數(shù)據(jù)集和增強(qiáng)數(shù)據(jù)集訓(xùn)練C-LSTM。增強(qiáng)數(shù)據(jù)集以原始數(shù)據(jù)集為基礎(chǔ),數(shù)據(jù)集設(shè)置如表2所示,生成樣本量以50為步長(zhǎng)從0增大到900。本實(shí)驗(yàn)中對(duì)比了常用的4種深度學(xué)習(xí)模型,即LSTM、1D-CNN以及FNN和C-LSTM,其中LSTM模型由堆疊的LSTM層組成,1D-CNN模型由一維卷積神經(jīng)網(wǎng)絡(luò)層組成,F(xiàn)NN模型由全連接層組成。4種模型訓(xùn)練的損失函數(shù)、批次大小、優(yōu)化器、學(xué)習(xí)率和訓(xùn)練次數(shù)均相同,訓(xùn)練策略為:將每個(gè)增強(qiáng)數(shù)據(jù)集劃分為訓(xùn)練集(90%)和測(cè)試集(10%),把生成樣本全部加入訓(xùn)練集,而測(cè)試集均為64個(gè)相同的真實(shí)樣本。

實(shí)驗(yàn)結(jié)果如表3所示,C-LSTM、LSTM、1D-CNN和FNN模型在原始數(shù)據(jù)集上的預(yù)測(cè)平均絕對(duì)誤差分別是0.42%、0.46%、0.63%和0.59%,均方根誤差分別是0.61%、0.62%、0.87%和0.83%。1D-CNN和FNN的預(yù)測(cè)精度低于LSTM和C-LSTM,這是因?yàn)镕NN未考慮數(shù)據(jù)中的時(shí)間相關(guān)性,1D-CNN適合處理較短的時(shí)間序列數(shù)據(jù),而C-LSTM和LSTM則具有較強(qiáng)的長(zhǎng)時(shí)序數(shù)據(jù)處理能力。由于C-LSTM首層利用卷積神經(jīng)網(wǎng)絡(luò)對(duì)輸入的高維工藝參數(shù)進(jìn)行特征提取和降維,不僅對(duì)原始數(shù)據(jù)起到了濾波和降維的作用,而且還增大了LSTM的長(zhǎng)時(shí)間序列處理能力。因此,C-LSTM具有比LSTM模型更好的預(yù)測(cè)性能。

C-LSTM、LSTM、1D-CNN以及FNN的預(yù)測(cè)誤差變化如圖7所示,不同模型的預(yù)測(cè)誤差均隨著數(shù)據(jù)增強(qiáng)而逐漸減少。在生成樣本個(gè)數(shù)達(dá)到900個(gè)時(shí),平均絕對(duì)誤差分別是0.23%、0.22%、0.34%和0.32%,均方根誤差分別是0.45%、0.43%、0.62%和0.61%。實(shí)驗(yàn)結(jié)果證明了LS-WGAN數(shù)據(jù)增強(qiáng)的有效性,模型的預(yù)測(cè)性能和樣本的數(shù)量呈正相關(guān),收集更多的有效樣本是提高模型性能最直接和最有效的方法。

4結(jié)束語(yǔ)

在實(shí)際選礦生產(chǎn)過(guò)程中,通過(guò)建立浮選工藝參數(shù)和浮選性能指標(biāo)之間的映射可以幫助企業(yè)進(jìn)行工藝參數(shù)優(yōu)化,提高浮選性能。但是實(shí)時(shí)采集的數(shù)據(jù)量通常不能滿足需求,數(shù)據(jù)的稀缺性限制了深度學(xué)習(xí)模型的性能。筆者提出了一種將Wasserstein生成對(duì)抗網(wǎng)絡(luò)和長(zhǎng)短期記憶網(wǎng)絡(luò)相結(jié)合的時(shí)間序列數(shù)據(jù)生成模型LS?WGAN,對(duì)浮選數(shù)據(jù)集進(jìn)行數(shù)據(jù)增強(qiáng)。基于一個(gè)鐵礦石浮選廠的工藝數(shù)據(jù),實(shí)驗(yàn)證明了LS-WGAN數(shù)據(jù)增強(qiáng)的有效性和C-LSTM模型預(yù)測(cè)的準(zhǔn)確性。但是隨著生成樣本增加,模型的預(yù)測(cè)誤差沒(méi)有持續(xù)下降到零,并且在減小的過(guò)程中存在波動(dòng),這可能是由LS-WGAN模型的生成樣本與真實(shí)樣本仍然存在差距引起的。未來(lái)的工作應(yīng)該集中于改進(jìn)生成模型以生成更高質(zhì)量的樣本??傊?,提出的數(shù)據(jù)生成模型和預(yù)測(cè)模型將促進(jìn)深度學(xué)習(xí)方法在浮選過(guò)程中的應(yīng)用,并有助于實(shí)現(xiàn)浮選效率的優(yōu)化和性能的提升。

參考文獻(xiàn)

[1]Shean B J,Cilliers J J.A review of froth flotation control[J].International Journal of Mineral Processing,2011,100(3/4):57-71.

[2]Wang G C,Nguyen A V,Mitra S,et al.A review of the mechanisms and models of bubble-particle detachment in froth flotation[J].Separation and Purification Technology,2016,170:155-172.

[3]Fan G X,Wang L G,Cao Y J,et al.Collecting agent–mineral interactions in the reverse flotation of iron ore:a brief review[J].Minerals,2020,10(8):681.

[4]Vieira S M,Sousa J M C,Dur?o F O.Fuzzy modelling strategies applied to a column flotation process[J].Minerals Engineering,2005,18(7):725-729.

[5]Aldrich C,Moolman D W,Gouws F S,et al.Machine learning strategies for control of flotation plants[J].IFAC ProceedingsVolumes,1995,28(17):99-105.

[6]McCoy J T,Auret L.Machine learning applications in minerals processing:a review[J].Minerals Engineering,2019,132:95-109.

[7]Nakhaei F,Mosavi M R,Sam A,et al.Recovery and grade accurate prediction of pilot plant flotation column concentrate:neural network and statistical techniques[J].International Journal of Mineral Processing,2012,110/111:140-154.

[8]Chelgani S C,Shahbazi B,Rezai B.Estimation of froth flotation recovery and collision probability based on operational parameters using an artificial neural network[J].International Journal of Minerals,Metallurgy,and Materials,2010,17(5):526-534.

[9]Chehreh Chelgani S,Shahbazi B,Hadavandi E.Support vector regression modeling of coal flotation based on variable importance measurements by mutual information method[J].Measurement,2018,114:102-108.

[10]Shahbazi B,Chehreh Chelgani S,Matin S S.Prediction of froth flotation responses based on various conditioning parameters by Random Forest method[J].Colloids and Surfaces A:Physicochemical and Engineering Aspects,2017,529:936-941.

[11]Pu Y Y,Szmigiel A,Chen J,et al.FlotationNet:a hierarchical deep learning network for froth flotation recovery prediction[J].Powder Technology,2020,375:317-326.

[12]Pu Y Y,Szmigiel A,Apel D B.Purities prediction in a manufacturing froth flotation plant:the deep learning techniques[J].Neural Computing and Applications,2020,32(17):13639-13649.

[13]Montanares M,Guajardo S,Aguilera I,et al.Assessing machine learning-based approaches for silica concentration estimation in iron froth flotation[C]//2021 IEEE International Conference on Automation/XXIV Congress of the Chilean Association of Automatic Control(ICA-ACCA),March 22-26,2021,Valparaíso,Chile.IEEE,2021:1-6.

[14]Wen Q S,Sun L,Yang F,et al.Time series data augmentation for deep learning:a survey[C]//Proceedings of the Thirtieth International Joint Conference on Artificial Intelligence,August 19-27,2021,Montreal,Canada.California:International Joint Conferences on Artificial Intelligence Organization,2021:4653-4660.

[15]Shorten C,Khoshgoftaar T M,F(xiàn)urht B.Textdata augmentation for deep learning[J].Journal of Big Data,2021,8:101.

[16]Shorten C,Khoshgoftaar T M.A survey on image data augmentation for deep learning[J].Journal of Big Data,2019,6:60.

[17]Olson M,Wyner A J,Berk R.Modern neural networks generalize on small data sets[C]//Proceedings of the 32nd International Conference on Neural Information Processing Systems.New York:ACM,2018:3623-3632.

[18]Shao S Y,Wang P,Yan R Q.Generative adversarial networks for data augmentation in machine fault diagnosis[J].Computers in Industry,2019,106:85-93.

[19]Zhao B X,Yuan Q.Improved generative adversarial network for vibration-based fault diagnosis with imbalanced data[J].Measurement,2021,169:108522.

[20]Chawla N V,Bowyer K W,Hall L O,et al.SMOTE:synthetic minority over-sampling technique[J].Journal of Artificial Intelligence Research,2002,16:321-357.

[21]Inoue H.Data augmentation by pairing samples for images classification[EB/OL].2018[2022-10-05].https://arxiv.org/abs/1801.02929

[22]Zhang H Y,Cisse M,Dauphin Y N,et al.Mixup:beyond empirical risk minimization[EB/OL].2017[2022-10-05].https://arxiv.org/abs/1710.09412

[23]Goodfellow I,Pouget-Abadie J,Mirza M,et al.Generative adversarial networks[J].Communications of the ACM,2020,63(11):139-144.

[24]Cubuk E D,Zoph B,Mane D,et al.AutoAugment:learning augmentation policies from data[EB/OL].2018[2022-10-05].https://arxiv.org/abs/1805.09501

[25]Fekri M N,Ghosh A M,Grolinger K.Generating energy data for machine learning with recurrent generative adversarial networks[J].Energies,2019,13(1):130.

[26]Wang J L,Yang Z L,Zhang J,et al.AdaBalGAN:an improved generative adversarial network with imbalanced learning for wafer defective pattern recognition[J].IEEE Transactions on Semiconductor Manufacturing,2019,32(3):310-319.

[27]Arjovsky M,Chintala S,Bottou L.Wasserstein generative adversarial networks[C]//Proceedings of the 34th InternationalConference on Machine Learning:PMLR 70,August 6-11,2017,Sydney,NSW,Australia.New York:ACM,2017:214-223.

[28]Elman J L.Finding structure in time[J].Cognitive Science,1990,14(2):179-211.

[29]Gers F A,Schmidhuber J,Cummins F.Learning to forget:continual prediction with LSTM[J].Neural Computation,2000,12(10):2451-2471.

(編輯羅敏)

樟树市| 郑州市| 疏附县| 芜湖县| 通州市| 辛集市| 黄梅县| 锦州市| 惠州市| 九龙城区| 乡城县| 基隆市| 通辽市| 郎溪县| 滁州市| 宣城市| 石台县| 泉州市| 琼海市| 阿坝县| 沅陵县| 射洪县| 简阳市| 张家界市| 原阳县| 诸城市| 罗城| 白银市| 平南县| 东乡县| 克拉玛依市| 银川市| 江阴市| 安多县| 集安市| 乐陵市| 崇文区| 绩溪县| 卢湾区| 木兰县| 望奎县|