段友祥, 李根田
(中國石油大學(xué)(華東)計(jì)算機(jī)與通信工程學(xué)院, 山東 青島 266580)
人工神經(jīng)網(wǎng)絡(luò)(Artificial Neural Network,ANN)能夠從各個(gè)角度對(duì)生物神經(jīng)系統(tǒng)的不同層次進(jìn)行描述和模擬。代表模型有多層感知器、多層映射BP網(wǎng)絡(luò)、RBF網(wǎng)絡(luò)、Hopfiled網(wǎng)絡(luò)、支持向量回歸模型等等。地質(zhì)儲(chǔ)層參數(shù)預(yù)測領(lǐng)域常用有BP網(wǎng)絡(luò)及優(yōu)化的BP網(wǎng)絡(luò)、RBF網(wǎng)絡(luò)、支持向量回歸模型等。
地質(zhì)儲(chǔ)層參數(shù)在建立地質(zhì)模型中起著至關(guān)重要的作用。儲(chǔ)層參數(shù)往往是通過井資料獲得。在很多情況下,鉆井取心僅限于某些層段,物性分析資料不足,不能全面客觀地對(duì)儲(chǔ)層進(jìn)行評(píng)價(jià)。常規(guī)測井解釋多通過經(jīng)驗(yàn)公式或簡化地質(zhì)條件建立模型計(jì)算儲(chǔ)層參數(shù)。對(duì)于解決復(fù)雜地質(zhì)問題,二者都有很大的局限性和缺陷。很多學(xué)者提出了一些利用人工神經(jīng)網(wǎng)絡(luò)進(jìn)行儲(chǔ)層參數(shù)預(yù)測的方法。陳蓉等[1]在MATLAB平臺(tái)上利用BP神經(jīng)網(wǎng)絡(luò)進(jìn)行了儲(chǔ)層的孔隙度和滲透率預(yù)測,并在實(shí)驗(yàn)中取得了良好的效果。李映濤等[2]利用BP神經(jīng)網(wǎng)絡(luò)進(jìn)行了儲(chǔ)層的孔隙度預(yù)測,并進(jìn)行了實(shí)際應(yīng)用。董興朋[3]將遺傳算法與BP算法相結(jié)合,利用改進(jìn)的BP神經(jīng)網(wǎng)絡(luò)進(jìn)行了儲(chǔ)層的孔隙度和滲透率預(yù)測,該方法優(yōu)化了神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),避免了BP算法陷入局部極小值得缺點(diǎn),提高了預(yù)測精度。潘少偉等[4]利用改進(jìn)的PSO-BP神經(jīng)網(wǎng)絡(luò)對(duì)儲(chǔ)層參數(shù)動(dòng)態(tài)預(yù)測,提高BP神經(jīng)網(wǎng)絡(luò)的收斂速度和泛化能力。Baneshi M等[5]采用優(yōu)化的RBF網(wǎng)絡(luò)通過井?dāng)?shù)據(jù)預(yù)測儲(chǔ)層的孔隙度模型,并達(dá)到了預(yù)期的效果。Wu Xiongjun等[6]提出了基于可訓(xùn)練的徑向基函數(shù)的RBF網(wǎng)絡(luò),并進(jìn)行了儲(chǔ)層的敏感性預(yù)測,其預(yù)測精度高于運(yùn)用簡單的徑向基函數(shù)的RBF網(wǎng)絡(luò)。而Na’imi S R等[7]采用地震數(shù)據(jù)運(yùn)用支持向量回歸的方法進(jìn)行了儲(chǔ)層孔隙度和含水飽和度的預(yù)測。同時(shí),在其他領(lǐng)域,改進(jìn)的BP網(wǎng)絡(luò)[8]、RBF網(wǎng)絡(luò)[9]和支持向量回歸模型[10]被廣泛應(yīng)用。然而單一網(wǎng)絡(luò)在地質(zhì)儲(chǔ)層參數(shù)預(yù)測問題上存在普適性不強(qiáng)、穩(wěn)定性不高等缺點(diǎn)。
本文在深入研究的基礎(chǔ)上,提出基于聯(lián)合機(jī)制的新型人工神經(jīng)網(wǎng)絡(luò)模型(稱為聯(lián)合神經(jīng)網(wǎng)絡(luò)),是一種集多種人工神經(jīng)網(wǎng)絡(luò)組成的并行網(wǎng)絡(luò)模型,實(shí)驗(yàn)表明,它在地質(zhì)儲(chǔ)層參數(shù)預(yù)測方面的表現(xiàn)明顯優(yōu)于其他的人工神經(jīng)網(wǎng)絡(luò)模型。
地質(zhì)儲(chǔ)層參數(shù)預(yù)測問題一般是通過已知的井資料和地質(zhì)儲(chǔ)層參數(shù)來獲取經(jīng)驗(yàn)公式或簡單的地質(zhì)模型,從而預(yù)測未知地區(qū)的地質(zhì)儲(chǔ)層參數(shù)[11]。人工神經(jīng)網(wǎng)絡(luò)方法進(jìn)行地質(zhì)儲(chǔ)層參數(shù)預(yù)測一般包含2個(gè)階段:①訓(xùn)練過程,利用已知的井資料和地質(zhì)儲(chǔ)層參數(shù)訓(xùn)練獲取網(wǎng)絡(luò)訓(xùn)練模型;②預(yù)測過程,利用得到的網(wǎng)絡(luò)訓(xùn)練模型預(yù)測未知地區(qū)的地質(zhì)儲(chǔ)層參數(shù)。多年來,BP神經(jīng)網(wǎng)絡(luò)、RBF神經(jīng)網(wǎng)絡(luò)和支持向量回歸這3種網(wǎng)絡(luò)模型因其性能更高,技術(shù)比較成熟等優(yōu)點(diǎn),在地質(zhì)儲(chǔ)層參數(shù)預(yù)測方面都已有研究和應(yīng)用,但也各有不足。
(1) BP神經(jīng)網(wǎng)絡(luò)是一種3層結(jié)構(gòu)的前饋神經(jīng)網(wǎng)絡(luò),它由輸入層、輸出層、一個(gè)或多個(gè)隱藏層組成,每個(gè)節(jié)點(diǎn)與鄰層節(jié)點(diǎn)相連接,同一層的節(jié)點(diǎn)不相連。假設(shè)某神經(jīng)元Y與N個(gè)神經(jīng)元X相連,那么該神經(jīng)元的狀態(tài)輸出為
(1)
式中,Wi表示神經(jīng)元和神經(jīng)元之間的連接權(quán)值;θ為連接偏置;f為神經(jīng)元激活函數(shù)。
優(yōu)勢(shì)主要表現(xiàn):①較好的泛化能力。當(dāng)向網(wǎng)絡(luò)輸入訓(xùn)練時(shí)未曾見過的非樣本數(shù)據(jù)時(shí),網(wǎng)絡(luò)也能完成由輸入空間向輸出空間的正確映射。②較強(qiáng)的容錯(cuò)能力。輸入樣本中帶有較大的誤差甚至個(gè)別錯(cuò)誤對(duì)網(wǎng)絡(luò)的輸入輸出規(guī)律影響很小。存在的缺陷:①網(wǎng)絡(luò)訓(xùn)練容易陷入局部最優(yōu),失敗的可能性較大。從數(shù)學(xué)角度看,BP算法為局部搜索的優(yōu)化方法,但它要解決的問題為求解復(fù)雜非線性函數(shù)的全局極值,因此,算法很有可能陷入局部極值,使訓(xùn)練失敗,利用訓(xùn)練失敗的網(wǎng)絡(luò)模型進(jìn)行預(yù)測往往使得預(yù)測值誤差較大。②網(wǎng)絡(luò)結(jié)構(gòu)的選擇尚無一種統(tǒng)一而完整的理論指導(dǎo),一般只能由經(jīng)驗(yàn)選定,而網(wǎng)絡(luò)的結(jié)構(gòu)直接影響網(wǎng)絡(luò)的逼近能力及推廣性質(zhì)。
(2) RBF神經(jīng)網(wǎng)絡(luò)[12]同BP神經(jīng)網(wǎng)絡(luò)一樣,是由輸入層、輸出層和一個(gè)隱藏層組成的3層前饋網(wǎng)絡(luò),其中W表示連接權(quán)值,B為連接偏置。不同的是RBF神經(jīng)網(wǎng)絡(luò)以徑向基函數(shù)(Radial Basis Function,RBF)作為隱藏層單元的基,即激活函數(shù),構(gòu)成隱藏層空間,隱藏層對(duì)輸入矢量進(jìn)行變換將低維的模式輸入數(shù)據(jù)變換到高維空間。RBF神經(jīng)網(wǎng)絡(luò)的采用的徑向基函數(shù),通常定義為空間任一點(diǎn)到某一中心之間歐氏距離的單調(diào)函數(shù)。RBF基神經(jīng)網(wǎng)絡(luò)的激活函數(shù)是以輸入向量和權(quán)值向量之間的距離作為自變量的,神經(jīng)元Y的狀態(tài)輸出為
(2)
式中,Wi為該神經(jīng)元與神經(jīng)元之間的連接權(quán)值;B為連接偏置;radbas為神經(jīng)元徑向基激活函數(shù)。
RBF優(yōu)勢(shì)主要表現(xiàn)在:①逼近性能好。RBF神經(jīng)網(wǎng)絡(luò)有很強(qiáng)的非線性擬合能力,可映射任意復(fù)雜的非線性關(guān)系,科學(xué)界已經(jīng)證明它可以任意精度逼近任意的非線性函數(shù)。②不存在局部極值。RBF神經(jīng)網(wǎng)絡(luò)是一種性能優(yōu)良的前饋型神經(jīng)網(wǎng)絡(luò),且具有全局逼近能力,從根本上解決了BP神經(jīng)網(wǎng)絡(luò)的局部最優(yōu)問題。③學(xué)習(xí)過程收斂速度快。在RBF網(wǎng)絡(luò)中,網(wǎng)絡(luò)參數(shù)調(diào)節(jié)極為簡單,因此學(xué)習(xí)過程收斂速度快。存在的缺陷:①RBF神經(jīng)網(wǎng)絡(luò)雖然可以任意精度逼近任意函數(shù),但容錯(cuò)能力較弱。特別是在輸入中帶有較大誤差甚至有個(gè)別錯(cuò)誤時(shí),網(wǎng)絡(luò)的輸出變化很大。②在訓(xùn)練樣本較多的情況下,RBF網(wǎng)絡(luò)的網(wǎng)絡(luò)規(guī)模較大。
(3) 支持向量回歸[13](Support Vector Regression,SVR)是通過尋找一個(gè)核函數(shù),通過某種非線性映射將樣本映射到一個(gè)高維空間(特征空間)。支持向量回歸模型可以看成一個(gè)3層的網(wǎng)絡(luò)架構(gòu),即輸入層、中間層和輸出層。該網(wǎng)絡(luò)模型與普通的神經(jīng)網(wǎng)絡(luò)模型有所不同,但在分類預(yù)測的基本思想不變。對(duì)于給定的樣本數(shù)據(jù){(xi,yi)|i=1,2,…,k}(其中xi為輸入值,yi為輸出值),假設(shè)其服從函數(shù)y=f(x)。首先考慮用函g(x)=(ω·x)+b對(duì)樣本數(shù)據(jù)集進(jìn)行擬合,并使得函數(shù)f和g之間的距離最小,即損失函數(shù)最小。損失函數(shù)J見公式(3)
(3)
根據(jù)結(jié)構(gòu)風(fēng)險(xiǎn)最小化原理,要使損失函數(shù)達(dá)到最小,則
(4)
s.t. {yi-f(xi)≤ε+δi,yi-f(xi)
利用Lagrange優(yōu)化方法將問題轉(zhuǎn)化為求函數(shù)最大值,再通過核函數(shù)K(xi,yi)將其轉(zhuǎn)換到高維空間,從而得到回歸函數(shù)f(x)見式(5)。目標(biāo)方程對(duì)于樣本是支持向量的。
(5)
SVR優(yōu)勢(shì):①將實(shí)際問題通過非線性變換轉(zhuǎn)換到高維的特征空間,在高維空間中構(gòu)造線性決策函數(shù)來實(shí)現(xiàn)原空間中的非線性決策函數(shù),巧妙地解決了維數(shù)問題,并保證了有較好的推廣能力,而且算法復(fù)雜度與樣本維數(shù)無關(guān)。②理論上,得到的將是全局最優(yōu)解,解決了在神經(jīng)網(wǎng)絡(luò)方法中無法避免的局部極值問題。③從本質(zhì)上看,它避開了從歸納到演繹的傳統(tǒng)過程,實(shí)現(xiàn)了高效的從訓(xùn)練樣本到預(yù)測樣本的“轉(zhuǎn)導(dǎo)推理”,大大簡化了通常的回歸問題。④具有較好的泛化性和魯棒性。它的不足:①對(duì)大規(guī)模訓(xùn)練樣本難以實(shí)施。當(dāng)向量維數(shù)m(樣本個(gè)數(shù))數(shù)目很大時(shí),該矩陣的存儲(chǔ)和計(jì)算將耗費(fèi)大量的機(jī)器內(nèi)存和運(yùn)算時(shí)間。②在訓(xùn)練精度跟訓(xùn)練樣本個(gè)數(shù)不成正比的情況下,直接訓(xùn)練不能充分利用樣本數(shù)據(jù),對(duì)樣本數(shù)據(jù)造成浪費(fèi)。
相關(guān)研究已經(jīng)表明[14],當(dāng)單個(gè)人工神經(jīng)網(wǎng)絡(luò)具有一定的準(zhǔn)確性和差異性時(shí),通過將它們組合,可以獲得相比于單一神經(jīng)網(wǎng)絡(luò)更高的預(yù)測精度?;诖颂岢雎?lián)合神經(jīng)網(wǎng)絡(luò)模型(Committee Neural Network,CNN),它是通過聯(lián)合多種獨(dú)立的人工神經(jīng)網(wǎng)絡(luò)組成的并行網(wǎng)絡(luò)模型,其本質(zhì)是通過結(jié)合多種網(wǎng)絡(luò)的輸出作為中間結(jié)果,再通過一定的組合和決策方式得到網(wǎng)絡(luò)輸出。因此,該網(wǎng)絡(luò)主要包含了2個(gè)階段。第1階段通過BP神經(jīng)網(wǎng)絡(luò)、RBF神經(jīng)網(wǎng)絡(luò)和支持向量回歸(SVR)等不同的基礎(chǔ)神經(jīng)網(wǎng)絡(luò)單元分別預(yù)測獲得各自的網(wǎng)絡(luò)輸出;第2階段利用以上基礎(chǔ)神經(jīng)網(wǎng)絡(luò)單元的輸出作為輸入,進(jìn)入單層感知器(SLP)進(jìn)行處理,從而得到聯(lián)合神經(jīng)網(wǎng)絡(luò)模型的最終輸出。
根據(jù)聯(lián)合神經(jīng)網(wǎng)絡(luò)的基本思想,設(shè)計(jì)出CNN網(wǎng)絡(luò)結(jié)構(gòu)(見圖1)。
圖1 聯(lián)合神經(jīng)網(wǎng)絡(luò)CNN結(jié)構(gòu)
整個(gè)CNN網(wǎng)絡(luò)中包含2部分。第1部分是由多個(gè)人工神經(jīng)網(wǎng)絡(luò)組成的基礎(chǔ)神經(jīng)網(wǎng)絡(luò)單元,像BP網(wǎng)絡(luò)、RBF網(wǎng)絡(luò)或SVR等。基礎(chǔ)神經(jīng)網(wǎng)絡(luò)單元不僅僅局限于這3種網(wǎng)絡(luò),可以是任何多種網(wǎng)絡(luò)的組合?;A(chǔ)神經(jīng)網(wǎng)絡(luò)單元單獨(dú)工作互不影響,且整個(gè)CNN網(wǎng)絡(luò)的輸入是針對(duì)每個(gè)基礎(chǔ)神經(jīng)網(wǎng)絡(luò)單元,即每個(gè)基礎(chǔ)網(wǎng)絡(luò)單元有相同的輸入,而經(jīng)過不同的基礎(chǔ)網(wǎng)絡(luò)單元后會(huì)得到不同的輸出。第2部分是將每個(gè)基礎(chǔ)神經(jīng)網(wǎng)絡(luò)單元的輸出通過一定的組合和決策方式得到一種網(wǎng)絡(luò)輸出。不同的組合和決策方式影響整個(gè)CNN網(wǎng)絡(luò)的預(yù)測精度。對(duì)于簡單的問題,基礎(chǔ)神經(jīng)網(wǎng)絡(luò)單元預(yù)測精度較高且其輸出差異不是很大,可以選擇線性平均法或精度最高法。線性平均法是把基礎(chǔ)神經(jīng)網(wǎng)絡(luò)單元輸出的平均值作為最終輸出。精度最高法是選擇基礎(chǔ)神經(jīng)網(wǎng)絡(luò)單元輸出中精度最高的作為最終輸出。對(duì)于基礎(chǔ)神經(jīng)網(wǎng)絡(luò)單元輸出差異較大的情況,則必須通過進(jìn)一步的訓(xùn)練得到每個(gè)基礎(chǔ)神經(jīng)網(wǎng)絡(luò)單元對(duì)最終輸出的權(quán)重貢獻(xiàn)值。對(duì)于權(quán)重的訓(xùn)練可以選擇遺傳算法或者單層感知器,單層感知器相比于遺傳算法的優(yōu)勢(shì)是除訓(xùn)練得到的權(quán)重因子外還會(huì)得到一個(gè)微小的閾值,此閾值可以對(duì)最終的網(wǎng)絡(luò)輸出做一個(gè)微小的調(diào)整,可以大大提高了網(wǎng)絡(luò)的預(yù)測精度。
單層感知器的結(jié)構(gòu)簡單,其狀態(tài)輸出見式(6)
(6)
作為CNN網(wǎng)絡(luò)的一種組合方式,單層感知器必須是純線性激活函數(shù),即f為線性激活函數(shù),其在CNN網(wǎng)絡(luò)中所起的作用就是通過樣本訓(xùn)練來得到基礎(chǔ)神經(jīng)網(wǎng)絡(luò)單元對(duì)最終網(wǎng)絡(luò)輸出的貢獻(xiàn)權(quán)值wi,加之閾值b,得到最終的網(wǎng)絡(luò)輸出y。
實(shí)驗(yàn)選擇了MATLAB平臺(tái)進(jìn)行仿真實(shí)現(xiàn),以MATLAB中神經(jīng)網(wǎng)絡(luò)的工具箱為基礎(chǔ),通過調(diào)整神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)和規(guī)模,最終分別實(shí)現(xiàn)了BP網(wǎng)絡(luò)、RBF網(wǎng)絡(luò)、SVR模型以及CNN網(wǎng)絡(luò)4種網(wǎng)絡(luò)模型。
實(shí)驗(yàn)選擇了與孔隙度相關(guān)的聲波、密度、中子和自然伽馬4種測井?dāng)?shù)據(jù),經(jīng)過主成分分析發(fā)現(xiàn)聲波、密度、中子和自然伽馬與孔隙度具有相關(guān)性,且4種測井?dāng)?shù)據(jù)之間不相關(guān)。因此,4種網(wǎng)絡(luò)模型的輸入?yún)?shù)為聲波、密度、中子和自然伽馬,輸出參數(shù)為孔隙度。實(shí)驗(yàn)首先用帶標(biāo)簽的數(shù)據(jù)進(jìn)行訓(xùn)練,然后用訓(xùn)練得到的模型進(jìn)行參數(shù)預(yù)測。
BP網(wǎng)絡(luò)中輸入層到隱藏層的激活函數(shù)選擇S型雙曲正切函數(shù),隱藏層到輸出層的激活函數(shù)選擇純線性函數(shù)。具體結(jié)構(gòu)見圖2,S1是以雙曲正切函數(shù)為激活函數(shù)的隱藏層,S2是以純線性函數(shù)為激活函數(shù)的輸出層。隱藏層的輸出為a1=tansig(W1p+b1),輸出層的輸出為a2=purelin(W2a1+b2),其中a為狀態(tài)值,W為各層的權(quán)值,b為網(wǎng)絡(luò)偏置,上標(biāo)代表網(wǎng)絡(luò)的層數(shù)。
圖2 BP神經(jīng)網(wǎng)絡(luò)預(yù)測單元
通過多次仿真實(shí)驗(yàn)與比較,確定了BP網(wǎng)絡(luò)的參數(shù)。輸入層設(shè)定4個(gè)節(jié)點(diǎn);隱藏層節(jié)點(diǎn)的個(gè)數(shù)會(huì)影響訓(xùn)練的速度與預(yù)測的精度,隱藏層節(jié)點(diǎn)的個(gè)數(shù)大于6時(shí),訓(xùn)練速度變慢,預(yù)測精度變化不大;隱藏層節(jié)點(diǎn)的個(gè)數(shù)小于6時(shí),訓(xùn)練速度快,但預(yù)測精度較差。因此隱藏層節(jié)點(diǎn)設(shè)置為6,輸出層節(jié)點(diǎn)為1??紤]到網(wǎng)絡(luò)的收斂性和收斂速度與學(xué)習(xí)速率、最大訓(xùn)練次數(shù)、訓(xùn)練精度,權(quán)值初始化算法和學(xué)習(xí)算法有關(guān),通過不同的實(shí)驗(yàn)并比較,發(fā)現(xiàn)權(quán)值初始化算法采用Nguyen-Widrow算法,反傳學(xué)習(xí)算法采用Levenberg-Marquardt算法,設(shè)定學(xué)習(xí)速率0.1,最大訓(xùn)練次數(shù)1 000,訓(xùn)練要求精度0.001時(shí)能滿足最終的性能要求。
RBF網(wǎng)絡(luò)的徑向基神經(jīng)元的凈輸入采用距離函數(shù)(歐式距離)乘以偏置,并使用高斯徑向基函數(shù)作為激活函數(shù)[15]。具體結(jié)構(gòu)見圖3。其中,S1代表由徑向基神經(jīng)元構(gòu)成的隱藏層,S2是線性輸出層。隱藏層的輸出為a1=radbas(‖IW1,1-p‖·b1),輸出層的輸出為a2=purelin(LW2,1a1+b2),其中a為狀態(tài)值,IW和LW為各層的連接權(quán)值,b為網(wǎng)絡(luò)偏置,上標(biāo)代表網(wǎng)絡(luò)的層數(shù)。
圖3 RBF神經(jīng)網(wǎng)絡(luò)預(yù)測單元
該網(wǎng)絡(luò)模型中,輸入層設(shè)置4個(gè)節(jié)點(diǎn),輸出層設(shè)置1個(gè)節(jié)點(diǎn),通過多次的網(wǎng)絡(luò)訓(xùn)練并比較預(yù)測精度發(fā)現(xiàn),當(dāng)訓(xùn)練精度越高,網(wǎng)絡(luò)的容錯(cuò)能力越低,反而最終的預(yù)測效果并不理想,所以在構(gòu)建RBF網(wǎng)絡(luò)時(shí)應(yīng)該選擇合適的訓(xùn)練精度,實(shí)驗(yàn)表明當(dāng)訓(xùn)練要求精度為0.02時(shí)最終的預(yù)測精度較高,且此時(shí)隱藏層神經(jīng)元數(shù)目為17個(gè)。實(shí)驗(yàn)過程中,由于實(shí)驗(yàn)數(shù)據(jù)經(jīng)過歸一化處理,樣本數(shù)據(jù)統(tǒng)一在[-1,1]之間,因此,徑向基函數(shù)選擇了默認(rèn)值。
圖4 SVR預(yù)測單元
SVR模型中,輸入為四維向量,訓(xùn)練樣本的標(biāo)簽為一維向量。核函數(shù)選擇高斯徑向基函數(shù)[15],回歸模型有3個(gè)重要的參數(shù)需要設(shè)置,分別是懲罰系數(shù)C,核函數(shù)參數(shù)γ以及擬合精度ε。通過多次實(shí)驗(yàn)并比較預(yù)測精度,設(shè)置懲罰系數(shù)為1 000,核函數(shù)參數(shù)為0.01,擬合精度為0.02。
確定好3種神經(jīng)網(wǎng)絡(luò)參數(shù),即3種基礎(chǔ)神經(jīng)網(wǎng)絡(luò)單元建立完成,通過一個(gè)單層感知器組成一個(gè)并行的網(wǎng)絡(luò)模型,即CNN網(wǎng)絡(luò)。在該網(wǎng)絡(luò)中輸入依然為4個(gè)節(jié)點(diǎn),分別經(jīng)過BP網(wǎng)絡(luò)單元、RBF網(wǎng)絡(luò)單元和SVR模型單元之后得到3個(gè)中間輸出孔隙度,它們?cè)僮鳛閱螌痈兄鞯妮斎?最終得到CNN輸出的孔隙度。
整個(gè)CNN網(wǎng)絡(luò)模型關(guān)鍵在于基礎(chǔ)神經(jīng)網(wǎng)絡(luò)單元的組合,訓(xùn)練后的基礎(chǔ)神經(jīng)網(wǎng)絡(luò)單元對(duì)于最終的網(wǎng)絡(luò)輸出的權(quán)重貢獻(xiàn)值和閾值通過單層感知器表現(xiàn)。實(shí)驗(yàn)中經(jīng)過樣本訓(xùn)練得到的權(quán)重值分別為0.791、0.167 4和-0.021 3,閾值為0.005 2。最后利用訓(xùn)練得到的CNN網(wǎng)絡(luò)模型進(jìn)行預(yù)測。
實(shí)驗(yàn)使用了某區(qū)塊的3口油井的測井?dāng)?shù)據(jù),3口井的標(biāo)號(hào)分別為NB22-1-1、NB22-1-3和NB22-1-4。表1是對(duì)3口井的測井?dāng)?shù)據(jù)的描述。
實(shí)驗(yàn)采用BP網(wǎng)絡(luò),RBF網(wǎng)絡(luò),SVR模型和CNN網(wǎng)絡(luò)4種人工神經(jīng)網(wǎng)絡(luò)模型,利用已知的井NB22-1-1數(shù)據(jù)分別建立孔隙度預(yù)測模型,再利用分別得到孔隙度預(yù)測模型,對(duì)井NB22-1-3和井NB22-1-4進(jìn)行孔隙度預(yù)測,最后對(duì)這2口井的孔隙度預(yù)測值和已知實(shí)際值進(jìn)行比較和分析。比較結(jié)果采用均方差(MSE)和相關(guān)系數(shù)(R)表示。比較和分析結(jié)果見圖5、圖6和表2。
通過比較4種神經(jīng)網(wǎng)絡(luò),對(duì)于井NB22-1-3,聯(lián)合神經(jīng)網(wǎng)絡(luò)的預(yù)測孔隙度與真實(shí)孔隙度的均方差最小,且相關(guān)系數(shù)最大;對(duì)于井NB22-1-4,同樣聯(lián)合神經(jīng)網(wǎng)絡(luò)的預(yù)測孔隙度與真實(shí)孔隙度的均方差最小,且相關(guān)系數(shù)最大。所以聯(lián)合神經(jīng)網(wǎng)絡(luò)的預(yù)測效果要優(yōu)于單一網(wǎng)絡(luò)。并且通過多次實(shí)驗(yàn)發(fā)現(xiàn),聯(lián)合神經(jīng)網(wǎng)絡(luò)的預(yù)測效果會(huì)趨向于以上3種基礎(chǔ)網(wǎng)絡(luò)單元中預(yù)測效果最好的一種網(wǎng)絡(luò),且其均方差和相關(guān)系數(shù)也會(huì)達(dá)到最佳效果。因此,聯(lián)合神經(jīng)網(wǎng)絡(luò)會(huì)自適應(yīng)調(diào)節(jié)網(wǎng)絡(luò)的結(jié)構(gòu),避免了某單一網(wǎng)絡(luò)在參數(shù)預(yù)測時(shí)的缺點(diǎn)。
表1 3口油井的數(shù)據(jù)描述
圖5 NB22-1-3井的孔隙度
表2 測孔隙度與真實(shí)孔隙度均方差(MSE)和相關(guān)系數(shù)(R)
從預(yù)測結(jié)果看,井NB22-1-3的預(yù)測效果要高于井NB22-1-4。這是由于網(wǎng)絡(luò)的訓(xùn)練數(shù)據(jù)是從井深2500~4000 m井段得到的訓(xùn)練模型,網(wǎng)絡(luò)模型對(duì)于在同一深度段的井NB22-1-3的預(yù)測效果較好,而對(duì)于井NB22-1-4的4000~4300 m井段的預(yù)測效果較差。
(1) 提出了以單一人工神經(jīng)網(wǎng)模型作為基本單元,通過單層感知器聯(lián)合BP神經(jīng)網(wǎng)絡(luò)、RBF神經(jīng)網(wǎng)絡(luò)和SVR模型組成的聯(lián)合神經(jīng)網(wǎng)絡(luò)模型。
(2) 聯(lián)合神經(jīng)網(wǎng)絡(luò)能自適應(yīng)調(diào)節(jié)網(wǎng)絡(luò)結(jié)構(gòu),較好地避免了單一網(wǎng)絡(luò)在參數(shù)預(yù)測時(shí)的缺陷,提高了網(wǎng)絡(luò)的魯棒性。從預(yù)測效果上,該網(wǎng)絡(luò)提高了預(yù)測的精度。
(3) 聯(lián)合神經(jīng)網(wǎng)絡(luò)在地質(zhì)儲(chǔ)層參數(shù)預(yù)測方面的實(shí)際應(yīng)用實(shí)驗(yàn)表明,其網(wǎng)絡(luò)模型的適應(yīng)性、預(yù)測的準(zhǔn)確性都優(yōu)于單一的人工神經(jīng)網(wǎng)絡(luò)模型。
(4) 聯(lián)合神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)神經(jīng)網(wǎng)絡(luò)單元可以任意調(diào)節(jié)和改變?;A(chǔ)神經(jīng)網(wǎng)絡(luò)單元的預(yù)測性能越好,聯(lián)合神經(jīng)網(wǎng)絡(luò)的預(yù)測性能也就越好。
參考文獻(xiàn):
[1] 陳蓉, 王峰. 基于MATLAB的BP神經(jīng)網(wǎng)絡(luò)在儲(chǔ)層物性預(yù)測中的應(yīng)用 [J]. 測井技術(shù), 2009, 33(1): 75-78.
[2] 李映濤, 袁曉宇, 劉迪, 等. BP神經(jīng)網(wǎng)絡(luò)在測井解釋中的應(yīng)用研究 [J]. 西部探礦工程, 2013, 25(3): 45-48.
[3] 董興朋. 相似度遺傳神經(jīng)網(wǎng)絡(luò)在儲(chǔ)層物性預(yù)測中的應(yīng)用 [J]. 測井技術(shù), 2012, 36(3): 267-271.
[4] 潘少偉, 梁鴻軍, 李良, 等. 改進(jìn)PSO-BP神經(jīng)網(wǎng)絡(luò)對(duì)儲(chǔ)層參數(shù)的動(dòng)態(tài)預(yù)測研究 [J]. 計(jì)算機(jī)工程與應(yīng)用, 2014, 50(10): 52-56.
[5] BANESHI M, BEHZADIJO M, ROSTAMI M, et al. Using Well Logs to Predict a Multimin Porosity Model by Optimized Spread RBF Networks [J]. Energy Sources, Part A: Recovery, Utilization, and Environmental Effects, 2015, 37(22): 2443-2450.
[6] WU X J, JIANG G C, WANG X J, et al. Prediction of Reservoir Sensitivity Using RBF Neural Network with Trainable Radial Basis Function [J]. Neural Computing & Applications, 2013, 22(5): 947-953.
[7] NA’IMI S R, SHADIZADEH S R, RIAHI M A, et al. Estimation of Reservoir Porosity and Water Saturation Based on Seismic Attributes Using Support Vector Regression Approach [J]. Journal of Applied Geophysics, 2014, 107: 93-101.
[8] 于王樂, 汪家權(quán). 改進(jìn)的QGA-BP模型在復(fù)雜水質(zhì)預(yù)測中的應(yīng)用 [J]. 模式識(shí)別與人工智能, 2012, 25(4): 705-708.
[9] LIU X, DONG F, HE G, et al. Use of PCA-RBF Model for Prediction of Chlorophyll-a in Yuqiao Reservoir in the Haihe River Basin, China [J]. Water Science & Technology Water Supply, 2014, 14(1): 73-80.
[10] ZHANG J, YIN K, WANG J, et al. Displacement Prediction of Baishuihe Landslide Based on Time Series and PSO-SVR Model [J]. Chinese Journal of Rock Mechanics & Engineering, 2015.
[11] 徐基祥, 王才經(jīng). 綜合地質(zhì)、鉆井和地震資料預(yù)測儲(chǔ)層物性參數(shù) [J]. 石油地球物理勘探, 1996, 31(1): 84-91.
[12] 劉永, 張立毅. BP和RBF神經(jīng)網(wǎng)絡(luò)的實(shí)現(xiàn)及其性能比較 [J]. 電子測量技術(shù), 2007, 30(4): 77-80.
[13] 田英杰. 支持向量回歸機(jī)及其應(yīng)用研究 [D]. 北京: 中國農(nóng)業(yè)大學(xué), 2005.
[14] HANSEN L K, SALAMON P. Neural Network Ensembles [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 1990, 12: 993-1001.
[15] 樓俊鋼, 蔣云良, 申情, 等. 軟件可靠性預(yù)測中不同核函數(shù)的預(yù)測能力評(píng)估 [J]. 計(jì)算機(jī)學(xué)報(bào), 2013, 36(6): 1303-1311.