NEGASH Berihun Mamo,YAW Atta Dennis
(馬來西亞石油大學石油工程系,斯里依斯干達 32610,馬來西亞)
現(xiàn)有的大部分油氣產(chǎn)量預測方法都要求對油氣田的儲集層和流體性質(zhì)進行綜合描述,需要花費大量時間、精力去分析所研究的油氣田[1],預測結(jié)果準確性主要取決于模型輸入數(shù)據(jù),包括地質(zhì)資料、巖石物理數(shù)據(jù)和儲集層特征參數(shù)等[2]。但是,鑒于儲集層的各向異性和非均質(zhì)性,數(shù)據(jù)采集和巖石、流體性質(zhì)表征難度很大[3]。此外,油氣藏模擬的每一步都有諸多不確定性,既有儲集層輸入數(shù)據(jù)的不確定性,也有實驗研究的不確定性,會極大地影響油氣藏生產(chǎn)動態(tài)的預測。油藏工程師一般采用歷史擬合方法,運用物質(zhì)平衡概念,使用硬數(shù)據(jù)來驗證模型,但不確定程度依然很高,有可能影響流體產(chǎn)量預測[4-5]。因此,機器學習方法受到油氣行業(yè)的關(guān)注,尤其是在快速評估和預測產(chǎn)量方面[6]。近年來,有學者將注入量作為輸入數(shù)據(jù)、產(chǎn)出量作為輸出數(shù)據(jù),利用機器學習方法來推斷注水開發(fā)油藏的注采關(guān)系[7-8]。
油氣行業(yè)的主要挑戰(zhàn)之一是數(shù)據(jù)和信息的管理。面對大量數(shù)據(jù),工程技術(shù)人員有時難免會忽略有用信息[9]。因此,PDA(油氣數(shù)據(jù)分析)技術(shù)受到廣泛關(guān)注,該技術(shù)利用在油氣行業(yè)中收集的數(shù)據(jù)來分析、模擬、優(yōu)化生產(chǎn)運營[10]。大數(shù)據(jù)分析是數(shù)據(jù)科學的一個分支,涵蓋人工智能、數(shù)據(jù)挖掘、機器學習和模式識別[11]。機器學習研究的是計算機基于數(shù)據(jù)進行學習的能力[12],用于從數(shù)據(jù)中提取預測模型。機器學習有兩種主要類型,分別是監(jiān)督學習和非監(jiān)督學習。監(jiān)督學習通過對數(shù)據(jù)進行分類或標記開展學習,該算法通過分析訓練過的數(shù)據(jù)得到能夠根據(jù)同種特征向量預測新算例的模型[13]。非監(jiān)督學習不標注所有輸入數(shù)據(jù),而監(jiān)督學習不但標注數(shù)據(jù)而且對輸入、輸出數(shù)據(jù)繪圖[14]。人工神經(jīng)網(wǎng)絡是油氣行業(yè)中應用最廣泛的機器學習方法之一,它是由生物神經(jīng)網(wǎng)絡啟發(fā)的一種數(shù)學結(jié)構(gòu)形式,用于依賴大量輸入數(shù)據(jù)的函數(shù)的近似[15]。人工神經(jīng)網(wǎng)絡的名稱源自其骨架結(jié)構(gòu),在其骨架結(jié)構(gòu)中,通過選擇輸入屬性來優(yōu)化具有多個隱藏層的目標函數(shù)。近年來,有研究者應用人工神經(jīng)網(wǎng)絡根據(jù)孔隙度、滲透率、飽和度等地質(zhì)參數(shù)預測原油產(chǎn)量,但由于各參數(shù)之間關(guān)系復雜,預測過程耗時長、費用高[16]。人工神經(jīng)網(wǎng)絡也在油氣行業(yè)的其他領(lǐng)域得到應用[17-21]。然而,應用人工神經(jīng)網(wǎng)絡并不是為了取代常規(guī)模擬手段及工作流程,而是將其作為一種輔助工具,以根據(jù)油氣田數(shù)據(jù)得到更多信息[22]。
本文提出模擬油、氣、水產(chǎn)量與測試壓力、注采數(shù)據(jù)間關(guān)系的人工神經(jīng)網(wǎng)絡,使用特別設計的特征來訓練人工神經(jīng)網(wǎng)絡,建立注水開發(fā)油藏產(chǎn)量預測模型。進行特征提取時,首先利用實測數(shù)據(jù)建立能提供信息而不冗余的派生值(特征),以促進后續(xù)的學習和泛化步驟。采用的特征提取方法以流體物理學和測量數(shù)據(jù)隨機組合為基礎。設計了幾個特征,并采用“蠻力”手段在最終的模型中去掉了對模型預測效果沒有太大影響的特征。本文將對提出的預測模型進行詳細闡述并進行算例分析。
在人工神經(jīng)網(wǎng)絡中,神經(jīng)信息以權(quán)重和偏差的形式儲存,權(quán)重高的輸入項在模型中的作用大[23]。經(jīng)典機器學習方法中將1個數(shù)據(jù)集分為3個數(shù)據(jù)子集,即訓練數(shù)據(jù)子集、驗證數(shù)據(jù)子集和測試數(shù)據(jù)子集[24]。訓練數(shù)據(jù)子集用于計算梯度、更新網(wǎng)絡權(quán)重和偏差。訓練過程中要監(jiān)測驗證數(shù)據(jù)子集的誤差。和訓練數(shù)據(jù)子集的誤差一樣,驗證數(shù)據(jù)子集的誤差一般會在訓練的初始階段減小。當網(wǎng)絡開始過擬合數(shù)據(jù)時,驗證數(shù)據(jù)子集的誤差通常又開始增大。網(wǎng)絡權(quán)重和偏差在驗證數(shù)據(jù)子集誤差最小時被保存。測試數(shù)據(jù)子集用于評價經(jīng)過訓練和驗證的模型。在訓練過程中不使用測試數(shù)據(jù)子集誤差,但是要用它對不同模型進行比較??梢栽谡麄€訓練過程中繪制測試數(shù)據(jù)子集誤差圖,如果測試數(shù)據(jù)子集誤差達到最小時的迭代次數(shù)與驗證數(shù)據(jù)子集誤差達到最小時的迭代次數(shù)相差很大,那么對數(shù)據(jù)集的劃分可能不合理。本文使用馬來盆地 1個真實油藏14年的生產(chǎn)數(shù)據(jù)訓練、驗證、測試人工神經(jīng)網(wǎng)絡。將數(shù)據(jù)分成 4部分:80%的數(shù)據(jù)用于訓練,5%的數(shù)據(jù)用于驗證,5%的數(shù)據(jù)用于測試,其余10%的數(shù)據(jù)用于盲測模型。圖1給出了使用人工神經(jīng)網(wǎng)絡模擬注水開發(fā)油藏流體產(chǎn)量的工作流程。
圖1 注水開發(fā)油藏流體產(chǎn)量模擬工作流程
探索性分析即對數(shù)據(jù)進行收集和分析。數(shù)據(jù)的主要來源是 Pi-ProcessBook軟件,該軟件可獲得安裝在生產(chǎn)井和注入井處的發(fā)送器發(fā)送的實時數(shù)據(jù)。利用Pi-ProcessBook軟件對這些數(shù)據(jù)進行分析,并提取某些特征的正態(tài)分布直方圖??蓮姆植紙D中識別可能的離群值,還可識別測量誤差。在統(tǒng)計學中,離群值是指不屬于某一數(shù)據(jù)群的數(shù)據(jù)點,是遠離其他值的異常觀測值,是分散于其他正常數(shù)據(jù)之外的觀測值。如果數(shù)據(jù)分布為近似正態(tài)分布,那么約 68%的數(shù)據(jù)值與均值的偏差在 1個標準差范圍內(nèi),約95%的數(shù)據(jù)值與均值的偏差在2個標準差范圍內(nèi),約99.7%的數(shù)據(jù)值與均值的偏差在3個標準差范圍內(nèi)。因此,用3σ規(guī)則來檢測離群值,根據(jù)該規(guī)則,任何與均值的偏差達到或超過3個標準差的數(shù)據(jù)值都被視作離群值。
數(shù)據(jù)清理即發(fā)現(xiàn)數(shù)據(jù)集中的錯誤以及剔除或修改數(shù)據(jù)集中的噪聲數(shù)據(jù)。進行數(shù)據(jù)清理時,首先要了解數(shù)據(jù)集,例如了解注入井的注入壓力與流量之間的關(guān)系,然后利用所了解的關(guān)系來計算流量計關(guān)閉時的注入量,并剔除不準確的數(shù)據(jù)。又比如,研究海上油田生產(chǎn)日報,確定重大事件和生產(chǎn)設施的關(guān)停時間等。本文中,通過使用不同來源的數(shù)據(jù)進行交叉校驗,重新分配、微調(diào)日產(chǎn)出量和日注入量數(shù)據(jù)。另外,用基于窗口的檢測方法剔除、替換離群數(shù)據(jù),即先將數(shù)據(jù)劃分到固定大小的窗口中,再檢測、替換離群數(shù)據(jù)。
特征提取與擴展即使用現(xiàn)有數(shù)據(jù)集來創(chuàng)建新的輸入特征,使機器學習起作用并提高其性能。López-I?esta E等[25]提出并實施了將特征提取與擴展結(jié)合起來提高機器學習效果的想法。特征提取是指將輸入數(shù)據(jù)轉(zhuǎn)換或組合成特征,通過應用該方法可以提高機器學習的效果。本文利用基于流體物理學及測量數(shù)據(jù)的隨機組合提取的特征來改進模型,例如利用注水管匯壓力與注水井注入壓力之間的關(guān)系以及采油井油管頭壓力、溫度與氣舉量之間的關(guān)系。特征中的每項都可以具有物理意義,即描述上述關(guān)系。與單獨使用某種數(shù)據(jù)(例如流量、時間)相比,使用根據(jù)流體物理學提取的幾種數(shù)據(jù)的組合,有時甚至是隨機的組合,也能使模型具有更好的預測效果。隨機組合得到的特征中的項不必具有物理意義。此外,可以通過與現(xiàn)有特征相乘或相除得到新的特征。
本文在訓練階段測試了 Levenberg-Marquardt、比例共軛梯度、貝葉斯正則化等 3種算法。Levenberg-Marquardt算法用于求解非線性最小二乘問題,特別是最小二乘曲線的擬合。前人開展了許多用 Levenberg-Marquardt算法訓練神經(jīng)網(wǎng)絡的研究[26-28]。SHI Xiancheng 等[26]研究發(fā)現(xiàn),Levenberg-Marquardt算法的主要局限是它只能通過在高斯-牛頓算法和梯度下降法之間進行插值來求局部最小值,當存在大量訓練樣品和節(jié)點權(quán)重時模型的準確性會受影響。比例共軛梯度算法對內(nèi)存的要求低,所用的計算時間短。但它在線性方程系統(tǒng)中表現(xiàn)較好,在具有許多輸入特征的系統(tǒng)中可能導致過擬合[29]。因此,它不適用于注水開發(fā)油藏數(shù)據(jù)集的訓練。貝葉斯正則化算法適用于本文所開展的研究,因為這種算法應用了能夠避免過擬合的正則化方法。雖然這種方法耗時較長,但是能對嘈雜數(shù)據(jù)集進行很好的泛化[14]。貝葉斯正則化算法通過使均方誤差與權(quán)重的組合達到最小值來更新神經(jīng)網(wǎng)絡的權(quán)重和偏差。一旦完成最小化就可以確定正確的組合,得到泛化良好的網(wǎng)絡。
本文中,90%的數(shù)據(jù)用于訓練、驗證和測試模型,其余 10%的數(shù)據(jù)用于盲測模型。也就是說,90%的數(shù)據(jù)用于訓練模型體系結(jié)構(gòu)、監(jiān)測訓練過程,確定何時停止訓練模型,其余數(shù)據(jù)用于盲測訓練后的模型。在機器學習中,用于訓練的數(shù)據(jù)不能再用于測試[30]。
前人采用過幾種模型評價指標[24,31-32]。本文用均方誤差(MSE)、R2(決定系數(shù))和白度測試對模型進行評價[33]。均方誤差是輸出值與目標值之間的平均平方差。R2值用于衡量輸出值與目標值之間的相關(guān)性。認為在測試階段均方誤差低、R2值接近 1的模型是合適的模型。這兩個指標能夠顯示模型是否提取了全部信息或者是否需要進一步調(diào)整。白度測試即通過繪制直方圖來確定誤差分布。對于一個好模型,誤差直方圖應顯示零均值和一定方差。此外,也可以通過繪制交會圖來對比模擬數(shù)據(jù)和驗證數(shù)據(jù),示例如圖2所示。如果模擬數(shù)據(jù)與驗證數(shù)據(jù)交會圖位于45°線上方,說明模型低估了驗證數(shù)據(jù),反之則說明模型高估了驗證數(shù)據(jù)。理想情況下,模擬數(shù)據(jù)與驗證數(shù)據(jù)交會圖與45°線重合。
圖2 模擬數(shù)據(jù)與驗證數(shù)據(jù)交會圖示例
采用馬來盆地 1個油藏的數(shù)據(jù),鑒于保密原因,只保留了最小限度的細節(jié)。該油藏為飽和油藏,具有小型至中等氣頂,中等至強水體,并在一次采油 7年后通過注水補充能量開發(fā)。圖3所示的PVT物性參數(shù)表明,油藏流體的泡點壓力約為20.68 MPa。
圖3 油藏流體PVT物性參數(shù)
該油藏從1997年7月至2004年7月利用氣頂+水體自然能量驅(qū)動開采。圖4給出了這一階段的流體產(chǎn)量剖面。從2004年至2014年,采用注水開發(fā)方式。圖5、圖6和圖7分別給出了這一階段的產(chǎn)油量、產(chǎn)氣量、產(chǎn)水量與注水量對比曲線,可以看出數(shù)據(jù)非常嘈雜,導致系統(tǒng)無法正確理解和解釋。噪聲是不可避免的問題,它會影響機器學習應用中的數(shù)據(jù)收集和數(shù)據(jù)準備過程。數(shù)據(jù)噪聲由測量工具引起。
圖4 注水前油、氣、水產(chǎn)量
圖5 開始注水后油藏產(chǎn)油量
圖6 開始注水后油藏產(chǎn)氣量
圖7 開始注水后油藏產(chǎn)水量
為了獲得更多有關(guān)注水井與采油井間關(guān)系的信息,本文開發(fā)了一種基于流體物理學的特征提取技術(shù)。換言之,使用了更多特征來改善模型預測效果。將這些特征與多孔介質(zhì)中流體流動的物理原理結(jié)合起來,并對各項進行簡單試錯,直到在驗證數(shù)據(jù)和模擬數(shù)據(jù)之間得到理想的擬合優(yōu)度為止。表1給出了本文模型的輸入項和輸出項。表2給出了基于物理原理及現(xiàn)有輸入項的隨機組合提取的7個特征(編號1—7)。根據(jù)模型的驗證結(jié)果對這些特征進行測試后,只將特征1、特征2和特征5用于油、氣、水產(chǎn)量模擬。表2還給出了表征延時產(chǎn)量的特征(編號8—13)。
表1 模擬油、氣、水產(chǎn)量模型的輸入項和輸出項
表2 根據(jù)現(xiàn)有輸入、輸出項提取的特征
圖8給出了由1個隱藏層、1個輸入層和1個輸出層組成的神經(jīng)網(wǎng)絡的簡單結(jié)構(gòu)。人工神經(jīng)網(wǎng)絡模型中輸入?yún)?shù)個數(shù)和隱藏神經(jīng)元個數(shù)對模型的最終預測效果有重要影響。然而,最優(yōu)人工神經(jīng)網(wǎng)絡結(jié)構(gòu)方面的研究非常少。本文設置了不同的隱藏神經(jīng)元個數(shù),并根據(jù)訓練和驗證結(jié)果確定了模型的最優(yōu)結(jié)構(gòu)。在確定隱藏神經(jīng)元個數(shù)時,為了避免過擬合,很重要的一點是不要有太多參數(shù)。模型的過擬合會導致預測失敗,這是因為過擬合的模型提取了一些殘差。因此,要保持盡可能少的隱藏層數(shù),以避免過擬合。為了確定模型的最優(yōu)結(jié)構(gòu),開展了一系列數(shù)據(jù)集訓練與驗證工作。
圖8 神經(jīng)網(wǎng)絡的簡單結(jié)構(gòu)
在數(shù)據(jù)不穩(wěn)定且需要更高級神經(jīng)網(wǎng)絡的情況下,可以考慮使用更復雜的結(jié)構(gòu),圖9、圖10、圖11所示為常用復雜結(jié)構(gòu)示例。
圖9 具有3個隱藏層的前饋神經(jīng)網(wǎng)絡結(jié)構(gòu)
圖10 層遞歸神經(jīng)網(wǎng)絡結(jié)構(gòu)
圖11 串級前饋神經(jīng)網(wǎng)絡結(jié)構(gòu)
本文使用貝葉斯正則化算法訓練模型。根據(jù)驗證過程中顯示的R2值進行比較,當6次迭代的驗證誤差增加時,訓練步驟停止。貝葉斯正則化算法可以泛化嘈雜數(shù)據(jù)集,同時也可以防止過擬合[14]。當訓練數(shù)據(jù)集的R2值高于測試數(shù)據(jù)集的R2值時,可以判定為過擬合。貝葉斯正則化算法的工作流程參見文獻[34]。
比較了模型預測數(shù)據(jù)與油田實際數(shù)據(jù),計算了模型預測數(shù)據(jù)的均方誤差、R2值,繪制了誤差分布直方圖。當均方誤差和誤差分布直方圖的均值趨近于零且R2值趨近于 1時,認為模型的準確性得到了驗證。Ramirez A M[18]認為,應通過開展誤差分析來確定新模型的準確性。因此,將本文模型與幾種已知的產(chǎn)量預測公式進行了對比,發(fā)現(xiàn)與 Standing、Vazquez-Beggs等經(jīng)驗公式相比,本文模型相對誤差絕對值的平均值最低,為14.732%。對模型進行驗證后,將其用于產(chǎn)量預測。
選擇帶有外部輸入的非線性自回歸網(wǎng)絡(NARX)作為產(chǎn)油量預測模型結(jié)構(gòu),其中外部輸入有d個時間步的延遲。該類型網(wǎng)絡可在給定d個時間步前的輸出值以及其他一系列輸入值時預測輸出值。NARX網(wǎng)絡的結(jié)構(gòu)如下。
NARX網(wǎng)絡以開環(huán)形式建立和訓練。開環(huán)(單步)訓練比閉環(huán)(多步)訓練更有效。開環(huán)訓練時可以使用正確的過去輸出值,進而得到正確的當前輸出值。在訓練過程中將訓練數(shù)據(jù)子集提交給網(wǎng)絡,并根據(jù)訓練數(shù)據(jù)子集的誤差調(diào)整網(wǎng)絡。用驗證數(shù)據(jù)子集測量網(wǎng)絡泛化程度,當泛化不再改善時停止訓練。測試數(shù)據(jù)子集對訓練過程沒有影響,因此可以在訓練過程中及訓練之后獨立測試模型預測效果。表3和表4分別給出了不同隱藏神經(jīng)元個數(shù)條件下有特征提取和無特征提取的模型的預測效果??梢钥闯?,與無特征提取情況下訓練的模型相比,有特征提取情況下訓練后模型的預測效果更好。在選擇訓練算法時,由表 5可知,貝葉斯正則化算法比Levenberg-Marquardt算法和比例共軛梯度算法更好。盡管貝葉斯正則化算法需要的訓練時間更長,但是它能很好地泛化難度大、噪聲多的數(shù)據(jù)集,更適宜于處理本文實例中的產(chǎn)油量數(shù)據(jù)。
表3 在無特征提取情況下訓練后模型的預測效果
表4 在有特征提取情況下訓練后模型的預測效果
表5 不同訓練算法的評價
表6給出了在有特征提取情況下利用貝葉斯正則化算法訓練的產(chǎn)油量模型的最優(yōu)結(jié)構(gòu)相關(guān)信息。
表6 預測產(chǎn)油量的人工神經(jīng)網(wǎng)絡模型的最優(yōu)結(jié)構(gòu)相關(guān)信息
在模型評價過程中,利用占全部數(shù)據(jù) 10%的盲測數(shù)據(jù)(訓練過程中未用的數(shù)據(jù))模擬產(chǎn)油量。由圖12所示的交會圖可知,有特征提取和無特征提取時模型的R2值分別是0.947和0.463,且有特征提取時的模擬產(chǎn)油量與驗證產(chǎn)油量交會圖與 45°線更接近。這說明本文使用的特征提取方法顯著改善了模型的預測效果。由圖13可知,有特征提取時模型的模擬結(jié)果與驗證數(shù)據(jù)非常接近,而無特征提取時則不然。此外,圖14所示的誤差分布直方圖呈現(xiàn)正態(tài)分布趨勢,表明模型的平均誤差接近于零,且該誤差主要為測量誤差。
圖12 產(chǎn)油量模擬數(shù)據(jù)與驗證數(shù)據(jù)交會圖
圖13 實際產(chǎn)油量與模擬產(chǎn)油量比較
圖14 產(chǎn)油量模型的誤差分布直方圖
使用與建立產(chǎn)油量模型相同的方法建立產(chǎn)氣量預測模型,并使用前文提取得到的相同特征改善模型預測效果。用訓練過程中未使用的數(shù)據(jù)進行模型測試或驗證。表7給出了在有特征提取情況下產(chǎn)氣量模型的最優(yōu)結(jié)構(gòu)相關(guān)信息。
表7 預測產(chǎn)氣量的人工神經(jīng)網(wǎng)絡模型的最優(yōu)結(jié)構(gòu)相關(guān)信息
由圖15所示的交會圖可知,有特征提取和無特征提取時模型的R2值分別是0.971和0.812;無特征提取時大部分模型預測結(jié)果高于實際數(shù)據(jù),而有特征提取時多數(shù)模型預測結(jié)果與實際數(shù)據(jù)持平。這再次說明本文采取的特征提取方法提高了模型的預測效果。由圖16可知,與無特征提取時的模型相比,有特征提取時模型的模擬結(jié)果與驗證數(shù)據(jù)更接近。此外,圖17所示的誤差分布直方圖呈現(xiàn)正態(tài)分布趨勢,表明模型的平均誤差接近于零,且該誤差主要為測量誤差。
圖15 產(chǎn)氣量模擬數(shù)據(jù)與驗證數(shù)據(jù)交會圖
圖16 實際產(chǎn)氣量與模擬產(chǎn)氣量比較
圖17 產(chǎn)氣量模型的誤差分布直方圖
使用與建立產(chǎn)油量模型相同的方法建立產(chǎn)水量預測模型。表8給出了在有特征提取情況下產(chǎn)水量模型的最優(yōu)結(jié)構(gòu)相關(guān)信息。
表8 預測產(chǎn)水量的人工神經(jīng)網(wǎng)絡模型的最優(yōu)結(jié)構(gòu)相關(guān)信息
由圖18所示的交會圖可知,有特征提取和無特征提取時模型的R2值分別是0.987和0.891。由圖19可知,與無特征提取時的模型相比,有特征提取時模型的模擬結(jié)果與驗證數(shù)據(jù)更接近。此外,圖20所示的誤差分布直方圖呈現(xiàn)正態(tài)分布趨勢,表明誤差主要為測量誤差。
圖18 產(chǎn)水量模擬數(shù)據(jù)與驗證數(shù)據(jù)交會圖
圖19 實際產(chǎn)水量與模擬產(chǎn)水量比較
圖20 產(chǎn)水量模型的誤差分布直方圖
開發(fā)了人工神經(jīng)網(wǎng)絡模型來預測注水開發(fā)油藏的產(chǎn)油量、產(chǎn)氣量和產(chǎn)水量。與傳統(tǒng)預測模型不同,人工神經(jīng)網(wǎng)絡模型在訓練所選結(jié)構(gòu)時只需少量容易獲得的信息。用基于油藏流體物理學以及變量的隨機組合的特征提取方法來改善模型預測效果。研究發(fā)現(xiàn),用貝葉斯正則化算法訓練的神經(jīng)網(wǎng)絡結(jié)構(gòu)能在訓練和驗證所選神經(jīng)網(wǎng)絡結(jié)構(gòu)的過程中得到最小的均方誤差和最高的決定系數(shù)。這種算法一般需要較長時間,但是能對產(chǎn)油量、產(chǎn)氣量、產(chǎn)水量等嘈雜數(shù)據(jù)集進行良好泛化。用誤差分布直方圖來分析模擬數(shù)據(jù)與驗證數(shù)據(jù)之間的差異,發(fā)現(xiàn)每種流體產(chǎn)量預測模型誤差均主要為測量誤差。
在本文提取的所有特征中,時間步長延遲項可以提高模型的預測效果。這一結(jié)論具有重要意義,因為包括油藏數(shù)值模擬在內(nèi)的許多二次采油產(chǎn)量預測方法并沒有將過去的注入量作為影響當前產(chǎn)量的因素。
符號注釋:
b——偏差;d——延遲時間步數(shù);f——NARX網(wǎng)絡結(jié)構(gòu);m,n——時間步個數(shù);t——時間步序號;u(t+1),u(t),…,u(t-m)——外部輸入數(shù)據(jù);W——權(quán)重;y(t),y(t-1),…,y(t-n)——觀測數(shù)據(jù);y(t+1)——模型預測值;σ——標準差。