国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于帶梯度懲罰深度卷積生成對(duì)抗網(wǎng)絡(luò)的頁巖三維數(shù)字巖心重構(gòu)方法

2021-07-02 08:55王先武
計(jì)算機(jī)應(yīng)用 2021年6期
關(guān)鍵詞:巖心孔隙頁巖

王先武,張 挺*,吉 欣,杜 奕

(1.上海電力大學(xué)計(jì)算機(jī)科學(xué)與技術(shù)學(xué)院,上海 200090;2.上海第二工業(yè)大學(xué)工學(xué)部,上海 201209)

(?通信作者電子郵箱tingzh@shiep.edu.com)

0 引言

油氣資源作為一種不可再生資源,是國(guó)民經(jīng)濟(jì)發(fā)展的重要物質(zhì)基礎(chǔ)。面對(duì)常規(guī)油氣資源需求快速增長(zhǎng)的壓力,非常規(guī)油氣的勘探與開發(fā)逐漸受到人們的重視。頁巖油氣是典型的非常規(guī)油氣,具有源儲(chǔ)一體、分布廣泛、資源潛力大等優(yōu)點(diǎn)。頁巖具有低孔隙度、低滲透率和各項(xiàng)異性等特點(diǎn),導(dǎo)致頁巖油氣的勘探和開采非常困難。頁巖的一些宏觀特性(如孔隙度、滲透率等)取決于它的微觀結(jié)構(gòu),開采頁巖油氣必須要了解掌握頁巖的微觀內(nèi)部結(jié)構(gòu)[1-2]。

三維數(shù)字巖心重構(gòu)技術(shù)是了解掌握頁巖微觀結(jié)構(gòu)的重要手段。三維數(shù)字巖心本質(zhì)上是巖心結(jié)構(gòu)的三維數(shù)字化圖像,通常離散為三維矩陣形式,三維數(shù)字巖心的每個(gè)體素點(diǎn)對(duì)應(yīng)矩陣中單個(gè)元素。近年來,研究三維數(shù)字巖心重構(gòu)的方法大致可分為:物理實(shí)驗(yàn)方法、傳統(tǒng)數(shù)值重構(gòu)方法和機(jī)器學(xué)習(xí)數(shù)值重構(gòu)方法。

常用的物理實(shí)驗(yàn)方法有掃描電子顯微鏡(Scanning Electron Microscope,SEM)、聚焦離子束掃描電子顯微鏡(Focused Ion Beam Scanning Electron Microscope,F(xiàn)IB-SEM)和電腦斷層掃描(Computer Tomography,CT)等。掃描電子顯微鏡主要提供二維圖像,適用于二維數(shù)字巖心的重構(gòu)。FIBSEM 可對(duì)亞微米級(jí)樣品進(jìn)行實(shí)時(shí)成像,但無法完成巖石中納米尺度的孔隙成像。CT 掃描法利用靈敏度極高的探測(cè)器對(duì)巖石進(jìn)行斷層掃描,借助計(jì)算機(jī)直接得到三維數(shù)字巖心圖像。上述方法具有速度快、圖像清晰等特點(diǎn),但由于設(shè)備昂貴和實(shí)驗(yàn)成本高,很難得到廣泛應(yīng)用[2]。

傳統(tǒng)數(shù)值重構(gòu)方法以易于獲取的二維巖石圖像為基礎(chǔ),以二維孔隙形態(tài)特征的統(tǒng)計(jì)信息作為約束條件,利用數(shù)值模擬來完成頁巖的三維數(shù)字巖心重構(gòu)。早期出現(xiàn)的模擬退火法[3]、過程法[4]和順序指示模擬法[5]利用低階統(tǒng)計(jì)信息完成數(shù)字巖心三維重構(gòu),但重構(gòu)孔隙的連通性存在缺陷。之后出現(xiàn)的多點(diǎn)統(tǒng)計(jì)法(Multiple Point Statistics,MPS)[6]利用高階的統(tǒng)計(jì)信息重構(gòu)數(shù)字巖心,側(cè)重于表達(dá)孔隙結(jié)構(gòu)多點(diǎn)之間的相關(guān)性。近年來,在MPS 的基礎(chǔ)上,出現(xiàn)了單一標(biāo)準(zhǔn)方程模擬(Single Normal Equation SIMulation,SNESIM)[7]、濾器模 擬(FILTER SIMulation,F(xiàn)ILTERSIM)[8]、直接采 樣(Direct Sampling)法[9]等改進(jìn)方法。SNESIM 利用搜索樹保存訓(xùn)練圖像的概率信息。FILTERSIM 利用一套過濾器將各個(gè)模式分類,然后對(duì)待模擬區(qū)域進(jìn)行模擬。直接采樣法通過使用自定義的數(shù)據(jù)模板掃描訓(xùn)練圖像,獲取待模擬節(jié)點(diǎn)的狀態(tài)值。但這些方法依然存在著重構(gòu)時(shí)間較長(zhǎng)的問題。

隨著機(jī)器學(xué)習(xí)尤其是深度學(xué)習(xí)的高速發(fā)展,許多數(shù)據(jù)重構(gòu)問題都在其中找到解決方案。深度學(xué)習(xí)是機(jī)器學(xué)習(xí)的一種實(shí)現(xiàn)方式,得益于其強(qiáng)大的特征提取能力,可利用訓(xùn)練圖像的結(jié)構(gòu)特征進(jìn)行重構(gòu),并產(chǎn)生了若干分支算法,例如深度遷移學(xué)習(xí)(Deep Transfer Learning,DTL)[10]、卷積神 經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)[11]和生成 對(duì)抗網(wǎng) 絡(luò)(Generative Adversarial Network,GAN)[12]。

GAN 中包含鑒別器和生成器,其特點(diǎn)在于通過內(nèi)部鑒別器與生成器的對(duì)抗,隱式總結(jié)出數(shù)據(jù)集的數(shù)據(jù)特征,最終通過生成器將總結(jié)出的數(shù)據(jù)特征以目標(biāo)數(shù)據(jù)形式反饋給用戶。鑒別器期望準(zhǔn)確地區(qū)分生成圖像和訓(xùn)練圖像,而生成器的目標(biāo)在于生成可以欺騙鑒別器的高質(zhì)量圖像。完成指定的訓(xùn)練次數(shù)后,GAN 可以提取出訓(xùn)練圖像的整體特征,并利用生成器生成以假亂真的圖像以達(dá)到圖像重構(gòu)的目的。GAN 的缺點(diǎn)在于訓(xùn)練的穩(wěn)定性差,很容易發(fā)生梯度消失和梯度爆炸。深度卷積生成對(duì)抗神經(jīng)網(wǎng)絡(luò)(Deep Convolutional Generative Adversarial Network,DCGAN)[13]、WGAN(Wassertein GAN)[14]是GAN的變體,它們?cè)贕AN的基礎(chǔ)上改變網(wǎng)絡(luò)結(jié)構(gòu)和設(shè)計(jì)新的損失函數(shù),讓網(wǎng)絡(luò)生成樣本質(zhì)量更高,訓(xùn)練過程更加穩(wěn)定。基于DCGAN,本文提出了一種帶有梯度懲罰[15]深度卷積生成對(duì)抗網(wǎng)絡(luò)(Deep Convolutional Generation Adversarial Network with Gradient Penalty,DCGAN-GP)方法,用于頁巖三維數(shù)字巖心重構(gòu)。相較于DCGAN,新加的梯度懲罰項(xiàng)會(huì)使帶梯度懲罰深度卷積生成對(duì)抗網(wǎng)絡(luò)(DCGAN-GP)整體訓(xùn)練更穩(wěn)定,收斂速度和訓(xùn)練速度更快。實(shí)驗(yàn)結(jié)果表明,與其他一些重構(gòu)方法相比,DCGAN-GP重構(gòu)結(jié)果更接近訓(xùn)練圖像,而且重構(gòu)速度具有明顯優(yōu)勢(shì)。

1 本文方法

1.1 GAN

GAN[12]包含兩個(gè)多層感知機(jī)模型:鑒別器D和生成器G。生成器將隨機(jī)噪聲z映射到圖像空間得到生成圖像G(z)。z通常由符合正態(tài)分布Pz的獨(dú)立實(shí)數(shù)組成,代表生成器的隨機(jī)輸入。鑒別器用來計(jì)算隨機(jī)樣本來自“真實(shí)”數(shù)據(jù)的概率。鑒別器期望正確標(biāo)記每個(gè)樣本,而生成器專注于“欺騙”鑒別器,使鑒別器誤判生成圖像G(z)為真實(shí)數(shù)據(jù)。GAN 結(jié)構(gòu)如圖1所示。

圖1 GAN的結(jié)構(gòu)Fig.1 Structure of GAN

鑒別器根據(jù)輸出結(jié)果得到GAN 的損失。通常情況下把最小化GAN的損失函數(shù)當(dāng)作最小化-最大化問題,如下所示:

1.2 本文方法DCGAN-GP

雖然GAN 可以重構(gòu)圖像,但是訓(xùn)練過程不穩(wěn)定,有時(shí)可能會(huì)產(chǎn)生難以預(yù)料的結(jié)果。Sagawa 等[13]提出了一種將CNN和GAN 結(jié)合的DCGAN 方法用于面部圖像重構(gòu)。DCGAN 的生成器和鑒別器能夠?qū)W習(xí)訓(xùn)練圖像的組成結(jié)構(gòu),其總結(jié)出的數(shù)據(jù)集合中的數(shù)據(jù)和特征的關(guān)系具有很強(qiáng)的泛化能力。

由于DCGAN 繼續(xù)沿用了GAN 的損失函數(shù),這樣在訓(xùn)練過程中需要仔細(xì)平衡生成器和鑒別器的優(yōu)化,否則會(huì)導(dǎo)致訓(xùn)練不穩(wěn)定甚至梯度爆炸。因此本文基于DCGAN 提出了一種改進(jìn)的帶有梯度懲罰的DCGAN-GP方法,該方法沿用DCGAN的生成器與鑒別器的結(jié)構(gòu),舍棄了GAN 原有的損失函數(shù),為鑒別器損失函數(shù)添加額外的梯度懲罰。DCGAN-GP鑒別器和生成器的主要結(jié)構(gòu)如圖2所示。

圖2 DCGAN鑒別器與生成器內(nèi)部結(jié)構(gòu)Fig.2 Internal structures of discriminator and generator of DCGAN

圖2 中,三維卷積(3D Convolution,Conv3d)和三維轉(zhuǎn)置卷積(3D Transposed Convolution,ConvTranspose3d)分別是基于CNN 修改之后的跨步卷積(strided convolutions)和分?jǐn)?shù)跨步卷積(fractional-strided convolutions)操作,可以有效地提高訓(xùn)練的穩(wěn)定性。BatchNorm3d 是加速訓(xùn)練和減緩訓(xùn)練過擬合的重要操作[17]。圖2內(nèi)的鑒別器重復(fù)兩次執(zhí)行Conv3d和激活函數(shù)LeakyReLU[18]的組合,最后輸出結(jié)果。生成器共執(zhí)行三次ConvTranspose3d,前兩次ConvTranspose3d 后都會(huì)經(jīng)過BatchNorm3d 和激活函數(shù)ReLU[19]處 理。最后一 次執(zhí)行ConvTranspose3d后,通過激活函數(shù)Tanh處理后輸出結(jié)果。

DCGAN-GP利用額外的梯度懲罰來解決訓(xùn)練中梯度消失和梯度爆炸的問題。首先分別在真實(shí)樣本空間Pr和生成樣本空間Pg中獲取樣本xr和xg,然后在真實(shí)樣本xr和生成樣本xg之間隨機(jī)插值得到,如式(2)、(3)所示:

其中:U[0,1]表示[0,1]上相同間隔的分布概率是等可能的。鑒別器的原始損失函數(shù)如式(4)所示:

其中:?xD(x)表示鑒別器的輸出值在x方向上的梯度;表示鑒別器的輸入為隨機(jī)插值采樣時(shí)的數(shù)學(xué)期望。DCGANGP的鑒別器損失函數(shù)如式(6)所示:

2 重構(gòu)頁巖方法的流程

本文方法基于Tensorflow-GPU 框架進(jìn)行頁巖數(shù)字巖心的重構(gòu)[20]。借助該框架的優(yōu)勢(shì),本文方法可以充分利用圖形處理單元(Graphics Processing Unit,GPU)實(shí)現(xiàn)數(shù)字巖心的重構(gòu),但是用戶不必在使用框架時(shí)為GPU 專門設(shè)置任務(wù)分配和整合重構(gòu)結(jié)果,因此使整個(gè)重構(gòu)過程相對(duì)簡(jiǎn)化。首先,對(duì)頁巖訓(xùn)練圖像進(jìn)行去噪、二值化等預(yù)處理;其次,設(shè)計(jì)網(wǎng)絡(luò)結(jié)構(gòu)、設(shè)置超參數(shù)并完成網(wǎng)絡(luò)參數(shù)初始化;再次,設(shè)定目標(biāo)訓(xùn)練次數(shù)開始訓(xùn)練,訓(xùn)練過程中利用梯度下降反向更新網(wǎng)絡(luò)參數(shù);最后,保存網(wǎng)絡(luò)參數(shù),生成器重構(gòu)出頁巖三維數(shù)字巖心。圖3 所示是利用DCGAN-GP重構(gòu)頁巖三維數(shù)字巖心的流程。

圖3 基于DCGAN-GP重構(gòu)頁巖數(shù)字巖心的流程Fig.3 Flow chart of reconstructing digital core of shale based on DCGAN-GP

3 實(shí)驗(yàn)與結(jié)果分析

3.1 超參數(shù)的選擇

模型中超參數(shù)的選擇主要根據(jù)文獻(xiàn)[15]所推薦的經(jīng)驗(yàn)參數(shù),生成器訓(xùn)練5次進(jìn)行1次參數(shù)更新,鑒別器訓(xùn)練1次進(jìn)行1次參數(shù)更新。鑒別器和生成器的優(yōu)化器都設(shè)定Adam 學(xué)習(xí)率α=1.0×10-4。

3.2 實(shí)驗(yàn)數(shù)據(jù)

首先利用納米CT 獲取頁巖的體數(shù)據(jù),分辨率為64 nm/voxel。從上述頁巖體數(shù)據(jù)截取出尺寸為64×64×64體素的頁巖數(shù)據(jù)作為三維訓(xùn)練圖像(孔隙度=0.154)。該三維訓(xùn)練圖像也可以視為64 幅二維圖像(每幅64×64 像素)依次疊加而成。圖4(a)表示整個(gè)訓(xùn)練圖像的外表面,圖中黑色表示頁巖的孔隙,灰色表示頁巖的骨架。圖4(b)所示為頁巖訓(xùn)練圖像的正交剖面(X=32,Y=32,Z=32)。圖4(c)為頁巖訓(xùn)練圖像的孔隙結(jié)構(gòu)。

圖4 頁巖訓(xùn)練圖像的結(jié)構(gòu)Fig.4 Structure of the shale training image

3.3 重構(gòu)結(jié)果對(duì)比

將三維訓(xùn)練圖像轉(zhuǎn)化為三維數(shù)組用于本文方法中神經(jīng)網(wǎng)絡(luò)的訓(xùn)練。訓(xùn)練完成后,生成器利用保存的參數(shù)直接生成重構(gòu)的頁巖三維數(shù)字巖心(尺寸為64×64×64 體素)。同時(shí),利用經(jīng)典的重構(gòu)方法FILTERSIM、SNESIM、Direct Sampling 和原始的DCGAN 進(jìn)行頁巖數(shù)字巖心的重構(gòu),將重構(gòu)結(jié)果與DCGAN-GP重構(gòu)結(jié)果進(jìn)行對(duì)比。

3.3.1 頁巖重構(gòu)結(jié)果比較

圖5~9 分別是 使用了FILTERSIM、SNESIM、Direct Sampling、DCGAN 和DCGAN-GP 方法重構(gòu)的頁巖三維數(shù)字巖心??梢钥闯?,上述五種方法重構(gòu)的頁巖數(shù)據(jù)都與真實(shí)的頁巖訓(xùn)練圖像有著相似的孔隙分布特征和長(zhǎng)連通性孔隙結(jié)構(gòu),但是其中FILTERSIM 重構(gòu)數(shù)據(jù)的孔隙大小和分布與訓(xùn)練圖像差異較大,其他四種方法重構(gòu)數(shù)據(jù)在孔隙大小和分布方面更接近訓(xùn)練圖像。然而僅憑觀察圖5~9重構(gòu)結(jié)果難以較好判斷重構(gòu)質(zhì)量,因此下面將對(duì)重構(gòu)結(jié)果作進(jìn)一步對(duì)比分析。

圖5 FILTERSIM方法的頁巖重構(gòu)結(jié)果Fig.5 Shale reconstruction results of FILTERSIM method

圖6 SNESIM方法的頁巖重構(gòu)結(jié)果Fig.6 Shale reconstruction results of SNESIM method

圖7 Direct Sampling方法的頁巖重構(gòu)結(jié)果Fig.7 Shale reconstruction results of Direct Sampling method

圖8 DCGAN方法的頁巖重構(gòu)結(jié)果Fig.8 Shale reconstruction results of DCGAN method

圖9 DCGAN-GP方法的頁巖重構(gòu)結(jié)果Fig.9 Shale reconstruction results of DCGAN-GP method

3.3.2 重構(gòu)結(jié)果孔隙度對(duì)比

頁巖孔隙度用來表示頁巖存儲(chǔ)流體的能力,是評(píng)價(jià)頁巖重構(gòu)結(jié)果的重要指標(biāo)之一。頁巖孔隙度φ的定義如下:

其中:Vp為頁巖孔隙體積;V為頁巖體積。為了避免重構(gòu)結(jié)果的偶然性,分別利用FILTERSIM、SNESIM、Direct Sampling、DCGAN 和DCGAN-GP 方法重構(gòu)10 次頁巖數(shù)字巖心。表1 所示為不同方法10 次重構(gòu)結(jié)果的孔隙度。由表1 可以看出,與訓(xùn)練圖像的孔隙度(0.154)相比,DCGAN-GP重構(gòu)結(jié)果的平均孔隙度更接近,表明所提方法重構(gòu)質(zhì)量最好。

表1 不同方法10次重構(gòu)數(shù)字巖心的孔隙度Tab.1 Porosity of digital core reconstructed by different methods for 10 times

3.3.3 重構(gòu)結(jié)果變差函數(shù)對(duì)比

變差函數(shù)被廣泛地用于空間數(shù)據(jù)結(jié)構(gòu)特征的相似性評(píng)價(jià)[21],其定義如下:

其中:E 是數(shù)學(xué)期望值;h是x位置和x+h之間的滯后距離;Z(x)是位置x處的屬性值。變差函數(shù)主要反映一定方向上的空間兩點(diǎn)變量之間的相關(guān)性和變異性,如果重構(gòu)結(jié)果的變差函數(shù)曲線與訓(xùn)練圖像的曲線越貼合,那么重構(gòu)結(jié)果與訓(xùn)練圖像的特征相似度越高;否則說明差異較大。

將FILTERSIM、SNESIM、Direct Sampling、DCGAN 和DCGAN-GP 方法的重構(gòu)結(jié)果與訓(xùn)練圖像的變差函數(shù)進(jìn)行對(duì)比。圖10(a)、(b)、(c)分別展示了各重構(gòu)方法在X、Y、Z方向上的變差函數(shù)曲線,可以看出DCGAN-GP 與訓(xùn)練圖像的變差函數(shù)最為相似。

圖10 頁巖重構(gòu)結(jié)果的變差函數(shù)對(duì)比Fig.10 Comparison of variograms of shale reconstruction results

3.3.4 重構(gòu)結(jié)果孔隙數(shù)量和分布對(duì)比

對(duì)FILTERSIM、SNESIM、Direct Sampling、DCGAN 和DCGAN-GP 方法的重構(gòu)結(jié)果進(jìn)行孔隙數(shù)量、孔隙尺寸和孔隙尺寸分布分析。表2所示為訓(xùn)練圖像和各重構(gòu)方法10次重構(gòu)結(jié)果的平均孔隙數(shù)量。表3給出了訓(xùn)練圖像和各重構(gòu)方法10次重構(gòu)結(jié)果的孔隙最大值、最小值以及平均孔隙直徑。圖11所示為訓(xùn)練圖像和各重構(gòu)方法10 次重構(gòu)結(jié)果的平均孔隙直徑分布。

表3 訓(xùn)練圖像和各重構(gòu)方法10次重構(gòu)結(jié)果的孔隙直徑的平均值、最小值和最大值 單位:voxelTab.3 Mean values,minimum values and maximum values of pore diameters of training images and 10 times reconstruction results of different reconstruction methods unit:voxel

結(jié)合表2~3 和圖11 可以看出,除了在平均孔隙上表現(xiàn)稍差之外,DCGAN-GP 重構(gòu)結(jié)果在孔隙數(shù)量、孔隙最大直徑、孔隙最小直徑和直徑分布上與訓(xùn)練圖像最為相似。

圖11 孔隙直徑分布對(duì)比Fig.11 Comparison of pore diameter distribution

表2 訓(xùn)練圖像和各重構(gòu)方法10次重構(gòu)結(jié)果的平均孔隙數(shù)Tab.2 Average pore number of training image and 10 times reconstruction results of different reconstruction methods

3.3.5 CPU、GPU和內(nèi)存使用率對(duì)比

本文采用的硬件實(shí)驗(yàn)環(huán)境為:Inter Core i7-9700k 4.1 GHz CPU,16 GB 內(nèi)存,GeForce RTX2070s GPU(8 GB 顯存)。表4 所示是FILTERSIM、SNESIM、Direct Sampling、DCGAN 和DCGAN-GP 方法重構(gòu)10 次頁巖數(shù)字巖心時(shí)的CPU與GPU使用情況和內(nèi)存的平均使用量。

從表4 可以看出,三種經(jīng)典重構(gòu)方法對(duì)CPU 和內(nèi)存的占用比較高,而DCGAN-GP 和DCGAN 的CPU 和內(nèi)存使用量相較于另三種方法要低很多。出現(xiàn)上述情況的原因在于DCGAN-GP 和DCGAN 可以通過Tensorflow-GPU 框架把大量計(jì)算交給擅長(zhǎng)浮點(diǎn)運(yùn)算的GPU 處理,加速了網(wǎng)絡(luò)的訓(xùn)練過程。

表4 把總重構(gòu)時(shí)間分為兩部分:“第一次重構(gòu)時(shí)間”和“其他9 次重構(gòu)時(shí)間”?!暗谝淮沃貥?gòu)時(shí)間”指五種方法完成一次重構(gòu)所消耗的時(shí)間,“其他9次重構(gòu)時(shí)間”是五種方法完成9次重構(gòu)所消耗的時(shí)間。由于計(jì)算機(jī)在運(yùn)行算法時(shí)空間分配的隨機(jī)性,所以每次重構(gòu)時(shí)間會(huì)存在少許的不同。DCGAN-GP 和DCGAN 第一次重構(gòu)過程中需要完成網(wǎng)絡(luò)的訓(xùn)練,這個(gè)訓(xùn)練過程花費(fèi)時(shí)間較多,而其他三種經(jīng)典方法第一次重構(gòu)過程中的訓(xùn)練速度相對(duì)較快。雖然DCGAN-GP 和DCGAN 在第一次重構(gòu)時(shí)的訓(xùn)練過程需要大量的訓(xùn)練時(shí)間,但隨后的每次重構(gòu)所消耗的時(shí)間較少,這是因?yàn)镈CGAN-GP 和DCGAN 能夠?qū)⒌谝淮斡?xùn)練完成后得到的參數(shù)保存到文件,后繼的每次重構(gòu)只需要讀取文件內(nèi)的參數(shù)就可快速完成圖像重構(gòu)。與此不同的是,另外三種經(jīng)典重構(gòu)方法每次將訓(xùn)練信息保存在內(nèi)存中,重構(gòu)一旦結(jié)束,所有訓(xùn)練圖像的特征信息將被清除,因此它們每次重構(gòu)都要重新掃描訓(xùn)練圖像以進(jìn)行重新訓(xùn)練,這樣的重復(fù)訓(xùn)練會(huì)消耗大量時(shí)間。即使對(duì)經(jīng)典重構(gòu)方法進(jìn)行改造,未來將這些特征信息也保存在文件中重用,但由于這些方法產(chǎn)生的圖像特征的結(jié)構(gòu)信息非常龐雜,仍然會(huì)導(dǎo)致重構(gòu)速度難以大幅提升。因此,當(dāng)重構(gòu)多個(gè)數(shù)字巖心結(jié)果時(shí),DCGAN-GP在重構(gòu)速度和CPU 使用率方面優(yōu)于其他典型的重構(gòu)方法和DCGAN,在頁巖三維數(shù)字巖心重構(gòu)方面具有優(yōu)勢(shì)。

表4 各方法占用內(nèi)存峰值,CPU、GPU使用量和重構(gòu)時(shí)間對(duì)比Tab.4 Peak memory usage,CPU and GPU usage and reconstruction time comparison of different methods

3.3.6 DCGAN-GP的學(xué)習(xí)率和訓(xùn)練次數(shù)

前文提到,DCGAN-GP使用了較多的超參數(shù),大多數(shù)超參數(shù)可以設(shè)置為經(jīng)驗(yàn)值,其中學(xué)習(xí)率和訓(xùn)練次數(shù)是非常重要的兩個(gè)超參數(shù),因此針對(duì)學(xué)習(xí)率和訓(xùn)練次數(shù)進(jìn)行對(duì)比實(shí)驗(yàn),說明選擇這兩個(gè)超參數(shù)的操作過程。實(shí)驗(yàn)中使用相同的頁巖訓(xùn)練圖像,除學(xué)習(xí)率和訓(xùn)練次數(shù)之外的所有參數(shù)不變。實(shí)驗(yàn)中分別選用3 個(gè)不同的學(xué)習(xí)率:2×10-4、1×10-4、1×10-5。為了方便觀察損失曲線變化,對(duì)鑒別器的損失值進(jìn)行取負(fù)操作。圖12 中黑色部分描繪了鑒別器的損失變化范圍。為了便于觀察損失值的變化趨勢(shì),對(duì)損失函數(shù)做移動(dòng)平均平滑處理[22]得到圖中灰色部分?;疑糠挚梢砸暈樵紦p失曲線的平均值。從圖12 中可以看出,重構(gòu)結(jié)果a、d 的孔隙結(jié)構(gòu)特征與訓(xùn)練圖像差異較大,重構(gòu)結(jié)果c 的孔隙度(0.056)要遠(yuǎn)低于訓(xùn)練圖像孔隙度。當(dāng)學(xué)習(xí)率取1×10-4,訓(xùn)練40 000次時(shí)重構(gòu)結(jié)果b 的孔隙度(0.156)與訓(xùn)練圖像更接近,同時(shí)鑒別器損失值也更接近于0,說明鑒別器對(duì)輸入圖像判斷得更準(zhǔn)確,重構(gòu)結(jié)果更接近訓(xùn)練圖像。

圖12 三種不同學(xué)習(xí)率下鑒別器損失對(duì)比Fig.12 Loss comparison of discriminator under three different learning rates

3.3.7 DCGAN-GP與DCGAN的損失對(duì)比

與DCGAN 相比,DCGAN-GP主要對(duì)鑒別器的損失函數(shù)進(jìn)行了修改,而兩者的生成器損失函數(shù)完全一致,因此通過比較兩者的鑒別器損失來衡量?jī)煞N方法的性能優(yōu)劣。圖13 展示了DCGAN-GP 與DCGAN 鑒別器損失對(duì)比,兩種方法的損失曲線有著明顯區(qū)別。其中DCGAN-GP 的損失曲線在圖中波動(dòng)較小,在68 000次訓(xùn)練前損失曲線處于圖像下方,在68 000次訓(xùn)練之后處于圖像上方。而DCGAN 損失曲線在圖中波動(dòng)較大,在68 000次訓(xùn)練前損失曲線處于圖像上方,在68 000次訓(xùn)練后整體處于圖像下方。由于兩者采取的損失函數(shù)不同,所以圖13中值域的大小不同,但DCGAN-GP 損失變化波動(dòng)相對(duì)較小,而且訓(xùn)練16 000 次到訓(xùn)練40 000 次之間有明顯的梯度下降,所以DCGAN-GP 可以快速確定最優(yōu)訓(xùn)練參數(shù),并且訓(xùn)練速度也快于DCGAN。因此,DCGAN-GP 相比DCGAN 更快速和穩(wěn)定。

圖13 DCGAN-GP與DCGAN的損失對(duì)比Fig.13 Loss comparison between DCGAN-GP and DCGAN

4 結(jié)語

頁巖內(nèi)部結(jié)構(gòu)復(fù)雜,且具有低孔隙度和低滲透率等特點(diǎn),這將會(huì)給頁巖油氣開采帶來巨大挑戰(zhàn)。構(gòu)建頁巖的三維數(shù)字巖心,可以從微觀結(jié)構(gòu)分析頁巖宏觀特性,提高頁巖油氣勘探和開采效率。傳統(tǒng)數(shù)值重構(gòu)技術(shù)每次重構(gòu)時(shí)均要掃描訓(xùn)練圖像以提取巖石內(nèi)部的結(jié)構(gòu)信息,然后利用上述信息重構(gòu)數(shù)字巖心,因此傳統(tǒng)數(shù)值重構(gòu)技術(shù)的統(tǒng)計(jì)信息越高階,其對(duì)硬件要求就越高,消耗時(shí)間也就越多。最近出現(xiàn)的機(jī)器學(xué)習(xí)數(shù)值重構(gòu)方法,利用網(wǎng)絡(luò)隱式提取巖石的特征,可在深度學(xué)習(xí)(如Tensorflow-GPU)框架的幫助下,利用GPU 加速完成網(wǎng)絡(luò)訓(xùn)練,重構(gòu)效率較高。

本文提出了一種基于DCGAN-GP 的三維頁巖重構(gòu)技術(shù),繼承了機(jī)器學(xué)習(xí)數(shù)值重構(gòu)方法重構(gòu)效率高的優(yōu)勢(shì),并且利用帶有梯度懲罰的損失函數(shù)加快網(wǎng)絡(luò)收斂,使整個(gè)訓(xùn)練過程更穩(wěn)定。實(shí)驗(yàn)結(jié)果表明DCGAN-GP 在孔隙度、變差函數(shù)曲線、孔隙分布等方面都優(yōu)于經(jīng)典數(shù)值重構(gòu)方法。DCGAN-GP一次訓(xùn)練、多次運(yùn)行的優(yōu)點(diǎn)有助于提高重構(gòu)頁巖數(shù)字巖心的效率。

猜你喜歡
巖心孔隙頁巖
非飽和土壤中大孔隙流的影響因素研究
儲(chǔ)層孔隙的“滲流” 分類方案及其意義
花崗巖殘積土大孔隙結(jié)構(gòu)定量表征
“貴州復(fù)雜構(gòu)造區(qū)頁巖氣賦存與滲透機(jī)制研究”項(xiàng)目通過驗(yàn)收
淺析一種巖心分割臺(tái)的設(shè)計(jì)
淺析一種巖心分割臺(tái)的設(shè)計(jì)
扎平1井上干柴溝組地層認(rèn)識(shí)
巖心對(duì)復(fù)配型驅(qū)油劑采油效率的影響
酸巖長(zhǎng)、短巖心酸化流動(dòng)模擬實(shí)驗(yàn)研究
赤山斜坡土體大孔隙特征研究