崔揚(yáng),王燕楠,陳萬(wàn)利,張虹,朱丹丹,白敏*
(1. 長(zhǎng)江大學(xué)油氣資源與勘探技術(shù)教育部重點(diǎn)實(shí)驗(yàn)室,湖北武漢 430100;2. 長(zhǎng)江大學(xué)地球物理與石油資源學(xué)院,湖北武漢 430100)
伴隨著石油勘探、開發(fā)技術(shù)的快速發(fā)展,高精度地震勘探要求地震資料的信噪比、分辨率和保真度更高,而高信噪比是高分辨率和高保真度的前提,也是地震資料精細(xì)處理和解釋的必然要求。在野外地震數(shù)據(jù)采集過(guò)程中,由于地質(zhì)條件復(fù)雜多變、環(huán)境噪聲多樣、設(shè)備損耗以及人為因素的干擾,檢波器接收到的地震信號(hào)往往含有聲波、面波、多次波等規(guī)則噪聲和隨機(jī)噪聲,通過(guò)常規(guī)組合和疊加方法難以完全去除,導(dǎo)致地震資料信噪比達(dá)不到準(zhǔn)確刻畫地下地質(zhì)構(gòu)造的要求,對(duì)地震數(shù)據(jù)的偏移成像和反演等造成了消極影響,因此去除地震資料中的噪聲至關(guān)重要。
人們提出了一系列傳統(tǒng)的地震資料去噪方法:以數(shù)學(xué)變換為基礎(chǔ)的方法,包括傅里葉變換[1]、小波變換[2-3]、Curvelet變換[4]和Seislet變換[5-6]等;基于濾波的方法[7];經(jīng)驗(yàn)?zāi)B(tài)分解(Empirical Mode Decomposition,EMD)的方法[8];降秩方法[9-10];壓縮感知和字典學(xué)習(xí)方法等[11-20]。
在基于數(shù)學(xué)變換的方法中,傅里葉變換具有非常重要的地位,是地震資料處理的基礎(chǔ),但傅里葉變換不能同時(shí)兼顧時(shí)間域和頻率域分辨率。小波變換的提出進(jìn)一步優(yōu)化了時(shí)間域和頻率域窗函數(shù)調(diào)節(jié)問(wèn)題,具有時(shí)域和頻域局部化性質(zhì),可較好地分析豐富的頻率成分和非平穩(wěn)信號(hào)。與小波變換相比,Curvelet變換在去除不規(guī)則噪聲的同時(shí)有效信號(hào)的損失較小。Seislet 變換可有效壓縮含有空間假頻的不完整地震數(shù)據(jù),首次在地震數(shù)據(jù)分解和重構(gòu)過(guò)程中預(yù)測(cè)并更新算子,可節(jié)省內(nèi)存空間、提高運(yùn)算速度[6]。耿瑜等[11]根據(jù)地震數(shù)據(jù)的頻散關(guān)系提出了多尺度Dreamlet 變換壓縮方法,壓縮比較Curvelet 變換更高,并且在相同的壓縮條件下,對(duì)壓縮、重建后的數(shù)據(jù)成像,可更好地刻畫重要構(gòu)造。但是,由于地震信號(hào)的特征復(fù)雜、噪聲和有效信號(hào)在變換域存在重疊,因此在變換域準(zhǔn)確分離噪聲而不損傷有效信號(hào)的難度較大。
在基于濾波的方法中,Porsani 等[12]提出了修正Spitz 方法,將全步長(zhǎng)預(yù)測(cè)濾波器修改為半步長(zhǎng),大大提高了噪聲壓制效果。EMD 方法根據(jù)數(shù)據(jù)本身的時(shí)間尺度特征分解信號(hào),不需要預(yù)設(shè)任何基函數(shù)。在理論上該方法適用于所有信號(hào)分解,尤其在處理非平穩(wěn)及非線性數(shù)據(jù)方面優(yōu)勢(shì)明顯。但該方法存在較嚴(yán)重的端點(diǎn)效應(yīng),因此去噪效果不好。
奇異譜分析(Singular Spectrum Analysis,SSA)是經(jīng)典的降秩方法,通過(guò)對(duì)由地震數(shù)據(jù)頻率切片構(gòu)造的Hankel矩陣降秩進(jìn)行去噪。程文婷等[13]基于自相似性和低秩先驗(yàn)的地震數(shù)據(jù)去噪方法,通過(guò)塊匹配算法搜索地震數(shù)據(jù)的自相似塊,再以“自相似塊組”為單元,利用低秩約束壓制隨機(jī)噪聲。Donoho[14]提出了壓縮感知(Compressed Sensing,CS)理論,充分利用信號(hào)稀疏性或可壓縮性采集、編/解碼信號(hào),在降低信號(hào)取樣要求的同時(shí)減少信號(hào)處理時(shí)間和降低成本。唐剛[15]將CS 理論用于地震勘探領(lǐng)域,通過(guò)有機(jī)結(jié)合地震資料采集和數(shù)據(jù)重建,充分利用地震資料在字典變換域的稀疏化特征,在大幅降低采樣率和節(jié)約成本的同時(shí),獲得了理想的處理效果。以上模型驅(qū)動(dòng)去噪方法的優(yōu)點(diǎn)是具有可解釋性,算法過(guò)程中的每一步都具有數(shù)學(xué)或物理意義,缺點(diǎn)是需要根據(jù)某種數(shù)據(jù)類型設(shè)計(jì)對(duì)應(yīng)的問(wèn)題模型,需要更多的先驗(yàn)知識(shí)調(diào)整參數(shù)才能獲得更好的效果,而且簡(jiǎn)單的物理模型往往不能描述高維度地震數(shù)據(jù)的復(fù)雜特征和細(xì)微差別。
模型驅(qū)動(dòng)去噪方法較大地提高了地震資料信噪比,但以字典學(xué)習(xí)和深度學(xué)習(xí)為代表的數(shù)據(jù)驅(qū)動(dòng)方法為壓制地震數(shù)據(jù)的隨機(jī)噪聲提供了新思路。在CS 理論基礎(chǔ)上,Aharon 等[16]提出了一種信號(hào)表示理論,使用字典代替?zhèn)鹘y(tǒng)變換域方法的基函數(shù),通過(guò)在變換域中選擇基函數(shù)的最佳組合分離噪聲和有效信號(hào)。Tang 等[17]將字典學(xué)習(xí)算法引入地震數(shù)據(jù)處理,有效去除了偽Gibbs 現(xiàn)象。Beckouche 等[18]通過(guò)MOD(Method of Optimal Direction)算法構(gòu)造學(xué)習(xí)型字典,結(jié)合隨機(jī)噪聲壓制過(guò)程和字典的訓(xùn)練壓制隨機(jī)噪聲。宋維琪等[19]基于K-SVD(K-Singular Value Decomposition)字典學(xué)習(xí),根據(jù)地震資料本身的特點(diǎn)訓(xùn)練稀疏表示地震資料的最優(yōu)字典,從而分離噪聲與有效信號(hào)達(dá)到去噪的目的。Wu 等[20]利用SGK(Sequence Generalized K-means)算法代替KSVD 字典學(xué)習(xí),提出同步隨機(jī)噪聲去除和重建三維地震數(shù)據(jù)的快速字典學(xué)習(xí)方法,顯著提高了計(jì)算效率。
近年來(lái),大數(shù)據(jù)、人工智能技術(shù)的飛速發(fā)展為短時(shí)間內(nèi)處理海量數(shù)據(jù)提供了保障。目前,地震勘探正向超深層、復(fù)雜構(gòu)造、巖性勘探和非常規(guī)方向發(fā)展,對(duì)地震資料的信噪比和保真度提出了更高要求,神經(jīng)網(wǎng)絡(luò)的出現(xiàn)為處理以上問(wèn)題提供了新思路和途徑。深度學(xué)習(xí)與傳統(tǒng)的模型驅(qū)動(dòng)方法相比,在給定先驗(yàn)信息的前提下,在應(yīng)用過(guò)程中對(duì)參數(shù)的調(diào)節(jié)更少,對(duì)于初學(xué)者更友好。主要的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),如卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)[21]、去噪卷積神經(jīng)網(wǎng)絡(luò)(Denoising Convolutional Neural Network,DnCNN)[22]、U-Net 深度神經(jīng)網(wǎng)絡(luò)[23]、前反饋(Back Propagation,BP)神經(jīng)網(wǎng)絡(luò)[24]、空洞卷積神經(jīng)網(wǎng)絡(luò)[25](Dilated Convolutional Neural Network,DCNN)、殘差網(wǎng)絡(luò)(ResNet)[26]等,在地震隨機(jī)噪聲衰減領(lǐng)域已經(jīng)取得了較好效果。
本文介紹了傳統(tǒng)去噪方法及字典學(xué)習(xí)、深度學(xué)習(xí)等數(shù)據(jù)驅(qū)動(dòng)學(xué)習(xí)方法,通過(guò)簡(jiǎn)述前人研究成果,展望了深度學(xué)習(xí)在地震去噪領(lǐng)域的發(fā)展前景。
20 世紀(jì)50 年代,Turing[27]首次提出了人工智能概念(圖1),機(jī)器學(xué)習(xí)是人工智能的核心,普遍用于人工智能的各個(gè)領(lǐng)域;深度學(xué)習(xí)是機(jī)器學(xué)習(xí)領(lǐng)域的重要組成部分,能夠模仿人腦處理和解釋數(shù)據(jù)。隨著深度學(xué)習(xí)的進(jìn)一步發(fā)展,神經(jīng)網(wǎng)絡(luò)作為一種機(jī)器學(xué)習(xí)算法出現(xiàn)在大眾視野中,它是受人腦運(yùn)行規(guī)律啟發(fā)的一項(xiàng)技術(shù),旨在從信息處理的角度抽象處理人腦神經(jīng)元,通過(guò)建立模型模擬人腦神經(jīng)元的運(yùn)行規(guī)律。這些模型按照輸入和輸出的映射關(guān)系構(gòu)成不同類型的神經(jīng)網(wǎng)絡(luò),從而解決各類實(shí)際問(wèn)題。神經(jīng)網(wǎng)絡(luò)建立了輸入和輸出的復(fù)雜映射關(guān)系,一般由輸入層、輸出層和眾多隱藏層構(gòu)成,輸入特征通過(guò)隱藏層的復(fù)雜變換傳遞到輸出層進(jìn)而得到輸出結(jié)果,深層節(jié)點(diǎn)可以會(huì)聚、合并、重組上一層的特征,從而識(shí)別復(fù)雜特征。因此各種具有獨(dú)特神經(jīng)處理單元和復(fù)雜層次結(jié)構(gòu)的神經(jīng)網(wǎng)絡(luò)不斷涌現(xiàn),Lecun 等[21]提出的LeNet在當(dāng)時(shí)的學(xué)術(shù)界和工業(yè)界受到廣泛關(guān)注,隨后不斷出現(xiàn)許多典型的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),如AlexNet[28]、VGGNet[29]、U-Net、ResNet、循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)、生成對(duì)抗神經(jīng)網(wǎng)絡(luò)(Generative Adversarial Network,GAN)和深度置信等網(wǎng)絡(luò),這些網(wǎng)絡(luò)在圖像識(shí)別、醫(yī)學(xué)成像、信號(hào)處理以及人工地震等領(lǐng)域發(fā)揮了巨大作用。
圖1 人工智能、機(jī)器學(xué)習(xí)與深度學(xué)習(xí)的關(guān)系
本文介紹幾種典型的去噪神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),包括CNN、DnCNN、U-Net、BP、DCNN、ResNet 等,并分析網(wǎng)絡(luò)性能和隨機(jī)噪聲衰減結(jié)果。
首先介紹CNN 及其優(yōu)點(diǎn),其次闡述CNN 的發(fā)展現(xiàn)狀,再重點(diǎn)描述多粒度特征融合CNN(Multigranularity Feature Fusion CNN,MFFCNN)的網(wǎng)絡(luò)結(jié)構(gòu)與去隨機(jī)噪聲效果,并對(duì)比5種方法的去噪結(jié)果,最后總結(jié)了CNN 的不足。
CNN 已經(jīng)成功用于地震資料隨機(jī)噪聲衰減領(lǐng)域。CNN 具有局部連接、權(quán)值共享和池化操作的獨(dú)特操作,大大減小了參數(shù)使用量,提高了網(wǎng)絡(luò)運(yùn)算效率,最先用于地震隨機(jī)噪聲衰減。
韓衛(wèi)雪等[30]構(gòu)建了一種適用于地震資料去噪的CNN,并成功用于海上疊前地震數(shù)據(jù)和陸地疊后地震數(shù)據(jù)隨機(jī)噪聲衰減,實(shí)驗(yàn)數(shù)據(jù)顯示該方法的隨機(jī)噪聲去除效果優(yōu)于小波變換、曲波變換等傳統(tǒng)方法。針對(duì)利用CNN 進(jìn)行地震資料去噪的結(jié)構(gòu)選擇具有盲目性的問(wèn)題,Zhang 等[31]利用稀疏自動(dòng)編碼器有效衰減了地震數(shù)據(jù)隨機(jī)噪聲,并保留了數(shù)據(jù)的細(xì)微特征。Dong 等[32]通過(guò)構(gòu)建噪聲集訓(xùn)練不同區(qū)域的去噪模型,有效抑制了不同地區(qū)的地震隨機(jī)噪聲。Yang 等[33]提出了一種智能CNN 降噪框架,可以自適應(yīng)地捕捉地震資料中的有效信號(hào),獲得去噪信號(hào)。利用激活函數(shù)指數(shù)線性單元(Exponential Linear Units,ELU)和Adam 優(yōu)化算法訓(xùn)練網(wǎng)絡(luò),ELU 能夠緩解負(fù)區(qū)間的梯度消失,提高了網(wǎng)絡(luò)對(duì)負(fù)尺度有效信息的提取能力,有效提升了隨機(jī)噪聲衰減效果。向奎[34]通過(guò)改進(jìn)圖像超分辨率重構(gòu)領(lǐng)域的超分辨率CNN(Super Resolution Convolutional Neural Network,SRCNN)[35]衰減地震道集隨機(jī)噪聲。改進(jìn)的SRCNN 直接從輸入圖像和輸出圖像學(xué)習(xí)端到端的映射,可將含噪道集視為低分辨率圖像,去噪道集視為高分辨率圖像。該映射以從輸入圖片到輸出圖片的CNN 的形式表示。SRCNN 兼具結(jié)構(gòu)簡(jiǎn)單和參數(shù)調(diào)整方便的優(yōu)點(diǎn),不僅圖像處理水平很高,而且實(shí)現(xiàn)了即時(shí)可用的高速實(shí)用性。
大多數(shù)CNN 采用監(jiān)督學(xué)習(xí)方式衰減地震隨機(jī)噪聲,需要構(gòu)建大量的無(wú)噪數(shù)據(jù)和含噪數(shù)據(jù)作為訓(xùn)練集,由于難以獲得無(wú)噪數(shù)據(jù),導(dǎo)致監(jiān)督學(xué)習(xí)方法的去噪效果不佳,降低了網(wǎng)絡(luò)的泛化性。使用合成地震數(shù)據(jù)訓(xùn)練網(wǎng)絡(luò)時(shí),由于合成地震記錄與真實(shí)地震記錄在結(jié)構(gòu)上相差較大,大大降低了監(jiān)督學(xué)習(xí)方法的實(shí)際地震數(shù)據(jù)去噪效果。
無(wú)監(jiān)督學(xué)習(xí)克服了難以獲得實(shí)際無(wú)噪地震數(shù)據(jù)的困難,基于概率密度和輸入樣本的相似性學(xué)習(xí)噪聲數(shù)據(jù)和有效信號(hào)的相似性,達(dá)到壓制隨機(jī)噪聲的目的。用于地震數(shù)據(jù)處理領(lǐng)域的無(wú)監(jiān)督學(xué)習(xí)方法主要有三類:第一類是自動(dòng)編碼器(Autoencoder,AE),可以高效地處理含噪地震數(shù)據(jù),并且非線性表示能力較好;第二類是深度圖像先驗(yàn)(Deep Image Prior,DIP),此類方法需要滿足兩個(gè)前提,即噪聲是獨(dú)立分布的,且地震信號(hào)的自相關(guān)性更強(qiáng)。但是,在網(wǎng)絡(luò)訓(xùn)練時(shí)必須要確定噪聲衰減的最優(yōu)迭代次數(shù);第三類是自監(jiān)督深度學(xué)習(xí)(Self-Supervised Learning),將含噪地震數(shù)據(jù)作為輸入和標(biāo)簽訓(xùn)練神經(jīng)網(wǎng)絡(luò),通過(guò)自監(jiān)督損失函數(shù)去噪。自監(jiān)督學(xué)習(xí)方法可以引入監(jiān)督學(xué)習(xí)網(wǎng)絡(luò)的訓(xùn)練模型權(quán)重訓(xùn)練初次全連接層,降低了網(wǎng)絡(luò)模型的訓(xùn)練時(shí)間成本。
Fang 等[36]提出了一種新型無(wú)監(jiān)督學(xué)習(xí)的地震隨機(jī)噪聲衰減方法,可以直接使用含噪標(biāo)簽訓(xùn)練網(wǎng)絡(luò),有效提高了地震資料的信噪比。但該方法對(duì)非零均值噪聲的衰減效果較差,需要進(jìn)行零均值校正。Chen 等[37]提出了一種新的自監(jiān)督學(xué)習(xí)地震數(shù)據(jù)去噪方法,利用含噪數(shù)據(jù)訓(xùn)練網(wǎng)絡(luò),對(duì)丟棄層產(chǎn)生的原始噪聲數(shù)據(jù)進(jìn)行伯努利采樣訓(xùn)練神經(jīng)網(wǎng)絡(luò),在測(cè)試過(guò)程中采用蒙特卡羅(Monte Carlo)自積分法進(jìn)一步提高了網(wǎng)絡(luò)的去噪效果。Wang 等[38]提出了一種基于模型的地震數(shù)據(jù)無(wú)監(jiān)督深度學(xué)習(xí)的去隨機(jī)噪聲方法,在物理模型部分改進(jìn)了迭代軟閾值算法(Iterative Soft Threshold Algorithm,ISTA),并設(shè)計(jì)了一個(gè)平滑懲罰損失函數(shù)計(jì)算可訓(xùn)練參數(shù)的梯度;將由f-x反褶積處理的含噪地震數(shù)據(jù)作為網(wǎng)絡(luò)輸入,經(jīng)過(guò)網(wǎng)絡(luò)的進(jìn)一步處理后輸出去噪地震剖面,不需要地震數(shù)據(jù)的先驗(yàn)信息,具有良好的泛化性,去噪效果優(yōu)于傳統(tǒng)方法以及監(jiān)督學(xué)習(xí)、無(wú)監(jiān)督學(xué)習(xí)去噪方法。
傳統(tǒng)的基于CNN 的地震隨機(jī)噪聲壓制方法大多使用固定大小的卷積核,不能通過(guò)可變大小的卷積核提取不同尺度的地震信號(hào)特征。為了解決這一問(wèn)題,F(xiàn)eng 等[39]使用具有不同尺寸卷積核的多粒度特征融合模塊(Multigranularity Feature Fusion,MFF)提取地震數(shù)據(jù)中不同尺度的波動(dòng)特征,并利用特征融合結(jié)構(gòu)的特征更好地處理地震數(shù)據(jù)的細(xì)節(jié)和紋理信息,提出了MFFCNN 地震隨機(jī)噪聲衰減方法,提高了地震資料去噪效果。首先,MFFCNN 的頭部將輸入數(shù)據(jù)經(jīng)卷積層(Cov)和激活函數(shù)ReLU(Rectified Linear Unit)提取初步特征;然后,將獲得的特征圖送入網(wǎng)絡(luò)結(jié)構(gòu)主體,模塊1、模塊2、模塊3分別采用3×3、5×5、7×7 的卷積核分別從不同的粒度提取潛在特征;最后,經(jīng)過(guò)尾部的卷積層和激活函數(shù)還原輸出(圖2)。
圖2 MFCNN 結(jié)構(gòu)[39]
圖3 為MFFCNN 主體部分的三個(gè)MFF 模塊詳細(xì)結(jié)構(gòu)。由圖可見(jiàn),每個(gè)卷積層的卷積核數(shù)量為16,保證了輸出圖像的通道數(shù)與輸入圖像一致。通過(guò)不同尺寸的卷積核的模塊輸出16×3 的通道數(shù)連接張量,通過(guò)卷積層融合成一個(gè)16×1的張量,使MFF模塊的輸出圖像尺寸與輸入保持一致。最后,將MFF模塊輸入與MFF模塊的輸出的殘差作為網(wǎng)絡(luò)輸出。
圖3 MFFCNN 主體部分的三個(gè)MFF 模塊詳細(xì)結(jié)構(gòu)[39]
圖4 為不同方法的去噪結(jié)果。由圖可見(jiàn):合成地震數(shù)據(jù)(圖4a)添加標(biāo)準(zhǔn)差σ=1.3 的隨機(jī)噪聲后同相軸模糊不清(圖4b),經(jīng)過(guò)6 種方法壓制噪聲后信噪比都得到了相應(yīng)提高(圖4c~圖4h),且都存在一定的有效信號(hào)損失和同相軸彎曲,但是MFFCNN 處理結(jié)果的同相軸最清晰,波形畸變最小,在壓制隨機(jī)噪聲的同時(shí),更好地保證了地震信號(hào)的保真度(圖4h)。
圖4 不同方法的去噪結(jié)果[39]
表1 為不同去噪方法壓制噪聲后的峰值信噪比(PSNR)和結(jié)構(gòu)相似度指數(shù)(Structural Similarity Index,SSIM),其中SSIM 的值越接近1 代表噪聲壓制前、后的地震剖面越相似、效果越好。由表可見(jiàn),隨著輸入數(shù)據(jù)加入的隨機(jī)噪聲越大,各種方法去噪后的PSNR 降低,但是MFFCNN 的去噪效果始終優(yōu)于其他方法,其PSNR、SSIM 始終大于29.575 dB、0.9474。
表1 不同去噪方法壓制噪聲后的PSNR(dB)/SSIM[39]
CNN 作為一種BP 網(wǎng)絡(luò),自由參數(shù)的數(shù)量較少,可以提高訓(xùn)練效率,并且減少特征損失。但是,CNN在壓制地震隨機(jī)噪聲時(shí)具有一定的盲目性,不同的CNN 結(jié)構(gòu)對(duì)地震隨機(jī)噪聲的壓制效果不同。
DnCNN 在CNN 的基礎(chǔ)上使用了更深層次的網(wǎng)絡(luò)結(jié)構(gòu)、殘差算法以及批標(biāo)準(zhǔn)化,噪聲衰減效果更好。Xu 等[40]首先在圖像去噪領(lǐng)域提出了DnCNN。為了在CNN 的基礎(chǔ)上進(jìn)一步壓制地震隨機(jī)噪聲、提高地震數(shù)據(jù)的信噪比,Yu 等[41]將DnCNN 用于地震隨機(jī)噪聲衰減,分別使用不同的卷積層個(gè)數(shù)進(jìn)行去噪試驗(yàn),結(jié)果表明卷積層個(gè)數(shù)為17 時(shí)隨機(jī)噪聲衰減效果最好。但是,DnCNN 仍存在特征圖利用不充分、細(xì)節(jié)特征丟失的缺點(diǎn),導(dǎo)致去噪地震資料存在一定的波形失真。為此,張超銘等[42]進(jìn)一步改進(jìn)DnCNN,使網(wǎng)絡(luò)更適用于地震數(shù)據(jù)去噪。改進(jìn)模型Constrained-DnCNN 在淺層網(wǎng)絡(luò)引入約束卷積提取低層特征并傳遞到深層網(wǎng)絡(luò),因此能夠自主學(xué)習(xí)噪聲殘差特征,并借鑒殘差網(wǎng)絡(luò)的結(jié)構(gòu)設(shè)計(jì),通過(guò)跳連接(Skip Connection)提高網(wǎng)絡(luò)訓(xùn)練效果。結(jié)果表明,Constrained-DnCNN 可以實(shí)現(xiàn)盲去噪,并進(jìn)一步增強(qiáng)去噪效果,提高地震數(shù)據(jù)信噪比。針對(duì)DnCNN 對(duì)復(fù)雜地震數(shù)據(jù)的去噪效果較差、存在波動(dòng)特征損失的問(wèn)題,鐘鐵等[43]提出了多分支去噪神經(jīng)網(wǎng)絡(luò)(Diverse Branch Block Convolutional Neural Networks,DBBCNN),對(duì)沙漠地區(qū)復(fù)雜地震數(shù)據(jù)的隨機(jī)噪聲衰減實(shí)驗(yàn)結(jié)果表明,DBCNN 可以更好地壓制隨機(jī)噪聲,去噪地震數(shù)據(jù)的信噪比較高。Zhong 等[44]利用多尺度去噪卷積神經(jīng)網(wǎng)絡(luò)(Multiscale Denoising Convolutional Neural Network,MSDCNN)壓制地震隨機(jī)噪聲,可在不同尺度提取地震數(shù)據(jù)特征,其跨尺度交互功能提高了去噪精度,特別對(duì)低信噪比地震資料的去噪效果更好,并在更大程度上保留了有效信號(hào)的振幅特性。
DnCNN 的輸入信號(hào)為含噪地震數(shù)據(jù),網(wǎng)絡(luò)共有17個(gè)卷積層,前16層的卷積核尺寸為3×3,步長(zhǎng)為1,卷積核數(shù)量為64。為了使輸出特征圖的大小與網(wǎng)絡(luò)輸入匹配,在卷積后進(jìn)行填充0操作,避免了圖像的特征損失。該網(wǎng)絡(luò)在第1 個(gè)卷積層中使用激活函數(shù)ReLU 對(duì)含噪數(shù)據(jù)歸一化處理;第2~第16 卷積層添加批歸一化處理,加快網(wǎng)絡(luò)收斂速度;第17 卷積層通過(guò)卷積還原輸出,網(wǎng)絡(luò)的輸出為預(yù)測(cè)的隨機(jī)噪聲,經(jīng)過(guò)還原輸出為去噪數(shù)據(jù)(圖5)。
圖5 DnCNN 去噪網(wǎng)絡(luò)結(jié)構(gòu)[41]
DnCNN 是一種利用殘差學(xué)習(xí)和BN 進(jìn)行去噪的CNN,由于DnCNN 為沒(méi)有池化層的全卷積網(wǎng)絡(luò)結(jié)構(gòu),導(dǎo)致內(nèi)部數(shù)據(jù)結(jié)構(gòu)和空間層級(jí)化信息丟失,造成去噪地震數(shù)據(jù)的少部分紋理特征丟失、卷積核感受野較小以及捕獲鄰域信息能力不足的問(wèn)題。
U-Net是改進(jìn)的全卷積網(wǎng)絡(luò),因其結(jié)構(gòu)的形狀類似于字母“U”而得名(圖6)。U-Net 最早由Ronneberger 等[23]提出,目前已成為深度學(xué)習(xí)領(lǐng)域最重要的方法之一,同時(shí)也普遍用于地震隨機(jī)噪聲衰減。
圖6 U-Net 結(jié)構(gòu)[48]
在U-Net結(jié)構(gòu)的基礎(chǔ)上,王鈺清等[45]提出了一種以數(shù)據(jù)增廣和CNN 為基礎(chǔ)的U型網(wǎng)絡(luò),為解決深度學(xué)習(xí)中的數(shù)據(jù)標(biāo)簽問(wèn)題提供了新的途徑和方法。羅仁澤等[46]構(gòu)建了一種較U-Net 更深的殘差U 型網(wǎng)絡(luò)(RU-Net),該網(wǎng)絡(luò)具有強(qiáng)大的特征捕獲能力,引入殘差塊后,通過(guò)對(duì)提取的隨機(jī)噪聲進(jìn)行二次消化、學(xué)習(xí),盡量保留一次學(xué)習(xí)可能丟失的隨機(jī)噪聲特征,使學(xué)習(xí)到的噪聲特征更接近噪聲本質(zhì),因此隨機(jī)噪聲壓制效果優(yōu)于U-Net。Bai等[47]搭建了一種基于U-Net的深度學(xué)習(xí)網(wǎng)絡(luò)壓制地震隨機(jī)噪聲,與U-Net不同的是在編碼器部分添加了Dropout 防止網(wǎng)絡(luò)過(guò)擬合,可以提高網(wǎng)絡(luò)的運(yùn)行效率,網(wǎng)絡(luò)輸出為含噪地震數(shù)據(jù)和去噪地震數(shù)據(jù)之間的殘差。將余弦相似度指數(shù)作為損失函數(shù),可更好地保持去噪地震數(shù)據(jù)同相軸的橫向連續(xù)性。Liu 等[48-49]在前人的基礎(chǔ)上基于U-Net 提出了融入自相似性的無(wú)監(jiān)督地震數(shù)據(jù)噪聲壓制(Noise2Sim)方法,采用相似圖像采樣器生成訓(xùn)練對(duì),提出了相似驅(qū)動(dòng)的自監(jiān)督學(xué)習(xí)(Similarity-informed Self-learning,SISL)模型。在訓(xùn)練過(guò)程中引入正則化約束的損失函數(shù)約束有效信號(hào)損失,有效提高了地震數(shù)據(jù)信噪比。
圖6 為U-Net 結(jié)構(gòu)。由圖可見(jiàn),U-Net 網(wǎng)絡(luò)主要分為編碼和解碼兩個(gè)部分,其中編碼部分使用卷積核尺寸為3×3 的卷積與BN 和ReLU 串聯(lián),使用最大池化(Max Pooling)壓縮特征圖尺寸,轉(zhuǎn)置卷積(CovTranspose)的作用是重構(gòu)特征圖,使用Conat跳連接緩解網(wǎng)絡(luò)訓(xùn)練過(guò)程的過(guò)擬合。
圖7為SISL結(jié)構(gòu)圖。由圖可見(jiàn):將原始含噪數(shù)據(jù)u送入相似圖像采樣器中生成相似噪聲圖像sim(u)。然后,將u作為去噪網(wǎng)絡(luò)fθ的輸入得到去噪后的數(shù)據(jù)fθ(u)。再將fθ(u)送入相似圖像采樣器得到sim[fθ(u)]。使用的混合損失函數(shù)由兩部分組成:①fθ(u)與sim(u)之間的均方誤差損失函數(shù)Lres;②考慮到sim[fθ(u)]和sim(u)之間的差異,引入正則化約束的均方誤差損失函數(shù)Lreg,可以有效地減少有效信號(hào)的損失。圖8、圖9 分別為不同算法的去噪結(jié)果、去除的噪聲剖面。由圖可見(jiàn):①K-SVD(圖8b)和非局部均值(Nonlocal Means,NLM)(圖8c)方法去噪剖面信噪比較高,同相軸較清晰,但是相對(duì)于含噪地震數(shù)據(jù)(圖8a),圖8b、圖8c損失了部分波動(dòng)特征,還存在一些條帶噪聲和剩余隨機(jī)噪聲(圖9a、圖9b),并使部分同相軸過(guò)于平滑;②由于圖8a 中存在非零均值噪聲,由噪聲數(shù)據(jù)的無(wú)監(jiān)督去噪方法(Noise2Void)雖然更好地保留了波動(dòng)特征(圖8d),但噪聲剖面殘存有效信號(hào)(圖9c);③Noise2Sim(圖8e)和SISL(圖8f)方法較好地保護(hù)了有效信號(hào)并壓制了隨機(jī)噪聲,二者總體上去噪效果接近,但圖8e 左上角存在部分波形錯(cuò)亂,噪聲剖面(圖9d、圖9e)的顏色指示SISL(圖9e)更好地保留了有效信號(hào)。因此,SISL 方法可以有效地消除隨機(jī)噪聲,并較好地保留有效信號(hào)。U-Net通過(guò)獨(dú)特的編碼和解碼操作,在地震隨機(jī)噪聲衰減領(lǐng)域已取得較好效果,但仍存在模型泛化性受限和地震數(shù)據(jù)局部細(xì)節(jié)丟失等問(wèn)題。
圖7 SISL 結(jié)構(gòu)圖[48]
圖8 不同算法的去噪結(jié)果[48]
圖9 不同算法去除的噪聲剖面[48]
按誤差反向傳播訓(xùn)練的BP 神經(jīng)網(wǎng)絡(luò)是一種多層前饋網(wǎng)絡(luò),最早由Rumelhart 等[24]提出。圖10 為BP神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)。由圖可見(jiàn),網(wǎng)絡(luò)結(jié)構(gòu)主要包括輸入層、復(fù)雜的隱藏層和輸出層,神經(jīng)元的作用是連接相鄰的層并進(jìn)行相關(guān)計(jì)算。圖11 為BP 神經(jīng)網(wǎng)絡(luò)工作流程。由圖可見(jiàn):噪聲衰減原理是把含噪數(shù)據(jù)作為輸入數(shù)據(jù),然后通過(guò)隱藏層的處理和反向傳播調(diào)整權(quán)值和參數(shù),輸入數(shù)據(jù)從輸入層經(jīng)過(guò)隱藏層逐層處理,然后轉(zhuǎn)入輸出層,每一層的神經(jīng)元狀態(tài)僅受上一層神經(jīng)元狀態(tài)的影響;如果輸出結(jié)果不及預(yù)期,則轉(zhuǎn)入反向傳播,即將誤差信號(hào)沿著連接通路原路返回,不斷修改各神經(jīng)元的權(quán)值,使誤差信號(hào)逐漸降至最小。輸出為去除的隨機(jī)噪聲,再用原始含噪數(shù)據(jù)減去BP 神經(jīng)網(wǎng)絡(luò)輸出的噪聲剖面,即可得到去噪地震數(shù)據(jù)。
圖10 BP 神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)[24]
圖11 BP 神經(jīng)網(wǎng)絡(luò)地震數(shù)據(jù)去噪流程(據(jù)文獻(xiàn)[24]修改)
BP 神經(jīng)網(wǎng)絡(luò)在去噪方面有獨(dú)特優(yōu)勢(shì),它能自動(dòng)學(xué)習(xí)噪聲和地震資料之間的函數(shù)關(guān)系,并且具有網(wǎng)絡(luò)結(jié)構(gòu)簡(jiǎn)單、效果好、普適性強(qiáng)等優(yōu)點(diǎn)。但BP 神經(jīng)網(wǎng)絡(luò)主要用于處理非線性問(wèn)題,對(duì)于線性問(wèn)題,噪聲衰減效果并不理想。
DCNN 在DnCNN 的基礎(chǔ)上擴(kuò)大了卷積層的感受野,能夠進(jìn)一步緩解池化操作造成的特征細(xì)節(jié)丟失問(wèn)題,用于地震隨機(jī)噪聲衰減可更有效地提取地震資料中的波動(dòng)特征,保留更多細(xì)節(jié)。顧航[50]提出了一種基于DCNN 的地震數(shù)據(jù)去噪算法解決DnCNN 去噪后部分紋理信息丟失問(wèn)題。將空洞卷積引入DnCNN結(jié)構(gòu),采用擴(kuò)大感受野的方式獲取更多的地震記錄波動(dòng)特征,以增強(qiáng)網(wǎng)絡(luò)的特征學(xué)習(xí)能力。應(yīng)用空洞卷積改進(jìn)DnCNN 結(jié)構(gòu)構(gòu)建地震數(shù)據(jù)去噪模型,通過(guò)優(yōu)化網(wǎng)絡(luò)擴(kuò)展率、訓(xùn)練集、網(wǎng)絡(luò)參數(shù)提高模型去噪能力。玉琨[51]基于DnCNN 網(wǎng)絡(luò)結(jié)構(gòu)并結(jié)合空洞卷積的優(yōu)勢(shì)改進(jìn) DnCNN 算法:利用空洞卷積核代替?zhèn)鹘y(tǒng)的卷積核,并在不增加參數(shù)的情況下擴(kuò)大CNN 的感受野,設(shè)計(jì)了一個(gè)用于地震資料去噪的對(duì)稱式空洞卷積神經(jīng)網(wǎng)絡(luò)(Symmetric Dilated Convolutional Neural Network,SDCNN)。
SDCNN 將空洞卷積方法引入DnCNN 框架,以空洞卷積代替部分傳統(tǒng)卷積,為網(wǎng)絡(luò)提供了更大的感受野,使地震數(shù)據(jù)的內(nèi)部數(shù)據(jù)結(jié)構(gòu)保留更多的有效信息,并避免了丟失大量有效信息的情況發(fā)生。SDCNN 充分考慮了含噪地震記錄與殘差之間的關(guān)系,擴(kuò)大了卷積視野,便于恢復(fù)地震記錄的紋理信息,其結(jié)構(gòu)如圖12所示。含噪數(shù)據(jù)作為網(wǎng)絡(luò)結(jié)構(gòu)的輸入,經(jīng)過(guò)多層1D、2D、4D 卷積層、BN 和ReLU 激活函數(shù),最終輸出結(jié)果為去噪數(shù)據(jù)。
圖12 SDCNN 結(jié)構(gòu)[53]
DCNN 具有較大的感受野,在提取隨機(jī)噪聲特征時(shí)能利用更大范圍的背景信息,大大增強(qiáng)了信息捕獲能力,既能消除大量的隨機(jī)噪聲,又避免了有效信息的丟失。但由于空洞卷積在常規(guī)卷積核的相鄰權(quán)重之間插入了“0”,因此損失了捕獲信息的連續(xù)性。
He等[26]提出的ResNet是改進(jìn)的深層CNN,在圖像處理領(lǐng)域引起了巨大反響。通過(guò)在卷積層之間添加快捷連接(Shortcut Connection)操作,解決了隨著網(wǎng)絡(luò)層數(shù)加深帶來(lái)的梯度消失問(wèn)題。何凱[52]提出基于雙重殘差結(jié)構(gòu)的CNN 地震隨機(jī)噪聲壓制方法,緩解了CNN 的梯度消失問(wèn)題,可更好地提取地震數(shù)據(jù)特征。結(jié)果表明,該方法在保留有用信息的同時(shí)能夠更好地壓制隨機(jī)噪聲。在地震信號(hào)去噪問(wèn)題中,ResNet通過(guò)逐層殘差學(xué)習(xí),可充分學(xué)習(xí)信號(hào)和噪聲特征。在圖像處理領(lǐng)域,研究表明重復(fù)的配對(duì)操作可以有效地提高網(wǎng)絡(luò)性能。為了進(jìn)一步提高去噪效果,方文倩等[53]將雙重ResNet結(jié)構(gòu)引入地震資料隨機(jī)噪聲衰減,該方法允許將不同層配對(duì)操作的兩個(gè)算子任意組合,可提取豐富的地震數(shù)據(jù)和隨機(jī)噪聲特征,提高了網(wǎng)絡(luò)的隨機(jī)噪聲衰減性能。武國(guó)寧等[54]結(jié)合ResNet的拓?fù)浣Y(jié)構(gòu)與平穩(wěn)小波變換(Wavelet)壓制地震隨機(jī)噪聲,避免了訓(xùn)練過(guò)程中的梯度消失問(wèn)題,可獲得信號(hào)低頻以及不同方向的高頻特征信息。
圖13為小波變換與深度ResNet結(jié)構(gòu)。網(wǎng)絡(luò)輸入為一級(jí)平穩(wěn)Haar小波變換(SWT)得到的低頻以及不同方向的高頻含噪數(shù)據(jù)。ResNet 共有17 層,其中第一層為卷積和激活函數(shù)層(Cov+ReLU),其他層為卷積、批量歸一化和激活函數(shù)層(Cov+BN+ReLU),最后一層為卷積層(Cov)用于重建輸出。輸出為一級(jí)平穩(wěn)Haar小波變換的四個(gè)分量。用輸入數(shù)據(jù)X與標(biāo)簽數(shù)據(jù)Y相減得到的信號(hào)通過(guò)逆平穩(wěn)小波變換(ISWT)得到去噪數(shù)據(jù)。
圖13 小波變換與深度ResNet 結(jié)構(gòu)[54]
圖14 為含有4個(gè)不同斜率的線性同相軸的模擬數(shù)據(jù)去噪效果對(duì)比。由圖可見(jiàn),文獻(xiàn)[54]的方法對(duì)加噪地震數(shù)據(jù)的去噪效果(圖14f)優(yōu)于小波閾值(圖14c)、f-x域反褶積(圖14d)、DnCNN(圖14e)、方法。
圖14 含有4個(gè)不同斜率的線性同相軸的模擬數(shù)據(jù)去噪效果對(duì)比[54]
ResNet的提出解決了由于網(wǎng)絡(luò)層數(shù)過(guò)深帶來(lái)的性能退化問(wèn)題,可以反向更新解決梯度消失和梯度爆炸問(wèn)題,打破了網(wǎng)絡(luò)的不對(duì)稱性,增強(qiáng)了網(wǎng)絡(luò)的泛化性。
目前,由于CNN 等監(jiān)督學(xué)習(xí)方法需要大量的標(biāo)簽數(shù)據(jù),但野外地震數(shù)據(jù)量大、采集成本高以及地震資料保密機(jī)制的限制,難以獲得高質(zhì)量的標(biāo)簽數(shù)據(jù),很難繼續(xù)提高去噪效果。為了解決缺乏真實(shí)地震數(shù)據(jù)的問(wèn)題,人們提出了GAN[55]用于生成數(shù)據(jù)集,但是將GAN 生成的數(shù)據(jù)作為訓(xùn)練集處理結(jié)果可能不盡人意。
Sun 等[56]提出了基于無(wú)監(jiān)督遷移學(xué)習(xí)的地震隨機(jī)噪聲衰減方法,該方法在Batson等[57]提出的自監(jiān)督盲去噪(Noise2self)的基礎(chǔ)上加入遷移學(xué)習(xí)策略。假設(shè)真實(shí)地震信號(hào)是相關(guān)的、噪聲是相互獨(dú)立的,使用一個(gè)不變的值(J-invariant)用于估計(jì)降噪器的去噪性能。利用N2STL(Noise2self Transfer Learning)方法對(duì)含有不同高斯噪聲的2D 疊前和疊后合成地震記錄、2D 野外共反射點(diǎn)道集和3D 疊后地震記錄降噪,在增強(qiáng)地震資料信噪比的同時(shí)更好地保留了深部有效信號(hào),取得了理想的去噪效果。另外,自注意力機(jī)制等網(wǎng)絡(luò)結(jié)構(gòu)的地震資料去噪效果較好。
目前,利用神經(jīng)網(wǎng)絡(luò)壓制地震隨機(jī)噪聲已成為研究熱點(diǎn),人們不斷提出了新的網(wǎng)絡(luò)模型、優(yōu)化算法、學(xué)習(xí)策略以及數(shù)據(jù)集制作方式。CNN、DnCNN和U-Net都是利用卷積操作提取特征,但是它們的網(wǎng)絡(luò)結(jié)構(gòu)不同。DnCNN 在CNN 的基礎(chǔ)上引入BN 和殘差學(xué)習(xí)策略,加快了網(wǎng)絡(luò)的收斂速度;U-Net 在CNN 的基礎(chǔ)上增加了編碼和解碼步驟,分別通過(guò)池化層或下采樣和轉(zhuǎn)置卷積或上采樣實(shí)現(xiàn),能夠提取更高維度的復(fù)雜特征。文中對(duì)比、分析了不同的網(wǎng)絡(luò)結(jié)構(gòu)以及去噪效果(表2)。
采用2D 開源數(shù)據(jù)集[41],將數(shù)據(jù)集劃分為145631 個(gè)標(biāo)簽數(shù)據(jù),并對(duì)每個(gè)標(biāo)簽數(shù)據(jù)添加40%的隨機(jī)噪聲作為訓(xùn)練集(圖15)依次訓(xùn)練。初始學(xué)習(xí)率為0.0001,卷積核尺寸為3×3,步長(zhǎng)為1,利用Adam優(yōu)化算法自動(dòng)調(diào)整學(xué)習(xí)率提高網(wǎng)絡(luò)收斂速度。共迭代80 次,每次送入神經(jīng)網(wǎng)絡(luò)的樣本數(shù)設(shè)置為64。測(cè)試在Ubuntu 操作系統(tǒng)下進(jìn)行,內(nèi)存為32 G,GPU 型號(hào)為NVIDA GeForce RTX 3090。噪聲壓制效果(表3)表明,隨著噪聲比例增加,原始地震數(shù)據(jù)的信噪比SNR 不斷降低,去噪地震數(shù)據(jù)的信噪比SNRCNN、SNRDnCNN顯著提高,且DnCNN 的噪聲壓制效果好于CNN。
表3 DnCNN 和CNN 的去噪前、后的信噪比
圖15 隨機(jī)抽取的訓(xùn)練數(shù)據(jù)和標(biāo)簽數(shù)據(jù)對(duì)
圖16 為實(shí)際地震數(shù)據(jù)去噪結(jié)果。由圖可見(jiàn),對(duì)于原始地震數(shù)據(jù)(圖16a)的加噪數(shù)據(jù)(圖16b),DnCNN 的噪聲壓制效果(圖16d、圖16f)好于CNN(圖16c、圖16e),能夠更好地壓制隨機(jī)噪聲并保留弱振幅地震信號(hào),且圖16d的同相軸更清晰。
圖16 實(shí)際地震數(shù)據(jù)去噪效果
以CNN、DnCNN、U-Net、BP、ResNet 和遷移學(xué)習(xí)等為代表的深度學(xué)習(xí)方法的實(shí)際去噪效果優(yōu)于傳統(tǒng)方法和字典學(xué)習(xí)方法,且不需要設(shè)定結(jié)構(gòu)模型,泛化性更強(qiáng)。利用訓(xùn)練好的網(wǎng)絡(luò)結(jié)構(gòu)去噪時(shí),計(jì)算時(shí)間往往比模型驅(qū)動(dòng)短且精度更高。
但是基于深度學(xué)習(xí)的地震去噪技術(shù)也存在諸多不足:實(shí)際數(shù)據(jù)的去噪效果往往差于合成數(shù)據(jù);普適性不強(qiáng);神經(jīng)網(wǎng)絡(luò)的“黑匣子”特性使其物理可解釋性大大降低;網(wǎng)絡(luò)性能與訓(xùn)練數(shù)據(jù)的泛化性密切相關(guān),若訓(xùn)練集覆蓋所有類型的解,則去噪效往往較好;用于訓(xùn)練網(wǎng)絡(luò)的數(shù)據(jù)集因人而異,難以評(píng)價(jià)網(wǎng)絡(luò)性能。
深度學(xué)習(xí)技術(shù)已經(jīng)成功用于地震去噪領(lǐng)域,但也存在諸多問(wèn)題,期待深度學(xué)習(xí)在以下方面取得進(jìn)展和突破:
(1)搭建適用于不同噪聲的去噪神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),并將更優(yōu)的網(wǎng)絡(luò)結(jié)構(gòu)引入地震隨機(jī)噪聲壓制。目前基于深度學(xué)習(xí)的去噪方法中,大多針對(duì)去除地震隨機(jī)噪聲,而對(duì)于面波、聲波、多次波、繞射波等相干噪聲的壓制方法較少,若能通過(guò)深度學(xué)習(xí)方法去除相干噪聲,將會(huì)大幅提高地震資料處理效率及信噪比。將更多的神經(jīng)網(wǎng)絡(luò)模型引入地震資料去噪領(lǐng)域提高資料處理精度,將成為未來(lái)的研究方向。
(2)將地震信號(hào)轉(zhuǎn)換到變換域構(gòu)造網(wǎng)絡(luò)的損失函數(shù)。在變換域可在一定程度上分離噪聲和有效信號(hào),將變換域的地震信號(hào)作為網(wǎng)絡(luò)損失函數(shù)可進(jìn)一步加快網(wǎng)絡(luò)收斂速度、提高網(wǎng)絡(luò)的預(yù)測(cè)精度,但也存在多次變換的累計(jì)誤差。
(3)改進(jìn)學(xué)習(xí)策略的同時(shí)制作更具代表性的數(shù)據(jù)集,盡可能地使訓(xùn)練數(shù)據(jù)覆蓋所有類型的解,提高網(wǎng)絡(luò)泛化性。對(duì)于基于監(jiān)督學(xué)習(xí)的地震隨機(jī)噪聲衰減方法,訓(xùn)練結(jié)果與訓(xùn)練集的質(zhì)量密切相關(guān),因此制作更具代表性的數(shù)據(jù)集使訓(xùn)練集盡可能地覆蓋所有解,可以提高網(wǎng)絡(luò)的泛化性;采用基于無(wú)監(jiān)督學(xué)習(xí)的方式可以擺脫對(duì)無(wú)噪數(shù)據(jù)的依賴,將含噪數(shù)據(jù)做為訓(xùn)練集也是發(fā)展趨勢(shì)之一。
(4)自動(dòng)化的參數(shù)調(diào)優(yōu)。神經(jīng)網(wǎng)絡(luò)依賴于大量的訓(xùn)練集,而地震數(shù)據(jù)量巨大,造成模型訓(xùn)練時(shí)間過(guò)長(zhǎng)。因此期待自動(dòng)改進(jìn)網(wǎng)絡(luò)參數(shù)的方法,在保證地震資料信噪比的同時(shí),提高網(wǎng)絡(luò)的訓(xùn)練速度。
(5)結(jié)合模型驅(qū)動(dòng)與數(shù)據(jù)驅(qū)動(dòng)的方法。基于模型的方法并不依賴標(biāo)記數(shù)據(jù)學(xué)習(xí)映射,但簡(jiǎn)單的模型往往不能描述高維復(fù)雜數(shù)據(jù)的細(xì)微差別和動(dòng)態(tài)變化,而且每一步算法都需要對(duì)應(yīng)的數(shù)學(xué)/物理模型,不具備泛化性。相比之下,基于數(shù)據(jù)驅(qū)動(dòng)的方法不依賴于解析近似,從復(fù)雜數(shù)據(jù)中提取有效信息,但不具備數(shù)學(xué)可解釋性。采用即插即用等方式,結(jié)合模型驅(qū)動(dòng)與數(shù)據(jù)驅(qū)動(dòng)的方法可以進(jìn)一步探索數(shù)據(jù)驅(qū)動(dòng)和模型驅(qū)動(dòng)的優(yōu)勢(shì)。