宋歡, 毛偉建* , 唐歡歡
1 中國(guó)科學(xué)院精密測(cè)量科學(xué)與技術(shù)創(chuàng)新研究院計(jì)算與勘探地球物理研究中心, 武漢 430077 2 大地測(cè)量與地球動(dòng)力學(xué)國(guó)家重點(diǎn)實(shí)驗(yàn)室, 武漢 430077
在地震勘探中,多次波既可以看成是一種能量很強(qiáng)的干擾噪聲,也可以看成是與一次波類(lèi)似的有用信號(hào).將多次波視為干擾噪聲是因?yàn)槎啻尾ǖ拇嬖谌菀谆煜淮尾ǖ哪芰?,甚至出現(xiàn)多次波同相軸掩蓋一次波同相軸的情況,從而影響地震成像,使反射波形態(tài)發(fā)生畸變,導(dǎo)致地震資料的偏移成像效果降低,甚至導(dǎo)致對(duì)地震資料解釋和地震介質(zhì)構(gòu)造的錯(cuò)誤認(rèn)識(shí).因此,有效壓制多次波已成為地震勘探中的一個(gè)重要問(wèn)題.另一方面,從地震波場(chǎng)傳播過(guò)程來(lái)看,多次波同一次波一樣也是地下反射層的反射,是在地下界面反射或海水面反射一次以上的地震反射波,也蘊(yùn)含著地層結(jié)構(gòu)信息.而且,多次波與一次波相比,在地下行走的射線(xiàn)路徑更長(zhǎng),覆蓋區(qū)域更廣,能照射到一次波無(wú)法照明到的陡傾角地層,因此能攜帶更加豐富的地下結(jié)構(gòu)信息.已有研究表明,將多次波視作有用信號(hào)進(jìn)行偏移成像時(shí),其對(duì)應(yīng)的成像范圍較一次波的成像范圍明顯加寬,成像質(zhì)量也明顯提高,特別是能提高鹽丘下部成像質(zhì)量和照明度(Liu et al., 2011,2016;劉伊克等,2015,2018;劉學(xué)建和劉伊克,2016),這對(duì)認(rèn)清受多次波影響而成像效果不佳區(qū)域的地質(zhì)構(gòu)造特征具有重要的工程應(yīng)用價(jià)值.但是,對(duì)多次波進(jìn)行成像之前,通常需要對(duì)多次波進(jìn)行有效預(yù)測(cè),因此也涉及部分多次波壓制內(nèi)容.
目前,已有的多次波壓制方法根據(jù)原理的不同大致可分為兩類(lèi):濾波法和波動(dòng)理論法.濾波法主要是利用多次波和一次波的差異性完成分離(Weglein et al., 2011).差異性主要體現(xiàn)在兩方面.一是多次波具有周期性,利用這一特性可對(duì)多次波進(jìn)行預(yù)測(cè)進(jìn)而達(dá)到壓制多次波的目的,如預(yù)測(cè)反褶積方法(Treitel, 1969; Morley and Claerbout, 1983).但值得注意的是,只有在零偏移距或近偏移距處,多次波才呈現(xiàn)周期性,所以這類(lèi)方法會(huì)隨著偏移距的增大而降低壓制效果.二是多次波和一次波的動(dòng)校正速度差異,利用這一速度差異可以將動(dòng)校正(NMO)后的多次波和一次波變換到不同域進(jìn)行分離,在變換域中多次波和一次波比在時(shí)空域里更容易分離.常見(jiàn)的方法有F-K濾波(Sengbush, 1983; 吳戰(zhàn)培, 1995)、聚束濾波(胡天躍等, 2000, 2002)和Radon變換(Hampson, 1986; Foster and Mosher, 1992; Sacchi and Ulrych, 1995; Hargreaves et al., 2001; Trad et al., 2003;熊登等,2009; Lu, 2013; Li and Yue, 2017)等.濾波法的原理較為簡(jiǎn)單,在一次波和多次波差異明顯的情況下可以達(dá)到較好的壓制效果,而當(dāng)差異性較小時(shí),該方法的多次波壓制效果就會(huì)受到很大的限制.波動(dòng)理論法則是從波動(dòng)方程出發(fā),根據(jù)地震波的傳播特點(diǎn)建立多次波模型實(shí)現(xiàn)對(duì)多次波的預(yù)測(cè),然后從原始數(shù)據(jù)中將預(yù)測(cè)的多次波自適應(yīng)相減得到衰減后的地震數(shù)據(jù),所以波動(dòng)理論法也稱(chēng)為預(yù)測(cè)相減法.當(dāng)前發(fā)展較成熟的波動(dòng)理論方法有波場(chǎng)外推法(Loewenthal et al., 1976; Wiggins, 1988; Jiao et al., 2002)、反饋迭代法(Berkhout, 2006; Berkhout and Verschuur, 2006; Verschuur and Berkhout, 1997)和逆散射級(jí)數(shù)法(Weglein et al., 1997; 陳小宏和劉華鋒, 2012; 劉伊克等, 2014).波動(dòng)理論法不需要對(duì)地震波場(chǎng)作先驗(yàn)假設(shè),特別是反饋迭代法和逆散射級(jí)數(shù)法不需要任何附加信息就可以壓制多次波,因此適用性廣泛,但方法本身計(jì)算量大,過(guò)程復(fù)雜,且震源子波估計(jì)的準(zhǔn)確性和近偏移距數(shù)據(jù)的缺失會(huì)影響該方法的壓制效果.所以,濾波法和波動(dòng)理論法都有其各自的優(yōu)缺點(diǎn)(張廣利等, 2016).此外,無(wú)論使用濾波法還是波動(dòng)理論法壓制多次波都涉及大規(guī)模科學(xué)計(jì)算.在日常生產(chǎn)中,隨著寬方位、高密度地震數(shù)據(jù)采集方式的出現(xiàn),往往需要對(duì)海量地震勘探數(shù)據(jù)進(jìn)行多次波壓制,導(dǎo)致無(wú)論使用濾波法還是波動(dòng)理論法都面臨著計(jì)算耗時(shí)長(zhǎng)的問(wèn)題.因此,需要發(fā)展一種新的技術(shù)來(lái)提高多次波壓制效率.
近年來(lái),得益于深度學(xué)習(xí)技術(shù)的發(fā)展、海量數(shù)據(jù)資源的積累和計(jì)算能力的增強(qiáng),人工智能技術(shù)引發(fā)了學(xué)術(shù)界、工業(yè)界的廣泛關(guān)注和高度重視(趙改善, 2019).人工智能就其本質(zhì)而言,是對(duì)人的意識(shí)、思維的一種模擬.在人工智能領(lǐng)域最活躍的是機(jī)器學(xué)習(xí),在機(jī)器學(xué)習(xí)中最活躍的是深度學(xué)習(xí).深度學(xué)習(xí)因能學(xué)習(xí)樣本數(shù)據(jù)的內(nèi)在規(guī)律和特征,使機(jī)器能夠像人一樣具有分析學(xué)習(xí)能力,能夠識(shí)別文字、圖像和聲音等數(shù)據(jù),已成為人工智能或機(jī)器學(xué)習(xí)領(lǐng)域研究與應(yīng)用的熱點(diǎn),被越來(lái)越多的學(xué)者應(yīng)用在勘探地球物理中,涉及領(lǐng)域主要包括地震構(gòu)造解釋、地震地層解釋、地震相識(shí)別、地震反演、數(shù)字化巖石物理分析等.在多次波壓制領(lǐng)域,Siahkoohi等(2019)采用生成式對(duì)抗網(wǎng)絡(luò)對(duì)自由表面多次波進(jìn)行了壓制.為了取得較好的多次波壓制效果,在測(cè)試階段,該方法需要Surface-Related Multiple Elimination (SRME)算法提供初步的多次波預(yù)測(cè)結(jié)果作為輸入.
為了繼續(xù)探索和挖掘深度學(xué)習(xí)在多次波壓制研究領(lǐng)域的潛能,本文提出了一種基于深層神經(jīng)網(wǎng)絡(luò)的多次波壓制技術(shù),采用的深層神經(jīng)網(wǎng)絡(luò)是一種改進(jìn)的具有卷積編碼器和卷積解碼器的U-net網(wǎng)絡(luò).U-net網(wǎng)絡(luò)被Hinton和Salakhutdinov(2006)提出, 當(dāng)時(shí)主要用于壓縮圖像和去噪.Ronneberger等(2015)首次將其用于分割醫(yī)療圖像后,該網(wǎng)絡(luò)從此廣泛應(yīng)用于圖像分割領(lǐng)域.然后,本文在大量帶標(biāo)簽訓(xùn)練集上采用監(jiān)督學(xué)習(xí)的方式訓(xùn)練定義的深層神經(jīng)網(wǎng)絡(luò).訓(xùn)練成功的網(wǎng)絡(luò)模型具備分離多次波和一次波的能力,即將含多次波的地震數(shù)據(jù)輸入訓(xùn)練成功的神經(jīng)網(wǎng)絡(luò),可直接快速輸出多次波壓制后的地震數(shù)據(jù),從而避免常規(guī)多次波壓制方法涉及的大規(guī)模計(jì)算.最后,利用工業(yè)界模型數(shù)據(jù)多角度驗(yàn)證了本文方法的有效性.
基于深層神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)多次波壓制的過(guò)程中,網(wǎng)絡(luò)模型的定義及訓(xùn)練是關(guān)鍵.本文在TensorFlow深度學(xué)習(xí)框架下定義網(wǎng)絡(luò)模型,使用的模型是一種改進(jìn)的具有卷積編碼器和卷積解碼器的U-net網(wǎng)絡(luò),其結(jié)構(gòu)如圖1所示.相對(duì)于全連接層編碼器而言,卷積編碼器使用卷積層來(lái)學(xué)習(xí)數(shù)據(jù)特征,能夠避免訓(xùn)練參數(shù)過(guò)多、難以訓(xùn)練和過(guò)擬合的問(wèn)題.而且卷積編碼器可以學(xué)習(xí)數(shù)據(jù)特征的稀疏表達(dá),將高維地震數(shù)據(jù)通過(guò)非線(xiàn)性映射得到低維特征,通過(guò)設(shè)置合適的損失函數(shù),使得提取的低維特征僅來(lái)自一次波信號(hào),從而壓制地震數(shù)據(jù)中的多次波信號(hào).卷積解碼器可以將包含低維特征的信號(hào)映射回高維空間,重構(gòu)多次波壓制后的地震數(shù)據(jù).
從圖1可知,本文使用的深層神經(jīng)網(wǎng)絡(luò)由編碼和解碼兩部分組成.其中,編碼部分包含8個(gè)下采樣模塊,分別為sequential、sequential_1、…、sequential_7,用于提取地震數(shù)據(jù)中的一次波信號(hào)特征.解碼部分包含8個(gè)上采樣模塊,分別為sequential_8、sequential_9、…、sequential_14 和conv2d_transpose_7,用于將編碼部分提取的一次波低維特征還原解碼到原圖尺寸,最終得到多次波壓制后的地震數(shù)據(jù).為了更好地恢復(fù)原始地震數(shù)據(jù)中的一次波信息,在編碼器和解碼器之間采用跳躍式連接,即在每一級(jí)的上采樣過(guò)程中,利用拼接層(Concatenate)將編碼和解碼過(guò)程中對(duì)應(yīng)位置上的特征圖按通道進(jìn)行融合,使得解碼器在進(jìn)行上采樣時(shí)能夠保留更多高層特征圖蘊(yùn)含的高分辨率信息,從而提高圖像分辨率.
圖1 深層神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)圖Fig.1 The structure diagram of deep neural network
每個(gè)下采樣模塊由一個(gè)序貫?zāi)P?Sequential)代表,該Sequential模型由三個(gè)網(wǎng)絡(luò)層線(xiàn)性堆疊而成,分別是卷積層、批歸一化層(Batch Normalization, BN)和激活函數(shù).卷積層采用的卷積方式是“same”,使用“same”方式需要對(duì)原數(shù)據(jù)進(jìn)行零填充,以確保卷積前的數(shù)據(jù)與卷積后的數(shù)據(jù)具有相同大小.為了達(dá)到下采樣的目的,卷積層使用的劃動(dòng)步長(zhǎng)取值為2.激活函數(shù)能實(shí)現(xiàn)去線(xiàn)性化,增加模型對(duì)復(fù)雜問(wèn)題的表達(dá)能力.常見(jiàn)的激活函數(shù)有tanh函數(shù)、sigmoid函數(shù)、ReLU函數(shù).在下采樣模塊中,本文從兩方面考慮選用ReLU函數(shù)作為激活函數(shù).一,ReLU函數(shù)能解決神經(jīng)網(wǎng)絡(luò)訓(xùn)練中一個(gè)非常致命的問(wèn)題:梯度消失.ReLU函數(shù)將小于0的部分直接置0,大于0的部分即為輸入,如式(1)所示,它既實(shí)現(xiàn)了非線(xiàn)性變換,同時(shí)輸入大于0的部分梯度為1.所以從本質(zhì)上來(lái)說(shuō),ReLU解決梯度消失的原則是靠梯度等于1,從而避免連續(xù)相乘的結(jié)果衰減.二,根據(jù)ReLU的定義,信息只能在輸入大于0的區(qū)域進(jìn)行傳播,這帶來(lái)了另一個(gè)優(yōu)點(diǎn)就是稀疏性,稀疏性對(duì)網(wǎng)絡(luò)性能的提高有幫助.在卷積層和激活函數(shù)之間還安插了一個(gè)BN層,目的是為了防止輸入或者網(wǎng)絡(luò)中間某一層的輸出處于激活函數(shù)梯度很小的區(qū)域,這會(huì)導(dǎo)致很慢的學(xué)習(xí)速率甚至陷入長(zhǎng)時(shí)間的停滯.對(duì)訓(xùn)練的每一批數(shù)據(jù)進(jìn)行歸一化處理,即減去均值再除以方差之后,可將數(shù)據(jù)移到激活函數(shù)梯度變化敏感的中心區(qū)域,這不僅是一種對(duì)抗梯度消失的手段,同時(shí)能提高神經(jīng)網(wǎng)絡(luò)的訓(xùn)練效率.
(1)
8個(gè)上采樣模塊中的前7個(gè)同樣由Sequential模型代表,不過(guò),該Sequential模型由四個(gè)網(wǎng)絡(luò)層線(xiàn)性堆疊而成,分別是反卷積層(Conv2DTranspose)、BN層、Dropout層和ReLU激活函數(shù).最后一個(gè)上采樣模塊是一個(gè)自帶tanh激活函數(shù)的反卷積層,它也是輸出層.在編碼部分,原始輸入地震數(shù)據(jù)經(jīng)歷8次下采樣后,分辨率依次縮小了1/2、1/4、1/8、1/16、1/32、1/64、1/128、1/256.對(duì)于最后一層的輸出數(shù)據(jù),需要進(jìn)行256倍的上采樣,以得到原圖一樣的大小.本文的上采樣是通過(guò)反卷積實(shí)現(xiàn)的,采用的反卷積方式同樣是“same”,使用的劃動(dòng)步長(zhǎng)同樣為2.除了BN層和ReLU函數(shù)之外,解碼部分使用的Sequential模型還包含一個(gè)Dropout層.Dropout的直接作用是減少中間特征的數(shù)量,降低每個(gè)特征之間的關(guān)聯(lián)性,從而增強(qiáng)神經(jīng)網(wǎng)絡(luò)模型的泛化能力.
本文采用監(jiān)督學(xué)習(xí)的方式訓(xùn)練神經(jīng)網(wǎng)絡(luò).監(jiān)督學(xué)習(xí)最重要的思想是,在標(biāo)注好的訓(xùn)練集上,通過(guò)不斷優(yōu)化神經(jīng)網(wǎng)絡(luò)參數(shù),使得網(wǎng)絡(luò)模型輸出的預(yù)測(cè)結(jié)果盡量接近真實(shí)結(jié)果.優(yōu)化神經(jīng)網(wǎng)絡(luò)參數(shù)的過(guò)程就是神經(jīng)網(wǎng)絡(luò)的訓(xùn)練過(guò)程.為了取得一個(gè)好的訓(xùn)練效果,需要準(zhǔn)備合適的數(shù)據(jù)集、定義合適的損失函數(shù)、選取合適的優(yōu)化算法和超參數(shù)等,它們與模型是否能訓(xùn)練成功息息相關(guān),并直接決定了模型質(zhì)量.下面將一一對(duì)這些影響因素進(jìn)行詳細(xì)介紹.
1.2.1 準(zhǔn)備數(shù)據(jù)集
為了訓(xùn)練一個(gè)能成功壓制多次波的模型,首先需要提供大量具有代表性的帶標(biāo)簽數(shù)據(jù).帶標(biāo)簽數(shù)據(jù)是指輸入數(shù)據(jù)對(duì)應(yīng)的真實(shí)輸出是已知的.本文制作的帶標(biāo)簽數(shù)據(jù)集,輸入數(shù)據(jù)是原始的含多次波的地震數(shù)據(jù),標(biāo)簽是與原始數(shù)據(jù)一一對(duì)應(yīng)的不含多次波的地震數(shù)據(jù).從帶標(biāo)簽數(shù)據(jù)集中選取部分?jǐn)?shù)據(jù)作為訓(xùn)練集,輸入定義好的神經(jīng)網(wǎng)絡(luò),可訓(xùn)練出最優(yōu)的模型參數(shù),剩余數(shù)據(jù)可作為測(cè)試集,用于評(píng)估模型性能.不過(guò),在訓(xùn)練神經(jīng)網(wǎng)絡(luò)之前,需要對(duì)標(biāo)注好的數(shù)據(jù)集做進(jìn)一步處理以用于深度學(xué)習(xí)算法,包括統(tǒng)一地震數(shù)據(jù)尺寸和歸一化.
在設(shè)計(jì)神經(jīng)網(wǎng)絡(luò)時(shí),會(huì)根據(jù)將要采用的神經(jīng)網(wǎng)絡(luò)和原始地震數(shù)據(jù)大小,定義Input層輸入數(shù)據(jù)尺寸和Output層輸出數(shù)據(jù)尺寸.一旦確定神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),用于訓(xùn)練和測(cè)試該網(wǎng)絡(luò)的所有輸入數(shù)據(jù)尺寸必須與該網(wǎng)絡(luò)Input層的數(shù)據(jù)尺寸一致.如果不一致,需要做相應(yīng)的調(diào)整.具體來(lái)說(shuō),如果輸入的地震數(shù)據(jù)尺寸大于Input層數(shù)據(jù)尺寸,剪切地震數(shù)據(jù)中多出的行和列;如果輸入的地震數(shù)據(jù)尺寸小于Input層數(shù)據(jù)尺寸,通過(guò)補(bǔ)零的方式增加行和列.
對(duì)數(shù)據(jù)集進(jìn)行歸一化處理最根本的目的是讓模型更好更快的收斂.由于鏈?zhǔn)椒▌t的累積效應(yīng),過(guò)大/過(guò)小的輸入值會(huì)導(dǎo)致梯度爆炸或消失,所以將輸入數(shù)據(jù)維護(hù)在一個(gè)大小合適的區(qū)間有助于加速訓(xùn)練.常見(jiàn)的數(shù)據(jù)區(qū)間有[0,1]和(-1,1)兩種,具體采用哪種主要取決于網(wǎng)絡(luò)結(jié)構(gòu).因?yàn)楸疚亩x的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)對(duì)應(yīng)的輸出層使用了一個(gè)tanh激活函數(shù),其對(duì)應(yīng)的輸出結(jié)果分布在(-1,1)之間,所以本文采用的歸一化方法將輸入數(shù)據(jù)歸一化到(-1,1)之間,計(jì)算公式如下所示:
(2)
其中,x為樣本數(shù)據(jù),max(abs(x))為樣本數(shù)據(jù)絕對(duì)值的最大值,xscale為樣本數(shù)據(jù)歸一化后的值.
俗話(huà)說(shuō):“蒼蠅不叮無(wú)縫的蛋”,因?yàn)橛袡C(jī)可乘,才有漏洞可鉆。因此完善各種制度、機(jī)制是加強(qiáng)會(huì)計(jì)人員職業(yè)道德建設(shè)的保障。
1.2.2 定義損失函數(shù)
損失函數(shù)度量的是網(wǎng)絡(luò)模型輸出的預(yù)測(cè)值和真實(shí)值之間的誤差,其中模型在訓(xùn)練數(shù)據(jù)集上的誤差被稱(chēng)為訓(xùn)練誤差,在測(cè)試數(shù)據(jù)集上的誤差稱(chēng)為測(cè)試誤差.一般來(lái)說(shuō)訓(xùn)練誤差是否變小代表著模型的訓(xùn)練過(guò)程是否收斂,而測(cè)試誤差是否足夠小直接與模型對(duì)未知樣本預(yù)測(cè)能力的好壞相關(guān).所以,損失函數(shù)不僅定義了優(yōu)化問(wèn)題,還對(duì)模型是否能訓(xùn)練成功起著至關(guān)重要的作用.
分類(lèi)問(wèn)題和回歸問(wèn)題是監(jiān)督學(xué)習(xí)的兩大種類(lèi).由于本文需要解決的是對(duì)具體數(shù)值的預(yù)測(cè),屬于回歸問(wèn)題.對(duì)于回歸問(wèn)題,最常用的損失函數(shù)是均方誤差(Mean Squared Error,MSE).本文直接采用MSE作為損失函數(shù),它的定義如下:
(3)
其中,yi為原始地震數(shù)據(jù)矩陣y中第i個(gè)元素的標(biāo)簽值,y′i為神經(jīng)網(wǎng)絡(luò)給出的第i個(gè)元素的預(yù)測(cè)值,n為該原始地震數(shù)據(jù)矩陣中所有的元素個(gè)數(shù).
1.2.3 選取優(yōu)化算法
神經(jīng)網(wǎng)絡(luò)的優(yōu)化可分為兩個(gè)階段:第一階段先通過(guò)神經(jīng)網(wǎng)絡(luò)計(jì)算得到預(yù)測(cè)值,并根據(jù)損失函數(shù)的定義計(jì)算誤差;第二階段通過(guò)后向傳播算法計(jì)算損失函數(shù)對(duì)每個(gè)參數(shù)的梯度,然后根據(jù)梯度和學(xué)習(xí)率使用優(yōu)化算法更新每個(gè)參數(shù).最常見(jiàn)的優(yōu)化算法是隨機(jī)梯度下降法(Stochastic Gradient Descent, SGD),及后來(lái)在其基礎(chǔ)上發(fā)展起來(lái)的小批量梯度下降法、沖量梯度下降法等.SGD及其變種都以相同的學(xué)習(xí)率更新每個(gè)參數(shù),這會(huì)導(dǎo)致一個(gè)問(wèn)題:如果學(xué)習(xí)率太小,梯度很大的參數(shù)會(huì)收斂很慢;如果學(xué)習(xí)率太大,接近最優(yōu)值的參數(shù)可能會(huì)不穩(wěn)定.為了避免這個(gè)問(wèn)題,本文使用Adam優(yōu)化算法,該算法采用的是自適應(yīng)學(xué)習(xí)率,即每個(gè)參數(shù)在優(yōu)化的過(guò)程中能根據(jù)自身梯度大小的變化采用不同的學(xué)習(xí)率.不過(guò),我們還是需要手動(dòng)設(shè)置初始學(xué)習(xí)率.除了初始學(xué)習(xí)率,在訓(xùn)練模型的過(guò)程中還需要手動(dòng)設(shè)置的參數(shù)有迭代次數(shù)(iterations)、代數(shù)(epochs)等.為了選取合適的超參數(shù),需要在小數(shù)據(jù)集上有耐心地進(jìn)行反復(fù)實(shí)驗(yàn).
為了證明利用深層神經(jīng)網(wǎng)絡(luò)模型壓制多次波的想法是可行的、結(jié)果是可靠的,本文開(kāi)展了一個(gè)數(shù)值實(shí)驗(yàn),即利用含多次波和不含多次波的帶標(biāo)簽訓(xùn)練集訓(xùn)練深層神經(jīng)網(wǎng)絡(luò),然后利用訓(xùn)練的網(wǎng)絡(luò)模型直接壓制地震數(shù)據(jù)中的多次波.
使用的實(shí)驗(yàn)數(shù)據(jù)是Chevron Gulf of Mexico 2D Elastic Synthetic Seismic Benchmark(Chevron GOM 二維彈性合成地震數(shù)據(jù)),該數(shù)據(jù)是在非均勻分層且包含多個(gè)鹽丘的復(fù)雜地質(zhì)條件下合成的,如圖2 所示,復(fù)雜地質(zhì)地震數(shù)據(jù)更有利于驗(yàn)證訓(xùn)練的網(wǎng)絡(luò)模型壓制多次波的能力.圖2中出現(xiàn)的多種標(biāo)識(shí)將在結(jié)果部分說(shuō)明.
圖2 合成Chevron GOM 二維彈性地震數(shù)據(jù)使用的速度模型Fig.2 The velocity model used by the Chevron GOM two-dimensional elastic-seismic-synthetic benchmark data
為了證明訓(xùn)練的深層神經(jīng)網(wǎng)絡(luò)能代替常規(guī)方法壓制多次波,并取得好的多次波壓制效果.本文首先對(duì)大小為6400的帶標(biāo)簽數(shù)據(jù)集進(jìn)行預(yù)處理,包括按照定義的輸入層數(shù)據(jù)尺寸統(tǒng)一所有的地震數(shù)據(jù)大小,和按照式(2)對(duì)地震數(shù)據(jù)進(jìn)行歸一化.然后在預(yù)處理后的包含320個(gè)帶標(biāo)簽數(shù)據(jù)的訓(xùn)練集上通過(guò)采用Adam優(yōu)化算法最小化目標(biāo)函數(shù)式(3)來(lái)訓(xùn)練深層神經(jīng)網(wǎng)絡(luò),獲取的損失值曲線(xiàn)如圖3所示.在訓(xùn)練過(guò)程中使用的初始學(xué)習(xí)率為2×10-4、迭代次數(shù)為320、代數(shù)為200.從圖3可知,前100代,損失值以較快的速度從-9.5左右減小到-10.6左右,然后隨著代數(shù)的增加損失值逐漸趨于平穩(wěn),在200代時(shí)損失值為-10.7左右,說(shuō)明訓(xùn)練的神經(jīng)網(wǎng)絡(luò)收斂了.最后,利用測(cè)試集評(píng)估訓(xùn)練的神經(jīng)網(wǎng)絡(luò)壓制多次波的能力.
圖3 模型訓(xùn)練時(shí)對(duì)應(yīng)的損失值曲線(xiàn)Fig.3 The training loss curve
圖4—7分別展示了利用訓(xùn)練的神經(jīng)網(wǎng)絡(luò)對(duì)測(cè)試集中四個(gè)具有代表性、且分布在不同地理位置的CMP道集進(jìn)行多次波壓制的結(jié)果.這四個(gè)CMP道集分布在圖2中的四個(gè)紅色圓點(diǎn)處,分別位于38750 m、54750 m、74000 m和95000 m.圖2中四條虛線(xiàn)經(jīng)過(guò)的區(qū)域分別代表了四個(gè)CMP道集對(duì)應(yīng)的地下地質(zhì)情況,其中第一條、第三條和第四條虛線(xiàn)都經(jīng)過(guò)鹽丘本身,第二條位于兩個(gè)鹽丘之間,說(shuō)明選取的這四個(gè)CMP道集對(duì)應(yīng)的地下地質(zhì)情況都很復(fù)雜,通常它們會(huì)比簡(jiǎn)單地下地質(zhì)條件下獲取的CMP道集面臨更大的多次波壓制難度.此外,由于四個(gè)CMP道集具有不同的局部地下地質(zhì)環(huán)境、且間隔較遠(yuǎn),導(dǎo)致不同CMP道集中的一次波(或多次波)具有不同的形態(tài)特征,因此也會(huì)增加神經(jīng)網(wǎng)絡(luò)壓制多次波的難度.
圖4 第一個(gè)CMP道集對(duì)應(yīng)的多次波壓制結(jié)果(a) 含多次波的輸入數(shù)據(jù); (b) 不含多次波的真實(shí)結(jié)果; (c) 深層神經(jīng)網(wǎng)絡(luò)的預(yù)測(cè)結(jié)果; (d) 圖4b與圖4c之間的誤差.Fig.4 The multiples-attenuation results of the first CMP gather(a) The input data with multiples; (b) The target data without multiples; (c) The predicted results of DNN; (d) The bias between Fig.4b and Fig.4c.
圖5 第二個(gè)CMP道集對(duì)應(yīng)的多次波壓制結(jié)果(a) 含多次波的輸入數(shù)據(jù); (b) 不含多次波的真實(shí)結(jié)果; (c) 深層神經(jīng)網(wǎng)絡(luò)的預(yù)測(cè)結(jié)果; (d) 圖5b與圖5c之間的誤差.Fig.5 The multiples-attenuation results of the second CMP gather(a) The input data with multiples; (b) The target data without multiples; (c) The predicted results of DNN; (d) The bias between Fig.5b and Fig.5c.
圖7 第四個(gè)CMP道集對(duì)應(yīng)的多次波壓制結(jié)果(a) 含多次波的輸入數(shù)據(jù); (b) 不含多次波的真實(shí)結(jié)果; (c) 深層神經(jīng)網(wǎng)絡(luò)的預(yù)測(cè)結(jié)果; (d) 圖7b與圖7c之間的誤差.Fig.7 The multiples-attenuation results of the fourth CMP gather(a) The input data with multiples; (b) The target data without multiples; (c) The predicted results of DNN; (d) The bias between Fig.7b and Fig.7c.
圖4—7中的子圖(a)是輸入數(shù)據(jù)(含多次波的CMP道集),子圖(b)是真實(shí)結(jié)果(不含多次波的CMP道集),子圖(c)是利用訓(xùn)練的神經(jīng)網(wǎng)絡(luò)獲取的預(yù)測(cè)結(jié)果(多次波壓制后的CMP道集),子圖(d)是圖(b)減去圖(c)的誤差圖.比較圖4—7中的圖(c—d)可知,四組預(yù)測(cè)結(jié)果與其對(duì)應(yīng)的真實(shí)結(jié)果都基本吻合,說(shuō)明訓(xùn)練的神經(jīng)網(wǎng)絡(luò)能在保留一次波信號(hào)的同時(shí)很好地壓制復(fù)雜地質(zhì)地震數(shù)據(jù)中的多次波,而且對(duì)多次波形態(tài)特征不同的CMP道集也能取得好的多次波壓制效果,說(shuō)明訓(xùn)練的神經(jīng)網(wǎng)絡(luò)還具有很好的泛化能力.泛化是指:在數(shù)據(jù)同分布的假設(shè)下,從訓(xùn)練數(shù)據(jù)中學(xué)習(xí)到的特性,能有效預(yù)測(cè)沒(méi)有見(jiàn)過(guò)但和訓(xùn)練數(shù)據(jù)來(lái)源于同一分布的數(shù)據(jù).
為了更加充分地了解訓(xùn)練的神經(jīng)網(wǎng)絡(luò)壓制多次波和重構(gòu)一次波的能力,本文將以上四個(gè)CMP道集對(duì)應(yīng)的真實(shí)結(jié)果與預(yù)測(cè)結(jié)果的零偏移距道進(jìn)行比較,結(jié)果如圖8所示.圖中的藍(lán)色和紅色曲線(xiàn)分別是真實(shí)的和預(yù)測(cè)的零偏移距道的幅值隨時(shí)間采樣點(diǎn)的變化曲線(xiàn).選取的時(shí)間采樣點(diǎn)數(shù)從800到2000,對(duì)應(yīng)的時(shí)間范圍從3.2 s到8 s.在這個(gè)時(shí)間范圍內(nèi),信號(hào)的幅度較強(qiáng).從圖8可知,整個(gè)時(shí)間段的比較結(jié)果可分為兩部分,從采樣點(diǎn)數(shù)800到黑色箭頭處,一次波能量較強(qiáng),且預(yù)測(cè)值與真實(shí)值高度吻合,說(shuō)明訓(xùn)練的神經(jīng)網(wǎng)絡(luò)在壓制多次波時(shí)能完全重構(gòu)該時(shí)間段的一次波信號(hào);從黑色箭頭處到采樣點(diǎn)數(shù)2000,預(yù)測(cè)值與真實(shí)值吻合得較差些,但我們也能看出吻合趨勢(shì),特別是在一次波能量相對(duì)強(qiáng)的位置,說(shuō)明訓(xùn)練的神經(jīng)網(wǎng)絡(luò)在壓制多次波時(shí)能部分重構(gòu)該時(shí)間段的一次波信號(hào).圖中的黑色箭頭處是多次波首次出現(xiàn)的位置,從含多次波的CMP道集中可以看出,該位置以下多次波的能量較強(qiáng),而一次波的能量大幅衰減且同相軸的連續(xù)性較差.本文提出的基于深層神經(jīng)網(wǎng)絡(luò)壓制多次波的方法通過(guò)學(xué)習(xí)有別于多次波的一次波信號(hào)特征,從原始地震數(shù)據(jù)中重構(gòu)一次波.但是,當(dāng)能量較強(qiáng)的多次波和能量較弱的一次波重疊時(shí),一次波的特征不明顯,使得一次波的特征學(xué)習(xí)不到位,最終導(dǎo)致訓(xùn)練的網(wǎng)絡(luò)難以完全重構(gòu)這部分一次波,所以圖8中多次波較強(qiáng)的地方一次波有一些損傷,導(dǎo)致預(yù)測(cè)的一次波與真實(shí)的一次波難以高度吻合.
圖8 零偏移距道的比較結(jié)果(a) 第一個(gè)CMP道集; (b) 第二個(gè)CMP道集; (c) 第三個(gè)CMP道集; (d) 第四個(gè)CMP道集.Fig.8 The zero-offset trace comparison(a) The first CMP gather; (b) The second CMP gather; (c) The third CMP gather; (d) The fourth CMP gather.
更進(jìn)一步,本文比較了多次波壓制前和壓制后的零偏移距剖面,該剖面由1680個(gè)CMP道集的零偏移距道組成,結(jié)果如圖9所示.該零偏移距剖面的時(shí)間范圍從2.4 s到8 s,覆蓋距離是2.1 km,從2.9 km到5 km,具體位置如圖2中的紅色方框所示,該方框包含一個(gè)完整的鹽丘,有利于驗(yàn)證訓(xùn)練的神經(jīng)網(wǎng)絡(luò)壓制復(fù)雜地質(zhì)地震數(shù)據(jù)多次波的能力.圖9a是多次波壓制前的零偏移距剖面,與不含多次波的真實(shí)的零偏移距剖面(圖9c)進(jìn)行對(duì)比可知,圖9a中的白色箭頭處存在明顯的幅度較強(qiáng)的多次波.利用訓(xùn)練的神經(jīng)網(wǎng)絡(luò)對(duì)零偏移距剖面中的多次波進(jìn)行壓制,結(jié)果如圖9b所示.從圖9b可知,訓(xùn)練的神經(jīng)網(wǎng)絡(luò)能很好地壓制白色箭頭處的多次波,且保幅重構(gòu)大部分一次波能量,只有小部分能量較弱、連續(xù)性較差的深層一次波能量損失了,損失原因在圖8說(shuō)明中有介紹.
圖9 多次波壓制前和壓制后的零偏移距剖面(a) 多次波壓制前的零偏移距剖面; (b) 利用訓(xùn)練的深層神經(jīng)網(wǎng)絡(luò)壓制多次波后的零偏移距剖面; (c) 不含多次波的真實(shí)的零偏移距剖面.Fig.9 The zero-offset profiles before and after multiples attenuation(a) The zero-offset profile before multiples attenuation; (b) The predicted zero-offset profile obtained by DNN after multiples attenuation; (c) The target zero-offset profile without multiples.
此外,在內(nèi)存為8 GB、CPU為E5-1603的普通臺(tái)式計(jì)算機(jī)上可完成整個(gè)深層神經(jīng)網(wǎng)絡(luò)的訓(xùn)練,耗時(shí)24 h 35 min.為了生成多次波壓制后的零偏移距剖面(圖9b),在同樣的計(jì)算環(huán)境下利用訓(xùn)練的神經(jīng)網(wǎng)絡(luò)對(duì)1680個(gè)CMP道集進(jìn)行多次波壓制處理,耗時(shí)僅22 min,完成一個(gè)CMP道集的多次波壓制平均僅需要0.8 s,說(shuō)明深層神經(jīng)網(wǎng)絡(luò)具有很快的多次波壓制速度,而且數(shù)據(jù)量越大,利用深層神經(jīng)網(wǎng)絡(luò)壓制多次波的時(shí)間優(yōu)勢(shì)越明顯,適用于三維地震數(shù)據(jù)的多次波壓制.不過(guò),利用深層神經(jīng)網(wǎng)絡(luò)壓制多次波的時(shí)間是三種時(shí)間的總和:準(zhǔn)備標(biāo)簽數(shù)據(jù)、訓(xùn)練網(wǎng)絡(luò)模型和壓制多次波.一旦模型訓(xùn)練成功,壓制多次波的時(shí)間很短,但準(zhǔn)備標(biāo)簽數(shù)據(jù)和訓(xùn)練網(wǎng)絡(luò)模型需要的時(shí)間相對(duì)較長(zhǎng).為了縮短時(shí)間,后續(xù)研究可利用CPU/GPU異構(gòu)協(xié)同并行計(jì)算完成標(biāo)簽數(shù)據(jù)的準(zhǔn)備和網(wǎng)絡(luò)模型的訓(xùn)練.
本文方法可以用于實(shí)際數(shù)據(jù),但不能將基于Chevron模型數(shù)據(jù)訓(xùn)練的深層神經(jīng)網(wǎng)絡(luò)直接用來(lái)處理實(shí)際數(shù)據(jù),因?yàn)閷?shí)際數(shù)據(jù)與Chevron數(shù)據(jù)不屬于同一分布.在處理實(shí)際數(shù)據(jù)之前,需要利用實(shí)際數(shù)據(jù)制作帶標(biāo)簽數(shù)據(jù)集,然后采用與Chevron數(shù)據(jù)相同的步驟重新訓(xùn)練網(wǎng)絡(luò).對(duì)于Chevron模型數(shù)據(jù)而言,含多次波和不含多次波的地震數(shù)據(jù)是已知的,容易制作帶標(biāo)簽訓(xùn)練集.但對(duì)于實(shí)際數(shù)據(jù)而言,只有含多次波的地震數(shù)據(jù)是已知的.為了制作帶標(biāo)簽數(shù)據(jù)集,需要采用常規(guī)方法壓制實(shí)際數(shù)據(jù)中的多次波,將多次波壓制后的地震數(shù)據(jù)視為標(biāo)簽數(shù)據(jù),然后與原始含多次波的地震數(shù)據(jù)對(duì)應(yīng)起來(lái)完成帶標(biāo)簽訓(xùn)練集的制作.在處理實(shí)際數(shù)據(jù)時(shí),為了節(jié)約時(shí)間,還可以利用遷移學(xué)習(xí),在基于Chevron模型數(shù)據(jù)訓(xùn)練的深層神經(jīng)網(wǎng)絡(luò)上做適當(dāng)微調(diào),避免重頭開(kāi)始訓(xùn)練網(wǎng)絡(luò).利用遷移學(xué)習(xí)處理實(shí)際數(shù)據(jù)也是我們后續(xù)研究的重要方向.
本文提出了一種基于深層神經(jīng)網(wǎng)絡(luò)的多次波壓制技術(shù),將含多次波的地震數(shù)據(jù)輸入訓(xùn)練成功的神經(jīng)網(wǎng)絡(luò),可直接輸出多次波壓制后的地震數(shù)據(jù).通過(guò)比較多次波壓制前、后的CMP道集、零偏移距道振幅和零偏移距剖面可知,本文定義的深層神經(jīng)網(wǎng)絡(luò)能較好地壓制復(fù)雜地質(zhì)地震數(shù)據(jù)中的多次波,且對(duì)測(cè)試集中具有不同多次波形態(tài)特征的地震數(shù)據(jù)也能進(jìn)行多次波壓制處理,具有較好的泛化能力.同時(shí),訓(xùn)練成功的深層神經(jīng)網(wǎng)絡(luò)能在很短的時(shí)間內(nèi)完成一個(gè)CMP道集的多次波壓制,具有較高的多次波壓制效率.文中的結(jié)論是根據(jù)工業(yè)界認(rèn)可的模型數(shù)據(jù)得出,由于缺乏實(shí)測(cè)數(shù)據(jù)的驗(yàn)證,后續(xù)需要收集大量不同工區(qū)采集的實(shí)測(cè)地震數(shù)據(jù)進(jìn)一步驗(yàn)證文中的結(jié)論.
致謝感謝Chevron提供的實(shí)驗(yàn)數(shù)據(jù)(Chevron Gulf of Mexico 2D Elastic Synthetic Seismic Benchmark).