杜睿山,劉文豪,孟令東,付曉飛
(東北石油大學 a.計算機與信息技術學院;b.黑龍江省油氣藏及地下儲庫完整性評價重點實驗室,黑龍江 大慶 163318)
隨著油氣勘探的精細化進程不斷深入,人們對地震數(shù)據(jù)的處理質量要求越來越高,并引起地質學家對小尺度地質構造和油氣分布的再認識,因此,地震數(shù)據(jù)隨機噪聲壓制在地震資料解釋中十分重要。地震噪聲主要包括相干噪聲和隨機噪聲。隨機噪聲是指沒有規(guī)律可循的環(huán)境噪聲和次生散射噪聲等[1]。針對隨機噪聲壓制問題,常用的算法主要有K-L(Karhunen-Loeve)變換濾波[2]、F-X域預測濾波[3]、自適應濾波[4]、Radon變換[5]、Curvelet變換[6]、徑向預測濾波[7]、小波變換[8-9]、奇異值分解[10]和傾角導向中值濾波[11-12]等。但以上方法在實際應用中仍存在模糊有效但不連續(xù)的信息,從而對后續(xù)的地震屬性分析,特別是地質不連續(xù)性分析帶來影響[1,13-15]。通常只能采取人工解釋斷層位置后,再進行非斷層區(qū)噪聲壓制以保證斷層信息不受損失,工作效率低,效果受人工解釋精度的影響較大[1]。不同工區(qū)存在參數(shù)優(yōu)化與適應性問題等。
自AlexNet[16]獲得ImageNet冠軍后,卷積神經網絡被廣泛應用于油氣勘探領域,在全波形反演[17]、地震波場分離[18-19]、地震數(shù)據(jù)噪聲壓制[20-23]、地震相分類[24-25]、頁巖總有機碳含量的預測[26]、巖石相分類[27]、自動斷層檢測[28-31]和河道檢測[32]等方面產生了許多成果。
基于上述基礎,筆者構建一種適合于地震隨機噪聲壓制的深度卷積神經網絡模型,該模型利用非線性特征學習能力,實現(xiàn)自動且高效抑制地震數(shù)據(jù)的隨機噪聲,減少地震資料解釋的誤差。
深度學習模型,又稱深度神經網絡,泛指具有多隱藏層的人工神經網絡,利用許多自然信號是組合層次結構的特性,通過構建參數(shù)化、層級化的結構體系,組合低級特征獲取高級特征完成學習任務[33]。卷積神經網絡使用卷積作為線性濾波算法,這種設計使其在表征結構化數(shù)據(jù)(如圖像等)時性能優(yōu)越。而地震剖面也是一種結構化數(shù)據(jù),因此對地震數(shù)據(jù)的深度學習采用的卷積神經網絡拓撲結構如圖1所示。卷積神經網絡的典型拓撲結構通常包括輸入層、卷積層、池化層、全連接層及輸出層等。待處理數(shù)據(jù)作為網絡的輸入層;卷積層作為特征提取層,每個神經元的輸入與前一層的局部感受野相連接,并提取局部特征,從而確定該局部特征與其他特征間的位置關系;池化層作為特征映射層,每個特征映射為一個平面,上面每個神經單元的權重相同;全連接層將每個局部特征進行組合,從而得到全局特征;輸出層則需根據(jù)網絡的具體用途和網絡結構確定[13]。
圖1 卷積神經網絡拓撲結構Fig.1 The topology of convolutional neural network
假設地震剖面由地震信號與隨機噪聲組成,噪聲壓制是從含噪地層中盡量去除隨機噪聲,恢復原始地層數(shù)據(jù),提高后續(xù)地震資料解釋準確性。地層隨機噪聲壓制的最終目的是獲得原始地層數(shù)據(jù)的一個估計Y0,且Y0=Y。深度學習的基本思想是通過
Y=NNet(X;{W,b})
(1)
構建X和Y之間的映射關系。其中NNet為構建的基于深度學習的地震數(shù)據(jù)噪聲壓制的網絡,W為訓練權重,b為偏置。根據(jù)卷積神經網絡原理,可將噪聲壓制后的數(shù)據(jù)作為網絡的輸出
Y=X-V=NNet(X;{W,b})
(2)
其中X為含噪地層數(shù)據(jù),Y為不含噪原始地層數(shù)據(jù),V為所含的隨機噪聲,這里假設V為高斯白噪聲。在對網絡進行訓練時,選擇了均方誤差(MSE:Mean Squared Error)作為代價函數(shù)。該代價函數(shù)定義如下
(3)
其中θ={ω,b},ω為權重,b為權重,i為樣本數(shù)。R(θ)為正則懲罰函數(shù),λ為懲罰系數(shù)。懲罰函數(shù)能使從地震相圖像中學習到重要特征。L2正則表達式是通用的正則懲罰函數(shù),但它不包含稀疏屬性,L1正則表達式可以誘導稀疏。函數(shù)表達如下
R(θ)=‖ω‖1
(4)
筆者采用自適應矩估計算法[34]優(yōu)化代價函數(shù)。但在隱含層較多的神經網絡中,數(shù)據(jù)通過一定層數(shù)的計算處理后,會出現(xiàn)模型數(shù)據(jù)的分布偏移。批量歸一化(BN:Batch Normalization,BBN)方法可解決深度神經網絡內部的協(xié)方差偏移問題,加快卷積網絡的訓練速度[35]。
筆者在卷積層與激活層之間引入該方法,其算法如下。
輸入:批處理(mini-batch)輸入x∶={x1,…,xm};
輸出:規(guī)范化后的網絡響應{yi=BBNγ,β(xi)}。
Step 1 計算批處理數(shù)據(jù)均值
μ
(5)
Step 2 計算批處理數(shù)據(jù)方差
(6)
Step 3 規(guī)范化
(7)
Step 4 尺度變化和偏移
(8)
Step 5 返回學習的參數(shù)γ和β。
筆者構建的卷積神經網絡充分考慮了含有噪聲地震數(shù)據(jù)與人工解釋無噪聲地震數(shù)據(jù)之間的關系,卷積神經網絡模型如圖2所示。Conv1將3×3的卷積核運算后得到64個特征映射,利用激活函數(shù)ReLU處理地震數(shù)據(jù)。Conv2-Conv16中引入BN層,將偏移后的數(shù)據(jù)映射到均值和方差統(tǒng)一的分布中,使模型避免出現(xiàn)梯度爆炸或消失等狀況,提升噪聲壓制性能[32]。Conv17卷積運算后得到輸出數(shù)據(jù)。
圖2 卷積神經網絡結構Fig.2 The structure of convolutional neural network
為驗證基于卷積神經網絡的地震隨機噪聲壓制方法的有效性,筆者借助第三方工具Pytorch訓練模型,并使用圖形處理單元(GPU:Graphic Processing Unit)提高訓練速度。深度學習模型訓練階段,使用已有的樣本和標簽,優(yōu)化模型參數(shù),訓練一個從樣本到標簽的近似映射;測試階段,將目標數(shù)據(jù)輸入模型,得到的輸出作為測試結果。
圖3 模型訓練曲線Fig.3 The curve of model training
筆者以已解釋工區(qū)的地震體作為研究對象,根據(jù)切割的1 200個地震剖面圖和解釋資料,在剖面圖中切割出1 200個大小為112像素×112像素的地震數(shù)據(jù)。該段數(shù)據(jù)共180道,單道含510個采樣點。將數(shù)據(jù)加入均值為0、加性高斯白噪聲分別為數(shù)據(jù)幅值10%,20%和25%,其中噪聲水平數(shù)據(jù)幅值為10%的數(shù)據(jù)集用于驗證數(shù)據(jù)樣本數(shù)量對筆者算法噪聲壓制的影響。設置兩種數(shù)據(jù)集劃分方法訓練深度卷積神經網絡,均經過50個epoch:采用全部的1 200條地震數(shù)據(jù)作為訓練樣本訓練深度殘差網絡;采用600條地震數(shù)據(jù)為訓練樣本訓練深度參數(shù)網絡。兩種方案的PSNR如圖3所示。從圖3可看出,方案1的峰值信噪比更高,隨機噪聲壓制的性能優(yōu)于方案2,表明訓練樣本增加會使噪聲壓制效果更優(yōu)。但在實際應用中地震解釋和地震數(shù)據(jù)獲取較困難,并且訓練速度會隨著樣本數(shù)量的增加而減慢,所以筆者采用方案1且訓練樣本選定為1 200個地震剖面。數(shù)據(jù)集包含crossLine切割600條地震剖面、按照inLine切割600條地震剖面圖,每個地震剖面大小為950像素×460像素,如圖4a為inline100地震剖面部分剖面圖,圖4b為crossLine1246地震剖面部分剖面圖。
圖4 地震剖面數(shù)據(jù)集Fig.4 The dataset of seismic sections
根據(jù)上述構建的訓練數(shù)據(jù)集,即將在剖面圖中切割得到的1 200個大小為112 px×112 px的地震數(shù)據(jù)作為訓練樣本,筆者采用反向傳播算法[28]訓練模型,使用小批量梯度下降算法迭代求解網絡中的參數(shù),即在訓練過程中,把整個訓練數(shù)據(jù)隨機分為若干個批次,每次迭代僅使用其中的一個批次的樣本參與參數(shù)優(yōu)化。分別給每個地震數(shù)據(jù)樣本加上均值為0、噪聲水平分別為數(shù)據(jù)幅值10%,20%,25%加性高斯白噪聲,依據(jù)式(3)計算,在訓練數(shù)據(jù)集循環(huán)50次后模型收斂。深度卷積神經網絡的峰值信噪比和損失比如圖5所示。模型收斂后部分數(shù)據(jù)集數(shù)據(jù)與對應的噪聲壓制后的去噪效果如圖6所示。
圖5 深度卷積神經網絡的峰值信噪比和損失率Fig.5 The PSNR and loss rate ofdeepconvolutional neural network
圖6 理論地震數(shù)據(jù)去噪效果對比Fig.6 Comparison of theoretical seismic data denoising effect
將訓練好的模型對新的含噪聲地震數(shù)據(jù)進行噪聲壓制,并與中值濾波算法和均值濾波算法進行對比。在預測數(shù)據(jù)中添加均值為0、加性高斯白噪聲分別為幅值15%、20%和25%,訓練時間分別為0.22 s、0.07 s、941.32 s。含20%噪聲地震剖面如圖7a所示,中值濾波算法對應的地震剖面如圖7b所示,可見地震剖面中殘留的噪聲更多,而且損失了某些局部信息。均值濾波算法對應地震剖面如圖7c所示,可見地震剖面分辨率低,同相軸不清晰。筆者算法對應的地震剖面如圖7d所示,可見筆者算法噪聲壓制后結果含有更豐富的局部信息,無明顯噪聲殘留,同相軸清晰連續(xù)。
圖7 不同去噪方法對應的地震數(shù)據(jù)剖面Fig.7 Seismic data corresponding to different algorithms
含20%噪聲熱力圖剖面如圖8a所示,中值濾波算法和均值濾波算法對應的剖面熱力圖如圖8b、圖8c所示。可以看出,均值濾波算法和中值濾波算法在熱力圖剖面上明顯失真,有明顯丟失有效信號的痕跡,因此這兩種傳統(tǒng)算法在噪聲壓制的同時損失了部分有效信號。而筆者算法對應的熱力圖剖面如圖8d所示,具有明顯的有效信號的痕跡,表明筆者算法在處理地震剖面是具有良好的保幅特性。
圖8 不同去噪方法對應的地震數(shù)據(jù)剖面熱力圖Fig.8 The heat map of seismic data corresponding to different algorithms
不同算法在不同噪聲水平下的壓制能力如表1所示。由表1可見,筆者提出的算法峰值信噪比最大,噪聲壓制能力最強。
表1 不同算法噪聲壓制結果評價指標對比Tab.1 Comparison of evaluation indexes of denoising results by different methods
為驗證筆者提出方法的噪聲壓制效果,將該算法應用于實際的含有隨機噪聲的地震剖面中,如圖9所示。該地震數(shù)據(jù)共450道地震道,單道含200個采樣數(shù),采樣間隔為1 ms。由圖9a可看出,該地震數(shù)據(jù)含有曲線同相軸以及構造,但受噪聲干擾嚴重,同相軸連續(xù)性比較差,弱信號識別困難。圖9b為筆者算法去噪效果,由圖9b可看出,噪聲壓制后的地震剖面含有更豐富的局部細節(jié),無明顯噪聲殘留,同相軸清晰連續(xù),具有良好的保幅特性。
圖9 實際地震數(shù)據(jù)噪聲壓制效果對比Fig.9 Comparison of actual seismic data denoising effect
為更有效地去除地震數(shù)據(jù)的隨機噪聲,筆者提出了一種基于卷積神經網絡的高性能地震數(shù)據(jù)噪聲壓制方法,通過模型的先驗訓練完成參數(shù)自動調整。該算法的關鍵在于構建一個適合于地震數(shù)據(jù)壓制的卷積神經網絡,該網絡由輸入層、卷積層、激活層、歸一化層和 輸出層等構成,采用殘差學習,輔以ReLU函數(shù)和Batch Normalization 歸一化,使筆者算法模型的訓練的精度較高,保留了更多的原始數(shù)據(jù)細節(jié)。該方法與常用的濾波算法相比,具有更好的噪聲壓制性能。下一步的研究將針對數(shù)據(jù)噪聲壓制后的地震數(shù)據(jù),提高斷層自動識別的計算效率。