亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        一種基于RUnet卷積神經(jīng)網(wǎng)絡(luò)的地震資料隨機噪聲壓制方法

        2020-02-07 10:52:16羅仁澤李陽陽
        石油物探 2020年1期
        關(guān)鍵詞:壓制余弦殘差

        羅仁澤,李陽陽

        (西南石油大學油氣藏地質(zhì)及開發(fā)工程國家重點實驗室,西南石油大學地球科學與技術(shù)學院,四川成都610500)

        地震數(shù)據(jù)采集過程中,采集環(huán)境導致地震資料通常含有很多隨機噪聲。而隨機噪聲的存在對地震資料的后續(xù)處理和解釋工作會帶來不利影響。針對此問題,研究者們提出了諸多壓制隨機噪聲的方法。常見的方法有:f-k域濾波、f-x域去噪、小波變換、曲波變換和離散余弦變換等。何潮觀[1]設(shè)計并應(yīng)用f-k濾波器對地震記錄進行二維濾波,為加強其二維濾波效果,設(shè)計了f-k陷波器;康冶等[2]提出了一種將地震數(shù)據(jù)擬線性化變換后進行f-x域預(yù)測去噪的方法;夏洪瑞等[3]研究了小波變換在地震資料去噪中的應(yīng)用問題;閆興等[4]提出將最優(yōu)估計理論與第2代小波變換相結(jié)合的方法,改善了地震資料處理的效果;劉鑫等[5]提出在多層小波變換中引入雙變量概率分布模型的復(fù)數(shù)小波變換局域自適應(yīng)收縮去噪算法;彭才等[6]提出基于曲波變換的地震數(shù)據(jù)去噪方法,并驗證了曲波變換壓制隨機噪聲的可行性;陸文凱[7]提出基于離散余弦變換的地震隨機噪聲壓制方法,與f-k域預(yù)測濾波相比,離散余弦變換不僅效果好,而且能夠更好地保護有效波。除上述方法外,關(guān)于地震資料隨機噪聲壓制問題,ZHU等[8-9]提出基于字典學習的自適應(yīng)基變換算法;汪金菊等[10]提出雙樹復(fù)小波域雙變量方法對地震信號中的隨機噪聲進行壓制;ZHOU等[11]提出基于圖像分割的思想壓制地震隨機噪聲的方法。這些方法在壓制地震資料噪聲時,都取得了很好的效果,但仍存在去噪能力不足、不能有效保護有效信號等問題。

        深度學習作為機器學習領(lǐng)域的一個分支,近年來成為計算機領(lǐng)域的研究熱點。鑒于深度學習在圖像識別、語義分割、語音識別等領(lǐng)域的優(yōu)異表現(xiàn),地球物理領(lǐng)域的研究者們也將該技術(shù)引入到地震資料的處理和解釋工作中。MAURICIO等[12]提出直接由單炮記錄利用深度學習反演斷層的方法,跳過了常規(guī)地震資料處理解釋的步驟;XIONG等[13]提出用卷積神經(jīng)網(wǎng)絡(luò)(CNN)識別三維地震數(shù)據(jù)中的斷層區(qū)域,并在合成數(shù)據(jù)和實際地震數(shù)據(jù)中驗證了該方法的可行性;WU等[14]利用卷積神經(jīng)網(wǎng)絡(luò)將合成斷層數(shù)據(jù)作為訓練集,推廣到真實數(shù)據(jù)中進行測試,取得了不錯的效果。在地震資料去噪研究中,SI等[15]利用去噪卷積神經(jīng)網(wǎng)絡(luò)(DnCNN)壓制合成地震數(shù)據(jù)中的隨機噪聲;韓衛(wèi)雪等[16]提出基于深度學習卷積神經(jīng)網(wǎng)絡(luò)的地震資料隨機噪聲去除方法,取得了很好的效果;王鈺清等[17]提出基于數(shù)據(jù)增廣和基于卷積神經(jīng)網(wǎng)絡(luò)的U型網(wǎng)絡(luò)(Unet)壓制地震資料中隨機噪聲的方法,為解決深度學習中的數(shù)據(jù)標簽問題提供了一種思路。但對于深度學習而言,模型的泛化性是一項非常重要的指標,訓練集和測試集均來自同一塊數(shù)據(jù)體,雖然測試效果很好,但模型的泛化性受限。

        本文借鑒上述研究成果,提出一種基于卷積神經(jīng)網(wǎng)絡(luò)(CNN)的殘差U型網(wǎng)絡(luò)(RUnet)壓制隨機噪聲的方法?;舅枷胧窃赨net卷積神經(jīng)網(wǎng)絡(luò)的基本結(jié)構(gòu)上加入殘差塊,增加對卷積層所提取的隨機噪聲特征的再次學習,進而增強網(wǎng)絡(luò)對隨機噪聲的捕獲能力。以含噪地震數(shù)據(jù)作為輸入,預(yù)處理后的地震數(shù)據(jù)作為輸出,即數(shù)據(jù)標簽。然后對網(wǎng)絡(luò)進行訓練,計算損失函數(shù),并對其進行最優(yōu)化處理。訓練完成后,將測試數(shù)據(jù)輸入到網(wǎng)絡(luò)模型中進行測試,輸出即為去噪之后的結(jié)果。最后通過實驗,驗證了本文算法的可行性,并與其它算法進行對比,驗證了本文算法的去噪性能。

        1 方法原理

        含隨機噪聲的地震數(shù)據(jù)可以表示為:

        y=x+n

        (1)

        式中:y表示含隨機噪聲的地震數(shù)據(jù);x表示地震數(shù)據(jù)中的有效信號;n表示地震數(shù)據(jù)中所含隨機噪聲。去噪算法的目標是盡可能精確地從含噪數(shù)據(jù)中恢復(fù)出有效信號[17]。深度學習地震數(shù)據(jù)去除噪聲的過程就是通過對樣本的學習,試圖建立起含噪信號和有效信號之間的映射關(guān)系,然后通過建立起來的映射關(guān)系,將含噪信號作為輸入,輸出有效信號,完成對隨機噪聲的壓制工作。

        1.1 RUnet卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)

        Unet卷積神經(jīng)網(wǎng)絡(luò)是一種被廣泛應(yīng)用于圖像分割的端到端的學習網(wǎng)絡(luò),能夠融合不同尺度的特征,達到更好的學習效果。本文在Unet卷積神經(jīng)網(wǎng)絡(luò)的基本結(jié)構(gòu)上,結(jié)合殘差網(wǎng)絡(luò)(ResNet)[18-19]的殘差塊,構(gòu)建一種比Unet卷積神經(jīng)網(wǎng)絡(luò)更深層的網(wǎng)絡(luò)。CNN能夠提取低級特征、中級特征和高級特征,隨著層數(shù)的增加,能夠提取到不同層級的特征,并且越深的網(wǎng)絡(luò)提取的特征更為抽象,越具有物理意義。但簡單地增加深度,會導致梯度彌散或梯度爆炸?;诖?本文提出將Unet卷積神經(jīng)網(wǎng)絡(luò)和ResNet網(wǎng)絡(luò)的特點相結(jié)合的RUnet卷積神經(jīng)網(wǎng)絡(luò),其結(jié)構(gòu)如圖1所示。

        圖1 RUnet卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)

        RUnet卷積神經(jīng)網(wǎng)絡(luò)在整體上包括一個編碼過程和一個解碼過程。編碼過程由5組殘差塊構(gòu)成,每組殘差塊由5個卷積層和1個池化層構(gòu)成,將[256×256]維的輸入數(shù)據(jù)編碼為[16×16]維特征信息,卷積核大小設(shè)置為3×3,步長設(shè)置為1。每經(jīng)過一次殘差塊操作,特征圖的大小壓縮為上一次操作的1/2,相應(yīng)的特征圖的通道數(shù)是上一次殘差塊操作的2倍,保證特征信息不丟失。特征解碼過程由4組殘差塊組成,每個殘差塊由1個反卷積層和5個卷積層組成,將由編碼過程生成的[16×16]維特征信息,上采樣到[256×256]維的輸出數(shù)據(jù)。與編碼過程相對稱,每經(jīng)過一次殘差操作,特征圖的上采樣大小為上一次殘差操作的2倍,特征圖的通道數(shù)變?yōu)樯弦淮螝埐畈僮鞯?/2。與Unet卷積神經(jīng)網(wǎng)絡(luò)類似,將編碼部分對應(yīng)位置的特征圖加入到解碼部分的特征圖中,融合不同尺度的特征信息。最后的輸出由一個卷積核大小為1×1、步長為1的卷積層和激活函數(shù)tanh完成,該層的作用類似于全連接層。

        1.2 損失函數(shù)優(yōu)化和評價指標

        神經(jīng)網(wǎng)絡(luò)的訓練過程實質(zhì)上是損失函數(shù)最小化的過程。本文算法將均方誤差函數(shù)作為損失函數(shù),其數(shù)學定義為:

        (2)

        損失函數(shù)的優(yōu)化采用自適應(yīng)矩估計(Adam)算法,該算法是隨機梯度下降算法的擴展,與隨機梯度下降算法不同的是,隨機梯度下降算法保持單一的學習率更新所有參數(shù),并且訓練過程中學習率保持不變;而Adam算法通過計算梯度的一階矩估計和二階矩估計為不同的參數(shù)設(shè)計獨立的自適應(yīng)學習率,適合解決大規(guī)模數(shù)據(jù)和參數(shù)的優(yōu)化問題,超參數(shù)可以直觀地解釋,并且基本上只需極少量的調(diào)參。

        本文采用信噪比和峰值信噪比來評價算法的去噪性能。其數(shù)學定義如下:

        (3)

        (4)

        式中:SSNR為信噪比;PSNR為峰值信噪比;y為不含噪聲的地震數(shù)據(jù);yn為含隨機噪聲的地震數(shù)據(jù);N為地震數(shù)據(jù)的采樣點。

        1.3 RUnet的其它特點

        1) 在殘差塊之后,增加批規(guī)范化層。批規(guī)范化是深度學習中的一種訓練技巧,是指在采用梯度下降法訓練深度神經(jīng)網(wǎng)絡(luò)(DNN)時,對網(wǎng)絡(luò)層中每個批處理(batch)的數(shù)據(jù)進行標準化處理,使其均值變?yōu)?,方差變?yōu)?,其主要作用是緩解DNN訓練中的梯度消失或爆炸的現(xiàn)象,加快模型的訓練速度,有利于提高模型對斷層特征的敏感性。數(shù)學定義為:

        (5)

        式中:zi為規(guī)范化后的數(shù)據(jù);xi為上一層輸入的數(shù)據(jù);γ,β為重構(gòu)參數(shù);m為batch的大小;ε為保持數(shù)值穩(wěn)定而添加到batch方差的常數(shù)。

        2) 原始Unet卷積網(wǎng)絡(luò)中采用線性整流(ReLU)激活函數(shù),本文將帶泄露整流函數(shù)(Leaky ReLU)作為激活函數(shù),數(shù)學定義為:

        (6)

        式中:fi為激活函數(shù)的輸出;ci為激活函數(shù)的輸入;α為泄露系數(shù),0<α<1。

        與ReLU激活函數(shù)相比,Leaky ReLU激活函數(shù)對于小于0的值具有一定的容忍性,并不會將負值設(shè)置為0,使得負軸的信息不會全部丟失,如圖2所示。

        圖2 激活函數(shù)a ReLU激活函數(shù); b Leaky ReLU激活函數(shù)

        2 模型訓練及測試

        本文從Parihaka三維疊后地震數(shù)據(jù)中提取子集作為網(wǎng)絡(luò)訓練的訓練集。訓練集的制作過程如下:在時間維度選取256個采樣點,同時在Crossline測線上選取256道數(shù)據(jù),構(gòu)成一個二維數(shù)據(jù)樣本,然后在Inline測線上選取900道數(shù)據(jù),構(gòu)成900組訓練樣本數(shù)據(jù)。設(shè)置迭代次數(shù)(epochs)為1000次,批大小(batch size)為16,為了減小網(wǎng)絡(luò)的過擬合,采用交叉驗證的訓練方法,訓練集與驗證集的比例設(shè)置為7∶3,學習率初始化為1×10-4。實驗軟件采用Keras深度學習框架,硬件采用GEFORCE RTX2080Ti型GPU進行加速計算,訓練時間為116分鐘。根據(jù)添加高斯噪聲的水平不同,訓練了3個模型,利用訓練好的模型對測試集進行測試,測試集來自同一塊地震數(shù)據(jù)。模型訓練過程如圖3所示。從圖3中可以看出,在迭代1000次之后,峰值信噪比和信噪比趨于收斂狀態(tài)。將測試結(jié)果分別與小波變換(軟閾值大小為0.5244,小波類型為sym5,分解層數(shù)為2)、離散余弦變換和Unet卷積神經(jīng)網(wǎng)絡(luò)算法結(jié)果進行比較,其中,添加了噪聲水平為25%的實驗結(jié)果如圖4所示。

        由圖4可見,小波變換去噪算法在一定程度上壓制了隨機噪聲,但是有效信號損失明顯;離散余弦變換算法的隨機噪聲壓制效果較小波變換更好,但與原始地震數(shù)據(jù)相比,仍有隨機噪聲殘余,局部存在一定程度的有效信號損失;Unet卷積神經(jīng)網(wǎng)絡(luò)去噪算法壓制了大部分隨機噪聲,但仍有殘余;本文提出的RUnet卷積神經(jīng)網(wǎng)絡(luò)算法的去噪結(jié)果與加噪前的數(shù)據(jù)更為接近,基本上壓制了隨機噪聲,保護了有效信號。

        表1對比了4種算法在不同噪聲水平下的去噪性能。加噪之后的地震數(shù)據(jù)經(jīng)過4種算法對隨機噪聲進行壓制,峰值信噪比和信噪比都有一定程度的提高。其中本文提出的RUnet卷積神經(jīng)網(wǎng)絡(luò)算法提高的幅度最大,相比于Unet卷積神經(jīng)網(wǎng)絡(luò)提高了0.8~1.0dB;相比于離散余弦變換算法提高了1.4~2.2dB。

        圖3 RUnet卷積神經(jīng)網(wǎng)絡(luò)訓練過程

        圖4 各種算法去噪實驗結(jié)果a 原始地震數(shù)據(jù); b 加噪地震數(shù)據(jù); c 小波變換去噪結(jié)果; d 離散余弦變換去噪結(jié)果; e Unet卷積神經(jīng)網(wǎng)絡(luò)算法去噪結(jié)果; f 本文算法去噪結(jié)果

        表1 地震數(shù)據(jù)去噪性能對比

        續(xù)表1

        注:PSNR_IN為輸入地震數(shù)據(jù)的峰值信噪比;SNR_IN為輸入地震數(shù)據(jù)的信噪比;PSNR_OUT為輸出地震數(shù)據(jù)的峰值信噪比;SNR_OUT為輸出地震數(shù)據(jù)的信噪比。

        3 實際地震數(shù)據(jù)應(yīng)用

        本文采用RUnet卷積神經(jīng)網(wǎng)絡(luò)去噪算法分別對疊后和疊前地震數(shù)據(jù)進行隨機噪聲壓制實驗,并與離散余弦變換、三維塊匹配(BM3D)算法和Unet卷積神經(jīng)網(wǎng)絡(luò)算法進行對比。由于疊后地震數(shù)據(jù)與疊前地震數(shù)據(jù)之間的差異性,需要分別進行訓練。

        3.1 疊后地震數(shù)據(jù)去噪

        實驗采用Kerry三維疊后地震數(shù)據(jù)中的部分數(shù)據(jù)(數(shù)據(jù)尺寸為256個采樣點×256道)進行測試。首先采用LIU等[20]提出的估計噪聲水平的方法估計該地震數(shù)據(jù)的噪聲水平,輸入到訓練好的模型中,輸出測試結(jié)果;然后將其與離散余弦變換和Unet卷積神經(jīng)網(wǎng)絡(luò)算法進行對比,如圖5所示。

        對比圖5中3種算法的去噪結(jié)果可以發(fā)現(xiàn),3種算法均具有一定的去噪效果。離散余弦變換在去除隨機噪聲的同時,部分有效信號遭到破壞;Unet卷積神經(jīng)網(wǎng)絡(luò)算法的去噪結(jié)果中還有隨機噪聲存在,并且一定程度上破壞了有效信號;而本文提出的RUnet卷積神經(jīng)網(wǎng)絡(luò)算法在對隨機噪聲進行有效壓制的同時,較其它兩種算法能更好地保護有效信號。另外,從去噪效果上看,在與訓練集來自同一塊數(shù)據(jù)體的測試集中,Unet卷積神經(jīng)網(wǎng)絡(luò)與RUnet卷積神經(jīng)網(wǎng)絡(luò)差別并不大,但是測試集來自另一塊數(shù)據(jù)體的測試中,Unet卷積神經(jīng)網(wǎng)絡(luò)和RUnet卷積神經(jīng)網(wǎng)絡(luò)差別就很大。在訓練條件同等的情況下,Unet卷積神經(jīng)網(wǎng)絡(luò)會出現(xiàn)過擬合現(xiàn)象,導致泛化性比較差,而RUnet卷積神經(jīng)網(wǎng)絡(luò)的泛化性能更強,產(chǎn)生該結(jié)果的原因是RUnet卷積神經(jīng)網(wǎng)絡(luò)具有更深的網(wǎng)絡(luò)結(jié)構(gòu),加入了殘差塊,學習到的隨機噪聲的特征更接近隨機噪聲的本質(zhì)特征。

        圖5 疊后地震數(shù)據(jù)測試結(jié)果a 原始數(shù)據(jù); b 離散余弦變換去噪結(jié)果; c Unet卷積神經(jīng)網(wǎng)絡(luò)算法去噪結(jié)果; d 本文算法去噪結(jié)果; e 離散余弦變換去除的噪聲; f Unet卷積神經(jīng)網(wǎng)絡(luò)算法去除的噪聲; g 本文算法去除的噪聲

        3.2 疊前地震數(shù)據(jù)去噪

        采用部分Mobil海上疊前數(shù)據(jù)集作為訓練集,樣本量為256組數(shù)據(jù),數(shù)據(jù)尺寸設(shè)置為256個采樣點×256道。與疊后地震數(shù)據(jù)訓練過程一致。訓練完成后,應(yīng)用部分PGS海上疊前數(shù)據(jù)作為測試集,測試數(shù)據(jù)尺寸設(shè)置為256個采樣點×256道。將測試結(jié)果與BM3D算法[21]和Unet卷積神經(jīng)網(wǎng)絡(luò)算法進行對比,如圖6所示。

        圖6 疊前地震數(shù)據(jù)測試結(jié)果a 原始含噪數(shù)據(jù); b BM3D算法去噪結(jié)果; c Unet卷積神經(jīng)網(wǎng)絡(luò)算法去噪結(jié)果; d 本文算法去噪結(jié)果; e BM3D算法去除的噪聲; f Unet卷積神經(jīng)網(wǎng)絡(luò)算法去除的噪聲; g 本文算法去除的噪聲

        對比圖6中3種算法的去噪結(jié)果可以發(fā)現(xiàn),BM3D算法和Unet卷積神經(jīng)網(wǎng)絡(luò)算法保留了地震信號的主體特征,但在去噪的過程中,損失了地震數(shù)據(jù)的細節(jié)部分,而本文算法在有效去除噪聲的同時,保留了地震數(shù)據(jù)的細節(jié)。與疊后地震數(shù)據(jù)去噪實驗相比,由于疊前地震數(shù)據(jù)在形態(tài)分布上相似度較高,而疊后地震數(shù)據(jù)往往會反映不同的地下地質(zhì)結(jié)構(gòu)(比如在疊后地震數(shù)據(jù)去噪實驗中,本文采用的訓練數(shù)據(jù)地質(zhì)結(jié)構(gòu)較為平坦,而測試數(shù)據(jù)地質(zhì)結(jié)構(gòu)比較雜亂),兩組實驗雖然都在與訓練集不同的數(shù)據(jù)集中測試,但是疊后實驗的兩組數(shù)據(jù)集相似度較低,從縱向上對比,本文算法對疊前數(shù)據(jù)去噪的效果比疊后數(shù)據(jù)去噪效果更好。

        4 結(jié)論

        本文提出的RUnet卷積神經(jīng)網(wǎng)絡(luò)去噪算法能夠有效壓制隨機噪聲。通過疊前和疊后數(shù)據(jù)的兩組實驗可以得出以下結(jié)論:

        1) 相較于小波變換去噪算法、離散余弦變換去噪算法、BM3D算法和Unet卷積神經(jīng)網(wǎng)絡(luò)去噪算法,本文算法在保護有效信號的同時,可以更好地去除地震資料中的隨機噪聲。

        2) 相較于小波變換、離散余弦變換和BM3D算法,RUnet卷積神經(jīng)網(wǎng)絡(luò)去噪性能的優(yōu)勢得益于卷積神經(jīng)網(wǎng)絡(luò)強大的特征捕獲能力;對比Unet卷積神經(jīng)網(wǎng)絡(luò)去噪算法,RUnet卷積神經(jīng)網(wǎng)絡(luò)去噪性能的優(yōu)勢在于引入了殘差塊,對上一層所提取的隨機噪聲進行二次消化學習,盡可能地保留了一次學習可能損失的隨機噪聲特征。上述RUnet卷積神經(jīng)網(wǎng)絡(luò)的優(yōu)勢結(jié)合Unet卷積神經(jīng)網(wǎng)絡(luò)多尺度融合的特點,使得RUnet卷積神經(jīng)網(wǎng)絡(luò)對地震資料中的隨機噪聲的特征學習更接近噪聲的本質(zhì)特征。RUnet卷積神經(jīng)網(wǎng)絡(luò)的這些特點使得其在與訓練集不同的另一塊地震數(shù)據(jù)中具有更好的泛化性。

        在對地震資料進行去噪處理時,往往不同類型的噪聲使用不同的方法,基于深度學習強大的特征提取能力,下一步的研究將針對地震資料中的所有類型噪聲進行一次性處理。

        猜你喜歡
        壓制余弦殘差
        基于雙向GRU與殘差擬合的車輛跟馳建模
        基于殘差學習的自適應(yīng)無人機目標跟蹤算法
        基于遞歸殘差網(wǎng)絡(luò)的圖像超分辨率重建
        自動化學報(2019年6期)2019-07-23 01:18:32
        一種新型無人機數(shù)據(jù)鏈抗壓制干擾技術(shù)的研究
        空射誘餌在防空壓制電子戰(zhàn)中的應(yīng)用
        無人機(2018年1期)2018-07-05 09:51:02
        兩個含余弦函數(shù)的三角母不等式及其推論
        一種舊物品擠壓成型機
        科技資訊(2016年12期)2016-05-30 05:07:58
        分數(shù)階余弦變換的卷積定理
        圖像壓縮感知在分數(shù)階Fourier域、分數(shù)階余弦域的性能比較
        平穩(wěn)自相關(guān)過程的殘差累積和控制圖
        河南科技(2015年8期)2015-03-11 16:23:52
        999久久久无码国产精品| 日韩人妻不卡一区二区三区 | 中文字幕乱码中文乱码毛片 | av在线一区二区精品| 精品九九视频| 性一交一乱一伦一色一情孩交| 男人天堂这里只有精品| 日本成人三级视频网站| 美女裸体自慰在线观看| 精品久久久久香蕉网| 国产丝袜在线精品丝袜| 免费在线国产不卡视频| 亚洲欧美国产成人综合不卡| 色窝窝免费播放视频在线| 熟妇人妻无乱码中文字幕真矢织江| 日本一区二区三区免费| 久久国产综合精品欧美| 国产精品成人观看视频| 未满十八18禁止免费无码网站| 精品少妇一区二区三区四区| 小12箩利洗澡无码视频网站| 蜜桃av噜噜一区二区三区策驰| 国产成人精品麻豆| 人妻精品无码一区二区三区| 亚洲乱码中文在线观看| 日韩精品一区二区三区av| 亚洲老熟妇愉情magnet| 99视频一区| 婷婷午夜天| 内射欧美老妇wbb| 国产精品会所一区二区三区| 精品国产乱码久久免费看| 国产WW久久久久久久久久| 欧美成a人片在线观看久| 色哟哟精品视频在线观看| 91精品国产综合久久熟女| 国产av一区二区三区狼人香蕉| 久久丁香花综合狼人| 无码中文字幕加勒比一本二本 | 免费女同毛片在线不卡| 日本香蕉久久一区二区视频 |