亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于聯(lián)合深度學習的地震數(shù)據(jù)隨機噪聲壓制

        2021-02-05 01:04:38李新月董宏麗
        石油地球物理勘探 2021年1期
        關鍵詞:特征效果模型

        張 巖 李新月 王 斌 李 杰 董宏麗

        (①東北石油大學計算機與信息技術學院,黑龍江大慶 163318;②東北石油大學人工智能能源研究院,黑龍江大慶 163318)

        0 引言

        噪聲壓制是地震資料處理的基礎工作[1-2],旨在提升地震數(shù)據(jù)的信噪比,以提高后續(xù)地震資料處理和解釋的效率及精度?,F(xiàn)有的地震數(shù)據(jù)隨機噪聲壓制方法可以劃分為基于模型的去噪和基于數(shù)據(jù)驅(qū)動的去噪兩大類。

        基于模型的地震數(shù)據(jù)去噪方法是通過建立數(shù)據(jù)的分布模型預測包含噪聲數(shù)據(jù)的真實情況。該方法又可進一步劃分為時域和變換域兩類,其中時域去噪方法中,具有代表性的是濾波法[3-4],基本原理是利用地震數(shù)據(jù)時域分布的特點構(gòu)建濾波函數(shù)以去除噪聲數(shù)據(jù);變換域去噪方法中常用的有Fourier變換[5]、Radon變換[6]、Wavelet變換[7-9]等,基本原理是利用數(shù)據(jù)在某個基函數(shù)空間中具有比較好的分布特征,先將數(shù)據(jù)投影到變換域,然后分析變換系數(shù)中有效信號和噪聲分布的特點,建立相應的分布模型,預測變換域去除噪聲的系數(shù),最后反變換回時域以達到去噪的目的。

        基于數(shù)據(jù)驅(qū)動的地震數(shù)據(jù)去噪方法則是根據(jù)大量樣本數(shù)據(jù)的特點,通過自適應學習的方式獲得樣本數(shù)據(jù)的特征,利用學習得到的主要特征表示地震數(shù)據(jù)。該方法又可進一步劃分為淺層學習和深度學習兩類。

        在淺層學習中,具有代表性的是學習型超完備字典方法,如基于K-奇異值分解(K-Singular Value Decomposition,K-SVD)的超完備字典學習的去噪方法[10],通過對待處理數(shù)據(jù)的學習和訓練,自適應地調(diào)整變換基函數(shù),以適應特定數(shù)據(jù)本身,可以更充分地稀疏表示地震數(shù)據(jù)。Tang等[11]、張巖等[12]將該方法引入地震數(shù)據(jù)處理,利用超完備字典學習技術,根據(jù)地震數(shù)據(jù)的本身特點,自適應構(gòu)造超完備字典,稀疏表示地震數(shù)據(jù),從而恢復數(shù)據(jù)的主要特征,取得了較好的去噪效果。此類方法學習得到的特征是一種表示數(shù)據(jù)的基函數(shù)(或者叫原子),是一種淺層的特征,待處理的數(shù)據(jù)可以轉(zhuǎn)化為字典中若干個原子的線性組合。

        近年來,隨著大數(shù)據(jù)、人工智能的發(fā)展和GPU等硬件計算能力的提升,深度學習方法通過增加神經(jīng)網(wǎng)絡的層數(shù),得到樣本數(shù)據(jù)更深層次的特征,在計算機視覺領域得到了突破性的進展,同時在地震數(shù)據(jù)處理中也逐漸得到關注[13-15]。當前基于深度學習的去噪方法通常采用殘差學習[16-17]、生成對抗網(wǎng)絡[18]、降噪自編碼[19-21]等技術,基本原理是利用大量的樣本覆蓋待處理數(shù)據(jù)的特征,通過多層卷積的方式提取數(shù)據(jù)時域的特征,然后采用深度學習的非線性逼近能力調(diào)整網(wǎng)絡參數(shù),從而建立一個復雜的去噪模型,用于去除待處理數(shù)據(jù)的噪聲。該類方法較傳統(tǒng)方法去噪效果有大幅提升,但仍然存在兩個方面主要問題。

        (1)通常僅關注單一時域或者傳統(tǒng)變換域(如傅里葉變換域、小波變換域等)的特征提取。如韓衛(wèi)雪等[22]提出的用于地震數(shù)據(jù)去噪的網(wǎng)絡模型,與常規(guī)地震數(shù)據(jù)去噪算法相比,具有更好的去噪效果,但由于僅考慮時域提取特征,導致去噪過程中出現(xiàn)細節(jié)的丟失。Zhang等[16]提出的基于殘差學習的卷積去噪網(wǎng)絡(Residual Learning of Deep CNN for Image Denoising,DnCNN)算法,采用卷積殘差學習框架,從函數(shù)回歸角度出發(fā),用卷積神經(jīng)網(wǎng)絡(Convolutional Neural Networks,CNN)將噪聲從含噪圖像中分離出來。Yu等[23]系統(tǒng)地介紹了DnCNN算法用于地震數(shù)據(jù)壓制的過程并討論了CNN的超參數(shù)設置問題。Wang等[24]也將DnCNN模型應用于地震數(shù)據(jù)噪聲壓制,取得了較好的效果。Zhao等[25]從圖像塊大小、卷積核大小、網(wǎng)絡深度、訓練集等方面對原始DnCNN進行了改進,使其適用于低頻和沙漠區(qū)地震資料非高斯噪聲的抑制。Dong等[26]在此基礎上,采用自適應DnCNN算法對沙漠地震資料進行去噪處理,有效提高了低頻資料的信噪比。Yang等[17]擴展了原有的DnCNN模型,構(gòu)造了地震數(shù)據(jù)隨機噪聲衰減的卷積神經(jīng)網(wǎng)絡(CNN for Randon Noise Attenuation of Seismic Data, SDACNN),將激活函數(shù)替換為指數(shù)線性單元(Exponential Linear Units,ELU)以增強網(wǎng)絡的魯棒性。以上方法均可以歸結(jié)為基于DnCNN模型及其改進的去噪方法,而DnCNN僅關注時域的特征提取,忽略了數(shù)據(jù)在頻域的特征,導致去噪地震數(shù)據(jù)中紋理特征損失較大。地震數(shù)據(jù)中同相軸的紋理特征是判斷油氣貯藏位置的關鍵,若考慮結(jié)合頻域的特征,可在一定程度上抑制假頻、使紋理保持效果得到較大的提升。Zhang等[19]和Chen等[20]基于無監(jiān)督學習中自編碼的概念,采用自編碼的方式將地震數(shù)據(jù)降維以提取主要特征,再通過上采樣層恢復到原尺寸,自適應地學習有效信號,實現(xiàn)無監(jiān)督的地震數(shù)據(jù)隨機噪聲抑制,取得了較好的效果,但也忽略了地震數(shù)據(jù)在頻域的特征,性能仍存在較大的提升空間。

        Liu等[27]提出的多級小波卷積神經(jīng)網(wǎng)絡 (Multi-level Wavelet CNN,MWCNN)模型考慮圖像的小波域分布特性,提出一種多級小波 CNN 框架,將離散小波變換與卷積網(wǎng)絡結(jié)合,充分考慮了圖像的頻域特征。Zhu等[28]利用短時傅里葉變換(Short-time Fourier Transform,STFT)將時域數(shù)據(jù)轉(zhuǎn)化為頻域數(shù)據(jù),將實部和虛部傳入卷積神經(jīng)網(wǎng)絡,網(wǎng)絡根據(jù)輸入數(shù)據(jù)產(chǎn)生信號和噪聲掩膜,再利用相關掩膜進行估計,得到地震信號和噪聲的頻域系數(shù),最后利用逆STFT得到時域去噪信號和噪聲。以上兩種方法的卷積處理過程僅在頻域中進行,忽略了時域的特征,因此在地震數(shù)據(jù)能量較弱的區(qū)域,無法僅根據(jù)有限的特征判別真實數(shù)據(jù)和噪聲數(shù)據(jù),從而導致局部紋理模糊的現(xiàn)象。

        (2)使用的卷積核通常為較小的固定尺寸,提取地震數(shù)據(jù)的特征信息不充分,影響感受野大小。相同條件下,如果想得到相同范圍的感受野就只能增加網(wǎng)絡深度,但網(wǎng)絡深度的增加會使提取的特征越來越高級,導致地震數(shù)據(jù)丟失較多的細節(jié)信息。例如 Zhang等[16]、韓衛(wèi)雪等[22]和其他部分學者基于DnCNN模型的改進[23-26]均使用固定大小為3×3的卷積核,學習到的噪聲不充分,且具有較深的層數(shù),容易造成過擬合現(xiàn)象。由于沒有充分權(quán)衡卷積核大小與網(wǎng)絡深度之間的關系,容易出現(xiàn)訓練時間較長和細節(jié)信息丟失的問題。李傳朋等[29]的去噪卷積神經(jīng)網(wǎng)絡模型采用3×3與5×5的卷積核相結(jié)合的方法,去噪效果明顯提高。

        針對上述問題,本文提出基于聯(lián)合深度學習的地震數(shù)據(jù)隨機噪聲壓制方法。首先,地震數(shù)據(jù)隨機噪聲壓制模型結(jié)合時域和頻域特征,利用聯(lián)合誤差定義損失函數(shù),綜合描述不同空間中地震數(shù)據(jù)的特征;其次,考慮到地震數(shù)據(jù)中包含復雜的地質(zhì)結(jié)構(gòu)和較強的非局部自相似性,采用一種擴充卷積的方式,利用多種尺寸的卷積核提取特征,增加地震數(shù)據(jù)特征提取的多樣性,增大感受野,減少網(wǎng)絡過擬合,提高收斂速度;再次,模型利用殘差網(wǎng)絡不斷提取每層網(wǎng)絡的噪聲特征, 將噪聲從含噪數(shù)據(jù)中分離出來;最后,網(wǎng)絡利用批歸一化(Batch Normalization,BN)算法實行歸一化,進一步提高地震數(shù)據(jù)去噪效果。

        1 方法原理

        1.1 網(wǎng)絡模型結(jié)構(gòu)

        圖1 網(wǎng)絡模型結(jié)構(gòu)圖

        模型中還包括BN(Batch Normalization,批量歸一化)層和修正線性單元(Rectified Linear Unit,ReLU)。模型的深度為10層,第1層由EConv和ReLU組成,EConv擴充因子為1,即卷積核大小為3×3,用于提取含噪地震數(shù)據(jù)的特征,卷積處理后得到128個特征映射。ReLU激活函數(shù)用于執(zhí)行非線性映射,去除地震數(shù)據(jù)中的冗余, 盡可能保留噪聲數(shù)據(jù)的主要特征。第2層至第9層分別由EConv、BN和ReLU組成,EConv擴張因子依次為2、3、4、5、4、3、2、1,對應卷積核大小分別為5×5、7×7、9×9、11×11、9×9、7×7、5×5、3×3,每層卷積處理后都得到128個特征映射,用于加快并穩(wěn)定訓練過程, 提升去噪性能。第10層由EConv組成,擴充因子為1,卷積核大小為3×3,卷積操作后得到1個特征映射,即為殘差網(wǎng)絡學習到的噪聲。

        針對地震數(shù)據(jù)去噪的特點,模型具體思路及設計如下:

        (1)聯(lián)合時、頻域的損失函數(shù)。由于當前大多數(shù)基于深度學習的去噪模型忽略時域與頻域的聯(lián)系,導致數(shù)據(jù)紋理細節(jié)損失較大。本文充分考慮時域和頻域的特征,將傅里葉變換與卷積神經(jīng)網(wǎng)絡相結(jié)合,利用時域和頻域聯(lián)合誤差定義損失函數(shù),改善去噪效果,消除假頻。

        (2)擴充卷積。為了平衡卷積核大小與網(wǎng)絡深度之間的關系,采用擴充卷積的方式,在保留了傳統(tǒng)3×3卷積優(yōu)點的基礎上,通過調(diào)整擴充因子增加感受野。從第1層至第10層,擴充因子分別設置為1、2、3、4、5、4、3、2、1、1,網(wǎng)絡各層感受野大小分別為3、7、13、21、31、39、45、49、51、53。相同條件下,Dn-CNN模型如果達到大小為53的感受野,則需要26層的網(wǎng)絡深度,但網(wǎng)絡層數(shù)過多會導致丟失較多的細節(jié)信息。

        (3)殘差網(wǎng)絡學習。由于網(wǎng)絡的輸入與輸出具有很強的相似性,殘差學習更適合于地震數(shù)據(jù)的去噪。網(wǎng)絡模型通過提取大量含噪數(shù)據(jù)樣本學習噪聲的特征,將含噪數(shù)據(jù)與所學到的噪聲相減,得到去噪后地震數(shù)據(jù)。

        (4)輸入、輸出尺寸保持一致。在卷積操作過程中,由于卷積計算的特點,逐層卷積會使特征圖越來越小,特征表示能力也越來越弱,還會導致最后的數(shù)據(jù)邊界引入噪聲。本文提出的模型在每次卷積操作前,均對待處理數(shù)據(jù)用0擴充邊界,確保每層輸出的特征圖與輸入保持相同尺寸。

        1.2 聯(lián)合損失函數(shù)的構(gòu)造

        目前基于深度學習的圖像去噪優(yōu)化函數(shù)往往采用均方誤差(Mean Squared Error,MSE)損失函數(shù)。本文在時域MSE的基礎上,引入傅里葉域MSE聯(lián)合設計損失函數(shù),其中MSE定義為去噪數(shù)據(jù)與原始不含噪聲數(shù)據(jù)的均方誤差,即

        (1)

        神經(jīng)網(wǎng)絡模型的目標函數(shù)為聯(lián)合時域和頻域的最小化損失函數(shù),即

        (2)

        1.3 擴充卷積的構(gòu)造

        卷積神經(jīng)網(wǎng)絡特征提取的核心在于通過卷積核與圖像卷積運算提取特征。傳統(tǒng)二維卷積運算的數(shù)學定義為

        (3)

        卷積操作需經(jīng)過180°旋轉(zhuǎn),然后對應位置相乘并求和。卷積神經(jīng)網(wǎng)絡中的二維卷積運算與傳統(tǒng)二維卷積的算法原理相同,在實現(xiàn)的方式上略有不同,不需要旋轉(zhuǎn),直接對相應位置相乘并求和,即

        (4)

        式(3)和(4)中:z是卷積層的輸入數(shù)據(jù)矩陣;ω是卷積核;p、q分別表示卷積核的高度和寬度;i、j代表卷積操作后像素點的位置。

        為了增加特征信息提取的多樣化,采用擴充卷積的方式獲得更多特征信息,并為網(wǎng)絡提供更大的感受野,從而在噪聲壓制過程中充分利用地震數(shù)據(jù)的非局部自相似性,保留更多地震數(shù)據(jù)內(nèi)部的有效信息。 擴充卷積通過增加每層的卷積核尺寸以增加感受野,定義卷積核的寬和高均為(2r+1)。結(jié)合擴充卷積后的卷積操作表示為

        ω(2r+1,2r+1)

        (5)

        傳統(tǒng)卷積與擴充卷積的操作對比如圖2所示,擴充卷積每層的感受野大小為

        圖2 經(jīng)典卷積(a,卷積核大小為3×3)與擴充卷積(b,擴充因子為2,卷積核大小增至5×5)對比

        G(i)=[G(i-1)-1]×stride(i)+c(i)

        (6)

        式中:stride(i)為第i層卷積操作的步長;c(i)為第i層卷積核尺寸大小。

        2 模型測試

        選擇Marmousi模型數(shù)據(jù)測試本文方法。將Marmousi模型數(shù)據(jù)裁剪得到10000個300個采樣點×207道的切片數(shù)據(jù)x,將數(shù)據(jù)集分別按照80%、10%、10%的比例劃分為訓練集、驗證集、測試集。地震數(shù)據(jù)的隨機噪聲通過0均值正態(tài)分布的高斯隨機噪聲仿真,噪聲的標準差與原始地震數(shù)據(jù)的標準差成正相關。噪聲標準差定義為

        (7)

        式中:M為切片時間采樣總數(shù);N為切片地震道采樣總數(shù);xt,s為x中坐標為(t,s)的元素,t為時間采樣序號;s為地震道記錄序號;u為地震數(shù)據(jù)x的均值;l為噪聲強度的比例因子。

        去噪效果的衡量指標可采用峰值信噪比(Peak Signal to Noise Ratio,PSNR)、信噪比(Signal Noise Ratio,SNR)或結(jié)構(gòu)相似性(Structural Similarity Index,SSIM),對應表達式為

        (8)

        (9)

        (10)

        在訓練過程中,學習率初始設定為0.001,采用Adam算法優(yōu)化學習目標,根據(jù)前一次迭代的誤差調(diào)整學習率的大小,提高收斂速度與逼近效果。Epoch設置為50次,批大小設置為20,網(wǎng)絡的輸入、輸出尺寸均為300×207。實驗硬件平臺采用Intel I7、8核CPU,內(nèi)存為32G,GPU為GeForce RTX 2080 SUPER。操作系統(tǒng)為64位Ubuntu 18.04 LTS,軟件平臺采用Python 3.6環(huán)境,聯(lián)合深度學習框架使用Pytorch1.2搭建。

        2.1 網(wǎng)絡層次結(jié)構(gòu)分析

        為證明本文提出網(wǎng)絡模型的有效性,分別對時頻域聯(lián)合損失函數(shù)、擴充卷積、殘差學習策略、BN層的作用進行測試。

        2.1.1 時頻域聯(lián)合損失函數(shù)

        將未結(jié)合F-K域損失函數(shù)的模型與本文模型(結(jié)合F-K域損失函數(shù))對比測試(迭代50次)。本文模型的PSNR稍高于未結(jié)合F-K域損失函數(shù)(圖3);兩個模型的訓練過程均具有穩(wěn)定的收斂性能,且本文模型的MSE略低于未結(jié)合F-K域損失函數(shù)模型,去噪效果的誤差更小(圖4)。

        圖3 不同模型計算誤差函數(shù)的PSNR對比

        圖4 不同模型計算誤差函數(shù)的MSE對比

        圖5為同一樣本在兩種模型下的去噪效果圖。對比圖5c與圖5d可見,結(jié)合F-K域誤差模型的去噪結(jié)果,在圖中圓形區(qū)域內(nèi)同相軸更光滑,表明聯(lián)合F-K域計算損失函數(shù)模型的紋理保持效果優(yōu)于單一時域的誤差模型。另外,測試集的去噪效果(圖5d)與圖3中訓練集穩(wěn)定時的PSNR很接近,擬合效果較好。從PSNR、SSIM、SNR的評價指標來看,也說明本文模型較單一時域的誤差模型噪聲壓制效果更好。圖5e和圖5f分別為未結(jié)合F-K域計算損失函數(shù)的殘差剖面和本文模型的殘差剖面,前者的殘差還保留部分原始地震數(shù)據(jù)的紋理,而本文算法的殘差更接近真實的隨機噪聲。

        此外,將僅含F(xiàn)-K域損失函數(shù)的模型與本文模型對比實驗,含噪地震數(shù)據(jù)如圖5b所示,圖6a為僅含F(xiàn)-K域計算目標函數(shù)的噪聲壓制效果,可見其PSNR、SNR和SSIM值均低于聯(lián)合目標函數(shù)。由于無法僅根據(jù)有限的特征判別真實數(shù)據(jù)和噪聲數(shù)據(jù),導致地震數(shù)據(jù)能量較弱的區(qū)域(矩形標記區(qū)域)中的同相軸信息的丟失。相比本文模型的殘差剖面(圖5f),僅含F(xiàn)-K域計算目標函數(shù)的殘差剖面(圖6b)包含較強的有效信號,說明對有效信號的保護效果不夠理想。

        圖5 不同模型去噪效果對比圖(a)原始地震數(shù)據(jù);(b)加入l為0.05的高斯隨機噪聲后的地震數(shù)據(jù);(c)未結(jié)合F-K域計算損失函數(shù)的去噪結(jié)果;(d)結(jié)合F-K域計算損失函數(shù)的去噪結(jié)果;(e)未結(jié)合F-K域計算損失函數(shù)的殘差剖面;(f)結(jié)合F-K域計算損失函數(shù)的殘差剖面圖c和圖d的左上方較大圓形區(qū)域為中間較小圓形區(qū)域的放大展示。圖c中:PSNR=39.0700dB,SNR=33.1892dB,SSIM=0.8553。圖d中:PSNR=39.6300dB,SNR=33.7171dB,SSIM=0.8920

        圖6 僅含F(xiàn)-K域計算目標函數(shù)的去噪結(jié)果(a)和殘差剖面(b)圖a中:PSNR=36.6800dB,SNR=29.3225dB,SSIM=0.8130

        2.1.2 擴充卷積

        將3×3的經(jīng)典卷積核與本文所提出的模型對比

        測試。在網(wǎng)絡深度均為10層的前提下,擴充卷積的感受野大小為53×53,傳統(tǒng)3×3卷積的感受野大小則為21×21。若欲使傳統(tǒng)的3×3卷積得到相同范圍的感受野,則需要將網(wǎng)絡深度擴展到26層。因此采用三種不同的策略對比實驗,策略A為卷積核大小為3×3的10層網(wǎng)絡模型;策略B為本文所提出的網(wǎng)絡模型;策略C為卷積核大小為3×3的26層網(wǎng)絡模型。

        在l為0.03的條件下,訓練過程中PSNR收斂情況如圖7a所示,策略A和策略B模型分別訓練23和30次達到收斂狀態(tài),而策略C需要訓練37次才能達到收斂狀態(tài)。相比之下,前兩者的訓練時間效率更高。另外,通過對比三者PSNR,發(fā)現(xiàn)本文網(wǎng)絡模型在訓練集上最終收斂的PSNR為44dB,比策略A的PSNR約提高3dB。在測試集上,本文模型的平均PSNR為42.3dB,比策略A的PSNR平均約提高2.4dB。

        在l為0.03的條件下,訓練過程中MSE收斂情況如圖7b所示,可見相比于策略A和策略B,策略C的MSE曲線波動更劇烈且不穩(wěn)定。相比于策略A,本文網(wǎng)絡模型的MSE曲線在訓練達到穩(wěn)定時的誤差更小,去噪效果更好。

        圖7 不同網(wǎng)絡結(jié)構(gòu)模型訓練PSNR (a)和MSE(b)對比

        實驗表明,擴充卷積的優(yōu)勢在于通過設置擴充因子增大感受野。從擴充因子的設定方面考慮,對比4組不同的擴充因子設置方案,包括對稱的擴充因子設置(r=1、2、3、4、5、4、3、2、1、1,記為策略D;r=3、3、2、2、1、1、2、2、3、3,記為策略E)和非對稱的擴充因子設置(r=1、1、2、2、3、3、4、4、5、5,記為策略F;r=1、2、3、4、5、6、7、8、9、10,記為策略H),收斂情況的對比結(jié)果如圖8所示。由圖可見,對稱式擴充因子的設置明顯優(yōu)于非對稱設置,擴充因子的對稱設置使模型收斂較快,并且訓練趨于穩(wěn)定時的PSNR也較高,表明對稱式的特征提取更適用于地震數(shù)據(jù)的去噪。此外,在兩組對稱式的擴充因子設置方案中,策略D優(yōu)于策略E,原因在于不同的擴充因子決定了不同尺度的卷積核大小,多種類的擴充因子增加了特征提取的多樣性,使地震數(shù)據(jù)中的噪聲提取更充分。

        圖8 各組擴充因子模型的收斂情況對比

        2.1.3 殘差學習策略

        將不含殘差學習的模型與本文所提模型對比實驗。在l為0.05的情況下,不含殘差學習的模型的PSNR曲線有多處劇烈波動,呈鋸齒形上升;本文模型的PSNR曲線更穩(wěn)定、更快地收斂(圖9a)。

        圖9b為模型有、無殘差學習的MSE對比圖,可見隨著迭代次數(shù)的增加,兩模型的MSE均逐漸降低,但不含殘差學習模型較本文模型波動更為劇烈且收斂更慢。

        圖9 有、無殘差學習模型的PSNR(a)與MSE(b)對比

        2.1.4 殘差網(wǎng)絡中加入BN層

        將不含BN層的模型與本文所提模型對比實驗。在l為0.05的情況下,不含BN層的模型的PSNR曲線波動劇烈而且收斂較慢;相反,本文模型的PSNR曲線更穩(wěn)定、收斂更快(圖10a),并且本文模型在測試集上的平均PSNR值比前者高約1.9dB。

        圖10b為模型有、無殘差學習的MSE對比,可見不含BN層模型的MSE曲線波動劇烈且不穩(wěn)定,而本文模型的MSE曲線更穩(wěn)定地收斂。

        圖10 有、無BN層模型的PSNR(a)與MSE(b)對比

        2.1.5 網(wǎng)絡模型的部分特征圖分析

        為了分析模型去噪的中間環(huán)節(jié)的運行狀態(tài),任選一批測試集中的一個樣本在去噪過程中的部分特征如圖11所示。原始Marmousi地震數(shù)據(jù)切片為圖5a,加入l為0.05的高斯隨機噪聲后的地震數(shù)據(jù)如圖5b,圖11a為經(jīng)過第1層(EConv+ReLU)中128個3×3的卷積核處理得到的特征圖??梢钥闯雒總€卷積核學習到不同的特征,由于是網(wǎng)絡第1層提取的特征,其中保留一些較為微弱且連續(xù)的原始地震數(shù)據(jù)的同相軸信息。經(jīng)過第2~第9層(EConv+BN+ReLU)處理后,又分別得到128個特征圖,其中EConv擴張因子分別為2、3、4、5、4、3、2、1,對應的卷積核大小分別為5×5、7×7、9×9、11×11、9×9、7×7、5×5、3×3。截取第4層和第8層提取的特征圖,由圖可見經(jīng)過4層卷積處理后(圖11b),同相軸信息被認為是有效信號不再被提取,卷積核提取的是含有地震數(shù)據(jù)大致輪廓的含噪特征圖;經(jīng)過8層卷積提取(圖11c),模型得到的幾乎全是噪聲,不再含有原始數(shù)據(jù)的輪廓和同相軸等有效信息。為了清楚顯示特征提取的效果,將第2層、4層、6層、8層的第1個卷積核提取的特征圖放大

        圖11 網(wǎng)絡模型去噪過程中經(jīng)過不同層網(wǎng)絡后的特征圖(a)第1層;(b)第4層;(c)第8層

        展示(圖12a~圖12d),可以看出模型從淺層學習提取的特征包含有效信號到深層特征僅包含噪聲的變化過程。在此基礎上,經(jīng)過第10層EConv處理后,得到1個特征圖(圖12e),對應擴充因子為1、卷積核大小為3×3,該特征圖即為殘差網(wǎng)絡學習到的所有噪聲。最后將原始含噪聲的地震數(shù)據(jù)與網(wǎng)絡模型學習到的殘差相減,得到該網(wǎng)絡模型的最終輸出結(jié)果(圖12f),即去噪后的地震數(shù)據(jù)。

        圖12 部分特征圖的放大展示(a)第2層第1個卷積核提取的特征;(b)第4層第1個卷積核提取的特征;(c)第6層第1個卷積核提取的特征;(d)第8層第1個卷積核提取的特征;(e)經(jīng)過第10層網(wǎng)絡后得到的特征;(f)最終去噪結(jié)果

        2.2 本文方法與其他同類方法對比

        將本文提出的網(wǎng)絡模型與Curvelet變換、DCT超完備字典、K-SVD自適應學習超完備字典、Dn-CNN的噪聲壓制效果進行對比。

        2.2.1 相同強度隨機噪聲情況

        任選一個Marmousi地震數(shù)據(jù)樣本,原始數(shù)據(jù)如圖5a所示,圖13a為加入l為0.03的高斯隨機噪聲后的地震數(shù)據(jù),其中矩形標記區(qū)域中的同相軸信息被噪聲嚴重干擾。對圖13a分別運用Curvelet變換、DCT字典、K-SVD字典、DnCNN以及本文算法進行噪聲壓制,并對比效果。

        圖13b為Curvelet變換稀疏表示后的去噪效果,由于Curvelet變換適用于分析二維信號中的曲線邊緣特征,在地震數(shù)據(jù)處理領域應用比較廣泛,可以看出地震數(shù)據(jù)中部分噪聲得到了壓制,但仍存在大量噪聲。

        圖13c為DCT字典學習的去噪效果,地震數(shù)據(jù)被劃分成可重疊且固定大小的數(shù)據(jù)塊以保持局部特征,可見去噪效果得到改善,但由于單一的DCT基不能自適應地反映圖像的局部特征,因此矩形標記區(qū)域中的部分同相軸信息被當成噪聲去除。

        圖13d為基于K-SVD自適應學習的超完備字典稀疏表示去噪效果,在DCT變換的基礎上構(gòu)造的超完備冗余字典,有效地捕捉了主要特征,進一步提高了去噪效果,但K-SVD算法不考慮數(shù)據(jù)塊之間的相似性,導致數(shù)據(jù)塊邊界與局部波形變化劇烈的地震道失真。

        圖13e為基于深度學習的DnCNN去噪效果,通過利用大量的樣本覆蓋待處理數(shù)據(jù)的特征,采用多層卷積、非線性映射等方式提取數(shù)據(jù)時域的特征,不斷調(diào)整網(wǎng)絡模型直至找到一個使誤差最小的參數(shù)。該方法雖然效果有大幅提升,但由于僅關注時域特征,在地震數(shù)據(jù)能量較弱的區(qū)域無法僅根據(jù)有限的特征判別真實數(shù)據(jù)和噪聲數(shù)據(jù),導致矩形標記區(qū)域中的同相軸信息的丟失。

        圖13f為本文算法去噪效果,結(jié)合F-K域計算損失函數(shù),從時域和頻域聯(lián)合考慮誤差,改善噪聲去除的效果,采用擴充卷積增加地震數(shù)據(jù)特征提取的多樣性,減少了地震數(shù)據(jù)細節(jié)的丟失??梢钥闯觯cDnCNN去噪算法相比,本文算法細節(jié)損失明顯減弱,同相軸紋理也更加清晰。

        圖13 不同去噪算法在相同強度高斯隨機噪聲下的去噪效果對比(a)加入l為0.03的高斯隨機噪聲后地震數(shù)據(jù);(b)Curvelet變換;(c)DCT超完備字典;(d)K-SVD自適應學習超完備字典;(e)DnCNN方法;(f)本文方法

        以上不同方法去噪后的PSNR、SNR、SSIM對比如表1所示。可見本文方法較其他同類方法去噪效果更好。另外,分析有效信號的保護效果。各種去噪方法的殘差剖面如圖14所示。原始數(shù)據(jù)如圖5a所示,圖14a為加入l為0.03的高斯隨機噪聲后的殘差剖面,圖14b~圖14d分別為Curvelet變換、DCT超完備字典、K-SVD自適應學習超完備字典噪聲壓制后的殘差剖面,這三種方法均包含隨機噪聲和較強的信號,對有效信號的保護效果不理想。圖14e為DnCNN噪聲壓制后的殘差剖面,可見信號保護的效果已有明顯提升。圖14f為本文算法噪聲壓制后的殘差剖面,較前面四種去噪方法而言,有效信號保護能力最強。

        圖14 不同去噪算法在相同強度高斯隨機噪聲下的殘差剖面對比(a)加入l為0.03的高斯隨機噪聲后;(b)Curvelet變換噪聲壓制后;(c)DCT超完備字典噪聲壓制后;(d)K-SVD自適應學習超完備字典噪聲壓制后;(e)DnCNN噪聲壓制后;(f)本文方法噪聲壓制后

        表1 不同方法去噪效果對比

        2.2.2 不同強度隨機噪聲情況

        為對比不同算法對不同強度噪聲的適應性,表2列出了不同算法在加入較低強度高斯隨機噪聲(l為0.01~0.08)條件下噪聲壓制后的SNR對比,可見本文算法優(yōu)于其他算法的噪聲壓制效果。

        表2 不同算法在加入較低強度高斯隨機噪聲下噪聲壓制后的SNR對比 dB

        表3為不同算法在加入較高強度高斯隨機噪聲(l為0.1~0.8)下噪聲壓制后的SNR對比,可見當l小于0.3時,本文算法比其他算法的去噪效果更好;當l大于0.3時,由于噪聲較強,大部分有效地震數(shù)據(jù)被噪聲淹沒,導致各種算法的去噪效果均不理想,尤其是Curvelet變換采用的硬閾值處理方法,去噪效果較差。本文算法與DCT、K-SVD、DnCNN的噪聲壓制效果比較接近。

        表3 不同算法在加入較高強度高斯隨機噪聲下噪聲壓制后的SNR對比 dB

        2.3 本文模型對不同強度隨機噪聲的去噪效果對比

        分別在原始數(shù)據(jù)加入不同強度的噪聲作為訓練數(shù)據(jù),將訓練保存好的模型應用于不同強度噪聲的測試集上,以加入l為0.01~0.08的高斯隨機噪聲為例,對比訓練數(shù)據(jù)不同的噪聲強度對結(jié)果的影響(表4)可以看出如下特點。

        (1)以原始數(shù)據(jù)加入l=0.03噪聲等級的測試集為例(表4中l(wèi)=0.03的列),采用l=0.03強度的噪聲訓練的網(wǎng)絡取得了該列中最高的SNR值,該列的其他訓練噪聲強度因子l=0.02、0.04、0.05的訓練集得到的網(wǎng)絡,去噪效果比較接近。

        (2)以l=0.03噪聲等級的訓練集為例(表4中l(wèi)=0.03的行),該模型不僅對l=0.03的噪聲強度去噪有效,對l=0.02、0.04的噪聲強度也表現(xiàn)出了較好的去噪效果。因此本文算法對于測試集噪聲分布與訓練集分布較為接近時具有一定的泛化能力。

        表4 不同強度噪聲的訓練數(shù)據(jù)對測試數(shù)據(jù)噪聲壓制后的SNR對比 dB

        3 實際資料處理

        3.1 數(shù)據(jù)訓練

        為了進一步說明本文算法的噪聲壓制效果,以實際地震數(shù)據(jù)為樣本測試不同去噪算法(圖15)。

        圖15 任意樣本及訓練效果展示(a)原始地震數(shù)據(jù);(b)加入強度l為0.03的高斯隨機噪聲后數(shù)據(jù);(c)第50次迭代訓練的去噪結(jié)果;(d)第50次迭代訓練去噪后的殘差剖面。圖b和圖c的PSNR、SNR、 SSIM 分別為27.4771dB、23.2793dB、0.6185和41.85162dB、37.4036dB、0.9578

        為了提高訓練效率與特征提取的精度,在原始地震數(shù)據(jù)的基礎上進行了裁剪處理,得到2000個300個采樣點×500道的切片數(shù)據(jù)。為了減少單個樣本特征的復雜程度,在實際訓練過程中,對其中1800個樣本進一步處理,均以50個道為間距平移、裁剪得到7個200道×300個采樣點的切片數(shù)據(jù),共得到12600個樣本,其中訓練集包含11200個樣本,驗證集包含1400個樣本,其余的200個尺寸為300個采樣點、500道的切片數(shù)據(jù)作為測試集。訓練過程中學習率初始設定為0.001,采用Adam算法優(yōu)化學習目標,Epoch設置為50次,批量大小設置為20。

        為說明本文算法對訓練數(shù)據(jù)庫樣本去噪的訓練效果,在第50次迭代中任意選取一個樣本進行展示(圖15)。圖15a為原始地震數(shù)據(jù),圖15b為加入l為0.03的高斯隨機噪聲后的地震數(shù)據(jù),圖15c為第50次迭代訓練后的去噪效果。通過評價指標SNR和SSIM可以看出,本文模型在實際數(shù)據(jù)的訓練階段具有較強的噪聲壓制效果。圖15d為第50次迭代訓練去噪效果的殘差剖面,可以看出本文模型具有較強的有效信號保護與隨機噪聲逼近能力。

        3.2 數(shù)據(jù)測試

        為充分測試本文算法對實際地震數(shù)據(jù)的適用性,選取了兩組實際數(shù)據(jù),第一組為經(jīng)過噪聲壓制預處理的實際數(shù)據(jù),第二組為原始實際數(shù)據(jù)。

        3.2.1 經(jīng)過預處理的實際數(shù)據(jù)實驗

        為了說明本文算法對測試數(shù)據(jù)庫樣本的去噪效果,在測試數(shù)據(jù)庫中任意選取一個經(jīng)過預處理的實際地震數(shù)據(jù)樣本如圖16a所示,其中矩形標記區(qū)域(記為Ⅰ區(qū)域)中的數(shù)據(jù)同相軸較密集且特征明顯,而橢圓形標區(qū)域(記為Ⅱ區(qū)域)中的數(shù)據(jù)能量較弱且特征不明顯。加入強度l為0.03的高斯隨機噪聲后的地震數(shù)據(jù)如圖16b所示,受噪聲的影響,Ⅰ區(qū)域同相軸變得模糊且不連續(xù),而Ⅱ區(qū)域內(nèi)能量弱的部分幾乎不能直觀看出原始數(shù)據(jù)的特征。圖16c為Curvelet變換噪聲壓制效果,可以看出Ⅰ區(qū)域同相軸的邊緣得到了較好的恢復,但Ⅱ區(qū)域的特征被看成是噪聲,導致有效信號和噪聲一起被壓制。圖16d為DCT超完備字典噪聲壓制效果,Ⅰ區(qū)域同相軸不密集并且Ⅱ區(qū)域的紋理細節(jié)丟失。圖16e為K-SVD自適應學習超完備字典噪聲壓制效果,同DCT的噪聲壓制效果類似。圖16f為DnCNN噪聲壓制效果,訓練數(shù)據(jù)集的噪聲強度l的覆蓋范圍為0.03~0.10,以提高模型在該區(qū)間的泛化能力,訓練好的網(wǎng)絡模型記為G1,可以看出Ⅰ區(qū)域同相軸連續(xù)且細節(jié)信息保持較好,Ⅱ區(qū)域出現(xiàn)細節(jié)丟失的現(xiàn)象。圖16g為本文算法噪聲壓制效果,采用與G1模型相同的訓練數(shù)據(jù)集,訓練好的網(wǎng)絡模型記為G2,由于采用擴張卷積充分提取噪聲特征,使Ⅰ區(qū)域和Ⅱ區(qū)域都保留了較好的細節(jié)信息,和原始地震數(shù)據(jù)的相似度最高。以上方法去噪后的PSNR、SNR、SSIM對比如表5所示。

        圖16 不同方法對預處理后實際數(shù)據(jù)的噪聲壓制效果對比(a)預處理后原始疊后海洋地震數(shù)據(jù);(b)加入l為0.03的高斯隨機噪聲后數(shù)據(jù);(c)Curvelet變換方法;(d)DCT超完備字典方法;(e)K-SVD自適應學習超完備字典方法;(f)DnCNN方法;(g)本文方法

        表5 不同方法去噪后的PSNR、SNR、SSIM對比

        3.2.2 原始實際數(shù)據(jù)實驗

        在測試數(shù)據(jù)庫中任意選取原始的實際地震數(shù)據(jù)樣本如圖17a所示,紅色矩形Ⅰ區(qū)域中的地震數(shù)據(jù)同相軸較密集且特征明顯;紅色矩形Ⅱ區(qū)域中的地震數(shù)據(jù)信息被噪聲淹沒,無法識別;紅色矩形Ⅲ區(qū)域中的同相軸受噪聲影響,連續(xù)性較差。經(jīng)過Curvelet變換噪聲壓制后(圖17b),Ⅱ區(qū)域和Ⅲ區(qū)域同相軸的邊緣得到了較好的恢復,總體上雖然抑制了一些噪聲,但Ⅰ區(qū)域中仍含有大量噪聲,去噪效果不夠明顯。經(jīng)過DCT超完備字典噪聲壓制后(圖17c),Ⅰ區(qū)域和Ⅲ區(qū)域中同相軸信息得到了較好的恢復,去噪效果比較明顯,但Ⅱ區(qū)域中的有效信號和噪聲一起被壓制,導致紋理細節(jié)的丟失。經(jīng)過K-SVD自適應學習超完備字典噪聲壓制后(圖17d),同DCT的噪聲壓制效果類似。圖17e和圖17f分別為網(wǎng)絡模型G1和G2應用于實際數(shù)據(jù)的噪聲壓制效果,因為模型G1和G2的訓練數(shù)據(jù)集覆蓋了強度l從0.03到0.10的噪聲等級,所以兩模型可以學習到該區(qū)間的噪聲特征分布,進而對原始實際數(shù)據(jù)中的隨機噪聲進行去噪處理。從圖17e中可以看出,Ⅰ區(qū)域和Ⅲ區(qū)域同相軸連續(xù)且細節(jié)信息保持較好,Ⅱ區(qū)域中的紋理特征較DCT超完備字典和K-SVD自適應學習超完備字典噪聲壓制更明顯,但依然存在著細節(jié)丟失的現(xiàn)象。從圖17f中可以看出,Ⅰ區(qū)域和Ⅲ區(qū)域中的噪聲得到了很好地抑制,均保留了清晰且連續(xù)的同相軸信息,易于觀測,Ⅱ區(qū)域的細節(jié)信息也得到了較好的恢復,因此模型G2的去噪效果更優(yōu)于模型G1。

        圖17 原始實際數(shù)據(jù)不同方法噪聲壓制結(jié)果對比(a)原始疊后地震數(shù)據(jù);(b)Curvelet變換方法;(c)DCT超完備字典方法;(d)K-SVD自適應學習超完備字典方法;(e)DnCNN方法;(f)本文方法

        4 結(jié)論

        本文提出了一種新的基于聯(lián)合深度學習的地震數(shù)據(jù)隨機噪聲壓制方法,聯(lián)合時域與頻域的信息,定義損失函數(shù),加強地震數(shù)據(jù)細節(jié)的保持,改善了噪聲去除的效果。通過研究卷積核大小和網(wǎng)絡深度對感受野大小的影響,采用擴充卷積,設置擴充因子,并通過實驗確定了最優(yōu)的一組擴充因子,增加了地震數(shù)據(jù)特征提取的多樣性,減少復雜的地震道數(shù)據(jù)噪聲壓制過程中細節(jié)的丟失。此外,本文方法還考慮了網(wǎng)絡輸入與輸出數(shù)據(jù)具有相似性的特點,引入殘差學習策略學習噪聲,在此基礎上,加入BN層加快訓練收斂,提高地震數(shù)據(jù)去噪效率。分別通過模型數(shù)據(jù)和實際數(shù)據(jù)與當前比較流行的隨機噪聲壓制算法對比表明,在噪聲壓制效果方面,本文去噪模型可獲得更高的信噪比和局部細節(jié)特征的保持能力;在噪聲壓制效率方面,本文模型在測試過程不需要迭代學習,運行效率較高;在算法泛化能力方面,本文模型在測試噪聲強度與訓練集接近的情況下具有一定的泛化能力。綜上所述,該模型可有效地處理地震數(shù)據(jù)隨機噪聲壓制問題。

        猜你喜歡
        特征效果模型
        一半模型
        按摩效果確有理論依據(jù)
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權(quán)M-估計的漸近分布
        如何表達“特征”
        不忠誠的四個特征
        當代陜西(2019年10期)2019-06-03 10:12:04
        迅速制造慢門虛化效果
        抓住“瞬間性”效果
        中華詩詞(2018年11期)2018-03-26 06:41:34
        抓住特征巧觀察
        3D打印中的模型分割與打包
        欧美高大丰满freesex| 337p日本欧洲亚洲大胆色噜噜| 丝袜美腿一区二区三区| 精品久久人人爽天天玩人人妻| 毛片无码国产| 人妻去按摩店被黑人按中出 | 日本不卡视频一区二区三区| 国产精品二区一区二区aⅴ污介绍 少妇伦子伦情品无吗 | 亚洲成人精品久久久国产精品| 日本一区二区在线免费视频 | 日本一道dvd在线中文字幕 | 噜噜噜色97| 日韩在线精品视频免费| 2020国产在视频线自在拍| 看久久久久久a级毛片| 国产自国产在线观看免费观看| 欧洲国产精品无码专区影院| 国产亚洲专区一区二区| 日韩精品视频久久一区二区| 欧美最大胆的西西人体44| 日韩av无码成人无码免费| 亚洲日韩AV无码美腿丝袜| 漂亮人妻被强中文字幕乱码| 亚洲精品久久国产精品| 一二三四视频社区在线| 白丝美女被狂躁免费视频网站| 伊人婷婷综合缴情亚洲五月| 亚洲av日韩av永久无码下载| 国产精品揄拍100视频| 日本av一区二区播放| 精品人妻av一区二区三区四区| 婷婷射精av这里只有精品| 久久人人妻人人做人人爽| 精品综合久久久久久99| 国产高清视频在线不卡一区| 亚洲av综合a色av中文| āV第三区亚洲狠狠婷婷综合久久| 蜜桃av一区二区三区久久| 亚洲人成自拍网站在线观看| 国产又黄又大又粗视频| 国产免费视频一区二区|