亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于粗細網(wǎng)絡模型分步訓練的地震數(shù)據(jù)重建方法

        2024-01-01 00:00:00葛康建王長鵬張春霞張講社熊登
        吉林大學學報(地球科學版) 2024年4期
        關鍵詞:損失卷積函數(shù)

        摘要:由于地形等復雜條件的限制,疊前地震數(shù)據(jù)在空間上存在不完整或不規(guī)則分布的情況,導致數(shù)據(jù)出現(xiàn)缺失或混淆等現(xiàn)象。近年來,基于卷積神經(jīng)網(wǎng)絡的方法已經(jīng)廣泛應用于缺失地震數(shù)據(jù)重建工作。然而一步訓練過程的網(wǎng)絡模型不足以重建具有寬振幅范圍的缺失地震數(shù)據(jù),低振幅缺失部分的重建結(jié)果仍需改進。因此本文提出一種具有分步訓練過程的粗細網(wǎng)絡模型。該模型由粗網(wǎng)絡和細網(wǎng)絡組成,分步恢復寬振幅范圍內(nèi)的缺失地震數(shù)據(jù)。在細網(wǎng)絡中引入離散小波變換代替池化操作,其可逆性在上采樣階段有利于保留細節(jié)特征。模型采用混合損失函數(shù)重建缺失信號的真實細節(jié)。粗網(wǎng)絡的初步恢復結(jié)果經(jīng)過掩碼操作處理后輸入到細網(wǎng)絡,細網(wǎng)絡進一步精確恢復缺失部分的低振幅信號。實驗結(jié)果表明,與殘差網(wǎng)絡(ResNet)、U型網(wǎng)絡(UNet)和多級小波卷積神經(jīng)網(wǎng)絡(MWCNN)的重建方法相比,本文方法在合成數(shù)據(jù)和真實數(shù)據(jù)上展現(xiàn)出更卓越的重建性能:在缺失75%的合成數(shù)據(jù)上,信噪比為18.818 5 dB;在缺失50%的真實數(shù)據(jù)上,信噪比為12.255" 1 dB。在消融研究中,本文模型重建的均方誤差為1.689 3×10-4,信噪比為19.284 6 dB,峰值信噪比為 43.743 5 dB,結(jié)構相似性為0.984 1,均優(yōu)于其他三組對照實驗。

        關鍵詞:粗細網(wǎng)絡;混合損失;離散小波變換;地震數(shù)據(jù)重建

        doi:10.13278/j.cnki.jjuese.20230097

        中圖分類號:P631.4

        文獻標志碼:A

        Supported by the National Natural Science Foundation of China (12001057) and the Fundamental Research Funds for the Central Universities in Chang’an University (300102122101)

        Seismic Data Reconstruction Method Based on Coarse-Refine Network

        Model with Stepwise Training

        Ge Kangjian1, Wang Changpeng1, Zhang Chunxia2, Zhang Jiangshe2, Xiong Deng3

        1. School of Science, Chang’an University, Xi’an 710064, China

        2. School of Mathematics and Statistics, Xi’an Jiaotong University, Xi’an 710049, China

        3. Research amp;Development Center, BGP, Zhuozhou 072751, Hebei, China

        Abstract:Due to the limitation of complex conditions such as topography, the pre-stack seismic data are spatially incomplete or irregularly distributed, resulting in phenomena such as missing or confusing data. In recent years, methods based on convolutional neural networks have been widely used in the reconstruction of missing seismic data. However, the network model of one-step training process is not enough to reconstruct the missing seismic data with a wide amplitude range, and the reconstruction results of the low-amplitude missing part still need to be improved. Therefore," a coarse-fine network model with a stepwise training process is proposed in this paper. The model consists of a coarse network and a fine network to recover the missing seismic data with a wide amplitude range in a step-by-step process. Discrete wavelet transform is introduced in the fine network instead of pooling operation, and its reversibility facilitates the preservation of detailed features in the up-sampling stage. Using a hybrid loss function, the model reconstructs the true details of the missing signals. The preliminary recovery results of the coarse network are processed by masking operation and input to the fine network, which further accurately recovers the low amplitude signal of the missing part. The experimental results show that compared with the reconstruction methods of residual network (ResNet), U-shaped network (U-Net) and multilevel wavelet convolutional neural network (MWCNN), the method in this paper demonstrates superior reconstruction performance on both synthetic and real data: the signal-to-noise ratio is 18.818 5 dB" on synthetic data with 75% missing, and 12.255 1 dB on real data with 50% missing. In the ablation study, the mean square error of the model reconstruction in this paper is1.689 3×10-4, the signal-to-noise ratio is 19.284 6 dB, the peak signal-to-noise ratio is 43.743 5 dB, and the structural similarity index is 0.984 1, all of which are better than the other three sets of control experiments.

        Key words: coarse-refine network; hybrid loss; discrete wavelet transform; seismic data reconstruction

        0 引言

        在地震數(shù)據(jù)處理領域中,從缺失道重建完整的疊前數(shù)據(jù)是一項長期的任務。由于建筑物、湖泊和冰川等復雜地形條件的限制,地震采集系統(tǒng)通常很難收集完整的野外地震疊前數(shù)據(jù),導致采集的地震數(shù)據(jù)出現(xiàn)不完整或不規(guī)則分布,使數(shù)據(jù)存在缺失或混疊現(xiàn)象。在實際應用方面,地震數(shù)據(jù)作為后續(xù)處理和反演的先天之本,對其進行高信噪比、高保真、高效的重建具有十分重要的現(xiàn)實意義。

        目前已經(jīng)被提出用于地震數(shù)據(jù)重建的方法可以分為兩類:基于模型驅(qū)動的方法和基于數(shù)據(jù)驅(qū)動的方法?;谀P万?qū)動的方法大致分為三種:基于波動方程的地震數(shù)據(jù)重建方法[1]、基于稀疏變換的地震數(shù)據(jù)重建方法[23]、基于低秩矩陣完備的地震數(shù)據(jù)據(jù)重建方法[45]。這些方法獨立于數(shù)據(jù),在很多方面得到了廣泛的應用,但是它們在使用之前通常需要基于一定的先驗知識和預先假設,存在一定的局限性,在面對更復雜的地震數(shù)據(jù)時表現(xiàn)不佳。

        近年來,以深度學習為代表的數(shù)據(jù)驅(qū)動方法已經(jīng)廣泛應用于地震數(shù)據(jù)的重建[69]。它不受預先假設的限制,具有強大的特征提取能力,可以有效解決阻抗反演[1011]、地震斷層解釋[1213]和地震數(shù)據(jù)降噪[1415] 等地震勘探問題。一些經(jīng)典網(wǎng)絡如卷積自編碼(CAE)[16]、殘差網(wǎng)絡(ResNet)[17]、U型網(wǎng)絡(UNet)[18]和生成對抗網(wǎng)絡(GAN)[19]已被用于解決缺失數(shù)據(jù)重建任務。隨著網(wǎng)絡深度的不斷增加,網(wǎng)絡性能并非提升,反而出現(xiàn)退化現(xiàn)象。針對此問題,以殘差塊為基礎的ResNet被提出,該網(wǎng)絡通過在殘差塊中引入跳連接,實現(xiàn)了信息在多層間的直接傳遞。此設計有效緩解了梯度消失問題。Wang等[17]將殘差學習框架和卷積神經(jīng)網(wǎng)絡相結(jié)合來解決地震數(shù)據(jù)插值問題。Chai等[18]用UNet解決了規(guī)則和不規(guī)則缺失地震數(shù)據(jù)的重建問題。UNet的第一個特點是其對稱的下采樣和上采樣過程;第二個特點是其中間的長連接。下采樣可以增加輸入數(shù)據(jù)干擾的魯棒性,降低運算量,擴大感受野;上采樣將抽象的特征解碼到原圖尺寸。長連接將下采樣過程中得到的高級特征保留下來,聯(lián)系了輸入數(shù)據(jù)的許多信息,有助于還原下采樣過程中的信息損失。雖然這些方法可以恢復大部分缺失信號,但沒有關注到地震數(shù)據(jù)中的紋理和結(jié)構差異,因此往往會產(chǎn)生模糊的結(jié)果,缺乏細節(jié)??紤]到這一事實,Yu等[20]提出了添加注意力機制來關注全局信息的模型,并使用結(jié)合結(jié)構相似性(SSIM)和L1范數(shù)的混合損失函數(shù)來增強紋理細節(jié)。在卷積神經(jīng)網(wǎng)絡模型中,通常使用池化操作來擴大感受野,但這可能會丟失數(shù)據(jù)的細節(jié)特征,影響地震數(shù)據(jù)的精確重建。盡管擴張卷積可以增大感受野而不增加計算成本,但它可能受到網(wǎng)格效應的限制。多級小波卷積神經(jīng)網(wǎng)絡(MWCNN)[21]采用離散小波變換代替池化,并使用逆小波變換進行上采樣,有效擴大感受野同時保留細節(jié),實現(xiàn)了效率和性能之間的平衡。

        基于以上分析,本文提出了一種具有分步訓練過程的粗細網(wǎng)絡模型;地震數(shù)據(jù)首先通過粗網(wǎng)絡UNet得到一個粗略的重建結(jié)果;然后基于粗網(wǎng)絡的插值結(jié)果,細網(wǎng)絡MWCNN采用離散小波變換代替池化過程,學習更精細的特征,促進信號細節(jié)的恢復。最后,通過合成數(shù)據(jù)和真實數(shù)據(jù),與一步訓練過程的網(wǎng)絡模型進行對比,以證實本文模型提高缺失數(shù)據(jù)重建質(zhì)量的有效性。

        1 方法原理

        1.1 粗細網(wǎng)絡

        在圖像處理領域,雖然單一網(wǎng)絡(如UNet)[22]已經(jīng)被廣泛應用,表現(xiàn)出良好的性能,但編碼器[23]的下采樣過程和損失[24]的像素級計算導致了混疊和過平滑等問題的出現(xiàn)。為了解決單一網(wǎng)絡架構所帶來的問題,具有分步訓練過程的粗到細網(wǎng)絡已廣泛應用于圖像修復[2527]領域。使用兩個連續(xù)的神經(jīng)網(wǎng)絡,而不是一個網(wǎng)絡擴大感受野,穩(wěn)定了訓練過程[26]。在地震數(shù)據(jù)處理領域,He等[28]使用多個UNet來提高地震道插值的性能。因此,我們設計了由粗到細的網(wǎng)絡,其結(jié)構如圖1所示。使用UNet作為粗網(wǎng)絡,MWCNN作為細網(wǎng)絡,圖2為粗細網(wǎng)絡的詳細結(jié)構。粗網(wǎng)絡和細網(wǎng)絡均為U型結(jié)構,兩者的差異主要是細網(wǎng)絡使用離散小波變換代替下采樣過程,使用逆小波變換代替上采樣過程。

        在粗細網(wǎng)絡架構中,粗網(wǎng)絡使用缺失地震數(shù)據(jù)Iin=Igt⊙M作為輸入(⊙表示Hadamard乘積),返回重建數(shù)據(jù)的粗略結(jié)果Icoa。通過引入二進制掩碼,減少了網(wǎng)絡需要學習的任務量,加速了網(wǎng)絡收

        斂。基于Icoa,細網(wǎng)絡使用Igt⊙M+Icoa⊙(1-M)作為輸入,并返回細網(wǎng)絡的重建結(jié)果Iref。最終,粗細網(wǎng)絡模型的重建結(jié)果為I~=Igt⊙M+Iref⊙(1-M)。

        在粗細網(wǎng)絡訓練的第一步,粗網(wǎng)絡損失函數(shù)Lcoa對粗網(wǎng)絡參數(shù)θcoa進行偏導計算得到梯度,然后使用反向傳播算法將梯度信息從輸出層向輸入層傳遞,以更新粗網(wǎng)絡參數(shù)。在訓練的第二步,細網(wǎng)絡損

        失函數(shù)Lref對細網(wǎng)絡參數(shù)θref和粗網(wǎng)絡參數(shù)θcoa再次計算梯度,連續(xù)更新粗網(wǎng)絡與細網(wǎng)絡的參數(shù)。

        1.2 離散小波變換

        離散小波變換是一種信號分析工具,它在時域和頻域上具有多分辨率分析能力,能將輸入數(shù)據(jù)分解為描述不同頻帶特征的多個子集。以Haar小波為例,輸入圖像通過一個低通濾波器fll和三個高通濾波器flh、fhl、fhh進行處理,分解為四個子圖xll、xlh、xhl和xhh,分別表示圖像在不同方向上的頻率特征。這個過程本質(zhì)上是一種特殊的卷積下采樣,具體操作如下:

        xll=(fll*x)↓2;

        xlh=(flh*x)↓2;

        xhl=(fhl*x)↓2;

        xhh=(fhh*x)↓2。

        (1)

        式中:*表示卷積操作;↓2表示步長為2的下采樣操作。由于小波變換的正交性,可以通過逆小波變換來精確地重構輸入圖像。因此,通過引入離散小波變換和逆小波變換來保持卷積層的特征圖,可以減小原始數(shù)據(jù)重建的誤差,增強重建模型的性能。

        1.3 混合損失

        在網(wǎng)絡訓練過程中,損失函數(shù)計算模型前向傳播結(jié)果與真實值之間的差距,從而指導下一步訓練向正確的方向進行。適當?shù)膿p失函數(shù)可以加速模型收斂,更好地度量樣本間的相似性。均方誤差(MSE)損失作為一種像素級損失函數(shù),廣泛用于地震數(shù)據(jù)重建。如圖1所示,本文模型采取兩步參數(shù)更新策略,基于第一步中粗網(wǎng)絡的初步插值,第二步獲得比第一步更完整的輸入,從而獲得更好的特征表示。在第一步,Lcoa選擇MSE損失更新粗網(wǎng)絡參數(shù)。

        Igt. 完整地震數(shù)據(jù);M. 完整地震數(shù)據(jù)對應的隨機掩碼(缺失道設置為0,有效道設置為1);Iin. 輸入;Lcoa. 粗網(wǎng)絡損失函數(shù);θcoa. 粗網(wǎng)絡參數(shù);Icoa. 粗網(wǎng)格重建結(jié)果;Lref細網(wǎng)絡損失函數(shù);θref細網(wǎng)絡參數(shù);Iref細網(wǎng)絡重建結(jié)果。

        單一的MSE損失經(jīng)常產(chǎn)生過度平滑的結(jié)果,不能很好地重建缺失信號的局部峰值和細節(jié)。Yu等[20]提出了結(jié)合SSIM和L1范數(shù)的聯(lián)合損失,增強了紋理細節(jié),緩解了插值結(jié)果過于平滑的問題。SSIM是一種圖像質(zhì)量評估指標,衡量兩幅圖像之間的細節(jié)紋理差異[29]。在處理地震數(shù)據(jù)重建任務時,可以將數(shù)據(jù)視為圖像形式。因此,對于重建結(jié)果x和真值y,他們的SSIM被定義為

        SSIM(x,y)=(2μxμy+c1)(2σxy+c2)(μ2x+μ2y+c1)(σ2x+σ2y+c2)。(2)

        式中:μx和μy分別為x與y的平均值;σx和σy分別為x與y的標準差;σxy為x和y的協(xié)方差;c1和c2為常數(shù),用以避免分母為零引起的系統(tǒng)誤差。SSIM取值范圍為[0, 1],值越大表示x和y之間越有較強的相似性。而地震數(shù)據(jù)重建的目標是最小化真值和重建結(jié)果之間的差異,故SSIM的損失函數(shù)被定義為

        LSSIM=1-SSIM(x,y)。(3)

        結(jié)合L1范數(shù)的損失函數(shù)LL1,最終訓練過程中細網(wǎng)絡的損失函數(shù)為

        Lref=λ1Lcoa+λ2LSSIM+λ3LL1。(4)

        式中,λ1、λ2和λ3用于調(diào)整不同損失的權重。即在第二步,整個模型通過式(4)給出的混合損失進行反向傳播,連續(xù)更新粗網(wǎng)絡與細網(wǎng)絡的參數(shù)。

        2 實驗

        為了驗證本文提出的網(wǎng)絡模型在地震數(shù)據(jù)重建方面的有效性,分別在合成地震數(shù)據(jù)及真實地震數(shù)據(jù)上進行實驗,并采用MSE損失下訓練的ResNet[17]、UNet[18]和MWCNN[21]三個模型作對比。

        2.1 評價指標

        為了定量比較不同的深度學習模型,采用四個指標衡量地震數(shù)據(jù)重建的效果,包括MSE、信噪比(SNR)、峰值信噪比(PSNR)和SSIM。MSE、SNR、PSNR分別定義為:

        MSE=1Nx-y2F;(5)

        SNR=10lgy2Fx-y2F;(6)

        PSNR=10lgA2maxMSE。(7)

        式中:N為樣本數(shù)量;·F表示Frobenius范數(shù); A2max為地震數(shù)據(jù)中的最大幅值。MSE越小,代表地震數(shù)據(jù)重建的效果越好;更大的SNR代表更好的重建質(zhì)量;PSNR越大,代表重建結(jié)果和實際情況之間的失真越小。

        2.2 合成數(shù)據(jù)

        本文在公開數(shù)據(jù)集2007 BP Anisotropic Velocity Benchmark上進行合成數(shù)據(jù)實驗。該數(shù)據(jù)集中每個炮集大小為1 151×800,采樣率為8 ms。每一炮包含800條道,每條道都是1 151個時間采樣數(shù)。首先,對每個炮集進行75%的隨機缺失;然后,將缺失的炮集和完整的炮集分別進行切塊,每個切塊的大小為128×128;最后,隨機選擇10 560個切塊,按8∶1∶1劃分為訓練集、驗證集和測試集,并將所有的切塊歸一化到[-1, 1]。

        模型的粗網(wǎng)絡和細網(wǎng)絡都采用Adam優(yōu)化器,學習率為5×10-4,批量大小設置為32。細網(wǎng)絡損失函數(shù)的權重λ1、λ2和λ3均設置為1。實驗基于PyTorch深度學習框架,在Windows 10的NVIDIA GTX3060下進行。對于合成數(shù)據(jù),粗網(wǎng)絡和細網(wǎng)絡使用批量歸一化。通過上下翻轉(zhuǎn)、旋轉(zhuǎn)和放縮等方式進行數(shù)據(jù)擴充,可以豐富缺失地震數(shù)據(jù)的類型,提高網(wǎng)絡模型的魯棒性。對比模型ResNet、UNet、MWCNN除了采用MSE損失訓練以外,其他參數(shù)均與本文模型參數(shù)設置一致。

        對于ResNet、UNet、MWCNN和本文模型在地震數(shù)據(jù)上的重建結(jié)果,我們分別作定量比較與定性比較。定量比較的結(jié)果如表1所示??梢钥吹?,本文模型在所有評估指標上都優(yōu)于其他方法。

        四個模型重建結(jié)果的定性比較如圖3所示,通過合成數(shù)據(jù)上的一個測試塊展示結(jié)果。直觀上來看:對于連續(xù)缺失區(qū)域,ResNet的重建結(jié)果不理想,出現(xiàn)了明顯的不連續(xù)區(qū)域;UNet和MWCNN總體上能夠?qū)崿F(xiàn)信號的連續(xù)性,但對數(shù)據(jù)細節(jié)的恢復不夠完備,例如黑色圓圈所標區(qū)域,UNet和MWCNN的重建結(jié)果都存在偏差;而本文模型能夠較好地恢復缺失數(shù)據(jù),重建的信號更加精確。

        為了更直觀地展示重建效果,將四個模型的重建結(jié)果分別與原始數(shù)據(jù)作殘差,結(jié)果如圖4所示。從圖4可以看出,本文模型的重建結(jié)果相對其他三個模型有了進一步

        改善(紅色箭頭處)。本文模型的重建結(jié)果誤差更小,對數(shù)據(jù)細節(jié)的恢復更加完備,生成的紋理更加豐富。

        在該合成數(shù)據(jù)集上,不同模型的訓練次數(shù)與總時間如表2所示。本文模型訓練總時間略高于其他模型,但是達到收斂的訓練次數(shù)卻比其他網(wǎng)絡少,這意味著本文模型可以更好地擬合給定數(shù)據(jù)集,預測效果更好。

        2.3 真實數(shù)據(jù)

        在真實數(shù)據(jù)Mobil Avo Viking Graben Line 12上評估本文方法,該數(shù)據(jù)集包含1 001個炮集,采樣間隔為4 ms。每一炮包含120條道,1 500個時間采樣點。對于原始數(shù)據(jù)和重建數(shù)據(jù),選取其中500個時間采樣點進行展示。首先,將每個炮集都隨機缺失50%的道;然后,將缺失炮集和完整炮集分別進行切塊,每個切塊的大小為96×96;最后,隨機選擇11 700個切塊,按8∶1∶1劃分為訓練集、驗證集和測試集,并將所有的切塊歸一化到[-1, 1]。真實數(shù)據(jù)參數(shù)和模型訓練均與合成設置相同。

        把四個模型在真實地震數(shù)據(jù)上的重建結(jié)果分別做定量與定性比較,定量比較的結(jié)果如表3所示??梢钥吹?,本文模型在所有評估指標上都優(yōu)于其他方法。

        四個模型重建結(jié)果的定性比較如圖5所示,通過真實數(shù)據(jù)上的一個測試炮集展示結(jié)果。四個模型對于缺失區(qū)域都在一定程度上重建出了缺失信號,然而對于黑色橢圓的低振幅缺失區(qū)域,本文模型的重建信號與原始數(shù)據(jù)更為接近。

        為了更直觀地比較四個模型的重建結(jié)果,我們展示原始真實數(shù)據(jù)和重建數(shù)據(jù)之間的殘差,結(jié)果如圖6所示。可以看到,相比于其他三個模型,本文模型的重建結(jié)果具有較淺的陰影和較少的信號損失,

        例如方框處;這進一步表明本文模型在地震數(shù)據(jù)重建方面的有效性。

        3 消融研究

        通過去除或更換模型部分,我們設計了三組對照實驗,包括粗網(wǎng)絡和細網(wǎng)絡的模型選擇、訓練過程中細網(wǎng)絡的損失函數(shù)選擇和粗細網(wǎng)絡的訓練過程選擇,進一步驗證本文模型的優(yōu)越性。

        第一組對照實驗粗網(wǎng)絡和細網(wǎng)絡都使用UNet,以驗證本文模型細網(wǎng)絡使用離散小波變換替代采樣過程的合理性。第二組對照實驗粗網(wǎng)格損失不參與細網(wǎng)格損失進行反向傳播,以證明本文模型細網(wǎng)絡損失函數(shù)設計的合理性。第三組對照實驗粗細網(wǎng)絡采用一步訓練過程,只由式(4)給出的混合損失進行反向傳播,更新粗細網(wǎng)絡的參數(shù),以證明本文模型粗細網(wǎng)絡訓練過程的合理性。

        在數(shù)據(jù)集SEG Advanced Modeling Program’s C3 Project(SEG C3)上進行消融研究,將控制變量設計的三組對照實驗與本文模型進行對比,定量比較結(jié)果如表4所示??梢钥吹剑疚哪P驮谒性u估指標上都優(yōu)于其他模型,證明了本文模型在地震數(shù)據(jù)重建任務中的優(yōu)越性。

        4 結(jié)論

        1)本文提出具有分步訓練過程的粗細網(wǎng)絡模型用于地震數(shù)據(jù)重建,由粗到細兩個網(wǎng)絡逐步恢復缺失信號,由粗網(wǎng)絡損失、結(jié)構相似性損失和L1損失構成的混合損失函數(shù)引導細網(wǎng)絡進一步關注缺失信號,增強紋理細節(jié),提升插值效果。

        2)合成數(shù)據(jù)和真實數(shù)據(jù)的實驗結(jié)果表明,本文模型與目前最先進方法的定量比較、定性比較都獲得了更好的重建性能。

        3)三組消融實驗驗證了網(wǎng)絡模型和損失函數(shù)設置的合理性和缺失信號重建的有效性。

        4)本文方法在訓練過程中計算時間較長,如何在保證高精度的條件下提高計算效率也是另一個研究方向。

        參考文獻(References):

        [1] Fomel S. Seismic Reflection Data Interpolation with Differential Offset and Shot Continuation[J]. Geophysics, 2003, 68(2): 733744.

        [2] Ma J W, Plonka G, Chauris H. A New Sparse Representation of Seismic Data Using Adaptive Easy-Path Wavelet Transform[J]. IEEE Geoscience and Remote Sensing Letters, 2010, 7(3): 540544.

        [3] Naghizadeh M, Sacchi D. Beyond Alias Hierarchical Scale Curvelet Interpolation of Regularly and Irregularly Sampled Seismic Data[J]. Geophysics, 2010, 75(6): 189202.

        [4] 楊帆,王長鵬,張春霞,等. 基于聯(lián)合加速近端梯度和對數(shù)加權核范數(shù)最小化的地震數(shù)據(jù)重建[J]. 吉林大學學報(地球科學版),2023,53(5):15821592.

        Yang Fan, Wang Changpeng, Zhang Chunxia, et al. Seismic Data Reconstruction Based on Joint Accelerated Proximal Gradient and Log-Weighted Nuclear Norm Minimization[J]. Journal of Jilin University (Earth Science Edition), 2023, 53 (5): 15821592.

        [5] Naghizadeh M, Sacchi M. Multidimensional De-Aliased Cadzow Reconstruction of Seismic Records[J]. Geophysics, 2013, 78(1): 15.

        [6] Yu J, Wu B. Attention and Hybrid Loss Guided Deep Learning for Consecutively Missing Seismic Data Reconstruction[J]. IEEE Geoscience and Remote Sensing Letters, 2022, 60: 18.

        [7] Wang B, Zhang N, Lu W, et al. Deep-Learning-Based Seismic Data Interpolation: A Preliminary Result[J]. Geophysics, 2019,84(1): 1120.

        [8] 張巖,劉小秋,李杰,等. 基于時頻聯(lián)合深度學習的地震數(shù)據(jù)重建[J]. 吉林大學學報(地球科學版),2023,53(1):283296.

        Zhang Yan, Liu Xiaoqiu, Li Jie, et al. Seismic Data Reconstruction Based on Joint Time-Frequency Deep Learning[J]. Journal of Jilin University (Earth Science Edition), 2023, 53 (1): 283296.

        [9] Fang W, Fu L, Zhang M, et al. Seismic Data Interpolation Based on UNet with Texture Loss[J]. Geophysics, 2021, 86(1): 4154.

        [10] Wu X, Yan S, Bi Z, et al. Deep Learning for Multidimensional Seismic Impedance Inversion[J]. Geophysics, 2021, 86(5): 735745.

        [11] Chen H, Gao J, Zhang W, et al. Seismic Acoustic Impedance Inversion via Optimization-Inspired Semisupervised Deep Learning[J]. IEEE Geoscience and Remote Sensing Letters, 2022, 60: 111.

        [12] Wu X, Shi Y, Fomel S, et al. FaultNet3D: Predicting Fault Probabilities,Strikes,and Dips with a Single Convolutional Neural Network[J]. IEEE Geoscience and Remote Sensing Letters, 2019, 57(11): 91389155.

        [13] Liu N, He T, Tian Y, et al. Common-Azimuth Seismic Data Fault Analysis Using Residual Unet[J]. Interpretation, 2020, 8(3): 2537.

        [14] 李盼池,石彤,李學貴. 基于循環(huán)神經(jīng)網(wǎng)絡的微地震數(shù)據(jù)降噪方法[J]. 吉林大學學報(理學版),2022,60(3):685696.

        Li Panchi, Shi Tong, Li Xuegui. Denoising Method for Microseismic Data Based on Recurrent Neural Network[J].Journal of Jilin University (Science Edition), 2022, 60(3): 685696.

        [15] 劉霞,孫英杰. 基于融合殘差注意力機制的卷積神經(jīng)網(wǎng)絡地震信號去噪[J]. 吉林大學學報(地球科學版),2023,53(2):609621.

        Liu Xia, Sun Yingjie. Seismic Signal Denoising Based on Convolutional Neural Network with Residual and Attention Mechanism[J]. Journal of Jilin University (Earth Science Edition), 2023, 53 (2): 609621.

        [16] Wang Y, Wang B, Tu N, et al. Seismic Trace Interpolation for Irregularly Spatial Sampled Data Using Convolutional Autoencoder[J]. Geophysics, 2020, 85(2): 119130.

        [17] Wang B F, Lu W K, Geng J H, et al. Seismic Data Interpolation Using Deep Learning Based Residual Networks[C]//80th EAGE Conference and Exhibition. [S. l.]: EAGE, 2018: 15.

        [18] Chai X T, Gu H M, Li F, et al. Deep Learning for Irregularly and Regularly Missing Data Reconstruction[J]. Scientific Reports, 2020, 10(1): 118.

        [19] Chang D K, Yang W Y, Yong X S, et al. Generative Adversarial Networks for Seismic Data Interpolation[C]//2018 SEG Maximizing Asset Value Through Artificial Intelligence and Machine Learning Workshop. Beijing: China University of Geosicences, 2018: 4043.

        [20] Yu J X, Wu B Y. Attention and Hybrid Loss Guided Deep Learning for Consecutively Missing Seismic Data Reconstruction[J]. IEEE Transactions on Geoscience and Remote Sensing, 2022, 60: 5902108. Doi: 10.1109/TGRS. 2021.3068279.

        [21] Liu P J, Zhang H Z, Zhang K, et al. Multi-Level Wavelet-CNN for Image Restoration[C]//IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops. Salt Lake: Institute of Electrical and Electronics Engineers, 2018. doi: 10.1109/CVPRW.2018. 00121.

        [22] Ronneberger O, Fischer P, Brox T. UNet: Convolutional Net-Works for Biomedical Image Segmentation[C]//International Conference on Medical Image Computing and Computer-Assisted Intervention. Berlin: Springer International Publishing, 2015: 234241.

        [23] Zhang R. Making Convolutional Networks Shift- Invariant Again[C]//Proceedings of the 36th International Conference on Machine Learing.

        Long Beach:[s.n.], 2019: 73247334.

        [24] Zhao H, Gallo O, Frosio I, et al. Loss Functions for Image Restoration with Neural Networks[J]. IEEE Trans Comput Imag, 2017, 3(1): 4757.

        [25] Yi Z, Tang Q, Azizi S, et al. Contextual Residual Aggregation for Ultra High-Resolution Image Inpainting[C]//Computer Vision and Pattern Recognition. Seattle: Institute of Electrical and Electronics Engineers, 2020: 75087517.

        [26] Yu J, Lin Z, Yang J, et al.Generative Image Inpainting with Contextual Attention[C]// Computer Vision and Pattern Recognition. Salt Lake: Institute of Electrical and Electronics Engineers, 2018: 55055514.

        [27] Yu J, Lin Z, Yang J, et al.Free-Form Image Inpainting with Gated Convolution[C]// International Conference on Computer Vision. Seoul: Institute of Electrical and Electronics Engineers, 2019: 44714480.

        [28] He T, Wu B, Zhu X. Seismic Data Consecutively Missing Trace Interpolation Based on Multistage Neural Network Training Process[J]. IEEE Geoscience and Remote Sensing Letters, 2022, 19: 15.

        [29] Wang Z, Bovik C, Sheikh R, et al. Image Quality Assessment: From Error Visibility to Structural Similarity[J]. IEEE Trans Image Process, 2004, 13(4): 600612.

        猜你喜歡
        損失卷積函數(shù)
        少問一句,損失千金
        二次函數(shù)
        基于3D-Winograd的快速卷積算法設計及FPGA實現(xiàn)
        第3講 “函數(shù)”復習精講
        胖胖損失了多少元
        二次函數(shù)
        函數(shù)備考精講
        從濾波器理解卷積
        電子制作(2019年11期)2019-07-04 00:34:38
        玉米抽穗前倒伏怎么辦?怎么減少損失?
        基于傅里葉域卷積表示的目標跟蹤算法
        亚洲成a人v欧美综合天堂麻豆| 中文字幕人妻无码一夲道| 蜜臀av无码人妻精品| 国产精品老熟女露脸视频 | 国产精品亚洲综合天堂夜夜| 一本大道加勒比东京热| 水蜜桃男女视频在线观看网站| av人摸人人人澡人人超碰下载| 小鲜肉自慰网站| 999久久久精品国产消防器材| 久久久国产精品免费a片3d| 亚洲av无码成人黄网站在线观看 | 国产成人自拍视频在线免费| 日韩亚洲一区二区三区在线 | 无码不卡免费一级毛片视频| 免费观看在线视频一区| 杨幂一区二区系列在线| 99久久久无码国产精品性| 国产绳艺sm调教室论坛| 在线精品无码一区二区三区| 亚洲人成伊人成综合网中文| 日韩女同在线免费观看| 婷婷色香五月综合缴缴情| 中文无码乱人伦中文视频在线v| 久久99热精品免费观看欧美| 国产内射视频免费观看| 日本一二三区在线不卡| 色狠狠一区二区三区中文| 女人张开腿让男桶喷水高潮| 国产精品久久久久免费a∨| 黄色三级视频中文字幕| 亚洲不卡av一区二区三区四区| 一本久久综合亚洲鲁鲁五月天| 亚洲啪啪综合av一区| 国产精品18久久久久久首页| 美女被强吻并脱下胸罩内裤视频| 大尺度无遮挡激烈床震网站 | 亚洲首页一区任你躁xxxxx| 中文字幕亚洲乱亚洲乱妇| 国产精品自产拍在线18禁| 久久97久久97精品免视看 |