亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        融合部分卷積和注意力機制對抗網(wǎng)絡(luò)模型的地震數(shù)據(jù)重建

        2023-02-14 03:54:48馮永基陳學(xué)華
        石油地球物理勘探 2023年1期
        關(guān)鍵詞:注意力損失卷積

        馮永基,陳學(xué)華*

        (1.成都理工大學(xué)油氣藏地質(zhì)及開發(fā)工程國家重點實驗室,四川成都 610059;2.成都理工大學(xué)地球勘探與信息技術(shù)教育部重點實驗室,四川成都 610059)

        0 引言

        在地震勘探中,由于受環(huán)境條件的限制,如障礙物、禁區(qū)等,采集的地震數(shù)據(jù)往往是不規(guī)則或缺失的。在地震數(shù)據(jù)處理時,剔除壞道也會造成地震數(shù)據(jù)的缺失。而原始數(shù)據(jù)的完整性是后續(xù)處理和解釋的基礎(chǔ),因此對缺失地震數(shù)據(jù)進行重建是地震數(shù)據(jù)處理的關(guān)鍵?,F(xiàn)有的地震數(shù)據(jù)重建方法包括兩大類:一是基于固定數(shù)據(jù)或物理模型的方法,主要包括基于波動方程[1-4],基于預(yù)測濾波[5-8]和基于變換域重建[9-12]等 ; 二是利用機器學(xué)習(xí)和深度學(xué)習(xí)的人工智能的方法[13-15]。生成對抗網(wǎng)絡(luò)(GAN)是深度學(xué)習(xí)方法的一種,也常用于地震數(shù)據(jù)重建。Oliveira等[16]最先將條件生成網(wǎng)絡(luò)應(yīng)用于地震數(shù)據(jù)重建; Gulrajani等[17]在GAN中應(yīng)用了梯度懲罰項; Donahue等[18]設(shè)計了一種雙向GAN??梢奊AN在地震數(shù)據(jù)重建中取得了一定效果。但王靜[19]指出普通GAN深度學(xué)習(xí)模型的輸出結(jié)果常出現(xiàn)模糊、假頻等缺點,該問題在圖像重建領(lǐng)域依然存在。主要原因包括[20-21]:①若輸入數(shù)據(jù)缺失較多,卷積結(jié)果受到較多0區(qū)域的影響,而已知區(qū)域?qū)矸e結(jié)果的影響較小,從而使卷積值偏離正確結(jié)果; ②普通卷積模型屬于局部操作,卷積結(jié)果主要受卷積核覆蓋范圍內(nèi)數(shù)據(jù)的影響,相隔距離較遠的數(shù)據(jù)對其影響不大。為了解決上述問題, Liu等[21]提出了一種部分卷積機制放縮卷積結(jié)果,Yu等[20]建立了一種上下文注意力(Contextual attention)機制。

        本文在深度學(xué)習(xí)模型中同時引入部分卷積和注意力機制。所用部分卷積是根據(jù)卷積核窗口內(nèi)的有效信息及其含量進行選擇性卷積,并設(shè)計了一個比例因子r放縮卷積結(jié)果。

        常規(guī)卷積過程是局部操作,卷積核的感知范圍受限于卷積核的大小,卷積結(jié)果主要受卷積核覆蓋范圍內(nèi)數(shù)據(jù)的影響。在網(wǎng)絡(luò)模型中引入注意力機制即是為了彌補此缺點。首先,對于一個前景(待重建)數(shù)據(jù)特征,先用注意力機制計算它與所有背景數(shù)據(jù)(待重建數(shù)據(jù)以外的整體數(shù)據(jù))特征的相似度; 然后,通過softmax把相似度轉(zhuǎn)換為注意力得分(加權(quán)模型),用背景數(shù)據(jù)特征和注意力得分計算得到平均數(shù)據(jù)特征; 最后,將平均數(shù)據(jù)特征結(jié)果與卷積下采樣得到的數(shù)據(jù)特征進行像素融合,即可彌補常規(guī)卷積的上述缺點。

        注意力機制在判斷前景數(shù)據(jù)特征和背景數(shù)據(jù)特征的相似程度時,常用方法包括歐式距離、點積、余弦距離等。由于待重建區(qū)域的真實數(shù)據(jù)的值是未知的,且余弦距離只受角度大小的影響,所以本文選擇余弦距離表征相似度。

        1 方法原理

        1.1 GAN神經(jīng)網(wǎng)絡(luò)模型

        本文所用網(wǎng)絡(luò)模型是基于GAN,由一個生成網(wǎng)絡(luò)G和一個判別網(wǎng)絡(luò)D構(gòu)成。G通過學(xué)習(xí)樣本,能生成與訓(xùn)練數(shù)據(jù)相同分布的新數(shù)據(jù),而D的目標(biāo)則是區(qū)分真實數(shù)據(jù)與生成數(shù)據(jù)。GAN網(wǎng)絡(luò)模型應(yīng)用廣泛,發(fā)展迅速,衍生出很多子網(wǎng)絡(luò)。本文則是基于深度卷積生成對抗網(wǎng)絡(luò)(DCGAN)進行改進。

        通過DCGAN進行數(shù)據(jù)修復(fù)訓(xùn)練時,常用掩碼M作為標(biāo)記。訓(xùn)練數(shù)據(jù)Iinput是完整的原始輸入數(shù)據(jù),M與Iinput的形狀、大小相同。M中已知區(qū)域標(biāo)記為1,缺失區(qū)域標(biāo)記為0。Iinput與M同時作為網(wǎng)絡(luò)的輸入,二者進行數(shù)乘即可得到缺失數(shù)據(jù)I。G對缺失數(shù)據(jù)I′重建并以Iinput為目標(biāo)樣本。D將對重建結(jié)果進行判別,并將判別結(jié)果反饋給G,兩個網(wǎng)絡(luò)之間相互影響,共同提升網(wǎng)絡(luò)性能。

        GAN的損失函數(shù)由G的損失和D的損失兩個部分組成。G的總損失由空洞損失、平滑損失和感知損失三者組成。

        (1)空洞損失。表示為

        Lhole=‖(I-M)⊙(Iout-Iinput) ‖1

        (1)

        Lvalid=M⊙(Iout-Iinput) ‖1

        (2)

        式中:Iout為G的輸出;Lhole為缺失區(qū)域的L1范數(shù)損失,表征缺失區(qū)域重建結(jié)果與目標(biāo)樣本間的差距;Lvalid為已知區(qū)域的L1損失,對應(yīng)已知區(qū)域在進入G前與通過G后的差距。

        (2)平滑損失。表達式為

        (3)

        式中:p代表數(shù)據(jù)的一個區(qū)域; (i,j)是p區(qū)域內(nèi)一點。平滑損失表示p區(qū)域內(nèi)每一個數(shù)據(jù)與該數(shù)據(jù)緊鄰的右側(cè)和下側(cè)數(shù)據(jù)的L1損失之和,用于表征相鄰數(shù)據(jù)在水平和垂直方向的差異。

        (3)感知損失。表達式為

        (4)

        式中:φpooli表示VGG-16網(wǎng)絡(luò)池化層映射的第i個特征;Hi、Wi、Ci分別表示第i個特征的高度、寬度和通道大小。式(4)表征的感知損失對應(yīng)一個固定網(wǎng)絡(luò)參數(shù)的VGG-16網(wǎng)絡(luò)[22](圖1)。在感知損失網(wǎng)絡(luò)的某一層,同時取出生成數(shù)據(jù)與目標(biāo)樣本的特征向量,將兩個特征向量進行對比,以獲得更深層次的特征差異。

        圖1 感知損失模型

        將以上三種損失函數(shù)乘以對應(yīng)的系數(shù)后,組合得到G的總損失為

        LG=λ1Lhole+λ2Lvalid+λ3Ltv+λ4Lperceptual

        (5)

        在實際操作中,可根據(jù)不同損失函數(shù)的精度和總損失的梯度變化等進行超參數(shù)λ的調(diào)節(jié)。

        D中損失函數(shù)表示為

        (6)

        該式為二元交叉熵損失,常用于二分類問題。D對Iinput和Iout進行判別,Iinput作為目標(biāo)樣本,在輸入D時會被打上恒定標(biāo)記1,DIout的結(jié)果在0和1之間。

        1.2 本文網(wǎng)絡(luò)模型

        由于傳統(tǒng)的DCGAN網(wǎng)絡(luò)在數(shù)據(jù)重建時存在上文所述的缺點,在數(shù)據(jù)重建方面并不能得到很好的效果。本文對G進行了改進,加入部分卷積和注意力機制提升了網(wǎng)絡(luò)性能。改進后的生成網(wǎng)絡(luò)模型G如圖2中的G,網(wǎng)絡(luò)左端為輸入接口,同時輸入原始數(shù)據(jù)與掩碼,處理結(jié)果從網(wǎng)絡(luò)的右端輸出。下文將詳述網(wǎng)絡(luò)的新模塊。

        圖2 本文網(wǎng)絡(luò)模型示意圖

        1.3 部分卷積

        部分卷積(PCONV)是由Liu等[21]提出的一種新的卷積方式,常用于數(shù)據(jù)修復(fù)。部分卷積模塊分為數(shù)據(jù)部分和掩碼部分。部分卷積的實現(xiàn)過程(圖3)由下式表示

        (7)

        其中

        (8)

        每次進行數(shù)據(jù)部分卷積操作后,數(shù)據(jù)尺寸和缺失區(qū)域范圍都會發(fā)生變化,為了讓M與數(shù)據(jù)依然保持對應(yīng)關(guān)系,需更新M。更新公式為

        (9)

        式中m′代表更新后的掩碼值。只要M(i,j)有一個元素是已知的,每次部分卷積后的掩碼值為1(圖4)。只要卷積層數(shù)足夠,通過多次卷積,掩碼中代表缺失標(biāo)記的0會越來越少,最終完全消失。

        圖4 掩碼更新過程示意圖

        1.4 注意力機制

        余弦距離是空間中兩點相似度的評價方法,通過將空間中兩點映射為向量,并計算向量夾角的余弦值評價相似程度。當(dāng)余弦值接近1,夾角趨于0°,表明兩個向量相似度高; 余弦值接近于0,夾角趨于90°,表明兩個向量相似度低。本文利用一種基于余弦距離的注意力模型,該模型計算前景數(shù)據(jù)和背景數(shù)據(jù)的余弦相似度,并通過softmax將相似度轉(zhuǎn)化為注意力得分(score)。本文注意力機制模塊的執(zhí)行過程如圖5。

        圖5 注意力模塊執(zhí)行流程

        輸入數(shù)據(jù)經(jīng)過下采樣后得到n個特征向量,這些特征向量組合定義為F。其中,一個特征向量上(x,y)處的值定義為fx,y,(x′,y′)代表除(x,y)外的任意一點。首先,由下式計算同一個特征向量上任意一點與其余各點之間的余弦相似性

        (10)

        (11)

        之后,通過softmax函數(shù)將點(x,y)的所有相似性結(jié)果進行映射,得到同一個向量上其余點位關(guān)于點(x,y)的權(quán)重系數(shù),即注意力得分,記為score。softmax表達式如下

        (12)

        式中:i為點(x,y)的相似性結(jié)果中的一個元素; e為自然常數(shù); scorei為元素i的映射結(jié)果。

        然而,隨著神經(jīng)網(wǎng)絡(luò)的迭代,得分并不是固定的。定義經(jīng)過次迭代后的最終分數(shù)為scorei,scorei與scorei-1的關(guān)系如下

        (13)

        (14)

        2 模型實驗

        為了驗證本文的網(wǎng)絡(luò)模型在地震數(shù)據(jù)重建方面的能力,利用合成數(shù)據(jù)及實際數(shù)據(jù)進行驗證,并與DCGAN網(wǎng)絡(luò)模型對比。此外,為了探究部分卷積模塊和注意力模塊對網(wǎng)絡(luò)模型數(shù)據(jù)重建能力影響的差異,還分別設(shè)計了DCGAN網(wǎng)絡(luò)只與部分卷積模塊結(jié)合的GAN+PCONV模型(圖6),以及DCGAN網(wǎng)絡(luò)只與注意力模塊結(jié)合的GAN+attention模型(圖7)。

        圖6 GAN+PCONV模型

        圖7 GAN+attention模型

        2.1 合成數(shù)據(jù)實驗

        合成數(shù)據(jù)實驗采樣自SEG BP94模型,道間距為25m,采樣率為4ms。合成數(shù)據(jù)切分為20000個訓(xùn)練切片、200個驗證切片、200個測試切片,各切片尺寸均為512×256。為了使合成數(shù)據(jù)更貼近真實數(shù)據(jù),切片載入網(wǎng)絡(luò)模型時,會被賦予大小為0~10的噪聲方差,同時被隨機抹去30%~50%的地震道。前文所述網(wǎng)絡(luò)模型經(jīng)20000次訓(xùn)練,G的損失變化(loss)如圖8所示。在20000次訓(xùn)練過程中,GAN+attention、GAN+PCONV和本文方法的損失值均比DCGAN的低,其中本文方法獲得的損失值最低。圖9a是測試集一中的切片,展示不同網(wǎng)絡(luò)模型重建效果。

        圖8 不同網(wǎng)絡(luò)模型生成網(wǎng)絡(luò)G的損失曲線

        圖9 測試集一的切片(a)及隨機缺失50%(b)

        四種不同模型的數(shù)據(jù)實驗結(jié)果如圖10所示。 DCGAN網(wǎng)絡(luò)重建結(jié)果如圖10a,其SNR為9.31dB。重建結(jié)果中存在大量的假頻,缺失區(qū)域并未完全有效地恢復(fù),同相軸連續(xù)性較差且模糊,在對應(yīng)的差值剖面(圖10e)中可見殘留有大量的有效信息。GAN+PCONV網(wǎng)絡(luò)重建結(jié)果(圖10b)的SNR為20.51dB,其同相軸清晰,且假頻已經(jīng)顯著減少,其差值剖面圖(圖10f)中殘留信息較少。GAN+attention網(wǎng)絡(luò)重建結(jié)果(圖10c)的SNR為16.51dB,重建結(jié)果中存在一些假頻,其同相軸清晰度和細節(jié)表現(xiàn)相較于DCGAN的重建結(jié)果有了提升,但差值剖面(圖10g)中殘留有大量有效信息。本文方法的重建結(jié)果如圖10d,其SNR為23.01dB,重建結(jié)果中的假頻顯著小于前三者,恢復(fù)的細節(jié)也優(yōu)于前三者,在差值剖面中(圖10h)只有少量信息殘留。進一步觀察四種重建結(jié)果的f-k譜(圖11)得知:DCGAN的重建結(jié)果(圖11a)中低頻區(qū)域存在假頻;GAN+attention的重建結(jié)果(圖11c)中低頻區(qū)域的假頻減少,但在背景上又出現(xiàn)了新的假頻; GAN+PCONV的重建結(jié)果(圖11b)較好,低頻區(qū)域的假頻減少,沒有出現(xiàn)新的假頻; 本文方法重建結(jié)果的f-k譜(圖11d)最清晰,假頻最少,說明重建結(jié)果最優(yōu)。該實驗說明部分卷積模塊和注意力模塊均可提升網(wǎng)絡(luò)重建能力,且部分卷積模塊比注意力模塊的提升效果更明顯。將這兩種模塊同時融合到網(wǎng)絡(luò)模型中也能大幅提升重建能力。

        圖10 不同方法合成數(shù)據(jù)重建結(jié)果及對應(yīng)差值

        圖11 合成數(shù)據(jù)四種模型方法重建結(jié)果及原始數(shù)據(jù)的f-k譜

        圖12 測試集一的加噪切片(a)及隨機缺失50%(b)

        為驗證網(wǎng)絡(luò)在切片含噪情況下的數(shù)據(jù)重建效果,將測試集隨機加噪。加噪后的重建測試結(jié)果如圖13。DCGAN的重建結(jié)果中(圖13a)存在大量的假頻和噪聲,細節(jié)信息幾乎沒有得到恢復(fù),重建結(jié)果的SNR為7.1dB,其對應(yīng)的差值剖面(圖13e)中殘留有大量有效信息。GAN+attention網(wǎng)絡(luò)的重建結(jié)果(圖13c)的SNR為9.3dB,重建結(jié)果在細節(jié)信息上相較于DCGAN有一定的提升,但仍有大量假頻和噪聲存在,其差值剖面(圖13g)中也有大量有效信息殘留。GAN+PCONV模型提升明顯(圖13b),重建結(jié)果的SNR為12.3dB,假頻和噪聲已經(jīng)大量減少,同相軸清晰,差值剖面(圖13f)上仍有部分有效信息殘留。本文方法相比于GAN+PCONV模型有進一步提升,重建結(jié)果的SNR為18.1dB,重建結(jié)果中存在少量聚集的假頻,但細節(jié)信息比GAN+PCONV豐富。

        圖13 含噪合成數(shù)據(jù)重建結(jié)果

        四種方法重建結(jié)果的f-k譜如圖14??梢奃CGAN重建結(jié)果(圖14a)的高頻和背景區(qū)域中存在假頻,GAN+attention重建結(jié)果(圖14c)的高頻和背景區(qū)域的假頻減少,但在低頻區(qū)生成了新假頻。GAN+PCONV重建結(jié)果(圖14b)的高頻和背景區(qū)域的假頻大量減少,低頻區(qū)域有部分假頻。本文方法重建結(jié)果(圖14d)中假頻明顯小于GAN+PCONV。

        圖14 含噪合成數(shù)據(jù)四種模型重建結(jié)果及原始數(shù)據(jù)的f-k譜

        2.2 實際數(shù)據(jù)實驗

        為了說明方法的實用性,利用M地區(qū)的實際地震資料進行測試。實際地震數(shù)據(jù)共3280000道,其道間距為50m,采樣率為4ms。將其分割為6400個大小為512×256的切片。其中訓(xùn)練集6000個,驗證集200個。采用相鄰區(qū)塊的地震數(shù)據(jù)制成200個測試集。將上文的四種模型在相同的訓(xùn)練集下進行相同次數(shù)的訓(xùn)練。訓(xùn)練過程的生成網(wǎng)絡(luò)G的損失變化(loss)如圖15??梢奊AN+PCONV和本文方法的損失值均比DCGAN低,但GAN+attention的損失值降低不明顯。圖16a為測試集二的切片,四種不同模型的數(shù)據(jù)實驗結(jié)果如圖17所示。

        圖15 不同網(wǎng)絡(luò)模型的G損失曲線

        圖16 測試集二的切片(a)及隨機缺失50%(b)

        DCGAN網(wǎng)絡(luò)重建結(jié)果(圖17a)的SNR為11.3dB,其同相軸較模糊,且有假頻存在,在差值剖面(圖17e)中可見大量有效信息殘留。GAN+attention網(wǎng)絡(luò)重建結(jié)果(圖17c)的SNR為12.3dB,其同相軸的清晰程度較DCGAN重建結(jié)果有一定提升,但差值剖面(圖17g)中仍有有效信息殘留。GAN+PCONV網(wǎng)絡(luò)重建結(jié)果(圖17b)的SNR為19.1dB,其同相軸清晰程度大幅提升,假頻減少,同時差值剖面(圖17f)中的有效信息已經(jīng)大量減少。本文方法的重建結(jié)果(圖17d)的SNR為20.6dB,其同相軸清晰程度進一步提升,重建結(jié)果的細節(jié)恢復(fù)效果優(yōu)于前三者,差值剖面(圖13h)中也只有少量信息殘留。觀察四種重建結(jié)果的f-k譜(圖18)可見: DCGAN(圖18a)和GAN+attention(圖18c)重建結(jié)果中的低頻區(qū)域存在假頻; GAN+PCONV重建結(jié)果(圖18b)中,低頻區(qū)域的假頻大量減少但背景上仍存在假頻; 本文方法重建結(jié)果中假頻最少(圖18d)。實際數(shù)據(jù)實驗也表明,部分卷積模塊和注意力模塊均可提升網(wǎng)絡(luò)重建能力,且部分卷積模塊比注意力模塊提升效果更明顯。將這兩種模塊同時融合到網(wǎng)絡(luò)模型中也能大幅提升重建能力。

        圖17 實際數(shù)據(jù)測試

        圖18 實際數(shù)據(jù)四種模型方法重建結(jié)果及原始數(shù)據(jù)的f-k譜

        3 結(jié)論

        普通DCGAN 神經(jīng)網(wǎng)絡(luò)存在缺陷,其重建結(jié)果中存在模糊、假頻等缺點。本文針對這些缺陷及其產(chǎn)生的原因,重新設(shè)計了DCGAN網(wǎng)絡(luò),提出了一種融合部分卷積和注意力機制的對抗網(wǎng)絡(luò)模型地震數(shù)據(jù)重建方法。部分卷積根據(jù)卷積核內(nèi)的有效數(shù)據(jù)量生成比例因子r,并通過比例因子r放縮卷積結(jié)果。除此以外,本文使用注意力機制利用背景信息計算出一個平均數(shù)據(jù)特征,并將該平均數(shù)據(jù)特征與卷積結(jié)果融合,從而使更多的信息能影響卷積結(jié)果。

        本文的處理結(jié)果表明,部分卷積模塊和注意力機制均能提高對抗網(wǎng)絡(luò)模型性能,減少重建過程中模塊的模糊、假頻,且部分卷積模塊比注意力模塊提升效果更明顯。將這兩種機制同時融合到對抗網(wǎng)絡(luò)模型中也能大幅提升網(wǎng)絡(luò)性能。

        另外,本文的訓(xùn)練模型在含噪較多的數(shù)據(jù)上依然會出現(xiàn)假頻,后續(xù)研究將聚焦本文模型針對含噪較多的數(shù)據(jù)的重建能力。

        猜你喜歡
        注意力損失卷積
        少問一句,損失千金
        讓注意力“飛”回來
        基于3D-Winograd的快速卷積算法設(shè)計及FPGA實現(xiàn)
        胖胖損失了多少元
        從濾波器理解卷積
        電子制作(2019年11期)2019-07-04 00:34:38
        玉米抽穗前倒伏怎么辦?怎么減少損失?
        基于傅里葉域卷積表示的目標(biāo)跟蹤算法
        “揚眼”APP:讓注意力“變現(xiàn)”
        傳媒評論(2017年3期)2017-06-13 09:18:10
        A Beautiful Way Of Looking At Things
        一般自由碰撞的最大動能損失
        综合色免费在线精品视频| 日本a在线播放| 日本一区二区三区一级免费| 久久亚洲中文字幕乱码| 又色又爽又高潮免费视频国产| 欧美性videos高清精品| 亚洲精品国产二区三区在线| 中文字幕日本在线乱码| 99久久精品无码一区二区毛片| 精品日韩欧美一区二区在线播放| 国产成人精品日本亚洲专区6| 精品中文字幕久久久人妻| 久久久久久夜精品精品免费啦 | 亚洲一区二区综合精品| а天堂8中文最新版在线官网| 成人免费网站视频www| 亚洲人成网站在线播放小说| 午夜免费观看日韩一级片| 潮喷大喷水系列无码久久精品| 粗大的内捧猛烈进出在线视频| 果冻蜜桃传媒在线观看| 亚洲综合自拍偷拍一区| 久久久www免费人成精品| 欧美a视频在线观看| 成年女人18毛片观看| 野花香社区在线视频观看播放| 99久久99久久精品国产片果冻| 亚洲va欧美va人人爽夜夜嗨| 日本午夜艺术一区二区| 狠狠精品久久久无码中文字幕| 中文字幕第一页亚洲| 日本大片在线一区二区三区| 亚洲国产精品久久精品| 亚洲色大网站www永久网站| 欧美人与动牲交片免费播放| 日韩人妻系列在线观看| 无码吃奶揉捏奶头高潮视频| 91热久久免费精品99| 三级国产自拍在线观看| 国产无遮挡又爽又刺激的视频老师| 日本不卡视频免费的|