亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于深度殘差收縮網(wǎng)絡的油氣柱高度預測

        2023-09-14 09:32:00杜睿山程永昌孟令東
        計算機技術與發(fā)展 2023年9期
        關鍵詞:模型

        杜睿山,程永昌,孟令東

        (1.東北石油大學 計算機與信息技術學院,黑龍江 大慶 163318;2.油氣藏及地下儲庫完整性評價黑龍江省重點實驗室(東北石油大學),黑龍江 大慶163318)

        0 引 言

        斷層對油氣的運動、聚集等有明顯的影響,對油氣流體的影響很復雜。一些斷層允許流體通過斷裂傳遞,一些斷層不允許流體通過,從而產(chǎn)生多個復雜的油氣隱藏。在探索研究的早期階段,通過對斷層封堵研究斷層中承載的油氣柱高度,判斷圈閉的封閉資源,估計各層儲量,選擇油氣井的位置,具有重要意義。

        建立斷層封閉定量評價標準的目的是確定斷層屬性與封閉油氣柱高度的關系,最終通過已知的斷層屬性數(shù)據(jù)預測油氣柱高度。

        目前,提出了3種系列定量評價方法:(1)基于巖性對接提出的定量評價方法[1];(2)基于斷裂帶SGR預測,定量評價斷層封閉性[2-4];(3)基于斷層穩(wěn)定性,根據(jù)應力狀態(tài)去定量評價斷層封閉性[5]。這3種方法實際是從毛細管封閉和水力封閉2個角度去定量評價斷層的封閉性。這些方法一般需要在具有一定特性的斷層上使用,模型缺乏泛化能力,需要大量的人工操作。

        近些年油氣柱高度預測研究又有些新的進展,2019年Ma C等人[6]使用基于地層超壓的蓋層最大油氣柱高度計算方法預測油氣柱高度,2019年Edmundson I等人[7]將前景的尺寸和埋深與其他地下技術因素一起使用確定油氣柱高度,2020年Grant N T[8]使用蒙特卡羅模型預測油氣柱高度,2020年張鴻妍[9]使用SGR法預測油氣柱高度,等等。

        隨著計算機技術的飛速發(fā)展,機器學習和神經(jīng)網(wǎng)絡在地學領域的研究越來越廣泛。例如,2019年,Mukherjee T等人[10]使用機器學習方法對天然氣產(chǎn)量進行預測,Al Ghaithi A[11]使用人工神經(jīng)網(wǎng)絡對剪切測井進行預測,Das V等人[12]使用卷積神經(jīng)網(wǎng)絡從疊前地震數(shù)據(jù)預測巖石物理特性;2020年,Glubokovskikh S等人[13]使用機器學習方法對聲波測井進行預測,Sang等人[14]使用多任務殘差網(wǎng)絡同時進行阻抗和含氣飽和度預測;2021年,Feng S等人[15]使用時空CNN監(jiān)測和預測Sleipner地區(qū)的CO2儲存;2022年,秦峰等人[16]使用深度學習來模擬油氣藏大幅提升模擬速度,于紅巖等人[17]從機器學習、智能優(yōu)化理論兩個方面闡述人工智能在油氣勘探開發(fā)中的研究進展,證明了其具有一定的優(yōu)越性等等。

        可以看出,近年來,神經(jīng)網(wǎng)絡在測井、地震、儲量等方面得到了廣泛的應用。由此看出目前油氣柱高度預測技術大多局限于傳統(tǒng)的地質(zhì)方法,很少涉及機器學習和深度學習方面。

        因此,該文決定使用一維殘差收縮網(wǎng)絡(One-dimensional Residual Shrinkage Network,1DRSN)進行建模預測,該模型在每次卷積時使用一維的卷積核能夠側重對每一維特征的提取,更符合本實驗數(shù)據(jù)的特性;其次,模型在傳統(tǒng)卷積神經(jīng)網(wǎng)絡(Convolutional Neural Network,CNN)的基礎上加入了殘差塊,該模塊使用鏈接跳躍方法來緩解由于深度神經(jīng)網(wǎng)絡深度增加產(chǎn)生的梯度損失和網(wǎng)絡退化問題。并通過繞過輸入信息直接輸出來保護信息完整性;最后,收縮網(wǎng)絡模塊能夠用以提高從高噪聲數(shù)據(jù)中學習特征的能力,并達到較高的預測精度。并對CNN、一維卷積神經(jīng)網(wǎng)絡(One-dimensional Convolutional Neural Network,1DCNN)和殘差網(wǎng)絡(Residual Network,ResNet)、一維殘差網(wǎng)絡(One-dimensional Residual Network,1DResNet)、GoogLeNet、DenseNet、1DRSN在圈閉數(shù)據(jù)上的應用進行了比較和分析。綜合考慮模型運行效率和準確率,選取最合適的模型。

        1 相關基礎

        1.1 殘差網(wǎng)絡

        1.1.1 ResNet

        隨著網(wǎng)絡深度的增加,訓練也會變得越來越困難。在訓練時可能會有梯度爆炸的現(xiàn)象,這種現(xiàn)象制約了網(wǎng)絡深度的增加,在訓練快完成時,訓練誤差也會增加。對此,何凱文學者[18]提出了殘差網(wǎng)絡,有效解決了這個難題。殘差收縮的主干網(wǎng)絡主要是殘差網(wǎng)絡,因此殘差收縮網(wǎng)絡也具有殘差網(wǎng)絡的基本特征,可以有效解決隨著網(wǎng)絡深度的增加產(chǎn)生的梯度消失和梯度爆炸問題。

        1.1.2 殘差塊

        包含以及不包含1×1卷積層的殘差塊如圖1所示。

        圖1 包含以及不包含1×1卷積層的殘差塊

        假設某段網(wǎng)絡的輸入為x,期望輸出為H(x)。在殘差網(wǎng)絡結構中,通過捷徑連接直接將輸入x傳到輸出作為初始結果,網(wǎng)絡學習的將是輸入和輸出的差值,即殘差H(x)=x+F(x),訓練的目的是使殘差結果逼近于0,相比于訓練一個等價映射,這樣訓練的難度要大大降低。

        1.1.3 ResNet18基本結構

        文中模型是在ResNet18的基礎上進行調(diào)整建模,ResNet18模型的組成包括:第一大層包括卷積層、最大池化層、批量歸一化層,接著是四個殘差塊組成的模塊,首個殘差塊保持數(shù)據(jù)的通道數(shù)不變,隨后的每個殘差塊將保持通道數(shù)翻倍、高寬減半的特性,最后在殘差塊后接全局平均池化層、全連接層。

        1.2 殘差收縮網(wǎng)絡

        深度殘差收縮網(wǎng)絡(Deep Residual Shrinkage Network,DRSN)本質(zhì)是ResNet上的一種新型改進,然后再將軟閾值化作為非線性層加入到ResNet的網(wǎng)絡結構之中,目的是提高深度學習方法在含噪聲數(shù)據(jù)或復雜數(shù)據(jù)上的特征學習效果。軟閾值化所需要的閾值,本質(zhì)上是在注意力機制下設置的。

        1.2.1 軟閾值

        軟閾值化是許多降噪方法的核心步驟[19-20]。其主要作用是將絕對值小于某個閾值的屬性置零,進而使其他屬性也朝零調(diào)整,稱之為收縮。這里,閾值也是一個必須預先確定的參數(shù),它的值直接影響降噪效果。軟閾值化的運算關系如下。

        (1)

        其中,x代表一個輸入特性,y代表一個輸出特性,τ代表一個閾值。

        由公式(1)可知,軟閾值化是一種非線性變換,它在某些方面有著與ReLU激活函數(shù)一致的處理方式:函數(shù)變換梯度是0或1。因此,軟閾值化可以看作是一種激活函數(shù)。實際上,已經(jīng)有學者將軟閾值應用到神經(jīng)網(wǎng)絡中。

        更重要地,目前的收縮網(wǎng)絡中的軟閾值是結合了較為流行的注意力機制而自動學習的[21]。意思是,[-閾值,閾值]范圍的確定,是可以根據(jù)樣本自身情況、自動調(diào)整的,避免了人工設置閾值的問題,同時能夠提升精度。

        1.2.2 殘差收縮模塊

        從本質(zhì)上來看,殘差收縮模塊是殘差塊、注意力機制和軟閾值函數(shù)的集成。

        注意力機制就是將重點集中于某個局部信息,使模型能更快收斂。具體可以分為兩個階段:一是通過整體掃描尋找局部有用信息;二是加強有用信息,限制冗余信息。

        SENet是一種經(jīng)典的基于注意力機制的算法。它還能夠使用一種小型的子網(wǎng)絡,通過自動學習得到一個權重,對特征圖的所有通道都進行了加權。其意義在于,一些特征通道中的信息對于結果來說是較為重要的,而另一部分特征信息則是冗余的。所以,模型就能夠利用這些方法加強有用特征、減少冗余特征?;镜腟ENet模塊如圖2所示。

        圖2 SENet的基本模塊

        一維深度殘差縮合網(wǎng)絡的基礎模塊與注意力機制模塊非常類似,其中C、W、H分別代表輸入數(shù)據(jù)的信道數(shù)目(批)、寬度和高度,該模塊由一個小的子網(wǎng)來學習一套閾值,再對其進行軟閾值處理。在此基礎上,增加了恒定路徑,減少了建模的困難。既能兼顧模型的時間損耗,又能提高模型的準確性?;A模塊如圖3所示。

        圖3 殘差收縮網(wǎng)絡的基本模塊

        1.3 一維殘差收縮網(wǎng)絡的預測方法

        該文利用一維殘差網(wǎng)和軟閾值相結合的方法,將二者的優(yōu)點結合起來,既能有效地減少退化信息在網(wǎng)絡中的損失,又能把網(wǎng)絡資源集中到對油氣高度預報更為關鍵的特點上[22]。如圖4所示,展示了一個完整的深度殘差收縮網(wǎng)絡,由一個輸入層,許多基本殘差收縮模塊和一個全連接層等組成。

        圖4 深度殘差收縮網(wǎng)絡的整體結構

        2 實例研究

        2.1 數(shù)據(jù)集構建

        數(shù)據(jù)來源于遼河油田校企合作科研項目,篩選出12個具有代表意義的圈閉,通過對斷層進行解釋和油藏解剖提取的圈閉結構化特征數(shù)據(jù)約有20萬條,然而就目前提取的數(shù)據(jù)來看存在著一些問題,如:噪聲數(shù)據(jù)(特指:屬性間的冗余、因地層位置原因?qū)е碌膶傩詫獪y量的油氣柱高度與實際所能封存的油氣柱高度不符等)、不平衡數(shù)據(jù)等,因此需要先對數(shù)據(jù)進行處理。

        2.1.1 數(shù)據(jù)清洗

        數(shù)據(jù)清洗是用來測試、修正(或移除)數(shù)據(jù)集中會對訓練結果造成負面影響的異常數(shù)據(jù)。從廣義上說,數(shù)據(jù)的刪除是將不正確的、不完全的、不相關的數(shù)據(jù)替換、修改或移除。模型準確率主要由數(shù)據(jù)和模型共同決定,數(shù)據(jù)清洗的好壞直接影響到最后模型預測的結果。對于本數(shù)據(jù)出現(xiàn)的異常問題,僅僅占總體數(shù)據(jù)的很少一部分比例,經(jīng)過查閱相關文獻并與地質(zhì)專業(yè)人士討論后選擇刪除數(shù)據(jù);對于某些明顯無效特征,如出現(xiàn)全是0,或***,也將刪除。

        2.1.2 數(shù)據(jù)預處理

        經(jīng)過數(shù)據(jù)清洗后剩余有效數(shù)據(jù)約17.5萬條,對清洗后的數(shù)據(jù)進行特征選擇來降低屬性的冗余度,擬采用Pearson相關系數(shù)法剔除相關性較高的屬性,如圖5所示,再擬用XGBoost算法對斷層屬性進行特征重要性分析,如圖6所示,最后結合地學專家給出的建議進行屬性的選取,選取Throw、OA等10個權重較高的屬性。

        圖5 Pearson相關系數(shù)

        圖6 XGBoost屬性權重

        對于因地層位置原因?qū)е碌膶傩詫獪y量的油氣柱高度與實際所能封存的油氣柱高度不符問題,該文仍采用Pearson相關系數(shù)法對每條記錄進行計算,它可以避免評分等級膨脹(grade inflation)的問題。根據(jù)專家經(jīng)驗當相關系數(shù)值大于0.999時認為其具有相同特征,進而將測量的油氣柱高度賦值為相對較高的結果。

        然而對于數(shù)據(jù)出現(xiàn)的樣本不均衡問題,該文采用三次樣條插值的方法,它具有較好的光滑性,更能反映數(shù)據(jù)的真實情況,插值規(guī)則為:記錄數(shù)量少于4則刪除(三次樣條插值數(shù)量低于4無法插值),記錄數(shù)低于2 200條的插值到2 200條,插值結果如圖7所示。最后,由于原始數(shù)據(jù)的差異較大,為了消除量綱的影響,需要對數(shù)據(jù)進行歸一化處理,該文使用z-score標準化。

        圖7 數(shù)據(jù)插值結果

        2.1.3 數(shù)據(jù)集劃分

        因為卷積神經(jīng)網(wǎng)絡的輸入一般為矩陣形式,因此,需要將歸一化后的數(shù)據(jù)劃分適當大小的矩陣,并以7∶3比例劃分訓練集和測試集。

        2.2 建立預測模型

        2.2.1 實驗參數(shù)設置

        數(shù)據(jù)集構建完成后,建立如圖4所示的深度殘差收縮網(wǎng)絡模型,其具體模型結構包括:卷積層、批量歸一化層、最大池化層和四個殘差收縮網(wǎng)絡模塊(如圖3所示)以及最后的全局平均池化層、全連接層。

        網(wǎng)絡參數(shù)包括可訓練的參數(shù)和不可訓練的超參數(shù),其中可訓練的參數(shù)一般是各個神經(jīng)元的權重和偏置,它們是通過模型訓練過程中自動學習得到的,而超參數(shù)一般是各層卷積核數(shù)量、大小、步長,池化層的大小、步長等,這些是通過人為主動設置的,并且需要綜合考慮其對網(wǎng)絡預測效果及訓練時間的影響。經(jīng)過反復實驗對比,最終確定的超參數(shù)設置為:模型首個同維卷積特征層的一維卷積層的卷積核數(shù)量為32,核大小為5×1,步長為1,而最大池化層的核大小為3×1,步長為1;8個殘差收縮模塊的核數(shù)量分別為32、32、64、64、128、128、256、256,核大小均為3×1,其中跳躍連接層的核大小為1×1,步長分別為2、1、1、1;最后一個特征層中的自適應平均池化層設為1,全連接層結果設為1。除此之外,文中網(wǎng)絡模型是基于Pytorch框架實現(xiàn),算法優(yōu)化器選擇Adam,學習率、批次、批大小分別設置為0.000 5、100、128。

        模型的準確率是由模型本身和數(shù)據(jù)共同決定的,輸入矩陣大小的設定對模型準確率存在一定影響,將經(jīng)過特征提取后的數(shù)據(jù)和原數(shù)據(jù)對比送入模型訓練,發(fā)現(xiàn)采用特征提取后的數(shù)據(jù)且大小設定為30*10,模型將達到比較好的結果。

        對于訓練結果采用雙重評價指標,第一是均方根誤差(RMSE)作為評價指標:

        (2)

        第二是模型預測的準確率。模型實驗數(shù)據(jù)是通過對圈閉進行地震勘測得到的地震數(shù)據(jù)解析后的標準化數(shù)據(jù),由于地震勘探方法、設備等的差異,會導致檢測到的地震勘探數(shù)據(jù)精度較低[23],因此,實驗認為的模型誤差小于10是正確輸出。

        (3)

        (4)

        2.2.2 模型結構分析

        為驗證文中方法的合理性,將對ResNet模型中的每一步改進進行消融性實驗,觀察不同改進模型的好壞。實驗結果如表1所示。

        表1 不同組合方式的ResNet模型的預測效果

        由表1可以看出,將ResNet的核變成一維后準確率有所提升,同時大大降低了時間的消耗,說明一維的卷積核能夠側重對每一維特征的提取,更符合該實驗數(shù)據(jù)的特性;隨著模型中加入注意力機制后,對比1DResNet,在保證時間消耗幾乎不變的情況下模型準確率有小幅度提升,驗證了注意力機制對重要特征加權的能力;模型再將注意力機制部分改進為殘差收縮網(wǎng)絡(軟閾值),模型變?yōu)镈RSN,由實驗結果可以看出一維神經(jīng)網(wǎng)絡模型效果更好,最后模型采用更適合該實驗數(shù)的1DRSN模型,實驗結果表明模型準確率有所提升,且在時間消耗上有明顯的改進,驗證了該方法的可行性。

        最終選擇1DRSN模型進行實驗,模型的RMSE和Accuracy如圖8所示。

        2.3 對比實驗

        將文中方法與深度學習中常用的CNN、1DCDD、GoogLeNet、DenseNet算法進行對比實驗。CNN、1DCNN模型采用與1DRSN算法有相同超參數(shù)的模型進行實驗,GoogLeNet的Inception塊由常見的四條并行卷積層路徑組成,四條路徑分別為1×1ConV層;1×1ConV層、3×3ConV層;1×1ConV層、5×5ConV層;3×3ConV層、1×1ConV層;該模型的其余參數(shù)均與1DRSN算法一致,而DenseNet的結構采用除跨層連接上與ResNet有區(qū)別(使用相加和使用連結)外均相同的模型。實驗結果如表2所示。

        表2 對比實驗結果

        表中模型訓練結果如圖9、10所示。

        圖9 對比實驗訓練ACC

        圖10 對比實驗訓練RMSE

        由表2及圖9、10可以看出,CNN、1DCNN、GoogLeNet和DenseNet的準確率分別達到69.6%、70.1%、82.1%,80.8%,1DRSN模型準確率最高(84.0%),表明文中方法表現(xiàn)出較好的預測效果,雖然文中方法較其他方法結構更復雜,但是時間的消耗也在可接受范圍內(nèi),滿足了預測的要求。但綜合圖表來看,1DRSN模型在訓練集上能達到相對較高的準確率,但卻在測試集的準確率達到最高,說明模型有著比較好的泛化性能。

        3 結束語

        該文主要分析了1DRSN模型的原理和構建過程,利用合作項目地區(qū)選取的12個圈閉提取的近20萬條結構化數(shù)據(jù),通過數(shù)據(jù)清洗、數(shù)據(jù)預處理、數(shù)據(jù)集劃分等操作完成數(shù)據(jù)集的構建;模型在ResNet18模型的基礎上進行改進,使用控制變量法對模型輸入數(shù)據(jù)矩陣大小、卷積核大小、卷積核數(shù)量等進行相對的最優(yōu)值選取,同時使用類似的方法對CNN、1DCNN、GoogLeNet、DenseNet模型進行建模比較,最終建立1DRSN模型。雖然文中方法較其他方法結構更復雜,但時間的消耗僅略微增加,且泛化性能也較好,滿足了預測要求,為預測未知圈閉的油氣柱高度提供了一個良好的借鑒。

        猜你喜歡
        模型
        一半模型
        一種去中心化的域名服務本地化模型
        適用于BDS-3 PPP的隨機模型
        提煉模型 突破難點
        函數(shù)模型及應用
        p150Glued在帕金森病模型中的表達及分布
        函數(shù)模型及應用
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權M-估計的漸近分布
        3D打印中的模型分割與打包
        国产成人精品无码一区二区老年人 | 人妻被黑人粗大的猛烈进出 | 人人妻人人狠人人爽天天综合网| 欧美成人一区二区三区在线观看| 久久久国产不卡一区二区| 国产精品久久三级精品| 无码专区人妻系列日韩精品| 亚洲av综合久久九九| 国产精品久久久久影视不卡| 一区二区三区在线观看精品视频| 一个少妇的淫片免费看| 人妻少妇精品无码专区二区| 亚洲AV秘 无码一区二区三区臀| 久久精品一区二区三区不卡牛牛| 亚洲视频高清一区二区| 国产98在线 | 日韩| 免费一本色道久久一区| 少妇特殊按摩高潮对白| av天堂午夜精品一区| 中文字幕日本最新乱码视频| 99福利影院| 亚洲成人一区二区三区不卡 | 东京热人妻无码一区二区av| 狠狠狠色丁香婷婷综合激情| 亚洲av一区二区三区网站| 真实夫妻露脸自拍视频在线播放 | 女人做爰高潮呻吟17分钟| 亚洲无码毛片免费视频在线观看| 99久久精品一区二区国产| 国产青榴视频在线观看| 五月中文字幕| 国产毛片精品一区二区色| 国产日产精品_国产精品毛片| 国产精品毛片无码| 亚洲天堂无码AV一二三四区| 91精品国产综合久久久蜜| 国产av永久无码天堂影院| 色窝窝无码一区二区三区2022 | 亚洲av鲁丝一区二区三区黄| 99ri国产在线观看| 国产熟女露脸大叫高潮|