亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        面向刻蝕圖像分割的輕量可變形編解碼網(wǎng)絡(luò)

        2022-12-13 13:52:40尚佳童雷濤張棟杜曉剛翟鈺杰
        計(jì)算機(jī)工程 2022年12期
        關(guān)鍵詞:油藏注意力卷積

        尚佳童,雷濤,張棟,杜曉剛,翟鈺杰

        (1.陜西科技大學(xué)陜西省人工智能聯(lián)合實(shí)驗(yàn)室,西安 710021;2.陜西科技大學(xué)電子信息與人工智能學(xué)院西安 710021)

        0 概述

        隨著國民經(jīng)濟(jì)的飛速發(fā)展,國內(nèi)生產(chǎn)生活對能源的需求與日俱增,石油已成為我國需求量最大的能源之一。但目前我國油田逐漸進(jìn)入中高含水期,開采十分困難。通過去離子水來驅(qū)使剩余油是目前最為有效且環(huán)保的油藏驅(qū)替方法之一[1]。近年來,為提高能源利用效率,明確研究水驅(qū)剩余油的開采現(xiàn)狀,提升我國石油資源在國際上的競爭力,國內(nèi)外學(xué)者不斷探索新方法來研究水驅(qū)剩余油的形成與分布機(jī)理,其中應(yīng)用最廣泛的技術(shù)是電腦斷層(Computed Tomography,CT)掃描實(shí)驗(yàn)法[2]和微觀仿真模型法[3]。

        CT 掃描實(shí)驗(yàn)法是利用X 射線對巖石樣本與孔隙不同的吸收率層析構(gòu)建三維形狀,在不改變巖心狀態(tài)的條件下完成驅(qū)替實(shí)驗(yàn)。然而,CT 掃描實(shí)驗(yàn)法通常面臨掃描分辨率較低且實(shí)驗(yàn)數(shù)據(jù)獲取困難的問題,導(dǎo)致實(shí)驗(yàn)數(shù)據(jù)誤差較大。微觀仿真模型法是研究人員使用最廣泛的方法之一,該方法將玻璃刻蝕仿真模型與微觀圖像采集系統(tǒng)相結(jié)合,利用數(shù)值模擬測試將巖石還原在以聚二甲基硅氧烷[4]為主材料的120 mm×120 mm 刻蝕板上,用于模擬不同巖層的驅(qū)替情況。該方法通過使用去離子水和礦物油模擬水驅(qū)油過程,實(shí)現(xiàn)微觀驅(qū)替動態(tài)可視化[5]。對采集到的圖像進(jìn)行分析,可計(jì)算出不同流體黏度、不同注入速度、不同原始含水飽和度多方面因素對水驅(qū)油效果的影響,分析水驅(qū)前后的油水分布規(guī)律,對油藏水驅(qū)油機(jī)理具有重要的研究意義。

        研究人員通常使用人工標(biāo)記的方法分離油水像素,通過標(biāo)記含油區(qū)域和含水區(qū)域來計(jì)算驅(qū)油率,主觀性強(qiáng)且耗時(shí)耗力,對后續(xù)的研究造成了極大的困擾[6]。受拍攝環(huán)境和芯片材質(zhì)的影響,所采集到的驅(qū)替刻蝕圖像往往存在圖像模糊、色彩對比度低、噪聲大等問題。此外,由于在驅(qū)替過程中往往存在水油交融的狀態(tài),導(dǎo)致水油界限不明確,呈現(xiàn)出非剛性的狀態(tài)[7]。

        本文提出一種輕量可變形編解碼網(wǎng)絡(luò)(Lightweight Deformable Encoder-Decoder Network,LDNet),在特征編碼階段,通過設(shè)計(jì)輕量可變形特征編碼(Lightweight Deformable Feature Encoder,LDFE)模塊,實(shí)現(xiàn)對刻蝕圖像的特征提取。將通道和空間充分解耦,以有效降低網(wǎng)絡(luò)特征信息的冗余,加快網(wǎng)絡(luò)的推理速度,進(jìn)一步減少內(nèi)存資源的消耗。在特征融合階段,引入?yún)f(xié)同耦合注意力模塊(Co-Coupling Attention Module,CCAM),通過將空間信息與通道信息融合,增強(qiáng)模型的魯棒性。

        1 相關(guān)研究

        目前常用的圖像分割方法主要分為傳統(tǒng)方法和深度學(xué)習(xí)方法兩類。傳統(tǒng)的圖像分割方法主要分為閾值分割法[8-10]、區(qū)域生長法[11]和聚類法[12-13]。這些方法均依賴于嚴(yán)格的計(jì)算方法,且需要人工干預(yù),針對簡單場景下的分割任務(wù)效果較好。但由于其通常為人工設(shè)計(jì)的淺層特征,對復(fù)雜場景的分割效果較差。此外,傳統(tǒng)方法對超參數(shù)較敏感,容易忽略圖像像素屬性間的相關(guān)性,導(dǎo)致對油藏驅(qū)替刻蝕圖像分割效果較差。

        隨著深度學(xué)習(xí)的發(fā)展,卷積神經(jīng)網(wǎng)絡(luò)由于其強(qiáng)大的特征表達(dá)能力,目前已被廣泛應(yīng)用于圖像分割領(lǐng)域。LONG等[14]提出端到端的全卷積神經(jīng)網(wǎng)絡(luò)(Fully Convolutional Network,F(xiàn)CN),實(shí)現(xiàn)了像素級的圖像分割。由于FCN 網(wǎng)絡(luò)對高低層特征融合較差,因此針對邊緣分割結(jié)果較粗糙。為解決上述問題,RONNEBERGER等[15]提出U-Net 網(wǎng)絡(luò)。因其采用完全對稱的編解碼結(jié)構(gòu),并使用跳躍連接實(shí)現(xiàn)了較好的高低層特征融合,因此U-Net 成為圖像分割任務(wù)的骨干網(wǎng)絡(luò)。然而U-Net 中卷積層和池化層的大量堆疊會造成全局信息的丟失和計(jì)算量的增加,且使用標(biāo)準(zhǔn)的方形卷積提取特征,限制了網(wǎng)絡(luò)對幾何形變較大目標(biāo)的精準(zhǔn)分割。雖然使用跳躍連接有助于獲取不同層級的語義信息,但對圖像細(xì)節(jié)的感知能力較差,導(dǎo)致分割精度較低。目前研究人員基于U-Net 的改進(jìn)主要分為特征編碼結(jié)構(gòu)設(shè)計(jì)和特征融合策略優(yōu)化。

        設(shè)計(jì)特征編碼結(jié)構(gòu)是為了更好地進(jìn)行特征提取,解決下采樣過程中不斷堆疊卷積層和池化層帶來的語義上下文信息丟失問題,其主要分為卷積層之間的連接方式以及卷積操作的改進(jìn)。在卷積層之間的連接方式上,研究人員通常為了獲取更多的上下文信息而構(gòu)建更深層次的連接。例如H-DenseUNet[16]和Res-UNet[17]通過使用殘差連接和密集連接策略,將淺層的輸出和深層的輸出求和或拼接作為下一階段的輸入,增加特征復(fù)用,從而緩解梯度消失問題,但其在檢測細(xì)微的組織結(jié)構(gòu)時(shí)性能較差。針對卷積操作的改進(jìn),常用方法是通過設(shè)計(jì)不同的卷積算子來擴(kuò)大感受野,以獲取更豐富的上下文信息。其中CE-Net[18]利用不同尺度的空洞卷積構(gòu)成4 個(gè)級聯(lián)分支來捕獲更廣泛的多尺度語義信息。但該網(wǎng)絡(luò)使用空洞卷積容易丟失相鄰像素的信息,進(jìn)而造成網(wǎng)格效應(yīng),導(dǎo)致分割結(jié)果粗糙。為解決該問題,LI等[19]提出Rednet 網(wǎng)絡(luò),通過使用與卷積性質(zhì)相反的內(nèi)卷算子使其根據(jù)圖像不同的空間位置自適應(yīng)調(diào)整卷積核參數(shù)。另外,DefED-Net[20]在編碼階段使用了可變形卷積,雖然解決了固定卷積核與分割目標(biāo)形狀不匹配的問題,但同時(shí)也引入了巨大計(jì)算量,導(dǎo)致內(nèi)存需求變高。

        為補(bǔ)充編碼器和解碼器路徑之間的語義差距,U-Net++[21]通過連接不同層級的特征,將編碼器的細(xì)粒度特征與解碼器的語義特征通過跳躍連接進(jìn)行融合,從而獲取網(wǎng)絡(luò)的細(xì)節(jié)特征。另外,注意力機(jī)制可以自適應(yīng)計(jì)算通道或空間域中的特征重要性,提取圖像的關(guān)鍵信息,有效改善特征圖融合效果。例如,Attention U-Net[22]通過生成一個(gè)門控信號控制不同空間位置的重要性,提高模型的特征表達(dá)能力。SmaAt-UNet[23]和CBAM[24]通過在通道注意力后進(jìn)行全局池化來引入空間注意力機(jī)制,從而增強(qiáng)特征的提取能力。但其對空間信息丟失嚴(yán)重且忽略了特征之間的關(guān)系,并且全局池化只能捕獲局部信息,無法獲得全局的上下文信息。

        盡管以上研究解決了圖像分割面臨的部分難題,但將其應(yīng)用于油藏刻蝕圖像分割時(shí)仍然面臨2 個(gè)問題:

        1)常規(guī)分割網(wǎng)絡(luò)中使用幾何形狀固定的卷積核與刻蝕圖像形狀、結(jié)構(gòu)復(fù)雜的特性無法匹配。標(biāo)準(zhǔn)卷積固定大小的感受野使網(wǎng)絡(luò)對幾何變換的建模能力大幅縮減,對細(xì)小目標(biāo)如水油交融的邊界區(qū)域分割較差。雖然已經(jīng)有可變形卷積在圖像分割領(lǐng)域的應(yīng)用,但龐大的計(jì)算量與參數(shù)量導(dǎo)致網(wǎng)絡(luò)優(yōu)化困難。

        2)目前的注意力網(wǎng)絡(luò)雖然使用通道和空間注意力來增強(qiáng)特征,但沒有考慮通道和空間之間的聯(lián)系,導(dǎo)致分割結(jié)果較為粗糙。另外,現(xiàn)有的混合注意力模型大多使用全局平均池化,特征圖在經(jīng)過卷積后每個(gè)位置都包含了局部區(qū)域的信息,這些方法只考慮了局部特征,無法對視覺任務(wù)所必需的長距離依賴進(jìn)行建模。但對于油藏刻蝕圖像分割來說,全局的上下文信息對細(xì)小目標(biāo)的分割至關(guān)重要。

        本文提出LDNet 網(wǎng)絡(luò),通過設(shè)計(jì)LDFE 模塊和引入CCAM 模塊,使用殘差瓶頸模塊及融合高層次語義信息,提高模型的分割精度和推理速度。

        2 輕量可變形編解碼網(wǎng)絡(luò)

        針對油藏驅(qū)替刻蝕圖像的特點(diǎn),本文提出輕量可變形編解碼網(wǎng)絡(luò)(LDNet),并將其應(yīng)用于刻蝕圖像分割以便于快捷有效地計(jì)算后續(xù)驅(qū)油率。如圖1所示(彩色效果見《計(jì)算機(jī)工程》官網(wǎng)HTML 版),LDNet 主要由LDFE 模塊、協(xié)同耦合注意力特征融合模塊以及特征解碼模塊組成。在編碼階段,將U-Net的常規(guī)卷積替換為LDFE 模塊,使其根據(jù)油藏驅(qū)替圖像的油相和水相的形狀改變采樣點(diǎn)的偏移量,獲取更豐富的特征信息并減少固定大小感受野帶來的全局信息損失,從而提高模型的特征表達(dá)能力。在特征融合階段,使用本文提出的協(xié)同耦合注意力模塊將空間信息與通道信息融合,以減少噪聲的影響并得到更精細(xì)的特征。同時(shí),為了解決可變形卷積訓(xùn)練困難的問題,本文引入殘差連接加快網(wǎng)絡(luò)擬合速度。解碼階段使用常規(guī)的U-Net 上采樣模塊使特征圖恢復(fù)至原圖大小。

        圖1 輕量可變形編解碼網(wǎng)絡(luò)結(jié)構(gòu)Fig.1 Structure lightweight deformable encoder-decoder network

        2.1 輕量可變形特征編碼模塊

        刻蝕圖像背景復(fù)雜,油相與水相呈現(xiàn)出非剛性結(jié)構(gòu)。常規(guī)的分割網(wǎng)絡(luò)大多使用固定形狀的方形卷積核進(jìn)行特征學(xué)習(xí),如CE-Net[18]、mU-Net[25]等。由于常規(guī)卷積單元在輸入的特征圖固定位置進(jìn)行采樣,對刻蝕圖像上下文信息的提取能力較弱,因此大幅限制了其對形狀豐富且復(fù)雜的油藏刻蝕圖像的多尺度信息提取能力。

        為此,本文提出LDFE 模塊,通過在卷積操作中增加一個(gè)偏移量,使卷積形變?yōu)椴灰?guī)則形狀,以達(dá)到適應(yīng)多變的水油形狀的目的。為解決增加偏移量帶來的參數(shù)冗余和訓(xùn)練困難的問題,如圖2 所示,使用深度卷積和逐點(diǎn)卷積對卷積的空間和通道相關(guān)性進(jìn)行解耦,在保證卷積層特征提取能力的同時(shí)降低參數(shù)量和計(jì)算量,提高模型的推理速度。為適應(yīng)非剛性的水相與油相的特征,LDFE 模塊可實(shí)現(xiàn)卷積核在不同位置、不同尺度與形狀的偏移。通過學(xué)習(xí)偏移位置,提供任意形狀的卷積核,從而自適應(yīng)地確定感受野的尺度并獲得更好的定位能力。其中,一個(gè)LDFE 模塊包含卷積層、偏移量計(jì)算層、歸一化層和激活層。輸入特征圖x經(jīng)過常規(guī)的卷積操作后,輸出特征圖y(·)通??杀槐硎緸槭剑?)所示:

        圖2 輕量可變形特征編碼模塊Fig.2 Lightweight deformable feature encoder module

        其中:D表示在模型訓(xùn)練期間卷積核的感受野;m0代表目標(biāo)像素點(diǎn);mn表示目標(biāo)像素點(diǎn)落入感受野中的位置;w(·)代表卷積學(xué)習(xí)到的權(quán)重。

        不同于常規(guī)卷積,特征圖x通過LDFE 模塊后,輸出的特征圖可被定義為式(2)所示:

        其中:可學(xué)習(xí)偏移量{△mn|mn∈D}使采樣的位置變的不規(guī)則,mn通常為浮點(diǎn)型數(shù)據(jù)。為了確保獲取到的偏置值均為整數(shù),使用雙線性插值確定采樣位置的像素值,最終采樣位置的像素值yp(m0)定義為式(3)所示:

        其中:ei表示學(xué)習(xí)到的權(quán)重;pj表示卷積的鄰域像素;H(·)代表雙線性插值操作。對于輕量可變形卷積的每一層,當(dāng)卷積層的輸入是N個(gè)通道的特征圖時(shí),相應(yīng)的偏置為2N個(gè)通道,這是因?yàn)槊總€(gè)通道分別包括x和y方向上的2 個(gè)偏移映射。在獲得所有采樣位置的像素值后,將生成新的特征映射。在訓(xùn)練期間,網(wǎng)絡(luò)同時(shí)學(xué)習(xí)生成輸出特征圖的輕量可變形卷積的權(quán)重和用于計(jì)算偏移量的卷積核權(quán)重。

        為減少可變形卷積的計(jì)算復(fù)雜度,本文引入深度卷積與逐點(diǎn)卷積替代可變形卷積中每一層的常規(guī)卷積。在常規(guī)卷積中,通過跨通道維的卷積核實(shí)現(xiàn)空間與通道間相關(guān)性的聯(lián)合映射,容易造成特征信息的冗余。而通過深度卷積與逐點(diǎn)卷積解耦空間與通道間相關(guān)性,能夠在提高網(wǎng)絡(luò)特征表達(dá)能力的同時(shí)減少計(jì)算復(fù)雜度,實(shí)現(xiàn)網(wǎng)絡(luò)輕量化。

        具體地,輸出特征圖x的尺寸為H×W×N,常規(guī)卷積核計(jì)算量為K2×M×N×H×W,可變形卷積的計(jì)算量為K2×M×H×W×2+K2×M×N×H×W,輕量可變形卷積的計(jì)算量為K2×M×H×W×2+H×W×M×N。與可變形卷積相比,本文提出的LDFE模塊的計(jì)算量可縮減為可變形卷積的0.6 倍,其中M為輸入特征的通道數(shù),N為輸出特征的通道數(shù),卷積核大小為K×K,H、W分別為輸入特征的高度與寬度。此外,為獲取到更精細(xì)的油水相分割結(jié)果,在每一LDFE 模塊后使用殘差設(shè)計(jì),從而避免網(wǎng)絡(luò)層數(shù)過深帶來的梯度消失現(xiàn)象,加速網(wǎng)絡(luò)的收斂。

        LDFE 模塊主要解決了油藏刻蝕圖像中水相與油相的非剛性邊界分割困難的問題,其感受野可以隨著水油相的尺寸、大小和形狀進(jìn)行自適應(yīng)調(diào)整,在提高分割精度的同時(shí)降低了網(wǎng)絡(luò)的計(jì)算和內(nèi)存開銷。

        2.2 協(xié)同耦合注意力模塊

        由于油藏刻蝕圖像存在噪聲大、水油交融邊界模糊、區(qū)域幾何形狀復(fù)雜等問題,導(dǎo)致圖像分割邊緣粗糙,因此本文使用注意力機(jī)制增強(qiáng)模型的表征能力,通過聚焦于重要區(qū)域和通道,抑制噪聲的影響,提高模型對輸入噪聲的魯棒性[26],從而提高模型在圖像邊緣處的分割精度。當(dāng)前主流的注意力機(jī)制可以分為空間注意力[27]、通道注意力[28]和混合注意力機(jī)制[29]。通道注意力機(jī)制主要通過捕獲任意2 個(gè)特征圖之間的通道依賴關(guān)系獲得權(quán)重信息,通過對所有通道進(jìn)行加權(quán),從而提升網(wǎng)絡(luò)的分割精度,但其忽略了空間位置信息。針對該問題,BAM 和CBAM 模塊試圖通過減少輸入的通道維數(shù),使用全局池化來對空間信息進(jìn)行全局編碼,以獲取位置信息。但這些方法忽略了空間和通道維度的全局特征依賴關(guān)系,對于細(xì)小目標(biāo)的特征提取能力有限。

        對于形狀與位置復(fù)雜的刻蝕圖像分割任務(wù),空間信息與通道信息的關(guān)系對精細(xì)目標(biāo)的分割至關(guān)重要。為解決該問題,本文提出CCAM 模塊,其具體結(jié)構(gòu)如圖3 所示。由圖3 可知,CCAM 模塊通過在通道注意力中耦合不同方向的空間位置信息,捕獲位置信息和通道之間的關(guān)系,實(shí)現(xiàn)跨通道和空間的交互和信息整合,從而獲取全局依賴關(guān)系和長程上下文信息,建立并提升模型的全局信息提取能力。

        圖3 協(xié)同耦合注意力模塊Fig.3 Co-coupling attention module

        具體地,協(xié)同耦合注意力機(jī)制通過將通道注意力分解為2 個(gè)并行的一維特征編碼,利用2 個(gè)一維的特征編碼分別沿垂直和水平方向?qū)⑤斎胩卣骶酆蠟? 個(gè)獨(dú)立的位置映射。將這2 個(gè)具有嵌入方向信息的特征圖分別編碼為兩個(gè)注意圖,每個(gè)注意圖捕獲輸入特征中沿一個(gè)空間方向的長程依賴關(guān)系。最終,將得到的2 個(gè)注意力權(quán)重與輸入特征圖相乘,以提高模型的定位能力,從而精準(zhǔn)地識別水油區(qū)域。

        在通道注意力中,通常使用全局池化對空間信息進(jìn)行全局編碼,然而該操作將全局空間信息壓縮到通道信息中,難以保留位置信息。為了使注意力模塊獲得空間位置信息,首先使用尺寸為(h,1)或(w,1)的卷積核對輸入特征圖x進(jìn)行平均池化,使其沿水平坐標(biāo)和垂直坐標(biāo)對通道進(jìn)行編碼,水平方向的輸出表達(dá)式如式(4)所示:

        其中:x為給定的輸入;h為給定特征圖的高度;c為給定特征圖的通道數(shù)。

        同理可得,寬度為w的第c個(gè)通道的輸出表達(dá)式如式(5)所示:

        將上述2 個(gè)方向的變換分別沿空間方向聚合特征,得到一對方向感知的特征圖,這與在通道注意力方法中產(chǎn)生單一特征向量的SE 模塊[28]不同,其可通過注意力模塊捕捉到沿著一個(gè)空間方向的長距離依賴關(guān)系,并保存沿著另一個(gè)空間方向的精確位置信息,有助于網(wǎng)絡(luò)更準(zhǔn)確地定位感興趣的目標(biāo)。

        為更好地利用上述模塊生成的注意力圖,本文充分利用捕獲到的位置信息,使通道與位置信息進(jìn)行更充分的融合,使用2 層共享的1×1 卷積進(jìn)行變換,得到卷積變化函數(shù)S1水平方向和垂直方向空間信息的特征圖f,其表達(dá)式如式(6)所示:

        其中:[·]表示沿空間維度的拼接運(yùn)算;σ(·)為非線性函數(shù)。為降低模型的復(fù)雜度,常以適當(dāng)?shù)耐ǖ缐嚎s率r來減少特征圖的通道數(shù)。將特征圖沿著空間維度切分為2 個(gè)單獨(dú)的張量th∈和tw∈,進(jìn)而得到:

        其中:δ為sigmoid 激活函數(shù);Sh為h方向1×1 卷積變換;Sw為w方向1×1 卷積變換。最后將其作為權(quán)重疊加在原圖上,得到協(xié)同耦合注意力,其表達(dá)式如式(9)所示:

        與只關(guān)注通道或空間重要性的注意力不同,本文提出的CCAM 模塊將位置信息嵌入到通道注意力中,并進(jìn)行了充分融合。水平和垂直方向的注意力同時(shí)被施加到輸入特征中,使協(xié)同耦合注意力更準(zhǔn)確地定位感興趣對象的確切位置,從而幫助模型實(shí)現(xiàn)更準(zhǔn)確的目標(biāo)定位。

        3 實(shí)驗(yàn)結(jié)果與分析

        為充分證明本文LDNet 網(wǎng)絡(luò)的有效性和泛化性,在刻蝕圖像數(shù)據(jù)集上進(jìn)行了消融實(shí)驗(yàn)和對比實(shí)驗(yàn)。設(shè)計(jì)的消融實(shí)驗(yàn)詳細(xì)驗(yàn)證了LDFE 模塊和CCAM 模塊的優(yōu)越性。通過與不同分割算法在油藏驅(qū)替刻蝕圖像數(shù)據(jù)集上的對比分析,充分證明LDNet 網(wǎng)絡(luò)的有效性。

        3.1 實(shí)驗(yàn)數(shù)據(jù)

        本文用于實(shí)驗(yàn)的數(shù)據(jù)集共包含1 014 張不同時(shí)刻、不同孔隙度與孔喉比大小的油藏驅(qū)替刻蝕圖像,圖像分辨率為5 120×5 120 像素,每張圖像對應(yīng)一張人工標(biāo)注結(jié)果,其中人工標(biāo)注結(jié)果均來自于2 名該領(lǐng)域的專家。根據(jù)3∶1∶2 的比例,隨機(jī)選取了507 個(gè)圖像作為訓(xùn)練集,169 個(gè)圖像作為驗(yàn)證集,剩余的338 個(gè)圖像作為測試集,部分測試圖如圖4 所示(彩色效果見《計(jì)算機(jī)工程》官網(wǎng)HTML 版本)。為提高訓(xùn)練的效率和泛化能力,將所有圖像尺寸裁剪為256×256 像素,并進(jìn)行隨機(jī)水平翻轉(zhuǎn)、旋轉(zhuǎn)、添加噪聲等操作,以增強(qiáng)數(shù)據(jù)。

        圖4 刻蝕圖像數(shù)據(jù)集示例Fig.4 Examples of etched image dataset

        3.2 評價(jià)指標(biāo)

        為評價(jià)刻蝕圖像的分割結(jié)果,使用主流的圖像分割算法指標(biāo)來衡量模型的性能,主要包含分割精度(Dice)、交并比(mean Intersection over Union,mIOU)和召回率(Recall),這些評價(jià)指標(biāo)定義如下:

        其中:n表示預(yù)測結(jié)果的類別數(shù);TTP表示分割正確的正類數(shù)目;TTN是分割正確的負(fù)類數(shù)目;FFP是指分割錯(cuò)誤的正類數(shù)目;FFN表示分割錯(cuò)誤的負(fù)類數(shù)目。

        分割精度是一種集合相似度度量指標(biāo),通常用于計(jì)算水油相2 個(gè)樣本的相似度。平均交并比是每一類分割結(jié)果和真實(shí)值的交集與并集的比值進(jìn)行求和再平均的結(jié)果。召回率是分割正確的正例占總的正例的比重。以上3 個(gè)指標(biāo)值越大,代表分割效果越好。

        3.3 損失函數(shù)

        基于輕量可變形編碼網(wǎng)絡(luò)的框架是一個(gè)端到端的深度學(xué)習(xí)模型,為了量化特征圖與標(biāo)簽數(shù)據(jù)之間的差異,采用交叉熵?fù)p失函數(shù)[30]作為優(yōu)化目標(biāo)函數(shù),表示如下:

        其中;θ表示分割網(wǎng)絡(luò)中所有可學(xué)習(xí)參數(shù);ti表示油藏圖像;xi∈X對應(yīng)真實(shí)標(biāo)簽。

        3.4 實(shí)驗(yàn)參數(shù)

        實(shí)驗(yàn)所使用的硬件配置如下:處理器Intel Core i9 9900X @ 3.5 GHz;內(nèi) 存128 GB;GPU 為NVIDIA Geforce RTX 2080Ti 11 GB。在網(wǎng)絡(luò)模型的訓(xùn)練中,使用Adam 優(yōu)化器來優(yōu)化模型,將初始學(xué)習(xí)率(lr)設(shè)置為0.001,并將訓(xùn)練期間學(xué)習(xí)率的衰減策略定義如下:

        其中;i表示訓(xùn)練的迭代次數(shù);ti表示迭代總數(shù)。與普通卷積相比,LDFE 模塊需要2 個(gè)學(xué)習(xí)速率。設(shè)置lr2=lr×0.01,作為LDFE 模塊偏移卷積層的學(xué)習(xí)率。

        3.5 消融實(shí)驗(yàn)

        本文主要貢獻(xiàn)是針對油藏驅(qū)替刻蝕圖像數(shù)據(jù)集的特點(diǎn)提出LDNet網(wǎng)絡(luò),以提高圖像的分割精度。LDNet網(wǎng)絡(luò)主要包含LDFE 模塊和CCAM 模塊。LDFE 模塊可以實(shí)現(xiàn)自適應(yīng)大小的感受野,從而解決水油相的大小、形狀與尺度復(fù)雜的問題。CCAM 模塊同時(shí)考慮空間注意力和通道注意力之間的聯(lián)系,增加模型的融合效率,降低信息的損失,從而提升分割效果。為證明這2 個(gè)模塊貢獻(xiàn)的有效性,在刻蝕圖像數(shù)據(jù)集上進(jìn)行了一系列實(shí)驗(yàn),結(jié)果如表1 所示。

        表1 消融實(shí)驗(yàn)結(jié)果Table 1 Ablation experiment results

        分析表1 可知:

        1)LDFE 模塊的有效性驗(yàn)證。為驗(yàn)證LDFE 模塊的有效性,以U-Net 作為骨干網(wǎng)絡(luò),將U-Net 中的編碼模塊分別替換為標(biāo)準(zhǔn)可變形卷積(Deformable Convolution,DC)以及LDFE 模塊。如表1 所示,與U-Net 網(wǎng)絡(luò)相比,基于常規(guī)可變形卷積的U-Net 網(wǎng)絡(luò)(U-Net+DC)的分割精度提高了1.58 個(gè)百分點(diǎn)。U-Net+LDFE 網(wǎng)絡(luò)的精度為86.68%,但該網(wǎng)絡(luò)的參數(shù)量僅為16.16M,相比U-Net 網(wǎng)絡(luò)模型參數(shù)減少了53.18%。由此可以證明LDFE 模塊在減少參數(shù)量的前提下比傳統(tǒng)卷積具有更強(qiáng)的自適應(yīng)能力。圖5 顯示了U-Net、U-Net+DC 和U-Net+LDFE 在低滲透油藏刻蝕圖庫上的分割結(jié)果差異(彩色效果見《計(jì)算機(jī)工程》官網(wǎng)HTML 版本)。其中紅色與藍(lán)色的前景為差異,黑色背景為相同的像素點(diǎn)。如圖5 所示,可變形卷積和LDFE 模塊都可以幫助U-Net 網(wǎng)絡(luò)獲取更多邊緣信息,但LDFE 模塊通過深度卷積與逐點(diǎn)卷積可捕捉更大的感受野,并使用殘差結(jié)構(gòu)獲得了更準(zhǔn)確的輪廓預(yù)測。在圖5 中U-Net+LDFE 提供的特征圖包含更多的細(xì)節(jié)信息,其結(jié)果最接近標(biāo)簽數(shù)據(jù)。

        圖5 不同網(wǎng)絡(luò)在低滲透油藏刻蝕圖庫上的分割結(jié)果對比Fig.5 Comparison of segmentation results of different methods on the etched map library of low permeability reservoirs

        2)CCAM 模塊的有效性驗(yàn)證。為驗(yàn)證CCAM模塊和其他注意力模塊的不同,本文以U-Net 為骨干網(wǎng)絡(luò),分別添加CCAM 模塊、SENet 網(wǎng)絡(luò)中的通道注意力(Squeeze and Excitation,SE)模塊、卷積注意力機(jī)制模塊(Convolutional Block Attention Module,CBAM)及CCNet 網(wǎng)絡(luò)[31]中的重復(fù)十字交叉注意力模塊(Recurrent Criss Cross Attention Moudle,RCCA)。由表1 可知,相比于U-Net 網(wǎng)絡(luò),增加CCAM 模塊可將準(zhǔn)確率83.74%提高到86.77%,準(zhǔn)確率提高了3.03個(gè)百分點(diǎn)。因此,CCAM 模塊在刻蝕圖像中能更準(zhǔn)確地定位水油交融狀態(tài)下的確切位置,且能幫助網(wǎng)絡(luò)分割更精細(xì)的水油目標(biāo)。

        圖6 為添加不同注意力模塊的可視化結(jié)果(彩色效果見《計(jì)算機(jī)工程》官網(wǎng)HTML 版本),其中紅色和藍(lán)色分別表示關(guān)注度較高和較低的區(qū)域??梢钥闯?,引入CBAM 和RCCA 模塊較SE 模塊可以更好地幫助網(wǎng)絡(luò)實(shí)現(xiàn)水油相提取。與CBAM 模塊相比,CCAM 模塊將通道信息與空間信息進(jìn)行了充分耦合,對目標(biāo)區(qū)域的感知能力更強(qiáng),受噪聲干擾小且對細(xì)小目標(biāo)提取更精準(zhǔn),對于邊緣信息的定位更準(zhǔn)確。

        圖6 不同注意力模塊的可視化結(jié)果對比Fig.6 Comparison of visual results of different attention modules

        3.6 與主流分割網(wǎng)絡(luò)的對比實(shí)驗(yàn)

        為進(jìn)一步證明本文LDNet 網(wǎng)絡(luò)的優(yōu)越性,實(shí)驗(yàn)選用主流的分割網(wǎng)絡(luò)作為對比,包括U-Net[15]、UNet++[21]、CE-Net[18]、DefED-Net[20]、Attention U-Net[22]、H-DenseUNet[16]和Rednet[19],結(jié)果如表2 所示。

        表2 不同網(wǎng)絡(luò)在刻蝕圖像上的實(shí)驗(yàn)結(jié)果Table 2 Experimental results of different networks on etched image

        由表2 可知,本文LDNet 網(wǎng)絡(luò)的模型大小為16.63M,分割精度為89.94%,與其他對比網(wǎng)絡(luò)相比表現(xiàn)最好。U-Net 網(wǎng)絡(luò)采用標(biāo)準(zhǔn)卷積,不能有效提取圖像中的邊緣細(xì)節(jié)信息,因此分割精度最低。UNet++網(wǎng)絡(luò)相較于U-Net 網(wǎng)絡(luò)重新設(shè)計(jì)了跳躍連接方式,從而將分割精度提升至85.32%。CE-Net 和Rednet 網(wǎng)絡(luò)均通過設(shè)計(jì)新的卷積算子分別將分割精度提升到86.82%和84.54%,但都帶來了巨大參數(shù)量。DefED-Net、LDNet 網(wǎng)絡(luò)使用可變形卷積,對刻蝕圖像的邊緣提取效果更好。LDNet 網(wǎng)絡(luò)在可變形卷積中分別使用逐點(diǎn)卷積與深度卷積來減少計(jì)算量,并加入殘差網(wǎng)絡(luò)提取圖像多尺度信息,采用CCAM 模塊融合上下文信息并建立長距離依賴關(guān)系,因此模型的分割精度更高。另外,由于可變形卷積對計(jì)算量有較大消耗,通過結(jié)合深度卷積與逐點(diǎn)卷積可大幅降低卷積的計(jì)算量與模型大小,提高計(jì)算效率。相較于DefED-Net 網(wǎng)絡(luò),LDNet 網(wǎng)絡(luò)將模型計(jì)算量降低了56.27%,模型大小減少了72.72%。

        圖7 所示為不同網(wǎng)絡(luò)分割刻蝕圖像的可視化結(jié)果(彩色效果見《計(jì)算機(jī)工程》官網(wǎng)HTML 版本)??梢钥闯?,U-Net 網(wǎng)絡(luò)對刻蝕圖像的分割效果較差。UNet++網(wǎng)絡(luò)相比于U-Net 網(wǎng)絡(luò)能捕獲更多細(xì)節(jié)信息,但難以分割邊界模糊區(qū)域。H-DenseUNet 網(wǎng)絡(luò)使用了密集連接策略,相比于UNet++網(wǎng)絡(luò)能夠捕捉到更多細(xì)節(jié)信息,但其針對水油的邊緣信息分割較差。CE-Net、Rednet 網(wǎng)絡(luò)在編碼階段改進(jìn)了傳統(tǒng)的卷積算子,對于模糊邊界分割較為理想,但難以捕捉細(xì)小的水油信息。Attention U-Net 網(wǎng)絡(luò)通過添加注意力門控信息增強(qiáng)小目標(biāo)的分割效果,但針對水油的邊界位置分割較差。DefED-Net 網(wǎng)絡(luò)通過使用可變形卷積增強(qiáng)邊緣細(xì)節(jié)信息,但該網(wǎng)絡(luò)針對水油中的細(xì)小目標(biāo)分割較差,且計(jì)算量與參數(shù)量龐大。與上述網(wǎng)絡(luò)相比,本文LDNet 網(wǎng)絡(luò)能夠更精準(zhǔn)地分割邊界及提取精細(xì)目標(biāo),實(shí)現(xiàn)了更好的特征編碼和特征融合,以及刻蝕圖像的高精度分割。

        圖7 不同分割網(wǎng)絡(luò)對刻蝕圖像的分割結(jié)果對比Fig.7 Comparison of etched images segmentation results by different segmentation networks

        4 結(jié)束語

        針對油藏刻蝕圖像對比度低、邊緣模糊、形狀復(fù)雜等問題,本文提出一種面向刻蝕圖像分割的輕量可變形編解碼網(wǎng)絡(luò)LDNet。通過使用LDFE 模塊實(shí)現(xiàn)自適應(yīng)感受野,以適應(yīng)刻蝕圖像中目標(biāo)形狀多樣、尺度復(fù)雜等問題。引入?yún)f(xié)同耦合注意力模塊,并將位置信息耦合進(jìn)通道注意力中,提升網(wǎng)絡(luò)的魯棒性,實(shí)現(xiàn)刻蝕圖像的細(xì)小目標(biāo)分割。實(shí)驗(yàn)結(jié)果表明,本文LDNet 網(wǎng)絡(luò)能在大幅減少參數(shù)量與計(jì)算量的前提下準(zhǔn)確分割油藏刻蝕圖像。下一步將深入研究自編碼器在分割刻蝕圖像上的應(yīng)用,以解決樣本標(biāo)注獲取難的問題。

        猜你喜歡
        油藏注意力卷積
        讓注意力“飛”回來
        基于3D-Winograd的快速卷積算法設(shè)計(jì)及FPGA實(shí)現(xiàn)
        低滲油藏注采結(jié)構(gòu)調(diào)整與挖潛技術(shù)
        云南化工(2020年11期)2021-01-14 00:51:02
        從濾波器理解卷積
        電子制作(2019年11期)2019-07-04 00:34:38
        基于模糊數(shù)學(xué)的油藏干層識別研究
        基于傅里葉域卷積表示的目標(biāo)跟蹤算法
        “揚(yáng)眼”APP:讓注意力“變現(xiàn)”
        傳媒評論(2017年3期)2017-06-13 09:18:10
        A Beautiful Way Of Looking At Things
        注CO2混相驅(qū)候選油藏篩選評價(jià)新方法
        致密油藏多級壓裂水平井?dāng)?shù)值模擬及應(yīng)用
        无遮挡边摸边吃奶边做视频免费| 亚洲福利二区三区四区| 中文字幕一区二区人妻秘书| 午夜无遮挡男女啪啪免费软件| 亚洲暴爽av人人爽日日碰| 亚洲中文字幕乱码免费| 精品色老头老太国产精品| 操风骚人妻沉沦中文字幕| 中国丰满熟妇xxxx性| 热久久久久久久| 国产精品久久夜伦鲁鲁| 国产视频一区二区三区在线免费| 丰满少妇三级全黄| 婷婷综合五月| 精品亚亚洲成av人片在线观看 | 不卡一区二区视频日本| 真人做爰片免费观看播放| 一级二级中文字幕在线视频| 亚洲在线视频一区二区| 亚洲人妻调教中文字幕| 2020年国产精品| 2021av在线| 久久精品伊人久久精品伊人| 免费乱理伦片在线观看| 国产真实乱人偷精品人妻| 亚洲国产视频精品一区二区| 亚洲国产精品久久无人区| 岳毛多又紧做起爽| 久久国产亚洲高清观看5388| 丰满熟女人妻一区二区三区| 极品粉嫩嫩模大尺度无码视频| 日韩成人极品在线内射3p蜜臀| www.五月激情| 日产一区日产2区日产| 亚洲精品久久| 香蕉网站在线| 我也色自拍俺也色自拍| 成年免费a级毛片免费看无码| 抽插丰满内射高潮视频| 亚洲愉拍自拍视频一区| 国产一级一级内射视频|