李冰濤,王志章,孔垂顯,蔣慶平,王偉方,雷祥輝
(1.中國石油大學(xué)(北京),北京100000;2.中國石油新疆油田分公司勘探開發(fā)研究院,新疆克拉瑪依834000)
裂縫是巖石中由于構(gòu)造變形或物理成巖作用形成的面狀不連續(xù)體[1]。在所有測井資料中,成像測井資料是最直接有效的裂縫識(shí)別資料。傳統(tǒng)的裂縫識(shí)別基于人機(jī)交互的手工拾取,費(fèi)時(shí)費(fèi)力,因此,近年來成像測井裂縫自動(dòng)識(shí)別一直是比較熱門的課題,其中重要的一步就是圖像分割,然而目前常用的圖像分割算法均不夠精確。為了得到最準(zhǔn)確的圖像分割結(jié)果,本文采用了圖像分割算法,Google DeepLabv3+[2],對(duì)新疆油田車471井區(qū)成像測井?dāng)?shù)據(jù),進(jìn)行了裂縫的識(shí)別,并用改進(jìn)的霍夫變換實(shí)現(xiàn)了裂縫產(chǎn)狀的自動(dòng)提取。
成像測井資料地質(zhì)現(xiàn)象定性描述方面的研究較多[3-8],但這類研究對(duì)地質(zhì)現(xiàn)象的識(shí)別目前主要是依靠人工解釋識(shí)別,效率低下。而成像測井資料的地質(zhì)現(xiàn)象自動(dòng)識(shí)別方面研究較少。楊緒海等[9]提出有效提取條紋背景噪聲的算法模型,實(shí)現(xiàn)了巖石裂縫特征的自動(dòng)識(shí)別;薛國新等[10]提出一種基于多數(shù)投票規(guī)則的裂縫計(jì)算機(jī)自動(dòng)識(shí)別方法;陸敬安等[11]提出用霍夫變換來自動(dòng)識(shí)別成像測井中的裂縫;李茂兵等[12]將裂縫分3種進(jìn)行識(shí)別,即斜交縫利用霍夫變換來識(shí)別,垂直縫和水平縫利用輪廓跟蹤和提取的方法來識(shí)別;王敏[13]提出基于小波多尺度分析和去噪的剩余曲線變化率進(jìn)行裂縫識(shí)別,賴富強(qiáng)[14]提出改進(jìn)的霍夫變換自動(dòng)識(shí)別裂縫;張曉峰等[15]提出利用垂向的和橫向的小波變換組合識(shí)別裂縫;張程恩等[16]提出基于蟻群聚類算法的成像測井裂縫識(shí)別;張群會(huì)等[17]通過免疫規(guī)則建立了一個(gè)基于元胞自動(dòng)機(jī)模型的成像測井裂縫自動(dòng)識(shí)別模型;劉英明等[18]年提出成像測井圖像呈正弦地質(zhì)構(gòu)造自動(dòng)拾取方法,劉文斌等[19]利用分水嶺算法對(duì)成像測井裂縫進(jìn)行圖像分割,然后利用霍夫變換拾取裂縫參數(shù)。
上述方法要么沒有提取出裂縫區(qū)域,僅通過統(tǒng)計(jì)特征確定裂縫的存在;要么利用圖像分割提取出裂縫區(qū)域但不夠準(zhǔn)確,對(duì)下一步的參數(shù)提取造成影響。本文利用目前最先進(jìn)的基于深度學(xué)習(xí)的DeepLabv3+卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),對(duì)裂縫區(qū)域進(jìn)行了準(zhǔn)確提取,并采用霍夫變換對(duì)裂縫參數(shù)進(jìn)行提取。
電成像測井裂縫自動(dòng)識(shí)別一直是比較熱門的課題,其中重要的一步就是圖像分割。
常規(guī)圖像分類的深度卷積神經(jīng)網(wǎng)絡(luò),以圖像作為輸入,通過卷積、激活函數(shù)、池化和全連接層的運(yùn)算,輸出一個(gè)包含每個(gè)類別標(biāo)簽的概率的特征向量,代表圖像類別。
與圖像分類不同,語義分割對(duì)圖像中的每一個(gè)像素作出分類。然而,常規(guī)卷積神經(jīng)網(wǎng)絡(luò)并不適用于密集預(yù)測的任務(wù)。首先,這些模型包含許多用于減小輸入特征的空間維度的層,最終產(chǎn)生缺乏清晰細(xì)節(jié)的高度抽象的特征向量。其次,全連接層在計(jì)算過程中具有固定的輸入規(guī)模和松散的空間信息。
因此,目前圖像分割模型一般采用編碼器解碼器結(jié)構(gòu)(見圖1)。第1部分將信息編碼為壓縮向量來代表輸入,第2部分解碼器的作用是將這個(gè)信號(hào)重建為期望的輸出。
DeepLab是Google公司于2015年提出的語義分割模型,其第4個(gè)版本DeepLabV3+于2018年提出并在3月13日開源,在Pascal VOC 2012和Cityscapes上取得了極好的效果。
DeepLabv3+借鑒了PSPNet[20]中的空間金字塔池化模型(SPP),和基于全卷積神經(jīng)網(wǎng)絡(luò)的編碼解碼器模型[21-22]。DeepLabV3+進(jìn)一步利用Xception模塊[23],將深度可分卷積結(jié)構(gòu)(depthwise separable convolution)用到帶孔空間金字塔池化(ASPP)模塊和解碼模塊中,得到更快速有效的編碼解碼網(wǎng)絡(luò)(見圖2)。由此不僅可以利用ASPP多樣的感受視野有效提取圖像多尺度的上下文信息,并且在新的解碼器模塊中加入了編碼器中低層次網(wǎng)絡(luò)的特征,以重構(gòu)精確的圖像物體邊界。
DeepLabv3+使用了其前一代模型DeepLabv3作為編碼器,其使用ASPP來提取不同尺度的卷積特征,而后在解碼器模塊中首先將編碼特征采用因子4進(jìn)行雙線性上采樣,然后連接從主干網(wǎng)絡(luò)所輸出的對(duì)應(yīng)的具有相同空間分辨率的low-level特征,連接后采用3×3的卷積核和因子4的雙線性上采樣來改善特征。
圖1 用于圖像語義分割的編碼器解碼器結(jié)構(gòu)
圖2 編碼解碼網(wǎng)絡(luò)
圖3 DeepLabv3+整體架構(gòu)(Chen et al.2018)
霍夫變換[24]最初用來檢測直線,后來拓展到可以識(shí)別和檢測圖像空間的任意解析曲線。霍夫變換的原理是將特定圖形上的點(diǎn)變換到一組參數(shù)空間上,根據(jù)參數(shù)空間點(diǎn)的累計(jì)結(jié)果找到一個(gè)極大值對(duì)應(yīng)的解,那么這個(gè)解就對(duì)應(yīng)著要尋找的幾何形狀的參數(shù)。
由于正弦曲線y=Asin (ωx-φ)+y0中共有4個(gè)參數(shù),其參數(shù)空間為4維,對(duì)應(yīng)的霍夫變換計(jì)算量過于龐大,因此本文參考了鄒長春等[25]改進(jìn)的霍夫變換快速檢測方法:首先,由于成像測井裂縫正弦曲線周期始終為圖像寬度,可確定參數(shù)ω。之后,再利用正弦曲線上半周期距離的2個(gè)點(diǎn)的中點(diǎn)的縱坐標(biāo)為其基線的位置這個(gè)性質(zhì),利用與霍夫變換類似的多數(shù)投票機(jī)制,確定基線的位置,從而確定參數(shù)y(見圖4)。
圖4 確定正弦曲線基線位置y0的示意圖
如此,正弦曲線僅余2個(gè)參數(shù)待確定,此時(shí)再利用霍夫變換,求取振幅A和初相位φ。僅由A和φ建立霍夫變換參數(shù)空間,計(jì)算量大大減小。
利用labelme開源工具,對(duì)新疆車47井區(qū)的成像測井圖像進(jìn)行裂縫區(qū)域的標(biāo)定,得到300張標(biāo)注過的圖片,尺寸為286×278。之后選取240張圖片,輸入DeepLavbv3+模型進(jìn)行訓(xùn)練,剩余60張作為測試數(shù)據(jù)。
圖像分割中通常使用許多標(biāo)準(zhǔn)來衡量算法的精度,通常是像素精度及IoU的變種,在眾多度量標(biāo)準(zhǔn)中,由于MIoU簡潔、代表性強(qiáng),文中采用均交并比作為評(píng)價(jià)標(biāo)準(zhǔn)[26]。
均交并比(Mean Intersection over Union MIoU):語義分割的標(biāo)準(zhǔn)度量。計(jì)算2個(gè)集合的交集和并集之比,在語義分割的問題中,這2個(gè)集合為真實(shí)值和預(yù)測值。這個(gè)比例可變形為正真數(shù)比上真正、假負(fù)、假正(并集)之和。在每個(gè)類上計(jì)算IoU,之后平均。
(1)
式中,假設(shè)共有k+1個(gè)類(從L0到Lk,其中包含個(gè)空類或背景);pij表示本屬于類i但被預(yù)測為類j的像素?cái)?shù)量。即,pii表示真正數(shù),而pij,pji則分別為假正和假負(fù)。
本文的Deeplabv3+模型使用TernsorFlow在Python3.6上搭建。同時(shí)使用指標(biāo)MIoU進(jìn)行性能評(píng)估。模型采用5個(gè)樣本的小批量進(jìn)行訓(xùn)練,以模型收斂更加穩(wěn)定。學(xué)習(xí)率從0.0001開始,并在整個(gè)培訓(xùn)過程中自動(dòng)調(diào)整。訓(xùn)練過程見圖5。最終模型在測試集上的MIoU達(dá)到83.2%,與Google用DeepLabv3+在Pascal VOC 2012數(shù)據(jù)集上得到目前所有模型最高84.56%的均交并比[2]相比,可認(rèn)為是一個(gè)較為理想的結(jié)果。
圖5 損失函數(shù)值和均交并比隨訓(xùn)練次數(shù)的變化曲線
圖6 DeepLabv3+模型預(yù)測結(jié)果(左側(cè)為成像測井原圖,右側(cè)為預(yù)測結(jié)果,紅色為分割出的裂縫區(qū)域)
保存測試集中MIoU最高的訓(xùn)練模型對(duì)測試集成像測井圖像進(jìn)行語義分割,其結(jié)果見圖6。圖6左側(cè)為成像測井原圖,右側(cè)為預(yù)測結(jié)果,紅色為分割出的裂縫區(qū)域。與簡單的圖像二值化,以及流行的的圖像分割方法如分水嶺算法[27]、Chan-Vese算法[28-30]、Random walker算法[31]和Morphological Snakes算法[32]相比,該模型可更準(zhǔn)確地預(yù)測裂縫所造成的正弦曲線形狀的真實(shí)分布,即使不同極板之間圖像數(shù)據(jù)的空白部分,依然可以預(yù)測出連續(xù)裂縫區(qū)域,得到更加準(zhǔn)確的圖像分割結(jié)果。此外,訓(xùn)練出的模型相比傳統(tǒng)圖像分割也能夠準(zhǔn)確忽略掉圖像中非裂縫黑色像素的噪音影響,相比傳統(tǒng)圖像分割,該模型具有更強(qiáng)的魯棒性。更準(zhǔn)確的預(yù)測結(jié)果和排除噪音的影響,可以為下一步的霍夫變換減少計(jì)算量,并使其結(jié)果更加準(zhǔn)確。
利用霍夫變換求出裂縫的正弦曲線表達(dá)式之后,根據(jù)正弦曲線與裂縫的對(duì)應(yīng)關(guān)系,裂縫傾向?yàn)檎仪€y=Asin (ωx-φ)+y0中初相位φ對(duì)應(yīng)的角度,可以通過下式獲得其余裂縫參數(shù)
(2)
式中,H為裂縫的高度;A為振幅;mHeight為圖像的像素高度;Dtop-bottom是成像圖對(duì)應(yīng)的深度區(qū)間(文中為1 m);α為裂縫傾角;D為井眼直徑。對(duì)預(yù)測結(jié)果進(jìn)行霍夫變換,提取的正弦曲線見圖8,其參數(shù)見表1。表1中序號(hào)對(duì)應(yīng)圖8中序號(hào)。
圖7 不同圖像分割算法效果對(duì)比圖
序號(hào)振幅頻率初相位基線高度/m傾角/(°)傾向/(°)a460.01216590.3258.0337.6b360.0124191180.1943.5112.9300.0121493160.1638.7284.2c250.0124192870.1333.0112.9d660.0123372120.3560.261.2e200.0122201040.1127.9337.8200.0122392570.1127.9351.4f320.0124462330.1740.2138.6
利用DeepLabv3+模型進(jìn)行成像測井裂縫的智能提取方法,相比傳統(tǒng)圖像分割方法,能夠準(zhǔn)確地對(duì)裂縫區(qū)域的像素進(jìn)行分割;而且模型訓(xùn)練好之后對(duì)新的圖像進(jìn)行預(yù)測操作簡便,速度快,降低人力成本;此外,能夠?yàn)橹蟮幕舴蜃儞Q減少噪音影響,從而加速霍夫變換計(jì)算速度,并使其提取的參數(shù)更加準(zhǔn)確。