亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于極限過程學習機的儲層微觀孔隙結(jié)構(gòu)識別

        2021-01-26 11:34:44張強王穎郭玉潔
        關(guān)鍵詞:優(yōu)化

        張強,王穎,郭玉潔

        (東北石油大學 計算機與信息技術(shù)學院,大慶 163318)

        油藏開發(fā)過程中儲層的微觀孔隙結(jié)構(gòu)特征是影響儲集層流體的儲集能力和高效開發(fā)油氣資源的主要因素,特別是油田進入高含水開采期間,準確分析和確定開采儲層的微觀孔隙結(jié)構(gòu)特征是提升目的油層產(chǎn)能和提高采收率的關(guān)鍵。目前儲層的微觀孔隙結(jié)構(gòu)識別主要采用室內(nèi)實驗法和測井資料法。藺景龍等人[1]通過三層BP網(wǎng)絡(luò)建立測井資料與微觀孔隙結(jié)構(gòu)類型的映射關(guān)系來識別油層的孔隙結(jié)構(gòu)類型。Yakov等人[2]提出橫向弛豫時間和毛管壓力間的轉(zhuǎn)換關(guān)系,為利用核磁共振測井資料研究儲層微觀孔隙結(jié)構(gòu)提供了理論支持。肖飛等人[3]運用T2幾何均值擬合法和偽毛管壓力曲線轉(zhuǎn)換法連續(xù)、定量地表征了儲層微觀孔隙結(jié)構(gòu)。

        2004年 Guang-Bin Huang等人[4]提出極限學習機(Extreme Learning Machine,ELM),具有調(diào)節(jié)參數(shù)少、網(wǎng)絡(luò)權(quán)值隨機化、學習速度快的優(yōu)點。近年來針對ELM的研究也層出不窮,主要包括網(wǎng)絡(luò)權(quán)值隨機參數(shù)優(yōu)化[5]、核函數(shù)ELM網(wǎng)絡(luò)模型[6],在線極限學習機模型[7],網(wǎng)絡(luò)隱層結(jié)構(gòu)優(yōu)化[8]及模型應(yīng)用研究[9-11]等方面。盡管 ELM 在理論研究和具體應(yīng)用上取得了豐富的研究成果,但基本ELM沒能體現(xiàn)時間累積效應(yīng)和延時特性。而在實際應(yīng)用中很多系統(tǒng)的輸入往往是與時間有關(guān)的,系統(tǒng)的輸出依賴于對時間的累積和對空間的聚合。因此本文提出一種具有過程式輸入的極限過程學習機模型(Extreme Pro?cess Learning Machine,EPLM)及學習算法,并將其應(yīng)用于儲層微觀孔隙結(jié)構(gòu)類型識別。

        1 極限過程學習機原理

        在極限過程學習機網(wǎng)絡(luò)模型中,網(wǎng)絡(luò)隱層由過程神經(jīng)元組成,過程神經(jīng)元有一個對于時間效應(yīng)的累積算子,使其聚合運算可同時表達時變輸入信號的空間聚合作用和對時間效應(yīng)的累積過程。輸出層為非時變神經(jīng)元,相同類型的神經(jīng)元執(zhí)行相同的聚合/累積運算,理論和學習方法相同。極限過程學習機網(wǎng)絡(luò)拓撲結(jié)構(gòu)如圖1所示。

        圖1 極限過程學習機網(wǎng)絡(luò)模型

        如圖1模型所示,x1(t),x2(t),...,xn(t)為時變輸入函數(shù),wij(t)是輸入層與網(wǎng)絡(luò)隱層的連接權(quán)函數(shù),θ(j1)是隱層神經(jīng)元j的閾值,f為激勵函數(shù),vj是隱層第j個神經(jīng)元與輸出層的連接權(quán)值。極限過程學習機網(wǎng)絡(luò)輸入與輸出的映射關(guān)系如下:

        由公式(1)可知,極限過程學習機網(wǎng)絡(luò)先對輸入的時變信號進行時間加權(quán)累積,再進行這些時間累積效應(yīng)的空間聚合,最后通過激勵函數(shù)f的計算輸出結(jié)果。

        設(shè)極限過程學習機網(wǎng)絡(luò)的輸入為X(t)=(x1(t),x2(t),...,xn(t)),b1(t),b2(t),...,bl(t)為C[0,T]中的一組標準正交基函數(shù),在一定的條件下可表示為基函數(shù)展開的級數(shù)形式:

        同時連接權(quán)函數(shù)wij(t)也可用b1(t),b2(t),...,bL(t)基函數(shù)來表示,即:

        由于b1(t),b2(t),...,bL(t)為[0,T]區(qū)間上的一組標準正交基函數(shù),滿足:

        所以公式(4)可簡化為:

        對于模型的學習問題,依據(jù)極限學習機學習算法原理,正交基展開后的系數(shù)和閾值隨機產(chǎn)生。對于模型訓練樣本中的第k個樣本輸入(xk1(t),xk2(t),...,xkn(t),ok),根據(jù)正交基展開的L個展開系數(shù)為,由此可以得出EPLM網(wǎng)絡(luò)隱層的輸出矩陣為:

        采用廣義逆計算隱層過程神經(jīng)元與輸出神經(jīng)元之間的連接權(quán)值vj,公式為V=,其 中(HK×m)+=(HTH)-1HT,O=[o1,o2,...,oK]TK×1為網(wǎng)絡(luò)輸出。由上面的模型推導(dǎo)過程可以看出,網(wǎng)絡(luò)結(jié)構(gòu)和正交基展開項系數(shù)以及廣義逆的求解方法是影響網(wǎng)絡(luò)模型學習速度和預(yù)測精度的主要原因,故本文提出一種新的極限過程學習機訓練方法。

        2 基于改進混洗蛙跳算法的極限過程學習機訓練方法

        在一些實際應(yīng)用中,與梯度下降的優(yōu)化方法相比,ELM可能需要更多的隱層神經(jīng)元。隱層神經(jīng)元的多少也會導(dǎo)致過擬合或欠擬合問題,可能會產(chǎn)生非最優(yōu)的權(quán)值,降低了算法的性能。另外,這種隨機賦值使得ELM對未知測試數(shù)據(jù)的響應(yīng)速度降低,隱層神經(jīng)元個數(shù)越多,說明網(wǎng)絡(luò)結(jié)構(gòu)越復(fù)雜,易造成計算復(fù)雜度的增加和內(nèi)存消耗等問題。從構(gòu)建的極限過程學習機模型可知,網(wǎng)絡(luò)輸入相對于經(jīng)典ELM要多,所以本文利用基于灰狼優(yōu)化的改進混洗蛙跳算法找出更緊湊的網(wǎng)絡(luò)結(jié)構(gòu)及最優(yōu)參數(shù)或近似最優(yōu)參數(shù),用基于張量乘積矩陣的廣義逆求解算法加速模型參數(shù)求解。

        2.1 基于灰狼優(yōu)化的改進混洗蛙跳算法原理

        經(jīng)典混洗蛙跳算法首先對青蛙種群(共P個青蛙)依據(jù)適應(yīng)值的大小降序排列,再把P個青蛙分成m個子群,每個子群含有n個青蛙(P=m×n)。在每次迭代過程中,每個子群中的適應(yīng)值最優(yōu)的青蛙定義為Xb,最差的青蛙定義為Xw,整個種群的最優(yōu)青蛙定義為Xg,對最差青蛙按式(7)和式(8)進行更新:

        位移的偏移量:

        青蛙的新位置:

        式中,rand()代表[0,1]之間的隨機數(shù),尋優(yōu)步驟如下:

        (1)如果通過式(7)、式(8)能產(chǎn)生更優(yōu)解,則用其代替Xw;

        (2)如果第1步產(chǎn)生的解沒有得到改善,則用Xg替換Xb,繼續(xù)采用式(7)、式(8)產(chǎn)生新個體;

        (3)如果該新個體的適應(yīng)值優(yōu)于Xw,則替換,否則隨機生成一個新個體代替Xw青蛙。

        在求解高維復(fù)雜的優(yōu)化問題時,若當前最優(yōu)解是一個局部最優(yōu)解,那么利用這個局部最優(yōu)解來指導(dǎo)整個群體的學習,就容易陷入局部最優(yōu),較難達到所要的求解效果。這里提出一種基于灰狼優(yōu)化算法的混洗蛙跳改進算法(Shuffle Leapfrog Algorithm Based On Grey Wolf Optimiza?tion,SFLAGWO)。

        灰狼優(yōu)化算法的優(yōu)化原理取自于灰狼群體嚴格的等級機制和狩獵方式?;依侨后w的捕食行動由頭狼領(lǐng)導(dǎo),其它狼的任務(wù)是圍攻,包括追逐、包圍、騷擾和攻擊。這種高效捕殺獵物的過程使得它們可以抓獲更多獵物,具體實現(xiàn)方法如下:

        式中,t表示當前迭代次數(shù);A和C是系數(shù)向量;Xp是食物的位置向量;X是青蛙的位置向量。

        其中,a是隨著迭代次數(shù)從2線性遞減到0;r1和r2在[0,1]范圍內(nèi)隨機取值。

        本文借助這個原理對青蛙子群中的個體向Xg學習的方式,改進成同時向Xg和Xb學習的方式,因為它們是整個種群中的最佳解,所以在SFLAGWO中假設(shè)Xg和Xb對全局位置有很好的了解。

        2.2 基于張量積矩陣的廣義逆求解方法

        利用奇異值分解方法進行廣義逆的計算速度是最快的,被廣泛應(yīng)用到極限學習機的訓練中。但奇異值分解方法在大規(guī)模矩陣運算中需要大量的計算資源。文獻[12]提出一種MOORE-PENROSE逆矩陣的快速計算方法,原理如下:

        假設(shè){e1,…,en} 和{f1,…,fn} 是 ?k兩組線性無關(guān)正交向量的集合,對于每個x∈?k有如下映射:

        對于每一個n階算子T都能被寫成這種形式 :,那么T就被稱為向量組{e1,…,en} 和{f1,…,fn}的張量積,那么T的聯(lián)合算子T*表示如下:

        為了描述這種表示形式,選取{e1,…,en} 表示?k的標準基的前n個向量,假設(shè)fi具有如下形式:fi=(fi1,fi2,…,fik),i= 1,2,…,n那么,將fi作為列向量的矩陣T表示如下:

        將該矩陣T稱為給定向量集合的張量乘積矩陣。

        定理1假設(shè)H為希泊爾特空間,若T=是一個n階算子,那么它的廣義逆也是n階算子,對于每個x∈H都有以下定義:

        其中,函數(shù)λi是n·n線性系統(tǒng)的解。

        最后一個公式關(guān)系導(dǎo)致n·n線性系統(tǒng)如下所示:

        上述系統(tǒng)的行列式是線性獨立向量f1,…,fn的行列式,因此對于每個x∈H,它都有一個唯一解,其中未知數(shù)是函數(shù)λi,i=1,2,…,n。因此,為了確定張量乘積矩陣的廣義逆,必須計算其展開時對應(yīng)的λi:

        綜上所述,可以得出廣義逆T+的計算方法如下:先計算線性獨立向量的相應(yīng)格拉姆矩陣,然后求解定義的n·n線性系統(tǒng)。對于每個j=1,…,n,運 用的λi(ej)來確定給定張量乘積矩陣T的廣義逆。特別地,對于每個j=1,2,…,n,有λ1(ej),λ2(ej),…,λn(ej)作 為 相 應(yīng) 線性系統(tǒng)的解。因此,廣義逆T+具有以下形式:

        假設(shè)矩陣T是n階算子的矩陣表示形式,那么T就是一個k·k的矩陣,該矩陣前n列由k維空間上的線性無關(guān)向量組成?k,k<n,其它列均由零組成。

        2.3 極限過程學習機訓練算法流程

        (1)隨機生成初始解,每個解由一組輸入權(quán)重值、閾值和隱層節(jié)點數(shù)構(gòu)成,其中輸入權(quán)重值和閾值的范圍均在[-1,1]區(qū)間,隱層節(jié)點數(shù)在整數(shù)區(qū)間取值;

        (2)利用SFLAGWO算法對解空間的個體進行優(yōu)化,找到最優(yōu)的網(wǎng)絡(luò)結(jié)構(gòu)、網(wǎng)絡(luò)權(quán)值和閾值;

        (3)對于每一個解,利用2.2的方法求解極限過程學習機模型的廣義逆,將分類精度作為模型的評估標準;

        (4)當滿足所尋優(yōu)結(jié)果精度達到要求或是算法達到迭代次數(shù),則算法停止,輸出最優(yōu)網(wǎng)絡(luò)結(jié)構(gòu)和權(quán)值,否則執(zhí)行步驟(2)。

        3 仿真實驗

        3.1 改進混洗蛙跳算法性能對比

        將本文 SFLAGWO 算法與 SFLA、MSFLA[13]、MSFLA1[14]、ISFLA[15]和 MSFLA2[16]進行優(yōu)化性能對比。實驗環(huán)境為:Windows10操作系統(tǒng),Intel酷睿i7處理器,Matlab R2014a。針對6個函數(shù)極值求解問題,各算法的參數(shù)設(shè)置如下:SFLAG?WO、SFLA、MSFLA、MSFLA1、MSFLA2和ISFLA的種群個數(shù)均設(shè)置為P=100,分組個數(shù)為10,子群內(nèi)個體數(shù)為10。其中MSFLA的加速因子C值從1.0線性增加到2.5,MSFLA1的參數(shù)設(shè)置為2.1,ISFLA的參數(shù)C1=1.9,C2=1.8。每個算法分別計算20次取平均值。測試函數(shù)如表1所示,每種算法分別對6個函數(shù)的500維進行優(yōu)化對比,測試結(jié)果如圖2-圖7所示。

        從迭代對比曲線可知,本文所提的SFLAGWO的尋優(yōu)效果最好,即使在維數(shù)為500的時候,尋優(yōu)效果明顯優(yōu)于其他對比算法,并且對于f2和f5都找到了全局最優(yōu)解。而且在迭代30次以內(nèi)就能獲得理想的效果,這表明所提算法在高維函數(shù)優(yōu)化過程中尋優(yōu)速度和精度都較好,因此對于本文所提極限過程學習機的訓練具有很好的適用性。

        表1 優(yōu)化測試函數(shù)

        3.2 儲層微觀孔隙結(jié)構(gòu)類型識別

        儲層微觀孔隙結(jié)構(gòu)類型識別對比實驗選取自然電位、微梯度、微電位、2.5米電阻率、淺側(cè)向、深側(cè)向、自然伽馬和補償聲波八條測井曲線作為所提網(wǎng)絡(luò)模型的輸入,設(shè)定儲層微觀孔隙結(jié)構(gòu)類型為 1、2、3、4、5作為網(wǎng)絡(luò)輸出。采用350個測井數(shù)據(jù)樣本組成訓練樣本集,50個測井數(shù)據(jù)樣本組成測試樣本集,對比基于BP學習算法的 PNN(BP-PNN)、基于 SFLA、MSFLA、MSF?LA1、MSFLA2和ISFLA學習算法的EPLM和基于本文算法和張量積矩陣(Tensor-Product Matrix)的學習算法(SFLAGWO-TPM-EPLM)的識別效果。極限過程學習機結(jié)構(gòu)選擇為8-m-1,即8個輸入節(jié)點;隱層m個過程神經(jīng)元節(jié)點,1個非時變一般神經(jīng)元;其中隱層節(jié)點區(qū)間m=[16,64],算法優(yōu)化后的最優(yōu)隱層節(jié)點數(shù)為56;其他學習算法的網(wǎng)絡(luò)隱層節(jié)點數(shù)統(tǒng)一設(shè)置為64,基函數(shù)選擇Walsh函數(shù),當展開項數(shù)L=16時滿足擬合精度要求,誤差精度ε=0.5,每種學習算法運行20次,優(yōu)化對比結(jié)果(相關(guān)系數(shù)R、平均絕對誤差MAE、平均相對誤差MRE、均方根誤差RMSE、訓練時間Time)如表2所示。

        圖2 函數(shù)f1迭代對比曲線

        圖3 函數(shù)f2迭代對比曲線

        圖4 函數(shù)f3迭代對比曲線

        圖5 函數(shù)f4迭代對比曲線

        圖6 函數(shù)f5迭代對比曲線

        圖7 函數(shù)f6迭代對比曲線

        表2 七種算法訓練結(jié)果對比

        用七種算法訓練得到的網(wǎng)絡(luò)結(jié)構(gòu)對訓練樣本和測試樣本進行判別,對比結(jié)果如表3所示。

        從實驗結(jié)果可以看出:從訓練耗時和識別結(jié)果上來看,BP-PNN耗時最多,SFLAGWO-TPMEPLM最好,這是因為BP算法需要計算梯度信息,且由于梯度下降法的早熟等問題而無法穩(wěn)定的提供準確判別,SFLAGWO-TPM–EPLM最快,分析其原因是因為文中所提的SFLAGWO在向全局最優(yōu)解學習的過程中,也參照組內(nèi)最優(yōu)解,利用追逐、包圍、騷擾和攻擊的方式加速了算法尋優(yōu)性能,并且在高維函數(shù)尋優(yōu)過程中能用較少的迭代次數(shù)獲取理想的結(jié)果,同時采用新的廣義逆矩陣求解算法改善了極限學習訓練的速度和精度,二者的結(jié)合有效的強化了極限過程學習機的網(wǎng)絡(luò)結(jié)構(gòu)和權(quán)值。從而加強了模型對樣本數(shù)據(jù)的識別率。

        表3 判別結(jié)果對比

        4 結(jié)論

        本文建立一種具有過程式輸入的極限過程學習機,提出基于SFLAGWO算法優(yōu)化網(wǎng)絡(luò)隱層節(jié)點個數(shù)及網(wǎng)絡(luò)權(quán)值,并采用基于張量積矩陣的廣義逆求解方法加快模型運算的速度及精度,實驗結(jié)果表明無論是在高維函數(shù)優(yōu)化還是儲層微觀孔隙結(jié)構(gòu)類型識別的應(yīng)用上,本文所提的方法都取得很好的效果,也為具有過程式輸入的實際應(yīng)用提供了一種解決方法,具有一定的推廣價值。

        猜你喜歡
        優(yōu)化
        超限高層建筑結(jié)構(gòu)設(shè)計與優(yōu)化思考
        PEMFC流道的多目標優(yōu)化
        能源工程(2022年1期)2022-03-29 01:06:28
        民用建筑防煙排煙設(shè)計優(yōu)化探討
        關(guān)于優(yōu)化消防安全告知承諾的一些思考
        一道優(yōu)化題的幾何解法
        由“形”啟“數(shù)”優(yōu)化運算——以2021年解析幾何高考題為例
        圍繞“地、業(yè)、人”優(yōu)化產(chǎn)業(yè)扶貧
        事業(yè)單位中固定資產(chǎn)會計處理的優(yōu)化
        4K HDR性能大幅度優(yōu)化 JVC DLA-X8 18 BC
        幾種常見的負載均衡算法的優(yōu)化
        電子制作(2017年20期)2017-04-26 06:57:45
        看全色黄大色大片免费久久久| 天天做天天爱天天爽综合网| 丰满多毛少妇做爰视频| 国语憿情少妇无码av| 久久综合五月天啪网亚洲精品| 男女18禁啪啪无遮挡激烈网站 | 丰满少妇被猛男猛烈进入久久| 99热成人精品国产免| 国产午夜精品综合久久久| 亚洲精品日本久久久中文字幕| 蜜桃视频永久免费在线观看| 中国一级特黄真人片久久| 国产在线精品一区二区在线看| 美女裸体无遮挡免费视频的网站 | 日韩人妻无码一区二区三区久久| 人人妻人人爽人人做夜欢视频九色 | 日韩在线免费| 日本精品久久中文字幕| 痴汉电车中文字幕在线| 欧美极品jizzhd欧美| 亚洲中文字幕无码久久2018| 在线观看免费的黄片小视频| 男奸女永久免费视频网站 | 国产韩国一区二区三区| 亚洲综合网站久久久| 欧美色aⅴ欧美综合色| 日韩精品有码中文字幕在线| 日本人妖熟女另类二区| 又粗又大又硬毛片免费看| 久久精品亚洲乱码伦伦中文| 熟女白浆精品一区二区 | 国产大学生自拍三级视频| 寂寞人妻渴望被中出中文字幕| 日出水了特别黄的视频| 日韩在线观看网址| 亚洲国产精品成人av| 日本妇人成熟免费2020| 亚洲精品国产av成拍色拍| 国产又爽又黄又不遮挡视频| 国产女主播一区二区久久| 国产肥熟女视频一区二区三区|