亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于神經(jīng)網(wǎng)絡(luò)的鉆井液漏失裂縫寬度預(yù)測研究

        2023-09-27 05:16:36徐加放趙密福王博聞王亞華王瀟輝馬騰飛
        煤田地質(zhì)與勘探 2023年9期
        關(guān)鍵詞:模型

        王 健,徐加放,2,3,趙密福,王博聞,王亞華,陳 杰,王瀟輝,楊 剛,馬騰飛

        (1.中國石油大學(xué)(華東)石油工程學(xué)院,山東 青島 266580;2.油氣鉆完井技術(shù)國家工程研究中心,山東 青島 266580;3.非常規(guī)油氣開發(fā)教育部重點(diǎn)實(shí)驗(yàn)室,山東 青島 266580;4.中國石油化工股份有限公司東北分公司,吉林 長春 130000;5.中聯(lián)煤層氣有限責(zé)任公司,北京 100011)

        在鉆井過程中,由于壓差作用鉆井液往往通過裂縫滲透進(jìn)入地層造成鉆井液漏失,或者進(jìn)入儲層導(dǎo)致儲層污染,尤其是煤層氣儲層,裂縫層理發(fā)育,在鉆井時極易受到污染[1]。對于這一現(xiàn)象,通常的方法為在鉆井過程中根據(jù)鉆遇地層裂縫大小選擇相應(yīng)的封堵材料,對縫隙進(jìn)行封堵,從而降低鉆井液濾失[2],因此對漏失裂縫寬度進(jìn)行預(yù)測極為重要。

        目前傳統(tǒng)的測定儲層裂縫寬度的方法主要有測井識別、經(jīng)驗(yàn)法以及模型計算等。其中,測井識別是在鉆井過程中通過測井來獲取天然裂縫寬度的相關(guān)數(shù)據(jù)[3-4],但是其無法測得鉆進(jìn)過程中裂縫的變化且在井漏時操作較為困難。經(jīng)驗(yàn)法主要是根據(jù)以往的堵漏經(jīng)驗(yàn)來判斷儲層裂縫寬度,但是很難保證其成功率[5]。模型計算是通過建立相應(yīng)的漏失模型對裂縫寬度進(jìn)行計算,如以牛頓流體為研究對象建立的平均寬度Sanfillippo 模型[6]以及相應(yīng)的改進(jìn)模型[7-8]等,雖然數(shù)學(xué)模型計算發(fā)展較快,但是其運(yùn)用的公式較為復(fù)雜且需要的儲層參數(shù)不一,適應(yīng)范圍有限,現(xiàn)場應(yīng)用困難,需要一種較為簡單且適應(yīng)范圍廣的裂縫預(yù)測模型。

        隨著人工智能的發(fā)展,一些學(xué)者利用人工智能方法對儲層裂縫進(jìn)行預(yù)測[5-9]并取得了不錯的效果,但大多只利用了單一的預(yù)測模型或單一的優(yōu)化模型,沒有考慮對其進(jìn)行系統(tǒng)優(yōu)化以提升模型的預(yù)測精度,而隨著智能算法的發(fā)展,很多優(yōu)化算法和集成算法被應(yīng)用到人工智能預(yù)測當(dāng)中,使得模型的預(yù)測能力與精度大大提高[10-11]。

        鑒于此,筆者利用遺傳算法(GA)和Adaboost 算法對BP 神經(jīng)網(wǎng)絡(luò)(BPNN)進(jìn)行優(yōu)化以提高其預(yù)測性能,建立了Adaboost-GA-BP 神經(jīng)網(wǎng)絡(luò)裂縫寬度預(yù)測模型,對裂縫寬度進(jìn)行預(yù)測,為鉆井過程中鉆井液漏失的裂縫寬度判斷和堵漏劑的選擇提供一定的指導(dǎo)。

        1 Adaboost-GA-BP 神經(jīng)網(wǎng)絡(luò)預(yù)測模型

        1.1 BP 神經(jīng)網(wǎng)絡(luò)

        BP 神經(jīng)網(wǎng)絡(luò)是利用誤差反向傳播來進(jìn)行訓(xùn)練的多層前饋網(wǎng)絡(luò),應(yīng)用范圍十分廣泛,其網(wǎng)絡(luò)結(jié)構(gòu)由3 部分組成:輸入層、隱含層和輸出層。輸入?yún)?shù)從輸入層輸入,經(jīng)過隱含層的進(jìn)一步處理,最后由輸出層輸出預(yù)測結(jié)果。另外,單隱含層的BP 神經(jīng)網(wǎng)絡(luò)預(yù)測模型可以擬合逼近非線性函數(shù),達(dá)到很高的預(yù)測精度[12],因此本文采用單隱含層的BP 神經(jīng)網(wǎng)絡(luò)作為基礎(chǔ)的預(yù)測模型,其具體結(jié)構(gòu)如圖1 所示。

        圖1 神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)Fig.1 Neural network structure

        雖然BP 神經(jīng)網(wǎng)絡(luò)具有很高的預(yù)測能力,但是其在訓(xùn)練過程中初始權(quán)值和閾值是隨機(jī)選擇的,選擇不當(dāng)會使得模型陷入局部極小值而無法達(dá)到全局最優(yōu)[13],因此需要對其進(jìn)行優(yōu)化。

        1.2 遺傳優(yōu)化算法

        遺傳算法是模擬自然界中生物進(jìn)化的一種全局優(yōu)化方法,具有較好的全局尋優(yōu)能力[14],可對神經(jīng)網(wǎng)絡(luò)的權(quán)值和閾值進(jìn)行優(yōu)化,找到全局最優(yōu)解。因此,利用遺傳算法對BP 神經(jīng)網(wǎng)絡(luò)的權(quán)值和閾值進(jìn)行相應(yīng)的優(yōu)化,使預(yù)測精度進(jìn)一步地提升,其算法具體流程如圖2 所示,整體步驟如下[15-16]。

        圖2 遺傳算法優(yōu)化BPNN 流程Fig.2 Optimization process of BPNN by genetic algorithms

        (1)初始化設(shè)置。設(shè)定交叉和變異概率、最大迭代次數(shù)、種群規(guī)模等參數(shù)并初始化種群。

        (2)適應(yīng)度計算。計算每條染色體適應(yīng)度值并進(jìn)行排序,其適應(yīng)度計算公式[17]如下:

        式中:E為適應(yīng)度值;yi、di分別為第i個數(shù)據(jù)的實(shí)際值和預(yù)測值,N為訓(xùn)練樣本數(shù)。

        (3)選擇操作。依據(jù)個體的適應(yīng)度值大小對種群進(jìn)行選擇,淘汰適應(yīng)度差的個體。

        (4)交叉和變異操作。從步驟3獲取的個體中,以交叉和變異概率進(jìn)行交叉和變異操作,形成新的群體。

        (5)重新計算適應(yīng)度值。計算步驟4得到個體的適應(yīng)度值,同時將新產(chǎn)生的染色體帶入到原種群中,得到新種群。

        (6)終止條件判斷。計算個體的適應(yīng)度值是否滿足精度要求,若滿足則優(yōu)化完成,否則重復(fù)步驟2—步驟6 進(jìn)行循環(huán)計算,直到滿足精度要求或迭代次數(shù)達(dá)到最大設(shè)定值,則停止迭代。

        1.3 Adaboost 算法

        Adaboost 算法是一種迭代算法,屬于自適應(yīng)增強(qiáng)算法。其算法的思想是通過合并多個“弱”預(yù)測器的輸出,產(chǎn)生有效預(yù)測[18],其算法具體流程如圖3 所示,其主要步驟[19]如下。

        圖3 Adaboost 算法流程Fig.3 Adaboost algorithm flowchart

        (1)確定弱預(yù)測器的模型和相應(yīng)的數(shù)據(jù),并給每組訓(xùn)練數(shù)據(jù)一個初始權(quán)重。

        (2)利用訓(xùn)練數(shù)據(jù)對弱預(yù)測器進(jìn)行迭代計算,按照每次迭代的結(jié)果對訓(xùn)練數(shù)據(jù)的權(quán)重進(jìn)行更新,對于預(yù)測效果差的數(shù)據(jù)賦予更高的權(quán)重以使這些數(shù)據(jù)在下一次迭代運(yùn)算時得到更多關(guān)注。

        (3)通過對弱預(yù)測器的反復(fù)迭代計算出預(yù)測函數(shù)序列,每個預(yù)測函數(shù)都有相應(yīng)的權(quán)重,結(jié)果越好的預(yù)測函數(shù)對應(yīng)的權(quán)重越大。

        (4)經(jīng)過數(shù)次迭代后,通過弱預(yù)測函數(shù)的加權(quán)得到強(qiáng)預(yù)測器的函數(shù)。

        2 數(shù)據(jù)分析與處理

        選取合適的地層裂縫特征參數(shù)對于預(yù)測結(jié)果的準(zhǔn)確性至關(guān)重要。地層裂縫寬度與許多因素有著較為密切的關(guān)系,影響因素較為復(fù)雜。首先,漏失速度和漏失量與地層裂縫寬度有著直接的關(guān)系,鉆井液的漏失速率隨裂縫寬度的增加而增加[20],單位時間內(nèi)的漏失量也隨之增加。另外,鉆井液密度高,靜切力以及塑性黏度大,會使得鉆井液中的網(wǎng)架結(jié)構(gòu)遭到破壞,有效液柱壓力與地層之間產(chǎn)生壓差,會造成井筒周圍的裂縫發(fā)生變化[21]。O.Lietard 等建立的Lietard 模型總結(jié)出了塑性黏度,鉆井液漏失速度以及裂縫寬度之間的關(guān)系[22]。泵壓的變化也會對井底壓力產(chǎn)生影響,進(jìn)而使得裂縫寬度發(fā)生變化,而隨著井深的增加,地層壓實(shí)作用越大,裂縫寬度越小。鉆速過快會使得井底產(chǎn)生壓力波動,使得井筒周圍的裂縫產(chǎn)生擴(kuò)展。通過查閱相關(guān)資料[23],收集選取了91 組鉆井過程中與地層裂縫寬度有關(guān)的井史資料,包括漏失量、井深、塑性黏度、鉆井液靜切力、泵壓、漏失速度、鉆速、排量共8 個參數(shù)。為了探究上述因素對裂縫寬度的影響程度,找出其中的主要影響因素,利用斯皮爾曼相關(guān)性分析方法對所有參數(shù)之間的相關(guān)性進(jìn)行了計算分析,結(jié)果如圖4 所示。

        圖4 裂縫影響因素相關(guān)系數(shù)矩陣Fig.4 Correlation coefficient matrix of influencing factors of cracks

        由圖可知,與裂縫寬度相關(guān)性最強(qiáng)的是漏失速度與漏失量,分別為0.932 和0.924,其他因素與裂縫寬度的相關(guān)性相比較弱,從高到低依次為:泵壓、鉆井液排量、鉆速、井深、塑性黏度以及鉆井液靜切力。其中,鉆速、漏失速度和漏失量以及鉆井液靜切力呈正相關(guān),井深、塑性黏度和泵壓和鉆井液排量呈負(fù)相關(guān),由于鉆井液靜切力與裂縫寬度相關(guān)性較低,僅為0.087,因此模型輸入?yún)?shù)不考慮這一因素,選取其他7 種因素作為輸入?yún)?shù),其數(shù)據(jù)特征見表1。

        表1 參數(shù)的數(shù)據(jù)集特征Table 1 Data set characteristics of parameters

        由表1 可知,各個參數(shù)跨度較大,如井深范圍為229~3 750 m,涵蓋了不同的地層,其他參數(shù)如鉆速和漏失量等跨度范圍也都比較大,可使得訓(xùn)練出的模型適應(yīng)不同的情況。把數(shù)據(jù)分成訓(xùn)練數(shù)據(jù)和測試數(shù)據(jù),64 組數(shù)據(jù)作為訓(xùn)練數(shù)據(jù)對模型進(jìn)行訓(xùn)練,剩余27 組數(shù)據(jù)作為預(yù)測數(shù)據(jù),不參與模型的建立及訓(xùn)練,只用于對建立好的模型進(jìn)行測試,評價其預(yù)測效果。另外,由于各個參數(shù)的單位不同,其數(shù)量級差別較大,如井深與塑性黏度等,這會影響預(yù)測模型的預(yù)測效果。對此,為消除不同參數(shù)之間數(shù)量級差別大的影響,本文對數(shù)據(jù)進(jìn)行歸一化處理[24-25],使得各參數(shù)在區(qū)間[0,1]內(nèi),其歸一化公式如下:

        選擇了兩種用于評價模型預(yù)測效果的指標(biāo),分別為相關(guān)系數(shù)(R2)和均方根誤差(ERMS),其計算公式[26]如下:

        式中:yi為實(shí)際值;為對應(yīng)的預(yù)測值;n為樣本個數(shù)。

        3 神經(jīng)網(wǎng)絡(luò)改進(jìn)與參數(shù)選擇

        在本研究中,附加動量算法和變學(xué)習(xí)率算法被用來提高模型的訓(xùn)練效率。此外,神經(jīng)網(wǎng)絡(luò)模型的準(zhǔn)確性受到傳遞函數(shù)和隱含層節(jié)點(diǎn)數(shù)的影響,因此,本文對隱含層節(jié)點(diǎn)和傳遞函數(shù)進(jìn)行了選擇分析以確定最優(yōu)的模型結(jié)構(gòu),為后續(xù)優(yōu)化研究打下基礎(chǔ)。

        3.1 附加動量算法和變學(xué)習(xí)率算法

        傳統(tǒng)的BP 神經(jīng)網(wǎng)絡(luò)預(yù)測模型采用如下式所示的梯度校正方法來更新權(quán)重和閾值,該算法沒有考慮先前經(jīng)驗(yàn)的積累,導(dǎo)致學(xué)習(xí)過程收斂速度較慢。本文采用如下式(6)所示的附加動量算法增加了以往經(jīng)驗(yàn)的積累,有效地調(diào)整了權(quán)重和閾值,加快了收斂速度。

        式中:w(δ)、w(δ-1)、w(δ-2)分別為δ、δ-1、δ-2時刻的權(quán)重值;α為動量學(xué)習(xí)率。

        此外,學(xué)習(xí)率對預(yù)測模型的收斂性也有一定的影響。在神經(jīng)網(wǎng)絡(luò)訓(xùn)練過程中,學(xué)習(xí)率通常是一個固定值,學(xué)習(xí)率越大,權(quán)值的修改就越大,網(wǎng)絡(luò)學(xué)習(xí)速度就越快。然而,過大的學(xué)習(xí)率會使權(quán)重在學(xué)習(xí)過程中產(chǎn)生振動,但過小的學(xué)習(xí)率使得網(wǎng)絡(luò)收斂速度慢,無法快速擬合[27]。對于這一問題,本文采用如下式所示的變學(xué)習(xí)率算法對學(xué)習(xí)率進(jìn)行實(shí)時調(diào)整。在網(wǎng)絡(luò)進(jìn)化的早期階段,學(xué)習(xí)率較大,網(wǎng)絡(luò)收斂較為迅速,隨著迭代步數(shù)的增加,學(xué)習(xí)率不斷下降,網(wǎng)絡(luò)逐漸穩(wěn)定。

        式中:λ(t)為當(dāng)前學(xué)習(xí)率;λmax為最大學(xué)習(xí)率;λmin為最小學(xué)習(xí)率;tmax為最大迭代次數(shù);t為當(dāng)前迭代次數(shù)。

        附加動量算法和變學(xué)習(xí)率算法可以顯著加快訓(xùn)練過程的學(xué)習(xí)速度,為了證明該方法的有效性,本文對訓(xùn)練過程中的訓(xùn)練數(shù)據(jù)的絕對誤差和的變化進(jìn)行了比較分析,結(jié)果如圖5 所示。

        圖5 訓(xùn)練過程中誤差變化的比較Fig.5 Comparison of error changes during training

        圖5 中的曲線表示訓(xùn)練過程中隨著迭代次數(shù)的增加,訓(xùn)練數(shù)據(jù)絕對誤差的變化情況,誤差越低說明其下降速度越快,訓(xùn)練效果越好。從圖5 可以看出,添加了附加動量算法和變學(xué)習(xí)率算法后誤差顯著下降,降低值在25%左右,訓(xùn)練結(jié)束時誤差降低了27%,表明附加動量算法及變學(xué)習(xí)率算法可以大大提高學(xué)習(xí)效率,加快收斂速度,提高模型性能。

        3.2 神經(jīng)網(wǎng)絡(luò)隱含層節(jié)點(diǎn)數(shù)選擇

        神經(jīng)網(wǎng)絡(luò)隱含層的節(jié)點(diǎn)數(shù)對預(yù)測模型的性能有較大的影響,節(jié)點(diǎn)過少會造成模型魯棒性較低,無法完全反映輸入與輸出參數(shù)間的關(guān)系,而節(jié)點(diǎn)過多會造成過擬合和訓(xùn)練時間的增加。對此,本文使用下式所示的經(jīng)驗(yàn)公式[28-29]對隱含層節(jié)點(diǎn)數(shù)進(jìn)行選擇。

        式中:k是隱含層的節(jié)點(diǎn)數(shù);ω和m分別為輸入和輸出層的節(jié)點(diǎn)數(shù);β為介于1 和10 之間的整數(shù)。

        通過計算可知,隱含層最佳節(jié)點(diǎn)數(shù)在區(qū)間[3,13]內(nèi),通過減枝法,對每個隱含層節(jié)點(diǎn)數(shù)對應(yīng)的模型進(jìn)行測試,其誤差和相關(guān)系數(shù)如圖6 所示。

        圖6 不同隱含層節(jié)點(diǎn)數(shù)的誤差及相關(guān)系數(shù)Fig.6 RMSE (ERMS)and correlation coefficient (R2)of different numbers of hidden layer nodes

        由圖可知,當(dāng)隱含層節(jié)點(diǎn)數(shù)為9 時,誤差最小,相關(guān)系數(shù)最大,預(yù)測效果最好,因此,本模型隱含層節(jié)點(diǎn)數(shù)設(shè)置為9。

        3.3 神經(jīng)網(wǎng)絡(luò)隱含層傳遞函數(shù)選擇

        隱含層的傳遞函數(shù)同樣對模型的預(yù)測性能有較大的影響[30]。采用3 種傳遞函數(shù)(Purelin、Tansig 和Logsig),建立相對應(yīng)的神經(jīng)網(wǎng)絡(luò)預(yù)測模型進(jìn)行測試,并計算了R2和ERMS,其結(jié)果見表2。

        表2 不同傳遞函數(shù)預(yù)測結(jié)果Table 2 Prediction results of different transfer functions

        由表2 可知,當(dāng)隱含層傳遞函數(shù)為“Tansig”時,模型整體預(yù)測效果最好。另外,本文將Adaboost 算法中的弱學(xué)習(xí)器設(shè)置為10 個,遺傳算法個體數(shù)目和最大遺傳代數(shù)分別設(shè)置為20 和50,交叉概率和變異概率分別為0.7 和0.01。

        4 模型結(jié)果及對比分析

        4.1 模型預(yù)測結(jié)果

        利用相應(yīng)的數(shù)據(jù)對預(yù)測模型進(jìn)行訓(xùn)練和測試,其結(jié)果如圖7 所示。由圖可知,無論是訓(xùn)練結(jié)果還是測試結(jié)果,大部分?jǐn)?shù)據(jù)的預(yù)測值接近實(shí)際值,說明預(yù)測效果較好,可以對儲層裂縫進(jìn)行較為精準(zhǔn)地預(yù)測。另外,由于神經(jīng)網(wǎng)絡(luò)模型的權(quán)值和閾值是隨機(jī)取值,然后由訓(xùn)練數(shù)據(jù)進(jìn)行訓(xùn)練調(diào)整,因此極易產(chǎn)生過擬合現(xiàn)象,造成訓(xùn)練集的誤差小而測試集的誤差大,而Adaboost-GA-BP 預(yù)測模型的訓(xùn)練集和測試集的預(yù)測結(jié)果大體相同,說明神經(jīng)網(wǎng)絡(luò)預(yù)測模型經(jīng)過優(yōu)化后沒有陷入過擬合現(xiàn)象,具有較高的泛化能力,適應(yīng)性強(qiáng)。

        圖7 Adaboost-GA-BP 預(yù)測模型結(jié)果Fig.7 Prediction results of Adaboost-GA-BP prediction model

        4.2 不同預(yù)測模型的對比分析

        為了驗(yàn)證Adaboost-GA-BP 神經(jīng)網(wǎng)絡(luò)預(yù)測模型的預(yù)測效果,建立了其他4 種預(yù)測模型并利用相同的數(shù)據(jù)進(jìn)行訓(xùn)練和預(yù)測進(jìn)行對比分析,計算了預(yù)測結(jié)果的誤差和相關(guān)系數(shù)(圖8、表3)。

        表3 不同預(yù)測模型的預(yù)測誤差及相關(guān)系數(shù)Table 3 Prediction error and correlation coefficient of different prediction models

        圖8 不同預(yù)測模型的預(yù)測結(jié)果Fig.8 Prediction results of different prediction models

        由圖及表可知,與神經(jīng)網(wǎng)絡(luò)預(yù)測模型相比,極限學(xué)習(xí)機(jī)和隨機(jī)森林預(yù)測結(jié)果誤差較大,其中極限學(xué)習(xí)機(jī)預(yù)測誤差最大。與BP 和GA-BP 神經(jīng)網(wǎng)絡(luò)預(yù)測模型相比,Adaboost-GA-BP 預(yù)測模型的預(yù)測結(jié)果誤差最小,最接近實(shí)際值,表明Adaboost-GA-BP 模型具有最高的預(yù)測精度。這些模型的預(yù)測精度從低到高依次為:極限學(xué)習(xí)機(jī),隨機(jī)森林,BP 神經(jīng)網(wǎng)絡(luò),GA-BP 神經(jīng)網(wǎng)絡(luò),Adaboost-GA-BP 神經(jīng)網(wǎng)絡(luò)。在構(gòu)建Adaboost-GABP 模型的過程中,遺傳算法可以優(yōu)化BP 神經(jīng)網(wǎng)絡(luò)的權(quán)值和閾值,從而提高BP 神經(jīng)網(wǎng)絡(luò)的預(yù)測精度。Adaboost 算法可以根據(jù)訓(xùn)練樣本的訓(xùn)練誤差及時調(diào)整訓(xùn)練樣本的權(quán)重,使預(yù)測精度高的弱預(yù)測器的權(quán)重變得更高,使得預(yù)測模型的預(yù)測精度和泛化能力都得到了很大的提高[31]。

        5 結(jié)論

        a.針對儲層裂縫寬度的預(yù)測問題,建立了Adaboost-GA-BP 預(yù)測模型,并利用現(xiàn)場實(shí)際數(shù)據(jù)對其進(jìn)行了訓(xùn)練和測試。結(jié)果表明,建立的Adaboost-GA-BP 預(yù)測模型的均方根誤差為18%,相關(guān)系數(shù)為0.98,優(yōu)于其他模型,可對儲層裂縫寬度進(jìn)行更為精準(zhǔn)的預(yù)測,為堵漏方案的制定提供一定的指導(dǎo)。

        b.通過相關(guān)性分析,對儲層裂縫寬度的相關(guān)因素進(jìn)行了計算分析和排序,并篩選了模型輸入?yún)?shù)。另外,利用附加動量算法和變學(xué)習(xí)率算法對模型收斂速度進(jìn)行了提升,使其訓(xùn)練數(shù)據(jù)絕對誤差和降低了27%,同時優(yōu)選了模型結(jié)構(gòu)。最后,通過Adaboost 算法和GA算法對BP 神經(jīng)網(wǎng)絡(luò)進(jìn)行優(yōu)化,克服了其收斂速度慢、易陷入局部極小值的缺點(diǎn),提升了模型的預(yù)測性能。

        c.由于數(shù)據(jù)量有限,本研究建立的預(yù)測模型僅針對某一區(qū)塊進(jìn)行了驗(yàn)證,未來將收集更多區(qū)塊數(shù)據(jù)對模型進(jìn)行訓(xùn)練及驗(yàn)證,提升其適應(yīng)能力。

        猜你喜歡
        模型
        一半模型
        一種去中心化的域名服務(wù)本地化模型
        適用于BDS-3 PPP的隨機(jī)模型
        提煉模型 突破難點(diǎn)
        函數(shù)模型及應(yīng)用
        p150Glued在帕金森病模型中的表達(dá)及分布
        函數(shù)模型及應(yīng)用
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權(quán)M-估計的漸近分布
        3D打印中的模型分割與打包
        丰满人妻中文字幕一区三区| 丝袜美腿网站一区二区| 抖射在线免费观看视频网站| 中文字幕乱码亚洲在线| 四虎国产精品永久在线| 欧美巨大xxxx做受l| 69av视频在线| 美女被强吻并脱下胸罩内裤视频| 国产成人无码一区二区三区| 四川老熟女下面又黑又肥 | 国产女人高潮叫床免费视频| 亚洲综合色一区二区三区小说| 激情五月天俺也去综合网| 亚洲av成熟国产一区二区| 日产亚洲一区二区三区| 国产主播福利一区二区| 日本道免费一区日韩精品| 少妇被粗大进猛进出处故事| 中文字幕av免费专区| 国产成人一区二区三中文| 国语自产啪在线观看对白| 久久久精品午夜免费不卡| 朝鲜女子内射杂交bbw| 亚洲加勒比无码一区二区在线播放| 日本一区二区高清精品| 精品亚洲成a人无码成a在线观看| 亚洲成aⅴ人在线观看 | 国产一区二区在线免费视频观看| 日本真人做爰免费视频120秒| 18禁美女裸体网站无遮挡| 日本一级淫片免费啪啪| 99e99精选视频在线观看| 亚洲小说区图片区另类春色| 精品少妇人妻成人一区二区| 中文字幕亚洲五月综合婷久狠狠 | 李白姓白白又白类似的套路 | 人妻被黑人粗大的猛烈进出 | 婷婷丁香社区| 亚洲av乱码一区二区三区女同| 亚洲国产色一区二区三区| a级毛片无码免费真人|