亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于穩(wěn)定Hammerstein模型的在線軟測(cè)量建模方法及應(yīng)用

        2015-08-20 07:31:30叢秋梅苑明哲王宏
        化工學(xué)報(bào) 2015年4期
        關(guān)鍵詞:權(quán)值增益向量

        叢秋梅,苑明哲,王宏,4

        (1 遼寧石油化工大學(xué)信息與控制工程學(xué)院,遼寧 撫順 113001;2 中國(guó)科學(xué)院沈陽(yáng)自動(dòng)化研究所信息服務(wù)與智能控制技術(shù) 研究室,遼寧 沈陽(yáng) 110016;3 中國(guó)科學(xué)院院重點(diǎn)實(shí)驗(yàn)室網(wǎng)絡(luò)化控制系統(tǒng)重點(diǎn)實(shí)驗(yàn)室,遼寧 沈陽(yáng) 110016;4 沈陽(yáng)中科博微自動(dòng)化有限公司,遼寧 沈陽(yáng) 110179)

        引 言

        復(fù)雜工業(yè)過(guò)程尤其是化工過(guò)程的部分關(guān)鍵過(guò)程變量在線不可測(cè)或測(cè)量滯后非常大,嚴(yán)重限制了簡(jiǎn)單、有效控制器的應(yīng)用,使閉環(huán)控制難以實(shí)現(xiàn),尤其是當(dāng)進(jìn)料特性、外界環(huán)境等生產(chǎn)邊界條件發(fā)生變化時(shí),僅僅依靠人的經(jīng)驗(yàn)及傳統(tǒng)技術(shù)難以滿足越來(lái)越高的運(yùn)行目標(biāo)要求[1]。同時(shí),由于存在未建模動(dòng)態(tài)和不確定干擾,采用常規(guī)的神經(jīng)網(wǎng)絡(luò)、模糊模型等建模方法易出現(xiàn)不穩(wěn)定的情況,且實(shí)時(shí)性能較差[2],因此導(dǎo)致過(guò)程的關(guān)鍵變量軟測(cè)量精度下降[3-5]。Hammerstein 模型(簡(jiǎn)稱H 模型)是化工過(guò)程的常用模型之一,由無(wú)記憶非線性增益和有記憶線性系統(tǒng)串聯(lián)構(gòu)成,線性子系統(tǒng)描述對(duì)象動(dòng)態(tài)特性,非線性增益用于校正線性系統(tǒng)模型[6]。文獻(xiàn)[7-8]以多項(xiàng)式描述H 模型非線性增益,僅能代表弱非線性過(guò)程,對(duì)于具有中等或強(qiáng)非線性的過(guò)程,精度和適用性將有所下降。文獻(xiàn)[9]采用基函數(shù)的線性組合作為H 模型的非線性環(huán)節(jié),這種方法對(duì)于多變量的非線性函數(shù),需要大量的參數(shù)和很高的階次,不利于在線辨識(shí)。文獻(xiàn)[10]對(duì)H 模型的非線性環(huán)節(jié)和線性環(huán)節(jié)的參數(shù)辨識(shí)方法分別進(jìn)行了總結(jié),認(rèn)為以神經(jīng)網(wǎng)絡(luò)、模糊系統(tǒng)、神經(jīng)模糊系統(tǒng)、支持向量機(jī)等基于數(shù)據(jù)的非線性環(huán)節(jié)來(lái)進(jìn)行辨識(shí),是目前的研究熱點(diǎn)。文獻(xiàn)[11]采用模糊神經(jīng)系統(tǒng)建立Hammerstein-Wiener模型的非線性增益部分模型,適用于非線性環(huán)節(jié)難以參數(shù)化的情況,為H模型的辨識(shí)提供了借鑒作用。此外,H 模型的非線性環(huán)節(jié)模型應(yīng)具有良好的非線性擬合能力和自適應(yīng)能力。文獻(xiàn)[12-13]指出當(dāng)神經(jīng)網(wǎng)絡(luò)隱含層節(jié)點(diǎn)數(shù)足夠多時(shí),將以任意精度逼近非線性系統(tǒng),但不能保證非線性動(dòng)態(tài)系統(tǒng)建模誤差的穩(wěn)定性。文獻(xiàn)[14]指出與固定學(xué)習(xí)速率的梯度下降法相比,時(shí)變學(xué)習(xí)率具有更快的收斂性,可以保證誤差的穩(wěn)定性和自適應(yīng)能力。本研究采用帶有時(shí)變穩(wěn)定學(xué)習(xí)算法的小波神經(jīng)網(wǎng)絡(luò)作為H模型的非線性增益,采用基于遞推最小二乘的ARX 模型作為線性系統(tǒng)部分,其中小波神經(jīng)網(wǎng)絡(luò)使H 模型具有表征強(qiáng)非線性的能力;與固定學(xué)習(xí)速率的梯度下降法相比,基于文獻(xiàn)[15]的ISS(輸入到狀態(tài)穩(wěn)定性,input-to-state stability)-Lyapunov 函數(shù)推導(dǎo)得出的穩(wěn)定時(shí)變學(xué)習(xí)算法具有更快的收斂性,可以保證誤差的穩(wěn)定性和模型的自適應(yīng)能力;以非線性系統(tǒng)和實(shí)際污水處理過(guò)程為例進(jìn)行了仿真實(shí)驗(yàn),并對(duì)實(shí)驗(yàn)結(jié)果進(jìn)行了分析。

        1 基于穩(wěn)定H模型的在線軟測(cè)量模型結(jié)構(gòu)

        以無(wú)記憶非線性增益部分和有記憶線性部分進(jìn)行內(nèi)聯(lián)的H模型是以非機(jī)理形式表征非線性系統(tǒng)的有效模型,其結(jié)構(gòu)簡(jiǎn)單又能有效地描述弱非線性動(dòng)態(tài)特性,已經(jīng)逐漸成為建立非線性系統(tǒng)模型的重要方法之一。許多非線性系統(tǒng)都可以用H 模型來(lái)實(shí)現(xiàn)系統(tǒng)的模型化[16],普遍用于建立如蒸餾塔和熱交換系統(tǒng)、聚合反應(yīng)器、pH 中和、艦艇推動(dòng)器、大規(guī)模模擬電路宏模塊結(jié)構(gòu)和發(fā)動(dòng)機(jī)振動(dòng)系統(tǒng)等過(guò)程的模型,H 模型非線性增益部分的辨識(shí)無(wú)需系統(tǒng)的歷史輸入、輸出信息,具有較易辨識(shí)、計(jì)算量少的特點(diǎn)[16]。文獻(xiàn)[17]采用神經(jīng)動(dòng)力學(xué)來(lái)辨識(shí)H 模型的參數(shù),H 模型用于建立實(shí)際過(guò)程模型與機(jī)理模型之間的偏差模型,所提方法雖可實(shí)現(xiàn)在線校正,但校正算法計(jì)算復(fù)雜,運(yùn)算成本高。

        本研究采用具有良好非線性擬合能力的小波神經(jīng)網(wǎng)絡(luò)來(lái)表示H 模型的非線性增益?;贖 模型的軟測(cè)量模型結(jié)構(gòu)如圖1所示。圖中,x1表示過(guò)程輸入變量,x2表示過(guò)程中間變量,y表示難以在線檢測(cè)的過(guò)程輸出變量,表示輸出變量的軟測(cè)量值,e表示基于H 模型的軟測(cè)量誤差。

        圖1 軟測(cè)量模型結(jié)構(gòu)Fig.1 Structure of soft sensor

        自適應(yīng)學(xué)習(xí)算法由兩部分組成:H 模型非線性增益部分小波神經(jīng)網(wǎng)絡(luò)的穩(wěn)定學(xué)習(xí)算法;動(dòng)態(tài)線性系統(tǒng)部分ARX 模型的遞推最小二乘算法。

        2 帶有穩(wěn)定學(xué)習(xí)算法的H 模型

        2.1 H 模型結(jié)構(gòu)

        H 模型結(jié)構(gòu)如圖2所示。

        小波神經(jīng)網(wǎng)絡(luò)一般采用單隱層結(jié)構(gòu),但并不影響其逼近能力[18],因此非線性增益部分的小波神經(jīng)網(wǎng)絡(luò)模型可寫為

        圖2 H 模型結(jié)構(gòu)Fig.2 Structure of H model

        ARX 模型的輸出可寫為

        將式(1)代入式(2),可寫為

        其中,x(k) ∈RI表示H 模型的輸入向量,x(k)=[x1(k),x2(k)];表示非線性增益部分小波神經(jīng)網(wǎng)絡(luò)的輸出;表示H 模型輸出,即過(guò)程不可測(cè)輸出變量的軟測(cè)量值;ai(k)(i=1,2,…,na)和bj(k)(j=0,1,… ,nb)表示ARX 模型參數(shù),na和nb表示模型階次;φ=[φi]∈RH表示小波神經(jīng)網(wǎng)絡(luò)隱含層節(jié)點(diǎn)的激勵(lì)函數(shù)向量,表示小波母函數(shù),其中S=[si(k)]∈RH,si(k)表示第i個(gè)隱含層節(jié)點(diǎn)小波基函數(shù)的伸縮參數(shù);D=[di(k)]∈RH,di(k)表示第i個(gè)隱含層節(jié)點(diǎn)小波基函數(shù)的平移參數(shù);V(k)=[vij(k)]∈RH×I表示隱含層權(quán)值矩陣,W(k)=[wi(k)]∈R1×H表示輸出層權(quán)值向量;H表示隱含層節(jié)點(diǎn)個(gè)數(shù),I表示輸入層節(jié)點(diǎn)個(gè)數(shù),i=1,2,… ,H;j=1,2,… ,I。

        2.2 H 模型的自適應(yīng)學(xué)習(xí)算法

        2.2.1 小波神經(jīng)網(wǎng)絡(luò)的穩(wěn)定學(xué)習(xí)算法 文獻(xiàn)[19]指出若實(shí)現(xiàn)化工過(guò)程實(shí)時(shí)在線優(yōu)化,必須研究被控變量的在線建模方法。本文提出的穩(wěn)定學(xué)習(xí)算法是一類在線建模方法。

        定理1 為消除過(guò)程的有界未建模動(dòng)態(tài)和不確定干擾對(duì)軟測(cè)量精度的影響,H 模型非線性增益部分的小波神經(jīng)網(wǎng)絡(luò)參數(shù)采用如下的穩(wěn)定時(shí)變學(xué)習(xí)算法時(shí)

        其中,穩(wěn)定學(xué)習(xí)率η(k) 為

        其中

        則可保證H 模型的平均建模誤差指標(biāo)有界,并滿足

        證明:采用梯度下降算法學(xué)習(xí)H 模型中的小波神經(jīng)網(wǎng)絡(luò)參數(shù)V(k)、W(k)、si(k)、di(k)。定義誤差性能指標(biāo)E為

        為了最小化誤差性能指標(biāo)E,根據(jù)誤差反傳算法的鏈?zhǔn)揭?guī)則,小波神經(jīng)網(wǎng)絡(luò)權(quán)值和小波尺度參數(shù)在E的負(fù)梯度下降方向進(jìn)行訓(xùn)練,各參數(shù)的修正量為

        其中,η(k)表示小波神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)率;en(k)表示小波神經(jīng)網(wǎng)絡(luò)的建模誤差,定義為en(k)=-u(k);u?(k)表示小波神經(jīng)網(wǎng)絡(luò)的輸出;u(k)表示小波神經(jīng)網(wǎng)絡(luò)的假定理想輸出,由于u(k)無(wú)法精確測(cè)量,因此en(k)是虛擬誤差指標(biāo),i=1,2,… ,H;j=1,2,… ,I。

        en(k)與e(k)之間的關(guān)系式可由下列鏈?zhǔn)揭?guī)則推導(dǎo)

        當(dāng)直接以 en(k) 校正模型參數(shù)時(shí),式(15)成立

        根據(jù)式(14)和式(15),可得 e(k) 和 en(k) 之間具有如下關(guān)系

        將式(16)代入式(10)~式(13),即可得參數(shù)V、W、si和di的在線更新算法式(4)~式(7)。

        使用Taylor 級(jí)數(shù)展開(kāi)分析建模誤差 e(k) 的動(dòng)態(tài)。以具有兩個(gè)獨(dú)立變量的光滑函數(shù)f為例,在平衡點(diǎn)附近的Taylor 級(jí)數(shù)具有如下形式

        其中,εt為Taylor 級(jí)數(shù)的高階項(xiàng)。

        基于H 模型的軟測(cè)量模型輸出可寫為

        其中,W*和V*、S*和D*分別表示使辨識(shí)誤差 μ(k) 最小時(shí)小波神經(jīng)網(wǎng)絡(luò)的最優(yōu)權(quán)值矩陣和最優(yōu)小波參數(shù)向量,分別表示為

        建模誤差 e(k) 可寫為

        其中,δ(k)表示過(guò)程的未建模動(dòng)態(tài),δ(k)=μ(k) +ε(k),ε(k)為Taylor 級(jí)數(shù)高階項(xiàng),μ(k)表示小波神經(jīng)網(wǎng)絡(luò)的辨識(shí)誤差。

        因此小波神經(jīng)網(wǎng)絡(luò)的虛擬建模誤差en(k)可寫為

        式(20)寫成矩陣形式為

        其中,

        定義一個(gè)正定函數(shù)L為

        由式(4)~式(7)和式(20)可得

        其中,

        因?yàn)?/p>

        證畢。

        2.2.2 ARX 模型參數(shù)的RLS 算法 定義ARX 模型參數(shù)向量θ和數(shù)據(jù)向量φ為

        ARX 模型的階次an和bn采用赤池信息量準(zhǔn)則(akaike information criterion,AIC)確定。

        參數(shù)向量θ采用帶有遺忘因子的遞推最小二乘法進(jìn)行辨識(shí),辨識(shí)算法為

        其中,遺忘因子=0.9。

        當(dāng)H模型的非線性增益和線性系統(tǒng)分別采用式(4)~式(7)和式(27)~式(29)所示的自適應(yīng)學(xué)習(xí)算法,可以保證基于H 模型的軟測(cè)量方法在過(guò)程存在未建模動(dòng)態(tài)和不確定干擾的情況下,軟測(cè)量模型的誤差是有界的。

        2.2.3 建模算法小結(jié) 基于穩(wěn)定H模型的在線軟測(cè)量建模算法的步驟可總結(jié)如下:

        (1)在[0,1]上隨機(jī)選擇小波神經(jīng)網(wǎng)絡(luò)的初始參數(shù)向量W0、V0、S0、D0;

        (2)利用訓(xùn)練數(shù)據(jù)集,根據(jù)式(4)~式(7)學(xué)習(xí)H 模型中小波神經(jīng)網(wǎng)絡(luò)的權(quán)值W、V和小波尺度參數(shù)S、D;再根據(jù)式(27)~式(29)學(xué)習(xí)ARX 模型參數(shù)θ,作為H 模型的初始模型參數(shù);

        (3)采集新數(shù)據(jù)樣本,由式(4)~式(7)在線學(xué)習(xí)H 模型中的小波神經(jīng)網(wǎng)絡(luò)的權(quán)值矩陣 (1)k+W、V(k+1)和小波尺度參數(shù)S(k+1)、D(k+1),以式(27)~式(29)在線學(xué)習(xí)ARX 模型參數(shù)θ(k+1);

        (4)由式(3)計(jì)算H 模型的輸出,返回步驟(3),重復(fù)上述步驟計(jì)算下一時(shí)刻H 模型的輸出值。

        3 仿真實(shí)驗(yàn)及結(jié)果分析

        3.1 非線性系統(tǒng)

        以Narendra 等[21]提出的如下非線性系統(tǒng)為例

        式中,x1(k) 與x2(k) 為系統(tǒng)狀態(tài);k(y)、u(k)和 ε(k) 分別為系統(tǒng)的輸出、輸入和白噪聲。仿真建模的目的是通過(guò)輸入、狀態(tài)信息來(lái)估計(jì)系統(tǒng)當(dāng)前輸出 y(k)。選擇輸入信息向量為

        以u(píng)(k) ∈[ -2 .5,2.5]的隨機(jī)信號(hào)與ε(k)∈N(0,0.1)的白噪聲作用于非線性系統(tǒng),構(gòu)成5000組時(shí)間序列訓(xùn)練樣本。以測(cè)試信號(hào)

        作用于系統(tǒng),產(chǎn)生200 組測(cè)試樣本,來(lái)檢驗(yàn)本文的算法。

        根據(jù)輸入信息向量,小波神經(jīng)網(wǎng)絡(luò)的輸入層節(jié)點(diǎn)個(gè)數(shù)選為I=4,隱含層節(jié)點(diǎn)個(gè)數(shù)為H=10;ARX模型的階次na=nb=2;初始學(xué)習(xí)率η0=0.9。

        將本研究算法與采用不帶有穩(wěn)定學(xué)習(xí)算法的小波神經(jīng)網(wǎng)絡(luò)作為非線性增益的H 模型進(jìn)行比較,仿真結(jié)果如圖3所示。

        圖3 基于帶有和不帶有穩(wěn)定學(xué)習(xí)的H 模型時(shí) 非線性系統(tǒng)建模結(jié)果比較Fig.3 Comparison of nonlinear system modeling based on H model with and without stable learning

        可以看出,帶有穩(wěn)定學(xué)習(xí)算法的H 模型的平均建模誤差指標(biāo)低于不帶有穩(wěn)定學(xué)習(xí)算法的H 模型,表明帶有穩(wěn)定學(xué)習(xí)算法時(shí)模型與非線性系統(tǒng)真實(shí)輸出的擬合程度較高。

        圖4為小波神經(jīng)網(wǎng)絡(luò)輸出層節(jié)點(diǎn)權(quán)值w2的在線學(xué)習(xí)過(guò)程曲線。圖5為ARX 模型參數(shù)a2的在線學(xué)習(xí)過(guò)程曲線??梢钥闯?,H 模型中的各參數(shù)是在線 更新的,可以保證模型的實(shí)時(shí)性。

        圖4 權(quán)值w2 的在線學(xué)習(xí)過(guò)程曲線Fig.4 Learning curve of weight w2 in wavelet neural network

        圖5 ARX 參數(shù)a2 的在線學(xué)習(xí)過(guò)程曲線Fig.5 Learning curve of parameter a2 in ARX

        3.2 污水處理過(guò)程出水COD 軟測(cè)量仿真實(shí)驗(yàn)

        以實(shí)際A/O 污水處理過(guò)程為背景,選擇與出水COD 相關(guān)的入水指標(biāo):進(jìn)水流量x1、進(jìn)水懸浮固體濃度x2、氨態(tài)氮濃度x3,以及中間過(guò)程變量:缺氧池內(nèi)的氧化還原電位x4、好氧池內(nèi)的溶解氧濃度x5作為出水COD 軟測(cè)量模型的輸入變量。選擇輸入信息向量為

        采用沈陽(yáng)某污水處理廠A/O工藝過(guò)程的實(shí)際運(yùn)行數(shù)據(jù),共250 組輸入/輸出數(shù)據(jù)對(duì),其中前150 組數(shù)據(jù)模型訓(xùn)練,后100 組數(shù)據(jù)進(jìn)行出水COD 在線軟測(cè)量的實(shí)驗(yàn)研究。

        根據(jù)輸入信息向量,小波神經(jīng)網(wǎng)絡(luò)的輸入層節(jié)點(diǎn)個(gè)數(shù)選為I=5,隱含層節(jié)點(diǎn)個(gè)數(shù)為H=15;ARX模型的階次na=nb=2;初始學(xué)習(xí)率η0=0.9。將帶有與不帶有穩(wěn)定學(xué)習(xí)算法的H 模型進(jìn)行比較,仿真結(jié)果如圖6和圖7所示。

        圖6 基于帶有和不帶有穩(wěn)定學(xué)習(xí)的H 模型時(shí)COD 軟測(cè)量結(jié)果比較Fig.6 Comparison of COD soft sensor based on H model with and without stable learning

        圖7 平均建模誤差指標(biāo)比較Fig.7 Comparison of average modeling error

        圖8 穩(wěn)定學(xué)習(xí)率 η(k)Fig.8 Stable learning rate η(k)

        由圖6可以看出,帶有穩(wěn)定學(xué)習(xí)算法時(shí)軟測(cè)量 模型的輸出與真實(shí)COD 值比較接近,在工況出現(xiàn)異常的初期(第70~80 個(gè)樣本),不帶有穩(wěn)定學(xué)習(xí)時(shí)的擬合精度略高,這是由于穩(wěn)定學(xué)習(xí)算法是一步尋優(yōu)算法,雖具有較高的運(yùn)算速度,相比較常規(guī)誤差反傳的多步迭代算法,在工況急劇變化時(shí)仍需要適當(dāng)?shù)恼{(diào)整時(shí)間;圖7表明,隨著異常工況的持續(xù),本文所提出基于穩(wěn)定學(xué)習(xí)算法的H模型的平均建模誤差指標(biāo)逐漸下降,并明顯低于采用常規(guī)誤差反傳的非穩(wěn)定學(xué)習(xí)算法的模型。

        圖8為H 模型的穩(wěn)定學(xué)習(xí)率曲線??梢钥闯?,H 模型的學(xué)習(xí)率 η(k) 是時(shí)變的,取值與小波神經(jīng)網(wǎng)絡(luò)輸入向量、權(quán)值和尺度參數(shù)、激勵(lì)函數(shù)等有關(guān),大于常規(guī)誤差反傳算法學(xué)習(xí)率η0的值(η0一般認(rèn)為可在0~1 之間取值,當(dāng)η0>0.2 時(shí),權(quán)值修正量大可能導(dǎo)致振蕩或發(fā)散;當(dāng)η0<0.2 時(shí),可迭代多步學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)參數(shù),η0多在0.05~0.1 之間取值,η0越小則收斂速度越慢);穩(wěn)定學(xué)習(xí)算法是一步尋優(yōu)算法,并且不存在學(xué)習(xí)速率大引起的振蕩或發(fā)散現(xiàn)象。

        定義平均相對(duì)誤差絕對(duì)值為

        帶有與不帶有穩(wěn)定學(xué)習(xí)算法的H模型的平均相對(duì)誤差絕對(duì)值比較如表1所示。

        表1 平均相對(duì)誤差絕對(duì)值比較Table 1 Comparison of average absolute relative error

        可以看出,由于帶有穩(wěn)定學(xué)習(xí)的H 模型可自適應(yīng)地調(diào)整穩(wěn)定學(xué)習(xí)率,在外界不確定干擾的情況下,具有相對(duì)好的軟測(cè)量性能。

        4 結(jié) 論

        本研究為了解決由于存在未建模動(dòng)態(tài)和不確定干擾,導(dǎo)致復(fù)雜工業(yè)過(guò)程關(guān)鍵變量的軟測(cè)量精度下降的問(wèn)題,采用H 模型來(lái)建立不可測(cè)變量的軟測(cè)量模型。①基于ISS-Lyapunov 函數(shù)推導(dǎo)得出的穩(wěn)定時(shí)變學(xué)習(xí)算法在存在有界未建模動(dòng)態(tài)和不確定干擾的情況下,建模誤差是穩(wěn)定的;②以非線性系統(tǒng)和污水出水COD 軟測(cè)量仿真實(shí)驗(yàn)表明,基于穩(wěn)定學(xué)習(xí)算法的H 模型具有較高的軟測(cè)量精度;③由于穩(wěn)定學(xué)習(xí)率與輸入向量、權(quán)值和尺度參數(shù)、激勵(lì)函數(shù)等有關(guān),應(yīng)確定最優(yōu)參數(shù)初始值以進(jìn)一步提高精度;④本文所提方法可適用于建立其他復(fù)雜工業(yè)過(guò)程的軟測(cè)量模型。

        [1]Chai Tianyou (柴天佑).Operational optimization and feedback control for complex industrial processes [J].Acta Automatics Sinica(自動(dòng)化學(xué)報(bào)),2013,39 (11):1744-1757

        [2]Cao Pengfei (曹鵬飛),Luo Xionglin (羅雄麟).Modeling of soft sensor for chemical process[J].CIESC Journal(化工學(xué)報(bào)),2013,64 (3):788-800

        [3]Yu W,Li X.Discrete-time neuro identification without robust modification [J].IEE Proceedings -Control Theory and Applications,2003,150 (3):311-316

        [4]Zhang N M.An online gradient method with momentum for two-layer feedforward neural networks [J].Applied Mathematics and Computation,2009,212 (2):488-498

        [5]Chen Y J,Huang T C,Hwang R C.An effective learning of neural network by using RFBP learning algorithm [J].Information Sciences,2004,167 (1):77-86

        [6]Narendra K S,Gallman P G.An iterative method for the identification of nonlinear systems using a Hammerstein model [J].IEEE Transactions on Automatic Control,1966,11 (3):546-550

        [7]Lakshminarayanan S,Shah S L,Nandakumar K.Modeling and control of multivariable processes:dynamic PLS approach [J].AIChE Journal,1997,43 (9):2307-2322

        [8]Wlodzimierz G.Stochastic approximation in nonparametric identification of Hammerstein systems [J].IEEE Transactions on Automatic Control,2002,47 (11):1800-1811

        [9]Zhao W X.Parametric identification of Hammerstein systems with consistency results using stochastic inputs [J].IEEE Transactions on Automatic Control,2010,55 (2):474-480

        [10]Jia Li (賈立),Li Xunlong (李訓(xùn)龍).Identification of Hammerstein model:review and prospect [J].Control Theory & Applications(控制理論與應(yīng)用),2014,31 (1):1-10

        [11]Jia L,Yang A H,Chiu M S.Special input signals based neurofuzzy Hammerstein-Wiener model and its application [J].International Journal of System Control and Information Processing,2012,1 (2):199-218

        [12]Hunt K J,Sbarbaro D,Zbikowski R,Gawthrop P J.Neural networks for control systems—a survey [J].Automatica,1992,28 (6):1083-1112

        [13]Chen Senfa (陳森發(fā)).Theory and Method of Complex System Modeling (復(fù)雜系統(tǒng)建模理論與方法) [M].Nanjing:Southeast University Press,2005

        [14]Yu W.Nonlinear system identification using discrete-time recurrent neural networks with stable learning algorithms [J].Information Sciences,2004,158 (1):131-147

        [15]Sontag,E D,Wang Y.On characterizations of the input-to-state stability property [J].Systems and Control Letters,1995,24 (5):351-359

        [16]Feng Peidi (馮培悌).System Identification (系統(tǒng)辨識(shí)) [M].Hangzhou:Zhejiang University Press,1999

        [17]Wang Shuangjian (王雙劍),Chu Jizheng (楚紀(jì)正).Hammerstein model identification method based on the new improved neural dynamics and its application to hybrid modeling [J].Information and Control(信息與控制),2012,41 (3):384-390

        [18]Kreinovich V S O,Cabmn S.Wavelet neural networks are asymptotically optimal approximators for function of one variable// Proceeding of IEEE ICNN [C].Florida,USA,1994:299-304

        [19]Ye Lingjian (葉凌箭),Ma Xiushui (馬修水),Song Zhihuan (宋執(zhí)環(huán)).Real-time optimization for chemical processes based on on-line modeling of controlled variables [J].CIESC Journal(化工學(xué)報(bào)),2013,64 (8):2918-2923

        [20]Sontag E D.Input to state stability:basic concepts and results [J].Lecture Notes in Mathematics,2008,1932:163-200

        [21]Narendra K S,Li S M.Neural networks in control systems// Smolensky P,Mozer M C,Rumelhart D E,Mathematical Perspectives on Neural Networks [M].New Jersey:Lawrence Erlbaum Associates,1996:347-394

        猜你喜歡
        權(quán)值增益向量
        一種融合時(shí)間權(quán)值和用戶行為序列的電影推薦模型
        向量的分解
        基于增益調(diào)度與光滑切換的傾轉(zhuǎn)旋翼機(jī)最優(yōu)控制
        聚焦“向量與三角”創(chuàng)新題
        CONTENTS
        基于單片機(jī)的程控增益放大器設(shè)計(jì)
        電子制作(2019年19期)2019-11-23 08:41:36
        基于Multisim10和AD603的程控增益放大器仿真研究
        電子制作(2018年19期)2018-11-14 02:37:02
        基于權(quán)值動(dòng)量的RBM加速學(xué)習(xí)算法研究
        向量垂直在解析幾何中的應(yīng)用
        向量五種“變身” 玩轉(zhuǎn)圓錐曲線
        亚洲综合久久精品少妇av| 久久久窝窝午夜精品| 精品无码无人网站免费视频| 老熟女重囗味hdxx70星空| 久久av无码精品人妻糸列| 国产精品黄色片在线观看| 国产一区二区在三区在线观看| 日韩女优av一区二区| 亚洲精品午夜无码专区| 人人妻人人澡人人爽欧美二区| Y111111国产精品久久久| 亚洲成av人片在久久性色av| 国产精品视频亚洲二区| 国产熟妇按摩3p高潮大叫| 国产免费专区| 求网址日韩精品在线你懂的| 亚洲av成人精品一区二区三区 | 亚洲中文字幕乱码免费| 国产少妇露脸精品自拍网站| 高清午夜福利电影在线| 欧美第一黄网免费网站| 国产精品国产午夜免费福利看| 国产美女高潮流白浆视频| 领导边摸边吃奶边做爽在线观看| 国产露脸精品产三级国产av| 日韩精品视频在线观看免费| 亚洲天堂av在线免费观看| 国产免费艾彩sm调教视频| 成人国产午夜在线视频| 精品人妻一区二区三区蜜臀在线 | 亚洲深夜福利| 久久精品人妻一区二三区| 欧美大片aaaaa免费观看| 國产一二三内射在线看片| 亚洲精品一区二区三区av| 免费人成视网站在线剧情| 图片区小说区激情区偷拍区| 一区二区三区福利在线视频| 国产一区资源在线播放| 午夜无遮挡男女啪啪免费软件| 国产精品露脸张开双腿|