亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        傳遞函數(shù)辨識(24):線性回歸系統(tǒng)的變間隔遞階迭代參數(shù)估計(jì)

        2022-01-20 10:51:54劉喜梅
        關(guān)鍵詞:方法

        丁 鋒,徐 玲,籍 艷,劉喜梅

        (1.江南大學(xué) 物聯(lián)網(wǎng)工程學(xué)院,江蘇 無錫 214122;2.青島科技大學(xué) 自動化與電子工程學(xué)院,山東 青島 266061)

        參數(shù)估計(jì)方法是基于系統(tǒng)的觀測數(shù)據(jù),通過某種優(yōu)化策略,極小化模型輸出與系統(tǒng)輸出之差的平方和而推導(dǎo)出的一些算式,這些算式通過遞推計(jì)算或迭代計(jì)算出系統(tǒng)的參數(shù),其前提條件是需要對系統(tǒng)觀測變量進(jìn)行采樣。采樣方式可以是均勻的等周期采樣,也可能是非等周期的非均勻采樣。如果均勻采樣在某些點(diǎn)的數(shù)據(jù)缺失或不可信,剔除不可信數(shù)據(jù)產(chǎn)生損失數(shù)據(jù)系統(tǒng)。

        對于一些均勻采樣,而且在每個(gè)采樣點(diǎn)的數(shù)據(jù)均可得到的情形下,許多方法探討了這類系統(tǒng)的參數(shù)辨識問題,如系統(tǒng)辨識學(xué)術(shù)專著[1-6]和連載論文[7-18]中的一些方法。變間隔辨識方法是本研究首次提出的,它是通過引入變間隔概念來處理損失數(shù)據(jù)系統(tǒng)和稀少量測數(shù)據(jù)系統(tǒng)的辨識問題[5-6,19-23]。最近,連載論文研究了損失數(shù)據(jù)系統(tǒng)和稀少量測數(shù)據(jù)系統(tǒng)的變間隔遞階隨機(jī)梯度辨識方法、變間隔遞階多新息隨機(jī)梯度辨識方法、變間隔遞階遞推梯度辨識方法、變間隔遞階多新息遞推梯度辨識方法、變間隔遞階最小二乘辨識方法、變間隔遞階多新息最小二乘辨識方法[18]。

        這里討論線性回歸系統(tǒng)的變間隔遞階梯度迭代辨識方法、變間隔遞階多新息梯度迭代辨識方法、變間隔遞階最小二乘迭代辨識方法、變間隔遞階多新息最小二乘迭代辨識方法等。這些方法中可以引入加權(quán)因子和遺忘因子派生出變間隔加權(quán)遞階(多新息)梯度迭代辨識方法、變間隔加權(quán)遞階(多新息)最小二乘迭代辨識方法、變間隔遺忘因子加權(quán)遞階(多新息)梯度迭代辨識方法、變間隔遺忘因子加權(quán)遞階(多新息)最小二乘迭代辨識方法等。提出的變間隔遞階迭代辨識方法可以推廣用于其他線性和非線性隨機(jī)系統(tǒng),以及信號模型的參數(shù)辨識[24-31]。

        1 線性回歸系統(tǒng)的遞階辨識模型

        考慮下列線性回歸系統(tǒng),

        其中y(t)∈?是系統(tǒng)輸出變量,v(t)∈?是零均值隨機(jī)白噪聲,?∈?n是待辨識的參數(shù)向量,φ(t)∈?n是回歸信息向量。假設(shè)維數(shù)n已知。不特別申明,設(shè)t≤0時(shí),各變量的初值為零,這里意味著y(t)=0,φ(t)=0,v(t)=0。

        線性回歸系統(tǒng)(1)可分解為N個(gè)虛擬子系統(tǒng)(fictitious subsystem),即遞階辨識模型(hierarchical identification model,H-ID模型):

        其中子系統(tǒng)參數(shù)向量?i和信息向量φi(t)與整個(gè)系統(tǒng)的參數(shù)向量和信息向量的關(guān)系如下:

        虛擬子系統(tǒng)的輸出yi(t)∈?定義為

        在實(shí)際問題中,可能發(fā)生數(shù)據(jù)丟失的情況。為了使辨識算法跳過這些丟失的數(shù)據(jù)點(diǎn),需要根據(jù)系統(tǒng)可得到的數(shù)據(jù)序列,定義整數(shù)序列(integer sequence){ts:s=0,1,2,…},滿足

        0=t0<t1<t2<t3<…<ts-1<ts<…,且t*s=ts-ts-1≥1。用ts代替式(1)中的t,得到

        變間隔辨識模型:

        用ts代替式(2)和(3)中的t,得到變間隔遞階辨識模型:

        2 變間隔梯度迭代辨識方法

        為便于研究變間隔遞階梯度迭代辨識方法和變間隔遞階多新息梯度迭代辨識方法,下面簡單介紹變間隔梯度迭代辨識方法和變間隔多新息梯度迭代辨識方法,相關(guān)內(nèi)容可參考《系統(tǒng)辨識:迭代搜索原理與辨識方法》[5]。

        2.1 變間隔梯度迭代辨識算法

        設(shè)L為數(shù)據(jù)長度,可得到的觀測數(shù)據(jù)為y(ts)和φ(ts)。根據(jù)變間隔辨識模型(4),定義堆積輸出向量Y(tL)和堆積信息矩陣Φ(tL):

        定義變間隔準(zhǔn)則函數(shù)

        令k=1,2,3,…為迭代變量,μ(tL)為收斂因子,即迭代步長,λmax[X]為實(shí)對稱陣X的最大特征值,^?k是參數(shù)向量?的第k次迭代估計(jì)。使用負(fù)梯度搜索,極小化J1(?),得到梯度迭代關(guān)系:

        故收斂因子μ(tL)的一個(gè)保守選擇是

        由于特征值計(jì)算很復(fù)雜,故收斂因子也可簡單取為

        式(10)~(12)和(8)~(9)構(gòu)成了估計(jì)線性回歸系統(tǒng)(1)參數(shù)向量?的變間隔梯度迭代算法(interval-varying gradient-based iterative algorithm,VGI算法)[5]:

        V-GI辨識算法(13)~(17)的計(jì)算步驟如下。

        1)初始化:當(dāng)t≤0時(shí),所有變量的值都設(shè)為零。令迭代次數(shù)k=1,給定數(shù)據(jù)長度L(通常取L?n)和參數(shù)估計(jì)精度ε,置參數(shù)估計(jì)初值^?0=1n/p0,p0=106。

        2)采集觀測數(shù)據(jù)y(ts)和φ(ts),s=1,2,…,L。

        3)用式(16)構(gòu)造堆積輸出向量Y(tL),用式(17)構(gòu)造堆積信息矩陣Φ(tL),根據(jù)式(14)或(15)確定一個(gè)盡量大的步長μ(tL)。

        4)用式(13)刷新參數(shù)估計(jì)向量^?k。

        5)比較^?k和^?k-1;如果‖^?k-^?k-1‖>ε,k就增加1,轉(zhuǎn)到步驟4);否則獲得參數(shù)估計(jì)向量^?k,終止計(jì)算過程。

        在V-GI辨識算法中引入加權(quán)因子、引入遺忘因子,就得到變間隔加權(quán)梯度迭代(V-W-GI)算法、變間隔遺忘因子梯度迭代(V-FFGI)算法、變間隔加權(quán)遺忘因子梯度迭代(V-W-FFGI)算法[5]。

        2.2 變間隔加權(quán)梯度迭代辨識算法

        設(shè)wt≥0為加權(quán)因子,W(tL)=diag[w1,w2,…,wL]∈?L×L為加權(quán)矩陣。在V-GI辨識算法(13)~(17)中引入加權(quán)矩陣W(tL),便得到估計(jì)線性回歸系統(tǒng)(1)參數(shù)向量?的變間隔加權(quán)梯度迭代算法(interval-varying weighted GI algorithm,V-W-GI算法)[5]:

        2.3 變間隔遺忘因子梯度迭代辨識算法

        在V-GI辨識算法(13)~(17)中引入遺忘因子λ,便得到估計(jì)線性回歸系統(tǒng)(1)參數(shù)向量?的變間隔遺忘因子梯度迭代算法(interval-varying forgetting factor GI algorithm,V-FFGI算法)[5]:

        3 變間隔多新息梯度迭代方法

        設(shè)整數(shù)p≥1為新息長度。根據(jù)變間隔辨識模型(4),利用可得到的觀測數(shù)據(jù)y(ts)和φ(ts),定義堆積輸出向量Y(p,ts)和堆積信息矩陣Φ(p,ts):

        則由式(1)可得多新息辨識模型(multi-innovation identification model):

        3.1 變間隔多新息梯度迭代辨識算法

        根據(jù)多新息辨識模型(36),定義變間隔多新息準(zhǔn)則函數(shù)

        令k=1,2,3,…為迭代變量是參數(shù)向量?在當(dāng)前時(shí)刻t=ts的第k次迭代估計(jì),μ(ts)為當(dāng)前時(shí)刻t=ts的迭代步長,即收斂因子。使用負(fù)梯度搜索,極小化J2(?),得到梯度迭代關(guān)系:

        故收斂因子μ(ts)的一個(gè)保守選擇是

        由于特征值計(jì)算很復(fù)雜,最簡單的方式是使用范數(shù),取

        聯(lián)立式(37)~(39)和(34)~(35),就得到估計(jì)損失數(shù)據(jù)系統(tǒng)(1)參數(shù)向量?的變間隔多新息梯度迭代算法(interval-varying MIGI algorithm,VMIGI算法)[5]:

        注1V-MIGI算法在時(shí)刻t=ts刷新kmax次迭代參數(shù)估計(jì)而在區(qū)間[ts,ts+1-1]上保持參數(shù)估計(jì)不變,即1]。

        變間隔多新息梯度迭代算法的參數(shù)估計(jì)精度取決于新息長度p,因此新息長度p應(yīng)足夠大。VMIGI算法(40)~(45)計(jì)算參數(shù)估計(jì)的步驟如下。

        1)初始化:當(dāng)t≤0時(shí),所有變量的值都設(shè)為零:采集觀測數(shù)據(jù)y(t)=0和φ(t)=0。給定新息長度p(通常取p?n),參數(shù)估計(jì)精度ε,最大迭代次數(shù)kmax。令t=1,s=0,t0=0,參數(shù)估計(jì)初值

        2)令k=1,采集觀測數(shù)據(jù)y(t)和φ(t)。

        3)如果觀測數(shù)據(jù)y(t)和φ(t)可得到,就跳到下一步;否則置t增加1,即t=t+1,轉(zhuǎn)到步驟2)。

        4)置s=s+1,ts=t,t*s=ts-ts-1,用式(44)構(gòu)造堆積輸出向量Y(p,ts),用式(45)構(gòu)造堆積信息矩陣Φ(p,ts)。根據(jù)式(42)或(43)確定一個(gè)盡量大的步長μ(ts)。

        6)如果k<kmax,k就增加1,轉(zhuǎn)到步驟5);否則執(zhí)行下一步。

        3.2 變間隔加權(quán)多新息梯度迭代辨識算法

        在V-MIGI辨識算法(40)~(45)中引入p×p加權(quán)矩陣Ws≥0,便得到估計(jì)線性回歸系統(tǒng)(1)參數(shù)向量?的變間隔加權(quán)多新息梯度迭代算法(interval-varying weighted MIGI algorithm,V-W-MIGI算法):

        設(shè)ws,i≥0為加權(quán)因子,取加權(quán)矩陣Ws=diag[ws,0,ws,1,…,ws,p-1]∈?p×p,那 么V-WMIGI算法(46)~(51)可以表示為

        3.3 變間隔遺忘因子多新息梯度迭代辨識算法

        3.4 變間隔加權(quán)遺忘因子多新息梯度迭代辨識算法

        在V-MIGI辨識算法(40)~(45)中引入加權(quán)因子ws,i≥0和遺忘因子λ=μ,便得到估計(jì)線性回歸系統(tǒng)(1)參數(shù)向量?的變間隔加權(quán)遺忘因子多新息梯度迭代算法(interval-varying weighted FFMIGI algorithm,V-W-FF-MIGI算法):

        V-W-FF-MIGI算法(68)~(73)可等價(jià)表示為

        4 變間隔遞階梯度迭代辨識方法

        設(shè)L為數(shù)據(jù)長度(L?n)。根據(jù)變間隔辨識模型(5),定義堆積輸出向量Y(tL)和堆積信息矩陣Φ(tL),以及虛擬堆積輸出向量Yi(tL)和堆積子信息矩陣Φi(tL):

        定義變間隔準(zhǔn)則函數(shù)

        對固定的i,式(82)可看作狀態(tài)的離散時(shí)間系統(tǒng),為保證參數(shù)估計(jì)收斂,要求系統(tǒng)矩陣[Ini-μiΦTi(tL)Φi(tL)]的特征值均在單位圓內(nèi),且單位圓上沒有重特征值,即μi必須滿足-Ini≤[Ini-μiΦTi(tL)Φi(tL)]≤Ini,故收斂因子μi的一個(gè)保守選擇是

        由于特征值計(jì)算很復(fù)雜,故收斂因子也可簡單取為

        將式(80)代入式(82)得到

        右邊包含了其它子系統(tǒng)的未知子參數(shù)向量?j(j≠i),所以無法計(jì)算出子系統(tǒng)的參數(shù)估計(jì)^?i,k。為了實(shí)現(xiàn)參數(shù)估計(jì)的迭代計(jì)算,根據(jù)遞階辨識原理進(jìn)行關(guān)聯(lián)項(xiàng)的協(xié)調(diào),上式中未知的?j用其在前一次迭代(k-1)的估計(jì)代替,得到

        式(83)~(85),(78)~(79)和(81)構(gòu)成了估計(jì)線性回歸系統(tǒng)(1)參數(shù)向量?的變間隔遞階梯度迭代算法(interval-varying HGI algorithm,V-HGI算法):

        1)初始化:當(dāng)t≤0時(shí),所有變量的值都設(shè)為零。根據(jù)n值和計(jì)算量大小要求設(shè)置N和ni。令迭代次數(shù)k=1,t=1,s=0,t0=0,給定數(shù)據(jù)長度L(通常取L?n)和參數(shù)估計(jì)精度ε。置參數(shù)估計(jì)初 值

        2)采集觀測數(shù)據(jù)y(t)和φ(t)。

        3)如果觀測數(shù)據(jù)y(t)和φ(t)可得到,就跳到下一步;否則t增加1,即t=t+1,轉(zhuǎn)到步驟2)。

        4)置s=s+1,ts=t,t*s=ts-ts-1。如果s<L,t就增加1,轉(zhuǎn)到步驟2);否則用式(89)構(gòu)造堆積輸出向量Y(tL),用式(90)構(gòu)造堆積信息矩陣Φ(tL)。從式(91)的Φ(tL)中讀出子信息矩陣Φi(tL),根據(jù)式(87)或(88)確定盡量大的步長μi,i=1,2,…,N。

        注2算法的參數(shù)估計(jì)精度依賴于數(shù)據(jù)長度L,因此數(shù)據(jù)長度應(yīng)該足夠大,遠(yuǎn)大于待估計(jì)參數(shù)的數(shù)目。取收斂因子μi=2‖Φi(tL)‖-2,在消除中間變量Y(tL),Φ(tL)和Φi(tL)后,V-HGI算法(86)~(93)可等價(jià)表示為

        變間隔遞階梯度迭代辨識方法可以派生出許多算法,如變間隔修正遞階梯度迭代(V-M-HGI)算法、變間隔加權(quán)遞階梯度迭代(V-W-HGI)算法、變間隔遺忘因子遞階梯度迭代(V-FF-HGI)算法、變間隔加權(quán)修正遞階梯度迭代(V-W-M-HGI)算法、變間隔遺忘因子修正遞階梯度迭代(V-FF-M-HGI)算法、變間隔加權(quán)遺忘因子修正遞階梯度迭代(VW-FF-M-HGI)算法等。

        5 變間隔遞階最小二乘迭代方法

        令準(zhǔn)則函數(shù)J3i(?i)關(guān)于參數(shù)向量?i的梯度為零:

        假設(shè)信息向量φi(ts)是充分豐富的,即對于L?n,數(shù)據(jù)乘積矩矩陣是可逆的,由上式可求出子參數(shù)向量?i的最小二乘估計(jì)

        由于虛擬子系統(tǒng)的堆積輸出向量Yi(tL)是未知的,所以將式(80)代入式(97)得到

        上式右邊包含了其它子系統(tǒng)的未知子參數(shù)向量?j(j≠i),所以無法計(jì)算出子系統(tǒng)的參數(shù)估計(jì)^?i,k。為了實(shí)現(xiàn)參數(shù)估計(jì)^?i,k的迭代計(jì)算,根據(jù)遞階辨識原理進(jìn)行關(guān)聯(lián)項(xiàng)的協(xié)調(diào),上式中未知的?j用其在前一次迭代(k-1)的估計(jì)^?j,k-1代替,得到

        聯(lián)立式(89)~(93),便得到估計(jì)線性回歸系統(tǒng)(1)參數(shù)向量?的變間隔遞階最小二乘迭代算法(interval-varying HLSI algorithm,V-HLSI算法):

        1)初始化:當(dāng)t≤0時(shí),所有變量的值都設(shè)為零。根據(jù)n值和計(jì)算量大小要求設(shè)置N和ni。令迭代次數(shù)k=1,t=1,s=0,t0=0,給定數(shù)據(jù)長度L(通常取L?n)和參數(shù)估計(jì)精度ε。置參數(shù)估計(jì)初值1,2,…,N,p0=106。

        2)采集觀測數(shù)據(jù)y(t)和φ(t)。

        3)如果觀測數(shù)據(jù)y(t)和φ(t)可得到,就跳到下一步;否則t增加1,即t=t+1,轉(zhuǎn)到步驟2)。

        4)置s=s+1,ts=t,t*s=ts-ts-1。如果s<L,t就增加1,轉(zhuǎn)到步驟2);否則用式(100)構(gòu)造堆積輸出向量Y(tL),用式(101)構(gòu)造堆積信息矩陣Φ(tL)。從式(102)的Φ(tL)中讀出子信息矩陣Φi(tL),i=1,2,…,N。

        注3在消除中間變量Y(tL),Φ(tL)和Φi(tL)后,V-HLSI算法(99)~(104)可以等價(jià)表示為

        遞階最小二乘迭代辨識方法可以派生出變間隔加權(quán)遞階最小二乘迭代(V-W-HLSI)算法、變間隔遺忘因子遞階最小二乘迭代(V-FF-HLSI)算法、變間隔加權(quán)遺忘因子遞階最小二乘迭代(V-W-FFHLSI)算法等。

        6 變間隔遞階多新息梯度迭代方法

        設(shè)p為新息長度,可得到的觀測數(shù)據(jù)為y(ts)和φ(ts),s=1,2,3,…。設(shè)t=ts為當(dāng)前時(shí)刻。根據(jù)辨識模型(4)~(5),利用最新的p組數(shù)據(jù),定義堆積輸出向量Y(p,ts)和堆積信息矩陣Φ(p,ts),堆積虛擬輸出向量Yi(p,ts)和堆積子信息矩陣

        可考慮按下面的方式定義有關(guān)變量:

        根據(jù)遞階辨識模型(5),定義關(guān)于子參數(shù)向量?i的準(zhǔn)則函數(shù):

        令k=1,2,3,…為迭代變量,μi(ts)≥0是當(dāng)前時(shí)刻ts的迭代步長(收斂因子),是參數(shù)向量?在當(dāng)前時(shí)刻t=ts的第k次迭代估計(jì)是參數(shù)向量?i在當(dāng)前時(shí)刻ts的第k次迭代估計(jì)。使用負(fù)梯度搜索,極小化J4i(?i),得到梯度迭代關(guān)系:

        故收斂因子μi(ts)的一個(gè)保守選擇是

        由于特征值計(jì)算極其復(fù)雜,一個(gè)簡單方式是使用范數(shù),取

        將式(110)代入式(114)得到

        右邊包含了其它子系統(tǒng)的未知子參數(shù)向量?j(j≠i),所以無法計(jì)算出子系統(tǒng)的參數(shù)估計(jì)為了實(shí)現(xiàn)參數(shù)估計(jì)的迭代計(jì)算,根據(jù)遞階辨識原理進(jìn)行關(guān)聯(lián)項(xiàng)的協(xié)調(diào),上式中未知的?j用其在前一次迭代(k-1)的估計(jì)代替,得到

        式(115)~(117),(108)~(109),(111)和(112)構(gòu)成了估計(jì)線性回歸系統(tǒng)(1)參數(shù)向量?的變間隔遞階多新息梯度迭代算法(interval-varying HMIGI algorithm,V-HMIGI算法):

        注4因?yàn)榫€性回歸系統(tǒng)參數(shù)估計(jì)誤差與數(shù)據(jù)長度的平方根成反比[3],變間隔遞階多新息迭代算法每次計(jì)算參數(shù)估計(jì)時(shí)使用的數(shù)據(jù)長度為p,參數(shù)估計(jì)精度取決于新息長度p。因此多新息迭代算法中的新息長度p應(yīng)足夠大。

        1)初始化:令所有變量的值都設(shè)為零:y(j)=0,φ(j)=0,j≤0。根據(jù)n值和計(jì)算量大小要求設(shè)置N和ni,給定新息長度p和參數(shù)估計(jì)精度ε,最大迭代次數(shù)kmax。令t=1,s=0,t0=0,迭代次數(shù)k=1。置 參 數(shù) 估 計(jì) 初 值

        2)采集觀測數(shù)據(jù)y(t)和φ(t)。

        3)如果觀測數(shù)據(jù)y(t)和φ(t)可得到,就跳到下一步;否則t增加1,即t=t+1,轉(zhuǎn)到步驟2)。

        6)如果k<kmax,k就增加1,轉(zhuǎn)到步驟5);否則執(zhí)行下一步。

        注5取收斂因子μi(ts)=2‖Φ(p,ts)‖-2,在消除中間變量Y(p,ts),Φi(p,ts)和Φ(p,ts)后,HMIGI辨識算法(118)~(127)可等價(jià)表示為

        V-HMIGI辨識算法(118)~(127)可以派生出許多算法,如變間隔修正遞階多新息梯度迭代(VM-HMIGI)算法、變間隔加權(quán)遞階多新息梯度迭代(V-W-HMIGI)算法、變間隔遺忘因子遞階多新息梯度迭代(V-FF-HMIGI)算法、變間隔加權(quán)修正遞階多新息梯度迭代(V-W-M-HMIGI)算法、變間隔遺忘因子修正遞階多新息梯度迭代(V-FF-M-HMIGI)算法、變間隔加權(quán)遺忘因子修正遞階多新息梯度迭代(V-W-FF-M-HMIGI)算法等。

        7 變間隔遞階多新息最小二乘迭代方法

        令準(zhǔn)則函數(shù)J4i(?i)關(guān)于子參數(shù)向量?i的梯度為零:

        假設(shè)信息向量φi(ts)是充分豐富的,即對于p?n,數(shù)據(jù)乘積矩矩陣是可逆的,由上式可求出子參數(shù)向量?i的最小二乘估計(jì)

        由于虛擬子系統(tǒng)的堆積輸出向量Yi(p,ts)是未知的,所以將式(110)代入式(131)得到

        上式右邊包含了其它子系統(tǒng)的未知子參數(shù)向量?j(j≠i),所以無法計(jì)算出子系統(tǒng)的參數(shù)估計(jì)為了實(shí)現(xiàn)參數(shù)估計(jì)的迭代計(jì)算,根據(jù)遞階辨識原理進(jìn)行關(guān)聯(lián)項(xiàng)的協(xié)調(diào),上式中未知的用?j其在前一次迭代(k-1)的估計(jì)代替,得到

        聯(lián)立式(122)~(127),便得到估計(jì)線性回歸系統(tǒng)(1)參數(shù)向量?的變間隔遞階多新息最小二乘迭代算法(interval-varying HMILSI algorithm,VHMILSI算法):

        1)初始化:所有變量的值都設(shè)為零:y(j)=0,φ(j)=0,j≤0。根據(jù)n值和計(jì)算量大小要求設(shè)置N和ni,給定新息長度p和參數(shù)估計(jì)精度ε,最大迭代次數(shù)kmax。令t=1,s=0,t0=0,迭代次數(shù)k=1。置 參 數(shù) 估 計(jì) 初 值或 隨 機(jī)向量,i=1,2,…,N,p0=106。

        2)采集觀測數(shù)據(jù)y(t)和φ(t)。

        3)如果觀測數(shù)據(jù)y(t)和φ(t)可得到,就跳到下一步;否則t增加1,即t=t+1,轉(zhuǎn)到步驟2)。

        6)如果k<kmax,k就增加1,轉(zhuǎn)到步驟5);否則執(zhí)行下一步。

        注6在消除中間變量Y(p,ts),Φ(p,ts)和Φi(p,ts)后,V-HMILSI算法(133)~(140)可等價(jià)表示為

        V-HMILSI辨識算法(133)~(140)可以派生出變間隔加權(quán)遞階多新息最小二乘迭代(V-WHMILSI)算法、變間隔遺忘因子遞階多新息最小二乘迭代(V-FF-HMILSI)算法、變間隔加權(quán)遺忘因子遞階多新息最小二乘迭代(V-W-FF-HMILSI)算法。

        線性參數(shù)系統(tǒng)參數(shù)估計(jì)誤差與數(shù)據(jù)長度的平方根成反比,所以數(shù)據(jù)長度應(yīng)該足夠大,遠(yuǎn)遠(yuǎn)大于參數(shù)數(shù)目。而多新息梯度迭代方法和多新息最小二乘迭代算法在每次迭代計(jì)算中使用的數(shù)據(jù)長度為p,所以新息長度應(yīng)該足夠大,以保證參數(shù)估計(jì)精度。變間隔多新息梯度迭代方法、變間隔多新息最小二乘迭代算法、變間隔遞階多新息梯度迭代方法、變間隔遞階多新息最小二乘迭代算法等也是如此。

        8 結(jié) 語

        應(yīng)用變間隔辨識概念,針對損失數(shù)據(jù)系統(tǒng)和稀少量測數(shù)據(jù)系統(tǒng),根據(jù)遞階辨識原理和線性回歸系統(tǒng)的變間隔遞階辨識模型,研究了變間隔遞階(多新息)梯度迭代辨識方法、變間隔遞階(多新息)最小二乘迭代辨識方法等。這些變間隔迭代辨識方法可以推廣到有色噪聲干擾下的線性和非線性損失數(shù)據(jù)隨機(jī)系統(tǒng)和稀少量測數(shù)據(jù)隨機(jī)系統(tǒng)中。

        猜你喜歡
        方法
        中醫(yī)特有的急救方法
        中老年保健(2021年9期)2021-08-24 03:52:04
        高中數(shù)學(xué)教學(xué)改革的方法
        化學(xué)反應(yīng)多變幻 “虛擬”方法幫大忙
        變快的方法
        兒童繪本(2020年5期)2020-04-07 17:46:30
        學(xué)習(xí)方法
        可能是方法不對
        用對方法才能瘦
        Coco薇(2016年2期)2016-03-22 02:42:52
        最有效的簡單方法
        山東青年(2016年1期)2016-02-28 14:25:23
        四大方法 教你不再“坐以待病”!
        Coco薇(2015年1期)2015-08-13 02:47:34
        賺錢方法
        国产小屁孩cao大人| 夜夜添夜夜添夜夜摸夜夜摸| 丰满熟女人妻中文字幕免费| 国产精品无码专区综合网| 日本精品熟妇一区二区三区 | 午夜精品久久99蜜桃| 特黄aaaaaaaaa毛片免费视频| 无码少妇一区二区三区芒果| 音影先锋色天堂av电影妓女久久| 亚洲精品中文字幕乱码无线| 婷婷综合另类小说色区| 国产一品二品三品精品在线| 精品少妇人妻av无码专区| 國产AV天堂| 亚洲成av人片在久久性色av| 成年女人免费v片| 亚洲精品黑牛一区二区三区| 在线亚洲AV成人无码一区小说| 国产精品自拍视频在线| 欧美多人片高潮野外做片黑人 | 亚洲乱码一区二区三区成人小说 | 区三区久久精品水蜜桃av| 久久午夜av一区二区三区| 四虎影视在线影院在线观看| 亚洲人成网站久久久综合| 国产高清女主播在线观看| 潮喷大喷水系列无码久久精品| 欧美丰满熟妇bbbbbb百度| 日韩熟女一区二区三区| 久久综合精品人妻一区二区三区| 久久露脸国产精品| 天天干夜夜躁| 国产精品日韩亚洲一区二区| 欧美成人精品a∨在线观看| 亚洲av成人一区二区三区av | 日韩精品一区二区在线视| 国产精品久久精品第一页| 国产第19页精品| 国产三级视频一区二区| 亚洲av无码国产精品色午夜软件| 成人一区二区免费视频|