亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于RBF神經(jīng)網(wǎng)絡(luò)的集成增量學(xué)習(xí)算法

        2016-07-19 02:13:57彭玉青趙翠翠高晴晴
        關(guān)鍵詞:增量權(quán)值類(lèi)別

        彭玉青 趙翠翠 高晴晴

        (河北工業(yè)大學(xué)計(jì)算機(jī)科學(xué)與軟件學(xué)院 天津 300401)

        ?

        基于RBF神經(jīng)網(wǎng)絡(luò)的集成增量學(xué)習(xí)算法

        彭玉青趙翠翠高晴晴

        (河北工業(yè)大學(xué)計(jì)算機(jī)科學(xué)與軟件學(xué)院天津 300401)

        摘要針對(duì)增量學(xué)習(xí)的遺忘性問(wèn)題和集成增量學(xué)習(xí)的網(wǎng)絡(luò)增長(zhǎng)過(guò)快問(wèn)題,提出基于徑向基神經(jīng)網(wǎng)絡(luò)(RBF)的集成增量學(xué)習(xí)方法。為了避免網(wǎng)絡(luò)的遺忘性,每次學(xué)習(xí)新類(lèi)別知識(shí)時(shí)都訓(xùn)練一個(gè)RBF神經(jīng)網(wǎng)絡(luò),把新訓(xùn)練的RBF神經(jīng)網(wǎng)絡(luò)加入到集成系統(tǒng)中,從而組建成一個(gè)大的神經(jīng)網(wǎng)絡(luò)系統(tǒng)。分別采用最近中心法、最大概率法、最近中心與最大概率相結(jié)合的方法進(jìn)行確定獲勝子網(wǎng)絡(luò),最終結(jié)果由獲勝子網(wǎng)絡(luò)進(jìn)行輸出。在最大概率法中引入自組織映(SOM)的原型向量來(lái)解決類(lèi)中心相近問(wèn)題。為了驗(yàn)證網(wǎng)絡(luò)的增量學(xué)習(xí),用UCI 機(jī)器學(xué)習(xí)庫(kù)中Statlog(Landsat Satellite)數(shù)據(jù)集做實(shí)驗(yàn),結(jié)果顯示該網(wǎng)絡(luò)在學(xué)習(xí)新類(lèi)別知識(shí)后,既獲得了新類(lèi)別的知識(shí)也沒(méi)有遺忘已學(xué)知識(shí)。

        關(guān)鍵詞RBFSOM增量學(xué)習(xí)

        0引言

        傳統(tǒng)神經(jīng)網(wǎng)絡(luò)只能進(jìn)行一次學(xué)習(xí),不能在第一次學(xué)習(xí)的基礎(chǔ)上實(shí)現(xiàn)二次學(xué)習(xí)?,F(xiàn)實(shí)生活中不可能一次性獲得所有的神經(jīng)網(wǎng)絡(luò)訓(xùn)練數(shù)據(jù),所以很多學(xué)者提出了增量學(xué)習(xí)的神經(jīng)網(wǎng)絡(luò)。但是設(shè)計(jì)增量學(xué)習(xí)網(wǎng)絡(luò)必須要面對(duì)網(wǎng)絡(luò)的穩(wěn)定性和可塑性這個(gè)難題[1]。所謂穩(wěn)定性就是為了記住已學(xué)過(guò)的知識(shí),網(wǎng)絡(luò)結(jié)構(gòu)和參數(shù)不能發(fā)生改變;可塑性就是為了學(xué)習(xí)新的知識(shí),要對(duì)已有網(wǎng)絡(luò)的結(jié)構(gòu)和參數(shù)進(jìn)行調(diào)整,不能完全保持網(wǎng)絡(luò)結(jié)構(gòu)和參數(shù)不變。但是網(wǎng)絡(luò)結(jié)構(gòu)和參數(shù)一旦發(fā)生改變,網(wǎng)絡(luò)就會(huì)產(chǎn)生遺忘性,這樣的增量學(xué)習(xí)網(wǎng)絡(luò)是沒(méi)有意義的,所以要實(shí)現(xiàn)增量學(xué)習(xí)就必須建立在穩(wěn)定性的基礎(chǔ)之上。

        神經(jīng)網(wǎng)絡(luò)集成就是保持穩(wěn)定性和可塑性之間很好的折中方法。Learn++算法[2]和負(fù)相關(guān)算法[3]都是神經(jīng)網(wǎng)絡(luò)集成的增量學(xué)習(xí)算法。通過(guò)對(duì)新知識(shí)的學(xué)習(xí)產(chǎn)生多個(gè)弱分類(lèi)器,加入到增量學(xué)習(xí)系統(tǒng)中。這種網(wǎng)絡(luò)能夠很好地保留已學(xué)知識(shí),但是網(wǎng)絡(luò)增長(zhǎng)的速度非常快,使得網(wǎng)絡(luò)過(guò)于龐大,不具有實(shí)用性。雖然有些學(xué)者又提出了選擇性負(fù)相關(guān)的增量學(xué)習(xí)[4],但是在進(jìn)行網(wǎng)絡(luò)選擇的過(guò)程中,會(huì)使得網(wǎng)絡(luò)產(chǎn)生一定的遺忘性。

        RBF神經(jīng)網(wǎng)絡(luò)和模糊規(guī)則相結(jié)合的增量學(xué)習(xí)[5,6],通過(guò)規(guī)則增長(zhǎng)條件判斷是否增加RBF的核函數(shù)來(lái)進(jìn)行增量學(xué)習(xí)。選用高斯函數(shù)作為RBF的核函數(shù),該函數(shù)能夠?qū)斎胧噶慨a(chǎn)生局部響應(yīng),輸出節(jié)點(diǎn)對(duì)隱層節(jié)點(diǎn)的輸出進(jìn)行線性加權(quán),從而實(shí)現(xiàn)輸入空間到輸出空間的映射,使整個(gè)網(wǎng)絡(luò)達(dá)到分類(lèi)和函數(shù)逼近的目的[7]。但是這種增量學(xué)習(xí)網(wǎng)絡(luò)在學(xué)習(xí)的過(guò)程中會(huì)修改已學(xué)規(guī)則的參數(shù),從而產(chǎn)生遺忘性。

        自組織映射與概率神經(jīng)網(wǎng)絡(luò)相結(jié)合的增量學(xué)習(xí)網(wǎng)絡(luò)(IMSOMPNN)[13],通過(guò)SOM對(duì)每一個(gè)類(lèi)別的訓(xùn)練數(shù)據(jù)進(jìn)行學(xué)習(xí)并得到原型向量,用原型向量構(gòu)建PNN。這種增量學(xué)習(xí)在沒(méi)有遺忘已學(xué)知識(shí)的前提下實(shí)現(xiàn)了增量學(xué)習(xí)。但是IMSOMPNN每次只能學(xué)習(xí)一個(gè)類(lèi)別的知識(shí),不能實(shí)現(xiàn)知識(shí)的多類(lèi)別學(xué)習(xí),會(huì)使得網(wǎng)絡(luò)的學(xué)習(xí)過(guò)于繁瑣。

        針對(duì)以上問(wèn)題本文提出了基于RBF集成增量的學(xué)習(xí)方法。當(dāng)新知識(shí)到來(lái)時(shí)通過(guò)RBF神經(jīng)網(wǎng)絡(luò)進(jìn)行學(xué)習(xí),在RBF神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)的過(guò)程中,采用k-均值聚類(lèi)算法找中心和相應(yīng)的寬度,用偽逆法[8]求子網(wǎng)絡(luò)權(quán)值和偏置權(quán)值,將得到的子網(wǎng)絡(luò)加入到神經(jīng)網(wǎng)絡(luò)集成系統(tǒng)中,通過(guò)最近中心確定獲勝子網(wǎng)絡(luò),最終結(jié)果由獲勝子網(wǎng)絡(luò)輸出。

        由于RBF神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)不能去除噪聲數(shù)據(jù),也不能包含所有的特征信息,所以本文又提出了RBF與SOM相結(jié)合的集成增量學(xué)習(xí)方法。與上述方法不同之處在于:該方法采用SOM對(duì)子網(wǎng)絡(luò)的訓(xùn)練數(shù)據(jù)進(jìn)行學(xué)習(xí),子網(wǎng)絡(luò)的訓(xùn)練數(shù)據(jù)有可能是一個(gè)類(lèi)別的訓(xùn)練數(shù)據(jù),也可能是多個(gè)類(lèi)別的訓(xùn)練數(shù)據(jù)。用SOM訓(xùn)練后的原型向量構(gòu)建概率神經(jīng)網(wǎng)絡(luò),用于求出每個(gè)子網(wǎng)絡(luò)的最大概率,通過(guò)最大概率準(zhǔn)則確定獲勝子網(wǎng)絡(luò),而不是通過(guò)最近中心確定獲勝子網(wǎng)絡(luò)。

        結(jié)合以上兩種方法,本文又提出了最近中心與最大概率相結(jié)合的方法來(lái)確定獲勝子網(wǎng)絡(luò)。最后分別采用這三種方法進(jìn)行實(shí)驗(yàn)。實(shí)驗(yàn)結(jié)果表明了這三種集成的增量學(xué)習(xí)方法沒(méi)有改變已學(xué)知識(shí)的子網(wǎng)絡(luò)結(jié)構(gòu)和參數(shù),不會(huì)對(duì)已學(xué)知識(shí)產(chǎn)生遺忘性,所以本文提出的增量學(xué)習(xí)網(wǎng)絡(luò)可以在對(duì)已學(xué)知識(shí)不產(chǎn)生遺忘的基礎(chǔ)上,進(jìn)行增量學(xué)習(xí),而且增量學(xué)習(xí)后的網(wǎng)絡(luò)識(shí)別率很高;與其他集成增量學(xué)習(xí)相比,本文的方法每次增量學(xué)習(xí)只增加一個(gè)子網(wǎng)絡(luò),避免了網(wǎng)絡(luò)系統(tǒng)過(guò)于龐大的問(wèn)題;每次增量學(xué)習(xí)可以實(shí)現(xiàn)多類(lèi)別知識(shí)的學(xué)習(xí),避免了逐個(gè)類(lèi)別知識(shí)學(xué)習(xí)的繁瑣性。

        1網(wǎng)絡(luò)結(jié)構(gòu)

        如圖1所示本網(wǎng)絡(luò)分為四層。第一層為網(wǎng)絡(luò)輸入層,輸入為xi(i=1,2,…,n)。第二層為核函數(shù)層,本網(wǎng)絡(luò)采用高斯函數(shù)作為核函數(shù),核函數(shù)為:

        (1)

        (2)

        圖1 RBF增量學(xué)習(xí)網(wǎng)絡(luò)結(jié)構(gòu)圖

        第三層為子網(wǎng)絡(luò)輸出層,期望輸出公式為:

        (3)

        第四層為集成系統(tǒng)的輸出,輸出公式為:

        (4)

        其中,bj為第j個(gè)子網(wǎng)絡(luò)與系統(tǒng)輸出之間的輸出權(quán)值,j的取值為:j=1,…,u,y為集成系統(tǒng)的總輸出。

        2增量學(xué)習(xí)過(guò)程

        本文的RBF神經(jīng)網(wǎng)絡(luò)采用K-均值聚類(lèi)算法得到中心,用偽逆法求得權(quán)值和偏置。分別用最近中心法、最大概率法、最近中心與最大概率相結(jié)合的方法確定獲勝子網(wǎng)絡(luò)。獲勝子網(wǎng)絡(luò)的輸出權(quán)值為1,非獲勝子網(wǎng)絡(luò)的輸出權(quán)值為0,網(wǎng)絡(luò)的最終結(jié)果由獲勝子網(wǎng)絡(luò)進(jìn)行輸出。最大概率法中用SOM已學(xué)過(guò)的原型向量通過(guò)PNN(概率神經(jīng)網(wǎng)絡(luò))得到子網(wǎng)絡(luò)的最大概率。

        本文每次增量學(xué)習(xí)只增加一個(gè)子網(wǎng)絡(luò),避免了網(wǎng)絡(luò)系統(tǒng)過(guò)于龐大的問(wèn)題;每次增量學(xué)習(xí)可以實(shí)現(xiàn)多類(lèi)別知識(shí)的學(xué)習(xí),避免了逐個(gè)類(lèi)別知識(shí)學(xué)習(xí)的繁瑣性。

        2.1K-均值算法選取網(wǎng)絡(luò)中心

        K-均值聚類(lèi)算法[9,10]是一種模式聚類(lèi)算法,聚類(lèi)分析是根據(jù)數(shù)據(jù)空間的內(nèi)在性質(zhì)將其分成一些聚合類(lèi),它是在不對(duì)數(shù)據(jù)作任何假設(shè)的條件下進(jìn)行的,是完全非監(jiān)督的學(xué)習(xí)過(guò)程。其原理是首先初始化中心,中心的個(gè)數(shù)主觀確定。然后將輸入樣本按最鄰近規(guī)則分組。

        假設(shè)初始中心的個(gè)數(shù)為m,即將xi(i=1,2,…,n)按最鄰近規(guī)則分配給中心m個(gè)初始中心,得到m個(gè)輸入樣本聚類(lèi)集合θk(k=1,…,m)。要求滿足:

        (5)

        中心確定以后,相應(yīng)的計(jì)算寬度σk,本文的寬度為:

        σk=λ×dk

        (6)

        經(jīng)過(guò)多次實(shí)驗(yàn),本文取λ為2。

        2.2偽逆求子網(wǎng)絡(luò)的權(quán)值和偏置

        在中心和寬度已知的情況下,用偽逆法可直接求解核函數(shù)層與子網(wǎng)絡(luò)輸出層的輸出權(quán)值和偏置權(quán)值。

        用k-均值聚類(lèi)法計(jì)算出中心并求出相應(yīng)的寬度,根據(jù)中心和寬度求出核函數(shù)層輸出矩陣R。由于加了一個(gè)偏置神經(jīng)元,并且偏置神經(jīng)元的取值為1,所以要擴(kuò)展核函數(shù)輸出矩陣為:

        (7)

        其中,G比R增加了一維偏置神經(jīng)元的輸出,期望輸出矩陣D,權(quán)值矩陣W的輸出公式為:

        W=DG+

        (8)

        其中G+為G的偽逆:

        G+=(GTG)GT

        (9)

        2.3確定獲勝子網(wǎng)絡(luò)

        本文采用三種方法確定獲勝子網(wǎng)絡(luò),分別是用最近中心確定獲勝子網(wǎng)絡(luò)、最大概率確定獲勝子網(wǎng)絡(luò)、最近中心與最大概率相結(jié)合的方法確定獲勝子網(wǎng)絡(luò)。

        2.3.1最近中心確定獲勝子網(wǎng)絡(luò)

        RBF是一種局部分布的、中心對(duì)稱(chēng)衰減的非負(fù)非線性函數(shù)[11]。局部分布是指僅當(dāng)輸入落在輸入空間一個(gè)很小的指定區(qū)域時(shí),隱單元的徑向基函數(shù)才做出有意義的非零響應(yīng)。中心徑向?qū)ΨQ(chēng)衰減是指與基函數(shù)中心徑向距離相同的輸入,隱節(jié)點(diǎn)中的徑向基函數(shù)都產(chǎn)生相同的輸出[12]。并且輸入與RBF的中心越近,核函數(shù)的響應(yīng)越大,所以本論文中子網(wǎng)絡(luò)與集成系統(tǒng)輸出之間的權(quán)值由測(cè)試數(shù)據(jù)與RBF的最近中心決定,所謂最近中心就是指輸入數(shù)據(jù)與RBF所有中心的徑向距離中最小的一個(gè)中心。圖2為最近中心確定獲勝子網(wǎng)絡(luò)增量學(xué)習(xí)方法。

        圖2 最近中心法確定獲勝子網(wǎng)絡(luò)方法

        具體算法如下:

        (1) 計(jì)算測(cè)試數(shù)據(jù)與網(wǎng)絡(luò)集成中心的徑向距離,找出徑向距離最小的中心,即為最近中心。

        (2) 判斷最近中心所屬子網(wǎng)絡(luò),即為獲勝子網(wǎng)絡(luò);獲勝子網(wǎng)絡(luò)的輸出權(quán)值為1,非獲勝子網(wǎng)絡(luò)的輸出權(quán)值為0。

        RBF訓(xùn)練過(guò)程中不能去除噪聲數(shù)據(jù),而且網(wǎng)絡(luò)的中心個(gè)數(shù)是有限的,如果中心太多RBF的訓(xùn)練會(huì)出現(xiàn)過(guò)擬合現(xiàn)象。由于RBF中心個(gè)數(shù)的限制,每個(gè)中心都包含了一部分特征信息,導(dǎo)致網(wǎng)絡(luò)中心不能完全包含所有的特征信息。如果兩個(gè)子網(wǎng)絡(luò)的訓(xùn)練數(shù)據(jù)特別相似,就會(huì)出現(xiàn)部分中心相似性,當(dāng)用最近中心確定獲勝子網(wǎng)時(shí),很有可能選錯(cuò)子網(wǎng)絡(luò)。而通過(guò)SOM學(xué)習(xí)得到的原型向量包含了訓(xùn)練數(shù)據(jù)更多的特征信息,同時(shí)也會(huì)去除噪聲數(shù)據(jù),所以本文考慮采用SOM的原型向量進(jìn)一步確定獲勝子網(wǎng)絡(luò)。

        2.3.2最大概率確定獲勝子網(wǎng)絡(luò)

        SOM是無(wú)導(dǎo)師學(xué)習(xí)的方法,具有良好的自組織能力。通過(guò)SOM學(xué)習(xí)可以去除含有噪聲的特征數(shù)據(jù),得到更為緊湊的原型向量,并且原型向量的維數(shù)和輸入數(shù)據(jù)的維數(shù)相同,用得到的原型向量來(lái)構(gòu)建PNN。SOM[12,13]訓(xùn)練時(shí),采用批量處理的訓(xùn)練方式,鄰域函數(shù)為高斯函數(shù)。

        具體算法如下:

        (2) 根據(jù)劃分到Voronoi區(qū)域Vj中的樣本個(gè)數(shù)nj,計(jì)算這些樣本的均值,公式如下:

        (10)

        其中,xp∈Vj,1≤p≤nj。

        (3) 更新原型向量:

        (11)

        其中,hjk(t)為鄰域函數(shù),hjk(t)依賴(lài)于獲勝神經(jīng)元k和興奮神經(jīng)元j在輸出空間的側(cè)向距離,本文中鄰域函數(shù)為高斯函數(shù)。

        由于k-均值聚類(lèi)法沒(méi)有對(duì)訓(xùn)練數(shù)據(jù)進(jìn)行去除噪聲,不同網(wǎng)絡(luò)的相似性高的訓(xùn)練數(shù)據(jù)會(huì)得到相似的中心,從而在選擇獲勝子網(wǎng)絡(luò)時(shí)發(fā)生錯(cuò)誤,所以增加了子網(wǎng)絡(luò)的最大概率這個(gè)判定條件,圖3為最大概率確定獲勝網(wǎng)絡(luò)的整體增量學(xué)習(xí)過(guò)程圖。

        圖3 增量學(xué)習(xí)過(guò)程

        最大概率確定獲勝子網(wǎng)絡(luò)具體算法如下:

        (12)

        p(x|ωj)=max(pl(x|ωj))

        (13)

        式中,第j個(gè)子網(wǎng)絡(luò)的概率p(x|ωj)為pl(x|ωj)中最大的一個(gè)。其中δ為平滑因子,公式如下:

        (14)

        其中‖χu,l-χu,j‖為兩個(gè)原型向量的徑向距離。

        2.3.3最近中心與最大概率確定獲勝子網(wǎng)絡(luò)

        經(jīng)過(guò)多次的實(shí)驗(yàn)發(fā)現(xiàn),最近中心和次近中心如果屬于同一個(gè)子網(wǎng)絡(luò),那么僅根據(jù)最近中心確定的獲勝子網(wǎng)絡(luò)輸出的結(jié)果正確率很高,所謂最近中心就是指輸入數(shù)據(jù)與RBF所有中心的徑向距離中最小的一個(gè)中心,輸入數(shù)據(jù)與RBF所有中心的徑向距離中第二小的中心為次近中心;如果最近中心和次近中心所屬的子網(wǎng)絡(luò)不同,那么僅根據(jù)最近中心確定的獲勝子網(wǎng)絡(luò)對(duì)結(jié)果的輸出,有少部分會(huì)出現(xiàn)錯(cuò)誤。這就說(shuō)明當(dāng)最近中心和次近中心所屬子網(wǎng)絡(luò)不同時(shí),它們所屬的子網(wǎng)絡(luò)都有可能為真正的獲勝子網(wǎng)絡(luò),僅憑借最近中心確定的獲勝的正確率顯然要低。

        最大概率法確定獲勝子網(wǎng)絡(luò)也存在上述問(wèn)題,所以想結(jié)合以上兩種方法來(lái)解決該問(wèn)題。本文又提出了最近中心與最大概率相結(jié)合的方法來(lái)確定獲勝子網(wǎng)絡(luò)。

        該方法的主要思想是:如果最近中心和次近中心所屬的子網(wǎng)絡(luò)是同一個(gè)網(wǎng)絡(luò),那么它們所在的網(wǎng)絡(luò)為獲勝子網(wǎng)絡(luò);如果最近中心和次近中心的所屬的網(wǎng)絡(luò)不同,并且最近中心所在子網(wǎng)絡(luò)的最大概率大于次近中心所在網(wǎng)絡(luò)的最大概率,那么最近中心所在子網(wǎng)絡(luò)為獲勝子網(wǎng)絡(luò);如果最近中心和次近中心所屬子網(wǎng)絡(luò)不同,而且最近中心所在子網(wǎng)絡(luò)的最大概率小于次近中心所在網(wǎng)絡(luò)的最大概率,就要考慮最近中心和次近中心距離了,假設(shè)最近中心、次近中心的徑向距離分別為d1和d2,并且d1≤d2,離中心越近,核函數(shù)的響應(yīng)越大,所以d1/(d1+d2)的取值越小,代表最近中心的重要性越大。最近中心和次近中心所在子網(wǎng)的最大概率為pj和pg,j=1,2,…,u;g=1,2,…,u,圖4為最近中心與最大概率確定獲勝子網(wǎng)絡(luò)方法。

        圖4 最近中心與最大概率確定獲勝子網(wǎng)絡(luò)方法

        具體算法如下:

        (1) 計(jì)算出測(cè)試數(shù)據(jù)與最近中心、次近中心的徑向距離d1和d2,并用PNN求出最近中心和次近中心所在子網(wǎng)絡(luò)的最大概率pj和pg。

        (2) 如果最近中心和次近中心屬于相同的網(wǎng)絡(luò),則最近中心和次近中心所在的網(wǎng)絡(luò)為獲勝子網(wǎng)絡(luò),輸出權(quán)值為1;其他網(wǎng)絡(luò)為非獲勝子網(wǎng)絡(luò),輸出權(quán)值為0。

        (3) 如果最近中心和次近中心屬于不同的網(wǎng)絡(luò)yj和yg,pj大于等于pg,則yj為獲勝子網(wǎng),輸出權(quán)值為1;其他網(wǎng)絡(luò)為非獲勝子網(wǎng)絡(luò),輸出權(quán)值為0。

        (4) 如果最近中心和次近中心屬于不同的子網(wǎng)絡(luò)yj和yg,pj小于pg,d1/(d1+d2)大于閾值T,則yg為獲勝子網(wǎng)絡(luò),輸出權(quán)值為1;其他網(wǎng)絡(luò)為非獲勝子網(wǎng)絡(luò),輸出權(quán)值為0。

        (5) 如果最近中心和次近中心屬于不同的子網(wǎng)絡(luò)yj和yg,pj小于pg,d1/(d1+d2)小于閾值T,則yj為獲勝子網(wǎng)絡(luò),輸出權(quán)值為1;其他網(wǎng)絡(luò)為非獲勝子網(wǎng)絡(luò),輸出權(quán)值為0。

        3實(shí)驗(yàn)結(jié)果分析

        本文采用自組織映射與概率神經(jīng)網(wǎng)絡(luò)的增量式學(xué)習(xí)算法(IMSOMPNN)的實(shí)驗(yàn)數(shù)據(jù)[13]。該實(shí)驗(yàn)數(shù)據(jù)為UCI機(jī)器學(xué)習(xí)庫(kù)中Statlog(LandsatSatellite)數(shù)據(jù)集。該數(shù)據(jù)集共有36個(gè)屬性,6個(gè)類(lèi)別 ,6435個(gè)樣本,其中4435個(gè)是訓(xùn)練樣本,2000個(gè)為測(cè)試樣本。T1∪T2∪…∪T6,分別代表6個(gè)類(lèi)別的訓(xùn)練數(shù)據(jù),6個(gè)類(lèi)別的測(cè)試數(shù)據(jù)為E1∪E2∪…∪E6。

        3.1最近中心確定獲勝子網(wǎng)絡(luò)的單類(lèi)別增量學(xué)習(xí)

        首先使用T1∪T2來(lái)訓(xùn)練一個(gè)初始的RBF網(wǎng)絡(luò)集成系統(tǒng),然后使用E1∪E2來(lái)對(duì)模型進(jìn)行測(cè)試;在第t步(2≤t≤5)時(shí),用Tt+1訓(xùn)練一個(gè)RBF網(wǎng)絡(luò),并把新訓(xùn)練的RBF加入到RBF集成系統(tǒng)中,然后使用E1∪E2∪…∪Et+1測(cè)試模型。表1為最近中心確定獲勝子網(wǎng)絡(luò)的單類(lèi)別增量學(xué)習(xí)結(jié)果。

        表1 最近中心確定獲勝子網(wǎng)絡(luò)的增量學(xué)習(xí)

        3.2最大概率確定獲勝子網(wǎng)絡(luò)的單類(lèi)別增量學(xué)習(xí)

        首先使用T1∪T2來(lái)訓(xùn)練一個(gè)初始的RBF網(wǎng)絡(luò)集成系統(tǒng),訓(xùn)練一個(gè)SOM神經(jīng)網(wǎng)絡(luò),從而得到SOM的原型向量。然后使用E1∪E2來(lái)對(duì)模型進(jìn)行測(cè)試;在第t步(2≤t≤5)時(shí),用Tt+1訓(xùn)練一個(gè)RBF網(wǎng)絡(luò)和一個(gè)SOM,并把新訓(xùn)練的RBF加入到RBF集成系統(tǒng)中,把新的SOM原型向量加入到神經(jīng)網(wǎng)絡(luò)集成系統(tǒng)中,然后使用E1∪E2∪…∪Et+1測(cè)試模型。如表2所示。

        表2 最大概率確定獲勝子網(wǎng)絡(luò)的單類(lèi)別增量學(xué)習(xí)

        3.3最近中心與最大概率確定獲勝子網(wǎng)絡(luò)的單類(lèi)別增量學(xué)習(xí)

        首先使用T1∪T2來(lái)訓(xùn)練一個(gè)初始的RBF網(wǎng)絡(luò)集成系統(tǒng),訓(xùn)練一個(gè)SOM神經(jīng)網(wǎng)絡(luò),從而得到SOM的原型向量。然后使用E1∪E2來(lái)對(duì)模型進(jìn)行測(cè)試;在第t步(2≤t≤5)時(shí),用Tt+1訓(xùn)練一個(gè)RBF網(wǎng)絡(luò)和一個(gè)SOM,并把新訓(xùn)練的RBF加入到RBF集成系統(tǒng)中,把新的SOM原型向量加入到神經(jīng)網(wǎng)絡(luò)集成系統(tǒng)中,然后使用E1∪E2∪…∪Et+1測(cè)試模型。表3為最近中心與最大概率確定獲勝子網(wǎng)絡(luò)的單類(lèi)別增量學(xué)習(xí)結(jié)果。

        表3 最近中心與最大概率確定獲勝子網(wǎng)絡(luò)的單類(lèi)別增量學(xué)習(xí)

        3.4IMSOMPNN

        首先,使用T1∪T2來(lái)訓(xùn)練一個(gè)初始的IMSOMPNN,然后使用E1∪E2來(lái)對(duì)模型行進(jìn)行測(cè)試;在第t步2≤t≤5時(shí),將Tt+1提交至IMSOMPNN進(jìn)行增量學(xué)習(xí),然后使用E1∪E2∪…∪Et+1測(cè)試模型。表4給出了增量學(xué)習(xí)的每一步中,模型分類(lèi)性能的變化。表4為自組織映射與概率神經(jīng)網(wǎng)絡(luò)相結(jié)合的單類(lèi)別增量學(xué)習(xí)結(jié)果。

        表4 自組織映射與概率神經(jīng)網(wǎng)絡(luò)相結(jié)合的增量學(xué)習(xí)

        3.5最大概率確定獲勝子網(wǎng)絡(luò)的多類(lèi)別增量學(xué)習(xí)

        為了體現(xiàn)每次增量學(xué)習(xí)可以實(shí)現(xiàn)多個(gè)類(lèi)別的學(xué)習(xí),本次實(shí)驗(yàn)第一步使用T1∪T2訓(xùn)練一個(gè)初始的RBF網(wǎng)絡(luò)集成系統(tǒng)和SOM,然后使用E1∪E2來(lái)對(duì)模型進(jìn)行測(cè)試;第二步使用T3訓(xùn)練一個(gè)RBF和SOM,并把新訓(xùn)練的RBF加入RBF網(wǎng)絡(luò)集成系統(tǒng)中,用E3對(duì)模型進(jìn)行測(cè)試;第三步使用T4∪T5訓(xùn)練一個(gè)RBF和SOM,并把新訓(xùn)練的RBF加入到RBF集成系統(tǒng)中,用E4∪E5對(duì)模型進(jìn)行測(cè)試;第四步使用T6訓(xùn)練一個(gè)RBF和SOM,并把新訓(xùn)練的RBF加入到RBF集成系統(tǒng)中,用E6對(duì)模型進(jìn)行測(cè)試。表5為最大概率確定獲勝子網(wǎng)絡(luò)的多類(lèi)別增量學(xué)習(xí)結(jié)果。

        表5 最大概率確定獲勝子網(wǎng)絡(luò)的多類(lèi)別增量學(xué)習(xí)

        3.6實(shí)驗(yàn)分析

        圖6為四種方法的性能對(duì)比圖。從結(jié)果和性能對(duì)比圖上可以看出最近中心確定獲勝子網(wǎng)絡(luò)的性能比較低,其他三種方法的性能相差不多,都沒(méi)有遺忘已學(xué)知識(shí),同時(shí)也可以學(xué)習(xí)新類(lèi)別的知識(shí),每次增量學(xué)習(xí)只增加一個(gè)子網(wǎng)絡(luò),避免了網(wǎng)絡(luò)系統(tǒng)過(guò)于龐大的問(wèn)題。

        圖6 單類(lèi)別學(xué)習(xí)性能對(duì)比圖

        IMSOMPNN對(duì)六類(lèi)知識(shí)學(xué)習(xí)需要學(xué)習(xí)六次,也就是每次只能學(xué)習(xí)一個(gè)類(lèi)別的知識(shí),不能進(jìn)行多個(gè)類(lèi)別知識(shí)的學(xué)習(xí),會(huì)使得學(xué)習(xí)過(guò)程很繁瑣,不具有實(shí)用性。多類(lèi)別增量學(xué)習(xí)實(shí)驗(yàn)證實(shí)了該網(wǎng)絡(luò)可以進(jìn)行多個(gè)類(lèi)別的增量學(xué)習(xí),表5給出了實(shí)驗(yàn)結(jié)果。通過(guò)實(shí)驗(yàn)表明了本文的方法既可以單個(gè)類(lèi)別的增量學(xué)習(xí),也可以進(jìn)行多類(lèi)別的增量學(xué)習(xí),即在第3步增量學(xué)習(xí)中,同時(shí)學(xué)習(xí)了類(lèi)別4和類(lèi)別5的知識(shí),這是IMSOMPNN所不能實(shí)現(xiàn)的,在現(xiàn)實(shí)生活中多類(lèi)別的增量學(xué)習(xí)更具有使用價(jià)值。

        從以上實(shí)驗(yàn)可知,本文方法每次增量學(xué)習(xí)只增加了一個(gè)子網(wǎng)絡(luò),避免了網(wǎng)絡(luò)系統(tǒng)過(guò)于龐大的問(wèn)題,同時(shí)在保證性能基本不變的基礎(chǔ)上實(shí)現(xiàn)了多個(gè)類(lèi)別的學(xué)習(xí),具有實(shí)用意義。

        4結(jié)語(yǔ)

        本文提出了一種基于RBF的集成增量學(xué)習(xí)的神經(jīng)網(wǎng)絡(luò)。這種增量學(xué)習(xí)模型主要是通過(guò)最近中心法、最大概率法以及以上兩種方法相結(jié)合的方法來(lái)決定獲勝子網(wǎng)絡(luò),通過(guò)獲勝網(wǎng)絡(luò)進(jìn)而得到最終輸出。這種增量學(xué)習(xí)系統(tǒng)是建立在系統(tǒng)穩(wěn)定的基礎(chǔ)上進(jìn)行增量學(xué)習(xí)的,所以對(duì)已學(xué)知識(shí)沒(méi)有遺忘,同時(shí)避免了逐個(gè)類(lèi)別訓(xùn)練的繁瑣性和網(wǎng)絡(luò)系統(tǒng)過(guò)于龐大的問(wèn)題。該算法通過(guò)確定獲勝子網(wǎng)絡(luò)的方法進(jìn)行確定獲勝子網(wǎng)絡(luò),最終結(jié)果由獲勝子網(wǎng)絡(luò)進(jìn)行輸出。獲勝子網(wǎng)絡(luò)中可能包含單類(lèi)別信息,也可能包含多個(gè)類(lèi)別的信息,從而既可以實(shí)現(xiàn)單類(lèi)別增量學(xué)習(xí),也可以實(shí)現(xiàn)多個(gè)類(lèi)別的增量學(xué)習(xí),通過(guò)實(shí)驗(yàn)論證了該方法的有效性。

        參考文獻(xiàn)

        [1]GrossbergS.Nonlinearneuralnetworks:Principles,mechanismsandarchitectures[J].NeuralNetworks,1988,1(1):17-61.

        [2]PolikarR,UpdaL,UpdaSS,etal.Learn++:Anincrementallearningalgorithmforsupervisedneuralnetworks[J].Systems,Man,andCybernetics,PartC:ApplicationsandReviews,IEEETransactionson,2001,31(4):497-508.

        [3]MinkuFL,InoueH,YaoX.Negativecorrelationinincrementallearning[J].NaturalComputing,2009,8(2):289-320.

        [4] 林民龍.基于神經(jīng)網(wǎng)絡(luò)集成的增量式學(xué)習(xí)[D].中國(guó)科學(xué)技術(shù)大學(xué),2012.

        [5]WangN,ErMJ,MengX.Afastandaccurateonlineself-organizingschemeforparsimoniousfuzzyneuralnetworks[J].Neurocomputing,2009,72(16):3818-3829.

        [6] 胡蓉,徐蔚鴻,甘嵐.一種連續(xù)增量學(xué)習(xí)模糊神經(jīng)網(wǎng)絡(luò)[J].模式識(shí)別與人工智能,2013,26(8):794-799.

        [7] 夏長(zhǎng)亮,王明超.基于RBF神經(jīng)網(wǎng)絡(luò)的開(kāi)關(guān)磁阻電機(jī)單神經(jīng)元PID控制[J].中國(guó)電機(jī)工程學(xué)報(bào),2005,25(15):161-165.

        [8] 鄧?yán)^雄,李志舜,梁紅.確定RBF神經(jīng)網(wǎng)絡(luò)參數(shù)的新方法[J].微處理機(jī),2006,27(4):48-49.

        [9] 劉小華,劉沛,張步涵,等.逐級(jí)均值聚類(lèi)算法的RBFN模型在負(fù)荷預(yù)測(cè)中的應(yīng)用[J].中國(guó)電機(jī)工程學(xué)報(bào),2004,24(2):17-21.

        [10] 李鑫濱,楊景明,丁喜峰.基于遞推k-均值聚類(lèi)算法的RBF神經(jīng)網(wǎng)絡(luò)及其在系統(tǒng)辨識(shí)中的應(yīng)用[J].燕山大學(xué)學(xué)報(bào),1999,23(4):363-366.

        [11] 王永驥,涂健.神經(jīng)元網(wǎng)絡(luò)控制[M].北京:機(jī)械工業(yè)出版社,1998:68.

        [12]YuDJ,ShenHB,YangJY.SOMPNN:anefficientnon-parametricmodelforpredictingtransmembranehelices[J].Aminoacids,2012,42(6):2195-2205.

        [13] 戚湧,胡俊,於東軍.基于自組織映射與概率神經(jīng)網(wǎng)絡(luò)的增量式學(xué)習(xí)算法[J].南京理工大學(xué)學(xué)報(bào):自然科學(xué)版,2013(1):1-6.

        RESEARCH ON RBF NEURAL NETWORK-BASED ENSEMBLE INCREMENTALLEARNINGALGORITHM

        Peng YuqingZhao CuicuiGao Qingqing

        (School of Computer Science and Engineering,Hebei University of Technology,Tianjin 300401,China)

        AbstractAiming at the forgetfulness problem of incremental learning and the excessive network growth problem of the integrated incremental learning, this paper proposes an integrated incremental learning method which is based on the radial basis function (RBF) neural network. In order to avoid the forgetfulness of the network, for each knowledge learning of new category we all trained an RBF neural network, and added the newly trained RBF neural network to the integrated system so as to form a large system of neural networks. To determine the winning sub-network, we adopted the nearest centre method, the maximum probability method and the combination of these two methods, and the final result was outputted by the winning sub-network. Moreover, we introduced the prototype vectors of self-organising map to maximum probability method for solving the problem of class centre similarity. For verifying the proposed network incremental learning, we made the experiments using the Statlog (Landsat Satellite) dataset in UCI machine learning library. Experimental results showed that after learning the knowledge of new category, this network could accept the new without forgetting the learned knowledge.

        KeywordsRBFSOMIncremental learning

        收稿日期:2015-01-13。國(guó)家自然科學(xué)基金項(xiàng)目(51175145);天津市自然科學(xué)基金項(xiàng)目(13JCYBJC15400);河北省高等學(xué)??茖W(xué)技術(shù)研究項(xiàng)目(ZD2014030)。彭玉青,教授,主研領(lǐng)域:計(jì)算機(jī)視覺(jué),數(shù)據(jù)庫(kù),智能信息處理。趙翠翠,碩士生。高晴晴,碩士生。

        中圖分類(lèi)號(hào)TP183

        文獻(xiàn)標(biāo)識(shí)碼A

        DOI:10.3969/j.issn.1000-386x.2016.06.059

        猜你喜歡
        增量權(quán)值類(lèi)別
        一種融合時(shí)間權(quán)值和用戶(hù)行為序列的電影推薦模型
        提質(zhì)和增量之間的“辯證”
        CONTENTS
        “價(jià)增量減”型應(yīng)用題點(diǎn)撥
        基于權(quán)值動(dòng)量的RBM加速學(xué)習(xí)算法研究
        基于均衡增量近鄰查詢(xún)的位置隱私保護(hù)方法
        服務(wù)類(lèi)別
        德州儀器(TI)發(fā)布了一對(duì)32位增量-累加模數(shù)轉(zhuǎn)換器(ADC):ADS1262和ADS126
        論類(lèi)別股東會(huì)
        商事法論集(2014年1期)2014-06-27 01:20:42
        中醫(yī)類(lèi)別全科醫(yī)師培養(yǎng)模式的探討
        亚洲aⅴ久久久噜噜噜噜| 亚洲国产成人久久综合| 国产chinese男男gay视频网| 欧洲一区在线观看| 亚洲av高清一区三区三区| 国产女人精品视频国产灰线| 久久和欧洲码一码二码三码| 亚洲欧洲国产日产国码无码| 日韩精品有码中文字幕 | 亚洲大尺度动作在线观看一区| 亚洲本色精品一区二区久久| 蜜臀亚洲av无码精品国产午夜.| 人妻妺妺窝人体色www聚色窝| 国产一线视频在线观看高清| 久久想要爱蜜臀av一区二区三区| 日韩av高清在线观看| 欧性猛交ⅹxxx乱大交| 中国老太老肥熟女视频| 国产亚洲av成人噜噜噜他| 国产av无码专区亚洲av毛网站| 欧美一欧美一区二三区性| 综合人妻久久一区二区精品| 一区二区三区最新中文字幕| 久久综合精品国产一区二区三区无码 | 免费观看激色视频网站| 日本一区二区啪啪视频| 国产自拍三级黄片视频| 亚洲精品无码永久在线观看| a级黑人大硬长爽猛出猛进| 久久久亚洲欧洲日产国码是AV| 国产tv不卡免费在线观看| 久久久久亚洲av无码麻豆| 青草热久精品视频在线观看| 一区二区视频资源在线观看| 影音先锋久久久久av综合网成人| 成人看片黄a免费看那个网址| 欧美丝袜激情办公室在线观看| 北条麻妃在线中文字幕| 亚洲欧美综合区自拍另类| 国产一级在线现免费观看| 精品国产中文久久久免费|