亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于小世界網(wǎng)絡(luò)的Hopfield聯(lián)想記憶模型

        2014-09-13 12:56:08張瑞成胡緒磊
        智能系統(tǒng)學(xué)報(bào) 2014年2期
        關(guān)鍵詞:權(quán)值概率矩陣

        張瑞成,胡緒磊

        (河北聯(lián)合大學(xué) 電氣工程學(xué)院,河北 唐山 063009)

        聯(lián)想記憶神經(jīng)網(wǎng)絡(luò)是人工神經(jīng)網(wǎng)絡(luò)的一個(gè)重要組成部分,但網(wǎng)絡(luò)復(fù)雜度過高,硬件難以實(shí)現(xiàn)等問題嚴(yán)重地制約著聯(lián)想記憶網(wǎng)絡(luò)的研究和發(fā)展[1]。近年來,在生物學(xué)背景下提出的Watts-Strogatz小世界網(wǎng)絡(luò)模型為聯(lián)想記憶網(wǎng)絡(luò)的研究提供了一種新的途徑[2]。J.W.Bohland等率先將Watts-Strogatz小世界網(wǎng)絡(luò)引入傳統(tǒng)全互聯(lián)Hopfield模型中,提出了一種基于WS小世界網(wǎng)絡(luò)的聯(lián)想記憶模型(WSAM)[3]。隨后,在此基礎(chǔ)上進(jìn)行了相關(guān)研究[4-6],然而從研究結(jié)果分析發(fā)現(xiàn),WS小世界網(wǎng)絡(luò)在構(gòu)造過程中進(jìn)行“斷鍵重連”,可以降低網(wǎng)絡(luò)的連接數(shù)量,因此將其引入到聯(lián)想記憶網(wǎng)絡(luò)中確實(shí)可以解決復(fù)雜度過高的問題,但同時(shí)“斷鍵重連”也會(huì)造成重要信息的丟失,使網(wǎng)絡(luò)性能變差。

        針對(duì)WS小世界網(wǎng)絡(luò)的這一問題,Newman和Watts提出了Newman-Watts小世界網(wǎng)絡(luò)模型[7],用“隨機(jī)加邊”代替了“斷鍵重連”,從而有效地保護(hù)了連接權(quán)上的信息,同時(shí)還可以避免產(chǎn)生孤立節(jié)點(diǎn)[7]。鑒于以上分析,提出了一種基于NW小世界網(wǎng)絡(luò)的聯(lián)想記憶模型(NWAM),借鑒現(xiàn)有小世界聯(lián)想記憶模型的思想給出該模型的生成方法和相應(yīng)的理論算法,并設(shè)計(jì)實(shí)驗(yàn)對(duì)比NWAM與WSAM的聯(lián)想和記憶性能以及抗干擾能力。

        1 NW小世界網(wǎng)絡(luò)模型

        Newman和Watts在WS小世界的基礎(chǔ)上提出NW小世界模型,用“隨機(jī)加邊”來代替WS模型中的“斷鍵重連”,從而保證了網(wǎng)絡(luò)的整體連通性。其實(shí)質(zhì)是在規(guī)則網(wǎng)絡(luò)的基礎(chǔ)上以概率p隨機(jī)化加邊,從而形成稀疏的長程連接和稠密的短程連接。

        NW小世界模型的構(gòu)造算法[8-9]如下:

        1)從一個(gè)包含N個(gè)節(jié)點(diǎn)的規(guī)則網(wǎng)絡(luò)出發(fā),網(wǎng)絡(luò)圍成環(huán)形且每個(gè)節(jié)點(diǎn)只與它相鄰的K個(gè)節(jié)點(diǎn)相連;

        2)從某一節(jié)點(diǎn)出發(fā),按照概率p隨機(jī)地選擇新的節(jié)點(diǎn)進(jìn)行連接,節(jié)點(diǎn)自身和已連接節(jié)點(diǎn)除外;

        3)重復(fù)2),直到遍歷所有節(jié)點(diǎn),最終形成NW小世界模型。

        NW模型是在規(guī)則網(wǎng)絡(luò)中增加了“長程”連接,通過變化概率p,可以得到從規(guī)則網(wǎng)絡(luò)(p=0)到隨機(jī)網(wǎng)絡(luò)(p=1)的一個(gè)變化過程,如圖1。

        圖1 NW網(wǎng)絡(luò)體系結(jié)構(gòu)演化Fig.1 The diagram of regular networks, NW small world network and random network

        在模型中每個(gè)節(jié)點(diǎn)將其輸出反饋給它的K=cN個(gè)最近的相鄰節(jié)點(diǎn),c=K/N表示網(wǎng)絡(luò)的全局連接度。與WS模型相比,NW小世界模型的構(gòu)造更加方便,而且不會(huì)破壞原網(wǎng)絡(luò)的連接,從而保證了網(wǎng)絡(luò)的連通性。雖然NW模型中的連接邊有少量的增加,但是由于小世界網(wǎng)絡(luò)的特殊性質(zhì),概率p保持在很小范圍內(nèi),增加的連接邊數(shù)也很少,對(duì)網(wǎng)絡(luò)整體復(fù)雜度影響不大。而合理地添加捷徑,使信息更加完整地進(jìn)行傳遞,模型的性能更加完善。在NW小世界網(wǎng)絡(luò)模型中,用少量連接代價(jià)換取了性能上的顯著提高。

        2 基于NW型小世界網(wǎng)絡(luò)Hopfield

        聯(lián)想記憶模型

        2.1 模型的生成

        聯(lián)想記憶模型具有良好的聯(lián)想記憶功能,但是網(wǎng)絡(luò)結(jié)構(gòu)復(fù)雜,且復(fù)雜度較高。將NW小世界網(wǎng)絡(luò)引入聯(lián)想記憶模型中可以在保證網(wǎng)絡(luò)性能的前提下,降低網(wǎng)絡(luò)的復(fù)雜度,化簡網(wǎng)絡(luò)結(jié)構(gòu),而且與WS小世界模型相比,性能更完善、更穩(wěn)定。

        基于NW小世界網(wǎng)絡(luò)的聯(lián)想記憶模型的構(gòu)造流程如下:

        1)按照第1節(jié)中介紹的方法從一個(gè)平均度為K的規(guī)則網(wǎng)絡(luò)開始,按照概率p隨機(jī)地選擇新的節(jié)點(diǎn)進(jìn)行連接,構(gòu)建出一個(gè)NW小世界網(wǎng)絡(luò)模型。

        2)定義連接矩陣C表示NW小世界網(wǎng)絡(luò)的連接情況,若神經(jīng)元i,j存在連接,則cij=1;若不存在連接,則cij=0。

        3)根據(jù)傳統(tǒng)Hopfield網(wǎng)絡(luò)構(gòu)建方法構(gòu)建一個(gè)與NW網(wǎng)絡(luò)神經(jīng)元個(gè)數(shù)相同的全互聯(lián)結(jié)構(gòu)聯(lián)想記憶網(wǎng)絡(luò),并使用傳統(tǒng)聯(lián)想記憶網(wǎng)絡(luò)學(xué)習(xí)規(guī)則得到其連接權(quán)值矩陣W={wij}。

        4)將W與C做點(diǎn)乘得到W*,通過NW網(wǎng)絡(luò)的連接矩陣C對(duì)Hopfield網(wǎng)絡(luò)連接權(quán)值矩陣W進(jìn)行優(yōu)化,W*為基于NW小世界網(wǎng)絡(luò)的聯(lián)想記憶模型的連接權(quán)矩陣。

        5)根據(jù)W*為連接權(quán)值矩陣,建立基于NW小世界網(wǎng)絡(luò)的聯(lián)想記憶模型。

        該模型保留了聯(lián)想記憶的功能,又具有小世界特性,在保證網(wǎng)絡(luò)性能的前提下,運(yùn)用小世界思想將全連接結(jié)構(gòu)很大程度上地進(jìn)行了稀疏化,從而大大地減小了模型的復(fù)雜度,由于神經(jīng)元之間的平均連接規(guī)模被有效降低,更有利于網(wǎng)絡(luò)的硬件實(shí)現(xiàn),在運(yùn)算速度上也更快。

        2.2 模型的算法

        模型的工作過程與傳統(tǒng)聯(lián)想記憶相似,也分為記憶階段和聯(lián)想階段。記憶階段就是根據(jù)網(wǎng)絡(luò)結(jié)構(gòu),設(shè)計(jì)或?qū)W習(xí)網(wǎng)絡(luò)的連接權(quán)值,使模型具有若干個(gè)穩(wěn)定狀態(tài);聯(lián)想階段就是根據(jù)給定輸入模式,通過動(dòng)力學(xué)演化到穩(wěn)定狀態(tài),回想起已存儲(chǔ)模式的過程[10]。

        2.2.1 記憶階段

        記憶階段就是一個(gè)對(duì)權(quán)值學(xué)習(xí)和確定的過程,記憶階段的完成應(yīng)該形成網(wǎng)絡(luò)的連接權(quán)值矩陣。假設(shè)基于NW小世界網(wǎng)絡(luò)的聯(lián)想記憶模型中有N個(gè)神經(jīng)元,它的連接矩陣可以用C={cij}來表示,如果神經(jīng)元i到j(luò)之間存在一個(gè)連接,那么cij=1,如果不存在連接,cij=0,最終得到表示模型存在連接關(guān)系的矩陣C:

        cii=0,cij=cji

        (1)

        假設(shè)模型為全互聯(lián)Hopfield網(wǎng)絡(luò),使用Hebb學(xué)習(xí)規(guī)則來確定模型的權(quán)值矩陣W={wij},且wii=0,wij=wji,權(quán)值可以表示為

        (2)

        由式(1)、(2),通過重連概率p確定NW小世界網(wǎng)絡(luò)的連接矩陣,進(jìn)一步利用其對(duì)模型的權(quán)值矩陣W={wij}進(jìn)行化簡,可得出基于NW小世界網(wǎng)絡(luò)的聯(lián)想記憶模型的連接權(quán)值矩陣W*:

        (3)

        2.2.2 聯(lián)想階段

        聯(lián)想階段就是在已知權(quán)值矩陣的基礎(chǔ)上構(gòu)建網(wǎng)絡(luò)模型,然后將給定的模式輸入到模型中進(jìn)行處理,通過動(dòng)力學(xué)演化最終達(dá)到穩(wěn)定狀態(tài),回想起已存儲(chǔ)的模式。

        假設(shè)有一組待記憶的N維模式列向量ξμ,μ={1,2,…,M},ξu為任意輸入模式,ξu′為ξu的下一個(gè)狀態(tài),網(wǎng)絡(luò)的動(dòng)力學(xué)演化方程為

        ξμ′=sgn(W*ξμ)

        (4)

        當(dāng)網(wǎng)絡(luò)狀態(tài)按照式(4)不斷演化到達(dá)穩(wěn)定狀態(tài)時(shí),定義參數(shù)R為

        (5)

        式(5)表示得到的輸出模式ξ′與已存儲(chǔ)模式ξ的相似度,可以用來作為衡量模型聯(lián)想記憶性能和抗干擾能力的指標(biāo)。

        3 仿真與分析

        為了驗(yàn)證引入NW小世界網(wǎng)絡(luò)來代替WS小世界網(wǎng)絡(luò)后模型的性能得到了提高,給出如下 2個(gè)實(shí)驗(yàn)進(jìn)行分析。分別討論NWAM 與WSAM關(guān)于不同參數(shù)聯(lián)想記憶性能的對(duì)比,以及2種模型同時(shí)用于含噪交通標(biāo)志圖像識(shí)別時(shí)的效果對(duì)比。

        為了表示理解,將原始交通圖像作為以存儲(chǔ)模式ξ,最終識(shí)別圖像為輸出模式ξ′,因此參數(shù)R可以表示圖像的相似程度,定義為圖像的重復(fù)度。

        實(shí)驗(yàn)1 NWAM與WSAM 聯(lián)想記憶性能對(duì)比分析。

        1)考察模型在其他條件相同,重連概率p不同的情況下模型的聯(lián)想記憶性能。

        為了便于判斷和分析,模型取神經(jīng)元個(gè)數(shù)N=2 500,模式M=10,平均度K=50,全局連接度c=0.02。比較NWAM和WSAM對(duì)隨機(jī)加噪 30% 模式的聯(lián)想記憶能力。實(shí)驗(yàn)結(jié)果如圖2所示。

        圖2 不同重連概率下,2種模型記憶性能比較Fig.2 Simulation results of NWAM and WSAM with different probabilities

        實(shí)驗(yàn)結(jié)果顯示,在其他條件相同的情況下,當(dāng)重連概率p不斷增加時(shí),2種模型的聯(lián)想記憶性都能得到極大的改善,但是NWAM的性能提高的程度要明顯高于WSAM,在任意相同概率p下,NWAM對(duì)加噪模式聯(lián)想記憶的性能都要優(yōu)于WSAM,而且NWAM 最終達(dá)到的性能狀態(tài)也明顯優(yōu)于WSAM。

        2)考察2種模型的網(wǎng)絡(luò)性能與網(wǎng)絡(luò)全局連接度c之間的關(guān)系。

        模型取神經(jīng)元個(gè)數(shù)N=2 500,模式M=10,重連概率p=0.4,加噪程度為30%。結(jié)果如圖3。

        圖3 不同全局連接度下模型回憶性能比較(加噪 30% )Fig.3 Simulation results of NWAM and WSAM with different connection degree c with 30% noise

        實(shí)驗(yàn)結(jié)果顯示,當(dāng)網(wǎng)絡(luò)全局連通度c不斷增加時(shí),2種模型的網(wǎng)絡(luò)性能都得到提高,但是,在任意相同全局連接度c下,NWAM對(duì)加噪模式聯(lián)想記憶的性能都要優(yōu)于WSAM,而且當(dāng)c的值很小時(shí),模型的性能就可以達(dá)到一個(gè)很高的水平。

        3)考察噪音干擾下的網(wǎng)絡(luò)性能。

        取相同的網(wǎng)絡(luò)環(huán)境,N=2 500,M=10,p=0.4,K=50,噪音選用常見的椒鹽噪聲,對(duì)比2種模型在噪音干擾下的網(wǎng)絡(luò)性能,結(jié)果如圖4所示。

        圖4 不同加噪程度下2種模型回憶性能比較Fig.4 Simulation results of NWAM and WSAM with different levels of noise

        隨著加噪程度的不斷增加,2種模型的性能都受到影響,但是NWAM性能始終要優(yōu)于WSAM,而且當(dāng)噪音較大時(shí),NWAM依然可以維持很好的網(wǎng)絡(luò)性能,表現(xiàn)出較強(qiáng)的抗干擾能力。

        實(shí)驗(yàn)2 應(yīng)用實(shí)例對(duì)比研究。

        為驗(yàn)證新模型對(duì)加噪圖像識(shí)別的實(shí)際效果,文中引入了一個(gè)二值化交通標(biāo)志圖像,分別對(duì)其添加30%、50%椒鹽噪聲;均值為0,方差為0.1、0.3的高斯噪聲;25%遮擋處理,然后分別用2種模型分別對(duì)含有噪音的交通圖像進(jìn)行識(shí)別,取相同的網(wǎng)絡(luò)環(huán)境:重連概率p=0.4,平均度K=50,所取樣本圖像像素為50×50,迭代次數(shù)為1。其效果圖如圖5所示。

        (a)原始記憶圖像及加噪圖像

        從圖5對(duì)比結(jié)果可以看出,這2種模型都可以在噪音干擾下對(duì)圖像進(jìn)行識(shí)別,但NWAM的識(shí)別效果始終要比WSAM好。特別是對(duì)30%、50%椒鹽噪音時(shí),效果明顯要優(yōu)于WSAM的識(shí)別效果,總體來說, NWAM用于模式記憶和加噪模式識(shí)別的性能優(yōu)于WSAM,體現(xiàn)出更強(qiáng)的魯棒處理能力。

        4 結(jié)束語

        本文對(duì)NW小世界網(wǎng)絡(luò)進(jìn)行了分析,將其引入到聯(lián)想記憶網(wǎng)絡(luò)中,構(gòu)建基于NW小世界網(wǎng)絡(luò)結(jié)構(gòu)的聯(lián)想記憶模型,借鑒現(xiàn)有小世界聯(lián)想記憶模型的思想給出模型的生成方法以及相應(yīng)的理論算法。實(shí)驗(yàn)結(jié)果表明,網(wǎng)絡(luò)模型的性能主要與重連概率p、全局連接度c和加噪指數(shù)有關(guān)。當(dāng)加噪指數(shù)相同時(shí),2個(gè)模型的聯(lián)想和記憶性能都隨著重連概率p和全局連接度c的增加而得到改善,而且NWAM的性能始終要優(yōu)于WSAM;當(dāng)重連概率p和全局連接度c相同時(shí),模型的網(wǎng)絡(luò)性能隨著加噪指數(shù)的增加都發(fā)生了不同程度的降低,但與WSAM相比,NWAM降低很慢且平緩,表現(xiàn)出更強(qiáng)的抗干擾能力。最終,將模型應(yīng)用于含噪交通圖像識(shí)別中,識(shí)別結(jié)果顯示,在不同形式、程度的噪聲和遮擋干擾下,NWAM的識(shí)別準(zhǔn)確率要高于WSAM,識(shí)別結(jié)果更清晰,表現(xiàn)出良好的容錯(cuò)性和魯棒性。通過仿真結(jié)果發(fā)現(xiàn),基于NW小世界網(wǎng)絡(luò)結(jié)構(gòu)的聯(lián)想記憶模型具有以下優(yōu)點(diǎn):

        1)將NW小世界網(wǎng)絡(luò)引入到聯(lián)想記憶網(wǎng)絡(luò)中,簡化了網(wǎng)絡(luò)結(jié)構(gòu),減小了網(wǎng)絡(luò)的時(shí)間和空間復(fù)雜度,使網(wǎng)絡(luò)的硬件實(shí)現(xiàn)也變得更容易。

        2)與WSAM相比,有效地保護(hù)連接權(quán)上的信息,同時(shí)避免了孤立節(jié)點(diǎn)的產(chǎn)生,使模型對(duì)模式的記憶和聯(lián)想能力都得到了很大提高,對(duì)加噪模式識(shí)別時(shí)抗干擾能力也更強(qiáng)。

        3)通過對(duì)比2個(gè)模型對(duì)含噪音交通圖像的識(shí)別結(jié)果發(fā)現(xiàn),NWAM識(shí)別結(jié)果要比WSAM更準(zhǔn)確,與原圖像的誤差更小,從而證明其具有更好的魯棒性。

        參考文獻(xiàn):

        [1]EGUILUZ V M, CHIALVO D R, CEEHI G A, et al. Seale-free brain functional networks[J].Phys Rev Lett, 2005, (94) 5: 18-22.

        [2]AGUIRRE C, HUERTA R, CORBACHO F, et al. Analysis of biologically inspired small-world networks[J].Artificial Neural Networks, 2002, 15(4): 27-32.

        [3]BOHLAND J W, MINAI A A. Efficient associative memory using small-world architecture[J]. Neurocomputing, 2001, 38(9): 489-496.

        [4]陳蕾,張道強(qiáng),周鵬,等. 基于SWA的核自聯(lián)想記憶模型及其人臉識(shí)別應(yīng)用[J]. 應(yīng)用科學(xué)學(xué)報(bào), 2005, 23(5): 497-501.

        CHEN Lei, ZHANG Daoqiang, ZHOU Peng, et al. Small-world architecture based kernel auto-associative memory model and its application to face recognition[J]. Journal of applied Sciences, 2005, 23(5): 497-501.

        [5]金燕暉,陳賢富. 基于小世界體系的投影學(xué)習(xí)聯(lián)想記憶模型研究[J]. 計(jì)算機(jī)仿真, 2009, 26(4): 207-210.

        JIN Yanhui, CHEN Xianfu. A projection learning rule associative memory model based on small-world architecture[J]. Computer Simulation, 2009, 26(4): 207-210

        [6]陳蕾,陳松燦,張道強(qiáng). 小世界體系的多對(duì)多聯(lián)想記憶模型及其應(yīng)用[J]. 軟件學(xué)報(bào), 2006, 17(2): 223-231.

        CHEN Lei, CHEN Songcan, ZHANG Daoqiang. Small world structure inspired many to many kernel associative memory models and their application[J]. Journal of Software, 2006, 17(2): 223-231.

        [7]NEWMAN M E J, WATTS D J. Scaling and percolation in the small-world network model[J]. Phys, 1999, 60(8): 7332-7342.

        [8]張瑞成,李沖. 小世界人工神經(jīng)網(wǎng)絡(luò)模型及其應(yīng)用研究[J]. 計(jì)算機(jī)仿真,2011, 28(10): 95-98.

        ZHANG Ruicheng, LI Chong. Model of NW multilayer feedforward small-world artificial neural networks and it’s applied[J]. Computer Simulation, 2011, 28(10): 95-98.

        [9]NEWMAN M E, WATTS D J. Renormalization group analysis of the small-world network model[J]. Physics Letters A, 1999, 263(4): 341-346.

        [10]楊靜,高雋,謝昭,等. 一種新的小世界體系聯(lián)想記憶模型[J]. 儀器儀表學(xué)報(bào), 2009, 30(10): 2057-2063.

        YANG Jing, GAO Jun, XIE Zhao, et al. Novel associative memory model based on small-world adaptive structure[J]. Chinese Journal of Scientific Instrument, 2009, 30(10): 2057-2063.

        猜你喜歡
        權(quán)值概率矩陣
        一種融合時(shí)間權(quán)值和用戶行為序列的電影推薦模型
        第6講 “統(tǒng)計(jì)與概率”復(fù)習(xí)精講
        第6講 “統(tǒng)計(jì)與概率”復(fù)習(xí)精講
        概率與統(tǒng)計(jì)(一)
        概率與統(tǒng)計(jì)(二)
        CONTENTS
        基于權(quán)值動(dòng)量的RBM加速學(xué)習(xí)算法研究
        初等行變換與初等列變換并用求逆矩陣
        矩陣
        南都周刊(2015年4期)2015-09-10 07:22:44
        矩陣
        南都周刊(2015年3期)2015-09-10 07:22:44
        亚洲av手机在线观看| 少妇脱了内裤让我添| 欧美在线三级艳情网站| 国产片三级视频播放| 91精品蜜桃熟女一区二区| 麻豆资源在线观看视频| 帮老师解开蕾丝奶罩吸乳视频| 精品高潮呻吟99av无码视频| 久久AⅤ无码精品色午麻豆| 亚洲中文字幕一区二区在线| 摸丰满大乳奶水www免费| 色伦专区97中文字幕| 久久亚洲第一视频黄色| 亚洲第一大av在线综合| 午夜精品久久久久久久99老熟妇| 人人狠狠综合久久亚洲| 高清无码精品一区二区三区| 一区二区三区在线观看视频| 国产亚洲成人av一区| 人妻精品动漫h无码网站| 久久精品国产亚洲黑森林| 亚洲中文乱码在线观看| 国产亚洲综合一区二区三区| 免费观看又色又爽又黄的韩国| 国产一区亚洲欧美成人| 国产亚洲3p一区二区| 男人的天堂av网站| 国内精品久久久久久无码不卡| 蜜臀av一区二区三区人妻在线| 日本一区二区视频高清| 无码少妇精品一区二区免费动态| 久草午夜视频| 亚洲国产大胸一区二区三区| 国产午夜片无码区在线播放| 女人夜夜春高潮爽a∨片| 亚洲日本VA午夜在线电影| 亚洲一区二区三区国产| 桃花影院理论片在线| 视频一区精品自拍| 国产成人综合久久大片| 国产片精品av在线观看夜色|