亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于脈沖序列核的脈沖神經(jīng)元監(jiān)督學(xué)習(xí)算法

        2017-01-10 07:15:25藺想紅王向文黨小超
        電子學(xué)報(bào) 2016年12期
        關(guān)鍵詞:脈沖序列權(quán)值神經(jīng)元

        藺想紅,王向文,黨小超

        (西北師范大學(xué)計(jì)算機(jī)科學(xué)與工程學(xué)院,甘肅蘭州 730070)

        基于脈沖序列核的脈沖神經(jīng)元監(jiān)督學(xué)習(xí)算法

        藺想紅,王向文,黨小超

        (西北師范大學(xué)計(jì)算機(jī)科學(xué)與工程學(xué)院,甘肅蘭州 730070)

        脈沖神經(jīng)元應(yīng)用脈沖時(shí)間編碼神經(jīng)信息,監(jiān)督學(xué)習(xí)的目標(biāo)是對(duì)于給定的突觸輸入產(chǎn)生任意的期望脈沖序列.但由于神經(jīng)元脈沖發(fā)放過程的不連續(xù)性,構(gòu)建高效的脈沖神經(jīng)元監(jiān)督學(xué)習(xí)算法非常困難,同時(shí)也是該研究領(lǐng)域的重要問題.基于脈沖序列的核函數(shù)定義,提出了一種新的脈沖神經(jīng)元監(jiān)督學(xué)習(xí)算法,特點(diǎn)是應(yīng)用脈沖序列核構(gòu)造多脈沖誤差函數(shù)和對(duì)應(yīng)的突觸學(xué)習(xí)規(guī)則,并通過神經(jīng)元的實(shí)際脈沖發(fā)放頻率自適應(yīng)地調(diào)整學(xué)習(xí)率.將該算法用于脈沖序列的學(xué)習(xí)任務(wù),期望脈沖序列采用Poisson過程或線性方法編碼,并分析了不同的核函數(shù)對(duì)算法學(xué)習(xí)性能的影響.實(shí)驗(yàn)結(jié)果表明該算法具有較高的學(xué)習(xí)精度和良好的適應(yīng)能力,在處理復(fù)雜的時(shí)空脈沖模式學(xué)習(xí)問題時(shí)十分有效.

        脈沖神經(jīng)元;監(jiān)督學(xué)習(xí);脈沖序列核;內(nèi)積;脈沖序列學(xué)習(xí)

        1 引言

        神經(jīng)科學(xué)的研究成果表明,神經(jīng)信息被編碼為精確定時(shí)的脈沖序列,不僅僅是簡(jiǎn)單的脈沖發(fā)放頻率[1].脈沖神經(jīng)網(wǎng)絡(luò)由更具生物真實(shí)性的脈沖神經(jīng)元模型為基本單元構(gòu)成[2],應(yīng)用精確定時(shí)的脈沖序列表示與處理信息,是新一代神經(jīng)網(wǎng)絡(luò)計(jì)算模型.脈沖神經(jīng)網(wǎng)絡(luò)與基于脈沖頻率編碼信息的傳統(tǒng)人工神經(jīng)網(wǎng)絡(luò)相比,擁有更強(qiáng)大的計(jì)算能力,是進(jìn)行復(fù)雜時(shí)空信息處理的有效工具[3].實(shí)際上,要將脈沖神經(jīng)元構(gòu)成的網(wǎng)絡(luò)應(yīng)用于實(shí)際問題,特別是復(fù)雜時(shí)空模式識(shí)別問題的求解,關(guān)鍵在于構(gòu)建高效的監(jiān)督學(xué)習(xí)算法.脈沖神經(jīng)元監(jiān)督學(xué)習(xí)的目標(biāo)是對(duì)于給定的突觸輸入脈沖序列,通過學(xué)習(xí)規(guī)則對(duì)突觸權(quán)值的調(diào)整,產(chǎn)生任意的期望脈沖序列[4].對(duì)于脈沖神經(jīng)網(wǎng)絡(luò)來說,神經(jīng)元內(nèi)部狀態(tài)變量及誤差函數(shù)不再滿足連續(xù)可微的性質(zhì),傳統(tǒng)人工神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)算法已不能直接使用,需要研究者進(jìn)一步構(gòu)建具有廣泛適用性的脈沖神經(jīng)網(wǎng)絡(luò)監(jiān)督學(xué)習(xí)算法.

        脈沖神經(jīng)元及其網(wǎng)絡(luò)的監(jiān)督學(xué)習(xí)是新興技術(shù),對(duì)于監(jiān)督學(xué)習(xí)算法的研究越來越受到研究者的關(guān)注,近年來提出了較多的監(jiān)督學(xué)習(xí)算法[5,6].借鑒傳統(tǒng)人工神經(jīng)網(wǎng)絡(luò)的誤差反向傳播算法,Bohte等人[7]提出了適用于前饋脈沖神經(jīng)網(wǎng)絡(luò)的SpikeProp算法,該算法限制網(wǎng)絡(luò)中所有層的神經(jīng)元只能發(fā)放一個(gè)脈沖.McKennoch等人[8]在該算法的基礎(chǔ)上,提出了收斂速度更快的RProp和QuickProp算法.對(duì)于SpikeProp算法更加重要的擴(kuò)展工作是Multi-SpikeProp算法,這類算法對(duì)脈沖神經(jīng)網(wǎng)絡(luò)輸入層和隱含層神經(jīng)元的脈沖發(fā)放沒有限制,但仍然限制輸出層神經(jīng)元只能發(fā)放一個(gè)脈沖[9,10].最近,Xu等人[11]進(jìn)一步提出了基于梯度下降的多脈沖監(jiān)督學(xué)習(xí)算法,對(duì)網(wǎng)絡(luò)中所有層神經(jīng)元的脈沖發(fā)放沒有限制,實(shí)現(xiàn)了輸出層多脈沖的時(shí)空模式學(xué)習(xí).SpikeProp及其擴(kuò)展算法是一種數(shù)學(xué)分析方法,在學(xué)習(xí)規(guī)則的推導(dǎo)過程中,要求神經(jīng)元模型的狀態(tài)變量必須有解析的表達(dá)式.文獻(xiàn)[12,13]將脈沖神經(jīng)元的監(jiān)督學(xué)習(xí)轉(zhuǎn)換為分類問題,分別應(yīng)用感知器學(xué)習(xí)規(guī)則和支持向量機(jī)實(shí)現(xiàn)了脈沖序列時(shí)空模式的在線學(xué)習(xí)算法.考慮神經(jīng)元的脈沖時(shí)間依賴可塑性(Spike Timing-Dependent Plasticity,STDP)機(jī)制,Legenstein等人[14]給出了脈沖神經(jīng)元的監(jiān)督Hebbian學(xué)習(xí)算法,通過注入外部輸入電流使學(xué)習(xí)神經(jīng)元發(fā)放特定的期望脈沖序列.Ponulak和Kasiński[15]將突觸權(quán)值的調(diào)整表示為STDP和anti-STDP兩個(gè)過程的結(jié)合,提出了一種可對(duì)脈沖序列的復(fù)雜時(shí)空模式進(jìn)行學(xué)習(xí)的遠(yuǎn)程監(jiān)督方法(Remote Supervised Method,ReSuMe),該算法具有學(xué)習(xí)規(guī)則的局部特性和最優(yōu)解的穩(wěn)定性,并且可適用于各種神經(jīng)元模型.雖然ReSuMe僅適用于單神經(jīng)元或單層神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí),但基于其良好的適用性,已被廣泛地應(yīng)用在各類時(shí)空模式分類和識(shí)別問題.文獻(xiàn)[16]結(jié)合SpikeProp算法,進(jìn)一步將ReSuMe擴(kuò)展到適用于線性神經(jīng)元模型的多層前饋網(wǎng)絡(luò).Wade等人[17]應(yīng)用BCM(Bienenstock-Cooper-Munro)規(guī)則與STDP機(jī)制,提出了多層前饋脈沖神經(jīng)網(wǎng)絡(luò)的SWAT(Synaptic Weight Association Training)算法.此外,Mohemmed和Schliebs[18]基于Widrow-Hoff規(guī)則給出了SPAN(Spike Pattern Association Neuron)學(xué)習(xí)規(guī)則,將脈沖序列應(yīng)用卷積計(jì)算轉(zhuǎn)換為模擬信號(hào),通過轉(zhuǎn)化后的輸入脈沖序列,神經(jīng)元期望輸出和實(shí)際輸出脈沖序列的誤差調(diào)整突觸權(quán)值.Yu等人[19]受SPAN的啟發(fā),提出了PSD(Precise-Spike-Driven)監(jiān)督學(xué)習(xí)算法,突觸權(quán)值的調(diào)整根據(jù)期望與實(shí)際輸出脈沖的誤差來判斷,正的誤差將導(dǎo)致長(zhǎng)時(shí)程增強(qiáng),負(fù)的誤差將導(dǎo)致長(zhǎng)時(shí)程抑制.

        本文通過脈沖序列核的表示形式,將離散的脈沖序列轉(zhuǎn)換為連續(xù)函數(shù)的分析過程,并可解釋為特定的神經(jīng)生理信號(hào),比如神經(jīng)元的突觸后電位或脈沖發(fā)放的密度函數(shù).將脈沖序列集合映射到與核函數(shù)對(duì)應(yīng)的再生核Hilbert空間[20,21],這樣便實(shí)現(xiàn)了脈沖序列的統(tǒng)一表示,以及脈沖序列相似性度量的形式化定義.我們通過定義脈沖序列隨時(shí)間變化的誤差函數(shù)以及神經(jīng)元輸入脈沖序列和輸出脈沖序列之間的關(guān)系,給出了基于脈沖序列核的脈沖神經(jīng)元的監(jiān)督學(xué)習(xí)算法,突觸權(quán)值的學(xué)習(xí)規(guī)則表示為脈沖序列的內(nèi)積形式,實(shí)現(xiàn)了脈沖序列復(fù)雜時(shí)空模式的學(xué)習(xí).為了描述方便,我們將所提學(xué)習(xí)規(guī)則命名為STKLR(Spike Train Kernel Learning Rule).該學(xué)習(xí)算法的特點(diǎn)在于:(1)突觸學(xué)習(xí)規(guī)則的推導(dǎo)過程僅依賴于精確定時(shí)的脈沖序列,與神經(jīng)元狀態(tài)變量的表達(dá)方式無關(guān),因此可適用于不同的神經(jīng)元模型.(2)在學(xué)習(xí)算法的迭代過程中,學(xué)習(xí)率根據(jù)神經(jīng)元實(shí)際輸出脈沖序列的頻率自適應(yīng)地調(diào)整.(3)對(duì)神經(jīng)元輸入輸出的脈沖序列編碼方式?jīng)]有限制,可適用于Poisson過程或線性方法等不同的時(shí)間編碼策略.

        2 脈沖序列核的表示

        核方法是解決非線性模式分類問題的一種有效途徑,其核心思想是通過某種非線性映射將原始數(shù)據(jù)嵌入到合適的高維特征空間,找出并學(xué)習(xí)一組數(shù)據(jù)中的相互關(guān)系[22].設(shè)x1,x2為初始空間中的點(diǎn)(在這里可以是標(biāo)量,也可以是向量),非線性函數(shù)φ實(shí)現(xiàn)輸入空間X到特征空間F的映射,核函數(shù)可表示為如下的內(nèi)積形式:

        κ(x1,x2)=〈φ(x1),φ(x2)〉

        (1)

        其中,κ(x1,x2)為核函數(shù).下面我們將核函數(shù)的定義應(yīng)用于神經(jīng)元發(fā)放的脈沖序列,并推導(dǎo)突觸權(quán)值的學(xué)習(xí)規(guī)則.

        脈沖序列s={tf∈Γ:f=1,…,N}表示脈沖神經(jīng)元在時(shí)間區(qū)間Γ=[0,T]所發(fā)放脈沖時(shí)間的有序數(shù)列,脈沖序列可形式化的表示為:

        (2)

        其中,tf表示第f個(gè)脈沖發(fā)放時(shí)間,δ(x)表示Dirac delta函數(shù),當(dāng)x=0時(shí),δ(x)=1,否則δ(x)=0.

        在定義脈沖序列的核函數(shù)之前,先給出脈沖時(shí)間的核函數(shù)表示,因?yàn)槊}沖時(shí)間的核將組合構(gòu)成脈沖序列核的表示.對(duì)于兩個(gè)脈沖對(duì)應(yīng)的發(fā)放時(shí)間tm和tn,可定義脈沖時(shí)間的核函數(shù)形式:

        κ(tm,tn)=〈δ(t-tm),δ(t-tn)〉,?tm,tn∈Γ

        (3)

        對(duì)于核函數(shù)κ要求具有對(duì)稱、平移不變和正定特性,一般取Laplacian或Gaussian等核函數(shù).比如Gaussian核表示為κ(tm,tn)=exp(-|tm-tn|2/2σ2).

        由于脈沖序列是離散時(shí)間的集合,為了方便分析和計(jì)算,可以選擇特定的光滑函數(shù)h,應(yīng)用卷積將脈沖序列唯一地轉(zhuǎn)換為一個(gè)連續(xù)函數(shù):

        (4)

        由于脈沖序列所對(duì)應(yīng)時(shí)間區(qū)間的有限性和連續(xù)函數(shù)fs(t)的有界性,可以得到:

        (5)

        也就是說,函數(shù)fs(t)是L2(Γ)空間的一個(gè)元素.脈沖序列空間中的元素si∈S(Γ)對(duì)應(yīng)的函數(shù)fsi(t)將構(gòu)成一個(gè)Hilbert空間,表示為L(zhǎng)2(fsi(t),t∈Γ),并且是L2(Γ)的一個(gè)子空間[20].

        對(duì)于任意給定的兩個(gè)脈沖序列si,sj∈S(Γ),可在L2(fsi(t),t∈Γ)空間上定義其對(duì)應(yīng)函數(shù)fsi(t)和fsj(t)的內(nèi)積如下表示:

        F(si,sj)=〈fsi(t),fsj(t)〉L2(Γ)=∫Γfsi(t)fsj(t)dt

        (6)

        應(yīng)用脈沖時(shí)間核表示,進(jìn)一步將式(6)重寫為脈沖時(shí)間對(duì)的累加形式:

        (7)

        其中,κ(tm,tn)=∫Γh(t-tm)h(t-tn)dt.因此,F(si,sj)計(jì)算的時(shí)間復(fù)雜度為O(NiNj),Ni和Nj分別表示脈沖序列si和sj對(duì)應(yīng)的脈沖數(shù).

        3 脈沖神經(jīng)元的監(jiān)督學(xué)習(xí)算法

        3.1 脈沖序列的轉(zhuǎn)換關(guān)系

        脈沖神經(jīng)元輸入輸出表示為脈沖序列的形式,即脈沖序列編碼神經(jīng)信息或外部刺激信號(hào).假設(shè)突觸前神經(jīng)元輸入的脈沖序列為si(t)∈S(Γ),i=1,…,N,突觸后神經(jīng)元輸出的脈沖序列為so(t)∈S(Γ),為簡(jiǎn)化計(jì)算,將應(yīng)用式(4)轉(zhuǎn)換后的多個(gè)輸入脈沖序列和輸出脈沖序列在時(shí)間t的關(guān)系表達(dá)為線性組合關(guān)系:

        (8)

        其中,權(quán)值wi表示突觸前神經(jīng)元i和突觸后神經(jīng)元之間的連接強(qiáng)度,N表示突觸前輸入神經(jīng)元的數(shù)目.做這種簡(jiǎn)化的原因在于:(1)將脈沖序列表達(dá)為線性組合關(guān)系,可以構(gòu)造相應(yīng)的學(xué)習(xí)規(guī)則進(jìn)行神經(jīng)元突觸權(quán)值的學(xué)習(xí),Carnell和Richardson給出了初步的結(jié)果[23];(2)如果將fs(t)解釋為脈沖序列隨時(shí)間變化的密度函數(shù),對(duì)于廣義的線性神經(jīng)元模型,突觸后神經(jīng)元脈沖序列的密度函數(shù)可以表達(dá)為突觸前神經(jīng)元脈沖序列密度函數(shù)的線性組合形式.

        3.2 突觸權(quán)值的學(xué)習(xí)規(guī)則

        構(gòu)建脈沖神經(jīng)元監(jiān)督學(xué)習(xí)算法的關(guān)鍵是定義脈沖序列的誤差函數(shù),以及突觸權(quán)值的學(xué)習(xí)規(guī)則.脈沖神經(jīng)元在時(shí)間t的誤差可定義為實(shí)際輸出脈沖序列so∈S(Γ)和期望脈沖序列sd∈S(Γ)對(duì)應(yīng)函數(shù)fs(t)的差值平方:

        (9)

        因此,脈沖神經(jīng)元在時(shí)間區(qū)間??偟恼`差為

        E=∫ΓE(t)dt.

        應(yīng)用脈沖序列誤差函數(shù)對(duì)于突觸權(quán)值的梯度計(jì)算值,使用delta更新規(guī)則對(duì)所有的突觸權(quán)值進(jìn)行調(diào)整.從突觸前神經(jīng)元i到突觸后神經(jīng)元的突觸權(quán)值wi計(jì)算如下:

        Δwi=-η▽Ei

        (10)

        其中,η表示學(xué)習(xí)率,▽Ei表示脈沖序列誤差函數(shù)E對(duì)于突觸權(quán)值wi的梯度計(jì)算值,可表示為誤差函數(shù)E(t)對(duì)權(quán)值wi的導(dǎo)數(shù)在時(shí)間區(qū)間的積分:

        (11)

        對(duì)于突觸權(quán)值的學(xué)習(xí)規(guī)則,應(yīng)用誤差函數(shù)和鏈?zhǔn)揭?guī)則,根據(jù)式(8)和式(9),突觸權(quán)值wi在時(shí)間t的變化量可推導(dǎo)得到:

        (12)

        其中,si(t)∈S(Γ)表示輸入神經(jīng)元i所發(fā)放的脈沖序列.根據(jù)式(11),突觸權(quán)值wi的調(diào)整值計(jì)算如下:

        ▽Ei=∫Γ[fso(t)-fsd(t)]fsi(t)dt=F(so,si)-F(sd,si)

        (13)

        根據(jù)以上所討論的推導(dǎo)過程,我們給出了一個(gè)基于脈沖序列核的脈沖神經(jīng)元監(jiān)督學(xué)習(xí)新算法STKLR,突觸學(xué)習(xí)規(guī)則表示如下:

        Δwi=-η[F(so,si)-F(sd,si)]

        (14)

        3.3 學(xué)習(xí)率的自適應(yīng)方法

        學(xué)習(xí)率的取值大小對(duì)學(xué)習(xí)過程的收斂速度有較大的影響,直接影響訓(xùn)練時(shí)間和訓(xùn)練精度.如果學(xué)習(xí)率取值太小,每次迭代中權(quán)值的有效更新值太小,將導(dǎo)致網(wǎng)絡(luò)突觸權(quán)值的收斂速度變慢;反之,容易使學(xué)習(xí)過程出現(xiàn)振蕩,影響網(wǎng)絡(luò)的收斂速度,甚至網(wǎng)絡(luò)訓(xùn)練失敗.根據(jù)神經(jīng)元實(shí)際發(fā)放脈沖的頻率自適應(yīng)地調(diào)整學(xué)習(xí)率,可提高學(xué)習(xí)算法對(duì)突觸權(quán)值訓(xùn)練的適應(yīng)能力.

        首先定義一個(gè)縮放因子c,使該算法的學(xué)習(xí)率η能夠按照不同的脈沖發(fā)放頻率自適應(yīng)調(diào)整.假設(shè)神經(jīng)元脈沖序列的發(fā)放頻率為v,基準(zhǔn)頻率區(qū)間為[vmin,vmax],當(dāng)v∈[vmin,vmax]時(shí),縮放因子c=1,否則,c的表達(dá)式為:

        (15)

        學(xué)習(xí)率在基準(zhǔn)頻率區(qū)間的取值稱為基準(zhǔn)學(xué)習(xí)率η*,其值為給定頻率區(qū)間的最佳學(xué)習(xí)率,具體分析過程在4.2節(jié)中給出.本文中基準(zhǔn)頻率區(qū)間的最小值vmin=40Hz,最大值vmax=60Hz.根據(jù)縮放因子c和頻率區(qū)間內(nèi)的基準(zhǔn)學(xué)習(xí)率η*,學(xué)習(xí)率η的自適應(yīng)調(diào)整方式為:

        (16)

        3.4 脈沖序列的相似性度量

        在神經(jīng)元的脈沖序列學(xué)習(xí)過程中,學(xué)習(xí)性能的評(píng)價(jià)就是判斷在學(xué)習(xí)結(jié)束后實(shí)際發(fā)放的脈沖序列與期望輸出脈沖序列接近的程度,這實(shí)際上就是度量?jī)蓚€(gè)脈沖序列之間的相似性.根據(jù)脈沖序列的內(nèi)積所滿足Cauchy-Schwarz不等式特性[20]:

        F2(si,sj)≤F(si,si)F(sj,sj),?si,sj∈S(Γ)

        (17)

        應(yīng)用式(17)定義兩個(gè)脈沖序列的相似性度量C,其表達(dá)式為:

        (18)

        4 實(shí)驗(yàn)結(jié)果

        由于ReSuMe具有良好的學(xué)習(xí)能力和適用性,被廣泛地應(yīng)用在各類時(shí)空模式學(xué)習(xí)問題.因此,本文將所提STKLR與ReSuMe進(jìn)行學(xué)習(xí)性能的比較.將ReSuMe突觸權(quán)值隨時(shí)間變化的調(diào)整量積分,可得突觸權(quán)值的離線學(xué)習(xí)規(guī)則如下[19]:

        (20)

        其中,參數(shù)as=0.05表示non-Hebbian項(xiàng),用于加速訓(xùn)練過程的收斂;指數(shù)形式的核函數(shù)定義了STDP機(jī)制所決定的Hebbian項(xiàng),時(shí)間常量τs=5ms;No,Nd分別表示神經(jīng)元實(shí)際輸出脈沖序列so和期望脈沖序列sd的脈沖總數(shù).

        4.1 脈沖序列學(xué)習(xí)任務(wù)

        4.1.1 脈沖序列的學(xué)習(xí)過程分析

        首先分析STKLR對(duì)于脈沖序列的學(xué)習(xí)過程和學(xué)習(xí)前后的突觸權(quán)值變化情況,神經(jīng)元學(xué)習(xí)的結(jié)果如圖1所示.圖1(a)展示了脈沖神經(jīng)元的脈沖序列學(xué)習(xí)過程,圖中▽表示期望輸出脈沖序列,Δ表示脈沖神經(jīng)元學(xué)習(xí)之前的輸出脈沖序列,·表示學(xué)習(xí)過程中一些學(xué)習(xí)周期的實(shí)際輸出脈沖序列.從學(xué)習(xí)過程可以看到,神經(jīng)元經(jīng)過大概45步就從初始的輸出脈沖序列學(xué)習(xí)得到期望的輸出脈沖序列.圖1(b)表示學(xué)習(xí)過程中學(xué)習(xí)精度曲線的變化,可以看出在45個(gè)學(xué)習(xí)周期以后,實(shí)際輸出和期望脈沖序列一樣,即兩者的相似度量值C達(dá)到1.圖1(c)和圖1(d)分別表示學(xué)習(xí)前和學(xué)習(xí)后的500個(gè)突觸權(quán)值的變化情況.在學(xué)習(xí)過程中,神經(jīng)元突觸權(quán)值的變化范圍為[0,0.2].通過脈沖序列學(xué)習(xí)過程的分析可以看出,STKLR可以對(duì)復(fù)雜的脈沖序列時(shí)空模式進(jìn)行學(xué)習(xí),并具有較好的學(xué)習(xí)能力.

        4.1.2 參數(shù)變化時(shí)的學(xué)習(xí)性能分析

        為了全面評(píng)價(jià)STKLR的學(xué)習(xí)性能,變化神經(jīng)元的輸入突觸數(shù)目和脈沖序列的長(zhǎng)度,并考察這些因素對(duì)學(xué)習(xí)性能的影響.第1組實(shí)驗(yàn)分析STKLR在輸入突觸數(shù)目逐漸增加時(shí)的學(xué)習(xí)性能.實(shí)驗(yàn)中神經(jīng)元的輸入突觸數(shù)目從100到1000以間隔100逐漸增加,其它設(shè)定保持不變.圖2(a)表示STKLR和ReSuMe在輸入突觸數(shù)目逐漸增加時(shí)的學(xué)習(xí)精度,從圖中可以看出,隨著神經(jīng)元輸入突觸數(shù)目的逐漸增加,兩個(gè)算法的學(xué)習(xí)精度都在增加,最終其度量C值可以非常接近1,且STKLR的學(xué)習(xí)精度高于ReSuMe的學(xué)習(xí)結(jié)果.例如,當(dāng)輸入突觸數(shù)目為300時(shí),STKLR的學(xué)習(xí)精度為0.9577,而ReSuMe的學(xué)習(xí)精度為0.9302;當(dāng)輸入突觸數(shù)目為800時(shí),STKLR的學(xué)習(xí)精度為0.9923,而ReSuMe的學(xué)習(xí)精度為0.9670.同時(shí),學(xué)習(xí)精度在上升時(shí)期較大的標(biāo)準(zhǔn)方差顯示此時(shí)STKLR學(xué)習(xí)性能的穩(wěn)定性比較低,但是當(dāng)學(xué)習(xí)精度達(dá)到很高的數(shù)值時(shí),STKLR學(xué)習(xí)精度的標(biāo)準(zhǔn)方差則較小.圖2(b)表示當(dāng)學(xué)習(xí)精度達(dá)到最高時(shí)所需的學(xué)習(xí)周期,從圖中可以看出,除過輸入突觸數(shù)目為200的情況外,STKLR所需的學(xué)習(xí)周期比ReSuMe的要少.例如,當(dāng)輸入突觸數(shù)目為500時(shí),STKLR所需的學(xué)習(xí)周期為522.81,而ReSuMe所需的學(xué)習(xí)周期為613.97;當(dāng)輸入突觸數(shù)目為1000時(shí),STKLR所需的學(xué)習(xí)周期為449.16,而ReSuMe的學(xué)習(xí)周期為702.74.

        第2組實(shí)驗(yàn)分析STKLR在神經(jīng)元輸入與期望輸出脈沖序列長(zhǎng)度逐漸增加時(shí)的學(xué)習(xí)性能.實(shí)驗(yàn)中神經(jīng)元輸入與期望輸出脈沖序列的長(zhǎng)度從100ms到1000ms以間隔100ms逐漸增加,其它參數(shù)取基準(zhǔn)值.圖3所示為神經(jīng)元輸入與期望輸出脈沖序列長(zhǎng)度變化時(shí)的脈沖序列學(xué)習(xí)結(jié)果.圖3(a)表示STKLR和ReSuMe在神經(jīng)元輸入與期望輸出脈沖序列長(zhǎng)度逐漸增加時(shí)的學(xué)習(xí)精度,從圖中可以看出,隨著脈沖序列長(zhǎng)度的增加,兩個(gè)算法的學(xué)習(xí)精度都在減小.此外,STKLR的學(xué)習(xí)精度高于ReSuMe學(xué)習(xí)精度,例如,當(dāng)脈沖序列長(zhǎng)度為200ms時(shí),STKLR的學(xué)習(xí)精度為0.9933,而ReSuMe的學(xué)習(xí)精度為0.9785;當(dāng)脈沖序列長(zhǎng)度為1000ms時(shí),STKLR的學(xué)習(xí)精度為0.7522,而ReSuMe的學(xué)習(xí)精度為0.6773.圖3(b)表示隨著神經(jīng)元脈沖序列長(zhǎng)度的增加,當(dāng)學(xué)習(xí)精度達(dá)到最高時(shí)所需的最小學(xué)習(xí)周期.從圖中可以看出,當(dāng)脈沖序列長(zhǎng)度為100ms、200ms、300ms、700ms、800ms、900ms和1000ms時(shí),STKLR所需的學(xué)習(xí)周期少于ReSuMe.例如,當(dāng)脈沖序列長(zhǎng)度為300ms時(shí),STKLR所需的學(xué)習(xí)周期為534.18,而ReSuMe所需的學(xué)習(xí)周期為587.94;當(dāng)脈沖序列長(zhǎng)度為1000ms時(shí),STKLR所需的學(xué)習(xí)周期為432.61,而ReSuMe所需的學(xué)習(xí)周期為464.70.

        4.1.3 期望脈沖序列不同編碼的學(xué)習(xí)

        為了進(jìn)一步分析STKLR對(duì)脈沖序列的學(xué)習(xí)性能,輸入脈沖序列采用Poisson過程生成,而期望脈沖序列分別采用Poisson過程和線性方法[17]兩種不同的編碼方式生成.實(shí)驗(yàn)中輸入與期望輸出脈沖序列的發(fā)放頻率從20Hz到200Hz以間隔20Hz逐漸增加,并且輸入脈沖序列與期望輸出脈沖序列的發(fā)放頻率相等,其它設(shè)定保持不變.圖4所示為期望輸出脈沖序列采用Poisson過程編碼的學(xué)習(xí)結(jié)果.圖4(a)表示STKLR和ReSuMe在輸入與期望輸出脈沖序列由不同發(fā)放頻率的Poisson過程生成時(shí)的學(xué)習(xí)精度,隨著脈沖序列發(fā)放頻率的增加,兩個(gè)算法的學(xué)習(xí)精度先減小后增大,且STKLR的學(xué)習(xí)精度高于ReSuMe.例如,當(dāng)脈沖序列的發(fā)放頻率為100Hz時(shí),STKLR的學(xué)習(xí)精度為0.8860,而ReSuMe的學(xué)習(xí)精度為0.7906;當(dāng)脈沖序列發(fā)放頻率為200Hz時(shí),STKLR的學(xué)習(xí)精度為0.8362,而ReSuMe的學(xué)習(xí)精度為0.7942.圖4(b)表示當(dāng)學(xué)習(xí)精度達(dá)到最高時(shí)算法所需的學(xué)習(xí)周期,從圖中可以看出,STKLR算法所需的學(xué)習(xí)周期要少于ReSuMe,例如,當(dāng)脈沖序列發(fā)放頻率為200Hz時(shí),STKLR所需的學(xué)習(xí)周期為449.15,而ReSuMe所需的學(xué)習(xí)周期為514.24.

        圖5給出了期望輸出脈沖序列采用線性方法編碼的學(xué)習(xí)結(jié)果,這時(shí)脈沖序列中的相鄰脈沖之間具有相同的時(shí)間間隔.從圖5(a)中可以看出,隨著脈沖序列發(fā)放頻率的增加,STKLR的學(xué)習(xí)精度基本保持不變且接近于1,而ReSuMe的學(xué)習(xí)精度在逐漸減小之后又逐漸增大,并且ReSuMe的學(xué)習(xí)精度具有較大的標(biāo)準(zhǔn)方差,其學(xué)習(xí)穩(wěn)定性比較差.圖5(b)表示當(dāng)學(xué)習(xí)精度達(dá)到最高時(shí)所需的學(xué)習(xí)周期,從圖中可以看出,當(dāng)脈沖序列的發(fā)放頻率較小時(shí),STKLR所需的學(xué)習(xí)周期少于ReSuMe,而當(dāng)脈沖序列的發(fā)放頻率大于120Hz時(shí),STKLR所需的學(xué)習(xí)周期多于ReSuMe.

        4.2 學(xué)習(xí)過程中學(xué)習(xí)率分析

        4.2.1 基準(zhǔn)學(xué)習(xí)率的確定

        本組實(shí)驗(yàn)通過不同學(xué)習(xí)率的測(cè)試來確定在基準(zhǔn)參數(shù)取值下適合STKLR和 ReSuMe的最佳學(xué)習(xí)率.實(shí)驗(yàn)中期望脈沖序列的發(fā)放頻率為50Hz,學(xué)習(xí)率不采用式(16)調(diào)整,圖6所示為學(xué)習(xí)率的取值分別為0.00005、0.0001、0.0005、0.001、0.005和0.01時(shí)的脈沖序列學(xué)習(xí)結(jié)果.圖6(a)表示兩個(gè)算法在學(xué)習(xí)率不同時(shí)的學(xué)習(xí)精度,從圖中可以看出,隨著學(xué)習(xí)率的增大,兩個(gè)算法的學(xué)習(xí)精度都在增加.學(xué)習(xí)率為0.005時(shí),STKLR的學(xué)習(xí)精度為0.9855,而ReSuMe的學(xué)習(xí)精度為0.9676.當(dāng)學(xué)習(xí)率取0.01時(shí)兩個(gè)算法的學(xué)習(xí)精度與學(xué)習(xí)率取0.005時(shí)的學(xué)習(xí)精度相比變化不大,但是學(xué)習(xí)精度的標(biāo)準(zhǔn)方差增大.當(dāng)學(xué)習(xí)率進(jìn)一步增大時(shí)將導(dǎo)致算法學(xué)習(xí)失敗的次數(shù)增加.圖6(b)表示兩個(gè)算法在達(dá)到最高學(xué)習(xí)精度時(shí)所需的學(xué)習(xí)周期,從圖中可以看出隨著學(xué)習(xí)率的增大,兩個(gè)算法所需的學(xué)習(xí)周期都在逐漸減少,且在學(xué)習(xí)率大于0.001時(shí)STKLR小于ReSuMe所需的學(xué)習(xí)周期.例如,當(dāng)學(xué)習(xí)率為0.005時(shí),STKLR所需學(xué)習(xí)周期的平均值為452.15,而ReSuMe的學(xué)習(xí)周期為631.21.因此,在我們的實(shí)驗(yàn)測(cè)試與分析中,學(xué)習(xí)率的取值0.005為兩種算法的基準(zhǔn)學(xué)習(xí)率.

        4.2.2 學(xué)習(xí)率的變化過程

        本組實(shí)驗(yàn)分析當(dāng)期望輸出脈沖序列由不同發(fā)放頻率的Poisson過程或線性編碼生成時(shí),STKLR對(duì)脈沖序列學(xué)習(xí)中學(xué)習(xí)率的變化過程.實(shí)驗(yàn)中,輸入脈沖序列由發(fā)放頻率為20Hz的Poisson過程生成,期望輸出脈沖序列的發(fā)放頻率取20Hz、50Hz、100Hz和150Hz四個(gè)值,其它設(shè)定保持不變.圖7表示期望輸出脈沖序列的發(fā)放頻率不同時(shí)學(xué)習(xí)率的變化過程,當(dāng)學(xué)習(xí)周期大于200時(shí)學(xué)習(xí)率趨于穩(wěn)定,因此圖中只畫出了前200個(gè)學(xué)習(xí)周期中的學(xué)習(xí)率.圖7(a)所示為期望輸出脈沖序列由不同發(fā)放頻率的Poisson過程生成時(shí)學(xué)習(xí)率的變化過程,開始時(shí)神經(jīng)元實(shí)際輸出的脈沖較多,學(xué)習(xí)率從0.005迅速減小,之后隨著學(xué)習(xí)周期的增加,學(xué)習(xí)率逐漸增大,最后趨于穩(wěn)定.當(dāng)期望輸出脈沖序列的發(fā)放頻率逐漸增大時(shí),最終學(xué)習(xí)率逐漸減小.期望輸出脈沖序列的發(fā)放頻率分別取20Hz、50Hz、100Hz和150Hz時(shí),對(duì)應(yīng)的最終學(xué)習(xí)率分別為0.0101、0.0049、0.0022和0.0011.圖7(b)所示為期望輸出脈沖序列由線性方法編碼時(shí)學(xué)習(xí)率的變化過程.從圖中可以看出,學(xué)習(xí)率在學(xué)習(xí)過程中的變化情況與圖7(a)相似.期望輸出脈沖序列的發(fā)放頻率分別取20Hz、50Hz、100Hz和150Hz時(shí),對(duì)應(yīng)的最終學(xué)習(xí)率分別為0.01、0.005、0.0017和0.0009.該實(shí)驗(yàn)說明本文提出的學(xué)習(xí)率自適應(yīng)方法在學(xué)習(xí)過程中是有效的,能夠在學(xué)習(xí)過程中根據(jù)神經(jīng)元實(shí)際輸出脈沖序列的發(fā)放頻率對(duì)學(xué)習(xí)率進(jìn)行自適應(yīng)地調(diào)整.

        4.3 核函數(shù)的比較與分析

        4.3.1 不同核函數(shù)的表示

        對(duì)于STKLR來說,突觸權(quán)值的學(xué)習(xí)規(guī)則最終表示為脈沖序列核的累加形式,為了考察不同的核函數(shù)對(duì)STKLR學(xué)習(xí)性能的影響,我們選擇Gaussian核函數(shù)、Laplacian核函數(shù)、α-核函數(shù)以及Inverse Multiquadratic核函數(shù),使用這些核函數(shù)對(duì)算法進(jìn)行測(cè)試.本文中采用的核函數(shù)如表1所示.

        表1 脈沖序列的核函數(shù)

        4.3.2 核函數(shù)的學(xué)習(xí)性能

        由于本文前面的實(shí)驗(yàn)中STKLR均采用Gaussian核函數(shù),首先在基準(zhǔn)參數(shù)下對(duì)Gaussian核的參數(shù)σ進(jìn)行分析.圖8給出了Gaussian核函數(shù)在參數(shù)不同時(shí)的脈沖序列學(xué)習(xí)結(jié)果,Gaussian核的參數(shù)σ取值分別為0.1、0.5、1、2、5和10共六個(gè)值.圖8(a)所示為核函數(shù)參數(shù)不同時(shí)的學(xué)習(xí)精度.從圖中可以看出,隨著核函數(shù)參數(shù)σ的增大,STKLR的學(xué)習(xí)精度在σ=0.1時(shí)為0.6025;隨著σ的增大,學(xué)習(xí)精度逐漸增大,當(dāng)σ=2時(shí)C達(dá)到最大值0.9933,但當(dāng)σ進(jìn)一步增大時(shí),學(xué)習(xí)精度逐漸減小.圖8(b)所示為學(xué)習(xí)精度達(dá)到最高時(shí)所需的學(xué)習(xí)周期,其變化過程表明所需學(xué)習(xí)周期先減少,然后逐漸增多.當(dāng)σ=0.5時(shí),所需學(xué)習(xí)周期為693.95;當(dāng)σ=2時(shí),所需學(xué)習(xí)周期為522.81.根據(jù)以上分析,核函數(shù)的參數(shù)對(duì)學(xué)習(xí)精度有較大的影響,我們?cè)趯?shí)驗(yàn)中,Gaussian核函數(shù)的最佳參數(shù)σ的值取為2.

        圖9表示核函數(shù)分別為Gaussian核(G),Laplacian核(L),α-核(A),Inverse Multiquadratic核(IM)時(shí)的脈沖序列學(xué)習(xí)結(jié)果,其中Gaussian核的參數(shù)為0.5,Laplacian核的參數(shù)為5,α-核的參數(shù)為0.5,Inverse Multiquadratic核的參數(shù)為1.圖9(a)所示為核函數(shù)不同時(shí)的學(xué)習(xí)精度,圖9(b)所示為當(dāng)學(xué)習(xí)精度達(dá)到最高時(shí)所需的學(xué)習(xí)周期.此外,通過實(shí)驗(yàn)發(fā)現(xiàn)多項(xiàng)式核,Sigmoid核,Multiquadratic核等不適用于STKLR,使用這些核函數(shù)時(shí)將導(dǎo)致算法學(xué)習(xí)失敗或?qū)W習(xí)效果太差,而Gaussian核,Laplacian核,α-核,Inverse Multiquadratic核等可以得到理想的學(xué)習(xí)效果,實(shí)現(xiàn)對(duì)復(fù)雜脈沖序列模式的學(xué)習(xí).

        從以上實(shí)驗(yàn)結(jié)果可以看出,應(yīng)用監(jiān)督學(xué)習(xí)算法STKLR對(duì)脈沖序列時(shí)空模式進(jìn)行學(xué)習(xí)時(shí),核函數(shù)類型和參數(shù)的選擇非常重要.核函數(shù)的類型選擇和參數(shù)優(yōu)化方法主要有[25]:(1)對(duì)于選定的核函數(shù),可采用遍歷方式對(duì)一個(gè)區(qū)間內(nèi)的核參數(shù)逐個(gè)進(jìn)行測(cè)試和比較.首先為核函數(shù)的參數(shù)賦初始值,然后開始實(shí)驗(yàn)測(cè)試,根據(jù)測(cè)試精度重復(fù)調(diào)整核參數(shù)值,直至得到滿意的測(cè)試精度為止.該方法簡(jiǎn)單可行,特別是對(duì)于本文中核函數(shù)參數(shù)只有一個(gè)的情況,容易得到合適的參數(shù)值.但缺點(diǎn)是憑經(jīng)驗(yàn)調(diào)整,缺乏足夠的理論依據(jù),在參數(shù)調(diào)整過程中帶有一定的盲目性;(2)使用目標(biāo)函數(shù)自適應(yīng)地選擇最佳的核參數(shù),目前較多應(yīng)用遺傳算法優(yōu)化核函數(shù)類型以及參數(shù).但是該類方法在每一次進(jìn)化過程中,對(duì)于群體中的每一個(gè)參數(shù),都要進(jìn)行一次脈沖神經(jīng)網(wǎng)絡(luò)的監(jiān)督學(xué)習(xí)迭代過程,增加了算法的時(shí)間和空間復(fù)雜性.

        5 結(jié)論

        脈沖神經(jīng)元應(yīng)用精確定時(shí)的脈沖序列編碼信息,本文基于脈沖序列核函數(shù)的定義,提出了一種基于脈沖序列核的脈沖神經(jīng)元監(jiān)督學(xué)習(xí)算法STKLR,并在學(xué)習(xí)過程中通過脈沖序列的實(shí)際發(fā)放頻率自適應(yīng)地調(diào)整學(xué)習(xí)率,實(shí)現(xiàn)了對(duì)脈沖序列復(fù)雜時(shí)空模式的有效學(xué)習(xí).通過脈沖序列學(xué)習(xí)過程的分析,以及不同輸入突觸數(shù)目、不同脈沖序列長(zhǎng)度、不同輸入與期望輸出脈沖序列發(fā)放頻率、不同核函數(shù)和核函數(shù)參數(shù)等因素對(duì)算法學(xué)習(xí)性能影響的分析,表明本文所提出的STKLR具有較好的脈沖序列學(xué)習(xí)能力,并且比ReSuMe具有較高的學(xué)習(xí)精度和較小的學(xué)習(xí)周期.此外,從STKLR的推導(dǎo)過程可以看出,其學(xué)習(xí)規(guī)則表現(xiàn)為以核函數(shù)表示的脈沖序列內(nèi)積形式,與具體脈沖神經(jīng)元狀態(tài)變量的表達(dá)方式無關(guān),可適用于不同神經(jīng)元模型.脈沖序列的核函數(shù)及其內(nèi)積理論目前主要用于脈沖序列的相似性度量,較少直接應(yīng)用于脈沖神經(jīng)網(wǎng)絡(luò)監(jiān)督學(xué)習(xí)算法的構(gòu)造,STKLR可以看作是一種基于脈沖序列內(nèi)積操作的脈沖神經(jīng)網(wǎng)絡(luò)監(jiān)督學(xué)習(xí)算法的一般性框架.

        進(jìn)一步的工作考慮將STKLR應(yīng)用到實(shí)際的時(shí)空模式分類和識(shí)別問題,如圖像分類和語音識(shí)別等.應(yīng)用脈沖神經(jīng)網(wǎng)絡(luò)的監(jiān)督學(xué)習(xí)對(duì)具體問題的求解可分為三個(gè)步驟:首先,將樣本數(shù)據(jù)(如數(shù)值、圖像或語音數(shù)據(jù))的每個(gè)分量應(yīng)用特定的編碼策略編碼為精確定時(shí)的脈沖序列,并對(duì)樣本所屬類別設(shè)定期望的脈沖序列;然后,將多個(gè)脈沖序列輸入網(wǎng)絡(luò)中的脈沖神經(jīng)元,得到實(shí)際輸出的脈沖序列;最后,根據(jù)實(shí)際輸出脈沖序列和期望脈沖序列的誤差,應(yīng)用STKLR算法的學(xué)習(xí)規(guī)則對(duì)神經(jīng)網(wǎng)絡(luò)的突觸權(quán)值進(jìn)行調(diào)整.通過算法的多次迭代過程,當(dāng)誤差小于設(shè)定的最小值或達(dá)到最大學(xué)習(xí)周期時(shí),學(xué)習(xí)過程結(jié)束,并用得到的脈沖神經(jīng)網(wǎng)絡(luò)進(jìn)行模式分類或識(shí)別.

        [1]Quiroga R Q,Panzeri S.Principles of Neural Coding[M].Boca Raton,FL:CRC Press,2013.

        [2]藺想紅,張?zhí)镂?分段線性脈沖神經(jīng)元模型的動(dòng)力學(xué)特性分析[J].電子學(xué)報(bào),2009,37(6):1270-1276. Lin Xiang-hong,Zhang Tian-wen.Dynamical properties of piecewise linear spiking neuron model[J].Acta Electronica Sinica,2009,37(6):1270-1276.(in Chinese)

        [3]Ghosh-Dastidar S,Adeli H.Spiking neural networks[J].International Journal of Neural Systems,2009,19(4):295-308.

        [4]Memmesheimer R M,Rubin R,?lveczky B P,et al.Learning precisely timed spikes[J].Neuron,2014,82(4):925-938.

        [5]Kasiński A,Ponulak F.Comparison of supervised learning methods for spike time coding in spiking neural networks[J].International Journal of Applied Mathematics and Computer Science,2006,16(1):101-113.

        [6]藺想紅,王向文,張寧,等.脈沖神經(jīng)網(wǎng)絡(luò)的監(jiān)督學(xué)習(xí)算法研究綜述[J].電子學(xué)報(bào),2015,43(3):577-586. Lin Xiang-hong,Wang Xiang-wen,Zhang Ning,et al.Supervised learning algorithms for spiking neural networks:A review[J].Acta Electronica Sinica,2015,43(3):577-586.(in Chinese)

        [7]Bohte S M,Kok J N,La Poutré J A.Error-backpropagation in temporally encoded networks of spiking neurons[J].Neurocomputing,2002,48(1-4):17-37.

        [8]McKennoch S,Liu D,Bushnell L G.Fast modifications of the SpikeProp algorithm[A].Proceedings of the International Joint Conference on Neural Networks[C].Vancouver,Canada:IEEE,2006.3970-3977.

        [9]Booij O,Nguyen T H.A gradient descent rule for spiking neurons emitting multiple spikes[J].Information Processing Letters,2005,95(6):552-558.

        [10]Ghosh-Dastidar S,Adeli H.A new supervised learning algorithm for multiple spiking neural networks with application in epilepsy and seizure detection[J].Neural Networks,2009,22(10):1419-1431.

        [11]Xu Y,Zeng X,Han L,et al.A supervised multi-spike learning algorithm based on gradient descent for spiking neural networks[J].Neural Networks,2013,43:99-113.

        [12]Xu Y,Zeng X,Zhong S.A new supervised learning algorithm for spiking neurons[J].Neural Computation,2013,25(6):1472-1511.

        [13]Le Mouel C,Harris K D,Yger P.Supervised learning with decision margins in pools of spiking neurons[J].Journal of Computational Neuroscience,2014,37(2):333-344.

        [14]Legenstein R,Naeger C,Maass W.What can a neuron learn with spike-timing-dependent plasticity?[J].Neural Computation,2005,17(11):2337-2382.

        [15]Ponulak F,Kasinski A.Supervised learning in spiking neural networks with ReSuMe:Sequence learning,classification,and spike shifting[J].Neural Computation,2010,22(2):467-510.

        [16]Sporea I,Grüning A.Supervised learning in multilayer spiking neural networks[J].Neural Computation,2013,25(2):473-509.

        [17]Wade J J,McDaid L J,Santos J A,et al.SWAT:A spiking neural network training algorithm for classification problems[J].IEEE Transactions on Neural Networks,2010,21(11):1817-1830.

        [18]Mohemmed A,Schliebs S.SPAN:Spike pattern association neuron for learning spatio-temporal spike patterns[J].International Journal of Neural Systems,2012,22(4):786-803.

        [19]Yu Q,Tang H,Tan K C,et al.Precise-spike-driven synaptic plasticity:Learning hetero-association of spatiotemporal spike patterns[J].PLoS One,2013,8(11):e78318.

        [20]Paiva A R C,Park I,Príncipe J C.A reproducing kernel Hilbert space framework for spike train signal processing[J].Neural Computation,2009,21(2):424-449.

        [21]Park I M,Seth S,Paiva A R C,et al.Kernel methods on spike train space for neuroscience:A tutorial[J].IEEE Signal Processing Magazine,2013,30(4):149-160.

        [22]Xu J,He M,Han J,et al.A comprehensive estimation method for kernel function of radar signal classifier[J].Chinese Journal of Electronics,2015,24(1):218-222.

        [23]Carnell A,Richardson D.Linear algebra for times series of spikes[A].Proceedings of the 13th European Symposium on Artificial Neural Networks[C].Evere,Belgium:d-side,2005.363-368.

        [24]Gerstner W,Kistler W M.Spiking Neuron Models:Single Neurons,Populations,Plasticity[M].Cambridge:Cambridge University Press,2002.

        [25]Zhao M,Ren J,Ji L,et al.Parameter selection of support vector machines and genetic algorithm based on change area search[J].Neural Computing and Applications,2012,21(1):1-8.

        藺想紅 男,1976年1月生于甘肅天水.2009年獲哈爾濱工業(yè)大學(xué)計(jì)算機(jī)應(yīng)用技術(shù)專業(yè)博士學(xué)位,現(xiàn)任西北師范大學(xué)計(jì)算機(jī)科學(xué)與工程學(xué)院教授,碩士生導(dǎo)師.研究方向?yàn)樯窠?jīng)網(wǎng)絡(luò)、進(jìn)化計(jì)算、人工生命、圖像處理.

        E-mail:linxh@nwnu.edu.cn

        王向文 男,1991年3月生于甘肅天水.2015年獲西北師范大學(xué)軟件工程專業(yè)碩士學(xué)位.研究方向?yàn)樯窠?jīng)網(wǎng)絡(luò)、機(jī)器學(xué)習(xí).

        E-mail:wangxiangwen2@163.com

        黨小超(通信作者) 男,1963年9月生于甘肅蘭州.1995年獲西北工業(yè)大學(xué)計(jì)算機(jī)應(yīng)用技術(shù)專業(yè)碩士學(xué)位,現(xiàn)任西北師范大學(xué)計(jì)算機(jī)科學(xué)與工程學(xué)院院長(zhǎng)、教授,碩士生導(dǎo)師.研究方向?yàn)橛?jì)算機(jī)網(wǎng)絡(luò)、無線傳感器網(wǎng)絡(luò)、智能信息處理.

        E-mail:dangxc@nwnu.edu.cn

        A New Supervised Learning Algorithm for Spiking Neurons Based on Spike Train Kernels

        LIN Xiang-hong,WANG Xiang-wen,DANG Xiao-chao

        (SchoolofComputerScienceandEngineering,NorthwestNormalUniversity,Lanzhou,Gansu730070,China)

        The purpose of supervised learning with temporal encoding for spiking neurons is to make the neurons emit arbitrary spike trains in response to given synaptic inputs.However,due to the discontinuity in the spike process,the formulation of efficient supervised learning algorithms for spiking neurons is difficult and remains an important problem in the research area.Based on the definition of kernel functions for spike trains,this paper proposes a new supervised learning algorithm for spiking neurons with temporal encoding.The learning rule for synapses is developed by constructing the multiple spikes error function using spike train kernels,and its learning rate is adaptively adjusted according to the actual firing rate of spiking neurons during learning.The proposed algorithm is successfully applied to various spike trains learning tasks,in which the desired spike trains are encoded by Poisson process or linear method.Furthermore,the effect of different kernels on the performance of the learning algorithm is also analyzed.The experiment results show that our proposed method has higher learning accuracy and flexibility than the existing learning methods,so it is effective for solving complex spatio-temporal spike pattern learning problems.

        spiking neuron;supervised learning;spike train kernel;inner product;spike train learning

        2015-04-07;

        2015-07-01;責(zé)任編輯:梅志強(qiáng)

        國(guó)家自然科學(xué)基金(No.61165002,No.61363059);甘肅省自然科學(xué)基金(No.1506RJZA127);甘肅省高等學(xué)??蒲许?xiàng)目(No.2015A-013)

        TP183

        A

        0372-2112 (2016)12-2877-10

        ??學(xué)報(bào)URL:http://www.ejournal.org.cn

        10.3969/j.issn.0372-2112.2016.12.010

        猜你喜歡
        脈沖序列權(quán)值神經(jīng)元
        一種融合時(shí)間權(quán)值和用戶行為序列的電影推薦模型
        《從光子到神經(jīng)元》書評(píng)
        自然雜志(2021年6期)2021-12-23 08:24:46
        一種基于TOA的同型雷達(dá)同源判別方法
        CONTENTS
        躍動(dòng)的神經(jīng)元——波蘭Brain Embassy聯(lián)合辦公
        基于權(quán)值動(dòng)量的RBM加速學(xué)習(xí)算法研究
        基于二次型單神經(jīng)元PID的MPPT控制
        一D-T2二維核磁共振脈沖序列改進(jìn)設(shè)計(jì)及性能對(duì)比
        毫米波導(dǎo)引頭預(yù)定回路改進(jìn)單神經(jīng)元控制
        二維反式氫磷相關(guān)脈沖序列設(shè)計(jì)及在含磷化學(xué)毒劑分析中的應(yīng)用
        久久久久久久性潮| 日本高清视频一区二区| 日韩av一区二区三区精品久久| 亚洲天堂二区三区三州| 五月丁香六月综合缴清无码| 永久免费av无码入口国语片| 女人与牲口性恔配视频免费| 亚州五十路伊人网| 国产高清在线精品一区不卡| 一本一道久久精品综合| 亚洲专区路线一路线二网| 人妻精品视频一区二区三区| 欧美精品videosex极品| 国产精品免费大片| 欧美最猛黑人xxxxx猛交| 中文字幕亚洲无线码a| 日本顶级片一区二区三区 | 欧美不卡一区二区三区| 午夜成人无码福利免费视频| 亚洲 无码 制服 丝袜 自拍| 亚洲高清自偷揄拍自拍| 午夜精品免费视频一区二区三区| 日本爽快片100色毛片| 色欲av自慰一区二区三区| 东京热加勒比在线观看| 日本办公室三级在线看| 肥老熟女性强欲五十路| 极品嫩模高潮叫床| 亚洲国产综合人成综合网站| 伊人影院在线观看不卡| 久久精品国产免费一区二区三区| 中文字幕女同系列在线看一| 男女啪动最猛动态图| 国产精品户露av在线户外直播| 亚洲色偷偷偷综合网另类小说| 久久一区二区av毛片国产| 成人免费a级毛片无码片2022| www国产无套内射com| 国模少妇无码一区二区三区| 国产精品综合女同人妖| 日韩欧美aⅴ综合网站发布|