亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        一種高效二進前饋神經(jīng)網(wǎng)絡學習算法

        2016-05-17 07:24:49曾曉勤周建新鐘水明
        哈爾濱工業(yè)大學學報 2016年5期
        關(guān)鍵詞:敏感性分類

        曾曉勤 , 周建新 , 鄭 星 , 鐘水明

        (1.河海大學 計算機及信息工程學院 智能科學與技術(shù)研究所,211100 南京;2.南京信息工程大學 計算機與軟件學院, 210044 南京)

        ?

        一種高效二進前饋神經(jīng)網(wǎng)絡學習算法

        曾曉勤1, 周建新1, 鄭星1, 鐘水明2

        (1.河海大學 計算機及信息工程學院 智能科學與技術(shù)研究所,211100 南京;2.南京信息工程大學 計算機與軟件學院, 210044 南京)

        摘要:為解決二進前饋神經(jīng)網(wǎng)絡(BFNN)缺乏高效實用學習算法的問題,提出一種新的融合自適應調(diào)節(jié)結(jié)構(gòu)和權(quán)值的BFNN學習算法. 該算法借鑒并改進了極限學習機(ELM)方法,可以高效地訓練單隱層的BFNN來解決分類問題. 為了滿足網(wǎng)絡的訓練精度,算法可以自動增加隱層神經(jīng)元個數(shù)和調(diào)節(jié)網(wǎng)絡隱層及輸出層神經(jīng)元權(quán)值;同時為了提高網(wǎng)絡的泛化精度,算法通過建立二進神經(jīng)元敏感性作為度量隱層神經(jīng)元重要性的尺度,自動地裁剪重要性小的神經(jīng)元,并對裁剪損失的信息進行補償. 實驗結(jié)果驗證了該算法在處理離散分類問題時的可行性和有效性.

        關(guān)鍵詞:二進前饋神經(jīng)網(wǎng)絡; 學習算法; 敏感性; 結(jié)構(gòu)裁剪; 分類

        二進前饋神經(jīng)網(wǎng)絡(BFNN)是一種離散的前饋多層網(wǎng)絡,網(wǎng)絡中神經(jīng)元的激活函數(shù)通常是硬極限函數(shù)或?qū)ΨQ硬極限函數(shù). 理論上,離散問題可作為連續(xù)問題的特例來處理,但是對于那些本質(zhì)上是離散且連續(xù)技術(shù)不直接適用的應用領(lǐng)域,如邏輯運算、信號處理、分類與聚類、模式識別等,BFNN比連續(xù)神經(jīng)網(wǎng)絡有明顯的優(yōu)勢[1]. 但是由于激活函數(shù)的離散性質(zhì)使得BFNN無法使用成熟的BP算法來對網(wǎng)絡進行訓練[2-3],迄今為止尚沒有高效的學習算法. 文獻[4-5]針對BFNN提出了MRII算法,但MRII算法會使網(wǎng)絡學習陷入局部震蕩,成功率不高,并且在訓練集樣本個數(shù)較多的情況下,MRII算法的收斂速度也不理想. 文獻[6]針對BFNN從幾何角度提出了一些幾何構(gòu)造算法,這類算法具有自動確定網(wǎng)絡結(jié)構(gòu)的長處,但是隨意性大,不能有效控制結(jié)構(gòu)規(guī)模. 文獻[1]在MRII算法的基礎(chǔ)上,利用BFNN網(wǎng)絡的敏感性技術(shù),對BFNN網(wǎng)絡的訓練算法進行了進一步的研究和改進,但也存在著網(wǎng)絡訓練的時間復雜度過高等問題. 文獻[7-8]針對單隱層連續(xù)前饋神經(jīng)網(wǎng)絡提出了極限學習機ELM及其快速學習算法. ELM學習算法通過增加隱層神經(jīng)元并隨機選取權(quán)值和偏置, 以及采用最小二乘法求得輸出層神經(jīng)元權(quán)值,來使網(wǎng)絡達到訓練精度要求. 只要隱層神經(jīng)元數(shù)目足夠多,單隱層的前饋神經(jīng)網(wǎng)絡可以逼近任意的連續(xù)函數(shù)[9],因此ELM將網(wǎng)絡結(jié)構(gòu)限制為單隱層,既不失一般性,又省去了對網(wǎng)絡隱層數(shù)目的考慮. 因為ELM隱層神經(jīng)元權(quán)參數(shù)隨機給定,需要調(diào)節(jié)的只是隱層神經(jīng)元個數(shù)和輸出層神經(jīng)元權(quán)參數(shù),所以ELM學習算法效率較BP算法要高. 但是,也正因為ELM學習算法在增加隱層神經(jīng)元個數(shù)的同時,僅隨機給定權(quán)參數(shù)值,并沒有進行自適應調(diào)節(jié),所以會導致訓練所得的初始網(wǎng)絡結(jié)構(gòu)較大,而且沒有充分利用新增神經(jīng)元的潛能,影響后繼對網(wǎng)絡裁剪的效率.

        本文針對單隱層二進前饋神經(jīng)網(wǎng)絡,提出一種類似ELM學習算法但又不盡相同的高效學習算法. 該算法不僅調(diào)節(jié)輸出層神經(jīng)元的權(quán)值,同時也會調(diào)節(jié)隱層神經(jīng)元權(quán)參數(shù),它的合理性從理論上可解釋為:隱層通過增加神經(jīng)元個數(shù)將網(wǎng)絡輸入向高維空間映射,使得隱層輸出更容易線性可分,從而方便輸出層的分類,并且在增加隱層神經(jīng)元個數(shù)的同時,對隱層神經(jīng)元權(quán)參數(shù)進行適當調(diào)節(jié),使得訓練所得的網(wǎng)絡結(jié)構(gòu)不至于過大,從而提高裁剪的效率.

        本文學習算法具有以下創(chuàng)新:1)能使網(wǎng)絡在較小的結(jié)構(gòu)內(nèi)快速滿足學習精度要求;2)提出利用神經(jīng)元輸出對其輸入擾動的敏感性打造重要性尺度,來度量網(wǎng)絡隱層中神經(jīng)元的重要性,指導裁剪網(wǎng)絡隱層中起作用小的神經(jīng)元;3)提出利用輸出層神經(jīng)元偏置以及適當?shù)脑賹W習對裁剪后網(wǎng)絡信息丟失進行補償.

        1BFNN模型及符號約定

        BFNN是一種離散型的前饋多層神經(jīng)網(wǎng)絡,由多個離散二進神經(jīng)元(BN)按一定層次結(jié)構(gòu)組成,用以建立輸入與輸出之間的映射.

        BN是BFNN的基本構(gòu)造元素,構(gòu)成網(wǎng)絡中的一個節(jié)點,也是BFNN最簡單的形式. 結(jié)構(gòu)上,BN一般由輸入、連接權(quán)、偏置、激活函數(shù)以及輸出等幾部分組成. 一個BN的工作原理是把輸入分量與對應權(quán)分量乘積的和,再加上一個偏置產(chǎn)生一個模擬量,然后送入激活函數(shù)得到一個數(shù)字輸出. 在本文中,輸入向量表示為X=(x1,x2,…,xn)T∈{-1,1}n,與之相關(guān)聯(lián)的權(quán)記為W=(w1,w2,…,wn)T∈Rn,w0∈R表示偏置. 就功能而言,BN實現(xiàn)了一種從輸入空間到輸出空間的邏輯映射關(guān)系,即f:{-1,1}n→{-1,1},可表示如下:

        BFNN由多個BN神經(jīng)元按一定的規(guī)則連接而成. 在BFNN中,BN分層組織,每層由若干個具有相同輸入的BN組成,相鄰兩層上的BN彼此互相連接,同層和非相鄰層上的BN彼此沒有連接. 各層神經(jīng)元的輸出構(gòu)成該層的輸出,前層輸出作為相鄰后繼層每個神經(jīng)元的輸入,第一層神經(jīng)元的輸入是網(wǎng)絡輸入,最后一層的輸出是網(wǎng)絡輸出. 為表達方便,用記號n0-n1-n2來表示單隱層BFNN,其中,n0代表輸入層并指出輸入維數(shù),n1代表隱層并指出隱層神經(jīng)元個數(shù),n2代表輸出層并指出輸出層神經(jīng)元個數(shù). 此外,用Xn×1∈Rn表示整個網(wǎng)絡的輸入,Ym×1∈{-1,1}m表示網(wǎng)絡的輸出.

        從功能上來看,BFNN通過學習機制調(diào)整自身網(wǎng)絡參數(shù)(包括BN的權(quán)值和偏置以及網(wǎng)絡結(jié)構(gòu))來實現(xiàn)給定訓練樣本數(shù)據(jù)中所蘊含的輸入輸出之間的映射關(guān)系.

        2關(guān)鍵技術(shù)

        2.1調(diào)權(quán)學習算法

        2.1.1調(diào)權(quán)規(guī)則

        在錯誤更正這類調(diào)權(quán)算法中,有許多權(quán)值更新規(guī)則,如Mays’,LMS以及感知機規(guī)則等. 在本學習算法中,為了使當前樣本的學習對權(quán)值調(diào)整的幅度盡可能小,從而減小對已有網(wǎng)絡的破壞,采用感知機學習規(guī)則[10]進行調(diào)權(quán). 以單個BN為例,規(guī)則可表示為

        式中:Wnew和Wold是調(diào)整后和調(diào)整前的權(quán),γ為學習速率,t為理想輸出,a為實際輸出,X為輸入樣本. 該數(shù)學式的表示為:對應當前輸入樣本,當實際輸出與理想輸出不一致時,權(quán)需要向當前輸入樣本的方向做適當調(diào)整. 顯然,這樣的學習過程是一個循環(huán)迭代的過程,直至完成對當前樣本的學習為止.

        2.1.2簡化的MRII學習算法

        在文獻[4]給出的MRII算法中,根據(jù)最小擾動原則,提出了以每個BN的加權(quán)和的絕對值為衡量標準的置信度概念,通過不斷迭代翻轉(zhuǎn)置信度最小的神經(jīng)元來找到分類效果最理想的網(wǎng)絡權(quán)值. 事實上,由于置信度并不能精確地反映BN的學習對整個網(wǎng)絡的影響,因此MRII算法會使網(wǎng)絡學習陷入局部震蕩,導致成功率不高. 在本學習算法中,并不需要一個精確衡量BN的學習對于網(wǎng)絡影響程度的度量,因為在給定結(jié)構(gòu),如果網(wǎng)絡無法收斂,算法會自動增加隱層神經(jīng)元個數(shù),將網(wǎng)絡輸入向高維空間映射,使得隱層輸出更容易線性可分,從而方便輸出層的分類. 因此,本算法仍采用置信度作為隱層調(diào)權(quán)的依據(jù),但是只針對單個樣本進行學習,具體學習算法如下:

        1)將樣本送入網(wǎng)絡進行計算.

        2)如果網(wǎng)絡對當前樣本的輸出正確,直接退出.

        3)在隱層執(zhí)行以下步驟:

        ①計算隱層神經(jīng)元置信度.

        ②根據(jù)置信度從小到大的順序,對隱層神經(jīng)元進行排序.

        ③對排序后的神經(jīng)元依次做翻轉(zhuǎn)的嘗試. 如果這次嘗試使得樣本理想輸出與網(wǎng)絡輸出一致,則接受這次翻轉(zhuǎn),同時退出;如果這次嘗試可以降低網(wǎng)絡的輸出錯誤,則同樣接受這次翻轉(zhuǎn)嘗試,轉(zhuǎn)去執(zhí)行步驟②;如果這次嘗試,并沒有降低網(wǎng)絡的輸出錯誤,則拒絕這次嘗試,然后對置信度次小的下一個神經(jīng)元進行翻轉(zhuǎn)嘗試.

        4)對輸出層神經(jīng)元進行調(diào)權(quán),使網(wǎng)絡輸出與樣本理想輸出完全一致,完成網(wǎng)絡對該樣本的學習.

        不難看出,以上樣本學習算法的思想在于,網(wǎng)絡首先通過調(diào)節(jié)隱層神經(jīng)元權(quán)參數(shù),以減少網(wǎng)絡輸出錯誤,如果在隱層無法將網(wǎng)絡輸出錯誤減少到零,則對輸出層神經(jīng)元調(diào)權(quán)直接完成對單個樣本的學習.

        2.2由輸入擾動引起的BN敏感性及其計算

        本節(jié)所定義的敏感性度量,期望它能用來反映由BN輸入擾動導致的輸出擾動程度. 因此,此處的敏感性定義為在所有輸入模式點中由輸入擾動導致BN輸出值發(fā)生變化的概率,表達式為

        式中:Ninp是所有輸入模式點的個數(shù),Npert是對每個輸入模式點進行擾動的次數(shù),Nvar是所有模式點經(jīng)不同擾動后輸出發(fā)生變化的次數(shù)總和.ES()是將S視為統(tǒng)計變量求得的數(shù)學期望. 如此定義的敏感性是神經(jīng)元權(quán)W和偏置w0的函數(shù),反映了BN輸入的變化對輸出變化的影響. 由于不同的BN有不同的權(quán)和偏置值,因此敏感性可作為一個相對尺度來度量同一層中不同神經(jīng)元對下一層輸入的影響程度. 顯然,敏感性小的神經(jīng)元對下一層輸入的影響相對要小.

        1)Nvar初始化為0.

        2)循環(huán):對X的各種可能取值計算σ1=XTW+w0.

        循環(huán):對ΔX使得當前X只有一個分量發(fā)生變化的各種可能進行以下統(tǒng)計.

        循環(huán):對X發(fā)生變化的分量以步長h在區(qū)間[-a,a]的各種可能擾動計算σ2=ΔXTW.

        如果σ1<0且σ2≥-σ1,Nvar=Nvar+1;如果σ1≥0且σ2<-σ1,Nvar=Nvar+1.

        3)計算得出Nvar結(jié)果.

        4)計算敏感性的結(jié)果為

        2.3BN重要性尺度

        前饋神經(jīng)網(wǎng)絡結(jié)構(gòu)設計仍是一個值得深入研究的問題,研究已得出結(jié)論是,網(wǎng)絡結(jié)構(gòu)在能滿足訓練精度前提下應盡可能的小,這樣既可減少開銷又可獲得較好的泛化性能. 裁減網(wǎng)絡結(jié)構(gòu)是獲得小結(jié)構(gòu)網(wǎng)絡的一條途徑,文獻[11-12]綜述了早前這方面的研究情況,近年提出的ELM方法中也可見到對隱層節(jié)點裁減的討論[13]. 問題關(guān)鍵是如何建立一個能有效度量節(jié)點重要性的尺度,據(jù)此來定位網(wǎng)絡隱層中重要性小的神經(jīng)元,使得裁剪后丟失的信息盡可能的少. 前面定義的BN敏感性反映了輸入變化對輸出的影響,當敏感性值很小時,意味輸出近乎一個常量,在網(wǎng)絡起的作用一定相對較小. 注意到隱層BN敏感性只可能反映對輸出層的輸入影響,而輸出層的輸出由其輸入和權(quán)值共同決定,所以敏感性還不能完全控制對輸出層輸出的影響,因為盡管隱層BN敏感性相對較小,乘上一個較大的輸出層權(quán)值將可能放大輸出層的輸入變化. 因此,需要將敏感性和輸出層權(quán)值一起考慮,來建立對隱層BN重要性的度量. 此處將BN重要性定義為BN本身的敏感性與其連接到輸出層所有權(quán)值絕對值和的乘積,表達式如下:

        2.4信息丟失的補償

        BN的重要性尺度可用來幫助裁剪隱層上的節(jié)點. 然而,訓練好的BFNN網(wǎng)絡中每個節(jié)點都會包含有用的信息,裁掉一個節(jié)點必然會引起網(wǎng)絡信息或多或少的丟失,導致性能變差. 為了彌補信息的丟失,可有以下方法對裁剪隱層節(jié)點后的網(wǎng)絡進行補償:

        2)對調(diào)整后的網(wǎng)絡,用訓練樣本數(shù)據(jù)再對網(wǎng)絡進行適當?shù)挠柧?

        3學習算法

        給出一個完整只考慮單隱層BFNN的學習算法. 鑒于輸入維數(shù)和輸出層BN個數(shù)通??筛鶕?jù)應用需求確定,本算法最終給出一個隱層結(jié)構(gòu)盡可能小以及確定權(quán)值的BFNN. 在學習算法中,一次迭代是指訓練樣本集中的所有樣本均輸入網(wǎng)絡完成一次學習. 以下是算法的具體步驟:

        1)用預先給定的結(jié)構(gòu)和隨機的權(quán)值和偏置來初始化BFNN網(wǎng)絡.

        2)在訓練樣本集中隨機挑選一個樣本,使用2.1.2給出的樣本學習算法送入網(wǎng)絡進行訓練,直到樣本集中的所有樣本均完成一次學習(升結(jié)構(gòu)階段的一次迭代).

        3)如果在給定的迭代次數(shù)內(nèi)訓練的BFNN網(wǎng)絡能夠達到要求的訓練精度,則停止訓練,執(zhí)行步驟4)開始裁剪;否則增加一個隱層節(jié)點(權(quán)值和偏置隨機給出),然后執(zhí)行步驟2).

        4)備份當前BFNN網(wǎng)絡,包括它的結(jié)構(gòu)以及各BN權(quán)值和偏置,并計算隱層所有節(jié)點的敏感性和重要性,試圖裁掉BN重要性最小的節(jié)點.

        5)根據(jù)被裁剪掉的BN,對輸出層BN的偏置進行補償.

        6)在訓練樣本集中隨機挑選一個樣本,使用2.1.2給出的樣本學習算法送入網(wǎng)絡進行再訓練,直到樣本集中的所有樣本均完成一次學習(裁剪階段的一次迭代).

        7)如果在給定的迭代次數(shù)內(nèi)訓練的BFNN網(wǎng)絡能夠達到要求的訓練精度,則停止訓練,執(zhí)行步驟4)繼續(xù)裁剪;否則將BFNN網(wǎng)絡恢復至之前由步驟4)所備份的結(jié)構(gòu),并給出該網(wǎng)絡最終的權(quán)和偏置值.

        4實驗驗證

        用若干實驗來驗證上述BFNN學習算法的有效性. 在這些實驗中,需要驗證以下幾點:

        1)上述學習算法可以高效將BFNN網(wǎng)絡訓練到理想的精度,并且得到一個較小的網(wǎng)絡結(jié)構(gòu).

        2)裁剪后的網(wǎng)絡在泛化性能上要優(yōu)于原來的網(wǎng)絡.

        實驗以Microsoft Visual C++ 2013為平臺進行,選擇了三類具有代表性的問題:一是奇偶校驗問題;二是針對UCI數(shù)據(jù)庫中Iris數(shù)據(jù)集的分類問題;三是針對UCI數(shù)據(jù)庫中Monk數(shù)據(jù)集的分類問題. 為了使網(wǎng)絡快速收斂到給定訓練精度,實驗中均指定樣本集在某一網(wǎng)絡結(jié)構(gòu)上只進行一次迭代,如果經(jīng)過該次迭代,無法達到給定訓練精度,則直接增加隱層節(jié)點數(shù),接著繼續(xù)進行下一次迭代訓練,如此循環(huán)往復,直至達到訓練精度,之后進行裁剪. 對于裁剪,設定在某一網(wǎng)絡結(jié)構(gòu)上進行迭代的最大次數(shù)為200次,如果經(jīng)過200次的迭代訓練,網(wǎng)絡仍然無法達到給定訓練精度,則裁剪完畢,給出網(wǎng)絡最終的權(quán)參數(shù).

        4.1算法高效性驗證

        4.1.1奇偶校驗分類實驗

        奇偶校驗是較難的線性不可分的二分類問題,它的每一個輸入樣本點都位于一個m維超立方的頂點. 實驗分別對2維、5維以及7維奇偶校驗各做了10次,要求每次實驗均達到100%的訓練精度. 使用記號m-n-l來表示m維輸入,隱層含有n個節(jié)點以及輸出層含有l(wèi)個節(jié)點的網(wǎng)絡初始結(jié)構(gòu).

        表1~3分別記錄了對2維、5維以及7維奇偶校驗問題的實驗結(jié)果,表明算法可以用較少迭代達到100%訓練精度,并同時將網(wǎng)絡裁剪到一個較小的結(jié)構(gòu).

        表1針對2維奇偶校驗本文算法實驗結(jié)果(網(wǎng)絡初始結(jié)構(gòu)2-2-1)

        實驗序號升結(jié)構(gòu)階段未經(jīng)裁剪的隱層節(jié)點數(shù)迭代次數(shù)裁剪階段經(jīng)裁剪后的隱層節(jié)點數(shù)迭代次數(shù)總迭代次數(shù)165338232213343325432224554211156432367542378543489322131065249

        表2針對5維奇偶校驗本文算法實驗結(jié)果(網(wǎng)絡初始結(jié)構(gòu)5-5-1)

        實驗序號升結(jié)構(gòu)階段未經(jīng)裁剪的隱層節(jié)點數(shù)迭代次數(shù)裁剪階段經(jīng)裁剪后的隱層節(jié)點數(shù)迭代次數(shù)總迭代次數(shù)11410547572171352639325216598041285111951612522523761286189197715115233482420526469252152312521021175145162

        表3針對7維奇偶校驗本文算法實驗結(jié)果(網(wǎng)絡初始結(jié)構(gòu)7-7-1)

        實驗序號升結(jié)構(gòu)階段未經(jīng)裁剪的隱層節(jié)點數(shù)迭代次數(shù)裁剪階段經(jīng)裁剪后的隱層節(jié)點數(shù)迭代次數(shù)總迭代次數(shù)1504412941382453913150189382767213289474681411918754539823127066256918123775650896146865599287346979731327634910655912125184

        4.1.2Iris數(shù)據(jù)集分類實驗

        UCI數(shù)據(jù)庫中的Iris數(shù)據(jù)集[13]為三分類問題,共含150個樣本,4維輸入. 實驗中用4-2-2結(jié)構(gòu)作為網(wǎng)絡初始結(jié)構(gòu),進行10組實驗,當網(wǎng)絡訓練到98%以上的精度后,開始裁剪,并保證裁剪后的精度仍然為98%以上. 實驗結(jié)果如表4所示,表明算法可以保證在達到給定精度的情況下,同時將網(wǎng)絡裁剪到一個較小的結(jié)構(gòu).

        表4針對Iris數(shù)據(jù)集本文算法實驗結(jié)果(網(wǎng)絡初始結(jié)構(gòu)4-2-2)

        實驗序號升結(jié)構(gòu)階段未經(jīng)裁剪的隱層節(jié)點數(shù)迭代次數(shù)裁剪階段經(jīng)裁剪后的隱層節(jié)點數(shù)迭代次數(shù)總迭代次數(shù)1151444458222212134155329282117145420193114133514132708362423389112776234408171621511679292821511791027262121147

        4.1.3本文算法與MRII算法對比

        為了驗證本文算法的高效性,對傳統(tǒng)的MRII學習算法與本文算法做了完整的對比實驗. 對固定網(wǎng)絡初始結(jié)構(gòu)的BFNN隨機給定初始權(quán)值與偏置,分別使用本文算法與MRII算法各做10組實驗,記錄下網(wǎng)絡收斂次數(shù)以及收斂所需的迭代次數(shù)均值. 由于MRII不具備調(diào)整網(wǎng)絡結(jié)構(gòu)的能力,因此其網(wǎng)絡初始結(jié)構(gòu)即為最終結(jié)構(gòu);而本文算法會在網(wǎng)絡初始結(jié)構(gòu)的基礎(chǔ)上增加隱層節(jié)點個數(shù),達到所需精度后進行裁剪,如果經(jīng)裁剪后的網(wǎng)絡隱層節(jié)點個數(shù)不大于網(wǎng)絡初始結(jié)構(gòu),則視為收斂,并且記錄網(wǎng)絡裁剪到初始結(jié)構(gòu)隱層節(jié)點數(shù)時所需的迭代次數(shù). 表5分別記錄了本文算法與MRII算法對于2維、5維、7維奇偶校驗以及Iris數(shù)據(jù)集的分類實驗對比結(jié)果. 其中,奇偶校驗實驗的最大迭代次數(shù)為1 000次,所需達到的訓練精度為100%,Iris數(shù)據(jù)集分類實驗的最大迭代次數(shù)為500次,所需達到的訓練精度為98%. 如果達到最大迭代次數(shù),網(wǎng)絡仍然無法訓練到給定精度,則視為不收斂.

        表5 本文算法與MRII算法實驗對比結(jié)果

        從結(jié)果對比中不難看出,對于同一網(wǎng)絡結(jié)構(gòu),多數(shù)情況下本文算法相比MRII收斂率更高,并且可以用更少迭代達到給定訓練精度. MRII算法的實驗結(jié)果好壞特別依賴于初始權(quán)值的給定,如果初始權(quán)值給的不好,那么MRII算法極易陷入局部震蕩,從而需要較多的迭代次數(shù)來進行網(wǎng)絡的訓練,甚至很可能無法收斂,這一點在網(wǎng)絡結(jié)構(gòu)較小的時表現(xiàn)更為明顯. 而本文算法分為升結(jié)構(gòu)與裁剪結(jié)構(gòu)兩個階段,在升結(jié)構(gòu)階段為了將BFNN訓練至給定精度,算法使BFNN從一個小結(jié)構(gòu)網(wǎng)絡通過逐漸增加隱層神經(jīng)元個數(shù)升至一個大結(jié)構(gòu)網(wǎng)絡,因此算法收斂速度與成功率對于初始網(wǎng)絡給定的權(quán)值依賴較小并且一定可以收斂. 例如,在Iris分類實驗中,可以明顯看出MRII算法的實驗結(jié)果好壞依賴于初始權(quán)值給定的好壞,如果初始權(quán)值給定的好,那么以較少的迭代次數(shù)就可使網(wǎng)絡收斂,但是如果初始權(quán)值給的不好,那么很可能無法收斂. 從表5可以看出,多數(shù)情況下MRII算法在Iris數(shù)據(jù)集上達到最大迭代次數(shù)后仍然無法收斂,而本文算法基本穩(wěn)定在100次左右迭代即可收斂.

        4.2算法泛化性能驗證

        使用UCI標準樣本庫中的Monk分類問題中的一個數(shù)據(jù)集Monk1來進行實驗驗證. Monk1問題為兩分類問題,共含124個樣本,6維輸入. 實驗中網(wǎng)絡的初始結(jié)構(gòu)為6-2-1,當網(wǎng)絡訓練精度達到100%后,開始裁剪,經(jīng)過裁剪和補償后,仍然保證精度為100%. 使用Monk1問題來驗證裁剪對網(wǎng)絡泛化率的影響. 在每一次實驗中,將Monk1樣本集隨機劃分成60%的訓練樣本集與40%的測試集. 將訓練樣本集訓練到100%的精度后,分別統(tǒng)計未經(jīng)裁剪與經(jīng)過裁剪后網(wǎng)絡對于測試集的泛化率. 同之前的奇偶校驗與Iris實驗一樣,為了快速收斂到所需精度,算法在升結(jié)構(gòu)階段在某一網(wǎng)絡結(jié)構(gòu)只進行1次迭代,如果達不到訓練精度,直接升隱層節(jié)點,因此在裁剪前通常會獲得較大的網(wǎng)絡結(jié)構(gòu). 但可以通過在裁剪階段進行較多次數(shù)的迭代學習,來減小網(wǎng)絡規(guī)模. 實驗結(jié)果如表6所示,多數(shù)經(jīng)過裁剪后的較小結(jié)構(gòu)網(wǎng)絡比起未經(jīng)裁剪的網(wǎng)絡有著更好的泛化率.

        表6 Monk實驗(網(wǎng)絡初始結(jié)構(gòu)6-2-1)

        5結(jié)論

        本文給出一種帶結(jié)構(gòu)調(diào)整的高效單隱層BFNN學習算法,解決了長期以來BFNN沒有高效學習算法的難題. 該算法能自適應調(diào)節(jié)隱層結(jié)構(gòu)并同時對隱層以及輸出層神經(jīng)元的權(quán)參數(shù)進行調(diào)整,在滿足給定訓練精度的前提下通過打造BN重要性尺度盡可能地裁剪隱層BN,使網(wǎng)絡具有較小的結(jié)構(gòu). 通過處理難度大的奇偶校驗問題以及UCI數(shù)據(jù)集里的真實問題,驗證了算法的可行性和有效性.

        參考文獻

        [1] ZHONG Shuiming, ZENG Xiaoqin, LIU Huiyi, et al. Approximate computation of Madaline sensitivity based on discrete stochastic technique [J]. Science China: Information Science, 2010,53(12): 2399-2414.

        [2] RUMELHART D E, HINTON G E, WILLIAMS R J. Learning representations by back propagation errors [J]. Nature, 1986,323(9): 533-536.

        [3] RUMELHART D E, MCCLELLAND J L. Parallel distributed processing: explorations in the microstructure of cognition [M]. Cambridge: MIT Press, 1986.

        [4] WINTER R, WIDROW B.Madaline rule II: a training algorithm for neural networks[C] // IEEE International Conference on Neural Networks. San Diega: IEEE Publishrs,1988: 401-408.

        [5] WINTER R.Madaline rule II: a new method for training networks for BNs [D]. Stanford: Standford University, 1989.

        [6] 張軍英,許進. 二進前向人工神經(jīng)網(wǎng)絡理論與應用[M].西安:西安電子科技大學出版社,2001: 157-168.

        [7] HUANG G B, ZHU Q, SIEW C K. Extreme learning machine: a new learning scheme of feedforward neural networks[C]//Proceedings of the IEEE International Joint Conference on Neural Networks.[s. n.]:IEEE,2004:985-990.

        [8] HUANG G B, ZHU Q, SIEW C K. Extreme learning machine: theory and applications[J]. Neurocomputing,2006,70(1/2/3):489-501.

        [9] HORNIK K, STINCHCOMBEA M, WHITE H. Miltilayer feedforward networks are universal approximators[J]. Neural Networks,1989,2(5):359-366.

        [10]MARTIN T H, HOWARD B D, MARK H B. Neural Network Design[M].Beijing: China Machine Press, 2002: 24-27.

        [11]REED R. Pruning algorithms—a survey[J]. IEEE Transactions on Neural Networks, 1993,4(5):740-747.

        [12]ENGELBRECHT A P. A new pruning heuristic based on variance analysis of sensitivity information[J].IEEE Transactions on Neural Networks,2001,12(6):1386-1398.

        [13]MICHE Y, SORJAMAA A, BAS P, et al. OP-ELM: optimally pruned extreme learning machine [J]. IEEE Trans on Neural Networks, 2010, 21(1): 158-162.

        (編輯王小唯苗秀芝)

        An efficient learning algorithm for binary feedforward neural networks

        ZENG Xiaoqin1, ZHOU Jianxin1, ZHENG Xing1, ZHONG Shuiming2

        (1. Institute of Intelligence Science and Technology, Computer and Information College, Hohai University, 211100 Nanjing, China;2. School of Computer and Software, Nanjing University of Information Science and Technology, 210044 Nanjing, China)

        Abstract:Focusing on the lack of efficient and practical learning algorithm for Binary Feedforward Neural Networks (BFNN), a novel learning algorithm by fusing the self-adaptations of both architecture and weight for training BFNN is proposed. Based on improving the methodology of Extreme Learning Machines (ELM), the algorithm can effectively train BFNNs with single hidden layer for solving classification problems. In order to satisfy training accuracy, the algorithm can automatically increase hidden neurons and adjust the neuron’s weights with the Perceptron Learning Rule. As to improve generalization accuracy, the algorithm can automatically, by establishing binary neuron’s sensitivity as a tool for measuring the relevance of each hidden neuron, prune the least relevant hidden neuron with some compensation for information losing due to the pruning. Experiment results verified the feasibility and effectiveness of the proposed algorithm.

        Keywords:binary feedforward neural network; learning algorithm; sensitivity; architecture pruning; classification

        中圖分類號:TP183

        文獻標志碼:A

        文章編號:0367-6234(2016)05-0148-07

        通信作者:周建新, zhoujx0219@163.com.

        作者簡介:曾曉勤(1957—),男,教授,博士生導師.

        基金項目:國家自然科學基金項目(60971088).

        收稿日期:2015-05-08.

        doi:10.11918/j.issn.0367-6234.2016.05.024

        猜你喜歡
        敏感性分類
        分類算一算
        垃圾分類的困惑你有嗎
        大眾健康(2021年6期)2021-06-08 19:30:06
        裂紋敏感性鋼鑄坯表面質(zhì)量控制
        山東冶金(2019年6期)2020-01-06 07:45:58
        分類討論求坐標
        丹參葉片在快速生長期對短期UV-B輻射的敏感性
        中成藥(2018年11期)2018-11-24 02:57:12
        數(shù)據(jù)分析中的分類討論
        教你一招:數(shù)的分類
        光纖應力腐蝕敏感性的測試與計算
        AH70DB鋼焊接熱影響區(qū)組織及其冷裂敏感性
        焊接(2016年1期)2016-02-27 12:55:37
        如何培養(yǎng)和提高新聞敏感性
        新聞傳播(2015年8期)2015-07-18 11:08:24
        中文字幕亚洲无线码a| 久久国产精品99精品国产| 一区二区在线观看视频亚洲| 国产剧情一区二区三区在线| 正在播放国产多p交换视频| 大地资源网最新在线播放| 无码伊人久久大杳蕉中文无码| 亚洲乱码av一区二区蜜桃av| 色狠狠色狠狠综合天天| 无码人妻丰满熟妇片毛片 | 国产成人亚洲精品电影| 中文字幕色婷婷在线视频| 亚洲av熟女少妇久久| 伊在人天堂亚洲香蕉精品区| 国产精品偷伦视频免费手机播放| 日本一区二区在线看看| 蜜桃成熟时在线观看免费视频| 曰韩无码二三区中文字幕| 亚洲毛片αv无线播放一区| 一区二区免费中文字幕| 丝袜美腿一区二区国产| 日本公妇在线观看中文版| 日韩熟妇精品视频一区二区| 中文字幕成人精品久久不卡91| 亚洲精品无码永久在线观看| 久久日本三级韩国三级| 国产精品玖玖资源站大全| 一区二区三区国产色综合| 久久综合九色综合97欧美| 国产成人AV无码精品无毒| 日本高清一区在线你懂得| 亚洲av无码专区在线| 乱码午夜-极品国产内射| 国产免费一区二区av| 91精品国产乱码久久中文| 亚洲欧洲精品无码av| 美女污污网站| 久久综合五月天啪网亚洲精品| 777米奇色狠狠俺去啦| 正在播放国产多p交换视频| 男女啪啪免费视频网址|