劉兆倫,武 尤,王衛(wèi)濤,張春蘭,吳 超,劉 彬,
1(燕山大學(xué) 河北省特種光纖與光纖傳感重點實驗室,河北 秦皇島 066004)2(燕山大學(xué) 信息科學(xué)與工程學(xué)院,河北 秦皇島 066004)3(燕山大學(xué) 電氣工程學(xué)院,河北 秦皇島 066004)
近年來,為了克服基本極端學(xué)習(xí)機(jī)(extreme learning machine,ELM)及其改進(jìn)算法提取特征能力差[1],難以有效處理圖像、視頻等自然信號的問題[2],基于稀疏編碼的多層極端學(xué)習(xí)機(jī)(HELM)作為一種多層神經(jīng)網(wǎng)絡(luò)被提出[3],其與傳統(tǒng)的疊加式自動編碼器(SAE)相比,訓(xùn)練時間可以從小時縮短到秒[4],在圖像處理[5-8]和非線性模型辨識[9,10]等領(lǐng)域得到了廣泛的研究.但在其應(yīng)用過程中,HELM暴露出一些明顯且公認(rèn)的缺點,即其在進(jìn)行大樣本數(shù)據(jù)集學(xué)習(xí)時所產(chǎn)生的巨大運(yùn)行內(nèi)存需求,以及當(dāng)訓(xùn)練集中存在噪聲等異常數(shù)據(jù)時,HELM的學(xué)習(xí)效果變差且過擬合現(xiàn)象明顯.
HELM在運(yùn)行過程中內(nèi)存占用較大的主要原因是:為保證HELM的學(xué)習(xí)精度,其決策層中的隱含層神經(jīng)元數(shù)量往往需要被設(shè)置得很大,這使得參與計算的特征矩陣維度升高,從而導(dǎo)致運(yùn)行內(nèi)存需求的劇增.目前學(xué)者們針對HELM內(nèi)存需求大的問題也多從降低決策層特征矩陣維度這個角度出發(fā),通過PCA等多種算法實現(xiàn)對HELM的決策層隱含神經(jīng)元數(shù)量的縮減來提出改進(jìn),如Wong Chi-man等將核學(xué)習(xí)引入HELM中來減小運(yùn)行內(nèi)存[11];Zhou Hong-ming等人利用主成分分析法逐層對隱含層輸出的特征矩陣進(jìn)行降維以降低內(nèi)存占用[12];Henríquez等人提出一種基于Garson算法的非迭代方法對隱含層神經(jīng)元進(jìn)行剪枝實現(xiàn)降低運(yùn)行內(nèi)存的目的[13].盡管這些方法均實現(xiàn)了減少運(yùn)行內(nèi)存的目的,但是增加的算法無疑會導(dǎo)致計算復(fù)雜度的上升和模型結(jié)構(gòu)復(fù)雜度的增加,從而使運(yùn)算時間變長、學(xué)習(xí)速度變慢.針對這一問題,Liang Nan-ying等人提出的一種在線極端學(xué)習(xí)機(jī)[14],可以實時根據(jù)新到來的數(shù)據(jù)對輸出層權(quán)重矩陣進(jìn)行矯正更新,給極端學(xué)習(xí)機(jī)處理大樣本數(shù)據(jù)提供了一種將訓(xùn)練數(shù)據(jù)分批次進(jìn)行學(xué)習(xí)的方法,也為降低多層極端學(xué)習(xí)的模型復(fù)雜度提供了思路.
HELM在訓(xùn)練集中存在噪聲等異常數(shù)據(jù)時,學(xué)習(xí)效果變差且易發(fā)生過擬合現(xiàn)象的原因是:HELM中的最小均方差準(zhǔn)則(MMSE)默認(rèn)數(shù)據(jù)誤差呈高斯分布[15],這在實際應(yīng)用數(shù)據(jù)中這樣的假設(shè)明顯是不合理的.針對這個問題Xing Hong-jie等人提出了基于相關(guān)熵準(zhǔn)則(MMC)的極端學(xué)習(xí)機(jī)[16],提升了極端學(xué)習(xí)機(jī)應(yīng)對異常數(shù)據(jù)的性能,降低模型對異常點的敏感性從而改善模型的過擬合問題.如Chen Liang-jun等人,用MCC準(zhǔn)則代替?zhèn)鹘y(tǒng)多層極端學(xué)習(xí)機(jī)(multilayer extreme learning machines,ML-ELM)決策層中的MMSE準(zhǔn)則,使ML-ELM的魯棒性和過擬合現(xiàn)象得到改善[3].唐哲等人將MCC準(zhǔn)則應(yīng)用于半監(jiān)督學(xué)習(xí)算法中,有效地提高了半監(jiān)督學(xué)習(xí)算法的學(xué)習(xí)性能[17].Luo Xiong等人將一種堆疊式多層極端學(xué)習(xí)機(jī)(stacked extreme learning machine,S-ELM)中的MMSE準(zhǔn)則替換為MCC準(zhǔn)則,實現(xiàn)了S-ELM學(xué)習(xí)精度的進(jìn)一步提高[18].這都為本文將MCC準(zhǔn)則引入HELM決策層提供了理論基礎(chǔ)和方法指導(dǎo).
根據(jù)上述多層極端學(xué)習(xí)機(jī)現(xiàn)存的問題和在線極端學(xué)習(xí)機(jī)、相關(guān)熵準(zhǔn)則等方法的啟發(fā),本文提出一種基于最大相關(guān)熵準(zhǔn)則的批量編碼式多層極端學(xué)習(xí)機(jī).在原始多層極端學(xué)習(xí)機(jī)的決策層中引入最大相關(guān)熵準(zhǔn)則,構(gòu)建基于最大相關(guān)熵準(zhǔn)則的多層極端學(xué)習(xí)機(jī).基于最大相關(guān)熵準(zhǔn)則的多層極端學(xué)習(xí)機(jī)(MCC-HELM)分批次對由大數(shù)據(jù)集分解得到的多個小數(shù)據(jù)集進(jìn)行學(xué)習(xí),接著利用在線極端學(xué)習(xí)機(jī)的方法,將多個批次的學(xué)習(xí)數(shù)據(jù),在MCC-HELM的決策層實現(xiàn)融合,構(gòu)成基于最大相關(guān)熵準(zhǔn)則的批量編碼式多層極端學(xué)習(xí)機(jī)(BC-HELM),并得到最終的學(xué)習(xí)結(jié)果.最后通過仿真實驗確定其網(wǎng)絡(luò)參數(shù)并通過與其他多層極端學(xué)習(xí)機(jī)對比來驗證其性能.
原始多層極端學(xué)習(xí)機(jī)由兩部分組成:基于稀疏自動編碼器的無監(jiān)督特征學(xué)習(xí)和基于傳統(tǒng)極端學(xué)習(xí)機(jī)的有監(jiān)督?jīng)Q策[19].而決策層中傳統(tǒng)極端學(xué)習(xí)機(jī)是基于MMSE準(zhǔn)則來建立目標(biāo)函數(shù)的,由于該準(zhǔn)則對異常點極為敏感,傳統(tǒng)極端學(xué)習(xí)機(jī)在應(yīng)用過程中極易出現(xiàn)過擬合現(xiàn)象.于是本文將原始多層極端學(xué)習(xí)機(jī)決策層中的MMSE準(zhǔn)則使用MCC準(zhǔn)則代替,設(shè)輸入的訓(xùn)練樣本數(shù)為S,隱含層神經(jīng)元個數(shù)為L到,得到新的目標(biāo)函數(shù):
(1)
(2)
式(2)中σ為尺度因子,τ為正則化參數(shù)。針對上述非線性優(yōu)化問題,采用半二次優(yōu)化技術(shù)通過迭代方法進(jìn)行求解,目標(biāo)函數(shù)為:
(3)
對式(3)進(jìn)行求導(dǎo)得到:
(4)
根據(jù)半二次優(yōu)化技術(shù)中的共軛凸函數(shù)理論[20],式(4)中的高斯核的部分暫時使用對角矩陣中Λ表示即:
(5)
于是式(4)整理為矩陣形式變?yōu)椋?/p>
(6)
由于多層極端學(xué)習(xí)機(jī)是針對大樣本數(shù)據(jù)集的處理提出的,因此本文默認(rèn)訓(xùn)練樣本數(shù)遠(yuǎn)遠(yuǎn)大于隱含層神經(jīng)元的數(shù)目,則對式(6)進(jìn)行求解得到輸出權(quán)值矩陣的表達(dá)式為:
β=[2τσ2I+HTΛH]-1HTΛT
(7)
于是得到迭代表達(dá)式:
(8)
式(8)中的對角矩陣Λ是根據(jù)半二次優(yōu)化技術(shù)中的共軛凸函數(shù)理論建立的,來表示目標(biāo)函數(shù)中高斯核的部分.其中對角矩陣Λt+1中的Λii對應(yīng)第i組數(shù)據(jù)通過上一次迭代得到的輸出權(quán)重βt而求得的學(xué)習(xí)輸出與目標(biāo)輸出之間的距離;βt+1表示根據(jù)Λt+1中的距離更新得到的新的輸出權(quán)重矩陣.設(shè)輸出數(shù)據(jù)維度為m,設(shè)置一個轉(zhuǎn)換矩陣φ∈(S×m),令:
β=HTφ
(9)
同時將式(7)中等號右邊求逆的部分換回等號左邊,則式(7)重構(gòu)為:
[2τσ2I+HTΛH]HTφ=HTΛT
(10)
將式(10)等號右邊中的HT乘進(jìn)括號中,等號兩邊便能夠同時抵消掉最右邊的HT,于是式(10)寫為:
[2τσ2I+ΛHHT]φ=ΛT
(11)
由核函數(shù)理論可知,存在低維輸入空間中的核函數(shù)k(x,x′)與高維特征空間中的內(nèi)積〈φ(x)·φ(x′)〉相等[21],即核函數(shù)用來代替式(11)表達(dá)式中的內(nèi)積計算,則:
[2τσ2I+ΛK]φ=ΛT
(12)
同理,將式(9)的變換代入式(5)中,并將對角矩陣Λ中的內(nèi)積計算由核函數(shù)形式代替,得到:
(13)
式(13)中Ki表示第i個數(shù)據(jù)對應(yīng)隱含層輸出的特征矩陣的內(nèi)積hihiT,式(12)中K表示由Ki組成的對角矩陣,這里由于只需計算對角線上的數(shù)值,因此即使核變換導(dǎo)致運(yùn)算矩陣的維度由L×L升高至S×S但是計算量卻大大下降,避免了計算量因隱含神經(jīng)元數(shù)目的增加而劇增的問題,于是經(jīng)過式(9)變換后得到MCC-HELM的決策層即MCC-ELM的迭代公式為:
(14)
MCC-HELM結(jié)構(gòu)如圖1所示.
圖1 MCC-HELM結(jié)構(gòu)Fig.1 MCC-HELM network
在保證學(xué)習(xí)效果的前提下,訓(xùn)練數(shù)據(jù)的個數(shù)越多則需要的隱含層神經(jīng)元數(shù)量越大.于是本文將訓(xùn)練數(shù)據(jù)平均分為D組,每組數(shù)據(jù)形成一個批次,分別通過MCC-HELM進(jìn)行學(xué)習(xí),從而降低每一個MCC-HELM對最后決策層中隱含層神經(jīng)元數(shù)量的需求.最后將在線極端學(xué)習(xí)機(jī)的方法引入進(jìn)來,將當(dāng)前組的MCC-HELM的決策層與歷史組數(shù)據(jù)的MCC-HELM決策層結(jié)合再完成決策.這樣一來,每一次的決策都是在綜合歷史訓(xùn)練數(shù)據(jù)通過多層稀疏自動編碼器學(xué)習(xí)到的所有特征信息的基礎(chǔ)上進(jìn)行的,因此保證了學(xué)習(xí)結(jié)果的可靠性,達(dá)到保證精度的同時縮小內(nèi)存需求的要求.
由于在融合決策階段涉及到整體求逆的問題,為了減小求逆的時間,不再進(jìn)行式(9)以及核矩陣的轉(zhuǎn)換,仍然轉(zhuǎn)換為原始極端學(xué)習(xí)機(jī)中當(dāng)訓(xùn)練數(shù)據(jù)遠(yuǎn)遠(yuǎn)大于隱含層神經(jīng)元時的輸出權(quán)重表達(dá)式的形式,從而減小融合決策時需要進(jìn)行求逆的矩陣的維度,縮短計算時間。用A表示由各批次數(shù)據(jù)的迭代結(jié)果Λ所組成的融合對角矩陣,即式(14)迭代運(yùn)算中的φ只為了求得更優(yōu)的Λ,來用于融合進(jìn)A中,而融合得到的A則代回式(7)求得最終的β。
于是假設(shè)多層極端學(xué)習(xí)機(jī)由兩層稀疏自動編碼器和一層基于最大相關(guān)熵準(zhǔn)則的極端學(xué)習(xí)機(jī)構(gòu)成,以批次數(shù)為3做例,將訓(xùn)練數(shù)據(jù)平均分為3組,分別使用D1、D2、D3來表示。將D1輸入MCC-HELM1中,得到多層極端學(xué)習(xí)機(jī)決策層的隱含層輸出的特征矩陣Η31,并迭代求得第一部分訓(xùn)練數(shù)據(jù)D1所對應(yīng)的輸出權(quán)重矩陣β1;同理分別將D2、D3輸入MCC-HELM2、MCC-HELM3中,得到多層極端學(xué)習(xí)機(jī)決策層的隱含層輸出Η32、Η33。本文提出一種批量編碼式MCC-HELM的結(jié)構(gòu),對D組訓(xùn)練結(jié)果進(jìn)行融合決策。對于數(shù)據(jù)D1來說,根據(jù)2.1內(nèi)容所示令:
H1=H31
A1=Λ1
其中Λ1表示數(shù)據(jù)D1通過半二次優(yōu)化技術(shù)迭代求得的對角矩陣,則:
(15)
(16)
將第2批數(shù)據(jù)求解得到的特征矩陣Η32與第1批數(shù)據(jù)求得的特征矩陣Η31結(jié)合,得到Η2:
同時,通過式(14)的迭代得到Λ2,于是:
則得到:
(17)
式(17)右側(cè)求逆部分用M2表示,則:
(18)
式(17)右側(cè)非求逆部分可表示為:
(19)
于是得到:
(20)
同理,依次將每一批訓(xùn)練數(shù)據(jù)對應(yīng)的MCC-HELM決策層中隱含層輸出進(jìn)行融合,得到MCC-HELM最終的迭代表達(dá)式:
(21)
式(21)中,t表示每一批數(shù)據(jù)的迭代次數(shù),Z表示已輸入的數(shù)據(jù)批次數(shù);每對一批訓(xùn)練數(shù)據(jù)進(jìn)行融合和學(xué)習(xí),輸出權(quán)重矩陣β就被優(yōu)化并更新一次,最終得到一個包含對所有訓(xùn)練數(shù)據(jù)學(xué)習(xí)得到的信息的最優(yōu)輸出權(quán)重矩陣βfinal.在測試階段,將測試數(shù)據(jù)全部輸入MMC-HELM中,得到Η3t.直接通過式(22)得到預(yù)測輸出:
Y=H3tβfinal
(22)
基于最大相關(guān)熵準(zhǔn)則的批量編碼式多層極端學(xué)習(xí)機(jī)結(jié)構(gòu)如圖2所示.
本論文的數(shù)值計算得到了燕山大學(xué)超算中心的計算支持和幫助,均是基于Intel E5-2683v3(28核)@2.0GHz,64GB RAM,Centos7.2,使用Matlab R2018a仿真軟件進(jìn)行的.以MNIST、NORB兩個深度學(xué)習(xí)最常用的大樣本數(shù)據(jù)集為例對本文所提出的BC-HELM進(jìn)行參數(shù)的選擇并與其它多層極端學(xué)習(xí)機(jī)進(jìn)行性能對比.其中MNIST數(shù)據(jù)集由250人的手寫數(shù)字圖像構(gòu)成,是最常用的合理性檢驗數(shù)據(jù)集;NORB數(shù)據(jù)集為以不同照明及擺放方式攝制玩具模型的雙目圖像,是常用的圖像分類數(shù)據(jù)集.具體信息如表1所示.
圖2 基于最大相關(guān)熵準(zhǔn)則的批量編碼式多層極端學(xué)習(xí)機(jī)結(jié)構(gòu)圖Fig.2 Structure of batch coded hierarchical extreme learning machine based on maximum correntropy criterion
表1 數(shù)據(jù)集信息
Table 1 Data set information
數(shù)據(jù)集特征數(shù)訓(xùn)練樣本數(shù)測試樣本數(shù)類別MNIST28?28600001000010NORB1024?224300243005
圖3 不同批次數(shù)性能對比Fig.3 Performance comparison of different batches
從圖3可以看到,對于最大內(nèi)存占用:當(dāng)批次數(shù)變大時,由于每次輸入的訓(xùn)練樣本數(shù)變小,使得最大內(nèi)存占用也會相應(yīng)減小.對于運(yùn)行時間:當(dāng)批次數(shù)變大時,每次輸入的訓(xùn)練樣本數(shù)變小,參與計算的矩陣維度減小,使得計算時間降低,但是同時,不同批次的訓(xùn)練結(jié)果依次進(jìn)行結(jié)合的過程需要額外的計算,因此隨著批次數(shù)的增加,這部分額外計算所需要的時間也將變大,因此,由于矩陣維度降低而縮短的計算時間大于多個訓(xùn)練批次結(jié)合的計算時間時,運(yùn)行時間將會下降,反之,運(yùn)行時間將會上升.于是隨著批次數(shù)的增加,最大內(nèi)存占用將呈現(xiàn)逐漸減小的趨勢,而整體運(yùn)行時間將會出現(xiàn)先下降后上升的情況.因此需要通過實驗來折中選取每個數(shù)據(jù)集對應(yīng)最佳的批次數(shù),即最大內(nèi)存占用盡量少的同時運(yùn)行時間也較低的情況.圖3(a)對應(yīng)NORB數(shù)據(jù)集將批次數(shù)依次設(shè)置為1-10時所占用的最大內(nèi)存和運(yùn)行時間,可以看出當(dāng)批次數(shù)為5的點是最接近原點的點,即將訓(xùn)練樣本分成5個批次進(jìn)行訓(xùn)練時,內(nèi)存占用與運(yùn)行時間都較低是最佳的情況.同時,由于測試樣本數(shù)相對較大(與訓(xùn)練樣本數(shù)相同),當(dāng)批次數(shù)大于5時所占用的最大內(nèi)存將產(chǎn)生于測試數(shù)據(jù)的運(yùn)算過程中,因此呈現(xiàn)較為平緩的趨勢.圖3(b)對應(yīng)MNIST數(shù)據(jù)集將批次數(shù)依次設(shè)置為1-10時所占用的最大內(nèi)存和運(yùn)行時間,當(dāng)批次數(shù)大于6時,訓(xùn)練樣本數(shù)降至10000以下,小于測試樣本數(shù),所占用的最大內(nèi)存將產(chǎn)生于測試數(shù)據(jù)的運(yùn)算過程中,因此占用的最大內(nèi)存趨于穩(wěn)定,由于圖3(b)中當(dāng)批次數(shù)為7、8、9、10對應(yīng)的點相距較近,因此將這5種情況在表2中詳細(xì)列出進(jìn)行對比與選擇.
表2 MNIST數(shù)據(jù)集的相近批次數(shù)性能對比
Table 2 Performance comparison of similar batches under MNIST data sets
批次數(shù)運(yùn)行時間(S)標(biāo)準(zhǔn)差最大內(nèi)存(MB)標(biāo)準(zhǔn)差778.009.833948.55379.46875.0012.543921.14716.08972.008.634190.761026.071070.007.033909.84243.19
表2中標(biāo)準(zhǔn)差數(shù)值的大小反映了每次運(yùn)行的結(jié)果相對于均值的離散程度,標(biāo)準(zhǔn)差越小,表示運(yùn)行結(jié)果與均值的偏差越小.通過表2不難發(fā)現(xiàn),對于MNIST數(shù)據(jù)集,批次數(shù)為7、8、9、10時相比,最大內(nèi)存占用相當(dāng),而批次數(shù)為10時的運(yùn)行時間最短,同時運(yùn)行時間與最大內(nèi)存分別對應(yīng)的數(shù)據(jù)標(biāo)準(zhǔn)差也最小.因此綜上所述,對于MNIST數(shù)據(jù)集將批次數(shù)設(shè)置為10,對于NORB數(shù)據(jù)集將批次數(shù)設(shè)置為5.將每個數(shù)據(jù)集的訓(xùn)練批次數(shù)確定后,每批次輸入的樣本個數(shù)即確定了,在此基礎(chǔ)上通過實驗可以得到BC-HELM的正則化系數(shù)C的數(shù)量級以及決策層隱含層神經(jīng)元個數(shù)L與測試精度之間的關(guān)系.實驗結(jié)果如圖4、圖5所示.
圖4 MNIST數(shù)據(jù)集 BC_HELM在不同參數(shù)下性能對比Fig.4 Performance comparison of BC_HELM with different parameters data set MNIST data set
從圖4可以看出,對于MNIST數(shù)據(jù)集,當(dāng)C=220時(a)圖中的不同L值對應(yīng)的曲線開始趨于穩(wěn)定,同時從(b)圖中可以看出當(dāng)L=8000時不同C值對應(yīng)的曲線均達(dá)到最大值.即當(dāng)L=8000時BC-HELM的精度在趨于穩(wěn)定時達(dá)到最高,當(dāng)L<8000時,測試精度隨著L的增加而變大;當(dāng)L>8000時,測試精度略低于L=8000時的精度,且隨著L的增大,測試精度逐漸趨于穩(wěn)定.從圖5可以看出,對于NORB數(shù)據(jù)集,當(dāng)C=215時(a)圖中的曲線開始趨于穩(wěn)定,同樣從(b)圖中可以看出當(dāng)L=650時不同C值對應(yīng)的曲線達(dá)到最大值.即當(dāng)L=650時BC-HELM的精度趨于穩(wěn)定時達(dá)到最高,當(dāng)L<650和L>650時,測試精度隨著L的變化現(xiàn)象與MNIST數(shù)據(jù)集對應(yīng)相同.于是對于MNIST數(shù)據(jù)集將BC-HELM的正則化系數(shù)C設(shè)置為220,決策層隱含層神經(jīng)元個數(shù)L設(shè)置為8000;對于NORB數(shù)據(jù)集將BC-HELM的正則化系數(shù)C設(shè)置為215,決策層隱含層神經(jīng)元個數(shù)L設(shè)置為650.
圖5 NORB數(shù)據(jù)集 BC-HELM在不同參數(shù)下性能對比Fig.5 Performance comparison of BC_HELM with different parameters under NORB data set
將所有參數(shù)確定后,將BC-HELM與HELM進(jìn)行性能對比.同時表3中列出了BC-HELM與HELM的多方面信息進(jìn)行對比.
表3 BC-HELM與HELM的性能對比統(tǒng)計
Table 3 Performance comparison statistics between BC-HELM and HELM
數(shù)據(jù)集網(wǎng)絡(luò)運(yùn)行時間(S)測試精度(%)最大內(nèi)存(MB)決策層隱含節(jié)點數(shù)MNISTHELM[22]281.3799.1213234.3712000BC-HELM101.0099.526021.348000NORBHELM[22]432.1991.287618.8615000BC-HELM41.0093.592130.17650
根據(jù)表3中的統(tǒng)計數(shù)據(jù)可以得到,BC-HELM雖然與HELM有著相同的收斂特性,但相較與HELM,BC-HELM可以收斂于更高的測試精度.即與HELM相比,在MNIST數(shù)據(jù)集上測試精度提高0.4%,在NORB數(shù)據(jù)集上測試精度提高2.31%.這是由于MCC準(zhǔn)則與HELM中MMSE準(zhǔn)則相比降低了網(wǎng)絡(luò)對異常點的敏感性,使網(wǎng)絡(luò)的過擬合問題得到改善,因此測試精度有小幅度的提升.從決策層隱含節(jié)點數(shù)來看,訓(xùn)練數(shù)據(jù)分批次輸入,使每次輸入的訓(xùn)練樣本數(shù)減小,這直接降低了數(shù)據(jù)對決策層節(jié)點數(shù)L的需求,因此在兩個數(shù)據(jù)集上BC-HELM的決策層節(jié)點數(shù)均小于HELM.同理,對于占用的最大內(nèi)存而言,BC-HELM與HELM相比,在MNIST數(shù)據(jù)集上降低54.50%,在NORB數(shù)據(jù)集上降低72.04%,這是由于輸入的訓(xùn)練樣本數(shù)減小,相當(dāng)于將特征矩陣縱向降維,同時決策層節(jié)點數(shù)減少相當(dāng)于對特征矩陣進(jìn)行橫向降維,雙重降維后對特征矩陣的計算量將大大減小,也因此與HELM相比運(yùn)行時間被大大縮短,分別在MNIST數(shù)據(jù)集上縮短64.10%,在NORB數(shù)據(jù)集上縮短90.51%.綜上所述,BC-HELM相比于HELM,在保證測試精度的前提下,縮短了運(yùn)行時間的同時大大降低了內(nèi)存需求.
下面針對運(yùn)行時間與測試精度兩個方面將BC-HELM與兩種經(jīng)典的多層ELM網(wǎng)絡(luò)(文獻(xiàn)[22,1])以及三種最新的多層ELM網(wǎng)絡(luò)(文獻(xiàn)[12,3,2])進(jìn)行對比,統(tǒng)計結(jié)果如表4所示.
表4 BC-HELM與其他多層ELM的性能對比統(tǒng)計
Table 4 Performance comparison statistics between BC-HELM and other multilayer ELM
數(shù)據(jù)集網(wǎng)絡(luò)運(yùn)行時間(S)測試精度(%)MNISTAE-S-ELM[12]4347.0098.89EH-ELM[2]1632.4599.05FC-MELM[3]268.0098.89ML-ELM[1]475.8399.04HELM[22]281.3799.12BC-HELM78.0099.52NORBAE-S-ELM[12]2799.0091.24EH-ELM[2]1341.6791.78FC-MELM[3]498.0091.87ML-ELM[1]775.2988.91HELM[22]432.1991.28BC-HELM41.0093.59
從表4中數(shù)據(jù)可以得到,兩種經(jīng)典的多層ELM網(wǎng)絡(luò)相比,HELM的運(yùn)行時間在MNIST數(shù)據(jù)集上較ML-ELM縮短40.87%,在NORB數(shù)據(jù)集上較ML-ELM縮短44.25%,同時測試精度分別提高了0.08%和2.37%,這是由于在決策層中加入一層隱含層映射,使決策層變?yōu)樵紭O端學(xué)習(xí)機(jī),相比于ML-ELM的決策層減少了自動編碼的大量計算因此運(yùn)行時間被縮短,也正因加入的隱含層映射,將編碼層無監(jiān)督學(xué)習(xí)到的結(jié)果映射至特征空間再進(jìn)行有監(jiān)督?jīng)Q策使測試精度提高,使HELM比ML-ELM具有更佳的學(xué)習(xí)性能.而3.2節(jié)中將HELM與本文提出的BC-HELM進(jìn)行對比可以得到,BC-HELM具有比HELM更高的學(xué)習(xí)效率.
從三種最新的多層ELM網(wǎng)絡(luò)數(shù)據(jù)來看,AE-S-ELM、EH-ELM兩個網(wǎng)絡(luò)在兩數(shù)據(jù)集上的運(yùn)行時間遠(yuǎn)遠(yuǎn)大于BC-HELM,較HELM也顯著增加,這說明此兩種多層ELM網(wǎng)絡(luò)均存在著由于網(wǎng)絡(luò)復(fù)雜度的增加而使運(yùn)行時間被大幅增加的問題,而FC-MELM網(wǎng)絡(luò)的運(yùn)行時間雖然與HELM相比不相上下,但BC-HELM與之相比,在MNIST數(shù)據(jù)集上縮短70.90%,在NORB數(shù)據(jù)集上縮短91.77%,可見從運(yùn)行時間來看,BC-HELM最佳.從測試精度來看,在MNIST數(shù)據(jù)集上,BC-HELM較AE-S-ELM提高0.63%,較EH-ELM提高0.47%,較FC-MELM提高0.63%;在NORB數(shù)據(jù)集上,BC-HELM較AE-S-ELM提高2.35%,較EH-ELM提高1.81%,較FC-MELM提高1.72%,即與三種最新的多層ELM網(wǎng)絡(luò)相比BC-HELM的測試精度最高.綜上可得,本文提出的BC-HELM與兩種經(jīng)典的多層ELM網(wǎng)絡(luò)以及三種最新的多層ELM網(wǎng)絡(luò)相比,運(yùn)行時間更短且測試精度更高,具有更佳的學(xué)習(xí)效率.
本文構(gòu)建了一種基于最大相關(guān)熵準(zhǔn)則的批量編碼式多層極端學(xué)習(xí)機(jī)--BC-HELM.將MCC準(zhǔn)則應(yīng)用于HELM的決策層中,避免了傳統(tǒng)的MMSE準(zhǔn)則對異常點敏感的問題,使HELM網(wǎng)絡(luò)的過擬合現(xiàn)象得到改善,從而保證了分類精度.同時提出了一種對訓(xùn)練數(shù)據(jù)進(jìn)行批量編碼的學(xué)習(xí)方法,通過將訓(xùn)練樣本批量學(xué)習(xí)的方式,減少輸入網(wǎng)絡(luò)的樣本個數(shù),降低了大樣本數(shù)據(jù)對網(wǎng)絡(luò)隱含層節(jié)點數(shù)的需求,使計算量隨之大大下降,從而也降低了學(xué)習(xí)過程中所占用的最大內(nèi)存與運(yùn)行時間.實驗結(jié)果表明,本文提出的BC-HELM與HELM相比,在保證測試精度的前提下,運(yùn)行時間更短且內(nèi)存需求也被大大降低;與其他多層ELM網(wǎng)絡(luò)相比也具有更高的學(xué)習(xí)效率.