王 芳,續(xù)欣瑩,閻高偉
(太原理工大學(xué)信息工程學(xué)院,山西太原 030024)
?
基于自適應(yīng)差分進(jìn)化算法優(yōu)化極限學(xué)習(xí)機(jī)的球磨機(jī)料位測(cè)量
王 芳,續(xù)欣瑩,閻高偉
(太原理工大學(xué)信息工程學(xué)院,山西太原 030024)
極限學(xué)習(xí)機(jī)在實(shí)際應(yīng)用中具有學(xué)習(xí)速度快、訓(xùn)練誤差小的優(yōu)點(diǎn),但其穩(wěn)定性與泛化能力卻較差。針對(duì)其缺點(diǎn),將自適應(yīng)差分進(jìn)化算法引入極限學(xué)習(xí)機(jī)對(duì)其改進(jìn),利用自適應(yīng)差分進(jìn)化算法的全局尋優(yōu)能力,求取訓(xùn)練誤差較小時(shí)極限學(xué)習(xí)機(jī)的輸入權(quán)值矩陣以及隱含層偏置矩陣,從而優(yōu)化極限學(xué)習(xí)機(jī)。將優(yōu)化后的極限學(xué)習(xí)機(jī)應(yīng)用于球磨機(jī)料位測(cè)量,實(shí)驗(yàn)結(jié)果表明,優(yōu)化后的極限學(xué)習(xí)機(jī)與傳統(tǒng)極限學(xué)習(xí)機(jī)相比具有較高的測(cè)量精度和較好的穩(wěn)定性。
自適應(yīng)差分進(jìn)化算法;極限學(xué)習(xí)機(jī);測(cè)試誤差;球磨機(jī)料位測(cè)量
針對(duì)球磨機(jī)的料位測(cè)量,學(xué)者們提出了各類方法。文獻(xiàn)[1]引入支持向量機(jī)(SVM)并結(jié)合機(jī)理知識(shí)對(duì)球磨機(jī)料位進(jìn)行軟測(cè)量。文獻(xiàn)[2]針對(duì)球磨機(jī)優(yōu)化工況監(jiān)測(cè)的不足,提出了基于筒體振動(dòng)信號(hào)的球磨機(jī)優(yōu)化工況監(jiān)測(cè)方法。文獻(xiàn)[3]基于振動(dòng)信號(hào)和反向傳播神經(jīng)網(wǎng)絡(luò)建立了球磨機(jī)料位的軟測(cè)量模型。神經(jīng)網(wǎng)絡(luò)模型在球磨機(jī)的料位測(cè)量中具有一定的應(yīng)用價(jià)值。然而傳統(tǒng)神經(jīng)網(wǎng)絡(luò)模型的測(cè)量精度會(huì)因樣本數(shù)量而受限。
極限學(xué)習(xí)機(jī)(Extreme Learning Machine,ELM)是由黃廣斌等提出的單隱層前饋神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)算法,相比于傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)模型,具有學(xué)習(xí)速度快,訓(xùn)練誤差小的優(yōu)點(diǎn)。極限學(xué)習(xí)機(jī)有效避免了傳統(tǒng)神經(jīng)網(wǎng)絡(luò)模型存在的網(wǎng)絡(luò)結(jié)構(gòu)難以確定和容易造成過學(xué)習(xí)的缺點(diǎn)[4-5]。然而,利用訓(xùn)練集進(jìn)行學(xué)習(xí)時(shí),ELM 的輸入權(quán)值以及隱含層偏置矩陣均為隨機(jī)生成,使得ELM 的穩(wěn)定性與泛化能力較差。自適應(yīng)差分進(jìn)化算法(Self-adaptive Differential Algorithm,SaDE)[6]由A.K.Qin 等提出,是對(duì)傳統(tǒng)差分進(jìn)化算法的改進(jìn)。與傳統(tǒng)差分進(jìn)化算法相比,SaDE具有更強(qiáng)的全局搜索能力、更快的收斂速度和更高的收斂精度。
綜上,本文將SaDE引入極限學(xué)習(xí)機(jī),利用SaDE的全局搜索能力獲得與訓(xùn)練樣本最佳匹配的輸入權(quán)值矩陣以及隱含層偏置矩陣。文中將極限學(xué)習(xí)機(jī)對(duì)于給定樣本集的訓(xùn)練誤差作為SaDE的尋優(yōu)函數(shù),通過種群個(gè)體的不斷進(jìn)化獲得訓(xùn)練誤差較小時(shí)相應(yīng)的種群個(gè)體,由此得到輸入權(quán)值矩陣以及隱含層偏置矩陣,從而提高ELM的測(cè)量精度。之后,將自適應(yīng)差分進(jìn)化算法優(yōu)化極限學(xué)習(xí)機(jī)方法用于球磨機(jī)料位測(cè)量,驗(yàn)證了該方法的有效性和實(shí)用性。
1.1 極限學(xué)習(xí)機(jī)(ELM)
設(shè)訓(xùn)練集樣本為[xi,yi](i=1,2,…,N,N為訓(xùn)練樣本個(gè)數(shù)),ELM的隱含層單元個(gè)數(shù)為k,激發(fā)函數(shù)為g(x),則ELM的輸出模型為
(1)
式中:βj為連接第j個(gè)隱含層節(jié)點(diǎn)和輸出節(jié)點(diǎn)的權(quán)重;αj為連接第j個(gè)隱含層節(jié)點(diǎn)和輸入節(jié)點(diǎn)的權(quán)重矩陣;dj為第j個(gè)隱層節(jié)點(diǎn)的偏置值;g(x)可選為sigmoid、sine或RBF等函數(shù)。
訓(xùn)練過程中,求取α、β、d滿足如下等式:
(2)
式(2)可由矩陣表示為:
Hβ=Y
(3)
(4)
從而,隱含層和輸出層之間的連接權(quán)值β可由極小2-范數(shù)最小二乘解得:
(5)
式中H?為隱含層輸出矩陣H的Moore-Penrose廣義逆。
綜上所述,極限學(xué)習(xí)機(jī)的實(shí)現(xiàn)步驟為:
(1) 根據(jù)訓(xùn)練樣本集[xi,yi](i=1,2,3…,N,N為訓(xùn)練樣本個(gè)數(shù)),確定激勵(lì)函數(shù)g(x)以及隱含層單元個(gè)數(shù)k;
(2) 隨機(jī)生成輸入權(quán)值矩陣α以及隱含層偏置矩陣d;
(3) 根據(jù)式(4)求得隱含層輸出矩陣H;
(4) 根據(jù)式(5)求出連接權(quán)重β。
1.2 自適應(yīng)差分進(jìn)化算法優(yōu)化極限學(xué)習(xí)機(jī)
自適應(yīng)差分進(jìn)化算法(SaDE)是一種隨機(jī)并行搜索算法,其實(shí)質(zhì)為實(shí)數(shù)編碼的貪婪遺傳算法。與傳統(tǒng)的差分進(jìn)化算法[7-8]相比,該算法在種群進(jìn)化過程的不同時(shí)期采取不同的變異策略,從而提高了算法的收斂速度與收斂精度。
自適應(yīng)差分進(jìn)化算法優(yōu)化極限學(xué)習(xí)機(jī)(SaDE-ELM)實(shí)現(xiàn)步驟如下:
1.2.1 初始化
給定訓(xùn)練樣本集[xi,yi](xi∈Rn,n為輸入神經(jīng)元個(gè)數(shù),i=1,2,…,N,N為訓(xùn)練樣本個(gè)數(shù)),設(shè)置極限學(xué)習(xí)機(jī)隱含層單元個(gè)數(shù)k以及激勵(lì)函數(shù)g(x)。初始化NP個(gè)維數(shù)為D(D=k·(n+1))的參數(shù)向量tr,g(r=1,2,…,NP),編碼方式為實(shí)數(shù)編碼,g表示迭代次數(shù),種群個(gè)體每一維的取值范圍為[-1,1]。
其任意一個(gè)種群個(gè)體t由ELM的輸入權(quán)值矩陣α(α1,α2,…αk)和隱含層偏置矩陣(d)組成,即t=[α11,α12…αln,…,αk1,αk2,…,αkn,d1,…,dk]。
對(duì)于每一個(gè)種群個(gè)體tr,g,按照式計(jì)算出隱含層輸出矩陣H,然后按照式得到輸出權(quán)重β,最后按照式計(jì)算每個(gè)個(gè)體的均方根誤差(Root-Mean-Square Error,RMSE)。
(6)
1.2.2 變異
對(duì)于任意一個(gè)目標(biāo)向量tr,g,取式(7)、式(8)兩種變異策略中的一種進(jìn)行變異操作。
νr,g+1=tr1,g+F·(tr2,g-tr3,g)
(7)
νr,g+1=tbest,g+F·(tr1,g-tr2,g)
(8)
式中:r1、r2、r3表示種群個(gè)體序號(hào),三者互不相同,且分別與目標(biāo)序號(hào)r不同,因此須滿足NP≥4;tbest,g表示當(dāng)前種群中適應(yīng)度值最高的個(gè)體;變異概率F的取值范圍為[0,1]。
式(7)變異策略收斂速度較慢,空間搜索能力很強(qiáng)。式(8)變異策略收斂速度較快,容易陷入局部最優(yōu)。因此,在SaDE中,為了能夠最大范圍的覆蓋搜索空間,算法運(yùn)行初期按照式進(jìn)行變異操作,而在算法運(yùn)行后期需要以較快的速度收斂至最優(yōu)值區(qū)域,按照式(8)進(jìn)行變異操作。
1.2.3 交叉
交叉操作基于原始向量tr,g以及變異向量vr,g+1,按照式生成新的交叉向量ur,g+1。
μr,g+1=(μ1r,g+1,μ2r,g+1,…,uDr,g+1)
(9)
(r=1,2,…,NP;S=1,2,…,D)
式中:randb(0,1)產(chǎn)生第s維的隨機(jī)數(shù);randi(D)為1,2,…,D中的隨機(jī)數(shù),這樣保證了試驗(yàn)向量ur,g+1的一部分信息是繼承于個(gè)體vr,g+1;CR為交叉概率,取值范圍為[0,1]。
1.2.4 選擇
依據(jù)貪婪準(zhǔn)則對(duì)比試驗(yàn)向量ur,g+1與當(dāng)前種群中的目標(biāo)向量tr,g的適應(yīng)度值,保留適應(yīng)度值較高的個(gè)體。在選擇過程中將均方根誤差(RMSE)作為適應(yīng)度函數(shù)。SaDE-ELM的基本流程如圖 1所示。
圖1 SaDE-ELM流程圖
2.1 實(shí)驗(yàn)數(shù)據(jù)采集
實(shí)驗(yàn)中所用的樣本數(shù)據(jù)來自對(duì)小型實(shí)驗(yàn)室球磨機(jī)的數(shù)據(jù)采集。該球磨機(jī)尺寸為Φ360 mm×450 mm,通過功率為2.2 kW的電動(dòng)機(jī)對(duì)其驅(qū)動(dòng),球磨機(jī)轉(zhuǎn)速設(shè)為60 r/min。球磨機(jī)滾筒內(nèi)加入適量的鋼球,物料每1 min增加1 L,期間以50 kHz 的采樣頻率采集每升料位下的振動(dòng)信號(hào)。數(shù)據(jù)采集由數(shù)據(jù)采集系統(tǒng)完成,主要組成部分包括振動(dòng)傳感器、信號(hào)放大器、濾波電路以及USB數(shù)據(jù)采集器和上位機(jī)組成。具體的操作為將振動(dòng)傳感器置于球磨機(jī)遠(yuǎn)離電動(dòng)機(jī)一端的軸承底座。
實(shí)驗(yàn)結(jié)束時(shí),共采集得到20組數(shù)據(jù),分別為料位由1L增至20L球磨機(jī)的振動(dòng)信號(hào),經(jīng)過預(yù)處理每個(gè)料位下將得到22個(gè)表征其料位屬性的樣本數(shù)據(jù),所以共有20×22=440組數(shù)據(jù)樣本,每組數(shù)據(jù)為30維,選取其中300個(gè)樣本作為訓(xùn)練集,剩下的140個(gè)樣本作為測(cè)試集。因此SaDE-ELM模型的訓(xùn)練集規(guī)模為300×30,測(cè)試集規(guī)模為140×30。
2.2 實(shí)驗(yàn)結(jié)果分析與對(duì)比
為了驗(yàn)證SaDE-ELM模型的有效性,將其與傳統(tǒng)的ELM進(jìn)行比較。模型的輸入為球磨機(jī)振動(dòng)信號(hào)特征,輸出為球磨機(jī)料位預(yù)測(cè)值。采用均方根誤差(RMSE)對(duì)預(yù)測(cè)效果進(jìn)行評(píng)價(jià)。
實(shí)驗(yàn)中SaDE的參數(shù)設(shè)置為:CR=0.8,F(xiàn)=1,tolerance=0.02,種群個(gè)數(shù)NP=30,算法的最大迭代次數(shù)為iter=20。為了節(jié)約運(yùn)行時(shí)間,減小計(jì)算復(fù)雜度,隱含層單元個(gè)數(shù)k=20??紤]到ELM 自身的不穩(wěn)定性,兩種方法分別運(yùn)行10次,最后求取平均RMSE來評(píng)價(jià)測(cè)量精確度。所得到的平均RMSE和測(cè)量曲線如表 1和圖 2所示。
表1 球磨機(jī)料位測(cè)量結(jié)果對(duì)比
(a)SaDE-ELM測(cè)量結(jié)果
(b)ELM測(cè)量結(jié)果圖2 測(cè)量結(jié)果曲線圖
由表1可看出,無論是測(cè)試誤差還是訓(xùn)練誤差,SaDE-ELM所得結(jié)果均小于ELM,因此SaDE-ELM模型的學(xué)習(xí)能力以及泛化能力均優(yōu)于ELM。
圖2中橫軸表示測(cè)試集采樣序列,縱軸表示料位值。由圖 2測(cè)量結(jié)果曲線圖可看出SaDE-ELM無論是在低料位段還是在高料位段,其跟蹤效果與ELM相比均有明顯優(yōu)勢(shì),測(cè)量精度大幅度提高,驗(yàn)證了SaDE-ELM方法的有效性與優(yōu)越性。
其原因?yàn)樵贓LM算法中,輸入層和隱含層之間的連接權(quán)值矩陣(a)與隱含層的偏置向量(d)為隨機(jī)選取,在提高ELM本身的學(xué)習(xí)速度的同時(shí)卻犧牲了算法的測(cè)量精度。矩陣a、d的隨機(jī)選取使得對(duì)于訓(xùn)練樣本的學(xué)習(xí)在一定程度上缺乏針對(duì)性。而SaDE-LEM利用差分進(jìn)化算法的全局尋優(yōu)能力找到與訓(xùn)練樣本較為匹配的矩陣a、d,減小了測(cè)試誤差。
為了分析SaDE-ELM 算法的穩(wěn)定性,將10次測(cè)量結(jié)果通過箱線圖表示為圖 3。由圖 3可以看出,ELM的穩(wěn)定性較SaDE-ELM差,其原因?yàn)镋LM模型初始化的隨機(jī)性導(dǎo)致其穩(wěn)定性較差。
綜上所述,SaDE-ELM不僅具有較高的測(cè)量精度,而且其穩(wěn)定性相對(duì)于ELM有很好的改善。
f1:SaDE-ELM測(cè)試誤差 f2:ELM測(cè)試誤差f3:SaDE-ELM訓(xùn)練誤差 f4:ELM訓(xùn)練誤差圖3 10次測(cè)量結(jié)果的箱線圖
利用自適應(yīng)差分進(jìn)化算法較強(qiáng)的全局尋優(yōu)能力優(yōu)化極限學(xué)習(xí)機(jī)(ELM),從而提高其學(xué)習(xí)能力與泛化能力。將優(yōu)化后的極限學(xué)習(xí)機(jī)算法(SaDE-ELM)應(yīng)用于球磨機(jī)料位測(cè)量,實(shí)驗(yàn)表明,自適應(yīng)差分進(jìn)化算法極限學(xué)習(xí)機(jī)的訓(xùn)練精度與測(cè)試精度都優(yōu)于極限學(xué)習(xí)機(jī),同時(shí)SaDE-ELM在穩(wěn)定性方面也有提高。
[1] 王恒,賈民平,陳左亮.基于LS-SVM和機(jī)理模型的球磨機(jī)料位軟測(cè).電力自動(dòng)化設(shè)備,2010,30(7):92-95.
[2] 王恒,賈民平,黃鵬,等.基于筒體振動(dòng)信號(hào)的球磨機(jī)優(yōu)化工況檢測(cè) .儀表技術(shù)與傳感器,2012(11):145-148.
[3] 湯健,鄭秀萍,趙立杰,等.基于頻域特征提取與信息融合的磨機(jī)負(fù)荷軟測(cè)量.儀器儀表學(xué)報(bào),2010,31(10):2161-2167.
[4] HUANG G B,ZHU Q Y,SIEW C K.Extreme learning machine:theory and applications.Neurocomputing,2006,70(1):489-501.
[5] HUANG G B,ZHU Q Y,SIEW C K.Real-lime learning capability of neural networks.Singapore:School of Electrical and Electronic Engineering,Nanyang Technological University,2003.
[6] QIN A K,HUANG V L,SUGATHAN P N.Differential evolution algorithm with strategy adaptation for global numerical optimization.IEEE Transactions on Evolutionary Computation,2009,13(2):398-417.
[7] STORN R,PRICE K.Differential Evolution-a simple and efficient adaptive scheme for global optimization over continuous spaces.International Computer Science Institute,1995(8):222-225.
[8] KAELO P,ALIM M.A numerical study of some modified differential evolution algorithms .European Journal of Operational Research,2006,169(3):1176-1184.
Measurement of Ball Mill Material Level Based on Self-adaptiveDifferential Algorithm and Extreme Learning Machine
WANG Fang,XU Xin-ying,YAN Gao-wei
(College of Information Engineering,Taiyuan University of Technology,Taiyuan 030024,China)
The advantages of extreme learning machine has strong learning capacity and smaller training deviation.To further improve the reliability and decreasing the test deviation of extreme learning machine,self-adaptive differential algorithm was introduced to extreme learning machine.Then smaller test deviation of sample sets was acquired in this way.Lastly,optimized extreme learning machine was applied to measure the ball mill material level.The experiment result shows that the test deviation and training deviation of this method are largely smaller than that of extreme learning machine.At the same time,learning capacity and generalization performance of this method are also better than that of original extreme learning machine.
self-adaptive differential algorithm;extreme learning machine;test training deviation;ball mill material level
項(xiàng)亞南(1989—),碩士研究生,主要研究領(lǐng)域?yàn)闄z測(cè)技術(shù)及自動(dòng)化裝置。E-mail:xiangyanan1989@foxmail.com 潘豐(1963—),教授,博士生導(dǎo)師,主要研究領(lǐng)域?yàn)樯a(chǎn)過程優(yōu)化控制等研究。E-mail:pan_feng_63@163.com
國家自然科學(xué)基金項(xiàng)目(60975032);山西省自然科學(xué)基金項(xiàng)目(2011011012-2)
2014-07-03 收修改稿日期:2015-03-10
TP29
A
1002-1841(2015)06-0143-03