周 馨,王國(guó)胤,于 洪
(重慶郵電大學(xué) 計(jì)算智能重慶市重點(diǎn)實(shí)驗(yàn)室, 重慶 400065) (*通信作者電子郵箱zhouxin_1121@qq.com)
基于改進(jìn)極限學(xué)習(xí)機(jī)的軟測(cè)量建模
周 馨*,王國(guó)胤,于 洪
(重慶郵電大學(xué) 計(jì)算智能重慶市重點(diǎn)實(shí)驗(yàn)室, 重慶 400065) (*通信作者電子郵箱zhouxin_1121@qq.com)
極限學(xué)習(xí)機(jī)(ELM)因其泛化能力好和學(xué)習(xí)速度快而成為軟測(cè)量的新方法,但當(dāng)應(yīng)用到鋁電解工藝參數(shù)建模時(shí),ELM通常需要較多隱層節(jié)點(diǎn)并且泛化能力較低。針對(duì)這一問題,提出一種基于改進(jìn)極限學(xué)習(xí)機(jī)(IELM)的軟測(cè)量模型。首先,利用粗糙集中的約簡(jiǎn)理論剔除輸入變量中的冗余或不相關(guān)屬性,以降低ELM的輸入復(fù)雜性;然后,利用偏相關(guān)系數(shù)對(duì)輸入變量和輸出變量間的相關(guān)性進(jìn)行分析,將輸入數(shù)據(jù)分為正輸入和負(fù)輸入兩部分,分別對(duì)這兩部分建立輸入單元,重新構(gòu)建ELM網(wǎng)絡(luò);最后,建立了基于改進(jìn)極限學(xué)習(xí)機(jī)的鋁電解分子比軟測(cè)量模型。仿真實(shí)驗(yàn)結(jié)果表明,基于改進(jìn)極限學(xué)習(xí)機(jī)的軟測(cè)量模型具有較好的泛化能力和穩(wěn)定性。
極限學(xué)習(xí)機(jī);軟測(cè)量;粗糙集;偏相關(guān)系數(shù)
鋁電解生產(chǎn)是一系列復(fù)雜的電化學(xué)反應(yīng)過(guò)程,且具有高溫、強(qiáng)輻射、強(qiáng)腐蝕等特點(diǎn),因此過(guò)程參數(shù)的在線測(cè)量一直是鋁電解生產(chǎn)中的一個(gè)重要問題[1]。為了解決這一時(shí)滯問題,一種方法是采用軟測(cè)量技術(shù)。軟測(cè)量是通過(guò)在可測(cè)參數(shù)與不可測(cè)參數(shù)間構(gòu)建非線性數(shù)學(xué)模型,以可測(cè)數(shù)據(jù)為基礎(chǔ)實(shí)現(xiàn)對(duì)不可測(cè)參數(shù)的估計(jì)。隨著鋁電解生產(chǎn)與檢測(cè)裝備的自動(dòng)化與信息化水平的不斷提升,鋁電解廠中累積了大量的生產(chǎn)數(shù)據(jù),這為軟測(cè)量建模提供了數(shù)據(jù)基礎(chǔ),因此,軟測(cè)量方法[2]中基于數(shù)據(jù)驅(qū)動(dòng)的建模方法在鋁電解中取得了巨大成功,其中應(yīng)用較為廣泛的是反向傳播網(wǎng)絡(luò)(Back-Propagation Network, BP Network)[3-4]和支持向量機(jī)(Support Vector Machine, SVM)[5-6]。極限學(xué)習(xí)機(jī)(Extreme Learning Machine, ELM)是近年來(lái)由Huang等[7]提出的一種針對(duì)單隱層前饋神經(jīng)網(wǎng)絡(luò)的新算法。由于ELM只需要設(shè)定隱層節(jié)點(diǎn)的個(gè)數(shù),無(wú)需調(diào)整輸入權(quán)值和隱含層偏置,從而大幅度縮短了網(wǎng)絡(luò)的訓(xùn)練時(shí)間[8]。Han等[9]通過(guò)大量實(shí)驗(yàn)表明ELM比BP神經(jīng)網(wǎng)絡(luò)和SVM具有更快的訓(xùn)練速度和更好的泛化能力,因此,極限學(xué)習(xí)機(jī)近年來(lái)在軟測(cè)量領(lǐng)域開始得到大量的應(yīng)用[10-12]。
雖然ELM是一種非常簡(jiǎn)單且快速的神經(jīng)網(wǎng)絡(luò)算法,但若直接將ELM應(yīng)用于鋁電解工藝參數(shù)建模中,仍存在一些問題:首先,采集的鋁電解數(shù)據(jù)具有高維、非線性和冗余信息多等特點(diǎn)[13],因此需要較多的隱層節(jié)點(diǎn),不利于ELM的H矩陣滿足列滿秩,從而降低ELM的建模精度;其次,由于鋁電解生產(chǎn)中電解槽的狀態(tài)不斷變化,可能導(dǎo)致各種過(guò)程參數(shù)大幅度地波動(dòng),使得ELM網(wǎng)絡(luò)的泛化能力和穩(wěn)定性降低。
由此,本文提出一種基于改進(jìn)極限學(xué)習(xí)機(jī)(ImprovedExtremeLearningMachine,IELM)的軟測(cè)量建模方法。為了解決ELM在處理高維數(shù)據(jù)存在的問題,利用粗糙集屬性約簡(jiǎn)理論刪除輸入變量中的冗余屬性和不相關(guān)的屬性,得到對(duì)分子比重要的輔助變量,從而降低ELM網(wǎng)絡(luò)的輸入復(fù)雜性;同時(shí),為了提高ELM網(wǎng)絡(luò)的泛化能力,利用偏相關(guān)系數(shù)對(duì)ELM網(wǎng)絡(luò)的輸入部分進(jìn)行分塊處理,將對(duì)輸出作用相同的數(shù)據(jù)放在一起重新建立ELM網(wǎng)絡(luò)結(jié)構(gòu),提高ELM網(wǎng)絡(luò)的學(xué)習(xí)性能。最后利用改進(jìn)的ELM方法對(duì)鋁電解中的分子比建立了軟測(cè)量模型。實(shí)驗(yàn)表明,本文提出的建模方法具有較高的預(yù)測(cè)精度和泛化能力。為了驗(yàn)證本文方法的有效性和魯棒性,本文在4個(gè)UCI標(biāo)準(zhǔn)數(shù)據(jù)集上進(jìn)行了測(cè)試。
1.1 傳統(tǒng)ELM算法
對(duì)于N個(gè)不同的樣本(xi,ti)∈[Rm×Rn],具有K個(gè)隱含層節(jié)點(diǎn)的ELM輸出可以表示為:
(1)
xi=[xi1,xi2,…,xim]T∈Rm(i=1,2,…,N),ti=[ti1,ti2,…,tin]T∈Rn,aj=(aj1,aj2,…,ajm)T是輸入節(jié)點(diǎn)與第j個(gè)隱含層節(jié)點(diǎn)的連接權(quán)值,bj是第j個(gè)隱含層節(jié)點(diǎn)的閾值,βj=(βj1,βj2,…,βjm)T是第j個(gè)隱含層節(jié)點(diǎn)與輸出層節(jié)點(diǎn)的連接權(quán)值,g(·)是隱含層的激活函數(shù)。
對(duì)于給定的K個(gè)隱含層節(jié)點(diǎn)和激活函數(shù),若存在βj,aj和bj使得該單隱層神經(jīng)網(wǎng)絡(luò)能以接近0的誤差逼近樣本的期望值tn,由式(1)可得一個(gè)線性的方程組:
Hβ=T
(2)
其中:
H叫作網(wǎng)絡(luò)的隱含層輸出矩陣,輸出權(quán)值β則可以由式(3)得到:
(3)
其中H+表示H的Moore-Penrose廣義逆[14]。
因此,傳統(tǒng)ELM算法的步驟可以概括為:
1)隨機(jī)設(shè)定輸入層的連接權(quán)值aj和bj,其中j=1,2,…,K;
2)計(jì)算網(wǎng)絡(luò)隱含層的輸出矩陣H;
3)根據(jù)式(3)計(jì)算網(wǎng)絡(luò)輸出層的權(quán)值。
圖1 原始ELM網(wǎng)絡(luò)結(jié)構(gòu)
1.2ELM網(wǎng)絡(luò)結(jié)構(gòu)的改進(jìn)
傳統(tǒng)的ELM算法沒有對(duì)輸入數(shù)據(jù)與輸出數(shù)據(jù)之間的關(guān)系進(jìn)行分析,輸入數(shù)據(jù)之間是雜亂無(wú)章的,這樣不利于網(wǎng)絡(luò)的訓(xùn)練。文獻(xiàn)[15]提出利用簡(jiǎn)單相關(guān)系數(shù)將輸入變量與輸出變量之間的關(guān)系分為正關(guān)系和負(fù)關(guān)系,根據(jù)正、負(fù)關(guān)系將輸入數(shù)據(jù)分為兩部分,并分別對(duì)這兩部分輸入建立局部的輸入單元,以此建立的ELM網(wǎng)絡(luò)的性能得到了一定的提高。然而,當(dāng)輸入變量是多個(gè)的時(shí)候,簡(jiǎn)單相關(guān)系數(shù)會(huì)受其他變量的影響,這時(shí)它反映的僅是兩個(gè)變量之間表面的非本質(zhì)的聯(lián)系。此時(shí)根據(jù)簡(jiǎn)單相關(guān)系數(shù)會(huì)對(duì)ELM網(wǎng)絡(luò)的輸入數(shù)據(jù)進(jìn)行錯(cuò)誤的劃分,因此,本文提出利用偏相關(guān)系數(shù)來(lái)表征輸入數(shù)據(jù)與輸出數(shù)據(jù)之間的關(guān)系。
偏相關(guān)系數(shù)是在控制其他變量影響的情況下計(jì)算多個(gè)變量中某兩個(gè)變量之間線性相關(guān)的程度,它反映了兩個(gè)變量之間的本質(zhì)線性關(guān)系[16]。利用偏相關(guān)系數(shù)可以對(duì)ELM網(wǎng)絡(luò)的輸入、輸出變量之間的正負(fù)關(guān)系進(jìn)行精準(zhǔn)的判斷,從而對(duì)輸入數(shù)據(jù)進(jìn)行正確地劃分。偏相關(guān)系數(shù)的定義[17]如下:
對(duì)于給定的變量組{X1,X2,…,Xp},它們之間的相關(guān)系數(shù)矩陣表示為:
(4)
其中rij表示變量Xi與Xj的簡(jiǎn)單相關(guān)系數(shù),則對(duì)于任意i和j(i,j=1,2,…,p),變量Xi與Xj在控制其他變量的條件下的偏相關(guān)系數(shù)表示為:
(5)
其中:Δij、Δii、Δjj分別為|Re|中元素rij、rii、rjj的代數(shù)余子式。
利用式(5)可以分別計(jì)算軟測(cè)量模型中各個(gè)輸入屬性與輸出屬性之間的偏相關(guān)系數(shù)。若ρ>0,則表示輸入屬性與輸出屬性之間呈現(xiàn)正相關(guān),稱為正輸入屬性,說(shuō)明輸入屬性對(duì)輸出屬性的作用是正向的:如果輸入屬性的值增大,則輸出屬性的值也會(huì)相應(yīng)地增大。若ρ<0,則表示輸入屬性與輸出屬性之間呈現(xiàn)負(fù)相關(guān),稱為負(fù)輸入屬性,說(shuō)明輸入屬性對(duì)輸出屬性的作用是反向的:如果輸入屬性的值增大,則輸出屬性的值會(huì)相應(yīng)地減小;如果輸入屬性的值減小,則輸出屬性的值會(huì)相應(yīng)地增大。以此可以將輸入數(shù)據(jù)分為正輸入和負(fù)輸入兩部分。
通過(guò)對(duì)輸入數(shù)據(jù)進(jìn)行分塊處理,將對(duì)輸出變量作用相同的數(shù)據(jù)放在一起,分別對(duì)各自的輸入模塊設(shè)置隱含層節(jié)點(diǎn),可以有效減少ELM網(wǎng)絡(luò)輸入權(quán)值的連接個(gè)數(shù),從而解決傳統(tǒng)ELM因隱含層節(jié)點(diǎn)過(guò)多而不能保證ELM的H矩陣列滿秩的問題。此外,分開對(duì)正、負(fù)輸入模塊進(jìn)行訓(xùn)練,可以進(jìn)一步提高網(wǎng)絡(luò)的學(xué)習(xí)性能。改進(jìn)后的ELM網(wǎng)絡(luò)結(jié)構(gòu)如圖2所示。
圖2 改進(jìn)ELM網(wǎng)絡(luò)結(jié)構(gòu)
由于采集的鋁電解數(shù)據(jù)具有高維、非線性和冗余信息多等特點(diǎn),為了降低輸入數(shù)據(jù)的維數(shù)和剔除不重要的變量,本文利用粗糙集屬性約簡(jiǎn)算法對(duì)輸入數(shù)據(jù)進(jìn)行預(yù)處理。
粗糙集理論是1982年由波蘭科學(xué)家Pawlak等[18]提出的,它是處理不精確或不完全信息分類問題的一種重要方法。它的突出優(yōu)點(diǎn)是具有很強(qiáng)的定性分析能力,即通過(guò)依賴于集合的上下近似的概念來(lái)發(fā)現(xiàn)數(shù)據(jù)集合中數(shù)據(jù)之間的依賴關(guān)系。目前粗糙集在基于數(shù)據(jù)的決策與分析、機(jī)器學(xué)習(xí)、模式識(shí)別等計(jì)算機(jī)領(lǐng)域取得了大量的成功,而利用粗糙集模型進(jìn)行各項(xiàng)應(yīng)用研究也已正成為粗糙集的一個(gè)研究熱點(diǎn)[19]。
屬性約簡(jiǎn)是粗糙集理論中的一個(gè)重要研究?jī)?nèi)容,它定義為在保持決策表決策屬性和條件屬性之間的依賴關(guān)系不發(fā)生變化的前提下消除冗余的關(guān)系。屬性約簡(jiǎn)的意義在于將信息系統(tǒng)中與知識(shí)分類不相關(guān)或不重要的屬性刪除掉,從而降低信息系統(tǒng)的復(fù)雜性。經(jīng)過(guò)屬性約簡(jiǎn)后,得到的則是與決策屬性依賴性高的條件屬性。
因此,在構(gòu)建ELM網(wǎng)絡(luò)之前,本文采用粗糙集的一般屬性約簡(jiǎn)算法[20]對(duì)輸入數(shù)據(jù)進(jìn)行處理,其目的是為了得到合理的輸入變量并且降低ELM網(wǎng)絡(luò)的輸入復(fù)雜性。由此,本文建立軟測(cè)量模型的整體過(guò)程如圖3所示。
圖3 建模過(guò)程
由圖3可知,建模過(guò)程可分為以下幾個(gè)步驟:
1)輸入樣本數(shù)據(jù)集預(yù)處理。按照具體的需求,對(duì)樣本數(shù)據(jù)的屬性進(jìn)行處理將之轉(zhuǎn)換成粗糙集的數(shù)據(jù)格式,如歸一化或連續(xù)值離散化處理等。
2)利用粗糙集屬性約簡(jiǎn)算法對(duì)樣本數(shù)據(jù)集進(jìn)行屬性約簡(jiǎn)處理,得到軟測(cè)量模型的輔助變量。
3)利用式(5)對(duì)輸入變量與輸出變量進(jìn)行偏相關(guān)性分析,從而確定正相關(guān)輸入變量和負(fù)相關(guān)輸入變量,分別記為:xp∈RN×m1和xo∈RN×m2。m1表示正輸入變量的個(gè)數(shù),m2表示負(fù)輸入變量的個(gè)數(shù),則m1+m2=m。
4)將得到的正相關(guān)輸入變量放到ELM網(wǎng)絡(luò)的正輸入部分,同樣地將負(fù)相關(guān)輸入變量放到ELM網(wǎng)絡(luò)的負(fù)輸入部分。
6)計(jì)算正輸入模塊隱含層的輸出矩陣H1和負(fù)輸入模塊隱含層的輸出矩陣H2,其中:
最后將它們合并為一個(gè)矩陣,即為網(wǎng)絡(luò)隱含層最終的輸出矩陣H=[H1H2]。
7)根據(jù)式(3)計(jì)算得到隱含層與輸出層的權(quán)值。
8)計(jì)算得到軟測(cè)量模型的輸出結(jié)果。
為了驗(yàn)證本文方法的有效性和合理性,本文對(duì)鋁電解分子比建立了軟測(cè)量模型,同時(shí)選取UCI數(shù)據(jù)庫(kù)中的4個(gè)數(shù)據(jù)集進(jìn)行了測(cè)試。
為了定量對(duì)所建模型的訓(xùn)練效果和預(yù)測(cè)精度進(jìn)行評(píng)價(jià),本文采用均方根誤差(RootMeanSquareError,RMSE)作為性能指標(biāo)。計(jì)算公式如下:
(6)
3.1 分子比軟測(cè)量結(jié)果
在鋁電解生產(chǎn)過(guò)程中,電解質(zhì)的組成對(duì)鋁電解生產(chǎn)的經(jīng)濟(jì)指標(biāo)具有重要影響,降低電解質(zhì)分子比是提高鋁電解電流效率的有效途徑[21]。目前,在鋁廠中分子比的測(cè)定主要還是采用人工取樣分析,取樣周期一般是3d,因此,分子比的測(cè)量具有滯后性。在電解槽運(yùn)行過(guò)程中,工人通常是憑自己的經(jīng)驗(yàn)來(lái)對(duì)分子比的高低情況進(jìn)行判斷,顯然容易出現(xiàn)誤差,因此,對(duì)分子比建立軟測(cè)量模型具有重要的現(xiàn)實(shí)意義。本文選取某鋁廠某電解槽165d的歷史數(shù)據(jù),其中135組作為訓(xùn)練數(shù)據(jù),30組作為測(cè)試數(shù)據(jù)。由于鋁電解數(shù)據(jù)具有多變量、非線性的特點(diǎn),因此影響分子比的變量具有不確定性,因此本文將采集數(shù)據(jù)中的變量都作為候選輔助變量,包括工作電壓、電壓差、下料量、氟鹽量、電解質(zhì)水平、鋁水平、出鋁量、硅含量、槽溫等18個(gè)變量,輸出變量則是分子比。
首先利用粗糙集一般屬性約簡(jiǎn)算法進(jìn)行處理,得到分子比軟測(cè)量模型最終的輔助變量,包括電壓差、下料量、氟鹽量、電解質(zhì)水平、出鋁量、硅含量、釩含量、氟化鉀和鋰鹽,并對(duì)它們進(jìn)行標(biāo)號(hào)為1,2,…,9。這里利用粗糙集約簡(jiǎn)理論不僅對(duì)輔助變量中冗余信息進(jìn)行了剔除,而且還對(duì)影響分子比的變量進(jìn)行了選取。然后利用偏相關(guān)系數(shù)對(duì)這9個(gè)輸入屬性與分子比的正負(fù)關(guān)系進(jìn)行分析,得到2個(gè)正輸入屬性,它們的標(biāo)號(hào)為:1和8,剩余的7個(gè)即為負(fù)輸入屬性。而利用文獻(xiàn)[15]提出的劃分方式則得到3個(gè)正輸入屬性,它們的標(biāo)號(hào)為:4,5,8,剩余的6個(gè)為負(fù)輸入屬性。由此可以看出利用偏相關(guān)系數(shù)和簡(jiǎn)單相關(guān)系數(shù)對(duì)輸入屬性的劃分結(jié)果不相同。最后,分別與BP神經(jīng)網(wǎng)絡(luò)、SVM、傳統(tǒng)ELM和文獻(xiàn)[15]提出的方法(C-ELM)進(jìn)行對(duì)比,實(shí)驗(yàn)結(jié)果如表1和表2所示。
本文方法與BP神經(jīng)網(wǎng)絡(luò)、SVM和ELM的對(duì)比結(jié)果如表1所示。從表1可以看出:BP神經(jīng)網(wǎng)絡(luò)不僅訓(xùn)練時(shí)間最長(zhǎng),而且還出現(xiàn)了嚴(yán)重的過(guò)擬合問題;而SVM雖然泛化能力較好,但是訓(xùn)練時(shí)間也較長(zhǎng);ELM的訓(xùn)練速度快、泛化誤差小,說(shuō)明ELM是一種有效的軟測(cè)量建模方法;而改進(jìn)后的ELM相比傳統(tǒng)的ELM,在相似的建模精度下能夠有效地減少了隱層節(jié)點(diǎn)數(shù)。
表1 分子比仿真結(jié)果對(duì)比1
本文方法與文獻(xiàn)[15]方法和傳統(tǒng)ELM在相同隱層節(jié)點(diǎn)數(shù)下的對(duì)比結(jié)果如表2和圖4所示。從表2可以看出,本文方法和文獻(xiàn)[15]方法通過(guò)對(duì)ELM的輸入模塊進(jìn)行劃分重新構(gòu)建ELM網(wǎng)絡(luò)均提高了ELM的泛化能力。相比于文獻(xiàn)[15]方法,本文方法具有更小的泛化誤差。由此驗(yàn)證了在多個(gè)輸入變量的情況下,利用偏相關(guān)系數(shù)來(lái)表征兩個(gè)變量之間的正負(fù)關(guān)系更合理。實(shí)驗(yàn)總體結(jié)果表明了本文方法的有效性和合理性。
表2 分子比仿真結(jié)果對(duì)比2
圖4 分子比測(cè)試結(jié)果對(duì)比
3.2UCI數(shù)據(jù)集仿真結(jié)果
為了進(jìn)一步驗(yàn)證本文建模方法的有效性和魯棒性,本文從UCI公共數(shù)據(jù)集中選取了4組數(shù)據(jù)集進(jìn)行了測(cè)試。對(duì)每個(gè)數(shù)據(jù)集隨機(jī)選取其中的2/3作為訓(xùn)練集,剩余1/3作為測(cè)試集,數(shù)據(jù)描述如表3所示,實(shí)驗(yàn)仿真結(jié)果如表4所示。
表3 數(shù)據(jù)描述
表4 UCI數(shù)據(jù)仿真結(jié)果
從表4可以看出,在處理公共數(shù)據(jù)集時(shí),本文提出的方法較之文獻(xiàn)[15]提出的方法和傳統(tǒng)的ELM方法也具有更小的泛化誤差,而文獻(xiàn)[15]方法則出現(xiàn)了降低原始ELM泛化能力的問題,由此驗(yàn)證了本文方法的有效性和魯棒性。
從上面兩組對(duì)比實(shí)驗(yàn)可以看出,本文利用粗糙集屬性約簡(jiǎn)算法對(duì)輸入變量中的冗余屬性進(jìn)行剔除,降低了ELM網(wǎng)絡(luò)的輸入復(fù)雜性;同時(shí),利用偏相關(guān)系數(shù)對(duì)輸入屬性與輸出屬性的正負(fù)關(guān)系進(jìn)行正確的判斷,克服了文獻(xiàn)[15]利用簡(jiǎn)單相關(guān)系數(shù)對(duì)輸入數(shù)據(jù)進(jìn)行錯(cuò)誤劃分而導(dǎo)致ELM泛化能力下降的問題。在處理鋁電解數(shù)據(jù)和UCI公共數(shù)據(jù)集上,本文方法均取得了較好的效果。
針對(duì)ELM在鋁電解工藝參數(shù)軟測(cè)量建模中存在的問題,本文提出了一種改進(jìn)的極限學(xué)習(xí)機(jī)的軟測(cè)量建模新方法。首先將粗糙集運(yùn)用到ELM中,通過(guò)對(duì)輸入變量進(jìn)行屬性約簡(jiǎn),降低了ELM的輸入量。再者,利用偏相關(guān)系數(shù)對(duì)ELM的輸入模塊進(jìn)行了劃分,將對(duì)輸出作用相同的數(shù)據(jù)放在一起,提高了ELM的學(xué)習(xí)性能。通過(guò)與BP神經(jīng)網(wǎng)絡(luò)、SVM、傳統(tǒng)ELM和文獻(xiàn)[15]方法的對(duì)比,實(shí)驗(yàn)仿真證明本文提出的方法具有更好的泛化能力和穩(wěn)定性,證實(shí)了該方法的有效性。這為鋁電解過(guò)程參數(shù)的軟測(cè)量提供了一種有效、可靠的新方法。在此基礎(chǔ)上,未來(lái)的研究方向是建立針對(duì)不同槽況的軟測(cè)量模型以及完善鋁電解數(shù)據(jù)降維的相關(guān)工作。
)
[1] 劉業(yè)翔,李劼.現(xiàn)代鋁電解[M].北京:冶金工業(yè)出版社,2008:192-214.(LIUYX,LIJ.ModernAluminumElectrolysis[M].Beijing:MetallurgicalIndustryPress, 2008: 192-214.)
[2]SLISKOVICD,GRBICR,HOCENSKIZ.Methodsforplantdata-basedprocessmodelinginsoft-sensordevelopment[J].Automatika, 2012, 52(4): 306-318.
[3]ZHANGH,KUANGY,WANGG,etal.Softsensormodelforcoalslurryashcontentbasedonimagegraycharacteristics[J].InternationalJournalofCoalPreparationandUtilization, 2014, 34(1): 24-37.
[4]YANX,YANGW,MAH,etal.SoftsensorforammoniaconcentrationattheammoniaconverteroutletbasedonanimprovedgroupsearchoptimizationandBPneuralnetwork[J].ChineseJournalofChemicalEngineering, 2012, 20(6): 1184-1190.
[5]KANEKOH,FUNATSUK.Applicationofonlinesupportvectorregressionforsoftsensors[J].AICHEJournal, 2014, 60(2): 600-612.
[6]YUJ.ABayesianinferencebasedtwo-stagesupportvectorregressionframeworkforsoftsensordevelopmentinbatchbioprocesses[J].ComputersandChemicalEngineering, 2012, 41(12): 134-144.
[7]HUANGGB,ZHUQY,SIEWCK.Extremelearningmachine:theoryandapplications[J].Neurocomputing, 2006, 70 (1/2/3): 489-501.
[8]DINGS,ZHAOH,ZHANGY,etal.Extremelearningmachine:algorithm,theoryandapplications[J].ArtificialIntelligenceReview, 2015, 44(1): 103-115.
[9]HANF,HUANGDS.Improvedextremelearningmachineforfunctionapproximationbyencodingaprioriinformation[J].Neurocomputing, 2006, 69(16/17/18): 2369-2373.
[10]ZHANGH,YINY,ZHANGS.AnimprovedELMalgorithmforthemeasurementofhotmetaltemperatureinblastfurnace[J].Neurocomputing, 2016, 174: 232-237.
[11]YANGY,ZHANGS,YINY.AmodifiedELMalgorithmforthepredictionofsiliconcontentinhotmetal[J].NeuralComputingandApplications, 2016, 27(1): 241-247.
[12] 常玉清,李玉朝,王福利,等.基于極限學(xué)習(xí)機(jī)的生化過(guò)程軟測(cè)量建模[J].系統(tǒng)仿真學(xué)報(bào),2007,19(23): 5587-5590.(CHANGYQ,LIYC,WANGFL,etal.Softsensingmodelingbasedonextremelearningmachineforbiochemicalprocesses[J].JournalofSystemSimulation, 2007, 19(23): 5587-5590.)
[13] 張旖芮,陽(yáng)春華,朱紅求.基于數(shù)據(jù)的鋁電解槽況分類[J].計(jì)算機(jī)工程與應(yīng)用,2015,51(11):233-237.(ZHANGYR,YANGCH,ZHUHQ.Classificationofcellstatesforaluminumelectrolysisbasedondata[J].ComputerEngineeringandApplications, 2015, 51(11): 233-237.)
[14]SERRED.Matrices[M].NewYork:Springer, 2002: 35.
[15] 賀彥林,王曉,朱群雄.基于主成分分析-改進(jìn)的極限學(xué)習(xí)機(jī)方法的精對(duì)苯二甲酸醋酸含量軟測(cè)量[J].控制理論與應(yīng)用,2015,32(1):80-85.(HEYL,WANGX,ZHUQX.Modelingofaceticacidcontentinpurifiedterephthalicacidsolventcolumnusingprincipalcomponentanalysisbasedimprovedextremelearningmachine[J].ControlTheoryandApplications, 2015, 32(1): 80-85.)
[16] 王海燕,楊方廷,劉魯.標(biāo)準(zhǔn)化系數(shù)與偏相關(guān)系數(shù)的比較與應(yīng)用[J].數(shù)量經(jīng)濟(jì)技術(shù)經(jīng)濟(jì)研究,2006,23(9):150-155.(WANGHY,YANGFT,LIUL.Comparisonandapplicationofstandardizedregressivecoefficientandpartialcorrelationcoefficient[J].TheJournalofQuantitativeandTechnicalEconomics, 2006, 23(9): 50-155.)
[17] 郝黎仁,樊元,郝哲歐.SPSS實(shí)用統(tǒng)計(jì)分析[M].北京:中國(guó)水利水電出版社,2007:184.(HAONR,FANY,HAOZO.PracticalStatisticalAnalysisofSPSS[M].Beijing:ChinaWaterandPowerPress, 2007: 184.)
[18]PAWLAKZ,SKOWRONA.Rudimentsofroughsets[J].InformationSciences, 2007, 177(1): 3-27.
[19] 王國(guó)胤,姚一豫,于洪.粗糙集理論與應(yīng)用研究綜述[J].計(jì)算機(jī)學(xué)報(bào),2009,32(7):1229-1246.(WANGGY,YAOYY,YUH.Asurveyonroughsettheoryandapplications[J].ChineseJournalofComputers, 2009, 32(7): 1229-1246.)
[20] 王國(guó)胤.Rough集理論與知識(shí)獲取[M].西安:西安交通大學(xué)出版社,2001:133-134.(WANGGY.RoughSetTheoryandKnowledgeAcquisition[M].Xi’an:Xi’anJiaotongUniversityPress, 2001: 133-134.)
[21] 劉詠,任鳳蓮.BP神經(jīng)網(wǎng)絡(luò)在鋁電解質(zhì)分子比預(yù)報(bào)中的應(yīng)用[J].冶金分析,2006,26(4):28-31.(LIUY,RENFL.ApplicationofBPneuralnetworkinpredictionofmolecularratioofaluminumelectrolyte[J].MetallurgicalAnalysis, 2006, 26(4): 28-31.)
ThisworkissupportedbytheNationalNaturalScienceFoundationofChina(61533020).
ZHOU Xin, born in 1990, M. S. candidate. Her research interests include intelligent information processing, data mining.
WANG Guoyin, born in 1970, Ph. D., professor. His research interests include rough set, granular computing, neural network, machine learning, data mining, uncertainty in artificial intelligence.
YU Hong, born in 1972, Ph. D., professor. Her research interests include rough set, three-way decisions, intelligent information processing.
Soft-sensing modeling based on improved extreme learning machine
ZHOU Xin*, WANG Guoyin, YU Hong
(ChongqingKeyLaboratoryofComputationalIntelligence,ChongqingUniversityofPostsandTelecommunications,Chongqing400065,China)
Extreme Learning Machine (ELM) has become a new method in soft-sensing due to its good generalization and fast training speed. However, ELM often needs more hidden layer nodes and its generalization is reduced in the parameter modeling for aluminum electrolysis production process. To solve the problem, a soft-sensing model based on Improved Extreme Learning Machine (IELM) was proposed. Firstly, rough set theory was applied to reduce the unnecessary, unrelated or reductant input variables, reducing the complexity of ELM input. After analyzing the relationship between the input variables and output variables by partial correlation coefficient, the input data was divided into two parts, namely the positive part and the negative part. Then, the corresponding ELM model was built according to the two parts. Finally, the soft-sensing model of molecular ratio based on the improved ELM was built. The simulation experimental results show that the soft-sensing model based on the IELM has better generalization and stability.
Extreme Learning Machine (ELM); soft-sensing; rough set; partial correlation coefficient
2016- 09- 23;
2016- 10- 10。
國(guó)家自然科學(xué)基金資助項(xiàng)目(61533020)。
周馨(1990—),女,四川武勝人,碩士研究生,CCF會(huì)員,主要研究方向:智能信息處理、數(shù)據(jù)挖掘; 王國(guó)胤(1970—),男,重慶人,教授,博士, CCF會(huì)員,主要研究方向:粗糙集、粒計(jì)算、神經(jīng)網(wǎng)絡(luò)、機(jī)器學(xué)習(xí)、數(shù)據(jù)挖掘、人工智能不確定性; 于洪(1972—),女,重慶人,教授,博士, CCF會(huì)員,主要研究方向:粗糙集、三支決策、智能信息處理。
1001- 9081(2017)03- 0668- 05
10.11772/j.issn.1001- 9081.2017.03.668
TP391.6
A