崔嵐 鄭懷宇
摘 要:準確的連續(xù)退火爐溫度控制是高質(zhì)量冷軋生產(chǎn)的基本要求,然而變量的不確定性和不完整性以及測量誤差的存在使這項任務具有挑戰(zhàn)性。人工神經(jīng)網(wǎng)絡在這一領域雖然得到了廣泛的應用,但是它們可能無法提供所需的準確性。隨著深度置信網(wǎng)絡、堆疊自編碼機等算法的出現(xiàn),使得越來越多的學者傾向于對無監(jiān)督—微調(diào)模型的研究。人們寄期望于無監(jiān)督模型可以挖掘出數(shù)據(jù)中潛在的關系和知識,然后通過微調(diào)引導,從而得到一個更好、更具魯棒性的模型?;谠撍枷?,將粗糙集理論引入退火爐的神經(jīng)網(wǎng)絡“遺忘門”部分,通過粗糙集理論決定變量的淘汰和保留。
關鍵詞:粗糙集;神經(jīng)網(wǎng)絡;RST
RESEARCH ON NEURAL NETWORK MODEL FOR CONTINUOUS ANNEALING FURNACE TEMPERATURE BASED ON RST
Cui Lan? ? Zheng Huaiyu
(Benxi Iron and Steel(Group)Co.Ltd.? ? Benxi? ? 117000,China)
Abstract:Accurate continuous annealing furnace temperature control is a fundamental requirement for high-quality cold rolling production, but the uncertainty and incompleteness of variables, as well as the presence of measurement errors, make this task challenging. Although artificial neural networks have been widely used in this field, they may not provide the required accuracy. With the emergence of algorithms such as deep confidence networks and stacked self coding machines, more and more scholars are inclined to study unsupervised fine-tuning models. People expect unsupervised models to uncover potential relationships and knowledge in the data, and then fine-tune guidance to obtain a better and more robust model. Based on this idea, this article introduces rough set theory into the "forgetting gate" part of the neural network of the annealing furnace, and determines the elimination and retention of variables through rough set theory.
Key words:rough set theory;neural network;RST
1? ? 粗糙集理論概述
粗糙集理論(Rough Set Theory,RST)是Pawlak提出的,用于處理機器學習和模式識別領域那些不確定、不精確的或者是模糊知識的一種數(shù)學工具[1-2]。粗糙集理論首先定義一個信息系統(tǒng) ,其中 表示有限非空對象集合,也叫論域; 是有限非空屬性集合,也稱之為條件屬性集; 是值域集合。每個屬性 都與一個論域集合 和 相聯(lián)系。知識約簡是粗糙集理論中的重要思想,其準則是盡量不改變系統(tǒng)的性能,盡可能多的刪除冗余的或者重復的知識,這種特性對神經(jīng)網(wǎng)絡“遺忘門”的搭建起到重要的用。
2? ? 基于粗糙集理論的神經(jīng)元
粗糙集神經(jīng)網(wǎng)絡由傳統(tǒng)神經(jīng)元和相互連接的粗糙神經(jīng)元組成,粗糙神經(jīng)元 可以看作是一對神經(jīng)元,一個是上界 ,另一個是下界 。粗糙神經(jīng)元的輸出是一對上界和下界,而傳統(tǒng)神經(jīng)元的輸出是單個值。該神經(jīng)網(wǎng)絡模型使用多層、前饋和反向傳播設計來描述,由一個輸入層、一個輸出層和一個隱含層組成。以粗糙集神經(jīng)網(wǎng)絡為基礎,單個粗糙神經(jīng)元和神經(jīng)網(wǎng)絡“遺忘門”的設計結(jié)構(gòu)圖如圖1所示:
該網(wǎng)絡的輸入為粗糙集理論獲得輸入數(shù)據(jù)的上、下邊界。通過后期試驗,從時間復雜度和算法的預測性能來分析,我們發(fā)現(xiàn)隱含層的個數(shù)選擇2是最合理的。
3? ? 基于粗糙集理論的神經(jīng)網(wǎng)絡
本文使用神經(jīng)網(wǎng)絡粗糙模式進行預測,粗糙模式中的每個值都是一對上界和下界,粗糙神經(jīng)元提供了使用粗糙模式的能力。根據(jù)應用程序的性質(zhì),網(wǎng)絡中的兩個粗糙神經(jīng)元可以通過四個上界和下界連接相互連接。粗糙神經(jīng)元也可以通過兩個連接權重來連接到傳統(tǒng)神經(jīng)元,所以粗糙神經(jīng)網(wǎng)絡是由粗糙神經(jīng)元和傳統(tǒng)神經(jīng)元相互連接組成的。在粗糙集理論中,我們引入了另一個集合相等的概念,即近似(粗糙)相等。粗糙集另一個重要的性質(zhì)-屬性約簡,給模型的選擇帶來了極大的便利。因為在知識庫中知識(屬性)并不是同等重要的,甚至某些知識是冗余的,所謂知識約簡就是在保持知識庫分類能力不變的條件下,刪除其中不相關或不重要的知識。利用粗糙集理論這些關鍵性質(zhì),我們將其引入到現(xiàn)有的退火爐神經(jīng)網(wǎng)絡模型中。本文設計的退火爐神經(jīng)網(wǎng)絡結(jié)構(gòu)如圖2所示。
4? ? 試驗及分析
為了證明所提出模型的有效性,我們進行了試驗仿真,試驗中所使用的數(shù)據(jù)為退火爐的燃氣流量、空氣流量、燃燒溫度。
從圖3a可以看出,由于引入粗糙集理論,退火爐神經(jīng)網(wǎng)絡的跟隨能力很高。在訓練階段,RST神經(jīng)網(wǎng)絡的性能并沒有出現(xiàn)過擬合現(xiàn)象,且針對干擾具有一定的魯棒性。從圖3b可以看出,訓練數(shù)據(jù)的最大正負誤差較小,主要原因是粗糙集很好地在不同時刻識別出每個變量的貢獻度。
5? ? 總? ? 結(jié)
簡單來講,在該模型中粗糙集理論相當于一個分類器,用于對特征進行簡單的分類,然后神經(jīng)網(wǎng)絡再進行深度提取數(shù)據(jù)特征。利用粗糙集神經(jīng)元的知識篩選特性對數(shù)據(jù)進行選擇,可以增強遺忘門的數(shù)據(jù)選擇能力,雖然訓練時間增加,但是模型的其他性能均得到了明顯的提高。根據(jù)退火爐實際運行數(shù)據(jù)分析,如果我們控制模型在線調(diào)整的間隔,可以實現(xiàn)其更優(yōu)秀的性能。
參考文獻
[1]? ? Pawla,Z.Vagueness and Uncertainty: A Rough Set Perspective[J].Computational Intelligence,? 1995,11(2):227-232.
[2]? ? Pawla Z,Grzymala-Busse J,Slowinski R, et al. Rough Sets[J].Communications of the ACM, 1995,38(11):88-95.