陳兆宇,荊豐偉,李 杰,郭 強
北京科技大學高效軋制與智能制造國家工程研究中心,北京 100083
近年來,隨著帶鋼熱連軋的不斷發(fā)展,不同鋼種、規(guī)格的帶鋼被投入到熱連軋生產(chǎn)中.在帶鋼熱連軋中,板坯的加熱質(zhì)量對軋制穩(wěn)定性、帶鋼成品質(zhì)量有著重要影響,其中由于加熱工藝與加熱設備等各方面問題所產(chǎn)生的水梁印是板坯加熱過程的常見缺陷.板坯水梁印的存在會對粗軋、精軋軋制力的控制精度及帶鋼成品厚度等尺寸指標產(chǎn)生較大影響,因此各大鋼鐵廠對于板坯中水梁印的快速準確識別工作愈加重視.
一般情況下,熱連軋產(chǎn)線會配備2~3臺步進式加熱爐,在步進式加熱爐中,板坯的支撐和移動通過爐內(nèi)固定梁和移動梁的協(xié)同配合來完成.板坯在加熱爐內(nèi)的移動依靠加熱爐底部可移動步進梁做周期運動實現(xiàn),通過順序控制方式把板坯從裝鋼側運到出鋼側.移動梁運動形式有上升、前進、下降和后退,板坯在爐內(nèi)根據(jù)移動梁的動作前進或者后退以滿足生產(chǎn)工藝需求[1].
板坯在加熱爐內(nèi)與固定梁上方墊塊直接接觸,墊塊焊接在固定梁和活動梁內(nèi)冷卻水管上,而冷卻水管內(nèi)不斷通入循環(huán)水或汽水混合物進行冷卻,導致墊塊溫度較低,同時在加熱過程中固定梁本身對板坯輻射傳熱具有遮蔽作用,這些原因?qū)е掳迮髋c墊塊的接觸處附近不能被很好地加熱,加熱終了時在接觸處及其附近的局部區(qū)域溫度相對較低,顏色相對黯淡,形成水梁印[2].
現(xiàn)代化帶鋼生產(chǎn)對板坯加熱質(zhì)量要求很高,板坯水梁印較重時,短距離內(nèi)驟降的溫度會嚴重影響精軋入口溫度采樣,采樣溫度短時間內(nèi)急劇波動30 ℃以上,進一步影響二級頭部設定和自動厚度控制系統(tǒng)(Automatic gauge control system,AGC)本體的控制精度,造成很多產(chǎn)品缺陷和生產(chǎn)故障.通過開發(fā)能夠準確、快速、自動識別水梁印的算法,可為生產(chǎn)現(xiàn)場及時排除設備和生產(chǎn)故障提供幫助,對提高軋制穩(wěn)定性和產(chǎn)品質(zhì)量具有重要意義.
對于水梁印識別算法,學術界研究較少.水梁印在溫度數(shù)據(jù)中顯示為多個溫度驟降的波谷,圖1所示為存在水梁印的粗軋出口溫度實測值.
圖1 粗軋出口溫度實測數(shù)據(jù)Fig.1 Measured data of the rough rolling delivery temperature
在加熱爐部分,肖楠等[3]根據(jù)步進式加熱爐的過程機理分析建立鋼坯溫度數(shù)學模型,主要針對水梁在高溫段與低溫段錯開布置的水梁交錯技術和添加水梁墊塊兩個方法對水梁印的影響進行研究.根據(jù)建立的鋼坯溫度數(shù)學模型,對交錯技術和不同種類墊片在加熱爐中的應用情況進行數(shù)學模擬,計算不同情況下的水梁印,證明卡式墊塊對水梁印的改善效果非常明顯,并建議在水梁不交錯的情況,采用交錯墊塊能大幅度降低水梁印,在水梁交錯時不采用墊塊交錯方式對改善水梁印有較好的效果;陳國鋒[4]在傳統(tǒng)鋼坯溫度數(shù)學模型基礎上,進一步研究了爐墻和噴嘴與鋼坯之間的距離對水梁印計算的影響,根據(jù)鋼坯到爐墻和噴嘴的距離計算得到兩個水梁印溫度修正因子,對鋼坯溫度模擬結果進行修正,提高了水梁印的識別精度;孫志斌[5]根據(jù)水梁相關結構對鋼坯溫度數(shù)學模擬進行進一步的細化,考慮到了墊塊的錨固釘,墊塊高度,墊塊底部氣隙層厚度,墊塊中心孔洞等因素對水梁印的影響,進一步提高了水梁印識別精度.建立數(shù)學模型的方法能在一定程度上對水梁印進行識別預測,但是由于采用的數(shù)學模型較為簡單,對加熱爐的各種參數(shù)過于依賴,對水梁印的識別精度有限.
在精軋部分,王強[6]通過收集精軋出口厚度數(shù)據(jù)或者精軋出口溫度數(shù)據(jù),將按時間分布的數(shù)據(jù)轉換為按帶鋼長度分布,對轉換后的數(shù)據(jù)進行快速傅里葉變換,計算厚度或溫度變動量的頻率成分,再根據(jù)加熱爐水梁間距計算對應于該鋼卷的水印可能存在的頻率,當該頻率附近一定范圍內(nèi)數(shù)據(jù)的振幅超過指定的閾值時,即可判定水梁印的存在.計算水梁印振動頻率的方法雖然同樣能夠檢測到水梁印的存在,但是由于加熱爐到精軋的工序過多,帶鋼可能受到其他工序的影響,無法精確確定水梁印的存在.
水梁印的識別工作主要有三個方面的問題.第一,從圖1可知,水梁印特征變化較大,同一塊帶鋼中的水梁印特征都有較大差別,具體的識別工作大多需要依靠現(xiàn)場技術人員按照工作經(jīng)驗進行主觀判別,判別標準統(tǒng)一性差;第二,工業(yè)數(shù)據(jù)具有維數(shù)復雜、數(shù)據(jù)龐大的特點,需要采用人工離線的方法在工業(yè)大數(shù)據(jù)中進行識別標定,其標定過程工作量巨大.第三,識別標準受到設備和工序的影響較大,不同現(xiàn)場的識別標準往往存在較大差異.
這三個問題中,標定工作量大是工程中最大的問題.傳統(tǒng)算法需要大量的人工離線經(jīng)驗對具體的算法進行識別指導,如果標定工作量不足,得到的識別算法準確率無法滿足識別需求.
針對上述問題,在本研究中考慮神經(jīng)網(wǎng)絡相關模型.近些年來神經(jīng)網(wǎng)絡作為機器學習的重要分支,因在數(shù)據(jù)處理方面呈現(xiàn)出顯著的優(yōu)勢而飛速發(fā)展.它通過對模型進行訓練,自動提取并不斷優(yōu)化特征,可快速處理大量數(shù)據(jù),擁有更好的性能和更高的精度,現(xiàn)在已有很多神經(jīng)網(wǎng)絡應用于熱軋的案例[7-11].神經(jīng)網(wǎng)絡模型主要分為有監(jiān)督模型,無監(jiān)督模型和半監(jiān)督模型三種,熱軋中主要應用有監(jiān)督模型解決分類識別問題[12-15],應用半監(jiān)督模型進行特征提取[16],很少應用半監(jiān)督學習模型處理含有少量標定樣本的數(shù)據(jù).
目前提出的半監(jiān)督學習模型,如Ladder network[17]、類別生成對抗網(wǎng)絡(Categorical geneative adversarial networks, CAT-GAN[18])等,在圖像識別領域有良好的表現(xiàn),但是針對數(shù)據(jù)的半監(jiān)督學習卻少有研究.
本研究提出了一種基于改進降噪自編碼器的半監(jiān)督學習模型(Imported denoising auto-encoder,imported-DAE)的熱軋帶鋼水梁印識別算法.通過半監(jiān)督學習可以有效解決標簽數(shù)量少的問題,利用少量標定樣本和大量無標定樣本同時對模型進行訓練,使得模型在標簽數(shù)量較少的情況下具備足夠的學習能力.
水梁印識別算法流程框圖如圖2所示,首先將采集到的水梁印相關數(shù)據(jù)進行數(shù)據(jù)預處理,數(shù)據(jù)填充和數(shù)據(jù)濾波;然后進行特征提取,得到水梁印相關特征數(shù)據(jù);進而對特征提取結果進行小樣本標定;將已標定的樣本與未標定的樣本混合后作為樣本集對Imported DAE模型進行訓練;最后將訓練好的模型作為識別模型進行水梁印識別.
圖2 水梁印識別算法流程圖Fig.2 Flow chart of the water beam seal recognition algorithm
自編碼器(Auto-encoder, AE)[19]是一種無監(jiān)督模型,通過對數(shù)據(jù)進行編碼與解碼學習數(shù)據(jù)特征.該模型的示意圖如圖3所示.具體來說,AE嘗試著去學習一個恒等函數(shù),這個函數(shù)包含兩部分,編碼器和解碼器,AE模型的目的是使模型的輸出值等于或者盡可能地接近于模型的輸入值,即X輸入≈Y輸出.
圖3 自編碼器模型Fig.3 AE model
在一個自編碼器中,由于只有無標簽數(shù)據(jù),我們將輸入信息輸入到一個編碼器,就會得到一個底層編碼,之后再通過一個解碼器,就會得到一個輸出信息.通過不斷的反向傳播來最小化輸入信息和輸出信息的誤差進而對模型進行訓練,使得輸入和輸出一樣.由于中間層的底層編碼能夠通過解碼器無損的反編碼出輸入信息,所以底層編碼是一個包含輸入信息的所有特征信息且維數(shù)較小的輸入信息的另外一個表示,進而達到對輸入信息特征提取的目的.
AE的編碼、解碼過程可描述為:
其中:W1,b1為編碼權重和偏置;W2,b2為解碼權重和偏置; σe為激活函數(shù),目前比較常用的有sigmoid、tanh、relu等; σd可以是與編碼過程σe相同的激活函數(shù);H是隱藏向量.AE的目的就是要最小化X和Y之間的誤差,一般采用均方誤差來描述X和Y之間的距離,用每一次訓練的均方誤差作為模型的損失函數(shù).
其中,J是模型每次訓練的均方誤差值,m是樣本數(shù)量,通過反向傳播對W,b進行調(diào)整,最小化誤差值J對AE進行訓練.
DAE[20]與AE有相同的網(wǎng)絡結構和學習目標,不同的是DAE在訓練過程中主動為樣本數(shù)據(jù)添加隨機噪聲,如圖4所示, 圖4中l(wèi)表示編碼層數(shù)量.
圖4 降噪自編碼器模型Fig.4 DAE model
DAE的主要目的是提高底層編碼對包含噪音的輸入信號的魯棒性.對于訓練好的AE模型來說,如果輸入的信息中含有一定量的噪聲,最終得到的底層編碼無法完整地反編譯出輸入的信息,既AE模型本身學習到的輸入數(shù)據(jù)的特征信息容易被噪聲所影響.DAE模型通過人為地對輸入數(shù)據(jù)加入一定量的噪聲,模擬信息損失的情況,模型降低了對輸入信號的依賴性,使得底層編碼在學習到輸入的完整信息的同時具有一定的魯棒性.
傳統(tǒng)的DAE模型并不具備監(jiān)督學習的能力,由于重構特性,DAE往往用于進行無監(jiān)督學習、特征提取或數(shù)據(jù)生成.本文基于DAE,對編碼器模型進行改進,提出Imported-DAE模型.模型結構如圖5所示.
圖5 改進的DAE結構示意圖Fig.5 Improved DAE structure diagram
典型的無監(jiān)督學習方法有AE和DAE,由于AE本身的功能是將輸入信號轉換為隱藏層表達,使得在經(jīng)過訓練學習后AE的隱藏層能夠?qū)W習到的輸入數(shù)據(jù)的無損重構信息.所以學習到重構信息是無監(jiān)督學習的主要目的.
有監(jiān)督學習與無監(jiān)督學習的不同在于,有監(jiān)督學習有明確的學習目的,通過對數(shù)據(jù)人為地附加標簽,可以對數(shù)據(jù)相應的識別特征進行標定.所以,學習到識別特征是有監(jiān)督學習的主要目的.而半監(jiān)督學習則需要同時達到有監(jiān)督和無監(jiān)督兩種學習的目的,即模型能夠同時學習到輸入數(shù)據(jù)的重構信息和識別特征.
為了使得半監(jiān)督模型能夠?qū)W習到具有識別特征的重構信息,本文提出的模型分兩部分實現(xiàn):
第一部分,對輸入層和編碼層同時加入噪聲.DAE雖然也是無監(jiān)督學習,但是DAE與AE相比,具有一定的特殊性,由于在輸入數(shù)據(jù)中加入了隨機噪聲,使得模型在學習過程中被迫降低對輸入數(shù)據(jù)的依賴性,通過訓練調(diào)整權重,DAE的隱藏層降低了對重構數(shù)據(jù)的學習能力,提高了魯棒性,其結果是模型不僅能夠重構輸入數(shù)據(jù)的信息,同時能夠?qū)σ欢康脑肼曔M行過濾[21].按照DAE的原理,在模型的輸入層和編碼層同時加入噪聲,加大了模型對于噪聲的過濾能力,進一步削弱了隱藏層對重構信息的學習能力.
第二部分,在隱藏層后加入包含softmax激活函數(shù)的分類層,由于輸入數(shù)據(jù)中包含部分的標簽信息,隱藏層為了滿足標簽信息的分類要求,被迫學習數(shù)據(jù)中的識別特征,進一步削弱對重構信息的學習能力.
由于以上兩步在模型訓練過程中是同時進行的,在經(jīng)過大量的訓練后,模型隱藏層能夠?qū)W習到具有識別特征的重構信息.
模型訓練過程如下:
(1)編碼過程.
模型輸入為原始數(shù)據(jù)Xinput,以圖6模型為基準構建網(wǎng)絡模型.在編碼階段,對模型輸入數(shù)據(jù)和編碼層的每一層加入隨機高斯噪聲ni(i=0,1,2,···,l),得到每一層的有噪聲輸入:
圖6 噪聲對模型準確率影響.(a)輸入層只有均值變化;(b)輸入層只有方差變化;(c)編碼層只有均值變化;(d)編碼層只有方差變化Fig.6 Influence of noise on model accuracy: (a) only the mean value of the input layer changes; (b) only the variance of the input layer changes; (c) only the mean value of the encode layer changes; (d) only the variance of the encode layer changes
其中,n0為對輸入層輸入的噪音,ni為對編碼層輸入的噪音,Wi,Bi為編碼權重和偏置,σe為激活函數(shù),采用relu作為激活函數(shù),Z(i)為每層網(wǎng)絡層的輸出,H(i)為每一層添加噪音后的輸出數(shù)據(jù)以及下一層的輸入數(shù)據(jù),H(l)為網(wǎng)絡的底層,不添加噪聲.
(2)解碼過程和識別過程.
模型輸出分為兩部分,解碼過程的模型重構輸出和識別過程的模型分類輸出.
解碼過程與傳統(tǒng)編碼器網(wǎng)絡的解碼層類似:
解碼層的輸入為編碼層的底層輸出H(l),式中wi,bi為解碼權重和偏置,σd為激活函數(shù),采用relu作為激活函數(shù),解碼層最終輸出為Youtput.
識別過程采用神經(jīng)網(wǎng)絡分類模型,在H(l)后接入一個包含softmax激活函數(shù)的神經(jīng)網(wǎng)絡作為分類層:
其中,M、N為神經(jīng)網(wǎng)絡層權重和偏置,σf為激活函數(shù),采用relu作為激活函數(shù),神經(jīng)網(wǎng)絡層輸出層D經(jīng)過一個softmax函數(shù),最終輸出為youtput.
式中的softmax函數(shù)如式(7)所示:
其中,Di表示第i個節(jié)點的輸出值,C表示輸出節(jié)點的個數(shù),即分類類別個數(shù),通過softmax函數(shù)就可以將多分類的輸出值轉換為范圍在 [0,1]且和為1的概率分布.
(3)損失函數(shù)計算.
模型的損失分為重構損失和分類損失兩個部分.
重構模型采用均方差損失函數(shù)(MSE),重構模型的任務是最小化輸入樣本和重構樣本的均方誤差值:
其中,f(x)代表編碼函數(shù),g(x)表示解碼函數(shù),N表示樣本數(shù)據(jù)數(shù)量,LossMSE表示均方誤差損失.
分類模型采用交叉熵損失函數(shù)(CEL),分類模型的任務是最小化帶標簽數(shù)據(jù)分類輸出和分類標簽的交叉熵損失值:
其中,youtput表示分類模型輸出,yhat表示數(shù)據(jù)標簽,N表示樣本數(shù)據(jù)數(shù)量,LossCEL表示交叉熵損失.
模型的總損失函數(shù) LossTotal=LossMSE+LossCEL,通過反向模型的不斷訓練,最小化損失函數(shù)得到最終訓練好的模型.
采集國內(nèi)某鋼廠的帶鋼的粗軋出口溫度數(shù)據(jù)作為實驗數(shù)據(jù)進行實驗,進而對模型精度進行分析,并以此驗證模型的可靠性.
輸入層和編碼層加入的噪聲是模型的重要部分,現(xiàn)通過實驗測試噪聲對模型的影響.
為對比不同位置加入噪聲對模型的影響,分別在網(wǎng)絡的輸入層和編碼層加入均值為0、方差為1的高斯噪聲.測試在模型不同位置加入噪聲后,在不同標簽占比下的準確率.測試結果如表1所示:
從表1可得,相比于其他添加噪聲的方法,在輸入層和編碼層同時加入噪聲能夠得到較高的模型準確率.
表1 不同位置添加噪音后在不同標簽占比下的模型精度結果Table 1 Model accuracy results after adding noise at different layers under different label proportions %
為驗證不同的輸入噪聲對模型的影響,以輸入噪聲的均值和方差作為參數(shù),對模型的輸入層和編碼層分別進行測試,對比不同噪聲在不同標簽占比下的模型準確率,噪聲的變化采用控制變量法,分別測試輸入層噪聲均值、方差和編碼層噪聲均值、方差四個參數(shù)變化下分類準確率的變化.實驗過程如表2所示.
表2 不同噪聲的對比模型Table 2 Compare models with different noise
實驗結果如圖6所示,圖6中 (a)、(b)、(c)、(d)為分別輸入層噪聲均值、方差,編碼層噪聲均值、方差四個參數(shù)的四個模型,測試在四個參數(shù)變化的情況下,對標簽占比為1%、5%、10%和50%四種數(shù)據(jù)分類準確率的影響.
由圖6可以看出,當加入噪聲的均值方差在一定范圍內(nèi)變化時,對模型沒有太大的影響,模型準確率在相應范圍內(nèi)波動較小,這是因為當輸入噪聲較小時,模型通過不斷的訓練,能夠較好地學習到輸入數(shù)據(jù)的深層特征,并提高整個模型的抗干擾性;但是隨著噪聲的均值方差進一步增大,輸入的原始數(shù)據(jù)逐漸失真,對于輸入數(shù)據(jù)的特征提取能力大幅下降,使得模型的識別率逐漸降低.其中,由于編碼層處于網(wǎng)絡內(nèi)部,噪聲前后都有一定數(shù)量的網(wǎng)絡參數(shù),對于噪聲的過濾能力較強,所以在編碼層提高噪聲強度造成準確率降低的幅度較小,而輸入層作為原始輸入數(shù)據(jù),對噪聲敏感性明顯比編碼層高.
實驗結果表明,由于噪聲在小范圍內(nèi)變動不影響模型準確率,但較大噪聲的輸入會極大影響模型準確率,故輸入層與編碼層都采用均值為0,方差為1的高斯噪聲作為輸入噪聲.
為了驗證Improved-DAE模型的優(yōu)勢,將訓練好的模型的編碼層與分類層提取出來作為分類器.以3.2節(jié)中的實驗配置按照不同的標簽占比,以分類精度為評價標準,與當前主要神經(jīng)網(wǎng)絡分類器模型進行對比.BP(Back propagation)神經(jīng)網(wǎng)絡、深度神經(jīng)網(wǎng)絡(Deep back propagation, DBP)與深度置信網(wǎng)絡(Deep belief networks, DBN)[22]是傳統(tǒng)分類模型,具有良好的識別穩(wěn)定性,能夠保證分類精度,深度學習長短期記憶網(wǎng)絡(Long short-term memory, LSTM)[23]模型和卷積長短期記憶神經(jīng)網(wǎng)絡(Convolutional neural networks-long short term memory, CNN-LSTM)[24-27]模型是目前具有較高的分類精度的算法,廣泛應用于數(shù)據(jù)預測和數(shù)據(jù)分類,實驗結果如表3所示.
表3 不同標簽占比下不同神經(jīng)網(wǎng)絡分類精度Table 3 Classification accuracy of different neural networks under different label proportions %
深度學習LSTM模型和CNN-LSTM模型在標簽占比只有1%和2%情況下并不具備分類能力.結果顯示,與其他分類模型相比,本文提出的改進降噪自編碼器模型在標簽占比較小的情況下,即半監(jiān)督條件下對數(shù)據(jù)的分類更加準確,相比其他算法,識別準確率高5%~10%;在標簽數(shù)量增多時,即監(jiān)督條件下對數(shù)據(jù)的分類同樣擁有較高的準確率,達到93.80%.
針對國內(nèi)某2032熱連軋生產(chǎn)線出現(xiàn)的批量厚度控制精度問題,用提出的模型對其成因進行實驗.該熱軋產(chǎn)線出現(xiàn)的批量厚度控制精度問題,主要表現(xiàn)在帶鋼頭部厚度命中率過低,帶鋼本體厚度波動較為明顯.粗軋出口實測溫度如圖7所示,精軋出口實測厚度如圖8所示.
圖7 粗軋出口溫度數(shù)據(jù).(a)帶鋼頭部溫度;(b)帶鋼全長溫度Fig.7 Measured data of rough rolling delivery temperature: (a) temperature of the strip head; (b) total strip temperature
圖8 精軋出口厚度.(a)帶鋼頭部厚度;(b)帶鋼全長厚度Fig.8 Thickness of the strip delivery of the finishing mill: (a) thickness of the strip head; (b) total strip thickness
帶鋼厚度精度包括帶鋼頭部厚度命中率和帶鋼全長厚度偏差.
帶鋼頭部厚度命中率取決于二級厚度設定模型的精度.由于粗軋軋出的每塊板坯厚度、寬度,特別是板坯溫度都有所不同,二級厚度設定模型需要對帶鋼頭部進行采樣,根據(jù)采樣結果為每一塊板坯計算各個機架的輥縫,保證成品帶鋼頭部厚度與要求厚度之差不超出允許范圍.影響帶鋼頭部命中率的主要因素有:二級設定模型精度不高(主要是溫降模型和軋制力模型的精度),帶鋼在厚度方向存在溫度差(所測表面溫度與帶鋼實際平均溫度有差異),帶鋼頭部低溫段(水梁?。┻^長.
帶鋼全長厚差則由AGC根據(jù)頭部厚度設定值控制,保證全長各點厚度與設定值之差小于允許的閾值范圍,所以頭部精度對AGC工作有明顯的影響.
從圖7(a)帶鋼粗軋出口頭部溫度可看出,帶鋼在頭部0~6 m內(nèi)存在嚴重水梁印,且溫差高達40 ℃,而該廠目前二級采樣點在帶鋼頭部1~4 m,采樣范圍完全落在水梁印內(nèi),嚴重影響了頭部設定精度,尤其是軋制力,使得設定軋制力偏大.在軋制過程中由于帶鋼頭部存在溫度正常部分,較高的軋制力使得該部分軋制厚度偏薄,AGC通過一級反饋對軋制力進行調(diào)整,但由于隨后立刻進入水梁印區(qū)域,帶鋼溫度驟降,AGC來不及再次調(diào)整,使得水梁印范圍內(nèi)厚度較厚.最終導致帶鋼頭部命中率過低.在帶鋼本體部分,若本體水梁印嚴重,在部分水梁段同樣會存在AGC控制精度不佳的現(xiàn)象,導致本體命中率偏低.除此之外,由于二級模型自學習對于水梁印部分的帶鋼溫度異常不起作用,遇到批量出現(xiàn)的含有水梁印的帶鋼,模型無法自行完善,最終導致了批量厚度精度控制問題.
目前該產(chǎn)線沒有能夠自動識別水梁印的功能,對于水梁印的判斷只能依靠人工離線的方法.將本文提出的帶鋼水梁印自動識別算法添加到精軋工序前,能夠為生產(chǎn)現(xiàn)場及時排除設備和生產(chǎn)故障提供幫助,減少成品質(zhì)量問題.
將500卷熱軋帶鋼的熱軋出口數(shù)據(jù)經(jīng)數(shù)據(jù)填充后提取出每塊帶鋼中的水梁印特征,作為訓練樣本,并根據(jù)人工識別結果按照一定比例對其中的數(shù)據(jù)進行標定,作為樣本集對模型進行訓練.
模型訓練完成后,將改進降噪自編碼器中的編碼層和分類層單獨提取出來作為識別分類器.步進式加熱爐內(nèi)部結構與板坯的運動方式如圖9所示.
圖9 步進式加熱爐內(nèi)部結構示意圖.(a)加熱爐左視圖;(b)加熱爐主視圖Fig.9 Internal structure diagram of the walking beam furnace: (a) left view of the heating furnace; (b) main view of the heating furnace
由步進式加熱爐加熱方式以及水梁印生成原理可知,帶鋼水梁印主要出現(xiàn)在與其相接觸的步進梁位置.根據(jù)現(xiàn)場分析,該廠加熱爐內(nèi)共存在8個步進梁,為便于說明,用1~8代表不同步進梁,對在不同步進梁生成的水梁印進行識別,部分結果如表4所示.
表4 改進降噪自編碼器部分識別結果Table 4 Partial recognition results of improved DAE ℃
其中1 #~5 #表示帶鋼編號,1~8表示不同步進梁,從表4可以看出,2 #、4 #和5 #鋼出現(xiàn)了水梁印嚴重的情況,部分區(qū)域的水梁印溫度在30 ℃左右.
500塊鋼出現(xiàn)的水梁印分布總體識別結果如圖10所示.
圖10 水梁印位置分布識別結果Fig.10 Recognition results of the location distribution of water beam marks
從圖10的識別結果來看出,帶鋼在1號與8號水梁位置出現(xiàn)水梁印的情況較多,存在加熱異常的現(xiàn)象.
查看生產(chǎn)現(xiàn)場,不達標帶鋼確實存在明顯水梁印現(xiàn)象.由于該加熱爐的調(diào)焰燒嘴靠近1號與8號步進梁位置,即加熱爐兩側,板坯在該位置被水梁遮蔽部分的加熱效果相比其他水梁來說更差,且有些鋼種由于加熱方式問題,加熱時間偏短,容易出現(xiàn)溫差較大的水梁印.為了降低水梁印對帶鋼厚度偏差的影響,優(yōu)化升溫曲線,增加二加和三加的在爐時間,減少其他加熱段的在爐時間.通過數(shù)據(jù)統(tǒng)計,經(jīng)上述調(diào)整后帶鋼頭部厚度偏差問題得到了初步解決,厚度命中率明顯提升.實驗結果判斷與現(xiàn)場分析得到該產(chǎn)線加熱爐存在的問題相符,證明了模型的有效性.
根據(jù)實驗結果,現(xiàn)場可通過兩個方向改善帶鋼出現(xiàn)水梁印問題:
(1) 從加熱爐優(yōu)化入手,根據(jù)本文模型識別出來的結果對加熱爐相關設備進行檢查和維護,通過調(diào)整加熱爐燒嘴位置,更換水梁墊片等措施來解決.對特定鋼種出現(xiàn)的批量水梁印問題,采用針對性的優(yōu)化燃燒模型參數(shù),優(yōu)化升溫曲線,增加加熱時間等方法改善水梁印問題;
(2) 從精軋軋制方向,根據(jù)識別出帶鋼上的水梁印溫差以及位置等信息,在精軋實際軋制過程中對二級設定模型進行改進,如采用區(qū)間溫度均值和優(yōu)化采樣距離等方法,提高二級設定模型的精度;針對帶鋼本體水梁印的具體位置,增加AGC前饋控制補償功能,提高AGC響應速度,改善帶鋼整體厚度波動情況.
為了有效降低現(xiàn)場工人進行離線標定的工作量,并和提高水梁印的識別準確率,本文提出了基于改進降噪自編碼器半監(jiān)督學習的熱軋帶鋼水梁印識別算法:
(1) 將重構損失與分類損失結合,使模型具有了半監(jiān)督學習能力,在標簽數(shù)量較少的情況下依舊對數(shù)據(jù)有較高的分類準確率,與傳統(tǒng)水梁印識別算法相比,本文提出的算法不需要大量的人工離線標定工作,且識別準確率較高.
(2) 當標簽占比逐漸上升時,即學習狀態(tài)從半監(jiān)督學習逐漸轉變?yōu)橛斜O(jiān)督學習后,改進模型依舊擁有較高的分類準確率,與深度學習LSTM一樣,準確率達到93.80 %.
(3) 由于步進式加熱爐水梁印不可能完全消除,除了通過改進加熱爐控制盡量減小其對后續(xù)工序的影響外,還可以通過本文提出的模型,根據(jù)粗軋出口溫度實測數(shù)據(jù),識別出相應水梁印的具體溫差和帶鋼位置,針對具體的溫度參數(shù)和位置區(qū)間對控制系統(tǒng)進行功能優(yōu)化,提高二級模型設定精度和AGC響應等方法,提高帶鋼產(chǎn)品厚度質(zhì)量.