摘要:為便捷、準(zhǔn)確地預(yù)測(cè)磨削后螺桿轉(zhuǎn)子的表面粗糙度,提出了一種基于自注意力卷積神經(jīng)網(wǎng)絡(luò)(SA-CNN)的磨削曲面粗糙度測(cè)量方法。通過(guò)正交試驗(yàn)獲得螺桿轉(zhuǎn)子的表面粗糙度以及粗糙度數(shù)值對(duì)應(yīng)位置的表面圖像,圖像經(jīng)自適應(yīng)直方圖均衡化、反銳化掩蔽等預(yù)處理后作為訓(xùn)練樣本輸入SA-CNN模型中。采用SA-CNN模型對(duì)磨削后的螺桿轉(zhuǎn)子表面粗糙度值進(jìn)行預(yù)測(cè),并與經(jīng)典網(wǎng)絡(luò)ResNet、AlexNet、VGG-16、基礎(chǔ)CNN以及圖神經(jīng)網(wǎng)絡(luò)GNN預(yù)測(cè)結(jié)果進(jìn)行對(duì)比。試驗(yàn)結(jié)果表明,SA-CNN模型的平均預(yù)測(cè)精度達(dá)到95.24%,均方根誤差(RMSE)為0.0706 μm,平均絕對(duì)百分比誤差(MAPE)為7.4206%,均優(yōu)于對(duì)比網(wǎng)絡(luò),且模型收斂較快,表現(xiàn)出較高的精度和良好的魯棒性。
關(guān)鍵詞:磨削;表面粗糙度;卷積神經(jīng)網(wǎng)絡(luò);正交試驗(yàn)
中圖分類號(hào):TH161
Surface Roughness Prediction for Screw Belt Grinding Based on Improved CNN
YANG Heran1,2 ZHANG Peijie1,2 SUN Xingwei1,2* PAN Fei1,2 LIU Yin1,2
1.College of Mechanical Engineering,Shenyang University of Technology,Shenyang,110870
2.Key Laboratory of Numerical Control Manufacturing Technology for Complex Surfaces of Liaoning Province,Shenyang,110870
Abstract: A grinding surface roughness measurement method was proposed based on SA-CNN for convenient and accurate prediction of roughness values on screw rotor surfaces after grinding. Through orthogonal experiments, the surface roughness values of screw rotors and corresponding surface images were obtained. After preprocessing including adaptive histogram equalization and unsharp masking, the images were used as training samples input into the SA-CNN model. The SA-CNN model was employed to predict the roughness values on the grinding surfaces of screw rotors and compared with the predictions of classical networks such as ResNet, AlexNet, VGG-16, basic CNN, and graph neural network (GNN). Experimental results show that the SA-CNN model achieves an average prediction accuracy of 95.24%, with an RMSE of 0.0706 μm and an MAPE of 7.4206%, outperforming the compared networks. Furthermore, the SA-CNN model exhibits fast convergence, high accuracy, and good robustness.
Key words: grinding; surface roughness; convolutional neural network(CNN); orthogonal experiment
0 引言
螺桿作為一種重要的傳動(dòng)元件,在機(jī)械工程和交通運(yùn)輸?shù)阮I(lǐng)域扮演著重要的角色[1-2]。表面質(zhì)量直接影響螺桿轉(zhuǎn)子的性能和可靠性,因此,螺桿表面粗糙度值測(cè)量的準(zhǔn)確性、高效性、可靠性至關(guān)重要[3-4]。直接簡(jiǎn)單的表面粗糙度測(cè)量方法有視覺(jué)比較法,工業(yè)上較多使用輪廓測(cè)量?jī)x,通過(guò)接觸探針記錄表面的高度變化并生成表面的高度圖像進(jìn)而計(jì)算出表面粗糙度。觸針輪廓儀測(cè)量方式為線采樣,無(wú)法客觀地表征某一區(qū)域的表面粗糙度值。此外,觸控筆輪廓儀的測(cè)量精度受其觸控筆半徑的限制,在測(cè)量較小粗糙度表面(表面粗糙度小于2.5 μm)時(shí)存在較大的系統(tǒng)誤差[5-7]。為保證測(cè)量結(jié)果的準(zhǔn)確性,通常在同一位置需要重復(fù)測(cè)量多次并取均值作為測(cè)量結(jié)果。因此,對(duì)于軸向尺寸較長(zhǎng)、曲率變化較大的螺桿轉(zhuǎn)子,接觸式測(cè)量方式工作量較大。
近年來(lái),隨著光學(xué)技術(shù)和計(jì)算機(jī)輔助技術(shù)的快速發(fā)展,非接觸式測(cè)量逐漸成為測(cè)量粗糙度的重要手段[8-9]。非接觸式測(cè)量中的白光干涉等方式,測(cè)量對(duì)象一般為尺寸較小的光學(xué)零部件,對(duì)長(zhǎng)度在6~12 m的螺桿轉(zhuǎn)子類零件顯然不適合。基于機(jī)器視覺(jué)的粗糙度測(cè)量方法本質(zhì)上基于光學(xué)原理[10],首先利用工業(yè)相機(jī)捕捉光源在測(cè)量表面上的圖像,并設(shè)計(jì)與粗糙度參數(shù)相關(guān)的圖像特征指數(shù),再利用相關(guān)模型對(duì)工件表面粗糙度進(jìn)行預(yù)測(cè)?;跈C(jī)器視覺(jué)的粗糙度測(cè)量方法的主流研究方向包括:基于粗糙度相關(guān)圖像的特征指標(biāo)設(shè)計(jì)、表面紋理參數(shù)標(biāo)定、圖像預(yù)處理算法設(shè)計(jì)、成像試驗(yàn)設(shè)計(jì)、預(yù)測(cè)模型設(shè)計(jì)、性能評(píng)價(jià)方法和試驗(yàn)參數(shù)魯棒性分析等[11-14]。LU等[15]和FISCHER[16]通過(guò)研究不同光照條件對(duì)磨削表面照射的影響,得到相應(yīng)的特征指標(biāo),進(jìn)而預(yù)測(cè)磨削表面粗糙度。易懷安等[17]通過(guò)對(duì)少量圖片樣本進(jìn)行擴(kuò)增并訓(xùn)練圖神經(jīng)網(wǎng)絡(luò)(graph neural network ,GNN),能夠?qū)︺娤鳂颖具M(jìn)行粗糙度測(cè)量。LU等[18]通過(guò)設(shè)計(jì)近場(chǎng)電磁散射仿真試驗(yàn),觀察不同粗糙度表面的電磁波散射現(xiàn)象,結(jié)果表明選取適當(dāng)?shù)膮?shù)能獲得更高的粗糙度測(cè)量精度。楊晨等[19]、CHEN等[20]和HUANG等[21]通過(guò)對(duì)磨削環(huán)境干擾以及磨削表面紋理特性的研究,建立與磨削表面粗糙度具有強(qiáng)相關(guān)性的特征指標(biāo),從而實(shí)現(xiàn)磨削表面的粗糙度測(cè)量。VASANTH等[22]通過(guò)提取金屬熱圖像的圖像參數(shù),將參數(shù)輸入回歸建模并對(duì)金屬表面粗糙度進(jìn)行測(cè)量,提供了具有遷移率的金屬的間接表面粗糙度測(cè)量方法,但測(cè)量結(jié)果受溫度的影響較大。FANG等[23]和SU等[24]通過(guò)改進(jìn)神經(jīng)網(wǎng)絡(luò),構(gòu)建了能夠識(shí)別工件表面的監(jiān)測(cè)系統(tǒng),能夠檢測(cè)待測(cè)表面并預(yù)測(cè)其粗糙度。安倩楠[25]和陳麗[26]通過(guò)建立卷積神經(jīng)網(wǎng)絡(luò)分別實(shí)現(xiàn)對(duì)車削和銑削的粗糙度等級(jí)的分類識(shí)別。綜上可知,雖然基于機(jī)器視覺(jué)的粗糙度測(cè)量方法的研究已經(jīng)很深入,但大多是通過(guò)建立指數(shù)相關(guān)模型、提取相關(guān)特征等間接測(cè)量方法,且對(duì)圖像進(jìn)行回歸預(yù)測(cè)的神經(jīng)網(wǎng)絡(luò)多為等級(jí)分類預(yù)測(cè),較少直接通過(guò)表面圖像對(duì)粗糙度進(jìn)行預(yù)測(cè)。本文針對(duì)螺桿類曲面這類較小粗糙度范圍的測(cè)量,提出一種基于自注意力的卷積神經(jīng)網(wǎng)絡(luò)直接測(cè)量方法。
卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural network, CNN)具有自動(dòng)學(xué)習(xí)、處理大規(guī)模圖像數(shù)據(jù)時(shí)能夠并行計(jì)算等優(yōu)點(diǎn),在引入自注意力機(jī)制建立全局聯(lián)系后可突出重要特征,使得網(wǎng)絡(luò)加快收斂。本文通過(guò)基于自注意力卷積神經(jīng)網(wǎng)絡(luò)(SA-CNN)對(duì)磨削后的螺桿轉(zhuǎn)子工件表面的圖像進(jìn)行深度學(xué)習(xí)訓(xùn)練,從而實(shí)現(xiàn)螺桿轉(zhuǎn)子表面粗糙度值的預(yù)測(cè)。
1 基于自注意力卷積神經(jīng)網(wǎng)絡(luò)的表面粗糙度值模型
1.1 自注意力卷積神經(jīng)網(wǎng)絡(luò)
CNN能高效地處理圖像等數(shù)據(jù),在預(yù)測(cè)表面粗糙度的過(guò)程中,通過(guò)學(xué)習(xí)與其粗糙度值相對(duì)應(yīng)的圖像特征,直到輸出與訓(xùn)練樣本一致。而后通過(guò)網(wǎng)絡(luò)模型前向傳播可對(duì)未知數(shù)值的圖像進(jìn)行表面粗糙度值預(yù)測(cè)。通過(guò)搭建多個(gè)卷積層、池化層和全連接層等來(lái)組合構(gòu)成深層網(wǎng)絡(luò),可以降低特征圖尺寸,減少參數(shù)量,加快訓(xùn)練過(guò)程。通過(guò)反向傳播算法,CNN能夠自動(dòng)學(xué)習(xí)特征表達(dá),并在訓(xùn)練過(guò)程中優(yōu)化網(wǎng)絡(luò)參數(shù)以最小化損失函數(shù)。
自注意力(self-attention)是一種在自然語(yǔ)言處理和計(jì)算機(jī)視覺(jué)中廣泛應(yīng)用的注意力機(jī)制[27-28]。自注意力在CNN回歸預(yù)測(cè)中可以根據(jù)像素間相互關(guān)系學(xué)習(xí)每個(gè)像素對(duì)預(yù)測(cè)結(jié)果的重要性,從而增強(qiáng)模型對(duì)預(yù)測(cè)結(jié)果有貢獻(xiàn)像素的提取,加強(qiáng)全局中重要特征的體現(xiàn)。其計(jì)算原理如下:給定輸入序列A=[a1,a2,…,an],i=1,2,…,n,其中ai表示輸入序列中的第i個(gè)元素。匹配其他單元、被其他單元匹配、需要被提取的信息分別用q(query)、k(key)和v(value)表示。則每個(gè)元素ai對(duì)其他元素的注意力分配程度按下式進(jìn)行計(jì)算:
qi=Wq·ai
ki=Wk·ai
vi=Wv·ai(1)
其中,Wq、Wk和Wv為權(quán)重矩陣,用于將輸入序列A映射到q、k和v。通過(guò)每一個(gè)qi對(duì)每一個(gè)ki計(jì)算每個(gè)元素對(duì)其他元素的注意力分配程度,即注意力分?jǐn)?shù)(attention scores)。計(jì)算公式如下:
a1,i=exp(β1,i)∑jexp(β1,j)(2)
其中,β1,i表示q1和ki的計(jì)算相似度。那么每個(gè)單元計(jì)算之后的綜合信息就是這個(gè)單元對(duì)句子所有各個(gè)單元的a與各個(gè)單元的信息v的計(jì)算總和,即注意力加權(quán)值(attention weighted values)。其計(jì)算公式如下:
b1=∑ia1,ivi(3)
基于上述自注意力的計(jì)算特點(diǎn),在CNN中引入自注意力機(jī)制可以自動(dòng)地對(duì)序列中的關(guān)鍵信息進(jìn)行加權(quán)匯聚,突出重要的特征并抑制不相關(guān)的特征,這有助于提高模型對(duì)輸入樣本中有用信息的提取能力,從而改善回歸預(yù)測(cè)的準(zhǔn)確性。
1.2 SA-CNN網(wǎng)絡(luò)結(jié)構(gòu)
基于CNN卷積層的自動(dòng)提取特征能力與自注意力機(jī)制對(duì)關(guān)鍵信息的加權(quán)匯聚能力,建立了SA-CNN表面粗糙度預(yù)測(cè)模型,其結(jié)構(gòu)如圖1所示,包含5層卷積層、一個(gè)Dropout層、兩個(gè)全連接層、一個(gè)自注意力機(jī)制層。每層卷積層后添加了最大池化層、歸一化層、Gule激活函數(shù),以加速訓(xùn)練并提高網(wǎng)絡(luò)的穩(wěn)定性。Dropout層用于在訓(xùn)練過(guò)程中隨機(jī)使一部分神經(jīng)元失活,以防止過(guò)擬合;全連接層用于對(duì)展平后的特征進(jìn)行進(jìn)一步的抽象和學(xué)習(xí);在兩個(gè)全連接層之間添加一個(gè)自注意力機(jī)制層;在第二個(gè)全連接層后添加LeakyReLU激活函數(shù),引入一定的負(fù)值響應(yīng),增強(qiáng)網(wǎng)絡(luò)的非線性建模能力。
2 砂帶磨削試驗(yàn)
磨削試驗(yàn)通過(guò)自主研制的砂帶螺桿磨削裝置實(shí)現(xiàn),該裝置安裝于數(shù)控車床溜板上,如圖2所示。磨削裝置的主電機(jī)帶動(dòng)主動(dòng)輪旋轉(zhuǎn),最終帶動(dòng)砂帶相對(duì)于工件做高速直線運(yùn)動(dòng),從而實(shí)現(xiàn)磨削去除。為保證砂帶與工件相對(duì)運(yùn)動(dòng)軌跡與螺桿轉(zhuǎn)子型面貼合,加工過(guò)程中工件自轉(zhuǎn)速度與機(jī)床溜板沿工件的軸向運(yùn)動(dòng)速度需保證一定的比例關(guān)系。在此基礎(chǔ)上,分別采用自由式裝置和接觸輪式裝置對(duì)螺桿轉(zhuǎn)子的凸面和凹面進(jìn)行磨削。試驗(yàn)工件為經(jīng)過(guò)銑削的5頭螺桿轉(zhuǎn)子(材料為45鋼),砂帶磨粒材料為鋯剛玉。根據(jù)前期工作基礎(chǔ),影響砂帶磨削質(zhì)量的加工參數(shù)分別為進(jìn)給速度vg、砂帶線速度vs、砂帶張緊力Fs、磨削壓力Fm與砂帶粒度S。采用兩個(gè)氣缸分別控制磨削壓力和砂帶張緊力,氣缸壓力變動(dòng)范圍均為0~0.5 MPa。為保證磨削過(guò)程中砂帶與工件表面具有合適的接觸范圍,選用主氣缸壓力至少大于張緊氣缸壓力0.1 MPa,選定壓力范圍分別為主動(dòng)氣缸0.4~0.5 MPa,張緊氣缸0.2~0.3 MPa。
砂帶線速度通過(guò)主電機(jī)控制,考慮磨削質(zhì)量和效率,將砂帶線速度控制在5~15 m/s。磨削裝置軸向進(jìn)給速度需要配合磨削線速度和磨削壓力,選定范圍為100~300 mm/min。砂帶粒度根據(jù)螺桿磨削質(zhì)量要求,選擇80~240目之間的5種目數(shù)。采用水平正交試驗(yàn),考慮砂帶磨損影響,每組試驗(yàn)?zāi)ハ?0 min,每2 min測(cè)量一次粗糙度數(shù)值,并在相應(yīng)位置拍攝螺桿表面圖像。具體試驗(yàn)參數(shù)見(jiàn)表1。
磨削工件圖像的采集在圖3所示的圖像采集系統(tǒng)下進(jìn)行。圖像采集系統(tǒng)由計(jì)算機(jī)、分辨率為1280×960的灰度CCD相機(jī)MV-EM120M/C(帶有工業(yè)變倍鏡頭MACRO ZOOM 0.3X-1X 1∶4.5)、三軸位移平臺(tái)、光源控制器和聚光光源組成。拍攝過(guò)程中CCD相機(jī)的光軸始終保持水平并垂直于工件表面,光源固定在相機(jī)鏡頭。在圖像采集過(guò)程中,工件與相機(jī)距離保持在60~100 mm,光強(qiáng)由光源控制器對(duì)聚光光源進(jìn)行控制。圖像采集時(shí),通過(guò)調(diào)整相機(jī)的曝光時(shí)間和感光度以及光照強(qiáng)度,使得采集界面磨削痕跡紋理清晰。利用CCD相機(jī)對(duì)螺桿表面進(jìn)行拍攝,得到磨削表面的數(shù)據(jù)集。
3 試驗(yàn)與結(jié)果分析
3.1 數(shù)據(jù)集增強(qiáng)
試驗(yàn)后得到500組粗糙度數(shù)值和對(duì)應(yīng)表面圖片,就深度學(xué)習(xí)的回歸預(yù)測(cè)而言,該數(shù)據(jù)集較小,模型容易過(guò)擬合,還會(huì)過(guò)分依賴于訓(xùn)練集中的少量樣本,無(wú)法很好地泛化到整個(gè)數(shù)據(jù)分布區(qū)域。為增加模型的泛化能力和魯棒性,對(duì)數(shù)據(jù)集進(jìn)行數(shù)據(jù)增強(qiáng)??紤]CNN通過(guò)學(xué)習(xí)表面紋理特征實(shí)現(xiàn)粗糙度預(yù)測(cè),數(shù)據(jù)增強(qiáng)采用旋轉(zhuǎn)、縮放、裁剪、翻轉(zhuǎn),示例如圖4所示。共得到7500個(gè)數(shù)量的數(shù)據(jù)集,將其按照8∶2的比例隨機(jī)分為訓(xùn)練集和測(cè)試集。
3.2 圖像預(yù)處理
為了讓網(wǎng)絡(luò)能夠更高效率、更專注地提取圖像中的有用特征,對(duì)原始圖像進(jìn)行預(yù)處理操作,優(yōu)化輸入數(shù)據(jù),消除干擾和冗余信息,增強(qiáng)圖像的特征,為網(wǎng)絡(luò)提供更好的輸入,提高網(wǎng)絡(luò)性能、減少過(guò)擬合現(xiàn)象??紤]到主要提取特征為圖像內(nèi)紋理特征,且為適應(yīng)網(wǎng)絡(luò)整體訓(xùn)練效率,對(duì)圖像進(jìn)行增強(qiáng)對(duì)比度、增強(qiáng)清晰度和圖像尺寸縮小的預(yù)處理操作。
考慮自適應(yīng)直方圖均衡化算法(adaptive histogram equalization,AHE)在提供較好對(duì)比度增強(qiáng)效果的同時(shí),能夠保留圖像的細(xì)節(jié)和特征,采用該算法進(jìn)行對(duì)比度增強(qiáng)。AHE算法通過(guò)將圖像劃分為多個(gè)塊,并在每個(gè)塊內(nèi)進(jìn)行直方圖均衡化操作來(lái)實(shí)現(xiàn)對(duì)比度增強(qiáng)。通過(guò)調(diào)整塊大小和均衡化程度(ClipLimit)參數(shù),可以控制均衡化的程度和處理效果,其計(jì)算公式如下。
計(jì)算每個(gè)塊的累積直方圖:
H(k)=∑ki=0h(i)(4)
計(jì)算直方圖均衡化變換函數(shù):
T(k)=L-1MNH(k)(5)
應(yīng)用直方圖均衡化變換函數(shù):
beq(x,y)=T(f(x,y))(6)
其中,k表示當(dāng)前灰度級(jí)別,h(i)表示灰度級(jí)別i的像素?cái)?shù)量。L表示灰度級(jí)別的數(shù)量,M和N分別表示塊的寬度和高度。beq(x,y)表示塊中像素(x,y)增強(qiáng)后的像素值,f(x,y)表示塊中像素(x,y)的原始像素值。通過(guò)式(4)~式(6)對(duì)每個(gè)塊獨(dú)立進(jìn)行直方圖均衡化操作,以實(shí)現(xiàn)對(duì)圖像的局部對(duì)比度增強(qiáng)。
由于拍攝工件為螺桿曲面,相機(jī)無(wú)法實(shí)現(xiàn)對(duì)整個(gè)拍攝區(qū)域的理想對(duì)焦,導(dǎo)致邊緣區(qū)域較中心區(qū)域模糊。使用反銳化掩蔽(unsharp masking)對(duì)圖像進(jìn)行銳化處理,其原理是通過(guò)高斯濾波對(duì)原始圖像進(jìn)行模糊處理,創(chuàng)建一個(gè)模糊圖像,根據(jù)模糊圖像和原始圖像之間的差異,增強(qiáng)邊緣的對(duì)比度,提高圖像的清晰度,計(jì)算公式如下:
y(n,m)=x(n,m)+λz(n,m)(7)
式中:x(n,m)為輸入圖像;y(n,m)為輸出圖像;z(n,m)為校正信號(hào);λ為控制增強(qiáng)效果的縮放因子。
為提高模型訓(xùn)練的收斂速度和結(jié)果的穩(wěn)定性,將數(shù)值特征歸一化到一個(gè)特定范圍,采用最大最小縮放(minmax scaling)進(jìn)行圖像歸一化處理,保留原始圖像的信息,只將像素值從原始范圍(0~255)映射到新的值范圍(0~1)內(nèi),計(jì)算公式如下:
Xnorm=X-XminXmax-Xmin(8)
其中,Xnorm為歸一化后的數(shù)據(jù);X為原始數(shù)據(jù);Xmax為原始數(shù)據(jù)中的最大值;Xmin為原始數(shù)據(jù)中的最小值。
3.3 回歸評(píng)價(jià)指標(biāo)與超參數(shù)
權(quán)衡考慮網(wǎng)絡(luò)訓(xùn)練精度和訓(xùn)練速度后,使用雙線性插值法將分辨率1280×960的輸入圖片統(tǒng)一大小到256×256,以保證不造成圖像失真或丟失重要特征的同時(shí)縮短訓(xùn)練時(shí)間?;赟A-CNN網(wǎng)絡(luò)的粗糙度預(yù)測(cè)為數(shù)值回歸預(yù)測(cè),通過(guò)衡量實(shí)際數(shù)值與預(yù)測(cè)值之間的誤差大小,即通過(guò)損失函數(shù)來(lái)評(píng)估預(yù)測(cè)回歸模型的準(zhǔn)確性。
開(kāi)始訓(xùn)練之前,需要設(shè)置網(wǎng)絡(luò)超參數(shù),合適的超參數(shù)能夠提高模型預(yù)測(cè)精度,減少訓(xùn)練時(shí)間。模型的主要超參數(shù)如下:學(xué)習(xí)率決定了模型在訓(xùn)練過(guò)程中參數(shù)更新的步長(zhǎng);批量大小決定每次迭代訓(xùn)練時(shí)所使用的圖像數(shù)量;正則化參數(shù)用于控制模型的復(fù)雜度;權(quán)重衰減系數(shù)影響模型的過(guò)擬合程度。經(jīng)過(guò)試驗(yàn)調(diào)整確定超參數(shù)設(shè)置:優(yōu)化器選用自適應(yīng)梯度下降算法(adam);若批量大?。╩inibatchsize)較大可以提高訓(xùn)練速度,但占用計(jì)算內(nèi)存資源較大,且容易過(guò)擬合;若批量大小較小則會(huì)增加訓(xùn)練時(shí)間且泛化性較差,權(quán)衡后設(shè)置為32;初始學(xué)習(xí)率設(shè)置為0.0001,最大迭代次數(shù)設(shè)置為26 000;正則化參數(shù)(dropout)為0.4,即訓(xùn)練過(guò)程中隨機(jī)丟棄神經(jīng)元個(gè)數(shù)比例。
3.4 預(yù)測(cè)結(jié)果分析
通過(guò)SA-CNN模型對(duì)螺桿粗糙度進(jìn)行預(yù)測(cè),按照8∶2劃分訓(xùn)練集和測(cè)試集,測(cè)試集共1500組數(shù)據(jù),部分訓(xùn)練結(jié)果見(jiàn)表2。表中測(cè)量值采用以下方式進(jìn)行處理,在標(biāo)定間隔磨削2 min位置進(jìn)行粗糙度測(cè)量,采用TR200表面粗糙度測(cè)量?jī)x(測(cè)量范圍為0.025~12.5 μm,最高顯示分辨力為0.001 μm),為了提高測(cè)量結(jié)果的穩(wěn)定性和準(zhǔn)確性,每個(gè)位置測(cè)量3次取平均值作為最終結(jié)果。
預(yù)測(cè)結(jié)果表明,模型平均預(yù)測(cè)誤差為4.76%,其中最小絕對(duì)誤差為0.0003 μm,最大絕對(duì)誤差為0.378 μm,絕對(duì)誤差在0.1 μm以內(nèi)的預(yù)測(cè)值占85.4%,0.2 μm以上的誤差占0.82%,均方根誤差(RMSE)為0.0706,平均絕對(duì)百分比誤差(MAPE)達(dá)到7.4206%,總體預(yù)測(cè)誤差較小。其預(yù)測(cè)誤差范圍的分布如圖5所示。
為驗(yàn)證本文模型的準(zhǔn)確性以及自注意力機(jī)制對(duì)CNN網(wǎng)絡(luò)的影響,將數(shù)據(jù)集輸入經(jīng)典網(wǎng)絡(luò)ResNet、AlexNet、VGG-16、圖神經(jīng)網(wǎng)絡(luò)GNN以及未加入自注意力機(jī)制的基礎(chǔ)CNN進(jìn)行預(yù)測(cè)對(duì)比,部分預(yù)測(cè)結(jié)果如圖6所示。預(yù)測(cè)精度分別為85.6%、82.6%、88.9%、81.0%和83.5%,且最大絕對(duì)誤差分別達(dá)到0.8235 μm、0.6951 μm、0.5391 μm、1.0718 μm和0.7152 μm,預(yù)測(cè)結(jié)果損失值見(jiàn)表3,對(duì)比本文提出的SA-CNN模型,后者預(yù)測(cè)精度更高。
本文模型與對(duì)比網(wǎng)絡(luò)模型的損失曲線如圖7所示。SA-CNN的損失指數(shù)在約100次迭代后收斂到0.3以內(nèi),表明模型能夠有效地學(xué)習(xí)數(shù)據(jù)特征,且損失值在訓(xùn)練過(guò)程中下降平穩(wěn),網(wǎng)絡(luò)的學(xué)習(xí)可靠性和穩(wěn)定性較高。在后續(xù)迭代穩(wěn)定下降后最終損失值穩(wěn)定在0.05以內(nèi)。相比于基礎(chǔ)CNN網(wǎng)絡(luò)、經(jīng)典網(wǎng)絡(luò)和GNN網(wǎng)絡(luò),本文構(gòu)建的預(yù)測(cè)模型損失下降曲線收斂速度更快,收斂值更小,證明其具有較好的穩(wěn)定性和泛化能力,能夠準(zhǔn)確實(shí)現(xiàn)表面粗糙度的預(yù)測(cè)。
4 結(jié)語(yǔ)
為準(zhǔn)確便捷地測(cè)量復(fù)雜曲面類零件,本文使用SA-CNN預(yù)測(cè)模型對(duì)磨削表面粗糙度值進(jìn)行預(yù)測(cè),該模型以預(yù)處理后的工件表面圖像為輸入,以圖像區(qū)域的表面粗糙度值作為預(yù)測(cè)結(jié)果輸出。
通過(guò)螺桿轉(zhuǎn)子磨削試驗(yàn)進(jìn)行驗(yàn)證,本文預(yù)測(cè)模型的平均預(yù)測(cè)誤差為4.76%,其中最小絕對(duì)誤差為0.0003 μm,最大絕對(duì)誤差為0.378 μm,RMSE值為0.0706 μm,MAPE值達(dá)到7.4206%。為進(jìn)一步驗(yàn)證本文模型的準(zhǔn)確性,將模型預(yù)測(cè)結(jié)果與基礎(chǔ)CNN網(wǎng)絡(luò)、經(jīng)典網(wǎng)絡(luò)及GNN網(wǎng)絡(luò)預(yù)測(cè)結(jié)果進(jìn)行對(duì)比。其他模型的預(yù)測(cè)精度和最大絕對(duì)誤差均遜于本文模型,且迭代收斂速度也低于本文模型,說(shuō)明本文模型的預(yù)測(cè)精度更高。因此,本文構(gòu)建的預(yù)測(cè)模型能夠有效應(yīng)用于工件表面粗糙度值預(yù)測(cè),且簡(jiǎn)化了測(cè)量過(guò)程,可為其他復(fù)雜表面工件的表面粗糙度值測(cè)量提供參考。
參考文獻(xiàn):
[1] 黃云, 劉帥, 黃濤, 等. 鈦合金材料砂帶磨削表面殘余應(yīng)力形成模型及其實(shí)驗(yàn)研究[J]. 表面技術(shù), 2020, 49(4):30-37.
HUANG Yun, LIU Shuai, HUANG Tao, et al. Model of Residual Stress Formation on Belt Grinding Surface of Titanium Alloy and Experimental Research[J]. Surface Technology, 2020, 49(4):30-37.
[2] 王軍利, 陸正午, 李慶慶, 等. 基于熱分析的雙螺桿壓縮機(jī)轉(zhuǎn)子的應(yīng)力疲勞研究[J]. 機(jī)械強(qiáng)度, 2021, 43(4):928-935.
WANG Junli, LU Zhengwu, LI Qingqing, et al. Research on Stress Fatigue of Twin Screw Compressor Rotor Based on Thermal Analysis[J]. Journal of Mechanical Strength, 2021, 43(4):928-935.
[3] 路恩會(huì), 劉堅(jiān), 王衛(wèi)芳, 等. 粗糙度關(guān)聯(lián)的圖像特征指標(biāo)性能評(píng)價(jià)方法研究[J]. 儀器儀表學(xué)報(bào), 2017, 38(8):2022-2029.
LU Enhui, LIU Jian, WANG Weifang, et al. Study on the Performance Assessment Method of Image Indices Associated with Roughness[J]. Chinese Journal of Scientific Instrument, 2017, 38(8):2022-2029.
[4] 楊赫然, 孫興偉, 戚朋, 等. 基于改進(jìn)BP神經(jīng)網(wǎng)絡(luò)的螺桿轉(zhuǎn)子銑削表面粗糙度預(yù)測(cè)[J]. 電子測(cè)量與儀器學(xué)報(bào), 2022, 36(10):189-196.
YANG Heran, SUN Xingwei, QI Peng, et al. Roughness Prediction of Spiral Surface Milling Based on Improved BP Neural Network[J]. Journal of Electronic Measurement and Instrumentation, 2022, 36(10):189-196.
[5] 韓曉芹, 宋永鋒, 劉雨, 等. 基于超聲無(wú)損評(píng)價(jià)的表面粗糙度測(cè)量方法[J]. 中國(guó)機(jī)械工程, 2019, 30(8):883-889.
HAN Xiaoqin, SONG Yongfeng, LIU Yu, et al. A Surface Roughness Measurement Method Based on Ultrasonic Nondestructive Evaluations[J]. China Mechanical Engineering, 2019, 30(8):883-889.
[6] 袁尚勇, 陳根余, 戴隆州, 等. 電火花機(jī)械磨削修整粗粒度成形砂輪試驗(yàn)研究[J]. 中國(guó)機(jī)械工程, 2023, 34(10):1164-1171.
YUAN Shangyong, CHEN Genyu, DAI Longzhou, et al. Experimental Research of Coarse-grained Forming Grinding Wheel Dressed by EDDG[J]. China Mechanical Engineering, 2023, 34(10):1164-1171.
[7] 時(shí)強(qiáng)勝, 張小儉, 陳巍, 等. 基于灰色關(guān)聯(lián)度分析-響應(yīng)面法的橡膠軟模端面拋磨表面粗糙度預(yù)測(cè)[J]. 中國(guó)機(jī)械工程, 2021, 32(24):2967-2974.
SHI Qiangsheng, ZHANG Xiaojian, CHEN Wei, et al. Prediction of Surface Roughness of Rubber Soft Die End Face Polishing Based on GRA-RSM[J]. China Mechanical Engineering, 2021, 32(24):2967-2974.
[8] 徐哲壯, 黃平, 陳丹, 等. 融合機(jī)器視覺(jué)與鄰近度估計(jì)的相似工業(yè)設(shè)備識(shí)別策略研究[J]. 儀器儀表學(xué)報(bào), 2023, 44(1):283-290.
XU Zhezhuang, HUANG Ping, CHEN Dan, et al. Research on Similar Industrial Devices Recognition Strategy Based on Machine Vision and Proximity Estimation[J]. Chinese Journal of Scientific Instrument, 2023, 44(1):283-290.
[9] 李聰波, 龍?jiān)疲?崔佳斌, 等. 基于多源異構(gòu)數(shù)據(jù)的數(shù)控銑削表面粗糙度預(yù)測(cè)方法[J]. 中國(guó)機(jī)械工程, 2022, 33(3):318-328.
LI Congbo, LONG Yun, CUI Jiabin, et al. Surface Roughness Prediction Method of CNC Milling Based on Multi-source Heterogeneous Data[J]. China Mechanical Engineering, 2022, 33(3):318-328.
[10] 劉桂雄, 廖普, 楊寧祥. 基于深度學(xué)習(xí)主動(dòng)視覺(jué)壓力容器焊縫質(zhì)量參數(shù)檢測(cè)方法[J]. 儀器儀表學(xué)報(bào), 2023, 44(5):1-9.
LIU Guixiong, LIAO Pu, YANG Ningxiang. Active Vision Pressure Vessel Weld Quality Parameter Detection Method Based on Deep Learning[J]. Chinese Journal of Scientific Instrument, 2023, 44(5):1-9.
[11] LU Enhui, ZHANG Ruting, LIU Jian, et al. Observation of Ground Surface Roughness Values Obtained by Stylus Profilometer and White Light Interferometer for Common Metal Materials[J]. Surface and Interface Analysis, 2022, 54(6):587-599.
[12] KARTHIKEYAN S, SUBBARAYAN M R, MATHAN K P, et al. Computer Vision-based Surface Roughness Measurement Using Artificial Neural Network[J]. Materials Today:Proceedings, 2022, 60:1325-1328.
[13] XIA Chunyang, PAN Zengxi, POLDEN J, et al. Modelling and Prediction of Surface Roughness in Wire Arc Additive Manufacturing Using Machine Learning[J]. Journal of Intelligent Manufacturing, 2022, 33(5):1467-1482.
[14] LU Enhui, LIU Jian, GAO Rongyu, et al. Designing Indices to Measure Surface Roughness Based on the Color Distribution Statistical Matrix (CDSM)[J]. Tribology International, 2018, 122:96-107.
[15] LU Enhui, GUO Yaocun, ZHU Xinglong, et al. A New Grinding Surface Roughness Measurement Method Based on Image Quality Algorithm and BP Neural Network[J]. Surface Topography:Metrology and Properties, 2022, 10(4):045024.
[16] FISCHER A. Capabilities and Limits of Surface Roughness Measurements with Monochromatic Speckles[J]. Applied Optics, 2023, 62(14):3724.
[17] 易懷安, 方潤(rùn)基, 舒愛(ài)華, 等. 小樣本問(wèn)題下的銑削表面粗糙度測(cè)量[J]. 激光與光電子學(xué)進(jìn)展, 2022, 59(23):2324001.
YI Huaian, FANG Runji, SHU Aihua, et al. Milling Surface Roughness Measurement under Few-shot Problem[J]. Laser amp; Optoelectronics Progress, 2022, 59(23):2324001.
[18] LU Enhui, REN Wenxiang, DAI Hongqing, et al. Investigations on Electromagnetic Wave Scattering Simulation from Rough Surface:Some Instructions for Surface Roughness Measurement Based on Machine Vison[J]. Precision Engineering, 2023, 82:156-168.
[19] 楊晨, 方紅萍, 鄒凌云, 等. 基于色彩均勻敏感度的磨削表面粗糙度測(cè)量[J]. 機(jī)電工程, 2021, 38(6):755-761.
YANG Chen, FANG Hongping, ZOU Lingyun, et al. Grinding Surface Roughness Measurement Based on Color Uniformity Sensitivity[J]. Journal of Mechanical amp; Electrical Engineering, 2021, 38(6):755-761.
[20] CHEN Wei, ZOU Bin, ZHENG Qinbing, et al. Research on the Sustainable Measurement of Machined Surface Roughness under the Influence of Cutting Environment[J]. The International Journal of Advanced Manufacturing Technology, 2023, 127(9):4697-4711.
[21] HUANG Jiefeng, YI Huaian, SHU Aihua, et al. Visual Measurement of Grinding Surface Roughness Based on Feature Fusion[J]. Measurement Science and Technology, 2023, 34(10):105019.
[22] VASANTH K, ELANANGAI V, ARULANANTH T S, et al. Machine Learning Based Metal Surface Roughness Estimation in Infrared Images[J]. Materials Today:Proceedings, 2023:1-8. https://doi.org/10.1016/j.matpr.2023.03.394.
[23] FANG Runji, YI Huaian, WANG Shuai, et al. Classification and Inspection of Milling Surface Roughness Based on a Broad Learning System[J]. Metrology and Measurement Systems, 2022:483-503.
[24] SU Jinzhao, YI Huaian, LING Lin, et al. Multi-object Surface Roughness Grade Detection Based on Faster R-CNN[J]. Measurement Science and Technology, 2023, 34(1):015012.
[25] 安倩楠. 基于加工表面顯微圖像的卷積神經(jīng)網(wǎng)絡(luò)粗糙度識(shí)別技術(shù)研究[D]. 西安:西安理工大學(xué), 2019.
AN Qiannan. Research on Roughness Recognition Technology of Convolutional Neural Network Based on Microscopic Image of Machining Surface[D]. Xian:Xian University of Technology, 2019.
[26] 陳麗. 基于特征提取和卷積神經(jīng)網(wǎng)絡(luò)的銑削表面粗糙度檢測(cè)方法研究[D]. 武漢:華中科技大學(xué), 2019.
CHEN Li. Research on Milling Surface Roughness Detection Method Based on Feature Extraction and Convolutional Neural Network[D]. Wuhan:Huazhong University of Science and Technology, 2019.
[27] 陳仁祥, 詹贊, 胡小林, 等. 基于多注意力Faster RCNN的噪聲干擾下印刷電路板缺陷檢測(cè)[J]. 儀器儀表學(xué)報(bào), 2021, 42(12):167-174.
CHEN Renxiang, ZHAN Zan, HU Xiaolin, et al. Printed Circuit Board Defect Detection Based on the Multi-attentive Faster RCNN under Noise Interference[J]. Chinese Journal of Scientific Instrument, 2021, 42(12):167-174.
[28] 楊東儒, 魏建文, 林雄威, 等. 基于自注意力機(jī)制的深度學(xué)習(xí)模擬電路故障診斷[J]. 儀器儀表學(xué)報(bào), 2023, 44(3):128-136.
YANG Dongru, WEI Jianwen, LIN Xiongwei, et al. A Fault Diagnosis Algorithm for Analog Circuits Based on Self-attention Mechanism Deep Learning[J]. Chinese Journal of Scientific Instrument, 2023, 44(3):128-136.
(編輯 陳 勇)
作者簡(jiǎn)介:楊赫然,男,1983年生,副教授、博士。研究方向?yàn)閺?fù)雜曲面精密制造。E-mail:yangheran@sut.edu.cn。
孫興偉*(通信作者),女,1970年生,教授、博士研究生導(dǎo)師。研究方向?yàn)閿?shù)控裝備及理論。E-mail:sunxingw@126.com。
本文引用格式:楊赫然,張培杰,孫興偉,等.利用改進(jìn)卷積神經(jīng)網(wǎng)絡(luò)的螺桿砂帶磨削表面粗糙度預(yù)測(cè)[J]. 中國(guó)機(jī)械工程,2025,36(2):325-332.
YANG Heran, ZHANG Peijie, SUN Xingwei, et al. Surface Roughness Prediction for Screw Belt Grinding Based on Improved CNN[J]. China Mechanical Engineering, 2025, 36(2):325-332.
基金項(xiàng)目:遼寧省教育廳2022年度高等學(xué)?;究蒲许?xiàng)目(LJKMZ20220459);遼寧省應(yīng)用基礎(chǔ)研究計(jì)劃(2022JH2/101300214)