摘" " 要: 為保證焊縫跟蹤的精度并將激光條紋從強(qiáng)弧光、飛濺中分離出來,提出了一種基于深度殘差(SRNU)網(wǎng)絡(luò)的激光條紋分割算法。該算法是將帶有弧光的圖像送入SRNU模型,對(duì)內(nèi)嵌于Resunet網(wǎng)絡(luò)的編碼層部分進(jìn)行改進(jìn),添加SE模塊和分組殘差模塊,對(duì)多層級(jí)特征信息進(jìn)行提取和解析。結(jié)果表明:所提算法與Resunet算法相比,平均交并比、精確率、召回率與F1分?jǐn)?shù)分別提升了0.79%、1.38%、0.50%和0.91%,說明該方法有較好的魯棒性且具有較強(qiáng)的抗干擾能力,在復(fù)雜工況下也能將激光條紋從強(qiáng)弧光、飛濺中分離出來。
關(guān)鍵詞: 結(jié)構(gòu)光視覺傳感器;深度學(xué)習(xí);多層多道焊縫;焊縫識(shí)別;深度殘差;激光條紋分割算法
中圖分類號(hào): TP242.2;TG409" " " " " " "文獻(xiàn)標(biāo)志碼: A" " " " " " " " 文章編號(hào):" 1671-024X(2025)01-0091-06
Recognition of multi-layer and multi-pass weld seam based on depth
residuals network
HE Junjie, WANG Chuanrui, WANG Tianqi
(Tianjin Key Laboratory of Modern Mechatronics Equipment Technology, Tinagong University, Tianjin 300387, China)
Abstract: In order to ensure the accuracy of weld seam tracking, a laser streak segmentation algorithm based on SRNU network is proposed to separate the laser streak from the strong arc light and spatter. The image with arc light is fed into the SRNU model, and the coding layer part embedded in the Resunet network is improved by adding SE module and grouping residual module to extract and resolve multi-level feature information, which not only focuses the target information but also improves the segmentation accuracy. The results show that the proposed algorithm improves the average cross-merge ratio, accuracy, recall and F1 score by 0.79%, 1.38%, 0.50% and 0.91%, respectively, compared with the Resunet algorithm. The method has good robustness and strong anti-interference capability, and can meet the requirements of welding applications under complex working conditions.
Key words: structured light vision sensors; deep learning; multi-layer and multi-pass weld seam; weld seam recognition; depth residuals; laser streak segmentation algorithm
中厚尺寸鋼板結(jié)構(gòu)件普遍存在于船舶、建筑、橋梁的大型結(jié)構(gòu)件的組裝工程中,為保證焊接工藝質(zhì)量一般采用多層多道焊工藝完成[1]。利用焊接機(jī)器人完成中厚板的自動(dòng)焊接,所獲得的坡口焊縫圖像被強(qiáng)反射、飛濺等噪聲嚴(yán)重污染,會(huì)導(dǎo)致跟蹤模型漂移,進(jìn)而跟蹤失效[2]。因此,在自動(dòng)焊接時(shí)使用結(jié)構(gòu)光視覺傳感技術(shù)實(shí)時(shí)提取焊縫位置,進(jìn)行路徑糾偏,對(duì)于提高焊接質(zhì)量有著重要的意義。
圍繞激光視覺傳感器在焊縫跟蹤技術(shù)中的應(yīng)用,Li等[3]提出了一種利用三線激光傳感器實(shí)時(shí)焊縫搜索定位策略,提取坡口的特征信息,修正工藝規(guī)劃參數(shù)偏差。鄒焱飚等[4]使用深層卷積神經(jīng)網(wǎng)絡(luò)VGGNet提取包含焊縫信息的激光條紋,實(shí)現(xiàn)了焊接過程中焊縫特征點(diǎn)的跟蹤。杜榮強(qiáng)[5]提出基于專用視覺傳感系統(tǒng),采用快速圖像分割、卷積神經(jīng)網(wǎng)絡(luò)(CNN)的特征區(qū)域識(shí)別和特征搜索技術(shù),準(zhǔn)確地識(shí)別出焊縫特征,提高了焊縫跟蹤系統(tǒng)的穩(wěn)定性[6]。劉宜鑫[7]對(duì)核相關(guān)濾波算法進(jìn)行改進(jìn)和優(yōu)化,提高了焊縫跟蹤的魯棒性。Ma等[8]提出了一種高效、準(zhǔn)確的曲線焊縫起始點(diǎn)引導(dǎo)和焊縫跟蹤方法——基于三次B樣條擬合的滑動(dòng)數(shù)據(jù)隊(duì)列方法,克服了視覺超前問題,實(shí)現(xiàn)了曲線焊縫的精確跟蹤。
由于在惡劣焊接環(huán)境下存在電弧光、煙塵、飛濺等干擾,傳統(tǒng)算法無法準(zhǔn)確提取焊縫中心線信息[9],深層卷積神經(jīng)網(wǎng)絡(luò)在提取精度上仍有提升空間[10]。針對(duì)中厚板的多層多道焊視覺控制技術(shù),引入殘差學(xué)習(xí)的思想來彌補(bǔ)傳統(tǒng)算法的缺陷,本文在設(shè)計(jì)結(jié)構(gòu)光視覺傳感器系統(tǒng)的基礎(chǔ)上提出一種基于深度殘差(SRNU)的網(wǎng)絡(luò)模型,將殘差模塊改為分組拓?fù)浣Y(jié)構(gòu),增加網(wǎng)絡(luò)寬度,提高激光條紋的分割精度;殘差模塊后結(jié)合壓縮激活模塊,促進(jìn)特征權(quán)重調(diào)整,并在焊縫圖像數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn),檢驗(yàn)算法的有效性。
1 基于結(jié)構(gòu)光視覺的圖像采集
利用結(jié)構(gòu)光視覺采集焊縫圖像,具有穩(wěn)定、速度快和精度高的優(yōu)點(diǎn)。結(jié)構(gòu)光視覺傳感器原理如圖1所示。
為了過濾大量的電弧噪聲,安裝了一個(gè)窄帶通濾波器。具有較低透鏡畸變的遠(yuǎn)心透鏡對(duì)高精度測(cè)量非常關(guān)鍵。激光發(fā)生器投射到焊接工件,激光條紋具有隨焊縫輪廓變化的特征信息。由于晶體半導(dǎo)體(CCD)與激光平面之間角度的存在,激光條紋圖不僅表現(xiàn)出焊縫的平面位置,還反映了由于角度而產(chǎn)生的深度信息,本文采用三角測(cè)量法來計(jì)算激光到工件表面的距離[11],如圖2所示。圖2中:Oc為成像坐標(biāo)原點(diǎn);Op為激光平面發(fā)光點(diǎn);Og為在激光器主軸法平面投影;A、B為激光平面在物體上的輪廓點(diǎn)。
2 模型架構(gòu)
焊縫識(shí)別是整個(gè)焊縫跟蹤系統(tǒng)的關(guān)鍵。特征提取的準(zhǔn)確性直接影響焊縫跟蹤的魯棒性。本文提出了一種基于SRNU的網(wǎng)絡(luò)模型用于提取焊縫信息。SRNU框架結(jié)構(gòu)如圖3所示。它結(jié)合了SE-Net、ResNeXT和UNet的優(yōu)點(diǎn)。特征提取部分以SE-Net和ResNeXT為前端,利用UNet的上采樣和特征遷移拼接來還原圖像分辨率[12],有效處理生物結(jié)構(gòu)信息,且只需少量訓(xùn)練數(shù)據(jù)[13]。
在特征提取部分,對(duì)焊縫圖像進(jìn)行預(yù)處理后輸入網(wǎng)絡(luò)的特征提取模塊,特征提取部分以分組殘差模塊為主干網(wǎng)絡(luò)提取特征,有效解決特征信息缺失問題。在不增加參數(shù)量前提下加入SENet模塊,自適應(yīng)調(diào)整個(gè)別通道的權(quán)重,增強(qiáng)網(wǎng)絡(luò)的表達(dá)力。參照UNet模型結(jié)構(gòu),解碼部分采用上采樣來恢復(fù)圖像,利用特征復(fù)制拼接操作將上采樣和對(duì)應(yīng)特征提取部分層結(jié)合,保留損失的激光條紋信息[14]。最后通過卷積和上采樣操作得到激光條紋的分割結(jié)果。
2.1 分組殘差模塊
殘差神經(jīng)[15]網(wǎng)絡(luò)由多個(gè)獨(dú)立卷積結(jié)構(gòu)和卷積殘差結(jié)構(gòu)組成,最初用于分類。采用獨(dú)立卷積結(jié)構(gòu)對(duì)圖像進(jìn)行卷積處理,不同的卷積殘差模塊組成卷積殘差結(jié)構(gòu),可以緩解深層卷積網(wǎng)絡(luò)普遍出現(xiàn)的特征退化現(xiàn)象,如圖4所示。由于深度網(wǎng)絡(luò)的計(jì)算成本高,需對(duì)殘差模塊進(jìn)行改進(jìn)。
分組殘差模塊將單路徑卷積的殘差結(jié)構(gòu)改為相同拓?fù)浣Y(jié)構(gòu)的分組卷積[16],如圖5所示。在不增加網(wǎng)絡(luò)參數(shù)的情況下提升網(wǎng)絡(luò)性能,利用分割-變換-合并結(jié)構(gòu)融合不同尺度的信息,不明顯增加計(jì)算量又提高了精度。
特征經(jīng)過分組殘差模塊轉(zhuǎn)換后與恒等映射后的初始特征拼接操作。ResNext網(wǎng)絡(luò)計(jì)算公式可簡(jiǎn)化為:
式中:x為輸入映射矩陣;y為輸出映射矩陣;w為殘差單元相關(guān)的權(quán)重;Ti(x)為分組殘差函數(shù);C為分組數(shù);δ為ReLU函數(shù)。
2.2 SENet模塊
針對(duì)通道上的噪聲干擾問題,注意力機(jī)制通過壓縮、激勵(lì)以及權(quán)重的重新分配[17],融合不同尺度的信息,增大特征通道的權(quán)重(如圖5所示)。SENet網(wǎng)絡(luò)能夠關(guān)注通道之間的關(guān)系,其模型可以自動(dòng)學(xué)習(xí)到不同通道特征的重要程度。SENet模塊在參數(shù)量上的增加帶來的計(jì)算量增長(zhǎng)極小,但可以提高激光條紋分割精度,提升模型性能。SENet網(wǎng)絡(luò)公式為:
F′ = [σ (W2(δ(W1(Avgpool(F)))))](×)F(2)
式中:F和F′分別為輸入和輸出映射矩陣;AvgPool為全局平均池化函數(shù);采用2個(gè)全連接函數(shù)W1和W2來實(shí)現(xiàn)激勵(lì);δ為ReLU函數(shù);σ為Sigmoid函數(shù);(×)為哈達(dá)瑪積。
3 實(shí)驗(yàn)驗(yàn)證
本文搭建了基于結(jié)構(gòu)光視覺的圖像采集系統(tǒng)實(shí)驗(yàn)平臺(tái),如圖6所示。整個(gè)系統(tǒng)包括自動(dòng)化焊接機(jī)、六自由度工業(yè)機(jī)器人、工業(yè)個(gè)人計(jì)算機(jī)和視覺傳感器構(gòu)成。該系統(tǒng)采用ABB IRB1410工業(yè)機(jī)器人和Fronius TPS 4000 CMT自動(dòng)焊接機(jī),對(duì)坡口角度為90°的對(duì)接V形坡口Q235碳鋼進(jìn)行多層多道焊接實(shí)驗(yàn),尺寸為150 mm × 150 mm × 12 mm。用于焊縫提取的結(jié)構(gòu)光視覺傳感器系統(tǒng)中CCD相機(jī)的分辨率選擇為656 × 492,為獲得高質(zhì)量的結(jié)構(gòu)光圖像,采用650 nm波長(zhǎng)的紅色激光發(fā)生器,濾光片采用(660 ± 10) nm波段。
3.1 數(shù)據(jù)集
通過圖像采集系統(tǒng)在復(fù)雜環(huán)境下采集了1 500張?jiān)己附訄D像,得到多種情況下的帶有弧光的激光條紋數(shù)據(jù)集,部分?jǐn)?shù)據(jù)樣本如圖7所示。該數(shù)據(jù)集包括整個(gè)焊接過程中每個(gè)焊道中豐富的焊縫圖像。將數(shù)據(jù)集按照8 ∶ 1 ∶ 1的比例劃分為訓(xùn)練集、驗(yàn)證集和測(cè)試集[18]。
3.2 訓(xùn)練方法
本文提供了一個(gè)基于PyTorch的Python語言編程的深度學(xué)習(xí)框架。實(shí)驗(yàn)平臺(tái)環(huán)境如下:處理器為e5-1620 v4;GPU為Quadro P2000;32G DDR4內(nèi)存;Ubuntu16.04操作系統(tǒng)。
本研究采用梯度下降速度最快的Adam一階優(yōu)化算法優(yōu)化器代替隨機(jī)梯度下降法[19],能基于訓(xùn)練數(shù)據(jù)迭代更新神經(jīng)網(wǎng)絡(luò)權(quán)重;其初始學(xué)習(xí)率設(shè)為0.000 1,學(xué)習(xí)率衰減因子通過計(jì)算梯度的一階矩估計(jì)和二階矩估計(jì)自適應(yīng)得到;綜合考慮模型的分割精度和顯卡性能,每次訓(xùn)練的批大?。╞atch-size)為4,遍歷迭代次數(shù)為100。
損失函數(shù)是模型訓(xùn)練中的偏差值,反應(yīng)出模型學(xué)習(xí)能力的優(yōu)劣狀態(tài)。模型結(jié)合Dice loss非線性損失函數(shù)與二進(jìn)制交叉嫡損失函數(shù)的方法訓(xùn)練網(wǎng)絡(luò),改善弧光極度不平衡問題[20],提高激光條紋的預(yù)測(cè)能力。
3.3 評(píng)價(jià)指標(biāo)
本研究采用主觀和客觀的評(píng)價(jià)標(biāo)準(zhǔn)來評(píng)估模型的分割預(yù)測(cè)性能。主觀評(píng)價(jià)從視覺效果上比較圖像的整體分割及微弱邊緣的分割情況。客觀評(píng)價(jià)采用常用的平均交并比、F1分?jǐn)?shù)、精確率、召回率4個(gè)指標(biāo)共同評(píng)價(jià)[21],計(jì)算公式如下:
式中:TP代表正確識(shí)別分類的激光條紋像素?cái)?shù);FP代表被誤分為激光條紋的像素?cái)?shù);FN代表激光條紋未被提取的像素?cái)?shù)。
3.4 實(shí)驗(yàn)結(jié)果分析
3.4.1 各模型對(duì)比實(shí)驗(yàn)結(jié)果與分析
為了評(píng)估本文網(wǎng)絡(luò)的魯棒性,采用主流的網(wǎng)絡(luò)與本文網(wǎng)絡(luò)模型對(duì)激光條紋圖像數(shù)據(jù)集進(jìn)行訓(xùn)練并做對(duì)比分析,實(shí)驗(yàn)條件均相同。圖8展示了不同網(wǎng)絡(luò)在測(cè)試集的部分預(yù)測(cè)分割結(jié)果。其中:image為焊縫激光條紋原圖;truth為實(shí)際激光條紋;其他分別為FCN、UNet、ResUnet和SRNU(本文模型)的預(yù)測(cè)分割結(jié)果。
由圖8(a)、圖8(b)區(qū)域的預(yù)測(cè)結(jié)果可知,當(dāng)激光條紋附近存在強(qiáng)飛濺時(shí),F(xiàn)CN、UNet和ResUnet模型錯(cuò)誤的把部分強(qiáng)飛濺提取成激光條紋,僅SRNU模型能正確的提取;針對(duì)圖8(c)、圖8(e)區(qū)域的弧光與激光條紋特征相似,F(xiàn)CN和UNet模型存在一定程度上的斷連和漏提的現(xiàn)象,ResUnet和SRNU模型能夠?qū)崿F(xiàn)較為準(zhǔn)確的分割;針對(duì)圖8(d)區(qū)域的強(qiáng)弧光,F(xiàn)CN、UNet和ResUnet模型存在嚴(yán)重的誤提和漏提,SRNU模型基本消除了遮擋的強(qiáng)弧光,仍有較高的分割精度。
為更加客觀量化網(wǎng)絡(luò)的性能,采用上述評(píng)價(jià)指標(biāo)來評(píng)估各模型的分割效果,各模型在激光條紋測(cè)試數(shù)據(jù)集的分割精度如表1所示。
由表1可以看出,SRNU模型各項(xiàng)評(píng)價(jià)指標(biāo)最優(yōu),實(shí)現(xiàn)了較理想的評(píng)價(jià)指標(biāo),模型的平均交并比、召回率、精確率和F1分?jǐn)?shù)均優(yōu)于FCN、UNet和ResUnet模型,各精度指標(biāo)較ResUnet模型分別提高了0.79%、1.38%、0.50%和0.91%。說明SRNU網(wǎng)絡(luò)性能得到了改進(jìn),對(duì)帶有弧光的激光條紋圖像更具有針對(duì)性的特征提取能力,可適應(yīng)不同焊接環(huán)境。
3.4.2 各模塊對(duì)整體模型的影響
為了驗(yàn)證SE模塊和分組殘差模塊對(duì)網(wǎng)絡(luò)的影響,采用消融實(shí)驗(yàn)對(duì)比各個(gè)網(wǎng)絡(luò)并進(jìn)行分析,實(shí)驗(yàn)結(jié)果如表2所示。由表2可見,改進(jìn)后的網(wǎng)絡(luò)其平均交并比為94.05%,精確率為99.41%,召回率為94.57%,F(xiàn)1分?jǐn)?shù)為96.92%;當(dāng)缺少分組殘差模塊時(shí),各項(xiàng)評(píng)價(jià)指標(biāo)分別降低了0.25%、0.07%、0.18%和0.16%;當(dāng)缺少SE模塊時(shí),雖然準(zhǔn)確率略高于SRNU模型,但是總體評(píng)價(jià)低于SRNU模型,由此證明了每個(gè)模塊對(duì)總網(wǎng)絡(luò)的有效性。
4 結(jié) 論
為解決強(qiáng)弧光及飛濺的干擾導(dǎo)致焊縫跟蹤中特征點(diǎn)識(shí)別精度低的問題,本文設(shè)計(jì)了一種用于焊縫跟蹤實(shí)時(shí)提取激光條紋的算法。針對(duì)激光條紋邊緣模糊難以有效提取問題,采用UNet網(wǎng)絡(luò)的上采樣和特征遷移、拼接還原圖像分辨率,在不增加網(wǎng)絡(luò)參數(shù)的同時(shí),提高模型的泛化能力。在訓(xùn)練過程中選用Adam優(yōu)化器代替隨機(jī)梯度下降算法,最后解碼網(wǎng)絡(luò)分割結(jié)果。實(shí)驗(yàn)結(jié)果表明:
(1) SRNU模型可以較好的結(jié)合SE模塊和分組殘差模塊的優(yōu)點(diǎn),對(duì)激光條紋的檢測(cè)精度較FCN網(wǎng)絡(luò)、Unet網(wǎng)絡(luò)、Resunet網(wǎng)絡(luò)分別提高了7.83%、3.22%和1.38%。在不增加網(wǎng)絡(luò)計(jì)算量的情況下增強(qiáng)了模型的特征提取能力,自適應(yīng)激活特征通道,全面提升了模型的性能。
(2) 改進(jìn)后的網(wǎng)絡(luò)在激光條紋預(yù)測(cè)方面的平均交并比為94.05%,召回率為94.57%,F(xiàn)1分?jǐn)?shù)為96.92%,平均交并比較其他3種網(wǎng)絡(luò)分別高出0.79%、0.32%、0.22%,總體評(píng)價(jià)高于3種網(wǎng)絡(luò),說明SRNU網(wǎng)絡(luò)性能得到了改進(jìn),對(duì)帶有弧光的激光條紋圖像更具有針對(duì)性的特征提取能力,可適應(yīng)不同焊接環(huán)境。
(3) 模型在一定程度上可以識(shí)別過程中的誤提、漏提和斷連現(xiàn)象,在降低弧光飛濺的干擾方面取得較好的效果。在本文數(shù)據(jù)集上進(jìn)行測(cè)試,綜合各項(xiàng)測(cè)試結(jié)果,相比FCN、UNet、ResUnet算法,本文算法的性能指標(biāo)有明顯提升,有較好的魯棒性且具有較強(qiáng)的抗干擾能力,在復(fù)雜工況下也能將激光條紋從強(qiáng)弧光、飛濺中分離出來。
參考文獻(xiàn):
[1]" " 王強(qiáng), 沈濤, 劉勇.海洋工程用中厚板高強(qiáng)鋼Q460E焊接工藝及性能[J]. 船舶工程, 2021, 43(5):129-132, 139.
WANG Q, SHEN T, LIU Y. Welding process and properties of Q460E high strength plate steel for offshore engineering[J]. Ship Engineering, 2021, 43 (5): 129-132, 139(in Chinese).
[2]" " ZOU Y B, WEI X Z, CHEN J X. Conditional generative adversarial network-based training image inpainting for laser vision seams tracking[J]. Optics and Lasers in Engineering, 2020, 134(3):106140.
[3]" " LI Y, LI Y F, WANG Q L, et al. Measurement and defect detection of the weld bead based on online vision inspection[J].IEEE Transactions on Instrumentation and Measurement, 2010, 59(7):1841-1849.
[4]" " 鄒焱飚, 周衛(wèi)林, 陳向志. 基于深度分層特征的激光視覺焊縫檢測(cè)與跟蹤系統(tǒng)研究[J]. 中國(guó)激光, 2017, 44(4):95-106.
ZOU Y B, ZHOU W L, CHEN X Z. Research" on laser vision weld detection and tracking system based on depth stratification feature[J]. China" Laser, 2017, 44 (4): 95-106(in Chinese).
[5]" " 杜榮強(qiáng). 基于激光視覺的機(jī)器人焊接區(qū)噪聲圖像處理及快速尋位與焊縫跟蹤研究[D]. 上海:上海交通大學(xué), 2019.
DU R Q. Research on laser vision based robot welding area noise image processing and rapid location finding and weld tracking[D]. Shanghai: Shanghai Jiao Tong University, 2019 (in Chinese).
[6]" " DU R Q, XU Y L, HOU Z, et al. Strong noise image processing for vision-based seam tracking in robotic gas metal arc welding[J]. The International Journal of Advanced Manufacturing Technology, 2019, 101(5):2135-2149.
[7]" " 劉宜鑫. 基于相關(guān)濾波的焊縫跟蹤算法研究[D]. 成都:電子科技大學(xué), 2022.
LIU Y X. Research on weld seam tracking algorithm based on correlation filtering[D]. Chengdu:" University of Electronic Science and Technology, 2022(in Chinese).
[8]" " MA Y K, FAN J F, DENG S, et al. Efficient and accurate start point guiding and seam tracking method for curve weld based on structure light[J]. IEEE Transactions on Instrumentation and Measurement, 2021, 70:3001310.
[9]" " SHAO W J, HUANG Y. A robust weld seam tracking method by using intensity-modulated structured light[J]. IEEE Sensors Journal, 2021, 21(4):5368-5376.
[10]" ZOU Y B, ZHOU W L. Automatic seam detection and tracking system for robots based on laser vision[J]. Mechatronics, 2019, 63:102261.
[11]" ZOU Y B, LI J C, CHEN X Z. Seam tracking investigation via striped line laser sensor[J]. Industrial Robot, 2017, 44(5):609-617.
[12]" 黃鴻, 呂容飛, 陶俊利, 等. 基于改進(jìn)U-Net++的CT影像肺結(jié)節(jié)分割算法[J]. 光子學(xué)報(bào), 2021, 50(2):0210001.
HUANG H, LUY R F, TAO J L, et al. Segmentation algorithm of lung nodules in CT images based on improved U-Net++[J] Acta Photonica Sinica, 2021, 50 (2): 0210001(in Chinese).
[13]" 陳振, 陳蕓芝, 吳婷, 等. 面向高分遙感影像道路提取的輕量級(jí)雙注意力和特征補(bǔ)償殘差網(wǎng)絡(luò)模型[J]. 地球信息科學(xué)學(xué)報(bào), 2022, 24(5):949-961.
CHEN Z, CHEN Y Z, WU T, et al. A lightweight dual attention and feature compensation residual network model for road extraction from high resolution remote sensing images[J]. Journal of Earth Information Science, 2022, 24 (5): 949-961(in Chinese).
[14]" LIAN S, LI L, LIAN G R, et al. A global and local enhanced residual U-net for accurate retinal vessel segmentation[J].IEEE/ACM Transactions on Computational Biology and Bioinformatics, 2021, 18(3):852-862.
[15]" ZHANG Z X, LIU Q J, WANG Y H. Road extraction by deep residual U-net[J]. IEEE Geoscience and Remote Sensing Letters, 2018, 15(5):749-753.
[16]" GAO J F, CHEN Y, WEI Y M, et al. Detection of specific building in remote sensing images using a novel YOLO-S-CIOU model. Case:Gas station identification[J]. Sensors, 2021, 21(4):1375.
[17]" HU J, SHEN L, ALBANIE S, et al. Squeeze-and-excitation networks[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2020, 42(8):2011-2023.
[18]" WU K X, WANG T Q, HE J J, et al. Autonomous seam recognition and feature extraction for multi-pass welding based on laser stripe edge guidance network[J]. The International Journal of Advanced Manufacturing Technology, 2020, 111(9):2719-2731.
[19]" 謝莒芃, 張華軍, 黃雙, 等. 基于殘差U型卷積網(wǎng)絡(luò)的海面風(fēng)速多步時(shí)空預(yù)測(cè)[J]. 控制與決策, 2023,38(7):1845-1853.
XIE J P, ZHANG H J, HUANG S, et al. Multistep spatio-temporal prediction of sea surface wind speed based on residual U-shaped convolution network[J]. Control and Decision, 2023,38(7):1845-1853(in Chinese).
[20]" 仝真, 徐愛俊.基于改進(jìn)ResNet-UNet的立木圖像分割方法[J]. 中南林業(yè)科技大學(xué)學(xué)報(bào), 2021, 41(1):132-139.
TONG Z, XU A J. A tree image segmentation method based on improved ResNet-UNet[J]. Journal of Central South Forestry University, 2021, 41 (1): 132-139(in Chinese).
[21]" 羅松強(qiáng), 李浩, 陳仁喜. 多尺度特征增強(qiáng)的ResUNet+遙感影像建筑物提取[J]. 激光與光電子學(xué)進(jìn)展, 2022, 59(8):540-549.
LUO S Q, LI H, CHEN R X. ResUNEt+remote sensing image building extraction with multi-scale feature enhancement[J]. Progress in Laser and Optoelectr, 2022, 59(8):540-549(in Chinese).
本文引文格式:
何俊杰,王傳睿,王天琪. 基于深度殘差網(wǎng)絡(luò)的多層多道焊縫識(shí)別[J]. 天津工業(yè)大學(xué)學(xué)報(bào),2025, 44(1): 91-96.
HE J J, WANG C R, WANG T Q. Recognition of multi-layer and multi-pass weld seam based on depth residuals network[J]. Journal of Tiangong University, 2025, 44(1): 91-96(in Chinese).
收稿日期: 2023-04-26
基金項(xiàng)目: 國(guó)家自然科學(xué)基金項(xiàng)目(51975410);天津市教委科研計(jì)劃項(xiàng)目(2019KJ011).
第一作者: 何俊杰(1973—),女,副教授,主要研究方向?yàn)闄C(jī)器人控制技術(shù)。E-mail:1547886762@qq.com
通信作者: 王天琪(1981—),男,副教授,主要研究方向?yàn)楹附幼詣?dòng)化控制技術(shù)。E-mail:wtq0622@163.com