摘 要:為了準確識別不同類型鉤舌,確保自動復鉤機器人能夠根據(jù)火車連接鉤舌狀態(tài)實時調(diào)整機械臂的位姿,提出了一種基于改進YOLOv5的火車連接鉤舌識別方法。首先,將YOLOv5主干網(wǎng)絡(luò)中原有的C3模塊替換為梯度流豐富的C2F模塊(cross feature module),YOLOv5頸部網(wǎng)絡(luò)中原有的C3模塊替換為基于FasterNet模塊構(gòu)建的輕量化C3_FasterNet模塊,并將CoordConv模塊嵌入到Y(jié)OLOv5的主干網(wǎng)絡(luò)末端。其次,基于現(xiàn)場實測的火車連接鉤舌圖像進行了識別測試。結(jié)果表明: 改進的YOLOv5算法在降低模型參數(shù)量的同時,可以有效提升對鉤舌目標的檢測精度,火車鉤舌識別精度達到了98.7%,相較于原始算法,模型參數(shù)量減少了10.8%。研究結(jié)果為復鉤機器人在執(zhí)行鉤舌復位和車廂連接操作方面提供了一種有效的解決方案。
關(guān)鍵詞:模式識別;圖像處理;復鉤機器人;火車鉤舌;目標識別;YOLOv5
中圖分類號:TP391.41 文獻標識碼:A
Recognition method of train connection hook tongue
based on improved YOLOv5
Abstract:
In order to accurately identify different types of train connection hook tongues and ensure that the automatic re-hook robot adjusts the pose of the robot arm in real time according to the status of the hook tongues, a train connection hook tongue recognition method based on an improved YOLOv5 model was proposed. First, the original C3 module in the YOLOv5 backbone network was replaced with the C2F module (cross feature module) of rich gradient flow, and the original C3 module in the YOLOv5 neck network was replaced with the lightweight C3_FasterNet module based on the FasterNet block, and the CoordConv module was embedded at the end of the YOLOv5 backbone network.Second, the recognition test was carried out based on the spot measured image of the train connection hook tongue. The results show that the improved YOLOv5 algorithm can effectively improve the detection accuracy of the hook tongue target while reducing the numbers of model parameters. The identification accuracy of the hook tongue reaches 98.7%, and the numbers of model parameters are reduced by 10.8% compared with the original algorithm, which can provide an effective solution for the re-hook robot in the operation of hook tongue resetting and carriage connection.
Keywords:
pattern recognition; image processing; re-hook robot; train connection hook tongue; target recognition; YOLOv5
隨著鐵路交通運輸?shù)牟粩喟l(fā)展,火車運輸成為重要的物流方式之一。在火車運輸過程中,車廂之間的連接采用鉤舌連接,連接牢固且能夠承受牽引力[1-3]。在燃煤電廠輸煤系統(tǒng)翻車、卸煤過程中,需要進行車廂的分離和連接工作,即火車連接的車鉤和鉤舌的復鉤操作。然而,人工復鉤需要操作人員手動進行,如果操作不當或有疏忽,可能導致車廂連接不牢固,從而引發(fā)安全事故。而自動復鉤能夠快速、準確完成連接,減少人工操作,降低人員受傷的風險,提高車廂的周轉(zhuǎn)率,進而提高整個供應鏈的作業(yè)效率。
目前關(guān)于自動復鉤機器人的研究還比較少,文獻[4]設(shè)計了一種軌道式摘鉤機器人,對火車車鉤的連接手柄的識別率達到了94.1%,對復鉤機器人及對鉤舌自動識別的研究具有較高的借鑒價值。近年來,深度學習在圖像自動識別領(lǐng)域取得了顯著進展[5-6]。YOLO是一種快速、簡單且高效的目標檢測算法,在處理實時性要求較高的應用場景時得到了廣泛應用[7-8]。文獻[9]提出了一種改進YOLOv5的紅外船舶目標識別算法,通過改變損失函數(shù)優(yōu)化算法的回歸過程,避免了誤檢和漏檢的問題。文獻[10]提出了一種改進YOLOv5目標檢測網(wǎng)絡(luò)模型,通過重新設(shè)計金字塔和跳躍連接,取代原有的網(wǎng)絡(luò)模型,有效捕捉目標的跨尺度特征信息,避免梯度消失現(xiàn)象,提高目標識別的準確率。為了應對在復雜場景下初始錨框難以與目標匹配的問題,文獻[11]提出了一種基于YOLOv5的增強多尺度目標檢測方法,改進幅度達到5.2%。文獻[12]在YOLOv5模型的主干部分加入CASM(convolutional attention for spectral data modeling)注意力機制,使用真實的礦井皮帶圖像數(shù)據(jù)集測試了模型的檢測性能,mAP(mean average precision)較原始算法提升了20%,達到了95.4%。
自動復鉤機器人需要根據(jù)火車連接鉤舌狀態(tài)實時調(diào)整機械臂的位姿,對實時性要求較高。針對該需求,本文提出了一種基于改進YOLOv5的火車連接鉤舌目標識別方法,通過對現(xiàn)有YOLOv5算法的網(wǎng)絡(luò)模型進行優(yōu)化設(shè)計,以期在減少模型參數(shù)量的同時,提升模型的識別精度。
1 火車車廂連接結(jié)構(gòu)分析
車鉤位于車廂之間或車頭與車廂之間的連接位置,中國現(xiàn)有的車廂均采用對撞式車鉤,因其具有連接、牽引及緩沖等優(yōu)點,得到了廣泛應用。車鉤有2種狀態(tài),分別是連接狀態(tài)與解鎖狀態(tài)。其中,連接狀態(tài)是指車鉤在后車廂的擠壓碰撞下,使得前車與后車的鉤舌嚙合達到閉鎖,該過程稱為火車車廂復鉤。因此,在2節(jié)車廂連接之前,使鉤舌處于打開狀態(tài)很重要。
復鉤機器人配備的攝像頭能夠?qū)崟r檢測火車車廂連接用的鉤舌及其位置,然后復鉤機器人執(zhí)行機構(gòu)開始動作,掰開鉤舌完成復位,使2節(jié)車廂準確連接。一旦完成復鉤操作并確認安全,火車可以重新啟動并繼續(xù)行駛。復鉤機器人工作示意圖如圖1所示。
2 基于改進YOLOv5算法的網(wǎng)絡(luò)模型分析
2.1 基礎(chǔ)算法選擇
基于YOLOv5算法的靈活性、高效性以及優(yōu)異的檢測精度,將其作為火車鉤舌檢測的改進算法的基礎(chǔ)模型。YOLOv5算法能夠快速處理圖像并實時輸出檢測結(jié)果,這對于需要實時監(jiān)測的火車鉤舌檢測至關(guān)重要,能夠確保任何異常狀態(tài)被及時識別和處理,從而保障復鉤機器人的安全運行。YOLOv5算法不僅在標準檢測環(huán)境中表現(xiàn)出色,而且對不同尺度目標的適應性以及在復雜背景下的魯棒性較好,特別適合在燃煤電廠輸煤系統(tǒng)中火車鉤舌可能遇到的復雜視覺環(huán)境。YOLOv5算法通過自適應錨點和多尺度訓練策略,能夠有效提高對這些變化的適應能力。此外,YOLOv5算法的網(wǎng)絡(luò)模型配置靈活,可以根據(jù)具體的應用需求調(diào)整模型的大小和復雜度,這在資源受限的邊緣計算設(shè)備上顯得尤為重要。YOLOv5算法支持在不犧牲太多性能的前提下對模型進行簡化和優(yōu)化,使得模型不僅能在高性能服務(wù)器上運行,也能在現(xiàn)場部署的較低性能設(shè)備上有效運行。
2.2 改進YOLOv5的火車連接鉤舌識別算法設(shè)計
在燃煤電廠輸煤系統(tǒng)中,火車鉤舌所處環(huán)境復雜,受到光線、灰塵等因素的影響,原始YOLOv5算法在提取關(guān)鍵信息時受到限制,可能導致鉤舌檢測出現(xiàn)錯檢或漏檢。針對上述問題,本文在YOLOv5算法基礎(chǔ)上進行了如下改進。
1)主干網(wǎng)絡(luò)引入C2F模塊 通過結(jié)合深層和淺層特征,C2F模塊增強了模型對不同尺度目標的檢測能力。深層特征提供豐富的語義信息,而淺層特征負責細節(jié)的捕捉,這種特征融合策略有助于在各種尺度下改善模型的檢測精度。
2)主干網(wǎng)絡(luò)引入CoordConv注意力機制模塊 在主干網(wǎng)絡(luò)末端添加CoordConv注意力機制模塊,CoordConv模塊通過在卷積層中加入坐標信息,增加了模型對物體空間位置的敏感性,從而能更精確地定位和識別目標,特別是在視覺信息復雜或部分遮擋的場景中。
3)頸部網(wǎng)絡(luò)優(yōu)化 將頸部的C3模塊替換為基于FasterNet模塊設(shè)計的輕量型C3_FasterNet模塊,旨在提高處理速度的同時保持檢測性能,適應實時運行的需求。
2.3 主干網(wǎng)絡(luò)中C2F模塊嵌入設(shè)計
在YOLOv5模型的主干網(wǎng)絡(luò)中,原本的C3模塊已被新的C2F模塊特征提取模塊替代,以提高模型在復雜視覺任務(wù)中的性能,C2F模塊結(jié)構(gòu)如圖2所示[13]。
其中,ConvBNSiLU代表一個序列操作:首先是卷積;其次是批量歸一化;最后是激活函數(shù)。Split表示將輸入特征圖分割成多個部分。BottleNeck結(jié)構(gòu)是一種特殊的卷積結(jié)構(gòu),它能夠減少參數(shù)量,從而降低模型的計算量。Contact表示將前面的特征圖與BottleNeck的輸出進行通道維度的拼接。
首先,通過1×1卷積對輸入的特征圖進行跨通道信息的整合。此步驟關(guān)鍵在于快速有效融合特征信息,從而為后續(xù)處理提供準備。其次,通過切片操作,特征圖被分割為2部分,增加了特征處理的靈活性。分割后的一部分特征圖接受多次BottleNeck處理,每次處理后的結(jié)果與最初的1×1卷積結(jié)果進行拼接。這種反復拼接的設(shè)計模式不僅增強了特征的多樣性,而且允許模型在不同處理階段有效地利用梯度信息。通過這種方式,C2F模塊能夠綜合并強化不同層次的特征,為模型提供更為豐富和復雜的信息。最后的1×1卷積步驟將經(jīng)過多重處理的特征圖壓縮回原始通道數(shù),實現(xiàn)了模型的輕量化,并優(yōu)化了訓練效率和輸出效果。這一系列優(yōu)化措施使得C2F模塊比原C3模塊在處理復雜視覺任務(wù)時更為高效和靈活。這種特征提取模塊的優(yōu)勢在文獻[13]中得到了體現(xiàn)。在該研究中,C2F模塊的應用顯著改善了YOLOv8n模型在田間環(huán)境中識別和分類被遮擋油茶果的能力。與C3模塊相比,C2F模塊在特征整合和梯度信息的利用上具有明顯的優(yōu)勢,尤其適合處理遮擋和動態(tài)變化較大的場景?;疖囥^舌檢測是一個要求模型快速準確處理和精準識別高速移動物體的高難度應用。C2F模塊通過其增強的特征處理能力和高效的信息整合能力,為這類高要求的實時檢測任務(wù)提供了理想的解決方案。因此,將C3模塊替換為C2F模塊不僅優(yōu)化了模型在火車鉤舌檢測中的性能,還提高了其整體的識別精度和處理速度。
2.4 主干網(wǎng)絡(luò)中CoordConv模塊嵌入設(shè)計
在神經(jīng)網(wǎng)絡(luò)訓練中,注意力機制幫助模型專注于數(shù)據(jù)中的關(guān)鍵部分,忽略不重要的信息,這使得網(wǎng)絡(luò)更有效地學習對結(jié)果影響大的特征。為了增強對鉤舌位置信息的關(guān)注度,采用了 CoordConv 模塊,如圖3所示[14]。CoordConv 模塊通過向傳統(tǒng)卷積層引入額外的坐標信息,增強模型對圖像空間位置的關(guān)注,如圖3 b)所示。在輸入特征圖時添加2個附加通道i coordinate和j coordinate,這2個附加的通道用于注入位置信息到特征圖中,使得網(wǎng)絡(luò)能夠更準確地學習和處理有關(guān)對象位置的信息。該模塊在處理需要精確的空間定位任務(wù)(例如目標檢測和圖像分割等方面)中展現(xiàn)出更高的效率和更高的準確性。在實驗中,使用CoordConv模塊提升改進模型處理復雜空間關(guān)系的能力,從而提升模型整體的目標檢測能力。
2.5 頸部網(wǎng)絡(luò)中C3_FasterNet模塊嵌入設(shè)計
在輕量級目標檢測領(lǐng)域,常見的網(wǎng)絡(luò)模型(如MobileNet,ShuffleNet和GhostNet)通過深度分離卷積(DWConv)或組卷積(GConv)實現(xiàn)模型輕量化,有效減少了參數(shù)量。然而,這些模型對內(nèi)存需求較高,推理速度較慢,且模型包含的數(shù)據(jù)拼接、洗牌和池化等操作對推理速度至關(guān)重要。盡管輕量化網(wǎng)絡(luò)通常采用倒殘差結(jié)構(gòu)和線性瓶頸設(shè)計以進一步減輕模型負擔,但深度分離卷積的使用增加了網(wǎng)絡(luò)寬度和內(nèi)存訪問,尤其在內(nèi)存受限的移動設(shè)備上可能影響實時檢測的效率。因此,采用FasterNet輕量化網(wǎng)絡(luò)結(jié)構(gòu),不僅減少了計算冗余和內(nèi)存訪問量,而且保持了高效的推理性能,是資源在受限環(huán)境中理想的輕量級目標檢測解決方案。
FasterNet由1個PConv模塊和2個Conv模塊構(gòu)成,F(xiàn)asterNet 模塊結(jié)構(gòu)如圖4所示[15-16]。1個PConv模塊后面跟著2個 PWConv模塊, PConv只需在輸入通道的一部分上應用常規(guī)Conv進行空間特征提取,并保持其余通道不變。對于連續(xù)或規(guī)則的內(nèi)存訪問,將第1個或最后1個連續(xù)的通道視為整個特征圖進行計算。為了充分有效利用來自所有通道的信息,進一步將逐點卷積(PWConv)附加到PConv模塊上。 在2個 PWConv模塊之間有歸一化層和激活函數(shù)。針對激活函數(shù)GeLU的高計算復雜性和在某些硬件上的效率不足,選擇使用ReLU作為激活函數(shù)。ReLU計算過程簡單,使其在需要快速處理的應用中更為高效。ReLU還加速了神經(jīng)網(wǎng)絡(luò)的訓練,避免了梯度消失的問題,并通過其稀疏激活特性提高了計算效率。
在C3模塊的執(zhí)行過程中,需要進行5次卷積操作,這不僅增加了模型的參數(shù)量,也相應地提高了內(nèi)存消耗。這種增加的資源需求會降低模型的運行效率,延長訓練時間,并最終影響到模型的處理速度。為此基于FasterNet模塊設(shè)計了 C3_FasterNet模塊,模塊結(jié)構(gòu)如圖5所示。該模塊能夠在保證模型精度的同時,大幅度降低參數(shù)量和計算量,加快原始網(wǎng)絡(luò)的推理速度。
3 實驗及結(jié)果分析
3.1 數(shù)據(jù)集制作與擴充
自動復鉤機器人在執(zhí)行打開鉤舌操作時需要準確識別并定位鉤舌。為了實現(xiàn)這一目標,機器人必須學習和記憶不同類型火車鉤舌的外觀特征。實驗數(shù)據(jù)集包含來自不同火車車廂連接部位的圖像,涵蓋了不同型號、不同環(huán)境背景下的火車鉤舌(見圖6),共計收集了3 000張圖像。這些圖像用于訓練目標識別模型,使其能夠辨識不同類型的鉤舌。利用Labelimg工具對所有圖片進行標注。根據(jù)摘取方式不同將火車鉤舌分為2類,分別為60型和70型鉤舌(見圖7),分別設(shè)置為“one”和“two” 2種標簽。
3.2 評價指標分析
評價指標是衡量目標檢測算法質(zhì)量和性能的重要標準,本文采用精確率(P)、召回率(R)、平均精度(mAP)對模型效果進行評估。其中
mAP@0.5表示在交并比(intersection over union,IoU)閾值設(shè)置為0.5 情況下的mAP值。IoU用于衡量預測的邊界框與真實邊界框之間的重疊程度,當 IoU 閾值設(shè)置為 0.5 時,預測的邊界框與真實邊界框的重疊程度至少達到50%,則認為是有效檢測。mAP@0.5:0.95指標計算的是在 IoU 閾值為0.5~0.95(以 0.05 為步長)時的mAP值。模型的參數(shù)規(guī)模是指構(gòu)成模型的參數(shù)總數(shù),包括權(quán)重和偏置等,反映了模型的容量和潛在的學習能力,參數(shù)規(guī)模較大的模型通常具有更高的學習能力和更復雜的功能,但同時也可能導致更高的計算成本和存儲需求。計算指標如式(1)—式(4)所示。
式中:TP(真陽性)是模型成功檢測并正確分類的實際目標數(shù)量,表示模型正確檢測的能力;FP(假陽性)是模型錯誤標記目標的數(shù)目,表示模型的誤檢情況;FN(假陰性)是模型未能檢測到的目標數(shù),表示模型的漏檢情況。這些指標共同評估目標檢測模型的準確性和可靠性。
式中:N為數(shù)據(jù)集中檢測目標的類別數(shù)目;i是當前所屬的類別編號。本文中N設(shè)置為2,即2種不同類型的車鉤。
3.3 損失函數(shù)曲線分析
在YOLOv5目標檢測模型中包含3種主要損失函數(shù),即定位損失(box_loss)、置信度損失(obj_loss)和分類損失(cls_loss)。定位損失函數(shù)計算預測的邊界框與實際邊界框之間的誤差;置信度損失函數(shù)用于衡量模型對目標存在的置信程度;分類損失函數(shù)用于判斷模型預測的類別是否正確。使用改進的YOLOv5算法在自制數(shù)據(jù)集上進行訓練和驗證,定位損失、置信度損失和分類損失的損失函數(shù)曲線如圖8所示。由圖8可知,函數(shù)損失值隨著訓練次數(shù)的增加而降低,下降的幅值逐漸緩慢,在達到100次左右時,損失值逐漸趨于平緩,表明改進算法模型的函數(shù)損失值波動平緩最終達到穩(wěn)定值,模型訓練結(jié)束。
模型的精度指標如圖9所示。在YOLOv5模型的基礎(chǔ)上融入C3_FasterNet網(wǎng)絡(luò)、C2F模塊與CoordConv注意力機制建立改進模型。與基礎(chǔ)模型對比,改進后的模型在各項性能評估指標上均表現(xiàn)出更快的收斂速度和更高的性能。此外,改進模型在達到穩(wěn)態(tài)后展現(xiàn)了更佳的穩(wěn)定性,表明其更能高效利用訓練數(shù)據(jù)。從定量角度來看,初始訓練階段改進模型性能的提升速度遠超基礎(chǔ)模型,減少了所需的訓練時間,并提高了模型的實用性。
3.4 算法結(jié)果分析
對YOLOv5改進算法與基礎(chǔ)算法進行了對比實驗,將實驗分為基礎(chǔ)實驗、頸部網(wǎng)絡(luò)優(yōu)化、主干網(wǎng)絡(luò)特征增強。選取召回率(R)、精確率(P)、mAP@0.5,mAP@0.5:0.95與模型的參數(shù)量為指標,結(jié)果如表1所示。
由表1可知,使用C3_FasterNet模塊,在保證精確率、召回率、mAP值的同時,模型的參數(shù)量大幅減少。在此基礎(chǔ)上使用C2F模塊替換掉原有的C3模塊,明顯提升了模型處理復雜信息的能力。最后加入注意力機制CoordConv有助于增強有效特征,抑制無效特征。與基礎(chǔ)模型對比,改進模型在精確率上提高了2.2個百分點,達到了98.7%,召回率上升了3.3個百分點,達到了95.5%,mAP@0.5增長了2.8個百分點,達到了98.4%。同時,模型的參數(shù)量從2 066 623個減少到1 843 327個,降低了10.8%,顯著提升了計算效率。改進后的模型不僅優(yōu)化了性能,同時也減輕了計算負荷,能夠更好地應用于鉤舌的目標檢測工作。
3.5 基于Grad-CAM可視化分析
Grad-CAM(gradient-weighted class activation mapping)是一種用于生成卷積神經(jīng)網(wǎng)絡(luò)決策可視化解釋的技術(shù),主要通過產(chǎn)生熱力圖以直觀地展示卷積神經(jīng)網(wǎng)絡(luò)在作出特定決策時哪些區(qū)域被賦予了更高的重要性[17]。Grad-CAM常應用于網(wǎng)絡(luò)的最后一個卷積層以提取類別信息,這個層的輸出特征圖用高級圖像表示。相對于這些特征圖的梯度網(wǎng)絡(luò)類別特定類別得分通過反向傳播計算得出,揭示每個單元對類別得分的影響。通過對這些梯度在空間維度上進行全局平均池化,得到每個通道的權(quán)重,反映其對目標類別的重要性。將權(quán)重與相應特征圖相乘并求和,生成類激活映射(class activation mapping,CAM),突出顯示模型在作決策時的關(guān)注區(qū)域。CAM通常以熱力圖的形式展示可視化模型的關(guān)注點,為了闡釋 YOLOv5改進算法在模型中的作用,輸入2張遮擋背景下的鉤舌圖片(見圖10)。采用GradCAM技術(shù)生成模型的熱力圖,如圖11所示。圖中不同的顏色表示模型對圖像不同區(qū)域的關(guān)注程度,顏色的變化從藍色到紅色,表示關(guān)注程度的遞增。通過對比,改進后的算法在鉤舌檢測上表現(xiàn)出更集中的熱力圖響應,說明其對鉤舌特征的識別能力更強,更適合鉤舌檢測任務(wù)。
3.6 與其他算法對比分析
表2為改進YOLOv5算法與其他算法的對比結(jié)果。由表2可知,改進的YOLOv5算法在鉤舌目標檢測中表現(xiàn)出色,具備高準確性和高效率。其mAP達到98.4%,明顯優(yōu)于YOLOv8,F(xiàn)asterRCNN和SSD。參數(shù)量僅為1.843 M,遠低于其他模型,使得YOLOv5算法更易于在資源有限的設(shè)備上部署和運行。此外,其計算量(GFLOPS,每秒10億次的浮點運算數(shù))低至4.0,相較于FasterRCNN(370.21)和SSD(62.75)的算法顯著減小了計算負擔。這些特點使改進YOLOv5算法不僅在高精度目標檢測上效果顯著,而且在處理速度和資源利用上極具優(yōu)勢,特別適合需要快速準確反應的應用場景,如移動或嵌入式系統(tǒng)中的實時目標檢測。
4 在自動復鉤機器人中的應用分析
火車進行復鉤時,復鉤機構(gòu)的1號機械臂配備了傳感器與攝像頭,用于自動識別手柄的位置。一旦手柄被識別,1號機械臂自動扳動手柄松開鉤舌。2號機械臂被激活,并使用傳感器與攝像頭識別鉤舌的準確位置,自動執(zhí)行掰開鉤舌的動作。掰開鉤舌完成復位,使2節(jié)車廂準確連接。一旦完成復鉤操作并確認安全,火車可以重新啟動并繼續(xù)行駛。這個流程中2個機械臂各自負責不同的任務(wù),協(xié)同工作實現(xiàn)整個復鉤過程。圖12為復鉤機器人現(xiàn)場復鉤整體流程圖。
5 結(jié) 語
為了使復鉤機器人在移動過程中快速識別火車鉤舌的類型和位置,保證機器人的實時檢測性能,本文提出了一種改進YOLOv5的火車連接鉤舌目標識別算法,主要研究結(jié)論如下。
1)在主干網(wǎng)絡(luò)中添加C2F模塊與CoordConv注意力機制模塊,可實現(xiàn)在主干網(wǎng)絡(luò)中并行提取不同尺度的特征,提高網(wǎng)絡(luò)的感受野,增強對目標鉤舌的識別能力,識別精度達到了98.7%,與基礎(chǔ)算法相比提升了2.2個百分點。
2)在頸部網(wǎng)絡(luò)中添加輕量型的C3_FasterNet模塊,可減少網(wǎng)絡(luò)的計算復雜度和模型大小。在保持較高性能的同時,模型的參數(shù)量相較于基礎(chǔ)算法減少了10.8%,有效提升了模型的運行效率與推理速度。
3)通過可視化分析,改進YOLOv5算法較原始算法,可以更準確識別火車鉤舌的所在位置?;诟倪MYOLOv5算法研制的自動復鉤機器人成功實現(xiàn)了火車鉤舌的識別和復鉤。
鉤舌目標識別會受到惡劣復雜環(huán)境因素的干擾,使得模型難以保持穩(wěn)定的性能。為了克服這些局限性,未來可以利用數(shù)據(jù)增強技術(shù)提供更多樣化、更豐富的數(shù)據(jù)集,提高模型對惡劣復雜環(huán)境的適應性,以確保模型能夠更好地捕捉不同類型鉤舌的特征,提高鉤舌目標識別的魯棒性。
參考文獻/References:
[1] 田曉晨,朱濤,王超,等.鐵路重載貨車鉤舌疲勞裂紋萌生壽命分析[J].機械強度,2022,44(3):696-704.
TIAN Xiaochen,ZHU Tao,WANG Chao,et al.Analysis on fatigue crack initiation life of coupler knuckle of railway heavy-haul wagon[J].Journal of Mechanical Strength,2022,44(3):696-704.
[2] 王超,朱濤,肖守訥,等.基于分離體子模型的重載貨車鉤舌三維裂紋擴展研究[J].鐵道學報,2022,44(8):42-49.
WANG Chao,ZHU Tao,XIAO Shoune,et al.Research on 3D crack propagation of heavy-haul wagon coupler knuckle based on separated body submodel[J].Journal of the China Railway Society, 2022,44(8):42-49.
[3] 尹敏軒,朱濤,楊冰,等.基于可靠性的重載貨車鉤舌疲勞斷裂壽命[J].機械工程學報,2021,57(4):210-218.
YIN Minxuan,ZHU Tao,YANG Bing,et al.Fatigue fracture life of heavy-haul wagon′s coupler knuckle based on reliability[J].Journal of Mechanical Engineering,2021,57(4):210-218.
[4] 張淵博.鐵路自動摘鉤機器人設(shè)計及車鉤視覺檢測[D].沈陽:沈陽工業(yè)大學,2020.
ZHANG Yuanbo.Design of Railway Automatic Unhook Robot and Visual Inspection of Couplers[D]. Shenyang:Shenyang University of Technology,2020.
[5] 祝銘悅,牛梓儒,萬勇,等.基于圖像的地鐵車站施工人員不安全行為識別研究[J].河北工業(yè)科技,2023,40(1):27-32.
ZHU Mingyue,NIU Ziru,WAN Yong,et al.Research on identification of unsafe behaviors of construction personnel in subway station based on images[J].Hebei Journal of Industrial Science and Technology, 2023,40(1):27-32.
[6] 董春峰,楊春金,周萬珍.一種基于感受野增強的人臉檢測方法[J].河北工業(yè)科技,2022,39(6):474-479.
DONG Chunfeng,YANG Chunjin,ZHOU Wanzhen.A face detection method based on perceptual field enhancement[J].Hebei Journal of Industrial Science and Technology,2022,39(6):474-479.
[7] 劉亞姣,于海濤,劉寶順,等.基于YOLOv3的H型鋼表面缺陷檢測系統(tǒng)[J].河北工業(yè)科技, 2021,38(3):231-235.
LIU Yajiao,YU Haitao,LIU Baoshun,et al.H-beam surface defect detection system based on YOLOv3 algorithm[J].Hebei Journal of Industrial Science and Technology,2021,38(3):231-235.
[8] 武宇平,劉海旭,吳勁芳,等.改進的YOLOv3-Tiny網(wǎng)絡(luò)在風機葉片損傷檢測中的應用[J].河北工業(yè)科技,2021,38(5):401-408.
WU Yuping,LIU Haixu,WU Jinfang,et al.Application of improved YOLOv3-Tiny network in fan blade damage detection[J].Hebei Journal of Industrial Science and Technology,2021,38(5):401-408.
[9] 劉芬,孫杰,張帥,等.基于YOLOv5的紅外船舶目標檢測算法[J].紅外與激光工程,2023,52(10):214-225.
LIU Fen,SUN Jie,ZHANG Shuai,et al.Infrared ship target detection algorithm based on YOLOv5[J].Infrared and Laser Engineering,2023,52(10):214-225.
[10]劉建騏,閆河,王瀟棠,等.改進金字塔和跳躍連接的YOLOv5目標檢測網(wǎng)絡(luò)[J].控制與決策,2023,38(6):1730-1736.
LIU Jianqi,YAN He,WANG Xiaotang,et al.YOLOv5 object detection network with improved pyramid and skip connection[J].Control and Decision,2023,38(6):1730-1736.
[11]惠康華,楊衛(wèi),劉浩翰,等.基于YOLOv5的增強多尺度目標檢測方法[J].兵工學報,2023,44(9):2600-2610.
HUI Kanghua,YANG Wei,LIU Haohan,et al.Enhanced multi-scale target detection method based on YOLOv5[J].Acta Armamentarii,2023,44(9):2600-2610.
[12]YOU K S,LIU H Z.Feature detection of mineral zoning in spiral slope flow under complex conditions based on improved YOLOv5 algorithm[J].Physica Scripta,2024,99(1):016001.
[13]周宏平,金壽祥,周磊,等.基于遷移學習與YOLOv8n的田間油茶果分類識別[J].農(nóng)業(yè)工程學報,2023,39(20):159-166.
ZHOU Hongping,JIN Shouxiang,ZHOU Lei,et al.Classification and recognition of Camellia oleifera fruit in the field based on transfer learning and YOLOv8n[J].Transactions of the Chinese Society of Agricultural Engineering,2023,39(20):159-166.
[14]王玲敏,段軍,辛立偉.引入注意力機制的YOLOv5安全帽佩戴檢測方法[J].計算機工程與應用,2022,58(9):303-312.
WANG Lingmin,DUAN Jun,XIN Liwei.YOLOv5 helmet wear detection method with introduction of attention mechanism[J].Computer Engineering and Applications,2022,58(9):303-312.
[15]喬琛,韓夢瑤,高葦,等.基于Faster-NAM-YOLO的黃瓜霜霉病菌孢子檢測[J].農(nóng)業(yè)機械學報,2023,54(12):288-299.
QIAO Chen,HAN Mengyao,GAO Wei,et al.Quantitative detection of cucumber downy mildew spores at multi-scale based on Faster-NAM-YOLO[J].Transactions of the Chinese Society for Agricultural Machinery,2023,54(12):288-299.
[16]張勇進,徐健,張明星.面向輕量化的改進YOLOv7棉雜檢測算法[J].計算機應用,2024,44(7):2271-2278.
ZHANG Yongjin,XU Jian,ZHANG Mingxing.Lightweight algorithm for impurity detection in raw cotton based on improved YOLOv7[J].Journal of Computer Applications,2024,44(7):2271-2278.
[17]湯文權(quán),陳灼廷,王東橋,等.基于改進YOLOv5的皮蛋裂紋在線檢測方法[J].農(nóng)業(yè)機械學報,2024,55(2):384-392.
TANG Wenquan,CHEN Zhuoting,WANG Dongqiao,et al.Crack detection method for preserved eggs based on improved YOLOv5 for online inspection[J].Transactions of the Chinese Society for Agricultural Machinery,2024,55(2):384-392.