亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于YOLOv8的發(fā)動(dòng)機(jī)缸內(nèi)異物檢測算法開發(fā)與應(yīng)用

        2024-01-01 00:00:00房運(yùn)濤李爽韓曉琴翟強(qiáng)莊順胥齊偉宋麗娟
        關(guān)鍵詞:機(jī)器視覺

        摘 要:為解決人工檢測發(fā)動(dòng)機(jī)缸內(nèi)異物時(shí)的漏檢和誤檢等問題,設(shè)計(jì)基于改進(jìn)目標(biāo)檢測算法YOLOv8的發(fā)動(dòng)機(jī)缸內(nèi)異物檢測算法并進(jìn)行試驗(yàn)驗(yàn)證?;贑oTNet中的注意力機(jī)制,設(shè)計(jì)Contextual Attention模塊,重構(gòu)C2f中的Bottleneck結(jié)構(gòu)為CoA_C2f,替換YOLOv8骨干網(wǎng)絡(luò)中的C2f模塊;將模型Neck部分連續(xù)上采樣后的特征圖Concat模塊替換為上下文聚合模塊CAM;在Neck和Head之間嵌入Triplet Attention模塊。試驗(yàn)結(jié)果表明:設(shè)計(jì)的發(fā)動(dòng)機(jī)缸內(nèi)異物檢測模型可有效識別缸內(nèi)異物,在原始YOLOv8基礎(chǔ)上引入CoA_C2f、CAM和Triplet Attention 3個(gè)模塊后的平均檢測精度提高21.65%。

        關(guān)鍵詞:改進(jìn)YOLOv8算法;目標(biāo)檢測;機(jī)器視覺;異物檢測

        中圖分類號:TP391.41文獻(xiàn)標(biāo)志碼:A文章編號:1673-6397(2024)04-0033-08

        引用格式:房運(yùn)濤,李爽,韓曉琴,等. 基于YOLOv8的發(fā)動(dòng)機(jī)缸內(nèi)異物檢測算法開發(fā)與應(yīng)用[J].內(nèi)燃機(jī)與動(dòng)力裝置,2024,41(4):33-40.

        FANG Yuntao, LI Shuang, HAN Xiaoqin, et al. Design and application of the foreign object detection algorithm for engine cylinder based on YOLOv8[J].Internal Combustion Engine amp; Powerplant, 2024,41(4):33-40.

        0 引言

        在發(fā)動(dòng)機(jī)裝配過程中,活塞缸內(nèi)異物檢測是一項(xiàng)非常重要的任務(wù)。目前,發(fā)動(dòng)機(jī)缸內(nèi)異物檢測仍然依靠人眼進(jìn)行觀測,但由于人眼容易疲勞以及個(gè)體認(rèn)知有限,極易出現(xiàn)漏檢和誤檢等問題。近年來,基于深度學(xué)習(xí)的視覺檢測系統(tǒng)在工業(yè)生產(chǎn)中的應(yīng)用越來越廣泛[1-2]?;谏疃葘W(xué)習(xí)的目標(biāo)檢測方法通過學(xué)習(xí)大量的圖像數(shù)據(jù)自動(dòng)識別目標(biāo),不再依賴于傳統(tǒng)的手工特征提取方法,使發(fā)動(dòng)機(jī)缸內(nèi)異物的自動(dòng)檢測成為可能[3-4]。

        基于深度學(xué)習(xí)的目標(biāo)檢測算法主要分為兩階段和單階2類。兩階段算法需要先提取候選區(qū)域,再對候選區(qū)域進(jìn)行分類和回歸處理,例如R-CNN[5]、Fast R-CNN[6]、Faster R-CNN[7]等。單階段算法直接對輸入的圖像應(yīng)用算法并輸出類別和相應(yīng)的定位,例如SSD系列算法[8-10]和YOLO系列算法[11-14],其中YOLO系列算法是工業(yè)自動(dòng)檢測中廣泛使用的目標(biāo)檢測框架。YOLO算法將整個(gè)圖像劃分為網(wǎng)格單元,并在每個(gè)單元中預(yù)測多個(gè)邊界框和類別概率,從而實(shí)現(xiàn)目標(biāo)檢測。相比其他算法,YOLO算法具有更高的檢測速度和準(zhǔn)確性[15-16]。但是,作為一種單階段算法,YOLO算法在目標(biāo)位置的精度上比兩階段算法低,尤其是在對一些小目標(biāo)的檢測方面。因此,國內(nèi)外學(xué)者都致力于如何提高YOLO系列算法的檢測精度。Hu等[17]在YOLOv5中的骨干網(wǎng)絡(luò)中引入壓縮和激勵(lì)(squeeze and excitation,SE)模塊,以突出特征圖中的重要特征,提高了網(wǎng)絡(luò)檢測的性能;Zhang等[18]提出了一種跨階段局部Neck模塊,并結(jié)合YOLOv5模型,在多尺度目標(biāo)上獲得了較好的精度;Liu等[19]提出了一種動(dòng)態(tài)檢測頭,融合3種注意力機(jī)制來提高網(wǎng)絡(luò)的檢測性能;Lou等[20]針對小目標(biāo)檢測,在YOLOv8的基礎(chǔ)上提出了一種新的下采樣方法和特征融合網(wǎng)絡(luò),在保留了背景信息的前提下,能夠兼顧淺層和深層信息,有效提高了模型的檢測精度;程松等[21]通過在YOLOv5中引入不同的損失函數(shù),提高了算法的檢測精度。

        綜上所述,引入注意機(jī)制、完善特征融合網(wǎng)絡(luò)、優(yōu)化損失函數(shù),是提高YOLO系列算法檢測精度的重要手段。但是,上述研究對于算法的優(yōu)化均是針對特定的應(yīng)用場景,而且

        引入注意力機(jī)制、優(yōu)化特征融合網(wǎng)絡(luò)等都可能導(dǎo)致網(wǎng)絡(luò)復(fù)雜度增加。本文中構(gòu)建更有針對性的注意力機(jī)制,提出一種基于改進(jìn)YOLOv8算法的發(fā)動(dòng)機(jī)缸內(nèi)異物檢測模型,實(shí)現(xiàn)發(fā)動(dòng)機(jī)缸內(nèi)螺栓、螺母和墊片等異物的自動(dòng)檢測,解決由于依靠人工觀察導(dǎo)致的漏檢和誤檢等問題,并有效平衡計(jì)算代價(jià)及性能增益。

        1 基于YOLOv8的異物檢測算法

        本文中在YOLOv8算法的基礎(chǔ)上,有針對性地對其輸入端、網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行改進(jìn), 構(gòu)建發(fā)動(dòng)機(jī)缸內(nèi)異物檢測模型,旨在增強(qiáng)模型對發(fā)動(dòng)機(jī)缸內(nèi)異物的識別能力,以及模型在不同環(huán)境下的泛化能力,實(shí)現(xiàn)對發(fā)動(dòng)機(jī)缸內(nèi)異物的準(zhǔn)確、穩(wěn)定和高效的檢測。

        1.1 YOLOv8算法整體架構(gòu)

        YOLOv8算法由Glenn-Jocher提出,與YOLOv3和YOLOv5算法一脈相承。YOLOv8算法網(wǎng)絡(luò)結(jié)構(gòu)示意圖如圖1所示。YOLOv8算法的總體結(jié)構(gòu)包括輸入端(Input)、骨干網(wǎng)絡(luò)(Backbone)、特征融合網(wǎng)絡(luò)(Neck)和輸出端(Head) 4個(gè)部分。Backbone 主要用于特征提取,YOLOv8將YOLOv5中的跨階段局部網(wǎng)絡(luò)(cross stage partial network,CSPNet)模塊替換為輕量級 C2f模塊,通過密集殘差結(jié)構(gòu)增強(qiáng)特征表達(dá)的能力,在尾部使用快速空間金字塔池化層 (spatial pyramid pooling fast, SPPF) 增加感受并捕獲場景中不同層次的特征信息;Neck 部分主要用于特征融合,采用路徑聚合網(wǎng)絡(luò)與 C2f 模塊,針對Backbone三個(gè)階段輸出的不同尺度的特征圖進(jìn)行融合,幫助淺層信息向深層特征聚合;Head部分使用解耦頭結(jié)構(gòu),分為分類和定位預(yù)測端,緩解了分類和定位任務(wù)之間存在的沖突。

        1.2 YOLOv8算法改進(jìn)

        為解決人工檢測發(fā)動(dòng)機(jī)缸內(nèi)異物時(shí)的漏檢和誤檢等問題,實(shí)現(xiàn)發(fā)動(dòng)機(jī)缸內(nèi)異物的自動(dòng)檢測,本文中以YOLOv8s模型為基礎(chǔ),基于CoTNet中的注意力機(jī)制,設(shè)計(jì)了Contextual Attention模塊,基于該模塊重構(gòu)了C2f中的Bottleneck結(jié)構(gòu),命名為CoA_C2f,替換YOLOv8骨干網(wǎng)絡(luò)中的C2f模塊,改善骨干網(wǎng)絡(luò)的多尺度細(xì)節(jié)特征的提取能力。在模型的Neck部分,將連續(xù)上采樣后的特征圖Concat模塊替換為上下文聚合模塊CAM,促進(jìn)不同層次特征圖的交互融合。充分發(fā)揮注意力機(jī)制的優(yōu)勢,在Neck和Head之間嵌入三重注意力(triplet attention,TA)模塊,提高模型提取特征的能力。最后,采用 WIoU 作為邊界框損失函數(shù)。改進(jìn)的YOLOv8算法網(wǎng)絡(luò)結(jié)構(gòu)示意圖如圖 2 所示。

        1.2.1 重構(gòu)骨干網(wǎng)絡(luò)

        YOLOv8借鑒CSPDarkNet網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計(jì)了特征提取骨干網(wǎng)絡(luò),與YOLOv5最大的區(qū)別是用C2f模塊替換了C3模塊,其特征提取能力仍有欠缺。本文中基于CoTNet中的注意力機(jī)制,設(shè)計(jì)了Contextual Attention模塊,其結(jié)構(gòu)如圖3所示,圖中h、w分別為空間的高度、寬度維度,c為通道維度。首先,通過3個(gè)不同的卷積操作提取特征層keys、query和value,將有上下文特征的keys和特征層query拼接,然后通過兩個(gè)1×1卷積塊并經(jīng)Softmax操作將結(jié)果轉(zhuǎn)化為注意力權(quán)重矩陣A;其次,將權(quán)重矩陣A與特征層value相乘后得到全局動(dòng)態(tài)特征層;最后,將全局動(dòng)態(tài)特征層和keys特征層進(jìn)行融合,并通過一個(gè)1×1卷積得到對突出點(diǎn)著重關(guān)注、同時(shí)不缺失對普通點(diǎn)關(guān)注的注意力輸出特征層output。本文中結(jié)合Contextual Attention模塊,對YOLOv8的骨干網(wǎng)絡(luò)進(jìn)行了重建,將Contextual Attention模塊嵌入到Y(jié)OLOv8骨干網(wǎng)絡(luò)的殘差塊中,替換原有的普通3×3卷積,形成融合注意力機(jī)制的C2f模塊——CoA_C2f模塊,可有效改善骨干網(wǎng)絡(luò)的特征提取能力。

        1.2.2 改進(jìn)特征融合方式

        在處理復(fù)雜背景下異物圖像時(shí),由于不同層級的特征圖含有信息差異,直接拼接這些特征圖導(dǎo)致信息冗余。此外,由于圖像經(jīng)過了上采樣處理,使淺層細(xì)節(jié)特征被深層語義特征遮蓋,丟失包含豐富空間細(xì)節(jié)的低級特征,最終導(dǎo)致模型的特征提取能力降低,影響異物檢測精度。為了解決上述問題,參考文獻(xiàn)[22],引入上下文聚合模塊CAM,即在模型的Neck部分,將連續(xù)上采樣后的特征圖Concat模塊替換為CAM模塊,可以自適應(yīng)地調(diào)整局部特征之間的空間疊加關(guān)系,促進(jìn)不同層次特征圖的交互融合。CAM模塊的結(jié)構(gòu)如圖4所示。它能有效學(xué)習(xí)不同層級特征圖之間的差異,通過使用可變形卷積學(xué)習(xí)像素間的偏移關(guān)系,并采用注意力機(jī)制智能分配融合不同特征圖的比例,從而提高特征信息的利用率。

        1.2.3 引入TA模塊

        傳統(tǒng)注意力機(jī)制在計(jì)算通道注意力時(shí)在輸入張量上進(jìn)行池化操作,導(dǎo)致大量空間信息丟失。TA模塊是利用3個(gè)分支結(jié)構(gòu)捕獲輸入數(shù)據(jù)的跨維度交互,從而計(jì)算注意力權(quán)重,在盡量減小空間信息損失的前提下,構(gòu)建輸入通道或空間位置之間的相互依賴性。TA模塊結(jié)構(gòu)示意圖如圖5所示。TA模塊由3個(gè)分支組成,前兩個(gè)分支負(fù)責(zé)捕獲空間維度h或w與通道維度c之間的交互特征,第3個(gè)分支——identity用于構(gòu)建空間注意力,所有3個(gè)分支的輸出通過簡單平均進(jìn)行聚合[23]。計(jì)算時(shí),對每個(gè)分支中的輸入張量進(jìn)行排列變換,通過池化層、卷積層和Sigmoid激活層生成注意力權(quán)重,然后經(jīng)排列變換轉(zhuǎn)換為輸入張量的形狀。為了能夠使發(fā)動(dòng)機(jī)缸內(nèi)異物檢測模型的性能得到進(jìn)一步的提高,本文中在特征融合部分之后添加注意力模塊以提高模型提取特征的能力。

        2 異物檢測模型部署與測試

        2.1 數(shù)據(jù)集及試驗(yàn)環(huán)境

        2.1.1 缸內(nèi)異物檢測數(shù)據(jù)集

        目前還沒有為發(fā)動(dòng)機(jī)缸內(nèi)異物檢測量身定制的公共數(shù)據(jù)集。為捕捉發(fā)動(dòng)機(jī)缸內(nèi)存在異物的圖像,將螺栓、螺栓和墊片等常見異物放置發(fā)動(dòng)機(jī)活塞缸內(nèi),通過人工拍照采集在不同光線和角度下的異物照片。為了擴(kuò)充數(shù)據(jù)集,采用泊松融合算法,將不同結(jié)構(gòu)、尺寸的螺栓等異物無縫縫合到正常的發(fā)動(dòng)機(jī)活塞圖像上,得到了一個(gè)包含5 000張圖像、專門針對發(fā)動(dòng)機(jī)缸內(nèi)異物檢測的數(shù)據(jù)集,如圖6所示。數(shù)據(jù)集標(biāo)簽包括螺栓、螺母、墊片等。

        2.1.2 試驗(yàn)環(huán)境

        硬件配置包括1個(gè)NVIDIA GeForce RTX 3060 圖形處理器(graphics processing unit,GPU)和一個(gè)Intel(R) Core i9-13900 中央處理器(central processing unit,CPU),其中GPU的內(nèi)存為6 Gibyte;軟件配置包括Python3.9、PyTorch1.13.1和Cuda11.6深度學(xué)習(xí)框架。試驗(yàn)中,將缸內(nèi)異物檢測數(shù)據(jù)集按8:1:1的比例分為訓(xùn)練集、驗(yàn)證集和測試集,訓(xùn)練迭代次數(shù)設(shè)置為300,使用SGD優(yōu)化器,設(shè)置初始學(xué)習(xí)率為0.01、批處理大小為8、動(dòng)量參數(shù)為0.8、置信度閾值為0.5、輸入圖像像素為640×640。

        2.2 異物檢測模型部署

        OpenVINO是優(yōu)化神經(jīng)網(wǎng)絡(luò)模型和加速推理計(jì)算的軟件工具套件,可以優(yōu)化絕大多數(shù)框架(Tensorflow、Pytorch等)的深度學(xué)習(xí)模型,可在英特爾處理器和其他硬件平臺(tái)上以最佳性能進(jìn)行計(jì)算。OpenVINO Runtime可以自動(dòng)使用激進(jìn)的圖形融合,內(nèi)存重用,負(fù)載平衡和跨CPU、GPU、視頻處理單元(video processing unit,VPU)等進(jìn)行集成并行處理,可以優(yōu)化深度學(xué)習(xí)流水線。此外,OpenVINO工具包還包含了OpenCV圖片處理工具包,用于前處理和推理結(jié)果后處理等。鑒于上述優(yōu)勢,本文中基于OpenVINO工具套件,將基于YOLOv8的異物檢測模型部署在邊緣設(shè)備上,其部署流程如圖7所示。

        2.3 異物檢測實(shí)驗(yàn)及結(jié)果分析

        選取交并比(intersection over union,IOU)閾值為0.5時(shí)的平均精度mAP0.5作為異物檢測模型的衡量指標(biāo)。為了驗(yàn)證CoA_C2f、CAM和TA模塊對異物檢測模型整體性能的影響,對異物檢測模型進(jìn)行拆分,并在相同的數(shù)據(jù)集上進(jìn)測試,設(shè)計(jì)的異物檢測模型在自制發(fā)動(dòng)機(jī)缸內(nèi)異物檢測數(shù)據(jù)集上測試結(jié)果如圖8所示,模型檢測精度如表1所示。由圖8可知:設(shè)計(jì)的模型可以有效地檢測出發(fā)動(dòng)機(jī)活塞缸內(nèi)的螺栓、螺母等異物。由表1可知:只采用原始YOLOv8s模型的檢測精度為67.11%;在原始YOLOv8s的基礎(chǔ)上至引入一個(gè)模塊時(shí),平均精度mAP0.5分別提高了3.78%、2.50%、3.20%,當(dāng)引入2個(gè)模塊時(shí),平均精度分別提高了12.37%、11.28%、13.74%;當(dāng)引入3個(gè)模塊時(shí),平均精度提高了21.65%,表明設(shè)計(jì)的檢測模型相對于原始YOLOv8s模型具有較好的異物檢測性能。

        綜上所述,在原始YOLOv8s基礎(chǔ)上引入CoA_C2f、CAM和TA模塊后均能有效提高模型的檢測精度,且CoA_C2f、CAM和TA模塊能夠相互耦合,進(jìn)一步提高模型的檢測精度。

        3 結(jié)論

        為解決依靠人眼檢測發(fā)動(dòng)機(jī)缸內(nèi)異物時(shí)的漏檢和誤檢等問題,設(shè)計(jì)基于改進(jìn)YOLOv8的發(fā)動(dòng)機(jī)缸內(nèi)異物檢測算法。在原始YOLOv8的基礎(chǔ)上,重構(gòu)骨干網(wǎng)絡(luò),改進(jìn)特征融合方式,引入Triplet Attention模塊;通過人工拍照建立缸內(nèi)異物檢測數(shù)據(jù)集。在發(fā)動(dòng)機(jī)缸內(nèi)異物檢測數(shù)據(jù)集上的試驗(yàn)結(jié)果表明:設(shè)計(jì)的發(fā)動(dòng)機(jī)缸內(nèi)異物檢測模型可有效識別缸內(nèi)異物,且引入CoA_C2f、CAM和Triplet Attention 3個(gè)模塊后的缸內(nèi)異物平均檢測精度提高了21.65%。

        參考文獻(xiàn):

        [1] JIAN C, GAO J, AO Y.Automatic surface defect detection for mobile phone screen glass based on machine vision[J].Applied Soft Computing, 2017, 52: 348-358.

        [2] "HE Z, LIU Q.Deep regression neural network for industrial surface defect detection[J].IEEE Access, 2020, 8: 35583-35591.

        [3] "LIU Y,XIAO H,XU J,et al.A rail surface defect detection method based on pyramid feature and lightweight convolutional neural network[J].IEEE Transactions on Instrumentation and Measurement, 2022, 71:1-10.

        [4] SINGH S A,DESAI K A.Automated surface defect detection framework using machine vision and convolutional neural networks[J].Journal of Intelligent Manufacturing, 2023, 34(4): 1995-2011.

        [5] GIRSHICK R,DONAHUE J, DARRELL T, et al.Rich feature hierarchies for accurate object detection and semantic segmentation[C]// Proceedings of 2014 27th IEEE Conference on Computer Vision and Pattern Recognition.Columbus,USA: IEEE 2014: 580-587.

        [6] ALRUWAILI M," SIDDIQI M H, ATTA M N, et al. Deep learning and ubiquitous systems for disabled people detection using YOLO models[J].Computers in human behavior,2024,154:1-13.

        [7] REN S, HE K, GIRSHICK R, et al.Faster R-CNN: towards real-time object detection with region proposal networks[J].IEEE Transactions on Pattern Analysis amp; Machine Intelligence, 2017, 39(6):1137-1149.

        [8] LIU W, ANGUELOV D, ERHAN D, et al. SSD: Single shot multibox detector[C]//Proceedings of Computer Vision-ECCV 2016.Berlin,Germany:Springer, 2016:21-37.

        [9] FU C Y, LIU W, RANGA A, et al. DSSD: Deconvolutional single shot detector[EB/OL].(2017-06-23)[2023-08-22].https://arxiv.org/abs/1701.06659 2017:1701.06659.

        [10] LI Z, ZHOU F. FSSD: feature fusion single shot multibox detector[EB/OL].(2017-11-04)[2023-09-18].https://arxiv.org /abs/1712.00960v1.

        [11] REDMON J,DIVVALA S,GIRSHICK R,et al.You only look once: unified, real-time object detection[C]// Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition.Las Vegas, USA: IEEE, 2016: 779-788.

        [12] REDMON J, FARHADI A. YOLO9000: better, faster, stronger[J].IEEE, 2017:6517-6525.

        [13] REDMON J, FARHADI A. YOLOv3: an incremental improvement[EB/OL].(2018-04-05)[2018-09-30].https://arxiv.org/ pdf/1804.02767.pdf.

        [14] BOCHKOVSKIY A, WANG C Y, LIAO H Y M. YOLOV4: optimal speed and accuracy of object detection [EB/OL].(2020-04-23)[2023-01-26].https://zhuanlan.zhihu.com/p/520922132.

        [15] LI C, LI L, JIANG H, et al.YOLOv6: a single-stage object detection framework for industrial applications[EB/OL].(2022-10-23)[2023-03-05].https://ar5iv.labs.arxiv.org/html/2209.02976.

        [16] WANG C Y, BOCHKOVSKIY A, LIAO H. YOLOv7: trainable bag-of-freebies sets new state-of-the-art for real time object detectors[EB/OL].(2022-06-06)[2023-03-05].https://arxiv.org/abs/2207.02696.

        [17] HU J, SHEN L, A LBANIE S. Squeeze-and-excitation networks[J].IEEE CVF Conference on Computer Vision and Pattern Recognition ,2017: 7132-7141.

        [18] ZHANG T. GBH-YOLOv5: Ghost convolution with Bottleneck CSP and tiny target prediction head incorporating YOLOv5 for PV panel defect detection[J].Electronics, 2023, 12(3): 561-576.

        [19] LIU D, LIANG J, GENG T, et al. Tripartite feature enhanced pyramid network for dense prediction[J].IEEE Transactions on Image Processing, 2023,32:3272826.

        [20] LOU H, DUAN X, GUO J, et al. DC-YOLOv8: small size object detection algorithm based on camera sensor[J].Electronics, 2023,12(10):172-173.

        [21] 程松,楊洪剛,徐學(xué)謙,等.基于 YOLOv5的改進(jìn)輕量型X射線鋁合金焊縫缺陷檢測算法[J].中國激光,2022,49(21):136-144.

        [22] MISRA D, NALAMADA T, ARASANIPALAI A U, et al.Rotate to attend: convolutional triplet attention module[C]// Proceedings of the IEEE/CVF winter conference on applications of computer vision.New York, USA: IEEE, 2021:3139-3148.

        [23] 付錦燚,張自嘉,孫偉,等.改進(jìn)YOLOv8的航拍圖像小目標(biāo)檢測算法[J].計(jì)算機(jī)工程與應(yīng)用,2024,60(6):100-109.

        Design and application of the foreign object detection algorithm for

        engine cylinder based on YOLOv8

        FANG Yuntao, LI Shuang, HAN Xiaoqin, ZHAI Qiang, ZHUANG Shunxu,

        QI Wei, SONG Lijuan

        Weichai Power Co., Ltd., Weifang 261061, China

        Abstract:To solve the problems of missed and 1 detection when detecting foreign objects in engine cylinders by manual testing, an engine cylinder foreign object detection algorithm based on the improved object detection algorithm YOLOv8 is designed and experimentally verified. Based on the attention mechanism in CoTNet, a Contextual Attention module and reconstruct the Bottleneck structure in C2f, named CoA_C2f, are designed to replace the C2f module in the YOLOv8 backbone network. In the Neck section of the model, the continuously upsampled feature map Concat module is replaced with the context aggregation module CAM. Triplet Attention module is embed between Neck and Head. The experimental results show that the designed engine cylinder foreign object detection model can effectively identify foreign objects in the cylinder, and the average detection accuracy is improved by 21.65% after introducing CoA_C2f, CAM, and Triplet Attention modules on the basis of the original YOLOv8s.

        Keywords:improved YOLOv8 algorithm;target detection;machine vision;foreign object detection

        (責(zé)任編輯:臧發(fā)業(yè))

        猜你喜歡
        機(jī)器視覺
        基于芯片點(diǎn)膠系統(tǒng)的視覺檢測技術(shù)研究
        全自動(dòng)模擬目標(biāo)搜救系統(tǒng)的設(shè)計(jì)與實(shí)現(xiàn)
        基于機(jī)器視覺的自動(dòng)澆注機(jī)控制系統(tǒng)的研究
        科技視界(2016年26期)2016-12-17 17:31:58
        機(jī)器視覺技術(shù)的發(fā)展及其應(yīng)用
        科技視界(2016年25期)2016-11-25 19:53:52
        視覺拉線檢測器的設(shè)計(jì)與實(shí)現(xiàn)
        科技視界(2016年25期)2016-11-25 09:27:34
        大場景三維激光掃描儀在研究生實(shí)踐教學(xué)培養(yǎng)中的應(yīng)用
        基于機(jī)器視覺的工件鋸片缺陷檢測系統(tǒng)設(shè)計(jì)
        軟件工程(2016年8期)2016-10-25 15:55:22
        基于機(jī)器視覺技術(shù)的動(dòng)態(tài)“白帶”常規(guī)檢測系統(tǒng)的開發(fā)
        科技視界(2016年20期)2016-09-29 11:11:40
        對激光切割機(jī)的改進(jìn)
        科技視界(2016年6期)2016-07-12 09:12:40
        人工智能在高校圖書館的預(yù)期
        科技視界(2016年15期)2016-06-30 19:03:30
        日韩av在线手机免费观看| 精品国产国产AV一区二区| 久久精品国产88久久综合| 一道本加勒比在线观看| 亚洲av福利天堂一区二区三 | 亚洲高清有码在线观看| 青青草好吊色在线视频| 18禁止进入1000部高潮网站| 中年熟妇的大黑p| 婷婷色综合成人成人网小说| 日韩精品一区二区三区免费观影| 麻豆精品国产专区在线观看| 女人被男人躁得好爽免费视频| 国产精品视频久久久久| 久久婷婷夜色精品国产| 精品厕所偷拍一区二区视频| 国产乱人视频在线播放| 亚洲欧美日韩国产一区二区精品| 91久久国产精品综合| 内射白浆一区二区在线观看| 国产成人无码一区二区在线观看 | 少妇激情一区二区三区| 韩国av一区二区三区不卡| 污污内射在线观看一区二区少妇| 超碰Av一区=区三区| 久久久免费精品国产色夜| 亚洲αv在线精品糸列| 欧美不卡视频一区发布| 一区二区三区国产高潮| 色和尚色视频在线看网站| 乱子伦在线观看| 在线视频制服丝袜中文字幕| 又爽又猛又大又湿的视频| 欧美老妇牲交videos| 亚洲五月天综合| 538亚洲欧美国产日韩在线精品 | 亚洲日韩v无码中文字幕| 色婷婷狠狠97成为人免费 | 人人澡人人妻人人爽人人蜜桃麻豆 | 我爱我色成人网| 亚洲熟妇色xxxxx欧美老妇|