亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于深度學(xué)習(xí)的先進(jìn)陶瓷零件實(shí)時(shí)缺陷檢測(cè)系統(tǒng)

        2021-11-10 09:09:48馬晨凱吳毅慧傅華奇
        關(guān)鍵詞:分類檢測(cè)模型

        馬晨凱,吳毅慧,傅華奇,業(yè) 寧

        (1.南京林業(yè)大學(xué)信息科學(xué)技術(shù)學(xué)院,南京 210037;2.南京林業(yè)大學(xué)汽車與交通工程學(xué)院,南京 210037;3.黑龍江工程學(xué)院電氣與信息工程學(xué)院,哈爾濱 150050)

        先進(jìn)陶瓷采用新型制備工藝制成,含有先進(jìn)陶瓷的整體產(chǎn)品具有安全性、絕緣性、隔熱性和穩(wěn)定性的優(yōu)異性能,被廣泛應(yīng)用于航天、機(jī)械、電子和化工等高精度領(lǐng)域。根據(jù)市場(chǎng)研究機(jī)構(gòu)Research and Markets 的預(yù)測(cè)[1],全球先進(jìn)陶瓷市場(chǎng)規(guī)模到2021 年將超過(guò)1 000 億美元,在國(guó)內(nèi)先進(jìn)陶瓷中僅1 個(gè)品種的氧化鋁陶瓷配件就達(dá)到了15 億件的使用量。由于需求量龐大,提升先進(jìn)陶瓷正品率將極大地提高經(jīng)濟(jì)效益。為進(jìn)一步降低先進(jìn)陶瓷的次品數(shù)量,保證高精度產(chǎn)品的安全性,需要尋找能夠更準(zhǔn)確地對(duì)先進(jìn)陶瓷零件的成品進(jìn)行判斷的方法。目前生產(chǎn)企業(yè)主要采用傳統(tǒng)方式對(duì)先進(jìn)陶瓷零件進(jìn)行成品判斷,包括純機(jī)械尺寸過(guò)濾和人工判斷兩種檢驗(yàn)方式,但這些方式都存在成本高、失誤率高和損壞率高等問(wèn)題。例如采用機(jī)械篩選時(shí)僅能篩除出尺寸不合格的零件而無(wú)法將存在破損的先進(jìn)陶瓷零件一同篩除,還需要進(jìn)一步采用人工篩除,不僅增加了成本,也存在一定程度的遺漏和損壞。

        隨著人工智能技術(shù)的發(fā)展,零件檢測(cè)已經(jīng)逐漸從依靠純機(jī)械方式發(fā)展為利用計(jì)算機(jī)圖像自動(dòng)識(shí)別[2]。柳云鶴等提出了基于遺傳算法匹配訓(xùn)練實(shí)際機(jī)械零件圖像樣本,使用K 近鄰(K?nearest neighbor,KNN)分類器對(duì)其進(jìn)行分類,不需要大量圖像樣本,并有著較高的識(shí)別率[3]??镞d君等利用了HU 不變矩和仿射不變矩,提取了機(jī)械零件圖像的組合矩特征,并應(yīng)用支持向量機(jī)對(duì)零件分類,該方法無(wú)需大量樣本,具有很好的泛化能力[4]。岳曉峰等使用粒子群算法改進(jìn)徑向基函數(shù)神經(jīng)網(wǎng)絡(luò),避免了網(wǎng)絡(luò)結(jié)構(gòu)和參數(shù)選取不當(dāng)時(shí)出現(xiàn)其收斂慢甚至無(wú)法收斂的情況,使得分類的成功率得到很大提高[5]。Hinton 等首次使用深層卷積神經(jīng)網(wǎng)絡(luò)AlexNet 分類大規(guī)模圖像[6]。Girshick 等提出了R?CNN(Region convolutional neural network),并在目標(biāo)檢測(cè)上運(yùn)用了該方法[7],隨后的Fast R?CNN[8]和Faster R?CNN[9]也極大地提高了檢測(cè)效率。YOLO 基于單獨(dú)的End to end 網(wǎng)絡(luò)將目標(biāo)檢測(cè)轉(zhuǎn)化為回歸問(wèn)題,合并了候選區(qū)和對(duì)象識(shí)別,在不遺失準(zhǔn)確率的同時(shí)進(jìn)一步提高了檢測(cè)速度[10]。

        先進(jìn)陶瓷零件外形有很多種,有內(nèi)圓外六邊形的螺母狀、存在多凹槽的不規(guī)則條狀以及中心至底面以長(zhǎng)方體挖空的棱柱狀等。本文選擇的先進(jìn)陶瓷樣本外形是由上下兩個(gè)空心圓柱組成,其中上半部分空心圓柱內(nèi)徑比下半部分空心圓柱外徑稍小,下半部分內(nèi)、外徑差為上半部分內(nèi)、外徑差的2~3 倍。

        在實(shí)際生產(chǎn)中,先進(jìn)陶瓷零件的篩選對(duì)邊框標(biāo)注的精度要求不高,但是對(duì)識(shí)別速度和準(zhǔn)確性有很高的要求。本文提出了一種多目標(biāo)實(shí)時(shí)檢測(cè)分類模型(Multi?object real?time defect detection and classification model,MRDC),利用優(yōu)化后的灰度圖轉(zhuǎn)換算法對(duì)圖像先期處理,采用SKNet 模塊進(jìn)行特征重構(gòu),并使用了基于Darknet?53 網(wǎng)絡(luò)的YO?LOv3[11]對(duì)圖像全局信息進(jìn)行評(píng)估,經(jīng)過(guò)多次訓(xùn)練后可以準(zhǔn)確地檢測(cè)先進(jìn)陶瓷零件的位置并判斷其是否為成品。

        本文率先使用基于深度學(xué)習(xí)的人工智能技術(shù)識(shí)別分類先進(jìn)陶瓷零件,在極大地提高了速度與準(zhǔn)確率的同時(shí)實(shí)現(xiàn)了無(wú)接觸分類,避免了目標(biāo)檢測(cè)與分類過(guò)程中可能對(duì)先進(jìn)陶瓷零件造成的損傷。

        1 背景知識(shí)

        1.1 YOLO 算法原理

        準(zhǔn)確度和速度直接決定了目標(biāo)檢測(cè)模型的優(yōu)劣[12],隨著研究的不斷深入,深度卷積神經(jīng)網(wǎng)絡(luò)在精度上有著很大的提升[13],F(xiàn)aster R?CNN 等算法可以在識(shí)別前選出可能存在目標(biāo)的候選區(qū),在檢測(cè)精確度和分類準(zhǔn)確率上表現(xiàn)極佳,但是效率過(guò)低[14]。YOLO 不使用候選區(qū),所以目標(biāo)檢測(cè)速度快,泛化性能較好;其輸入一般選擇416像素×416像素和RGB 三通道圖像,經(jīng)過(guò)CNN 神經(jīng)網(wǎng)絡(luò)的變換將得到1 個(gè)7×7×30 的張量,即49 個(gè)30維的向量,其中存放了2 個(gè)Bounding box 的位置、2 個(gè)Bounding box 的置信度以及各個(gè)對(duì)象的概率。其中Bounding box 的置信度為

        損失實(shí)為經(jīng)過(guò)神經(jīng)網(wǎng)絡(luò)訓(xùn)練后的輸出值與實(shí)際的標(biāo)簽值之間的偏差。YOLO 的損失函數(shù)一般使用以上兩者誤差的平方和作為樣本的整體誤差,包括邊框中心點(diǎn)誤差、邊框高度與寬度誤差、邊框內(nèi)有無(wú)對(duì)象時(shí)的置信度誤差以及各個(gè)對(duì)象的分類誤差[15],一般與30 維向量中的一部分相對(duì)應(yīng),即

        YOLOv1 簡(jiǎn)單地將圖片劃分為49 個(gè)網(wǎng)格,但是這樣會(huì)導(dǎo)致每個(gè)網(wǎng)格生成的Bounding box 較少,從而使其在鄰近目標(biāo)和小目標(biāo)的檢測(cè)中表現(xiàn)較差。此外YOLOv1 還會(huì)有更多的定位誤差,往往最后目標(biāo)框選的精度并不高[16]。

        1.2 YOLOv3 算法

        YOLOv3 在YOLOv1 的基礎(chǔ)上基于殘差網(wǎng)絡(luò)Resnet[17]搭建了有53 個(gè)卷積層的Darknet?53 網(wǎng)絡(luò)以用于特征提取工作,此網(wǎng)絡(luò)的組成部分為一系列尺度為1×1 和3×3 的卷積層[18],CBR 模塊作為YOLOv3 的基本組件之一可分為CBR_1 和CBR_3,對(duì)應(yīng)著上述1×1 和3×3 的卷積核尺寸[19]。Resnet 思想具體體現(xiàn)為建立Residual 殘差模塊,即在一些層之間設(shè)置快捷鏈路,并將快捷鏈路與2 個(gè)卷積層組成1 個(gè)殘差組件,如圖1 所示,其中F(x)為殘差函數(shù),K(x)為經(jīng)殘差網(wǎng)絡(luò)處理后的輸出值,x為輸入值。

        圖1 殘差網(wǎng)絡(luò)結(jié)構(gòu)圖Fig.1 Structural diagram of residual network

        則殘差網(wǎng)絡(luò)函數(shù)可表示為

        YOLOv3 將輸入圖像映射到3 個(gè)尺度的輸出張量,如果輸入為416像素×416像素、RGB 三通道圖像,一般3 種尺度分別為13×13、26×26、52×52,那么總共具有13×13×3+26×26×3+52×52×3=10 647 個(gè)預(yù)測(cè)。在每個(gè)預(yù)測(cè)中,對(duì)象存儲(chǔ)在其中的80 維,邊框坐標(biāo)與置信度分別存儲(chǔ)在其中的4 維和1 維,共80+4+1=85 維,如圖2 所示。

        圖2 YOLOv3 目標(biāo)檢測(cè)流程Fig.2 YOLOv3 object detection process

        不同尺度的感受野大小不同,每個(gè)尺度通過(guò)K?means 聚類得到3 個(gè)先驗(yàn)框,以COCO 數(shù)據(jù)集為例,9 個(gè)先驗(yàn)框的具體尺寸如表1 所示。

        表1 感受野尺寸表Table 1 Receptive field size

        YOLOv3 同樣用ReLU 作為激活函數(shù),輸入圖像經(jīng)過(guò)5 次步長(zhǎng)為2 的卷積層進(jìn)行下采樣,提升了平均精確率均值(Mean average precision,mAP),并且一定程度上解決了YOLOv1 在小物體檢測(cè)中表現(xiàn)較差的問(wèn)題。

        在邊界框的預(yù)測(cè)上,YOLOv3 采用Adam 優(yōu)化器,預(yù)測(cè)對(duì)象類別采用單獨(dú)的Logistic 分類器取代傳統(tǒng)的Softmax 分類器[20],支持多標(biāo)簽對(duì)象同時(shí)預(yù)測(cè)框的類別、置信度和預(yù)測(cè)框。當(dāng)物體的中心存在對(duì)應(yīng)的網(wǎng)格時(shí),就利用其對(duì)物體進(jìn)行預(yù)測(cè)。

        如圖3 所示,先驗(yàn)框用藍(lán)色虛線表示,預(yù)測(cè)框用紅色實(shí)線表示,其中:Pw和Ph為先驗(yàn)框的寬和高;bw和bh為實(shí)際預(yù)測(cè)框的寬和高。若從中心點(diǎn)至網(wǎng)格最近的橫坐標(biāo)距離為σ(tx),最近的縱坐標(biāo)距離為σ(ty),可以得到預(yù)測(cè)框表達(dá)式為

        圖3 預(yù)測(cè)框示意圖Fig.3 Prediction boxes indicate

        每個(gè)預(yù)測(cè)框使用非極大值抑制(Non?maxi?mum suppression,NMS)算法,即選取得分最高的輸出并將與其重疊的去掉,Ci存在于第j個(gè)Bound?ing box 的可能性如式(8)所示,其中Score 為各邊界框置信度下的條件概率。最后根據(jù)特征圖與原圖的映射關(guān)系在原圖上輸出預(yù)測(cè)框,從而實(shí)現(xiàn)對(duì)先進(jìn)陶瓷零件的定位。

        2 多目標(biāo)實(shí)時(shí)檢測(cè)分類模型

        本文提出一種效率與準(zhǔn)確性較高的多目標(biāo)實(shí)時(shí)檢測(cè)分類模型MRDC。該模型在上述YOLOv3算法的基礎(chǔ)上添加了SKNet(Selective kernel net?work)注意力機(jī)制,并結(jié)合灰度圖轉(zhuǎn)化算法的思想,采用跳幀追蹤檢測(cè)。因此,MRDC 模型在繼承YOLOv3 高速準(zhǔn)確特點(diǎn)的同時(shí)可在視頻目標(biāo)檢測(cè)與分類中進(jìn)一步提升效率。

        2.1 灰度圖轉(zhuǎn)化算法優(yōu)化

        一般使用的樣本均為sRGB 空間圖像,將圖像轉(zhuǎn)為灰度圖有多種算法,例如:直接將RGB 求和取均值(式(9)),Photoshop 中經(jīng)典的Adobe RGB(式(10)),經(jīng)典的非線性空間心理學(xué)灰度圖轉(zhuǎn)化公式(式(11))[21]。

        式中:R,G,B取值為0~255 之間的整數(shù),分別代表紅色、綠色和藍(lán)色的顏色成分;Grey 為灰度值。

        本文在式(11)算法的基礎(chǔ)上進(jìn)行優(yōu)化。在實(shí)際訓(xùn)練和識(shí)別中,因式(11)需要進(jìn)行大量的浮點(diǎn)數(shù)運(yùn)算導(dǎo)致其效率大幅度降低。因此,本文將其放大100 倍并使用移位代替除法,然后采用去尾法近似。由式(12~14)結(jié)果可得到式(15)的各項(xiàng)參數(shù)。在16 位運(yùn)算下,7 位精度的式(15)比式(11)精度更高,運(yùn)算速度更快。

        為進(jìn)一步提高效率,MRDC 模型采用式(15)對(duì)圖像進(jìn)行先期快速灰度圖轉(zhuǎn)化。

        2.2 基于SKNet 的特征重構(gòu)

        SKNet 為輕量的網(wǎng)絡(luò)結(jié)構(gòu)[22],使用非線性方法使得感受野的尺寸根據(jù)激勵(lì)因素自動(dòng)變化,可達(dá)到隨著輸入尺度的不同自動(dòng)地調(diào)整接受區(qū)域大小的目的。

        大量使用殘差網(wǎng)絡(luò)的YOLOv3 未使用Dark?net?53 的全連接層,如圖4 所示,在主干網(wǎng)絡(luò)3 個(gè)尺度的輸出端后分別加入SK 注意力機(jī)制模塊,重新賦予權(quán)重以實(shí)現(xiàn)特征重構(gòu)。

        圖4 SKNet 特征重構(gòu)圖Fig.4 SKNet feature reconstruction

        2.3 MRDC 模型設(shè)計(jì)

        結(jié)合對(duì)灰度圖轉(zhuǎn)化算法的優(yōu)化,基于SKNet的特征重構(gòu)與跳幀追蹤檢測(cè)算法,MRDC 模型可在YOLOv3 的基礎(chǔ)上進(jìn)一步提高準(zhǔn)確率。模型步驟如下:

        (1)采用優(yōu)化后的灰度圖轉(zhuǎn)化算法對(duì)原始樣本數(shù)據(jù)進(jìn)行維數(shù)約減。

        (2)自動(dòng)判斷是否需要進(jìn)行歸一化處理。為了適配更多的數(shù)據(jù)集,使MRDC 模型有更好的擴(kuò)展性,當(dāng)數(shù)據(jù)集尺寸不一致時(shí)對(duì)其進(jìn)行歸一化處理。

        (3)采用加入注意力機(jī)制后的YOLOv3 算法對(duì)處理后的數(shù)據(jù)進(jìn)行訓(xùn)練,利用SKNet 進(jìn)行特征重構(gòu),在實(shí)驗(yàn)中調(diào)整各項(xiàng)參數(shù)以得到最小損失的模型并進(jìn)行預(yù)測(cè),在經(jīng)過(guò)非極大值抑制后得到預(yù)測(cè)結(jié)果,整體流程如圖5 所示。

        圖5 模型訓(xùn)練與預(yù)測(cè)流程圖Fig.5 Model training and prediction process

        (4)對(duì)視頻進(jìn)行預(yù)測(cè)時(shí),每5 幀取其中的第1幀,在對(duì)取到的第1 幀預(yù)測(cè)前,將其從BGR 格式轉(zhuǎn)為灰度圖,然后使用訓(xùn)練得到的模型進(jìn)行預(yù)測(cè)。

        (5)為保持預(yù)測(cè)結(jié)果并實(shí)現(xiàn)追蹤目標(biāo),對(duì)其中第1 幀預(yù)測(cè)得到的預(yù)測(cè)框坐標(biāo)(xul,yul)、(xdr,ydr)與先進(jìn)陶瓷零件在兩幀之間平移的像素Δx進(jìn)行計(jì)算,如式(18~19)所示,當(dāng)n=4 時(shí)可分別得到另外4 幀的框選坐標(biāo)(x'ul,y'ul)、(x'dr,y'dr)。

        將每一幀視頻重新拼接得到輸出視頻,預(yù)測(cè)視頻具體流程如圖6 所示。

        圖6 視頻預(yù)測(cè)流程圖Fig.6 Video forecasting process

        3 實(shí)驗(yàn)過(guò)程和結(jié)果

        基于YOLOv3 與SKNet 注意力機(jī)制的MRDC模型使用Python 語(yǔ)言,并利用Keras 框架搭建了Darknet?53 網(wǎng)絡(luò);硬件為處理器i7?9700K、內(nèi)存16 GB 和顯卡NVIDIA RTX 2070 Super;操作系統(tǒng)為Ubuntu 16.04 LTS。

        3.1 實(shí)驗(yàn)準(zhǔn)備

        受齊齊哈爾市某特種陶瓷廠委托,采用MRDC 模型解決實(shí)際先進(jìn)陶瓷零件生產(chǎn)中的無(wú)接觸篩選問(wèn)題。但在其目標(biāo)檢測(cè)分類的研究中,未發(fā)現(xiàn)公開(kāi)數(shù)據(jù)集。

        3.1.1 圖像數(shù)據(jù)集建立

        多批次運(yùn)用數(shù)碼設(shè)備采集數(shù)據(jù),每次得到1 000 張900像素×900 像素的數(shù)量在1~9 之間不等、位置散亂的先進(jìn)陶瓷零件圖,并將其制作為數(shù)據(jù)集,圖例如圖7 所示。

        圖7 數(shù)據(jù)集示例圖Fig.7 Sample data set diagram

        使用開(kāi)源工具labelImg 將圖片中的每個(gè)零件位置進(jìn)行標(biāo)注并設(shè)定分類,在全部標(biāo)注后可得到包含了對(duì)象的位置和分類的1 000 個(gè)XML 格式的標(biāo)注文件,最終得到先進(jìn)陶瓷零件目標(biāo)檢測(cè)分類數(shù)據(jù)集。

        3.1.2 視頻采集

        采集得到數(shù)段寬高比為900像素×900像素、格式為mp4 的視頻,用于實(shí)時(shí)測(cè)試模型效果。為逐列展示視頻中的零件,每隔25~35 幀對(duì)視頻進(jìn)行截圖,如圖8 所示,后1 張截圖的第1、2 列零件與前1 張截圖的2、3 列零件相同。

        圖8 視頻示例圖Fig.8 Video examples

        使用Cisco 公司發(fā)布的開(kāi)源H.264 編碼器Openh264 對(duì)視頻進(jìn)行編碼與解碼。從視頻截取的圖像均為BRG 格式,而訓(xùn)練所使用的樣本為灰度圖,使用在灰度圖樣本下訓(xùn)練得到的模型對(duì)視頻進(jìn)行目標(biāo)檢測(cè)與分類將直接導(dǎo)致準(zhǔn)確率大幅下降。因此需要將每1 幀圖像從BRG 格式快速轉(zhuǎn)化為灰度圖進(jìn)行目標(biāo)檢測(cè)和分類。

        3.2 數(shù)據(jù)預(yù)處理與SKNet 部署

        將每個(gè)數(shù)據(jù)標(biāo)注文件中存放的多個(gè)先進(jìn)陶瓷零件的位置信息與圖像中的先進(jìn)陶瓷零件一一對(duì)應(yīng),使用十次交叉驗(yàn)證方法將數(shù)據(jù)集分為10 份,并將其中的1 份作為測(cè)試集,剩下的9 份作為訓(xùn)練集。同時(shí)對(duì)數(shù)據(jù)使用隨機(jī)旋轉(zhuǎn)角度、隨機(jī)水平翻轉(zhuǎn)以及隨機(jī)裁剪等增強(qiáng)策略,讀取的bbox 生成對(duì)應(yīng)的3 種尺寸的存儲(chǔ)類別和真實(shí)框的中心寬高置信度的Label,F(xiàn)eed 之前將圖片Resize 為416 像素×416 像素,最后將其轉(zhuǎn)化為灰度圖輸入。

        在Darknet?53 的主干網(wǎng)絡(luò)后加入3 個(gè)SK 注意力機(jī)制模塊后得到使用SKNet 進(jìn)行特征重構(gòu)后的模型。分別對(duì)原始YOLOV3 模型和特征重構(gòu)后的模型進(jìn)行實(shí)驗(yàn),檢視兩次實(shí)驗(yàn)的Loss,比對(duì)實(shí)驗(yàn)所得mAP,判定進(jìn)行特征重構(gòu)對(duì)多目標(biāo)實(shí)時(shí)檢測(cè)分類模型的價(jià)值。

        3.3 模型訓(xùn)練與測(cè)試

        在訓(xùn)練前修改YOLOv3 的相關(guān)配置與參數(shù),設(shè)置學(xué)習(xí)率為0.000 1,當(dāng)Epoch 達(dá)到100 時(shí)結(jié)束訓(xùn)練,設(shè)置Batch_size 為4,使用10%的數(shù)據(jù)作為測(cè)試集。調(diào)整SKNet 的各項(xiàng)參數(shù),設(shè)置額外路徑數(shù)量SKNet_M 為2,每個(gè)路徑的基數(shù)SKNet_G 為32,F(xiàn)use 操作參數(shù)數(shù)量SKNet_r 為16,參數(shù)含義與數(shù)值如表2 所示。

        表2 部分實(shí)驗(yàn)參數(shù)表Table 2 Partial experimental parameters

        3.4 實(shí)驗(yàn)結(jié)果

        學(xué)習(xí)率Learning rate 直接影響模型訓(xùn)練結(jié)果,若學(xué)習(xí)率過(guò)高會(huì)導(dǎo)致無(wú)法優(yōu)化,而學(xué)習(xí)率過(guò)小易導(dǎo)致優(yōu)化過(guò)慢,出現(xiàn)掉入局部最優(yōu)的情況[23]。學(xué)習(xí)率設(shè)置為0.000 1,每次訓(xùn)練得到訓(xùn)練Loss 和驗(yàn)證Loss,經(jīng)過(guò)100 次訓(xùn)練后發(fā)現(xiàn)訓(xùn)練Loss 和驗(yàn)證Loss 都逐漸趨近于0,其中第88 次訓(xùn)練得出的模型效果較好,兩次訓(xùn)練得到的Loss 如圖9 所示。特征重構(gòu)后模型的部分訓(xùn)練結(jié)果如表3 所示。

        表3 損失值詳情表Table 3 Details of loss values

        圖9 損失函數(shù)曲線對(duì)比Fig.9 Loss function comparison

        在訓(xùn)練100 次后選擇損失較低的第88 次訓(xùn)練得到的模型,由于先進(jìn)陶瓷零件對(duì)框選的精度要求不高,但是對(duì)分類判斷的準(zhǔn)確性要求較高,所以精確率Precision 相比于召回率Recall 更有參考意義,但由于最后精確性較高,故以平均精確率均值mAP 值作為判斷標(biāo)準(zhǔn)。多批次采集圖像數(shù)據(jù),每次采集含多個(gè)陶瓷零件的圖像1 000 張作為數(shù)據(jù)集,經(jīng)過(guò)驗(yàn)證后得出原模型的mAP 值為97.57%,加入SKNet 特征重構(gòu)后模型的mAP 值為99.19%,這說(shuō)明本文模型很好地實(shí)現(xiàn)了對(duì)目標(biāo)的檢測(cè)與分類,兩種模型的平均精確率AP 值如圖10 所示。

        圖10 平均精確率Fig.10 Average precision

        使用數(shù)據(jù)集外的多個(gè)圖片樣本對(duì)模型進(jìn)行驗(yàn)證。測(cè)試后的結(jié)果表明,本文提出的MRDC 模型時(shí)間效率較高,可以準(zhǔn)確地對(duì)圖片樣本進(jìn)行目標(biāo)檢測(cè)與分類。隨機(jī)選擇1 個(gè)圖片樣本進(jìn)行可視化測(cè)試,保持硬件配置不變,經(jīng)過(guò)32 ms 左右得到如圖11 所示結(jié)果,8 個(gè)個(gè)體的坐標(biāo)均輸出正確,其本身被框選的位置無(wú)誤,分類準(zhǔn)確率為100%。

        圖11 圖片樣本可視化結(jié)果圖Fig.11 Visualization results of sample images

        使用視頻樣本對(duì)模型進(jìn)行驗(yàn)證。經(jīng)測(cè)試可知,MRDC 模型可以高效準(zhǔn)確地對(duì)視頻中出現(xiàn)的每一個(gè)先進(jìn)陶瓷零件進(jìn)行框選、分類和追蹤,可以保證每分鐘檢測(cè)450~550 個(gè)零件。每25~35 幀截取圖片,如圖12 所示,視頻中的先進(jìn)陶瓷零件位置標(biāo)記與分類準(zhǔn)確率為100%。

        圖12 視頻樣本可視化結(jié)果圖Fig.12 Visualization results of sample video

        4 結(jié)論

        本文針對(duì)先進(jìn)陶瓷零件無(wú)接觸檢測(cè)分類問(wèn)題,基于YOLOv3 算法與SKNet 注意力機(jī)制提出了多目標(biāo)實(shí)時(shí)檢測(cè)分類模型MRDC,可對(duì)先進(jìn)陶瓷零件圖像進(jìn)行快速灰度圖轉(zhuǎn)化,實(shí)時(shí)追蹤視頻中所有零件的位置并加以分類,克服了靠機(jī)械先期過(guò)濾加人工篩選方式成本高、準(zhǔn)確性低和零件損傷率高的問(wèn)題,可高效準(zhǔn)確地對(duì)大批量的先進(jìn)陶瓷零件進(jìn)行目標(biāo)檢測(cè)與成品判斷并可視化輸出。在測(cè)試中,平均精確率可達(dá)到99.19%;批量測(cè)試中,由生成的圖片樣本可視化結(jié)果圖和視頻樣本可視化結(jié)果圖可知零件標(biāo)注框位置準(zhǔn)確、追蹤及時(shí),因此MRDC 模型可以很好地投入生產(chǎn)實(shí)踐。下一步將繼續(xù)研究如何提高先進(jìn)陶瓷零件的平均精確率,以及在更復(fù)雜的視頻背景下檢測(cè)分類更多樣本的同時(shí)保證精確率,使得先進(jìn)陶瓷零件無(wú)接觸檢測(cè)分類可以更好地適用于更加復(fù)雜的大批量生產(chǎn)實(shí)踐中。同時(shí),也將基于現(xiàn)有的多目標(biāo)實(shí)時(shí)檢測(cè)分類模型進(jìn)一步優(yōu)化生產(chǎn)流水線,配置自動(dòng)分揀裝置,實(shí)現(xiàn)不合格零件的自動(dòng)剔除,改變實(shí)際生產(chǎn)現(xiàn)狀,達(dá)到在每條生產(chǎn)線上減少6 名分揀員的同時(shí)實(shí)現(xiàn)全天候24 h 自動(dòng)化生產(chǎn)的目的,這有助于更高效準(zhǔn)確地對(duì)次品零件進(jìn)行二次回收,節(jié)約成本,減少?gòu)U品產(chǎn)出,提高了經(jīng)濟(jì)效益的同時(shí)保護(hù)了環(huán)境,有助于先進(jìn)陶瓷產(chǎn)業(yè)的發(fā)展。

        猜你喜歡
        分類檢測(cè)模型
        一半模型
        “不等式”檢測(cè)題
        “一元一次不等式”檢測(cè)題
        “一元一次不等式組”檢測(cè)題
        分類算一算
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
        分類討論求坐標(biāo)
        數(shù)據(jù)分析中的分類討論
        教你一招:數(shù)的分類
        国产国语对白一区二区三区| 夜夜高潮夜夜爽国产伦精品| 国产成人久久精品一区二区三区| 亚洲成av人在线播放无码 | 肉色欧美久久久久久久免费看| 天下第二社区在线视频| 日产精品久久久久久久| 亚洲地区一区二区三区| 好看午夜一鲁一鲁一鲁| 国产一区二区三区探花| 日本精品免费看99久久| 欧洲美熟女乱av亚洲一区| 东北少妇不带套对白| 1000部夫妻午夜免费| 国产最新地址| 国产精品色内内在线播放| 国产精品女丝袜白丝袜美腿| 最新日本人妻中文字幕| 性无码免费一区二区三区在线| 久久国产精品二区99| 国产黄色一区二区福利| 亚洲乱码中文字幕在线| 国产精品毛片无遮挡| 国产真实夫妇视频| 人妻夜夜爽天天爽三区麻豆AV网站| 国产xxxxx在线观看免费| 极品粉嫩小仙女高潮喷水视频| 亚洲精品熟女av影院| 亚洲日韩精品a∨片无码加勒比| 国产一区二区内射最近更新 | 熟女少妇精品一区二区| 国产色a在线观看| 欧美日本视频一区| 内射爆草少妇精品视频| 在厨房被c到高潮a毛片奶水| 亚洲国产高清在线一区二区三区 | 亚洲天堂免费av在线观看| 日本亚洲视频免费在线看| 一二区成人影院电影网| 久久精品一区二区三区av| 无码成人片一区二区三区|