亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        密集采樣算法下的毛刺缸套外觀缺陷檢測

        2023-09-21 03:53:40肖成軍肖河曼王衛(wèi)華
        機(jī)械設(shè)計(jì)與制造 2023年9期
        關(guān)鍵詞:特征檢測

        張 立,肖成軍,肖河曼,王衛(wèi)華

        (廣東白云學(xué)院機(jī)電工程學(xué)院,廣東 廣州 510450)

        1 引言

        全鋁發(fā)動(dòng)機(jī)與鑄鐵發(fā)動(dòng)機(jī)相比,具有重量輕、油耗低等優(yōu)勢被廣泛應(yīng)用于家庭汽車,但鋁的耐磨性比較差,因此采用鋼制的活塞套鑲嵌在發(fā)動(dòng)機(jī)上,增大活塞與發(fā)動(dòng)機(jī)之間的耐磨性從而提高發(fā)動(dòng)機(jī)的使用壽命。毛刺缸套是一種表面具有高低不平的峰谷狀的毛刺[1-2],其表面質(zhì)量直接影響到與發(fā)動(dòng)機(jī)的結(jié)合力以及活塞套的散熱情況,進(jìn)而影響到發(fā)動(dòng)機(jī)的使用壽命。目前毛刺缸套外觀質(zhì)量檢測方式主要是人工檢測,人工檢測的方式有效率低、準(zhǔn)確度低、主觀性強(qiáng)等弊端。通過機(jī)械檢測裝置[3]只能獲得某一類外觀的缺陷,不能解決毛刺缸套外觀缺陷形式繁多的任務(wù),并且毛刺缸套外觀缺陷與缸套本體顏色相近,傳統(tǒng)的圖像處理算法[4-5]只能識別具有明顯特征的缺陷。

        2012年Geoffey Hition教授和他的團(tuán)隊(duì)設(shè)計(jì)的卷積神經(jīng)網(wǎng)絡(luò)AlexNet首次應(yīng)用在大型圖像處理任務(wù)中,在ImageNet數(shù)據(jù)集分類任務(wù)中取得冠軍,此后更加優(yōu)秀的網(wǎng)絡(luò)被不斷的提出,如谷歌團(tuán)隊(duì)的VGGNet、殘差網(wǎng)絡(luò)ResNet等分類網(wǎng)絡(luò)在公共數(shù)據(jù)集上的檢測精度不斷的提升。卷積神經(jīng)網(wǎng)絡(luò)的深度學(xué)習(xí)算法可以有效的避免圖像的亮度分布不均、形狀大小不一所帶來的影響,對目標(biāo)的識別有較好的魯棒性。2013年Ross B.Girshick等人提出基于卷積神經(jīng)網(wǎng)絡(luò)的目標(biāo)檢測算法R-CNN網(wǎng)絡(luò),作為二階檢測算法的開端,此后不斷的對其進(jìn)行改進(jìn),如Fast R-CNN、Faster RCNN 等算法不斷提升檢測精度和檢測速度。2016 年,Joseph Redmon、Ross Girshick 提出YOLO[11](You Only Look Once)算法,可以快速的檢測目標(biāo),此后對其不斷改進(jìn),有YOLOv2[12]、YOLOv3[13]等算法的提出,進(jìn)一步提升檢測精度和檢測速度,達(dá)到實(shí)時(shí)檢測的要求。其中YOLOv3算法在上述算法中具有較好的檢測精度和檢測速度,因此實(shí)驗(yàn)中選擇YOLOv3算法作為檢測缺陷的基礎(chǔ)算法。

        2 YOLOv3算法架構(gòu)及其改進(jìn)

        2.1 YOLO系列算法架構(gòu)

        YOLOv3 算法架構(gòu)是YOLO 算法的改進(jìn)版本,YOLOv3 算法具有較高的檢測速度和較高檢測精度。YOLO算法作為一階算法,與二階檢測算法不同之處在于是否需要對目標(biāo)的候選框進(jìn)行提取。一階檢測算法不需要提取候選框,二階檢測算法需要提取候選框進(jìn)行預(yù)測物體的邊界位置。YOLO算法基于回歸的思想,將一張輸入圖片分割成(7×7)網(wǎng)格,如圖1所示。每個(gè)網(wǎng)格預(yù)測兩個(gè)邊界框,檢測每個(gè)網(wǎng)格是否包含檢測目標(biāo),并且計(jì)算其屬于某一類別的置信度,如式(1)所示。對包含物體的網(wǎng)格進(jìn)行回歸計(jì)算,直接預(yù)測待檢測物體邊界框的位置。

        置信度式衡量網(wǎng)絡(luò)檢測缺陷時(shí),判別的類別概率的大小,如式(1)所示。

        式中:Pr(object)—網(wǎng)格包含待檢的目標(biāo)的概率,有目標(biāo)時(shí)概率為1,否則為0;IoU衡量預(yù)測邊框與實(shí)際邊框的重合度,其值越大則預(yù)測邊框的位置越準(zhǔn)確,其值越小則預(yù)測邊框的位置準(zhǔn)確度越差。IoU表示,如圖2所示。

        圖2 IoU示意圖Fig.2 IoU Schematic

        IoU計(jì)算,如式(2)所示。

        式中:Area3—Area1,Area2的交集。

        每個(gè)網(wǎng)格預(yù)測包含目標(biāo)的置信度以及4個(gè)坐標(biāo)值,分別為邊框中心坐標(biāo)以及寬、高。更新預(yù)測框位置參數(shù)和置信度參數(shù)時(shí)用總方誤差作為網(wǎng)絡(luò)訓(xùn)練的損失函數(shù)。反向傳播過程中損失函數(shù)貫穿整個(gè)網(wǎng)絡(luò),實(shí)現(xiàn)端對端的網(wǎng)絡(luò)訓(xùn)練,如式(3)所示。

        式中:S2—網(wǎng)格數(shù)目;B—單元格預(yù)測框的個(gè)數(shù);(xi,yi,wi,hi)—邊框?qū)嶋H坐標(biāo)預(yù)測邊框的坐標(biāo)。

        為了解決一個(gè)目標(biāo)被多個(gè)預(yù)測框標(biāo)記弊端,采用非極大值抑制機(jī)制(Non Maximum Suppression,NMS)。非極大值抑制可以很好的去除多余邊界框,保留效果最好的邊界框。由式(3)計(jì)算每個(gè)網(wǎng)格預(yù)測出邊界框的位置,由式(2)計(jì)算出兩個(gè)邊界框的IoU,保留置信度最高的邊界框,如圖3所示。通過NMS的計(jì)算,保留效果最好的邊界框,但是對于密集目標(biāo)的場景不適用,算法會(huì)濾除其中IoU的較大一些目標(biāo),導(dǎo)致檢測錯(cuò)誤。實(shí)驗(yàn)中使用soft-NMS代替NMS算法。

        圖3 NMS示意圖Fig.3 NMS Diagram

        2.2 YOLOv3算法

        YOLOv3算法是YOLO系列算法的第三個(gè)改進(jìn)的算法,該算法采用最新的特征提取網(wǎng)絡(luò)DarkNet-53作為特征提取網(wǎng)絡(luò),在特征層檢測的階段,結(jié)合不同特征層的語義信息,構(gòu)建了類似RPN[14]模型,融合不同層的特征,豐富該層的語義信息。YOLOv3算法網(wǎng)絡(luò)結(jié)構(gòu),如圖4所示。

        圖4 YOLOv3網(wǎng)絡(luò)結(jié)構(gòu)圖Fig.4 YOLOv3 Network Structure Diagram

        YOLOv3網(wǎng)絡(luò)中的DarkNet-53在ImageNet數(shù)據(jù)集上的分類精度與ResNet-152和ResNet-101相比接近,但是運(yùn)算速度卻提升很多。算法使用步長為2的卷積代替池化,減少運(yùn)算參數(shù);為了增加對小目標(biāo)的檢測精度,采用類似FPN網(wǎng)絡(luò)的上采樣的特征融合,在多個(gè)尺度的特征層進(jìn)行檢測。

        通過聚類算法計(jì)算適合數(shù)據(jù)集的3種長寬比,每個(gè)網(wǎng)格預(yù)測3個(gè)邊界框;分類函數(shù)改為邏輯回歸(logistics)函數(shù),充分利用其連續(xù)性,如式(4)所示。

        式中:z—函數(shù)的預(yù)測值。

        通過對YOLO算法的骨架網(wǎng)絡(luò)進(jìn)行優(yōu)化和精細(xì)的調(diào)整訓(xùn)練過程,其中YOLOv3算法的檢測速度和檢測精度達(dá)到最優(yōu),與基于候選框選擇的檢測算法和SSD等算法進(jìn)行對比,YOLOv3算法的檢測速度和檢測精度均領(lǐng)先其他算法,因此實(shí)驗(yàn)選擇YOLOv3算法作為毛刺缸套外觀檢測的方案。

        3 YOLOv3算法的改進(jìn)

        YOLOv3算法在通用數(shù)據(jù)集檢測精度和檢測速度均已達(dá)到較高的水準(zhǔn),但是對于毛刺缸套外觀缺陷不明顯的數(shù)據(jù)集實(shí)用性不強(qiáng),因此對YOLOv3算法的骨架網(wǎng)絡(luò)進(jìn)行改進(jìn),增加其對毛刺缸套數(shù)據(jù)集的適用性。

        3.1 增加密集采樣機(jī)制

        YOLOv3算法使用DarkNet-53網(wǎng)絡(luò)作為特征提取網(wǎng)絡(luò),以步長為2的卷積代替池化函數(shù),順序連接的卷積層之間會(huì)丟失一定數(shù)量的語義信息,而ResNet-152以及ResNet-101等算法利用跳躍連接提升網(wǎng)絡(luò)的檢測精度,因此在DarkNet-53網(wǎng)絡(luò)的基礎(chǔ)上采用多次跳躍連接,形成密集采樣結(jié)構(gòu)[7],如圖5所示。在不增加額外計(jì)算復(fù)雜度和參數(shù)的情況下有效解決反向傳播過程中深層網(wǎng)絡(luò)退化的問題,以此提升檢測精度。

        圖5 密集采樣連接機(jī)制Fig.5 Intensive Sampling Connection Mechanism

        跳躍連接和密集采樣機(jī)制計(jì)算,如式(5)、式(6)所示。跳躍連接每次只連接一層特征,不能充分利用距離較遠(yuǎn)的特征層,而密集采樣對該特征層之前的所有特征層進(jìn)行連接。對DarkNet-53進(jìn)行密集采樣后,將會(huì)大大增加網(wǎng)絡(luò)對特征層的復(fù)用率,學(xué)習(xí)更多的識別特征,網(wǎng)絡(luò)參數(shù)卻沒有大幅增加。密集采樣網(wǎng)絡(luò)反向傳播過程中,如式(6)所示。損失函數(shù)在優(yōu)化時(shí),因?yàn)檫B接其他特征層,公式中含有常數(shù)1,在深度網(wǎng)絡(luò)中避免發(fā)生梯度消失或者梯度爆炸的弊端。

        式中:xl—網(wǎng)絡(luò)第l層;Xl+1—xl層輸出;H()?—函數(shù)映射公式;J—損失函數(shù);W—權(quán)重矩陣。

        3.2 特征層的空間注意力機(jī)制

        卷積運(yùn)算是深度神經(jīng)網(wǎng)絡(luò)的核心運(yùn)算,每個(gè)卷積層包含多個(gè)卷積核,但是每個(gè)卷積核對于識別目標(biāo)提取的作用不同,因此需要賦予不同的學(xué)習(xí)權(quán)重,有利于加速網(wǎng)絡(luò)的收斂以及識別精度的提升。特征重標(biāo)定網(wǎng)絡(luò)(Squeeze-and-ExcitationNetworks,SENet),即空間注意力機(jī)制,可以有效的解決不同特征層之間的權(quán)重分配問題。不同于Inception 系列算法[8]、MobileNet等算法[9-10]采用多尺度卷積核,SENet學(xué)習(xí)各個(gè)特征層之間的權(quán)重關(guān)系。SENet網(wǎng)絡(luò)結(jié)構(gòu),如圖6所示。

        圖6 SENet結(jié)構(gòu)Fig.6 SENet Structure

        SENet網(wǎng)絡(luò)通過對每個(gè)二維特征層轉(zhuǎn)化為一個(gè)具有一定感受野的實(shí)數(shù),輸出通道數(shù)目保持不變,通過Excitation為每個(gè)通道賦予一定的權(quán)重,表征每個(gè)特征通道之間的相關(guān)性。

        3.3 改進(jìn)后的YOLOv3算法網(wǎng)絡(luò)結(jié)構(gòu)

        對DarkNet-53網(wǎng)絡(luò)進(jìn)行分塊處理,每一個(gè)塊內(nèi)部引入空間注意力機(jī)制,塊與塊之間進(jìn)行密集采樣連接。其中,塊DBL包含:卷積、歸一化、leaky-relu等函數(shù);D-N內(nèi)部包含殘差模塊、密集采樣、空間注意力等模塊的組合,數(shù)字N代表包含模塊的數(shù)量;上采樣主要還原特征層的尺寸,與上一層特征層的進(jìn)行融合,對改進(jìn)后的YOLOv3算法命名為Advance-YOLOv3。網(wǎng)絡(luò)結(jié)構(gòu),如圖7所示。

        圖7 Advance-YOLOv3算法結(jié)構(gòu)Fig.7 Structure of Advance-YOLOv3

        通過密集采樣以及增加空間注意力機(jī)制,空間復(fù)雜度略有增加,但是卻只有少量的參數(shù)增加即可帶來較高的收益。密集采樣機(jī)制通過重復(fù)利用數(shù)據(jù)的特征,可以減少網(wǎng)絡(luò)的深度。網(wǎng)絡(luò)使用Y1、Y2、Y3三個(gè)不同尺度的特征層進(jìn)行目標(biāo)檢測,不同大小的特征層對應(yīng)不同的感受野,通過多層次的檢測作為輸出,有利于提升對大小不同目標(biāo)檢測能力。

        4 實(shí)驗(yàn)訓(xùn)練與效果

        4.1 實(shí)驗(yàn)數(shù)據(jù)的處理

        為了減少網(wǎng)絡(luò)的過擬合現(xiàn)象,對數(shù)據(jù)集進(jìn)行擴(kuò)充,通過旋轉(zhuǎn)、鏡像等方式,使數(shù)據(jù)集由每類480張擴(kuò)增到2640張,對圖像進(jìn)行線性變化增加圖像的對比度,對數(shù)據(jù)集以7:2:1等比例劃分為訓(xùn)練集、測試集、驗(yàn)證集,所有數(shù)據(jù)集尺寸全部調(diào)整到(416×416)。

        4.2 實(shí)驗(yàn)平臺(tái)

        實(shí)驗(yàn)訓(xùn)練以及檢測均是在同樣的設(shè)備上進(jìn)行,具體參數(shù),如表1所示。

        表1 設(shè)備參數(shù)Tab.1 The Equipment Parameters

        4.3 網(wǎng)絡(luò)訓(xùn)練

        網(wǎng)絡(luò)首先在ImageNet數(shù)據(jù)集訓(xùn)練10個(gè)epoch,通過參數(shù)遷移學(xué)習(xí)保留了特征參數(shù)和結(jié)構(gòu),減少網(wǎng)絡(luò)訓(xùn)練時(shí)間;在優(yōu)化損失函數(shù)時(shí),對比隨機(jī)梯度下降算法、批量梯度下降算法、小批量梯度下降算法,綜合考慮數(shù)據(jù)集的大小與特點(diǎn),選擇小批量梯度下降算法作為優(yōu)化算法,每次在訓(xùn)練數(shù)據(jù)中抽取10至1000各樣本作為輸入,可以同時(shí)兼顧訓(xùn)練時(shí)間與訓(xùn)練精度。實(shí)驗(yàn)中的超參數(shù)設(shè)定:batch 為64,moment 為0.9,decay 為0.001,learning_rate 為0.001。設(shè)定以上超參數(shù),防止內(nèi)存溢出,最大效率的加快網(wǎng)絡(luò)的訓(xùn)練。

        4.4 實(shí)驗(yàn)結(jié)果與分析

        實(shí)驗(yàn)中訓(xùn)練106次,200 個(gè)epoch。在分類精度指標(biāo),對比ResNet、VGGNet、Advance-YOLOv3結(jié)果,如圖8所示。VGGNet19、ResNet、Advance-YOLOv3 算法的最高分類精度分別為76.2%、82.6%、83.7%,在夾渣、外圓孔洞等檢測目標(biāo)中,Advance-YOLOv3的精度要分別提升1.8 和2.3%%;在檢測指標(biāo)上,實(shí)驗(yàn)對比YOLOv3、Faster R-CNN、Advance-YOLOv3三種算法的檢測精度,檢測結(jié)果,如表2所示。

        表2 三種算法測試結(jié)果Tab.2 Three Kinds Algorithm of Test Results

        圖8 算法訓(xùn)練精度與測試精度Fig.8 Algorithms Training Accuracy and Test Accuracy

        由圖8可知,Advance-YOLOv3算法的平均測試精度和訓(xùn)練精度相對高于其他兩種算法。

        由表2可知,Advance-YOLOv3算法在均值精度和漏檢率等檢測指標(biāo)在內(nèi)壁空洞、涂料眼等小目標(biāo)缺陷的檢測精度優(yōu)于其他算法。

        由實(shí)驗(yàn)結(jié)果分析,實(shí)現(xiàn)目標(biāo)檢測任務(wù)需要提取待識別目標(biāo)的關(guān)鍵特征,毛刺缸套外觀缺陷位置與本體的灰度差較小,經(jīng)過多次的卷積提取特征后、池化后的卷積層,經(jīng)過可視化后發(fā)現(xiàn)本體與缺陷的灰度差越來越小,阻礙了網(wǎng)絡(luò)提取缺陷的邊緣、輪廓、顏色等特征信息。經(jīng)過密集連接和空間注意力機(jī)制的結(jié)合,降低網(wǎng)絡(luò)深度的同時(shí)增加對特征的提取,部分檢測結(jié)果,如圖9所示。

        圖9 檢測結(jié)果Fig.9 Test Results

        4.5 圖像處理

        由Advance-YOLOv3定位出缺陷區(qū)域,結(jié)合圖像處理算法進(jìn)行定量分析。通過閾值分割將缺陷位置與背景區(qū)域進(jìn)行分離,通過統(tǒng)計(jì)圖像中白色像素點(diǎn)的數(shù)目即可計(jì)算出缺陷區(qū)域面積大小,涂料眼和內(nèi)壁孔洞分割結(jié)果,如圖10所示。

        圖10 閾值分割Fig.10 Threshold Segmentation

        5 結(jié)語

        通過對毛刺缸套數(shù)據(jù)進(jìn)行分析,選擇YOLOv3 作為基礎(chǔ)算法。通過對比試驗(yàn)發(fā)現(xiàn),添加空間注意力模塊、密集采樣后的Advance-YOLOv3,相同數(shù)據(jù)集、實(shí)驗(yàn)設(shè)備等條件下Advance-YOLOv3算法的檢測精度提升4.4%,漏檢率減少7.5%。

        密集采樣機(jī)制大幅提升算法對圖像特征的利用率,結(jié)合多個(gè)跳躍連接,使相同深度的網(wǎng)絡(luò)模型可以提取更多的特征信息,并且空間注意力機(jī)制可以加速網(wǎng)絡(luò)的收斂和提升檢測精度,對不同通道層賦予大小不一的權(quán)重,使網(wǎng)絡(luò)著重訓(xùn)練權(quán)重較大的通道,提升網(wǎng)絡(luò)的訓(xùn)練效率,有效解決傳統(tǒng)圖像處理算法對光照的敏感性。

        猜你喜歡
        特征檢測
        抓住特征巧觀察
        “不等式”檢測題
        “一元一次不等式”檢測題
        “一元一次不等式組”檢測題
        “幾何圖形”檢測題
        “角”檢測題
        新型冠狀病毒及其流行病學(xué)特征認(rèn)識
        如何表達(dá)“特征”
        不忠誠的四個(gè)特征
        抓住特征巧觀察
        中文字幕一区二区三在线| 欧美国产精品久久久乱码| 亚洲一区中文字幕在线电影网| 久久午夜无码鲁丝片直播午夜精品| 中文字幕亚洲一区视频| 无码人妻丰满熟妇啪啪网不卡 | 海外华人在线免费观看| 波多野结衣爽到高潮大喷| 中文字幕无码无码专区| 亚洲欧洲无码精品ⅤA| 日本少妇熟女一区二区| 3d动漫精品啪啪一区二区免费| 一个人看的www免费视频中文| 亚洲成a人片77777kkkkk| 男男亚洲av无一区二区三区久久| 亚洲乱亚洲乱妇50p| 欧美日本亚洲国产一区二区| 日本中出熟女一区二区| 亚洲精品中文字幕一二三区| ā片在线观看免费观看| 在线观看精品国产福利片100| 久久青青草原一区网站| 国产无遮挡又黄又爽高潮| 日韩av无码成人无码免费| 久久久2019精品视频中文字幕| 日韩在线精品视频一区| 熟女少妇在线视频播放| 无夜精品久久久久久| 男女搞基视频免费网站| 一本精品99久久精品77| 青青青爽国产在线视频| 精品国产一区二区三广区| 四虎影在永久在线观看| 国产女女做受ⅹxx高潮| 亚洲中文字幕日产喷水| 在线视频色系中文字幕| 无码不卡av东京热毛片| 亚洲一区二区自拍偷拍| 91盗摄偷拍一区二区三区| 国产乱国产乱老熟300部视频| 国产午夜精品一区二区三区不|