亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        改進的YOLOv3網(wǎng)絡在鋼板表面缺陷檢測研究

        2020-08-19 10:42:30朱洪錦范洪輝周紅燕余光輝
        計算機工程與應用 2020年16期
        關(guān)鍵詞:網(wǎng)絡結(jié)構(gòu)特征提取卷積

        徐 鏹,朱洪錦,范洪輝,周紅燕,余光輝

        1.江蘇理工學院 機械工程學院,江蘇 常州 213001

        2.江蘇理工學院 計算機工程學院,江蘇 常州 213001

        1 引言

        隨著工業(yè)技術(shù)的發(fā)展,自動化缺陷檢測的研究越來越受到人們的重視。當鋼板或零件表面存在一些瑕疵和缺陷,如磨損、裂紋、碰傷、麻點、劃傷和變形等,將會導致機器使用過程中產(chǎn)生不正常的振動和噪聲,加快缺陷面與空氣接觸后進一步的氧化與磨損,嚴重時甚至會引起機器的損壞和一些事故性的人員傷亡情況。而傳統(tǒng)的人工裸眼檢測,存在勞動強度大、工作效率低、產(chǎn)品成本較高的問題,且容易受到檢測人員在員工素質(zhì)、檢測經(jīng)驗、肉眼分辨率和眼部易疲勞等諸多因素影響[1]。因此,許多人提出了各種檢測表面缺陷的方法,具體可以分為兩類:傳統(tǒng)機器視覺檢測法和深度學習檢測法。

        傳統(tǒng)機器視覺檢測法是先利用工業(yè)相機采集圖像,經(jīng)過傳統(tǒng)圖像方法處理后,再利用機器學習方法得到想要的結(jié)果。例如郭慧等人[2]提出了由計算機算法處理得到缺陷的特征樣本,再利用支持向量機(SVM)模型對鋼板表面缺陷進行類型識別。例如汪以歆等人[3]利用基于機器視覺的比對檢測算法,來檢測物體表面缺陷。這些方法的優(yōu)點是速度快,對特定缺陷精度高,但受光照和人為影響較大,對圖片特征提取能力弱,應用面小。

        近年來,國家鼓勵大力發(fā)展人工智能技術(shù),深度學習的一系列方法也被引入到表面缺陷檢測中。深度學習能夠通過卷積神經(jīng)網(wǎng)絡提取缺陷圖片的特征并進行學習,再將學習后的模型應用到相似缺陷的檢測中,精度高,速度快,且能夠適應不同類型的缺陷。比較流行的深度學習算法可以分為兩類:一類是Faster-RCNN[4]、Mask-RCNN[5]等基于區(qū)域的目標檢測算法,這類算法雖然精度高,但由于其將缺陷特征提取、缺陷區(qū)域建議網(wǎng)絡、缺陷邊界框回歸和缺陷分類整合在一個網(wǎng)絡中,導致速度很慢,實時性不能保證。另一類是SSD[6]、YOLO[7]等利用回歸思想直接標出目標所在圖片位置和類別的算法,這類算法很大程度上彌補了基于區(qū)域的算法,在速度上有很大的提升,精度上略微降低,有很大的應用前景。例如張廣世等人[8]采用密集連接網(wǎng)絡(DenseNet)結(jié)構(gòu)代替原有的網(wǎng)絡結(jié)構(gòu),提高特征提取能力,取得了不錯的缺陷檢測能力。

        本文也將使用深度學習的方法對鋼板表面缺陷進行檢測,對YOLOv3[9]整體網(wǎng)絡進行改進,使用輕量級MobileNet[10]網(wǎng)絡代替原有模型中的Darknet-53網(wǎng)絡,以減小網(wǎng)絡參數(shù)量;構(gòu)建齒輪缺陷數(shù)據(jù)集并進行數(shù)據(jù)增強以防止過擬合;加入空洞卷積來提高對于小尺寸缺陷的檢測能力;利用Inceptionv3[11]結(jié)構(gòu)增加網(wǎng)絡深度和寬度的同時減少參數(shù)。本文整體結(jié)構(gòu)分為以下四大部分:網(wǎng)絡原理介紹,網(wǎng)絡結(jié)構(gòu)改進,實驗結(jié)果分析和改進討論。

        2 YOLOv3網(wǎng)絡原理介紹

        YOLOv3[9]是基于 YOLO[7]和 YOLOv2[12]算法 改 進而來。

        YOLO網(wǎng)絡不同于Faster-RCNN[4]等網(wǎng)絡,而是將目標檢測問題轉(zhuǎn)化成邏輯回歸問題,將圖像分割成不同網(wǎng)格,每個網(wǎng)格負責相應的物體,使得支持多標簽對象在保持精度下,檢測速度更快。

        YOLOv3 采用了Darknet-53 的網(wǎng)絡結(jié)構(gòu)作為圖像特征提取主干網(wǎng)絡,它是借鑒殘差網(wǎng)絡ResNe(tResidual Network)[13]的做法,在層與層之間設(shè)置快捷鏈路,適當?shù)靥^卷積,解決了在逐步加深網(wǎng)絡時出現(xiàn)模型難以優(yōu)化的問題,這樣可以提取出更多圖像上的特征。YOLOv3摒棄了YOLOv2采用pass-through結(jié)構(gòu)來檢測細粒度特征,而使用特征金字塔(FPN)的多尺度檢測方法,結(jié)合殘差網(wǎng)絡將圖片轉(zhuǎn)化成三個不同尺度的特征圖來檢測大中小三類物體。YOLOv3的網(wǎng)絡結(jié)構(gòu)如圖1所示。

        圖1 YOLOv3網(wǎng)絡結(jié)構(gòu)圖

        由于越卷積圖像表征信息丟失越多,YOLOv3吸取了YOLOv2采用K-means聚類得到先驗框的尺寸,為每種下采樣尺度設(shè)定3 種先驗框,總共聚類出9 種尺寸的先驗框,分別為(10×13),(16×30),(33×23),(30×61),(62×45),(59×119),(116×90),(156×198),(373×326)。在最小的13×13特征圖Scale1上應用(116×90),(156×198),(373×326)檢測較大的物體。在中等26×26特征圖Scale2 上應用中等的先驗框(30×61),(62×45),(59×119)來檢測中等大小的對象。而在最大的52×52特征圖Scale3上采用(10×13),(16×30),(33×23)檢測較小的物體位置。

        3 網(wǎng)絡的改進

        為了使網(wǎng)絡在減小網(wǎng)絡參數(shù)的同時保持精度,并提升實時性,對原網(wǎng)絡做了以下調(diào)整,主要包括三點修改。

        3.1 加入各類版本的MobileNet網(wǎng)絡

        由于YOLOv3 仿照ResNet-53 結(jié)構(gòu)提出Darknet-53網(wǎng)絡,雖然可以提取有效的特征信息,但該網(wǎng)絡結(jié)構(gòu)復雜,導致參數(shù)過于復雜,從而在實用性上并不理想。因此利用MobileNet可以有效地減少參數(shù)的同時獲得一定的精度。

        3.1.1 使用MobileNetv1作為主干網(wǎng)絡

        MobileNetv1[10]由谷歌在2017 年提出,用于將CNN網(wǎng)絡輕量化,使之可以轉(zhuǎn)嫁于移動設(shè)備或者嵌入式設(shè)備中,其中亮點為提出了深度可分離卷積(Depthwise Separable Convolution)。深度可分離卷積是將傳統(tǒng)卷積分為Depthwise 卷積和Pointwise 卷積兩步。假設(shè)用DK×DK表示卷積核尺寸,用DF×DF表示輸入的特征圖尺寸,分別用M、N表示輸入和輸出的通道數(shù),當步長為1且存在padding時,傳統(tǒng)卷積的計算總量是:

        而深度可分離卷積計算量為:

        兩者相互比較,計算量縮小為原來的:

        MobileNetv1采用Relu6作為激活函數(shù),圖2是傳統(tǒng)卷積,圖3是深度可分離卷積。使用更多的Relu6,既增加了模型的非線性變化,又提高了模型的泛化能力。改進YOLOv3網(wǎng)絡中Conv2D均采用Relu6函數(shù)。

        圖2 傳統(tǒng)卷積

        圖3 深度可分離卷積

        參考Darknet-53將MobileNetv1網(wǎng)絡分割成三塊不同特征提取圖,第一個提取層提取出52×52×256特征圖用于檢測較小物體,第二個提取層提取出26×26×512特征圖用于檢測中等物體,第三個提取層提取出13×13×1 024特征圖用于檢測較大物體。保證精度的同時又提高了網(wǎng)絡的實時性。

        3.1.2 使用MobileNetv2作為主干網(wǎng)絡

        MobileNetv2[14]是在 MobileNetv1 上做的改進,是在2018 年提出來的,相對于MobileNetv1 主要做了兩點改進:

        (1)雖然MobileNetv2和MobileNetv1都是采用DW(Depth-wise)卷積搭配PW(Point-wise)卷積的方式來提取特征,但為了避免Relu對特征的破壞,MobileNetv2在DW 卷積前面加入了一個PW 卷積并且去掉了第二個PW的卷積,即線性瓶頸(Linear Bottlenecks)結(jié)構(gòu)。

        (2)參考ResNet的結(jié)構(gòu)設(shè)計出了逆殘差結(jié)構(gòu)(Inverted residuals),在3×3網(wǎng)絡結(jié)構(gòu)前利用1×1卷積升維,在3×3網(wǎng)絡結(jié)構(gòu)后再利用1×1卷積降維。先進行擴張,再進行壓縮。

        3.1.3 使用MobileNetv3作為主干網(wǎng)絡

        MobileNetv3[15]是MobileNet 的最新版本,是在2019年提出來的,作為輕量級網(wǎng)絡它的參數(shù)量還是一如既往地小。作為第三版的它主要綜合了以下特點:

        (1)吸收以前版本的優(yōu)點,結(jié)合使用了Mobilenetv1的深度可分離卷積和Mobilenetv2的具有線性瓶頸的逆殘差結(jié)構(gòu)。

        (2)引入了MnasNet[16]中基于擠壓和激勵(Squeeze and Excitation)結(jié)構(gòu)的輕量級注意力模型,可以更好地調(diào)整每個通道的權(quán)重。

        (3)發(fā)現(xiàn)swish 激活函數(shù)能夠有效提高網(wǎng)絡的精度,表示如下:

        然而,由于swish的計算量太大,提出了h-swish(hard version of swish)公式表示如下:

        如圖4所示,這兩個函數(shù)從函數(shù)圖像上可以看出兩者之間很相似。

        圖4 swish和h-swish曲線圖

        3.2 引用空洞卷積

        空洞卷積是在標準的卷積核中注入空洞,以此來增加特征圖的感受野。圖5 是傳統(tǒng)卷積運算,圖6 是空洞卷積運算。可以明顯地看出空洞卷積既可以擴大感受野,也使卷積時捕獲了多尺度的上下文信息,更利于缺陷部位的檢測。在改進的YOLOv3 網(wǎng)絡中加入一個超參數(shù)稱之為dilation rate(膨脹率),在第一個特征提取圖上加入1 倍的rate,在第二個特征提取圖上加入2 倍的rate,在第三個特征提取圖上加入4 倍的rate,以此使圖片缺陷部位更加明顯。

        圖5 傳統(tǒng)卷積運算

        圖6 空洞卷積運算

        3.3 加入Inceptionv3結(jié)構(gòu)

        Inceptionv3[11]模型是谷歌Inception 模型的第三代,其模型結(jié)構(gòu)與Inceptionv2模型發(fā)表在同一篇論文里,兩者模型結(jié)構(gòu)差距不大,相比其他神經(jīng)網(wǎng)絡模型,Inception模型最大的特點在于將神經(jīng)網(wǎng)絡層與層之間的卷積運算進行了拓展。Inception 網(wǎng)絡采用不同大小的卷積核卷積,使得網(wǎng)絡層存在不同大小的感受視野,最后拼接起來達到不同尺度的特征融合。結(jié)合Inceptionv3 中三種模型,將YOLOv3原網(wǎng)絡最后一層中Conv2D 3×3卷積改為Inception 3×3 卷積結(jié)構(gòu)。主要利用1×3 的卷積和3×1 的卷積代替原有的3×3 卷積,再利用兩個1×1 卷積融合后得到Inception結(jié)構(gòu),相對于以前網(wǎng)絡的數(shù)據(jù)參數(shù)量有大幅度的減小。其結(jié)構(gòu)如圖7所示。

        圖7 修改Inceptionv3結(jié)構(gòu)圖

        3.4 修改后網(wǎng)絡總結(jié)構(gòu)圖

        結(jié)合以上特點得到三種修改的YOLOv3 網(wǎng)絡結(jié)構(gòu)如圖8所示。

        YOLOv3-mobileNetv2 結(jié)構(gòu)和YOLOv3-MobileNetv3結(jié)構(gòu)只需仿照YOLOv3-MobileNetv1 結(jié)構(gòu)選取其中的三個尺度即可,圖9 和圖10 為 YOLOv3-MobileNetv2 網(wǎng)絡與YOLOv3-MobileNetv3網(wǎng)絡結(jié)構(gòu)的簡略版本。

        4 實驗結(jié)果與分析

        4.1 實驗平臺

        圖8 YOLOv3-MobileNetv1結(jié)構(gòu)修改圖

        本實驗在Windows10 操作系統(tǒng)下完成。計算機CPU 為i7 9700;內(nèi)存為16 GB;GPU 為RTX2070s,其顯存為8 GB;運行軟件為Anaconda3.6 平臺下的VScode(Visual Studio Code);Python版本為3.6.4;安裝了Cuda10.0和Cudnn7.5.1 幫助GPU 進行加速運算,同時在軟件中安裝 Tensorflow1.13.1、Opencv4.1 和 Numpy1.14.2 等一系列的第三方的庫來支持代碼的運行。

        4.2 數(shù)據(jù)集

        4.2.1 數(shù)據(jù)選擇

        本實驗選用德國DAGM 鋼板表面缺陷數(shù)據(jù)集,該數(shù)據(jù)集總共有10 大類缺陷,有訓練集和測試集。選取其中三類缺陷中的訓練集用于訓練,將碰傷命名為class1、麻點命名為class2,并將劃傷命名為class3,每類1 150張圖片(含缺陷150張),共計3 450張圖片。由于圖片為512×512 png格式,不利于訓練,用代碼將圖片分批次轉(zhuǎn)換成416×416 jpg 格式,用于神經(jīng)網(wǎng)絡的訓練。所有圖片中3 000張完好,450張圖片存在缺陷,將其打亂順序放入同一個文件夾,再按照訓練集和測試集9∶1的比例,選出前3 105張作為訓練集,后345張作為測試集。

        圖9 YOLOv3-MobileNetv2結(jié)構(gòu)修改圖

        圖10 YOLOv3-MobileNetv3(large)結(jié)構(gòu)修改圖

        4.2.2 數(shù)據(jù)標注

        數(shù)據(jù)集的標注比較耗費時間和專注力,需要獲得數(shù)據(jù)集圖片的各種缺陷信息??梢岳胠abelImg 軟件對圖片進行人工標注,將圖片的長寬和深度,缺陷框的xmin、ymin、xmax和ymax等信息存入到.xml文件中,適用于神經(jīng)網(wǎng)絡的訓練。將訓練集和測試集中存在缺陷的450 張圖片進行數(shù)據(jù)標注,生成.xml 文件,最后利用格式轉(zhuǎn)換程序得到包含圖片路徑、名稱、缺陷框標簽和位置的.txt訓練文件。

        4.3 模型訓練

        按照修改部分改進網(wǎng)絡,從而完成網(wǎng)絡搭建,實驗一共訓練4個網(wǎng)絡模型:YOLOv3,YOLOv3-MobileNetv1,YOLOv3-MobileNetv2,YOLOv3-MobileNetv3。每個網(wǎng)絡訓練800 epochs(輪次),共計約22小時。每個網(wǎng)絡使用如下方法訓練:先將網(wǎng)絡的最初學習率調(diào)為0.01,batch_size(一次訓練所選取的樣本量,其大小影響模型優(yōu)化和速度,根據(jù)網(wǎng)絡參數(shù)和GPU內(nèi)存大小進行調(diào)整)調(diào)為8,讓loss(損失值)大范圍下降訓練300 epochs,得到初始loss值。再將學習率調(diào)低至0.001,讓loss適當范圍浮動訓練300 epochs,最后將學習率調(diào)至0.000 1,讓loss 小范圍浮動訓練200 epochs 得到最終的訓練集損失值。圖11 為YOLOv3-MobileNetv3 訓練集的每輪epochs下loss下降圖,橫坐標為epochs值,縱坐標為loss值;圖中的(1)和(2)為截取部分epochs放大圖。

        圖11 YOLOv3-MobileNetv3的網(wǎng)絡訓練損失函數(shù)變化圖

        由圖11(1)和(2)可以看出網(wǎng)絡YOLOv3-MobileNetv3在50 epochs到200 epochs時下降很快,在400 epochs到600 epochs時趨于穩(wěn)定,loss值在4.0到3.0之間,說明神經(jīng)網(wǎng)絡訓練是有一定效果的,再調(diào)低學習率對訓練效果影響不大,網(wǎng)絡最終收斂在3.1左右。

        重復使用以上方法訓練的YOLOv3-MobileNetv1最終 loss 為 3.2,YOLOv3-MobileNetv2 最終 loss 為 3.4。由于YOLOv3 采用Darknet-53 結(jié)構(gòu),導致參數(shù)量較大,顯存容量不夠,只能將三次的batch_size縮小,都調(diào)整成4,訓練得到的loss為4.1。得到的權(quán)重文件大小與訓練時間如表1所示。

        表1 網(wǎng)絡權(quán)重文件和訓練時間對比表

        由表1 可知,在加入了MobileNet 類的結(jié)構(gòu)作為主干網(wǎng)絡,并用Inceptionv3 減小參數(shù)總量后,使權(quán)重文件比原先縮小了約88%,訓練時間也縮短了一大半。更小的權(quán)重文件意味著更簡單精巧的網(wǎng)絡結(jié)構(gòu)可以移植到性能差一點的移動端平臺上,在不丟失精度的情況下也可以完美地運行得到想要的結(jié)果。

        4.4 模型效果測試

        調(diào)用訓練好的YOLOv3-MobileNetv3 權(quán)重檢測測試集的缺陷圖片,得到的檢測圖片如圖12~圖14所示。

        圖12 第一類缺陷圖

        圖13 第二類缺陷圖

        圖14 第三類缺陷圖

        從圖12~圖14的幾組圖片可以看出,訓練好的模型對缺陷圖片有較好的檢測結(jié)果。

        4.5 性能對比

        文章采用平均檢測準確率(mAP)和幀率(FPS)對檢測算法進行對比。

        4.5.1 mAP對比

        在目標檢測中,利用某類模型準確率P(Precision)、召回率R(Recall)計算出平均準確率AP(Average Precision),最后把均值平均精度mAP(mean Average Precision)作為目標檢測模型的性能評估標準。利用以下公式:

        本文設(shè)置一個IOU(交并比)。IOU 是模型所預測的檢測框和真實框的交集和并集之間的比例,設(shè)置IOU閾值為0.5。

        TP:檢測框中正確,且IOU大于閾值的。

        FP:檢測框中錯誤,且IOU小于閾值的。

        FN:真實正確的框,卻沒有被模型檢測到的。

        參考以上公式,本文選取德國DAGM 鋼板表面缺陷數(shù)據(jù)集中三類測試集缺陷圖,每類缺陷各100 張,共計300 張缺陷測試圖,打亂順序,然后將圖片由.png 格式轉(zhuǎn)換成.jpg 格式,利用labelImg 軟件標注出缺陷位置。先利用訓練好的.h5格式的權(quán)值文件加載到模型中測試圖片,再與標注后的圖片進行對比,如圖15所示。

        圖15 標注圖片與檢測圖片對比圖

        運用上述方法得到四種網(wǎng)絡結(jié)構(gòu)各類缺陷的AP圖,平均準確率AP 即圖中陰影部分的面積占比。其中橫坐標是召回率,縱坐標是某類模型準確率。例如YOLOv3中class1缺陷AP圖如圖16所示。

        圖16 YOLOv3中class1缺陷的AP圖

        具體每類網(wǎng)絡中各類缺陷的AP數(shù)值如表2所示。

        表2 網(wǎng)絡各類缺陷AP對比表

        再由式(8)可得到四種網(wǎng)絡模型各自的mAP值:

        其中YOLOv3-MobileNetv3模型的mAP圖如圖17所示。

        圖17 YOLOv3-MobileNetv3的mAP圖

        具體各類網(wǎng)絡mAP數(shù)值如表3所示。

        表3 網(wǎng)絡mAP對比表

        由表3 可知,由于 YOLOv3 采用 Darknet-53 作為特征提取層,參數(shù)量較大,在該數(shù)據(jù)集上并沒有較好的表現(xiàn),mAP 值僅為 78.49%。YOLOv3-MobileNetv1 網(wǎng)絡mAP 為95.39%,較于 YOLOv3 提升 21.5%,YOLOv3-MobileNetv2 網(wǎng)絡 mAP 為 96.5%,較 于 YOLOv3 提升22.9%。YOLOv3-MobileNetv3 由于它的特征提取主干網(wǎng)絡MobileNetv3 吸收了MobileNetv1 和MobileNetv2的優(yōu)點,加入孔空洞卷積并采用Inceptionv3 優(yōu)化結(jié)構(gòu),mAP 為96.75%,相比于YOLOv3 提升了23.3%,具有較好的精度值。

        4.5.2 FPS對比

        FPS 是圖像里的定義,是指畫面每秒傳輸幀數(shù),即視頻中的畫面數(shù)。本文使用的顯卡為RTX2070s,其四種網(wǎng)絡處理圖片速度的對比結(jié)果如表4所示。

        表4 網(wǎng)絡處理速度對比表

        由表4可以明顯看出YOLOv3修改后的網(wǎng)絡在處理圖片速度上有著較為明顯的提升,YOLOv3-MobileNetv2性能在改進的網(wǎng)絡中最差為每秒40幀,YOLOv3-MobileNetv3性能為每秒43幀,雖不如YOLOv3-MobileNetv1的每秒47.6幀,但相比于YOLOv3每秒提高了21幀,可以滿足流暢的視頻處理,對于性能差一點的平臺有更好的移植性。

        綜合以上實驗結(jié)果,YOLOv3-MobileNetv3 在mAP和FPS上均有不錯的效果,不但比YOLOv3網(wǎng)絡提取特征模型參數(shù)量大大減小,訓練時間也大幅度縮短,比YOLOv3更具有在工業(yè)上應用的前景。

        5 討論

        5.1 MobileNet主干網(wǎng)絡分析

        利用MobileNet系列網(wǎng)絡作為YOLOv3特征提取網(wǎng)絡,上述實驗已證明其可行性。

        由圖18 可以看出圖片送入MobileNet 網(wǎng)絡中卷積出的圖片輸送到FPN(特征金字塔)中,通過三個檢測層分別檢測出大目標、中目標和小目標缺陷。在保持精度的同時提高了幀數(shù),有一定運行效率,在工業(yè)上有應用前景。

        圖18 MobileNet卷積網(wǎng)絡作用圖

        5.2 空洞卷積分析

        以分類為class3的劃痕缺陷為例,捕獲部分網(wǎng)絡提取層中信息,以驗證空洞卷積效果。如圖19所示,圖(a)為缺陷原圖,圖(b)為加入空洞卷積后截取一個通道的圖片,可以明顯看出適當加入空洞可以擴大感受野,圖(c)所示該通道網(wǎng)絡最后卷積圖,可以看出缺陷部位信息明顯,易于網(wǎng)絡的訓練與檢測。

        圖19 空洞卷積效果圖

        5.3 Inception結(jié)構(gòu)分析

        Inception在網(wǎng)絡中采用非對稱卷積進行修改,即將在原有YOLOv3網(wǎng)絡最后一層中3×3卷積分解為3×1和1×3 卷積,這樣做可節(jié)省33%([(9-6)/9])的計算量,再利用兩個1×1 卷積疊加構(gòu)成Inception 結(jié)構(gòu)。利用此結(jié)構(gòu)既加深了網(wǎng)絡深度,也減少了參數(shù)總的計算量。以分類為class1的碰傷缺陷為例,驗證該結(jié)構(gòu)下不同大小感受視野下不同尺度的特征融合部分仿真結(jié)果,如圖20所示。

        圖20 Inception結(jié)構(gòu)卷積效果圖

        最后檢測效果如圖21所示。

        圖21 最終檢測效果圖

        結(jié)合圖20 和圖21 可以看出,經(jīng)過Inception 結(jié)構(gòu)卷積后左上角的缺陷特征明顯,證明了Inception結(jié)構(gòu)對缺陷部位檢測有促進作用,具有可行性。

        6 結(jié)束語

        本文使用一種改進后的YOLOv3 網(wǎng)絡對工業(yè)上鋼板表面進行缺陷檢測,修改了德國DAGM 鋼板表面缺陷數(shù)據(jù)集,使之適應網(wǎng)絡的訓練;使用輕量級MobileNet網(wǎng)絡來代替YOLOv3原有網(wǎng)絡中的Darknet-53網(wǎng)絡,適當減少參數(shù)量的提??;加入空洞卷積,提高網(wǎng)絡對小目標缺陷的檢測能力;在網(wǎng)絡結(jié)構(gòu)最后一層卷積中加入了Inception 結(jié)構(gòu),可以進一步減少參數(shù)總量并加深網(wǎng)絡。從實驗結(jié)果可以知道,修改后的YOLOv3在精度和速度上都有明顯的提升。下一步工作是優(yōu)化模型算法,將網(wǎng)絡移植到性能更差的移動端設(shè)備上。

        猜你喜歡
        網(wǎng)絡結(jié)構(gòu)特征提取卷積
        基于3D-Winograd的快速卷積算法設(shè)計及FPGA實現(xiàn)
        從濾波器理解卷積
        電子制作(2019年11期)2019-07-04 00:34:38
        基于Daubechies(dbN)的飛行器音頻特征提取
        電子制作(2018年19期)2018-11-14 02:37:08
        基于傅里葉域卷積表示的目標跟蹤算法
        Bagging RCSP腦電特征提取算法
        基于互信息的貝葉斯網(wǎng)絡結(jié)構(gòu)學習
        知識網(wǎng)絡結(jié)構(gòu)維對于創(chuàng)新績效的作用機制——遠程創(chuàng)新搜尋的中介作用
        滬港通下A+ H股票網(wǎng)絡結(jié)構(gòu)演化的實證分析
        復雜網(wǎng)絡結(jié)構(gòu)比對算法研究進展
        基于MED和循環(huán)域解調(diào)的多故障特征提取
        国产情侣一区二区| 国产思思久99久精品| 少妇高潮紧爽免费观看| 国产综合开心激情五月| 久久久久亚洲av片无码| 97无码人妻福利免费公开在线视频| 韩国女主播一区二区在线观看| 一二三四在线观看韩国视频| 久久婷婷五月综合色奶水99啪| 男女性高爱潮免费网站| 国产乱色国产精品免费视频| 日韩熟女精品一区二区三区视频| 成年女人在线观看毛片| 国产精品午夜高潮呻吟久久av| 久久人妻av无码中文专区| 情侣黄网站免费看| 成人无码区免费AⅤ片WWW| 在线观看av不卡 一区二区三区| 天天躁夜夜躁狠狠是什么心态| 国产一区二区三区影院| 91福利精品老师国产自产在线| 亚洲专区路线一路线二网| 无码av不卡一区二区三区| 日韩一线无码av毛片免费 | 国产精品麻豆成人av| 国产av久久在线观看| 777亚洲精品乱码久久久久久| 在线人妻无码一区二区| 天天综合色中文字幕在线视频| 丰满少妇人妻无码| 亚洲学生妹高清av| 久久久久亚洲AV无码去区首| 久草视频这里只有精品| 曰本无码人妻丰满熟妇啪啪| 亚洲AV秘 无码一区二区三区1| 国产精品久久一区二区蜜桃| 国产亚洲综合一区二区三区| 娇妻玩4p被三个男人伺候电影| 国产亚洲一区二区三区成人 | 亚洲桃色视频在线观看一区| 亚洲日韩中文字幕无码一区|