亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于改進YOLOv3的木結缺陷檢測方法研究

        2020-03-31 08:04:02岳慧慧白瑞林
        自動化儀表 2020年3期
        關鍵詞:精確度檢測模型

        岳慧慧,白瑞林

        (江南大學物聯(lián)網(wǎng)工程學院,江蘇 無錫 214122)

        0 引言

        木結缺陷為嵌入在木條表面中高度紋理化、顏色差異明顯的區(qū)域。木結缺陷檢測的主要挑戰(zhàn)在于如何準確、實時地從形狀不規(guī)則、分布位置不確定的自然紋理中檢測出木結缺陷,對高質(zhì)量木條加工有著極為重要的理論和應用價值[1]。隨著卷積神經(jīng)網(wǎng)絡在圖像領域的普遍應用以及圖形處理器(graphics processing unit,GPU)的迅猛發(fā)展,憑借其檢測速度更快、精確度更高的優(yōu)點,基于卷積神經(jīng)網(wǎng)絡(convolutional neural network,CNN)的目標檢測正逐漸替代低效率的人工檢測、基于顏色和紋理特征提取的無監(jiān)督聚類方法。Girshick等提出超快速的區(qū)域卷積神經(jīng)網(wǎng)絡(faster region-CNN,F(xiàn)aster R-CNN)[2]方法,運用候選區(qū)域生成網(wǎng)絡(region proposal network,RPN)不斷重復訓練模型,識別精確度較高,但檢測速度不滿足實時性要求。徐姍姍[3]等使用支持向量機對缺陷進行分類,整體算法運行緩慢。劉英[4]等利用非下采樣剪切波變換對圖像進行預處理,再利用CNN提取出木材缺陷輪廓,檢測速度為261 ms,無法滿足實時性要求。Redmon等提出基于端到端的深層卷積神經(jīng)網(wǎng)絡(you only look once v3,YOLOv3)[5]目標檢測算法,在YOLO[6]和YOLOv2[7]的基礎上進行改進,兼顧了網(wǎng)絡復雜度與識別精確度,在COCO數(shù)據(jù)集上檢測速度為51 ms,平均識別精確度(mean average precision,mAP)可達57.9%的最佳檢測效果;然而,該算法未應用于木結缺陷檢測。呂鑠[8]等針對YOLOv3使用新?lián)p失函數(shù)Tan-Squared Error,有效提高了COCO數(shù)據(jù)集的識別精確度,模型收斂更加快速。

        YOLOv3目標檢測算法需要建立大量木條表面圖像數(shù)據(jù)集,并通過多層特征融合,無需手工設計特征,充分提取高泛化性的木結缺陷特征用于實時檢測。本研究將YOLOv3算法應用于自然紋理中木結缺陷檢測,并針對檢測結果mAP值不高的問題,分別對活結缺陷圖像進行數(shù)據(jù)擴增。采用k-means++算法提高目標框維度聚類效果,同時壓縮多尺度檢測網(wǎng)絡減少檢測時間,改進loss損失函數(shù)提高木條表面缺陷的識別精確度。

        1 YOLOv3模型

        1.1 目標框維度聚類算法

        參考Faster R-CNN,YOLOv3引入一組固定尺寸的初始目標框(anchor box),通過k-means算法對數(shù)據(jù)集中人工標注目標框的高和寬進行維度聚類,得到k個初始目標框[5]。針對VOC20類和COCO80類數(shù)據(jù)集,YOLOv2設置5個初始目標框;針對COCO80類數(shù)據(jù)集,YOLOv3設置9個初始目標框。由于數(shù)據(jù)集類別與拍攝角度差異較大,并不適用木結缺陷檢測。k-means算法是從樣本集中隨機選k個初始聚類中心導致聚類準確率偏低,故研究選用改進后的k-means++算法設置閾值ε對目標框進行聚類分析,相距較遠點有更大概率被選為下一個初始聚類中心。同時,考慮到交并比(intersection over union,IOU)是目標框的預測結果與真實范圍的交集面積、并集面積的比值,與anchor box尺寸大小無關,因此k-means++聚類算法改用IOU作為空間距離計算代替歐氏距離,從而降低不同尺寸初始目標框產(chǎn)生的誤差。改進后空間距離函數(shù)Di(xj)為:

        Di(xj)=1-IOU(xj,ci)

        (1)

        式中:xj∈X={x1,x2,…,xn}為真實目標框;ci∈{c1,c2,…,ck}為聚類中心;k為anchor box的個數(shù)。

        聚類目標函數(shù)J(k)為每個樣本到其聚類中心的距離之和最小值,計算公式為:

        (2)

        利用改進后k-means++針對目標框進行維度聚類,使用手肘法分析聚類目標函數(shù)來選取最優(yōu)聚類個數(shù)k。當k小于真實值6時,J(k)會大幅度下降;而當k到達真實值6時,J(k)快速停止大幅度下降,聚類效果降低,并且隨著k的不斷增加,曲線趨于穩(wěn)定。因此,木條表面圖像數(shù)據(jù)集的最優(yōu)初始目標框聚類個數(shù)為6,高和寬分別為(299.0,167.0)、(176.0,460.5)、(448.0,351.0)、(486.0,617.5)、(126.0,234.0)和(419.0,242.0)。目標框的平均交并比對比如表1所示。改進后k-means++的YOLOv3平均交并比相比YOLOv2和改進前YOLOv3提高約15%,在保證較高平均交并比的基礎上減少了目標框個數(shù),降低了計算資源的占用。

        表1 目標框的平均交并比對比Tab.1 Comparison of anchor boxes’ average IOU

        k-means++算法流程如圖1所示。

        圖1 k-means++算法流程圖Fig.1 Flowchart of k-means++ Algorithm

        聚類目標函數(shù)的變化曲線如圖2所示。

        圖2 聚類目標函數(shù)的變化曲線Fig.2 Curves of the clustering objective function

        1.2 多尺度檢測網(wǎng)絡

        YOLOv3借鑒了單個深層神經(jīng)網(wǎng)絡檢測器(single shot multiBox detector,SSD)[9]、殘差網(wǎng)絡和特征金字塔網(wǎng)絡[10],在YOLO和YOLOv2的基礎上進行改進,設計了一種基于Darknet-53網(wǎng)絡和多尺度檢測網(wǎng)絡的目標檢測模型,大大降低了模型運算量,發(fā)揮了YOLO速度快的優(yōu)勢。Darknet-53網(wǎng)絡共有53個卷積層。先使用5個不同的卷積核對圖像進行卷積操作,再由一系列3×3和1×1交替組成的卷積得到26×26特征圖。在網(wǎng)絡訓練過程中,卷積層的輸出是作為下一層池化層的輸入,而池化層的輸出又作為下一層卷積層的輸入。在第j個卷積核中,第l個卷積層的第i個卷積操作輸出矩陣計算式為:

        (3)

        式中:F(·)為激活函數(shù);b為偏置;x為n×n的卷積核;m為輸入圖像m×m的矩陣。

        選用平均值池化操作對卷積層的輸出進行采樣,進一步減小計算量、提高泛化性。在第j個池化區(qū)域中,第l個池化層的第i個池化操作輸出矩陣為:

        (4)

        選用識別和定位精確度高于Relu函數(shù)的Leaky函數(shù)作為卷積層激活函數(shù)。當輸入x小于0時,輸出不再是0,而是一個微小數(shù)字0.01x,計算式為:

        F(·)=Leakey(x)=max(0.01x,x)

        (5)

        為獲得更好的細粒度特征,通過采樣融合不同網(wǎng)絡層中高分辨率和高語義特征圖,在3種尺度特征層上預測邊界框,當減少尺度時會提升大目標缺陷的識別精確度、降低小目標缺陷的識別精確度[11-12]。由于木結缺陷目標多數(shù)為大目標,所以將原3種尺度壓縮為2種尺度檢測。當預測大尺寸木結缺陷時,既可獲得更精準的檢測結果,又減少了計算量。在訓練模型過程中,每隔10輪改變模型的圖像輸入尺寸,同時將k-means++維度聚類得到的初始目標框(126.0,234.0)、(299.0,167.0)、(176.0,460.5)分配給(320×320)像素尺度上的各個網(wǎng)格,(419.0,242.0)、(448.0,351.0)、(486.0,617.5)分配給(416×416)像素尺度上的各個網(wǎng)格,用于預測木結缺陷目標框,能讓模型適應不同尺度的輸入圖像,更具有魯棒性。YOLOv3算法的網(wǎng)絡結構如圖3所示。

        圖3 YOLOv3算法的網(wǎng)絡結構圖Fig.3 YOLOv3 algorithm network structure

        1.3 loss損失函數(shù)

        YOLOv3將輸入圖像分成Sh×Sw的高×寬網(wǎng)格,負責預測B個目標框(bounding box,bbox)坐標和對應的置信度得分(confidence score,CS)。在訓練預測特征圖過程中,使用五元組B(x,y,w,h,cs)來定義預測的邊界框[12]。其中:x和y為bbox的中心坐標,w和h為bbox的寬度和高度,都在[0,1]范圍內(nèi)。YOLOv3改進后坐標為:

        (6)

        式中:cx、cy為從圖像左上角的坐標偏移量;pw、ph為預測目標框的寬和高;tx、ty、tw、th為網(wǎng)絡的學習目標;bx、by、bw、bh為最終得到的bbox坐標。

        假設每個網(wǎng)格預測C個目標類別概率,則輸出的張量維度為Sh×Sw×B×(5+C)。

        在訓練網(wǎng)絡過程時,網(wǎng)絡會不斷學習真實目標框尺寸特點,邊界框的高寬也在不斷調(diào)整以接近真實目標框。而在預測目標類別與bbox位置坐標時,YOLOv3中l(wèi)oss損失函數(shù)為:

        (7)

        式中:Errcoord為預測數(shù)據(jù)與標定數(shù)據(jù)之間的坐標誤差;ErrIOU為置信度誤差;Errclass為分類誤差。

        其中,坐標誤差Errcoord為:

        (8)

        Lcross-entropy的計算式為:

        Lcross-entropy(p,q)=p×log(q)+(1-p)×log(1-q)

        (9)

        置信度誤差ErrIOU為:

        (10)

        分類誤差Errclass為:

        (11)

        圖與x的函數(shù)圖像Fig.4 The function of and x

        當bbox尺寸誤差較小時梯度也較小,隨著bbox尺寸誤差逐漸變大時梯度也逐漸變大。因此將坐標誤差Errcoord中的w和h改進為:

        2 結果與分析

        2.1 試驗配置與數(shù)據(jù)集

        2.1.1 試驗數(shù)據(jù)集

        以木結缺陷作為研究對象,對Basier-12k線掃相機采集到的松木木條表面圖像進行等分切割,共7 876張。隨機選取其中7 376張作為訓練數(shù)據(jù)集(含有4 260個死結,821個活結),并將剩余的500張作為測試數(shù)據(jù)集(含有354個死結、89個活結)。由于活結圖像數(shù)量過少導致類別不平衡問題,為提高活結識別精確度,對訓練數(shù)據(jù)集中活結圖像采用水平和垂直鏡像、隨機裁剪以及±15°、±30°旋轉等方法進行數(shù)據(jù)擴增。同時,在訓練模型時利用自適應直方圖均衡化、飽和度和曝光度調(diào)整訓練數(shù)據(jù)集,以增加樣本的魯棒性。隨學習率增加的mAP值曲線如圖5所示。木條表面圖像數(shù)據(jù)集中缺陷目標共分為兩類:①活結缺陷;②死結缺陷。

        圖5 mAP值隨學習率增加的變化曲線Fig.5 mAP curve with learning rates increasing

        2.1.2 試驗軟硬件配置

        改進后YOLOv3算法在開源框架TensorFlow上實現(xiàn),主機配置為Intel Core I5-8400 CPU,2.4 GHz主頻,32 GB RAM,顯卡為英偉達GTX 1080Ti,11 GB 內(nèi)存,操作系統(tǒng)為Ubuntu14.04,GPU加速庫為CUDA9.0和CUDNN7.03,數(shù)據(jù)處理使用MATLAB、Python、OpenCV庫,圖像采集使用型號為RAL 12288-8GM的Basier-12k線掃相機。

        2.2 試驗參數(shù)與性能指標

        2.2.1 試驗參數(shù)

        考慮改進后的YOLOv3模型獲得圖像特征時,設置不同學習率(learning rate)和迭代次數(shù)(iteration)對mAP有明顯影響。因此,研究不同學習率和迭代次數(shù)情況下mAP的變化,從而找出最優(yōu)學習率和最優(yōu)迭代次數(shù)。

        ①最優(yōu)學習率。

        在訓練網(wǎng)絡模型時,learning_rate分別設置為10-10、10-9、10-8、10-7、10-6、10-5、10-4、10-3、10-2、10-1和1,iteration設置為20 000。用測試集進行檢測,分析圖5中mAP值隨學習率增加的變化曲線可知,當學習率增加到10-3時,mAP最高為87.13%,模型具有更好的性能;隨著學習率繼續(xù)增加,mAP呈下降趨勢,因此最優(yōu)學習率為10-3。

        ②最優(yōu)迭代次數(shù)。

        在訓練網(wǎng)絡模型時,iteration分別設置為11×103、12×103、13×103、14×103、15×103、16×103、17×103、18×103、19×103、20×103、25×103和30×103,learning_rate設置為10-3。隨迭代次數(shù)增加的mAP值曲線如圖6所示。用測試集進行檢測,分析圖6中mAP隨迭代次數(shù)增加的變化曲線可知,當iteration增加到18 000時,mAP最高為88.63%,可得最優(yōu)迭代次數(shù)為18 000。

        圖6 隨迭代次數(shù)增加的mAP值曲線Fig.6 mAP curve with iterations increasing

        最終試驗參數(shù)值設置:學習率為0.001、批尺寸(batch_size)為16、衰減系數(shù)(decay)為0.000 5、迭代次數(shù)為18 000、動量(momentu)為0.9。

        2.2.2 性能指標

        通過木結缺陷檢測結果的交并比來判別真假樣本。當IOU≥0.5時,結果為真正性樣本(true positive,TP);當IOU<0.5時,結果為假正性樣本(false positive,F(xiàn)P);當IOU=0時,結果為假負性樣本(false negative,F(xiàn)N)。召回率、精確率、AP值和mAP值分別如式(13)~式(16)所示。其中:N為木條表面圖像數(shù)據(jù)集中樣本數(shù)。

        (13)

        (14)

        (15)

        (16)

        同時,使用AP和mAP值來評價網(wǎng)絡模型的性能,反映算法模型的好壞程度,值越高表示算法識別檢測效果越好。

        2.3 試驗結果

        改進后,YOLOv3網(wǎng)絡訓練過程中l(wèi)oss收斂曲線如圖7所示。

        圖7 網(wǎng)絡訓練中l(wèi)oss收斂曲線Fig.7 Loss convergence curve in network training

        當網(wǎng)絡迭代超過18 000時,各參數(shù)變化基本穩(wěn)定,損失值收斂下降到約0.12,訓練結果較理想。最終檢測時間為0.015 6 s,mAP值為88.63%。其中,死結缺陷AP值為91.74%,活結缺陷AP值為85.50%。

        使用改進前與改進后YOLOv3檢測I、II類圖像測試集。分析檢測結果可知:改進算法的檢測識別效果明顯提高,基本上不存在目標框漏檢和誤檢的問題,能較好地識別出完整的木結缺陷。Ⅰ、Ⅱ類圖像檢測結果如圖8所示。

        圖8 I、II類圖像檢測結果圖Fig.8 Detection results with image type of I and II

        為了進一步驗證改進后YOLOv3算法的優(yōu)越性,對比Faster R-CNN、YOLOv3與改進后YOLOv3算法的mAP值和檢測時間。三種算法的檢測結果對比如表2所示。改進后YOLOv3算法識別木結缺陷效果更好,目標的平均識別精確度更高,檢測時間大大縮短,克服了傳統(tǒng)檢測方法實時性不足的缺點。

        表2 三種算法的檢測結果對比Tab.2 Comparison of detection results among three algorithms

        2.4 木結缺陷拼接

        針對檢測后的木條表面圖像進行缺陷位置拼接。木結缺陷拼接如圖9所示。

        圖9 木結缺陷拼接圖Fig.9 Splicing of wood-knot defects

        圖9中:圖1的缺陷位置為[x1,y1,w1,h1],圖2的缺陷位置為[x2,y2,w2,h2],圖3的位置為[x3,y3,w3,h3],可得缺陷1位置信息為[(n-1)W+x1,min(y1,y2),w1+w2,max(h1,h2)]和缺陷2位置信息為[(n-1)W+x3,0,w3,H]。由于相機分辨率為12 288像素,其1像素對應3.5 μm,可得具體木結缺陷位置信息。若判斷圖(n-1)與圖n需要缺陷拼接,即|xi-xi+1|≤Δ,則缺陷i位置信息為{(n-1)W+xi}×3.5,0,(wi+wi+1)×3.5,H×3.5];若判斷圖n中含有完整缺陷,即|xi-xi+1|>Δ,則缺陷i位置信息為[{(n-1)W+xi}×3.5,0,wi×3.5,H×3.5]。

        3 結論

        針對死結和活結缺陷圖像,本試驗提出基于改進YOLOv3的自然紋理中木結缺陷檢測算法,用于解決檢測木結缺陷平均精確度較差、檢測時間不滿足實時性的問題。通過改用k-means++算法對數(shù)據(jù)集中真實目標框進行維度聚類,確定更適合木結缺陷檢測的初始目標框個數(shù)和尺寸。在YOLOv3模型基礎上,將原有的3種尺度檢測網(wǎng)絡壓縮為2種尺度檢測網(wǎng)絡,更改loss損失函數(shù)中坐標誤差,以提高識別精確度和減少運算量。通過試驗驗證了不同算法的性能。試驗結果表明:改進后YOLOv3算法能夠精確地檢測出死結和活結缺陷,具有較好魯棒性和實時性;相較于改進前,平均精確度提升7.47%,速度提高35%;相較于Faster R-CNN算法,平均精確度提升11.68%,速度提高約15倍。在后續(xù)研究中,將研究更多影響木結缺陷識別精確度和速度的因素,進一步優(yōu)化YOLOv3網(wǎng)絡,以提高檢測實時性和精確度。

        猜你喜歡
        精確度檢測模型
        一半模型
        “不等式”檢測題
        “一元一次不等式”檢測題
        “一元一次不等式組”檢測題
        研究核心素養(yǎng)呈現(xiàn)特征提高復習教學精確度
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權M-估計的漸近分布
        “硬核”定位系統(tǒng)入駐兗礦集團,精確度以厘米計算
        3D打印中的模型分割與打包
        小波變換在PCB缺陷檢測中的應用
        国产成人aaaaa级毛片| 亚洲av网一区二区三区成人| 亚洲av成人av三上悠亚| 色哟哟精品视频在线观看| 护士奶头又白又大又好摸视频| 欧美精品日韩一区二区三区| 97人妻精品一区二区三区免费 | 日韩精品极品在线观看视频| 国产三级精品三级在线专区2| 男人的天堂av网站| 永久免费观看的毛片手机视频| 免费在线日韩| 久久中文字幕亚洲综合| 女人脱了内裤趴开腿让男躁| 精品熟女少妇av免费观看| 亚洲大尺度动作在线观看一区| 国产乱子伦一区二区三区国色天香| 久久久久亚洲av片无码| 亚洲精品永久在线观看| 亚洲免费不卡av网站 | 免费观看a级毛片| 女人色毛片女人色毛片18| 国产一起色一起爱| 日韩中文字幕久久久老色批| 国模吧无码一区二区三区| 亚洲av无码专区亚洲av桃| 99久久无色码中文字幕鲁信| 亚洲国产精品悠悠久久琪琪| 日本在线观看一区二区视频| 亚洲深深色噜噜狠狠网站| 国产色在线 | 日韩| 久久久久久久99精品国产片| 国产一区二区内射最近人| 久久国产精品婷婷激情| 亚洲国产精品综合久久网各 | 国产饥渴的富婆一凶二区| 伊人久久大香线蕉av不卡| 最新精品亚洲成a人在线观看| 亚洲av自偷自拍亚洲一区| 日本精品久久久久中文字幕| 欧美丰满熟妇乱xxxxx图片|