管聲啟 李振浩 常江
摘 ?要: 為了提高零件缺陷檢測的準確率,提出了一種基于視覺顯著性算法的零件缺陷檢測方法。首先將采集零件缺陷圖像進行高斯差分濾波,以最大程度消除背景信息的干擾。然后對高斯差分濾波后的零件缺陷圖像進行超像素分割,并利用全局圖像對比方法構建超像素圖像顯著圖,從而有效的提高缺陷的顯著性。最后,采用最大類間方差法分割缺陷。試驗表明該方法能提高零件缺陷的檢測準確率。
關鍵詞:?零件缺陷;視覺顯著性;超像素分割;顯著圖構建
中圖分類號: TP391. 41????文獻標識碼:?A????DOI:10.3969/j.issn.1003-6970.2020.02.010
【Abstract】: In order to improve the accuracy of part defect detection, a novel method of part defect detection ?based on visual saliency algorithm is presented.Firstly, the defect image was filtered by Gauss difference to eliminate?the interference of background information. Then, the part defect image after Gauss difference filtering was segmented by super-pixel, and the super-pixel saliency image was constructed by using the global image contrast method,?which effectively improves the defect saliency. Finally, the method of maximum inter class variance was used to detect defection. The experiment results show that the method can improve the detection accuracy of part defects.
【Key words】: Part defect; Visual saliency; Super-pixel segmentation; Saliency map construction
0??引言
在智能制造業(yè)中,利用工業(yè)機器人視覺技術對零件缺陷檢測,將有利于發(fā)現(xiàn)生產過程的工藝問題、提高產品質量。如何實現(xiàn)零件各類缺陷檢測,眾多學者進行深入研究,取得了豐碩的研究成果[1-4]。其主要檢測算法有零均值化法、小波變換法、脈沖耦合神經(jīng)網(wǎng)絡檢測算法等[5-7]。零均值化方法雖然簡單,但檢測缺陷區(qū)域誤差較大,只適合較大缺陷的檢測。采用小波檢測算法能實現(xiàn)缺陷信息與背景信息分離,但如何構造適合各類缺陷檢測的小波基是研究的難點。利用脈沖耦合神經(jīng)網(wǎng)絡良好的脈沖傳播特性能有效分割出缺陷區(qū)域,然而決定缺陷分割效果的主要參數(shù)是通過人工經(jīng)驗確定的。通過分析可以看出,傳統(tǒng)的機器人視覺目標外觀缺陷檢測算法,很難滿足各類缺陷自動檢測的實際需要。
根據(jù)相關仿生視覺分析可知,人類視覺系統(tǒng)在長期進化過程中,形成的視覺注意機制能夠通過提高目標和背景對比度,有效從復雜背景中迅速發(fā)現(xiàn)視覺的目標信息[8-10]。如果將這種人類視覺注意機制引入到工業(yè)機器人視覺感知系統(tǒng)中,通過驅動零件缺陷信息顯著度的提高,避免噪聲、光照不均勻等環(huán)境因素的影響,從而實現(xiàn)對零件缺陷檢測[11-12]。為此,本文設計一種新的顯著性模型,通過高斯差分濾波有效濾除噪聲等背景信息,然后利用超像素分割構建顯著圖,在此基礎上實現(xiàn)零件缺陷檢測。
1??零件缺陷圖像高斯差分濾波
由現(xiàn)場采集的零件圖像通常含有高頻噪聲信息、中頻目標信息、低頻背景等信息,如果能有效提取中頻信息將會有利于提高圖像的顯著性;Rodieck指出可用兩個高斯核半徑之比K為5:1的兩個高斯函數(shù)的差Difference of Gaussian所示表示視網(wǎng)膜感受野數(shù)學模型,如公式(1);可以看成從一個窄高斯減去一個寬高斯,可以有效提高中頻目標信息,從而提高有效信息的對比度。為此采用公式(2)進行高斯差分帶通濾波,以提取缺陷主要信息,從而提高檢測目標對比度。
2 ?零件缺陷圖像超像素顯著性檢測
2.1??零件缺陷圖像超像素分割
R.Achanta等提出了簡單線性迭代聚類(SLIC)算法,將彩色圖像轉化為CIELAB顏色空間和XY坐標下的5維特征向量,然后對5維特征向量構造距離度量標準,對圖像像素進行局部聚類的過程。由于SLIC算法能生成緊湊、近似均勻的超像素,在運算速度,物體輪廓保持、超像素形狀方面具有較高的綜合評價;因此,本文采用SLIC算法進行零件缺陷圖像超像素分割,由于零件缺陷圖像通常為不帶顏色,因此利用零件缺陷灰度圖像實現(xiàn)超像素分割,以減少分割過程的計算量,具體算法步驟 ?如下:
(1)預定義參數(shù)K,K為預生成的超像素數(shù)量,將大小為M*N像素圖像分割為K個超像素塊,每個超像素塊范圍大小包含(M*N)/K個像素;
(2)假設每個超像素區(qū)域長和寬均勻分布,每個超像素塊的長和寬均可定義為S,S=sqrt(M*N/K);
(3)每個像素塊的中心點為(S/2,S/2),有可能落在噪音點或者像素邊緣,利用差分方式進行梯度計算,計算獲得最小梯度值的像素點,將其作為新的中心點;
(4)進行像素點的聚類操作,借助K-means聚類算法將像素點進行歸類,通過公式(3)進行:
為了節(jié)省時間,只遍歷每個超像素塊中心點周邊的2S*2S區(qū)域內的像素點,計算該區(qū)域內每個像素點距離哪一個超像素塊的中心點最近,并將其劃分到其中;完成一次迭代后,重新計算每個超像素塊的中心點坐標,并重新進行迭代;零件缺陷圖像超像素分割效果如圖2(a)所示。
2.2??超像素零件缺陷圖像顯著圖
基于全局圖像對比方法是通過每一個超像素與整體圖像的灰度對比度來計算顯著性,超像素顯著性可采用公式(4)經(jīng)行計算:
2.3??超像素零件缺陷圖像分割
最大類間方差法是由日本學者大津在1979年提出的,是一種自適應的閾值確定方法。它是按圖像的灰度特性,將圖像分成背景和目標兩部分。背景和目標之間的類間方差越大,說明構成圖像的兩部分差別越大,當部分背景錯分為目標或部分目標錯分為背景都會導致兩部分差別變小。零件缺陷與背景紋理灰度特征存在本質不同,因此采用最大類間方差法進行零件缺陷信息的分割;分割效果圖2(c)所示,零件缺陷信息完整的從背景中分割出來。
3 ?試驗與分析
為了驗證本文檢測算法有效性,隨機選取100副零件缺陷圖像進行測試,分別采用零均值化法、小波算法、和本文算法進行對比實驗法,結果如表1所示。
從表1可以看出,零均值化法檢測的準確率71%之間,檢測準確率較低,主要原因在于該方法雖然能夠抑制部分背景信息,最終的檢測效果受滑動窗口尺寸影響較大;小波算法檢測準確率為90%,檢測準確率較高,可能原因在于小波算法能夠實現(xiàn)不同信息的分離,但小波基的選擇是否合適會影響檢測準確率進一步提高;本文所采用方法的檢測準確率為98%,主要原因在于本文所采用的方法提高了缺陷區(qū)域的顯著度,從而很容易從背景中檢測出缺陷信息。
4 ?結論
采用工業(yè)機器人視覺技術對零件缺陷檢測,將有利于提高產品質量,有利于零件分類和分揀。?本文采用仿生視覺注意機制,設計了一種新的顯著性模型,通過高斯差分濾波消除圖像背景信息的干擾,然后利用超像素構建顯著圖,在此基礎上實現(xiàn)零件缺陷檢測;試驗結果表明其檢測準確率較高。
參考文獻
孫曉輝, 聶小春, 汪菊英. 工業(yè)4.0先進制造技術及裝備[J]. 裝備制造技術, 2015, 7: 237-239.
倪東.?基于計算機圖像處理的零件缺陷檢測[J].?蘭州工業(yè)學院學報, 2016(5): 55-58.
姜文濤, 劉榮海, 楊迎春, 等. 基于?MATLAB 時頻分析算法的滾動軸承故障研究[J]. 軟件, 2018, 39(2): 102-107.
趙霆, 管聲啟, 王鵬. 基于目標面積特征分析的帶鋼缺陷圖像分割方法[J]. 西安工程大學學報, 2015(4): 477-481.
王建紅. 基于零均值及零方差圖構建的潤滑油磨粒檢測[J]. 軟件, 2015, 36(6): 120-124.
Shengqi Guan and Zhaoyuan Gao. Fabric defect image segmentation based on visual attention mechanism of wavelet domain[J]. Textile Research Journal, 2014, 84(10): 1018-1033.
譚延凱.?基于計算機視覺的刀具磨損檢測技術的研究?[D]. 沈陽: 沈陽理工大學, 2011.
Zhang L, Tog M H, Marks TK, Shan H, Cottrel GW. SUN: a Bayesian framework for saliency using natural statistics[J]. J. Vis., 2008, 8(7): 1.
Desimone R, Duncan J. Neural mechanisms of selective visual attention[J]. Annual Review of Neuroscience, 1995, 18: 193-222.
Sun Y, Fisher R. Object-based visual attention for computer vision[J]. Artif. Intell., 2003, 146(1): 77-123.
Hou X, Harel J, Koch C. Image signature: highlighting sparse salient regions[J]. IEEE Trans. Pattern Anal. Mach. Intell, 2012, 34(1)194-201.
王誠誠, 李文森, 雷鳴, 等. 基于目標特征的機械零件表面缺陷檢測方法[J]. 軟件, 2016, 37(4): 32-34.