亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于視覺顯著性的零件缺陷檢測

        2020-06-09 12:20:59管聲啟李振浩常江
        軟件 2020年2期

        管聲啟 李振浩 常江

        摘 ?要: 為了提高零件缺陷檢測的準確率,提出了一種基于視覺顯著性算法的零件缺陷檢測方法。首先將采集零件缺陷圖像進行高斯差分濾波,以最大程度消除背景信息的干擾。然后對高斯差分濾波后的零件缺陷圖像進行超像素分割,并利用全局圖像對比方法構建超像素圖像顯著圖,從而有效的提高缺陷的顯著性。最后,采用最大類間方差法分割缺陷。試驗表明該方法能提高零件缺陷的檢測準確率。

        關鍵詞:?零件缺陷;視覺顯著性;超像素分割;顯著圖構建

        中圖分類號: TP391. 41????文獻標識碼:?A????DOI:10.3969/j.issn.1003-6970.2020.02.010

        【Abstract】: In order to improve the accuracy of part defect detection, a novel method of part defect detection ?based on visual saliency algorithm is presented.Firstly, the defect image was filtered by Gauss difference to eliminate?the interference of background information. Then, the part defect image after Gauss difference filtering was segmented by super-pixel, and the super-pixel saliency image was constructed by using the global image contrast method,?which effectively improves the defect saliency. Finally, the method of maximum inter class variance was used to detect defection. The experiment results show that the method can improve the detection accuracy of part defects.

        【Key words】: Part defect; Visual saliency; Super-pixel segmentation; Saliency map construction

        0??引言

        在智能制造業(yè)中,利用工業(yè)機器人視覺技術對零件缺陷檢測,將有利于發(fā)現(xiàn)生產過程的工藝問題、提高產品質量。如何實現(xiàn)零件各類缺陷檢測,眾多學者進行深入研究,取得了豐碩的研究成果[1-4]。其主要檢測算法有零均值化法、小波變換法、脈沖耦合神經(jīng)網(wǎng)絡檢測算法等[5-7]。零均值化方法雖然簡單,但檢測缺陷區(qū)域誤差較大,只適合較大缺陷的檢測。采用小波檢測算法能實現(xiàn)缺陷信息與背景信息分離,但如何構造適合各類缺陷檢測的小波基是研究的難點。利用脈沖耦合神經(jīng)網(wǎng)絡良好的脈沖傳播特性能有效分割出缺陷區(qū)域,然而決定缺陷分割效果的主要參數(shù)是通過人工經(jīng)驗確定的。通過分析可以看出,傳統(tǒng)的機器人視覺目標外觀缺陷檢測算法,很難滿足各類缺陷自動檢測的實際需要。

        根據(jù)相關仿生視覺分析可知,人類視覺系統(tǒng)在長期進化過程中,形成的視覺注意機制能夠通過提高目標和背景對比度,有效從復雜背景中迅速發(fā)現(xiàn)視覺的目標信息[8-10]。如果將這種人類視覺注意機制引入到工業(yè)機器人視覺感知系統(tǒng)中,通過驅動零件缺陷信息顯著度的提高,避免噪聲、光照不均勻等環(huán)境因素的影響,從而實現(xiàn)對零件缺陷檢測[11-12]。為此,本文設計一種新的顯著性模型,通過高斯差分濾波有效濾除噪聲等背景信息,然后利用超像素分割構建顯著圖,在此基礎上實現(xiàn)零件缺陷檢測。

        1??零件缺陷圖像高斯差分濾波

        由現(xiàn)場采集的零件圖像通常含有高頻噪聲信息、中頻目標信息、低頻背景等信息,如果能有效提取中頻信息將會有利于提高圖像的顯著性;Rodieck指出可用兩個高斯核半徑之比K為5:1的兩個高斯函數(shù)的差Difference of Gaussian所示表示視網(wǎng)膜感受野數(shù)學模型,如公式(1);可以看成從一個窄高斯減去一個寬高斯,可以有效提高中頻目標信息,從而提高有效信息的對比度。為此采用公式(2)進行高斯差分帶通濾波,以提取缺陷主要信息,從而提高檢測目標對比度。

        2 ?零件缺陷圖像超像素顯著性檢測

        2.1??零件缺陷圖像超像素分割

        R.Achanta等提出了簡單線性迭代聚類(SLIC)算法,將彩色圖像轉化為CIELAB顏色空間和XY坐標下的5維特征向量,然后對5維特征向量構造距離度量標準,對圖像像素進行局部聚類的過程。由于SLIC算法能生成緊湊、近似均勻的超像素,在運算速度,物體輪廓保持、超像素形狀方面具有較高的綜合評價;因此,本文采用SLIC算法進行零件缺陷圖像超像素分割,由于零件缺陷圖像通常為不帶顏色,因此利用零件缺陷灰度圖像實現(xiàn)超像素分割,以減少分割過程的計算量,具體算法步驟 ?如下:

        (1)預定義參數(shù)K,K為預生成的超像素數(shù)量,將大小為M*N像素圖像分割為K個超像素塊,每個超像素塊范圍大小包含(M*N)/K個像素;

        (2)假設每個超像素區(qū)域長和寬均勻分布,每個超像素塊的長和寬均可定義為S,S=sqrt(M*N/K);

        (3)每個像素塊的中心點為(S/2,S/2),有可能落在噪音點或者像素邊緣,利用差分方式進行梯度計算,計算獲得最小梯度值的像素點,將其作為新的中心點;

        (4)進行像素點的聚類操作,借助K-means聚類算法將像素點進行歸類,通過公式(3)進行:

        為了節(jié)省時間,只遍歷每個超像素塊中心點周邊的2S*2S區(qū)域內的像素點,計算該區(qū)域內每個像素點距離哪一個超像素塊的中心點最近,并將其劃分到其中;完成一次迭代后,重新計算每個超像素塊的中心點坐標,并重新進行迭代;零件缺陷圖像超像素分割效果如圖2(a)所示。

        2.2??超像素零件缺陷圖像顯著圖

        基于全局圖像對比方法是通過每一個超像素與整體圖像的灰度對比度來計算顯著性,超像素顯著性可采用公式(4)經(jīng)行計算:

        2.3??超像素零件缺陷圖像分割

        最大類間方差法是由日本學者大津在1979年提出的,是一種自適應的閾值確定方法。它是按圖像的灰度特性,將圖像分成背景和目標兩部分。背景和目標之間的類間方差越大,說明構成圖像的兩部分差別越大,當部分背景錯分為目標或部分目標錯分為背景都會導致兩部分差別變小。零件缺陷與背景紋理灰度特征存在本質不同,因此采用最大類間方差法進行零件缺陷信息的分割;分割效果圖2(c)所示,零件缺陷信息完整的從背景中分割出來。

        3 ?試驗與分析

        為了驗證本文檢測算法有效性,隨機選取100副零件缺陷圖像進行測試,分別采用零均值化法、小波算法、和本文算法進行對比實驗法,結果如表1所示。

        從表1可以看出,零均值化法檢測的準確率71%之間,檢測準確率較低,主要原因在于該方法雖然能夠抑制部分背景信息,最終的檢測效果受滑動窗口尺寸影響較大;小波算法檢測準確率為90%,檢測準確率較高,可能原因在于小波算法能夠實現(xiàn)不同信息的分離,但小波基的選擇是否合適會影響檢測準確率進一步提高;本文所采用方法的檢測準確率為98%,主要原因在于本文所采用的方法提高了缺陷區(qū)域的顯著度,從而很容易從背景中檢測出缺陷信息。

        4 ?結論

        采用工業(yè)機器人視覺技術對零件缺陷檢測,將有利于提高產品質量,有利于零件分類和分揀。?本文采用仿生視覺注意機制,設計了一種新的顯著性模型,通過高斯差分濾波消除圖像背景信息的干擾,然后利用超像素構建顯著圖,在此基礎上實現(xiàn)零件缺陷檢測;試驗結果表明其檢測準確率較高。

        參考文獻

        孫曉輝, 聶小春, 汪菊英. 工業(yè)4.0先進制造技術及裝備[J]. 裝備制造技術, 2015, 7: 237-239.

        倪東.?基于計算機圖像處理的零件缺陷檢測[J].?蘭州工業(yè)學院學報, 2016(5): 55-58.

        姜文濤, 劉榮海, 楊迎春, 等. 基于?MATLAB 時頻分析算法的滾動軸承故障研究[J]. 軟件, 2018, 39(2): 102-107.

        趙霆, 管聲啟, 王鵬. 基于目標面積特征分析的帶鋼缺陷圖像分割方法[J]. 西安工程大學學報, 2015(4): 477-481.

        王建紅. 基于零均值及零方差圖構建的潤滑油磨粒檢測[J]. 軟件, 2015, 36(6): 120-124.

        Shengqi Guan and Zhaoyuan Gao. Fabric defect image segmentation based on visual attention mechanism of wavelet domain[J]. Textile Research Journal, 2014, 84(10): 1018-1033.

        譚延凱.?基于計算機視覺的刀具磨損檢測技術的研究?[D]. 沈陽: 沈陽理工大學, 2011.

        Zhang L, Tog M H, Marks TK, Shan H, Cottrel GW. SUN: a Bayesian framework for saliency using natural statistics[J]. J. Vis., 2008, 8(7): 1.

        Desimone R, Duncan J. Neural mechanisms of selective visual attention[J]. Annual Review of Neuroscience, 1995, 18: 193-222.

        Sun Y, Fisher R. Object-based visual attention for computer vision[J]. Artif. Intell., 2003, 146(1): 77-123.

        Hou X, Harel J, Koch C. Image signature: highlighting sparse salient regions[J]. IEEE Trans. Pattern Anal. Mach. Intell, 2012, 34(1)194-201.

        王誠誠, 李文森, 雷鳴, 等. 基于目標特征的機械零件表面缺陷檢測方法[J]. 軟件, 2016, 37(4): 32-34.

        综合激情五月三开心五月| 日韩我不卡| 国产精品美女一级在线观看| 伊人精品成人久久综合97| 国产一区二区三区小说| 久久久精品人妻一区二区三区四| 乱中年女人伦av三区| 久久精品国产亚洲av网在| 天天综合网网欲色| 久久久无码中文字幕久...| 久久精品国产亚洲一区二区| 久久精品国产亚洲av热东京热| 久久久99精品成人片| 无码人妻精品一区二区三区下载| 97中文字幕在线观看| 亚洲国产成人久久精品美女av| 五月色丁香婷婷网蜜臀av| 少妇人妻200篇白洁| 高清高速无码一区二区| 99久久精品国产91| 国产熟女内射oooo| 在线一区不卡网址观看| 亚洲午夜精品国产一区二区三区 | 成午夜福利人试看120秒| 国产精品三级在线观看无码| 韩国女主播一区二区在线观看| 日本黄网色三级三级三级| av免费网址在线观看| 男人无码视频在线观看| 国产天堂av手机在线| 最新中文字幕人妻少妇| 亚洲av无码潮喷在线观看| 日本特黄a级高清免费大片| 日本一区二区三区高清视| 亚洲婷婷五月综合狠狠爱| 456亚洲人成影视在线观看| av手机天堂在线观看| 午夜精品久久久久久久99老熟妇 | 成年男女免费视频网站| av中文码一区二区三区| 天天综合天天爱天天做|