景軍鋒, 范曉婷, 李鵬飛, 洪 良
(西安工程大學(xué) 電子信息學(xué)院, 陜西 西安 710048)
應(yīng)用深度卷積神經(jīng)網(wǎng)絡(luò)的色織物缺陷檢測(cè)
景軍鋒, 范曉婷, 李鵬飛, 洪 良
(西安工程大學(xué) 電子信息學(xué)院, 陜西 西安 710048)
針對(duì)織物缺陷檢測(cè)時(shí)傳統(tǒng)人工的誤檢率、漏檢率較高問(wèn)題,提出一種應(yīng)用深度卷積神經(jīng)網(wǎng)絡(luò)的色織物缺陷檢測(cè)算法。因織物圖像采集過(guò)程中含有較多噪聲且信噪比較低,先對(duì)缺陷織物進(jìn)行最優(yōu)尺寸高斯濾波,有效濾除細(xì)節(jié)噪聲;再根據(jù)織物圖像特征建立深度卷積神經(jīng)網(wǎng)絡(luò),利用徑向基神經(jīng)網(wǎng)絡(luò)的非線性映射能力作用于卷積神經(jīng)網(wǎng)絡(luò),并通過(guò)反向傳播算法調(diào)整權(quán)值參數(shù),獲取無(wú)缺陷樣本與訓(xùn)練樣本之間的映射函數(shù);最后,利用映射函數(shù)及特征字典重構(gòu)圖像并提取特征,根據(jù)Meanshift算法分割缺陷,確定缺陷位置。結(jié)果表明:應(yīng)用深度卷積神經(jīng)網(wǎng)絡(luò)的缺陷檢測(cè)算法對(duì)色織物圖像庫(kù)中的缺陷圖像可實(shí)現(xiàn)提高檢測(cè)效率、縮短檢測(cè)時(shí)間,獲取準(zhǔn)確缺陷位置的目的。
色織物; 圖像庫(kù); 缺陷檢測(cè); 深度卷積神經(jīng)網(wǎng)絡(luò); 映射函數(shù)
隨著科學(xué)技術(shù)的迅速發(fā)展,我國(guó)紡織行業(yè)競(jìng)爭(zhēng)日趨激烈。布匹質(zhì)量的優(yōu)劣程度對(duì)紡織生產(chǎn)影響相當(dāng)巨大,各大紡織企業(yè)面臨著高標(biāo)準(zhǔn),嚴(yán)要求,低成本的巨大壓力。而傳統(tǒng)的人工目測(cè)方法存在明顯缺陷,如織物缺陷大小及出現(xiàn)頻率受主客觀因素的影響較大,勞動(dòng)強(qiáng)度過(guò)大且不利于工人身體健康等,因此,研制并開發(fā)自動(dòng)織物缺陷檢測(cè)系統(tǒng)具有廣闊的研究前景。
對(duì)于自動(dòng)織物缺陷檢測(cè)系統(tǒng)而言,核心部分是織物缺陷檢測(cè)算法,而檢測(cè)算法中最重要部分在于圖像特征值的選擇。目前,圖像特征值提取方法主要分為3種[1]:一是在頻域提取特征值的傅里葉變換法、Gabor濾波器法和小波變換法[2];二是基于空間域的灰度共生矩陣法、直方圖統(tǒng)計(jì)法以及數(shù)學(xué)形態(tài)學(xué)法[3];三是基于模型算法的自回歸模型、馬爾科夫隨機(jī)場(chǎng)法[4]等。以上3類方法主要針對(duì)背景紋理簡(jiǎn)單的坯布織物檢測(cè)。對(duì)于圖案織物的缺陷檢測(cè)主要包括:基于結(jié)構(gòu)的紋理結(jié)構(gòu)算法[5],混合算法,如圖像分解算法[6-7]、Bollinger算法[8]、規(guī)則帶法[9]、LBP算法[10]等以及基于圖像基元的移動(dòng)變量相減的方差與能量算法[11]等。這些算法主要是對(duì)灰度圖像進(jìn)行處理,而對(duì)于包含較多顏色信息的彩色織物的缺陷檢測(cè)研究相對(duì)較少,因此,如何對(duì)色織物進(jìn)行缺陷檢測(cè)具有深刻的研究意義。
基于投影序列相似度量的織物缺陷檢測(cè)[12],基于織物能量局部二值模式的缺陷檢測(cè)[13]以及基于CIE L*a*b*顏色空間的2-D Gabor濾波器的織物缺陷檢測(cè)[14]等是目前存在的幾類針對(duì)色織物缺陷進(jìn)行檢測(cè)的算法,但由于幾種算法均采用基于顏色空間及像素本身進(jìn)行處理的學(xué)習(xí)模式,導(dǎo)致樣本的細(xì)節(jié)特征不能完全表達(dá),無(wú)法檢測(cè)多層色織物內(nèi)部的缺陷且對(duì)外界檢測(cè)環(huán)境要求較高,因此,本文采取一種基于深度學(xué)習(xí)模式的深度卷積神經(jīng)網(wǎng)絡(luò)的色織物缺陷檢測(cè)算法。其中多隱層的卷積神經(jīng)網(wǎng)絡(luò)模擬了生物神經(jīng)網(wǎng)絡(luò),降低了網(wǎng)絡(luò)模型的復(fù)雜度,從而具有更優(yōu)異的特征學(xué)習(xí)能力,織物的圖像特征得到了更準(zhǔn)確地提取,更有利于后續(xù)的圖像特征提取及分類。本文先對(duì)缺陷織物進(jìn)行最優(yōu)尺寸高斯濾波預(yù)處理操作,不僅可以有效濾除細(xì)節(jié)噪聲,而且不會(huì)造成圖像邊緣信息的模糊。圖像缺陷檢測(cè)過(guò)程包括訓(xùn)練階段和檢測(cè)階段。訓(xùn)練階段是根據(jù)織物樣本圖像特征建立深度卷積神經(jīng)網(wǎng)絡(luò),即利用徑向基神經(jīng)網(wǎng)絡(luò)較強(qiáng)的非線性映射能力作用于卷積神經(jīng)網(wǎng)絡(luò),并通過(guò)反向傳播算法調(diào)整權(quán)值參數(shù),獲取無(wú)缺陷樣本與訓(xùn)練樣本之間的映射函數(shù)。檢測(cè)階段是利用獲取的映射函數(shù)及特征字典重構(gòu)圖像并提取圖像特征,根據(jù)Meanshift算法圖像分割出缺陷,并經(jīng)過(guò)雙峰法二值化,確定織物缺陷位置。大量實(shí)驗(yàn)結(jié)果表明,該方法對(duì)于不同類型,不同顏色的織物的多種缺陷均達(dá)到良好的可視效果。
基于深度卷積神經(jīng)網(wǎng)絡(luò)的色織物缺陷檢測(cè)過(guò)程主要包括3個(gè)階段:1)對(duì)采集到的色織物進(jìn)行預(yù)處理;2)構(gòu)建深度卷積神經(jīng)網(wǎng)絡(luò),獲取特征字典和映射函數(shù);3)利用Meanshift算法進(jìn)行圖像閾值分割實(shí)現(xiàn)缺陷檢測(cè)。算法的流程如圖1所示。
1.1 最優(yōu)尺寸高斯濾波預(yù)處理
織物圖像在工業(yè)現(xiàn)場(chǎng)采集的過(guò)程中,環(huán)境因素較為復(fù)雜且不穩(wěn)定以及圖像采集設(shè)備的精度和靈敏度等客觀因素的影響,容易造成織物圖像較大程度失真,信噪比降低,這種現(xiàn)象的存在會(huì)大大影響后續(xù)織物缺陷檢測(cè)階段。因此,為了提高織物圖像的信噪比,最大程度地降低圖像失真并去除噪聲,采用基于圖像信噪比選擇優(yōu)化尺寸的高斯濾波進(jìn)行織物預(yù)處理,該操作不僅可以有效濾除細(xì)節(jié)噪聲,而且大量保留圖像邊緣信息。該算法首先通過(guò)織物圖像信噪比(SNR)評(píng)估圖像受噪聲影響的程度,然后根據(jù)最小化一階Holder優(yōu)化準(zhǔn)則[15],確定高斯濾波函數(shù)中的最優(yōu)標(biāo)準(zhǔn)方差,并根據(jù)最小二乘法擬合出最終的高斯濾波函數(shù)尺度,實(shí)現(xiàn)預(yù)處理。同時(shí)為了使圖像更加清晰,采用自適應(yīng)直方圖均衡化增強(qiáng)圖像對(duì)比度。
圖2示出暗紅色錯(cuò)色和藏青色帶紗2類色織物缺陷類型在未經(jīng)過(guò)最優(yōu)尺寸高斯濾波預(yù)處理和經(jīng)過(guò)最優(yōu)尺寸高斯濾波預(yù)處理獲取的最終的二值化檢測(cè)結(jié)果。結(jié)果表明最優(yōu)尺寸高斯濾波操作對(duì)檢測(cè)結(jié)果具有良好的影響,經(jīng)過(guò)預(yù)處理的色織物的檢測(cè)結(jié)果能夠準(zhǔn)確顯示出織物缺陷的位置。
圖1 深度卷積神經(jīng)網(wǎng)絡(luò)的色織物缺陷檢測(cè)算法流程圖Fig.1 Flowchart of deep-convolutional neural network method for yarn-dyed fabric defect detection. (a) Training phase; (b) Detection phase
圖2 色織物未經(jīng)過(guò)預(yù)處理和經(jīng)過(guò)預(yù)處理結(jié)果Fig.2 Samples of yarn-dyed fabrics without/with preprocessing. (a) Dark red, wrong color; (b) Wrong color with Gauss filter preprocessing; (c) Binary result without Gauss filter preprocessing of wrong color; (d) Binary result with Gauss filter preprocessing of wrong color; (e) Navy blue, belt yarn; (f) Belt yarn with Gauss filter preprocessing; (g) Binary result without Gauss filter preprocessing of belf yarn; (h) Binary result with Gauss filter preprocessing of belf yarn
1.2 深度卷積神經(jīng)網(wǎng)絡(luò)
1.2.1 卷積神經(jīng)網(wǎng)絡(luò)構(gòu)建
卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)是多層感知器的結(jié)構(gòu)變種。該網(wǎng)絡(luò)是由多層卷積層和多層降采樣層重復(fù)疊加而成,自底而上,神經(jīng)網(wǎng)絡(luò)的最上層是由多個(gè)普通神經(jīng)網(wǎng)絡(luò)構(gòu)成的全連通層[16]。目前,卷積神經(jīng)網(wǎng)絡(luò)被廣泛應(yīng)用于人臉識(shí)別、語(yǔ)音識(shí)別、圖像識(shí)別、運(yùn)動(dòng)目標(biāo)跟蹤與檢測(cè)等問(wèn)題中。
卷積神經(jīng)網(wǎng)絡(luò)是從卷積層自底而上分別對(duì)節(jié)點(diǎn)進(jìn)行卷積和降采樣提取圖像特征。卷積神經(jīng)網(wǎng)絡(luò)中卷積層的定義以及卷積后輸出的圖像尺寸如下式所示:
(m*h)x=∫m(t)h(x-t)dt
圖像特征映射函數(shù)定義如下式所示
式中:gn為卷積層的第n個(gè)神經(jīng)元;卷積層與上一層節(jié)點(diǎn)的連接權(quán)重為Gn;偏置項(xiàng)為an;i,j分別為神經(jīng)元在圖像特征平面上的坐標(biāo)。卷積神經(jīng)網(wǎng)絡(luò)的整體結(jié)構(gòu)如圖3所示。其中,輸入圖像作為輸入層。自底而上,從輸入層到S1是卷積過(guò)程,主要是增強(qiáng)原圖像特征,降低噪聲。在Sigmoid函數(shù)中,通過(guò)可訓(xùn)練的卷積濾波器,利用偏置函數(shù)進(jìn)行修正,進(jìn)行卷積獲得卷積特征圖像S1,它包含圖像的輪廓特征。從S1到C1是降采樣過(guò)程,主要是降低數(shù)據(jù)計(jì)算量,保留有效信息。該過(guò)程即S1中連續(xù)的窗口像素進(jìn)行求和(一般窗口像素取為圖像的紋理周期),并利用偏置函數(shù)修正加權(quán)平均值,從而映射到C1的一個(gè)窗口上獲取映射特征圖像,C1是降采樣后圖像,包含圖像的邊緣信息。從C1到S2是卷積過(guò)程,從S2到C2是降采樣過(guò)程,更復(fù)雜的圖像特征被準(zhǔn)確提取出來(lái),而且通過(guò)感受野和權(quán)重共享可減少網(wǎng)絡(luò)的參數(shù),使得算法訓(xùn)練速度更快,需要的訓(xùn)練樣本更少,效率明顯提高。
圖3 卷積神經(jīng)網(wǎng)絡(luò)整體結(jié)構(gòu)圖Fig.3 Structure of convolutional neural network
1.2.2 徑向基神經(jīng)網(wǎng)絡(luò)優(yōu)化
傳統(tǒng)的卷積神經(jīng)網(wǎng)絡(luò)的輸出層是通過(guò)使softmax回歸作為激勵(lì)函數(shù)用于圖像特征的最后分類[17];但是降采樣層與輸出層采用全連通的方式,會(huì)大大降低輸出層對(duì)圖像特征分類的能力,容易造成特征分類的準(zhǔn)確度下降等現(xiàn)象,所以,利用徑向基神經(jīng)網(wǎng)絡(luò)(Radial Basis Functions,RBF)[18]中局部指數(shù)衰減的非線性函數(shù)對(duì)卷積神經(jīng)網(wǎng)絡(luò)的非線性輸入輸出進(jìn)行局部逼近,可以優(yōu)化傳統(tǒng)的卷積神經(jīng)網(wǎng)絡(luò)的輸出層,提高系統(tǒng)網(wǎng)絡(luò)的分類能力。
徑向基神經(jīng)網(wǎng)絡(luò)包含輸入層、隱含層和輸出層,徑向基神經(jīng)網(wǎng)絡(luò)在卷積神經(jīng)網(wǎng)絡(luò)(見(jiàn)圖3)的基礎(chǔ)上構(gòu)建的深度卷積神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)如圖4所示。
圖4 深度卷積神經(jīng)網(wǎng)絡(luò)整體結(jié)構(gòu)圖Fig.4 Structure of deep-convolutional neural network
1.2.3 反向傳播學(xué)習(xí)算法調(diào)整權(quán)值參數(shù)
卷積神經(jīng)網(wǎng)絡(luò)和徑向基神經(jīng)網(wǎng)絡(luò)構(gòu)成的深度卷積神經(jīng)網(wǎng)絡(luò)需要進(jìn)行字典學(xué)習(xí),即權(quán)值參數(shù)調(diào)整與字典更新。深度卷積神經(jīng)網(wǎng)絡(luò)的權(quán)值參數(shù)調(diào)整與字典更新包括前向傳播和反向傳播。前向傳播和普通的神經(jīng)網(wǎng)絡(luò)是相似的,均采用由前向后依次傳遞。本文中反向傳播是采用基于反向傳播算法(Back-Propagation)的有監(jiān)督學(xué)習(xí)對(duì)深度卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練。反向傳播算法主要是通過(guò)前向傳播產(chǎn)生的結(jié)果和誤差作用于反向傳播調(diào)整權(quán)值參數(shù)。
假設(shè)輸入樣本(x,y),其前向傳播輸出的誤差代價(jià)函數(shù)為
(5)
(6)
1.3 二值化閾值
注:A為缺陷圖象;B為二值化結(jié)果圖5 部分色織物缺陷樣本檢測(cè)結(jié)果Fig.5 Some defect detection results of yarn-dyed fabric samples. (a) Warp and Broken of dark red; (b) Knot of dark red; (c) Dropping stitches of red; (d) Hole of red; (e) Hop yarn of gray; (f) Hole of gray; (g) Wrong filling of blue-white; (h) missing filling of blue-white; (i) Belt yarn of navy blue; (j) Thick bar of navy blue; (k) Belt yarn of light blue; (l) Double weft insertion of light blue; (m) Grin of orange; (n) Wrong organization of orange; (o) Rove of pink; (p) Broken yarn of pink;(q) Rust stains of white; (r) Double warp of white; (s) Knot of purple; (t) Belt yarn of purple
檢測(cè)過(guò)程中對(duì)輸入的缺陷樣本進(jìn)行最優(yōu)尺寸高斯濾波預(yù)處理,并利用訓(xùn)練階段獲得的映射函數(shù)對(duì)樣本圖像進(jìn)行重構(gòu),根據(jù)深度卷積字典提取重構(gòu)圖像特征。然而獲取的圖像特征需要進(jìn)一步分割,才能獲得增強(qiáng)的缺陷部分。考慮到Meanshift算法是一種高效的聚類迭代算法[19],因此,采用基于Meanshift的圖像分割方法處理圖像。Meanshift圖像分割包括圖像濾波和圖像合并。Meanshift濾波是將圖像像素中的Meanshift向量眾數(shù)作為中心引力場(chǎng),吸引其他像素,從而將圖像分割成小區(qū)域,實(shí)現(xiàn)平滑濾波過(guò)程。然后通過(guò)Meanshift合并,將相鄰差異性較小的像素合并,獲取較突出的缺陷區(qū)域。最后,對(duì)分割出來(lái)的缺陷部分進(jìn)行雙峰法的二值化處理,可以獲取最終的二值化缺陷檢測(cè)結(jié)果。
為了對(duì)提出的基于深度卷積神經(jīng)網(wǎng)絡(luò)的色織物缺陷檢測(cè)算法性能進(jìn)行評(píng)估,進(jìn)行了大量實(shí)驗(yàn)。實(shí)驗(yàn)中共選取了500幅無(wú)缺陷色織物作為訓(xùn)練樣本,400幅缺陷色織物作為檢測(cè)樣本??椢锇ò导t色、紅色、灰色、藍(lán)白色、藏藍(lán)色、淺藍(lán)色、橙色、粉色、白色、紫色共10種色織物。缺陷包括帶紗、結(jié)頭、錯(cuò)組織、密路、雙脫緯、缺緯、斷經(jīng)、稀路、污漬、破洞等20種色織物缺陷類型。10種顏色的色織物各包含50幅無(wú)缺陷訓(xùn)練樣本,40幅缺陷檢測(cè)樣本。本文實(shí)驗(yàn)是在Matlab R2008a環(huán)境下,處理器為Intel(R) Core(TM)i5-2400CPU@3.10GHz的計(jì)算機(jī)下完成的。色織物的圖像采用PNG格式,尺寸均為256像素×256像素。
圖5示出部分色織物缺陷檢測(cè)結(jié)果。從第1行到第10行分別為10種顏色的色織物樣本及二值化缺陷檢測(cè)結(jié)果,每種顏色分別展示2種缺陷類型,共16種缺陷類型。
缺陷檢測(cè)結(jié)果表明,基于深度卷積神經(jīng)網(wǎng)絡(luò)的色織物缺陷檢測(cè)算法對(duì)色織物具有較好的檢測(cè)性能,包括細(xì)節(jié)缺陷如斷經(jīng)、飛花、結(jié)頭等類型均能得到較準(zhǔn)確的檢測(cè)。其中,對(duì)于藍(lán)白色、藏藍(lán)色、淺藍(lán)色及橙色4種背景紋理結(jié)構(gòu)相對(duì)復(fù)雜的色織物缺陷樣本,檢測(cè)效果也十分理想,算法的檢測(cè)時(shí)間較短,達(dá)到了高效率與高準(zhǔn)確率的目的。
表1示出10種色織物的10種缺陷類型的檢測(cè)成功率。對(duì)于10種色織物各40幅缺陷檢測(cè)樣本,每種顏色的缺陷類型各5種,每種缺陷類型各8幅。根據(jù)表1的檢測(cè)結(jié)果可看出,對(duì)于10種缺陷種類平均的檢測(cè)成功率能夠達(dá)到87.5%以上。個(gè)別織物缺陷檢測(cè)成功率,由于織物背景紋理相對(duì)復(fù)雜,缺陷與背景紋理難以辨別導(dǎo)致檢測(cè)成功率相對(duì)較低。但是對(duì)于工業(yè)現(xiàn)場(chǎng)經(jīng)常出現(xiàn)的帶紗、破洞、污漬、結(jié)頭等缺陷檢測(cè)成功率是較高的,色織物的缺陷位置和形狀可得到較好的可視化效果,檢測(cè)效果較理想。
表1 色織物缺陷檢測(cè)成功率Tab.1 Defect detection rate yarn-dyed fabric %
本文采用基于深度卷積神經(jīng)網(wǎng)絡(luò)算法對(duì)色織物進(jìn)行缺陷檢測(cè)??椢飯D像在現(xiàn)場(chǎng)采集過(guò)程中會(huì)引入噪聲,使得圖像在一定程度上產(chǎn)生失真。因此,首先對(duì)缺陷織物進(jìn)行最優(yōu)尺寸高斯濾波,可以有效濾除細(xì)節(jié)噪聲并刻畫圖像邊緣信息。缺陷檢測(cè)過(guò)程包括訓(xùn)練階段和檢測(cè)階段,其中算法的訓(xùn)練階段是對(duì)無(wú)缺陷樣本集進(jìn)行卷積神經(jīng)網(wǎng)絡(luò)和徑向基神經(jīng)網(wǎng)絡(luò)的構(gòu)建,并利用反向傳播算法進(jìn)行參數(shù)調(diào)整與字典更新,從而獲得深度卷積神經(jīng)網(wǎng)絡(luò)的卷積字典和映射函數(shù)。算法的檢測(cè)階段包括利用獲取的映射函數(shù)對(duì)織物圖像進(jìn)行重構(gòu),并根據(jù)深度卷積字典提取重構(gòu)圖像的圖像特征。最后,通過(guò)Meanshift算法對(duì)圖像特征進(jìn)行圖像分割,獲取較突出的缺陷區(qū)域,并對(duì)分割出來(lái)的缺陷部分進(jìn)行雙峰法的二值化處理,得到色織物的二值化缺陷檢測(cè)結(jié)果。實(shí)驗(yàn)驗(yàn)證了算法的有效性,對(duì)400幅缺陷檢測(cè)樣本中20種缺陷類型的識(shí)別率較高,且適應(yīng)性較強(qiáng),可以實(shí)現(xiàn)高效率、高準(zhǔn)確率、縮短檢測(cè)時(shí)間的目的,基本達(dá)到工業(yè)現(xiàn)場(chǎng)對(duì)色織物顏色及缺陷種類在線檢測(cè)的要求。
FZXB
[1] KUMAR A. Computer-vision-based fabric defect detection: a survey [J]. IEEE Transactions on Industrial Electronics, 2008,55(1): 348-363.
[2] 張揚(yáng),蔣高明,姚君洲,等. 基于MRF層次模型的賈矢經(jīng)編針織物圖象分割技術(shù)[J]. 紡織學(xué)報(bào), 2012,33(12):102-106. ZHANG Yang, JIANG Gaoming, YAO Junzhou, et al. Segmentation of jacquard warp-knitted fabric image based on hierarchical Markov random field model[J]. Journal of Textile Research, 2012, 33 (12): 102-106.
[3] 潘如如, 高衛(wèi)東, 錢欣欣,等. 基于互相關(guān)的印花織物疵點(diǎn)檢測(cè)[J]. 紡織學(xué)報(bào), 2010, 31(12):134-138. PAN Ruru, GAO Weidong, QIAN Xinxin, et al. Defect detection of printed fabrics using normalized cross correlation[J]. Journal of Textile Research, 2010, 31(12):134-138.
[4] NGAN H Y T, PANG G K H, YUNG S P, et al. Wavelet based methods on patterned fabric defect detection[J]. Pattern Recognition, 2005, 38(4): 559-576.
[5] NGAN H Y T, YUNG S P. Automated fabric defect detection: a review[J]. Image and Vision Computing, 2011, 29(7): 442-458.
[6] NG M K, NGAN H Y T, YUAN X, et al. Patterned Fabric inspection and visualization by the method of image decomposition[J]. IEEE Transactions on Automation Science & Engineering, 2014, 11(3): 943-947.
[7] 景軍鋒, 范曉婷, 李鵬飛, 等. 應(yīng)用Gussian回代交替方向圖像分解算法的色織物疵點(diǎn)檢測(cè)[J]. 紡織學(xué)報(bào), 2016,37(6):136-141. JING Junfeng, FAN Xiaoting, LI Pengfei, et al. Yarn-dyed fabric defect detection based on Gaussian back substitution image decomposition[J]. Journal of Textile Research, 2016, 37(6):136-141.
[8] NGAN H Y T, PANG G K H. Novel method for patterned fabric inspection using bollinger bands[J]. Optical Engineering, 2006, 45(8): 087202-087217.
[9] NGAN H Y T, PANG G K H. Regularity analysis for patterned texture inspection[J]. IEEE Transactions on Automation Science & Engineering, 2009, 6(1):131-144.
[10] TAJERIPOUR F, KABIR E, SHEIKHI A. Defect detection in patterned fabrics using modified local binary patterns[C]//IEEE International Conference on Computational Intelligence and Multimedia Appli-cations[s.l.]: IEEE, 2007:263-267.
[11] NGAN H Y T, PANG G K H, YUNG N H C. Performance evaluation for motif-based patterned texture defect detection[J]. IEEE Transactions on Automation Science & Engineering, 2010, 7(1):58-72.
[12] 朱丹丹. 基于圖像分析的色織物疵點(diǎn)檢測(cè)研究[D]. 無(wú)錫:江南大學(xué), 2014: 33-43. ZHU Dandan. Research of defect detection for yarn-dyed fabric based on image analysis[D]. Wuxi: Jiangnan University, 2014: 33-43.
[13] 李文羽. 基于機(jī)器視覺(jué)和圖像處理的色織物疵點(diǎn)自動(dòng)檢測(cè)研究[D]. 上海:東華大學(xué), 2014: 60-76. LI Wenyu. Research on automatic detection for yarn-dyed fabirc defect based on machine vision and image processing[D]. Shanghai: Donghua University, 2014: 60-76.
[14] JING J, LIU S, LI P, et al. The fabric defect detection based on CIE L* a* b* color space using 2-D Gabor filter[J]. The Journal of The Textile Institute, 2015,107(10): 1-9.
[15] 王文遠(yuǎn). 基于圖像信噪比選擇優(yōu)化高斯濾波尺度[J]. 電子與信息學(xué)報(bào), 2009, 31(10):2483-2487. WANG Wenyuan. Selecting the optimal gaussian filtering scale via the SNR of image[J]. Journal of Electronics & Information Technology, 2009, 31(10): 2483-2487.
[16] KRIZHEVSKY A, SUTSKEVER I, HINTON G E. Imagenet classification with deep convolutional neural networks[J]. Advances in Neural Information Processing Systems, 2012, 25(2):1-9.
[17] 余永維, 殷國(guó)富, 殷鷹, 等. 基于深度學(xué)習(xí)網(wǎng)絡(luò)的射線圖像缺陷識(shí)別方法[J]. 儀器儀表學(xué)報(bào), 2014, 35(9): 2012-2019. YU Yongwei, YIN Guofu, YIN Ying, et al. Defect recognition for radiographic image based on deep learning network[J]. Chinese Journal of Scientific Instrument, 2014, 35(9):2012-2019.
[18] WllAMPWSKI B M, CECATUI C, KOLBYSZ J, et al. A novel RBF training algorithm for short-term electric load forecasting and comparative studies[J]. IEEE Transactions on Industrial Electronics, 2015, 62(10):1.
[19] TAO W, JIN H, ZHANG Y. Color image segmentation based on mean shift and normalized cuts[J]. IEEE Transactions on Systems, Man, and Cybernetics, Part B (Cybernetics), 2007, 37(5): 1382-1389.
Yarn-dyed fabric defect detection based on deep-convolutional neural network
JING Junfeng, FAN Xiaoting, LI Pengfei, HONG Liang
(SchoolofElectronicsandInformation,Xi′anPolytechnicUniversity,Xi′an,Shaanxi710048,China)
Focusing on the problems of high error detection and omission rate of traditional artificial fabric defect detection,this paper presents a yarn-dyed fabric defect detection method, which based on the deep-convolutional neural network. The fabric image contains much noise and has low signal noise ratio(SNR), and optimal dimension Gauss filter as preprocessing is conducted firstly for the sampled images to remove the detailed noise. Secondly, the deep-convolutional neural network is established based on the features of fabric samples, nonlinear mapping ability of radial basis function neural network acts upon convolutional neural network, weight parameters are adjusted via back propagation algorithm, and a mapping function between defect free samples and training samples can be obtained. Finally, the mapping function and features dictionary are used to reconstruct image and extract features, according to the Meanshift algorithm to segment the defects and determine the fabric defect position by two value. The experimental results demonstrate that the method based on the deep-convolutional neural network can achieve the purpose of improving efficiency, shortening the time of measurement, and obtaining an accurate defect image.
yarn-dyed fabric; image library; defect detection; deep-convolutional neural network; mapping funcition
10.13475/j.fzxb.20161001707
2016-10-09
2016-11-10
國(guó)家自然科學(xué)基金項(xiàng)目(61301276);陜西省工業(yè)科技攻關(guān)項(xiàng)目(2015GY034);西安工程大學(xué)研究生創(chuàng)新基金資助項(xiàng)目(CX201602);陜西省教育廳專項(xiàng)科研計(jì)劃項(xiàng)目(16JK1342);陜西省自然科學(xué)基礎(chǔ)研究計(jì)劃項(xiàng)目(2015JQ6258)
景軍鋒(1978—),男,副教授,博士。主要研究方向?yàn)闄C(jī)器視覺(jué)與圖像處理。E-mail:413066458@qq.com。
TP 391
A
獲獎(jiǎng)?wù)f明:本文榮獲中國(guó)紡織工程學(xué)會(huì)頒發(fā)的第17屆陳維稷優(yōu)秀論文獎(jiǎng)