亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于多尺度卷積神經(jīng)網(wǎng)絡(luò)的手機(jī)表面缺陷識別方法

        2023-11-13 12:54:14韓紅桂甄曉玲李方昱杜永萍
        關(guān)鍵詞:特征檢測方法

        韓紅桂, 甄曉玲, 李方昱, 杜永萍

        (1.北京工業(yè)大學(xué)信息學(xué)部, 北京 100124; 2.計(jì)算智能與智能系統(tǒng)北京市重點(diǎn)實(shí)驗(yàn)室, 北京 100124;3.數(shù)字社區(qū)教育部工程研究中心, 北京 100124)

        隨著智能手機(jī)行業(yè)的不斷發(fā)展,大量廢舊手機(jī)逐漸流入回收市場,導(dǎo)致廢舊手機(jī)數(shù)量日益增多,可回收價(jià)值巨大[1-4]。手機(jī)屏幕外觀是否完好直接影響到廢舊手機(jī)的價(jià)格,因此,實(shí)現(xiàn)對廢舊手機(jī)表面缺陷的精準(zhǔn)檢測成為促進(jìn)手機(jī)回收的重要保障。但是,因?yàn)槿狈Ω咝?、?biāo)準(zhǔn)、精確的廢舊手機(jī)缺陷識別方法,所以很難對廢舊手機(jī)進(jìn)行快速準(zhǔn)確的分級與定價(jià),同時(shí)還限制了回收效率[5-6]。目前,廢舊手機(jī)表面缺陷檢測以人工檢測和機(jī)器視覺檢測為主,傳統(tǒng)的人工檢測法不僅成本高,而且過程煩瑣耗時(shí)、效率低。此外,人眼存在視覺疲勞,長時(shí)間生產(chǎn)線工作易發(fā)生失誤操作,導(dǎo)致檢測準(zhǔn)確率難以滿足實(shí)際工業(yè)需求。機(jī)器視覺檢測法雖然相對于人工檢測法速度更快、可靠性更高、準(zhǔn)確性更強(qiáng),但是特征提取能力不太理想,準(zhǔn)確率仍不能滿足工業(yè)場景缺陷檢測的性能要求??焖佟?zhǔn)確地識別廢舊手機(jī)表面缺陷已經(jīng)成為影響手機(jī)回收效率的重要因素。因此,設(shè)計(jì)一種高效、準(zhǔn)確的廢舊手機(jī)表面缺陷檢測方法已經(jīng)成為手機(jī)高效自動(dòng)化回收的關(guān)鍵,能夠降低誤檢率,提高廢舊手機(jī)回收企業(yè)的經(jīng)濟(jì)效益和回收效率,從而避免資源浪費(fèi),創(chuàng)造更大的經(jīng)濟(jì)價(jià)值[7-10]。

        針對手機(jī)表面缺陷難以識別的問題,汪永勇等[11]設(shè)計(jì)了一種基于相對總變差模型的圖像結(jié)構(gòu)提取方法。該方法能夠抑制液晶屏紋理,將提取后的結(jié)構(gòu)信息通過高頻提升濾波器增強(qiáng)高頻分量,還能保持低頻分量的特性,對圖像中的缺陷進(jìn)行顯著性檢測。該方法能有效地檢測液晶屏的缺陷,但此方法只適用于檢測大面積缺陷,對細(xì)小的表面劃痕識別效率差[11]。Tsai等[12]提出針對手機(jī)配件的劃痕識別方法,該方法采用Gabor核函數(shù)提取劃痕特征,結(jié)合滯后多閾值分割與紋理抑制實(shí)現(xiàn)缺陷檢測,能夠檢測碎裂等。然而,該方法只能檢測大面積碎裂,無法檢測劃痕,不能滿足工業(yè)上大規(guī)模的檢測需求,并且由于紋理抑制作用過強(qiáng),可能引起部分劃痕中斷,產(chǎn)生錯(cuò)誤的識別結(jié)果。Jiang等[13]運(yùn)用了統(tǒng)計(jì)學(xué)中的方差分析和指數(shù)加權(quán)移動(dòng)平均的方法檢測手機(jī)屏幕缺陷,實(shí)驗(yàn)結(jié)果表明,該檢測方法的識別準(zhǔn)確率顯著提升,但是該方法對細(xì)小劃痕造成漏檢現(xiàn)象,不能滿足工業(yè)的高標(biāo)準(zhǔn)要求。Wei等[14]使用卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural networks, CNN)替代傳統(tǒng)的關(guān)鍵點(diǎn)特征提取方法,對廢舊手機(jī)外觀邊緣及其形狀進(jìn)行描述,實(shí)驗(yàn)結(jié)果顯示提出的方法在廢舊手機(jī)品牌外觀識別中取得了較好效果。然而,在對細(xì)小劃痕進(jìn)行識別時(shí),精度難以滿足需求,并且CNN在圖像特征提取時(shí)需要大量的標(biāo)注數(shù)據(jù)。結(jié)果表明,該算法雖然可以識別裂紋,但是精度較低。通過上述方法雖然能夠識別碎裂等特征,但對劃痕的識別準(zhǔn)確率有待提高,不能滿足工業(yè)回收中的高標(biāo)準(zhǔn)要求。

        針對難以精準(zhǔn)識別細(xì)小劃痕的問題,Tsai等[15]提出了一種用于檢測表面微小缺陷的卷積濾波方案,使用約束的獨(dú)立分量分析模型設(shè)計(jì)一個(gè)最優(yōu)濾波器,并且用約束中獨(dú)立分量的控制參數(shù)來設(shè)置閾值,該方法可以有效地識別手機(jī)表面圖像以及低對比度背光板中的細(xì)小缺陷,但是由于計(jì)算量大,導(dǎo)致處理速度較慢。Chao等[16]設(shè)計(jì)了各向異性擴(kuò)散的方案用于檢測手機(jī)表面圖像中的缺陷,該方法可以同時(shí)進(jìn)行平滑和銳化操作,從而利用簡單的閾值分割技術(shù)對圖像進(jìn)行分割。該方法能有效地檢測圖像中的缺陷,然而,在模型訓(xùn)練過程中計(jì)算量較大,因此,檢測速度下降。Lin等[17]提出一種基于雙線性卷積神經(jīng)網(wǎng)絡(luò)方法(bilinear convolutional neural networks, B-CNN),該方法依靠2個(gè)深度CNN同時(shí)提取手機(jī)表面圖像中某一圖像塊的圖像特征與位置特征,通過外積相乘的方式組合成雙線性特征,并利用該特征進(jìn)行識別,在細(xì)粒度圖像基準(zhǔn)數(shù)據(jù)集中取得了較高的準(zhǔn)確率,但該方法在運(yùn)算時(shí)引入了大量的外積運(yùn)算,增加了卷積核中的冗余信息,導(dǎo)致運(yùn)算量大幅增加,不能滿足廢舊手機(jī)大規(guī)?;厥盏男枨?。盡管上述方法能夠識別缺陷,然而模型訓(xùn)練計(jì)算量大,耗時(shí)長,導(dǎo)致檢測速度下降,無法滿足目前復(fù)雜的缺陷檢測需求和工業(yè)上高標(biāo)準(zhǔn)的要求。

        針對檢測速度慢的問題,林琳等[18]提出了一種基于邊緣檢測的生產(chǎn)線手機(jī)膜缺陷識別方法,該方法采用旋轉(zhuǎn)、縮放和平移(rotation,scaling,translation,RST)不變性和圖像剪切方法進(jìn)行數(shù)據(jù)增強(qiáng),再使用不同的閾值方法提取出手機(jī)膜表面信息,最后,采用支持向量機(jī)(support vector machines, SVM)對手機(jī)膜的邊緣矩陣特征進(jìn)行識別。該方法處理速度快,能有效地檢測細(xì)小缺陷。李帥等[19]提出了一種基于Faster-RCNN[20]的目標(biāo)球識別算法,該方法利用ZF-Net網(wǎng)絡(luò)模型進(jìn)行特征提取,然后通過建立區(qū)域生成網(wǎng)絡(luò)(region proposal network, RPN)獲得感興趣區(qū)域,并使用回歸與分類網(wǎng)絡(luò)獲得待檢測目標(biāo)的類別概率和位置信息。實(shí)驗(yàn)結(jié)果顯示,該算法的魯棒性均優(yōu)于傳統(tǒng)的識別算法,然而,該算法的精度仍有待提高。Song等[21]提出了一種基于混合算子的圖像邊緣檢測算法,該算法將Sobel算子[22]和Hough變換[23]結(jié)合在噪聲干擾下能有效地進(jìn)行劃痕檢測,同時(shí)采用概率Hough變換,降低了計(jì)算復(fù)雜度,提高了檢測速度。韓紅桂等[24]設(shè)計(jì)了一種基于孿生卷積神經(jīng)網(wǎng)絡(luò)(siamese convolutional neural networks, S-CNN)的手機(jī)型號識別方法,該方法構(gòu)造了一種共享權(quán)值的特征提取孿生卷積網(wǎng)絡(luò)方法,通過評估廢舊手機(jī)圖像特征和手機(jī)驗(yàn)機(jī)照片特征的相似性,實(shí)現(xiàn)了手機(jī)型號的快速識別,然而該方法適用于識別手機(jī)型號等較大特征的檢測,對劃痕等缺陷的識別精度較低。Liu等[25]提出了單針多盒探測器(single shot multibox detector, SSD)算法,結(jié)合了YOLO算法[26]的回歸思想與Faster RCNN[20]的錨定框機(jī)制,做到了速度與準(zhǔn)確率并存。該算法首先使用基礎(chǔ)網(wǎng)絡(luò)提取低維度的特征映射圖,再使用輔助卷積層提取高維度的特征映射圖,最后使用預(yù)測卷積層輸出結(jié)果。但是,該類方法精度有待提高,并且上述方法能夠在單一的圖像場景中實(shí)現(xiàn)較好的識別效果,沒有對分級任務(wù)進(jìn)行實(shí)驗(yàn),難以應(yīng)對復(fù)雜的手機(jī)回收場景。

        綜合上述問題,并針對廢舊手機(jī)表面缺陷復(fù)雜、多樣的特點(diǎn),提出一種兼具Sobel算子、邏輯損失函數(shù)(logistic loss function,LLF)和多尺度卷積神經(jīng)網(wǎng)絡(luò)(multi-scale convolution neural networks,MSCNN)手機(jī)表面缺陷識別方法SL-MSCNN。

        1 手機(jī)缺陷識別方法

        1.1 基于Sobel的邊緣提取方法

        根據(jù)手機(jī)屏幕類型缺陷特性和成因,本文的研究重點(diǎn)是識別2種最主要的缺陷:劃痕和碎裂。本文提出2個(gè)問題:首先,劃痕和碎裂可能出現(xiàn)在同一張圖像中,還存在多個(gè)檢測目標(biāo)位置較近的情況,導(dǎo)致檢測難度提升;其次,沒有充足的樣本數(shù)據(jù),若將整個(gè)圖像或一個(gè)檢測目標(biāo)視為一個(gè)樣本集,那么,訓(xùn)練數(shù)據(jù)不足,不能獲得理想的參數(shù)。為了保證數(shù)據(jù)的有效性,獲得更加精準(zhǔn)的識別結(jié)果,并降低缺陷識別時(shí)無關(guān)因素的干擾,本文對圖片進(jìn)行了預(yù)處理,使圖像的邊界更加突出且其他細(xì)節(jié)更加精細(xì),以獲得有效的數(shù)據(jù)集,提高算法的識別精度。

        首先,為了簡化后期的處理并提升圖像處理速度,采用二值化方法對原始數(shù)據(jù)圖像處理,得到矩陣D(t)。其次,使用Sobel算子對圖像矩陣D(t)進(jìn)行細(xì)化,得到光滑、連續(xù)的圖像,而針對模糊的部分,重復(fù)上述過程,直至得到較清晰圖像[27-28]。Sobel算子的公式為

        Gx(t)=Ex*D(t)

        (1)

        Gy(t)=Ey*D(t)

        (2)

        式中:D(t)表示經(jīng)過二值化后的圖像數(shù)據(jù);Gx(t)表示x方向邊緣檢測的圖像灰度矩陣;Gy(t)表示y方向邊緣檢測的圖像灰度矩陣;*表示Sobel算子矩陣與原始圖像像素點(diǎn)的卷積運(yùn)算;Ex、Ey分別表示x、y方向的Sobel算子卷積因子,公式為

        (3)

        (4)

        圖像中每個(gè)像素x方向和y方向的灰度值表示公式為

        |G(t)|=|Gx(t)|+|Gy(t)|

        (5)

        式中G(t)為像素點(diǎn)的灰度值。

        1.2 CNN

        CNN是前饋神經(jīng)網(wǎng)絡(luò),通常用于特征提取。CNN由輸入層、卷積層、激活層、池化層、全連接層組成。通常池化層和卷積層交換使用,因此,樣本提取的特征具有平移旋轉(zhuǎn)不變性,并且還能降低參數(shù)的數(shù)量,有利于網(wǎng)絡(luò)優(yōu)化。CNN的主要結(jié)構(gòu)包含以下幾個(gè)部分:

        1) 卷積層。卷積層用于提取圖像的特征,是卷積網(wǎng)絡(luò)的核心點(diǎn)。

        2) 池化層。池化層用于剔除冗余區(qū)域并且可以降低數(shù)據(jù)的維度。

        3) 激活層。激活層用于激活每個(gè)元素。

        1.3 MSCNN模型

        廢舊手機(jī)表面缺陷主要有反光、缺陷細(xì)小和像素較低等特點(diǎn),并且廢舊手機(jī)表面缺陷大小不一、形式各異,傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)方法難以精準(zhǔn)識別廢舊手機(jī)表面缺陷。為了降低手機(jī)表面缺陷識別誤檢率,本文提出了SL-MSCNN方法。該方法采用3個(gè)尺度針對性地識別大、中、小型目標(biāo),能夠提高廢舊手機(jī)表面缺陷的識別精度,整體框架結(jié)構(gòu)如圖1所示。其中:DBL組件由卷積、批正則化和激活函數(shù)組成,批正則化Resn中的n代表1、2、8,Resn表示具有殘差結(jié)構(gòu)的組件,不僅使得網(wǎng)絡(luò)結(jié)構(gòu)更深,并且還降低了梯度爆炸的風(fēng)險(xiǎn);concat拼接骨干中間層與后面某一層的上采樣,拓寬了張量維度。殘差組件是由2個(gè)卷積層和1個(gè)快捷鏈路組成。

        表1 不同算法識別精度與速度對比

        圖1 MSCNN結(jié)構(gòu)Fig.1 Structure of MSCNN

        MSCNN采用多尺度思想進(jìn)行缺陷識別,即高層特征采取上采樣、低層特征進(jìn)行下采樣的思想。不同尺寸的網(wǎng)格單元用來檢測不同尺寸的目標(biāo),因此,能夠提升識別細(xì)小缺陷的準(zhǔn)確率。MSCNN包括輸入層、特征提取層和輸出層,特征提取層包含卷積層和池化層等。MSCNN輸入層是416×416的像素矩陣,特征提取層是104×104的像素矩陣,輸出層分別為52×52、26×26、13×13的像素矩陣,13×13的像素矩陣的尺度輸出用來識別小型缺陷,26×26的像素矩陣用來檢測缺陷,52×52的像素矩陣用來檢測大型缺陷。

        MSCNN使用了提取圖片特征的全卷積網(wǎng)絡(luò)結(jié)構(gòu)。該結(jié)構(gòu)包括卷積層、批正則化以及躍層鏈接等。該網(wǎng)絡(luò)結(jié)構(gòu)采用多尺度的思想提高了物體的識別效率,躍層鏈接強(qiáng)化了收斂效果。MSCNN是由許多殘差模塊構(gòu)成,不僅能減小梯度爆炸的風(fēng)險(xiǎn),還可以增強(qiáng)網(wǎng)絡(luò)的學(xué)習(xí)能力。MSCNN的網(wǎng)絡(luò)結(jié)構(gòu)如圖2所示。其中,1、2、4、8表示殘差組件的個(gè)數(shù)。

        MSCNN各層表示如下。

        1) 卷積層。卷積層是卷積網(wǎng)絡(luò)的核心部分。卷積核在上級輸入層上通過固定步長的滑動(dòng)窗口計(jì)算得到卷積特征圖,計(jì)算公式為

        Q(t)=f(ω(t)G(t)+λ)

        (6)

        式中:Q(t)表示激活特征圖;f(·)表示激活函數(shù);ω(t)表示MSCNN的權(quán)值;λ表示MSCNN的輸出偏置參數(shù),為0~1的常數(shù)。

        2) 池化層。池化層主要用于降低冗余區(qū)域出現(xiàn)的概率并且提取特征。池化包含最大池化和平均池化2種方式。本文采用平均池化方法,平均池化公式為

        (7)

        式中:Hv(t)表示Q(t)經(jīng)過池化后的輸出向量;v是模型輸出的尺度,v=1, 2, 3;Z1為水平池化步長;Z2為垂直池化步長;a為平均池化后卷積特征圖的水平方向的維度;b為平均池化后卷積特征圖的垂直方向的維度;m為特征矩陣中的行數(shù);n為特征矩陣中的列數(shù)。

        3) 輸出層。輸出的特征圖像是3個(gè)不同維度,分別為52×52、26×26和13×13。特征圖的維度不同預(yù)測的缺陷尺寸不同。輸出層的公式為

        O(t)=[H1(t),H2(t),H3(t)]

        (8)

        式中O(t)表示MSCNN的輸出矩陣。

        輸出的特征圖像是3個(gè)不同維度,分別為52×52、26×26和13×13。MSCNN使用卷積作為最后一層的目標(biāo)預(yù)測,其中包含邊界框預(yù)測、框中目標(biāo)預(yù)測以及分類預(yù)測。如果每個(gè)尺寸的神經(jīng)網(wǎng)絡(luò)都預(yù)測了3個(gè)邊界框,得到邊界總預(yù)測量S的公式為

        S=N×N×[3(4+1+A)]

        (9)

        式中:N×N表示先驗(yàn)框網(wǎng)格數(shù);4表示邊界框的偏移量;1表示目標(biāo)預(yù)測的個(gè)數(shù);A表示預(yù)測類別個(gè)數(shù)。

        1.4 損失函數(shù)

        損失函數(shù)作為深度神經(jīng)網(wǎng)絡(luò)對誤檢樣本的評價(jià)依據(jù),它能影響模型的收斂效果,恰當(dāng)?shù)膿p失函數(shù)能夠獲得良好的識別效果[25]。本文設(shè)計(jì)了一種新的損失函數(shù),其表達(dá)式為

        L(t)=L1(t)+L2(t)+L3(t)+L4(t)

        (10)

        式中:L(t)表示LLF;L1(t)表示中心坐標(biāo)誤差損失函數(shù);L2(t)表示寬高坐標(biāo)誤差損失函數(shù);L3(t)表示置信度誤差損失函數(shù);L4(t)表示分類誤差損失函數(shù)。

        L1(t)的公式為

        (11)

        L2(t)的公式為

        (12)

        L3(t)的公式為

        (13)

        L4(t)的公式為

        (14)

        利用梯度下降算法訓(xùn)練MSCNN模型參數(shù),更新表達(dá)式為

        (15)

        式中:ω(t+1)表示在t+1次迭代時(shí)CNN層中的權(quán)重;ω(t)表示在t次迭代時(shí)CNN層中的權(quán)重,初始值ω(1)的各元素均為0~1的常數(shù);ρ為梯度下降算法的學(xué)習(xí)率,在區(qū)間[0.01, 0.10]中隨機(jī)取值。

        綜上,本文結(jié)合Sobel算子能夠排除無關(guān)因素干擾和細(xì)化邊緣特征、LLF可以降低梯度消失發(fā)生的概率并加快訓(xùn)練速度以及MSCNN骨干網(wǎng)絡(luò)能夠獲得手機(jī)表面圖像多尺度信息等優(yōu)點(diǎn),建立了SL-MSCNN。

        2 實(shí)驗(yàn)與結(jié)果分析

        2.1 數(shù)據(jù)集的構(gòu)建

        在廢舊手機(jī)數(shù)據(jù)采集過程中,本文從華強(qiáng)北商業(yè)區(qū)、北京和上海的廢舊手機(jī)企業(yè)收集數(shù)據(jù)。本文使用手機(jī)和數(shù)碼相機(jī)拍攝廢舊手機(jī)的彩色圖像,并將拍攝的圖像數(shù)據(jù)整理成廢舊手機(jī)表面缺陷數(shù)據(jù)庫。這些數(shù)據(jù)于2021年7月收集,采集和整理的時(shí)間共耗時(shí)14 d。該數(shù)據(jù)庫包含2 000張照片,手機(jī)屏幕圖像的尺寸被調(diào)整為416×416像素。該數(shù)據(jù)庫包含6個(gè)主流手機(jī)品牌:蘋果、華為、oppo、vivo、三星和小米。

        手機(jī)屏幕由玻璃等構(gòu)成,當(dāng)表面沒有缺陷時(shí),會(huì)呈現(xiàn)出顏色均勻的圖片,如果存在缺陷,就會(huì)呈現(xiàn)出不透光、缺陷顏色較深或圖像局部畸變的現(xiàn)象。影響手機(jī)表面缺陷識別準(zhǔn)確率的因素主要有反光、缺陷細(xì)小和像素較低等。反光易造成圖像缺失,難以對其進(jìn)行缺陷檢測;缺陷細(xì)小則不易被檢測;像素較低,使得圖像模糊,容易丟失重要信息。因此,如果不排除這些干擾因素的影響,極其容易發(fā)生誤檢和漏檢。為了提取圖像特征,實(shí)現(xiàn)手機(jī)表面缺陷識別,文中收集并整理了不同型號和不同缺陷的廢舊手機(jī)照片,并篩選計(jì)算機(jī)可識別的圖像數(shù)據(jù),圖像數(shù)據(jù)集如圖3所示。

        圖3 圖像數(shù)據(jù)集Fig.3 Image dataset

        此外,文中將廢舊手機(jī)特征數(shù)據(jù)集隨機(jī)分為兩部分,選取其中4/5的圖像特征數(shù)據(jù)集作為訓(xùn)練集,剩余1/5作為測試集。隨機(jī)選取4/5的訓(xùn)練集訓(xùn)練網(wǎng)絡(luò)模型,剩余1/5進(jìn)行實(shí)驗(yàn)驗(yàn)證。

        2.2 實(shí)驗(yàn)環(huán)境及參數(shù)配置

        本文實(shí)驗(yàn)環(huán)境為:Inter(R) Core(TM) i5-10210U CPU @ 1.60 GHz 2.11 GHz、16.0 GB內(nèi)存、Microsoft Windows 10、64位操作系統(tǒng),基于x64的處理器。本算法在Pytorch中實(shí)現(xiàn)。對比實(shí)驗(yàn)中硬件配置部分均相同。

        本文對數(shù)據(jù)集類標(biāo)簽信息進(jìn)行了處理,將包含實(shí)驗(yàn)需要的劃痕類別設(shè)置為scratch、碎裂類別設(shè)置為crackle。選用2 000張圖像作為實(shí)驗(yàn)數(shù)據(jù)集,并分為兩部分,其中,1 600張圖像作為訓(xùn)練數(shù)據(jù)集,400張圖像作為測試數(shù)據(jù)集,迭代次數(shù)為 2 000次。

        訓(xùn)練前,初始化模型中的各項(xiàng)參數(shù):訓(xùn)練批量表示同時(shí)輸入模型的樣本數(shù),將其設(shè)為64;最大迭代次數(shù)設(shè)置為2 000。在訓(xùn)練過程中,使用SL-MSCNN參數(shù)進(jìn)行調(diào)整,文中選取了SSD算法、YOLOV1與SL-MSCNN進(jìn)行對比訓(xùn)練實(shí)驗(yàn),每種方法各訓(xùn)練200次,損失函數(shù)收斂曲線如圖4所示。

        圖4 訓(xùn)練收斂對比曲線Fig.4 Training convergence comparison curves

        2.3 結(jié)果分析

        2.3.1 預(yù)處理結(jié)果

        為了保證數(shù)據(jù)的有效性,更高效地獲得檢測結(jié)果,降低缺陷檢測時(shí)無關(guān)因素的干擾,首先對圖片進(jìn)行二值化處理,使圖像的邊界更加突出且其他細(xì)節(jié)更加精細(xì),然后再進(jìn)行Sobel算子處理,通過細(xì)化圖像邊緣獲得光滑、連續(xù)的圖像,提高算法的檢測效率,對比結(jié)果如圖5所示。圖5(a)表示圖像數(shù)據(jù)的原圖;圖5(b)表示經(jīng)過二值化處理的結(jié)果圖;圖5(c)表示經(jīng)過Sobel算子xy方向處理的結(jié)果圖。通過上述對比實(shí)驗(yàn)結(jié)果可以得出,經(jīng)過二值化處理后的圖像數(shù)據(jù)排除了光照等無關(guān)因素的干擾,能夠降低誤檢率。通過圖5(c)可以明顯看出,經(jīng)過Sobel算子xy方向處理的結(jié)果圖不僅圖像邊界更加突出并且細(xì)節(jié)更加精細(xì),不但降低了計(jì)算量,還加快了識別速度。實(shí)驗(yàn)結(jié)果證明,通過Sobel算子進(jìn)行預(yù)處理能夠有效提取手機(jī)表面缺陷的特征。

        圖5 圖像預(yù)處理結(jié)果對比Fig.5 Comparison of image pre-processing results

        2.3.2 算法評價(jià)指標(biāo)

        將平均識別精度Pma、精確率Pre和召回率Rec的調(diào)和平均數(shù)F1及幀率視為評價(jià)性能的指標(biāo),對比實(shí)驗(yàn)結(jié)果如表1所示。Pma的公式為

        (16)

        式中:k表示總類別數(shù);i表示類別的編號;Ti表示第i類樣本被模型預(yù)測的正確個(gè)數(shù);Ni表示第i類樣本被模型預(yù)測的錯(cuò)誤個(gè)數(shù)。

        F1是衡量分類問題的指標(biāo)之一。第i類樣本的精確率公式為

        (17)

        第i類樣本的召回率公式為

        (18)

        第i類樣本的F1公式為

        (19)

        對每個(gè)類別求F1的平均值,公式為

        (20)

        F1運(yùn)用了調(diào)和平均數(shù)算法,能夠更加重視Pre和Rec中較低的值,因此,對這2個(gè)指標(biāo)的重視程度相同,避免極端情況的發(fā)生。

        2.3.3 不同目標(biāo)檢測算法對比結(jié)果

        為了驗(yàn)證SL-MSCNN算法在缺陷識別方面的優(yōu)越性以及經(jīng)過Sobel算子處理后的數(shù)據(jù)集邊緣更加精細(xì),文中選取了YOLOV1和SSD的目標(biāo)識別方法進(jìn)行對比實(shí)驗(yàn)。3種算法分別在經(jīng)過Sobel算子處理后的數(shù)據(jù)集中進(jìn)行訓(xùn)練與測試,并且3種算法分別在原始數(shù)據(jù)集進(jìn)行驗(yàn)證和測試,實(shí)驗(yàn)結(jié)果如表1所示。

        表1顯示:SSD的幀率雖然較大,但是平均識別精度比較低,不適用于識別小劃痕,因此,不能滿足高標(biāo)準(zhǔn)的要求;相比SSD,YOLOV1的平均識別精度有較大的提升,但是YOLOV1的幀率較小,識別速度下降,不能滿足大規(guī)模識別的需求;SL-MSCNN的平均識別精度和識別速度都有顯著提升,在實(shí)現(xiàn)精準(zhǔn)識別的同時(shí)滿足了快速檢測的需求。

        2.3.4 不同損失函數(shù)分析

        為了驗(yàn)證SL-MSCNN中損失函數(shù)的有效性,在保證其他條件均相同的前提下,使用LLF、翻譯嵌入(translating embeddings,TSE)損失函數(shù)和Sigmoid損失函數(shù)分別對數(shù)據(jù)集進(jìn)行訓(xùn)練,并對缺陷檢測結(jié)果進(jìn)行比較。

        從表2可以看出,使用LLF在數(shù)據(jù)集上的平均識別精度有明顯的提高,平均識別精度達(dá)到94.75%,比Sigmoid損失函數(shù)提高了5.73%,這是由于LLF考慮的特征信息更加全面,有利于更有效地判別和提取信息,并且?guī)首罡?檢測所用的時(shí)間也明顯縮短,表現(xiàn)出更高的識別效率。因此,SL-MSCNN在識別廢舊手機(jī)表面缺陷方面具有較好的識別精度和檢測速度。通過以上3組對比實(shí)驗(yàn)可以得知,文中所提的方法具有更精準(zhǔn)的識別準(zhǔn)確率和更快的識別速度。

        表2 不同損失函數(shù)識別效果對比

        3 結(jié)論

        1) 文中基于MSCNN算法,結(jié)合Sobel算子和LLF,提高了算法在廢舊手機(jī)缺陷識別方面的準(zhǔn)確率。

        2) 在圖像預(yù)處理方面,通過構(gòu)建基于Sobel算子的鄰域特征增強(qiáng)方法,排除了圖像中光照、陰影等無關(guān)因素的干擾。

        3) 在網(wǎng)絡(luò)構(gòu)建方面,設(shè)計(jì)了基于多尺度卷積神經(jīng)網(wǎng)絡(luò)的廢舊手機(jī)表面缺陷識別方法,獲得了更全面的手機(jī)表面圖像多尺度信息,識別準(zhǔn)確率提升至94.75%。

        4) 在損失函數(shù)選取方面,通過引入LLF,不僅減少了梯度消失的發(fā)生,還加快了識別速度。

        5) 文中的缺陷識別方法能夠精準(zhǔn)識別手機(jī)表面缺陷,具有良好的使用價(jià)值。在后續(xù)工作中,將會(huì)實(shí)現(xiàn)對手機(jī)顏色和攝像頭形狀等屬性的識別。

        猜你喜歡
        特征檢測方法
        “不等式”檢測題
        “一元一次不等式”檢測題
        “一元一次不等式組”檢測題
        如何表達(dá)“特征”
        不忠誠的四個(gè)特征
        抓住特征巧觀察
        可能是方法不對
        小波變換在PCB缺陷檢測中的應(yīng)用
        用對方法才能瘦
        Coco薇(2016年2期)2016-03-22 02:42:52
        四大方法 教你不再“坐以待病”!
        Coco薇(2015年1期)2015-08-13 02:47:34
        亚洲一区二区av偷偷| 亚洲人成人无码www| 国产综合在线观看| 鸭子tv国产在线永久播放| 秋霞午夜无码鲁丝片午夜精品| 亚州精品无码人妻久久| 在线亚洲AV不卡一区二区 | 国产精品天天看天天狠| 国产精品久久国产三级国不卡顿| 操出白浆在线观看| 亚洲素人av在线观看| 激情亚洲一区国产精品| 亚洲avav天堂av在线网爱情| 国产精品公开免费视频| 亚洲精品6久久久久中文字幕| 亚洲国产线茬精品成av| 妃光莉中文字幕一区二区| 亚洲国产成人精品无码区在线秒播| 人妻丰满熟妇av无码处处不卡| 欧美激情国产亚州一区二区| 日本三区在线观看视频| 精品人妻av区乱码色片| 在教室伦流澡到高潮hgl动漫| 伊人久久大香线蕉综合网站| 欧美性猛交xxxx乱大交丰满| 人妻无码一区二区在线影院| 亚洲综合天堂av网站在线观看| 中文字幕乱码亚洲在线| 夜夜揉揉日日人人青青| 亚洲精品中文字幕无乱码麻豆| 亚洲欧美成人中文在线网站| 色婷婷亚洲精品综合影院| 久久精品无码一区二区日韩av| 婷婷四房色播| 亚洲av网一区天堂福利| 亚洲一区二区三区高清在线| 人妻丰满熟妇av无码片| 国产香蕉尹人在线视频播放| 国产成年无码久久久久下载| 自拍偷区亚洲综合激情| 国内精品久久久久伊人av|