亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于深度學(xué)習(xí)的主軸承蓋分類識(shí)別算法

        2021-09-19 13:55:38張鵬飛石志良李曉垚歐陽祥波
        圖學(xué)學(xué)報(bào) 2021年4期
        關(guān)鍵詞:特征模型

        張鵬飛,石志良,李曉垚,歐陽祥波

        (1.武漢理工大學(xué)機(jī)電工程學(xué)院,湖北 武漢 430070;2.廣州工業(yè)大學(xué)機(jī)電工程學(xué)院,廣東 廣州 510006)

        汽車發(fā)動(dòng)機(jī)主軸承蓋零件,主要用于曲軸定位,保護(hù)曲軸軸承,是發(fā)動(dòng)機(jī)重要組成零件之一。作為發(fā)動(dòng)機(jī)零部件的配套企業(yè),需要為多款發(fā)動(dòng)機(jī)配備不同的主軸承蓋零件,實(shí)際生產(chǎn)中,各種主軸承蓋零件,經(jīng)過清洗、去毛刺等工序后,被雜亂地混合在一起,對(duì)后續(xù)的激光打標(biāo)和分類包裝帶來了嚴(yán)重干擾。

        區(qū)別于傳統(tǒng)的人工目視識(shí)別方法,自動(dòng)識(shí)別分類技術(shù)信息化程度高,可控性好,其分類的準(zhǔn)確性和穩(wěn)定性也更有保障?;跈C(jī)器視覺的圖像物體識(shí)別分類方法,主要分為特征描述和深度學(xué)習(xí)2 種技術(shù)路線。

        采用特征提取的圖像物體識(shí)別方法,重點(diǎn)關(guān)注圖像描述規(guī)則的設(shè)計(jì),通過人為設(shè)計(jì)的規(guī)則,將一幅圖像描述成一個(gè)特征向量,最后使用機(jī)器學(xué)習(xí)分類器,如支持向量機(jī)(support vector machines,SVM)[1]等,對(duì)特征向量的集合進(jìn)行識(shí)別和分類。經(jīng)典的特征提取方法有:局部二值模式(local binary pattern,LBP)[2]、尺度不變特征變換(scale invariant feature transform,SIFT)[3]、方向梯度直方圖(histogram of oriented gradient,HOG)[4]等。盡管,在形成最終特征描述向量的過程中,通過特征編碼和特征匯聚等方式,一定程度上提高了特征描述的穩(wěn)定性,但此類方法在處理不均勻光照、細(xì)粒度分類等問題上,仍具有較大誤差。在之前的研究中,提出基于特征提取的SIFT-SVM 零件識(shí)別方法[5]。該方法關(guān)注零件頂部圖像的SIFT 特征關(guān)鍵點(diǎn),通過聚類算法對(duì)分散的關(guān)鍵點(diǎn)進(jìn)行整合,結(jié)合詞袋模型,進(jìn)行特征匯聚和降維,最終使用SVM 分類器進(jìn)行識(shí)別分類。實(shí)驗(yàn)結(jié)果證明,在正常光源條件下,識(shí)別準(zhǔn)確率為100%,單個(gè)零件識(shí)別時(shí)間為0.6 s。

        采用深度學(xué)習(xí)的圖像物體識(shí)別方法,是近年來機(jī)器視覺領(lǐng)域的熱點(diǎn)研究方向[6],其中最具代表性的方法是卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural networks,CNN),已廣泛應(yīng)用于物體識(shí)別[7]、行人檢測[8]、人臉識(shí)別[9]等多個(gè)領(lǐng)域。事實(shí)上,學(xué)術(shù)界已有觀點(diǎn)[10]認(rèn)為,基于手工特征描述的方法,將人為設(shè)計(jì)的特征描述子,作為識(shí)別系統(tǒng)的信息來源,可能過早地丟失了圖像中的有用信息。FANG 等[11]提出一種由粗到細(xì)的細(xì)粒度車型識(shí)別框架,通過構(gòu)建CNN,抓取汽車圖像中的目標(biāo)特征區(qū)域,并反復(fù)細(xì)化特征區(qū)域,最后結(jié)合全局特征和局部特征完成車型細(xì)粒度分類;KRüGER 等[12]基于經(jīng)典ResNet 網(wǎng)絡(luò)模型,使用非工業(yè)零件數(shù)據(jù)集,對(duì)網(wǎng)絡(luò)進(jìn)行遷移學(xué)習(xí)。經(jīng)研究表明非工業(yè)圖像數(shù)據(jù)集,對(duì)于工業(yè)圖像的識(shí)別具有促進(jìn)作用。同時(shí),對(duì)于識(shí)別形狀較簡單或數(shù)據(jù)較少的零件而言,適當(dāng)降低CNN 的深度,會(huì)取得更高識(shí)別效率。

        1 發(fā)動(dòng)機(jī)主軸承蓋識(shí)別算法框架

        研究涉及的主軸承蓋零件,共有5 種,依次標(biāo)記為ABCDE,不同種類的主軸承蓋零件,形狀相似,類間差異小,特征提取精度要求高,是典型的細(xì)粒度圖像分類問題[13],面臨的主要難點(diǎn)有:

        (1) 學(xué)術(shù)界尚未形成成熟的工業(yè)零件數(shù)據(jù)集,研究需要的主軸承蓋圖像數(shù)據(jù),均來自實(shí)驗(yàn)?zāi)M平臺(tái),數(shù)據(jù)集規(guī)模較小,需考慮過擬合風(fēng)險(xiǎn);

        (2) 由于主軸承蓋零件本身的形狀特點(diǎn),差異特征主要分布于零件頂部和側(cè)面,需要探索一種可以綜合考慮2 個(gè)位置的識(shí)別方法;

        (3) 零件實(shí)際識(shí)別過程中,或存在光照不均等問題,要求零件識(shí)別系統(tǒng)具有較高的穩(wěn)定性。

        文獻(xiàn)[5]提出的SIFT-SVM方法對(duì)零件圖像拍攝質(zhì)量要求較高,需要額外設(shè)置光線遮擋裝置。在實(shí)際應(yīng)用中,當(dāng)零件分類特征區(qū)域,未被光源有效照亮?xí)r,會(huì)導(dǎo)致圖像SIFT 關(guān)鍵點(diǎn)發(fā)生改變,對(duì)識(shí)別系統(tǒng)產(chǎn)生嚴(yán)重干擾。

        針對(duì)上述主軸承蓋零件自動(dòng)識(shí)別任務(wù)難點(diǎn),設(shè)計(jì)了一種多分支特征融合卷積神經(jīng)網(wǎng)絡(luò)(multi-branch feature fusion convolutional neural network,MFF-CNN),模型的基本設(shè)計(jì)框架如圖1 所示。

        圖1 發(fā)動(dòng)機(jī)主軸承蓋零件識(shí)別算法框架 Fig.1 Algorithm framework for identifying parts of engine main bearing cap

        MFF-CNN 采用多分支結(jié)構(gòu),設(shè)計(jì)2 個(gè)獨(dú)立子網(wǎng)絡(luò),分別提取主軸承蓋零件的側(cè)面和頂部特征,實(shí)現(xiàn)主軸承蓋零件的細(xì)粒度分類。該網(wǎng)絡(luò)模型具有以下特點(diǎn):

        (1) 網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計(jì),需考慮主軸承蓋差異性特征分布于2 個(gè)不同表面,設(shè)計(jì)多分支網(wǎng)絡(luò)結(jié)構(gòu),分別提取零件的側(cè)面和頂部特征,經(jīng)過特征融合后得到最終的識(shí)別分類依據(jù),提高零件特征表達(dá)的精度。

        (2) 采用密集連接型CNN 結(jié)構(gòu),通過強(qiáng)化特征重用,降低網(wǎng)絡(luò)參數(shù)量,提高模型的魯棒性與適用性,同時(shí),結(jié)合批量歸一化(batch normalization,BN)[14]和全局平均池化(global average pooling,GAP)[15]等優(yōu)化方法,進(jìn)一步優(yōu)化網(wǎng)絡(luò)參數(shù)分布,提升模型準(zhǔn)確率。

        (3) 針對(duì)零件細(xì)粒度分類的過擬合問題,使用翻轉(zhuǎn)、旋轉(zhuǎn)、縮放、分割等數(shù)據(jù)增強(qiáng)方法,擴(kuò)大樣本數(shù)據(jù)量。

        2 數(shù)據(jù)集及其預(yù)處理

        盡管機(jī)器視覺已廣泛應(yīng)用于工業(yè)生產(chǎn),但公開的機(jī)械零件圖像數(shù)據(jù)集尚未形成。因此,通過實(shí)驗(yàn)平臺(tái)來模擬主軸承蓋實(shí)際生產(chǎn)過程,抓取處于物料傳輸中的零件圖像,形成主軸承蓋圖像數(shù)據(jù)集。

        實(shí)驗(yàn)平臺(tái)主要用于圖像采集和模擬在線識(shí)別,其基本組件包括電機(jī)、傳送帶、Basler 單通道ac2500型工業(yè)相機(jī)、LED 光源、OMRON 漫反射光電觸發(fā)器、電源和計(jì)算機(jī),平臺(tái)整體結(jié)構(gòu)包括物料傳送、圖像采集、輔助光源3 個(gè)基本模塊組成,如圖2 所示,其中圖2(a)用于獲取主軸承蓋側(cè)面圖像數(shù)據(jù);圖2(b)用于獲取主軸承蓋頂部圖像數(shù)據(jù)。同時(shí),后續(xù)識(shí)別算法的實(shí)驗(yàn)驗(yàn)證與分析,也是基于該實(shí)際生產(chǎn)模擬實(shí)驗(yàn)平臺(tái)。

        圖2 模擬實(shí)際生產(chǎn)的實(shí)驗(yàn)平臺(tái)((a)獲取主軸承蓋側(cè)面圖像數(shù)據(jù);(b)獲取主軸承蓋頂部圖像數(shù)據(jù)) Fig.2 Experimental platform that simulates actual production ((a) Obtain the side image data of the main bearing cap;(b) Obtain the top image data of the main bearing cap)

        進(jìn)行零件識(shí)別分類時(shí),要求所拍攝的零件圖片,應(yīng)清晰地展現(xiàn)不同種類間的差異特征。對(duì)于汽車發(fā)動(dòng)機(jī)主軸承蓋零件,其各種類之間的差別,主要存在于零件頂部的螺栓支撐臺(tái)部位,同時(shí),零件側(cè)面的長度尺寸和中心半圓半徑尺寸,也存在微小差別。因此,數(shù)據(jù)集包含了2 個(gè)角度的圖像數(shù)據(jù),如圖3(a)為主軸承蓋側(cè)面圖像,圖3(b)為頂部圖像。

        圖3 不同種類發(fā)動(dòng)機(jī)主軸承蓋零件的側(cè)面圖像和頂部圖像((a)側(cè)面圖像;(b)頂部圖像) Fig.3 Side and top images of different types of engine main bearing cap parts ((a) Side images;(b) Top images)

        數(shù)據(jù)集整體包含頂部和側(cè)面各1 000 張圖像,對(duì)應(yīng)每個(gè)種類200 張圖像,其中140 張作為訓(xùn)練數(shù)據(jù),60張作為測試數(shù)據(jù)。圖像原始尺寸為2048×2048。為了驗(yàn)證網(wǎng)絡(luò)模型的泛化性能,在實(shí)驗(yàn)數(shù)據(jù)集中,補(bǔ)充添加了不均勻光照圖像,每類100 張,其中70張作為訓(xùn)練數(shù)據(jù),30 張作為測試數(shù)據(jù)。以頂部圖像為例,其數(shù)據(jù)集規(guī)模見表1,零件側(cè)面圖像數(shù)據(jù)集的組成,與表1 一致。

        表1 主軸承蓋零件頂部圖像數(shù)據(jù)集 Table 1 Top image dataset of main bearing cap parts

        為了緩解零件細(xì)粒度分類存在的過擬合問題,對(duì)原始圖像數(shù)據(jù)集進(jìn)行增強(qiáng)處理[16]。數(shù)據(jù)增強(qiáng)處理包括:隨機(jī)截取、旋轉(zhuǎn)變換和平移變換,其操作以 原始圖像中心大小1200×1200 區(qū)域?yàn)榛鶞?zhǔn),隨機(jī)截取5 張包含該區(qū)域且尺寸為1800×1800 的圖像,對(duì)其中的任意2 張圖像執(zhí)行鏡像操作,將得到的5 張圖像進(jìn)行隨機(jī)的90°,180°或270°旋轉(zhuǎn),保留旋轉(zhuǎn)前后共計(jì)10 張圖像,綜上,每張?jiān)紙D像,經(jīng)過數(shù)據(jù)增強(qiáng)處理,擴(kuò)展為10 張訓(xùn)練圖像。

        更大的訓(xùn)練數(shù)據(jù)量,利于網(wǎng)絡(luò)參數(shù)的優(yōu)化調(diào)整,增加訓(xùn)練數(shù)據(jù)的復(fù)雜度,可以避免模型學(xué)習(xí)不相關(guān)的特征。同時(shí),在訓(xùn)練集中增加光照不均勻的圖像樣本數(shù)據(jù),作為訓(xùn)練集的難例(Hard Example)樣本,增強(qiáng)MFF-CNN 對(duì)于光照不均因素的魯棒性。相關(guān)的圖像樣本數(shù)據(jù)示例如圖4 所示。實(shí)驗(yàn)數(shù)據(jù)集圖像的拼接操作和數(shù)據(jù)增強(qiáng)操作,是基于3.4.0 版本的OpenCV 庫,在CNN模型訓(xùn)練流程之外完成。

        圖4 圖像樣本增強(qiáng)處理示例((a)原圖;(b)截??;(c)旋轉(zhuǎn);(d)鏡像;(e)不均勻光照) Fig.4 Image sample enhancement processing example ((a) Original image;(b) Crop;(c) Rotation;(d) Mirror;(e) Uneven light)

        在MFF-CNN方法中,需要對(duì)圖像進(jìn)行拼接處理,用其側(cè)面和頂部2 張圖像,合成待識(shí)別零件的初始圖像數(shù)據(jù),如圖5 所示,該拼接圖像作為MFF-CNN 的輸入,以此解決零件特征分布于不同空間位置的問題。

        圖5 使用圖像拼接方法描述主軸承蓋零件 Fig.5 Use image stitching to describe main bearing cap parts

        3 發(fā)動(dòng)機(jī)主軸承蓋識(shí)別神經(jīng)網(wǎng)絡(luò)

        3.1 MFF-CNN模型的網(wǎng)絡(luò)結(jié)構(gòu)

        MFF-CNN 的基礎(chǔ)結(jié)構(gòu)是深層CNN,與文獻(xiàn)[5]提出的特征提取方法相比,CNN 可以從圖像中自動(dòng)學(xué)習(xí)特征表達(dá),具備強(qiáng)大的特征提取能力。

        考慮發(fā)動(dòng)機(jī)主軸承蓋零件分類特征的空間分布,設(shè)計(jì)MFF-CNN,如圖6 所示,該網(wǎng)絡(luò)使用2個(gè)子網(wǎng)絡(luò)分別提取特征:SideNet 網(wǎng)絡(luò)提取主軸承蓋側(cè)面特征,TopNet 網(wǎng)絡(luò)提取主軸承蓋頂部特征。融合上述2 個(gè)子網(wǎng)絡(luò)學(xué)習(xí)到的特征,作為最終的主軸承蓋分類依據(jù)。

        圖6 多分支特征融合卷積神經(jīng)網(wǎng)絡(luò)MFF-CNN 結(jié)構(gòu)圖 Fig.6 Structure diagram of multi-branch feature fusion convolutional neural network

        MFF-CNN 基于密集連接型卷積神經(jīng)網(wǎng)絡(luò)DenseNet[17]設(shè)計(jì),其網(wǎng)絡(luò)模型的具體參數(shù),見表2,網(wǎng)絡(luò)整體由卷積層(convolution)、最大池化層(max pooling)和密集連接型CNN模塊Dense Block 組成,輸入的圖像尺寸為512×256,最終的聚合特征尺寸為1×1×120。密集連接單元Dense Block,由卷積核尺寸為1×1 的卷積層和3×3 的卷積層交替連接組成,每個(gè)卷積層后均添加Dropout 操作。在同一個(gè)模塊中,所有卷積層輸出的特征圖具有相同大小,并按照通道相連,每個(gè)卷積層都將之前所有層的特征信息作為附加輸入,實(shí)現(xiàn)完全的特征共享。1×1卷積的主要作用是為了控制網(wǎng)絡(luò)寬度,其卷積核的數(shù)量固定為4k,避免了由于特征共享導(dǎo)致的特征圖過量累加。同時(shí),3×3 卷積的步長stride=1,填充padding=1,使得輸出特征圖尺寸與1×1 卷積層保持一致。2 個(gè)Dense Block 之間,使用1×1 卷積層和最大池化層的組合進(jìn)行連接,稱為過渡層。在MFF-CNN 中,1×1 卷積將前一個(gè)Dense Block模塊的特征圖數(shù)量縮小50%,有效緩解深層網(wǎng)絡(luò)的過擬合和梯度消失等問題。表2 中未明確標(biāo)出的有:在每個(gè)卷積層運(yùn)算之后,依次執(zhí)行批量歸一化操作,并使用修正線性單元(rectified linear unit,ReLU)對(duì) 網(wǎng)絡(luò)參數(shù)添加非線性映射,即構(gòu)成Conv-BN-ReLU的基本運(yùn)算組合。網(wǎng)絡(luò)層參數(shù)中,參數(shù)k表示基本增長率(growth rate),是影響各層特征圖數(shù)量的全局常量。

        表2 多分支特征融合卷積神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)參數(shù)表 Table 2 Structure parameter table of multi-branch feature fusion convolutional neural network

        在基于神經(jīng)網(wǎng)絡(luò)的圖像識(shí)別方法中,為了提取更全面的圖像特征,深度學(xué)習(xí)趨于設(shè)計(jì)更深、更寬的網(wǎng)絡(luò)結(jié)構(gòu),隨之而來的是梯度消失、模型退化問題愈加明顯。針對(duì)這些問題,學(xué)術(shù)界已經(jīng)提出多種解決方案,如深度殘差網(wǎng)絡(luò)ResNet[18]、隨機(jī)深度網(wǎng)絡(luò)(stochastic depth)[19]等。盡管這些算法具有不同的連接方式,網(wǎng)絡(luò)深度也存在差異,但核心思想都在于加強(qiáng)網(wǎng)絡(luò)層級(jí)間的特征重用,即使用旁路連接方式,將深層與淺層網(wǎng)絡(luò)相連接,這是構(gòu)建深層神經(jīng)網(wǎng)絡(luò)的有效方式,如圖7 所示。

        圖7 ResNet 網(wǎng)絡(luò)與DenseNet 網(wǎng)絡(luò)中的核心連接機(jī)制示意圖((a) ResNet 中的Residual Block 結(jié)構(gòu)示意圖;(b) DenseNet 中的Dense Block 結(jié)構(gòu)示意圖) Fig.7 Schematic diagram of the core connection mechanism between ResNet and DenseNet ((a) Structural diagram of Residual Block in ResNet;(b) Structural diagram of Dense Block in DenseNet)

        3.2 MFF-CNN 分支網(wǎng)絡(luò)的實(shí)現(xiàn)

        SideNet 是針對(duì)主軸承蓋側(cè)面圖像設(shè)計(jì)的淺層CNN,使用淺層網(wǎng)絡(luò)處理側(cè)面較簡單的特征,減小網(wǎng)絡(luò)整體參數(shù)量,提升小樣本數(shù)據(jù)下的模型準(zhǔn)確率。SideNet 共有18 層,包含2 個(gè)Dense Block 單元。在全局平均池化層前,設(shè)置了2 個(gè)卷積層和一個(gè)最大池化層,分別為1×1、3×3 卷積和3×3 最大池化,作用是:1×1 卷積用于減少第二個(gè)Dense Block 單元輸出的特征圖數(shù)量,3×3 卷積和3×3 最大池化依次進(jìn)行2 次下采樣,將特征圖尺寸由32×32 降至8×8,最后進(jìn)行全局平均池化,得到1×1×60 的主軸承蓋側(cè)面圖像特征。

        TopNet 是針對(duì)主軸承蓋頂部圖像設(shè)計(jì)的深層CNN,深層網(wǎng)絡(luò)具備更強(qiáng)的學(xué)習(xí)機(jī)制,可以有效提取零件頂部的復(fù)雜形狀特征,并提高模型處理頂部光照不均勻問題的能力。TopNet 共有64 層神經(jīng)網(wǎng)絡(luò),包含4 個(gè)Dense Block 單元和3 個(gè)過渡層,經(jīng)全局平均池化后,得到的零件頂部圖像特征,與SideNet 具有相同尺寸。4 個(gè)Dense Block 單元的內(nèi)部網(wǎng)絡(luò)層數(shù)呈遞增狀態(tài),由初始的4 層增至最終的32 層,確保主軸承蓋頂部的分類特征,可以被完整地表達(dá),同時(shí)增強(qiáng)了識(shí)別系統(tǒng)對(duì)光照等因素的魯棒性。

        按照通道融合子網(wǎng)絡(luò)SideNet 和TopNet 提取的特征,得到尺寸為1×1×564 的主軸承蓋整體分類依據(jù),MFF-CNN模型同時(shí)綜合零件側(cè)面和頂部的圖像特征,進(jìn)行零件識(shí)別分類。

        3.3 網(wǎng)絡(luò)訓(xùn)練優(yōu)化方法

        MFF-CNN模型結(jié)構(gòu)中使用了多種神經(jīng)網(wǎng)絡(luò)訓(xùn)練優(yōu)化方法,包括:

        (1) Dropout。在每個(gè)訓(xùn)練批次中,隨機(jī)忽略一定比例的特征檢測器,避免模型過度依賴某些局部特征,有效降低過擬合現(xiàn)象,增強(qiáng)MFF-CNN模型的泛化性能;

        (2) 批量歸一化。通過批量數(shù)據(jù)歸一化方式,使得單個(gè)批次的訓(xùn)練中,每一層神經(jīng)網(wǎng)絡(luò)的輸入數(shù)據(jù)保持相同分布,符合獨(dú)立同分布假設(shè)[14]。批量歸一化將圖像白化的思想延伸至神經(jīng)網(wǎng)絡(luò)的中間層,避免網(wǎng)絡(luò)內(nèi)部輸入分布出現(xiàn)較大差異,有效緩解了反向傳播中的梯度消失問題,加速了網(wǎng)絡(luò)模型的收斂。MFF-CNN模型的所有卷積層都配合使用了批量歸一化操作;

        (3) 全局平均池化。使用平均池化的方式實(shí)現(xiàn)了降維,將最后一層卷積特征圖,直接轉(zhuǎn)化為最終類別參數(shù),替換了經(jīng)典CNN 結(jié)構(gòu)中的全連接層,等同于對(duì)整個(gè)網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行了正則化。實(shí)際應(yīng)用中,使用全局平均池化方法,使得全連接模塊降低了6.25%的參數(shù)量,進(jìn)一步增強(qiáng)了模型的抗過擬合性能。

        4 實(shí)驗(yàn)分析

        4.1 MFF-CNN 主軸承蓋識(shí)別算法的實(shí)現(xiàn)

        神經(jīng)網(wǎng)絡(luò)模型運(yùn)行實(shí)驗(yàn)平臺(tái)的硬件組成如下:操作系統(tǒng)為Windows 10;CPU 為Intel Core i7-8700k;顯卡為Nvidia GTX 1050Ti,4 GB 顯存。實(shí)驗(yàn)中,所有CNN模型均基于Python 語言編寫,在Google開源框架Tensorflow 中實(shí)現(xiàn)。其他軟件支持包括:Python 3 集成開發(fā)環(huán)境PyCharm;Nvidia GPU 運(yùn)算平臺(tái)CUDA 8.0,神經(jīng)網(wǎng)絡(luò)可視化工具TensorBoard等。MFF-CNN 識(shí)別算法的偽代碼見算法1。

        算法1.MFF-CNN 主軸承蓋零件識(shí)別算法。

        輸入:訓(xùn)練集圖像數(shù)據(jù)。

        輸出:網(wǎng)絡(luò)模型參數(shù)。

        4.2 MFF-CNN模型實(shí)驗(yàn)結(jié)果與分析

        為了驗(yàn)證MFF-CNN模型對(duì)主軸承蓋零件的識(shí)別性能,引入2 個(gè)經(jīng)典網(wǎng)絡(luò)模型ResNet 和DenseNet作為對(duì)照組。實(shí)驗(yàn)中,ResNet 使用深度為50 層和101 層2 種網(wǎng)絡(luò)結(jié)構(gòu),DenseNet 使用深度為121 層的網(wǎng)絡(luò)結(jié)構(gòu)。實(shí)驗(yàn)中的所有網(wǎng)絡(luò)模型,均采用相同的訓(xùn)練優(yōu)化方法和超參數(shù)設(shè)置:訓(xùn)練批量batch_size=32,Dropout 正則化參數(shù)λ=0.2,訓(xùn)練迭代數(shù)epoch=300,DenseNet 網(wǎng)絡(luò)的基本增長率k=24;學(xué)習(xí)率采用階段性衰減策略,初始學(xué)習(xí)率η=0.001,衰減系數(shù)為0.5,每30 次迭代更新一次學(xué)習(xí)率,訓(xùn)練優(yōu)化方法使用小批量Adam 梯度優(yōu)化算法,基于訓(xùn)練批量更新網(wǎng)絡(luò)權(quán)重參數(shù),設(shè)定動(dòng)量參數(shù)momentum=0.9。詳細(xì)的超參數(shù)見表3。

        表3 神經(jīng)網(wǎng)絡(luò)超參數(shù)的設(shè)置 Table 3 Neural network hyperparameter settings

        ResNet 和DenseNet 以及MFF-CNN 的識(shí)別結(jié)果見表4。其中,模型計(jì)算量通過浮點(diǎn)運(yùn)算數(shù)(floating point operations,FLOPs)表示,是網(wǎng)絡(luò)模型“時(shí)間復(fù)雜度”的衡量標(biāo)準(zhǔn),具體表現(xiàn)為網(wǎng)絡(luò)訓(xùn)練和預(yù)測的時(shí)間消耗,計(jì)算量越大的網(wǎng)絡(luò),訓(xùn)練和預(yù)測的時(shí)間消耗越大,模型優(yōu)化難度隨之增大,預(yù)測實(shí)時(shí)性隨之降低。模型參數(shù)量是指網(wǎng)絡(luò)的整個(gè)訓(xùn)練過程,需要學(xué)習(xí)的未知參數(shù)總數(shù),是網(wǎng)絡(luò)模型“空間復(fù)雜度”的衡量標(biāo)準(zhǔn),具體表現(xiàn)為神經(jīng)網(wǎng)絡(luò)模型的過擬合抗性,參數(shù)量越高的網(wǎng)絡(luò)模型,越容易導(dǎo)致過擬合,從而導(dǎo)致模型的最終識(shí)別率降低。

        表4 各個(gè)卷積神經(jīng)網(wǎng)絡(luò)方法的識(shí)別結(jié)果 Table 4 The recognition results of each convolutional neural network method

        從表4 的實(shí)驗(yàn)結(jié)果中可以看出:

        (1) 101 層的ResNet 網(wǎng)絡(luò)較50 層網(wǎng)絡(luò),識(shí)別準(zhǔn)確率由82.0%提升至84.0%,這是由于深層神經(jīng)網(wǎng)絡(luò)具有更強(qiáng)的特征表達(dá)能力;

        (2) 與ResNet-101 近似深度的DenseNet-121 網(wǎng)絡(luò),準(zhǔn)確率為88.4%,是因?yàn)槊芗B接型CNN 結(jié)構(gòu)參數(shù)量少,具有更強(qiáng)的過擬合抗性;

        (3) MFF-CNN模型的識(shí)別準(zhǔn)確率為91.6%,是對(duì)比實(shí)驗(yàn)中的最優(yōu)結(jié)果,表明多分支結(jié)構(gòu)設(shè)計(jì),能夠針對(duì)性地提取主軸承蓋不同方位的特征,特征提取效率更高,同時(shí)MFF-CNN 中密集連接的網(wǎng)絡(luò)結(jié)構(gòu),可以實(shí)現(xiàn)高效的特征重用,顯著降低模型參數(shù)量,由18 層和64 層組成的多分支網(wǎng)絡(luò),其整體參數(shù)量甚至僅為 ResNet-50 網(wǎng)絡(luò)的 6.25%,使得MFF-CNN 在少樣本情況下,可以保持較高的過擬合抗性。

        模型準(zhǔn)確率曲線和損失函數(shù)曲線如圖8 所示,是神經(jīng)網(wǎng)絡(luò)訓(xùn)練過程動(dòng)態(tài)分析的重要依據(jù)。圖8(a)是4 種卷積網(wǎng)絡(luò)的識(shí)別準(zhǔn)確率曲線,從圖中可以看出:針對(duì)主軸承蓋圖像樣本,殘差網(wǎng)絡(luò)的最終識(shí)別準(zhǔn)確率,低于密集連接型網(wǎng)絡(luò)結(jié)構(gòu)。在整體訓(xùn)練過程中,MFF-CNN 網(wǎng)絡(luò)的識(shí)別準(zhǔn)確率曲線分布于最上層,準(zhǔn)確率最高,其次是DenseNet-121,最下層是ResNet-101 和ResNet-50 網(wǎng)絡(luò),這表明在相同迭代周期內(nèi),密集連接型網(wǎng)絡(luò)較殘差網(wǎng)絡(luò)的識(shí)別準(zhǔn)確率更高,訓(xùn)練速率更快,驗(yàn)證了本文識(shí)別算法的設(shè)計(jì)思路。圖8(b)是模型訓(xùn)練的損失函數(shù)曲線,從中可以看出,MFF-CNN 網(wǎng)絡(luò)的損失函數(shù)曲線分布于最下層,數(shù)值下降速率更快,且最終收斂于更小的損失值,即表明該網(wǎng)絡(luò)在訓(xùn)練過程中的誤差更小,特征描述更精確,其原因在于MFF-CNN 采用多分支結(jié)構(gòu),增強(qiáng)了主軸承蓋零件的特征表達(dá)。應(yīng)當(dāng)說明的是,盡管訓(xùn)練過程振蕩起伏不斷,但整體訓(xùn)練趨勢穩(wěn)定,隨著訓(xùn)練過程的迭代,網(wǎng)絡(luò)通過BN 等正則化方法,逐漸修正錯(cuò)誤權(quán)重參數(shù),模型最終趨于穩(wěn)定。

        圖8 ResNet,DenseNet 以及MFF-CNN 識(shí)別準(zhǔn)確率曲線和損失函數(shù)曲線((a)模型測試集識(shí)別準(zhǔn)確率曲線;(b)模型測試集損失函數(shù)曲線) Fig.8 ResNet,DenseNet and MFF-CNN recognition accuracy curve and loss function curve ((a) Model test set recognition accuracy curve;(b) Model test set loss function curve)

        4.3 MFF-CNN 與特征提取方法的對(duì)比分析

        文獻(xiàn)[5]提出基于特征提取的SIFT-SVM主軸承蓋識(shí)別算法,在正常光照條件下,具有良好的零件識(shí)別性能,但對(duì)處于不均勻光照環(huán)境中的零件,其識(shí)別穩(wěn)定性較差。本文提出基于深度學(xué)習(xí)的MFF-CNN 識(shí)別算法,使用深層CNN,代替SIFT特征提取方法,同時(shí)結(jié)合特征融合思想,設(shè)計(jì)分支網(wǎng)絡(luò),分別獲取零件2 個(gè)視角的特征表達(dá),針對(duì)文獻(xiàn)[5]方法的不足做出改進(jìn)。設(shè)置對(duì)比實(shí)驗(yàn),分析MFF-CNN方法在不均勻光照條件下的具體表現(xiàn)。

        SIFT-SVM 的輸入數(shù)據(jù)是零件頂部圖像,而MFF-CNN 算法的輸入數(shù)據(jù),是零件頂部和側(cè)面2 個(gè)角度的拼接圖像,因此,為了可以在相同數(shù)據(jù)集上進(jìn)行對(duì)比分析實(shí)驗(yàn),將MFF-CNN 分割為2種網(wǎng)絡(luò),一種是原始型,使用拼接圖像作為輸入;另一種僅保留其TopNet 子網(wǎng)絡(luò),記為MFF-CNN (TopNet),使用零件頂部圖像作為輸入。基礎(chǔ)數(shù)據(jù)集采用正常光照圖像與不均勻光照圖像的組合。實(shí)驗(yàn)結(jié)果見表5。

        表5 2種識(shí)別算法在不均勻光照條件下的實(shí)驗(yàn)結(jié)果 Table 5 The recognition results of each convolutional neural network method

        由表5 分析可知:

        (1) 不均勻光照條件下,對(duì)比分析SIFT-SVM和MFF-CNN(TopNet)方法的實(shí)驗(yàn)結(jié)果,基于深度學(xué)習(xí)的識(shí)別方法在穩(wěn)定性方面顯著提升,將不均勻光照樣本的準(zhǔn)確率由38.7%提升至86.7%。而基于特征提取的SIFT-SVM方法,幾乎無法有效識(shí)別不均勻光照的零件,制約了基于特征提取識(shí)別方法的應(yīng)用場景;

        (2) 綜合比較所有組實(shí)驗(yàn)結(jié)果,MFF-CNN方法既保持了識(shí)別網(wǎng)絡(luò)的光照穩(wěn)定性,又通過聯(lián)合零件側(cè)面特征的方式,提升了模型識(shí)別準(zhǔn)確率。在包含不均勻光照圖像數(shù)據(jù)集上,識(shí)別準(zhǔn)確率為91.6%,對(duì)不均勻光照樣本具有90%的識(shí)別準(zhǔn)確率,識(shí)別準(zhǔn)確率相對(duì)較高,同時(shí)又兼顧穩(wěn)定性的識(shí)別方法。

        實(shí)驗(yàn)結(jié)果表明,MFF-CNN 算法有效地修正了文獻(xiàn)[5]特征提取方法穩(wěn)定性差的缺點(diǎn),但由于研究收集的零件圖像數(shù)量有限,一定程度上限制了MFF-CNN 網(wǎng)絡(luò)模型的訓(xùn)練與優(yōu)化,是算法進(jìn)一步改進(jìn)的方向。

        5 結(jié) 論

        針對(duì)汽車發(fā)動(dòng)機(jī)主軸承蓋零件自動(dòng)分類問題進(jìn)行研究,提出了MFF-CNN,增強(qiáng)識(shí)別算法對(duì)不均勻光照影響因素的穩(wěn)定性。MFF-CNN 使用2 個(gè)子網(wǎng)絡(luò),分別提取零件側(cè)面和頂部特征,有效整合零件多方位的形狀特征,增強(qiáng)特征提取效率。模型整體基于密集連接型卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計(jì),結(jié)構(gòu)緊湊,特征重用率高,網(wǎng)絡(luò)參數(shù)量少。實(shí)驗(yàn)結(jié)果表明,在同一實(shí)驗(yàn)數(shù)據(jù)集上,MFF-CNN的識(shí)別準(zhǔn)確率為91.6%,優(yōu)于經(jīng)典CNN,并針對(duì)SIFT-SVM 識(shí)別方法光照穩(wěn)定性較差的問題,做出有效改善。在僅有較少樣本量,且包含不均勻光照等復(fù)雜樣本條件下,研究從主軸承蓋零件實(shí)際特征出發(fā),綜合考慮了零件的圖像表達(dá)和特征提取2 個(gè)方面,對(duì)其他種類的機(jī)械零件細(xì)粒度分類問題具有參考意義。

        猜你喜歡
        特征模型
        一半模型
        抓住特征巧觀察
        重要模型『一線三等角』
        新型冠狀病毒及其流行病學(xué)特征認(rèn)識(shí)
        重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
        如何表達(dá)“特征”
        不忠誠的四個(gè)特征
        抓住特征巧觀察
        3D打印中的模型分割與打包
        FLUKA幾何模型到CAD幾何模型轉(zhuǎn)換方法初步研究
        亚洲色偷拍区另类无码专区| 在线观看国产激情视频| 五月色丁香婷婷网蜜臀av| 国产一区二区波多野结衣| 中文文精品字幕一区二区| 国产精品亚洲av网站| 日本中文字幕精品久久| 亚洲av成人片在线观看| 日日碰狠狠丁香久燥| 成年男人裸j照无遮挡无码| 国产女主播一区二区三区在线观看| 亚洲一区二区女搞男| 精品国产sm捆绑最大网免费站 | 日韩久久久久中文字幕人妻| 92自拍视频爽啪在线观看| 日韩亚洲精品中文字幕在线观看 | av无码天堂一区二区三区| 四虎成人精品无码永久在线| 一本久道视频无线视频试看 | av毛片一区二区少妇颜射| 中文字幕第一页人妻丝袜| 48久久国产精品性色aⅴ人妻| 俺也去色官网| 少妇勾引视频网站在线观看| 白白白在线视频免费播放| v一区无码内射国产| 中文字幕在线观看国产双飞高清| 一区二区在线观看日本免费| 亚洲精品一区久久久久一品av| 人妻少妇看a偷人无码精品| 精品国产1区2区3区AV| 中国男女黄色完整视频| 人妻少妇精品视频专区| 国产美女白浆| 国内精品国产三级国产avx| 亚洲午夜久久久精品影院| 人妻影音先锋啪啪av资源| 91精品国产91久久综合桃花| 在线观看视频免费播放| 免费无遮挡禁18污污网站| 最新精品国偷自产在线婷婷|