亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于深度支持向量機(jī)的曲軸智能識(shí)別方法

        2021-06-30 07:45:06楊澤青王春方劉麗冰張亞彬
        關(guān)鍵詞:傅里葉曲軸邊緣

        楊澤青,王春方,彭 凱+,劉麗冰,張亞彬

        (1.河北工業(yè)大學(xué) 機(jī)械工程學(xué)院,天津 300130;2.機(jī)械工業(yè)儀器儀表綜合技術(shù)經(jīng)濟(jì)研究所,北京 100055)

        0 引言

        再制造廢舊零件修復(fù)或改造柔性生產(chǎn)線中,面向拆卸回收的批量曲軸零件在線準(zhǔn)確識(shí)別和定位抓取需要,將機(jī)器視覺(jué)檢測(cè)技術(shù)集成于機(jī)械手來(lái)實(shí)現(xiàn)零件識(shí)別,從而快速、可靠地將不同類型級(jí)別的曲軸再制造零件調(diào)度分配給相應(yīng)的工位,提高工作效率,有助于提高柔性生產(chǎn)線的自動(dòng)化和智能化水平,并進(jìn)一步保障再制造零件的質(zhì)量。

        近年來(lái),國(guó)內(nèi)外學(xué)者對(duì)復(fù)雜零件圖像識(shí)別方法進(jìn)行了大量研究,提出了諸多方法,主要包括圖像模板匹配法[1-3]、詞袋模型與分類器識(shí)別法[4-7]、深度學(xué)習(xí)網(wǎng)絡(luò)模型識(shí)別法[8-11]等。圖像模板匹配法主要依賴于模板圖像和目標(biāo)圖像對(duì)應(yīng)區(qū)域的灰度或特征等相似性,模板大小形狀的選擇直接影響匹配的精度和速度,如Liu等[1]提出一種用于遙感圖像場(chǎng)景分類的加權(quán)空間金字塔匹配識(shí)別法,該方法考慮不同圖像子區(qū)域的灰度和權(quán)重,結(jié)合協(xié)作表示分類可自動(dòng)學(xué)習(xí)不同子區(qū)域的空間信息權(quán)值的優(yōu)勢(shì),將協(xié)作表示與空間金字塔匹配法用于遙感圖像場(chǎng)景分類,取得了較好的分類效果,但該匹配識(shí)別法在處理大規(guī)模圖像比對(duì)時(shí),對(duì)樣本的訓(xùn)練和目標(biāo)識(shí)別須進(jìn)行大量復(fù)雜的運(yùn)算,運(yùn)算時(shí)間長(zhǎng)。JIAO等[2]提出一種基于主方向差的快速模板匹配算法,該方法首先通過(guò)比較二值圖像獲得邊緣方向信息,然后在提取不同特征的地方劃分模板區(qū)域,進(jìn)而在模板周圍搜索匹配位置,該算法可實(shí)時(shí)檢測(cè)低紋理物體,匹配率達(dá)到95%,且對(duì)光照變化具有很好的魯棒性。RAMYA等[3]提出用快速魯棒特征(Speeded Up Robust Features, SURF)和最大穩(wěn)定外部區(qū)域(Maximally Stable External Regions, MSER)提取圖像的局部特征并生成圖像直方圖碼本,采用空間金字塔匹配法對(duì)直方圖碼本進(jìn)行對(duì)象識(shí)別和分類,但該模板匹配法只適用于目標(biāo)圖像平行移動(dòng)場(chǎng)合,當(dāng)圖像中的匹配目標(biāo)發(fā)生旋轉(zhuǎn)或者縮放時(shí)該方法不能進(jìn)行準(zhǔn)確地識(shí)別分類,且對(duì)存在反光的金屬零件的分類效果欠佳。詞袋(Bag of Words, BoW)模型以詞頻統(tǒng)計(jì)信息表示文檔向量,進(jìn)而實(shí)現(xiàn)文本自動(dòng)分類識(shí)別,詞袋模型一般包含特征提取和描述、視覺(jué)詞典構(gòu)造、分類器設(shè)計(jì)與識(shí)別3個(gè)步驟,如LIU等[4]為提高視覺(jué)詞袋模型分類精度提出一種高辨識(shí)度的密集尺度不變特征變換(Scale-Invariant Feature Transform, SIFT)特征和特征對(duì)的選擇方法,首先利用類內(nèi)和類間相關(guān)系數(shù)提取高辨識(shí)度的SIFT特征,通過(guò)使用最小生成樹(shù)及其總成本選擇高辨識(shí)度的SIFT特征對(duì),然后用k-means聚類方法構(gòu)造視覺(jué)單詞詞典和視覺(jué)短語(yǔ)詞典,將其組合為具有不同權(quán)重的聯(lián)合直方圖用于圖像分類,圖像分類效果很大程度上取決于SIFT特征的選擇及視覺(jué)詞典庫(kù)的大小。WANG等[5]提出一種基于視覺(jué)詞袋的圖像分類方法,該方法將提取的顯著區(qū)域與空間幾何結(jié)構(gòu)相結(jié)合,用以得到更多有代表性的視覺(jué)單詞,以有效去除復(fù)雜背景的干擾,并用Delaunay三角網(wǎng)與視覺(jué)單詞的拓?fù)浣Y(jié)構(gòu)描述圖像的局部和全局信息用以進(jìn)行圖像分類,用視覺(jué)詞袋模型進(jìn)行圖像分類一般受空間背景信息和物體形狀位置信息的影響。

        近年來(lái),深度學(xué)習(xí)通過(guò)建立類似于人腦的分層模型結(jié)構(gòu),逐級(jí)進(jìn)行信息特征提取、變換,從而很好地建立從低層信息到高層特征的映射關(guān)系,最終對(duì)新的樣本實(shí)現(xiàn)智能識(shí)別或預(yù)測(cè)。深度學(xué)習(xí)網(wǎng)絡(luò)模型以其強(qiáng)大的非線性映射能力和更高的識(shí)別準(zhǔn)確率逐步成為取代人工特征+機(jī)器學(xué)習(xí)的主流圖像識(shí)別方法[6]。如PAOLETTI等[7]提出一種用于高光譜圖像分類的深度卷積神經(jīng)網(wǎng)絡(luò)(Deep Convolutional Neural Network, DCNN)體系結(jié)構(gòu),顯著提高了圖像識(shí)別的準(zhǔn)確率;KAMIL等[8]針對(duì)沒(méi)有特殊紋理的工件(如螺絲、螺母和墊圈)的識(shí)別準(zhǔn)確率較低的問(wèn)題,提出了一種利用三維虛擬模型遠(yuǎn)程訓(xùn)練的深度學(xué)習(xí)網(wǎng)絡(luò)進(jìn)行目標(biāo)檢測(cè)的方法,可以實(shí)現(xiàn)精確的目標(biāo)識(shí)別,但識(shí)別處理延遲較長(zhǎng);JORG 等[9]針對(duì)深度學(xué)習(xí)訓(xùn)練過(guò)程中數(shù)據(jù)有限、零件種類繁多等問(wèn)題,提出一種新的基于零件固有幾何特征的深度學(xué)習(xí)光學(xué)識(shí)別方法,提高了工業(yè)應(yīng)用中的目標(biāo)識(shí)別率;吳雪峰等[10]提出一種基于卷積神經(jīng)網(wǎng)絡(luò)的刀具磨損類型智能識(shí)別方法,建立了刀具磨損類型識(shí)別模型并進(jìn)行實(shí)驗(yàn)驗(yàn)證,發(fā)現(xiàn)該模型對(duì)刀具磨損類型的平均識(shí)別率達(dá)到96.25%;田中可等[11]針對(duì)機(jī)械產(chǎn)品裝配中零件和裝配體的識(shí)別、監(jiān)測(cè)問(wèn)題,提出一種基于深度圖像和像素分類的裝配體零件識(shí)別與裝配監(jiān)測(cè)方法,實(shí)現(xiàn)對(duì)裝配過(guò)程中常出現(xiàn)的零件錯(cuò)裝與漏裝現(xiàn)象的監(jiān)測(cè);GU等[12]詳細(xì)綜述了CNN的研究進(jìn)展,同時(shí)也指出了CNN在工業(yè)圖像識(shí)別領(lǐng)域存在計(jì)算效率、識(shí)別精度與網(wǎng)絡(luò)層數(shù)設(shè)計(jì)、激活函數(shù)、損失函數(shù)及超參數(shù)匹配選擇等問(wèn)題。

        支持向量機(jī)(Support Vector Machine, SVM)是統(tǒng)計(jì)學(xué)中一種有效的監(jiān)督分類方法,在解決非線性、小樣本及高維模式識(shí)別問(wèn)題中表現(xiàn)出特有的優(yōu)勢(shì),并且具有良好的泛化能力[13],已經(jīng)被廣泛用于工業(yè)零件種類識(shí)別領(lǐng)域,但傳統(tǒng)單層SVM難以表征零件種類與圖像特征之間復(fù)雜的映射關(guān)系,深度支持向量機(jī)(Deep Support Vector Machine, DSVM)將深度神經(jīng)網(wǎng)絡(luò)與多個(gè)SVM相結(jié)合,已被證明是更加有效的學(xué)習(xí)方式,如ABDULLAH等[14]提出一種用于圖像分類的深度支持向量機(jī)模型,該模型以標(biāo)準(zhǔn)方式訓(xùn)練SVM,將低層的支持向量對(duì)應(yīng)的激活值作為高層的訓(xùn)練樣本,依此逐層訓(xùn)練學(xué)習(xí)模型,實(shí)驗(yàn)結(jié)果表明DSVM明顯優(yōu)于只有單一輸入向量的傳統(tǒng)SVM識(shí)別方法。KIM等[15]提出一種具有選擇分類重要數(shù)據(jù)點(diǎn)能力和良好泛化能力的DSVM架構(gòu),用支持向量作為核的非線性判別特征進(jìn)行分類,將SVM堆疊到多層網(wǎng)絡(luò)中,利用支持向量獲得深層特征提高識(shí)別精度,實(shí)驗(yàn)結(jié)果表明該方法提高了威斯康辛乳腺癌數(shù)據(jù)集的泛化性能。OKWUASHI等[16]將深度學(xué)習(xí)與SVM相結(jié)合,建立混合型DSVM,通過(guò)更新隱藏層中所有連接的SVM函數(shù),找到每個(gè)輸入的最優(yōu)DSVM輸出,在高光譜圖像分類中獲得了較高的識(shí)別精度。將DSVM網(wǎng)絡(luò)用于再制造廢舊零件修復(fù)或改造柔性生產(chǎn)線中的在線識(shí)別,相較于CNN等深度學(xué)習(xí),該網(wǎng)絡(luò)具有較高的泛化性能,能夠提高生產(chǎn)效率,降低成本。

        曲軸零件作為汽車和船舶發(fā)動(dòng)機(jī)中承受沖擊載荷、傳遞動(dòng)力的關(guān)鍵零件,對(duì)其進(jìn)行識(shí)別具有重要的工程意義,本文針對(duì)拓?fù)湫螤罱Y(jié)構(gòu)相似、僅在局部細(xì)節(jié)上有差別的曲軸種類識(shí)別問(wèn)題,利用由多個(gè)SVM單元堆棧而成的深度支持向量機(jī)網(wǎng)絡(luò)學(xué)習(xí)特征與曲軸種類復(fù)雜的非線性關(guān)系,通過(guò)深度網(wǎng)絡(luò)提高其特征分析和種類識(shí)別能力??紤]到曲軸零件特點(diǎn),首先提取了Hu矩、傅里葉描述子和尺寸特征;然后采用串行融合的方法對(duì)3類特征進(jìn)行特征融合并做歸一化處理,作為DSVM的輸入向量用于訓(xùn)練最淺層的SVM,高層的特征由低層的支持向量映射產(chǎn)生,實(shí)現(xiàn)逐層的訓(xùn)練學(xué)習(xí),通過(guò)反向傳播算法對(duì)網(wǎng)絡(luò)進(jìn)行更新,由判別函數(shù)輸出網(wǎng)絡(luò)的分類結(jié)果,提取曲軸圖像的特征作為網(wǎng)絡(luò)的輸入,能夠減少網(wǎng)絡(luò)的運(yùn)行時(shí)間,提高識(shí)別效率,而且能剔除掉所采集的圖像中的干擾信息,提高識(shí)別精度。另一方面,為了防止網(wǎng)絡(luò)發(fā)生過(guò)擬合,并改善網(wǎng)絡(luò)的效能,在每個(gè)隱含層之間加入了Dropout,最后通過(guò)5類曲軸零件樣本進(jìn)行算法識(shí)別性能的實(shí)驗(yàn)驗(yàn)證。

        1 深度支持向量機(jī)

        DSVM是將深度神經(jīng)網(wǎng)絡(luò)與多個(gè)SVM相結(jié)合構(gòu)成的一種網(wǎng)絡(luò)模型,該模型用SVM作為隱層單元,首先用標(biāo)準(zhǔn)方式對(duì)低層SVM進(jìn)行訓(xùn)練,SVM訓(xùn)練集中每個(gè)樣本都包含一個(gè)目標(biāo)值和一組特征,通過(guò)建立特征和目標(biāo)值之間的非線性映射關(guān)系,確定其內(nèi)部核函數(shù)及偏差,隱藏層單元輸出與所需的目標(biāo)標(biāo)簽一起存儲(chǔ)作為下一層新的訓(xùn)練樣本集,依此將低層學(xué)習(xí)出來(lái)的特征向量作為高層輸入的訓(xùn)練樣本,高層的特征由低層的支持向量映射產(chǎn)生,逐層訓(xùn)練學(xué)習(xí)模型,從而能夠根據(jù)測(cè)試樣本特征確定其目標(biāo)值。DSVM通過(guò)最大限度地利用支持向量結(jié)構(gòu)風(fēng)險(xiǎn)最小化原理提取深層特征,保證了模型的泛化能力,且該模型在使用前需要確定SVM訓(xùn)練的層數(shù)及各層的參數(shù)。DSVM模型結(jié)構(gòu)圖如圖1所示,包含數(shù)據(jù)的輸入層、隱藏層和輸出層,具有隱藏層數(shù)量多、參數(shù)多等特點(diǎn),易出現(xiàn)過(guò)擬合問(wèn)題,這里為了防止網(wǎng)絡(luò)發(fā)生過(guò)擬合,在DSVM的隱藏層之間加入了隨機(jī)失活(Dropout)[17]來(lái)對(duì)網(wǎng)絡(luò)進(jìn)行優(yōu)化,在每次訓(xùn)練時(shí),每個(gè)神經(jīng)單元以概率p被保留(丟棄率為1-p)(一般情況p=0.5),通過(guò)忽略一半的隱層節(jié)點(diǎn),減少隱層節(jié)點(diǎn)間的相互作用,防止某些特征僅在特定條件下才有效的情況,促使網(wǎng)絡(luò)具有更強(qiáng)的魯棒性,減少過(guò)擬合現(xiàn)象的發(fā)生。

        數(shù)據(jù)集{(X1,y1),…,(Xa,ya),…,(XN,yN)}作為網(wǎng)絡(luò)的輸入層,其中xa與ya分別表示第a個(gè)數(shù)據(jù)樣本的輸入向量與目標(biāo)類別標(biāo)簽;經(jīng)輸入層進(jìn)入第一隱藏層單元后得到第一隱藏層第t個(gè)SVM的輸出為:

        h1t(X)=αtytK(sv1t,X)+b1,t=1,2,…,M。

        (1)

        式中:αt為拉格朗日因子,yt為類別標(biāo)簽,K(sv1t,X)為第一隱藏層第t個(gè)SVM內(nèi)部的核函數(shù),sv1t為第一隱藏層第t個(gè)支持向量,b1為第一隱藏層的偏差值;同時(shí)h1t(X)和目標(biāo)類別標(biāo)簽一起作為下一隱藏層的輸入,依次逐層訓(xùn)練模型得到高層主SVM的輸出為

        (2)

        式中:svmd為最后一層隱藏層的支持向量,表示有m個(gè)隱藏層,且最后一個(gè)隱藏層中含有D個(gè)SVM;hmd(X)為輸入數(shù)據(jù)經(jīng)過(guò)最后一層隱藏層后的輸出。

        (3)

        式中n為類別數(shù)。

        總誤差Etotal通過(guò)將所有的誤差相加計(jì)算得到:

        Etotal=E1+E2+…+En。

        (4)

        通過(guò)反向傳播的方法,更新網(wǎng)絡(luò)中每一層的權(quán)重和偏差,最小化每個(gè)輸出神經(jīng)元以及整個(gè)網(wǎng)絡(luò)的誤差,以確保輸出的結(jié)果更接近目標(biāo)輸出。

        (5)

        式中:γ為用于調(diào)整網(wǎng)絡(luò)權(quán)重和偏差的學(xué)習(xí)率,ω為需要進(jìn)行更新的權(quán)重或偏差。通過(guò)設(shè)置不同的迭代次數(shù),直到總誤差Etotal變?yōu)榱慊驘o(wú)窮小。

        2 曲軸特征提取及種類識(shí)別方法

        2.1 曲軸結(jié)構(gòu)特征分析

        曲軸零件作為汽車和船舶發(fā)動(dòng)機(jī)中承受沖擊載荷、傳遞動(dòng)力的關(guān)鍵零件,主要由軸頭前端、主軸頸、連桿軸頸、左右曲柄、平衡重、軸頭后端等組成,一般主軸頸、連桿軸頸和左右曲柄構(gòu)成一個(gè)曲拐,形狀結(jié)構(gòu)較復(fù)雜[18]。面向再制造廢舊零件修復(fù)或改造柔性生產(chǎn)線中對(duì)曲軸零件的在線識(shí)別,所需識(shí)別的曲軸拓?fù)湫螤罱Y(jié)構(gòu)相似,僅在局部細(xì)節(jié)上有差別(如圖2)的同曲拐數(shù)的5類不同曲軸零件,采用DSVM進(jìn)行曲軸種類識(shí)別時(shí),由于DSVM模型學(xué)習(xí)的本質(zhì)是逐層學(xué)習(xí)且高層特征是由低層特征映射積累所得,因此,低層特征的提取顯得尤為重要。

        為提高曲軸種類識(shí)別的準(zhǔn)確率,結(jié)合同曲拐數(shù)曲軸零件特點(diǎn),發(fā)現(xiàn)相較于顏色、紋理等特征,其外部輪廓和尺寸有一定的差別,所以本文將曲軸的邊緣和尺寸作為特征來(lái)進(jìn)行識(shí)別。首先,采用改進(jìn)的Canny算法提取曲軸的邊緣;然后,提取邊緣的Hu矩、傅里葉描述子和尺寸特征;最后,通過(guò)串行融合的方法對(duì)提取到的3類特征通過(guò)不同的組合方式進(jìn)行融合并做歸一化處理,作為DSVM模型的輸入向量。

        2.2 實(shí)際工況環(huán)境分析

        考慮工業(yè)實(shí)際應(yīng)用時(shí),所采集到的圖像質(zhì)量主要受光照變化的影響。通過(guò)實(shí)驗(yàn)得出,曲軸特征提取時(shí)主要受到零件表面反光的影響,當(dāng)只有一個(gè)光源時(shí),沿軸線看只有一條反光帶,當(dāng)有多個(gè)光源時(shí),反光帶的條數(shù)也會(huì)增加。因此,在實(shí)際工業(yè)應(yīng)用中主要考慮的就是去除反光對(duì)特征提取的影響。首先,為了保證在自然光較暗的條件下也能夠清晰地拍到要識(shí)別的工件,將一個(gè)光源設(shè)備設(shè)置為常亮狀態(tài),此時(shí)所拍攝的圖像主要受到自然光的影響,即反光條數(shù)的增加;其次,為了去除反光對(duì)特征提取的影響,采用圖像相減的方法來(lái)去除反光,反光部分的灰度值一般都較大,通過(guò)設(shè)定閾值將反光部分提取出來(lái),大于設(shè)定閾值的像素點(diǎn)設(shè)為1,小于設(shè)定閾值的像素點(diǎn)設(shè)為0,通過(guò)腐蝕運(yùn)算將反光部分的面積擴(kuò)大一圈,此時(shí)用提取到的邊緣圖像減去處理后得到的反光部分的圖像,即可得到去除反光部分邊緣的邊緣圖像。

        2.3 改進(jìn)的Canny邊緣檢測(cè)算法

        為獲得較好的曲軸圖像局部細(xì)節(jié)邊緣檢測(cè)效果,針對(duì)傳統(tǒng)的Canny邊緣檢測(cè)算法在進(jìn)行雙閾值檢測(cè)時(shí)需要人為設(shè)定高低閾值、自適應(yīng)能力差、且對(duì)噪聲比較敏感等不足,本文從濾波、梯度計(jì)算、自動(dòng)獲取高低閾值等方面對(duì)傳統(tǒng)Canny邊緣檢測(cè)算法進(jìn)行改進(jìn)。

        首先,在用工業(yè)相機(jī)采集曲軸圖像時(shí),發(fā)現(xiàn)存在由于傳輸信道干擾產(chǎn)生的椒鹽噪聲和由光照亮度不均或工作時(shí)間長(zhǎng)高溫產(chǎn)生的高斯噪聲這兩類噪聲,考慮到中值濾波在濾除椒鹽噪聲、高斯噪聲的同時(shí)能很好的保護(hù)邊緣,本文采用自適應(yīng)加權(quán)中值濾波代替?zhèn)鹘y(tǒng)的Canny邊緣檢測(cè)算法中的高斯濾波,具體的算法流程如圖3所示,算法步驟如下:

        步驟1設(shè)置初始濾波窗口w大小為3×3,最大濾波窗口wmax設(shè)置為11×11,找到濾波窗口中的中心點(diǎn)f(i,j)、最大值點(diǎn)fmax(i,j)、中值點(diǎn)fmed(i,j)和最小值點(diǎn)fmin(i,j)。

        步驟2判斷中間值與最大值點(diǎn)和最小值點(diǎn)的關(guān)系,如果fmin(i,j)

        步驟3增加濾波窗口大小,為了保證能夠得到中值,每次窗口大小增加2維,即w=w+2,并判斷w是否小于wmax,如果w

        步驟4此時(shí)w=wmax為設(shè)定的最大濾波窗口,對(duì)該窗口采用加權(quán)中值濾波,用加權(quán)后的中值代替窗口的中心值,繼續(xù)進(jìn)行下一個(gè)像素點(diǎn)的濾波。

        由于只在濾波窗口取最大時(shí)采用加權(quán)中值濾波,不僅能提高濾除效果,還比對(duì)所有的濾波窗口都采用加權(quán)濾波所用的時(shí)間少。

        傳統(tǒng)Canny算法用一階偏導(dǎo)數(shù)的有限差分計(jì)算濾波圖像梯度的幅度和方向,對(duì)噪聲比較敏感,這里借鑒Sobel邊緣檢測(cè)算子特點(diǎn),在計(jì)算梯度時(shí)選用Sobel算子的α、β模板,并增加了45°和135°兩個(gè)方向的梯度計(jì)算模板,形成水平、垂直、45°和135°四個(gè)方向的模板,如圖4所示。

        4個(gè)方向上的一階梯度分量可由圖4所示的4個(gè)模板對(duì)經(jīng)過(guò)加權(quán)自適應(yīng)中值濾波后的圖像進(jìn)行卷積得到,即

        gX(X,Y)=-(X-1,Y-1)-2(X-1,Y)-

        (X-1,Y+1)+(X+1,Y-1)+

        2(X+1,Y)+(X+1,Y+1),

        gY(X,Y)=-(X-1,Y-1)+(X-1,Y+1)-

        2(X,Y-1)+2(X,Y+1)-

        (X+1,Y-1)+(X+1,Y+1),

        g45(X,Y)=-2(X-1,Y-1)-(X-1,Y)-

        (X,Y-1)+(X,Y+1)+(X+1,Y)+

        2(X+1,Y+1),

        g135(X,Y)=-(X-1,Y)-2(X-1,Y+1)+

        (X,Y-1)+(X,Y+1)+2(X+1,Y-1)+

        (X+1,Y)。

        (6)

        梯度幅值可以由4個(gè)梯度分量求出,如式(7)所示:

        R(X,Y)=

        (7)

        梯度的角度可由水平和垂直方向的梯度分量求出,如式(8)所示:

        (8)

        由此可見(jiàn),綜合考慮當(dāng)前像素周圍八鄰域內(nèi)4個(gè)方向的梯度值改進(jìn)梯度計(jì)算方法,可準(zhǔn)確定位邊緣且降低邊緣丟失現(xiàn)象和錯(cuò)檢率。

        傳統(tǒng)Canny算子進(jìn)行邊緣檢測(cè)時(shí)需要人為預(yù)先設(shè)置高低閾值,閾值設(shè)置過(guò)高可能導(dǎo)致邊緣斷裂、不連續(xù),從而丟失邊緣信息;閾值設(shè)置過(guò)低可能出現(xiàn)過(guò)多的偽邊緣,甚至將噪聲作為邊緣提取[19]。因此自動(dòng)選取合適的閾值對(duì)邊緣檢測(cè)至關(guān)重要。

        鑒于Otsu算法使類間方差最大以自動(dòng)確定閾值思想,這里在雙閾值處理中,采用Otsu自動(dòng)獲得高低閾值,大于高閾值的點(diǎn)判定為邊緣點(diǎn),小于低閾值的點(diǎn)判定為非邊緣點(diǎn)。對(duì)處于高低閾值之間的點(diǎn),采用八鄰域與迭代自適應(yīng)確定閾值相結(jié)合的方法來(lái)進(jìn)行判定,該方法可有效剔除一些偽邊緣,算法步驟如下:

        步驟1 用Otsu自動(dòng)獲取圖像高閾值kmax、低閾值kmin,大于高閾值的點(diǎn)判定為邊緣點(diǎn),小于低閾值的點(diǎn)判定為非邊緣點(diǎn)。

        步驟2對(duì)處于高低閾值之間的點(diǎn),設(shè)初始閾值T0=(kmax+kmin)/2,分別求出[kmin,T0]和[T0,kmax]的平均值k1和k2,令一次迭代的閾值T1=(k1+k2)/2。

        步驟3分別求出[k1,T1]和[T1,k2]的平均值k3和k4,令二次迭代的閾值T2=(k3+k4)/2;計(jì)算過(guò)程以此類推,直到Tn=Tn+1。

        步驟4獲得中間閾值Tmid,若中間點(diǎn)八鄰域內(nèi)計(jì)算閾值大于Tmid時(shí),判定該點(diǎn)為邊緣點(diǎn),反之為非邊緣點(diǎn)。

        綜上所述,本文改進(jìn)的Canny算法的流程圖如圖5所示。

        2.4 特征提取及融合

        在用改進(jìn)的Canny邊緣檢測(cè)算法提取曲軸邊緣后,結(jié)合待識(shí)別曲軸特點(diǎn),為了獲得較高的識(shí)別精度,不僅需要提取曲軸邊緣的全局特征,還需要提取局部的細(xì)節(jié)特征??紤]到實(shí)際拍攝時(shí)由于曲軸放置位置、角度和相機(jī)高度等問(wèn)題的存在,會(huì)導(dǎo)致拍攝得到的圖像具有平移、旋轉(zhuǎn)和縮放等情況,因此提取的特征應(yīng)該具有平移、旋轉(zhuǎn)和尺度縮放的特性??紤]到Hu矩和歸一化后的傅里葉描述子具有平移、旋轉(zhuǎn)和尺度縮放的優(yōu)點(diǎn),在圖像具有平移、旋轉(zhuǎn)和尺度縮放時(shí)還能作為有效的特征,Hu矩和傅里葉描述子可以描述全局特征,傅里葉描述子的高頻分量可以描述曲軸的局部特征;考慮到尺寸特征運(yùn)算量小,在圖像存在平移和縮放時(shí),尺寸特征還能作為有效的特征用于識(shí)別。因此,這里提取邊緣的Hu矩特征、傅里葉描述子和尺寸特征,并將3類特征通過(guò)不同的組合方式進(jìn)行融合作為DSVM的輸入,以此來(lái)提高識(shí)別精度。

        2.4.1 Hu矩特征提取

        Hu不變矩具有平移、旋轉(zhuǎn)和尺度縮放不變性等優(yōu)點(diǎn),屬于全局特征,反映曲軸的形狀輪廓信息。

        對(duì)于二維離散的數(shù)字圖像g(s,u),其(p+q)階幾何矩如式(9)所示:

        (9)

        (p+q)階中心距如式(10)所示:

        (10)

        利用零階中心距μ00對(duì)各階中心距進(jìn)行歸一化處理,使其具有尺度不變性,得到歸一化的中心距:

        (11)

        各階矩的物理含義如下:

        0階矩(e00)表示目標(biāo)區(qū)域的質(zhì)量;

        1階矩(e01,e10)表示目標(biāo)區(qū)域的質(zhì)心;

        2階矩(e02,e11,e20)表示目標(biāo)區(qū)域的旋轉(zhuǎn)半徑;

        3階矩(e03,e12,e21,e30)表示目標(biāo)區(qū)域的方位和斜度,反映目標(biāo)的扭曲。

        利用二階和三階歸一化中心距進(jìn)行構(gòu)造,導(dǎo)出7個(gè)不變矩,其表達(dá)式如下:

        H1=η20+η02,

        H3=(η30-3η12)2+(3η21-η03)2,

        H4=(η30+η12)2+(η21+η03)2,

        H5=(η30-3η12)(η30+η12)[(η30+η12)2-

        3(η21+η03)2]+(3η21-η03)(η21+η03)

        [3(η30+η12)2-(η21+η03)2],

        H6=(η20-η02)[(η30+η12)2-

        3(η21+η03)2]+4η11(η30+η12)(η21+η03),

        H7=(3η21-η03)(η30+η12)[(η30+η12)2-

        3(η21+η03)2]-(η30-3η12)(η21+η03)[3(η30+

        η12)2-(η21+η03)2]。

        (12)

        以上7個(gè)不變矩組在圖像平移、旋轉(zhuǎn)和尺度發(fā)生變化時(shí)保持不變。

        2.4.2 傅里葉描述子

        傅里葉描述子作為一種形狀特征描述方式,不但能反映全局及局部特征,而且只需少量的描述子就可以很好地表征物體的整個(gè)輪廓。這里采用改進(jìn)的Canny算法提取的曲軸輪廓是一條封閉的曲線,假設(shè)封閉的輪廓曲線是由Q個(gè)離散的點(diǎn)構(gòu)成,輪廓邊界點(diǎn)的坐標(biāo)序列為:

        {x(z),y(z)|z=0,1,…,Q-1}。

        (13)

        坐標(biāo)的復(fù)數(shù)形式可以表示為:

        o(z)=x(z)+jy(z)。

        (14)

        輪廓曲線的坐標(biāo)序列的離散傅里葉變換為:

        (15)

        對(duì)傅里葉描述子的系數(shù)進(jìn)行歸一化處理,即將各個(gè)幅值除以‖O(1)‖,即

        (16)

        進(jìn)行歸一化處理的傅里葉描述子不僅與起點(diǎn)的選擇無(wú)關(guān),還具有旋轉(zhuǎn)、平移、尺度縮放不變性,即不受輪廓在圖像中的位置、角度及輪廓的縮放等影響,是一組魯棒性較好的圖像特征。

        2.4.3 尺寸特征

        采用改進(jìn)的Canny算法得到曲軸的邊緣圖像后,遍歷每個(gè)邊緣點(diǎn)的像素位置,找到邊緣圖像的橫坐標(biāo)最小值Imin、橫坐標(biāo)最大值Imax、縱坐標(biāo)最小值Jmin和縱坐標(biāo)最大值Jmax,由此可以得到曲軸邊緣的長(zhǎng)即最大的橫坐標(biāo)差值ΔImax=Imax-Imin;曲軸邊緣的寬即最大的縱坐標(biāo)差值ΔJmax=Jmax-Jmin;將長(zhǎng)和寬的比值∑=ΔImax/ΔJmax作為圖像的尺寸特征用于分類。

        2.4.4 串行特征融合

        由于提取的Hu矩描述的是曲軸的全局特征;傅里葉描述子的低頻成分描述了曲軸的全局輪廓特征,高頻成分描述了曲軸的局部特征;尺寸特征則既反映了曲軸的局部信息又反映了全局信息,為克服單一特征分類識(shí)別局限性,有效提高分類識(shí)別效果,將樣本空間中的多種特征串行融合構(gòu)成一組新的綜合特征向量作為DSVM輸入進(jìn)行學(xué)習(xí)分類。串行特征融合方法簡(jiǎn)單且計(jì)算量小,對(duì)于多類特征維度之和不大的特征融合是比較好的選擇,假定圖像的樣本存在兩個(gè)特征量α、β,串行融合的方法就是將兩個(gè)特征量串成一個(gè)新的特征量ω,

        (17)

        式中,如果特征量α為n維,β為m維,則經(jīng)過(guò)串行組合后的新的特征量ω為(n+m)維。

        針對(duì)本文對(duì)曲軸識(shí)別的需求,采用串行特征融合將3類特征進(jìn)行融合,融合后的特征矢量維度為18,3類特征融合后的維度之和不大,融合后的特征不但最大限度地保留了特征信息,而且融合方法簡(jiǎn)單,運(yùn)算量小,有利于信息的實(shí)時(shí)處理。

        由于Hu矩特征、傅里葉描述子和尺寸特征表達(dá)的物理意義和取值范圍不同,采用融合特征分類時(shí)需要對(duì)特征向量進(jìn)行歸一化處理。為了消除特征之間的信息冗余并確保不同數(shù)量級(jí)特征對(duì)識(shí)別結(jié)果的貢獻(xiàn)程度,采用最大—最小歸一化方法,本文分別將Hu矩與傅里葉描述子、Hu矩與尺寸特征、傅里葉描述子與尺寸特征、Hu矩和傅里葉描述子及尺寸特征進(jìn)行串行融合,并通過(guò)實(shí)驗(yàn)對(duì)比不同融合方式對(duì)曲軸種類識(shí)別精度的影響。

        2.5 用于曲軸種類識(shí)別的DSVM方法

        將融合后的特征向量與類別標(biāo)簽一起存儲(chǔ),作為DSVM的輸入,用于曲軸種類識(shí)別的DSVM算法步驟如下:

        步驟1將訓(xùn)練樣本輸入到網(wǎng)絡(luò)的第一隱藏層,按照式(1)計(jì)算第一隱藏層的輸出。

        步驟2將第一隱藏層的輸出通過(guò)激活函數(shù)映射到下一隱藏層,依此類推。

        步驟3最后一個(gè)隱藏層的輸出作為輸出層的輸入,按式(3)計(jì)算輸出層的輸出與目標(biāo)輸出的誤差。

        步驟4通過(guò)反向傳播的方法,更新網(wǎng)絡(luò)中每一層的權(quán)重和偏差值,從而使輸出的識(shí)別結(jié)果更接近目標(biāo)輸出。

        步驟5通過(guò)設(shè)置迭代次數(shù)使網(wǎng)絡(luò)停止更新,網(wǎng)絡(luò)訓(xùn)練完成,得到較好的權(quán)值和偏差值。

        步驟6將測(cè)試樣本輸入到訓(xùn)練好的網(wǎng)絡(luò)中進(jìn)行曲軸種類識(shí)別,輸出識(shí)別結(jié)果。

        3 實(shí)驗(yàn)及結(jié)果分析

        為了驗(yàn)證基于特征融合的DSVM識(shí)別方法的有效性,按再制造廢舊零件修復(fù)或改造柔性生產(chǎn)線中對(duì)曲軸零件在線識(shí)別要求,構(gòu)建了曲軸視覺(jué)在線檢測(cè)實(shí)驗(yàn)系統(tǒng),獲取了5類曲軸樣本數(shù)據(jù)集,在此基礎(chǔ)上進(jìn)行了曲軸特征提取及種類識(shí)別實(shí)驗(yàn)。通過(guò)對(duì)比傳統(tǒng)Canny算法和改進(jìn)Canny算法提取曲軸邊緣輪廓及Hu矩、傅里葉描述子和尺寸特征提取效果,選擇最優(yōu)的特征組合方案作為DSVM的輸入;并對(duì)比DSVM中不同網(wǎng)絡(luò)參數(shù)(核參數(shù)、懲罰參數(shù)、迭代次數(shù)、學(xué)習(xí)率等)對(duì)識(shí)別效果的影響,選取最優(yōu)的網(wǎng)絡(luò)參數(shù)和隱藏層數(shù),實(shí)現(xiàn)高效準(zhǔn)確的曲軸種類識(shí)別。同時(shí),通過(guò)與單一SVM和CNN識(shí)別模型進(jìn)行對(duì)比實(shí)驗(yàn),驗(yàn)證本文所提DSVM識(shí)別算法的先進(jìn)性。

        3.1 實(shí)驗(yàn)系統(tǒng)

        面向再制造廢舊零件修復(fù)或改造柔性生產(chǎn)線中對(duì)曲軸零件在線識(shí)別的需要,搭建了曲軸視覺(jué)在線檢測(cè)實(shí)驗(yàn)系統(tǒng),如圖6所示,該系統(tǒng)主要由零件定位控制平臺(tái)、相機(jī)、光源、支架及圖像識(shí)別軟件平臺(tái)等組成,其中曲軸零件定位控制平臺(tái)主要由檢測(cè)工作臺(tái)、V型支撐塊、滑軌、滾珠絲杠、步進(jìn)電機(jī)及電機(jī)控制器等組成,電機(jī)通過(guò)聯(lián)軸器直接驅(qū)動(dòng)滾珠絲杠,絲杠通過(guò)螺母帶動(dòng)檢測(cè)工作臺(tái)將電機(jī)的旋轉(zhuǎn)運(yùn)動(dòng)轉(zhuǎn)換成工作臺(tái)的直線運(yùn)動(dòng),實(shí)現(xiàn)零件水平方向檢測(cè)位置的精確定位;檢測(cè)工作臺(tái)上的一對(duì)V型支撐塊除了對(duì)曲軸起支撐定位作用,還可根據(jù)零件尺寸大小調(diào)整距離以適用于不同型號(hào)曲軸定位;放置相機(jī)和光源的支架可根據(jù)視場(chǎng)范圍調(diào)整其高度,這里根據(jù)被測(cè)曲軸的尺寸范圍選用??低暤腗V-CE060-10UM型相機(jī),分辨率為3 072×2 048,鏡頭選用SATOO的VT0814-M2,焦距為8 mm,光源選用白色環(huán)形光源;圖像識(shí)別軟件平臺(tái)是在3.7 GHz CPU、8 GB RAM硬件PC環(huán)境及MATLAB 2016R和Python3.5編程軟件環(huán)境下自主研發(fā)的。

        3.2 建立樣本圖像庫(kù)

        選用某廠家單曲拐的5類不同型號(hào)(L28、L24、ZS1115、CF1125、165F)曲軸零件作為研究對(duì)象,每類曲軸有10個(gè),在搭建的曲軸視覺(jué)在線檢測(cè)實(shí)驗(yàn)系統(tǒng)上進(jìn)行圖像樣本采集,為全面反映曲軸形貌和局部細(xì)節(jié)特征,通過(guò)控制器控制曲軸在4個(gè)不同位姿(曲柄處于正上方、左側(cè)方、正下方、右側(cè)方)下采集曲軸圖像,每個(gè)位姿采集2張圖片;同時(shí)為反映圖像樣本縮放關(guān)系及擴(kuò)大樣本數(shù)量,通過(guò)支架調(diào)整相機(jī)高度位置,分別在高度間隔2 mm的30個(gè)不同位置采集曲軸圖像,由此每類10個(gè)曲軸得到2 400幅圖像樣本,5類曲軸共獲取12 000幅圖像樣本,采用最常用的10折交叉驗(yàn)證法,將10 800幅作為訓(xùn)練樣本,1 200幅作為測(cè)試樣本。

        3.3 改進(jìn)Canny算法特征提取效果驗(yàn)證實(shí)驗(yàn)

        為驗(yàn)證改進(jìn)的Canny算法提取特征效果,首先分別用傳統(tǒng)的Canny算法和本文改進(jìn)的Canny算法對(duì)各類曲軸圖像進(jìn)行邊緣檢測(cè),結(jié)果如圖7所示。由圖7可知本文改進(jìn)的Canny算法在邊緣提取時(shí)既能保證曲軸輪廓邊緣的完整簡(jiǎn)潔,未出現(xiàn)明顯的斷邊現(xiàn)象,又能很好地提取到曲軸的細(xì)節(jié)。

        然后由傳統(tǒng)的Canny算法和本文改進(jìn)的Canny算法提取的5類不同曲軸邊緣獲得Hu矩特征,歸一化處理后的Hu矩對(duì)比如圖8所示。由圖8可知,采用改進(jìn)Canny算法提取的不同種類的邊緣Hu矩特征類間差值較明顯,可以作為有效的特征參數(shù)用于識(shí)別。

        同時(shí),由傳統(tǒng)的Canny算法和本文改進(jìn)的Canny算法得到的5類不同曲軸邊緣圖提取傅里葉描述子,傅里葉描述子的低頻分量能較好地反映曲軸的整體形狀,高頻分量能較好地反映曲軸的細(xì)節(jié)特征,高頻分量對(duì)曲軸識(shí)別有一定的作用,在進(jìn)行識(shí)別時(shí)特征向量需要選取適當(dāng)?shù)拈L(zhǎng)度,本文分別將具有不同特征向量長(zhǎng)度的傅里葉描述子輸入到單一SVM中進(jìn)行訓(xùn)練和識(shí)別,其準(zhǔn)確率如圖9所示。由圖9可知,當(dāng)傅里葉個(gè)數(shù)達(dá)到10時(shí),其識(shí)別精度達(dá)到穩(wěn)定最高值,因此傅里葉描述子特征向量長(zhǎng)度選為10。

        分別采用傳統(tǒng)的Canny算法和本文改進(jìn)的Canny算法獲得的5類不同曲軸邊緣圖提取的傅里葉描述子特征向量進(jìn)行歸一化處理,如圖10所示??芍?,由改進(jìn)的Canny算法邊緣圖像提取的傅里葉描述子類間的幅值差別較明顯,可以作為有效的特征參數(shù)用于DSVM網(wǎng)絡(luò)輸入向量。

        考慮到不同種類的曲軸在尺寸上存在一定的差別,選用高寬比作為尺寸特征用于曲軸種類識(shí)別,尺寸特征如圖11所示??梢钥闯?,曲軸1和曲軸3的尺寸差別不太明顯,但與其他種類的曲軸尺寸差別較明顯,因此長(zhǎng)寬比可以作為有效的特征參數(shù)用于識(shí)別。

        3.4 單一特征和融合特征性能對(duì)比

        為合理確定DSVM模型低層輸入特征,進(jìn)行了不同特征識(shí)別效果比較實(shí)驗(yàn),分別將提取到的Hu矩特征、傅里葉描述子、Hu矩+傅里葉描述子、Hu矩+尺寸特征、傅里葉描述子+尺寸特征、Hu矩+傅里葉描述子+尺寸特征分別輸入到單一的SVM進(jìn)行識(shí)別,得到的識(shí)別結(jié)果如圖12所示??梢钥闯?,使用傅里葉描述子與尺寸特征融合后的識(shí)別精度最高,可以達(dá)到99.6%,因此本文采用傅里葉描述子和尺寸特征進(jìn)行融合作為DSVM的輸入來(lái)對(duì)曲軸進(jìn)行識(shí)別。

        3.5 DSVM模型參數(shù)設(shè)置實(shí)驗(yàn)

        采用本文所提的DSVM模型識(shí)別曲軸種類時(shí),在確定網(wǎng)絡(luò)模型輸入特征的基礎(chǔ)上,需要確定的參數(shù)是DSVM網(wǎng)絡(luò)各層SVM的核函數(shù)參數(shù)σ及懲罰系數(shù)C。鑒于徑向基函數(shù)(Radial Basis Function,RBF)具有較強(qiáng)的多維非線性映射能力、泛化能力、聚類分析及并行信息處理能力等優(yōu)勢(shì),這里采用RBF核函數(shù)。參照文獻(xiàn)[12]得出的深度支持向量機(jī)分類識(shí)別效果不會(huì)因每層選擇特定的或復(fù)雜的核函數(shù)而有所改變的結(jié)論,本文在DSVM網(wǎng)絡(luò)模型的每一層都選用RBF核函數(shù)。這里通過(guò)5折交叉驗(yàn)證來(lái)尋找最優(yōu)的核參數(shù)σ和懲罰系數(shù)C,最終確定最優(yōu)核參數(shù)σ為0.37、懲罰系數(shù)C為12。

        為提高DSVM網(wǎng)絡(luò)模型非線性映射及處理復(fù)雜數(shù)據(jù)分類能力,選用合適的激活函數(shù)至關(guān)重要??紤]到線性整流函數(shù)(Rectified Linear Unit,ReLU)的收斂速度遠(yuǎn)快于邏輯函數(shù)(Logistic sigmoid)和tanh雙曲函數(shù),且其計(jì)算速度較快,具有高效的梯度下降及反向傳播,可避免梯度爆炸和梯度消失問(wèn)題,因此本文采用ReLU函數(shù)作為激活函數(shù)。

        其次需要確定的參數(shù)是DSVM網(wǎng)絡(luò)框架的隱藏層數(shù)Nh,隱藏層數(shù)決定模型框架的復(fù)雜度,同時(shí)直接影響網(wǎng)絡(luò)的識(shí)別精度。在確定最優(yōu)核參數(shù)σ為0.37、懲罰系數(shù)C為12的基礎(chǔ)上,這里根據(jù)經(jīng)驗(yàn)設(shè)置初始的學(xué)習(xí)率為0.01,迭代次數(shù)為5 000,網(wǎng)絡(luò)模型采用不同隱藏層數(shù),得到對(duì)應(yīng)的曲軸識(shí)別精度如表1所示??芍蛱?hào)4的網(wǎng)絡(luò)框架模型識(shí)別精度最高,則本文采用含有3個(gè)隱藏層的模型來(lái)對(duì)曲軸進(jìn)行種類識(shí)別。

        表1 不同隱藏層數(shù)的識(shí)別精度

        DSVM網(wǎng)絡(luò)隱藏層確定后,當(dāng)訓(xùn)練模型時(shí),學(xué)習(xí)率、迭代次數(shù)和模型參數(shù)的初始化方式對(duì)模型的準(zhǔn)確率有一定的影響,這里通過(guò)設(shè)定不同學(xué)習(xí)率(0.01~0.09)和迭代次數(shù)(4 000~10 000)分別得到模型識(shí)別精度,如圖13所示??芍趯W(xué)習(xí)率相同的情況下,增大迭代次數(shù)會(huì)明顯提高模型識(shí)別準(zhǔn)確率,但過(guò)度增大學(xué)習(xí)率有時(shí)會(huì)導(dǎo)致準(zhǔn)確率下降,發(fā)現(xiàn)在學(xué)習(xí)率為0.06、迭代次數(shù)為8 000時(shí)模型達(dá)到最高識(shí)別精度0.996,且運(yùn)行時(shí)間為93 ms,滿足曲軸種類識(shí)別要求。

        3.6 識(shí)別模型性能對(duì)比

        為驗(yàn)證本文所提的DSVM模型識(shí)別性能,將其與單一的SVM和CNN進(jìn)行比較。選用5類曲軸的10 800幅圖像作為訓(xùn)練樣本,1 200幅作為測(cè)試樣本,采用傅里葉描述子和尺寸特征進(jìn)行融合作為單一SVM和DSVM的輸入對(duì)曲軸種類進(jìn)行識(shí)別。實(shí)驗(yàn)中SVM和DSVM的核函數(shù)均為RBF核函數(shù),核參數(shù)σ=0.37,懲罰系數(shù)C=12;DSVM含有3個(gè)隱藏層,第1隱藏層有256個(gè)SVM,σ=0.37,C=12,第2隱藏層有128個(gè)SVM,σ=0.37,C=12,第3隱藏層有32個(gè)SVM,σ=0.37,C=12,學(xué)習(xí)率為0.06,迭代次數(shù)為8 000;CNN模型選用AlexNet,該模型包含4個(gè)卷積層、4個(gè)池化層、1個(gè)全連接層和1個(gè)輸出層,第1個(gè)卷積層有16個(gè)5×5卷積核,第1個(gè)池化層池化核為2×2,第2個(gè)卷積層有32個(gè)5×5卷積核,第2個(gè)池化層池化核為2×2,第3個(gè)卷積層有64個(gè)5×5卷積核,第3個(gè)池化層池化核為2×2,第4個(gè)卷積層有128個(gè)5×5卷積核,第4個(gè)池化層池化核為2×2,全連接層的神經(jīng)元個(gè)數(shù)為64,輸出層的激活函數(shù)為Softmax,學(xué)習(xí)率為0.06,迭代次數(shù)為8 000,將拍攝的樣本圖像經(jīng)過(guò)尺寸變換和去背景處理后輸入到訓(xùn)練好的AlexNet中進(jìn)行識(shí)別并記錄識(shí)別精度和識(shí)別時(shí)間。3類模型識(shí)別結(jié)果如表2所示,可知相較于單一的SVM和CNN, DSVM的識(shí)別精度分別提高了6.6%和3.1%,識(shí)別時(shí)間為93 ms,符合裝配生產(chǎn)線曲軸種類識(shí)別要求。

        表2 不同模型識(shí)別精度及識(shí)別時(shí)間對(duì)比

        4 結(jié)束語(yǔ)

        本文提出一種基于特征融合的DSVM識(shí)別方法,以實(shí)現(xiàn)拓?fù)湫螤罱Y(jié)構(gòu)相似、僅在局部細(xì)節(jié)上有差別的曲軸種類識(shí)別。為獲得較好的曲軸圖像局部細(xì)節(jié)邊緣檢測(cè)效果,從濾波、梯度計(jì)算、自動(dòng)獲取高低閾值等方面對(duì)傳統(tǒng)Canny邊緣檢測(cè)算法進(jìn)行改進(jìn),進(jìn)而提取邊緣的Hu矩、傅里葉描述子和尺寸特征,通過(guò)串行融合和特征篩選方法對(duì)提取到的3類特征進(jìn)行組合優(yōu)化并做歸一化處理,作為DSVM模型的輸入向量;為驗(yàn)證基于特征融合的DSVM識(shí)別方法有效性,按再制造廢舊零件修復(fù)或改造柔性生產(chǎn)線中對(duì)曲軸零件在線識(shí)別要求,構(gòu)建了曲軸視覺(jué)在線檢測(cè)實(shí)驗(yàn)系統(tǒng),獲取了5類曲軸樣本數(shù)據(jù)集,實(shí)驗(yàn)對(duì)比分析了DSVM中不同網(wǎng)絡(luò)參數(shù)(核參數(shù)、懲罰參數(shù)、迭代次數(shù)、學(xué)習(xí)率等)對(duì)識(shí)別效果的影響,選取最優(yōu)的網(wǎng)絡(luò)參數(shù)和隱藏層數(shù),同時(shí)通過(guò)與單一SVM和CNN識(shí)別模型AlexNet進(jìn)行對(duì)比實(shí)驗(yàn),發(fā)現(xiàn)本文所提的基于特征融合的DSVM識(shí)別精度可達(dá)99.6%,相較于單一的SVM和AlexNet分別提高了6.6%和3.1%,識(shí)別時(shí)間為93 ms,符合再制造廢舊零件修復(fù)或改造柔性生產(chǎn)線中對(duì)曲軸零件在線識(shí)別要求。雖然本文所提DSVM方法能夠較好地完成曲軸零件種類識(shí)別任務(wù),但在數(shù)據(jù)集的數(shù)量、特征融合及篩選和深度學(xué)習(xí)算法上仍有很大的提升空間,后續(xù)將進(jìn)一步增加數(shù)據(jù)集的數(shù)量和質(zhì)量,不斷更新DSVM參數(shù),在提高識(shí)別準(zhǔn)確率的基礎(chǔ)上有效縮短識(shí)別時(shí)間。

        猜你喜歡
        傅里葉曲軸邊緣
        淺析曲軸磨床的可靠性改進(jìn)
        雙線性傅里葉乘子算子的量化加權(quán)估計(jì)
        一種曲軸豎置熱處理裝置設(shè)計(jì)
        基于小波降噪的稀疏傅里葉變換時(shí)延估計(jì)
        基于支持向量機(jī)的曲軸動(dòng)平衡控制方法
        一張圖看懂邊緣計(jì)算
        基于傅里葉變換的快速TAMVDR算法
        快速離散傅里葉變換算法研究與FPGA實(shí)現(xiàn)
        創(chuàng)新的曲軸零件試驗(yàn)方法
        在邊緣尋找自我
        雕塑(1999年2期)1999-06-28 05:01:42
        中文字幕精品久久久久人妻| 久久99中文字幕久久| 日韩熟女一区二区三区 | 91久久福利国产成人精品| 一区二区三区在线观看精品视频| 亚洲国产精品一区二区成人av| 无码国产精品一区二区免费式直播| 亚洲精品国产美女久久久| 日本人妻av在线观看| 有坂深雪中文字幕亚洲中文| 亚洲熟妇无码一区二区三区导航| 91麻豆国产香蕉久久精品| 国产目拍亚洲精品区一区| 中国老熟女露脸老女人| 精品人妻无码视频中文字幕一区二区三区| 国产黄色片在线观看| 国产高清精品在线二区| 中文字幕一区二区中文| 最近免费mv在线观看动漫| 亚洲中文字幕久久精品蜜桃 | 人妻露脸国语对白字幕| 欧美顶级少妇作爱| 国产高潮国产高潮久久久| 青青视频一区| 亚洲日本视频一区二区三区| 丝袜美腿福利一区二区| 小荡货奶真大水真多紧视频| 亚洲中文字幕无码二区在线| 久久2020精品免费网站| 无码人妻丰满熟妇啪啪网不卡| 蜜臀久久99精品久久久久久小说| 99在线国产视频| 日韩午夜免费视频精品一区| 特级毛片a级毛片100免费播放| 日本欧美在线播放| 在线观看免费的黄片小视频| 国产精品乱码人妻一区二区三区| 国产乱子伦精品免费无码专区| 亚洲中文字幕无线乱码va | 中文字幕一区二区三区| 老子影院午夜伦不卡|