石志良,張鵬飛,李曉垚
基于SIFT-SVM的發(fā)動機(jī)主軸承蓋識別與分類
石志良,張鵬飛,李曉垚
(武漢理工大學(xué)機(jī)電工程學(xué)院,湖北 武漢 430070)
機(jī)械零部件的識別與分類任務(wù)是制造業(yè)自動化生產(chǎn)線的關(guān)鍵環(huán)節(jié)。針對發(fā)動機(jī)主軸承蓋混合清洗后的分類,通過分析發(fā)動機(jī)主軸承蓋零件的實(shí)際特征,提出基于SIFT-SVM的主軸承蓋分類識別方法。該方法首先提取訓(xùn)練數(shù)據(jù)集圖像的所有尺度不變(SIFT)特征向量,采用K-means聚類方法,將所有的特征向量聚類成K個分類,并將其代入詞袋模型(BoW)中,使用K個“詞匯”來描述每一張訓(xùn)練圖像,從而得到圖像的BoW描述。且以每張圖像的BoW描述作為訓(xùn)練輸入,使用支持向量機(jī)(SVM)訓(xùn)練主軸承蓋的分類模型。實(shí)驗(yàn)結(jié)果表明:在標(biāo)定的照明條件下,主軸承蓋零件的識別率可達(dá)100%,單個零件識別時間為0.6 s,驗(yàn)證了該算法的有效性和高效性。
零件識別與分類;機(jī)器視覺;SIFT;詞袋模型;支持向量機(jī)分類器
汽車發(fā)動機(jī)主軸承蓋用于發(fā)動機(jī)曲軸定位,是汽車發(fā)動機(jī)的重要零部件之一。由于發(fā)動機(jī)的尺寸、造型及動力性能存在多樣化,導(dǎo)致發(fā)動機(jī)主軸承蓋的形狀及尺寸有所不同。企業(yè)在實(shí)際生產(chǎn)過程中,通常是一條生產(chǎn)線同時生產(chǎn)幾種類型的主軸承蓋,經(jīng)過混合清洗工序后,需要將不同種類的主軸承蓋零件進(jìn)行分類包裝。目前通常是人工目視分類,工人需要長時間在生產(chǎn)一線工作,工作環(huán)境差、強(qiáng)度高、易疲勞甚至個人情緒都會降低分類的可靠性。通過引入機(jī)器視覺方法進(jìn)行主軸承蓋自動分類,有助于減輕一線工人繁重的體力勞動,同時提高零件分類的效率及可靠性。
隨著圖像識別算法的不斷更新與優(yōu)化,基于機(jī)器視覺的識別與分類系統(tǒng)受到越來越多國內(nèi)外專家學(xué)者的關(guān)注。BHAT等[1]提出一種基于機(jī)器學(xué)習(xí)的機(jī)械加工車刀狀態(tài)識別方法,該方法通過灰度共生矩陣提取加工表面的紋理特征,利用支持向量機(jī)(support vector machine,SVM)識別加工表面的質(zhì)量,最終由加工表面質(zhì)量與車刀狀態(tài)的關(guān)系,完成車刀3種銳利狀態(tài)的識別;OLGUN等[2]將基于SIFT-SVM的機(jī)器視覺系統(tǒng)應(yīng)用于小麥的自動識別中,通過提取圖像中小麥的尺度不變特征(scale- invariant feature transform,SIFT),然后在詞袋模型(bag of word model,BoW)中得到小麥圖像的詞袋描述,最后使用SVM分類器得到了有效的分類結(jié)果,類似的方法還被應(yīng)用于蠟染圖像識別[3]、車輛識別[4]、手語圖像識別[5]、三維人臉面部表情識別[6]等領(lǐng)域;KRüGER等[7]利用渦輪機(jī)零部件自身的形狀特征,通過構(gòu)建帶殘差塊的卷積神經(jīng)網(wǎng)絡(luò)ResNet-152進(jìn)行識別訓(xùn)練,實(shí)驗(yàn)結(jié)果表明:對于50種形狀差異明顯的渦輪機(jī)零部件,其識別正確率可達(dá)96%,基于深度神經(jīng)網(wǎng)絡(luò)的方法還被應(yīng)用于電子板缺陷圖像分類[8]、水果和花卉圖像分類[9]等領(lǐng)域。在結(jié)合圖像分類方法及應(yīng)用的基礎(chǔ)上,本文提出一種基于機(jī)器視覺的機(jī)械零部件識別方法,用于發(fā)動機(jī)主軸承蓋零件的識別與分類,實(shí)驗(yàn)結(jié)果證明了該方法的實(shí)用性和有效性。
在實(shí)際生產(chǎn)中,同一時段生產(chǎn)的多種主軸承蓋零件,在不同的鑄造生產(chǎn)線加工完成后,會合并到同一條生產(chǎn)線統(tǒng)一進(jìn)行清洗、除銹,接著進(jìn)入識別分類工序。對于不同種類主軸承蓋零件,其外觀尺寸差異小,底部半圓孔尺寸完全相同,因此選取零件的頂部側(cè)邊支撐面作為分類識別的目標(biāo)區(qū)域,如圖1所示。
發(fā)動機(jī)主軸承蓋識別分類方法的具體流程如圖2所示。在模型訓(xùn)練過程中,訓(xùn)練數(shù)據(jù)集全體主軸承蓋圖像的SIFT特征向量組合成特征矩陣,通過無監(jiān)督聚類方法形成BoW模型的詞匯集并保存,最終,以每張圖像的詞袋描述作為輸入數(shù)據(jù),由SVM分類器得到主軸承蓋識別分類模型。
圖1 5種發(fā)動機(jī)主軸承蓋零件分類所依據(jù)的形狀特征
圖2 發(fā)動機(jī)主軸承蓋零件識別方法流程圖
在進(jìn)行實(shí)際分類識別時,將實(shí)時拍攝的主軸承蓋圖像,直接輸入到識別系統(tǒng)中,通過SIFT方法提取圖像的關(guān)鍵點(diǎn),并結(jié)合訓(xùn)練時已保存的BoW模型詞匯集,得到該主軸承蓋圖像的BoW描述,由此利用已經(jīng)訓(xùn)練完成的識別模型,即可完成對當(dāng)前主軸承蓋的識別與分類。
發(fā)動機(jī)主軸承蓋識別系統(tǒng)的硬件部分,主要由物料傳送、圖像采集、輔助光源和識別處理4個模塊組成。其簡化模型如圖3所示。
圖3 主軸承蓋識別系統(tǒng)的硬件組成
物料傳送模塊由驅(qū)動電機(jī)、差速器和傳送帶組成,差速器用于調(diào)整傳送帶的傳輸速度,控制生產(chǎn)節(jié)拍,并驗(yàn)證該節(jié)拍下的識別系統(tǒng)準(zhǔn)確率。圖像采集模塊由單通道工業(yè)CCD相機(jī)、漫反射光電觸發(fā)器組成,經(jīng)過標(biāo)定后的光電觸發(fā)器,會在主軸承蓋零件傳送至靠近觸發(fā)器的固定位置處,觸發(fā)CCD相機(jī)進(jìn)行圖像捕捉,從而獲得質(zhì)量良好的主軸承蓋零件圖像。輔助光源模塊由環(huán)形LED光源、電源和輔助遮光罩組成,采用的環(huán)形多角度照明方式,照射面積大、光照均勻、可展現(xiàn)各種類主軸承蓋零件的差異性細(xì)節(jié)。另外,輔助遮光罩的設(shè)置,有效抑制了外界環(huán)境光照的影響,提升了采集圖像的品質(zhì),提高了系統(tǒng)識別的準(zhǔn)確率。識別處理模塊主要由工業(yè)計算機(jī)組成,通過構(gòu)建基于Visual Studio平臺和OpenCV計算機(jī)視覺庫的零件識別系統(tǒng),在計算機(jī)上執(zhí)行具體的識別與分類程序,實(shí)現(xiàn)識別模型的訓(xùn)練和應(yīng)用。
從主軸承蓋圖像中提取目標(biāo)區(qū)域的有效關(guān)鍵點(diǎn)是完成其識別分類的根本依據(jù),使用目標(biāo)區(qū)域關(guān)鍵點(diǎn)信息來描述不同種類主軸承蓋之間的差異,并將該描述作為分類輸入是發(fā)動機(jī)主軸承蓋識別方法的主要思路。理想的關(guān)鍵點(diǎn)應(yīng)該集中于主軸承蓋側(cè)邊支撐面形狀的邊緣或是幾何中心等位置,以便突出不同種類主軸承蓋側(cè)邊形狀上的差異。
提取主軸承蓋目標(biāo)區(qū)域形狀差異的關(guān)鍵點(diǎn)采用SIFT算法。SIFT是由LOWE[10]提出的一種局部特征描述子,其基于圖像多尺度金字塔,綜合考慮了各像素點(diǎn)處梯度的大小和方向,使得SIFT特征在旋轉(zhuǎn)、尺度縮放、光照明暗變化等方面保持良好的不變性,并將檢測多尺度空間下的局部極值點(diǎn)作為潛在關(guān)鍵點(diǎn)。首先將圖像逐步下采樣構(gòu)成圖像金字塔,其次,對每層圖像,通過計算得到多張不同尺度的圖像,形成尺度金字塔。SIFT方法通過二維高斯函數(shù)(,,),將圖像的尺度空間(,,)定義為原圖像(,)與高斯函數(shù)(,,)的卷積,即
式中,*表示圖像卷積運(yùn)算,高斯函數(shù)(,,)為
為提高局部極值點(diǎn)檢測的效率與穩(wěn)定性,SIFT使用高斯差分函數(shù)(difference of Gaussian,DoG)代替高斯-拉普拉斯算子(Laplacian of Gaussian,LoG),并由此計算出用于局部極值點(diǎn)求解的高斯差分圖像(,,),即
其中,為2個相鄰尺度圖像的分離系數(shù)。
尺度空間下的極值點(diǎn),最終是由該樣本點(diǎn)與當(dāng)前圖像相鄰的8個像素點(diǎn),以及上下兩層尺度圖像的各9個像素點(diǎn),共26個最鄰近像素點(diǎn)相比較得到的(圖4)。
但是,由上述方法從離散尺度空間得到的極值點(diǎn)并不都是穩(wěn)定的關(guān)鍵點(diǎn),因?yàn)槟承O值點(diǎn)可能存在于對比度較低區(qū)域,而且DoG算子具有較強(qiáng)的邊緣突出效應(yīng),易受圖像噪聲影響。因此,需要對極值點(diǎn)進(jìn)行進(jìn)一步的插值和2篩選。
圖4 高斯差分圖像局部極值檢測示意圖
SIFT特征利用極值點(diǎn)的Hessian矩陣計算主曲率,篩選出處于不穩(wěn)定邊緣處或噪聲處的極值點(diǎn)
實(shí)驗(yàn)表明:取=10時,且僅保留滿足上式的極值點(diǎn),可以有效增強(qiáng)極值點(diǎn)的穩(wěn)定性[10]。
經(jīng)過篩選后的極值點(diǎn),即確定為主軸承蓋目標(biāo)區(qū)域的穩(wěn)定關(guān)鍵點(diǎn)。不同種類主軸承蓋零件圖像在側(cè)邊支撐面區(qū)域所提取的關(guān)鍵點(diǎn)如圖5所示。
由圖5可知,實(shí)際提取的關(guān)鍵點(diǎn)大部分穩(wěn)定地集中于頂部側(cè)邊支撐面的邊緣位置,同時對于中間圓形螺栓孔的定位非常精準(zhǔn)。這些關(guān)鍵點(diǎn)可以很好地描述不同種類主軸承蓋零件間的形狀差異,為組建BoW模型提供了穩(wěn)定的“詞匯”信息。
圖5 提取主軸承蓋頂部側(cè)邊支撐面區(qū)域的關(guān)鍵點(diǎn)
從發(fā)動機(jī)主軸承蓋圖像中提取的關(guān)鍵點(diǎn)是實(shí)際的像素點(diǎn),僅包含單張圖像的具體空間位置信息,因此需要進(jìn)一步將關(guān)鍵點(diǎn)轉(zhuǎn)化為特征向量,以此作為關(guān)鍵點(diǎn)的數(shù)學(xué)表達(dá),才能充分反映任意一張主軸承蓋圖像在該點(diǎn)處的像素梯度及方向信息。
通過圖像的梯度信息,為每一個關(guān)鍵點(diǎn)確定一個方向,并且在后續(xù)的關(guān)鍵點(diǎn)描述中包含這些方向信息,使得SIFT特征獲得有效的旋轉(zhuǎn)不變性。對于任一個關(guān)鍵點(diǎn)(,),其梯度大小(,)和方向(,)可表示為
描述主軸承蓋圖像關(guān)鍵點(diǎn)的具體方法如圖6所示。在實(shí)際拍攝的圖像中取與關(guān)鍵點(diǎn)相鄰的8×8像素塊,計算每個像素點(diǎn)的梯度大小及方向。再將該像素塊分成16個2×2的子像素塊,對每個2×2子塊中的4個像素點(diǎn)的梯度做高斯加權(quán),并投影至8個方向,即,每個2×2子塊描述成一個1×8維的向量(共16個子塊)。由此,一個關(guān)鍵點(diǎn)最終由一個1×128維的特征向量描述。
由主軸承蓋圖像得到的SIFT特征向量是針對每一個具體關(guān)鍵點(diǎn)的描述,是該關(guān)鍵點(diǎn)周圍局部特征的體現(xiàn)。將這些關(guān)鍵點(diǎn)使用K-means聚類算法分成個分類,并以這些分類組成的詞匯模型來描述主軸承蓋圖像,可以突出不同種類主軸承蓋之間所包含的關(guān)鍵點(diǎn)的差異,同時也降低了圖像特征向量的維度。
K-means算法[11]是一種基于樣本間相似性度量的無監(jiān)督分類方法。此方法首先將所有樣本數(shù)據(jù)隨機(jī)分類成個簇,然后執(zhí)行迭代:將簇中全體樣本的位置均值設(shè)定為簇的中心,重新將樣本劃分為距離最近的簇中,完成一次迭代計算。通過重復(fù)的迭代完成樣本的聚類。在汽車發(fā)動機(jī)主軸承蓋分類識別方法中,所有主軸承蓋訓(xùn)練圖像中提取的SIFT特征,聚類成個分類,作為BoW模型的輸入。
BoW模型最初應(yīng)用于自然語言處理和信息檢索中,將文本看作是無序單詞的組合,建立詞匯表,統(tǒng)計每個文本中的詞匯信息實(shí)現(xiàn)文本的分類與檢索。隨著新的更穩(wěn)定的圖像特征提取算法的提出,BoW模型方法開始被引入機(jī)器視覺的任務(wù)中[12],例如衛(wèi)星圖像分類[13]等。
本文將K-means聚類方法得到的個分類,抽象為BoW詞匯表中的個詞匯,每一個訓(xùn)練數(shù)據(jù)集圖像均可由這個詞匯表述,形成的描述向量經(jīng)過L2歸一化,得到圖像最終的BoW描述。通過構(gòu)建BoW模型,將圖像的描述向量維度降低為[1×],提高了識別系統(tǒng)的運(yùn)行效率。同時,基于關(guān)鍵點(diǎn)詞匯表的圖像描述,可以突出不同種類零件關(guān)鍵點(diǎn)的差異,有利于提高系統(tǒng)的識別效率。
將所有訓(xùn)練數(shù)據(jù)集合的關(guān)鍵點(diǎn)特征向量進(jìn)行無監(jiān)督聚類,使得具有相似描述的關(guān)鍵點(diǎn),成為一類相似特征的組合。其中,描述關(guān)鍵點(diǎn)的特征向量,是由主軸承蓋圖像在該關(guān)鍵點(diǎn)的鄰域內(nèi)的像素點(diǎn)所決定的。因此,某一類關(guān)鍵點(diǎn)的組合,可以直觀的理解為主軸承蓋圖像的某個具體形狀特征,如圖7所示。
由圖7可知,每一張主軸承蓋圖像均可由聚類形成的中心詞匯集表示,這種圖像的表達(dá)形式稱為圖像的BoW模型描述。假設(shè)通過K-means聚類方法得到個詞匯,則對于任意一張主軸承蓋圖像,均可由一個[1×]的詞袋描述向量來表示,該向量內(nèi)的每一個元素表示:描述指定圖像時,對應(yīng)“詞匯”出現(xiàn)的次數(shù)。圖像的BoW描述作為SVM分類器訓(xùn)練時的輸入信息。
圖6 利用鄰域的像素梯度和方向來描述主軸承蓋的關(guān)鍵點(diǎn)
圖7 由主軸承蓋圖像關(guān)鍵點(diǎn)特征向量聚類形成的BoW模型“詞匯”
SVM[14]是一種基于統(tǒng)計學(xué)習(xí)理論的機(jī)器學(xué)習(xí)算法,根據(jù)有限的樣本信息,綜合考量模型的復(fù)雜性和學(xué)習(xí)能力,針對小樣本、非線性分類以及高維模式問題具有突出優(yōu)勢。SVM將圖像分類問題簡化為一個二分類模型,其核心思想是尋找一個使得最小分類間隔最大化的分類超平面。
對于已知的樣本空間(x,y),=1,2,···,,?R,?{±1},其超平面為wx+=0,如果該樣本空間線性可分,并且考慮添加合頁損失函數(shù)以考慮少數(shù)柔性不可分樣本,則SVM二分類問題的數(shù)學(xué)模型可表示為如下所示的凸二次規(guī)劃問題,即
對于實(shí)際應(yīng)用中更普遍存在的線性不可分樣本空間,SVM運(yùn)用核函數(shù)將低維樣本空間映射到高維特征空間,并在高維空間中構(gòu)建超平面以完成分類。核函數(shù)是SVM的重要手段,可避免直接求解非線性映射函數(shù)的具體形式,有效解決高維空間計算帶來的“維數(shù)災(zāi)難”問題,可極大擴(kuò)展SVM的實(shí)際應(yīng)用場景。常用的核函數(shù)有
線性核函數(shù):(,x)=·x
多項式核函數(shù):(,x)=[(·x)+1]
Sigmoid核函數(shù):(,x)=tanh((·x)+)
基于SIFT-SVM的發(fā)動機(jī)主軸承蓋識別分類方法中,識別準(zhǔn)確率的影響參數(shù)包括:①SVM分類器的核函數(shù);②K-means聚類算法的類別數(shù)。在該方法的驗(yàn)證中,本文進(jìn)一步探究了上述參數(shù)在實(shí)際識別過程中的具體影響。實(shí)驗(yàn)的評價指標(biāo)為:分類模型對于同一測試集數(shù)據(jù)的識別準(zhǔn)確率以及單張圖像的識別時間。驗(yàn)證實(shí)驗(yàn)的數(shù)據(jù)集圖像來源于實(shí)際拍攝的主軸承蓋圖像,主軸承蓋零件共有5個種類,訓(xùn)練集共采集500張圖像,每小類100張;測試集共采集200張圖像,每小類40張;圖像尺寸大小為2048×2048。
分別構(gòu)建4種常用核函數(shù)下的SVM分類器,進(jìn)行模型訓(xùn)練。同時,為了突出不同核函數(shù)對識別結(jié)果的影響,將聚類類別數(shù)取較小值=50,以使識別準(zhǔn)確率處于較低水平,各核函數(shù)下的整體識別結(jié)果見表1,其中,依次列舉線性核函數(shù)以及RBF核函數(shù)分類器所對應(yīng)的識別結(jié)果混淆矩陣,見表2和表3。
表1 采用不同核函數(shù)的SVM分類器識別結(jié)果
表2 K=50與線性核函數(shù)組合下的識別結(jié)果混淆矩陣
表3 K=50與RBF核函數(shù)組合下的識別結(jié)果混淆矩陣
由表1結(jié)果可知,基于RBF核函數(shù)的SVM分類器識別準(zhǔn)確率最高,且單張圖像識別時間滿足在線識別要求。綜合比較表2和表3的結(jié)果,采用線性核函數(shù)的SVM分類器,主要在第1類和第2類、第3類和第4類零件的識別上存在錯誤,而采用RBF核函數(shù)可以有效改善識別準(zhǔn)確率。是因?yàn)榫€性核函數(shù)對原樣本空間僅進(jìn)行線性映射,對于線性不可分的數(shù)據(jù)模型存在較大誤差,上述4類主軸承蓋的特征區(qū)域圖像,兩兩之間較為相似,關(guān)鍵點(diǎn)分布趨近,使得SVM分類器難以通過簡單的線性分割平面進(jìn)行分類,而RBF核函數(shù)則可以將主軸承蓋零件的原始特征映射至多維空間,使得原本分布趨同的特征描述在高維空間中分離,求解出更準(zhǔn)確的分割超平面,有效提升了主軸承蓋零件的識別準(zhǔn)確率。
同時,RBF核函數(shù)也含有2個主要參數(shù):高斯參數(shù)和懲罰系數(shù)。高斯參數(shù)與樣本分類的精細(xì)程度有關(guān),的值越小,分類越精確,即分類器力求將每個樣本都分類,因此存在過擬合的風(fēng)險;的值越大,則分類越粗糙,可能導(dǎo)致分類模型欠擬合。懲罰系數(shù)的直觀理解是允許SVM模型錯分樣本的程度,直接影響到分類模型的適應(yīng)性。的值越大,表示模型對錯分樣本的關(guān)注度越高,允許的錯分樣本越少,而要求每個樣本都被準(zhǔn)確分類會存在過擬合的風(fēng)險,模型的適應(yīng)性也隨之越低;相反,的值越小,表示模型允許的錯分樣本多,同時,追求最大的分類間隔會導(dǎo)致欠擬合,優(yōu)化算法難以收斂。針對上述2個參數(shù),驗(yàn)證實(shí)驗(yàn)采用網(wǎng)格搜索法[15]探究不同參數(shù)組合的實(shí)際影響,同樣取聚類類別數(shù)=50。實(shí)驗(yàn)結(jié)果以“識別準(zhǔn)確率-單張圖像識別時間”格式記錄于表4。
表4 不同高斯參數(shù)和懲罰系數(shù)的識別結(jié)果(識別準(zhǔn)確率-單張圖像識別時間(s) )
由表4可知,高斯參數(shù)和懲罰系數(shù)對主軸承蓋零件識別結(jié)果影響差異較小,其原因是本文方法提取的目標(biāo)區(qū)域關(guān)鍵點(diǎn)穩(wěn)定、有效,且存在明顯的分類差異,使得分類結(jié)果趨于穩(wěn)定。結(jié)合上述實(shí)驗(yàn)驗(yàn)證,最終選取高斯參數(shù)=1,懲罰系數(shù)=1,此時分類模型識別率最高,且識別時間損耗較小。
根據(jù)實(shí)際經(jīng)驗(yàn),聚類的類別數(shù)越大,則詞匯模型中用于描述圖像的“基本詞匯”越充足,描述越詳細(xì),因此通常會取得更好的識別效果。但由于主軸承蓋圖像目標(biāo)區(qū)域有效的關(guān)鍵點(diǎn)數(shù)目有限,因此,當(dāng)超過一定值時,識別系統(tǒng)的效果將不再變化,甚至因?yàn)槿哂嗝枋鰧?dǎo)致分類錯誤。因此,進(jìn)行對照組實(shí)驗(yàn),見表5。
表5 不同聚類類別數(shù)的識別結(jié)果
由表5結(jié)果可知,對于主軸承蓋零件的分類,聚類類別數(shù)的最優(yōu)選擇是=150,此時零件識別的準(zhǔn)確率達(dá)到100%,且單張圖像的識別時間為0.60 s。綜合比較表3和表6,通過增大聚類類別數(shù),可以將各種類主軸承蓋零件間的差異性關(guān)鍵點(diǎn),劃分為不同的基礎(chǔ)特征,避免了相似分布的關(guān)鍵點(diǎn)僅被簡單聚集成一個特征,因此,擴(kuò)展了SVM分類器的識別依據(jù),從而有效提升識別準(zhǔn)確率。
表6 K=150與RBF核函數(shù)組合下的識別結(jié)果混淆矩陣
綜合相關(guān)參數(shù)對識別結(jié)果影響的驗(yàn)證實(shí)驗(yàn),可以得到發(fā)動機(jī)主軸承蓋識別方法的最優(yōu)參數(shù)為:SVM分類器的核函數(shù)確定為RBF核函數(shù),其高斯系數(shù)=1,懲罰系數(shù)=1,聚類類別數(shù)150。經(jīng)實(shí)際數(shù)據(jù)測試,基于SIFT-SVM的發(fā)動機(jī)主軸承蓋識別分類方法的識別準(zhǔn)確率為100%,單張識別時間為0.60 s。
本文提出的基于SIFT-SVM的發(fā)動機(jī)主軸承蓋識別方法,結(jié)合了各種類零件之間的形狀差異,有效的實(shí)現(xiàn)了識別與分類。該方法將機(jī)器視覺相關(guān)理論應(yīng)用到工業(yè)生產(chǎn),其基本組件包括工業(yè)相機(jī)、環(huán)形LED光源、光電傳感器、電源和計算機(jī),硬件組成簡單易實(shí)現(xiàn),成本低廉。通過實(shí)驗(yàn)進(jìn)一步驗(yàn)證了該方法的有效性,在參數(shù)組合為:SVM分類器采用RBF核函數(shù),其高斯參數(shù)=1,懲罰系數(shù)=1,聚類類別數(shù)=150的情況下,該方法的識別正確率可以達(dá)到100%,單個零件的識別時間為0.60 s。
在實(shí)際應(yīng)用中,該方法對獲取圖像時的拍攝環(huán)境有一定的要求,需要額外設(shè)置光線遮擋裝置,以保證工作光源可以正常有效地照亮主軸承蓋零件上特定的目標(biāo)區(qū)域。當(dāng)外部干擾光線將零件分類特征區(qū)域以外的部分打亮?xí)r,會對識別系統(tǒng)產(chǎn)生嚴(yán)重干擾,導(dǎo)致圖像有效的SIFT關(guān)鍵點(diǎn)發(fā)生改變,由此造成識別錯誤。因此,識別系統(tǒng)的下一步改進(jìn)方向應(yīng)當(dāng)考慮采用更穩(wěn)健的關(guān)鍵點(diǎn)提取方案,以提高識別系統(tǒng)的靈敏性。
[1] BHAT NAGARAJ N, DUTTA S, VASHISTH T, et al. Tool condition monitoring by SVM classification of machined surface images in turning[J]. The International Journal of Advanced Manufacturing Technology, 2016, 83(9-12): 1487-1502.
[2] OLGUN M, ONARCAN AHMET O, ?ZKAN K, et al. Wheat grain classification by using dense SIFT features with SVM classifier[J]. Computers and Electronics in Agriculture, 2016, 122: 185-190.
[3] AZHAR R, TUWOHINGIDE D, KAMUDI D, et al. Batik image classification using SIFT feature extraction, bag of features and support vector machine[J]. Procedia Computer Science, 2015, 72: 24-30.
[4] MANZOOR MUHAMMAD A, MORGAN Y. Vehicle Make and Model classification system using bag of SIFT features[C]//2017 IEEE 7th Annual Computing and Communication Workshop and Conference (CCWC). New York: IEEE Press, 2017: 1-5.
[5] 楊全, 彭進(jìn)業(yè). 采用SIFT-BoW和深度圖像信息的中國手語識別研究[J]. 計算機(jī)科學(xué), 2014, 41(2): 302-307. YANG Q, PENG J Y. Chinese sign language recognition research using SIFT-BoW and depth image information[J]. Computer Science, 2014, 41(2): 302-307 (in Chinese).
[6] BERRETTI S, BEN AMOR B, DAOUDI M, et al. 3D facial expression recognition using SIFT descriptors of automatically detected keypoints[J]. The Visual Computer, 2011, 27(11): 1021-1036.
[7] KRüGER J, LEHR J, SCHLüTER M, et al. Deep learning for part identification based on inherent features[J]. CIRP Annals, 2019, 68(1): 9-12.
[8] IWAHORI Y, TAKADA Y, SHIINA T, et al. Defect classification of electronic board using dense SIFT and CNN[J]. Procedia Computer Science, 2018, 126: 1673-1682.
[9] NAJVA N, EDET BIJOY K. SIFT and tensor based object classification in images using Deep Neural Networks[C]//2016 International Conference on Information Science (ICIS). New York: IEEE Press, 2016: 32-37.
[10] LOWE DAVID G. Distinctive image features from scale-invariant keypoints[J]. International Journal of Computer Vision, 2004, 60(2): 91-110.
[11] JAIN ANIL K. Data clustering: 50 years beyond K-means[J]. Pattern Recognition Letters, 2010, 31(8): 651-666.
[12] SILVA FERNAND B, WERNECK RAFAEL DE O, et al. Graph-based bag-of-words for classification[J]. Pattern Recognition, 2018, 74: 266-285.
[13] YUAN Y, HU X Y. Bag-of-words and object-based classification for cloud extraction from satellite imagery[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2015, 8(8): 4197-4205.
[14] CORTES C, VAPNIK V. Support-vector networks[J]. Machine learning, 1995, 20(3): 273-297.
[15] 奉國和. SVM分類核函數(shù)及參數(shù)選擇比較[J]. 計算機(jī)工程與應(yīng)用, 2011, 47(3): 123-124. FENG G H. Parameter optimizing for support vector machines classification[J]. Computer Engineering and Applications, 2011, 47(3): 123-124 (in Chinese).
Classification of engine main bearing cap parts using SIFT-SVM method
SHI Zhi-liang, ZHANG Peng-fei, LI Xiao-yao
(Mechanical and Electrical Engineering, Wuhan University of Technology, Wuhan Hubei 430070, China)
The recognition and classification of mechanical components is a key process on the manufacturing automation line. In terms of the classification of the mixed and cleaned engine main bearing cap, through the analysis of the actual characteristics of the main bearing cap parts, the classification and recognition method for the main bearing cap based on SIFT-SVM was proposed. The method first extracted all scale-invariant feature transform (SIFT) feature vectors of the training dataset image, then employed the K-means clustering method to cluster all feature vectors into K classifications, and substituted the obtained K clustering results into the bag of word model (BoW). “Vocabulary” was utilized to describe each training image, thereby obtaining a BoW description of the image. The BoW description of each image served as a training input, and the classification model for the main bearing cap was trained using a support vector machine (SVM). The experimental results show that under the calibrated lighting conditions, the recognition rate of the main bearing cap parts can reach 100%, and the recognition time for a single part was 0.6 seconds, which verified the effectiveness and efficiency of the algorithm.
parts recognition and classification; machine vision; scale-invariant feature transform; word bag model; support vector machine classifier
TP 391.4
10.11996/JG.j.2095-302X.2020030382
A
2095-302X(2020)03-0382-08
2019-11-07;
2020-02-25
石志良(1974-),男,湖北武漢人,副教授,博士,碩士生導(dǎo)師。主要研究方向?yàn)?D打印、計算機(jī)視覺等。E-mail:shizhiL998@163.com